02 Testen im SW-Entwicklungslebenszyklus Flashcards
(8 cards)
Die Beziehungen zwischen SW-Entwicklungsaktivitäten und Testaktivitäten im SW-Entwicklungslebenszyklus erklären können.
Merkmale für gutes Testen:
- zu jeder Entwicklungsaktivität gibt es eine Aktivität im Testen
- jede Teststufe hat spezifische Testziele
- Testanalyse + Testentwurf für eine Teststufe beginnen während der zugehörigen Entwicklungsaktivität
- Testernehmen an Diskussionen zur Definition und Verfeinerung von Anforderungen des Entwrufs teil
- Tester sind früh am Review v. Arbeitsergebnissen beteiligt
Sequenzielle Modelle ( = linear, sequenzielle Abläufe, Eine Phase nach der anderen, keine Überlappung der Phasen)
- Wasserfall (Aktivitäten nacheinander)
- V-Modell (Testprozess in Entwicklungsprozess realisiert, teilweise Überlappung)
Iterativ-inkrementelle Modelle ( = Festlegung der Anforderungen erfolgt in Teilen, nutzbare SW in Wochen/Tagen; vollständige Anforderung ggf erst nach Monaten/Jahren)
- rational Unified Process (lange Iteration)
- Scrum (kurze Iteration)
- KanBan
- Spiralmodell
Gründe identifizieren können, warum SW-Entwicklungslebenszyklus-Modelle an den Kontext des Projekts und an die Produktmerkmale angepasst werden müssen.
- Projektziele
- Art des zu entwickelnden Produkts
- Geschäftsprioritäten
- Produkt- und Projektrisiken
Die unterschiedlichen Teststufen unter den Aspekten der Testziele, Testbasis, Testobjekte, typischen Fehlerzustände und Fehlerwirkungen sowie der Testvorgehensweise und Verantwortlichkeiten vergleichen können.
Teststufen:
KOMPONENTENTEST
Ziele: Risikoreduktion, Verifizierung Verhaltensweisen der Komponente denen der Anforderung entsprechen, Schaffen von Vertrauen Q der Komponente, Finden v. Fehlerzuständen K, Verhindern, dass Fehler weitergegeben werden.
Testbasis: Feinentwurf, Code, Modelle, Komponentenspezifikationen
Fehler und Fehlerwirkung: nihct korrekte Funktionalitäten, Datenflussprobleme, nicht korrekter Code/Logik
Ansätze/VA: Entwickler
INTEGRATIONSTEST
Ziele: Risikoreduktion, Verifizierung Verhaltensweise Schnittstelle, Verstrauen Q Schnittstellen, Fehlerzustände finden, Verhindern, dass F weitergegeben werden
Testbasis: Software/Systementwurf, Sequenzdiagramme, Schnittstellenspezi., Anwendungsfälle, Architektur auf Komponenten/Systemebenee, Workflows, Schnittstellendef.
Testobjekt: Subsysteme, Datenbanken, Infrastruktur, Schnittstellen APIs Microservices
Fehlerzustände/Wirkungen: Falsche/fehlende Daten, Reihenfolge, Kommunikation, Annahmen
VA: Entwickler/Tester
SYSTEMTEST
Ziele: Risikoreduktion, Verfizierung Verhalten System, Validiierung System vollständig, Vertrauen Q System, ..
Testbasis: System- Softwareanforderungsspezifikation, Risikoanalyseberichte, Anwendungsfälle, Epics/User Stories, Modelle, Zustandsdiagramme, Anleitungen
Testobjekte: Anweungen, Hardware/Software, Betriebssysteme, SUT
Fehlerzustände/Wirkungen: Falsche Berechnungen, Systemverhaltensweisen, Versagen end-to-end Aufgaben, nicht wie in Anleitung beschrieben
VA: unabhängige Tester
ABNAHMETEST
Ziel: Vertrauen Q System, Validieren System vollständig und wie erwartet, Verfizieren wie Spezifikationen
Testbasis: Geschäftsprozesse, Anforderungen, Vorschriften, User Stories, Dokumentationen
Testobjekte: SUT, Formulare, Berichte
Fehlerzustände/Wirkungen: Systemworkflows erfüllen nicht Anforderungen
VA: Kunde, Fachanwender, PO, Stakeholder
Funktionale, nicht-funktionale, White-Box-Tests vergleichen können.
Alle Testarten können auf jeder Teststufe vorkommen.
Testart: eine Gruppe v. Testaktivitäten, die darauf abzielt, spezifische Merkmale eines Softwaresystems oder eines Teils eines Systems auf der Grundlage spezifischer Testziele zu testen.
Funktionale Tests:
Funktionen, die das System ausführen soll >
fachliche Anforderungen, Epics, User Stories, Anwendungsfälle (“was” soll das System tun)
Nicht-funktionale Tests:
Merkmale von Systemen >
Performanz/Sicherheit, (“wie” soll das System etwas tun)
White-Box-Tests:
interne Struktur Systeme >
Code, Architektur, Workflows, Datenflüsse
Erkennen können, dass funktionale, nicht-funktionale und White-Box-Tests auf jeder Teststufe eingesetzt werden können.
Aneinanderreihung von Beispielen, alle Testarten können in jeder Teststufe vorkommen!
Zweck von Fehlernachtests und Regressionstest vergleichen können.
Fehlernachtest: Testen, ob Änderungen erfolgreich umgesetzt wurden
Regressionstest: Testen, ob Änderungen andere Änderungen im System nach sich gezogen hat.
Auslöser für Wartungstests zusammenfassen können.
- Modifikationen (Verbessern, korrigieren)
- Migration
- Außerbetriebnahme
Einsatz der Auswirkungsanalyse im Wartungstest beschreiben können.
Bewertung der Folgen von Veränderungen, Nebeneffekte. AWA schwierig, wenn - Spezfiikationen veraltet/fehlt - Testfälle nicht dokumentiert/veraltet - keine Verfolgbarkeit