Buch_SpezMultiVarAnal Flashcards
(65 cards)
Wie lautet die Grundgleichung der Klassischen Testtheorie psychometrischer Tests?
Die Grundgleichung lautet:
Y = tau + epsilon.
Hierbei bezeichnet Yi eine beobachtete Variable,
tau, die True-Score-Variable,
epsilon, die Fehlervariable.
Wie ist der wahre Wert in dieser Theorie definiert, und was ist daran »wahr«?
Der wahre Wert in der klassischen Testtheorie ist nicht das, was man in der Realität exakt messen kann. Stattdessen ist er eine Art „idealer Durchschnittswert“, den eine Person unter perfekten Bedingungen haben würde.
Vergleich mit einer Waage:
Stell dir vor, du wiegst dich mehrmals hintereinander auf derselben Waage. Jedes Mal zeigt die Waage ein leicht anderes Gewicht an (z. B. 70,1 kg, 70,3 kg, 70,0 kg). Der wahre Wert wäre dann der durchschnittliche Wert über viele Messungen – weil kleine Schwankungen (Messfehler) immer auftreten können.
Warum ist er „wahr“?
- „Wahr“ bedeutet nicht, dass er wirklich exakt existiert.
- Er ist eine mathematische Vorstellung davon, was der tatsächliche Wert ohne Messfehler wäre.
- Es geht nicht darum, ob er ein reales biologisches Merkmal hat (wie Blutdruck oder Größe), sondern darum, dass er das beste Maß für das gemessene Merkmal ist.
Einfach gesagt: Der wahre Wert ist das, was du theoretisch haben solltest, wenn alle Messungen perfekt fehlerfrei wären.
Was sind die Konsequenzen der Messfehlerabhängigkeit psychologischer Messungen? (Korrelation, Einfache & Multiple Regression, ANOVA, Power)
- Korrelationen:
- Messfehler führen zu einer Unterschätzung des wahren Zusammenhangs zwischen Variablen.
- Je stärker die Messfehler, desto schwächer erscheint die Korrelation.
- Einfache Regression:
- Messfehler in der unabhängigen Variable unterschätzen den wahren Effekt auf die abhängige Variable.
- Multiple Regression:
- Messfehler können zu Unter- oder Überschätzungen der Effekte führen.
- Eine unzuverlässig gemessene Variable kann auch die Schätzung anderer Variablen verzerren (wenn sie korrelieren).
4.Varianzanalyse (ANOVA):
- Unabhängige Variablen (z. B. experimentelle Bedingungen) sind oft fehlerfrei.
- Messfehler in der abhängigen Variable verringern den erklärten Varianzanteil R^2.
5.Teststärke (Power):
- Messfehler reduzieren die Effektgröße R^2 und damit die Power, um Effekte statistisch nachzuweisen.
Nennen Sie vier wichtige Eigenschaften der True-Score- und der Messfehlervariablen.
(a) Der Erwartungswert einer Messfehlervariablen ist für jede Ausprägung der True-Score-Variablen gleich 0.
(b) Der unbedingte Erwartungswert einer Messfehlervariablen ist gleich 0.
(c) Messfehler- und True-Score-Variablen sind unkorreliert.
(d) Die Varianz einer beobachteten Messwertvariablen lässt sich additiv zerlegen in die Varianz der True-Score-Variablen und die Varianz der Messfehlervariablen.
Was sind die Grundannahmen aller Messmodelle?
Alle Modelle gehen davon aus, dass die beobachteten Variablen dasselbe zugrunde liegende Merkmal messen. Das bedeutet, dass die „wahren Werte“ dieser Variablen in einem bestimmten Verhältnis zueinander stehen.
Jede beobachtete Variable besteht aus drei Teilen:
1. Einem Grundwert (Leichtigkeitsparameter), der festlegt, wie hoch die Werte im Durchschnitt sind.
2. Einem gewichteten Anteil der gemeinsamen zugrunde liegenden Variablen. Wie stark eine Variable mit dieser gemeinsamen Variablen zusammenhängt, wird durch einen Diskriminationsparameter bestimmt.
3. Einem Fehleranteil, der zufällige Schwankungen enthält.
Der Unterschied zwischen den verschiedenen Modellen besteht darin, welche Einschränkungen sie auf diese Bestandteile setzen. Manche Modelle erlauben zum Beispiel, dass die Gewichtung für alle Variablen gleich ist, während andere Modelle dies nicht voraussetzen.
Was sind die Grundannahmen des Modells essentiell τ-äquivalenter Variablen?
Im Modell essentiell tau-äquivalenter Variablen dürfen sich die beobachteten Variablen nur in Bezug auf die Leichtigkeitsparameter und die Fehlervarianzen unterscheiden.
tau_i = alpha_i + eta
Was sind die Grundannahmen des Modells τ-äquivalenter Variablen?
Im Modell tau-äquivalenter Variablen dürfen sich die beobachteten Variablen nur in ihren Fehlervarianzen, nicht aber in ihren Leichtigkeitsparametern unterscheiden.
tau_i = alpha_i + eta
alpha_i = alpha_j
Was sind die Grundannahmen des Modells essentiell tau-paralleler Variablen?
Im Modell essentiell tau-paralleler Variablen werden Unterschiede in den Leichtigkeitsparametern zugelassen, nicht aber Unterschiede in den Fehlervarianzen.
tau_i = alpha_i + eta
Var(epsilon_i) = Var(epsilon_j)
Was sind die Grundannahmen des Modells tau-paralleler Variablen?
Im Modell tau-paralleler Variablen erfassen alle Testverfahren dasselbe eindimensionale Merkmal mit gleicher Leichtigkeit, Diskriminationsfähigkeit und Fehlervarianz.
tau_i = alpha_i + eta
alpha_i = alpha_j
Var(epsilon_i) = Var(epsilon_j)
Was sind die Grundannahmen des Modells tau-kongenerischer Variablen?
Im Modell tau-kongenerischer Variablen dürfen die verschiedenen beobachteten Variablen unterschiedliche Leichtigkeitsparameter, unterschiedliche Diskriminationsparameter und unterschiedliche Fehlervarianzen aufweisen.
tau_i = alpha_i + lambda_i * eta
Worin unterscheiden sich exploratorische und konfirmatorische Faktorenanalyse?
Bei einer konfirmatorischen Faktorenanalyse (CFA) wird bereits vor der Analyse festgelegt, wie viele Faktoren es gibt und welche Variablen mit welchen Faktoren zusammenhängen sollen. Das Ziel ist zu prüfen, ob dieses theoretische Modell wirklich zu den Daten passt.
Bei der exploratorischen Faktorenanalyse (EFA) weiß man vorher nicht genau, wie viele Faktoren es gibt oder welche Variablen zu welchem Faktor gehören. Man lässt die Analyse selbst herausfinden, wie viele Faktoren nötig sind, um die Zusammenhänge zwischen den Variablen zu erklären.
Einfach gesagt:
- CFA: Man testet, ob eine vorher aufgestellte Theorie zu den Daten passt.
- EFA: Man sucht erst heraus, welche Struktur die Daten haben.
Wie lautet die Grundgleichung der Faktorenanalyse?
Die Grundgleichung der Faktorenanalyse lautet:
Yi = αi + λi1 · η1 + … + λij · ηj + … + λik · ηk + εi
Wie sind Reliabilität und Unreliabilität definiert?
Die Reliabilität einer beobachteten Variablen gibt an, wie viel von der gemessenen Information tatsächlich das misst, was gemessen werden soll. Sie zeigt, wie zuverlässig eine Messung ist.
Man kann sie berechnen, indem man von 1 die Unreliabilität abzieht oder der Anteil der wahren Varianz an der Gesamtvarianz.
Die Unreliabilität gibt an, wie viel der gemessenen Werte durch Fehler beeinflusst wird. Sie wird berechnet, indem man die Fehlerstreuung mit der gesamten Messstreuung vergleicht.
Einfach gesagt:
- Reliabilität = „Wie viel von der Messung ist korrekt?“**
- Unreliabilität = „Wie viel ist durch Fehler verfälscht?“**
Je höher die Reliabilität, desto genauer ist die Messung.
Was versteht man unter Identifizierbarkeit? Und was sind beispielhaft Parameter in der SEM aus den beobachteten Variablen?
Identifizierbarkeit bedeutet, dass alle Werte, die wir in einem Modell schätzen wollen, eindeutig bestimmt werden können. Ein Modell ist nur dann identifizierbar, wenn es genügend Informationen gibt, um jeden dieser Werte zu berechnen.
Bei einem identifizierten Modell kann man alle unbekannten Werte (Parameter) aus den bekannten Daten wie Mittelwerten, Varianzen und Kovarianzen der beobachteten Variablen bestimmen.
Was ist ein Parameter in SEM?
Ein Parameter ist eine Zahl im Modell, die wir schätzen wollen. In der Strukturgleichungsmodellierung (SEM) gibt es verschiedene Arten von Parametern:
- Faktorladungen: Wie stark eine beobachtete Variable mit einer latenten Variable zusammenhängt.
- Varianzen: Wie stark sich eine Variable innerhalb der Gruppe unterscheidet.
- Kovarianzen: Wie zwei Variablen miteinander zusammenhängen.
- Regressionskoeffizienten: Wie stark eine Variable eine andere beeinflusst.
Einfach gesagt:
- Identifizierbarkeit = Können wir alle benötigten Zahlen berechnen?
- Parameter = Die Zahlen, die wir im Modell schätzen wollen, wie Zusammenhänge zwischen Variablen.
Erläutern Sie das Grundprinzip auf Matrix-Ebene der Parameterschätzung bei der konfirmatorischen Faktorenanalyse.
Bei der Schätzung von konfirmatorischen Faktormodellen geht es darum, die unbekannten Werte im Modell (die Modellparameter) so zu bestimmen, dass das Modell möglichst gut zu den tatsächlichen Daten passt.
Dafür wird eine modellierte Kovarianzmatrix (Sigma_dach) erstellt, die die Zusammenhänge zwischen den Variablen im Modell beschreibt. Diese wird mit der empirischen Kovarianzmatrix verglichen, die aus den echten Daten berechnet wurde.
Das Ziel ist, dass sich beide Matrizen möglichst ähnlich sind, aber nur unter der Bedingung, dass die Vorgaben des Modells (z. B. welche Variablen auf welche Faktoren laden) eingehalten werden.
Einfach gesagt:
- Die Schätzung versucht, die berechneten Werte im Modell so anzupassen, dass sie die echten Daten möglichst gut widerspiegeln.
- Dabei müssen aber die Regeln des Modells beachtet werden.
Welche Schätzmethoden kann man im Falle nicht-normalverteilter Variablen einsetzen?
Wenn die Variablen in einem Modell nicht normalverteilt sind, gibt es spezielle Schätzmethoden, die trotzdem funktionieren. Hier sind die wichtigsten Möglichkeiten:
- Verfahren, die keine Normalverteilung brauchen:
- Weighted Least Squares (WLS): Ein Verfahren, das die Varianzen und Kovarianzen unterschiedlich stark gewichtet.
- Unweighted Least Squares (ULS): Ein ähnliches Verfahren wie WLS, aber ohne Gewichtung.
- Two-Stage Least Squares (TSLS): Schätzt die Parameter in zwei Schritten, um bestimmte Probleme wie Endogenität zu vermeiden.
- Instrumental Variables (IV)-Methode: Verwendet zusätzliche „Hilfsvariablen“ (Instrumentvariablen), um Schätzfehler zu reduzieren.
- Korrigierte Maximum-Likelihood-Schätzung:
- Auch wenn die Maximum-Likelihood-Methode (ML) normalerweise Normalverteilung voraussetzt, kann man die Ergebnisse anpassen, wenn die Variablen nicht normalverteilt sind.
- Das geht mit Korrekturen wie der Satorra-Bentler-Korrektur, der MLM-Methode oder der MLMV-Methode, die die Standardfehler anpassen.
- Bootstrapping:
- Eine Methode, die durch wiederholtes Ziehen von Stichproben aus den Daten die Standardfehler schätzt, ohne eine bestimmte Verteilung anzunehmen.
Einfach gesagt:
- Es gibt verschiedene Methoden, um Modelle auch dann zuverlässig zu schätzen, wenn die Daten nicht normalverteilt sind.
- Entweder nutzt man Verfahren, die keine Normalverteilung brauchen, oder man korrigiert die Schätzung mithilfe spezieller Anpassungen wie Bootstrapping oder Satorra-Bentler.
Welche Maße zur Bewertung der Modellgüte kennen Sie?
Um zu prüfen, wie gut ein Modell zu den Daten passt, gibt es verschiedene Methoden. Diese kann man in drei Gruppen einteilen:
- Detailmaße der Anpassungsgüte:
- Residuen und standardisierte Residuen: Diese Werte zeigen, wie stark die Unterschiede zwischen den beobachteten und den vom Modell vorhergesagten Werten sind.
- Globalmaße der Anpassungsgüte: Diese geben eine Gesamtbewertung des Modells:
- Root Mean Square Residual (RMSR): Zeigt, wie groß die durchschnittlichen Abweichungen zwischen Modell und Daten sind.
- χ2-Test: Testet, ob das Modell in der gesamten Population gültig ist. Ein hoher p-Wert (größer als 0,05) deutet darauf hin, dass das Modell gut passt.
- Closeness-of-Fit-Koeffizienten (z. B. RMSEA): Diese messen, wie nah das Modell an einer guten Passung ist, auch wenn es nicht perfekt ist.
- Incremental-Fit-Koeffizienten:
- Diese vergleichen das Modell mit einem einfacheren Basismodell. Wenn das aktuelle Modell eine bessere Passung hat, zeigt dies, dass es mehr erklärt als das Basismodell.
Einfach gesagt:
- Man kann entweder einzelne Unterschiede (Residuen) oder globale Maßstäbe (χ2-Test, RMSEA) nutzen, um die Modellgüte zu bewerten.
- Es gibt auch Methoden, die prüfen, ob das Modell besser ist als eine einfachere Version (Incremental-Fit-Koeffizienten).
Wodurch ist ein pfadanalytisches Modell hinsichtlich der Variablen gekennzeichnet?
In einem pfadanalytischen Modell kann eine Variable sowohl abhängige als auch unabhängige Variable sein.
Was versteht man unter einem rekursiven, was unter einem nicht-rekursiven Modell?
In nicht-rekursiven Pfadmodellen werden Rückkoppelungen einer Variablen auf sich selbst zugelassen, rekursive Modelle schließen diese Möglichkeit aus.
Was sind exogene Variablen?
Exogene Variablen sind Variablen, die in einem Modell nicht erklärt werden.
Was versteht man unter endogenen Variablen?
Endogene Variablen sind Variablen, deren Variation in einem Modell erklärt wird.
Was sind Mediatorvariablen?
Mediatorvariablen sind vermittelnde Variablen. Sie vermitteln den Einfluss, den eine Variable auf eine andere Variable hat.
Was versteht man unter einem
(a) spezifischen indirekten Effekt,
(b) einem totalen indirekten Effekt,
(c) einem direkten Effekt,
(d) einem totalen Effekt?
(a) Ein spezifischer indirekter Effekt ist ein indirekter Effekt, den eine Variable auf eine andere Variable
hat, der über eine spezifische Verknüpfung dazwischen liegender Mediatorvariablen vermittelt wird.
(b) Ein totaler indirekter Effekt setzt sich aus einzelnen spezifischen indirekten Effekten zusammen.
(c) Ein direkter Effekt repräsentiert den Einfluss, den eine Variable auf eine andere Variable hat, ohne dass dieser durch eine weitere Variable vermittelt wird.
(d) Ein totaler Effekt setzt sich aus dem totalen indirekten und dem direkten Effekt zusammen.
Wie bestimmt man einen spezifischen indirekten Effekt?
Ein spezifischer indirekter Effekt ergibt sich als Produkt der Pfadkoeffizienten, die man auf dem indirekten Weg zwischen zwei Variablen findet.