Buch_SpezMultiVarAnal Flashcards

(65 cards)

1
Q

Wie lautet die Grundgleichung der Klassischen Testtheorie psychometrischer Tests?

A

Die Grundgleichung lautet:
Y = tau + epsilon.
Hierbei bezeichnet Yi eine beobachtete Variable,
tau, die True-Score-Variable,
epsilon, die Fehlervariable.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wie ist der wahre Wert in dieser Theorie definiert, und was ist daran »wahr«?

A

Der wahre Wert in der klassischen Testtheorie ist nicht das, was man in der Realität exakt messen kann. Stattdessen ist er eine Art „idealer Durchschnittswert“, den eine Person unter perfekten Bedingungen haben würde.

Vergleich mit einer Waage:
Stell dir vor, du wiegst dich mehrmals hintereinander auf derselben Waage. Jedes Mal zeigt die Waage ein leicht anderes Gewicht an (z. B. 70,1 kg, 70,3 kg, 70,0 kg). Der wahre Wert wäre dann der durchschnittliche Wert über viele Messungen – weil kleine Schwankungen (Messfehler) immer auftreten können.

Warum ist er „wahr“?
- „Wahr“ bedeutet nicht, dass er wirklich exakt existiert.
- Er ist eine mathematische Vorstellung davon, was der tatsächliche Wert ohne Messfehler wäre.
- Es geht nicht darum, ob er ein reales biologisches Merkmal hat (wie Blutdruck oder Größe), sondern darum, dass er das beste Maß für das gemessene Merkmal ist.

Einfach gesagt: Der wahre Wert ist das, was du theoretisch haben solltest, wenn alle Messungen perfekt fehlerfrei wären.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was sind die Konsequenzen der Messfehlerabhängigkeit psychologischer Messungen? (Korrelation, Einfache & Multiple Regression, ANOVA, Power)

A
  1. Korrelationen:
    • Messfehler führen zu einer Unterschätzung des wahren Zusammenhangs zwischen Variablen.
    • Je stärker die Messfehler, desto schwächer erscheint die Korrelation.
  2. Einfache Regression:
    • Messfehler in der unabhängigen Variable unterschätzen den wahren Effekt auf die abhängige Variable.
  3. Multiple Regression:
    • Messfehler können zu Unter- oder Überschätzungen der Effekte führen.
    • Eine unzuverlässig gemessene Variable kann auch die Schätzung anderer Variablen verzerren (wenn sie korrelieren).

4.Varianzanalyse (ANOVA):
- Unabhängige Variablen (z. B. experimentelle Bedingungen) sind oft fehlerfrei.
- Messfehler in der abhängigen Variable verringern den erklärten Varianzanteil R^2.

5.Teststärke (Power):
- Messfehler reduzieren die Effektgröße R^2 und damit die Power, um Effekte statistisch nachzuweisen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Nennen Sie vier wichtige Eigenschaften der True-Score- und der Messfehlervariablen.

A

(a) Der Erwartungswert einer Messfehlervariablen ist für jede Ausprägung der True-Score-Variablen gleich 0.
(b) Der unbedingte Erwartungswert einer Messfehlervariablen ist gleich 0.
(c) Messfehler- und True-Score-Variablen sind unkorreliert.
(d) Die Varianz einer beobachteten Messwertvariablen lässt sich additiv zerlegen in die Varianz der True-Score-Variablen und die Varianz der Messfehlervariablen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was sind die Grundannahmen aller Messmodelle?

A

Alle Modelle gehen davon aus, dass die beobachteten Variablen dasselbe zugrunde liegende Merkmal messen. Das bedeutet, dass die „wahren Werte“ dieser Variablen in einem bestimmten Verhältnis zueinander stehen.

Jede beobachtete Variable besteht aus drei Teilen:
1. Einem Grundwert (Leichtigkeitsparameter), der festlegt, wie hoch die Werte im Durchschnitt sind.
2. Einem gewichteten Anteil der gemeinsamen zugrunde liegenden Variablen. Wie stark eine Variable mit dieser gemeinsamen Variablen zusammenhängt, wird durch einen Diskriminationsparameter bestimmt.
3. Einem Fehleranteil, der zufällige Schwankungen enthält.

Der Unterschied zwischen den verschiedenen Modellen besteht darin, welche Einschränkungen sie auf diese Bestandteile setzen. Manche Modelle erlauben zum Beispiel, dass die Gewichtung für alle Variablen gleich ist, während andere Modelle dies nicht voraussetzen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Was sind die Grundannahmen des Modells essentiell τ-äquivalenter Variablen?

A

Im Modell essentiell tau-äquivalenter Variablen dürfen sich die beobachteten Variablen nur in Bezug auf die Leichtigkeitsparameter und die Fehlervarianzen unterscheiden.

tau_i = alpha_i + eta

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was sind die Grundannahmen des Modells τ-äquivalenter Variablen?

A

Im Modell tau-äquivalenter Variablen dürfen sich die beobachteten Variablen nur in ihren Fehlervarianzen, nicht aber in ihren Leichtigkeitsparametern unterscheiden.

tau_i = alpha_i + eta
alpha_i = alpha_j

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was sind die Grundannahmen des Modells essentiell tau-paralleler Variablen?

A

Im Modell essentiell tau-paralleler Variablen werden Unterschiede in den Leichtigkeitsparametern zugelassen, nicht aber Unterschiede in den Fehlervarianzen.

tau_i = alpha_i + eta
Var(epsilon_i) = Var(epsilon_j)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was sind die Grundannahmen des Modells tau-paralleler Variablen?

A

Im Modell tau-paralleler Variablen erfassen alle Testverfahren dasselbe eindimensionale Merkmal mit gleicher Leichtigkeit, Diskriminationsfähigkeit und Fehlervarianz.

tau_i = alpha_i + eta
alpha_i = alpha_j
Var(epsilon_i) = Var(epsilon_j)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was sind die Grundannahmen des Modells tau-kongenerischer Variablen?

A

Im Modell tau-kongenerischer Variablen dürfen die verschiedenen beobachteten Variablen unterschiedliche Leichtigkeitsparameter, unterschiedliche Diskriminationsparameter und unterschiedliche Fehlervarianzen aufweisen.

tau_i = alpha_i + lambda_i * eta

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Worin unterscheiden sich exploratorische und konfirmatorische Faktorenanalyse?

A

Bei einer konfirmatorischen Faktorenanalyse (CFA) wird bereits vor der Analyse festgelegt, wie viele Faktoren es gibt und welche Variablen mit welchen Faktoren zusammenhängen sollen. Das Ziel ist zu prüfen, ob dieses theoretische Modell wirklich zu den Daten passt.

Bei der exploratorischen Faktorenanalyse (EFA) weiß man vorher nicht genau, wie viele Faktoren es gibt oder welche Variablen zu welchem Faktor gehören. Man lässt die Analyse selbst herausfinden, wie viele Faktoren nötig sind, um die Zusammenhänge zwischen den Variablen zu erklären.

Einfach gesagt:
- CFA: Man testet, ob eine vorher aufgestellte Theorie zu den Daten passt.
- EFA: Man sucht erst heraus, welche Struktur die Daten haben.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Wie lautet die Grundgleichung der Faktorenanalyse?

A

Die Grundgleichung der Faktorenanalyse lautet:
Yi = αi + λi1 · η1 + … + λij · ηj + … + λik · ηk + εi

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wie sind Reliabilität und Unreliabilität definiert?

A

Die Reliabilität einer beobachteten Variablen gibt an, wie viel von der gemessenen Information tatsächlich das misst, was gemessen werden soll. Sie zeigt, wie zuverlässig eine Messung ist.

Man kann sie berechnen, indem man von 1 die Unreliabilität abzieht oder der Anteil der wahren Varianz an der Gesamtvarianz.

Die Unreliabilität gibt an, wie viel der gemessenen Werte durch Fehler beeinflusst wird. Sie wird berechnet, indem man die Fehlerstreuung mit der gesamten Messstreuung vergleicht.

Einfach gesagt:
- Reliabilität = „Wie viel von der Messung ist korrekt?“**
- Unreliabilität = „Wie viel ist durch Fehler verfälscht?“**

Je höher die Reliabilität, desto genauer ist die Messung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was versteht man unter Identifizierbarkeit? Und was sind beispielhaft Parameter in der SEM aus den beobachteten Variablen?

A

Identifizierbarkeit bedeutet, dass alle Werte, die wir in einem Modell schätzen wollen, eindeutig bestimmt werden können. Ein Modell ist nur dann identifizierbar, wenn es genügend Informationen gibt, um jeden dieser Werte zu berechnen.

Bei einem identifizierten Modell kann man alle unbekannten Werte (Parameter) aus den bekannten Daten wie Mittelwerten, Varianzen und Kovarianzen der beobachteten Variablen bestimmen.

Was ist ein Parameter in SEM?
Ein Parameter ist eine Zahl im Modell, die wir schätzen wollen. In der Strukturgleichungsmodellierung (SEM) gibt es verschiedene Arten von Parametern:
- Faktorladungen: Wie stark eine beobachtete Variable mit einer latenten Variable zusammenhängt.
- Varianzen: Wie stark sich eine Variable innerhalb der Gruppe unterscheidet.
- Kovarianzen: Wie zwei Variablen miteinander zusammenhängen.
- Regressionskoeffizienten: Wie stark eine Variable eine andere beeinflusst.

Einfach gesagt:
- Identifizierbarkeit = Können wir alle benötigten Zahlen berechnen?
- Parameter = Die Zahlen, die wir im Modell schätzen wollen, wie Zusammenhänge zwischen Variablen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Erläutern Sie das Grundprinzip auf Matrix-Ebene der Parameterschätzung bei der konfirmatorischen Faktorenanalyse.

A

Bei der Schätzung von konfirmatorischen Faktormodellen geht es darum, die unbekannten Werte im Modell (die Modellparameter) so zu bestimmen, dass das Modell möglichst gut zu den tatsächlichen Daten passt.

Dafür wird eine modellierte Kovarianzmatrix (Sigma_dach) erstellt, die die Zusammenhänge zwischen den Variablen im Modell beschreibt. Diese wird mit der empirischen Kovarianzmatrix verglichen, die aus den echten Daten berechnet wurde.

Das Ziel ist, dass sich beide Matrizen möglichst ähnlich sind, aber nur unter der Bedingung, dass die Vorgaben des Modells (z. B. welche Variablen auf welche Faktoren laden) eingehalten werden.

Einfach gesagt:
- Die Schätzung versucht, die berechneten Werte im Modell so anzupassen, dass sie die echten Daten möglichst gut widerspiegeln.
- Dabei müssen aber die Regeln des Modells beachtet werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Welche Schätzmethoden kann man im Falle nicht-normalverteilter Variablen einsetzen?

A

Wenn die Variablen in einem Modell nicht normalverteilt sind, gibt es spezielle Schätzmethoden, die trotzdem funktionieren. Hier sind die wichtigsten Möglichkeiten:

  1. Verfahren, die keine Normalverteilung brauchen:
    • Weighted Least Squares (WLS): Ein Verfahren, das die Varianzen und Kovarianzen unterschiedlich stark gewichtet.
    • Unweighted Least Squares (ULS): Ein ähnliches Verfahren wie WLS, aber ohne Gewichtung.
    • Two-Stage Least Squares (TSLS): Schätzt die Parameter in zwei Schritten, um bestimmte Probleme wie Endogenität zu vermeiden.
    • Instrumental Variables (IV)-Methode: Verwendet zusätzliche „Hilfsvariablen“ (Instrumentvariablen), um Schätzfehler zu reduzieren.
  2. Korrigierte Maximum-Likelihood-Schätzung:
    • Auch wenn die Maximum-Likelihood-Methode (ML) normalerweise Normalverteilung voraussetzt, kann man die Ergebnisse anpassen, wenn die Variablen nicht normalverteilt sind.
    • Das geht mit Korrekturen wie der Satorra-Bentler-Korrektur, der MLM-Methode oder der MLMV-Methode, die die Standardfehler anpassen.
  3. Bootstrapping:
    • Eine Methode, die durch wiederholtes Ziehen von Stichproben aus den Daten die Standardfehler schätzt, ohne eine bestimmte Verteilung anzunehmen.

Einfach gesagt:
- Es gibt verschiedene Methoden, um Modelle auch dann zuverlässig zu schätzen, wenn die Daten nicht normalverteilt sind.
- Entweder nutzt man Verfahren, die keine Normalverteilung brauchen, oder man korrigiert die Schätzung mithilfe spezieller Anpassungen wie Bootstrapping oder Satorra-Bentler.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Welche Maße zur Bewertung der Modellgüte kennen Sie?

A

Um zu prüfen, wie gut ein Modell zu den Daten passt, gibt es verschiedene Methoden. Diese kann man in drei Gruppen einteilen:

  1. Detailmaße der Anpassungsgüte:
    • Residuen und standardisierte Residuen: Diese Werte zeigen, wie stark die Unterschiede zwischen den beobachteten und den vom Modell vorhergesagten Werten sind.
  2. Globalmaße der Anpassungsgüte: Diese geben eine Gesamtbewertung des Modells:
    • Root Mean Square Residual (RMSR): Zeigt, wie groß die durchschnittlichen Abweichungen zwischen Modell und Daten sind.
    • χ2-Test: Testet, ob das Modell in der gesamten Population gültig ist. Ein hoher p-Wert (größer als 0,05) deutet darauf hin, dass das Modell gut passt.
    • Closeness-of-Fit-Koeffizienten (z. B. RMSEA): Diese messen, wie nah das Modell an einer guten Passung ist, auch wenn es nicht perfekt ist.
  3. Incremental-Fit-Koeffizienten:
    • Diese vergleichen das Modell mit einem einfacheren Basismodell. Wenn das aktuelle Modell eine bessere Passung hat, zeigt dies, dass es mehr erklärt als das Basismodell.

Einfach gesagt:
- Man kann entweder einzelne Unterschiede (Residuen) oder globale Maßstäbe (χ2-Test, RMSEA) nutzen, um die Modellgüte zu bewerten.
- Es gibt auch Methoden, die prüfen, ob das Modell besser ist als eine einfachere Version (Incremental-Fit-Koeffizienten).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Wodurch ist ein pfadanalytisches Modell hinsichtlich der Variablen gekennzeichnet?

A

In einem pfadanalytischen Modell kann eine Variable sowohl abhängige als auch unabhängige Variable sein.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Was versteht man unter einem rekursiven, was unter einem nicht-rekursiven Modell?

A

In nicht-rekursiven Pfadmodellen werden Rückkoppelungen einer Variablen auf sich selbst zugelassen, rekursive Modelle schließen diese Möglichkeit aus.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Was sind exogene Variablen?

A

Exogene Variablen sind Variablen, die in einem Modell nicht erklärt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Was versteht man unter endogenen Variablen?

A

Endogene Variablen sind Variablen, deren Variation in einem Modell erklärt wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Was sind Mediatorvariablen?

A

Mediatorvariablen sind vermittelnde Variablen. Sie vermitteln den Einfluss, den eine Variable auf eine andere Variable hat.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Was versteht man unter einem
(a) spezifischen indirekten Effekt,
(b) einem totalen indirekten Effekt,
(c) einem direkten Effekt,
(d) einem totalen Effekt?

A

(a) Ein spezifischer indirekter Effekt ist ein indirekter Effekt, den eine Variable auf eine andere Variable
hat, der über eine spezifische Verknüpfung dazwischen liegender Mediatorvariablen vermittelt wird.
(b) Ein totaler indirekter Effekt setzt sich aus einzelnen spezifischen indirekten Effekten zusammen.
(c) Ein direkter Effekt repräsentiert den Einfluss, den eine Variable auf eine andere Variable hat, ohne dass dieser durch eine weitere Variable vermittelt wird.
(d) Ein totaler Effekt setzt sich aus dem totalen indirekten und dem direkten Effekt zusammen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Wie bestimmt man einen spezifischen indirekten Effekt?

A

Ein spezifischer indirekter Effekt ergibt sich als Produkt der Pfadkoeffizienten, die man auf dem indirekten Weg zwischen zwei Variablen findet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Was versteht man unter einem autoregressiven Effekt?
Ein autoregressiver Effekt ist ein regressiver Effekt, den ein Merkmal, das zu einem früheren Messzeitpunkt gemessen wurde, auf das selbe Merkmale hat, das zu einem späteren Messzeitpunkt erneut gemessen wurde.
26
Was gibt die Ordnung eines autoregressiven Modells an?
In einem autoregressiven Modell k-ter Ordnung wirken sich alle Messungen bis zu dem k-ten Messzeitpunkt vor der Messung in direkter Weise auf Merkmalsunterschiede aus.
27
Was ist der Sobel-Test? Welches Problem ist mit der Anwendung des Sobel-Tests verknüpft?
Der Sobel-Test wird in der Strukturgleichungsmodellierung (SEM – Structural Equation Modeling) verwendet, um die Signifikanz eines Mediations-Effekts zu testen. Er prüft, ob der indirekte Effekt einer unabhängigen Variable (X) auf eine abhängige Variable (Y) über eine Mediator-Variable (M) signifikant ist. Der Sobel-Test geht in inadäquater Weise von einer symmetrischen Stichprobenkennwerteverteilung eines indirekten Effekts aus.
28
Welches Verfahren ist die derzeitige Methode der Wahl zur statistischen Überprüfung von Mediatorhypothesen?
Das bias-korrigierte Bootstrapping-Verfahren ist die derzeitige Methode der Wahl zur statistischen Überprüfung von Mediatorhypothesen.
29
Wodurch ist ein lineares Strukturgleichungsmodell gekennzeichnet?
Ein lineares Strukturgleichungsmodell stellt eine Kombination der Faktorenanalyse mit der Pfadanalyse dar. Es erlaubt, Abhängigkeits- und Beeinflussungsstrukturen auf der Ebene wahrer, messfehlerbereinigter Unterschiede zu untersuchen.
30
In welche zwei Teilmodelle lässt sich ein lineares Strukturgleichungsmodell zerlegen?
Ein lineares Strukturgleichungsmodell lässt sich in das Messmodell und das Strukturmodell zerlegen. Im Messmodell wird gezeigt, wie latente, messfehlerbereinigte Variablen auf Grundlage eines faktorenanalytischen Modells definiert werden können. Im Strukturmodell werden die Beziehungen zwischen den latenten Variablen anhand eines Pfadmodells spezifiziert.
31
Erläutern Sie die Grundidee eines Latent-State-Trait-Modells.
Ein Latent-State-Trait-Modell ist ein Modell der Veränderungsmessung. In ihm wird ein beobachteter Wert in einen latenten Traitfaktorwert, einen latenten messgelegenheitsspezifischen Abweichungswert und einen Fehlerwert zerlegt. Die latenten Traitvariablen kennzeichnen zeitstabile Bedingungen beobachtbarer Unterscheide, wohingegen die latenten messgelegenheitsspezifischen Variablen Bedingungen beobachtbarer Unterschiede repräsentieren, die weder auf den Messfehler noch auf die zeitstabilen Bedingungen zurückgeführt werden können.
32
Warum darf der Umstand, dass ein lineares Strukturgleichungsmodell nicht verworfen werden muss, nicht dahingehend interpretiert werden, dass das Modell wahr ist?
Daraus, dass ein Strukturgleichungsmodell nicht verworfen werden muss, folgt nicht zwangsläufig, dass das Modell ein gültiges Modell ist. Es kann eine Vielzahl von Modellen geben, in denen möglicherweise unterschiedliche oder sogar konträre Beeinflussungsstrukturen angenommen werden und die exakt dieselbe Modellanpassungsgüte implizieren.
33
Warum sind lineare Strukturgleichungsmodelle nicht per se Kausalmodelle?
Lineare Strukturgleichungsmodelle sind nicht per se Kausalmodelle. Sie müssen wie andere Modelle auch spezifische Anforderungen erfüllen, um Kausalmodelle zu sein. Hierzu gehören die zeitliche Vorgeordnetheit der Ursache und die Ausschaltung aller potentiellen Störvariablen.
34
Was sind die Folgen der Nicht-Berücksichtigung des Messfehlers bei (a) einfache Regressionsanalyse / Korrelationsanalyse (b) multiple Regressionsanalyse
(a) Unterschätzung der Stärke des Zusammenhangs (b) Verzerrte Schätzung des Regressionsgewichts: u. U. auch von unabhängigen Variablen, die messfehlerfrei gemessen wurden Quasi-experimentelle Forschung: artifizielle Gruppen-/Treatmenteffekte
35
Wie lautet das Ablaufschema für lineare Strukturgleichungsmodelle?
Spezifikation, Identifikation, Schätzung, Beurteilung Güte und Modifikation
36
Wie lauten die wichtigen Befehle in lavaan?
Latente Variable/Faktor definieren: "=~" (is measured by) Regression "~" (is regressed on) Residual(ko)Varianzen (abhängige Variable) "~~" (is correlated with) (Ko)Varianzen "~~" (unabhängige Variable) "~~" (is correlated with) Achsenabschnitte (abhängige Variablen) "~1" (intercept) Mittelwerte (unabhängige Variablen) "~1" (mean) Benutzerdefinierter Parameter ":=" Einschränkungen "==" Fixierung Parameter "*" oder "@"
37
Welche Methoden zur Parameterschätzung gibt es?
Maximum-Likelihood-Methode (ML) Robuste Maximum-Likelihood-Methode (MLR) Generalized-Least-Squares-Methode (GLS) Weighted-Least-Square-Verfahren (WLS) Weighted-Least-Square-Mean-and-Variance-adjusted (WLSMV) Unweighted-Least-Squares-Verfahren (ULS) Full-Information-Maximum-Likelihodd-Schätzung (FIML)
38
Was gibt es zur ML- und MLR-Methode zur Parameterschätzung zu wissen?
ML - Setzt multivariate Normalverteilung der beobachtbaren Variabalen voraus Empfehlungen Stichprobengröße - Bentler&Chou: Stichprobengröße/Anzahl zu schätzender Parameter größer als 5 - Boomsma: bei Stichproben kleiner als 100 kann es zu Schätzproblemen kommen MLR - Schätzung der Parameter mit der ML-Methode - Korrektur der Standardfehler und einiger Modellgütekoeffizienten und Teststatistiken - relativ robust gegen Verletzung Normalverteilung
39
Was gibt es zur GLS-Methode zur Parameterschätzung zu wissen?
- setzt multivariate Normalverteilung der beobachtbaren Variablen voraus - ist ML-Methode unterlegen
40
Was gibt es zur WLS- und WLSMV-Methode zur Parameterschätzung zu wissen?
WLS - asymptotisch verteilungsfrei (ADF-Methode) - setzt sehr große Stichproben voraus Bentler&Chou: Stichprobengröße/Anzahl schätzender Parameter größer gleich 10 Olsson et al: Stichprobe größer als 5.000 WLSMV - Verbesserung der WLS, da auch bei kleinen Stichproben (n>200) geeignet - Methode der Wahl bei kategorialen beobachteten Variablen
41
Was gibt es zur ULS-Methode zur Parameterschätzung zu wissen?
- keine Verteilungsannahme - inferenzstatistische Beurteilung allerdings nur bei Annahme der multivariaten Normalverteilung möglich
42
Was gibt es zur FIML-Methode zur Parameterschätzung zu wissen?
- Methode der Wahl bei Vorliegen von fehlenden Werten - Ergänzung der sem-Funktion durch missing="fiml"
43
Welche sieben Fit-Indizes gibt es? Und wie werden die Werte interpretiert?
**Absolute Fit Indicies** *comparison between the observed variancecovariance matrix (S) and the variance-covariance matrix reproduced based on the theoretical model (Σ)* RMR/SRMR kleiner gleich 0.08 = guter Fit WRMR kleiner gleich 1.00 = guter Fit **Parsimonious bzw. Closeness-of-Fit** *although it perfectly fits the data, a saturated model has no use because its adequacy is due to its lack of parsimony* RMSEA kleiner gleich 0.05 = sehr guter Fit RMSEA zwischen 0.06 und 0.08 = guter Fit AIC und BIC -> je kleiner, desto besser **Incremental** *evaluate the goodness of fit of the specified model against a more restrictive model considered to be nested in the specified model* CFI größer gleich 0.95 = sehr guter Fit CFI zwischen 0.90 und 0.94 = guter Fit TLI größer 0.95 = sehr guter Fit TLI zwischen 0.90 und 0.94 = guter Fit
44
Was sind Vorteile von linearen Strukturgleichungsmodellen?
- Berücksichtigung des Messfehlers - Testung komplexer Zusammenhangshypothesen - Konfirmatorische Analyse - Vergleich verschiedener Modelle
45
Was misst Cronbachs Alpha?
Es misst die interne Konsistenz eines Tests, also wie stark die Items miteinander zusammenhängen.
46
Welche zwei Faktoren beeinflussen den Wert von Cronbachs Alpha?
✔ Die Anzahl der Items im Test (je mehr, desto höher Alpha) ✔ Die Korrelation der Items untereinander (höhere Korrelation = höheres Alpha)
47
Warum ist Cronbachs Alpha nicht immer gleich der Reliabilität?
Weil es nur gilt, wenn das Modell essenziell τ-äquivalenter Variablen erfüllt ist. Falls nicht, ist Alpha nur eine untere Schranke der Reliabilität.
48
Warum kann ein hoher Cronbachs Alpha-Wert irreführend sein?
Wenn Items verschiedene Dimensionen messen, kann Alpha hoch sein, obwohl sie nicht dasselbe messen. Es zeigt nur Zusammenhang, aber nicht, ob der Test wirklich nur ein Merkmal misst.
49
Was ist das entscheidende Itemselektionskriterium in der Klassischen Testtheorie der Messfehler?
Die Itemreliabilität, da die Berechnungsformeln die Reliabilität des Gesamttests zeigt. Diese wird beeinflusst von den einzelnen Subtests - je reliabler diese Subtests sind, desto höher die Gesamtreliabilität.
50
Was ist der unterschied zwischen einer exploratorischen und konfirmatorischen Faktorenanalyse?
Exploratorische Faktorenanalyse (EFA): Bestimmt die Anzahl der Faktoren und deren Zusammenhang mit den beobachteten Variablen. Konfirmatorische Faktorenanalyse (CFA): Überprüft eine vorher aufgestellte Hypothese über die Anzahl der Faktoren und deren Beziehungen zu den Variablen.
51
Welche Parameter und welche verfügbaren Informationen gibt es?
Parameter: Leichtigkeitsparameter, Ladungen, Varianzen und Kovarianzen der Faktoren, Varianzen und Kovarianzen der Residualvariablen Informationen: Erwartungswerte, Varianzen und Kovarianzen der beobachteten Variablen
52
Was sind die fünf Identifikationsregeln für Faktormodelle?
- Es müssen mind. so viele Informationen vorliegen, wie es zu schätzende Parameter (Varianzen, Kovarianzen) gibt. Formel p(p+1)/2 [+p] p= Anzahl der beobachteten Variablen - Festlegung der Metrik der latenten Variable: Eine Faktorladung oder die Varianz des Faktors wird auf 1 fixiert - Erwartungswerte der latenten Variable müssen festgelegt werden: Mittelwert der latenten Variable auf 0 oder ein Leichtigkeitsparameter (alpha) wird auf 0 gesetzt - Daumenregel: Mindestens 3 beobachtbare Variablen pro Faktor (falls keine Korrelationen erlaubt sind) - Falls ein Faktor nur zwei beobachtbare Variablen hat, müssen zusätzliche Bedingungen erfüllt sein (z.B. Ladung oder Faktorvarianz fixieren)
53
Wie berechnet man die Anzahl der Informationen bei Mittelwert- und Kovarianzstrukturen? Wie ist es bei anderen Modellen?
p = beobachtete Variablen (p*(p+1) /2)+p Ohne Mittelwert oder Kovarianzstruktur entfällt das "+p" am Ende der Formel
54
Wie erfolgt die Gesamtbewertung der Residuen?
Mit dem Standardized Root Mean Square Residual (SRMR) SRMR kleiner .08 ist gut (Daumenregel)
55
Was ist die Standardmethode für Closeness-of-fit index? Wie interpretiert man diesen und seine Konfidenzintervalle? Wann verwendete man die robuste Methodik?
Root Mean Square Error of Approximation (RMSEA) Empfohlen: RMSEA kleiner gleich .05 Akzeptabel: RMSEA kleiner .08 Im 90% Konfidenzintervall ist .05 enthalten Robuste Methodik bei MLR empfohlen
56
Was ist das Unabhängigkeitsmodell? Wie lautet der Output in lavaan?
Unabhängigkeitsmodell - nimmt an, dass alle beobachteten Variablen unkorreliert sind H0 = alle beobachteten Variablen unkorrelliert Heißt: p = signifikant = gut Lavaan: Baseline Model
57
Wie funktionieren Incremental Fit Indices?
Vergleich mit Baseline Model Empfohlen CFI bzw. TLI größer .97 Bei MLR wieder robuste Schätzer nehmen
58
Ordne die fünf Testmodelle der KTT von sehr restriktiv bis wenig restriktiv.
(P) Tau-Parallel [tau_i = alpha_i + eta / alpha_i = alpha_j / Var(epsilon_i) = Var(epsilon_j)] (E) Essentiell Tau-Parallel [tau_i = alpha_i + eta / Var(epsilon_i) = Var(epsilon_j)] (T) Tau-Äquivalent [tau_i = alpha_i + eta / alpha_i = alpha_j] (E) Essentiell Tau-Äquivalent [tau_i = alpha_i + eta] (K) Kongenerische Tau-Äquivalent [tau_i = alpha_i + lambda_i * eta]
59
Was bedeuten die Spaltenüberschriften im Output "Modification Indices": lhs, op, rhs, mi, epc, sepc.lv, sepc.all, sepc.nox
lhs = left hand side (unabhängige Variable) op = lavaan Operator rhs = right hand side (abhängige Variable) mi = modification index (erwartete Verminderung des X² nach Aufheben der Restriktion) epc = expected parameter change (erwartete Veränderung des Parameterwerts nach Freilassen der Restriktion) sepc.XYZ = standardies expected parameter change (erwartete Veränderung des Parameterwerts nach Freilassen der Restriktion in den standardisierten Modellen) sepc.lv = latent variable (nur latente Variablen sind standardisiert) sepc.all = all variable (latente und beobachtete Vars standardisiert) sepc.nox = not exogene variable (lat + beob Vars standardisiert, nicht aber die exogenen beobachteten Variablen)
60
Was ist der Lagrange multiplier test?
Gibt die erwartete Verbesserung des Modellfits, wenn im Output gezeigte Restriktionen aufgehoben werden. Es sollen nur Restriktionen aufgenommen werden, die auch signifikant sind.
61
Was bedeuten die Spaltenüberschriften im Output "Parameter Estimates": Estimate, Std.Err, z-Value, P(>|z|), Std.lv, Std.all Wann entspricht Std.all der Korrelation zwischen beobachteter Variable und Faktor?
Estimate = unstandardisierte Ladungen Std. Err = Standardfehler der Schätzung zeigt die Unsicherheit der Schätzung (Estimate) z-Value = Wird berechnet Estimate/Std.Err wird verwendet, um zu prüfen, ob ein geschätzter Wert signifikant von Null verschieden ist P = p-Wert des z-Tests Std.lv = standardisierte Schätzung basierend auf der Varianz der latenten Variablen Std.all = standardisierte Schätzung basierend auf Varianz der latenten UND beobachteten Variablen (-> Ladungen entsprechen unter folgenden Bedingungen den Korrelationen der beobachteten Variablen mit den Faktoren: *Beobachtete Variable lädt nur auf einem Faktor *Beobachtete Variable lädt auf mehreren, aber unkorrelierten Faktoren)
62
Was ist die Residualmatrix? Wie wird sie berechnet? Was wäre ideal bei den Residuen zu sehen? Was sind standardisierte Residuen und was ist dort ideal? Wie heißt die Gesamtbewertung der Residuen?
Residualmatrix: Zeigt Differenzen zwischen S und Σ Berechnung: S - Σ Ideal: Alle Residuen sind 0 Standardisierte Residuen: Residuen geteilt durch ihren Standardfehler, sind approximativ standardnormalverteilt Empfehlung: Standardisierte Residuen, die von ihrem Betrag her größer als 2.58 (0,995-Quantil der Standardnormalverteilung) sind, weisen auf eine bedeutsame Fehlspezifikation hin Root Mean Square Residuals (RMR) bzw. Standardized Root Mean Square Residuals (SRMR)
63
Was sind die Voreinstellungen/annahmen von lavaan bei "~~" und "~1"?
~~ Faktoren sind korreliert Residualvariablen sind unkorreliert ~1 Achsenabschnitte der beobachteten Variablen werden geschätzt Mittelwerte der Faktoren werden auf 0 fixiert (Zentrierung)
64
Wie lauten die Varianz-Rechenregeln?
MERKREGELN FÜR VARIANZ-RECHENREGELN (SEM): 1. **Konstante Werte haben keine Varianz**: Var(X) = 0, falls X = konstant (Regel 4). -> "Keine Streuung ohne Veränderung." 2. **Multiplikation mit einer Konstante skaliert die Varianz**: Var(α · X) = α² · Var(X) (Regel 5). -> "Die Varianz wird mit dem Quadrat des Faktors skaliert." 3. **Addition einer Konstante ändert die Varianz nicht**: Var(α + X) = Var(X) (Regel 6). -> "Streuung bleibt gleich, wenn eine Konstante dazu kommt." 4. **Lineare Kombination berücksichtigt alle Einflüsse**: Var(α · X + β · Y) = α² · Var(X) + β² · Var(Y) + 2 · α · β · Cov(X, Y) (Regel 7). -> "Einfluss von X, Y und ihrer Wechselwirkung wird summiert."
65
Was ist Bootstrapping und wie läuft es ab? Welche Vorteile und Begrenzungen?
**Definition:** Resampling-Methode zur Berechnung von Standardfehlern, Konfidenzintervallen und Signifikanz ohne Verteilungsannahmen. **Ablauf:** 1. Wiederholtes Ziehen mit Zurücklegen (z. B. 500–1000 Stichproben). 2. Schätzung des Modells für jede Stichprobe. 3. Berechnung der Verteilung der Parameter (für Standardfehler & Konfidenzintervalle). **Vorteile:** - Keine Normalverteilungsannahme. - Robust bei kleinen Stichproben oder nicht-normalen Daten. - Hilft bei komplexen Modellen. **Begrenzung:** Ausgangsstichprobe sollte ausreichend groß sein (≥ 100–200 Fälle).