Multiple Regression Flashcards

1
Q

Was macht eine multiple Regression

A

Sie beachtet die Einflüsse mehrere Prädiktoren gleichzeitig

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was sind orthogonale Variablen?

A

Variablen, die nicht miteinander korreliert sind

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wie sieht die erweiterte Modellgleichung auf zwei Prädiktoren aus?

A

^Y = b1 * X1 + b2 * X2 + a
Weiteres Vorgehen: Gesucht werden b1, b2 und a mit denen die Summe der quadrierten Abweichungen der vorhergesagten von den empirischen Werten (also den Residuen) minimal wird

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Visualisierung einer multiplen Regression

A
  1. als Ebene im dreidimensionalen Raum
    3D-Scatterplot mit “optimaler” Ebene
    s.F.6
  2. Im 3D Modell gibt es zwei Achsen für den Prädiktor, y-Achse ist das Kriterium, die Kugeln/ Punkte sind die empirischen Messwerte, ihre Abstände zur Ebene die Residuen
    s. F. 7
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Berechnung einer multiplen Regression mit R

A
  1. Berchnung: Wir fügen dem Modell einfach ein weiterer Prädiktor additiv hinzu
    modell
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Bestimmung der Koeffizienten bei orthogonalen Prädiktoren

A
  1. zwei einfache lineare Regression, weil jeder Prädiktor distinkte Teile der Gesamtvariabilität der Daten bindet
    Da beide Prädiktoren nicht miteinander korrelieren
  2. Den Achsenabschnitt a können wir in diesem Fall berechnen als: a = My - (b1 * Mx1 + b2 * Mx2)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Zentruid

A

Aus dem Mittelwert von X1, X2 und dem Mittelwert von Y kann man dem Mittelwert nehmen. Dieser Wert liegt immer auf der Regressionsgeraden/-ebenen und heißt Zentruid

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

aufgeklärte Varianz R²

A
  1. bei der einfachen linearen Regression R² = r²
  2. bei der multiplen Regression: Bildung eines “Summenscores” W, der eine Linearkombination der Prädiktoren mit den Regressionskoeffizienten darstellt:
    W = b1 * X1 + b2 * X2
  3. dann nimmt man die quadrierte Korrelation zw. Y und W
  4. Daher ist R² bzw. genauer R selber eine Korrelation, nämlich zw. empirischen und vorhergesagten Werten, der multiplen Korrelationskoeffizient
  5. Bei orthogonalen Prädiktoren: R² ist die Summe der quadrierten Korrelationen zw. Y und den Prädiktoren:
    R² = r²y, x1 + r²y,x2
    Für Beispiel und Interpretation einer multiplen Regression s. F. 15-19
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Allgemeiner Ansatz bei intervallskalierten Prädiktoren und Kriterium: q-viele Prädiktoren

A
  1. Generell kann die bisher verwendete Regressionsgleichung auf beliebig viele Prädiktoren erweitert werden:
    ^Y = a + b1* X1 + b2 * X2+ … + bq * Xq
  2. Bestimmung der Koeffizienten nicht mehr durch einfache lineare Regression und Lösung von Hand möglich
  3. Darstellung:
    1 Prädiktor: Gerade
  4. Prädiktoren: Ebene
    >2 Prädiktoren: graphische Illustration nicht mehr möglich
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Allgemeiner Ansatz bei intervallskalierten Prädiktoren und Kriterium: Interpretation der Regressionsgewichte einer multiplen Regression

A
  1. Erste Interpretation:
    als Regressionsgewicht bedingter einfacher linearer Regressionen aufgefasst werden, d.h. einfacher linearer Regressionen wenn der Wert des jeweils anderen Prädiktors konstant gehalten wird.
  2. Zweite Interpretation: die als Regressionsgewichte von Regressionsresiduen. Die beiden Regressionsresiduen erhalten wir, indem sowohl das Kriterium als auch der fragliche Prädiktor vom linearen Einfluss aller anderen Prädiktoren “befreit” werden. Dies passiert, indem beide Größen als Kriterien einer Regression behandelt werden und dann deren Residuen weiter verwendet werden.
    Einen ganz ähnlichen Gedankengang hatten wir bereits bei der Partialkorrelation, die wir als Korrelation
    von Regressionsresiduen aufgefasst hatten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Visualisierung der Wirkung eines Prädiktors bei Konstant halten des anderen Prädiktors

A

Prädiktor-Effekt-Plots
Paket: effects
Die Grundidee ist dabei, für jeden Prädiktor eine bedingte Regressionsgerade zu visualisieren, während alle anderen Prädiktoren auf einen festen Wert gesetzt werden; der Standwert ist hierbei der Mittelwert aller
Beobachtungen auf den jeweiligen Prädiktoren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Unstandardisierte vs. standardisierte Regressionsgewichte

A
  1. bisher: unstandardisierte Regressionsgewichte: berechnet in der Metrik, in der die Variablen gemessen wurden
  2. standardisierte Regressionsgewichte:
    a) drücken Veränderungen in der Einheit von Standardabweichungen aus
    b) hier bezeichnet als ß - Gewichte (manchmal auch als b1z)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

standardisierte Regressionsgewichte bei einfacher lineare Regression

A
  1. Berechnung: mit z-standardisierten Variablen und dann einfache lineare Regression: lm(scale(Krierium) ~ scale(Prädiktor), data = daten)
  2. a = 0: Der Achsenabschnitt a ist dann = 0 und man bekommt einen Wert für das standardisierte Regressionsgewicht ß (für Berechnung mit R s. F.37)
  3. b = rxy:
    a) bei einfacher linearer Regression entspricht ß der Korrelation der beiden Originalvariablen
    b) die Steigung entspricht also immer der Korrelation, d.h. je steiler die Steigung desto größer die Korrelation.
    c) b kann also nur Werte zwischen -1 und 1 annehmen
  4. Die Gerade verläuft immer durch den Punkt (0/0)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

standardisierte Regressionsgewichte bei einfacher multipler Regression

A
  1. lm(scale(Kriterium) ~ scale(Prädiktor1) + scale(Prädiktor2), data = daten)
  2. auch hier Achsenabschnitt a = 0
  3. Regressionsgewichte: Veränderung des Kriteriums in SDs, wenn sich Prädiktoren um eine SD verändert und die anderen Prädiktoren konstant gehalten werden
  4. Achtung: die standardisierte Regressionsgewichte entsprechen i. d. R. nicht (Semi-) partiellen Korrelationen eines Prädiktors und des Kriteriums. Dies ist nur bei orthogonalen Prädiktoren der Fall
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Alternative Berechnung von ß

A

ßp = bp * (Sxp / Sy)
Mit R:
1. Modell der Regression ganz einfach mit unstandardisierten Variablen berechnen: modell <- lm(Kriterium ~ Prädiktor1 + Prädiktor2, data = daten)

  1. dann die Koeffizienten extrahieren und man die sd der jeweiligen Prädiktoren nehmen: hier für Prädiktor 1:
    coef(modell)[2] * (sd(daten$Prädiktor1) / sd(daten$Kriterium))
    für Präditkor2 analog:
    coef(modell)[3] * (sd[daten$Prädiktor2) / sd(daten$Kriterium))
    die Ausgabe gibt einem direkt die Koeffizienten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Allgemeiner Ansatz bei intervallskalierten Prädiktoren und Kriterium: Güte des Regressionsmodells

A

i.d.R. R²
Problem: bei Hinzunahme eines weiteren Prädiktors muss der Anteil der aufgeklärten Varianz fast zwangsläufig größer werden -> daher Anpassung und andere Maße, die gleichzeitig die Anzahl der Prädiktoren mit verrechnen, um dies zu berücksichtigen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Güte des Regressionsmodells: adjustiertes R²

A
  1. einfachstes Maß (gleichzeitige Schätzung der aufgeklärten Varianz auf Populationsebene) ist das adjustierte R² (abgz. R²adj)
  2. Berechnung:
    summary() angewendet auf ein lm()-Objekt gibt diese Maß bereits mit raus
    R²adj = 1 (1-R²) * (n-1) / n-q-1)
    hier: n = Anzahl der Beobachtungen und q = Anzahl der Prädiktoren
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Interferenzstatistik: allgemeiner Modelltest

A
  1. Zusammenfassung der Ergebnisse eines Regressionsmodells liefert immer einen F-Test
  2. dieser testet, ob das komplette Modell einen signifikanten Beitrag zur Varianzaufklärung leistet, d.h. es wird die Nullhypothese H0: R² = 0 getestet
  3. der F-Wert stammt genau wie im Rahmen einer Varianzanalyse aus einer Quadratsummenzerlegung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Interferenzstatistik: allgemeiner Modelltest: totale Quadratsumme

A

Die totale Quadratsumme ergibt sich aus der Summe der quadrierten Abweichungen der Daten vom Mittelwert des Kriteriums:
n
SStotal = ∑ (y1 - My)²
i = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Interferenzstatistik: allgemeiner Modelltest: Fehler-Quadratsumme

A

ergibt sich aus der Summe der quadrierten Residuuen:
n
SSfehler= ∑ e²i
i = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Interferenzstatistik: allgemeiner Modelltest: Modell-Quadratsumme

A

ergibt sich aus der Summe der quadrierten Abweichungen der Regressionsgeraden (der vorhergesagten Werte) vom Mittelwert des Kriteriums:
n
SSmodell = ∑ (^yi - My) ²
i = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Interferenzstatistik: allgemeiner Modelltest: Mittlere Quadratsummen und F -Bruch

A
  1. analog zur Varianzanalyse werden die Mittleren Quadratsummen mit den Freiheitsgraden der Quadratsummen berechnet: aus der Anzahl q der Prädiktoren und Anzahl n der Beobachtungen erigt sich:
    dfmodell = q
    dffehler = n - q - 1
  2. aus diesen wird der F-Bruch berechnet:
    F = (SSmodell/ dfmodell) / (ssfehler/dffehler) = Msmodell / Msfehler
  3. Die entsprechende Zufallsvariable ist unter der Nullhypothese F-verteilt mit q Zählerfreiheitsgraden und n -q-1 Nennerfreiheitsgraden
  4. Alternativ kann der F-Bruch auch direkt aus R² berechnet werden: F = ((n -q-1) * R²) / (q*(1-R²))
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Interferenzstatsitik: allgemeiner Modelltest: multiple Regression

A

völlig Identisch zur linearen Regression

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Tests der Regressionskoeffizienten: einfache lineare Regression

A
  1. Test der H0: ß = 0 (vgl. Statistik 1 Teil 12)
  2. Test von b und F-Test liefern die gleiche Informationen (es gilt auch hier wieder die Beziehung F= t²)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Tests der Regressionskoeffizienten: multiple Regression

A
  1. der allgemeine Modelltest kann signifikant werden
  2. dennoch muss nicht für jeden Regressionskoeffizienten an sich die Alternativhypothese gelten
  3. Tests der einzelnen Nullhypothesen sind t -Tests (siehe Ausgabe der summary() oder s()-Funktion)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Inferenzstatistik: Modellvergleich

A
  1. ermöglichen zu testen, ob sich durch Hinzunahmen (oder Wegnahme) von Prädiktoren eine signifikante Veränderung von R² einstellt
  2. oft wird ein sog. reduziertes Modell mit einem sog. komplexen Modell verglichen:
    a) reduzierte Modell “genested” im komplexen Modell (d.h. alle seine Prädiktoren sind auch im komplexen Modell enthalten)
    b) der Fchange-Wert berechnet sich in diesem Fall als:
    Fchange = ((n-q-1)(R²komplex - R²reduziert)) / (J (1-R²komplex))
    c) n = Anzahl der Beobachtungen
    q = Anzahl der Prädiktoren im komplexen Modell
    J = Anzahl der Prädiktoren, die sich zw. komplexen und reduzierten Modell unterschieden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Polynomiale Regression

A
  1. kurvilinear Zusammenhänge
  2. solche Daten können mit Funktionen beschrieben werden, die auch das Quadrat des Prädiktors berücksichtigt und als multiple Regression aufgepasst
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Polynomiale Regression: Polynome höherem Grades in allgemeiner Form

A

^Y = a + b1 * X + b2 * X² + … +bq * Xq

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Polynomiale Regression: Umsetzung mit R

A
  1. Umsetzung in R genau wie bei multipler Regression
  2. neben X auch X² in das Modell aufnehmen: I(Xˆ2) macht deutlich, dass hier eine arithmetische Operation gemeint ist und das ˆ-Zeichen
    nicht im Sinne der Modellsprache interpretiert werden soll:
    m2
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Welchen Wert erhalten Sie, wenn Sie die Zeile estimate durch die Zeile Std. Error
dividieren?

A

noch herausfinden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Allgemeiner Modelltest: Berechnen mit R

A
  1. einfache lineare Regression: anova(modell)
  2. multiple Regression: Summary(modell) unter f-statistics finde ich den F-Wert, die Freiheitsgrade und den P-Wert
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Multiple Regression: Modellgleichung soll aufgestellt werden, wie setzte ich die Koeffizienten ein?

A

Ich setzte die Werte die mir gegeben werden ganz normal wie in der linearen Regression ein und rechne sie aus

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Was zeigen Prädiktor-Effekt-Plots?

A

Sie zeigen die bedingten Regressionsgeraden für jeden Prädiktor, wenn die beiden anderen Prädiktoren auf einen konstanten Wert gesetzt werden (i.d.R. ist das deren Mittelwert)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Zähler & Nenner

A

Zähler = Oben
Nenner = Unten

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Modellvergleich Ergebnistabelle Anova() lesen: Was ist “Res.Df”, “Df” und sum of sq?

A

Res.Df (zweite Spalte) = Nennerfreiheitsgrad (hinten in der Klammer)
Df (vierte Spalte) = Zählerfreiheitsgrad (vorne in der Klammer)
Sum of Sq( fünfte Spalte)= Quadratsummen
F = F-Werte

36
Q

Wann benutze ich einen Allgemeinen Modelltest?

A

Um zu testen, ob die Regression überhaupt Varianz aufklärt. H0: R² = 0. Wenn der Test signifikant wird gehen wir davon aus, dass R² ≠ 0

37
Q

Wann benutzen wir einen Modellvergleich?

A

Wenn ich wissen will, ob das eine reduzierte Modell genau soviel Varianz aufklärt, wie das nicht reduzierte Modell. Wird der Modelltest signifikant heißt dass, dass R² sich durch die Hinzunahme von mehreren Prädiktoren signifikant verändert hat

38
Q

Nominalskalierte (kategoriale) Variablen: Definition, typische Beispiele & anderer Name

A
  1. Haben Kategorien als Werte, die keine Ordnung beinhalten.
  2. Typische Beispiel sind z.B.: Geschlecht, Haarfarbe, Schulabschluss oder die Gruppenzugehörigkeit im Rahmen eines Experiments.
  3. Werden in anderen Kontexten, besonders in der Varianzanalyse auch Faktoren genannt.
39
Q

nominalskalierte Variablen bei R

A
  1. Spalten mit Strings als Werte werden automatisch als Faktoren behandelt.
  2. Andere Spalten müssen bei Bedarf in einen Faktor umgewandelt werden. Variablen vom Typ „Integer“ müssen mit der Formel as.factor() umgewandelt werden.
  3. Faktoren können ohne Weiteres in eine Modellgleichung (Regression) mit aufgenommen werden.
  4. Die Stufen werden dann automatisch als Kontraste kodiert.
40
Q

Dummykodierung: Vorgehen

A
  1. Berechnung der Dummy-Variablen: Die Anzahl der neuen (Dummy) Variablen ist die Anzahl der Stufen des Prädiktors - 1 (Habe ich einen Prädiktor mit 3 Stufen habe ich 2 Dummyvariablen)
  2. Anlegen der Dummyvariablen: Man legt so viele neue Variablen (Dummy-Variablen) an, wie man (im ersten Schritt) als Anzahl der Gruppen berechnet hat.
  3. Wahl einer Bezugsgruppe: (Baseline-Bedingung). üblicherweise die Kontrollgruppe, falls keine vorhanden wählt man am besten die Gruppe, in der die meisten Personen/Fälle vorliegen.
  4. Allen Dummy-Variablen für die gewählte Baselinegruppe den Zahlenwert 0 zuweisen.
  5. Der ersten Dummy-Variablen für die erste Gruppe die man gegen die Baselinegruppe vergleichen will den Wert 1 zuweisen, den restlichen Gruppen den Wert 0.
  6. Wiederholung des Schrittes 5, bis alle Dummy-Variablen entsprechend codiert wurden.
  7. Alle Dummy-Variablen ins Modell aufnehmen!
41
Q

Dummykodierung - Was wird gemacht (gob zusammengefasst)

A

Hierbei werden aus J Stufen des Faktors, der als Prädiktor benutzt werden soll, J – 1 „Regressionen“ gebildet, also neue Variablen, die die J Stufen repräsentieren sollen

42
Q

einfache lineare Regression mit dummykodierten Variablen in R

A
  1. wenn Variable (die wir als Prädiktor benutzen wollen) dummykodiert ist, einfach eine ganz normale Regression ausrechnen: Modell <- lm( Kriterium ~ Prädiktor, data = daten)
  2. Ausgabe mit S(modell, brief = TRUE)
  3. Interpretation der Koeffizienten:
    (a) der Achsenabschnitt (Intercept) ist der Mittelwert der Referenzgruppe
    (b) Der Koeffizient1 ist der Wert, um den der Mittelwert der Referenzgruppe verändert werden muss, um zum Mittelwert der Gruppe (von koeffizient1) zu gelangen.
    (c) Der Koeffizient2 ist der Wert, um den der Mittelwerte der Referenzgruooe verändert werden muss, um zum Mittelwert der Gruppe (von koeffizient2) zu gekangen
43
Q

anderen Weg der Interpretation der Koeffizienten bei dummykodierte einfacher linearer Regression

A

(a) mit dem Befehl contrasts(daten$variable) ist Kontrastmatrix ausgeben lassen
(b) Nun mit den Koeffizienten und den Kontrastkoeffizienten zeilenweise die Mittelwerte der Gruppen berechnen
–> kommt zum gleichen Ergebnis wie erste Interpretation, beweist aber, warum die erste Interpretation richtig ist

44
Q

Interpretation der t-Werte bei einer einfachen linearen Regression mit dummykodiertem Prädiktor

A

In der Zusammenfassung der Ergebnisse stehen auch t-Werte. Diese geben an, ob die Gruppen sich signifikant von der Referenzgruppe unterscheiden. Die Arte der Auswertung, also eine lineare Regression mit dummykodierten Variablen testet NICHT die Nullhypothese der Omnibus-Varianzanalyse!

45
Q

Umformung der Regression in eine klassische einfaktorielle Varianzanalyse (bei einer Regression mit nominalskalierten Prädiktor)(dummykodiert)

A

Um eine „klassische“ Varianzanalyse aus dem Ergebnis der Regression zu machen, kann die Funktion anova() auf das lm-Objekt angewandt werden: anova(modell). Ergebnisse können analog zur Varianzanalyse interpretiert werden

46
Q

Paarweise Vergleiche bei einer Regression mit nominalskalierten Prädiktor (dummykodiert)

A

Bisher haben wir immer nur Vergleiche im Bezug auf die Referenzgruppe unternommen. Mit der Funktion emmeans() aus dem Paket emmeans können wir auch paarweise Vergleiche anstellen. Wollen wir bspw. Nun alle paarweise vergleiche erhalten:
Emmeans(modell, pairwise ~ Prädiktor)$contrast
Der Prädiktor ist hier immernoch unsre dummykodierte Variable. Der Zusatz $contrast sorgt dafür, dass nur die Vergleiche ausgegeben werden, da unter $emmeans auch adjustierte Mittelwerte berechnet werden, die aber in einer einfaktoriellen Varianzanalyse den normalen Gruppenmittelwert entsprechen. In der letzten Zeile der Ausgabe ist die verwendete Art der Anpassung für multiple Vergleiche zu finden (hier Tukey´s HSD-Methode), emmeans() wählt automatisch eine adäquate Variante aus.

47
Q

Nominalskalierte Prädiktoren: zweifaktorielle Varianzanalyse als Regression & vollständiges lm-Modell

A

I. natürlich können wir auch zwei Faktoren als Prädiktoren einer Regression benutzen.
II. vollständiges lm-Modell: Das vollständige lm-Modell beinhaltet nur den Achsenabschnitt, beide Faktoren und deren Interaktion. Beide Faktoren und die Interaktion werden automatisch generiert, wenn die Formulierung Faktor1 * Faktor2 benutzt wird.

48
Q

Nominalskalierte Prädiktoren: zweifaktorielle Varianzanalyse als Regression: anova(modell) und Effect()

A

III. anova(modell): Die Anova des Modells entspricht dem Ergebnis einer zweifaktoriellen Varianzanalyse.
IV. Effect(): Mithilfe der Funktion Effect() aus dem packt effect können wir verifizieren, dass die vorhergesagten Werte jeder Zelle den empirischen Mittelwerten entsprechen:
Effect( c(„Prädiktor1“, „Prädiktor2“), modell)

49
Q

Nominalskalierte Prädiktoren: zweifaktorielle Varianzanalyse als Regression: Interpretation der Koeffizienten

A
  1. Mit S(modell, brief = TRUE) ausgeben lassen
  2. Wir bekommen hier für eine ganze Reihe von Variablen Koeffizienten angegeben.
  3. Die Koeffizienten geben wieder die Mittelwerte der einzelnen Gruppen. Am einfachsten kann man Mittels einer Tabelle einen Überblick behalten. Der Intercept ist wieder der Mittelwert der Referenzgruppe s. F. 24-26 Teil 10
50
Q

Nominalskalierte Prädiktoren: zweifaktorielle Varianzanalyse als Regression: Paarweise Vergleiche

A

Paarweise Vergleiche sind natürlich auch wieder möglich. Sogar mit weiteren Bedingungen. Will man die Stufen des Faktors 1 separat für alle Stufen des Faktors 2 vergleichen schreibt man: emmeans(modell, pairwise ~ Faktor 1 | Faktor 2)$contrasts
Will amn die Stufen des Faktors 2 sperat für alle Stufen des Faktors 1 vergleichen schreiben wir analog: emmeans(modell, pairwise ~ Faktor2 | Faktor 1)$contrasts

51
Q

a) Kovarianzanalyse & Kovariate

A

a) Kovarianzanalyse: Wenn eine Regression Prädiktoren mit verschiedenen Skalenniveaus berücksichtigt wird von einer
b) Kovariate: Die intervallskalierte Variable wird dann Kovariate genannt

52
Q

Beschreibung der Kovarianzanalyse als multiple Regression

A

Die Kovarianzanalyse lässt sich als multiple Regression der Form: Y ̂=a+b_1X_1+b_2X_2
wobei X1 (die Kovariate) eine mind. intervallskalierte Variable ist und (der spätere Faktor) X2 eine nominalskalierte Variable ist

53
Q

Gründe für den Einbezug einer Kovariaten

A
  1. Fehler-Reduktion innerhalb der Gruppen:
    a) Wenn 〖SS〗_w kleiner wird, wir der F-Bruch größer (die Power steigt also)
    b) Kovariante kann genutzt werden um Varianz, die nicht durch den Faktor bzw. die Faktoren erklärt wird, zu binden
    c) und dadurch die restliche nicht-erklärte Varianz (also das was von 〖SS〗_w erfasst wird) zu verringern
  2. Reduktion von Konfundierung:
    a) Wenn potentielle Störvariablen mit-gemessen werden, dann können diese bei einer Kovarianzanalyse berücksichtigt werden, um Unterschieden zwischen Gruppen vorzubeugen. Problematisch ist aber, wenn die Kovariate mit dem Faktor konfundiert ist.
    Achtung: Entgegen dem, was manchmal verbreitet wird, sind eine Kovarianzanalyse und eine Varianzanalyse mit Residuen einer Regression (von abhängiger Variable auf die Kovariate) nicht identisch!
54
Q

Voraussetzungen der Kovarianzanalyse

A
  1. im wesentliche gleiche Annahmen wie Varianzanalyse, aber es gibt noch zwei wichtige Aspekte:
  2. Unabhängigkeit von Faktor und Kovariate:
    Um die Fehlervarianz zu reduzieren muss die Kovariate unkorreliert (also orthogonal) zum entgeltlich interessierenden Faktor sein. Ist die Kovariate mit den Faktor konfundiert, bindet die Kovariate Variabilität, die eigentlich dem Faktor zugeschlagen werden sollte und verringert dadurch quasi den statistischen Effekt des Faktors. In diesem Fall kann ein Effekt des Faktors überlagert oder auch erst erzeugt werden, eine eindeutige Interpretation ist nicht möglich. Kann z.B.: Entstehen, wenn VP nicht randomisiert werden. Nur wenn Gruppen sich nicht unterscheiden, kann die Kovariate effektiv genutzt werden, um nicht-erklärte Variabilität zu binden. Ansonsten wird auch die Wirkung des eigentlich interessanten Faktors verringert
  3. Homogenität der Regressionssteigung
    Es wird angenommen, dass die Steigung der Regressionsgeraden in den ver. Gruppen gleich ist. Ob dies der Fall ist, ist eine empirische Frage.
55
Q

Schritte der Kovarianzanalyse

A

I. Eignung als Kovariate
II. Spezifizierung
III. Interpretation signifikantes Ergebnis
IV. Test auf Homogenität der Regressionsgeraden

56
Q

Schritte der Kovarianzanalyse: 1. Eignung als Kovariate

A
  1. Ist die Variable, die wir als Kovariate benutzen wollen mit dem Kriterium korreliert?
    Cor_out(cor.test(daten$Kriterium, daten$Kovariate))
    -> Dann ist die Variable schon mal möglicherweise als Kovariate geeignet
  2. Sind der Faktor und die Kovariate orthogonal?
    Aov.result.kovariate <- aov(Kovariate ~ Faktor, data = daten)
    Summary(aov.result.kovariate)
    -> Wird die Varianzanalyse nicht-signifikant, ist diese Voraussetzung auch erfüllt.
57
Q

Schritte der kovarianzanalyse: 2. Spezifizierung

A

Nun können wir die Kovarianzanalyse spezifizieren, indem eine Regression mit zwei Prädiktoren formuliert wird. Die Ergebnisse, und insbesondere dann auch den interessanten Effekt des Faktors, erhalten wir, indem wir die Funktion Anova() aud dem Packet car auf das lm-Objekt anwenden und spezifizieren, dass Typ-II Quadratsummen verwendet werden sollen
Lm.result <- lm(Kriterium ~ Kovariate + Faktor, data = daten)
Anova(lm.result, type = „II“)

58
Q

Schritte der Kovarianzanalyse: 3. Interpretation eines signifikanten Ergebnis

A

Wird das Ergebnis signifikant, dann können wir von einer (signifikanten) Beziehung der Kovariate zur abhängigen Variable ausgehen. Die Kovariate bindet daher auch Variabilität, die nicht dem Faktor zugeschlagen wurde, dass der nicht-erklärte Anteil kleiner geworden ist und dadruch der F-Test des Faktors signifikant wird.

59
Q

Schritte der Kovarianzanalyse: 4. Test auf Homogenität der Regressionsgeraden

A

Nun testen wir, ob sich die Steigung der Regressionsgeraden in beiden Gruppen unterschiedet. Dafür fügen wir dem lm-Modell von oben noch die Interaktion Kovariate:Faktor hinzu:
Lm.result.ia <- lm(Kriterium ~ Kovariate + Faktor + Kovariate:Faktor, data = daten)
Anova(lm.results.ia, typ = „II“)
Wenn die Interaktion nicht signifikant wird, können wir von Homogenität der Regressionsgeraden ausgehen.

60
Q

Interpretation der Koeffizienten einer Kovarianzanalyse

A

I. Koeffizienten und Mittelwerte rausgeben lassen: coef(lm.results), ebenfalls sinnvoll zur Kotrolle der Interpreation ist sich mit tapply(daten$Kriterium, daten$Faktor, mean) die Mittelwerte der Gruppen ausgeben zu lassen.

II. Kovariate zentrieren: von jedem Wert den Mittelwert der Kovariaten subtrahieren:
Lm.result.zentriert <- lm(Kriterium ~ scale(Kovariate, scale = FALSE) + Faktor, data = daten)
coef(lm.result.zentriert)
Nun ändert sich der Achsenabschnitt, der nun in der Größenordnung wie bei der normalen Varianzanalyse ist. Der Achsenabschnitt gibt uns nun wieder den Mittelwert der Gruppe aus, die bei der Dummykodierung als Bezugsgruppe festgelegt wurde. Der Mittelwert der anderen Gruppe ergibt sich wieder dadurch, dass wir den Mittelwert der Bezugsgruppe mit dem Koeffizienten der anderen Gruppe verrechnen.

III. adjustierte Mittelwerte:
Die Kovarianzanalyse vergleicht sogen. Adjustierte Mittelwerte. Die berechnet werden für den Fall, dass die Kovariate für alle Beobachtungen den gleichen Wert annimmt, üblicherweise ihren Mittelwert.

61
Q

Interaktion zweier intervallskalierter Variablen:
Interaktionen bisher:

A

Wenn beide Variablen nominalskaliert sind (Faktoren in der Varianzanalyse)
Wenn eine Variable nominalskaliert ist (Faktor bei der Kovarianzanalyse)
-> Interaktionen können aber auch generalisiert betrachtet werden, wenn zwei (oder mehrere) Variablen (mindestens) intervallskaliert sind

62
Q

moderierte (multiple) Regression

A

I. Moderatorvariable: Verändert eine Variable die Wirkung einer anderen Variablen, so wird diese oft als Moderatorvariable
II. Moderierte (multiple) Regression: Die Analyse einer Moderatorvariable wird als moderierte (multiple) Regression bezeichnet. Technisch ist dies jedoch nichts anderes, also eine multiple Regression, die einen Interaktionsterm berücksichtigt.

63
Q

Vergleich der Regressionsgleichung mit zwei Prädiktoren vs. die Regressionsgleichung einer moderierten Regression

A

In der varianzanalystischen Terminologie entsprechen die Effekte von X1 und X2 den Haupteffekten, die eine additive Wirkung auf das Kriterium haben:
Y ̂=a+b_1X_1+b_2X_2
Der Trick der Interaktion ist nun, eine Variable X3 additiv hinzuzufügen, die aber ihrerseits nicht-additive Effekte repräsentiert. Dies gelingt ganz einfach, indem die Interaktion von X1 und X2 als deren Produkt gefasst wird:
Y ̂=a+b_1X_1+b_2X_2+b_3X_3 mit X_3=X_1X_2
Setzen wir X3 in die Gleichung ein und klammern dann X2 aus, kann man sehen, dass die Gleichung in einer einfachen linearen Regression resultiert, deren Achsenabschnitt a´ und Steigung b´ aber vom Wert auf der Variablen X1 abhängen:

64
Q

Eigenschaften von X3 in der Regressionsgleichung der moderierten Regression

A

X3 bildet zwar das Zusammenspiel von X1 und X2 ab, aber wird additiv zusammengefügt. Dadurch ändert sich eigentlich nichts, außer, dass es eben eine dritte Variable gibt. Tatsächlich kann diese Variable einfach berechnet werden, indem für jede Person die Werte auf den beiden Ausgangsvariablen multipliziert werden.

65
Q

Kollinearität und Multikollinearität

A

a) Kollinearität: Korrelation zweier Prädiktoren in einer multiplen Regression d
b) Multikollinearität: wenn mehrere Prädiktoren miteinander korrelieren sind:
I. Multikollinearität ist zunächst ein technisches Problem, wenn zwei Prädiktoren vollständig korreliert sind ((vgl. Teil 11: wenn Prädiktoren linear abhängig sind, ist das relevante Gleichungssystem nicht lösbar).
II. Hohe Werte für (Multi-)Kollinearität (v.a. in Kombination mit kleinen Stichproben) sind besonders ein Problem für die Schätzungen der Parameter und ihrer Standardfehler, die mit steigender Kollinearität größer werden
III. zunehmend schwer wird auch, den individuellen Beitrag einzelner Prädiktoren zu ermitteln: kann bei Kenntnis des Forschungsgegenstandes aber auch gelöst werden (für Beispiel s. Skript 10)

66
Q

Maßnahmen gegen (Multi-)Kollinearität

A

Maßnahmen gegen (Multi-)Kollinearität:
I. Sinnvollste Maßnahmen:
(i) ausreichend große Stichproben (Zur Erhöhung der Power der einzelnen Tests über die Paramter)
(ii). vermeiden, korrelierte Prädiktoren einzubeziehen
II. ansonsten (aber nicht generell empfehlenswert):
(i) ggf. das Regressionsmodell anpassen, indem Prädiktoren weggelassen werden
(ii) oder die korrelierten Prädiktoren zu einem einzigen Prädiktor „verrechnen“

67
Q

Kollinearität und Multikollinearität entdecken

A
  1. Kollinearität entdecken:
    durch Korrelationsmatrix
  2. Verfahren zu Berechnung von Multikollinearität:
    bei einer Korrelationsmatrix kann Multikollinearität schnell übersehen werden, daher berchnen:
    I. Wie groß ist die geteilte Variabilität eines Prädiktors p mit den restlichen q − 1 Prädiktoren?
    II. Prädiktor Xp als Kriterium einer multiplen Regression mit den verbleibenden Prädiktoren als Prädiktoren
    III. die gemeinsame Varianz wird dann durch R2 quantifiziert, oft als 〖R²〗(X_p )bezeichnet und zur Toleranz T verrechnet:
    IV. T=1-R
    (X_p)^2
68
Q

Eigenschaften von T

A

T wird 1, wenn ein Xp orthogonal zu den anderen Prädiktoren ist
T wird 0, wenn Xp perfekt aus den anderen Prädiktoren vorhersagbar ist

69
Q

Varianz-Inflations Faktor (VIF)

A

〖VIF〗(X_p )=1/(1-R(X_p)^2 )=1/T
I. Interpretation: Der Standardfehler eines Prädiktors wird um √VIF relativ zu seinem theoretischen Minimum bei vollständiger Abwesenheit von Multikollinearität aufgebläht. Ab Wann problematisch? Machen sagen ab VIF ≥ 10 und wenn der duchschnittliche Wert für VIF „deutlich“ größer als 1 ist
II. Berechnung mit R:
Vif(modell)

70
Q

Methoden der Hinzunahme von Prädiktoren

A

Sollen tatsächlich alle Prädiktoren gleichzeitig in ein Modell aufgenommen werden? Dazu gibt es verschiedene Methoden und verschiedene Standpunkte. . .
I. Alle Prädiktoren gemeinsam
II. Hierarchische Regression
III. Schrittweise Regression:
a) Vorwärtsgerichtet
b) rückwärtsgerichtet

71
Q

Methoden der Hinzunahme von Prädiktoren: I. Alle Prädiktoren gemeinsam

A

alle Prädiktoren gleichzeitig in ein Modell
Wahl der Prädiktoren erfolgt aus inhaltlichen Gründen
aber es wird dann keine Reihenfolge festgelegt
es gibt durchaus Positionen, die dies als die einzig sinnvolle Art ansehen

72
Q

Methoden der Hinzunahme von Prädiktoren: II. Hierarchische Regression

A
  1. auf Basis vorheriger Studien entscheiden, welche Prädiktoren zuerst ein Modell aufgenommen werden sollen und welche danach zwischen den Modellen kann mit F-Tests der R2-Zuwachs getestet werden
  2. eine Variante ist es, mit den Prädiktoren zu beginnen, von denen man weiß, dass diese einen starken Einfluss auf das Kriterium haben
73
Q

Methoden der Hinzunahme von Prädiktoren: III. Schrittweise Regression

A

über die Hinzunahme eines Prädiktors wird nach einem mathematischen Kriterium entschieden
diese Vorgehensweise wird wegen ihrer Theorielosigkeit auch skeptisch betrachtet
Vorwärtsregression: beginnt mit einem Modell, welches nur den Achsenabschnitt berücksichtigt und dann sucht der Computer nach demjenigen Prädiktor, der am meisten Variabilität des Kriteriums aufklärt; erhöht dieser Prädiktor R2, wird er beibehalten und der nächstbeste Prädiktor wird gesucht und hinzugefügt
Rückwärtsregression beginnt mit dem vollständigsten Modell und entfernt dann Prädiktoren und testet, ob R2 kleiner wird. es gibt auch eine beidseitige Variante, bei der ein Modell ständig neu bewertet wird und redundante Prädiktoren entfernt werden.

74
Q

Multiple Regression: Signifikanztests in den Ergebnissen. Was sagen sie aus?

A

Sie sagen aus, dass die Prädiktoren, die Signifikant werden zu dem Kritierum beitragen

75
Q

Korrelationsmatrix mit R erstellen

A

Cor(data.frame) dann wird eine Korrelationsmatrix erstellt
wenn ich cor(daten[,2:4]) eingeben würden, würde er die Spalten 2-4 für die Korrelationsmatrix benutzen

76
Q

Dummykodierung bei R

A

contrasts(daten$nominalskalierteVariable) <- contr.treatment(levels(daten$nominalskalierteVariable), base = eine Stufe die wir als Base aussuchen wollen einfügen als Zahl)

77
Q

Testen Sie, ob es sich die Kovariate signifikant auf den Stufen von dem Faktor unterscheidet. Was muss ich machen bei einer solchen Aufgabenstellung?

A

Testen, ob sie orthogonal zueinander sind mit. Daher eine einfache einfaktorielle Varianzanalyse machen mit aov(Kovariate ~ Faktor, data = daten)

78
Q

Testen Sie, ob es eine Interaktion zwischen Kovariante und Fakotr gibt. was muss ich bei einer solchen Aufgabenstellung machen?

A

Die Homogenität der Regressionssteigung testen. indem ich die Interaktion dem Modell hinzufüge:
Modell <- lm(Kriterium ~ Kovariate + Faktor + Kovariate:Faktor, data = daten)
Aonova(Modell, type = “II”)

79
Q

Wie Polte ich eine ANCOVA?

A

in Formelsammlung ist plot(predictorEffects(modell))
Aber es murr vorher das Paket effects installiert sein

80
Q

wie verhalten sich R² und R²adj bei Hinzunahme eines Prädiktors?

A
  1. R²:
    a) bleibt entweder kleiner oder wird größer
    b) kann nicht negativ werden, da er ja die quadrierte Korrelation zwischen den vorhergesagten und empirischen Werten ist
  2. R²adj:
    a) hingegen kann auch kleiner werden, wenn der neue Prädiktor nicht mehr zur Varianzaufklärung beträgt, da er bei Hinzunahme jeden Prädiktors nach unten korrigiert.
    b) Kann bei kleinem Stichprobenumfang und geringer Varianzaufklärung negativ werden
81
Q

Was ist Fchance konzeptuell?

A

Lässt man den Vorkoeffizienten im Zähler des Bruchs weg, so zeigt sich dass der Zähler die Differenz der aufgeklärten Varianz von komplexem zu reduzierten Modell quantifiziert. In Nenner steht dann die unaufgeklärte Varianz des komplexen Modells (1 - R²). Das heißt, je größer der Zuwachs in der aufgeklärten Varianz oder je kleiner der Anteil der unaufgeklärten Varianz im komplexen Modell, desto größer wird der F-Bruch

82
Q

Warum ist die polynominale Regression eine Erweiterung der einfachen linearen Regression im Sinne der multiplen linearen Regression?

A

Hierbei geht derselbe Prädiktor in unterschiedlicher Potenz mehrfach in die Regression ein. Da die Regression nun quasi aus mehreren “Prädiktoren” besteht (auch wenn diese von der gleichen Variablen stammen), ist die polynomiale Regression eine Form der multiplen linearen Regression

83
Q

wenn ich Fchance per Hand ausgerechnet habe, mit welchen Freiheitsgraden rechne ich den p-Wert aus?

A

Mit den Freiheitsgraden, die auch im F Bruch stehen als Koeffizienten nur vertauscht:
Zählerfreiheitsgrade: J = Differenz der Prädiktoren von komplexen zum einfachen Modell
Nennerfreiheitsgrade: (n - q- 1). Anzahl der Beobachtungen - Anzahl der Prädiktoren des komplexen Modells -1

84
Q

Wann stimmt es, wenn ich eine Interaktion in ein Modell mit aufnehmen und diese signifikant wird, dass der Einfluss von X1 von der Ausprägung auf X2 abhängt?

A

Das Stimmt nur, wenn wir beide Prädiktoren X1 und X2 im Modell aufgenommen haben und X1 und X2 beide signifikant geworden sind. Sonst könnte die Interaktion auch nur signifikant werden, wenn X2 signifikant wurde.

85
Q

Wie finde ich schnell heraus, welcher Prädiktor einer multiple Regression die meiste Varianz aufklärt?

A

Ich schaue mir die Korrelation der Prädiktoren mit dem Kriterium an. cor(daten$Kritierum, daten)
Der Prädiktor, der am meisten mit dem Kritierium korreliert, wir auch am meisten Varianz aufklären.

86
Q

z-standardisierte Variablen: Was ist ihr Mittelwert und ihre Standardabweichung?

A

sind variablen z standardisiert, ist ihr Mittelwert 0 und ihre Standardabweichung 1

87
Q

Was ist das (Semi-)Partialregressionsgewicht?

A

Beschreibt die zweite Interpretation der Regressionsgewichte einer multiplen Regression:
1. Die Regressionsgewichte werden als Gewichte von Regressionsresiduen aufgefasst. Diese Regressionsgewichte erhalten wir, indem wir die fragliche Prädiktoren als auch das Kriterium vom linearen Einfluss aller anderen Prädiktoren befreien.
2. Dafür geben wir:
a) das Kriterium mit den anderen Prädiktoren (ohne der fraglichen Prädiktor) in ein lm-Modell P1 <- lm(Kriterium ~ Präditkor(en), data = daten)
b) den fraglichen Prädiktor in ein lm-Modell mit den anderen Prädiktoren als Prädiktoren: P2 <- lm(fraglicher Prädiktor ~ Prädiktor(en), data = daten)
c) Als letzten schritt packen wir die residuen der beiden modell in ein lm_modell. Dabei ist das lm-Modell des Kriteriums das Kriterium:
m <- lm(P1$residuals ~ p2$residuals)
breif(m)
Nun bekommen wir für den fraglichen Prädiktor den gleichen Wert wie bei der multiplen Regression