Sitzung 13: Die lineare Regression II Flashcards

1
Q

Bivariate Regression

A

Bei der bivariaten Regression geht man von einer einfachen Kausalstruktur mit nur einer erklärenden Variable aus: x = y

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Multiple Regression

A

Bei der multiplen Regression geht man davon aus, dass mehrere UV gleichzeitig auf die AV einwirken (konvergente Kausalstruktur)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Gleichung der multiplen Regression

A

y = a+b1x1 +b2x2 +…+bnxn +e
e ist der Störterm, der die Residuen enthält.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q
  1. Block SPSS Output
A

Auf welche Art und Weise werden UV aufgenommen?
Alle UV werden hier gleichzeitig in das Modell genommen (Einschluss)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q
  1. Block SPSS Output
A

Modellzusammenfassung
R

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q
  1. Block SPSS Output:
A

Varianzanalyse mit F-Tabelle

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q
  1. Block SPSS-Output
A

Schätzgleichung kann aufgestellt werden
Auf Basis dieser Gleichung können Prognosen für den HDI abgegeben werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was sind potentielle Spezifizierungsirrtümer?

A
  • Die Beziehung zwischen x und y ist nicht linear (Streudiagramm bzw. Streudiagramm-Matrix betrachten!) = dann eignet sich diese Art der Analyse gar nicht
  • Relevante UV wurden ausgeschlossen (omitted variable bias) = verzerrte Ergebnisse
  • irrelevante UV wurden mit eingeschlossen = Effizienz der Schätzung nimmt ab, Standardfehler werden größer

= alles sehr schwer zu identifizieren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was sind potentielle Messfehler?

A
  • Objektivität, Reliabilität und Validität der Messung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Erwartungstreu

A

Schätzer trit im Mittel (bei vielen Wiederholungen) den wahren Parameter in der Grundgesamtheit.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Effizient

A

Geringe Ungenauigkeit (Varianz) in der Schätzung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

BLUE-Schätzer

A

Best linear unbiased estimator
Gauß-Markov Annahmen müssen erfüllt sein
1. Erwartungswert für alle Residuen ist Null
2. Keine Korrelation der UV mit den Residuen
3. Homoskedastizität = Varianz der Residuen ist konstant
4. Keine Autokorrelation = keine Korrelation der Residuen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Messen von Autokorrelation

A

Über die Durbin Watson Statistik
Daumenregel:
Durbin-Watson-Wert nahe 2 → keine Autokorrelation
Durbin-Watson-Wert nahe 0 → positive Autokorrelation
Durbin-Watson-Wert nahe 4 → negative Autokorrelation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Multikollinearität

A

eine Korrelation zwischen zwei oder mehr der unabhängigen Variablen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

erste Hinweise auf Multikollinearität

A

Hohe F-Werte, bei gleichzeitiger schlechter Signikanz der T-Werte der Steigungsparameter

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Ab wann können Korrelationen problematisch sein?

A

Ab 0,7

17
Q

Welche Optionen gibt es mit Multikollinearität umzugehen?

A
  • Ausschluss einzelner multikollinearer Variablen (falls eine Variable unnötig ansonsten doppelt eingehen würde)
  • Zusammenfassen inhaltlich sinnvoll kombinierbarer multikollinearer Variablen
18
Q

Ausreißer

A

Als Ausreiÿer bezeichnet man Observationen, die deutlich vom Rest der Daten abweichen

19
Q

Leverage

A

Punkte, die in Bezug auf die UV sich deutlich von den anderen Werten unterscheiden haben eine hohe leverage (Hebelwert)

20
Q

Influential

A

Punkte, deren Entfernung aus dem Modell, die Regressionsergebnisse, d.h. die Koezienten, deutlich verändern würde, heiÿen inuential (einussreiche Fälle)

21
Q

Punkte, die in y-Richtung weit von der Regressionslinie liegen, haben ein großes ………..

A

Residuum

22
Q

Um sich abzusichern, dass Ausreißer kein Problem sind, sollte man sich das Residuum, den Leverage und den Influence und das ……………. anschauen.

A

Streudiagramm

23
Q

Residuum + Leveredge

A

Influence

24
Q

Heteroskedastizität

A

Verönderliche Streuung der Residuen

25
Q

Was ist, wenn Autokorrelation vorliegt?

A

UVs beeinflussen sich auch gegenseitig/sind nicht unabhängig
= tritt bei Zeitreihen auf, da hier die Werte in einer natürlichen Reihenfolge vorliegen und Werte der vorgegangenen Periode nachfolgende Beobachtungen beeinflussen können.
Wenn hohe Werte der Vorperiode hohe beobachtete Werte auslösen, gibt es eine positive Autokorrelation.
Folge ist, dass die Signifikanz der Koeffizienten überschätzt wird.
Bereinigung Autokorrelation: jeder Merkmalswert - Wert der Vorperiode

26
Q

Einschluss

A

UVs werden gleichzeitig ins Modell aufgenommen

27
Q

Forward stepwise

A

Schrittweise nacheinander eingebracht und nur diejenigen, die dann den model-fit wirklich verbessern, bleiben im Gesamtmodell enthalten.

28
Q

Backward selection

A

Alls UVs werden eingebracht und schrittweise diejenigen herausgenommen, die nicht signifikant sind.

29
Q

Auto Korrelation

A

Korrelation der Residuen

30
Q

Was für ein Test?
Signifikanz des Modells

A

F-Test

31
Q

Was für ein Test?
Heteroskedastizität

A

Goldfield-Quandt-Test

32
Q

Was für ein Test?
Multikollinearität

A

VIF

33
Q

Was für ein Test?
Einfluss der Teilkoeffizienten

A

Beta

34
Q

Was für ein Test?
Ausreißer

A

Laverage

35
Q

Was für ein test?
Signifikanz der Teilkoeffizienten

A

T-Test