2. Multiple Regression Flashcards

1
Q

Je mehr Prädiktoren, desto…

A

besser die Prädiktion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Ziele:

A
  1. Möglichst viel Varianz am Kriterium erklären

2. Möglichst wenige Prädiktoren verwenden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Multiple Regression: Definition

A

Eine lineare Regression mit mehreren Prädiktoren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Multiple Regression: Methode

A

Methode der kleinsten Quadrate

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Multiple Regression: Voraussetzungen

A
  • intervallskaliertes Kriterium

- mehrere intervallskalierte oder dichotome Prädiktoren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Multiple Determinationskoeffizient: Definition

A

der Anteil der Kriteriumvarianz , der durch alle Prädiktoren vorhergesagt werden kann

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wie werden die ß-Koeffizienten bei mehreren Prädiktoren bestimmt?

A
  • SPSS
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Methode der kleinsten Quadrate

A

Für einen Datensatz (eine Punktewolke) werden und so gewählt, dass
der quadrierte Vorhersagefehler über alle Probanden minimal ist:

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Methode der kleinsten Quadrate: warum wird der Vorhersagefehler quadriert?

A

damit:
(1) Die Abweichungswerte immer positiv sind.
(2) Große Abweichungen stärker berücksichtigt werden als kleine
Abweichungen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Multikollinearität: resultierende Problem

A

“biased estimate” = Capitalization of Chance

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Capitalization of Chance

A

R2 in der Stichprobe überschätzt den Populationszusammenhang

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Faktoren die den “Bias” beeinflüssen (Capitalization of Chance)

A

1) Anzahl Prädiktoren
Je mehr Prädiktoren, desto größer die Verzerrung = Capitalization
of Chance

2) Höhe der Korrelationen zwischen den Prädiktoren
Je höher die Multikollinearität, desto größer Verzerrung

3) Stichprobengröße
Je größer N, desto kleiner die Verzerrung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Capitalization of Chance: Lösungen

A
    • Kreuzvalidierung
    • Korrigiertes R2 (SPSS)
    • größeres N
    • nur relevante und möglichst unkorrelierte Prädiktoren aufnehmen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Signifikanztest der multiplen

Regression

A
  • F-Test
  • beruht auf Zerlegung der Varianz des Kriteriums in einen erklärten ( SS𝒓𝒆𝒈) und einen nicht erklärten (SS𝒓𝒆𝒔) Teil.
  • Wenn F𝒆𝒎𝒑 > F𝒌𝒓𝒊𝒕 ist das Testergebnis signifikant
  • Die Prädiktoren weisen dann insgesamt einen bedeutsamen
    Zusammenhang mit dem Kriterium auf.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Quadratsumme

A

( SS = „sum of squares“)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Multiplen Regression: Strategien

A
  • a priori

- a posteriori

17
Q

a priori

A

“Inhaltliche Auswahl”: Prädiktoren aus Theorie ableiten

18
Q

a posteriori

A
  • Alle möglichen Untermengen
    – Vorwärtsselektion
    – Rückwärtselimination
    – Schrittweise Regression
19
Q

a posteriori: “alle mögliche Untermengen”

A
  • Bildung aller möglichen Kombinationen der verfügbaren Prädiktoren und Berechnung derer Regressionsgleichungen
    – Auswahl der Regressionsgleichung mit dem höchsten erklärten Varianzanteil
20
Q

a posteriori: “Vorwärtsselektion”

A

– Aufnahme der Prädiktoren nacheinander;
– Beginn mit Prädiktor mit höchsten inkrementellen Validität;
– Stopp, wenn kein Prädiktor mehr inkrementelle Validität besitzt

21
Q

a posteriori: “Rückwärtselimination”

A
  • Aufnahme aller Prädiktoren

- dann, Elimination von Prädiktoren ohne inkrementelle Validität

22
Q

a posteriori: “Schrittweise Regression”

A

– Kombination aus Vorwärtsselektion und Rückwärtselimination:
– Aufnahme eines Prädiktors  anschließend Überprüfen der inkrementellen Validität aller aufgenommen Prädiktoren
- Entfernen nicht relevanter Prädiktoren

23
Q

Strategien: “Inhaltliche Auswahl” Vorteile

A
  • Nur eine Regressionsanalyse 
  • keine Captilization of
    Chance /Alphafehlerinflationierung
24
Q

Strategien: “Inhaltliche Auswahl” Nachteile

A
- Einschluss von nicht
relevanten Prädiktoren;
- Multikollinerarität möglich;
- Vergessen von relevanten
Prädiktoren
--> Sollte evidenzbasiert sein
25
Strategien: "Untermengen" Vorteile
Rechnerisch optimale Kombination
26
Strategien: "Untermengen" Nachteile
- viele Berechnungen --> Aufwand | - Capitalization of Chance --> Alphafelhlerinflationierung
27
Strategien: "Vorwärtsselektion" Vorteile
``` - Max. so viele Regressionsanalysen wie Prädiktoren; - Aufnahme von Prädiktoren, die der Vorhersage nützlich sind; - sehr ökonomisch ```
28
Strategien: "Rückwärtselimination" Vorteile
``` - Am Ende nur Prädiktoren mit inkrementeller Validität; - Effektiver als Vorwärtsselektion bei hoher Multikollineraität ```
29
Strategien: "Vorwärtsselektion" Nachteile
``` - Möglicherweise Verlust von inkrementeller Validität des ersten Prädiktors durch Zunahme weiterer (Multikollinearität) ```
30
Strategien: "Schrittweise Regression" Vorteile
- Ausschluss von anfänglich bedeutsamen Prädiktoren möglich; - Stark korrelierende Prädiktoren werden bevorzugt - Minimum an Prädiktoren (nur welche mit inkrementeller Validität)
31
Strategien: "Schrittweise Regression" Nachteile
- Systematische Erhöhung durch Captilization of Chance --> gefundene Prädiktoren können bei Kreuzvalidierung oft nicht bestätigt werden; - Wenig theoriegeleitet
32
welche auswahlmethode führt zu einer einfachen regressionsgleichung?
schrittweise
33
wieso gibt es nur eine geringe gefahr der alpha-fehler-kumulierung bei schrittweise regression?
nur wenige doppelte iterationen
34
was für eine SP-Größe ist empfohlen?
N/k > 20 k = anzahl der prädiktoren
35
beschreibe rückwärtselimination
- alle Prädiktoren werden in die Regression eingeschlossen - in jedem Schritt wird jeweils der Prädiktor, der am wenigsten zur Vorhersage beiträgt, weggelassen - diese Schritte werden wiederholt, bis es zu einer signifikanten Verschlechterung der Vorhersage kommt
36
Erklären Sie warum R² von Modell 1 bis 7 abfällt, des korrigierte R² aber ansteigt!
fällt: - weil Prädiktoren, die einen (nicht-signifikanten) Teil des Kriteriums vorhersagen, weggelassen werden R2korr steigt: - weil die Schrumpfungskorrektur wegen der geringeren Anzahl an Prädiktoren kleiner ausfällt
37
Schrittweise Regression: | Vorteile
Minimum an Prädiktoren; Exploratives Vorgehen möglich