2. Multiple Regression Flashcards Preview

Statistik II > 2. Multiple Regression > Flashcards

Flashcards in 2. Multiple Regression Deck (37)
Loading flashcards...
1

Je mehr Prädiktoren, desto...

besser die Prädiktion

2

Ziele:

1. Möglichst viel Varianz am Kriterium erklären
2. Möglichst wenige Prädiktoren verwenden

3

Multiple Regression: Definition

Eine lineare Regression mit mehreren Prädiktoren

4

Multiple Regression: Methode

Methode der kleinsten Quadrate

5

Multiple Regression: Voraussetzungen

- intervallskaliertes Kriterium
- mehrere intervallskalierte oder dichotome Prädiktoren

6

Multiple Determinationskoeffizient: Definition

der Anteil der Kriteriumvarianz , der durch alle Prädiktoren vorhergesagt werden kann

7

Wie werden die ß-Koeffizienten bei mehreren Prädiktoren bestimmt?

- SPSS

8

Methode der kleinsten Quadrate

Für einen Datensatz (eine Punktewolke) werden und so gewählt, dass
der quadrierte Vorhersagefehler über alle Probanden minimal ist:

9

Methode der kleinsten Quadrate: warum wird der Vorhersagefehler quadriert?

damit:
(1) Die Abweichungswerte immer positiv sind.
(2) Große Abweichungen stärker berücksichtigt werden als kleine
Abweichungen.

10

Multikollinearität: resultierende Problem

"biased estimate" = Capitalization of Chance

11

Capitalization of Chance

R2 in der Stichprobe überschätzt den Populationszusammenhang

12

Faktoren die den "Bias" beeinflüssen (Capitalization of Chance)

1) Anzahl Prädiktoren
Je mehr Prädiktoren, desto größer die Verzerrung = Capitalization
of Chance

2) Höhe der Korrelationen zwischen den Prädiktoren
Je höher die Multikollinearität, desto größer Verzerrung

3) Stichprobengröße
Je größer N, desto kleiner die Verzerrung

13

Capitalization of Chance: Lösungen

-- Kreuzvalidierung
-- Korrigiertes R2 (SPSS)
-- größeres N
-- nur relevante und möglichst unkorrelierte Prädiktoren aufnehmen

14

Signifikanztest der multiplen
Regression

- F-Test
- beruht auf Zerlegung der Varianz des Kriteriums in einen erklärten ( SS𝒓𝒆𝒈) und einen nicht erklärten (SS𝒓𝒆𝒔) Teil.
- Wenn F𝒆𝒎𝒑 > F𝒌𝒓𝒊𝒕 ist das Testergebnis signifikant
- Die Prädiktoren weisen dann insgesamt einen bedeutsamen
Zusammenhang mit dem Kriterium auf.

15

Quadratsumme

( SS = „sum of squares“)

16

Multiplen Regression: Strategien

- a priori
- a posteriori

17

a priori

"Inhaltliche Auswahl": Prädiktoren aus Theorie ableiten

18

a posteriori

- Alle möglichen Untermengen
– Vorwärtsselektion
– Rückwärtselimination
– Schrittweise Regression

19

a posteriori: "alle mögliche Untermengen"

- Bildung aller möglichen Kombinationen der verfügbaren Prädiktoren und Berechnung derer Regressionsgleichungen
– Auswahl der Regressionsgleichung mit dem höchsten erklärten Varianzanteil

20

a posteriori: "Vorwärtsselektion"

– Aufnahme der Prädiktoren nacheinander;
– Beginn mit Prädiktor mit höchsten inkrementellen Validität;
– Stopp, wenn kein Prädiktor mehr inkrementelle Validität besitzt

21

a posteriori: "Rückwärtselimination"

- Aufnahme aller Prädiktoren
- dann, Elimination von Prädiktoren ohne inkrementelle Validität

22

a posteriori: "Schrittweise Regression"

– Kombination aus Vorwärtsselektion und Rückwärtselimination:
– Aufnahme eines Prädiktors  anschließend Überprüfen der inkrementellen Validität aller aufgenommen Prädiktoren
- Entfernen nicht relevanter Prädiktoren

23

Strategien: "Inhaltliche Auswahl" Vorteile

- Nur eine Regressionsanalyse 
- keine Captilization of
Chance /Alphafehlerinflationierung

24

Strategien: "Inhaltliche Auswahl" Nachteile

- Einschluss von nicht
relevanten Prädiktoren;
- Multikollinerarität möglich;
- Vergessen von relevanten
Prädiktoren
--> Sollte evidenzbasiert sein

25

Strategien: "Untermengen" Vorteile

Rechnerisch optimale Kombination

26

Strategien: "Untermengen" Nachteile

- viele Berechnungen --> Aufwand
- Capitalization of Chance --> Alphafelhlerinflationierung

27

Strategien: "Vorwärtsselektion" Vorteile

- Max. so viele Regressionsanalysen wie
Prädiktoren;
- Aufnahme von Prädiktoren, die der
Vorhersage nützlich sind;
- sehr ökonomisch

28

Strategien: "Rückwärtselimination" Vorteile

- Am Ende nur Prädiktoren mit
inkrementeller Validität;
- Effektiver als
Vorwärtsselektion bei hoher
Multikollineraität

29

Strategien: "Vorwärtsselektion" Nachteile

- Möglicherweise Verlust von
inkrementeller Validität des
ersten Prädiktors durch
Zunahme weiterer
(Multikollinearität)

30

Strategien: "Schrittweise Regression" Vorteile

- Ausschluss von anfänglich bedeutsamen Prädiktoren
möglich;
- Stark korrelierende Prädiktoren werden bevorzugt
- Minimum an Prädiktoren (nur welche mit
inkrementeller Validität)