Multiple Regression Flashcards

1
Q

Um den Einfluss einer Drittvariable Z auf eine Korrelation rXY zu kontrollieren,

A

wird diese auspartialisiert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vorgehen auspartielisieren

A

2 einfache Regressionen gerechnet, bei denen Z einmal als Prädiktor für X und einmal als Prädiktor für Y genutzt wird.
Die Residualvariable der ersten Regression bezeichnet man als EX(Z), = Werten für 𝑒𝑚 in entspricht. Diese Variable EX(Z) ist als Fehler mit der Prädiktorvariable Z unkorreliert. Auf die gleiche Art wird die Residualvariable EY(Z) erzeugt.
Danach werden die Residualvariablen der beiden Regressionen korreliert, dies ist die Partialkorrelation.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Die Partialkorrelation kann sich zur ursprünglichen Korrelation (der Korrelation nullter Ordnung) auf drei Arten verhalten:

A

Partialkorrelation&Korrelation nullter Ordnung sind gleich,wenn die Drittvariable mit beiden Variablen unkorreliert ist.
Der Betrag der Partialkorrelation ist kleiner, wenn die Drittvariable den Zusammenhang der beiden Variablen teilweise oder ganz erklaren kann
Der Betrag der Partialkorrelation ist größer, wenn die Drittvariable eine Suppressorvariable ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Semipartialkorrelation 𝑟(y.z)x

A

Korrelation einer Variablen X mit einer Residualvariablen der Variablen Y, die um den Einfluss von Z bereinigt wurde:

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Multipe Regression Variablen

A

eine Kriteriumsvariable (die metrische abhängige Variable) und mehr als eine Prädiktorvariable (jeweils eine metrische unabhängige Variable).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Ziel der Regression

A

Erklärung von Varianz oder die Vorhersage von Werten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Voraussetzungen multiple Regression mit stochastischen Regressorn

A

multivariate Normalverteilung vorliegen, was einer bivariaten Normalverteilung zwischen jedem Paar von Variablen entspricht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Voraussetzungen der multiplen Regression mit deterministischen Regression

A

Homoskedastizität
Normalverteilung der Residualvariablen
Unabhängigkeit der Residuen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Aus dem Verhältnis der standardisierten Steigerungskoeffizienten zur Korrelation dieser Prädiktorvariablen j mit dem Kriterium kann gesehen werden, ob Suppressionseffekte vorliegen:

A

𝑏js ryxj

Wenn der standardisierte Steigungskoeffizient größer ist als die Korrelation, ist der andere Prädiktor ein Suppressor.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Indeterminationskoeffizienten

A

wird durch den nicht erklärten Teil der Varianz definiert

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wertebereich multiple Korrelation

A

0&1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

was entspricht die multiple Korrelation

A

Korrelation zwischen den vorhergesagten&gemessenen Werten
Wurzel aus Rquadrat

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wann ist die multiple Korrelation größer als 0

A

wenn die Prädiktoren gemeinsam Varianz erklären

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Hypothesen Multiple Regression

A

𝐻0:𝛲=0

𝐻1:𝛲>0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Tabelle Multiple Regression

A

immer nur einseitig

0,95 Tabelle

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Multikollinearität

A

Wenn mehrere Prädiktoren hoch miteinander korreliert sind

17
Q

Wozu führt Multikollinearität?

A

zu vergrößerten Standardfehlern der Regressionsgewichte & somit zu unpräzisen Schätzungen.
Wenn 2 Prädiktoren hoch korreliert sind, kann es beispielsweise sein, dass sie sehr ähnliche Varianzanteile auf der Kriteriumsvariablen erklären. Solange sie gemeinsam in einem Regressionsmodell stecken, werden sie daher vielleicht nicht signifikant. Wenn einer der beiden Prädiktoren schon in einem Modell steckt, erklärt die Zunahme des anderen Prädiktors keine zusätzliche Varianz (dies wäre genauso, wenn der andere Prädiktor schon im Modell stecken würde).

18
Q

Was kann berechnet werden, um Multikollinearität zu entdecken

A

Toleranzfaktor

Varianzinflations-Faktor 𝑉𝐼𝐹

19
Q

Wie erhält man den Toleranzfaktor

A

indem man die quadrierte multiple Korrelation eines Prädiktors j mit allen anderen unabhängigen Variablen von 1 abzieht:

20
Q

Was bedeutet ein Toleranzfaktor von 0

A

dass dieser Prädiktor perfekt aus allen anderen Prädiktoren vorhergesagt werden könnte.

21
Q

Was bedeuten Werte vom Toleranzfaktor kleiner als 0,10

A

Anzeichen für Multikollinearität.

22
Q

Varianzinflations-Faktor

A

Kehrwert des Toleranzfaktors.

23
Q

Varianzinflaktions FAktor Werte größer als 10

A

Zeichen für Multikollinearität

24
Q

Effektgröße der Multiplen Korrelation

A

Determinationskoeffizient (𝑅2 tendenziell zu groß ist) deshalb korrigiertes r2

25
Q

da Prädiktoren miteinander korrelieren

A

Einfluss in multipler Regression ein anderer als jeweils in der einfachen

26
Q

standardisierte Regressionsgleichung

A

hat keinen Achsenabschnitt b0=0

27
Q

Verhältnis der standardisierten Steigerungskoeffizienten zur Korrelation der P

A

bjs < ryxj erklärte Varianz des Prädiktors wird durch den anderen Prädiktor erklärt,daher erklärt dieser Prädiktor in der M.R. weniger Varianz als in einer E.R
bjs = ryxj Prädiktor hängt nicht mit dem anderen zusammen
bjs > ryxj der andere Prädiktor ist ein Suppressor

28
Q

bjs < ryxj

A

erklärte Varianz des Prädiktors wird durch den anderen Prädiktor erklärt,daher erklärt dieser Prädiktor in der M.R. weniger Varianz als in einer E.R

29
Q

bjs = ryxj

A

Prädiktor hängt nicht mit dem anderen zusammen

30
Q

bjs > ryxj d

A

er andere Prädiktor ist ein Suppressor

31
Q

Was fragt man sich bei der Multiplen Regression (Hypothesen)

A

Ob die prädiktoren gemeinsam Varianz erklären Wenn ja dann ist die M.K. > 0