Lecture 21: Multiple regression Flashcards

1
Q

wat zijn de assumpties van het lineaire model

A

For simple regression:
- Sensitivity
- Homoscedasticity
- Linearity

Additionally, for multiple regression:
- Multicollinearity

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

wat voor soort variabelen bij multiple regression

A

Multiple linear regression is used to model the relationship between a continuous response variable and continuous or categorical explanatory variables.
maar… meestal continuous dependent en independent

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

wat is de assumptie van linearity

A

er moet een lineaire relatie zijn tussen de independent en dependent variable

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

wat voor formule bij multiple regression

A

y = B0 + B1x1 + B2X2 …. + ei

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

In linear regression, the relationships are modeled using…

A

linear predictor functions whose unknown model parameters (B’s) are estimated from the data.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

To adhere to the multicollinearity assumption…

A

there must not be a too high linear relation between the predictor variables.

dus de predictor variables mogen niet te lineair gerelateerd zijn aan elkaar

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

hoe check je voor multicollinearity

A
  • Correlations
  • Matrix scatterplot
  • Collinearity diagnostics:
    VIF: max < 10, mean < 1
    Tolerance: > 0.2 -> good
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

wat is er met B0

A

we always have a B0, even when we do not have any predictor variables.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

dus verschil van assumptie lineairity en multicollinearity

A

linearity = wel een linear relationship between independent and dependent

multicollinearity = geen lineaire relatie tussen predictor variables

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

hoe meet je de assumptie van linearity

A
  • correlations
  • matrix scatterplots with predictors and outcome variable
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

regression coefficients tell us…

A

what the model predicts, and allows us to make estimations

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

b0 is our prediction if…

A

all our predictor variables were zero. dus ook wel null model!!!
estimates the grand mean of the dependent variable

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

wat is het lastige aan 2 predictors

A

predicten in 2 dimensions -> geen scatterplots meer gebruiken….

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

the further away the beta is from 0…

A

the stronger the association between the different predictors and outcome.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

hoe kan een kleine beta alsnog een groot verschil geven

A

doordat de beta coefficients nog steeds affected worden door de standard deviations. dit betekent dat er bv een hele lage stdev is, maar dat een lage b nog steeds significantly different zijn dan 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

partial correlation =

A

correlation between x and y whilst controlling for z

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

welke dingen worden wel affected door standard deviation, en welke niet

A
  • correlation niet affected (want delen door stdev)
  • covariance and beta 1 zijn affected
18
Q

nog een keer in woorden: wat is r, en wat is r^2?

A

r = correlation between predicted and observed
r^2 = proportion of explained variance

19
Q

r^2 is the proportion of ….

A

explained/total

(1-r^2 is the unexplained/total)

20
Q

dus hoe bereken je explained variance in r

A

cor(x, predicted x)

21
Q

hoe doe je een multiple regression in jasp

A

alle variabelen er in bij correlation
pairwise correlation aanklikken
onder plots: scatterplots

22
Q

wat zie je bij een categorical predictor in de scatterplots

A

allemaal horizontale lijnen

23
Q

wat is het verschil tussen een correlatie en regressieanalyse

A

bij correlatie kijk je naar alle variabelen; bij regressie specificeer je echt wat de dependent variable is en wat de independent variables zijn.

24
Q

waar kan je de beta coefficients zien bij linear regression

A

onder coefficients -> unstandardized

25
wat betekent unstandardized
betekent dat het op dezelfde schaal is als de dependent variable
26
wanneer kijk je naar standardized
als je hypothesis testing wil doen
27
wat is de intercept van de null model
de mean van de dependent variable
28
waar kijk je nog meer naar bij een multiple regression
naar r^2 en adjusted r^2: die corrigeert voor het aantal variabelen dat je hebt toegevoegd.
29
wat is het voordeel van adjusted r^2
deze punished complex models! = parsimony dus adjusted r^2 houdt zich meer aan de parsimony
30
wat zie je bij ANOVA in de multiple regression table
how much better did this model predict, when compared to the null model?
31
wat kan je na het bekijken van die ANOVA doen?
als er een significant verschil zat, kan je kijken aan welke van de variabelen dit verschil toegeschreven kan worden, want dat weten we nu niet (meerdere dingen toegevoegd!) dus dan voeg je, onder model, een van de twee variabelen toe aan het null model. dan zie je of de andere variabele predictive accuracy toevoegd aan het model. daarna ook kijken naar R squared change, dit kan je aanvinken onder statistics.
32
waar staat de R^2 change bij H0 voor
die vergelijkt het nieuwe null model met het originele null model
33
wat laten VIF en tolerance zien
hoeveel multicollinearity er is
34
waar kan je vif en tolerance krijgen
onder statistics
35
outliers can have a very large effect!
oke
36
hoe zie je outliers
onder residuals bij statistics: casewise diagnostics (hier krijg je case number: dan nog in de dataset kijken waar die is!) of boxplot maken
37
normality assumption
Q-Q plot, onder plot
38
hoe kan je testen voor homoscedasticity
plot residuals vs predicted
39
wat zie je bij marginal effect plots, wat helpt hier
dat je meerdere dimensies soort van kan zien, omdat de andere variables averaged out zijn. dus helpt semi met dat dimensions probleem
40