Chapitre 2 : Le modèle linéaire multiple Flashcards

(12 cards)

1
Q

Modèle de régression linéaire multiple :

A

Y « est expliquée » par un ensemble de variables explicatives X1, X2, …, XK :
Yi= βo + β1 Xi + β2 Xi + … + εi

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Pour un échantillon 𝑦𝑖 , 𝑥1 ,𝑖, ⋯ , 𝑥𝐾,𝑖 𝑖=1,…,𝑛 :

A

Yi= βo + β1 Xi + β2 Xi + … + εi
y : variable dépendante
𝑥1, ⋯ , 𝑥𝐾 : variables explicatives (ou régresseurs)
ε : terme d’erreur (facteurs omis affectant y)
𝛽0, 𝛽1, ⋯ , 𝛽𝐾 : coefficients de régression (𝛽0: constante ou « intercept ») : paramètres inconnus

Hypothèses :
• 𝑦𝑖 , 𝑥1,𝑖, ⋯ , 𝑥𝐾,𝑖 𝑖=1,…,𝑛 : échantillon iid
• 𝐸 𝜀𝑖 = 0 (identification)
• 𝐸 𝜀𝑖 𝑥1,𝑖, ⋯ , 𝑥𝐾,𝑖 = 0 (pour interprétation « ceteris paribus »)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Interprétation :

A

𝛽1 : effet sur y d’une variation unitaire de x1, « toutes choses égales par ailleurs » (en maintenant x2 et x3
constantes, et aussi les autres facteurs contenus dans ε) , ou « en contrôlant de l’effet de x2 et x3 » ;
𝛽2 : effet sur y d’une variation unitaire de x2, « toutes choses égales par ailleurs »
𝛽3 : effet sur y d’une variation unitaire de x3, « toutes choses égales par ailleurs »
Coefficients de régression ↔ effets partiels d’un régresseur sur y en maintenant les autres facteurs constants.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Ecriture matricielle complète du modèle. On empile les n équations :

A

Y =X*β + ε

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

si la matrice 𝑿′𝑿 est inversible (régulière), on obtient la formule des estimateurs par MCO :

A

𝜷= (𝑿′𝑿 )*−𝟏𝑿′𝒀

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Interprétation de « 𝐗′𝐗 inversible »: les colonnes de X sont linéairement indépendantes ⇔

A

aucune variable explicative est une combinaison
linéaire des autres variables explicatives. Dans le cas contraire : on parle de multicolinéarité (ou colinéarité parfaite)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Comme dans le MRL simple, la variance totale se décompose en variance expliquée et variance résiduelle :

A

SCT = SCR + SCE

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

coefficient de détermination :

A

𝑹𝟐 = SCE / SCT = 1 - SCR / SCT

R2 ne diminue jamais quand une variable explicative est ajoutée au modèle (car la SCR ne diminue pas).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Les propriétés des estimateur MCO :

A

. H1 : (𝑥𝑖, 𝑦𝑖)𝑖=1,…,𝑛 : échantillon iid
• H2 : 𝛽0, 𝛽1, ⋯ , 𝛽𝐾 : nombres réels, paramètres du modèle linéaire : 𝑦𝑖 = 𝛽0 + 𝛽1𝑥1,𝑖 + ⋯ + 𝛽1 𝑥𝐾,𝑖 + 𝜀𝑖
→ modèle valable pour la population dans laquelle on a tiré l’échantillon
• H3 : 𝐸( 𝜀𝑖 I 𝑥1) ,𝑖, ⋯ , 𝑥𝐾,𝑖 = 0, ∀𝑖 ⇒ 𝐸( 𝜀I𝑋 )= 0 ( ccar indépendance )
• H4 : rang de 𝑋′𝑋 = 𝐾 + 1 : pas de colinéarité parfaite
H5 : 𝑉( 𝜀𝑖 I 𝑥1) ,𝑖, ⋯ , 𝑥𝐾,𝑖 = 𝜎2, ∀𝑖 = 1, ⋯ , 𝑛 ⇔ 𝑉 (𝜀𝜀’ I 𝑋) = 𝐸 (𝜀𝜀′ I𝑋) = 𝜎2*In (car indépendance)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

un estimateur sans biais de σ2 est :

A

𝜎2 = 𝑆C𝑅 / 𝑛 − (𝐾 + 1)

= ∑𝑖=1 𝜀𝑖2* / 𝑛 − (𝐾 + 1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

On a alors un estimateur de la matrice des variances-covariances du vecteur ̂ 𝛽:

A

𝑽 chapeau (𝜷^I𝑿) = 𝝈𝟐* (𝑿′𝑿) −𝟏

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Sous les hypothèses H1-H5, l’estimateur par MCO est :

A

le meilleur estimateur linéaire sans biais (BLUE :

best linear unbiased estimator).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly