Chapitre 1 : Le modèle linéaire simple Flashcards

(51 cards)

1
Q

Modèle de régression linéaire simple :

A

C’est l’étude de la relation entre 2 variables Y et X, pour un ensemble de n entités (exemple : Y=consommation, et X= revenu)
→ Y « est expliquée » par X (analyse de la variation de Y suite à une modification de X)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Quel est le cadre général ?

A

On tire des échantillons d’individus de taille n dans la population globale.
Pour chaque individu i, i=1, …, n, on observe les valeurs de variables (par exemple yi) que l’on suppose être les réalisations de variables aléatoires (Yi), dont la distribution de probabilité est la distribution de la population.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Une variable aléatoire réelle (v.a.r) X, est une application d’un espace probabilisé dans ℝ telle que :

A

𝐏 (𝑿 ≤ 𝒙) = 𝑭𝑿(𝒙)

où 𝐹𝑋 (𝑥) est la fonction de répartition de X (cumulative distribution function, cdf)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Si 𝐹𝑋 (𝑥) est dérivable par rapport à x (X v.a. continue) , on a :

A

On a dFx (x) / dx = fx (x)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Propriétés des fonctions de répartition et densité de probabilité : n°1

A
• 𝐹𝑋 (𝑥) croissante, et 𝐹𝑋 (𝑥) ∈ [0,1]
• lim  𝐹𝑋 (𝑥) = 0
𝑥→−∞ 
et lim 𝐹𝑋 (𝑥) = 1
𝑥→+∞ 
• 𝑓𝑋 (𝑥) ≥ 0, ∀𝑥𝑥 ∈ ℝ
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Propriétés des fonctions de répartition et densité de probabilité : n°2

A
• Si X admet une densité:
𝐹𝑋 (𝑥) = intégrale de −∞ à x de
𝑓𝑋 𝑡 𝑑𝑡
et donc Pr(𝑋 ≤ 𝑥) correspond à l’aire sous la courbe de la densité pour l’intervalle ]−∞, 𝑥]
• ∫+∞−∞ 𝑓𝑋 (𝑥) 𝑑𝑥 =1
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

•Espérance (moment du premier ordre) (expectation, mean, expected value) d’une v.a. X continue:

A

𝑬 (𝑿) = ∫−∞ à +∞ 𝒙𝒇𝑿 (𝒙) 𝒅𝒙

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Variance (moment centré d’ordre 2) :

A

𝑽 (𝑿) = 𝝈𝑿𝟐* = [𝑬 (𝑿) − 𝑬 (𝑿) ]𝟐* = 𝑬 (𝑿𝟐) − 𝑬(𝑿)𝟐

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Propriétés des moments aléatoires :

A
  • l’espérance est un opérateur linéaire : ∀𝑎, 𝑏 ∈ ℝ2, 𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(X) + 𝑏
  • pour des transformations non linéaires de X, g(X), en général : E(g(X)) ≠ g(E(X))
  • ∀𝑎, 𝑏 ∈ ℝ2, 𝑉 (𝑎𝑋+𝑏) = 𝑎2𝑉(𝑋)
  • écart-type (standard error) de X : 𝜎𝑋 = Racine carré de (𝑉(𝑋))
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Fonction de répartition :

A

𝐹𝑋 𝑥1, ⋯ , 𝑥𝐾 = Pr(𝑋1 ≤ 𝑥1, ⋯ , 𝑋𝐾 ≤ 𝑥𝐾)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Soit X le vecteur de dimension K : 𝑋 =

(𝑋1…𝑋𝐾), où chaque composante Xk, k=1,…, K, est…

A

…une variable aléatoire. On suppose ici que ces v.a. sont continues.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Densité (jointe) de probabilité :

A

notée 𝑓𝑋( 𝑥1, ⋯ , 𝑥𝐾)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Densité marginale de la v.a. Xk :

A

𝒇𝑿𝒌 𝒙𝒌 = ∫ ⋯ ∫ 𝒇𝑿 𝒙𝟏, ⋯ , 𝒙𝒌, ⋯ , 𝒙𝑲 𝐝𝒙𝟏 ⋯ 𝐝𝒙𝑲

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Espérance :

A

𝑬 𝑿 =(𝑬(𝑿𝟏)…𝑬(𝑿𝑲)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Covariance :

A

σ Xk,Xl = E(Xk;Xl) - E(Xk)*E(Xl)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Corrélation entre Xk et Xl, l,k = 1,…,K :

A

Corr(Xk ; Xl) = Cov(Xk ; Xl)/ σXk * σXl

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Matrice de variance-covariance de X :

A

matrice carrée de taille KxK:

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Soit A une matrice de constantes. On a :

A

V (𝐴𝑋) = 𝐴𝑉(𝑋)𝐴T T= transposé ou bien # ‘ #

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Loi de Bayes: soient A et B deux évènements :

A

𝐏 (𝑨/𝑩) = 𝐏(𝑨∩ 𝑩) / 𝐏(𝑩)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Un échantillon est un échantillon aléatoire si :

A

les observations sont tirées d’une même loi et indépendantes
entre elles.
→ Échantillon indépendamment et identiquement distribué (iid)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Un estimateur :

A

règle d’utilisation des données d’un échantillon pour estimer un ou plusieurs paramètres.
C’est une statistique.

22
Q

Propriétés souhaitables d’un estimateur :

A

• Sans biais : un estimateur ̂ 𝜃 d’un paramètre θ est « sans biais » si : 𝐸( ̂ 𝜃 )= 𝜃
• Efficace : un estimateur sans biais ̂ 𝜃1 d’un paramètre θ est plus efficace qu’un autre estimateur sans biais ̂ 𝜃2 si : 𝑉( ̂𝜃1) < 𝑉( ̂𝜃2)
En présence d’un biais, on utilise le critère de l’Erreur Quadratique Moyenne (EQM), la plus faible possible:
𝐸( ̂ 𝜃 )= 𝐸(( ̂ 𝜃 − 𝜃 )2* )= 𝑉( ̂ 𝜃) + (𝐸( ̂𝜃) − 𝜃 )2*

Avec 2* = au carré

23
Q

Analyse de régression :

A

l’un des principaux outils de l’économétrie pour quantifier et tester des relations
économiques à partir de données observées.
Etude la dépendance « statistique » d’une variable par rapport à une ou plusieurs autres variables

24
Q

Le modèle linéaire simple : notations et définitions

A

On postule une relation entre une variable y et une variable x.
Remarque : dans ce qui suit, on confond v.a. et réalisation en terme de notation.
Forme de la relation la plus simple
→ linéaire : y = xβ1 + β0
Confrontation des données observées à la relation ⇒ relation non exacte.
Par exemple : n individus, x=revenu et y = dépenses pour loisir → échantillon : (𝑥𝑖 , 𝑦𝑖 ) 𝑖 = (1,…,𝑛)
Autres facteurs que le revenu ( observables ou non) affectent les dépenses pour loisir.

25
Modèle (de régression) linéaire simple (« on régresse y sur x (ou sur une constante et x)» :
y = xβ + β + ε y : variable dépendante ou expliquée (dependent variable, or explained variable) • x : variable explicative ou régresseur (explanatory variable, or regressor) • β0 et β1 : coefficients de régression, avec β0: constante (intercept, or constant term) et β1 : pente (slope parameter) → paramètres à estimer. • 𝜷𝟎 + 𝜷𝟏*𝒙 : droite (ou fonction) de régression de la population → relation existante entre y et x, en moyenne, sur la population. • ε : terme d’erreur, non observable (error term, or disturbance) → v.a. capturant tous les facteurs autres que x, ayant un effet sur y
26
Une 1ère hypothèse sur ε :
E(ε) = 0 → pour identification de la constante β0
27
L'un des terme d'erreur i veut : 𝜀𝑖 =....
𝑦𝑖 − 𝛽0 + 𝛽1𝑥𝑖 : positif, nul ou négatif
28
Pour 2 v.a. continues, X et Y, de densité jointe | 𝑓𝑋,𝑌(𝑥, 𝑦), la densité conditionnelle de X|Y est:
𝑓𝑌/X(𝑥, 𝑦) = 𝑓𝑋,𝑌(𝑥, 𝑦) / 𝑓𝑋(𝑥) avec 𝒇𝑿 (𝒙) = ∫−∞ +∞ 𝒇𝑿,𝒀 (𝒙, 𝒚) 𝒅𝒚
29
Deux variables X et Y sont indépendantes si et seulement si :
𝑭𝑿,𝒀 (𝒙, 𝒚) = 𝑭𝑿(𝒙)*𝑭𝒀 (𝒚)
30
Si X et Y sont indépendantes, alors :
𝑭𝒀|𝑿 (𝒚|𝒙) = 𝑭𝒀(𝒚) • 𝒇𝑿,𝒀 (𝒙, 𝒚) = 𝒇𝑿(𝒙) 𝒇𝒀 (𝒚) et donc 𝒇𝒀|𝑿 𝒚|𝒙 = 𝒇𝒀(𝒚) • Cov(X,Y)=0 (mais réciproque fausse)
31
L’espérance conditionnelle de Y|X est :
𝑬 (𝒀/𝑿 = 𝒙) = ∫−∞ +∞ 𝒚𝒇𝒀|𝑿 (𝒚,𝒙) 𝒅𝒚
32
Propriétés de l'indépendance :
• pour toute fonction c(X) : 𝐸(𝑐 (𝑋) / 𝑋 )= 𝑐(𝑋) • pour toute fonction a(X) et b(X) : 𝐸 ((𝑎 𝑋)𝑌 + 𝑏(𝑋)𝑋I𝑋) = 𝑎 (𝑋) 𝐸 (𝑌I𝑋) + 𝑏(𝑋) • Si X et Y sont indépendantes, alors E(Y | X) = E(Y) • Si X et Y sont indépendantes et E(Y)=0, alors E(Y | X) = 0 • Loi des espérances itérées: 𝐸 (E 𝑌I𝑋) = 𝐸(𝑌) et 𝐸 (𝐸 (𝑌I𝑋, 𝑍) |𝑍 =E(Y|Z)
33
La variance conditionnelle de Y sachant X = x est :
𝑉( 𝑌I𝑋 = 𝑥 )= 𝐸( (𝑌 − 𝐸(𝑌|𝑋 = 𝑥) )2* |𝑋 = 𝑥)
34
Un échantillon est un échantillon aléatoire si
les observations sont tirées d’une même loi et indépendantes entre elles. → Échantillon indépendamment et identiquement distribué (iid) : Moments empiriques
35
Une statistique est ...
une fonction calculée à partir des données d’un échantillon. Différents échantillons ⇒ différentes valeurs de la statistique ⇒ une statistique est une v.a. Sa distribution : distribution d’échantillonnage
36
Un estimateur est : Sans biais si
un estimateur ̂ 𝜃 d’un paramètre θ est | « sans biais » si : 𝐸( ̂ 𝜃) = 𝜃
37
Un estimateur est : efficace :
un estimateur sans biais ̂ 𝜃1 d’un paramètre θ est plus efficace qu’un autre estimateur sans biais ̂ 𝜃2 si : 𝑉( ̂𝜃1) < 𝑉( ̂𝜃2)
38
l’Erreur Quadratique Moyenne (EQM) :
En présence d’un biais, on utilise le critère EQM la plus faible possible
39
modèle de régression linéaire simple : principe :
On postule une relation entre une variable y et une variable x. Forme de la relation la plus simple → linéaire : y= xβ1 +β0 + ε Confrontation des données observées à la relation ⇒ relation non exacte.
40
ε :
terme d’erreur, non observable (error term, or disturbance) → v.a. capturant tous les facteurs autres que x, ayant un effet sur y Une 1ère hypothèse sur ε : E(ε) = 0 → pour identification de la constante β Hypothèse cruciale sur le lien entre x et ε, pour une interprétation « ceteris paribus »: 𝑬 (𝜺I𝒙) = 𝟎 - E (yIx) = xβ1 + β0
41
β1 = élasticité de Q par rapport à L. Si xi et yi sont des logarithmes de 2 variables :
β1 = élasticité de Q par rapport à L. Une variation de 1% de L entraîne, en moyenne, toutes choses égales par ailleurs, une variation de β1 % de Q
42
Les estimateurs par moindres carrés ordinaires (MCO) (Ordinary Least Squares (OLS) estimators) de β0 et β1 :
- ^𝜷𝟏 = COV emp (x,y) / Vemp (x) | - 𝜷𝟎 = moy 𝒚𝒏 − ^𝜷𝟏*moy𝒙𝒏
43
Décomposition de la variance empirique :
Comme E( ^𝜺) = 0 on a moy emp de y = moy emp de l'estimat y
44
la variance totale de y se décompose en :
la variance des résidus et la variance expliquée.
45
On écrit souvent cette décomposition de la façon équivalente suivante:
SCT = SCR + SCE
46
Mesure de la qualité d’ajustement (goodness-of-fit) :
1 = SCR / SCT + SCE + SCT
47
Coefficient de détermination :
R2* = SCE/SCT = Semp de y 2* / S de y 2* → fraction de la variation de y dans l’échantillon expliquée par x : entre 0 et 1: très facile indique que variables pas bonne relation
48
Changement d’unité des variables : Variable explicative :
𝑥𝑖 → 𝜆𝑥𝑖 = 𝑥𝑖 * Régression de y sur x* : impact sur les coefficients estimés ̂ 𝛽0 et ̂ 𝛽1 de la régression de y sur x? Modèle : 𝑦𝑖 = 𝛽0∗ + 𝛽1∗𝑥𝑖∗ + 𝜀𝑖 ^𝜷𝟏∗ = Cov emp (x*,y) / Vemp (x*) = 𝜆 Cov emp (x,y) / 𝜆2* Vemp (x) = 1/𝜆 * ^𝜷𝟏 ^𝜷0∗= ^𝜷𝟎
49
Propriétés statistiques de l’estimateur par MCO :
H1 : (𝑥𝑖, 𝑦𝑖)𝑖=1,...,𝑛 : échantillon iid • H2 : 𝛽0, 𝛽1 : nombres réels, paramètres du modèle linéaire : 𝑦𝑖 = 𝛽0 + 𝛽1𝑥𝑖 + 𝜀𝑖 → modèle valable pour la population dans laquelle on a tiré l’échantillon • H3 : 𝐸( 𝜀𝑖 I𝑥) = 0 • H4 : 𝑉(𝑥𝑖)> 0 . H5 : 𝑽 (𝜺𝒊I𝒙) = 𝝈𝟐*, ∀𝒊 = 𝟏, ⋯ , 𝒏 ↔ homoscédasticité
50
sous H1-H4, les estimateurs par MCO sont :
sans biais
51
Estimateur naturel :
variance empirique des résidus : 1 / 𝑛−1 * ∑𝑖=1 𝑛 ̂ 𝜀𝑖2*