OLS Flashcards

1
Q

¿Cuáles son los supuestos de OLS?

A

1) El modelo es lineal en el parámetro.
2) La variable independiente es exógena (supuesto de identificación):
– E(εi | Xi) = 0 → E(Xi’ εi) = 0
El primero es condición suficiente del segundo y el segundo es condición necesaria del primero. Entonces, el que tiene un supuesto más fuerte es el primero, por eso solo vamos a usar el segundo término.
3) Homocedasticidad: que la varianza del error es conocida y constante.
4) El término de error es independiente entre individuos.

Bajo estos supuestos tenemos:
→ Y = Nx1
→ X = Nx1
→ β = Kx1
→ ε = Nx1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

¿Cómo funciona OLS? Diferenciar residuos con errores.

A

OLS hace una serie de pasos:
1) Agarra los distintos valores de las variables (asumamos X1, X2 e Y) que se realizaron (observaciones).
2) Crea un subespacio entre X1 y X2 (sería un plano si son dos variables) y sitúa a Y en otra dimensión.
3) Agarra el vector de Y y baja de manera recta al subespacio para llegar de la forma más directa posible. Esto hace que, por construcción, los residuos (que es la recta que une Y con el subespacio de las X) sean ortogonales a los regresores. Esto se cumple siempre y es la manera que tiene el modelo de minimizar la suma de los residuos al cuadrado.
4) El punto exacto donde cae esa recta en el subespacio es Y_hat, una combinación lineal específica entre X1 y X2. Eso resultan ser los Beta (B1 sería el valor de X1 y B2 sería el valor de X2 que te llevan a Y_hat en el subespacio que minimiza los residuos al cuadrado del modelo, la forma más directa de conectarse con Y).

Esto es MUY distinto de que los errores sean ortogonales a los regresores. La ortogonalidad entre el residuo y el regresor ocurre SIEMPRE por construcción de OLS pero la ortogonalidad de los errores con el regresor es nuestro supuesto de identificación.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

¿Cómo son los coeficientes de OLS? ¿Y sus propiedades? Ecuación.

A

β_hat_ols = (X’ X)^(-1) X’ Y
β_hat_ols = β + (X’ X)^(-1) X’ ε.

La última parte sería el supuesto de identificación que haría que el beta estimado sea igual a su verdadero valor. La primera parte sería data.
El estimador por OLS es consistente (asintóticamente insesgado), insesgado y el de mínima varianza, bajo los supuestos correspondientes. La primera parte de la ecuación de beta, la que es data, es parte de la varianza del estimador. Si ese término es muy pequeño es como estar “dividendo” por un número muy chico. En el límite, cuando eso tiende a cero (que sería multicolinealidad perfecta), la varianza tiende a infinito, no existe una solución para el estimador.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Ley de Expectativas Iteradas. Explicar.

A

Ex[E(Z|X)] = E(Z).
La usamos para asumir que el estimador OLS es insesgado.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Ley de los Grandes Números. Explicar.

A

Lo que dice es que a medida que se agranda el tamaño de la muestra, la media muestral se acerca a la media poblacional.
plim(X_raya) = µ, donde X_raya sería la media muestral y µ sería la media poblacional. La probabilidad límite funciona con el concepto de que n→ ∞.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Teorema Central del Límite. Explicar.

A

Esto nos salva de tener que hacer supuestos sobre la distribución de las variables (y por lo tanto, del término de error).
Si tenemos una variable aleatoria con una media poblacional (µ), una media muestral (X_raya) y una varianza (sigma^2), entonces podemos conocer la distribución asintótica de los estimadores sin suponer nada sobre el término de error.
Sabemos que: (raíz de n)*(X_raya - µ) →d a una N(0;sigma^2)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Teorema de Slutsky. Explicar.

A

Básicamente son varios conceptos sobre probabilidad límite y distribuciones. Los más importantes:
→ Plim de la suma de dos VA es la suma de las plim de cada una.
→ Lo mismo para el producto (que es la diferencia con la esperanza).
→ Si yo conozco a lo que tiende en probabilidad (Xn) una variable (X) y conozco a lo que tiende en distribución (Yn) otra (Y), yo se que X/Y tenderá en distribución a (Xn/Yn).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

¿En qué influye el método de momentos en OLS?

A

Básicamente, el método de momentos es lo que te lleva desde el supuesto de identificación de OLS (exogeneidad) hasta la estimación que conocemos de Beta, insesgada, consistente y eficiente.
Para repasar cómo, mirar página 22 de los apuntes.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly