Logo Studenta

Clase18

¡Este material tiene más páginas!

Vista previa del material en texto

Econometría I- EAE250A:
Repaso
Burcu Eke
16/10/2014
Modelo Regresión Lineal Múltiple
I Modelo múltiple:
y=β0 + β1xi1 + . . . + βkxik + εi (1)
I En la forma matricial: y
∼
= Xβ
∼
+ ε
∼
2
MRL Múltiple
I Supuestos :
1. S1: Linealidad en los parámetros (β’s)
2. S2: Muestra Aleatoria
3. S3: Condición de identificación
I Ausencia de multicolinealidad exacta permite la
identificación de los parámetros
3
Modelo Regresión Lineal Múltiple
4. S4: Ortogonalidad
E
[
ε
∼
|X
]
= 0
5. S5: Homoscedasticidad
V
(
ε
∼
|X
)
= σ2I
La varianza de ε dado X es constante
6. (S6: Normalidad)
ε
∼
|X ∼ N
(
0, σ2I
)
⇒ y
∼
|X ∼ N
(
Xβ
∼
, σ2I
)
4
Estimación por Mínimos Cuadrados
Ordinarios (MCO)
I MCO es un estimador que minimiza la suma de los
cuadrados de los residuos.
I Para cada observación i de la muestra, se tiene la ecuación:
y=β0 + β1xi1 + . . . + βkxik + εi (2)
MCO encuentra los β’s que minimizan:
min
β̂
n
∑
i=1
ε2i ⇔ min
β̂
ε
∼
′ ε
∼
5
Propiedades del estimador MCO
1. Ortogonalidad
Ecuaciones normales:
X′Xβ̂
∼
= X′y
∼
⇒ X′ ε̂
∼
= 0
2. Linealidad
β̂
∼
son lineales en las observaciones de y
6
Propiedades del estimador MCO (cont.)
3. Insesgadez: Bajos los supuestos 1 a 4, E[β̂j] = βj
4. Eficiencia
Teorema de Gauss-Markov: Bajo los supuestos 1 a 5, el
estimador de MCO de β
∼
es de menor varianza entre los
estimadores lineales insesgados de β
∼
5. Consistencia
plim
(
β̂
∼
)
= β
∼
o lim
n→∞
P
(
|β̂
∼
− β
∼
| < ε
)
= 1 ∀ ε > 0
6. Normalidad asintótica
Normalidad asintótica del estimador MCO:
√
n
(
β̂
∼
− β
∼
)
a→ N
(
0, σ2Q−1
)
7
Bondad de Ajuste
I R2 se define:
R2 =
SSE
SST
= 1− SSR
SST
I R2 es válido como medida de la fracción de la varianza
explicada cuando hay constante en la regresión.
I 0 ≥ R2 ≥ 1
I El R2 aumenta siempre de valor al aumentar de número de
regresores, sean éstos relevantes o no
I Para eliminar este problema, se define el R̄2, también
llamado R2 ajustado
R̄2 = 1−
[
(1− R2) n− 1
n− k− 1
]
I En cualquier caso, para tamaños muestrales grandes
R2 ' R̄2
8
Test de Hipótesis
1. Test de hipótesis sobre un parámetro
2. Test de hipótesis sobre un conjunto de parámetros
3. Modelo restringido
9
Test con un conjunto de parámetros: Una
restricción lineal
I Considere el modelo
y = β0 + β1x1 + β2x2 + β3x3 + β4x4 + ε
H0 : β1 = β2 ⇒ t =
β̂1 − β̂2
se
(
β̂1 − β̂2
)
H0 : β3 + β4 = 1 ⇒ t =
β̂3 + β̂4 − 1
se
(
β̂3 + β̂4
)
10
Varias Restricciones Lineales
I Se define:
Modelo Modelo
no restringido restringido
Coeficiente de
determinación: R2nr R2r
Suma de cuadrados
de los residuos: SSRnr SSRr
I Se define q =el número de las restricciones lineales en H0
11
Varias Restricciones Lineales
I Bajo H0;
F =
(SSRr − SSRnr) /q
SSRnr/(n− k− 1)
∼ Fq,n−k−1
I Equivalentemente;
F =
(
R2nr − R2r
)
/q
(1− R2nr) /(n− k− 1)
∼ Fq,n−k−1
I Nota que
(SSRr − SSRnr) /q
SSRnr/(n− k− 1)
=
(
R2nr − R2r
)
/q
(1− R2nr) /(n− k− 1)
12
La Forma Funcional
I Modelos logarítmicos
I Modelos con funciones cuadráticos
I Modelos con términos de interacción
13
Predicción
I Necesitamos intervalos de confianza para predicciones
I Por eso, hay que calcular la varianza de θ̂0
I Considere el modelo de la población:
y = β0 + β1x1 + . . . + βkxk + ε
Fijate que β0 = θ0 − β1c1 − . . .− βkck
Entonces:
y0 = θ0 + β1(x1 − c1) + β2(x2 − c2) + . . . + βk(xk − ck) + ε
I Entonces el error de predicción es
ê0 = y0 − ŷ0 = β0 + β1c1 + β2c2 + . . . + βkck + ε− ŷ0
Var(ê0|X) = Var(ŷ0|X) + σ2
Var(ŷ0|X) = cVar(β̂
∼
|X)c′
14
Variables Binarias
I Considere el modelo siguiente:
ingresoi = β0 + β1mujeri + β2edui + εi (3)
I Si la persona i es una mujer:
ingresoi = (β0 + β1) + β2edui + εi
I Si la persona i es un hombre:
ingresoi = β0 + β2edui + εI
15
Variables Binarias
I Dado los supuestos, en el modelo (1);
E[ingreso|mujer = 1, edu] = β0 + β1 + β2edu
E[ingreso|mujer = 0, edu] = β0 + β2edu
I Entonces:
E[ingreso|mujer = 1, edu]− E[ingreso|mujer = 0, edu] = β1
16
Variables Binarias
I Ahora, considere el modelo siguiente:
ingresoi = α0 + α1hombrei + α2edui + εi (4)
I Si la persona i es una mujer:
ingresoi = α0 + α2edui + εi
I Si la persona i es un hombre:
ingresoi = (α0 + α1) + α2edui + εi
17
Variables Binarias
I Dado los supuestos, en el modelo (2);
E[ingreso|hombre = 1, edu] = α0 + α1 + α2edu
E[ingreso|hombre = 0, edu] = α0 + α2edu
I Entonces:
E[ingreso|hombre = 1, edu]− E[ingreso|hombre = 0, edu] = α1
18
Omisión de Variables Pertinentes
I Considere los modelos siguientes:
y = β0 + β1x1 + β2x2 + ε1 (5)
y = α0 + α1x1 + ε2 (6)
I El modelo (2) se ha omitado la variable x2
I Variable relevante/pertinente⇒ β2 6= 0
I Recuerden:
α1 = β1 + β2
Cov(x1, x2)
Var(x1)︸ ︷︷ ︸
δ1
x1 = δ0 + δ1x2 + u
19
Omisión de Variables Pertinentes
I En los modelos (1) y (2)
ε2 = β2x2 + ε1
I Dado esto,
E[ε2|x1] = E [β2x2 + ε1|x1]
= β2E[x2|x1] + E[ε1|x1]
I ¿E[ε2|x1] = 0? y ¿E[ε1|x1, x2] = 0?
20
Omisión de Variables Pertinentes
I En general, si en un modelo
y = β0 + β1x2 + . . . + βkxk + ε
tenemos E[ε|x1, . . . , xk] 6= 0, se puede decir este modelo es
“mal especificado” or inconsistente (y sesgado) de β1
I La “omisión de variables pertinentes” genera
inconsistencia (y sesgos) en la estimación de los efectos de
las variables.
21
Inclusión de Variables Irrelevantes
I Considere el modelo siguiente:
y = β0 + β1x1 + β2x2 + ε
I La variable x2 es irrelevante si β2 = 0
I El modelo “correcto” es
y = α0 + α1x1 + ε1
22
Inclusión de Variables Irrelevantes (cont.)
I Entonces, ε = ε1 − β2X2 = ε1 (dado que β2 = 0 en el
modelo correcto)
I Es decir:
E[ε|X1, X2] = E [ε1 − β2X2|X1, X2]
= E [ε1|X1]
I Entonces, E[β̂1] = α1
I E[β̂1] es un estimador consistente e insesgado de α1
I Pero V(β̂1) ≥ V(α̂1)
23
Error en la Variable Dependiente
I Sea y∗ la variable que se desea explicar
I Considere el modelo siguiente que cumple los supuestos
de MRL:
y∗ = β0 + β1x1 + . . . + βkxk + ε
I Sea y la medición observable de y∗
Por ejemplo, y∗ puede ser l ahorro familiar anual e y es
ahorro anual reportado
I El error de medición (nivel poblacional) es:
e0 = y− y∗
24
Error en la Variable Dependiente (cont.)
I Entonces:
y = β0 + β1x1 + . . . + βkxk + ε + e0︸ ︷︷ ︸
error
I ¿Cuándo produce MCO con y en lugar de y∗ estimadores
consistentes de las βj’s?
Recuerdan que: E[ε|X] = 0 y Var(ε|X) = σ2ε
25
Error en la Variable Dependiente (cont.)
I Si E[e0] = 0, entonces, el estimador MCO β̂0 es insesgado
I Si Cov(e0, xj) = 0, entonces, los estimadores de MCO β̂j son
insesgados
I Nota que Var(ε + e0) = σ2ε + σ2e0 > σ
2
ε
¿Qué significa esta relación?
26
Error en la Variable Independiente
I Un error de medición en una variable explicativa es un
problema mucho más importante que un error de
medición en una variable dependiente
I Considere el modelo siguiente que cumple los supuestos
de MRL:
y = β0 + β1x∗1 + ε
donde x∗1 es el valor correcta (puede ser no observada
como el ingreso real)
I Sea x el valor observada (pueder ser el ingreso reportado)
I e1 = x1 − x∗1
27
Error en la Variable Independiente (cont.)
I Entonces el modelo estimado es:
y = β0 + β1x1 + (ε− β1e1)
I Supuestos:
1. E[e1] = 0
2. Cov(e1, x∗1) = 0
I Pero, dado Cov(e1, x∗1) = 0
Cov(e1, x1) = Var(e1) = σ2e1
I También:
Cov((ε− β1e1), x1) = −β1σ2e1
28
Error en la Variable Independiente (cont.)
I Dado la covarianza, los estimadoes MCO son sesgados
I En relación con consistencia:
plim(β̂1) = β1 +
Cov (x1, ε− β1e1)
Var(x1)
= β1 −
β1σ
2
e1
σ2x∗1
+ σ2e1
= β1
(
σ2x∗1
σ2x∗1
+ σ2e1
)
29
Multicolinealidad
I Multicolinalidad⇒ Hay una relación lineal (casi perfecta)
entre las 2 variables independientes
Cor(x1, x2) < 1, pero cerca de 1/
I El Supuesto es “no hay multicolinealidad exacta”. Es decir.
Podemos estimar el modelo
Los estimadores son BLUE (mejor estimadores lineales y
insesgados)
Las varianzas son correctos
30
Multicolinealidad
I Aunque los errores estándar son técnicamente “correcto”
van a ser muy, muy grande.
I La intuiciónes, de nuevo, que las variables independientes
no están dando mucha información adicional en el modelo
y no podemos distinguir los efectos de x1 y x2
31
Multicolinealidad
I El problema de multicolinealidad:
1. Es un problema muestral
I Es decir, es un problema de la muestra que usamos,
probablemente no hay multicolinelaidad en nivel
poblacional (especialmente si el modelo teoratico es correcta)
2. Es una cuestión de grado.
I Siempre hay un nivel de covariación entre las variables. LAs
preguntas son cuánto, y si es o no es importa.
I Recuerden: Mientras multicolinealidad exacta causa
problemas estadísticos, este no es el caso de
multicolinealidad casi-exacta.
32

Continuar navegando

Materiales relacionados

3 pag.
17 pag.
Clase11 - Zaida Moreno Páez

User badge image

Desafio PASSEI DIRETO