Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Econometría I- EAE250A: Repaso Burcu Eke 16/10/2014 Modelo Regresión Lineal Múltiple I Modelo múltiple: y=β0 + β1xi1 + . . . + βkxik + εi (1) I En la forma matricial: y ∼ = Xβ ∼ + ε ∼ 2 MRL Múltiple I Supuestos : 1. S1: Linealidad en los parámetros (β’s) 2. S2: Muestra Aleatoria 3. S3: Condición de identificación I Ausencia de multicolinealidad exacta permite la identificación de los parámetros 3 Modelo Regresión Lineal Múltiple 4. S4: Ortogonalidad E [ ε ∼ |X ] = 0 5. S5: Homoscedasticidad V ( ε ∼ |X ) = σ2I La varianza de ε dado X es constante 6. (S6: Normalidad) ε ∼ |X ∼ N ( 0, σ2I ) ⇒ y ∼ |X ∼ N ( Xβ ∼ , σ2I ) 4 Estimación por Mínimos Cuadrados Ordinarios (MCO) I MCO es un estimador que minimiza la suma de los cuadrados de los residuos. I Para cada observación i de la muestra, se tiene la ecuación: y=β0 + β1xi1 + . . . + βkxik + εi (2) MCO encuentra los β’s que minimizan: min β̂ n ∑ i=1 ε2i ⇔ min β̂ ε ∼ ′ ε ∼ 5 Propiedades del estimador MCO 1. Ortogonalidad Ecuaciones normales: X′Xβ̂ ∼ = X′y ∼ ⇒ X′ ε̂ ∼ = 0 2. Linealidad β̂ ∼ son lineales en las observaciones de y 6 Propiedades del estimador MCO (cont.) 3. Insesgadez: Bajos los supuestos 1 a 4, E[β̂j] = βj 4. Eficiencia Teorema de Gauss-Markov: Bajo los supuestos 1 a 5, el estimador de MCO de β ∼ es de menor varianza entre los estimadores lineales insesgados de β ∼ 5. Consistencia plim ( β̂ ∼ ) = β ∼ o lim n→∞ P ( |β̂ ∼ − β ∼ | < ε ) = 1 ∀ ε > 0 6. Normalidad asintótica Normalidad asintótica del estimador MCO: √ n ( β̂ ∼ − β ∼ ) a→ N ( 0, σ2Q−1 ) 7 Bondad de Ajuste I R2 se define: R2 = SSE SST = 1− SSR SST I R2 es válido como medida de la fracción de la varianza explicada cuando hay constante en la regresión. I 0 ≥ R2 ≥ 1 I El R2 aumenta siempre de valor al aumentar de número de regresores, sean éstos relevantes o no I Para eliminar este problema, se define el R̄2, también llamado R2 ajustado R̄2 = 1− [ (1− R2) n− 1 n− k− 1 ] I En cualquier caso, para tamaños muestrales grandes R2 ' R̄2 8 Test de Hipótesis 1. Test de hipótesis sobre un parámetro 2. Test de hipótesis sobre un conjunto de parámetros 3. Modelo restringido 9 Test con un conjunto de parámetros: Una restricción lineal I Considere el modelo y = β0 + β1x1 + β2x2 + β3x3 + β4x4 + ε H0 : β1 = β2 ⇒ t = β̂1 − β̂2 se ( β̂1 − β̂2 ) H0 : β3 + β4 = 1 ⇒ t = β̂3 + β̂4 − 1 se ( β̂3 + β̂4 ) 10 Varias Restricciones Lineales I Se define: Modelo Modelo no restringido restringido Coeficiente de determinación: R2nr R2r Suma de cuadrados de los residuos: SSRnr SSRr I Se define q =el número de las restricciones lineales en H0 11 Varias Restricciones Lineales I Bajo H0; F = (SSRr − SSRnr) /q SSRnr/(n− k− 1) ∼ Fq,n−k−1 I Equivalentemente; F = ( R2nr − R2r ) /q (1− R2nr) /(n− k− 1) ∼ Fq,n−k−1 I Nota que (SSRr − SSRnr) /q SSRnr/(n− k− 1) = ( R2nr − R2r ) /q (1− R2nr) /(n− k− 1) 12 La Forma Funcional I Modelos logarítmicos I Modelos con funciones cuadráticos I Modelos con términos de interacción 13 Predicción I Necesitamos intervalos de confianza para predicciones I Por eso, hay que calcular la varianza de θ̂0 I Considere el modelo de la población: y = β0 + β1x1 + . . . + βkxk + ε Fijate que β0 = θ0 − β1c1 − . . .− βkck Entonces: y0 = θ0 + β1(x1 − c1) + β2(x2 − c2) + . . . + βk(xk − ck) + ε I Entonces el error de predicción es ê0 = y0 − ŷ0 = β0 + β1c1 + β2c2 + . . . + βkck + ε− ŷ0 Var(ê0|X) = Var(ŷ0|X) + σ2 Var(ŷ0|X) = cVar(β̂ ∼ |X)c′ 14 Variables Binarias I Considere el modelo siguiente: ingresoi = β0 + β1mujeri + β2edui + εi (3) I Si la persona i es una mujer: ingresoi = (β0 + β1) + β2edui + εi I Si la persona i es un hombre: ingresoi = β0 + β2edui + εI 15 Variables Binarias I Dado los supuestos, en el modelo (1); E[ingreso|mujer = 1, edu] = β0 + β1 + β2edu E[ingreso|mujer = 0, edu] = β0 + β2edu I Entonces: E[ingreso|mujer = 1, edu]− E[ingreso|mujer = 0, edu] = β1 16 Variables Binarias I Ahora, considere el modelo siguiente: ingresoi = α0 + α1hombrei + α2edui + εi (4) I Si la persona i es una mujer: ingresoi = α0 + α2edui + εi I Si la persona i es un hombre: ingresoi = (α0 + α1) + α2edui + εi 17 Variables Binarias I Dado los supuestos, en el modelo (2); E[ingreso|hombre = 1, edu] = α0 + α1 + α2edu E[ingreso|hombre = 0, edu] = α0 + α2edu I Entonces: E[ingreso|hombre = 1, edu]− E[ingreso|hombre = 0, edu] = α1 18 Omisión de Variables Pertinentes I Considere los modelos siguientes: y = β0 + β1x1 + β2x2 + ε1 (5) y = α0 + α1x1 + ε2 (6) I El modelo (2) se ha omitado la variable x2 I Variable relevante/pertinente⇒ β2 6= 0 I Recuerden: α1 = β1 + β2 Cov(x1, x2) Var(x1)︸ ︷︷ ︸ δ1 x1 = δ0 + δ1x2 + u 19 Omisión de Variables Pertinentes I En los modelos (1) y (2) ε2 = β2x2 + ε1 I Dado esto, E[ε2|x1] = E [β2x2 + ε1|x1] = β2E[x2|x1] + E[ε1|x1] I ¿E[ε2|x1] = 0? y ¿E[ε1|x1, x2] = 0? 20 Omisión de Variables Pertinentes I En general, si en un modelo y = β0 + β1x2 + . . . + βkxk + ε tenemos E[ε|x1, . . . , xk] 6= 0, se puede decir este modelo es “mal especificado” or inconsistente (y sesgado) de β1 I La “omisión de variables pertinentes” genera inconsistencia (y sesgos) en la estimación de los efectos de las variables. 21 Inclusión de Variables Irrelevantes I Considere el modelo siguiente: y = β0 + β1x1 + β2x2 + ε I La variable x2 es irrelevante si β2 = 0 I El modelo “correcto” es y = α0 + α1x1 + ε1 22 Inclusión de Variables Irrelevantes (cont.) I Entonces, ε = ε1 − β2X2 = ε1 (dado que β2 = 0 en el modelo correcto) I Es decir: E[ε|X1, X2] = E [ε1 − β2X2|X1, X2] = E [ε1|X1] I Entonces, E[β̂1] = α1 I E[β̂1] es un estimador consistente e insesgado de α1 I Pero V(β̂1) ≥ V(α̂1) 23 Error en la Variable Dependiente I Sea y∗ la variable que se desea explicar I Considere el modelo siguiente que cumple los supuestos de MRL: y∗ = β0 + β1x1 + . . . + βkxk + ε I Sea y la medición observable de y∗ Por ejemplo, y∗ puede ser l ahorro familiar anual e y es ahorro anual reportado I El error de medición (nivel poblacional) es: e0 = y− y∗ 24 Error en la Variable Dependiente (cont.) I Entonces: y = β0 + β1x1 + . . . + βkxk + ε + e0︸ ︷︷ ︸ error I ¿Cuándo produce MCO con y en lugar de y∗ estimadores consistentes de las βj’s? Recuerdan que: E[ε|X] = 0 y Var(ε|X) = σ2ε 25 Error en la Variable Dependiente (cont.) I Si E[e0] = 0, entonces, el estimador MCO β̂0 es insesgado I Si Cov(e0, xj) = 0, entonces, los estimadores de MCO β̂j son insesgados I Nota que Var(ε + e0) = σ2ε + σ2e0 > σ 2 ε ¿Qué significa esta relación? 26 Error en la Variable Independiente I Un error de medición en una variable explicativa es un problema mucho más importante que un error de medición en una variable dependiente I Considere el modelo siguiente que cumple los supuestos de MRL: y = β0 + β1x∗1 + ε donde x∗1 es el valor correcta (puede ser no observada como el ingreso real) I Sea x el valor observada (pueder ser el ingreso reportado) I e1 = x1 − x∗1 27 Error en la Variable Independiente (cont.) I Entonces el modelo estimado es: y = β0 + β1x1 + (ε− β1e1) I Supuestos: 1. E[e1] = 0 2. Cov(e1, x∗1) = 0 I Pero, dado Cov(e1, x∗1) = 0 Cov(e1, x1) = Var(e1) = σ2e1 I También: Cov((ε− β1e1), x1) = −β1σ2e1 28 Error en la Variable Independiente (cont.) I Dado la covarianza, los estimadoes MCO son sesgados I En relación con consistencia: plim(β̂1) = β1 + Cov (x1, ε− β1e1) Var(x1) = β1 − β1σ 2 e1 σ2x∗1 + σ2e1 = β1 ( σ2x∗1 σ2x∗1 + σ2e1 ) 29 Multicolinealidad I Multicolinalidad⇒ Hay una relación lineal (casi perfecta) entre las 2 variables independientes Cor(x1, x2) < 1, pero cerca de 1/ I El Supuesto es “no hay multicolinealidad exacta”. Es decir. Podemos estimar el modelo Los estimadores son BLUE (mejor estimadores lineales y insesgados) Las varianzas son correctos 30 Multicolinealidad I Aunque los errores estándar son técnicamente “correcto” van a ser muy, muy grande. I La intuiciónes, de nuevo, que las variables independientes no están dando mucha información adicional en el modelo y no podemos distinguir los efectos de x1 y x2 31 Multicolinealidad I El problema de multicolinealidad: 1. Es un problema muestral I Es decir, es un problema de la muestra que usamos, probablemente no hay multicolinelaidad en nivel poblacional (especialmente si el modelo teoratico es correcta) 2. Es una cuestión de grado. I Siempre hay un nivel de covariación entre las variables. LAs preguntas son cuánto, y si es o no es importa. I Recuerden: Mientras multicolinealidad exacta causa problemas estadísticos, este no es el caso de multicolinealidad casi-exacta. 32
Compartir