Vista previa del material en texto
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Clase 12 Econometŕıa Tomás Rau 25 de septiembre Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Contenidos Estimación MV Test de Wald (W) Test de Razón de Verosimilitud (LR) Test del Multiplicador de Lagrange (LM) Algunas consideraciones respecto a la estimación y la inferencia MV Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Los 3 tests Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test de Wald (W) Test de Wald Se basa en evaluar la hipótesis nula en los coeficientes estimados y evaluar cuán cercano es el resultado comparado a lo propuesto por la nula. Una de las ventajas del test de Wald es que sólo necesita de la estimación no restringida. Siguiendo la misma lógica de la demostración del test F, si: β̂ a∼ (β, I (β)−1) (1) entonces, bajo la hipótesis nula: (Rβ̂ − r) a∼ (0,RI (β)−1R ′) (2) entonces, se puede demostrar que: (Rβ̂ − r)′[RI (β)−1R ′]−1(Rβ̂ − r) a∼ χ2q (3) Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test de Wald (W) Test de Wald donde q es el número de filas de R y por lo tanto, el número de restricciones. Luego, como los estimadores MV distribuyen asintóticamente normales, entonces la matriz de información expuesta es válida en muestras grandes, tenemos que el estad́ıstico de Wald se define como: W = (Rβ̂ − r)′[R(X ′X )−1R ′]−1(Rβ̂ − r) σ̂2 a∼ χ2q (4) Nota: el test era válido asintóticamente, donde hemos utilizado el hecho que en una F, cuando el los grados de libertad del den son grandes, converge a una χ2. Es “como si”σ2 fuese conocido. Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test de Razón de Verosimilitud (LR) Test de Razón de Verosimilitud (LR) El valor de la función de verosimilitud, L(β̂, σ̂2), corresponde al valor de la verosimilitud irrestricta, es decir, sin imponer ninguna restricción sobre los parámetros del modelo. Suponiendo entonces que nuestro interés se centra en una serie de restricciones lineales del tipo Rβ = r , entonces el modelo original es estimable en su versión restringida, al maximizar la función de verosimilitud sujeta a Rβ = r , cuyo resultado son los estimadores β̃ y σ̃2. Luego L(β̃, σ̃2) corresponde al valor de la verosimilitud restringida. Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test de Razón de Verosimilitud (LR) Test de Razón de Verosimilitud (LR) El valor de la verosimilitud restringida no puede ser superior al de la no restringida, sin embargo, podŕıa esperarse que si las restricciones impuestas son correctas, el valor de la primera esté cerca del de la segunda. Entonces, definimos la razón de verosimilitud (λ) como: λ = L(β̃, σ̃2) L(β̂, σ̂2) El test LR se define entonces como: LR = −2 lnλ = 2[ln L(β̂, σ̂2) − ln L(β̃, σ̃2)] ∼a χ2(q) (5) donde q corresponde al número de restricciones impuestas (es decir, el número de filas de R). Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test de Razón de Verosimilitud (LR) Test de Razón de Verosimilitud (LR) En el caso que los errores distribuyan normal, es posible derivar una versión alternativa del estad́ıgrafo utilizando los residuos. Reemplazando β̂MV y σ̂2MV en l es posible demostrar: LR = n(ln û′R ûR − ln û′NR ûNR) (6) donde ûNR son los residuos del modelo irrestricto y ûR los del modelo restringido. Es un buen ejercicio... Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test del Multiplicador de Lagrange (LM) Test de Multiplicador de Lagrange (LM) Un tercer test corresponde al test LM, el cual también es conocido como el test del Score. Recordemos que el Score corresponde a la matriz de primeras derivadas de la función de Verosimilitud: s(θ) = ∂ ln L ∂θ = ∂l ∂θ Como vimos en la introducción, s(θ̂) = 0, por lo cual, al evaluar el score en el estimador restringido bajo la nula Rβ − r = 0 (β̃), generalmente obtendremos un vector diferente de cero, sin embargo, si la nula no se puede rechazar, esperaŕıamos obtener un vector cercano a cero. Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test del Multiplicador de Lagrange (LM) Test de Multiplicador de Lagrange (LM) Se puede demostrar que el score posee media cero y varianza igual a la matriz de información (I (θ)). Por lo tanto, tenemos que la forma cuadrática: s ′(θ)I (θ)−1s(θ) a∼ χ2 con lo cual, al evaluar en el vector de parámetros restringido tenemos que bajo la nula, el test LM se define y distribuye como: LM = s ′(θ̃)I (θ̃)−1s(θ̃) ∼a χ2q (7) Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test del Multiplicador de Lagrange (LM) Test de Multiplicador de Lagrange (LM) Note que contraposición al test de Wald, sólo necesitamos calcular el estimador restringido. De hecho, su popularidad reside en que muchas veces es más fácil calcular el estimador restringido que el irrestricto. Dada la normalidad asintótica de los estimadores MV, podemos reducir el estad́ıgrafo a una forma mucho más simple. Para ver lo anterior, considere una notación matricial del score: s(θ) = [ ∂l ∂β ∂l ∂σ2 ] = [ 1 σ2 X ′u − n 2σ2 + u ′u 2σ4 ] Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test del Multiplicador de Lagrange (LM) Test de Multiplicador de Lagrange (LM) entonces, para evaluar el score en la estimación restringida, utilizamos los residuos restringidos, los cuales denotaremos por: u∗ = Y − X β̃ y por lo tanto: σ̂2∗ = u′∗u∗ n con lo cual: s(θ̃) = [ 1 σ̂2∗ X ′u∗ 0 ] (8) Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test del Multiplicador de Lagrange (LM) Test de Multiplicador de Lagrange (LM) Entonces, tomado en cuenta la definición de I (θ)−1 dada en (6) y evaluándola en el estimador restringido, tenemos que nuestro test queda como: LM = [ 1 σ̃2 u′∗X 0 ] [ σ̃2(X ′X )−1 0 0 2σ̃ 4 n ] [ 1 σ̃2 u′∗X 0 ] = u′∗X (X ′X )−1X ′u∗ σ̃2 = n u′∗X (X ′X )−1X ′u∗ u′∗u∗ (9) = nR2 ∼a χ2q (10) donde el R2 corresponde a la bondad de ajuste de la regresión auxiliar entre u∗ y X. Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Test del Multiplicador de Lagrange (LM) Test de Multiplicador de Lagrange (LM) Resumiendo, el test se implementa en tres simples pasos: 1 Estimar el modelo restringido y obtener sus residuos 2 Con ellos correr una regresión de ellos contra X. Obtener el R2 3 Construir el estad́ıstico nR2 y comparar con el valor cŕıtico de una χ2q Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Algunas Consideraciones 1 Una ventaja de la estimación MV, es que sus propiedades asintóticas se mantienen independientemente de la distribución utilizada (la que se asume en el error). 2 Otra ventaja corresponde a la posibilidad de utilizar modelos no lineales. MCO (tal y como lo hemos estudiado) sólo permite estimar modelos lineales en parámetros, mientras que MV permite no linealidades (aunque ello implique la imposibilidad de obtener de obtener formas funcionales cerradas para nuestros estimadores, lo cual implica necesariamente utilizar métodos numéricos para optimizar la función objetivo). Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Algunas Consideraciones 3 Otra ventaja reside en la inferencia. Todala inferencia vista en MCO poséıa distribución exacta bajo el supuesto de normalidad. Los test asintóticos visto en la inferencia MV son válidos bajo cualquier distribución supuesta (aunque asintóticamente). 4 Adicionalmente, los tres test vistos son capaces de lidiar con restricciones no lineales. ¿Por qué? Porque MV es capaz de lidiar con modelos no lineales1 1Un ejemplo de restricción no lineal corresponde a H0 : ln(β 2 3 ) = −0,1 + ln(β2). Para estimar el modelo restringido basta con aislar β2 e introducirlo en la función de verosimilitud que será maximizada por métodos numéricos. Clase 12 Econometŕıa Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV Algunas Consideraciones 5 Es posible demostrar que W ≥ LR ≥ LM al ser aplicados a un modelo lineal. Los tres son asintóticamente equivalentes, sin embargo, en muestras finitas arrojarán resultados diferentes. 6 Todos los paquetes estad́ısticos reportan el valor de la función de verosimilitud (es decir, la función evaluada en los parámetros estimados). Ello, muchas veces es utilizado como un criterio de selección entre modelos (recuerde que nuestro objetivo es maximizar la función de verosimilitud). Clase 12 Econometŕıa Estimación MV Test de Wald (W) Test de Razón de Verosimilitud (LR) Test del Multiplicador de Lagrange (LM) Algunas consideraciones respecto a la estimación y la inferencia MV