Logo Studenta
¡Este material tiene más páginas!

Vista previa del material en texto

Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Clase 12
Econometŕıa
Tomás Rau
25 de septiembre
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Contenidos
Estimación MV
Test de Wald (W)
Test de Razón de Verosimilitud (LR)
Test del Multiplicador de Lagrange (LM)
Algunas consideraciones respecto a la estimación y la inferencia
MV
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Los 3 tests
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test de Wald (W)
Test de Wald
Se basa en evaluar la hipótesis nula en los coeficientes estimados y
evaluar cuán cercano es el resultado comparado a lo propuesto por
la nula. Una de las ventajas del test de Wald es que sólo necesita
de la estimación no restringida.
Siguiendo la misma lógica de la demostración del test F, si:
β̂
a∼ (β, I (β)−1) (1)
entonces, bajo la hipótesis nula:
(Rβ̂ − r) a∼ (0,RI (β)−1R ′) (2)
entonces, se puede demostrar que:
(Rβ̂ − r)′[RI (β)−1R ′]−1(Rβ̂ − r) a∼ χ2q (3)
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test de Wald (W)
Test de Wald
donde q es el número de filas de R y por lo tanto, el número de
restricciones.
Luego, como los estimadores MV distribuyen asintóticamente
normales, entonces la matriz de información expuesta es válida en
muestras grandes, tenemos que el estad́ıstico de Wald se define
como:
W =
(Rβ̂ − r)′[R(X ′X )−1R ′]−1(Rβ̂ − r)
σ̂2
a∼ χ2q (4)
Nota: el test era válido asintóticamente, donde hemos utilizado el
hecho que en una F, cuando el los grados de libertad del den son
grandes, converge a una χ2. Es “como si”σ2 fuese conocido.
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test de Razón de Verosimilitud (LR)
Test de Razón de Verosimilitud (LR)
El valor de la función de verosimilitud, L(β̂, σ̂2), corresponde al
valor de la verosimilitud irrestricta, es decir, sin imponer ninguna
restricción sobre los parámetros del modelo.
Suponiendo entonces que nuestro interés se centra en una serie de
restricciones lineales del tipo Rβ = r , entonces el modelo original
es estimable en su versión restringida, al maximizar la función de
verosimilitud sujeta a Rβ = r , cuyo resultado son los estimadores
β̃ y σ̃2. Luego L(β̃, σ̃2) corresponde al valor de la verosimilitud
restringida.
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test de Razón de Verosimilitud (LR)
Test de Razón de Verosimilitud (LR)
El valor de la verosimilitud restringida no puede ser superior al de
la no restringida, sin embargo, podŕıa esperarse que si las
restricciones impuestas son correctas, el valor de la primera
esté cerca del de la segunda. Entonces, definimos la razón de
verosimilitud (λ) como:
λ =
L(β̃, σ̃2)
L(β̂, σ̂2)
El test LR se define entonces como:
LR = −2 lnλ = 2[ln L(β̂, σ̂2) − ln L(β̃, σ̃2)] ∼a χ2(q) (5)
donde q corresponde al número de restricciones impuestas (es
decir, el número de filas de R).
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test de Razón de Verosimilitud (LR)
Test de Razón de Verosimilitud (LR)
En el caso que los errores distribuyan normal, es posible derivar
una versión alternativa del estad́ıgrafo utilizando los residuos.
Reemplazando β̂MV y σ̂2MV en l es posible demostrar:
LR = n(ln û′R ûR − ln û′NR ûNR) (6)
donde ûNR son los residuos del modelo irrestricto y ûR los del
modelo restringido.
Es un buen ejercicio...
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test del Multiplicador de Lagrange (LM)
Test de Multiplicador de Lagrange (LM)
Un tercer test corresponde al test LM, el cual también es conocido
como el test del Score. Recordemos que el Score corresponde a la
matriz de primeras derivadas de la función de Verosimilitud:
s(θ) =
∂ ln L
∂θ
=
∂l
∂θ
Como vimos en la introducción, s(θ̂) = 0, por lo cual, al evaluar el
score en el estimador restringido bajo la nula Rβ − r = 0 (β̃),
generalmente obtendremos un vector diferente de cero, sin
embargo, si la nula no se puede rechazar, esperaŕıamos obtener un
vector cercano a cero.
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test del Multiplicador de Lagrange (LM)
Test de Multiplicador de Lagrange (LM)
Se puede demostrar que el score posee media cero y varianza igual
a la matriz de información (I (θ)). Por lo tanto, tenemos que la
forma cuadrática:
s ′(θ)I (θ)−1s(θ)
a∼ χ2
con lo cual, al evaluar en el vector de parámetros restringido
tenemos que bajo la nula, el test LM se define y distribuye como:
LM = s ′(θ̃)I (θ̃)−1s(θ̃) ∼a χ2q (7)
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test del Multiplicador de Lagrange (LM)
Test de Multiplicador de Lagrange (LM)
Note que contraposición al test de Wald, sólo necesitamos calcular
el estimador restringido. De hecho, su popularidad reside en que
muchas veces es más fácil calcular el estimador restringido que el
irrestricto.
Dada la normalidad asintótica de los estimadores MV, podemos
reducir el estad́ıgrafo a una forma mucho más simple. Para ver lo
anterior, considere una notación matricial del score:
s(θ) =
[
∂l
∂β
∂l
∂σ2
]
=
[ 1
σ2
X ′u
− n
2σ2
+ u
′u
2σ4
]
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test del Multiplicador de Lagrange (LM)
Test de Multiplicador de Lagrange (LM)
entonces, para evaluar el score en la estimación restringida,
utilizamos los residuos restringidos, los cuales denotaremos por:
u∗ = Y − X β̃
y por lo tanto:
σ̂2∗ =
u′∗u∗
n
con lo cual:
s(θ̃) =
[
1
σ̂2∗
X ′u∗
0
]
(8)
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test del Multiplicador de Lagrange (LM)
Test de Multiplicador de Lagrange (LM)
Entonces, tomado en cuenta la definición de I (θ)−1 dada en (6) y
evaluándola en el estimador restringido, tenemos que nuestro test
queda como:
LM =
[
1
σ̃2
u′∗X 0
] [ σ̃2(X ′X )−1 0
0 2σ̃
4
n
] [
1
σ̃2
u′∗X
0
]
=
u′∗X (X
′X )−1X ′u∗
σ̃2
= n
u′∗X (X
′X )−1X ′u∗
u′∗u∗
(9)
= nR2 ∼a χ2q (10)
donde el R2 corresponde a la bondad de ajuste de la regresión
auxiliar entre u∗ y X.
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Test del Multiplicador de Lagrange (LM)
Test de Multiplicador de Lagrange (LM)
Resumiendo, el test se implementa en tres simples pasos:
1 Estimar el modelo restringido y obtener sus residuos
2 Con ellos correr una regresión de ellos contra X. Obtener el R2
3 Construir el estad́ıstico nR2 y comparar con el valor cŕıtico de
una χ2q
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Algunas Consideraciones
1 Una ventaja de la estimación MV, es que sus propiedades
asintóticas se mantienen independientemente de la
distribución utilizada (la que se asume en el error).
2 Otra ventaja corresponde a la posibilidad de utilizar modelos
no lineales. MCO (tal y como lo hemos estudiado) sólo
permite estimar modelos lineales en parámetros, mientras que
MV permite no linealidades (aunque ello implique la
imposibilidad de obtener de obtener formas funcionales
cerradas para nuestros estimadores, lo cual implica
necesariamente utilizar métodos numéricos para optimizar la
función objetivo).
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Algunas Consideraciones
3 Otra ventaja reside en la inferencia. Todala inferencia vista
en MCO poséıa distribución exacta bajo el supuesto de
normalidad. Los test asintóticos visto en la inferencia MV son
válidos bajo cualquier distribución supuesta (aunque
asintóticamente).
4 Adicionalmente, los tres test vistos son capaces de lidiar con
restricciones no lineales. ¿Por qué? Porque MV es capaz de
lidiar con modelos no lineales1
1Un ejemplo de restricción no lineal corresponde a
H0 : ln(β
2
3 ) = −0,1 + ln(β2). Para estimar el modelo restringido basta con aislar
β2 e introducirlo en la función de verosimilitud que será maximizada por
métodos numéricos.
Clase 12 Econometŕıa
Estimación MV Algunas consideraciones respecto a la estimación y la inferencia MV
Algunas Consideraciones
5 Es posible demostrar que W ≥ LR ≥ LM al ser aplicados a un
modelo lineal. Los tres son asintóticamente equivalentes, sin
embargo, en muestras finitas arrojarán resultados diferentes.
6 Todos los paquetes estad́ısticos reportan el valor de la función
de verosimilitud (es decir, la función evaluada en los
parámetros estimados). Ello, muchas veces es utilizado como
un criterio de selección entre modelos (recuerde que nuestro
objetivo es maximizar la función de verosimilitud).
Clase 12 Econometŕıa
	Estimación MV
	Test de Wald (W)
	Test de Razón de Verosimilitud (LR)
	Test del Multiplicador de Lagrange (LM)
	Algunas consideraciones respecto a la estimación y la inferencia MV

Más contenidos de este tema