Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Apuntes de Econometría Prof. Ricardo Guzmán Ponti�cia Universidad Católica de Chile Instituto de Economía 2do Semestre de 2006 Sección 11: Error de especi�cación Omisión de variables pertinentes Supongamos que el modelo verdadero es: y = X� + " =W + Z� + "; donde X = h W Z i y �0 = h 0 �0 i . El investigador omite Z y estima: y =W + ": El estimador que obtiene es b e = (W0W)�1W0y y su esperanza es: E(b e jX) = + (W0W)�1W0Z�: Por lo tanto, omitir variables relevantes sesga al estimador MCO de , salvo cuando W y Z son ortogonales, es decir, cuandoW0Z = 0. Malas noticias: b e es (casi siempre) sesgado. Pero, ¿qué tan volátil es? var(b e jX) = �2(W0W)�1: Por otra parte, el estimado MCO de es: b = (W0MZW)�1W0MZy; y su varianza es: var(b jX) = �2(W0MZW)�1. Es posible demostrar que var(b jX)�var(b e jX) es una matriz semide�nida positiva. Tarea: ¡Hacerlo! Es suma, si el investigador omite variables relevantes, ob- tiene un estimador sesgado pero de menor varianza que el estimador sin omisión de variables. Ahora veamos qué ocurre con el estimador de �2 cuando el investigador olvida incluir una variable relevante: s2e = b"0eb"e N �KW = yMWy N �KW donde b"e = MWy es el error estimado bajo error de especi�cación. Es posible demostrar que E(s 2 e jX) = �2 + �0Z0MWZ� N �KW ; es decir, s2e es sesgado al alza, aún cuando Z es ortogonal aW (hacer la demostración es tarea). Inclusión de variables irrelevantes Supongamos ahora que el modelo verdadero es y = W + ", pero el investigador incluye Z en la regresión y estima y =W + Z� + ". Los estimadores de y � que obtiene son los estimadores de regresión particionada que vimos en la sección anterior: b e = (W0MZW)�1W0MZy;b�e = (Z0MWZ)�1Z0MWy Un cálculo sencillo permite demostrar que ambos esti- madores son insesgados (hágalo, es tarea). Es decir, E(b e jX) = ; E(b�e jX) = 0: Note que, como b e y b�e son insesgados, el estimador de �2 también debe ser insesgado. ¿Por qué? Tarea: de- muéstrelo formalmente. Resumiendo: Si se agrega variables irrelevantes a la re- gresión, los estimadores de y � no son sesgados. Tam- poco es sesgado el estimador de �2. Buenas noticias. Ahora bien, ¿signi�ca lo anterior que es buena idea agre- gar la mayor cantidad posible de variables explicativas a la regresión? Después de todo, si olvidamos una variable, habrá sesgo. En cambio, si nos sobra una variable, no pasará nada. En realidad, incluir variables irrelevantes en la regresión tiene costo. Ese costo se re�eja en la varianza de los estimadores. Tarea: Demuestre que las varianzas de los estimadores de y � bajo omisión de variables son menores que las varianzas de los estimadores cuando no se comete ese error. La conclusión �nal de esta sección es que existe un trade- o¤ entre sesgo y varianza. Z relevante omitido Z irrelevante incluidob e Sesgado, a menos Insesgado que Z0W = 0. s2e Sesgado Insesgado var(b e jX) Menor que var(b jX) Mayor que var(b jX)
Compartir