Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Apuntes de Econometría Prof. Ricardo Guzmán Ponti�cia Universidad Católica de Chile Instituto de Economía 2do Semestre de 2006 Sección 4: Propiedades de MCO en muestras �nitas En la sección anterior vimos cómo estimar � usando el método MCO. Dijimos que el estimador MCO resuelve el siguiente problema: b� = argm��ne� (y �Xe�)0(y �Xe�) Derivando la expresión anterior con respecto a e� y luego igualando el resultado a cero obtenemos las llamadas ecuaciones normales: X0Xe� = X0y Despejándolas, encontramos una expresión para b�: b� = (X0X)�1X0y; y estuvimos seguros de haber encontrado un mínimo porque X0X es una matriz de�nida positiva. Finalmente, calculamos los errores estimados, "̂ = y � Xb�, y demostramos que estos son ortogonales a X. Tarea: Demuestre que, si X tiene una columna de unos, entonces PN i=1 "̂i = 0. � En esta sección exploraremos las propiedades del esti- mador MCO cuando contamos con una muestra �nita. Esto es, aquellas propiedades del estimador que son váli- das para cualquier tamaño de muestra N . Veremos que, si los supuestos clásicos se cumplen, b� tiene dos carac- terísticas muy convenientes: (i) es insesgado y (ii) entre los estimadores lineales e insesgados de �, MCO es el que tiene la menor varianza. Antes de comenzar, es importante tener en mente queb� es un vector aleatorio porque depende de X e y. De hecho, lo podemos escribir así (pruébelo): b� = � + (X0X)�1X0". Propiedades del estimador MCO en mues- tra �nita 1. Insesgamiento: E(b� jX) = �. En palabras, si cal- culamos b� usando distintos y pero los mismos X, en promedio obtendremos el verdadero valor de �. 2. Varianza: var(b� jX) = �2 �X0X��1. 3. Teorema de Gauss-Markov: El estimador MCO es el mejor estimador lineal e insesgado (es �BLUE�, Best Linear Unbiased Estimator). Esto signi�ca que, si e� es un estimador de � lineal en y e insesgado, entonces var(b� jX) � var(e� jX). Tarea: Demostrar propiedades 1 y 2. � Tarea: Demostrar que del teorema de Gauss-Markov se desprende que var(b�i jX) � var(e�i jX) para todo i = 1; :::;K. Demostración del teorema de Gauss-Markov: Como e� es lineal en y, lo podemos escribir así: e� = Cy = [(X0X)�1X0 +A]y: Reemplazando y = X� + " y b� = (X0X)�1X0y en la expresión anterior obtenemos: e� = � + (X0X)�1X0"+AX� +A": Tomando esperanza condicional a ambos lados de esta igualdad, y usando E("jX) = 0, queda: E(e� jX) = � +AX� Pero, por hipótesis, e� es insesgado. Esto es, E(e� jX) = �. En consecuencia, debe ser cierto que AX = 0. Us- ando eso en e� = � + (X0X)�1X0" + AX� + A", obtenemos e� = � + [(X0X)�1X0 +A]" Por lo tanto, la varianza de e� es �2[(X0X)�1 + AA0] (para calcular eso, otra vez hay que usar que AX = 0). En suma var(b� jX)� var(e� jX) = �2AA0 y, como esa diferencia es una matriz semide�nida positiva (¿por qué?), concluímos que var(b� jX) � var(e� jX): Lo que queríamos demostrar. � Tarea: Sugiera un estimador de � que tenga menor vari- anza que b�. � Existe una noción de insesgamiento que es más débil que E( jX) = �. Por la ley de las esperanzas iteradas, E(b�) = �. Es decir, b� es insesgado incondicionalmente. Esto es, si calculamos usando distintosX y distintos y, en promedio obtendremos el verdadero valor de �. El inses- gamiento incondicional b� es más relevante que el condi- cional, porque en economía las muestras varían tanto en y como en X. También es posible extender el teorema de Gauss-Markov para probar que es BLUE incondicionalmente. Tarea: Há- galo (use la ley de la descomposición de la varianza).
Compartir