Logo Studenta

Apuntes 4

¡Estudia con miles de materiales!

Vista previa del material en texto

Apuntes de Econometría
Prof. Ricardo Guzmán
Ponti�cia Universidad Católica de Chile
Instituto de Economía
2do Semestre de 2006
Sección 4: Propiedades de MCO en
muestras �nitas
En la sección anterior vimos cómo estimar � usando el
método MCO. Dijimos que el estimador MCO resuelve el
siguiente problema:
b� = argm��ne� (y �Xe�)0(y �Xe�)
Derivando la expresión anterior con respecto a e� y luego
igualando el resultado a cero obtenemos las llamadas
ecuaciones normales:
X0Xe� = X0y
Despejándolas, encontramos una expresión para b�:
b� = (X0X)�1X0y;
y estuvimos seguros de haber encontrado un mínimo porque
X0X es una matriz de�nida positiva.
Finalmente, calculamos los errores estimados, "̂ = y �
Xb�, y demostramos que estos son ortogonales a X.
Tarea: Demuestre que, si X tiene una columna de unos,
entonces
PN
i=1 "̂i = 0. �
En esta sección exploraremos las propiedades del esti-
mador MCO cuando contamos con una muestra �nita.
Esto es, aquellas propiedades del estimador que son váli-
das para cualquier tamaño de muestra N . Veremos que,
si los supuestos clásicos se cumplen, b� tiene dos carac-
terísticas muy convenientes: (i) es insesgado y (ii) entre
los estimadores lineales e insesgados de �, MCO es el que
tiene la menor varianza.
Antes de comenzar, es importante tener en mente queb� es un vector aleatorio porque depende de X e y. De
hecho, lo podemos escribir así (pruébelo):
b� = � + (X0X)�1X0".
Propiedades del estimador MCO en mues-
tra �nita
1. Insesgamiento: E(b� jX) = �. En palabras, si cal-
culamos b� usando distintos y pero los mismos X,
en promedio obtendremos el verdadero valor de �.
2. Varianza: var(b� jX) = �2 �X0X��1.
3. Teorema de Gauss-Markov: El estimador MCO es
el mejor estimador lineal e insesgado (es �BLUE�,
Best Linear Unbiased Estimator). Esto signi�ca que,
si e� es un estimador de � lineal en y e insesgado,
entonces var(b� jX) � var(e� jX).
Tarea: Demostrar propiedades 1 y 2. �
Tarea: Demostrar que del teorema de Gauss-Markov se
desprende que var(b�i jX) � var(e�i jX) para todo i =
1; :::;K.
Demostración del teorema de Gauss-Markov:
Como e� es lineal en y, lo podemos escribir así:
e� = Cy = [(X0X)�1X0 +A]y:
Reemplazando y = X� + " y b� = (X0X)�1X0y en la
expresión anterior obtenemos:
e� = � + (X0X)�1X0"+AX� +A":
Tomando esperanza condicional a ambos lados de esta
igualdad, y usando E("jX) = 0, queda:
E(e� jX) = � +AX�
Pero, por hipótesis, e� es insesgado. Esto es, E(e� jX) =
�. En consecuencia, debe ser cierto que AX = 0. Us-
ando eso en e� = � + (X0X)�1X0" + AX� + A",
obtenemos
e� = � + [(X0X)�1X0 +A]"
Por lo tanto, la varianza de e� es �2[(X0X)�1 + AA0]
(para calcular eso, otra vez hay que usar que AX = 0).
En suma
var(b� jX)� var(e� jX) = �2AA0
y, como esa diferencia es una matriz semide�nida positiva
(¿por qué?), concluímos que
var(b� jX) � var(e� jX):
Lo que queríamos demostrar. �
Tarea: Sugiera un estimador de � que tenga menor vari-
anza que b�. �
Existe una noción de insesgamiento que es más débil
que E( jX) = �. Por la ley de las esperanzas iteradas,
E(b�) = �. Es decir, b� es insesgado incondicionalmente.
Esto es, si calculamos usando distintosX y distintos y, en
promedio obtendremos el verdadero valor de �. El inses-
gamiento incondicional b� es más relevante que el condi-
cional, porque en economía las muestras varían tanto en
y como en X.
También es posible extender el teorema de Gauss-Markov
para probar que es BLUE incondicionalmente. Tarea: Há-
galo (use la ley de la descomposición de la varianza).

Otros materiales