Logo Studenta

Apuntes 6

¡Estudia con miles de materiales!

Vista previa del material en texto

Apuntes de Econometría
Prof. Ricardo Guzmán
Ponti�cia Universidad Católica de Chile
Instituto de Economía
1er Semestre de 2006
Sección 6: Inferencia en el modelo
de regresión lineal
Contrastes de hipótesis: un repaso
Un contraste estadístico siempre distingue entre dos hipóte-
sis: la nula y la alternativa.
La hipótesis nula es una idea que estamos dispuestos
a aceptar a priori. Es decir, nos inclinamos a aceptarla a
menos que surja evidencia muy contundente en su contra.
La hipótesis alternativa es, simplemente, la negación de
la hipótesis nula.
Cuando contrastamos una hipótesis podemos cometer
dos tipos de errores:
Error tipo 1: rechazar la hipótesis nula cuando es ver-
dadera.
Error tipo 2: no rechazar la hipótesis nula cuando es
falsa.
Es usual denotar con la letra � a la probabilidad de come-
ter un error tipo 1. La con�anza del contraste se de�ne
como 1� �.
A la probabilidad de cometer un error tipo 2 se le denota
con la letra �. El poder del contraste se de�ne como
1� �.
En general los contrastes se especi�can exigiendo un niv-
el arbitrario de con�anza. A medida que la con�anza se
acerca a 100%, la probabilidad de cometer un error tipo
2 aumenta.
Pregunta: ¿Cuál es el poder de un contraste cuando la
con�anza es exactamente 100%?
Si disponemos de dos contrastes alternativos para una
misma hipótesis, debemos elegir el que tenga mayor poder
para un mismo nivel de con�anza.
La hipótesis nula es siempre una restricción que se im-
pone a la hipótesis mantenida o modelo. El modelo es
un conjunto de supuestos que, unidos a la hipótesis nula,
producen algún estadístico de distribución conocida.
Si al calcular el estadístico con información muestral ob-
tenemos un valor �muy grande�(i.e. inesperado si la nula
fuese verdadera), interpretamos ese resultado como una
falla de la nula. Sin embargo, dicha interpretación sólo es
válida si el modelo está bien especi�cado. Es posible que
el estadístico no tenga la distribución que suponemos si
la nula es verdadera, pero el modelo es falso.
Inferencia con el estimador MCO
Es frecuente que la teoría que inspira una regresión tam-
bién especi�que los valores que los coe�cientes deben
tomar. Por ejemplo, en el caso del modelo de demanda
de dinero de Baumol y Tobin,
ln
M
P
= �1 + �2 lnY + �3 ln i+ ";
la teoría sugiere que la elasticidad ingreso, �2, debe ser
1=2 y que la elasticidad precio, �3, debe ser �1=2.
En la sección anterior demostramos que, si se cumplen
los supuestos clásicos, los estimadores MCO serán ins-
esgados. Es decir, b�2 sera 1=2 en promedio y b�3 sera
�1=2 en promedio. Sin embargo, como b�2 y b�3 son
variables aleatorias, sus valores podrían no coincidir con
1=2 y 1=2 para una muestra particular, aún cuando la
teoría sea correcta. Por lo tanto, no podemos concluir
que �2 6= 1=2 y �3 6= �1=2 sólo porque, al estimar,
obtenemos b�2 6= 1=2 y b�3 6= �1=2.
Lo que necesitamos es un criterio que nos diga cuando el
error de muestreo (la diferencia entre el parámetro esti-
mado y su valor hipotético) es demasiado grande para que
la hipótesis nula sea verdadera: necesitamos un contraste
de hipótesis.
Como el error de muestreo depende de b�, y b� depende de
X y de ", parece necesario hacer algún supuesto sobre la
distribución conjunta de X y " para poder determinar la
distribución de un estadístico que nos permita contrastar
hipótesis sobre �. Veremos más adelante que, si " condi-
cionado por X es normal, la distribución del estadístico
no depende en lo absoluto deX (algo bien sorprendente).
No hará falta especi�car el comportamiento de X para
contrastar hipótesis.
Errores normales
Para hacer inferencia necesitamos agregar un supuesto
más al modelo de regresión: los errores son normales dada
X:
" jX � N
�
0N�1; �
2IN
�
:
La función de densidad de una normal depende sólo de la
media y la varianza. Por otra parte, si la distribución de
" jX es normal, la media y la varianza de " jX pueden
depender de X. Como no dependen de X, la normalidad
implica que " y X son independientes entre sí.
Nota 1: En general, si dos variables son independientes su
correlación será cero. La implicancia inversa, en cambio,
no siempre es válida. Dos variables normales, sin embargo,
serán independientes si y sólo si no están correlacionadas.
¿Por qué?
Nota 2: Combinaciones lineales de variables normales son
normales.
La distribución chi-cuadrado
Va a ser clave para desarrollar los test de hipótesis que
necesitamos, así que conviene repasar sus propiedades:
1. Si z � N
�
0N�1; IN
�
, entonces w = z0z � �2N
2. E(w) = N , var (w) = 2N . Tarea: demostrarlo.
3. Si v � �2M y w � �
2
N , y además v y w son inde-
pendientes entre sí, entonces,
v=M
w=N
� F (M;N) :
4. Sea x un vector aleatorio de tamaño N . Si x �
N (�;�), entonces (x� �)0��1(x � �) � �2N .
Tarea: demostrarlo.
Contraste de hipótesis lineales
Considere el siguiente conjunto de Q hipótesis lineales
sobre el valor de los parámetros:
H0 : R� = c;
donde R es una matriz de dimensión Q �K y c es un
vector de largo Q. Para que no haya hipótesis redun-
dantes debe ser cierto que el número de �las linealmente
independientes de R sea igual a Q. Por supuesto, eso
requiere que Q sea menor que K.
Para chequear H0 construimos el siguiente estadístico:
F =
(Rb��c)0[R0(X0X)�1R]�1(Rb��c)
Qb"0b"
N�K
� F (Q;N �K) ;
y rechazamos H0 si el valor de F es mayor que cierto
valor crítico determinado previamente.
Tarea: demostrar que F � F (Q;N �K)
El estadístico F tiene 2 características convenientes:
1. F será �grande� si H0 es falsa (¿por qué?).
2. La distribución de F bajo H0 es conocida y no de-
pende de X. Por lo tanto, al elegir como valor crítico
una constante F � tal que Pr (F � F �) = 1 � �,
estamos seguros de que la probabilidad de cometer
un error de tipo 1 es �.
Dos contrastes comunes
1. Signi�cancia conjunta:
H0 :
h
0K�1�1 IK�1
i
� = 0K�1�1:
2. Signi�cancia individual:
H0 : �i = 0:

Otros materiales