Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Apuntes de Econometría Prof. Ricardo Guzmán Ponti�cia Universidad Católica de Chile Instituto de Economía 1er Semestre de 2006 Sección 6: Inferencia en el modelo de regresión lineal Contrastes de hipótesis: un repaso Un contraste estadístico siempre distingue entre dos hipóte- sis: la nula y la alternativa. La hipótesis nula es una idea que estamos dispuestos a aceptar a priori. Es decir, nos inclinamos a aceptarla a menos que surja evidencia muy contundente en su contra. La hipótesis alternativa es, simplemente, la negación de la hipótesis nula. Cuando contrastamos una hipótesis podemos cometer dos tipos de errores: Error tipo 1: rechazar la hipótesis nula cuando es ver- dadera. Error tipo 2: no rechazar la hipótesis nula cuando es falsa. Es usual denotar con la letra � a la probabilidad de come- ter un error tipo 1. La con�anza del contraste se de�ne como 1� �. A la probabilidad de cometer un error tipo 2 se le denota con la letra �. El poder del contraste se de�ne como 1� �. En general los contrastes se especi�can exigiendo un niv- el arbitrario de con�anza. A medida que la con�anza se acerca a 100%, la probabilidad de cometer un error tipo 2 aumenta. Pregunta: ¿Cuál es el poder de un contraste cuando la con�anza es exactamente 100%? Si disponemos de dos contrastes alternativos para una misma hipótesis, debemos elegir el que tenga mayor poder para un mismo nivel de con�anza. La hipótesis nula es siempre una restricción que se im- pone a la hipótesis mantenida o modelo. El modelo es un conjunto de supuestos que, unidos a la hipótesis nula, producen algún estadístico de distribución conocida. Si al calcular el estadístico con información muestral ob- tenemos un valor �muy grande�(i.e. inesperado si la nula fuese verdadera), interpretamos ese resultado como una falla de la nula. Sin embargo, dicha interpretación sólo es válida si el modelo está bien especi�cado. Es posible que el estadístico no tenga la distribución que suponemos si la nula es verdadera, pero el modelo es falso. Inferencia con el estimador MCO Es frecuente que la teoría que inspira una regresión tam- bién especi�que los valores que los coe�cientes deben tomar. Por ejemplo, en el caso del modelo de demanda de dinero de Baumol y Tobin, ln M P = �1 + �2 lnY + �3 ln i+ "; la teoría sugiere que la elasticidad ingreso, �2, debe ser 1=2 y que la elasticidad precio, �3, debe ser �1=2. En la sección anterior demostramos que, si se cumplen los supuestos clásicos, los estimadores MCO serán ins- esgados. Es decir, b�2 sera 1=2 en promedio y b�3 sera �1=2 en promedio. Sin embargo, como b�2 y b�3 son variables aleatorias, sus valores podrían no coincidir con 1=2 y 1=2 para una muestra particular, aún cuando la teoría sea correcta. Por lo tanto, no podemos concluir que �2 6= 1=2 y �3 6= �1=2 sólo porque, al estimar, obtenemos b�2 6= 1=2 y b�3 6= �1=2. Lo que necesitamos es un criterio que nos diga cuando el error de muestreo (la diferencia entre el parámetro esti- mado y su valor hipotético) es demasiado grande para que la hipótesis nula sea verdadera: necesitamos un contraste de hipótesis. Como el error de muestreo depende de b�, y b� depende de X y de ", parece necesario hacer algún supuesto sobre la distribución conjunta de X y " para poder determinar la distribución de un estadístico que nos permita contrastar hipótesis sobre �. Veremos más adelante que, si " condi- cionado por X es normal, la distribución del estadístico no depende en lo absoluto deX (algo bien sorprendente). No hará falta especi�car el comportamiento de X para contrastar hipótesis. Errores normales Para hacer inferencia necesitamos agregar un supuesto más al modelo de regresión: los errores son normales dada X: " jX � N � 0N�1; � 2IN � : La función de densidad de una normal depende sólo de la media y la varianza. Por otra parte, si la distribución de " jX es normal, la media y la varianza de " jX pueden depender de X. Como no dependen de X, la normalidad implica que " y X son independientes entre sí. Nota 1: En general, si dos variables son independientes su correlación será cero. La implicancia inversa, en cambio, no siempre es válida. Dos variables normales, sin embargo, serán independientes si y sólo si no están correlacionadas. ¿Por qué? Nota 2: Combinaciones lineales de variables normales son normales. La distribución chi-cuadrado Va a ser clave para desarrollar los test de hipótesis que necesitamos, así que conviene repasar sus propiedades: 1. Si z � N � 0N�1; IN � , entonces w = z0z � �2N 2. E(w) = N , var (w) = 2N . Tarea: demostrarlo. 3. Si v � �2M y w � � 2 N , y además v y w son inde- pendientes entre sí, entonces, v=M w=N � F (M;N) : 4. Sea x un vector aleatorio de tamaño N . Si x � N (�;�), entonces (x� �)0��1(x � �) � �2N . Tarea: demostrarlo. Contraste de hipótesis lineales Considere el siguiente conjunto de Q hipótesis lineales sobre el valor de los parámetros: H0 : R� = c; donde R es una matriz de dimensión Q �K y c es un vector de largo Q. Para que no haya hipótesis redun- dantes debe ser cierto que el número de �las linealmente independientes de R sea igual a Q. Por supuesto, eso requiere que Q sea menor que K. Para chequear H0 construimos el siguiente estadístico: F = (Rb��c)0[R0(X0X)�1R]�1(Rb��c) Qb"0b" N�K � F (Q;N �K) ; y rechazamos H0 si el valor de F es mayor que cierto valor crítico determinado previamente. Tarea: demostrar que F � F (Q;N �K) El estadístico F tiene 2 características convenientes: 1. F será �grande� si H0 es falsa (¿por qué?). 2. La distribución de F bajo H0 es conocida y no de- pende de X. Por lo tanto, al elegir como valor crítico una constante F � tal que Pr (F � F �) = 1 � �, estamos seguros de que la probabilidad de cometer un error de tipo 1 es �. Dos contrastes comunes 1. Signi�cancia conjunta: H0 : h 0K�1�1 IK�1 i � = 0K�1�1: 2. Signi�cancia individual: H0 : �i = 0:
Compartir