Logo Studenta

clase 10 - Lissete Rivera Casavantes

¡Este material tiene más páginas!

Vista previa del material en texto

ECONOMETRÍA I 
Clase # 10 
Omar D. Bello 
Santiago, 10 de septiembre de 2012 
 
 
Modelo de regresión lineal múltiple: inferencia 
•  Contraste de hipótesis 
•  Valores p para pruebas t 
•  Intervalos de confianza 
El material de esta clase está basado en el capítulo 4 del libro de 
Wooldridge, secciones 4.1, 4.2, 4.3. 
 
 
 
 
Conocer el valor esperado y la varianza de los estimadores de MICO es útil 
para describir su precisión. 
 
Las distribuciones muestrales de los estimadores MICO dependen de la 
distribución subyacente de los errores. Hasta ahora no hemos hecho ningún 
supuesto sobre la distribución de los errores. 
 
6. Normalidad 
 
El error poblacional u es independiente de las variables explicativas xi1, xi2,.., 
xik y se distribuye de la siguiente manera: 
 
 
 
 
 
 
 
 
 
 
 
 
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 Este supuesto es más sólido que las premisas anteriores. Nótese que como u 
es independiente de las variables explicativas xi1, xi2,.., xik se cumple que 
 
 
 
 
Los seis supuestos tomados en conjunto se denominan los supuestos de 
modelo de regresión lineal clásico (MRLC). Como consecuencia de los 
supuestos 1 al 5, los estimadores MICO son MELI. Esto es, de cumplirse 
estos supuestos, cuando estimamos los parámetros utilizando MICO sabemos 
que estos son insesgados y eficientes. 
 
Eficiente en este contexto significa que tienen varianza mínima. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
! ! !!! !!! !!! !! ! !! ! ! ! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
!"# ! !!! !!! !!! !! ! !! ! !"# ! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 Estos seis supuestos implican que la variable a explicar se distribuye 
 
 
 
Nótese que la normalidad del término de error se traduce en distribuciones 
muestrales normales de los estimadores MICO: 
 
TEOREMA 1: Distribuciones muestrales normales 
Bajo los 6 supuestos del MRLC, condicionados a los valores muestrales de 
las variables explicativas, el estimador de cada parámetro se distribuye: 
 
 
 
Recuérdese que 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
!!!!! !!! !!! !! ! !!!!!!"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
!!!!!!! !!"# !! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!!!!!! !
!"# !! ! !!!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 Donde ajj es el elemento correspondiente de la diagonal principal 
 
Entonces T.1 puede ser estandirizado y quedará la siguiente expresión 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
!!! ! !!!!!"!!!!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!!!!!!! !
 
 PRUEBA DE HIPÓTESIS SOBRE UN SOLO PARÁMETRO POBLACIONAL: 
LA PRUEBA t 
 
Sea el modelo poblacional 
 
 
 
Recuérdese que 
 
 
 
La diferencia entre (4) y (3) como ya hemos visto es que en (4) hay una 
variable aleatoria y en (3) había una constante σ2. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
! ! !! ! !!!!! ! !!!! ! !!!! !!! !!!! ! !!!!!!!!!!!!!!!!! !
!"# !! ! !!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 PRUEBA DE HIPÓTESIS SOBRE UN SOLO PARÁMETRO POBLACIONAL: 
LA PRUEBA t 
 
Sustituyendo (4) en T1, obtenemos el siguiente resultado básico para 
contrastar hipótesis. 
TEOREMA 2: Distribución t para estimadores estandarizados 
 
 
 
En donde k+1 es el número de parámetros desconocidos en el modelo 
poblacional. 
 
La diferencia entre T.1* y T.2, es que en T.2 hay una variable aleatoria y en 
T.1* había una constante σ2. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
!!! ! !!!!!"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!!!!!! !
 
 T.2 es importante en cuanto a que nos va a permitir probar (contrastar) 
hipótesis sobre un parámetro individual. 
Pasos para contrastar una hipótesis 
 
1)Establecimiento de las hipótesis nula y alternativa 
El primer tipo de hipótesis que contrastaremos hoy, consiste en probar la 
hipótesis nula 
 
 
Donde j corresponde a cualquiera de las k variables independientes. Como 
sabemos este parámetro mide el efecto parcial de la variable Xj en el valor 
esperado de Y, después de controlar por todas las otras variables 
independientes. La hipótesis nula significa que Xj no tiene efecto sobre el 
valor esperado de Y. 
 
El valor hipótetico del parámetro es la constante que aparece en el lado 
derecho de (5). En este caso es cero 
 
 
 
 
!!!!! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 La hipótesis alternativa a H0 es 
 
 
 
De acuerdo con, esta alternativa Xj tiene un efecto ceteris paribus sin 
especificar si el efecto es positivo o negativo. 
 
IMPORTANTE: no podemos utilizar la regresión estimada para ayudarnos a 
formular la hipótesis nula o alternativa ya que la inferencia estadística clásica 
supone que las planteamos sobre la población, antes de considerar los datos. 
 
2) Estadístico de prueba 
Como indica el T2, el estadístico t será 
 
 
 
 
 
 
!!!!! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
! ! !!!!"#$%!!!"#$!!"#$!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 En el caso específoco de la hipótesis (4) nos queda 
 
 
 
3) Regla de rechazo 
a)  Debemos escoger un nivel de significancia, es decir la probabilidad de 
rechazar H0 cuando es verdadera. La elección más común es 5%. Estamos 
dispuestos a rechazar H0 equivocamente cuando es verdadera el 5% de las 
veces. 
b)  Para rechazar la hipótesis se busca un valor lo suficientemente grande o 
suficiente pequño del estimador de prueba para rechazar la hipótesis nula a 
favor de la alternativa. Suficientemente grande o sufientemente pequeño son 
el percentil 2,5% y el percentil 97,5% una distribución t con n-k-1 grados de 
libertad denotados por c. 
c)  Dados los dos puntos anteriores, la regla de rechazo es 
 
 
 
 
 
 
 
 
 
! ! !!!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
!!! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! "
 
 
 
 
 
 
 
 
 
 
 
 
 Ejemplo: 
En la siguiente ecuación se estimó el promedio de calificaciones de los 
estudiantes universitarios, colGPA, utilizando como variables explicativas el 
promedio de notas de secundaria, hsGPA, puntaje en la prueba de admisión 
universitaria, ACT, y el número promedio de clases que no asiste por semana, 
ausen. 
"
ColGPA=1.39+ .412hsGPA+ .015ACT- .083ausen"
 (0.33) (.094) (.011) (0.026)"
"
n=141 
 
1) 
 
 
 
 
 
 
 
 
 
 
 
 
 
!!!!! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
!!!!! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
 
 
2) "
"
3) Los grados de libertad son en este caso 
141-4=137 
El valor crítico al 5% es aproximadamente 1,96 
 
4,38>1,96 
 
Dada la muestra, la hipótesis nula se rechaza al nivel de 5% de significancia. 
 
También podría decirse que la variable hsPGA es estadísticamente 
significativa o estadísticamente distinta de cero al nivel de 5%. 
 
 
 
 
 
 
 
 
 
 
 
 
 
! ! !!"#!!!!"# ! !!!!!"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 
 
 
 
 
 
 
 
 
 
 
 
 Cálculo de los valores p* para pruebas t 
 
La pregunta que intentamos responder es ¿cuál es el nivel de significancia 
más pequeño al que se rechazaría la hipótesis nula? Este nivel se conoce 
como el valor p de la prueba 
 
El valor p es una probabilidad, por tanto está entre cero y uno. 
 
El valor p resume la fuerza o debilidad de la evidencia empírica contra la 
hipótesis nula. Es la probabilidad de observar un estadístico t tan grande 
como lo haríamos en el caso de que la hipótesis nula fuera cierta, esto quiere 
decir que p pequeños son evidencia en contra de la hipótesis nula. 
 
El valor p se calcula como 
 
 
 
 
 
 
 
 
 
 
 
 
 
!! ! ! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!"!!!!!!!!!! !
 
 Cálculo de los valores p* para pruebas t 
 
Donde T denota una variable aleatoria distribuida con n-k-1 grados libertad y 
que t denote el valor númerico del estadístico de prueba. 
 
Ejemplo: 
Suponga que queremos contrastar la hipótesis nula de que un parámetro es 
cero contra una alternativa bilateral. Disisponemos de los siguientes datos: El 
valor del estadístico de prueba es 1.85, con cuarenta grados de libertad. 
 
valor p = P(|T|>1.85) = 2P(T>1.85)=2(.0359)=.0718 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 Intervalos de confianza (IC) 
 
Se necesitan tres cantidades para construir un intervalo de confianza 
 
 
Los límites inferior (LI) y superior (LS) son 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
!
!
! !! ! ! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!"!!!!!!!!!! !
!! ! !! ! ! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!"!!!!!!!!!! !
!! ! !! !! ! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !
 
 Intervalos de confianza (IC) 
 
Los IC se denominan estimaciones por intervalos ya que proporcionan una 
gama de valores probables para el parámetro poblacional y no sólo una 
estimación puntual. 
 
Un IC significa que si se obtuvieran muestras aleatorias una y otra vez con LI 
y LS calculados para cada ocasión, entonces el parámetro poblacional 
desconocido estaría en el intervalo (LI, LS) en 95% de las muestras.

Continuar navegando