Logo Studenta

Clase 3

¡Este material tiene más páginas!

Vista previa del material en texto

Pontificia Universidad Católica de Chile
Instituto de Economía
Econometría I – EAE 250A
Juan Ignacio Urquiza – Segundo Semestre 2019
Estimadores MCO – Propiedades
 Insesgamiento:
 Supuestos (RLS.1 – RLS.4):
 Linealidad en los parámetros.
Media condicional cero – E(ε|X) = 0.
Muestreo aleatorio.
Variación muestral en la variable explicativa:
En la muestra, las Xi no son todas iguales.
 Entonces, se puede demostrar que los estimadores de
MCO son insesgados.
Ver demostración
(Teorema 2.1, JW)
Estimadores MCO – Propiedades
 Varianza:
 Además de saber si los estimadores se distribuyen
alrededor de los valores poblacionales, es importante
saber qué tan dispersos esperamos que estén.
 Supuesto adicional (RLS.5):
Homocedasticidad:
El error tiene la misma varianza para cualquier
valor de la variable explicativa – Var(ε|X) = σ2.
Simplifica los cálculos de las varianzas de los
estimadores e implica que MCO es eficiente
pero no es necesario para insesgamiento.
Homocedasticidad
Heterocedasticidad
Estimadores MCO – Propiedades
 Varianza:
Bajo los supuestos RLS.1 a RLS.5, se
puede demostrar que:
donde:
Ver demostración
(Teorema 2.2, JW)
Estimadores MCO – Propiedades
 Varianza:
 Intuición:
A mayor variabilidad en X, más fácil resulta hallar la
relación entre E(Y|X) y X, lo que se traduce en una
estimación más precisa de 𝛽1.
Recuerde que la variación total en X aumenta
con el tamaño de la muestra.
Una mayor variación en los factores inobservables
que afectan a Y dificulta la estimación de 𝛽1.
Inferencia
 Considere el siguiente modelo simple:
 ¿Cómo podemos evaluar alguna hipótesis
sobre los parámetros?
 ¿O construir intervalos de confianza?
 Supongamos que estamos interesados en
evaluar la siguiente hipótesis:
≠
Inferencia
 Podemos estimar a los parámetros por MCO.
 Recuerde que 𝛽1 es una variable aleatoria.
 Idea:
 Rechazar H0 si
 𝛽1 toma valores “lejanos a 𝛽1,0”.
 ¿Cuán lejanos? ¡Necesitamos una distribución!
 Bajo los supuestos anteriores, los estimadores MCO
son insesgados y conocemos su varianza.
 Sin embargo, para realizar una inferencia estadística
necesitamos conocer toda la distribución de 𝛽1.
 Condicionando en los valores muestrales de X, dicha
distribución depende de la distribución de los errores.
Normalidad
 Supuesto adicional (RLS.6):
 Para hacer que las distribuciones muestrales de los
estimadores sean manejables, asumiremos que el
error no observable está distribuido normalmente en
la población.
Normalidad:
ε ~ N(0; σ2 )
El error es independiente de las variables
explicativas y está distribuido normalmente, con
media cero y varianza σ2.
Normalidad
 La normalidad del término del error se traduce en
distribuciones muestrales normales de los estimadores
de MCO:
 βj|X ~ N(βj, Var( βj))
 Por lo tanto,
( βj – βj) / [Var( βj)]
(1/2) ~ N(0,1)
 Sin embargo, cabe recordar que la varianza de estos
estimadores depende de σ2 que en general es
desconocido.
Estimación de σ2
 Podemos utilizar los datos para estimar σ2.
 Estimador (factible) sesgado:
 Estimador (factible) insesgado:
Ver demostración
(Teorema 2.3, JW)
Error Estándar
 Reemplazando σ2 por su estimador, y tomando
la raíz cuadrada de la varianza del estimador,
obtenemos su error estándar (ee).
 Es decir,
 De modo análogo, se obtiene el ee 𝛽0 .
Inferencia
 Test de Hipótesis:
 Intervalo de Confianza (al 95%):
≠
n: tamaño de la muestra
k: núm. de v. explicativas
donde la constante c es el percentil 97.5 
en una distribución tn-k-1.
Stata
 Ejemplo: prueba vs. razón estudiante/profesor 
Suma de 
Cuadrados
(SCE)
(SCR)
(SCT)

Continuar navegando