Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Pontificia Universidad Católica de Chile Instituto de Economía Econometría I – EAE 250A Juan Ignacio Urquiza – Segundo Semestre 2019 Estimadores MCO – Propiedades Insesgamiento: Supuestos (RLS.1 – RLS.4): Linealidad en los parámetros. Media condicional cero – E(ε|X) = 0. Muestreo aleatorio. Variación muestral en la variable explicativa: En la muestra, las Xi no son todas iguales. Entonces, se puede demostrar que los estimadores de MCO son insesgados. Ver demostración (Teorema 2.1, JW) Estimadores MCO – Propiedades Varianza: Además de saber si los estimadores se distribuyen alrededor de los valores poblacionales, es importante saber qué tan dispersos esperamos que estén. Supuesto adicional (RLS.5): Homocedasticidad: El error tiene la misma varianza para cualquier valor de la variable explicativa – Var(ε|X) = σ2. Simplifica los cálculos de las varianzas de los estimadores e implica que MCO es eficiente pero no es necesario para insesgamiento. Homocedasticidad Heterocedasticidad Estimadores MCO – Propiedades Varianza: Bajo los supuestos RLS.1 a RLS.5, se puede demostrar que: donde: Ver demostración (Teorema 2.2, JW) Estimadores MCO – Propiedades Varianza: Intuición: A mayor variabilidad en X, más fácil resulta hallar la relación entre E(Y|X) y X, lo que se traduce en una estimación más precisa de 𝛽1. Recuerde que la variación total en X aumenta con el tamaño de la muestra. Una mayor variación en los factores inobservables que afectan a Y dificulta la estimación de 𝛽1. Inferencia Considere el siguiente modelo simple: ¿Cómo podemos evaluar alguna hipótesis sobre los parámetros? ¿O construir intervalos de confianza? Supongamos que estamos interesados en evaluar la siguiente hipótesis: ≠ Inferencia Podemos estimar a los parámetros por MCO. Recuerde que 𝛽1 es una variable aleatoria. Idea: Rechazar H0 si 𝛽1 toma valores “lejanos a 𝛽1,0”. ¿Cuán lejanos? ¡Necesitamos una distribución! Bajo los supuestos anteriores, los estimadores MCO son insesgados y conocemos su varianza. Sin embargo, para realizar una inferencia estadística necesitamos conocer toda la distribución de 𝛽1. Condicionando en los valores muestrales de X, dicha distribución depende de la distribución de los errores. Normalidad Supuesto adicional (RLS.6): Para hacer que las distribuciones muestrales de los estimadores sean manejables, asumiremos que el error no observable está distribuido normalmente en la población. Normalidad: ε ~ N(0; σ2 ) El error es independiente de las variables explicativas y está distribuido normalmente, con media cero y varianza σ2. Normalidad La normalidad del término del error se traduce en distribuciones muestrales normales de los estimadores de MCO: βj|X ~ N(βj, Var( βj)) Por lo tanto, ( βj – βj) / [Var( βj)] (1/2) ~ N(0,1) Sin embargo, cabe recordar que la varianza de estos estimadores depende de σ2 que en general es desconocido. Estimación de σ2 Podemos utilizar los datos para estimar σ2. Estimador (factible) sesgado: Estimador (factible) insesgado: Ver demostración (Teorema 2.3, JW) Error Estándar Reemplazando σ2 por su estimador, y tomando la raíz cuadrada de la varianza del estimador, obtenemos su error estándar (ee). Es decir, De modo análogo, se obtiene el ee 𝛽0 . Inferencia Test de Hipótesis: Intervalo de Confianza (al 95%): ≠ n: tamaño de la muestra k: núm. de v. explicativas donde la constante c es el percentil 97.5 en una distribución tn-k-1. Stata Ejemplo: prueba vs. razón estudiante/profesor Suma de Cuadrados (SCE) (SCR) (SCT)
Compartir