Vista previa del material en texto
Pontificia Universidad Católica de Chile Instituto de Economía Econometría I – EAE 250A Juan Ignacio Urquiza – Segundo Semestre 2019 Introducción En el contexto de una regresión simple, el supuesto clave para un análisis ceteris paribus a menudo no es realista. La regresión múltiple resulta más adecuada ya que permite controlar de manera explícita por varios factores que afectan de forma simultánea a la variable dependiente. Además, permite mayor flexibilidad al poder acomodar formas funcionales muy generales. Modelo de Regresión Múltiple El modelo de regresión lineal múltiple (RLM) se puede escribir de la siguiente manera: donde β0 es el intercepto y βj≠0 es el parámetro asociado a una de las K variables explicativas – K+1 parámetros poblacionales desconocidos. Como veremos más adelante, en este contexto los βj≠0 se interpretan como el “efecto parcial” o “ceteris paribus” de un cambio unitario en Xj. Supuestos Linealidad en los parámetros (RLM.1) Muestreo aleatorio (RLM.2) Colinealidad Imperfecta (RLM.3): Ninguna variable independiente es combinación lineal exacta de las otras. Las variables pueden estar correlacionadas entre sí, sólo que no pueden hacerlo en forma perfecta. Supuestos Linealidad en los parámetros (RLM.1) Muestreo aleatorio (RLM.2) Colinealidad Imperfecta (RLM.3) Media condicional cero – E(ε|X) = 0 (RLM.4): Veremos a continuación que X es una matriz de datos. También se puede escribir como E(ε|x1,x2,…,xk) = 0. Implica que ninguno de los factores en el término de error correlaciona con las v. explicativas. Decimos que las v. explicativas son exógenas. Estimación El objetivo consiste en estimar los parámetros poblacionales a partir de una muestra aleatoria. Problema análogo al de la regresión simple. Por lo tanto, extenderemos los resultados para el caso de la de regresión múltiple. Entonces, Estimación CPO: En resumen, para K variables explicativas se tiene un sistema de K+1 ecuaciones lineales con K+1 incógnitas. Forma Matricial Considere el modelo de regresión múltiple: En términos matriciales, puede representarse de la siguiente manera: 𝒚 = 𝑿𝜷 + 𝜺 En este caso, las letras minúsculas representan vectores y las mayúsculas matrices. Forma Matricial Sea el modelo en términos matriciales: 𝒚 = 𝑿𝜷 + 𝜺 donde: 𝒚: vector de n filas y 1 columna (n,1). 𝑿: matriz de n filas y (k+1) columnas (n, k+1). 𝜷: vector de (k+1) filas y 1 columna (k+1,1). 𝜺: vector de n filas y 1 columna (n,1). Ejemplo Sean las variables X1 y X2, entonces: Mínimos Cuadrados Ordinarios Recuerde: 𝑆𝐶𝑅 = 𝜺′ 𝜺 = 𝒚 − 𝑿 𝜷 ′ 𝒚 − 𝑿 𝜷 = 𝒚′𝒚 − 𝜷′𝑿′𝒚 − 𝒚′𝑿 𝜷 + 𝜷′𝑿′𝑿 𝜷 = 𝒚′𝒚 − 𝟐𝒚′𝑿 𝜷 + 𝜷′𝑿′𝑿 𝜷 puesto que tratándose de escalares, son iguales a su transpuesta; es decir, 𝜷′𝑿′𝒚 = 𝒚′𝑿 𝜷. Además, recuerde las reglas para diferenciación: 𝝏𝑨 𝜷 𝝏 𝜷 = 𝑨′ 𝝏 𝜷′𝑨 𝜷 𝝏 𝜷 = 𝟐𝑨 𝜷 Mínimos Cuadrados Ordinarios Sea el modelo en términos matriciales: 𝒚 = 𝑿𝜷 + 𝜺 Se debe minimizar la suma de los cuadrados de residuales. min 𝑆𝐶𝑅 = min 𝒚 − 𝑿 𝜷 ′ 𝒚 − 𝑿 𝜷 = 𝒚′𝒚 − 𝟐𝒚′𝑿 𝜷 + 𝜷′𝑿′𝑿 𝜷 CPO: 𝜕𝑆𝐶𝑅 𝜕 𝜷 = 0 → 𝑿′𝑿 𝜷 = 𝑿′𝒚 Mínimos Cuadrados Ordinarios Por lo tanto, tenemos que: El vector 𝜷 recibe el nombre de estimador de MCO. Para que esta solución sea efectivamente un mínimo es necesario que: sea definida positiva. Puesto que X es de rango completo (RLM.3), entonces 𝜷 es único y minimiza la SCR. 𝜷 = 𝑿′𝑿 −𝟏𝑿′𝒚 𝜕𝑆𝐶𝑅 𝜕 𝜷𝜕 𝜷′ = 2 𝑿′𝑿 Ejemplo Se dispone de los siguientes datos muestrales: n = 5, k = 1. 𝒙 𝒚 0 4 1 6 2 7 3 9 4 11 Ejemplo Caracterización de X e y: Estimador de MCO: 𝜷 Ejemplo Cómputo de la matriz (X´X)-1: Ejemplo Cómputo del vector X´y: Ejemplo Cálculo de los estimadores: 𝜷 Propiedades Algebraicas Las propiedades algebraicas se derivan de las CPO. Recuerde que: Propiedades Algebraicas Suma de los residuos: Si el modelo incluye intercepto, una de las columnas (la primera) es un vector de unos, por lo tanto: Ortogonalidad: Implica que los residuos no están correlacionados con las variables explicativas. El punto 𝑥1, 𝑥2, … , 𝑥𝑘 , 𝑦 pertenece a la curva de regresión. Estimadores MCO – Propiedades Bajo los supuestos anteriores (RLM.1 a RLM.4), los estimadores de MCO son insesgados. Homocedasticidad (RLM.5): V(εi|X) = σ 2 , E(εε´|X) = σ2 I La varianza del error no depende de los valores de las variables independientes. Se puede demostrar que bajo los supuestos RLM.1 a RLM.5 los estimadores de MCO son los de mínima varianza entre los estimadores lineales insesgados. Estimadores MCO – Propiedades Insesgamiento: Estimadores MCO – Propiedades Varianza: 𝑽 𝜷 𝑿 = 𝑬 𝜷 − 𝜷 𝜷 − 𝜷 ′ 𝑿 = 𝑬 𝑿′𝑿 −𝟏𝑿′𝜺𝜺′𝑿 𝑿′𝑿 −𝟏 𝑿 = 𝑿′𝑿 −𝟏𝑿′𝑬 𝜺𝜺′ 𝑿 𝑿 𝑿′𝑿 −𝟏 = 𝑿′𝑿 −𝟏𝑿′ 𝜎2𝑰 𝑿 𝑿′𝑿 −𝟏 = 𝜎2 𝑿′𝑿 −𝟏𝑿′𝑿 𝑿′𝑿 −𝟏 = 𝜎2 𝑿′𝑿 −𝟏 Estimadores MCO – Resumen Insesgamiento: Varianza Condicional: Teorema de Gauss–Markov: Bajo los supuestos RLM.1 a RLM.5, los estimadores de MCO son los mejores estimadores lineales insesgados (MELI). Estimación de σ2 Puesto que σ2 es desconocido, utilizaremos los datos para estimarlo. Estimador insesgado: Por lo tanto, en la práctica trabajaremos con: Ejemplo Curva de regresión muestral: 𝒙 𝒚 𝒚 𝜺 = 𝒚 − 𝒚 0 4 4 0 1 6 5,7 0,3 2 7 7,4 -0,4 3 9 9,1 -0,1 4 11 10,8 0,2 Ejemplo 𝜎2 = 𝜀′ 𝜀 𝑛 − 𝑘 − 1 = 0,3 3 = 0,1 Ahora podemos computar los errores estándar de los estimadores. Recuerde: ee( 𝛽0) = (0.1 * 0.6) 1/2 = 0.25 ee( 𝛽1) = (0.1 * 0.1) 1/2 = 0.10 Stata Stata Modelo Simple vs. Modelo Múltiple Errores estándar