Logo Studenta
¡Este material tiene más páginas!

Vista previa del material en texto

Pontificia Universidad Católica de Chile
Instituto de Economía
Econometría I – EAE 250A
Juan Ignacio Urquiza – Segundo Semestre 2019
Introducción
 En el contexto de una regresión simple, el
supuesto clave para un análisis ceteris paribus
a menudo no es realista.
 La regresión múltiple resulta más adecuada ya
que permite controlar de manera explícita por
varios factores que afectan de forma simultánea
a la variable dependiente.
 Además, permite mayor flexibilidad al poder
acomodar formas funcionales muy generales.
Modelo de Regresión Múltiple
 El modelo de regresión lineal múltiple (RLM) se
puede escribir de la siguiente manera:
donde β0 es el intercepto y βj≠0 es el parámetro
asociado a una de las K variables explicativas –
K+1 parámetros poblacionales desconocidos.
 Como veremos más adelante, en este contexto
los βj≠0 se interpretan como el “efecto parcial” o
“ceteris paribus” de un cambio unitario en Xj.
Supuestos
 Linealidad en los parámetros (RLM.1)
 Muestreo aleatorio (RLM.2)
 Colinealidad Imperfecta (RLM.3):
 Ninguna variable independiente es combinación lineal
exacta de las otras.
 Las variables pueden estar correlacionadas entre sí,
sólo que no pueden hacerlo en forma perfecta.
Supuestos
 Linealidad en los parámetros (RLM.1)
 Muestreo aleatorio (RLM.2)
 Colinealidad Imperfecta (RLM.3)
 Media condicional cero – E(ε|X) = 0 (RLM.4):
 Veremos a continuación que X es una matriz de datos.
 También se puede escribir como E(ε|x1,x2,…,xk) = 0.
 Implica que ninguno de los factores en el término de
error correlaciona con las v. explicativas.
 Decimos que las v. explicativas son exógenas.
Estimación
 El objetivo consiste en estimar los parámetros
poblacionales a partir de una muestra aleatoria.
Problema análogo al de la regresión simple.
 Por lo tanto, extenderemos los resultados para
el caso de la de regresión múltiple.
 Entonces,
Estimación
 CPO:
 En resumen, para K variables explicativas se
tiene un sistema de K+1 ecuaciones lineales
con K+1 incógnitas.
Forma Matricial
 Considere el modelo de regresión múltiple:
 En términos matriciales, puede representarse
de la siguiente manera:
𝒚 = 𝑿𝜷 + 𝜺
 En este caso, las letras minúsculas representan
vectores y las mayúsculas matrices.
Forma Matricial
 Sea el modelo en términos matriciales:
𝒚 = 𝑿𝜷 + 𝜺
donde:
𝒚: vector de n filas y 1 columna (n,1). 
𝑿: matriz de n filas y (k+1) columnas (n, k+1). 
𝜷: vector de (k+1) filas y 1 columna (k+1,1). 
𝜺: vector de n filas y 1 columna (n,1).
Ejemplo
 Sean las variables X1 y X2, entonces:
Mínimos Cuadrados Ordinarios
 Recuerde:
𝑆𝐶𝑅 = 𝜺′ 𝜺 = 𝒚 − 𝑿 𝜷
′
𝒚 − 𝑿 𝜷
= 𝒚′𝒚 − 𝜷′𝑿′𝒚 − 𝒚′𝑿 𝜷 + 𝜷′𝑿′𝑿 𝜷
= 𝒚′𝒚 − 𝟐𝒚′𝑿 𝜷 + 𝜷′𝑿′𝑿 𝜷
puesto que tratándose de escalares, son iguales a su
transpuesta; es decir, 𝜷′𝑿′𝒚 = 𝒚′𝑿 𝜷.
 Además, recuerde las reglas para diferenciación:
𝝏𝑨 𝜷
𝝏 𝜷
= 𝑨′
𝝏 𝜷′𝑨 𝜷
𝝏 𝜷
= 𝟐𝑨 𝜷
Mínimos Cuadrados Ordinarios
 Sea el modelo en términos matriciales:
𝒚 = 𝑿𝜷 + 𝜺
 Se debe minimizar la suma de los cuadrados de
residuales.
min 𝑆𝐶𝑅 = min 𝒚 − 𝑿 𝜷
′
𝒚 − 𝑿 𝜷
= 𝒚′𝒚 − 𝟐𝒚′𝑿 𝜷 + 𝜷′𝑿′𝑿 𝜷
 CPO:
𝜕𝑆𝐶𝑅
𝜕 𝜷
= 0 → 𝑿′𝑿 𝜷 = 𝑿′𝒚
Mínimos Cuadrados Ordinarios
 Por lo tanto, tenemos que:
 El vector 𝜷 recibe el nombre de estimador de MCO.
 Para que esta solución sea efectivamente un mínimo es
necesario que:
sea definida positiva. 
 Puesto que X es de rango completo (RLM.3), entonces
 𝜷 es único y minimiza la SCR.
 𝜷 = 𝑿′𝑿 −𝟏𝑿′𝒚
𝜕𝑆𝐶𝑅
𝜕 𝜷𝜕 𝜷′
= 2 𝑿′𝑿
Ejemplo
 Se dispone de los siguientes datos muestrales:
 n = 5, k = 1.
𝒙 𝒚
0 4
1 6
2 7
3 9
4 11
Ejemplo
 Caracterización de X e y:
 Estimador de MCO:
 𝜷
Ejemplo
 Cómputo de la matriz (X´X)-1:
Ejemplo
 Cómputo del vector X´y:
Ejemplo
 Cálculo de los estimadores:
 𝜷
Propiedades Algebraicas
 Las propiedades algebraicas se derivan
de las CPO.
 Recuerde que:
Propiedades Algebraicas
 Suma de los residuos:
 Si el modelo incluye intercepto, una de las columnas
(la primera) es un vector de unos, por lo tanto:
 Ortogonalidad:
 Implica que los residuos no están correlacionados con
las variables explicativas.
 El punto 𝑥1, 𝑥2, … , 𝑥𝑘 , 𝑦 pertenece a la curva de
regresión.
Estimadores MCO – Propiedades
 Bajo los supuestos anteriores (RLM.1 a RLM.4),
los estimadores de MCO son insesgados.
 Homocedasticidad (RLM.5):
V(εi|X) = σ
2 , E(εε´|X) = σ2 I
 La varianza del error no depende de los valores de
las variables independientes.
 Se puede demostrar que bajo los supuestos
RLM.1 a RLM.5 los estimadores de MCO son
los de mínima varianza entre los estimadores
lineales insesgados.
Estimadores MCO – Propiedades 
 Insesgamiento:
Estimadores MCO – Propiedades 
 Varianza:
𝑽 𝜷 𝑿 = 𝑬 𝜷 − 𝜷 𝜷 − 𝜷
′
𝑿
= 𝑬 𝑿′𝑿 −𝟏𝑿′𝜺𝜺′𝑿 𝑿′𝑿 −𝟏 𝑿
= 𝑿′𝑿 −𝟏𝑿′𝑬 𝜺𝜺′ 𝑿 𝑿 𝑿′𝑿 −𝟏
= 𝑿′𝑿 −𝟏𝑿′ 𝜎2𝑰 𝑿 𝑿′𝑿 −𝟏
= 𝜎2 𝑿′𝑿 −𝟏𝑿′𝑿 𝑿′𝑿 −𝟏
= 𝜎2 𝑿′𝑿 −𝟏
Estimadores MCO – Resumen
 Insesgamiento:
 Varianza Condicional:
 Teorema de Gauss–Markov:
 Bajo los supuestos RLM.1 a RLM.5, los estimadores
de MCO son los mejores estimadores lineales
insesgados (MELI).
Estimación de σ2
 Puesto que σ2 es desconocido, utilizaremos los
datos para estimarlo.
 Estimador insesgado:
 Por lo tanto, en la práctica trabajaremos con:
Ejemplo
 Curva de regresión muestral: 
𝒙 𝒚 𝒚 𝜺 = 𝒚 − 𝒚
0 4 4 0
1 6 5,7 0,3
2 7 7,4 -0,4
3 9 9,1 -0,1
4 11 10,8 0,2
Ejemplo
 𝜎2 = 𝜀′ 𝜀 𝑛 − 𝑘 − 1 = 0,3 3 = 0,1
 Ahora podemos computar los errores estándar
de los estimadores.
 Recuerde:
 ee( 𝛽0) = (0.1 * 0.6)
1/2 = 0.25
 ee( 𝛽1) = (0.1 * 0.1)
1/2 = 0.10
Stata
Stata
Modelo Simple vs. Modelo Múltiple
Errores estándar

Más contenidos de este tema