Logo Studenta

Clase 9 - Zaida Moreno Páez

¡Este material tiene más páginas!

Vista previa del material en texto

Pontificia Universidad Católica de Chile
Instituto de Economía
Econometría I – EAE 250A
Juan Ignacio Urquiza – Segundo Semestre 2019
Multicolinealidad
 Motivación – Significancia Global vs. Individual
Source | SS df MS Number of obs = 10
-------------+------------------------------------------- F( 2, 7) = 92.40
Model | 8565.55407 2 4282.77704 Prob > F = 0.0000
Residual | 324.445926 7 46.349418 R-squared = 0.9635
-------------+------------------------------------------- Adj R-squared = 0.9531
Total | 8890 9 987.777778 Root MSE = 6.808
-----------------------------------------------------------------------------------------------------
Y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+--------------------------------------------------------------------------------------
X1 | .9415373 .8228983 1.14 0.290 -1.004308 2.887383
X2 | -.0424345 .0806645 -0.53 0.615 -.2331757 .1483067
_cons | 24.77473 6.7525 3.67 0.008 8.807609 40.74186
-----------------------------------------------------------------------------------------------------
Multicolinealidad
 Definición: correlación elevada (pero no perfecta) entre
dos o más variables independientes.
 Detección: coefs. individualmente no significativos pero
la bondad del ajuste del modelo es buena.
 Implicancias:
 Los intervalos de confianza aumentan su tamaño, y
se dificulta el rechazo de la hipótesis nula que los
coeficientes son individualmente iguales a cero.
 Para inferencia, sin embargo, lo que importa es qué
tan grande sea 𝛽𝑗 respecto de su error estándar.
 No obstante, los estimadores MCO siguen siendo MELI.
Multicolinealidad
 Se puede demostrar que bajo los supuestos RLM.1 a
RLM.5, la varianza condicional de los estimadores de
MCO viene dada por la siguiente expresión:
donde Rj
2 es la proporción de la variación total en Xj
explicada por las demás variables independientes que
aparecen en el modelo.
Ver demostración 
(Teorema 3,2, JW)
Multicolinealidad
 Intuitivamente:
 A mayor variación en los factores inobservables,
menor precisión.
 A mayor variabilidad en X, mayor precisión.
 La variación en X aumenta con el tamaño de la
muestra.
 Cuanto mayor sea Rj
2, menor será la precisión.
Figura
Multicolinealidad
 En el ejemplo anterior:
 R2 de la regresión es elevado (0.963) pero los
coeficientes no son significativos individualmente.
 R2 de la regresión de X1 en X2 es igual a 0.998.
 Entonces, el factor de inflación de la varianza
(FIV) es igual a [1/(1 – Rj
2)] = 500
 Mide el aumento en 𝑉 𝛽𝑗 𝑿 atribuible a que las
variables no sean ortogonales.
 Algunos autores plantean que un FIV mayor a 5 (o
mayor a 10) indicaría problemas de multicolinealidad.
Stata
Stata
Regresión Auxiliar
Stata
Regresión Auxiliar
Stata
Regresión Auxiliar
Superando la Multicolinealidad
 Quizás no sea realmente un problema…
 Suponga el siguiente modelo:
 Si X2 y X3 están muy correlacionadas, la precisión
con la que estimamos a 𝛽2 y 𝛽3 se verá afectada.
 Sin embargo, si la variable de interés es X1, la
alta correlación entre X2 y X3 puede no ser un
problema.
𝑦 = 𝛽0 + 𝛽1𝑥1 + 𝛽2𝑥2 + 𝛽3𝑥3 + 𝜀
Superando la Multicolinealidad
 Quizás se pueda eliminar una variable….
 Esto rara vez suele ser una solución conveniente.
 Tal como lo discutimos en el contexto del MRL
múltiple, y lo revisaremos a continuación, eliminar
una variable pertinente o relevante puede resultar
muy contraproducente.
 ¿Por qué?
 Sesgo por variables omitidas.
Superando la Multicolinealidad
 Si fuera posible, utilizar más o nuevos datos.
 A veces resulta útil transformar a las variables, o
simplemente reescribir el modelo de manera distinta.
Por ejemplo, combinando variables.
 Conclusión:
 Incluir demasiadas variables puede reducir la
precisión de los estimadores, pero excluir variables
puede inducir importantes sesgos.
 Trade-off entre precisión y sesgo.
 No se viola ningún supuesto clave – los estimadores
MCO siguen siendo MELI.

Otros materiales