Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Pontificia Universidad Católica de Chile Instituto de Economía Econometría I – EAE 250A Juan Ignacio Urquiza – Segundo Semestre 2019 Multicolinealidad Motivación – Significancia Global vs. Individual Source | SS df MS Number of obs = 10 -------------+------------------------------------------- F( 2, 7) = 92.40 Model | 8565.55407 2 4282.77704 Prob > F = 0.0000 Residual | 324.445926 7 46.349418 R-squared = 0.9635 -------------+------------------------------------------- Adj R-squared = 0.9531 Total | 8890 9 987.777778 Root MSE = 6.808 ----------------------------------------------------------------------------------------------------- Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+-------------------------------------------------------------------------------------- X1 | .9415373 .8228983 1.14 0.290 -1.004308 2.887383 X2 | -.0424345 .0806645 -0.53 0.615 -.2331757 .1483067 _cons | 24.77473 6.7525 3.67 0.008 8.807609 40.74186 ----------------------------------------------------------------------------------------------------- Multicolinealidad Definición: correlación elevada (pero no perfecta) entre dos o más variables independientes. Detección: coefs. individualmente no significativos pero la bondad del ajuste del modelo es buena. Implicancias: Los intervalos de confianza aumentan su tamaño, y se dificulta el rechazo de la hipótesis nula que los coeficientes son individualmente iguales a cero. Para inferencia, sin embargo, lo que importa es qué tan grande sea 𝛽𝑗 respecto de su error estándar. No obstante, los estimadores MCO siguen siendo MELI. Multicolinealidad Se puede demostrar que bajo los supuestos RLM.1 a RLM.5, la varianza condicional de los estimadores de MCO viene dada por la siguiente expresión: donde Rj 2 es la proporción de la variación total en Xj explicada por las demás variables independientes que aparecen en el modelo. Ver demostración (Teorema 3,2, JW) Multicolinealidad Intuitivamente: A mayor variación en los factores inobservables, menor precisión. A mayor variabilidad en X, mayor precisión. La variación en X aumenta con el tamaño de la muestra. Cuanto mayor sea Rj 2, menor será la precisión. Figura Multicolinealidad En el ejemplo anterior: R2 de la regresión es elevado (0.963) pero los coeficientes no son significativos individualmente. R2 de la regresión de X1 en X2 es igual a 0.998. Entonces, el factor de inflación de la varianza (FIV) es igual a [1/(1 – Rj 2)] = 500 Mide el aumento en 𝑉 𝛽𝑗 𝑿 atribuible a que las variables no sean ortogonales. Algunos autores plantean que un FIV mayor a 5 (o mayor a 10) indicaría problemas de multicolinealidad. Stata Stata Regresión Auxiliar Stata Regresión Auxiliar Stata Regresión Auxiliar Superando la Multicolinealidad Quizás no sea realmente un problema… Suponga el siguiente modelo: Si X2 y X3 están muy correlacionadas, la precisión con la que estimamos a 𝛽2 y 𝛽3 se verá afectada. Sin embargo, si la variable de interés es X1, la alta correlación entre X2 y X3 puede no ser un problema. 𝑦 = 𝛽0 + 𝛽1𝑥1 + 𝛽2𝑥2 + 𝛽3𝑥3 + 𝜀 Superando la Multicolinealidad Quizás se pueda eliminar una variable…. Esto rara vez suele ser una solución conveniente. Tal como lo discutimos en el contexto del MRL múltiple, y lo revisaremos a continuación, eliminar una variable pertinente o relevante puede resultar muy contraproducente. ¿Por qué? Sesgo por variables omitidas. Superando la Multicolinealidad Si fuera posible, utilizar más o nuevos datos. A veces resulta útil transformar a las variables, o simplemente reescribir el modelo de manera distinta. Por ejemplo, combinando variables. Conclusión: Incluir demasiadas variables puede reducir la precisión de los estimadores, pero excluir variables puede inducir importantes sesgos. Trade-off entre precisión y sesgo. No se viola ningún supuesto clave – los estimadores MCO siguen siendo MELI.
Compartir