Logo Studenta

RegresiónLinealMúltiple3 Parte2

¡Este material tiene más páginas!

Vista previa del material en texto

Regresión lineal multiple
(Parte 2)
Prof. Holger Cevallos Valdiviezo
Suma de cuadrados extra
• Reducción extra o adicional en la suma cuadrática de los errores
asociada con la inclusión de una o varias variables predictoras, dado 
que otras ya se encuentran en el modelo
• Equivalentemente, la suma de cuadrados extra es el incremento
marginal en la suma cuadrática de regresión
Suma de cuadrados extra
• Sea 𝑆𝑆𝐸(𝑋1, 𝑋2) la suma cuadrática de los errores cuando 𝑋1 y 𝑋2 se 
encuentran en el modelo
• Sea 𝑆𝑆𝐸(𝑋1) la suma cuadrática de los errores cuando solo 𝑋1 se 
encuentra en el modelo
• Denotamos como 𝑆𝑆𝑅(𝑋2|𝑋1) a la suma de cuadrados extra, que se 
define como:
𝑆𝑆𝑅 𝑋2 𝑋1 = 𝑆𝑆𝐸 𝑋1 − 𝑆𝑆𝐸(𝑋1, 𝑋2)
o de forma equivalente:
𝑆𝑆𝑅 𝑋2 𝑋1 = 𝑆𝑆𝑅 𝑋1, 𝑋2 − 𝑆𝑆𝑅 𝑋1
Suma de cuadrados extra
• Denotamos como 𝑆𝑆𝑅(𝑋2|𝑋1) a la suma de cuadrados extra, que se define 
como:
𝑆𝑆𝑅 𝑋2 𝑋1 = 𝑆𝑆𝐸 𝑋1 − 𝑆𝑆𝐸(𝑋1, 𝑋2)
o de forma equivalente:
𝑆𝑆𝑅 𝑋2 𝑋1 = 𝑆𝑆𝑅 𝑋1, 𝑋2 − 𝑆𝑆𝑅 𝑋1
• La razón de la equivalencia entre la reducción marginal en la suma
cuadrática de los errores y el incremento marginal en la suma cuadrática de 
regresión es la siguiente identidad que proviene del análisis de varianza:
𝑆𝑆𝑇𝑂 = 𝑆𝑆𝑅 + 𝑆𝑆𝐸
Suma de cuadrados extra
• Podemos considerar suma de cuadrados extra de otro tipo:
𝑆𝑆𝑅 𝑋3 𝑋1, 𝑋2 = 𝑆𝑆𝐸 𝑋1, 𝑋2 − 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
o de forma equivalente:
𝑆𝑆𝑅 𝑋3 𝑋1, 𝑋2 = 𝑆𝑆𝑅 𝑋1, 𝑋2, 𝑋3 − 𝑆𝑆𝑅 𝑋1, 𝑋2
Suma de cuadrados extra
• Podemos considerar suma de cuadrados extra de otro tipo:
𝑆𝑆𝑅 𝑋2, 𝑋3 𝑋1 =
o de forma equivalente:
𝑆𝑆𝑅 𝑋2, 𝑋3 𝑋1 =
Descomposición de 𝑆𝑆𝑅 en suma de 
cuadrados extra
• En regresión lineal múltiple podemos obtener una variedad de descomposiciones
para 𝑆𝑆𝑅 en suma de cuadrados extra
𝑆𝑆𝑇𝑂 = 𝑆𝑆𝑅 𝑋1 + 𝑆𝑆𝐸 𝑋1
𝑆𝑆𝑇𝑂 = 𝑆𝑆𝑅 𝑋1 + 𝑆𝑆𝑅 𝑋2 𝑋1 + 𝑆𝑆𝐸 𝑋1, 𝑋2
ya que 𝑆𝑆𝑅 𝑋2 𝑋1 = 𝑆𝑆𝐸 𝑋1 − 𝑆𝑆𝐸(𝑋1, 𝑋2)
𝑆𝑆𝑇𝑂 = 𝑆𝑆𝑅 𝑋1, 𝑋2 + 𝑆𝑆𝐸 𝑋1, 𝑋2 .
Con esta expresión obtenemos:
𝑆𝑆𝑅 𝑋1, 𝑋2 = 𝑆𝑆𝑅 𝑋1 + 𝑆𝑆𝑅 𝑋2 𝑋1
Descomposición de 𝑆𝑆𝑅 en suma de 
cuadrados extra
𝑆𝑆𝑅 𝑋1, 𝑋2 = 𝑆𝑆𝑅 𝑋1 + 𝑆𝑆𝑅 𝑋2 𝑋1
Por tanto, podemos descomponer 𝑆𝑆𝑅 𝑋1, 𝑋2 en dos componentes
marginales:
• 𝑆𝑆𝑅 𝑋1 : mide la contribución de incluir 𝑋1 solo en el modelo
• 𝑆𝑆𝑅 𝑋2 𝑋1 : mide la contribución adicional cuando se incluye 𝑋2, 
dado que 𝑋1 ya se encuentra en el modelo
El orden de las variables 𝑋 es arbitrario:
𝑆𝑆𝑅 𝑋1, 𝑋2 = 𝑆𝑆𝑅 𝑋2 + 𝑆𝑆𝑅 𝑋1 𝑋2
Descomposición de 𝑆𝑆𝑅 en suma de 
cuadrados extra
• Cuando el modelo de regresión contiene tres variables, se pueden obtener
una variedad de descomposiciones para 𝑆𝑆𝑅 𝑋1, 𝑋2, 𝑋3 . Por ejemplo:
𝑆𝑆𝑅 𝑋1, 𝑋2, 𝑋3 = 𝑆𝑆𝑅 𝑋1 + 𝑆𝑆𝑅 𝑋2 𝑋1 + 𝑆𝑆𝑅 𝑋3 𝑋1, 𝑋2
𝑆𝑆𝑅 𝑋1, 𝑋2, 𝑋3 = 𝑆𝑆𝑅 𝑋2 + 𝑆𝑆𝑅 𝑋3 𝑋2 + 𝑆𝑆𝑅 𝑋1 𝑋2, 𝑋3
𝑆𝑆𝑅 𝑋1, 𝑋2, 𝑋3 = 𝑆𝑆𝑅 𝑋1 + 𝑆𝑆𝑅 𝑋2, 𝑋3 𝑋1
• El número de posibles decomposiciones se vuelve muy grande cuando se 
incrementa el número de variables predictoras 𝑋 en el modelo de 
regresión
Descomposición de 𝑆𝑆𝑅 en suma de 
cuadrados extra
Tabla ANOVA con la descomposición de 𝑆𝑆𝑅
• Podemos construir tablas ANOVA con descomposiciones de 𝑆𝑆𝑅 en
suma de cuadrados extra
• A continuación mostramos un ejemplo de tabla ANOVA con 
descomposición de 𝑆𝑆𝑅 para 3 variables predictoras 𝑋
Tabla ANOVA con la descomposición de 𝑆𝑆𝑅
• Note que cada suma de cuadrados extra que implica una variable 𝑋
extra tiene asociado un solo grado de libertad
• Podemos construir medias cuadráticas. Por ejemplo:
𝑀𝑆𝑅 𝑋2 𝑋1 =
𝑆𝑆𝑅 𝑋2 𝑋1
1
Tabla ANOVA con la descomposición de 𝑆𝑆𝑅
• Suma de cuadrados extra que implican dos variables 𝑋 extra tienen
asociado dos grados de libertad
• Podemos expresar una suma de cuadrados extra que implican dos variables 
𝑋 como una suma de dos sumas de cuadrados extra, cada una asociada
con un grado de libertad
• Por ejemplo:
𝑆𝑆𝑅 𝑋2, 𝑋3 𝑋1 = 𝑆𝑆𝑅 𝑋2 𝑋1 + 𝑆𝑆𝑅 𝑋3 𝑋1, 𝑋2
• La media cuadrática se obtiene por ende como:
𝑀𝑆𝑅 𝑋2, 𝑋3 𝑋1 =
𝑆𝑆𝑅 𝑋2, 𝑋3 𝑋1
2
Tabla ANOVA con la descomposición de 𝑆𝑆𝑅
• La razón por la cual las sumas de cuadrados extra son de interés es 
porque son de uso en una variedad de pruebas de hipótesis para los 
coeficientes de regresión
• En estas pruebas se investiga si ciertas variables 𝑋 pueden ser 
removidas del modelo de regresión
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
• Prueba de hipótesis para 𝛽𝑘:
𝐻0: 𝛽𝑘 = 0
𝐻𝑎: 𝛽𝑘 ≠ 0
• Sabemos que bajo 𝐻0 el siguiente estadístico de prueba es correcto
para esta prueba:
𝑡∗ =
𝐵𝑘
𝑠 𝐵𝑘
• De manera equivalente, podemos usar el enfoque de prueba lineal 
general (ver RegresionLinealSimple2.ppt)
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
• El enfoque de prueba lineal general implica una suma de cuadrados extra
• Consideremos el siguiente modelo de regresión de primer orden con tres variables 
predictoras:
𝑌𝑖 = 𝛽0 + 𝛽1𝑥𝑖1 + 𝛽2𝑥𝑖2 + 𝛽3𝑥𝑖3 + 𝜀𝑖
(Full model o modelo completo)
• Para probar si:
𝐻0: 𝛽3 = 0
𝐻𝑎: 𝛽3 ≠ 0
usando el enfoque de prueba lineal general, una opción es ajustar el modelo completo y 
luego ajustar el modelo reducido:
𝑌𝑖 = 𝛽0 + 𝛽1𝑥𝑖1 + 𝛽2𝑥𝑖2 + 𝜀𝑖
(Modelo reducido)
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
• Al ajustar el modelo completo, obtenemos la suma cuadrática de los 
errores 𝑆𝑆𝐸(𝐹):
𝑆𝑆𝐸 𝐹 = 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
con 𝑑𝑓𝐹 = 𝑛 − 4 grados de libertad asociados
• Al ajustar el modelo reducido, bajo 𝐻0, obtenemos:
𝑆𝑆𝐸 𝑅 = 𝑆𝑆𝐸 𝑋1, 𝑋2
con 𝑑𝑓𝑅 = 𝑛 − 3 grados de libertad asociados
• El estadístico de prueba lineal general definido anteriormente es:
𝐹∗ =
𝑆𝑆𝐸 𝑅 − 𝑆𝑆𝐸(𝐹)
𝑑𝑓𝑅 − 𝑑𝑓𝐹
÷
𝑆𝑆𝐸(𝐹)
𝑑𝑓𝐹
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
• El estadístico de prueba lineal general definido anteriormente es:
𝐹∗ =
𝑆𝑆𝐸 𝑅 − 𝑆𝑆𝐸(𝐹)
𝑑𝑓𝑅 − 𝑑𝑓𝐹
÷
𝑆𝑆𝐸(𝐹)
𝑑𝑓𝐹
• Para nuestra prueba se convierte en:
𝐹∗ =
𝑆𝑆𝐸 𝑋1, 𝑋2 − 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 3) − (𝑛 − 4)
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 4)
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
𝐹∗ =
𝑆𝑆𝐸 𝑋1, 𝑋2 − 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 3) − (𝑛 − 4)
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 4)
• El estadístico de prueba lineal general implica suma de cuadrados extra. Note que la 
diferencia en el numerador implica una suma de cuadrados extra ya que:
𝑆𝑆𝑅 𝑋3 𝑋1, 𝑋2 = 𝑆𝑆𝐸 𝑋1, 𝑋2 − 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
Por lo que podemos reescribir el estadístico de prueba lineal general como:
𝐹∗ =
𝑆𝑆𝑅 𝑋3 𝑋1, 𝑋2
1
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 4)
=
𝑀𝑆𝑅 𝑋3 𝑋1, 𝑋2
𝑀𝑆𝐸 𝑋1, 𝑋2, 𝑋3
• Por tanto, no es necesario ajustar el modelo completo y el modelo reducido si el paquete
estadístico usado por el usuario puede proveer el ajuste del modelo completo y la suma
de cuadrados extra apropiada
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
𝐹∗ =
𝑆𝑆𝐸 𝑋1, 𝑋2 − 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 3) − (𝑛 − 4)
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 4)
• Por tanto, la prueba sobre 𝛽3 = 0 o 𝛽3 ≠ 0 es una prueba marginal, dado 
que 𝑋1 y 𝑋2 se encuentran ya en el modelo
• A este estadístico de prueba para probar si 𝛽3 = 0 o no, es llamado
“estadístico de prueba 𝐹 parcial”, para distinguirlo del estadístico de 
prueba 𝐹∗ =
𝑀𝑆𝑅
𝑀𝑆𝐸
(prueba 𝐹 general) que prueba si todos los 𝛽𝑘 = 0 o no, 
i.e. si hay una relación de regresión entre 𝑌 y el conjunto de variables 
predictoras 𝑋 o no
• El estadístico de prueba 𝐹 parcial es equivalente al estadístico de prueba
𝑡∗, ya que 𝐹∗ = 𝑡∗ 2
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión• En regresión múltiple estamos a menudo interesados en investigar si
algunos términos del modelo de regresión deberían ser removidos
• Por ejemplo, podríamos investigar si 𝛽2𝑥2 y 𝛽3𝑥3 deberían ser 
removidos del modelo completo:
𝑌𝑖 = 𝛽0 + 𝛽1𝑥𝑖1 + 𝛽2𝑥𝑖2 + 𝛽3𝑥𝑖3 + 𝜀𝑖
• Modelo reducido (bajo 𝐻0):
𝑌𝑖 = 𝛽0 + 𝛽1𝑥𝑖1 + 𝜀𝑖
• Prueba de hipótesis:
𝐻0: 𝛽2 = 𝛽3 = 0
𝐻𝑎: 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑒𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑡𝑒 𝑑𝑒 𝑐𝑒𝑟𝑜
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
• Modelo reducido (bajo 𝐻0):
𝑌𝑖 = 𝛽0 + 𝛽1𝑥𝑖1 + 𝜀𝑖
• Prueba de hipótesis:
𝐻0: 𝛽2 = 𝛽3 = 0
𝐻𝑎: 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑒𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑡𝑒 𝑑𝑒 𝑐𝑒𝑟𝑜
• Al ajustar el modelo reducido, obtenemos:
𝑆𝑆𝐸 𝑅 = 𝑆𝑆𝐸 𝑋1
con 𝑑𝑓𝑅 = 𝑛 − 2 grados de libertad asociados
• El estadístico de prueba lineal general para esta prueba es:
𝐹∗ =
𝑆𝑆𝐸 𝑋1 − 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 2) − (𝑛 − 4)
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 4)
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
• El estadístico de prueba lineal general para esta prueba es:
𝐹∗ =
𝑆𝑆𝐸 𝑋1 − 𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 2) − (𝑛 − 4)
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 4)
Escrito en términos de suma de cuadrados extra tenemos:
𝐹∗ =
𝑆𝑆𝑅 𝑋2, 𝑋3 𝑋1
2
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, 𝑋3
(𝑛 − 4)
=
𝑀𝑆𝑅 𝑋2, 𝑋3 𝑋1
𝑀𝑆𝐸 𝑋1, 𝑋2, 𝑋3
Uso de las sumas de cuadrado extra en pruebas de 
hipótesis para coeficientes de regresión
• Para probar si un solo 𝛽𝑘 es igual a cero o no, disponemos de dos 
estadísticos de prueba: el estadístico de prueba 𝑡∗ y el estadístico de 
prueba lineal general 𝐹∗
• Para probar si varios 𝛽𝑘 son iguales a cero o no, disponemos
únicamente del estadístico de prueba lineal general 𝐹∗
Resumen de Pruebas concernientes a 
coeficientes de regresión
• Probar si todos los 𝛽𝑘 = 0 o no
Esta es la prueba 𝐹 general si existe o no relación de regresión entre la 
variable de respuesta 𝑌 y el conjunto de variables predictoras 𝑋. Las 
hipótesis son:
𝐻0: 𝛽1 = 𝛽2 = ⋯ = 𝛽𝑝−1 = 0
𝐻𝑎: 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝛽𝑘 𝑘 = 1,⋯ , 𝑝 − 1 𝑒𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑡𝑒 𝑑𝑒 𝑐𝑒𝑟𝑜
El estadístico de prueba es:
𝐹∗ =
𝑆𝑆𝑅 𝑋1, 𝑋2, ⋯ , 𝑋𝑝−1
𝑝 − 1
÷
𝑆𝑆𝐸 𝑋1, 𝑋2, ⋯ , 𝑋𝑝−1
𝑛 − 𝑝
=
𝑀𝑆𝑅
𝑀𝑆𝐸
Bajo 𝐻0, 𝐹
∗~ 𝐹 𝑝 − 1, 𝑛 − 𝑝 . Valores grandes de 𝐹∗ dan soporte a 𝐻𝑎
Resumen de Pruebas concernientes a 
coeficientes de regresión
• Probar si un 𝛽𝑘 = 0 o no
Esta es la prueba 𝐹 parcial si un coeficiente de regresión particular 𝛽𝑘 es 
igual a cero o no. Las hipótesis son:
𝐻0: 𝛽𝑘 = 0
𝐻𝑎: 𝛽𝑘 ≠ 0
El estadístico de prueba es:
𝐹∗ =
𝑆𝑆𝑅 𝑋𝑘|𝑋1, ⋯ , 𝑋𝑘−1, 𝑋𝑘+1, ⋯ , 𝑋𝑝−1
1
÷
𝑆𝑆𝐸 𝑋1, ⋯ , 𝑋𝑝−1
𝑛 − 𝑝
=
𝑀𝑆𝑅 𝑋𝑘|𝑋1, ⋯ , 𝑋𝑘−1, 𝑋𝑘+1, ⋯ , 𝑋𝑝−1
𝑀𝑆𝐸
Bajo 𝐻0, 𝐹
∗~ 𝐹 1, 𝑛 − 𝑝 . Valores grandes de 𝐹∗ dan soporte a 𝐻𝑎
Resumen de Pruebas concernientes a 
coeficientes de regresión
• Probar si un 𝛽𝑘 = 0 o no
El estadístico de prueba 𝑡∗ es equivalente al estadístico de prueba
𝐹 parcial:
𝑡∗ =
𝐵𝑘
𝑠 𝐵𝑘
Bajo 𝐻0, 𝑡
∗~ 𝑡 𝑛 − 𝑝 . Valores grandes de 𝑡∗ dan soporte a 𝐻𝑎
Resumen de Pruebas concernientes a 
coeficientes de regresión
• Probar si algunos 𝛽𝑘 = 0 o no
Esta es otra prueba 𝐹 parcial. En este caso las hipótesis son:
𝐻0: 𝛽𝑞 = 𝛽𝑞+1 = ⋯ = 𝛽𝑝−1 = 0
𝐻𝑎: 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝛽𝑘 𝑒𝑛 𝐻0 𝑒𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑡𝑒 𝑑𝑒 𝑐𝑒𝑟𝑜
El estadístico de prueba es:
𝐹∗ =
𝑆𝑆𝑅 𝑋𝑞 , ⋯ , 𝑋𝑝−1|𝑋1,⋯ , 𝑋𝑞−1
𝑝 − 𝑞
÷
𝑆𝑆𝐸 𝑋1, ⋯ , 𝑋𝑝−1
𝑛 − 𝑝
=
𝑀𝑆𝑅 𝑋𝑞 , ⋯ , 𝑋𝑝−1|𝑋1,⋯ , 𝑋𝑞−1
𝑀𝑆𝐸
Bajo 𝐻0, 𝐹
∗~ 𝐹 𝑝 − 𝑞, 𝑛 − 𝑝 . Valores grandes de 𝐹∗ dan soporte a 𝐻𝑎
• Note que este estadístico de prueba abarca los dos casos anteriores. Si 𝑞 = 1, la prueba
es si todos los coeficientes de regresión son iguales a cero o no. Si 𝑞 = 𝑝 − 1, la prueba
es si un solo coeficiente de regresión es igual a cero o no
Multicolinealidad
• Muy a menudo, en aplicaciones de negocios, economía, ciencias sociales y 
biología, las variables predictoras tienden a estar correlacionadas entre 
ellas y con otras variables que se relacionan también con la variable de 
respuesta, pero que no se encuentran en el modelo
• Por ejemplo, en un problema de regresión en el que se trata de explicar el 
gasto familiar en comida usando las variables explicativas: ingreso familiar, 
ahorro familiar, edad del (de la) jefe del hogar. Estas variables explicativas
van a estar correlacionadas. Además, estas variables explicativas van a 
estar correlacionadas con otras variables socioeconómicas, que no se 
encuentran en el modelo, pero que afectan la variable gasto familiar en
comida. Por ejemplo, tamaño de la familia
• Cuando las variables predictoras se encuentran correlacionadas entre ellas, 
se dice que existe multicolinealidad
Multicolinealidad
• Ejemplo: efecto del tamaño del equipo de trabajo (𝑋1) y el nivel de 
pago de bonificaciones (𝑋2) en la productividad del equipo (𝑌)
Multicolinealidad
• Ejemplo: efecto del tamaño del equipo de trabajo (𝑋1) y el nivel de 
pago de bonificaciones (𝑋2) en la productividad del equipo (𝑌)
Multicolinealidad
• Consideremos un modelo de regression lineal de primer orden
• Cuando no existe correlación entre las variables predictoras
consideradas, los efectos atribuídos a ellas son los mismos sin 
importar, sin importar cual de las otras variables predictoras estén
incluídas en el modelo
• Cuando no existe correlación entre las variables predictoras
consideradas, la contribución marginal de una variable predictora
para reducir suma cuadrática de error cuando las otras variables 
están en el modelo es exactamente la misma que cuando esta
variable predictora se encuentra en el modelo sóla
• Esto es posible diseñar en experimentos controlados
Multicolinealidad
• Ejemplo: dos variables predictoras perfectamente correlacionadas, 
que no contienen componente del error aleatorio
Multicolinealidad
• Ejemplo: dos variables predictoras perfectamente correlacionadas que no contienen componente
del error aleatorio
• A una persona se le pidió ajustar la función de regresión múltiple de primer orden:
𝐸 𝑌 = 𝛽0 + 𝛽1𝑥1 + 𝛽2𝑥2
Esta persona regresión con la función de respuesta ajustada:
෠𝑌 = −87 + 𝑥1 + 18𝑥2
Esta persona se sentía orgullosa con su modelo, ya que la función de respuesta estimada se ajustaba
perfectamente a los datos
• Otra persona estimó también la función de respuesta en estos mismos datos y obtuvo:
෠𝑌 = −7 + 9𝑥1 + 2𝑥2
la cual también se ajustaba perfectamente a los datos
• Efectivamente, un número infinito de funciones de respuesta se ajustarán perfectamente a los 
datos. La razón es que las variables predictoras 𝑥1 y 𝑥2 se encuentran perfectamente
relacionadas, de acuerdo a la siguiente relación:
𝑥2 = 5 + 0.5𝑥1
Multicolinealidad
• Ejemplo: dos variables predictoras perfectamente correlacionadas
Las dos funciones de respuesta tienen los mismos valores ajustados solo 
cuando se intersectan
Multicolinealidad
• Ejemplo: dos variables predictoras perfectamente correlacionadas
que no contienen componente del error aleatorio
• Por tanto, cuando 𝑥1 y 𝑥2 están perfectamente relacionadas y, como
en este ejemplo, los datos no contienen componente de error 
aleatorio, algunas funciones de respuesta diferentes resultarán en los 
mismos valores ajustados perfectamente para las observaciones y en
los mismos valores ajustados para cualquier otra combinación
(𝑥1, 𝑥2) que siga la relación entre 𝑥1 y 𝑥2
• Sin embargo, estas funciones de respuesta no son las mismas y 
conllevarán a diferentes valores ajustados para combinaciones de 
valores 𝑥1 y 𝑥2 que no sigan la relación entre 𝑥1 y 𝑥2
Multicolinealidad
• Ejemplo: dos variables predictoras perfectamente correlacionadas
que no contienen componente del error aleatorio
• La relacion perfecta entre 𝑥1 y 𝑥2 no inhibió nuestra habilidadpara 
obtener un buen ajuste en nuestros datos (descripción), ni tiende a 
afectar inferencias sobre medias condicionales o predicciones de 
nuevas observaciones, siempre y cuando estas inferencias se hagan
dentro de la región de observaciones
• Ya que algunas funciones de respuesta dan el mismo ajuste perfecto, 
no es posible hacer interpretaciones sobre efectos y sobre la 
importancia de estos efectos (qué variable es más importante)
Efectos de la Multicolinealidad
• En la práctica, rara vez encontramos casos con variables predictoras
perfectamente relacionadas, o datos que no contienen algún
componente de error aleatorio
• Los coeficientes de regresión estimado tienden a tener una varibilidad
muestral mayor cuando los predictores se encuentran altamente
correlacionados
• Por tanto, los coeficientes de regresión estimados tienden a variar
mucho de una muestra a otra
• Como consecuencia, algunos de los coeficientes de regresión
estimados individualmente podrían resultar no significativos, incluso
si existe, en efecto, una relación estadística entra la variable de 
respuesta y este conjunto de variables predictoras
Efectos de la Multicolinealidad
• La interpretación de un coeficiente de regresión que mide el cambio
en el valor esperado de la variable de respuesta cuando la variable 
predictora se incrementa en una unidad, mientras que las otras
variables predictoras se mantienen constantes, no es applicable 
completamente cuando existe multicolinealidad
• Por ejemplo, en un modelo de regresión para predecir niveles de 
cosecha en base a la cantidad de precipitación y en base a las horas 
de sol, la relación entre las dos variables predictoras hace poco
realista considerer variar una manteniendo a la otra constante
• Por tanto, la interpretación sencilla de los coeficientes de regresión de 
medir efectos marginales no se garantiza con variables predictoras
altamente correlacionadas
Multicolinealidad
• Multicolinealidad también aparece cuando consideramos
interacciones entre variables predictoras, o términos polinómicos
cuadráticos, cúbicos,…
• Estos son temas a ver en este curso…
• Una práctica muy común para reducir los efectos de multicolinealidad
es el de centrar las variables predictoras

Más contenidos de este tema