Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Autocorrelación Luis Frank Depto. Métodos Cuantitativos Facultad de Agronoḿıa Universidad de Buenos Aires Mayo, 2022 Definición de autocorrelación o correlación serial en el error Definición. Es la presencia de elementos interdependientes en el vector ϵ, aún cuando todos los elementos sean idénticamente distribuidos. En otras palabras, cov(ϵi , ϵi ′) ̸= 0. Causas de la autocorrelación ▶ Especificación incorrecta del modelo por omisión de variables relevantes. ▶ Especificación incorrecta de la forma funcional del modelo. ▶ Respuesta rezagada de algunas variables económicas. ▶ Manipulación de datos, como promediado, interpolación o extrapolación. Consecuencias ▶ Posible sesgo de estimación, es decir, E (bOLS) ̸= β ▶ Pérdida de eficiencia en la estimación de β Detección de autocorrelación Ejemplo. supongamos que ajustamos el siguiente modelo a un conjunto de datos yi = β0 + β1xi + ϵi donde ϵi ∼ N(0, σ2), Los residuos revelan un patrón de autocorrlación atribuible a (a) algún tipo de manipulación de los datos, e.g. media movil; (b) mala especificación del error, ya que cov(ϵi , ϵi ′) ̸= 0; (c) forma funcional incorrecta, ya que en verdad debeŕıa ser cuadrática, exponencial, etc. Autocorrelación de primer orden En presencia de autocorrelación en el error el verdadero modelo es y = Xβ + ϵ ϵ ∼ N(0, σ2Ω) Para el caso particular de autocorrelación de primer orden, el modelo expresado en forma escalar es yi = β1 + β2 xi2 + · · ·+ βk xik + ϵi ϵi = ρ ϵi−1 + νi νi ∼ N(0, σ2ν) y cov(νi , νi ′) = 0 Notemos que, dada la relación de recurrencia entre valores consecutivos de ϵ, en i-ésimo valor puede escribirse como ϵi = ρ ϵi−1 + νi ϵi = ρ (ρ ϵi−2 + νi−1) + νi = ρ 2ϵi−2 + ρ νi−1 + νi ... Autocorrelación de primer orden (cont.) Extendiendo la sustitución anterior hasta el término ϵi−p llegamos a la expresión general ϵi = ρ pϵi−p + p−1∑ j=0 ρjνi−j (1) Luego, tomando ĺımites para p → ∞ en ambos lados de la igualdad lim p→∞ ϵi = lim p→∞ ρpϵi−p + lim p→∞ p−1∑ j=0 ρjνi−j = ∞∑ j=0 ρjνi−j y asumiendo que |ρ| < 1 var(ϵi ) = ∞∑ j=0 ρ2j var(νi−j) = σ2ν 1− ρ2 (2) Autocorrelación de primer orden (cont.) Por otra parte, a partir de la ecuación (1) se deduce también que cov(ϵi , ϵi−p) = cov ρpϵi−p + p−1∑ j=0 ρjνi−j , ϵi−p = ρpσ2 (3) ya que cov(νi−j , ϵi−p) = 0 para todo p > j . Finalmente, utilizando todos estos resultados σ2Ω = σ2ν 1− ρ2 1 ρ ρ2 . . . ρn−1 ρ 1 ρ . . . ... ρ2 . . . . . . . . . ρ2 ... . . . . . . . . . ρ ρn−1 . . . ρ2 ρ 1 (4) Detección de autocorrelación Prueba de rachas. El test de rachas se fundamenta en la distribución teórica que tendŕıa la cantidad de valores positivos o negativos consecutivos en los residuos OLS, si éstos fueran independientes. El estad́ıstico de prueba es K , cuyos parámetros son µK = 2 (n1n2) (n1 + n2) + 1 y σ2K = 2 (n1n2)(2n1n2 − n1 − n2) (n1 + n2)2(n1 + n2 − 1) (5) donde K es la cantidad de rachas, n1 es la cantidad de residuos positivos y n2 es la cantidad de residuos negativos. Luego, el intervalo de probabilidad del número de rachas K bajo H0 de ausencia de autocorrelación es P [µK − 1, 96σK < K < µK + 1, 96σK ] = 1− α La aproximación normal es válida para n1, n2 > 10. En caso contrario se debe recurrir a tablas de probabilidad exactas . Detección de autocorrelación (cont.) Ejemplo (Prueba de rachas) Los residuos de una regresión de 24 valores son Del recuento surge que n1 = 13 y n2 = 11 y la cantidad de recahas es k = 14. Luego, µK = 2 (13× 11) 24 + 1 = 12, 92 σ2K = 286 (286− 24) 242(24− 1) = 5, 66 Los ĺımites del intervalo son 8,26 y 17,58. En consecuencia no rechazamos la hipótesis nula. Nro. ei Nro. ei 1 0,22 13 -0,18 2 0,18 14 0,16 3 -0,58 15 -0,11 4 0,20 16 0,00 5 0,16 17 -0,08 6 -0,34 18 -0,40 7 0,36 19 -0,27 8 0,15 20 0,34 9 0,38 21 -0,09 10 0,13 22 -0,24 11 0,48 23 0,22 12 -0,29 24 -0,40 Detección de autocorrelación (cont.) Prueba de Durbin-Watson. La hipótesis nula de esta prueba es “los errores no presentan autocorrelación de orden 1.” El estad́ıstico de prueba es d = ∑n i=2(ei − ei−1)2∑n i=1 e 2 i = 2 (1− r)− e 2 1 + e 2 n∑n i=1 e 2 i (6) El estad́ıstico calculado se compara con los estad́ısticos cŕıticos dL y dU, y se sigue la siguiente regla de decisión: ▶ si 0 < d < dL hay evidencia de autocorrelación positiva ▶ si dL < d < dU indesición ▶ si dU < d < 4− dU no hay autocorrelación ▶ si 4− dU < d < 4− dL indecisión ▶ si 4− dL < d < 4 hay evidencia de autocorrelación negativa Detección de autocorrelación (cont.) ▶ El estad́ıstico r es el coeficiente de autocorrelación de primer orden. Con muestras “suficientemente grandes” el segundo término del lado derecho es despreciable de modo que d ≈ 2 (1− r) siendo r = ∑n i=2 eiei−1∑n i=1 e 2 i (7) Detección de autocorrelación (cont.) ▶ El estad́ıstico Durbin-Watson no es válido para regresiones con valores rezagados de la variable dependiente, o regresores estocásticos en general. ▶ Si la muestra es suficientemente grande, el estad́ıstico DW se distribuye aproximadamente √ n ( 1− 1 2 d ) ≈ N(0, 1) (8) Ejemplo (Durbin-Watson). Calculamos el estad́ıstico DW con los mismo residuos del ejemplo anterior. d = (0, 18− 0, 22)2 + · · ·+ (−0, 4− 0, 22)2 0, 222 + · · ·+ (−0, 4)2 = 2, 24. Los ĺımites de DW para α = 0, 05 y k − 1 = 3 (k=cantidad de regresores) grados de libertad son dL = 1, 101 y dU = 1, 656 por lo cual no rechazamos H0. Detección de autocorrelación (cont.) Prueba de Breusch-Godfrey. Este test presenta la ventaja de que permite probar hipótesis sobre la existencia de autocorrelación de orden p. El protocolo de prueba es el siguiente: (1) Planteamos el modelo y = Xβ + ϵ donde el error sigue un proceso autorregresivo de orden p o AR(p) . ϵi = ρ1 ϵi−1 + ρ2 ϵi−2 + ρ3 ϵi−3 + · · ·+ ν con ν ∼ N(0, σ2ν) (2) Planteamos la regresión auxiliar yi = β0 + β1 xi1 + · · ·+ βk xik + ρ1 ϵi−1 + ρ2 ϵi−2 + · · ·+ ν (3) Calculamos el estad́ıstico R2 de esta regresión reemplazando los errores por los correspondientes residuos. (4) Ponemos a prueba la hipótesis nula H0: ρi = 0 (para todo i) mediante el estad́ıstico (n − p)R2, el que se distribuye χ2(p) donde p es el orden del proceso AR e igual a la cantidad de rezagos de los residuales. Detección de autocorrelación (cont.) Prueba de Ljung-Box Esta prueba se basa en la prueba Q de Box-Pierce y es asintóticamente equivalente a la prueba de Breusch-Godfrey. El estad́ıstico de prueba es Q = n (n + 2) p∑ j=1 r2j n − j donde rj = ∑n i=j+1 eiei−j∑n i=1 e 2 i . (9) Bajo H0 (ausencia de autocorrelación) Q se distribuye χ 2 (p). Ejemplo (Ljung-Box) Con los residuos del ejemplo anterior calculamos Q para probar autocorrelación de orden p = 2. r1 = (0, 18× 0, 22) + · · ·+ (−0, 4× 0, 22) 0, 222 + · · ·+ (−0, 4)2 = −0, 18 r2 = (−0, 58× 0, 22) + · · ·+ [−0, 4× (−0, 24)] 0, 222 + · · ·+ (−0, 4)2 = −0, 08 Q = 24 (24 + 2) [ (−0, 18)2 24− 1 + (−0, 08)2 24− 2 ] = 0, 99 << χ2(2) = 5, 99 Medidas remediales ▶ Si la estructura de autocorrelación es conocida, es decir que cov(ϵ) = Ω es conocida, podemos estimar insesgada, eficiente y consistentemente β por GLS. ▶ Si la estructura de autocorrelación es desconocida, Ω debe ser estimada consistentemente y reemplazada por su estimador Ω̂ en el estimador MCG al que ahora llamamos GLS “factible”. Estimador de Cochrane-Orcutt. Se trata de un estimador iterativo que permite estimar Ω(ρ) consistentemente. El protocolo es el siguiente. (1) Calculamos b = (X′X)−1X′y y los residuales e = y− Xb. (2) Estimamos ρ1, . . . , ρp mediante la regresión auxiliar ei = ρ1ei−1 + · · ·+ ρpei−p + ν con ν ∼ N(0, σ2ν) Medidas remediales (cont.) (3) Reestimamos los βj mediante yi − p∑ h=1 ρ̂hyi−h = β1 ( 1− p∑ h=1 ρ̂h ) + β2 ( xi2 − p∑ h=1 ρ̂hxi−h,2 ) + +β3 ( xi3 − p∑ h=1 ρ̂hxi−h,3 ) + · · ·+ ν con ν ∼ N(0, σ2ν) (4) Obtenemos nuevos residuales con el vector b estimado en el paso (3) y las matricesX e y originales. (5) Calculamos nuevos ρ̂1, . . . , ρ̂p. Si la máxima diferencia entre ρ̂m es menor a δ = 0, 001, paramos; si no, volvemos a (3). (6) Finalmente, calculamos var .est(b) con el último vector b obtenido. Modelos autorregresivos de heteroscedasticidad condicional (ARCH) Algunas pruebas de autocorrelación (e.g. Durbin-Watson) son inválidas ante la presencia de una estructura del error ARCH. Ésta es una estructura de autocorrelación similar a la anterior, pero en la varianza de los ϵi . Para probar la presencia de una estructura ARCH planteamos la regresión auxiliar e2i = ρ0 + ρ1e 2 i−1 + · · ·+ ρpe2i−p + ν con ν ∼ N(0, σ2ν) y calculamos su R2. Bajo la hipótesis nula, nR2 ∼ χ2(p). conviene realizar esta prueba antes de probar correlación seriel del error. Definición de autocorrelación
Compartir