Logo Studenta

Autocorrelação e suas consequências

¡Este material tiene más páginas!

Vista previa del material en texto

Autocorrelación
Luis Frank
Depto. Métodos Cuantitativos
Facultad de Agronoḿıa
Universidad de Buenos Aires
Mayo, 2022
Definición de autocorrelación o correlación serial en el error
Definición. Es la presencia de elementos interdependientes en el
vector ϵ, aún cuando todos los elementos sean idénticamente
distribuidos. En otras palabras, cov(ϵi , ϵi ′) ̸= 0.
Causas de la autocorrelación
▶ Especificación incorrecta del modelo por omisión de variables
relevantes.
▶ Especificación incorrecta de la forma funcional del modelo.
▶ Respuesta rezagada de algunas variables económicas.
▶ Manipulación de datos, como promediado, interpolación o
extrapolación.
Consecuencias
▶ Posible sesgo de estimación, es decir, E (bOLS) ̸= β
▶ Pérdida de eficiencia en la estimación de β
Detección de autocorrelación
Ejemplo. supongamos que ajustamos el siguiente modelo a un
conjunto de datos
yi = β0 + β1xi + ϵi donde ϵi ∼ N(0, σ2),
Los residuos revelan un patrón de autocorrlación atribuible a
(a) algún tipo de manipulación de los datos, e.g. media movil;
(b) mala especificación del error, ya que cov(ϵi , ϵi ′) ̸= 0;
(c) forma funcional incorrecta, ya que en verdad debeŕıa ser
cuadrática, exponencial, etc.
Autocorrelación de primer orden
En presencia de autocorrelación en el error el verdadero modelo es
y = Xβ + ϵ ϵ ∼ N(0, σ2Ω)
Para el caso particular de autocorrelación de primer orden, el
modelo expresado en forma escalar es
yi = β1 + β2 xi2 + · · ·+ βk xik + ϵi
ϵi = ρ ϵi−1 + νi νi ∼ N(0, σ2ν) y cov(νi , νi ′) = 0
Notemos que, dada la relación de recurrencia entre valores
consecutivos de ϵ, en i-ésimo valor puede escribirse como
ϵi = ρ ϵi−1 + νi
ϵi = ρ (ρ ϵi−2 + νi−1) + νi = ρ
2ϵi−2 + ρ νi−1 + νi
...
Autocorrelación de primer orden (cont.)
Extendiendo la sustitución anterior hasta el término ϵi−p llegamos
a la expresión general
ϵi = ρ
pϵi−p +
p−1∑
j=0
ρjνi−j (1)
Luego, tomando ĺımites para p → ∞ en ambos lados de la igualdad
lim
p→∞
ϵi = lim
p→∞
ρpϵi−p + lim
p→∞
p−1∑
j=0
ρjνi−j =
∞∑
j=0
ρjνi−j
y asumiendo que |ρ| < 1
var(ϵi ) =
∞∑
j=0
ρ2j var(νi−j) =
σ2ν
1− ρ2
(2)
Autocorrelación de primer orden (cont.)
Por otra parte, a partir de la ecuación (1) se deduce también que
cov(ϵi , ϵi−p) = cov
ρpϵi−p + p−1∑
j=0
ρjνi−j , ϵi−p
 = ρpσ2 (3)
ya que cov(νi−j , ϵi−p) = 0 para todo p > j . Finalmente, utilizando
todos estos resultados
σ2Ω =
σ2ν
1− ρ2

1 ρ ρ2 . . . ρn−1
ρ 1 ρ
. . .
...
ρ2
. . .
. . .
. . . ρ2
...
. . .
. . .
. . . ρ
ρn−1 . . . ρ2 ρ 1

(4)
Detección de autocorrelación
Prueba de rachas. El test de rachas se fundamenta en la
distribución teórica que tendŕıa la cantidad de valores positivos o
negativos consecutivos en los residuos OLS, si éstos fueran
independientes. El estad́ıstico de prueba es K , cuyos parámetros
son
µK =
2 (n1n2)
(n1 + n2)
+ 1 y σ2K =
2 (n1n2)(2n1n2 − n1 − n2)
(n1 + n2)2(n1 + n2 − 1)
(5)
donde K es la cantidad de rachas, n1 es la cantidad de residuos
positivos y n2 es la cantidad de residuos negativos. Luego, el
intervalo de probabilidad del número de rachas K bajo H0 de
ausencia de autocorrelación es
P [µK − 1, 96σK < K < µK + 1, 96σK ] = 1− α
La aproximación normal es válida para n1, n2 > 10. En caso
contrario se debe recurrir a tablas de probabilidad exactas .
Detección de autocorrelación (cont.)
Ejemplo (Prueba de rachas) Los residuos de una regresión de 24
valores son
Del recuento surge que n1 = 13 y
n2 = 11 y la cantidad de recahas es
k = 14. Luego,
µK =
2 (13× 11)
24
+ 1 = 12, 92
σ2K =
286 (286− 24)
242(24− 1)
= 5, 66
Los ĺımites del intervalo son 8,26 y
17,58. En consecuencia no
rechazamos la hipótesis nula.
Nro. ei Nro. ei
1 0,22 13 -0,18
2 0,18 14 0,16
3 -0,58 15 -0,11
4 0,20 16 0,00
5 0,16 17 -0,08
6 -0,34 18 -0,40
7 0,36 19 -0,27
8 0,15 20 0,34
9 0,38 21 -0,09
10 0,13 22 -0,24
11 0,48 23 0,22
12 -0,29 24 -0,40
Detección de autocorrelación (cont.)
Prueba de Durbin-Watson. La hipótesis nula de esta prueba es
“los errores no presentan autocorrelación de orden 1.” El
estad́ıstico de prueba es
d =
∑n
i=2(ei − ei−1)2∑n
i=1 e
2
i
= 2 (1− r)− e
2
1 + e
2
n∑n
i=1 e
2
i
(6)
El estad́ıstico calculado se compara con los estad́ısticos cŕıticos dL
y dU, y se sigue la siguiente regla de decisión:
▶ si 0 < d < dL hay evidencia de autocorrelación positiva
▶ si dL < d < dU indesición
▶ si dU < d < 4− dU no hay autocorrelación
▶ si 4− dU < d < 4− dL indecisión
▶ si 4− dL < d < 4 hay evidencia de autocorrelación negativa
Detección de autocorrelación (cont.)
▶ El estad́ıstico r es el coeficiente de autocorrelación de primer
orden. Con muestras “suficientemente grandes” el segundo
término del lado derecho es despreciable de modo que
d ≈ 2 (1− r) siendo r =
∑n
i=2 eiei−1∑n
i=1 e
2
i
(7)
Detección de autocorrelación (cont.)
▶ El estad́ıstico Durbin-Watson no es válido para regresiones
con valores rezagados de la variable dependiente, o regresores
estocásticos en general.
▶ Si la muestra es suficientemente grande, el estad́ıstico DW se
distribuye aproximadamente
√
n
(
1− 1
2
d
)
≈ N(0, 1) (8)
Ejemplo (Durbin-Watson). Calculamos el estad́ıstico DW con los
mismo residuos del ejemplo anterior.
d =
(0, 18− 0, 22)2 + · · ·+ (−0, 4− 0, 22)2
0, 222 + · · ·+ (−0, 4)2
= 2, 24.
Los ĺımites de DW para α = 0, 05 y k − 1 = 3 (k=cantidad de
regresores) grados de libertad son dL = 1, 101 y dU = 1, 656 por lo
cual no rechazamos H0.
Detección de autocorrelación (cont.)
Prueba de Breusch-Godfrey. Este test presenta la ventaja de
que permite probar hipótesis sobre la existencia de autocorrelación
de orden p. El protocolo de prueba es el siguiente:
(1) Planteamos el modelo y = Xβ + ϵ donde el error sigue un
proceso autorregresivo de orden p o AR(p) .
ϵi = ρ1 ϵi−1 + ρ2 ϵi−2 + ρ3 ϵi−3 + · · ·+ ν con ν ∼ N(0, σ2ν)
(2) Planteamos la regresión auxiliar
yi = β0 + β1 xi1 + · · ·+ βk xik + ρ1 ϵi−1 + ρ2 ϵi−2 + · · ·+ ν
(3) Calculamos el estad́ıstico R2 de esta regresión reemplazando
los errores por los correspondientes residuos.
(4) Ponemos a prueba la hipótesis nula H0: ρi = 0 (para todo i)
mediante el estad́ıstico (n − p)R2, el que se distribuye χ2(p)
donde p es el orden del proceso AR e igual a la cantidad de
rezagos de los residuales.
Detección de autocorrelación (cont.)
Prueba de Ljung-Box Esta prueba se basa en la prueba Q de
Box-Pierce y es asintóticamente equivalente a la prueba de
Breusch-Godfrey. El estad́ıstico de prueba es
Q = n (n + 2)
p∑
j=1
r2j
n − j
donde rj =
∑n
i=j+1 eiei−j∑n
i=1 e
2
i
. (9)
Bajo H0 (ausencia de autocorrelación) Q se distribuye χ
2
(p).
Ejemplo (Ljung-Box) Con los residuos del ejemplo anterior
calculamos Q para probar autocorrelación de orden p = 2.
r1 =
(0, 18× 0, 22) + · · ·+ (−0, 4× 0, 22)
0, 222 + · · ·+ (−0, 4)2
= −0, 18
r2 =
(−0, 58× 0, 22) + · · ·+ [−0, 4× (−0, 24)]
0, 222 + · · ·+ (−0, 4)2
= −0, 08
Q = 24 (24 + 2)
[
(−0, 18)2
24− 1
+
(−0, 08)2
24− 2
]
= 0, 99 << χ2(2) = 5, 99
Medidas remediales
▶ Si la estructura de autocorrelación es conocida, es decir que
cov(ϵ) = Ω es conocida, podemos estimar insesgada, eficiente
y consistentemente β por GLS.
▶ Si la estructura de autocorrelación es desconocida, Ω debe
ser estimada consistentemente y reemplazada por su
estimador Ω̂ en el estimador MCG al que ahora llamamos GLS
“factible”.
Estimador de Cochrane-Orcutt. Se trata de un estimador
iterativo que permite estimar Ω(ρ) consistentemente. El protocolo
es el siguiente.
(1) Calculamos b = (X′X)−1X′y y los residuales e = y− Xb.
(2) Estimamos ρ1, . . . , ρp mediante la regresión auxiliar
ei = ρ1ei−1 + · · ·+ ρpei−p + ν con ν ∼ N(0, σ2ν)
Medidas remediales (cont.)
(3) Reestimamos los βj mediante
yi −
p∑
h=1
ρ̂hyi−h = β1
(
1−
p∑
h=1
ρ̂h
)
+ β2
(
xi2 −
p∑
h=1
ρ̂hxi−h,2
)
+
+β3
(
xi3 −
p∑
h=1
ρ̂hxi−h,3
)
+ · · ·+ ν con ν ∼ N(0, σ2ν)
(4) Obtenemos nuevos residuales con el vector b estimado en el
paso (3) y las matricesX e y originales.
(5) Calculamos nuevos ρ̂1, . . . , ρ̂p. Si la máxima diferencia entre
ρ̂m es menor a δ = 0, 001, paramos; si no, volvemos a (3).
(6) Finalmente, calculamos var .est(b) con el último vector b
obtenido.
Modelos autorregresivos de heteroscedasticidad condicional
(ARCH)
Algunas pruebas de autocorrelación (e.g. Durbin-Watson) son
inválidas ante la presencia de una estructura del error ARCH. Ésta
es una estructura de autocorrelación similar a la anterior, pero en
la varianza de los ϵi .
Para probar la presencia de una estructura ARCH planteamos la
regresión auxiliar
e2i = ρ0 + ρ1e
2
i−1 + · · ·+ ρpe2i−p + ν con ν ∼ N(0, σ2ν)
y calculamos su R2. Bajo la hipótesis nula, nR2 ∼ χ2(p). conviene
realizar esta prueba antes de probar correlación seriel del error.
	Definición de autocorrelación

Continuar navegando

Materiales relacionados