Logo Studenta

Modelos de Series de Tiempo

¡Este material tiene más páginas!

Vista previa del material en texto

Modelos de Series de Tiempo
Luis Frank
Facultad de Agronoḿıa
Universidad de Buenos Aires
Mayo, 2022
Definición de modelos AR, MA y ARMA.
Modelos AR(p). Estimación de parámetros.
Modelos MA(q). Estimación de parámetros.
Modelos ARMA(p,q). Estimación de parámetros.
Estimación de la varianza del error σ2
Prueba de Dickey-Fuller de estacionariedad
Funciones de autocorrelación y autocorrelación parcial
Anexo I: Filtración Adpatada
Modelos ARMA(p,q). Estimación de parámetros.
Definiciones
Supongamos que yt es una serie de tiempo estacionaria (distribción
de probabilidad se mantiene constante) y centrada en 0. Se han
propuesto diversos modelos para representar este tipo de series:
▶ Modelo autorregresivo de orden p o AR(p)
yt = ϕ1 yt−1 + ϕ2 yt−2 + · · ·+ ϕp yt−p + ϵt , ϵt ∼ N(0, σ2).
▶ Modelo de media móvil de orden q o MA(q)
yt = ϵt − θ1ϵt−1 − θ2ϵt−2 − · · · − θqϵt−q, ϵt ∼ N(0, σ2).
▶ Modelo autorregresivo de media móvil o ARMA(p,q)
yt =
p∑
j=1
ϕjyt−j + ϵt −
q∑
j=1
θjϵt−j , ϵt ∼ N(0, σ2), |ϕj |, |θj | < 1.
Definiciones (cont.)
▶ Si yt no fuera una variable estacionaria, la serie puede
diferenciarse hasta alcanzar estacionariedad.
▶ Este tipo de modelos se denominan modelos autorregresivos
integrados de media móvil o ARIMA(p,d ,q), donde d es el
orden de diferenciación.
∆dyt =
p∑
j=1
ϕj∆
dyt−j + ϵt −
q∑
j=1
θjϵt−j
donde ∆yt = yt − yt−1, ∆2yt = (yt − yt−1)− (yt−1 − yt−2),
etc.
▶ La extensión a procesos estacionales conduce a los modelos
SARIMA(p, d ,q)×(P,D,Q)m donde P, D y Q son parámetros
análagos a p, d y q pero rezagados m peŕıodos.
Estimación de parámetros: modelos AR(p)
La estimación de parámetros del modelo autorrgresivo AR(p)
puede realizarse de diversas maneras:
▶ Por OLS o ML emulando una regresión múltiple ordinaria, ya
que en definitiva el modelo es lineal en los parámetros,
ϕ̂ =
[
Y′(p)Y(p)
]−1
Y′(p)y
▶ A través de las ecuaciones de Yule-Walker, como veremos a
continuación.
▶ Por métodos iterativos como Gauss-Newton (ḿınimos
cuadrados no lineales), Newton-Raphson (máxima
verosimilitud), Filtro de Kalman, Filtración Adaptada, etc.
Nota: por el momento asumimos que los órdenes p y q son
conocidos.
Estimación de parámetros: modelos AR(p)
▶ Recordemos el modelo autorregresivo de orden p
yt = ϕ1 yt−1 + ϕ2 yt−2 + · · ·+ ϕp yt−p + ϵt
▶ Multiplicando ambos lados por e.g. yt−k y tomando
esperanzas,
E (yt−k yt) =
p∑
j=1
ϕjE (yt−k yt−j) + E (yt−k ϵt) .
▶ El término de ϵt es nulo si k > 0 (el error ϵt es independiente
de yt−k) e igual a σ
2 si k = 0 (porque cov(yt , ϵt) = σ
2).
cov(yt−k , yt) =
p∑
j=1
ϕj cov(yt−k , yt−j)
▶ Dividiendo ambos lados por var(yt),
ρk =
p∑
j=1
ϕj ρk−j
Estimación de parámetros: modelos AR(p) (cont.)
▶ Finalmente, las autocorrelaciones pueden ordenarse en un
sistema de ecuaciones lineales, conocidas como las ecuaciones
de Yule-Walker,
ρ1
ρ2
...
ρp
 =

1 ρ1 . . . ρp−1
ρ1
. . .
. . .
...
...
. . .
. . . ρ1
ρp−1 . . . ρ1 1


ϕ1
ϕ2
...
ϕp

▶ En forma más sintética, ρ = Rϕ, de modo que podemos
estimar ϕ despejandolo del la relación anterior
ϕ̂ = R̂
−1
ρ̂.
Estimación de parámetros: modelos AR(p) (cont.)
Ejemplo. Consideremos la siguiente serie de tiempo y supongamos
que sigue un proceso AR(2).
yt = ϕ1 yt−1 + ϕ2 yt−2 + ϵt ϵt ∼ N(0, σ2)
t 1 2 3 4 5 6
yt 100,0 132,5 152,8 154,6 149,4 143,2
t 7 8 9 10 11 12
yt 136,6 143,4 141,3 140,8 147,0 146,8
Los coeficientes de correlación estimados son ρ̂1 = 0, 1765 y
ρ̂2 = −0, 5531. Luego, la solución del sitema de Yule-Walker es[
ϕ̂1
ϕ̂2
]
=
[
1, 0000 0, 1765
0, 1765 1, 0000
]−1 [
0, 1765
−0, 5531
]
=
[
0, 2829
−0, 6030
]
En cambio, la estimación OLS es ϕ̂1 = 0, 6229 y ϕ̂2 = −0, 3654.
Estimación de parámetros: modelo MA(1)
Consideremos el modelo MA(1)
yt = ϵt − θ1 ϵt−1, ϵt ∼ N(0, σ2).
Para estimar θ1 procedemos igual que en el desarrollo de
Yule-Walker y recordamos que E (ϵt ϵt−j) = 0 para j ̸= 0.
E (yt yt) = E
[
(ϵt − θ1 ϵt−1)2
]
= E
[
ϵ2t − 2 θ1 ϵt ϵt−1 + θ21 ϵ2t−1
]
=
(
1 + θ21
)
σ2
E (yt−1 yt) = E [(ϵt−1 − θ1ϵt−2) (ϵt − θ1ϵt−1)]
= E
[
ϵt ϵt−1 − θ1 ϵt−1 ϵt−1 − θ1 ϵt ϵt−2 + θ21 ϵt−1 ϵt−2
]
= −θ1 σ2
Estimación de parámetros: modelo MA(1) (cont.)
Luego, sabiendo que ρ = cov(yt−1, yt)/var(yt),
ρ =
−θ1
1 + θ21
⇐⇒ ρ θ21 + θ1 + ρ = 0
Finalmente, reemplazando ρ por su estimador, podemos hallar θ1
mediante la resolvente de segundo grado
θ̂1 =
−1±
√
12 − 4ρ̂2
2ρ̂
para |θ̂1| < 1
Ejemplo. Ajustamos un modelo MA(1) a la siguiente serie
-0,22 0,23 -0,07 0,09 -0,13 0,10 0,02 0,38 0,38 0,29
El estimador de ρ es ρ̂ = 0, 1688, de manera que
θ̂1 =
−1±
√
1− 4× 0, 16882
2× 0, 1688
=
{
θ̂1 = −0, 1739
θ̂1 = −5, 7513
Estimación de parámetros: modelos MA(q)
Procediendo de manera análoga, para el modelo MA(2) tendremos
dos ecuaciones
ρ1 =
−θ1 + θ1θ2
1 + θ21 + θ
2
2
y ρ2 =
−θ2
1 + θ21 + θ
2
2
En general, para q rezagos tendremos
ρk =
−θk + θ1θk+1 + · · ·+ θq−kθq
1 + θ21 + · · ·+ θ2q
k = 1, 2, . . . , q
y 0 si k > q.
▶ En la práctica, este método no se utilza para estimar
parámetros en modelo de orden superior a 2.
▶ La complejidad de estimación se debe a que los regresores ϵt
no son observables y la forma equivalente del modelo en
función de y no es lineal en los parámetros.
Estimación de parámetros: modelo ARMA(1,1)
El método de momentos se puede extender a los modelos
ARMA(p,q). En el caso del modelo ARMA(1,1)
yt = ϕ1 yt−1 − θ1 ϵt−1 + ϵt , ϵt ∼ N(0, σ2)
Las tres autocovarianzas asociadas a este proceso necesarias para
estimar ϕ1 y θ1 son
var(yt) =ϕ
2
1 var(yt−1) + θ
2
1 var(ϵt−1) + var(ϵt)− 2ϕ1θ1 cov(yt−1, ϵt−1)
+ 2ϕ1 cov(yt−1, ϵt)− 2 θ1 cov(ϵt−1, ϵt)
cancelando las covarianzas nulas, esta expresión se simplifica a
var(yt) = ϕ
2
1 var(yt) + θ
2
1σ
2 + σ2 − 2ϕ1θ1σ2
de donde despejamos
var(yt) =
(1− 2ϕ1θ1 + θ21)σ2
1− ϕ21
.
Estimación de parámetros: modelo ARMA(1,1) (cont.)
Del mismo modo, las expresiones para cov(yt , yt−1) y
cov(yt , yt−2) son
cov(yt , yt−1) = cov(ϕ1 yt−1 − θ1 ϵt−1 + ϵt , yt−1) = ϕ1 var(yt)− θ1 σ2
y
cov(yt , yt−2) = cov(ϕ1 yt−1 − θ1 ϵt−1 + ϵt , yt−2) = ϕ1 cov(yt , yt−1)
Dividiendo ambas covarianzas por var(yt) obtenemos ρ1 y ρ2
ρ1 =
ϕ1 var(yt)− θ1 σ2
var(yt)
= ϕ1 −
θ1(1− ϕ21)
1− 2ϕ1θ1 + θ21
y ρ2 = ϕ1ρ1.
Reordenando la expresión de ρ1 obtenemos la ecuación
(ρ1 − ϕ1) θ21 +
(
1− 2ρ1ϕ1 + ϕ21
)
θ1 + (ρ1 − ϕ1) = 0
Estimación de parámetros: modelo ARMA(1,1) (cont.)
▶ Al igual que en los modelos AR y MA, estimamos ρ1 y ρ2 (y
ϕ1) a través de las correlaciones muestrales, y calculamos θ̂1
con la resolvente de segundo grado, reteniendo la solución
invertible.
▶ Una alternativa más sencilla propuesta por los mismos autores
consiste en ajustar primero la parte AR(p), calcular los
residuos y modelar estos últimos como proceso MA(q).
▶ Hannan y Rissanen sugieren como aproximación ajustar un
modelo AR a una cantidad suficientemente grande de rezagos
para obtener los residuos, y luego ajustar el modelo
ARMA(p,q) por OLS.
▶ Estas alternativas son meras aproximaciones que no
reemplazan métodos más exactos como ML
(Newton-Raphson) o LS no lineales (Gauss-Newton).
Estimación de la varianza del error σ2
▶ Para procesos modelos AR(p), el estimador de la varianza del
error es
σ̂2 = (1− ϕ̂1ρ̂1 − · · · − ϕ̂pρ̂p) v̂ar(yt)
▶ Para procesos MA(q), el estimador de la varianza del error es
σ̂2 =
v̂ar(yt)
1 + θ21 + · · ·+ θ2q
▶ Para el proceso ARMA(1,1), el estimador
σ̂2 =
1− ϕ̂21
1− 2 ϕ̂1θ̂1 + θ̂21
v̂ar(yt)
en todos los casos v̂ar(yt) =
1
n−1
∑n
t=1(yt − ȳ)2.
Estacionariedad: la prueba de Dickey-Fuller Aumentada
▶ Un supuesto fundamental de los modelos AR, MA y ARMA es
el de estacionariedad.
▶ Para probar estacionariedad utilizamos la prueba de Dickey y
Fuller Aumentada o ADF, cuya hipótesis nula supone que el
modelo presenta “ráız unitaria”, es decir, que alguno de los
parámetros es igual o mayor a 1.
▶ Si se rechaza H0, asumimos que el proceso es estacionario.
Caso contrario,planteamos un modelo en diferencias, es decir,
asumimos que se trata de un modelo integrado de orden d .
▶ El test ADF consiste básicamente en ajustar el modelo
∆yt = α+ β t + ϕ yt−1 + δ1∆yt−1 + · · ·+ δp−1∆yt−p+1 + ϵt
para un orden p arbitrario.
Estacionariedad: la prueba de Dickey-Fuller Aumentada
(cont.)
Ejemplo. Probamos estacionariedad de la serie del ejemplo
anterior a través del test de Dickey-Fuller.
∆yt ord. t yt−1 ∆yt−1
0,45 1 1 -0,22 0,00
-0,30 1 2 0,23 0,45
0,15 1 3 -0,07 -0,30
-0,22 1 4 0,09 0,15
0,23 1 5 -0,13 -0,22
-0,08 1 6 0,10 0,23
0,36 1 7 0,02 -0,08
0,00 1 8 0,38 0,36
-0,09 1 9 0,38 0,00
Var. Est. Desv́ıo τ
ord. -0,09 0,18 -0,49
t 0,05 0,04 1,29
yt−1 -1,27 0,67 -1,89
∆yt−1 -0,03 0,43 -0,06
El estad́ıstico cŕtico τ∗ de DF
para el modelo con constante y
tendencia es −3, 66. Como
|τ | < |τ∗| no rechazamos H0.
Estacionariedad: la prueba de Dickey-Fuller Aumentada
(cont.)
▶ La hipótesis de la prueba de ráız unitaria son H0: ϕ = 0 versus
H1: ϕ < 0. El estad́ıstico de prueba τ = ϕ̂/sϕ̂ se compara con
el valor cŕıtico de la tabla de Dickey y Fuller.
▶ En la práctica surge el problema de determinar cuántos
rezagos p tomar. Usualmente se siguen dos alternativas:
(i) Minimzar el criterio de información de Akaike (AIC)
AIC = ln s2m +
2m
n
, m = p + 3
donde s2 es el cuadrado medio de los residuos y m es la
cantidad de parámetros del modelo.
(ii) Partir de un modelo con una cantidad suficientemente grande
de rezagos y eliminarlos uno a uno hasta hallar el primero con
δ significativo.
Función de autocorrelación (FAC) y de autocorrelación
parcial (FACP)
▶ En los modelos AR(p) hallamos que la autocorrelación entre
valores de la series rezagados k peŕıodos es
ρk =
p∑
j=1
ϕjρk−j
▶ En modelos MA(q) (multiplicando ambos miembros y tomado
esperanzas) la autocorrelación entre valores rezagados k
peŕıodos es
ρk =
−θk + θ1θk+1 + · · ·+ θq−kθq
1 + θ21 + · · ·+ θ2q
k = 1, 2, . . . , q
y 0 si k > q.
▶ La FACP representa la FAC descontando el efecto de los
términos intermedios. O bien, es la función que surge de
tomar el último coeficiente de (ϕp o θq) del modelo.
Función de autocorrelación (FAC) y de autocorrelación
parcial (FACP) (cont.)
Estimación por filtración adaptada del modelos MA(q)
▶ Makridakis y Wheelwright proponen un método de estimación
basado en filtración adaptada. La fórmula de cálculo es la
siguiente
θtj = θt−1,j + 2Ket(−et−j)
donde K es una constante que determina la velocidad de
convergencia al verdadero parámetro.
▶ Los autores aconsejan estandarizar los residuos para garantizar
convergencia. El protocolo es el siguiente:
(1) Se parte de un vector θ0 y de una estimación previa de los
primeros q errores, e1 = · · · = eq = 0. Se fija K < 1/q.
Estimación por filtración adaptada del modelos MA(q)
(cont.)
(2) Se calcula el residuo en t = q + 1 a partir del modelo MA
reordenado
et = yt + θ1 et−1 + θ2 et−2 + · · ·+ θq et−q
(3) Se estandarizan los parámetros
θ̂∗tj = θ̂t−1,j − 2K
et
st
et−j
st
donde st =
√√√√ q∑
j=0
e2t−j ,
(4) Se vuelve a (2) y se repite el cálculo para et+1, et+2, . . . , en.
(5) Si al final del primer ciclo las estimaciones no convergieron, se
inicia un nuevo ciclo partiendo de θ1 hasta convergencia.
Estimación de parámetros: modelos ARMA(p, q)
▶ El mismo algoritmo puede utilizarse para estimar los
parámetros del modelo AR(p) con la fórmula
ϕ̂∗tj = ϕ̂t−1,j − 2K
et
st
yt−j
s∗t
donde s∗t =
√√√√ p∑
j=1
y2t−j ,
▶ El método de filtración adaptada puede ser extendido a
modelos ARMA(p, q) actualizando simultáneamente los
vectores ϕ y θ pero estandarizando con
st =
√√√√ q∑
j=0
e2t−j +
p∑
j=1
y2t−j .
Estimación de parámetros: modelos ARMA(p, q) (cont.)
Ejemplo. Estimamos los coeficientes de un modelo ARMA(1,1) a
los datos del ejemplo anterior con el método de Makridakis.
Utilizamos θ
(0)
1 = 0, 5; ϕ
(0)
1 = 0, 39 (obtenido por OLS) y K = 0, 3;
sin estandarizar los residuos.
yt e
(1)
t θ
(1)
1j ϕ
(1)
1j e
(2)
t θ
(2)
1j ϕ
(2)
1j
-0,22 -0,22 0,50 0,39 -0,22 0,36 0,26
0,23 0,21 0,53 0,41 0,21 0,39 0,29
-0,07 -0,05 0,53 0,42 -0,06 0,39 0,29
0,09 0,09 0,54 0,42 0,09 0,40 0,30
-0,13 -0,12 0,54 0,43 -0,12 0,40 0,30
0,10 0,09 0,55 0,44 0,10 0,41 0,31
0,02 0,03 0,55 0,44 0,02 0,41 0,31
0,38 0,38 0,54 0,43 0,38 0,40 0,30
0,38 0,42 0,45 0,34 0,40 – –
0,29 0,35 0,36 0,26 0,33 – –
	Definición de modelos AR, MA y ARMA.
	Modelos AR(p). Estimación de parámetros.
	Modelos MA(q). Estimación de parámetros.
	Modelos ARMA(p,q). Estimación de parámetros.
	Estimación de la varianza del error 2
	Prueba de Dickey-Fuller de estacionariedad
	Funciones de autocorrelación y autocorrelación parcial
	Anexo I: Filtración Adpatada
	Modelos ARMA(p,q). Estimación de parámetros.

Continuar navegando

Materiales relacionados