Logo Studenta

Unidad 3

¡Este material tiene más páginas!

Vista previa del material en texto

Universidad Abierta y a Distancia de México 
 
 
Licenciatura en Matemáticas 
 
 
6° Semestre 
 
 
Estadística III 
 
 
 
 
Clave: 
050930935 
 
 
 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 2 
 
Índice 
Unidad 3. Modelos para modelos no estacionarios ............................................................... 3 
Presentación de la unidad ........................................................................................................ 3 
Propósitos de la unidad ........................................................................................................... 3 
Competencia específica ........................................................................................................... 3 
3.1. Transformaciones de los datos para llevarlos a estacionariedad .................................. 4 
3.1.1. Transformaciones estabilizadoras de varianza ......................................................... 4 
Actividad 1. Presentación de datos y un modelo ................................................................... 7 
3.1.2. Diferencias ................................................................................................................... 8 
Actividad 2. Reporte de modelos ........................................................................................... 14 
3.1.3. La descomposición clásica ...................................................................................... 14 
Autoevaluación ....................................................................................................................... 32 
Evidencia de aprendizaje. Ajuste de modelos ARIMA .......................................................... 32 
Autorreflexiones ..................................................................................................................... 32 
Cierre de la unidad .................................................................................................................. 33 
Para saber más ....................................................................................................................... 33 
Referencias bibliográficas ..................................................................................................... 33 
 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 3 
 
Unidad 3. Modelos para modelos no estacionarios 
 
 
Presentación de la unidad 
 
En esta unidad estudiarás cómo extender el uso de los métodos de series de tiempo vistos en la 
unidad 2 para el caso de datos que no son estacionarios. Revisarás dos procedimientos 
generales para modelar datos para los cuales su valor esperado y su varianza cambian con el 
tiempo: 
 
a) Transformaciones de los datos para llevarlos a datos estacionarios. 
b) La representación de los datos usando la conocida descomposición clásica. 
 
Como su nombre lo indica, en el primero de estos procedimientos el objetivo es encontrar una 
transformación que actúe sobre los datos tal que el conjunto de datos resultante presente 
características de una serie de tiempo estacionaria como valor esperado y varianza constantes 
en el tiempo. Ejemplos de tales transformaciones son el operador de diferencias y las 
transformaciones estabilizadoras de varianza. Por último, se analiza la serie de tiempo que 
resulta de la transformación para ver si un modelo 𝐴𝑅𝑀𝐴(𝑝, 𝑞) resulta adecuado. 
 
En el segundo procedimiento la idea es modelar el cambio en el valor esperado y en la varianza 
de los datos usando representaciones paramétricas o no paramétricas para estas componentes. 
Se estiman estas representaciones de las componentes usando métodos estadísticos, y por 
último se analizan los residuales resultantes de sustraer estas estimaciones de los datos 
originales. 
 
 
Propósitos de la unidad 
 
Al término de esta unidad lograrás: 
 
 Encontrar transformaciones de los datos que permitan modelar la serie de tiempo 
resultante como un proceso en la clase 𝐴𝑅𝑀𝐴(𝑝, 𝑞). 
 Usar la descomposición clásica para proponer un modelo que describa cambios en el 
tiempo para el valor esperado de los datos y otras características de los mismos. 
 
 
Competencia específica 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 4 
Transformar datos no estacionarios a datos estacionarios para identificar, estimar y validar un 
modelo 𝐴𝑅𝑀𝐴(𝑝, 𝑞) mediante uso de software y basándose en las nociones de estimación y 
validación de modelos. 
 
 
 
3.1. Transformaciones de los datos para llevarlos a estacionariedad 
 
En este tema se estudiarán algunas transformaciones de los datos que tienen el propósito de 
corregir la no estacionariedad de los mismos. Cuando la varianza de los datos cambia con el 
tiempo, una posibilidad es usar las transformaciones estabilizadoras de varianza. Otra 
transformación diferente, que tiene el objetivo de eliminar tendencias en los datos (cambios en 
el tiempo del valor esperado) se puede construir usando el operador de diferencias. 
 
 
3.1.1. Transformaciones estabilizadoras de varianza 
 
Transformaciones preliminares. 
 
Los métodos de estimación descritos anteriormente permiten encontrar, para valores dados de 
𝑝 y 𝑞, un modelo 𝐴𝑅𝑀𝐴(𝑝, 𝑞) para describir a una serie dada de datos. Para que este 
procedimiento sea significativo debe ser por lo menos plausible que los datos sean, de hecho, 
una realización de un proceso ARMA, y en particular, que provengan de una realización de un 
proceso estacionario. Si las características de los datos mostrados sugieren la no 
estacionariedad (por ejemplo tendencia y estacionalidad), entonces puede ser necesario hacer 
una transformación a fin de producir una nueva serie de datos más compatible con la suposición 
de estacionariedad. 
 
Para los fines del curso, se entiende por tendencia un cambio sistemático (no aleatorio) en el 
valor esperado de los datos. Por ejemplo, para la serie de tiempo de las temperaturas en el 
globo terráqueo Figura 1 (basado en Cowperwait y Metcalfe, 2009, 18) se observa un 
incremento de la temperatura en el tiempo, se dice entonces que esta serie parece tener una 
tendencia positiva o “al alza”. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 5 
 
Figura 1. Temperatura anual Global de 1880 a 2005 
 
Por otra parte, el término componente estacional se entenderá como un patrón de 
comportamiento en los datos que se repite periódicamente. 
Este patrón cíclico se puede apreciar en la Figura 2, que corresponde al precio semanal del 
aguacate Hass en los mercados nacionales. Como se puede ver, la serie de tiempo de los 
precios tiene un incremento fuerte hacia la mitad de cada año (meses de agosto y septiembre), 
y al final de cada año el precio baja. Se dice entonces que la componente cíclica de estos 
datos es anual. Se nota que estos datos también exhiben un cambio en la media (tendencia) ya 
que ésta se incrementa con el tiempo. 
 
 
Figura 2. Precio del aguacate Hass. Proporcionada por el SNIIM de la Secretaría de Economía. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 6 
Las desviaciones de la estacionalidad pueden ser sugeridas por la gráfica de la serie en sí o por 
la función de autocorrelación muestral o ambos. 
 
Una inspección de la gráfica de la serie ocasionalmente revelará una fuerte dependencia de la 
variabilidad de las series o de la tendencia de los datos mismos en el tiempo, en cuyo caso los 
datosprimero deben ser transformados para reducir o eliminar esta dependencia. Por ejemplo, 
la Figura 3 muestra los datos de pasajeros de aerolíneas internacionales {𝑈𝑡 , 𝑡 = 1,… ,144}. Por 
otra parte, la serie transformada 𝑉𝑡 = ln𝑈𝑡, que se muestra en la Figura 4 no muestra 
incremento en el tiempo en la variabilidad de 𝑉𝑡. La transformación logarítmica utilizada aquí es 
de hecho apropiada siempre que {𝑈𝑡} sea una serie cuya desviación estándar aumenta 
linealmente con la media. Para una explicación sistemática de una clase general de las 
transformaciones estabilizadoras de varianza, se te refiere a Box y Cox (1964). La definición de 
la ecuación para la transformación general de Box-Cox 𝑓𝜆 es 
 
𝑓𝜆(𝑈𝑡) = {
𝜆−1(𝑈𝑡
𝜆 − 1), 𝑈𝑡 ≥ 0, 𝜆 > 0
ln𝑈𝑡 𝑈𝑡 > 0, 𝜆 = 0
. 
 
 
Figura 3. Reservaciones de pasajeros aéreos 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 7 
 
Figura 4. Serie transformada 
 
En las páginas 103 y 108 del libro de Guerrero, V. (2009), se discute cómo elegir un valor de 𝜆 
adecuado para ciertos datos. En la práctica, si una transformación de Box-Cox es necesaria, a 
menudo es el caso en que 𝑓0 = ln𝑈𝑡 o 𝑓1/2 es adecuada. 
 
La Figura 3, como se dijo, muestra datos del número de pasajeros que viajan en una línea 
aérea de los Estados Unidos. Los datos están medidos cada mes desde enero de 1949 hasta 
diciembre de 1960 (Box y Jenkins, 1970). Se puede ver que la varianza de la serie se 
incrementa en función del tiempo. Para corregir este problema se usó la transformación 
logarítmica (𝑓0), y los datos transformados que ahora solo presentan un cambio en la media 
(tendencia) se muestran en la Figura 4. Pero para poner un modelo en la clase 𝐴𝑅𝑀𝐴, todavía 
es necesario transformar de nuevo los datos o modelar una componente cíclica en la serie. 
 
Tendencia y estacionalidad suelen ser detectadas por la inspección de la gráfica de la 
(posiblemente transformada) serie. Sin embargo, también se caracterizan por que las funciones 
de autocorrelación muestral decaen lentamente y muestran patrones periódicos 
respectivamente. 
 
 
Actividad 1. Presentación de datos y un modelo 
A través de esta actividad podrás presentar datos y crear un modelo para datos estadísticos. 
Para ello: 
 
1. Descarga el documento A1. Presentación de datos y un modelo. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 8 
2. Utiliza la paquetería R, ajusta un modelo para los datos presentados en el documento 
descargado. 
 
3. Entrega un reporte donde presentes los posibles modelos para los datos, puedes usar 
como guía los ejemplos presentados en el programa desarrollado. 
 
4. Guarda y envía tu reporte al portafolio de evidencias con la nomenclatura 
MEST3_U3_A1_XXYZ. 
 
5. Espera la retroalimentación de tu Facilitador(a). 
 
* Recuerda consultar la Escala de evaluación de la actividad para saber qué aspectos se 
tomarán en cuenta para su revisión. 
 
 
 
3.1.2. Diferencias 
 
Se puede ver que si 𝑥𝑡 es una caminata aleatoria, 𝑥𝑡 = 𝑥𝑡−1 +𝑤𝑡, donde {𝑤𝑡}𝑡 son variables 
aleatorias independentes, entonces diferenciando 𝑥𝑡, se tiene que ∇𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1 = 𝑤𝑡 es 
estacionario. En muchas situaciones las series de tiempo se pueden considerar como 
compuestas por dos términos, un componente de tendencia y un componente estacionario de 
media cero. Por ejemplo, considera el modelo 
 
𝑥𝑡 = 𝜇𝑡 + 𝑦𝑡 (3.1.2.1) 
 
donde 𝜇𝑡 = 𝛽0 + 𝛽1𝑡 y {𝑦𝑡} es estacionario. 
 
Nota que si {𝑦𝑡}𝑡 es estacionario, entonces el proceso {∇𝑌𝑡}𝑡 tambien es estacionario. Para ver 
esto, sean para cada 𝑡 
 
𝜇 = 𝔼[𝑌𝑡], 𝜎𝑦
2 = 𝑉𝐴𝑅(𝑌𝑡), 
 
entonces 𝔼[𝑌𝑡
2] = 𝜎𝑌
2 + 𝜇2, 𝔼(∇𝑌𝑡) = 𝔼[𝑌𝑡] − 𝔼[𝑌𝑡−1] = 0 y 
 
𝑉𝐴𝑅(∇𝑌𝑡) = 𝔼[(𝑌𝑡 − 𝑌𝑡−1)
2] 
= 𝔼[𝑌𝑡
2] + 𝔼[𝑌𝑡−1
2 ] − 2𝔼[𝑌𝑡𝑌𝑡−1] 
= 2(𝜎𝑌
2 + 𝜇2) − 2𝔼[𝑌𝑡𝑌𝑡−1] 
= 2𝜎𝑌
2 − 2{𝔼[𝑌𝑡𝑌𝑡−1] − 𝜇
2} 
= 2𝜎𝑌
2 − 𝐶𝑂𝑉[𝑌𝑡𝑌𝑡−1] 
= 2𝜎𝑌
2 − 2𝛾1 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 9 
 
Así, se ve que 𝔼[∇𝑌𝑡] y 𝑉𝐴𝑅(∇𝑌𝑡) no dependen de 𝑡 (son constantes para todo 𝑡), y el proceso 
{∇𝑌𝑡}𝑡 es estacionario. 
 
Diferenciando el proceso {𝑥𝑡}𝑡, se obtiene un proceso estacionario: 
 
∇𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1 = 𝛽1 + 𝑦𝑡 − 𝑦𝑡−1 = 𝛽1 + ∇𝑦𝑡 . 
 
Otro modelo que conduce a la primera diferenciación es el caso cuando 𝜇𝑡 en (3.1.2.1) es 
estocastico y varía lentamente de acuerdo con una caminata aleatoria. Esto es en (3.1.2.1) 
 
𝜇𝑡 = 𝜇𝑡−1 + 𝑣𝑡 
 
donde {𝑣𝑡} es estacionario. En este caso, 
 
∇𝑥𝑡 = 𝑣𝑡 + ∇𝑦𝑡 , 
 
es estacionario. Si 𝜇𝑡 en (3.1.2.1) es un polinomio de grado 𝑘, 𝜇𝑡 = ∑ 𝛽𝑗𝑡
𝑗𝑘
𝑗=0 , entonces la serie 
diferenciada ∇𝑘𝑥𝑡 es estacionaria, esto puede verse por lo siguiente 
 
∇(𝑎𝑡 + 𝑏) = 𝑐 = 𝑐𝑡𝑒 
∇2(𝑎𝑡2 + 𝑏𝑡 + 𝑐) = 𝑒 = 𝑐𝑡𝑒 
… 
𝑒𝑡𝑐. 
 
Modelos de tendencia estocástica también pueden conducir a diferenciación de mayor orden. 
Por ejemplo, si se considera que en (3.1.2.1) 
 
𝜇𝑡 = 𝜇𝑡−1 + 𝑣𝑡 , 𝑣𝑡 = 𝑣𝑡−1 + 𝑒𝑡 
 
donde {𝑒𝑡}𝑡 y {𝑣𝑡}𝑡 son estacionarios. Entonces, ∇𝑥𝑡 = 𝑣𝑡 + ∇𝑦𝑡 no es estacionario, pero 
 
∇2𝑥𝑡 = 𝑒𝑡 + ∇
2𝑦𝑡 
sí es estacionario. 
 
Un proceso 𝐴𝑅𝑀𝐴 integrado, o modelo 𝐴𝑅𝐼𝑀𝐴, es una ampliación de la clase de los modelos 
ARMA para incluir la diferenciación. 
 
Definicion 3.1.2.1. 
Para un entero 𝑑 ≥ 1, un proceso 𝑋𝑡 se dice 𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞) si al diferenciarlo 𝑑 veces 
 
∇𝑑𝑋𝑡 = (1 − 𝐵)
𝑑𝑋𝑡 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 10 
 
el proceso ∇𝑑𝑋𝑡 es 𝐴𝑅𝑀𝐴(𝑝, 𝑞). En general, se escribe el modelo como 
 
𝜙(𝐵)(1 − 𝐵)𝑑𝑋𝑡 = 𝜃(𝐵)𝑊𝑡 . (3.1.2.2) 
 
Si 𝐸(∇𝑑𝑥𝑡) = 𝜇, se escribe el modelo como 
 
𝜙(𝐵)(1 − 𝐵)𝑑𝑋𝑡 = 𝛿 + 𝜃(𝐵)𝑊𝑡, 
 
donde 𝛿 = 𝜇(1 − 𝜙1 −⋯− 𝜙𝑝). 
 
Debido a la no estacionariedad, se debe tener cuidado al derivar pronósticos. 
 
Debe quedar claro que, como 𝑦𝑡 = ∇
𝑑𝑥𝑡 es 𝐴𝑅𝑀𝐴, es posible obterner predicciones de 𝑦𝑡, lo 
cual llevara a predicciones para 𝑥𝑡. Por ejemplo, si 𝑑 = 1, dando pronosticos 𝑦𝑛+𝑚
𝑛 para 𝑚 =
1,2,…, se tiene que 𝑦𝑛+𝑚
𝑛 = 𝑥𝑛+𝑚
𝑛 − 𝑥𝑛+𝑚−1
𝑛 , así que: 
 
𝑥𝑛+𝑚
𝑛 = 𝑦𝑛+𝑚
𝑛 + 𝑥𝑛+𝑚−1
𝑛 
 
con la condicion inicial 𝑥𝑛+1
𝑛 = 𝑦𝑛+1
𝑛 + 𝑥𝑛 (denotando 𝑥𝑛
𝑛 = 𝑥𝑛). 
 
Es un poco más dificil obtener los errores de predicción 𝑃𝑛+𝑚
𝑛 , pero para 𝑛 grande el error 
cuadrático medio de predicción puede ser aproximado por 
 
𝑃(𝑛+𝑚)
𝑛 = 𝜎𝑤
2 ∑ 𝜓𝑗
∗2
𝑚−1
𝑗=0
, (3.1.2.3) 
 
donde 𝜓𝑗
∗ es el coeficiente de 𝑧𝑗 en 𝜓∗(𝑧) = 𝜃(𝑧)/𝜙(𝑧)(1 − 𝑧)𝑑. 
 
Para entender mejor los modelos integrados, se eximanarán las propiedades de algunos casos 
simples. 
 
Ejemplo 1. Caminata aleatoria con desviación 
 
Para fijar ideas, considera la caminata aleatoria con desviación 
 
𝑥𝑡 = 𝛿 + 𝑥𝑡−1 +𝑤𝑡 
 
Para 𝑡 = 1,2,…, y 𝑥0 = 0. Este modelo no es 𝐴𝑅𝐼𝑀𝐴, pero puede ser incluido trivialmente como 
un modelo 𝐴𝑅𝐼𝑀𝐴(0,1,0). Dados los datos 𝑥1, … , 𝑥𝑛, la predicción un paso adelante está dada 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 11 
por 
 
𝑥𝑛+1
𝑛 = 𝐸(𝑥𝑛+1|𝑥𝑛, … , 𝑥1) = 𝐸(𝛿 + 𝑥𝑛 +𝑤𝑛+1|𝑥𝑛, … , 𝑥1) = 𝛿 + 𝑥𝑛 
 
La predicción dos pasos adelante está dada por 𝑥𝑛+2
𝑛 = 𝛿 + 𝑥𝑛+1
𝑛 = 2𝛿 + 𝑥𝑛, y 
consecuentemente la predicción 𝑚 pasos adelante, para 𝑚 = 1,2,…, es 
 
 
Para obtener los errores de predicción, es convenienteconsiderar la representación de la 
caminata donde 𝑥𝑛 = 𝑛𝛿 + ∑ 𝑤𝑗
𝑛
𝑗=1 , en tal caso se puede escribir 
 
𝑥𝑛+𝑚 = (𝑛 +𝑚)𝛿 + ∑ 𝑤𝑗
𝑛+𝑚
𝑗=1
= 𝑚𝛿 + 𝑥𝑛 + ∑ 𝑤𝑗
𝑛+𝑚
𝑗=1
 
 
De esto se sigue que la predicción del error de la predicción 𝑚 pasos adelante está dada por 
 
𝑃𝑛+𝑚
𝑛 = 𝐸(𝑥𝑛+𝑚 − 𝑥𝑛+𝑚
𝑛 )2 = 𝐸( ∑ 𝑤𝑗
𝑛+𝑚
𝑗=𝑛+1
)
2
= 𝑚𝜎𝑤
2 (3.2.1.5) 
Por lo tanto, a diferencia del caso estacionario, ya que el horizonte de predicción crece, los 
errores de predicción dados en (3.2.1.5) aumentan sin límite y las predicciones siguen una 
línea recta con pendiente 𝛿 que pasa por 𝑥𝑛. Toma en cuenta que (3.2.1.3) es exacta en este 
caso porque 𝜓∗(𝑧) =
1
1−𝑧
= ∑ 𝑧𝑗∞𝑗=0 para |𝑧| < 1, así que 𝜓𝑗
∗ = 1 para toda 𝑗. 
 
Los 𝑤𝑡 son gaussianos, por lo que la estimación es sencilla, puesto que los datos 
diferenciados, 𝑦𝑡 = ∇𝑥𝑡, son variables normales independientes e idénticamente distribuidas 
con media 𝛿 y la varianza 𝜎𝑤
2 . En consecuencia, las estimaciones óptimas de 𝛿 y 𝜎𝑤
2 son la 
media y la varianza de la 𝑦𝑡, respectivamente. 
𝑥𝑛+𝑚
𝑛 = 𝑚𝛿 + 𝑥𝑛 (3.2.1.4) 
 
Ejemplo 2. 𝑰𝑴𝑨(𝟏, 𝟏) y 𝑬𝑾𝑴𝑨 
 
El 𝐴𝑅𝐼𝑀𝐴(0,1,1), o modelo 𝐼𝑀𝐴(1,1) es de interés porque muchas series de tiempo 
económicas pueden ser exitosamente modeladas de este modo. Además, el modelo conduce a 
un método de predicción muy usado, llamado promedios móviles ponderados 
exponencialmente (𝐸𝑊𝑀𝐴). El modelo se escribe como 
 
𝑥𝑡 = 𝑥𝑡−1 +𝑤𝑡 − 𝜆𝑤𝑡−1 (3.2.1.6) 
 
Con |𝜆| < 1, para 𝑡 = 1,2,…, y 𝑥0 = 0, porque esta formulación del modelo es más fácil de 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 12 
trabajar aquí y conduce a una representación estándar para 𝐸𝑊𝑀𝐴. Se puede incluir un 
término de desviación en (3.2.1.6), como en el ejemplo anterior, pero por simplicidad se deja 
fuera de esta discusión. Si escribes 
 
𝑦𝑡 = 𝑤𝑡 − 𝜆𝑤𝑡−1, 
 
Se puede escribir (3.2.1.6) como 𝑥𝑡 = 𝑥𝑡−1 + 𝑦𝑡. Como |𝜆| < 1, 𝑦𝑡 tiene una representación 
invertible, 𝑦𝑡 = ∑ 𝜆
𝑗𝑦𝑡−𝑗 + 𝑤𝑡
∞
𝑗=1 , y sustituyendo 𝑦𝑡 = 𝑥𝑡 − 𝑥𝑡−1, puedes escribir 
𝑥𝑡 =∑(1 − 𝜆)𝜆
𝑗−1𝑥𝑡−𝑗 +𝑤𝑡
∞
𝑗=1
 (3.2.1.7) 
 
como una aproximación para 𝑡 grande (haciendo 𝑥𝑡 = 0 para 𝑡 ≤ 0). Puedes verificar esta 
última igualdad. Usando la aproximación (3.2.1.7) se tiene la aproximación de la predicción un 
paso adelante 
 
�̃�𝑛+1 =∑(1 − 𝜆)𝜆
𝑗−1𝑥𝑛+1−𝑗
∞
𝑗=1
 
= (1 − 𝜆)𝑥𝑛 + 𝜆∑(1 − 𝜆)
∞
𝑗=1
𝜆𝑗−1𝑥𝑛−𝑗 
= (1 − 𝜆)𝑥𝑛 + 𝜆�̃�𝑛 
(3.2.1.8) 
 
De la ecuación anterior, puedes notar que la nueva predicción es una combinación lineal de la 
antigua predicción y la nueva observación. Basado en (3.2.1.8) y en el hecho de que solo 
observaste 𝑥1, … , 𝑥𝑛, y consecuentemente 𝑦1, … , 𝑦𝑛 (porque 𝑦𝑡 = 𝑥𝑡 − 𝑥𝑡−1; 𝑥0 = 0), las 
predicciones parciales son 
 
�̃�𝑛+1
𝑛 = (1 − 𝜆)𝑥𝑛 + 𝜆�̃�𝑛
𝑛−1, 𝑛 ≥ 1 (3.2.1.9) 
 
con �̃�1
0 = 𝑥1 como un valor inicial. El error cuadrático medio de predicción puede ser 
aproximado usando (3.2.1.3) y notando que 𝜓∗(𝑧) =
(1−𝜆𝑧)
1−𝑧
= 1 + (1 − 𝜆)∑ 𝑧𝑗∞𝑗=1 para |𝑧| < 1, 
por lo tanto, para 𝑛 grande, (3.2.1.3) lleva a 
 
𝑃𝑛+𝑚
𝑛 ≈ 𝜎𝑤
2 [1 + (𝑚 − 1)(1 − 𝜆)2] 
 
En 𝐸𝑊𝑀𝐴, el parámetro 1 − 𝜆 es frecuentemente llamado parámetro de suavizado y se 
restringe a estar entre cero y uno. Los valores más grandes de 𝜆 llevan a predicciones 
suavizadas. Este método de predicción es popular por su facilidad de uso, sólo necesitas 
conservar el valor de las predicciones anteriores y la observación actual para predecir el 
siguiente periodo de tiempo. Desafortunadamente, como se dijo antes, este método es 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 13 
frecuentemente abusado porque algunas predicciones no verifican que las observaciones 
sigan un proceso 𝐼𝑀𝐴(1,1), y a menudo se escogen valores arbitrarios para 𝜆. 
 
Hay algunos pasos básicos para adecuar modelos 𝐴𝑅𝐼𝑀𝐴 a los datos de una serie de tiempo. 
Estos pasos incluyen graficar los datos, la posible transformación de los datos, la identificación 
de las órdenes de la dependencia del modelo, la estimación de parámetros, el diagnóstico y la 
elección del modelo. En primer lugar, como en cualquier análisis de datos, debes construir una 
gráfica de tiempo de los datos e inspeccionar la gráfica por cualquier anomalía. Si, por ejemplo, 
la variabilidad en los datos crece con el tiempo, será necesario transformar los datos para 
estabilizar la varianza. En tales casos, las transformaciones de la clase Box-Cox se podrían 
emplear. Además, la aplicación particular podría sugerir una transformación apropiada. Por 
ejemplo, supón que un proceso se desarrolla como un porcentaje de cambio bastante pequeño 
y estable, tal como una inversión. Por ejemplo, podrías tener 
 
𝑥𝑡 = (1 + 𝑝𝑡)𝑥𝑡−1, 
 
donde 𝑥𝑡 es el valor de la inversión en el tiempo 𝑡 y 𝑝𝑡 cambio porcentual del periodo 𝑡 − 1 a 𝑡, 
el cual puede ser negativo. Tomando logaritmos tienes 
 
log(𝑥𝑡) = log(1 + 𝑝𝑡) + log(𝑥𝑡−1), 
o 
∇ log(𝑥𝑡) = log(1 + 𝑝𝑡) 
 
Si el cambio porcentual 𝑝𝑡 permanece relativamente pequeño en magnitud, entonces 
log(1 + 𝑝𝑡) ≈ 𝑝𝑡, así 
∇ log(𝑥𝑡) = 𝑝𝑡 
 
será un proceso relativamente estable. Frecuentemente, ∇ log(𝑥𝑡) es llamado la taza de retorno 
o crecimiento. Esta idea será usada en el ejemplo 3. 
 
Después de transformar adecuadamente los datos, el siguiente paso es identificar los valores 
preliminares del orden autorregresivo, 𝑝, el orden de diferenciación, 𝑑, y el orden de media 
móvil 𝑞. Has analizado ya en parte el problema de la selección 𝑑. Una gráfica de tiempo de los 
datos por lo general te sugerirá si es necesaria una diferenciación. Si la diferenciación se 
requiere, entonces diferencia los datos una vez, 𝑑 = 1, e inspecciona la gráfica de tiempo de 
∇𝑥𝑡. Si se necesita diferenciar una vez más, intenta diferenciar de nuevo e inspecciona la 
gráfica de tiempo de ∇2𝑥𝑡. Ten cuidado de no sobrediferenciar, porque esto puede introducir la 
dependencia donde no existe. Por ejemplo, 𝑥𝑡 = 𝑤𝑡 es no correlacionado, pero ∇𝑥𝑡 = 𝑤𝑡 −𝑤𝑡−1 
es 𝑀𝐴(1). Además de las gráficas de tiempo, el 𝐴𝐶𝐹 muestral puede ayudar a indicar si se 
necesita diferenciación. Como el polinomio 𝜙(𝑧)(1 − 𝑧)𝑑 tiene una raíz unitaria, el 𝐴𝐶𝐹 muestral, 
�̂�(ℎ) no decaerá rapido a cero cuando ℎ aumente. Así, una lenta decadencia de �̂�(ℎ) es una 
indicación de que puede ser necesaria diferenciación. 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 14 
 
Cuando se han establecido valores preliminares 𝑑, el siguiente paso es buscar la 𝐴𝐶𝐹 muestral 
y la 𝑃𝐴𝐶𝐹 de ∇𝑑𝑥𝑡 para cualquier valor de 𝑑 que se ha elegido. Usando como guía lo siguiente, 
se eligen valores preliminares de 𝑝 y 𝑞: si 𝑝 = 0 y 𝑞 > 0, el ACF se corta después de 𝑞 retrasos, 
y la 𝑃𝐴𝐶𝐹 disminuye. Si 𝑞 = 0 y 𝑝 > 0, la 𝑃𝐴𝐶𝐹 se corta después de 𝑝 retrasos, y la 𝐴𝐶𝐹 
disminuye. Si 𝑝 > 0 y 𝑞 > 0, tanto en el 𝐴𝐶𝐹 como el 𝑃𝐴𝐶𝐹 disminuyen. Debido a que se trata 
de estimaciones, no siempre estará claro si el 𝐴𝐶𝐹 muestral o 𝑃𝐴𝐶𝐹 están disminuyendo o se 
interrumpen. Además, dos modelos que son aparentemente diferentes en realidad pueden ser 
muy similares. Con esto en mente, no hay que preocuparse por ser tan preciso en esta etapa 
del modelo de ajuste. En esta etapa, algunos valores preliminares de 𝑝, 𝑑 y 𝑞 deben estar a la 
mano, y puedes empezar a estimar los parámetros. 
 
 
Actividad 2. Reporte de modelos 
A través de esta actividad podrás analizar los modelos presentados enla Actividad 1. 
 
Instrucciones: 
1. Retoma los modelos que presentaste en la actividad 1. 
 
2. Revisa si existe validez de los modelos y si los métodos utilizados son correctos. 
 
3. Ingresa al foro y responde las siguientes preguntas. 
¿En qué contexto se pueden usar estos modelos? 
¿Qué pueden representar con los datos presentados en la Actividad 1? 
 
4. Revisa las aportaciones de dos de tus compañeros(as), aceptando o rechazando sus 
aportaciones. 
 
Consulta la Rúbrica general de la participación en foros, que se encuentra en la sección 
Material de apoyo. 
 
 
3.1.3. La descomposición clásica 
 
Muchas series de tiempo son dominadas por una tendencia y/o estacionalidad, por lo que los 
modelos que se muestran en estos subtemas están basados en estas componentes. Una 
descomposición aditiva simple de un modelo está dada por 
 
𝑥𝑡 = 𝑚𝑡 + 𝑠𝑡 + 𝑧𝑡 (3.1.3.1) 
 
donde, en el tiempo 𝑡, 𝑥𝑡 es serie observada, 𝑚𝑡 es la tendencia, 𝑠𝑡 es la estacionalidad y 𝑧𝑡 es 
un término de error que es, en general, una sucesión de variables aleatorias correlacionadas 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 15 
con media cero. En este subtema se dará una esquematización breve de dos enfoques 
principales para obtener la tendencia 𝑚𝑡 y la estacionalidad 𝑠𝑡 en la ecuación (3.1.3.1). 
 
Si la estacionariedad tiende a incrementarse, un modelo multiplicativo puede ser más 
apropiado: 
 
𝑥𝑡 = 𝑚𝑡 ⋅ 𝑠𝑡 + 𝑧𝑡 (3.1.3.2) 
 
Si la variación aleatoria se modela por un factor multiplicativo y la variable es positiva, un 
modelo de descomposición aditiva para log(𝑥𝑡) se puede utilizar: 
 
log(𝑥𝑡) = 𝑚𝑡 + 𝑠𝑡 + 𝑧𝑡 (3.1.3.3) 
 
Se necesita tener cuidado cuando la función exponencial es aplicada a la predicción de la 
media de log(𝑥𝑡) para obtener una predicción del valor medio de 𝑥𝑡, ya que el efecto es por lo 
general para sesgar las predicciones. Si la serie aleatoria 𝑧𝑡 es normalmente distribuida con 
media cero y varianza 𝜎2, entonces la predicción del valor medio en el tiempo 𝑡 basado en la 
ecuación (3.1.3.3) está dado por 
 
𝑥𝑡 = 𝑒
𝑚𝑡+𝑠𝑡𝑒
1
2
𝜎2
 (3.1.3.4) 
 
Sin embargo, si la serie de errores no es normalmente distribuida y está sesgada 
negativamente, como normalmente ocurre la tomar logaritmos, el factor de corrección de sesgo 
será una sobrecorrección y es preferible aplicar un ajuste empírico. El problema es de 
importancia práctica. Por ejemplo, si haces predicciones financieras regulares sin aplicar un 
ajuste, serás propenso a subestimar constantemente los costos medios. 
 
A continuación se presenta un ejemplo que incluye la aplicación de los métodos anteriores para 
poder realizar el análisis de los datos. 
 
Ejemplo: 
Datos correspondientes al tamaño poblacional de ovejas en Inglaterra y Gales 
 
Los datos 𝑥1, … , 𝑥73 son el tamaño de la población de ovejas medidos en forma anual durante el 
horizonte de tiempo 1867-1939. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 16 
 
Figura 5. Gráficos de datos 
 
 
Figura 6. ACF 
 
La Figura 5 muestra un gráfico de los datos, junto con la Figura 6, que muestra la 𝐴𝐶𝐹, sugiere 
que los datos no son estacionarios, principalmente porque el valor esperado de la serie parece 
cambiar con el tiempo. 
 
Es importante hacer notar que el conocimiento que se tenga del fenómeno bajo estudio juega 
un papel fundamental en la modelación del mismo. 
 
Si en este caso se tuviera conocimiento del comportamiento de las ovejas, como lo puede tener 
un biólogo o un médico veterinario, se podría incorporar esta información a la forma del modelo. 
Por ejemplo, en la Figura 5 la serie parece tener un decremento que se presenta en forma 
cíclica, casi de veinte años; lo anterior sucede hacia 1880, luego hacia 1905 y por último 
alrededor de 1920. Posiblemente existe una razón biológica para este “ciclo potencial”. Es claro 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 17 
que el decremento hacía 1920 debe obedecer al conflicto que el mundo vivió durante la primera 
guerra. 
 
Si se pudiera obtener un modelo de estos datos, el cual usara la llamada descomposición 
clásica, en donde se estimarán una tendencia y una componente cíclica, seguramente le sería 
muy útil a quien estudie este tipo de poblaciones. Tal labor no es trivial y en ocasiones requiere, 
como ya se mencionó, de mayor conocimiento del fenómeno bajo estudio. 
 
Se procede entonces a usar la técnica de transformar estos datos a una serie de tiempo con 
apariencia estacionaria. Para lo anterior se calcula la primera diferencia ∇𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1; 𝑡 =
2,3,… , 73 
 
 
Figura 7. Datos diferenciados 𝑦𝑡 = ∇𝑥𝑡 
 
 
Proponiendo modelos para datos transformados 
 
La Figura 7 muestra un gráfico de los datos diferenciados 𝑦𝑡 = ∇𝑥𝑡. Se aprecia que esta nueva 
serie podría admitir un modelo para datos estacionarios. Las Figuras 8 y 9 son gráficas de la 
𝐴𝐶𝐹 muestral y la 𝑃𝐴𝐶𝐹 muestral para la serie {𝑦𝑡}𝑡. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 18 
 
Figura 8. Gráficas de la ACF 
 
 
Figura 9. 𝑃𝐴𝐶𝐹 muestral para la serie {𝑦𝑡}𝑡. 
 
Siguiendo la gráfica de la 𝐴𝐶𝐹 muestral, se comienza por considerar un modelo 𝑀𝐴(4) para 
estos datos. Por otra parte, la 𝑃𝐴𝐶𝐹 muestral sugiere que se podría usar un 𝐴𝑅(3) como otro 
modelo candidato. Por último, utilizando tablas de correlogramas, como la del libro de Guerrero 
(2009, 122-130) se propone un tercer modelo 𝐴𝑅𝑀𝐴(1,1). La idea de usar estas tablas es 
seleccionar un modelo al comparar la 𝐴𝐶𝐹 y la 𝑃𝐴𝐶𝐹 muestrales de {𝑦𝑡}𝑡 con las 𝐴𝐶𝐹 y 𝑃𝐴𝐶𝐹 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 19 
que aparecen en todo el catálogo (tablas) de modelos estacionarios. Si hay un modelo con 𝐴𝐶𝐹 
y 𝑃𝐴𝐶𝐹 similares a la 𝐴𝐶𝐹 y 𝑃𝐴𝐶𝐹 muestrales, entonces se supone ese modelo para los datos. 
 
Kendall y Ord (1990) también incluyen un catálogo de correlogramas con sus correspondientes 
modelos. 
 
Un aspecto a notar en las Figuras 8 y 9 es que para el lag 𝜏 = 17, la correspondiente 
correlación parece significativa. Para dar un tratamiento a este aspecto, se comienza por 
recordar que tanto �̂�𝜏 como �̂�𝑘𝑘 son aproximaciones a cantidades poblacionales basadas en los 
datos. De lo anterior se debe comprender que un modelo, actúa como si �̂�17 y �̂�17,17 no fueran 
significativos, esto último tiene justificación en la siguiente nota que aparece en varios libros de 
series de tiempo: 
 
“El estimador �̂�𝜏 es útil como estimador de 𝜌𝜏, si 𝑛 ≥ 50 y 𝜏 ≤
𝑛
4
”.” 
 
Para el ejemplo de la primera diferencia de tamaños poblacionales de ovejas 
𝑛
4
≈ 18 por lo cual 
�̂�17 puede no ser buena aproximación a la realidad. 
 
Estimación de los modelos propuestos 
 
Se comienza por usar el paquete estadístico R de distribución gratuita en la red. En específico 
se usará la función 𝑎𝑟𝑖𝑚𝑎(), la cual instrumenta estimación de los parámetros autorregresivos, 
de promedios móviles y de la varianza del ruido blanco, usando el método de máxima 
verosimilitud. 
 
> x <- scan("sheeps.dat") 
Read 73 items 
> x <- ts(x) 
> y <- diff(x,1) 
> y1 <- y - mean(y) 
> ar3fit <- arima(y1,c(3,0,0)) 
> ar3fit 
Call: 
arima(x = y1, order = c(3, 0, 0)) 
Coefficients: 
ar1 ar2 ar3 intercept 
0.4134 -0.2045 -0.3115 -0.2318 
s.e. 0.1192 0.1357 0.1241 7.4553 
 
sigma^2 estimated as 4742: log likelihood = -407.26,aic = 824.51 
> 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 20 
 
Para el modelo autorregresivo de orden 𝑝 = 3, se tiene que 
�̂�1 = 0.4134, �̂�2 = −0.2045, �̂�3 = −0.3115 y �̂�𝜀
2 = 4742. 
 
Así entonces, el modelo estimado para las observaciones centradas 
 
𝑦1
′ = 𝑦1 − �̅�;⋯ ; 𝑦72
′ = 𝑦72 − �̅� 
es 
𝑦𝑡
′ = 0.4134𝑦𝑡−1
′ − 0.2045𝑦𝑡−2
′ − 0.3115𝑦𝑡−3
′ + 𝜀𝑡0 (𝛼) 
 
Aunque el programa R dice que se estimó un término constante �̂� = −0.2318, éste no resulta 
significativo. Haciendo la prueba de hipótesis: 
 
𝐻0: 𝜇 = 0, 
𝑐𝑜𝑛𝑡𝑟𝑎 
𝐻1: 𝜇 ≠ 0, 
(1) 
 
que utiliza la asintoticidad normal del estimador �̂�, se tiene que para 𝑛 grande 
 
�̂�
𝑛→∞
⇒ 𝑁(𝜇, (7.4553)2). 
 
De este resultado, se sigue que un intervalo de confianza al 95% para 𝜇 sería 
 
𝕀𝜇 = (�̂� − 1.96 ∗ 7.4553, �̂� + 1.96 ∗ 7.4553) 
= (−14.83,14.37). 
 
Como el cero está contenido en 𝕀𝜇, entonces no se rechaza 𝐻0. 
 
Ahora se va a estimar el modelo 𝑀𝐴(4) para las observaciones 𝑦1
′ , … , 𝑦72
′ 
 
> x <- scan("sheeps.dat") 
Read 73 items 
> x <- ts(x) 
> y <- diff(x,1) 
> y1 <- y - mean(y) 
> ma4fit <- arima(y1,c(0,0,4)) 
> ma4fit 
Call: 
arima(x = y1, order = c(0, 0, 4)) 
Coefficients: 
ma1 ma2 ma3 ma4 intercept 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 21 
0.3109 -0.2357 -0.5095 -0.5657 -1.9023 
s.e. 0.1190 0.1085 0.1229 0.1169 1.3764 
sigma^2 estimated as 4348: log likelihood = -405.72, aic = 823.45 
𝑦𝑡
′ = 𝜀𝑡 + 0.31.9𝜀𝑡−1 − 0.2357𝜀𝑡−2 − 0.5095𝜀𝑡−3 − 0.5657𝜀𝑡−4 (𝛽) 
 
Nuevamente, el programa estima una constante �̂� = −1.9023, la cual no será significativa y por 
lo tanto no aparece en el modelo. 
 
Por último, se verá el modelo 𝐴𝑅𝑀𝐴(1,1) 
 
> x <- scan("sheeps.dat") 
Read 73 items 
> x <- ts(x) 
> y <- diff(x,1) 
> y1 <- y - mean(y) 
> arma11fit <- arima(y1,c(1,0,1)) 
> arma11fit 
Call: 
arima(x = y1, order = c(1, 0, 1)) 
Coefficients: 
ar1 ma1 intercept 
0.0610 0.4299 0.9652 
s.e. 0.2386 0.2214 13.4305 
 
sigma^2 estimated as 5651: log likelihood = -413.32, aic = 834.63 
 
Es claro que el término constante �̂� = 0.9652 no resulta significativo y por lo tanto no aparece 
en el modelo 
 
𝑦𝑡
′ = 0.0610𝑦𝑡
′ + 0.4299𝜀𝑡−1 + 𝜀𝑡 (𝐴) 
 
Aquí se debe notar que la magnitud del parámetro estimado �̂�1 = 0.0610 comparada con la de 
su error estándar �̂�𝜙1 = 0.2386 hace sospechar que el parámetro 𝜙1 no es significativo en este 
modelo. Para verificar esta conjetura, se calcula el correspondiente intervalo de confianza al 
95%, basado en la teoría asintótica normal para estimadores máximo verosímiles 
 
𝕀𝜙1 = (�̂�1 − 1.96 ∗ 0.2386, �̂�1 + 1.96 ∗ 0.2386) 
= (−0.4066,0.5286) 
 
Como el cero está contenido en este intervalo, entonces en la prueba de la hipótesis 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 22 
 
𝐻0: 𝜙1 = 0, 
𝑐𝑜𝑛𝑡𝑟𝑎 
𝐻1: 𝜙1 ≠ 0, 
 
no se rechaza 𝐻0. Lo anterior dice que este modelo puede no resultar muy adecuado, ya que al 
no rechazar 𝐻0 se puede escribir la ecuación (𝐴) como 
 
𝑦𝑡
′ = 0.4299𝜀𝑡−1 + 𝜀𝑡 , (𝐴′) 
 
es decir, un modelo 𝑀𝐴(1), y no resulta verosímil que para unos datos haya dos modelos 
estacionarios dentro de la misma clase; es decir, promedios móviles de orden 4 como en 𝛽 y 
otros promedios móviles de orden 1 como en 𝐴′. La decisión de cuál de los dos modelos sería 
útil dependerá del análisis de sus residuales. 
 
Análisis de residuales 
 
. 
 
Figura 10. Gráfica en papel normal e histograma de res 
 
La Figura 10 muestra una gráfica en papel normal y un histograma de los residuales 
correspondientes al modelo 𝐴𝑅(3) en la ecuación (𝛼), esta figura se produjo con las 
instrucciones: 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 23 
 
> par(mfrow=c(2,1)) 
> res <- ar3fit$residuals 
> qqnorm(res) 
> qqline(res) 
> hist(res) 
> dev.off() 
 
Al parecer los residuales de este modelo no están lejanos de tener distribución normal, pero 
esto debe comprobarse con una prueba de hipótesis de normalidad como podrían ser 
Anderson-Darling, Kolmogorov-Smirnov o bien Shaphiro-Wilks. 
 
Al calcular la estadística de Anderson-Darling (𝐴𝐷) para estos datos, se obtiene 𝐴𝐷 = 0.1605 y 
el cuantil de la distribución de la estadística a nivel 0.05% vale aproximadamente 0.740. Como 
0.1605 < 0.740, entonces no se rechaza la hipótesis de normalidad de estos residuales. 
 
A continuación se va a estudiar la no correlación y heteroscedasticidad de los residuales del 
modelo 𝐴𝑅(3). La función tsdiag() aplicada al objeto ar3fit; es decir, 
 
> tsdiag(ar3fit) 
 
produce la Figura 11, en la cual el panel superior muestra un gráfico de los residuales como 
serie de tiempo. No se vislumbran cambios en la varianza de la serie de residuales. La gráfica 
central en la Figura 11 muestra la 𝐴𝐶𝐹 de los residuales, al parecer no existe correlación en 
ellos. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 24 
 
Figura 11. ACF de residuales 
 
Con respecto a los residuales para el modelo 𝑀𝐴(4) en la ecuación (𝛽), comienza por 
graficarlos en papel normal y producir un histograma de los mismos 
 
> par(mfrow=c(2,1)) 
> res2 <- ma4fit$residuals 
> qqnorm(res2) 
> qqline(res2) 
> hist(res2) 
> dev.off() 
 
Al igual que en el caso anterior se ve que la distribución de los residuales de este modelo es 
simétrica alrededor del cero y no parce lejana a la distribución normal. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 25 
 
Figura 12. Gráfica en papel normal e Histograma de res2 
 
La estadística de la prueba de Anderson-Darling para normalidad de estos residuales vale 𝐴𝐷 =
0.5441, que tampoco es mayor que el valor crítico a nivel 0.05%, el cual vale 0.74. Por tanto no 
se rechaza normalidad de los residuales para el modelo 𝑀𝐴(4). 
 
Al aplicar la función tsdiag() al objeto ma4fit, se ve que los residuales del modelo 𝑀𝐴(4) no 
parecen tener varianza que cambie con el tiempo, además el ACF muestral de estos residuales 
indico que no son correlacionados. 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 26 
 
Figura 13. Análisis de los residuales 
 
 
Por último, se van a estudiar los residuales del modelo 𝐴𝑅𝑀𝐴(1,1); recuerda que ya se había 
detectado que el parámetro autorregresivo de este modelo no es significativo. 
 
> arma11fit <- arima(y1,c(1,0,1)) 
> res3 <- arma11fit$residuals 
> par(mfrow=c(2,1)) 
> qqnorm(res3) 
> qqline(res3) 
> hist(res3) 
> dev.off() 
 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 27 
 
Figura 14. Gráfica en papel normal e histograma 𝑟𝑒𝑠3 
 
 
Se puede ver que no hay aparente falta de normalidad para estos residuales. La prueba de 
Anderson-Darling para normalidad estadística tiene estadística 𝐴𝐷 = 0.2761, y como este valor 
no excede al valor crítico a nivel 0.05% (0.74), no se rechaza la normalidad para los residuales 
del modelo 𝐴𝑅𝑀𝐴(1,1). 
 
No obstante al aplicar la función tsdiag() al objeto arma11fit 
 
> tsdiag(arma11fit) 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenieríasy Tecnologías 
 28 
 
Figura 15. Gráfica de la ACF muestral 
 
Nota que la ACF muestral para estos residuales no corresponde a ruido blanco. Por ejemplo 
para el lag 𝜏 = 3, �̂�3
𝜀 resulta significativo, ya que se sale de las bandas de confianza. De 
acuerdo con lo discutido durante las unidades 2 y 3, estos residuales están correlacionados, por 
lo cual el modelo 𝐴𝑅𝑀𝐴(1,1) no es adecuado para describir los datos correspondientes a la 
primera diferencia de tamaños poblacionales de las ovejas. 
 
De las anteriores consideraciones se pretende quedar con los modelos 𝑀𝐴(4), el cual no tiene 
ningún problema en los residuales, y con el modelo 𝐴𝑅(3), para el cual en el lag 𝜏 = 17 la 
correlacion 𝜌17 parece significativa. Para asegurar que 𝜌17 no es significativo, se procede a usar 
la prueba de Ljung-Box para probar que las hipótesis 
 
𝐻0: 𝜌1 = 𝜌2 = ⋯ = 𝜌18 = 0 
𝐻1: ∃𝜏 ∈ {1,2,… ,18} 𝑐𝑜𝑛 𝜌𝜏 ≠ 0 
 
> x <- scan("sheeps.dat") 
Read 73 items 
> x <- ts(x) 
> y <- diff(x,1) 
> y1 <- y - mean(y) 
> ar3fit <- arima(y1,c(3,0,0)) 
> res <- ar3fit$residuals 
> BoxSheeps <- Box.test(res,lag=18,type="Ljung",fitdf=3) 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 29 
> BoxSheeps 
Box-Ljung test 
data: res 
X-squared = 14.0075, df = 15, p-value = 0.525 
 
La estadística de prueba calculada es 𝑄 = 14.007, y en teoría se deben consultar tablas de una 
distribución Chi cuadrada con 18 − 3 − 0 = 15 grados de libertad. Al buscar en las tablas de 
esta distribución el valor 90.95 tal que ℙ(χ2 < 90.95) = .95 se tiene que 90.95 ≈ 25. Como 
𝑄 < 90.95, entonces no se rechaza 𝐻0; es decir, todas las correlaciones con lags en el conjunto 
{1,2,… ,18} no son significativas. Por lo tanto los residuales del modelo 𝐴𝑅(3) sí son una 
muestra de observaciones no correlacionadas. 
 
La razón por la cual para este ejemplo se insiste en que el modelo 𝐴𝑅(3) también sea válido es 
porque tiene interpretabilidad, en el sentido de que dice que la primera diferencia del tamaño 
poblacional de las ovejas depende significativamente de lo sucedido en la historia del proceso 
tres (𝑝 = 3) pasos atrás. 
 
Uso de los modelos para predicción 
 
Habiendo validado los modelos 𝑀𝐴(4) y 𝐴𝑅(3) para poderlos usar en aplicaciones estadísticas, 
procede a construir predicciones para el año 1940 usando ambos modelos. 
 
> frame() 
> x <- scan("sheeps.dat") 
> x <- ts(x) 
> 
> ar3fit <- arima(x,c(3,1,0)) 
>> 
> pred <- predict(ar3fit, n.ahead = 1) 
> tl <- pred$pred - 1.96 * pred$se 
> tu <- pred$pred + 1.96 * pred$se 
> 
> x1 <- seq(1867,1939,by=1) 
> x2 <- c(x1,1940,1941) 
> Rx1 <- c(1865,1943) 
> Ry <- c(1200,2400) 
> par(usr = c(Rx1,Ry), mai = c(0.9,0.8,0.5,0.5)) 
> lines(x1,x, type ="l") 
> xlab <- c(1865,1885,1905,1925,1941) 
> axis(side = 1, at = xlab, labels=xlab) 
> ylab <- seq(12,24,by=2) 
> ytrue <- ylab*100 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 30 
> axis(side = 2, at = ytrue, labels = ytrue) 
> 
> points(1940,tl,pch="*") 
> points(1940,tu,pch="*") 
> points(1940,pred$pred) 
 
La Figura 16 muestra, usando un carácter circular “o” la predicción para el tamaño poblacional 
de las ovejas en el año 1940, los caracteres “*” indican los límites inferior y superior del intervalo 
de predicción construido de acuerdo con la discusión en la unidad 2. Para esta predicción se 
asume el modelo 𝐴𝑅(3). 
 
 
Figura 16. Límites inferior y superior del intervalo de predicción 
 
Para el modelo 𝑀𝐴(4), se construye una predicción y un intervalo de predicción en forma 
análoga. 
 
>frame() 
> x <- scan("sheeps.dat") 
> x <- ts(x) 
> 
> 
> ma4fit <- arima(x,c(0,1,4)) 
> pred <- predict(ma4fit, n.ahead = 1) 
> 
> 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 31 
> tl <- pred$pred - 1.96 * pred$se 
> tu <- pred$pred + 1.96 * pred$se 
> 
> 
> x1 <- seq(1867,1939,by=1) 
> x2 <- c(x1,1940,1941) 
> Rx1 <- c(1865,1943) 
> Ry <- c(1200,2400) 
> par(usr = c(Rx1,Ry), mai = c(0.9,0.8,0.5,0.5)) 
> lines(x1,x, type ="l") 
> xlab <- c(1865,1885,1905,1925,1941) 
> axis(side = 1, at = xlab, labels=xlab) 
> ylab <- seq(12,24,by=2) 
> ytrue <- ylab*100 
> 
> axis(side = 2, at = ytrue, labels = ytrue) 
> 
> points(1940,tl,pch="*") 
> points(1940,tu,pch="*") 
> points(1940,pred$pred) 
 
 
Figura 17. Figura 16. Límites inferior y superior del intervalo de predicción 
 
 
Ambos modelos parecen dar predicciones adecuadas; un ejercicio común en literatura consiste 
en volver a ajustar los modelos asumiendo que no se conoce el último dato (en cuyo caso se 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 32 
parte de 𝑛 − 1 observaciones, si ello es posible). Al producir un intervalo de predicción con las 
primeras 𝑛 − 1 observaciones se esperaría que éste contenga a la observación 𝑥𝑛. 
 
Aunque la capacidad de predecir es una forma de seleccionar modelos, en esta discusión se 
concluye además el uso del criterio de información de Akaike (AIC). 
 
Para el modelo 𝐴𝑅(3) la estadística 𝐴𝐼𝐶 vale 824.51 mientras que para el 𝑀𝐴(4), 𝐴𝐼𝐶 = 823.45. 
Así entonces, si se basa en el uso del 𝐴𝐼𝐶 para seleccionar el mejor modelo se propone el 
𝑀𝐴(4) por tener la estadística 𝐴𝐼𝐶 más pequeña; sin embargo, se sigue insistiendo en la 
importancia de considerar ambos modelos ya que el 𝐴𝑅(3) tiene interpretabilidad. 
 
Autoevaluación 
Para reforzar los conocimientos relacionados con los temas que se abordaron en esta unidad 
del curso, es necesario que resuelvas la autoevaluación. 
 
Ingresa al Aula virtual para realizar tu actividad. 
 
 
 
Evidencia de Aprendizaje. Ajuste de modelos ARIMA 
A través de esta actividad, podrás ajustar modelos ARIMA. Para ello: 
 
1. Descarga el documento: EA. Ajuste de modelos ARIMA. 
 
2. Elabora un reporte descriptivo de un ajuste de los datos que se encuentran en el 
archivo descargable. Puedes guiarte con el ejemplo al final de la unidad 3. 
 
Hint: como sugerencia, primero estabiliza la varianza y luego intenta diferenciarlo. 
 
3. Guarda y envía tu reporte al portafolio de evidencias con la nomenclatura 
MEST3_U3_EA_XXYZ. 
 
4. Envía tu reporte al portafolio de evidencias y espera la retroalimentación de tu 
Facilitador(a). Una vez que la tengas, atiende sus comentarios y reenvía la nueva 
versión de tu evidencia. 
 
Nota: no olvides consultar la Escala de evaluación para conocer los criterios con que será 
evaluado tu trabajo. 
 
 
 
Autorreflexiones 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 33 
 
Como parte de cada unidad, es importante que ingreses al foro Preguntas de autorreflexión y 
leas los cuestionamientos que formuló tu Facilitador(a), ya que a partir de ellos debes elaborar 
tu autorreflexión y enviarla mediante la herramienta Autorreflexiones. No olvides que también 
se toman en cuenta para la calificación final. 
 
 
Cierre de la unidad 
 
En esta unidad has estudiado el uso de modelos para series de tiempo estacionarias para 
describir datos que no necesariamente corresponden a una serie de tiempo estacionaria. Lo 
anterior es importante, ya que en la mayoría de los casos una colección de mediciones en el 
tiempo asociadas con un fenómeno real no tienen por qué tener un comportamiento como el 
que asumen los modelos estacionarios. No obstante, a lo largo de la unidad has aprendido que 
existen métodos para transformar los datos en series de tiempo que sigan los supuestos de los 
modelosestacionarios, de forma que sea posible regresar (invertir la transformación) a los datos 
originales para poder sacar conclusiones. Una vez transformados los datos, has hecho uso de 
los métodos descritos en la unidad 2 para diagnosticar, ajustar y juzgar la bondad de un modelo 
para los datos, por ende el análisis de residuales de los modelos sigue siendo esencial en la 
unidad 3 para hacer uso del modelo con fines de predicción, descripción y cualquier otra 
aplicación en el contexto del fenómeno que se esté estudiando. 
 
 
Para saber más 
 
Para conocer un método adicional para indentificar el modelo 𝐴𝑅𝑀𝐴 apropiado puedes revisar 
el libro Analysis of financial time series, de Ruey S. Tsay. 
 
Para identificar de manera más apropiada del modelo sin tener información del origen de las 
observaciones, consulta la estadística Akaike, que puedes encontrar, por ejemplo, en 
Shumway, R. H. y Stoffer, D. S. (2010), en la página 52. 
 
 
Referencias Bibliográficas 
 
 Brockwell, J. y Davis, A. (2009). Time series: Theory and Methods. New York: 
Springer-Verlag. 
 
 Cowpertwait, P. (2010). Introductory Time Series with R. New York: Springer-Verlag. 
 
 Guerrero, V. (2009). Análisis Estadístico de Series de Tiempo Económicas. 
México: Just in Time press. 
 
 
Estadística III 
Unidad 3. Modelos para datos no estacionarios 
Educación Abierta y a Distancia * Ciencias Exactas, Ingenierías y Tecnologías 
 34 
 
 Shumway, R. y Stoffer, D. (2010). Time Series Analysis and Its Applications: with 
R examples. New York: Springer-Verlag.

Continuar navegando

Materiales relacionados

123 pag.
DocsTec-4847

ITESM

User badge image

Todo para Aprender

35 pag.
141 pag.
Mineria-de-datos-con-aplicaciones

User badge image

Aprendiendo Matemáticas y Fisica