Logo Studenta

Analisis de Causalidad para Series de Tiempo Multivariadas Funcionales

¡Este material tiene más páginas!

Vista previa del material en texto

Análisis de Causalidad para Series de
Tiempo Multivariadas Funcionales
Jhon Eduwin Maya Orozco
Universidad Nacional de Colombia
Facultad de Ciencias
Bogotá, Colombia
2022
Análisis de Causalidad para Series de
Tiempo Multivariadas Funcionales
Jhon Eduwin Maya Orozco
Trabajo final presentado como requisito parcial para optar al título de:
Magister en Ciencias - Estadística
Director(a):
Ph.D. en Estadística, Sergio Alejandro Calderón Villanueva
Co-Director(a):
Ph.D. en Estadística, Rubén Darío Guevara González
Línea de Investigación:
Series Temporales y Datos Funcionales
Universidad Nacional de Colombia
Facultad de Ciencias
Bogotá, Colombia
2022
A mis padres, por su sacrificio, por su ayuda, por
su dedicación, gracias por tanto.
A Linda, Lisa y Laura, mis 3 pequeñas, que la
vida les sonría el doble de lo que a mi.
Agradecimientos
A los profesores Sergio Calderón y Rubén Guevara, les agradezco por su invaluable guía
y acompañamiento, por su paciencia y calidez humana, por sus consejos y por acercarme al
mundo académico de una manera tan atenta, estaré eternamente agradecido con ambos. A la
profesora Gladys Salcedo, mi sincero agradecimiento por el recibimiento y atención que me
brindó, sin ella nada hubiera sido posible. A mi gran amigo y compañero Miguel De Souza,
gracias por su gran apoyo. A mis familiares y amigos, todos quienes me apoyaron y alenta-
ron a continuar pese a las dificultades, muchas gracias a todos. A la universidad del Quindío
y a la Universidad Nacional, por permitirme acercarme a mis sueños, infinitas gracias a todos.
ix
Resumen
Análisis de Causalidad para Series de Tiempo Multivariadas funcionales
La causalidad de Granger es una prueba creada hace casi medio siglo que permite saber si
una serie temporal ayuda en la predicción de otra. Para el caso de series temporales fun-
cionales el tema ha sido explorado por autores como Saumard y Hadjadji (2021) o Sen et
al. (2022), sin embargo el tema posee aún muchas lineas de investigación abiertas que han
sido poco exploradas. Este trabajo se concentra en estudiar una extensión de las pruebas
de causalidad de Granger para series de tiempo funcionales multivariadas de dimensiones
mayores a 2 (específicamente 3 y 4), basada en los procedimientos propuestos por Saumard
y Hadjadji (2021). Para este fin se simulan procesos bivariados, tri-variados y tetra-variados
a partir de modelos FAR(1) y FARX(1). Se realizan las pruebas de causalidad de Granger
a través de tres procedimientos (DFPCA, F-causalidad y G-causalidad). Se encuentra que
la prueba que presenta mejores resultados a través del estudio de simulación es la que hace
uso de los componentes principales dinámicos DFPCA y que la variabilidad explicada por
el número de componentes afecta de manera sensible la potencia de la prueba. Se realiza
un ejemplo de aplicación para ilustrar los procedimientos propuestos en el que se verifica si
existe causalidad entre el precio del dólar (Yt), el precio del petróleo Brent (Xt1) y la tasa de
interés de los bonos colombianos a 10 años (Xt2). Se confirma la causalidad de las variables
Xti sobre la variable Yt tal y como la teoría económica parece predecir.
Palabras clave: Series temporales, Datos Funcionales, Causalidad de Granger, Modelos
Autorregresivos Funcionales (FAR), Modelos Autorregresivos Funcionales con varia-
bles exógenas (FARX) .
Abstract
Causal Analysis for Multivariate Functional Time Series
Granger causality is a test created almost half a century ago that allows us to know if one
time series helps in the prediction of another. In the case of functional time series, the topic
has been explored by authors such as Saumard y Hadjadji (2021) or Sen et al. (2022), howe-
ver the topic still has many open lines of research that have been little explored. This work
focuses on studying an extension of the Granger causality tests for multivariate functional
time series of dimensions greater than 2 (specifically 3 and 4), based on the procedures pro-
posed by Saumard y Hadjadji (2021). For this purpose, bivariate, trivariate and tetravariate
x
processes are simulated using FAR(1) and FARX(1) models. Granger causality tests are ca-
rried out through three procedures (DFPCA, F-causality and G-causality). It is found that
the test that presents the best results through the simulation study is the one that makes
use of the DFPCA dynamic principal components and that it will have been explained by
the number of components that significantly affects the power of the test. An application
example is carried out to illustrate the proposed procedures in which it is verified if there is
causality between the price of the dollar (Yt), the price of Brent oil (Xt1) and the interest
rate of the Colombian 10-year bonds (Xt2). The causality of the variables Xti on the variable
Yt is confirmed, as economic theory seems to predict.
Keywords: Time Series, Functional Data, Granger Causality, Functional Autorregresi-
ve Models (FAR), Functional Autorregresive Models with exogenous variables (FARX).
Contenido
Agradecimientos VII
Resumen IX
Lista de figuras XV
Lista de tablas 1
1. Introducción 3
2. Marco Teórico 6
2.1. Series Temporales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Modelo de vectores autorregresivos VAR . . . . . . . . . . . . . . . . . . . . 9
2.3. Causalidad de Granger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4. Datos Funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.1. Series de tiempo funcionales . . . . . . . . . . . . . . . . . . . . . . . 12
2.5. Igualdad de Operadores de Covarianza para Series de Tiempo Funcionales . 14
2.6. Causalidad de Granger en Datos Funcionales . . . . . . . . . . . . . . . . . . 16
2.7. Modelo de Vectores Autorregresivos Funcional VFAR . . . . . . . . . . . . . 17
2.7.1. Modelo Funcional Autorregresivo con Variables Exógenas FARX . . . 18
2.8. Componentes Principales Funcionales Dinámicos FPCA . . . . . . . . . . . . 21
3. Metodología 26
3.1. Procedimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.1. Procedimiento 1: F-Causalidad . . . . . . . . . . . . . . . . . . . . . 26
3.1.2. Procedimiento 2: Componentes principales dinámicos . . . . . . . . . 26
3.1.3. Procedimiento 3: G-causalidad . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Simulación de los Procesos FAR(1) y FARX(1) . . . . . . . . . . . . . . . . . 27
3.3. Escenarios de Simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4. Aplicación de las pruebas a las observaciones simuladas . . . . . . . . . . . . 33
3.4.1. Componentes principales dinámicos DFPCA . . . . . . . . . . . . . . 34
3.4.2. Comparación de operadores de covarianza F-causalidad . . . . . . . . 34
3.4.3. Prueba de causalidad clásica G-causalidad . . . . . . . . . . . . . . . 35
xii Contenido
4. Resultados 36
4.1. Componentes Principales Dinámicos DFPCA . . . . . . . . . . . . . . . . . . 36
4.1.1. Procesos Bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.1.2. Procesos Trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.1.3. Procesos Tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2. Prueba de Igualdad de Operadores de Covarianza F-Causalidad . . . . . . . 42
4.2.1. Procesos Bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.2. Procesos Trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.3. Procesos Tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3. Prueba de Causalidad de Granger Multivariada G-Causalidad . . . . . . . . 46
4.3.1. Procesos Bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3.2. Procesos Trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3.3. Procesos Tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5. Ejemplo Aplicado 54
5.1. Los Datos . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 54
5.2. El Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3. El Resultado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6. Conclusiones y Trabajo Futuro 59
6.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2. Trabajo Futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
A. Anexo A: Códigos utilizados 65
A.1. Librerías utilizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
A.2. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
A.2.1. simul.farx.bi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
A.2.2. simul.farx.tri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
A.2.3. simul.farx.tetra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
A.2.4. Plot_functions_own . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
A.2.5. DFPCA.BI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
A.2.6. DFPCA.TRI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
A.2.7. DFPCA.TETRA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
A.2.8. F_causalidad_bi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
A.2.9. F_causalidad_tri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
A.2.10.F_causalidad_tetra . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
A.2.11.g_causalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
A.2.12.LISTA_FARX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
A.2.13.REPETIR_DFPCA . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
A.2.14.REPETIR_F_CAUSALIDAD . . . . . . . . . . . . . . . . . . . . . 81
A.2.15.REPETIR_G_CAUSALIDAD . . . . . . . . . . . . . . . . . . . . . 81
Contenido xiii
A.3. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
A.3.1. Resultados DFPCA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
A.3.2. Resultados F_causalidad . . . . . . . . . . . . . . . . . . . . . . . . . 91
A.3.3. Resultados G_causalidad . . . . . . . . . . . . . . . . . . . . . . . . 94
A.4. Ejemplo Aplicado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Lista de Figuras
2-1. Inflación mensual de Colombia año corrido 2018 - 2020 . . . . . . . . . . . . 6
2-2. Temperatura del 6 de julio de 1997 en la ciudad de Kent, Australia . . . . . 7
2-3. Observaciones espectrométricas funcionales de azúcar . . . . . . . . . . . . . 12
3-1. Ejemplo de proceso FAR(1) con 100 observaciones simuladas . . . . . . . . . 28
3-2. Proceso bivariado simulado a partir del modelo FARX(1) Yn (negro) y Proceso
Xn (azul) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4-1. Potencia de la prueba DFPCA en procesos bivariados a medida que el βa de
los kernel en los operadores interdependientes se incrementan utilizando 1, 2
y 3 componentes principales dinámicos . . . . . . . . . . . . . . . . . . . . . 37
4-2. Potencia de la prueba DFPCA en procesos trivariados a medida que el βa de
los kernel en los operadores interdependientes se incrementan utilizando 1, 2
y 3 componentes principales dinámicos . . . . . . . . . . . . . . . . . . . . . 39
4-3. Potencia de la prueba DFPCA en procesos tetravariados a medida que el βa
de los kernel en los operadores interdependientes se incrementan utilizando 1,
2 y 3 componentes principales dinámicos . . . . . . . . . . . . . . . . . . . . 41
4-4. Potencia de la prueba F-causalidad en procesos bivariados a medida que el βa
de los kernel en los operadores interdependientes se incrementan utilizando
entre 1 y 6 componentes principales, la selección automática de Panaretos
et al. (2010) y el método de Fremdt et al. (2013) para procesos bivariados . . 44
4-5. Potencia de la prueba F-causalidad en procesos bivariados a medida que el βa
de los kernel en los operadores interdependientes se incrementan utilizando
entre 1 y 6 componentes principales, la selección automática de Panaretos
et al. (2010) y el método de Fremdt et al. (2013) para procesos trivariados . 46
4-6. Potencia de la prueba F-causalidad en procesos bivariados a medida que el βa
de los kernel en los operadores interdependientes se incrementan utilizando
entre 1 y 6 componentes principales, la selección automática de Panaretos
et al. (2010) y el método de Fremdt et al. (2013) para procesos tetravariados 48
4-7. Potencia de la prueba G-causalidad en procesos bivariados a medida que el
βa de los kernel en los operadores interdependientes se incrementan utilizando
entre 1 y 8 rezagos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
xvi Lista de Figuras
4-8. Potencia de la prueba G-causalidad en procesos trivariados a medida que el
βa de los kernel en los operadores interdependientes se incrementan utilizando
entre 1 y 8 rezagos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4-9. Potencia de la prueba G-causalidad en procesos tetravariados a medida que el
βa de los kernel en los operadores interdependientes se incrementan utilizando
entre 1 y 8 rezagos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5-1. Series de tiempo del precio del dólar, el petróleo Brent y tasa de interés de
los bonos colombianos entre 2013 y 2022 . . . . . . . . . . . . . . . . . . . . 55
5-2. Series de tiempo diferenciadas del precio del dólar, el petróleo Brent y tasa
de interés de los bonos colombianos entre 2013 y 2022 . . . . . . . . . . . . . 56
5-3. Series de tiempo diferenciadas y suavizadas mensualmente del precio del dólar,
el petróleo Brent y tasa de interés de los bonos colombianos entre 2013 y 2022 57
Lista de Tablas
3-1. Escenarios de simulación para el caso bivariado . . . . . . . . . . . . . . . . 31
3-2. Escenarios de simulación para el caso trivariado . . . . . . . . . . . . . . . . 31
3-3. Escenarios de simulación para el caso tetravariado . . . . . . . . . . . . . . . 32
4-1. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para
los 11 casos evaluados utilizando 1, 2 y 3 componentes principales dinámicos
en la Prueba DFPCA para procesos bivariados . . . . . . . . . . . . . . . . . 36
4-2. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para
los 11 casos evaluados utilizando 1, 2 y 3 componentes principales dinámicos
en la Prueba DFPCA para procesos trivariados . . . . . . . . . . . . . . . . 38
4-3. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para
los 11 casos evaluados utilizando 1, 2 y 3 componentes principales dinámicos
en la Prueba DFPCA para procesos tetravariados . . . . . . . . . . . . . . . 40
4-4. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los
11 casos evaluados utilizando entre 1 y 6 componentes principales, la selección
automática de Panaretos et al. (2010) y método de Fremdt et al. (2013) en la
Prueba F-causalidad para procesos bivariados . . . . . . . . . . . . . . . . . 42
4-5. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los
11 casos evaluados utilizando entre 1 y 6 componentes principales, la selección
automática de Panaretos et al. (2010) y método de Fremdt et al. (2013) en la
Prueba F-causalidad para procesos trivariados . . . . . . . . . . . . . . . . . 45
4-6. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los
11 casos evaluados utilizando entre 1 y 6 componentes principales, la selección
automática de Panaretos et al. (2010) y método de Fremdt et al. (2013) en la
Prueba F-causalidad para procesos tetravariados . . . . . . . . . . . . . . . . 47
4-7. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los
11 casos evaluados utilizando entre 1 y 8 rezagos en la Prueba G-causalidad
para procesos bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4-8. Cantidadde veces que no se rechazó la hipótesis nula de no causalidad para los
11 casos evaluados utilizando entre 1 y 8 rezagos en la Prueba G-causalidad
para procesos trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2 Lista de Tablas
4-9. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los
11 casos evaluados utilizando entre 1 y 8 rezagos en la Prueba G-causalidad
para procesos tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1. Introducción
Por mucho tiempo, investigadores de diversas áreas como medicina, economía o química, han
hecho esfuerzos en encontrar las relaciones causales que existen entre diferentes fenómenos,
dada la importancia y utilidad de ello para la ciencia. Esto lo hacen estimulando o modifi-
cando el comportamiento de algunas variables y observando el efecto que tienen sobre otra u
otras o, analizando los resultados históricos de variables correlacionadas a través del tiempo.
En este sentido, uno de los métodos más utilizados para inferir este tipo de relaciones cau-
sales es el propuesto por Wiener (1956) y estructurado y formalizado por Granger (1969), a
quien se debe su nombre (Seth, 2007).
Granger (1969), propuso una metodología para inferir la causalidad en el estudio de series
temporales, puesto que, por su característica de orden en el tiempo, es posible verificar cier-
tos supuestos dentro de los datos que toda relación causal debe cumplir. La idea de Granger
se basa en verificar que la causa sucede antes de la consecuencia, además que si una variable
X causa a una variable Y entonces, debe suceder que los datos de la variable X aportan
información en función de la predicción de la variable Y , que esta no posee por sí misma.
Es decir, que la variable X mejora el pronóstico de la variable Y . Algunos autores que han
trabajado esta temática son: Sims (1972) quien aplica el procedimiento para analizar la cau-
salidad entre la masa monetaria y el ingreso en EEUU, Skoog et al. (1976) que se dispone
a demostrar varias proposiciones que están relacionadas con el concepto de causalidad y
exogeneidad en el análisis de procesos débilmente estacionarios, Williams et al. (1976) donde
se emula el trabajo realizado por Sims (1972) para Reino Unido, y Boudjellaba et al. (1992)
quienes analizaron la causalidad en el sentido de Granger con modelos de medias móviles
(Lütkepohl, 2005) (Seth, 2007). Una revisión histórica y exhaustiva de la metodología se
puede encontrar en el trabajo publicado por Shojaie y Fox (2022), donde además de plantear
la revisión de los primeros desarrollos y debates del tema, se discuten los avances recientes
de este enfoque, desde aplicaciones para series de tiempo de alta dimensionalidad hasta de-
sarrollos mas recientes para observaciones no lineales, no gaussianas y series temporales sub
muestreadas y de frecuencia mixta.
A día de hoy, la notable mejora en la capacidad computacional y de análisis, y el crecimien-
to exponencial en el almacenamiento y procesamiento de datos, garantiza tener una visión
mucho más completa de los fenómenos estudiados, además de permitir el acceso a series
temporales recolectadas con muy altas frecuencias. De esta manera, el análisis de estas va-
4 1 Introducción
riables se enriquece mediante el uso de técnicas que aprovechen este incremento drástico en
la información, papel cumplido por el Análisis de Datos Funcionales o FDA por sus siglas en
inglés (Functional Data Analysis), las cuales nos permiten utilizar estas series y entender-
las como funciones con valores que existen para cualquier punto en un intervalo determinado.
La literatura a partir del nuevo milenio en cuanto al FDA ha sucitado algún interés entre los
académicos, particularmente, la monografía que es punto de referencia, y a partir de la cual
surge la popularización de la metodología es el libro presentado por Ramsay y Silverman
(2005), su primera edición fue publicada en 1997 y a partir de allí se convirtió rápidamen-
te en una útil caja de herramientas para muchos investigadores alrededor del mundo cuyo
número aumentaba de manera ininterrumpida. Tanto así que los mismos autores publicaron
pocos años después un trabajo enfocado en la ilustración de las técnicas de FDA a través de
estudios específicos utilizando datos reales. (Ramsay & Silverman, 2002)(Cuevas, 2014).
Algunos trabajos que se han concentrado en estudiar los datos funcionales son Horváth y
Kokoszka (2012) donde se estudia a profundidad la inferencia estadística para datos fun-
cionales y sus aplicaciones, Ferraty y Romain (2011) que presenta el estado del arte de
los análisis estadísticos para datos funcionales, Zhang (2014) quien detalla con minuciosi-
dad el análisis de varianza sobre datos funcionales y Srivastava y Klassen (2016) donde se
presenta una completa y detallada exposición en el análisis estadístico de funciones y formas.
Específicamente en el área de series de tiempo de datos funcionales, encontramos el trabajo
de Bosq (2000), en el cual se plantea como tema principal la estimación y el pronóstico de
series de datos en tiempo continuo, además busca el desarrollo teórico de los procesos lineales
en espacios funcionales. Este libro presenta la correspondiente teoría general de los procesos
autorregresivos funcionales (Cuevas, 2014). Los modelos autorregresivos para series tempo-
rales funcionales también han tenido avances en la última década, para una revisión se puede
consultar en Chen et al. (2021) donde se hace un repaso de las principales metodologías de
modelos autorregresivos para el caso de datos funcionales y se realizan ejemplos aplicados
sobre datos reales.
Algunos trabajos que han estudiado la causalidad de Granger en el contexto de los datos
funcionales son: Saumard (2017) donde se extiende el concepto de causalidad de Granger
al marco teórico de los datos funcionales. Además, existen trabajos que han aplicado la
metodología propuesta por Saumard (2017) a problemas empíricos, como el de Elmezouar
(2020) que estudia la relación causal entre precio del petróleo y el producto interno bruto
PIB de Arabia Saudí, o el de Sancetta (2019) que realiza una aplicación a la econometría
financiera. Todo esto para el caso de series de tiempo funcionales bivariadas. Por último, el
trabajo de y Saumard y Hadjadji (2021) el retoma la definición de causalidad de Granger
para generalizarla al caso de series temporales funcionales, haciendo uso del estudio realizado
5
por Hörmann y Kokoszka (2010) sobre dependencia lineal de datos funcionales, los avances
en componentes principales funcionales realizados por Hörmann et al. (2015), las pruebas de
igualdad de operadores de Zhang y Shao (2015), los modelos autorregresivos de Bosq (2000)
y el modelo FVAR propuesto por Chen et al. (2019).
Así pues, con el fin de aportar al estudio de la causalidad en el sentido de Granger en datos
funcionales, este trabajo pretende realizar una extensión para el caso multivariado del análisis
de causalidad propuesto por Saumard y Hadjadji (2021), realizando un estudio de simula-
ción sobre procesos bivariados, trivariados y 4-variados de las metodologías allí explicadas.
Cabe señalar la importancia de este tipo de análisis, la cual se puede exponer desde dos
aspectos. En primer lugar, desde el punto de vista teórico la extensión al caso multivariado
de conceptos de una sola variable es el desarrollo natural de los mismos, y permite evaluar
el comportamiento de las metodologías propuestas en contextos de mayores dimensiones. En
segundo lugar, desde la perspectiva práctica se parte de la premisa de que los fenómenos no
son causados por una única variable sino por un conjunto de variables, lo cual enriquece el
análisis al incorporar las posibles interrelaciones entre las series temporales que hacen parte
del proceso, además de sistemas de retroalimentación causal.
La estructura del texto es como sigue: en el capítulo 2 se presentan las bases teóricas sobre
las cuales se fundamenta el trabajo, definiendo los conceptos de seriestemporales, modelos
VAR, causalidad de Granger, datos funcionales, causalidad de Granger para datos funcio-
nales, FPCA dinámicos, el modelo VFAR y el modelo FARX. En el capítulo 3, se presenta
la metodología para realizar la extensión al caso trivariado y 4-variado de la causalidad de
Granger en datos funcionales y los escenarios de análisis. En el capítulo 4 se exponen los
resultados del estudio de simulación y en el capítulo 5 una aplicación en datos reales. Por
último en el capítulo 6 se muestran las conclusiones y recomendaciones derivadas del estudio.
2. Marco Teórico
En este capítulo se definirán las bases teóricas sobre las que se fundamentan las metodologías
que se utilizaron, esto con el fin de precisar las definiciones y conceptos y facilitar el enten-
dimiento de los desarrollos teóricos y metodológicos posteriores. El capítulo se divide en dos
apartados principales, series temporales y datos funcionales, sobre los que se expondrán las
ideas más relevantes para el desarrollo de este trabajo.
2.1. Series Temporales
Una serie temporal es un conjunto de observaciones {xt}, cada una de las cuales se ha
registrado en un momento específico del tiempo t. Las series temporales discretas son aquellas
en las cuales el conjunto T de tiempos en los que se realizan las observaciones es discreto.
Las series de tiempo continuas son aquellas que se observan durante un intervalo de tiempo
continuo, por ejemplo, T = [0, 1] (Brockwell & Davis, 2016, pag. 1). Un ejemplo de serie de
tiempo discreta se presenta a continuación:
Figura 2-1.: Inflación mensual de Colombia año corrido 2018 - 2020
2.1 Series Temporales 7
Figura 2-2.: Temperatura del 6 de julio de 1997 en la ciudad de Kent, Australia
En la figura 2-1 se presenta la inflación año corrido colombiana tomada mensualmente desde
enero del año 2018 hasta diciembre del año 2020, en este ejemplo se nota el intervalo regular
(meses) en que se mide la variable en cuestión, además de que el conjunto T de observacio-
nes es discreto. La serie de tiempo mostrada en esta figura, se conoce como serie de tiempo
univariada, debido a que se mide únicamente una variable, y cada observación de la misma
es un escalar. Una parte importante del análisis de series temporales como la de la figura
2-1 es la selección de un modelo probabilístico adecuado para los datos. Es natural en este
contexto suponer que cada observación xt es una realización de una determinada variable
aleatoria Xt, de este modo, un modelo de series temporales para los datos observados {xt}
es una especificación de la distribución conjunta (o en la mayoría de casos aplicados solo
medias y covarianzas) de una secuencia de variables aleatorias {Xt} (Brockwell & Davis,
2016).
Otro ejemplo de serie temporal se presenta en la figura 2-2 en la cual se puede ver el com-
portamiento de la temperatura tomada en un día específico a intervalos de 30 minutos en
una ciudad australiana. Aunque el registro de las observaciones de esta serie de tiempo es
discreto, se puede entender el concepto de la temperatura como una serie temporal continua
en el intervalo de un día completo.
Un concepto importante en el análisis de series temporales es la estacionariedad, muy grosso
modo, este concepto se refiere a la propiedad de que una serie de tiempo mantenga sus ca-
racterísticas estadísticas a través del tiempo, esta idea puede quedar un poco más clara con
las siguientes definiciones:
8 2 Marco Teórico
Sea {Xt} una serie de tiempo con E(X2
t ) <∞. la función media de {Xt} es
µXt = E{Xt}.
La función de autocovarianza de {Xt} es
γ(r, s) = Cov(Xr, Xs) = E[(Xr − µXt)(Xs − µXt)]
para todos los enteros r y s. (Brockwell & Davis, 2016).
{Xt} es débilmente estacionaria si se cumplen las siguientes condiciones:
i) µXt es independiente del tiempo t en la serie temporal
ii) γ(t+ h, t) depende únicamente de h y no del tiempo t
Así pues, un ejemplo de un modelo sencillo pero muy utilizado en el análisis de series tem-
porales es el proceso autorregresivo de orden 1 AR(1) que se describe a continuación:
{Xt} es una serie estacionaria que satisface las ecuaciones:
Xt = ϕXt−1 + ϵt,
donde {ϵt} es un ruido blanco que tiene media 0 y varianza σ2, y representa las innovaciones
del proceso temporal, además ϕ es el operador autorregresivo que debe cumplir la condición
de estar entre 1 y −1, esto con el fin de mantener la estabilidad del proceso (Brockwell
& Davis, 2016). En este modelo es posible ver que la variable aleatoria para el tiempo t
depende directamente de una innovación aleatoria y del valor de la variable aleatoria en el
tiempo inmediatamente anterior, t−1. Una extensión natural de este modelo, sería el proceso
autorregresivo de orden p, o AR(p), en el cual el valor t de la serie de tiempo está dado en
función no solo de su realización en el tiempo t − 1, sino de todas las anteriores hasta un
determinado t− p Así:
Xt = ϕ1Xt−1 + ϕ2Xt−2 + · · ·+ ϕpXt−p + ϵt,
Además de este tipo de series temporales univariadas, se pueden analizar también series de
tiempo múltiples, donde se tienen en cuenta K variables y cada observación es un vector de
K componentes. Así pues, una serie de tiempo múltiple tiene la forma xkt con k = 1, . . . , K y
t = 1, . . . , T , o también, xt (notando los vectores con negrilla), con t = 1, . . . , T observaciones
vectoriales, donde cada vector posee K componentes. De manera que es posible estudiar las
interrelaciones entre las series temporales individuales y sus propiedades (Lütkepohl, 2005,
pag. 1).
2.2 Modelo de vectores autorregresivos VAR 9
2.2. Modelo de vectores autorregresivos VAR
Es posible considerar una extensión del proceso AR(p) para el caso de las series tempora-
les multivariadas, y con ello entenderlo de mejor manera. Esta extensión tendría la forma
siguiente:
x̂kT+1 = α+βk1,1x1,T+βk2,1x2,T+· · ·+βkK,1xK,T+· · ·+βk1,px1,T−p+1+· · ·+βkK,pxK,T−p+1 (2-1)
Con k = 1, . . . , K. Para simplificar esta expresión, se puede utilizar la notación vectorial:
xt := (x1t, . . . , xKt)
′
x̂t := (x̂1t, . . . , ˆxKt)
′
α := (α1t, . . . , αKt)
′
Bi :=
β11,i . . . β1K,i
... . . . ...
βK1,i . . . βKK,i
 .
De este modo, la ecuación (2-1) puede ser escrita de forma compacta como:
x̂t+1 = α+B1xt + · · ·+Bpxt−p+1. (2-2)
Así, considerando cada xt como un vector aleatorio, tenemos el predictor óptimo a través
del modelo de vectores autorregresivos VAR, que tiene la forma:
xt = α+B1x̂t−1 + · · ·+Bpx̂t−p + εt, (2-3)
donde xt es la observación vectorial de la serie temporal múltiple en el tiempo t, α es un vector
cuyos componentes son los interceptos univariados de cada una de las variables individuales
de la serie de tiempo múltiple, las matrices Bi son matrices de coeficientes autorregresivos,
de tal manera que cada una de las variables de la serie múltiple, depende tanto de sus valores
pasados como de los valores pasados de las demás K variables y los p rezagos significativos
de la serie. Por último, εt = (ε1t, . . . , εKt)
T es una secuencia de vectores independientes e
idénticamente distribuidos con vector de medias igual a 0. (Lütkepohl, 2005, pag. 4-5)
10 2 Marco Teórico
2.3. Causalidad de Granger
Granger (1969) definió un concepto de causalidad en forma general con el cual, bajo algunas
condiciones, es fácil lidiar en el contexto de los modelos de vectores autorregresivos VAR.
Por este motivo, se ha hecho popular en años recientes. La idea principal es que la causa
no puede suceder después del efecto. Por ello, si una variable X afecta una variable Z, la
primera debería mejorar las predicciones de la última (Lütkepohl, 2005).
Para formalizar esta idea, supongamos que Ωt es el conjunto que contiene toda la informa-
ción relevante en el universo hasta el periodo de tiempo t, con t incluido. Sea zt(h | Ωt) el
predictor óptimo h pasos adelante, del proceso zt en el origen t, basado en la información
que se encuentra en Ωt. El correspondiente error cuadrático medio (MSE por sus siglas en
inglés) es denotado como Σz(h | Ωt).
Se dice que el proceso xt causa a zten el sentido de Granger si:
Σz(h | Ωt) < Σz(h | Ωt \ {xs | s ≤ t}) para al menos un h = 1, . . . (2-4)
Nótese que, en la expresión anterior Ωt \ {xs | s ≤ t} es el conjunto de toda la información
relevante en el universo, excepto la información pasada y presente contenida en el proceso
xt. En otras palabras, si zt puede ser pronosticada más eficientemente, tomando en conside-
ración la información que aporta el proceso xt en conjunto con el resto de la información en
el universo, entonces, xt es un Granger-causal para zt (Lütkepohl, 2005).
La definición se extiende al caso donde zt y xt son procesos M y N -dimensionales respecti-
vamente. En este caso, xt es un Granger-causal de zt si
Σz(h | Ωt) ̸= Σz(h | Ωt \ {xs | s ≤ t}), (2-5)
para algún t y h. Alternativamente, esta puede ser expresada por el requerimiento de que
ambos MSEs sean diferentes y
Σz(h | Ωt) ≤ Σz(h | Ωt \ {xs | s ≤ t}), (2-6)
es decir, la diferencia entre la matriz del lado derecho y la del lado izquierdo es semidefinida
positiva. Cabe resaltar que, si un proceso xt causa a zt y zt también causa xt, el proceso
(z′t, x
′
t)
′ es llamado sistema de retroalimentación (feedback system) (Lütkepohl, 2005).
El término “causalidad instantánea” es usado algunas veces en el análisis económico. Se dice
que existe causalidad instantánea entre zt y xt si
2.4 Datos Funcionales 11
Σz(1 | Ωt ∪ {xt+1}) ̸= Σz(1 | Ωt). (2-7)
En otras palabras, en el periodo t, adicionando xt+1 al conjunto de información, se mejora
el pronóstico de zt+1. Además, se puede demostrar que este concepto de causalidad es simé-
trico, lo que significa que si tenemos causalidad instantánea entre zt y xt, entonces también
tenemos causalidad instantánea entre xt y zt.
Existen situaciones en las que la información de un proceso xt no puede ser usada para me-
jorar el pronóstico 1 paso adelante del proceso zt, pero es aún posible que pueda ser usada
para mejorar el pronóstico del h paso adelante, para h = 2, 3, . . .. En otras palabras, si xt
no causa a zt en el siguiente paso (h = 1), cabe todavía la posibilidad de que sea causal
para el paso h, con h > 1. Con esto en mente surge la noción de la causalidad multipasos
(multi-step causality).
En la práctica, solo la información en el pasado y presente del proceso bajo estudio, es con-
siderada relevante, y por lo tanto Ωt es reemplazado por {zs, xs | s ≤ t}. Además, en lugar
de predictores óptimos, nos conformamos con comparar los predictores lineales óptimos. En
otras palabras, zt(h | Ωt) es reemplazado por el predictor lineal con el mínimo MSE, basado
en la información en {zs, xs | s ≤ t}, y zt(h | Ωt \ {xs | s ≤ t) es sustituido por el predictor
lineal con mínimo MSE basado en {zs | s ≤ t} (Lütkepohl, 2005).
2.4. Datos Funcionales
Los datos funcionales son una generalización de los datos multivariados, desde la dimensión
finita hacia la dimensión infinita. Un ejemplo gráfico de datos funcionales puede verse en la
Figura 2-3, donde se muestra un conjunto de datos funcionales que comprende 268 curvas
espectrométricas tomadas sobre azúcar disuelta en agua cada 8 horas durante 3 meses, aun-
que la intensidad es medida de manera discreta, este valor existe para cada momento en el
intervalo de 3 meses, por lo cual se pueden ver como funciones sobre tal intervalo.
En la práctica, los datos funcionales se obtienen observando fenómenos sobre el tiempo, el
espacio u otro tipo de conjuntos no contables. Los datos funcionales resultantes pueden ser
curvas, superficies o demás objetos complejos (Zhang, 2014, pag. 2).
Otro ejemplo de lo anterior podría ser una imagen tomada por un satélite, de una región
particular de la tierra en un momento dado, supóngase que esta imagen muestra la tempe-
ratura de la superficie fotografiada, por lo tanto, esta superficie puede ser vista como una
12 2 Marco Teórico
Figura 2-3.: Observaciones espectrométricas funcionales de azúcar
función X (temperatura) definida en un subconjunto T de una esfera (superficie terrestre),
así, X(t) sería la temperatura en el punto t, donde t son coordenadas que determinan el
lugar. Es entendible que la resolución del satélite no es infinita, y que en la práctica lo que
se tiene es una grilla finita de puntos sobre la superficie con su respectiva medición de la
temperatura, sin embargo, la temperatura existe en cada punto del subconjunto T , por lo
cual es natural ver a Xn como una función definida sobre todo el subconjunto (Horváth &
Kokoszka, 2012). Es importante recordar que este trabajo se enfoca en objetos funcionales
que son curvas definidas en un intervalo T ∈ R
2.4.1. Series de tiempo funcionales
El objeto de estudio con el que se trabaja en este marco teórico, se define por Bosq (2000)
como procesos en tiempo discreto que toman valores en algún espacio funcional adecuado,
en una serie de tiempo univariada cada observación xt se entiende como la realización de una
variable aleatoria Xt, por ende, una serie de tiempo es, en términos teóricos la realización
de un proceso estocástico, de allí, en una serie de tiempo funcional, las realizaciones son en-
tonces funciones en un intervalo dado que son observadas de una variable aleatoria funcional
como se describe a continuación.
Consideremos un proceso estocástico continuo ξ = (ξt, t ∈ T ), donde T es un intervalo en
R, definido sobre un espacio de probabilidad (Ω,A, P ) tal que t 7→ ξt(ω) pertenece a algún
espacio de funciones F (generalmente el espacio L2) para todo ω ∈ Ω. Entonces, bajo algunas
2.4 Datos Funcionales 13
condiciones simples, ξ define una variable aleatoria funcional (Bosq, 2000).
De esta manera, una serie de tiempo funcional {Xt : t ∈ Z} es aquella donde Xt toma valores
en el espacio H := L2[0, 1], de las funciones cuadrado integrables en [0,1]. Esto significa que
Xt = {Xt(u) : u ∈ [0, 1]}, se utiliza el intervalo [0,1] por simplicidad y sin pérdida de
generalidad, pero los datos funcionales pueden establecerse en cualquier intervalo acotado τ
(Hörmann et al., 2015). Así pues, tenemos que:
∫ 1
0
X2
t (u)du <∞. (2-8)
El espacio H, es un un espacio de Hilbert dotado de producto interno ⟨x, y⟩ =
∫ 1
0
x(u)y(u)du,
de modo que ||x|| := ⟨x, x⟩1/2 define la norma.
La notación X ∈ Lp indica que para algún p > 0, E[||X||p] < ∞. Por ejemplo, cualquier
X ∈ L1 posee entonces una curva media µ = E[X(u)] : u ∈ [0, 1], y cualquier X ∈ L2 un
operador de covarianza Γ, definido como ΓX := E[(X − µ)⟨x,X − µ⟩], aquí vale la pena
aclarar que x es la realización u observación de una variable aleatoria funcional (es decir
una función en el espacio L2[0, 1]), en tanto que X hace referencia a la variable aleatoria
funcional. El operador de covarianza Γ es un operador integral dado por
ΓX(u) =
∫ 1
0
γ(u, v)x(v)dv, γ(u, v) := cov[X(u), X(v)], u, v ∈ [0, 1], (2-9)
es decir, el kernel del operador de covarianza es la función de covarianza del proceso
El proceso {Xt : t ∈ Z} es conocido como débilmente estacionario, si para todo t:
a.) Xt ∈ L2.
b.) E[Xt] = E[X0].
c.) para todo h ∈ Z y u, v ∈ [0, 1],
cov[Xt+h(u), Xt(v)] = cov[Xh(u), X0(v)] =: γh(u, v), (2-10)
de esta manera, es posible denotar por Γh al operador de covarianza cuyo kernel es la función
de autocovarianza entre Xt y Xt+h, es decir, ella misma pero h pasos adelante γh.
Las anteriores condiciones son una generalización del concepto de estacionariedad en series
de tiempo clásicas, al caso de series temporales funcionales, de igual manera, en el resto del
documento se referirá a la estacionariedad en sentido débil, a menos que se especifique lo
contrario.
14 2 Marco Teórico
2.5. Igualdad de Operadores de Covarianza para Series
de Tiempo Funcionales
En este apartado se presenta la metodología propuesta por Zhang y Shao (2015), para probar
la igualdad de operadores de covarianza entre series temporales funcionales dada su carac-
terística de dependencia temporal.
Dadas dos secuencias de observaciones funcionales temporalmente dependientes, {Xi(t)}N1
i=1 y
{Yi(t)}N2
i=1 definidas en un rango común τ , tal que que ambasseries son estacionarias de segun-
do orden y que E[Xi(t)] = E[Yi(t)] = 0, además, que ΓX = E[⟨Xi, ·⟩Xi] y ΓY = E[⟨Yi, ·⟩Yi]
son los operadores de covarianza para ambas secuencias, respectivamente.
Se denota por {ϕj
X}∞j=1 y {λjX}∞j=1, a las funciones propias y valores propios de ΓX . Cantida-
des análogas {ϕj
Y }∞j=1 y {λjY }∞j=1 se usan para la segunda muestra, es evidente que dada la
dimensión infinita de los objetos funcionales, se tienen infinitos valores propios y funciones
propias para cada muestra. También cabe aclarar que vech(·) se refiere al operador que apila
las columnas debajo de la diagonal de una matriz m × m en un vector con m(m + 1)/2
componentes.
Ahora se considera el problema de probar la siguiente hipótesis:
H0 :ΓX = ΓY
H1 :ΓX ̸= ΓY
(En el sentido de la norma de los operadores) para dos series temporales funcionales esta-
cionarias con media 0 {Xi(t)}N1
i=1 y {Yi(t)}N2
i=2 con N1 y N2 la respectiva cantidad de obser-
vaciones funcionales de cada muestra. Sea N = N1 +N2, se asume también que
N1/N → ζ1, N2/N → ζ2, cuando min(N1, N2) → ∞,
donde ζ1, ζ2 ∈ (0, 1) y ζ1 + ζ2 = 1
Se definen los operadores Xi = ⟨Xi, ·⟩Xi y Yi = ⟨Yi, ·⟩Yi. Sea Γ̂XY el operador de covarianza
empírico basado en las muestras agrupadas, así
Γ̂XY =
1
N1 +N2
(
N1∑
i=1
Xi +
N2∑
i=1
Yi
)
.
De igual manera se denotan las funciones y valores propios de Γ̂XY como {ϕ̂j
XY } y {λ̂jXY }. La
contraparte poblacional de Γ̂XY está dada por Γ̃XY = ζ1ΓX + ζ2ΓY cuyos valores y funciones
propias están dadas por {λ̃j} y {ϕ̃j} respectivamente. Además, sea Γ̂X,m = 1
m
∑m
i=1Xi el
2.5 Igualdad de Operadores de Covarianza para Series de Tiempo
Funcionales 15
operador de covarianza basado en submuestras de {Xi(t)}mi=1, donde 2 ≤ m ≤ N1, y sus
respectivas funciones y valores propios de denotados por {ϕ̂j
X,m}mj=1 y {λ̂jX,m}mj=1, es decir,
∫
τ
γ̂X,m(t, s)ϕ̂
j
X,m(s)ds = λ̂jX,mϕ̂
j
X,m(t), (2-11)
además,
∫
τ
ϕ̂i
X,m(t)ϕ̂
j
X,m(t)dt = δij en donde δij = 1 si i = j pero δij = 0 si i ̸= j. Similar-
mente, se definen las cantidades, Γ̂Y,m′ , {ϕ̂j
Y,m′}m
′
j=1 y {λ̂jY,m′}m
′
j=1, con 2 ≤ m′ ≤ N2 para la
segunda muestra.
Para introducir el test se definen los estimadores recursivos
ci,jk = ⟨(Γ̂X,⌊kN1/N⌋ − Γ̂Y,⌊kN2/N⌋)ϕ̂XYi
, ϕ̂XYj
⟩, 2 ≤ k ≤ N, 1 ≤ i, j ≤ K.
Los cuales estiman la diferencia de los operadores de covarianza sobre el espacio abarcado
por {ϕ̃j}Kj=1. Aquí K es un número elegido con base en la variabilidad explicada por valores
y funciones propias, generalmente cercano a 90%.
Así pues, el estadístico de prueba clásico definido por Panaretos et al. (2010), en el cual se
tiene como supuesto la independencia y Gaussianidad de las observaciones funcionales en
ambos procesos se obtiene de la siguiente forma.
TN1,N2 =
N1N2
2N
K∑
i=1
K∑
j=1
(ci,jN )2
ϱ̂iϱ̂j
,
donde,
ϱ̂j =
1
N
{
N1∑
i=1
(⟨Xi, ϕ̂XYj
⟩) +
N2∑
i=1
(⟨Yi, ϕ̂XYj
⟩)
}
,
el cual converge a χ2
(K+1)K/2 bajo la hipótesis nula.
Ahora, con el fin de tomar en cuenta la dependencia temporal inherente a las series de
tiempo, Zhang y Shao (2015) introducen la matriz
V (d) =
1
N2
N∑
k=1
k2(α̂k − α̂N)(α̂k − α̂N)
′,
con d = (K + 1)K/2 y α̂k = vech((ci,jk )Ki,j=1, lo que nos permite definir el test estadístico
como
16 2 Marco Teórico
G(d) = Nα̂′
N(V (d))−1α̂N .
Se puede demostrar que el test para el caso de independencia puede ser escrito como una
forma cuadrática de α̂N , pero con una matriz de normalización diferente que solo es aplica-
ble para ese caso. Lo especial del nuevo estadístico es que se hace robusto a la dependencia
interna de cada muestra, y también a la dependencia entre ambas muestras cuando N1 = N2.
2.6. Causalidad de Granger en Datos Funcionales
La definición que se presenta a continuación es tomada del trabajo de Saumard (2017), en el
que se estudia y propone un procedimiento estadístico para probar la hipótesis de causalidad
en el sentido de Granger en series temporales funcionales.
Sea H el espacio L2 antes definido, además, sea {Xt} una serie de tiempo funcional tal que,
E[∥ Xt ∥2] <∞ y que E[Xt] = 0, también se asume que {Xt} es estacionaria. Sea {Yt} una
serie temporal funcional estacionaria en H que cumple las mismas condiciones que {Xt}.
Sea Ωt la información acumulada hasta el periodo t − 1, y Ωt − Xt toda esta información
exceptuando lo aportado por la serie Xt. El error de predicción de las series está dado por
εt(Yt | Ωt) = Yt − Pt(Yt | Ωt), (2-12)
donde Pt(Yt | Ωt) es el mejor predictor lineal de Yt. La definición de causalidad en el sentido
de Granger para el caso de datos funcionales es la siguiente: decimos que X causa a Y si
Γεt(Yt|Ωt−Xt) − Γεt(Yt|Ωt), (2-13)
es un operador definido positivo1 usando la información Ωt, es decir, existe más incertidum-
bre en el predictor de Yt con base en Ωt −Xt que en el predictor basado en Ωt.
Para ejemplificarlo supongamos, Xt = (Yt, Xt)
′ un proceso autorregresivo bivariado en H :=
L2[0, 1]× L2[0, 1], asociado con (ρ, ε) donde ρ es una matriz 2× 2 de operadores lineales en
H y ε es un vector de ruido blanco. Asumamos que la dinámica para Xt es:
Xt = ρ(Xt−1) + εt. (2-14)
1Un operador T es definido positivo si ⟨T x, x⟩ > 0 para todo x en un espacio H
2.7 Modelo de Vectores Autorregresivos Funcional VFAR 17
El modelo se puede reescribir así
{
Yt = ρ11(Yt−1) + ρ12(Xt−1) + ε1t
Xt = ρ21(Yt−1) + ρ22(Xt−1) + ε2t
Así pues, ρ11, . . . , ρ22 son operadores lineales y de acuerdo con la definición de causalidad
presentada anteriormente, decimos que {Xt} no es causa lineal de {Yt} si y solo si ρ12 = 0,
esto quiere decir que el operador es la función constante 0 sobre el intervalo τ en el que se
definen las funciones. De hecho si ρ12 = 0, los dos operadores de covarianza de la definición
son iguales, y por lo tanto el operador Γεt(Yt|Ωt−Xt) − Γεt(Yt|Ωt), no es definido positivo2.
En este documento se pretende estudiar el caso presentado cuando se tiene dimensiones ma-
yores a 2, es decir, donde el proceso no contenga únicamente dos variables funcionales, sino 3
o 4, esto es importante porque permite analizar el desempeño de la prueba de causalidad en
dimensiones mayores, las cuales incorporan las interrelaciones existentes entres las k series
que hacen parte del proceso, además de que permite encontrar sistemas de retroalimentación
causal, en los cuales puede existir una causalidad con efecto dominó sobre el sistema en el
que interactúen varias series temporales.
2.7. Modelo de Vectores Autorregresivos Funcional
VFAR
A continuación se presenta el modelo de vectores autorregresivos funcionales propuesto por
Chen et al. (2019), el cual constituye una generalización para el caso de datos funcionales del
modelo VAR presentado anteriormente. El modelo puede ser escrito para el caso bivariado
de la siguiente manera:
[
Yt − µY
Xt − µX
]
=
p∑
j=1
[
ρyy,j ρyx,j
ρxy,j ρxx,j
] [
Yt−j − µY
Xt−j − µX
]
+
[
εyt
εxt
]
. (2-15)
Aquí, Xt−µX y Yt−µY son las series que hacen del proceso en el momento t, los operadores
ρ··,j relacionan la dependencia serial del proceso con el rezago t − j, por último los valores
ε·t se refieren a las innovaciones del proceso, los cuales son ruidos blancos independientes
e idénticamente distribuidos, con media cero y segundo momento finito. Por lo tanto, asu-
miendo que la esperanza de las series funcionales es igual a 0, la extensión natural al caso
funcional multivariado sería:
2Algunas veces un operador definido no negativo es llamado definido positivo, sin embargo, entiéndase aquí
definido positivo como estrictamente mayor que cero y semidefinido positivo o definido no negativo como
mayor o igual a cero
18 2 Marco Teórico
X1,t
...
Xk,t
 =
p∑
j=1
ρ
x1x1,j . . . ρx1xk,j
... . . . ...
ρxkx1,j . . . ρxkxk,j

X1,t−j
...
Xk,t−j
 +
εx1
...
εxk
 . (2-16)
Este proceso pretende capturar la dependencia cruzada de series de tiempo funcionales mul-
tivariadas, donde los operadores ρx1x1 , . . . , ρxkxk hacen parte de una matriz k × k con k el
número de series temporales funcionales quehacen parte del proceso, y son estos operadores
los que miden la dependencia cruzada entre las series y su j−ésimo valor rezagado (Chen
et al., 2019), cabe aclarar también que son operadores lineales acotados que van de H a H,
un espacio de Hilbert dotado con su σ-álgebra de Borel BH . La función media del proceso
se denota como:
(µx1 , . . . , µxk
)T = (E[X1,t(τ)], . . . , E[Xk,t(τ)])
T . (2-17)
Bajo estacionariedad, tanto la dependencia cruzada como la media son constantes a través
del tiempo. Los errores de predicción {εxt} son ruido blanco, independientes e idénticamente
distribuidos con media 0 y segundo momento finito, los procesos de los errores (εx1 , . . . , εxk
)
no tienen que ser necesariamente independientes entre sí. (Chen et al., 2019)
2.7.1. Modelo Funcional Autorregresivo con Variables Exógenas
FARX
Un caso particular del modelo VFAR, es el FARX, en el cual, las variables funcionales que
afectan el proceso, no dependen de las demás, sino únicamente de sí mismas, debido a que los
operadores que relacionan estos procesos son el operador 0 con lo cual dicho efecto no existe;
es por esto que se llaman variables exógenas. Así pues, para describir el modelo, considere
la siguiente expresión
Yn = ρ(Yn−1) + a1(Xn,1) + · · ·+ aqXn,q + εn n ∈ Z, (2-18)
donde Xn,1, . . . , Xn,q son q variables autorregresivas exógenas, asociadas cada uno con sus
operadores u1, . . . , uq y sus propios errores ruido blanco εZn,1 , . . . , εZn,q , de este modo se
presenta el modelo en forma matricial como:

Yn
Xn,1
Xn,2
...
Xn,q
 =

ρ a1 . . . . . . aq
0 u1 0 . . . 0
0 0 u2 0
...
...
... . . . 0
0 0 0 . . . uq


Yn−1
Xn−1,1
Xn−1,2
...
Xn−1,q
 +

εn
εXn,1
εXn,2
...
εXn,q
. (2-19)
2.7 Modelo de Vectores Autorregresivos Funcional VFAR 19
Nótese que la anterior estructura describe un modelo FARX(1), es decir, que considera única-
mente 1 rezago, teniendo como extensión natural el modelo FARX(p) que incluye p rezagos
en el tiempo, como se pudo notar en la estructura presentada en el modelo VFAR. Las
simulaciones que se realizarán en este documento se basan en este modelo puesto que el mis-
mo permitirá determinar si las pruebas de causalidad detectan los efectos que las variables
exógenas causan dentro de la variable principal del proceso, sin verse afectado por posibles
interrelaciones entre las demás variables.
En este sentido, se entiende a Xn como una serie de tiempo multivariada funcional de la
forma (Yn, Xn,1, . . . , Xn,q)
T , donde Yn y Xn,i son series temporales funcionales univariadas. Se
realizaron simulaciones del proceso Xn utilizando el modelo FARX(1) propuesto por Damon
y Guillas (2005) que toma la siguiente forma
Yn
Xn,1
Xn,2
...
Xn,q
 =

ρ a1 . . . . . . aq
0 u1 0 . . . 0
0 0 u2 0
...
...
... . . . 0
0 0 0 . . . uq


Yn−1
Xn−1,1
Xn−1,2
...
Xn−1,q
 +

εYn
εXn,1
εXn,2
...
εXn,q
 (2-20)
o, de manera más compacta,
Xn = ρ′Xn−1 + ε′, (2-21)
donde
ρ′ =

ρ a1 . . . . . . aq
0 u1 0 . . . 0
0 0 u2 0
...
...
... . . . 0
0 0 0 . . . uq
 , y ε′ =

εYn
εXn,1
εXn,2
...
εXn,q
 (2-22)
donde cada serie Xn,i es débilmente estacionaria bajo las condiciones a, b y c presentadas
en (2.4.1) y toma valores en el espacio L2[0, 1], además, se considera que el vector de medias
del proceso Xt es 0. Los operadores ρ, ai, ui, son operadores lineales acotados que van de
L2[0, 1] → L2[0, 1] (Damon & Guillas, 2005).
Considérese además, el producto cartesiano entre espacios de Hilbert H × H, para el cual
se utiliza la notación H2, de modo tal que el producto cartesiano entre espacios de Hilbert
de la forma (H1 × H2×, . . . ,×Hk) se puede notar como Hk. Así pues, los objetos funcio-
nales multivariados con los que se está trabajando hacen parte del espacio Hq+1, debido a
20 2 Marco Teórico
que tenemos 1 variable de respuesta y q variables exógenas en los vectores funcionales de la
expresión 2-20. En adelante, se utilizará L y S para representar al espacio de los operadores
lineales acotados y al espacio de los operadores de Hilbert-Schmidt en H respectivamente.
Similarmente Lk y Sk para el espacio Hk, por lo cual, para el caso específico trabajado se
tiene Lq+1 y Sq+1. Cabe aclarar que para el espacios de la forma Hk, los operadores resultan
ser matrices de operadores (Damon & Guillas, 2005).
Para realizar las simulaciones se debe mantener el supuesto C presentado en Damon y Guillas
(2005), que dice lo siguiente:
∃j0, ||ρ′j0||Lq+1 < 1,
donde ||.||Lq+1 , hace referencia a la norma de la matriz de operadores ρ′ en (2-20), por lo tanto,
para asegurar que el supuesto se mantiene se presenta el siguiente razonamiento, primero
se muestra la definición de la norma de un operador de la siguiente manera (Conway, 2019,
pag. 27)
||ρ||L = sup
{
||ρx||
||x||
: x ̸= 0
}
.
Ahora bien, siguiendo a Virta et al. (2020), tenemos que, para una matriz de operadores en
espacios de Hilbert separables se puede demostrar lo siguiente:
||ρ′x|| ≤
(
q+1∑
i,j=1
||ρij||2L
)1/2
||x||.
Así, tenemos que ||ρ′x||
||x|| ≤
(∑q+1
i,j=1 ||ρij||2L
)1/2
, con lo cual el término de la derecha de la
desigualdad representa una cota superior para la razón de las normas transformada y sin
transformar, permitiéndonos deducir que la menor cota superior es la igualdad, y que por
lo tanto la norma de una matriz de operadores es la parte derecha de esta desigualdad, de
modo que.
||ρ′||Lq+1 =
(
q+1∑
i,j=1
||ρij||2L
)1/2
(2-23)
Ahora bien, por el teorema 10.3.1 en Kokoszka y Reimherr (2017) sabemos que
2.8 Componentes Principales Funcionales Dinámicos FPCA 21
||ψ||L ≤ ||ψ||S,
donde ψ es un operador lineal acotado, ||.||L se refiere a la norma del operador y ||.||S a la
norma de Hilbert-Schmidt. Con lo cual, se tiene que
(
q+1∑
i,j=1
||ρij||2L
)1/2
≤
(
q+1∑
i,j=1
||ρij||2S
)1/2
,
por lo tanto, si aseguramos que la sumatoria de las normas de Hilbert-Schmidt de los ope-
radores que son componentes de la matriz de operadores ρ′ es menor que uno,
(
q+1∑
i,j=1
||ρij||2L
)1/2
≤
(
q+1∑
i,j=1
||ρij||2S
)1/2
< 1,
entonces nos aseguramos que la sumatoria de las normas de los operadores también es menor
que 1, y con ello se cumple la condición C0 puesto que ahora tenemos que ||ρ′j0||Lq+1 < 1 con
j0 = 1.
2.8. Componentes Principales Funcionales Dinámicos
FPCA
Hörmann et al. (2015), propusieron una versión dinámica del análisis de componentes prin-
cipales, que permitiera incorporar al análisis la dependencia inherente a las series temporales
en su versión funcional, y que, de hecho mejora la técnica de reducción de la dimensiona-
lidad en este tipo de observaciones. A continuación se muestran las ideas principales de la
metodología.
Para empezar, se define el concepto de operador de densidad espectral. Por analogía con el
concepto clásico de la matriz de densidad espectral, se define este operador así:
Sea {Xt} un proceso estacionario que toma valores en el espacio de la funciones cuadrado
integrables con dominio [0, 1] (L2[0, 1]). El operador FX
θ cuyo kernel es
fX
θ (u, v) :=
1
2π
∑
h∈Z
ch(u, v)exp{−ihθ}, θ ∈ [−π, π], (2-24)
22 2 Marco Teórico
donde i denota la unidad imaginaria, es llamado el operador espectral de {Xt} en la frecuen-
cia θ.
Para asegurar la convergencia de las series definidas por fX
θ (u, v), se impone la siguiente
condición de sumabilidad sobre las autocovarianzas:
∑
z∈Z
{∫ 1
0
∫ 1
0
|γh(u, v)|2dudv
}1/2
<∞. (2-25)
Esta condición se puede expresar más convenientemente como
∑
z∈Z
||Γh||S <∞, (2-26)
donde || · ||S denota la norma de Hilbert-Schmidt.
El concepto de operador de densidad espectral fue introducido por Panaretos y Tavakoli
(2013), el cual es usado por Hörmann et al. (2015) para crear lo que llamaron filtros funcio-
nales, que resultan ser los bloques de construcción de los FPC dinámicos. Un filtro funcional
se define vía una secuencia Φ = {Φl : l ∈ Z} de operadores lineales entrelos espacios
H = L2[0, 1] y H ′ = Rp. Las variables filtradas Yt tienen la forma Yt =
∑
l∈ZΦl(Xt−l) y, por
el teorema de Riesz, los operadores lineales Φl están dados por
x 7→ Φl(x) = (⟨x, ϕ1l⟩, . . . , ⟨x, ϕpl⟩)′, ϕ1l, . . . , ϕpl ∈ H. (2-27)
Se considera que los filtros Φ, para los cuales las secuencias {
∑N
l=−N ϕml(u)exp(ilθ) : N ≥
1}, 1 ≤ m ≤ p, convergen a L2([0, 1]× [−π, π]). Por lo tanto, se asume que existe una función
cuadrado integrable ϕ∗
m(u|θ) tal que
ĺım
N→∞
∫ π
−π
∫ 1
0
{
N∑
l=−N
ϕml(u)exp(ilθ)− ϕ∗
m(u|θ)
}2
dudθ = 0. (2-28)
Además se supone que
sup
θ∈[−π,π]
∫ 1
0
ϕ∗
m(u|θ)2du <∞. (2-29)
Luego, se puede escribir ϕ∗
m(θ) :=
∑
l∈Z ϕmlexp(ilθ) o, para enfatizar su naturaleza funcio-
nal, ϕ∗
m(u|θ) :=
∑
l∈Z ϕmlexp(ilθ). Se denota por C a la familia de filtros Φ que satisfacen
2.8 Componentes Principales Funcionales Dinámicos FPCA 23
las condiciones mostradas en 2-28 y 2-29. Así pues, la siguiente proposición relaciona el
operador de densidad espectral de {Xt} con la matriz de densidad espectral de secuencia
filtrada (Yt =
∑
l∈ZΦl(Xt−l). Este resultado juega un rol crucial en la construcción de los
FPC dinámicos (Hörmann et al., 2015).
Proposición 1. Asumiendo que Φ ∈ C, sea ϕ∗
m(θ) como se presentó anteriormente. Entonces
las series
∑
l∈Z ϕl(Xt−l) convergen en media cuadrática al limite Yt. El proceso vectorial p-
dimensional {Yt} es estacionario, con matriz de densidad espectral
FY
θ =
⟨F
X
θ {ϕ∗
1(θ)}, ϕ∗
1(θ)⟩ · · · ⟨FX
θ {ϕ∗
p(θ)}, ϕ∗
1(θ)⟩
... . . . ...
⟨FX
θ {ϕ∗
1(θ)}, ϕ∗
p(θ)⟩ · · · ⟨FX
θ {ϕ∗
p(θ)}, ϕ∗
p(θ)⟩
 . (2-30)
Dado que no se asume a priori que los coeficientes ϕl son absolutamente sumables, las series
FY
θ = (2π)−1
∑
h∈Z
γYh exp(ihθ), (2-31)
donde γYh = cov(Yh, Y0) pueden no ser absolutamente convergentes, y por lo tanto no
ser puntuales en θ. El operador FY
θ se puede considerar como un elemento del espacio
L2
Cp×p([−π, π]). Esto es, la colección de funciones medibles f : [−π, π] 7→ Cp×p para las cuales∫ π
−π
||f(θ)||2Fdθ <∞, donde || · ||F denota la norma de Frobenius. Así, la igualdad entre f y
g es entendida como
∫ π
−π
||f(θ)− g(θ)||2Fdθ = 0. En particular esto implica que f(θ) = g(θ)
para casi todo θ (Hörmann et al., 2015).
Ahora bien, para notar las importantes consecuencias de la proposición 1, obsérvese que
bajo la condición 2-26, para toda frecuencia θ, el operador FX
θ es un operador semidefinido
positivo, autoaudjunto de Hilbert-Schmidt, el cual admite, para todo θ, la descomposición
espectral que sigue
FX
θ (x) =
∑
m≥1
λm(θ)⟨x, φm(θ)⟩φm(θ), (2-32)
donde λm(θ) y φm(θ) denotan los valores propios y funciones propias dinámicos. Los autores
imponen el orden λ1(θ) ≥ λ2(θ) ≥ · · · ≥ 0 para todo θ ∈ [−π, π], además, se requiere que
las funciones propias estén estandarizadas, de manera que ||φm(θ)|| = 1 para todo m ≥ 1 y
θ ∈ [−π, π].
Ahora, asumiendo que podemos seleccionar los filtros funcionales (ϕml : l ∈ Z) de tal manera
que
24 2 Marco Teórico
ĺım
N→∞
∫ π
−π
∫ 1
0
{
N∑
l=−N
ϕmlexp(ilθ)− φ(u|θ)
}2
dudθ = 0 (2-33)
Así pues, tenemos que FY
θ = diag{λ1(θ), . . . , λp(θ)} para casi todo θ, lo cual implica que el
proceso coordinado de (Yt) no son correlacionados en ningún rezago: cov(Ymt, Ym′s) = 0 para
todo s, t y m ̸= m′.
Motivado por lo anterior, se pretende definir a ϕml de tal manera que ϕ∗
ml = φm (en L2[0, 1]×
[−π, π]). Para ello, se supone que la función φm(u|θ) es medible en u y en θ conjuntamente.
El hecho de que las funciones propias sean estandarizadas implica que
∫ π
−π
∫ 1
0
φ2
m(u|θ)dudθ = 2π. (2-34)
Hörmann et al. (2015) concluyen del teorema de Tonelli que
∫ π
−π
φ2
m(u|θ)du < ∞ para casi
todo u ∈ [0, 1], esto quiere decir que φm(u|θ) ∈ L2[−π, π] para todo u ∈ Am ⊂ [0, 1], donde
Am tiene medida de lebesgue igual a 1. Ahora se define, para u ∈ Am,
ϕml(u) :=
1
2π
∫ π
−π
φm(u|s)exp(−ils)ds; (2-35)
para u /∈ Am, ϕml(u) es 0. Luego, es posible mostrar que la condición 2-33 se mantiene, y
por lo tanto los filtros funcionales definidos por (ϕml : l ∈ Z, 1 ≤ m ≤ p) pertenecen a la
clase C y que los procesos filtrados resultantes, tienen autocovarianzas diagonales en todos
los rezagos. Así pues, se definen los componentes principales dinámicos:
Sea {Xt} un proceso funcional estacionario con media cero, que toma valores en L2
H y que
satisface 2-26. Sea ϕml como en la expresión 2-35. Entonces, el m-ésimo score dinámico de
Xt es:
Ymt :=
∑
l∈Z
⟨Xt−l, ϕml⟩, t ∈ Z, m ≥ 1. (2-36)
Los elementos ϕml de Φm := (ϕml : l ∈ Z) son llamados los m-ésimos coeficientes filtro del
componente principal dinámico.
Hörmann et al. (2015) También exponen la manera como se puede recuperar el proceso
original (Xt(u) : t ∈ Z, u ∈ [0, 1]) a través de (Ymt : t ∈ Z,m ≥ 1), utilizando el análogo di-
námico de la expansión estática de Karhunen-Loève asociada a los componentes principales
2.8 Componentes Principales Funcionales Dinámicos FPCA 25
estáticos, así
Sean Ymt los scores de los componentes principales dinámicos asociados al proceso (Xt(u) :
t ∈ Z, u ∈ [0, 1]). Entonces
Xt(U) =
∑
m≥1
Xmt)(u), Xmt(u) :=
∑
l∈Z
Ym,t+lϕml(u), (2-37)
donde la convergencia es en media cuadrada. Se llama a la expresión 2-37 la expansión di-
námica de Karhunnen-Loève de Xt.
En la practica, los scores de los componentes principales dinámicos han de ser calculado
a partir de una versión estimada de FX
θ . Al mismo tiempo, las series infinitas que definen
los scores deben ser remplazadas por aproximaciones finitas. Supongamos de nuevo que
(Xt : t ∈ Z) es un proceso débilmente estacionario que satisface la condición 2-26. Entonces,
un estimador natural para Ymt es
Ŷmt :=
L∑
l=−L
⟨Xt−l, ϕ̂ml⟩, m = 1, . . . , p, t = L+ 1, . . . , n− L, (2-38)
donde L es algún entero y ϕ̂ml es calculado utilizando la versión estimada del operador de
densidad espectral F̂X
θ que se define así
F̂X
θ =
∑
|h|≤q
(
1− |h|
q
)
γ̂hexp(−ihθ), 0 < q < n. (2-39)
3. Metodología
Este capítulo presenta todos los procedimientos realizados en el trabajo de manera detallada
y reproducible, con el propósito de que el lector interesado pueda replicar los resultados de
forma independiente.
3.1. Procedimientos
El trabajo se desarrolló con base en las metodologías propuestas por Saumard y Hadjad-
ji (2021), utilizando los tres procedimientos que se describen a continuación para probar
la hipótesis de causalidad sobre procesos bivariados (una variable funcional causal, y una
causada), trivariados (dos variables funcionales causales, y una causada) y 4-variados (tres
variables funcionales causales, y una causada) de series temporales funcionales.
3.1.1. Procedimiento 1: F-Causalidad
Disponer de (Y1, . . . , YN), (X1,1, . . . , XN,1), . . . , (X1,q, . . . , XN,q). . .
Estimar los parámetros (ρp), para este caso se utiliza el modelo FARX presentado
el marco teórico con la matriz de operadores del periodo inmediatamente anterior. Se
deben estimar dos modelos uno incluyendo la información de de las variables funcionales
causales, y otro sin incluirla.
Estimar ε1 en los modelos que incluyen y no las series causales para t = 2, . . . , N
Por último utilizar el test propuesto por Zhang y Shao (2015) para los probar la
igualdad operadores de covarianza de los errores y verificar la causalidad en el sentido
de Granger.
3.1.2. Procedimiento 2: Componentes principales dinámicos
Disponer de (Y1, . . . , YN), (X1,1, . . . , XN,1), . . . , (X1,q, . . . , XN,q). . .
Determinar L y q presentados en la sección de FPCA dinámicos
3.2 Simulación de los Procesos FAR(1) y FARX(1) 27
Calcular los primeros d scores de los FPCA dinámicos para las 3 series temporales
funcionales
Utilizar pruebas multivariadas clásicas en los scores resultantes para probar la hipótesis
de causalidad
3.1.3. Procedimiento 3: G-causalidad
Disponer (Y1, . . . , YN), (X1,1, . . . , XN,1), . . . , (X1,q, . . . , XN,q). . . en su forma de grilla,
con m puntos para cada observación funcional.
Trabajar las observaciones funcionales como series de tiempo múltiplesclásicas
Diferenciar las series debido a la posible no estacionariedad, verificar esta en el sentido
clásico.
Realizar la prueba de causalidad de Granger sobre los datos
3.2. Simulación de los Procesos FAR(1) y FARX(1)
Así pues, la simulación del proceso se realiza siguiendo a Kokoszka y Reimherr (2017) para
los procesos FAR(1) y se complementa dicha estructura con los modelos FARX(1) expuestos
por Damon y Guillas (2005) de la siguiente manera:
Xn(t) = ρXn−1(t) + ϵn(t), (3-1)
donde los objetos Xn(t) hacen parte del espacio L2[0, 1] de funciones cuadrado integrables,
ρ es un operador que va del espacio L2[0, 1] a L2[0, 1], y ϵn(t) representa los errores, cabe
aclarar que estos errores son una secuencia de funciones que también están en el espacio
L2[0, 1], y además son ruido blanco. Para nuestro caso particular y siguiendo a Kokoszka y
Reimherr (2017), los errores se simulan mediante la siguiente expresión:
ϵn(t) = Zn1 sinπt+
1
2
Zn2 cos 2πt, (3-2)
tanto Zn1 como Zn2 son variables aleatorias normales estándar. Además el operador ρ es un
operador integral, cuyo kernel tiene la siguiente forma: p(s, t) = βst, con β una constan-
te real, teniendo siempre en cuenta que para que el proceso tenga solución estacionaria se
debe cumplir que (
∫ ∫
p2(s, t))dsdt)1/2 < 1, esto garantiza a su vez que el operador sea de
Hilberth-Schmidt por lo mencionado en Horváth y Kokoszka (2012, pag. 23).
28 3 Metodología
Figura 3-1.: Ejemplo de proceso FAR(1) con 100 observaciones simuladas
Así pues, en la simulación se fija β con un valor de β = 1, con lo cual (
∫ ∫
ρ2(s, t))1/2dsdt =
(
∫ ∫
(st)2dsdt)1/2 = 1/9 < 1. Además, para darle tiempo al proceso de estabilizarse, se reali-
zan 150 observaciones simuladas del proceso, pero se descartan las primeras 50 (Kokoszka y
Reimherr, 2017).
Para realizar este proceso, se utilizan las funciones simul.fax.* escritas con base en el códi-
go presentado por Kokoszka y Reimherr (2017) y cuyo código específico se puede consultar en
el anexo A de este documento. Así pues, un proceso FAR(1) simulado de la forma anterior-
mente expuesta se puede apreciar en la figura 3-1. Para replicar este proceso puede hacerse
uso de la función SIMUL.FARX.BI(), utilizando los siguientes argumentos (m = 100, burnin
= 50, N = 100, rho = 1, a = 0, b = 1, seed = 123) y PLOT.FAR.OWN() las cuales se
presentan en el anexo A y automatizan el código de simulación y la generación de gráficos
de los procesos.
Ahora bien, el anterior código simula el proceso FAR(1) el cual es el caso de no causalidad,
sin embargo, el objetivo del trabajo se concentra en procesos funcionales multivariados, es
decir, aquellos que contienen más de un solo proceso, por lo tanto, siguiendo a Damon y
Guillas (2005) se extiende la estructura de la expresión (3-1) de la siguiente manera:
Tn = ρ′Tn−1 + ϵ′n, (3-3)
donde,
Tn =
[
Yn
Xn
]
, ρ∗ =
[
ρ a
0 u
]
, ϵ∗n =
[
ϵYn
ϵXn
]
, (3-4)
de modo que el proceso se puede reescribir así:
3.2 Simulación de los Procesos FAR(1) y FARX(1) 29
[
Yn
Xn
]
=
[
ρ a
0 u
] [
Yn−1
Xn−1
]
+
[
ϵYn
ϵXn
]
. (3-5)
De esta manera tenemos 2 procesos funcionales así:
Yn(t) = ρYn−1(t) + aXn−1(t) + ϵYn(t) (3-6)
Xn(t) = uXn−1(t) + ϵXn(t) (3-7)
donde el Yn es afectado por si mismo un periodo atrás, pero también por Xn−1, en virtud
del operador a. Nótese que si el operador a resulta ser 0, los dos procesos funcionales son
independientes, y no poseen ninguna interrelación entre sí.
Para simular un proceso como el representado por la ecuación (3-5), se utilizó la función
SIMUL.FAR, presentada en el anexo A de este trabajo, en ella, se mantienen los operadores
ρ, a, u de la forma en que su kernel es βst, y solo se manipula la constante β de dicho kernel,
de tal modo que si hacemos a la constante de un kernel β = 0, el operador convierte la
función que opere en la función constante 0, y por lo tanto no afecta de ningún modo al
proceso. Es por esto que si fijamos la constante del kernel del operador a en 0, lo que se
obtiene son 2 procesos FAR(1) {Yn} y {Xn} independientes entre sí, de la siguiente manera:
[
Yn
Xn
]
=
[
ρ 0
0 u
] [
Yn−1
Xn−1
]
+
[
ϵYn
ϵXn
]
, así pues,
Yn(t) = ρYn−1(t) + ϵYn(t)
Xn(t) = uXn−1(t) + ϵXn(t)
en la figura 3-2 se presentan 2 procesos generados por este código con las constantes β de
los operadores fijados en βρ = 1, βa = 0.5 y βu = 0.5.
Cabe recordar que fijadas estas constantes, la norma de Hilbert Schmidt de la matriz de
operadores del proceso es:
(
2∑
i,j=1
||ρij||2S
)1/2
, con ρ11 = ρ, ρ12 = a, ρ21 = 0, ρ22 = u (3-8)
donde ||.||S hace referencia a la norma de Hilbert Schmidt de cada operador de la matriz ρ′,
en este caso particular ρ, a y u, de modo que la norma será:
(∫ 1
0
∫ 1
0
(1st)2dsdt+
∫ 1
0
∫ 1
0
(
1
2
st
)2
dsdt+
∫ 1
0
∫ 1
0
(
1
2
st
)2
dsdt
)1/2
=
1√
6
< 1, (3-9)
30 3 Metodología
Figura 3-2.: Proceso bivariado simulado a partir del modelo FARX(1) Yn (negro) y Proceso
Xn (azul)
con lo cual, se satisface el supuesto C0 en Damon y Guillas (2005). Para los procesos trivariado
y 4-variado se realiza un procedimiento de simulación análogo al presentado en esta sección,
los cuales toman la siguiente estructura matricial;
 Yn
Xn,1
Xn,2
 =
ρ a1 a2
0 b1 b2
0 c1 c2
  Yn−1
Xn−1,1
Xn−1,2
 +
 εn
εXn,1
εXn,2
, (3-10)
para el caso trivariado, y:

Yn
Xn,1
Xn,2
Xn,3
 =

ρ a1 a2 a3
0 b1 b2 b3
0 c1 c2 c3
0 d1 d2 d3


Yn−1
Xn−1,1
Xn−1,2
Xn−1,3
 +

εn
εXn,1
εXn,2
εXn,3
, (3-11)
para el caso 4-variado.
En un principio, los operadores c1 y b2 del modelo trivariado se mantienen en 0, al igual
que los operadores b2, b3, c1, c3, d1, d2 del modelo 4-variado, esto con el fin de verificar la
causalidad de los procesos Xn,1, Xn,2, Xn,3 sobre Yn sin que haya interrelaciones entre ellos.
3.3. Escenarios de Simulación
Las simulaciones se realizaron para los casos bivariado, trivariado y 4-variado, como ya se
especificó anteriormente en el texto. Los escenarios de simulación para el caso bivariado se
3.3 Escenarios de Simulación 31
presentan en la tabla 3-1
Escenario βρ βa βb norma de ρ′
1 1 0 0.5 0.4082
2 1 0.74 0.5 0.4944
3 1 1.48 0.5 0.5773
4 1 2.22 0.5 0.6411
5 1 2.96 0.5 0.7071
6 1 3.7 0.5 0.7601
7 1 4.44 0.5 0.8096
8 1 5.18 0.5 0.8628
9 1 5.92 0.5 0.9067
10 1 6.66 0.5 0.9486
11 1 7.40 0.5 0.9944
Tabla 3-1.: Escenarios de simulación para el caso bivariado
Los escenarios de simulación para el caso bivariado se realizaron fijando la constante del
kernel de los operadores ρ y u en 1 y 0.5 respectivamente, y variando la constante del kernel
del operador de interrelación (a) entre los procesos Yn y Xn, en la tabla 3-1 se puede ver
también la norma de la matriz de operadores autorregresiva, la cual nunca sobrepasa el valor
de 1, cumpliendo con el supuesto C0 de Damon y Guillas (2005). La idea es estudiar como
cambia la potencia de la prueba de causalidad a medida que se modifica la norma de la
matriz de operadores autorregresivos.
Escenario βρ βa1 βa2 βb1 βb2 βc1 βc2 norma de ρ′
1 0 0 0 0.5 0 0 0.5 0.4714
2 0 0.34 0.34 0.5 0 0 0.5 0.5374
3 0 0.68 0.68 0.5 0 0 0.5 0.6146
4 0 1.02 1.02 0.5 0 0 0.5 0.6666
5 0 1.36 1.36 0.5 0 0 0.5 0.7302
6 0 1.70 1.70 0.5 0 0 0.5 0.7745
7 0 2.04 2.04 0.5 0 0 0.5 0.8164
8 0 2.38 2.38 0.5 0 0 0.5 0.8692
9 0 2.72 2.72 0.5 0 0 0.5 0.9067
10 0 3.06 3.06 0.5 0 0 0.5 0.9545
11 0 3.40 3.40 0.5 0 0 0.5 0.9888
Tabla 3-2.: Escenarios de simulación para el caso trivariado
32 3 Metodología
Escenario βρ βa1 βa2 βa3 βb1 βb2 βb3 βc1 βc2 βc3 βd1 βd2 βd3 norma de ρ′
1 1 0 0 0 0.5 0 0 0.5 0 0 0.5 0 0 0.5270
2 1 0.21 0.21 0.21 0.5 0 0 0.5 0 0 0.5 0 0 0.5868
3 1 0.42 0.42 0.42 0.5 0 0 0.5 0 0 0.5 0 0 0.6411
4 1 0.63 0.63 0.63 0.5 0 0 0.5 0 0 0.5 0 0 0.6912
5 1 0.84 0.84 0.84 0.5 0 0 0.5 0 0 0.5 0 0 0.7378
6 1 1.05 1.05 1.05 0.5 0 0 0.5 0 0 0.5 0 0 0.7907
7 1 1.26 1.26 1.26 0.5 0 0 0.5 0 0 0.5 0 0 0.8432
8 1 1.47 1.47 1.47 0.5 0 0 0.5 0 0 0.5 0 0 0.8819
9 1 1.68 1.68 1.68 0.5 0 0 0.5 0 0 0.50 0 0.9189
10 1 1.89 1.89 1.89 0.5 0 0 0.5 0 0 0.5 0 0 0.9545
11 1 2.10 2.10 2.10 0.5 0 0 0.5 0 0 0.5 0 0 0.9888
Tabla 3-3.: Escenarios de simulación para el caso tetravariado
Para el caso trivariado, se mantienen fijos los operadores ρ, b1, b2, c1, c2 y se variaron los
operadores a1 y a2 como se muestra en la tabla 3-2. De igual modo, para el caso tetravariado
se presentan los casos de simulación en la tabla 3-3, en donde se mantienen fija la constante
de los operadores ρ, b1, b2, b3, c1, c2, c3, d1, d2 y d3. Cabe resaltar que el primer escenario
de simulación de cada uno de los casos (bivariado, trivariado y tetravariado) es aquel en el
que la hipótesis nula de no causalidad entre las series es premeditadamente verdadera, este
escenario es el que nos permite verificar el tamaño de la prueba mediante el error tipo I.
Las muestras simuladas de cada uno de los casos presentados anteriormente, se realizaron
con las siguientes características:
El intervalo τ en el que las observaciones funcionales están dadas es [0, 1], además se
tomaron 101 puntos equidistantes sobre este intervalo incluyendo al 0 y al 1 para crear
la grilla que se utiliza en la práctica para almacenar los datos de la curva.
Cada uno de los escenarios fue simulado 100 veces, lo que significa un total de 200 ob-
servaciones funcionales para los procesos del caso bivariado, 300 para el caso trivariado
y 400 para el caso tetravariado. Dado lo anterior, el ejercicio está dado en el contexto
de la alta dimensionalidad.
Todas las observaciones funcionales simuladas por los procesos FAR(1) y FARX(1)
antes presentados, almacenadas en grillas de puntos discretizados equidistantes fueron
suavizadas mediante el método de penalización a la rugosidad, utilizando 10 funciones
base del tipo B-Spline y un valor de lambda de λ = 0
Para la simulación de todos los procesos se diseñaron las funciones LISTA_FARX, las cuales
hacen uso de las funciones SIMUL.FARX para generar un objeto lista en el software estadís-
3.4 Aplicación de las pruebas a las observaciones simuladas 33
tico R con todas las características mencionadas, el código específico para cada una de las
funciones utilizadas puede encontrarse en el anexo A de este documento.
3.4. Aplicación de las pruebas a las observaciones
simuladas
Para la realización de los procedimientos presentados en la tabla ?? se utilizaron los siguientes
paquetes de R:
far: Diversas herramientas para series temporales funcionales (Serge, 2022).
fda: Múltiples funciones relacionadas con lo datos funcionales (suavizado, modelado,
funciones base, etc) (Ramsay et al., 2022).
vars: Herramientas relacionadas con los procesos vectoriales autorregresivos VAR (Pfaff,
2008).
freqdom: Paquete especializado en el dominio de frecuencia de las series temporales (S.
y L., 2022a).
freqdom.fda: Paquete especializado en el dominio de frecuencia de las series temporales
funcionales (S. y L., 2022b).
pcdpca: Herramientas para la estimación de componentes principales dinámicos en
series de tiempo funcionales (Kidzinski et al., 2017).
fdcov: Análisis de los operadores de covarianza para observaciones funcionales (Cabassi
y Kashlak, 2017).
FChange: Prueba de igualdad de operadores de covarianza (Sonmez et al., 2019).
La hipótesis que todas las pruebas pretenden evaluar es:
H0 = Yn no es causada por ninguna de las Xni
. (3-12)
HA = Yn es causada por al menos una de las Xni
. (3-13)
Todos los resultados que arrojan las diferentes pruebas utilizadas son los p-valores al aplicar
el procedimiento haciendo referencia a la hipótesis anterior.
34 3 Metodología
3.4.1. Componentes principales dinámicos DFPCA
La prueba de componentes principales dinámicos DFPCA está basada en el procedimiento de
Saumard y Hadjadji (2021) el cual se encuentra disponible de manera pública en el siguiente
enlace: https://github.com/PyMattAI/DynamicFPCA_Causality. Se realizaron las modifi-
caciones necesarias para adaptar la prueba a los casos trivariado y 4-variado, las funciones
que realizan el test basado en componentes principales dinámicos también se encuentran en el
Anexo A de este documento y son DFPCA.BI, DFPCA.TRI y DFPCA.TETRA. A continuación se
describe el procedimiento automatizado que siguen estas funciones para entregar el resultado.
Al simular los datos mediante el proceso FARX(1), se obtienen grillas de puntos discretizados
de dimensión 101× 100 para los procesos Yn y Xn,i, donde cada columna son los 101 puntos
de una observación funcional. A partir de allí el primer paso para la prueba es el suavizado
de las curvas. Para el cual se utilizó el método de penalización a la rigurosidad expuesto por
Ramsay y Silverman (2005) utilizando un λ = 10−2 y 10 bases tipo B-splines.
Una vez las curvas de los procesos Yn y Xn,i han sido suavizadas, se procede con la reducción
de la dimensionalidad a través de los procedimientos de componentes principales dinámicos
DFCPA expuestos en 2.8. Este proceso ha sido automatizado en el paquete freqdom.fda
mediante la función fts.dpca.scores. Debido a que se simularon 100 curvas para cada pro-
ceso, se obtienen los scores que serán 100 vectores con 1, 2 o 3 componentes (dependiendo de
la cantidad de componentes principales utilizados para realizar la reducción) para cada uno
de los procesos simulados. Después se procede a realizar la prueba de causalidad de Granger
usual utilizando los scores encontrados.
La prueba de causalidad de Granger se realiza utilizando el estadístico de Wald descrito de
manera exhaustiva en Lütkepohl (2005) sobre un modelo VAR(1) estimado, en el que se
incorporan como variables causales los scores de Xn,i y como variable de respuesta los scores
de Yn, el procedimiento es automatizado en R mediante la función causality del paquete
vars. El código específico para la realización de los pasos antes descritos se puede seguir en
el Anexo A.2.5
3.4.2. Comparación de operadores de covarianza F-causalidad
La prueba basada en la comparación de los operadores de covarianza, conocida como F-
causalidad, se realizó utilizando los procedimientos de Saumard (2017) y de Zhang y Shao
(2015). Este procedimiento al igual que el anterior parte de una grilla de datos simulados
con idénticas características. A partir de estos datos simulados se realiza la estimación de 2
modelos, un modelo restringido que se ajusta para el proceso Yn incorporando únicamente su
propia información en momentos pasados, y un segundo modelo no restringido que además
de incorporar la información pasada del proceso Yn, involucra la información pasada de las
https://github.com/PyMattAI/DynamicFPCA_Causality
3.4 Aplicación de las pruebas a las observaciones simuladas 35
variables causales Xn,i. Para el primer caso se ajusta un un proceso FAR(1) y para el segun-
do un proceso FARX(1). El ajuste de estos procesos se realiza siguiendo el procedimiento
expuesto por Damon y Guillas (2005) mediante la función far del paquete en R diseñado
por los mismos autores far.
Una vez que se estiman ambos procesos, se extraen los residuos con el fin de seguir los proce-
dimientos presentados por Zhang y Shao (2015), estos comparan los operadores de covarianza
de los residuos del modelo restringido y no restringido mediante el estadístico T presentado
por Panaretos et al. (2010), sin embargo, si no se puede asumir o garantizar la independencia
de las series analizadas, es preferible utilizar el estadístico modificado desarrollado por Zhang
y Shao (2015), puesto que este es robusto ante la dependencia para comparar operadores
de covarianza. En las simulaciones realizadas se garantiza la independencia entre las series,
motivo por el cual se hace uso del estadístico T .
De no ser posible encontrar diferencias estadísticamente significativas entre los operadores de
covarianza de ambos modelos, se entiende que la información de las variables causales Xn,i
no disminuye la incertidumbre para el pronóstico de Yn, y por lo tanto no es posible rechazar
la hipótesis nula de no causalidad. Todo el procedimiento fue automatizado mediante

Continuar navegando