Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Análisis de Causalidad para Series de Tiempo Multivariadas Funcionales Jhon Eduwin Maya Orozco Universidad Nacional de Colombia Facultad de Ciencias Bogotá, Colombia 2022 Análisis de Causalidad para Series de Tiempo Multivariadas Funcionales Jhon Eduwin Maya Orozco Trabajo final presentado como requisito parcial para optar al título de: Magister en Ciencias - Estadística Director(a): Ph.D. en Estadística, Sergio Alejandro Calderón Villanueva Co-Director(a): Ph.D. en Estadística, Rubén Darío Guevara González Línea de Investigación: Series Temporales y Datos Funcionales Universidad Nacional de Colombia Facultad de Ciencias Bogotá, Colombia 2022 A mis padres, por su sacrificio, por su ayuda, por su dedicación, gracias por tanto. A Linda, Lisa y Laura, mis 3 pequeñas, que la vida les sonría el doble de lo que a mi. Agradecimientos A los profesores Sergio Calderón y Rubén Guevara, les agradezco por su invaluable guía y acompañamiento, por su paciencia y calidez humana, por sus consejos y por acercarme al mundo académico de una manera tan atenta, estaré eternamente agradecido con ambos. A la profesora Gladys Salcedo, mi sincero agradecimiento por el recibimiento y atención que me brindó, sin ella nada hubiera sido posible. A mi gran amigo y compañero Miguel De Souza, gracias por su gran apoyo. A mis familiares y amigos, todos quienes me apoyaron y alenta- ron a continuar pese a las dificultades, muchas gracias a todos. A la universidad del Quindío y a la Universidad Nacional, por permitirme acercarme a mis sueños, infinitas gracias a todos. ix Resumen Análisis de Causalidad para Series de Tiempo Multivariadas funcionales La causalidad de Granger es una prueba creada hace casi medio siglo que permite saber si una serie temporal ayuda en la predicción de otra. Para el caso de series temporales fun- cionales el tema ha sido explorado por autores como Saumard y Hadjadji (2021) o Sen et al. (2022), sin embargo el tema posee aún muchas lineas de investigación abiertas que han sido poco exploradas. Este trabajo se concentra en estudiar una extensión de las pruebas de causalidad de Granger para series de tiempo funcionales multivariadas de dimensiones mayores a 2 (específicamente 3 y 4), basada en los procedimientos propuestos por Saumard y Hadjadji (2021). Para este fin se simulan procesos bivariados, tri-variados y tetra-variados a partir de modelos FAR(1) y FARX(1). Se realizan las pruebas de causalidad de Granger a través de tres procedimientos (DFPCA, F-causalidad y G-causalidad). Se encuentra que la prueba que presenta mejores resultados a través del estudio de simulación es la que hace uso de los componentes principales dinámicos DFPCA y que la variabilidad explicada por el número de componentes afecta de manera sensible la potencia de la prueba. Se realiza un ejemplo de aplicación para ilustrar los procedimientos propuestos en el que se verifica si existe causalidad entre el precio del dólar (Yt), el precio del petróleo Brent (Xt1) y la tasa de interés de los bonos colombianos a 10 años (Xt2). Se confirma la causalidad de las variables Xti sobre la variable Yt tal y como la teoría económica parece predecir. Palabras clave: Series temporales, Datos Funcionales, Causalidad de Granger, Modelos Autorregresivos Funcionales (FAR), Modelos Autorregresivos Funcionales con varia- bles exógenas (FARX) . Abstract Causal Analysis for Multivariate Functional Time Series Granger causality is a test created almost half a century ago that allows us to know if one time series helps in the prediction of another. In the case of functional time series, the topic has been explored by authors such as Saumard y Hadjadji (2021) or Sen et al. (2022), howe- ver the topic still has many open lines of research that have been little explored. This work focuses on studying an extension of the Granger causality tests for multivariate functional time series of dimensions greater than 2 (specifically 3 and 4), based on the procedures pro- posed by Saumard y Hadjadji (2021). For this purpose, bivariate, trivariate and tetravariate x processes are simulated using FAR(1) and FARX(1) models. Granger causality tests are ca- rried out through three procedures (DFPCA, F-causality and G-causality). It is found that the test that presents the best results through the simulation study is the one that makes use of the DFPCA dynamic principal components and that it will have been explained by the number of components that significantly affects the power of the test. An application example is carried out to illustrate the proposed procedures in which it is verified if there is causality between the price of the dollar (Yt), the price of Brent oil (Xt1) and the interest rate of the Colombian 10-year bonds (Xt2). The causality of the variables Xti on the variable Yt is confirmed, as economic theory seems to predict. Keywords: Time Series, Functional Data, Granger Causality, Functional Autorregresi- ve Models (FAR), Functional Autorregresive Models with exogenous variables (FARX). Contenido Agradecimientos VII Resumen IX Lista de figuras XV Lista de tablas 1 1. Introducción 3 2. Marco Teórico 6 2.1. Series Temporales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2. Modelo de vectores autorregresivos VAR . . . . . . . . . . . . . . . . . . . . 9 2.3. Causalidad de Granger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.4. Datos Funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.4.1. Series de tiempo funcionales . . . . . . . . . . . . . . . . . . . . . . . 12 2.5. Igualdad de Operadores de Covarianza para Series de Tiempo Funcionales . 14 2.6. Causalidad de Granger en Datos Funcionales . . . . . . . . . . . . . . . . . . 16 2.7. Modelo de Vectores Autorregresivos Funcional VFAR . . . . . . . . . . . . . 17 2.7.1. Modelo Funcional Autorregresivo con Variables Exógenas FARX . . . 18 2.8. Componentes Principales Funcionales Dinámicos FPCA . . . . . . . . . . . . 21 3. Metodología 26 3.1. Procedimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.1.1. Procedimiento 1: F-Causalidad . . . . . . . . . . . . . . . . . . . . . 26 3.1.2. Procedimiento 2: Componentes principales dinámicos . . . . . . . . . 26 3.1.3. Procedimiento 3: G-causalidad . . . . . . . . . . . . . . . . . . . . . . 27 3.2. Simulación de los Procesos FAR(1) y FARX(1) . . . . . . . . . . . . . . . . . 27 3.3. Escenarios de Simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.4. Aplicación de las pruebas a las observaciones simuladas . . . . . . . . . . . . 33 3.4.1. Componentes principales dinámicos DFPCA . . . . . . . . . . . . . . 34 3.4.2. Comparación de operadores de covarianza F-causalidad . . . . . . . . 34 3.4.3. Prueba de causalidad clásica G-causalidad . . . . . . . . . . . . . . . 35 xii Contenido 4. Resultados 36 4.1. Componentes Principales Dinámicos DFPCA . . . . . . . . . . . . . . . . . . 36 4.1.1. Procesos Bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.1.2. Procesos Trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 4.1.3. Procesos Tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.2. Prueba de Igualdad de Operadores de Covarianza F-Causalidad . . . . . . . 42 4.2.1. Procesos Bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.2.2. Procesos Trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.2.3. Procesos Tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.3. Prueba de Causalidad de Granger Multivariada G-Causalidad . . . . . . . . 46 4.3.1. Procesos Bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.3.2. Procesos Trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.3.3. Procesos Tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5. Ejemplo Aplicado 54 5.1. Los Datos . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 54 5.2. El Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.3. El Resultado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 6. Conclusiones y Trabajo Futuro 59 6.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.2. Trabajo Futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 A. Anexo A: Códigos utilizados 65 A.1. Librerías utilizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 A.2. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 A.2.1. simul.farx.bi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 A.2.2. simul.farx.tri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 A.2.3. simul.farx.tetra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 A.2.4. Plot_functions_own . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 A.2.5. DFPCA.BI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 A.2.6. DFPCA.TRI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 A.2.7. DFPCA.TETRA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 A.2.8. F_causalidad_bi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 A.2.9. F_causalidad_tri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 A.2.10.F_causalidad_tetra . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 A.2.11.g_causalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 A.2.12.LISTA_FARX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 A.2.13.REPETIR_DFPCA . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 A.2.14.REPETIR_F_CAUSALIDAD . . . . . . . . . . . . . . . . . . . . . 81 A.2.15.REPETIR_G_CAUSALIDAD . . . . . . . . . . . . . . . . . . . . . 81 Contenido xiii A.3. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 A.3.1. Resultados DFPCA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 A.3.2. Resultados F_causalidad . . . . . . . . . . . . . . . . . . . . . . . . . 91 A.3.3. Resultados G_causalidad . . . . . . . . . . . . . . . . . . . . . . . . 94 A.4. Ejemplo Aplicado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Lista de Figuras 2-1. Inflación mensual de Colombia año corrido 2018 - 2020 . . . . . . . . . . . . 6 2-2. Temperatura del 6 de julio de 1997 en la ciudad de Kent, Australia . . . . . 7 2-3. Observaciones espectrométricas funcionales de azúcar . . . . . . . . . . . . . 12 3-1. Ejemplo de proceso FAR(1) con 100 observaciones simuladas . . . . . . . . . 28 3-2. Proceso bivariado simulado a partir del modelo FARX(1) Yn (negro) y Proceso Xn (azul) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 4-1. Potencia de la prueba DFPCA en procesos bivariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando 1, 2 y 3 componentes principales dinámicos . . . . . . . . . . . . . . . . . . . . . 37 4-2. Potencia de la prueba DFPCA en procesos trivariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando 1, 2 y 3 componentes principales dinámicos . . . . . . . . . . . . . . . . . . . . . 39 4-3. Potencia de la prueba DFPCA en procesos tetravariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando 1, 2 y 3 componentes principales dinámicos . . . . . . . . . . . . . . . . . . . . 41 4-4. Potencia de la prueba F-causalidad en procesos bivariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando entre 1 y 6 componentes principales, la selección automática de Panaretos et al. (2010) y el método de Fremdt et al. (2013) para procesos bivariados . . 44 4-5. Potencia de la prueba F-causalidad en procesos bivariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando entre 1 y 6 componentes principales, la selección automática de Panaretos et al. (2010) y el método de Fremdt et al. (2013) para procesos trivariados . 46 4-6. Potencia de la prueba F-causalidad en procesos bivariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando entre 1 y 6 componentes principales, la selección automática de Panaretos et al. (2010) y el método de Fremdt et al. (2013) para procesos tetravariados 48 4-7. Potencia de la prueba G-causalidad en procesos bivariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando entre 1 y 8 rezagos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 xvi Lista de Figuras 4-8. Potencia de la prueba G-causalidad en procesos trivariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando entre 1 y 8 rezagos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4-9. Potencia de la prueba G-causalidad en procesos tetravariados a medida que el βa de los kernel en los operadores interdependientes se incrementan utilizando entre 1 y 8 rezagos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5-1. Series de tiempo del precio del dólar, el petróleo Brent y tasa de interés de los bonos colombianos entre 2013 y 2022 . . . . . . . . . . . . . . . . . . . . 55 5-2. Series de tiempo diferenciadas del precio del dólar, el petróleo Brent y tasa de interés de los bonos colombianos entre 2013 y 2022 . . . . . . . . . . . . . 56 5-3. Series de tiempo diferenciadas y suavizadas mensualmente del precio del dólar, el petróleo Brent y tasa de interés de los bonos colombianos entre 2013 y 2022 57 Lista de Tablas 3-1. Escenarios de simulación para el caso bivariado . . . . . . . . . . . . . . . . 31 3-2. Escenarios de simulación para el caso trivariado . . . . . . . . . . . . . . . . 31 3-3. Escenarios de simulación para el caso tetravariado . . . . . . . . . . . . . . . 32 4-1. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando 1, 2 y 3 componentes principales dinámicos en la Prueba DFPCA para procesos bivariados . . . . . . . . . . . . . . . . . 36 4-2. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando 1, 2 y 3 componentes principales dinámicos en la Prueba DFPCA para procesos trivariados . . . . . . . . . . . . . . . . 38 4-3. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando 1, 2 y 3 componentes principales dinámicos en la Prueba DFPCA para procesos tetravariados . . . . . . . . . . . . . . . 40 4-4. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando entre 1 y 6 componentes principales, la selección automática de Panaretos et al. (2010) y método de Fremdt et al. (2013) en la Prueba F-causalidad para procesos bivariados . . . . . . . . . . . . . . . . . 42 4-5. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando entre 1 y 6 componentes principales, la selección automática de Panaretos et al. (2010) y método de Fremdt et al. (2013) en la Prueba F-causalidad para procesos trivariados . . . . . . . . . . . . . . . . . 45 4-6. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando entre 1 y 6 componentes principales, la selección automática de Panaretos et al. (2010) y método de Fremdt et al. (2013) en la Prueba F-causalidad para procesos tetravariados . . . . . . . . . . . . . . . . 47 4-7. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando entre 1 y 8 rezagos en la Prueba G-causalidad para procesos bivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4-8. Cantidadde veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando entre 1 y 8 rezagos en la Prueba G-causalidad para procesos trivariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2 Lista de Tablas 4-9. Cantidad de veces que no se rechazó la hipótesis nula de no causalidad para los 11 casos evaluados utilizando entre 1 y 8 rezagos en la Prueba G-causalidad para procesos tetravariados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 1. Introducción Por mucho tiempo, investigadores de diversas áreas como medicina, economía o química, han hecho esfuerzos en encontrar las relaciones causales que existen entre diferentes fenómenos, dada la importancia y utilidad de ello para la ciencia. Esto lo hacen estimulando o modifi- cando el comportamiento de algunas variables y observando el efecto que tienen sobre otra u otras o, analizando los resultados históricos de variables correlacionadas a través del tiempo. En este sentido, uno de los métodos más utilizados para inferir este tipo de relaciones cau- sales es el propuesto por Wiener (1956) y estructurado y formalizado por Granger (1969), a quien se debe su nombre (Seth, 2007). Granger (1969), propuso una metodología para inferir la causalidad en el estudio de series temporales, puesto que, por su característica de orden en el tiempo, es posible verificar cier- tos supuestos dentro de los datos que toda relación causal debe cumplir. La idea de Granger se basa en verificar que la causa sucede antes de la consecuencia, además que si una variable X causa a una variable Y entonces, debe suceder que los datos de la variable X aportan información en función de la predicción de la variable Y , que esta no posee por sí misma. Es decir, que la variable X mejora el pronóstico de la variable Y . Algunos autores que han trabajado esta temática son: Sims (1972) quien aplica el procedimiento para analizar la cau- salidad entre la masa monetaria y el ingreso en EEUU, Skoog et al. (1976) que se dispone a demostrar varias proposiciones que están relacionadas con el concepto de causalidad y exogeneidad en el análisis de procesos débilmente estacionarios, Williams et al. (1976) donde se emula el trabajo realizado por Sims (1972) para Reino Unido, y Boudjellaba et al. (1992) quienes analizaron la causalidad en el sentido de Granger con modelos de medias móviles (Lütkepohl, 2005) (Seth, 2007). Una revisión histórica y exhaustiva de la metodología se puede encontrar en el trabajo publicado por Shojaie y Fox (2022), donde además de plantear la revisión de los primeros desarrollos y debates del tema, se discuten los avances recientes de este enfoque, desde aplicaciones para series de tiempo de alta dimensionalidad hasta de- sarrollos mas recientes para observaciones no lineales, no gaussianas y series temporales sub muestreadas y de frecuencia mixta. A día de hoy, la notable mejora en la capacidad computacional y de análisis, y el crecimien- to exponencial en el almacenamiento y procesamiento de datos, garantiza tener una visión mucho más completa de los fenómenos estudiados, además de permitir el acceso a series temporales recolectadas con muy altas frecuencias. De esta manera, el análisis de estas va- 4 1 Introducción riables se enriquece mediante el uso de técnicas que aprovechen este incremento drástico en la información, papel cumplido por el Análisis de Datos Funcionales o FDA por sus siglas en inglés (Functional Data Analysis), las cuales nos permiten utilizar estas series y entender- las como funciones con valores que existen para cualquier punto en un intervalo determinado. La literatura a partir del nuevo milenio en cuanto al FDA ha sucitado algún interés entre los académicos, particularmente, la monografía que es punto de referencia, y a partir de la cual surge la popularización de la metodología es el libro presentado por Ramsay y Silverman (2005), su primera edición fue publicada en 1997 y a partir de allí se convirtió rápidamen- te en una útil caja de herramientas para muchos investigadores alrededor del mundo cuyo número aumentaba de manera ininterrumpida. Tanto así que los mismos autores publicaron pocos años después un trabajo enfocado en la ilustración de las técnicas de FDA a través de estudios específicos utilizando datos reales. (Ramsay & Silverman, 2002)(Cuevas, 2014). Algunos trabajos que se han concentrado en estudiar los datos funcionales son Horváth y Kokoszka (2012) donde se estudia a profundidad la inferencia estadística para datos fun- cionales y sus aplicaciones, Ferraty y Romain (2011) que presenta el estado del arte de los análisis estadísticos para datos funcionales, Zhang (2014) quien detalla con minuciosi- dad el análisis de varianza sobre datos funcionales y Srivastava y Klassen (2016) donde se presenta una completa y detallada exposición en el análisis estadístico de funciones y formas. Específicamente en el área de series de tiempo de datos funcionales, encontramos el trabajo de Bosq (2000), en el cual se plantea como tema principal la estimación y el pronóstico de series de datos en tiempo continuo, además busca el desarrollo teórico de los procesos lineales en espacios funcionales. Este libro presenta la correspondiente teoría general de los procesos autorregresivos funcionales (Cuevas, 2014). Los modelos autorregresivos para series tempo- rales funcionales también han tenido avances en la última década, para una revisión se puede consultar en Chen et al. (2021) donde se hace un repaso de las principales metodologías de modelos autorregresivos para el caso de datos funcionales y se realizan ejemplos aplicados sobre datos reales. Algunos trabajos que han estudiado la causalidad de Granger en el contexto de los datos funcionales son: Saumard (2017) donde se extiende el concepto de causalidad de Granger al marco teórico de los datos funcionales. Además, existen trabajos que han aplicado la metodología propuesta por Saumard (2017) a problemas empíricos, como el de Elmezouar (2020) que estudia la relación causal entre precio del petróleo y el producto interno bruto PIB de Arabia Saudí, o el de Sancetta (2019) que realiza una aplicación a la econometría financiera. Todo esto para el caso de series de tiempo funcionales bivariadas. Por último, el trabajo de y Saumard y Hadjadji (2021) el retoma la definición de causalidad de Granger para generalizarla al caso de series temporales funcionales, haciendo uso del estudio realizado 5 por Hörmann y Kokoszka (2010) sobre dependencia lineal de datos funcionales, los avances en componentes principales funcionales realizados por Hörmann et al. (2015), las pruebas de igualdad de operadores de Zhang y Shao (2015), los modelos autorregresivos de Bosq (2000) y el modelo FVAR propuesto por Chen et al. (2019). Así pues, con el fin de aportar al estudio de la causalidad en el sentido de Granger en datos funcionales, este trabajo pretende realizar una extensión para el caso multivariado del análisis de causalidad propuesto por Saumard y Hadjadji (2021), realizando un estudio de simula- ción sobre procesos bivariados, trivariados y 4-variados de las metodologías allí explicadas. Cabe señalar la importancia de este tipo de análisis, la cual se puede exponer desde dos aspectos. En primer lugar, desde el punto de vista teórico la extensión al caso multivariado de conceptos de una sola variable es el desarrollo natural de los mismos, y permite evaluar el comportamiento de las metodologías propuestas en contextos de mayores dimensiones. En segundo lugar, desde la perspectiva práctica se parte de la premisa de que los fenómenos no son causados por una única variable sino por un conjunto de variables, lo cual enriquece el análisis al incorporar las posibles interrelaciones entre las series temporales que hacen parte del proceso, además de sistemas de retroalimentación causal. La estructura del texto es como sigue: en el capítulo 2 se presentan las bases teóricas sobre las cuales se fundamenta el trabajo, definiendo los conceptos de seriestemporales, modelos VAR, causalidad de Granger, datos funcionales, causalidad de Granger para datos funcio- nales, FPCA dinámicos, el modelo VFAR y el modelo FARX. En el capítulo 3, se presenta la metodología para realizar la extensión al caso trivariado y 4-variado de la causalidad de Granger en datos funcionales y los escenarios de análisis. En el capítulo 4 se exponen los resultados del estudio de simulación y en el capítulo 5 una aplicación en datos reales. Por último en el capítulo 6 se muestran las conclusiones y recomendaciones derivadas del estudio. 2. Marco Teórico En este capítulo se definirán las bases teóricas sobre las que se fundamentan las metodologías que se utilizaron, esto con el fin de precisar las definiciones y conceptos y facilitar el enten- dimiento de los desarrollos teóricos y metodológicos posteriores. El capítulo se divide en dos apartados principales, series temporales y datos funcionales, sobre los que se expondrán las ideas más relevantes para el desarrollo de este trabajo. 2.1. Series Temporales Una serie temporal es un conjunto de observaciones {xt}, cada una de las cuales se ha registrado en un momento específico del tiempo t. Las series temporales discretas son aquellas en las cuales el conjunto T de tiempos en los que se realizan las observaciones es discreto. Las series de tiempo continuas son aquellas que se observan durante un intervalo de tiempo continuo, por ejemplo, T = [0, 1] (Brockwell & Davis, 2016, pag. 1). Un ejemplo de serie de tiempo discreta se presenta a continuación: Figura 2-1.: Inflación mensual de Colombia año corrido 2018 - 2020 2.1 Series Temporales 7 Figura 2-2.: Temperatura del 6 de julio de 1997 en la ciudad de Kent, Australia En la figura 2-1 se presenta la inflación año corrido colombiana tomada mensualmente desde enero del año 2018 hasta diciembre del año 2020, en este ejemplo se nota el intervalo regular (meses) en que se mide la variable en cuestión, además de que el conjunto T de observacio- nes es discreto. La serie de tiempo mostrada en esta figura, se conoce como serie de tiempo univariada, debido a que se mide únicamente una variable, y cada observación de la misma es un escalar. Una parte importante del análisis de series temporales como la de la figura 2-1 es la selección de un modelo probabilístico adecuado para los datos. Es natural en este contexto suponer que cada observación xt es una realización de una determinada variable aleatoria Xt, de este modo, un modelo de series temporales para los datos observados {xt} es una especificación de la distribución conjunta (o en la mayoría de casos aplicados solo medias y covarianzas) de una secuencia de variables aleatorias {Xt} (Brockwell & Davis, 2016). Otro ejemplo de serie temporal se presenta en la figura 2-2 en la cual se puede ver el com- portamiento de la temperatura tomada en un día específico a intervalos de 30 minutos en una ciudad australiana. Aunque el registro de las observaciones de esta serie de tiempo es discreto, se puede entender el concepto de la temperatura como una serie temporal continua en el intervalo de un día completo. Un concepto importante en el análisis de series temporales es la estacionariedad, muy grosso modo, este concepto se refiere a la propiedad de que una serie de tiempo mantenga sus ca- racterísticas estadísticas a través del tiempo, esta idea puede quedar un poco más clara con las siguientes definiciones: 8 2 Marco Teórico Sea {Xt} una serie de tiempo con E(X2 t ) <∞. la función media de {Xt} es µXt = E{Xt}. La función de autocovarianza de {Xt} es γ(r, s) = Cov(Xr, Xs) = E[(Xr − µXt)(Xs − µXt)] para todos los enteros r y s. (Brockwell & Davis, 2016). {Xt} es débilmente estacionaria si se cumplen las siguientes condiciones: i) µXt es independiente del tiempo t en la serie temporal ii) γ(t+ h, t) depende únicamente de h y no del tiempo t Así pues, un ejemplo de un modelo sencillo pero muy utilizado en el análisis de series tem- porales es el proceso autorregresivo de orden 1 AR(1) que se describe a continuación: {Xt} es una serie estacionaria que satisface las ecuaciones: Xt = ϕXt−1 + ϵt, donde {ϵt} es un ruido blanco que tiene media 0 y varianza σ2, y representa las innovaciones del proceso temporal, además ϕ es el operador autorregresivo que debe cumplir la condición de estar entre 1 y −1, esto con el fin de mantener la estabilidad del proceso (Brockwell & Davis, 2016). En este modelo es posible ver que la variable aleatoria para el tiempo t depende directamente de una innovación aleatoria y del valor de la variable aleatoria en el tiempo inmediatamente anterior, t−1. Una extensión natural de este modelo, sería el proceso autorregresivo de orden p, o AR(p), en el cual el valor t de la serie de tiempo está dado en función no solo de su realización en el tiempo t − 1, sino de todas las anteriores hasta un determinado t− p Así: Xt = ϕ1Xt−1 + ϕ2Xt−2 + · · ·+ ϕpXt−p + ϵt, Además de este tipo de series temporales univariadas, se pueden analizar también series de tiempo múltiples, donde se tienen en cuenta K variables y cada observación es un vector de K componentes. Así pues, una serie de tiempo múltiple tiene la forma xkt con k = 1, . . . , K y t = 1, . . . , T , o también, xt (notando los vectores con negrilla), con t = 1, . . . , T observaciones vectoriales, donde cada vector posee K componentes. De manera que es posible estudiar las interrelaciones entre las series temporales individuales y sus propiedades (Lütkepohl, 2005, pag. 1). 2.2 Modelo de vectores autorregresivos VAR 9 2.2. Modelo de vectores autorregresivos VAR Es posible considerar una extensión del proceso AR(p) para el caso de las series tempora- les multivariadas, y con ello entenderlo de mejor manera. Esta extensión tendría la forma siguiente: x̂kT+1 = α+βk1,1x1,T+βk2,1x2,T+· · ·+βkK,1xK,T+· · ·+βk1,px1,T−p+1+· · ·+βkK,pxK,T−p+1 (2-1) Con k = 1, . . . , K. Para simplificar esta expresión, se puede utilizar la notación vectorial: xt := (x1t, . . . , xKt) ′ x̂t := (x̂1t, . . . , ˆxKt) ′ α := (α1t, . . . , αKt) ′ Bi := β11,i . . . β1K,i ... . . . ... βK1,i . . . βKK,i . De este modo, la ecuación (2-1) puede ser escrita de forma compacta como: x̂t+1 = α+B1xt + · · ·+Bpxt−p+1. (2-2) Así, considerando cada xt como un vector aleatorio, tenemos el predictor óptimo a través del modelo de vectores autorregresivos VAR, que tiene la forma: xt = α+B1x̂t−1 + · · ·+Bpx̂t−p + εt, (2-3) donde xt es la observación vectorial de la serie temporal múltiple en el tiempo t, α es un vector cuyos componentes son los interceptos univariados de cada una de las variables individuales de la serie de tiempo múltiple, las matrices Bi son matrices de coeficientes autorregresivos, de tal manera que cada una de las variables de la serie múltiple, depende tanto de sus valores pasados como de los valores pasados de las demás K variables y los p rezagos significativos de la serie. Por último, εt = (ε1t, . . . , εKt) T es una secuencia de vectores independientes e idénticamente distribuidos con vector de medias igual a 0. (Lütkepohl, 2005, pag. 4-5) 10 2 Marco Teórico 2.3. Causalidad de Granger Granger (1969) definió un concepto de causalidad en forma general con el cual, bajo algunas condiciones, es fácil lidiar en el contexto de los modelos de vectores autorregresivos VAR. Por este motivo, se ha hecho popular en años recientes. La idea principal es que la causa no puede suceder después del efecto. Por ello, si una variable X afecta una variable Z, la primera debería mejorar las predicciones de la última (Lütkepohl, 2005). Para formalizar esta idea, supongamos que Ωt es el conjunto que contiene toda la informa- ción relevante en el universo hasta el periodo de tiempo t, con t incluido. Sea zt(h | Ωt) el predictor óptimo h pasos adelante, del proceso zt en el origen t, basado en la información que se encuentra en Ωt. El correspondiente error cuadrático medio (MSE por sus siglas en inglés) es denotado como Σz(h | Ωt). Se dice que el proceso xt causa a zten el sentido de Granger si: Σz(h | Ωt) < Σz(h | Ωt \ {xs | s ≤ t}) para al menos un h = 1, . . . (2-4) Nótese que, en la expresión anterior Ωt \ {xs | s ≤ t} es el conjunto de toda la información relevante en el universo, excepto la información pasada y presente contenida en el proceso xt. En otras palabras, si zt puede ser pronosticada más eficientemente, tomando en conside- ración la información que aporta el proceso xt en conjunto con el resto de la información en el universo, entonces, xt es un Granger-causal para zt (Lütkepohl, 2005). La definición se extiende al caso donde zt y xt son procesos M y N -dimensionales respecti- vamente. En este caso, xt es un Granger-causal de zt si Σz(h | Ωt) ̸= Σz(h | Ωt \ {xs | s ≤ t}), (2-5) para algún t y h. Alternativamente, esta puede ser expresada por el requerimiento de que ambos MSEs sean diferentes y Σz(h | Ωt) ≤ Σz(h | Ωt \ {xs | s ≤ t}), (2-6) es decir, la diferencia entre la matriz del lado derecho y la del lado izquierdo es semidefinida positiva. Cabe resaltar que, si un proceso xt causa a zt y zt también causa xt, el proceso (z′t, x ′ t) ′ es llamado sistema de retroalimentación (feedback system) (Lütkepohl, 2005). El término “causalidad instantánea” es usado algunas veces en el análisis económico. Se dice que existe causalidad instantánea entre zt y xt si 2.4 Datos Funcionales 11 Σz(1 | Ωt ∪ {xt+1}) ̸= Σz(1 | Ωt). (2-7) En otras palabras, en el periodo t, adicionando xt+1 al conjunto de información, se mejora el pronóstico de zt+1. Además, se puede demostrar que este concepto de causalidad es simé- trico, lo que significa que si tenemos causalidad instantánea entre zt y xt, entonces también tenemos causalidad instantánea entre xt y zt. Existen situaciones en las que la información de un proceso xt no puede ser usada para me- jorar el pronóstico 1 paso adelante del proceso zt, pero es aún posible que pueda ser usada para mejorar el pronóstico del h paso adelante, para h = 2, 3, . . .. En otras palabras, si xt no causa a zt en el siguiente paso (h = 1), cabe todavía la posibilidad de que sea causal para el paso h, con h > 1. Con esto en mente surge la noción de la causalidad multipasos (multi-step causality). En la práctica, solo la información en el pasado y presente del proceso bajo estudio, es con- siderada relevante, y por lo tanto Ωt es reemplazado por {zs, xs | s ≤ t}. Además, en lugar de predictores óptimos, nos conformamos con comparar los predictores lineales óptimos. En otras palabras, zt(h | Ωt) es reemplazado por el predictor lineal con el mínimo MSE, basado en la información en {zs, xs | s ≤ t}, y zt(h | Ωt \ {xs | s ≤ t) es sustituido por el predictor lineal con mínimo MSE basado en {zs | s ≤ t} (Lütkepohl, 2005). 2.4. Datos Funcionales Los datos funcionales son una generalización de los datos multivariados, desde la dimensión finita hacia la dimensión infinita. Un ejemplo gráfico de datos funcionales puede verse en la Figura 2-3, donde se muestra un conjunto de datos funcionales que comprende 268 curvas espectrométricas tomadas sobre azúcar disuelta en agua cada 8 horas durante 3 meses, aun- que la intensidad es medida de manera discreta, este valor existe para cada momento en el intervalo de 3 meses, por lo cual se pueden ver como funciones sobre tal intervalo. En la práctica, los datos funcionales se obtienen observando fenómenos sobre el tiempo, el espacio u otro tipo de conjuntos no contables. Los datos funcionales resultantes pueden ser curvas, superficies o demás objetos complejos (Zhang, 2014, pag. 2). Otro ejemplo de lo anterior podría ser una imagen tomada por un satélite, de una región particular de la tierra en un momento dado, supóngase que esta imagen muestra la tempe- ratura de la superficie fotografiada, por lo tanto, esta superficie puede ser vista como una 12 2 Marco Teórico Figura 2-3.: Observaciones espectrométricas funcionales de azúcar función X (temperatura) definida en un subconjunto T de una esfera (superficie terrestre), así, X(t) sería la temperatura en el punto t, donde t son coordenadas que determinan el lugar. Es entendible que la resolución del satélite no es infinita, y que en la práctica lo que se tiene es una grilla finita de puntos sobre la superficie con su respectiva medición de la temperatura, sin embargo, la temperatura existe en cada punto del subconjunto T , por lo cual es natural ver a Xn como una función definida sobre todo el subconjunto (Horváth & Kokoszka, 2012). Es importante recordar que este trabajo se enfoca en objetos funcionales que son curvas definidas en un intervalo T ∈ R 2.4.1. Series de tiempo funcionales El objeto de estudio con el que se trabaja en este marco teórico, se define por Bosq (2000) como procesos en tiempo discreto que toman valores en algún espacio funcional adecuado, en una serie de tiempo univariada cada observación xt se entiende como la realización de una variable aleatoria Xt, por ende, una serie de tiempo es, en términos teóricos la realización de un proceso estocástico, de allí, en una serie de tiempo funcional, las realizaciones son en- tonces funciones en un intervalo dado que son observadas de una variable aleatoria funcional como se describe a continuación. Consideremos un proceso estocástico continuo ξ = (ξt, t ∈ T ), donde T es un intervalo en R, definido sobre un espacio de probabilidad (Ω,A, P ) tal que t 7→ ξt(ω) pertenece a algún espacio de funciones F (generalmente el espacio L2) para todo ω ∈ Ω. Entonces, bajo algunas 2.4 Datos Funcionales 13 condiciones simples, ξ define una variable aleatoria funcional (Bosq, 2000). De esta manera, una serie de tiempo funcional {Xt : t ∈ Z} es aquella donde Xt toma valores en el espacio H := L2[0, 1], de las funciones cuadrado integrables en [0,1]. Esto significa que Xt = {Xt(u) : u ∈ [0, 1]}, se utiliza el intervalo [0,1] por simplicidad y sin pérdida de generalidad, pero los datos funcionales pueden establecerse en cualquier intervalo acotado τ (Hörmann et al., 2015). Así pues, tenemos que: ∫ 1 0 X2 t (u)du <∞. (2-8) El espacio H, es un un espacio de Hilbert dotado de producto interno ⟨x, y⟩ = ∫ 1 0 x(u)y(u)du, de modo que ||x|| := ⟨x, x⟩1/2 define la norma. La notación X ∈ Lp indica que para algún p > 0, E[||X||p] < ∞. Por ejemplo, cualquier X ∈ L1 posee entonces una curva media µ = E[X(u)] : u ∈ [0, 1], y cualquier X ∈ L2 un operador de covarianza Γ, definido como ΓX := E[(X − µ)⟨x,X − µ⟩], aquí vale la pena aclarar que x es la realización u observación de una variable aleatoria funcional (es decir una función en el espacio L2[0, 1]), en tanto que X hace referencia a la variable aleatoria funcional. El operador de covarianza Γ es un operador integral dado por ΓX(u) = ∫ 1 0 γ(u, v)x(v)dv, γ(u, v) := cov[X(u), X(v)], u, v ∈ [0, 1], (2-9) es decir, el kernel del operador de covarianza es la función de covarianza del proceso El proceso {Xt : t ∈ Z} es conocido como débilmente estacionario, si para todo t: a.) Xt ∈ L2. b.) E[Xt] = E[X0]. c.) para todo h ∈ Z y u, v ∈ [0, 1], cov[Xt+h(u), Xt(v)] = cov[Xh(u), X0(v)] =: γh(u, v), (2-10) de esta manera, es posible denotar por Γh al operador de covarianza cuyo kernel es la función de autocovarianza entre Xt y Xt+h, es decir, ella misma pero h pasos adelante γh. Las anteriores condiciones son una generalización del concepto de estacionariedad en series de tiempo clásicas, al caso de series temporales funcionales, de igual manera, en el resto del documento se referirá a la estacionariedad en sentido débil, a menos que se especifique lo contrario. 14 2 Marco Teórico 2.5. Igualdad de Operadores de Covarianza para Series de Tiempo Funcionales En este apartado se presenta la metodología propuesta por Zhang y Shao (2015), para probar la igualdad de operadores de covarianza entre series temporales funcionales dada su carac- terística de dependencia temporal. Dadas dos secuencias de observaciones funcionales temporalmente dependientes, {Xi(t)}N1 i=1 y {Yi(t)}N2 i=1 definidas en un rango común τ , tal que que ambasseries son estacionarias de segun- do orden y que E[Xi(t)] = E[Yi(t)] = 0, además, que ΓX = E[⟨Xi, ·⟩Xi] y ΓY = E[⟨Yi, ·⟩Yi] son los operadores de covarianza para ambas secuencias, respectivamente. Se denota por {ϕj X}∞j=1 y {λjX}∞j=1, a las funciones propias y valores propios de ΓX . Cantida- des análogas {ϕj Y }∞j=1 y {λjY }∞j=1 se usan para la segunda muestra, es evidente que dada la dimensión infinita de los objetos funcionales, se tienen infinitos valores propios y funciones propias para cada muestra. También cabe aclarar que vech(·) se refiere al operador que apila las columnas debajo de la diagonal de una matriz m × m en un vector con m(m + 1)/2 componentes. Ahora se considera el problema de probar la siguiente hipótesis: H0 :ΓX = ΓY H1 :ΓX ̸= ΓY (En el sentido de la norma de los operadores) para dos series temporales funcionales esta- cionarias con media 0 {Xi(t)}N1 i=1 y {Yi(t)}N2 i=2 con N1 y N2 la respectiva cantidad de obser- vaciones funcionales de cada muestra. Sea N = N1 +N2, se asume también que N1/N → ζ1, N2/N → ζ2, cuando min(N1, N2) → ∞, donde ζ1, ζ2 ∈ (0, 1) y ζ1 + ζ2 = 1 Se definen los operadores Xi = ⟨Xi, ·⟩Xi y Yi = ⟨Yi, ·⟩Yi. Sea Γ̂XY el operador de covarianza empírico basado en las muestras agrupadas, así Γ̂XY = 1 N1 +N2 ( N1∑ i=1 Xi + N2∑ i=1 Yi ) . De igual manera se denotan las funciones y valores propios de Γ̂XY como {ϕ̂j XY } y {λ̂jXY }. La contraparte poblacional de Γ̂XY está dada por Γ̃XY = ζ1ΓX + ζ2ΓY cuyos valores y funciones propias están dadas por {λ̃j} y {ϕ̃j} respectivamente. Además, sea Γ̂X,m = 1 m ∑m i=1Xi el 2.5 Igualdad de Operadores de Covarianza para Series de Tiempo Funcionales 15 operador de covarianza basado en submuestras de {Xi(t)}mi=1, donde 2 ≤ m ≤ N1, y sus respectivas funciones y valores propios de denotados por {ϕ̂j X,m}mj=1 y {λ̂jX,m}mj=1, es decir, ∫ τ γ̂X,m(t, s)ϕ̂ j X,m(s)ds = λ̂jX,mϕ̂ j X,m(t), (2-11) además, ∫ τ ϕ̂i X,m(t)ϕ̂ j X,m(t)dt = δij en donde δij = 1 si i = j pero δij = 0 si i ̸= j. Similar- mente, se definen las cantidades, Γ̂Y,m′ , {ϕ̂j Y,m′}m ′ j=1 y {λ̂jY,m′}m ′ j=1, con 2 ≤ m′ ≤ N2 para la segunda muestra. Para introducir el test se definen los estimadores recursivos ci,jk = ⟨(Γ̂X,⌊kN1/N⌋ − Γ̂Y,⌊kN2/N⌋)ϕ̂XYi , ϕ̂XYj ⟩, 2 ≤ k ≤ N, 1 ≤ i, j ≤ K. Los cuales estiman la diferencia de los operadores de covarianza sobre el espacio abarcado por {ϕ̃j}Kj=1. Aquí K es un número elegido con base en la variabilidad explicada por valores y funciones propias, generalmente cercano a 90%. Así pues, el estadístico de prueba clásico definido por Panaretos et al. (2010), en el cual se tiene como supuesto la independencia y Gaussianidad de las observaciones funcionales en ambos procesos se obtiene de la siguiente forma. TN1,N2 = N1N2 2N K∑ i=1 K∑ j=1 (ci,jN )2 ϱ̂iϱ̂j , donde, ϱ̂j = 1 N { N1∑ i=1 (⟨Xi, ϕ̂XYj ⟩) + N2∑ i=1 (⟨Yi, ϕ̂XYj ⟩) } , el cual converge a χ2 (K+1)K/2 bajo la hipótesis nula. Ahora, con el fin de tomar en cuenta la dependencia temporal inherente a las series de tiempo, Zhang y Shao (2015) introducen la matriz V (d) = 1 N2 N∑ k=1 k2(α̂k − α̂N)(α̂k − α̂N) ′, con d = (K + 1)K/2 y α̂k = vech((ci,jk )Ki,j=1, lo que nos permite definir el test estadístico como 16 2 Marco Teórico G(d) = Nα̂′ N(V (d))−1α̂N . Se puede demostrar que el test para el caso de independencia puede ser escrito como una forma cuadrática de α̂N , pero con una matriz de normalización diferente que solo es aplica- ble para ese caso. Lo especial del nuevo estadístico es que se hace robusto a la dependencia interna de cada muestra, y también a la dependencia entre ambas muestras cuando N1 = N2. 2.6. Causalidad de Granger en Datos Funcionales La definición que se presenta a continuación es tomada del trabajo de Saumard (2017), en el que se estudia y propone un procedimiento estadístico para probar la hipótesis de causalidad en el sentido de Granger en series temporales funcionales. Sea H el espacio L2 antes definido, además, sea {Xt} una serie de tiempo funcional tal que, E[∥ Xt ∥2] <∞ y que E[Xt] = 0, también se asume que {Xt} es estacionaria. Sea {Yt} una serie temporal funcional estacionaria en H que cumple las mismas condiciones que {Xt}. Sea Ωt la información acumulada hasta el periodo t − 1, y Ωt − Xt toda esta información exceptuando lo aportado por la serie Xt. El error de predicción de las series está dado por εt(Yt | Ωt) = Yt − Pt(Yt | Ωt), (2-12) donde Pt(Yt | Ωt) es el mejor predictor lineal de Yt. La definición de causalidad en el sentido de Granger para el caso de datos funcionales es la siguiente: decimos que X causa a Y si Γεt(Yt|Ωt−Xt) − Γεt(Yt|Ωt), (2-13) es un operador definido positivo1 usando la información Ωt, es decir, existe más incertidum- bre en el predictor de Yt con base en Ωt −Xt que en el predictor basado en Ωt. Para ejemplificarlo supongamos, Xt = (Yt, Xt) ′ un proceso autorregresivo bivariado en H := L2[0, 1]× L2[0, 1], asociado con (ρ, ε) donde ρ es una matriz 2× 2 de operadores lineales en H y ε es un vector de ruido blanco. Asumamos que la dinámica para Xt es: Xt = ρ(Xt−1) + εt. (2-14) 1Un operador T es definido positivo si ⟨T x, x⟩ > 0 para todo x en un espacio H 2.7 Modelo de Vectores Autorregresivos Funcional VFAR 17 El modelo se puede reescribir así { Yt = ρ11(Yt−1) + ρ12(Xt−1) + ε1t Xt = ρ21(Yt−1) + ρ22(Xt−1) + ε2t Así pues, ρ11, . . . , ρ22 son operadores lineales y de acuerdo con la definición de causalidad presentada anteriormente, decimos que {Xt} no es causa lineal de {Yt} si y solo si ρ12 = 0, esto quiere decir que el operador es la función constante 0 sobre el intervalo τ en el que se definen las funciones. De hecho si ρ12 = 0, los dos operadores de covarianza de la definición son iguales, y por lo tanto el operador Γεt(Yt|Ωt−Xt) − Γεt(Yt|Ωt), no es definido positivo2. En este documento se pretende estudiar el caso presentado cuando se tiene dimensiones ma- yores a 2, es decir, donde el proceso no contenga únicamente dos variables funcionales, sino 3 o 4, esto es importante porque permite analizar el desempeño de la prueba de causalidad en dimensiones mayores, las cuales incorporan las interrelaciones existentes entres las k series que hacen parte del proceso, además de que permite encontrar sistemas de retroalimentación causal, en los cuales puede existir una causalidad con efecto dominó sobre el sistema en el que interactúen varias series temporales. 2.7. Modelo de Vectores Autorregresivos Funcional VFAR A continuación se presenta el modelo de vectores autorregresivos funcionales propuesto por Chen et al. (2019), el cual constituye una generalización para el caso de datos funcionales del modelo VAR presentado anteriormente. El modelo puede ser escrito para el caso bivariado de la siguiente manera: [ Yt − µY Xt − µX ] = p∑ j=1 [ ρyy,j ρyx,j ρxy,j ρxx,j ] [ Yt−j − µY Xt−j − µX ] + [ εyt εxt ] . (2-15) Aquí, Xt−µX y Yt−µY son las series que hacen del proceso en el momento t, los operadores ρ··,j relacionan la dependencia serial del proceso con el rezago t − j, por último los valores ε·t se refieren a las innovaciones del proceso, los cuales son ruidos blancos independientes e idénticamente distribuidos, con media cero y segundo momento finito. Por lo tanto, asu- miendo que la esperanza de las series funcionales es igual a 0, la extensión natural al caso funcional multivariado sería: 2Algunas veces un operador definido no negativo es llamado definido positivo, sin embargo, entiéndase aquí definido positivo como estrictamente mayor que cero y semidefinido positivo o definido no negativo como mayor o igual a cero 18 2 Marco Teórico X1,t ... Xk,t = p∑ j=1 ρ x1x1,j . . . ρx1xk,j ... . . . ... ρxkx1,j . . . ρxkxk,j X1,t−j ... Xk,t−j + εx1 ... εxk . (2-16) Este proceso pretende capturar la dependencia cruzada de series de tiempo funcionales mul- tivariadas, donde los operadores ρx1x1 , . . . , ρxkxk hacen parte de una matriz k × k con k el número de series temporales funcionales quehacen parte del proceso, y son estos operadores los que miden la dependencia cruzada entre las series y su j−ésimo valor rezagado (Chen et al., 2019), cabe aclarar también que son operadores lineales acotados que van de H a H, un espacio de Hilbert dotado con su σ-álgebra de Borel BH . La función media del proceso se denota como: (µx1 , . . . , µxk )T = (E[X1,t(τ)], . . . , E[Xk,t(τ)]) T . (2-17) Bajo estacionariedad, tanto la dependencia cruzada como la media son constantes a través del tiempo. Los errores de predicción {εxt} son ruido blanco, independientes e idénticamente distribuidos con media 0 y segundo momento finito, los procesos de los errores (εx1 , . . . , εxk ) no tienen que ser necesariamente independientes entre sí. (Chen et al., 2019) 2.7.1. Modelo Funcional Autorregresivo con Variables Exógenas FARX Un caso particular del modelo VFAR, es el FARX, en el cual, las variables funcionales que afectan el proceso, no dependen de las demás, sino únicamente de sí mismas, debido a que los operadores que relacionan estos procesos son el operador 0 con lo cual dicho efecto no existe; es por esto que se llaman variables exógenas. Así pues, para describir el modelo, considere la siguiente expresión Yn = ρ(Yn−1) + a1(Xn,1) + · · ·+ aqXn,q + εn n ∈ Z, (2-18) donde Xn,1, . . . , Xn,q son q variables autorregresivas exógenas, asociadas cada uno con sus operadores u1, . . . , uq y sus propios errores ruido blanco εZn,1 , . . . , εZn,q , de este modo se presenta el modelo en forma matricial como: Yn Xn,1 Xn,2 ... Xn,q = ρ a1 . . . . . . aq 0 u1 0 . . . 0 0 0 u2 0 ... ... ... . . . 0 0 0 0 . . . uq Yn−1 Xn−1,1 Xn−1,2 ... Xn−1,q + εn εXn,1 εXn,2 ... εXn,q . (2-19) 2.7 Modelo de Vectores Autorregresivos Funcional VFAR 19 Nótese que la anterior estructura describe un modelo FARX(1), es decir, que considera única- mente 1 rezago, teniendo como extensión natural el modelo FARX(p) que incluye p rezagos en el tiempo, como se pudo notar en la estructura presentada en el modelo VFAR. Las simulaciones que se realizarán en este documento se basan en este modelo puesto que el mis- mo permitirá determinar si las pruebas de causalidad detectan los efectos que las variables exógenas causan dentro de la variable principal del proceso, sin verse afectado por posibles interrelaciones entre las demás variables. En este sentido, se entiende a Xn como una serie de tiempo multivariada funcional de la forma (Yn, Xn,1, . . . , Xn,q) T , donde Yn y Xn,i son series temporales funcionales univariadas. Se realizaron simulaciones del proceso Xn utilizando el modelo FARX(1) propuesto por Damon y Guillas (2005) que toma la siguiente forma Yn Xn,1 Xn,2 ... Xn,q = ρ a1 . . . . . . aq 0 u1 0 . . . 0 0 0 u2 0 ... ... ... . . . 0 0 0 0 . . . uq Yn−1 Xn−1,1 Xn−1,2 ... Xn−1,q + εYn εXn,1 εXn,2 ... εXn,q (2-20) o, de manera más compacta, Xn = ρ′Xn−1 + ε′, (2-21) donde ρ′ = ρ a1 . . . . . . aq 0 u1 0 . . . 0 0 0 u2 0 ... ... ... . . . 0 0 0 0 . . . uq , y ε′ = εYn εXn,1 εXn,2 ... εXn,q (2-22) donde cada serie Xn,i es débilmente estacionaria bajo las condiciones a, b y c presentadas en (2.4.1) y toma valores en el espacio L2[0, 1], además, se considera que el vector de medias del proceso Xt es 0. Los operadores ρ, ai, ui, son operadores lineales acotados que van de L2[0, 1] → L2[0, 1] (Damon & Guillas, 2005). Considérese además, el producto cartesiano entre espacios de Hilbert H × H, para el cual se utiliza la notación H2, de modo tal que el producto cartesiano entre espacios de Hilbert de la forma (H1 × H2×, . . . ,×Hk) se puede notar como Hk. Así pues, los objetos funcio- nales multivariados con los que se está trabajando hacen parte del espacio Hq+1, debido a 20 2 Marco Teórico que tenemos 1 variable de respuesta y q variables exógenas en los vectores funcionales de la expresión 2-20. En adelante, se utilizará L y S para representar al espacio de los operadores lineales acotados y al espacio de los operadores de Hilbert-Schmidt en H respectivamente. Similarmente Lk y Sk para el espacio Hk, por lo cual, para el caso específico trabajado se tiene Lq+1 y Sq+1. Cabe aclarar que para el espacios de la forma Hk, los operadores resultan ser matrices de operadores (Damon & Guillas, 2005). Para realizar las simulaciones se debe mantener el supuesto C presentado en Damon y Guillas (2005), que dice lo siguiente: ∃j0, ||ρ′j0||Lq+1 < 1, donde ||.||Lq+1 , hace referencia a la norma de la matriz de operadores ρ′ en (2-20), por lo tanto, para asegurar que el supuesto se mantiene se presenta el siguiente razonamiento, primero se muestra la definición de la norma de un operador de la siguiente manera (Conway, 2019, pag. 27) ||ρ||L = sup { ||ρx|| ||x|| : x ̸= 0 } . Ahora bien, siguiendo a Virta et al. (2020), tenemos que, para una matriz de operadores en espacios de Hilbert separables se puede demostrar lo siguiente: ||ρ′x|| ≤ ( q+1∑ i,j=1 ||ρij||2L )1/2 ||x||. Así, tenemos que ||ρ′x|| ||x|| ≤ (∑q+1 i,j=1 ||ρij||2L )1/2 , con lo cual el término de la derecha de la desigualdad representa una cota superior para la razón de las normas transformada y sin transformar, permitiéndonos deducir que la menor cota superior es la igualdad, y que por lo tanto la norma de una matriz de operadores es la parte derecha de esta desigualdad, de modo que. ||ρ′||Lq+1 = ( q+1∑ i,j=1 ||ρij||2L )1/2 (2-23) Ahora bien, por el teorema 10.3.1 en Kokoszka y Reimherr (2017) sabemos que 2.8 Componentes Principales Funcionales Dinámicos FPCA 21 ||ψ||L ≤ ||ψ||S, donde ψ es un operador lineal acotado, ||.||L se refiere a la norma del operador y ||.||S a la norma de Hilbert-Schmidt. Con lo cual, se tiene que ( q+1∑ i,j=1 ||ρij||2L )1/2 ≤ ( q+1∑ i,j=1 ||ρij||2S )1/2 , por lo tanto, si aseguramos que la sumatoria de las normas de Hilbert-Schmidt de los ope- radores que son componentes de la matriz de operadores ρ′ es menor que uno, ( q+1∑ i,j=1 ||ρij||2L )1/2 ≤ ( q+1∑ i,j=1 ||ρij||2S )1/2 < 1, entonces nos aseguramos que la sumatoria de las normas de los operadores también es menor que 1, y con ello se cumple la condición C0 puesto que ahora tenemos que ||ρ′j0||Lq+1 < 1 con j0 = 1. 2.8. Componentes Principales Funcionales Dinámicos FPCA Hörmann et al. (2015), propusieron una versión dinámica del análisis de componentes prin- cipales, que permitiera incorporar al análisis la dependencia inherente a las series temporales en su versión funcional, y que, de hecho mejora la técnica de reducción de la dimensiona- lidad en este tipo de observaciones. A continuación se muestran las ideas principales de la metodología. Para empezar, se define el concepto de operador de densidad espectral. Por analogía con el concepto clásico de la matriz de densidad espectral, se define este operador así: Sea {Xt} un proceso estacionario que toma valores en el espacio de la funciones cuadrado integrables con dominio [0, 1] (L2[0, 1]). El operador FX θ cuyo kernel es fX θ (u, v) := 1 2π ∑ h∈Z ch(u, v)exp{−ihθ}, θ ∈ [−π, π], (2-24) 22 2 Marco Teórico donde i denota la unidad imaginaria, es llamado el operador espectral de {Xt} en la frecuen- cia θ. Para asegurar la convergencia de las series definidas por fX θ (u, v), se impone la siguiente condición de sumabilidad sobre las autocovarianzas: ∑ z∈Z {∫ 1 0 ∫ 1 0 |γh(u, v)|2dudv }1/2 <∞. (2-25) Esta condición se puede expresar más convenientemente como ∑ z∈Z ||Γh||S <∞, (2-26) donde || · ||S denota la norma de Hilbert-Schmidt. El concepto de operador de densidad espectral fue introducido por Panaretos y Tavakoli (2013), el cual es usado por Hörmann et al. (2015) para crear lo que llamaron filtros funcio- nales, que resultan ser los bloques de construcción de los FPC dinámicos. Un filtro funcional se define vía una secuencia Φ = {Φl : l ∈ Z} de operadores lineales entrelos espacios H = L2[0, 1] y H ′ = Rp. Las variables filtradas Yt tienen la forma Yt = ∑ l∈ZΦl(Xt−l) y, por el teorema de Riesz, los operadores lineales Φl están dados por x 7→ Φl(x) = (⟨x, ϕ1l⟩, . . . , ⟨x, ϕpl⟩)′, ϕ1l, . . . , ϕpl ∈ H. (2-27) Se considera que los filtros Φ, para los cuales las secuencias { ∑N l=−N ϕml(u)exp(ilθ) : N ≥ 1}, 1 ≤ m ≤ p, convergen a L2([0, 1]× [−π, π]). Por lo tanto, se asume que existe una función cuadrado integrable ϕ∗ m(u|θ) tal que ĺım N→∞ ∫ π −π ∫ 1 0 { N∑ l=−N ϕml(u)exp(ilθ)− ϕ∗ m(u|θ) }2 dudθ = 0. (2-28) Además se supone que sup θ∈[−π,π] ∫ 1 0 ϕ∗ m(u|θ)2du <∞. (2-29) Luego, se puede escribir ϕ∗ m(θ) := ∑ l∈Z ϕmlexp(ilθ) o, para enfatizar su naturaleza funcio- nal, ϕ∗ m(u|θ) := ∑ l∈Z ϕmlexp(ilθ). Se denota por C a la familia de filtros Φ que satisfacen 2.8 Componentes Principales Funcionales Dinámicos FPCA 23 las condiciones mostradas en 2-28 y 2-29. Así pues, la siguiente proposición relaciona el operador de densidad espectral de {Xt} con la matriz de densidad espectral de secuencia filtrada (Yt = ∑ l∈ZΦl(Xt−l). Este resultado juega un rol crucial en la construcción de los FPC dinámicos (Hörmann et al., 2015). Proposición 1. Asumiendo que Φ ∈ C, sea ϕ∗ m(θ) como se presentó anteriormente. Entonces las series ∑ l∈Z ϕl(Xt−l) convergen en media cuadrática al limite Yt. El proceso vectorial p- dimensional {Yt} es estacionario, con matriz de densidad espectral FY θ = ⟨F X θ {ϕ∗ 1(θ)}, ϕ∗ 1(θ)⟩ · · · ⟨FX θ {ϕ∗ p(θ)}, ϕ∗ 1(θ)⟩ ... . . . ... ⟨FX θ {ϕ∗ 1(θ)}, ϕ∗ p(θ)⟩ · · · ⟨FX θ {ϕ∗ p(θ)}, ϕ∗ p(θ)⟩ . (2-30) Dado que no se asume a priori que los coeficientes ϕl son absolutamente sumables, las series FY θ = (2π)−1 ∑ h∈Z γYh exp(ihθ), (2-31) donde γYh = cov(Yh, Y0) pueden no ser absolutamente convergentes, y por lo tanto no ser puntuales en θ. El operador FY θ se puede considerar como un elemento del espacio L2 Cp×p([−π, π]). Esto es, la colección de funciones medibles f : [−π, π] 7→ Cp×p para las cuales∫ π −π ||f(θ)||2Fdθ <∞, donde || · ||F denota la norma de Frobenius. Así, la igualdad entre f y g es entendida como ∫ π −π ||f(θ)− g(θ)||2Fdθ = 0. En particular esto implica que f(θ) = g(θ) para casi todo θ (Hörmann et al., 2015). Ahora bien, para notar las importantes consecuencias de la proposición 1, obsérvese que bajo la condición 2-26, para toda frecuencia θ, el operador FX θ es un operador semidefinido positivo, autoaudjunto de Hilbert-Schmidt, el cual admite, para todo θ, la descomposición espectral que sigue FX θ (x) = ∑ m≥1 λm(θ)⟨x, φm(θ)⟩φm(θ), (2-32) donde λm(θ) y φm(θ) denotan los valores propios y funciones propias dinámicos. Los autores imponen el orden λ1(θ) ≥ λ2(θ) ≥ · · · ≥ 0 para todo θ ∈ [−π, π], además, se requiere que las funciones propias estén estandarizadas, de manera que ||φm(θ)|| = 1 para todo m ≥ 1 y θ ∈ [−π, π]. Ahora, asumiendo que podemos seleccionar los filtros funcionales (ϕml : l ∈ Z) de tal manera que 24 2 Marco Teórico ĺım N→∞ ∫ π −π ∫ 1 0 { N∑ l=−N ϕmlexp(ilθ)− φ(u|θ) }2 dudθ = 0 (2-33) Así pues, tenemos que FY θ = diag{λ1(θ), . . . , λp(θ)} para casi todo θ, lo cual implica que el proceso coordinado de (Yt) no son correlacionados en ningún rezago: cov(Ymt, Ym′s) = 0 para todo s, t y m ̸= m′. Motivado por lo anterior, se pretende definir a ϕml de tal manera que ϕ∗ ml = φm (en L2[0, 1]× [−π, π]). Para ello, se supone que la función φm(u|θ) es medible en u y en θ conjuntamente. El hecho de que las funciones propias sean estandarizadas implica que ∫ π −π ∫ 1 0 φ2 m(u|θ)dudθ = 2π. (2-34) Hörmann et al. (2015) concluyen del teorema de Tonelli que ∫ π −π φ2 m(u|θ)du < ∞ para casi todo u ∈ [0, 1], esto quiere decir que φm(u|θ) ∈ L2[−π, π] para todo u ∈ Am ⊂ [0, 1], donde Am tiene medida de lebesgue igual a 1. Ahora se define, para u ∈ Am, ϕml(u) := 1 2π ∫ π −π φm(u|s)exp(−ils)ds; (2-35) para u /∈ Am, ϕml(u) es 0. Luego, es posible mostrar que la condición 2-33 se mantiene, y por lo tanto los filtros funcionales definidos por (ϕml : l ∈ Z, 1 ≤ m ≤ p) pertenecen a la clase C y que los procesos filtrados resultantes, tienen autocovarianzas diagonales en todos los rezagos. Así pues, se definen los componentes principales dinámicos: Sea {Xt} un proceso funcional estacionario con media cero, que toma valores en L2 H y que satisface 2-26. Sea ϕml como en la expresión 2-35. Entonces, el m-ésimo score dinámico de Xt es: Ymt := ∑ l∈Z ⟨Xt−l, ϕml⟩, t ∈ Z, m ≥ 1. (2-36) Los elementos ϕml de Φm := (ϕml : l ∈ Z) son llamados los m-ésimos coeficientes filtro del componente principal dinámico. Hörmann et al. (2015) También exponen la manera como se puede recuperar el proceso original (Xt(u) : t ∈ Z, u ∈ [0, 1]) a través de (Ymt : t ∈ Z,m ≥ 1), utilizando el análogo di- námico de la expansión estática de Karhunen-Loève asociada a los componentes principales 2.8 Componentes Principales Funcionales Dinámicos FPCA 25 estáticos, así Sean Ymt los scores de los componentes principales dinámicos asociados al proceso (Xt(u) : t ∈ Z, u ∈ [0, 1]). Entonces Xt(U) = ∑ m≥1 Xmt)(u), Xmt(u) := ∑ l∈Z Ym,t+lϕml(u), (2-37) donde la convergencia es en media cuadrada. Se llama a la expresión 2-37 la expansión di- námica de Karhunnen-Loève de Xt. En la practica, los scores de los componentes principales dinámicos han de ser calculado a partir de una versión estimada de FX θ . Al mismo tiempo, las series infinitas que definen los scores deben ser remplazadas por aproximaciones finitas. Supongamos de nuevo que (Xt : t ∈ Z) es un proceso débilmente estacionario que satisface la condición 2-26. Entonces, un estimador natural para Ymt es Ŷmt := L∑ l=−L ⟨Xt−l, ϕ̂ml⟩, m = 1, . . . , p, t = L+ 1, . . . , n− L, (2-38) donde L es algún entero y ϕ̂ml es calculado utilizando la versión estimada del operador de densidad espectral F̂X θ que se define así F̂X θ = ∑ |h|≤q ( 1− |h| q ) γ̂hexp(−ihθ), 0 < q < n. (2-39) 3. Metodología Este capítulo presenta todos los procedimientos realizados en el trabajo de manera detallada y reproducible, con el propósito de que el lector interesado pueda replicar los resultados de forma independiente. 3.1. Procedimientos El trabajo se desarrolló con base en las metodologías propuestas por Saumard y Hadjad- ji (2021), utilizando los tres procedimientos que se describen a continuación para probar la hipótesis de causalidad sobre procesos bivariados (una variable funcional causal, y una causada), trivariados (dos variables funcionales causales, y una causada) y 4-variados (tres variables funcionales causales, y una causada) de series temporales funcionales. 3.1.1. Procedimiento 1: F-Causalidad Disponer de (Y1, . . . , YN), (X1,1, . . . , XN,1), . . . , (X1,q, . . . , XN,q). . . Estimar los parámetros (ρp), para este caso se utiliza el modelo FARX presentado el marco teórico con la matriz de operadores del periodo inmediatamente anterior. Se deben estimar dos modelos uno incluyendo la información de de las variables funcionales causales, y otro sin incluirla. Estimar ε1 en los modelos que incluyen y no las series causales para t = 2, . . . , N Por último utilizar el test propuesto por Zhang y Shao (2015) para los probar la igualdad operadores de covarianza de los errores y verificar la causalidad en el sentido de Granger. 3.1.2. Procedimiento 2: Componentes principales dinámicos Disponer de (Y1, . . . , YN), (X1,1, . . . , XN,1), . . . , (X1,q, . . . , XN,q). . . Determinar L y q presentados en la sección de FPCA dinámicos 3.2 Simulación de los Procesos FAR(1) y FARX(1) 27 Calcular los primeros d scores de los FPCA dinámicos para las 3 series temporales funcionales Utilizar pruebas multivariadas clásicas en los scores resultantes para probar la hipótesis de causalidad 3.1.3. Procedimiento 3: G-causalidad Disponer (Y1, . . . , YN), (X1,1, . . . , XN,1), . . . , (X1,q, . . . , XN,q). . . en su forma de grilla, con m puntos para cada observación funcional. Trabajar las observaciones funcionales como series de tiempo múltiplesclásicas Diferenciar las series debido a la posible no estacionariedad, verificar esta en el sentido clásico. Realizar la prueba de causalidad de Granger sobre los datos 3.2. Simulación de los Procesos FAR(1) y FARX(1) Así pues, la simulación del proceso se realiza siguiendo a Kokoszka y Reimherr (2017) para los procesos FAR(1) y se complementa dicha estructura con los modelos FARX(1) expuestos por Damon y Guillas (2005) de la siguiente manera: Xn(t) = ρXn−1(t) + ϵn(t), (3-1) donde los objetos Xn(t) hacen parte del espacio L2[0, 1] de funciones cuadrado integrables, ρ es un operador que va del espacio L2[0, 1] a L2[0, 1], y ϵn(t) representa los errores, cabe aclarar que estos errores son una secuencia de funciones que también están en el espacio L2[0, 1], y además son ruido blanco. Para nuestro caso particular y siguiendo a Kokoszka y Reimherr (2017), los errores se simulan mediante la siguiente expresión: ϵn(t) = Zn1 sinπt+ 1 2 Zn2 cos 2πt, (3-2) tanto Zn1 como Zn2 son variables aleatorias normales estándar. Además el operador ρ es un operador integral, cuyo kernel tiene la siguiente forma: p(s, t) = βst, con β una constan- te real, teniendo siempre en cuenta que para que el proceso tenga solución estacionaria se debe cumplir que ( ∫ ∫ p2(s, t))dsdt)1/2 < 1, esto garantiza a su vez que el operador sea de Hilberth-Schmidt por lo mencionado en Horváth y Kokoszka (2012, pag. 23). 28 3 Metodología Figura 3-1.: Ejemplo de proceso FAR(1) con 100 observaciones simuladas Así pues, en la simulación se fija β con un valor de β = 1, con lo cual ( ∫ ∫ ρ2(s, t))1/2dsdt = ( ∫ ∫ (st)2dsdt)1/2 = 1/9 < 1. Además, para darle tiempo al proceso de estabilizarse, se reali- zan 150 observaciones simuladas del proceso, pero se descartan las primeras 50 (Kokoszka y Reimherr, 2017). Para realizar este proceso, se utilizan las funciones simul.fax.* escritas con base en el códi- go presentado por Kokoszka y Reimherr (2017) y cuyo código específico se puede consultar en el anexo A de este documento. Así pues, un proceso FAR(1) simulado de la forma anterior- mente expuesta se puede apreciar en la figura 3-1. Para replicar este proceso puede hacerse uso de la función SIMUL.FARX.BI(), utilizando los siguientes argumentos (m = 100, burnin = 50, N = 100, rho = 1, a = 0, b = 1, seed = 123) y PLOT.FAR.OWN() las cuales se presentan en el anexo A y automatizan el código de simulación y la generación de gráficos de los procesos. Ahora bien, el anterior código simula el proceso FAR(1) el cual es el caso de no causalidad, sin embargo, el objetivo del trabajo se concentra en procesos funcionales multivariados, es decir, aquellos que contienen más de un solo proceso, por lo tanto, siguiendo a Damon y Guillas (2005) se extiende la estructura de la expresión (3-1) de la siguiente manera: Tn = ρ′Tn−1 + ϵ′n, (3-3) donde, Tn = [ Yn Xn ] , ρ∗ = [ ρ a 0 u ] , ϵ∗n = [ ϵYn ϵXn ] , (3-4) de modo que el proceso se puede reescribir así: 3.2 Simulación de los Procesos FAR(1) y FARX(1) 29 [ Yn Xn ] = [ ρ a 0 u ] [ Yn−1 Xn−1 ] + [ ϵYn ϵXn ] . (3-5) De esta manera tenemos 2 procesos funcionales así: Yn(t) = ρYn−1(t) + aXn−1(t) + ϵYn(t) (3-6) Xn(t) = uXn−1(t) + ϵXn(t) (3-7) donde el Yn es afectado por si mismo un periodo atrás, pero también por Xn−1, en virtud del operador a. Nótese que si el operador a resulta ser 0, los dos procesos funcionales son independientes, y no poseen ninguna interrelación entre sí. Para simular un proceso como el representado por la ecuación (3-5), se utilizó la función SIMUL.FAR, presentada en el anexo A de este trabajo, en ella, se mantienen los operadores ρ, a, u de la forma en que su kernel es βst, y solo se manipula la constante β de dicho kernel, de tal modo que si hacemos a la constante de un kernel β = 0, el operador convierte la función que opere en la función constante 0, y por lo tanto no afecta de ningún modo al proceso. Es por esto que si fijamos la constante del kernel del operador a en 0, lo que se obtiene son 2 procesos FAR(1) {Yn} y {Xn} independientes entre sí, de la siguiente manera: [ Yn Xn ] = [ ρ 0 0 u ] [ Yn−1 Xn−1 ] + [ ϵYn ϵXn ] , así pues, Yn(t) = ρYn−1(t) + ϵYn(t) Xn(t) = uXn−1(t) + ϵXn(t) en la figura 3-2 se presentan 2 procesos generados por este código con las constantes β de los operadores fijados en βρ = 1, βa = 0.5 y βu = 0.5. Cabe recordar que fijadas estas constantes, la norma de Hilbert Schmidt de la matriz de operadores del proceso es: ( 2∑ i,j=1 ||ρij||2S )1/2 , con ρ11 = ρ, ρ12 = a, ρ21 = 0, ρ22 = u (3-8) donde ||.||S hace referencia a la norma de Hilbert Schmidt de cada operador de la matriz ρ′, en este caso particular ρ, a y u, de modo que la norma será: (∫ 1 0 ∫ 1 0 (1st)2dsdt+ ∫ 1 0 ∫ 1 0 ( 1 2 st )2 dsdt+ ∫ 1 0 ∫ 1 0 ( 1 2 st )2 dsdt )1/2 = 1√ 6 < 1, (3-9) 30 3 Metodología Figura 3-2.: Proceso bivariado simulado a partir del modelo FARX(1) Yn (negro) y Proceso Xn (azul) con lo cual, se satisface el supuesto C0 en Damon y Guillas (2005). Para los procesos trivariado y 4-variado se realiza un procedimiento de simulación análogo al presentado en esta sección, los cuales toman la siguiente estructura matricial; Yn Xn,1 Xn,2 = ρ a1 a2 0 b1 b2 0 c1 c2 Yn−1 Xn−1,1 Xn−1,2 + εn εXn,1 εXn,2 , (3-10) para el caso trivariado, y: Yn Xn,1 Xn,2 Xn,3 = ρ a1 a2 a3 0 b1 b2 b3 0 c1 c2 c3 0 d1 d2 d3 Yn−1 Xn−1,1 Xn−1,2 Xn−1,3 + εn εXn,1 εXn,2 εXn,3 , (3-11) para el caso 4-variado. En un principio, los operadores c1 y b2 del modelo trivariado se mantienen en 0, al igual que los operadores b2, b3, c1, c3, d1, d2 del modelo 4-variado, esto con el fin de verificar la causalidad de los procesos Xn,1, Xn,2, Xn,3 sobre Yn sin que haya interrelaciones entre ellos. 3.3. Escenarios de Simulación Las simulaciones se realizaron para los casos bivariado, trivariado y 4-variado, como ya se especificó anteriormente en el texto. Los escenarios de simulación para el caso bivariado se 3.3 Escenarios de Simulación 31 presentan en la tabla 3-1 Escenario βρ βa βb norma de ρ′ 1 1 0 0.5 0.4082 2 1 0.74 0.5 0.4944 3 1 1.48 0.5 0.5773 4 1 2.22 0.5 0.6411 5 1 2.96 0.5 0.7071 6 1 3.7 0.5 0.7601 7 1 4.44 0.5 0.8096 8 1 5.18 0.5 0.8628 9 1 5.92 0.5 0.9067 10 1 6.66 0.5 0.9486 11 1 7.40 0.5 0.9944 Tabla 3-1.: Escenarios de simulación para el caso bivariado Los escenarios de simulación para el caso bivariado se realizaron fijando la constante del kernel de los operadores ρ y u en 1 y 0.5 respectivamente, y variando la constante del kernel del operador de interrelación (a) entre los procesos Yn y Xn, en la tabla 3-1 se puede ver también la norma de la matriz de operadores autorregresiva, la cual nunca sobrepasa el valor de 1, cumpliendo con el supuesto C0 de Damon y Guillas (2005). La idea es estudiar como cambia la potencia de la prueba de causalidad a medida que se modifica la norma de la matriz de operadores autorregresivos. Escenario βρ βa1 βa2 βb1 βb2 βc1 βc2 norma de ρ′ 1 0 0 0 0.5 0 0 0.5 0.4714 2 0 0.34 0.34 0.5 0 0 0.5 0.5374 3 0 0.68 0.68 0.5 0 0 0.5 0.6146 4 0 1.02 1.02 0.5 0 0 0.5 0.6666 5 0 1.36 1.36 0.5 0 0 0.5 0.7302 6 0 1.70 1.70 0.5 0 0 0.5 0.7745 7 0 2.04 2.04 0.5 0 0 0.5 0.8164 8 0 2.38 2.38 0.5 0 0 0.5 0.8692 9 0 2.72 2.72 0.5 0 0 0.5 0.9067 10 0 3.06 3.06 0.5 0 0 0.5 0.9545 11 0 3.40 3.40 0.5 0 0 0.5 0.9888 Tabla 3-2.: Escenarios de simulación para el caso trivariado 32 3 Metodología Escenario βρ βa1 βa2 βa3 βb1 βb2 βb3 βc1 βc2 βc3 βd1 βd2 βd3 norma de ρ′ 1 1 0 0 0 0.5 0 0 0.5 0 0 0.5 0 0 0.5270 2 1 0.21 0.21 0.21 0.5 0 0 0.5 0 0 0.5 0 0 0.5868 3 1 0.42 0.42 0.42 0.5 0 0 0.5 0 0 0.5 0 0 0.6411 4 1 0.63 0.63 0.63 0.5 0 0 0.5 0 0 0.5 0 0 0.6912 5 1 0.84 0.84 0.84 0.5 0 0 0.5 0 0 0.5 0 0 0.7378 6 1 1.05 1.05 1.05 0.5 0 0 0.5 0 0 0.5 0 0 0.7907 7 1 1.26 1.26 1.26 0.5 0 0 0.5 0 0 0.5 0 0 0.8432 8 1 1.47 1.47 1.47 0.5 0 0 0.5 0 0 0.5 0 0 0.8819 9 1 1.68 1.68 1.68 0.5 0 0 0.5 0 0 0.50 0 0.9189 10 1 1.89 1.89 1.89 0.5 0 0 0.5 0 0 0.5 0 0 0.9545 11 1 2.10 2.10 2.10 0.5 0 0 0.5 0 0 0.5 0 0 0.9888 Tabla 3-3.: Escenarios de simulación para el caso tetravariado Para el caso trivariado, se mantienen fijos los operadores ρ, b1, b2, c1, c2 y se variaron los operadores a1 y a2 como se muestra en la tabla 3-2. De igual modo, para el caso tetravariado se presentan los casos de simulación en la tabla 3-3, en donde se mantienen fija la constante de los operadores ρ, b1, b2, b3, c1, c2, c3, d1, d2 y d3. Cabe resaltar que el primer escenario de simulación de cada uno de los casos (bivariado, trivariado y tetravariado) es aquel en el que la hipótesis nula de no causalidad entre las series es premeditadamente verdadera, este escenario es el que nos permite verificar el tamaño de la prueba mediante el error tipo I. Las muestras simuladas de cada uno de los casos presentados anteriormente, se realizaron con las siguientes características: El intervalo τ en el que las observaciones funcionales están dadas es [0, 1], además se tomaron 101 puntos equidistantes sobre este intervalo incluyendo al 0 y al 1 para crear la grilla que se utiliza en la práctica para almacenar los datos de la curva. Cada uno de los escenarios fue simulado 100 veces, lo que significa un total de 200 ob- servaciones funcionales para los procesos del caso bivariado, 300 para el caso trivariado y 400 para el caso tetravariado. Dado lo anterior, el ejercicio está dado en el contexto de la alta dimensionalidad. Todas las observaciones funcionales simuladas por los procesos FAR(1) y FARX(1) antes presentados, almacenadas en grillas de puntos discretizados equidistantes fueron suavizadas mediante el método de penalización a la rugosidad, utilizando 10 funciones base del tipo B-Spline y un valor de lambda de λ = 0 Para la simulación de todos los procesos se diseñaron las funciones LISTA_FARX, las cuales hacen uso de las funciones SIMUL.FARX para generar un objeto lista en el software estadís- 3.4 Aplicación de las pruebas a las observaciones simuladas 33 tico R con todas las características mencionadas, el código específico para cada una de las funciones utilizadas puede encontrarse en el anexo A de este documento. 3.4. Aplicación de las pruebas a las observaciones simuladas Para la realización de los procedimientos presentados en la tabla ?? se utilizaron los siguientes paquetes de R: far: Diversas herramientas para series temporales funcionales (Serge, 2022). fda: Múltiples funciones relacionadas con lo datos funcionales (suavizado, modelado, funciones base, etc) (Ramsay et al., 2022). vars: Herramientas relacionadas con los procesos vectoriales autorregresivos VAR (Pfaff, 2008). freqdom: Paquete especializado en el dominio de frecuencia de las series temporales (S. y L., 2022a). freqdom.fda: Paquete especializado en el dominio de frecuencia de las series temporales funcionales (S. y L., 2022b). pcdpca: Herramientas para la estimación de componentes principales dinámicos en series de tiempo funcionales (Kidzinski et al., 2017). fdcov: Análisis de los operadores de covarianza para observaciones funcionales (Cabassi y Kashlak, 2017). FChange: Prueba de igualdad de operadores de covarianza (Sonmez et al., 2019). La hipótesis que todas las pruebas pretenden evaluar es: H0 = Yn no es causada por ninguna de las Xni . (3-12) HA = Yn es causada por al menos una de las Xni . (3-13) Todos los resultados que arrojan las diferentes pruebas utilizadas son los p-valores al aplicar el procedimiento haciendo referencia a la hipótesis anterior. 34 3 Metodología 3.4.1. Componentes principales dinámicos DFPCA La prueba de componentes principales dinámicos DFPCA está basada en el procedimiento de Saumard y Hadjadji (2021) el cual se encuentra disponible de manera pública en el siguiente enlace: https://github.com/PyMattAI/DynamicFPCA_Causality. Se realizaron las modifi- caciones necesarias para adaptar la prueba a los casos trivariado y 4-variado, las funciones que realizan el test basado en componentes principales dinámicos también se encuentran en el Anexo A de este documento y son DFPCA.BI, DFPCA.TRI y DFPCA.TETRA. A continuación se describe el procedimiento automatizado que siguen estas funciones para entregar el resultado. Al simular los datos mediante el proceso FARX(1), se obtienen grillas de puntos discretizados de dimensión 101× 100 para los procesos Yn y Xn,i, donde cada columna son los 101 puntos de una observación funcional. A partir de allí el primer paso para la prueba es el suavizado de las curvas. Para el cual se utilizó el método de penalización a la rigurosidad expuesto por Ramsay y Silverman (2005) utilizando un λ = 10−2 y 10 bases tipo B-splines. Una vez las curvas de los procesos Yn y Xn,i han sido suavizadas, se procede con la reducción de la dimensionalidad a través de los procedimientos de componentes principales dinámicos DFCPA expuestos en 2.8. Este proceso ha sido automatizado en el paquete freqdom.fda mediante la función fts.dpca.scores. Debido a que se simularon 100 curvas para cada pro- ceso, se obtienen los scores que serán 100 vectores con 1, 2 o 3 componentes (dependiendo de la cantidad de componentes principales utilizados para realizar la reducción) para cada uno de los procesos simulados. Después se procede a realizar la prueba de causalidad de Granger usual utilizando los scores encontrados. La prueba de causalidad de Granger se realiza utilizando el estadístico de Wald descrito de manera exhaustiva en Lütkepohl (2005) sobre un modelo VAR(1) estimado, en el que se incorporan como variables causales los scores de Xn,i y como variable de respuesta los scores de Yn, el procedimiento es automatizado en R mediante la función causality del paquete vars. El código específico para la realización de los pasos antes descritos se puede seguir en el Anexo A.2.5 3.4.2. Comparación de operadores de covarianza F-causalidad La prueba basada en la comparación de los operadores de covarianza, conocida como F- causalidad, se realizó utilizando los procedimientos de Saumard (2017) y de Zhang y Shao (2015). Este procedimiento al igual que el anterior parte de una grilla de datos simulados con idénticas características. A partir de estos datos simulados se realiza la estimación de 2 modelos, un modelo restringido que se ajusta para el proceso Yn incorporando únicamente su propia información en momentos pasados, y un segundo modelo no restringido que además de incorporar la información pasada del proceso Yn, involucra la información pasada de las https://github.com/PyMattAI/DynamicFPCA_Causality 3.4 Aplicación de las pruebas a las observaciones simuladas 35 variables causales Xn,i. Para el primer caso se ajusta un un proceso FAR(1) y para el segun- do un proceso FARX(1). El ajuste de estos procesos se realiza siguiendo el procedimiento expuesto por Damon y Guillas (2005) mediante la función far del paquete en R diseñado por los mismos autores far. Una vez que se estiman ambos procesos, se extraen los residuos con el fin de seguir los proce- dimientos presentados por Zhang y Shao (2015), estos comparan los operadores de covarianza de los residuos del modelo restringido y no restringido mediante el estadístico T presentado por Panaretos et al. (2010), sin embargo, si no se puede asumir o garantizar la independencia de las series analizadas, es preferible utilizar el estadístico modificado desarrollado por Zhang y Shao (2015), puesto que este es robusto ante la dependencia para comparar operadores de covarianza. En las simulaciones realizadas se garantiza la independencia entre las series, motivo por el cual se hace uso del estadístico T . De no ser posible encontrar diferencias estadísticamente significativas entre los operadores de covarianza de ambos modelos, se entiende que la información de las variables causales Xn,i no disminuye la incertidumbre para el pronóstico de Yn, y por lo tanto no es posible rechazar la hipótesis nula de no causalidad. Todo el procedimiento fue automatizado mediante
Compartir