Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Teorema Funcional del Ĺımite Central para Martingalas Tesis Pre-Grado en Matemáticas David Alejandro Henriquez Bernal Mayo 21, 2019 Asesor: Prof. Dr. Michael Högele, Co-Ascesor: Prof. Dr. Sylvie Roelly Departamento de Matemáticas, Universidad de los Andes Resumen Las primeras versiones del Teorema del Lı́mite Central se remontan a las ideas de De Moivre y Laplace, en donde la sucesión de sumas renor- malizadas de variables aleatorias de Bernoulli con varianza acotada y promedio finito convergen en distribución a una variable aleatoria con distribución normal estándar. En el presente trabajo se busca compren- der una versión generalizada del Teorema del Lı́mite Central donde la sucesión de sumas renormalizadas de variables aleatorias se sustituyen por martingalas en tiempo continuo, un tipo de procesos estocásticos, con saltos acotados y variación cuadrática lineal en el tiempo. De es- ta manera al considerar una sucesión de martingalas re-normalizadas el lı́mite es un proceso estocástico, un movimiento Browniano, en vez de vectores aleatorias Gaussianos. Siguiendo el articulo de Ward Whitt [24], para conseguir demostrar el Teorema del Lı́mite Central en este contexto se usará la siguiente estructura. Primero, se introducen las he- rramientas necesarias para demostrar que toda subsucesión convergen- te converge en el espacio de funciones continuas y converge al mismo limite (a través de un corolario del Teorema de Prokhorov (3.6)). Segun- do se caracteriza el lı́mite de la sucesión, o más precisamente de alguna sub-sucesión, es decir se muestra que el limite es un movimiento Brow- niano. Por otro lado para ilustrar el Teorema del Lı́mite Central para Martingalas se expondrán dos ejemplos de sucesiones de martingalas locales que convergen a un movimiento Browniano, especı́ficamente, se estudiará una sucesión de procesos de Poisson compuestos compensa- dos y una sucesión de caminatas aleatorias. i Agradecimientos Quiero agradecer a Michael Högele por el acompañamiento y asesoramien- to brindado durante la elaboración de este trabajo, a Sylvie Roelly por su orientación y el apoyo recibido en Potsdam cuando este proyecto estaba co- menzando. De igual manera quiero agradecer a mi familia y amigos por el soporte que me ofrecieron a lo largo de este proceso. ii Índice general Índice general III 1 Introducción 3 2 Objetos principales y el TFLC 11 2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento Browniano . . . . . . . . . . . . . . . . . . . . . . 11 2.2. Enunciado del TFLC para martingalas con saltos acotados . . 23 2.3. Ejemplos: procesos de Poisson compuestos compensados y ca- minatas aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3 Pre-compacidad de las medidas de la sucesión de martingalas locales 33 3.1. Herramientas de demostración: pre-compacidad en espacios de medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.2. Martingalas estocásticamente acotadas . . . . . . . . . . . . . . 39 3.3. Demostración de la C-pre-compacidad con saltos acotados . . 40 4 Caracterización del lı́mite 53 4.1. Herramientas de demostración: Teorema de Lévy . . . . . . . 53 4.2. Identificación del lı́mite con saltos acotados . . . . . . . . . . . 58 A Apéndice 61 A.1. Cálculo de los primeros momentos de un proceso compuesto de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 A.2. Teoremas del lı́mite central clásico . . . . . . . . . . . . . . . . 62 A.3. Tipos de convergencia de vectores aleatorios . . . . . . . . . . 63 A.4. Anexo de las demostraciones de algunos teoremas . . . . . . 64 Bibliografı́a 77 iii Lista de Notaciones La siguiente lista muestra la notación usada a lo largo del documento N Los números naturales {1,2,3,...} d ∈N Dimensión del espacio de estados R Los números reales t ∈ [0, ∞) Tiempo determinista C([0, ∞), Rd) Espacio de funciones continuas sobre [0, ∞) con valores en Rd càdlàg Espacio de funciones sobre [0, ∞) con valores en Rd tales que, ∀t ∈ [0, ∞) ∀tn ↓ t, lı́mtn→t X(tn) = X(t), (continua por derecha) y ∀t ∈ (0, ∞) ∀tn ↑ t, lı́mtn→t X(tn) = X(t−), (el limite por izquierda exis- te) ∆X(t) Salto en el tiempo t para una función càdlàg X (∆X(t):=X(t)-X(t-)) i.i.d Variables aleatorias independientes e idénticamente distribuidas S,E Espacios polacos, espacios topológicos metrizables completos y sepa- rables D([0, T], Rd) Espacio polaco constituido por funciones càdlàg sobre [0, T] dotado con la topologı́a de Skorokhod (Ω,A, P) Espacio de probabilidad (Ft)t≥0 Filtración en A B(E) Borelianos sobre E, σ-álgebra generada por los abiertos del espacio topológico (E, T ) τ, σ Tiempo de parada con respecto a la filtración (Ft)t≥0 1 Índice general M Martingala con respecto a la filtración (Ft)t≥0 Dd σ-álgebra de Borel de D([0, ∞), Rd), B(D([0, ∞), Rd) con respecto a la topologı́a de Skorokhod (B(t)t≥0) Movimiento Browniano (N(t))t≥0 Proceso de Poisson 2 Caṕıtulo 1 Introducción La ley de los grandes números débil expresa que dada una sucesión de va- riables aleatorias independientes e idénticamente distribuidas con primer momento finito, el promedio aritmético de las primeras n variables alea- torias converge en probabilidad a el promedio cuando n tiende a infinito. Ahora, asumiendo la existencia de segundos momentos, las primeras versio- nes del teorema del limite central surgieron a partir de la ley de los grandes números al considerar renormalizar la suma por una succión (an/n)n≥1 con el fin de que la probabilidad del error no converja en probabilidad a un va- lor distinto a cero. Resultando en que an := √ nσ y que el limite tiene una distribución normal estándar independiente de los sumandos. En la actualidad, hablar de teoremas del lı́mite central hace referencia a una multitud de afirmaciones acerca de la convergencia a una distribución nor- mal (infinito dimensionales) de una sucesión de distribuciones, asociadas a funciones que dependen de un número creciente de vectores aleatorias (mul- tidimensionales) o en algunos casos elementos aleatorios más generales (en espacio de funciones infinito dimensionales). [6] El teorema del lı́mite central desde sus orı́genes ha sido de gran importan- cia en el área de la estadı́stica. Esto se debe a que dada una población y un muestreo aleatorio tomado de la población, la distribución de los promedios de las muestras tiende a una distribución normal a medida que el tamaño de las muestras aumentan [7]. Por ejemplo al realizar un experimento la va- riabilidad de los promedios implica la variabilidad de los los errores que en el limite de muchas mediciones presenta una distribución normal [23]. De igual manera la importancia que los teoremas del lı́mite central han teni- do sobre las matemáticas y más precisamente sobre la teorı́a de la probabili- dad, radica en los métodos matemáticos, principalmente en análisis, que se desarrollaron alrededor de ella y el estatus como linea de investigación en sı́ 3 1. Introducción que le ayudo a brindar a la probabilidad dentro de las matemáticas. De esta manera para alcanzar una mayor comprensión del papel en las matemáticas de los teoremas del limite central, es necesario hacer un recuento histórico de las versiones que han surgido del mismo desde el siglo XVIII hasta me- diados del siglo XX. [6] El primer trabajo alrededor del teorema del lı́mite central se remonta al artı́culo publicado por Abraham de Moivre (1667–1754) en 1733. En este de Moivre desarrolla aproximaciones a distribuciones binomiales con el fin de refinar el trabajo de Jakob Bernoulli alrededor de la ley de los grandes números. Sin embargo, el trabajo de de Moivre nunca expreso la universali- dad que caracteriza a los teoremas del lı́mite central. En gran medida porque el trabajo de de Moivre solo fue un caso particular del teorema del lı́mite central para el caso de variables aleatorias de Bernoullicon probabilidad p = 12 (por ejemplo, el lanzamiento de una moneda justa es modelado por una variable aleatoria de Bernoulli). [6] El segundo trabajo importante en relación a el teorema del lı́mite central se encuentra con Pierre-Simon de Laplace (1749–1827) quien en 1812, después de 40 años de trabajo, publica el articulo Théorie analytique des probabilités en el cual presenta una generalización del trabajo de de Moivre para p 6= 1. En este trabajo los problemas que busca resolver Laplace se dividen en dos categorı́as, por un lado en ”sumas de variables aleatorias” y por otro lado en ”hallar el inverso de probabilidades”. Dentro de la primera categorı́a se encuentra el problema de estimar probabilidades a priori en relación a la ganancia y a la perdida en juegos de azar. Es en este contexto que Laplace desarrolla un método para aproximar las probabilidades de sumas de varia- bles aleatorias independientes usando funciones generadoras. [6] Después, Siméon Denis Poisson (1781–1840) brinda un análisis mas riguroso al teorema del lı́mite central de Laplace a través de dos artı́culos publicados entre 1824 y 1829. Más precisamente el aporte de Poisson al teorema del lı́mite central es una comprensión más profunda de lo que es una variable aleatoria (definición importante en la versión actual del teorema del lı́mite central) y algunos contraejemplos 1 que permitieron delimitar un poco la validez del teorema del lı́mite central. [6] Alrededor del siglo XIX, empieza a crecer dentro de los matemáticos de la época un consenso hacia una mayor abstracción de las matemáticas y hacia su desprendimiento del mundo fı́sico como razón de existir, lo que encamina a los matemáticos a buscar un mayor rigor en las matemáticas. Es 1El contraejemplo mas prominente que considero Poisson fue la función caracterı́stica f (x) = 1 π(1+x2) que no cumple el TLC ya que para esa distribución ningún momento existe. 4 este desprendimiento de las matemáticas del el mundo fı́sico lo que permi- tió que el teorema del lı́mite central encontrara aplicaciones inesperadas y tal vez contra intuitivas en la teorı́a del error. Dentro de este contexto se encuentran los matemáticos Peter Gustav Lejeune Dirichlet (1805–1859) y Augustin Louis Cauchy (1789–1857) quienes entre los años 1830 y 1850 trabajando en aplicaciones del teorema del lı́mite central a la teorı́a del error, buscar obtener demostraciones rigurosas del teorema del limite central. Lo anterior ocasiona que el teorema empiece a adquirir relevancia dentro de las matemáticas a parte de su aplicación en problemas prácticos. 2. De esta manera dentro de las principales aplicaciones de Dirichlet al teore- ma del lı́mite central se encuentran modificaciones del método Laplaciano 3 de aproximar una suma de variables aleatorias independientes a una dis- tribución normal. De igual manera dentro de las contribuciones de Cauchy, usando consideraciones similares a las de Dirichlect, expone una serie de cri- ticas al método de mı́nimos cuadrados de Laplace a través de una disputa con Irénée Jules Bienaymé (1796–1878) quien defendı́a el método de Laplace. [6] En la segundo mitad del siglo XIX y principios del siglo XX encontramos la escuela rusa de St. Petersburgo, de la mano de Pafnutii Lvovich Chebyshev (1821–1894), Andrei Andreevich Markov (1856–1922) y Aleksandr Mikhailo- vich Lyapunov (1857–1918). Las ideas de Chebyshev se encuentran en una serie de artı́culos publicados entre 1845 y 1887, en los cuales expresa cons- tantemente la necesidad de presentar cotas a los errores de las desviaciones entre las probabilidades exactas y las expresiones limites. Con respecto al teorema del lı́mite central, Chebyshev en 1887 presenta una demostración a través del método de los momentos 4. Sin embargo, su demostración sigue presentando los mismos problemas de rigurosidad con respecto a las demos- traciones de Poisson y Laplace (cortar expansiones en series que en ocasio- nes divergen). Es importante resaltar en este punto que es hasta Chebyshev que el teorema del lı́mite central adquiere la forma de teorema lı́mite y se 2Un discusión acerca de la creeciente abstraccion en matematicas se puede ver en Schnei- der, Ivo 1981a. Die Situation der mathematischen Wissenschaften vor und zu Beginn der wissenschaftlichen Laufbahn von Gauss. In Carl Friedrich Gauss (1775–1855). Sammelband von Beiträgen zum 200. Geburtstag von C. F. Gauss, I. Schneider (ed.), pp. 9–36. München: Minerva. 3En términos actuales, el método de Laplace en el fondo consistı́a en hallar la función ca- racterı́stica (la función caracterı́stica de una variable aleatoria X es E[eitX ]) de una suma de variables aleatorias para después encontrar a través de la función inversa la probabilidad de que la suma de variables aleatorias tome un valor particular. 4El método de los momentos busca encontrar cotas superiores e inferiores a integrales de la forma ∫ b a f (x)dx donde f (x) son densidades de probabilidad, dado que a, b ∈ [A, B], a < b y los momentos M0 := ∫ B A f (x)dx, M1 := ∫ B A x f (x)dx,...,Mm := ∫ B A x m f (x)dx existen hasta algún m ∈N. 5 1. Introducción expresan condiciones necesarias para su validez. Por otro lado Markov en un articulo publicado en 1898 presenta una de- mostración mas completa del teorema del lı́mite central siguiendo las mis- ma ideas que Chebyshev. Sin embargo deja la sensación, al igual que con Chebyshev, que la importancia del teorema del lı́mite central radica en su utilidad como un espacio en donde se pueden presentar métodos relaciona- dos a momentos y fracciones continuas. Finalmente el último exponente de la escuela de St. Petersburg que consi- deraremos es Lyapunov quien presento una demostración del teorema del lı́mite central en un articulo publicado en el año 1900. La importancia de su contribución se encuentra en el hecho de que fue la primera persona en presentar una demostración rigurosa del teorema del lı́mite central siguien- do el método de Laplace de funciones caracterı́sticas, y no el método de los momentos de Chebyshev y Markov. Además, es importante señalar su introducción de un lema sobre la convergencia de funciones caracterı́sticas a un distribución normal, ya que en este lema se basa su demostración y sera usado por otros matemáticos como Lindeberg y Lévy. De igual mane- ra Lyapunov fue capaz de brindar una cota a los errores como demandaba Chebyshev. [6] Por otro lado en el año 1905 Albert Einstein (1879-1955) presenta la explica- ción correcta de que es el movimiento Browniano que Brown reporto en sus observaciones. Por otro lado el primer modelo del movimiento Browniano como objeto matemático se le atribuye a Louis Jean-Baptiste Alphonse Ba- chelier (1870-1946), sin embargo su trabajo no hace referencia al movimien- to Browniano ni a Brown. La primera construcción rigurosa del movimiento Browniano se le atribuye a Norbert Wiener (1894-1964) quien introduce la medida de Wiener en el espacio C[, 1] basándose en el trabajo de Einstein [21]. En el año 1920 Jarl Waldemar Lindeberg (1876–1932) publica su trabajo en relación al calculo probabilı́stico, con una versión del teorema del lı́mite cen- tral bajo hipótesis muy débiles (por ejemplo no asume que las variables alea- torias son independientes) y hasta se podrı́a decir necesarias (condición de Lindeberg) 5. De esta manera las ventajas del teorema del lı́mite central de Lindeberg consiste en dos aspectos, por un lado se puede aplicar a contextos muy generales y por otro toma en consideración la tasa de convergencia. Sin embargo, aunque la demostración de Lindeberg brinda una demostración ri- gurosa del teorema del lı́mite central asumiendo condiciones suficientes, no presenta una demostración sobre la necesidad de las hipótesis, aspectos que serán cubiertos mas adelante por Lévy y Feller en 1935 y 1937 respectiva- 5La condición de Lindeberg expresa que en el limite cuando n tiende a infinito la varianza de las variablesaleatorias acotadas es igual a la varianza de las variables aleatorias sin acotar 6 mente. [6] Por un lado Willy Feller (1906–1971) aunque logra presentar condiciones suficientes para la versión del teorema del limite central presentada por Lin- deberg usando el método de Laplace de las funciones caracterı́sticas, aún la versión que presenta no es lo suficientemente general ya que solo considera sumas normadas. Por otro lado Paul Lévy (1886–1971) después de varias publicaciones entre 1925 y 1935, en 1930 adopta un nuevo método 6 desarrollado por el mismo y deja al lado el método de Laplace de las funciones caracterı́sticas. En el articulo de 1935 Lévy realiza tres contribuciones importantes al teorema del lı́mite central. En primer, lugar presenta condiciones suficientes y necesa- rias para la convergencia de sumas normalizadas con segundos momentos de variables aleatorias independientes e idénticamente distribuidas a una distribución normal. En segundo lugar, presenta condiciones necesarias y suficientes para el caso más general de sumandos independientes. En tercer lugar intenta exponer las condiciones necesarias y suficientes para varia- bles dependientes, martingalas. De hecho, en el teorema del lı́mite central la suma de n variables aleatorias centradas en cero y renormalizadas por el producto de la raı́z de n y la varianza es una sucesión de martingalas con respecto a la filtración natural. Por otro lado, las demostraciones que pre- sento en relación al caso de variables dependientes recaı́an en un lema que Lévy no demostró en 1935, pero que fue demostrado en 1936 por Cramér, razón por la cual Lévy presenta otro articulo en 1937 en donde refina estas demostraciones. [6] En la década de 1930, Andréi Nikoláyevich Kolmogórov (1903-1987) presen- ta una axiomatización de la teorı́a de la probabilidad en el articulo ”Grund- lagen der Wahrscheinlichkeitsrechnung”publicado en Alemania en 1933. De igual manera en esta década también surgen desarrollos alrededor de varia- bles aleatorias sobre espacios de funciones (primeras ideas de lo que hoy en dı́a se conoce como procesos estocásticos) y los avances de Lévy en relación a un teorema del lı́mite central para variables aleatorias dependientes. En 1933 Kolmogórov también presenta una construcción del movimiento Browniano dando una justificación mas rigurosa de la construcción de Ba- chelier. De igual manera en 1948 Lévy presenta una construcción del mo- vimiento Browniano usando argumentos de interpolación [13] y en 1951 Monroe David Donsker (1925–1991) presenta su construcción del movimien- to Browniano a través del limite de caminatas aleatorias [21]. 6El método de la concentración y la dispersión de Lévy busca comparar el tamaño de una variable aleatoria con la suma de todas las variables aleatorias. En este método la dispersión de una variable aleatoria hace referencia a la mı́nima longitud de un intervalo asociado a una probabilidad particular y la concentración es la máxima probabilidad asociada a un intervalo determinado. 7 1. Introducción La construcción del movimiento Browniano que presenta Donskers es en realidad una versión funcional del teorema del lı́mite central, siguiendo las ideas de Paul Erdős (1913-1996) y Mark Kac (1914-1984) sobre el principio de invarianza (el comportamiento lı́mite de una sucesión de funciones defi- nidas a partir de sumas de variables aleatorias se puede determinar al consi- derar el lı́mite cuando las sumas tienen distribuciones especiales) en donde una sucesión de distribuciones que depende de una sucesión de variables aleatorias independientes (caminatas aleatorias simétricas) convergen a un movimiento Browniano. [6] Por último, continuando con las ideas de Lévy y Donsker la versión funcio- nal para martingalas que estudiaremos en el presente trabajo, en el fondo esta considerando un teorema del lı́mite central para cada tiempo. Por lo tanto el trabajo consistirá en encontrar cual debe ser las constantes de renor- malizacion (los an := √ n σ en el caso no funcional del teorema y la variación cuadrática para el caso funcional, pero con las condiciones necesarias para que el lı́mite del proceso de variación cuadrática sea lineal en el tiempo) adecuadas para el caso funcional, de manera tal que bajo el lı́mite correcto la sucesión de martingalas converja a un proceso que en cada tiempo pre- sente una distribución normal, por lo cual el candidato mas natural es el movimiento Browniano. Esta versión funcional del teorema del lı́mite cen- tral puede ser atribuida al trabajo de Patrick Paul Billingsley (1925–2011), de la escuela norteamericana, Yuri Vasilyevich Prokhorov (1929-2013), Anatoliy Volodymyrovych Skorokhod (1930-2011), de la escuela soviética, entre otros, quienes en los años 50’s-60’s desarrollaron en gran medida las ideas que se desarrollaran en el presente trabajo [3]. Por un lado Prokhorov en 1956 trabajando en espacios de funciones separa- bles y completos presenta el esquema de demostración que usaremos en este trabajo. Una sucesión de procesos estocásticos convergen en distribución a un proceso estocástico X si, la sucesión de distribuciones es pre-compacta, las sucesiones finito dimensionales convergen y el lı́mite de las distribucio- nes finito dimensionales caracterizan a X [8]. Por otro lado Skorokhod bus- co comprender un poco mejor el teorema en espacios de funciones que no necesariamente son completos y separables, trabajando en el espacio de fun- ciones continuas por derecha y con lı́mite por izquierda encontró distintos tipos de convergencia en estos espacios según el tipo de topologı́a [22]. Por otro lado Billingsley hace uso del resultado de Prokhorov sobre la equivalen- cia entre pre-compacidad en espacios de medidas y la compacidad relativa y además usa la caracterización de Lévy de un movimiento Browniano. De- mostrando que el teorema funcional del lı́mite central para martingalas, se reduce a demostrar que la sucesión de martingalas es pre-compacta y el lı́mi- te se puede caracterizar usando el teorema de Lévy 7 [2]. 7El teorema de Lévy expresa que dado un proceso estocástico d-dimensional X(t), el proceso M(t) := X(t)− X(0) es un movimiento Browniano d-dimensional si M(t) es continuo y la 8 Finalmente Ward Whitt presenta un articulo en el que expone la demostra- ción del Teorema funcional del lı́mite central (FCLT), revisando conceptos como pre-compacidad en espacios de medidas, sucesiones estocásticamente acotadas y la caracterización del limite de Lévy [25]. En el presente trabajo es este el articulo que seguiremos para la demostración del Teorema funcional del lı́mite central con saltos acotados. variación cuadrática entre las componentes j, k ∈ {1, ..., d} es igual a δj,kt. 9 Caṕıtulo 2 Objetos principales y el TFLC 2.1. Objetos principales: martingalas, la variación cuadráti- ca, el movimiento Browniano Los objetos principales que se estudiaran en este trabajo son una clase de procesos estocásticos, las martingalas, sin embargo antes de poder introdu- cirlas es necesario definir que es un proceso estocástico. En primer lugar, dado un espacio de probabilidad (Ω,A, P) y un espacio medible (E,A′) es posible definir un proceso estocástico con espacio de estados E, como una familia de variables aleatorias (Xt)t≥0 donde Xt : Ω → E. No obstante, en ocasiones resulta mas conveniente considerar un proceso estocástico como una sucesión de funciones aleatorias (Xt(ω))ω∈Ω donde Xt(ω) : [0, ∞)→ E. A cada función Xt(ω) se le llama camino o realización del proceso. Nota 2.1 En el presente trabajo los espacios de llegada E de los procesos estocásticos no solo serán espacios de medida, sino que además serán espacios métricos de manera que sea posible definir un valor esperado. Sin embargo con el fin de que exista cierta compatibilidad entre la σ-álgebra y la topologı́a (inducida por la métrica) es necesario que el espacio de llegada sea separable y completo.Definición 2.2 (Espacio vectorial Polaco) Sea (E,B(E)) un espacio vectorial vec- torial topológico separable y completo, luego E se llama espacio Polaco. Definición 2.3 (Proceso estocástico) [10] Sea (Ω,A, P) un espacio de probabi- lidad, E un espacio vectorial Polaco, (E,B(E)) el espacio medible y I ⊂ R. Una familia de variables aleatorias (Xt)t∈I en (Ω,A, P) con valores en (E,B(E)), se llama un proceso estocástico, con espacio de estados E y conjunto de ı́ndices (o conjunto de tiempos) I. La existencia de un proceso estocástico dada una familia de distribuciones finito dimensionales se encuentra determinada por el Teorema de extensión 11 2. Objetos principales y el TFLC de Kolmogorov, sin embargo antes de definir el teorema es necesario intro- ducir que quiere decir que una familia de medidas de probabilidad sobre productos finitos sea consistente. Definición 2.4 [10] Sea (Ωi,Ai)i∈[0,∞) una colección de espacios medibles, Ωi :=×ik=0 Ωk y Ai := ⊗ik=0Ak. Además sea (Pi)i∈[0,∞) una colección de medi- das de probabilidad definidas sobre (Ωi,Ai) para cada i ∈ [0, ∞). Luego si para i, j ≥ k y A ∈ Ak Pi(A×Ωk+1 × · · · ×Ωi) = Pj(A×Ωk+1 × · · · ×Ωj), entonces la colección (Pi)i∈[0,∞) se llama consistente. Ahora con el propósito de extender la definición a un conjunto arbitrario de ı́ndices I ⊂ [0, ∞), es necesario definir la proyección canónica. Definición 2.5 [10] Sea I ⊂ [0, ∞) y (Ωi)i∈I una colección arbitraria de conjuntos tales que Ω :=×i∈I Ωi denota el espacio producto. Luego Xi : Ω→ Ωi, ω → ω(i) se llama la proyección a la i-ésima coordenada. De manera mas general para J ⊂ J′ ⊂ I la función X J ′ J :× j∈J′ Ωj →× j∈J Ωj, ω′ → ω′|J , sea llama proyección canónica. En particular XJ := X IJ . Definición 2.6 Sea I ⊂ [0, ∞), (Ωi,Ai)i∈I una colección de espacios medibles y (PJ , J ⊂ I f inito) una familia de medidas de probabilidad sobre (Ωi,Ai) donde Ωi :=×ik=0 Ωk y Ai := ⊗ik=0Ak. Luego si PL = PJ ◦ (X JL) −1 para todoL ⊂ J ⊂ I finito, la colección (PJ , J ⊂ I f inito) se llama consistente. Teorema 2.7 (Teorema de extensión de Kolmogorov (1933)) [10] Sea I ⊂ [0, ∞) un conjunto arbitrario de ı́ndices y (Ei,B(Ei))i∈I una colección de espacios medibles donde Ei es un espacio vectorial Polaco. Sea (PJ , J ⊂ I f inito) una familia consistente de medidas de probabilidad sobre (EJ ,B(E)J) donde EJ :=×k∈J Ek y B(E)J := ⊗k∈J B(Ek). Entonces existe una única medida de probabilidad P sobre (Ω,A) tales que PJ = P ◦ X−1J para todo J ⊂ I. Nota 2.8 Sea I ⊂ [0∞), luego el proceso estocástico (Xt)t∈I como una colección de variables aleatorias con valores en el espacio de funciones× t∈I Et es muy grande y poco útil. Entonces por lo general se busca considerar solamente un espacio de 12 2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento Browniano funciones con mas propiedades especı́ficas como continuidad. Ahora si E := Rd entonces el espacio de funciones a considerar es el espacio de funciones continuas sobre Rd con valores en [0, ∞), C([0, ∞), Rd), o si esto no es posible, el espacio de funciones continuas a derecha y con lı́mite por izquierda (el cual con la norma J1, que es una norma que se obtiene a partir de una perturbación en el tiempo y el espacio de la norma uniforme, forma un espacio métrico separable y completo conocido como el espacio de Skorokhod ). Definición 2.9 (Funciones càdlàg, D([0, T], Rd)) Sea T > 0 y D([0, T], Rd) un espacio de funciones con valores en Rd definidas sobre el intervalo [0, T] tales que para toda función X en D([0, T], Rd) se cumplen las siguientes condiciones ∀t ∈ [0, T] ∀tn ↓ t, lı́mtn→t X(tn) = X(t), (continua por derecha), ∀t ∈ (0, T] ∀tn ↑ t, lı́mtn→t X(tn) = X(t−), (el lı́mite por izquierda existe), entonces a el espacio de funciones D([0, T], Rd) se le llama espacio de funciones càdlàg con valores en [0, T]. En particular cuando T es arbitrariamente grande obtenemos el espacio de funciones càdlàg sobre [0, ∞), D([0, ∞), Rd). Nota 2.10 La palabra càdlàg proviene de su acrónimo en francés ”continue à droite, lı́mite à gauche” (continua por derecha y lı́mite por izquierda). Ahora describiremos algunas propiedades que cumple el espacio de funcio- nes continuas sobre el intervalo [0, T], C([0, T], Rd) y que continúan siendo validas en el espacio de funciones càdlàg D([0, T], Rd). Teorema 2.11 [1] Sea T > 0 luego, 1. D([0, T], Rd) es un espacio vectorial con suma y multiplicación por escalar punto a punto. 2. Si f , g ∈ D([0, T], Rd) entonces f g ∈ D([0, T], Rd). Mas aun si f (t) 6= 0 para todo t ∈ [0, T] entonces 1/ f ∈ D([0, T], Rd). 3. Sea h ∈ C(Rd, Rd) y f ∈ D([0, T], Rd) entonces h ◦ f ∈ D([0, T], Rd). 4. Toda función càdlàg sobre [0, T] se encuentra acotada en intervalos compactos. 5. Toda función càdlàg sobre [0, T] es uniformemente continua por derecha en interva- los compactos. 6. El lı́mite uniforme de una sucesión de funciones càdlàg en [0, T] es càdlàg. 13 2. Objetos principales y el TFLC 7. Toda función càdlàg sobre [0, T] se puede aproximar uniformemente en intervalos compactos por una sucesión de funciones escalonadas. 8. Toda función càdlàg sobre [0, T] es Borel medible. Demostración1. D([0, T], Rd) es un sub-espacio del espacio vectorial de todas las funciones de [0, T] a Rd, (Rd)[0,T]. Sean f , g ∈ D([0, T], Rd) y (tn)n≥1 una sucesión tales que tn ↓ t entonces lı́m tn→t ( f + g)(tn) = lı́m tn→t f (tn) + lı́m tn→t g(tn) = f (t) + g(t) = ( f + g)(t), y si λ ∈ R entonces lı́m tn→t λ f (tn) = λ lı́m tn→t f (tn) = λ f (t). De igual manera si (t′n)n≥1 es una sucesión tales que t′n ↑ t (t 6= 0) y f , g ∈ D([0, T), Rd) entonces lı́m t′n→t ( f + g)(t′n) = lı́mt′n→t f (t′n) + lı́mt′n→t g(t′n) = f (t−) + g(t−) = ( f + g)(t−), y si λ ∈ R entonces lı́m t′n→t λ f (t′n) = λ lı́mt′n→t f (t′n) = λ f (t−). 2. Sean (tn)n≥1 y (t′n)n≥1 dos sucesiones tales que tn ↓ t y t′n ↑ t′ (t′ 6= 0) respectivamente entonces lı́m tn→t f g(tn) = lı́m tn→t f (tn) lı́m tn→t g(tn) = f (t)g(t), y lı́m t′n→t f g(t′n) = lı́mt′n→t f (tn) lı́m t′n→t g(tn) = f (t′−)g(t′−), Ahora si f (t) 6= 0 para todo t ∈ [0, T) entonces lı́m tn→t (1/ f )(tn) = 1/ lı́m tn→t f (tn) = 1/ f (t), y lı́m t′n→t (1/ f )(t′n) = 1/ lı́mt′n→t f (tn) = 1/ f (t′−). 3. Sean (tn)n≥1 y (t′n)n≥1 dos sucesiones tales que tn ↓ t y t′n ↑ t′ (t′ 6= 0) respectivamente entonces lı́m tn→t h ◦ f (tn) = h( lı́m tn→t f (tn)) = h ◦ f (t), y lı́m t′n→t h ◦ f (t′n) = h( lı́mt′n→t f (tn)) = h ◦ f (t′−). 14 2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento Browniano 4. Sea K ⊂ [0, T] un subconjunto compacto y p ∈ Rd. Luego queremos ver que existe r > 0 tales que f (K) ⊂ Br(p). Sea t ∈ K, como f es continua por derecha, existe δt+ > 0 tales que | f (s) − f (t)| < 1 para todo s ∈ (t, t + δt+). Luego si rt+ = 1 + | f (t) − p| entonces | f (s)− p| ≤ | f (s)− f (t)|+ | f (t)− p| < rt+, es decir f (s) ∈ Brt+(p) para todo s ∈ (t, t + δt+). De manera similar como lı́mite por la izquierda de f existe, existe δt− > 0 tales que | f (s) − f (t)| < 1 para todo s ∈ (t − δt−, t). Luego si rt− = 1 + | f (t−)− p| entonces | f (s)− p| ≤ | f (s)− f (t)|+ | f (t)− p| < rt−, por lo tanto f (s) ∈ Brt−(p) para todo s ∈ (t− δt−, t). Ahora para todo s ∈ Ut = (t− δt−, t + δt+), f (s) ∈ Brt(p) donde rt = máx{rt−, rt+}. Finalmente como {Ut|t ∈ [0, T]} es un recubrimiento abierto de K, entonces existe n ∈ N y t1, ..., tn ∈ K tales que K ⊂ U1 ∪ · · · ∪Un y por lo tanto para todo s ∈ K obtenemos que f (s) ∈ Br(p) en donde r = máx{rt1 , ..., rtn}, es decir f (K) ⊂ Br(p). 5. Sea ε > 0 , K ⊂ [0, T] compacto y f una función càdlàg. Luego queremos en- contrar δ > 0 tales que para todo y y para todo x, si x, y ∈ K y y ∈ (x, x + δ) entonces | f (x)− f (y)| < ε. De esta manera como f es continua por derecha en cada punto x ∈ K, en- tonces existen δx > 0 tales que f ((x, x + δx2 )) ⊂ B ε2 ( f (x)). Si además δ0 ∈ K, como [0, δ0) ∪ ((x, x + δx2 ))x∈K es un recubrimientode K entonces existe un recubrimiento finito [0, δ0) ∪ ((xi, xi + δxi 2 ))i=1,...,n . De esta manera si δ2 := mı́n{ δx1 2 , ..., δxn 2 }, y si y ∈ (x, x + δ 2 ) como x ∈ (xi, xi + δxi 2 ) para algún i entonces |y− xi| ≤ |y− x|+ |x− xi| < δ 2 + δxi 2 < δxi 2 + δxi 2 = δxi , es decir y ∈ (xi, xi + δxi 2 ). Por lo tanto y ∈ (x, x + δ 2 ) implica que | f (xi)− f (y)| < ε2 y por lo tanto | f (x)− f (y)| ≤ | f (x)− f (xi)|+ | f (xi)− f (y)| ≤ ε 2 + ε 2 = ε. 6. Sea fn una sucesión de funciones càdlàg en [0, T]. Luego si f (x) es el lı́mite uniforme de fn : [0, T]→ Rd, entonces f es càdlàg si es continua por derecha y el lı́mite por izquierda existe para todo x. Sea x ∈ [0, T] luego 15 2. Objetos principales y el TFLC Continuidad por derecha. Sea ε > 0, luego por definición del lı́mite existe n′ > n tales que supx∈[0,T] | f (x)− fn′(x)| ≤ ε 3 . Ahora fn′(x) es continua por la derecha en x por lo tanto existe δ > 0 tales que si y ∈ (x, x + δ) entonces | fn′(x)− fn′(y)| ≤ ε3 . Pero entonces si y ∈ (x, x + δ), | f (x)− f (y)| ≤ | f (x)− fn′(x)|+ | fn′(x)− fn′(y)|+ | fn′(y)− f (y)| ≤ ε 3 + ε 3 + ε 3 = ε. Lı́mite por izquierda existe. Sea ε > 0, luego por definición del lı́mite existe n′ > n tales que | f (x−)− fn′(x−)| ≤ ε3 . Ahora el lı́mite por izquierda en x de fn′ existe, por lo tanto existe δ > 0 tales que si y ∈ (x− δ, x) entonces | fn′(x−)− fn′(y)| ≤ ε3 . Pero entonces si y ∈ (x− δ, x), | f (x−)− f (y)| ≤ | f (x−)− fn′(x−)|+ | fn′(x−)− fn′(y)|+ | fn′(y)− f (y)| ≤ ε 3 + ε 3 + ε 3 = ε. 7. Sea δ > 0 y 0 = x0 < ... < xN = T una sucesión de puntos tales que 0 < xn+1 − xn < δ para n = 0, ..., N − 1. Entonces es posible definir una función escalón dada por g(x) = { f (xn), xn ≤ x < xn+1 f (xN−1), x = T. Luego por 5. f es uniformemente continua por derecha, por lo tanto dado ε > 0 existe δ > 0 tales que | f (x)− f (y)| < ε si y ∈ [x, x + δ). Ahora para cada x ∈ [0, T) existe n tales que xn ≤ x ≤ xn+1 . Pero entonces |xn − x| ≤ |xn+1 − xn| < δ, y por lo tanto | f (x)− g(x)| = | f (x)− f (xn)| < ε. Ahora si x = T, |xN−1 − x| ≤ |xN − xN−1| < δ, y por lo tanto | f (x)− g(x)| = | f (x)− f (xN−1)| < ε 16 2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento Browniano 8. Toda función càdlàg sobre [0, T] es Borel medible ya que por 7. toda función càdlàg se puede aproximar por funciones escalón y las funciones escalón son Borel medibles. � Nuestro interés en este trabajo se encuentra en el espacio de Skorkhod so- bre el intervalo [0, ∞). Sin embargo para esto es necesario primero dotar con una topologı́a que permita construir procesos estocásticos al espacio D([0, T], Rd) , para ası́ obtener el espacio de Skorokhod sobre el intervalo [0, T]. Definición 2.12 (Espacio de Skorokhod, D([0, T], Rd)) Sea T > 0 y D([0, T], Rd) el espacio de funciones càdlàg sobre el intervalo [0, T]. Además para cada T > 0 consideremos la métrica sobre D([0, T], Rd) dT(x, y) := ı́nf λ∈Λ {sup s<t {log λ(t)− λ(s) t− s } ∨ supt∈[0,T] |x(t)− y(λ(t))|}, (2.1) donde Λ es el espacio de funciones de [0, T] a [0, T] continuas y estrictamente cre- cientes. Luego al espacio métrico (D([0, T], Rd), dT) se llama el espacio de Skorokhod sobre el intervalo [0, T], que denotaremos simplemente como D([0, T], Rd). Ejemplo 2.13 Sea (tn)n≥1 una sucesión de números reales tales que tn → 1 y sean xn, y ∈ D([0, 2], R) tales que xn = 1[0,tn], y = 1[0,1]. Luego si λn(t) ∈ Λ tales que, λn := { 1 tn t si 0 ≤ t ≤ tn 1 2−tn t + 2 1−tn 2−tn si tn ≤ t ≤ 2. Ahora como |xn − y(λn)| = 0 para todo n ∈N y lı́mn→∞ log(λn(t)−λn(s)t−s ) = 0, dT(xn, y) := ı́nf λ∈Λ {sup s<t {log(λ(t)− λ(s) t− s )} ∨ supt∈[0,T] |xn(t)− y(λn(t))|} = 0. Nota 2.14 El espacio D([0, T], Rd) es un espacio métrico separable y completo es decir es un espacio Polaco. Definición 2.15 (Espacio de Skorokhod, D([0, ∞), Rd)) Sea D([0, ∞), Rd) el espacio de funciones càdlàg sobre el intervalo [0, ∞). Ahora para cada entero m > 0 consideremos la función gm(t) = 1 si t ≤ m− 1, m− t si m− 1 < t < m, 0 si t ≥ m. 17 2. Objetos principales y el TFLC Luego para x, y ∈ D([0, ∞), Rd) es posible definir la siguiente métrica d∞(x, y) := 1 2m ∞ ∑ m=1 (1∧ dm(gmx, gmy)), (2.2) de manera que (D([0, ∞), Rd), d∞) es un espacio métrico denominado el espa- cio de Skorokhod sobre el intervalo [0, ∞), que denotaremos simplemente como D([0, ∞), Rd). Si observamos la ecuación (2.2) que define a d∞, el papel de las funciones gm es simplemente restringir las funciones x, y ∈ D([0, ∞), Rd) a D([0, T], Rd) de manera continua. Nota 2.16 (H,A) es un espacio de Borel si existe un conjunto de Borel B ∈ B(R) isomorfo a H como espacios medibles. Por lo tanto (D([0, ∞), Rd),Ad∞) es isomorfo a (B,B(B)) donde Ad∞ es la σ-álgebra generada por la topologı́a inducida por la métrica d∞ [10]. La importancia de que el espacio de Skorokhod sea un espacio Polaco radica en que los espacios Polacos son espacios de Borel y ser un espacio de Borel es una condición necesaria para que la medida sobre el espacio de caminos exista, es decir es una condición necesaria para que el proceso estocástico exista. Definición 2.17 (Filtración de σ-álgebra) Sea (Ω,A, P) un espacio de proba- bilidad y (Ft)t∈[0,∞) una sucesión de sub-σ-álgebras de A tales que para t < s Fs ⊂ Ft, luego (Ft)t∈[0,∞) se llama filtración en A. Ejemplo 2.18 Dado S un espacio vectorial Polaco y un proceso estocástico (Xt)t∈[0,∞), sobre un espacio de probabilidad (Ω,A, P), con valores sobre el espacio medible (S,B(S)). La sucesión de σ-álgebras (Ft)t∈[0,∞) en dondeFt := σ( ⋃ s≤t X−1s (B(S))) es una filtración y se le llama la filtración natural asociada al proceso (Xt)t∈[0,∞). Ahora presentaremos algunos propiedades de regularidad que asumiremos que cumplen las filtraciones. Definición 2.19 (Continuidad por derecha) Sea (Ω,A, P) un espacio de proba- bilidad y (Ft)t∈[0,∞) una filtración en A, luego se dice que es continua por derecha si Ft = ⋂ u;u>t Fu ∀t ∈ [0, ∞) Definición 2.20 (Completo) Sea (Ω,A, P) un espacio de probabilidad y (Ft)t∈[0,∞) una filtración en A, luego la filtración (Ft)t∈[0,∞) es completa, si F0 contiene a to- dos los conjuntos P-nulos de A. Nota 2.21 Una filtración continua por derecha y completa se llama filtración canónica. Definición 2.22 (Martingala d dimensional) Sea (Ω,A, P) un espacio de pro- babilidad, (Ft)t∈[0,∞) una filtración y (Mt)t∈[0,∞) un proceso estocástico con valores en (Rd,B(Rd)). Luego si 18 2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento Browniano 1. E[|Mt|] := ∫ |Mt(ω)|dP(dω) < ∞ para cada t ∈ [0, ∞) , 2. Mt es Ft-medible para cada t ∈ [0, ∞) , 3. E[Mt|Fs] = Ms P-c.s para t > s,, entonces a (Mt)t∈[0,∞) es una (Ft)t≥0-martingala (la esperanza condicional se defi- ne como en el A. Klenke, Probability Theory [10]). Nota 2.23 Los procesos que cumplen la condición 3 de la definición 2.22 se llaman procesos adaptados. Definición 2.24 (Proceso adaptado) Sea (Ω,A, P) un espacio de probabilidad, S un espacio vectorial Polaco, (S,B(S)) el espacio medible, F := (Ft)t∈[0,∞) una filtración en B(S) y (Xt)t∈[0,∞) un proceso estocástico con valores en E, tales que Xt es Ft-medible para cada t en [0, ∞), luego Xt se llama F -adaptado. Nota 2.25 Todo proceso es adaptado con respecto a su filtración natural. En el presente trabajo estaremos interesados en una clase particular de va- riables aleatorias con valores positivos llamadas tiempos aleatorios, en parti- cular estudiaremos el tiempo de primera llegada de un proceso estocástico aun conjunto abierto. En particular si τ es un tiempo de primera llegada aso- ciado a un proceso estocástico (Xt)t≥0, y (Ft)t≥0 es una filtración asociada a este proceso (por ejemplo la filtración natural) entonces los eventos {τ ≤ t} son Ft-medibles. Definición 2.26 (Tiempo de parada) Sea τ una variable aleatoria definida sobre el espacio de probabilidad (Ω,A, P), con valores en [0, ∞) ∪ {∞} y con filtraciónasociada (Ft)t∈[0,∞). Luego si para cualquier t ∈ [0, ∞) {τ ≤ t} ∈ Ft, τ se llama un tiempo de parada. Definición 2.27 (Tiempo de primera llegada a un abierto) Sea (Ω,F , P) un espacio de probabilidad y (Xt)t≥0 un proceso estocástico asociado a este espacio de probabilidad con valores en Rd y con filtración natural (Ft)t≥0. Además sea A ⊂ Rd un abierto, luego τA := ı́nf{t > 0 : X(t) ∈ A}, se llama tiempo de primera llegada a un abierto A. 19 2. Objetos principales y el TFLC Lema 2.28 [16], [19] Sea (X(t))t≥0 un proceso estocástico con caminos continuos por derecha, (Ft)t≥0 la filtración canónica asociada a (X(t))t≥0 y A ⊂ Rd un conjunto abierto. Luego el tiempo de primera llegada τA satisface, {τA < t} ∈ Ft. En particular si (Ft+)t≥0 := ⋂ u>t Fu entonces, {τA ≤ t} ∈ Ft+, es decir τA es un tiempo de parada con respecto a (Ft+)t≥0. Demostración En primer lugar para t > 0, {τA < t} = ⋃ Q+3r≤t {X(r) ∈ A} ∈ Ft. ” ⊂ ”, si τA(ω) < t, entonces existe s < t tales que X(s, ω) ∈ A. Ahora como los caminos son continuos por derecha, existe r ∈ Q tales que s < r < t y X(r, ω) ∈ A. Por lo tanto ω ∈ ⋃Q+3r≤t{X(r) ∈ A}. ” ⊃ ”, sea ω ∈ {X(r) ∈ A} para algún r ∈ (0, t] ∩Q. Como A es abierto y t→ X(t, ω) es continua por derecha, tenemos que τA(ω) < r ≤ t. En segundo lugar, {τA ≤ t} = ⋂ n≥1 {τA < t + 1 n } ∈ ⋂ Ft+ 1n = Ft+. � Los tiempos de parada resultan ser herramientas muy útiles para localizar un proceso, ya que como se vera a continuación para el caso de las martin- galas, estos permiten que cada camino del proceso estocástico se mantenga constante para tiempos posteriores a un tiempo de parada τ. Definición 2.29 (Martingala local d-dimensional) Sea (Ω,A, P) un espacio de probabilidad, (Ft)t∈[0,∞) una filtración y (Mt)t∈[0,∞) un proceso estocástico con valores en (Rd,B(Rd)), tales que Mt es F -adaptado. Luego si existe una sucesión de tiempos de parada (τn)n∈[0,∞) tales que lı́mn→∞ τn = ∞ casi siempre de manera que el proceso (Mτn∧t)t≥0 es una F -martingala uniformemente integrable, entonces (Mt)t≥0 se llama una F -martingala local. Toda martingala es una martingala local, solo basta considerar la sucesión de tiempos de parada (τn)n≥1 donde τn := ∞. Por otro lado no toda martingala local es una martingala, un ejemplo se encuentra en la teorı́a del juego, mas precisamente en el juego de lanzar una moneda. La idea es pensar que se inicia el juego con un peso y se lanza la moneda, si el resultado es cara entonces el jugador gana y se queda con el peso, de lo contrario el jugador deberá duplicar la apuesta y la estrategia consiste en continuar duplicando la apuesta hasta que el jugador gane y pueda dejar de jugar con la ganancia neta de un dolar. De esta manera en el siguiente ejemplo se formaliza esta estrategia de juego. 20 2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento Browniano Ejemplo 2.30 En primer lugar definamos la sucesión de variables aleatorias (Zn)n≥1 en donde Zn representa la ganancia neta justo antes del lanzamiento n-ésimo. Aho- ra si ε1, ..., εn, ... son variables aleatorias que representan el resultado del n-ésimo lanzamiento de la moneda, es decir P(εn = ±1) = 12 en donde 1 representa cara y -1 representa sello, entonces Z1 = 0 y, Zn = { 1, si Zn−1 = 1, Zn−1 + εn(1− Zn−1), de lo contrario. En segundo lugar para obtener una martingala local podemos acelerar la escala temporal y definir el siguiente proceso estocástico, Xt = { Zn, si 1− 1/n ≤ t ≤ 1− 1/(n + 1), 1, si t ≥ 1. Luego si (Ft)t≥0 es la filtración natural de (Xt)t≥0 y τn = ı́nf{t| |Xt| ≥ n} entonces (Xt∧τn)t≥0 es una martingala local en el intervalo [0, 1). Ahora si τn := ı́nf{t : |Xt| ≥ n} entonces por el Teorema de Doob Xt∧τn es una martingala acotada uniformemente para t < 1, continua en t = 1 y constante para t ≥ 1 por lo tanto es una martingala local. Sin embargo E[X1] = 1 6= E[X0] = 0 y por lo tanto (Xt)t≥0 es una martingala local pero no una martingala. Para poder proseguir con este trabajo es importante considerar cuatro tipos de convergencia en probabilidad, convergencia casi segura o casi siempre, convergencia en probabilidad, convergencia en Lp y convergencia en distri- bución. Por lo tanto, para el lector que no se sienta cómodo con estos temas se recomienda ver el apéndice. Ahora antes de introducir la variación cuadrática opcional es necesario defi- nir la σ-álgebra generada por los procesos estocásticos càdlàg y adaptados, la cual es una σ-álgebra sobre Ω pero también sobre el tiempo. La razón de definir una σ-álgebra, A, sobre Ω×R+ se debe a que en ocasiones se quie- re ver un proceso estocástico como una función medible de (Ω×R+,A) a (Rd,B(Rd) y para eso es necesario imponer condiciones de mensurabilidad sobre el producto. Definición 2.31 (σ-álgebra opcional) Sea (Ω,A, P) un espacio de probabilidad y (Ft)t≥0 una filtración en A. Luego la σ-álgebra O sobre Ω×R+ que es generada por todos los procesos càdlàg y adaptados (considerados como funciones sobre Ω× R+) se llama σ-álgebra opcional. [8] Definición 2.32 (Procesos opcional) Sea (Ω,A, P) un espacio de probabilidad y F : (Ft)t≥0 una filtración en A. Luego si (Xt)t≥0 es un proceso estocástico sobre (Ω,A, P) y además O-medible (donde O es la σ-álgebra opcional con respecto a (Ω,A,F , P)) entonces el proceso estocástico (Xt)t≥0 se llama opcional. 21 2. Objetos principales y el TFLC Ahora es necesario introducir un tipo de proceso estocástico que se obtiene a partir de otro proceso estocástico, la variación cuadrática opcional. La cual se define a partir del siguiente teorema. Definición 2.33 (variación cuadrática opcional) Sea (Ω,A, P) un espacio de probabilidad y (M(t))t∈[0,∞), una F -martingala local, nula en cero y con valores en el espacio Polaco (R,B(R)), luego [M](t) := lı́m n→∞ bt2nc+1 ∑ i=1 (M(tn,i)−M(tn,i−1))2, donde tn,i := t ∧ i2n y el modo de convergencia del lı́mite es en probabilidad. Nota 2.34 A partir de la definición 2.33 es posible definir la co-varianza entre dos F -martingalas locales, nulas en cero y con valores en el espacio Polaco (R,B(R)), M1, M2 como [M1, M2](t) := lı́mn→∞ bt2nc+1 ∑ i=1 (M1(tn,i)−M1(tn,i−1))(M2(tn,i)−M2(tn,i−1)), Por otro lado la variación cuadrática opcional también se puede definir a través del siguiente resultado de Meyer. Teorema 2.35 (Descomposición de Meyer para martingalas locales en R) Sea (Ω,A, P) un espacio de probabilidad, F := (Fn)n≥1 una filtración en A y (R,B(R)) el espacio medible. Además sea (Mt)t∈[0,∞) una F -martingala local nu- la en cero con valores en R, luego 1. Si (τn)n≥1 es la sucesión tiempos de parada que localiza al proceso, es decir es una sucesión de tiempos de parada tales que (Mτn∧t)t∈[0,∞) es una martingala local para cada n, y 2. si además existe un proceso creciente, adaptado y con variación finita sobre intervalo acotados, entonces (M2(t)− [M](t))t∈[0,∞) es una martingala local. [20]. Finalmente el ultimo elemento que debemos introducir antes de enunciar el teorema funcional del lı́mite central es un movimiento Browniano, ya que el lı́mite de la sucesión de martingalas sera un movimiento Browniano. Definición 2.36 (Movimiento Browniano estándar) [21] Sea (Ω,A, P) un es- pacio de probabilidad y B = (B(t))t≥0 un proceso estocástico con valores en Rd tales que 1. B(0, ω) = 0, para casi todo ω 22 2.2. Enunciado del TFLC para martingalas con saltos acotados 2. B(tn)− B(tn−1), ..., B(t1)− B(t0) son independientes para todo n ≥ 0 y 0 = t0 ≤ t1 ≤ · · · ≤ tn < ∞ (incrementos independientes). 3. B(t)− B(s) ∼ B(t + h)− B(s + h) para todo 0 ≤ s < t, h ≥ −s. 4. B(t) − B(s) ∼ N(0, Id(t − s)), donde N(0, Id(t − s)) es una distribución nor- mal d-dimensional centrada en cero con matriz (de tamaño d × d) de co-varianza Id(t− s). 5. t→ B(t, ω) es continua para todo ω. Entonces B = (B(t))t≥0 se llama movimiento Browniano estándar. Por otro lado si se cumplen las condiciones 1., 2., 3., 5. y B(t)− B(s) ∼ N(0, C(t− s)), donde N(0, C(t− s))es una distribución normal d-dimensional centrada en cero con ma- triz de co-varianza C, entonces B = (B(t))t≥0 se llama movimiento Browniano centrada en cero con matriz de co-varianza C. 2.2. Enunciado del TFLC para martingalas con saltos acotados En esta sección se expondrá el Teorema Funcional del lı́mite Central para martingalas bajo la hipótesis extra de que para cada camino los saltos se encuentran acotados. Para poder cuantificar la idea de que los saltos se en- cuentren acotados definiremos la función J(X, T) que mide la magnitud del máximo salto hasta el tiempo T dado por una función X ∈ D([0, ∞), Rd), J(X, T) := sup 0≤t≤T |X(t)− X(t−)|, (2.3) donde X(t−) := lims↑tX(s) denota el lı́mite por izquierda de X en el punto t y | · | la norma euclidiana en Rd. Por otro lado consideramos el espacio de probabilidad (Ω,A, P) y Fn := ((Fn,t)t≥0)n≥1 una sucesión de filtraciones asociadas a este espacio. Luego (Mn(t))t≥0 := (Mn,1(t), ..., Mn,k(t))t≥0 es una sucesión de Fn-martingalas locales (donde cada Fn corresponde a la filtración asociada a Mn) sobre el espacio de caminos D([0, ∞), Rd). Además consideraremos que para t igual a cero Mn es el vector nulo en Rd, es decir Mn(0) = (0, ..., 0). Por ultimo C := (ci,j) denota una matriz de co-varianza (una matriz simétrica, definida positivamente y con entradas reales). 23 2. Objetos principales y el TFLC Ahora consideraremos las siguientes hipótesis: Hipótesis : Las martingalas locales tienen saltos acotados uniformemente y la cota es asintóticamente despreciable. Es decir, existe (bn)n≥1 una sucesión de números reales y n0 tales que para todo T > 0, máx i∈{1,...,d} J(Mn,i, T) ≤ bn ∀n ≥ n0, P− c.s, (2.4) y bn → 0 cuando n→ ∞, para cada par (i, j) con 1 ≤ i, j ≤ d y t > 0, [Mn,i, Mn,j](t) d−→ ci,jt (2.5) en R cuando n→ ∞. Nota 2.37 En la segunda hipótesis del TFLC para martingalas la convergencia en distribución implica la convergencia en probabilidad ya que el lı́mite al que converge la co-varianza es constante. Teorema 2.38 (TFLC para martingalas con saltos acotados) Sea (Ω,A, P) un espacio de probabilidad y (Fn)n≥1 en donde Fn := (Fn,t)t≥0 una sucesión de fil- traciones de A. Sea (Mn)n≥1 una sucesión de Fn-martingalas locales en donde (Mn(t))t≥0 := (Mn,1(t), ..., Mn,d(t))t≥0. Si la sucesión de Fn-martingalas locales cumplen hipótesis (2.4) y (2.5), entonces existe un movimiento Browniano d-dimensional (Mt)t≥0 centrado en cero y con ma- triz de co-varianza Ct, donde C es una matriz simétrica, no negativa con entradas reales, tales que Mn d−→ M en Dd([0, ∞), Rd) cuando n→ ∞. 2.3. Ejemplos: procesos de Poisson compuestos com- pensados y caminatas aleatorias A lo largo de este trabajo se estudiaran tres ejemplos de sucesiones de pro- cesos estocásticos y se observara bajo cuales hipótesis se cumple el Teorema Funcional del lı́mite Central para martingalas. De esta manera los ejemplos a estudiar son una sucesión de procesos re-escalados compuestos compensa- dos de Poisson y una sucesión de caminatas aleatorias con re-escalamiento gaussiano. Procesos de Poisson Definición 2.39 (Procesos de Poisson) [15],[4] Sea (Ω,A, P) un espacio de pro- babilidad y (τn)n≥1 una sucesión de variables aleatorias i.i.d definidas sobre (Ω,A, P) 24 2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas aleatorias tales que τ1 ∼ Exp(λ). Luego σn := τ1 + · · ·+ τn es el n-ésimo tiempo de llegada y si N(t) := máx{n ∈ [0, ∞); σn ≤ t} entonces N(t) tiene distribución de Poisson con parámetro λt. Ahora si la sucesión de tiempos aleatorios (τn)n≥1 es creciente, es decir τn < τn+1 para todo n > 1 entonces Los incrementos son independientes, es decir para todo n ≥ 1 los in- crementos N(t1)− N(t0), ..., N(tn)− N(tn−1) son independientes y los incrementos son estacionarios, es decir N(t + h) − N(s + h) ∼ N(t)− N(s) ∼ Poiss(λ(t− s)) para todo h ≥ 0 y 0 ≤ s ≤ t, y (N(t))t≥0 se llama proceso de Poisson. En particular se puede escribir como N(t)(ω) = ∞ ∑ k=1 1[σk(ω),∞)(t), (2.6) en donde el lı́mite de la suma es c.s. Definición 2.40 (Proceso de Poisson compensado) Sea (Ω,A, P) un espacio de probabilidad y (N(t))t>0 un proceso de Poisson sobre (Ω,A, P) con parámetro λ > 0. Luego un proceso de Poisson compensado se obtiene al centrar el proceso y como E[N(t)] = λt, entonces (N(t) − λt)t>0, se llama un proceso de Poisson compensado. Lema 2.41 Sea (Ω,A, P) un espacio de probabilidad, (N(t))t>0 un proceso de Poisson sobre el espacio (Ω,A, P) y F = (Ft)t≥0 la filtración natural asociada a (Nt − λt)t>0, donde Ft := (σ( ⋃ s≤t N−1s (B))) y B ∈ (Rd) es un boreliano en Rd. Entonces el proceso compensado de Poisson (Nt − λt)t>0 es una F -martingala. Demostración : En primer lugar para cada t el proceso N(t)− λt es integra- ble, E[|N(t)− λt|] ≤ E[|N(t)|] + E[|λt|] ≤ E[|N(t)|] + |λt| < ∞. En segundo lugar para 0 < s < t, E[N(t)− λt|Fs] = E[N(t)− N(s) + N(s)− λt|Fs] = E[N(t)− N(s)|Fs] + E[N(s)|Fs]− λt = E[N(t)− N(s)] + N(s)− λt, porque N(t)− N(s) ⊥ N(s) y N(s) es Fs −medible, = λt− λs + N(s)− λt = N(s)− λs, P− c.s. � 25 2. Objetos principales y el TFLC En ocasiones resulta de mas utilidad considerar procesos de Poisson para los cuales los saltos no son siempre de una unidad. Por tal motivo resulta útil construir un proceso de Poisson con salto variable a partir de un proceso de Poisson N(t). De esta manera la idea es considerar una sucesión de variables aleatorias (Zk)k≥1 con valores en Rd tales que su suma desde 1 hasta un tiempo N(t) es el nuevo proceso de Poisson con saltos variables, donde los saltos de este nuevo proceso se encuentran determinados por esta sucesión de variables aleatorias,(Zk)k≥1 . Definición 2.42 (Proceso de Poisson compuesto ) Sea (Ω,A, P) un espacio de probabilidad y (Zk)k≥1 una sucesión de variables aleatorias i.i.d sobre (Ω,A, P) con valores en Rd y con distribución µ independiente del proceso de Poisson (N(t))t>0. Luego el proceso estocástico (Y(t))t≥0 := (∑ N(t) k=1 Zk)t≥0 se llama proceso compuesto de Poisson. Definición 2.43 (Proceso de Poisson compuesto compensado ) Sea (Ω,A, P) un espacio de probabilidad y (Y(t))t≥0 := (∑N(t)k=1 Zk)t≥0 un pro- ceso de Poisson compensado (definición 2.42) definido sobre (Ω,A, P), tales que E[Z1] < ∞. Luego el procesos estocástico (M(t))t≥0 := (Y(t)− E[Y(t)])t≥0 se llama un proceso de Poisson compuesto compensado. Lema 2.44 Sea (Ω,A, P) un espacio de probabilidad y (Y(t))t≥0 := (∑N(t)k=1 zk)t≥0 un proceso de Poisson compensado (definición 2.42) definido sobre (Ω,A, P). Luego si (M(t))t≥0 es un proceso compuesto compensado de Poisson, donde (M(t)) := Y(t)−E[Y(t)] y (Ft)t≥0 es la filtración natural asociada a (M(t))t>0. Entonces (M(t))t>0 es una Ft-martingala. Demostración : En primer lugar E[Y(t)] = λtE[Z1] (ver apéndice). En segundo lugar M(t) es integrable para toda t, E[|Y(t)− λtE[Z1]|] ≤ E[|Y(t)|] + E[|λtE[Z1]|] ≤ E[ N(t) ∑ k=1 |Zk|] + |λt|E[|Z1|] = E[N(t)]E[|Z1|] + |λt|E[|Z1|] = E[|Z1|](λt + |λt|) < ∞. 26 2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas aleatorias En tercer lugar E[Y(t)− λtE[Z1]|Fs] = E[Y(t)−Y(s) + Y(s)− λtE[Z1]|Fs] = E[Y(t)−Y(s)|Fs] + E[Y(s)|Fs]− λtE[Z1] = E[Y(t)−Y(s)] + Y(s)− λtE[Z1|Fs], porque Y(t)−Y(s) ⊥ Y(s) y Y(s) es Fs −medible, = λtE[Z1]− λsE[Z1] + Y(s)− λtE[Z1] = Y(s)− λsE[Z1]. � Proposición 2.45 Sea (Ω,A, P) un espacio de probabilidad, (Zk)k≥1 una sucesión de variables aleatorias i.i.d con distribución µ, e independientes de N(t), donde Zk := (Zk,1, ..., Zk,d). Además supongamos que existe R < ∞ tales que µ(BR(0)) = 1 donde BR(0) es la bola de radio R centrada en 0. Luego si (M(t))t≥0 es un proceso de Poisson compuesto compensado definido sobre (Ω,A, P) es decir A(t) := Y(t)−E[Y(t)] := N(t) ∑ k=1 Zk −E[Y(t)]. Entonces el proceso de Poisson re-escalado, Mn(t) := A(nt)√ n , (2.7) converge en distribución a un movimiento Browniano. Demostración En primer lugar los saltos se encuentran uniformemente aco- tados, ya que para T > 0 J(Mn(t), T) =1√ n sup 0≤t≤T |Y(t)−����λtE[Z1] − (Y(t−)−���� �� λt−E[Z1])| = 1√ n máx 1≤k≤N(nT) |Zk| ≤ R√ n n→∞−−−→ 0, con probabilidad 1. En segundo lugar debemos hallar la variación cuadrática de Mn. De esta ma- nera si t > 0, para cada n′ ∈ [0, ∞) existe una partición Πn′ := (tj)j∈{1,...,n′} (donde los tj depende de n′) del intervalo [0, t] tales que |Πn′ | := máxtj |tj − tj−1| entonces para i ≤ k, si Mn,i denota la i-ésima com- 27 2. Objetos principales y el TFLC ponente de Mn entonces [Mn,i, Mn,i](t′) = [ Ant,i√ n , Ant,i√ n ] = lı́m |Πn′ |→0 n′ ∑ j=1 ( Antj,i√ n − Antj−1,i√ n )2 = lı́m |Πn′ |→0 n′ ∑ j=1 1 n ( N(ntj) ∑ j=1 Zj,i −E[Yi(ntj)]− N(ntj−1) ∑ j=1 Zj,i + E[Yi(ntj−1)])2 = 1 n Nnt ∑ j=1 Z2j,i. Luego como 1 n N(nt) = 1 n n ∑ k=1 (N(kt)− N((k− 1)t)), y además como para cada n y cada t, los incrementos N(kt)− N((k− 1)t) son independientes y N(kt)− N((k − 1)t) ∼ Poiss(λt) entonces usando la ley fuerte de los grandes números, 1 n N(nt) n→∞−−−→ E[N(kt)− N((k− 1)t)] = λt P− c.s. De esta manera existe K ⊂ Ω tales que P(Ω\K) = 1 y para todo ω ∈ K dado ε > 0 existe n′(εω) > 0 tales que |N(nt)n − λt| < ε para n ≥ n′(εω), luego N(nt) ∑ j=1 Z2j n = N(nt) n n ∑ j=1 Z2j n ≤ n(λt+ε) ∑ j=1 Z2j n para n ≥ n′(ω) = (λt + ε) n(λt+ε) ∑ j=1 Z2j n(λt + ε) . Por lo tanto lı́m n→∞ N(nt) ∑ j=1 Z2j n ≤ lı́m n→∞ (λt + ε) n(λt+ε) ∑ j=1 Z2j n(λt + ε) . Ahora usando el teorema fuerte de los grandes números obtenemos que lı́m n→∞ (λt + ε) n(λt+ε) ∑ j=1 Z2j n(λt + ε) = (λt + ε)E[Z21 ] P− c.s, 28 2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas aleatorias por lo tanto lı́m n→∞ N(nt) ∑ j=1 Z2j ≤ (λt + ε)E[Z2j ] = (λt + ε)E[Z21 ], para n ≥ n′(εω) P− c.s. De igual manera N(nt) ∑ j=1 Z2j n ≥ (λt− ε) n(λt+ε) ∑ j=1 Z2j n(λt− ε) , y por lo tanto lı́m n→∞ N(nt) ∑ j=1 Z2j n ≥ (λt− ε)E[Z2j ] = (λt− ε)E[Z21 ], P− c.s. Pero entonces (λt− ε)E[Z21 ] ≤ lı́mn→∞ ∑ N(nt) j=1 Z 2 j ≤ (λt + ε)E[Z21 ] y como el ε es arbitrariamente pequeño lı́m n→∞ N(nt) ∑ j=1 Z2j n = λtE[Z21 ], P− c.s. Finalmente como convergencia casi segura implica convergencia en distribu- ción, [Mn, Mn](t) d−−−→ n→∞ λE[Z21 ]t. De igual manera para i 6= l y i, l ≤ k [Mn,i, Mn,l ](t) = [ Ant,i√ n , Ant,l√ n ] = lı́m |Πn′ |→0 n′ ∑ j,l=1 ( Antn′j ,i√ n − Antn′j−1,i√ n )( Antn′j ,l√ n − Antn′j−1,l√ n ) = 1 n Nnt ∑ j,l=1 Zj,iZj,l . De manera equivalente a el caso en el que i = l, como N(nt)n n→∞−−−→ λt P-c.s (usando el teorema fuerte de los grandes números) obtenemos que 1 n N(nt) ∑ j=1 Zj,iZj,l n→∞−−−→ λtE[Zj,iZj,l ] P− c.s, 29 2. Objetos principales y el TFLC entonces como convergencia casi segura implica convergencia en distribu- ción, [Mn,i, Mn,l ](t) d−−−→ n→∞ λE[Z1,iZ1,l ]t = λt ∫ Z1,iZ1,lµ⊗ µ, Finalmente como el proceso de Poisson re-escalado se encuentra acotado uniformemente y como la variación cuadrática opcional, [Mn,i, Mn,l ] conver- ge en distribución al valor constante λE[z1,i, z1,l ], aplicando el TFLC para martingalas Mn converge en distribución a un movimiento con media cero y covarianza ci,j = { λE[Z21 ] si i = l λE[Z1,iZ1,l ] si i 6= l. � Caminatas aleatorias Definición 2.46 (Caminata aleatoria en Z) Sea (Xn)n≥1 una familia de varia- bles aleatorias i.i.d, sobre un espacio de probabilidad (Ω,A, P), tales que P(Xn = 1) = p y P(Xn = −1) = 1− p, (2.8) donde p ∈ [0, 1]. Luego si Sn := ∑nk=1 Xk entonces (Sn)n≥1 se llama caminata aleatoria sobre Z. Nota 2.47 Ahora si p = 12 entonces la caminata aleatoria es simétrica y una mar- tingala discreta. Definición 2.48 (Interpolación lineal de una caminata aleatoria) [21] Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un espacio de probabili- dad (Ω,A, P) y Sn = ∑nk=1 Xk una caminata aleatoria simétrica sobre Z. Luego Sn(t) := 1√ n (Sbntc − (nt− bntc)Xbntc+1), t ∈ [0, 1], se llama interpolación lineal con escalamiento Gaussiano de la caminata aleatoria Sn. Lema 2.49 Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un espacio de probabilidad (Ω,A, P) y Sn = ∑tk=1 Xn una caminata aleatoria simétrica sobre Z. Luego Sn(t) := 1√n (Sbntc − (nt − bntc)Xbntc+1) es una martingala para cada n con respecto a la filtración natural (Ft)t>0 := σ(∪s<t(Sn)−1(B)) tales que B ∈ B(Rd). 30 2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas aleatorias Demostración En primer lugar es integrable ya que E[|Sn(t)|] = E[| 1√ n (Sbntc − (nt− bntc)Xbntc+1)|], ≤ 1√ n [E[|Sbntc|] + |nt− bntc|E[Xbntc+1]] ≤ 1√ n |[E[Sbntc]|+ |nt− bntc||E[Xbntc+1]|], , por la desigualada de Jensen, = 1√ n (bntc1 + |nt− bntc|1) < ∞. En segundo lugar si s < t, tenemos que Sbntc + (nt− bntc)Xbntc+1 − (Sbnsc + (n(t− s)− bnsc)Xbnsc+1) ∼ Sbn(t−s)c + (ns− bn(t− s)c)Xbn(t−s)c+1 (2.9) Sbnsc + (ns− bnsc)Xbnsc+1 es Fs-medible (2.10) Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1 es independiente de Fs. (2.11) Por lo tanto E[Sn(t)|Fs] = 1√ n E[Sbntc + (nt− bntc)Xbntc+1|Fs] = 1√ n E[Sbnsc + (ns− bnsc)Xbnsc+1 + (Sbntc + (nt− bntc)Xbntc+1 − (Sbnsc + (ns− bnsc)Xbnsc+1))|Fs] = 1√ n E[Sbnsc + (ns− bnsc)Xbnsc+1 + Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1|Fs], por (2.9), = 1√ n (Sbnsc + (ns− bnsc)Xbnsc+1) + E[Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1], por (2.10) y (2.11), = 1√ n (Sbnsc + (ns− bnsc)Xbnsc+1) = Sn(s). � Proposición 2.50 Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un espacio de probabilidad (Ω,A, P) y Sn = ∑nk=1 Xn una caminata aleatoria simétrica sobre Z. Luego si Sn(t) := 1√n (Sbntc − (nt − bntc)Xbntc+1) es la interpolación 31 2. Objetos principales y el TFLC lineal con re-escalamiento Gaussiano de Sn, entonces la sucesión Sn(t) cumple el TFLC para martingalas para procesos en D([0, 1]). Demostración Por un lado Sn(t) se encuentra acotada uniformemente y la cota tiende a cero ya que para T > 0, J(Sn(t), T) = sup 0≤t≤T | 1√ n 2Xbntc+1| = 2R√ n → 0, cuando n→ ∞, con probabilidad 1. En segundo lugar debemos hallar la variación cuadrática de Sn. De esta manera si t > 0 y Πn := (tn ′ j )j∈{1,...,n′} es una colección de particiones de [0, t] tales que |Πn′ | := máxtn′j |t n′ j − tn ′ j−1| entonces [Sn, Sn](t) = [ Sbntc + (nt− bntc)Xbntc+1√ n , Sbntc + (nt− bntc)Xbntc+1√ n ] = lı́m |Πn′ |→0 n′ ∑ j=1 ( 1√ n S⌊ ntn′j ⌋ + (ntn′j − ⌊ ntn ′ j ⌋ )X⌊ ntn′j ⌋ +1 − 1√ n S⌊ ntn′j−1 ⌋ + (ntn′j−1 − ⌊ ntn ′ j−1 ⌋ )X⌊ ntn′j−1 ⌋ +1 )2 en probabilidad = 1 n bntc ∑ j=1 22 = 1 n bntc4 = 4t. Finalmente Sn(t) converge en distribución a un movimiento Browniano con media cero y varianza 4t. � 32 Caṕıtulo 3 Pre-compacidad de las medidas de la sucesión de martingalas locales 3.1. Herramientas de demostración: pre-compacidad en espacios de medidas El enunciado del TFLC para martingalas, como vimos en el capitulo anterior, implica una serie de condiciones que resultan suficientes para que una suce- sión de martingalas sobre un espacio de funciones converja en distribución a un movimiento Browniano. Es ası́ como en este capitulo se expondrá una condición para que una sucesión de variables aleatorias (o de manera más general, una sucesión de medidas de probabilidad) converja. El problema que puede surgir al considerar una sucesión de medidas de probabilidad es que la medida a la cual el proceso converge débilmente no sea una medida de probabilidad. Por ejemplo consideremos la sucesión de distribuciones sobre Ω := [0, ∞) con valores en [0, ∞), (Xn)n≥1 donde Xn(ω) := { 1, si ω ∈ [n− 1, n], 0, de lo contrario. (3.1) Luego la función de distribución es, Fn(ω) := P(Xn ≤ ω) = { 1 ω ≤ n, 0 ω > n. Ahora F(ω) = lı́mn→∞ Fn(ω) = 0, por lo tanto si existe una medida de pro- babilidad asociada a esta función de distribución, toma el valor cero en todo intervalo de la forma (−k, k) para k entero. Es decir la masa de probabilidad se mueve hacia el infinito. De esta manera para evitar situaciones como la planteada anteriormente se definirá una noción de localizaciónde las distribuciones que llamaremos pre-compacidad en el espacio de medidas. 33 3. Pre-compacidad de las medidas de la sucesión de martingalas locales Definición 3.1 (Pre-compacidad en el espacio de medidas) Sea S un espacio vectorial polaco y (S,B(S)) el espacio medible. Además sea P(S) el conjunto de medidas de probabilidad sobre el espacio (S,B(S)). Luego un conjunto de distribu- ciones Π ⊂ P(M) se llama pre-compacto (en el espacio de medidas) si para todo ε > 0 existe un K ⊂ S compacto tales que, P(K) > 1− ε ∀P ∈ Π. (3.2) Por otro lado en este trabajo nos interesamos en una definición de pre- compacidad para una sucesión de variables aleatorias, por lo tanto a par- tir de la definición de pre-compacidad en el espacio de medidas es posible realizar la siguiente definición. Definición 3.2 (Pre-compacidad de variables aleatorias) Sea S un espacio vec- torial polaco, (S,B(S)) el espacio medible y (Ω,A, P) un espacio de probabilidad. Además sea L0(Ω, R) el conjunto de variables aleatorias sobre (Ω,A, P) con valo- res reales. Luego Π ⊂ L0(Ω, R) se llama pre-compacto si el conjunto de las medidas de proba- bilidad asociadas a las variables aleatorias en Π son pre-compactas en el sentido de la definición 3.1, es decir si para todo ε > 0 existe un K ⊂ S compacto tales que P(X ∈ K) > 1− ε ∀X ∈ Π. (3.3) Ahora sera de utilidad para mas adelante estudiar como cambia la pre- compacidad bajo funciones continuas y la pre-compacidad en el espacio producto. Lema 3.3 (Pre-compacidad bajo funciones continuas) Sea (Xn)n≥1 una suce- sión pre-compacta de variables aleatorias sobre el espacio de probabilidad(Ω,A, P), con valores sobre un espacio métrico S. Sea S′ un espacio métrico y f : S→ S′ una función continua, entonces ( f (Xn))n≥1 es una sucesión pre-compacta de variables aleatorias con valores sobre el espacio métrico S’. Demostración Sea ε > 0, luego como (Xn)n≥1 es pre-compacto existe K ⊆ S compacto tales que P(Xn ∈ K) > 1− ε ∀n ≥ 1, Ahora como f es continua, f (K) es compacto y como K ⊆ f−1 ◦ f (K) enton- ces P( f (Xn) ∈ f (K)) = P(Xn ∈ ( f−1 ◦ f )(K)) ≥ P(Xn ∈ K) > 1− ε para todo n ≥ 1. � 34 3.1. Herramientas de demostración: pre-compacidad en espacios de medidas Lema 3.4 (Pre-compacidad en el espacio producto) Sea Si un espacio métrico para cada i entre 1 y d, y ((Xn,1, ..., Xn,d))n≥1 una sucesión de variables aleatorias de- finidas sobre el espacio producto S1×· · ·×Sd. Entonces la sucesión ((Xn,1, ..., Xn,d))n≥1 es pre-compacta si y solo si la sucesión (Xn,i)n≥1 es pre-compacta para cada i. Demostración Primero supongamos que ((Xn,1, ..., Xn,d))n≥1 es pre-compacta, luego usando el Lema 3.3 y la continuidad de las proyecciones, las compo- nentes son pre-compactas. En segundo lugar supongamos que tenemos pre-compacidad para cada com- ponente y queremos ver que la sucesión de vectores aleatorios es también pre-compacta. Sea Ai ⊆ Si para cada i, luego A1 × · · · × Ad = ∩di=1π−1i (Ai) = ∩ d i=1π −1 i (πi(A1 × · · · × Ad)). Ahora por definición de pre-compacidad para cada Si, es posible elegir un subconjunto compactos Ki de manera que P(Xn,i /∈ Ki) < ε/d para todo n ≥ 1. Finalmente como producto finito de compactos es compacto, consideremos el conjunto K1 × ...× Kd, luego P((Xn,1, ..., Xn,d) /∈ K1 × · · · × Kd) = P(∪di=1{Xn,i /∈ Ki}) ≤ d ∑ i=1 P(Xn,i /∈ Ki) < ε. � Luego de introducir el concepto de pre-compacidad en un espacio de medi- das solo falta definir que es compacidad relativa, para poder introducir el Teorema de Prokhorov (Teorema3.6) y su corolario (Corolario 3.9), el cual sera nuestra principal herramienta para determinar la convergencia de una sucesión de variables aleatorias. Definición 3.5 (Compacidad relativa) Sea S un espacio métrico y A ⊂ S, tales que toda sucesión en A tiene una sub-sucesión convergente en S, entonces A se llama relativamente compacto. Teorema 3.6 (Prokhorov (1956)) Sea S un espacio Polaco y M un conjunto de medidas de probabilidad sobre S. Un subconjunto M’ de M es pre-compacto si y solo si es relativamente compacto. Demostración La demostración se encuentra en Billinsgley, Convergence of Probability Measures Segunda edición, pagina 57 [2] (ver apéndice). � Corolario 3.7 (Convergencia implica compacidad) Sea S un espacio Polaco, X una variable aleatoria sobre S y (Xn)n≥1 una sucesión de variables aleatorias sobre S. Luego si Xn d−→ X entonces (Xn)n≥1 es pre-compacto. 35 3. Pre-compacidad de las medidas de la sucesión de martingalas locales Demostración Usando el Teorema de Prokhorov (3.6) es suficiente demos- trar que (Xn)n≥1 es relativamente compacto. De esta manera si (Xni)i≥1 es una sub-sucesión de (Xn)n≥1, entonces por hipótesis (Xni)i≥1 converge en distribución a X, por lo tanto toda sub-sucesión de (Xni)i≥1 converge en distribución y en particular converge a X en distribución. � Ejemplo 3.8 ( Medidas individuales de probabilidad) Sea M un espacio po- laco y {P} un conjunto con solo una medida de probabilidad sobre M, luego {P} es pre-compacto. En particular todo conjunto finito de medidas es pre-compacto. Corolario 3.9 (Convergencia en distribución usando pre-compacidad) Sea S un espacio polaco y (Xn)n≥1 una sucesión de variables aleatorias con valores en S. Luego Xn d−→ X si y solo si: 1. La sucesión (Xn)n≥1 es pre-compacta. 2. El limite en distribución de toda sub-sucesión convergente de (Xn)n≥1 es igual a X. Demostración : ”=⇒” Por hipótesis (Xn)n≥1 converge a X en distribución, por lo tanto la sucesión (Xn)n≥1 es relativamente compacta y por el Teorema de Prokhorov (Teorema 3.6) es pre-compacta. ”⇐=” A partir de la condición 1. y usando el Teorema de Prokhorov (Teorema 3.6) obtenemos que la sucesión (Xn)n≥1 es relativamente compacta. Ahora Xn d−→ X quiere decir que para toda función continua y acotada f : S→ R se cumple que ∫ f dPXn → ∫ f dPX. Pero entonces por la condición 2 y la compacidad relativa, toda sub-sucesión de la sucesión de números reales ( ∫ f PXn)n≥1 converge a ∫ f PX y por lo tanto ∫ f dPXn → ∫ f dPX. � El Corolario 3.9 es el resultado que usaremos para la demostración del TFLC para martingalas, por lo tanto para demostrar que la sucesión de martinga- las converge en distribución debemos dividir la demostración en dos partes. Según las condiciones 1 y 2 en el Corolario 3.10, en primer lugar se debe demostrar pre-compacidad de la sucesión y en segundo lugar se debe ca- racterizar el lı́mite de la sucesión (es decir para toda sucesión existe una sub-sucesión convergente y el limite al que convergen es el mismo, en el caso de este trabajo el limite es un movimiento Browniano). 36 3.1. Herramientas de demostración: pre-compacidad en espacios de medidas A continuación se introducen herramientas (la noción de estocásticamente acotado) que nos permiten introducir algunos teoremas que caracterizan la pre-compacidad en el espacio de medidas, con el fin de usar el corolario del Teorema de Prokhorov 3.7 en la demostración del TFLC (Teorema 2.38). Definición 3.10 (Vectores aleatorios estocásticamente acotados) Una sucesión de vectores aleatorios (Xn)n≥1 con valores en Rd se llama estocásticamente acotada si es pre-compacta. Por lo tanto para el caso de variables aleatorias con valores en Rd pre- compacidad y estocásticamente acotado coinciden. Sin embargo esto no ocu- rre cuando las variables aleatorias toman valores en un espacio de funciones (por ejemplo D([0, ∞), Rd) o C([0, ∞), Rd) el espacio de funciones continuas sobre [0, ∞)), en este caso la condición de estar estocásticamente acotado es mas débil que la condición de pre-compacidad. Definición 3.11 (Estocásticamente acotado para variables aleatorias de D([0, ∞), Rd)) Sea (Xn)n≥1 una sucesión de variables aleatorias con valores en D([0, ∞), Rd) y ‖ Xn ‖T := sup0≤t≤T |X(t)| donde | · | es cualquier norma en Rd. Luego (Xn)n≥1 es estocásticamente acotado en D([0, ∞), Rd) si la sucesión (‖ Xn ‖T)n≥1 es acotada estocásticamente en el sentido de la definición3.10 para cada T > 0. Ahora nos interesa saber que pasa con la propiedad de estar acotado es- tocásticamente bajo suma y cuando se esta trabajando en el espacio produc- to. Lema 3.12 (Acotado estocásticamente en D([0, ∞), Rd) por componentes) Una sucesión ((Xn,1, ..., Xn,d))n≥1 en D([0, ∞), Rd) se llama acotado estocásti- camente en D([0, ∞), Rd) si y solo si (Xn,i)n≥1 es acotada estocásticamente en D([0, ∞), R) para cada i, en donde 1 ≤ i ≤ d. Demostración En primer lugar usando la norma del supremo ‖ (Xn,1, ..., Xn,d) ‖T = sup 0≤t≤T {max0≤i≤d{|Xn,i|}} = max0≤i≤d{ sup 0≤t≤T {|Xn,i|}} = max0≤i≤d{‖ Xn,i ‖T}. ”=⇒” Como ((Xn,1, ..., XXn,d))n≥1 esta acotado estocásticamente en D([0, ∞), R d), entonces (‖ (Xn,1, ..., Xn,d) ‖T)n≥1 esta acotado estocásticamente como vector aleatorio (definición 3.10) para cada T ≥ 0. Por lo tanto dado ε > 0, existe K ⊂ R compacto tales que 1− ε < P(‖ (Xn,1, ..., Xn,d) ‖T∈ K) = P(máx 0<i≤d {‖ Xn,i ‖T} ∈ K), ∀n ≥ 1, 37 3. Pre-compacidad de las medidas de la sucesión de martingalas locales pero entonces P(‖ Xn,i ‖T∈ K) > 1− ε para todo 1 ≤ i ≤ d y n ≥ 1. ”⇐=” Ahora como (Xn,i)n≥1 esta acotado estocásticamente para cada 1 ≤ i ≤ d, dado ε ≥ 0 existen Ki ⊆ R tales que P(‖ Xn,i ‖T /∈ Ki) < ε. Entonces si K := K1 ∪ ...∪ Kd como K es compacto y como i esta entre 1 y d, max0≤i≤d{‖ Xn,i ‖T} alcanza el máximo en algún i. Por lo tanto {ω ∈ Ω| ‖ Xn,i ‖T (ω) ∈ Ki} ⊂ {ω ∈ Ω| máx 0≤i≤d {‖ Xn,i ‖T (ω) ∈ K}. Pero entonces P(máx 0≤i≤d {‖ Xn,i ‖T} ∈ K) ≥ P(‖ Xn,i ‖T∈ K) ≥ 1− ε, por lo tanto ((Xn,1, ..., Xn,d))n≥1 es acotado estocásticamente como variable aleatoria en D([0, ∞), Rd). � Lema 3.13 (Acotado estocásticamente en D([0, ∞), Rd) para sumas) Sea ((Xn,1, ..., Xn,d))n≥1 una sucesión de variables aleatorias sobre el espacio D([0, ∞), Rd) tales que (Xn,i)n≥1 esta estocásticamente acotada en D([0, ∞), R) para cada i, donde 0 < i ≤ d, entonces Xn,1 + ... + Xn,d esta estocásticamente acotado en D([0, ∞), R). Demostración Supongamos que (Xn,i)n≥1 esta estocásticamente acotada en D([0, ∞), R) para cada i. Entonces para cada i y T > 0, dado ε > 0 existe Ki ⊂ R compacto tales que P(‖ X1,n ‖T∈ Ki) > 1− ε+d−1d . Ahora la desigualdad triangular ‖ X1 + · · ·+Xd ‖T≤‖ X1 ‖T + · · ·+ ‖ Xd ‖T, implica que {‖ X1,n ‖T (ω) ∈ K1, ..., ‖ Xk,n ‖T (ω) ∈ Kd} ⊂ {‖ (X1,n + ... + Xd,n) ‖T∈ K1 + ... + Kd}, entonces d(1− ε + d− 1 d ) = 1− ε < P(‖ X1,n ‖T∈ K1, ..., ‖ Xd,n ‖T∈ Kd) < P(‖ (X1,n + ... + Xd,n) ‖T (ω) ∈ K1 + ... + Kd), y por lo tanto Xn,1 + ... + Xn,d esta estocásticamente acotado. � Finalmente en este trabajo se estudiara la pre-compacidad sobre dos espa- cios de funciones. El primero hace referencia a la pre-compacidad de un conjunto de medidas definidas sobre el espacio de funciones D([0, ∞), Rd) y lo denotaremos como D-pre-compacidad. El segundo que hace referencia a la pre-compacidad de un conjunto de medidas definidas sobre el espacio 38 3.2. Martingalas estocásticamente acotadas de funciones continuas definidas sobre [0, ∞), C([0, ∞), Rd), y lo llamaremos C-pre-compacidad. Es importante notar como veremos mas adelante que si un conjunto de me- didas es C-pre-compacto entonces es D-pre-compacto pero no en el sentido inverso. Esto se debe a que el conjunto de funciones continuas sobre [0, ∞) esta contenido en el conjunto de funciones càdlàg D([0, ∞), Rd). 3.2. Martingalas estocásticamente acotadas A continuación se estudiaron dos lemas que para el caso de martingalas per- miten reducir la condición de estar estocásticamente acotado en D([0, ∞), Rd) a una condición en R. Lema 3.14 (Desigualdad de Lenglart-Rebolledo) [17] Sea (Ω,A, P) un espa- cio de probabilidad y F una filtración en A. Sea X un proceso F -adaptado, positivo, con trayectorias en D([0, ∞), R) y Y un proceso creciente, nulo en cero, conti- nua por derecha y F -adaptado. Además supongamos que existe c > 0 tales que |∆Y(t)| ≤ c para todo t ≥ 0 P-c.s. Si para todo tiempo de parada finito,τ, con respecto a la filtración F , obtenemos que E[X(τ)] ≤ E[Y(τ)], (3.4) entonces para todo ε, η > 0 y para todo tiempo de parada ,τ, finito P-c.s respecto a la filtración F , P(sup t≤τ X(t) ≥ ε) ≤ 1 ε E[Y(τ) ∧ (η + c)] + P(Y(τ) > η). Demostración : En primer lugar la hipótesis E[X(τ)] ≤ E[Y(τ)] para todo tiempo de parada finito τ hace referencia a que el proceso X se encuentra dominado por el proceso Y [11]. Ahora si E[X(τ)] ≤ E[Y(τ)] para un tiempo de parada finito τ, sea ε > 0, n ≥ 1 y σ := ı́nf{s ≤ τ ∧ n; X(s) ≥ ε} en donde σ := τ ∧ n si {s ≤ τ ∧ n; X(s) ≥ ε} = ∅. Luego σ es un tiempo de parada, σ ≤ τ∧ n y de las siguientes desigualdades E[Y(τ)] ≥ E[Y(σ)] ≥ E[X(σ)] ≥ ∫ sups≤τ∧n X(s)>ε X(σ)dP ≥ εP( sup s≤τ∧n X(s) > ε), se obtiene (como en Lenglart [11]) que P(sup s≤τ X(s) > ε) ≤ 1 ε E[Y(τ)]. (3.5) En segundo lugar P(sup t≤τ X(t) ≥ ε) = P(sup t≤τ X(t) ≥ ε, Y(τ) ≤ η) + P(sup t≤τ X(t) ≥ ε, Y(τ) > η) ≤ P(1{Y(τ)≤η} sup t≤τ X(t) ≥ ε) + P(Y(τ) > η). 39 3. Pre-compacidad de las medidas de la sucesión de martingalas locales En tercer lugar sea S := ı́nf{t ≥ 0|Y(t) > η}, entonces S ∧ τ es un tiempo de parada finito P-c.s y además 1{Y(τ)≤η} sup t≤τ X(t) ≤ sup t≤τ∧S X(t), P− c.s. En cuarto lugar siguiendo las mismas ideas que con la ecuación (3.5) P( sup t≤τ∧S X(t) > ε) ≤ 1 ε E[Y(τ ∧ S)]. Luego en quinto lugar como Y(τ ∧ S) ≤ Y(τ) ∧ (η + c) P-c.s, entonces P( sup t≤τ∧S X(t) > ε) ≤ 1 ε E[Y(τ) ∧ (η + c)] + P(Y(τ) > η), y por lo tanto P(sup t≤τ X(t) > ε) ≤ 1 ε E[Y(τ) ∧ (η + c)] + P(Y(τ) > η). � 3.3. Demostración de la C-pre-compacidad con saltos acotados En esta sección se verifica la pre-compacidad en el espacio de medidas de la sucesión de martingalas, para el caso en el que se asumen saltos acotados. Sin embargo antes de empezar con la demostración necesitamos introdu- cir algunos de Teoremas (Teoremas 3.20, 3.21 y 3.22 ) que permitan saber cuando una sucesión de distribuciones, procesos estocásticos o martingalas en D([0, ∞), Rd) son pre-compactas en D([0, ∞), Rd). Sin embargo antes de poder introducir estos Teoremas es necesario definir que es un modulo de continuidad y su análogo para funciones en D([0, T], R) donde T ≥ 1. Un modulo de continuidad es una función WTC : R [0,T] × [0, ∞) :→ [0, ∞) que permite caracterizar cuando una función en R[0,T] es continua, WTC(X, δ) := sup |t−s|≤δ s,t∈[0,T] |X(t)− X(s)|. (3.6) 40 3.3. Demostración de la C-pre-compacidad con saltos acotados Ejemplo 3.15 Consideremos el polinomio de grado p, X(r) = ∑pi=0 air i, restringi- do a [0, T] luego WTC(X, δ) = sup |t−s|≤δ s,t∈[0,T] | p ∑ i=1 ai(ti − si)| ≤ sup |t−s|≤δ s,t∈[0,T] p ∑ i=1 |ai||ti − si| ≤ p ∑ i=1 |ai||ti − (t + δ)i| = p ∑ i=1 |ai|| i−1 ∑ j=0 ( i j ) tjδi−j| = δ p ∑ i=1 |ai|| i−1 ∑ j=0 ( i j ) tjδi−j−1| De esta manera del ejemplo anterior se puede ver como lı́mδ→0 WTC(X, δ) = 0 lo cual concuerda con el hecho de que los polinomios son funciones conti- nuas, como se expresa en la siguiente nota. Nota 3.16 Este modulo de continuidad caracteriza a las funciones continuas ya que, X ∈ R[0,T] es continua si lı́m δ→0 WTC(X, δ) = 0. De lo contrario existirı́a un ε > 0 y t ∈ [0, T] tales que para todo s ∈ (t− δ, t + δ), |X(t)− X(s)| > ε pero esto contradice la continuidad de X en t. De igual manera que para el modulo de continuidad, es posible definir un modulo que caracteriza a las funciones de D([0, T], R), WTD : R [0,T] × [0, ∞) → [0, ∞). De esta manera para δ > 0 y r, T ≥ 1 es posible definir Θ(r, T, δ) := {(t0, ..., tr) ∈ [0, ∞)r+1| ti < ti+1 ∀i ∈ {0, ..., r− 1}, ti − ti−1 > δ ∀i ∈ {1, ..., r}, tr = T y t0 = 0} entonces WTD(X, δ) := ı́nf θ∈Θ(r,T,δ) máx i∈{1,...,r} sup s,t∈[ti−1,ti) |X(t)− X(s)|, (3.7) donde el ı́nfimo es sobre todos los r ≥ 1 que puede tomar Θ(r, T, δ). Nota 3.17 Es posible observar que el anterior modulo es un modulo de continuidad por la derecha, sin embargo caracteriza a D([0, T], R) ya que si X ∈ R[0,T] y existe 41 3. Pre-compacidad de las medidas de la sucesión de martingalas
Compartir