Logo Studenta

u828028

¡Este material tiene más páginas!

Vista previa del material en texto

Teorema Funcional del Ĺımite
Central para Martingalas
Tesis Pre-Grado en Matemáticas
David Alejandro Henriquez Bernal
Mayo 21, 2019
Asesor: Prof. Dr. Michael Högele, Co-Ascesor: Prof. Dr. Sylvie Roelly
Departamento de Matemáticas, Universidad de los Andes
Resumen
Las primeras versiones del Teorema del Lı́mite Central se remontan a
las ideas de De Moivre y Laplace, en donde la sucesión de sumas renor-
malizadas de variables aleatorias de Bernoulli con varianza acotada y
promedio finito convergen en distribución a una variable aleatoria con
distribución normal estándar. En el presente trabajo se busca compren-
der una versión generalizada del Teorema del Lı́mite Central donde la
sucesión de sumas renormalizadas de variables aleatorias se sustituyen
por martingalas en tiempo continuo, un tipo de procesos estocásticos,
con saltos acotados y variación cuadrática lineal en el tiempo. De es-
ta manera al considerar una sucesión de martingalas re-normalizadas
el lı́mite es un proceso estocástico, un movimiento Browniano, en vez
de vectores aleatorias Gaussianos. Siguiendo el articulo de Ward Whitt
[24], para conseguir demostrar el Teorema del Lı́mite Central en este
contexto se usará la siguiente estructura. Primero, se introducen las he-
rramientas necesarias para demostrar que toda subsucesión convergen-
te converge en el espacio de funciones continuas y converge al mismo
limite (a través de un corolario del Teorema de Prokhorov (3.6)). Segun-
do se caracteriza el lı́mite de la sucesión, o más precisamente de alguna
sub-sucesión, es decir se muestra que el limite es un movimiento Brow-
niano. Por otro lado para ilustrar el Teorema del Lı́mite Central para
Martingalas se expondrán dos ejemplos de sucesiones de martingalas
locales que convergen a un movimiento Browniano, especı́ficamente, se
estudiará una sucesión de procesos de Poisson compuestos compensa-
dos y una sucesión de caminatas aleatorias.
i
Agradecimientos
Quiero agradecer a Michael Högele por el acompañamiento y asesoramien-
to brindado durante la elaboración de este trabajo, a Sylvie Roelly por su
orientación y el apoyo recibido en Potsdam cuando este proyecto estaba co-
menzando. De igual manera quiero agradecer a mi familia y amigos por el
soporte que me ofrecieron a lo largo de este proceso.
ii
Índice general
Índice general III
1 Introducción 3
2 Objetos principales y el TFLC 11
2.1. Objetos principales: martingalas, la variación cuadrática, el
movimiento Browniano . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Enunciado del TFLC para martingalas con saltos acotados . . 23
2.3. Ejemplos: procesos de Poisson compuestos compensados y ca-
minatas aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3 Pre-compacidad de las medidas de la sucesión de martingalas
locales 33
3.1. Herramientas de demostración: pre-compacidad en espacios
de medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Martingalas estocásticamente acotadas . . . . . . . . . . . . . . 39
3.3. Demostración de la C-pre-compacidad con saltos acotados . . 40
4 Caracterización del lı́mite 53
4.1. Herramientas de demostración: Teorema de Lévy . . . . . . . 53
4.2. Identificación del lı́mite con saltos acotados . . . . . . . . . . . 58
A Apéndice 61
A.1. Cálculo de los primeros momentos de un proceso compuesto
de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
A.2. Teoremas del lı́mite central clásico . . . . . . . . . . . . . . . . 62
A.3. Tipos de convergencia de vectores aleatorios . . . . . . . . . . 63
A.4. Anexo de las demostraciones de algunos teoremas . . . . . . 64
Bibliografı́a 77
iii
Lista de Notaciones
La siguiente lista muestra la notación usada a lo largo del documento
N Los números naturales {1,2,3,...}
d ∈N Dimensión del espacio de estados
R Los números reales
t ∈ [0, ∞) Tiempo determinista
C([0, ∞), Rd) Espacio de funciones continuas sobre [0, ∞) con valores en Rd
càdlàg Espacio de funciones sobre [0, ∞) con valores en Rd tales que,
∀t ∈ [0, ∞) ∀tn ↓ t, lı́mtn→t X(tn) = X(t), (continua por derecha) y
∀t ∈ (0, ∞) ∀tn ↑ t, lı́mtn→t X(tn) = X(t−), (el limite por izquierda exis-
te)
∆X(t) Salto en el tiempo t para una función càdlàg X (∆X(t):=X(t)-X(t-))
i.i.d Variables aleatorias independientes e idénticamente distribuidas
S,E Espacios polacos, espacios topológicos metrizables completos y sepa-
rables
D([0, T], Rd) Espacio polaco constituido por funciones càdlàg sobre [0, T]
dotado con la topologı́a de Skorokhod
(Ω,A, P) Espacio de probabilidad
(Ft)t≥0 Filtración en A
B(E) Borelianos sobre E, σ-álgebra generada por los abiertos del espacio
topológico (E, T )
τ, σ Tiempo de parada con respecto a la filtración (Ft)t≥0
1
Índice general
M Martingala con respecto a la filtración (Ft)t≥0
Dd σ-álgebra de Borel de D([0, ∞), Rd), B(D([0, ∞), Rd) con respecto a
la topologı́a de Skorokhod
(B(t)t≥0) Movimiento Browniano
(N(t))t≥0 Proceso de Poisson
2
Caṕıtulo 1
Introducción
La ley de los grandes números débil expresa que dada una sucesión de va-
riables aleatorias independientes e idénticamente distribuidas con primer
momento finito, el promedio aritmético de las primeras n variables alea-
torias converge en probabilidad a el promedio cuando n tiende a infinito.
Ahora, asumiendo la existencia de segundos momentos, las primeras versio-
nes del teorema del limite central surgieron a partir de la ley de los grandes
números al considerar renormalizar la suma por una succión (an/n)n≥1 con
el fin de que la probabilidad del error no converja en probabilidad a un va-
lor distinto a cero. Resultando en que an :=
√
nσ y que el limite tiene una
distribución normal estándar independiente de los sumandos.
En la actualidad, hablar de teoremas del lı́mite central hace referencia a una
multitud de afirmaciones acerca de la convergencia a una distribución nor-
mal (infinito dimensionales) de una sucesión de distribuciones, asociadas a
funciones que dependen de un número creciente de vectores aleatorias (mul-
tidimensionales) o en algunos casos elementos aleatorios más generales (en
espacio de funciones infinito dimensionales). [6]
El teorema del lı́mite central desde sus orı́genes ha sido de gran importan-
cia en el área de la estadı́stica. Esto se debe a que dada una población y un
muestreo aleatorio tomado de la población, la distribución de los promedios
de las muestras tiende a una distribución normal a medida que el tamaño
de las muestras aumentan [7]. Por ejemplo al realizar un experimento la va-
riabilidad de los promedios implica la variabilidad de los los errores que en
el limite de muchas mediciones presenta una distribución normal [23].
De igual manera la importancia que los teoremas del lı́mite central han teni-
do sobre las matemáticas y más precisamente sobre la teorı́a de la probabili-
dad, radica en los métodos matemáticos, principalmente en análisis, que se
desarrollaron alrededor de ella y el estatus como linea de investigación en sı́
3
1. Introducción
que le ayudo a brindar a la probabilidad dentro de las matemáticas. De esta
manera para alcanzar una mayor comprensión del papel en las matemáticas
de los teoremas del limite central, es necesario hacer un recuento histórico
de las versiones que han surgido del mismo desde el siglo XVIII hasta me-
diados del siglo XX. [6]
El primer trabajo alrededor del teorema del lı́mite central se remonta al
artı́culo publicado por Abraham de Moivre (1667–1754) en 1733. En este
de Moivre desarrolla aproximaciones a distribuciones binomiales con el fin
de refinar el trabajo de Jakob Bernoulli alrededor de la ley de los grandes
números. Sin embargo, el trabajo de de Moivre nunca expreso la universali-
dad que caracteriza a los teoremas del lı́mite central. En gran medida porque
el trabajo de de Moivre solo fue un caso particular del teorema del lı́mite
central para el caso de variables aleatorias de Bernoullicon probabilidad
p = 12 (por ejemplo, el lanzamiento de una moneda justa es modelado por
una variable aleatoria de Bernoulli). [6]
El segundo trabajo importante en relación a el teorema del lı́mite central se
encuentra con Pierre-Simon de Laplace (1749–1827) quien en 1812, después
de 40 años de trabajo, publica el articulo Théorie analytique des probabilités en
el cual presenta una generalización del trabajo de de Moivre para p 6= 1.
En este trabajo los problemas que busca resolver Laplace se dividen en dos
categorı́as, por un lado en ”sumas de variables aleatorias” y por otro lado
en ”hallar el inverso de probabilidades”. Dentro de la primera categorı́a se
encuentra el problema de estimar probabilidades a priori en relación a la
ganancia y a la perdida en juegos de azar. Es en este contexto que Laplace
desarrolla un método para aproximar las probabilidades de sumas de varia-
bles aleatorias independientes usando funciones generadoras. [6]
Después, Siméon Denis Poisson (1781–1840) brinda un análisis mas riguroso
al teorema del lı́mite central de Laplace a través de dos artı́culos publicados
entre 1824 y 1829. Más precisamente el aporte de Poisson al teorema del
lı́mite central es una comprensión más profunda de lo que es una variable
aleatoria (definición importante en la versión actual del teorema del lı́mite
central) y algunos contraejemplos 1 que permitieron delimitar un poco la
validez del teorema del lı́mite central. [6]
Alrededor del siglo XIX, empieza a crecer dentro de los matemáticos de
la época un consenso hacia una mayor abstracción de las matemáticas y
hacia su desprendimiento del mundo fı́sico como razón de existir, lo que
encamina a los matemáticos a buscar un mayor rigor en las matemáticas. Es
1El contraejemplo mas prominente que considero Poisson fue la función caracterı́stica f (x) =
1
π(1+x2) que no cumple el TLC ya que para esa distribución ningún momento existe.
4
este desprendimiento de las matemáticas del el mundo fı́sico lo que permi-
tió que el teorema del lı́mite central encontrara aplicaciones inesperadas y
tal vez contra intuitivas en la teorı́a del error.
Dentro de este contexto se encuentran los matemáticos Peter Gustav Lejeune
Dirichlet (1805–1859) y Augustin Louis Cauchy (1789–1857) quienes entre los
años 1830 y 1850 trabajando en aplicaciones del teorema del lı́mite central
a la teorı́a del error, buscar obtener demostraciones rigurosas del teorema
del limite central. Lo anterior ocasiona que el teorema empiece a adquirir
relevancia dentro de las matemáticas a parte de su aplicación en problemas
prácticos. 2.
De esta manera dentro de las principales aplicaciones de Dirichlet al teore-
ma del lı́mite central se encuentran modificaciones del método Laplaciano
3 de aproximar una suma de variables aleatorias independientes a una dis-
tribución normal. De igual manera dentro de las contribuciones de Cauchy,
usando consideraciones similares a las de Dirichlect, expone una serie de cri-
ticas al método de mı́nimos cuadrados de Laplace a través de una disputa
con Irénée Jules Bienaymé (1796–1878) quien defendı́a el método de Laplace.
[6]
En la segundo mitad del siglo XIX y principios del siglo XX encontramos la
escuela rusa de St. Petersburgo, de la mano de Pafnutii Lvovich Chebyshev
(1821–1894), Andrei Andreevich Markov (1856–1922) y Aleksandr Mikhailo-
vich Lyapunov (1857–1918). Las ideas de Chebyshev se encuentran en una
serie de artı́culos publicados entre 1845 y 1887, en los cuales expresa cons-
tantemente la necesidad de presentar cotas a los errores de las desviaciones
entre las probabilidades exactas y las expresiones limites. Con respecto al
teorema del lı́mite central, Chebyshev en 1887 presenta una demostración a
través del método de los momentos 4. Sin embargo, su demostración sigue
presentando los mismos problemas de rigurosidad con respecto a las demos-
traciones de Poisson y Laplace (cortar expansiones en series que en ocasio-
nes divergen). Es importante resaltar en este punto que es hasta Chebyshev
que el teorema del lı́mite central adquiere la forma de teorema lı́mite y se
2Un discusión acerca de la creeciente abstraccion en matematicas se puede ver en Schnei-
der, Ivo 1981a. Die Situation der mathematischen Wissenschaften vor und zu Beginn der
wissenschaftlichen Laufbahn von Gauss. In Carl Friedrich Gauss (1775–1855). Sammelband
von Beiträgen zum 200. Geburtstag von C. F. Gauss, I. Schneider (ed.), pp. 9–36. München:
Minerva.
3En términos actuales, el método de Laplace en el fondo consistı́a en hallar la función ca-
racterı́stica (la función caracterı́stica de una variable aleatoria X es E[eitX ]) de una suma de
variables aleatorias para después encontrar a través de la función inversa la probabilidad de
que la suma de variables aleatorias tome un valor particular.
4El método de los momentos busca encontrar cotas superiores e inferiores a integrales de la
forma
∫ b
a f (x)dx donde f (x) son densidades de probabilidad, dado que a, b ∈ [A, B], a < b
y los momentos M0 :=
∫ B
A f (x)dx, M1 :=
∫ B
A x f (x)dx,...,Mm :=
∫ B
A x
m f (x)dx existen hasta
algún m ∈N.
5
1. Introducción
expresan condiciones necesarias para su validez.
Por otro lado Markov en un articulo publicado en 1898 presenta una de-
mostración mas completa del teorema del lı́mite central siguiendo las mis-
ma ideas que Chebyshev. Sin embargo deja la sensación, al igual que con
Chebyshev, que la importancia del teorema del lı́mite central radica en su
utilidad como un espacio en donde se pueden presentar métodos relaciona-
dos a momentos y fracciones continuas.
Finalmente el último exponente de la escuela de St. Petersburg que consi-
deraremos es Lyapunov quien presento una demostración del teorema del
lı́mite central en un articulo publicado en el año 1900. La importancia de
su contribución se encuentra en el hecho de que fue la primera persona en
presentar una demostración rigurosa del teorema del lı́mite central siguien-
do el método de Laplace de funciones caracterı́sticas, y no el método de
los momentos de Chebyshev y Markov. Además, es importante señalar su
introducción de un lema sobre la convergencia de funciones caracterı́sticas
a un distribución normal, ya que en este lema se basa su demostración y
sera usado por otros matemáticos como Lindeberg y Lévy. De igual mane-
ra Lyapunov fue capaz de brindar una cota a los errores como demandaba
Chebyshev. [6]
Por otro lado en el año 1905 Albert Einstein (1879-1955) presenta la explica-
ción correcta de que es el movimiento Browniano que Brown reporto en sus
observaciones. Por otro lado el primer modelo del movimiento Browniano
como objeto matemático se le atribuye a Louis Jean-Baptiste Alphonse Ba-
chelier (1870-1946), sin embargo su trabajo no hace referencia al movimien-
to Browniano ni a Brown. La primera construcción rigurosa del movimiento
Browniano se le atribuye a Norbert Wiener (1894-1964) quien introduce la
medida de Wiener en el espacio C[, 1] basándose en el trabajo de Einstein
[21].
En el año 1920 Jarl Waldemar Lindeberg (1876–1932) publica su trabajo en
relación al calculo probabilı́stico, con una versión del teorema del lı́mite cen-
tral bajo hipótesis muy débiles (por ejemplo no asume que las variables alea-
torias son independientes) y hasta se podrı́a decir necesarias (condición de
Lindeberg) 5. De esta manera las ventajas del teorema del lı́mite central de
Lindeberg consiste en dos aspectos, por un lado se puede aplicar a contextos
muy generales y por otro toma en consideración la tasa de convergencia. Sin
embargo, aunque la demostración de Lindeberg brinda una demostración ri-
gurosa del teorema del lı́mite central asumiendo condiciones suficientes, no
presenta una demostración sobre la necesidad de las hipótesis, aspectos que
serán cubiertos mas adelante por Lévy y Feller en 1935 y 1937 respectiva-
5La condición de Lindeberg expresa que en el limite cuando n tiende a infinito la varianza de
las variablesaleatorias acotadas es igual a la varianza de las variables aleatorias sin acotar
6
mente. [6]
Por un lado Willy Feller (1906–1971) aunque logra presentar condiciones
suficientes para la versión del teorema del limite central presentada por Lin-
deberg usando el método de Laplace de las funciones caracterı́sticas, aún la
versión que presenta no es lo suficientemente general ya que solo considera
sumas normadas.
Por otro lado Paul Lévy (1886–1971) después de varias publicaciones entre
1925 y 1935, en 1930 adopta un nuevo método 6 desarrollado por el mismo
y deja al lado el método de Laplace de las funciones caracterı́sticas. En el
articulo de 1935 Lévy realiza tres contribuciones importantes al teorema del
lı́mite central. En primer, lugar presenta condiciones suficientes y necesa-
rias para la convergencia de sumas normalizadas con segundos momentos
de variables aleatorias independientes e idénticamente distribuidas a una
distribución normal. En segundo lugar, presenta condiciones necesarias y
suficientes para el caso más general de sumandos independientes. En tercer
lugar intenta exponer las condiciones necesarias y suficientes para varia-
bles dependientes, martingalas. De hecho, en el teorema del lı́mite central
la suma de n variables aleatorias centradas en cero y renormalizadas por el
producto de la raı́z de n y la varianza es una sucesión de martingalas con
respecto a la filtración natural. Por otro lado, las demostraciones que pre-
sento en relación al caso de variables dependientes recaı́an en un lema que
Lévy no demostró en 1935, pero que fue demostrado en 1936 por Cramér,
razón por la cual Lévy presenta otro articulo en 1937 en donde refina estas
demostraciones. [6]
En la década de 1930, Andréi Nikoláyevich Kolmogórov (1903-1987) presen-
ta una axiomatización de la teorı́a de la probabilidad en el articulo ”Grund-
lagen der Wahrscheinlichkeitsrechnung”publicado en Alemania en 1933. De
igual manera en esta década también surgen desarrollos alrededor de varia-
bles aleatorias sobre espacios de funciones (primeras ideas de lo que hoy en
dı́a se conoce como procesos estocásticos) y los avances de Lévy en relación
a un teorema del lı́mite central para variables aleatorias dependientes.
En 1933 Kolmogórov también presenta una construcción del movimiento
Browniano dando una justificación mas rigurosa de la construcción de Ba-
chelier. De igual manera en 1948 Lévy presenta una construcción del mo-
vimiento Browniano usando argumentos de interpolación [13] y en 1951
Monroe David Donsker (1925–1991) presenta su construcción del movimien-
to Browniano a través del limite de caminatas aleatorias [21].
6El método de la concentración y la dispersión de Lévy busca comparar el tamaño de una
variable aleatoria con la suma de todas las variables aleatorias. En este método la dispersión
de una variable aleatoria hace referencia a la mı́nima longitud de un intervalo asociado a una
probabilidad particular y la concentración es la máxima probabilidad asociada a un intervalo
determinado.
7
1. Introducción
La construcción del movimiento Browniano que presenta Donskers es en
realidad una versión funcional del teorema del lı́mite central, siguiendo las
ideas de Paul Erdős (1913-1996) y Mark Kac (1914-1984) sobre el principio
de invarianza (el comportamiento lı́mite de una sucesión de funciones defi-
nidas a partir de sumas de variables aleatorias se puede determinar al consi-
derar el lı́mite cuando las sumas tienen distribuciones especiales) en donde
una sucesión de distribuciones que depende de una sucesión de variables
aleatorias independientes (caminatas aleatorias simétricas) convergen a un
movimiento Browniano. [6]
Por último, continuando con las ideas de Lévy y Donsker la versión funcio-
nal para martingalas que estudiaremos en el presente trabajo, en el fondo
esta considerando un teorema del lı́mite central para cada tiempo. Por lo
tanto el trabajo consistirá en encontrar cual debe ser las constantes de renor-
malizacion (los an :=
√
n
σ en el caso no funcional del teorema y la variación
cuadrática para el caso funcional, pero con las condiciones necesarias para
que el lı́mite del proceso de variación cuadrática sea lineal en el tiempo)
adecuadas para el caso funcional, de manera tal que bajo el lı́mite correcto
la sucesión de martingalas converja a un proceso que en cada tiempo pre-
sente una distribución normal, por lo cual el candidato mas natural es el
movimiento Browniano. Esta versión funcional del teorema del lı́mite cen-
tral puede ser atribuida al trabajo de Patrick Paul Billingsley (1925–2011), de
la escuela norteamericana, Yuri Vasilyevich Prokhorov (1929-2013), Anatoliy
Volodymyrovych Skorokhod (1930-2011), de la escuela soviética, entre otros,
quienes en los años 50’s-60’s desarrollaron en gran medida las ideas que se
desarrollaran en el presente trabajo [3].
Por un lado Prokhorov en 1956 trabajando en espacios de funciones separa-
bles y completos presenta el esquema de demostración que usaremos en este
trabajo. Una sucesión de procesos estocásticos convergen en distribución a
un proceso estocástico X si, la sucesión de distribuciones es pre-compacta,
las sucesiones finito dimensionales convergen y el lı́mite de las distribucio-
nes finito dimensionales caracterizan a X [8]. Por otro lado Skorokhod bus-
co comprender un poco mejor el teorema en espacios de funciones que no
necesariamente son completos y separables, trabajando en el espacio de fun-
ciones continuas por derecha y con lı́mite por izquierda encontró distintos
tipos de convergencia en estos espacios según el tipo de topologı́a [22]. Por
otro lado Billingsley hace uso del resultado de Prokhorov sobre la equivalen-
cia entre pre-compacidad en espacios de medidas y la compacidad relativa
y además usa la caracterización de Lévy de un movimiento Browniano. De-
mostrando que el teorema funcional del lı́mite central para martingalas, se
reduce a demostrar que la sucesión de martingalas es pre-compacta y el lı́mi-
te se puede caracterizar usando el teorema de Lévy 7 [2].
7El teorema de Lévy expresa que dado un proceso estocástico d-dimensional X(t), el proceso
M(t) := X(t)− X(0) es un movimiento Browniano d-dimensional si M(t) es continuo y la
8
Finalmente Ward Whitt presenta un articulo en el que expone la demostra-
ción del Teorema funcional del lı́mite central (FCLT), revisando conceptos
como pre-compacidad en espacios de medidas, sucesiones estocásticamente
acotadas y la caracterización del limite de Lévy [25]. En el presente trabajo es
este el articulo que seguiremos para la demostración del Teorema funcional
del lı́mite central con saltos acotados.
variación cuadrática entre las componentes j, k ∈ {1, ..., d} es igual a δj,kt.
9
Caṕıtulo 2
Objetos principales y el TFLC
2.1. Objetos principales: martingalas, la variación cuadráti-
ca, el movimiento Browniano
Los objetos principales que se estudiaran en este trabajo son una clase de
procesos estocásticos, las martingalas, sin embargo antes de poder introdu-
cirlas es necesario definir que es un proceso estocástico. En primer lugar,
dado un espacio de probabilidad (Ω,A, P) y un espacio medible (E,A′) es
posible definir un proceso estocástico con espacio de estados E, como una
familia de variables aleatorias (Xt)t≥0 donde Xt : Ω → E. No obstante, en
ocasiones resulta mas conveniente considerar un proceso estocástico como
una sucesión de funciones aleatorias (Xt(ω))ω∈Ω donde Xt(ω) : [0, ∞)→ E.
A cada función Xt(ω) se le llama camino o realización del proceso.
Nota 2.1 En el presente trabajo los espacios de llegada E de los procesos estocásticos
no solo serán espacios de medida, sino que además serán espacios métricos de manera
que sea posible definir un valor esperado. Sin embargo con el fin de que exista cierta
compatibilidad entre la σ-álgebra y la topologı́a (inducida por la métrica) es necesario
que el espacio de llegada sea separable y completo.Definición 2.2 (Espacio vectorial Polaco) Sea (E,B(E)) un espacio vectorial vec-
torial topológico separable y completo, luego E se llama espacio Polaco.
Definición 2.3 (Proceso estocástico) [10] Sea (Ω,A, P) un espacio de probabi-
lidad, E un espacio vectorial Polaco, (E,B(E)) el espacio medible y I ⊂ R.
Una familia de variables aleatorias (Xt)t∈I en (Ω,A, P) con valores en (E,B(E)),
se llama un proceso estocástico, con espacio de estados E y conjunto de ı́ndices (o
conjunto de tiempos) I.
La existencia de un proceso estocástico dada una familia de distribuciones
finito dimensionales se encuentra determinada por el Teorema de extensión
11
2. Objetos principales y el TFLC
de Kolmogorov, sin embargo antes de definir el teorema es necesario intro-
ducir que quiere decir que una familia de medidas de probabilidad sobre
productos finitos sea consistente.
Definición 2.4 [10] Sea (Ωi,Ai)i∈[0,∞) una colección de espacios medibles,
Ωi :=×ik=0 Ωk y Ai := ⊗ik=0Ak. Además sea (Pi)i∈[0,∞) una colección de medi-
das de probabilidad definidas sobre (Ωi,Ai) para cada i ∈ [0, ∞).
Luego si para i, j ≥ k y A ∈ Ak
Pi(A×Ωk+1 × · · · ×Ωi) = Pj(A×Ωk+1 × · · · ×Ωj),
entonces la colección (Pi)i∈[0,∞) se llama consistente.
Ahora con el propósito de extender la definición a un conjunto arbitrario de
ı́ndices I ⊂ [0, ∞), es necesario definir la proyección canónica.
Definición 2.5 [10] Sea I ⊂ [0, ∞) y (Ωi)i∈I una colección arbitraria de conjuntos
tales que Ω :=×i∈I Ωi denota el espacio producto.
Luego Xi : Ω→ Ωi, ω → ω(i) se llama la proyección a la i-ésima coordenada.
De manera mas general para J ⊂ J′ ⊂ I la función
X J
′
J :×
j∈J′
Ωj →×
j∈J
Ωj, ω′ → ω′|J ,
sea llama proyección canónica. En particular XJ := X IJ .
Definición 2.6 Sea I ⊂ [0, ∞), (Ωi,Ai)i∈I una colección de espacios medibles y
(PJ , J ⊂ I f inito) una familia de medidas de probabilidad sobre (Ωi,Ai) donde
Ωi :=×ik=0 Ωk y Ai := ⊗ik=0Ak.
Luego si
PL = PJ ◦ (X JL)
−1 para todoL ⊂ J ⊂ I finito,
la colección (PJ , J ⊂ I f inito) se llama consistente.
Teorema 2.7 (Teorema de extensión de Kolmogorov (1933)) [10]
Sea I ⊂ [0, ∞) un conjunto arbitrario de ı́ndices y (Ei,B(Ei))i∈I una colección de
espacios medibles donde Ei es un espacio vectorial Polaco. Sea (PJ , J ⊂ I f inito)
una familia consistente de medidas de probabilidad sobre (EJ ,B(E)J) donde
EJ :=×k∈J Ek y B(E)J := ⊗k∈J B(Ek).
Entonces existe una única medida de probabilidad P sobre (Ω,A) tales que
PJ = P ◦ X−1J para todo J ⊂ I.
Nota 2.8 Sea I ⊂ [0∞), luego el proceso estocástico (Xt)t∈I como una colección
de variables aleatorias con valores en el espacio de funciones×
t∈I
Et es muy grande
y poco útil. Entonces por lo general se busca considerar solamente un espacio de
12
2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento
Browniano
funciones con mas propiedades especı́ficas como continuidad.
Ahora si E := Rd entonces el espacio de funciones a considerar es el espacio de
funciones continuas sobre Rd con valores en [0, ∞), C([0, ∞), Rd), o si esto no es
posible, el espacio de funciones continuas a derecha y con lı́mite por izquierda (el
cual con la norma J1, que es una norma que se obtiene a partir de una perturbación
en el tiempo y el espacio de la norma uniforme, forma un espacio métrico separable
y completo conocido como el espacio de Skorokhod ).
Definición 2.9 (Funciones càdlàg, D([0, T], Rd))
Sea T > 0 y D([0, T], Rd) un espacio de funciones con valores en Rd definidas
sobre el intervalo [0, T] tales que para toda función X en D([0, T], Rd) se cumplen
las siguientes condiciones
∀t ∈ [0, T] ∀tn ↓ t, lı́mtn→t X(tn) = X(t), (continua por derecha),
∀t ∈ (0, T] ∀tn ↑ t, lı́mtn→t X(tn) = X(t−), (el lı́mite por izquierda existe),
entonces a el espacio de funciones D([0, T], Rd) se le llama espacio de funciones
càdlàg con valores en [0, T]. En particular cuando T es arbitrariamente grande
obtenemos el espacio de funciones càdlàg sobre [0, ∞), D([0, ∞), Rd).
Nota 2.10 La palabra càdlàg proviene de su acrónimo en francés ”continue à droite,
lı́mite à gauche” (continua por derecha y lı́mite por izquierda).
Ahora describiremos algunas propiedades que cumple el espacio de funcio-
nes continuas sobre el intervalo [0, T], C([0, T], Rd) y que continúan siendo
validas en el espacio de funciones càdlàg D([0, T], Rd).
Teorema 2.11 [1] Sea T > 0 luego,
1. D([0, T], Rd) es un espacio vectorial con suma y multiplicación por escalar punto
a punto.
2. Si f , g ∈ D([0, T], Rd) entonces f g ∈ D([0, T], Rd). Mas aun si f (t) 6= 0 para
todo t ∈ [0, T] entonces 1/ f ∈ D([0, T], Rd).
3. Sea h ∈ C(Rd, Rd) y f ∈ D([0, T], Rd) entonces h ◦ f ∈ D([0, T], Rd).
4. Toda función càdlàg sobre [0, T] se encuentra acotada en intervalos compactos.
5. Toda función càdlàg sobre [0, T] es uniformemente continua por derecha en interva-
los compactos.
6. El lı́mite uniforme de una sucesión de funciones càdlàg en [0, T] es càdlàg.
13
2. Objetos principales y el TFLC
7. Toda función càdlàg sobre [0, T] se puede aproximar uniformemente en intervalos
compactos por una sucesión de funciones escalonadas.
8. Toda función càdlàg sobre [0, T] es Borel medible.
Demostración1. D([0, T], Rd) es un sub-espacio del espacio vectorial de todas
las funciones de [0, T] a Rd, (Rd)[0,T].
Sean f , g ∈ D([0, T], Rd) y (tn)n≥1 una sucesión tales que tn ↓ t entonces
lı́m
tn→t
( f + g)(tn) = lı́m
tn→t
f (tn) + lı́m
tn→t
g(tn) = f (t) + g(t) = ( f + g)(t),
y si λ ∈ R entonces
lı́m
tn→t
λ f (tn) = λ lı́m
tn→t
f (tn) = λ f (t).
De igual manera si (t′n)n≥1 es una sucesión tales que t′n ↑ t (t 6= 0) y
f , g ∈ D([0, T), Rd) entonces
lı́m
t′n→t
( f + g)(t′n) = lı́mt′n→t
f (t′n) + lı́mt′n→t
g(t′n) = f (t−) + g(t−) = ( f + g)(t−),
y si λ ∈ R entonces
lı́m
t′n→t
λ f (t′n) = λ lı́mt′n→t
f (t′n) = λ f (t−).
2. Sean (tn)n≥1 y (t′n)n≥1 dos sucesiones tales que tn ↓ t y t′n ↑ t′ (t′ 6= 0)
respectivamente entonces
lı́m
tn→t
f g(tn) = lı́m
tn→t
f (tn) lı́m
tn→t
g(tn) = f (t)g(t), y
lı́m
t′n→t
f g(t′n) = lı́mt′n→t
f (tn) lı́m
t′n→t
g(tn) = f (t′−)g(t′−),
Ahora si f (t) 6= 0 para todo t ∈ [0, T) entonces
lı́m
tn→t
(1/ f )(tn) = 1/ lı́m
tn→t
f (tn) = 1/ f (t), y
lı́m
t′n→t
(1/ f )(t′n) = 1/ lı́mt′n→t
f (tn) = 1/ f (t′−).
3. Sean (tn)n≥1 y (t′n)n≥1 dos sucesiones tales que tn ↓ t y t′n ↑ t′ (t′ 6= 0)
respectivamente entonces
lı́m
tn→t
h ◦ f (tn) = h( lı́m
tn→t
f (tn)) = h ◦ f (t), y
lı́m
t′n→t
h ◦ f (t′n) = h( lı́mt′n→t
f (tn)) = h ◦ f (t′−).
14
2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento
Browniano
4. Sea K ⊂ [0, T] un subconjunto compacto y p ∈ Rd. Luego queremos ver que
existe r > 0 tales que f (K) ⊂ Br(p).
Sea t ∈ K, como f es continua por derecha, existe δt+ > 0 tales que
| f (s) − f (t)| < 1 para todo s ∈ (t, t + δt+). Luego si rt+ = 1 + | f (t) − p|
entonces
| f (s)− p| ≤ | f (s)− f (t)|+ | f (t)− p| < rt+,
es decir f (s) ∈ Brt+(p) para todo s ∈ (t, t + δt+).
De manera similar como lı́mite por la izquierda de f existe, existe δt− > 0
tales que | f (s) − f (t)| < 1 para todo s ∈ (t − δt−, t). Luego si rt− = 1 +
| f (t−)− p| entonces
| f (s)− p| ≤ | f (s)− f (t)|+ | f (t)− p| < rt−,
por lo tanto f (s) ∈ Brt−(p) para todo s ∈ (t− δt−, t). Ahora para todo s ∈
Ut = (t− δt−, t + δt+), f (s) ∈ Brt(p) donde
rt = máx{rt−, rt+}.
Finalmente como {Ut|t ∈ [0, T]} es un recubrimiento abierto de K, entonces
existe n ∈ N y t1, ..., tn ∈ K tales que K ⊂ U1 ∪ · · · ∪Un y por lo tanto para
todo s ∈ K obtenemos que f (s) ∈ Br(p) en donde r = máx{rt1 , ..., rtn}, es
decir f (K) ⊂ Br(p).
5. Sea ε > 0 , K ⊂ [0, T] compacto y f una función càdlàg. Luego queremos en-
contrar δ > 0 tales que para todo y y para todo x, si x, y ∈ K y y ∈ (x, x + δ)
entonces | f (x)− f (y)| < ε.
De esta manera como f es continua por derecha en cada punto x ∈ K, en-
tonces existen δx > 0 tales que f ((x, x + δx2 )) ⊂ B ε2 ( f (x)).
Si además δ0 ∈ K, como [0, δ0) ∪ ((x, x + δx2 ))x∈K es un recubrimientode K
entonces existe un recubrimiento finito [0, δ0) ∪ ((xi, xi +
δxi
2 ))i=1,...,n .
De esta manera si δ2 := mı́n{
δx1
2 , ...,
δxn
2 }, y si y ∈ (x, x +
δ
2 ) como
x ∈ (xi, xi +
δxi
2 ) para algún i entonces
|y− xi| ≤ |y− x|+ |x− xi| <
δ
2
+
δxi
2
<
δxi
2
+
δxi
2
= δxi ,
es decir y ∈ (xi, xi +
δxi
2 ). Por lo tanto y ∈ (x, x +
δ
2 ) implica que
| f (xi)− f (y)| < ε2 y por lo tanto
| f (x)− f (y)| ≤ | f (x)− f (xi)|+ | f (xi)− f (y)| ≤
ε
2
+
ε
2
= ε.
6. Sea fn una sucesión de funciones càdlàg en [0, T]. Luego si f (x) es el lı́mite
uniforme de fn : [0, T]→ Rd, entonces f es càdlàg si es continua por derecha
y el lı́mite por izquierda existe para todo x. Sea x ∈ [0, T] luego
15
2. Objetos principales y el TFLC
Continuidad por derecha.
Sea ε > 0, luego por definición del lı́mite existe n′ > n tales que
supx∈[0,T] | f (x)− fn′(x)| ≤
ε
3 .
Ahora fn′(x) es continua por la derecha en x por lo tanto existe δ > 0
tales que si y ∈ (x, x + δ) entonces | fn′(x)− fn′(y)| ≤ ε3 .
Pero entonces si y ∈ (x, x + δ),
| f (x)− f (y)| ≤ | f (x)− fn′(x)|+ | fn′(x)− fn′(y)|+ | fn′(y)− f (y)|
≤ ε
3
+
ε
3
+
ε
3
= ε.
Lı́mite por izquierda existe.
Sea ε > 0, luego por definición del lı́mite existe n′ > n tales que
| f (x−)− fn′(x−)| ≤ ε3 .
Ahora el lı́mite por izquierda en x de fn′ existe, por lo tanto existe
δ > 0 tales que si y ∈ (x− δ, x) entonces | fn′(x−)− fn′(y)| ≤ ε3 .
Pero entonces si y ∈ (x− δ, x),
| f (x−)− f (y)| ≤ | f (x−)− fn′(x−)|+ | fn′(x−)− fn′(y)|+ | fn′(y)− f (y)|
≤ ε
3
+
ε
3
+
ε
3
= ε.
7. Sea δ > 0 y 0 = x0 < ... < xN = T una sucesión de puntos tales que
0 < xn+1 − xn < δ para n = 0, ..., N − 1. Entonces es posible definir una
función escalón dada por
g(x) =
{
f (xn), xn ≤ x < xn+1
f (xN−1), x = T.
Luego por 5. f es uniformemente continua por derecha, por lo tanto dado
ε > 0 existe δ > 0 tales que
| f (x)− f (y)| < ε si y ∈ [x, x + δ).
Ahora para cada x ∈ [0, T) existe n tales que xn ≤ x ≤ xn+1 . Pero entonces
|xn − x| ≤ |xn+1 − xn| < δ,
y por lo tanto
| f (x)− g(x)| = | f (x)− f (xn)| < ε.
Ahora si x = T,
|xN−1 − x| ≤ |xN − xN−1| < δ,
y por lo tanto
| f (x)− g(x)| = | f (x)− f (xN−1)| < ε
16
2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento
Browniano
8. Toda función càdlàg sobre [0, T] es Borel medible ya que por 7. toda función
càdlàg se puede aproximar por funciones escalón y las funciones escalón
son Borel medibles. �
Nuestro interés en este trabajo se encuentra en el espacio de Skorkhod so-
bre el intervalo [0, ∞). Sin embargo para esto es necesario primero dotar
con una topologı́a que permita construir procesos estocásticos al espacio
D([0, T], Rd) , para ası́ obtener el espacio de Skorokhod sobre el intervalo
[0, T].
Definición 2.12 (Espacio de Skorokhod, D([0, T], Rd)) Sea T > 0 y
D([0, T], Rd) el espacio de funciones càdlàg sobre el intervalo [0, T]. Además para
cada T > 0 consideremos la métrica sobre D([0, T], Rd)
dT(x, y) := ı́nf
λ∈Λ
{sup
s<t
{log λ(t)− λ(s)
t− s } ∨ supt∈[0,T]
|x(t)− y(λ(t))|}, (2.1)
donde Λ es el espacio de funciones de [0, T] a [0, T] continuas y estrictamente cre-
cientes.
Luego al espacio métrico (D([0, T], Rd), dT) se llama el espacio de Skorokhod sobre
el intervalo [0, T], que denotaremos simplemente como D([0, T], Rd).
Ejemplo 2.13 Sea (tn)n≥1 una sucesión de números reales tales que tn → 1 y sean
xn, y ∈ D([0, 2], R) tales que xn = 1[0,tn], y = 1[0,1].
Luego si λn(t) ∈ Λ tales que,
λn :=
{
1
tn t si 0 ≤ t ≤ tn
1
2−tn t + 2
1−tn
2−tn si tn ≤ t ≤ 2.
Ahora como |xn − y(λn)| = 0 para todo n ∈N y lı́mn→∞ log(λn(t)−λn(s)t−s ) = 0,
dT(xn, y) := ı́nf
λ∈Λ
{sup
s<t
{log(λ(t)− λ(s)
t− s )} ∨ supt∈[0,T]
|xn(t)− y(λn(t))|} = 0.
Nota 2.14 El espacio D([0, T], Rd) es un espacio métrico separable y completo es
decir es un espacio Polaco.
Definición 2.15 (Espacio de Skorokhod, D([0, ∞), Rd)) Sea D([0, ∞), Rd) el
espacio de funciones càdlàg sobre el intervalo [0, ∞). Ahora para cada entero m > 0
consideremos la función
gm(t) =

1 si t ≤ m− 1,
m− t si m− 1 < t < m,
0 si t ≥ m.
17
2. Objetos principales y el TFLC
Luego para x, y ∈ D([0, ∞), Rd) es posible definir la siguiente métrica
d∞(x, y) :=
1
2m
∞
∑
m=1
(1∧ dm(gmx, gmy)), (2.2)
de manera que (D([0, ∞), Rd), d∞) es un espacio métrico denominado el espa-
cio de Skorokhod sobre el intervalo [0, ∞), que denotaremos simplemente como
D([0, ∞), Rd).
Si observamos la ecuación (2.2) que define a d∞, el papel de las funciones gm
es simplemente restringir las funciones x, y ∈ D([0, ∞), Rd) a D([0, T], Rd)
de manera continua.
Nota 2.16 (H,A) es un espacio de Borel si existe un conjunto de Borel B ∈
B(R) isomorfo a H como espacios medibles. Por lo tanto (D([0, ∞), Rd),Ad∞) es
isomorfo a (B,B(B)) donde Ad∞ es la σ-álgebra generada por la topologı́a inducida
por la métrica d∞ [10]. La importancia de que el espacio de Skorokhod sea un espacio
Polaco radica en que los espacios Polacos son espacios de Borel y ser un espacio de
Borel es una condición necesaria para que la medida sobre el espacio de caminos
exista, es decir es una condición necesaria para que el proceso estocástico exista.
Definición 2.17 (Filtración de σ-álgebra) Sea (Ω,A, P) un espacio de proba-
bilidad y (Ft)t∈[0,∞) una sucesión de sub-σ-álgebras de A tales que para t < s
Fs ⊂ Ft, luego (Ft)t∈[0,∞) se llama filtración en A.
Ejemplo 2.18 Dado S un espacio vectorial Polaco y un proceso estocástico (Xt)t∈[0,∞),
sobre un espacio de probabilidad (Ω,A, P), con valores sobre el espacio medible
(S,B(S)). La sucesión de σ-álgebras (Ft)t∈[0,∞) en dondeFt := σ(
⋃
s≤t X−1s (B(S)))
es una filtración y se le llama la filtración natural asociada al proceso (Xt)t∈[0,∞).
Ahora presentaremos algunos propiedades de regularidad que asumiremos
que cumplen las filtraciones.
Definición 2.19 (Continuidad por derecha) Sea (Ω,A, P) un espacio de proba-
bilidad y (Ft)t∈[0,∞) una filtración en A, luego se dice que es continua por derecha
si
Ft =
⋂
u;u>t
Fu ∀t ∈ [0, ∞)
Definición 2.20 (Completo) Sea (Ω,A, P) un espacio de probabilidad y (Ft)t∈[0,∞)
una filtración en A, luego la filtración (Ft)t∈[0,∞) es completa, si F0 contiene a to-
dos los conjuntos P-nulos de A.
Nota 2.21 Una filtración continua por derecha y completa se llama filtración
canónica.
Definición 2.22 (Martingala d dimensional) Sea (Ω,A, P) un espacio de pro-
babilidad, (Ft)t∈[0,∞) una filtración y (Mt)t∈[0,∞) un proceso estocástico con valores
en (Rd,B(Rd)). Luego si
18
2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento
Browniano
1. E[|Mt|] :=
∫
|Mt(ω)|dP(dω) < ∞ para cada t ∈ [0, ∞) ,
2. Mt es Ft-medible para cada t ∈ [0, ∞) ,
3. E[Mt|Fs] = Ms P-c.s para t > s,,
entonces a (Mt)t∈[0,∞) es una (Ft)t≥0-martingala (la esperanza condicional se defi-
ne como en el A. Klenke, Probability Theory [10]).
Nota 2.23 Los procesos que cumplen la condición 3 de la definición 2.22 se llaman
procesos adaptados.
Definición 2.24 (Proceso adaptado) Sea (Ω,A, P) un espacio de probabilidad,
S un espacio vectorial Polaco, (S,B(S)) el espacio medible, F := (Ft)t∈[0,∞) una
filtración en B(S) y (Xt)t∈[0,∞) un proceso estocástico con valores en E, tales que
Xt es Ft-medible para cada t en [0, ∞), luego Xt se llama F -adaptado.
Nota 2.25 Todo proceso es adaptado con respecto a su filtración natural.
En el presente trabajo estaremos interesados en una clase particular de va-
riables aleatorias con valores positivos llamadas tiempos aleatorios, en parti-
cular estudiaremos el tiempo de primera llegada de un proceso estocástico
aun conjunto abierto. En particular si τ es un tiempo de primera llegada aso-
ciado a un proceso estocástico (Xt)t≥0, y (Ft)t≥0 es una filtración asociada a
este proceso (por ejemplo la filtración natural) entonces los eventos {τ ≤ t}
son Ft-medibles.
Definición 2.26 (Tiempo de parada) Sea τ una variable aleatoria definida sobre
el espacio de probabilidad (Ω,A, P), con valores en [0, ∞) ∪ {∞} y con filtraciónasociada (Ft)t∈[0,∞). Luego si para cualquier t ∈ [0, ∞)
{τ ≤ t} ∈ Ft,
τ se llama un tiempo de parada.
Definición 2.27 (Tiempo de primera llegada a un abierto) Sea (Ω,F , P) un
espacio de probabilidad y (Xt)t≥0 un proceso estocástico asociado a este espacio
de probabilidad con valores en Rd y con filtración natural (Ft)t≥0. Además sea
A ⊂ Rd un abierto, luego
τA := ı́nf{t > 0 : X(t) ∈ A},
se llama tiempo de primera llegada a un abierto A.
19
2. Objetos principales y el TFLC
Lema 2.28 [16], [19] Sea (X(t))t≥0 un proceso estocástico con caminos continuos
por derecha, (Ft)t≥0 la filtración canónica asociada a (X(t))t≥0 y A ⊂ Rd un
conjunto abierto. Luego el tiempo de primera llegada τA satisface,
{τA < t} ∈ Ft.
En particular si (Ft+)t≥0 :=
⋂
u>t Fu entonces,
{τA ≤ t} ∈ Ft+,
es decir τA es un tiempo de parada con respecto a (Ft+)t≥0.
Demostración En primer lugar para t > 0,
{τA < t} =
⋃
Q+3r≤t
{X(r) ∈ A} ∈ Ft.
” ⊂ ”, si τA(ω) < t, entonces existe s < t tales que X(s, ω) ∈ A. Ahora como
los caminos son continuos por derecha, existe r ∈ Q tales que s < r < t y
X(r, ω) ∈ A. Por lo tanto ω ∈ ⋃Q+3r≤t{X(r) ∈ A}.
” ⊃ ”, sea ω ∈ {X(r) ∈ A} para algún r ∈ (0, t] ∩Q. Como A es abierto y
t→ X(t, ω) es continua por derecha, tenemos que τA(ω) < r ≤ t.
En segundo lugar,
{τA ≤ t} =
⋂
n≥1
{τA < t +
1
n
} ∈
⋂
Ft+ 1n = Ft+. �
Los tiempos de parada resultan ser herramientas muy útiles para localizar
un proceso, ya que como se vera a continuación para el caso de las martin-
galas, estos permiten que cada camino del proceso estocástico se mantenga
constante para tiempos posteriores a un tiempo de parada τ.
Definición 2.29 (Martingala local d-dimensional) Sea (Ω,A, P) un espacio
de probabilidad, (Ft)t∈[0,∞) una filtración y (Mt)t∈[0,∞) un proceso estocástico con
valores en (Rd,B(Rd)), tales que Mt es F -adaptado. Luego si existe una sucesión
de tiempos de parada (τn)n∈[0,∞) tales que lı́mn→∞ τn = ∞ casi siempre de manera
que el proceso (Mτn∧t)t≥0 es una F -martingala uniformemente integrable, entonces
(Mt)t≥0 se llama una F -martingala local.
Toda martingala es una martingala local, solo basta considerar la sucesión de
tiempos de parada (τn)n≥1 donde τn := ∞. Por otro lado no toda martingala
local es una martingala, un ejemplo se encuentra en la teorı́a del juego, mas
precisamente en el juego de lanzar una moneda. La idea es pensar que se
inicia el juego con un peso y se lanza la moneda, si el resultado es cara
entonces el jugador gana y se queda con el peso, de lo contrario el jugador
deberá duplicar la apuesta y la estrategia consiste en continuar duplicando
la apuesta hasta que el jugador gane y pueda dejar de jugar con la ganancia
neta de un dolar. De esta manera en el siguiente ejemplo se formaliza esta
estrategia de juego.
20
2.1. Objetos principales: martingalas, la variación cuadrática, el movimiento
Browniano
Ejemplo 2.30 En primer lugar definamos la sucesión de variables aleatorias (Zn)n≥1
en donde Zn representa la ganancia neta justo antes del lanzamiento n-ésimo. Aho-
ra si ε1, ..., εn, ... son variables aleatorias que representan el resultado del n-ésimo
lanzamiento de la moneda, es decir P(εn = ±1) = 12 en donde 1 representa cara y
-1 representa sello, entonces Z1 = 0 y,
Zn =
{
1, si Zn−1 = 1,
Zn−1 + εn(1− Zn−1), de lo contrario.
En segundo lugar para obtener una martingala local podemos acelerar la escala
temporal y definir el siguiente proceso estocástico,
Xt =
{
Zn, si 1− 1/n ≤ t ≤ 1− 1/(n + 1),
1, si t ≥ 1.
Luego si (Ft)t≥0 es la filtración natural de (Xt)t≥0 y τn = ı́nf{t| |Xt| ≥ n}
entonces (Xt∧τn)t≥0 es una martingala local en el intervalo [0, 1).
Ahora si τn := ı́nf{t : |Xt| ≥ n} entonces por el Teorema de Doob Xt∧τn es una
martingala acotada uniformemente para t < 1, continua en t = 1 y constante para
t ≥ 1 por lo tanto es una martingala local. Sin embargo E[X1] = 1 6= E[X0] = 0
y por lo tanto (Xt)t≥0 es una martingala local pero no una martingala.
Para poder proseguir con este trabajo es importante considerar cuatro tipos
de convergencia en probabilidad, convergencia casi segura o casi siempre,
convergencia en probabilidad, convergencia en Lp y convergencia en distri-
bución. Por lo tanto, para el lector que no se sienta cómodo con estos temas
se recomienda ver el apéndice.
Ahora antes de introducir la variación cuadrática opcional es necesario defi-
nir la σ-álgebra generada por los procesos estocásticos càdlàg y adaptados,
la cual es una σ-álgebra sobre Ω pero también sobre el tiempo. La razón de
definir una σ-álgebra, A, sobre Ω×R+ se debe a que en ocasiones se quie-
re ver un proceso estocástico como una función medible de (Ω×R+,A) a
(Rd,B(Rd) y para eso es necesario imponer condiciones de mensurabilidad
sobre el producto.
Definición 2.31 (σ-álgebra opcional) Sea (Ω,A, P) un espacio de probabilidad
y (Ft)t≥0 una filtración en A. Luego la σ-álgebra O sobre Ω×R+ que es generada
por todos los procesos càdlàg y adaptados (considerados como funciones sobre Ω×
R+) se llama σ-álgebra opcional. [8]
Definición 2.32 (Procesos opcional) Sea (Ω,A, P) un espacio de probabilidad
y F : (Ft)t≥0 una filtración en A. Luego si (Xt)t≥0 es un proceso estocástico sobre
(Ω,A, P) y además O-medible (donde O es la σ-álgebra opcional con respecto a
(Ω,A,F , P)) entonces el proceso estocástico (Xt)t≥0 se llama opcional.
21
2. Objetos principales y el TFLC
Ahora es necesario introducir un tipo de proceso estocástico que se obtiene
a partir de otro proceso estocástico, la variación cuadrática opcional. La cual
se define a partir del siguiente teorema.
Definición 2.33 (variación cuadrática opcional) Sea (Ω,A, P) un espacio de
probabilidad y (M(t))t∈[0,∞), una F -martingala local, nula en cero y con valores en
el espacio Polaco (R,B(R)), luego
[M](t) := lı́m
n→∞
bt2nc+1
∑
i=1
(M(tn,i)−M(tn,i−1))2,
donde tn,i := t ∧ i2n y el modo de convergencia del lı́mite es en probabilidad.
Nota 2.34 A partir de la definición 2.33 es posible definir la co-varianza entre dos
F -martingalas locales, nulas en cero y con valores en el espacio Polaco (R,B(R)),
M1, M2 como
[M1, M2](t) := lı́mn→∞
bt2nc+1
∑
i=1
(M1(tn,i)−M1(tn,i−1))(M2(tn,i)−M2(tn,i−1)),
Por otro lado la variación cuadrática opcional también se puede definir a
través del siguiente resultado de Meyer.
Teorema 2.35 (Descomposición de Meyer para martingalas locales en R)
Sea (Ω,A, P) un espacio de probabilidad, F := (Fn)n≥1 una filtración en A y
(R,B(R)) el espacio medible. Además sea (Mt)t∈[0,∞) una F -martingala local nu-
la en cero con valores en R, luego
1. Si (τn)n≥1 es la sucesión tiempos de parada que localiza al proceso, es decir es una
sucesión de tiempos de parada tales que (Mτn∧t)t∈[0,∞) es una martingala local para
cada n, y
2. si además existe un proceso creciente, adaptado y con variación finita sobre intervalo
acotados, entonces (M2(t)− [M](t))t∈[0,∞) es una martingala local. [20].
Finalmente el ultimo elemento que debemos introducir antes de enunciar el
teorema funcional del lı́mite central es un movimiento Browniano, ya que el
lı́mite de la sucesión de martingalas sera un movimiento Browniano.
Definición 2.36 (Movimiento Browniano estándar) [21] Sea (Ω,A, P) un es-
pacio de probabilidad y B = (B(t))t≥0 un proceso estocástico con valores en Rd
tales que
1. B(0, ω) = 0, para casi todo ω
22
2.2. Enunciado del TFLC para martingalas con saltos acotados
2. B(tn)− B(tn−1), ..., B(t1)− B(t0) son independientes para todo n ≥ 0 y 0 = t0 ≤
t1 ≤ · · · ≤ tn < ∞ (incrementos independientes).
3. B(t)− B(s) ∼ B(t + h)− B(s + h) para todo 0 ≤ s < t, h ≥ −s.
4. B(t) − B(s) ∼ N(0, Id(t − s)), donde N(0, Id(t − s)) es una distribución nor-
mal d-dimensional centrada en cero con matriz (de tamaño d × d) de co-varianza
Id(t− s).
5. t→ B(t, ω) es continua para todo ω.
Entonces B = (B(t))t≥0 se llama movimiento Browniano estándar. Por otro lado
si se cumplen las condiciones 1., 2., 3., 5. y B(t)− B(s) ∼ N(0, C(t− s)), donde
N(0, C(t− s))es una distribución normal d-dimensional centrada en cero con ma-
triz de co-varianza C, entonces B = (B(t))t≥0 se llama movimiento Browniano
centrada en cero con matriz de co-varianza C.
2.2. Enunciado del TFLC para martingalas con saltos
acotados
En esta sección se expondrá el Teorema Funcional del lı́mite Central para
martingalas bajo la hipótesis extra de que para cada camino los saltos se
encuentran acotados. Para poder cuantificar la idea de que los saltos se en-
cuentren acotados definiremos la función J(X, T) que mide la magnitud del
máximo salto hasta el tiempo T dado por una función X ∈ D([0, ∞), Rd),
J(X, T) := sup
0≤t≤T
|X(t)− X(t−)|, (2.3)
donde X(t−) := lims↑tX(s) denota el lı́mite por izquierda de X en el punto
t y | · | la norma euclidiana en Rd.
Por otro lado consideramos el espacio de probabilidad (Ω,A, P) y
Fn := ((Fn,t)t≥0)n≥1 una sucesión de filtraciones asociadas a este espacio.
Luego (Mn(t))t≥0 := (Mn,1(t), ..., Mn,k(t))t≥0 es una sucesión de Fn-martingalas
locales (donde cada Fn corresponde a la filtración asociada a Mn) sobre el
espacio de caminos D([0, ∞), Rd). Además consideraremos que para t igual
a cero Mn es el vector nulo en Rd, es decir Mn(0) = (0, ..., 0). Por ultimo
C := (ci,j) denota una matriz de co-varianza (una matriz simétrica, definida
positivamente y con entradas reales).
23
2. Objetos principales y el TFLC
Ahora consideraremos las siguientes hipótesis:
Hipótesis :
Las martingalas locales tienen saltos acotados uniformemente y la cota
es asintóticamente despreciable. Es decir, existe (bn)n≥1 una sucesión
de números reales y n0 tales que para todo T > 0,
máx
i∈{1,...,d}
J(Mn,i, T) ≤ bn ∀n ≥ n0, P− c.s, (2.4)
y bn → 0 cuando n→ ∞,
para cada par (i, j) con 1 ≤ i, j ≤ d y t > 0,
[Mn,i, Mn,j](t)
d−→ ci,jt (2.5)
en R cuando n→ ∞.
Nota 2.37 En la segunda hipótesis del TFLC para martingalas la convergencia en
distribución implica la convergencia en probabilidad ya que el lı́mite al que converge
la co-varianza es constante.
Teorema 2.38 (TFLC para martingalas con saltos acotados) Sea (Ω,A, P) un
espacio de probabilidad y (Fn)n≥1 en donde Fn := (Fn,t)t≥0 una sucesión de fil-
traciones de A. Sea (Mn)n≥1 una sucesión de Fn-martingalas locales en donde
(Mn(t))t≥0 := (Mn,1(t), ..., Mn,d(t))t≥0.
Si la sucesión de Fn-martingalas locales cumplen hipótesis (2.4) y (2.5), entonces
existe un movimiento Browniano d-dimensional (Mt)t≥0 centrado en cero y con ma-
triz de co-varianza Ct, donde C es una matriz simétrica, no negativa con entradas
reales, tales que Mn
d−→ M en Dd([0, ∞), Rd) cuando n→ ∞.
2.3. Ejemplos: procesos de Poisson compuestos com-
pensados y caminatas aleatorias
A lo largo de este trabajo se estudiaran tres ejemplos de sucesiones de pro-
cesos estocásticos y se observara bajo cuales hipótesis se cumple el Teorema
Funcional del lı́mite Central para martingalas. De esta manera los ejemplos
a estudiar son una sucesión de procesos re-escalados compuestos compensa-
dos de Poisson y una sucesión de caminatas aleatorias con re-escalamiento
gaussiano.
Procesos de Poisson
Definición 2.39 (Procesos de Poisson) [15],[4] Sea (Ω,A, P) un espacio de pro-
babilidad y (τn)n≥1 una sucesión de variables aleatorias i.i.d definidas sobre (Ω,A, P)
24
2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas
aleatorias
tales que τ1 ∼ Exp(λ). Luego σn := τ1 + · · ·+ τn es el n-ésimo tiempo de llegada y
si N(t) := máx{n ∈ [0, ∞); σn ≤ t} entonces N(t) tiene distribución de Poisson
con parámetro λt.
Ahora si la sucesión de tiempos aleatorios (τn)n≥1 es creciente, es decir τn <
τn+1 para todo n > 1 entonces
Los incrementos son independientes, es decir para todo n ≥ 1 los in-
crementos N(t1)− N(t0), ..., N(tn)− N(tn−1) son independientes y
los incrementos son estacionarios, es decir N(t + h) − N(s + h) ∼
N(t)− N(s) ∼ Poiss(λ(t− s)) para todo h ≥ 0 y 0 ≤ s ≤ t,
y (N(t))t≥0 se llama proceso de Poisson. En particular se puede escribir
como
N(t)(ω) =
∞
∑
k=1
1[σk(ω),∞)(t), (2.6)
en donde el lı́mite de la suma es c.s.
Definición 2.40 (Proceso de Poisson compensado) Sea (Ω,A, P) un espacio
de probabilidad y (N(t))t>0 un proceso de Poisson sobre (Ω,A, P) con parámetro
λ > 0. Luego un proceso de Poisson compensado se obtiene al centrar el proceso
y como E[N(t)] = λt, entonces (N(t) − λt)t>0, se llama un proceso de Poisson
compensado.
Lema 2.41 Sea (Ω,A, P) un espacio de probabilidad, (N(t))t>0 un proceso de
Poisson sobre el espacio (Ω,A, P) y F = (Ft)t≥0 la filtración natural asociada a
(Nt − λt)t>0, donde Ft := (σ(
⋃
s≤t N−1s (B))) y B ∈ (Rd) es un boreliano en Rd.
Entonces el proceso compensado de Poisson (Nt − λt)t>0 es una F -martingala.
Demostración : En primer lugar para cada t el proceso N(t)− λt es integra-
ble,
E[|N(t)− λt|] ≤ E[|N(t)|] + E[|λt|]
≤ E[|N(t)|] + |λt| < ∞.
En segundo lugar para 0 < s < t,
E[N(t)− λt|Fs] = E[N(t)− N(s) + N(s)− λt|Fs]
= E[N(t)− N(s)|Fs] + E[N(s)|Fs]− λt
= E[N(t)− N(s)] + N(s)− λt, porque N(t)− N(s) ⊥ N(s)
y N(s) es Fs −medible,
= λt− λs + N(s)− λt
= N(s)− λs, P− c.s. �
25
2. Objetos principales y el TFLC
En ocasiones resulta de mas utilidad considerar procesos de Poisson para los
cuales los saltos no son siempre de una unidad. Por tal motivo resulta útil
construir un proceso de Poisson con salto variable a partir de un proceso de
Poisson N(t). De esta manera la idea es considerar una sucesión de variables
aleatorias (Zk)k≥1 con valores en Rd tales que su suma desde 1 hasta un
tiempo N(t) es el nuevo proceso de Poisson con saltos variables, donde los
saltos de este nuevo proceso se encuentran determinados por esta sucesión
de variables aleatorias,(Zk)k≥1 .
Definición 2.42 (Proceso de Poisson compuesto ) Sea (Ω,A, P) un espacio de
probabilidad y (Zk)k≥1 una sucesión de variables aleatorias i.i.d sobre (Ω,A, P) con
valores en Rd y con distribución µ independiente del proceso de Poisson (N(t))t>0.
Luego el proceso estocástico (Y(t))t≥0 := (∑
N(t)
k=1 Zk)t≥0 se llama proceso compuesto
de Poisson.
Definición 2.43 (Proceso de Poisson compuesto compensado )
Sea (Ω,A, P) un espacio de probabilidad y (Y(t))t≥0 := (∑N(t)k=1 Zk)t≥0 un pro-
ceso de Poisson compensado (definición 2.42) definido sobre (Ω,A, P), tales que
E[Z1] < ∞. Luego el procesos estocástico (M(t))t≥0 := (Y(t)− E[Y(t)])t≥0 se
llama un proceso de Poisson compuesto compensado.
Lema 2.44 Sea (Ω,A, P) un espacio de probabilidad y (Y(t))t≥0 := (∑N(t)k=1 zk)t≥0
un proceso de Poisson compensado (definición 2.42) definido sobre (Ω,A, P). Luego
si (M(t))t≥0 es un proceso compuesto compensado de Poisson, donde
(M(t)) := Y(t)−E[Y(t)] y (Ft)t≥0 es la filtración natural asociada a (M(t))t>0.
Entonces (M(t))t>0 es una Ft-martingala.
Demostración : En primer lugar E[Y(t)] = λtE[Z1] (ver apéndice).
En segundo lugar M(t) es integrable para toda t,
E[|Y(t)− λtE[Z1]|] ≤ E[|Y(t)|] + E[|λtE[Z1]|]
≤ E[
N(t)
∑
k=1
|Zk|] + |λt|E[|Z1|]
= E[N(t)]E[|Z1|] + |λt|E[|Z1|]
= E[|Z1|](λt + |λt|) < ∞.
26
2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas
aleatorias
En tercer lugar
E[Y(t)− λtE[Z1]|Fs] = E[Y(t)−Y(s) + Y(s)− λtE[Z1]|Fs]
= E[Y(t)−Y(s)|Fs] + E[Y(s)|Fs]− λtE[Z1]
= E[Y(t)−Y(s)] + Y(s)− λtE[Z1|Fs],
porque Y(t)−Y(s) ⊥ Y(s) y
Y(s) es Fs −medible,
= λtE[Z1]− λsE[Z1] + Y(s)− λtE[Z1]
= Y(s)− λsE[Z1]. �
Proposición 2.45 Sea (Ω,A, P) un espacio de probabilidad, (Zk)k≥1 una sucesión
de variables aleatorias i.i.d con distribución µ, e independientes de N(t), donde
Zk := (Zk,1, ..., Zk,d). Además supongamos que existe R < ∞ tales que µ(BR(0)) =
1 donde BR(0) es la bola de radio R centrada en 0. Luego si (M(t))t≥0 es un proceso
de Poisson compuesto compensado definido sobre (Ω,A, P) es decir
A(t) := Y(t)−E[Y(t)] :=
N(t)
∑
k=1
Zk −E[Y(t)].
Entonces el proceso de Poisson re-escalado,
Mn(t) :=
A(nt)√
n
, (2.7)
converge en distribución a un movimiento Browniano.
Demostración En primer lugar los saltos se encuentran uniformemente aco-
tados, ya que para T > 0
J(Mn(t), T) =1√
n
sup
0≤t≤T
|Y(t)−����λtE[Z1] − (Y(t−)−����
��
λt−E[Z1])|
=
1√
n
máx
1≤k≤N(nT)
|Zk|
≤ R√
n
n→∞−−−→ 0, con probabilidad 1.
En segundo lugar debemos hallar la variación cuadrática de Mn. De esta ma-
nera si t > 0, para cada n′ ∈ [0, ∞) existe una partición Πn′ := (tj)j∈{1,...,n′}
(donde los tj depende de n′) del intervalo [0, t] tales que
|Πn′ | := máxtj |tj − tj−1| entonces para i ≤ k, si Mn,i denota la i-ésima com-
27
2. Objetos principales y el TFLC
ponente de Mn entonces
[Mn,i, Mn,i](t′) = [
Ant,i√
n
,
Ant,i√
n
]
= lı́m
|Πn′ |→0
n′
∑
j=1
(
Antj,i√
n
−
Antj−1,i√
n
)2
= lı́m
|Πn′ |→0
n′
∑
j=1
1
n
(
N(ntj)
∑
j=1
Zj,i −E[Yi(ntj)]−
N(ntj−1)
∑
j=1
Zj,i + E[Yi(ntj−1)])2
=
1
n
Nnt
∑
j=1
Z2j,i.
Luego como
1
n
N(nt) =
1
n
n
∑
k=1
(N(kt)− N((k− 1)t)),
y además como para cada n y cada t, los incrementos N(kt)− N((k− 1)t)
son independientes y N(kt)− N((k − 1)t) ∼ Poiss(λt) entonces usando la
ley fuerte de los grandes números,
1
n
N(nt) n→∞−−−→ E[N(kt)− N((k− 1)t)] = λt P− c.s.
De esta manera existe K ⊂ Ω tales que P(Ω\K) = 1 y para todo ω ∈ K dado
ε > 0 existe n′(εω) > 0 tales que |N(nt)n − λt| < ε para n ≥ n′(εω), luego
N(nt)
∑
j=1
Z2j
n
=
N(nt)
n n
∑
j=1
Z2j
n
≤
n(λt+ε)
∑
j=1
Z2j
n
para n ≥ n′(ω)
= (λt + ε)
n(λt+ε)
∑
j=1
Z2j
n(λt + ε)
.
Por lo tanto
lı́m
n→∞
N(nt)
∑
j=1
Z2j
n
≤ lı́m
n→∞
(λt + ε)
n(λt+ε)
∑
j=1
Z2j
n(λt + ε)
.
Ahora usando el teorema fuerte de los grandes números obtenemos que
lı́m
n→∞
(λt + ε)
n(λt+ε)
∑
j=1
Z2j
n(λt + ε)
= (λt + ε)E[Z21 ] P− c.s,
28
2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas
aleatorias
por lo tanto
lı́m
n→∞
N(nt)
∑
j=1
Z2j ≤ (λt + ε)E[Z2j ]
= (λt + ε)E[Z21 ], para n ≥ n′(εω) P− c.s.
De igual manera
N(nt)
∑
j=1
Z2j
n
≥ (λt− ε)
n(λt+ε)
∑
j=1
Z2j
n(λt− ε) ,
y por lo tanto
lı́m
n→∞
N(nt)
∑
j=1
Z2j
n
≥ (λt− ε)E[Z2j ] = (λt− ε)E[Z21 ], P− c.s.
Pero entonces (λt− ε)E[Z21 ] ≤ lı́mn→∞ ∑
N(nt)
j=1 Z
2
j ≤ (λt + ε)E[Z21 ] y como el
ε es arbitrariamente pequeño
lı́m
n→∞
N(nt)
∑
j=1
Z2j
n
= λtE[Z21 ], P− c.s.
Finalmente como convergencia casi segura implica convergencia en distribu-
ción, [Mn, Mn](t)
d−−−→
n→∞
λE[Z21 ]t.
De igual manera para i 6= l y i, l ≤ k
[Mn,i, Mn,l ](t) = [
Ant,i√
n
,
Ant,l√
n
]
= lı́m
|Πn′ |→0
n′
∑
j,l=1
(
Antn′j ,i√
n
−
Antn′j−1,i√
n
)(
Antn′j ,l√
n
−
Antn′j−1,l√
n
)
=
1
n
Nnt
∑
j,l=1
Zj,iZj,l .
De manera equivalente a el caso en el que i = l, como N(nt)n
n→∞−−−→ λt P-c.s
(usando el teorema fuerte de los grandes números) obtenemos que
1
n
N(nt)
∑
j=1
Zj,iZj,l
n→∞−−−→ λtE[Zj,iZj,l ] P− c.s,
29
2. Objetos principales y el TFLC
entonces como convergencia casi segura implica convergencia en distribu-
ción,
[Mn,i, Mn,l ](t)
d−−−→
n→∞
λE[Z1,iZ1,l ]t = λt
∫
Z1,iZ1,lµ⊗ µ,
Finalmente como el proceso de Poisson re-escalado se encuentra acotado
uniformemente y como la variación cuadrática opcional, [Mn,i, Mn,l ] conver-
ge en distribución al valor constante λE[z1,i, z1,l ], aplicando el TFLC para
martingalas Mn converge en distribución a un movimiento con media cero
y covarianza
ci,j =
{
λE[Z21 ] si i = l
λE[Z1,iZ1,l ] si i 6= l.
�
Caminatas aleatorias
Definición 2.46 (Caminata aleatoria en Z) Sea (Xn)n≥1 una familia de varia-
bles aleatorias i.i.d, sobre un espacio de probabilidad (Ω,A, P), tales que
P(Xn = 1) = p y P(Xn = −1) = 1− p, (2.8)
donde p ∈ [0, 1].
Luego si Sn := ∑nk=1 Xk entonces (Sn)n≥1 se llama caminata aleatoria sobre Z.
Nota 2.47 Ahora si p = 12 entonces la caminata aleatoria es simétrica y una mar-
tingala discreta.
Definición 2.48 (Interpolación lineal de una caminata aleatoria) [21]
Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un espacio de probabili-
dad (Ω,A, P) y Sn = ∑nk=1 Xk una caminata aleatoria simétrica sobre Z. Luego
Sn(t) :=
1√
n
(Sbntc − (nt− bntc)Xbntc+1), t ∈ [0, 1],
se llama interpolación lineal con escalamiento Gaussiano de la caminata aleatoria
Sn.
Lema 2.49 Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un espacio
de probabilidad (Ω,A, P) y Sn = ∑tk=1 Xn una caminata aleatoria simétrica sobre
Z.
Luego Sn(t) := 1√n (Sbntc − (nt − bntc)Xbntc+1) es una martingala para cada n
con respecto a la filtración natural (Ft)t>0 := σ(∪s<t(Sn)−1(B)) tales que
B ∈ B(Rd).
30
2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatas
aleatorias
Demostración En primer lugar es integrable ya que
E[|Sn(t)|] = E[| 1√
n
(Sbntc − (nt− bntc)Xbntc+1)|],
≤ 1√
n
[E[|Sbntc|] + |nt− bntc|E[Xbntc+1]]
≤ 1√
n
|[E[Sbntc]|+ |nt− bntc||E[Xbntc+1]|],
, por la desigualada de Jensen,
=
1√
n
(bntc1 + |nt− bntc|1) < ∞.
En segundo lugar si s < t, tenemos que
Sbntc + (nt− bntc)Xbntc+1 − (Sbnsc + (n(t− s)− bnsc)Xbnsc+1)
∼ Sbn(t−s)c + (ns− bn(t− s)c)Xbn(t−s)c+1 (2.9)
Sbnsc + (ns− bnsc)Xbnsc+1 es Fs-medible (2.10)
Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1 es independiente de Fs.
(2.11)
Por lo tanto
E[Sn(t)|Fs]
=
1√
n
E[Sbntc + (nt− bntc)Xbntc+1|Fs]
=
1√
n
E[Sbnsc + (ns− bnsc)Xbnsc+1 + (Sbntc + (nt− bntc)Xbntc+1
− (Sbnsc + (ns− bnsc)Xbnsc+1))|Fs]
=
1√
n
E[Sbnsc + (ns− bnsc)Xbnsc+1
+ Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1|Fs], por (2.9),
=
1√
n
(Sbnsc + (ns− bnsc)Xbnsc+1)
+ E[Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1], por (2.10) y (2.11),
=
1√
n
(Sbnsc + (ns− bnsc)Xbnsc+1)
= Sn(s). �
Proposición 2.50 Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un
espacio de probabilidad (Ω,A, P) y Sn = ∑nk=1 Xn una caminata aleatoria simétrica
sobre Z. Luego si Sn(t) := 1√n (Sbntc − (nt − bntc)Xbntc+1) es la interpolación
31
2. Objetos principales y el TFLC
lineal con re-escalamiento Gaussiano de Sn, entonces la sucesión Sn(t) cumple el
TFLC para martingalas para procesos en D([0, 1]).
Demostración Por un lado Sn(t) se encuentra acotada uniformemente y la
cota tiende a cero ya que para T > 0,
J(Sn(t), T) = sup
0≤t≤T
| 1√
n
2Xbntc+1|
=
2R√
n
→ 0, cuando n→ ∞, con probabilidad 1.
En segundo lugar debemos hallar la variación cuadrática de Sn. De esta
manera si t > 0 y Πn := (tn
′
j )j∈{1,...,n′} es una colección de particiones de
[0, t] tales que |Πn′ | := máxtn′j |t
n′
j − tn
′
j−1| entonces
[Sn, Sn](t) = [
Sbntc + (nt− bntc)Xbntc+1√
n
,
Sbntc + (nt− bntc)Xbntc+1√
n
]
= lı́m
|Πn′ |→0
n′
∑
j=1
(
1√
n
S⌊
ntn′j
⌋ + (ntn′j −
⌊
ntn
′
j
⌋
)X⌊
ntn′j
⌋
+1
− 1√
n
S⌊
ntn′j−1
⌋ + (ntn′j−1 −
⌊
ntn
′
j−1
⌋
)X⌊
ntn′j−1
⌋
+1
)2 en probabilidad
=
1
n
bntc
∑
j=1
22
=
1
n
bntc4
= 4t.
Finalmente Sn(t) converge en distribución a un movimiento Browniano con
media cero y varianza 4t. �
32
Caṕıtulo 3
Pre-compacidad de las medidas de la
sucesión de martingalas locales
3.1. Herramientas de demostración: pre-compacidad en
espacios de medidas
El enunciado del TFLC para martingalas, como vimos en el capitulo anterior,
implica una serie de condiciones que resultan suficientes para que una suce-
sión de martingalas sobre un espacio de funciones converja en distribución
a un movimiento Browniano. Es ası́ como en este capitulo se expondrá una
condición para que una sucesión de variables aleatorias (o de manera más
general, una sucesión de medidas de probabilidad) converja.
El problema que puede surgir al considerar una sucesión de medidas de
probabilidad es que la medida a la cual el proceso converge débilmente no
sea una medida de probabilidad. Por ejemplo consideremos la sucesión de
distribuciones sobre Ω := [0, ∞) con valores en [0, ∞), (Xn)n≥1 donde
Xn(ω) :=
{
1, si ω ∈ [n− 1, n],
0, de lo contrario.
(3.1)
Luego la función de distribución es,
Fn(ω) := P(Xn ≤ ω) =
{
1 ω ≤ n,
0 ω > n.
Ahora F(ω) = lı́mn→∞ Fn(ω) = 0, por lo tanto si existe una medida de pro-
babilidad asociada a esta función de distribución, toma el valor cero en todo
intervalo de la forma (−k, k) para k entero. Es decir la masa de probabilidad
se mueve hacia el infinito.
De esta manera para evitar situaciones como la planteada anteriormente se
definirá una noción de localizaciónde las distribuciones que llamaremos
pre-compacidad en el espacio de medidas.
33
3. Pre-compacidad de las medidas de la sucesión de martingalas locales
Definición 3.1 (Pre-compacidad en el espacio de medidas) Sea S un espacio
vectorial polaco y (S,B(S)) el espacio medible. Además sea P(S) el conjunto de
medidas de probabilidad sobre el espacio (S,B(S)). Luego un conjunto de distribu-
ciones Π ⊂ P(M) se llama pre-compacto (en el espacio de medidas) si para todo
ε > 0 existe un K ⊂ S compacto tales que,
P(K) > 1− ε ∀P ∈ Π. (3.2)
Por otro lado en este trabajo nos interesamos en una definición de pre-
compacidad para una sucesión de variables aleatorias, por lo tanto a par-
tir de la definición de pre-compacidad en el espacio de medidas es posible
realizar la siguiente definición.
Definición 3.2 (Pre-compacidad de variables aleatorias) Sea S un espacio vec-
torial polaco, (S,B(S)) el espacio medible y (Ω,A, P) un espacio de probabilidad.
Además sea L0(Ω, R) el conjunto de variables aleatorias sobre (Ω,A, P) con valo-
res reales.
Luego Π ⊂ L0(Ω, R) se llama pre-compacto si el conjunto de las medidas de proba-
bilidad asociadas a las variables aleatorias en Π son pre-compactas en el sentido de
la definición 3.1, es decir si para todo ε > 0 existe un K ⊂ S compacto tales que
P(X ∈ K) > 1− ε ∀X ∈ Π. (3.3)
Ahora sera de utilidad para mas adelante estudiar como cambia la pre-
compacidad bajo funciones continuas y la pre-compacidad en el espacio
producto.
Lema 3.3 (Pre-compacidad bajo funciones continuas) Sea (Xn)n≥1 una suce-
sión pre-compacta de variables aleatorias sobre el espacio de probabilidad(Ω,A, P),
con valores sobre un espacio métrico S.
Sea S′ un espacio métrico y f : S→ S′ una función continua, entonces ( f (Xn))n≥1
es una sucesión pre-compacta de variables aleatorias con valores sobre el espacio
métrico S’.
Demostración Sea ε > 0, luego como (Xn)n≥1 es pre-compacto existe K ⊆ S
compacto tales que
P(Xn ∈ K) > 1− ε ∀n ≥ 1,
Ahora como f es continua, f (K) es compacto y como K ⊆ f−1 ◦ f (K) enton-
ces
P( f (Xn) ∈ f (K)) = P(Xn ∈ ( f−1 ◦ f )(K)) ≥ P(Xn ∈ K) > 1− ε
para todo n ≥ 1. �
34
3.1. Herramientas de demostración: pre-compacidad en espacios de medidas
Lema 3.4 (Pre-compacidad en el espacio producto) Sea Si un espacio métrico
para cada i entre 1 y d, y ((Xn,1, ..., Xn,d))n≥1 una sucesión de variables aleatorias de-
finidas sobre el espacio producto S1×· · ·×Sd. Entonces la sucesión ((Xn,1, ..., Xn,d))n≥1
es pre-compacta si y solo si la sucesión (Xn,i)n≥1 es pre-compacta para cada i.
Demostración Primero supongamos que ((Xn,1, ..., Xn,d))n≥1 es pre-compacta,
luego usando el Lema 3.3 y la continuidad de las proyecciones, las compo-
nentes son pre-compactas.
En segundo lugar supongamos que tenemos pre-compacidad para cada com-
ponente y queremos ver que la sucesión de vectores aleatorios es también
pre-compacta.
Sea Ai ⊆ Si para cada i, luego
A1 × · · · × Ad = ∩di=1π−1i (Ai) = ∩
d
i=1π
−1
i (πi(A1 × · · · × Ad)).
Ahora por definición de pre-compacidad para cada Si, es posible elegir un
subconjunto compactos Ki de manera que P(Xn,i /∈ Ki) < ε/d para todo
n ≥ 1.
Finalmente como producto finito de compactos es compacto, consideremos
el conjunto K1 × ...× Kd, luego
P((Xn,1, ..., Xn,d) /∈ K1 × · · · × Kd) = P(∪di=1{Xn,i /∈ Ki})
≤
d
∑
i=1
P(Xn,i /∈ Ki) < ε. �
Luego de introducir el concepto de pre-compacidad en un espacio de medi-
das solo falta definir que es compacidad relativa, para poder introducir el
Teorema de Prokhorov (Teorema3.6) y su corolario (Corolario 3.9), el cual
sera nuestra principal herramienta para determinar la convergencia de una
sucesión de variables aleatorias.
Definición 3.5 (Compacidad relativa) Sea S un espacio métrico y A ⊂ S, tales
que toda sucesión en A tiene una sub-sucesión convergente en S, entonces A se
llama relativamente compacto.
Teorema 3.6 (Prokhorov (1956)) Sea S un espacio Polaco y M un conjunto de
medidas de probabilidad sobre S. Un subconjunto M’ de M es pre-compacto si y solo
si es relativamente compacto.
Demostración La demostración se encuentra en Billinsgley, Convergence of
Probability Measures Segunda edición, pagina 57 [2] (ver apéndice). �
Corolario 3.7 (Convergencia implica compacidad) Sea S un espacio Polaco,
X una variable aleatoria sobre S y (Xn)n≥1 una sucesión de variables aleatorias
sobre S. Luego si Xn
d−→ X entonces (Xn)n≥1 es pre-compacto.
35
3. Pre-compacidad de las medidas de la sucesión de martingalas locales
Demostración Usando el Teorema de Prokhorov (3.6) es suficiente demos-
trar que (Xn)n≥1 es relativamente compacto. De esta manera si (Xni)i≥1 es
una sub-sucesión de (Xn)n≥1, entonces por hipótesis (Xni)i≥1 converge en
distribución a X, por lo tanto toda sub-sucesión de (Xni)i≥1 converge en
distribución y en particular converge a X en distribución. �
Ejemplo 3.8 ( Medidas individuales de probabilidad) Sea M un espacio po-
laco y {P} un conjunto con solo una medida de probabilidad sobre M, luego {P}
es pre-compacto. En particular todo conjunto finito de medidas es pre-compacto.
Corolario 3.9 (Convergencia en distribución usando pre-compacidad) Sea S
un espacio polaco y (Xn)n≥1 una sucesión de variables aleatorias con valores en S.
Luego Xn
d−→ X si y solo si:
1. La sucesión (Xn)n≥1 es pre-compacta.
2. El limite en distribución de toda sub-sucesión convergente de (Xn)n≥1 es igual a X.
Demostración :
”=⇒”
Por hipótesis (Xn)n≥1 converge a X en distribución, por lo tanto la sucesión
(Xn)n≥1 es relativamente compacta y por el Teorema de Prokhorov (Teorema
3.6) es pre-compacta.
”⇐=”
A partir de la condición 1. y usando el Teorema de Prokhorov (Teorema 3.6)
obtenemos que la sucesión (Xn)n≥1 es relativamente compacta.
Ahora Xn
d−→ X quiere decir que para toda función continua y acotada
f : S→ R se cumple que ∫
f dPXn →
∫
f dPX.
Pero entonces por la condición 2 y la compacidad relativa, toda sub-sucesión
de la sucesión de números reales (
∫
f PXn)n≥1 converge a
∫
f PX y por lo
tanto ∫
f dPXn →
∫
f dPX. �
El Corolario 3.9 es el resultado que usaremos para la demostración del TFLC
para martingalas, por lo tanto para demostrar que la sucesión de martinga-
las converge en distribución debemos dividir la demostración en dos partes.
Según las condiciones 1 y 2 en el Corolario 3.10, en primer lugar se debe
demostrar pre-compacidad de la sucesión y en segundo lugar se debe ca-
racterizar el lı́mite de la sucesión (es decir para toda sucesión existe una
sub-sucesión convergente y el limite al que convergen es el mismo, en el
caso de este trabajo el limite es un movimiento Browniano).
36
3.1. Herramientas de demostración: pre-compacidad en espacios de medidas
A continuación se introducen herramientas (la noción de estocásticamente
acotado) que nos permiten introducir algunos teoremas que caracterizan la
pre-compacidad en el espacio de medidas, con el fin de usar el corolario del
Teorema de Prokhorov 3.7 en la demostración del TFLC (Teorema 2.38).
Definición 3.10 (Vectores aleatorios estocásticamente acotados) Una sucesión
de vectores aleatorios (Xn)n≥1 con valores en Rd se llama estocásticamente acotada
si es pre-compacta.
Por lo tanto para el caso de variables aleatorias con valores en Rd pre-
compacidad y estocásticamente acotado coinciden. Sin embargo esto no ocu-
rre cuando las variables aleatorias toman valores en un espacio de funciones
(por ejemplo D([0, ∞), Rd) o C([0, ∞), Rd) el espacio de funciones continuas
sobre [0, ∞)), en este caso la condición de estar estocásticamente acotado es
mas débil que la condición de pre-compacidad.
Definición 3.11 (Estocásticamente acotado para variables aleatorias de
D([0, ∞), Rd)) Sea (Xn)n≥1 una sucesión de variables aleatorias con valores en
D([0, ∞), Rd) y ‖ Xn ‖T := sup0≤t≤T |X(t)| donde | · | es cualquier norma en Rd.
Luego (Xn)n≥1 es estocásticamente acotado en D([0, ∞), Rd) si la sucesión
(‖ Xn ‖T)n≥1 es acotada estocásticamente en el sentido de la definición3.10 para
cada T > 0.
Ahora nos interesa saber que pasa con la propiedad de estar acotado es-
tocásticamente bajo suma y cuando se esta trabajando en el espacio produc-
to.
Lema 3.12 (Acotado estocásticamente en D([0, ∞), Rd) por componentes)
Una sucesión ((Xn,1, ..., Xn,d))n≥1 en D([0, ∞), Rd) se llama acotado estocásti-
camente en D([0, ∞), Rd) si y solo si (Xn,i)n≥1 es acotada estocásticamente en
D([0, ∞), R) para cada i, en donde 1 ≤ i ≤ d.
Demostración En primer lugar usando la norma del supremo
‖ (Xn,1, ..., Xn,d) ‖T = sup
0≤t≤T
{max0≤i≤d{|Xn,i|}}
= max0≤i≤d{ sup
0≤t≤T
{|Xn,i|}}
= max0≤i≤d{‖ Xn,i ‖T}.
”=⇒”
Como ((Xn,1, ..., XXn,d))n≥1 esta acotado estocásticamente en D([0, ∞), R
d),
entonces (‖ (Xn,1, ..., Xn,d) ‖T)n≥1 esta acotado estocásticamente como vector
aleatorio (definición 3.10) para cada T ≥ 0.
Por lo tanto dado ε > 0, existe K ⊂ R compacto tales que
1− ε < P(‖ (Xn,1, ..., Xn,d) ‖T∈ K) = P(máx
0<i≤d
{‖ Xn,i ‖T} ∈ K), ∀n ≥ 1,
37
3. Pre-compacidad de las medidas de la sucesión de martingalas locales
pero entonces P(‖ Xn,i ‖T∈ K) > 1− ε para todo 1 ≤ i ≤ d y n ≥ 1.
”⇐=”
Ahora como (Xn,i)n≥1 esta acotado estocásticamente para cada 1 ≤ i ≤ d,
dado ε ≥ 0 existen Ki ⊆ R tales que P(‖ Xn,i ‖T /∈ Ki) < ε.
Entonces si K := K1 ∪ ...∪ Kd como K es compacto y como i esta entre 1 y d,
max0≤i≤d{‖ Xn,i ‖T} alcanza el máximo en algún i. Por lo tanto
{ω ∈ Ω| ‖ Xn,i ‖T (ω) ∈ Ki} ⊂ {ω ∈ Ω| máx
0≤i≤d
{‖ Xn,i ‖T (ω) ∈ K}.
Pero entonces
P(máx
0≤i≤d
{‖ Xn,i ‖T} ∈ K) ≥ P(‖ Xn,i ‖T∈ K)
≥ 1− ε,
por lo tanto ((Xn,1, ..., Xn,d))n≥1 es acotado estocásticamente como variable
aleatoria en D([0, ∞), Rd). �
Lema 3.13 (Acotado estocásticamente en D([0, ∞), Rd) para sumas)
Sea ((Xn,1, ..., Xn,d))n≥1 una sucesión de variables aleatorias sobre el espacio
D([0, ∞), Rd) tales que (Xn,i)n≥1 esta estocásticamente acotada en D([0, ∞), R)
para cada i, donde 0 < i ≤ d, entonces Xn,1 + ... + Xn,d esta estocásticamente
acotado en D([0, ∞), R).
Demostración Supongamos que (Xn,i)n≥1 esta estocásticamente acotada en
D([0, ∞), R) para cada i. Entonces para cada i y T > 0, dado ε > 0 existe
Ki ⊂ R compacto tales que P(‖ X1,n ‖T∈ Ki) > 1− ε+d−1d .
Ahora la desigualdad triangular ‖ X1 + · · ·+Xd ‖T≤‖ X1 ‖T + · · ·+ ‖ Xd ‖T,
implica que
{‖ X1,n ‖T (ω) ∈ K1, ..., ‖ Xk,n ‖T (ω) ∈ Kd}
⊂ {‖ (X1,n + ... + Xd,n) ‖T∈ K1 + ... + Kd},
entonces
d(1− ε + d− 1
d
) = 1− ε < P(‖ X1,n ‖T∈ K1, ..., ‖ Xd,n ‖T∈ Kd)
< P(‖ (X1,n + ... + Xd,n) ‖T (ω) ∈ K1 + ... + Kd),
y por lo tanto Xn,1 + ... + Xn,d esta estocásticamente acotado. �
Finalmente en este trabajo se estudiara la pre-compacidad sobre dos espa-
cios de funciones. El primero hace referencia a la pre-compacidad de un
conjunto de medidas definidas sobre el espacio de funciones D([0, ∞), Rd)
y lo denotaremos como D-pre-compacidad. El segundo que hace referencia
a la pre-compacidad de un conjunto de medidas definidas sobre el espacio
38
3.2. Martingalas estocásticamente acotadas
de funciones continuas definidas sobre [0, ∞), C([0, ∞), Rd), y lo llamaremos
C-pre-compacidad.
Es importante notar como veremos mas adelante que si un conjunto de me-
didas es C-pre-compacto entonces es D-pre-compacto pero no en el sentido
inverso. Esto se debe a que el conjunto de funciones continuas sobre [0, ∞)
esta contenido en el conjunto de funciones càdlàg D([0, ∞), Rd).
3.2. Martingalas estocásticamente acotadas
A continuación se estudiaron dos lemas que para el caso de martingalas per-
miten reducir la condición de estar estocásticamente acotado en D([0, ∞), Rd)
a una condición en R.
Lema 3.14 (Desigualdad de Lenglart-Rebolledo) [17] Sea (Ω,A, P) un espa-
cio de probabilidad y F una filtración en A. Sea X un proceso F -adaptado, positivo,
con trayectorias en D([0, ∞), R) y Y un proceso creciente, nulo en cero, conti-
nua por derecha y F -adaptado. Además supongamos que existe c > 0 tales que
|∆Y(t)| ≤ c para todo t ≥ 0 P-c.s.
Si para todo tiempo de parada finito,τ, con respecto a la filtración F , obtenemos que
E[X(τ)] ≤ E[Y(τ)], (3.4)
entonces para todo ε, η > 0 y para todo tiempo de parada ,τ, finito P-c.s respecto a
la filtración F ,
P(sup
t≤τ
X(t) ≥ ε) ≤ 1
ε
E[Y(τ) ∧ (η + c)] + P(Y(τ) > η).
Demostración : En primer lugar la hipótesis E[X(τ)] ≤ E[Y(τ)] para todo
tiempo de parada finito τ hace referencia a que el proceso X se encuentra
dominado por el proceso Y [11].
Ahora si E[X(τ)] ≤ E[Y(τ)] para un tiempo de parada finito τ, sea ε > 0,
n ≥ 1 y σ := ı́nf{s ≤ τ ∧ n; X(s) ≥ ε} en donde σ := τ ∧ n si
{s ≤ τ ∧ n; X(s) ≥ ε} = ∅.
Luego σ es un tiempo de parada, σ ≤ τ∧ n y de las siguientes desigualdades
E[Y(τ)] ≥ E[Y(σ)] ≥ E[X(σ)] ≥
∫
sups≤τ∧n X(s)>ε
X(σ)dP ≥ εP( sup
s≤τ∧n
X(s) > ε),
se obtiene (como en Lenglart [11]) que
P(sup
s≤τ
X(s) > ε) ≤ 1
ε
E[Y(τ)]. (3.5)
En segundo lugar
P(sup
t≤τ
X(t) ≥ ε) = P(sup
t≤τ
X(t) ≥ ε, Y(τ) ≤ η) + P(sup
t≤τ
X(t) ≥ ε, Y(τ) > η)
≤ P(1{Y(τ)≤η} sup
t≤τ
X(t) ≥ ε) + P(Y(τ) > η).
39
3. Pre-compacidad de las medidas de la sucesión de martingalas locales
En tercer lugar sea S := ı́nf{t ≥ 0|Y(t) > η}, entonces S ∧ τ es un tiempo
de parada finito P-c.s y además
1{Y(τ)≤η} sup
t≤τ
X(t) ≤ sup
t≤τ∧S
X(t), P− c.s.
En cuarto lugar siguiendo las mismas ideas que con la ecuación (3.5)
P( sup
t≤τ∧S
X(t) > ε) ≤ 1
ε
E[Y(τ ∧ S)].
Luego en quinto lugar como Y(τ ∧ S) ≤ Y(τ) ∧ (η + c) P-c.s, entonces
P( sup
t≤τ∧S
X(t) > ε) ≤ 1
ε
E[Y(τ) ∧ (η + c)] + P(Y(τ) > η),
y por lo tanto
P(sup
t≤τ
X(t) > ε) ≤ 1
ε
E[Y(τ) ∧ (η + c)] + P(Y(τ) > η). �
3.3. Demostración de la C-pre-compacidad con saltos
acotados
En esta sección se verifica la pre-compacidad en el espacio de medidas de la
sucesión de martingalas, para el caso en el que se asumen saltos acotados.
Sin embargo antes de empezar con la demostración necesitamos introdu-
cir algunos de Teoremas (Teoremas 3.20, 3.21 y 3.22 ) que permitan saber
cuando una sucesión de distribuciones, procesos estocásticos o martingalas
en D([0, ∞), Rd) son pre-compactas en D([0, ∞), Rd). Sin embargo antes de
poder introducir estos Teoremas es necesario definir que es un modulo de
continuidad y su análogo para funciones en D([0, T], R) donde T ≥ 1.
Un modulo de continuidad es una función WTC : R
[0,T] × [0, ∞) :→ [0, ∞)
que permite caracterizar cuando una función en R[0,T] es continua,
WTC(X, δ) := sup
|t−s|≤δ
s,t∈[0,T]
|X(t)− X(s)|. (3.6)
40
3.3. Demostración de la C-pre-compacidad con saltos acotados
Ejemplo 3.15 Consideremos el polinomio de grado p, X(r) = ∑pi=0 air
i, restringi-
do a [0, T] luego
WTC(X, δ) = sup
|t−s|≤δ
s,t∈[0,T]
|
p
∑
i=1
ai(ti − si)|
≤ sup
|t−s|≤δ
s,t∈[0,T]
p
∑
i=1
|ai||ti − si|
≤
p
∑
i=1
|ai||ti − (t + δ)i|
=
p
∑
i=1
|ai||
i−1
∑
j=0
(
i
j
)
tjδi−j|
= δ
p
∑
i=1
|ai||
i−1
∑
j=0
(
i
j
)
tjδi−j−1|
De esta manera del ejemplo anterior se puede ver como lı́mδ→0 WTC(X, δ) = 0
lo cual concuerda con el hecho de que los polinomios son funciones conti-
nuas, como se expresa en la siguiente nota.
Nota 3.16 Este modulo de continuidad caracteriza a las funciones continuas ya que,
X ∈ R[0,T] es continua si
lı́m
δ→0
WTC(X, δ) = 0.
De lo contrario existirı́a un ε > 0 y t ∈ [0, T] tales que para todo s ∈ (t− δ, t + δ),
|X(t)− X(s)| > ε pero esto contradice la continuidad de X en t.
De igual manera que para el modulo de continuidad, es posible definir un
modulo que caracteriza a las funciones de D([0, T], R),
WTD : R
[0,T] × [0, ∞) → [0, ∞). De esta manera para δ > 0 y r, T ≥ 1 es
posible definir
Θ(r, T, δ) := {(t0, ..., tr) ∈ [0, ∞)r+1| ti < ti+1 ∀i ∈ {0, ..., r− 1},
ti − ti−1 > δ ∀i ∈ {1, ..., r}, tr = T y t0 = 0}
entonces
WTD(X, δ) := ı́nf
θ∈Θ(r,T,δ)
máx
i∈{1,...,r}
sup
s,t∈[ti−1,ti)
|X(t)− X(s)|, (3.7)
donde el ı́nfimo es sobre todos los r ≥ 1 que puede tomar Θ(r, T, δ).
Nota 3.17 Es posible observar que el anterior modulo es un modulo de continuidad
por la derecha, sin embargo caracteriza a D([0, T], R) ya que si X ∈ R[0,T] y existe
41
3. Pre-compacidad de las medidas de la sucesión de martingalas

Continuar navegando