Logo Studenta

Valuação de Opções Installment e Bermudas

¡Este material tiene más páginas!

Vista previa del material en texto

INSTITUTO TECN.OLÓGICO Y DE ESTUDIOS 
SUPERIORES DE MONTERREY 
CAMPUS CIUDAD DE MÉXICO 
TECNOLÓGICO 
De MONTERREY 
Biblioteca 
c·ampus Ciudad de México 
"VALUACIÓN DE OPCIONES INSTALLMENT Y BERMUDAS 
CON PROGRAMACIÓN DINÁMICA" 
DOCTORADO EN CIENCIAS FINANCIERAS 
TESIS PRESENTADA POR 
EDUARDO HERNÁNDEZ PÉREZ 
ASESOR 
FRANCISCO VENEGAS MARTÍNEZ 
MAYO DE 2008 
1 
RESUMEN 
Las opciones "installments" bermudas son un tipo de opciones bermudas tradicionales, 
excepto que el comprador de estas opciones debe regularmente realizar un pago para man-
tener activa la opción. Las fechas preestablecidas llamadas fechas de decisión en las cuales 
la opción puede ser ejercida corresponden al calendario de pagos. En cada fecha de de-
cisión, el comprador de una opción de este tipo debe elegir entre ejercer la opción, lo cual 
pone fin al contrato; no ejercer la opción y realizar un pago, con lo cual mantiene activa la 
opción para la siguiente fecha de decisión; y no ejercer la opción y no realizar el pago, lo 
cual pone fin al contrato. Debido a tales características de ejercicio este tipo de opciones 
son una innovación financiera reciente que introduce cierta flexibilidad en la liquidez de los 
inversionistas, ya que en lugar de realizar un único desembolso (prima) por un instrumento 
derivado, el comprador realizará pagos en fechas futuras predeterminadas. En particular, 
este tipo de instrumentos reduce considerablemente el costo de entrar en una estrategia de 
cobertura, ya que los administradores de riesgo pueden entrar en este tipo de contratos a 
un costo inicial bajo (prima) y ajustar el calendario de pagos de acuerdo a sus previsiones 
de efectivo y restricciones de liquidez. Adicionalmente, la no realización de un pago es 
suficiente para cerrar la posición sin costo de transacción. Esto reduce el riesgo de liquidez 
típicamente asociado con otros derivados sobre mostrador. 
Esta investigación pretende obtener o aproximar fórmulas de valuación cerradas o apro-
ximadas de opciones bermudas y opciones "installments" bermudas a través de la teoría 
de valuación neutral al riesgo. Específicamente se utilizará programación dinámica para 
calcular la prima en un mundo neutral al riesgo. Para aproximar la función de pagos se 
utilizará interpolación lineal por pedazos, herramienta que permitirá encontrar una fórmula 
cerrada para el valor esperado de la función de pagos en una fecha de ejercicio particular. 
Se aplicará este método de aproximación a dos modelos para representar la dinámica 
del precio del activo subyacente: el movimiento Browniano geométrico y el movimiento 
Browniano con reversión a la media, se obtienen fórmulas para encontrar el valor esperado 
de la función de pagos para algún periodo en particular para ambos modelos. Estas 
fórmulas serán posteriormente empleadas para obtener el precio de una opción bermuda e 
"installment" bermudas. 
2 
ÍNDICE 
Pág. 
Agradecimientos ...................................................................... ii 
Resumen .............................................................................. 1 
Índice ................................................................................. 2 
Índice de gráficas ..................................................................... 4 
Índice de cuadros ..................................................................... 5 
Introducción .......................................................................... 6 
Capítulo 
l. PROGRAMACIÓN DINÁMICA .............................................. 14 
1.1 Problema de control óptimo determinista en tiempo discreto ............ 14 
1.2 Programación dinámica determinista .................................... 17 
1.2.1 Causalidad ........................................................ 17 
1.2.2 Solución al problema mediante programación dinámica ............ 18 
1.3 Programación dinámica estocástica ..................................... 22 
1.3.1 Planteamiento del problema ........................................ 22 
1.3.2 Solución al problema formulado mediante programación dinámica .. 24 
1.4 Programación dinámica continua ........................................ 26 
1.4.1 Programación dinámica determinista continua 
a tiempo homogéneo .............................................. 26 
1.4.2 Programación dinámica continua estocástica ...................... 27 
1.4.3 Extensión a múltiples variables de estado ......................... 30 
1.4.4 Extensión a la dependencia explícita del tiempo ................... 32 
2. MÉTODO DE VALUACIÓN DE OPCIONES CON DEPENDENCIA 
EN LA TRAYECTORIA ..................................................... 33 
2.1 Opciones exóticas .................. ~~ .................................. 33 
2.2 Opciones tipo path dependent .......................................... 34 
2.3 Caso movimiento Browniano geométrico ................................ 36 
2.4 Caso movimiento Browniano con reversión a la media ................... 40 
3. OPCIONES BERMUDAS .................................................... 50 
3.1 Opciones bermudas ..................................................... 50 
3.2 Función de pago de una opción bermuda ................................ 51 
3.3 Propiedades de ejercicio para un "call" bermuda ........................ 51 
3.4 Valuación de una opción bermuda ....................................... 57 
3.4.1 Movimiento Browniano geométrico ............................... 58 
3.4.2 Movimiento Browniano con reversión a la media .................. 60 .. 
3 
4 OPCIONES INSTALLMENTS BERMUDAS ................................... 62 
4.1 Opciones installment ................................................... 62 
4.2 Opciones installment bermudas ......................................... 63 
4.3 Función de pagos ....................................................... 64 
4.4 Valuación de una opción installment bermuda ........................... 65 
4.4.1 Movimiento Browniano geométrico ............................... 67 
4.4.2 Movimiento Browniano con reversión a la media .................. 68 
4.5 Propiedades teóricas .................................................... 69 
5. APLICACIÓN NUMÉRICA .................................................. 72 
5.1 Movimiento Browniano geométrico ...................................... 72 
5.1.1 Opción bermuda tradicional ...................................... 72 
5.1.2 Opción installment bermuda ...................................... 73 
5.2 Movimiento Browniano con reversión a la media ......................... 75 
5.2.1 Opción bermuda tradicional ...................................... 75 
5.2.2 Opción installment bermuda ...................................... 76 
5.3 Comparación de resultados ............................................. 78 
6. CONCLUSIONES ............................................................ 80 
7. BIBLIOGRAFÍA ............................................................. 82 
APÉNDICE ..................................................................... 84 
4 
, , 
INDICE DE GRAFICAS 
5.1 Comportamiento de la prima ..................................................... 74 
5.2 Comportamiento del precio total ................................................. 75 
5.3 Comportamiento de la prima .................................................... 77 
5.4 Comportamiento de la prima total ................................................ 77 
5.5 Posibles valores en un periodo de 2 meses ........................................ 78 
5.6 'I'rayectorias a 1 año .............................................................. 79 
5 
" INDICE DE CUADROS 
5.1 Precios de opciones bermudas con el movimiento Browniano geométrico .......... 73 
5.2 Precios de opciones "installment" bermudas con el movimiento Browniano 
geométrico ....................................................................... 7 4 
5.3 Precios de opciones bermudas con el movimiento Browniano con reversióna la media ....................................................................... 76 
5.4 Precios de opciones "installment" bermudas con el movimiento Browniano 
con reversión a la media .......................................................... 76 
6. 
/ 
INTRODUCCION 
El mundo actual se caracteriza por cambios continuos, lo cual implica tomar acciones 
con rapidez. Sin embargo, la toma de decisiones en este ambiente implica asumir ciertos 
riesgos, los cuales deben ser minimizados en la medida de lo posible. El mundo financiero 
es un claro ejemplo de lo anterior, ya que se ha observado, en los últimos años, que los 
mercados financieros en el mundo se han vuelto cada vez más vulnerables y sensibles. Se 
puede mencionar, por ejemplo, la crisis asiática (a fines de 1997 y principios de 1998), 
la cual ocasionó pérdidas de miles de millones de dólares en los fondos de inversión de 
diferentes países. Esto muestra una gran interrelación entre las economías del mundo 
y, en consecuencia, cualquier problema que exista en una de ellas, influye en las demás. 
Asimismo, en 2002, Argentina se vio afectada por una crisis financiera y económica que 
le impidió liquidar sus obligaciones con el Banco Mundial, lo cual afecto a Brasil, su 
principal socio comercial. Como consecuencia de esto, varias econonúas de Sudamérica 
incrementaron su riesgo país, teniendo como resultado que los inversionistas extranjeros 
buscaran otros mercados más seguros. 
Debido a la inestabilidad de los mercados financieros, muchos inversionistas se vieron 
en la necesidad de buscar nuevas formas de invertir con menor riesgo. Si en las expectativas 
de los inversionistas se prevé un cambio desfavorable en los precios de los activos, entonces 
éstos deben tomar medidas para evitar cualquier impacto negativo en sus portafolios. 
U na particularidad de los mercados accionarios es que éstos tienen un componente de 
incertidumbre importante, lo cual hace que los pronósticos precisos no existan. En la 
década de los setentas se comenzaron a desarrollar diversas alternativas que permitieron 
minimizar el riesgo de mercado, tales como las estrategias de cobertura mediante el uso de 
"derivados financieros". 
Los instrumentos derivados son herramientas que permiten minimizar la exposición de 
los inversionistas al riesgo, el cual es considerado como peligroso pero a su vez retribuyente. 
Los derivados financieros más populares son: las opciones, los "forwards", los futuros, los 
"swaps", las notas estructuradas, etc. En los años 70 las opciones y los futuros tuvieron 
su mayor auge, debido en parte al modelo de Black-Scholes, el cual determina una formula 
de valuación para opciones europeas y, por otra parte, al arranque de la bolsa de opciones 
"Chicago Board of Options Exchange", la cual ha operado, a la fecha, billones de dólares. 
La teoría moderna de valuación de opciones tiene su origen en el artículo de Black-
Scholes (1973) y, de manera simultánea, en el trabajo de Merton (1973). Su importancia 
7 
radica, más que en un modelo de valuación de opciones, en el análisis cualitativo que 
subyace en el mismo. Este marco de valuación se fundamenta en condiciones de no arbitraje 
donde el objetivo es establecer una dependencia funcional entre el valor de un producto 
derivado y el valor de un activo subyacente. La idea fundamental de los modelos en 
tiempo continuo con condiciones de no arbitraje es que, bajo ciertas hipótesis, es posible 
crear una estrategia de cobertura, formada por un número determinado de derivados y una 
cierta cantidad del activo subyacente (negociable), de tal manera que ajustando continua 
y convenientemente el número de derivados se obtiene una cartera exenta de riesgo. Al 
suponer que el mercado no permite oportunidades de arbitraje, el rendimiento nominal 
instantáneo esperado de la cartera debe coincidir con la tasa de interés libre de riesgo. La 
conjunción de estas hipótesis proporciona un modelo de valuación descrito por una ecuación 
diferencial parcial, cuyas condiciones de frontera recogen las características esenciales del 
derivado a valuar. Aunque este método de valuación es muy flexible, la mayoría de sus 
aplicaciones dan origen a ecuaciones diferenciales sin solución analítica. Esto ha dado lugar 
a una extensa literatura sobre métodos numéricos aplicados a la valuación de opciones y 
de activos contingentes. 
Después de haber trascurrido más de 30 años de la creación de los primeros derivados 
financieros, éstos han ido evolucionando dando lugar a nuevos productos derivados, como 
son los derivados financieros de segunda generación, entre los cuales destacan las "notas 
estructuradas". Estas notas nacen para satisfacer un mercado, en el que los inversionistas 
puedan invertir a corto plazo, pero con mayor liquidez. Este tipo de instrumentos requiere 
para su operación un tipo especial de opciones exóticas ligadas con bonos. 
El desarrollo de las opciones exóticas tiene su origen en la década de los noventas, 
aunque se sabe que algunas de sus modalidades ya aparecían en los mercados "Over The 
Counter" ( "OTC") a finales de la década de los setentas. Pero no fue sino hasta la década 
de los noventas cuando su negociación comienza a ser relevante. Las opciones exóticas 
son opciones que tienen una estructura diferente a la de las opciones tradicionales y sur-
gen con la intención de abaratar las primas de los derivados tradicionales ajustándose 
adecuadamente a las necesidades de los inversionistas. 
La persistente volatilidad de los mercados de capitales fortaleció al desarrollo de las 
opciones exóticas por parte de los administradores de riesgo. Otro factor que influye en 
dicho desarrollo ha sido el énfasis creciente en la administración de riesgos por parte de 
reguladores internos y externos, en un entorno competitivo y globalizado, y por los avances 
de las tecnologías de información. La aparición de estas opciones y su creciente utilización 
presentan un impacto importante en los mercados financieros a nivel internacional al cons-
tituirse como instrumentos muy útiles tanto para la administración de riesgos como para 
8 
la especulación. No obstante, su volumen de negociación no es todavía lo suficientemente 
grande, pero se espera que se experimenten un mayor auge en el futuro sustentado en 
las características de estos derivados. Actualmente, su uso se comienza a extender y se 
podría dar un salto de los mercados "OTC" hacia los mercados organizados, debido a la 
gran movilidad que los subyacentes están experimentando. :Entre las opciones exóticas mas 
conocidas se encuentran: las asiáticas, de barrera, "lookback", "leader", "shout", "cliquet", 
bermudas, "chooser", polinomiales, potenciales, digitales, "playlater, "quantos", "compos" 
e "installments", entre otras. 
Las opciones tipo bermuda son un nuevo estilo de opciones, situado entre una opción 
europea, cuyo ejercicio sólo puede ser al vencimiento, y una americana, con ejercicio en 
cualquier momento antes de la fecha de vencimiento, es decir, pueden ser ejercidas de forma 
anticipada en un número determinado de fechas a lo largo de su vida, lo que constituye 
un caso intermedio entre las europeas y las americanas. Una característica de las opciones 
bermudas es que su precio de ejercicio puede ir aumentado con el paso del tiempo. Si 
estas opciones cotizan en mercados organizados, se denominan opciones japonesas. Otro 
tipo especial de opciones bermuda son las opciones "bermuda capped option" en las que 
el poseedor de ésta no tiene derecho a ejercerla antes de la fecha de vencimiento y el 
ejercicio se da de manera automática en un conjunto predeterminado de fechas si el valor 
del subyacente alcanza un determinado nivel denominado "cap". 
Algunas investigaciones sobre las opciones Bermudas se describen a continuación. 
Trippi y Chance (1993) presentan una valuación analítica aproximada utilizando el mode-
lo de Black-Scholescon pago continuo de dividendos ajustado por el modelo de Merton 
(1973). Por otro lado, Chance (1994) utiliza el algoritmo de diferencias finitas para apro-
ximar el valor de las opciones bermudas. Leguey y Llerena (1995) estudian las opciones 
bermuda de venta con precios de ejercicio constantes como una vía de aproximación al 
valor de las opciones americanas de venta. Asimismo, analizan las opciones bermuda de 
compra con precios de ejercicio no uniformes, con el propósito de obtener una fórmula ce-
rrada para su valuación; como hipótesis de su trabajo suponen que el subyacente no realiza 
dividendos durante la vida de la opción y que la dinámica del activo subyacente sigue un 
proceso Browniano geométrico o lognormal. También, Carriere (1996) investiga técnicas 
de regresión y simulación para obtener aproximaciones rápidas y de alta precisión para los 
tiempos de paro en un escenario de tiempo discreto finito. Una vez hecho esto realizan una 
aplicación al problema de valuación de las opciones bermudas de venta y encuentran que 
la sucesión multidimensional estandarizada de Halton de longitud 200 puede aproximar 
el valor de la opción bermuda de venta con gran precisión. Henrik Alpsten (2003) en su 
tesis de maestría valúan opciones "swap" bermudas a través del establecimiento de cotas 
superiores e inferiores. Hacen uso del modelo Brace-Gatarek-Musiela con tres factores, 
9 
así como el método de Monte Carlo para determinar la evolución de las tasas forward. 
Asimismo, proponen una discretización del modelo. De igual forma, proporcionan dos 
estrategias de ejercicio subóptimo usando fronteras de ejercicio. También estudian los 
errores sistemáticos en la evolución de la tasa forward y discuten medidas simples para 
reducir su impacto en la valuación de la opción. 
Las opciones "installments" bermudas son un tipo de opciones bermudas tradicionales, 
excepto que el comprador de estas opciones debe regularmente realizar un pago para man-
tener activa la opción. Las fechas preestablecidas llamadas fechas de decisión en las cuales 
la opción puede ser ejercida corresponden al calendario de pagos. En cada fecha de decisión, 
el comprador de una opción de este tipo debe elegir entre lo siguiente: 
( i) Ejercer la opción, lo cual pone fin al contrato. 
(ii) No ejercer la opción y realizar un pago, con lo cual mantiene activa la opción para la 
siguiente fecha de decisión. 
(iii) No ejercer la opción y no realizar el pago, lo cual pone fin al contrato. 
Se considera a estas opciones como una innovación financiera reciente que introduce cierta 
flexibilidad en la liquidez de los inversionistas. En lugar de realizar un único desembolso 
(prima) por un instrumento derivado, el comprador realizará pagos en fechas futuras prede-
terminadas. En particular, este tipo de instrumentos reduce considerablemente el costo de 
entrar en una estrategia de cobertura, ya que los administradores de riesgo pueden entrar 
en este tipo de contratos a un costo inicial bajo (prima) y ajustar el calendario de pagos 
de acuerdo a sus previsiones de efectivo y restricciones de liquidez. Adicionalmente, la no 
realización de un pago es suficiente para cerrar la posición sin costo de transacción. Esto 
reduce el riesgo de liquidez típicamente asociado con otros derivados sobre mostrador. Se 
pueden mencionar varios trabajos sobre este tipo de opciones, entre lo que se encuentran: 
Davis, Schachermayer y Tompkins (2001) quienes discuten la valuación y administración 
de riesgo para las opciones "installment", en particular el uso de coberturas estáticas para 
obtener cotas libres de arbitraje y deducir coberturas efectivas con riesgo casi nulo del 
riesgo "Vega" (razón de cambio de la prima con respecto de la volatilidad). También 
estudian límites en tiempo continuo sobre la prima, la cual es pagada a una cierta tasa 
por unidad de tiempo. Por otro lado, Ciurlia y Roko (2005) presentan tres enfoques para 
valuar opciones de compra y venta "installments" continuas y comparan su precisión com-
putacional, bajo los supuestos clásicos (mercados completos, tasa libre de riesgo constante, 
etc.), para lo cual deducen una ecuación diferencial parcial para obtener el valor de la op-
ción. Esta ecuación diferencial la resuelven al utilizar el método de representación integral 
para obtener formulas cerradas aproximando el tiempo óptimo de ejercicio a través de fun-
ciones exponenciales a trozos. Por último, comparan su procedimiento con el método de 
10 
diferencias finitas y el método de Monte Carlo. Por último, Ben-Ameur, Breton y Franccois 
(2006) desarrollaron un procedimiento para valuar opciones "installments" bajo el cual se 
obtuvo un rango para el precio de este instrumento. Además, realizaron un análisis de 
simulación encontrando precios convergentes, los cuales eran cercanos a los observados en 
el mercado. Finalmente, aplicaron este procedimiento a los "warrants installments" los 
cuales son activamente negociados en Australia tomando en cuenta el efecto de difusión. 
Por todo lo anterior se considera importante determinar el valor de las opciones bermu-
das e "installments" bermuda, de acuerdo a su naturaleza, la cual involucra la toma de 
decisiones en fechas preestablecidas. La programación dinámica es una herramienta básica 
que toma en cuenta la toma de decisiones en un número determinado de periodos, en donde 
la decisión actual sólo depende de la decisión inmediata anterior. 
El marco teórico para valuar un instrumento financiero que se negocia en un mercado 
financiero completo es la teoría de valuación neutral al riesgo, la cual mediante el teorema 
de Feynman-Kac, se puede llevar cabo bajo el contexto de ecuaciones diferenciales parciales 
o en el enfoque probabilista, donde ambos son equivalentes según dicho teorema y bajo 
algunas condiciones técnicas. En ambos enfoques se supone que el activo subyacente sigue 
un proceso de difusión. En el enfoque de ecuaciones diferenciales parciales la idea central 
es construir un portafolio libre de riesgo constituido por el activo subyacente y la opción. 
Posteriormente, a través de argumentos de arbitraje se iguala el rendimiento libre de riesgo 
con el del portafolio ( el cual ya es libre de riesgo), y de este modo se obtiene una ecuación 
diferencial parcial de segundo orden la cual al resolverse proporciona el valor de la opción. 
Mientras que bajo el enfoque probabilista se tiene que el precio de la opción está dado 
por el valor esperado del pago de la opción en un mundo neutral al riesgo. Por lo tanto, 
el obtener una fórmula de valuación cerrada bajo ambos enfoques depende del tipo de 
derivado, el cual está determinado por la función de pagos del instrumento. En general 
existen muy pocos casos en los cuales se obtienen fórmulas de valuación cerradas, por lo que 
es necesario recurrir a métodos numéricos para estimar el valor del instrumento financiero. 
En el caso de ecuaciones diferenciales, el método numérico empleado es el de diferencias 
finitas. En el caso del método probabilista se puede hacer vía árboles binomiales o por 
simulación. 
La valuación de instrumentos derivados financieros vía simulación puede ser dividida 
en dos pasos básicos: 
( i) Simulación del activo subyacente y algunos otros parámetros no estacionarios (por 
ejemplo tasa de interés, volatilidad del activo, etc.). 
(ii) Evaluación de la función de pago del derivado (la cual define el tipo de derivado). 
11 
En términos prácticos es adecuado utilizar el método de simulación de Monte Carlo cuando 
se tienen una o más de las siguientes características: 
( i) La dinámica que caracteriza el activo subyacente es complicada. 
( ii) Existe dependencia del derivado en múltiples variables de estado. 
( iii) El derivado depende de la trayectoria del activo subyacente. 
La metodología empleada para valuar la opción "installment" bermuda o bermuda 
se basará en la metodología de valuación neutral al riesgo.Es decir, se descontará el 
valor presente de la función de pagos en un mundo neutral al riesgo. Para resolver este 
problema se vivirá en un mundo neutral al riesgo ( específicamente se empleará el método 
probabilista) para calcular el valor esperado del pago de la. opción que debe realizarse de 
contado. La valuación de este tipo de opción depende de la dinámica del activo subyacente 
y del calendario de fechas de pago del contrato, ya que a partir de estas fechas se determina 
si se ejerce o si se realiza un pago para mantener vigente la opción. Por lo que en cada una 
de estas fechas se tendrá una subestructura de valuación, la cual determinará si es óptimo 
mantener, abandonar o ejercer la opción. Es por lo anterior que una herramienta que es 
fundamental para desarrollar esta investigación es la programación dinámica. 
A través de la programación dinámica el problema se puede resolver en subproblemas 
con estructuras óptimas siguiendo los siguientes tres pasos: 
( i) Dividir el problema en subproblemas más pequeños. 
( ii) Resolver estos subproblemas recursivamente de manera óptima. 
(iii) Usar las soluciones subóptimas para construir una solución óptima del problema ori-
ginal. 
Los subproblemas se resuelven a su vez dividiéndolos en subproblemas más pequeños 
hasta que se encuentra que la solución al problema es trivial. En resumen, la progra-
mación dinámica hace uso de: subproblemas superpuestos, subestructuras óptimas y me-
morización. Además, utiliza alguno de los siguientes enfoques: 
( i) "Top-clown" ( de adelante hacia hacia atrás) : El problema se divide en subproblemas, 
los cuales se resuelven recordando las soluciones en caso de que sea necesario. Es una 
combinación de memorización y recursión. 
(ii) "Bottom-up" (de atrás hacia hacia adelante): Todos los subproblemas que puedan 
ser necesarios se resuelven de antemano y después son usados para resolver las solu-
ciones a problemas más generale. Este enfoque es ligeramente mejor en consumo de 
espacio y llamadas a funciones, pero a veces resulta poco intuitivo encontrar todos los 
·subproblemas necesarios para resolver un problema dado. 
12 
Esta tesis optará por el primer enfoque, ya que la naturaleza del problema requiere 
conocer el precio de la opción en cada fecha del calendario de pagos. Originalmente, el 
término de programación dinámica se designaba únicamente a la resolución de ciertos 
problemas de investigación de operaciones fuera del ámbito de la ingeniería informática, al 
igual que lo hacía la programación lineal. En este contexto, la programación dinámica no 
tiene ninguna relación con la programación ( computacional o en sistemas) en absoluto; el 
nombre es pura coincidencia. El término también se usaba en la década de los cuarentas 
por Richard Bellman ( matemático estodounidense) para describir el proceso de solución 
de problemas donde hace falta calcular soluciones recursivamente. Cuando se habla de op-
timizar se hace referencia a buscar la mejor solución de entre muchas alternativas posibles. 
Dicho proceso de optimización puede ser visto como una sucesión (política) de decisiones 
que proporcionan la solución correcta. Si, dada una subsucesión (subpolítica) de decisiones, 
siempre se sabe cual es la decisión óptima que se debe tomar a continuación, el problema es 
elemental y se resuelve trivialmente tomando una decisión detrás de otra, lo que se conoce 
como estrategia voraz. A menudo, aunque no es posible aplicar la estrategia voraz, se 
cumple el principio de optimalidad de Bellman que dice que "dada una política óptima de 
decisiones, toda subpolítica de ella es, a su vez, óptima". En este caso es todavía posible 
ir tomando decisiones elementales, con la confianza de que la. combinación de ellas seguirá 
siendo óptima, pero entonces será necesario explorar muchas sucesiones de decisiones para 
dar con la correcta, siendo aquí donde interviene la programación dinámica. 
Contemplar un problema como una secuencia de decisiones equivale a dividirlo en 
subproblemas más pequeños y por lo tanto más fáciles de resolver como se hace en "divide 
y vencerás", técnica similar a la de programación dinámica. La programación dinámica se 
aplica cuando la subdivisión de un problema conduce a una. enorme cantidad de subpro-
blemas, subproblemas cuyas soluciones parciales se solapan o grupos de subproblemas de 
muy distinta complejidad. 
Debido a que se está considerando calcular el valor esperado de un proceso de difusión 
se hará uso de programación dinámica estocástica. 
Por lo tanto en las opciones tipo bermuda el valor de la opción al vencimiento depende 
no sólo del valor que alcance el subyacente al vencimiento, sino también de su evolución 
en el tiempo, ya que pueden ser ejercidos en un calendario de fechas antes del vencimiento 
del contrato. De esta forma este tipo de opciones evolucionan en el tiempo, susceptibles de 
influencia mediante decisiones externas. El ejercicio o abandono ( en caso de las opciones 
"installments") depende del horizonte de tiempo desde el que se complete el problema de 
valuación. En general la decisión óptima en un contexto dinámico no se obtiene mediante 
13 
una secuencia de las decisiones estáticas óptimas para cada uno de los instantes o perio-
dos que constituyen dicho contexto dinámico. Asimismo: las dicisiones óptimas a corto 
plazo, en general, no coinciden con las decisiones óptimas a largo plazo. La utilización 
de técnicas de optimización dinámica permiten obtener la solución óptima en cada caso. 
La optimización dinámica, como su nombre lo indica, estudia la optimización de sistemas 
dinámicos, es decir, la optimización de sistemas que evolucionan en el tiempo. Dado un 
sistema que evoluciona en el tiempo, se trata de guiar o controlar el sistema de manera 
óptima a lo largo de un horizonte de tiempo dado, de acuerdo a un objetivo previamente 
establecido. Es por esta razón que en esta tesis se desarrollará una metodología para valuar 
este tipo de opciones a través de programación Dinámica. Este procedimiento numérico 
es apropiado para este tipo de opciones debido a que involucran un número limitado de 
fechas de ejercicio distantes. 
Esta tesis está organizada de la siguiente manera: en el capítulo 1 se proporciona 
una introducción a la programación dinámica, sus propiedades y ventajas. El capítulo 
2 muestra un método de aproximación a través de interpolación lineal por pedazos para 
encontrar el valor esperado de una opción cuyo pago es dependiente en la trayectoria del 
precio del activo subyacente y que puede ser ejercido en un número discreto de fechas. En 
particular se propone que la dinámica del activo subyacente es guiada por un movimiento 
Browniano geométrico y la modificación de éste que incorpora la propiedad de reversión a 
la media, el cual será denominado movimiento Browniano con reversión. En el capítulo 3 
se obtiene un método de valuación de opciones bermudas para los modelos propuestos y en 
el capítulo 4 se obtiene un método de valuación de opciones "installment" bermuda para 
los modelos mencionados anteriormente y se analizan algunas propiedades de estas. En el 
capítulo 5 se presenta una aplicación numérica y finalmente en el capítulo 6 se presentan 
las conclusiones. 
Se analizarán dos dinámicas para el precio del activo subyacente, las cuales serán deter-
minadas por el movimiento Browniano geométrico y la modificación de éste que incorpora 
la propiedad de reversión a la media, el cual será denominado movimiento Browniano con 
reversión. 
Capítulo 1. Programación Dinámica 14 
/ 
CAPITULO 1 
/ / 
PROGRAMACION DINAMICA 
La programación dinámica estudia la obtención de soluciones. óptimas de problemas que 
evolucionan en el tiempo y que son susceptibles de influencia. mediante decisiones externas. 
La mejor decisión a tomar depende del horizonte de tiempo que se contemple en el problema 
a estudiar. En general, la decisión óptima en un contextodinámico no se obtiene mediante 
una sucesión de decisiones estáticas óptimas en cada uno ele los instantes o periodos que 
constituyen el horizonte de planeación. Asimismo, las decisiones óptimas a corto plazo, en 
general, no coinciden con las decisiones óptimas a largo plazo. Al respecto, la utilización 
de técnicas de optimización dinámica permite obtener la solución óptima en cada una de 
las situaciones anteriores. 
La optimización dinámica, como su nombre lo indica, estudia la optimización de sis-
temas dinámicos, es decir, la optimización de sistemas que evolucionan en el tiempo. Dado 
un sistema que evoluciona en el tiempo, se trata de guiar o controlar el sistema de manera 
óptima, de acuerdo a algún criterio preestablecido, a lo largo de un horizonte de tiempo 
dado, de acuerdo a un objetivo previamente establecido. En este capítulo se presenta el 
problema básico de control óptimo en tiempo discreto y un algoritmo que permite obtener 
su solución óptima: la programación dinámica la cual se debe a Richard Bellman cuyo su 
método que fue publicado en 1957. 
/ 
1.1 Planteamiento del problema de Control Optimo de-
terminista en tiempo discreto 
Considere un sistema dinámico que evoluciona en el tiempo, formulado en tiempo discreto, 
para un número dado, N, de etapas o periodos, cuya situación inicial viene dada por el 
vector n-dimensional, x 0 . Al igual que en el caso de tiempo continuo, dicha evolución 
depende de los valores que se asignen a ciertas variables, llamadas variables de control, 
que permiten influir en el sistema. 
Capítulo 1. Programación Dinámica 15 
Sea u(k) un vector m-dimensional de variables de control en la etapa o periodo k, 
para k E {0,1, ... ,N-1}. Se define x(k), para cada k E {0,1, ... ,N-1}, como el vector 
n-dimensional de variables de estado, el cual indica la situación del sistema en la etapa 
o periodo k. La evolución del sistema en el tiempo está determinada por un sistema de 
ecuaciones en diferencias finitas, conocido como ecuaciones de estado: 
a:: (k + 1) = f (x (k), u (k), k), para k = O, 1, ... , N - 1, 
con x(O) = xo donde fes una función tal que 
/: D1 (e Rn) 
(x,u,k) 
X D2 (e Rm) 
-+ f (X, U, k) . 
X {0,1, ... ,N-1} -+ Rn 
Se supone que: 
u ( k) E O ( k) e Rm, para k = O, 1, ... , N - 1, 
en donde para cada k, n (k) es el conjunto de controles admisibles. La funcional objetivo 
que se considerará es del tipo: 
N-1 
J= ¿F[x(k),u(k),k]+S[x(N)], 
k=O 
donde F y S son funciones definidas como 
F : D1 ( C Rn) X D2 ( C Rm) X {0,1, ... ,N-1} -+ R 
(x, u, k) -+ F(x,u,k) 
y 
S: D1 e Rn -+ R 
x -+ S(x), 
respectivamente. Es decir, el sistema dinámico parte del estado inicial x0 • En el periodo 
o etapa 1 (correspondiente a k = O), el decisor debe elegir un control u(O) En (O), el cual 
realiza una aportación al funcional objetivo dada por: 
F [x (O) , u (O) , O] , 
y se revisa el periodo o etapa 2 ( correspondiente a k = 1) con el siguiente valor del vector 
de estado 
x(l) = f (x (O), u (O), O). 
En dicho periodo o etapa 2 (correspondiente a k = 1), hay que elegir un control u(l) E 0(1), 
el cual realiza una aportación al funcional objetivo dada por 
F [x (1), u (1), 1], 
Capítulo l. Programación Dinámica 16 
y se inicia el periodo o etapa 3 ( correspondiente a k = 2) con el siguiente valor del vector 
de estado 
x(2) = f (x (1), u (1), 1). 
Se procede, consecutivamente, de esta manera hasta que el decisor encuentra el periodo ó 
etapa N (correspondiente a k = N - 1) con estado anterior, x(N - 1), y tiene que elegir 
un control u (N - 1) En (N - 1), el cual efectúa una aportación al funcional objetivo dada 
por 
F [x (N - 1), u (N - 1), N - 1], alcanzando finalmente el estado: 
x(N) = f (x (N - 1), u (N - 1), N - 1). 
Por el hecho de terminar en dicho estado, se realiza también una aportación al funcional 
objetivo dada por S [x (N)]. Un control óptimo se define como un control tal que: 
u ( k) E n ( k) e Rn, para k = O, 1, ... , N - 1, 
es decir, un control admisible que, junto con los controles anteriormente seleccionados, 
maximiza el funcional objetivo. Por lo tanto, el problema en el que este trabajo estará 
interesado es: Dado un sistema dinámico con condición inicial, x0 , que evoluciona en el 
tiempo de acuerdo con la ecuación de transición de estados 
x(k + 1) = f (x {k), u (k), k), 
se desea encontrar para cada k un vector de controles que sea admisible y que haga que el 
funcional objetivo alcance su valor máximo. Si esto se expresa en términos más formales 
queda entonces de la siguiente forma: 
N-1 
max J= ¿F[x(k),u(k),k]+Slx(N)J, 
{u(k)}:=-01 k=O 
s.a. 
x (k + 1) = f (x (k), u (k), k), para k = O, 1, ... , N - 1, 
x(O) = xo, (1.1) 
u (k) E O (k) 
I 
El vector de controles u* = (u* (O), u* (1),, ... , u* (N - 1)) que resuelve el problema se 
I 
llama control óptimo y x* = (x* (O), x* (1),, ... , x* (N - 1)) , determinado por la ecuación 
de estado a partir de u* y de x(O), se llama trayectoria de estado óptima. Es importante 
hacer notar que no se ha exigido alguna condición de diferenciabilidad a las funciones que 
aparecen en el planteamiento del problema. A continuación, se estudia el método de la 
programación dinámica para resolver problema anteriormente formulado. 
Capítulo 1. Programación Dinámica 17 
1.2 Programación Dinámica Determinista 
La programación dinámica, introducida por Bellman (1957), fue creada inicialmente para 
resolver problemas formulados en tiempo discreto, aunque posteriormente sería adaptada 
para la resolución de problemas en tiempo continuo. La programación dinámica transforma 
la solución de un problema de N etapas o periodos a la resolución de N problemas de una 
etapa cada uno, en donde la decisión en la etapa actual sólo depende de la decisión en la 
etapa anterior. 
1.2.1 Causalidad 
El problema de control óptimo en tiempo discreto planteado anteriormente tiene una 
propiedad importante, llamada propiedad de causalidad, la cual se expresa en los siguientes 
términos. 
Propiedad de causalidad. Para cualesquiera j, r E {O, 1, ... , N - 1}, con j < r, se 
verifica que x(r) depende únicamente de x(j) y de los controles 
{ U (j) , U (j + 1) 1 ••• , U ( T - 1)} . 
Es decir, dado el estado x(j) en el que se encuentra el sistema dinámico al comienzo de 
la etapa (o periodo) j + 1, para cualquier etapa posterior r se verifica que el estado que 
se alcanzará al finalizar dicha etapa, x(r) depende exclusivamente del estado x(j) y de 
los controles que se apliquen entre las etapas j + 1 y r. En otras palabras, dados dos 
estados cualesquiera del sistema, uno anterior y otro posterior., el valor que tome el estado 
posterior depende únicamente del valor del estado anterior y de los valores de los controles 
intermedios entre ambos estados. Esta propiedad se verifica como consecuencia directa de 
la estructura del problema. En efecto, teniendo en cuenta la ecuación de estado se tiene 
que: 
x(j + 1) = f (x (j) , u (j) , j) , 
y que 
X (j + 2) = j ( X (j + 1) , U (j + 1) , j + 1) = f ( f ( X (j) , U (j) , J) , U (j + 1) , J + 1) , 
y así sucesivamente, hasta obtener 
x (r) = f (x (r - 1), u (r - 1), r - 1) 
= f (f (x (r - 2), u (r - 2), r - 2), u (r - 1), r - 1) 
= · · · = '11 [x (j), u (j), u (j + 1), ... , u (r -- 1)], 
Capítulo l. Programación Dinámica 18 
en donde esta última función W se obtiene al ir sustituyendo de manera recurrente el 
vector de variables de estado por el valor que resulta al aplicar la ecuación de estado. 
Como consecuencia de esta propiedad, el estado inicial x(O) y el conjunto de controles 
{u(O) ,u(l), ... ,u(N -1)}, 
determinan la trayectoria del vector de estado 
{x (O) ,x (1), ... ,x (N)}. 
Al utilizar la notación 
u[O,N-1) = {u(O) ,u(l), ... ,u(N-1)}, 
y, en general, 
u [j, N - 1) = { u (j), u (j + l), ... , u (N - 1)}, 
el funcional objetivo del funcional se puede escribir como 
J = Jo{x(O),u[O,N-l]}, 
por lo que, si x(O) está dado, para maximizar J sólo hay que determinarlos controles 
u[O, N - l]. 
Como puede notarse, la propiedad de causalidad no siempre se cumple en módelos 
económicos dinámicos. Por ejemplo, una decisión a tomar en cierto momento futuro por 
una autoridad económica, puede estar afectando al estado presente de dicha economía, por 
medio de las expectativas de los agentes. En tales casos la formulación del modelo de opti-
mización dinámica no se corresponde con el problema, en el que, como se ha comprobado, 
se cumple el supuesto de causalidad. 
1.2.2 Solución al problema de control óptimo mediante programación dinámica 
A continuación se presenta el método de programación dinámica, el cual permite obtener 
la solución óptima del problema ( 1.1). Para ello se demuestra el siguiente lema: 
Lema 1.1 Sean D y n' dos conjuntos cualesquiera. Sean g y h funciones reales, cuyos 
I 
dominios son D y D x D , respectivamente, entonces se cumple que: 
max {g (y)+ h (y, z)} = max {g (y)+ max {h (y, z)}}, 
yED,zED' yED zED' 
Capítulo l. Programación Dinámica 19 
suponiendo la existencia de solución óptima para estos problemas. 
Demostración 
a) La expresión a la izquierda de la igualdad es mayor o igual que la situada a la derecha. 
En efecto, es claro que 
I 
max , {g (y)+ h (y, z)} "?:_ g (y)+ h (y, z), V y E D, z E D . 
yED,zED 
En partícular: 
max {g(y) +h(y,z)} "?:. g(y) + max{h(y,z)},V y E D, 
yED,zED' zED' 
por lo que 
max {g (y)+ h (y, z)} "?:. max {g (y)+ ma.x {h (y, z)}}. 
yED,zED' yED zED' 
b) Ahora se demostrará la desigualdad inversa. Es claro que 
I 
h (y, z) :'.S max { h (y, z)} , V y E D, z ,~ D , 
zED' 
por lo que para todo y E D, z En', se verifica que 
g (y)+ h (y, z) :'.S g (y)+ max {h (y, z)} :'.S max {g (y)+ max {h (y, z)}}, 
zED' yED zED' 
de donde se obtiene que 
max {g (y)+ h (y, z)} :'.S max {g (y)+ max {h (y, z)}}, 
yED,zED' yED zED' 
y de esta forma el lema queda demostrado. 
Capítulo l. Programación Dinámica 20 
Proposición 1.1 
Sea J*(xo) el valor óptimo del funcional objetivo del problema (1.1), entonces 
J* (xo) = J; {xo}, 
en donde la función Jó viene dada por el último paso del siguiente algoritmo, el cual 
comienza al final del horizonte temporal y va hasta el principio de dicho horizonte. Por lo 
tanto, resolviendo hacia atrás se sigue que: 
JJ..¡ {x (N)} = S [x (N)], 
y para cada k E {N - 1, N - 2, ... , 1, O}, se tiene que 
J,:{x(k)} = max {F[x(k),u(k),k]+Jk+I {f[x(k),u(k),k]}}, 
u(k)Eíl(k) 
las cuales son llamada las ecuaciones recursivas de Bellman. Además, si u*(k) maximiza 
la expresión situada a la derecha de la ecuación anterior, en función de x(k), para cada 
k E {O, 1, ... , N - 1}, se obtiene que 
I 
u*= (u* (O) ,u* (1), ... ,u* (N -1)) , 
es el control óptimo del problema planteado en (1.1). 
Demostración 
A partir del enunciado del problema (1.1), es se sigue que 
{
N-1 } 
J* (xo) = max ¿ F[x(k),u(k),k] +S[x(N)] . 
u(0)Eíl(0), ... ,u(N -l)Eíl(N-1) 
k=O 
Por la propiedad de causalidad y el lema 1.1, la anterior expresión es equivalente a: 
max { F [ x (O) , u (O) , O] + max { F [ x ( 1) , u ( 1) , 1] 
u(0)Eíl(0) u(l)Eíl(I) 
+ max { F [x (2) , u (2) , 2] + ... + 
u(2)Eíl(2) 
+ max {F[x(N-1),u(N-1),N-l]+S[x(N)]} ... }}}· 
u(N-l)Eíl(N-1) 
Además la maximización esta sujeta a la restricción de la ecuación de transformación de 
estados del sistema: 
x ( k + 1) = f ( x ( k) , u ( k) , k) , para k = O, 1, ... , N - l, 
Capítulo l. Programación Dinámica 
con x(O) = Xo- Si se define ahora 
JÑ {x (N)} = S [x (N)], 
JÑ-i {x (N - 1)} 
= max {{ F [ x ( N - l) , u ( N - l) , N -- l] + JÑ { x ( N)}} , 
u(N-l)Eíl(N-1) 
donde 
x ( N) = f ( x ( N - l) , u ( N - l) , N - l) , 
y así, sucesivamente, hasta 
en donde 
se tiene que 
con 
J¡ {x (1)} = max {{F [x (1), u (1), 1] -- Ji {x (2)}}, 
u(l)Eí1(1) 
X (2) = f (x (1), U (1), 1), 
J;{x(O)}= max {{F[x(O),u(O),O] +J;{x(l)}}, 
u(O)Eí1(0) 
x (1) = f (x (O), u (O), O), con x(O) = xo, 
21 
y de acuerdo con la. cadena de igualdades que se tienen, la proposición queda demostrada 
I 
con el contról óptimo u* = (u* (O) ,u* (1), ... ,u* (N -1)). De esta manera, u*(k) maxi-
miza la expresión situada a la derecha de la ecuación de Bellman, en función de x(k), para 
cada k = O, l, ... , N - l. 
Como es lógico pensar, si el problema fuera de minimización, habría que minimizar 
el lado derecho de la ecuación de Bellman. Como ya se ha indicado anteriormente, la 
programación dinámica consiste en resolver un problema de N etapas o periodos, a través 
de la resolución de N problemas de una etapa o periodo. Cada uno de los N problemas 
se resolverá por el método que se considere oportuno en cada caso. No se ha supuesto 
diferenciabilidad de las funciones, pudiendo ser discretos o continuos los conjuntos de 
controles admisibles. La programación dinámica se apoya en el principio de optimalidad 
de Bellman que dice lo siguiente: 
Principio de optimalidad de Bellman 
Suponga que 
u*:._ (u* (O) ,u* (1), ... ,u* (N -1)) 
es el control óptimo del problema (1.1) y 
' 
x* = (x* (O), x* (1), ... , x* (N - 1), ... , :r* (N)) 
I 
Capítulo l. Programación Dinámica 22 
es la correspondiente trayectoria de estados óptima. Si se considera el subproblema que 
consiste en: 
N-1 
max J= ¿F[x(k),u(k),k]+Slx(N)J, 
{u(k)}:,;/ k=j 
s.a. 
x ( k + 1) = f ( x ( k) , u ( k) , k) , para k = j, j + 1, ... , N - 1, 
X(j) = x* (j), 
u (k) En (k), parak = j,j + 1, ... , N - 1, 
es decir, el subproblema que desea encontrar los controles óptimos en las etapas j + 1 a 
N -1, partiendo de la condición inicial x*(j), en la etapa j + 1, entonces el control óptimo 
' del subproblema formulado es (u* (j), u* (j + 1), ... , u* (N - 1)) , (vector truncado de u*). 
En este caso, la función JJ { x (j)} que proporciona el valor óptimo del funcional objetivo 
del problema truncado, en función del estado inicial x(j), se llama función valor de j a N. 
1.3 Programación Dinámica Estocástica 
La programación dinámica estocástica es uno de los métodos más importantes de opti-
mización dinámica, tanto en el caso de tiempo discreto, como en el caso de tiempo continuo. 
Esta extensión estocástica se presenta a continuación: 
1.3.1 Planteamiento del problema 
Considere el siguiente sistema dinámico, formulado en tiempo discreto, 
x (k + 1) = f (x (k), u (k), v (k), k), para k = O, 1, ... , N - 1, 
con x(O) = xo, 
en donde, para cada k: 
x(k) es el vector de variables de estado, perteneciente al espacio Sk, 
u(k) es el vector de variables de control, perteneciente al espacio Ck, y 
v(k) es el vector de perturbaciones aleatorias, perteneciente al espacio Dk. 
El control u(k) está restringido a tomar valores pertenecientes a un conjunto no vacío 
nk [x (k)], que depende del estado del sistema en ese periodo k, es decir: 
u (k) E nk [x (k)], para cada x (k) E Sk, V k = 0, 1, ... , N - l. 
La perturbación aleatoria v(k) es caracterizada por una distribución de probabilidad 
pk ( · I X ( k) ' u ( k)) ' 
Capítulo l. Programación Dinámica 23 
que puede depender explícitamente de x (k), u (k), pero es independiente de las perturba-
ciones aleatorias v (k - 1), v (k - 2), ... ,v(O). Si se consideran la política, que consiste en 
una sucesión de funciones: 
7f = {µo,µ1, ···,µN-d, 
en donde cada función µk transforma el estado x(k) en el control u(k) = µk [x (k)], de tal 
manera que se verifica que 
µk [x (k)] E nk [x (k)] V x (k) E Sk. 
De esta forma las políticas de control que cumplen esta condición se llamarán admisibles. 
Así pues, el problema consiste en: dado un estado inicial :z:0 , se trata de encontrar una 
política de control admisible 
que maximiza el siguiente funcional 
maxJ, (xo) =E{% F(x(k) ,µk [x (k)] ,v (k), k] + S [x (N)]}, 
s.a. 
x(k+ 1) = f [x(k),µk [x(k)],v(k),k],Vk = 0,1, ... ,N-1, 
con 
x(O) = xo, 
µk [x (k)] E f!k [x (k)] Vx (k) E Sk, 
en donde E { ·} denota el operador de esperanza matemática. Las funciones F, S y f se 
suponen conocidas. Se desea encontrar una política de control óptimo 1r*, para la cualse 
verifique 
Jrr* (xo) = max Jrr (xo), 
rrEII 
en donde II es el conjunto de políticas de control admisibles. La función J*, definida de la 
siguiente forma 
es la función que asigna a cada estado inicial x0 el valor objetivo J* (x0 ) y se llama 
función valor óptimo. Si el problema anterior es de minimizar, en lugar de maximizar, se 
puede expresar de la forma enunciada anteriormente, sólo cambiando el signo del funcional 
objetivo. 
Capítulo l. Programación Dinámica 24 
1.3.2 Solución al problema formulado mediante Programación Dinámica 
En esta sección se estudia a la programación dinámica, como método de solución del 
problema de control estocástico en tiempo discreto, el cual fue formulado en la sección 
anterior. De la misma forma que en el caso determinístico, se empieza por el final del 
horizonte temporal y se va analizando el problema periodo por periodo hasta llegar al 
periodo inicial. La programación dinámica, en este caso, permite resolver un problema 
estocástico de N etapas mediante la resolución de N problemas estocásticos de una etapa. 
Proposición 1.2 
Sea J*(x0 ) el valor óptimo del funcional objetivo del problema establecido en la sección 
anterior, entonces 
J* (xo) = Jo (xo)' 
en donde la función Jó está dada por el último paso del siguiente algoritmo, que comienza 
al final del horizonte temporal y va hasta el principio del mismo. Sea 
J;., (x (N)) = s [x (N)], 
y para cada k E {N - 1, N - 2, ... , 1, O} defina 
J;_ [x (k)] = max Ev(k) {F [x (k), u (k), v (k), k] 
u(k)Eí1k (x(k)] 
+Jk+I [f [x (k), U (k), V (k), k]l}, 
que proporciona la ecuación recursiva de Bellman. Si u* (k) = µ'ic [x (k)] maximiza el lado 
derecho de la ecuación de Bellman, para cada x(k) y para cada k E {O, 1, ... , N - 1}, la 
política de control 
* { * * * } 7í = µo,µ1, .. ,,µN-1 , 
es óptima. 
Demostración 
El hecho de que la distribución de probabilidad que caracteriza a v(k) dependa sólo de x(k) 
y u(k), pero no de los valores previos v(k - 1), v(k - 2), ... , v(O), y el hecho de que v(k -
Capítulo l. Programación Dinámica 25 
1), v(k - 2), ... , v(O) son variables aleatorias independientes, permite escribir lo siguiente: 
J*(xo)= rnax J(xo,µo,µ1, ... ,µN-1) 
/J,o ,/J,l , ... ,/J,N-1 
= µ.,.:'.''°,;,N_, E { % F [x (k), /.Lk [x (k)], v (k), k] + S [x (N)]} 
= rnax [Ev(O} {F [x (O), µo [x (O)], -u (O), O] 
/J,0,/J,l,···1/J,N-l 
+ Ev(l) {F [x (1), µ1 [x (l)], v (1), l] 
+··· 
+ Ev(N-1) {F [x (N - 1), µN-1 [x (N - 1)], v (N - 1), N - 1] 
+s [X (N)]} · · -}] . 
Por ser un sistema causal, la expresión anterior se puede reescribir corno: 
J* (xo) = rnax [Ev(O) { F [x (O), µo [x (O)], v (O), O] 
/J,o 
+ rnax [Ev(l) {F [x (1), µ1 [x (l)], v (1), l] 
/J,1 
+··· 
+ rnax [Ev(N-1) {F [x (N - 1), µN-1 [x (N - l)], v (N - 1), N - l] 
/J,N-1 
+ S [x (N)]}] · · · }]}] . 
En esta ecuación, la rnaxirnización afecta a todas las funciones µk tales que 
µk [x (k)] E nk [x (k)]. 
Además, la rnaxirnización está sujeta a la restricción de la ecuación del sistema 
x (k + 1) = f (x (k), µk [x (k)], v (k), k), para k = O, l, ... , N - l. 
Si se definen las siguientes funciones 
JÑ [x (N)] = S [x (N)], 
y para cada k E {N - 1, N - 2, ... , 1, O}, se cumple que 
Jk [x (k)] = rnax [E {F [x (k), u (k), v (k), k] 
u(k)Eflk [x(k)) 
+Jk+l [/ [x (k), U (k), V (k), k]l}] , 
entonces la proposición queda demostrada; siendo la política de control óptimo: 
* { * * * } 7f = µo, µ1, ···, µN-1 · 
Capítulo l. Programación Dinámica 26 
1.4 Programación dinámica continua 
En esta sección se discute un tipo de problemas de optimización, en tiempo continuo, y se 
proporciona la intuición que se encuentra detrás de los métodos empleados para resolverlos. 
Estos métodos han sido utilizados por diversos autores para estudiar: el equilibrio, las 
estrategias y la valuación de activos. La primera parte de esta sección se concentra en 
el caso de un horizonte infinito. Es importante destacar que se puede usar el principio 
del máximo o las técnicas del cálculo diferencial para resolver este tipo de problemas. 
Posteriormente se extiende el análisis a problemas similares en un ambiente estocástico. 
1.4.1 Programación dinámica determinista continua a tiempo homogéneo 
En esta sección se generalizará el método de programación dinámica a tiempo continuo, 
para ello suponga que se desea maximizar el funcional objetivo: 
j ( X ( t) l t) = max { /
00 
F ( X ( t) l U ( t) , t) } l 
u(t) 
t 
s.a. 
dx 
dt = f ( X ( t) , U ( t) , t) , (1.2) 
x(O) = xo, 
donde x(t) es la variable de estado y u(t) es la variable de control. Para resolver este 
problema se escribe: 
J ( x ( t) , t) = max { /
00 
F ( x ( s) , u ( s) , s) ds } 
u(t) 
t 
=r;:c'D { JdtF(x (s) ,u(s) ,s)ds + J F(x(s) ,u(s) ,s)ds}. 
t t+dt 
Por el teorema del valor medio para integrales, se tiene que 
J (x (t), t) = max {F (x (t), u (t), t) dt + o(dt) + J (x (t) + dx(t), t + dt)} 
u(t) 
= max {F (x (t), u (t), t) dt + o(dt) 
u(t) 
+ J ( X ( t) , t) + dJ ( X ( t) , t + dt)} . 
Capítulo 1. Programación Dinámica 27 
Al expandir a dJ en una serie de Taylor, alrededor del punto (x(t), t), la expresión anterior 
se transforma en: 
J ( x ( t) , t) = max { F ( x ( t) , u ( t) , t) dt + o( dt) + J ( x ( t) , t) 
u(t) 
En consecuencia, 
+Jtdt + Jxdx + o (dt)} 
= max { F ( x ( t) , u ( t) , t) dt + o( dt) + J ( x ( t) , t) 
u(t) 
+Jtdt + Jxdx}. 
max {F (x (t), u (t), t) dt + o(dt) + Jtdt + Jxdx} = O, 
u(t) 
Después de dividir la expresión anterior entre dt y tomar el límite cuando dt---+ oo, se tiene 
que 
max { F ( x ( t) , u ( t) , t) + Jt + J x ddx } = O. 
u(t) t 
En virtud de (1.2), se obtiene que 
max { F ( x ( t) , u ( t) , t) + Jt + J x f ( x ( t) , u ( t) , t)} = O. 
u(t) 
La ecuación anterior es conocida como la ecuación de Hamilton-Jacobi-Bellman. De esta 
forma para resolver el problema de optimización con programación dinámica, en tiempo 
continuo, basta con resolver la ecuación anterior. 
1.4.2 Programación dinámica continua estocástica 
Se comenzará con el análisis de un problema de horizonte infinito, la ventaja de estos 
problemas en tiempo homogéneo es que el valor del funcional. objetivo no depende explíci-
tamente del tiempo. Lo anterior permite eliminar una variable de la ecuación diferencial 
parcial derivada. Si la optimización es tomada sobre un horizonte de tiempo finito, el 
problema es llamado a tiempo no homogéneo. El problema general puede ser establecido 
de de la siguiente forma: se desea maximizar el valor de una variable, V, la cual depende de 
un conjunto de variables de estado, X, la variable de tiempo, t y parámetros del problema. 
Además, el valor de V puede ser influenciado por algún control, u(t). Para un proceso 
estocástico, X, el problema anterior puede ser escrito como: 
V= maxE0 { /
00 
e-rtF(X,u(t))dt I Fo } , 
u(t) Jo 
Capítulo 1. Programación Dinámica 28 
s.a. 
dX = a (X, u(t)) dt + a (X, u(t)) dW 
La consideración de horizonte infinito en este problema junto con la independencia de u, a 
y a de t, es de particular interés en esta sección. Es importante mencionar que en algunos 
casos, u(t) puede ser una constante. Si se puede determinar una solución en forma cerrada 
para V, entonces u(t) puede ser seleccionada a través del cálculo diferencial para maximizar 
el valor de V. También puede ser empleado el principio estocástico del máximo, el cual 
permite el estudio de controles más complejos. El problema anterior puede ser resuelto de 
la siguiente forma: 
sea 
J (t, Xt) = max E [ ('° e-rs F(Xs, u(s))dslFtl 
u(s)lts,oo) Ít 
= max E e-rs F(Xs, u(s))ds + e-rs F(Xs, u(s))ds Ft [¡t+dt ¡(X) I ] 
u( 8) lis ,oo) t t+dt 
= max E [ rt+dt e-rs F(Xs, u(s))ds + J (t + dt, Xt + dXt) IFt] . 
u(s)l¡t,t+dt) Ít 
Por el teorema del valor medio para integrales, se tiene que 
J (t, Xt) = max E [e-rt F(Xt, u(t))dt + o(dt) + J (t + dt, Xt + dXt) IFtl . 
u(s)l[t,t+dtJ 
En virtud de la definición de diferencial, se obtiene que 
J (t + dt, Xt + dXt) - J (t, Xt) = dJ (t,Xt), 
entonces 
J (t, Xt) = max E [e-rt F(Xt, u(t))dt + o(dt) + dJ (t, Xt) + J (t, Xt) IFtl 
u(s)ltt,t+dt) 
= rnax E [e-rt F(Xt, n(t))dt + o(dt) + dJ (t, Xt) IFtl + J (t, Xt) 
u(s)ltt,t+dt) 
O= max E [e-rt F(Xt, u(t))dt + o(dt) + dJ (t, Xt) IFtl . 
u(s)ltt,t+dt) 
Al aplicar, a la ecuación anterior, el Lema de Itó, se produce 
O= max E [e-rt F(Xt, u)dt + o(dt) + (1t + a(X, u)Jx + ~a2 (X, u)Jxx) dt 
u(s)l¡i,t+dt) 
+ Jxa(X, u(t))dWIFtl . 
Capítulo l. Programación Dinámica 29 
Después de tomar el valor esperado, se sigue que 
O= max {e-rt F(Xt, u)dt + o(dt) + (1t + a(X, u)Jx + ~a2 (X, u(t))Jxx) dt}. 
u(s)l¡t,t+dt] 2 
Si se dividen ambos lados de la ecuación anterior por dt y luego se toma el límite cuando 
dt tiende a cero, se obtiene 
O= max {e-rt F(Xt, u(t)) + lt + a(X, u(t))Jx + ~a2 (X, u(t))Jxx}. (1.3) 
u(t) 2 
Debido a que la función objetivo tiene una forma separable entonces, se propone como 
candidato de la solución de la ecuación diferencial parcial anterior a: 
Al calcular lt, J x, J x x, se tiene: 
J(t, X) = V(X)e-rt. 
lt = - rV(X)e-rt, 
Jx =Vx(X)e-rt, 
Jxx =Vxx(X)e-rt_ 
Al sustituir lo anterior en (1.3), se obtiene 
O= max { e-rt F(Xt, u(t)) - rV(X)e-rt + a(X, u(t))Vx(X)e-rt 
u(t) 
+ ~a2 (X,u(t))Vxx(X)e-rt}. 
Si se dividen ambos miembros de la ecuación por el factor e-rt, se sigue que 
O= max {F(Xt, u(t)) - rV(X) + a(X, u(t))Vx(X) + -
2
1 
a 2 (X, u(t))Vxx(X)}. 
u(t) 
Lo anterior es equivalente a 
rV(X) = max {F(Xt, u(t)) + a(X, u(t))Vx(X) + -
2
1 
cr2 (X, 'U(t))Vxx(X)}. 
u(t) 
Para maximizar la expresión anterior se podría ocupar el cálculo diferencial si u( t) es 
constante, los métodos de maximización restringida si u( t) es variable y restringida, o el 
cálculo de variaciones. Una vez que el máximo de u(t) es encontrado, la ecuación diferencial 
puede ser resuelta utilizando técnicas de ecuaciones diferenciales parciales. La condición 
necesaria para un máximo es: 
1 
F(Xt, u(t)) + a(X, u(t))Vx(X) + 2a
2 (X, u(t))Vxx(X) - rV(X) = O. 
Capítulo 1. Programación Dinámica 30 
La ecuación anterior es conocida como la ecuación de Hamilton-Jacobi-Bellman. 
1.4.3 Extensión a múltiples variables de estado 
Si hay mas de una variable estocástica (pero su valor no depende del tiempo) en el problema 
anterior, la extensión es directa. Al usar la extensión multivariada del lema de It6, se puede 
calcular dV de forma directa. De esta manera la ecuación diferencial parcial que caracteriza 
al control óptimo mantiene la variable de estado extra. 
Suponga que se desea maximizar el valor de una función F (a, b, u, t), donde a y b 
siguen el siguiente sistema de ecuaciones diferenciales estocásticas: 
da =f(a, b, u)dt + u(a, b, u)dZa 
db =g(a, b, u)dt + v(a, b, u)dZb 
dZadZb =pdt 
sujeto a las condiciones iniciales a(O) = a0 y b(O) = b0 . Así, el problema queda planteado 
como: 
Para encontrar el control óptimo, se seguirá el siguiente procedimiento, para ello sea: 
J(t, at, bt) - max E { ('° F (a, b, u, s) e-·rsds I Ft } . 
ul¡t,oo) lt 
Se tienen las siguientes igualdades 
J(t, at, bt) = max E { /t+dt F (a, b, u, s) e-rsds + (XJ G(s)e-rsds I Ft } 
ul¡t,oo) lt lt+dt 
= max E { ¡t+dt F (a, b, u, s) e-rsds + J(t + dt, ªt + dat, bt + dbt) 1 Ft } 
ul¡i,t-t-dt) lt 
= max E { F (a, b, u, t) e-rsdt + o(dt) + J(t, at, bt) + dJ(t, at, bt) 1 Ft } 
ul¡i,t+dt) 
= max E{F (a, b, u, t) e-rtdt + o(dt) + J(t, at, bt) 
ul¡t,t+dti 
+ (lt + J(a, b, u)la + ½u2 laa + g(a, b, u)Jb + ½v2 Jbb + uvplab)dt 
+ uladWt + vJbd½ 1 Ft }· 
Capítulo l. Programación Dinámica 31 
En consecuencia: 
O= max E{ F (a, b, u, t) e-rtdt + o(dt) 
ui(i,t+dt) 
+ (Jt + J(a,b,u)Ja + ½a2 Jaa + g(a, b,u)Jb + ½v2 Jbb + avpJab)dt 
+ aJadWt + vJbdVi 1 :Ft }-
Si se toman valores esperados, se sigue que 
O= max { Fe-rtdt+o(dt)+(Jt+f(a,b,u)Ja+½a2 Jaa+g(a,b,u)Jb+½v2 Jbb+avpJ0 b)dt} 
ul¡i,t+dt) 
Si ahora se divide entre dt y, posteriormente, se toma el límite cuando dt ~ O, se tiene que 
O= m:1' { F (a, b, u) e-rt + Jt + f(a, b, u)Ja + ½a2 Jaa + g(a, b, u)Jb + ½v2 Jbb + avpJab }-
Si u es máximo, entonces 
O= F (a, b, u, t) + Jt + f(a, b, u)Ja + ½o-2 Jaa + g(a, b, u)Jb + ½v2 Jbb + avpJab· (1.4) 
Dada la forma separable de la función objetivo, se propone como candidato de la ecuación 
diferencial parcial anterior a 
De esta manera, 
lt = - rV(a, b)e-rt, 
J V, -rt a= ae , 
Jb =Vbe-rt, 
J V, -rt ªª = aae ' 
Jbb =¾be-rt, 
lab =Vabe-rt_ 
Al sustituir las derivadas pariciales anteriores en (1.4), se tiene que 
O= F (a, b, u, t) - rV + J(a, b, u)Va + ½a2 Vaa + g(a, b, u)Vb + ½v2½,b + avpVab· 
Por lo tanto, la siguiente ecuación diferencial parcial debe ser satisfecha en el óptimo: 
[ 
1 2 1 2] rV = m:1' F (a, b, u, t) + V0 f + Vbg + 2 V00a + Vabavp + 2 ¾bv . 
Capítulo 1. Programación Dinámica 32 
La ecuación anterior es una generalización de la ecuación de Hamilton-Jacobi-Bellman, 
para dos variables de estado. Por un procedimiento similar al anterior se puede obtener la 
ecuación de Hamilton-Jacobi-Bellman paran variables de estado. 
1.4.4 Extensión a la dependencia explícita del tiempo 
En teoría, la extensión del modelo básico para incorporar la dependencia explícita del 
tiempo es directa. Sin embargo, la dificultad computacional es frecuentemente magnificada 
por ésta aparente extensión simple. Se considera una vez más el problema de maximización, 
pero adicionando algunos elementos: 
V= maxE0 { /
7 
e-rt F (X, s, u(t)) dt + e-rT B (X(T), T) 1 Fo } 
u(t) lo 
sujeto a: 
dX = a (X, t, u(t)) dt + a (X, t, u(t:)) dZ. 
de esta forma, la optimización es tomada en un horizonte fijo de tiempo y al final la función 
de herencia es incluida en la función objetivo. La interpretación de la función de herencia 
puede diferir dependiendo del problema. Por ejemplo, un consumidor desea maximizar 
su utilidad más un consumo de supervivencia en una fecha determinada en el futuro. Al 
seguir la metodología empleada anteriormente, se tiene que: 
rV + V7 = max [F (X, u(t), T) + Vxa (X, u(t), T) + -21 Vxxa2 (X, u(t), T)] . u(t) 
La diferencia de este caso con el anterior está en el lado izquierdo de la ecuación, la cual 
incluye la derivada parcial respecto del tiempo, además se deben satisfacer condiciones 
adicionales de frontera del comportamiento de V cuando T ·-+ O es decir: 
V(X, O) = B(X, O), 
donde B(X, O) es una función conocida. La ecuación diferencial parcial resultante puede 
ser resuelta por varios métodos, incluyendo el método de la transformada de Laplace o el 
método de la transformada de Fourier. En la probable ausencia de una solución cerrada 
los métodos de aproximación numérica son utilizados. 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 
,, 
CAPITULO 2 
MÉTODO DE VALUACIÓN DE OPCIONES 
CON DEPENDENCIA EN LA TRAYECTORIA 
33 
En este capítulo se presentará un método de valuación de opciones con dependencia en 
la trayectoria del precio del activo subyacente. Específicamente se utilizará programación 
dinámica para calcular la prima de una opción con dependencia en la trayectoria. Para 
aproximar la función de pagos se utilizará interpolación lineal por pedazos. 
2 .1 Opciones exóticas 
Las opciones exóticas tienen su origen en la década de los noventa, aunque se sabe que 
algunas de sus modalidades ya aparecían en mercados "Over The Counter" (OTC) a finales 
de la década de los setentas. Sin embargo, no es hasta la década de los noventas cuando su 
negociación comienza a ser relevante. Las opciones exóticas son opciones con características 
distintivas que difieren de las opciones clásicas, ya sea por el precio de ejercicio, el tipo 
de subyacente y las condiciones de pago. Este tipo de opciones también se les conoce con 
el nombre de opciones de segunda generación, ya que tratan de superar los límites de las 
operaciones estándar, las cuales presentan en su mayoría contratos sumamente rígidos. A 
partir de una opción sencilla, con ciertas modificaciones y en función de ciertas condiciones, 
se pueden diseñardistintos tipos de opciones exóticas. Los factores determinantes de éste 
tipo de opciones son muy variados. 
Los periodos de gran volatilidad en los mercados de capitales han impulsado el de-
sarrollo de las opciones exóticas. Entre los factores que han inducido dicho desarrollo se 
pueden mencionar: los avances tecnológicos y el impresionante avance de la teoría de la 
valuación de opciones. La creciente utilización de estos instrumentos ha tenido un gran 
impacto en los mercados de capitales a nivel internacional, al negociarse tanto para la ad-
ministración de riesgos, como para la especulación. No obstante, su volumen de negociación 
no es todavía lo suficientemente grande, pero se espera que se experimente un auge mayor. 
Actualmente, su utilización comienza a extenderse y podría darse el salto de los mercados 
Capítulo 2. Método de valuación de opciones con dependencia en .la trayectoria 34 
OTCs, a los mercados listados. Entre los tipos de opciones exóticas se pueden mencionar a 
las opciones "path-dependent" (dependientes de la trayectoria), opciones compuestas, op-
ciones apalancadas, opciones con pago singular y opciones "rainbow", entre otras. Dentro 
de este tipo de derivados, las opciones "path-dependent" juegan un papel muy importante 
en muchos mercados financieros, en particular esta tesis se enfocará en dos opciones de éste 
tipo: las opciones bermudas e "installments" bermudas cuyo pago al vencimiento depende 
no sólo del valor que alcance el subyacente al vencimiento, sino también de su evolución 
en el tiempo. Por lo que la decisión de ejercer o no la opción depende de la evolución del 
precio del activo subyacente en el tiempo. Valuar este tipo de opciones es una tarea difícil, 
debido a su dependencia con la trayectoria del activo subyacente. En este caso, el uso de 
métodos de aproximación es muy útil para el proceso de valuación. En lo subsiguiente 
se supondrá una opción del tipo "path-dependent" cuyo ejercicio se puede realizar en un 
conjunto de fechas discretas hasta el vencimiento de este instrumento. 
2.2 Opciones tipo Path-Dependent 
En esta sección se describirá un método para calcular el precio de una opción del tipo "path-
dependent" a través de una técnica llamada interpolación lineal por pedazos. ( "Piecewise 
linear lnterpolation" ) . 
Considere una opción dependiente de la trayectoria cuyo ejercicio se puede realizar en 
un conjunto de fechas discretas hasta el vencimiento de este instrumento. Suponga que el 
valor de este instrumento (prima), al tiempo O, está dado por v. Sean to = O la fecha de 
emisión de la opción y t 1 , t 2 , ... , tn = Tuna colección de fechas de ejercicio de la opción, 
donde T es el vencimiento del contrato. Considere que el precio del activo subyacente es 
conducido por la siguiente ecuación diferencial estocástica: 
dSt = µ (St, t) dt + u (St, t) dWt. (2.1) 
Suponga que Vm es el pago de la opción al tiempo tm y 
Vm = f (St,,., t) , 
es decir, el pago de la opción depende de la trayectoria del activo subyacente hasta la fecha 
tm. Con base en la metodología de valuación neutral al riesgo, se tiene que el precio de 
esta opción al tiempo tm está dado por: 
(2.2) 
Sin embargo, de la ecuación anterior, se observa que el valor esperado depende de la 
trayectoria del precio del activo subyacente hasta el tiempo tm, es por ello que debe ser 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 35 
aproximado por algún método. Una técnica eficiente y que es de gran utilidad es la conocida 
como interpolación lineal por pedazos, la cual consiste en encontrar el valor de una función 
en un punto intermedio desconocido dados dos valores de esta función. Este método es muy 
popular en muchas aplicaciones tecnológicas tales como en fotografía digital, calibración 
de imágenes y registros, texturas y remuestreo. El objetivo de esta sección es plantear 
un método para calcular el valor esperado de la ecuación (2.1). Este método consiste 
en particionar el eje real positivo en una colección de intervalos y entonces aproximar el 
valor de la función de pagos por el método de interpolación lineal por pedazos. Para ello 
considere un conjunto de puntos a0 = O < a1 < ... < ap < ap+I = +oo y sea Ro, ... , Rp 
una partición de los reales en p + 1 intervalos de la forma 
Ri = (ai, ªH1] para i = O, .. ,p. 
Si Vm es una aproximación del valor de la opción en los puntos ai en el paso m, esta función 
es interpolada linealmente por pedazos, lo cual produce 
p 
vm(s) = ¿ (ai + .B;ns) I (ai < s :S ªH1), (2.3) 
i=O 
donde I es una función indicadora. Los coeficientes locales de esta interpolación en el paso 
m, que son los ar Y los .ar I son obtenidos al resolver la ecuación lineal 
donde: 
,Bf = vm (aH1) - vm (ai). 
ªH1 - ai 
Para el caso i = p, los valores para a;i y .B;" están dados por 
m m am am 
Qp = ªp-1 Y /Jp = /Jp-1 · 
(2.4) 
(2.5) 
Si Vm+l es conocido. En virtud de (2.1), el valor esperado en (2.2) al paso m está dado 
por la expresión: 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 
por lo que al sustituir (2.3) en la ecuación anterior, se tiene que: 
Vm =E [e- rdtvm+l (Stm+l) IStm = ak] 
Si se denotan 
entonces 
=E [e-rdt t (ai + {3f"Stm+i) I (ai < s ~; ªi+I) IStm = ak] 
i=O 
p 
=e-
rdt ¿ aiE [J (ai < S ~ ªHI) IStm = ªk] 
i=O 
p 
+e-rdt ¿f3fE [Stm+J(ai < s ~ ªi+I) IStm = ak]. 
i=O 
p p 
v = e-rdt ~ a"!'-A . + e-rdt ~{3~m B .. 
m L....,¡ i k,i L....,¡ ,. k,i 
i=O i=O 
36 
(2.6) 
(2.7) 
(2.8) 
(2.9) 
En las siguientes secciones se verán los casos particulares para el movimiento Browniano 
geométrico y el movimiento Browniano con reversión a la media. 
2.3 Caso movimiento Browniano geométrico 
A continuación se trabajará con el supuesto de que el proceso en (2.1) bajo una medida 
de probabilidad neutral al riesgo sigue un movimiento Browniano geométrico de la forma: 
donde ó es la tasa de dividendos, a es la la volatilidad de los rendimientos del activo sub-
yacente y Wt es un movimiento Browniano estándar. De esta forma el valor del parámetro 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 
Ak i' dado en (2.7), satisface 
1 
00 
= J J (ai < S ~ ªH1) Ístrn+llStm (s ISt ... = ªk )ds 
o 
ª• 
ª•+l ª• 
= J Íst ISt (slSt ... =ak)ds-f Jst ¡c;t (slSt ... =ak)ds m+l m m+l L m 
o o 
_ ( (2) ) ( (2)) - N -dk,í+l - N -dk,i . 
37 
La última igualdad es debida a la fórmula de valuación de Black-Scholes. Por lo tanto, 
_ ( (2) ) ( (2)) Ak,i - N -dk,í+l - N -dk,i ' 
donde 
ln ( 8t1!1) + (r - q- lcr2 ) dt 
i2) _ a, 2 
k,i - crv'dt 
Sea µ = r - q - ½cr2 • En virtud de que Strn = ak, se sigue que: 
Sea 
entonces 
es decir, 
i 2) _ ln ( ~) + µdt 
k,i - crv'dt 
-ln (t) + µdt 
crv'dt 
(2) 
Xk,i = -dk,i' 
x . _ -i2) __ - ln ( ~) + µdt _ ln ( ~) - µdt 
k,i - k,i - crv'dt ,:rv'dt 
ln(~ )-µdt 
Xk,i = crv'dt 
Por lo tanto, a partir de (2.10) y (2.12), se obtiene 
(2.10) 
(2.11) 
(2.12) 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 38 
A continuación se analizarán algunos casos especiales para el índice i. Cuando i = O, se 
tiene que 
_ In ( ~~ ) - µdt _ In ( 2k ) - µdt _ In (o) _ µdt _ 
Xk O - --'----'---- - --'-----'---- - ---- - -00 
' av'dt av'dt av'dt 
ya que ao = O. De esta forma se obtiene 
N (xk,o) = N (-oo) = O. 
Por lo tanto, 
Para el caso i = p + l, se tiene ap+l = oo, por lo que 
In ( ªa; 1 ) - µdt In ( ~ ) -- µdt 
X - --'----'---- - --'----'---- - 00 
k,p+I - avdt - av'dt - ' 
así 
N (xk,p+1) = N (oo) = 1, 
por lo tanto 
De esta forma se tiene que 
i = o, 
1 ~ i ~ p- 1, 
i = p. 
(2.13) 
(2.14) 
Ahora se calculará el segundo sumando de (2.9). De acuerdo con (2.8), se tiene que 
00 
= J sl (ai < s ~ ª·i+I) Íst=+l IStrn (s IStTn = ª'- )ds 
o 
ªi+l 
= j sf st=+i ISt= (s ISt= = ak )ds 
a¡ 
a¡+1 a¡ 
= J sfst ISt (s ISt= = ak )ds - J sf st ISt (s ISt= = ak )ds =+l Tn =+l 7n 
o o 
= erdt St= N ( -d~~l+i) -erdt St= N ( -d~~o . 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 39 
Como antes, la última igualdad se obtuvo por la formula de valuación de Black-Scholes 
para una opción de venta europea. Así, se tiene que 
ln ( 8t_rn) + (r - q + la2 ) dt 
i1) _ a, 2 
k,i - av'dt , 
pero Stm = ak, por lo que 
B · = erdta N (-i1~ ) - e rdta N (-i1~) k,i k k,i+l k k,i 
y 
il) _ ln ( ~) + (r - q + ½a2) dt 
k,i - av'dt 
pero d2 = d1 - av'dt, entonces d1 = d2 + avdt, en consecuencia 
y de acuerdo con (2.11), entonces (2.16) puede ser reescrita. como 
(1) - ,,-; 
dk,i - -xk,i + av dt. 
Al sustituir (2.17) en (2.16) se tiene que: 
Bk,i = erdtakN ( Xk,i+l - av'dt) - erdtakN ( Xk,i - av'dt) . 
A continuación se verán otros casos especiales sobre el indice i. 
Caso 1: Si i = O 
In (-lf-) - µdt In ( a~ ) - µdt ln (o) _ µdt 
Xk,O = - -~-=--- - - -00 av'dt avdt - avdt - ' 
(2.15) 
(2.16) 
(2.17) 
(2.18) 
entonces N ( Xk,O - av'dt) = N (-oo) = O, por lo que al sustituir en (2.18), se tiene que 
Bk,l =erdtakN ( Xk,1 - av'dt) - erdtakN (:z:k,O - av'dt) 
= erdtakN ( Xk,1 - av'dt). 
Caso 2: Si i = p + l, entonces 
ln ( ªJ:1 ) - µdt 1n ( ~ ) - µdt In ( oo) - µdt 
X - ----=-- - -~-=--- - ----- - 00 
k,p+l - av'dt av'dt - av'dt - ' 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 
por lo que 
N ( Xk,p+l - av'dt) = N (oo) == l. 
Al sustitur la expresión anterior en (2.18), se tiene que 
Por lo tanto, 
Bk,p =erdtakN ( Xk,p+l - av'dt) - erdtakN ( Xk,p - av'dt) 
= erdtak [N ( oo) - N ( Xk,p - av'dt)] 
= erdtak [ 1 - N ( Xk,p - av'dt)] . 
erdtakN ( Xk,1 - av'dt) si i = O, 
Bk,i = erdtak [N ( Xk,i+l - av'dt) - N ( Xk,i - av'dt)] si 1 ::; i::; p - 1, 
erdtak [ 1 - N ( Xk,p - av'dt)] si i = p. 
con Xk,i definida en (2.12). 
40 
(2.19) 
2.4 Caso movimiento Browniano con reversión a la media 
En algunos mercados como es el caso de los energéticos o algunos de "commodities", el 
movimiento Browniano geométrico no describe adecuadamente la evolución de sus precios. 
Es por ello que se han planteado diversas modificaciones de este proceso con el fin de 
obtener una representación más realista de estos precios. Por ejemplo, en estos mercados 
el principal atributo de los precios "spot" es la reversión a la media y la estacionalidad. 
Se dice que una variable tiene reversión a la media hacia un valor, llamado media de largo 
plazo, si presenta la siguiente propiedad: mientras mas lejos se mueva de este nivel, la 
probabilidad será mayor de que en un futuro regrese a él. De esta forma el movimiento 
Browniano geométrico no tiene reversión a la media debido a que no tiene información 
sobre la media de largo plazo y la distribución de los cambios futuros en los logaritmos del 
precio es la misma, independientemente de su nivel actual. Es por ello que a continuación 
se propone la siguiente modificación al movimiento Browniano geométrico para incorporar 
esta propiedad, al cual se le llamara en adelante movimiento Browniano con reversión a la 
media. Considere el siguiente proceso con reversión a la media 
dSt = Sta (b - ln (St)) dt + adW1 (2.20) 
donde b-(a2 /2a) es la media de largo plazo del logaritmo del precio "spot" y el parámetro 
a es la velocidad de ajuste hacia el parámetro de reversión. A continuación se resolverá la 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 41 
ecuación diferncial estocástica anterior para determinar la distribución de probabilidad de 
este proceso. Para ello considere la siguiente transformación, sea 
Zt = ln (St), (2.21) 
al aplicarle el lema de Ito a Zt, se tiene que 
[
8Zt 8Zt l 2 2 8
2 Ztl 8Zt 
dZt = 8t + Sta (b - Zt) oSt + rr St oS¡ dt + o-St {)St dWt 
[O+ Sta (b - Zt) ;t + ~a
2
S¡ (- ;¡) l dt + aSt ;t dWt 
[ a (b - Zt) - ~0-2] dt + adWt 
= a ( b - 2
1ª o-2 - Zt) dt + ad Wt. 
De la expresión anterior es importante destacar que el logaritmo del proceso (2.20) tiene 
la forma del proceso de Vasicek, donde el parámetro de la velocidad de ajuste hacia el 
parámetro de largo plazo es el mismo del proceso (2.20) y el parámetro de reversión es 
b - ( o-2 /2a). Por lo tanto, la cantidad b - ( o-2 /2a) se interpreta como la media de largo 
plazo del logaritmo del precio "spot". A continuación se determinará el proceso Zt, para 
ello considere la siguiente transformación. Sea 
(2.22) 
al aplicarle nuevamente el lema de Ito a Yt, se tiene que 
[
8Yi ( 1 2 ) 8Yi l 2 8
2
Yi l 8Yt dYt = - + a b - -a - Zt - + -a - 2 dt + a-dWt 8t 2a 8Zt 2 8Zt 8Zt 
= [aeªt Zt + a (b -
2
1ª o-2 - Zt) eªt + ½a2 (o)] dt + aeªtdWt 
=a ( b -
2
1ª o-2) eªtdt + aeªtdWt, 
de donde si t1 < t2 
t2 t2 t2 
Yi2 - Yt1 = J dYu = J a (b- 21ª o-2) eªudu + J aeªudWu 
t1 t1 t1 
t2 t2 
=a (b-
2
1
a o-
2
) J eªudu + J aeªudWu 
t1 t1 
t2 
=a (b - 21a o-2) ¾ (eªt2 - eªt1) + / aeªudWu, 
t1 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 
por lo tanto 
t2 
Yt2 = Yt1 + (b - ;a a 2) (eªt2 - eªt1) + J aeªudWu. 
t1 
Por (2.22), se tiene que la expresión anterior es equivalente a 
es decir, 
t2 
eªt2 Zt2 = eªti Zt1 + (b - 2~ a 2) (eªt2 - eªt1) + J aeªudWu, 
t1 
t2 
Zt2 = e-a(trti) Zt1 + (b - 21a 0"2) ( 1 - e-a(t2-t1)) + e-at2 J aeªudWu. 
t¡ 
t2 
42 
(2.23) 
Como dWu,...., N (O, du), entonces f aeªudWu tiene una distribución de probabilidad nor-
t1 
mal, lo que implica que Zt 2 tambienes normal, cuyos parámetros (esperanza y varianza) 
se calculan a continuación. 
por lo que 
+ e-••, J ue""dW. l\l',,] 
t1 
=e-a(t2-tdzt1 + (b- 21aª2) (1- e-a(t2-ti)) 
t2 
+e-at2 J aeªuE (dWu l~ti] 
t1 
=e-a(trt1) Zti + (b-
2
~ 0"2) ( l _ e-a(trti)), 
(2.24) 
A partir de la expresión anterior si t2 -+ oo, se observa que la media de largo plazo está 
dada por b - (a2 /2a), es decir, el logaritmo del proceso (2.20) en promedio tiende a su 
Capítulo 2. Método de valuación de opciones con dependencia en fa trayectoria 43 
valor de largo plazo. La varianza está dada por 
h ] + e-at2 J aeªudWu IS):t
1 
t1 
=Var [e-••, l ueªudw. I~,.] 
=e-24''u2Var V eªudw. I~,.] 
Observe ahora que 
[ 
t2 ] t2 
Var / g (u) dWu IS):t1 = / g
2 (u) du, 
t1 t1 
por lo que 
t2 t 
Var [Zt2 IS):t 1 ] = e-2at2a2 J e2audu =e-2at2a2 [ 2~ e2au] 2 
t1 t1 (2.25) 
= a2e-2at2_!_ [e2ah _ e2at1 ] = a2_!_ [l - e-2a(t2-t1 )], 
2a 2a 
en consecuencia 
es decir, el proceso dado por (2.21) se distribuye normal y de acuerdo a (2.24) y (2.25), se 
tiene que: 
z IS): "'N (e-a(t2-ti) z + (b _ __!__a2) (1 _ e-a(t2-t1)) a 
t 2 t1 t1 2a ' 
1 _ e-2a(t2-t1) 
2a 
(2.26) 
La expresión anterior muestra que el logaritmo de los precios "spot" cuya dinámica es 
guiada por (2.20) se distribuye normal, como en el caso del movimiento Browniano geo-
métrico. Es de destacar que la desviación estandar del proceso (2.21) converge a la de los 
logaritmos del movimiento Browniano geométrico si el valor de la velocidad de ajuste (a) 
es pequeña. Si el valor de a es grande la desviación estandar de (2.26) es menor que la 
del logaritmo del movimiento Browniano geométrico (este es un efecto de atracción de la 
reversión a la media). Esta característica de distribuciones terminales es consistente con 
Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 44 
el comportamiento de una curva de volatilidades implícitas típica, la cual tiene como regla 
pendientes decrecientes. 
Hasta este punto es importante mencionar que el logaritmo del proceso dado en (2.20) 
se distribuye normal al igual que en el caso del movimiento Browniano geométrico. Es por 
esta razón que a continuación se dara un lema que será de gran utilidad para determinar 
los valores de (2.7) y (2.8). 
Lema 2.1 
Sea V una variable alaeatoria, tal que V= em+z donde Z ,....., N (O, 1), entonces 
E[max(K-V,O)] = KN(-d2)-E[V]N(-d1), 
donde 
ln(E¼i)) +? 
d1=-~-----s 
con 
A partir del lema anterior, se puede verificar que 
K 
K 
j fv (v)dv = N (-d2), 
o 
j vfv (v)dv = E[V] N (-di). 
o 
(2.27) 
(2.28)

Continuar navegando