Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
INSTITUTO TECN.OLÓGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY CAMPUS CIUDAD DE MÉXICO TECNOLÓGICO De MONTERREY Biblioteca c·ampus Ciudad de México "VALUACIÓN DE OPCIONES INSTALLMENT Y BERMUDAS CON PROGRAMACIÓN DINÁMICA" DOCTORADO EN CIENCIAS FINANCIERAS TESIS PRESENTADA POR EDUARDO HERNÁNDEZ PÉREZ ASESOR FRANCISCO VENEGAS MARTÍNEZ MAYO DE 2008 1 RESUMEN Las opciones "installments" bermudas son un tipo de opciones bermudas tradicionales, excepto que el comprador de estas opciones debe regularmente realizar un pago para man- tener activa la opción. Las fechas preestablecidas llamadas fechas de decisión en las cuales la opción puede ser ejercida corresponden al calendario de pagos. En cada fecha de de- cisión, el comprador de una opción de este tipo debe elegir entre ejercer la opción, lo cual pone fin al contrato; no ejercer la opción y realizar un pago, con lo cual mantiene activa la opción para la siguiente fecha de decisión; y no ejercer la opción y no realizar el pago, lo cual pone fin al contrato. Debido a tales características de ejercicio este tipo de opciones son una innovación financiera reciente que introduce cierta flexibilidad en la liquidez de los inversionistas, ya que en lugar de realizar un único desembolso (prima) por un instrumento derivado, el comprador realizará pagos en fechas futuras predeterminadas. En particular, este tipo de instrumentos reduce considerablemente el costo de entrar en una estrategia de cobertura, ya que los administradores de riesgo pueden entrar en este tipo de contratos a un costo inicial bajo (prima) y ajustar el calendario de pagos de acuerdo a sus previsiones de efectivo y restricciones de liquidez. Adicionalmente, la no realización de un pago es suficiente para cerrar la posición sin costo de transacción. Esto reduce el riesgo de liquidez típicamente asociado con otros derivados sobre mostrador. Esta investigación pretende obtener o aproximar fórmulas de valuación cerradas o apro- ximadas de opciones bermudas y opciones "installments" bermudas a través de la teoría de valuación neutral al riesgo. Específicamente se utilizará programación dinámica para calcular la prima en un mundo neutral al riesgo. Para aproximar la función de pagos se utilizará interpolación lineal por pedazos, herramienta que permitirá encontrar una fórmula cerrada para el valor esperado de la función de pagos en una fecha de ejercicio particular. Se aplicará este método de aproximación a dos modelos para representar la dinámica del precio del activo subyacente: el movimiento Browniano geométrico y el movimiento Browniano con reversión a la media, se obtienen fórmulas para encontrar el valor esperado de la función de pagos para algún periodo en particular para ambos modelos. Estas fórmulas serán posteriormente empleadas para obtener el precio de una opción bermuda e "installment" bermudas. 2 ÍNDICE Pág. Agradecimientos ...................................................................... ii Resumen .............................................................................. 1 Índice ................................................................................. 2 Índice de gráficas ..................................................................... 4 Índice de cuadros ..................................................................... 5 Introducción .......................................................................... 6 Capítulo l. PROGRAMACIÓN DINÁMICA .............................................. 14 1.1 Problema de control óptimo determinista en tiempo discreto ............ 14 1.2 Programación dinámica determinista .................................... 17 1.2.1 Causalidad ........................................................ 17 1.2.2 Solución al problema mediante programación dinámica ............ 18 1.3 Programación dinámica estocástica ..................................... 22 1.3.1 Planteamiento del problema ........................................ 22 1.3.2 Solución al problema formulado mediante programación dinámica .. 24 1.4 Programación dinámica continua ........................................ 26 1.4.1 Programación dinámica determinista continua a tiempo homogéneo .............................................. 26 1.4.2 Programación dinámica continua estocástica ...................... 27 1.4.3 Extensión a múltiples variables de estado ......................... 30 1.4.4 Extensión a la dependencia explícita del tiempo ................... 32 2. MÉTODO DE VALUACIÓN DE OPCIONES CON DEPENDENCIA EN LA TRAYECTORIA ..................................................... 33 2.1 Opciones exóticas .................. ~~ .................................. 33 2.2 Opciones tipo path dependent .......................................... 34 2.3 Caso movimiento Browniano geométrico ................................ 36 2.4 Caso movimiento Browniano con reversión a la media ................... 40 3. OPCIONES BERMUDAS .................................................... 50 3.1 Opciones bermudas ..................................................... 50 3.2 Función de pago de una opción bermuda ................................ 51 3.3 Propiedades de ejercicio para un "call" bermuda ........................ 51 3.4 Valuación de una opción bermuda ....................................... 57 3.4.1 Movimiento Browniano geométrico ............................... 58 3.4.2 Movimiento Browniano con reversión a la media .................. 60 .. 3 4 OPCIONES INSTALLMENTS BERMUDAS ................................... 62 4.1 Opciones installment ................................................... 62 4.2 Opciones installment bermudas ......................................... 63 4.3 Función de pagos ....................................................... 64 4.4 Valuación de una opción installment bermuda ........................... 65 4.4.1 Movimiento Browniano geométrico ............................... 67 4.4.2 Movimiento Browniano con reversión a la media .................. 68 4.5 Propiedades teóricas .................................................... 69 5. APLICACIÓN NUMÉRICA .................................................. 72 5.1 Movimiento Browniano geométrico ...................................... 72 5.1.1 Opción bermuda tradicional ...................................... 72 5.1.2 Opción installment bermuda ...................................... 73 5.2 Movimiento Browniano con reversión a la media ......................... 75 5.2.1 Opción bermuda tradicional ...................................... 75 5.2.2 Opción installment bermuda ...................................... 76 5.3 Comparación de resultados ............................................. 78 6. CONCLUSIONES ............................................................ 80 7. BIBLIOGRAFÍA ............................................................. 82 APÉNDICE ..................................................................... 84 4 , , INDICE DE GRAFICAS 5.1 Comportamiento de la prima ..................................................... 74 5.2 Comportamiento del precio total ................................................. 75 5.3 Comportamiento de la prima .................................................... 77 5.4 Comportamiento de la prima total ................................................ 77 5.5 Posibles valores en un periodo de 2 meses ........................................ 78 5.6 'I'rayectorias a 1 año .............................................................. 79 5 " INDICE DE CUADROS 5.1 Precios de opciones bermudas con el movimiento Browniano geométrico .......... 73 5.2 Precios de opciones "installment" bermudas con el movimiento Browniano geométrico ....................................................................... 7 4 5.3 Precios de opciones bermudas con el movimiento Browniano con reversióna la media ....................................................................... 76 5.4 Precios de opciones "installment" bermudas con el movimiento Browniano con reversión a la media .......................................................... 76 6. / INTRODUCCION El mundo actual se caracteriza por cambios continuos, lo cual implica tomar acciones con rapidez. Sin embargo, la toma de decisiones en este ambiente implica asumir ciertos riesgos, los cuales deben ser minimizados en la medida de lo posible. El mundo financiero es un claro ejemplo de lo anterior, ya que se ha observado, en los últimos años, que los mercados financieros en el mundo se han vuelto cada vez más vulnerables y sensibles. Se puede mencionar, por ejemplo, la crisis asiática (a fines de 1997 y principios de 1998), la cual ocasionó pérdidas de miles de millones de dólares en los fondos de inversión de diferentes países. Esto muestra una gran interrelación entre las economías del mundo y, en consecuencia, cualquier problema que exista en una de ellas, influye en las demás. Asimismo, en 2002, Argentina se vio afectada por una crisis financiera y económica que le impidió liquidar sus obligaciones con el Banco Mundial, lo cual afecto a Brasil, su principal socio comercial. Como consecuencia de esto, varias econonúas de Sudamérica incrementaron su riesgo país, teniendo como resultado que los inversionistas extranjeros buscaran otros mercados más seguros. Debido a la inestabilidad de los mercados financieros, muchos inversionistas se vieron en la necesidad de buscar nuevas formas de invertir con menor riesgo. Si en las expectativas de los inversionistas se prevé un cambio desfavorable en los precios de los activos, entonces éstos deben tomar medidas para evitar cualquier impacto negativo en sus portafolios. U na particularidad de los mercados accionarios es que éstos tienen un componente de incertidumbre importante, lo cual hace que los pronósticos precisos no existan. En la década de los setentas se comenzaron a desarrollar diversas alternativas que permitieron minimizar el riesgo de mercado, tales como las estrategias de cobertura mediante el uso de "derivados financieros". Los instrumentos derivados son herramientas que permiten minimizar la exposición de los inversionistas al riesgo, el cual es considerado como peligroso pero a su vez retribuyente. Los derivados financieros más populares son: las opciones, los "forwards", los futuros, los "swaps", las notas estructuradas, etc. En los años 70 las opciones y los futuros tuvieron su mayor auge, debido en parte al modelo de Black-Scholes, el cual determina una formula de valuación para opciones europeas y, por otra parte, al arranque de la bolsa de opciones "Chicago Board of Options Exchange", la cual ha operado, a la fecha, billones de dólares. La teoría moderna de valuación de opciones tiene su origen en el artículo de Black- Scholes (1973) y, de manera simultánea, en el trabajo de Merton (1973). Su importancia 7 radica, más que en un modelo de valuación de opciones, en el análisis cualitativo que subyace en el mismo. Este marco de valuación se fundamenta en condiciones de no arbitraje donde el objetivo es establecer una dependencia funcional entre el valor de un producto derivado y el valor de un activo subyacente. La idea fundamental de los modelos en tiempo continuo con condiciones de no arbitraje es que, bajo ciertas hipótesis, es posible crear una estrategia de cobertura, formada por un número determinado de derivados y una cierta cantidad del activo subyacente (negociable), de tal manera que ajustando continua y convenientemente el número de derivados se obtiene una cartera exenta de riesgo. Al suponer que el mercado no permite oportunidades de arbitraje, el rendimiento nominal instantáneo esperado de la cartera debe coincidir con la tasa de interés libre de riesgo. La conjunción de estas hipótesis proporciona un modelo de valuación descrito por una ecuación diferencial parcial, cuyas condiciones de frontera recogen las características esenciales del derivado a valuar. Aunque este método de valuación es muy flexible, la mayoría de sus aplicaciones dan origen a ecuaciones diferenciales sin solución analítica. Esto ha dado lugar a una extensa literatura sobre métodos numéricos aplicados a la valuación de opciones y de activos contingentes. Después de haber trascurrido más de 30 años de la creación de los primeros derivados financieros, éstos han ido evolucionando dando lugar a nuevos productos derivados, como son los derivados financieros de segunda generación, entre los cuales destacan las "notas estructuradas". Estas notas nacen para satisfacer un mercado, en el que los inversionistas puedan invertir a corto plazo, pero con mayor liquidez. Este tipo de instrumentos requiere para su operación un tipo especial de opciones exóticas ligadas con bonos. El desarrollo de las opciones exóticas tiene su origen en la década de los noventas, aunque se sabe que algunas de sus modalidades ya aparecían en los mercados "Over The Counter" ( "OTC") a finales de la década de los setentas. Pero no fue sino hasta la década de los noventas cuando su negociación comienza a ser relevante. Las opciones exóticas son opciones que tienen una estructura diferente a la de las opciones tradicionales y sur- gen con la intención de abaratar las primas de los derivados tradicionales ajustándose adecuadamente a las necesidades de los inversionistas. La persistente volatilidad de los mercados de capitales fortaleció al desarrollo de las opciones exóticas por parte de los administradores de riesgo. Otro factor que influye en dicho desarrollo ha sido el énfasis creciente en la administración de riesgos por parte de reguladores internos y externos, en un entorno competitivo y globalizado, y por los avances de las tecnologías de información. La aparición de estas opciones y su creciente utilización presentan un impacto importante en los mercados financieros a nivel internacional al cons- tituirse como instrumentos muy útiles tanto para la administración de riesgos como para 8 la especulación. No obstante, su volumen de negociación no es todavía lo suficientemente grande, pero se espera que se experimenten un mayor auge en el futuro sustentado en las características de estos derivados. Actualmente, su uso se comienza a extender y se podría dar un salto de los mercados "OTC" hacia los mercados organizados, debido a la gran movilidad que los subyacentes están experimentando. :Entre las opciones exóticas mas conocidas se encuentran: las asiáticas, de barrera, "lookback", "leader", "shout", "cliquet", bermudas, "chooser", polinomiales, potenciales, digitales, "playlater, "quantos", "compos" e "installments", entre otras. Las opciones tipo bermuda son un nuevo estilo de opciones, situado entre una opción europea, cuyo ejercicio sólo puede ser al vencimiento, y una americana, con ejercicio en cualquier momento antes de la fecha de vencimiento, es decir, pueden ser ejercidas de forma anticipada en un número determinado de fechas a lo largo de su vida, lo que constituye un caso intermedio entre las europeas y las americanas. Una característica de las opciones bermudas es que su precio de ejercicio puede ir aumentado con el paso del tiempo. Si estas opciones cotizan en mercados organizados, se denominan opciones japonesas. Otro tipo especial de opciones bermuda son las opciones "bermuda capped option" en las que el poseedor de ésta no tiene derecho a ejercerla antes de la fecha de vencimiento y el ejercicio se da de manera automática en un conjunto predeterminado de fechas si el valor del subyacente alcanza un determinado nivel denominado "cap". Algunas investigaciones sobre las opciones Bermudas se describen a continuación. Trippi y Chance (1993) presentan una valuación analítica aproximada utilizando el mode- lo de Black-Scholescon pago continuo de dividendos ajustado por el modelo de Merton (1973). Por otro lado, Chance (1994) utiliza el algoritmo de diferencias finitas para apro- ximar el valor de las opciones bermudas. Leguey y Llerena (1995) estudian las opciones bermuda de venta con precios de ejercicio constantes como una vía de aproximación al valor de las opciones americanas de venta. Asimismo, analizan las opciones bermuda de compra con precios de ejercicio no uniformes, con el propósito de obtener una fórmula ce- rrada para su valuación; como hipótesis de su trabajo suponen que el subyacente no realiza dividendos durante la vida de la opción y que la dinámica del activo subyacente sigue un proceso Browniano geométrico o lognormal. También, Carriere (1996) investiga técnicas de regresión y simulación para obtener aproximaciones rápidas y de alta precisión para los tiempos de paro en un escenario de tiempo discreto finito. Una vez hecho esto realizan una aplicación al problema de valuación de las opciones bermudas de venta y encuentran que la sucesión multidimensional estandarizada de Halton de longitud 200 puede aproximar el valor de la opción bermuda de venta con gran precisión. Henrik Alpsten (2003) en su tesis de maestría valúan opciones "swap" bermudas a través del establecimiento de cotas superiores e inferiores. Hacen uso del modelo Brace-Gatarek-Musiela con tres factores, 9 así como el método de Monte Carlo para determinar la evolución de las tasas forward. Asimismo, proponen una discretización del modelo. De igual forma, proporcionan dos estrategias de ejercicio subóptimo usando fronteras de ejercicio. También estudian los errores sistemáticos en la evolución de la tasa forward y discuten medidas simples para reducir su impacto en la valuación de la opción. Las opciones "installments" bermudas son un tipo de opciones bermudas tradicionales, excepto que el comprador de estas opciones debe regularmente realizar un pago para man- tener activa la opción. Las fechas preestablecidas llamadas fechas de decisión en las cuales la opción puede ser ejercida corresponden al calendario de pagos. En cada fecha de decisión, el comprador de una opción de este tipo debe elegir entre lo siguiente: ( i) Ejercer la opción, lo cual pone fin al contrato. (ii) No ejercer la opción y realizar un pago, con lo cual mantiene activa la opción para la siguiente fecha de decisión. (iii) No ejercer la opción y no realizar el pago, lo cual pone fin al contrato. Se considera a estas opciones como una innovación financiera reciente que introduce cierta flexibilidad en la liquidez de los inversionistas. En lugar de realizar un único desembolso (prima) por un instrumento derivado, el comprador realizará pagos en fechas futuras prede- terminadas. En particular, este tipo de instrumentos reduce considerablemente el costo de entrar en una estrategia de cobertura, ya que los administradores de riesgo pueden entrar en este tipo de contratos a un costo inicial bajo (prima) y ajustar el calendario de pagos de acuerdo a sus previsiones de efectivo y restricciones de liquidez. Adicionalmente, la no realización de un pago es suficiente para cerrar la posición sin costo de transacción. Esto reduce el riesgo de liquidez típicamente asociado con otros derivados sobre mostrador. Se pueden mencionar varios trabajos sobre este tipo de opciones, entre lo que se encuentran: Davis, Schachermayer y Tompkins (2001) quienes discuten la valuación y administración de riesgo para las opciones "installment", en particular el uso de coberturas estáticas para obtener cotas libres de arbitraje y deducir coberturas efectivas con riesgo casi nulo del riesgo "Vega" (razón de cambio de la prima con respecto de la volatilidad). También estudian límites en tiempo continuo sobre la prima, la cual es pagada a una cierta tasa por unidad de tiempo. Por otro lado, Ciurlia y Roko (2005) presentan tres enfoques para valuar opciones de compra y venta "installments" continuas y comparan su precisión com- putacional, bajo los supuestos clásicos (mercados completos, tasa libre de riesgo constante, etc.), para lo cual deducen una ecuación diferencial parcial para obtener el valor de la op- ción. Esta ecuación diferencial la resuelven al utilizar el método de representación integral para obtener formulas cerradas aproximando el tiempo óptimo de ejercicio a través de fun- ciones exponenciales a trozos. Por último, comparan su procedimiento con el método de 10 diferencias finitas y el método de Monte Carlo. Por último, Ben-Ameur, Breton y Franccois (2006) desarrollaron un procedimiento para valuar opciones "installments" bajo el cual se obtuvo un rango para el precio de este instrumento. Además, realizaron un análisis de simulación encontrando precios convergentes, los cuales eran cercanos a los observados en el mercado. Finalmente, aplicaron este procedimiento a los "warrants installments" los cuales son activamente negociados en Australia tomando en cuenta el efecto de difusión. Por todo lo anterior se considera importante determinar el valor de las opciones bermu- das e "installments" bermuda, de acuerdo a su naturaleza, la cual involucra la toma de decisiones en fechas preestablecidas. La programación dinámica es una herramienta básica que toma en cuenta la toma de decisiones en un número determinado de periodos, en donde la decisión actual sólo depende de la decisión inmediata anterior. El marco teórico para valuar un instrumento financiero que se negocia en un mercado financiero completo es la teoría de valuación neutral al riesgo, la cual mediante el teorema de Feynman-Kac, se puede llevar cabo bajo el contexto de ecuaciones diferenciales parciales o en el enfoque probabilista, donde ambos son equivalentes según dicho teorema y bajo algunas condiciones técnicas. En ambos enfoques se supone que el activo subyacente sigue un proceso de difusión. En el enfoque de ecuaciones diferenciales parciales la idea central es construir un portafolio libre de riesgo constituido por el activo subyacente y la opción. Posteriormente, a través de argumentos de arbitraje se iguala el rendimiento libre de riesgo con el del portafolio ( el cual ya es libre de riesgo), y de este modo se obtiene una ecuación diferencial parcial de segundo orden la cual al resolverse proporciona el valor de la opción. Mientras que bajo el enfoque probabilista se tiene que el precio de la opción está dado por el valor esperado del pago de la opción en un mundo neutral al riesgo. Por lo tanto, el obtener una fórmula de valuación cerrada bajo ambos enfoques depende del tipo de derivado, el cual está determinado por la función de pagos del instrumento. En general existen muy pocos casos en los cuales se obtienen fórmulas de valuación cerradas, por lo que es necesario recurrir a métodos numéricos para estimar el valor del instrumento financiero. En el caso de ecuaciones diferenciales, el método numérico empleado es el de diferencias finitas. En el caso del método probabilista se puede hacer vía árboles binomiales o por simulación. La valuación de instrumentos derivados financieros vía simulación puede ser dividida en dos pasos básicos: ( i) Simulación del activo subyacente y algunos otros parámetros no estacionarios (por ejemplo tasa de interés, volatilidad del activo, etc.). (ii) Evaluación de la función de pago del derivado (la cual define el tipo de derivado). 11 En términos prácticos es adecuado utilizar el método de simulación de Monte Carlo cuando se tienen una o más de las siguientes características: ( i) La dinámica que caracteriza el activo subyacente es complicada. ( ii) Existe dependencia del derivado en múltiples variables de estado. ( iii) El derivado depende de la trayectoria del activo subyacente. La metodología empleada para valuar la opción "installment" bermuda o bermuda se basará en la metodología de valuación neutral al riesgo.Es decir, se descontará el valor presente de la función de pagos en un mundo neutral al riesgo. Para resolver este problema se vivirá en un mundo neutral al riesgo ( específicamente se empleará el método probabilista) para calcular el valor esperado del pago de la. opción que debe realizarse de contado. La valuación de este tipo de opción depende de la dinámica del activo subyacente y del calendario de fechas de pago del contrato, ya que a partir de estas fechas se determina si se ejerce o si se realiza un pago para mantener vigente la opción. Por lo que en cada una de estas fechas se tendrá una subestructura de valuación, la cual determinará si es óptimo mantener, abandonar o ejercer la opción. Es por lo anterior que una herramienta que es fundamental para desarrollar esta investigación es la programación dinámica. A través de la programación dinámica el problema se puede resolver en subproblemas con estructuras óptimas siguiendo los siguientes tres pasos: ( i) Dividir el problema en subproblemas más pequeños. ( ii) Resolver estos subproblemas recursivamente de manera óptima. (iii) Usar las soluciones subóptimas para construir una solución óptima del problema ori- ginal. Los subproblemas se resuelven a su vez dividiéndolos en subproblemas más pequeños hasta que se encuentra que la solución al problema es trivial. En resumen, la progra- mación dinámica hace uso de: subproblemas superpuestos, subestructuras óptimas y me- morización. Además, utiliza alguno de los siguientes enfoques: ( i) "Top-clown" ( de adelante hacia hacia atrás) : El problema se divide en subproblemas, los cuales se resuelven recordando las soluciones en caso de que sea necesario. Es una combinación de memorización y recursión. (ii) "Bottom-up" (de atrás hacia hacia adelante): Todos los subproblemas que puedan ser necesarios se resuelven de antemano y después son usados para resolver las solu- ciones a problemas más generale. Este enfoque es ligeramente mejor en consumo de espacio y llamadas a funciones, pero a veces resulta poco intuitivo encontrar todos los ·subproblemas necesarios para resolver un problema dado. 12 Esta tesis optará por el primer enfoque, ya que la naturaleza del problema requiere conocer el precio de la opción en cada fecha del calendario de pagos. Originalmente, el término de programación dinámica se designaba únicamente a la resolución de ciertos problemas de investigación de operaciones fuera del ámbito de la ingeniería informática, al igual que lo hacía la programación lineal. En este contexto, la programación dinámica no tiene ninguna relación con la programación ( computacional o en sistemas) en absoluto; el nombre es pura coincidencia. El término también se usaba en la década de los cuarentas por Richard Bellman ( matemático estodounidense) para describir el proceso de solución de problemas donde hace falta calcular soluciones recursivamente. Cuando se habla de op- timizar se hace referencia a buscar la mejor solución de entre muchas alternativas posibles. Dicho proceso de optimización puede ser visto como una sucesión (política) de decisiones que proporcionan la solución correcta. Si, dada una subsucesión (subpolítica) de decisiones, siempre se sabe cual es la decisión óptima que se debe tomar a continuación, el problema es elemental y se resuelve trivialmente tomando una decisión detrás de otra, lo que se conoce como estrategia voraz. A menudo, aunque no es posible aplicar la estrategia voraz, se cumple el principio de optimalidad de Bellman que dice que "dada una política óptima de decisiones, toda subpolítica de ella es, a su vez, óptima". En este caso es todavía posible ir tomando decisiones elementales, con la confianza de que la. combinación de ellas seguirá siendo óptima, pero entonces será necesario explorar muchas sucesiones de decisiones para dar con la correcta, siendo aquí donde interviene la programación dinámica. Contemplar un problema como una secuencia de decisiones equivale a dividirlo en subproblemas más pequeños y por lo tanto más fáciles de resolver como se hace en "divide y vencerás", técnica similar a la de programación dinámica. La programación dinámica se aplica cuando la subdivisión de un problema conduce a una. enorme cantidad de subpro- blemas, subproblemas cuyas soluciones parciales se solapan o grupos de subproblemas de muy distinta complejidad. Debido a que se está considerando calcular el valor esperado de un proceso de difusión se hará uso de programación dinámica estocástica. Por lo tanto en las opciones tipo bermuda el valor de la opción al vencimiento depende no sólo del valor que alcance el subyacente al vencimiento, sino también de su evolución en el tiempo, ya que pueden ser ejercidos en un calendario de fechas antes del vencimiento del contrato. De esta forma este tipo de opciones evolucionan en el tiempo, susceptibles de influencia mediante decisiones externas. El ejercicio o abandono ( en caso de las opciones "installments") depende del horizonte de tiempo desde el que se complete el problema de valuación. En general la decisión óptima en un contexto dinámico no se obtiene mediante 13 una secuencia de las decisiones estáticas óptimas para cada uno de los instantes o perio- dos que constituyen dicho contexto dinámico. Asimismo: las dicisiones óptimas a corto plazo, en general, no coinciden con las decisiones óptimas a largo plazo. La utilización de técnicas de optimización dinámica permiten obtener la solución óptima en cada caso. La optimización dinámica, como su nombre lo indica, estudia la optimización de sistemas dinámicos, es decir, la optimización de sistemas que evolucionan en el tiempo. Dado un sistema que evoluciona en el tiempo, se trata de guiar o controlar el sistema de manera óptima a lo largo de un horizonte de tiempo dado, de acuerdo a un objetivo previamente establecido. Es por esta razón que en esta tesis se desarrollará una metodología para valuar este tipo de opciones a través de programación Dinámica. Este procedimiento numérico es apropiado para este tipo de opciones debido a que involucran un número limitado de fechas de ejercicio distantes. Esta tesis está organizada de la siguiente manera: en el capítulo 1 se proporciona una introducción a la programación dinámica, sus propiedades y ventajas. El capítulo 2 muestra un método de aproximación a través de interpolación lineal por pedazos para encontrar el valor esperado de una opción cuyo pago es dependiente en la trayectoria del precio del activo subyacente y que puede ser ejercido en un número discreto de fechas. En particular se propone que la dinámica del activo subyacente es guiada por un movimiento Browniano geométrico y la modificación de éste que incorpora la propiedad de reversión a la media, el cual será denominado movimiento Browniano con reversión. En el capítulo 3 se obtiene un método de valuación de opciones bermudas para los modelos propuestos y en el capítulo 4 se obtiene un método de valuación de opciones "installment" bermuda para los modelos mencionados anteriormente y se analizan algunas propiedades de estas. En el capítulo 5 se presenta una aplicación numérica y finalmente en el capítulo 6 se presentan las conclusiones. Se analizarán dos dinámicas para el precio del activo subyacente, las cuales serán deter- minadas por el movimiento Browniano geométrico y la modificación de éste que incorpora la propiedad de reversión a la media, el cual será denominado movimiento Browniano con reversión. Capítulo 1. Programación Dinámica 14 / CAPITULO 1 / / PROGRAMACION DINAMICA La programación dinámica estudia la obtención de soluciones. óptimas de problemas que evolucionan en el tiempo y que son susceptibles de influencia. mediante decisiones externas. La mejor decisión a tomar depende del horizonte de tiempo que se contemple en el problema a estudiar. En general, la decisión óptima en un contextodinámico no se obtiene mediante una sucesión de decisiones estáticas óptimas en cada uno ele los instantes o periodos que constituyen el horizonte de planeación. Asimismo, las decisiones óptimas a corto plazo, en general, no coinciden con las decisiones óptimas a largo plazo. Al respecto, la utilización de técnicas de optimización dinámica permite obtener la solución óptima en cada una de las situaciones anteriores. La optimización dinámica, como su nombre lo indica, estudia la optimización de sis- temas dinámicos, es decir, la optimización de sistemas que evolucionan en el tiempo. Dado un sistema que evoluciona en el tiempo, se trata de guiar o controlar el sistema de manera óptima, de acuerdo a algún criterio preestablecido, a lo largo de un horizonte de tiempo dado, de acuerdo a un objetivo previamente establecido. En este capítulo se presenta el problema básico de control óptimo en tiempo discreto y un algoritmo que permite obtener su solución óptima: la programación dinámica la cual se debe a Richard Bellman cuyo su método que fue publicado en 1957. / 1.1 Planteamiento del problema de Control Optimo de- terminista en tiempo discreto Considere un sistema dinámico que evoluciona en el tiempo, formulado en tiempo discreto, para un número dado, N, de etapas o periodos, cuya situación inicial viene dada por el vector n-dimensional, x 0 . Al igual que en el caso de tiempo continuo, dicha evolución depende de los valores que se asignen a ciertas variables, llamadas variables de control, que permiten influir en el sistema. Capítulo 1. Programación Dinámica 15 Sea u(k) un vector m-dimensional de variables de control en la etapa o periodo k, para k E {0,1, ... ,N-1}. Se define x(k), para cada k E {0,1, ... ,N-1}, como el vector n-dimensional de variables de estado, el cual indica la situación del sistema en la etapa o periodo k. La evolución del sistema en el tiempo está determinada por un sistema de ecuaciones en diferencias finitas, conocido como ecuaciones de estado: a:: (k + 1) = f (x (k), u (k), k), para k = O, 1, ... , N - 1, con x(O) = xo donde fes una función tal que /: D1 (e Rn) (x,u,k) X D2 (e Rm) -+ f (X, U, k) . X {0,1, ... ,N-1} -+ Rn Se supone que: u ( k) E O ( k) e Rm, para k = O, 1, ... , N - 1, en donde para cada k, n (k) es el conjunto de controles admisibles. La funcional objetivo que se considerará es del tipo: N-1 J= ¿F[x(k),u(k),k]+S[x(N)], k=O donde F y S son funciones definidas como F : D1 ( C Rn) X D2 ( C Rm) X {0,1, ... ,N-1} -+ R (x, u, k) -+ F(x,u,k) y S: D1 e Rn -+ R x -+ S(x), respectivamente. Es decir, el sistema dinámico parte del estado inicial x0 • En el periodo o etapa 1 (correspondiente a k = O), el decisor debe elegir un control u(O) En (O), el cual realiza una aportación al funcional objetivo dada por: F [x (O) , u (O) , O] , y se revisa el periodo o etapa 2 ( correspondiente a k = 1) con el siguiente valor del vector de estado x(l) = f (x (O), u (O), O). En dicho periodo o etapa 2 (correspondiente a k = 1), hay que elegir un control u(l) E 0(1), el cual realiza una aportación al funcional objetivo dada por F [x (1), u (1), 1], Capítulo l. Programación Dinámica 16 y se inicia el periodo o etapa 3 ( correspondiente a k = 2) con el siguiente valor del vector de estado x(2) = f (x (1), u (1), 1). Se procede, consecutivamente, de esta manera hasta que el decisor encuentra el periodo ó etapa N (correspondiente a k = N - 1) con estado anterior, x(N - 1), y tiene que elegir un control u (N - 1) En (N - 1), el cual efectúa una aportación al funcional objetivo dada por F [x (N - 1), u (N - 1), N - 1], alcanzando finalmente el estado: x(N) = f (x (N - 1), u (N - 1), N - 1). Por el hecho de terminar en dicho estado, se realiza también una aportación al funcional objetivo dada por S [x (N)]. Un control óptimo se define como un control tal que: u ( k) E n ( k) e Rn, para k = O, 1, ... , N - 1, es decir, un control admisible que, junto con los controles anteriormente seleccionados, maximiza el funcional objetivo. Por lo tanto, el problema en el que este trabajo estará interesado es: Dado un sistema dinámico con condición inicial, x0 , que evoluciona en el tiempo de acuerdo con la ecuación de transición de estados x(k + 1) = f (x {k), u (k), k), se desea encontrar para cada k un vector de controles que sea admisible y que haga que el funcional objetivo alcance su valor máximo. Si esto se expresa en términos más formales queda entonces de la siguiente forma: N-1 max J= ¿F[x(k),u(k),k]+Slx(N)J, {u(k)}:=-01 k=O s.a. x (k + 1) = f (x (k), u (k), k), para k = O, 1, ... , N - 1, x(O) = xo, (1.1) u (k) E O (k) I El vector de controles u* = (u* (O), u* (1),, ... , u* (N - 1)) que resuelve el problema se I llama control óptimo y x* = (x* (O), x* (1),, ... , x* (N - 1)) , determinado por la ecuación de estado a partir de u* y de x(O), se llama trayectoria de estado óptima. Es importante hacer notar que no se ha exigido alguna condición de diferenciabilidad a las funciones que aparecen en el planteamiento del problema. A continuación, se estudia el método de la programación dinámica para resolver problema anteriormente formulado. Capítulo 1. Programación Dinámica 17 1.2 Programación Dinámica Determinista La programación dinámica, introducida por Bellman (1957), fue creada inicialmente para resolver problemas formulados en tiempo discreto, aunque posteriormente sería adaptada para la resolución de problemas en tiempo continuo. La programación dinámica transforma la solución de un problema de N etapas o periodos a la resolución de N problemas de una etapa cada uno, en donde la decisión en la etapa actual sólo depende de la decisión en la etapa anterior. 1.2.1 Causalidad El problema de control óptimo en tiempo discreto planteado anteriormente tiene una propiedad importante, llamada propiedad de causalidad, la cual se expresa en los siguientes términos. Propiedad de causalidad. Para cualesquiera j, r E {O, 1, ... , N - 1}, con j < r, se verifica que x(r) depende únicamente de x(j) y de los controles { U (j) , U (j + 1) 1 ••• , U ( T - 1)} . Es decir, dado el estado x(j) en el que se encuentra el sistema dinámico al comienzo de la etapa (o periodo) j + 1, para cualquier etapa posterior r se verifica que el estado que se alcanzará al finalizar dicha etapa, x(r) depende exclusivamente del estado x(j) y de los controles que se apliquen entre las etapas j + 1 y r. En otras palabras, dados dos estados cualesquiera del sistema, uno anterior y otro posterior., el valor que tome el estado posterior depende únicamente del valor del estado anterior y de los valores de los controles intermedios entre ambos estados. Esta propiedad se verifica como consecuencia directa de la estructura del problema. En efecto, teniendo en cuenta la ecuación de estado se tiene que: x(j + 1) = f (x (j) , u (j) , j) , y que X (j + 2) = j ( X (j + 1) , U (j + 1) , j + 1) = f ( f ( X (j) , U (j) , J) , U (j + 1) , J + 1) , y así sucesivamente, hasta obtener x (r) = f (x (r - 1), u (r - 1), r - 1) = f (f (x (r - 2), u (r - 2), r - 2), u (r - 1), r - 1) = · · · = '11 [x (j), u (j), u (j + 1), ... , u (r -- 1)], Capítulo l. Programación Dinámica 18 en donde esta última función W se obtiene al ir sustituyendo de manera recurrente el vector de variables de estado por el valor que resulta al aplicar la ecuación de estado. Como consecuencia de esta propiedad, el estado inicial x(O) y el conjunto de controles {u(O) ,u(l), ... ,u(N -1)}, determinan la trayectoria del vector de estado {x (O) ,x (1), ... ,x (N)}. Al utilizar la notación u[O,N-1) = {u(O) ,u(l), ... ,u(N-1)}, y, en general, u [j, N - 1) = { u (j), u (j + l), ... , u (N - 1)}, el funcional objetivo del funcional se puede escribir como J = Jo{x(O),u[O,N-l]}, por lo que, si x(O) está dado, para maximizar J sólo hay que determinarlos controles u[O, N - l]. Como puede notarse, la propiedad de causalidad no siempre se cumple en módelos económicos dinámicos. Por ejemplo, una decisión a tomar en cierto momento futuro por una autoridad económica, puede estar afectando al estado presente de dicha economía, por medio de las expectativas de los agentes. En tales casos la formulación del modelo de opti- mización dinámica no se corresponde con el problema, en el que, como se ha comprobado, se cumple el supuesto de causalidad. 1.2.2 Solución al problema de control óptimo mediante programación dinámica A continuación se presenta el método de programación dinámica, el cual permite obtener la solución óptima del problema ( 1.1). Para ello se demuestra el siguiente lema: Lema 1.1 Sean D y n' dos conjuntos cualesquiera. Sean g y h funciones reales, cuyos I dominios son D y D x D , respectivamente, entonces se cumple que: max {g (y)+ h (y, z)} = max {g (y)+ max {h (y, z)}}, yED,zED' yED zED' Capítulo l. Programación Dinámica 19 suponiendo la existencia de solución óptima para estos problemas. Demostración a) La expresión a la izquierda de la igualdad es mayor o igual que la situada a la derecha. En efecto, es claro que I max , {g (y)+ h (y, z)} "?:_ g (y)+ h (y, z), V y E D, z E D . yED,zED En partícular: max {g(y) +h(y,z)} "?:. g(y) + max{h(y,z)},V y E D, yED,zED' zED' por lo que max {g (y)+ h (y, z)} "?:. max {g (y)+ ma.x {h (y, z)}}. yED,zED' yED zED' b) Ahora se demostrará la desigualdad inversa. Es claro que I h (y, z) :'.S max { h (y, z)} , V y E D, z ,~ D , zED' por lo que para todo y E D, z En', se verifica que g (y)+ h (y, z) :'.S g (y)+ max {h (y, z)} :'.S max {g (y)+ max {h (y, z)}}, zED' yED zED' de donde se obtiene que max {g (y)+ h (y, z)} :'.S max {g (y)+ max {h (y, z)}}, yED,zED' yED zED' y de esta forma el lema queda demostrado. Capítulo l. Programación Dinámica 20 Proposición 1.1 Sea J*(xo) el valor óptimo del funcional objetivo del problema (1.1), entonces J* (xo) = J; {xo}, en donde la función Jó viene dada por el último paso del siguiente algoritmo, el cual comienza al final del horizonte temporal y va hasta el principio de dicho horizonte. Por lo tanto, resolviendo hacia atrás se sigue que: JJ..¡ {x (N)} = S [x (N)], y para cada k E {N - 1, N - 2, ... , 1, O}, se tiene que J,:{x(k)} = max {F[x(k),u(k),k]+Jk+I {f[x(k),u(k),k]}}, u(k)Eíl(k) las cuales son llamada las ecuaciones recursivas de Bellman. Además, si u*(k) maximiza la expresión situada a la derecha de la ecuación anterior, en función de x(k), para cada k E {O, 1, ... , N - 1}, se obtiene que I u*= (u* (O) ,u* (1), ... ,u* (N -1)) , es el control óptimo del problema planteado en (1.1). Demostración A partir del enunciado del problema (1.1), es se sigue que { N-1 } J* (xo) = max ¿ F[x(k),u(k),k] +S[x(N)] . u(0)Eíl(0), ... ,u(N -l)Eíl(N-1) k=O Por la propiedad de causalidad y el lema 1.1, la anterior expresión es equivalente a: max { F [ x (O) , u (O) , O] + max { F [ x ( 1) , u ( 1) , 1] u(0)Eíl(0) u(l)Eíl(I) + max { F [x (2) , u (2) , 2] + ... + u(2)Eíl(2) + max {F[x(N-1),u(N-1),N-l]+S[x(N)]} ... }}}· u(N-l)Eíl(N-1) Además la maximización esta sujeta a la restricción de la ecuación de transformación de estados del sistema: x ( k + 1) = f ( x ( k) , u ( k) , k) , para k = O, 1, ... , N - l, Capítulo l. Programación Dinámica con x(O) = Xo- Si se define ahora JÑ {x (N)} = S [x (N)], JÑ-i {x (N - 1)} = max {{ F [ x ( N - l) , u ( N - l) , N -- l] + JÑ { x ( N)}} , u(N-l)Eíl(N-1) donde x ( N) = f ( x ( N - l) , u ( N - l) , N - l) , y así, sucesivamente, hasta en donde se tiene que con J¡ {x (1)} = max {{F [x (1), u (1), 1] -- Ji {x (2)}}, u(l)Eí1(1) X (2) = f (x (1), U (1), 1), J;{x(O)}= max {{F[x(O),u(O),O] +J;{x(l)}}, u(O)Eí1(0) x (1) = f (x (O), u (O), O), con x(O) = xo, 21 y de acuerdo con la. cadena de igualdades que se tienen, la proposición queda demostrada I con el contról óptimo u* = (u* (O) ,u* (1), ... ,u* (N -1)). De esta manera, u*(k) maxi- miza la expresión situada a la derecha de la ecuación de Bellman, en función de x(k), para cada k = O, l, ... , N - l. Como es lógico pensar, si el problema fuera de minimización, habría que minimizar el lado derecho de la ecuación de Bellman. Como ya se ha indicado anteriormente, la programación dinámica consiste en resolver un problema de N etapas o periodos, a través de la resolución de N problemas de una etapa o periodo. Cada uno de los N problemas se resolverá por el método que se considere oportuno en cada caso. No se ha supuesto diferenciabilidad de las funciones, pudiendo ser discretos o continuos los conjuntos de controles admisibles. La programación dinámica se apoya en el principio de optimalidad de Bellman que dice lo siguiente: Principio de optimalidad de Bellman Suponga que u*:._ (u* (O) ,u* (1), ... ,u* (N -1)) es el control óptimo del problema (1.1) y ' x* = (x* (O), x* (1), ... , x* (N - 1), ... , :r* (N)) I Capítulo l. Programación Dinámica 22 es la correspondiente trayectoria de estados óptima. Si se considera el subproblema que consiste en: N-1 max J= ¿F[x(k),u(k),k]+Slx(N)J, {u(k)}:,;/ k=j s.a. x ( k + 1) = f ( x ( k) , u ( k) , k) , para k = j, j + 1, ... , N - 1, X(j) = x* (j), u (k) En (k), parak = j,j + 1, ... , N - 1, es decir, el subproblema que desea encontrar los controles óptimos en las etapas j + 1 a N -1, partiendo de la condición inicial x*(j), en la etapa j + 1, entonces el control óptimo ' del subproblema formulado es (u* (j), u* (j + 1), ... , u* (N - 1)) , (vector truncado de u*). En este caso, la función JJ { x (j)} que proporciona el valor óptimo del funcional objetivo del problema truncado, en función del estado inicial x(j), se llama función valor de j a N. 1.3 Programación Dinámica Estocástica La programación dinámica estocástica es uno de los métodos más importantes de opti- mización dinámica, tanto en el caso de tiempo discreto, como en el caso de tiempo continuo. Esta extensión estocástica se presenta a continuación: 1.3.1 Planteamiento del problema Considere el siguiente sistema dinámico, formulado en tiempo discreto, x (k + 1) = f (x (k), u (k), v (k), k), para k = O, 1, ... , N - 1, con x(O) = xo, en donde, para cada k: x(k) es el vector de variables de estado, perteneciente al espacio Sk, u(k) es el vector de variables de control, perteneciente al espacio Ck, y v(k) es el vector de perturbaciones aleatorias, perteneciente al espacio Dk. El control u(k) está restringido a tomar valores pertenecientes a un conjunto no vacío nk [x (k)], que depende del estado del sistema en ese periodo k, es decir: u (k) E nk [x (k)], para cada x (k) E Sk, V k = 0, 1, ... , N - l. La perturbación aleatoria v(k) es caracterizada por una distribución de probabilidad pk ( · I X ( k) ' u ( k)) ' Capítulo l. Programación Dinámica 23 que puede depender explícitamente de x (k), u (k), pero es independiente de las perturba- ciones aleatorias v (k - 1), v (k - 2), ... ,v(O). Si se consideran la política, que consiste en una sucesión de funciones: 7f = {µo,µ1, ···,µN-d, en donde cada función µk transforma el estado x(k) en el control u(k) = µk [x (k)], de tal manera que se verifica que µk [x (k)] E nk [x (k)] V x (k) E Sk. De esta forma las políticas de control que cumplen esta condición se llamarán admisibles. Así pues, el problema consiste en: dado un estado inicial :z:0 , se trata de encontrar una política de control admisible que maximiza el siguiente funcional maxJ, (xo) =E{% F(x(k) ,µk [x (k)] ,v (k), k] + S [x (N)]}, s.a. x(k+ 1) = f [x(k),µk [x(k)],v(k),k],Vk = 0,1, ... ,N-1, con x(O) = xo, µk [x (k)] E f!k [x (k)] Vx (k) E Sk, en donde E { ·} denota el operador de esperanza matemática. Las funciones F, S y f se suponen conocidas. Se desea encontrar una política de control óptimo 1r*, para la cualse verifique Jrr* (xo) = max Jrr (xo), rrEII en donde II es el conjunto de políticas de control admisibles. La función J*, definida de la siguiente forma es la función que asigna a cada estado inicial x0 el valor objetivo J* (x0 ) y se llama función valor óptimo. Si el problema anterior es de minimizar, en lugar de maximizar, se puede expresar de la forma enunciada anteriormente, sólo cambiando el signo del funcional objetivo. Capítulo l. Programación Dinámica 24 1.3.2 Solución al problema formulado mediante Programación Dinámica En esta sección se estudia a la programación dinámica, como método de solución del problema de control estocástico en tiempo discreto, el cual fue formulado en la sección anterior. De la misma forma que en el caso determinístico, se empieza por el final del horizonte temporal y se va analizando el problema periodo por periodo hasta llegar al periodo inicial. La programación dinámica, en este caso, permite resolver un problema estocástico de N etapas mediante la resolución de N problemas estocásticos de una etapa. Proposición 1.2 Sea J*(x0 ) el valor óptimo del funcional objetivo del problema establecido en la sección anterior, entonces J* (xo) = Jo (xo)' en donde la función Jó está dada por el último paso del siguiente algoritmo, que comienza al final del horizonte temporal y va hasta el principio del mismo. Sea J;., (x (N)) = s [x (N)], y para cada k E {N - 1, N - 2, ... , 1, O} defina J;_ [x (k)] = max Ev(k) {F [x (k), u (k), v (k), k] u(k)Eí1k (x(k)] +Jk+I [f [x (k), U (k), V (k), k]l}, que proporciona la ecuación recursiva de Bellman. Si u* (k) = µ'ic [x (k)] maximiza el lado derecho de la ecuación de Bellman, para cada x(k) y para cada k E {O, 1, ... , N - 1}, la política de control * { * * * } 7í = µo,µ1, .. ,,µN-1 , es óptima. Demostración El hecho de que la distribución de probabilidad que caracteriza a v(k) dependa sólo de x(k) y u(k), pero no de los valores previos v(k - 1), v(k - 2), ... , v(O), y el hecho de que v(k - Capítulo l. Programación Dinámica 25 1), v(k - 2), ... , v(O) son variables aleatorias independientes, permite escribir lo siguiente: J*(xo)= rnax J(xo,µo,µ1, ... ,µN-1) /J,o ,/J,l , ... ,/J,N-1 = µ.,.:'.''°,;,N_, E { % F [x (k), /.Lk [x (k)], v (k), k] + S [x (N)]} = rnax [Ev(O} {F [x (O), µo [x (O)], -u (O), O] /J,0,/J,l,···1/J,N-l + Ev(l) {F [x (1), µ1 [x (l)], v (1), l] +··· + Ev(N-1) {F [x (N - 1), µN-1 [x (N - 1)], v (N - 1), N - 1] +s [X (N)]} · · -}] . Por ser un sistema causal, la expresión anterior se puede reescribir corno: J* (xo) = rnax [Ev(O) { F [x (O), µo [x (O)], v (O), O] /J,o + rnax [Ev(l) {F [x (1), µ1 [x (l)], v (1), l] /J,1 +··· + rnax [Ev(N-1) {F [x (N - 1), µN-1 [x (N - l)], v (N - 1), N - l] /J,N-1 + S [x (N)]}] · · · }]}] . En esta ecuación, la rnaxirnización afecta a todas las funciones µk tales que µk [x (k)] E nk [x (k)]. Además, la rnaxirnización está sujeta a la restricción de la ecuación del sistema x (k + 1) = f (x (k), µk [x (k)], v (k), k), para k = O, l, ... , N - l. Si se definen las siguientes funciones JÑ [x (N)] = S [x (N)], y para cada k E {N - 1, N - 2, ... , 1, O}, se cumple que Jk [x (k)] = rnax [E {F [x (k), u (k), v (k), k] u(k)Eflk [x(k)) +Jk+l [/ [x (k), U (k), V (k), k]l}] , entonces la proposición queda demostrada; siendo la política de control óptimo: * { * * * } 7f = µo, µ1, ···, µN-1 · Capítulo l. Programación Dinámica 26 1.4 Programación dinámica continua En esta sección se discute un tipo de problemas de optimización, en tiempo continuo, y se proporciona la intuición que se encuentra detrás de los métodos empleados para resolverlos. Estos métodos han sido utilizados por diversos autores para estudiar: el equilibrio, las estrategias y la valuación de activos. La primera parte de esta sección se concentra en el caso de un horizonte infinito. Es importante destacar que se puede usar el principio del máximo o las técnicas del cálculo diferencial para resolver este tipo de problemas. Posteriormente se extiende el análisis a problemas similares en un ambiente estocástico. 1.4.1 Programación dinámica determinista continua a tiempo homogéneo En esta sección se generalizará el método de programación dinámica a tiempo continuo, para ello suponga que se desea maximizar el funcional objetivo: j ( X ( t) l t) = max { / 00 F ( X ( t) l U ( t) , t) } l u(t) t s.a. dx dt = f ( X ( t) , U ( t) , t) , (1.2) x(O) = xo, donde x(t) es la variable de estado y u(t) es la variable de control. Para resolver este problema se escribe: J ( x ( t) , t) = max { / 00 F ( x ( s) , u ( s) , s) ds } u(t) t =r;:c'D { JdtF(x (s) ,u(s) ,s)ds + J F(x(s) ,u(s) ,s)ds}. t t+dt Por el teorema del valor medio para integrales, se tiene que J (x (t), t) = max {F (x (t), u (t), t) dt + o(dt) + J (x (t) + dx(t), t + dt)} u(t) = max {F (x (t), u (t), t) dt + o(dt) u(t) + J ( X ( t) , t) + dJ ( X ( t) , t + dt)} . Capítulo 1. Programación Dinámica 27 Al expandir a dJ en una serie de Taylor, alrededor del punto (x(t), t), la expresión anterior se transforma en: J ( x ( t) , t) = max { F ( x ( t) , u ( t) , t) dt + o( dt) + J ( x ( t) , t) u(t) En consecuencia, +Jtdt + Jxdx + o (dt)} = max { F ( x ( t) , u ( t) , t) dt + o( dt) + J ( x ( t) , t) u(t) +Jtdt + Jxdx}. max {F (x (t), u (t), t) dt + o(dt) + Jtdt + Jxdx} = O, u(t) Después de dividir la expresión anterior entre dt y tomar el límite cuando dt---+ oo, se tiene que max { F ( x ( t) , u ( t) , t) + Jt + J x ddx } = O. u(t) t En virtud de (1.2), se obtiene que max { F ( x ( t) , u ( t) , t) + Jt + J x f ( x ( t) , u ( t) , t)} = O. u(t) La ecuación anterior es conocida como la ecuación de Hamilton-Jacobi-Bellman. De esta forma para resolver el problema de optimización con programación dinámica, en tiempo continuo, basta con resolver la ecuación anterior. 1.4.2 Programación dinámica continua estocástica Se comenzará con el análisis de un problema de horizonte infinito, la ventaja de estos problemas en tiempo homogéneo es que el valor del funcional. objetivo no depende explíci- tamente del tiempo. Lo anterior permite eliminar una variable de la ecuación diferencial parcial derivada. Si la optimización es tomada sobre un horizonte de tiempo finito, el problema es llamado a tiempo no homogéneo. El problema general puede ser establecido de de la siguiente forma: se desea maximizar el valor de una variable, V, la cual depende de un conjunto de variables de estado, X, la variable de tiempo, t y parámetros del problema. Además, el valor de V puede ser influenciado por algún control, u(t). Para un proceso estocástico, X, el problema anterior puede ser escrito como: V= maxE0 { / 00 e-rtF(X,u(t))dt I Fo } , u(t) Jo Capítulo 1. Programación Dinámica 28 s.a. dX = a (X, u(t)) dt + a (X, u(t)) dW La consideración de horizonte infinito en este problema junto con la independencia de u, a y a de t, es de particular interés en esta sección. Es importante mencionar que en algunos casos, u(t) puede ser una constante. Si se puede determinar una solución en forma cerrada para V, entonces u(t) puede ser seleccionada a través del cálculo diferencial para maximizar el valor de V. También puede ser empleado el principio estocástico del máximo, el cual permite el estudio de controles más complejos. El problema anterior puede ser resuelto de la siguiente forma: sea J (t, Xt) = max E [ ('° e-rs F(Xs, u(s))dslFtl u(s)lts,oo) Ít = max E e-rs F(Xs, u(s))ds + e-rs F(Xs, u(s))ds Ft [¡t+dt ¡(X) I ] u( 8) lis ,oo) t t+dt = max E [ rt+dt e-rs F(Xs, u(s))ds + J (t + dt, Xt + dXt) IFt] . u(s)l¡t,t+dt) Ít Por el teorema del valor medio para integrales, se tiene que J (t, Xt) = max E [e-rt F(Xt, u(t))dt + o(dt) + J (t + dt, Xt + dXt) IFtl . u(s)l[t,t+dtJ En virtud de la definición de diferencial, se obtiene que J (t + dt, Xt + dXt) - J (t, Xt) = dJ (t,Xt), entonces J (t, Xt) = max E [e-rt F(Xt, u(t))dt + o(dt) + dJ (t, Xt) + J (t, Xt) IFtl u(s)ltt,t+dt) = rnax E [e-rt F(Xt, n(t))dt + o(dt) + dJ (t, Xt) IFtl + J (t, Xt) u(s)ltt,t+dt) O= max E [e-rt F(Xt, u(t))dt + o(dt) + dJ (t, Xt) IFtl . u(s)ltt,t+dt) Al aplicar, a la ecuación anterior, el Lema de Itó, se produce O= max E [e-rt F(Xt, u)dt + o(dt) + (1t + a(X, u)Jx + ~a2 (X, u)Jxx) dt u(s)l¡i,t+dt) + Jxa(X, u(t))dWIFtl . Capítulo l. Programación Dinámica 29 Después de tomar el valor esperado, se sigue que O= max {e-rt F(Xt, u)dt + o(dt) + (1t + a(X, u)Jx + ~a2 (X, u(t))Jxx) dt}. u(s)l¡t,t+dt] 2 Si se dividen ambos lados de la ecuación anterior por dt y luego se toma el límite cuando dt tiende a cero, se obtiene O= max {e-rt F(Xt, u(t)) + lt + a(X, u(t))Jx + ~a2 (X, u(t))Jxx}. (1.3) u(t) 2 Debido a que la función objetivo tiene una forma separable entonces, se propone como candidato de la solución de la ecuación diferencial parcial anterior a: Al calcular lt, J x, J x x, se tiene: J(t, X) = V(X)e-rt. lt = - rV(X)e-rt, Jx =Vx(X)e-rt, Jxx =Vxx(X)e-rt_ Al sustituir lo anterior en (1.3), se obtiene O= max { e-rt F(Xt, u(t)) - rV(X)e-rt + a(X, u(t))Vx(X)e-rt u(t) + ~a2 (X,u(t))Vxx(X)e-rt}. Si se dividen ambos miembros de la ecuación por el factor e-rt, se sigue que O= max {F(Xt, u(t)) - rV(X) + a(X, u(t))Vx(X) + - 2 1 a 2 (X, u(t))Vxx(X)}. u(t) Lo anterior es equivalente a rV(X) = max {F(Xt, u(t)) + a(X, u(t))Vx(X) + - 2 1 cr2 (X, 'U(t))Vxx(X)}. u(t) Para maximizar la expresión anterior se podría ocupar el cálculo diferencial si u( t) es constante, los métodos de maximización restringida si u( t) es variable y restringida, o el cálculo de variaciones. Una vez que el máximo de u(t) es encontrado, la ecuación diferencial puede ser resuelta utilizando técnicas de ecuaciones diferenciales parciales. La condición necesaria para un máximo es: 1 F(Xt, u(t)) + a(X, u(t))Vx(X) + 2a 2 (X, u(t))Vxx(X) - rV(X) = O. Capítulo 1. Programación Dinámica 30 La ecuación anterior es conocida como la ecuación de Hamilton-Jacobi-Bellman. 1.4.3 Extensión a múltiples variables de estado Si hay mas de una variable estocástica (pero su valor no depende del tiempo) en el problema anterior, la extensión es directa. Al usar la extensión multivariada del lema de It6, se puede calcular dV de forma directa. De esta manera la ecuación diferencial parcial que caracteriza al control óptimo mantiene la variable de estado extra. Suponga que se desea maximizar el valor de una función F (a, b, u, t), donde a y b siguen el siguiente sistema de ecuaciones diferenciales estocásticas: da =f(a, b, u)dt + u(a, b, u)dZa db =g(a, b, u)dt + v(a, b, u)dZb dZadZb =pdt sujeto a las condiciones iniciales a(O) = a0 y b(O) = b0 . Así, el problema queda planteado como: Para encontrar el control óptimo, se seguirá el siguiente procedimiento, para ello sea: J(t, at, bt) - max E { ('° F (a, b, u, s) e-·rsds I Ft } . ul¡t,oo) lt Se tienen las siguientes igualdades J(t, at, bt) = max E { /t+dt F (a, b, u, s) e-rsds + (XJ G(s)e-rsds I Ft } ul¡t,oo) lt lt+dt = max E { ¡t+dt F (a, b, u, s) e-rsds + J(t + dt, ªt + dat, bt + dbt) 1 Ft } ul¡i,t-t-dt) lt = max E { F (a, b, u, t) e-rsdt + o(dt) + J(t, at, bt) + dJ(t, at, bt) 1 Ft } ul¡i,t+dt) = max E{F (a, b, u, t) e-rtdt + o(dt) + J(t, at, bt) ul¡t,t+dti + (lt + J(a, b, u)la + ½u2 laa + g(a, b, u)Jb + ½v2 Jbb + uvplab)dt + uladWt + vJbd½ 1 Ft }· Capítulo l. Programación Dinámica 31 En consecuencia: O= max E{ F (a, b, u, t) e-rtdt + o(dt) ui(i,t+dt) + (Jt + J(a,b,u)Ja + ½a2 Jaa + g(a, b,u)Jb + ½v2 Jbb + avpJab)dt + aJadWt + vJbdVi 1 :Ft }- Si se toman valores esperados, se sigue que O= max { Fe-rtdt+o(dt)+(Jt+f(a,b,u)Ja+½a2 Jaa+g(a,b,u)Jb+½v2 Jbb+avpJ0 b)dt} ul¡i,t+dt) Si ahora se divide entre dt y, posteriormente, se toma el límite cuando dt ~ O, se tiene que O= m:1' { F (a, b, u) e-rt + Jt + f(a, b, u)Ja + ½a2 Jaa + g(a, b, u)Jb + ½v2 Jbb + avpJab }- Si u es máximo, entonces O= F (a, b, u, t) + Jt + f(a, b, u)Ja + ½o-2 Jaa + g(a, b, u)Jb + ½v2 Jbb + avpJab· (1.4) Dada la forma separable de la función objetivo, se propone como candidato de la ecuación diferencial parcial anterior a De esta manera, lt = - rV(a, b)e-rt, J V, -rt a= ae , Jb =Vbe-rt, J V, -rt ªª = aae ' Jbb =¾be-rt, lab =Vabe-rt_ Al sustituir las derivadas pariciales anteriores en (1.4), se tiene que O= F (a, b, u, t) - rV + J(a, b, u)Va + ½a2 Vaa + g(a, b, u)Vb + ½v2½,b + avpVab· Por lo tanto, la siguiente ecuación diferencial parcial debe ser satisfecha en el óptimo: [ 1 2 1 2] rV = m:1' F (a, b, u, t) + V0 f + Vbg + 2 V00a + Vabavp + 2 ¾bv . Capítulo 1. Programación Dinámica 32 La ecuación anterior es una generalización de la ecuación de Hamilton-Jacobi-Bellman, para dos variables de estado. Por un procedimiento similar al anterior se puede obtener la ecuación de Hamilton-Jacobi-Bellman paran variables de estado. 1.4.4 Extensión a la dependencia explícita del tiempo En teoría, la extensión del modelo básico para incorporar la dependencia explícita del tiempo es directa. Sin embargo, la dificultad computacional es frecuentemente magnificada por ésta aparente extensión simple. Se considera una vez más el problema de maximización, pero adicionando algunos elementos: V= maxE0 { / 7 e-rt F (X, s, u(t)) dt + e-rT B (X(T), T) 1 Fo } u(t) lo sujeto a: dX = a (X, t, u(t)) dt + a (X, t, u(t:)) dZ. de esta forma, la optimización es tomada en un horizonte fijo de tiempo y al final la función de herencia es incluida en la función objetivo. La interpretación de la función de herencia puede diferir dependiendo del problema. Por ejemplo, un consumidor desea maximizar su utilidad más un consumo de supervivencia en una fecha determinada en el futuro. Al seguir la metodología empleada anteriormente, se tiene que: rV + V7 = max [F (X, u(t), T) + Vxa (X, u(t), T) + -21 Vxxa2 (X, u(t), T)] . u(t) La diferencia de este caso con el anterior está en el lado izquierdo de la ecuación, la cual incluye la derivada parcial respecto del tiempo, además se deben satisfacer condiciones adicionales de frontera del comportamiento de V cuando T ·-+ O es decir: V(X, O) = B(X, O), donde B(X, O) es una función conocida. La ecuación diferencial parcial resultante puede ser resuelta por varios métodos, incluyendo el método de la transformada de Laplace o el método de la transformada de Fourier. En la probable ausencia de una solución cerrada los métodos de aproximación numérica son utilizados. Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria ,, CAPITULO 2 MÉTODO DE VALUACIÓN DE OPCIONES CON DEPENDENCIA EN LA TRAYECTORIA 33 En este capítulo se presentará un método de valuación de opciones con dependencia en la trayectoria del precio del activo subyacente. Específicamente se utilizará programación dinámica para calcular la prima de una opción con dependencia en la trayectoria. Para aproximar la función de pagos se utilizará interpolación lineal por pedazos. 2 .1 Opciones exóticas Las opciones exóticas tienen su origen en la década de los noventa, aunque se sabe que algunas de sus modalidades ya aparecían en mercados "Over The Counter" (OTC) a finales de la década de los setentas. Sin embargo, no es hasta la década de los noventas cuando su negociación comienza a ser relevante. Las opciones exóticas son opciones con características distintivas que difieren de las opciones clásicas, ya sea por el precio de ejercicio, el tipo de subyacente y las condiciones de pago. Este tipo de opciones también se les conoce con el nombre de opciones de segunda generación, ya que tratan de superar los límites de las operaciones estándar, las cuales presentan en su mayoría contratos sumamente rígidos. A partir de una opción sencilla, con ciertas modificaciones y en función de ciertas condiciones, se pueden diseñardistintos tipos de opciones exóticas. Los factores determinantes de éste tipo de opciones son muy variados. Los periodos de gran volatilidad en los mercados de capitales han impulsado el de- sarrollo de las opciones exóticas. Entre los factores que han inducido dicho desarrollo se pueden mencionar: los avances tecnológicos y el impresionante avance de la teoría de la valuación de opciones. La creciente utilización de estos instrumentos ha tenido un gran impacto en los mercados de capitales a nivel internacional, al negociarse tanto para la ad- ministración de riesgos, como para la especulación. No obstante, su volumen de negociación no es todavía lo suficientemente grande, pero se espera que se experimente un auge mayor. Actualmente, su utilización comienza a extenderse y podría darse el salto de los mercados Capítulo 2. Método de valuación de opciones con dependencia en .la trayectoria 34 OTCs, a los mercados listados. Entre los tipos de opciones exóticas se pueden mencionar a las opciones "path-dependent" (dependientes de la trayectoria), opciones compuestas, op- ciones apalancadas, opciones con pago singular y opciones "rainbow", entre otras. Dentro de este tipo de derivados, las opciones "path-dependent" juegan un papel muy importante en muchos mercados financieros, en particular esta tesis se enfocará en dos opciones de éste tipo: las opciones bermudas e "installments" bermudas cuyo pago al vencimiento depende no sólo del valor que alcance el subyacente al vencimiento, sino también de su evolución en el tiempo. Por lo que la decisión de ejercer o no la opción depende de la evolución del precio del activo subyacente en el tiempo. Valuar este tipo de opciones es una tarea difícil, debido a su dependencia con la trayectoria del activo subyacente. En este caso, el uso de métodos de aproximación es muy útil para el proceso de valuación. En lo subsiguiente se supondrá una opción del tipo "path-dependent" cuyo ejercicio se puede realizar en un conjunto de fechas discretas hasta el vencimiento de este instrumento. 2.2 Opciones tipo Path-Dependent En esta sección se describirá un método para calcular el precio de una opción del tipo "path- dependent" a través de una técnica llamada interpolación lineal por pedazos. ( "Piecewise linear lnterpolation" ) . Considere una opción dependiente de la trayectoria cuyo ejercicio se puede realizar en un conjunto de fechas discretas hasta el vencimiento de este instrumento. Suponga que el valor de este instrumento (prima), al tiempo O, está dado por v. Sean to = O la fecha de emisión de la opción y t 1 , t 2 , ... , tn = Tuna colección de fechas de ejercicio de la opción, donde T es el vencimiento del contrato. Considere que el precio del activo subyacente es conducido por la siguiente ecuación diferencial estocástica: dSt = µ (St, t) dt + u (St, t) dWt. (2.1) Suponga que Vm es el pago de la opción al tiempo tm y Vm = f (St,,., t) , es decir, el pago de la opción depende de la trayectoria del activo subyacente hasta la fecha tm. Con base en la metodología de valuación neutral al riesgo, se tiene que el precio de esta opción al tiempo tm está dado por: (2.2) Sin embargo, de la ecuación anterior, se observa que el valor esperado depende de la trayectoria del precio del activo subyacente hasta el tiempo tm, es por ello que debe ser Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 35 aproximado por algún método. Una técnica eficiente y que es de gran utilidad es la conocida como interpolación lineal por pedazos, la cual consiste en encontrar el valor de una función en un punto intermedio desconocido dados dos valores de esta función. Este método es muy popular en muchas aplicaciones tecnológicas tales como en fotografía digital, calibración de imágenes y registros, texturas y remuestreo. El objetivo de esta sección es plantear un método para calcular el valor esperado de la ecuación (2.1). Este método consiste en particionar el eje real positivo en una colección de intervalos y entonces aproximar el valor de la función de pagos por el método de interpolación lineal por pedazos. Para ello considere un conjunto de puntos a0 = O < a1 < ... < ap < ap+I = +oo y sea Ro, ... , Rp una partición de los reales en p + 1 intervalos de la forma Ri = (ai, ªH1] para i = O, .. ,p. Si Vm es una aproximación del valor de la opción en los puntos ai en el paso m, esta función es interpolada linealmente por pedazos, lo cual produce p vm(s) = ¿ (ai + .B;ns) I (ai < s :S ªH1), (2.3) i=O donde I es una función indicadora. Los coeficientes locales de esta interpolación en el paso m, que son los ar Y los .ar I son obtenidos al resolver la ecuación lineal donde: ,Bf = vm (aH1) - vm (ai). ªH1 - ai Para el caso i = p, los valores para a;i y .B;" están dados por m m am am Qp = ªp-1 Y /Jp = /Jp-1 · (2.4) (2.5) Si Vm+l es conocido. En virtud de (2.1), el valor esperado en (2.2) al paso m está dado por la expresión: Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria por lo que al sustituir (2.3) en la ecuación anterior, se tiene que: Vm =E [e- rdtvm+l (Stm+l) IStm = ak] Si se denotan entonces =E [e-rdt t (ai + {3f"Stm+i) I (ai < s ~; ªi+I) IStm = ak] i=O p =e- rdt ¿ aiE [J (ai < S ~ ªHI) IStm = ªk] i=O p +e-rdt ¿f3fE [Stm+J(ai < s ~ ªi+I) IStm = ak]. i=O p p v = e-rdt ~ a"!'-A . + e-rdt ~{3~m B .. m L....,¡ i k,i L....,¡ ,. k,i i=O i=O 36 (2.6) (2.7) (2.8) (2.9) En las siguientes secciones se verán los casos particulares para el movimiento Browniano geométrico y el movimiento Browniano con reversión a la media. 2.3 Caso movimiento Browniano geométrico A continuación se trabajará con el supuesto de que el proceso en (2.1) bajo una medida de probabilidad neutral al riesgo sigue un movimiento Browniano geométrico de la forma: donde ó es la tasa de dividendos, a es la la volatilidad de los rendimientos del activo sub- yacente y Wt es un movimiento Browniano estándar. De esta forma el valor del parámetro Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria Ak i' dado en (2.7), satisface 1 00 = J J (ai < S ~ ªH1) Ístrn+llStm (s ISt ... = ªk )ds o ª• ª•+l ª• = J Íst ISt (slSt ... =ak)ds-f Jst ¡c;t (slSt ... =ak)ds m+l m m+l L m o o _ ( (2) ) ( (2)) - N -dk,í+l - N -dk,i . 37 La última igualdad es debida a la fórmula de valuación de Black-Scholes. Por lo tanto, _ ( (2) ) ( (2)) Ak,i - N -dk,í+l - N -dk,i ' donde ln ( 8t1!1) + (r - q- lcr2 ) dt i2) _ a, 2 k,i - crv'dt Sea µ = r - q - ½cr2 • En virtud de que Strn = ak, se sigue que: Sea entonces es decir, i 2) _ ln ( ~) + µdt k,i - crv'dt -ln (t) + µdt crv'dt (2) Xk,i = -dk,i' x . _ -i2) __ - ln ( ~) + µdt _ ln ( ~) - µdt k,i - k,i - crv'dt ,:rv'dt ln(~ )-µdt Xk,i = crv'dt Por lo tanto, a partir de (2.10) y (2.12), se obtiene (2.10) (2.11) (2.12) Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 38 A continuación se analizarán algunos casos especiales para el índice i. Cuando i = O, se tiene que _ In ( ~~ ) - µdt _ In ( 2k ) - µdt _ In (o) _ µdt _ Xk O - --'----'---- - --'-----'---- - ---- - -00 ' av'dt av'dt av'dt ya que ao = O. De esta forma se obtiene N (xk,o) = N (-oo) = O. Por lo tanto, Para el caso i = p + l, se tiene ap+l = oo, por lo que In ( ªa; 1 ) - µdt In ( ~ ) -- µdt X - --'----'---- - --'----'---- - 00 k,p+I - avdt - av'dt - ' así N (xk,p+1) = N (oo) = 1, por lo tanto De esta forma se tiene que i = o, 1 ~ i ~ p- 1, i = p. (2.13) (2.14) Ahora se calculará el segundo sumando de (2.9). De acuerdo con (2.8), se tiene que 00 = J sl (ai < s ~ ª·i+I) Íst=+l IStrn (s IStTn = ª'- )ds o ªi+l = j sf st=+i ISt= (s ISt= = ak )ds a¡ a¡+1 a¡ = J sfst ISt (s ISt= = ak )ds - J sf st ISt (s ISt= = ak )ds =+l Tn =+l 7n o o = erdt St= N ( -d~~l+i) -erdt St= N ( -d~~o . Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 39 Como antes, la última igualdad se obtuvo por la formula de valuación de Black-Scholes para una opción de venta europea. Así, se tiene que ln ( 8t_rn) + (r - q + la2 ) dt i1) _ a, 2 k,i - av'dt , pero Stm = ak, por lo que B · = erdta N (-i1~ ) - e rdta N (-i1~) k,i k k,i+l k k,i y il) _ ln ( ~) + (r - q + ½a2) dt k,i - av'dt pero d2 = d1 - av'dt, entonces d1 = d2 + avdt, en consecuencia y de acuerdo con (2.11), entonces (2.16) puede ser reescrita. como (1) - ,,-; dk,i - -xk,i + av dt. Al sustituir (2.17) en (2.16) se tiene que: Bk,i = erdtakN ( Xk,i+l - av'dt) - erdtakN ( Xk,i - av'dt) . A continuación se verán otros casos especiales sobre el indice i. Caso 1: Si i = O In (-lf-) - µdt In ( a~ ) - µdt ln (o) _ µdt Xk,O = - -~-=--- - - -00 av'dt avdt - avdt - ' (2.15) (2.16) (2.17) (2.18) entonces N ( Xk,O - av'dt) = N (-oo) = O, por lo que al sustituir en (2.18), se tiene que Bk,l =erdtakN ( Xk,1 - av'dt) - erdtakN (:z:k,O - av'dt) = erdtakN ( Xk,1 - av'dt). Caso 2: Si i = p + l, entonces ln ( ªJ:1 ) - µdt 1n ( ~ ) - µdt In ( oo) - µdt X - ----=-- - -~-=--- - ----- - 00 k,p+l - av'dt av'dt - av'dt - ' Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria por lo que N ( Xk,p+l - av'dt) = N (oo) == l. Al sustitur la expresión anterior en (2.18), se tiene que Por lo tanto, Bk,p =erdtakN ( Xk,p+l - av'dt) - erdtakN ( Xk,p - av'dt) = erdtak [N ( oo) - N ( Xk,p - av'dt)] = erdtak [ 1 - N ( Xk,p - av'dt)] . erdtakN ( Xk,1 - av'dt) si i = O, Bk,i = erdtak [N ( Xk,i+l - av'dt) - N ( Xk,i - av'dt)] si 1 ::; i::; p - 1, erdtak [ 1 - N ( Xk,p - av'dt)] si i = p. con Xk,i definida en (2.12). 40 (2.19) 2.4 Caso movimiento Browniano con reversión a la media En algunos mercados como es el caso de los energéticos o algunos de "commodities", el movimiento Browniano geométrico no describe adecuadamente la evolución de sus precios. Es por ello que se han planteado diversas modificaciones de este proceso con el fin de obtener una representación más realista de estos precios. Por ejemplo, en estos mercados el principal atributo de los precios "spot" es la reversión a la media y la estacionalidad. Se dice que una variable tiene reversión a la media hacia un valor, llamado media de largo plazo, si presenta la siguiente propiedad: mientras mas lejos se mueva de este nivel, la probabilidad será mayor de que en un futuro regrese a él. De esta forma el movimiento Browniano geométrico no tiene reversión a la media debido a que no tiene información sobre la media de largo plazo y la distribución de los cambios futuros en los logaritmos del precio es la misma, independientemente de su nivel actual. Es por ello que a continuación se propone la siguiente modificación al movimiento Browniano geométrico para incorporar esta propiedad, al cual se le llamara en adelante movimiento Browniano con reversión a la media. Considere el siguiente proceso con reversión a la media dSt = Sta (b - ln (St)) dt + adW1 (2.20) donde b-(a2 /2a) es la media de largo plazo del logaritmo del precio "spot" y el parámetro a es la velocidad de ajuste hacia el parámetro de reversión. A continuación se resolverá la Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 41 ecuación diferncial estocástica anterior para determinar la distribución de probabilidad de este proceso. Para ello considere la siguiente transformación, sea Zt = ln (St), (2.21) al aplicarle el lema de Ito a Zt, se tiene que [ 8Zt 8Zt l 2 2 8 2 Ztl 8Zt dZt = 8t + Sta (b - Zt) oSt + rr St oS¡ dt + o-St {)St dWt [O+ Sta (b - Zt) ;t + ~a 2 S¡ (- ;¡) l dt + aSt ;t dWt [ a (b - Zt) - ~0-2] dt + adWt = a ( b - 2 1ª o-2 - Zt) dt + ad Wt. De la expresión anterior es importante destacar que el logaritmo del proceso (2.20) tiene la forma del proceso de Vasicek, donde el parámetro de la velocidad de ajuste hacia el parámetro de largo plazo es el mismo del proceso (2.20) y el parámetro de reversión es b - ( o-2 /2a). Por lo tanto, la cantidad b - ( o-2 /2a) se interpreta como la media de largo plazo del logaritmo del precio "spot". A continuación se determinará el proceso Zt, para ello considere la siguiente transformación. Sea (2.22) al aplicarle nuevamente el lema de Ito a Yt, se tiene que [ 8Yi ( 1 2 ) 8Yi l 2 8 2 Yi l 8Yt dYt = - + a b - -a - Zt - + -a - 2 dt + a-dWt 8t 2a 8Zt 2 8Zt 8Zt = [aeªt Zt + a (b - 2 1ª o-2 - Zt) eªt + ½a2 (o)] dt + aeªtdWt =a ( b - 2 1ª o-2) eªtdt + aeªtdWt, de donde si t1 < t2 t2 t2 t2 Yi2 - Yt1 = J dYu = J a (b- 21ª o-2) eªudu + J aeªudWu t1 t1 t1 t2 t2 =a (b- 2 1 a o- 2 ) J eªudu + J aeªudWu t1 t1 t2 =a (b - 21a o-2) ¾ (eªt2 - eªt1) + / aeªudWu, t1 Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria por lo tanto t2 Yt2 = Yt1 + (b - ;a a 2) (eªt2 - eªt1) + J aeªudWu. t1 Por (2.22), se tiene que la expresión anterior es equivalente a es decir, t2 eªt2 Zt2 = eªti Zt1 + (b - 2~ a 2) (eªt2 - eªt1) + J aeªudWu, t1 t2 Zt2 = e-a(trti) Zt1 + (b - 21a 0"2) ( 1 - e-a(t2-t1)) + e-at2 J aeªudWu. t¡ t2 42 (2.23) Como dWu,...., N (O, du), entonces f aeªudWu tiene una distribución de probabilidad nor- t1 mal, lo que implica que Zt 2 tambienes normal, cuyos parámetros (esperanza y varianza) se calculan a continuación. por lo que + e-••, J ue""dW. l\l',,] t1 =e-a(t2-tdzt1 + (b- 21aª2) (1- e-a(t2-ti)) t2 +e-at2 J aeªuE (dWu l~ti] t1 =e-a(trt1) Zti + (b- 2 ~ 0"2) ( l _ e-a(trti)), (2.24) A partir de la expresión anterior si t2 -+ oo, se observa que la media de largo plazo está dada por b - (a2 /2a), es decir, el logaritmo del proceso (2.20) en promedio tiende a su Capítulo 2. Método de valuación de opciones con dependencia en fa trayectoria 43 valor de largo plazo. La varianza está dada por h ] + e-at2 J aeªudWu IS):t 1 t1 =Var [e-••, l ueªudw. I~,.] =e-24''u2Var V eªudw. I~,.] Observe ahora que [ t2 ] t2 Var / g (u) dWu IS):t1 = / g 2 (u) du, t1 t1 por lo que t2 t Var [Zt2 IS):t 1 ] = e-2at2a2 J e2audu =e-2at2a2 [ 2~ e2au] 2 t1 t1 (2.25) = a2e-2at2_!_ [e2ah _ e2at1 ] = a2_!_ [l - e-2a(t2-t1 )], 2a 2a en consecuencia es decir, el proceso dado por (2.21) se distribuye normal y de acuerdo a (2.24) y (2.25), se tiene que: z IS): "'N (e-a(t2-ti) z + (b _ __!__a2) (1 _ e-a(t2-t1)) a t 2 t1 t1 2a ' 1 _ e-2a(t2-t1) 2a (2.26) La expresión anterior muestra que el logaritmo de los precios "spot" cuya dinámica es guiada por (2.20) se distribuye normal, como en el caso del movimiento Browniano geo- métrico. Es de destacar que la desviación estandar del proceso (2.21) converge a la de los logaritmos del movimiento Browniano geométrico si el valor de la velocidad de ajuste (a) es pequeña. Si el valor de a es grande la desviación estandar de (2.26) es menor que la del logaritmo del movimiento Browniano geométrico (este es un efecto de atracción de la reversión a la media). Esta característica de distribuciones terminales es consistente con Capítulo 2. Método de valuación de opciones con dependencia en la trayectoria 44 el comportamiento de una curva de volatilidades implícitas típica, la cual tiene como regla pendientes decrecientes. Hasta este punto es importante mencionar que el logaritmo del proceso dado en (2.20) se distribuye normal al igual que en el caso del movimiento Browniano geométrico. Es por esta razón que a continuación se dara un lema que será de gran utilidad para determinar los valores de (2.7) y (2.8). Lema 2.1 Sea V una variable alaeatoria, tal que V= em+z donde Z ,....., N (O, 1), entonces E[max(K-V,O)] = KN(-d2)-E[V]N(-d1), donde ln(E¼i)) +? d1=-~-----s con A partir del lema anterior, se puede verificar que K K j fv (v)dv = N (-d2), o j vfv (v)dv = E[V] N (-di). o (2.27) (2.28)
Compartir