Logo Studenta

Modelagem de Risco Operacional com Distribuição Generalizada de Pareto Multivariada

¡Este material tiene más páginas!

Vista previa del material en texto

Instituto Tecnológico y de Estudios 
Superiores de Monterrey 
Campus Ciudad de México 
Uso De La Distribución Generalizada De 
Pareto Multivariada Para Modelar Riesgo 
Operativo 
Tesis que para recibir el título de 
doctorado en ciencias financieras 
presenta: 
José Juan Chávez Gudiño 
Director de tesis: 
José Antonio Núñez Mora 
México D.F., 4 Junio 2009 
RESUMEN: 
Esta investigación trata de la medición del riesgo que implican las pérdidas operativas, 
en particular las extremas que suceden en forma conjunta, eventos que se yerguen como 
una amenaza a la viabilidad y existencia de muchas instituciones, mediante un modelo 
inscrito en el enfoque de modelos avanzados de Basilea JI (AMA). Trata del paradigma 
de distribuciones de pérdidas en su modalidad multivariada; la distribución abordada es 
la generalizada de Pareto (DGP-M), dado que la inserción de ésta en el análisis de 
pérdidas catastróficas se da en forma muy natural. 
De los modelos existentes para generar variables aleatorias con la distribución 
generalizada de Pareto multivariada, se encontró que el logístico anidado se presenta 
como una opción viable para modelar pérdidas operativas, dado que permite diferentes 
niveles de dependencia entre variables y funciona bien para problemas que no 
involucren demasiadas variables. Esta investigación se beneficia de las investigaciones 
recientes del Doctor Rene Michel sobre las distribuciones generalizadas de Pareto 
multivariadas. 
En este trabajo se aplica, como un paso inicial necesario, una prueba estadística para 
confirmar o descartar independencia en la ocurrencia de pérdidas extremas (Falk-
Michel), prueba que resulta también ser útil para determinar el umbral multivariado de 
laDGP. 
Se demuestra la obtención de las ecuaciones para la densidad angular del modelo 
logístico anidado de la DGP-M para 3,4 y 5 variables, generalizando el procedimiento 
para n variables; Utilizando tal expresión se hacen las adaptaciones necesarias a los 
algoritmos de Michel para obtener parámetros de dependencia de variables empíricas de 
pérdidas operativas, y con éstos simular variables aleatorias de pérdidas que sigan la 
distribución indicada, y que a su vez permitan medir el riesgo operativo de una entidad 
cualquiera sea.financiera o no. 
Se desarrolla el procedimiento para, con las variables simuladas, construir las medidas 
de riesgo, se hace notar la relevancia del uso del déficit esperado en las medidas a 
utilizar para evaluar en riesgo implícito en un patrón de pérdidas y se presenta un 
algoritmo para escalar la medida de riesgo en el tiempo, equivalente a la regla de la raíz 
cuadrada del tiempo en los modelos gaussianos, la aplicación se basa en la distribución 
agregada de pérdidas. 
IV 
INDICE 
Contenido Pag. 
Introducción. 1 
1.- Riesgo Operativo. 1 
2.- Objetivo y alcance. I 
3.- Base de datos con pérdidas operativas. Confidencialidad 2 
4.- Investigaciones Previas. 2 
4.1.- Investigación reciente en modelos multivariados de valores extremos para Riesgo 2 
Operativo 
4.2.- La propuesta del uso de la descomposición espectral, o densidad angular en la 3 
Distribución Generalizada de Pareto. 
4.3.- Metodologías Previas Requeridas y Existentes. 4 
4.3.1.- Bivariado y Trivariado. 
4.3.2.-Multivariado 
4.3.3.-Severidades: Distribuciones de Valores Extremos Multivariadas. 
5.- Plan de la Tesis. 1 O 
Capítulo 1: Riesgo operativo definición y principales problemas actuales; teoría 13 
de valores extremos. 
1.1.- Riesgo Operativo. 13 
l. 1 .1.- Riesgo Operativo y Riesgo Residual; Pérdidas brutas y Pérdidas netas 14 
1.1.2.- Gestión y Modelado del Riesgo Operativo. 15 
1.1.3 .- Modelado del Riesgo Operativo. 17 
l. 1 .3.1.- AlGOR Problemas en el modelado del riesgo operativo e implicaciones 
prácticas. 
1.2.- Tratamiento de Frecuencias distintas. 20 
l.3.- Teoría de Valores Extremos y Formas Univariadas. 21 
1.4.- Variables Independientes: Descartando Correlación Serial. 23 
1.5.- Determinación de parámetros de la distribución para algunas variables de RO. 26 
1.5.1.- Análisis Univariado (VARIABLES: RO_!, R0_2 y R0_3). 
1.6.- Basilea: Estimación de parámetros y medidas de riesgo con modelos de valores extremos 31 
univariados (Moscadelli 2004). 
1.7.- Dominio de Atracción, Fréchet. 33 
1.8.- Transformación de las variables empíricas en exponenciales negativas. 34 
1.9.- Conclusiones. 37 
Capítulo JI: Probando independencia en la cola en Distribuciones de Valores 39 
Extremos y modelos relacionados. 
II.1.- Introducción. Relevancia de la realización de las pruebas 39 
1.2.- Dependencia y Correlación. 40 
1.3.- Necesidad Teórica de la Prueba. 41 
11.4- Fundamento Teórico de la Prueba 41 
11.5.- Exposición de las pruebas 42 
11.5.1.- Prueba Basada en la distancia C. 42 
11.5.2.- Prueba Neyman- Pearson 42 
11.5.3.- Prueba Kolmogorov Smirnov (KS) 44 
11.6.- Aplicación de las pruebas de independencia a casos bivariados simulados. 45 
11.7.- Aplicación a Pares de Variables Empíricas de Riesgo Operativo. 49 
11.8.- Exposición de las versiones multivariadas de las pruebas de independencia. 52 
II.8.1.- Función OVE multivariada. 52 
V 
11.8.2.- Neyman-Pearson Versión Multivariada: 53 
11.8.3.- Prueba Kolmogorov Smirnov (KS) Versión Multivariada: 53 
11.9.- Aplicación de la Prueba Multivariada a Tres conjuntos de Datos con d=3. 54 
11.10.- Algunas Conclusiones de Falk y Michel sobre su investigación. 56 
11.11.- Conclusiones. 57 
Capítulo 111: Estimación de los parámetros de dependencia de la distribución 59 
generalizada de Pareto multivariada; relevancia en la medición de 
riesgo operativo 
111.-1.- Introducción 59 
111.-2.- Modelos DVE y DGP multivariados. 59 
111.-3.- Modelo Logístico Anidado: Definición y Características 61 
111.-4.- Densidad Angular por medio de Transformaciones de Pickands y de Fréchet. 62 
111.4.1 Transformación de Fréchet. 63 
111.4.2.- Transformación de Pickands. 64 
111.-5.- Obtención de las Expresiones para obtener las densidades Pickands y angular. 65 
111.5.1.- Elementos Previos 65 
111.5.2.- Obtención de las expresiones de las densidades de Pickands y angular para 3 66 
variables aleatorias que siguen una DGP-M. 
111.5.2.1.- Obtención de la Expresión para la Densidad Angular 3 dimensiones. 
111.5.2.2.- Obtención de la Expresión para la densidad de Pickands en 3 dimensiones. 
111.5.2.3.- Expresión de la Densidad Angular parad= 4 
111.5.2.4.- Expresión de la Densidad Angular parad= 5: 
111.5.2.5.- Expresión para el caso Bivariado 
111.6.- Aplicación de la Densidad Angular en la Obtención de Parámetros de dependencia 75 
del Modelo Logístico Anidado. 
111.7.- Relevancia de los Hallazgos en la Medición del Riesgo Operativo. 79 
111.8.- Conclusiones: 81 
Capitulo IV: Simulación de variables distribuidas generalizada de Pareto 83 
multivariada con la densidad angular. 
IV. l.- Introducción 83 
IV.2.- Algoritmos de Michel para simular variables aleatorias DGP-M. 83 
IV.2.1.- Simulación de vectores de números aleatorios en el Simplex unitario 83 
(Algoritmo 4.10 en Michel (4)). 
IV.2.2. Elección de los vectores válidos mediante el método de rechazo utilizando la 87 
Densidad de Pickands (Algoritmo 4.1 en Michel ( 4 )). 
IV.2.3. Simular un Componte Radial Aleatorio. 88 
IV.3.- Algoritmos de simulación de DGP multivariada, modificados para la densidad 90 
angular multivariada, con distribuciones marginales Fréchet. 
IV.3.1.- Proceso general de simulación de las variables DGP-M. 90 
IV.3.2.- Algoritmos de Michel modificados para Simulación de variables DGP-M con 92 
la densidad angular acotada. 
lV.3.3.- Aplicación del algoritmo modificado para la Densidad angular con d=5. 93 
IV.4.- Verificación de los parámetros de dependencia de los vectores DGP-M generados. 106 
IV.5.- Conclusiones: 108 
Anexo IV-A Códigos en VBA (Excel) y Mathematica para generar variables en el Simplex 109 
Unitario 
Capítulo V: Integración; procesos aleatorios para riesgo operativo; construcción 111 
de las medidas de riesgo. 
V.1.- Introducción. 111VI 
V.2.- El umbral multivariado de una DGP-M. Relación entre las Distribuciones 
Marginales (OVE) y la Distribución Conjunta Multivariada (DGP-M). 
V.3.- Transformando los Umbrales Radiales y las variables simuladas en Umbrales y 
Eventos de Pérdida por Tipo de Evento. 
V.4.- Marco Fundamental para Modelar el Riesgo Operativo. 
V.5.- Simulación de Frecuencia de Eventos. 
V.6.- El Proceso de las Pérdidas Agregadas. 
V.6.1.- Caso multivariado y notación OpVaR. 
V.6.2- El Problema de la Ruina y el Capital Requerido. 
V.7.- Construcción de los Procesos de Pérdidas de Riesgo Operativo y Simulación de 
Variables. 
V.7.1.- Parámetros de las Distribuciones Marginales y transformación a Marginales 
Unifom1es. 
V. 7 .2.-Transformación en Exponenciales Negativas. 
V.7.3.-Realización de Pruebas de independencia. Obtención de algunos Parámetros 
para Simulación DGP-M. 
V.7.4.-Determinación de los Parámetros de Dependencia. 
V.7.5.-Simulación de Variables de los Procesos de Pérdidas Subyacentes. 
V.7.6.-Tratamiento de las Frecuencias. 
V.7.7.-Promedio de las Pérdidas Debajo del Máximo. 
V.7.8.- DGP univariadas. 
V.7.9.-Resumen de Variables simuladas. 
V.8.- Obtención y Análisis de las Medidas de Riesgo 
V.8.1.- OpVaR con Subyacentes Fréchet vs. OpVaR con Subyacentes DGP-M. 
V.8.2.- OpVaR con Procesos Subyacentes DGP univariados Comparado con el 
OpVaR con Procesos Subyacentes DGP-M. 
V.8.3.- El OpVaR más allá del cuantil 0.999. 
V.8.4.- La no subaditividad del OpVaR. 
V.8.5.- El Déficit Esperado (o Esperanza Condicional de la Cola u OpVaR de la Cola) 
V.9.- Escalamiento del OpVaR en el tiempo. 
V. I 0.- Digresión Acerca Del proceso de Difusión de las Pérdidas Operativas visto como 
un Proceso de Lévy 
V .11.- Conclusiones. 
Anexo V.I 
Anexo Y.11 
Anexo Y.III 
Anexo V.IV 
Bibliografía 
Código VBA para simular la distribución Poisson inversa. 
Frecuencias Poisson y Binomial Negativa. 
Función Uniforme [0,1] Truncada 
Transformaciones de Variables Empíricas a Exponencial Negativa. 
113 
118 
120 
122 
122 
128 
129 
134 
134 
134 
136 
138 
139 
140 
141 
141 
143 
145 
145 
146 
148 
149 
151 
154 
156 
158 
159 
160 
164 
165 
167 
Vil 
INTRODUCCION. 
1.- Riesgo Operativo. 
Si en riesgo de crédito los créditos que incumplen suelen ser llamados "ángeles caídos", 
denotando con esto una posición de riesgo inicialmente reputada como buena que sin 
embargo se ha desgraciado y terminado en pérdida; el mundo de las pérdidas operativas 
es igualmente dramático y poblado de entes equivalentemente trágicos. Ingresar a este 
mundo es parecido a ingresar a los círculos del infierno financiero: en su derredor el 
paisaje es de destrucción, lamentos y cantos trágicos generados por pérdidas que debilitan 
la salud financiera de las instituciones y más aún, las pueden conducir a la extinción. 
Ejemplos de lo devastador que es no cuidar este riesgo existen en abundancia en la 
literatura financiera, porque si bien en todas las entidades, y en los individuos también, 
existen pérdidas por el simple hecho de operar ( existir en el caso de los individuos), los 
controles omitidos o laxos se transforman en pérdidas económicas mayores; operar con 
sistemas obsoletos e ineficientes implican paros, retrasos, transacciones equivocas o 
incompletas, quejas, demandas y al final de todo, pérdidas. Es decir las decisiones que 
dan marco a la forma en que la entidad existe y realiza el objeto de su existencia la 
exponen a mayores o menores pérdidas. 
Porque a perder se acostumbran las entidades y los individuos, es algo tan rutinario que 
se vuelve parte del paisaje: extraviamos objetos, nos timan en pequeña o gran monta; 
falla el auto; el sistema informático; la maquinaria; sufrimos hurtos o accidentes; y de 
todo esto solo nos queda registro en la memoria cuando las pérdidas son significativas, 
las pequeñas las borramos rápido del registro; Importa saber sin embargo si la ley que 
rige esas pérdidas nos puede dar una idea de su potencial de aniquilación. 
Es bastante malo que existan pérdidas, peor aún que estas sean grandes, pero que sucedan 
eventos malos de tamaño significativo, en forma conjunta, debiera ser una preocupación 
primaria. Por esta razón se deben estimular las investigaciones que permitan determinar 
la probabilidad de estos eventos, tanto en forma individual como conjunta. El disertante 
se propone investigar un modelo particular para medir el riesgo operativo de pérdidas 
conjuntas. 
2.- Objetivo y alcance. 
El objetivo de este trabajo es resolver problemas metodológicos ligados a la medición del 
riesgo operativo mediante la teoría de valores extremos, en particular con la Distribución 
Generalizada de Pareto Multivariada (DGP-M de aquí en adelante). El número de 
problemas a abordar es amplio, ya que la exploración de estas metodologías está en su 
fase incipiente. 
Sin intención de resolver todos los problemas asociados a la aplicación de los modelos 
multivariados de la teoría de valores extremos, se abordan los siguientes ligados al 
modelo DGP-M: 
• El problema de la dependencia en la cola de la distribución, 
• El uso de frecuencias de ocurrencia distintas entre factores de riesgo típico del 
Riesgo operativo. 
• La determinación o no existencia de tal dependencia. 
• La estimación de parámetros de dependencia. 
• La simulación de variables distribuidas como Generalizadas de Pareto 
Multivariadas. 
• La obtención de medidas de riesgo en función a las simulaciones realizadas. 
• El escalamiento del la medida de riesgo en el tiempo. 
• Orientar cada uno de los elementos abordados al Riesgo Operativo. 
3.- Base ele datos con pérdidas operativas. Confidencialidad 
Si bien este trabajo no es el estudio de un caso, para su investigación el disertante contó 
con una base de datos con más de 25,000 eventos de pérdidas operativas de una entidad 
específica, que fue sumamente útil para resolver los problemas prácticos del trabajo con 
variables empíricas, por razones de confidencialidad no se revelan los datos y parámetros 
específicos obtenidos. 
4.- 1 nvestigaciones Previas. 
4.1.- Investigación reciente en modelos multivariaclos de valores extremos 
para Riesgo Operatirn 
Recientemente las investigaciones en riesgo operativo han confirmado la existencia de 
correlaciones de importancia, asimismo se ha empezado a avanzar en los modelos 
multivariados con correlación o dependencia. Los enfoques que los autores han 
identificado son: 
• Modelado de cuerpos lognormales (para pérdida esperada), colas GDP para 
colas. Incluyendo correlación -efecto diversificación-. 
• Uso de Cópulas de Teoría de Valores Extremos. Uso de la cópula t. 
Marginales GDP estrnctura de dependencia con cópulas t y empírica. 
• Escenarios multivariados con Cópula Gaussiana obteniendo distribuciones 
Poisson multivariadas. 
2 
• Modelado de la estructura de dependencia de las diferentes unidades de riesgo 
vía el nuevo concepto de Cópula de Lévy. 
• Estimación por máxima verosimilitud de un modelo estadístico multivariado. 
Modela con distribuciones de valores extremos donde los datos lo sugieren, 
estimando por análisis de escenarios y eliminación de "outliers" de las 
distribuciones marginales y dependencia con cópulas. 
En fechas recientes ha florecido la investigación en el campo del riesgo operativo y 
los valores extremos. Varios investigadores especializados en teoría de valores 
extremos (Embrechts, Klüpelberg, Mikosch 2008, Falk, Chávez-Desmoulin, 
Embrechts, Neslehová 2006), han sido atraídos al análisis de problemas en la 
medición del riesgo operativo por la naturalidad con que éste encaja con la teoría, 
realizando contribuciones importantes; estás van desde la agregación de las pérdidas, 
al uso de distribuciones para modelar las frecuencias, pasando por el tratamiento de 
datos, enfoques multivariados distintos, hasta el abordar de lleno el cálculo del valor 
en riesgo y la esperanza condicional de la cola. El modelo que se trata en esta 
investigación, no ha sido abordadoen tales enfoques. 
4.2.- La propuesta del uso de la descomposición espectral, o densidad angular 
en la Distribución Generalizada de Pareto. 
Por otro lado la teoría estadística ha desarrollado técnicas para generar distribuciones 
generalizadas de Pareto multivariadas. Recientemente fueron publicados varios artículos 
por René Michel (2001-2006), en donde aborda problemas teóricos y prácticos de la 
Distribución Generalizada de Pareto Multivariada (DGP-M). Sus investigaciones son 
exhaustivas, y el practicante de la administración de riesgos financieros y los 
investigadores en otros campos, encontrarán amplio material de aplicación. Con la 
intención de ahondar en aspectos prácticos, y en particular en el modelado del riesgo 
operativo, son relevantes particularmente los siguientes temas: 
• Aspectos teóricos de los modelos: logístico, logístico asimétrico y 
logístico anidado. 
• Simulación: algoritmos para los dos primeros modelos anteriores, e 
indicaciones sobre cómo abordar el tercero. 
• Estimación de Parámetros: para los modelos logísticos con mismo 
parámetro de dependencia; Para el modelo logístico anidado con 
parámetros de dependencia distintos entre pares, en particular el método 
de máxima verosimilitud. 
En su investigación Michel hace uso de la descomposición espectral, también llamada 
angular (Falk, Hüessler y Reiss). 
La descomposición angular consiste en transformar las variables de pérdida en 
componentes (angular y radial) equivalentes a una representación polar, y donde los 
3 
componentes angulares son la materia prima para los diferentes modelos, estimación de 
parámetros y simulación de variables. 
En la revisión de investigaciones previas no se encontró el uso directo de esta 
descomposición aplicada a medir riesgo operativo tal como se propone. 
4.3.- \lctodologías Previas Requeridas y Existentes. 
Ahora bien, para utilizar los modelos de distribuciones DVE (Distribución de Valores 
Extremos) y DGP (Distribución Generalizada de Pareto) en sus diferentes dimensiones: 
univariada, bivariada, trivariada y multivariada, se debe contar con metodologías para: 
•Estimarlos parámetros de forma, localización y escala (modelos paramétricos). 
• Pruebas para verificar la bondad del ajuste a la distribución, dados los parámetros 
encontrados. 
• Formas cerradas para estimar cuantiles de la distribución encontrada o métodos de 
simulación para generar variables aleatorias bajo los parámetros determinados. 
Cuando se trata de dos o más dimensiones se añaden las metodologías siguientes para: 
• Estimar funciones que determinen las relaciones de dependencia entre las 
variables (cópulas o semi-cópulas). 
• Estimar los parámetros de las distribuciones marginales y los parámetros de 
dependencia entre estas. 
• Obtener formulas cerradas para generar variables aleatorias con dependencia 
(Casos bivariados y trivariados). 
• En su caso desarrollar métodos de simulación para generar variables aleatorias, 
dada la relación de dependencia obtenida. 
• Escalar las variables simuladas con los parámetros de escala, forma y 
localización. 
• Transformar las variables obtenidas en las variables de estudio (pérdidas 
operativas por ejemplo) y generar sus medidas de riesgo. 
-/.3. l.- Birnriaclo r Tri\'Clriaclo. 
Para el caso bivariado y en algunos casos trivariado hay varios modelos desarrollados e 
implementados en diferentes programas, Stephenson en su programa "evd", incluye para 
9 modelos bivariados de OVE: 
• Cálculo de densidad y de la densidad angular; 
• Obtención de parámetros de modelos de cópulas condicionales para modelar 
dependencia. 
• Estimación de parámetros. 
4 
• Obtención de simulaciones 
4. 3. 2. -Mu/ti\ ·arictclo 
Para el caso multivariado, hay principalmente dos investigaciones que abordan la 
estimación de parámetros y simulación multivariada de los modelos de la teoría de 
valores extremos: 
• Stephenson en el caso de las de Valores Extremos. En el programa señalado 
incluye, para los modelos logístico y logístico asimétrico de las OVE; cálculo de 
distribución, densidad y obtención de simulaciones. 
• Michel en el caso de la Generalizada de Pareto, en sus investigaciones provee 
algoritmos para estimar parámetros y realizar simulaciones de los modelos 
logístico y logístico anidado. Provee además código en el programa 
"Mathematica" para la realización de simulaciones para los mismos modelos. 
Comparten los modelos Multivariados OVE y DGP que estudian Stephenson y Michel las 
siguientes características: 
• Las variables de pérdida sufren las siguientes transformaciones: 
o Variable empírica 7 
• Estandarización en términos de la marginal paramétrica 7 
• Transformación a variables exponenciales negativas 
• Utilizan la descomposición angular. 
• Distribuciones marginales paramétricas univariadas. 
• Distribuciones marginales Fréchet, de relevancia en finanzas debido a las colas 
pesadas que exhiben estas variables. 
• Modelos Logísticos, Simétricos y asimétricos 
o Logístico: Parámetro de dependencia único (constante). 
o Logístico asimétrico, parámetros de dependencia diferentes y parámetros 
de asimetría. Número de parámetros elevado. 
• Su espacio probabilístico se encuentra en el Simplex unitario. 
• Existencia de Algoritmos de simulación implementados para los modelos 
logístico y logístico asimétrico. 
• La existencia de modelos logísticos anidados con diferentes parámetros de 
dependencia. Modelos más complejos de implementar debido a las expresiones 
involucradas. 
• Ambos apuntan que los algoritmos de simulación que presentan se pueden 
modificar para aceptar el logístico anidado. 
• Las simulaciones entregan resultados en forma de cuantiles marginales 
relacionados por los parámetros de dependencia de la distribución conjunta. 
s 
• Los cuantiles se convierten en variables de pérdida con las transformadas inversas 
de las distribuciones marginales. 
Es conveniente señalar las características que dan la relevancia a los modelos logísticos 
en la posibilidad de obtener medidas de riesgo operativo, 
• Modelo logístico: de manejo sencillo para cualquier dimensión, con la 
desventaja de suponer un parámetro de dependencia constante. Como se comentó, 
tanto Stephenson como Michel proveen algoritmos específicos de simulación. El 
modelo es útil en riesgo operativo si se encuentra un parámetro de dependencia 
muy similar en el conjunto de variables a modelar. 
• Modelo logístico asimétrico: permite el manejo de diferentes parámetros de 
dependencia, pero requiere asimismo muchos parámetros de asimetría. El número 
de parámetros requerido lo hace inmanejable para muchas variables. Tanto 
Stephenson como Michel proveen algoritmos específicos de simulación. 
• Modelo logístico anidado: permite modelar las dependencias relevantes entre 
variables, utilizando d-1 parámetros de dependencia. El modelo deriva en 
expresiones complejas. Tanto Stephenson como Michel indican que es factible 
trabajar con estos modelos a pesar de su complejidad. El trabajo de Stephenson 
provee de una indicación muy general para los modelos de Valores Extremos; el 
de Michel provee soluciones tanto en la simulación de variables como en la 
estimación de parámetros que se pueden adaptar a las versiones multivariadas del 
modelo logístico. Por sus características el modelo puede ser de mucha utilidad 
para modelar el riesgo operativo. 
Como se puede observar, el modelo logístico anidado ofrece un campo amplio de 
oportunidad en la investigación de su aplicación al riesgo operativo, sin embargo las 
investigaciones actuales no lo abordan con toda la profundidad de los primeros. 
Las dificultades en la obtención de expresiones de la densidad angular y las asociadas 
para dimensiones elevadas limita el uso del modelo para portafolios o problemas 
financieros de muchas variables, pero lo hace idóneo para modelar situaciones de número 
limitado de variables, tal como en el caso del Riesgo Operativo, en el que las 
características de las variablespermiten suponer independencia respecto a diferentes 
líneas de negocio, pero diferentes niveles de dependencia entre eventos dentro de las 
líneas de negocio; y además en número reducido de variables de pérdida a modelar. 
En la Tabla I se muestra lo actualmente disponible y no para generar variables aleatorias 
de valores extremos: 
6 
Tabla l. Distribuciones de Valores Extremos: Metodologías existentes para utilizar 
los modelos en diferentes dimensiones. 
Metodología Vnivariado Bivariado \lultivariaclo 
Estimar los parámetros de forma, DVEy DGP: DVE y DVE: existen, 
localización y escala. Existen. mismos que para las 
DVEy DGP: distribuciones 
Existen. marginales. 
Pruebas para verificar la bondad del DVEy DGP: No DVE: No hay 
ajuste a la distribución, dados los hay. DGP: Michel 2005. 
parámetros encontrados. 
Formas cerradas para estimar DVEy DGP: 
cuantiles de la distribución Existen 
encontrada o métodos de simulación DVE: Stephenson 2003 
para generar variables aleatorias 
bajo tales parámetros. DGP: Michel 2005. 
Estimar funciones que determinen 
las relaciones de dependencia entre 
las variables (cópulas). DVEy DGP: 
Existen 
Estimar los parámetros de 
dependencia. 
Obtener formulas cerradas para DVE: NA 
generar variables aleatorias con DGP: NA 
dependencia. DVE: NA 
DGP: NA 
O en su caso desarrollar métodos de DVE: Existen DVE: Stephenson 2003 
simulación para generar variables DVE: DGP: Michel 2005 
aleatorias, dada la relación de Stephenson 2003 
dependencia obtenida. DGP: Existen 
DGP: Michel 
2005 
Escalar las variables simuladas con DVEy DGP: DVE y DGP: Existen 
los parámetros de escala, forma y Existen 
localización 
Nota: Se verificó la existencia de las metodologías a diciembre de 2008. 
Sin w I oc i án: 
Respecto a la simulación de variables, necesaria para modelar riesgo operativo ya que se 
ha aceptado el supuesto de comportamiento multivariado y la relevancia de los 
parámetros de dependencia Michel (2006,2001) señala que hay relativamente pocos 
trabajos que tratan la simulación de distribuciones de valores extremos multivariadas: 
• Tajvidi (1996) señaló la necesidad de tales simulaciones. 
• Falk, Michael; Hüsler, Jürg; Reiss, Rolf-Dieter (2004) Simulan la DGP 
Marshal-Olkin bivariada. 
• Reiss, R., Thomas M., (2001) desarrollan técnicas para simular modelos OVE 
bivariados: Marshal-Olkin; Hüsler-Reiss. Stephenson implementa los modelos 
7 
logístico, logístico asimétrico, Hüsler - Reiss, negativo logístico, bilogístico, 
negativo bilogístico, Coles-Tawn y asimétrico mixto. 
• La mayoría de los trabajos conocidos hoy en día tratan casos bivariados y 
tri variados. 
• Stephenson (2003), es la única fuente que aborda la simulación en 
distribuciones DVE para n dimensiones. Los algoritmos de Stephenson están 
implementados en el paquete en R (Ihaka y Gentleman, 1996) llamado "evd" 
(Stephenson, 2002), y está disponible en http://www.maths.lancs.ac.uk/ 
stephena/. 
• La investigación de Michel (2006) aborda por primera vez la simulación de 
DGP en dimensiones arbitrarias para los modelos logístico y logístico 
asimétrico, y provee de algoritmos generales adaptables a otros modelos. 
Para la estimación de funciones de dependencia. 
• Para el caso de las distribuciones DVE, hay amplia literatura para la estimación 
del parámetro de dependencia en el caso bivariado (Michel lista al menos 13). 
• Para dimensiones mayores en distribuciones DVE, Michel menciona los trabajos 
de Tawn (1998), Coles y Tawn (1991) Joe _et al. (1992), Coles y Tawn (1994), 
Coles et al. (1999), Kotz y Naradajah (2000). 
• Para distribuciones DGP Michel aplica varios métodos previamente utilizados en 
la estimación de parámetros de las distribuciones DVE. 
Michel señala que la razón de que la mayoría de los trabajos tratan el tema bivariado, o a 
lo más trivariado, es porque en teoría de valores extremos las cosas se complican al pasar 
de dos a tres dimensiones: 
"Esto se debe a que la función de dependencia de Pickands, que gobierna esos 
modelos, es una función univariada en el caso bivariado. Por tanto el paso de la 
dimensión 2 a la 3 es, para la función de dependencia el paso de la dimensión 1 
a la 2. Esto lleva a fórmulas más complicadas, y no toda aseveración válida en el 
caso bivariado, se sostiene para el caso trivariado ". Michel [Abril 2006} 
4. 3. 3. -Sei ·eridacles: !Jisl ri huciones de Valores Ext re111os M11/ t il ·ariodas. 
Aunque esta investigación no aborda el caso de la distribución de valores extremos 
multivariada DVE-M, es conveniente notar lo siguiente: 
Si bien los algoritmos recopilados e implementados por Stephenson para la DVE 
multivariada están disponibles en forma libre, no se ha hecho aplicación de tales modelos 
a la medición del riesgo operativo. Mucho menos se ha explorado el modelo logístico 
anidado, mismo que, como se apuntó, puede ser de gran importancia en la medición del 
riesgo operativo. 
Unas notas más sobre la el trabajo de Stephenson: Su trabajo "Simulating Multivariate 
Extreme Value Distributions" es muy compacto y se centra efectivamente solo en los 
problemas de la simulación de las variables aleatorias mediante los modelos logístico y 
logístico asimétrico, proponiendo para cada uno dos algoritmos. 
Al final de ese trabajo Stephenson aborda el problema de la generalización de los 
modelos indicados, en particular se aborda el modelo logístico anidado, con 
distribuciones marginales Fréchet. De hecho concluye el artículo diciendo: 
"El modelo presentado aquí, incorpora solo un nivel de anidación. En teoría es 
posible construir y simular de una distribución logística de valores extremos 
formas que contengan cualquier número de niveles de anidación". Stephenson, 
Ob. cit. Pág. 58 
Los trabajos de Stephenson en tomo a su Software "evd" se refieren al uso del programa, 
pero también aporta elementos teóricos de los diferentes modelos allí donde es necesario. 
<) 
5.- Plan de la Tesis. 
El Gráfico 1 presenta el mapa conceptual que esta obra desarrolla a lo largo de 5 
capítulos. 
Capítulo 1: Presenta el problema del riesgo operativo, los retos que presenta y la forma en 
que este trabajo contribuye al enfoque de modelos avanzados. 
Capítulo 11: Presenta e implementa dos pruebas de independencia en valores extremos. El 
objetivo es modelar dependencia conjunta en la cola solo en donde las pruebas indican 
que debe hacerse. Modelar riesgo con dependencia en donde las pruebas estadísticas 
indican que no existe, es sobreestimar la medida de riesgo. De hecho, descartar 
dependencia para algunos conjuntos de variables simplifica enormemente la obtención de 
medidas de riesgo operativo. 
Es importante notar que una vez que no ha sido posible descartar independencia en la 
cola entre un grupo de variables, existe la posibilidad de que sean modeladas con 
distribuciones de valores extremos multivariadas (DVE-M) o distribuciones 
generalizadas de Pareto multivariadas (DGP-M); este trabajo solo trata el caso de la 
generalizada de Pareto multivariada. (Ver gráfico 1 parte inferior izquierda). 
Capítulo III: Se demuestra la expresión de la densidad angular para la distribución 
Generalizada de Pareto Multivariada, tipo logístico anidado, para 3 variables y escala el 
procedimiento hasta 5. La densidad angular es útil en algoritmos de simulación de 
variables aleatorias con esta distribución y para estimar sus parámetros de dependencia. 
Se utilizan las expr~siones obtenidas para estimar, por máxima verosimilitud, los 
parámetros de 5 variables con parámetro conocido (Con el objetivo de verificar 
confiabilidad en la metodología propuesta). El modelo tiene características que lo hacen 
adecuado como modelo avanzado de riesgo operativo. Se propone un método para 
determinar el orden jerárquico de las variables en la aplicación del modelo a variables 
empíricas. 
Capítulo IV: Presenta los algoritmos de simulación de Michel, mismos que utilizan la 
densidad de Pickands para obtener los vectores aleatorios; asimismose proponen las 
modificaciones necesarias a tales algoritmos para realizar tales simulaciones utilizando la 
densidad Angular del modelo logístico anidado. En particular, cuando se expongan los 
algoritmos modificados, se utilizará el caso de 5 variables para mostrar en forma 
detallada el proceso para generar tales variables aleatorias. 
Capítulo V: Muestra como utilizar las variables simuladas del modelo DGP-M para ser 
transformadas en simulación de pérdidas operativas con dependencia; se presenta el 
marco fundamental para modelar el riesgo operativo. Este capítulo es de naturaleza 
integradora ya que reúne los elementos que se vierten en los capítulos previos, se 
articulan con elementos que se vierten en este capítulo referentes a la conformación de 
los procesos de pérdidas agregadas y la obtención de las medidas de riesgo operativo 
cuando se ha modelado mediante una DGP-M. 
10 
Gráfico 1.- Mapa Conceptual de la Obra 
H] 8S ~ o CJ fJ 8f~rr] \JD Severidad de La Pérdida. 
: Capítulo 1 : 
Modelado de la Distribución la Cola 
·----------- 1 
,------------. 
: Capítulo 11 : 
1_ - - - - ----- - -· 
Series 
dela 
máxima 
pérdida 
: Capítulo 11 : 
·- - - - - - - - - - - -· 
Máxima 
por 
Bloques 
_ Prueba: ~No 
·¿Independencia 
•Pares~" 
•Múltiple ,,,,,-,, \ , -->'º , 
< ,,C,-,il~_ , ,', 
', .. , ... 
,,' 
Modelado 
Univariado de la 
Distribución 
• Cuerpo 
• Cola) 
: Capítulo 111 : 
1 __ - - - - - - - - - - 1 
Piecing 
Together: 
Marginales + 
Función de 
Dependencia 
y<O 
Dominio 
de 
tracción?~·-. 
/'~o' ;. ., ... v ,' 
C,1R ,,' 
Modelado con Metodologías 
Estándar. 
', ....... 
,,' 
r----------
:_ Capítulos _lll_y IV_. 
! Modelado 
I Multivariado• de j I la Cola. 
•OVE 
•DGP 
DGP Multivariada con Dependencia 
Estimación de Parámetros. 
•Máxima Verosimilitud : capítulo 111 : 
·- - - - - - - - - - - - 1 
Simulación Variables : Capítulo IV : 
1 ____________ 1 
r-----------
: Capítulo 1 : 
Marginales:Estimación 
de Parámetros 
y>O 
DVE; DGP 
Gumbel 
Fréchet 
Transformación de 
Variables: T P y T F 
Capítulo 111 : 
·- - - - - - - - - - - - 1 
,-----------
: Capítulo V : ·- - - - - - --- - - - · 
Riesgo Operativo 
Medidas de Riesgo 
11 
12 
CAPÍTULO I: 
RIESGO OPERATIVO DEFINICIÓN Y PRINCIPALES PROBLEMAS ACTUALES; 
TEORÍA DE VALORES EXTREMOS. 
l. l.- Rirsgo Operatirn. 
Ésta investigación es acerca del Riesgo Operativo y de la importancia de la Distribución 
Generalizada de Pareto multivariada en la obtención de sus medidas de riesgo 
considerando dependencia entre eventos. 
Riesgo operativo se define como el riesgo de pérdida debido a las deficiencias o a fallos 
de los procesos, el personal y los sistemas internos o bien a causa de acontecimientos 
externos. El tipo y frecuencia de eventos que abarca es muy diverso. 
Esta definición incluye el riesgo legal, pero excluye el riesgo estratégico y el de 
reputación. 
Del riesgo operativo se pueden destacar las siguientes características 
• El riesgo operativo es el más antiguo de todos y está presente en cualquier 
clase de negocio y casi en toda actividad. 
• Es inherente a toda actividad en que intervengan personas, procesos y 
plataformas tecnológicas. 
• Es complejo, como consecuencia de la gran diversidad de causas. 
• Las grandes pérdidas que ha ocasionado a la industria financiera muestran el 
desconocimiento que de él se tiene y la falta de herramientas para gestionarlo. 
Es conveniente indicar de una vez la principal diferencia relevante para el modelado del 
riesgo legal: 
En tanto que en el riesgo operativo las pérdidas ocurren durante una ventana dada, en el 
riesgo legal aparte de los eventos esperados que suceden con determinada frecuencia 
(para cuyos parámetros utilizamos información histórica), existen eventos en curso 
(demandas) cuya conclusión en pérdida es incierta, pero incluye una probabilidad de que 
suceda. 
Por otro lado está la severidad de la pérdida, en este caso tenemos una situación parecida 
al riesgo de crédito, es decir, tenemos un monto expuesto inicial (monto demandado) y 
una pérdida final (Resolución de la situación). La pérdida final se evalúa como pérdida 
económica, esto es, incluye gastos de juicio y otros gastos relacionados con la obtención 
de la resolución, incluidos los gastos de mantenimiento en caso de estar involucrado un 
bien que lo requiera. 
Finalmente existen montos con reclamo propio y montos con reclamo en contra, etc. 
13 
Riesgo Operativo Significativo es un riesgo, que por su importancia tiene un impacto 
potencial adverso ( cualitativo o cuantitativo) en: 
• Asegurar la existencia de un negocio en marcha. 
• Consecución de Objetivos; 
• Alcanzar metas de Rentabilidad; 
• Mejorar la Competitividad y Productividad; 
• Mantener y mejorar Reputación; 
Los Riesgos Operativos Significativos, pueden terminar en verdaderos desastres que 
amenacen la misma existencia de la entidad. 
l. t. 1.- Riesgo Operativo y Riesgo RcsiduaJ; Pérdidas brutas y pérdidas netas 
Riesgo Operativo intrínseco: Es un riesgo que se deriva de realización de las actividades 
propias de la entidad. Está implícito en la actividad que realizamos. Es medible, 
gestionable y factible de mitigare. 
Mitigación del Riesgo Operativo: es la parte del riesgo intrínseco con posibilidad de ser 
eliminado: mediante mejoras en procesos; modernización de sistemas y equipos; 
aseguramiento contra ciertos eventos (robo, fallas en sistemas, fenómenos naturales, etc.) 
El Riesgo Operativo Residual: es el remanente y es el que se manifiesta en forma de 
eventos de pérdidas. El objetivo de la administración de riesgos debe ser minimizar el 
riesgo residual. 
La mitigación es la medida más eficiente contra el riesgo operativo. No todas las acciones 
de mitigación tienen un beneficio asignable de forma inmediata, pero otras sí (Seguros). 
Riesgo Operativo Intrínseco - Mitigación = Riesgo Operativo Residual 
De lo anterior se deriva que existirán pérdidas brutas y pérdidas netas. Esto trae a 
discusión si se deben utilizar unas u otras apara modelar el riesgo. De hecho se pueden 
seguir ambos caminos: 
• Se modelan las pérdidas brutas: en tal caso se debe hacer el cálculo de la 
severidad de pérdida, restando pagos por cobertura (mitigación del riesgo) y 
sumando costos y gastos. 
• Modelar pérdidas netas: por neto se debe entender no solo por la deducción de 
la mitigación (pago del seguro por ejemplo, pago del daño en caso legal), sino 
la inclusión del costo (el pago de primas y deducibles, gastos de juicio y 
demás). 
En uno y otro caso el resultado es el mismo, pero cuando se trabaje con pérdidas netas se 
debe estar seguro que se incluyen los beneficios de la mitigación pero también sus costos. 
14 
Por otro lado las series históricas de pérdidas se registran a valor histórico, y se requieren 
series largas en tiempo para capturar eventos escasos, pero el análisis debe hacerse a 
valor presente (pérdida económica) cercano a la fecha de análisis para dimensionar mejor 
las pérdidas pasadas. 
Además de lo anterior, se debe tener en cuenta que en el caso de riesgo legal, el concepto 
de pérdida económica es más relevante, debido a que: 
• La ventana del evento suele ser larga. 
• A lo largo del evento se suceden gastos y costos legales y de otro tipo. 
• Los rezagos en el cobro de seguros y demás beneficios también aconsejan el uso 
del valor presente. 
Esta investigación parte de las pérdidas netas de costos y beneficios de mitigación. 
1.1.2.- Gestiún y Modelado del Riesgo Operativo. 
La administración de riesgo operativo incluye el modelado de éste y la gestión de éste en 
base a tales resultados, este artículo pone más énfasis en el modelado del riesgo. Solo 
como referencia se debe comentar que la obtención de información no es sencilla y que la 
gestión del mismo tiende a modificar el tamaño y la frecuencia de las pérdidas en el 
tiempo. 
Las siguientes preguntas acercan a los problemas que han de ser resueltos para construir 
una base de datossólida en base a la cuál se pueda modelar el riesgo, y establecer las 
estrategias de seguimiento y administración de éste riesgo. 
• ¿Quién identifica los riesgos? 
• ¿Cuál va a ser el mapa de riesgos: Líneas de negocio y eventos de pérdida? 
• ¿Cuál es la definición de ventana del evento?, es decir ¿cuando se considera 
que un evento ha sucedido y concluido?, ¿Pérdidas en diferentes tiempos 
deben ser acumuladas en un solo evento? 
• La definición de evento, acumulación de pérdidas asociadas a un mismo 
evento y ventana de evento se vuelven relevantes. 
• ¿Se registran solo los eventos que efectivamente terminan en pérdida? 
• ¿ Todas las pérdidas son registrables? 
• ¿Quién identifica y reporta las pérdidas? 
• ¿Quién construye la base de datos de pérdidas, quién la valida? 
• ¿Qué controles aseguran que toda pérdida es reportada y clasificada 
adecuadamente? 
• ¿Debe ser modificado el esquema contable para clasificar pérdidas? 
• ¿Quién decide qué riesgo debe ser mitigado? 
15 
• ¿Quién establece los planes de acción? 
• ¿Quién da seguimiento a los planes de mitigación? 
• ¿Quién construye los modelos de administración del riesgo operativo? 
• ¿Qué cambios en la estructura de control y reporte deben ser implementados 
como resultado de las pérdidas observadas y de los parámetros de riesgo 
obtenidos? 
Un ejemplo de esquema global de la gestión del Riesgo Operativo es el siguiente: 
G 
E 
s 
T 
1 
__________ Gráfico - Gestión del_Ries_gQ__Operativo 
Segmentar la entidad por t I Métodos para Identificar l ~--O-b_t_e,-1e-r-, --~ 
Fuentes ele ruesgo -• y Evaluar 
1
..... Implementar y ciar 
Operativo Significativo Riesgos Significativos . Seguimiento a Planes 
(Linea ele Negocio) Por Línea ele Negocio ele Mitigación 
--- --·-····- ..... -------------------------------------------------------------------
·o 
N 
M 
o 
D 
E' 
L 
A 
e 
1 
o 
N 
Priorizar Riesgos; Establecer Estrategias de mitigación 
Creación Inelicaclores 
clave ele Riesgo {:
egui111ienlo a 
-- cadores Clave de 
Riesgo 
--·-------· 
Informar ?I Organismos 
ele Toma ele 
Deci~iones~ Aclión 
Alertas Tempranas; Cursos estándar de acción 
Diseño del esquerna de 
reg istro ele pérd idas. 
Dimensiones, Unidades, Sub-
Unidacles, Tipos ele Evento, Etc. 
Construcción ele Base 
ele Datos que 
Registre los Eventos 
de Pérdida. 
Impacto en Util idad. 
+ 
Pérdida Económica 
Fuente de datos con orientación a Gestión del RO 
Decidir Objet ivo en e l Uso 
del Capita l. 
Asignar Recursos 
Decidir Etapa'> en la 
rvloclelación clel 
Riesgo¡ 
Básirn~Avanzado 
!Medidas ele Riesgo: 
1 •Op. Var.¡ 
•Contribución 
J\·1arglnal a 11.0. 
Estimación de Reservas y Capital (Sea Económico o Regulatorio) 
Fuente: Elaboración propia. 
1 / 
1 / 
i/ ,· 
A. 
R. 
o. 
16 
1.1.3.- i\fodelado del Riesgo Operativo. 
La regulación propuesta en el Acuerdo de Capitalización de Basilea II de Junio de 2004, 
para el cálculo de capital en los bancos, ha ido filtrándose a las regulaciones locales, 
poniendo a las instituciones financieras ante el reto real de implementar estas 
metodologías. Ya la implementación del proceso de sistematizar el registro y 
clasificación de las pérdidas de tipo operativo implica cambios sustanciales en las 
organizaciones; el modelado de este tipo de riesgo es aún más complejo, actualmente no 
hay estándares para su medición, es un campo que continuamente ofrece novedades en 
soluciones pero también abre problemas nuevos. 
La regulación existente ha tratado de ser conservadora, pero aplicar tal conservadurismo 
implica un costo para las instituciones, mientras más sencillo y fácil de implementar el 
método, más caro en costo de capital: Existen las siguientes opciones (de las simples a las 
complejas): 
• Indicador Básico. 
• Método Estándar. 
• Método Estándar Alternativo. 
• Modelos Avanzados (AMA). 
En México únicamente están regulados los dos primeros, no obstante es de esperar que 
conforme avance la gestión del riesgo operativo se avance también hacia los siguientes 
modelos. Los enfoques a que se hace referencia en esta obra se inscriben en los modelos 
avanzados (AMA). 
Dependiendo del riesgo de cada entidad, que en el caso de riesgo operativo está definido 
por sus estructuras de control y las plataformas tecnológicas que utiliza, cada enfoque 
puede implicar un menor costo de capital, pero su complejidad en el modelado aumenta 
mucho cuando se trata de los modelos avanzados y exige la solución de problemas 
nuevos. 
1.1.3.1.- A.ICOR Problemas en el modelado del nesgo operativo e 
i111plicaciones prácticas. 
El enfoque de modelos avanzados tiene importantes incentivos por sus beneficios en 
gestión y asignación de capital, pero también es el que más retos implica. El Comité de 
Basilea constituyó el AIGOR (Grupo de Implementación de Riesgo Operativo para 
modelos avanzados) mismo que se enfoca en los retos prácticos ligados a la 
implementación de este tipo de riesgo, especialmente en lo tocante a los modelos 
avanzados. 
Hay varios aspectos relacionados con el modelado del riesgo operativo que el AIGOR 
aborda. En Jo que sigue se citan los párrafos del documento de análisis que ha liberado el 
mencionado grupo que son relevantes para el objeto de este artículo, asimismo se 
17 
comentan sus implicaciones. Las referencias son al documento de convergencia del 
Comité de Basilea de octubre de 2006, y al documento denominado "Observed range of 
practice in key elements of Advanced Measurement Approaches" del AIGOR: 
Granularidad: 
"El sistema de medición de riesgo del banco debe ser suficientemente 'granular' 
para capturar los principales factores clave del riesgo operativo que afectan la 
forma de la cola de las estimaciones de pérdida." (Párrafo 669(c)) 
Implicaciones prácticas: 
• El menos granular es el que modela una sola distribución para todas las 
pérdidas, su supuesto implícito es independencia entre las pérdidas; El 
supuesto es que son independientes e idénticamente distribuidas. 
• El enfoque más granular establece pérdidas por línea de negocio o tipo de 
evento de riesgo operativo, o bien ambas (tipo de evento por línea de 
negocio); Retos: disponibilidad de datos y diferencia en frecuencias. 
• La falta inicial de datos puede llevar inicialmente a modelos de baja 
granularidad (agrupación de eventos en categorías más generales). 
Dependencia (correlación), 
"Las medidas de riesgo para diferentes estimaciones de riesgo operativo deben 
ser sumadas con el propósito de calcular el requerimiento de capital regulatorio 
mínimo. Sin embargo, al banco le puede ser permitido utilizar correlaciones 
determinadas internamente en riesgo de pérdidas entre estimaciones individuales 
de riesgo operativo, siempre que pueda ser demostrado a la satisfacción del 
supefllisor nacional que sus métodos para determinar las correlaciones son 
sólidos, implementados con integridad, y que toman en cuenta la incertidumbre 
que rodea a tales estimaciones de correlación (Particularmente en periodos 
críticos). El banco debe validar sus supuestos de correlación utilizando técnicas 
cuantitativas y cualitativas adecuadas." (Párrafo 669(d)) 
Implicaciones prácticas: 
• Sumar las medidas de riesgo (OpVaR) implica perfecta dependencia entre 
riesgos; esto es un incentivo para probar modelos con dependencia 
imperfecta. 
• La dependencia imperfecta implica incorporar el efecto de portafolio en la 
modelación del riesgo. 
• Es necesario distinguir correlación de dependencia, la correlación está 
relacionada con fenómenos modelados con el supuesto de linealidad, aquí 
se tiene presente el concepto de dependencia en el sentido más amplio que 
incluye la dependencia en la cola de la distribución. Correlación no 
necesariamente implica dependencia. 
18 
• No hay un solo tipo de dependencia, al menos se deben considerar: 
Dependencia entre frecuencia de eventos; dependencia en tiempo de 
eventos; dependencia entre las severidades de pérdida. 
• La diversidad de las frecuencias y severidades,así como del tiempo entre 
eventos lleva a la conclusión de que podemos tener variables aleatorias no 
idénticamente distribuidas que se deban modelar en forma multivariada, en 
forma natural esto conduce al uso de cópulas. 
• El concepto de dependencia en la cola se vuelve relevante, la dependencia 
es más relevante en los casos de ocurrencia simultánea de pérdidas 
grandes. 
"Es también posible considerar estructuras de dependencia más generales, 
para la cuales la correlación es diferente entre la cola y el cuerpo de la 
distribución y varía dentro de la cola. Estructuras complejas de dependencia 
que suponen altas dependencias en eventos de riesgo operativo en la cola 
son particularmente importantes y podrían conducir a resultados de 
requerimiento de capital por riesgo operativo que son mayores que cuando se 
hace el supuesto de correlación de 100%, aun cuando estos resultados no son 
probables para propósito de capital regulatorio "AIGOR 
La cita alude al hecho de que las distribuciones de valores extremos y la distribución 
generalizada de Pareto consideran como posibles pérdidas extremas no observadas. Sin 
embargo también hay que apuntar que es muy dificil hallar dependencia entre diferentes 
tipos de eventos y además qué estos, cuando exhiben severidades mayores son más 
escasos, por lo que es de esperar que las pruebas estadísticas sugieran también el uso de 
modelos univariados para algunos tipos de pérdida. 
Técnica utilizada en el modelado (Supuesto de distribución y estimación), 
"Dada la continua evolución de los enfoques analíticos para el riesgo operativo, 
el Comité no especifica supuestos a ser utilizados respecto al un enfoque o 
distribución para generar las medidas de riesgo operativo con propósito de 
determinar el capital regula/ario. Sin embargo el banco debe ser capaz de 
demostrar que su enfoque captura eventos de pérdida en la cola potencialmente 
severos. Cualquiera que sea el enfoque utilizado, el banco debe demostrar que 
sus medidas de riesgo operativo cumplen con estándares sólidos comparables con 
el enfoque de medidas de riesgo de crédito basadas en cal(ficaciones internas 
(por ejemplo, comparables a de un periodo anual y e intervalo de confianza 
equivalente al percentil 99. 9 de la distribución), " (Párrafo 667) 
" .. . El banco debe tener un umbral mínimo interno de pérdidas brutas para la 
recolección de pérdidas, por ejemplo €10,000. El umbral apropiado de pérdidas 
puede variar entre bancos y dentro de cada banco entre líneas de negocio o tipos 
de evento .... " (Párrafo 673, segunda viñeta) 
19 
Implicaciones prácticas: 
• Percentiles de confianza muy altos son dificiles de manejar cuando los 
datos de pérdidas son escasos, se necesitan 1,000 datos para tener una sola 
medida al 99.9%. 
• La discriminación de pérdidas bajas lleva a trabajar con umbrales y datos 
truncados y por tanto a determinar el umbral óptimo. 
• Se deben determinar las distribuciones óptimas para los datos separados 
(sea por línea de negocio, tipo de evento o tipo de evento por línea de 
negocio) para determinar distribuciones marginales y decidir la mejor 
manera de modelarlas en forma conjunta. 
"El rango de distribuciones supuestas para modelar la severidad del 
riesgo de pérdidas operativas es diverso, con algunos de los más 
granulares enfoque de modelado suponiendo más de una forma de 
distribución alineada a las características de una línea de negocio o tipo 
de pérdida en particular. Las distribuciones usadas incluyen las 
distribuciones generalizada de Pareto de la teoría de valores extremos, 
distribuciones empíricas, distribuciones lognormales, distribuciones de 
colas pesadas y distribuciones de colas ligeras. 
Hay mucha menos diversidad en el rango de distribuciones supuestas por 
los bancos para estimar la frecuencia de las pérdidas de riesgo operativo. 
La más comúnmente utilizada es la distribución Poisson. Un número mas 
pequeño de bancos supone una distribución binomial negativa" AIGOR 
Es de notar que la distribución generalizada de Pareto referida es generalmente la versión 
univariada. 
Otros temas tocados por el AIGOR incluyen, el uso de análisis de escenarios de pérdidas 
en conjunción con datos externos para evaluar la exposición a eventos muy extremos y el 
uso de mitigantes, en el cual solo se propone reconocer una mitigación máxima de 20% 
del cargo total por riesgo operativo bajo los modelos avanzados. 
1.2.- Tratamiento de Frecuencias distintas. 
En la medición de riesgo operativo se sigue el enfoque tradicional de modelar por un lado 
las frecuencias de las perdidas y por otro las severidades de pérdida. Aunque la 
investigación toca solo el modelado de las severidades, es necesario comentar en aras de 
la integridad del tema algunos puntos sobre las frecuencias. 
El riesgo operativo, exhibe una gran dispersión en la frecuencia de los eventos, algunos 
pueden suceder a diario, cada semana o mes (o incluso meses), sin existir necesariamente 
regularidad 
20 
Venegas refiere que: 
" ... para un banco típico que realiza diversas operaciones y transacciones con 
clientes, el riesgo de un fraude interno es de baja frecuencia y de alta severidad, 
el riesgo por fraude externo es de media/alta frecuencia y baja/media severidad, 
el riesgo por no atender medidas de seguridad en el lugar de trabajo es de baja 
frecuencia y baja severidad, el riesgo por errores de captura, ejecución y 
mantenimiento de operaciones con clientes es de baja/ media frecuencia y 
media/alta severidad, el riesgo por daños a activos frjos es de baja frecuencia y 
baja severidad y, por último, el riesgo por la falta de sistemas es de baja 
frecuencia y baja severidad" 
Como reconoce este autor, estas asociaciones a tipos de evento/frecuencia/severidad 
varían según la naturaleza de la entidad o institución. 
Por otro lado es necesario considerar que el uso de modelos de valores extremos, que se 
centran en la distribución de la cola, requiere que se tome en cuenta la frecuencia de la 
ocurrencia de valores extremos. En particular para modelo DGP, ya que esta distribución 
existe a partir de un umbral dado, es necesario saber con que frecuencia las observaciones 
exceden tal umbral y modelar en consecuencia. 
Por otro lado es común el supuesto de considerar que la frecuencia de los eventos es 
independiente de la severidad de pérdida. 
1.3.- Teoría de Valores Extremos y Formas Univariadas. 
En general hay dos maneras de modelar valores extremos: 
• El primero se denomina Máxima por bloques, que implica recoger solo las 
observaciones más grandes para un periodo dado, suponiendo grandes muestras 
de observaciones idénticamente distribuidas. El método discrimina una gran 
cantidad de datos y está relacionada con las Distribuciones Generalizadas de 
Valores Extremos (DVE), cuya forma estándar está dada por: 
Gy(x)=exp(-(l+y·xr 111 ), l+y·x>O, y-:t:-0 
Donde si y = O, es la Gumbel estándar; si y > O, es la Fréchet, si y < O, es la 
Weibull. 
• El segundo método ( o grupo de métodos) se denomina "excesos sobre un 
umbral". Se modelan todas las observaciones grandes que exceden un umbral 
dado (Generalmente alto), el método discrimina menos datos (de por sí escasos) y 
se considera muy útiles en aplicaciones prácticas. Están relacionados con las 
Distribuciones Generalizadas de Pareto (DGP), cuya forma estándar está dada 
por: 
21 
W/x) = 1-(1 +y· xf 11 r 
Donde, si x > O y y = O, es la exponencial; Si O < x y y>O, es la Pareto, y si O < x 
<111 y 1, y y< O, es la Beta. 
Es necesario comentar también los siguientes puntos: 
1. Los dos métodos se centran en una parte de la distribución (la cola) no en 
toda. El modelado de lo que no es valor extremo se puede hacer por otros 
métodos más sencillos. 
2. Se puede notar que existe una relación sencilla y directa entre las 
distribuciones DVE y las DGP: 
Wr(x)=l+logG(x),si logG(x) >-1 
Esta relación será muy útil durante la investigación. 
3. El teorema de Pickands-Balkema-De Hann, establece que es posibleencontrar una función positiva y medible dados parámetros de forma, 
localización y escala, tal que: 
I Flul (x) - Wr,u.a-,, (x) I~ O, u ~ w(F) 
Si y solo si, F pertenece al dominio de atracción del máximo. 
Así la distribución para la cual la máxima normalizada converge a una 
distribución DVE constituye un grupo de distribuciones para las cuales la 
distribución de los excesos converge a una DGP cuando el umbral se 
incrementa. Más aun "El parámetro de forma de la DGP límite para los 
excesos es el mismo parámetro de forma que para la distribución DVE 
límite para el máximo" Alexander McNeil et. al. [2005]. 
Es muy posible que cuando en un fenómeno existan observaciones 
extremas, buscando un umbral suficientemente alto, la cola tenderá se 
ajustar a una DGP. 
El enfoque de utilizar distribuciones de pérdidas implica por un lado demostrar que las 
variables de pérdida ( o sus máximos) son independientes e idénticamente distribuidas, en 
la sección 1.4 siguiente, se presenta la técnica para probar que las variables son 
independientes entre sí, y en la 1.5 se muestra cómo se prueba que son idénticamente 
distribuidas ( con las pruebas de ajuste a las distribuciones de probabilidad univariadas ). 
22 
1.4.- Variables Independientes: Descartando Correlación Serial. 
Probar la independencia en una serie de pérdidas operativas con el enfoque de valores 
extremos, equivale a probar que la serie no presenta autocorrelación serial. Cuando se 
habla de una serie, se hace referencia a la serie que representa las pérdidas ( o máximos de 
éstas) para un tipo de pérdida que se desea modelar (celda). 
Al trabajar con las series de pérdidas operativas se encuentra que la frecuencia de 
ocurrencia de los eventos no son siempre sincrónicas, hay periodos en que un variable 
exhibe eventos cuando la otra no, la propuesta de este trabajo es buscar un periodo más 
largo en el cual haya una o varias observaciones por tipo de variable. De cada periodo se 
toma la observación máxima, a este procedimiento, como se apunto antes, se le conoce 
como "máxima por bloques". De esta manera tenemos ahora series de ambas variables 
cada una de las cuales exhibe un valor máximo por periodo. 
Se puede partir de la máxima frecuencia, probar si la serie bajo este supuesto tiene 
autocorrelación, si la tiene se amplia el periodo de extracción del máximo, de los 
contrario se acepta la frecuancia inicial. 
Por otro lado se debe encontrar un nivel de extracción del máximo que sea adecuado para 
el conjunto de variables para las cuales se desea probar dependencia (siguiente capítulo). 
Para descartar autocorrelación en las series, se parte de la hipótesis nula siguiente: 
H0: No hay autocorrelación hasta el k-ésimo rezago 
Para la prueba, se utilizó el estadístico Q de Ljung-Box y su p-value. Como se sabe 
mientras más pequeño es el p-value es mas fuerte la evidencia para rechazar la hipótesis 
nula. Luego entonces para considerar que las series no tienen autocorrelación, el p-value 
del k-ésimo rezago debe ser mayor a 0.05. Con lo cual se aplica la prueba con un error de 
5%. 
Por supuesto existe el problema práctico de elegir el k-ésimo rezago para la prueba, un 
rezago muy corto omitirá correlación serial en elevados rezagos, con uno muy largo la 
prueban tendrá bajo poder. 
Recuérdese que las series corresponden a las máximas por bloques de cada serie, por 
ejemplo la máxima pérdida en un día, pero también puede ser la máxima semanal, 
quincenal o de cualquier otro periodo. Por supuesto que al ampliar el tamaño del periodo 
se tienen menos observaciones. 
Por otro lado, la toma de los máximos debe dejar suficientes observaciones multivariadas, 
es decir la frecuencia elegida debe proveer de observaciones en las variables para las 
cuales se quiere probar la independencia en las observaciones extremas de variables. 
23 
Lo anterior es importante porque la técnica para elegir la serie de máximos que no tiene 
autocorrelación consiste en tomar la mayor frecuencia posible, si en esta frecuencia la 
prueba indica autocorrelación, se amplia el periodo para la extracción del máximo, por 
ejemplo pasando de una frecuencia diaria a cada cinco días. Se procede del mismo modo 
hasta que la ampliación de periodo de extracción del máximo ofrece una serie sin 
autocorrelación serial. 
En la Tabla 1.1 se incluye el resultado de la aplicación de la prueba Ljung-Box a las 
variables R0-1, R0-2 y R0-3 hasta con 12 rezagos. Se puede notar que solo cuando la 
máxima por bloques se toma de la Frecuencia 3, las tres series se encuentran libres de 
correlación. En el caso de la variable R03, desde la frecuencia diaria esto es así, en los 
otros casos hubo de ser ampliado el periodo (bloque) del cual se extrae el máximo. 
24 
Tabla 1.1.- Resultado de las pruebas de autocorrelación. 
R01 
k-ésimo I Diaria Frecuencia 2 Frecuencia 3 
Rezaqo Q-Stat I Prob Q-Stat I Prob Q-Stat Prob 
1 62.01 0.00 5.77 0.02 1.05 0.31 
2 75.87 0.00 13.68 0.00 2.36 0.31 
3 89.53 0.00 16.44 0.00 7.39 0.06 
4 96.47 0.00 16.92 0.00 7.78 0.10 
5 120.69 0.00 22.21 O 00 8.19 0.15 
6 158.74 0.00 24.74 0.00 9.94 0.13 
7 189.55 0.00 28.61 0.00 9.95 0.19 
8 218.10 0.00 30.01 0.00 10.22 0.25 
9 231.18 0.00 30.33 0.00 10.38 0.32 
10 252.65 0.00 30.33 0.00 10.65 0.39 
11 267.65 0.00 30.36 0.00 10.65 0.47 
12 282.03 0.00 30.43 0.00 10.74 0.55 
R02 
k-ésimo Diaria Frecuencia 2 Frecuencia 3 
Reza o Q-Stat Prob Q-Stat Prob Q-Stat Prob 
1 1.43 0.23 2.44 0.12 0.32 0.57 
2 7.07 0.03 3.75 0.15 2.13 0.35 
3 7.08 0.07 4.39 0.22 2.30 0.51 
4 7.12 0.13 4.39 0.36 3.34 o.so 
5 7.25 0.20 9.49 0.09 3.82 0.58 
6 32.55 0.00 9.75 0.14 4.87 0.56 
7 32.72 0.00 10.27 0.17 5.13 0.64 
8 35.00 0.00 10.36 0.24 5.38 0.72 
9 35.07 0.00 11.72 0.23 5.40 0.80 
10 65.58 0.00 11.85 0.30 5.79 0.83 
11 67.44 0.00 12.69 0.31 5.89 0.88 
12 68.94 0.00 13.14 0.36 6.13 0.91 
R03 
k-ésimo Diaria Frecuencia 2 Frecuencia 3 
Rezago Q-Stat I Prob Q-Stat Prob Q-Stat Prob 
1 0.14 0.71 0.02 0.89 0.11 0.74 
2 0.25 0.88 0.14 0.93 0.28 0.87 
3 0.49 0.92 1.02 0.80 0.71 0.87 
4 0.49 0.97 1.17 0.88 1.07 0.90 
5 0.52 0.99 1.24 0.94 2.01 0.85 
6 0.52 1.00 1.27 0.97 2.22 0.90 
7 0.73 1.00 1.38 0.99 2.30 0.94 
8 0.87 1.00 1.55 0.99 2.51 0.96 
9 0.92 1.00 2.76 0.97 5.88 0.75 
10 3.97 0.95 2.76 0.99 6.14 0.80 
11 4.66 0.95 3.97 0.97 6.15 0.86 
12 4.67 0.97 4.73 0.97 6.46 0.89 
En general esta metodología es la que se debe utilizar determinar las series libres de 
correlación serial, ya que no son útiles las transformaciones usuales típicas de la 
construcción de modelos econométricos: en este caso se necesitan máximos sin 
transformaciones logarítmicas, y sin primeras o segundas diferencias, ya que lo que se 
modela es precisamente la pérdida en su forma original. 
25 
Es importante sin embargo que al aumentar la amplitud del periodo del cual se extrae el 
máximo, deje suficientes variables para modelar el riesgo. Para los cálculos que se 
presentan en este capítulo, se utilizó el máximo de cada 7 días. 
1.5.- Determinación de padmetros de la distribución para algunas variables de RO. 
En esta sección del trabajo se utilizarán las series de máxima por bloques para modelar 
estas en forma univariada. En particular se estiman los parámetros para cada variable que 
corresponden a los modelos univariados DVE y DGP. Estos parámetros serán la base 
para modelar en forma multivariada. A este paso se le conoce como determinación de los 
parámetros de las distribuciones marginales. En suma en esta sección de debe probar que 
las variables son idénticamente distribuidas (Ajustan bien a la distribución propuesta), y 
cuáles son los parámetros de las distribuciones de valores extremos a utilizar. 
1.5.1.- Análisis Univariado (VARIABLES: R0_1, R0_2 y R0_3). 
Se llevó a cabo un análisis univariado de tres variables que incluye 135 observaciones 
con el máximo semanal de cada una, por tanto se utilizó el método de máxima por 
bloques, con bloques de 7 días para 945 días. La estimación de parámetros se realizó con 
"Extremes".Variable R0-1 
Máxima por bloques de 7 días. 
,,, 
/\ r L 
,J ' 1 r I~ 
' \ 
Gráfico 1.2. Kernel de densidad de R0-1, y 
Distribución de valores extremos ajustada. 
'.\ 
'\ 
\ 
\"' ,, 
, ___ _ -- --->~~>::".''.! ~----
26 
Tabla 1.1.- Parámetros OVE estimados para R0-1 
Parametrización Gamma 
MU 
SIGMA 
GAMMA 
10,741 
5,960 
0.554924 
Parametrización Alfa 
MU 
SIGMA 
ALFA 
o 
10,741 
1.80205 
La estimación de gamma es y=0.55, es positiva. Se puede modelar como una Fréchet. 
En efecto, si observamos la gráfica cuantil-cuantil (Q-Q), se observa que una recta ajusta 
bastante bien a la distribución: 
Gráfico 1.3.- Variable RO-lGráfico Cuantil-Cuantil 
Gráfico 1.4. Kernel de densidad de R0-1, y DGP ajustada. 
27 
Tabla 1.2.- Parámetros DGP estimados para R0-1 
Extremos 15 40 
Parametrización MU 13,885 13,851 
Gamma. SIGMA 5,566 4,715 
GAMMA 0.0348386 0.11251 
Parametrización MU 145,891 -28,059 
Alfa. SIGMA 159,776 41,910 
ALFA 28.7038 8.88811 
La estimación de gamma es y=0.034. Se puede modelar como una Pareto. 
Variable R0-2 
Máxima por bloques de 7 días. 
Gráfico 1.5. Kernel de densidad de R0-2, y 
Distribución de valores extremos ajustada. 
: ~-:: 
Tabla 1.3.- Parámetros DVE estimados para R0-2 
Parametrización Gamma 
MU 
SIGMA 
GAMMA 
6,551 
6,031 
0.920562 
Parametrización Alfa 
MU O 
SIGMA 
ALFA 
6,551 
1.08629 
La gamma es y=0.92, positiva. Se puede modelar como una Fréchet. 
28 
Gráfico 1.6. Kernel de densidad de R0-2, y DGP Ajustada con Diferentes Extremos. 
1 
\ 
\ 
Tabla 1.4.- Parámetros DGP estimados para R0-2 
Extremos 17 1 
Parametrización MU -36,463 
Gamma. SIGMA 22,657 
GAMMA 0.2493 
Parametrización MU 
Alfa. SIGMA 
ALFA 
21 1 23 1 24 
-9,846 4,121 9,753 
11,314 5,474 3,296 
0.435089 0.660084 0.829692 
-4, 173 5,780 
8,293 3,973 
1.51496 1.20527 
La gamma es positiva, y=0.82 para el mejor ajuste con 24 extremos. Se puede modelar 
con una Pareto. 
29 
Variable R0-3 
Máxima por bloques de 7 días. 
Gráfico 1.7. Kernel de densidad de R0-3, y 
Distribución de Valores Extremos ajustada. 
'--~----------------
Tabla 1.5.- Parámetros OVE estimados para R0-3 
Parametrización Gamma 
MU 2,760 
SIGMA 3,390 
GAMMA 1.22817 
Parametrización Alfa 
MU O 
SIGMA 
ALFA 
2,760 
0.81422 
La gamma es y=l.22, positiva. Se puede modelar como una Fréchet. 
Gráfico 1.8. Kernel de densidad de R0-3, y DGP. 
30 
Tabla 1.6.- Parámetros DGP estimados para R0-3 
Extremos 1 13 1 15 1 69 
Parametrización 
MU 365 -15,298 276 
SIGMA 6,320 11,535 6,140 
Gamma. GAMMA 0.507216 0.35618 0.4993 
Parametrización MU -120,942 -47,683 -12,023 
Alfa. SIGMA 12,459 32,385 12,299 
ALFA 1.9715 2.81 2.00299 
La gamma es positiva, y=;=0.499 para el mejor ajuste con 69 extremos. Se puede modelar 
con una Pareto. 
1.6.- Basilea: Estimación de parámetros y medidas de riesgo con modelos de valores 
extremos univariados (Moscadelli 2004). 
La aplicación de distribuciones univariadas de valores extremos, y generalizada de Pareto 
a modelar la severidad de pérdida en eventos de riesgo operativo ha sido ya abordada en 
fonna amplia en varias investigaciones. Una de las más sobresalientes es la de Marco 
Moscadelli "The modeling of operational risk. Experience with the analysis of the data 
collected by the Base! Coinmittee", de Julio de 2004. Este investigador tuvo el privilegio 
de contar con la base de datos de 89 bancos participantes, e incluyó más de 47,000 
observaciones, clasificadas por tipo de evento y línea de negocio. 
Dado que el interés de este trabajo está en los modelos multivariados, solamente se 
resaltarán los siguientes elementos de esta investigación: 
1. Bajo desempeño de los modelos de severidad actuariales convencionales 
para describir las características de los datos sobre todo debido al sesgo y 
kurtosis exhibidos. "De hecho, toda distribución tradicional aplicada a 
todos los datos de cada línea de negocio tienden a ajustar a las 
observaciones centrales, y en consecuencia a no tomar en adecuada 
consideración las pérdidas grandes" Moscadelli, Op. cit. Pág. 12. 
2. En cambio la investigación mostró que el paradigma de la teoría de 
valores extremos en su versión excesos sobre un umbral-Distribución 
Generalizada de Pareto (POT-DGP), " ... proveen un estimado preciso de 
la cola de las líneas de negocio a los percentiles 95 y mayores, esto es 
confirmado por los resultados de tres pruebas de bondad de ajuste y 
análisis de desempeño del VaR de la severidad" Moscadelli, Op. cit. Pág. 
12. 
31 
3. En los resultados del VaR de la severidad Moscadelli encuentra que a 
diferentes niveles de confianza (95%, 97.5%, 99%, 99.95% y 99.9%) el 
modelo POT-DGP es el que menores excepciones exhibe en las pruebas 
back test, comparado contra los modelos Gumbel y lognormal. 
4. Las líneas de negocio "Finanzas corporativas" y "Banca Comercial" 
resultaron ser las más riesgosas para la muestra utilizada, en tanto que las 
de "Banca de Menudeo" y "Operaciones Bursátiles al Menudeo" son las 
menos riesgosas. Es notable que el menor riesgo se encuentra en las líneas 
de negocio menos concentradas. 
5. Los resultados denotan que las pérdidas por riesgo operativo son en efecto 
una fuente de riesgo importante para los bancos. 
6. El consumo de capital que encuentra Moscadelli para cada línea de 
negocio es en 4 casos inferior al que implica el uso de los multiplicadores 
del modelo estándar de Basilea II para riesgo operativo, existiendo por 
tanto un beneficio en el uso de los modelos avanzados. En los otros 4 
casos el consumo es mayor, sin embargo es notable que los cuatro en los 
que el consumo es menor, se acumula el 72% del cargo de capital, de tal 
manera que en forma consolidada resulta un coeficiente de 13.3% contra 
el 15% del modelo estándar de Basilea 11. 
La siguiente tabla muestra el índice de la cola para cada línea de negocio, téngase en 
mente los resultados para la Parametrización gamma. 
Tabla 1.7.- Moscadelli, resultados riesgo operativo con DGP univariada 
Gamma Alfa Umbral 
# Línea ele :\ egocio y u. F(u;) 
I Finanzas Corporativas 1.19 0.84034 0.901 
2 l\ rgociación y V en tas 1.17 0.85470 0.900 
3 Banca al :Vlenueleo 1.01 0.99010 0.965 
-' Banca Comercial 1.39 0.71942 0.908 
5 Pagos y Liquidación 1.23 0.81301 0.899 
6 SerYicios de Agencia 1.22 0.81967 0.894 
7 Administración ele Activos 0.85 1.17647 0.904 
8 Productos Bursátiles (:Vlcnudeo) 0.98 1.02041 0.900 
Fuente: Moscadelli 2004 
Respecto al valor de gamma, Moscadelli apunta que: 
• Si y?_.5 la DGP tiene varianza infinita, 
• Si y?_. l la DGP no tiene momentos finitos, ni siquiera esperanza, 
Citando a Moscadelli "Esta propiedad tiene una consecuencia directa para el análisis de 
datos: de hecho el comportamiento pesado ( o no pesado) de los datos en la cola puede ser 
fácilmente detectado del parámetro estimado de fonna" 
32 
La última columna indica para cada línea de negocio en umbral ( cuantil) a partir del cual 
se puede modelar con una DGP. 
Hay que tener en mente que la investigación citada fue realizada bajo el supuesto de 
distribuciones univariadas. Los conceptos de dependencia están ausentes en las 
estimaciones realizadas. 
1.7.- Dominio de Atracción, Fréchet. 
Como se observó en la estimación de parámetros de las variables empíricas, todas se 
pueden modelar como OVE marginales Fréchet, si fuera el caso de modelarlas 
multivariadas en forma conjunta. 
Cuando en formas generales de valores extremos: 
G
1
(x) = exp(-(1 +y· xt111 ), 
1 + r · x > o, r * o 
Wy(x) = 1 + log G(x), 
si logG(x) > -1 
Encontramos que y > O, se dice que las distribuciones están en el máximo dominio de 
atracción de la distribución Fréchet. Cuando en cambio y = O, está en el máximo dominio 
de atracción de la Gumbel. Ver Michel (3), Beirlant (Chapter 5 Tail estimation for ali 
Domains of attraction), Coles, Reiss y Thomas. 
Por ejemplo, la normal se encuentra en el máximo dominio de atracción de la Gumbel. 
En hidrología los datos de descargas máximas en ríos semiden en promedios por lapso 
de tiempo, los promedios extremos determinan por ejemplo un riesgo de inundación. 
La relevancia de lo anterior es que en el campo financiero las variables suelen resultar 
con y > O; además la distribución Fréchet es la que exhibe colas más pesadas; finalmente 
las series obtenidas son los máximos por bloque, por lo que la elección de marginales 
Fréchet para modelar las variables de riesgo operativo parece natural. 
Beirlant indica en el capítulo 2 de su "Statistics of Extremes" que en el dominio de 
atracción de la distribución Fréchet están entre otras: Pareto ( a), Generalizada de Pareto 
(cr,y), Burr Tipo XIl (TJ,T,A), Burr tipo III(TJ,T,A), F(m,n), Invf(A, a), Logr(A, a), 
Fréchet(a). 
En ese mismo capítulo Beirlant presenta el caso como Fréchet-Pareto. También indica 
que es conocida como "índice de la cola" y también "índice de Pareto" 
33 
1.8.- Transformación de las variables empíricas en exponenciales negativas. 
Las variables no se utilizan ni para las pruebas estadísticas de independencia ni para la 
estimación de parámetros en su forma cruda natural, requieren transformaciones previas 
que son bien conocidas en la teoría de valores extremos. 
Las variables para ser tratadas deben existir en el espacio d-dimensional negativo (-oo,O)ct, 
por tanto si proceden de variables reales, ( como pérdidas o rendimientos en el terreno 
financiero), deben estar precedidas por transformaciones adecuadas: 
l. Obtener las distribuciones marginales de cada variable"'7 Realizado. 
2. Determinar el dominio de atracción de la variable a través del índice de la cola 
(Tail Index)"'7 Realizado. 
3. Transformar las variables a la forma estándar de la distribución Fréchet F(x¡), 
utilizando los parámetros obtenidos. 
F ___ (x;) 
µ ,a ,a 
Para la parametrización gamma se utiliza: 
Y los parámetros: 
Gamma Mu Sigma 
(Forma) (Localización) (Escala) 
OR-1 0.554924 10,741 5,960 
OR-2 0.920562 6,551 6,031 
OR-3 1.22817 2,760 3,390 
Para la parametrización alfa se utiliza: 
c.(x)= expH x~µ r) 
Y los parámetros: 
Alfa Mu Sigma 
(Forma) (Localización) (Escala) 
OR-1 1.80205 o 10,741 
OR-2 1.08629 o 6,551 
OR-3 0.81422 o 2,760 
34 
4. Transformación a las variables de su forma estandarizada Fréchet F(x;) a la 
exponencial negativa, y¡ en la siguiente transformación. 
y¡~ F ___ (xJ-1 = y¡ 
µ,a,a 
Restan los pasos 3 y 4. Después de aplicar ambas transformaciones obtenemos las 
variables en el cuadrante negativo. Ahora las variables se pueden modelar como 
resultantes "de una distribución uniforme en [-1,0]. ( ... ) El orden de los datos 
permanecen intactos por la transformación, de modo tal que las observaciones extremas 
ahora están cerca del O." Michel (3) capítulo 7. 
Los datos en esta forma se aprecian como sigue: 
Gráfico 1.9.- Variables OR-1 y OR-2 en el cuadrante negativo. 
-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10 0.00 
. . 
. . 
. ' ~--~. . ', ·. """ . 
"" '· . ,. ~·· ~' 
. ~~~ . ":~'--·- ~ 
. -· 
. . 
-~- '. ' 
"-. .: -~. . 
. . 
"-. ~ . 
·.~: . '~: 
--~. 
0.00 
-0.10 
-0.20 
-0.30 
-0.40 
-0.50 
-0.60 
-0.70 
f--_..__ ____________ --"-c-~~ •• ~_ --j -0.80 
• • • ~ -0.90 
~ 
-1.00 
35 
Gráfico 1.10.-0R-2 y OR-3 en el cuadrante negativo. 
-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.1 O 0.00 
.. . . 
.. . . 
... . 
0.00 
-0.10 
-0.20 
-0.50 
-0.60 
-0.70 
-0.80 
-0.90 
·'""'-.. 
---------. ···---~--~-----~~---~ -1.00 
Gráfico 1.11.-0R-1 y OR-3 en el cuadrante negativo. 
-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 
1 • 
' i 
. . --..--. : 
. . . . . 
. . 
.-~ 
-·-\ . . . . . 
\ . .. . ....... - ... . ··········-··· • .. -·-·····-·····---······ ---··- ~- • ..... -. . ...... ··----·· ····--·-------·-------, .. -.. 
-0.10 0.00 
0.00 
-0.10 
'~ -0.20 
-0.30 
-0.40 
-0.50 
-0.60 
-0.70 
..... 
-0.80 
'""'- -0.90 
........... 
' -1.00 
Aunque en el siguiente capítulo se revisan las relaciones de dependencia entre las 
variables, es notorio en las tres gráficas que en la vecindad del cero hay muy pocas 
observaciones, y que las observaciones se encuentran más bien dispersas que conjuntas. 
Con las variables transformadas se este tipo se puede proceder a aplicar las pruebas de 
independencia en la cola, tanto bivariadas como multivariadas (Capítulo II). 
36 
Descartada la independencia se procede a modelar estas variables con dependencia 
(Capítulo III). Michel (3) apunta que "Este método de estimar primero las distribuciones 
marginales y estimar después los parámetros de dependencia de de los datos 
adecuadamente transformados, es referida frecuentemente como estimados 'Piecing-
together"' Ver Reiss y Thomas (2001) sección 9.3. 
1.9.- Conclusiones. 
En este capítulo se han presentado los dos elementos básicos que constituyen el objeto 
de esta investigación, por un lado el riesgo operativo, sus características y problemas 
actuales en su modelado, por otro lado la teoría de valores extremos y sus formas básicas. 
Se ha indicado la necesidad de probar (y cómo hacerlo) que una variable e independiente 
e idénticamente distribuida. 
Por otro lado se ha empezado a mostrar los problemas que se enfrentan cuando se trata 
con variables empíricas, el tratamiento de las variables se ha empezado a fundir con los 
modelos y nos ha entregado al final variables empíricas transformadas en marginales 
exponenciales negativas con lo cual se queda en condiciones de realizar el análisis de las 
relaciones de dependencia entre las mismas y arribar al modelado multivariado con 
modelos de valores extremos. 
37 
38 
Capítulo II 
PROBANDO INDEPENDENCIA EN LA COLA EN DVE Y MODELOS 
RELACIONADOS. 
11.1.- Introducción. Relevancia de la realización ele las pruebas 
Como se apuntó en la introducción a esta tesis, la importancia de poder demostrar 
independencia en la cola de las distribuciones de los eventos de riesgo operativo es 
enorme, es la diferencia entre trabajar con metodologías más simples o más complejas. 
Si se puede demostrar que un conjunto de variables no tienen dependencia en la cola, se 
pueden modelar en forma univariada, o bien con estructuras de dependencia más simples, 
que las resultantes de los modelos de valores extremos. 
Como también se apuntó en la introducción, en el enfoque Basilea, la forma estándar de 
calcular el cargo de capital regulatorio por riesgo operativo implica la suma de los peores 
escenarios estimados por las autoridades, traducidos en forma de betas sobre los ingresos 
netos de las instituciones bancarias. 
No obstante estas betas tienen tal dimensión que el cargo de capital puede representar no 
solo el peor escenario de pérdidas en un periodo, sino más que la suma de las pérdidas de 
varios periodos. Por otro lado no sabemos si tal cargo está cubriendo un riesgo real o no. 
Una institución con una buena gestión de riesgo estaría castigada en cuanto a su consumo 
de capital por este hecho. 
Independientemente de que Basilea busque regular la medición de riesgos en las 
instituciones bancarias, se debe reconocer su labor promotora en toda industria y el 
terreno de la investigación: Ha establecido estándares; ha recopilado las prácticas en la 
industria; ha puesto a discusión metodologías para medir el riesgo operativo; y ha dado 
también incentivos al uso de los modelos avanzados. 
Dice Mario Benedetti a propósito de la frase de Jorge Manrique: "Todo tiempo pasado 
fue mejor", que para ver su alcance hay que completarla: "Todo tiempo futuro será peor". 
De la misma manera parece en primera instancia que la propuesta para riesgo operativo 
de Basilea lleva impresa la frase popular: "Las desgracias nunca vienen solas", que si se 
completa se diría "Las desgracias siempre vienen juntas", es decir, los eventos de riesgo 
operativo tienen perfecta dependencia, pero también nos permitiría decir "Siempre que no 
puedas demostrar lo contrario". El objetivo de este capítulo es mostrar como se puede 
demostrar lo contrario y poder

Continuar navegando