Uso De La Distribución Generalizada De Pareto Multivariada Para Modelar Riesgo Operativo

Instituto Tecnológico y de Estudios Superiores de Monterrey Campus Ciudad de México Uso De La Distribución Generalizada De Pareto Multivariada Para M

1 downloads 71 Views 3MB Size

Recommend Stories


Gráfica de Pareto (Pareto Chart)
Sociedad Latinoamericana para la Calidad Gráfica de Pareto (Pareto Chart) o Definir o Creatividad þ Medir o Reunión de Datos þ Analizar o Mejorar

EL DIAGRAMA DE PARETO
Lagoas - Marcosende, 9 36200 VIGO (Pontevedra) Telfs.: (986) 81 22 20 - 81 23 85 Fax: (986) 81 23 85 ESCUELA TÉCNICA SUPERIOR DE INGENIEROS INDUSTRIA

Gestión del Riesgo Operativo Seguridad de la información
Jorge A. Aguilar Gestión del Riesgo Operativo – Seguridad de la información Contenido. 1. Objetivo 2. Gestión del Riesgo Operativo 3. Estándares y P

Story Transcript

Instituto Tecnológico y de Estudios Superiores de Monterrey Campus Ciudad de México

Uso De La Distribución Generalizada De Pareto Multivariada Para Modelar Riesgo Operativo Tesis que para recibir el título de doctorado en ciencias financieras presenta: José Juan Chávez Gudiño

Director de tesis: José Antonio Núñez Mora

México D.F., 4 Junio 2009

AGRADECIMIENTOS. Deseo agradecer a las siguientes personas su intervención en las diferentes etapas de esta investigación: Al Dr. José Antonio Núñez Mora en la dirección de este trabajo, y a los doctores Humberto Valencia Herrera y Arturo Lorenzo Valdés por su oportuna asesoría; Al Dr. René Michel por su anuencia a que yo utilizara y modificara los códigos desarrollados por él, para los propósitos de esta tesis; A Connie Armendáriz García, por lo que tomó de su tiempo para ayudarme a organizar el cúmulo de documentos que hube de revisar en esta tarea; A la señorita Araceli Chávez Consuelo por su revisión de la gramática y de los temibles e inevitables errores de edición; A la señorita Mariana Ocampo por sus valiosos comentarios al capítulo III; A Narciso Flores Gómez por sus invaluables recomendaciones en torno a la programación estructurada para las rutinas de simulación de variables aleatorias DGP-M; A Arturo Gonzaga Aguado por su asesoría en la construcción de algunas rutinas VBA en Excel; A Felipe Nieto Cañas por su asistencia en el tema de datos de pérdidas operativas y su manejo; A Osvaldo Ascencio Gascón, por la oportunidad que tuve de discutir con él aspectos teóricos que al final evolucionaron a soluciones satisfactorias; A Alfonso de Lara Haro por su apoyo y estímulo incondicional; A José del Águila Ferrer por el primer impulso dado a esta investigación; A esa gran institución llamada Scotiabank Inverlat S.A., que financió mis estudios y me ha nutrido de experiencia de gran valor.

II

DEDICO ESTE TRABAJO: A mi señor padre Don José Chávez Sánchez, en su 80 aniversario. A la memoria de mi abuelo Don José Chávez Jaimes.

III

RESUMEN: Esta investigación trata de la medición del riesgo que implican las pérdidas operativas, en particular las extremas que suceden en forma conjunta, eventos que se yerguen como una amenaza a la viabilidad y existencia de muchas instituciones, mediante un modelo inscrito en el enfoque de modelos avanzados de Basilea II (AMA). Trata del paradigma de distribuciones de pérdidas en su modalidad multivariada; la distribución abordada es la generalizada de Pareto (DGP-M), dado que la inserción de ésta en el análisis de pérdidas catastróficas se da en forma muy natural. De los modelos existentes para generar variables aleatorias con la distribución generalizada de Pareto multivariada, se encontró que el logístico anidado se presenta como una opción viable para modelar pérdidas operativas, dado que permite diferentes niveles de dependencia entre variables y funciona bien para problemas que no involucren demasiadas variables. Esta investigación se beneficia de las investigaciones recientes del Doctor Rene Michel sobre las distribuciones generalizadas de Pareto multivariadas. En este trabajo se aplica, como un paso inicial necesario, una prueba estadística para confirmar o descartar independencia en la ocurrencia de pérdidas extremas (FalkMichel), prueba que resulta también ser útil para determinar el umbral multivariado de la DGP. Se demuestra la obtención de las ecuaciones para la densidad angular del modelo logístico anidado de la DGP-M para 3,4 y 5 variables, generalizando el procedimiento para n variables; Utilizando tal expresión se hacen las adaptaciones necesarias a los algoritmos de Michel para obtener parámetros de dependencia de variables empíricas de pérdidas operativas, y con éstos simular variables aleatorias de pérdidas que sigan la distribución indicada, y que a su vez permitan medir el riesgo operativo de una entidad cualquiera sea financiera o no. Se desarrolla el procedimiento para, con las variables simuladas, construir las medidas de riesgo, se hace notar la relevancia del uso del déficit esperado en las medidas a utilizar para evaluar en riesgo implícito en un patrón de pérdidas y se presenta un algoritmo para escalar la medida de riesgo en el tiempo, equivalente a la regla de la raíz cuadrada del tiempo en los modelos gaussianos, la aplicación se basa en la distribución agregada de pérdidas.

IV

INDICE Contenido Introducción. 1.- Riesgo Operativo. 2.- Objetivo y alcance. 3.- Base de datos con pérdidas operativas. Confidencialidad 4.- Investigaciones Previas. 4.1.- Investigación reciente en modelos multivariados de valores extremos para Riesgo Operativo 4.2.- La propuesta del uso de la descomposición espectral, o densidad angular en la Distribución Generalizada de Pareto. 4.3.- Metodologías Previas Requeridas y Existentes. 4.3.1.- Bivariado y Trivariado. 4.3.2.-Multivariado 4.3.3.-Severidades: Distribuciones de Valores Extremos Multivariadas. 5.- Plan de la Tesis.

Capítulo I: Riesgo operativo definición y principales problemas actuales; teoría de valores extremos. I.1.- Riesgo Operativo. I.1.1.- Riesgo Operativo y Riesgo Residual; Pérdidas brutas y Pérdidas netas I.1.2.- Gestión y Modelado del Riesgo Operativo. I.1.3.- Modelado del Riesgo Operativo. I.1.3.1.- AIGOR Problemas en el modelado del riesgo operativo e implicaciones prácticas. I.2.- Tratamiento de Frecuencias distintas. I.3.- Teoría de Valores Extremos y Formas Univariadas. I.4.- Variables Independientes: Descartando Correlación Serial. I.5.- Determinación de parámetros de la distribución para algunas variables de RO. 1.5.1.- Análisis Univariado (VARIABLES: RO_1, RO_2 y RO_3). I.6.- Basilea: Estimación de parámetros y medidas de riesgo con modelos de valores extremos univariados (Moscadelli 2004). I.7.- Dominio de Atracción, Fréchet. I.8.- Transformación de las variables empíricas en exponenciales negativas. I.9.- Conclusiones.

Capítulo II: Probando independencia en la cola en Distribuciones de Valores Extremos y modelos relacionados. II.1.- Introducción. Relevancia de la realización de las pruebas I.2.- Dependencia y Correlación. I.3.- Necesidad Teórica de la Prueba. II.4- Fundamento Teórico de la Prueba II.5.- Exposición de las pruebas II.5.1.- Prueba Basada en la distancia C. II.5.2.- Prueba Neyman- Pearson II.5.3.- Prueba Kolmogorov Smirnov (KS) II.6.- Aplicación de las pruebas de independencia a casos bivariados simulados. II.7.- Aplicación a Pares de Variables Empíricas de Riesgo Operativo. II.8.- Exposición de las versiones multivariadas de las pruebas de independencia. II.8.1.- Función DVE multivariada.

Pag. 1 1 1 2 2 2 3 4

10

13 13 14 15 17 20 21 23 26 31 33 34 37

39 39 40 41 41 42 42 42 44 45 49 52 52

V

II.8.2.- Neyman-Pearson Versión Multivariada: II.8.3.- Prueba Kolmogorov Smirnov (KS) Versión Multivariada: II.9.- Aplicación de la Prueba Multivariada a Tres conjuntos de Datos con d=3. II.10.- Algunas Conclusiones de Falk y Michel sobre su investigación. II.11.- Conclusiones.

Capítulo III: Estimación de los parámetros de dependencia de la distribución generalizada de Pareto multivariada; relevancia en la medición de riesgo operativo III.-1.- Introducción III.-2.- Modelos DVE y DGP multivariados. III.-3.- Modelo Logístico Anidado: Definición y Características III.-4.- Densidad Angular por medio de Transformaciones de Pickands y de Fréchet. III.4.1 Transformación de Fréchet. III.4.2.- Transformación de Pickands. III.-5.- Obtención de las Expresiones para obtener las densidades Pickands y angular. III.5.1.- Elementos Previos III.5.2.- Obtención de las expresiones de las densidades de Pickands y angular para 3 variables aleatorias que siguen una DGP-M. III.5.2.1.- Obtención de la Expresión para la Densidad Angular 3 dimensiones. III.5.2.2.- Obtención de la Expresión para la densidad de Pickands en 3 dimensiones. III.5.2.3.- Expresión de la Densidad Angular para d = 4 III.5.2.4.- Expresión de la Densidad Angular para d = 5: III.5.2.5.- Expresión para el caso Bivariado III.6.- Aplicación de la Densidad Angular en la Obtención de Parámetros de dependencia del Modelo Logístico Anidado. III.7.- Relevancia de los Hallazgos en la Medición del Riesgo Operativo. III.8.- Conclusiones:

Capitulo IV: Simulación de variables distribuidas generalizada de Pareto multivariada con la densidad angular. IV.1.- Introducción IV.2.- Algoritmos de Michel para simular variables aleatorias DGP-M. IV.2.1.- Simulación de vectores de números aleatorios en el Simplex unitario (Algoritmo 4.10 en Michel (4)). IV.2.2. Elección de los vectores válidos mediante el método de rechazo utilizando la Densidad de Pickands (Algoritmo 4.1 en Michel (4)). IV.2.3. Simular un Componte Radial Aleatorio. IV.3.- Algoritmos de simulación de DGP multivariada, modificados para la densidad angular multivariada, con distribuciones marginales Fréchet. IV.3.1.- Proceso general de simulación de las variables DGP-M. IV.3.2.- Algoritmos de Michel modificados para Simulación de variables DGP-M con la densidad angular acotada. IV.3.3.- Aplicación del algoritmo modificado para la Densidad angular con d=5. IV.4.- Verificación de los parámetros de dependencia de los vectores DGP-M generados. IV.5.- Conclusiones: Anexo IV-A Códigos en VBA (Excel) y Mathematica para generar variables en el Simplex Unitario

Capítulo V: Integración; procesos aleatorios para riesgo operativo; construcción de las medidas de riesgo. V.1.- Introducción.

53 53 54 56 57

59 59 59 61 62 63 64 65 65 66

75 79 81

83 83 83 83 87 88 90 90 92 93 106 108 109

111 111

VI

V.2.- El umbral multivariado de una DGP-M. Relación entre las Distribuciones Marginales (DVE) y la Distribución Conjunta Multivariada (DGP-M).

113

V.3.- Transformando los Umbrales Radiales y las variables simuladas en Umbrales y Eventos de Pérdida por Tipo de Evento. V.4.- Marco Fundamental para Modelar el Riesgo Operativo. V.5.- Simulación de Frecuencia de Eventos. V.6.- El Proceso de las Pérdidas Agregadas. V.6.1.- Caso multivariado y notación OpVaR. V.6.2- El Problema de la Ruina y el Capital Requerido. V.7.- Construcción de los Procesos de Pérdidas de Riesgo Operativo y Simulación de Variables. V.7.1.- Parámetros de las Distribuciones Marginales y transformación a Marginales Uniformes. V.7.2.-Transformación en Exponenciales Negativas. V.7.3.-Realización de Pruebas de independencia. Obtención de algunos Parámetros para Simulación DGP-M. V.7.4.-Determinación de los Parámetros de Dependencia. V.7.5.-Simulación de Variables de los Procesos de Pérdidas Subyacentes. V.7.6.-Tratamiento de las Frecuencias. V.7.7.-Promedio de las Pérdidas Debajo del Máximo. V.7.8.- DGP univariadas. V.7.9.-Resumen de Variables simuladas. V.8.- Obtención y Análisis de las Medidas de Riesgo V.8.1.- OpVaR con Subyacentes Fréchet vs. OpVaR con Subyacentes DGP-M. V.8.2.- OpVaR con Procesos Subyacentes DGP univariados Comparado con el OpVaR con Procesos Subyacentes DGP-M. V.8.3.- El OpVaR más allá del cuantil 0.999. V.8.4.- La no subaditividad del OpVaR. V.8.5.- El Déficit Esperado (o Esperanza Condicional de la Cola u OpVaR de la Cola) V.9.- Escalamiento del OpVaR en el tiempo. V.10.- Digresión Acerca Del proceso de Difusión de las Pérdidas Operativas visto como un Proceso de Lévy V.11.- Conclusiones. Anexo V.I Código VBA para simular la distribución Poisson inversa. Anexo V.II Frecuencias Poisson y Binomial Negativa. Anexo V.III Función Uniforme [0,1] Truncada Anexo V.IV Transformaciones de Variables Empíricas a Exponencial Negativa.

118

Bibliografía

120 122 122 128 129 134 134 134 136 138 139 140 141 141 143 145 145 146 148 149 151 154 156 158 159 160 164 165

167

VII

INTRODUCCIÓN. 1.- Riesgo Operativo. Si en riesgo de crédito los créditos que incumplen suelen ser llamados “ángeles caídos”, denotando con esto una posición de riesgo inicialmente reputada como buena que sin embargo se ha desgraciado y terminado en pérdida; el mundo de las pérdidas operativas es igualmente dramático y poblado de entes equivalentemente trágicos. Ingresar a este mundo es parecido a ingresar a los círculos del infierno financiero: en su derredor el paisaje es de destrucción, lamentos y cantos trágicos generados por pérdidas que debilitan la salud financiera de las instituciones y más aún, las pueden conducir a la extinción. Ejemplos de lo devastador que es no cuidar este riesgo existen en abundancia en la literatura financiera, porque si bien en todas las entidades, y en los individuos también, existen pérdidas por el simple hecho de operar (existir en el caso de los individuos), los controles omitidos o laxos se transforman en pérdidas económicas mayores; operar con sistemas obsoletos e ineficientes implican paros, retrasos, transacciones equivocas o incompletas, quejas, demandas y al final de todo, pérdidas. Es decir las decisiones que dan marco a la forma en que la entidad existe y realiza el objeto de su existencia la exponen a mayores o menores pérdidas. Porque a perder se acostumbran las entidades y los individuos, es algo tan rutinario que se vuelve parte del paisaje: extraviamos objetos, nos timan en pequeña o gran monta; falla el auto; el sistema informático; la maquinaria; sufrimos hurtos o accidentes; y de todo esto solo nos queda registro en la memoria cuando las pérdidas son significativas, las pequeñas las borramos rápido del registro; Importa saber sin embargo si la ley que rige esas pérdidas nos puede dar una idea de su potencial de aniquilación. Es bastante malo que existan pérdidas, peor aún que estas sean grandes, pero que sucedan eventos malos de tamaño significativo, en forma conjunta, debiera ser una preocupación primaria. Por esta razón se deben estimular las investigaciones que permitan determinar la probabilidad de estos eventos, tanto en forma individual como conjunta. El disertante se propone investigar un modelo particular para medir el riesgo operativo de pérdidas conjuntas. 2.- Objetivo y alcance. El objetivo de este trabajo es resolver problemas metodológicos ligados a la medición del riesgo operativo mediante la teoría de valores extremos, en particular con la Distribución Generalizada de Pareto Multivariada (DGP-M de aquí en adelante). El número de problemas a abordar es amplio, ya que la exploración de estas metodologías está en su fase incipiente.

1

Sin intención de resolver todos los problemas asociados a la aplicación de los modelos multivariados de la teoría de valores extremos, se abordan los siguientes ligados al modelo DGP-M: •

El problema de la dependencia en la cola de la distribución,



El uso de frecuencias de ocurrencia distintas entre factores de riesgo típico del Riesgo operativo.



La determinación o no existencia de tal dependencia.



La estimación de parámetros de dependencia.



La simulación de variables distribuidas como Generalizadas de Pareto Multivariadas.



La obtención de medidas de riesgo en función a las simulaciones realizadas.



El escalamiento del la medida de riesgo en el tiempo.



Orientar cada uno de los elementos abordados al Riesgo Operativo.

3.- Base de datos con pérdidas operativas. Confidencialidad Si bien este trabajo no es el estudio de un caso, para su investigación el disertante contó con una base de datos con más de 25,000 eventos de pérdidas operativas de una entidad específica, que fue sumamente útil para resolver los problemas prácticos del trabajo con variables empíricas, por razones de confidencialidad no se revelan los datos y parámetros específicos obtenidos. 4.- Investigaciones Previas. 4.1.- Investigación reciente en modelos multivariados de valores extremos para Riesgo Operativo Recientemente las investigaciones en riesgo operativo han confirmado la existencia de correlaciones de importancia, asimismo se ha empezado a avanzar en los modelos multivariados con correlación o dependencia. Los enfoques que los autores han identificado son: •

Modelado de cuerpos lognormales (para pérdida esperada), colas GDP para colas. Incluyendo correlación -efecto diversificación-.



Uso de Cópulas de Teoría de Valores Extremos. Uso de la cópula t. Marginales GDP estructura de dependencia con cópulas t y empírica.



Escenarios multivariados con Cópula Gaussiana obteniendo distribuciones Poisson multivariadas.

2



Modelado de la estructura de dependencia de las diferentes unidades de riesgo vía el nuevo concepto de Cópula de Lévy.



Estimación por máxima verosimilitud de un modelo estadístico multivariado. Modela con distribuciones de valores extremos donde los datos lo sugieren, estimando por análisis de escenarios y eliminación de “outliers” de las distribuciones marginales y dependencia con cópulas.

En fechas recientes ha florecido la investigación en el campo del riesgo operativo y los valores extremos. Varios investigadores especializados en teoría de valores extremos (Embrechts, Klüpelberg, Mikosch 2008, Falk, Chávez-Desmoulin, Embrechts, Neslehová 2006), han sido atraídos al análisis de problemas en la medición del riesgo operativo por la naturalidad con que éste encaja con la teoría, realizando contribuciones importantes; estás van desde la agregación de las pérdidas, al uso de distribuciones para modelar las frecuencias, pasando por el tratamiento de datos, enfoques multivariados distintos, hasta el abordar de lleno el cálculo del valor en riesgo y la esperanza condicional de la cola. El modelo que se trata en esta investigación, no ha sido abordado en tales enfoques. 4.2.- La propuesta del uso de la descomposición espectral, o densidad angular en la Distribución Generalizada de Pareto. Por otro lado la teoría estadística ha desarrollado técnicas para generar distribuciones generalizadas de Pareto multivariadas. Recientemente fueron publicados varios artículos por René Michel (2001-2006), en donde aborda problemas teóricos y prácticos de la Distribución Generalizada de Pareto Multivariada (DGP-M). Sus investigaciones son exhaustivas, y el practicante de la administración de riesgos financieros y los investigadores en otros campos, encontrarán amplio material de aplicación. Con la intención de ahondar en aspectos prácticos, y en particular en el modelado del riesgo operativo, son relevantes particularmente los siguientes temas: • Aspectos teóricos de los modelos: logístico, logístico asimétrico y logístico anidado. • Simulación: algoritmos para los dos primeros modelos anteriores, e indicaciones sobre cómo abordar el tercero. • Estimación de Parámetros: para los modelos logísticos con mismo parámetro de dependencia; Para el modelo logístico anidado con parámetros de dependencia distintos entre pares, en particular el método de máxima verosimilitud. En su investigación Michel hace uso de la descomposición espectral, también llamada angular (Falk, Hüessler y Reiss). La descomposición angular consiste en transformar las variables de pérdida en componentes (angular y radial) equivalentes a una representación polar, y donde los

3

componentes angulares son la materia prima para los diferentes modelos, estimación de parámetros y simulación de variables. En la revisión de investigaciones previas no se encontró el uso directo de esta descomposición aplicada a medir riesgo operativo tal como se propone. 4.3.- Metodologías Previas Requeridas y Existentes. Ahora bien, para utilizar los modelos de distribuciones DVE (Distribución de Valores Extremos) y DGP (Distribución Generalizada de Pareto) en sus diferentes dimensiones: univariada, bivariada, trivariada y multivariada, se debe contar con metodologías para: • Estimar los parámetros de forma, localización y escala (modelos paramétricos). • Pruebas para verificar la bondad del ajuste a la distribución, dados los parámetros encontrados. • Formas cerradas para estimar cuantiles de la distribución encontrada o métodos de simulación para generar variables aleatorias bajo los parámetros determinados. Cuando se trata de dos o más dimensiones se añaden las metodologías siguientes para: • • • • • •

Estimar funciones que determinen las relaciones de dependencia entre las variables (cópulas o semi-cópulas). Estimar los parámetros de las distribuciones marginales y los parámetros de dependencia entre estas. Obtener formulas cerradas para generar variables aleatorias con dependencia (Casos bivariados y trivariados). En su caso desarrollar métodos de simulación para generar variables aleatorias, dada la relación de dependencia obtenida. Escalar las variables simuladas con los parámetros de escala, forma y localización. Transformar las variables obtenidas en las variables de estudio (pérdidas operativas por ejemplo) y generar sus medidas de riesgo. 4.3.1.- Bivariado y Trivariado.

Para el caso bivariado y en algunos casos trivariado hay varios modelos desarrollados e implementados en diferentes programas, Stephenson en su programa “evd”, incluye para 9 modelos bivariados de DVE: • Cálculo de densidad y de la densidad angular; • Obtención de parámetros de modelos de cópulas condicionales para modelar dependencia. • Estimación de parámetros. 4



Obtención de simulaciones 4.3.2.-Multivariado

Para el caso multivariado, hay principalmente dos investigaciones que abordan la estimación de parámetros y simulación multivariada de los modelos de la teoría de valores extremos: • Stephenson en el caso de las de Valores Extremos. En el programa señalado incluye, para los modelos logístico y logístico asimétrico de las DVE; cálculo de distribución, densidad y obtención de simulaciones. •

Michel en el caso de la Generalizada de Pareto, en sus investigaciones provee algoritmos para estimar parámetros y realizar simulaciones de los modelos logístico y logístico anidado. Provee además código en el programa “Mathematica” para la realización de simulaciones para los mismos modelos.

Comparten los modelos Multivariados DVE y DGP que estudian Stephenson y Michel las siguientes características: • Las variables de pérdida sufren las siguientes transformaciones: o Variable empírica Æ ƒ Estandarización en términos de la marginal paramétrica Æ • Transformación a variables exponenciales negativas • Utilizan la descomposición angular. • Distribuciones marginales paramétricas univariadas. • Distribuciones marginales Fréchet, de relevancia en finanzas debido a las colas pesadas que exhiben estas variables. • Modelos Logísticos, Simétricos y asimétricos o Logístico: Parámetro de dependencia único (constante). o Logístico asimétrico, parámetros de dependencia diferentes y parámetros de asimetría. Número de parámetros elevado. • Su espacio probabilístico se encuentra en el Simplex unitario. • Existencia de Algoritmos de simulación implementados para los modelos logístico y logístico asimétrico. • La existencia de modelos logísticos anidados con diferentes parámetros de dependencia. Modelos más complejos de implementar debido a las expresiones involucradas. • Ambos apuntan que los algoritmos de simulación que presentan se pueden modificar para aceptar el logístico anidado. • Las simulaciones entregan resultados en forma de cuantiles marginales relacionados por los parámetros de dependencia de la distribución conjunta.

5



Los cuantiles se convierten en variables de pérdida con las transformadas inversas de las distribuciones marginales.

Es conveniente señalar las características que dan la relevancia a los modelos logísticos en la posibilidad de obtener medidas de riesgo operativo, •

Modelo logístico: de manejo sencillo para cualquier dimensión, con la desventaja de suponer un parámetro de dependencia constante. Como se comentó, tanto Stephenson como Michel proveen algoritmos específicos de simulación. El modelo es útil en riesgo operativo si se encuentra un parámetro de dependencia muy similar en el conjunto de variables a modelar.



Modelo logístico asimétrico: permite el manejo de diferentes parámetros de dependencia, pero requiere asimismo muchos parámetros de asimetría. El número de parámetros requerido lo hace inmanejable para muchas variables. Tanto Stephenson como Michel proveen algoritmos específicos de simulación.



Modelo logístico anidado: permite modelar las dependencias relevantes entre variables, utilizando d-1 parámetros de dependencia. El modelo deriva en expresiones complejas. Tanto Stephenson como Michel indican que es factible trabajar con estos modelos a pesar de su complejidad. El trabajo de Stephenson provee de una indicación muy general para los modelos de Valores Extremos; el de Michel provee soluciones tanto en la simulación de variables como en la estimación de parámetros que se pueden adaptar a las versiones multivariadas del modelo logístico. Por sus características el modelo puede ser de mucha utilidad para modelar el riesgo operativo.

Como se puede observar, el modelo logístico anidado ofrece un campo amplio de oportunidad en la investigación de su aplicación al riesgo operativo, sin embargo las investigaciones actuales no lo abordan con toda la profundidad de los primeros. Las dificultades en la obtención de expresiones de la densidad angular y las asociadas para dimensiones elevadas limita el uso del modelo para portafolios o problemas financieros de muchas variables, pero lo hace idóneo para modelar situaciones de número limitado de variables, tal como en el caso del Riesgo Operativo, en el que las características de las variables permiten suponer independencia respecto a diferentes líneas de negocio, pero diferentes niveles de dependencia entre eventos dentro de las líneas de negocio; y además en número reducido de variables de pérdida a modelar. En la Tabla 1 se muestra lo actualmente disponible y no para generar variables aleatorias de valores extremos:

6

Tabla 1. Distribuciones de Valores Extremos: Metodologías existentes para utilizar los modelos en diferentes dimensiones. Metodología Estimar los parámetros de forma, localización y escala.

Univariado

Bivariado DVE y DGP: Existen.

DVE y DGP: Existen. Pruebas para verificar la bondad del ajuste a la distribución, dados los parámetros encontrados. Formas cerradas para estimar cuantiles de la distribución encontrada o métodos de simulación para generar variables aleatorias bajo tales parámetros.

DVE y DGP: No hay.

Multivariado DVE y DVE: existen, mismos que para las distribuciones marginales. DVE: No hay DGP: Michel 2005.

DVE y DGP: Existen DVE: Stephenson 2003 DGP: Michel 2005.

Estimar funciones que determinen las relaciones de dependencia entre las variables (cópulas).

DVE y DGP: Existen

Estimar los parámetros de dependencia. Obtener formulas cerradas para generar variables aleatorias con dependencia. O en su caso desarrollar métodos de simulación para generar variables aleatorias, dada la relación de dependencia obtenida. Escalar las variables simuladas con los parámetros de escala, forma y localización

DVE: NA DGP: NA

DVE: NA DGP: NA DVE: Existen DVE: Stephenson 2003 DGP: Existen DGP: Michel 2005 DVE y DGP: Existen

DVE: Stephenson 2003 DGP: Michel 2005

DVE y DGP: Existen

Nota: Se verificó la existencia de las metodologías a diciembre de 2008.

Simulación: Respecto a la simulación de variables, necesaria para modelar riesgo operativo ya que se ha aceptado el supuesto de comportamiento multivariado y la relevancia de los parámetros de dependencia Michel (2006,2001) señala que hay relativamente pocos trabajos que tratan la simulación de distribuciones de valores extremos multivariadas: •

Tajvidi (1996) señaló la necesidad de tales simulaciones.



Falk, Michael; Hüsler, Jürg; Reiss, Rolf-Dieter Marshal-Olkin bivariada.



Reiss, R., Thomas M., (2001) desarrollan técnicas para simular modelos DVE bivariados: Marshal-Olkin; Hüsler-Reiss. Stephenson implementa los modelos

(2004) Simulan la DGP

7

logístico, logístico asimétrico, Hüsler - Reiss, negativo logístico, bilogístico, negativo bilogístico, Coles-Tawn y asimétrico mixto. •

La mayoría de los trabajos conocidos hoy en día tratan casos bivariados y trivariados.



Stephenson (2003), es la única fuente que aborda la simulación en distribuciones DVE para n dimensiones. Los algoritmos de Stephenson están implementados en el paquete en R (Ihaka y Gentleman, 1996) llamado “evd” (Stephenson, 2002), y está disponible en http://www.maths.lancs.ac.uk/ stephena/.



La investigación de Michel (2006) aborda por primera vez la simulación de DGP en dimensiones arbitrarias para los modelos logístico y logístico asimétrico, y provee de algoritmos generales adaptables a otros modelos.

Para la estimación de funciones de dependencia. •

Para el caso de las distribuciones DVE, hay amplia literatura para la estimación del parámetro de dependencia en el caso bivariado (Michel lista al menos 13).



Para dimensiones mayores en distribuciones DVE, Michel menciona los trabajos de Tawn (1998), Coles y Tawn (1991) Joe et al. (1992), Coles y Tawn (1994), Coles et al. (1999), Kotz y Naradajah (2000).



Para distribuciones DGP Michel aplica varios métodos previamente utilizados en la estimación de parámetros de las distribuciones DVE.

Michel señala que la razón de que la mayoría de los trabajos tratan el tema bivariado, o a lo más trivariado, es porque en teoría de valores extremos las cosas se complican al pasar de dos a tres dimensiones: “Esto se debe a que la función de dependencia de Pickands, que gobierna esos modelos, es una función univariada en el caso bivariado. Por tanto el paso de la dimensión 2 a la 3 es, para la función de dependencia el paso de la dimensión 1 a la 2. Esto lleva a fórmulas más complicadas, y no toda aseveración válida en el caso bivariado, se sostiene para el caso trivariado”. Michel [Abril 2006]

4.3.3.-Severidades: Distribuciones de Valores Extremos Multivariadas. Aunque esta investigación no aborda el caso de la distribución de valores extremos multivariada DVE-M, es conveniente notar lo siguiente: Si bien los algoritmos recopilados e implementados por Stephenson para la DVE multivariada están disponibles en forma libre, no se ha hecho aplicación de tales modelos a la medición del riesgo operativo. Mucho menos se ha explorado el modelo logístico

8

anidado, mismo que, como se apuntó, puede ser de gran importancia en la medición del riesgo operativo. Unas notas más sobre la el trabajo de Stephenson: Su trabajo “Simulating Multivariate Extreme Value Distributions” es muy compacto y se centra efectivamente solo en los problemas de la simulación de las variables aleatorias mediante los modelos logístico y logístico asimétrico, proponiendo para cada uno dos algoritmos. Al final de ese trabajo Stephenson aborda el problema de la generalización de los modelos indicados, en particular se aborda el modelo logístico anidado, con distribuciones marginales Fréchet. De hecho concluye el artículo diciendo: “El modelo presentado aquí, incorpora solo un nivel de anidación. En teoría es posible construir y simular de una distribución logística de valores extremos formas que contengan cualquier número de niveles de anidación”. Stephenson, Ob. cit. Pág. 58 Los trabajos de Stephenson en torno a su Software “evd” se refieren al uso del programa, pero también aporta elementos teóricos de los diferentes modelos allí donde es necesario.

9

5.- Plan de la Tesis. El Gráfico 1 presenta el mapa conceptual que esta obra desarrolla a lo largo de 5 capítulos. Capítulo I: Presenta el problema del riesgo operativo, los retos que presenta y la forma en que este trabajo contribuye al enfoque de modelos avanzados. Capítulo II: Presenta e implementa dos pruebas de independencia en valores extremos. El objetivo es modelar dependencia conjunta en la cola solo en donde las pruebas indican que debe hacerse. Modelar riesgo con dependencia en donde las pruebas estadísticas indican que no existe, es sobreestimar la medida de riesgo. De hecho, descartar dependencia para algunos conjuntos de variables simplifica enormemente la obtención de medidas de riesgo operativo. Es importante notar que una vez que no ha sido posible descartar independencia en la cola entre un grupo de variables, existe la posibilidad de que sean modeladas con distribuciones de valores extremos multivariadas (DVE-M) o distribuciones generalizadas de Pareto multivariadas (DGP-M); este trabajo solo trata el caso de la generalizada de Pareto multivariada. (Ver gráfico 1 parte inferior izquierda). Capítulo III: Se demuestra la expresión de la densidad angular para la distribución Generalizada de Pareto Multivariada, tipo logístico anidado, para 3 variables y escala el procedimiento hasta 5. La densidad angular es útil en algoritmos de simulación de variables aleatorias con esta distribución y para estimar sus parámetros de dependencia. Se utilizan las expresiones obtenidas para estimar, por máxima verosimilitud, los parámetros de 5 variables con parámetro conocido (Con el objetivo de verificar confiabilidad en la metodología propuesta). El modelo tiene características que lo hacen adecuado como modelo avanzado de riesgo operativo. Se propone un método para determinar el orden jerárquico de las variables en la aplicación del modelo a variables empíricas. Capítulo IV: Presenta los algoritmos de simulación de Michel, mismos que utilizan la densidad de Pickands para obtener los vectores aleatorios; asimismo se proponen las modificaciones necesarias a tales algoritmos para realizar tales simulaciones utilizando la densidad Angular del modelo logístico anidado. En particular, cuando se expongan los algoritmos modificados, se utilizará el caso de 5 variables para mostrar en forma detallada el proceso para generar tales variables aleatorias. Capítulo V: Muestra como utilizar las variables simuladas del modelo DGP-M para ser transformadas en simulación de pérdidas operativas con dependencia; se presenta el marco fundamental para modelar el riesgo operativo. Este capítulo es de naturaleza integradora ya que reúne los elementos que se vierten en los capítulos previos, se articulan con elementos que se vierten en este capítulo referentes a la conformación de los procesos de pérdidas agregadas y la obtención de las medidas de riesgo operativo cuando se ha modelado mediante una DGP-M.

10

Gráfico 1.- Mapa Conceptual de la Obra

Severidad de La Pérdida. rdida Modelado de la Distribució Distribución la Cola

Riesgo Operativo Capítulo I

Capítulo III Capítulo II

Series de la máxima pérdida

No Prueba: ¿Independencia? •Pares II •Múltiple lo u pít Ca

Si

Capítulo II

Máxima por Bloques

Modelado Univariado de la Distribución • Cuerpo • Cola)

Marginales + Función de Dependencia

Modelado Multivariado de la Cola. •DVE •DGP

Marginales:Estimación de Parámetros DVE ; DGP

γ0

Fréchet Transformación de Variables: TP y TF

Capítulo III

DGP Multivariada con Dependencia Estimación de Parámetros. •Máxima Verosimilitud

Capítulo III

Simulació Simulación Variables

Capítulo IV

Capítulo V

Riesgo Operativo Medidas de Riesgo

11

12

CAPÍTULO I: RIESGO OPERATIVO DEFINICIÓN Y PRINCIPALES PROBLEMAS ACTUALES; TEORÍA DE VALORES EXTREMOS. I.1.- Riesgo Operativo. Ésta investigación es acerca del Riesgo Operativo y de la importancia de la Distribución Generalizada de Pareto multivariada en la obtención de sus medidas de riesgo considerando dependencia entre eventos. Riesgo operativo se define como el riesgo de pérdida debido a las deficiencias o a fallos de los procesos, el personal y los sistemas internos o bien a causa de acontecimientos externos. El tipo y frecuencia de eventos que abarca es muy diverso. Esta definición incluye el riesgo legal, pero excluye el riesgo estratégico y el de reputación. Del riesgo operativo se pueden destacar las siguientes características • • • •

El riesgo operativo es el más antiguo de todos y está presente en cualquier clase de negocio y casi en toda actividad. Es inherente a toda actividad en que intervengan personas, procesos y plataformas tecnológicas. Es complejo, como consecuencia de la gran diversidad de causas. Las grandes pérdidas que ha ocasionado a la industria financiera muestran el desconocimiento que de él se tiene y la falta de herramientas para gestionarlo.

Es conveniente indicar de una vez la principal diferencia relevante para el modelado del riesgo legal: En tanto que en el riesgo operativo las pérdidas ocurren durante una ventana dada, en el riesgo legal aparte de los eventos esperados que suceden con determinada frecuencia (para cuyos parámetros utilizamos información histórica), existen eventos en curso (demandas) cuya conclusión en pérdida es incierta, pero incluye una probabilidad de que suceda. Por otro lado está la severidad de la pérdida, en este caso tenemos una situación parecida al riesgo de crédito, es decir, tenemos un monto expuesto inicial (monto demandado) y una pérdida final (Resolución de la situación). La pérdida final se evalúa como pérdida económica, esto es, incluye gastos de juicio y otros gastos relacionados con la obtención de la resolución, incluidos los gastos de mantenimiento en caso de estar involucrado un bien que lo requiera. Finalmente existen montos con reclamo propio y montos con reclamo en contra, etc.

13

Riesgo Operativo Significativo es un riesgo, que por su importancia tiene un impacto potencial adverso (cualitativo o cuantitativo) en: • • • • •

Asegurar la existencia de un negocio en marcha. Consecución de Objetivos; Alcanzar metas de Rentabilidad; Mejorar la Competitividad y Productividad; Mantener y mejorar Reputación;

Los Riesgos Operativos Significativos, pueden terminar en verdaderos desastres que amenacen la misma existencia de la entidad. I.1.1.- Riesgo Operativo y Riesgo Residual; Pérdidas brutas y pérdidas netas Riesgo Operativo intrínseco: Es un riesgo que se deriva de realización de las actividades propias de la entidad. Está implícito en la actividad que realizamos. Es medible, gestionable y factible de mitigare. Mitigación del Riesgo Operativo: es la parte del riesgo intrínseco con posibilidad de ser eliminado: mediante mejoras en procesos; modernización de sistemas y equipos; aseguramiento contra ciertos eventos (robo, fallas en sistemas, fenómenos naturales, etc.) El Riesgo Operativo Residual: es el remanente y es el que se manifiesta en forma de eventos de pérdidas. El objetivo de la administración de riesgos debe ser minimizar el riesgo residual. La mitigación es la medida más eficiente contra el riesgo operativo. No todas las acciones de mitigación tienen un beneficio asignable de forma inmediata, pero otras sí (Seguros). Riesgo Operativo Intrínseco - Mitigación = Riesgo Operativo Residual De lo anterior se deriva que existirán pérdidas brutas y pérdidas netas. Esto trae a discusión si se deben utilizar unas u otras apara modelar el riesgo. De hecho se pueden seguir ambos caminos: • •

Se modelan las pérdidas brutas: en tal caso se debe hacer el cálculo de la severidad de pérdida, restando pagos por cobertura (mitigación del riesgo) y sumando costos y gastos. Modelar pérdidas netas: por neto se debe entender no solo por la deducción de la mitigación (pago del seguro por ejemplo, pago del daño en caso legal), sino la inclusión del costo (el pago de primas y deducibles, gastos de juicio y demás).

En uno y otro caso el resultado es el mismo, pero cuando se trabaje con pérdidas netas se debe estar seguro que se incluyen los beneficios de la mitigación pero también sus costos.

14

Por otro lado las series históricas de pérdidas se registran a valor histórico, y se requieren series largas en tiempo para capturar eventos escasos, pero el análisis debe hacerse a valor presente (pérdida económica) cercano a la fecha de análisis para dimensionar mejor las pérdidas pasadas. Además de lo anterior, se debe tener en cuenta que en el caso de riesgo legal, el concepto de pérdida económica es más relevante, debido a que: • La ventana del evento suele ser larga. • A lo largo del evento se suceden gastos y costos legales y de otro tipo. • Los rezagos en el cobro de seguros y demás beneficios también aconsejan el uso del valor presente. Esta investigación parte de las pérdidas netas de costos y beneficios de mitigación. I.1.2.- Gestión y Modelado del Riesgo Operativo. La administración de riesgo operativo incluye el modelado de éste y la gestión de éste en base a tales resultados, este artículo pone más énfasis en el modelado del riesgo. Solo como referencia se debe comentar que la obtención de información no es sencilla y que la gestión del mismo tiende a modificar el tamaño y la frecuencia de las pérdidas en el tiempo. Las siguientes preguntas acercan a los problemas que han de ser resueltos para construir una base de datos sólida en base a la cuál se pueda modelar el riesgo, y establecer las estrategias de seguimiento y administración de éste riesgo. • • •

• • • • • • • •

¿Quién identifica los riesgos? ¿Cuál va a ser el mapa de riesgos: Líneas de negocio y eventos de pérdida? ¿Cuál es la definición de ventana del evento?, es decir ¿cuando se considera que un evento ha sucedido y concluido?, ¿Pérdidas en diferentes tiempos deben ser acumuladas en un solo evento? La definición de evento, acumulación de pérdidas asociadas a un mismo evento y ventana de evento se vuelven relevantes. ¿Se registran solo los eventos que efectivamente terminan en pérdida? ¿Todas las pérdidas son registrables? ¿Quién identifica y reporta las pérdidas? ¿Quién construye la base de datos de pérdidas, quién la valida? ¿Qué controles aseguran que toda pérdida es reportada y clasificada adecuadamente? ¿Debe ser modificado el esquema contable para clasificar pérdidas? ¿Quién decide qué riesgo debe ser mitigado?

15

• • • •

¿Quién establece los planes de acción? ¿Quién da seguimiento a los planes de mitigación? ¿Quién construye los modelos de administración del riesgo operativo? ¿Qué cambios en la estructura de control y reporte deben ser implementados como resultado de las pérdidas observadas y de los parámetros de riesgo obtenidos?

Un ejemplo de esquema global de la gestión del Riesgo Operativo es el siguiente: Gráfico - Gestión del Riesgo Operativo Así en esta investigación omitimos la parte relativa a la gestión de este riesgo para centrarnos en su modelación, y en particular en su modelación multivariada. Asimismo se parte de que se ha definido la estructura y contenido de la base de datos, y que ésta ya es explotable. Por tanto omitimos mayor detalle que el ya expuesto sobre su construcción, validación y preparación previa. Aunque esta investigación utiliza datos reales de una institución, estos han sido escalados para no representar los parámetros de esta, si bien siguen capturando el objeto de estudio y sus relaciones.

Fuente: Elaboración propia.

16

I.1.3.- Modelado del Riesgo Operativo. La regulación propuesta en el Acuerdo de Capitalización de Basilea II de Junio de 2004, para el cálculo de capital en los bancos, ha ido filtrándose a las regulaciones locales, poniendo a las instituciones financieras ante el reto real de implementar estas metodologías. Ya la implementación del proceso de sistematizar el registro y clasificación de las pérdidas de tipo operativo implica cambios sustanciales en las organizaciones; el modelado de este tipo de riesgo es aún más complejo, actualmente no hay estándares para su medición, es un campo que continuamente ofrece novedades en soluciones pero también abre problemas nuevos. La regulación existente ha tratado de ser conservadora, pero aplicar tal conservadurismo implica un costo para las instituciones, mientras más sencillo y fácil de implementar el método, más caro en costo de capital: Existen las siguientes opciones (de las simples a las complejas): • • • •

Indicador Básico. Método Estándar. Método Estándar Alternativo. Modelos Avanzados (AMA).

En México únicamente están regulados los dos primeros, no obstante es de esperar que conforme avance la gestión del riesgo operativo se avance también hacia los siguientes modelos. Los enfoques a que se hace referencia en esta obra se inscriben en los modelos avanzados (AMA). Dependiendo del riesgo de cada entidad, que en el caso de riesgo operativo está definido por sus estructuras de control y las plataformas tecnológicas que utiliza, cada enfoque puede implicar un menor costo de capital, pero su complejidad en el modelado aumenta mucho cuando se trata de los modelos avanzados y exige la solución de problemas nuevos. I.1.3.1.- AIGOR Problemas en el modelado del riesgo operativo e implicaciones prácticas. El enfoque de modelos avanzados tiene importantes incentivos por sus beneficios en gestión y asignación de capital, pero también es el que más retos implica. El Comité de Basilea constituyó el AIGOR (Grupo de Implementación de Riesgo Operativo para modelos avanzados) mismo que se enfoca en los retos prácticos ligados a la implementación de este tipo de riesgo, especialmente en lo tocante a los modelos avanzados. Hay varios aspectos relacionados con el modelado del riesgo operativo que el AIGOR aborda. En lo que sigue se citan los párrafos del documento de análisis que ha liberado el mencionado grupo que son relevantes para el objeto de este artículo, asimismo se

17

comentan sus implicaciones. Las referencias son al documento de convergencia del Comité de Basilea de octubre de 2006, y al documento denominado “Observed range of practice in key elements of Advanced Measurement Approaches” del AIGOR: Granularidad: "El sistema de medición de riesgo del banco debe ser suficientemente 'granular' para capturar los principales factores clave del riesgo operativo que afectan la forma de la cola de las estimaciones de pérdida.” (Párrafo 669(c)) Implicaciones prácticas: • El menos granular es el que modela una sola distribución para todas las pérdidas, su supuesto implícito es independencia entre las pérdidas; El supuesto es que son independientes e idénticamente distribuidas. • El enfoque más granular establece pérdidas por línea de negocio o tipo de evento de riesgo operativo, o bien ambas (tipo de evento por línea de negocio); Retos: disponibilidad de datos y diferencia en frecuencias. • La falta inicial de datos puede llevar inicialmente a modelos de baja granularidad (agrupación de eventos en categorías más generales). Dependencia (correlación), “Las medidas de riesgo para diferentes estimaciones de riesgo operativo deben ser sumadas con el propósito de calcular el requerimiento de capital regulatorio mínimo. Sin embargo, al banco le puede ser permitido utilizar correlaciones determinadas internamente en riesgo de pérdidas entre estimaciones individuales de riesgo operativo, siempre que pueda ser demostrado a la satisfacción del supervisor nacional que sus métodos para determinar las correlaciones son sólidos, implementados con integridad, y que toman en cuenta la incertidumbre que rodea a tales estimaciones de correlación (Particularmente en periodos críticos). El banco debe validar sus supuestos de correlación utilizando técnicas cuantitativas y cualitativas adecuadas.” (Párrafo 669(d)) Implicaciones prácticas: • Sumar las medidas de riesgo (OpVaR) implica perfecta dependencia entre riesgos; esto es un incentivo para probar modelos con dependencia imperfecta. • La dependencia imperfecta implica incorporar el efecto de portafolio en la modelación del riesgo. • Es necesario distinguir correlación de dependencia, la correlación está relacionada con fenómenos modelados con el supuesto de linealidad, aquí se tiene presente el concepto de dependencia en el sentido más amplio que incluye la dependencia en la cola de la distribución. Correlación no necesariamente implica dependencia. 18







No hay un solo tipo de dependencia, al menos se deben considerar: Dependencia entre frecuencia de eventos; dependencia en tiempo de eventos; dependencia entre las severidades de pérdida. La diversidad de las frecuencias y severidades, así como del tiempo entre eventos lleva a la conclusión de que podemos tener variables aleatorias no idénticamente distribuidas que se deban modelar en forma multivariada, en forma natural esto conduce al uso de cópulas. El concepto de dependencia en la cola se vuelve relevante, la dependencia es más relevante en los casos de ocurrencia simultánea de pérdidas grandes.

“Es también posible considerar estructuras de dependencia más generales, para la cuales la correlación es diferente entre la cola y el cuerpo de la distribución y varía dentro de la cola. Estructuras complejas de dependencia que suponen altas dependencias en eventos de riesgo operativo en la cola son particularmente importantes y podrían conducir a resultados de requerimiento de capital por riesgo operativo que son mayores que cuando se hace el supuesto de correlación de 100%, aun cuando estos resultados no son probables para propósito de capital regulatorio” AIGOR La cita alude al hecho de que las distribuciones de valores extremos y la distribución generalizada de Pareto consideran como posibles pérdidas extremas no observadas. Sin embargo también hay que apuntar que es muy difícil hallar dependencia entre diferentes tipos de eventos y además qué estos, cuando exhiben severidades mayores son más escasos, por lo que es de esperar que las pruebas estadísticas sugieran también el uso de modelos univariados para algunos tipos de pérdida. Técnica utilizada en el modelado (Supuesto de distribución y estimación), “Dada la continua evolución de los enfoques analíticos para el riesgo operativo, el Comité no especifica supuestos a ser utilizados respecto al un enfoque o distribución para generar las medidas de riesgo operativo con propósito de determinar el capital regulatorio. Sin embargo el banco debe ser capaz de demostrar que su enfoque captura eventos de pérdida en la cola potencialmente severos. Cualquiera que sea el enfoque utilizado, el banco debe demostrar que sus medidas de riesgo operativo cumplen con estándares sólidos comparables con el enfoque de medidas de riesgo de crédito basadas en calificaciones internas (por ejemplo, comparables a de un periodo anual y e intervalo de confianza equivalente al percentil 99.9 de la distribución),” (Párrafo 667) “…El banco debe tener un umbral mínimo interno de pérdidas brutas para la recolección de pérdidas, por ejemplo €10,000. El umbral apropiado de pérdidas puede variar entre bancos y dentro de cada banco entre líneas de negocio o tipos de evento….” (Párrafo 673, segunda viñeta)

19

Implicaciones prácticas: • Percentiles de confianza muy altos son difíciles de manejar cuando los datos de pérdidas son escasos, se necesitan 1,000 datos para tener una sola medida al 99.9%. • La discriminación de pérdidas bajas lleva a trabajar con umbrales y datos truncados y por tanto a determinar el umbral óptimo. • Se deben determinar las distribuciones óptimas para los datos separados (sea por línea de negocio, tipo de evento o tipo de evento por línea de negocio) para determinar distribuciones marginales y decidir la mejor manera de modelarlas en forma conjunta. “El rango de distribuciones supuestas para modelar la severidad del riesgo de pérdidas operativas es diverso, con algunos de los más granulares enfoque de modelado suponiendo más de una forma de distribución alineada a las características de una línea de negocio o tipo de pérdida en particular. Las distribuciones usadas incluyen las distribuciones generalizada de Pareto de la teoría de valores extremos, distribuciones empíricas, distribuciones lognormales, distribuciones de colas pesadas y distribuciones de colas ligeras. Hay mucha menos diversidad en el rango de distribuciones supuestas por los bancos para estimar la frecuencia de las pérdidas de riesgo operativo. La más comúnmente utilizada es la distribución Poisson. Un número mas pequeño de bancos supone una distribución binomial negativa” AIGOR Es de notar que la distribución generalizada de Pareto referida es generalmente la versión univariada. Otros temas tocados por el AIGOR incluyen, el uso de análisis de escenarios de pérdidas en conjunción con datos externos para evaluar la exposición a eventos muy extremos y el uso de mitigantes, en el cual solo se propone reconocer una mitigación máxima de 20% del cargo total por riesgo operativo bajo los modelos avanzados.

I.2.- Tratamiento de Frecuencias distintas. En la medición de riesgo operativo se sigue el enfoque tradicional de modelar por un lado las frecuencias de las perdidas y por otro las severidades de pérdida. Aunque la investigación toca solo el modelado de las severidades, es necesario comentar en aras de la integridad del tema algunos puntos sobre las frecuencias. El riesgo operativo, exhibe una gran dispersión en la frecuencia de los eventos, algunos pueden suceder a diario, cada semana o mes (o incluso meses), sin existir necesariamente regularidad

20

Venegas refiere que: “…para un banco típico que realiza diversas operaciones y transacciones con clientes, el riesgo de un fraude interno es de baja frecuencia y de alta severidad, el riesgo por fraude externo es de media/alta frecuencia y baja/media severidad, el riesgo por no atender medidas de seguridad en el lugar de trabajo es de baja frecuencia y baja severidad, el riesgo por errores de captura, ejecución y mantenimiento de operaciones con clientes es de baja/ media frecuencia y media/alta severidad, el riesgo por daños a activos fijos es de baja frecuencia y baja severidad y, por último, el riesgo por la falta de sistemas es de baja frecuencia y baja severidad” Como reconoce este autor, estas asociaciones a tipos de evento/frecuencia/severidad varían según la naturaleza de la entidad o institución. Por otro lado es necesario considerar que el uso de modelos de valores extremos, que se centran en la distribución de la cola, requiere que se tome en cuenta la frecuencia de la ocurrencia de valores extremos. En particular para modelo DGP, ya que esta distribución existe a partir de un umbral dado, es necesario saber con que frecuencia las observaciones exceden tal umbral y modelar en consecuencia. Por otro lado es común el supuesto de considerar que la frecuencia de los eventos es independiente de la severidad de pérdida. I.3.- Teoría de Valores Extremos y Formas Univariadas. En general hay dos maneras de modelar valores extremos: •

El primero se denomina Máxima por bloques, que implica recoger solo las observaciones más grandes para un periodo dado, suponiendo grandes muestras de observaciones idénticamente distribuidas. El método discrimina una gran cantidad de datos y está relacionada con las Distribuciones Generalizadas de Valores Extremos (DVE), cuya forma estándar está dada por: Gγ ( x ) = exp( − (1 + γ ⋅ x ) −1 / γ ), 1 + γ ⋅ x > 0, γ ≠ 0

Donde si γ = 0, es la Gumbel estándar; si γ > 0, es la Fréchet, si γ < 0, es la Weibull. •

El segundo método (o grupo de métodos) se denomina “excesos sobre un umbral”. Se modelan todas las observaciones grandes que exceden un umbral dado (Generalmente alto), el método discrimina menos datos (de por sí escasos) y se considera muy útiles en aplicaciones prácticas. Están relacionados con las Distribuciones Generalizadas de Pareto (DGP), cuya forma estándar está dada por:

21

Wγ ( x ) = 1 − (1 + γ ⋅ x ) −1 / γ

Donde, si x > 0 y γ = 0, es la exponencial; Si 0 < x y γ>0, es la Pareto, y si 0 < x -1

Esta relación será muy útil durante la investigación. 3. El teorema de Pickands-Balkema-De Hann, establece que es posible encontrar una función positiva y medible dados parámetros de forma, localización y escala, tal que: | F [ u ] ( x ) − W γ ,u .σ u ( x ) |→ 0, u → ω (F)

Si y solo si, F pertenece al dominio de atracción del máximo. Así la distribución para la cual la máxima normalizada converge a una distribución DVE constituye un grupo de distribuciones para las cuales la distribución de los excesos converge a una DGP cuando el umbral se incrementa. Más aun “El parámetro de forma de la DGP límite para los excesos es el mismo parámetro de forma que para la distribución DVE límite para el máximo” Alexander McNeil et. al. [2005]. Es muy posible que cuando en un fenómeno existan observaciones extremas, buscando un umbral suficientemente alto, la cola tenderá se ajustar a una DGP. El enfoque de utilizar distribuciones de pérdidas implica por un lado demostrar que las variables de pérdida (o sus máximos) son independientes e idénticamente distribuidas, en la sección I.4 siguiente, se presenta la técnica para probar que las variables son independientes entre sí, y en la I.5 se muestra cómo se prueba que son idénticamente distribuidas (con las pruebas de ajuste a las distribuciones de probabilidad univariadas).

22

I.4.- Variables Independientes: Descartando Correlación Serial. Probar la independencia en una serie de pérdidas operativas con el enfoque de valores extremos, equivale a probar que la serie no presenta autocorrelación serial. Cuando se habla de una serie, se hace referencia a la serie que representa las pérdidas (o máximos de éstas) para un tipo de pérdida que se desea modelar (celda). Al trabajar con las series de pérdidas operativas se encuentra que la frecuencia de ocurrencia de los eventos no son siempre sincrónicas, hay periodos en que un variable exhibe eventos cuando la otra no, la propuesta de este trabajo es buscar un periodo más largo en el cual haya una o varias observaciones por tipo de variable. De cada periodo se toma la observación máxima, a este procedimiento, como se apunto antes, se le conoce como “máxima por bloques”. De esta manera tenemos ahora series de ambas variables cada una de las cuales exhibe un valor máximo por periodo. Se puede partir de la máxima frecuencia, probar si la serie bajo este supuesto tiene autocorrelación, si la tiene se amplia el periodo de extracción del máximo, de los contrario se acepta la frecuancia inicial. Por otro lado se debe encontrar un nivel de extracción del máximo que sea adecuado para el conjunto de variables para las cuales se desea probar dependencia (siguiente capítulo). Para descartar autocorrelación en las series, se parte de la hipótesis nula siguiente: H0: No hay autocorrelación hasta el k-ésimo rezago Para la prueba, se utilizó el estadístico Q de Ljung-Box y su p-value. Como se sabe mientras más pequeño es el p-value es mas fuerte la evidencia para rechazar la hipótesis nula. Luego entonces para considerar que las series no tienen autocorrelación, el p-value del k-ésimo rezago debe ser mayor a 0.05. Con lo cual se aplica la prueba con un error de 5%. Por supuesto existe el problema práctico de elegir el k-ésimo rezago para la prueba, un rezago muy corto omitirá correlación serial en elevados rezagos, con uno muy largo la prueban tendrá bajo poder. Recuérdese que las series corresponden a las máximas por bloques de cada serie, por ejemplo la máxima pérdida en un día, pero también puede ser la máxima semanal, quincenal o de cualquier otro periodo. Por supuesto que al ampliar el tamaño del periodo se tienen menos observaciones. Por otro lado, la toma de los máximos debe dejar suficientes observaciones multivariadas, es decir la frecuencia elegida debe proveer de observaciones en las variables para las cuales se quiere probar la independencia en las observaciones extremas de variables.

23

Lo anterior es importante porque la técnica para elegir la serie de máximos que no tiene autocorrelación consiste en tomar la mayor frecuencia posible, si en esta frecuencia la prueba indica autocorrelación, se amplia el periodo para la extracción del máximo, por ejemplo pasando de una frecuencia diaria a cada cinco días. Se procede del mismo modo hasta que la ampliación de periodo de extracción del máximo ofrece una serie sin autocorrelación serial. En la Tabla I.1 se incluye el resultado de la aplicación de la prueba Ljung-Box a las variables RO-1, RO-2 y RO-3 hasta con 12 rezagos. Se puede notar que solo cuando la máxima por bloques se toma de la Frecuencia 3, las tres series se encuentran libres de correlación. En el caso de la variable RO3, desde la frecuencia diaria esto es así, en los otros casos hubo de ser ampliado el periodo (bloque) del cual se extrae el máximo.

24

Tabla I.1.- Resultado de las pruebas de autocorrelación. RO1 k-ésimo Rezago 1 2 3 4 5 6 7 8 9 10 11 12

Diaria Q-Stat Prob 62.01 75.87 89.53 96.47 120.69 158.74 189.55 218.10 231.18 252.65 267.65 282.03

0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

Frecuencia 2 Q-Stat Prob 5.77 13.68 16.44 16.92 22.21 24.74 28.61 30.01 30.33 30.33 30.36 30.43

0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

Frecuencia 3 Q-Stat Prob 1.05 2.36 7.39 7.78 8.19 9.94 9.95 10.22 10.38 10.65 10.65 10.74

0.31 0.31 0.06 0.10 0.15 0.13 0.19 0.25 0.32 0.39 0.47 0.55

RO2 k-ésimo Rezago 1 2 3 4 5 6 7 8 9 10 11 12

Diaria Q-Stat Prob 1.43 7.07 7.08 7.12 7.25 32.55 32.72 35.00 35.07 65.58 67.44 68.94

0.23 0.03 0.07 0.13 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00

Frecuencia 2 Q-Stat Prob 2.44 3.75 4.39 4.39 9.49 9.75 10.27 10.36 11.72 11.85 12.69 13.14

0.12 0.15 0.22 0.36 0.09 0.14 0.17 0.24 0.23 0.30 0.31 0.36

Frecuencia 3 Q-Stat Prob 0.32 2.13 2.30 3.34 3.82 4.87 5.13 5.38 5.40 5.79 5.89 6.13

0.57 0.35 0.51 0.50 0.58 0.56 0.64 0.72 0.80 0.83 0.88 0.91

RO3 k-ésimo Rezago 1 2 3 4 5 6 7 8 9 10 11 12

Diaria Q-Stat Prob 0.14 0.25 0.49 0.49 0.52 0.52 0.73 0.87 0.92 3.97 4.66 4.67

0.71 0.88 0.92 0.97 0.99 1.00 1.00 1.00 1.00 0.95 0.95 0.97

Frecuencia 2 Q-Stat Prob 0.02 0.14 1.02 1.17 1.24 1.27 1.38 1.55 2.76 2.76 3.97 4.73

0.89 0.93 0.80 0.88 0.94 0.97 0.99 0.99 0.97 0.99 0.97 0.97

Frecuencia 3 Q-Stat Prob 0.11 0.28 0.71 1.07 2.01 2.22 2.30 2.51 5.88 6.14 6.15 6.46

0.74 0.87 0.87 0.90 0.85 0.90 0.94 0.96 0.75 0.80 0.86 0.89

En general esta metodología es la que se debe utilizar determinar las series libres de correlación serial, ya que no son útiles las transformaciones usuales típicas de la construcción de modelos econométricos: en este caso se necesitan máximos sin transformaciones logarítmicas, y sin primeras o segundas diferencias, ya que lo que se modela es precisamente la pérdida en su forma original.

25

Es importante sin embargo que al aumentar la amplitud del periodo del cual se extrae el máximo, deje suficientes variables para modelar el riesgo. Para los cálculos que se presentan en este capítulo, se utilizó el máximo de cada 7 días.

I.5.- Determinación de parámetros de la distribución para algunas variables de RO. En esta sección del trabajo se utilizarán las series de máxima por bloques para modelar estas en forma univariada. En particular se estiman los parámetros para cada variable que corresponden a los modelos univariados DVE y DGP. Estos parámetros serán la base para modelar en forma multivariada. A este paso se le conoce como determinación de los parámetros de las distribuciones marginales. En suma en esta sección de debe probar que las variables son idénticamente distribuidas (Ajustan bien a la distribución propuesta), y cuáles son los parámetros de las distribuciones de valores extremos a utilizar. 1.5.1.- Análisis Univariado (VARIABLES: RO_1, RO_2 y RO_3). Se llevó a cabo un análisis univariado de tres variables que incluye 135 observaciones con el máximo semanal de cada una, por tanto se utilizó el método de máxima por bloques, con bloques de 7 días para 945 días. La estimación de parámetros se realizó con “Extremes”. Variable RO-1 Máxima por bloques de 7 días. Gráfico I.2. Kernel de densidad de RO-1, y Distribución de valores extremos ajustada.

26

Tabla I.1.- Parámetros DVE estimados para RO-1 Parametrización Gamma MU 10,741 SIGMA 5,960 0.554924 GAMMA

Parametrización Alfa MU 0 SIGMA 10,741 ALFA 1.80205

La estimación de gamma es γ=0.55, es positiva. Se puede modelar como una Fréchet. En efecto, si observamos la gráfica cuantil-cuantil (Q-Q), se observa que una recta ajusta bastante bien a la distribución: Gráfico I.3.- Variable RO-1Gráfico Cuantil-Cuantil

Gráfico I.4. Kernel de densidad de RO-1, y DGP ajustada.

27

Tabla I.2.- Parámetros DGP estimados para RO-1 Extremos

Parametrización Gamma.

MU SIGMA GAMMA

Parametrización Alfa.

MU SIGMA ALFA

15

-

40

13,885 5,566 0.0348386

13,851 4,715 0.11251

145,891 159,776 28.7038

-28,059 41,910 8.88811

La estimación de gamma es γ=0.034. Se puede modelar como una Pareto. Variable RO-2 Máxima por bloques de 7 días. Gráfico I.5. Kernel de densidad de RO-2, y Distribución de valores extremos ajustada.

Tabla I.3.- Parámetros DVE estimados para RO-2 Parametrización Gamma MU 6,551 SIGMA 6,031 0.920562 GAMMA

Parametrización Alfa MU 0 SIGMA 6,551 ALFA 1.08629

La gamma es γ=0.92, positiva. Se puede modelar como una Fréchet.

28

Gráfico I.6. Kernel de densidad de RO-2, y DGP Ajustada con Diferentes Extremos.

Tabla I.4.- Parámetros DGP estimados para RO-2 Parametrización Gamma.

Extremos MU SIGMA GAMMA

Parametrización Alfa.

MU SIGMA ALFA

17 -36,463 22,657 0.2493

21 -9,846 11,314 0.435089

23 4,121 5,474 0.660084

24 9,753 3,296 0.829692

-4,173 8,293 1.51496

5,780 3,973 1.20527

La gamma es positiva, γ=0.82 para el mejor ajuste con 24 extremos. Se puede modelar con una Pareto.

29

Variable RO-3 Máxima por bloques de 7 días. Gráfico I.7. Kernel de densidad de RO-3, y Distribución de Valores Extremos ajustada.

Tabla I.5.- Parámetros DVE estimados para RO-3 Parametrización Gamma MU 2,760 SIGMA 3,390 1.22817 GAMMA

Parametrización Alfa MU 0 SIGMA 2,760 ALFA 0.81422

La gamma es γ=1.22, positiva. Se puede modelar como una Fréchet. Gráfico I.8. Kernel de densidad de RO-3, y DGP.

30

Tabla I.6.- Parámetros DGP estimados para RO-3

Parametrización Gamma. Parametrización Alfa.

Extremos MU SIGMA GAMMA

13

15 -15,298 11,535 0.35618

69

365 6,320 0.507216

MU SIGMA ALFA

-120,942 12,459 1.9715

-47,683 32,385 2.81

-12,023 12,299 2.00299

276 6,140 0.4993

La gamma es positiva, γ=0.499 para el mejor ajuste con 69 extremos. Se puede modelar con una Pareto. I.6.- Basilea: Estimación de parámetros y medidas de riesgo con modelos de valores extremos univariados (Moscadelli 2004). La aplicación de distribuciones univariadas de valores extremos, y generalizada de Pareto a modelar la severidad de pérdida en eventos de riesgo operativo ha sido ya abordada en forma amplia en varias investigaciones. Una de las más sobresalientes es la de Marco Moscadelli “The modeling of operational risk. Experience with the analysis of the data collected by the Basel Committee”, de Julio de 2004. Este investigador tuvo el privilegio de contar con la base de datos de 89 bancos participantes, e incluyó más de 47,000 observaciones, clasificadas por tipo de evento y línea de negocio. Dado que el interés de este trabajo está en los modelos multivariados, solamente se resaltarán los siguientes elementos de esta investigación: 1. Bajo desempeño de los modelos de severidad actuariales convencionales para describir las características de los datos sobre todo debido al sesgo y kurtosis exhibidos. “De hecho, toda distribución tradicional aplicada a todos los datos de cada línea de negocio tienden a ajustar a las observaciones centrales, y en consecuencia a no tomar en adecuada consideración las pérdidas grandes” Moscadelli, Op. cit. Pág. 12. 2. En cambio la investigación mostró que el paradigma de la teoría de valores extremos en su versión excesos sobre un umbral-Distribución Generalizada de Pareto (POT-DGP), “… proveen un estimado preciso de la cola de las líneas de negocio a los percentiles 95 y mayores, esto es confirmado por los resultados de tres pruebas de bondad de ajuste y análisis de desempeño del VaR de la severidad” Moscadelli, Op. cit. Pág. 12.

31

3. En los resultados del VaR de la severidad Moscadelli encuentra que a diferentes niveles de confianza (95%, 97.5%, 99%, 99.95% y 99.9%) el modelo POT-DGP es el que menores excepciones exhibe en las pruebas back test, comparado contra los modelos Gumbel y lognormal. 4. Las líneas de negocio “Finanzas corporativas” y “Banca Comercial” resultaron ser las más riesgosas para la muestra utilizada, en tanto que las de “Banca de Menudeo” y “Operaciones Bursátiles al Menudeo” son las menos riesgosas. Es notable que el menor riesgo se encuentra en las líneas de negocio menos concentradas. 5. Los resultados denotan que las pérdidas por riesgo operativo son en efecto una fuente de riesgo importante para los bancos. 6. El consumo de capital que encuentra Moscadelli para cada línea de negocio es en 4 casos inferior al que implica el uso de los multiplicadores del modelo estándar de Basilea II para riesgo operativo, existiendo por tanto un beneficio en el uso de los modelos avanzados. En los otros 4 casos el consumo es mayor, sin embargo es notable que los cuatro en los que el consumo es menor, se acumula el 72% del cargo de capital, de tal manera que en forma consolidada resulta un coeficiente de 13.3% contra el 15% del modelo estándar de Basilea II. La siguiente tabla muestra el índice de la cola para cada línea de negocio, téngase en mente los resultados para la Parametrización gamma. Tabla I.7.- Moscadelli, resultados riesgo operativo con DGP univariada #

Gamma γ

Línea de Negocio 1 2 3 4 5 6 7 8

Finanzas Corporativas Negociación y Ventas Banca al Menudeo Banca Comercial Pagos y Liquidación Servicios de Agencia Administración de Activos Productos Bursátiles (Menudeo)

1.19 1.17 1.01 1.39 1.23 1.22 0.85 0.98

Alfa α 0.84034 0.85470 0.99010 0.71942 0.81301 0.81967 1.17647 1.02041

Umbral F(ui) 0.901 0.900 0.965 0.908 0.899 0.894 0.904 0.900

Fuente: Moscadelli 2004

Respecto al valor de gamma, Moscadelli apunta que: • Si γ≥.5 la DGP tiene varianza infinita, •

Si γ≥.1 la DGP no tiene momentos finitos, ni siquiera esperanza,

Citando a Moscadelli “Esta propiedad tiene una consecuencia directa para el análisis de datos: de hecho el comportamiento pesado (o no pesado) de los datos en la cola puede ser fácilmente detectado del parámetro estimado de forma” 32

La última columna indica para cada línea de negocio en umbral (cuantil) a partir del cual se puede modelar con una DGP. Hay que tener en mente que la investigación citada fue realizada bajo el supuesto de distribuciones univariadas. Los conceptos de dependencia están ausentes en las estimaciones realizadas. I.7.- Dominio de Atracción, Fréchet. Como se observó en la estimación de parámetros de las variables empíricas, todas se pueden modelar como DVE marginales Fréchet, si fuera el caso de modelarlas multivariadas en forma conjunta. Cuando en formas generales de valores extremos: Gγ ( x ) = exp( − (1 + γ ⋅ x ) −1 / γ ), 1 + γ ⋅ x > 0, γ ≠ 0 Wγ ( x ) = 1 + log G ( x ), si logG(x) > -1

Encontramos que γ > 0, se dice que las distribuciones están en el máximo dominio de atracción de la distribución Fréchet. Cuando en cambio γ = 0, está en el máximo dominio de atracción de la Gumbel. Ver Michel (3), Beirlant (Chapter 5 Tail estimation for all Domains of attraction), Coles, Reiss y Thomas. Por ejemplo, la normal se encuentra en el máximo dominio de atracción de la Gumbel. En hidrología los datos de descargas máximas en ríos se miden en promedios por lapso de tiempo, los promedios extremos determinan por ejemplo un riesgo de inundación. La relevancia de lo anterior es que en el campo financiero las variables suelen resultar con γ > 0; además la distribución Fréchet es la que exhibe colas más pesadas; finalmente las series obtenidas son los máximos por bloque, por lo que la elección de marginales Fréchet para modelar las variables de riesgo operativo parece natural. Beirlant indica en el capítulo 2 de su “Statistics of Extremes” que en el dominio de atracción de la distribución Fréchet están entre otras: Pareto (α), Generalizada de Pareto (σ,γ), Burr Tipo XII (η,τ,λ), Burr tipo III(η,τ,λ), F(m,n), InvΓ(λ, α), LogΓ(λ, α), Fréchet(α). En ese mismo capítulo Beirlant presenta el caso como Fréchet-Pareto. También indica que es conocida como “índice de la cola” y también “índice de Pareto”

33

I.8.- Transformación de las variables empíricas en exponenciales negativas. Las variables no se utilizan ni para las pruebas estadísticas de independencia ni para la estimación de parámetros en su forma cruda natural, requieren transformaciones previas que son bien conocidas en la teoría de valores extremos. Las variables para ser tratadas deben existir en el espacio d-dimensional negativo (-∞,0)d, por tanto si proceden de variables reales, (como pérdidas o rendimientos en el terreno financiero), deben estar precedidas por transformaciones adecuadas: 1. Obtener las distribuciones marginales de cada variableÆRealizado. 2. Determinar el dominio de atracción de la variable a través del índice de la cola (Tail Index)ÆRealizado. 3. Transformar las variables a la forma estándar de la distribución Fréchet F(xi), utilizando los parámetros obtenidos.

F~

~ ~

μ ,σ ,α

(xi )

Para la parametrización gamma se utiliza: 1 − ⎞ ⎛ γ ⎜ ⎛ ⎛ x − μ ⎞⎞ ⎟ Gγ ( x ) = exp⎜ − ⎜⎜1 + γ ⎜ ⎟ ⎟⎟ ⎟ ⎝ σ ⎠⎠ ⎟ ⎜ ⎝ ⎝ ⎠

Y los parámetros:

OR-1 OR-2 OR-3

Gamma Mu (Forma) (Localización) 0.554924 10,741 0.920562 6,551 1.22817 2,760

Sigma (Escala) 5,960 6,031 3,390

Para la parametrización alfa se utiliza: ⎛ ⎛ x − μ ⎞ −α ⎞ ⎟ Gα ( x ) = exp⎜ − ⎜ ⎜ ⎝ σ ⎟⎠ ⎟ ⎠ ⎝ Y los parámetros:

OR-1 OR-2 OR-3

Alfa Mu (Forma) (Localización) 1.80205 0 1.08629 0 0.81422 0

Sigma (Escala) 10,741 6,551 2,760

34

4. Transformación a las variables de su forma estandarizada Fréchet F(xi) a la exponencial negativa, yi en la siguiente transformación. ~

yi ≈ F~

~ ~

μ ,σ ,α

(xi ) − 1 = yi

Restan los pasos 3 y 4. Después de aplicar ambas transformaciones obtenemos las variables en el cuadrante negativo. Ahora las variables se pueden modelar como resultantes “de una distribución uniforme en [-1,0]. (…) El orden de los datos permanecen intactos por la transformación, de modo tal que las observaciones extremas ahora están cerca del 0.” Michel (3) capítulo 7. Los datos en esta forma se aprecian como sigue: Gráfico I.9.- Variables OR-1 y OR-2 en el cuadrante negativo. -1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10

0.00 0.00 -0.10 -0.20 -0.30 -0.40 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00

35

Gráfico I.10.-OR-2 y OR-3 en el cuadrante negativo. -1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10

0.00 0.00 -0.10 -0.20 -0.30 -0.40 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00

Gráfico I.11.-OR-1 y OR-3 en el cuadrante negativo. -1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10

0.00 0.00 -0.10 -0.20 -0.30 -0.40 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00

Aunque en el siguiente capítulo se revisan las relaciones de dependencia entre las variables, es notorio en las tres gráficas que en la vecindad del cero hay muy pocas observaciones, y que las observaciones se encuentran más bien dispersas que conjuntas. Con las variables transformadas se este tipo se puede proceder a aplicar las pruebas de independencia en la cola, tanto bivariadas como multivariadas (Capítulo II).

36

Descartada la independencia se procede a modelar estas variables con dependencia (Capítulo III). Michel (3) apunta que “Este método de estimar primero las distribuciones marginales y estimar después los parámetros de dependencia de de los datos adecuadamente transformados, es referida frecuentemente como estimados ‘Piecingtogether’” Ver Reiss y Thomas (2001) sección 9.3. I.9.- Conclusiones.

En este capítulo se han presentado los dos elementos básicos que constituyen el objeto de esta investigación, por un lado el riesgo operativo, sus características y problemas actuales en su modelado, por otro lado la teoría de valores extremos y sus formas básicas. Se ha indicado la necesidad de probar (y cómo hacerlo) que una variable e independiente e idénticamente distribuida. Por otro lado se ha empezado a mostrar los problemas que se enfrentan cuando se trata con variables empíricas, el tratamiento de las variables se ha empezado a fundir con los modelos y nos ha entregado al final variables empíricas transformadas en marginales exponenciales negativas con lo cual se queda en condiciones de realizar el análisis de las relaciones de dependencia entre las mismas y arribar al modelado multivariado con modelos de valores extremos.

37

38

Capítulo II PROBANDO INDEPENDENCIA EN LA COLA EN DVE Y MODELOS RELACIONADOS. II.1.- Introducción. Relevancia de la realización de las pruebas

Como se apuntó en la introducción a esta tesis, la importancia de poder demostrar independencia en la cola de las distribuciones de los eventos de riesgo operativo es enorme, es la diferencia entre trabajar con metodologías más simples o más complejas. Si se puede demostrar que un conjunto de variables no tienen dependencia en la cola, se pueden modelar en forma univariada, o bien con estructuras de dependencia más simples, que las resultantes de los modelos de valores extremos. Como también se apuntó en la introducción, en el enfoque Basilea, la forma estándar de calcular el cargo de capital regulatorio por riesgo operativo implica la suma de los peores escenarios estimados por las autoridades, traducidos en forma de betas sobre los ingresos netos de las instituciones bancarias. No obstante estas betas tienen tal dimensión que el cargo de capital puede representar no solo el peor escenario de pérdidas en un periodo, sino más que la suma de las pérdidas de varios periodos. Por otro lado no sabemos si tal cargo está cubriendo un riesgo real o no. Una institución con una buena gestión de riesgo estaría castigada en cuanto a su consumo de capital por este hecho. Independientemente de que Basilea busque regular la medición de riesgos en las instituciones bancarias, se debe reconocer su labor promotora en toda industria y el terreno de la investigación: Ha establecido estándares; ha recopilado las prácticas en la industria; ha puesto a discusión metodologías para medir el riesgo operativo; y ha dado también incentivos al uso de los modelos avanzados. Dice Mario Benedetti a propósito de la frase de Jorge Manrique: “Todo tiempo pasado fue mejor”, que para ver su alcance hay que completarla: “Todo tiempo futuro será peor”. De la misma manera parece en primera instancia que la propuesta para riesgo operativo de Basilea lleva impresa la frase popular: “Las desgracias nunca vienen solas”, que si se completa se diría “Las desgracias siempre vienen juntas”, es decir, los eventos de riesgo operativo tienen perfecta dependencia, pero también nos permitiría decir “Siempre que no puedas demostrar lo contrario”. El objetivo de este capítulo es mostrar como se puede demostrar lo contrario y poder llegar a medidas de riesgo con una dependencia más cercana a lo real.

39

I.2.- Dependencia y Correlación.

Como se recordará en el documento del AIGOR se indica que “El banco debe validar sus supuestos de correlación utilizando técnicas cuantitativas y cualitativas adecuadas.”, asimismo se manejan los conceptos de correlación y dependencia como equivalentes, lo cual es inexacto como se explica en este apartado. Drouet y Kotz en “Correlation and Dependence” hacen un extenso análisis del origen de los conceptos correlación y dependencia, así como de la forma en que ha evolucionado su uso. Refieren que el concepto de correlación está ampliamente difundido y utilizado, no así su fundamento, sus alcances y limitaciones. También indican que la noción de independencia “introducida por Henri Lebesgue y/o sus contemporáneos.” y que: “Tenemos así dos conceptos –independencia (y su negación dependencia) y correlación (y su contraparte, falta de correlación) prominentemente utilizadas en ciencias estadísticas. En sus intentos por ‘simplificar’ la metodología estadística (atendiendo a un supuesto común bajo nivel) muchos autores no han distinguido apropiadamente entre independencia y falta de correlación (frecuentemente referida como ‘correlación cero’ o ‘no correlación’. Consecuentemente los lectores casuales de tales escritos están frecuentemente bajo la impresión de establecer una dependencia práctica (o más específicamente, ausencia de relaciones significativas entre las variables) es suficiente para verificar que los coeficientes de correlación son efectivamente cero. Ha habido un daño considerable causado por esta actitud en varios conceptos –más prominentemente en aplicaciones en ciencias médicas y sociales- confundiendo estos conceptos y deduciendo conclusiones incorrectas y algunas veces dañinas. Una típica cita de un artículo de un periódico reciente lee ‘Correlaciones dirigen la atención a relaciones fuertes’” Drouet y Kotz , página. 11. Hay un tema interesante, la correlación es una relación lineal, hay portafolios cuya baja correlación en determinadas etapas contrasta tiempos en los que una grupo de eventos determinados suceden en forma síncrona (Un ejemplo son los incumplimientos en un portafolio de créditos masivos en etapas de crisis contra fases con bajo número de incumplimientos). Es decir hay fenómenos que no exhiben un comportamiento lineal, la correlación es por naturaleza, lineal. Por tanto “este coeficiente nunca debería usarse sin investigar primero la relación en forma completa para ver si sigue una línea recta” Drouet y Kotz, página. 12. La diferencia entre correlación e independencia permite la existencia de eventos con correlación cero, que son de hecho dependientes. El tema de la dependencia en valores extremos, en situaciones calamitosas, es sumamente relevante por la posibilidad de que la dependencia entre los eventos se de justamente en el peor momento, es decir que “las desgracias vengan juntas”. En riesgo operativo cualquier pérdida es mala, varias juntas peor; pero varias juntas y grandes en un periodo muy corto pueden significar la muerte

40

financiera de una entidad, la recurrencia de este tipo de eventos, por ejemplo pérdidas, es lo que se denomina dependencia en la cola. Si se modelan las pérdidas conjuntas como valores positivos estamos ante un caso de dependencia en la cola superior. I.3.- Necesidad Teórica de la Prueba.

En este capítulo hacemos uso de las transformaciones a las variables aleatorias introducidas en el capítulo anterior. Como se vio en ese capítulo, las variables se pueden modelar como marginales Fréchet, pero ¿estas variables tienen una relación de dependencia o buscamos algo que no existe? Porque si no hay tal dependencia y se introducen estas variables a las rutinas de estimación de parámetros, seguramente se obtendrán parámetros, aun cuando muestren una gran cercanía a la independencia, esto implicará sobreestimar las medidas de riesgo. Lo contrario es cierto también: Modelar independencia cuando las variables exhiban dependencia en valores extremos llevará a subestimar las medidas de riesgo. Apuntan Falk, Hüsler y Reiss que “Los efectos de especificar erróneamente, tal como modelar datos dependientes con variables aleatorias independientes fueron descritos por Dupuis y Tawn (98). Siguiendo a Ledford y Tawn llegan a la siguiente conclusión: ‘Parece ser apropiado probar la evidencia significativa contra la dependencia asintótica antes de proceder con un modelo asintótico independiente’ Probar independencia en la cola es, por tanto, obligatorio en el análisis de valores extremos. II.4- Fundamento Teórico de la Prueba

Las pruebas se basan en el trabajo de Falk, y Falk-Michel (Testing for tail independence in extreme value models), en este trabajo se presentan 4 pruebas en sus versiones bivariada y multivariada. En este trabajo se implementaron las dos más relevantes: Neyman-Pearson y Kolmogorov-Smirnov El fundamento de las pruebas estadísticas reside en el hecho de que para un grupo de variables que exhiben valores extremos, y cuyas variables trasformadas a valores acotados de (-∞,0]2, (y su versión multivariada (-∞,0]d), cuya función de distribución coincide para x,y ≤ 0 cerca del cero con una DVE G con marginales exponenciales, esta G se representa como: ⎛ ⎛ ⎜ d ⎜ x ⎞ ⎜ x1 ⎛ ⎜ G ( x1 ,..., xn ) = exp ⎜ ∑ xi ⎟ D d ,..., d d −1 ⎜ ⎝ i =1 ⎠ ⎜ xi ⎜ ⎜ ∑ xi ∑ i =1 ⎝ i =1 ⎝

⎞⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠⎠

(II.1)

41

En donde D es la función de dependencia conocida como función de dependencia de Pickands, y D:[0,1]Æ[1/2,1]. D es absolutamente convexa ya satisface D(0)=D(1)=1, y su derivada D’(z) tiene valores entre -1 y 1. Los casos de D(z)=1 y D(z)=max(z,1-z), con z estando contenida en [0,1] caracterizan los casos de independencia y completa dependencia de las marginales de G. De donde se deriva la siguiente prueba de hipótesis para los modelos DVE: H0: D(z)=1 contra H1: D(z)≠1 Es decir la prueba se basa en buscar probar que la función de dependencia es igual a uno y que en tal caso las variables de VE son independientes. Las pruebas se basan también en la distancia aleatoria C=Xi + Yi condicionales a que esta variable excede un umbral dado c, Xi+ Yi > c. Se establece que la distribución condicional (X+Y)/c, dado que X+ Y > c, tiene como función de distribución límite F(t)=t2, (F(t)=td para el caso multivariado) conforme c se aproxima al 0, si y solo si D(z)=1, de otra manera F(t)=t. II.5.- Exposición de las pruebas

II.5.1.- Prueba Basada en la distancia C. Si tenemos n copias independientes (X1, Y1),…, (Xn, Yn) de (X, Y). Se fija c ≤ 0 y se consideran únicamente las observaciones Xi + Yi de la muestra con Xi+ Yi > c. Los resultados se denotan con Ci : C1, C2, …,Cn, en el orden de salida. La prueba basada en la distancia C, se basa en trabajar con las observaciones que exceden un umbral bivariado o multivariado, es el equivalente al umbral univariado del método “POT” (Excesos sobre un Umbral). Gráfico II.1.- Puntos de Aceptación y rechazo para Ci. -0.10

-0.09

-0.08

-0.07

-0.06

-0.05

-0.04

-0.03

-0.02

-0.01

0.0

-0.010

1

-0.02

7

-0.03

5

6

Ci C1 C2 C3

-0.04 -0.05

3 2

-0.06 -0.07

4

-0.08

8

C4 C5

Punto 1.2.3.4.5.6.7.8.-

Si c = - 0.1 X+Y -0.09 -0.07 0.08 -0.14 -0.11 -0.05 -0.05 -0.12

¿Xi+ Yi > c? Se Acepta Se Acepta Se Acepta Se Rechaza Se Rechaza Se Acepta Se Acepta Se Rechaza

-0.09 -0.10

Nota: Cada uno de los puntos en el cuadro representan diferentes distancias Ci= Xi + Yi, esta distancia se compara contra el umbral c, el par de variables se acepta si Ci > c. Se sigue un criterio similar en el caso multivariado.

42

II.5.2.- Prueba Neyman- Pearson Tenemos que decidir si el parámetro de D de Vi:= Ci/c, i=1,2,.. Es igual a la hipótesis nula F(0)(t)=t2 , o la alternativa F(0)(t)=t,0≤ t ≤1. m ⎛ m 1 ⎞ ⎟⎟ = −∑ log(Vi ) − m log(2 ) T (V1 ,..., Vm ) := log⎜⎜ ∏ i =1 ⎝ 1=1 2Vi ⎠

(II.2)

F(0) es rechazada si T(V1,…,Vm) se hace muy grande, o el p-value es pequeño. Prueba Neyman- Pearson p-value Este p-value se deriva del lema Neyman Pearson y es por este el que se da tal nombre a la prueba. El lema Neyman Pearson se desarrolló en el ambiente de métodos de evaluación de pruebas y describe cómo maximizar una suma o integral (La potencial) sujeta a una restricción (nivel α). La adaptación particular que se utilizará prueba una relación no lineal que en forma asintótica utiliza la distribución normal para definir la región de aceptación-rechazo de la prueba. El p-value óptimo para la prueba que se deriva del lema Neyman Pearson es:

p NP

⎛ m ⎞ ⎜ 2∑ log(Vi ) + m ⎟ ⎟ ≈ Φ⎜ i =1 1 ⎜ ⎟ 2 m ⎜ ⎟ ⎝ ⎠

(II.3)

Para una m grande según el teorema de límite central, donde es la función de distribución normal estándar. Como es usual un p-value mayor a 0.05 implica rechazar la hipótesis de independencia entre X e Y. Cuando se tienen variables con dependencia en la cola la Prueba Neyman- Pearson se comporta mejor.

43

II.5.3.- Prueba Kolmogorov Smirnov (KS) Para la prueba KS se aplica a U1,…. Um, condicional a que k(n)=m. U i = Fc (Ci / c) =

1 − (1 − Ci ) exp(Ci ) , 1 − (1 − c ) exp(c )

1 ≤ i ≤ m,

(II.4)

Se denota como sigue la función de distribución de U1,…. Um: ∧

m

F m (t ) := m −1 ∑1[ 0,t ] (U i )

(II.5)

i =1

El estadístico K-S está dado por: ∧

Δ m := m1 2 sup | F m (t ) − t |

(II.6)

t∈[ 0 ,1]

El p-value es:

pKS := 1 − K (Δ m )

(II.7)

La hipótesis de que X e Y son independientes en la cola si p-value es pequeño. Para m>30, la hipótesis se rechaza si Δm>cα, donde c0.05=1.36 y c0.01=1.63 son los valores críticos para los errores tipo I 0.05 y 0.01, niveles de confianza del 9% y 99%. Cuando se tienen umbrales no cercanos a cero, se debe aplicar la prueba Kolmogorov Smirnov.

44

II.6.- Aplicación de las pruebas de independencia a casos bivariados simulados.

Cada prueba fue realizada para diferentes umbrales (Valores de c) para analizar el comportamiento de la prueba en la vecindad del cero y lejos de esta. Resultados bivariados con la Prueba Neyman Pearson aplicada a variables simuladas de las cuales se conoce que no tienen dependencia el la cola: Tabla II.1

Prueba Neyman Pearson Bivariada Variables Independientes c

T -0.0095 -0.0195 -0.0295 -0.0395 -0.0508 -0.1008 -0.1508 -0.2008 -0.2508 -0.3007 -0.3507 -0.4007 -0.5007 -0.5995 -0.7007 -0.8007 -0.9007 -1.0007 -1.1007 -1.2007 -1.3007 -1.3995

0.000 0.000 0.000 0.000 0.000 -2.776 -6.326 -9.186 -11.822 -11.476 -7.240 -2.459 -6.350 -7.253 -8.878 16.412 39.948 61.004 80.052 97.443 113.442 128.077

Z No Aplica No Aplica No Aplica No Aplica No Aplica 1.320 1.343 0.979 0.612 -0.221 -1.606 -2.930 -3.027 -3.644 -4.174 -7.784 -11.113 -14.090 -16.784 -19.244 -21.506 -23.576

Pvalue No Aplica No Aplica No Aplica No Aplica No Aplica 90.67% 91.04% 83.62% 72.98% 41.25% 5.42% 0.17% 0.12% 0.01% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00%

m 0 0 0 0 0 6 18 33 50 64 73 81 118 155 198 200 200 200 200 200 200 200

Nota: c representa el umbral bivariado en el sentido en que se explica en la nota al Gráfico II.1.

La prueba indica que no se puede descartar independencia hasta el umbral -0.35, el área en que falla la prueba está suficientemente lejos del cero. Ya que son relevantes los valores en la vecindad del cero, la prueba hace concluir independencia.

45

En el siguiente ejemplo se partió de dos grupos de variables simuladas, cada par con un nivel de dependencia conocido (por construcción). Tabla II.2.- Prueba Neyman Pearson aplicada a variables dependientes Simuladas. Prueba Neyman Pearson Bivariada Dependencia λ=10 c -0.0095 -0.0195 -0.0295 -0.0395 -0.0508 -0.1008 -0.1508 -0.2008 -0.2508 -0.3007 -0.3507 -0.4007 -0.5007 -0.5995 -0.7007 -0.8007 -0.9007 -1.0007 -1.1007 -1.2007 -1.3007 -1.3995

T

Z

11.733 20.846 29.574 31.989 39.700 78.080 158.676 215.964 260.443 296.808 327.567 354.219 398.773 434.771 465.982 492.662 516.197 537.253 556.301 573.692 589.691 604.326

-6.815 -8.937 -10.708 -10.521 -11.672 -16.505 -27.903 -36.005 -42.295 -47.438 -51.788 -55.557 -61.858 -66.949 -71.363 -75.136 -78.464 -81.442 -84.136 -86.595 -88.858 -90.928

Prueba Neyman Pearson Bivariada Dependencia λ=2 Pvalue 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000%

m 22 42 58 84 107 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200

c -0.0095 -0.0195 -0.0295 -0.0395 -0.0508 -0.1008 -0.1508 -0.2008 -0.2508 -0.3007 -0.3507 -0.4007 -0.5007 -0.5995 -0.7007 -0.8007 -0.9007 -1.0007 -1.1007 -1.2007 -1.3007 -1.3995

T 7.744 13.770 22.076 33.327 39.757 80.599 161.195 218.483 262.962 299.327 330.086 356.738 401.292 437.290 468.501 495.181 518.716 539.772 558.820 576.211 592.210 606.845

Z -5.082 -6.681 -8.540 -10.836 -11.649 -16.861 -28.259 -36.361 -42.651 -47.794 -52.144 -55.913 -62.214 -67.305 -71.719 -75.492 -78.821 -81.798 -84.492 -86.952 -89.214 -91.284

Pvalue 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000% 0.000%

m 23 46 68 83 109 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200

En los casos de dependencia la prueba indica casi para todo umbral que no se puede rechazar independencia en los pares analizados. Los parámetros de dependencia sin embargo son muy distintos. 10 y 2. Ahora se presentan los resultados con la Prueba Kolmogorov-Smirnov: Tabla II.3.- Prueba KS aplicada a variables independientes simuladas. Combinación de 2 variables distribuidas GPD, umbrales diversos PRUEBA KS A VARIABLES INDEPENDIENTES c= -0.0100 -0.0200 -0.0300 -0.0400 -0.0500 -0.1000 -0.1500 -0.2000 -0.2500 -0.3000 -0.3500 -0.4000 -0.5000 -0.6000 -0.7000 -0.8000 -0.9000 -1.0000 -1.1000 -1.2000 -1.3000 -1.4000

Max_Emp No Aplica No Aplica No Aplica No Aplica No Aplica 0.3894 0.2419 0.1466 0.0958 0.0944 0.1500 0.2028 0.1395 0.1115 0.0874 0.2047 0.3300 0.4218 0.4911 0.5449 0.5876 0.6221

Max_Ref No Aplica No Aplica No Aplica No Aplica No Aplica 0.5190 0.3090 0.2310 0.1943 0.1713 0.1592 0.1521 0.1257 0.1092 0.0967 0.0962 0.0962 0.0962 0.0962 0.0962 0.0962 0.0962

n 0 0 0 0 0 6 18 33 49 63 73 80 117 155 198 200 200 200 200 200 200 200

pvalue No Aplica No Aplica No Aplica No Aplica No Aplica 92.28% 14.20% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01%

Dn_Emp No Aplica No Aplica No Aplica No Aplica No Aplica 0.9539 1.0263 0.8420 0.6707 0.7492 1.2815 1.8139 1.5092 1.3882 1.2301 2.8952 4.6676 5.9647 6.9454 7.7066 8.3105 8.7983

Dn_Ref No Aplica No Aplica No Aplica No Aplica No Aplica 1.2713 1.3110 1.3270 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600

46

Nota: Aparte del criterio p-value, no se puede rechazar independencia en el caso de la KS si Max_Emp > Max_Ref, también si Δn_Emp > Δn_Ref

La prueba indica independencia para umbrales -0.35 y mayores guiados por el estadístico que compara la distancia máxima aceptable entre las distribuciones acumuladas empírica y teórica (Sombreado claro en Max_emp-Max_Ref ). No obstante el p-value indica un umbral más bajo para asegurar independencia. Ahora se aplica la prueba KS a las variables simuladas con dependencia conocida. Tabla II.4.- Prueba KS a variables con dependencia alta. Variables con λ = 10 Prueba Kolmogorov Smirnov c= -0.0100 -0.0200 -0.0300 -0.0400 -0.0500 -0.1000 -0.1500 -0.2000 -0.2500 -0.3000 -0.3500 -0.4000 -0.5000 -0.6000 -0.7000 -0.8000 -0.9000 -1.0000 -1.1000 -1.2000 -1.3000 -1.4000

Max_Emp 0.51 0.39 0.36 0.29 0.24 0.29 0.55 0.74 0.83 0.87 0.90 0.92 0.95 0.96 0.97 0.98 0.98 0.98 0.98 0.99 0.99 0.99

Max_Ref 0.275 0.210 0.177 0.148 0.131 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096 0.096

c= n 23 42 59 84 107 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200 200

pvalue 3.97% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01%

Dn_Emp 2.4660 2.4991 2.7708 2.6122 2.5062 4.0528 7.7116 10.4042 11.6703 12.3688 12.7964 13.0780 13.4160 13.6048 13.7217 13.7996 13.8542 13.8943 13.9245 13.9480 13.9666 13.9817

-0.1 Dn_Ref 1.3189 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600

La prueba para variables con alta dependencia indica que descarta independencia a todos los niveles de umbral. En el siguiente ejemplo (Tabla II.5) se supuso baja dependencia y procedencia de umbrales muy bajos (-0.7) por ello la prueba falla para umbrales muy bajos, de hecho en esta variable debería tenerse mucho cuidado: hay dependencia en umbrales muy bajos, lo que significa que hay pocos valores extremos (vecindad del cero) y que en todo caso para modelar solo los valores extremos debería suponerse independencia (umbral -0.10 y mayores).

47

Tabla II.5.- Prueba KS a variables con dependencia baja y umbral lejano a cero. Variables con λ = 2 Prueba Kolmogorov Smirnov c= -0.0100 -0.0200 -0.0300 -0.0400 -0.0500 -0.1000 -0.1500 -0.2000 -0.2500 -0.3000 -0.3500 -0.4000 -0.5000 -0.6000 -0.7000 -0.8000 -0.9000 -1.0000 -1.1000 -1.2000 -1.3000 -1.4000

Max_Emp 0.4570 0.4141 0.4824 0.4485 0.3639 0.4419 0.2996 0.2666 0.1978 0.1705 0.1729 0.1593 0.1690 0.1754 0.1590 0.2368 0.3314 0.4243 0.4945 0.5491 0.5923 0.6273

Max_Ref 0.7080 0.5190 0.4540 0.4090 0.3610 0.2940 0.2270 0.2074 0.1741 0.1540 0.1434 0.1321 0.1158 0.1056 0.0962 0.0962 0.0962 0.0962 0.0962 0.0962 0.0962 0.0962

n 3 6 8 10 13 20 34 43 61 78 90 106 138 166 200 200 200 200 200 200 200 200

c=

-0.7

pvalue 100% 92% 79% 63% 39% 9% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0%

Dn_Emp 0.7915 1.0144 1.3644 1.4181 1.3121 1.9761 1.7472 1.7480 1.5451 1.5061 1.6403 1.6401 1.9851 2.2593 2.2489 3.3483 4.6862 6.0003 6.9939 7.7652 8.3771 8.8713

Dn_Ref 1.2263 1.2713 1.2841 1.2934 1.3016 1.3148 1.3236 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600

Nótese en estos ejercicios que el umbral con el que se filtra el número máximo de extremos simulados, se encuentra exactamente en el umbral de donde procede el par de variables.

48

II.7.- Aplicación a Pares de Variables Empíricas de Riesgo Operativo.

Aquí se presentan los resultados de las pruebas presentadas a 3 variables de eventos de riesgo operativo. Realizando las pruebas por pares.

Gráfica II.2. Variables OR-1,2 y 3 en el cuadrante negativo. -1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10

0.00

-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10

0.00

0.00

0.00

-0.10

-0.10

-0.20

-0.20

-0.30

-0.30

-0.40

-0.40

-0.50

-0.50

-0.60

-0.60

-0.70

-0.70

-0.80

-0.80 -0.90

-0.90

-1.00

-1.00

-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10

0.00 0.00 -0.10 -0.20 -0.30 -0.40 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00

En las gráficas se puede observar dispersión y pocas observaciones en la vecindad del cero. Esta herramienta visual hace prever dificultad al no descartar independencia, al menos no en la vecindad del cero como es condición

49

Neyman Pearson: Tabla II.6.- Prueba Neyman-Pearson aplicada a tres variables empíricas por pares. Prueba Neyman Pearson Bivariada OR-1; OR2 c -0.0095 -0.0195 -0.0295 -0.0395 -0.0508 -0.1008 -0.1508 -0.2008 -0.2508 -0.3007 -0.3507 -0.4007 -0.5007 -0.5995 -0.7007 -0.8007 -0.9007 -1.0007 -1.1007 -1.2007 -1.3007 -1.3995

T 0.000 0.000 0.000 0.000 0.000 0.000 -0.692 -1.060 -0.615 -2.132 -2.622 -2.994 -4.948 -8.179 -8.249 -14.466 -14.154 -14.257 -17.287 -15.904 -16.291 -11.890

Z No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.997 0.953 0.324 1.043 0.960 0.837 0.929 1.239 0.653 1.360 0.718 0.224 0.232 -0.427 -0.779 -1.784

Prueba Neyman Pearson Bivariada OR-2; OR3 Pvalue No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 84.058% 82.972% 62.704% 85.159% 83.149% 79.877% 82.345% 89.224% 74.304% 91.309% 76.369% 58.855% 59.171% 33.473% 21.812% 3.720%

m 0.000 0.000 0.000 0.000 0.000 0.000 1.000 2.000 2.000 5.000 7.000 9.000 16.000 26.000 33.000 50.000 59.000 69.000 84.000 93.000 105.000 110.000

c -0.0095 -0.0195 -0.0295 -0.0395 -0.0508 -0.1008 -0.1508 -0.2008 -0.2508 -0.3007 -0.3507 -0.4007 -0.5007 -0.5995 -0.7007 -0.8007 -0.9007 -1.0007 -1.1007 -1.2007 -1.3007 -1.3995

T 0.000 0.000 0.000 0.000 0.000 -0.510 -0.107 0.180 0.402 -1.198 -0.583 -1.210 -3.293 -3.088 -5.094 -3.471 -3.821 -3.938 -3.314 -3.967 -1.173 -2.562

Z No Aplica No Aplica No Aplica No Aplica No Aplica 0.633 -0.173 -0.746 -1.191 0.425 -0.190 0.042 0.563 0.098 0.360 -0.475 -0.661 -0.902 -1.306 -1.366 -2.241 -2.075

Pvalue No Aplica No Aplica No Aplica No Aplica No Aplica 73.663% 43.134% 22.788% 11.690% 66.475% 42.477% 51.676% 71.322% 53.916% 64.061% 31.727% 25.428% 18.359% 9.575% 8.590% 1.250% 1.899%

Prueba Neyman Pearson Bivariada OR-1; OR3 m 0.000 0.000 0.000 0.000 0.000 1.000 1.000 1.000 1.000 4.000 4.000 6.000 12.000 15.000 22.000 24.000 29.000 34.000 38.000 44.000 45.000 52.000

c -0.0095 -0.0195 -0.0295 -0.0395 -0.0508 -0.1008 -0.1508 -0.2008 -0.2508 -0.3007 -0.3507 -0.4007 -0.5007 -0.5995 -0.7007 -0.8007 -0.9007 -1.0007 -1.1007 -1.2007 -1.3007 -1.3995

T 0.000 0.000 0.000 0.000 0.000 -0.510 -0.107 0.180 0.402 -1.198 -0.583 -1.210 -3.293 -3.088 -5.094 -3.471 -3.821 -3.938 -3.314 -3.967 -1.173 -2.562

Z No Aplica No Aplica No Aplica No Aplica No Aplica 0.633 -0.173 -0.746 -1.191 0.425 -0.190 0.042 0.563 0.098 0.360 -0.475 -0.661 -0.902 -1.306 -1.366 -2.241 -2.075

Pvalue No Aplica No Aplica No Aplica No Aplica No Aplica 73.663% 43.134% 22.788% 11.690% 66.475% 42.477% 51.676% 71.322% 53.916% 64.061% 31.727% 25.428% 18.359% 9.575% 8.590% 1.250% 1.899%

m 0.000 0.000 0.000 0.000 0.000 1.000 1.000 1.000 1.000 4.000 4.000 6.000 12.000 15.000 22.000 24.000 29.000 34.000 38.000 44.000 45.000 52.000

El sombreado claro indica que en el área muy cercana al cero no hay observaciones extremas. Las variables empíricas en sus tres combinaciones no descartan independencia entre cada uno de los pares. Es notable que aun a niveles muy bajos de umbral la prueba indica independencia. El resultado es consistente con el análisis de las gráficas de dispersión en el cuadrante [-1,0], pocas observaciones conjuntas en los valores extremos y dispersión en las observaciones. Esta prueba bastaría para modelar estar variables en forma univariada, habiendo probado que no hay dependencia en la cola.

50

Kolmogorov Smirnov: Tabla II.7.- Prueba Kolmogorov Smirnov aplicada a tres variables empíricas Prueba Kolmogorov Smirnov VARIABLES EMPIRICAS OR-1- OR-2 c= -0.01 -0.02 -0.03 -0.04 -0.05 -0.10 -0.15 -0.20 -0.25 -0.30 -0.35 -0.40 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00 -1.10 -1.20 -1.30 -1.40

Max_Emp Max_Ref No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.5851 0.8420 0.3869 0.8420 0.4640 0.5630 0.3699 0.4830 0.2685 0.4540 0.2288 0.3270 0.1984 0.2590 0.1535 0.2310 0.1705 0.1923 0.1410 0.1771 0.1230 0.1637 0.1268 0.1484 0.1088 0.1410 0.1049 0.1327 0.0843 0.1297

n 0 0 0 0 0 0 0 2 2 5 7 8 16 26 33 50 59 69 84 93 105 110

pvalue No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 100% 100% 96% 86% 79% 22% 1% 0% 0% 0% 0% 0% 0% 0% 0%

VARIABLES EMPIRICAS OR-2- OR-3 Dn_Emp No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.83 0.55 1.04 0.98 0.76 0.92 1.01 0.88 1.21 1.08 1.02 1.16 1.05 1.07 0.88

Dn_Ref No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 1.19 1.19 1.26 1.28 1.28 1.31 1.32 1.33 1.36 1.36 1.36 1.36 1.36 1.36 1.36

c= Max_Emp -0.01 No Aplica -0.02 No Aplica -0.03 No Aplica -0.04 No Aplica -0.05 No Aplica -0.10 No Aplica -0.15 0.61 -0.20 0.38 -0.25 0.31 -0.30 0.50 -0.35 0.37 -0.40 0.24 -0.50 0.37 -0.60 0.29 -0.70 0.27 -0.80 0.21 -0.90 0.19 -1.00 0.16 -1.10 0.14 -1.20 0.13 -1.30 0.11 -1.40 0.10

Max_Ref No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.98 0.84 0.71 0.71 0.62 0.52 0.31 0.26 0.21 0.19 0.17 0.16 0.15 0.14 0.13 0.13

n 0 0 0 0 0 0 1 2 3 3 4 6 18 26 43 51 66 74 87 100 105 113

pvalue Dn_Emp No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 100.0% 0.6090 100.0% 0.5351 99.7% 0.5308 99.7% 0.8703 98.7% 0.7448 92.3% 0.5871 14.2% 1.5858 1.2% 1.4778 0.0% 1.7528 0.0% 1.5273 0.0% 1.5248 0.0% 1.3660 0.0% 1.3211 0.0% 1.2788 0.0% 1.1550 0.0% 1.0864

VARIABLES EMPIRICAS OR-1- OR-3 Dn_Ref No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.9750 1.1908 1.2263 1.2263 1.2480 1.2713 1.3110 1.3206 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600

c -0.01 -0.02 -0.03 -0.04 -0.05 -0.10 -0.15 -0.20 -0.25 -0.30 -0.35 -0.40 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00 -1.10 -1.20 -1.30 -1.40

Max_Emp No Aplica No Aplica No Aplica No Aplica No Aplica 0.70 0.37 0.64 0.76 0.49 0.35 0.37 0.26 0.20 0.17 0.15 0.19 0.23 0.20 0.19 0.16 0.14

Max_Ref No Aplica No Aplica No Aplica No Aplica No Aplica 0.98 0.84 0.84 0.84 0.71 0.56 0.43 0.35 0.29 0.25 0.22 0.18 0.16 0.15 0.14 0.13 0.13

n 0 0 0 0 0 1 2 2 2 3 5 9 14 21 29 38 56 75 85 97 105 113

pvalue No Aplica No Aplica No Aplica No Aplica No Aplica 100.0% 100.0% 100.0% 100.0% 99.7% 96.4% 71.1% 32.8% 6.8% 0.1% 0.0% 0.0% 0.0% 0.0% 0.0% 0.0% 0.0%

Dn_Emp No Aplica No Aplica No Aplica No Aplica No Aplica 0.7022 0.5279 0.8990 1.0735 0.8554 0.7748 1.1042 0.9726 0.9294 0.9222 0.9152 1.4170 2.0309 1.8793 1.8551 1.6719 1.5328

Dn_Ref No Aplica No Aplica No Aplica No Aplica No Aplica 0.9750 1.1908 1.1908 1.1908 1.2263 1.2589 1.2900 1.3058 1.3152 1.3248 1.3253 1.3600 1.3600 1.3600 1.3600 1.3600 1.3600

La prueba aplicada al grupo de variables empíricas de pérdidas operativas, nuevamente no descarta independencia hasta niveles incluso suficientemente lejanos del cero.

51

II.8.- Exposición de las versiones multivariadas de las pruebas de independencia.

Aquí se expone la extensión de las pruebas a dimensiones generales del artículo de Falk y Michel. II.8.1.- Función DVE multivariada. Con (X1,…,Xd), es un vector aleatorio con valores en (-∞,0]d , cuya función de distribución H(x1,…,xd) coincide para (x1,…,xd) cercano a 0 con una EVD G(x1,…,xd) con marginales reversa exponenciales, por ejemplo,

x ⎞ ⎛x G n ⎜ 1 ,..., d ⎟ = G(x1 ,..., xd ) n⎠ ⎝n

G(0,…0, xk,0,…,0)= exp(xk), xk ≤ 0, 1≤ k ≤ d, y Que también se puede representar como

⎛ G ( x1 ,..., xd ) = exp⎜ ⎜ ⎝

(∑

⎛ x1 xd −1 ,..., x D⎜ k ≤d k ⎜ ∑ xk ∑ k ≤ d xk ⎝ k ≤d

)

⎞⎞ ⎟⎟ ⎟⎟ ⎠⎠

(II.8)

Donde la función de dependencia de Pickands en d dimensiones se representa para el caso multivariada como: D : {( z1 ,..., z d −1 ) ∈ [0,1]

d −1

: ∑ k ≤ d −1 z k ≤ 1} → [1 d ,1]

Nuevamente es convexa y los casos de independencia completa se representan con

D ( z1 ,..., z d −1 ) = 1

(

D ( z1 ,..., z d −1 ) = max z1 ,..., z d −1 ,1 − ∑ k ≤ d −1 z k

)

52

II.8.2.- Neyman Pearson Versión Multivariada: Con (X1,…,Xd), es un vector aleatorio con valores en (-∞,0]d, cuya función de distribución H(x1,…,xd) coincide para (x1,…,xd) cercano a 0 con una EVD G(x1,…,xd) con marginales reversa exponenciales. m ⎛ m 1 ⎞ ⎟ ( ) T (V1 ,..., Vm ) := log⎜⎜ ∏ = − d − 1 log(Vi ) − m log(d ) ∑ d −1 ⎟ i =1 ⎝ 1=1 dVi ⎠

p NP

(II.9)

⎛ m ⎞ ⎜ d ∑ log(Vi ) + m ⎟ ⎟ ≈ Φ⎜ i =1 1 ⎜ ⎟ m 2 ⎜ ⎟ ⎝ ⎠

(II.10)

II.8.3.- Prueba Kolmogorov Smirnov (KS) Versión Multivariada:. Para la Kolmogorov-Smirnov, tenemos que si X1,….,Xd son independientes en la cola superior, entonces tenemos uniformemente para t perteneciente a [0,1) conforme c se aproxima a cero:

(

)

Fc,d (t ) := P ∑k ≤d X k > ct | ∑k ≤d X k > c =

(

1 − exp(ct )∑0≤ j ≤d −1 (− ct ) / j ! j

1 − exp(c )∑0≤ j ≤d −1 (− c ) / j ! j

= t d (1 + O(c ))

(II.11)

)

P ∑k ≤ d X k > ct | ∑k ≤ d X k > c = t (1 + O(c )) Ahora la variable aleatoria Ui presentada en el caso bivariado se representa con: 1 − exp(C i )∑0≤ j ≤ d −1 (− C i ) / j ! j

U i := Fc ,d (C i / c) =

1 − exp(c )∑0≤ j ≤ d −1 (− c ) / j !

donde C i = ∑k ≤ d X k(i ) , i ≤ K (n )

j

,

1 ≤ i ≤ K (n),



k ≤d

(II.12)

X k(i ) > c

53

II.9.- Aplicación de la Prueba Multivariada a Tres conjuntos de Datos con d=3. Neyman Pearson Tabla II.8.- Prueba Neyman Pearson a Conjunto de Variables Empíricas Combinación de 3 variables independientes, bajo umbral Variables con parámetro de dependencia, λ=10; λ=2.5 Prueba Neyman Pearson Multivariada Prueba Neyman Pearson Multivariada c= -0.1 c -0.01 -0.02 -0.03 -0.04 -0.05 -0.06 -0.07 -0.08 -0.09 -0.10 -0.10 -0.11 -0.12 -0.13 -0.14 -0.15 -0.16 -0.17 -0.18 -0.19 -0.20 -0.25 -0.30 -0.35 -0.40 -0.45 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00 -1.10 -1.20 -1.30 -1.40

m 0 0 0 0 0 1 1 2 2 2 2 2 3 5 5 9 10 12 15 16 22 35 55 71 87 101 115 147 166 187 195 200 200 200 200 200

T 0.0 0.0 0.0 0.0 0.0 -0.8 -0.4 -1.3 -0.8 -0.4 -0.4 0.0 -0.6 -2.1 -1.4 -5.0 -4.8 -5.6 -7.4 -6.8 -11.4 -14.2 -20.1 -18.5 -14.8 -8.2 -1.0 11.5 38.9 63.7 99.9 136.1 174.2 209.0 241.1 270.7

Prueba PV No Aplica No Aplica No Aplica No Aplica No Aplica 0.483 0.021 0.429 -0.071 -0.475 -0.518 -0.922 -0.601 -0.010 -0.507 0.540 0.232 0.201 0.344 -0.051 0.606 -0.240 -0.741 -2.173 -3.656 -5.283 -6.809 -9.278 -12.882 -15.845 -19.781 -23.600 -27.644 -31.336 -34.732 -37.876

pv-value No Aplica No Aplica No Aplica No Aplica No Aplica 68.56% 50.84% 66.61% 47.19% 31.74% 30.24% 17.83% 27.40% 49.61% 30.61% 70.54% 59.17% 57.95% 63.47% 47.97% 72.78% 40.52% 22.95% 1.49% 0.01% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00%

Resultado a No Aplica No Aplica No Aplica No Aplica No Aplica NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI NSRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI

c -0.01 -0.02 -0.03 -0.04 -0.05 -0.06 -0.07 -0.08 -0.09 -0.10 -0.10 -0.11 -0.12 -0.13 -0.14 -0.15 -0.16 -0.17 -0.18 -0.19 -0.20 -0.25 -0.30 -0.35 -0.40 -0.45 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00 -1.10 -1.20 -1.30 -1.40

m 9 15 22 33 39 49 58 73 86 98 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100

T Prueba PV 5.60 -5 16.48 -9 23.92 -11 27.14 -11 37.25 -13 42.22 -14 48.61 -15 49.52 -14 53.98 -15 58.66 -15 58.45 -15 77.51 -18 94.91 -21 110.92 -23 125.74 -25 139.54 -27 152.45 -29 164.58 -31 176.01 -33 186.82 -35 197.08 -36 241.71 -43 278.17 -48 309.00 -53 335.71 -57 359.27 -60 380.34 -64 416.80 -69 447.63 -74 474.34 -78 497.89 -81 518.97 -84 538.03 -87 555.43 -90 571.44 -92 586.26 -94

pv-value 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00%

Resultado SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI SRI

Variables Empíricas (OR-1, OR-2, OR-3) Prueba Neyman Pearson Multivariada b

c -0.01 -0.02 -0.03 -0.04 -0.05 -0.06 -0.07 -0.08 -0.09 -0.10 -0.10 -0.11 -0.12 -0.13 -0.14 -0.15 -0.16 -0.17 -0.18 -0.19 -0.20 -0.25 -0.30 -0.35 -0.40 -0.45 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00 -1.10 -1.20 -1.30 -1.40

m 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 2 2 2 6 7 14 18 23 33 45 52 57

T 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 -1.04 -0.93 -0.83 -0.38 -0.02 0.29 -0.49 -0.02 0.40 -2.50 -1.68 -6.27 -6.77 -7.85 -13.21 -19.48 -19.46 -16.87

pv-value No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.82 0.77 0.72 0.47 0.27 0.14 0.35 0.18 0.09 0.48 0.22 0.53 0.36 0.26 0.39 0.50 0.27 0.06

pv-value Resultado No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 81.91% NSRI 77.33% NSRI 72.44% NSRI 47.07% NSRI 26.75% NSRI 13.94% NSRI 34.57% NSRI 18.49% NSRI 8.95% NSRI 47.87% NSRI 22.37% NSRI 53.48% NSRI 36.09% NSRI 25.73% NSRI 39.21% NSRI 50.41% NSRI 26.64% NSRI 6.19% NSRI

La aplicación de la prueba en su versión multivariada confirma para los casos de variables con independencia y con dependencia que ésta clasifica bien los casos. Para el conjunto de variables empíricas encontramos que hasta un umbral tan bajo como -1.4 no se puede descartar independencia multivariada.

54

Kologorov Smirnov. Tabla II.9.- Prueba Kolmogorov Smirnov a Conjunto de Variables Empíricas Combinación de 3 variables independientes, bajo umbral Prueba Kolmogorov Smirnov Multivariada c= Max_Emp -0.0100 No Aplica -0.0200 No Aplica -0.0300 No Aplica -0.0400 No Aplica -0.0500 No Aplica -0.0600 0.8383 -0.0700 0.7154 -0.0800 0.6233 -0.0900 0.5517 -0.0990 0.4998 -0.1000 0.4946 -0.1100 0.4478 -0.1200 0.4089 -0.1300 0.3994 -0.1400 0.4443 -0.1500 0.3289 -0.1600 0.3024 -0.1700 0.4726 -0.1800 0.5359 -0.1900 0.5260 -0.2000 0.5533 -0.2500 0.4474 -0.3000 0.3996 -0.3500 0.3426 -0.4000 0.3112 -0.4500 0.2400 -0.5000 0.4821 -0.6000 0.8378 -0.7000 0.9759 -0.8000 1.0000 -0.9000 1.0000 -1.0000 1.0000 -1.1000 1.0000 -1.2000 1.0000 -1.3000 1.0000 -1.4000 1.0000

Max_Ref No Aplica No Aplica No Aplica No Aplica No Aplica 0.9750 0.9750 0.8420 0.8420 0.8420 0.8420 0.8420 0.8420 0.8420 0.8420 0.7080 0.7080 0.5630 0.4830 0.4540 0.3910 0.3380 0.2640 0.2420 0.2100 0.1923 0.1817 0.1581 0.1493 0.1403 0.1367 0.1360 0.1360 0.1360 0.1360 0.1360

n 0 0 0 0 0 1 1 2 2 2 2 2 2 2 2 3 3 5 7 8 11 15 25 30 40 50 56 74 83 94 99 100 100 100 100 100

pvalue No Aplica No Aplica No Aplica No Aplica No Aplica 100.00% 100.00% 99.97% 99.97% 99.97% 99.97% 99.97% 99.97% 99.97% 99.97% 99.72% 99.72% 96.39% 86.43% 79.20% 54.41% 27.00% 2.22% 0.07% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01% 0.01%

Dn_Emp No Aplica No Aplica No Aplica No Aplica No Aplica 0.8383 0.7154 0.8815 0.7803 0.7068 0.6994 0.6333 0.5783 0.5648 0.6283 0.5697 0.5238 1.0569 1.4178 1.4878 1.8349 1.7326 1.9982 1.8767 1.9680 1.6971 3.6080 7.2074 8.8909 9.6954 9.9499 10.0000 10.0000 10.0000 10.0000 10.0000

Variables con parámetro de dependencia, λ=10; λ Prueba Kolmogorov Smirnov Multivariada

Dn_Ref c= Max_Emp Max_Ref No Aplica # 0.20 0.430 No Aplica # 0.22 0.338 No Aplica # 0.16 0.281 No Aplica # 0.11 0.231 No Aplica # 0.12 0.213 0.9750 # 0.07 0.194 0.9750 # 0.06 0.179 1.1908 # 0.10 0.159 1.1908 # 0.11 0.147 1.1908 # 0.12 0.137 1.1908 # 0.13 0.136 1.1908 # 0.11 0.136 1.1908 # 0.18 0.136 1.1908 # 0.25 0.136 1.1908 # 0.30 0.136 1.2263 # 0.35 0.136 1.2263 # 0.39 0.136 1.2589 # 0.43 0.136 1.2779 # 0.46 0.136 1.2841 # 0.49 0.136 1.2968 # 0.52 0.136 1.3091 # 0.62 0.136 1.3200 # 0.69 0.136 1.3255 # 0.73 0.136 1.3282 # 0.77 0.136 1.3600 # 0.79 0.136 1.3600 # 0.81 0.136 1.3600 # 0.84 0.136 1.3600 # 0.86 0.136 1.3600 # 0.95 0.136 1.3600 # 1.00 0.136 1.3600 # 1.00 0.136 1.3600 # 1.00 0.136 1.3600 # 1.00 0.136 1.3600 # 1.00 0.136 1.3600 # 1.00 0.136

n 9 15 22 33 39 49 58 73 86 98 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100 100

pvalue Dn_Emp 71.12% 0.6120 27.00% 0.8522 5.22% 0.7707 0.01% 0.6523 0.01% 0.7319 0.01% 0.4573 0.01% 0.4579 0.01% 0.8689 0.01% 1.0640 0.01% 1.1984 0.01% 1.2509 0.01% 1.0781 0.01% 1.8268 0.01% 2.4594 0.01% 3.0007 0.01% 3.4691 0.01% 3.8977 0.01% 4.2753 0.01% 4.6102 0.01% 4.9093 0.01% 5.1778 0.01% 6.1906 0.01% 6.8554 0.01% 7.3214 0.01% 7.6631 0.01% 7.9221 0.01% 8.1230 0.01% 8.4092 0.01% 8.5962 0.01% 9.4813 0.01% 10.0000 0.01% 10.0000 0.01% 10.0000 0.01% 10.0000 0.01% 10.0000 0.01% 10.0000

c= -0.1

Variables Empíricas (OR-1, OR-2, OR-3) Prueba Kolmogorov Smirnov Multivariada

Dn_Ref bc= Max_Emp 1.2900 No Aplica 1.3091 No Aplica 1.3180 No Aplica 1.3270 No Aplica 1.3302 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 No Aplica 1.3600 0.97 1.3600 0.92 1.3600 0.87 1.3600 0.69 1.3600 0.57 1.3600 0.52 1.3600 0.47 1.3600 0.63 1.3600 0.66 1.3600 0.83 1.3600 1.00 1.3600 1.00 1.3600 1.00 1.3600 1.00 1.3600 1.00 1.3600 1.00 1.3600 1.00 1.3600 1.00

Max_Ref No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.98 0.98 0.98 0.98 0.98 0.98 0.84 0.84 0.84 0.52 0.48 0.35 0.31 0.28 0.23 0.20 0.19 0.18

n 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 2 2 2 6 7 14 18 23 33 45 52 57

pvalue No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 100.0% 100.0% 100.0% 100.0% 100.0% 100.0% 100.0% 100.0% 100.0% 92.3% 86.4% 32.8% 14.2% 4.0% 0.0% 0.0% 0.0% 0.0%

Dn_Emp No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.9695 0.9157 0.8674 0.6852 0.5657 0.5182 0.6704 0.8856 0.9367 2.0412 2.6458 3.7417 4.2426 4.7958 5.7446 6.7082 7.2111 7.5498

Dn_Ref No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica No Aplica 0.9750 0.9750 0.9750 0.9750 0.9750 0.9750 1.1908 1.1908 1.1908 1.2713 1.2779 1.3058 1.3110 1.3189 1.3270 1.3600 1.3600 1.3600

También la aplicación de la prueba KS nos confirma las conclusiones obtenidas con la NP.

55

II.10.- Algunas Conclusiones de Falk y Michel sobre su investigación.

En su artículo citado Michel y Falk concluyen que las pruebas Neyman Pearson y Kolmogorov Smirnov son las más útiles de las cuatro que analizan. Citando a estos autores en “Testing for tail independence in extreme value models”: •

“Con c suficientemente cerca de 0, todas las pruebas de independencia son igualmente buenas (Error tipo I). Pero con una c más pequeña, Neyman-Pearson tiene problemas.”



“Cuando se trata de datos dependientes (Error tipo II) Neyman Pearson es la mejor, seguido de Kolmogorov-Smirnov y ji cuadrada en tanto de la kappa de Fisher falla.”



“La prueba Neyman Pearson se desempeña mejor si el umbral c esta cerca de 0, en tanto que en el caso contrario la prueba Kolmogorov Smirnov se desempeña mejor. Las condiciones matemáticas que son estudiadas bajo el enfoque Neyman Pearson, en realidad controlan el error tipo I”

Por tanto, se deben usar las pruebas Neyman-Pearson y Kolmogorov Smirnov cuando se prueba independencia en valores extremos: • •

Resulta que la prueba Kolmogorov-Smirnov tiene un error (dependencia) La NP tiene el error más bajo en independencia. (Error Tipo I)

tipo II bajo.

En el entorno de la prueba de independencia: • •

NP controla mejor error tipo I: Rechazar independencia cuando existe KS controla mejor error tipo II: Aceptar independencia cuando no existe.

La prueba KS funciona mejor para umbrales más lejanos al origen.

56

II.11.- Conclusiones.

En este capítulo se ha presentado la relevancia de la aplicación de las pruebas de independencia en la cola. Asimismo se ha apuntado que se debe cuidar el manejo de los conceptos correlación y dependencia pues no son equivalentes. La aplicación de estas pruebas puede implicar la diferencia entre utilizar un modelo difícil y complicado y uno simple. Se han fundamentado teóricamente las pruebas y presentado estas en sus versiones bivariadas y multivariadas. Para controlar mejor la aplicación de las pruebas se aplicaron a conjuntos de datos con relación de dependencia conocida antes de aplicarlas a los conjuntos de datos empíricos. En particular para el conjunto de datos empíricos analizado se puede concluir independencia. Sin embargo de descartar independencia, habría que tener modelos que permitan trabajar estar relaciones de dependencia en la cola. La siguiente pregunta que le asaltará al lector es “si la prueba me indicara que existe una relación de dependencia entre las variables ¿cuál es esta?, más aún si se trata de más de dos variables con dependencia, ¿Cuáles son sus parámetros de dependencia?”. Ese es el objetivo del siguiente capítulo: Obtener de un conjunto de variables sus parámetros de dependencia suponiendo que siguen un modelo con distribución generalizada de Pareto multivariada.

57

58

Capítulo III ESTIMACIÓN DE LOS PARÁMETROS DE DEPENDENCIA DE LA DISTRIBUCIÓN GENERALIZADA DE PARETO MULTIVARIADA; RELEVANCIA EN LA MEDICIÓN DE RIESGO OPERATIVO III.-1.- Introducción

Este capítulo se centra en el modelo logístico anidado de la DGP-M, más específicamente en la estimación de los parámetros de dependencia para 3 y más dimensiones; ya que el modelo, por sus características, es relevante para situaciones donde exista dependencia en la ocurrencia de eventos extremos (Ejemplo: probabilidad de ocurrencia conjunta de pérdidas operativas significativas). No obstante el modelo logístico simple puede ser también de gran utilidad, el logístico anidado es el único de los analizados por Michel que permite modelar diferentes valores de dependencia entre pares de variables. El modelo logístico simple, en tanto, supone que el parámetro de dependencia que rige entre un grupo de variables es constante. Para comprender el objeto central del artículo es necesario presentar algunos elementos teóricos básicos ligados a los modelos DGP multivariados, estos elementos fueron tomados de los trabajos de Michel tratando de incluir los mínimos indispensables para comprender el desarrollo ulterior. Para mayor profundidad en los temas referidos, y utilizados en este artículo pero no expuestos, se remite al lector a los trabajos fuente. Las expresiones encontradas en este artículo para la densidad angular y utilizadas para la estimación de parámetros, fueron probadas con conjuntos de variables simuladas (y por tanto de parámetros conocidos), con los algoritmos desarrollados por Michel.

III.-2.- Modelos DVE y DGP multivariados.

Una Distribución de Valores Extremos (DVE) con marginales exponenciales negativas se define como sigue: G Hx1 , ..., xd L = exp

‚xi D d

i=1

x1 d ⁄i=1 xi

, ...,

xd -1

⁄di=1 xi

Los valores de xi se encuentran en el cuadrante negativo del plano cartesiano, la función D es llamada función de dependencia de Pickands (Ver capítulo II), es decir: D : Rd -1 Ø @0, 1D donde Rd -1 es el simplex unitario cerrado en d -1

Si G1,…,Gd son DVE univariadas, la transformación de una DVE con marginales exponenciales negativas, a las marginales G1,…,Gd se puede escribir como:

59

G* Hx1 , ..., xd L := G H log HG1 Hx1 LL, ..., log HGd Hxd LLL con xi œ supp HGi L := 8x œ  » Gi HxL > 0<

Subyacente a la distribución Gi tenemos a una distribución de valores extremos G*. Sea X=(X1,…,Xd) un vector aleatorio con función de distribución W (DGP) y representación: W HxL = 1 + ‚xi D d

x1 , d ⁄i=1 xi

...,

xd -1

⁄di=1 xi

W HxL = 1 + log HG Hx1 , ..., xd LL, Hx1 , ..., xd L = xeU i=1

Es decir que en la vecindad U del 0, en el cuadrante negativo (-∞,0)d X sigue una Distribución Generalizada de Pareto Multivariada (DGP-M) con marginales uniformes, D es nuevamente la función de dependencia de Pickands. Nótese que la definición de una DGP-M funciona en forma análoga al caso univariado, es decir mantiene la relación entre DGP y DVE: W* HxL = 1 + log G* HxL,

xeU,

En general, salvo especificación contraria, cuando se hace referencia a las marginales de una DVE, se hace referencia a marginales negativas, en tanto que al hablar de las marginales de una DGP a marginales uniformes. Partiendo de marginales de otro tipo, se puede llegar a marginales uniformes mediante transformaciones. ¿Cuando DVE y DGP son distribuciones en el cuadrante negativo?

El tema es de suma relevancia en la aplicación de ambas distribuciones, pues mientras una función EV es siempre una función de distribución en el cuadrante negativo, una función GP sólo es una función de distribución (DGP) para valores cercanos a cero en el cuadrante negativo. Dadas las transformaciones que se realizan en las variables empíricas para modelarlas en valores extremos, precisamente las observaciones extremas (por ejemplo pérdidas grandes) coinciden en la vecindad del cero en las variables transformadas. Se plantea el siguiente problema ¿a partir de qué umbral en la vecindad del cero tenemos una DGP?, la búsqueda de este umbral multivariado es equivalente a la búsqueda del umbral para una sola variable: es crítico para definir a partir de donde tenemos una distribución. Este umbral tiene también un rol sobresaliente en la estimación de los parámetros de dependencia.

60

III.-3.- Modelo Logístico Anidado: Definición y Características

El modelo logístico anidado es un modelo distribuido GP de tipo jerárquico, que va construyendo la dependencia entre variables en forma recursiva: se determina la dependencia entre dos variables, después la de estas dos con una tercera, luego la de las tres con una cuarta, etc. Del siguiente modo:

d 2

3 4

5

Tabla III.1 Expresión para el Modelo Logístico Anidado

Wl1 Hx1, x2L = 1 - IH-x1Ll1 + H-x2Ll1 M l1 1

Wl1 , l2 Hx1, x2, x3L = 1 - IH- x1L

l1

Wl1 , l2 , l3 Hx1, x2, x3, x4L = 1 -

+ H- x2L M

l2 l1 l1

+ H- x3L

l2 IH- x1Ll1 + H-x2Ll1 M l1

Wl1 ,l2 , l3 ,l4 Hx1, x2, x3, x4, x5L = 1 -

l2

1

l2

+ H- x3Ll2

l2 IH- x1Ll1 + H-x2Ll1 M l1

l3 l2

+ H- x3Ll2

+ H- x4Ll3

l3 l2

1

l3

+ H- x4Ll3

l4 l3

1

+ H- x5Ll4

l4

Lo destacable de este modelo es la posibilidad que da para permitir diferentes grados de dependencia entre los componentes del vector aleatorio subyacente. En este, y en otros modelos para modelar DGP-M, los parámetros de dependencia λ tienen un valor cerca de 1 en independencia y un valor muy grande (λ→∞) para dependencia completa. Sin embargo valores de λ de 5, 7 o 10 indican ya una dependencia importante. Nótese que el número de parámetros de dependencia es igual a d-1, lo cual implica que no tenemos un parámetro de dependencia para cada par posible. Al respecto Joe afirma respecto al modelo para la DVE: “Sería bueno contar, si fuera posible, con una versión multivariada (…) con un parámetro diferente para cada marginal bivariada [m(m-1)/2] parámetros en total, similar a la distribución Normal Multivariada (…). Sin embargo, no hay forma de construir una distribución multivariada de distribuciones bivariadas compatibles.” Figura III.1

En la Figura 1 se muestra que distribución está completamente definida con los parámetros de dependencia indicados en la diagonal marcada con negritas.

X1

X2

X3

X1 X2 X3

λ1 λ13

λ2

X4

λ14

λ14

λ3

X5

λ15

λ25

λ35

X4

X5

λ4

61

Joe explica que “Los parámetros restantes se interpretan en términos de dependencia condicional. (…) El parámetro λ13, mediría el tamaño de la dependencia condicional de la primera y tercer marginales univariadas dada la segunda. (…) En forma similar λ14 mide el tamaño de la dependencia entre las variables marginales primera y cuarta, dadas las marginales segunda y tercera” Cuando todos los parámetros de dependencia son iguales el modelo logístico anidado se reduce al modelo logístico. Joe establece también la siguiente condición para definir la existencia de una distribución de valores extremos y, dada la relación existente entre ambos, en consecuencia de una Generalizada de Pareto: l1 ¥ ... ¥ ld -1 ¥ 1

Michel muestra que la condición parece no ser suficiente, pues en ocasiones la distribución es no acotada y es necesario establecer la siguiente condición, que tiene fuertes implicaciones para el uso del modelo: l1 ¥ ... ¥ ld -1 ¥ d - 1

Es necesario considerar que dada la naturaleza jerárquica del modelo, el orden en que se modelan las variables es de suma importancia, por tanto al trabajar con variables empíricas debemos primero establecer su orden para después modelar. Este tema se abordará al final.

III.-4.- Densidad Angular por medio de Transformaciones de Pickands y de Fréchet.

Cuando se supone que los datos que se están modelando vienen de una DVE o de una DGP, afirma Michel (3) “…hay muchos objetos que pueden ser estimados para tener una idea de la distribución que subyace a los datos. Las posibilidades son: la función de distribución misma, la densidad, la medida del exponente, la función de dependencia, la medida angular, distribución o densidad.” En este capítulo se utiliza la densidad angular maximizada en probabilidad con las variables empíricas, una vez aplicadas las transformaciones de Pickands y de Fréchet. Esta densidad se puede utilizar tanto en la simulación de las variables como la estimación de los parámetros del modelo partiendo de datos empíricos de interés. Michel (1) explica que para el modelo logístico anidado, las densidades angular y de Pickands son difíciles de denotar en d-dimensiones. Esto es porque las expresiones van siendo más complicadas cuando se utilizan mayores dimensiones, el autor revela las siguientes expresiones para d=3, mismas que se pueden utilizar en la estimación de los parámetros de dependencia por máxima verosimilitud:

62

Las expresiones para las densidades angular y de Pickands, son respectivamente: Densidad Angular: ll Hz1 , ..., zd -1 L = Hl2 - 1L Hz1 z2 L

-1 -l1

H1 - z1 - z2 L

-l2 -1

Jz1

-l1

N

l2 -l1 l -2 1

+ z2

Jz1

-l1

N

l2 -l1 l 1

+ z2

1 -3

+ H1 - z1 - z2 L

-l2

l2

-l -l Hl1 - l2 L H1 - z1 - z2 L-l2 + Hl1 + l2 - 1L Jz1 1 + z2 1 N l1 l2

(III.1)

Densidad de Pickands: fl Hz1 , ..., zd -1 L = Hl2 - 1L Hz1 z2 L

l1 -1

H1 - z1 - z2 L

l2 -1

Jz1 + z2 N l1

l2 l1 l -2 1

Jz1 + z2 N l1

l2 l1 l 1

+ H1 - z1 - z2 L

Hl1 - l2 L H1 - z1 - z2 Ll2 + Hl1 + l2 - 1L Jz1 1 + z2 1 N l1 l

l

l2

1 -3

l2

l2

(III.2)

Dado que el proceso seguido para obtener las expresiones para dimensiones mayores es el mismo, se hace necesaria la demostración de (1) y (2), y luego escalar del procedimiento para 4, 5 y más dimensiones. El uso práctico de las expresiones mencionadas supone la transformación de las variables empíricas a variables en el cuadrante negativo 1 (Ver Michel (3)). Una vez en esta escala sufren una segunda transformación: Con la Transformación de Pickands TP (x) para la densidad de Pickands y con la transformación de Fréchet TF (x) para la densidad angular, las que se definen en Michel (1), como sigue: III.4.1 Transformación de Fréchet.

P ara d œ , d > 2, se define la transformación TF : H-¶, 0Ld \ 80< -> Rd -1 ä H-¶, 0L como :

TF HxL =

1 x1 1 ⁄di=1 x i

, ...,

1 x d -1 1

⁄di=1 x i

,

1 1 + ... + := Hz1 , ..., zd -1 , cL x1 xd

(III.3)

TF es conocida como la transformación estándar a coordenadas de Pickands con relación marginales Fréchet, estas coordenadas son z:=(z1,...,zd-1,c). Igualmente, z es el componente angular y c el componente radial.

1

Ver metodología “Piecing Together” para determinar los parámetros de las distribuciones marginales y después la función de dependencia entre estas. Se puede consultar en Reiss, Dieter y Thomas. 63

La transformada inversa de TF está dada por: T F-1 Hz, cL =

1 1 1 1 , ..., , c z1 zd-1 1 - ⁄di=-11 zi

(III.4)

Realizando las operaciones recuperamos la serie de variables aleatorias de x. Igualmente la función mapea uno a uno con TF, por tanto en las expresiones donde aparece hacemos la sustitución uno a uno. III.4.2.- Transformación de Pickands.

Para d œ , d > 2, se define la transformación TP : H-¶, 0Ld \ 80< -> Rd -1 ä H-¶, 0L como : TP HxL :=

x1

⁄id=-11 xi

, ...,

xd -1

, ‚xi = Hz1 , ..., zd -1 , cL d

⁄id=-11 xi i=1

(III.5)

TP es conocida como la transformación estándar a coordenadas de Pickands, estas coordinadas son z:=(z1,...,zd-1,c). Y son equivalentes a las coordinadas polares, siendo z el componente angular y c el componente radial.

La transformada inversa de TP está dada por: TP

-1

Hz, cL = c z1 , ..., zd -1 , 1 - ‚zi d -1 i=1

(III.6)

Igualmente realizando las operaciones recuperamos la serie de variables aleatorias de x. Por otro lado esta función mapea uno a uno con TP, lo que significa que en las expresiones donde aparece hacemos la sustitución uno a uno. Es importante notar lo siguiente de las transformaciones referidas: •

El número de variables es igual a d.



Las variables no se utilizan en su forma cruda, requieren transformaciones previas que son bien conocidas en la teoría de valores extremos y expuestas en el capítulo I.



Rd-1 representa el Simplex unitario en d-1 dimensiones, es decir, que dadas d variables, con las transformaciones de Pickands y de Fréchet se obtienen d-1 componentes angulares.



La TF es en realidad una TP a la que se ha aplicado la transformación y→1/y a los componentes de x. " Esta es la transformación que convierte variables aleatorias exponencialmente distribuidas a variables aleatorias con distribución marginal Fréchet " Michel (3) página 7.

64

III.-5.- Obtención de las Expresiones para obtener las densidades Pickands y angular. III.5.1.- Elementos Previos

Para obtener las expresiones buscadas haremos uso del teorema 2.3.7 en Michel (3); el teorema 2.3 en Michel (3), y el lema 3.1 en Michel (1). Lema para la densidad angular (Michel (2), Teorema 2.3): Sea una distribución generalizada de Pareto W, continuamente diferenciable de orden d. La densidad angular cumple con:

l

1 x1 1 ⁄di=1 x i

, ...,

1 x d -1 1 ⁄di=1 x i

:=

x1 2 ä ... ä xd 2

-Hd +1 L

K1 - ⁄di=1 1 O x1

∑d ∑x 1 ... ∑x d

W Hx1, ..., xd L

Nótese que aunque la densidad angular está expresada en términos de las variables aleatorias, en realidad estas contienen ya implícitamente los componentes angulares indicados en TF, ya que: 1 xj = 1 ⁄id=1 x i

1 ; zj

Sin embargo necesitamos una expresión que se encuentre únicamente en términos de los componentes angulares; y la expresión del teorema anterior incluye a las variables aleatorias sin transformación. Para ellos utilizaremos el siguiente lema. Lema 3.1 de Michel en (Michel (1) y expresión para obtención de la densidad angular: “Sea el vector aleatorio (x1,…,xd) el cual sigue una distribución generalizada de Pareto, con marginales uniformes, por ejemplo, su función de distribución W tiene una representación (…) para una vecindad U de 0, la cual puede ser asumida como un cubo (posiblemente después de una transformación adecuada). Si la función de dependencia de Pickands D tiene derivadas continuas de orden d. Entonces la transformación de Pickands respecto a marginales Fréchet TF (X1,…, Xd) = (Z, C) tiene una densidad f (z, c) en TF (U), que puede ser factorizada respecto a c y z. Más precisamente” 2 : f H z, cL = c-2 l H zL , H z, cL œ T F HU L

Donde l es la densidad angular de W, y es continua. Con esta expresión se obtiene la ecuación buscada. 2

Michel (2) Página 9 65

Michel demuestra, utilizando el teorema para la transformación de la densidad, que la densidad de las coordenadas de Pickands en relación a marginales Fréchet, tiene la forma: f H z, cL =

∑d ∑x 1 ... ∑x d

1 -1 W ITH z, cL , F Hz, cLM det JT F

Con lo que finalmente llega a la siguiente expresión con la que se trabajará en el resto de este artículo. La demostración completa se encuentra en Michel (3) ll Hz1 , ..., zd -1 L := H- cL-d +1

1 z1 2

...

1

1

zd -1 2 I1 - ⁄di=-11 zi M2 .

∑d ∑x 1 ... ∑x d

1 W Hx1, ..., xd L ITF Hz, cLM

(III.7 )

Teorema para la densidad de Pickands (Michel (1) Teorema 2.3.7): Sea 1 < λ < ∞, la densidad de Pickands está dada por: fl Hz1 , ..., zd -1 L := H » c »Ld -1

∑d ∑x 1 ... ∑x d

1 Wl ITP Hz, cLM

(III.8)

III.5.2.- Obtención de las expresiones de las densidades de Pickands y angular para 3 variables aleatorias que siguen una DGP-M. Como se anotó arriba, Michel explica la dificultad para obtener expresiones para las densidades de Pickands y angular para el modelo logístico anidado en dimensiones mayores a 2 y solo presenta el resultado para 3 variables, resultado que utiliza en una aplicación relativa a un problema hidrológico: las probabilidades de descargas extremas en 3 ríos. La obtención de una fórmula cerrada para las densidades es imprescindible para conocer su comportamiento; pero sobre todo para estimar los parámetros de dependencia de un grupo de datos y para simular variables que sigan una DGP-M. Un método adecuado para obtener dichos parámetros es fundamental para que estos modelos puedan ser utilizados en propósitos prácticos, es como el ir de la inspiración de las musas hasta la puesta en escena del teatro. En particular, tales expresiones se utilizarán para aplicar el método de máxima verosimilitud en la obtención de los parámetros de dependencia Ya que en la aplicación del modelo en campos como las finanzas (vgr.: pérdidas extremas en riesgo operativo conjuntas) implica el manejo de relaciones de dependencia en dimensiones superiores, es relevante por tanto no solo revelar el detalle de la obtención de las expresiones para 3 variables, sino hacer explícito el proceso para escalarlo a mayores dimensiones.

66

En lo que sigue se demostrarán las expresiones (1) y (2) para obtener luego las correspondientes a 4 y 5 dimensiones. Asimismo se probarán estos resultados al obtener los parámetros de dependencia de un conjunto de variables con distribución y parámetros conocidos. III.5.2.1.- Obtención de la Expresión para la Densidad Angular 3 dimensiones.

Partimos de la expresión (III.7) Primer Paso: desarrollamos

∑d W Hx1, ..., xd L ∑x1 ... ∑xd

∑d Wl = ∑x1 ... ∑xd 2 l2 -2 = H- x1Ll1-1 H- x2Ll1-1 H- x3Ll2-1 IH-x1Ll1 + H- x2Ll1M l1

l2 IH- x1Ll1 + H- x2Ll1 M l1

1 -2 l2

2 -2 1 - 1 l22 + H- x1Ll1-1 H- x2Ll1-1 H- x3Ll2-1 IH- x1Ll1 + H- x2Ll1 M l1 l2

IH-x1Ll1

l2 + H- x2Ll1M l1

+ H- x3Ll2

1 -3 l2

l

+ H- x3Ll2

1 -2 l2

l1

1 l - 1 l2 2 - 1 l2 l1

(III.9)

El segundo paso es la aplicación una a uno de la transformada inversa de TF.

c=

1 1 1 c -1 1 c -1 1 1 + + ; x1 = = = ; ; x2 = ; x3 = z1 z2 x1 x2 x3 cz1 cz2 c H1 - z1 - z2L

67

ll Hz1, ..., zd-1 L =

1

1

cd-1

z1

2

...

1 zd-1

2

.

1

I1 - ⁄id=-11 zi M2

l1 -1 l1 -1 1 1 1 K O K O - c * z1 - c * z2 - c H1 - z1 - z2L l1 l1 1 1 K O +K O - c * z1 - c * z2

l2 l1

l2 -1

1 + - c H1 - z1 - z2L

l1 -1 l1 -1 1 1 1 K O K O - c * z1 - c * z2 - c H1 - z1 - z2L l1 l1 1 1 K O +K O - c * z1 - c * z2

l2 l1

l1 1 1 K O + - c * z1 H- c * z2L

l2 -1

1 -3 l2 l2

1 -2 l2

l1

1 - 1 l22 + l2

l1 l1 1 1 K O +K O - c * z1 - c * z2

1 + - c H1 - z1 - z2L

1 -2 l2 l2

l1

2 l2 -2 l1

l2 -2 l1

1 l - 1 l2 2 - 1 l2 l1

(III.10)

A la que aplicamos varias transformaciones algebraicas y obtenemos: 1 1 1 1 ll Hz1, ..., zd-1L = * * c2 z12 z22 H1 - z1 - z2L2 HH1 ê H- c * z1LL H1 ê H-c * z2LLLl1-1 H1 ê H- c H1 - z1 - z2LLLl2-1 IH1 ê H- c * z1LLl1 + H1 ê H- c * z2LLl1 M l1

l2 -2

IH1 ê H- c * z1LLl1

l2 + H1 ê H- c * z2LLl1 M l1

+ H1 ê H- c H1 - z1 -

z2LLLl2

1 -3 l2

z2LLLl2

1 -2 l2

IH1 ê H- c * z1LLl1 + H1 ê H- c * z2LLl1 M l1 H1 - 2 l2L H1 - l2L + l2

HH1 ê H- c * z1LL H1 ê H-c * z2LLLl1-1 H1 ê H- c H1 - z1 - z2LLLl2-1 IH1 ê H- c * z1LLl1

l2 l1 l1 -2 + H1 ê H- c * z2LL M

IH1 ê H- c * z1LLl1

l2 + H1 ê H- c * z2LLl1 M l1

+ H1 ê H- c H1 - z1 -

Hl2 - l1L H1 - l2L

(III.11) Que tiene una estructura del siguiente tipo lλ=A·(B+C)

68

El tercer paso consiste en la eliminación del componente radial. Iniciamos factorizando c:

1 1 1 1 ll Hz1, ..., zd-1L = * * c2 z12 z22 H1 - z1 - z2L2 K

1 2 l1-2 1 Hl2-1L 1 Hl2 -2 l1L 1 H-3 l2 +1L 1 l2 O K O K O K O K O HH1 ê z1L H1 ê z2LLl1-1 -c -c -c -c -c H1 ê H1 - z1 - z2LLl2-1 IH1 ê z1Ll1 + H1 ê z2Ll1 M l1

l2 -2

IH1 ê z1Ll1

+

l2 H1 ê z2Ll1M l1

H1 - 2 l2L H1 - l2L + K

+ H1 ê H1 - z1 -

z2LLl2

-3+ 1 l2

IH1 ê z1Ll1 + H1 ê z2Ll1 M l1

l2

1 2 l1-2 1 Hl2-1L 1 H l2-2 l1L 1 H-2 l2 +1L O K O K O K O HH1 ê z1L H1 ê z2LLl1-1 -c -c -c -c

H1 ê H1 - z1 - z2LLl2-1 IH1 ê z1Ll1 + H1 ê z2Ll1 M l1

l2 -2

IH1 ê z1Ll1

+

l2 H1 ê z2Ll1M l1

+ H1 ê H1 - z1 -

z2LLl2

-2+ 1 l2

Hl2 - l1L H1 - l2L

(III.12) Que podemos esquematizar del siguiente modo factorizando c: 1 c2

A K

1 2 l1-2+l2 -1+l2 -2 l1-3 l2+1+l2 1 2 l1 -2+l2 -1+l2-2 l1-2 l2 +1 O B + K O C -c -c

= A HHBL + HCLL

Dado que al realizar el producto de los términos que contienen 1/c, obtenemos c0 =1. Haciendo además la sustitución indicada abajo, obtenemos: H1 - 2 l2L H1 - l2L = Hl2 - 1L H2 l2 - 1L ; ll Hz 1 , ..., z d-1 L = 1 1 1 =

z12

*

z22

*

H1 - z1 - z2L2

l -1 l -1 l l Hl2 - 1L HH1 ê z1L 1 ê z2L 1 H1 ê H1 - z1 - z2LL 2 IH1 ê z1L 1 + H1 ê z2L 1 M l1 l2

IH1 ê z1L

l1

+ H1 ê z2L M

l2 l1 l1

+ H1 ê H1 - z1 - z2LL

1 -3

l2

l2

-2

l l IH1 ê z1L 1 + H1 ê z2L 1 M l1 H2 l2 - 1L + l2

l -1 l -1 l l Hl2 - 1L HH1 ê z1L H1 ê z2LL 1 H1 ê H1 - z1 - z2LL 2 IH1 ê z1L 1 + H1 ê z2L 1 M l1 l2

IH1 ê z1L

l1

+ H1 ê z2L M

l2 l1 l1

+ H1 ê H1 - z1 - z2LL

1 -2

l2

l2

-2

Hl1 - l2 L

(III.13)

69

El cuarto paso consiste en realizar el producto. Aplicando: H1 ê H1 - z1

- z2LLl2

IH1 ê z1Ll1

+

+

IH1 ê z1Ll1

l2 H1 ê z2Ll1 M l1

+

1 l2 l -2 l1 l1 2 H1 ê z2L M

+ H1 ê H1 - z1 -

z2LLl2

=

1 -3 l2

IH1 ê z1Ll1 + H1 ê z2Ll1 M l1 + H1 ê H1 - z1 - z2LLl2 l2

Obtenemos la siguiente expresión, que puede ser vista como un producto de dos términos lλ= (z1,..., z d - 1) = D*E ll Hz1 , ..., z d-1 L = 1 1 =

z12

*

z22

*

1

H1 - z1 - z2L2

Hl2 - 1L HH1 ê z1L H1 ê z2LLl1 -1 H1 ê H1 - z1 - z2LLl2-1 IH1 ê z1Ll1 + H1 ê z2Ll1 M l1 l2

IH1 ê z1L

l1

+ H1 ê z2L M

l2 l1 l1

+ H1 ê H1 - z1 - z2LL

1 -3

l2

l2

IH1 ê z1L

l1

-2

+ H1 ê z2L M

l2 l1 l1

Hl2 - 1L HH1 ê z1L H1 ê z2LLl1 -1 H1 ê H1 - z1 - z2LLl2-1 IH1 ê z1Ll1 + H1 ê z2Ll1 M l1 l2

IH1 ê z1L

l1

+ H1 ê z2L M

l2 l1 l1

+ H1 ê H1 - z1 - z2LL

1 -3

l2

l2

H2 l2 - 1L +

-2

IH1 ê z1Ll1 + H1 ê z2Ll1 M l1 + H1 ê H1 - z1 - z2LLl2 l2

(III.14)

Ya que H2 l2 - 1L + Hl1 - l2 L = l1 + l2 - 1, y realizando el producto de D * E : ll Hz1, ..., zd-1L = Hl2 - 1L K

IH1 ê z1Ll1

+

1 z12

l2 -2 H1 ê z2Ll1 M l1

OK

1 l1 -1 1 1 l1-1 1 O K OK O 2 z1 z2 z2 H1 - z1 - z2L2

IH1 ê z1Ll1

+

l2 H1 ê z2Ll1 M l1

+ H1 ê H1 - z1 -

1 H1 - z1 - z2L

z2LLl2

Hl1 - l2L H1 ê H1 - z1 - z2LLl2 + Hl1 + l2 - 1L IH1 ê z1Ll1 + H1 ê z2Ll1 M l1

Hl1 - l2 L

l2 -1

1 -3 l2

l2

(III.15)

70

Simplificando se llega finalmente a la expresión buscada: ll Hz1 , ..., zd -1 L = Hl2 - 1L Hz1 z2 L

-1 -l1

H1 - z1 - z2 L

-l2 -1

Jz1

-l1

+ z2 N

l2 -l1 l -2 1

Jz1

-l1

+ z2 N

l2 -l1 l 1

1 -3

+ H1 - z1 - z2 L

l2

-l2

-l -l Hl1 - l2 L H1 - z1 - z2 L-l2 + Hl1 + l2 - 1L Jz1 1 + z2 1 N l1 l2

(III.16) III.5.2.2.- Obtención de la Expresión para la densidad de Pickands en 3 dimensiones.

Dado que el procedimiento para la obtención de la densidad de Pickands para d = 3, es muy similar, y aun un poco más simple se presenta solo un resumen. Partiendo de (III.8) el primer paso es obtener el resultado de las derivadas continuas de W para d=3, esto es: ∑3 ∑x 1 ∑x 2 ∑x 3

H-x1L

l1 -1

W Hx1 , x2 , x3 L = H-x2L

l1 -1

H-x3L

l2 -1

IH-x1L

l1

+ H- x2L M l1

2 l2 l1

-2

IH- x1L

l1

+ H-x2L M

l2 l1 l1

+ H- x3L

1 -2 l2

2 -2 1 - 1 l22 + H- x1Ll1 -1 H- x2Ll1 -1 H- x3Ll2 -1 IH- x1Ll1 + H- x2Ll1 M l1 l2

IH-x1L

+ H- x2L M

l1

l2

1 -3

l2

l

l2 l1 l1

+ H-x3L

l2

1 -2

l2

l1

1 l2

- 1 l2

l2 l1

-1

(III.17)

El segundo paso es la aplicación de la transformada inversa de Tp. Como se explicó antes, este paso implica la sustitución miembro a miembro TP-1, con las expresiones particulares para d = 3, como sigue: c = x1 + x2 + x3; x1 = c•z1; x2 = c•z2; x3 = c - c•z1 - c•z2

Al hacer la sustitución indicada e incluir el término cd-1 obtenemos la primera expresión completa de la densidad de Pickands:

71

fl Hz1 , ..., zd -1 L =

cd -1

H-c * z1L-1 +l1 IH- c * z1Ll1 + H- c * z2Ll1 M

-2 +

IH-c * z1L

l1

+ H-c * z2L M

l2 l1 l1

IH-c * z1L

+ H-c * z2L M

l2 l1 l1

l1

H- c * z2L-1 +l1

+ H- c H1 - z1 - z2LL

-3 +

l2

H-c * z1L-1 +l1 IH- c * z1Ll1 + H- c * z2Ll1 M l1

2 l2

l -2 + 2 l1

1

l2

H- c H1 - z1 - z2LL-1 +l2

1 -2 l2

1 - 1 l22 + l2

H- c * z2L-1 +l1

+ H- c H1 - z1 - z2LL

-2 +

l2

1

l2

H- c H1 - z1 - z2LL-1 +l2 l1

1

l2

- 1 l2

l2

l1

-1

(III.18)

En esta expresión, la densidad de Pickands está aún en términos de los componentes angulares y el radial, El tercer paso consiste en la eliminación del componente radial. Después de un proceso parecido al de la densidad angular, se obtiene una expresión exclusivamente en términos de los componentes angulares. fl Hz1 , ..., zd -1 L =

l2 -2 l1 -1 l2 -1 l1 l1 l1 Hl2 - 1L Hz1z2L H1 - z1 - z2L Iz1 + z2 M

Iz1

l1

Iz1

l1

+ z2 M

l2 l1 l1

+ z2 M

l2 l1 l1

H2 l2 - 1L + Hl2 - 1L Hz1z2L

l1 -1

+ H1 - z1 - z2L

l2

1 -2

l2

l2 l1 l1 l1 Iz1 + z2 M

H1 - z1 - z2L

l2 -1

+ H1 - z1 - z2Ll2

Iz1

l1

1 -3

l2

+ z2 M

l2 -2 l1 l1

Hl1 - l2 L

(III.19) Simplificando, encontramos la expresión buscada:

fl Hz1 , ..., zd -1 L =

Hl2 - 1L Hz1 * z2L

l1 -1

H1 - z1 - z2L

l2 -1

Iz1

l1

+ z2 M

l2 -2 l1 l1

Hl1 - l2 L H1 - z1 - z2Ll2 + Hl1 +l2 - 1L Iz1l1 + z2l1 M l1

Iz1

l1

+ z2 M

l2 l1 l1

+ H1 - z1 - z2L

l2

1 -3

l2

l2

(III.20)

72

III.5.2.3.- Expresión de la Densidad Angular para d = 4

Siguiendo un procedimiento análogo para d=4, y considerando las siguientes expresiones, uno de los principales resultados de esta investigación: K = Hl2 + l3 - 1L L = H1 - z1 - z2 - z3L M = IH z1L-l1 + Hz2L-l1 M N = HML

l2 l1

+ Hz3L-l2

P = H NL l2 + H1 - z1 - z2 - z3L-l3 l3

La densidad angular para d=4 es la siguiente: ll Hz1 , ..., zd -1 L = H1 - l3 L Hz1• z2L

-l1 -1

2 l3

KN

l2

-K M

l2 l1

-l2

+ z3

-l2 -1

z3

-2 l3

l2 + L

-l3 -1

L

-l2

- z3

M

l2 -2 l1

l2 + M

l2 l1

N

l3 -3 l2

1 -4

P l3

Hl2 - l3 L Hl3 - l2 L +

N l1 - K N l2 + L-l3 N l2 H1 - 2 l2 L + L-2 l3 Hl3 - l2 L + 2 l3

-l3

L

N

l3 l2

-l2

z3

l3

l2 H2 l2 - 1L + M

l2 l1

H- 2 Hl2 - 1L l2 + l3 H4 l3 - 3LL

(III.21) III.5.2.4.- Expresión de la Densidad Angular para d = 5:

Finalmente escalamos el procedimiento para d=5, utilizando las siguientes expresiones, que es otro de los principales resultados de esta investigación: R = - H1 - z1 - z2 - z3 - z4L-1 S = IHz1L-l1 + Hz2L-l1 M T = HSL λ1 + Hz3L-l2 λ2

U = HTL λ2 + Hz4L-l3 λ3

V = HUL λ3 + H1 - z1 - z2 - z3 - z4L-l4 λ4

73

La densidad angular para d=5 es la siguiente:

ll Hz1, ..., z4L = Hl4 - 1L Hz1•z2L-l1 -1 Hz3L-l2 -1 Hz4L-l3 -1 H- R Ll4 +1 S l1 T

l3 -3 l2

U

l4 -4 l3

V

1 -5

l4

2

2

U V S

l2 l1

- Hz3L

-l2

l2

-2

l4 l4 2 l2 H- R L Hl3 - l4 L + U l3 Hl3 + l4 - 1L +

V 2 S l1 - Hz3L-l2 l2 V2 T l2 - Hz4L-2 l3 l23 + U V 2 T l2 - Hz4L-l3 l3 U l3 Hl4 - 1L - H- R Ll4 l4 + 2 l3

l2

l3

l4

T l2 U U l3 Hl4 - 1L2 + H- R L2 l4 l24 - H-R Ll4 U l3 l4 H4 l4 - 3L + 2 l4

l3

l4

T U V l1 H- R L2 l4 Hz4L-l3 Hl2 - l3 L + T l2 Hl2 + l3 - l4 L Hl3 - l4 L + l3

U l3 Hl3 +l4 - 1L Hz4L-l3 Hl2 - l3 L + T l2 Hl2 + l3 + l4 - 1L + 2 l4

l3

H-R L

l4

U

l4 l3

Hz4L

-l3

Hl2 - l3 L H2 l3 - 1L + T

l3 l2

H2 Hl3 - 1L l3 + l2 H2 l3 - 1L + H3 - 4 l4 L l4 L +

S l1 V3 T l2 - 4 T l2 Hz4L-l3 + Hz4L-2 l3 l33 + V2 3 T l2 - 7 T l2 Hz4L-l3 + Hz4L-2 l3 2 l3

l2

2 l3

l3

l3

l23 U l3 H-1 + l4 L - H-R Ll4 l4 + 3 T l2 V T l2 - Hz4L-l3 l3 l4

2 l4

U

l3

l3

Hl4 - 1L + H- R L 2

2 l4

l24 - H- R Ll4

l3

U

l4 l3

l4 H4 l4 - 3L + T

2 l3 l2

U l3 Hl4 - 1L3 3 l4

H-R L3 l4 l34 + H- R L2 l4 U l3 l24 H11 l4 - 7L - H- R Ll4 U l3 l4 H6 + l4 H11 l4 - 16LL 2 l4

l4

(III.22) III.5.2.5.- Expresión para el caso Bivariado

El caso se presenta por su utilidad para determinar el orden de las variables en el modelo logístico anidado, su obtención sigue igualmente el procedimiento descrito. ll Hz1 L = Hl1 - 1L Hz1 H1 - z1LL

-1 -l1

IHz1L

-l1

+ H1 - z1L

M

1 -2

-l1 l1

(III.23)

74

III.6.- Aplicación de la Densidad Angular en la Obtención de Parámetros de dependencia del Modelo Logístico Anidado.

En el capítulo 6 de Michel (3) se expone la estimación paramétrica para modelos generalizados de Pareto, en particular en la sección 6.1 por máxima verosimilitud utilizando la densidad angular, misma que será aplicada en esta sección al usar las expresiones halladas en la sección anterior, en la estimación de los parámetros de dependencia del modelo. Para hacer la aplicación en el modelo logístico anidado, se supone que se tienen n copias independientes de un vector aleatorio X(i), el cual sigue una DGP-M perteneciente a Ks y con densidad angular lλ1,..,λk. Se sigue el proceso mostrado en la Figura III.2. Figura III. 2 Se parte de un conjunto n de vectores de (x1,…,xd)

Se usa (x1,…,xd) + un umbral para obtener m vectores (z1,…,zd-1)

Se usan los m vectores (z1,…,zd-1) Para maximizar lλ(z) en probabilidad

De obtienen los parámetros de dependencia: λ:=(λ1,…,λd-1)

Es necesario además utilizar las definiciones adicionales de la Tabla III.2, obtenidas de Michel (1), sección 3; así como sus implicaciones en la estimación de los parámetros. Tabla III.2 Definición – Notación / Implicaciones d K s := {x ∈ (− ∞,0 ) x ∞ < s}, s < 0, con : x ∞ = max( x1 ,..., xn ) ° Las d variables x aleatorias están en el cuadrante negativo. ° Ks es el cubo d-dimensional con lados de tamaño s. ° s debe ser mayor al máximo valor de x, en valor absoluto, tomado del conjunto de variables para las que se desea obtener los parámetros de dependencia. ° s se estima a partir de las variables empíricas en el cuadrante negativo, aquellas a partir del cual las pruebas estadísticas indican existencia de dependencia.

Qr , s := {z ∈ Rd −1 TF−1 ( z ,− r ) ∈ K s }

° Dado un conjunto de variables (x1,…,xd) que pertenecen a Ks, es posible obtener un conjunto vectores (z1,…,zd-1) que pertenezcan al Simplex unitario. ° Los vectores de z se pueden utilizar para estimar los parámetros de dependencia, por medio de máxima verosimilitud aplicada a la densidad de Pickands o angular resultantes del modelo logístico anidado.

Qr , s := {(z1 ,..., zd −1 ) ∈ Rd −1 zi >

d −1 1 1 , i = 1,..., d − 1,∑ zi < 1 − } rs rs i =1

° Es la expresión de Qr,s, donde para una s fija mayor que cero, indica que los vectores (z1,…,zd-1) pertenecen al Simplex unitario d-1 dimensional, siempre todos los valores de zi, cumplan con las desigualdades de la derecha, en las cuales intervienen r y s.

Ar , s := {x = ( x1 ,..., xd ) ∈ K s c =

1 1 + ... + < − r} x1 xd

75

° Ar,s indica que un vector de variables (x1,…,xd) será considerado válido par la estimación solo si su componente radial, calculado como la suma de los inversos de las variables, es menor a –r: C(i) < -r

Para ejemplificar el proceso de selección de vectores de z, se utilizó el algoritmo 4.11 de Michel (1) para la generación de 200 vectores de 5 variables aleatorias distribuidas GP con el modelo logístico anidado, con componente parámetros r = 250, s=0.024, y parámetros de dependencia 8, 7, 6 y 5. ~

~

Se supone que los vectores de datos cumplen con || X ||∞ < s ; y Z (i ) y C (i ) son las correspondientes coordenadas de Pickands respecto de marginales Fréchet, mismas que se estiman con los vectores de datos X(i) disponibles para la estimación, todo de acuerdo con la Tabla III.2. Dado un umbral r > 0, donde r es un supuesto en la estimación de parámetros, y considerando solo las observaciones X(i) con C(i)….>λd > d-1, para que la distribución sea acotada. Condición que implica que para un número alto de variables se espera que los parámetros de dependencia sean altos. Esta condición limita el uso del modelo en portafolios de muchas variables, pero lo hace idóneo en los de bajo número de variables.

77

En la práctica, se desconoce el umbral para un conjunto de variables empíricas, por lo que se debe probar con diferentes valores de r. Conforme aumenta r el número de extremos m disminuye al acercarse al origen, en el ejemplo mostrado en la Tabla III.4, cuando r ≤ 250, el número de extremos seleccionados abarca el total de las observaciones. De hecho, un primer acercamiento al umbral lo tenemos con las pruebas de independencia para valores extremos. Tabla III.4 (1) r 10 100 250 500 750 1000

(2) m 200 200 200 107 68 55

Umbral real en variables simuladas r = 250, s = 0.024 (Negritas) (1) Es el umbral, valores altos de r implican mayor cercanía a 0. Todas las C(i)

d −1 1 1 , i = 1,..., d − 1,∑ z i < 1 − } rs rs i =1

° Para el proceso de simulación partimos de que los vectores (z1,…,zd-1) pertenecen al Simplex unitario d-1 dimensional por definición, ya que con el algoritmo ya antes expuesto se obtienen d-1 variables en el Simplex unitario. Ahora bien no todos estos vectores son útiles en la simulación de las variables DGP-M. ° Se determina Qr,s, con una s fija mayor que cero y r aleatoria (ambas que son supuestos para la simulación); se eligen solo los vectores (z1,…,zd-1) que cumplen con las desigualdades de la derecha, en las cuales interviene el inverso del producto r·s, y los valores sumados e individuales del vector (z1,…,zd-1).

Qr , s := {z ∈ Rd −1 TF−1 ( z ,− r ) ∈ K s } ° Los vectores de z = (z1,…,zd-1) que cumplen con el criterio anterior, se pueden utilizar para estimar los parámetros de dependencia, utilizando la densidad de Pickands o angular resultantes del modelo logístico anidado. ° Esto es, la Inversa de la Transformada de Fréchet aplicada con los vectores de z = (z1,…,zd-1) filtrados, más un umbral supuesto, permite simular variables (x1,…,xd) pertenecientes a Ks. En este caso r es aleatorio y permite hacer un muestreo uniforme sobre la densidad angular como se verá.

K s := {x ∈ (− ∞,0 ) x ∞ < s}, s < 0, con : d

x ∞ = max( x1 ,..., xn )

° Las d variables aleatorias (x1,…,xd) están ubicadas en el cuadrante negativo. ° Dado que Ks es el cubo d-dimensional con lados de tamaño s. En la estimación se definió a través de las variables empíricas, aquí es al revés: permite determinar las variables simuladas válidas. ° El valor absoluto máximo de cada vector (x1,…,xd) simulado mediante la transformación inversa de Fréchet, deberá ser siempre menor a s. ° s es un supuesto y debe estimarse a partir de las variables empíricas en el cuadrante negativo, esto es de aquellas a partir de las cuales las pruebas estadísticas indican existencia de dependencia.

Ar , s := {x = ( x1 ,..., xd ) ∈ K s c =

1 1 + ... + < −r} x1 xd

° Representa un criterio adicional de aceptación de los vectores (x1,…,xd) que pertenecen a Ks. ° Ar,s indica que un vector de variables (x1,…,xd) será considerado simulado y válido solo si su componente radial, calculado como la suma de los inversos de las variables, es menor a –r: C(i) < -r. ° Con esto se concluye el proceso de simulación de (x1,…,xd).

91

Si se rehace el diagrama anterior con base en lo expuesto en la tabla, quedaría del siguiente modo: Figura IV.2 - Proceso de la Simulación de Variables r, s y los parámetros de dependencia son supuestos: λ:=(λ1,…,λd-1)

Se simulan n vectores en el simplex unitario (z1,…,zd-1)

Por el método de rechazo se eligen los valores de lλ(z); Muestreando uniformemente ente 0 y el máximo de lλ(z)

Se usan (1/rs) y (11/rs) para acotar los vectores válidos de (z1,…,zd-1)

Se calcula lλ(z) utilizando los parámetros y vectores (z1,…,zd-1) que se aceptan

Aplicamos la Transformación Inversa de Fréchet a r, s y (z1,…,zd-1). Se Obtiene un conjunto de vectores de (x1,…,xd)

En suma, el camino que recorre la simulación de variables DGP-M es el inverso del de la estimación de parámetros: aquél parte de d vectores de (x1,…,xd), calcula d-1 vectores (z1,…,zd-1), con éstos se utiliza la función de la densidad angular para obtener los parámetros por máxima verosimilitud; En esta se parte de un conjunto de parámetros y de d-1 vectores de variables (z1,…,zd-1) en el Simplex unitario, que son utilizados para calcular la densidad angular para finalmente obtener d vectores de (x1,…,xd). IV.3.2.- Algoritmos de Michel modificados para Simulación de variables DGP-M con la densidad angular acotada.

La simulación de los vectores de variables aleatorias distribuidas GP-M mediante los algoritmos de Michel modificados para la densidad angular se resuelve en los siguientes pasos: 1. Para realizar la simulación se suponen conocidos los siguientes parámetros obtenidos de las variables empíricas; (λ1,…, λd-1); r y s. 2. Obtener simulaciones de vectores aleatorios en el Simplex unitario (Algoritmo 4.10 en Michel (4)). Potencialmente cada vector de variables en el Simplex puede ser un vector de componentes aleatorios angulares de variables distribuidas GPM. 3. Para completar el paso siguiente es necesario simular un componente radial aleatorio C(i) = -ri uniformemente generado entre el umbral r y un número mayor a este a ser estimado empíricamente. Se genera uno para cada vector simulado en el Simplex unitario. Esto es equivalente a simular un número uniformemente distribuido en el cuadrante negativo entre -1/r y cero. Nuevamente estos números son cercanos a cero y son el umbral a partir del cual se tiene una DGP-M para un conjunto de datos empíricos. 4. Cada vector generado es considerado parte del conjunto de vectores dentro del cubo n dimensional Qr,s acotado por ri y s, si individualmente cada zi del vector cumple con zi>1/ris; y la suma de todos los componentes del vector cumple con: 92

d −1

∑z i =1

i

< 1−

1 ri s

El valor de s es una longitud fija, que determina el lado del cubo Qr,s, ri es aleatorio. 5. Se calcula el valor de la Densidad de Angular utilizando los valores de cada vector aleatorio Z(i) = z1,…,zd-1 que haya cumplido con las condiciones anteriores, obtenidas en el paso anterior; 6. Se calcula el valor máximo (M) de la función de la densidad angular. Donde M se obtiene con: M = sup z∈Rd −1 lλ ( z ) 7. Se utiliza el método de rechazo para elegir los vectores válidos para la simulación. mediante el método de rechazo aplicado al valor de la densidad obtenida. (Algoritmo 4.1 en Michel (3)). •

7.1. Generar una vector aleatorio X = (x1,…,xd), uniformemente distribuido en Qrs. Este corresponde a cada vector Z(i) = z1,…,zd-1.



7.2. Generar un número aleatorio Y independiente de X, el cual se distribuye uniformemente en [0,M].



7.3. Se acepta Z(i) si Y ≤ g(Z(i)), de otra manera se rechaza y se regresa a 1. Se utiliza la función de la densidad angular para g(Z(i)), esto es lλ(z)= g(Z(i)).

8. Obtención del vector de variables distribuidas DGP-M aplicando la transformada inversa de la transformación de Fréchet según la cual con un vector aleatorio Z(i) y un componente radial C(i), podemos obtener un conjunto de variables x1,…,xd distribuidas GP-M, con marginales exponenciales negativas. Hx1, ..., xdL =

1

CHiL z

, ..., 1

1

CHiL z

, d-1

CHiL -

1

CHiL ⁄id=-11 zi

C(i) = -r, previamente simulada (Paso 3).

9. Se asegura que cada vector x1,…,xd cumpla con la siguiente condición para que el vector x pertenezca a Ks. 1 1 Ar ,s := {x = ( x1 ,..., xd ) ∈ K s c = + ... + < − r} x1 xd

IV.3.3.- Aplicación del algoritmo modificado para la Densidad angular con d=5. IV.3.3.1.- Para realizar la simulación se suponen los siguientes parámetros: (λ1=8, λ2=7, λ3=6, λ4=5); r = 250 y s = 0.024.

93

IV.3.3.2.- Obtener simulaciones de vectores aleatorios Z(i) = z1,…,z4 en el Simplex unitario.

Con el algoritmo utilizado, variables aleatorias distribuidas uniformemente simuladas en el cuadrado unitario son transformadas en variables aleatorias uniformes simuladas en el Simplex unitario. Este paso es esencial e idéntico al seguido en la simulación de variables DGP-M mediante la distribución de Pickands. Se generaron 7,000 vectores de 4 variables en el Simplex unitario para generar 5 variables distribuidas GP-M. Gráfico IV.7 - Representación de 2 de 4 variables Simuladas, Distribuidas uniformemente, en el Simplex unitario z2 1.000 0.900 0.800 0.700 0.600 0.500 0.400 0.300 0.200 0.100 -

0.200

0.400

0.600

0.800

1.000

Estas variables son la base para generar 5 variables DGP-M. IV.3.3.3.- Simular, para cada vector obtenido en el Simplex unitario, un número distribuido uniformemente entre el inverso del umbral r (Esto es: -1/r) y el valor de 1/C(i) = 1/-ri para el cual el proceso de determinación de extremos útiles para la estimación da un valor de m=0. Esto es equivalente a simular un número uniformemente distribuido en el cuadrante negativo entre -1/r y un número cercano al cero dado por 1/-ri, donde 1/-ri es el valor en que la densidad angular es igual a cero; m=0.

Supongamos que -1/r=-1/250=-0.004. Se simula para cada vector en el Simplex un valor ~ U[0.004, 0]. Es de suma importancia que el valor se simule uniformemente entre estos valores y no generar C(i) ~ U[-Número muy grande,-250], y después obtener su inverso; el resultado de la simulación puede variar significativamente.

94

Gráfico IV.8 - Dispersión de U(-0.004,0) Dispersión de U(-0.004,0) 0

1,000 2,000 3,000 4,000 5,000 6,000 7,000

0.000000 -0.000500 -0.001000 -0.001500 -0.002000 -0.002500 -0.003000 -0.003500 -0.004000

La gráfica muestra una simulación uniforme sobre el cuadrante negativo.

La Tabla IV.2 muestra que el número de extremos no cambia uniformemente con C(i), de ahí que se simule uniformemente 1/C(i) = 1/-ri. Tabla IV.2 - Relación entre C(i), 1/-r y m (i) (i) C =-r 1/C =1/-r m -

82,000 80,000 50,000 45,000 40,000 35,000 30,000 25,000 20,000 15,000 10,000 5,000 4,000 3,000 2,000 1,000 500 350 250

-

0.0000122 0.0000125 0.0000200 0.0000222 0.0000250 0.0000286 0.0000333 0.0000400 0.0000500 0.0000667 0.0001000 0.0002000 0.0002500 0.0003333 0.0005000 0.0010000 0.0020000 0.0028571 0.0040000

0 1 1 1 1 2 3 4 6 13 27 59 70 105 156 307 577 826 1,087

Si el la tabla IV.2 representara un conjunto de datos empíricos de los cuales se estuviera obteniendo parámetros para la simulación de variables en cuestión, se tomarían el valor de -250 como los de referencia para la simulación de números aleatorios ≈ U[-0.04,0].

95

Nótese que también hay un valor a partir del cual lλ(z1,…,zd-1)=0, si m=0, en el ejemplo anterior esto sucede en r = 82,000. Ahora bien, cuando m=0 ¿el valor de r es relevante como parámetro para la simulación?, es decir, ¿acotamos la simulación de variable en una cercanía a cero igual a r = 1/82000? La respuesta es no, la cercanía al cero tiene que ser muy grande y no debe estar acotada. La cercanía al cero indica valores de la variable en cuestión, más extremos; justamente obtener la probabilidad de ocurrencia de estos eventos, no observados, es uno de los objetivos de la simulación. Acotar r en la cercanía al cero equivale a utilizar una distribución truncada. Cuando se utiliza la distribución generalizada de Pareto hay quienes arguyen que estos valores extremos no observados, implican una predicción de la ocurrencia futura de tal valor (Una pérdida muy grande por ejemplo). Se debe recordar que se trabaja con modelos y estos implican ciertos supuestos; el supuesto de que la variable sigue una DGP implica aceptar la posibilidad de que un valor no observado muy grande se dé y que se hagan previsiones al respecto, pero no hay certeza al respecto a la ocurrencia de la pérdida y los modelos deben estar sujetos a su calibración continua. IV.3.3.4.- Cada vector generado es considerado parte del conjunto de vectores dentro del cubo n dimensional Qr,s acotado por ri y s, si individualmente cada zi del vector, y la suma de todos los componentes del vector cumplen con:

zi >

1 ; ri s

d −1

∑z i =1

i

< 1−

1 ri s

(i)

Si por ejemplo C ~ [-(1/250),-(1/13,000)], s = 0.024, la representación del Simplex unitario acotado como se indica arriba se ve como sigue: Gráfico IV.9 - valores pequeños de s acotan el cono de los vectores de Z s = 0.024 s = 0.005 Efecto de r y s en los vectores de Z

Efecto de r y s en los vectores de Z

1.00

1.00

0.90

0.90

0.80

0.80

0.70

0.70

0.60

0.60

0.50

0.50

0.40

0.40

0.30

0.30

0.20

0.20

0.10

0.10

0.00 0.00

0.20

0.40

0.60

0.80

1.00

0.00 0.00

0.20

0.40

0.60

0.80

1.00

96

Los vectores obtenidos pertenecen a Qr,s, y pueden ser utilizados para obtener vectores (x1,…,xd) distribuidos DGP-M. IV.3.3.5.- Se calcula el valor de la Densidad de Angular para cada uno de los vectores aleatorios Z(i) = zi,1,…,zi,d-1, obtenidas en el paso anterior, ya que han cumplido con las condiciones indicadas. Para calcularla se utilizan las expresiones encontradas en el capítulo anterior, completadas con los valores de los vectores de z y los parámetros de dependencia indicados en el paso 1. En particular se utiliza (II.22).

Dados los siguientes datos: • Parámetros de dependencia: λ1 = 8, λ2 = 7, λ3 = 6, λ4 = 5 • Umbral DGP-M: r = 250 • Valor de r para el cual m = 0: r = 13,000 • Longitud de los lados del cubo d-dimensional: s = 0.024. • 500 vectores Z(i) = zi,1,…,zi,4 válidos según el paso 4. Se obtuvieron 500 valores calculados de la densidad angular, representados en el gráfico siguiente. Gráfico IV.10 - 500 valores de la densidad angular y zi2 150,000 140,000 130,000 120,000 110,000 100,000 90,000 80,000 70,000 60,000 50,000 40,000 30,000 20,000 10,000 0 0.00

0.20

0.40

0.60

0.80

1.00

Con el método de rechazo se han elegido 500 vectores Z(i), el gráfico IV.11 muestra como los pares de z quedan acotados a una región específica.

97

Gráfico IV.11 - Representación de los 500 valores de zi1 y zi2, de los vectores aceptados por el método de rechazo. 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0

0.2

0.4

0.6

0.8

1

IV.3.3.6.- Se calcula el valor máximo (M) de la función de la densidad angular. Donde M se obtiene con: M = sup z∈Rd −1 lλ ( z )

Se puede observar que en el ejemplo del paso anterior el máximo se encuentra en (1/d,…,1/d), en este caso 1/5= 0.2. El valor máximo de este conjunto de valores simulados es 142,709, y se obtiene con z2=0.2. Por este método se pueden obtener estimaciones gruesas del máximo, incluso en Excel, pero cuando el número de variables es alto se deben simular muchos escenarios para obtener una buena aproximación al máximo (Ver tabla IV.3). Tabla IV.3 - Máximos de 40 bloques de 15,000 Simulaciones cada uno (Generados en Excel) 139,259 81,367 91,382 103,822 71,202 90,195 112,055 96,752 120,555 144,384 129,109 98,721 123,797 130,645 102,310 62,576 130,779 72,141 145,862 75,968 110,637 112,839 93,853 85,912 113,338 120,201 65,253 73,019 68,720 118,867 97,733 90,481 104,847 105,141 97,913 113,242 107,300 138,998 115,863 120,555

98

Nótese que se requirieron 600,000 simulaciones para obtener 145,862 como la mejor aproximación al máximo (El supremo de las simulaciones). Si no se tuviera otro método, este permitiría implementar la simulación que se trata en este capítulo en forma bastante razonable. •

Ahora bien, para obtener el valor del máximo, hay que maximizar la función de la densidad angular (en este caso la versión para 5 variables), este ejercicio se hizo en Mathematica utilizando la función NMaximize (Método Neadler-Mead), suponiendo los siguientes Parámetros de dependencia: λ1 = 8, λ2 = 7, λ3 = 6, λ4 = 5, obteniendo: sup z∈Rd −1 lλ ( z ) = 147 ,603

En la tabla IV.4 se indica que los valores del máximo son únicos para cada conjunto de parámetros de dependencia, una vez obtenidos se pueden utilizar para continuar con el siguiente paso del proceso de simulación.

λ1 λ2 3.0 2.0 3.5 2.5 4.0 3.0 4.5 3.5 5.0 4.0 5.5 4.5

d=4

Máximo D. Angular 21.94 36.73 54.43 75.07 98.69 125.28

d=5

d=3

Tabla IV.4 - Máximo de la densidad angular para d=3, 4 y 5; y diferentes combinaciones de parámetros de dependencia. (Cálculos en Mathematica) λ1 5.0 5.5 6.0 6.5 7.0 7.5

λ2 λ3 4.0 3.0 4.5 3.5 5.0 4.0 5.5 4.5 6.0 5.0 6.5 5.5

Máximo D. Angular 976 1,496 2,165 2,999 4,017 5,237

Máximo λ2 λ3 λ4 D. Angular λ1 7.0 6.0 5.0 4.0 68,753 7.5 6.5 5.5 4.5 102,715 8.0 7.0 6.0 5.0 147,603 8.5 7.5 6.5 5.5 205,505 9.0 8.0 7.0 6.0 278,688 9.5 8.5 7.5 6.5 369,600

En la tabla IV.5, es notable como la estimación del máximo mediante el supremo es más fácilmente alcanzada cuando d es más pequeño.

99

Tabla IV.5 - Densidad Angular Máximo y Supremo Estimación Máximo (*) λ2 λ3 λ 4 D. Angular Simulaciones con Supremo d λ1 7,000 54.42 3 4.0 3.0 54.43 600,000 145,861.86 5 8.0 7.0 6.0 5.0 147,603.00 (*) Estimación hecha con función NMaximize de Mathematica

La estimación mediante el supremo fue realizada implementando en Excel la fórmula para la densidad angular para 5 variables. La principal dificultad de la simulación en Excel está en la generación de las variables aleatorias en el Simplex unitario. En el anexo IV-A se presenta el algoritmo utilizado en este trabajo, este es flexible, elegido el rango de celdas este es igualado a d-1, y se generan las variables aleatorias uniformemente distribuidas en el Simplex unitario. Si bien la generación de las variables en Excel permite un seguimiento detallado del proceso de simulación, lo mejor es utilizar un programa como Mathematica para realizar la simulación.

IV.3.3.7.- Elección de los vectores válidos para la simulación mediante el método de rechazo aplicado al valor de la densidad obtenida en el paso anterior.



IV.3.3.7.1.- Se utilizan los vectores aleatorios Z(i) = z1,…,zd-1, generados en el paso 4; pertenecientes a Qr,s y distribuidos uniformemente.



IV.3.3.7.2.- Se genera un número aleatorio Y(i) independiente de Z(i), el cual se distribuye uniformemente en [0,M]. M corresponde al máximo obtenido en el paso anterior.



IV.3.3.7.3.- Se acepta el vector Z(i) si Y(i) ≤ g(Z(i)), de otra manera se rechaza y se regresa a IV.3.3.7.1. Se utiliza la función de la densidad angular para g(Z(i)), esto es lλ(z)= g(Z(i)).

Ejemplo IV.3.3.7.I



Vector Z(1) perteneciente a Qr,s. z1 0.23378915

z2 0.16539156

z3 0.20672096

z4 0.23833961

100



Cálculo de la densidad angular lλ(Z(1)) con λ1 = 8, λ2 = 7, λ3 = 6, λ4 = 5, y la Ecuación (II.22) del capítulo 2 para d=5, y Z(1): g(Z(1)) = 9,827.15



Número aleatorio simulado Y(1) ~ U(0 , 147,603): 9,087.06



El vector se acepta ya que se cumple Y(1) ≤ g(Z(1)): 9,087.06 < 9,827.15

Ejemplo IV.3.3.7.II



Vector Z(2) perteneciente a Qr,s. z1 0.25111157



z2 0.19055415

z3 0.16867357

z4 0.18633643

Cálculo de la densidad angular lλ(Z(2)) con λ1 = 8, λ2 = 7, λ3 = 6, λ4 = 5, y la Ecuación (22) del capítulo 2 para d=5, y Z(2): g(Z(2)) = 28,484.38



Número aleatorio simulado Y(2) ~ U(0 , 147,603): 29,077.01



El vector se rechaza ya que no se cumple Y(2) ≤ g(Z(2)): 29,077.01 >28,484.38

Si bien ambos vectores pertenecen a Qr,s, el proceso de aceptación-rechazo garantiza que los valores la densidad angular se simulan uniformemente. Este proceso es equivalente al método de la transformada inversa, en el que primero se simula un número aleatorio uniformemente distribuido U [0,1]; y luego se transforma en una variable aleatoria con una distribución específica mediante una regla definida (la fórmula transformada inversa de la distribución que se desea simular, por ejemplo una normal). Mediante este proceso se repite hasta aceptar tantos vectores como variables distribuidas GP-M como se desea simular.

IV.3.3.8.- Obtención del vector de variables distribuidas DGP-M aplicando la transformada inversa de la transformación de Fréchet según la cual con un vector aleatorio Z(i) y un componente radial C(i), podemos obtener un conjunto de variables x1,…,xd distribuidas GP-M, con marginales exponenciales negativas. Hx1, ..., xdL =

1

CHiL z1

, ...,

1

1

CHiL zd-1 CHiL - CHiL ⁄id=-11 zi ,

Donde C(i)) = -r, previamente simulada (del paso IV.3.3.3). Al final de esta sección se presenta el la Tabla IV.6 que contiene un ejemplo completo de simulación de un vector aleatorio DGP-M, así como los de los pasos IV.3.3.9 y IV.3.3.10.

101

IV.3.3.9.-Se asegura que cada vector x1,…,xd cumpla con la siguiente condición para que el vector x pertenezca Ks

K s := {x ∈ (− ∞,0 ) | x ∞ < s}, donde x ∞ = max( x1 ,..., x n d

)

Es decir, se debe verificar que el máximo, en términos absolutos, de cada vector de Xi sea menor que s. IV.3.3.10.-Se asegura el cumplimiento de la segunda condición para que cada vector x1,…,xd para que el vector x pertenezca a Ks. Ar , s := {x = ( x1 ,..., xd ) ∈ K s c =

1 1 + ... + < − r} x1 xd

Esta condición también se debe cumplir por construcción, ya que ri es simulado bajo este supuesto y el valor de ri es utilizado para calcular el vector Xi. El método de rechazo tiene altos requerimientos computacionales ya que, como se observa en el proceso descrito, hay muchas variables que se generan y van siendo descartadas. Por ejemplo en una rutina en el modelo construido en Excel, para 5 variables aleatorias DGP-M, se generan 7,000 vectores en el Simplex unitario en el paso IV.3.3.1; En el paso IV.3.3.4 se reducen a 1,650 útiles, es decir 23%. Al llegar al paso IV.3.3.7, quedan entre 1 y 7 vectores útiles que generalmente terminan siendo las variables simuladas a utilizar, es decir se aprovechan entre 0.014% y 0.1% de las simulaciones iniciales en el Simplex unitario. La eficiencia también depende del número de variables DGP a simular. No obstante lo anterior se puede generar un número importante de variables en tiempo razonable, por ejemplo una rutina puede obtener 1,000 vectores de útiles de 5 variables DGP-M en 15 minutos, obtener por ejemplo 10,000 variables se reduce a un problema de tiempo-computo (Tiempos referidos utilizando una computadora hp con procesador Genuine Intel (R) CPU T2050, con velocidad de 1.6 GHz y 1 GB de memoria RAM). Los algoritmos implementados en un programa como Mathematica o Matlab implican una reducción el tiempo de cálculo. La tabla IV.6 presenta en forma integral la simulación de un vector DGP-M con el modelo logístico anidado mediante la densidad angular.

102

Tabla IV.6.- Desarrollo de la Simulación de un vector aleatorio DGP-M Supuestos de la Simulación IV.3.3.1

IV.3.3.2

Vector aleatorio en el simplex

z1

z2

z3

z4

0.1598

0.2256

0.2854

0.1849

zi = 4

z

i = 1

IV.3.3.4

=

i

1/ris =

<

0.879130911

>

IV.3.3.6

U[0-Max (l(zi) )] =

IV.3.3.7

¿DA > U(0,Max l(z i ))?

Si, ya que

Vector Xi =

x1

Conclusión

4



z

Max(|x1|,…,|x5|) =

i

> x3

i

C(i) * z2 77.77

C(i) * z3 98.37 1/(C(i) * z3)

0.01815

0.01286

0.01017

344.73

<

0.024

1/x2 77.77 <

El vector es válido

1/x3 98.37 -

147,603

Sim. U[0,147603]

1,910.00

Se acepta l(zi)

x4

1/(C(i) * z2)

1/x1 55.09 =

2,424.94

1/(C(i) * z1)

0.018151399

⎞ ⎟⎟ ⎠

Se cumplen condiciones. Se acepta vector Z(i) Se calcula l(zi)

x2

C(i) * z1 55.09

Xi = Transformada inversa de TF =

i = 1

0.855663049 =

1,910 Dado el máximo =

IV.3.3.8



z1, z2, z3, z4

2,425

C(i)*zi

⎛ 1 ⎜⎜ ⎝ x

Simular C(i)

i = 1

DA = Densidad Angular l(z i ) =

5

Generar Z(i)

344.73

0.120869089

IV.3.3.5

IV.3.3.10

s=

0.8557 -C(i) = ri

Componente Radial simulado =

1-1/ris

IV.3.3.9

0.024

r=

∑ IV.3.3.3

250

λ1=8, λ2=7, λ3=6, λ4=5

x5

C(i) * z4 63.73

Se calcula Xi

d −1 ⎛ ⎞ 1/(C(i) * z4) 1 / ⎜ C ( i ) − C ( i ) ∑ zi ⎟ i =1 ⎝ ⎠

0.01569

0.02010

=s 1/x4 63.73

Cumple condición 1/x5 49.76

Cumple condición

250.00 Se acepta vector Xi

103

Después de obtener el número de vectores deseado, por ejemplo 500, se pueden representar gráficamente tanto las variables Gráfico IV.12 como los componentes y densidades angulares Gráfico IV.13 Gráfico IV.12- 500 Variables DGP-M Simuladas X2

X3

X4

X1

X1

-0.03

-0.02

-0.01

0.00 0.00 -0.01

X2

-0.01 -0.02 -0.02 -0.03 -0.03

-0.02

-0.01

X3

-0.03

-0.02

-0.01

X4

-0.03

X5

-0.03

-0.02

-0.01

0.00 0.00

-0.03

-0.02

-0.01

0.00 0.00

-0.01

-0.01

-0.01

-0.01

-0.02

-0.02

-0.02

-0.02

-0.03

-0.03

-0.03

-0.03

0.00 0.00

-0.03

-0.02

-0.01

0.00 0.00

-0.03

-0.02

-0.01

0.00 0.00

-0.01

-0.01

-0.01

-0.01

-0.01

-0.01

-0.02

-0.02

-0.02

-0.02

-0.02

-0.02

-0.03

-0.03

-0.03

0.00 0.00

-0.03

-0.02

-0.01

0.00 0.00

-0.03

-0.02

-0.01

0.00 0.00

-0.03

-0.02

-0.01

0.00 0.00

-0.01

-0.01

-0.01

-0.01

-0.01

-0.01

-0.01

-0.01

-0.02

-0.02

-0.02

-0.02

-0.02

-0.02

-0.02

-0.02

-0.03

-0.03

-0.03

-0.03

-0.03

-0.03

-0.03

-0.03

Nótese que las variables se ubican dentro de un cubo d-dimensional con longitud de lados igual s; asimismo que el cono se va abriendo en los niveles inferiores ya que las variables están ordenadas de mayor a menor dependencia. En el gráfico que muestra los componentes de Z(i) y las densidades angulares se muestra, por un lado el área en que en cada par de z’s está acotada la densidad, y por otro que el máximo de la densidad angular se encuentra siempre en Z(i)=(1/d,…,1/d).

104

Gráfico IV.13 Componentes y densidades angulares subyacentes a las 500 Variables DGP-M simuladas Z2

Z3

Z4

Z1

Z1

1.00 0.80

Z2

0.60 0.40 0.20

Z3

0.00 0.00

0.50

1.00

1.00

0.80

0.80

0.60

0.60

0.40

0.40

0.20

0.20

Z4

0.00 0.00

Densidad Angular

1.00

0.50

1.00

0.00 0.00

0.50

1.00

1.00

1.00

1.00

0.80

0.80

0.80

0.60

0.60

0.60

0.40

0.40

0.40

0.20

0.20

0.20

0.00 0.00

0.00 0.00

0.50

1.00

0.50

1.00

0.00 0.00

0.50

1.00

140,000

140,000

140,000

140,000

120,000

120,000

120,000

120,000

100,000

100,000

100,000

100,000

80,000

80,000

80,000

80,000

60,000

60,000

60,000

60,000

40,000

40,000

40,000

40,000

20,000

20,000

20,000

20,000

0 0.00 0.20 0.40 0.60 0.80 1.00

0 0.00 0.20 0.40 0.60 0.80 1.00

0 0.00 0.20 0.40 0.60 0.80 1.00

0 0.00 0.20 0.40 0.60 0.80 1.00

Nótese que en el caso de las densidades angulares resultantes es notorio que el máximo se encuentra en (1/d, 1/d, 1/d, 1/d), en este caso 1/d = 0.2.

105

IV.4.- Verificación de los parámetros de dependencia de los vectores DGP-M generados.

Para verificar que los vectores DGP-M generados cumplen con los parámetros de dependencia, se utilizó el método presentado en el capítulo anterior. Esta verificación es necesaria dado que en un conjunto de datos cuyos parámetros se conocen es en donde se pueden calibrar los modelos de este tipo. Para un conjunto de vectores con umbral r = 250. Tabla IV.7 Parámetros reales y estimados para un grupo de Variables aleatorias DGP-M simuladas con umbral r = 250 r

m 250

λ1

1,000

350 500 1,000 5,000

λ2 Reales 8.0 Estimados 8.1 8.0 8.6 8.2

600 577 307 56

λ3

λ4

7.0

6.0

5.0

6.9 6.8 6.9 6.6

6.1 6.1 6.1 6.4

4.8 4.8 4.7 5.0

Para un conjunto de vectores con umbral r = 1,000 Tabla IV.7 Parámetros reales y estimados para un grupo de Variables aleatorias DGP-M simuladas con umbral r = 1000 r 1,000 3,910 4,763 5,000 10,000 15,000

m

λ1 500 120 100 89 46 31

λ2 Reales 8.0 Estimados 7.6 7.9 7.7 7.9 7.1

λ3

λ4

7.0

6.0

5.0

7.2 7.4 7.4 7.1 6.7

6.0 5.9 6.1 6.5 6.5

4.9 4.7 4.7 4.7 4.6

En ambos casos la mejor estimación es la que contiene más observaciones para la estimación, el uso de pocos extremos para la estimación afecta el cálculo. En ambos casos se puede observar una aproximación razonable a los parámetros reales. Trabajando con datos empíricos, en particular de pérdidas operativas, se puede concluir que cuantas más observaciones tengamos mejor será la estimación de parámetros, sin embargo la existencia de pocos extremos para realizar una estimación puede ser frecuente, por lo que los parámetros que se obtengan de ellos serán el único insumo para el modelado de pérdidas.

106

En algunos casos (Ver Tablas IV.8 y IV.9) el conjunto de datos simulado no implica parámetros muy cercanos a los de entrada (supuestos en la simulación) como en el caso que se presenta abajo. Tabla IV.8 Parámetros reales y estimados para un grupo de 500 Variables Aleatorias DGP-M simuladas con umbral r = 250 r

m

λ1

250

500

350 500 750 1,000 2,500 5,000

374 269 181 133 53 31

λ2 Reales 8.0 Estimados 7.9 7.8 8.1 8.0 7.4 7.1

λ3 7.0

λ4 6.0

6.8 6.5 6.6 6.3 6.0 6.6

5.0

5.1 5.8 5.0 5.6 4.5 6.0

5.1 5.0 5.0 4.7 4.5 5.3

Tabla IV.9 Parámetros reales y estimados para un grupo de 5,000 Variables Aleatorias DGP-M simuladas con umbral r = 250 r

m 250

5,000

500 1,000 2,500 5,000

1,500 1,360 519 100

λ1

λ2 Reales 8.0 Estimados 7.2 7.6 7.5 8.8

λ3 7.0 7.0 6.6 6.6 7.1

λ4 6.0 5.3 5.0 5.6 6.1

5.0 5.3 5.0 4.8 5.3

Es posible que las rutinas de cálculo deban ser mejoradas. Dado que las diferencias contra la mejor estimación pueden ser significativas, antes de usar un conjunto de datos simulados hay que verificar que los parámetros de dependencia representan razonablemente los que se desean aplicando las pruebas descritas en el capítulo anterior. El refinamiento del método queda como un tema de investigación ulterior, ya que objeto de esta investigación es la búsqueda de una solución integral. Los resultados no dependen del programa utilizado ya que el mismo problema se observa en vectores calculados en “Excel” y en “Mathematica”.

107

IV.5- Conclusiones:

En este capítulo se ha expuesto el algoritmo básico de Michel para la simulación de variables aleatorias distribuidas DGP-M, en particular se expuso su versión para el modelo logístico mediante la densidad de Pickands. Asimismo se presenta la propuesta de la versión modificada de este algoritmo, con el objetivo de simular variables aleatorias DGP-M con la densidad angular utilizando el modelo logístico anidado. Para aplicar dicha propuesta se hizo uso de las expresiones encontradas en el capítulo anterior para la densidad angular con el modelo logístico anidado, y en particular se utiliza la versión para 5 variables para mostrar el proceso a detalle. La relevancia para la medición del riesgo operativo de la generación las variables distribuidas GP-M mediante la densidad angular y el modelo logístico anidado está, por un lado, en la factibilidad de modelar pérdidas mediante simulación con diferentes parámetros de dependencia entre sí, y por otro en el hecho de que las distribuciones marginales resultantes de este modelo son nada menos que Fréchet, en los capítulos previos se expuso que en la utilización de los modelos Generalizados de Pareto Multivariados, las variables financieras suelen presentar distribuciones marginales Fréchet. Con el modelo expuesto se cuenta ahora con la posibilidad de simular pérdidas operativas con distribuciones marginales Fréchet y distribución conjunta Generalizada de Pareto. En suma los elementos obtenidos hasta ahora permiten definir si un grupo de variables, por ejemplo pérdidas operativas, presentan dependencia en la cola; obtener los parámetros de dependencia si es posible modelarlos con un modelo multivariado distribuido GP; y ahora, simular variables con este tipo de distribución con los parámetros de dependencia estimados de las variables empíricas. En el siguiente capítulo se mostrará cómo utilizar las variables simuladas en la generación de medidas de riesgo.

108

Anexo IV-A Códigos en VBA (Excel) y Mathematica para generar variables en el Simpex Unitario Código en VBA (Función Excel)

Function Simplex() ' Desarrollada por José Juan Chavez Gudiño (Julio 2008) Dim k, j, d As Integer Dim x, suma, resultado As Double d = Selection.Columns.Count ReDim M(d - 1) As Double resultado = 0 suma = 0 For j = 0 To d - 1 x = Rnd() resultado = (1 - suma) * (1 - ((1 - x) ^ (1 / d))) suma = suma + resultado M(j) = resultado d=d-1 Next j Simplex = M End Function Esta función trabaja sobre un rango de celdas elegidas horizontalmente. El número de celdas es contado por la función y será el número de variables aleatorias en el Simplex que será generado. El ciclo For-Next es el que aplica el método de la transformación inversa para encontrar en forma recursiva un vector de variables simuladas en el Simplex unitario, distribuidas uniformemente (Algoritmo de sección IV.2.1). Nótese que la función no requiere de ningún argumento ya que el rango elegido proporciona el valor de las variables a generar. Las variables se generan al elegir el rango y al ser definido éste como matriz tecleando Control + Shift + Enter. La función se aplica a tantos bloques de variables como se desee. Por ejemplo, la función aplicada en un reglón con 5 genera un vector de 5 variables aleatorias uniformemente distribuidas en el Simplex unitario. Para generar 10 vectores se repite el proceso 10 veces, cada vez en un rango de 1 por 5. En raras ocasiones el resultado del vector es cero en todos los componentes del vector y causa error, aunque es realmente infrecuente (probablemente 1 en 9,000,000 de simulaciones), se debe mejorar el código para correr de nuevo si se obtiene este resultado. Para las aplicaciones realizadas en este trabajo el desempeño del algoritmo ha sido adecuado.

109

Códigos en “Mathematica”.

El siguiente código en Mathematica para la función Simplexuni[d_] fue proporcionado por el Dr. Michel, como se observa, la función implementa el algoritmo explicado en IV.2.1. Con base en éste es muy fácil crear una función para n vectores, como se muestra abajo con la función nsmplxun2[n_,d_]. H∗ Simula la distribución uniforme en el simplex unitario para un solo vector ∗L H∗ Parámetros:

d: Dimension Hvariables en cada vectorL∗L simplexuni@d_D := ModuleA8resultvector = 8 0: ⎛ γ + n − 1 ⎞⎛ β ⎞ ⎟⎟⎜⎜ ⎟⎟ P (N (t ) = n ) = p t (n ) = ⎜⎜ n ⎝ ⎠⎝ β + t ⎠

γ

n

⎛ t ⎞ ⎜⎜ ⎟⎟ , n ∈ Ν 0 ⎝β +t⎠

Esta distribución es una mezcla gamma de una distribución Poisson en la que el parámetro λ es una variable aleatoria y no una constante. “Esto permite modelar sobre dispersión, lo cual significa que para toda t>0, la varianza de N(t) es mayor que su media, en tanto que en la distribución de pérdidas Poisson var(N(t))=E[N(t)]. De cualquier manera en lo que concierne al VaR operativo, la sobre dispersión es de menor importancia.” Böcker & Klüppelberg en “Operational VaR: a closed form approximation”

122

V.5.- Simulación de Frecuencia de Eventos.

Para simular las frecuencias se utilizó el algoritmo para la Poisson inversa, desarrollada en VBA e incluida en el anexo V.1, el único argumento de la función es el parámetro λ. Para simular las frecuencias con la binomial negativa se pueden utilizar las siguientes funciones de Mathematica versión 6: RandomInteger[NegativeBinomialDistribution[n, p], m] Que simula m enteros positivos que dan la distribución del número de fracasos en una secuencia de ensayos con probabilidad de éxito p antes que n éxitos ocurran. El resultado es un vector con m elementos, cada uno de los cuales es un entero positivo con la distribución Binomial Negativa. Es fácil usar la función para generar toda una matriz de escenarios. Los parámetros de la BN se pueden obtener con “Extremes” V.6.- El Proceso de las Pérdidas Agregadas.

Sumas Aleatorias resultantes de Procesos de Conteo Renovados. Están definidas por el con la siguiente expresión:

S (t ) =

N (t )

∑X i =1

i

, t≥0

“Aquí (N(t)) es un proceso de conteo renovado (…) y Xi es una secuencia iid independiente de (N(t)). (…) las sumas aleatorias se relacionan cercanamente con los modelos de riesgo renovado en los cuales podemos interpretar la va Xi, como el tamaño del reclamo que llega en el tiempo Ti. Un proceso de punto relacionado con (S(t)) está dado por: ∞

Ñ ( A) = ∑ ε (Ti , X i ) ( A), A ∈ ε , i =1

Con espacio de estado E=[0,∞] · R. Por ejemplo en el contexto de seguros: Ñ ((a, b]× (u, ∞ )) = card{i : a < Ti < b,

X i > u}

Cuenta el número de reclamos que llegan en el intervalo (a, b] y que exceden el umbral de valor u. Nótese que Ñ es muy cercana en espíritu al proceso de punto sobre excesos (…)”. Embrechts, Klüppelberg y Mikosh, páginas 224-225. En lo tocante al riesgo operativo se deben obtener las sumas de pérdidas resultantes de cada periodo de observación o registro. Cada que hay un proceso de renovación de conteo concluye una suma de pérdidas.

123

Proceso de la Pérdida Agregada. La pérdida agregada hasta el tiempo t se denomina S(t), es la suma de todos los eventos de pérdida operativa, sea de una línea de negocio o de un tipo específico de pérdida, y se representa con: N (t )

S (t ) = ∑ X i , t ≥ 0 i =1

Además, indican Böcker y Klüppelberg, “nótese que no necesitamos que Xk tenga media o varianza finita. Esto de acuerdo con la investigación empírica de Moscadelli (2004) que mostró convincentemente que una típica distribución de severidad de riesgo operativo tienen colas tan pesadas que aún momentos de orden inferior pueden no existir”

Proceso de Difusión Poisson del número de eventos de pérdida: Si el proceso de pérdidas extremas (Los eventos por encima del umbral) exhibe una intensidad semanal λ=1.92, en el gráfico V.4.- se muestran los eventos acumulados de pérdida de un año para varias historias (trayectorias) posibles:

124

Gráfico V.4.- 4 trayectorias del Proceso de Difusión Poisson con λ=1.92, acumuladas durante 52 semanas 150 125

100 S A 75 L T O S 50

25 0 0

10

20

30

40

50

SEMANAS

Gráfico V.5.- Proceso de Difusión Poisson con λ=0.96

200 Trayectorias de 52 semanas de un Proceso Poisson 80

70

60

Saltos

50

40

30

20

10

1

3

5

7

9

11

13

15

17

19

21

23

25

27

29

31

33

35

37

39

41

43

45

47

49

51

53

Semanas

125

Proceso de Difusión Poisson Compuesto: Cuando al proceso Poisson se le incluye el efecto del tamaño del salto, modelado de acuerdo a una distribución F, tenemos un proceso Poisson compuesto. En la gráfica V.6 se representa un proceso Poisson compuesto con el mismo parámetro de intensidad, pero en donde el tamaño del salto se modela con una distribución generalizada de Pareto con parámetros: Tabla V.6.- Parámetros DGP del proceso de pérdidas subyacente Parámetros DGP 9,753 μ 0.8297 γ 3,296.2 σ

Gráfico V.6.- Proceso de Difusión Poisson con λ=0.1638 48 Trayectorias Poisson Compuestas de 52 semanas 800,000

700,000

600,000

Saltos

500,000

400,000

300,000

200,000

100,000

1

3

5

7

9

11

13

15

17

19

21

23

25

27

29

31

33

35

37

39

41

43

45

47

49

51

53

Semanas

126

Gráfico V.7.- Proceso de Difusión Poisson con λ=0.1638 200 Trayectorias Poisson Compuestas de 52 semanas 1,600,000

1,400,000

1,200,000

Saltos

1,000,000

800,000

600,000

400,000

200,000

1

3

5

7

9

11

13

15

17

19

21

23

25

27

29

31

33

35

37

39

41

43

45

47

49

51

Semanas

Este proceso descrito para una sola variable de riesgo que produce pérdidas, con una frecuencia dada y una distribución de pérdidas extremas dada por una DGP, es el mismo que se construirá para el caso multivariado, en el que cada variable tiene sus supuestos de frecuencia de eventos por encima y debajo de un umbral, y sus distribuciones para modelar las pérdidas, y además considerando la probabilidad de pérdidas extremas en forma conjunta.

127

V.6.1.- Caso multivariado y notación OpVaR.

Para completar esta sección es necesario incluir la siguiente notación para el caso multivariado;

o Un proceso Poisson compuesto d-dimensional está definido por:

S=(S1(t), S2(t),…, Sd(t))t≥0 o El riesgo operativo total está dado por el siguiente proceso estocástico.

S + (t ) := S1 (t ) + S 2 (t ) + ⋅ ⋅ ⋅ + S d (t ) o Donde S+ es un proceso Poisson compuesto multivariado.

Si además C es el cargo de capital por riesgo operativo, y se define como la suma de los cargos de capital en cada celda de riesgo, donde estos cargos equivalen a OpVaR al 99.9% de nivel de confianza para cada celda; Siguiendo a Embrechts y Puccetti en “Aggregating Risk Capital, with an Application to Operational Risk”, Li,j representa las pérdidas aleatorias de las 56 celdas de riesgo operativo, se tienen las siguientes representaciones: •

Cargo de Capital: C = ∑∑ OpVaRβ (Li , j ) 8

7

i =1 j =1

∑ ∑ 8

7

1=1

j =1



Las pérdidas agregadas



Independencia en los eventos de pérdida: OpVaRβ



Dependencia completa:

∑ ∑ 8

7

1=1

j =1

Li , j

(∑

8

1=1



7 j =1

)

Li , j ;

OpVaRβ (Li , j )

128

V.6..2- El Problema de la Ruina y el Capital Requerido.

El Problema de la ruina: El modelo básico para modelar las pérdidas en riesgo operativo se desarrolló en el área de seguros, y su fundamento teórico fue desarrollado por Cramér y Lundberg. De acuerdo con Embrechts, Klüppelberg y Mikosh, “Lundberg se dio cuenta de que los procesos Poisson descansan en el corazón de los modelos de seguros distintos a los de vida. A través de adecuadas transformaciones (…) él fue capaz de restringir su análisis a los procesos Poisson homogéneos. Este ‘descubrimiento’ es similar al reconocimiento de Bachelier en 1900 de que el movimiento Browniano es la pieza fundamental de construcción para los modelos financieros” El modelo de Cramér y Lundberg tal como lo exponen los autores referidos (ob.cit. Pág. 22), ligeramente adaptado a riesgo operativo, ya que de origen modela siniestros de seguros, está estructurado como sigue: a) Proceso del tamaño de la pérdida. El tamaño de la pérdida por riesgo operativo, es (Xk) donde pertenece a los números naturales, son variables aleatorias positivas iid que tienen una función de distribución F, con media finita μ=EX1, y varianza σ2 =var(X1)=≤∞. b) Los tiempos de reclamo. Los reclamos (pérdidas) ocurren en instantes aleatorios de tiempo. 0 < T1 < T2 < ··· a.s. c) El proceso de llegada de los reclamos. El número de pérdidas en el intervalo [0,t] se denota por: N (t ) = sup{n ≥ 1 : Tn ≤ t}, t ≥ 0 Donde por convención, supØ=0. d) Los tiempos inter-llegada. Y1=T1, Yk=Tk,- Tk-1, k = 2,3,…., se distribuyen iid exponencialmente con media finita EY1=1/λ. e) Las secuencias (Xk) y (Yk) son independientes la una de la otra. El modelo de renovación está dado por los pasos anteriores salvo (d) f) Los entre tiempos de llegada de las pérdidas Yk son iid con media finita EYi=1/λ. El proceso de renovación es una generalización del modelo Cramér-Lundberg, el cual permite la existencia de procesos de conteo renovados. Las pérdidas operativas pueden verse precisamente como procesos de renovación, en los que la ocurrencia de las pérdidas ocurre en forma renovada, apenas ocurre otra está en proceso. En un periodo de tiempo se da un número de eventos cuya intensidad está dada por λ. Se supone que la frecuencia de las pérdidas sigue un proceso Poisson. El proceso de las pérdidas acumuladas (S(t))t≥0, correspondiente a la entidad cuya operación está subyacente, se define como: 129

S(t)=



N (t )

i =1

X i , N(t) > 0

0, N(t) = 0 Bajo este contexto la distribución del monto agregado de las pérdidas está dada por: ∞

Gt ( x ) = P(S (t ) ≤ x ) = ∑ e −λt

(λt )n F n* (x ),

x ≥ 0, t ≥ 0 n! Donde Fn*(x) es la n-ésima convolución de F, y está dada por: n =0

(

F n* (x ) = P ∑i =1 X i ≤ x n

)

De este modelo surge en forma natural el siguiente proceso de riesgo operativo (U(t))t≥0: U(t) = u + ct –S(t), t≥0 En donde u ≥ 0 es el cargo de capital por riesgo operativo c > 0 es la tasa de rendimiento del capital aportado para sustentar pérdidas por riesgo operativo. Como se puede apreciar el monto del capital y su rendimiento no presentan ningún misterio, sin embargo el proceso de S(t), resultante de las frecuencias y las distribuciones de severidad de pérdida subyacente puede hacer de este modelo simple algo realmente complicado. De este modelo surge el modelado de la ruina, que nos indica que probabilidad existe de perder todo el capital aportado para cubrir el riesgo operativo. La pregunta subyacente es si el capital aportado es suficiente para servir de amortiguador de los golpes que las pérdidas dan al patrimonio. “Definición 1.1.3 (Ruina) La probabilidad de ruina, en un tiempo finito (o con horizonte finito de tiempo):

ψ (u , T ) = P (U (t ) < 0, para algún t ≤ T, 0 < T < ∞, u ≥ 0. La probabilidad de ruina en tiempo infinito (o con horizonte de tiempo infinito):

ψ (u ) = ψ (u, ∞ ), u ≥ 0 Los tiempos de ruina:

τ (T ) = inf{t : 0 ≤ t ≤ T ,U (t ) < 0}, 0 < T ≤ ∞ , Donde, por convención infØ=∞, Usualmente escribimos τ = τ(∞) para el tiempo de ruina con horizonte infinito. (…)

130

Lemma 1.1.4 Para el modelo de renovación, EU (t ) = u + ct − μEN (t )

(1.5)

Para el modelo Cramér-Lundberg, EU (t ) = u + ct − λμt

(1.6)

(…) porque EN(t)=λt para el proceso Poisson homogéneo...” Klüppelberg y Mikosh, Ob. cit. Pág. 24-25

Embrechts,

En este modelo debe incluir proceso de difusión de pérdidas S(t) que contemplen pérdidas extremas. Es el proceso que modela el riesgo completo: Las pérdidas y el capital existente para sustentarlas, que da por resultado la probabilidad de ruina por riesgo operativo. En la sección 1.3 (Ruin Theory for Heavy Tailed Distributions), de la obra de Embrechts, Klüppelberg y Mikosh, que se ha venido siguiendo, se presentan varios lemas y resultados que serán útiles en el modelo que se seguirá en este trabajo para modelar mediante simulación Monte Carlo el riesgo operativo: •

Corolario 1.3.2 Si todo n≥1,

___

F ( x ) = x −α L(x ), para α ≥ 0 y L ∈ R0 , entonces para ____

___

F n* ( x ) ~ n F ( x ), x → ∞



Lo anterior se puede reformular como: __

F ∈ R−α , α ≥ 0, Implica P(S n > x ) ~ P(M n > x ), x → ∞. Lo que significa que “para funciones de distribución con colas que varían en forma regular, la cola de la función de distribución de la suma Sn, está determinada por la cola de la función de distribución del máximo Mn, Esta es exactamente una de las nociones intuitivas de las distribuciones de colas pesadas. Por tanto en términos un poco más relajados: Bajo el supuesto de variación regular, la cola del máximo determina la cola de la suma.” (Páginas 37 y 38).

Cursivas en negrita en la cita son del disertante. Este corolario es de suma importancia porque es el que permite inferir que las distribuciones DGP-M subyacentes a los procesos de pérdidas, determinarán la cola de las pérdidas agregadas por riesgo operativo.

131

Si de acuerdo con presentado previamente el siguiente modelo representa el capital en riesgo para identificar la probabilidad de ruina. U(t) = u + ct –S(t),

Y se representa así que implica un proceso multivariado de pérdidas: U(t) = u + ct – S+(t),

En el siguiente ejemplo u = 12, 000,000; c= 0.41% semanal es la tasa de crecimiento del capital; y S+(t) incluye tres procesos de pérdidas con los siguientes parámetros La siguiente gráfica muestra algunas de las trayectorias del proceso de difusión de pérdidas, en esta muestra se identifica cómo partiendo de un capital inicial de $ 12 millones, no aparece ninguna trayectorias que amenazan la existencia del capital, sin embargo solo se trazaron 255 trayectorias alternativas. Gráfico V.8.- Modelado de la Probabilidad de Ruina 12,200,000

12,000,000

11,800,000

11,600,000

Monto

11,400,000

11,200,000

11,000,000

10,800,000

10,600,000

10,400,000

10,200,000 1

3

5

7

9

11

13

15

17

19

21

23

25

27

29

31

33

35

37

39

41

43

45

47

49

51

Semanas

Sin embargo, con 5,000 trayectorias simuladas, si se calcula el intervalo de confianza de las pérdidas acumuladas al 99.9% y al 99.95%, se diría que en un caso existe .1% de

132

posibilidad de que el capital casi llegue a la mitad; o bien 0.05% de probabilidad de que llegue a 3.7 millones. Esto es la probabilidad de quiebra es baja: Gráfico V.8a.- Proceso de Capital en Riesgo al 99.9% de confianza. Probabilidad de Ruina 14,000,000

10,000,000

8,000,000

6,000,000

4,000,000

2,000,000

52

50

48

46

44

42

40

38

36

32

34

30

28

26

24

22

20

18

16

14

12

8

10

6

4

2

0

-

Semanas

Gráfico V.8b.- Proceso de Capital en Riesgo al 99.95% de Confianza. Probabilidad de Ruina 14,000,000

12,000,000

10,000,000

8,000,000

6,000,000

4,000,000

2,000,000

52

50

48

46

44

42

40

38

36

34

32

30

28

26

24

22

20

18

16

14

12

8

10

6

4

2

-

0

Proceso de Capital en Riesgo

Proceso de Capital en Riesgo

12,000,000

Semanas

133

V.7.- Construcción de los Procesos de Pérdidas de Riesgo Operativo y Simulación de Variables.

Para indagar en las medidas de riesgo bajo el modelo propuesto, se ha simulado un conjunto de datos. El objetivo de esta sección es aplicar los elementos que se han vertido hasta aquí e integrarlos en un ejercicio completo, así como aplicar las medidas de riesgo y obtener conclusiones al respecto. En el anexo V-1 se presentan las series de datos utilizadas así como sus sucesivas transformaciones a cuantiles y a exponenciales negativas. Los valores representan la máxima semanal de cada variable. V.7.1.- Parámetros de las Distribuciones Marginales y transformación a Marginales Uniformes.

De acuerdo con la metodología que se ha venido exponiendo en esta investigación, lo primero que se hará es obtener los parámetros de las distribuciones de valores extremos (Fréchet) subyacentes a los datos. Tabla V.7.- Parámetros DVE de las variables RO20, RO21 y RO22 (Fréchet)

μ α σ

RO-20 8,000 1.70205 9,998

RO-21 2,000 1.4700 6,100

RO-22 15,000 1.1900 3,500

Se obtiene su transformación a cuantiles mediante la expresión: ⎛ ⎛ x − μ ⎞ −α ⎞ ⎟ G1,α ( x ) = exp⎜ − ⎜ ⎜ ⎝ σ ⎟⎠ ⎟ ⎝ ⎠

Los resultados de esta transformación se encuentran en el segundo bloque del anexo V-1. V.7.2.-Transformación en Exponenciales Negativas.

Se realiza la transformación de los cuantiles a variables exponenciales negativas, con: yi = F ( xi ) − 1

Los resultados de esta transformación se encuentran en el tercer bloque del anexo V-1. Si ahora se obtienen los diagramas de dispersión de las variables exponenciales negativas por pares, se obtiene lo siguiente:

134

Grafico V.9.- Gráficas de Dispersión, pares de las variables RO20, RO21 y RO22 RO20-RO21 -1.00

-0.90

-0.80

RO20-RO22 -0.70

-0.60

-0.50

-0.40

-0.30

-0.20

-0.10

-1.00

0.00 0.00

-0.90

-0.80

-0.70

-0.60

-0.50

-0.40

-0.30

-0.20

-0.10

0.00 0.00

-0.10

-0.10

-0.20

-0.20

-0.30

-0.30

-0.40

-0.40

-0.50

-0.50

-0.60

-0.60

-0.70

-0.70

-0.80

-0.80

-0.90

-0.90

-1.00

-1.00

RO21-RO22 -1.00

-0.90

-0.80

-0.70

-0.60

-0.50

-0.40

-0.30

-0.20

-0.10

0.00 0.00 -0.10 -0.20 -0.30 -0.40 -0.50 -0.60 -0.70 -0.80 -0.90 -1.00

Nótese lo siguiente: •

Las variables muestran la forma típica de las cópulas.



Se encuentran en la parte negativa del plano cartesiano y van de 0 a -1.



La dependencia entre los valores de las variables es la que se explicó al inicio de esta sección: cada variable se relaciona con las otras dos.



Hay un área en la vecindad del cero en que las tres variables exhiben valores, estos valores son los relevantes en esta investigación.



Más aún el área lejos de la vecindad del cero puede exhibir o no dependencia (En cuyo caso nos hallamos en un caso de dependencia en la cola pura), la relevante es la que existe en la vecindad del cero.

135

V.7.3.-Realización de Pruebas de independencia. Obtención de algunos Parámetros para Simulación DGP-M.

Se realiza la prueba de dependencia entre las variables, utilizando la metodología descrita en el capítulo II. Las pruebas que se aplican son las versiones mutivariadas de la Neyman Pearson y de la Kolmogorov Smirnov. Lo prueba se aplica para diferentes umbrales multivariados, desplazando este umbral del área cercana al cero a una lejana, conforme aumenta la lejanía respecto al cero el número de extremos m, aumenta. Se presentan resúmenes de los 1,800 niveles de c a los que se aplicó la prueba. Tabla V.8.- Resultado de la prueba Neyman Pearson Prueba Neyman Pearson dependencia enla cola (OR20 - RO21 - RO22) c m T Prueba PV pv-value Resultado -0.01 1 0.44 0.10 9.66% NSRI -0.02 2 1.27 0.01 1.19% SRI -0.03 3 1.82 0.00 0.35% SRI -0.04 3 3.55 0.00 0.00% SRI -0.05 3 4.89 0.00 0.00% SRI -0.06 4 5.23 0.00 0.00% SRI -0.07 4 6.46 0.00 0.00% SRI -0.08 5 6.47 0.00 0.00% SRI -0.09 5 7.65 0.00 0.00% SRI -0.10 5 8.60 0.00 0.00% SRI -0.10 5 8.71 0.00 0.00% SRI -0.11 5 9.66 0.00 0.00% SRI -0.12 5 10.53 0.00 0.00% SRI -0.13 5 11.33 0.00 0.00% SRI -0.14 5 12.07 0.00 0.00% SRI -0.15 5 12.76 0.00 0.00% SRI -0.16 6 12.36 0.00 0.00% SRI -0.17 7 12.08 0.00 0.00% SRI -0.18 7 12.88 0.00 0.00% SRI -0.19 7 13.63 0.00 0.00% SRI -0.20 7 14.35 0.00 0.00% SRI -0.25 9 15.78 0.00 0.00% SRI -0.30 12 16.37 0.00 0.00% SRI -0.35 15 17.44 0.00 0.00% SRI -0.40 16 20.50 0.00 0.00% SRI -0.45 19 21.15 0.00 0.00% SRI -0.50 21 23.07 0.00 0.00% SRI -0.60 24 28.08 0.00 0.00% SRI -0.70 26 33.39 0.00 0.00% SRI -0.80 31 35.61 0.00 0.00% SRI -0.90 36 38.08 0.00 0.00% SRI -1.00 43 38.90 0.00 0.00% SRI -1.10 50 40.18 0.00 0.00% SRI -1.20 58 40.91 0.00 0.00% SRI -1.30 66 42.07 0.00 0.00% SRI -1.40 70 47.77 0.00 0.00% SRI -1.50 78 49.28 0.00 0.00% SRI -1.60 88 49.16 0.00 0.00% SRI -1.70 92 55.68 0.00 0.00% SRI -1.80 97 60.94 0.00 0.00% SRI

136

Esta prueba sugiere desde valores de m muy pequeños la existencia de dependencia en la cola. En cambio la prueba KS, no descarta inmediatamente la independencia, pero es muy útil para determinar el umbral multivariado y el valor de s. Tabla V.9.- Resultado de la prueba KS Multivariada c -0.010 -0.020 -0.030 -0.040 -0.050 -0.060 -0.070 -0.080 -0.090 -0.099 -0.100 -0.110 -0.120 -0.130 -0.140 -0.150 -0.160 -0.170 -0.180 -0.190 -0.200 -0.250 -0.300 -0.350 -0.400 -0.450 -0.500 -0.600 -0.700 -0.800 -0.900 -1.000 -1.100 -1.200 -1.300 -1.400 -1.500 -1.600 -1.700 -1.800

PRUEBA KS MULTIVARIADA DE DEPNDENCIA EN LA COLA (RO-20, RO-21, RO-22) Max_Emp Max_Ref n pvalue Δn_Emp Δn_Ref 0.54 0.98 1 100.0% 0.5368 0.9750 0.27 0.84 2 100.0% 0.3812 1.1908 0.32 0.71 3 99.7% 0.5493 1.2263 0.29 0.71 3 99.7% 0.5022 1.2263 0.42 0.71 3 99.7% 0.7190 1.2263 0.26 0.62 4 98.7% 0.5296 1.2480 0.34 0.62 4 98.7% 0.6718 1.2480 0.24 0.56 5 96.4% 0.5349 1.2589 0.28 0.56 5 96.4% 0.6275 1.2589 0.31 0.56 5 96.4% 0.6948 1.2589 0.31 0.56 5 96.4% 0.7015 1.2589 0.35 0.56 5 96.4% 0.7899 1.2589 0.39 0.56 5 96.4% 0.8767 1.2589 0.42 0.56 5 96.4% 0.9500 1.2589 0.45 0.56 5 96.4% 1.0134 1.2589 0.49 0.56 5 96.4% 1.0989 1.2589 0.37 0.52 6 92.3% 0.8941 1.2713 0.29 0.48 7 86.4% 0.7632 1.2779 0.31 0.48 7 86.4% 0.8070 1.2779 0.32 0.48 7 86.4% 0.8461 1.2779 0.34 0.48 7 86.4% 0.8964 1.2779 0.26 0.43 9 71.1% 0.7768 1.2900 0.18 0.38 12 46.5% 0.6162 1.2990 0.13 0.34 15 27.0% 0.5200 1.3091 0.13 0.33 16 22.0% 0.5379 1.3080 0.27 0.30 19 11.2% 1.1582 1.3120 0.38 0.29 21 6.8% 1.7570 1.3152 0.71 0.27 24 3.0% 3.4931 1.3178 0.89 0.26 26 1.2% 4.5491 1.3206 0.96 0.24 31 0.0% 5.3636 1.3251 1.00 0.22 36 0.0% 6.0000 1.3260 1.00 0.21 43 0.0% 6.5574 1.3600 1.00 0.19 50 0.0% 7.0711 1.3600 1.00 0.18 58 0.0% 7.6158 1.3600 1.00 0.17 66 0.0% 8.1240 1.3600 1.00 0.16 70 0.0% 8.3666 1.3600 1.00 0.15 78 0.0% 8.8318 1.3600 1.00 0.14 88 0.0% 9.3808 1.3600 1.00 0.14 92 0.0% 9.5917 1.3600 1.00 0.14 97 0.0% 9.8489 1.3600

Resultado No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia No se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia Se rechaza independencia

De acuerdo con la prueba, el umbral multivariado se encuentra cerca de c=0.-60. A partir de ese valor el p-value de la prueba indica que arriba abajo (recordad que estamos en el cuadrante negativo) ese umbral podemos hablar de dependencia. Los valores de Δn y el valor de referencia indican lo mismo. A ese nivel el número de extremos de las series es de 21 o menos. La siguiente gráfica muestra la evolución del valor de Δn, contra el valor crítico cα de aceptación de la prueba al 95% de confianza. En general esta prueba rechaza independencia si Δn>cα, donde c0.05, es el valor crítico del error tipo I al con un 5% de error.

137

Gráfica V.10.- Valor Δn calculado y de Referencia de aceptación de la hipótesis nula de Independencia en la cola.

10 9 8 7 6 5 4 3 2 1 0

Δn

92

78

66

50

36

26

21

16

12

7

7

6

5

5

5

cα 5

Valor k

Prueba KS-M de Independencia e la cola

Extremos

Como resultado natural de esta prueba dado que c=0.6, y d=3, se propone s=-0.2. Para determinar r se puede partir del número mínimo de extremos que debe usarse para estimar los parámetros de dependencia. V.7.4.-Determinación de los Parámetros de Dependencia.

Se determinan los parámetros de dependencia λ1, λ2. Se aplica la prueba para diferentes valores de r. Se encuentra que para r=21, se tienen 20 extremos para determinar los parámetros de dependencia. La prueba se aplica de conformidad con el capítulo III de este trabajo por máxima verosimilitud, utilizando la expresión de la densidad angular de la DGP-M para d=3. Se determina que:

855.8672 , 8λ1 → 3.86408 , λ2 → 3.11154

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.