SciELO - Scientific Electronic Library Online

 
vol.59 issue1Banking technical efficiency during crisis periods: Evidence of banks' profitability in Mexico and ChileThe Hurst coefficient and the parameter α-stable for financial series analysis: Application to the Mexican exchange market author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Contaduría y administración

Print version ISSN 0186-1042

Contad. Adm vol.59 n.1 Ciudad de México Jan./Mar. 2014

 

El uso de la distribución g-h en riesgo operativo1

 

The use of g-h distribution in operational risk

 

Andrés Mora Valencia*

 

* Colegio de Estudios Superiores de Administración. amora@cesa.edu.co

 

Fecha de recepción: 20.03.2012
Fecha de aceptación: 28.06.2012

 

Resumen

Este artículo presenta una revisión del uso de la distribución g-h en riesgo operativo; asimismo, se propone una modificación al método de Hoaglin (1985) para la estimación de los parámetros de la distribución g-h. La diferencia consiste en realizar una regresión robusta cuando se estima el parámetro h; además, se realizan comparaciones de estimados de OpVaR mediante g-h y POT en dos aplicaciones. Los resultados muestran que el empleo del método g-h es de gran utilidad en riesgo operativo, pero debe tenerse cuidado cuando la distribución de las pérdidas exhiben colas extremadamente pesadas.

Palabras clave: g-h, POT, riesgo operativo.

 

Abstract

This paper presents a review of the g-h distribution in operational risk and proposes a modification to the method developed by Hoaglin (1985) to estimating the parameters. The modification consists in the estimation of the parameter h using a robust regression. We estimate OpVaR by g-h and POT methods in two applications. The results show that the g-h method is useful in operational risk, but care must be taken when the distribution of losses presents extremely heavy tails.

Keywords: g-h, POT, operational risk.

 

Introducción

En Basilea II se incluye la necesidad de cuantificar capital regulatorio para riesgo operativo por parte de las entidades bancarias. La regulación propone las siguientes tres metodologías para que los bancos cuantifiquen su capital: el enfoque de indicador básico (BIA), el enfoque estándar (SA) y el enfoque de medición avanzada (AMA). Las instituciones financieras que apliquen AMA deberán calcular el valor en riesgo (VaR) al 99.9% en un horizonte de un año. Dentro de los modelos AMA, el más empleado en la práctica es el enfoque de distribución de pérdidas agregadas (LDA), que tiene sus raíces en la teoría de seguros; la finalidad es obtener una distribución de pérdidas agregando el proceso de frecuencia de eventos de pérdida junto con el de las severidades. Debido a que se requiere cuantificar un cuantil alto, es usual ver en la práctica que se combine LDA con la teoría del valor extremo (EVT), que ha sido empleado exitosamente en varios tipos de riesgo financiero y en especial cuando hay presencia de eventos de cola. Una revisión sobre los modelos LDA se puede encontrar en Chaudhury (2010) —donde también se realiza una discusión de los problemas prácticos al cuantificar capital por riesgo operativo y una de las conclusiones es que modelar inadecuadamente la cola de la distribución de severidades conlleva a problemas en la cuantificación del riesgo— y las referencias allí contenidas.

En la revisión de la literatura se ha encontrado que la distribución g-h se ajusta bien a los datos de pérdidas por riesgo operativo. Por lo tanto, este artículo realiza una revisión no exhaustiva de estudios donde involucre la distribución g-h en riesgo operativo y se propone una modificación para la estimación de los parámetros de esta distribución. Así, en primer lugar, se presenta la revisión de estudios previos. Después, se define la distribución g-h y se enuncian sus propiedades básicas; de igual forma, se describe brevemente los métodos existentes para estimar sus parámetros. Más adelante, se presenta dos aplicaciones de estimación de OpVaR y Op-CVaR mediante g-h, las cuales se comparan con la metodología POT. Finalmente, se presentan las principales conclusiones de este trabajo.

 

Estudios de g-h en riesgo operativo

Dutta y Perry (2006) usan los datos LDCE de 2004 con los que ajustan distribuciones paramétricas, EVT y muestreo empírico (simulación histórica) a las severidades; encuentran que la distribución g-h y el muestreo empírico conllevan a estimados consistentes de cargos de capital. Otras distribuciones paramétricas empleadas para ajustar las severidades son exponencial, gamma, de Pareto generalizada, loglogística, lognormal truncada, Weibull y beta generalizada de segunda clase (GB2). Así como la g-h, la distribución GB2 tiene la característica de poseer cuatro parámetros, por lo que otras distribuciones pueden ser generadas a partir de la GB2 y de la g-h. Degen et al. (2007) encuentran que si los datos de pérdida son bien modelados por una distribución g-h, la estimación de cuantiles altos mediante el método POT (picos sobre un umbral), por lo general, convergerá muy lentamente; por consiguiente, su estimación mediante EVT será imprecisa y —como se vio en el estudio de Dutta y Perry (2006)— la distribución g-h se ajustará bien a las pérdidas por riesgo operativo.

El punto débil del EVT es la selección del umbral porque el parámetro de forma (§) de las distribuciones empleadas en EVT puede variar y asimismo el cálculo de cargo de capital. Beirlant et al. (2004) realizan una revisión de métodos para seleccionar el umbral, pero no existe un método óptimo que solucione este problema, puesto que algunos métodos solucionan el problema de varianza en la estimación de los parámetros y otros sólo el de sesgo. Sin embargo, el trabajo de Chávez-Demoulin (1999), basado en estudios de simulación, recomienda escoger un umbral como el percentil al 90% de las datos de pérdidas. Otro trabajo de Chávez-Demoulin y Embrechts (2004) realiza un análisis de sensibilidad con este umbral y muestra que pequeñas variaciones en el umbral escogido no tienen mucho impacto en la estimación de los parámetros requeridos en EVT. Recientemente, Horbenko et al. (2011) emplean técnicas de estadística robusta para estimar los parámetros de la distribución de Pareto generalizada (distribución empleada en el método POT) y lo aplican a datos de pérdida por riesgo operativo de la base de datos Algo OpData (distribuida por la compañía Algorithmics Inc); los autores concluyen que no se puede afirmar que los estimados de OpVaR, usando estadística robusta, siempre serán mayores que los obtenidos mediante máxima verosimilitud (método usualmente empleado para estimar los parámetros de la distribución de Pareto generalizada). Un estudio previo (Dell'Aquila y Embrechts, 2006) señala que la estadística robusta ayuda a mejorar el análisis de datos cuando se emplea EVT.

Pero EVT no podría funcionar bien en ciertas distribuciones; la explicación se puede encontrar analizando la teoría de variación regular de segundo orden. Para detalles de esta teoría y su aplicación a distribuciones de riesgo operativo, puede verse el artículo de Degen y Embrechts (2008) y las referencias allí contenidas. Los autores encuentran que la tasa de convergencia de métodos basados en EVT para estimar ξ y, por ende, cuantiles altos, es muy lenta en distribuciones donde el parámetro de segundo orden ρ es igual a cero. En otras palabras, se pueden obtener estimadores inconsistentes cuando ρ=0. Las distribuciones como loggamma, lognormal, Weibull y g-h son ejemplo de distribuciones con ρ =0.

Jobst (2007) también realiza una comparación de la distribución g-h con las distribuciones paramétricas empleadas en EVT; es decir, la distribución de valor extremo generalizada (GEV, por sus siglas en inglés) y GPD. Los datos que empleó corresponden a los de bancos comerciales en Estados Unidos. Su conclusión es que tanto EVT como g-h arrojan resultados de pérdidas inesperadas confiables y realistas, aunque g-h se desempeña mejor.

Buch-Kromann (2009) compara EVT y g-h en riesgo operativo y adiciona un tercer método basado en la distribución Champernowne que es una distribución de tres parámetros y exhibe colas pesadas; más específicamente, se utiliza el estimador transformado de la densidad kernel de la Champernowne. Otros artículos, cuyas referencias pueden ser encontradas en el citado trabajo de Buch-Kromann, han recomendado el uso de esta distribución para modelar pérdidas por riesgo operativo. Una ventaja que presenta esta distribución es que no toma valores negativos, mientras que g-h y GPD sí. Al utilizar datos de pérdida por riesgo operativo y el método LDA, el autor muestra que la distribución g-h subestima la cola de las pérdidas y, por lo tanto, no arrojaría un estimado prudente de capital requerido. El estimador basado en la distribución Champernowne, por el contario, sobreestima cargo de capital.

En otros estudios relacionados, Peters y Sisson (2006) emplean estadística bayesiana y simulación Monte Carlo de cadenas de Markov (MCMC, por sus siglas en inglés) para encontrar la distribución a posteriori, donde la distribución de pérdidas sigue una distribución g-h. Carrillo-Menéndez y Suárez (2012) utilizan simulaciones de datos, donde la cola sigue una distribución g-h, para estimar medidas de riesgo operativo. A continuación se presenta una definición básica de la distribución g-h y sus propiedades.

 

Distribución g-h

La distribución g-h fue introducida por Tukey en 1977 y ha sido utilizada en finanzas, en aplicaciones de retornos de acciones e índices, como también para modelar tasas de interés y opciones en tasas de interés (Dutta y Perry, 2006, así como referencias ahí contenidas).

 

Definición

Sea Z ~ N(0, 1) una variable aleatoria normal estándar. Una variable aleatoria X se dice que tiene una distribución g-h con parámetros a, b, g, h h ∈ ℝ, si X satisface:

y se denota X ~ g-h.

El parámetro g controla la cantidad y dirección de asimetría, mientras que el parámetro h controla la cantidad de elongación (curtosis). La distribución es más sesgada a la derecha a mayores valores de g; y entre mayor es el valor de h mayor es la elongación.

Cuando h = 0, la ecuación (1) es , y la distribución g-h se convierte en la distribución g que corresponde a una distribución lognormal escalada.

Cuando g = 0, la ecuación (1) se interpreta como , y la distribución es referida como la distribución h. Cuando g=h = 0, X se distribuye de manera normal.

 

Propiedades de la distribución g-h

Martínez (1981), Martínez e Iglewicz (1984), Hoaglin (1985), entre otros, han estudiado las propiedades de la distribución g-h. Una propiedad importante es que muchas distribuciones pueden ser generadas a partir de la g-h para valores específicos de los parámetros. Las siguientes propiedades están basadas en Dutta y Babel (2002) y Degen et al. (2007):

1. X es una transformación estrictamente creciente de Z. Esto es, la transformación de una normal estándar a una g-h es uno a uno.

2. Si a = 0, entonces X-gh(Z) = - Xgh(-Z). Cambiar el signo de g cambia la dirección, pero no el valor de asimetría de la distribución g-h.

3. Para h = 0 y g → 0, la distribución g-h converge a una distribución normal.

4. La distribución g es una distribución lognormal escalada.

5. El parámetro de localización a de la distribución g-h es la mediana del conjunto de datos, y el p-ésimo percentil del valor de g está dado por Como Z0.5=0, y al reemplazarlo en (1), se obtiene a=X0.5. Al escoger diversos valores de p se obtienen diferentes estimados del parámetro g. Para solucionar este problema, algunos autores han sugerido usar la mediana de los diferentes valores de gp. Jiménez y Martínez (2006) proponen la estimación del parámetro g de una manera más sencilla cuando h tiende a cero.

6. Para un cierto valor de g, el valor de h está dado por De esta manera, se puede obtener el valor de h como el coeficiente de la pendiente de la regresión de El valor de b se obtiene tomando la función exponencial del intercepto de la regresión. La expresión es conocida como corrected full spread (FS).

7. La distribución g-h es una función de variación regular con índice -1/h (con h > 0). La distribución g es una función subexponencial (estas distribuciones obtienen este nombre debido a que sus colas decaen más lentamente que las de una exponencial); sin embargo, no es de variación regular (ver teorema 2.1 en Degen et al., 2007).

Funciones de variación regular son aquellas que pueden ser representadas por funciones de potencia multiplicadas por funciones de variación lenta. Es decir, si q es una función de variación regular, entonces q(x)=xQL(x). Mientras que una función de variación lenta L es aquella que comparada con funciones de potencia cambian relativamente lento para valores grandes de x, por ejemplo, ln(x).

Como se mencionó, un resultado importante del artículo de Degen et al. (2007) es que si los datos de pérdida son bien modelados por una distribución g-h (con valores g, h > 0), la estimación de cuantiles altos mediante el método POT por lo general convergerá muy lentamente y, por tanto, su estimación mediante EVT será imprecisa. A continuación se presenta como estimar cuantiles de una distribución g-h cuando se han estimado los parámetros de la distribución. Este apartado está basado en la sección 2.1 de Degen et al. (2007).

 

Estimación del cuantil mediante la aproximación g-h

Puesto que es estrictamente creciente (para h>0), la función de distribución acumulada de una variable aleatoria g-h X se puede escribir como:

donde Φ denota la función de distribución acumulada de una normal estándar. Teniendo en cuenta los parámetros de localización y escala (a y b), el VaR se estima de la siguiente forma:

En cuanto a los momentos de la distribución g-h, Martínez (1981) obtiene el n-ésimo momento de esta distribución para ciertos valores de h. Hoaglin (1985) obtiene los cuatro primeros momentos y también se pueden encontrar en el apéndice D de Dutta y Perry (2006).

 

Métodos de estimación de los parámetros de g-h

En las aplicaciones del método g-h se emplea la metodología propuesta por Hoaglin (1985), en especial la sección 11D para estimar g; está basada en cuantiles y en comparación con otras metodologías —como el método de momentos y máxima verosimilitud— puede ser más preciso en el ajuste de las colas de la distribución, como lo afirman varios autores. Este método no es apropiado para todas las distribuciones; sin embargo, sí es adecuado para g-h, que es una transformación de una normal estándar. Para el método de los momentos se podrían plantear cuatro ecuaciones para resolver cuatro incógnitas, que son la cantidad de parámetros por estimar. Sin embargo, el cuarto momento exige que 0 ≤ h ≤ 1/4 y, por ejemplo, Dutta y Perry encuentran un rango para el parámetro h en [0.1, 0.35]. Esto se convierte en una desventaja para el método de los momentos. Aunque no existe una expresión analítica para obtener la función de verosimilitud de una distribución g-h, Rayner y MacGillivray (2002) estudian procedimientos de estimación de los parámetros para una distribución g-h generalizada mediante estimación numérica de la función de máxima verosimilitud. Por su parte, Haynes y Mengersen (2005) exploran computación bayesiana para estimar tales parámetros. En este artículo se presenta una propuesta de estimar el parámetro h como la pendiente de una regresión robusta de vs (Zp2/2) (ver propiedad 6). Por lo tanto, el parámetro b será calculado como la función exponencial del intercepto de dicha regresión (véase el apéndice B para una introducción de regresión robusta).

 

Aplicaciones

En esta sección se comparan los estimados de VaR y CVaR mediante las técnicas g-h y POT. La obtención de datos de pérdida por riesgo operativo no es tan fácil. Por tal razón, se recurren a fuentes de datos ya examinadas en estudios anteriores. En el primer caso, los datos, aunque no son de riesgo operativo en un banco, se tratan de pérdidas en las aseguradoras danesas por reclamos causados por incendio; los estimados de VaR y CVaR se realizan en varios niveles de confiabilidad. En el segundo caso, se estima VaR y CVaR al 99.9% en distribuciones de pérdida obtenidas mediante simulación de datos que aparecen en un estudio de riesgo operativo; para este último caso, los autores del estudio presentan las distribuciones y parámetros empleados para el proceso de frecuencia y severidad.

 

Aplicación 1 (caso Danish Fire Data)

Los datos de la aplicación corresponden a 2 167 reclamos en seguro contra incendio en Dinamarca (Danish Fire Data); las pérdidas se expresan en millones de coronas danesas, desde el 1 de marzo de 1980 hasta el 12 de diciembre de 1990. Estos datos han sido previamente estudiados por varios autores bajo el marco de EVT.

A continuación se muestra el resumen del análisis descriptivo y se observa que la distribución de las pérdidas es sesgada a la derecha y presenta alta curtosis, buen ejemplo para estudio de colas pesadas (ver cuadro 1).

 

En el siguiente cuadro se compara VaR en diferentes niveles de confiabilidad mediante diferentes métodos.

 

El método POT utiliza un umbral de tal manera que los datos en exceso sean el 10% del total de la muestra (216 datos en exceso), que es equivalente a 5.5617 millones de coronas danesas. Se utiliza este umbral siguiendo los resultados de Chávez-Demoulin (1999). A continuación se muestra el gráfico del ajuste de la distribución de Pareto generalizada a los datos en exceso cuando se emplea el umbral seleccionado. Se puede apreciar que con el umbral escogido, la distribución hace un buen ajuste a los datos de la cola.

 

POT* es calculado mediante un resultado de computación bayesiana. El primer método g-h es el calculado en Degen et al. (2007); el segundo g-h* es calculado siguiendo la técnica de Hoaglin (1985) y descrito en el apéndice A; el último g-h** corresponde a la aplicación de la regresión robusta.

Degen et al. (2007) usan un parámetro g constante, mientras que en este artículo se usa un polinomio de g en z2 (ver apéndice A). Aunque este último método puede brindar una aproximación más cercana a los datos, introducir una variable adicional (z2) reduce robustez en la estimación de los parámetros. Para ello, se propone la estimación g-h**, que consiste en realizar una regresión robusta, como se indicó anteriormente. Los diferentes métodos arrojan estimaciones similares al observar los resultados obtenidos del cuadro 2 para niveles del 90%, 95% y 99%, mientras que para el 99.9% se obtienen resultados diferentes. En la siguiente gráfica se muestra que el modelo de g-h con parámetro g no constante se ajusta mejor a los datos de la aplicación.

 

En la parte izquierda de la gráfica se emplea parámetro g no constante, mientras que en la parte derecha el parámetro g es constante.

Los resultados de VaR bajo POT han sido calculados mediante la siguiente expresión:

Donde u es el umbral; β, ξ son los parámetros de escala y de forma de la GPD; Nu son los datos en exceso por encima del umbral; y n es el total de los datos. Este estimador de VaR fue inicialmente propuesto por Smith (1987) y ampliamente utilizado bajo EVT. Los parámetros han sido estimados mediante máxima verosimilitud usando el paquete evir de R. Cuando se usa el número de excesos de 216, el umbral es de 5.5617 millones de coronas danesas. Con estos datos de entrada, las estimaciones son 0.5928 y 4.4468 para ξ y β, respectivamente. El método POT-Bayes se basa en los resultados de Vaz de Melo Mendes (2006). En lugar de usar la distribución de Pareto generalizada, se emplea una modificación introduciendo un parámetro ϒ. Entonces, la función de distribución está dada por:

de esta manera, siguiendo los mismos pasos para calcular VaR mediante el estimador de Smith (1987), el VaR para este caso estaría dado por:

 

Vaz de Melo Mendes (2006) obtiene estimados de 0.7346, 3.5943 y 0.1863 para ϒ, β y ξ, respectivamente. Con estos valores se calcula VaR utilizando la expresión (2).

 

Conditional value-at-risk

El artículo de Artzner et al. (1999) muestra que una medida coherente de riesgo debe cumplir cuatro axiomas: I) Invarianza traslacional, II) Subaditividad, III) Homogeneidad positiva y IV) Monotonicidad.

El axioma de subaditividad es el axioma más debatido de estas propiedades que caracterizan una medida coherente de riesgo; en ocasiones el VaR viola este axioma (ver por ejemplo la sección 65.8.5 de Venegas, 2006), generando problemas a la regulación, como se verá más adelante. McNeil et al. (2005) argumentan la necesidad de que una medida de riesgo cumpla este axioma, y uno de los más importantes es que una institución financiera puede legalmente dividirse en varias subsidiarias y reportar individualmente su capital regulatorio, reduciendo así sus requerimientos totales de capital (esto se conoce como legal loophole). El ejemplo 6.7 de McNeil et al. (2005) también muestra un caso en que el VaR no cumple con el axioma de subaditividad. Básicamente VaR no es subaditivo por tres razones: a) asimetría, b) colas pesadas y c) dependencia.

Sin embargo, el VaR es subaditivo cuando la función de distribución de pérdidas y ganancias es elíptica; por ejemplo, una función normal o t-Student. Pero en riesgo operativo es común encontrar distribuciones de pérdidas que cumplen las razones a) y b). Debido a los problemas de no subaditividad de una medida de riesgo, Artzner et al. (1999) proponen el uso de expected shortfall (ES) que siempre es una medida coherente de riesgo. ES se puede definir como la pérdida esperada dado que las pérdidas superaron un cierto percentil. Esta medida de riesgo también es conocida como conditional value-at-risk (CVaR) o expected tail loss (ETL), entre otros. A continuación se muestran los resultados de estimar CVaR para los datos de la aplicación 1 (ver cuadro 3).

 

Se aprecia que el método propuesto arroja valores mayores de CVaR. Para calcular el CVaR en la metodología POT se emplea la ecuación (7.19) de McNeil et al. (2005) que viene dada por:

Los valores de VaRα se toman de los resultados del cuadro 2. Para encontrar el valor de CVaR por el método POT-Bayes, se emplea la definición del CVaR. La medida CVaR se define como el valor esperado de las pérdidas esperadas, dado que las pérdidas superaron el VaR, y se calcula como sigue (ver definición 2.15, McNeil et al., 2005):

Donde VaR viene dada por la expresión (2) para este caso. Analíticamente no es fácil resolver esta integral para la modificación a la distribución de Pareto generalizada; por lo tanto, se utilizan métodos numéricos para aproximar la integral. Específicamente, se utiliza una cuadratura y se emplea la función quad de la librería pracma de R.

Para calcular el CVaR en la distribución g-h se utiliza la aproximación desarrollada en Jiménez y Arunachalam (2011):


Haga clic para agrandar 

Donde Φ denota la función de distribución acumulada de una normal estándar y zα es el percentil de una distribución acumulada de una normal estándar al nivel α; mientras que a, b, g, h son los parámetros de la distribución g-h.

 

Aplicación 2 (Resultados de Temnov y Warnung, 2008)

Temnov y Warnung (2008) comparan tres métodos para obtener la distribución de pérdidas agregadas; los datos provienen de una entidad financiera junto con datos externos de un grupo de bancos. Los autores estiman VaR al 99.9% a las distribuciones obtenidas mediante tres métodos: simulación Monte Carlo (MC), transformada rápida de Fourier (FFT) y la metodología Credit Risk+ (CRP). Entonces, en este artículo, para cada línea de negocio se realiza una simulación de 5 000 réplicas con los datos de la severidad y de frecuencia de la tabla 1 de Temnov y Warnung (2008); luego de obtener la distribución de pérdidas, se calcula VaR y CVaR al 99.9% mediante la técnica POT y g-h propuesta; finalmente, se comparan con el promedio de los tres resultados de Temnov y Warnung.

Shevchenko (2010), con un propósito similar, realiza comparaciones de simulación Monte Carlo, FFT y el algoritmo recursivo de Panjer; el autor concluye que cada método tiene sus fortalezas y debilidades. Por ejemplo, la simulación Monte Carlo es lento, pero es fácil de implementar y permite modelar dependencia, característica que no es fácil de incluir en los métodos de FFT y Panjer. Sin embargo, el método de Panjer es el más fácil de implementar aunque incluye error de discretización. El método de FFT es generalmente más rápido. Lou y Shevchenko (2009) implementan un algoritmo de integración numérica directa adaptativa para calcular VaR y CVAR al 99.9% para distribuciones agregadas. Los resultados muestran que este método funciona mejor que Monte Carlo y que algunas veces es más preciso que FFT. Estos resultados se dan cuando se supone independencia entre el proceso de frecuencia y de severidades.

 

Nuevamente la metodología POT ha sido calculada usando un umbral del 90% de los datos, mientras que g-h incluye la regresión robusta. Los resultados de la segunda hasta la cuarta columna son obtenidos de la tabla 1 de Temnov y Warnung (2008).

Sin tener en cuenta la dependencia entre las líneas de negocio (en otras palabras, no se tienen en cuenta los beneficios de diversificación), se observa que el método POT subestima el VaR total con respecto al promedio de los resultados de Temnov y Warnung, mientras que la técnica g-h propuesta lo sobreestima. En valores absolutos, se aprecia una alta sobreestimación por parte de POT y g-h para la línea 7. En este caso, la severidad sigue un "modelo de media infinita". Estos modelos (o distribuciones) se caracterizan por presentar colas extremadamente pesadas. Nešlehová et al. (2006) presentan una discusión cuando ocurren estos casos y la consecuencia es que el cálculo del VaR puede conllevar a cargos de capital absurdamente altos. Por tal razón, se debe prestar mayor atención al realizar cálculos de VaR mediante cualquier técnica a este tipo de modelos. En estos modelos, medidas como el expected shortfall (o CVaR) no se pueden calcular cuando se estima mediante POT; de ahí el nombre de modelos de media infinita.

A continuación se muestra el gráfico del ajuste de la distribución de Pareto generalizada a los datos en exceso (simulados) de las diferentes líneas de negocio cuando se emplea el umbral seleccionado.


Haga clic para agrandar

Otra conclusión del artículo de Nešlehová et al. (2006) es que si EVT se opera correctamente, se puede dar una solución a los problemas de modelos de media infinita. Sin embargo, esto no se tratará en este artículo y será tema de una futura investigación.

 

Conclusiones

En este artículo se propone una modificación al método de Hoaglin (1985) para la estimación de parámetros de una distribución g-h. El método original emplea la pendiente de una regresión de mínimos cuadrados ordinarios para la estimación del parámetro h. La propuesta es realizar una regresión robusta para mitigar los inconvenientes cuando no se cumplen los supuestos de la regresión por mínimos cuadrados.

En ambos casos de aplicación, se aprecia que el método propuesto de la g-h sobreestima el OpVaR empírico, mientras que el método POT lo subestima. Sin embargo, esto no lleva a una conclusión decisiva de qué método es mejor, pero sí destacar las diferencias en los resultados entre ambas metodologías.

Mediante la revisión de la literatura y las aplicaciones, el uso del método g-h puede ser de gran utilidad en la cuantificación de riesgo operativo, cuyas distribuciones de pérdidas se caracterizan por presentar colas pesadas. Sin embargo, se requiere especial atención al estimar OpVaR bajo modelos de media infinita (distribuciones con cola extremadamente pesadas). Estos modelos pueden conllevar a estimaciones de VaR absurdamente altos, lo que se confirmó en la segunda aplicación. Una futura investigación estará encaminada a estudiar otras metodologías, propuestas en otros trabajos, para resolver este problema. Finalmente, como se puede apreciar en la literatura, las fuentes de datos de pérdidas por riesgo operativo resultan, por lo general, de simulaciones o bases de datos que pueden ser costosas o no son fáciles de conseguir. Por lo tanto, se espera que la industria financiera pueda compartir sus datos a la academia y realizar investigaciones futuras con datos reales y en diversos escenarios, pues diversos autores, como Nešlehová et al. (2006), ya habían reconocido esta necesidad.

 

Referencias

Artzner, P., F. Delbaen, J. M. Eber y D. Heath (1999). Coherent measures of risk. Mathematical Finance (9): 203-228.         [ Links ]

Beirlant, J., Y. Goegebeur, J. Segers y J. Teugels (2004). Statistics of Extremes: Theory and Applications. Nueva York: John & Wiley Sons.         [ Links ]

Buch-Kroman, T. (2009). Comparison of tail performance of the Champernowne transformed kernel density estimator, the generalized Pareto distribution and the g-and-h distribution. Astin Bulletin (27): 139-151.         [ Links ]

Carrillo-Menéndez, S. y A. Suárez (2012). Robust quantification of the exposure to operational risk: Bringing economic sense to economic capital. Computers & Operations Research 39 (4): 792-804.         [ Links ]

Chaudhury, M. (2010). A review of the key issues in operational risk capital modeling. The Journal of Operational Risk 5 (3): 37-66.         [ Links ]

Chávez-Demoulin, V. (1999). Two problems in environmental statistics: Capture-recapture analysis and smooth extremal models. Ph.D. thesis. Department of Mathematics, Swiss Federal Institute of Technology, Lausanne.         [ Links ]

----------, y P. Embrechts (2004). Smooth extremal models in finance and insurance. The Journal of Risk and Insurance 71 (2): 183-199.         [ Links ]

Degen, M., P. Embrechts y D. Lambrigger (2007). The quantitative modeling of operational risk: between g-and-h and EVT. Astin Bulletin 37 (2): 265-291.         [ Links ]

----------, y P. Embrecths (2008). EVT-based estimation of risk capital and convergence of high quantiles. Advanced in Applied Probability 40 (3): 696-715.         [ Links ]

Dell'Aquila, R. y P. Embrechts (2006). Extremes and robustness: a contradiction? Financial Markets Portfolio Management (20):103-118.         [ Links ]

Dutta, K. y D. F. Babbel (2002). On Measuring Skewness and Kurtosis in Short Rate Distributions: The Case of the US Dollar London Inter Bank Offer Rates. Wharton Financial Institutions Center Working Paper.         [ Links ]

----------, y J. Perry (2006). A tale of tails: An empirical analysis of loss distribution models for estimating operational risk capital. Federal Reserve Bank of Boston. Working Paper 06/13.         [ Links ]

Fox, J. y S. Weisberg(2002). An R and S-PLUS Companion to Applied Regression. Washington DC: Sage Publications.         [ Links ]

Haynes, M. y K. Mengersen (2005). Bayesian estimation of g-and-k distributions using MCMC. Comput. Stat 20 (1): 7-30.         [ Links ]

Hoaglin, D. C. (1985). Summarizing Shape Numerically: The g-and-h Distributions. En Exploring Data Tables Trends, and Shapes. D. C. Hoaglin, F. Mosteller y J. W. Tukey (eds.). Nueva York: John & Wiley Sons.         [ Links ]

Horbenko, N., P. Ruckdeschel y T. Bae (2011). Robust estimation of operational risk. Journal of Operational Risk 6 (2): 3-30.         [ Links ]

Jiménez, J. A. y J. Martínez (2006). Una estimación del parameter de la distribution g de Tukey. Revista Colombiana de Estadística 29 (1): 1-16.         [ Links ]

----------, y V. Arunachalam (2011). Using Tukey's g and h family of distributions to calculate value-and-risk and conditional value-and-risk. Journal of Risk 13 (4): 95-116.         [ Links ]

Jobst, A. (2007). Operational Risk-The Sting is Still in the Tail But the Poison Depends on the Dose. Journal of Operational Risk 2 (3): 3-59.         [ Links ]

Lou, X. y P. Shevchenko (2009). Computing tails of compound distributions using direct numerical integration. Journal of Computational Finance 13 (2): 73-111.         [ Links ]

Martínez, J. (1981). Some Applications of Robust Scale Estimators. Tesis doctoral. Temple University, Department of Statistics, Philadelphia.         [ Links ]

----------, y B. Iglewicz (1984). Some properties of the Tukey g and h family of distributions. Communications in Statistics: Theory and Methods 13 (3): 353-369.         [ Links ]

McNeil, A. J., R. Frey y P. Embrechts (2005). Quantitative Risk Management: Concepts, Techniques and Tools. Nueva Jersey: Princeton University Press.         [ Links ]

Nešlehová, J., V. Chávez-Demoulin y P. Embrechts (2006). Infinite-mean models and the LDA for operational risk. Journal of Operational Risk 1 (1): 3-25.         [ Links ]

Peters, G. W. y S. A. Sisson (2006). Bayesian inference, Monte Carlo sampling and operational risk. Journal of Operational Risk 1 (3): 27-50.         [ Links ]

Rayner, G. y H. MacGillivray (2002). Numerical maximum likelihood estimation for the g-and-k and generalized g-and-h distributions. Statistics and Computing (12): 57-75.         [ Links ]

Shevchenko, P. V. (2010). Calculation of aggregate loss distributions. The Journal of Operational Risk 5 (2): 3-40.         [ Links ]

Smith, R. L. (1987). Estimating tails of probability distributions. Annals of Statistics (15): 1174-1207.         [ Links ]

Temnov, G y R. Warnung (2008). A comparison of loss aggregation methods for operational risk. Journal of Operational Risk 3 (1): 3-23.         [ Links ]

Vaz de Melo Mendes, B. (2006). A Bayesian analysis of clusters of extreme losses. Appl. Stochastic Models Bus. Ind. (22): 155-167.         [ Links ]

Venegas, F. (2006). Riesgos financieros y económicos: productos derivados y decisiones económicas bajo incertidumbre. México: Thomson.         [ Links ]

 

Nota

1 El autor agradece las valiosas sugerencias y recomendaciones de los evaluadores anónimos y los comentarios del editor de la revista. Estas contribuciones ayudaron significativamente a mejorar la versión previa de este artículo.

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License