• No se han encontrado resultados

Valor em risco operacional com cópulas de valores extremos

N/A
N/A
Protected

Academic year: 2021

Share "Valor em risco operacional com cópulas de valores extremos"

Copied!
67
0
0

Texto completo

(1)

Universidade de Brasília

Instituto de Ciências Exatas

Departamento de Estatística

Estágio Supervisionado 2

Valor em Risco Operacional com

Cópulas de Valores Extremos

Diego Rodrigues Oliveira - 08/27941

Relatório Final

Orientadora: Cira E. Guevara Otiniano

Brasília

Junho de 2012

(2)

Diego Rodrigues Oliveira

Valor em Risco Operacional com

Cópulas de Valores Extremos

Relatório Final de conclusão de curso,

apresentado à disciplina Estágio Supervisionado

II do Curso de Bacharelado em Estatística –

Instituto de Ciências Exatas da Universidade de

Brasília.

Orientadora:

Cira Etheowalda Guevara Otiniano

Universidade de Brasília

Instituto de Ciências Exatas

Departamento de Estatística

(3)

Sumário

Listas de Ilustrações ... v L.1 – Lista de Tabelas ... v L.2 – Lista de Figuras ... v Lista de Abreviações ... vi Resumo ... vii 1 Introdução ... 1

2 O Novo Acordo de Basiléia... 4

2.1 Introdução... 4

2.2 Risco Operacional ... 6

2.1.1 O Método de Indicador Básico ... 7

2.1.2 O Método Padronizado ... 7

2.1.3 Métodos de Mensuração Avançada ... 9

3 Valor em Risco Operacional ... 11

3.1 Introdução... 11

3.2 Fundamentação Teórica ... 11

3.3 Medidas de Risco Coerentes ... 12

3.4 Comonotonicidade ... 14

4 Distribuições de Cauda Pesada ... 15

4.1 Introdução... 15

4.2 Fundamentação Teórica ... 16

4.2.1 Distribuições α-estáveis ... 16

(4)

4.2.3 Distribuições de Variação Regular ... 21 5 Cópulas... 22 5.1 Introdução... 22 5.2 Fundamentação Teórica ... 22 5.3 Limites de Fréchet-Hoeffding ... 24 5.4 Dependência Caudal ... 25 5.5 Famílias de Cópulas ... 27 5.5.1 Introdução ... 27 5.5.2 Cópulas Elípticas ... 27 5.5.3 Cópulas Arquimedianas ... 29

6 Cópulas de Valores Extremos ... 32

6.1 Introdução... 32

6.2 Fundamentação Teórica ... 32

6.3 Estimação da Cauda Conjunta... 35

6.4 Dependência Caudal ... 36

7 Estimadores ... 37

7.1 Introdução... 37

7.2 Estimação Paramétrica ... 38

7.3 Estimação Não Paramétrica ... 41

8 Aplicação Prática ... 44

8.1 Introdução... 44

8.2 Análise Descritiva ... 44

8.3 Estimação dos Parâmetros ... 49

8.4 Resultados ... 51

8.5 Observações ... 53

(5)

Referências... 55

Apêndice... 56

Código SAS ... 56

(6)

Listas de Ilustrações

L.1 – Lista de Tabelas

2.1 – Fatores Beta para as Linhas de Negócio de uma Instituição Financeira . . . .pg.7 8.1 – Estatísticas Descritivas para os Conjuntos de Dados FLT e DNN . . . .pg.43 8.2 – Estimativas dos Parâmetros da GEV . . . pg.48 8.3 - Estimativa do parâmetro da cópula, função de dependência e dependência caudal . pg.49 8.4 – Valor em Risco para FLT e DNN . . . .pg.50 8.5 – Estrutura de dependência . . . pg.50

8.6 – Valor em Risco de FLT e DNN considerando a estrutura de dependência . . . . . .pg.51

L.2 – Lista de Figuras

8.1 - Série temporal dos dados de máximos mensais FLT . . . pg.44 8.2 - Série temporal dos dados de máximos mensais DNN . . . .pg.45 8.3 - Histograma dos dados de máximos mensais FLT . . . .pg.46 8.4 - Histograma dos dados de máximos mensais DNN . . . pg.46 8.5 - Gráfico de dispersão dos dados de máximos mensais de FLT e DNN . . . pg.48 8.6 - QQ-Plots de FLT (x) e DNN (y) . . . .pg.50 8.7 - F.d. empírica (azul) x estimada (vermelho) de FLT e DNN . . . .pg.52

(7)

Lista de Abreviações

AMA: Advanced Method Approach

BMM: Block Maxima Method

CBSB: Comitê da Basiléia sobre Supervisão Bancária

edf: Excess Distribution Functionfd: Função de Distribuição

GEV: Generalized Extreme Value distributionGPD: Generalized Pareto Distribution

IF: Instituição Financeira

iid: Independente e Identicamente Distribuída

mef: Mean Excess FunctionPOT: Peaks Over ThresholdRC: Risco de Crédito

RM: Risco de Mercado

RO: Risco Operacional

TVE: Teoria de Valor Extremo

va: Variável Aleatória

VaR: Value at Risk

VaROp: Valor em Risco Operacional

(8)

Resumo

Desde Mandelbrot (1963) e Fama (1965), dados financeiros e de riscos, como dados de perdas, taxas de câmbio, índices econômicos e retornos em geral, são, em sua maioria, modelados por distribuições de cauda pesada. A partir da modelagem das distribuições de perdas em Risco Operacional é necessário construir um modelo conjunto para que se estabeleçam pressupostos apropriados sobre a dependência entre as variáveis de perdas e também para que se possa obter o valor em risco operacional (VaROp) da perda operacional total. As funções cópula são reconhecidas como ferramentas poderosas para tais fins. Portanto, através de cópulas de valores extremos pretende-se obter o modelo conjunto associado às distribuições de perdas, permitindo o cálculo do capital regulatório mínimo, associado ao VaROp, que a instituição financeira deve alocar para perdas operacionais e o estabelecimento da estrutura de dependência entre os tipos de perdas.

(9)

1

Introdução

O Comitê da Basiléia sobre a Supervisão Bancária, estabelecido em 1975 e que já havia feito um acordo em 1988, devido a grandes prejuízos, chegando à falência, sofridos por instituições financeiras na década de 90 e a fim de evitar mais prejuízos, realizou o primeiro ciclo de propostas para revisar a estrutura de adequação de capital que deve ser alocado a riscos sofridos pelas instituições financeiras em 1999. Em 2004, surge a estrutura revisada, programada para estabelecer níveis mínimos de capital para bancos internacionalmente ativos. Também surge uma nova classe de risco, o Risco Operacional (RO). Essa nova estrutura é chamada de Novo Acordo da Basiléia ou Basiléia II.

O Modelo de Distribuições de Perdas, principal método previsto em Basiléia II para cálculo do capital regulatório mínimo alocado à perdas operacionais, baseia-se nos processos estocásticos inerentes às perdas oriundas de RO, estando este modelo relacionado às distribuições discretas (frequência) e contínuas (severidade). As perdas são separadas nesses dois processos devido às componentes que regem essas distribuições são por hipótese independentes. A convolução desses dois processos é feita preferencialmente por simulação de Monte Carlo, essa união resulta na distribuição de perdas de uma linha de negócio e/ou evento de perda.

Basiléia II define oito linhas de negócios e sete tipos de eventos de perdas. A metodologia mais utilizada atualmente pelas instituições financeiras para o cálculo do requerimento total de capital do banco para perdas operacionais é, basicamente, a soma dos requerimentos obtidos individualmente para cada tipo de perda operacional. O problema é que, ao realizar tal cálculo, o banco estará considerando a hipótese de que as correlações entre os diferentes tipos de perdas operacionais são perfeitas. Isso implica que todos os eventos extremos devem ocorrer ao mesmo tempo em todas as classes de risco, o que é uma hipótese irreal. Portanto, esse cálculo superestima o valor que deve ser alocado.

(10)

Portanto, na estimação do Valor em Risco Operacional, que resulta capital regulatório mínimo, precisamos de um modelo conjunto para o vetor aleatório de perdas, ou seja, pressupostos concretos sobre a dependência entre as classes de perdas devem ser feitos. Devido ao leque de modelos de distribuição conjunta específicos para o vetor aleatório de perdas operacionais, Basiléia II apenas sugere o estudo da diversificação da redução de capital alocado por meio de pressupostos de correlação apropriados.

A função cópula tem sido reconhecida como uma ferramenta poderosa para modelar dependência entre variáveis aleatórias. A palavra cópula foi empregada pela primeira vez no sentido probabilístico em um teorema conhecido como Teorema de Sklar (1959), descrevendo as funções que “ligam/conectam” as distribuições univariadas à distribuição multivariada.

A ideia essencial de cópulas é que a distribuição conjunta pode ser fatorada em distribuições marginais e uma função de dependência, a qual é chamada de cópula. A relação de dependência é inteiramente determinada pela função cópula, enquanto que localização, escala e forma são inteiramente determinadas pelas marginais. Como as distribuições de perdas de risco operacional são descritas na literatura existente como de cauda pesada, daremos maior atenção para cópulas de valores extremos.

Assim, tem-se por objetivo que as funções cópulas nos permitam elaborar pressupostos de correlações apropriados sobre a dependência de tipos de perdas operacionais, para que dessa forma consigamos obter um capital regulatório adequado, suficiente, para cobrir eventos de perdas decorrentes do risco operacional sem ser excessivamente conservador.

Nesse sentido, o trabalho de Neslehová, Embrechts e Demoulin (2006) prevê o uso de distribuições de cauda pesada para a modelagem de perdas operacionais, o que nos faz supor que os dados reais com que trabalharemos sejam modelados por tais distribuições. O trabalho de Lu, Tian e Zhang (2008) estabelecem a metodologia para o cálculo do Value-at-Risk

(VaR) de uma cópula de valores extremos, que será replicada neste trabalho.

As próximas seções desse trabalho se desenvolvem da seguinte forma. A seção 2 trata do Novo Acordo de Basiléia, contando um pouco de sua história e definições, além de mostrar as três metodologias usadas para o cálculo do capital regulatório. Na seção 3, apresenta-se o Valor em Risco Operacional, sua definição, propriedade de medidas de risco coerentes e a comonotonicidade. A seção 4 concerne na definição de distribuições de cauda

(11)

pesada, explanação da Teoria do Valor Extremo e suas principais distribuições. Na seção 5 apresentamos as principais noções de cópulas e suas famílias. Nas seções 6 e 7 estão contidas as fundamentações teóricas sobre cópulas de valores extremos e métodos de estimação, respectivamente.

(12)

2 O Novo Acordo de Basiléia

2.1 Introdução

A década de 80 foi marcada por uma crise econômica mundial. Após intensas investigações, autoridades financeiras internacionais chegaram à conclusão de que tal crise se desenvolveu a partir da falta de uma regulamentação sólida para reserva de capital alocado às possíveis perdas que podem ser sofridas por instituições financeiras. Essa possibilidade de perda foi, então, chamada de risco, assunto, este, que vem sendo estudado e debatido intensamente desde então.

Na tentativa de evitar maiores prejuízos, o Comitê da Basiléia sobre a Supervisão Bancária (CBSB) em 1988, estabeleceu o que foi chamado de Acordo de Basiléia, ou Basiléia I. Este acordo concerne basicamente na definição de Risco de Crédito (RC) e Risco de Mercado (RM), definição de metodologias e normatizações necessárias para o cálculo do capital regulatório mínimo que deve ser alocado por uma instituição financeira internacionalmente ativa.

O esforço conjunto realizado por instituições financeiras de todo o mundo, não sendo restrito apenas aos países participantes do CBSB, na tentativa de implantar o que era ditado em Basiléia I, se mostrou recompensador. Isso porque aquela nova estrutura, apoiada em um organismo internacional de controle, reduzia de forma significativa grandes prejuízos que instituições financeiras poderiam sofrer e um consequente efeito “dominó”, caracterizando uma crise econômica internacional.

Apesar de todo este esforço, a globalização ocorrida na década de 90, acompanhada de grandes avanços tecnológicos e consequente dinamização das atividades, teve um grande impacto negativo sobre essa estrutura. Isso ocasionou enormesperdas. Assim, se fez necessária a revisão de Basiléia I.

(13)

O CBSB resolveu publicar um ciclo de propostas para revisar a estrutura de adequação de capital em junho de 1999. Todos os países-membros participaram de um processo consultivo, onde foi enfatizada a criação de propostas para as autoridades de supervisão em todo o mundo. O CBSB, subsequentemente, liberou propostas adicionais para consulta em janeiro de 2001 e abril de 2003 e, ainda, conduziu três estudos de impacto quantitativo relacionados às suas propostas. Como resultado desse esforço, aprimoramentos valiosos foram feitos às propostas originais.

Surge, então, o Novo Acordo da Basiléia, ou Basiléia II, em 2004. Sendo uma declaração aceita por todos os membros do CBSB. Ele estabelece os detalhes da estrutura acordada para mensurar a estrutura de capital e o padrão mínimo a ser atingido que as autoridades nacionais de supervisão proporão para adoção em seus países. Esta estrutura e o padrão que ela contém foram endossados pelos Presidentes dos Bancos Centrais e pelas Autoridades de Supervisão Bancária dos países do Grupo dos Dez.

O objetivo fundamental do trabalho do comitê para revisar o Acordo da Basiléia de 1988 foi desenvolver uma estrutura que fortaleça ainda mais a solidez e a estabilidade do sistema bancário internacional e, ao mesmo tempo, mantenha consistência suficiente para que o regulamento de adequação do capital não seja uma fonte significativa de desigualdade competitiva entre os bancos internacionalmente ativos.

A estrutura revisada oferece uma série de opções para determinar as exigências de capital para risco de crédito e risco operacional (RO), uma classe de risco até então desconsiderada, a fim de permitir que os bancos e as autoridades de supervisão selecionem abordagens que sejam mais adequadas para as suas operações e para a infraestrutura do seu mercado financeiro. Além disso, ela está baseada em uma estrutura formada por três pilares, onde se enfatiza a complementação do Cálculo do Capital Regulatório Mínimo (Primeiro Pilar) através de um Processo de Supervisão Bancária (Segundo Pilar) e da Disciplina de Mercado, ou Transparência, (Terceiro Pilar). Este trabalho se concentra no primeiro pilar e para desenvolvimento dessa seção [2] foi de essencial importância.

(14)

2.2 Risco Operacional

De forma geral, risco é entendido como uma condição onde existe uma possibilidade de um evento adverso ao esperado ocorrer. Basiléia II prevê e define três tipos de riscos intrínsecos a uma instituição financeira: Risco de Crédito, Risco de Mercado e Risco Operacional. Cruz (2002) cita um levantamento onde se estima que 50% das perdas de uma instituição financeira se refiram ao Risco de Crédito, 15% ao Risco de Mercado e 35% ao Risco Operacional. Por ser um tema relativamente recente, mas de grande importância, nos concentraremos neste último tipo de risco, cuja definição descrita em Basiléia II é transcrita abaixo.

Definição 2.1: O risco operacional é definido como o risco de perda resultante de pessoas, sistemas e processos internos inadequados ou deficientes, ou de eventos externos.

Um exemplo de grande prejuízo sofrido por uma instituição financeira devido a um evento de risco operacional é o caso do banco Barings, onde um operador levou o banco à falência após ocultar a posição de futuros e derivativos na Ásia. A partir daí, percebeu-se que perdas relacionadas às falhas humanas têm um alto potencial de afetar o resultado de uma instituição financeira e, portanto, deveriam ser estudadas profundamente.

A estrutura para as metodologias de mensuração do risco operacional obtida após este necessário estudo e descrita no Novo Acordo de Basiléia apresenta três métodos para calcular encargos de capital de risco operacional em um grau de sofisticação e sensibilidade crescente:

 Método de Indicador Básico

 Método Padronizado

 Métodos de Mensuração Avançada (AMA)

Basiléia II também sugere que as instituições financeiras utilizem os dois primeiros métodos citados, seguidamente, enquanto desenvolvem sistemas e práticas de mensuração de risco operacional mais sofisticadas. Também é permitida a utilização do Método de Indicador Básico ou do Método Padronizado para algumas partes de suas operações e o AMA para

(15)

outras, desde que determinados critérios mínimos sejam cumpridos. Esses métodos e seus critérios de qualificação são apresentados abaixo.

2.1.1 O Método de Indicador Básico

Neste método, os bancos devem manter um capital para risco operacional igual à média de uma porcentagem fixa (designada alfa) da receita bruta anual positiva dos três anos anteriores. Caso em algum desses anos a receita bruta for negativa ou zero este deve ser excluído tanto do numerador quanto do denominador ao calcular a média. O encargo pode ser expresso conforme abaixo:

Onde:

C = encargo de capital

R = receita bruta anual, quando positiva, durante os três anos anteriores

n = número dos três anos anteriores pelo qual a receita bruta foi positiva

α = 15%, que é estabelecido pelo comitê, em relação ao nível de todo o setor do capital exigido para o nível de todo o setor indicado.

2.1.2 O Método Padronizado

Na implementação do Método Padronizado, as atividades das instituições financeiras foram divididas em oito linhas de negócio: financiamento para pessoa jurídica, negociações e vendas, banco de varejo, banco comercial, pagamento e liquidação, serviços de agência, administração de ativos e corretagem no varejo. Tal divisão tem como objetivo principal

(16)

estabelecer diferentes níveis de risco entre as linhas de negócio e relacioná-los com suas respectivas receitas brutas, gerando um capital de alocação mais coerente com o perfil da instituição financeira.

O capital alocado para perdas operacionais em cada linha de negócios é calculado multiplicando-se a receita bruta por um fator (designado beta) atribuído a essa linha de negócios. Os fatores betas foram estipulados através da experiência de perdas operacionais em cada linha de negócios e o nível agregado da receita bruta dessa linha de negócios. Deve-se obDeve-servar que, no método padronizado, a receita bruta é mensurada para cada linha de negócios, não para a instituição toda.

Tabela 2.1 – Fatores Beta para as Linhas de Negócio de uma Instituição Financeira

Linhas de Negócios Fatores Beta

Financiamento para pessoa jurídica 18%

Negociação e vendas 18% Banco de varejo 12% Banco Comercial 15% Pagamento e liquidação 18% Serviços de agência 15% Administração de ativos 12% Corretagem no varejo 12%

Fonte: Bank for International Settlements

O capital total que deve ser alocado é calculado como a média de três anos da soma dos encargos de capital regulamentares em cada uma das linhas de negócio em cada ano. Em qualquer ano determinado, os encargos de capital negativos (resultante da receita bruta negativa), em qualquer linha de negócios, podem compensar os encargos de capital positivos em outras linhas de negócios dentro de um determinado ano que for negativo, o dado para esse ano será zero. O total do encargo de capital pode ser expresso como:

(17)

Onde:

K = o encargo de capital

Rj = a receita bruta de um determinado ano para a linha de negócio j.

βj = uma porcentagem fixa, estabelecida pelo Comitê.

2.1.3 Métodos de Mensuração Avançada

Apesar do esforço feito no Método Padronizado, ao se estabelecer fatores de risco operacional apropriados para cada linha de negócios de uma instituição financeira, os dois métodos iniciais propostos em Basiléia II utilizam como base a receita bruta da instituição para estimar possíveis perdas. Existe, nisso, uma aparente contradição, quando se utiliza ganho para calcular perda. Em decorrência dessa necessidade em se lançar mão de métodos mais realistas para mensurar possíveis perdas, Basiléia II estabelece critérios para criação de tais métodos.

Um esforço inicial se dá através do estabelecimento de sete eventos de perdas operacionais principais, também chamados de eventos de perdas de nível 1:

 Fraude Interna

 Fraude Externa

 Práticas Trabalhistas e Segurança no Ambiente de Trabalho

 Clientes, Produtos e Práticas Comerciais

 Danos aos Ativos Físicos

 Ruptura nos Negócios e Falhas no Sistema

 Administração de Execução, Entrega e Processo

A intenção é que as instituições registrem suas perdas nesses eventos e utilizem a distribuição resultante para estimar perdas operacionais futuras. Considerando a contínua evolução dos métodos analíticos para risco operacional, o CBSB não especifica o método ou as premissas de distribuição usadas para gerar a mensuração de risco operacional para fins de capital regulamentar. Embora, o banco deva ser capaz de demonstrar que seu método registra

(18)

eventos de perda potencialmente críticos. Seja qual for o método usado, um banco deve demonstrar que sua mensuração de risco operacional cumpre um padrão de solidez comparável ao padrão do método com base em classificações internas para risco de crédito, isto é, comparável a um período de manutenção do investimento de um ano e um intervalo de confiança do 99,9º percentil. Além disso, qualquer sistema de mensuração de risco operacional interno deve ser consistente com os tipos de eventos de perdas definidos acima.

A instituição pode ser autorizada a usar correlações determinadas internamente em perdas de risco operacional em estimativas de risco operacional individuais, desde que ela possa demonstrar que seus sistemas para determinar as correlações são sólidos, implementados com integridade e consideram a incerteza que rodeia quaisquer estimativas de correlação. A instituição financeira deve validar suas premissas de correlação usando técnicas quantitativas e qualitativas adequadas. E, finalmente, as mensurações de risco operacional geradas internamente e usadas para fins de capital regulamentar devem ter como base um período de observação mínimo de cinco anos dos dados de perdas internas.

Assim, o objetivo desse trabalho é a implementação do Value-at-Risk (VaR) para perdas operacionais. Para tanto, utilizaremos distribuições de cauda pesada para ajustar as distribuições de eventos de perdas reais, já que, como afirmado por Moscadelli (2004) e Fontnouvelle (2004), após utilizarem os dados obtidos pelo CBSB no estudo inicial sobre RO, as caudas das funções de distribuição de perdas são mais bem ajustadas por distribuições de variação regular ou por distribuições tipo Pareto. A estrutura de correlação entre essas distribuições será obtida através de um estudo da função cópula, obtendo a distribuição conjunta dessas variáveis (eventos de perda). Por fim, o capital regulatório que a instituição deve alocar em perdas operacionais será obtido empregando a medida de risco VaR, diretamente na função cópula. O próximo capítulo trata essa medida de risco de forma mais detalhada.

(19)

3 Valor em Risco Operacional

3.1 Introdução

A medida de risco VaR surgiu no mercado financeiro, mais especificamente no gerenciamento de risco de mercado, no início da década de 1990 e é atualmente considerada a medida padrão para tal risco e usada intensamente na gestão de riscos. O VaR informa a perda máxima esperada ao longo de um horizonte-alvo dentro de um determinado intervalo de confiança. Mais precisamente, a perda máxima é o , quantil , da distribuição de perdas. Como conseqüência disso, VaR estima para valores suficientemente baixos de α.

A principal referência para construção desse capítulo foi Cruz (2002).

3.2 Fundamentação Teórica

Definição 3.1 (Valor em Risco Operacional): Dada uma distribuição de perdas L, com função de distribuição acumulada F, o VaR associado a um nível de confiança γ = 1 - α é definido por

A principal diferença entre os modelos de VaR de mercado e operacional está relacionada ao fato de que a aplicação da Teoria de Valores Extremos (TVE), ou outras distribuições de cauda pesada, nos faz relaxar a hipótese gaussiana em que se baseiam os modelos de VaR de mercado. Ou seja, as distribuições de perdas operacionais não são

(20)

ajustadas de forma alguma por uma distribuição normal, como se poderia esperar no risco de mercado, embora esse pressuposto muitas vezes seja contestado, até mesmo para o risco de mercado.

Além disso, o risco operacional é medido por perdas observadas, não por variações de um valor, como acontece no risco de mercado. Por essas razões, Cruz (2002) afirma que o VaR para o risco operacional satisfaz a propriedade da subaditividade, sendo, portanto, uma medida de risco coerente. A seguir, definem-se as propriedades que uma medida de risco deve satisfazer.

3.3 Medidas de Risco Coerentes

A necessidade de medidas que consigam captar o risco de forma consistente faz com que diversos estudos sejam feitos relacionados a essa necessidade. Portanto, medidas de risco vêm sendo propostas há muito tempo. Artzner et al. (1999), ao perceberem a necessidade de se formalizar um conceito sólido de medida de risco, desenvolveram uma lista de propriedades desejáveis para as quais as medidas de risco podem ser consideradas como sendo “coerentes”.

Considerando-se um espaço amostral, o valor líquido final de uma posição para cada elemento de é uma variável aleatória denotada por . A variável aleatória identicamente igual a 1 é denotada por 1. A função indicadora de estado é denotada por

.

Seja o conjunto de todos os riscos, que é o conjunto de todas as funções reais em . Como é finito, pode ser identificado como , onde . O cone de elementos não negativos em pode ser denotado por e o seu negativo por .

(21)

De acordo com Artzner et al. (1999), para cada par de riscos X e Y (correlacionados ou não), onde , bem como para cada número n e para cada número positivo t, todas as relações seguintes deverão ser satisfeitas.

Sub-aditividade

Essa medida tenta garantir que o risco se comporte de maneira razoável ao somar duas posições. A soma de dois ou mais riscos deve ser menor ou igual à soma dos riscos individuais. Isso permite a mensuração individual de riscos dentro da instituição financeira, uma vez que a soma das medidas individuais é conservadora.

Homogeneidade Positiva

Esta propriedade tenta garantir que, se você aumentar a sua posição, você ainda terá uma medida de risco confiável.

Invariância da Translação

Esta propriedade garante que quando uma quantidade n for adicionada à posição que estiver sob escrutínio, a necessidade de capital adicional será diminuída por n.

Monotonicidade

Esta propriedade garante que o risco será maior para perdas maiores.

Definição 3.3 (Medida de Risco Coerente): Uma medida de risco que satisfaça às propriedades: subaditividade, homogeneidade positiva, invariância da translação e monotonicidade, é uma medida de risco coerente.

Artzner et al. (1999) mostram que a medida de VaR de mercado, em alguns casos fracassa em satisfazer a propriedade de subaditividade. Sob a condição de comonotonicidade entre as variáveis de perdas a igualdade é válida.

(22)

3.4 Comonotonicidade

Definição 3.4 (Comonotonicidade):Dois riscos, X e Y, são ditos comonotônicos se a função de distribuição conjunta deles satisfaz

para todo x,y ≥ 0.

Note que, para que tal condição seja satisfeita, é necessário que ambas as funções de distribuição sejam perfeitamente correlacionadas. Assim, a comonotonicidade estabelece o limite superior da função de distribuição conjunta de dois riscos.

Definição 3.5: Dois riscos, X e Y, são ditos countermonotônicos se a função de distribuição conjunta deles satisfaz

para todo x,y ≥ 0.

Teorema 3.1 (Limites de Fréchet): A função de distribuição conjunta FX,Y dos riscos X e Y

é limitada acima e abaixo por

Mais tarde veremos que tais limites também se empregam às funções cópula, já que tais funções são funções de distribuição conjunta. Como tais limites estão intimamente ligados às noções de correlação, o próximo teorema calha em estabelecer essas relações e as propriedades da correlação.

Teorema 3.2 (Hoeffding):Seja (X,Y)’ um vetor aleatório com marginais F1 e F2 e estrutura

de dependência não especificada; assuma que Var(X), Var(Y)<∞. Então

(a) O conjunto de todas as possíveis correlações é o intervalo fechado [ρmin, ρmax] e para

as correlações extremas vale ρmin < 0 < ρmax.

(b) A correlação extrema ρ = ρmin é atingida se e somente se X e Y são

countermonotônicas; e ρ = ρmax é atingida se e somente se X e Y são comonotônicas.

(c) ρmin = -1 se e somente se X e –Y são do mesmo tipo; ρmax = 1 se e somente se X e Y

(23)

4 Distribuições de Cauda Pesada

4.1 Introdução

A propagação do uso de distribuições de cauda pesada por Mandelbrot(1963) e Fama(1965) para modelar dados financeiros, devido a evidencias de melhores resultados do que as distribuições gaussianas utilizadas até então, fez com que vários estudos fossem feitos sobre modelagem de dados financeiros através de distribuições de cauda pesada.

A aplicação da Teoria de Valores Extremos, cujas distribuições integram as de cauda pesada, ao Risco Operacional surge do interesse no estudo de riscos extremos no mercado financeiro. Apesar de riscos extremos serem incomuns, resultados estatísticos significativos poderão ser obtidos se métodos de inferência apropriados forem aplicados. Dizemos que riscos extremos são incomuns porque se espera que a quantidade de eventos extremos em uma distribuição não seja grande.

Os eventos de RO que compõem o banco de dados podem não ser frequentes, pois provêm de fraudes ou falhas e ambas são evitadas ao máximo por uma instituição financeira, mas podem ser significativos no seu impacto. E são justamente esses eventos de impacto significativo que devem ser previstos. A TVE pode fornecer estimativas confiáveis das chances de eventos que nunca foram vistos antes, mas que podem afetar de forma considerável as finanças de uma instituição.

As distribuições que integram a TVE se referem à classe de distribuições de variação regular, que, por sua vez, constituem parte das distribuições de cauda pesada. Neste capítulo, conceituam-se tais distribuições e estudamos mais profundamente duas classes de distribuição de cauda pesada, sendo estas as distribuições de Variação Regular e as α-Estáveis.

(24)

4.2 Fundamentação Teórica

Uma função de distribuição acumulada, , possui cauda leve ou pesada, dependendo da velocidade do decaimento a zero de sua cauda quando comparada com a cauda de funções de distribuição da família exponencial.

Definição 4.1: Uma função de distribuição acumulada é dita de cauda pesada, à direita, se para todo , onde .

Duas classes de distribuições de cauda pesada são: as α-estáveis e as distribuições de Variação Regular, conceituadas a seguir.

4.2.1 Distribuições α-estáveis

Definição 4.2: Dados , variáveis aleatórias independentes e identicamente distribuídas, com distribuição comum Z, a variável aleatória Z é chamada de α-estável se existem constantes tais que seja igual em distribuição a

.

As α-estáveis não tem função de distribuição fechada, porém a função característica é bem conhecida.

Definição 4.3: Uma distribuição Z, α-estável, tem função característica

(25)

onde (índice de estabilidade), (parâmetro de simetria),

(parâmetro de escala) e (parâmetro de locação) caracterizam a distribuição Z e são únicos.

Definição 4.4: A função de distribuição de Z, pertence ao domínio de atração de uma distribuição α-estável se existirem constantes tais que

Escrevemos, e dizemos que satisfaz o Teorema Central do Limite com limite .

Exemplos de distribuições α-estáveis são: a Cauchy Padrão, a Gaussiana Padrão e a Lévy com Dentre elas, a que possui cauda mais pesada é a Lévy , já que tanto a Cauchy padrão quanto a Gaussiana padrão têm e quanto menor for o parâmetro α mais pesada é a cauda da distribuição.

4.2.2 Teoria do Valor Extremo

A literatura informa que um banco de dados de perdas operacionais não apresentará uma distribuição gaussiana. Isso porque tal banco terá vários eventos pequenos e poucos eventos muito grandes. A aplicação da Teoria do Valor Extremo, como sendo a teoria que sustenta esse tipo de distribuição, é conhecida, mas ainda está num estágio embrionário na gestão de riscos.

O principal interesse na TVE é estimar o parâmetro caudal que caracteriza a forma da cauda da distribuição. Para tanto, existem, essencialmente, duas abordagens paramétricas para se proceder. A primeira, chamada abordagem extrema, estuda a distribuição seguida pelo máximo das perdas dado um horizonte de tempo, também conhecida como Block Maxima. Tal distribuição é mais bem ajustada pela Distribuição de Valor Extremo Generalizado (GEV, do inglês generalized extreme value), que pode ser estimada e que estima o parâmetro caudal.

(26)

A segunda, chamada abordagem caudal, ou picos acima de um limite (POT, do inglês

peaks-over-threshold), considera apenas os valores acima de um limite estabelecido e, portanto, foca diretamente na distribuição da cauda. Tal distribuição é melhor ajustada pela Distribuição Generalizada de Pareto (GPD, do inglês generalized Pareto distribution), que pode ser estimada para providenciar uma estimativa do parâmetro caudal. Para propósitos de gestão de riscos, a segunda abordagem poderá ser melhor para vender para gerentes de unidades de negócio. Caso contrário, é mais difícil justificar que capital está sendo alocado a uma unidade para um evento que ocorreu há muitos anos. Vejamos de forma mais detalhada ambas as distribuições.

4.2.2.1 Distribuição Generalizada de Valores Extremos

Suponha que a variável aleatória denote as perdas operacionais no banco de dados fornecido pelo banco. Sejam as perdas monetárias observadas num determinado período. Sendo

Para encontrar uma distribuição limitadora que não seja degenerada, a variável aleatória máxima é padronizada por parâmetros de localização, escala e forma, escolhidos para dar uma distribuição apropriada de extremos padronizados. Portanto, nos concentramos no comportamento assintótico dos extremos. A função de distribuição GEV é obtida do teorema de Fisher-Tippett dado a seguir.

Teorema 4.1: Seja uma sequência de variáveis aleatórias independentes e identicamente distribuídas, com distribuição comum . Se existirem constantes normalizadoras e alguma função não-degenerada tais que

(27)

Fréchet Weibull Gumbel sendo que é o índice de estabilidade, é o parâmetro de locação e é o parâmetro de escala. é dita pertencer ao domínio de atração de . As três distribuições são chamadas de distribuição padrão de valores extremos.

Uma forma fechada para essas três distribuições pode ser muito útil em várias situações. A representação da GEV, unificando esses três tipos de distribuições em uma única família, foi estabelecida apenas em 1955 por Jenkinson – Von Mises.

Definição 4.5: Define-se a função de distribuição por

onde é chamado de índice caudal, é o parâmetro de locação e é o parâmetro de escala, e . é padronizada quando . Assim como a GPD, a distribuição GEV tem cauda pesada quando ou seja, no caso particular da Fréchet. A relação entre as distribuições Fréchet, Weibull e Gumbel com a GEV é dada da seguinte forma: se , Fréchet; se , Gumbel; e se , Weibull.

(28)

4.2.2.2 Distribuição Generalizada de Pareto

A GPD foi apresentada por Pickands (1975) e estudada por Davison (1983) e Hosking & Wallis (1987) entre outros. Ela costuma ser usada na modelagem de grandes sinistros de seguro e em estudos de confiabilidade. A característica notável da distribuição de Pareto é que o parâmetro de escala é função de certo limite que será determinado pelo analista.

Consideremos uma amostra de observações independente e identicamente distribuídas com distribuição . Estamos interessados na distribuição que seguem as observações que excedem um determinado limite. Seja o ponto final a direita de .

Definição 4.6: Seja , um número real fixo, o limite. A função

onde , é chamada de função de distribuição do excesso (edf, do inglês excess distribution function) das v.a.’s acima do limite u. A função

é chamada de função do excesso médio (mef, do inglês mean-excess function).

A edf mensura a probabilidade de uma realização acima do limite u estar próximo de um determinado valor y. A mef capta aquelas realizações que excedem u e considera a distância entre a média e u.

Teorema 4.2: Se FX está no domínio de atração da distribuição de valor extremo Hξ a edf pode ser aproximada, para u “grande”, por

onde μ = u → ∞ e

para , onde é chamado de índice caudal, é o parâmetro de locação e é o parâmetro de escala. é chamada de Distribuição Generalizada de Pareto.

(29)

Pode-se apresentar a família como Distribuição Generalizada de Pareto Padronizada quando . Além disso, quando então é de cauda pesada. O suporte para y é se , e se . Tanto a GEV quanto a GPD pertencem à classe de distribuições de cauda pesada conhecidas com distribuições de variação regular.

4.2.3 Distribuições de Variação Regular

Definição 4.7: A cauda de uma distribuição , em que , é de variação regular no infinito se

onde . Se , dizemos que é lentamente variante.

Apresentadas as distribuições a que, provavelmente, melhor se ajustam às distribuições das variáveis aleatórias de perdas sofridas por uma instituição financeira, devemos apresentar a teoria de cópulas de valores extremos. As cópulas são funções de distribuição conjunta, mas que nos possibilitam definir a estrutura de correlação entre suas funções de distribuição marginal, um dos objetivos deste trabalho. Assim, vejamos a teoria geral do estudo de cópulas, bem como suas famílias, e depois nos restringiremos à teoria de cópulas de valores extremos, bem como suas famílias.

(30)

5 Cópulas

5.1 Introdução

De maneira intuitiva, podemos dizer que uma cópula é uma função de distribuição multivariada definida no cubo e que possui marginais uniformemente distribuídas. Deriva-se das cópulas a estrutura de dependência existente entre as marginais, sendo, assim, de grande interesse para o objetivo pretendido neste trabalho. As funções cópulas são definidas como se segue. Uma classe de cópulas, chamada de cópulas de valores extremos, é estudada mais especificamente do que as demais classes devido à natureza dos dados que se pretende modelar.

Embrechts et al. (2002) e Nelsen (2006) são as principais fontes de informação para a construção dessa seção.

5.2 Fundamentação Teórica

Seja uma função; denotaremos por e o domínio e a amplitude, respectivamente, de . Também estabeleceremos que uma função será dita crescente quando implicar em

Definição 5.1: Seja conjuntos não vazios de , onde denota a linha real estendida . Seja uma função real com n variáveis tais que e para ( , para todo ) seja

(31)

uma n-caixa cujos vértices pertencem ao

Então o H-volume de B é a n-ésima diferença de ordem de H em B

onde as primeiras n diferenças de ordem são definidas como

Definição 5.2: Uma função real H de n variáveis é n-crescente se para toda n-caixa B cujos vértices pertencem ao Dom(H).

Suponha que cada Sk tenha um menor elemento ak. Dizemos que H é não degenerada se H(t) = para todo t em Dom(H) tal que tk = ak para pelo menos um k. Se cada Sk é não vazio e tem maior elemento bk, então H tem marginais e as marginais de dimensão 1 de H são as funções Hk com Dom(Hk) = Sk e com Hk(x) = H(b1,...,bk-1,x,bk+1,...,bn) para todo x em Sk.

Definição 5. 3: Uma cópula n-dimensional é uma função C com domínio em [0,1]n tal que i) C é não degenerada e n-crescente

ii) C tem marginais Ck, k=1,...,n, que satisfazem Ck(u) = u para todo u em [0,1]

Observe que para qualquer n-cópula C, n ≥ 3, cada marginal k-dimensional de C é uma k-cópula. Equivalentemente uma n-cópula é uma função C de [0,1]n para [0,1] com as seguintes propriedades:

a. Para todo u em [0,1]n, C(u) = 0 se ao menos uma coordenada de u for 0, e C(u) = uk se todas as coordenadas de u forem iguais a 1 exceto uk.

b. Para todo a e b em [0,1]n tal que ai ≤ bi para todo i, .

Portanto, cópulas são funções de distribuição conjunta (em [0,1]n), uma cópula C

indica uma medida de probabilidade em [0,1]n através de

e uma extensão padrão para subconjuntos Borel arbitrários de [0,1]n (não necessariamente n-caixas).

Teorema 5. 1 (Teorema de Sklar): Seja H uma função de distribuição n-dimensional com marginais . Então existe uma n-cópula C tal que, para todo x em ,

(32)

Se forem todas contínuas, então C é única; caso contrário, C é unicamente determinada em

A partir do Teorema de Sklar podemos ver que para funções de distribuição multivariadas contínuas, as marginais univariadas e a estrutura de dependência multivariada podem ser separadas, e a estrutura de dependência pode ser representada por uma cópula. Sendo F uma função de distribuição univariada, define-se sua inversa como para todo t em [0,1].

Corolário 5.1: Seja H uma função de distribuição n-dimensional com marginais e função cópula C. Então, para qualquer u em [0,1]n,

Devemos tomar cuidado ao trabalhar sem o pressuposto de continuidade.

5.3 Limites de Fréchet-Hoeffding

Considere as funções definidas em [0,1]n como segue

As funções e são n-cópulas para todo , enquanto a função não é uma cópula para qualquer . Embora nunca seja uma cópula para , é o melhor limite inferior possível.

Teorema 5.2: Seja C uma n-cópula qualquer, então, para todo u em [0,1]n

Este teorema é conhecido como Teorema dos Limites de Fréchet-Hoeffding.

(33)

Sejam variáveis aleatórias com funções de distribuição contínuas , respectivamente, e função de distribuição conjunta . Então tem cópula única

C, onde C é dada pelo Teorema de Sklar. A representação da cópula padrão da distribuição do vetor aleatório é dada por

As transformações usadas na representação acima, são normalmente referidas como transformações de probabilidade-integral (para uniformidade) e formam uma ferramenta padrão na metodologia de simulação. Portanto, são independentes se e somente se para todo x1,...,xn em , o seguinte resultado segue do Teorema de Sklar.

Teorema 5.3: Seja um vetor de variáveis aleatórias contínuas com cópula C, então são independentes se e somente se .

5.4 Dependência Caudal

A dependência caudal é uma medida de dependência importante e que pode ser derivada das cópulas. Ela capta o fenômeno de simultâneos valores extremos em várias variáveis de risco, o que é um dos maiores interesses no gerenciamento de riscos. Quando modelamos a dependência de eventos caudais, temos que levar em consideração a estrutura de dependência caudal. Devemos encontrar características caudais relevantes das perdas com cópulas específicas que mostrem diferentes tipos de dependência caudal.

Definição 5.4: Seja um vetor de variáveis aleatórias contínuas com funções de distribuição marginal . O coeficiente de dependência caudal superior de

é

(34)

sendo que o limite pertencente a existe. Se pertence a X e Y são ditos assintoticamente dependentes na cauda superior; se , X e Y são ditos assintoticamente independentes na cauda superior.

De forma semelhante podemos estabelecer o coeficiente de dependência caudal inferior do vetor

Devido à natureza das variáveis de perdas operacionais, o coeficiente de dependência caudal inferior se torna menos importante; por isso, apenas o citamos. Assim, pode-se calcular a probabilidade condicional de uma perda que exceda o seu quando outra perda exceda o correspondente sob diferentes níveis de confiança . Isso é dado por

que é o estimador da dependência caudal superior quando se aproxima de 1.

Exemplo 5. 1: Considere a família de cópulas de Gumbel bivariada dada por

para . Então e segue que

Então, para tem dependência caudal superior.

Devemos voltar nossa atenção para as cópulas de valores extremos, das quais suas marginais são modeladas por distribuições de cauda pesada, tais como as cópulas de Gumbel, exemplificada acima. Mas, antes explanemos as famílias de cópulas mais conhecidas.

(35)

5.5 Famílias de Cópulas

5.5.1 Introdução

As duas principais famílias de cópulas são as Cópulas Elípticas e as Cópulas Arquimedianas. Neste trabalho estamos interessados no estudo de conjuntos de cópulas que estão contidos nessas famílias. Tais cópulas são as cópulas de valores extremos estudadas na próxima seção. Apesar desse conjunto ser restrito, pois existe apenas uma cópula arquimediana de valor extremo, tais cópulas são as que melhor se adequam ao tipo de dados estudados segundo a literatura existente. Outro exemplo de cópulas são as de Marshal-Olkin, citadas apenas em termos ilustrativos.

5.5.2 Cópulas Elípticas

As classes de distribuições elípticas proporcionam uma ampla gama de distribuições multivariadas que dividem várias propriedades com a distribuição gaussiana multivariada, não permitindo a plena modelagem de extremos multivariados e outras formas de dependências não normais. Cópulas elípticas nada mais são que cópulas de distribuições elípticas. A correlação por postos e o coeficiente de dependência caudal são facilmente calculados.

(36)

5.5.2.1 Distribuições Elípticas

Definição 5.5: Se X é um vetor aleatório n-dimensional e, para algum e para alguma matriz simétrica n x n não-negativa Σ, a função característica de é uma

função da forma quadrática , , dizemos que X tem distribuição elíptica com parâmetros μ, Σ e ϕ, e escrevemos .

Quando , a classe de distribuições elípticas coincide com a classe de distribuições simétricas unidimensionais. A função ϕ é chamada função característica geradora. A cópula das distribuições elípticas de é conhecida como cópula elíptica. A classe das distribuições elípticas define a classe da cópula elíptica, onde duas são as mais conhecidas: Cópulas Gaussianas e t-Cópulas.

5.5.2.2 Cópulas Gaussianas

Definição 5.6: A cópula da distribuição normal n-variada com matriz de correlação linear R é

onde Φn

R denota a função de distribuição conjunta da função de distribuição normal padrão

n-variada com matriz de correlação linear R, e Φ-1 denota a inversa da função de distribuição normal padrão univariada. Cópulas da forma acima são chamadas de cópulas gaussianas.

(37)

5.5.2.3 t-Cópulas

Definição 5.7:Se X tem a representação estocástica

onde , e são independentes, então X tem uma distribuição t de Student n-variada com v graus de liberdade com média μ (para v > 1) e matriz de covariância (v/v-2)Σ (para v > 2). Se v ≤ 2, Cov(X) não é definida. Nesse caso, apenas interpretamos Σ como sendo o parâmetro de forma da distribuição de X.

A cópula do X dado acima pode ser escrita como

onde para e denota a função de distribuição de

, onde e Y Νn(0,R) são independentes.

5.5.3 Cópulas Arquimedianas

Várias famílias de cópulas paramétricas interessantes são Arquimedianas e as classes de cópulas arquimedianas nos direcionam para uma grande variedade de diferentes estruturas de dependência. Ao contrário das cópulas elípticas, as arquimedianas têm expressão fechada e não derivam de funções de distribuição multivariadas usando o Teorema de Sklar.

Definição 5.8: Seja φ uma função contínua e estritamente decrescente de para

tal que . A pseudo-inversa de φ é a função dada por

(38)

Note que é contínua e decrescente em [0,∞] e estritamente decrescente em No mais, em [0,1], e

Finalmente, se então, .

Teorema 5.4: Seja φ uma função contínua e estritamente decrescente de para

tal que , e seja a pseudo inversa de . Seja C a função de para

dada por

Então C é uma cópula se e somente se φ é convexa.

Tais cópulas são chamadas cópulas Arquimedianas. A função φ é chamada de função geradora da cópula. Se , dizemos que é uma geradora estrita. Nesse caso,

e é dita ser uma cópula arquimediana estrita.

Exemplo 5.2: Seja para em Então para em e o para ; isto é, . Como , nós vemos que o limite inferior de Fréchett-Hoeffding bivariado é arquimediano.

5.5.3.1 Propriedades

Teorema 5.5: Seja C uma cópula arquimediana com geradora φ. Então

1) C é simétrica, ou seja, para todo u,v em

2) C é associativa, ou seja, para todo u,v,w em

A propriedade associativa das cópulas arquimedianas, em geral, não é compartilhada pelas demais cópulas.Uma extensão das cópulas arquimedianas multivariadas são as cópulas de valores extremos, que serão estudadas profundamente, já que a literatura nos informa que

(39)

os dados de risco operacional se ajustam melhor à distribuições de cauda pesada, cujas distribuições multivariadas são cópulas de valores extremos.

(40)

6 Cópulas de Valores Extremos

6.1 Introdução

Uma vantagem das Cópulas de Valores Extremos em relação à classe de cópulas Arquimedianas muito mais populares é que elas não são simétricas. Assim, a característica assimétrica verificada em dados financeiros ganha relevância, o que produz estimativas mais fieis. Uma classe híbrida contendo ambas as cópulas Arquimedianas e cópulas extremais como um caso especial são as Cópulas Archimax.

Esta seção foi elaborada a partir de informações obtidas em Cebrián et al.(2003), Gudendorf et al.(2009a), Lu et al.(2008) e Kotz (2000).

6.2 Fundamentação Teórica

Seja , onde pertence a , uma amostra de vetores aleatórios independentes e identicamente distribuídos com mesma função de distribuição , marginais e cópula . Por conveniência assuma contínua. Considere o vetor de máximas componentes:

onde e . A distribuição conjunta e marginais de

são dadas por e respectivamente. Isso significa que a cópula Cn de Mn é dada por

(41)

em que .

Definição 6.1: Uma cópula C é chamada de cópula de valor extremo se existe uma cópula CF tal que

para todo . A cópula CF é dita ser do domínio de atração de uma

Cópula de Valores Extremos e denotamos por

A seguir, daremos dois resultados, ambos necessários e suficientes para que

O primeiro resultado, dado por Marshall e Olkin (1983), expressa CF como o limite da distribuição condicional de dado que a última componente de u tenha excedido t. Então, se e somente se

quando para cada .

O segundo resultado, apresentado por Takahashi(1994a), está em termos de

e

que são as cópulas de CF e C, respectivamente. Então, se e somente se

para todo u .

Em particular, estamos interessados na possível distribuição multivariada limitante para Mn sob normalizações apropriadas. Consideremos uma aplicação bivariada, por motivo de simplificação. Sejam X e Y variáveis aleatórias e G a distribuição de (X,Y) com distribuições marginais e . Assim, podemos encontrar a fd não-degenerada tal que a distribuição bivariada extrema G possa ser conectada a uma cópula de valores extremos C0

(42)

onde são parâmetros da GEV e é a marginal da GEV.

De acordo com Joe (1997), a cópula única C0 existe e satisfaz

sendo t > 0.

Teorema 6.1: Uma cópula bivariada C é uma cópula de valor extremo se e somente se

para , onde A é chamada de função de dependência

onde é convexa e satisfaz

onde e para todo . Qualquer função que satisfaça essas duas restrições do teorema acima é uma Cópula de Valor Extremo.

O limite superior de , , corresponde à independência, ou seja, , enquanto o limite inferior, corresponde à dependência perfeita (comonotonicidade), ou seja,

A seguir, três cópulas de valores extremas comunmente utilizadas na prática são definidas, onde é um parâmetro de controle da dependência.

Cópula de Gumbel

onde . Sua função de dependência é dada por

(43)

Cópula de Galambos

e possui função de dependência

Cópula de Husler-Reiss onde é a distribuição normal padrão. Sua função de dependência é dada por

Para conseguirmos a estimativa de , precisamos estimar o parâmetro . Existem alguns métodos alternativos para obter a estimação de e serão mostrados no próximo capítulo. Agora, devemos voltar nossa atenção para a estimação da cauda conjunta.

6.3 Estimação da Cauda Conjunta

Podemos conseguir a estimação da cauda conjunta correspondendo a um valor em risco sob um nível de confiança a partir de

O VaR, para cada marginal, pode ser calculado segundo a expressão

quando as marginais são modeladas pela GEV. Da identidade

(44)

definida como função conjunta de sobrevivência, podemos estimar a cauda conjunta excedente para as duas perdas.

6.4 Dependência Caudal

Toda a teoria empregada à dependência caudal para a teoria de cópulas se aplica às cópulas de valores extremos. Ao mesmo tempo podemos obter a relação entre e

Assim, devemos estimar primeiramente . Então fazemos a comparação entre as saídas baseadas nas diferentes cópulas de valores extremos para julgar sua validade e quantificar a dependência da cauda conjunta dos dados empíricos.

A partir das três cópulas de valor extremos estudadas neste capítulo, podemos calcular a probabilidade condicional de uma variável exceder seu VaR quando a outra excedeu seu respectivo VaR a um nível de confiança . Tal cálculo é dado por

que pode ser considerado o estimador da dependência caudal superior quando se aproxima de 1.

(45)

7 Estimadores

7.1 Introdução

Para a estimação dos parâmetros das cópulas, existem vários métodos comumente utilizados:

1) Método da Máxima Verossimilhança em Dois Passos: os parâmetros para as cópulas são estimados utilizando os parâmetros estimados para as marginais.

2) Funções de Inferência para as Marginais: os parâmetros para as marginais e para a cópula são estimados separadamente, no qual é um método seqüencial de dois passos onde se estima primeiramente os parâmetros das marginais e depois o parâmetro de dependência é estimado no segundo passo substituindo os parâmetros estimados na cópula.

3) Método da Máxima Verossimilhança Canônica: diferentemente dos dois métodos citados anteriormente, não é necessário estabelecer pressupostos em relação às marginais, apenas utiliza-se as distribuições empíricas de distribuições de perda e as coloca dentro de um procedimento de estimação dos parâmetros da cópula.

4) Abordagem Não-Paramétrica: os parâmetros podem ser estimados utilizando coeficiente de correlação por postos de Kendal; ou os estimadores: Estimador Original de Pickands, Estimador de Deheuvels, Estimador de Hall-Tajvidi ou, por último, o Estimador de Capéraà-Fougères-Genest, que segundo a literatura, obtem os estimadores mais consistentes.

Neste trabalho foi utilizado o Método da Máxima Verossimilhança em Dois Passos para estimar os parâmetros da cópula. Tais metodologias foram retiradas de Embrechts et al.(2002), Gudendorf et al.(2009b) e Kotz (2000).

(46)

7.2 Estimação Paramétrica

Nesta seção será descrita uma abordagem paramétrica para estimação dos parâmetros de uma cópula de valores extremos baseada na função de verossimilhança. A partir de (6.4), Ledford e Tawn (1996) e Smith et al. (1997) desenvolveram a seguinte abordagem:

Usando este resultado, eles assumem que (7.1) acontece como uma identidade para algum valor fixo e grande . Como precisa ser grande para cada j, está acima de um limite alto. Isto nos dá

Devido ao fato de que V é uma função homogênea de ordem , e os termos u’ serem variáveis dummy,

para algum K, quando cada uj está acima de um limite. Ledford e Tawn (1996) tomam esse limite como o quantil da distribuição Fréchet unitária, onde é alguma probabilidade pequena. Então, para .

Para darmos valor à constante K, seja dentro de (7.3) e note que

Isso implica que , e, então, . Portanto, combinando (7.3) com a definição de , temos

válido para cada onde os são escolhidos de tal forma que, para cada j,

Assumindo que para tem a distribuição Generalizada de Pareto com parâmetros temos

(47)

válido para cada Essa derivação simplesmente equivale a assumir que para excedentes conjuntos de um conjunto de limiares adequadamente altos, a estrutura de dependência da função de distribuição F é exatamente a de uma distribuição de valores extremos multivariada.

Para desenvolver uma verossimilhança baseada em (7.6), Ledford e Tawn (1996) consideram observações marginais abaixo de seus respectivos limiares. Desta maneira, a contribuição para a verossimilhança de um ponto típico para os quais as marginais alcançam ou excedem seus limites é dada por

com F dada por (7.6), avaliados em

A forma explícita da verossimilhança para o caso em que é mostrada a seguir. Para os altos limites marginais e que definem o espaço , onde se e se , sendo . Seja a expressão da verossimilhança do ponto que cai na região , e defina

A partir de (7.7) pode-se obter

onde

(48)

para . Assim, a contribuição de um ponto típico na verossimilhança para os

parâmetros de dependência e parâmetros marginais é dada por

onde com sendo uma função indicadora. Finalmente, a verossimilhança para um conjunto de n pontos independentes é dada por

Assim, no caso em que , dado uma amostra de tamanho , , a log-verossimilhança é dada por

onde Quando as marginais são conhecidas ou estimadas, (7.11) precisa ser estimado somente com relação a

Este método é conhecido como Estimação por Máxima Verossimilhança (MLE) em dois estágios e será adotado para estimar os parâmetros das cópulas neste trabalho.

(49)

7.3 Estimação Não Paramétrica

A estimação não paramétrica de distribuições multivariadas de valores extremos concerne na estimação da função de dependência .

Seja Pickands (1981) observou que tem

distribuição exponencial com média , para cada Assim, a partir da amostra um estimador consistente trivial para

Sendo não convergente e não diferenciável, este estimador não satisfaz A simples modificação

pode ser utilizada para superar esse defeito. Pickands propôs um método para fazer isso geralmente convergir substituindo pelo seu “minorant” convergernte. Mas sua construção é difícil e envolve uma função que contém uma dependência implícita complicada nos dados. Portanto, é natural que procuremos outros caminhos para estimar

Estimativas não paramétricas foram feitas por Caperaa et al. (1997) são baseadas na seguinte representação.

Seja distribuído de acordo com (3.18). Seja e . E a fd da variável aleatória Z é dada por

onde denota a derivada de A para todo . Uma prova dessa representação pode ser encontrada em Ghoudi et al. (1998). Como consequência dessa representação, pode-se obter

Referencias

Documento similar

De maneira semelhante, nossa intenção é avaliar em que medida contextos democráticos mais ou menos está- veis, assim como mais ou menos inclusivos e abertos à con- testação, afetam

O jornal El País trouxe mais conteúdo na editoria de internacional por ambos os meios, impresso e on-line, bem como se sobressaí em relação à utilização

O crescimento populacional nas cidades conduz a muitos problemas que se vão acumulando tanto no espaço como no tempo, e em algumas urbes são mais evidentes que em outras.

Nem sempre ilegais −às vezes até mesmo legais−, certos comportamentos políticos da classe política colocam em risco o respeito às regras de- finidas de acordo com a

É verdade que, no direito estrangeiro 9 , as opiniões não são unânimes em con- siderar o contrato a favor de terceiro como atribuição inter vivos, pois há quem (doutrina que

Os estudos com descrição de fatores de risco para doença arterial coronariana em outras classes de trabalhador que não eram a enfermagem foram excluídos da

em relação aos transtornos mentais e seu incremento com a idade se evidencia uma alta prevalência da depressão, que atinge a 25 % dos idosos. Dentro da depressão, é

A formação inicial de professores no Brasil é foco de diferentes pesquisas acadêmicas, tendo em vista os mais diversos fenômenos envolvidos no exercício da profimssão. Isso porque