Download PDF
ads:
FACULDADE IBMEC SÃO PAULO
Programa de Mestrado Profissional em Economia
Denis Eduardo Pereira
CÓPULAS - UMA ALTERNATIVA PARA A ESTIMAÇÃO DE
MODELOS DE RISCO MULTIVARIADOS
São Paulo
2006
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
Denis Eduardo Pereira
Cópulas - uma alternativa para estimação de modelos de risco
multivariados.
Dissertação apresentada ao Programa de Mestrado
Profissional em Economia da Faculdade Ibmec São Paulo,
como parte dos requisitos para obtenção do título de
Mestre em Economia.
Área de concentração: Finanças e Macroeconomia
Aplicadas.
Orientador: Prof. Dr. Pedro Luiz Valls Pereira IBMEC
SP.
São Paulo
2006
ads:
ii
FOLHA DE APROVAÇÃO
Denis Eduardo Pereira
Cópulas - uma alternativa para estimação de modelos de risco multivariados
Dissertação apresentada ao Programa de Mestrado
Profissional em Economia Ibmec São Paulo, como
requisito parcial para obtenção do título de Mestre em
Economia.
Área de concentração: Finanças e Macroeconomia
Aplicadas.
Aprovado em: Outubro/2006
Banca Examinadora
Prof. Dr. Pedro Luiz Valls Pereira
Instituição : Ibmec São Paulo Assinatura ________________________
Prof. Dr. Eurilton Alves Araújo Jr.
Instituição : Ibmec São Paulo Assinatura ________________________
Prof. Dr.Luiz Koodi Hotta
Instituição : IMECC- UNICAMP Assinatura ________________________
Agradecimentos
Agradeço ao meu orientador, Prof. Dr. Pedro Luiz Valls Pereira, por todo o
aprendizado o qual ele me proporcionou durante todo o curso e principalmente na ajuda desta
dissertação.
Agradeço a todos os membros de minha família, em especial minha mãe Rosângela,
meu irmão Adriano e a meu pai José Eduardo, que agüentaram todo o meu mau humor, minha
ausência e falta de dedicação a todos eles.
Agradeço também a minha futura esposa, atualmente minha noiva, Úrsula, por toda a
paciência, Amor e dedicação nestes anos difíceis que fizeram parte da minha vida, e que
fazem parte da vida de qualquer mestrando.
Agradeço também ao Banco Itaú, na figura do superintendente Affonso Táciro Jr.,
pelo incentivo e patrocínio do curso.
Agradeço também a todos os meus colegas do mestrado, que mais do que amigos
tornaram-se para mim uma família, a todos: Adauto, Antonio (EPGE), Careca, Douglas,
Edson (Alcides), Juan, Juliana, Giovanna, Marcel, Rogério e Theodore. A todos, o meu muito
obrigado.
Agradeço a todos os professores do mestrado, pela dedicação, amizade e respeito, em
especial ao Marcio Laurini pela ajuda em todos os momentos nas atividades computacionais.
Inclusive por me ter mostrado o software R- Metrics.
Agradeço a Helder Palaro que, mesmo sem me conhecer forneceu-me os seus códigos
em Matlab, códigos estes que me ajudaram a entender como proceder na programação das
cópulas.
Agradeço aos professores Luiz Koodi Hotta e Eurílton Araujo, por suas participações
na banca examinadora e por todos os comentários altamente relevantes que vieram a
engrandecer este trabalho.
vi
RESUMO
PEREIRA, Denis Eduardo. Cópulas - uma alternativa para estimação de modelos de risco
multivariados, 2006. 59f. Dissertação (Mestrado) Faculdade Ibmec São Paulo, São Paulo,
2006.
Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios
está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma
forma identificar o efeito da diversificação do risco existente em uma operação ou em um
portfolio.
Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta
definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a
distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição ,
sendo esta uma distribuição normal, preocupando-se apenas em modelar corretamente a
volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição
real da variável e não se preocupam com o formato da distribuição resultante multivariada.
Assim sendo, a teoria de Cópulas mostra-se uma grande alternativa, à medida que esta
teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer
tipo de restrição às distribuições marginais e muito menos às multivariadas.
Neste trabalho iremos abordar a utilização desta metodologia em confronto com as
demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC,
Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfolio resultante de
posições idênticas em quatro fatores de risco Pre252, Cupo252, Índice Bovespa e Índice
Dow Jones.
Palavras-chave: Cópulas; Risco; Valor em Risco; Modelos Multivariados; Expected Shortfall.
vii
Abstract
PEREIRA, Denis Eduardo. Cópulas - an alternative to multivariate models for risk
estimation, 2006. 59f. Dissertation (Mastership) Faculdade Ibmec São Paulo, São Paulo,
2006.
The biggest challenge in portfolio’s risk measures is to find the best way to aggregate
risks. This aggregation should be done in the way where we can identify the diversification
effect recognized in either asset position or portfólio.
For instance, a lot of things has been done for create this definition, for example a
Value at Risk (VaR) in the parametric approach uses of an assumption where all the risk
factors follow the same marginal distribution, it will be a normal distribution. In this approach
volatility and correlation matrix are the most important things for modeling correctly this
dependence. In Historical Simulation approach, this method can be through of as estimating
the distribution of the loss operator under the empirical distribution, so statistical estimation
of the multivariate distribution is not necessary.
In this case, the Copulas Theory provides a useful alternative because this approach
allows us to create no multivariate distribution where no assumption is necessary for a neither
marginal distribution or multivariate distribution.
In this work, we are comparing this methodology with another risk measures approach
for example: Multivariate parametric model’s VaR and an Expected Shortfall Diagonal
VEC, BEKK, EWMA, CCC, DCC and Historical approach for VaR and ES. For this work
we create a portfolio with identical position for all the factor and this factor will be: one year
internal interest rate (Pré252), one year external interest rate (Cupom cambial 252), Bovespa
Index, Dow Jones Index.
Keywords: Copulas; Risk; Value at Risk; Multivariate Models; Expected Shortfall.
viii
Sumário
1 - Introdução .....................................................................................11
2 – Modelos de risco Mercado...........................................................12
2.1 Introdução.......................................................................................................................12
2.2 -Valor em Risco (VaR) ...................................................................................................12
2.3 -Valor em Risco – Cálculo de Portfolios........................................................................13
2.4 - Expected Shortfall........................................................................................................17
3 - Modelos Univariados....................................................................18
3.1 - ARCH/GARCH............................................................................................................18
3.2 - Modelos assimétricos de volatilidade ..........................................................................19
3.2.1 - EGARCH ..............................................................................................................20
3.2.2 - TGARCH ..............................................................................................................20
3.2.3 - PGARCH..............................................................................................................21
4 - Modelos Multivariados.................................................................22
4.1 - Modelos GARCH Multivariados .................................................................................22
4.2 - Modelo VEC ................................................................................................................23
4.3 - Modelo diagonal...........................................................................................................24
4.4 - BEKK...........................................................................................................................25
4.5 - EWMA .........................................................................................................................26
4.6 - Modelo de Correlação Constante (CCC) .....................................................................27
4.7 - Modelo de Correlação Dinâmica (DCC)......................................................................28
5 - Teoria de Cópulas.........................................................................29
5.1 - Introdução ....................................................................................................................29
5.2 - Medidas de dependência ..............................................................................................32
5.2.1 - Tau de Kendall ......................................................................................................34
5.2.2 - Rho Spearman .......................................................................................................35
5.3 - Cópulas arquimedianas ................................................................................................37
6 - Aplicação........................................................................................39
6.1 - Descrição de séries.......................................................................................................39
6.2 - Descrição da amostra ...................................................................................................39
6.3 - Análise Exploratória dos Dados...................................................................................40
6.4 - Calculo do VaR e do ES ..............................................................................................48
6.4.1 – Modelos multivariados .........................................................................................48
6.4.2 – Modelos multivariado – Modelo de correlação dinâmica (DCC) ........................49
6.4.3 – Modelos multivariado – VaR Calculado pela Teoria de Cópulas ........................49
6.4.4 – Modelos multivariado – VaR Histórico ...............................................................50
6.4.5 – Análise do Backtesting para o VaR......................................................................50
6.4.6 – Análise do Backtesting para o Expected Shortfall................................................53
Conclusão ............................................................................................56
Referências bibliográficas .................................................................57
ix
Lista de tabelas
Tabela 5-1: fatores geradores de Cópulas arquimedianas. .......................................................37
Tabela 6.1 – Estatística Descritiva das séries utilizadas...........................................................41
Tabela 6.2 – Critério de informação de Akaike........................................................................43
Tabela 6.3 – Melhores modelos de volatilidade.......................................................................46
Tabela 6.4 – Proporção dos dados em que a perda excede o VaR de 97,5% para cada cauda,
para o total e seus respectivos p-valores...................................................................................51
Tabela 6.5 – Proporção dos dados em que a perda excede o VaR de 99,5% para cada cauda,
para o total e seus respectivos p-valores...................................................................................52
Tabela 6.6 – P-valor para os modelos estimados para Expected Shortfall referente a um VaR
de 95% IC................................................................................................................................54
Tabela 6.7 – P-valor para os modelos estimados para Expected Shortfall referente a um VaR
de 99% IC................................................................................................................................55
x
Lista de figuras
Figura 4.1 - Quantidade de parâmetros necessários para a estimação do VEC........................23
Figura 4.2 - Quantidade de parâmetros necessários para a estimação do Modelo Diagonal ...24
Figura 4.3 - Quantidade de parâmetros necessários para a estimação do Modelo BEKK .......26
Figura 5.1 - Gráfico de contorno para cópulas Arquimedianas................................................38
Figura 6.1- Gráfico dos retornos das séries estudadas..............................................................42
Figura 6.2 - ACF dos resíduos padronizados de Dow Jones por PGARCH(1,1) c/dist t.........44
Figura 6.3 - ACF dos resíduos padronizados de Ln 252 por EGARCH c/dist t AR(1) ...........44
Figura 6.4 - ACF dos resíduos padronizados de Índice Bovespa por TGARCH c/dist t AR(1)
..................................................................................................................................................45
Figura 6.6 - ACF dos resíduos padronizados de Dow Jones por GARCH(1,2).......................46
Figura 6.7 - QQ Plot (distribuição t) : Dow Jone, Ibovespa, LN252 e Cupom 252.................47
11
1 - Introdução
O desenvolvimento da teoria de riscos foi iniciado a partir da criação da Moderna
Teoria das Finanças onde Harry Markowitz, através de artigo intitulado Portfolio
Selection, mostrou a forma de se mensurar o risco e o retorno de um portfólio. Daí então
muito foi feito pelo meio acadêmico, tanto para a mensuração de retornos quanto de risco.
Em meados de 1995 o JP Morgan divulgou ao mercado uma nova forma de mensuração
do risco de mercado, até então as instituições financeiras utilizavam-se de metodologias
lineares, ou seja, baseado apenas em choques do tipo PVBP
1
, onde através da suposição de
que as variáveis do mercado apresentava um processo estocástico que seguia uma
distribuição normal, criou-se uma medida de risco chamada de Valor em Risco (Value at
Risk - VaR), esta medida pela sua simplicidade no cálculo e pelo seu forte arcabouço
teórico acabou sendo adotado pelas principais Instituições Financeiras do mundo, sendo a
seguir também adotado pelos órgãos reguladores.
Desta forma, a partir das críticas ao modelo original, foram surgindo novas formas
de mensuração desta medida, ora modelando com mais parcimônia a volatilidade e a
correlação, ora tratando com mais rigor as distribuições marginais. À luz desta modelagem
mais rigorosa no controle das distribuições marginais, a Teoria de Cópulas surgiu como
uma possível alternativa, este será um dos temas deste trabalho.
Desta forma, para tentarmos de alguma forma cobrir todos estes pontos dividimos
o trabalho da seguinte forma: a primeira parte será formada pelos alicerces dos cálculos de
risco Value at Risk (VaR), Expected Shortfall (ES)- a segunda parte pela definição de
modelos de univariados e multivariados , a seguir uma breve descrição da teoria de
cópulas mostrando os principais teoremas, bem como todo o seu arcabouço matemático.
O trabalho será finalizado através de um estudo comparativo das diversas formas
de mensuração do VaR desde as formas tradicionais VaR histórico, VaR paramétrico e
VaR por Simulação de Monte Carlo menos usuais como VaR criado pelo modelo de
Correlação dinâmica (DCC) e VaR calculados pela teoria de Cópulas.
1
PVBPPresent Value of Bases Point , maiores informações acerca do assunto ver JP Morgan (1995)
12
2 – Modelos de risco Mercado.
2.1 Introdução
Podemos definir risco como o potencial de desvio dos retornos esperados,
particularmente desvios adversos. Por trás de cada risco de fluxo de caixa futuro, resultado
financeiro ou mudanças de valores pode-se associar uma distribuição de probabilidade a
estes resultados potenciais. A magnitude relativa do risco pode ser definida pelo montante
do spread ou da dispersão na distribuição dado o desvio padrão ou variância.
Todavia, a variância não é necessariamente suficiente para capturar os riscos
duas distribuições com diferentes formatos diferem de forma considerável dos valores do
risco de queda (downside risk) podendo ter a mesma variância.
Medidas como assimetria e curtose podem ser utilizadas para mostrar que o risco
pode não ser adequadamente descrito somente pela variância. Outra forma de análise é
examinar os percentis das distribuições, como exemplos têm: o VaR e o ES. Estes
conceitos serão discutidos a seguir.
2.2 -Valor em Risco (VaR)
Em meados de 1995
o Banco JP Morgan divulgou o artigo intitulado “Riskmetrics”
onde descrevia a forma de mensurar o risco de mercado em um único número, para tanto
utilizava a premissa de normalidade das séries financeiras, o que pela facilidade de
implementação permitiu a medida tornar-se um padrão pelas instituições financeiras.
Podemos definir o VaR de um portfolio a nível de confiança )1,0(
α
como
sendo o menor número
l
tal que a probabilidade de uma perda
L
exceder
l
é no máximo
)1(
α
, isto é,
)()(})(|inf{
1
LLL
FqFxFxVaR
αα
αα
===
.
Equação 2.1
onde
α
é tipicamente um número entre 0,95 e 1,
L
F é a função de densidade acumulada
das perdas
L
e )(
L
Fq
α
é
α
-ésimo quantil da distribuição das perdas.
Jorion (2001) define o VaR como: VaR summarizes the expected maximum loss
over a target horizon within a given confidence interval.
13
Tsay (2002) define o VaR sobre dois pontos de vista, um pelo lado das instituições
financeiras, no qual define o VaR como uma medida de perda associada a um evento raro
(ou extraordinário) em condições normais de mercado, outro pelo lado dos órgão
reguladores o VaR é definido como a mínima perda dado circunstâncias extraordinárias de
mercado.
A especificação amplamente utilizada, descrita pelo Riskmetrics
TM
,
JPMorgan(1995), simplifica de forma considerável ao supor que a distribuição das perdas
segue uma normal com média
µ
e variância
2
σ
denotada por
(
)
2
,
σµ
N , cuja função de
densidade é dada por:
( ) ( ) ( )
==
2
2
2
2
1
exp
2
1
µ
σ
πσ
φ
xxxf .
Equação 2.2
E a função de distribuição acumulada dada por
( )
==Φ
x
L
dzzxFx )()(
.
φ
.
Equação 2.3
Desta forma, podemos reescrever o VaR da seguinte forma
2.3 -Valor em Risco – Cálculo de Portfolios
A principal forma de mensurar o risco de um portfolio
2
foi sugerido por
Markowitz(1952) através da analise de média variância. Para entender melhor, o conceito
iremos supor um portfolio de investimento em três ativos quaisquer, sendo que o retorno
de cada ativo será respectivamente
x
r ,
y
r e
z
r , com as seguintes alocações
x
w ,
y
w e
Z
w ,
que somam um. O retorno do portfolio será dado por
zzyyxxp
rwrwrwr ++= , com média
igual a:
2
Algumas carteiras de investimento (Portfolios) são formadas pela junção de posições em ativos diversos,
logo se faz necessário criar formas de mensurar o risco e o retorno destes investimentos.
1
( )
VaR
α
µ σ α
= + Φ .
Equação 2.4
14
zzyyxxp
rrr
µµµµ
++= .
Equação 2.5
E variância dado por:
zyzyzxzxyxyxzzyyxxP
wwwwwwwww
,,,
2222222
222
σσσσσσσ
+++++= .
Equação 2.6
Onde
2
i
σ
é a variância do retorno do ativo i ,
ji ,
σ
é a covariância entre os retornos
dos ativos i e j.
Sendo o
(
)
α
α
1
)(
=
pp
FFq o
α
- quantil da distribuição do portfolio dos retornos.
Temos pela equação 2.4 que
(
)
ασµ
α
1
+=
ppp
FVaR .
Equação 2.7
Resolvendo para
(
)
α
1
p
F na equação (2.7), temos então qual o quantil mensurado
em termos do número de desvios-padrões a partir da média é dado por
(
)
pp
VaR
σµ
α
/ .
Substituindo a volatilidade do portfolio, Equação 2.6 na equação do VaR equação
2.7, temos
( )
[ ]
ασσσσσσ
µ
α
1
,,,
222222
*222
+++++
+=
pzyzyzxzxyxyxzzyyxx
p
Fwwwwwwwww
VaR
,
Equação 2.8
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
...22
2
1
,
2
1
,
2
1
22
2
1
22
2
1
22
+++++
+
=
ασασασασασ
µ
α
pzxzxpyxyxpzzpyypxx
p
FwwFwwFwFwFw
VaR
.
A equação 2.8 nos mostra como podemos escrever o VaR em termos dos segundos
momentos dos retornos marginais e do inverso da Função Distribuição Acumulada (FDA)
do retorno do portfolio.O quantil
(
)
α
1
p
F pode ser visto como fator de escala de cada
volatilidade.
15
Iremos agora supor que os quantis individuais dos retornos padronizados são os
mesmos para todos os retornos pertencentes ao portfólio, ou seja,
(
)
α
1
p
F =
(
)
α
1
x
F
=
(
)
α
1
y
F =
(
)
α
1
z
F . Por exemplo, a família das distribuições elípticas, na qual a
distribuição normal faz parte, satisfaz esta condição. Generalizando, esta igualdade será
satisfeita quando as distribuições do portfolio e as distribuições marginais forem da
mesma família de densidade.
Dada esta igualdade, podemos escrever o VaR de um portfolio, no qual iremos
chamar de H-VaR (H para híbrido), como :
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
...2
11
,
2
1
22
2
1
22
2
1
22
++++
+
=
αασασασασ
µ
yxyxyxzzzyyyxxx
p
FFwwFwFwFw
VaRH
.
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
...2
22
2
2
2
2
2
++++
+
=
yyxxyxzzzyxyxxx
p
VaRVaRwwVaRwVaRwVaRw
VaRH
µαµαµαµαµα
µ
.
Equação 2.9
A equação 2.9 mostra que o VaR de um portfolio pode ser calculado usando a
mesma fórmula da volatilidade de um portfolio, no qual o VaR menos a média substitui a
cada volatilidade. Se calcularmos H-VaR quando as distribuições marginais provém de
diferentes famílias de densidades, então algumas volatilidade podem estar superestimando
ou subestimando o valor do VaR em relação ao valor real. O diferença irá depender da
relação entre os quantis marginais, volatilidade e o quantil do portfolio.
Note-se, por outro lado, que o H-VaR permite que o formato das caudas das
marginais afetem na estimação do VaR do portfolio.
A equação 2.8 pode ser simplificada de forma considerável quando os retornos
individuais são não correlacionados, ou seja, .,0
,
ji
ji
=
σ
Logo,
( )
[ ]
( )
[
]
( )
[ ]
2
2
2
2
2
2
zzzyyyxxxp
VaRwVaRwVaRwVaR
µαµαµαµ
α
+++=
.
16
Quando os riscos são perfeitamente correlacionados ( .,1
,
ji
ji
=
ρ
, aonde
ji,
ρ
é a
correlação entre i e j), logo a equação 2.9 torna-se:
(
)
(
)
(
)
(
)
(
)
(
)
( ) ( ) ( )
ααα
µαµαµαµ
xxxyxx
zzzyyyxxxp
VaRwVaRwVaRw
VaRwVaRwVaRwVaRAd
++=
+++=
.
Equação 2.10
Onde Ad-VaR refere-se ao VaR aditivo. Quando a correlação é menor do que um,
esperamos que o Ad-VaR superestime o VaR. Como o H-VaR,o Ad-VaR permite que o
formato da cauda da distribuição marginal dos retornos afete a estimação da estimação do
VaR do portfolio.
Outro caso especial da equação 2.10 é obtido assumindo que a distribuição do
portfolio segue uma distribuição normal multivariada. Logo, dado que as distribuições
marginais são normais, e VaR normal (N-VaR) possui quantis padronizados dado pela
inversa da funçào de distribuiçào acumulada
(
)
(
)
,
1
α
Φ
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
( )
[ ]
...2
11
,
2
122
2
122
2
122
+ΦΦ+Φ+Φ+Φ
+
=
αασασασασ
µ
yxyxzzyyxx
p
wwwww
VaRN
.
Equação 2.11
Claramente podemos verificar que o N-VaR apenas será usado se a função de
densidade probabilidade conjunta for uma normal multivariada. N-VaR normalmente irá
falhar quando uma ou mais distribuições marginais exibirem significante assimetria e ou
excesso de curtose. Neste caso, o quantil calculado por uma distribuição normal irá
subestimar o valor real do quantil da densidade marginal.
Evidentemente, a similaridade de cada aproximação de VaR (híbrido, aditivo e
normal) ao VaR real irá depender da validade de suas premissas.
Estas aproximações possuem uma mesma restrição que é, o tipo de distribuição
utilizada para o cálculo do quantil do porftolio deve ser a mesma das marginais.
Desta forma, quando
(
)
(
)
(
)
(
)
αααα
1111
zyxp
FFFF , não podemos usar a
equação 2.11 quando
(
)
α
1
p
F é desconhecida. Para obtermos o valor correto de VaR do
portfolio, necessitamos obter a distribuição conjunta dos retornos do portfolio. A Teoria de
Cópulas nos permitirá resolver este problema por meio da combinação das distribuições
17
marginais específicas com a função de dependência. No capítulo 5 iremos detalhar o
conceito, bem como as suas propriedades.
2.4 - Expected Shortfall
Devido ao fato VaR não ser uma medida coerente de risco Artzner et al (1997),
sugeriu um nova medida de risco, que não apresentava esta falha. Para analisarmos esta
medida, iremos primeiramente explicar o que vem a ser uma medida coerente de risco.
No artigo de Artzner et al (1997) através de uma abordagem axiomática,
apresentaram certos atributos que definem uma medida satisfatória de risco, a estas
chamaram de “uma medida coerente de risco”, sobre o assunto Alexander (2001) explica
que:
“Uma medida coerente de risco
ρ
atribui a cada perda
L
X uma medida de risco
(
)
L
ρ
de
modo que as seguintes condições sejam verificadas:
1. O risco é monotônico: se
21
LL , então )()(
21
LL
ρρ
;
2. O risco é homogêneo:
(
)
(
)
LttL
ρρ
= para todo 0
>
t ;
3. Condição livre de risco:
(
)
(
)
lLlL +=+
ρρ
, em que
l .
4. O risco é subaditivo:
(
)
(
)
(
)
2121
LLLL
ρρρ
++
Estes atributos garantem uma função de risco convexa, ou seja, uma aversão ao
risco.
Desta forma, Artzner et al (1997) argumentam que o VaR não é uma medida
coerente de risco pois que o VaR viola a condição 4 , que é a subaditividade; ou seja, a
soma dos riscos individuais deverá sempre criar um efeito de redução do risco total, pois
caso contrário não existiria incentivos para a diversificação de portfólios.
Por conseguinte, Artzner et al(1999) introduziram uma medida de risco a qual
chamaram de VaR Condicional, conhecida também como Expected Shortfall(ES). Esta
medida pode ser considerada uma medida coerente de risco, pois, não viola nenhuma das
propriedades. Adicionando a este fato a medida é possui uma relação simples com o VaR,
a medida que o (ES) é caracterizada pela perda esperada, dado que esta excede ao VaR.
18
[
]
αα
VaRLLEES = .
Equação 2.12
Desta forma, o ES pode ser calculado por:
(
)
( )
z
z
ES
Φ
+=
1
φ
σµ
α
.
Equação 2.13
Aonde
(
)
σ
µ
αα
α
==Φ=
VaR
Fz )()(
11
3 - Modelos Univariados
3.1 - ARCH/GARCH
Podemos assumir que a serie de retornos é decomposta em duas partes: um
componente previsível e um componente não previsível. Isto é:
[
]
tttt
IrEY
ε
+=
1
.
Equação 3.1
onde
representa toda informação até o período t-1 e
t
ε
é a parte não previsível.
O retorno médio condicional é um processo autoregressivo de ordem k, AR(k):
( )
=
+
k
i
ititt
yccIyE
1
01
.
Equação 3.2
19
O componente não previsível
t
ε
pode ser descrito como um processo ARCH
com:
ttt
z
σε
= .
Equação 3.3
onde z
t
~ NI(0,1) e a Variância condicional de
t
z é igual a
2
t
σ
.
No modelo ARCH(q) introduzido por Engle (1982) a variância condicional é
expressa como uma combinação linear do quadrado de q componentes passados não
previsíveis:
2 2
0
1
q
t i t i
i
a a
σ ε
=
= +
.
Equação 3.4
Como geralmente é necessário um q elevado para se chegar a uma boa estimativa
da variância condicional normalmente utiliza-se um processo GARCH(p,q):
2 2 2
0
1 1
q p
t i t i j t j
i j
a a b
σ ε σ
= =
= + +
.
Equação 3.5
3.2 - Modelos assimétricos de volatilidade
Apesar da popularidade do modelo GARCH hoje em dia, ele apresenta algumas
deficiências sendo a principal dela as respostas simétricas a choques positivos ou
negativos. Foram introduzidos modificações no modelo GARCH para que fosse possível
acomodar este fato estilizado a saber, da volatilidade tender a aumentar com notícias ruins
( 0<
t
ε
) e diminuir com notícias boas ( 0>
t
ε
).
20
Com o objetivo de modelar este comportamento assimétrico é necessário a
utilização de outra categoria de modelos: modelos ARCH assimétricos. Neste trabalho
iremos adotar os mesmos modelos disponíveis no pacote Finmetrics do S-Plus, ou seja:
EGARCH, TGARCH e PGARCH.
3.2.1 - EGARCH
Nelson (1991) propôs o GARCH exponencial, onde o efeito de alavancagem está
presente. A especificação do modelo é dada por:
( ) ( )
( )
2 2
1 1
q p
t i t i
t i i j t j
i j
t i t i
Ln Ln
ε ε
σ ω α γ β σ
σ σ
= =
= + + +
.
Equação
3.6
Um ponto importante no modelo EGARCH é a não necessidade de se impor
restrições nos parâmetros a serem estimados pelo modelo que a transformação
logarítmica garante que as estimativas da Variância não sejam negativas. O efeito de
alavancagem está refletido nos parâmetros gama γ ‘s . O efeito é explicado através do sinal
do resíduo
it
ε
, a medida que quando é positivo (“notícias boas”) o efeito total é de
itii
+
εγα
)( , por outro lado quando o sinal é negativo (“notícias ruins”), aonde o efeito
total é
itii
εγα
)( , ou seja noticias ruins terão impactos maiores na volatilidade, uma
vez que o valor de γ é negativo.
3.2.2 - TGARCH
O modelo TGARCH, também conhecido como GJR
3
propõe uma solução para a
modelagem do efeito de alavancagem via a utilização de limiares (thresholds).A
especificação do modelo é dada por:
3
GJR- inicias do nome dos autores de Glosten, Jagannathan e Runkle (1993).
21
( ) ( ) ( )
2 2 2 2
1 1 1
p p q
t i t i i t i t i j t j
i i j
S
σ ω α ε γ ε β σ
= = =
= + + +
.
Equação 3.7
onde
<
=
00
01
it
it
it
se
se
S
ε
ε
Portanto o efeito alavancagem depende do valor do resíduo
it
ε
estar abaixo do
valor do limiar (threshold), neste caso (“notícias ruins”), tem um efeito dado por
2
( )
i i t i
α γ ε
+ , ou seja notícias ruins terão impactos maiores e caso o
it
ε
esteja acima do
valor do limiar, neste caso “notícias boas“, o efeito será dado por
2
iti
a
ε
, que terão um
impacto menor na volatilidade.
3.2.3 - PGARCH
O modelo PGARCH, proposto por Ding, Granger e Englen(1993) como uma
solução para a modelagem do efeito de alavancagem através de um modelo de potência
(
)
( )
=
=
+++=
q
j
d
jtj
p
i
d
itiiti
d
t
baa
11
0
σεγεσ
.
Equação 3.8
onde:
d: é um expoente positivo
i
γ
: é o coeficiente de alavancagem
22
4 - Modelos Multivariados
Neste capítulo iremos generalizar os modelos de volatilidade univariados para
modelos multivariados. Os modelos multivariados possuem grande importância em
Finanças e na macroeconometria, haja vista que as variáveis econômico-financeiras
possuem uma relação entre si logo a modelagem destas sem a influência das demais se
torna ineficaz.
Sobre o assunto Franses, Van Djik (2000, p.200) comentam,
Given the interpretation of shocks as news and the fact that at least certain news
item affect various assets simultaneously, it might be suggest that the volatility of different
assets moves together over time. Consequently, it is of interest to consider multivariate
models to describe the volatility of several time series jointly, to exploit possible linkage,
which exist. An alternative motivation for multivariate models is that an important subject
of financial economics is the construction of portfolios from various assets.
4.1 - Modelos GARCH Multivariados
Os modelos GARCH multivariados podem ser usados para modelar as matrizes de
covariâncias variáveis no tempo (time-varying covariance).
O modelo GARCH multivariado na forma geral k-
dimensional
(
)
',......
1 kttt
ε
ε
ε
=
é dado por :
2
1
ttt
Hz=
ε
.
Equação 4.1
onde
~ [0, ]
t k
z NI I
,
1
0
t t
E
ε
=
e
1
'
t t t t
E H
ε ε
=
Assim sendo, o ponto crucial da modelagem consiste na estimação dos parâmetros
da matriz de covariância
t
H , logo os modelos multivariados procuram de alguma forma
estimar a matriz de covariância.
23
4.2 - Modelo VEC
Este modelo, proposto por Engle e Kroner(1995) é um modelo muito flexível pois
permite que todos os elementos de
t
H sejam dependente dos produtos cruzados de
1t
ε
e
dos elementos da matriz de covariância
t
H defasadas e é dado por:
1
1 1 1 1
( ) ( ' ) ( )
t
t t t
vech H vech vech H
α α ε ε β
= + +
4
.
Equação 4.1
O modelo apresenta dois problemas principais, primeiro o número de parâmetro,
aonde o numero de parâmetros estimados é igual a (k(k+1)/2)(1+2(k(k+1)/2), o que gera
um crescimento exponencial com o crescimento do número de variáveis estudadas.
5
Figura 4.1 – Quantidade de parâmetros necessários para a estimação do VEC
O outro problema é a dificuldade de garantir condições nas matrizes
1
α
e
1
β
a fim
de que a matriz de covariância
t
H seja positiva semi-definida.
4
)(
t
Hvech : é o vetor que empilha todos os elementos da matriz de covariância excluindo os elementos
duplicados.
5
Neste trabalho estaremos utilizando o VEC com 4 variáveis, ou seja, será necessária a estimação de 210
parâmetros.
Quantida de de parâmetros necessários na
estimação do VEC
0
2
4
6
8
10
12
0 1000 2000 3000 4000 5000 6000 7000
n.de pametros estimados
n.de variáveis
24
Para exemplificar, o VEC para o caso bi-variado é dado por:
+
+
=
1,22
1,12
1,11
333231
232221
131211
2
1,2
1,21,1
2
1,1
333231
232221
131211
,03
,02
,01
,12
,12
,11
t
t
t
t
tt
t
t
t
t
t
t
t
h
h
h
h
h
h
βββ
βββ
βββ
ε
εε
ε
ααα
ααα
ααα
α
α
α
.
Equação
4.2
4.3 - Modelo diagonal
Este modelo foi proposto por Bollerslev, Engle e Wooldrige (1988), no qual os
autores sugeriam uma redução no número de parâmetros necessário para o modelo
GARCH multivariados, onde a matriz
1
α
e
1
β
(equação 4.1) é restrita a uma matriz
diagonal. Neste caso, a covariância conditional entre
ij,
ε
e
ti,
ε
,
tji
h
,,
dependerá apenas dos
produtos cruzados do choques e das covariâncias defasadas,
1,1,1,,
+
+
=
tijijtjtiijijtij
hwh
β
ε
ε
α
.
Equação 4.3
onde
ij
α
e
ij
β
são (i,j)th elemento da matriz (k x k) matriz de
1
α
e
1
β
, respectivamente.
Como era de se esperar o número de parâmetros necessários para a estimação é
realmente inferior (vide figura 4.2), sendo a equação 3(k(k+1)/2)
Figura 4.2 - Quantidade de parâmetros necessários para a estimação do Modelo Diagonal
Quantida de de parâmetros necessários na
estimação do Modelo Diagonal
0
2
4
6
8
10
12
0 50 100 150 200
n.de pametros estimados
n.de variáveis
25
A grande vantagem do modelo é a facilidade em garantir que a matriz de
covariância seja positiva semidefinida, sendo que para isto ocorra basta que as matrizes
ij
w ,
ij
α
e
ij
β
sejam positivas semidefinidas.
6
O grande fragilidade do modelo é ele ser muito restritivo, e não permitir que a
variância condicional seja dependente do histórico das outras variáveis do sistema.
7
4.4 - BEKK
Este modelo foi proposto por Baba, Engle,Kraft e Kroner (1991), onde os autores
propõem outra formulação para o cálculo de um GARCH multivariados:
11111,1
'' BHAAWH
ttit
+
+
=
β
ε
ε
.
Equação 4.4
onde W ,
1
A e
1
B são matrizes (k x k) ,
A matriz W é simétrica e positiva definida, isto se dá independente de supor
qualquer tipo de restrição as matrizes
i
A e
1
B , uma vez que na equação 4.4 as matrizes são
expressas na forma quadrática, sendo esta a maior vantagem do modelo.
A grande fragilidade do modelo como o modelo VEC é a quantidade de parâmetros
necessários para a estimação, sendo representado por 2k
2
+ k(k+1)/2.
6
Ver Attanasio(1991)
7
Ver Franses, Djik (2000), p201.
26
Figura 4.3 - Quantidade de parâmetros necessários para a estimação do Modelo BEKK
Para um caso bivariado o BEKK será específicado como:
+
+
+
=
2212
1211
1,221,12
1,121,11
2212
1211
2212
1211
2
1,21,21,1
1,21,1
2
1,1
2212
1211
2212
1211
,22,12
,12,11
ββ
ββ
ββ
ββ
αα
αα
εεε
εεε
αα
αα
tt
tt
ttt
ttt
tt
tt
hh
hh
ww
ww
hh
hh
.
Equação 4.5
4.5 - EWMA
Conforme verificamos neste capítulo, a estimação de modelos GARCH
multivariados é realmente de uma grande dificuldade. Em 1995 o Banco J.P Morgan
publicou na internet um artigo intitulado Riskmetrics (JPMorgan (1995)) onde era
explicitado todo o procedimento para o cálculo do risco de mercado.Para evitar o
problema da quantidade de parâmetros o JPMorgan (1995) sugeriu a utilização de um
modelo mais simples, onde é feita uma ponderação exponencial nas covariâncias,
estimado por :
(
)
1,21,11,12,12
1
+
=
tttt
rrhh
λ
λ
.
Equação 4.6
Quantida de de parâmetros necessários na
estimação do Modelo BEKK
0
2
4
6
8
10
12
0 50 100 150 200 250 300
n.de pametros estimados
n.de variáveis
27
onde
λ
é o fator de decaimento.
Logo, podemos chegar à matriz de correlação facilmente, por:
tt
t
t
hh
h
,2,1
,12
,12
=
ρ
.
Equação 4.7
4.6 - Modelo de Correlação Constante (CCC)
Neste modelo proposto por Bollerslev (1990), o autor propõe uma combinação não
linear para GARCH univariados.Onde a correlação condicional torna-se constante, e a
covariância condicional entre
it
ε
e
jt
ε
é proporcional ao produto dos desvios-padrões
correspondentes. Como exemplo, iremos analisar o caso bivariado.
Dado:
ttt
ttt
ttt
hhh
hch
hch
211212
2122
2
1,122222
2111
2
1,111111
ρ
γεα
γεα
=
++=
++=
.
De forma geral, se D
t
é uma matriz diagonal (k x k) dos desvios-padrões
condicionais e R é a matriz de correlação (k x k), a especificação do modelo é dado por:
ttt
RDDH
=
.
Equação 4.8
Portanto a grande vantagem desta especificação é que as volatilidades univariadas
são utilizadas para a estimação do modelo multivariado.
28
4.7 - Modelo de Correlação Dinâmica (DCC)
Segundo Marçal (2004), este modelo foi proposto por Engle e Sheppard (2001) e
também por Tse e Tsui (2002), ambos os autores relaxam a hipótese de correlação
constante, porém sem perda na simplicidade da estimação, definido-o da seguinte forma:
tttt
DRDH
=
.
Equação 4.9
onde
t
D é definida como uma matriz diagonal com GARCH univariados e
t
R é definida
como uma matriz de resíduos padronizados pela qual a dinâmica é dada
Sobre a definição do tratamento de
t
R que os autores se divergem:
Engle e Sheppard (2001)
2/12/1
)()(
tttt
QdiagQQdiagR =
.
Equação 4.10
No qual
t
Q
é dado por:
(
)
st
S
s
s
L
l
ttl
S
s
s
L
l
lt
QuuQQ
==
==
++=
11
'
11
11
1
βαβα
.
Equação
4.11
onde:
itt
hu /
ε
= , Q : é a matriz de variância não condicional e
α
e
β
são parâmetros
não negativos que satisafazem a
==
<
S
s
L
l
l
11
1
βα
Tse e Tsui (2002)
(
)
121121
1
+
+
=
ttt
RRR
θ
ψ
θ
θ
θ
.
Equação 4.12
29
=
=
=
=
M
m
mjt
M
m
mit
M
m
mjtmit
tij
uu
uu
1
2
1
2
1
1,
ψ
.
Equação 4.11
onde:
itt
hu /
ε
= .
Para garantir que a matriz
1t
ψ
seja positiva semidefinida,
m
deve ser maior que
o número de séries em análise.
5 - Teoria de Cópulas
5.1 - Introdução
Neste capítulo iremos definir as funções de cópulas, suas propriedades e teoremas.
Basicamente a Função de Cópulas pode ser definida como a função que acopla
distribuições marginais univariadas formando distribuições multivariadas. Para tanto, faz-
se necessário apenas definir a função de dependência entre as variáveis.
Em Nelsen (1999), Cópulas são definidas por dois pontos de vista: “sob um ponto de
vista, Cópulas são funções que juntam ou acoplam funções de distribuições multivariadas
as suas distribuições marginais. Alternativamente, Cópulas são funções de distribuição
multivariadas cujas as distribuições marginais são uniformes no intervalo (0,1).”
Adicionando a isto Nelsen (1999, p01) comenta a importância do estudo de Cópulas
citando Fisher(1997)
Copulas [are] of interest to statistician for two main reasons: Firstly, as a way of studying
scale-free measures of dependence; and secondly, as a starting point for constructing families of
bivariate distributions, sometimes with a view to simulation.
Conforme verificamos as Cópulas nos permitiram criar distribuições multivariadas
que possuam marginais com distribuições diferentes. Isto é de grande valia para o nosso
30
caso em virtude que algumas séries financeiras podem apresentar assimetria e curtose
(iremos verificar isto adiante) nos mais diversos graus.
O termo Cópula foi primeiramente empregado no contexto matemático ou
estatístico por Abe Sklar (1959, p229-231), através de um artigo escrito pelo mesmo no
qual foi remetido a Frechet,
Féron (1956), in studying three-dimensional distributions had introduced auxiliary
functions, defined on the unit cube, that connected such distributions with their one-
dimensional margins. I saw that similar functions could be defined on the unit n-cube
for all n
2 and would similarly serve to link n-dimensional distributions to their one-
dimensional marginal. Having worked out the basic properties of these functions, I
wrote about them to Frechét, in English. He asked me too write a note about them in
French .While writing this, I decided I needed a name for these functions. Knowing the
word “copula” as a grammatical term for a word or expressions that links a subject
and predicate, I felt that this would make an appropriate name for a function that links
a multidimensional distribution to its one-dimensional margins, and used it as such.
Frechét received my notes, corrected one mathematical statement, made some minor
corrections to my French, and had the note published by Statistical Institute of the
University of Paris as Sklar (1959).
Assim sendo, a teoria de Cópulas foi desenvolvida Abe Sklar, logo ao teorema que
permite os acoplamentos dá-se o nome de Teorema de Sklar.
Para definir precisamente o termo cópulas iremos adotar novamente Nelsen (1999,
p.5-6):
Considere por um momento um par de Variáveis Aleatórias X e Y, com funções de
distribuição
(
)
[
]
xXPxF = e
(
)
[
]
yYPyG = , respectivamente, e a função
distribuição conjunta
(
)
[
]
yYxXPyxH = ,, . Para cada par de números reais
(
)
yx, nós podemos associar três números:
(
)
(
)
yGxF , e
(
)
yxH , . Note que cada
número está no intervalo
(
)
1,0 Em outras palavras, cada par
(
)
yx, dos números
reais estão contido nos pontos
(
)
(
)
(
)
yGxF , no quadrado unitário
(
)
1,0 x
(
)
1,0 , e estes
31
pares ordenados correspondem a um número
(
)
yxH , em
(
)
1,0 . Nós iremos mostrar
que esta correspondência, que assume que o valor da função distribuição conjunta de
cada para ordenado dos valores das funções de distribuições individuais, são
conectadas por uma função. Esta função é a cópula.
Por simplicidade de notação iremos adotar as definições no caso bivariado, o mesmo
poderá ser expandido para o caso multivariado.Seja
[
]
1,0=I
e
IxII =
2
. Uma Cópula
bidimensonal é uma funçao
C
definida em
2
I
e assumindo valores em
I
com as seguintes
propriedades:
1. Para todo Iuu
21
,
(
)
(
)
21
,000, uCuC == .
(
)
(
)
2211
,1,1, uuCuuC == .
2. Para cada
2121
,,, vvuu em
I
tais que ,
2121
vveuu
(
)
(
)
(
)
(
)
.0,,,,
11211222
+ uuCuuCuuCvuC
Teorema de Sklar – Nelsen (1999) : Seja F uma função de distribuição conjunta
com marginais F e G. Então existe uma cópula C tal que
(
)
.,
2
21
= xxx
(
)
(
)
(
)
(
)
, ,
H x y C F x G x
=
.
Equação 5.1
Caso F e G sejam contínuas, C é única. Caso contrário, C é unicamente
determinada no conjunto GxF ImIm . Reciprocamente, se C é a cópula e
F
e G são
funções de distribuição, então a função H definida pela equação 5.1 é a função de
distribuição conjunta com marginais
F
e G .
Prova: Pode ser encontrada em Nelsen(1999)
32
Evidentemente, o Teorema de Sklar envolve :
(
)
(
)
(
)
(
)
(
)
1 1 2
Pr , ,
X x Y y F x C F x F y
> =
,
(
)
(
)
(
)
(
)
(
)
yFxFCyFyYxX
212
,,Pr =>
,
(
)
(
)
(
)
(
)
(
)
yFyFxFCyYxX
221
/,Pr =
,
(
)
(
)
(
)
(
)
(
)
(
)
(
)
yFyFxFCxFyYxX
2211
1/,Pr =>
,
( )
( ) ( )( )
(
)
)(),(21
21
21
,
,Pr
yFzxFv
z
zvC
yFxFCyYxX
==
===
.
Como conseqüência do teorema de Sklar, as Cópulas de mínimo e de máximo
+
CC , são chamados respectivamente limites inferior e superior de Frechet. Usando o
resultado de Sklar , a desigualdade
+
CCC pode ser reescrito como :
(
)
(
)
(
)
(
)
(
)
(
)
(
)
yFxFyxFyFxF
2121
,min,0,1max + .
Equação 5.2
O qual é conhecido como desigualdade de Frechet-Hoeffding para funções de
distribuição.
5.2 - Medidas de dependência
A grande vantagem que a teoria de Cópulas possui é a de permitir a criação de
funções de distribuições de probabilidade multivariadas independentes do formato das
distribuições marginais. Esta particularidade nos permitirá calcular os riscos de forma
mais precisa, haja vista que as séries financeiras apresentam fatos estilizados como
assimetria e curtose (iremos abordar mais especificamente o assunto quando formos
analisar as séries financeiras estudadas). Para tanto, fazem-se necessário além das
marginais, conhecer a forma de associação que as suas variáveis possuem. Este será o
assunto discutido nesta seção.
33
A medida de associação mais utilizada e mais difundida é a correlação, que é
definida por:
( )
(
)
( ) ( )
YX
YX
YX
var.var
,cov
, =
ρ
.
Equação 5.3
Neste tipo de associação somente o grau e o sinal são capturados por
ρ
.
O cálculo da correlação usual, ou Correlação Pearson, que conhecemos é efetuado
substituindo as variâncias e covariâncias pelas as suas versões amostrais.
( )
(
)
(
)
( ) ( )
==
=
=
T
t
t
T
t
t
T
t
tt
YYXX
YYXX
YX
1
2
1
2
1
,
ρ
.
Equação 5.4
Mendes (2004) comenta que o estimador é o mais popular para associação linear,
porém não é robusto, uma vez que o valor da correlação pode ser próximo de zero ou de
um caso exista a presença de um único outlier.
Embrechts, Mc Neil e Straumann (1999) sumarizam os seguintes problemas da
correlação linear:
ρ
necessita a existência de ambas as variâncias.
ρ
= 0, não implica independência. Apenas se X e Y forem um bivariada
normal
ρ
irá implicar em independência
ρ
é invariante para o caso de transformações estritamente crescentes.
As distribuições marginais e a correlação não determinam a distribuição
conjunta. Isto só será verdade caso a distribuição seja normal bivariada.
34
Ainda segundo Embrechts, Mc Neil e Straumann (1999), dadas as duas variáveis
aleatórias , as propriedades desejadas para uma medida de dependência (
δ
) são:
1.
(
)
(
)
XYYX ,,
δδ
=
2.
(
)
1,1 YX
δ
3.
(
)
1, =YX
δ
se
X
e
Y
forem comonotônicas,
(
)
1, =YX
δ
se
X
e
Y
for
contramonotônicos;
4. Se T for estritamente monotônico, então:
( )( )
(
)
( )
=
edecrescent,,
crescente,,
,
TYX
TYX
YXT
δ
δ
δ
A correlação de Pearson somente satisfaz as duas primeiras propriedades. Iremos
ver a seguir as correlações baseadas em posto, medidas estas que satisfazem a todas as
propriedades citadas.
5.2.1 - Tau de Kendall
A versão amostral da medida de associação conhecida como tau de Kendall é
definida em termos de concordância. Para ilustrarmos o conceito suponha que
(
)
ii
yx , e
(
)
jj
yx , sejam duas observações do vetor
(
)
YX , de variáveis aleatórias
contínuas. Dizemos que
(
)
ii
yx , e
(
)
jj
yx , são concordante se
ji
xx < e
ji
yy < ou se
ji
xx > e
ji
yy > . Similarmente, dizemos que
(
)
ii
yx , e
(
)
jj
yx , são discordantes se
ji
xx < e
ji
yy > . Entendido o conceito podemos definir o tau de Kendall em termos
de concordância como : Seja
(
)
(
)
(
)
{
}
12211
,,...,,,, yxyxyx
n
uma amostra de variáveis
aleatórias com n observações a partir de um vetor
(
)
YX , de variáveis aleatórias
contínuas. Existem
2
n
pares distintos
(
)
ii
yx , e
(
)
jj
yx , da amostra observada, onde
cada par pode ser concordante ou discordante- denote c como o número de pares
concordantes e do número de pares discordantes. Então tau de Kendall para uma
amostra é definido como:
35
(
)
=
+
=
2
n
dc
dc
dc
t .
Equação 5.5
Equivalentemente o t é a probabilidade de concordância menos a probabilidade de
discordância para cada par de observações
(
)
ii
yx , e
(
)
jj
yx , escolhidos aleatoriamente
da amostra. Logo a versão populacional do tau Kendall será dada por:
(
)
(
)
[
]
(
)
(
)
[
]
00
21212121,
<>== YYXXPYYXXP
YX
ττ
.
Equação 5.6
De forma empírica
pode ser estimado por:
( ) ( )
+
+
=
=
2
1
2
1
2
12
1
n
yposto
n
xposto
n
i
n
i
i
ρ
.
Equação 5.7
Se C é a cópula associada com a distribuição F, pode ser mostrado que:
(
)
(
)
∫∫∫∫
==
22
1,,414
II
dvduvucvuCdCC
τ
.
Equação 5.8
onde
(
)
vuc , é a densidade da cópula
5.2.2 - Rho Spearman
Como o tau de Kendall, a versão populacional da medida conhecida como rho de
Spearman é baseado na concordância e discordância. A medida é definida como proporção
da probabilidade de concordância menos a probabilidade de discordância para dois vetores
(
)
11
,YX e
(
)
32
,YX , que é o par de vetores com mesma margem, porem um vetor tem
função de distribuição H, mas os componentes de cada vetor são independentes:
(
)
(
)
[
]
(
)
(
)
[
]
(
)
003
31213121,
<>== YYXXPYYXXP
YX
ρρ
.
Equação 5.9
36
De forma empírica
ρ
pode ser estimado por:
( )
( ) ( )
+
+
=
=
2
1
2
1
1
12
1
2
n
yposto
n
xposto
nn
i
n
i
i
ρ
.
Equação 5.10
O Rho Spearman pode ser calculado através da cópula associada entre as Variáveis
X
e
Y
por:
(
)
∫∫
=
2
3,12
I
dvduvuCs
ρ
.
Equação 5.11
Ambas as medidas tau de Kendall e rho de Spearman são medidas de probabilidade
de concordância entre variáveis aleatórias dadas as cópulas, porem os valores de
ρ
e
são diferentes (vide Nelsen (1999)
Todavia, Nelsen (1999) sumariza a relação entre
ρ
e
através das seguintes
inequações.
0,
2
31
2
12
0,
2
21
2
13
2
2
+
+
+
τ
τ
ρ
ττ
τ
ττ
ρ
τ
e .
Equação 5.12
Outra forma de dependência que iremos utilizar ao longo deste trabalho será a
medida de dependência das caudas.Estas medidas são utilizadas para capturar a
dependência na cauda da distribuição bivariada. O Coeficiente de dependência da cauda
superior é definido como:
(
)
(
)
(
)
(
)
XVaRXYVaRYYX
qq
q
u
>>=
Prlim,
1
λ
.
Equação 5.13
onde
(
)
XVaR
q
e
(
)
YVaR
q
refere-se a quantis de X e Y , respectivamente.
37
Outras formas importantes de se modelar às funções de dependência de
distribuições elípticas são as chamadas cópulas arquimedianas. Este tipo de função de
acoplamento permite que se possam criar distribuições multivariadas.
5.3 - Cópulas arquimedianas
A Cópula arquimediana, construída através do gerador
ϕ
, é dado por :
(
)
(
)
(
)
{
}
pp
uuuuC
ϕϕϕ
++=
...,....,
1
1
1
.
Equação 5.14
Onde
1
ϕ
é o gerador inverso de
ϕ
. A condição de existência da cópula obriga que o
gerador precisa ser necessariamente uma função monotônica.
8
O gerador único determina
a cópula archmediana. Yan(2006) comenta o que diferencia o tipo de cópulas
arquimedianas é o gerador, conforme quadro:
Tabela 5-1: fatores geradores de Cópulas arquimedianas.
Família Espaço Gerador Gerador Inverso Distribuição
Paramétrico )(t
ϕ
)(
1
s
ϕ
Frailty
Clayton(1978) 0
α
1
α
t
(
)
1/
1 s
α
+
Gamma
Frank (1979) 0
α
1
1
ln
α
α
e
e
t
))1(1ln(
1
+
α
α
ee
s
Log Series
Gumbel
(1960)
1
α
(
)
α
tln
)exp(
/1
α
s
Positive
stable
Fonte: Yan (2006)
8
Nelsen(1999) – p.122
38
Logo para a cópula de Clayton , que será objeto de estudo, é obtida por :
FDA
( )
(
)
1/
1 2 3 4
1 1 1 1 1u u u u
α
α α α α
+ + + +
.
Equação 5.15
FD
1 2 3 4
( ( ( ( ( 1 / ) 1 ) 1 ) 1 ) 1 )
( 1 ) * ( )
4
( 1 ) * ( )
3
( 1 ) * ( ) ( 1 ) * ( )
2 1
(1 ( 1 1 1
1) ) * ( ( ( ( ( 1 / )
1) 1) 1 ) * ( ) ) * ( ( ( ( 1 / )
1) 1) * ( ) ) * ( ( ( 1 / )
1) * ( )) * ( ( 1 / ) * ( )) .
u u u u
u
u
u u
α α α α
α
α α
α α
α α α α
α
α
α
α
+ + + +
Equação
5.16
Figura 5.1 - Gráfico de contorno para cópulas Arquimedianas.
9
Como estamos interessados na modelagem da cauda esquerda estaremos adotando
a cópula de Clayton neste estudo.
10
Neste estudo a partir da escolha da função de acoplamento iremos analisar as
resultados que encontramos quando variamos a forma que é tratada as distribuições
marginais, ou seja, normais e também a distribuição gama que é a distribuição frailty da
cópula de Clayton(1978).
9
Figura retirada de Yan (2006) e gerada pelo software R 2.3.0.
10
O interesse é relativo a necessidade de se modelar o VaR (vide capítulo 2.2)
39
Para se estimar as cópulas adotamos o modelo de estimação em dois estágios, haja
vista que outras formas de estimações não convergiram.
11
6 - Aplicação
6.1 - Descrição de séries
Neste capítulo iremos comparar as medidas de risco VaR e ES, estimados pela
teoria de Cópulas e pela demais metodologias multivariadas. A modelagem será feita na
distribuição tetravariada das séries de retorno diárias de Índice Bovespa, do Índice Dow
Jones e das séries de fatores de risco - taxa pré e cupom cambial para 252 dias no período
de 31/121998 à 16/02/2006 .
6.2 - Descrição da amostra
Este estudo utiliza séries financeiras de referenciais para investimento de ativos
normalmente usados em bancos de investimentos, sendo investimento em bolsas
Ibovespa e Dow Jones - e em juros – Pré e Cupom cambial.
A fim de simplificarmos o entendimento, iremos separar as séries de estudo em
dois grupos as séries de retornos do índice da Bolsa e as séries de fatores de risco – juros.
Para o cálculo das séries de retorno de ativos de bolsa usamos as variações
logarítmicas dos preços de fechamento diário.
1t
t
t
P
r Ln
P
+
=
.
Equação 6.1
Onde,
1
t
P
+
e
t
P
são os preços de fechamento em
1
t
+
e
t
Para o cálculo dos fatores de risco adotamos o seguinte procedimento. Diariamente
é retirada da Estrutura temporal de taxa de juros a taxa correspondente ao período de 252
dias úteis a partir da data referencia
tx
. Com base nesta série de taxas criadas, podemos
então calcular os retornos diários segundo a formula abaixo
12
:
11
Sobre o assunto, verificar Cherubini et alli (2005) e Yan (2006)
12
Sobre ETTJ verificar Securato (2004)
40
(
)
( )
1
1
.
1
t
t
t
Ln tx
r
Ln tx
+
+
=
+
Equação 6.2
A seguir a descrição de cada série utilizada:
PRE 252 – criado pela identificação da taxa de mercado referente a 252 dias
proveniente da Estrutura temporal de taxa de juros (ETTJ). Onde a ETTJ é criada
pelos vencimentos disponíveis de taxas de juros dos Futuros de Depósito
Interbancários de 1dia divulgados pela Bolsa de Mercadorias e Futuros(BM&F) e
taxa de Swap Pré X DI, também divulgado diariamente pela (BM&F).
Cupom 252 criado pela identificação da taxa de mercado referente a 252 dias
proveniente da Estrutura temporal de taxa de Cupom Cambial (ETTCC), onde a
ETTCC é criada pelos vencimentos disponíveis de taxas de juros dos Futuros de
Dólar de 1dia divulgados pela Bolsa de Mercadorias e Futuros(BM&F) e taxa de
Swap Dólar X DI, também divulgado diariamente pela (BM&F), corrigido pela
Ptax800 de Venda divulgada diariamente pelo Banco Central do Brasil.
Dow Jones – Cotação de fechamento do Índice Dow Jones Industrial,
Ibovespa – Cotação de fechamento do Índice Bovespa
6.3 - Análise Exploratória dos Dados
Neste capítulo iremos efetuar uma Análise Exploratória dos Dados. Como
podemos verificar na tabela abaixo, todas as séries apresentam Curtose superior a três,
indicando que a distribuição dos retornos tem caudas pesadas. Com exceção do Dow
Jones, todas as outras séries apresentam assimetria positiva.
41
Tabela 6.1 – Estatística Descritiva das séries utilizadas.
Fonte: Cálculos efetuados pelo S-Plus, base de dados proveniente da Economática
Analisando os gráficos de retornos, podemos verificar a existência do fato
estilizado agrupamento de volatilidade, isto é as volatilidades altas(baixas) são seguidas
por volatilidades altas (baixas).
Série
tamanho da
amostra
Média Desvio-padrão Assimetria Curtose
PRE 252
1657 0,00019 0,00525 3,170 81,250
Ibovespa
1657 0,00087 0,02086 1,349 25,270
Cupom Cambial 252
1657 -0,00002 0,01020 0,652 18,310
Dow Jones
1657 0,00009 0,01171 -0,053 7,608
Série
Mínimo
quartil
Mediana
quartil
Máximo
PRE 252
-0,0458 -0,0002 0,0002 0,0014 0,0927
Ibovespa
-0,1050 -0,0116 0,0013 0,0136 0,2882
Cupom Cambial 252
-0,0948 -0,0051 -0,0001 0,0044 0,0995
Dow Jones
-0,0740 -0,0061 0,0000 0,0060 0,0691
Retorno - Pre 252
Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1
1999 2000 2001 2002 2003 2004 2005 2006
-0.04 -0.02 0.00 0.02 0.04 0.06 0.08
Retorno - Ibovespa
Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1
1999 2000 2001 2002 2003 2004 2005 2006
-0.10 -0.05 0.00 0.05 0.10 0.15 0.20 0.25
42
Figura 6.1- Gráfico dos retornos das séries estudadas
Para efetuarmos os cálculos das medidas de riscos VaR e ES pela teoria de cópulas
e pelo DCC, necessitamos identificar os melhores modelos de volatilidade para as séries
financeiras.
Desta forma, para escolher os melhores modelos, utilizaremos o critério de
informação de Akaike (AIC) que é defindo por:
max
2 2
( )
k
AIC Ln
T T
= − +l
Equação 6.3
onde
k
é o número de parâmetros estimados e T o tamanho da amostra. O melhor modelo
é aquele que tiver o menor AIC.
Com base nas series financeiras de retornos efetuamos as estimações de modelos
da família GARCH onde foram encontrados os seguintes resultados
13
:
13
Os modelos foram estimados usando o software S-PLUS através do pacote Finmetrics e do software
EVIEWS 5.0
Retorno - Dow Jones
Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1
1999 2000 2001 2002 2003 2004 2005 2006
-0.06 -0.04 -0.02 0.00 0.02 0.04 0.06
Retorno - Cupom Cambial 252
Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1
1999 2000 2001 2002 2003 2004 2005 2006
-0.08 -0.06 -0.04 -0.02 0.00 0.02 0.04 0.06 0.08
43
Tabela 6.2 – Critério de informação de Akaike
Fonte: Cálculos efetuados pelo S-Plus, base de dados provenientes da Economática
Assim sendo, os parâmetros estimados pelos melhores modelos para cada série
segundo o critério de AIC serão aqueles que estão em negrito na tabela 6.2.
Caso estes modelos estejam bem especificados esperamos que a autocorrelação dos
resíduos padronizados de cada série não sejam significâncias, indicando que as séries
capturaram adequadamente a estrutura na média. O mesmo deverá ocorrer com as séries
de resíduos ao quadrado que neste caso indicará que o modelo proposto explica
corretamente a variância.
Critério de Informaçao - Akaike DJ LN252 Ibovespa
Cupom de
Dolar 252
44
Figura 6.2 - ACF dos resíduos padronizados de Dow Jones por PGARCH(1,1) c/dist t
Podemos ver claramente que a série apresenta autocorrelação significante
indicando presença de estrutura na média, logo a série não esta bem estimada através do
modelo proposto, portanto necessitamos re-estimar o modelo.
Figura 6.3 - ACF dos resíduos padronizados de Ln 252 por EGARCH c/dist t AR(1)
Ao analisarmos o ACF do modelo proposto para a série de EGARCH, podemos ver
que a estrutura na média esta bem controlada o mesmo se aplica para as série de resíduos
ao quadrado.
45
Figura 6.4 - ACF dos resíduos padronizados de ÍBovespa por TGARCH c/dist t AR(1)
Podemos ver claramente que o ACF das séries de Cupom cambial e de Ibovespa,
estão controladas pelos modelos propostos.
Figura 6.5 - ACF dos resíduos padronizados de Cupom Cambial 252 por TGARCH c/dist t AR(1)
Assim sendo, efetuamos uma análise na série de Dow Jones, onde encontramos o
modelo GARCH(1,2) como solução a seguir iremos verificar a análise dos resíduos.
46
Figura 6.6 - ACF dos resíduos padronizados de Dow Jones por GARCH(1,2)
Podemos ver claramente que a série não apresenta autocorrelação significante, logo
a série esta bem estimada através do modelo proposto, portanto as melhores especificações
dadas às séries são:
Tabela 6.3 – Melhores modelos de volatilidade
Fontes: Cálculos efetuados pelo S-Plus, base de dados proveniente da Economática
Analisando os modelos podemos verificar claramente que todas a séries
apresentaram a necessidade de se utilizarem erros não gaussianos para a melhor estimação
Modelos
GARCH(1, 2)
EGARCH
TGARCH
TGARCH
47
do modelo, logo efetuando análise de um qq-plot (distribuição t), podemos comprovar esta
necessidade.
Figura 6.7 – QQ Plot (distribuição t) : Dow Jone, Ibovespa, LN252 e Cupom 252
48
6.4 - Calculo do VaR e do ES
Para obter o VaR e o ES, para as séries estudas, foram criadas rotinas no S-plus, R
e Matlab, sendo que cada um dos softwares foram adotados de acordo com a necessidade.
6.4.1 – Modelos multivariados
Para a estimações diárias das Matrizes de Covariância dos seguintes modelos
Multivariados BEKK, VEC diagonal, VEC diagonal com resíduos seguindo distribuição
t, Matriz diagonal, EWMA
14
, adotamos o seguinte procedimento:
(i) Iniciamos a primeira estimação com 252 dias, calculamos a matriz de
variância e covariância, esta matriz será utilizada para o cálculo da
primeira medidas de risco;
(ii) Diariamente acrescentamos uma nova amostra (dia) e re-estimamos o
modelo, repetindo o procedimento até o final da amostra, ou seja, re-
estimamos o modelo 1405 vezes.
Com base na matriz de covariância estimada para cada um dos modelos
multivariados, geramos a matriz de correlação, usaremos estas matrizes para gerar via
simulação de Monte Carlo as medidas de risco. Para tanto, iremos gerar Variáveis
Aleatórias i.i.d. (independente e identicamente distribuídas), no nosso caso, iremos gerar
(Nx4) Variáveis Aleatórias.
Todavia, estas variáveis não possuem a relação de dependência que existia
inicialmente, neste caso caracterizado pela correlação. Este relação de dependência será
criada pela transformada de Cholesky da matriz de correlação. Com base nesta matriz e os
números aleatórios, teremos então variáveis aleatórias que possuem a mesma relação de
dependência. Com base nestas variáveis, calcula-se então o VaR
15
:
0.95
VaR q
=
Equação 6.4
14
Vide capítulo 3
15
As medidas de risco foram explicadas no capítulo 2
49
e o Expected Shortfall
(
)
VaRxxEES >=
Equação 6.5
6.4.2 – Modelos multivariado – Modelo de correlação dinâmica (DCC)
Para as estimações diárias das Matrizes de Covariância dos modelos Multivariado
DCC, adota mos o seguinte procedimento, conforme verificamos no capítulo 4.7 a grande
vantagem deste modelo é a redução de parâmetros a serem estimadas, isto se deve ao fato
de utilizar-se de modelos univariados pré-estimados preocupando-se apenas em estimar a
correlação condicional. Em virtude disto, efetuamos o estudo de cada série com intuito de
verificar qual o modelo de volatilidade melhor explica a série estudada.
16
Com base nos modelos de volatilidade encontrados, modificamos a rotina
desenvolvida por Sheppard em Matlab
17
para cálculo do DCC (a original não permitia a
utilização de volatilidade distintas) para efetuar o cálculo corretamente, ou seja, utilizando
as volatilidades pré-estimadas.Com base na primeira estimação com 252 dias de amostra,
calculamos a matriz de covariância, esta matriz será utilizada para o cálculo da primeira
estimação das medidas de risco, como em 6.4.1 re-estimamos o modelo diariamente
acrescentamos sempre um nova amostra (dia) perfazendo um total de 1405 estimações.
Com base na matriz de covariância foi gerada a matriz de correlação e com base
nestas medidas de risco via simulação de Monte Carlo (seguindo o mesmo procedimento
descrito anteriormente).
6.4.3 – Modelos multivariado – VaR Calculado pela Teoria de Cópulas
O mesmo procedimento foi implementado para os cálculos das medidas de risco
das variáveis geradas por cópulas; porém neste caso após a estimação dos parâmetros da
cópula geram-se a variáveis aleatórias com o gerador específico da cópula.
18
No caso das cópulas, como verificado no capítulo 5 o Teorema de Sklar permite
que a modelagem de distribuições multivariadas seja função de suas marginais e da função
16
Vide tabela 6.3
17
Disponível do site:
18
Sobre este procedimento verificar o capítulo 5.3 – Tabela 5.1
50
de acoplamento. Desta forma, após o estudo de dependência podemos verificar se a função
de acoplamento Clayton apresenta uma melhor modelagem para a cauda negativa, logo
como as medidas de risco preocupam-se com a estimação das perdas, adotamos esta
função para o estudo
19
. Com base na escolha da função de acoplamento, optamos em
estimar as distribuições marginais como normais e pela distribuição gama, esta escolha
baseou-se para efetuar-se a análise da força da suposição de normalidade.
6.4.4 – Modelos multivariado – VaR Histórico
Para obter o VaR histórico este trabalho adotou o seguinte procedimento,
calculamos primeiramente o quantil de cada fator de risco, ou seja o VaR ,a seguir para
transformá-lo em um portfolio multiplicamos pela matriz de correlação histórica
6.4.5 – Análise do Backtesting para o VaR
Para efetuarmos os cálculos de backtesting para VaR, iremos adotar a metodologia
descrita no livro de McNeil et all (2005, p.162-163).
Assim sendo temos, considerando o indicador de violação como:
{ }
t
t
VaRL
t
II
α
>
+
+
=
1
:
ˆ
1
.
Equação 6.6
Onde:
t
VaR
α
- VaR condicional estimado um passo a frente.
De acordo com McNeil et all (2005, p.162), caso a estimação do quantil estiver
correta, deve-se esperar que o indicador empírico de violações siga uma sequência de
variáveis aleatórias i. i.d., isto é, independentes com distribuição de Bernoulli e
probabilidade de sucesso igual a (1-α).
Para se verificar se as violações do VaR de um passo a frente tem distribuição de
Bernoulli devemos verificar dois apectos: verificar se o número de violações está correto
em média e verificar se o padrão das violações é consistente com o comportamento de
variáveis i.i.d..
19
ver figura 5.1
51
Certamente, se calcularmos um VaR para as datas t= 1, . . . , m, esperamos que:
=
m
t
t
Î
1
~ B(m, 1-α), e isto é facilmente comprovado através de um two-sided binominal
test, aonde ao se rejeitar hipótese nula o teste irá sugerir que o VaR esta super-estimado ou
sub-estimado.
Os resultados para o Backtest do VaR serão apresentados a seguir.
Tabela 6.4
Proporção dos dados em que a perda excede o VaR de 97,5% para cada cauda,
para o total e seus respectivos p-valores
20
Fontes: Cálculos efetuados pelo Software S-
Plus , R e Matlab, base de dados proveniente da
Economática
Como podemos verificar o modelo DCC foi o que apresentou os melhores
resultados para pontos abaixo do VaR porém o modelo matriz diagonal apresentou uma
pequena superioridade ao se somar os pontos acima do VaR. A respeito da alta falha
20
Seguindo explicação anterior
Modelo
α
αα
α
=0.025
α
αα
α
=-0.025
α
αα
α
=0.05
Matriz Diagonal
2,99%
2,21%
5,20%
0,2656 0,4971 0,7594
EWMA
5,27%
5,05%
10,32%
0,0000
0,0000
0,0000
VEC com dist.
T
3,91%
3,77%
7,69%
0,0015
0,0046
0,0000
BEKK
3,35%
2,92%
6,26%
0,0595 0,3464
0,0371
Histórico
3,20%
2,95%
6,15%
0,1034 0,2656 0,0659
Copulas Clayton - marginais Gamma
3,98%
3,47%
7,45%
0,0011
0,0396
0,0001
Copulas Clayton - marginais Normais
3,90%
2,40%
6,30%
0,0015
0,7976
0,0272
VEC
4,20%
4,20%
8,40%
0,0002
0,0002
0,0000
DCC - Volatilidade univariadas
2,49%
2,85%
5,34%
1,0000 0,4413 0,5814
52
produzida pelas Cópulas, não nos surpreendeu em virtude de que a maioria dos trabalhos
que usamos como referência em níveis de confiança alto encontraram resultados também
desfavoráveis. Analisando o p-valor não rejeitamos a hipótese nula para os seguintes
modelos: VaR calculado por Matriz diagonal, VaR Histórico e DCC para todos os teste,
para o teste das caudas BEKK não rejeitou a hipótese nula e finalmente para as Cópulas
com marginais gama e com marginais normais não rejeitaram apenas para a cauda
esquerda. Nos casos aonde a hipótese nula foi rejeitada, segundo McNeill et all (2005,
p.163), o VaR pode estar sistematicamente sobre-estimado ou super-estimado.
Tabela 6.5 Proporção dos dados em que a perda excede o VaR de 99,5% para cada cauda,
para o total e seus respectivos p-valores.
Fontes: Cálculos efetuados pelo Software S-
Plus , R e Matlab, base de dados proveniente da
Economática
Como era de se esperar os modelos que utilizam as Cópulas realmente
melhoraram a sua eficiência quando os níveis de confiança aumentaram, sendo que as
Modelo
α
αα
α=0.005 α
αα
α=-0.005 α
αα
α=0.01
Matriz Diagonal
0,36% 0,14% 0,50%
0,571 0,0561 0,0593
EWMA
0,93% 0,57% 1,49%
0,0344
0,7019
0,0786
VEC com dist. T
0,78% 0,43% 1,21%
0,1797
0,8506
0,4186
BEKK
0,71% 0,36% 1,07%
0,3416
0,5707
0,7874
Histórico
0,57% 0,64% 1,21%
0,7019
0,4439
0,4186
Copulas Clayton - marginais Gamma
0,49%
0,58% 1,07%
1,0000
0,7019
0,7874
Copulas Clayton - marginais Normais
0,45%
0,48%
0,94%
0,8506
1,0000
0,8935
VEC
0,85% 0,43% 1,28%
0,0828
0,8506
0,3464
DCC - Volatilidade univariadas
0,92% 0,85% 1,77%
0,0344
0,0828
0,0067
53
Cópulas foram superiores aos demais ao se analisar os pontos abaixo do VaR (onde o risco
é maior , ou seja, a perda real).
Analisando o p-valor encontramos apenas no caso do DCC bi-caudal a rejeição da
hipótese nula, portanto como comentado anteriormente o VaR estimado por este modelo
poderá estar superestimando ou subestimando o VaR.
6.4.6 – Análise do Backtesting para o Expected Shortfall
Para efetuarmos os cálculos de backtesting para Expected Shortfall, iremos adotar
a metodologia descrita no livro de McNeil et all. (2005, p.163).
A partir de da observação de
t
ES
α
que é o expected shortfall de um distribuição
(contínua) de perdas
+1t
L
F
e definimos
(
)
111 +++
=
t
t
tt
IESLS
α
, onde o processo de perda
arbitrário
(
)
Ζt
t
L do processo
(
)
Ζt
t
S forma uma série diferencial martingal satisfazendo
(
)
0
1
=
+ tt
SE , temos :
(
)
(
)
( )
{ }
ZqZ
ttt
t
IZESZS
α
α
σ
>
+++
+
=
1
111
.
Equação 6.7
Isto sugere que, quando a medida de risco e volatilidade são estimadas podemos
criar o violation residuals da seguinte forma :
111
ˆ
/
ˆ
+++
=
ttt
SR
σ
.
(
)
111
ˆˆ
:
ˆ
+++
=
t
t
tt
ISELS
α
Equação 6.8
Onde :
1
ˆ
+t
I é o indicador de violação definido na (Equação 6.6). Esperamos que estas
realizações deste indicador se comportem com uma variável iid com média zero.
21
21
Maiores detalhes podem ser verificados em EFRON, B.F e TIBSHIRANI, R.J (1994, pág.224)
54
Tabela 6.6 – P-valor para os modelos estimados para Expected Shortfall referente a um VaR
de 95% IC
Fontes: Cálculos efetuados pelo Software S-Plus , R e Matlab, base de dados proveniente da
Economática
Analisando o p-valor gerado pelo teste de violation residuals, podemos concluir
que somente os modelos EWMA e VEC utilizados para a estimação de expected shortfall
rejeitaram a hipótese H0, indicando que a média não é igual a zero.
Modelo ES=(L|L>VaR 95%)
Matriz Diagonal
0,5342
EWMA 0,0040
VEC com dist. T
0,0663
BEKK
0,1573
Histórico
0,1245
Copulas Clayton - marginais Gamma
0,1653
Copulas Clayton - marginais Normais
0,2432
VEC 0,0003
DCC - Volatilidade univariadas
0,4523
55
Tabela 6.7 – P-valor para os modelos estimados para Expected Shortfall referente a um VaR
de 99% IC
Fontes: Cálculos efetuados pelo Software S-Plus , R e Matlab, base de dados proveniente da
Economática
Analisando o p-valor gerado pelo teste de violation residuals, podemos concluir
que todos os modelos utilizados para a estimação de expected shortfall não rejeitaram a
hipótese H0, indicando que a média é igual a zero.
Modelo ES=(L|L>VaR 99%)
Matriz Diagonal
0,0453
EWMA
0,0500
VEC com dist. T
0,4327
BEKK
0,6623
Histórico
0,4672
Copulas Clayton - marginais Gamma
0,6538
Copulas Clayton - marginais Normais
0,7834
VEC
0,0340
DCC - Volatilidade univariadas
0,0512
56
Conclusão
Esta dissertação de mestrado mostrou como a teoria de Cópulas pode ser aplicada
como ferramenta para a estimação de medidas de riscos.
Este trabalho consistiu na análise de um portfolio tetra-variado formado pelos
fatores de risco pré 252 e cupom 252; e pelos índices da Bolsa de São Paulo e de Nova
York – Ibovespa e Dow Jones respectivamente.
Utilizamos a grande maioria de modelos multivariados utilizados para a estimação
de modelos multivariados, além do Dynamic Conditional Correlation (DCC) para
confrontar a teoria de Cópulas
Claramente podemos verificar que as medidas de risco estimadas pela teoria de
Cópulas apresentam uma superioridade considerável as outras técnicas quando se
considera nível de confiança alto.
O grande problema que encontramos é em relação à estimação do modelo que é
relativamente lento e de difícil convergência, neste trabalho tivemos que adotar um
processo de estimação em dois estágios, pois de outra forma não conseguimos
convergência.
Em relação sua aplicabilidade e implantação em bancos de investimentos,
entendemos como um pouco crítica no momento, por dois motivos principais: primeiro a
necessidade de ter que se supor alguma função de acoplamento de forma ad-hoc”, este
tipo de imposição dificulta a defesa perante a alta cúpula, e em segundo lugar o
dificuldade para estimar modelos multivariados acima de quatro. Nesta linha o package
cópulas possui uma funcionalidade de criar FDA e FD em linguagem simbólica o que
permite utilizar funções geradas para fazer a estimação em outros softwares
22
e
linguagens.
22
As formulas 5.15 e 5.16 foram geradas através desta funcionalidade
57
Referências bibliográficas
ALEXANDER, Carol (2001) Market Models: A Guide to Financial Data Analysis, New
York: John Wiley & Sons Ltd, 2001. 445p
ARTZNER, P.et al. Thinking Coherently, RISK, v.10, n.11, p.68-71, 1997.
ARTZNER, P.et al. Coherent measures of risk. Mathematical Finance, n.9, p.203-228,
1999.
ATTANASIO, O.P. Risk, time varying second moments and market efficiency. Review of
Economic Studies, n.58, p.479-94, 1991
BABA, Y., R.F. Engle; D.F. Kraft e K.F. Kroner, Multivariate simultaneous generalized
ARCH, Department of Economics, University of California, San Diego, Economics
Working Paper Series, 89-57r, 1993.
BOLLERSLEV, T; R.F ENGLE e J.M WOOLDRIDGE .A Capital asset pricing model
with time varying covariance’s. Journal of Political Economy, n.96, p.116-31, 1988.
BOLLERSLEV, T. Modeling the coherence in short-run nominal exchange rates: A
multivariate generalized ARCH approach. Review of Economics and Statistics, n.72,
p.498-505, 1990.
CHERUBINI, Umberto; LUCIANO, Elisa e VECHIATO, Walter. Copulas Methods in
Finance. 1.edição. Chichester: John Wiley Sons Inc, 2004. 293 p.
CLAYTON, D. G. A model for association in bivariate life tables and its application in
epidemiological studies of familial tendency in chronic disease incidence. Biometrika,
n.65, p. 141–152, 1978.
DING, Z; Granger; C.W.J; R F., Engle, R F. A long memory property of stock market
returns and new model. Journal of Empirical Finance 1, p.83-106, 1998.
EMBRECHTS P; McNEIL, A; STRAUMAN, D. Correlation and dependency in risk:
Properties and pitfalls. In: DEMPSTER, M. Risk Management: value at risk and beyond,
Cambridge: Cambridge University Press, 1999
EFRON, B.F; TIBSHIRANI, R.J, An Introduction to the Bootstrap. Flórida: Chapman
& Hall, 1994. 456p.
ENGLE, R F. Autoregressive conditional heteroscedastic with estimates of the variance of
U.K inflation. Econometrica, n.50, p.987-1008, 1982
58
ENGLE, R F e KRONOER, K.F. Multivariate simultaneous generalized ARCH.
Econometric Theory, v. 50, p.987-1007, 1995.
ENGLE, R F e SHEPPARD, K. Theorical and Empirical Properties of Dynamic
Conditional Correlation Multivariate GARCH, NBER Working Paper, n.8554, 2001.
FÉRON, R. Sur les tableaux de correlation dont les marges sont donnés, cas de l’espace à
trois dimensions. Publ. Inst. Statist. Univ. Paris , n.5, p .3-12, 1956.
FISHER, N.I. Cópulas . Encyclopedia of Statistical Sciences, Nova York: John Wiley &
Sons, 1997. p.159-163
FRANK, M. J .On the simultaneous associativity of F(x, y) and x + y f(x, y).
Aequationes Mathematicae, n.19, p.194–226, 1979.
FRANSES, P.H e VAN DJIJK. Non-linear time series models in empirical finance.
Cambridge: Cambridge University Press, 2000, 280p.
GLASTEN, L R.; JAGANNATHAN, R e RUNKLE D.E. On the relation between the
Expected Value and the Volatility of the Normal Excess return on Stocks. Journal of
Finance, n.48, p. 1779-1801, 1993.
GUMBEL, E. J. Bivariate exponential distributions. Journal of the American
Statistical Association, n.55, p. 698–707, 1960.
JP Morgan Bank. Risk Metrics Technical Manual. New York: J.P Morgan Bank, 1995.
JORION, P. Value at Risk: The New Benchmark for controlling Market Risk. Nova
York: McGraw-Hill, 2001, 305p.
MARÇAL, E.F. Ensaios sobre eficiência, cointegração, componentes comuns, não
linearidades na variância nos mercados financeiros: Um estudo da estrutura a termo
das taxas de juros e da volatilidade de títulos da dívida soberana, São Paulo,2004. 121p,
Tese (Doutorado em Economia) Faculdade de Economia, Administração e
Contabilidade, Universidade de São Paulo, São Paulo,2004.
MARKOWITZ, H. Portfolio Selection. Journal of Finance, n.7, p 77-91, 1952
McNEIL, Alexander J; FREY, Rüdiger e EMBRECHTS, Paul. Quantitative Risk
Management: concepts, techniques, and tools. New Jersey: Princeton University Press,
2005, 538p.
MENDES, B.V. Introdução à Análises de Eventos Extremos. Rio de Janeiro: E-Paper
Serviços Editoriais Ltda, 2004, 232p.
NELSEN R.B. An introduction to Cópulas. Lectures notes Statistics 139, Nova York:
Spring-Verlang New York, Inc, 1999, 216p.
NELSON, D. B. Conditional Heteroscedasticity in Asset Returns: a New Approach.
Econometrica, v.59, 347-370, 1991.
59
PALARO, H. Aplicação de acoplamento no cálculo do Valor em Risco,
Campinas.142p. Dissertação (Mestrado em Estatística) - Instituto de Matemática,
Estatística e Computação Científica, UNICAMP, Campinas, 2004.
SKLAR, A. Fonctions de répartition à n deimensions et leurs marges. Publ. Inst. Statist.
Univ. Paris, n.8, p 229-231, 1954
SECURATO, J.R. Cálculo Financeiro das Tesourarias. São Paulo: Saint Paul Institute
of finance, 2004, 312p.
TSAY, R.S. Analysis of financial time series. New York: John Wiley & Sons Inc, 2002,
448p.
TSE,Y.K e TSUI, A.K.C. A Multivariate Generalized Autoregressive Conditional
Heteroscedasticity Model with Time-Varying Correlations. Jornal of Business and
Economic Statistics, Vol. 2002, n.3, 2002.
YAN, J. Enjoy the joy of Cópulas, preprint submitted to Elsevier Science, 20 jun. 2006.
Disponível em: <http://www.stat.uiowa.edu/techrep/tr365.pdf>. Acesso em: 20 julho.
2006.
ZIVOT, E e WANG, J . Modeling Financial Time Series with Splus . New York: Spring
Science+Business Media, Inc., 2006, 998p.
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo