Download PDF
ads:
IBMEC SÃO PAULO
Programa de Mestrado Profissional em Economia
Gilberto Augusto de Moraes Almeida
ALOCAÇÃO DE ATIVOS ATRAVÉS DO MODELO
MULTIDIMENSIONAL DE FATORES LATENTES COM
VOLATILIDADE ESTOCÁSTICA PARA O MERCADO
ACIONÁRIO BRASILEIRO
São Paulo
2009
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
2
Gilberto Augusto de Moraes Almeida
Alocação de ativos através do modelo multidimensional de
fatores latentes com volatilidade estocástica para o
mercado acionário brasileiro
Dissertação apresentada ao programa de Mestrado
Profissional em Economia da Faculdade Ibmec São
Paulo, como parte dos requisitos para a obtenção do
título de Mestre em Economia.
Área de concentração: Finanças Aplicadas.
Orientador:
Prof. Dr. Eurilton Alves Araújo Júnior – Ibmec SP
São Paulo
2009
ads:
3
Almeida, Gilberto Augusto de Moraes.
Alocação de ativos através do modelo multidimensional de
fatores latentes com volatilidade estocástica para o mercado
acionário brasileiro. / Gilberto Augusto de Moraes Almeida;
orientador: Prof. Dr. Eurilton Alves Araújo Júnior – São Paulo:
Ibmec, 2009. 60 f.
Dissertação (Mestrado – Programa de Mestrado
Profissional em Economia. Área de concentração: Finanças
Aplicadas) – Faculdade Ibmec São Paulo.
1. Alocação de ativos 2. Volatilidade Estocástica 3.
Finanças
4
Gilberto Augusto de Moraes Almeida
Alocação de ativos através do modelo multidimensional de
fatores latentes com volatilidade estocástica para o
mercado acionário brasileiro
Dissertação apresentada ao programa de Mestrado
Profissional em Economia da Faculdade Ibmec São
Paulo, como parte dos requisitos para a obtenção do
título de Mestre em Economia.
Área de concentração: Finanças Aplicadas.
Aprovada em Junho de 2009.
EXAMINADORES
___________________________________________________________________
Prof. Dr. Eurilton Alves Araújo Júnior
Instituição: Ibmec São Paulo
___________________________________________________________________
Prof. Dr. Fábio Gomes
Instituição: Ibmec São Paulo
Prof. Dr. Luiz K. Hotta
Instituição: UNICAMP
5
Agradecimentos
Aos amigos e excelentes orientadores Eurilton Araújo e Márcio Laurini pela porta
sempre aberta, oportunidades e amizade durante todo o curso.
Aos meus pais, pelas inúmeras leituras e ajuda não só no decorrer deste trabalho,
mas sim durante todo o curso, além de todo o incentivo, compreensão e paciência.
Á Fundação Estudar, pela bolsa de estudo integral concedida durante a faculdade,
sem a qual jamais poderia cursar um mestrado.
Aos membros da banca examinadora, pelos valiosos comentários.
Aos colegas, professores e funcionários da instituição, pelo compromisso com a
excelência acadêmica.
6
Dedicatória
Aos meus pais, Ana Maria e Homero,
meus melhores amigos e maiores mestres.
7
Resumo
ALMEIDA, Gilberto Augusto de Moraes. Alocação de ativos através do modelo
multidimensional de fatores latentes com volatilidade estocástica para o
mercado acionário brasileiro. São Paulo, 2009. 60 p. Dissertação de Mestrado –
Faculdade Economia e Finanças – IBMEC SÃO PAULO.
Este trabalho utiliza a série de retornos diários para as ações mais líquidas do
Índice BOVESPA a partir de janeiro de 2000. Com base num arcabouço teórico e
prático dada a grande gama de ativos estudados para alocação, optou-se por utilizar
modelo multidimensional de fatores latentes com volatilidade estocástica como em
Han (2006), onde a adequação do mesmo foi avaliada tanto dentro como fora da
amostra utilizada. Por fim, com base nas previsões obtidas através do modelo, foram
discutidas algumas regras de alocação para ativos brasileiros, além de se comparar
com a regra sugerida em DeMiguel, Garlappi e Uppal (2009). Como síntese dos
resultados finais, temos: o modelo de alocação diário via Markowitz a partir do
modelo proposto supera a regra simples de 1/N, a qualidade do modelo independe
da tendência da bolsa e há ganhos reais de alocação ao se considerar o prêmio de
risco na mesma.
Palavras-chave: Alocação de ativos; modelos multivariados; fatores latentes;
volatilidade estocástica; Markowitz.
8
Abstract
ALMEIDA, Augusto Gilberto de Moraes. Asset allocation using a High
Dimensional Latent Factor Stochastic Volatility Model for the Brazilian Stock
Market. São Paulo, 2009. 60 p. MSc Dissertation – Faculdade Economia e Finanças
– IBMEC SÃO PAULO.
This paper analyzes a series of daily returns from highly liquid stocks listed in
the São Paulo Stock Exchange Index (IBOVESPA) from January of 2000. Under the
themes of teorical and practical framework for allocation, this paper opted in using a
High Dimensional Latent Factor Stochastic Volatility Model, similar to Han (2006),
where the model’s adequacy was verified outside as well as inside the utilized
sample. Finally, on the basis of the results obtained using the proposed model, some
possible methods of allocation for such Brazilian assets were discussed and
compared with the simple rule suggested in DeMiguel, Garlappi and Uppal (2009).
The main results were: the daily allocation model using Markowitz and based in the
forecasts from the proposed model is worse than simple rule of 1 / N, the quality of
the model is independent of the market´s trend and is possible to achieve economic
and real gains using the risk premia in the asset allocation.
Keywords: Asset allocation; multivariate models; latent factors; stochastic volatility;
Markowitz.
9
Sumário
I - Introdução e motivação ...................................................................................... 13
II – Modelo multidimensional de fatores latentes com volatilidade estocástica 17
II.1 – Especificação do MMFLVE ........................................................................... 17
II.2 – Métodos de estimação do MMFLVE ............................................................. 19
III – Descrição e análise dos dados utilizados ...................................................... 23
III.1 – Análise Descritiva ........................................................................................ 24
IV – Estimação do MMFLVE .................................................................................... 27
IV.1 – Ajuste do modelo ......................................................................................... 29
V - Alocação de ativos para o mercado brasileiro ................................................ 30
V. I - Paradigma de Markowitz ............................................................................... 30
V. II - Alocação 1 / N ............................................................................................. 34
VI – Tipos e resultados da alocação de ativos ................................................... 387
VII – Considerações finais e sugestões ................................................................ 45
Referências Bibliográficas ..................................................................................... 48
Apêndices ............................................................................................................... 51
Anexos ..................................................................................................................... 58
10
Lista de Tabelas
Tabela 1 – Estatísticas descritivas dos retornos da carteira teórica ........................ 26
Tabela 2 – Custos reais de transação para o mercado acionário brasileiro ............ 36
Tabela 3 – Tabela Resumo com índice de Sharpe para cada estratégia ................ 41
Tabela 4 – Tabela comparativa entre o portifólio de mínima variância diário contra
seu respectivo benchmarck ...................................................................................... 42
Tabela 5 – Tabela descritiva da carteira índice teórica no período ......................... 44
Tabela 6 – Tabela descritiva da estratégia diária de mínima variância no período . 44
11
Lista de Figuras
Figura 1 – Gráfico temporal da carteira teórica ....................................................... 25
Figura 2 – Histograma da distribuição dos retornos da carteira teórica .................. 25
Figura 3 Retornos previstos em várias periodicidades para PETR4 .................... 29
Figura 4 – Volatilidades previstas em várias periodicidades para PETR4 .............. 29
Figura 5 – Parte racional da fronteira eficiente de Markowitz .................................. 32
Figura 6 – Retorno líquido acumulado da estratégia de mínima variância para
diversas periodicidades ............................................................................................ 38
Figura 7 Retorno líquido acumulado da estratégia “Carro Bomba” para diversas
periodicidades .......................................................................................................... 39
Figura 8 Retorno líquido acumulado da estratégia “Carro Bomba Ajustado” para
diversas periodicidades ............................................................................................ 40
Figura 9 Retorno líquido acumulado da estratégia 1 / N no período .................... 40
Figura 10 – Gráfico conjunto do retorno acumulado da estratégia escolhida versus
seu respectivo benchmarck ...................................................................................... 42
12
“Investir em conhecimento rende sempre melhores juros.”
Benjamin Franklin
“O sábio não é o homem que fornece as verdadeiras respostas; é o que formula as
verdadeiras perguntas.”
Lévi Strauss.
“The future belongs to those who believe in the beauty of their dreams.”
Eleanor Roosevelt
“Markets look a lot less efficient from the banks of the Hudson than from the banks of
the Charles.”
Fischer Black
13
I - Introdução e motivação
Este trabalho tem como finalidade usar o poder preditivo de um modelo
multidimensional de fatores latentes com volatilidade estocástica para a alocação de
ativos de uma carteira que deve ser rebalanceada periodicamente, através da
utilização de dados diários para o mercado acionário brasileiro.
Quanto a média dos ativos, há uma enorme gama de trabalhos que analisa e
tenta modelar a sua previsibilidade como em Cremers (2002), Barberis (2000),
Tamayo (2002) e Fama e Kenneth (1988). O primeiro utiliza métodos bayesianos
para obter um modelo para a média diária de retorno de cinqüenta ativos
americanos. Por outro lado, o segundo trabalho citado visa, através de um modelo
estrutural, encontrar alguma previsibilidade de longo prazo para ativos ingleses.
Ademais, os dois últimos artigos supracitados ancoram seus respectivos modelos
em restrições de preços contidos na teoria de precificação de ativos por não
arbitragem, além do uso de analise fundamentalista na modelagem via alguns
múltiplos contábeis relevantes das empresas analisadas, como forma de achar
algum padrão no preço dos ativos.
Já para a variância dos mesmos, os trabalhos que tentam modelá-la
concentram-se basicamente em dois arcabouços teóricos: modelos das classes
GARCH e modelos de volatilidade estocástica. Para o primeiro caso, são referências
clássicas os seguintes trabalhos: Engle (1982), bem como o de Bollerslev, Engle e
Nelson (1994), que abordam basicamente as especificações ARCH e GARCH
1
.
Entretanto, devido ao número de parâmetros a serem estimados e alguns fatos
estilizados de séries financeiras não captados nestes modelos acima, surgiram
algumas generalizações dos mesmos, como: o EGARCH
2
, proposto por Nelson
(1991), que visa capturar a assimetria na volatilidade dos ativos de acordo com a
tendência do mercado e garante que a matriz de variância e covariância seja semi-
definida positiva; o TARCH
3
que tem o mesmo propósito do EGARCH, porém com
1
Outras discussões acerca destes modelos podem ser encontradas em: Diebold e Nerlove (1989) e
Jorner e Nig (1998).
2
Existe uma vasta gama de literatura para os modelos da classe EGARCH. Alguns exemplos são:
Mohd Nor, Ekonomi, Perniagaan (2005), Berument, Ozcan e Neyapti (2004), Radha e Tenmozhi
(2004).
3
Ver Stavarek (2007).
14
uma outra especificação que possui diferentes regimes para a variância e pode
capturar assimetria devido a outros fatores pré-definidos; o IGARCH
4
que corrige e
adequa o modelo para uma possível não estacionariedade da variância condicional
estudada. Além disso, uma crescente área de concentração de estudos são os
modelos de memória longa para a variância (FIGARCH
5
) usando dados de alta
frequência.
Quanto ao modelo de volatilidade estocástica (SV
6
), a idéia do mesmo é tratar
a variância como um componente não observado das séries estudadas e estimar os
parâmetros de interesse, através de um procedimento interativo, com base em tal
hipótese. Além disso, também conseguem capturar de forma satisfatória alguns
outros fatos estilizados de séries financeiras como: a distribuição de retorno dos
ativos é leptocúrtica, existem agrupamentos de volatilidade dos ativos, etc.
Como pôde ser observado pelas descrições acima, a maioria dos trabalhos
existentes na literatura aborda cada uma das modelagens de forma independente,
ou seja, não as fazem conjuntamente para a média e para a variância dos ativos
selecionados, o que pode implicar em perda de eficiência e poder preditivo do
modelo escolhido. Como exemplo disto, temos os trabalhos empíricos de Pearan e
Timmermann (1995), Handa e Twari (2004), Graham e Harvey (1996), Fleming, Jirby
e Ostdiek (2003). Sendo que, nos dois primeiros, a variância é tida como constante e
tenta-se modelar a média dos retornos; ao passo que, nos dois últimos, assume-se
um retorno esperado igual a zero e que há alguma estrutura para a variância,
mesmo que simples.
Sendo assim, com a crescente importância da alocação de ativos na gestão
de risco no mercado financeiro, cresce a necessidade do desenvolvimento de
modelos que considerem conjuntamente os dois primeiros momentos da distribuição
variando no tempo. Com este propósito, temos alguns trabalhos recentes como o de
Gomes (2002), Han (2004) e Aguilar e West (2000).
O primeiro analisa os ganhos de uma alocação dinâmica supondo uma
estrutura simples tanto para a média como para a variância, em termo de
incrementos na utilidade do investidor; já o segundo comenta os possíveis erros de
4
Ver Chen, Kwok e Rui (2001).
5
Ver como exemplo o trabalho de Giraitis e Robinson (1999).
6
Uma revisão bem detalhada a respeito de tal classe pode ser encontrada em Assai e McAleer
(2005).
15
especificação destes tipos de modelo e propõe uma estrutura ARMA-GARCH para
os ativos, concluindo que há ganhos reais quando, apenas, o sinal do modelo é
utilizado para a alocação, e não a magnitude prevista de retorno. Entretanto, apesar
de obter alguns resultados satisfatórios e robustos, as análises acima são para
apenas um ativo com risco ou modelos univariados distintos para cada um dos
ativos analisados.
Por fim, o trabalho de Aguilar e West (2000) introduz e expande a alocação de
ativos através de um modelo multivariado de fatores bayesiano com volatilidade
estocástica e conclui que o investidor obtém ganhos no seu portifólio ao se usar tal
especificação conjunta.
Ou seja, a idéia de alocação é um problema prático no qual os agentes lidam
com uma vasta gama de ativos, fazendo com que a necessidade de se modelar
conjuntamente tanto a média como a variância seja dificultada pelo grande número
de ativos disponíveis. Como o propósito deste trabalho é exatamente este, deve-se
usar um modelo dinâmico para os dois primeiros momentos da distribuição e que
seja plausível utilizá-lo na prática para o mercado acionário brasileiro.
Além disso, uma real contribuição deste trabalho é não só utilizar a previsão
para a média de retorno dos ativos, mas sim considerar o prêmio de risco referente a
volatilidade no processo de alocação da carteira. Vale ressaltar que a parte de
alocação e medidas de eficiência da mesma serão discutidas posteriormente neste
artigo.
Para este fim no mercado brasileiro, será usada a contribuição de Han (2006)
que propõe um modelo multidimensional de fatores latentes com volatilidade
estocástica, além de períodos de rebalanceamento do portifólio, critérios de
avaliação dos ganhos – que serão explicados e calculados posteriormente - e custos
decorrentes do uso de cada uma das estratégias para um investidor que possui uma
função utilidade que aumenta devido a um maior retorno e declina em função de
uma maior volatilidade do portifólio.
Os principais motivos para o uso deste tipo de modelo para alocação de
ativos são: utiliza fatores não observados para modelar linearmente os dois
primeiros momentos da distribuição dos ativos, abordagem essa parcimoniosa e de
acordo com modelos de precificação de ativos, como por exemplo, o APT
7
(Teoria
7
Para mais informações e aplicações do APT na modelagem de ativos, consultar Nardari e Scruggs
(2005).
16
de Precificação por Arbitragem). Além disso, os fatores são dinâmicos, ou seja,
também possuem uma estrutura, sendo esta modelada por um VAR, cuja ordem
será explicada e encontrada posteriormente.
Para a variância utiliza-se o modelo de volatilidade estocástica multivariada
(MSV) que tende a ser mais genérico, eficiente e operacional do ponto de vista
computacional do que os modelos multivariados da classe GARCH, como o BEKK,
DVEC e DCC. Além disso, a performance do mesmo fora da amostra é muito
superior aos demais, como fora mostrado por Chib, Nardari e Shephard (2002) em
seu estudo para ativos americanos.
Já para a média, outra nítida vantagem deste modelo é decompor os retornos
em fatores latentes e tratá-los como se tivessem dinâmica do tipo auto-regressiva,
fazendo com que os retornos de uma vasta gama de ativos seja reduzida há alguns
fatores, facilitando assim a estimação via verossimilhança que será explicada
posteriormente.
Sendo assim, o restante desse trabalho será organizado da seguinte forma: a
seção II descreverá o modelo a ser utilizado e fará uma breve explicação do método
de estimação que será adotado. A seção III será o início da parte empírica desse
trabalho, onde será feita uma descrição dos dados da amostra e uma breve análise
estatística dos mesmos. Quanto à seção IV, a mesma será utilizada para estimação
do modelo conjunto sugerido para a média e variância, além da análise dos
resultados encontrados dentro da amostra. Já a seção V, fará uma breve revisão
acerca de tipos e regras de alocação de ativos, medidas de performance e custos de
transação inerentes ao modelo. Dando seqüência ao trabalho, a seção VI relatará as
previsões do modelo para fora da amostra. Além disso, como foco principal, tratará
de analisar a performance do modelo para diferentes regras de alocação e
comparar, a melhor delas, com um benchmarck proposto posteriormente. Já a seção
VII será utilizada para as conclusões finais deste trabalho e possíveis sugestões
futuras para a continuidade do mesmo.
17
II – Modelo multidimensional de fatores latentes com volatilidade estocástica
Como mencionado anteriormente, o intuito desta seção é fornecer a
especificação, descrição e a forma de estimação do modelo multidimensional de
fatores latentes com volatilidade estocástica, doravante denominado MMFLVE.
O primeiro ponto relevante a ser mencionado é o fato de se usar fatores
latentes – não observados – como variáveis explicativas para a média e variância
dos ativos. Tal fato se deve a finalidade de modelar os dois primeiros momentos de
forma dinâmica e parcimoniosa numa dimensão elevada dado a grande quantidade
de ativos analisados, além da necessidade de se capturar de forma acurada, flexível
e de fácil operacionalização algumas regularidades empíricas comuns nos vários
ativos estudados. Além disso, deseja-se evitar um modelo superparametrizado e
possíveis erros de especificação decorrentes da dimensão do problema empírico
que este trabalho busca resolver para o mercado acionário brasileiro.
O modelo multivariado de volatilidade estocástica descrito por Chib, Nardari e
Shephard (2002) é uma extensão criteriosa do modelo clássico de fatores com o
intuito de incorporar uma matriz de variância-covariância que varie no tempo. Dessa
forma, assim como em Han (2006) e baseando-se no trabalho supracitado, os
fatores possuirão dinâmica, com a finalidade de incorporar que tanto o retorno
esperado como as covariâncias variem no tempo. Ou seja, com tal especificação
proposta será possível construir portifólios com rebalanceamentos dinâmicos de
forma eficiente, apesar de se trabalhar com uma grande gama de ativos.
II.1 – Especificação do MMFLVE
Seja o vetor de p retornos observados num instante de tempo
t qualquer, e
),...,,(
21 ptttt
rrrr =
,...,,(
21 ttt
fff )
kt
f
=
sendo o vetor que corresponde aos k fatores
latentes utilizados. Assim como no modelo clássico de fatores, os retornos serão
determinados pelos fatores latentes e por p choques idiossincráticos. Sendo assim,
como já mencionado anteriormente, será suposto que tanto os fatores latentes
quanto os choques terão a sua volatilidade mudando no tempo, sendo que a
estrutura para os fatores será um modelo AR(1) para cada um dos fatores obtidos.
Dessa forma, chega-se a seguinte especificação básica para os retornos e fatores:
18
tttt
tttt
SAfcf
VBfr
ζ
ε
2
1
1
2
1
++=
+=
(1)
Em que:
),0(~
pt
IN
e ),0(~
kt
IN
ζ
(2)
Sendo que B é uma matriz triangular inferior p x k de coeficientes e A é uma
matriz k x k. Para que seja possível identificar os fatores (latentes), tanto B = { } e
A = { } devem obedecer algum tipo de restrição. Para esse caso em particular,
como em Han (2006), = 1 e = 0, para todo j > i, = 0 para todo
ij
b
ij
a
ii
b
ij
b
ij
a
j
i . Além
disso, será assumido que
ii
a (-1,1) com o intuito de garantir que o processo
autoregressivo dos fatores seja estacionário – característica esta desejável.
Ou seja, com as restrições de identificação acima
8
, devemos nos ater ainda
às matrizes de e . Para simplificar, a hipótese é de que tais matrizes de
variância condicional, que variam no tempo, sejam diagonais. Matematicamente
temos:
t
S
t
V
),,...,()(
1
pt
t
h
h
ttt
eediaghVV ==
p x p (3)
),,...,()(
1 ktptp
hh
ttt
eediaghSS
++
==
k x k (4)
Sendo que os termos que corresponde ao log das variâncias condicionais
são não observados e, como em Han (2006), seguirão, por hipótese, o seguinte
processo auto-regressivo com três coeficientes -
,
jt
h
j
μ
j
φ
e
j
σ
- como segue abaixo:
jtjjjtjjjt
hh
ησμφμ
+=
)(
1
, onde (5) )1,0(~
...
N
dii
jt
η
8
Para uma maior discussão a respeito de condições de identificação para este tipo de problema,
consultar Geweke e Zhou (1996).
19
Sendo assim, por construção, os choques são independentes dado o log da
variância condicional { }. Já a correlação entre os retornos, dado { }, são
determinadas pela matriz de cargas e pelos fatores. Ou seja, se os fatores latentes
fossem considerados variáveis de estado, teríamos que as covariâncias entre os
retornos dos ativos estudados seriam determinadas pela contribuição das variáveis
de estados, e não pelos choques idiossincráticos, como usualmente
jt
h
jt
h
9
.
Vale ressaltar que a especificação proposta acima, como já citado, se
assemelha com a do trabalho de Aguilar e West (2000). Sendo assim, como já
mencionado acima, no modelo aqui desenvolvido, os fatores seguirão um AR(1)
como forma de evitar a super-parametrização. Além disso, os fatores foram
extraídos dos retornos dos ativos usando o método de componentes principais que
corresponde a uma técnica estatística e, na maioria dos casos, sem intuição
econômica para diminuir a dimensionalidade dos dados analisado, mantendo a
maior explicação possível da variabilidade original através de uma combinação
linear das variáveis – para maiores detalhes, consultar Jolliffe (2002).
Para esse trabalho, assim como em Han (2006), serão usados 3
componentes estáticos que explicaram, aproximadamente, 96% da variabilidade da
série de retornos do Brasil. Entretanto, para a previsão da média, a mesma é
recuperada através da matriz de cargas e a partir da suposição que cada
componente seja dinâmico e siga um modelo auto-regressivo de primeira ordem e
tenha volatilidade estocástica como mostrado na equação (1).
II.2 – Métodos de estimação do MMFLVE
Como já explicado na motivação desse trabalho, a idéia para se fazer
alocação de ativos para um grande número de ações seria a de utilizar um modelo
parcimonioso, como é o caso do MMFLVE, além de um método de estimação
eficiente e operacionalizável do ponto de vista computacional.
A maior dificuldade com os modelo da classe de volatilidade estocástica é que
não se pode obter explicitamente expressões para as funções de verossimilhança,
9
Para uma melhor discussão acerca deste tema, bem como a utilização deste tipo de modelo
juntamente com restrições provenientes do APT, consultar Nardari e Scruggs (2005).
20
como no caso de outros modelos de volatilidade condicional, tais como os da família
XARCH. Entretanto, existe uma série de métodos de estimação para contornar esse
problema, dentre os quais: o método generalizado de momentos (GMM), o método
das cadeias de Markov de Monte Carlo (MCMC) e o método de quase máxima
verossimilhança (QMV).
A primeira possibilidade e tentativa de estimar esse modelo foi através de
métodos bayesianos como sugerido em Chib, Nardari e Shephard (2001), baseado
em MCMC (Markov Chain Monte Carlo) como forma de acomodar os fatores e sua
respectiva dinâmica
10
, além de ser uma forma de estimação exata.
De forma resumida, o uso do método MCMC bayesiano é eficaz por alguns
motivos: fornece densidades “a posteriori” exatas em amostras finitas para os
parâmetros do modelo e para as funções dos respectivos parâmetros; ao passo que
métodos clássicos para se testar a precificação de ativos, como o GMM e o
procedimento de Fama-MacBeth se apóiam na teoria assintótica para fazer
inferências. Além disso, avanços nessa área fazem com que a estimação de
modelos de grande dimensão com volatilidade estocástica seja possível
11
.
No mais, outra vantagem nítida da estimação via Markov Chain Monte Carlo
para o problema aqui proposto, é que este método estima tanto os choques dos
fatores latentes, como a matriz de cargas dos fatores, prêmio de risco, volatilidade
estocástica e os demais parâmetros desejados em um só estágio; fazendo com que
o problema de erro nas variáveis que existem em procedimentos de dois estágios
seja minimizado
12
.
Entretanto, tal método não foi usado devido à dificuldade de implementação
operacional no software E-views, necessidade da identificação e restrição nas
condições de momento e escolha das prioris. Além disso, a eficiência de tal método
de estimação está intimamente ligada a escolha das condições de momento.
Sendo assim, partiu-se para o uso do método de quasi-verossimilhança como
forma alternativa de resolver o problema de estimação do MMFLVE, assim como em
Ruiz (1994). Em tal artigo, a autora analisa as propriedades assintóticas e em
10
Método muito próximo foi utilizado por Chib e Greenberg (1996) para estudar problemas de
alocação de ativos.
11
Exemplos são Jacquier, Polson e Rossi (1994), além de Kim, Shephard e Chib (1998).
12
Como referência para este tipo de técnica, temos Geweke e Zhou (1996) que foram os percussores
deste método bayesiano de MCMC para estimar um modelo linear de fatores latentes.
21
amostras finitas da estimação via método de quasi-verossimilhança baseado no filtro
de Kalman. Os principais resultados obtidos e que justificam o uso de tal técnica
nesse trabalho são: tal estimador é mais eficiente – menor erro quadrático médio - e
de maior trato operacional do que técnicas baseadas no método dos momentos;
além de poder ser utilizado em modelos estendido de volatilidade estocástica que
abrangem distribuições com caudas mais pesadas que uma normal.
Vale ressaltar que tal procedimento foi feito em dois passos, já que se
fossemos estimar conjuntamente tanto a média como a variância dos ativos, seria
um modelo não linear em espaço de estado e o uso do filtro de Kalman não seria
possível.
Sendo assim os próximos parágrafos serão destinadas há uma breve
descrição de tal método escolhido.
A abordagem de quase máxima verossimilhança, doravante denominada
QMV, foi proposta por Nelson (1988) e Harvey (1992) com base no filtro de Kalman
e modelos de espaço de estado.
Tal método é aplicado a para se obter o erro de previsão um passo a
frente e sua respectiva variância. Com estes dois valores obtidos, constrói-se então
uma função de quasi-verossimilhança. Entretanto, devido a não ser
gaussiano, o filtro de Kalman aplicado a tal processo resultará num estimador linear
de menor erro quadrático de e das futuras observações, sendo preferível aos
demais métodos por não depender das condições de momentos – vide seção 4 e 5
do trabalho de Ruiz (1994) que trata de uma comparação empírica entre QML e
GMM em dados de alta freqüência da taxa de cambio yen/dólar.
)ln(
2
t
y
t
h
)ln(
2
t
y
Seja o retorno continuamente composto de um ativo entre o instante t e t-1.
Segundo Harvey, Ruiz e Shephard (1994), uma forma discreta e simples do modelo
de volatilidade estocástica é:
t
r
ttt
r
εσ
= , onde
)1,0(~ Niid
t
ε
, sendo
tttt
hh
ηφγσ
++==
1
2
ln ),0(~
2
nt
Niid
ση
(6)
0][
=
tt
E
η
22
Definindo
2
ln
tt
ry =
e notando que
27.1][ln
2
=
t
E
ε
e
2/)var(ln
22
πε
=
t
, uma
representação em espaço de estado atravé
tem a segu
, onde
s de componentes não observados para
t
y inte forma:
ttt
hy
ζ
++= 27.1 )2/,0(~
2
πζ
Niid
t
, sendo
ttt
hh
ηφγ
++=
1
),0(~
2
nt
Niid
ση
(7)
0][
=
tt
E
η
ζ
Logo, se
t
ζ
for iid e Gausiano, então os parâmetros )',,(
2
φσγϕ
nt
= do modelo
SV podem ser eficientemente estimados pela maximização da decomposição do
erro de previsão do log da função de verossimilhança construída a partir das
ro de previsã
recursões do filtro de Kalman, assim como em Harvey(1989).
Vale ressaltar que se
2
ln
tt
εζ
= não tiver distribuição normal, o filtro de
Kalman fornecerá, apenas, o estimador linear de menor erro quadrático médio para
a variável de estado e as futuras observações. Além disso, Harvey, Ruiz e Shephard
(1994) demonstram que apesar de não ser possível estimar de forma exata o log da
verossimilhança baseada na decomposição do er o do filtro de Kalman,
estimações consistentes e não viesadas de
)',,(
nt
=
podem ser obtidas
tratando
t
como
2
φσγϕ
ζ
)2/,0(
2
π
~ Niid
t
e maximizando a função de quase log da
ζ
guintes matrizes da
presentação em espaço de estado do modelo SV proposto:
(8)
verossimilhança construída a partir da decomposição do erro de previsão.
Sendo assim, para este caso obtemos as se
re
,
27.1
=
γ
δ
,
1
=Θ
φ
=Ω
0
2
n
σ
2/
0
2
π
23
onde
δ
corresponde ao vetor de intercepto da equação de estado e de sinal,
a matriz de carga da representação em espaço de estado das equações e
Θ
Ω
a
matriz de variância-covariância dos choques idiossincráticos que é diagonal.
Como assumido e explicado anteriormente, temos que
1<
φ
, e o valor inicial
para a matriz será: Σ
=Σ
)1/(
)1/(
22
φγ
φσ
n
(9)
III – Descrição e análise dos dados utilizados
Como já mencionado anteriormente, os dados utilizados para a estimação,
previsão e avaliação de tal modelo proposto será proveniente do mercado acionário
brasileiro (BOVESPA).
Para que a proposta de trabalho acima possa ser feita para o mercado
acionário brasileiro, houve a necessidade de se escolher quais ativos e que tipos de
série seriam tratadas no decorrer do estudo. Sendo assim, esta seção tem como
intuito fazer a introdução para a parte empírica na qual este trabalho se ancora.
Os preços utilizados neste trabalho referem-se aos dados diários das ações
de maior peso na composição do índice BOVESPA, e inicialmente serão tratadas
como séries independentes.
Entretanto, para que tanto a estimação quanto a previsão dos modelos não
fossem comprometidas, necessitava-se de um grande período de dados observados
para os ativos, o que fez com que o número inicial de cinqüenta e seis fosse
reduzido para trinta e nove ativos, já que apenas tal montante dispunha de dados
listados na bolsa desde 2000.
Dessa forma, utilizou-se os dados diários para os ativos descritos e listados
no Anexo I desse trabalho de 02/01/2000 até o dia 23/06/2008, totalizando 2100
observações para cada um dos trinta e nove ativos.
Um ponto que deve ser ressaltado e explicado se refere a seleção apenas de
ações que pertencem ao Índice Bovespa e não, por exemplo, ao IBX. A justificativa
24
para a escolha é a necessidade de se rebalancear o portifólio periodicamente
(diariamente, semanalmente e mensalmente) de acordo com os pesos que fornecem
o maior retorno esperado para o período seguinte. Com efeito, é necessário que as
ações tenham alta liquidez e a diferença (spread) entre o bid e o ask não seja
demasiada, de modo que o problema de maximização não seja prejudicado devido a
falta de liquidez. Ou seja, dado tal medida o único tipo de custo que será
contemplado na escolha ótima do investidor é o custo de transação (emolumento
mais corretagem) que será abordado posteriormente neste trabalho.
Outro motivo para a escolha dos ativos é que tais ações totalizam 70,33% do
atual IBOVESPA e conseguem representar de forma acurada o comportamento ao
longo do tempo de tal índice de ações do Brasil e do mercado de renda variável
como um todo, para o qual este estudo de alocação se destina.
III.1 – Análise Descritiva
Esta seção tem o intuito de fazer uma simples e breve análise descritiva dos
dados utilizados para que os resultados obtidos neste trabalho sejam mais intuitivos.
Como já mencionado, a amostra utilizada neste trabalho se inicia em
03/01/2000 e vai até 23/06/2008, sendo que os ativos escolhidos pertencem a atual
composição do Índice Bovespa e deveriam seguir os critérios de existência e
liquidez descritos anteriormente.
Além disso, houve a necessidade de se ajustar as séries devido ao
pagamento de dividendos e/ou juros sobre capital próprio. No mais, por se tratar de
dados diários não houve a necessidade de se filtrar os mesmos, como no caso de
dados intradiários.
Por se tratar de um grande número de ativos analisados, a análise descritiva
individual de cada um deles tornaria esta seção extensa demais. Sendo assim,
optou-se por uma breve e conjunta análise das ações. Para este fim, montou-se uma
carteira teórica com os 39 ativos utilizados nesse estudo, a partir de seu respectivo
peso na atual composição do índice BOVESPA. A soma do peso dos mesmos no
índice corresponde a 70.33%, sendo que o restante – papéis excluídos da amostra -
foi distribuído proporcionalmente para cada um dos trinta e nove ativos existentes.
25
Ou seja, dessa forma montou-se um índice fictício para esta seção composto
pelos ativos selecionados para tal trabalho. Segue o gráfico temporal do valor teórico
de tal carteira:
Figura 1 – Gráfico temporal da carteira teórica
Como forma de simplificar e elucidar as características de tal série, abaixo
segue uma tabela conjunta das principais medidas estatísticas que serão analisadas
e discutidas nesta seção, além dos comentários e respectivo histograma:
26
Figura 2 – Histograma da distribuição dos retornos da carteira teórica
Tabela 1 – Estatísticas descritivas dos retornos da carteira teórica
CARTEIRA
Média
0.0091861
Mediana
0.0001207
Máximo
0.06761354
Mínimo
-0.07513256
Desvio padrão
0.016582562
Assimetria
1.332775
Excesso
Curtose
60.788
Jarque-Bera
347827.8
P-valor
0
Observações
2098
Como podem ser observadas na tabela e no histograma da carteira, suas
características possuem alguns dos fatos estilizados em séries financeiras que serão
comentados logo abaixo.
27
Quanto à mediana, ela é aproximadamente zero, ou seja, juntamente com
uma média positiva, fornece uma evidência referente à assimetria existente para
retornos positivos de todas as séries que foram utilizadas, dada a forte tendência de
alta dos preços neste referido período - vide gráfico. Esse fato é corroborado quando
olhamos para a medida de assimetria ou terceiro momento da distribuição que
assume um valor positivo, indicando que a série tem uma cauda mais comprida para
a direita – retornos positivos. Passando para o quarto momento da distribuição
analisada, pode-se notar a partir da curtose, um grande excesso em relação à
distribuição normal, fato este comum em retornos de séries financeiras e que foi
notado por Mandelbrot (1963).
Além disso, o intervalo de variação, dado pela diferença entre o máximo e o
mínimo da série, é bastante elevado e vai ao encontro de uma alta incidência de
observações em ambas as caudas da distribuição. Com isso, era esperado que os
retornos não fossem normais, fato este corroborado pelo teste Jarque Bera, que tem
a seguinte estatística de teste:
JB =
+
4
)3(
6
2
2
K
S
kT
(10)
Onde S corresponde a assimetria, K a curtose e T é o número de
observações. De uma forma simples, a estatística Jarque-Bera é baseada nas
diferenças entre os coeficientes de assimetria e curtose da distribuição observada da
série e da distribuição teórica normal e serve para testar a hipótese nula de que a
amostra foi extraída de uma distribuição normal. Logo, como já esperado, dadas as
considerações anteriores, a hipótese nula de normalidade dos retornos foi rejeitada
e pode ter algumas implicações que serão discutidas na última seção deste trabalho.
IV – Estimação do MMFLVE
Esta seção visa explicar o método utilizado para se fazer previsões a partir do
modelo dinâmico sugerido para os ativos estudados. Como já mencionado, utilizou-
28
se para o modelo inicial 1400 dias úteis (dois terços da amostra), ou seja, para as
previsões sobraram 700 dias úteis, o que equivale a 140 semanas ou 32 meses,
aproximadamente.
A idéia fundamental é que dada a dinâmica encontrada para os ativos, a
mesma seja mantida constante em todo o período através do método de
componentes principais, sendo que a mudança ocorrerá apenas com novas
observações que entram no modelo para se fazer a previsão um período à frente.
Ou seja, a amostra para cada período será crescente já que contemplará a inicial
acrescida das novas observações.
Vale ressaltar que o método de estimação será o mesmo do modelo inicial
explicado anteriormente, a saber: Máxima Verossimilhança; além de a previsão feita
ser de apenas um passo a frente para os três casos de rebalanceamento estudados
no artigo base: diário, mensal e semanal.
De forma intuitiva e simples, podemos justificar a acumulação das
observações para a previsão da seguinte forma: como a amostra utilizada não é
muito grande, faz sentido que novas observações mais recentes sejam incorporadas
as mais antigas sem que o tamanho da amostra aumente explosivamente para o
período estudado e que, conseqüentemente, se tenha mais informações relevantes
para a alocação.
Entretanto vale ressaltar que dado que se está usando o método de máxima
verossimilhança que envolve um procedimento numérico de otimização, a estimação
torna-se mais custosa computacionalmente mesmo sob uma especificação correta
do modelo, além da convergência ficar cada vez mais difícil na estimação dos
parâmetros e dos desvios dos mesmos através da inversão do Hessiano da função
em troca de uma maior eficiência dos estimadores.
Dessa forma, o programa que está no Apêndice I corresponde ao modelo
proposto e estimado conjuntamente para os 39 ativos brasileiros analisados neste
trabalho.
Vale ressaltar que o programa citado possui os comentários a respeito do
código a ser executado para cada uma das partes do programa, com o intuito de
deixá-los mais intuitivos para o leitor.
29
IV.1 – Ajuste do modelo
Para que este trabalho não se estenda demasiadamente, esta seção será
extremamente sucinta para que se possa focar na parte de alocação segundo a
previsão do modelo.
Estimado o modelo, os resultados de previsão obtidos foram condizentes com
o esperado. Para a previsão da média, a medida que o horizonte de previsão
crescia, tal valor convergia para a média não condicional que na grande maioria dos
ativos é algo muito próximo de zero. Peguemos o exemplo para Petrobrás PN, cujo
gráfico segue abaixo:
Figura 3 – Retornos previstos em várias periodicidades para PETR4
Para a variância, temos que a medida que o horizonte de previsão aumenta, a
volatilidade prevista, para o mesmo ativo, decai de forma exponencial como é de se
esperar num modelo de volatilidade estocástica. Segue o gráfico, em escala
ampliada, de tais séries previstas de volatilidade para a ação preferencial de
Petrobrás.
30
Figura 4 – Volatilidades previstas em várias periodicidades para PETR4
Dado os resultados satisfatórios obtidos pelo MMFLVE dentro da amostra
como resíduos não autocorrelacionados e normais, passemos agora para a parte
final e o foco desse trabalho: alocação de ativos a partir das previsões obtidas.
V - Alocação de ativos para o mercado brasileiro
Como já mencionado inúmeras vezes, a idéia inicial era usar o poder preditivo
do modelo MMFLVE para resolver um problema clássico de alocação de risco numa
carteira com vasta gama de ativos.
A idéia de se fazer tal alocação de uma forma cuidadosa é encontrar os pesos
dos ativos de forma a maximizar o retorno para um dado risco a ser incorrido em tal
carteira. Esta idéia surgiu inicialmente com Markowitz (1952) e será exposta de
forma intuitiva na próxima sub-seção.
V. I - Paradigma de Markowitz
31
Esta sub-seção destina-se a explicar de uma forma breve e resumida o
paradigma de Markowitz e sua importância para a continuação deste trabalho.
O grande desafio dos gestores de carteiras e fundos de investimento é
fornecer o melhor retorno para um dado risco com o qual o mesmo possui mandato.
É exatamente neste ponto que a idéia de fronteira eficiente de Markowitz (1952) se
torna relevante, pois o mesmo considera que apenas dois fatores devem ser levados
em conta na montagem de uma carteira, a saber: retorno esperado e risco da
mesma, calculado a partir de sua variância.
Nesta teoria Markowitz uniu, basicamente, os fundamentos da teoria da
utilidade moderna com ativos não perfeitamente correlacionados para construir a
curva da fronteira eficiente. No entanto, para que este trabalho não se estenda
demais, não se abordará os detalhes a respeito da fronteira eficiente e da
formulação de tal teoria.
De uma forma geral, temos as seguintes hipóteses para o modelo proposto:
1. os investidores preocupam-se apenas com o valor esperado e com a
variância (desvio padrão) da taxa de retorno dos ativos de seu portifólio
2. os investidores têm preferência por retorno maior e risco menor, ou seja,
()
0>
rdE
dU
e
0<
σ
d
dU
(11)
3. os investidores desejam ter carteiras eficientes: aquelas que dão máximo
retorno esperado, dado o risco – abordagem deste trabalho -; ou mínimo risco, dado
o retorno esperado;
4. os investidores estão de acordo quanto às distribuições de probabilidades
das taxas de retorno dos ativos, o que assegura a existência de um único conjunto
de carteiras eficientes na economia.
Logo, podemos escrever tal problema matematicamente da seguinte forma:
Max )()(
1
i
n
i
ip
RExRE
=
=
s.a.
∑∑
==
==
n
i
n
j
ijjip
xx
11
2
σσσ
32
=
=
n
i
i
x
1
1
(12)
,0
i
x para i = 1, 2, 3, 4 e 5.
Onde:
E : Retorno esperado da carteira;
σ
: Variância target da carteira;
i
x : Participação de cada ativo;
i
R : Retorno esperado de cada ativo
ij
σ
: Covariância entre o par de ativos se (i) diferente (j) e variância se (i) igual a (j);
Desta maneira, o risco de uma carteira dependerá basicamente da matriz de
variância e covariância de seus possíveis ativos, ou seja, a correlação entre os
mesmos deve ser contemplada em tal cálculo. Existem inúmeros trabalhos na
literatura que usam modelos para prever a matriz de variância e covariância, fixam
um determinado retorno esperado e depois otimizam o portifólio com base na teoria
moderna de carteiras de Markowitz
13
.
Entretanto, o foco deste trabalho, como já mencionado em sua introdução, é
modelar a média de retorno dos ativos, ou seja, o retorno esperado dos mesmos
para um período a frente através do modelo proposto. Com isto, para uma dada
variância, será possível obter a melhor alocação dentre os ativos que fornecerá o
maior retorno.
Além disto, a fronteira eficiente corresponde basicamente a idéia que os
investidores podem determinar todas as carteiras ótimas, no sentido risco e retorno,
e formar a fronteira eficiente da economia. Tal fronteira pode ser descrita como o
melhor conjunto possível de carteiras, isto é, todas as carteiras que têm o mínimo
nível de risco para dado nível de retorno. Sendo assim, os investidores se
concentrariam na seleção de uma melhor carteira na fronteira eficiente e ignorariam
as demais consideradas inferiores.
13
Ver Chan (1999).
33
Vale ressaltar que a parte racional da carteira eficiente tem sempre a forma da
figura abaixo:
Figura 5 – Parte racional da fronteira eficiente de Markowitz
O que corresponde a afirmar que existe uma relação positiva entre risco e
retorno de uma carteira, ou seja, para obter maior retorno, necessariamente, deve-
se correr um maior risco, ceteris paribus.
Apesar de ser todo o alicerce para a teoria moderna de carteiras, tal método
científico de alocação pode apresentar algumas falhas devido as suas premissas. O
ponto é que algumas das condições iniciais fornecidas devem ser factíveis e
verdadeiras como, por exemplo, ser possível alcançar um determinado nível de
retorno para certo risco.
Além do que, implicitamente, assume-se que os agentes possuem uma
função de utilidade quadrática ou que possa ser representada por uma aproximação
de Taylor e que os retornos sejam normais e independentes, onde se deve
preocupar apenas com os dois parâmetros da mesma, a saber: média e variância. O
primeiro ponto é que a função utilidade das pessoas nem sempre são quadráticas e,
muitas vezes, até desconhecidas. Outro ponto relevante é a respeito da hipótese da
distribuição dos retornos que nem sempre é normal, como pôde ser visto na análise
e histograma da seção referente à Análise Descritiva.
Por fim, quanto à independência temporal nos retornos, tal pressuposto é um
tanto quanto heróico para qualquer que seja(m) o(s) ativo(s) estudado(s). Dado que
os ativos estudados não possuem distribuição normal como foi mostrado na análise
34
descritiva desse trabalho, nada poderemos afirmar sobre sua estrutura de
dependência olhando apenas para a correlação serial presente nos mesmos.
Portanto, alguns dos pressupostos do paradigma de Markowitz não se
verificaram neste estudo, fazendo com que tais ressalvas devam ser levantadas
antes do uso de tal arcabouço.
Uma outra possibilidade para resolver este problema de alocação seria o uso
de medidas como CVaR (Conditional Value-at-Risk) ou o Expected Shortfall, no qual
a idéia é que as medidas de perda (loss function) para a carteira composta pelas
ações brasileiras sejam minimizadas, qualquer que seja a distribuição dos ativos
contemplados. Vale ressaltar que tal procedimento só é possível sob várias
replicações do processo que gera o preço e, conseqüentemente, o retorno dos
ativos.
Entretanto, como fora mencionado na introdução deste estudo, o escopo
deste se dará apenas nos métodos em tempo discreto devido a sua maior
simplicidade. Dessa forma, a próxima sub-seção explicará de forma resumida um
outro possível e simples método de alocação.
V. II - Alocação 1 / N
Esta parte do trabalho se apóia fortemente nas idéias e discussões contidas
em DeMiguel, Garlappi e Uppal (2009) a respeito da eficiência de regras dinâmicas
e/ou estáticas de alocação de ativos.
Em tal texto os autores avaliam quão eficientes são as modernas formas de
alocação de ativos com parâmetros variantes no tempo, métodos bayesianos e
estimação robusta em detrimento de uma simples regra de alocação.
Seja uma regra simples de alocação aquela que não requer estimação de
parâmetros e otimização da mesma. Tal regra proposta no trabalho dos autores
corresponde à diversificação máxima e constante que pode ocorrer em um portifólio
qualquer, ou seja, supondo que haja N ativos no mesmo, o peso do ativo i na
carteira será
N
w
i
1
=
. As duas possibilidades possíveis são: alocação constante ao
longo do tempo e independente de ganhos ou perdas acumulados com tal ativo ou
realocação em cada período fazendo com que o valor financeiro em cada um dos
ativos seja constante.
35
De um modo simples, a primeira estratégia faz com que haja um maior
montante em ativos vencedores no passado, fazendo com que a mesma possa ser
interpretada como uma estratégia de momentum; ao passo que a segunda pode ser
vista como o inverso da anteriormente explicada – contrarium strategy.
Em ambos os casos, os autores concluem que a estratégia está longe de ser
ineficiente em relação às regras dinâmicas, ou seja, mostra-se como sendo
estatisticamente tão boa quanto as mais sofisticadas de acordo com os critérios:
Erro Quadrático Médio (EQM) de previsão e Índice de Sharpe.
1. Erro Quadrático Médio de Previsão (EQM): esta medida visa avaliar o
ajuste do modelo fora da amostra, ou seja, os modelos serão julgados em
termos preditivos, nada influenciando o seu desempenho dentro da
amostra. Definemos o EQM da seguinte forma:
EQM =
=
++
n
t
tt
n
YoYf
1
2
11
)(
(13)
Onde n corresponde ao número de dados que foram previstos, é o
valor previsto pelo modelo para o instante t+1 e corresponde ao
valor realmente observado em t+1.
1+t
Yf
1+t
Yo
2. Índice de Sharpe (IS): Com a série de retornos obtida para o portifólio
montado, pode-se calcular o IS para o retorno acumulado de cada um
deles. O ponto é que tão importante quanto o poder preditivo de um
modelo de alocação de ativos é o retorno que o mesmo gerará ajustado
pelo risco. Com isto, para um dado indexador escolhido, dado que
estamos trabalhando com a mesma periodicidade e amostra dos dados,
podemos ver qual das duas estratégias irá gerar o maior Sharpe para o
gestor que supostamente a usasse. O ponto do uso do Sharpe é ter uma
mensuração da relação risco e retorno que cada um dos portifólios
proporcionaria no período estudado, onde:
36
IS =
(
)
σ
BenchRpE
(14)
Onde E representa o operador esperança. Rp é o retorno do portifólio, Bench
é o Benchmarck que a carteira busca superar e
σ
corresponde ao desvio padrão da
série de retornos, ou seja, medida de risco da carteira assim como no paradigma de
Markowitz.
A medida que será usada neste trabalho para ser comparada a Markowitz e
possíveis variações é a alocação constante ao longo do tempo e independente de
ganhos ou perdas acumulados com tal ativo no período analisado.
Dessa forma, a comparação entre este método simples de alocação e o
Markowitz dinâmico ancorado no MMFLVE nos responderá de forma clara e objetiva
se há ganhos líquidos reais em se considerar a previsão condicional para a variância
em modelos de alocação de risco, já que no caso mais simples este momento não é
considerado; ao passo que, no segundo, sua estimação se dá através do modelo de
volatilidade estocástica multivariada.
Quanto aos custos de transação, os mesmos serão considerados nos
retornos líquidos dos ativos que serão utilizados pelo investidor guiado pelo modelo
MMFLVE.
Os valores de emolumento e corretagem são os padrões utilizados na
Bovespa para pessoa física sem devolução alguma e que seguem resumidos na
tabela abaixo:
Tabela 2 – Custos reais de transação para o mercado acionário brasileiro
Tipo Custo
Emolumento 0,025%
Corretagem 0,050%
Total 0,075%
Por fim, vale ressaltar que não se deve entrar no mérito de qual montante
será investido por cada um dos investidores, já que o mesmo será padrão e igual
37
nos quatro casos analisados (realocações diárias, semanais e mensais, além da
estratégia buy and hold – 1/N).
Além disso, a restrição de pesos maiores ou iguais a zero para cada um dos
ativos serão usadas, devido a dificuldade de se quantificar os custos de uma posição
vendida já que se deve contemplar a exigência de margens na Bovespa bem como o
custo do aluguel de cada papel em determinado período – já que não existe uma
base de dados pública e confiável para esse tipo de informação.
Uma outra ressalva relevante se refere a montagem da matriz de variância-
covariância em cada instante de tempo a partir das previsões do modelo MMFLVE,
já que o mesmo prevê apenas a variância para cada instante de tempo dos trinta e
nove ativos – elementos da diagonal. Ou seja, faltava recuperar todas as
covariâncias dos ativos a partir do modelo proposto – segundo estágio. Para este
fim, num instante de tempo t qualquer utilizou-se a seguinte fórmula para
j
i :
t
j
i
t
t
ji
ji
t
^^
1,0
,
,
**
σσρ
=Σ (15)
Onde:
ji
t
,
Σ corresponde ao elemento da linha i coluna j no instante de tempo t da
matriz
Σ de variância-covariância dos ativos, sendo
j
i
.
i
t
^
σ
corresponde ao desvio padrão previsto para o ativo i no instante t pelo
MMFLVE, usando a informação disponível até t-1.
j
t
^
σ
corresponde ao desvio padrão previsto para o ativo j no instante t pelo
MMFLVE, usando a informação disponível até t-1.
1,0
,
t
ji
ρ
corresponde à correlação observada na amostra entre os ativos i e j do
início da mesma até o instante t-1, ou seja, usou-se uma janela móvel crescente
para o cálculo das correlações entre os inúmeros ativos. Feita as considerações
acima, a próxima seção explicará quais os métodos de alocação que serão
utilizados e os respectivos resultados de cada um.
38
VI – Tipos e resultados da alocação de ativos
Os métodos de alocação que serão usados nesse trabalho, sendo que alguns
foram retirados de DeMiguel, Garlappi e Uppal (2009), são:
I – Portifólio de Mínima Variância na Fronteira Eficiente de Markowitz:
corresponde a carteira de menor variância – parte eficiente da fronteira – cujos
pesos são obtidos a partir da otimização através dos resultados do MMFLVE.
II – Carro Bomba
14
– alocação de 100% de seu portifólio no ativo cujo retorno
previsto pelo modelo é o maior para o período.
III – Carro Bomba Ajustado Sharpe – alocação de 100% do portifólio no ativo
que possui a maior relação retorno sobre risco para tal período previsto a partir do
modelo proposto nesse trabalho.
IV – 1/N – Alocação constante e igual em cada um dos 39 ativos, como já
explicado anteriormente, Corresponde ao benchmarck a ser batido pelos modelos I,
II e III.
Vale ressaltar que para cada um dos casos explicados acima, serão avaliadas
as três periodicidades estudadas: mensal, semanal e diária. No mais, tais rotinas de
otimização e cálculo dos retornos acumulados foram feitas em ambiente Matlab 7.1
e estão disponíveis para consulta, mediante solicitação ao autor.
Abaixo segue o gráfico do retorno acumulado líquido (ou seja, livre de
corretagem e emolumentos) para cada um das estratégias e respectivas
periodicidades, onde o gráfico em destaque é aquele que obteve o maior índice de
Sharpe para cada tipo de alocação:
14
Nome para a alocação de autoria livre do próprio autor.
39
I – Portifólio de Mínima
Variância
Figura 6 – Retorno líquido acumulado da estratégia de mínima variância para diversas
periodicidades.
II – Carro Bomba
40
Figura 7 – Retorno líquido acumulado da estratégia “Carro Bomba” para diversas
periodicidades.
III – Carro Bomba Ajustado Sharpe
41
Figura 8 – Retorno líquido acumulado da estratégia “Carro Bomba Ajustado” para
diversas periodicidades.
IV – 1 / N
Figura 9
– Retorno líquido acumulado da estratégia 1 / N no período.
De acordo com os gráficos acima para os tipos I, II e III, algumas conclusões
podem ser obtidas: quanto maior o horizonte desejado de previsão, pior são os
42
resultados obtidos com alocação decorrente do modelo. Ou seja, para todas as
táticas de alocação, a periodicidade diária foi aquela que retornou o maior índice de
Sharpe no período.
Como esperado, é o modelo de mínima variância que apresenta a menor
volatilidade realizada do portifólio para qualquer periodicidade analisada ex-post.
Quanto aos modelos do tipo carro bomba, temos que o carro bomba ajustado
se mostrou superior ao carro bomba, principalmente na alocação diária que será a
utilizada nesse trabalho para a comparação com o benchmarck. Tal fato serve como
uma evidência de que a previsão da variância é relevante para um processo de
alocação com uma vasta gama de ativos.
Por fim, apenas como curiosidade, a mudança no resultado do modelo carro
bomba diário se deve exatamente ao período que o índice Bovespa inverteu sua
tendência de alta para baixa. Sendo assim, por esse modelo alocar apenas em um
ativo e não ter ganhos decorrentes da diversificação, tal fase de queda na bolsa fez
com que o mesmo não obtivesse um bom índice de Sharpe para o investidor em
todo o período.
Dessa forma, a alocação e previsão diária foi a escolhida para ser realizada e
comparada com a regra de 1/N. Logo, resta-nos escolher apenas qual o modelo
diário que será usado, sob a ótica do índice de Sharpe. Segue abaixo uma tabela
resumo para cada um dos modelos:
Tabela 3
– Tabela Resumo com índice de Sharpe para cada estratégia
 RetornoAcumulado Volatilidade Benchmarck* ÍndicedeSharpe
MinVar 58.27% 1.59% 35.93% 14.05031447
CarroBomba 19.72% 3.36% 35.93% 4.824404762
CarroBombaAjustado 80.24% 3.20% 35.93% 13.846875
* Foi usado o CDI, já que o mesmo corresponde ao benchmarck para toda a indústria de
fundos de investimentos.
Ou seja, a tática carro bomba teve índice Sharpe negativo já que a mesma
teve um retorno acumulado líquido menor que o CDI no período. Logo, a escolha
fica entre o portifólio de mínima variância e o carro bomba ajustado.
Nota-se, pela tabela acima, que ambas as táticas possuem um índice de
Sharpe muito próximo, sendo o de mínima variância superior, fazendo com que o
43
mesmo seja o modelo escolhido para ser comparado a regra de 1/N. Vale ressaltar
que o ideal seria a montagem de uma medida próxima a um intervalo de confiança
para a comparação precisa entre tais índices.
Segue abaixo um gráfico conjunto do retorno acumulado de ambas as
estratégias – a escolhida e seu respectivo benchmarck:
Figura 10 – Gráfico conjunto do retorno acumulado da estratégia escolhida versus seu
respectivo
benchmarck.
Tabela 4 – Tabela comparativa entre o portifólio de mínima variância diário contra seu
respectivo
benchmarck.
RetornoAcumulado Volatilidade Benchmarck ÍndicedeSharpe
1/N 63.30% 1.98% 35.93% 13.82323232
Min.Var.Diário 58.27% 1.59% 35.93% 14.05031447
Logo, em tal período o modelo de realocação diária obteve um índice de
Sharpe maior que a estratégia de 1/N, mostrando-se como superior mesmo líquido
dos altos custos inerentes as pessoas físicas na BOVESPA.
Além disso, outro ponto que corrobora a qualidade do modelo proposto nesse
trabalho é que mesmo o segundo melhor modelo - carro bomba ajustado diário –
possui um índice de Sharpe levemente maior do que a estratégia 1/N de
44
diversificação total. Ou seja, há evidências de que o modelo proposto nesse trabalho
possui um bom poder preditivo juntamente com a alocação via Markowitz.
Dessa forma, ratifica-se o bom poder preditivo do modelo que juntamente com
técnicas de simples de alocação conseguiu superar a estratégia proposta por
DeMiguel, Garlappi e Uppal (2009); mostrando que há ganhos reais ao investidor em
se prever e considerar a volatilidade no processo de alocação de risco em ativos de
renda variável.
Uma justificativa simples e plausível para os resultados obtidos se ancora no
tamanho do N, ou seja, no número de ativos disponíveis para serem escolhidos
pelos investidores. No trabalho de DeMiguel, Garlappi e Uppal (2009), os autores
utilizam o índice americano S&P500 que é composto de 500 ativos – usando
diferentes agrupamentos por valor, book to market, porém sempre com a mesma
gama de ativos -, ao passo que, neste trabalho, temos apenas 39 ativos. Isso pode
fazer com que a estratégia de diversificação total não seja tão eficiente quanto no
trabalho dos três autores.
Por fim, uma análise do ponto de vista prático é comparar o retorno líquido de
tal carteira de mínima variância sob realocação diária com o retorno líquido de custo
de oportunidade da carteira teórica desse trabalho, descrita na parte de análise
descritiva.
Para a estratégia de alocação, a mesma já está com retornos líquidos, pois
foram retirados os custos de transação como já explicado nesse trabalho, além de
desconsiderar o prêmio de liquidez. Quanto ao custo de oportunidade, ele inexiste,
já que tal estratégia não vira o dia posicionada; ou seja, sempre zera o portifólio no
fechamento do dia e o remonta, com base nas previsões do MMFLVE, na abertura
do dia seguinte. Quanto a estratégia de carregar a carteira teórica no período, temos
que o custo de oportunidade de tal operação é o custo do dinheiro no tempo. Em se
tratando de fundos de investimentos, tanto o benchmarck como o custo de
oportunidade se refere o CDI (Certificado de Depósito Interbancário). Dessa forma, o
retorno líquido de se carregar tal carteira, será o retorno acumulado da mesma
menos o CDI do período, desprezando os custos de corretagem para a montagem
inicial da carteira.
45
Segue uma tabela resumo da carteira teórica:
Tabela 5 – Tabela descritiva da carteira índice teórica no período.
RetornoAcumulado
Custo
Oportunidade Ret.Líquido Volatilidade
CarteiraÍndice 93.59% 35.93% 57.66% 1.79%
Já para a carteira montada a partir do MMFLVE:
Tabela 6 – Tabela descritiva da estratégia diária de mínima variância no período
Ret.Líquido Volatilidade
Min.Var.Diário 58.27% 1.59%
Portanto, a carteira de mínima variância com realocação diária domina a
alocação buy and hold da carteira teórica já que a mesma proporciona o mesmo
retorno com uma menor volatilidade. Logo, mesmo num período de alta do
IBOVESPA, o modelo conseguiu superar uma estratégia com um viés favorável no
período.
VII – Considerações finais e sugestões
Por meio desse trabalho foi possível estudar o uso de um recente modelo
multivariado, tanto para a média como para a variância, para dados diários do
mercado acionário brasileiro.
A primeira parte desse trabalho foi dedicada à introdução de modelos
univariados para a média, bem como para a variância dos ativos. Entretanto, por se
tratar de uma vasta gama e de haver ganhos em se estimar os dois primeiros
momentos da distribuição conjuntamente, era necessário o uso de um modelo
parcimonioso e de fácil trato computacional. Dessa forma, assim como em Han
(2006), optou-se pelo uso do modelo multidimensional de fatores latentes com
volatilidade estocástica.
46
Dessa forma, a seção II foi usada para a descrição completa e detalhada
deste modelo, bem como algumas restrições que foram impostas ao mesmo e seus
respectivos motivos, juntamente com a enumeração das vantagens de se usar tal
família em um contexto de alocação de ativos. Além disso, uma subseção foi
destinada a explicação das duas possíveis formas de estimação: métodos
bayesianos e verossimilhança, além do porquê do escolhido ter sido o segundo
método e sua representação em espaço de estado e a utilização do filtro de Kalman.
Dando prosseguimento ao conteúdo prático do trabalho, a análise descritiva
dos dados foi exposta na terceira seção desse estudo. Explicou-se o critério de
escolha das ações, bem como o período a analisado e a lógica para a montagem da
carteira teórica, além de algumas medidas descritivas que visaram tornar os
resultados obtidos com o modelo mais intuitivos.
A seção IV destinou-se a analisar de forma clara e objetiva os resultados
obtidos a partir de estimação do modelo, tanto para a média dos ativos como para a
variância dos mesmos. Vale ressaltar que os resultados obtidos foram de encontro
com a teoria.
Dado que o foco desse trabalho era fazer alocação de ativos para várias
periodicidades através do modelo proposto, a quinta seção abrangeu uma revisão
bibliográfica simples e focada na parte de alocação de ativos. A primeira subseção
foi destinada á explicação do paradigma de Markowitz, bem como seus
pressupostos e de que forma os mesmos eram ou não aplicáveis a este trabalho. A
segunda parte da seção resumiu o trabalho de DeMiguel, Garlappi e Uppal (2009)
acerca de regras dinâmicas de alocação e a simples 1 / N que foi usada,
posteriormente, nesse trabalho como um benchmarck, dados os resultados obtidos
pelos autores. No mais, o final da seção destinou-se ao cálculo e explicação de
como os custos de transação do mercado brasileiro seriam usados no cômputo do
retorno líquido das estratégias de alocação.
Para finalizar, a seção VI desse trabalho trouxe algumas regras de alocação
que foram utilizadas em DeMiguel, Garlappi e Uppal (2009), assim como novas. Os
resultados decorrentes do uso das previsões do modelo para as várias
periodicidades analisadas, bem como os retornos líquidos decorrentes de cada uma
47
das estratégias foram apresentados em gráficos para cada uma das estratégias.
Com isso, o critério utilizado para a análise da melhor regra de alocação foi o índice
de Sharpe e que levou a escolha da estratégia de rebalanceamento diário usando o
portifólio de mínima variância.
Sendo assim, com tal regra dinâmica escolhida, mostrou-se que a mesma era
superior a regra simples e estática do 1 / N de acordo com o critério de Sharpe,
demonstrando o bom poder preditivo do modelo e que há ganhos reais em se
considerar o prêmio de risco no processo de alocação de ativos. Além disso, o
retorno acumulado líquido de custos de transação de tal tática mostrou-se superior
ao retorno acumulado livre do custo de oportunidade de se carregar a carteira
teórica usada no período, mostrando que o modelo se saiu bem mesmo num
período de forte alta do índice BOVESPA.
Por fim, como possíveis sugestões para futuras pesquisas a partir desse
trabalho, temos: utilizar métodos bayesianos de estimação para ver se há algum
ganho decorrente da estimação exata; escolha de um número diferentes de fatores
e/ ou da ordem auto-regressiva dos mesmos; e, utilização de novas estratégias de
alocação dos ativos com base no modelo multidimensional de fatores latentes com
volatilidade estocástica.
48
Referências Bibliográficas
Aguilar, O. e M. West, 2000, “Bayesian Dynamic Factor Models e Portfolio
Allocation”, Journal of Business e Economic Statistics, 18(3), 338–357.
Alzghool, R. e Y-X. Lin., 2005, “Quasi-likelihood Approach for the Estimation of
State-Space Models”. Proceedings of the 2004 Workshop on Research Methods:
Statistics and Finance, pp. 95-106. Wollongong: University of Wollongong.
Ait-Sahalia, Y., e M. W. Brandt, 2001, “Variable Selection for Portfolio Choice”,
Journal of Finance, 56, 1297–1351.
Asai, M. e M. McAleer, 2005. "Asymmetric Multivariate Stochastic Volatility,
Econometrica, 25 (2-3), 453 – 473.
Barberis, N., 2000, “Investing for the Long Run when Returns are Predictable”,
Journal of Finance, 55, 225–264.
Bollerslev, T., R.F. Engle e D.B. Nelson (1994), “ARCH Models,” in R.F. Engle and
D.McFadden (eds.), Handbook of Econometrics, Volume IV, 2959-3038.
Amsterdam:North-Holland.
Chan, L. K. C., J. Karceski, e J. Lakonishok, 1999, “On Portfolio Optimization:
Forecasting Covariances and Choosing the Risk Model”, The Review of Financial
Studies, 12(5), 937–974.
Chen, G. M., Kwok, C.Y. e Rui, Oliver Meng, “An Investigation of the Day-of-the-
Week Regularity in China Stock Markets”. Journal of Multinational Financial
Management, 11, 139-163.
Chib, S., e E. Greenberg, 1996, “Markov Chain Monte Carlo Simulation Methods in
Econometrics”, Econometric Theory, 12, 409–431.
49
Chib, S., F. Nardari, e N. Shephard, 2005, “Analysis of High Dimensional Multivariate
Stochastic Volatility Models”, Journal of Econometrics, 134(2), 341 – 374.
Cremers, M., 2002, “Stock Return Predictability: a Bayesian Model Selection
Perspective”, The Review of Financial Studies, 15(4), 1223–1250.
De Miguel, V.; Garlappi, L. e Uppal, R., 2009, “Optimal versus Naive Diversification:
How Inefficient Is the 1 / N Portfolio Policy?”, The Review of Financial Studies,
22(5), 1915-1953.
Diebold, Francis X & Nerlove, Marc, 1989. "The Dynamics of Exchange Rate
Volatility: A Multivariate Latent Factor Arch Model," Journal of Applied
Econometrics, John Wiley & Sons, Ltd., vol. 4(1), pages 1-21, Jan.-Mar.
Engle, R. F., 1982, “Autoregressive Conditional Heteroskedasticity with Estimates of
the Variance of UK Inflation”, Econometrica, 50, 987–1008.
Fama, Eugene F. e French, Kenneth R., 1988. "Dividend yields and expected stock
returns", Journal of Financial Economics, Elsevier, vol. 22(1), 3-25.
Fleming, J., C. Jirby, e B. Ostdiek, 2003, “The Economic Value of Volatility Timing
Using “Realized” Volatility”, Journal of Financial Economics, 67(3), 329-351.
Forbes, K. J., e R. Rigobon, 2002, “No Contagion, Only Interdependence: Measuring
Stock Market Comovements”, Journal of Finance, 57(5), 2223–2261
Geweke, J., e G. Zhou, 1996, “Measuring the Pricing Error of the Arbitrage Pricing
Theory”, The Review of Financial Studies, 9(2), 557–587.
Giraitis, L, e Robinson, Peter M, 2001, “Whittle estimation of ARCH models.”
Econometric theory, 17(3), 608-632.
Gomes, F., 2002, “Exploiting Short-Run Predictability”, working paper, London
Business School.
50
Graham, J. R., e C. R. Harvey, 1996, “Market Timing Ability e Volatility Implied by
Investment Newsletters’ Asset Allocation Recommendations”, Journal of Financial
Economics, 42, 397–421.
Han, Y., 2004, “Can An Investor Profit from Return Predictability in Real Time?”,
working paper, Tulane University.
Han, Y., 2006, “Asset Allocation with a High Dimensional Latent Factor Stochastic
Volatility Model”, The Review of Financial Studies, 19(1), 237 – 271.
Handa, P. e A. Tiwari, 2004, “Does Stock Return Predictability Imply Improved Asset
Allocation e Performance?”, working paper, University of Iowa.
Harvey. A.C.. 1989. Forecasting, structural models and the Kalman filter,
Cambridge University Press, Cambridge.
Harvey. A.C., E. Ruiz, and N.G. Shephard, 1992, “Multivariate stochastic variance
model”. Financial Markets Group discussion paper, London School of Economics.
London.
Jacquier, E., Nicholas G. Polson and Peter E. Rossi, 1994, "Bayesian Analysis of
Stochastic Volatility Models." Journal of Business and Economic Statistics, 12(4),
pp. 371-89.
Jolliffe, I.T., 2002, Principal Component Analysis. Springer Verlag – New York Inc.
Kim, S., N. Shephard, e S. Chib, 1998, “Stochastic Volatility: Optimal Likelihood
Inference e Comparison with ARCH Models”, Review of Economic Studies, 65,
361–393.
Markowitz, H., 1952, “Portfolio Selection”, Journal of Finance, v. 7, 77-91.
51
Metin-Özcan,K. and H. Berument and B. Neyapti “Dynamics of Inflation and Inflation
Inertia in Turkey”, Journal of Economic Cooperation, vol.25, no:3, 63-86, 2004
Nardari, F. e Scruggs, J., 2005,Bayesian Analysis of Linear Factor Models with
Latent Factors, Multivariate Stochastic Volatility, e APT Pricing Restrictions”, EFA
Annual conference Review, 665.
Nelson, D.B., 1988, “The time series behavior of stock market volatility and returns”,
Unpublished Ph.D.dissertation, Massachusetts Institute of Technology,
Cambridge, MA.
Nelson, Daniel B., 1991, “Conditional Heteroskedasticity in Asset Returns: A New
Approach”, Econometrica, Vol. 59,347-370.
Pearan, M. H. e Timmermann, A., 1995, “Predictability of Stock Returns: Robustness
e Economic Significance”, Journal of Finance, 50(4), 1201–1228.
Pojarliev, M. e W. Polasek, 2000, “Portfolio Construction Using Multivariate Time
Series Forecasts”, working paper, Institute of Statistics and Econometrics,
University of Basel.
Ruiz , E., 1994, “Quasi-maximum likelihood estimation of stochastic volatility models”,
Journal of Econometrics, 63 (4), 289-306.
Stavarek, Daniel, 2007. "Comparative analysis of the exchange market pressure in
Central European countries with the Eurozone membership perspective," MPRA
Paper - 3906, University Library of Munich, Germany.
Tamayo, A., 2002, “Stock Return Predictability, Conditional Asset Pricing Models e
Portfolio Selection”, working paper, London Business School.
Yu, J. e Meyer, R., 2006, “Multivariate Stochastic Volatility Models: Bayesian
Estimation e model comparison”, Econometric Reviews, 25(2-3), 361-384.
52
Apêndices
53
Apêndice I – Programa comentado em Eviews 5 para o modelo conjunto proposto
‘carrego os dados no diretório
open c:\tese\data3
'determino previamente o número de ativos
!ns=39
'crio série de retornos de cada um dos ativos
for !j=1 to !ns
if !j<=9 then
series ret0{!j}=d(log(series0{!j}))
endif
if !j>9 then
series ret{!j}=d(log(series{!j}))
endif
next
%retgroup=" "
for !j=1 to !ns
if !j<=9 then
%retgroup=%retgroup+" ret0"+@str({!j})
endif
if !j>9 then
%retgroup=%retgroup+" ret"+@str({!j})
endif
next
'-------------------------PCA---------------------------
'crio os elementos
series fprevdayl
series fprevdays
series fprevdayc
series fprevseml
series fprevsems
series fprevsemc
series fprevmonl
series fprevmons
series fprevmonc
matrix (2199,!ns) mprevlevel
matrix (2199,!ns) mprevslope
matrix (2199,!ns) mprevcurvature
matrix (2199,!ns) mprevday
matrix (2199,!ns) mprevsem
matrix (2199,!ns) mprevmon
matrix (3,3) fmprevday=0
matrix (3,3) fmprevsem=0
matrix (3,3) fmprevmon=0
'inicio o rolling sample
for !di=1 to 699
54
smpl 2 1400+!di
group yields {%retgroup}
sym (!ns,!ns) covariancia
covariancia=@cov(yields)
vector autovalores = @eigenvalues(covariancia)
matrix autovetores = @eigenvectors(covariancia)
matrix (!ns,!ns) autovetoresord
' salvo dinamicamente os loadings
for !i=1 to !ns
for !j=1 to !ns
autovetoresord(!i,!j)=autovetores(!i,!ns+1-!j)
next
next
stom(yields, yd)
matrix (1400+!di-1,1) uns
uns=1
matrix (1400+!di-1,!ns) PC
matrix (1,!ns) medias
for !j=1 to !ns
medias(1,!j)=@mean(@columnextract(yd,!j))
next
PC=(yd-uns*medias)*autovetoresord
matrix mlevel = @columnextract(PC,1)
matrix mslope = @columnextract(PC,2)
matrix mcurve = @columnextract(PC,3)
'arrumo e salvo os loadings
matrix (!ns,1) llevel=(@columnextract(autovetoresord,1))
matrix (!ns,1) lslope=@columnextract(autovetoresord,2)
matrix (!ns,1) lcurvature=-@columnextract(autovetoresord,3)
matrix (!ns,3) loadings
for !i=1 to !ns
loadings(!i,1)=llevel(!i,1)
loadings(!i,2)=lslope(!i,1)
loadings(!i,3)=lcurvature(!i,1)
next
'-------------------------------- Modelo SV --------------------------------------
'cria a série do log dos retornos ao quadrado ajustados pela media
mtos(mlevel,mlevel1)
series slevel=mlevel1(1)
series slevellq =log(slevel^2)
'fixo a variancia da equaçao como o log da distribuição quidrado
55
!pi = @acos(-1)
scalar s2 = 0.5*!pi*!pi
'crio o objeto de espaço de estado no eviews para a estimacao por quasi-máxima verossimilhanca
sspace volatilidadeestocastical
volatilidadeestocastical.append @signal slevellq= -1.27 + ht + [var=s2]
volatilidadeestocastical.append @state ht = c(1) + c(2)*ht(-1) + [var=exp(c(3))]
'valores iniciais para os parâmetros
c(1) = 0.01
c(2) = 0.85
c(3) = 0.1
'estimo por usando maxima verossimilhança
volatilidadeestocastical.ml
volatilidadeestocastical.makestate(t=pred) vehfl
volatilidadeestocastical.makestate(t=predse) vehfl_se
volatilidadeestocastical.makestate(t=filt) vehtl
volatilidadeestocastical.makestate(t=filtse) vehtl_se
volatilidadeestocastical.makestate(t=smooth) vehsl
volatilidadeestocastical.makestate(t=smoothse) vehsl_se
series volatilidadesvl=@sqrt(exp(vehfl))
mtos(mslope,mslope1)
'para o slope
series sslope=mslope1(1)
series lslopelq =log( sslope^2)
'fixo a variancia da equaçao como o log da distribuição quidrado
!pi = @acos(-1)
scalar s2 = 0.5*!pi*!pi
'crio o objeto de espaço de estado no eviews para a estimacao por quasi-máxima verossimilhanca
sspace volatilidadeestocasticas
volatilidadeestocasticas.append @signal lslopelq= -1.27 + ht + [var=s2]
volatilidadeestocasticas.append @state ht = c(1) + c(2)*ht(-1) + [var=exp(c(3))]
'valores iniciais para os parâmetros
c(1) = 0.01
c(2) = 0.85
c(3) = 0.1
'estimo usando maxima verossimilhança
volatilidadeestocasticas.ml
volatilidadeestocasticas.makestate(t=pred) vehfs
volatilidadeestocasticas.makestate(t=predse) vehfs_se
volatilidadeestocasticas.makestate(t=filt) vehts
volatilidadeestocasticas.makestate(t=filtse) vehts_se
volatilidadeestocasticas.makestate(t=smooth) vehss
volatilidadeestocasticas.makestate(t=smoothse) vehss_se
series volatilidadesvs=@sqrt(exp(vehfs))
56
mtos(mcurve,mcurve1)
series scurve=mcurve1(1)
series lcurvelq =log( scurve^2)
'fixo a variancia da equaçao como o log da distribuição quidrado
!pi = @acos(-1)
scalar s2 = 0.5*!pi*!pi
'crio o objeto de espaço de estado no eviews para a estimacao por quasi-máxima verossimilhanca
sspace volatilidadeestocasticac
volatilidadeestocasticac.append @signal lcurvelq= -1.27 + ht + [var=s2]
volatilidadeestocasticac.append @state ht = c(1) + c(2)*ht(-1) + [var=exp(c(3))]
'valores iniciais para os parâmetros
c(1) = 0.01
c(2) = 0.85
c(3) = 0.1
'estimo por usando maxima verossimilhança
volatilidadeestocasticac.ml
volatilidadeestocasticac.makestate(t=pred) vehfc
volatilidadeestocasticac.makestate(t=predse) vehfc_se
volatilidadeestocasticac.makestate(t=filt) vehtc
volatilidadeestocasticac.makestate(t=filtse) vehtc_se
volatilidadeestocasticac.makestate(t=smooth) vehsc
volatilidadeestocasticac.makestate(t=smoothse) vehsc_se
'------------------------------FORECAST---------------------------------
' Uso o terço final da amostra para previsão
smpl 1400+!di 1400+!di+22
volatilidadeestocastical.forecast(n=1) @state volleveldayf
volatilidadeestocastical.forecast(n=1) @state vollslopedayf
volatilidadeestocastical.forecast(n=1) @state vollcurvedayf
volatilidadeestocasticas.forecast(n=5) @state vollevelsemf
volatilidadeestocasticas.forecast(n=5) @state vollslopesemf
volatilidadeestocasticas.forecast(n=5) @state vollcurvesemf
volatilidadeestocasticac.forecast(n=22) @state vollevelmonthf
volatilidadeestocasticac.forecast(n=22) @state vollslopemonthf
volatilidadeestocasticac.forecast(n=22) @state vollcurvesmonthf
' Realocação diária
fprevdayl(1400+!di+1) =exp(volleveldayf(1400+!di+1))
fprevdays(1400+!di+1)=exp(vollslopedayf(1400+!di+1))
fprevdayc(1400+!di+1)=exp(vollcurvedayf(1400+!di+1))
' Realocação semanal
fprevseml(1400+!di+5) =exp(vollevelsemf(1400+!di+5) )
fprevsems(1400+!di+5) =exp(vollslopesemf(1400+!di+5) )
fprevsemc(1400+!di+5) =exp(vollcurvesemf(1400+!di+5) )
57
' Realocação mensal
fprevmonl(1400+!di+22) =exp(vollevelmonthf(1400+!di+22) )
fprevmons(1400+!di+22) =exp(vollslopemonthf(1400+!di+22) )
fprevmonc(1400+!di+22) =exp(vollcurvesmonthf(1400+!di+22) )
matrix (3,!ns) betas
for !j=1 to !ns
if !j<=9 then
equation eql{!j}.ls ret0{!j} slevel sslope scurve
betas(1,!j)=eql{!j}.@coef(1)
betas(2,!j)=eql{!j}.@coef(2)
betas(3,!j)=eql{!j}.@coef(3)
vector (3) betasj
betasj(1)=eql{!j}.@coef(1)
betasj(2)=eql{!j}.@coef(2)
betasj(3)=eql{!j}.@coef(3)
fmprevday(1,1)=fprevdayl(1400+!di+1)
fmprevday(2,2)=fprevdays(1400+!di+1)
fmprevday(3,3)=fprevdayc(1400+!di+1)
fmprevsem(1,1)=fprevseml(1400+!di+5)
fmprevsem(2,2)= fprevsems(1400+!di+5)
fmprevsem(3,3)=fprevsemc(1400+!di+5)
fmprevmon(1,1)=fprevmonl(1400+!di+22)
fmprevmon(2,2)=fprevmons(1400+!di+22)
fmprevmon(3,3)=fprevmonc(1400+!di+22)
matrix pvd=@transpose(betasj)*fmprevday*betasj
matrix pvs=@transpose(betasj)* fmprevsem*betasj
matrix pvm=@transpose(betasj)*fmprevmon*betasj
mprevday(1400+!di+1,!j)=@var(ret0{!j})+ pvd(1,1)
mprevsem(1400+!di+5,!j)=@var(ret0{!j})+pvs(1,1)
mprevmon(1400+!di+22,!j)=@var(ret0{!j})+pvm(1,1)
'Monto as previsões
mprevday(1400+!di+1,!j)= @abs(eql{!j}.@coef(1)*fprevdayl(1400+!di+1)+eql{!j}.@coef(2)*
fprevdays(1400+!di+1)+eql{!j}.@coef(3)* fprevdayc(1400+!di+1))
mprevsem(1400+!di+5,!j)= @abs(eql{!j}.@coef(1)*fprevseml(1400+!di+5)+eql{!j}.@coef(2)*
fprevsems(1400+!di+5)+eql{!j}.@coef(3)* fprevsemc(1400+!di+5))
mprevmon(1400+!di+5,!j)= @abs(eql{!j}.@coef(1)*fprevmonl(1400+!di+5)+eql{!j}.@coef(2)*
fprevmons(1400+!di+5)+eql{!j}.@coef(3)* fprevmonc(1400+!di+5))
endif
if !j>9 then
equation eql{!j}.ls ret{!j} slevel sslope scurve
betas(1,!j)=eql{!j}.@coef(1)
betas(2,!j)=eql{!j}.@coef(2)
betas(3,!j)=eql{!j}.@coef(3)
vector (3) betasj
betasj(1)=eql{!j}.@coef(1)
58
betasj(2)=eql{!j}.@coef(2)
betasj(3)=eql{!j}.@coef(3)
fmprevday(1,1)=fprevdayl(1400+!di+1)
fmprevday(2,2)=fprevdays(1400+!di+1)
fmprevday(3,3)=fprevdayc(1400+!di+1)
fmprevsem(1,1)=fprevseml(1400+!di+5)
fmprevsem(2,2)= fprevsems(1400+!di+5)
fmprevsem(3,3)=fprevsemc(1400+!di+5)
fmprevmon(1,1)=fprevmonl(1400+!di+22)
fmprevmon(2,2)=fprevmons(1400+!di+22)
fmprevmon(3,3)=fprevmonc(1400+!di+22)
matrix pvd=@transpose(betasj)*fmprevday*betasj
matrix pvs=@transpose(betasj)* fmprevsem*betasj
matrix pvm=@transpose(betasj)*fmprevmon*betasj
mprevday(1400+!di+1,!j)= @var(ret{!j})+pvd(1,1)
mprevsem(1400+!di+5,!j)=@var(ret{!j})+pvs(1,1)
mprevmon(1400+!di+22,!j)=@var(ret{!j})+pvm(1,1)
mprevday(1400+!di+1,!j)=@transpose(betasj)*fmprevday*betasj
mprevsem(1400+!di+5,!j)=@transpose(betasj)* fmprevsem*betasj
mprevmon(1400+!di+22,!j)=@transpose(betasj)*fmprevmon*betas
mprevday(1400+!di+1,!j)= @abs(eql{!j}.@coef(1)*fprevdayl(1400+!di+1)+eql{!j}.@coef(2)*
fprevdays(1400+!di+1)+eql{!j}.@coef(3)* fprevdayc(1400+!di+1))
mprevsem(1400+!di+5,!j)= @abs(eql{!j}.@coef(1)*fprevseml(1400+!di+5)+eql{!j}.@coef(2)*
fprevsems(1400+!di+5)+eql{!j}.@coef(3)* fprevsemc(1400+!di+5))
mprevmon(1400+!di+5,!j)= @abs(eql{!j}.@coef(1)*fprevmonl(1400+!di+22)+eql{!j}.@coef(2)*
fprevmons(1400+!di+22)+eql{!j}.@coef(3)* fprevmonc(1400+!di+22))
endif
next
next
mtos(mprevday,prediary)
59
Anexos
60
ANEXO I – Lista dos ativos analisados e utilizados no trabalho
ID Ativo Classe Código
1 Petrobrás PN PETR4
2 ValedoRioDoce PNA VALE5
3 Bradesco PN BBDC4
4 ValedoRioDoce ON VALE3
5 Usiminas PNA USIM5
6 BancoItaú PN ITAU4
7 Companhia SiderúrgicaNacional ON CSNA3
8 Gerdau PN GGBR4
9 Petrobrás ON PETR3
10 Unibanco Unit UBBR11
11 BancoItaúsa PN ITSA4
12 BancodoBrasil ON BBAS3
13 Cemig PN CMIG4
14 Telemar PN TNLP4
15 Ambev PN AMBV4
16 LojasAmericanas PN LAME4
17 Perdigão ON PRGA3
18 Sadia PN SDIA4
19 Eletrobrás ON ELET3
20 Aracruz PNB ARCZ6
21 TimParticipações PN TCSL4
22 GerdauMetalúrgica PN GOAU4
23 Vivo PN VIVO4
24 Braskem PNA BRKM5
25 Copel PN CPLE6
26 Embraer ON EMBR3
27 PãodeAçúcar PN PCAR4
28 BrastilTelecom PN BRTO4
29 VotorantimCeluloseePapel PN VCPA4
30 Telemar ON TNLP3
31 BrasilTelecomParticipações PN BRTP4
32 Sabesp ON SBSP3
33 KlabinPapel PN KLBN4
34 TransmissãoPaulista PN TRPL4
35 BrasilTelecomParticipações ON BRTP3
36 TimParticipações ON TCSL3
37 Telesp PN TLPP4
38 TelemarNorte PNA TMAR5
39 Celesc PN CLSC6
61
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo