Derivativos & Riscos

Mercado Futuro de Cupom Cambial (DDI e FRC) - Esse artigo tem por objetivo explorar o funcionamento do MERCADO FUTURO DE CUPOM CAMBIAL, o qual pertence ao complexo de… Continue reading →
Aplicação de ferramentas econométricas utilizando a linguagem R: Value-at-Risk (VaR), abordagem delta-Normal vs. abordagem GARCH - Introdução    O objetivo desse artigo é desenvolver uma linha de raciocínio da construção do processo de estimação de um… Continue reading →
ECONOMIA COMPORTAMENTAL E A SOBRE-REAÇÃO DOS MERCADOS -             Provavelmente já aconteceu de você estar sentado no sofá assistindo TV, após o almoço… Continue reading →
Análise de Risco de um Portfólio - Introdução Neste artigo será aplicado algumas técnicas de análise de risco em um portfólio de ações, com o intuito de… Continue reading →
WallStreetBets e a dinâmica do Short Squeeze - Ao final de janeiro de 2021, os noticiários e redes sociais passaram a ficar tomadas de comentários acerca do aumento… Continue reading →
Contratos futuros no agronegócio - O primeiro registro sobre derivativos de risco ocorreu cerca de 2500 anos atrás. O famoso filósofo Tales de Mileto usou… Continue reading →
Índice Beta Índice Beta - O que é o Índice Beta? Um dos indicadores mais utilizados e mais famosos para análise do risco de um… Continue reading →
Fluxo de Caixa em Risco - Na trajetória sobre quantificação de riscos analisa-se também ativos não financeiros, para isso aborda-se, neste artigo, o modelo denominado Cash-Flow-at-Risk… Continue reading →
Utilização do Modelo GARCH(1,1) na Previsão de Volatilidade - O objetivo deste artigo é trazer um entendimento sobre o que se trata o modelo GARCH e apresentar uma aplicação… Continue reading →
RAPMs – Markowitz, CAPM e indicadores de risco e retorno - RAPMs - Risk Adjusted Performance Measures - Parte 1   Diversos artigos do núcleo de Risco & Derivativos abordam a… Continue reading →
Stress Testing Financeiro - No controle de riscos, medidas estatísticas como o VAR e o beta nos ajudam a estabelecer as probabilidades do comportamento… Continue reading →
VaR Tools - Risco em Portfólio: Métodos Análiticos No artigo, Value At Risk, foi introduzido o conceito por trás dessa medida de risco… Continue reading →
Valor em Risco de Índices Setoriais na Bovespa - Neste artigo serão analisadas as séries de retornos de seis principais índices de ações de setores da Bovespa. Foram escolhidos… Continue reading →
Medidas de Risco com a Teoria do Valor Extremo - Teoria do valor extremo (EVT da sigla em inglês) é um ramo da estatística que lida diretamente com eventos raros,… Continue reading →
Risco de mercado, princípios de Basileia e a teoria do valor extremo - Neste artigo iniciaremos uma discussão sobre a utilização da teoria do valor extremo - EVT para o cálculo de risco… Continue reading →
Expected Shortfall - Expected Shortfall como substituto ao VaR No artigo anterior foi apresentada a medida de risco conhecida como Value-At-Risk (VaR), nele… Continue reading →
Valor em Risco - História do VaR O termo “Valor em Risco” derivado do inglês Value at Risk (VaR), foi introduzido no vocabulário financeiro… Continue reading →
Betting against beta - Betting agains beta (BAB), ou apostando contra o beta é uma conhecida estratégia de investimento que surgiu com o trabalho… Continue reading →
Estratégias Iniciais no Mercado de Opções - Se você anda pesquisando sobre o mercado financeiro ou possui particular interesse nesse campo, com certeza você já esbarrou na… Continue reading →
Precificação de opções via redes neurais - Em 1973, Fischer Black, Myron Scholes e Robert Merton publicaram uma maneira analítica para precificar opções, de modo que se… Continue reading →
Algo trading com Quantopian - Abriremos nossas discussões sobre algorithmic trading, ou algo trading para os iniciados, fazendo um review da plataforma mais popular atualmente,… Continue reading →
Superfície SVI - Superfície SVI, ou somente SSVI é uma generalização do modelo SVI de (Gatheral 2004) que busca solucionar o problema de… Continue reading →
Calibrando um SVI - Neste post iremos mostrar como fazer uma calibração de um smile SVI baseado nos trabalhos de (Gatheral 2004) e (De… Continue reading →
Métodos de calibração de superfícies de volatilidade - 2019/02/08 Métodos de calibração são as diferentes formas existentes entre “interpolação”, “suavização” e “parametrização” que podem ser utilizadas para fazer… Continue reading →
Superfícies de Volatilidade - 2019/02/01 Já mostramos em artigos anteriores, processos estocásticos em finanças, o modelo de Black&Scholes e, como na realidade dos mercados… Continue reading →
Smile de Volatilidade parte 2 - 2019/01/25 Daremos continuidade ao artigo anterior sobre o smile de volatilidade. Falaremos sobre a estrutura a termo da volatilidade implícita,… Continue reading →
Smile de Volatilidade - Smile de Volatilidade - Superfície de Volatilidade 2019/01/18 A volatilidade instantânea, \(\sigma\), do ativo subjacente é a única variável no… Continue reading →
O Modelo Black-Scholes-Merton - Clique no link abaixo para abrir o post. Modelo Black-Scholes-Merton Continue reading →
Simulação de Monte Carlo - Em artigo anterior, sobre processos estocásticos, fizemos uso de uma poderosa ferramenta computacional, frequentemente utilizada em finanças para fazer simulações.… Continue reading →
Processos Estocásticos para Finanças: uma introdução - Neste artigo abordaremos um assunto técnico, mas muito utilizado e de fundamental importância para a precificação de instrumentos derivativos. Será… Continue reading →
Introdução ao Mercado de Opções - Este artigo apresenta: Características do mercado de opções; Vocabulário técnico utilizado em contratos do tipo; Diferentes tipos de contratos de… Continue reading →
Conheça o modelo Fama French 3 Fatores - Apesar de o modelo de precificação de ativos CAPM de Sharpe-Lintner ser o mais conhecido no mundo das finanças e… Continue reading →
Mercado Futuro de Cupom Cambial (DDI e FRC)

Mercado Futuro de Cupom Cambial (DDI e FRC)

Mercado Futuro de Cupom Cambial (DDI e FRC)

Esse artigo tem por objetivo explorar o funcionamento do mercado futuro de cupom cambial, o qual pertence ao complexo de derivativos de juros e se mostra extremamente importante para montagem de hedges por parte de empresas que têm de lidar com a variação cambial em suas operações, bem como para investidores institucionais, como fundos de investimento, bancos, family offices, seguradoras e fundos de pensão, os quais buscam gerar retornos ao operar os instrumentos desse mercado.

 

O QUE É O CUPOM CAMBIAL?

O cupom cambial é a denominação dada à taxa de juros calculada pelo diferencial entre a taxa de juros interna e a variação cambial, ambos referentes a um mesmo período. Portanto, trata-se de uma taxa de juro em dólar. Em outras palavras, o cupom cambial representa a remuneração de um título expresso ou indexado em dólares no mercado financeiro nacional. De uma maneira mais simplificada, é o rendimento em dólares para estrangeiros que assumem o risco de investir no Brasil.

 

Vamos a um exemplo simples para um melhor entendimento:

Exemplificação Cupom Cambial


Assim sendo, fica claro que a rentabilidade dos recursos estrangeiros investidos no mercado nacional, quando da repatriação destes, pode divergir do retorno obtido na moeda local a depender da variação cambial do período. E esse verdadeiro rendimento dos recursos estrangeiros é representado pelo cupom cambial, o qual é calculado da seguinte maneira:

Equação Cupom Cambial

Sendo:

iaa = taxa de juros do investimento em moeda local expressa em percentual ao ano

du = período em dias úteis

ΔCambial = US$final/US$inicial 

dc = período em dias corridos (variável necessária já que o cupom cambial é uma taxa de juros expressa em percentual ao ano e base 360 dias corridos)

Observe que a taxa do cupom é diretamente proporcional à taxa de juros interna, enquanto que a variação cambial atua de forma inversamente proporcional. Ou seja, aumentos na taxa de juros interna a qual o capital está exposto e uma valorização do real frente ao dólar no período resultam num maior cupom cambial.

Para o exemplo anterior, o cálculo do cupom cambial se daria da seguinte forma: 

Exemplo Cálculo Cupom Cambial

CUPOM CAMBIAL ENTRE HOJE E UMA DATA FUTURA

A partir das cotações dos contratos futuros de DI de 1 dia (código de negociação DI1) e de taxa de câmbio de Reais/Dólar dos Estados Unidos (código de negociação DOL), é possível obter a expectativa do mercado para o cupom cambial para diversos períodos futuros – diferentemente do que foi feito no exemplo anterior, no qual calculou-se o cupom cambial para um evento passado. 

 

Para tanto, calcula-se o diferencial entre:

·   a taxa de juros negociada pelo mercado para um determinado vértice da ETTJ (Estrutura a Termo da Taxa de Juros) através dos contratos futuros de DI

·    e a variação cambial implícita no contrato futuro de dólar para o mesmo período em questão, ou seja, a quociente entre o Dólar Futuro e o Dólar Spot (também chamado de dólar “à vista” ou “pronto”).

Observe:
CUPOM CAMBIAL ENTRE HOJE E UMA DATA FUTURA

Sendo:

iaa = taxa de juros negociada no DI1 do vértice equivalente ao período em questão, em percentual ao ano

du = período em dias úteis entre o dia da negociação, inclusive, e o último dia de negociação dos contratos futuros (ou seja, o último dia útil do mês anterior ao mês de vencimento), inclusive 

dc = período em dias corridos entre o dia da negociação, inclusive, e o último dia de negociação dos contratos futuros (ou seja, o último dia útil do mês anterior ao mês de vencimento), inclusive

US$ Fut = cotação do câmbio negociada no contrato futuro de dólar para o período em questão

US$ Spot =  taxa de câmbio do dia da negociação no mercado spot

PU do DI1 = preço unitário do contrato futuro de DI para o período em questão no dia da negociação (isso porque o valor final de liquidação do contrato (valor de face) do DI1 é de R$100.000,00 e, assim, seu PU (preço do contrato em uma determinada data) é obtido a partir do desconto do valor de face pela taxa negociada. Desse modo, ao dividir o valor de face pelo preço unitário do contrato no dia da negociação, encontra-se o mesmo resultado de (1 + iaa)du/252 ).


CONTRATO FUTURO DE CUPOM CAMBIAL (DDI)

Com isso em mente, podemos tratar do contrato futuro de cupom cambial (código de negociação DDI) propriamente dito.

 

Sua negociação teve início em 1998 na BM&F, quando veio substituir o uso combinado, pelos agentes do mercado, dos contratos futuros de dólar e de DI de 1 dia. Os principais agentes que negociam esse contrato são investidores institucionais, instituições financeiras e investidores estrangeiros.

 

Esse derivativo financeiro tem como objeto de negociação a taxa de juro obtida a partir do cálculo do diferencial entre:

·   a expectativa de acumulação da taxa DI no período compreendido entre a data de operação, inclusive, e a data de vencimento do contrato futuro, exclusive (encontrada, como abordado anteriormente, por meio da taxa negociada no contrato futuro de DI de vencimento equivalente)

·   e a expectativa de variação da taxa de câmbio (considerando a PTAX de venda como base) observada entre o dia útil anterior à data da operação, inclusive, e a data de vencimento do contrato, exclusive

 

Como pode ser notado, o cálculo do cupom cambial utilizado como objeto de negociação no DDI diverge – de modo sutil – daquele abordado anteriormente, uma vez que ele não toma como base o Dólar Spot para determinar da expectativa do mercado em relação a variação cambial para o período, mas, sim, a taxa PTAX (índice de taxa de câmbio calculado e divulgado diariamente pelo Bacen) do dia anterior, mais especificamente, a de venda.

 

Esse padrão foi adotado pelo fato de ser mais conveniente e menos complicado negociar uma taxa de juros em dólar (cupom cambial) com base numa taxa de câmbio que já está dada (PTAXD-1) em detrimento de uma que está constantemente sofrendo variações no momento da negociação (Dólar Spot). 

 

Desse modo, existe uma clara defasagem ocasionada pela variação da taxa de câmbio entre o dia anterior e o dia da negociação do contrato e, por causa disso, convencionou-se no mercado financeiro brasileiro que, quando calculado pela PTAXD-1, denomina-se o cupom cambial como “cupom cambial sujo”. De forma oposta, chama-se de “cupom cambial limpo” aquele que é calculado com base no dólar à vista e, dessa maneira, não é contaminado pela volatilidade diária da taxa de câmbio, isto é, sem o efeito da defasagem de um dia presente no cupom sujo.

 

Ainda em relação a sua operacionalização, os contratos futuros de cupom cambial são negociados em taxa de juro, referente à cotação do cupom cambial para determinado período no momento da operação, a qual é expressa em percentual ao ano, linear, base 360 dias corridos, com até três casas decimais. Já o registro da operação é feito pelo seu Preço Unitário (PU), sendo este expresso com duas casas decimais. Em outras palavras, todas as operações de compra e venda de DDI são contratadas em taxa, mas são transformadas automaticamente em posições, em PU, de natureza contrária ao que foi transacionado durante o pregão, situação essa que será melhor abordada alguns parágrafos à frente, não se preocupe!

 

É importante entender, também, que, no vencimento do contratos futuros de cupom cambial, assim como ocorre com os contratos futuros de DI – como já abordado, de modo breve, no presente artigo –, seu PU vale, por regra, 100.000 pontos, ou seja, o valor final de liquidação do contrato (Valor de Face) é igual a cem mil pontos.

 

Contudo, diferentemente do que acontece com o DI1, cujos pontos valem, cada um, R$1,00 (resultando num valor de face de R$100.000,00), nos futuros de cupom cambial cada ponto do contrato é igual a US$0,50 e, assim, o PU no vencimento equivale a US$50.000,00. 

Assim sendo, tão logo a montagem de posição em DDI é realizada, gera-se um PU da operação, o qual é, então, calculado ao trazer os 100.000 pontos do valor de face do contrato a valor presente utilizando como taxa de desconto a taxa do cupom ao ano negociada (i), conforme a seguinte fórmula:

Cálculo da PU do contrato DDI

Sendo:

n = o número de dias corridos desde a data da negociação, inclusive, até o vencimento do contrato, exclusive

Fica claro, dessa maneira, a relação inversamente proporcional que é mantida entre a taxa do cupom cambial e o preço unitário do contrato futuro de cupom cambial e, portanto:

·        compra de taxa gera uma posição vendida em PU

·        a venda de taxa gera uma posição comprada em PU


A razão dessa característica é facilmente compreendida quando a relação inversa das duas variáveis (taxa e PU) é atentamente analisada. Vamos lá:

·    Caso se deseje, independentemente do motivo, ganhar com a alta da taxa de cupom cambial, compra-se taxa, ou seja, compra-se DDI. Contudo, como essa compra de taxa é registrada em PU, e essa variável é inversamente proporcional a i, gera-se uma posição vendida em PU, porque, desse modo, uma variação positiva na taxa (cenário considerado na montagem dessa posição hipotética) gerará uma diminuição no preço unitário do contrato, e uma posição vendida em PU condiz com essa realidade.

·     De maneira oposta, caso se deseje ganhar com uma queda na taxa de cupom cambial, entra-se short em taxa, ou seja, monta-se uma posição vendida em taxa e, para tanto, vende-se DDI. Porém, como essa venda de taxa é registrada em PU, e essa variável é inversamente proporcional a i, gera-se uma posição long em PU, porque, desse modo, uma variação negativa na taxa (cenário considerado na montagem dessa posição hipotética) gerará uma valorização no preço unitário do contrato, e uma posição comprada em PU se beneficia desse acontecimento.


Depois das compras e vendas de DDI terem sido transformadas em posições shortlong em PU, respectivamente, no final de cada pregão essas posições serão ajustadas com base no preço de ajuste do dia, determinado segundo regras estabelecidas pela B3, com movimentação financeira no dia da sessão de negociação subsequente. Esses ajustes diários são realizados automaticamente pelo sistema da B3, uma vez que ela se responsabiliza pela intermediação entre compradores e vendedores dos derivativos pertencentes ao mercado futuro, ou seja, a B3 atua como contraparte central e, portanto, age como uma proteção frente ao risco da contraparte não arcar com suas responsabilidades e obrigações (counterparty risk).

 

O valor do ajuste diário calculado pela B3:

·  se positivo, será creditado ao comprador da posição em PU (vendedor original em taxa) e debitado ao vendedor da posição em PU (comprador original em taxa), ou seja, o agente comprado em PU (vendido em DDI) recebe o valor financeiro equivalente ao ajuste do agente vendido em PU (comprado em DDI);

·   se negativo, o fluxo contrário acontecerá, ou seja, será debitado ao comprador da posição em PU o montante equivalente ao valor do ajuste diário e, então, creditado ao agente short em PU.


FRA DE CUPOM CAMBIAL (FRC)

Como já explorado, o DDI tem como objeto de negociação o cupom cambial dito “sujo”, pois utiliza em seus cálculos a taxa PTAXD-1 e, portanto, possui uma grande desvantagem em seu uso ao se mostrar exposto à variação cambial ocorrida entre o dia anterior e o data da negociação do contrato propriamente dita.

 

Assim sendo, em janeiro de 2001, a BM&F lançou uma modalidade operacional no mercado futuro de cupom cambial com o propósito de permitir e facilitar a realização de FRA (Forward Rate Agreement) de cupom cambial, cujo código de negociação é FRC, pelos agentes do mercado interessados.

 

FRA de cupom cambial (ou FRC) é uma operação sintética que utiliza dois contratos de DDI de vencimentos diferentes, e naturezas opostas, para retirar a variação cambial do dia anterior, e, desse modo, tal operação limpa o cupom sujo presente no DDI. A taxa resultante é uma taxa forward, livre da exposição à volatilidade diária da taxa de câmbio presente em um contrato de cupom cambial individual.

 

Esse contrato, além de possibilitar a negociação do diferencial de duas taxas futuras de cupom cambial e, portanto, gerar uma cupom cambial limpo, ou seja, mostrar-se como uma alternativa à defasagem da variação cambial de um dia existente no DDI, também se apresenta como um instrumento de muito mais liquidez no mercado quando comparado ao DDI, sendo, assim, bem mais presente no dia a dia dos bancos, gestoras, family offices etc.

 

Para efeito de negociação, as operações de FRC são realizadas como se fosse um novo contrato, ou seja, têm código de negociação próprio e se sujeita a todas as regras de pregão existentes para os demais contratos futuros. A diferença é a de que, em vez de gerar posições em um novo tipo de contrato, as operações de FRC são automaticamente transformadas pelo sistema da B3 em duas outras operações de DDI: 

·   a primeira, uma posição em DDI de mesma natureza e com vencimento idêntico ao negociado no FRC (ponta longa)

·     e a segunda, uma posição em DDI de natureza inversa, para o primeiro vencimento de DDI existente (ponta curta)

A partir do penúltimo dia de negociação do primeiro vencimento de DDI, a segunda operação (ponta curta) será gerada no segundo vencimento de DDI, mantendo-se esse vencimento até o penúltimo dia de negociação desse novo contrato, quando o processo se repetirá. Ou seja, a Bolsa se encarrega de fazer essa rolagem da ponta curta automaticamente para o comprador/vendedor de FRC.

 

Em outras palavras, por meio desta operação, as partes assumem uma posição no vencimento do FRA (que corresponde a uma posição longa em DDI, com vencimento em t2) e, automaticamente, a Bolsa abre uma posição inversa no primeiro vencimento em aberto de DDI (com liquidação em t1). 

O exemplo abaixo representa de modo ilustrativo uma situação hipotética em que se buscou montar uma posição comprada em FRC para t2

Sendo assim, a operação de compra desse contrato foi realizada normalmente pelo agente de mercado, porém essa posição foi automaticamente convertida em uma posição long em DDI para vencimento em t2 (equivalente a ponta longa da operação) e uma posição short em DDI para o vencimento de data mais próxima ao momento da operação, nesse caso, t1 (equivalente a ponta curta da operação). 


As partes, portanto, negociam uma taxa de juro anual linear, base 360, para um período futuro entre t1 e t2, ou seja, entre o dia da liquidação do DDI da ponta curta e o dia de liquidação do DDI de vencimento mais distante.


CONCLUSÃO

O mercado futuro de cupom cambial possui uma importância ímpar para o mercado financeiro brasileiro e os agentes que atuam nele. Esse artigo buscou, portanto, traçar uma linha de raciocínio de fácil entendimento para abordar e esclarecer, de modo introdutório, seus principais conceitos e os instrumentos financeiros que o compõe, bem como os detalhes acerca do funcionamento e da operacionalização destes derivativos.

Gostaria, por fim, de deixar registrado um agradecimento especial a Marilia Fontes, sócia-fundadora e analista de Renda Fixa na Nord Research, a qual se mostrou muito gentil e solícita em nossa breve conversa sobre o tema deste artigo, bem como sobre o material que foi produzido. A Marilia iniciou sua carreira na Mauá Capital sendo responsável pelas Mesas de Renda Fixa e de Câmbio e, assim, operou por muito tempo cupom cambial. Portanto, agradeço imensamente o feedback que me foi dado! 

REFERÊNCIAS

MUNHOZ, Ygor. Os determinantes macroeconômicos da estrutura a termo das taxas de juros em dólar no brasil. Fundação Getúlio Vargas, São Paulo, 2015. Disponível em: <https://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/13994/Os%20determinantes%20macroecon%C3%B4micos%20da%20estrutura%20a%20termo%20das%20taxas%20de%20juros….pdf>. Acesso em: 20 de novembro de 2021.

 

BM&F. Mercado Futuro De Cupom Cambial. São Paulo, 2007. Disponível em: <https://silo.tips/download/instituto-educacional-bmf-mercado-futuro-de-cupom-cambial>. Acesso em: 20 de novembro de 2021.

 

FONTES, Marilia. O que é Cupom Cambial?. Youtube, Nord Research, 2020. Disponível em: <https://www.youtube.com/watch?v=WJY-mWRerQQ>. Acesso em: 20 de novembro de 2021.

 

GODOY, Carlos. Mercados e Instrumentos Financeiros II: Futuros de Câmbio – Cupom Cambial DDI. Universidade São Paulo, São Paulo. Disponível em: <https://edisci0plinas.usp.br/mod/resource/view.php?id=1210938>. Acesso em: 20 de novembro de 2021.

 

WANDERLEY, Peter. Estrutura a termo da taxa de juros e cupom cambial: decomposição em fatores principais. Pontifícia Universidade Católica do Rio de Janeiro, Rio de Janeiro, 2018. Disponível em: <http://www.econ.puc-rio.br/uploads/adm/trabalhos/files/Peter_Kurthy_Wanderley_Mono_18_2.pdf>. Acesso em: 20 de novembro de 2021.

 

VIOLA, A. P., GUTIERREZ, M. S., LION, O. B., BARBEDO, C. H. Impacto dos swaps cambiais na curva de cupom cambial: uma análise segundo a regressão de componentes principais, 2009. Brazilian Business Review, Vol. 10. n. 1 (2013), 81-105. Disponível em: <https://www.bcb.gov.br/pec/wps/port/wps198.pdf>. Acesso em: 20 de novembro de 2021.

 

BM&F. Outras Operações Estruturadas: Operação de Forward Rate Agreement (FRA) de Cupom Cambial. Disponível em: <http://www.bmf.com.br/bmfbovespa/pages/boletim1/bd_manual/outras-Operacoes-estruturadas.asp>. Acesso em: 20 de novembro de 2021.

 

B3. Contrato Futuro de Taxa Média de Depósitos Interfinanceiros de Um Dia – DI1. Disponível em: <https://www.b3.com.br/pt_br/produtos-e-servicos/negociacao/juros/futuro-de-taxa-media-de-depositos-interfinanceiros-de-um-dia.htm>. Acesso em: 20 de novembro de 2021.

 

B3. Contrato Futuro de Taxa de Câmbio de Reais por Dólar Comercial – DOL. Disponível em: <https://www.b3.com.br/pt_br/produtos-e-servicos/negociacao/moedas/futuro-de-taxa-de-cambio-de-reais-por-dolar-comercial.htm>. Acesso em: 20 de novembro de 2021.

 

B3. Contrato Futuro de Cupom Cambial de Depósitos Interfinanceiros de Um Dia – DDI. Disponível em: <https://www.b3.com.br/pt_br/produtos-e-servicos/negociacao/juros/futuro-de-cupom-cambial-de-depositos-interfinanceiros-de-um-dia.htm>. Acesso em: 20 de novembro de 2021.

 

B3. Operações Estruturadas de Forward Rate Agreement de Cupom Cambial – FRC. Disponível em: <https://www.b3.com.br/pt_br/produtos-e-servicos/negociacao/juros/operacoes-estruturadas-de-forward-rate-agreement-de-cupom-cambial.htm>. Acesso em: 20 de novembro de 2021.

Posted by Gabriel Uzêda de Freitas in Derivativos & Riscos, 0 comments
Aplicação de ferramentas econométricas utilizando a linguagem R: Value-at-Risk (VaR), abordagem delta-Normal vs. abordagem GARCH

Aplicação de ferramentas econométricas utilizando a linguagem R: Value-at-Risk (VaR), abordagem delta-Normal vs. abordagem GARCH

Introdução

   O objetivo desse artigo é desenvolver uma linha de raciocínio da construção do processo de estimação de um Value-at-Risk a partir de uma volatilidade que varia com o tempo, por meio de uma modelagem ARMA-GARCH e comparar com resultados obtidos em um Value-at-Risk constante no tempo, utilizando dados do Mercado Financeiro Brasileiro, com foco na linguagem de programação R.

Estacionariedade

   Primeiramente, devemos entender o conceito de estacionariedade, um dos pontos mais importantes ao estimar e fazer inferências em séries temporais. Para fins econométricos, trabalharemos com a estacionariedade fraca, onde temos que um processo estocástico (aleatório) será fracamente estacionário (ou estacionário de segunda ordem), caso sua (1) média e sua (2) variância forem constantes ao longo do tempo. Além disso, precisamos que a (3) covariância não dependa do tempo, mas sim apenas da ordem s de defasagem (distância temporal entre as observações). Sendo assim, precisamos satisfazer:

   Mas por que é tão importante uma série temporal ser estacionária? Pois, caso tivermos uma série temporal não estacionária (média ou variância que variam com o tempo, ou ambas), não poderemos generalizar seu comportamento para outros períodos, somente para o período em consideração. Dessa maneira, caso nossa série for não estacionária, incorreremos no fenômeno de regressão espúria (sem sentido) e com isso não teremos valor prático.

Base de dados, linguagem R e bibliotecas

   Utilizando-se da linguagem de programação R, com o propósito de efetuar o processo de modelagem, foi escolhida uma amostra de 01/01/2011 até 01/01/2021 da série diária de fechamento ajustada da pontuação do Ibovespa, obtida através do Yahoo Finance.

#carregando as bibliotecas necessárias
library(quantmod) library(ggplot2) library(scales) library(forecast) library(moments) library(rugarch) library(urca)
#inputs iniciais
ticker <- "^BVSP" from <- "2011-01-01" to <- "2021-01-01" #puxando os dados do Yahoo Finance price <- na.omit(Ad(getSymbols(ticker, from = from, to = to, auto.assign = F))) #calculando a diferenciação dos log-retornos log_ret <- na.omit(diff(log(price))) names(log_ret) <- "ibov"

Testes informais de estacionariedade

   Como ponto de partida, recorremos para um teste informal, onde simplesmente analisamos o gráfico da nossa série temporal, nos dando assim uma pista acerca da sua provável natureza.

#plot da pontuação do Ibovespa
g1 <- ggplot() + geom_line(aes(y = price, x = index(price)), color = "darkblue", size = 0.5) + scale_x_date(date_labels = "%Y", date_breaks = "1 year") + scale_y_continuous(labels = number_format(big.mark = ".")) + labs(title = "Série diária do Ibovespa", x = "Data", y = "Pontos", caption = "Fonte: Yahoo Finance.", color = "") + theme_light()

Gráfico 1

   Observando o gráfico da pontuação diária do Ibovespa ao longo de dez anos, apesar de não podermos afirmar de antemão com exata certeza se a série é estacionária ou não, ela apresenta algumas características, como subidas e descidas bruscas, aparentando possuir uma tendência linear positiva e com isso evidenciando possível não-estacionariedade. Podemos também constatar a quebra de estrutura causada pela pandemia do Covid-19 a partir de março de 2020, porém essa análise em si foge do escopo desse artigo.

   Consideraremos a hipótese de que os preços do mercado de ações seguem um passeio aleatório com tendência, em que cada termo Yt depende do termo anterior Yt-1 somado de um termo de erro, além de um coeficiente que escala a variável temporal t (tendência).

   Dessa maneira, partiremos nossa análise mais detalhada a partir da diferenciação dos log-retornos dos preços (pontuação) de fechamento P no dia t em relação ao dia anterior t-1:

   Tendo a série de retorno como:

   A transformação logarítma suaviza (lineariza) a série, enquanto a diferenciação ajudará a estabilizar a variância da série temporal. Para termos uma melhor visualização, criamos um gráfico dos dados dos log-retornos dos preços de fechamento ajustados do Ibovespa em que faremos nossos testes e teremos posteriores diagnósticos.

#plot da diferenciação dos log-retornos
g2 <- ggplot() + geom_line(aes(y = log_ret, x = index(log_ret)), color = "darkblue", size = 0.5) + scale_x_date(date_labels = "%Y", date_breaks = "1 year") + scale_y_continuous(labels = number_format(big.mark = ".")) + labs(title = "Série diária do Ibovespa", x = "Data", y = "Log-retornos (%)", caption = "Fonte: Yahoo Finance. Elaboração do Autor.") + theme_light()

Gráfico 2

  A análise do gráfico com a transformação da primeira diferença dos log-retornos nos permite observar um valor esperado estável em torno de zero, informando-nos de que a série evolui ao redor da média ao longo do período de dez anos em questão, além dos dados aparentarem apresentar uma menor variabilidade (em relação à série somente da pontuação). Antes de iniciar os testes formais de estacionariedade, precisamos elucidar alguns conceitos importantes.

Função de Autocorrelação (FAC), Função de Autocorrelação Parcial (FACP) e Correlograma

   Podemos definir a correlação serial (autocorrelação) como a forma em que uma variável Y qualquer se relaciona com seu passado, isto é, até que ponto o passado dessa variável afeta ela no presente. Denotando Yt como a variável no tempo t, então temos que seu coeficiente de autocorrelação ρs na defasagem será igual a:

   Onde o termo de erro 𝜇𝑡 é do tipo ruído branco (média zero, variância constante e i.i.d.) e −1 ≤ 𝜌 ≤ 1. O gráfico em que relaciona o 𝜌𝑠 com a defasagem 𝑠 é chamado de Correlograma.

   Já o conceito de autocorrelação parcial é análogo ao conceito dos coeficientes em regressão múltipla, onde o coeficiente de autocorrelação parcial 𝜌𝑠𝑠 mede a correlação entre as observações que estão separadas por 𝑠 períodos, controlando as correlações nas defasagens intermediárias (menores que 𝑠), removendo seus efeitos.

Teste de Raíz Unitária (Dickey-Fuller)

   Consideremos o processo estocástico sem constante e sem tendência denotado como 𝑌𝑡 = 𝜌𝑌𝑡−1 + 𝜇𝑡, subtraindo Yt−1 de ambos os lados, temos Δ𝑌𝑡 = (𝜌 − 1)𝑌𝑡−1 + 𝜇𝑡 → Δ𝑌𝑡 = 𝛿𝑌𝑡−1 + 𝜇𝑡, em que 𝛿 = (𝜌 − 1) e Δ = operador da diferença. Nesse caso, testaremos as seguintes hipóteses:

Processos Autorregressivos – AR(p)

   É uma extensão do modelo de passeio aleatório, podendo ser incluídos termos mais distantes no passado. Nesse caso, o modelo depende linearmente de termos passados, com coeficientes para cada termo – podemos dizer que é um modelo de regressão em que os termos anteriores são os próprios preditores. Em um modelo autorregressivo de ordem p, teremos:

Onde 𝜇𝑡 é ruído branco.

   Esse modelo nos informa que o valor estimado de Yt (expressos em torno de seus valores médios) dependerá de seus valores em períodos anteriores (com proporção 𝛼𝑝) adicionados de um termo aleatório.

Processos de Médias Móveis – MA(q)

   É uma combinação linear de termos passados de ruído branco. Matematicamente, em um modelo de médias móveis de ordem q, teremos:

Onde 𝜇𝑡 é ruído branco.

   O processo de média móvel estará sempre associado aos erros do modelo. Além disso, os pesos poderão ser diferentes conforme a importância das observações passadas.

Processos Autorregressivos de Médias Móveis – ARMA(p, q)

   É a combinação dos dois modelos, em que haverá termos autorregressivos p e termos de média móvel q. Em um processo autorregressivo de médias móveis de ordem (p, q), teremos:

   Já se tivermos que diferenciar a série em d vezes para torná-la estacionária, teremos uma série integrada de ordem 𝑑 → 𝐼(𝑑), e então, teremos um processo autoregressivo integrado de médias móveis – ARIMA(p, d, q).

Critério de Informação de Akaike (AIC)

   Quando usamos um modelo estatístico para representar o processo que gerou nossos dados, perdemos observações (informações). É aí que o AIC entra ao estimar a quantidade relativa de informação perdida dado certo modelo, logo quanto menos informação um modelo perde, maior é a qualidade desse modelo. Em outras palavras, ele compara diversos modelos, e nos informa aquele que possui melhor qualidade (menor AIC) em relação aos outros. Por definição, temos que o 𝐴𝐼𝐶 = 2𝑘 − 𝑙𝑛(𝐿*), em que:

𝑘 → número de parâmetros estimados

𝐿* → valor máximo da função de máxima verossimilhança

   Um destaque importante é de que o AIC procura o melhor trade-off entre a qualidade de ajuste (avaliado pela verossimilhança) e penalizando modelos em que mais parâmetros são utilizados.

A metodologia Box-Jenkins

   O objetivo do método elaborado pelos estatísticos George Box e Gwilym Jenkins é de aplicar modelos ARMA ou ARIMA para encontrar o modelo que melhor se ajuste aos dados passados em séries temporais. Precisamos que as observações sejam estacionárias, para que possamos interpretar e efetuar inferências, a partir de uma base válida. O método consiste em três principais etapas, sendo elas: (1) identificação do modelo, (2) estimação dos parâmetros do modelo escolhido, e (3) verificação do diagnóstico.

   (1) Identificação do modelo: as principais ferramentas que utilizaremos serão a Função de Autocorrelação (FAC) para estipular a ordem máxima q possível de processos de média móvel, a Função de Autocorrelação Parcial (FACP) para estipular a ordem máxima p possível de processos autorregressivos e seus respectivos Correlogramas resultantes (representações das FAC e FACP contra a extensão da defasagem).

   Primeiramente faremos o Teste de Raíz Unitária de Dickey-Fuller sobre nossa série dos log-retornos, para testarmos nossas hipóteses e assegurar que estamos trabalhando com uma série estacionária.

#teste de Dickey-Fuller para os log-retornos
ur.df(log_ret, type = "none", lags = 0) #ou utilizar o summary ##The value of the test statistic is: -54.4401

   Considerando que como resultado temos o valor da estatística teste igual a −54, 4401 e para um nível de significância de 𝛼 = 5, 00%, temos −1, 95 como nosso valor crítico, podemos dizer que rejeitamos a hipótese nula de não estacionariedade, uma vez que o valor calculado é menor do que o valor crítico.

   Agora que testamos e sabemos que estamos lidando com uma série estacionária, partimos para a visualização do Correlograma da Função de Autocorrelação (FAC), para estipularmos a ordem máxima q possível de processos de média móvel.

#plot da Função de Autocorrelação (FAC)
g3 <- ggAcf(x = log_ret, lag.max = 10) + labs(title = "Autocorrelograma dos log-retornos do Ibovespa", subtitle = "Intervalo de confiança de 95%", y = "Função de Autocorrelação (FAC)", x = "Defasagens") + theme_light()

Gráfico 3

   Podemos observar que possuímos aproximadamente até sete termos 𝜌𝑠 que ficam de fora do nosso intervalo de confiança de 95% (linha tracejada em azul) e por isso testaremos modelos com termos até MA(7).

   Por outro lado, devemos visualizar também o Correlograma da Função de Autocorrelação Parcial (FACP), para determinarmos a ordem máxima p dos nossos termos autorregressivos.

#plot da Função de Autocorrelação Parcial (FACP)
g4 <- ggPacf(x = log_ret, lag.max = 10) + labs(title = "Autocorrelograma dos log-retornos do Ibovespa", subtitle = "Intervalo de confiança de 95%", y = "Função de Autocorrelação Parcial (FACP)", x = "Defasagens") + theme_light()

Gráfico 4

   Como podemos observar, possuímos até cinco termos 𝜌𝑠𝑠 que ficam fora do nosso intervalo de confiança, logo testaremos até um AR(5). Dessa maneira, testaremos todas as combinações possíveis de modelos até um ARIMA(5, d, 7) e escolheremos o que melhor se ajusta aos nossos dados a partir do Critério de Informação de Akaike (AIC).

#encontrando o modelo que se melhor ajusta
best_fit <- auto.arima(log_ret, max.p = 5, max.q = 7, ic = "aic", approximation = F, trace = T) ## ARIMA(2,0,2) with non-zero mean : -13372.71 ## ARIMA(0,0,0) with non-zero mean : -13324.64 ## ARIMA(1,0,0) with non-zero mean : -13343.37 ## ARIMA(0,0,1) with non-zero mean : -13341.66 ## ARIMA(0,0,0) with zero mean : -13326.20 ## ARIMA(1,0,2) with non-zero mean : -13343.73 ## ARIMA(2,0,1) with non-zero mean : -13343.53 ## ARIMA(3,0,2) with non-zero mean : Inf ## ARIMA(2,0,3) with non-zero mean : -13377.81 ## ARIMA(1,0,3) with non-zero mean : -13341.82 ## ARIMA(3,0,3) with non-zero mean : -13376.80 ## ARIMA(2,0,4) with non-zero mean : -13376.17 ## ARIMA(1,0,4) with non-zero mean : -13355.28 ## ARIMA(3,0,4) with non-zero mean : -13374.79 ## ARIMA(2,0,3) with zero mean : -13379.29 ## ARIMA(1,0,3) with zero mean : -13343.34 ## ARIMA(2,0,2) with zero mean : -13381.08 ## ARIMA(1,0,2) with zero mean : -13345.25 ## ARIMA(2,0,1) with zero mean : -13345.05 ## ARIMA(3,0,2) with zero mean : Inf ## ARIMA(1,0,1) with zero mean : -13345.64 ## ARIMA(3,0,1) with zero mean : Inf ## ARIMA(3,0,3) with zero mean : -13378.30 ## Best model: ARIMA(2,0,2) with zero mean

   A partir do processo iterativo de checar o melhor modelo entre vários, podemos observar que o modelo com menor perda de informação (menor AIC), portanto o de melhor qualidade é o autorregressivo de médias móveis – ARMA(2,2) sem constante. Partimos então para a segunda etapa da Metodologia de Box-Jenkins.

   (2) Estimação dos parâmetros do modelo escolhido: para estimar os coeficientes dos parâmetros, recorreremos para a estimativa por máxima verossimilhança. Considerando que o modelo de maior qualidade é do tipo ARMA(2,2) sem constante, temos a seguinte equação para nossa série de retornos:

Onde 𝜀𝑡 é ruído branco.

#obtendo os coeficientes estimados do modelo
arima_fitted <- fitted(best_fit) best_fit$coef ## ar1 ar2 ma1 ma2 ## -1.6441653 -0.8185129 1.5642812 0.7268909

   A partir dos coeficientes estimados, podemos descrever o processo como sendo um modelo do tipo:

   Podemos observar que nossos retornos no tempo t, ceteris paribus, são negativamente influenciados pelos retornos em t-1 e t-2 com grandeza -1,64 e -0,82, respectivamente, e positivamente influenciados por termos aleatórios em t-1 e t-2 com grandeza 1,56 e 0,73, respectivamente.

   De forma a visualizar a comparação entre o modelo que estimamos e os valores realizados, elaborou-se um gráfico.

#plot dos log-retornos reais vs. estimados pelo modelo
g5 <- ggplot() + geom_line(data = log_ret, aes(x = index(log_ret), y = ibov, color = ""), size = 0.5) + geom_line(data = arima_fitted, aes(x = index(log_ret), y = arima_fitted, color = " "), size = 0.5) + scale_x_date(date_labels = "%Y", date_breaks = "1 year") + scale_y_continuous(labels = number_format(big.mark = ".")) + scale_color_manual(labels = c("Realizados", "Estimados"), values = c("darkblue", "gold")) + labs(title = "Log-retornos reais vs. estimados", subtitle = "Série diária do Ibovespa", x = "Data", y = "Log-retornos (%)", color = "") + theme_light() + theme(legend.title = element_blank(), legend.position = "bottom")

Gráfico 5

   Por meio de uma análise gráfica, podemos observar que os valores dos parâmetros que estimamos parecem estar ajustados aos nossos dados. Apesar disso, precisaremos efetuar outros testes para obter essa confirmação, partindo assim para a terceira etapa.

   (3) Verificação do diagnóstico: iremos checar se os resíduos (termos de erro) da equação que estimamos são do tipo ruído branco. Caso tivermos o resultado de que nossos resíduos não são completamente aleatórios, nosso modelo estimado não foi capaz de explicar completamente o comportamento determinístico da nossa série, portanto não seria um bom modelo.

   Para fazermos testes formais em relação aos resíduos, podemos usar novamente a Função de Autocorrelação (FAC) e o Teste de Raíz Unitária de Dickey-Fuller.

#resíduos do modelo estimado
resid <- best_fit$residuals

#FAC dos resíduos do modelo estimado
g6 <- ggAcf(resid, lag.max = 15) +
  labs(title = "Autocorrelograma dos resíduos do modelo estimado",
       subtitle = "Intervalo de confiança de 95%",
       y = "Função de Autocorrelação (FAC)", 
       x = "Defasagens") + 
  theme_light()

Gráfico 6

   Como os coeficientes de autocorrelação 𝜌𝑠 estão dentro do nosso intervalo de confiança de 95%, podemos dizer que nosso modelo está bem especificado. Fazendo o teste de Dickey-Fuller, podemos observar em valores estatísticos.

#teste de Dickey-Fuller para os os resíduos do modelo estimado
ur.df(resid, type = "none", lags = 0) #ou utilizar o summary

## The value of the test statistic is: -49.3669

   Considerando que o resultado que temos para o valor da estatística teste é igual a −49, 3669 e para um nível de significância de 𝛼 = 5, 00%, temos −1, 95 como nosso valor crítico, podemos dizer que rejeitamos a hipótese nula e portanto nossos resíduos não possuem correlação serial, sendo assim, conseguimos explicar a parte determinística da nossa série de dados temporais com sucesso – de fato nossos resíduos são valores aleatórios do tipo ruído branco.

Momentos de uma série: assimetria e curtose

   Um fato estilizado que temos em séries temporais de ativos financeiros é a da distribuição de caudas gordas, em que expõe que há a baixa probabilidade de eventos raros ocorrerem, sendo aqueles que se situam nas caudas de uma distribuição Normal (risco de cauda).

   Como os investidores comumente estão mais preocupados com perdas inesperadas do que com ganhos inesperados, as discussões tendem a ser voltadas para a cauda esquerda (perdas). Temos essas condições, pois as decisões tomadas no mercado financeiro dependem de comportamentos humanos (imprevisíveis), em que há evidências de que a distribuição dos retornos ao invés de serem normais, apresentam características de Assimetria (Skewness) e Curtose.

   A Assimetria (relacionada ao terceiro momento de uma série) é uma medida referente à falta de simetria em determinada distribuição de probabilidade. Considerando que a distribuição Normal possui assimetria zero, conseguimos um indicativo de quanto a distribuição desvia-se da Normal. Em uma Distribuição Simétrica (Normal), a média é praticamente igual à mediana. Em uma Assimetria Negativa (left-skewed), a mediana é maior que a média e em uma Assimetria Positiva (right-skewed), a média é maior que a mediana. A Figura 1 descreve muito bem visualmente os três casos citados.

Figura 1

   Já a Curtose (relacionada ao quarto momento de uma série) aborda o achatamento (forma) da curva de distribuição de probabilidade. Uma distribuição com alta Curtose possui um pico mais definido e caudas longas mais gordas, enquanto uma distribuição com baixa Curtose possui um pico mais arredondado e caudas finas menores.

Figura 2

   Se a Curtose = 3, temos uma função Mesocúrtica (Normal). Se a Curtose > 3, temos uma função Leptocúrtica (de caudas longas). Já se a Curtose < 3, temos a função Platicúrtica (mais achatada que a Normal), conforme a Figura 2 ilustra.

#histograma dos log-retornos
g7 <- ggplot(log_ret, aes(x = log_ret)) + 
  geom_histogram(aes(y =..density..), colour = "black", fill = "darkblue") +
  geom_density(alpha = 0.35, fill = "gold") +
  scale_x_continuous(labels = number_format(big.mark = ".")) +
  labs(title = "Histograma dos log-retornos",
       subtitle = "Série diária do Ibovespa",
       x = "Log-retornos (%)", 
       y = "Frequência") +
  theme_light()

Gráfico 7

   Ao nos depararmos com o histograma dos log-retornos, podemos observar em maior detalhe o comportamento da distribuição da nossa série, percebendo que eles seguem uma distribuição muito parecida com a distribuição Normal, porém contendo uma quantidade maior de observações na parte esquerda da cauda.

#momentos da série e estatísticas descritivas
skewness(log_ret) #assimetria negativa: moda > mediana > media

## ibov
## -0.9043515

kurtosis(log_ret) #leptocurtica (mais alongada)

## ibov
## 15.46513

summary(log_ret)[c(1, 3, 4, 6), 2]

## Min.: -0.1599303  Median: 0.0002812
## Mean: 0.0002161   Max.: 0.1302228

   Como vimos anteriormente, a média da nossa série dos log-retornos é por volta de zero (0,0002161), com uma alta amplitude, tendo valores compreendidos de aproximadamente −15, 99% até 13, 02%. A partir do valor de −0, 90 do coeficiente de Skewness, podemos observar também que nossa série possui uma assimetria negativa, evidenciando que a curva de distribuição possui uma cauda mais alongada na esquerda (conforme o histograma nos mostra).

   Além disso, pelo fato do coeficiente de Curtose ser maior que 3 (com o valor de 15,46), temos que a distribuição é do tipo leptocúrtica, isto é, menos achatada do que a curva de distribuição Normal.

Aglomeração de Volatilidade e o Modelo de Heterocedasticidade Condicional Autoregressiva Generalizada (GARCH)

   Outro fato estilizado conhecido que temos em séries de ativos financeiros é o do fenômeno característico de aglomeração por volatilidade (onde há períodos em que a volatilidade exibe grandes oscilações, seguidos por períodos relativamente mais estáveis). Em termos gerais, temos que, grandes oscilações tendem a ser seguidas por grandes oscilações e pequenas oscilações tendem a ser seguidas por pequenas oscilações.

   Trabalhar com a volatilidade (desvio-padrão dos retornos) dos preços das ações é de interesse dos investidores, uma vez que podemos sugerir que alta volatilidade pode significar grandes lucros/prejuízos, portanto maior incerteza. Além disso, em mercados voláteis, aumenta-se a dificuldade em captar recursos por partes das empresas nos mercados de capitais.

   Considerando que estamos utilizando a primeira diferença dos log-retornos do Ibovespa, observamos conforme o Gráfico 2, que nossa série frequentemente exibe grandes oscilações (a mais recente sendo na crise do Covid-19 em março de 2020), sugerindo que a variância da série temporal financeira muda ao longo do tempo (heterocedasticidade). Podemos modelar essa variância variante, abordando primeiro o modelo de Heterocedasticidade Condicional Autorregressiva (ARCH), depois generalizando-o, chegando no modelo GARCH.

   Denotemos nossos resíduos 𝜀𝑡 como seguindo um processo estocástico de ruído branco 𝜇𝑡 (média zero, variância constante e i.i.d.) escalado por um desvio-padrão que depende do tempo 𝜎𝑡, temos então 𝜀𝑡 = 𝜎𝑡𝜇𝑡. Como modelaremos o processo da variância como um processo autorregressivo, temos que a variância de hoje é composta pela variância de períodos anteriores ponderada por um coeficiente 𝛼𝑝:

   Como não conseguimos propriamente observar a , Engle demonstrou que podemos utilizar a regressão dos resíduos ao quadrado no tempo t em relação aos resíduos ao quadrado dos períodos anteriores como proxy (aproximação) da variância:

   Sendo um termo quadrático, quando houver grandes variações nos preços dos ativos financeiros, seu valor será alto e quando for relativamente pequeno, é por causa de variações pequenas.

   Generalizando o modelo ARCH(p), chegamos ao modelo GARCH(p, q), onde a variância condicional de 𝜇𝑡 depende não somente dos resíduos quadráticos em períodos anteriores, mas também de sua variância condicional de períodos anteriores. Temos então p termos defasados dos resíduos quadráticos e q termos das variâncias condicionais defasadas:

   Note que é determinístico, uma vez que depende de valores passados e já conhecidos. Sendo assim, temos que os modelos do tipo GARCH(p,q) não são estocásticos, apesar de ser.

#elevando os resíduos ao quadrado
resid_quad <- resid^2

#FAC dos resíduos ao quadrado
g8 <- ggAcf(resid_quad, lag.max = 15) +
  labs(title = "Autocorrelograma dos resíduos a quadrado",
       subtitle = "Intervalo de confiança de 95%",
       y = "Função de Autocorrelação (FAC)", 
       x = "Defasagens") + 
  theme_light()

Gráfico 8

   A partir da FAC e a FACP dos resíduos quadráticos do nosso modelo estimado, podemos verificar se os termos de ruído branco são dependentes e podem ser previstos. Caso os resíduos forem do tipo ruído branco estrito, serão independentes de média zero e normalmente distribuídos. Dessa forma, os coeficientes de autocorrelação no Correlograma da FAC e FACP dos resíduos quadráticos estarão dentro dos intervalos de confiança de 95% tracejados em azul.

#FACP dos resíduos ao quadrado
g9 <- ggPacf(resid_quad, lag.max = 15) +
  labs(title = "Autocorrelograma dos resíduos a quadrado",
       subtitle = "Intervalo de confiança de 95%",
       y = "Função de Autocorrelação Parcial (FACP)", 
       x = "Defasagens") + 
  theme_light()

Gráfico 9

   O que observamos na realidade, é que na FAC, os coeficientes de autocorrelação vão decaindo lentamente a cada nível de defasagem, enquanto que na FACP temos uma maior estabilização dos coeficientes de autocorrelação parcial a partir da sétima defasagem. Portanto, os resíduos quadráticos nos dão indícios de serem correlacionados, e com isso temos evidência de efeitos GARCH(p,q) que podem ser modelados.

   Primeiro, precisaremos especificar nosso modelo, em que de forma a simplificar nosso estudo, usaremos um GARCH(1,1) em conjunto com o ARMA(2,2) que estimamos. Além disso, de forma a captar melhor os efeitos de Assimetria e Curtose vistos anteriormente, utilizaremos a distribuição t-Student ao invés da Normal.

#especificando o modelo
t_garch_spec <- ugarchspec(
  variance.model = list(model = "sGARCH", garchOrder = c(1,1)),
  mean.model = list(armaOrder = c(2,2), include.mean = T),
  distribution.model = "std"
  )

   Após especificarmos nosso modelo, estimamos os valores ajustados para nossa série de variância e podemos observar parte dela em conjunto com a série dos log-retornos e dos erros do modelo.

#encontrando os valores estimados do modelo ARMA(2,2)-GARCH(1,1)
fit_t_garch <- ugarchfit(spec = t_garch_spec,
                         data = log_ret)

#salvando os valores estimados
fitted_t_garch_series <- cbind(log_ret, 
                               fit_t_garch@fit$sigma,
                               fit_t_garch@fit$z)
names(fitted_t_garch_series) <- c("logret", "sigma", "et")

#dez primeiros valores 
head(fitted_t_garch_series, 10)

##              logret        sigma         et
## 2011-01-04   0.0050755741  0.01626328    0.279099381
## 2011-01-05   0.0109329350  0.01626328    0.639257936
## 2011-01-06  -0.0072280967  0.01587222   -0.458175560
## 2011-01-07  -0.0074234534  0.01538869   -0.517944765
## 2011-01-10   0.0009986875  0.01496752    0.003470236
## 2011-01-11   0.0042120304  0.01442680    0.245567330
## 2011-01-12   0.0170359473  0.01395652    1.186934784
## 2011-01-13  -0.0128133031  0.01418372   -0.902250006
## 2011-01-14   0.0030918908  0.01411208    0.187455965
## 2011-01-17  -0.0046768342  0.01365121   -0.410604085

#dez últimos valores
tail(fitted_t_garch_series, 10)

##              logret       sigma        et
## 2020-12-15   0.010133307  0.01267530   0.7428032
## 2020-12-16   0.015387351  0.01255479   1.2140346
## 2020-12-17   0.001778878  0.01284386   0.1424534
## 2020-12-18  -0.004053670  0.01246990  -0.3271978
## 2020-12-21  -0.014232466  0.01216374  -1.2268025
## 2020-12-22   0.002857587  0.01247546   0.1551960
## 2020-12-23   0.012886325  0.01213166   0.9820493
## 2020-12-28   0.010079948  0.01221818   0.8263367
## 2020-12-29   0.003555172  0.01218063   0.2806311
## 2020-12-30  -0.001415523  0.01188386  -0.1246335

Value-at-Risk (VaR): abordagem delta-Normal vs. abordagem GARCH

   O Value-at-Risk é uma medida estatística de se medir o risco de perda em determinados ativos ou portfólios. De maneira geral, dado determinado nível de significância 𝛼 (ou um nível de confiança 1−𝛼) e um horizonte de tempo (dias, semanas, meses etc.), podemos dizer que a perda máxima não excederá a nossa estimação do VaR para o período em questão. O nível de confiança serve para determinar o grau de certeza em relação a medição (níveis de confiança mais elevados implicam em perdas mais elevadas), enquanto o horizonte temporal nos informa o intervalo que estamos avaliando (sendo que quanto maior for esse horizonte, maior tenderá a ser a perda estimada).

   Para nosso estudo, compararemos: (i) a abordagem delta-Normal e (ii) a abordagem GARCH. A primeira delas considera que os retornos seguem uma distribuição Normal, constante ao longo do tempo, sendo definida por:

   Em que 1−𝛼 é o nível de confiança estabelecido; 𝜇 é a média dos retornos; 𝜎 é o desvio-padrão dos retornos; e é a inversa da Função de Densidade de Probabilidade (FDP), que nos gerará o quantil correspondente da distribuição Normal.

   Já a segunda abordagem, que é o nosso foco, considera que a volatilidade varia conforme o tempo passa (fenômeno da aglomeração por volatilidade), usando da variância condicional dada pelo modelo GARCH(1,1) que estimamos. Dessa maneira, temos:

   Em que é o desvio-padrão condicional em t, considerando o último dado em t-1; e a é a inversa da Função de Densidade de Probabilidade (FDP), que nos gerará o quantil correspondente da distribuição t-Student.

   É importante destacar que uma perda que exceda o limite estabelecido pelo VaR, dado determinado nível de significância, não é capturada, sendo assim não nos informando acerca da magnitude da perda, acarretando em uma “brecha” no VaR. Apesar dessa e outras falhas (maiores detalhes sobre VaR), é uma medida amplamente utilizada na quantificação de risco no mercado financeiro, devido – a não só – a sua facilidade de implementação em backtestings.

   O backtesting é uma ferramenta que viabiliza a verificação da consistência e comparação entre as perdas realizadas e as perdas estimadas pelo modelo, nos informando como ele se comporta, por meio da utilização de dados históricos. Esse processo, nos ajuda a reduzir a sub-estimação do VaR, dando maior segurança para instituições que necessitem de capital para arcar com eventuais perdas. Além disso, também ajuda a reduzir a sobre-estimação, fazendo com que instituições não tenham que ser estritamente conservadoras, segurando mais capital que o necessário, possibilitando assim uma maior flexibilidade.

   Primeiramente dividiremos nossa amostra em duas, onde utilizaremos as observações 1 até 1575 como teste e validaremos seu comportamento nas 895 observações restantes (1576 até 2470).

#observações teste e validação
set <- length(log_ret["2011-01-04/2017-05-17"])

test <- 1:set #observações 1:1575
validation <- (set+1):nrow(log_ret) #observações 1576:2470

   Depois disso, faremos o backtesting com o modelo que havíamos especificado anteriormente, possibilitando a obtenção dos parâmetros da distribuição, necessários para a previsão de nossos valores hipotéticos. Iremos re-estimar o modelo a cada nova observação e utilizaremos um nível de significância de 𝛼 = 5, 00%.

#backtesting
roll_garch <- ugarchroll(
  spec = t_garch_spec, #modelo especificado
  data = log_ret,
  n.ahead = 1,
  forecast.length = 1, #a partir dos dados de validação
  n.start = set,
  refit.every = 1, #re-estimando o modelo a cada nova observação
  refit.window = "recursive",
  calculate.VaR = T,
  VaR.alpha = 0.05, #nível de significância de 5%
  keep.coef = T
  )

#forma da distribuição da série
shape <- fitdist(distribution = "std", x = log_ret)$pars[3]
t_dist_quantile <- qdist(distribution = "std", shape = shape , p = 0.05)

#valores previstos
validation_VaR <- mean(log_ret[validation]) +
  roll_garch@forecast$density$Sigma * t_dist_quantile

   Com o backtesting feito, podemos elaborar um gráfico de forma a visualizar o Value-at-Risk com a abordagem GARCH em comparação com o Value-at-Risk com a abordagem delta-Normal.

#plot do VaR delta-Normal, VaR GARCH e retornos
g10 <- ggplot() +
  geom_line(aes(y = validation_VaR, 
                x = index(log_ret[validation]), 
                color = ""), size = 0.5) +
  geom_point(aes(y = log_ret[validation],
                 x = index(log_ret[validation]),
                 color = as.factor(log_ret[validation] < validation_VaR)), 
             size = 1.5) +
  geom_hline(aes(yintercept = sd(log_ret) * qnorm(0.05), color = " "),
             size = 0.5) +
  scale_y_continuous(labels = scales::number_format(accuracy = 0.01,
                                                    decimal.mark = '.'),
                     expand = expansion(c(-0.01, 0.01))) +
  scale_color_manual(labels = c("VaR GARCH", "VaR delta-Normal", "Retornos", 
                                "Retornos < VaR GARCH"),
                     values = c("darkcyan", "gold", "gray", 
                                "darkblue")) + 
  labs(title = "VaR GARCH(1,1) vs. VaR delta-Normal",
       y = "%", 
       x = element_blank(), 
       color = "") + 
       theme_light() + theme(legend.position = "bottom")

Gráfico 10

   A partir de uma análise gráfica, podemos perceber que temos algumas observações (pontos em azul) que são menores que o VaR estimado pela abordagem GARCH (linha em verde ciano), porém que são maiores que aquelas estimadas pelo VaR delta-Normal (linha em amarelo). Além do gráfico, de forma a suportar nossa análise, podemos calcular o número de vezes cada um dos modelos excede em quantificar o risco.

#resumo de exceções
excecoes_dn <- sum(
  log_ret[validation] < 
    (mean(log_ret) + qnorm(0.05) * sd(log_ret[validation])))
excecoes_garch <- sum(log_ret[validation] < validation_VaR)
melhor_abordagem <- if(
  excecoes_dn < excecoes_garch){"ARMA-GARCH"} else{"delta-Normal"}

cat(" Número de excedências com a abordagem delta-Normal:", excecoes_dn,
    "\n",
     "Número de excedências com a abordagem ARMA-GARCH:", excecoes_garch,
    "\n",
     "A abordagem", melhor_abordagem,
    "consegue captar melhor os valores excedentes!")

## Número de excedências com a abordagem delta-Normal: 21
## Número de excedências com a abordagem ARMA-GARCH: 47
## A abordagem ARMA-GARCH consegue captar melhor os valores excedentes!

   Dessa forma, temos que o VaR constante sobre-estima o risco, enquanto que o VaR com variância condicional aparenta se adequar melhor, possibilitando a captura de maiores retornos, sendo uma ferramenta de predição mais efetiva em nosso estudo.

#última etapa: previsão
garch_prev <- ugarchforecast(fit_t_garch, n.ahead = 3)

VaR_t1 <- round(
  (t_dist_quantile * garch_prev@forecast$sigmaFor[1]) * 100, 4)
VaR_t2 <- round(
  (t_dist_quantile * garch_prev@forecast$sigmaFor[2]) * 100, 4)
VaR_t3 <- round(
  (t_dist_quantile * garch_prev@forecast$sigmaFor[3]) * 100, 4)
VaR_dn <- round((sd(log_ret) * qnorm(0.05)* 100), 4)

cat(" VaR delta-Normal é: ", VaR_dn, "%.", "\n",
    "VaR-GARCH em t+1 é: ", VaR_t1, "%.", "\n",
    "VaR-GARCH em t+2 é: ", VaR_t2, "%.", "\n",
    "VaR-GARCH em t+3 é: ", VaR_t3, "%.")

## VaR delta-Normal é: -2.6804 %.
## VaR-GARCH em t+1 é: -1.7914 %.
## VaR-GARCH em t+2 é: -1.8108 %.
## VaR-GARCH em t+3 é: -1.8294 %.

   Por fim, para concluirmos, estimamos os valores previstos em três dias a frente, nos dando uma ideia de quanto as instituições poderiam flexibilizar em sua tomada de risco em busca de maiores retornos no mercado financeiro em relação a uma medida fixa, mais rígida, que seria o VaR delta-Normal.

Referências

  • GUJARATI, D. N.; PORTER, D. C. “Econometria Básica”, 5. ed. Bookman: Porto Alegre, 2011.
  • BUENO, Rodrigo De Losso da Silveira. “Econometria de Séries Temporais”, 2. ed., 2012.
  • Engle, Robert. “GARCH 101: The Use of ARCH/GARCH Models in Applied Econometrics”. Journal of Economic Perspectives — Vol. 15, No. 4, pp. 157–168, 2001.
  • Christoph Hanck, Martin Arnold, Alexander Gerber, Martin Schmelzer. “Introduction to Econometrics with R”, 2020. https://www.econometrics-with-r.org/
  • Alexios Ghalanos (2020). rugarch: Univariate GARCH models. R package version 1.4-4. https://cran.r-project.org/web/packages/rugarch/vignettes/Introduction_to_the_rugarch_package.pdf
  • Angelidis, Timotheos and Benos, Alexandros and Degiannakis, Stavros. “The Use of GARCH Models in VaR Estimation”. Published in: Statistical Methodology — Vol. 2, No. 1, pp. 105-128, 2004.
Posted by Cairê Britto Barletta in Derivativos & Riscos, 0 comments
ECONOMIA COMPORTAMENTAL E A SOBRE-REAÇÃO DOS MERCADOS

ECONOMIA COMPORTAMENTAL E A SOBRE-REAÇÃO DOS MERCADOS

            Provavelmente já aconteceu de você estar sentado no sofá assistindo TV, após o almoço ou jantar, acompanhado de uma farta caixa de bombons. Após você comer certa quantidade de doces, se sente obrigado a tirá-los de perto, se não o que era para ser apenas uma sobremesa moderada se tornará um peso tanto na consciência quanto na balança.

O comportamento apresentado, apesar de comum, é descrito pela teoria econômica como não racional. Dentre os vários princípios que regem as tomadas de decisão do homo-economicus, um deles é a informação, ou seja, o ser economicamente racional tem todas as informações ao seu dispor e está ciente das consequências de suas decisões, logo, no caso citado anteriormente o homo-economicus seria totalmente indiferente entre tirar a caixa de bombons do seu campo de visão ou não, ele apenas pararia de comer.

Assim como o caso dos bombons, existem muitos outros que explicitam a disparidade entre as decisões tomadas na prática com as decisões que a teoria econômica postula nos seus modelos. Tais casos, vistos como anomalias na economia clássica, deu origem a economia comportamental, campo da economia destinado a estudar tais comportamentos. 

O QUE É ECONOMIA COMPORTAMENTAL?

Uma das formas pela qual podemos definir a economia comportamental, é como sendo uma interseção entre os estudos das ciências econômicas e da psicologia, tendo em vista que visa descrever como os fatores psicológicos e emocionais de cada indivíduo impacta nas tomadas de decisão e aponta onde os modelos postulados pela economia falham.

 A Economia comportamental foca em estudar as tendências que os sujeitos têm de tomar decisões que divergem dos princípios de racionalidade descritos pela teoria econômica clássica, tendências essas conhecidas como vieses comportamentais. Estão descritos abaixo alguns dos principais vieses:

i)              CUSTO AFUNDADO: Um custo afundado pode ser definido como a tomada de uma decisão que posteriormente se mostrará equivocada e mesmo assim o indivíduo persiste em continuar em frente tendo em vista que tal decisão já acarretou em um custo.

Exemplo: suponha que você encontrou em uma loja uma camiseta que achou muito bonita, porém ela é um tamanho menor que o seu, mas mesmo assim você compra achando que um número a menos no tamanho não fará diferença. Passado algum tempo você percebe que a camisa está apertada, mas agora é tarde e você insiste em usá-la pois incorreu de um custo na hora da compra. Do ponto de vista econômico, usar a camiseta mesmo estando apertada pode até mesmo gerar uma utilidade negativa ao indivíduo tendo em vista que pode estar causando desconforto.

ii)                         PERSEVERANÇA: O viés cognitivo de perseverança nos diz que indivíduos com opinião formada sobre alguma ideia cometem geralmente dois erros: 1) dificilmente irão procurar por informações/notícias que contrariem suas opiniões; 2) por mais que encontrem tais informações, os sujeitos não darão muito credibilidade a ela e dificilmente mudarão de ideia.

iii)               EXCESSO DE CONFIANÇA: O viés de excesso de confiança constata que os indivíduos tendem a superestimar as suas habilidades de fazer previsões, por mais que tal processo envolva alto grau de incerteza. Pesquisas apontam que o principal causador do viés de confiança é outro viés, o viés de ancoragem.

iv)                ANCORAGEM: Os indivíduos frequentemente ancoram suas expectativas em torno de um valor inicial, geralmente fornecido por terceiros, e chegam em um valor final após ajustes, mas geralmente não são feitas grandes mudanças em relação ao valor inicial.

v)                EFEITO POSSE OU DOTAÇÃO: O efeito posse trata-se de quando indivíduos dão mais valor para bens que possuem do que para o mesmo bem caso ainda não esteja sob sua posse.

Nós, seres-humanos, tomamos decisões que nos distanciam dos seres economicamente racionais (homo-economicus) ou, como o economista Richard H. Thaler os chama, os “Econs”, o que faz com que os modelos teóricos, principalmente os microeconômicos, apresentem algumas brechas ao se aplicarem em um exemplo real.

MAS COMO QUE A ECONOMIA COMPORTAMENTAL SE RELACIONA COM AS FINANÇAS?

Até agora já percebemos que são inúmeros os vieses comportamentais que estamos sujeitos a cometer diariamente e que nos diferencia dos seres economicamente racionais. Mas será que é possível encontrar algum viés comportamental dentro dos mercados financeiros? A resposta é sim! Apesar de inúmeros profissionais da área e pesquisadores defenderem que o mercado financeiro atende as HME (Hipótese de Mercados Eficientes), já existem diversos artigos/estudos que apontam o contrário, as finanças também não fogem das anomalias comportamentais.

O nome que se dá para a área de economia comportamental que estuda as anomalias do mercado financeiro é finanças comportamentais. Mas para entender quais os vieses cognitivos que os investidores cometem, primeiro é necessário entender quais os pressupostos que a teoria define para que os mercados sejam eficientes.

·         Hipóteses de mercados eficientes:

i)                    Toda informação disponível ao público está refletida no preço, logo, o preço está correto, sendo praticamente impossível encontrar possíveis brechas para a realização de arbitragens;

ii)              O fato de toda informação disponível no mercado estar refletida no preço faz também com que os investidores não consigam obter retornos acima da média do mercado, ou seja, os indivíduos não conseguem vencê-lo;

Para o propósito deste artigo não faz sentido se aprofundar mais do que isso em cada uma das hipóteses. Vamos agora analisar um dos casos mais conhecidos de anomalia no mercado financeiro que aponta uma inconsistência em relação a estas hipóteses.

A SOBRE-REAÇÃO DOS MERCADOS FINANCEIROS

A sobre-reação pode ser definida como a disparidade entre o valor de mercado de um ativo e seu valor intrínseco levando-se em consideração preço e volatilidade. Tal fenômeno pode ser causado principalmente pela heurística da representatividade, um viés cognitivo no qual o indivíduo julga a partir de observações estereotipadas. Investidores que julgam uma empresa como boa através de informações estereotipadas podem acabar distorcendo o preço de uma ação.

Benjamin Graham, precursor das estratégias de Value Investing e professor de Warren Buffet, usava a razão P/L (Preço dividido pelo Lucro de uma ação) como uma das medidas para analisar se uma ação estava cara ou barata.  O P/L alto representa que os investidores estão pagando mais pelo lucro da companhia, ou seja, o mercado tem expectativa que os ganhos da empresa cresçam, já uma razão P/L baixa mostra que os investidores não têm grandes expectativas de crescimento dos rendimentos da empresa.

No livro Investidor Inteligente Graham comprova com dados que um portfólio que reúne ações de P/L baixo tem rendimento superior a um portfólio com P/L alto dentro de um período de 30 anos. De certa forma Graham está afirmando que companhias com P/L alto estão sendo superestimadas enquanto companhias com o P/L baixo são subvalorizadas.

Richard Thaler, ganhador do Nobel de economia, e Werner de Bondt, influente economista comportamental, após analisar os estudos de Benjamin Graham notaram que o comportamento das ações se tratava basicamente de um caso de regressão a média.

Regressão a média: de forma rigorosa podemos definir que a regressão a média é o aumento da probabilidade de que a segunda medição de algum dado seja mais próxima da média caso a primeira medição seja um valor extremo. Exemplo: suponha que em uma semana de maio, a cidade de Florianópolis tenha apresentado as temperaturas mais baixas dos últimos 5 anos, a probabilidade de que na próxima semana a temperatura volte a subir é mais alta do que a probabilidade de que a temperatura caia mais.

            Richard e Werner tendo noção que o caso de sobre-reação do mercado poderia ser causado devido uma regressão a média, precisavam fazer testes para ter certeza de que estavam certos. A dupla escolheu, dentre as empresas listadas na NYSE (New York Stock Exchange) as 35 ações mais extremas. O grupo de ações com boa performance formou o grupo “Vencedor” e o grupo de ações com baixa performance formou o grupo “Perdedor”. Para que suas suposições se confirmassem era necessário que o grupo Perdedor tivesse rendimentos maior que o grupo vencedor.

            Como era de se esperar, os dados confirmaram com uma boa margem as expectativas, as empresas com baixa performance voltaram para sua média e obtiveram rendimentos mais altos que as empresas de alta performance. Um detalhe importante que deve ser levado em consideração é que foi necessário analisar pelo menos 3 anos seguintes para que os valores fossem consistentes. 

             CONCLUSÃO

            O fenômeno de sobre-reação dos mercados, causado pela representatividade da heurística, aponta que existem brechas não explicadas nas Hipótese de Mercado Eficiente, tendo em vista que se o preço está correto, este não deveria divergir de seu valor intrínseco, o que nem sempre acontece na prática. Em um mercado que as hipóteses eficientes funcionam, não ocorreriam bolhas especulativas, como por exemplo a bolha imobiliária responsável pela crise de 2008.

            A economia comportamental é um vasto campo da economia. Vale ainda ressaltar que foi a partir da década de 1960 que a área começou a se desenvolver de forma significativa. Se compararmos, seu início é muito recente em relação aos primeiros trabalhos de economia propriamente dito.

            Além da representatividade da heurística, praticamente todos os vieses comportamentais podem ser observados em investidores no mercado financeiro, tanto profissionais como os amadores, como por exemplo efeito posse, viés de ancoragem, excesso de confiança entre outros. 

            REFERÊNCIAS:

 BIBLIOGRAPHY Almerinda Tereza Bianca Bez Batti Dias, A. A. (2013). Finanças Comportamentais: Um Estudo com Professores Universitários sobre o Sentimento de Aversão à Perda. Retrieved from enANPAD: http://www.anpad.org.br/admin/pdf/2013_EnANPAD_CON1310.pdf

capital research. (2020). O que é homo economicus e seus princípios. Retrieved from Capital Research: https://www.capitalresearch.com.br/blog/investimentos/homo-economicus/

Economiacomportamental.org. (n.d.). Efeito Posse ou Dotação (Endowment Effect). Retrieved from Economiacomportamental.org: http://www.economiacomportamental.org/efeito-posse-ou-dotacao-endowment-effect/

Famá, R., Cioffi, P. L., & Coelho, P. A. (2008). CONTEXTO DAS FINANÇAS COMPORTAMENTAIS: ANOMALIAS E EFICIÊNCIA DO MERCADO DE CAPITAIS BRASILEIRO. Retrieved from Revista USP: https://www.revistas.usp.br/rege/article/view/36638/39359

Halfeld, M., & Torres, F. d. (2001). Finanças comportamentais: a aplicações no contexto brasileiro. Retrieved from FGV EAESP: https://www.fgv.br/rae/artigos/revista-rae-vol-41-num-2-ano-2001-nid-45389/

Kimura, H. (2003, Junho). ASPECTOS COMPORTAMENTAIS ASSOCIADOS ÀS REAÇÕES DO MERCADO DE CAPITAIS. Retrieved from Pesquisa EAESP FGV: https://pesquisa-eaesp.fgv.br/sites/gvpesquisa.fgv.br/files/arquivos/v2n1a06.pdf

Prates, W. R. (2020). O que é finanças comportamentais e economia comportamental? Retrieved from Ciência & Negócios: https://cienciaenegocios.com/o-que-e-financas-comportamentais-e-economia-comportamental/

Thaler, R. (2015). Misbehaving. Intrínseca.

Wainberg, R. (2021). Finanças Comportamentais: Veja 6 truques da mente contra você. Retrieved from Suno: https://www.suno.com.br/artigos/financas-comportamentais/

Wikipédia. (n.d.). Economia comportamental. Retrieved from Wikipédia: https://pt.wikipedia.org/wiki/Economia_comportamental

Yoshinaga, C. E., Oliveira, R. F., Silveira, A. D., & Barros, L. A. (2008). FINANÇAS COMPORTAMENTAIS: UMA INTRODUÇÃO . Retrieved from Revista USP: https://www.revistas.usp.br/rege/article/view/36644/39365

 

Posted by Nelson Gaudêncio Inácio Ambros in Derivativos & Riscos, 0 comments
Análise de Risco de um Portfólio

Análise de Risco de um Portfólio

Introdução

Neste artigo será aplicado algumas técnicas de análise de risco em um portfólio de ações, com o intuito de obter uma análise mais práticas de tópicos estudados dentro do núcleo de Riscos & Derivativos do Clube de Finanças. O objetivo é aplicar diferentes técnicas de análise de risco e demonstrar como que os resultados obtidos podemos ser utilizados para o estudo do risco do portfólio.

As técnicas aplicadas serão: Value at Risk (VaR); Expected Shortfall; Stress Test; Matriz de correlação; Máximos Drawdowns, e o cálculo de alguns RAPMs.

O portfólio montado

O portfólio no qual iremos realizar as nossas aplicações, será uma carteira composto 100% por ações listadas na B3. Foram selecionadas as ações de algumas das maiores empresas da bolsa brasileira, visando englobar empresas sólidas e de diferentes setores de atuação, para evitar que riscos específicos de setores ou de empresas Small Caps distorçam os nossos cálculos.

Assim, o portfólio foi montado contendo 10 ações, todas com pesos igualmente distribuídos. São elas: ABEV3, B3SA3, BBDC3, BPAC3, ITUB3, MGLU3, PETR3, SANDB3, VALE3, WEGE3.

Value at Risk

O conceito de Value at Risk (VaR), foi introduzido pelo banco americano JPmorgan nos anos 90. Ele pode ser definido como a perda máxima que pode ocorrer com X% de confiança em um período de t dias.

Existem diferentes métodos possíveis para calcular VaR, diferentes métodos resultam em diferentes resultados. As duas formas mais comuns de se calcular, são através do método paramétrico e do método histórico, também conhecido como método não-paramétrico.

No método paramétrico, assumimos que os retornos seguem uma distribuição conhecida (normalmente a Gaussiana) e calculando o retorno esperado e o desvio padrão, podemos chegar no valor do VaR, para um dado nível de confiança.

Já o método histórico, como o próprio nome mostra, vai utilizar os retornos passados do portfólio para estimar a possível perda futura do mesmo.

De maneira geral, o cálculo da VaR envolve 4 etapas:

1. Determinar o horizonte de tempo em que é desejado estimar a perda potencial.

2. Selecionar o grau de confiança para o VaR que será estimado.

3. Criar uma distribuição probabilística dos possíveis retornos para o portfólio.

4. Calcular o VaR estimado.

Neste artigo serão aplicados o método paramétrico e o método não paramétrico no portfólio previamente montado. Ambos os métodos foram aplicados utilizando os níveis de confiança de 99%, 97,5%, 95%, que são tradicionalmente os níveis de confiança mais utilizados, e foi calculado o VaR do portfólio para 1 dia.

Tabela Descrição gerada automaticamente

O que os resultados nos mostram é que por exemplo, a um nível de confiança de 95%, a perda máxima esperada do nosso portfólio para daqui 1 dia é de 2,96%.

Ressalte-se, porém, que se a perda registrada no período for superior ao VaR calculado, não significa que o cálculo do VaR está incorreto, apenas que o valor da queda está nos valores que excedem o nível de confiança utilizado. Quando se utiliza 95% de nível de confiança, isso significa que existe uma chance de 5% de o valor registrado superar o VaR calculado. Tal fato pode ser visualizado no gráfico abaixo:

Diagrama Descrição gerada automaticamente

Como sendo uma estatística quantitativa, o VaR captura somente riscos que podem ser quantificados, ou seja, ele não captura por exemplo, riscos de liquidez ou riscos operacionais.

Expected Shortfall

A Expected Shortfall, ou também conhecida como Conditional Value at Risk (CVaR), entra como uma espécie de complemento do VaR. Ela responde à pergunta de o que aconteceria se fosse registrado uma perda maior do que a perda máxima calculada pelo VaR. É visando esses casos que se calcula a Expected Shortfall.

A ideia do seu cálculo é selecionar todos os valores que estão fora do nível de confiança, e calcular uma média desses valores. De uma forma análoga, também pode-se definir o cálculo como sendo a área da distribuição que abrange os valores não contemplados pelo VaR

Tabela Descrição gerada automaticamente

Vale destacar que o Extected Shortfall sempre dará um valor superior ao VaR, pois como foi visto pela sua definição, ele trata dos valores superiores ao Value at Risk.

A interpretação dos resultados funciona da mesma maneira que para o VaR. A perda média esperada para o período de 1 dia, caso ela ultrapasse o VaR, a um nível de confiança de 95%, é de 6,04% do valor inicial do portfólio.

Matriz de Correlação

Quando montamos o portfólio, foi destacado a importância de não selecionar muitas ações de empresas de um mesmo setor para evitar que eventos específicos de tais setores tenham uma influência muito grande sobre os cálculos. Em outras palavras, foram evitadas ações de empresas altamente correlacionadas, pois ações de um mesmo setor tendem a ter uma alta correlação.

A forma mais formal de analisar a correlação das ações de um portfolio de ações é através de uma Matriz de Correlação. Com ela podemos analisar como as diferentes ações do portfólio se correlacionam e avaliar de uma forma geral se a carteira está muito concentrada.

Tabela Descrição gerada automaticamente

Analisando a Matriz de Correlação do portfólio, podemos ver que ele aparenta ser composto por ações não muito correlacionadas entre si. Como dito, ações de um mesmo setor tendem a ter uma correlação mais alta, podemos ver que as ações do Banco Bradesco (BBDC3) e do Itaú (ITUB3) possuem a maior correlação do portfólio. Por outro lado, a Suzano (SUZB3) e o Banco do Brasil (BBDC3) possuem a correlação mais baixa.

RAPM – Sharpe Ratio

Risk Adjustment Perfomance Measures (RAPM), são métricas de riscos utilizadas para compreender melhor a relação risco e retorno de investimentos. Eles foram criados nos anos 60, pelo William Sharpe, criador do Capital Asset Pricing Model (CAPM), e as duas ferramentas são muito interligadas.

O RAPM mais conhecido é o Sharpe Ratio, ele basicamente nos diz quanto que um investimento está retornando, comparado a uma taxa livre de risco. Ele pode ser calculado pela fórmula abaixo, onde Rp é o retorno do portfólio, Rf a taxa livre de risco e σp o desvio padrão do retorno do portfolio.

No gráfico abaixo, podemos ver o comportamento do índice de Sharpe do portfólio ao longo do tempo, onde a média foi de um pouco inferior a 2.

Gráfico, Linha do tempo Descrição gerada automaticamente com confiança média

Máximo Drawdown

A principal utilidade do Máximo Drawdown é como uma métrica de risco, avaliando o desempenho passado do portfólio. Ele é usado pra nos mostrar as principais quedas passadas que o portfólio teve, em determinado período. No gráfico temos destacado os 5 maiores Drawdowns do portfólio nos últimos 3 anos.

Analisando o gráfico Underwater, podemos ter uma noção de como foram as principais quedas do portfólio nos últimos 3 anos.

Com essa ferramenta podemos observar como foram as quedas passadas do portfólio e, assim, ponderar se é um histórico de quedas que nos faria sentir seguros.

Gráfico, Gráfico de linhas, Gráfico de dispersão Descrição gerada automaticamente

Uma imagem contendo Gráfico Descrição gerada automaticamente

Analisando o gráfico Underwater, podemos ver que não foi um evento raro o portfólio registrar uma queda de aproximadamente 5%. Assim se um investidor não estiver disposto a se expor a uma volatilidade desse nível, o nosso portfólio não seria uma boa escolha de investimento.

Para exemplificar melhor a utilidade deste gráfico, vamos analisar o Underwater plot do Bitcoin.

Gráfico, Histograma Descrição gerada automaticamente

Com ele podemos ver melhor a utilidade desta análise, para visualizar as piores perdas passadas de um ativo ou portfólio. No caso do Bitcoin fica claro que um investidor que deseja investir neste ativo deve estar disposto a passar por períodos de muita volatilidade, enfrentando forte quedas constantemente.

Stress Test

O Stress Test é um processo amplo que pode ser aplicado a um portfólio de investimentos, com o objetivo de verificar como que os ativos seriam afetados de acordo com cenários adversos.

O Stress Test pode ser usado com o intuito de avaliar o desempenho do portfólio como um todo em cenário de instabilidade, e para avaliar o desempenho dos ativos individualmente, e assim permitir analisar quais ativos dentro do portfólio seriam os mais sensíveis a instabilidades no mercado.

Para o portfólio em questão foi aplicado um Stress Test histórico, onde aplicamos o portfólio atual em crises passadas. Os cenários passados utilizados podem ser crises econômicas, políticas, momentos de incerteza sobre o mercado, basicamente qualquer cenário que possa impactar os ativos dentro do portfólio.

Foram selecionados 3 períodos de fortes quedas do mercado e comparado os desempenhos hipotéticos do portfólio nessas quedas, frente ao desempenho que o Ibovespa teve nesses períodos.

Os períodos selecionados foram: o impacto da crise de 2008 na bolsa brasileira, o Joesley Day que ocorreu em 2017 e mais recente, a chegada da pandemia do corona vírus no Brasil em março de 2020.

No gráfico e tabela abaixo temos os resultados da aplicação, e podemos ver que o portfólio não se distanciou muito do desempenho do Ibovespa em nenhuma das situações. O que já era de se esperar, pois o portfólio é composto por algumas das maiores ações do índice.

Gráfico, Gráfico de cascata Descrição gerada automaticamente

Com os resultados do Stress Test obtidos, é possível estabelecer as chamadas Políticas de Resposta. É através delas que, a partir da identificação dos principais pontos fracos do portfólio, buscamos aplicar medidas a fim de fortalecer a carteira, seja com um rebalanceamento do portfolio ou um Hedge com derivativos no mesmo.

Referências

Alexander, Carol. And Sheedy, Elizabeth. The Professional Risk Manager’s Handbook: A Comprehensive Guide to Current Theory and Best Practices. 1 ed. PRMIA Publications, 2005.

JORION, Philippe. Financial Risk Manager Handbook. 3. ed. New Jersey: John Wiley & Sons Inc, 2007

JORION, Philippe. Portfolio Risk: Analytical Methods. Value At Risk: The New Benchmark for Managing Financial Risk. 3. ed.

Posted by Davi Scherer in Derivativos & Riscos, 1 comment
WallStreetBets e a dinâmica do Short Squeeze

WallStreetBets e a dinâmica do Short Squeeze

Ao final de janeiro de 2021, os noticiários e redes sociais passaram a ficar tomadas de comentários acerca do aumento exponencial no preço de várias ações no mercado americano, com destaque para a GameStop, cujo ticker na New York Stock Exchange é GME.

O motivo?  Um Short Squeeze realizado por usuários de um grupo do Reddit chamado WallStreetBets, um grande grupo de investidores pessoa física, que no intuito de “dar o troco” em fundos de investimento – que supostamente entram short em ativos no intuito de ganhar dinheiro sobre investidores pessoa física – realizaram transações com ações e opções gerando um efeito bola de neve que fez com que os preços subissem a patamares estratosféricos.

Mas como é possível realizar tais procedimentos? E por que essa subida foi tão abrupta? Essas e muitas outras questões acerca do Short Squeeze e suas dinâmicas subjacentes serão respondidas neste artigo.

Por que a GameStop?

A primeira pergunta é simples, mas é a mais importante para responder sobre a dimensão que teve o caso.

A GameStop é uma empresa varejista de video-games e entretenimento fundada em 1984. Ela teve seu IPO (initial public offering) em 2002, e desde então sua maior fonte de receita tem sido em eletrônicos e jogos físicos, operando mais de 3500 lojas nos Estados Unidos, Canadá, Austrália, Nova Zelândia e Europa.

A empresa começou a ter dificuldades com a mudança de preferência dos consumidores, que passaram a perder o interesse em jogos físicos, tendo em vista que serviços online como Xbox Live, Playstation Network, Nintendo eShop e Steam, tiveram muita adesão no mercado e ofereciam jogos digitais cuja compra e download podia ser feita no conforto de casa.

Em 2017 a empresa reportou uma queda de 16,4% nas vendas durante os feriados de final de ano. Os anos seguintes se sucederam com o fechamento de lojas, queda no preço das ações, piores resultados e pouca adesão de seu sistema de vendas online, até 2020, quando a pandemia do Covid-19 forçou o fechamento de suas 3500 lojas por aproximadamente três meses.

As vendas digitais cresceram muito, mas a empresa passou a ser criticada pela resposta à pandemia, com empregados e usuários de redes sociais acusando a companhia de colocar os negócios à frente da segurança de seus funcionários e consumidores.

Durante o período de seu declínio, fundos de investimento – assim como investidores pessoa física, mas de maneira menos expressiva – montaram posições vendidas (short) na ação chegando a um ponto onde havia 150% de short interest. A posição short racionalizava-se na ideia de um declínio no valor da ação tendo em vista piores resultados e participação da empresa no mercado. Essa taxa de mais de 100% permitiu o movimento explosivo do short squeeze e logo explicaremos o porquê.

O que é um Short Squeeze?

Um Short Squeeze ocorre quando o preço de uma ação sobe de maneira rápida e acentuada, o que faz com que investidores que apostam na queda do ativo e estejam com posições short em aberto comprem o ativo para evitar perdas. Essas compras aumentam a pressão de compra no ativo e mais uma vez levam a uma subida no preço.

A ideia vem de que os investidores são forçados (ou apertados, na tradução literal) a zerar a sua posição vendida no ativo, geralmente em uma posição na qual já estão perdendo dinheiro e querem limitar as perdas.

Para quem tem familiaridade com o mercado financeiro a ideia de que uma posição short é muito mais arriscada que uma posição long (comprada) já é intuitiva, mas caso o leitor não tenha tanta familiaridade, sua análise é simples: quando o investidor compra uma ação, ele está assumindo um risco com seu capital; em uma posição comprada, o pior risco para este investidor é perder todo seu dinheiro em alguma situação extrema (falência, desastres naturais) que façam o preço da ação cair a zero; já em uma posição vendida o investidor está alugando o ativo para comprá-lo novamente em um período posterior, assumindo o compromisso dessa compra. Num aumento substancial no preço da ação, o prejuízo da posição vendida é ilimitado (pode ser maior que o valor total do capital investido), se uma ação sobe mais de 100% a posição já está perdendo mais capital do que o investidor possui. Em fatores gerais, enquanto um investidor com uma posição comprada comum pode apenas perder todo seu dinheiro, uma posição vendida pode causar, além da perda total, uma dívida adicional sobre o capital investido.

Tendo em vista essa informação, cada vez que o ativo sobe, torna-se crucial para o investidor encerrar sua posição vendida, o qual irá entrar no mercado com uma posição compradora, que força novamente o preço para cima, o que leva o investidor seguinte a encerrar a posição, formando um efeito bola de neve.

Como é possível realizar tais procedimentos?

A ideia mais simples e intuitiva de realizar um short squeeze seria comprar a posição à vista, não? Na verdade, não. No Brasil, dias depois de noticiados os acontecimentos com a GameStop, investidores se organizaram em um grupo de Telegram, juntando mais de 40 mil membros, com o objetivo de recriar o movimento no papel IRBR3, ou IRB Brasil RE, uma resseguradora brasileira. Percebeu-se no mercado no dia seguinte inúmeras compras do papel à vista, fazendo ele fechar com um aumento de 18%, realmente significativo, mas que não se manteve.

Para realizar um movimento desses com o próprio ativo, seria necessário um volume enorme de transações ou a escolha de uma ação pouco negociada, cujo preço é mais suscetível a menores volumes. As alternativas envolvem a negociação de opções e para entendermos a dinâmica que elas oferecem recomendamos o artigo de Introdução ao Mercado de Opções. Caso o leitor já tenha familiaridade e entenda o funcionamento das opções de compra e venda, assim como já conheça as definições de ITM (In The Money), ATM (At The Money) e OTM (Out of The Money), iremos nos direcionar para a explicação de novos conceitos necessários para a criação desses movimentos.

As Letras Gregas

As Gregas são medidas de diferentes dimensões do risco em uma posição em opções, sendo que o objetivo do trader é gerenciar as gregas de modo que todos os riscos sejam aceitáveis. Neste artigo não entraremos a fundo em todas as gregas, apenas no Delta e Gama, as quais são de extrema importância para o caso da GameStop.

Delta

O delta de uma opção (Δ) representa a primeira derivada da função de apreçamento da opção em relação ao preço do ativo subjacente, ou seja, ela representa a taxa de mudança no preço da opção, quando há mudança no preço do ativo. Um delta de 0,4 demonstra que quando o preço da ação subjacente muda em uma pequena quantia, o preço da opção muda em 40% dessa quantia. Essa grega também é interpretada como a inclinação da curva que relaciona o preço da opção com o preço do ativo subjacente (ou seja, a derivada).

Figura 1: Cálculo do Delta

Uma maneira de fazer hedge (proteção) de uma posição de opções de compra emitidas (posição vendida) é comprando Δ vezes o número de ações referentes a essa posição em opções. Por exemplo, se o investidor vendeu uma posição referente a 4000 ações cuja opção possui delta 0,4, sua posição fica protegida quando ele compra 0,4*4000 = 1600 ações. Nesse caso, para qualquer movimento, um ganho na posição vendida vai compensar a perda na posição comprada e vice-versa. Ao montar essa proteção o investidor possui o que chamamos de portfólio Delta Neutro.

Até aqui o delta parece simples assim como sua proteção, apesar disso, ele não é uma variável constante, o que torna a posição do trader neutra apenas por um período relativamente curto, criando a necessidade de rebalanceamento do portfólio.

 Gama

O gama (Γ) de um portfólio é interpretado como a segunda derivada da função de apreçamento da opção em relação ao preço do ativo subjacente, ou seja, ela é a taxa de mudança do delta do portfólio com relação ao preço do ativo subjacente.

Se o gama é pequeno, o delta muda lentamente e os ajustes para manter o portfólio delta neutro precisam ser realizados relativamente poucas vezes. Contudo, se o gama é altamente positivo, o delta se torna bastante sensível ao preço do ativo subjacente. Quando o gama é “grande”, o portfólio diminui de valor se não há mudança no preço da ação, mas aumenta de valor se há uma grande mudança positiva ou negativa.

Desse modo, opções no dinheiro (ATM) são as com maior gama, posição na qual o delta está perto da metade de seus valores possíveis (próximo de 0,5 para calls e -0,5 para puts), pode-se observar também que quando uma opção está muito fora do dinheiro seu delta é próximo de zero e muda de maneira lenta com relação ao preço do ativo subjacente. Quando uma opção está muito dentro do dinheiro, seu delta está próximo de 1 (-1 para puts), mas muda de maneira lenta com relação ao preço do ativo.

Outro fator que afeta o gama é o tempo, além de sua relação negativa com a outra grega Teta (mudança no valor do portfólio com relação à passagem do tempo), ao aproximar-se do vencimento da opção, o gama torna-se explosivo, como demonstrado no gráfico abaixo. Essa dinâmica permite que essa grega se torne um importante fator na execução de um short squeeze, na abordagem chamada Gamma Squeeze.

Figura 2: Gama contra strike e tempo

Market Makers

Os Market Makers (MMs), ou Formadores de Mercado, são pessoas jurídicas cadastradas em suas respectivas bolsas de valores que se comprometem a manter ofertas de compra e venda de forma regular e contínua durante a sessão de negociação, mantendo a liquidez de ativos, facilitando os negócios e mitigando movimentos artificiais nos preços.

Em geral, quem realiza essa função são bancos, corretoras e outras instituições financeiras. Essa função entrega ao investidor a garantia de conseguir vender seu ativo quando precise do dinheiro, permitindo que a transação ocorra a um preço justo do ativo, sem adicionar um prêmio pelo risco de liquidez.

Short Squeeze

A partir dos conceitos demonstrados, o leitor torna-se capaz de entender a dinâmica envolvida no short squeeze e todas as suas particularidades.

A utilização de opções para tal procedimento baseia-se na atuação dos market makers. Quando é aberta uma compra ou venda de opções, a chance é muito maior que esteja sendo realizada a operação com um market maker, o qual é responsável pela emissão ou aquisição das opções para manter a liquidez do mercado, do que com um investidor individual. Mas essa operação realizada pelos MMs também tem como objetivo gerar lucro (não necessariamente na posição em si, mas na taxa de juros recebida na montagem dela), então o preço negociado por eles está baseado em uma análise estatística baseada geralmente no modelo de Black-Scholes-Merton, o qual demonstra a posição que deve ser mantida pela instituição para que eles permaneçam com o delta neutro, assim como o gama permite descobrir quanto ela deve hedgear sua posição.

No caso da GameStop, os grandes volumes vendidos no ativo provenientes da visão pessimista, poderiam ser hedgeados na compra de opções OTM baratas, emitidas pelos MMs, representando a primeira pressão compradora no ativo. Outro movimento ocasionado pelos volumes short, é o stop-loss dos investidores, que consiste em comprar o ativo à vista para sair da posição, pressionando novamente o preço para cima.

Os investidores interessados no short squeeze, ao invés de comprarem opções ATM para forçar o gama dos MMs, começaram a comprar opções OTM com vencimento próximo, por serem muito mais baratas e com gama explosivo (Gamma Squeeze). Isso muda a dinâmica do gama nos cálculos dos market makers, os forçando a comprar mais do papel a vista para hedgear sua posição, neutralizando o gama. 

O caso da GameStop, se tornou notícia mundial e foi realmente um ponto fora da curva, no momento que escrevo este artigo o preço da ação é negociado a cerca de 750% de seu valor antes do short squeeze mas a 40% de seu valor no pico do evento, apesar de estar a mais de um mês de seu acontecimento.

Por fim, um ponto importante trazido pela dinâmica de short squeeze é que da mesma forma que sua subida é abrupta e acentuada, sua queda se confirma. Observe que o gama é baseado na inclinação do delta, e quanto mais longe do strike, menor é o ajuste de hedge das posições, além disso, ao passo que as opções expiram ou seus contratos são executados, o market maker não é mais requerido de manter um hedge, tendo em vista que sua posição não existe. Não importa qual a dinâmica da inversão do movimento, os Gamma Squeezes não são eternos e seu movimento negativo pode ser pior que a subida inicial. Nesses cenários, a volatilidade é imensa, o que torna a previsibilidade quase impossível, por isso, se o investidor não tem pleno conhecimento e consciência da posição que está estabelecendo, a melhor escolha é observar e aprender, tendo em vista que muitos cenários são desastrosos para o capital investido nesses ativos.

Referências

HULL, J. C. Options, futures and other derivatives. 9th. ed. [S.l.]: Pearson, 2015.

Investopedia. Disponivel em: <https://www.investopedia.com/>. Acesso em: 04 Fevereiro 2021.

The Motley Fool. Disponivel em: <https://www.fool.com/>. Acesso em: mar. 2021.

GAMESTOP. Wikipedia. Disponivel em: <https://en.wikipedia.org/wiki/GameStop#GameStop’s_successful_years_(2004%E2%80%932016)>. Acesso em: 04 Fevereiro 2021.

HOUSTECKY, P. Option Gamma. Macroption. ISSN https://www.macroption.com/option-gamma/. Acesso em: 06 mar. 2021.

OPTION Gamma Explained: The Ultimate Guide. ProjectOption. Disponivel em: <https://www.projectoption.com/option-gamma-explained/>. Acesso em: 06 mar. 2021.


Posted by Arthur Vier in Derivativos & Riscos, 0 comments
Contratos futuros no agronegócio

Contratos futuros no agronegócio

O primeiro registro sobre derivativos de risco ocorreu cerca de 2500 anos atrás. O famoso filósofo Tales de Mileto usou de seu conhecimento sobre astronomia para prever que a safra de olivas que se aproximava seria boa, e sabendo disso ele propôs aos donos de prensas de oliva da região de alugá-las para ele durante a safra. Os donos de prensa tinham interesse na proposta pois estariam mitigando o risco de passar por uma safra ruim, ou seja, fizeram hedge.

A previsão de Tales de Mileto se concretizou e os produtores de oliva tiveram uma farta colheita. Como o filósofo havia alugado todas as prensas de oliva, logo, passou a ser o formador de preço para o uso das prensas, o que fez com que ele auferisse um bom lucro. Desde então, várias formas de derivativos foram criadas para mitigar o risco. Tendo em vista que boa parte do PIB do Brasil origina-se de commodities, é interessante conhecer como o setor agrário se previne de certos riscos.

Tipos de risco:

Assim como em qualquer outro setor da economia, existem os riscos que permeiam o agronegócio, e alguns deles são comuns a outros setores da economia.

• Risco de crédito: Em determinadas negociações, o comprador pode se tornar inadimplente, ou seja, não é capaz de honrar as obrigações pré-estabelecidas. No caso de um contrato futuro o vendedor corre o risco de crédito. Com o intuito de mitigar esse tipo de risco, instituições como Moody’s e Standard & Poor’s criaram grupos de riscos, também conhecidos como ratings, para que sejam cobrados diferentes níveis de prêmio de risco para cada grau de probabilidade de inadimplência. 

• Risco de Liquidez: O risco de liquidez acontece quando a negociação de determinado ativo não atende ao preço de mercado, ou seja, é oferecido um desconto com o intuito de que ele seja negociado mais rápido. Este tipo de risco pode estar presente também no fluxo de caixa das empresas, pois as mesmas podem não ser capazes de liquidar suas despesas de curto prazo, o que destaca uma deficiência no capital de giro da empresa. 

• Risco de mercado: Mudanças em variáveis de mercado, como taxa de juros, câmbio e outros fatores externos como a política podem interferir tanto no exercício de empresas como na gestão de commodities agrícolas. O câmbio pode causar grande impacto aos produtores tendo em vista que alguns insumos são comprados no mercado internacional e caso o dólar esteja alto, importadores incorrem em custos mais altos. 

• Risco Operacional: Os eventos internos da empresa acarretam em riscos operacionais. Esse tipo de risco é caracterizado principalmente por falhas humanas, problemas tecnológicos e acidentes. Este tipo de risco está diretamente ligado a boa parte do setor agrário.

Além dos riscos citados acima, vale ressaltar que o agronegócio é diretamente dependente do clima, logo, algumas commodities podem ser gravemente afetadas por longos períodos de seca ou também por altos níveis de chuva. 

Agora que o leitor já tem conhecimento de alguns dos riscos que o agronegócio envolve, podemos entrar no foco deste artigo – uma das principais ferramentas usadas para minimizar os riscos – os contratos futuros.

Como funciona um contrato futuro:

Os derivativos são ferramentas financeiras que derivam de um ativo e estabelecem uma relação de compra e venda em uma data futura a um preço pré-estabelecido. Neste processo, uma das partes está passando um risco para outra parte e pagando um prêmio por isso. 

O contrato futuro é um derivativo no qual vendedor e comprador negociam determinado ativo objeto para uma data futura por um preço fixado antecipadamente. Normalmente a liquidação destes contratos são feitos de forma financeira, sendo pouco usual a liquidação com entrega fixa da mercadoria, uma das justificativas para tal medida é o aumento da liquidez. 

O sistema da BM&F Bovespa realiza o ajuste diário das posições, logo, para que isso seja possível sem que os negociantes corram risco de crédito, a BM&F exige uma margem de garantia, que pode ser feita com uso de outros ativos financeiros como FII, ações, CDBs e outros. 

O negociante que possui um contrato de compra ou venda e pretende fechar sua posição precisa comprar outro contrato em sentido oposto, ou seja, se um investidor possui 3 contratos de compra de café arábica com vencimento para dezembro de 2020 e quer fechar sua posição, ele precisa vender 3 contratos futuros de café arábica para vencimento em dezembro de 2020. 

O código de negociação consiste em 3 letras iniciais que indicam qual é o ativo objeto, uma quarta letra que indica o mês de vencimento e 2 números que indicam em qual ano o contrato vence.

O contrato futuro de café arábica com vencimento em dezembro de 2020, por exemplo, tem o seguinte código: ICFZ20.

Os contratos futuros são usados geralmente nas seguintes ocasiões:

Hedge: No caso dos produtores, a fixação de preços garante uma margem de lucro e que todos os custos de produção sejam pagos, já no caso de compradores de commodities, a fixação de preço garante que mesmo que ocorra um aumento, o preço final não será afetado. 

  • Produtores podem vender a produção de uma colheita antes mesmo de plantar, vendendo seu produto no mercado futuro; 
  • Produtores com caixa bem estruturado podem estocar as commodities e esperar para vender no período de entressafra, neste caso o produtor pode fazer a venda de contrato futuro para ter certeza que conseguirá garantir um bom preço;
  • Compradores que esperam a alta no preço de determinado produto podem fazer um hedge comprando contratos futuros;

• Especulação: Os investidores que tem familiaridade com o funcionamento de commodities podem usar os contratos futuros para especular com a alta e baixa dos preços; 

• Ganhos com Spread: Spread é o nome que se dá para quando o investidor obtém lucro com a diferença de preço do contrato do mesmo produto para vencimentos em datas diferentes.

Contratos futuros agrários negociadas na BM&F Bovespa e suas particularidades:

Os contratos futuros, além da margem de garantia obrigatória imposta pela BM&F, têm também outras taxas que devem ser levadas em consideração na hora de negociar, como a TOB (Taxa Operacional Básica), taxa de liquidação, taxa de corretagem da corretora, taxa emolumentos e serviços prestados pela BM&F Bovespa além do imposto de renda.

Exemplos:

• Exemplo 1 – Hedge de compra de milho: Uma empresa do ramo alimentício que tem o milho como insumo, teme a alta de preços em um horizonte de 6 meses, logo, a melhor saída é fazer a compra de contrato futuro de milho. Como a empresa terá necessidade de 4500 sacas de milho, precisa comprar 10 contratos.  

A saca de milho com vencimento para daqui 6 meses está cotada a R$77,00 , logo, a empresa comprará 10 contratos por R$346.500 (4500 sacas por R$77,00 cada)

Supondo que a alta temida pela empresa se concretize e que a saca de milho chegue a R$85 na data de vencimento, os ajustes diários resultarão no seguinte valor:

(−77 + 85) ∗ 4500 = R$ 36.000

Então na data de vencimento do contrato a empresa compra no mercado a vista 4500 sacas por R$85:

85 ∗ 4500 = 𝑅$382.500

Levando em consideração a margem obtida pelo hedge, a empresa chega no valor inicial de R$346.500:

382.000 − 36.000 = 𝑅$346.500

• Exemplo 2 – Hedge de venda de boi gordo: Um criador de boi quer se prevenir da queda no preço da arroba de boi gordo para que ele consiga arcar com todos os custos e não tenha nenhuma surpresa. Tendo em vista que em 3 meses o criador terá 8.250 arrobas de boi gordo, o criador precisa vender cerca de 25 contratos futuros.

Com o contrato de futuro de boi gordo cotado a R$273,00/@, a venda de 25 contrato totaliza R$2.252.250,00. 

Supondo que o preço do contrato futuro caia para R$265,00/@, os ajustes diários resultarão no seguinte valor:

(273 − 265) ∗ 8250 = 𝑅$66.000

Na data de vencimento do contrato, a posição do criador é fechada, a venda dos bois no mercado físico rende para ele:

265 ∗ 8250 = 𝑅$2.186.250

Somando ao valor dos ajustes diários feito pelo criador de gados, volta-se ao valor que cobrirá todos os custos e renderá lucro ao produtor:

2.186.250 + 66.000 = 𝑅$2.252.250,00

Apesar de os exercícios acima não abordarem as taxas de serviços da bolsa de valores e o imposto de renda, o investidor que pretende negociar contratos futuros precisa levá-los em consideração, tendo em vista que as taxas podem diminuir a margem de lucro do negociante.

Conclusão:

Os contratos futuros são uma das principais ferramentas de proteção que o investidor ligado ao agronegócio possui hoje. Como foi apresentado no decorrer do artigo, o uso deles pode garantir que os produtores consigam uma margem de lucro mesmo negociando as commodities em um grande horizonte de tempo.

Referências:

Miceli, W. M. (2017). Derivativos de agronegócios: Gestão de riscos de mercado. São Paulo : Saint Paul Editora. 

Contrato Futuro de Milho na BM&F. Disponível em: <https://br.advfn.com/investimentos/futuros/milho> . Acesso em: 14 de outubro de 2020. 

Contrato Futuro de Café na BM&F. Disponível em: <https://br.advfn.com/investimentos/futuros/cafe> . Acesso em: 14 de outubro de 2020. 

Contrato Futuro de Soja na BM&F. Disponível em: <https://br.advfn.com/investimentos/futuros/soja> . Acesso em: 14 de outubro de 2020.

Contrato Futuro de Boi Gordo na BM&F. Disponível em: <https://br.advfn.com/investimentos/futuros/boi-gordo> . Acesso em: 14 de outubro de 2020. 

Contrato Futuro de Etanol Hidratado na BM&F. Disponível em: <https://br.advfn.com/investimentos/futuros/etanol> . Acesso em: 14 de outubro de 2020. 

CONTRATO FUTURO DE AÇÚCAR CRISTAL COM LIQUIDAÇÃO FINANCEIRA. Disponível em: <http://www.bmf.com.br/bmfbovespa/pages/Contratos1/Agropecuarios/pdf/Contrato-Futuro-de-Acucar-Cristal-Especial.pdf> . Acesso em: 14 de outubro de 2020.

Posted by Nelson Gaudêncio Inácio Ambros in Derivativos & Riscos, 2 comments
Índice Beta

Índice Beta

O que é o Índice Beta?

Um dos indicadores mais utilizados e mais famosos para análise do risco de um portfólio ou de um ativo específico é o Índice Beta. Muito difundido entre os investidores, principalmente os que fazem uma análise fundamentalista, o Beta é utilizado como uma proxy de risco, ele é uma medida de sensibilidade entre por exemplo, uma ação e um Índice como o Ibovespa. Assim, uma vez que sabemos o Beta de diversos ativos, é possível compará-los e descobrir quais ativos são mais agressivos e quais são mais defensivos.

O Beta de uma ação, por exemplo, pode ser definido como o coeficiente angular de uma regressão linear entre os retornos de um índice como o Ibovespa e os retornos de uma ação, permitindo quantificar o grau de variação de uma ação em função da variação do índice Ibovespa. Assim, podemos dizer que o Beta é uma tentativa matemática de replicar o risco não diversificável de uma economia. 

Aplicabilidades do Beta 

Como comentando, o Beta é utilizado como um indicador para medir a sensibilidade de um ativo em relação a um benchmark do mercado. Por exemplo, se uma ação tem um Beta de 1,4, isso significa que se o Índice Ibovespa subir 10%, a ação subirá 14%. Dessa mesma forma, se o Índice Ibovespa cair 10%, espera-se que a ação caia 14%.

Com isso, podemos usar o Beta para analisar a volatilidade e selecionar os ativos que se encaixam no nosso perfil de investidor, em relação à exposição ao risco. Ações com um Beta maior do que 1 são consideradas ativos com mais riscos, pois são mais voláteis do que o mercado como um todo, e ações com um beta menor do que 1 são consideradas ações mais conservadoras, pois elas são menos voláteis do que o mercado como um todo.

Outra aplicabilidade muito importante do Beta é a sua utilização no Capital Asset Pricing Model (CAPM), principal modelo utilizado para calcular o Custo de Equity, muito importante para a elaboração de modelos de Valuation. Basicamente, o modelo CAPM busca encontrar o retorno esperado de um investimento em um ativo que contém risco.

                                                𝐸(𝑅𝑖= 𝑅𝑓 + 𝜷𝒊[𝐸(𝑅𝑚− 𝑅𝑓

Onde na equação, E(ri) representa o retorno esperado, Rf a taxa livre de risco, βi o Beta do ativo, [E(Rm) – Rf] representa o prêmio de risco. A lógica deste modelo consiste na ideia de que ao se investir em um ativo que contém risco o investidor deverá receber uma taxa de juros livre de risco, que seria o retorno obtido ao se investir em um ativo que não contém risco, mais um prêmio pelo o fato de estar se expondo a um risco, e esse prêmio é ponderado por um grau de específico de cada ativo, que neste caso é o Beta do ativo. Assim, segundo o modelo CAPM, ao investir um ativo com um Beta mais elevado, o investidor pode esperar um retorno maior do que uma aplicação com um Beta mais conservador. 

Como se calcula o Beta? 

Uma das formas de se calcular o Beta de uma ação é dividindo a covariância do retorno da ação com o retorno do índice de mercado pela variância do retorno do mercado.

Uma outra forma, mais prática, de se calcular o Beta é através da estimação de uma regressão linear, na qual o Beta seria o coeficiente angular desta regressão. Para o caso do Beta de uma ação, deve ser feito uma regressão linear entre os retornos de um índice e o da ação que está sendo analisada. Assim, será preciso baixar os dados das cotações passadas da ação e do índice Ibovespa. Recomenda-se pegar entre 3 e 5 anos de cotações passadas, e calcular o retorno percentual mensal deste período analisado. O motivo de se utilizar o retorno mensal é que, se a ação analisada for uma Small Cap, ela provavelmente terá uma liquidez muito baixa, podendo ficar vários dias sem ser negociada, o que afetaria o valor do Beta. Para evitar isso, calcula-se o retorno mensal.

Uma vez calculados os retornos do período, basta realizar a regressão: 

No gráfico acima, temos plotados os retornos do Ibovespa e os retornos da ação da Via Varejo (VVAR3), entre outubro de 2015 e setembro de 2020, e temos traçada a reta de regressão, que nos permite chegar na sua equação e consequentemente no Beta.

Observa-se que encontramos um beta de 2,3 para a VVAR3, o que a classifica como uma ação com um Beta alto e, também, como uma ação com alta volatilidade. Este Beta que calculamos agora, através da regressão, é chamado de Beta estatístico. É este Beta que sites como yahoo finance e Investing.com nos fornecem em suas plataformas. Mas o valor deste Beta estatístico sofre com alguns problemas que tornam o seu resultado não tão preciso, que para serem corrigidos é necessário o cálculo de um outro Beta, que faremos mais a frente.

Problemas do Beta estatístico

Como comentado, o Beta estatístico, calculado através de uma regressão, possui alguns problemas. O primeiro destes problemas, que já foi mencionado, é o de uma possível falta de liquidez na ação, que influenciaria nos resultados do Beta. Foi comentado que esse era o motivo de se utilizar variações mensais nos preços para os cálculos, mas esta solução apenas minimiza o problema, não eliminando-o completamente.

Outro problema do Beta estatístico é que o cálculo dele é feito inteiramente utilizando variáveis passadas, e retornos passados não são garantias de retornos futuros.

 Um dos principais problemas do Beta estatístico é decorrente do seu desvio padrão. No nosso caso da VVAR3, o Beta estatístico que calculamos foi de 2,3 e seu desvio padrão é de 0,3, isso significa que o valor do Beta pode ser qualquer número entre 2 e 2,6 o que pode tirar muita confiança do Beta estatístico. Com o objetivo de corrigir ou minimizar estes problemas, foi criado o Bottom-up Beta. 

Bottom-up Beta

Bottom-up Beta consiste na ideia de que o desvio padrão de uma média de Betas será menor do que a média dos desvios padrões de Betas individuais. Assim, deve-se utilizar um Beta setorial para calcular os Betas individuais de cada empresa, pois desse modo os problemas mencionados anteriormente serão minimizados.

Podemos dividir o cálculo do Bottom-up Beta em 3 etapas:

  1. Calcular o Beta estatístico de todas as empresas do mesmo segmento da
    empresa que está sendo analisada e fazer uma média desse Betas,
    ponderados ao valor de mercado de suas respectivas empresas.
  2. Descobrir qual seria o valor desse Beta se não fosse levado em conta
    grau de alavancagem das empresas 
  3. Colocar apenas a alavancagem da empresa que está sendo analisada de
    volta no Beta. 
Para ficar mais claro, vamos aplicar estas 3 etapas para o caso da Via Varejo (VVAR3)

Na tabela acima, temos empresas que atuam no mesmo segmento que a Via Varejo, são elas; Magazine Luiza (MGLU3), B2W (BTOW3), Lojas Americanas (LAME3) e a própria Via Varejo (VVAR3). Também temos os Betas estatísticos, valor de mercado e a relação dívida/equity de cada empresa.

Realizando a primeira etapa do processo, utilizando os valores da tabela, iremos chegar em um Beta do setor da Via Varejo. Porém, este valor ainda precisa ser trabalhado:

𝛽𝑠𝑒𝑡𝑜𝑟 = 1,20

Faz sentindo pensar que, em momentos de instabilidade no mercado, as empresas que estiverem com um grau de alavancagem mais elevado, tendem a ter ações mais voláteis, e essas empresas pode acabar influenciando no cálculo do Bottom-up Beta. Por isso, é preciso tirar o grau de alavancagem das empresas do cálculo. Para fazer isso, deve-se calcular a relação D/E média do segmento e aplicar na fórmula abaixo, onde t é a alíquota de imposto de renda. Para calcular a relação D/E média do segmento, deve ser respeitada a ponderação pelo valor de mercado de cada empresa, da mesma forma que foi feita para o cálculo do 𝛽𝑠𝑒𝑡𝑜𝑟. Assim,
encontramos uma relação D/E médio do segmento de 0,23.

𝛽𝑑 𝑠𝑒𝑡𝑜𝑟 = 1,04

Agora que temos o Beta desalavancado do setor, falta apenas um passo para encontrarmos o Bottom-up Beta. Como comentado, no passo anterior foi removido o grau da alavancagem das empresas do cálculo do nosso Beta, pois não queremos que ele seja influenciado por empresas muito alavancadas, mas o grau da alavancagem da empresa que nós estamos analisado deve ser sim considerado, ele é o único grau de alavancagem que deve influenciar no nosso cálculo, e por isso colocamos ele de volta no cálculo. Para fazer isso, basta utilizar a mesma fórmula que usamos para encontrar o Beta desalavancado do setor, apenas agora iremos utilizar a relação D/E da empresa que estamos analisando.

𝐵𝑜𝑡𝑡𝑜𝑚 − 𝑢𝑝 𝐵𝑒𝑡𝑎𝑣𝑣𝑎𝑟3 = 1,53

Assim, realizando todas as etapas, foi encontrado um Bottom-up Beta para a VVAR3 de 1,53, uma diferença significativa se comparado ao Beta estatístico encontrado através da regressão linear.

Conclusão 

Sendo assim, foi discutido neste artigo os princípios básicos do índice Beta, algumas das possíveis aplicabilidades dele, como calcular ele através de uma regressão linear, os problemas do Beta estatístico e formas de melhorá-lo utilizando o Bottom-up Beta. 

Como discutido, o índice Beta é um indicador extremamente utilizado por sua fácil interpretação e por poder ser aplicado a um portfólio de investimentos, ou para uma ação específica, e, mesmo tendo os seus problemas, ele se mostra uma ferramenta muito útil para investidores.

Referências

Póvoa, Alexandre. Valuation: Como Precificar Ações. 2 ed. São Paulo: Atlas, 2020.

Alexander, Carol. And Sheedy, Elizabeth. The Professional Risk Manager’s Handbook: A Comprehensive Guide to Current Theory and Best Practices. 1 ed. PRMIA Publications, 2005.

Posted by Davi Scherer in Derivativos & Riscos, 4 comments
Fluxo de Caixa em Risco

Fluxo de Caixa em Risco

Na trajetória sobre quantificação de riscos analisa-se também ativos não financeiros, para isso aborda-se, neste artigo, o modelo denominado Cash-Flow-at-Risk (CFAR), um modelo que utiliza a mesma metodologia do Value-at-Risk, mas modificado para mensurar os riscos do setor corporativo.

A definição do CFAR se assimila a do VaR sendo aquele a pior perda nos fluxos de caixa em determinados nível de confiança e período. O horizonte de tempo é selecionado, geralmente, para corresponder a um ciclo de planejamento corporativo.

Para distinção entre os riscos financeiros e corporativos há duas categorias de preços de mercado, as exposições a valor (Value-exposures) e exposições a fluxo de caixa (Cash Flow-Exposures). As exposições a valor refletem ativos como portfólios com taxas de juros fixas, moedas estrangeiras ou estoque de matéria prima, para modelá-las e mensurá-las, utiliza-se o VaR.

Exposições a fluxo de caixa incluem pagamentos fixos e posições nas quais o fluxo de caixa é incerto e não pode ser agregado diretamente a um valor presente. Por exemplo, vendas futuras ou gastos com matérias primas, desde que não seja possível prever, seguramente, as quantidades necessárias. A dependência entre os riscos dos preços e dos gastos de uma companhia podem ser modelados, enquanto mapear as dependências entre preços e vendas é mais desafiador.

Modelando a incerteza

Para modelagem de riscos nas empresas deve-se levar em conta o viés de operação, a incerteza dos fluxos de caixa futuros e a dependência entre as mudanças nos preços do mercado e nos lucros, requerendo, para isso, modelos flexí­veis. Como exemplo, uma mudança na taxa de câmbio pode afetar de maneira significante as vendas de uma empresa exportadora.

Nesse contexto, algumas modificações ao modelo de Value-at-Risk devem ser efetuadas. Como fluxos de caixa são incertos, não se pode determinar um valor presente, portanto, ao invés de analisar apenas o valor presente, será feita a análise baseada em todos os fluxos de caixa e ao invés de olhar apenas para a distribuição de riscos ao fim do horizonte de tempo, simula-se todo o trajeto desse fator de risco durante o período analisado.

Para o processo de simulação, será utilizado o Passeio Aleatório. Passeio Aleatório é um processo aleatório e sua escolha se baseia na ideia de que os fatores de risco, assim como os preços, só mudam quando os participantes do mercado obtêm novas informações. Se e quando as novas informações estiverem disponí­veis dependerá do acaso. Para utilizá-lo poderá ser feita a combinação do processo estocástico (Passeio Aleatório) com uma tendência (componente determinístico).

Ao realizar as simulações é necessário separar dois diferentes pontos de vista. Primeiro, receita e custos da companhia podem ser considerados, isso é a base para o modelo de CFAR. Segundo, o estabelecimento de pedidos e despesas pode ser simulado nas planilhas de balanço, representando o modelo de Earnings-at-Risk.

Como exemplo, a compra de matérias primas resulta e custos imediatos, mas não necessariamente despesas. A matéria prima só cria despesas ao entrar no processo de produção, portanto, nem todo custo culmina, de uma só vez, em despesas contábeis. Observa-se que a diferença entre modelos de fluxo de caixa (CFAR) e de ganhos (EAR) está nas diferentes inputs, sendo a modelagem matemática idêntica.

Independentemente do modelo escolhido, com ajuda de processos estocásticos pode-se simular quantos cenários de evolução de variáveis necessários. Na realização de aproximadamente 10.000 simulações, pode ser construída uma distribuição com intervalos de confiança bicaudal, na qual o intervalo depende da escolha da probabilidade pelo analista.

Mensuração do CFAR

O primeiro passo na mensuração de risco por meio do CFAR é a criação de um Mapa de Exposição, construído de maneira diferente por cada companhia baseado nos riscos enfrentados em seus setores. Nesse mapa, são identificadas todas as dependências entre volume de vendas e preços, seu objetivo é descrever como receita e despesas da companhia mudam de acordo com variações nos preços enfrentados.

A título de exemplo, pode-se analisar fluxos de caixa contratuais, tal como um contrato de venda de bens em moeda estrangeira, como o dólar. Esse contrato pode ser mapeado como uma posição comprada em dólar, com uma exposição econômica (ou exposição de ganhos) igual ao valor nocional do contrato.

O passo seguinte consiste em descrever a distribuição de risco das variáveis chave para a empresa, como preço de commodities, taxas de juros e taxas de câmbio. No exemplo utilizado anteriormente, seria modelada a evolução da taxa de câmbio BRL/USD, a qual pode ser feita por meio de Simulações de Monte Carlo.

Finalmente, as variáveis financeiras modeladas precisam ser atribuí­das às respectivas exposições econômicas, tornando possível a simulação do fluxo de caixa completo. Esta culmina em uma distribuição de ganhos que pode ser analisada de maneira idêntica ao VaR.

Modelando a exposição econômica

Neste tópico será apresentado apenas um modo de analisar os efeitos de variações no mercado em que a empresa está incluída com o intuito de apresentar a noção de modelagem. O gestor deve ter em vista que diferentes fatores podem ser levados em conta, atribuindo maior ou menor complexidade ao modelo, sua elaboração depende dos setores e indicadores aos quais a empresa está exposta, sendo necessária a adequação para cada realidade.

Seguindo o exemplo do exportador deve-se perguntar: como a taxa de câmbio afeta as receitas? Se a companhia compete com firmas nacionais, a apreciação do real afetará todas as exportadoras igualmente e elas podem ser capazes de aumentar os preços em dólar para cobrir seus custos no caso de a demanda pelo produto ser inelástica. Entretanto, se a companhia compete com exportadores estrangeiros, há possibilidade dela não ser capaz de aumentar os preços, culminando em perdas potencialmente grandes. Esses são casos de baixa e alta exposição ao câmbio.

Para generalizar a modelagem, pode-se escrever as receitas como função do preço do produto em moeda estrangeira (P), da quantidade vendida (Q) e da taxa de câmbio (S) expressa em reais. Assume-se que o preço P é estabelecido para manter Q e a elasticidade de P* em relação a S é η (taxa de mudança em P* dado uma mudança em S). Define-se a Elasticidade η como:

Se as quantidades não forem alteradas, pode-se escrever a receita em reais, ao isolar e , e substituí­-los, como:

Considerando que o exportador não tenha poder sobre o mercado, o preço em moeda estrangeira estabelecido pela companhia não pode ser afetado pela taxa de câmbio implicando que η=0. Nesse caso as receitas vão cair na mesma medida que a moeda deprecia em S.

No caso de o preço ser estabelecido em reais, qualquer depreciação do dólar pode ser balanceada por um aumento no preço P*. No caso de uma compensação perfeita η=-1 então os termos se cancelam e as receitas em dólar não são afetadas.

Por fim, num caso intermediário, o exportador pode ser capaz de compensar apenas parcialmente a queda na taxa de câmbio. Por exemplo, se η=-0,5, há necessidade de adequar as simulações de Monte Carlo utilizadas para derivar a distribuição de fluxos de caixa fazendo com que leve em conta o efeito da competitividade.

CFAR Aplicado

Analisando uma fábrica de ferramentas brasileira, que produz martelos e chaves inglesas, que são vendidos em caixas de 100 unidades. Uma caixa de martelos utiliza 50 kg de madeira e 100 kg de aço, enquanto uma caixa de chaves inglesas utiliza 10 kg de alumínio e 25 kg de cobre. O preço de venda de uma caixa de martelos é de US$ 110,00 e uma de chaves inglesas R$ 230,00.

Todas as matérias primas são negociadas em dólar, assim como as mercadorias prontas que são exportadas, além disso, a forte competição do setor não permite que mudanças no preço das matérias primas ou apreciação do câmbio sejam repassadas para os consumidores por meio de aumento de preços.

No dia 28/05/2020, o departamento de vendas da empresa planeja vender mensalmente 1000 caixas de martelos e 500 caixas de chaves inglesas, pelos próximos 12 meses, com variação de até 10%. Portanto, as vendas mensais de martelos serão entre 900 e 1100 caixas, assumindo um desvio padrão de 100, e as vendas de chaves inglesas entre 450 e 550, com desvio padrão de 50.

Primeiramente, monta-se um mapa de exposição, no qual todas as dependências entre volume de vendas e preços são sistematicamente identificadas. Para a companhia analisada, o mapa de exposição é composto por 4 equações e por simplificação assume-se que não há necessidade de estoques. No início de cada mês, as matérias primas são adquiridas e no fim do mês os compradores realizam o pagamento, ou seja, os custos em moeda estrangeira ocorrem no início do mês enquanto as receitas ocorrem no início do mês seguinte. Considerando tempos do transporte, da transferência de fundos e da janela de pagamento, sempre há demora entre o pagamento das matérias primas e venda do produto final, fazendo com que os pagamentos sejam feitos com taxas de câmbio diferentes.

Para ser capaz de lidar com aumentos inesperados no preço das matérias primas, o fluxo de caixa é calculado após subtrair os gastos com estas. Por exemplo, para vendas efetuadas no mês de janeiro, os custos com a matéria prima necessária são subtraí­dos.

Para cada um dos cinco fatores de risco relevantes (preços da madeira, aço, alumínio e cobre e taxa de câmbio BRL/USD) simula-se 10.000 caminhos para os próximos 12 meses (horizonte de planejamento). Estes 10.000 cenários, para os quais são modelados resultados nas mudanças nos fatores de risco com ajuda do mapa de exposição, permitem a simulação de 10.000 fluxos de caixa para o horizonte analisado, permitindo a estimação da distribuição dos fluxos de caixa do ano.

As simulações de Monte Carlo realizadas em R, com evolução baseada no Modelo Browniano Geométrico, foram realizadas utilizando dados da FactSet e agora permitem que sejam simulados os fluxos de caixa de cada um dos meses seguintes ao ponderar pelas quatro equações formadas de acordo com o operacional da empresa:

Agregando as simulações de resultados mensais chega-se à  Distribuição de Resultados Operacionais Anuais, sobre a qual calcula-se um CFAR de R$ 5.080.909,57 com um nível de confiança de 95%, como a distribuição analisada é a distribuição de ganhos, interpreta-se o valor como: o fluxo de caixa com pior desempenho dentre os simulados representa um lucro operacional de R$ 5.080.909,57 reais, com nível de confiança de 95% sobre um período de 12 meses. Já a linha que compreende os 5% melhores resultados da distribuição de ganhos representa um fluxo de caixa de R$ 5.386.815,92.

Por fim, delibera-se que o exemplo utilizado não aborda custos com salários, aluguéis e operação, porém essa abordagem é suscetí­vel à  modelagem das exposições e da operação da empresa, podendo ser aprofundada de acordo com a necessidades do gestor de riscos. O modelo Cash-Flow-at-Risk é o primeiro a abordar de maneira quantificável os riscos enfrentados por instituições não-financeiras e sua utilização tende a aumentar, tornando-se uma maneira eficiente de comparação entre diferentes setores do mercado.

Referências

Jorion, P. 2006. Value at Risk: The New Benchmark for Managing Financial Risk. McGraw-Hill.

Perobelli, F. F., & Securato, J. R. 2005. “Modelo para mediação do fluxo de caixa em risco: aplicação a distribuidoras de energia elétrica.”. Revista de Administração de Empresas

Wiedemann, A., Hager, P., & Roehrl, A. 2003. Integrated Risk Management with Cash-Flow-at-Risk/Earnings-at-Risk methods. RiskNET.

Posted by Arthur Vier in Derivativos & Riscos, 0 comments
Utilização do Modelo GARCH(1,1) na Previsão de Volatilidade

Utilização do Modelo GARCH(1,1) na Previsão de Volatilidade

O objetivo deste artigo é trazer um entendimento sobre o que se trata o modelo GARCH e apresentar uma aplicação em python deste modelo para a previsão de volatilidade. Vamos começar compreendendo como o modelo surgiu e como se destaca em comparação às outras formas de estimar a volatilidade. Em seguida, vamos explicar as propriedades do modelo GARCH(1,1) que será utilizado em nossa aplicação. Por fim, iremos demonstrar como montar a aplicação do modelo em python.

 

A motivação para este artigo foi a relevância que a volatilidade possui atualmente para os estudos de previsão de riscos. Um dos momentos de reconhecimento da importância de se mensurar o efeito da volatilidade ao longo do tempo na análise de riscos, ocorreu quando Robert Engle recebeu o Prêmio Nobel de Economia em 2003, por desenvolver um método estatístico para lidar com esta propriedade das séries econômicas. A Academia Real Sueca de Ciências afirmou que:

 

“Os modelos ARCH de Engle se tornaram ferramentas indispensáveis não apenas para pesquisas, mas também para analistas do mercado financeiro, que os utilizam na formação de ativos e na avaliação de risco de portfólio”.

Por que utilizar o Modelo GARCH para modelagem da volatilidade?

Uma mudança na variância ou volatilidade ao longo do tempo pode causar problemas na modelagem de séries temporais com métodos clássicos. Pois, um aspecto de uma série temporal que esses modelos não captam é uma alteração na variância ao longo do tempo, devido ao fato de que nesses modelos as observações recentes receberiam o mesmo peso que observações mais antigas, que claramente podem não possuir o mesmo impacto ao longo do tempo que uma vez tiveram.

 

É por isso que métodos de estimativa de volatilidade evoluíram para modelos que dão mais peso às informações recentes. Desses primeiros modelos se destacam a família de modelos GARCH, inicialmente proposto por Engle (1982), como ARCH, e generalizado por Bollerslev (1986). Esses métodos fornecem uma maneira de modelar uma mudança na variância de uma série temporal dependente do tempo.


A principal diferença entre eles seria o fato de que enquanto o modelo ARCH(q) demonstra que a variância condicional, ou volatilidade, σt2, em um determinado período, depende da magnitude de uma série de retornos ao quadrado (ou erros quadráticos), rt2, em “q” períodos anteriores, o modelo GARCH(p,q) vai além com componente adicional, sendo este a variância condicional em “p” períodos anteriores. A seguir a equação da variância condicional definida pelo modelo ARCH(q):

1

O modelo GARCH (p,q) possui um termo autorregressivo, como em ARCH(q), com a adição de um termo de média móvel. O termo autorregressivo (p) modela a variância condicional dos erros quadráticos ou simplesmente modela a variância condicional da série temporal ao quadrado, já a parte de média móvel (q) modela a variação do processo. A seguir a equação da variância condicional definida pelo modelo GARCH(p,q):

2

Outro motivo relevante para se usar o modelo GARCH, é que ele pode capturar a aglomeração da volatilidade, ou clusters de volatilidade, sofrida por séries financeiras. Os preços dos ativos são caracterizados por esse fenômeno, que se trata de períodos nos quais os preços exibem grandes variações para um longo período seguido por um período de tranquilidade comparativa.

 

Existem hoje muitas variantes do modelo GARCH, a maioria das quais fornece apenas melhorias marginais no modelo original. Entre essas extensões do modelo GARCH, estão o Integrated GARCH, Exponential GARCH ou EGARCH, GJR-GARCH e outras. A família de modelos GARCH é amplamente utilizada na prática para prever a volatilidade e os retornos do mercado financeiro.



O modelo

Para a maioria das séries financeiras, a utilização do modelo GARCH(1,1) já é suficiente para explicar sua volatilidade, desta forma, para a aplicação que será demonstrada mais a frente, utilizaremos este modelo. Para explicar o modelo, inicialmente consideramos rt como uma série de retornos, partindo disso o modelo GARCH(1.1) é definido como:

3

A equação acima demonstra que o modelo contém um termo defasado de retorno ao quadrado, rt-12, como em ARCH(1), mas também um termo defasado da variação condicional, σt-12, para determinar a variação condicional no período t, σt2.


O termo alfa, α, indica quanto o último retorno observado tem de influência sobre a variância condicional hoje, já o termo beta, β, indica quanto a volatilidade do período anterior deve influenciar a volatilidade hoje. Quanto maior o alfa maior o impacto imediato de choques nos dados da série temporal e quanto maior o beta maior a duração do impacto. Para a estimação dos parâmetros, é utilizado o método de máxima verossimilhança.

 

Uma propriedade este modelo é que todos os parâmetros não são negativos, ω, α, β ≥ 0. Para que o modelo seja estacionário, a soma dos parâmetros alfa e beta deve ser menor que um,  α + β < 1.

Ômega, ω, pode ser a visto como seria a variação se as informações sobre variações passadas não estivessem sendo passadas para o modelo. Ômega também é definido como o produto de um termo gama, γ, e da variância incondicional ou variância de longo prazo, σLR. Enquanto ômega, alfa e beta são os parâmetros de volatilidade do modelo, gama pode ser chamado de parâmetro de assimetria do modelo.

4

A equação acima nos mostra que, para existir a variância incondicional de rt2é necessário que α + β < 1, justificando a restrição de estacionariedade do modelo. É utilizada a expressão a seguir para se estimar um valor para a variância condicional em um período t+i, em outras palavras, está é a fórmula para prever a volatilidade dos próximos períodos.

5

Utilizaremos o log-retorno devido a suas propriedades estatísticas, como a estacionariedade, para calcular os retornos da série temporal.

6

A aplicação em Python

A estimação dos parâmetros e o cálculo para prever a volatilidade serão feitos a seguir, utilizaremos o ambiente do Google Colab e a cotação do dólar será o nosso objeto de estudo.

 

Inicialmente temos que instalar e importar os pacotes que iremos utilizar:

 

 

#Instalação e importação dos pacotes para os buscar os dados e as funções do modelo

!pip install quandl

!pip install arch

import quandl as qdl

from arch import arch_model

 

#Importação de bibliotecas matemáticas e de ciência de dados

import numpy as np

import pandas as pd

 

#Pré definição das configuração dos gráficos

import seaborn as sns

sns.set()

import matplotlib as mpl

mpl.rcParams[‘figure.figsize’] = (155)

 

 

 

Utilizamos o pacote quandl para buscar os dados das cotações do dólar.

 

 

#Definição dos dados

dolar = qdl.get(‘BCB/1’, start_date = ‘2000-01-01’)

 

#Visualização do gráfico das cotações

dolar.rename(columns={“Value”“USD”}, inplace=True)

dolar.plot()

 

 

 

 

#Visualização do gráfico dos retornos

dolar_ret = np.log(dolar/dolar.shift(1)).dropna()

dolar_ret.plot()

 

 


Para esta análise será necessário padronizar os retornos, subtraindo-os de sua média esperada e dividindo pelo seu desvio padrão.

 

 

#Padronização dos retornos

dolar_m = dolar_ret.values.mean()

dolar_dp = dolar_ret.values.std()

dolar_ret_p = (dolar_ret – dolar_m)/dolar_dp

 

 

 

Para estimar um modelo do tipo GARCH, selecionamos a função arch_model do pacote arch instalado anteriormente. A função arch_model pode especificar um modelo GARCH em vez do modelo ARCH se informamos o modelo de volatilidade a ser utilizado, especificando o seguinte argumento da função  vol = ‘GARCH’, assim como os argumentos de defasagem p=1 e q=1 para determinar um modelo GARCH(1,1):

 

 

#Aplicação do Modelo GARCH(1,1) aos dados e vizualização dos resultados

garch_model = arch_model(dolar_ret_p, p=1, q=1, vol=‘GARCH’, dist=‘Normal’)

resultados = garch_model.fit(disp=‘off’)

print(resultados.summary())

 


 

 

#Previsão da volatilidade

resultados_forecast = resultados.forecast(horizon=5)

print(resultados_forecast.variance[-1:])


Cada coluna “h.n” da saída da previsão corresponde a n d períodos a frente, neste caso n dias a frente. A saída é alinhada para que a coluna “Date” represente os dados finais usados para gerar a previsão, de modo que “h.1” na linha “2020-05-29” seja a previsão da volatilidade condicional esperada de um dia à frente, feita usando dados até 29 de meio de 2020.

 

O gráfico hedgehog a seguir mostra os métodos de previsão ao longo do período analisado.
As linhas laranja indicam as previsões em diferentes intervalos de tempo.

 

 

#Visualização do gráfico hedgehog

g_previsões = resultados.hedgehog_plot()




Python Guide for Introductory Econometrics for Finance | Ran Tao & Chris Brooks
Value at Risk: Managing Financial Risk | Philippe Jorion
GARCH Models in Python | Chelsea Yang
Forecast volatility with GARH(1,1) https://youtu.be/oDXw0r0Oqmk
Quandl Data to Python | https://www.quandl.com/tools/python

    


Link para visualizar a programação no Google Colab

https://colab.research.google.com/drive/1cDbLT0vHapiaOqT1ACrTnGfWTqb16xm6?usp=sharing


Posted by Andreza Menezes in Derivativos & Riscos, 4 comments
RAPMs – Markowitz, CAPM e indicadores de risco e retorno

RAPMs – Markowitz, CAPM e indicadores de risco e retorno

RAPMs – Risk Adjusted Performance Measures – Parte 1
 
Diversos artigos do núcleo de Risco & Derivativos abordam a questão de gerenciamento de risco em um portfólio ou instituição. Neles, os membros do Clube de Finanças dissertam sobre métricas como o VaR (Value at Risk), os avanços do ES (Expected Shortfall), Risco de mercado, Princípios de Basileia e Teoria do Valor Extremo. Essas métricas são relacionadas às exposições das instituições financeiras em determinados ativos ou conjunto de ativos (portfólio), normalmente sob responsabilidade de um gestor de risco de mercado. Entretanto, métricas de risco podem ser utilizadas por outros profissionais no mercado financeiro com propósitos diferentes, como o gestor profissional de ativos ou o investidor pessoa física.

No livro Quantitative Methods in Finance (2008), a Profa. Carol Alexander coloca diferentes papéis para o gestor de risco de mercado e o gestor de ativos. O primeiro possui a necessidade de mensurar o risco de um portfólio frequentemente (e.g. diariamente) e não possui como principal preocupação o retorno desse conjunto de ativos. Por outro lado, o gestor de ativos tem como prioridade gerar retorno para seus investidores, assim como reportá-los e contextualizar os riscos envolvidos. Em um fundo de investimentos, por exemplo, essas duas variáveis são observadas em relação ao benchmark.
 
Tomando um fundo de investimentos como referência, caso um gestor considere somente o retorno de um ativo ou portfólio, uma parte excessiva do patrimônio seria alocada em ativos com retornos esperados (E(r)) acima da média, porém, possivelmente com riscos proporcionais. Sob outra perspectiva, caso o gestor considere somente o risco, pouco do patrimônio do fundo seria alocado neste(s) ativo(s).

O intuito do presente artigo é introduzir algumas métricas de risco utilizadas na gestão de ativos, mais precisamente indicadores de risco e retorno, conhecidos como Risk Adjusted Performance Measures (RAPMs).
 
Os primeiros RAPMs foram introduzidos no mercado financeiro durante a década de 60, juntamente com o Capital Asset Pricing Model (CAPM), originalmente proposto por William T. Sharpe (1964) e posteriormente por John Litner (1965). Visto que muitos RAPMs estão ligados ao CAPM, começaremos o artigo com uma revisão desse modelo, já citado em outras publicações do Clube de Finanças. 
O CAPM foi criado com base no trabalho de Harry Markowitz sobre diversificação e teoria moderna de portfólios, introduzida na década de 50. Apesar do tempo, esses trabalhos ainda são amplamente utilizados para estimativas de custo de capital e para avaliações da performance de gestão de portfólios, esse último, objeto deste artigo.
 
De forma breve, o modelo de escolha de portfólio desenvolvido por Markowitz (1959) presume que um investidor no tempo t-1 escolhe um portfólio que produz um retorno estocástico no tempo t. Como premissa, esse investidor é avesso ao risco e preocupa-se somente com a média e variância do retorno nesse período (entre t-1 e t). Nessa escolha, o investidor opta por um portfólio “média-variância-eficiente”, portanto, portfólios que i) minimizam a variância do retorno e ii) maximizam o retorno esperado, dada a variância do retorno.

Fonte: Fama and French (2004)

A figura acima demonstra a intersecção entre o trabalho de Markowitz e o desenvolvimento do CAPM.

 

O eixo horizontal do gráfico mostra o risco de determinado portfólio através do desvio padrão dos retornos e o eixo vertical demonstra o retorno esperado dos portfólios. Ao longo da curva abc, a qual é chamada de “fronteira de variância mínima” ou fronteira eficiente, é possível observar portfólios de ativos que minimizam a variância do retorno em diferentes níveis de retorno esperado, nesse primeiro momento com uma restrição em relação aos empréstimos com taxas livres de risco. No ponto T, por exemplo, o investidor que aceita volatilidade pode encontrar um portfólio com retorno esperado maior sem adicionar tanto risco (portfólios com maior desvio padrão). O ponto T pode ser interpretado como um portfólio “média-variância-eficiente”.

Ao retirarmos a restrição de empréstimos com taxas livres de risco, a fronteira eficiente torna-se uma linha reta, como a que passa pelos pontos Rf e g. Para entendimento dessa curva, podemos imaginar um fundo que investe uma proporção x de seu patrimônio em um ativo livre de risco (títulos do tesouro dos Estados Unidos, T-bills, por exemplo) e 1-x em um portfólio g. Se todo o patrimônio for direcionado para ativos livre de risco, o retorno esperado será o ponto Rf (taxa de juros livre de risco) no eixo vertical. Dessa forma, combinações entre ativos livres de risco e alocações em g formam a linha Rf-g. 

O portfólio g é uma dentre as infinitas combinações de ativos na curva abc e abaixo dela. Considerando a premissa de que o investidor opta por um portfólio ”média-variância-eficiente”, altera-se a inclinação da linha Rf-g até o ponto de tangência T, logo, nesse exemplo, os portfólios eficientes são combinações entre um ativo livre de risco e o portfólio T. Com um entendimento das distribuições dos retornos e a premissa de simetria de informações, os investidores tendem a optar pelo mesmo portfólio T, o qual os autores passam a denominar de M, em alusão ao “mercado”. 

A reta Rf-M é definida como a Capital Market Line (CML), a representação gráfica de diversos portfólios que otimizam combinações de risco e retorno, tanto em cenários de investimento (lend), como captação (borrow) à taxas de juros livres de risco.

Fonte: Alexander (2008)

Feitas as considerações acima, podemos entrar no conceito do CAPM e entender a sua relação com outras métricas que serão apresentadas. O modelo surge como uma forma de explicar o retorno dos ativos como um agregado de componentes do retorno. Tradicionalmente ele é utilizado em um contexto onde um ativo com risco, como por exemplo a ação de uma empresa, está prestes a ser adicionado à um portfólio diversificado e busca responder a seguinte questão: qual deveria ser o retorno adicional para justificar a inclusão deste ativo no portfólio diversificado?

Após a introdução do conceito podemos passar para a sua definição. Originalmente, o modelo CAPM Sharpe-Lintner foi baseado no conceito de equilíbrio de mercado, onde o excesso de retorno esperado de um ativo i (E(Ri) – Rf) seria proporcional ao retorno adicional do mercado (E(Rm)-Rf), aqui citado como o portfólio M.

Equação 1:


Com base na fórmula acima e uma pequena manipulação algébrica, o retorno esperado de um ativo i é a taxa livre de risco Rf, mais um prêmio pelo risco, o qual é definido pelo Beta do ativo i (beta i) multiplicado pelo prêmio por unidade de “risco beta”, E(Rm) – Rf.

Na equação apresentada, o Beta do ativo i é a covariância dos retornos do ativo i e do mercado divididos pela variância do retorno do mercado. Na prática, ele pode ser calculado através de uma regressão linear simples dos retornos do ativo contra os retornos do mercado. O beta será o coeficiente angular da reta de regressão.

 Equação 2:

Ao pensar em um modelo de regressão para estimar o retorno esperado de um ativo, podemos chegar na seguinte equação: 

Equação 3:

 

Onde os componentes da equação continuam com o mesmo significado, porém, o retorno de determinado ativo não é explicado totalmente pelo excesso de retorno do mercado, surge um termo de erro aleatório ẽ. 

Para facilitar o entendimento das métricas que serão apresentadas, faremos uma alteração no CAPM Sharpe-Lintner. Como já foi comentado, as equações 1 e 3 podem ser eficientes para responder a principal questão do CAPM e por consequência estimar o risco sistemático de um ativo individual ou um de um portfólio não gerenciado ativamente. Porém, ao aplicar essa fórmula para um portfólio gerido ativamente, o gestor pode selecionar ativos com um ẽ significativamente maior do que zero, em função de habilidades ou conhecimentos que não estão disseminados no mercado. Com isso, o portfólio não será explicado somente pelo seu beta, o que é plausível em um contexto onde existe um gestor de ativos, portanto, um ponto falho do CAPM Sharpe-Lintner.

Em estudos posteriores, autores como Jensen (1968),  Douglas (1968), Black, Jensen & Scholes (1972), Fama & MacBeth (1973) e Fama & French (1992), encontraram que o intercepto da equação do CAPM é consistentemente maior do que a taxa livre de risco Rf. Além disso, as regressões mostraram que, em média, o prêmio por unidade de “risco beta”, é consistentemente menor do que o excesso de retorno do mercado em relação à taxa livre de risco, E(Rm) – Rf. Dessa forma, para facilitar o entendimento dos próximos tópicos do artigo, adotaremos a equação proposta por Jensen em seu trabalho de análise de performance de fundos mútuos.

 Equação 4:

Onde o intercepto 𝛼 (alpha) pode ser entendido, segundo Jensen, como o retorno médio incremental no portfólio devido à habilidade do gestor de ativos. De outra forma, é possível definir o 𝛼, posteriormente denominado de alpha de Jensen, como o retorno do portfólio não explicado diretamente pelo retorno adicional do mercado em relação ao ativo livre de risco, E(Rm) – Rf.

RAPMs baseados no CAPM

Nessa parte do artigo apresentaremos os RAPMs que surgiram concomitantemente com o CAPM, logo, fazem referência ao modelo. Esses RAPMs introdutórios podem ser utilizados para rankeamento de portfólios por uma ordem de preferência, de acordo com as intenções do investidor ou gestor de ativos. 

Sharpe Ratio 

O Sharpe Ratio foi desenvolvido por WIlliam F. Sharpe e assim como os outros RAPMs leva em conta o retorno de um ativo em relação ao risco. O indicador é interpretado como o excesso de retorno de um ativo em relação ao ativo livre de risco, por unidade de volatilidade (𝜎 desvio padrão).

Aqui, fazemos a primeira referência à parte introdutória do artigo. O Sharpe Ratio é a inclinação da Capital Market Line (CML), portanto, quanto o retorno esperado do ativo ou portfólio aumenta/diminui com mudanças na volatilidade (𝜎 desvio padrão). De forma breve, portfólios com Sharpe ratios maiores tendem a ser priorizados por investidores e gestores de ativos em um rankeamento. É importante pontuar que, ao considerar o E(R) do ativo, presume-se que os retornos sejam normalmente distribuídos, o que muitas vezes não acontece na prática.

Fonte: Alexander (2008)

Treynor Ratio
Supondo a existência de um 𝛼 (vide equação 3) nos retornos de um ativo/portfólio com risco, sob a ótica do CAPM, Treynor propôs um indicador associado à esse retorno não correlacionado com o mercado.

O Treynor Ratio possibilita ordenar portfólios de acordo com os retornos não explicados pelos retornos de mercado, por unidades de risco sistemático (Beta).
 
Information Ratio ou Appraisal Ratio

O appraisal ratio possui suas origens na teoria proposta por RIchard Grinold e aprofundada por Clarke, de Silva e Thorley sobre a Law of Active Management, a qual busca conceituar o valor adicionado pelos gestores de ativos/portfólios. O appraisal ratio foi criado com o objetivo de mensurar e distinguir as habilidades dos gestores de ativos.

Como é possível observar na fórmula acima, gestores de portfólios com retornos ativos (𝛼) por unidade de risco (𝜎 desvio padrão), possuem um appraisal ratio maior.

Limitações

O CAPM tem sido utilizado de forma ampla desde a década de 60 até os dias atuais e diversas adaptações foram feitas ao modelo, como é possível observar na equação 4 e nos estudos de Jensen (1968),  Douglas (1968), Black, Jensen & Scholes (1972), Fama & MacBeth (1973) e Fama & French (1992) citados anteriormente. Mesmo com a utilização frequente do CAPM, faz-se necessário entender as suas limitações e rigidez nas premissas. 

O CAPM Sharpe-Lintner define que o prêmio de risco esperado por um ativo está relacionado somente com o seu risco sistemático, ou seja, a sua relação com o retorno adicional de um portfólio de mercado (E(Rm) – Rf). Conforme comentado anteriormente, em outros estudos foi possível rejeitar estatisticamente que o prêmio por unidade de “risco beta”, é consistentemente menor do que o excesso de retorno do mercado em relação à taxa livre de risco, E(Rm) – Rf, assim como o intercepto é maior do que o retorno de um ativo livre de risco Rf. Uma alternativa ao modelo CAPM Sharpe-Lintner já foi discutida anteriormente em um artigo do Clube de Finanças. Ao considerar outras variáveis além do retorno do mercado, o modelo de 3 fatores de Fama e French surge como uma alternativa para a precificação de ativos.

Quanto às premissas, o modelo pressupõe que: (1) todos os investidores possuem utilidades de maximização de riqueza, em um período, avessas ao risco e podem escolher diferentes portfólios somente em função de suas médias e variâncias, (2) não existem impostos e custos de transação, (3) todos os investidores têm visões homogêneas sobre os parâmetros da distribuição conjunta de probabilidade dos retornos dos ativos/portfólios e (4) os investidores podem emprestar e tomar emprestado a uma taxa livre de risco. Dessa maneira, podemos perceber que existe certa rigidez nas premissas e na formatação do modelo ao considerar, por exemplo, que o retorno adicional de um ativo é explicado somente pelo retorno do mercado ou que todos os investidores possuem visões homogêneas sobre o comportamento da distribuição de retorno de um ativo.

Parte 2
 
Na parte dois falaremos sobre o Kappa, Omega e Sortino Ratios, assim como traremos algumas aplicações práticas desses índices.
 
> Referências

Jensen, Michael C., The Performance of Mutual Funds in the Period 1945-1964. Journal of Finance, Vol. 23, No. 2, pp. 389-416, 1967.

Vidyamurthy, Ganapathy. Pairs trading : quantitative methods and analysis. Hoboken, N.J.: J. Wiley, 2004.

Jensen, Michael C. and Black, Fischer and Scholes, Myron S., The Capital Asset Pricing Model: Some Empirical Tests. Praeger Publishers Inc., 1972.

Alexander, Carol. “Market Risk Analysis, Quantitative methods in finance”. John Wiley & Sons, 2008.

Leibowitz, Martin L. Modern portfolio management: active long/short 130/30 equity strategies, 2009.

Sharpe, William F. Capital Asset Prices: A Theory of Market Equilibrium under Conditions of Risk, The Journal of Finance, Vol. 19, No. 3, 1964.

Fama, Eugene F. and French, Kenneth R. The Capital Asset Pricing Model: Theory and Evidence, Journal of Economic Perspectives, Volume 18, Number 3, 2004.

Posted by Thiago Ranzolin Barreto in Derivativos & Riscos, Equity Research, 0 comments