Opções

WallStreetBets e a dinâmica do Short Squeeze

WallStreetBets e a dinâmica do Short Squeeze

Ao final de janeiro de 2021, os noticiários e redes sociais passaram a ficar tomadas de comentários acerca do aumento exponencial no preço de várias ações no mercado americano, com destaque para a GameStop, cujo ticker na New York Stock Exchange é GME.

O motivo?  Um Short Squeeze realizado por usuários de um grupo do Reddit chamado WallStreetBets, um grande grupo de investidores pessoa física, que no intuito de “dar o troco” em fundos de investimento – que supostamente entram short em ativos no intuito de ganhar dinheiro sobre investidores pessoa física – realizaram transações com ações e opções gerando um efeito bola de neve que fez com que os preços subissem a patamares estratosféricos.

Mas como é possível realizar tais procedimentos? E por que essa subida foi tão abrupta? Essas e muitas outras questões acerca do Short Squeeze e suas dinâmicas subjacentes serão respondidas neste artigo.

Por que a GameStop?

A primeira pergunta é simples, mas é a mais importante para responder sobre a dimensão que teve o caso.

A GameStop é uma empresa varejista de video-games e entretenimento fundada em 1984. Ela teve seu IPO (initial public offering) em 2002, e desde então sua maior fonte de receita tem sido em eletrônicos e jogos físicos, operando mais de 3500 lojas nos Estados Unidos, Canadá, Austrália, Nova Zelândia e Europa.

A empresa começou a ter dificuldades com a mudança de preferência dos consumidores, que passaram a perder o interesse em jogos físicos, tendo em vista que serviços online como Xbox Live, Playstation Network, Nintendo eShop e Steam, tiveram muita adesão no mercado e ofereciam jogos digitais cuja compra e download podia ser feita no conforto de casa.

Em 2017 a empresa reportou uma queda de 16,4% nas vendas durante os feriados de final de ano. Os anos seguintes se sucederam com o fechamento de lojas, queda no preço das ações, piores resultados e pouca adesão de seu sistema de vendas online, até 2020, quando a pandemia do Covid-19 forçou o fechamento de suas 3500 lojas por aproximadamente três meses.

As vendas digitais cresceram muito, mas a empresa passou a ser criticada pela resposta à pandemia, com empregados e usuários de redes sociais acusando a companhia de colocar os negócios à frente da segurança de seus funcionários e consumidores.

Durante o período de seu declínio, fundos de investimento – assim como investidores pessoa física, mas de maneira menos expressiva – montaram posições vendidas (short) na ação chegando a um ponto onde havia 150% de short interest. A posição short racionalizava-se na ideia de um declínio no valor da ação tendo em vista piores resultados e participação da empresa no mercado. Essa taxa de mais de 100% permitiu o movimento explosivo do short squeeze e logo explicaremos o porquê.

O que é um Short Squeeze?

Um Short Squeeze ocorre quando o preço de uma ação sobe de maneira rápida e acentuada, o que faz com que investidores que apostam na queda do ativo e estejam com posições short em aberto comprem o ativo para evitar perdas. Essas compras aumentam a pressão de compra no ativo e mais uma vez levam a uma subida no preço.

A ideia vem de que os investidores são forçados (ou apertados, na tradução literal) a zerar a sua posição vendida no ativo, geralmente em uma posição na qual já estão perdendo dinheiro e querem limitar as perdas.

Para quem tem familiaridade com o mercado financeiro a ideia de que uma posição short é muito mais arriscada que uma posição long (comprada) já é intuitiva, mas caso o leitor não tenha tanta familiaridade, sua análise é simples: quando o investidor compra uma ação, ele está assumindo um risco com seu capital; em uma posição comprada, o pior risco para este investidor é perder todo seu dinheiro em alguma situação extrema (falência, desastres naturais) que façam o preço da ação cair a zero; já em uma posição vendida o investidor está alugando o ativo para comprá-lo novamente em um período posterior, assumindo o compromisso dessa compra. Num aumento substancial no preço da ação, o prejuízo da posição vendida é ilimitado (pode ser maior que o valor total do capital investido), se uma ação sobe mais de 100% a posição já está perdendo mais capital do que o investidor possui. Em fatores gerais, enquanto um investidor com uma posição comprada comum pode apenas perder todo seu dinheiro, uma posição vendida pode causar, além da perda total, uma dívida adicional sobre o capital investido.

Tendo em vista essa informação, cada vez que o ativo sobe, torna-se crucial para o investidor encerrar sua posição vendida, o qual irá entrar no mercado com uma posição compradora, que força novamente o preço para cima, o que leva o investidor seguinte a encerrar a posição, formando um efeito bola de neve.

Como é possível realizar tais procedimentos?

A ideia mais simples e intuitiva de realizar um short squeeze seria comprar a posição à vista, não? Na verdade, não. No Brasil, dias depois de noticiados os acontecimentos com a GameStop, investidores se organizaram em um grupo de Telegram, juntando mais de 40 mil membros, com o objetivo de recriar o movimento no papel IRBR3, ou IRB Brasil RE, uma resseguradora brasileira. Percebeu-se no mercado no dia seguinte inúmeras compras do papel à vista, fazendo ele fechar com um aumento de 18%, realmente significativo, mas que não se manteve.

Para realizar um movimento desses com o próprio ativo, seria necessário um volume enorme de transações ou a escolha de uma ação pouco negociada, cujo preço é mais suscetível a menores volumes. As alternativas envolvem a negociação de opções e para entendermos a dinâmica que elas oferecem recomendamos o artigo de Introdução ao Mercado de Opções. Caso o leitor já tenha familiaridade e entenda o funcionamento das opções de compra e venda, assim como já conheça as definições de ITM (In The Money), ATM (At The Money) e OTM (Out of The Money), iremos nos direcionar para a explicação de novos conceitos necessários para a criação desses movimentos.

As Letras Gregas

As Gregas são medidas de diferentes dimensões do risco em uma posição em opções, sendo que o objetivo do trader é gerenciar as gregas de modo que todos os riscos sejam aceitáveis. Neste artigo não entraremos a fundo em todas as gregas, apenas no Delta e Gama, as quais são de extrema importância para o caso da GameStop.

Delta

O delta de uma opção (Δ) representa a primeira derivada da função de apreçamento da opção em relação ao preço do ativo subjacente, ou seja, ela representa a taxa de mudança no preço da opção, quando há mudança no preço do ativo. Um delta de 0,4 demonstra que quando o preço da ação subjacente muda em uma pequena quantia, o preço da opção muda em 40% dessa quantia. Essa grega também é interpretada como a inclinação da curva que relaciona o preço da opção com o preço do ativo subjacente (ou seja, a derivada).

Figura 1: Cálculo do Delta

Uma maneira de fazer hedge (proteção) de uma posição de opções de compra emitidas (posição vendida) é comprando Δ vezes o número de ações referentes a essa posição em opções. Por exemplo, se o investidor vendeu uma posição referente a 4000 ações cuja opção possui delta 0,4, sua posição fica protegida quando ele compra 0,4*4000 = 1600 ações. Nesse caso, para qualquer movimento, um ganho na posição vendida vai compensar a perda na posição comprada e vice-versa. Ao montar essa proteção o investidor possui o que chamamos de portfólio Delta Neutro.

Até aqui o delta parece simples assim como sua proteção, apesar disso, ele não é uma variável constante, o que torna a posição do trader neutra apenas por um período relativamente curto, criando a necessidade de rebalanceamento do portfólio.

 Gama

O gama (Γ) de um portfólio é interpretado como a segunda derivada da função de apreçamento da opção em relação ao preço do ativo subjacente, ou seja, ela é a taxa de mudança do delta do portfólio com relação ao preço do ativo subjacente.

Se o gama é pequeno, o delta muda lentamente e os ajustes para manter o portfólio delta neutro precisam ser realizados relativamente poucas vezes. Contudo, se o gama é altamente positivo, o delta se torna bastante sensível ao preço do ativo subjacente. Quando o gama é “grande”, o portfólio diminui de valor se não há mudança no preço da ação, mas aumenta de valor se há uma grande mudança positiva ou negativa.

Desse modo, opções no dinheiro (ATM) são as com maior gama, posição na qual o delta está perto da metade de seus valores possíveis (próximo de 0,5 para calls e -0,5 para puts), pode-se observar também que quando uma opção está muito fora do dinheiro seu delta é próximo de zero e muda de maneira lenta com relação ao preço do ativo subjacente. Quando uma opção está muito dentro do dinheiro, seu delta está próximo de 1 (-1 para puts), mas muda de maneira lenta com relação ao preço do ativo.

Outro fator que afeta o gama é o tempo, além de sua relação negativa com a outra grega Teta (mudança no valor do portfólio com relação à passagem do tempo), ao aproximar-se do vencimento da opção, o gama torna-se explosivo, como demonstrado no gráfico abaixo. Essa dinâmica permite que essa grega se torne um importante fator na execução de um short squeeze, na abordagem chamada Gamma Squeeze.

Figura 2: Gama contra strike e tempo

Market Makers

Os Market Makers (MMs), ou Formadores de Mercado, são pessoas jurídicas cadastradas em suas respectivas bolsas de valores que se comprometem a manter ofertas de compra e venda de forma regular e contínua durante a sessão de negociação, mantendo a liquidez de ativos, facilitando os negócios e mitigando movimentos artificiais nos preços.

Em geral, quem realiza essa função são bancos, corretoras e outras instituições financeiras. Essa função entrega ao investidor a garantia de conseguir vender seu ativo quando precise do dinheiro, permitindo que a transação ocorra a um preço justo do ativo, sem adicionar um prêmio pelo risco de liquidez.

Short Squeeze

A partir dos conceitos demonstrados, o leitor torna-se capaz de entender a dinâmica envolvida no short squeeze e todas as suas particularidades.

A utilização de opções para tal procedimento baseia-se na atuação dos market makers. Quando é aberta uma compra ou venda de opções, a chance é muito maior que esteja sendo realizada a operação com um market maker, o qual é responsável pela emissão ou aquisição das opções para manter a liquidez do mercado, do que com um investidor individual. Mas essa operação realizada pelos MMs também tem como objetivo gerar lucro (não necessariamente na posição em si, mas na taxa de juros recebida na montagem dela), então o preço negociado por eles está baseado em uma análise estatística baseada geralmente no modelo de Black-Scholes-Merton, o qual demonstra a posição que deve ser mantida pela instituição para que eles permaneçam com o delta neutro, assim como o gama permite descobrir quanto ela deve hedgear sua posição.

No caso da GameStop, os grandes volumes vendidos no ativo provenientes da visão pessimista, poderiam ser hedgeados na compra de opções OTM baratas, emitidas pelos MMs, representando a primeira pressão compradora no ativo. Outro movimento ocasionado pelos volumes short, é o stop-loss dos investidores, que consiste em comprar o ativo à vista para sair da posição, pressionando novamente o preço para cima.

Os investidores interessados no short squeeze, ao invés de comprarem opções ATM para forçar o gama dos MMs, começaram a comprar opções OTM com vencimento próximo, por serem muito mais baratas e com gama explosivo (Gamma Squeeze). Isso muda a dinâmica do gama nos cálculos dos market makers, os forçando a comprar mais do papel a vista para hedgear sua posição, neutralizando o gama. 

O caso da GameStop, se tornou notícia mundial e foi realmente um ponto fora da curva, no momento que escrevo este artigo o preço da ação é negociado a cerca de 750% de seu valor antes do short squeeze mas a 40% de seu valor no pico do evento, apesar de estar a mais de um mês de seu acontecimento.

Por fim, um ponto importante trazido pela dinâmica de short squeeze é que da mesma forma que sua subida é abrupta e acentuada, sua queda se confirma. Observe que o gama é baseado na inclinação do delta, e quanto mais longe do strike, menor é o ajuste de hedge das posições, além disso, ao passo que as opções expiram ou seus contratos são executados, o market maker não é mais requerido de manter um hedge, tendo em vista que sua posição não existe. Não importa qual a dinâmica da inversão do movimento, os Gamma Squeezes não são eternos e seu movimento negativo pode ser pior que a subida inicial. Nesses cenários, a volatilidade é imensa, o que torna a previsibilidade quase impossível, por isso, se o investidor não tem pleno conhecimento e consciência da posição que está estabelecendo, a melhor escolha é observar e aprender, tendo em vista que muitos cenários são desastrosos para o capital investido nesses ativos.

Referências

HULL, J. C. Options, futures and other derivatives. 9th. ed. [S.l.]: Pearson, 2015.

Investopedia. Disponivel em: <https://www.investopedia.com/>. Acesso em: 04 Fevereiro 2021.

The Motley Fool. Disponivel em: <https://www.fool.com/>. Acesso em: mar. 2021.

GAMESTOP. Wikipedia. Disponivel em: <https://en.wikipedia.org/wiki/GameStop#GameStop’s_successful_years_(2004%E2%80%932016)>. Acesso em: 04 Fevereiro 2021.

HOUSTECKY, P. Option Gamma. Macroption. ISSN https://www.macroption.com/option-gamma/. Acesso em: 06 mar. 2021.

OPTION Gamma Explained: The Ultimate Guide. ProjectOption. Disponivel em: <https://www.projectoption.com/option-gamma-explained/>. Acesso em: 06 mar. 2021.


Posted by Arthur Vier in Derivativos & Riscos, 0 comments
Estratégias Iniciais no Mercado de Opções

Estratégias Iniciais no Mercado de Opções

Se você anda pesquisando sobre o mercado financeiro ou possui particular interesse nesse campo, com certeza você já esbarrou na palavra “derivativos”. Ao longo do tempo esse mercado adquiriu grande representatividade para os agentes econômicos, servindo como mecanismo de proteção contra a oscilação de preços e também como ferramenta para a especulação.

De maneira intuitiva podemos entender os derivativos como títulos que possuem origem em outro mercado ou que estão intimamente relacionados à esse mercado. De forma pragmática, “Derivativos são títulos cujos valores dependem dos valores de outras variáveis mais básicas”, Antonio Carlos Figueiredo (2016, p. 01). Temos como alguns exemplos desses instrumentos, o mercado futuro de petróleo, cujo preço depende dos volumes e patamares de preços no mercado à vista de petróleo.

Com o objetivo de diferenciar o mercado de derivativos do entendimento usual de que um “título” = “investimento”, Martin Mayer define a utilização desse mercado: “Não se pode dizer que uma operação com derivativos é um investimento. Na realidade, representa uma expectativa da direção, dimensão, duração e velocidade das mudanças do valor de outro bem que lhe serve de referência” (Martin Mayer, artigo “The Next Generation”, revista The Bankers, 1997).

Dentro desse mercado podemos segmentá-lo em quatro tipos: a termo, futuro, de opções e de swap. O último, em função da sua semelhança com o mercado a termo, não é considerado por alguns especialistas como uma quarta modalidade de derivativo.

Nesse artigo daremos continuidade ao estudo sobre o mercado de opções. Em consonância com o primeiro post publicado no blog do Clube de Finanças, “Introdução ao Mercado de Opções”, vamos apresentar algumas estratégias que podem ser operacionalizadas nesse mercado, usando as posições conhecidas como “travas”, utilizadas essas com o objetivo de limitar o risco. Analisaremos as principais estratégias dentro dessa posição, começando pelas “Posições Sintéticas”, “Travas de alta e baixa” e a estratégia “Butterfly”.

Estratégias

  • Posições Sintéticas

Dentre as posições sintéticas temos, de forma pragmática, uma situação cujo investidor acredita numa determinada situação de mercado (como por exemplo, uma elevação do Ibovespa), mas, para se proteger de algum possível erro na sua predisposição ele mescla algumas estratégias para proteção (hedge). Então, iremos aos exemplos desde expectativa de alta, quanto baixa de mercado:

De início, assumindo uma expectativa de alta no mercado, o indivíduo fica comprado no índice Bovespa (exemplo, compra de BOVA11), também denominado de Long Instrument.

Conforme observamos na tabela 1.1 acima, o valor da compra de BOVA11 no mercado à vista é de R$ 90,00 e, de acordo com possíveis (des)valorizações, o seu preço tende a mudar no futuro. Caso o investidor venda o ativo, ele realizará seu lucro (ou prejuízo) de acordo com o “Resultado Final” e demonstrado no gráfico abaixo.

Com o intuito de se proteger de uma possível queda no índice, usar-se-ia uma Long Put, ou seja, comprar uma opção de venda do mesmo ativo (BOVA11). Assim, como exemplificado na tabela 1.2, se pagaria um prêmio ao vendedor desta put para ter o direito de realizar uma venda de BOVA11 a R$ 90,00 caso este ativo perca valor – no caso do vendedor, este teria a obrigação de comprar o ativo.

Aqui, observamos que caso o ativo se valorize, o investidor não irá efetuar seu direito de venda a R$ 90,00, ficando com apenas os custos do prêmio pago. Caso contrário, quanto maior a desvalorização frente aos R$ 90,00, mais In The Money (ITM) esta posição ficará.

Ao mesclarmos estas duas estratégias, chegaremos a uma Long Synthetic Call:

Sendo assim, há um limite de perda máxima de R$ 5,00 caso sua expectativa de valorização do mercado não se concretize. Para este mesmo exemplo, formamos uma estratégia inversa, ou seja, expectativa de desvalorização de mercado, cujo investidor ficaria vendido em BOVA11 – denominado de Short Instrument.

Junto a esta expectativa, neste caso o investidor pretende se proteger de uma eventual valorização de mercado. Com isto, ele irá adquirir o direito de comprar uma ação aos mesmos R$ 90,00, ou seja, Long Call. Ilustrados na tabela 1.5:

Ao juntar estas duas estratégias, resultarão em uma Long Synthetic Put, cujo indivíduo ficaria protegido de uma inesperada valorização de mercado fixando sua perda máxima em R$ 5,00, conforme ilustrado abaixo:

Como segundo exemplo, temos uma expectativa de desvalorização da Bolsa onde o indivíduo fica vendido em BOVA11. Segundo o exemplo anterior, resultaremos na mesma estratégia de Short Instrument.

No entanto, para este exemplo vamos supor que o investidor em questão será a parte vendedora do mercado de opções (ou seja, ele terá a obrigatoriedade de compra/venda e receberá um prêmio pelo ativo). Conforme ilustraremos na tabela a seguir, este ficará vendido em uma opção de venda (Short Put) com os mesmos R$ 90,00 de strike.

Como resultado, chegaremos a Short Synthetic Call cuja perda é diluída caso sua primeira estratégia não se concretize. No entanto, ele terá seu ganho limitado a R$ 5,00 conforme figura abaixo:

Como exemplo de expectativa de elevação de mercado. Teremos um Long Instrument, ou seja, o investidor comprado em BOVA11.

E para se proteger, ele ficaria vendido em uma opção de compra a R$ 90,00 – denominada de Short Call.

Por fim, estas duas estratégias resultariam em um Short Synthetic Put, também chamada de “Venda Coberta”. Assim como no outro caso, limitamos o ganho máximo em R$ 5,00, no entanto, ocorreria um hedge para uma eventual desvalorização de mercado.

  • Posições Bull e Bear

No primeiro artigo sobre o mercado de opções, a Trava de alta com a compra e venda simultânea de duas opções de compra (Calls) foi demonstrada ao leitor. Neste artigo pretendemos abordar a Trava de baixa e também a Trava de alta, no entanto, executando essa última estratégia através de opções de venda (Puts).

Assumindo a expectativa de um mercado em baixa, podemos explorar a Trava de baixa operada através de duas puts,. Assim como outras travas, essa posição também pode ser montada com calls. Chamada de Bear Put Spread, nessa estratégia o investidor compra uma put de preço de exercício superior e vende uma put com preço de exercício inferior. Ao executar essa posição espera-se que o preço do ativo no mercado à vista caia, porém, não alcance o preço de exercício da put vendida.

Tomando como exemplo a compra de uma put com preço de exercício de exercício de R$ 1.200 por um prêmio de R$ 115 e a venda de outra put com preço de exercício de R$ 1.000 por um prêmio de R$ 30, o investidor “trava” uma área de ganho entre R$ 1.000 e aproximadamente R$ 1.100 do preço do ativo objeto. Os gráficos e tabelas abaixo elucidam a estratégia:

Com base nas opções utilizadas como exemplos, podemos auferir que a perda máxima da operação é de R$ 85 (a diferença entre o prêmio recebido e o pago) e o retorno máximo é de R$ 115, no momento em que o ativo objeto atingir R$ 1.000. É importante salientar que as opções de venda a serem compradas e vendidas devem possuir datas de vencimento iguais.

Em contraponto à Trava de baixa, a Trava de alta pode ser montada quando o titular da posição acreditar em uma alta no mercado. Ao executar essa estratégia o investidor deseja estar “comprado”, entretanto, acredita que existe certo ponto de máximo para o preço do ativo. Podemos definir como uma expectativa de “alta moderada”.

Utilizaremos como exemplo de Trava de alta, a Bull Put Spread, operada através de opções de venda. Nessa estratégia o investidor escolhe duas opções que proporcionem o maior retorno ou a execução mais barata, vendendo uma put com preço de exercício maior e comprando uma put com preço de exercício menor.

Ao vender uma put de preço de exercício R$ 1.300 com prêmio de R$ 120 e comprar uma put com preço de exercício de R$ 1.200 e prêmio de R$ 35 o investidor “trava” o retorno máximo da operação em R$ 85 e ao mesmo tempo a perda máxima em R$ 15.

As tabelas e gráficos auxiliam na visualização da estratégia, a qual também deve ser executada através de puts com datas de vencimento iguais.

  • Butterfly

Agora, vamos explorar uma trava conhecida como Short Butterfly. Nessa estratégia, ocorre a venda de uma call e de uma put de mesmo preço de exercício, no exemplo, R$350,00, com prêmios de R$10,00 e R$15,00, respectivamente. Ocorre também a compra de uma call de preço de exercício superior, R$400,00, por R$3,00 e de uma put de preço de exercício inferior, R$300,00, por R$4,00. O objetivo dessa estratégia é restringir o risco aos preços de exercício das opções compradas. Para facilitar a compreensão, vamos ao gráfico e tabelas:

Como é possível observar no gráfico, a zona de risco dessa operação se concentra entre o preço de exercício da put comprada e o preço de exercício das opções vendidas menos o prêmio líquido da operação, neste caso, R$18,00. Também está compreendida entre o preço de exercício das opções intermediárias (inferior e superior ao preço de exercício) e o prêmio líquido. O ganho estará limitado, espera-se que o mercado oscile e permaneça sempre entre os preços da primeira call comprada e da primeira call vendida, descontado os prêmios pagos.

Com estas estratégias abordadas pretendemos que os leitores entendam um pouco mais a respeito do mercado de derivativos (principalmente, na área de opções), assim como já fora discutido em posts anteriores. Dentre os pontos que entramos em questão, boa parte destas técnicas tem o viés de reduzir a volatilidade ou exemplificar um investidor que esta aplicado em baixa volatilidade de mercado – ou em um ativo específico.

De forma geral, aqui aprendemos algumas técnicas básicas. Conforme houver mais posts acerca deste tema iremos cada vez mais mostrar ao leitor possíveis estratégias de maior complexidade, mas ainda assim, de forma didática.

Ainda ficou com alguma dúvida? Procure-nos no Instagram e no Facebook!


Referências:

Figueiredo, Antonio Carlos. 2016. Introdução aos derivativos – 3 ed. rev. e ampl. – São Paulo : Cengage Learning.

Mayer, Martin. 1997. “The Next Generation.” The Bankers.

Silva Neto, Lauro de Araújo. 1996. Opções: do tradicional ao exótico – 2. ed. São Paulo: Atlas.

Autores:

Caroline Zago, Pedro Rosa e Thiago Barreto
Posted by Thiago Ranzolin Barreto in Derivativos & Riscos, 2 comments
Precificação de opções via redes neurais

Precificação de opções via redes neurais

Em 1973, Fischer Black, Myron Scholes e Robert Merton publicaram uma maneira analítica para precificar opções, de modo que se pudesse relacionar a dinâmica do preço do ativo subjacente, uma taxa de juros livre de risco, o intervalo de tempo até a data de expiração da opção, o strike da opção e a volatilidade futura deste ativo, sem depender de um retorno esperado (algo muito mais imprevisível).

HIPÓTESES DO BLACK & SCHOLES

Como já vimos em artigos anteriores, a fórmula de precificação de Black & Scholes (Black 1973) assumia a hipótese de lognormalidade para os retornos do ativo subjacente, além de que a volatilidade implícita do ativo se manteria constante para opções de um mesmo ativo e de mesmo moneyness. Em relação a hipótese de lognormalidade, isso nos diz que temos um método paramétrico de precificação, o que pode ser ruim (temos que assumir uma distribuição que não se ajusta com o que acontece nos mercados, que apresentam caudas longas), e a volatilidade implícita constante também não se concretiza, dando origem ao fenômeno chamado de “smile de volatilidade”, algo também já tratado nos nossos artigos antigos.

ENSINANDO UMA MÁQUINA A PRECIFICAR OPÇÕES

Na década de 70, seria muito difícil construir um método prático e data-driven de precificação de opções, já que não se possuía poder computacional suficiente para realizar a mineração necessária; tínhamos que ter uma maneira analítica de precificação, o que começou com a fórmula de Black & Scholes (que garantiu o Prêmio Nobel aos pesquisadores). A partir da década de 90, com o avanço computacional, alguns pesquisadores começaram a se interessar por métodos data-driven de precificação, podendo se desvencilhar das hipóteses pouco realistas.

Para tanto, podemos pensar em algumas possibilidades: tendo informações sobre as características de uma determinada opção (o seu preço de mercado, uma volatilidade implícita realizada, um determinado intervalo de tempo até a data de expiração, com o moneyness da opção, etc…), teríamos condições de ensinar um algoritmo a precificar esta opção?

Em (Hutchinson 1994), esta abordagem foi realizada com a utilização do método das redes neurais. A abordagem do pesquisadores do MIT era de ensinar uma máquina a precificar opções de maneira não-paramétrica e que não assumisse as hipóteses tão contestadas por outros pesquisadores. Colocando como input as informações teoricamente determinantes para os preços das opções, o artigo buscou ver o ajuste das previsões realizadas com o que realmente aconteceu nos mercados. Outro bom artigo, aplicando a mesma técnica mas para opções de outro mercado, é o de (Huynh 2018).

REDES NEURAIS



Como um resumo sobre o método das redes neurais, (Friedman 2001, 389) traz que a ideia é extrair combinações lineares entre as variáveis explicativas e então modelar a variável dependente (no nosso caso, o prêmio da opção) como uma função não-linear das variáveis explicativas. O modelo de redes neurais também é chamado de multilayer perceptron, onde o modelo comprime diversas camadas de regressões logísticas com não-linearidades contínuas (Bishop 2006, 226); assim é formada a função de máxima verossimilhança que é a base das “redes de treino”.

Ao contrário do que se pensa, a pesquisa sobre métodos de inteligência artificial, e mais especificamente de redes neurais, começou já na década de 40, com (McCulloch 1943), em “A Logical Calculus of The Ideas Immanent in Nervous Activity”. A ideia era de simular as redes neurais do cérebro como forma de computadores estarem aptos a aprenderem e tomarem decisões como um humano.

Para isso, matematicamente, construímos uma função de ativação \(y\), onde \(y\) é uma função de uma função não-linear das combinações lineares entre os inputs dados (\(\phi(x)\)), ponderada por pesos que, inicialmente, são aleatórios (\(w_j\)), entre 0 e 1.

\[ y(\mathbf{x, w})=f\left(\sum_{j=1}^M w_j\phi_j(\mathbf{x})\right) \]

Esses pesos, com o método de treino estipulado (backpropagation), será alterado de forma com que se alcance o erro mínimo da função para os dados inseridos. Temos que M é o número de combinações lineares, que, somados, gerarão o primeiro input para o treino da função.

FEED FORWARD NETWORK

Agora, derivando o algoritmo para chegarmos em \(y(\mathbf{x, w})\), trazido acima:

1º – Primeiramente, teremos o somatório da multiplicação do vetor de pesos \(\mathbf{w}\) com o vetor de inputs \(\mathbf{x}\). Temos que \(w_{ji}\)é um vetor de pesos que serão alterados ao longo do treinamento da rede. Faremos esse mesmo cálculo para todas as nossas variáveis

\[ a_{ji} = \sum_{i = 0}^{D} w_{ji}^{(1)}x_i \]

2º – Temos de transformar o vetor de valores ponderados \(a_{ji}\) através de uma função de ativação, que poderá ser uma função que já é conhecida de econometristas e estudiosos da estatística: a função sigmoidal, que é a utilizada na regressão logística

\[ \sigma(a) = \frac{1}{1 + exp(-a)} \]

Com isso, temos então o que é chamado de “hidden layer”.

3º – Realizar novamente a ponderação dos valores, porém agora utilizando os hidden layers como input.

Logo, teremos uma nova ativação dos outputs pela função sigmoidal, dado por um input de uma função sigmoidal anterior. Nesse caso, duas camadas da rede neural foram utilizadas. Desta forma, podemos combinar estas várias etapas e chegar nesta função para a rede neural:

\[ y(\mathbf{x, w})= \sigma(\sum_{j=0}^M w_{kj}^{(2)} \sigma(\sum_{i=0}^D w_{ji}^{(1)}x_i)) \]

BACKPROPAGATION

Tendo um vetor de outputs, ou seja, valores preditos para o target utilizado, buscamos um vetor de pesos que minimize a seguinte função:

\[ E(\mathbf{w})= \frac{1}{2} \sum_{n=1}^N ||\mathbf{y(x_n, w) – t_n}||^2 \]

Ou seja, sendo \(y(\mathbf{x, w})\) um vetor de outputs e \(\mathbf{t_n}\) o vetor dos targets iniciais, queremos minimizar a soma dos erros quadrados. Os parâmetros que são alteráveis são os pesos, tanto da primeira camada quanto da segunda utilizada. OBS: O fator (½) é adicionado para ser cancelado junto com o expoente durante a diferenciação

A partir daqui, temos um problema computacional: simular infinitas possibilidades de vetores de pesos para identificar quais são os vetores que minimizam a soma do erro quadrado é uma tarefa computacionalmente exigente. Será que temos como usar a matemática para facilitar esse processo?

Para este problema, o método das redes neurais se utiliza do gradient descent, que é uma forma iterativa para se alcançar o mínimo de uma função.



Queremos encontrar os vetores de pesos que minimizem a função erro. Assim, aplicamos a regra da cadeia para derivar a função erro:

\[ {\frac {\partial E}{\partial w_{ij}}}={\frac {\partial E}{\partial o_{j}}}{\frac {\partial o_{j}}{\partial {\text{net}}_{j}}}{\frac {\partial {\text{net}}_{j}}{\partial w_{ij}}} \] Sendo:

\[ 1) {\frac{\partial net_j}{\partial w_{ij}}}={\frac {\partial }{\partial w_{ij}}}\left(\sum _{k=1}^{n}w_{kj}o_{k}\right) \]

que será simplesmente \(o_k\), sendo \(o_k\) um vetor que se for em relação a primeira camada, o input bruto; se for em relação a segunda layer, será o output da função de ativação.

\[ 2) {\frac{\partial o_j}{\partial net_{j}}}={\frac {\partial }{\partial net_{j}}} \varphi(net_j) = \varphi(net_j)(1 – \varphi(net_j)) \]

que é a derivada parcial da função de ativação (neste caso, a função sigmoidal), e a função abaixo, que é a derivada parcial da função perda com relação à hidden layer:

\[ 3) {\frac{\partial E}{\partial o_{j}}}={\frac {\partial E }{\partial y}} = {\frac {\partial}{\partial y}} {\frac {1}{2}}(t – y)^2 = y – t \]

Assim, atualizaremos os pesos com os resultados obtidos através da otimização, e seguiremos o processo iterativo de encontrar o mínimo da função.

OBS: Um problema do método do gradient descent é que ele pode encontrar um mínimo local, não um mínimo global, que é o que nos interessaria. Há formas de contornar este problema, como, por exemplo, assumindo uma versão probabilística para a função perda. Dada a sua complexidade, deixaremos para artigos futuros a sua explicação. Além disso, outras formas de se alcançar melhores resultados com redes neurais para opções seria de segmentar as opções em ATM (at the money), OTM (out of the money), podendo captar melhor as características de ambas as situações.

Também, por utilizarmos um dataset pequeno e gratuito, a estimação foi feita dentro da amostra; vale ressaltar a possibilidade de overfitting. Por ser uma abordagem didática, vale a demonstração. A literatura recomenda alguns anos em informações diárias para uma precificação mais assertiva, mas, por serem bases pagas (e muito bem pagas), deixaremos uma abordagem mais técnica para um futuro post.

REDE NEURAL NO R

Os dados foram retirados do site ivolatility.com

##Importando os dados que serão utilizados

smile_volatilidade <- 
  rio::import("../../static/input/IV_Raw_Delta_surface.csv") %>%
  select(period, moneyness, iv) %>% 
  mutate(period = period/365)

##Executando o algoritmo através do pacote neuralnet
##Foram escolhidas duas hidden layers para análise

rede_neural <- neuralnet(iv ~ period+moneyness, smile_volatilidade, hidden = 2)
iv_predito <- as.data.frame(rede_neural$net.result) 

df_nn <- cbind(smile_volatilidade$iv, iv_predito)

colnames(df_nn) <- c("volatilidade_implicita", "volatilidade_predita")

##Criando uma coluna com os erros da predição

df_nn <- df_nn %>% mutate(erro = volatilidade_implicita - volatilidade_predita)

hist(df_nn$erro,
     main = "Distribuição dos erros da volatilidade realizada pela predita",
     xlab = "Erro",
     ylab = "Frequência",
     xlim = c(-0.04, 0.04))

plot(rede_neural, rep = "best")



Bishop, Christopher M. 2006. Pattern Recognition and Machine Learning. springer.

Black, Myron, Fischer e Scholes. 1973. “The Pricing of Options and Corporate Liabilities.” Journal of Political Economy 81 (3). The University of Chicago Press: 637–54.

Friedman, Trevor e Tibshirani, Jerome e Hastie. 2001. The Elements of Statistical Learning. 10. Springer series in statistics New York.

Hutchinson, Andrew W e Poggio, James M e Lo. 1994. “A Nonparametric Approach to Pricing and Hedging Derivative Securities via Learning Networks.” The Journal of Finance, no. 3. Wiley Online Library: 851–89.

Huynh. 2018. “Modelling and Forecasting Implied Volatility Using Neural Network.” Hanken School of Economics.

McCulloch, Walter, Warren S e Pitts. 1943. “A Logical Calculus of the Ideas Immanent in Nervous Activity.” The Bulletin of Mathematical Biophysics 5 (4). Springer: 115–33.

Posted by Gabriel Dias in Derivativos & Riscos, 1 comment
Superfície SVI

Superfície SVI

Superfície SVI, ou somente SSVI é uma generalização do modelo SVI de (Gatheral 2004) que busca solucionar o problema de restrição dos parâmetros do modelo para evitar a presença de arbitragem do tipo borboleta em um dado smile. Este modelo foi proposto por (Gatheral and Jacquier 2014) e extende o modelo SVI original apresentando duas outras parametrizações equivalentes e então o modelo para superfícies propriamente dito.

Reparametrizações equivalentes

Existem duas outras formas de se apresentar um modelo SVI que são equivalentes a parametrização RAW já apresentada. Estas são as parametrizações “Natural” e “Jump-Wings” que são apresentadas abaixo.

Para um dado conjunto de parâmetros \(\chi_N=\{\Delta, \mu, \rho, \omega, \zeta\}\) a parametrização natural de um SVI é dada por:

\[\begin{equation} w(k; \chi_N)=\Delta+\frac{\omega}{2}\left\lbrace 1+\zeta\rho(k-\mu)+\sqrt{(\zeta(k-\mu)+\rho)^2+(1-\rho^2)} \right\rbrace \tag{1} \end{equation}\]

onde \(\omega\geq 0\), \(\Delta, \mu \in \mathbb R\), \(|\rho|<1\) e \(\zeta>0\). A correspondência entre as parametrizações raw e natural é dada pelo seguinte mapeamento e seu inverso:

\[\begin{equation} (a, b, \rho, m, \sigma)=\left(\Delta+\frac{\omega}{2}(1-\rho^2), \frac{\omega\zeta}{2}, \rho, \mu-\frac{\rho}{\zeta}, \frac{\sqrt{1-\rho^2}}{\zeta}\right) \tag{2} \end{equation}\] \[\begin{equation} (\Delta, \mu, \rho, \omega, \zeta)=\left(a-\frac{\omega}{2}(1-\rho^2), m+\frac{\rho\sigma}{\sqrt{1-\rho^2}}, \rho, \frac{2b\sigma}{\sqrt{1-\rho^2}}, \frac{\sqrt{1-\rho^2}}{\sigma}\right) \tag{3} \end{equation}\]

A desvantagem destas parametrizações é que o valor de seus parâmetros não são intuitivos para os traders, eles não carregam estes valores em sua memória durante a negociação. Valores característicos de uma superfície de volatilidade implícita que traders têm em mente são, por exemplo, volatilidade ATM, skew de volatilidade ATM e assíntotas. Desta forma a parametrização Jump-Wings é útil, pois relaciona estes valores típicos aos parâmetros raw de um SVI.

A parametrização JW é dada em termos da variância implícita (e não da variância total) e portanto existe uma dependência explícita do tempo em sua formulação. Para um dado tempo até a expiração, \(\tau\), o conjunto de parâmetros \(\chi_{J}=\{v_\tau, \psi_\tau, p_\tau, c_\tau, \tilde v_\tau\}\) é definido pelas seguintes equações a partir dos parâmetros raw:

\[\begin{align} v_\tau&=\frac{a+b\{-\rho m + \sqrt{m^2+\sigma^2}\}}{\tau},\\ \psi_\tau&=\frac{1}{\sqrt{w_\tau}}\frac{b}{2}\left(-\frac{m}{\sqrt{m^2+\sigma^2}}+\rho\right),\\ p_\tau&=\frac{1}{\sqrt{w_\tau}}b(1-\rho),\\ c_\tau&=\frac{1}{\sqrt{w_\tau}}b(1+\rho),\\ \tilde v_\tau&=\frac{1}{\tau}\left(a+b\sigma\sqrt{1-\rho^2}\right) \tag{4} \end{align}\]

onde \(w_\tau=v_\tau \tau\) relaciona a variância total ATM com a variância ATM. Os parâmetros possuem as seguintes interpretações: \(v_\tau\) é a variância ATM, \(\psi_\tau\) o skew ATM, \(p_\tau\) a inclinação da asa esquerda (puts), \(c_\tau\) a inclinação da asa direita (calls) e \(\tilde v_\tau\) é a variância implícita mínima.

A figura 1 apresenta uma esquematização destes parâmetros sobre um smile fictício para melhor compreensão.

Interpretação dos parâmetros de um SVI-JW.

Figura 1: Interpretação dos parâmetros de um SVI-JW.

As relações inversas que trazem uma parametrização JW para uma raw, assumindo que \(m \neq 0\) são:

\[\begin{align} b&=\frac{\sqrt{w_\tau}}{2}(c_\tau+p_\tau),\\ \rho&=1-\frac{p_\tau\sqrt{w_\tau}}{b},\\ a&=\tilde v_\tau \tau-b\sigma\sqrt{1-\rho^2},\\ m&=\frac{(v_\tau-\tilde v_\tau)\tau}{b\left\lbrace-\rho+sign(\alpha)\sqrt{1+\alpha^2}-\alpha\sqrt{1-\rho^2}\right\rbrace},\\ \sigma&=\alpha m. \tag{5} \end{align}\]

onde as variáveis auxiliares são definidas da seguinte forma: \(\beta:=\rho-(2\psi_\tau\sqrt{w_\tau})/b\) e \(\alpha:=sign(\beta)\sqrt{1/\beta^2 – 1}\), com \(\beta \in [-1, 1]\) para garantir a convexidade do smile.

Se \(m=0\), então as equações para \(a, b, \rho\) se mantêm, porém, \(\sigma = (v_\tau \tau-a)/b\). Desta forma temos relações entre as três parametrizações SVI, sendo possível navegar entre elas com tranquilidade. Um trader pode verificar no mercado os valores dos parâmetros JW e traduzi-los para raw e simular o smile ou fazer o caminho reverso, calibrar uma fatia da superfície com parâmetros raw, traduzi-los para JW e apresentar para sua mesa, onde todos conseguirão interpretar os valores a que estão habituados.

Superfície SVI

Uma SSVI surge como uma extensão à parametrização natural de um SVI, e fornece em uma única equação, a possibilidade de parametrizar uma superfície de volatilidade implícita por inteiro. É necessário, antes de mais nada, fazer algumas definições preliminares. Defina a variância total implícita no dinheiro (ATM) como \(\theta_\tau:=\sigma_{BS}^2(0, \tau)\tau\) e \(\lim\limits_{\tau\rightarrow 0}\theta_\tau = 0\).

Definição 1 Seja \(\varphi\) uma função suave em \(\mathbb R_+^*\mapsto \mathbb R_+^*\) tal que \(\lim\limits_{\tau\rightarrow 0}\theta_\tau \varphi(\theta_\tau)\) exista em \(\mathbb R\). Uma SSVI é definida por:

\[\begin{equation} w(k, \theta_\tau)=\frac{\theta_\tau}{2}\left\lbrace 1+\rho\varphi(\theta_\tau)k+\sqrt{(\varphi(\theta_\tau)k+\rho)^2+(1-\rho^2)} \right\rbrace \tag{6} \end{equation}\]

Veja que na representação SSVI, engenhosamente os autores substituíram a dimensão de tempo, \(\tau\), típica de superfícies de volatilidde, pela variância total ATM. Com esta representação, eles conseguiram derivar as condições necessárias para a ausência de arbitragem estática na superfície e sempre que necessário, é possível retornar a dimensão de tempo no calendário.

Agora é necessário definir a função \(\varphi\), que então será substituída na equação (6) da definição 1 com seus próprios parâmetros e teremos por fim uma função \(w(k, \theta_\tau; \chi_{ssvi})\) que poderá ser calibrada para o conjunto de parâmetros da SSVI, \(\chi_{ssvi}\) contra os dados observados no mercado. No fundo, qualquer função que obedeça as condições impostas na definição 1 pode ser utilizada, entretanto os autores apresentam dois tipos de função que condizem com as observações empíricas.

Heston

Considere a função \(\varphi\) definida por:

\[\begin{equation} \varphi(\theta)\equiv\frac{1}{\gamma\theta}\left\lbrace 1-\frac{1-e^{-\gamma\theta}}{\gamma\theta}\right\rbrace \tag{7} \end{equation}\]

com \(\gamma > 0\). Esta função recebeu este nome pois, seu skew na variância implícita é compatível com aquele previsto no modelo de Heston.

Lei de potência

A parametrização da função \(\varphi\) como uma lei de potência é primeiramente considerada da seguinte forma: \(\varphi(\theta)=\eta\theta^{-\gamma}\) com \(\eta > 0\) e \(0< \gamma<1\). Entretanto, esta parametrização apresenta algumas limitações com relação a arbitragem do tipo borboleta e então é proposta a seguinte forma funcional:

\[\begin{equation} \varphi(\theta)=\frac{\eta}{\theta^\gamma(1+\theta)^{1-\gamma}} \tag{8} \end{equation}\]

que é garantida não possuir arbitragem estática dado que \(\eta(1+|\rho|)\leq 2\).

Condições de não-arbitragem

As condições para ausência de arbitragem estática para uma SSVI são colocadas através de dois teoremas (4.1 e 4.2) e provadas no artigo de (Gatheral and Jacquier 2014), dos quais resulta o seguinte corolário.

Corolário 1 A superfície SVI definida em 1 está livre de arbitragem estática se as seguintes condições são satisfeitas:

  1. \(\partial_\tau\theta_\tau\geq 0, \text{ para todo } \tau > 0\)
  2. \(0\leq \partial_\theta(\theta\varphi(\theta))\leq\frac{1}{\rho^2}\left(1+\sqrt{1-\rho^2}\right)\varphi(\theta), \text{ para todo } \theta>0\)
  3. \(\theta\varphi(\theta)(1+|\rho|)<4, \text{ para todo } \theta>0\)
  4. \(\theta\varphi(\theta)^2(1+|\rho|)\leq 4, \text{ para todo } \theta>0\)

Onde os dois primeiros itens dizem respeito a ausência de arbitragem de calendário, enquanto que os seguintes são exigências para a superfície estar livre de arbitragem do tipo borboleta.

Para uma função \(\varphi\) do tipo Heston, as condições nos seus parâmetros são: \(\gamma>0\) que garante o atendimentos as condições 1 e 2 do corolário 1 e \(\gamma\geq(1+|\rho|)/4\) para garantir a ausência de arbitragem borboleta, a qual subsume a primeira condição.

Para a função do tipo lei de potência dada em (8) são necessárias as condições \(0< \gamma<1\) e \(\eta(1+|\rho|)\leq 2\)

A maneira típica de impor as restrições dos parâmetros no momento da calibração do modelo é inserir uma penalidade na função objetivo, quando a restrição é violada. Por exemplo, consideramos a restrição de inequalidade para a lei de potência, \(\eta(1+|\rho|)-2\leq 0\). No momento da calibração, nós devemos calcular o valor desta expressão e se o seu resultado for maior que zero, uma penalidade é somada a função objetivo da calibração (em geral a soma dos quadrados dos erros).

Densidade neutra ao risco

Já comentamos sobre a distribuição neutra ao risco implícita no preço de opções que pode ser obtida através da fórmula de (Breeden and Litzenberger 1978), assim como já foi introduzida uma certa função \(g(k)\) que desempenha um papel fundamental para garantir a ausência de arbitragem do tipo borboleta em smiles de variância total. O fato é que, para garantir a ausência de arbitragem a função \(g(k)\) deve ser não negativa em todo o seu suporte \(k \in \mathbb R\). Ao mesmo tempo, a definição de ausência de arbitragem borboleta se confunde com o fato que a densidade neutra ao risco deve também ser não negativa, caso contrário não seria uma densidade de probabilidade. Logo percebe-se a estreita relação entre a função \(g(k)\) e a densidade neutra ao risco implícita no preço de opções. De fato, a fórmula de Breeden-Litzenberger nos fornece:

\[\begin{equation} p(k)=\left.\frac{\partial^2C_B(k, w(k))}{\partial K^2}\right|_{K=Fe^k} \end{equation}\]

que após fazer as derivações da equação de Black e as substituições e manipulações algébricas com as reparametrizações do modelo B&S, resulta em:

\[\begin{equation} p(k)=\frac{g(k)}{\sqrt{2\pi w(k)}}\exp\left(-\frac{d_2(k)^2}{2}\right) \tag{9} \end{equation}\]

E para relembrarmos, a função \(g(k)\) é dada por:

\[\begin{equation} g(k)=\left(1-\frac{kw\prime(k)}{2w(k)}\right)^2-\frac{w\prime(k)^2}{4}\left(\frac{1}{w(k)}+\frac{1}{4}\right)+\frac{w\prime\prime(k)}{2} \tag{10} \end{equation}\]

Ou seja, uma vez parametrizado um SVI para um dado prazo de maturidade, \(\tau\), se torna simples a tarefa de extrair a densidade implícita. Possuímos a função \(w(k)\) e suas derivadas e certamente \(d_2(k)\), bastando portanto, aplicar a equação (9) para extrair importante informação do mercado de opções.

Superfície de volatilidade local

De maneira semelhante ao procedimento realizado com a densidade implícita, também é possível, uma vez parametrizada a SSVI, derivar a superfície de volatilidade local através da equação de (Dupire 1994). Esta equação toma a seguinte forma funcional:

\[\begin{equation} \sigma_L^2(K, \tau)=\frac{\partial_\tau C_B(K, \tau)}{\frac{1}{2}K^2\partial_{KK}C_B(K, \tau)} \tag{11} \end{equation}\]

Novamente tomando as derivadas da equação de Black e fazendo as substituições necessárias1 chegamos a relação entre a superfície SVI e variância local.

\[\begin{equation} \sigma^2_L(k, \tau)=\frac{\partial_\tau w(k, \theta_\tau)}{g(k, w(k, \theta_\tau))} \tag{12} \end{equation}\]

De forma bastante simplista, a superfície de volatilidade local pode ser entendida como aquela superfície de volatilidades instantâneas para o ativo subjacente, \(\sigma(S, t)\) que depende tanto do nível de preço deste ativo quanto do tempo, e fornece a previsão do mercado para a volatilidade instantânea de \(S\) dado que este ativo hoje está precificado em \(S_0\) e no tempo futuro \(\tau\) estará em \(K\). Fazendo uma analogia com o mercado de juros, a superfície local está para a curva forward assim como a superfície implícita está para a curva de juros, numa aproximação.

A superfície local é muito utilizada para precificar opções exóticas, aquelas que possuem perfil de payoff distinto das opções europeias e podem ou não terem seus resultados atrelados ao caminho seguido pelo preço do ativo objeto durante a vida da opção. Nestes casos, a precificação se dá através da incorporação da superfície local estipulando um valor de volatilidade instantânea para cada possível combinação \((S_t, t)\) em geral em um ambiente de simulação de Monte Carlo.

No caso da equação (12) temos uma nova derivada a ser computada, \(\partial_\tau w(k, \theta_\tau)\), que só poderia ser feita de forma analítica caso \(\theta_\tau\) fosse parametrizada explicitamente. Nem sempre este é o caso, já que \(\theta_\tau\) são os valores de variância total ATM implícitas, ou seja, observa-se no mercado apenas alguns pontos de \(\theta_\tau\), pontos estes que podem estar espaçados em intervalos diferentes de tempo. A solução para esta derivação é interpolar estes pontos, nem que seja uma simples interpolação linear, e então fazer a derivação de forma numérica através de um método de diferenças finitas. Note que na interpolação deve-se garantir a condição de não arbitragem de calendário, \(\partial_\tau\theta_\tau\geq 0\).

Calibração

Vamos retomar nosso exemplo de superfície de volatilidade do artigo anterior, porém agora com todas as datas de expiração, ou seja, a superfície completa. Os códigos R apresentados abaixo ajudam na compreensão do procedimento.

library(readr)
library(dplyr)
library(purrr)
library(kableExtra)
library(ggplot2)
library(ggthemes)
library(plot3D)
source('svi.R')
source('ssvi.R')

Primeiramente foram carregados os pacotes necessários para a leitura e manipulação dos dados (readr, dplyr e purrr) assim como os pacotes de visualização (kableExtra, ggplot2, ggthemes e plot3D). Em seguida os arquivos svi.R e ssvi.R são implementações do Clube de Finanças para as funções necessárias para calibrar uma SSVI.

Carregados os pacotes e as funções, deve-se carregar os dados da superfície de volatilidade e organizá-los da forma que necessitamos.

ssvi_data <- read_csv("../../static/input/IV_Raw_Delta_surface.csv",
                     col_types = cols(date = col_date(format = "%m/%d/%Y"))) %>% 
  mutate(tau = period / 365,
         theta = theta_vec(moneyness, tau, iv)) %>% 
  rename(k = moneyness)

Para calibrar os parâmetros de uma SSVI, com a função \(\varphi\) do tipo lei de potência, necessitaremos dos dados de moneyness (\(k\)), vencimento (\(\tau\)) e volatilidade implícita (\(iv\)) que será internamente convertida em variância total implícita (\(w\)). Dentro da função de ajuste dos parâmetros fit_ssvi() a variância total ATM implícita \(\theta_\tau\) é calculada através de interpolação spline para cada uma das fatias da superfície, pois, nossos dados não necessariamente possuem esta observação. Cabe ressaltar também que os dados estão organizados de forma tidy, sendo portanto, todos os argumentos passados para as funções na forma de vetores, não sendo necessário gerar uma matriz contendo o grid \((k, \tau)\).

k <- ssvi_data$k
tau <- ssvi_data$tau
iv <- ssvi_data$iv
theta <- ssvi_data$theta

set.seed(12345)
powerlaw_par <- fit_ssvi(tau, k, iv, "powerlaw")
kable(powerlaw_par,
      caption = "Parâmetros da SSVI-power-law estimados.",
      col.names = "SSVI-PL")
Tabela 1: Parâmetros da SSVI-power-law estimados.
SSVI-PL
rho -0.6479238
gamma 0.4926757
eta 0.8607807

Podemos rapidamente checar se estes parâmetros estimados geram uma superfície livre de arbitragem.

paste("Parametrização livre de arbitragem borboleta? :", 
      ssvi_butterfly_cons(powerlaw_par, "powerlaw") <= 0)
## [1] "Parametrização livre de arbitragem borboleta? : TRUE"

Com os parâmetros estimados, é simples plotar todos os smiles que compõe a superfície e verificar visualmente o ajuste. Vamos plotar a variância total em função do moneyness e vencimentos, pois neste gráfico se verifica a condição de arbitragem de calendário simplesmente através do fato que as curvas geradas não devem se cruzar.

plt_df <- ssvi_data %>% 
  mutate(w_pl = ssvi_fun(powerlaw_par, theta, k)) %>% 
  select(k, tau, w_pl, iv) %>% 
  filter(tau < 0.5)

ggplot(plt_df, aes(x = k, y = w_pl)) + 
  geom_line(aes(color = as.factor(format(tau, digits = 3)))) +
  geom_point(aes(y = iv^2 * tau)) +
  guides(color = guide_legend(title = "Vencimento")) +
  labs(title = "SSVI Lei de Potência",
       x = "Forward log-moneyness (k)",
       y = "Variância total implícita (w)",
       caption = "Elaborado por Rafael Bressan para o Clube de Finanças.") +
#  scale_y_continuous(labels = scales::percent) +
  scale_color_viridis_d() +
  theme_economist_white()

Foram retirados os vencimentos mais longos apenas para uma melhor visualização da parte mais curta da superfície, que em geral é a mais complicada de se calibrar através de SVI. O resultado parece interessante, com as variâncias ao redor do dinheiro tendo boa aderência aos dados observados, porém para puts muito fora do dinheiro, a parametrização aparenta subestimar o valor da variância total e portanto estaria subprecificando as opções.

Iremos agora verificar a densidade da distribuição implícita para o período de vencimento de 90 dias. Utiliza-se para tanto a equação (9) onde \(w(k)\) (e suas derivadas e o próprio \(d_2\)) será agora calculado com base nos parâmetros da tabela 1 para um vetor de moneyness mais amplo e denso. O resultado pode ser observado através da figura 2

thetadens <- ssvi_data %>% 
  filter(period == 90) %>% 
  pull(theta) %>% 
  `[`(1)
kdens <- seq(-0.5, 0.3, length.out = 100)
dens <- ssvi_density(powerlaw_par, thetadens, kdens, "powerlaw")
dens_tbl <- tibble(kdens = kdens, dens = dens)

ggplot(dens_tbl, aes(x = kdens, y = dens)) + 
  geom_line() +
  labs(title = "Densidade neutra ao risco SSVI",
     x = "Forward log-moneyness (k)",
     y = "Densidade",
     caption = "Elaborado por Rafael Bressan para o Clube de Finanças.") +
  scale_color_viridis_d() +
  theme_economist_white()
Densidade implícita estimada a partir da SSVI. Presença de assimetria e leptocurtose a esquerda.

Figura 2: Densidade implícita estimada. Presença de assimetria e leptocurtose a esquerda.

Este é um gráfico interessante, que nos mostra exatamente o que se espera de um smile típico de equities que possui skew negativo. Percebemos como a densidade de probabilidades é assimétrica, com a cauda esquerda muito mais longa, refletindo o sentimento de mercado de uma maior probabilidade de grandes quedas no preço do ativo objeto que altas equivalentes. Sempre que verificamos um smile com skew negativo, como é o presente caso, a distribuição de probabilidades é assimétrica a esquerda.

Vamos conferir se a área sob esta curva de densidade integra aproximadamente 1, como deve ser.

area <- integrate(function(x) ssvi_density(powerlaw_par, thetadens, x, "powerlaw"),
                  lower = kdens[1],
                  upper = kdens[length(kdens)])
paste("Área sob a curva de densidade é: ", area$value)

[1] “Área sob a curva de densidade é: 0.999302879362191”

Chegou o momento de inferirmos a superfície de volatilidade local a partir de nossa parametrização SSVI. O método será a aplicação direta da equação (12) pois, com a parametrização realizada, dispomos de todos os dados necessários para seu cômputo.

Antes porém, devemos observar uma peculiaridade dos nossos dados. O site ivolatility.com fornece dados alinhados por Delta, ou seja, para cada período de vencimento temos um mesmo conjunto de Deltas, mas não de moneyness. Os valores deste último irá variar conforme o vencimento, uma vez que pela definição de forward log-moneyness que vimos utilizando é dependente do tempo para maturidade da opção. Desta forma precisamos gerar um novo grid \((k, \tau)\) para plotar nossa superfície de volatilidade local.

Para tanto, criaremos uma sequência uniforme de valores de \(k\) e tomaremos os valores que já possuímos de \(\tau\) e \(\theta_\tau\) recombinando-os através da função expand.grid() para gerar o data frame que precisamos.

Feito isso, é apenas questão de aplicar a equação (12) e criar uma matriz (pois assim pede a função surf3D()) com os valores da volatilidade local.

kloc <- seq(-.4, 0.4, length.out = 17)
utau <- unique(tau)
utheta <- unique(theta)
names(utheta) <- utau  # utheta will be a lookup vector
grid_df <- expand.grid(kloc, utau) %>% 
  rename(kloc = Var1,
         tau = Var2) %>% 
  mutate(theta = utheta[as.character(tau)])

loc_vol_vec <- ssvi_local_vol(powerlaw_par, 
                              grid_df$tau, 
                              grid_df$theta, 
                              grid_df$kloc, 
                              "powerlaw")
# Matrix where k is row
loc_vol_m <- matrix(loc_vol_vec, nrow = length(kloc))  

# Plot Local Volatility Surface
# x is k, y is tau
M <- mesh(kloc, utau)
surf3D(M$x, M$y, loc_vol_m, colkey = FALSE, bty = "b2", 
       phi = 20, ticktype = "detailed",
       xlab = "k",
       ylab = "\u03c4",
       zlab = "Volatilidade local \u03c3")

Conclusão

Apresentamos o modelo de superfícies SVI, que faz uma generalização dos smiles SVI e apresenta vantagens sobre a parametrização fatia-a-fatia em virtude dos teoremas sobre arbitragem estática, apresentando restrições para os parâmetros do modelo que garantem a ausência deste tipo de arbitragem.

Uma vez parametrizada toda uma SSVI, torna-se simples, uma mera aplicação de fórmulas a obtenção tanto da densidade da distribuição neutra ao risco implícita no preços das opções, como da superfície de volatilidade local através da equação de Dupire.

Referências

Breeden, Douglas T, and Robert H Litzenberger. 1978. “Prices of State-Contingent Claims Implicit in Option Prices.” Journal of Business. JSTOR, 621–51.

Dupire, Bruno. 1994. “Pricing with a Smile.” Risk 7 (1): 18–20.

Gatheral, Jim. 2004. “A Parsimonious Arbitrage-Free Implied Volatility Parameterization with Application to the Valuation of Volatility Derivatives.” Presentation at Global Derivatives & Risk Management, Madrid.

Gatheral, Jim, and Antoine Jacquier. 2014. “Arbitrage-Free Svi Volatility Surfaces.” Quantitative Finance 14 (1). Taylor & Francis: 59–71.

  • Referimos o leitor ao material do prof. Antoine Jacquier para uma prova desta relação aqui

    Posted by Rafael F. Bressan in Derivativos & Riscos, 0 comments
    Métodos de calibração de superfícies de volatilidade

    Métodos de calibração de superfícies de volatilidade

    2019/02/08

    Métodos de calibração são as diferentes formas existentes entre “interpolação”, “suavização” e “parametrização” que podem ser utilizadas para fazer o ajustes dos dados obtidos do mercado de opções às superfícies de volatilidade.

    Como já apresentado em artigos anteriores, existem diversas formas de interpolar, extrapolar, parametrizar e calibrar smiles de volatilidade. Existem vantagens e desvantagens para cada método.

    Calibração versus Interpolação

    Uma forma simples de gerar um smile de volatilidade a partir de dados observados no mercado é a interpolação destes dados. Diversas formas de interpolação existem, sendo talvez a mais conhecida a spline cúbica. Não é a proposta deste artigo detalhar os procedimentos de interpolação, restando saber que em tal procedimento é gerada uma função contínua em partes (piecewise) que passa por todos os pontos observados.

    Uma interpolação força a passagem da função interpolada em todos os seus pontos de referência, como se estivesse ligando estes pontos em um desenho a mão livre. Portanto, nestes pontos o erro da interpolação é zero por definição, entretanto em pontos intermediários podem surgir erros, inclusive aqueles que possibilitam a existência de arbitragem entre strikes de um mesmo smile1.

    Em contraposição a métodos de interpolação, podem ser derivados métodos de suavização (smoothing) ou então a parametrização do smile de volatilidade. Seja suavização, ou parametrização, estes métodos não forçam a passagem da função que representa o smile pelos pontos de mercado, mas buscam minimizar alguma função perda dos desvios em relação a estes pontos ao mesmo tempo em que buscam “suavizar” o smile, para que este não apresente variações bruscas entre os strikes ou alterações de convexidade na curva de preços, que não são condizentes com a teoria de precificação de derivativos.

    Um método paramétrico, como o SVI, Heston ou SABR, busca ajustar às volatilidades implícitas observadas através dos preços das opções sendo praticados no mercado a uma determinada função, que possui parâmetros em sua definição que por sua vez determinam a forma desta. Ao se ajustar os parâmetros, pode-se adequar a função para ficar “o mais próxima possível” dos dados observados, sem necessariamente, no entanto, passar por todos estes pontos.

    A figura abaixo tenta mostrar as diferenças entre uma interpolação spline cúbica, uma suavização e uma parametrização SVI. Enquanto que a interpolação liga todos os pontos marcados, a suavização e a parametrização não necessariamente passam sobre estes mas fornecem uma curva mais “suave”, sem trocas de convexidade, o que geraria oportunidades de arbitragem e probabilidades negativas de ocorrência de determinados preços para o ativo subjacente, que ferem os princípios de precificação de opções. Os dados utilizados neste e nos próximos artigos sobre superfícies de volatilidade foram obtidos do site ivolatility.com na forma de amostra gratuita fornecida livremente. O ativo subjacente é o ETF IWM para a data de 21/09/2017.

    Diferentes métodos de ajuste de dados a um smile.

    Figura 1: Diferentes métodos de ajuste de dados a um smile.

    Pode-se verificar como os métodos SVI e a suavização não passam sobre todos os pontos marcados, com a suavização tendo dificuldade com a curvatura nos valores mais altos de moneyness e a SVI possuindo uma inclinação mais branda na asa esquerda do smile.

    Spline cúbica

    Este método é possivelmente um dos mais flexíveis e conhecidos de interpolação de dados univariados existente, embora também exista sua versão bi-dimensional. Uma spline nada mais é que “uma curva definida matematicamente por dois ou mais pontos de controle”2.

    No caso da spline cúbica, esta é uma função polinomial de grau 3 definida em cada subintervalo demarcados pelos pontos de controle, no caso de interpolação são todos nós. Ou seja, considere um segmento entre dois pontos consecutivos \([c, d]\in S\) a spline é uma função cúbica com seus parâmetros calculados pelo algoritmo de ajuste. Para o próximo intervalo de pontos dentro do domínio da função, um novo polinômio de grau 3 é ajustado, sendo que nos pontos de nós uma restrição de igualdade entre as derivadas nos dois segmentos é aplicada para garantir a suavidade da função interpolada como um todo.

    Assim, uma spline cúbica é uma função contínua, suave e diferenciável até a segunda ordem. Entretanto, suas derivadas, apesar de contínuas, podem não ser suaves, especialmente aquela de segunda ordem que pode apresentar pontos de “ruptura”. Esta característica de uma spline cúbica a torna pouco atrativa para a inferência de distribuições de probabilidade a partir de dados de volatilidade ou mesmo dos preços de opções.

    Cada segmento de uma spline cúbica é um polinômio de grau 3 diferente.

    Figura 2: Cada segmento de uma spline cúbica é um polinômio de grau 3 diferente.

    Suavização

    A técnica de suavização é muito semelhante a interpolação, inclusive o método spline também é aplicado, com algumas modificações de forma que nem todos os pontos fornecidos serão nós.

    Na spline de suavização (ou aproximação), os pontos fornecidos são separados entre os nós, onde a função deve passar e pontos de controle, que são utilizados para controlar a curvatura da função nestes pontos.

    Estas suavizações são principalmente utilizadas quando se possui muitas observações sujeitas a ruídos, de forma que uma interpolação entre todos os pontos seria tanto impraticável quanto sem sentido. O que se deseja, portanto, é uma função aproximada que melhor descreva o processo sob análise.

    Um ponto em comum entre estas técnicas é o parâmetro de suavização, ausente, na interpolação, que controla a “suavidade” da função estimada.

    Menor parâmetro de suavização gera granularidade na curva.

    Figura 3: Menor parâmetro de suavização gera granularidade na curva.

    Parametrização

    E por fim as técnicas de parametrização. Nesta categoria estão diversos conhecidos modelos de superfícies de volatilidade implícita, dentre eles os modelos de Heston (1993) e SVI de Gatheral (2004).

    Em comum, estes modelos tentam parametrizar a superfície, e por conseguinte o smile de volatilidade, de acordo com alguma função, em geral não-linear, que possui características condizentes com a teoria de precificão de derivativos e também a observação empírica das superfícies.

    Por exemplo, a parametrização raw da SVI possui a seguinte forma para a variância total3 :

    \[ w(k) = a + b\left(\rho(k-m)+\sqrt{(k-m)^2 + \sigma^2}\right)\]

    que fornece um espaço de cinco parâmetros \(\chi_B=\{a, b, \rho, m, \sigma\}\) que definem o smile e devem, portanto, serem calibrados a partir de dados observados no mercado.

    O procedimento de calibração consiste em encontrar o conjunto de parâmetros que minimizam uma função perda entre a volatilidade prevista pelo modelo e os dados de mercado, enquanto satisfazem algumas restrições adicionais, como “ausência de arbitragem”, suavidade, etc. Trata-se, via de regra, de problemas de otimização não-linear com restrições de inequalidade também não-lineares.

    Função perda

    A função perda, ou função de calibração pode ser definida de diversas maneiras, de forma geral, para uma determinada maturidade, ela toma a forma:

    \[L=\sum\limits_{i=1}^n\lambda_i||\hat w(k_i)-w_{imp}(k_i)||\] onde \(||\cdot||\) é alguma medida de norma, sendo a mais conhecida o quadrado das diferenças, dando origem a minimização do erro quadrático médio (MSE). Para o presente smile sendo calibrado existem \(n\) strikes (\(k_i\)) e suas volatilidades implícitas observadas são \(w_{imp}(k_i)\). A resposta do modelo para um determinado strike é \(\hat w(k_i)\) e \(\lambda_i\) são os pesos dados na função perda para cada um destes strikes.

    Os pesos \(\lambda_i\) são utilizados para ponderar as observações das volatilidades mais importantes para o cálculo, onde se deseja que a curva ajustada possua um menor erro. Em geral, estes pesos são calculado como inversamente proporcionais:

    • ao quadrado dos spreads bid-ask, para dar mais importância às opções mais líquidas
    • ao quadrado da grega vega calculada a partir do modelo BSM

    Otimizadores

    Os otimizadores são os algoritmos pelos quais o problema de minimização posto é resolvido. Se a função perda é convexa, e ela deve ser construída de forma a ser, mesmo que não estritamente, então ela possui um ou mais pontos de mínimo onde o gradiente desta função é igual a zero. O que os otimizadores fazem é buscar o conjunto de parâmetros que minimizam a função perda e atendem as restrições impostas simultaneamente. Os otimizadores podem ser classificados em dois grandes grupos, globais e locais.

    Algoritmos locais dependem de uma estimativa inicial dos parâmetros para começarem a busca pelo mínimo. Seguindo uma regra utilizando-se o gradiente da função ou alguma heurística, estes otimizadores caminham em direção ao ponto de mínimo mais próximo da estimativa inicial, daí o nome “local”. Como desvantagem destes otimizadores é a mais evidente é que se a função perda for altamente não-linear, com diversos pontos de mínimo local, este otimizador pode ficar preso em um destes pontos sem nunca, no entanto, encontrar o mínimo global. Eles são, portanto muito sensíveis à estimativa inicial dos parâmetros.

    Por sua vez, otimizadores globais buscam mapear todo o espaço factível para os parâmetros e encontrar o ponto mínimo da função perda dentro deste espaço. Estes algoritmos não dependem de estimativas iniciais, uma vez que tentarão avaliar o espaço completo. São utilizados quando o problema de minimização é não-linear e possui múltiplos pontos de mínimo local. Estes algoritmos usam alguma forma de heurística para encontrar a região onde o mínimo global está localizado, mas são, em geral, ineficientes em apontar rapidamente onde este ponto de mínimo se encontra com precisão. Por esta razão, é frequente a utilização de otimizadores globais com um posterior refinamento de sua solução por algum algoritmo local.

    Abaixo apresentamos alguns exemplos mais comuns de otimizadores, tanto locais quanto globais:

    • Gauss-Newton: Este método é utilizado para encontrar as raízes de alguma função. Para encontrar o ponto de mínimo da função perda, precisa-se encontrar as raízes do gradiente desta função, portanto o método de Newton em otimização faz uso da função gradiente. Este é um método de otimização local.

    • Levenberg-Marquardt: Método muito utilizado para problemas não-lineares, ele parte de uma modificação ao método de Gauss-Newton ao introduzir um fator de amortecimento calculado iterativamente.

    • L-BFGS-B: BFGS é um método conhecido como quasi-Newton, onde não é necessário calcular a Hessiana do problema, ela é aproximada a partir do próprio gradiente. É bastante utilizado para resolver problemas não-lineares e em sua versão L-BFGS-B pode lidar com restrições do tipo box, intervalo dos parâmetros é fixo.

    • Nelder-Mead: Este é um método livre do uso de gradiente, já que usa uma heurística para construir um simplex e a partir deste “procurar” por um mínimo. Bastante utilizado quando a função objetivo pode não ser diferenciável. Faz uso de um simplex inicial, que pode ser grande o suficiente para encampar o mínimo global, entretanto, não se classifica como um otimizador global.

    • Algoritmo Genético: Este método utiliza conceitos da seleção natural para gerar os resultados da otimização. É um otimizador global, no sentido que independe de uma estimativa inicial de parâmetros e faz uma busca por todo o espaço factível. Em um algoritmo genético, uma população aleatória inicial de parâmetros é criada e a partir desta, as gerações evoluem conforme mutações e cross-over de características e é avaliado o fitness de cada conjunto de parâmetros até um deles ser considerado adequado.

    • Evolução Diferencial: É um método de otimização global, assim como o Algoritmo Genético e o Enxame de Partículas. Sua diferença reside no fato de que sua população inicial é constantemente avaliada e deslocada de posição. Se o agente obtiver uma situação melhor (menor valor para a função perda) na nova posição, esta agora faz parte da população. Desta forma os agentes, antes espalhados pelo espaço factível dos parâmetros, tendem a convergir para um ponto com o menor valor da função perda.

    • Enxame de Partículas: Do inglês, Particle Swarm Optimization – PSO este método é semelhante ao DE (Differential Evolution) porém as partículas (o equivalente dos agentes no DE) matém informações sobre a posição da melhor partícula até então, de forma a fazer com que as partículas tendam para a melhor solução.

    Conclusão

    Dependendo do objetivo da aplicação, superfícies de volatilidade podem ser interpoladas, suavizadas ou parametrizadas. A parametrização tem recebido especial interesse pois pode, ao mesmo tempo que garante uma superfície livre de arbitragem estática se devidamente construída, ajustar-se muito bem aos dados observados e gerar distribuições neutras ao risco implícitas factíveis.

    Para gerar uma superfície parametrizada, primeiramente é necessário um modelo teórico com propriedades desejáveis e que se ajuste aos dados de mercado quando calibrado. Escolhido este modelo paramétrico, passa-se a calibração do mesmo onde existem diversas opções de escolha entre otimizadores. Ao final do processo teremos um modelo de superfície devidamente parametrizado com valores que melhor se ajustam segundo alguma função perda escolhida.

    Com a superfície de volatilidade calibrada, as aplicações possíveis incluem a precificação de derivativos, gerenciamento de risco, simulações de Monte Carlo, análises de stress, entre outras.

    Referências

    Gatheral, Jim. 2004. “A Parsimonious Arbitrage-Free Implied Volatility Parameterization with Application to the Valuation of Volatility Derivatives.” Presentation at Global Derivatives & Risk Management, Madrid.

    Heston, Steven L. 1993. “A Closed-Form Solution for Options with Stochastic Volatility with Applications to Bond and Currency Options.” The Review of Financial Studies 6 (2). Oxford University Press: 327–43.

  • Veja mais detalhes no artigo anterior: Smile de volatilidade – parte 2
  • Definição retirada de https://pt.wikipedia.org/wiki/Spline
  • A variância total é o produto entre a variância implícita e o tempo para expiração, (w=\sigma^2_{imp}\cdot\tau).
  • Posted by Rafael F. Bressan in Derivativos & Riscos, 0 comments
    Smile de Volatilidade parte 2

    Smile de Volatilidade parte 2

    2019/01/25

    Daremos continuidade ao artigo anterior sobre o smile de volatilidade. Falaremos sobre a estrutura a termo da volatilidade implícita, agregando uma segunda dimensão ao smile e transformando-o na famigerada superfície de volatilidade implícita. Também será definida o que é a arbitragem estática e seus tipos e como a limitação da presença de arbitragem estática impõe restrições na superfície de volatilidade. Por fim, será demonstrado como, a partir de um smile de volatilidade é possível derivar a distribuição implícita neutra ao risco do subjacente para data de expiração das opções.

    Estrutura a termo

    O mercado precifica a volatilidade implícita de forma que esta dependa também do tempo até expiração, bem como do preço de exercício.

    A volatilidade implícita tende a ser uma função crescente da maturidade quando as volatilidades de curto prazo são historicamente baixas e função decrescente da maturidade quando as volatilidades de curto prazo são historicamente altas. Isso porque existe uma expectativa de reversão a uma média de longo prazo embutida na volatilidade. Esta característica é explorada explicitamente por alguns modelos de volatilidade, como em Heston (1993).

    As superfícies de volatilidade combinam smiles com a estrutura a termo de volatilidade para tabular valores apropriados para precificar uma opção com qualquer preço de exercício e prazo de expiração.

    Da mesma forma como a curva de juros em um dado momento é uma descrição concisa dos preços dos títulos negociados naquele mercado, assim, para um ativo subjacente em particular em determinado momento, a superfície de volatilidade implícita fornece uma descrição resumida de seu mercado de opções. Considerando que os rendimentos dos títulos são diferenciados pelo seu tempo até o vencimento, as opções são diferenciadas por seu tempo até a expiração e o strike, logo requerem uma superfície ao invés de uma curva.

    A figura 1 demonstra uma superfície de volatilidade implícita do SPX em 15/09/2005, conforme apresentado em Gatheral (2011).

    Superfície de volatilidade implícita.

    Figura 1: Superfície de volatilidade implícita.

    Arbitragem estática

    Antes de definir o que é arbitragem estática que pode estar presente em uma superfície de volatilidade (ou na superfície de preço de opções), vamos partir para a intuição por trás desta definição.

    O princípio de ausência de arbitragem é dominante na teoria financeira. Este princípio nos informa que não deve existir lucro sem que se incorra em algum tipo de risco, o lucro sempre é a remuneração do investidor que aceitou carregar alguma forma de risco durante o investimento. Portanto, não devem existir perfis de lucro acima da taxa livre de risco (payoffs positivos) com probabilidade de 100%.

    Primeiro consideramos uma trava de alta com opções do tipo call. Excluindo-se os custos de transação, esta operação sempre oferece um retorno positivo ou zero, conforme a figura 2. Por mais que esta estratégia esteja montada fora do dinheiro, sempre existe uma possibilidade de ela ter lucro, \(S_T>K\) e portanto seu preço deve ser sempre maior que zero.

    Perfil de lucro de uma trava de alta.

    Figura 2: Perfil de lucro de uma trava de alta.

    É claro que quanto mais ITM estejam as opções, maior seu preço e quanto mais fora do dinheiro menor será seu valor até o limite inferior zero. Se levarmos a diferença entre os strikes, \(dK\) a zero temos que:

    \[\frac{\partial C}{\partial K}\leq 0\]

    Este é o limite de arbitragem para travas de alta ou, mais conhecido pelo termo em inglês call spread no-arbitrage e impõe que os preços das calls devem ser uma função descrescente no strike. De forma equivalente e através da paridade compra-venda este limite de arbitragem para as puts é:

    \[\frac{\partial P}{\partial K}\geq 0\]

    Arbitragem de borboleta

    Também deve ser imposta uma restrição na segunda derivada do preço das opções em relação ao strike, e esta é conhecida como limite de arbitragem para borboletas. Vejamos porquê.

    Considere uma estratégia do tipo borboleta, onde se compra uma quantia de calls no strike \(K-dK\), vende-se duas vezes esta quantia em \(K\) e compra-se novamente um lote em \(K+dK\), o perfil de lucro desta operação no vencimento está representado na figura 3.

    Borboleta realizada com calls.

    Figura 3: Borboleta realizada com calls.

    Seguindo a mesma linha de raciocínio anterior, como o payoff da borboleta é sempre não negativo também deve ser o seu valor para qualquer período anterior a expiração. Se denotarmos \(\pi_B\) o valor da borboleta, então \(\pi_B\geq0\).

    Agora imagine que escalamos a estratégia de forma que um lote de compras (na venda são dois lotes) seja de tamanho \(1/dK^2\), o valor para a montagem desta operação deve ser, portanto:

    \[ \pi_B=\frac{C(K-dK)-2C(K)+C(K+dK)}{dK^2} \]

    E se levarmos ao limite em que \(dK\rightarrow 0\), a equação acima torna-se justamente a segunda derivada do preço da call no strike \(K\).

    \[ \begin{aligned} \frac{\partial^2 C(K)}{\partial K^2}=& \pi_B\\ \geq & 0 \end{aligned} \]

    Ou seja, os preços das calls são uma função convexa nos strikes. O mesmo raciocínio pode ser feito para uma borboleta com puts e o resultado será equivalente, o preço das puts também deve ser uma função convexa nos strikes.

    Arbitragem de calendário

    Passamos agora a analisar os limites de arbitragem na estrutura a termo da superfície de volatilidade. A arbitragem de calendário normalmente é expressa em termos de monotonicidade dos preços em relação ao período para expiração. Ou seja, quanto maior o prazo de maturidade de uma opção para um mesmo preço de exercício, maior deve ser seu valor.

    É fácil de entender este limite com base nas probabilidades de exercício. Como sabemos, em um processo estocástico do tipo MBG a variância do processo cresce conforme a raiz do tempo, \(\sqrt{\tau}\). Quanto maior a variância do ativo subjacente, maior a probabilidade deste alcançar um determinado preço, mais elevado ou não. Assim, seja uma call ou put OTM quanto mais distante estiver seu prazo de maturidade, maior a probabilidade de exercício e portanto, maior seu valor.

    Dado que a relação de volatilidade total implícita e preço de uma opção também é direta e positiva, conforme demonstrado na parte 1 deste artigo, segue que a volatilidade total deve ser não decrescente no tempo para expiração.

    Esta relação pode ser expressa através da seguinte equação para uma call precificada através de B&S:

    \[ \frac{\partial C_{BS}(k, \theta(\tau))}{\partial \tau}=\partial_\theta C_{BS}\cdot\partial_\tau \theta \geq 0 \]

    onde \(\partial_\theta C_{BS}\) é a derivada parcial do preço da call em relação a volatilidade total implícita, que já demonstramos ser positiva e \(\partial_\tau \theta\) é a derivada parcial da volatilidade total implícita em relação ao tempo para maturidade que, portanto, deve ser maior ou igual a zero para obedecer a restrição imposta ao preço da call.

    Limites de inclinação

    Se mantivermos a volatilidade implícita constante para todos os strikes, os preços das calls no modelo B&S devem ser decrescentes. Por outro lado, para um strike fixo, o preço de uma call se eleva à medida que a volatilidade implícita aumenta. Suponha por um momento que a volatilidade implícita varia com o strike como é o caso nos smiles. À medida que o strike aumenta, se a volatilidade implícita aumentar muito rapidamente, seu efeito sobre o preço da call pode mais que compensar o declínio no preço devido a elevação do preço de exercício e, assim, levar a um aumento líquido no preço da opção. Isso violaria o requisito de que \(\partial C /\partial K \leq 0\) e, portanto, leva a um limite superior na taxa em que a volatilidade implícita pode aumentar com o strike.

    Novamente, o mesmo raciocínio pode ser imposto para o lado das puts. A volatilidade implícita não pode se elevar tão rapidamente quando os strikes se reduzem de forma que uma put de strike menor tenha valor mais elevado que outra que esteja mais próxima do dinheiro.

    Finalmente, um sumário dos limites impostos a uma superfície de preços de opções (calls no caso apresentado), que implicam em limites para a superfície de volatilidade é apresentado abaixo1:

    1. \(\partial_\tau C \geq 0\)
    2. \(\lim\limits_{K\rightarrow\infty}C(K, \tau)=0\)
    3. \(\lim\limits_{K\rightarrow-\infty}C(K, \tau)+K=a, \quad a \in \mathbb R\)
    4. \(C(K, \tau)\) é convexa em \(K\)
    5. \(C(K, \tau)\) é não-negativa

    Distribuição implícita

    O modelo B&S é baseado na suposição que o ativo subjacente segue uma distribuição log-normal em seus preços. Caso esta suposição fosse de fato realizada no mercado, o smile de volatilidade seria uma reta completamente horizontal, não haveria variação na volatilidade implícita conforme o preço de exercício. Entretanto, esta não é a realidade dos smiles e podemos fazer a pergunta inversa portanto, qual a distribuição neutra ao risco que está implícita no smile de volatilidade?

    Certamente não é uma log-normal. Na verdade, a densidade da distribuição que está implícita em um smile nada mais é que a convexidade deste smile, ou seja, sua segunda derivada em relação ao strike. Esta distribuição implícita também é por vezes chamada de RND (risk neutral density) e é muito útil para fazer a precificação de outras opções que não são observadas no smile ou extrair probabilidades de ocorrência de eventos precificadas pelo mercado.

    Pode-se obter este resultado a partir da definição do valor de uma call e é conhecido como a fórmula de Breeden-Litzenberger2. O valor de uma call é o valor esperado do payoff terminal desta call ponderado pela densidade neutra ao risco do subjacente. Ou seja:

    \[ C(S, t)=e^{-r\tau}\int\limits_{0}^\infty p(S,t,S_T,T)\max\{S_T-K, 0\}dS_T \]

    onde \(p(\cdot)\) é a densidade neutra ao risco e estamos supondo uma taxa de juros livre de risco constante durante o período de vida da opção. Como o payoff da call é não linear, sendo zero para qualquer valor de \(S_T \leq K\) e igual a \(S_T-K\) quando \(S_T > K\), podemos escrever esta equação como:

    \[ C(S, t)=e^{-r\tau}\int\limits_{K}^\infty p(S,t,S_T,T)(S_T-K)dS_T \]

    que pode ser rearranjada, com alguma simplificação na notação, da seguinte forma.

    \[ \begin{aligned} \frac{\partial C}{\partial K}=& -e^{-r\tau}\int\limits_{K}^\infty p(S_T)dS_T\\ e^{r\tau}\frac{\partial C}{\partial K}=& \int\limits_{-\infty}^K p(S_T)dS_T\\ e^{r\tau}\frac{\partial^2 C}{\partial K^2}=& \ p(K)\\ \frac{\partial^2 C_B}{\partial K^2}=& \ p(K)\\ \end{aligned} \]

    Onde usou-se a notação \(C_B\) para denotar a formulação de Black para o preço de uma call. Ou seja, a segunda derivada em relação ao strike do preço não descontado de uma call é a distribuição neutra ao risco do ativo subjacente, e é válida para todos preços de exercício.

    Portanto, se desejarmos saber qual a distribuição de probabilidades de preços do ativo subjacente em uma data futura que possua vencimento de opções, basta encontrarmos a convexidade do smile dos preços forward daquele vencimento3.

    Conclusão

    Este foi um artigo denso, porém com vários conceitos importantes para a compreensão do comportamento da superfície de volatilidade. A estrutura a termo também é existente na volatilidade implícita e está limitada pela ausência de arbitragem do tipo calendário. O smile de volatilidade, que é uma fatia da superfície com prazo de expiração constante, possui suas próprias limitações de forma, com a ausência de arbitragem do tipo borboleta e limitações quanto a inclinação.

    Por fim, foi demonstrado como a convexidade do smile de preços fornece a distribuição implícita para os preços do ativo subjacente para a data de expiração das opções.

    Referências

    Aurell, Alexander. 2014. “The Svi Implied Volatility Model and Its Calibration.” Master’s thesis, Kungliga Tekniska Högskolan.

    Breeden, Douglas T, and Robert H Litzenberger. 1978. “Prices of State-Contingent Claims Implicit in Option Prices.” Journal of Business. JSTOR, 621–51.

    Gatheral, Jim. 2011. The Volatility Surface: A Practitioner’s Guide. Vol. 357. John Wiley & Sons.

    Heston, Steven L. 1993. “A Closed-Form Solution for Options with Stochastic Volatility with Applications to Bond and Currency Options.” The Review of Financial Studies 6 (2). Oxford University Press: 327–43.

  • Retirado de
    Aurell (2014), p. 25.[↩][2]

  • Autores da formulação em seu artigo,
    Breeden and Litzenberger (1978)[↩][3]

  • Simples em teoria, muito mais complicado na prática, com diversos problemas para a extrapolação do smile para strikes extremos.

    Posted by Rafael F. Bressan in Derivativos & Riscos, 0 comments
    Smile de Volatilidade

    Smile de Volatilidade

    <br /> Smile de Volatilidade – Superfície de Volatilidade<br />

    A volatilidade instantânea, \(\sigma\), do ativo subjacente é a única variável no modelo B&S que não pode ser diretamente observada. De fato, a volatilidade (ou equivalentemente a variância) de um ativo é dita uma variável latente. Sabemos que ela existe e possui algum valor no processo gerador, o processo pelo qual os preços são formados, porém não conseguimos observá-la diretamente, apenas estimá-la. Uma das formas de estimação de volatilidade pode ser a partir de dados históricos, mas várias outras formas existem, entre elas processos GARCH, volatilidade realizada, volatilidade estocástica, etc.

    Uma vez que a volatilidade não pode ser diretamente observada, a prática comum no mercado é fazer o caminho inverso. Considerar os preços de mercado para as opções como dado, e a partir do modelo B&S inverter a equação de preço da Call ou Put para encontrar a volatilidade deste modelo que é compatível com os preços de mercado. A esta volatilidade encontrada damos o nome de volatilidade implícita.

    Portanto, o smile de volatilidade que tratamos neste post é na verdade um gráfico entre a volatilidade implícita, retirada de opções Européias (baunilhas, do inglês vanilla options) a partir do modelo B&S, contra os strikes destas opções.

    Reparametrizando B&S e definição de moneyness

    Nem sempre é interessante plotar o smile contra os strikes propriamente ditos, uma forma de avaliar o quanto uma opção está “dentro, fora ou no dinheiro” pode ser a grega Delta ou então o chamado moneyness (por favor, se alguém tiver uma boa tradução para este termo, deixe nos comentários). Tradicionalmente a medida de moneyness é a relação \(K/S\), ou seja o strike contra o preço corrente do subjacente. Porém existem outras definições mais interessantes para se trabalhar, entretanto, antes devemos fazer uso de algumas definições e vamos reparametrizar as expressões \(d1\) e \(d2\) do modelo B&S.

    Lembrando que em precificação de opções estamos no mundo neutro ao risco, vamos definir o valor forward, \(F\) do subjacente como o valor corrente composto pela taxa livre de risco até a maturidade da opção, ou seja:

    \[F=e^{r\tau}S\]

    A volatilidade (implícita) total pode ser definida como a volatiliade reescalada pela raiz do tempo, que nos dá uma informação da volatiliade esperada para o subjacente do período corrente até a maturidade. Da mesma forma, a variância total. Denotanto a volatilidade total por \(\theta\) e a variância total por \(w\), temos:

    \[\theta=\sigma_{imp}\cdot \sqrt{\tau}\]

    e

    \[w=\sigma_{imp}^2\cdot\tau\]

    Vamos também definir a medida forward log-moneyness e denotá-la por \(k\). Esta será a medida de moneyness que iremos utilizar ao longo deste e de outros artigos, portanto iremos utilizar este termo para designar o forward log-moneyness a não ser que expresso de forma contrária no texto.

    \[k=\ln\left(\frac{K}{S}\right)-r\tau=\ln\left(\frac{K}{F}\right)\]

    Logo, o strike está relacionado ao moneyness de forma que: \(K=Fe^k\).

    Podemos agora reparametrizar as expressões \(d1\) e \(d2\) do modelo B&S de forma que serão mais facilmente trabalhadas em modelos de volatilidade. Lembrando destas expressões que já foram apresentadas em artigo anterior:

    \[\begin{aligned} &d_{1}={\frac {\ln(S/K)+(r+\sigma ^{2}/2)(\tau)}{\sigma {\sqrt {\tau}}}}\\ &d_{2}={\frac {\ln(S/K)+(r-\sigma ^{2}/2)(\tau)}{\sigma {\sqrt {\tau}}}}=d_1-\sigma\sqrt{\tau} \end{aligned}\]

    Substituindo as expressões para forward log-moneyness e volatilidade total nas definições acima temos as novas parametrizações para \(d1\) e \(d2\):

    \[\begin{aligned} &d_{1}={-\frac{k}{\theta}+\frac{\theta}{2}}\\ &d_{2}={-\frac{k}{\theta}-\frac{\theta}{2}}=d_1-\theta \end{aligned}\]

    Retomando o valor da opção do tipo Call no modelo B&S, podemos reescrever sua fórmula de apreçamento da seguinte forma:

    \[\begin{aligned} C(K, \tau)=&SN(d1)-Ke^{-r\tau}N(d2)\\ e^{r\tau}C(K, \tau)=&FN(d1)-KN(d2)\\ =&F\left[N(d1)-e^kN(d2)\right] \end{aligned}\]

    Esta equação é conhecida como a forma de Black de precificação (Black Call price formula), que relaciona os valores forward da opção (também conhecido como valor não descontado), do subjacente e do strike. Esta formulação é particularmente útil quando formos extrair a distribuição neutra ao risco do subjacente que está implícita nos preços de mercado das opções.

    Características de smiles de volatilidade

    Caso o modelo de Black, Schole e Merton estivesse em acordo com a realidade, e os ativos tivessem seus preços formados a partir de um verdadeiro MBG, a volatilidade implícita seria uma constante. O gráfico do smile de volatilidade seria uma reta horizontal, com a mesma volatilidade para qualquer nível de moneyness e se considerarmos a superfície toda (que leva em conta os diversos tempos para expiração) esta seria paralela ao domínio \((k, \tau)\). Não estaríamos escrevendo (e você lendo) este artigo se este fosse o caso…

    O fato é que o modelo B&S é um modelo muito restritivo, com inúmeras suposições que não se verificam no mundo real e que por conseguinte, tornam os resultados do modelo pouco acurados. Entretanto este é um modelo muito conhecido, de fácil assimilação por parte dos agentes de mercado e que virou a língua franca nos mercados de derivativos. Se todos os traders conversarem em termos do modelo B&S, todos se entenderão, mesmo que internamente cada um possua seu próprio modelo de apreçamento.

    Entre as características tipicamente observadas em smiles (e superfícies) de volatilidades pode-se citar:

    • As volatilidades implícitas variam conforme o strike e prazo de expiração
    • Smiles apresentam skew. Maior inclinação em uma das asas, representando uma maior probabilidade daqueles strikes acontecerem
    • Smiles de equity tipicamente são negativos
    • Mercados diferentes apresentam padrões de smile diferentes

    Mercados cambiais

    Opções sobre moedas possuem tipicamente um smile de volatilidade conforme mostrado na figura 1 abaixo. A volatilidade implícita é relativamente baixa para opções ATM. Esta torna-se progressivamente maior quando a opção se move para dentro do dinheiro ou para fora.

    Smile de volatilidade típico de um mercado cambial.

    Figura 1: Smile de volatilidade típico de um mercado cambial.

    Caso a distribuição dos preços do ativo subjacente, neste caso uma taxa de câmbio fosse perfeitamente log-normal como no modelo B&S, o smile não teria esta curvatura. Desta forma podemos afirmar que o mercado, ao precificar as opções, acredita que a distribuição deste ativo possui caudas com maior densidade que supõe a log-normal, existem maiores probabilidades de retornos muito baixos ou muito altos.

    Mercados de equities

    Nos mercados de equities, ações, índices de ações e ETFs, por exemplo, o smile apresenta uma característica de assimetria (skew, em inglês) negativa. A asa esquerda (parte onde as puts estão fora do dinheiro) apresenta valores de volatilidade implícita muito maiores que suas contrapartes no lado das calls. Este comportamento reflete a percepção de mercado de uma maior probabilidade de grandes perdas nas ações que altos ganhos, gerando portanto, uma distribuição de preços assimétrica. Como existe uma maior probabilidade de perdas extremas, o seguro para estas, ou seja, uma put é relativamente mais cara que uma call.

    Smile de volatilidade típico de uma ação ou índice de ações.

    Figura 2: Smile de volatilidade típico de uma ação ou índice de ações.

    Smile como forma de precificação

    Analisando a equação de B&S com a parametrização para \(d1\) e \(d2\) dada no início deste artigo é possível verificar que existe uma relação direta entre volatilidade implícita e preço de uma opção, seja esta uma call ou put.

    Como \(d1\) é estritamente crescente em \(\theta\) e \(d2\) é estritamente decrescente e ao mesmo tempo o preço de uma opção é crescente em d1 e decrescente em d2, logo, temos uma relação direta entre o preço de uma opção e sua volatilidade implícita para uma dada maturidade. Em outras palavras, em um smile, tudo o mais constante, quanto maior a volatilidade implícita maior o preço da opção naquele strike.

    Outra forma de verificar esta relação é perceber que a grega Vega, que é calculada da mesma forma para calls e puts, é sempre positiva. Ou seja, um aumento no valor da volatiliade sempre leva a elevações no preço de uma opção.

    Desta forma é normal entre os praticantes de mercado fazer a precificação de opções em termos de “pontos de volatilidade” e não em valores monetários propriamente ditos. Isto porque o modelo B&S, apesar de não ser o modelo correto (nenhum é) para a precificação de opções, é conhecido e de fácil entendimento para todos. Então todos os praticantes podem fazer suas cotações em termos de volatilidades implícitas, que são extraídas de opções baunilhas com o modelo B&S, e somente na hora de fechar um negócio e liquidar o pagamento, o preço efetivo a ser pago é acordado entre as partes.

    Conclusão

    O modelo de Black-Scholes-Merton, pode ser considerado a pedra fundamental para a precifição de opções. Entretanto, este modelo apresenta uma séries de limitações que fazem com que os praticantes de mercado utilizem outras técnicas neste mercado. Uma destas é o uso do smile de volatilidade e sua interpretação como forma de precificar opções e extrair informações implícitas nos preços.

    A assimetria do smile e suas asas informam que as distribuições de probabilidades para o ativo subjacente não são exatamente log-normais, e podem apresentar discrepâncias significativas, especialmente nas caudas da distribuição que muito interessam a gestão de risco, por exemplo.

    Posted by Rafael F. Bressan in Derivativos & Riscos, 3 comments