Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos,...
Transcript of Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos,...
UNIVERSIDADE FEDERAL DO RIO DE JANEIROCENTRO DE CIÊNCIAS JURÍDICAS E ECONÔMICASINSTITUTO DE PÓS-GRADUAÇÃO E PESQUISA EM ADMINISTRAÇÃOCOPPEAD
ESTUDO COMPARATIVO DOS MÉTODOS DE QUASI-MONTE CARLO,
AMOSTRAGEM DESCRITIVA, HIPERCUBO LATINO E MONTE CARLO
CLÁSSICO NA ANÁLISE DE RISCO
Flavio Filgueiras Pacheco Moreira
Dissertação de Mestrado
Orientador: Prof. Dr. Eduardo SalibyPhD em Pesquisa Operacional - LANCASTER/UK
Rio de JaneiroMarço 2001
ii
Folha de Aprovação
ESTUDO COMPARATIVO DOS MÉTODOS DE QUASI-MONTE CARLO,
AMOSTRAGEM DESCRITIVA, HIPERCUBO LATINO E MONTE CARLO
CLÁSSICO NA ANÁLISE DE RISCO
Flavio Filgueiras Pacheco Moreira
Dissertação submetida ao corpo docente do Instituto de Pós-Graduação ePesquisa em Administração da Universidade Federal do Rio de Janeiro, como parte dosrequisitos necessários à obtenção do grau de mestre.
Aprovada por:
Prof. _______________________________________ - Orientador Eduardo Saliby COPPEAD/UFRJ
Prof. _______________________________________ Eduardo Facó Lemgruber COPPEAD/UFRJ
Prof. _______________________________________ Gastão Coelho Gomes COPPE/UFRJ
iii
Ficha Catalográfica
Moreira, Flavio Filgueiras Pacheco.Estudo comparativo dos métodos de Quasi-Monte Carlo,
Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico naanálise de risco/Flavio Filgueiras Pacheco Moreira. Rio de Janeiro:UFRJ/COPPEAD, 2001.
xv, 135p. il.Dissertação Universidade Federal do Rio de Janeiro,
COPPEAD, 2001.1. Análise de risco. 2. Métodos de amostragem. 3. Simulação. 4.
Tese (Mestr. UFRJ/COPPEAD). I. Título.
iv
Ao Lucas,
Simples Amostra de Esperança.
v
AGRADECIMENTOS
Ao professor Eduardo Saliby, pelo grande incentivo, pela confiança
demonstrada e pela valiosa Orientação.
Aos professores Eduardo Facó Lemgruber e Gastão Coelho Gomes, pelo
empenho na leitura da versão final do trabalho há poucos dias da apresentação e pelas
sugestões acrescentadas.
A minha esposa, Claudia, pela compreensão, apoio e incentivo durante todas as
etapas de elaboração deste trabalho, e por Tudo que possa ser entendido como Amor.
Aos meus sogros, Alcides e Sabah, pelo incentivo e por cuidar de meu ativo
mais precioso, o Lucas, durante os momentos de preparação e redação do trabalho.
A minha mãe, Oraide, pelo apoio, incentivo e presença constante em todas as
etapas de minha formação.
Aos meus irmãos, Claudio e Lucio, pelo incentivo para realização deste projeto.
Aos demais parentes, amigos e Instituições (COPPEAD, CNPq e Booz·Allen &
Hamilton) que, direta ou indiretamente, contribuíram para a realização deste trabalho de
pesquisa.
vi
RESUMO
MOREIRA, F. F. P. Estudo comparativo dos métodos de Quasi-Monte Carlo,
Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico na análise
de risco. Orientador: Eduardo Saliby. Rio de Janeiro: UFRJ/COPPEAD, 2001.
135p. Dissertação. (Mestrado em Ciências da Administração)
Esta pesquisa comparou os desempenhos, quanto à velocidade de convergência e
exatidão dos resultados, de seis métodos de amostragem empregados atualmente em
ambientes empresariais e acadêmicos. Os métodos analisados foram o de Quasi-Monte
Carlo, utilizando as seqüências numéricas de baixa discrepância de Halton, Sobol e
Faure, o método de conjunto determinístico, como a amostragem Descritiva, o de
conjunto estratificado, como o Hipercubo Latino, e o clássico método de Monte Carlo.
Este último é precursor dos demais e considerado padrão de amostragem nas aplicações
de Simulação. Os desempenhos dos métodos em relação aos critérios adotados para
convergência e exatidão foram comparados entre si em três categorias de aplicações da
análise de risco decisão de investimento, avaliação de carteira de ações, avaliação do
preço de opções - e em uma aplicação científica, caracterizada pela avaliação de
integrais múltiplas. O método da amostragem Descritiva apresentou os melhores
resultados consolidados para as condições estabelecidas.
vii
ABSTRACT
MOREIRA, F. F. P. Estudo comparativo dos métodos de Quasi-Monte Carlo,
Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico na análise
de risco. Orientador: Eduardo Saliby. Rio de Janeiro: UFRJ/COPPEAD, 2001.
135p. Dissertação. (Mestrado em Ciências da Administração)
This research has intended to compare the performance, regarding the rate of
convergence and the valuation precision, of six sampling methods applied to the
businesses sphere and academic researches nowadays. The employed methods were the
Quasi-Monte Carlo with the Halton, Sobol and Faure low discrepancy numerical series,
deterministic set method as Descriptive sampling, stratified set method as Latin
Hypercube sampling, and the classic Monte Carlo method. The latter method is the
pioneer of the existing ones and considered as the standard sampling method in
Simulation. The analyzed methods performance based on the rate of convergence and
the results precision criteria were compared against each other in three categories of
risk analysis applications investment decision, stock portfolio evaluation, option price
evaluation and in a scientific application, consisting of multiple integration evaluation.
The Descriptive sampling method showed the best aggregate results on the previous
assigned conditions.
viii
LISTA DE QUADROS
Quadro 4.1 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato definido para o caso-base (D=5), na aplicação de Análisede Risco.................................................................................................................. 92
Quadro 4.2 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato definido para o caso variante 1 (D=8), na aplicação deAnálise de Risco .................................................................................................... 93
Quadro 4.3 Número de corridas e valor absoluto do desvio percentual relativo ao valorexato definido para o caso variante 2 (D=16), na aplicação de Análise de Risco 94
Quadro 4.4 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato definido para o caso variante 3 (D=12), na aplicação deAnálise de Risco .................................................................................................... 95
Quadro 4.5: Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso-base (D=4), na aplicação de Avaliação dePortfolio de Ações ............................................................................................... 100
Quadro 4.6 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso variante 1 (D=8), na aplicação de Avaliação dePortfolio de Ações ............................................................................................... 101
Quadro 4.7 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso variante 2 (D=10), na aplicação de Avaliaçãode Portfolio de Ações .......................................................................................... 102
Quadro 4.8 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso-base, na aplicação de Precificação de Opções.............................................................................................................................. 107
Quadro 4.9 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato da integral no caso-base (D=4), na aplicação de IntegraçãoMúltipla ............................................................................................................... 111
Quadro 4.10 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato da integral no caso variante 1 (D=8), na aplicação deIntegração Múltipla ............................................................................................ 112
Quadro 4.11 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato da integral no caso variante 2 (D=10), na aplicação deIntegração Múltipla ............................................................................................ 113
ix
LISTA DE GRÁFICOS
Figura 2.1 Resultado possível em experimentos bidimensionais para quantificar adiscrepância das séries numéricas regiões concentradas e regiões vazias........... 29
Figura 2.2 Discrepâncias para 50 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries de Halton (A) e séries aleatórias (B) - D50(A) = 3% eD50(B) = 5%............................................................................................................ 29
Figura 2.3 Discrepâncias para 150 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries de Halton (A) e séries aleatórias (B) D150(A) = 1,67% eD150(B) = 2,33%. .................................................................................................... 30
Figura 2.4 Discrepância para 255 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries de Halton (baixa-discrepância) D255 = 0,57%. ........... 30
Figura 2.5 Discrepância para 255 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries aleatórias D255 = 1,35% .............................................. 31
Gráfico 3.1 Função de distribuição acumulada de probabilidades dos volumes anuaisde vendas (mil unidades), segundo tabela 3.2 ........................................................ 67
Gráfico 4.1 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo ao critério de velocidade de convergência, na aplicação de Análise deRisco ....................................................................................................................... 96
Gráfico 4.2 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo ao critério de exatidão do resultado, na aplicação de Análise de Risco................................................................................................................................ 97
Gráfico 4.3 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo à velocidade de convergência, na aplicação de Avaliação de Portfoliode Ações ............................................................................................................... 105
Gráfico 4.4 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo à exatidão do resultado, na aplicação de Avaliação de Portfolio deAções .................................................................................................................... 106
Gráfico 4.5 Percentual consolidado de vitórias para cada método de amostragem sobreo total relativo ao critério de exatidão do resultado, na aplicação de Precificação deOpções .................................................................................................................. 109
Gráfico 4.6 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério da velocidade de convergência, na aplicação deIntegração Múltipla............................................................................................... 114
x
Gráfico 4.7 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério de exatidão do resultado, na aplicação de IntegraçãoMúltipla ................................................................................................................ 115
Gráfico 5.1 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério da velocidade de convergência, em todos osexperimentos da pesquisa ..................................................................................... 117
Gráfico 5.2 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério de exatidão do resultado, em todos os experimentos dapesquisa ................................................................................................................ 118
Gráfico 5.3 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo a ambos os critérios de desempenho, em todas as aplicações dapesquisa ................................................................................................................ 120
xi
LISTA DE TABELAS
Tabela 3.1 Custos unitários dos novos produtos e suas probabilidades de ocorrência,para a aplicação de Análise de Risco no lançamento ............................................. 66
Tabela 3.2 Intervalos possíveis para os volumes anuais de venda dos novos produtos,para a aplicação de Análise de Risco no lançamento ............................................. 67
Tabela 3.3 Valores do investimento inicial para lançar o novo produto e suasprobabilidades de ocorrência, para a terceira variante da aplicação de Análise deRisco ....................................................................................................................... 70
Tabela 3.4 Variações no preço final dos novos produtos com as respectivasprobabilidades de ocorrência, para a terceira variante da aplicação de Análise deRisco ....................................................................................................................... 70
Tabela 3.5 Reduções no volume de vendas do primeiro ano após lançar o produto, paraa terceira variante da aplicação de Análise de Risco.............................................. 71
Tabela 3.6 Retornos anuais médios e desvios-padrão para as ações da carteiraanalisada, na aplicação de Avaliação de Portfolio de Ações.................................. 72
Tabela 3.7 Matriz de correlação entre os retornos anuais médios das ações da carteiraanalisada, na aplicação de Avaliação de Portfolio de Ações.................................. 72
Tabela 3.8 Retornos anuais médios e desvios-padrão para as ações da carteiraanalisada, na primeira variante da aplicação de Avaliação de Portfolio de Ações 73
Tabela 3.9 Matriz de correlação dos retornos anuais médios das ações da carteiraanalisada, na segunda variante da aplicação de Avaliação de Portfolio de Ações. 74
Tabela 3.10 Retornos anuais médios e desvios-padrão das ações da carteira analisada,na terceira variante da aplicação de Avaliação de Portfolio de Ações................... 74
Tabela 3.11 Matriz de correlação dos retornos anuais médios das ações da carteiraanalisada, na terceira variante da aplicação de Avaliação de Portfolio de Ações .. 75
Tabela 3.12 Fluxo de caixa bruto do portador de uma opção de compra para um ativo-objeto, na data de exercício ou do vencimento da opção ....................................... 76
Tabela 4.1 Valores exatos para o VPL, tamanho das amostras, número de corridas ecritério de desvio, adotados nos casos da aplicação de Análise de Risco .............. 91
Tabela 4.2 Valores exatos para a probabilidade, tamanho das amostras, número decorridas e critério de desvio, adotados na aplicação de Avaliação de Portfolio deAções ...................................................................................................................... 99
xii
Tabela 4.3 Valores exatos para a integral, tamanho de amostras, número de corridas ecritério de desvio, adotados na aplicação de Integração Múltipla........................ 110
Tabela 4.4 Número de linhas de código das macros elaboradas em VBA para forneceras amostras de acordo com os algoritmos dos métodos de amostragem analisadosna pesquisa............................................................................................................ 116
Tabela 7.1 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Análise de Risco .............................................................................. 125
Tabela 7.2 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Análise de Risco .............................................................................. 126
Tabela 7.3 Número de vitórias para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Análise de Risco.......... 127
Tabela 7.5 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Avaliação de Portfolio de Ações ..................................................... 128
Tabela 7.6 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Avaliação de Portfolio de Ações ..................................................... 129
Tabela 7.7 Número de vitórias para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Avaliação de Portfolio deAções .................................................................................................................... 130
Tabela 7.8 Número de vitórias para cada método de amostragem estudado quanto aocritério da exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações.............................................................................................................................. 130
Tabela 7.9 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Precificação de Opções.................................................................... 131
Tabela 7.10 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Precificação de Opções.................................................................... 131
Tabela 7.11 Número de vitórias para cada método de amostragem estudado quantoaos dois critérios de desempenho, na aplicação de Precificação de Opções ........ 131
Tabela 7.12 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Integração Múltipla.......................................................................... 132
xiii
Tabela 7.13 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Integração Múltipla.......................................................................... 133
Tabela 7.14 Número de vitórias para cada método de amostragem quanto ao critérioda velocidade de convergência, na aplicação de Integração Múltipla.................. 134
Tabela 7.15 Número de vitórias para cada método de amostragem quanto ao critérioda exatidão do resultado, na aplicação de Integração Múltipla............................ 134
Tabela 7.16 Número de vitórias consolidadas para cada método de amostragem emrelação ao critério da velocidade de convergência, para todas as aplicações....... 135
Tabela 7.17 Número de vitórias consolidadas para cada método de amostragem emrelação ao critério da exatidão do resultado, para todas as aplicações ................. 135
Tabela 7.18 Total geral do número de vitórias para cada método de amostragem emrelação a ambos os critérios de desempenho, para todas as aplicações................ 135
xiv
SUMÁRIO
1 O PROBLEMA.......................................................................................................... 11.1 INTRODUÇÃO ......................................................................................................... 11.2 OBJETIVOS............................................................................................................. 41.3 QUESTÕES A SEREM RESPONDIDAS ........................................................................ 51.4 HIPÓTESES............................................................................................................. 61.5 DELIMITAÇÃO DO ESTUDO..................................................................................... 61.6 RELEVÂNCIA DO ESTUDO....................................................................................... 7
2 REFERENCIAL TEÓRICO .................................................................................... 92.1 O MÉTODO DE MONTE CARLO............................................................................... 92.2 MÉTODOS DE CONJUNTOS DETERMINÍSTICOS E PROBABILÍSTICOS........................ 10
2.2.2 Hipercubo Latino para grandes amostras .................................................. 182.2.3 Amostragem Descritiva ............................................................................... 20
2.3 MÉTODO DE QUASI-MONTE CARLO .................................................................... 272.3.1 Discrepância................................................................................................ 272.3.2 Séries numéricas de Halton......................................................................... 312.3.3 Método simplificado de Halton ................................................................... 342.3.4 Séries de Sobol e Faure ............................................................................... 362.3.5 Experimentos com séries de baixa-discrepância......................................... 36
2.4 APLICAÇÕES DE QUASI-MONTE CARLO............................................................... 442.5 CONCLUSÕES....................................................................................................... 61
3 METODOLOGIA.................................................................................................... 633.1 TIPO DE PESQUISA................................................................................................ 633.2 UNIVERSO E AMOSTRA......................................................................................... 64
3.2.1 ANÁLISE DE RISCO................................................................................... 653.2.1.1 Variantes do experimento de análise de risco ...................................... 69
3.2.2 AVALIAÇÃO DE PORTFOLIO DE AÇÕES............................................... 713.2.2.1 Variantes do experimento de avaliação de portfolio de ações.............. 73
3.2.3 PRECIFICAÇÃO DE OPÇÕES .................................................................. 753.2.4 INTEGRAÇÃO MÚLTIPLA......................................................................... 78
3.2.4.1 Variantes do experimento de integração múltipla ................................ 793.3 COLETA DE DADOS .............................................................................................. 80
3.3.1 Velocidade de convergência........................................................................ 803.3.2 Exatidão do resultado.................................................................................. 813.3.3 Eficiência da correlação forçada ................................................................ 82
4 RESULTADO .......................................................................................................... 844.1 TRATAMENTO DOS DADOS ................................................................................... 844.2 LIMITAÇÕES DA PESQUISA ................................................................................... 85
4.2.1 Metodologia................................................................................................. 854.2.2 Hardware..................................................................................................... 864.2.3 Software....................................................................................................... 87
4.3 RESULTADOS DAS SIMULAÇÕES........................................................................... 88
xv
4.3.1 Análise de risco ........................................................................................... 894.3.1.1 Velocidade de convergência................................................................. 964.3.1.2 Exatidão do resultado ........................................................................... 96
4.3.2 Avaliação de Portfolio de Ações ................................................................. 974.3.2.1 Eficiência da correlação forçada......................................................... 1034.3.2.2 Velocidade de convergência............................................................... 1044.3.2.3 Exatidão do resultado ......................................................................... 105
4.3.3 Precificação de Opções ............................................................................. 1064.3.3.1 Velocidade de convergência............................................................... 1084.3.3.2 Exatidão do resultado ......................................................................... 108
4.3.4 Integração múltipla ................................................................................... 1094.3.4.1 Velocidade de convergência............................................................... 1144.3.4.2 Exatidão do resultado ......................................................................... 114
4.3.5 Complexidade do código de programação................................................ 115
5 CONCLUSÃO........................................................................................................ 1175.1 SUGESTÕES PARA NOVAS PESQUISAS ................................................................. 120
6 REFERÊNCIAS BIBLIOGRÁFICAS ................................................................ 122
7 ANEXO................................................................................................................... 1257.1 APLICAÇÃO DE ANÁLISE DE RISCO.................................................................... 1257.2 APLICAÇÃO DE AVALIAÇÃO DE PORTFOLIO DE AÇÕES...................................... 1287.3 APLICAÇÃO DE PRECIFICAÇÃO DE OPÇÕES........................................................ 1317.4 APLICAÇÃO DE INTEGRAÇÃO MÚLTIPLA ........................................................... 1327.5 CONSOLIDAÇÃO DO NÚMERO DE VITÓRIAS NA PESQUISA................................... 135
1 O PROBLEMA
Neste capítulo, serão apresentadas as principais características dos métodos de
simulação, os objetivos e questões a serem respondidos após a pesquisa, as principais
hipóteses e delimitações para os métodos empregados e as razões que justificaram e
motivaram este estudo.
1.1 Introdução
A simulação é um método de resolução de problemas complexos ou de difícil
solução analítica que vem sendo cada vez mais utilizada em diversas áreas de
conhecimento, como as áreas administrativas e financeiras. A crescente complexidade
das análises e das inter-relações entre as variáveis, além da maior disponibilidade de
recursos computacionais, têm contribuído para isso.
As principais vantagens oferecidas pelo método de simulação são a grande
flexibilidade na preparação de aplicações e o grau de acessibilidade aos pesquisadores
interessados. Sistemas de apreciação de ativos, avaliação de fluxos de caixa, previsão de
vendas, controle de estoques, atendimento a clientes e transportes público e militar têm
sido exemplos correntes de aplicações das ferramentas de simulação.
As principais desvantagens na utilização do método de simulação - dificuldade
operacional na modelagem e implementação das aplicações - e o tempo empregado para
executar os programas têm sido atenuados pela evolução computacional e pelo
surgimento de algoritmos que procuram reduzir o tempo de execução das atividades.
Todo processo de simulação consiste na construção de um modelo lógico-
matemático, na tradução deste modelo em linguagem de programação, na execução do
programa e na coleta de resultados. Segundo Saliby (1989), há três categorias de
simulação: determinística/probabilística, estática/dinâmica e discreta/contínua.
2
Na simulação determinística, as variáveis presentes são determinísticas e, em
caso de problemas mais simples, existe uma solução analítica que deve ser analisada. É
o caso de aplicações em planejamento financeiro e sistemas macroeconômicos. Na
simulação probabilística, o modelo é mais próximo da realidade e, por conseqüência,
mais complexo, havendo maior número de inter-relacionamentos entre variáveis. Nestes
casos, os modelos possuem variáveis aleatórias com papéis auxiliares cujos valores
serão gerados pelos métodos apropriados a cada problema.
A simulação estática é utilizada nos sistemas que não sofrem alteração ao longo
do tempo, como por exemplo nas aplicações do método de Monte Carlo ao cálculo de
integrais ou nas amostragens realizadas em estudos estatísticos. Contudo, a maioria das
aplicações de simulação está ligada a experimentos em sistemas que evoluem com o
tempo, como é o caso das análises financeiras, que requerem o uso da simulação
dinâmica.
A simulação é classificada como discreta ou contínua de acordo com os valores
assumidos pelas variáveis e com os processos utilizados para atualização dos mesmos.
Na simulação discreta, a hipótese é que o estado do sistema não se altera entre a
ocorrência de eventos consecutivos. Na simulação contínua, muito embora a passagem
do tempo seja em pequenos intervalos, o tempo é considerado contínuo pelo sistema em
estudo. De acordo com Saliby (1989), a simulação contínua é muito utilizada nos
sistemas descritos por equações diferenciais e nas simulações de processos contínuos
como as operações em refinarias de petróleo.
A maioria das aplicações realizadas neste estudo é de natureza probabilística
discreta. Esta dissertação estuda o problema do tempo e da exatidão dos resultados nos
experimentos de simulação, analisando os diversos métodos de amostragem existentes e
que têm sido recentemente pesquisados no universo acadêmico. Dentre estes métodos,
estão o método de Monte Carlo, os de Quasi-Monte Carlo (ou de baixa-discrepância), o
Hipercubo Latino e a amostragem Descritiva.
3
Na verdade, alguns dos métodos de amostragem utilizados representam uma
mudança de princípio em relação ao tradicional método de Monte Carlo. Segundo
Saliby (1989), o princípio da imitação total, que fez da amostragem aleatória simples
(Monte Carlo) um padrão em simulação, não é seguido quando utilizamos a
amostragem Descritiva ou algumas das séries de baixa-discrepância (Quasi-Monte
Carlo) nas aplicações. Os resultados obtidos abrem caminho para questionar a
padronização deste princípio nos casos de simulação.
O método de Monte Carlo foi proposto, inicialmente, por von Neumann e Ulam
para a solução de problemas matemáticos complexos com difícil solução analítica,
durante a Segunda Guerra Mundial. Estes problemas envolviam soluções de integrais
múltiplas nos estudos de difusão de nêutrons que, mais tarde, culminariam na
construção da primeira bomba atômica. Alguns anos depois, as principais deficiências
do método foram apontadas como sendo o grande esforço computacional envolvido e a
baixa precisão dos resultados.
Na década de 50, o método de Monte Carlo foi utilizado para aplicações
envolvendo filas de espera com o intuito de estimar parâmetros e obter conclusões sobre
seu comportamento. Era o início das aplicações de simulação por Monte Carlo. Um dos
pioneiros desta idéia foi Tocher, autor do primeiro livro sobre o assunto, lançado em
1963.
Os métodos do Hipercubo Latino e da amostragem Descritiva, que surgiram nas
aplicações de simulação após Monte Carlo, foram comparados a este por diversos
pesquisadores, dentre eles Saliby (1990a) e Saliby e Paul (1993), que identificaram
melhora, em termos estatísticos, em relação à amostragem aleatória simples.
Os métodos de amostragem de Quasi-Monte Carlo, que têm sido empregados
recentemente em inúmeros experimentos, podem auxiliar no cálculo do valor em risco
das aplicações do mercado financeiro. A complexidade da modelagem e da
programação, entretanto, poderia não justificar o aumento na velocidade de
convergência dos resultados em algumas ocasiões.
4
Desta forma, seria sempre recomendável utilizar os métodos de amostragem de
Quasi-Monte Carlo quando o aparato computacional e seus afins não representassem
impedimento e a velocidade de simulação fosse o fator preponderante na aplicação
estudada?
Assim, o objetivo principal deste trabalho é utilizar os métodos de Quasi-Monte
Carlo, amostragem Descritiva e Hipercubo Latino em aplicações voltadas
principalmente ao mercado financeiro e comparar os resultados obtidos aos
provenientes do método tradicional de Monte Carlo.
1.2 Objetivos
O objetivo principal deste estudo é comparar a exatidão dos resultados e o tempo
empregado na simulação dos experimentos da área financeira quando utilizamos os
métodos de amostragem de Quasi-Monte Carlo (Faure, Sobol e Halton) e os demais
métodos de amostragem conhecidos (Monte Carlo, Hipercubo Latino e Descritiva).
Outro objetivo do estudo é identificar o grau de complexidade adicionado ao
modelo computacional desenvolvido para Monte Carlo quando adotamos algum dos três
outros métodos de amostragem conhecidos (Quasi-Monte Carlo, Hipercubo Latino ou
amostragem Descritiva).
Um objetivo intermediário é testar os algoritmos sugeridos por Cholesky para
obtenção de séries correlacionadas a partir de séries de amostras aleatórias
independentes. As amostras transformadas por Cholesky serão empregadas nos
experimentos envolvendo carteiras de ações. Os resultados serão comparados aos
obtidos sem utilizar a transformação.
5
Há interesse em desenvolver algoritmos e macros em Excel para os métodos de
amostragem de Quasi-Monte Carlo e para as transformadas de Cholesky, a fim de tornar
acessíveis os resultados e incentivar novas pesquisas na área.
Por fim, pretendemos aplicar os conceitos da amostragem por Quasi-Monte
Carlo a problemas de cálculo com integrais múltiplas para testar a exatidão dos
resultados em relação à solução analítica já conhecida.
1.3 Questões a serem respondidas
O aumento na velocidade de simulação utilizando Quasi-Monte Carlo em
relação à velocidade utilizando Monte Carlo é significativo?
A complexidade acrescentada ao modelo sugerido e ao código de programação
pode representar impedimento à utilização de Quasi-Monte Carlo?
O ganho de velocidade ao utilizar Quasi-Monte Carlo em relação às velocidades
obtidas com os métodos do Hipercubo ou da amostragem Descritiva é significativo?
Existe algum parâmetro que possa caracterizar as aplicações em que a utilização
de Quasi-Monte Carlo possa ser viável ou inviável?
Em aplicações científicas, que exigem normalmente a resolução de integrais
múltiplas, a performance do método de Quasi-Monte Carlo excedeu a performance de
Monte Carlo clássico?
O emprego do algoritmo de transformação de Cholesky realmente produz séries
correlacionadas segundo uma matriz fornecida?
6
Os resultados das aplicações envolvendo uma carteira de ações correlacionadas
apresentaram valores muito discrepantes antes e após aplicar a transformada de
Cholesky?
Existe algum parâmetro ou matriz de correlação para as ações da carteira que
possua influência na comparação dos resultados antes e após aplicar Cholesky?
1.4 Hipóteses
A velocidade de simulação utilizando a seqüência de Faure (Quasi-Monte Carlo)
é muito inferior às velocidades utilizando outras seqüências de amostragem com baixa-
discrepância.
A velocidade de simulação utilizando a seqüência de Faure é equivalente à
velocidade de convergência utilizando a seqüência de amostragem Descritiva.
A aplicação das transformadas de Cholesky não traz resultados significativos
quando o número de corridas de simulação é muito elevado.
O aumento na complexidade do código de programação ao utilizar o método de
Quasi-Monte Carlo é significativo apenas para a seqüência de Halton.
1.5 Delimitação do estudo
O experimento de comparação entre dois ou mais métodos de amostragem pode
envolver uma série de dimensões de comparação. Dentre estas dimensões, destacamos
apenas três a serem considerados neste estudo: a velocidade de convergência do
experimento, a exatidão do resultado obtido na simulação e o grau de complexidade do
código de programação adotado.
7
A velocidade de convergência da variável de saída do experimento envolve
critérios de parada que podem estar associados, entre outros parâmetros, à precisão do
resultado obtido, ao número de corridas executadas ou ao tempo máximo permitido para
a simulação do experimento. A escolha do critério dependerá do tipo de exercício
realizado.
A exatidão do resultado obtido na simulação será avaliada pelo desvio
percentual do resultado, após a convergência, relativo ao valor exato da simulação. Este
valor foi definido como o resultado obtido pela execução do experimento com Monte
Carlo clássico. Pelo critério de convergência adotado, a simulação será interrompida
quando duas corridas consecutivas apresentarem resultados cujo desvio percentual for
inferior a um limite pré-estabelecido.
O grau de complexidade do programa gerador de amostras pode ser comparado
através de alguns parâmetros, por exemplo, pelo tempo empregado para gerar uma única
amostra de tamanho significativo, pelo número de linhas de programação no código-
fonte ou pelo tipo da linguagem de programação adotada na simulação. Neste estudo, a
comparação foi feita através do número total de linhas no programa.
Devido ao interesse de tornar os programas desenvolvidos acessíveis em simples
computadores pessoais (sem softwares específicos para análise de dados), a linguagem
de programação utilizada foi o VBA do MS Excel 2000.
1.6 Relevância do estudo
O método de Monte Carlo é amplamente utilizado em Simulação, desde a
apreciação de instrumentos financeiros complexos até a resolução de integrais múltiplas
cuja solução analítica não aparenta ser viável. Estudos preliminares como em Traub
(1996) envolvendo métodos determinísticos de amostragem, entretanto, mostraram
8
resultados aparentemente superiores, em relação à velocidade e à exatidão, aos
apresentados pelos métodos tradicionais.
Velocidades de simulação cerca de 50 vezes mais elevadas e erros cerca de 20
vezes inferiores aos apresentados pelo método tradicional de Monte Carlo foram
constatações específicas para os casos testados de Quasi-Monte Carlo. Antes de concluir
sobre sua viabilidade em casos gerais, suas propriedades deveriam ser analisadas com
maior riqueza de detalhes. Ainda que tenham sido testados com instrumentos
derivativos inexistentes no País, as conclusões nos incentivam a aplicar tal método em
instrumentos financeiros similares, devido ao grande potencial de economia no tempo
de execução e melhoria no resultado associado ao uso do método.
O método de transformação de um vetor de variáveis aleatórias independentes
em outro vetor de variáveis correlacionadas, desenvolvido por Cholesky e apresentado
em Iman e Conover (1982), demonstrou resultados satisfatórios nas análises pelo
método de Monte Carlo. Sua simplicidade de cálculo e de programação, aliadas ao fato
de poder ser aplicado a quaisquer métodos de amostragem que aceitem variáveis
correlacionadas, são atrativas para a realização de estudos amostrais. O ganho potencial
na exatidão das avaliações de carteiras de ações em nosso mercado acionário poderia
ajudar a reduzir os problemas da arbitragem nesse mercado.
Este capítulo apontou a flexibilidade dos métodos de simulação na solução de
problemas complexos, bem como suas principais desvantagens. Foi mostrado que o
objetivo fundamental do trabalho será comparar os diferentes métodos de amostragem
existentes. As perguntas relevantes sobre o objetivo principal e as correspondentes
hipóteses a serem testadas também foram listadas. Em seguida, foram mostradas as
simplificações adotadas e as razões que motivaram a pesquisa, dentre elas a necessidade
de obter avaliações confiáveis para problemas de complexidade crescente em intervalos
de tempo cada vez menores.
9
2 REFERENCIAL TEÓRICO
Neste capítulo, serão apresentados o contexto histórico e a evolução dos
métodos de amostragem empregados em simulação e abordados nesta pesquisa. Uma
breve descrição das características dos métodos mais complexos, como o de Quasi-
Monte Carlo com séries numéricas de baixa-discrepância, e algumas de suas recentes
aplicações também serão mostradas.
2.1 O método de Monte Carlo
Segundo Saliby (1989), o método de Monte Carlo com amostragem aleatória
simples possui vasta aplicação na simulação probabilística, apesar de ter sido concebido
originalmente por von Neumann e Ulam, durante a Segunda Guerra Mundial (1939-45),
para resolução de complexas integrais múltiplas e de diversos outros problemas
matemáticos de natureza determinística.
Após alguns anos de sua criação, suas principais desvantagens foram
identificadas e reconhecidas: o esforço computacional na preparação dos programas e a
baixa precisão dos resultados obtidos. Com recursos computacionais restritos à época,
as pesquisas foram direcionadas para aumentar a precisão nos cálculos através de novas
técnicas de redução de variância, muitas delas com controle parcial do processo de
amostragem.
No início da década de 50, com o aparecimento dos primeiros computadores, o
método de Monte Carlo começou a ser aplicado em experimentos probabilísticos como,
por exemplo, na obtenção de parâmetros para dimensionar filas de espera. Nascia,
assim, a simulação por Monte Carlo, que teria seu primeiro livro publicado em 1963.
Impulsionada pela redução nos custos dos recursos computacionais e pelo
desenvolvimento de novas linguagens de programação, apesar da persistência dos
10
problemas de precisão nos cálculos, a metodologia de simulação começou a ser
largamente empregada. As técnicas de redução de variância ainda eram pouco usadas
devido à idéia pré-concebida de que os verdadeiros processos de amostragem não
deveriam sofrer restrições.
2.2 Métodos de conjuntos determinísticos e probabilísticos
McKay, Beckman e Conover (1979) realizaram um estudo comparativo entre
dois métodos de amostragem, o Hipercubo Latino e a Amostragem Estratificada, e o
método tradicional de Monte Carlo.
Naquela época, métodos numéricos que forneciam soluções aproximadas para
problemas relacionados ao fluxo de fluidos, com soluções analíticas complexas, já eram
empregados há anos. Em alguns dos problemas de fluxo de fluidos era impraticável ou
impossível realizar experimentos em laboratório. O código de programação, nestes
casos, deveria estar correto para garantir que o resultado da simulação transcreveria a
realidade nas condições de contorno adotadas.
Na ocasião, os códigos computacionais eram muito complexos e até mesmo um
simples conjunto de dados de entrada requeria várias horas de processamento no mais
veloz dos computadores utilizados nas simulações.
Ao modelarem fenômenos reais em computadores, os pesquisadores sempre
enfrentavam o problema da escolha dos valores que deveriam utilizar como variáveis de
entrada nos modelos. Tal dificuldade surgia naturalmente, uma vez que em processos
físicos os parâmetros estão em constante transformação, flutuando ao redor dos valores
nominais. Freqüentemente, os pesquisadores replicavam as incertezas sobre os valores
de entrada tratando estes como variáveis aleatórias.
Entretanto, como as janelas de tempo dos experimentos eram muito pequenas, as
variáveis de entrada precisavam ser escolhidas com cuidado. Esta preocupação
11
freqüente levou os autores a procurar novos métodos de amostragem para as variáveis.
Acabaram adotando na pesquisa os métodos desenvolvidos para estudar a segurança de
reatores no Grupo de Hidrodinâmica do Laboratório Científico de Los Alamos.
Um programa, chamado Sola-Ploop, foi utilizado para simular a descompressão
de um vaso retilíneo preenchido com água à temperatura e pressão iniciais definidas. As
variáveis de entrada foram consideradas uniformemente distribuídas sobre seus
intervalos de flutuação. A variável analisada foi a pressão no interior do vaso em função
do tempo. O instante inicial foi definido como o momento de ruptura do vaso. A janela
de tempo considerada foi de 20 milisegundos.
O programa foi executado inúmeras vezes, aplicando os três métodos estudados,
selecionados dentre inúmeros outros, de modo a permitir as comparações realizadas. Os
autores demonstraram que os novos métodos de amostragem Hipercubo e
Estratificada - não produziram estimativas tendenciosas para a variável de saída.
O método da amostragem Estratificada consistiu em subdividir o universo de
amostras (de onde seriam extraídos, aleatoriamente, N elementos) em um certo número
de subconjuntos disjuntos (I), de onde deveriam ser retiradas as amostras de elementos
(nj), de modo que o produto destes termos (I ∗ nj) igualasse o total de elementos (N) da
variável de entrada no modelo.
A amostragem por Hipercubo Latino seguia o mesmo princípio da amostragem
Estratificada ao considerar N subconjuntos disjuntos. Contudo, apenas um elemento de
cada conjunto era extraído para a variável de entrada no modelo. Uma vantagem natural
do Hipercubo sobre os demais métodos de amostragem adotados ficava evidente quando
a variável de saída do modelo era influenciada apenas por algumas das componentes da
variável de entrada.
O experimento consistiu em realizar 50 observações para cada um dos três
métodos de amostragem analisados e coletar os dados sobre a precisão e a exatidão dos
resultados individuais obtidos. O tempo total para a execução do programa foi de sete
12
horas. Alguns dos resultados estavam inconsistentes com o sugerido pela teoria.
Segundo os autores, tais discrepâncias aconteceram devido ao tamanho das amostras e à
independência parcial dos estimadores ao longo do tempo.
Os gráficos comparativos para as médias e desvios obtidos como resultado das
50 observações indicaram que os estimadores adotados não eram tendenciosos. Os
desvios dos estimadores utilizando a amostragem Estratificada foram inferiores aos
apresentados por Monte Carlo. Contudo, foi a amostragem por Hipercubo que
demonstrou clara superioridade, pois os desvios com este método foram cerca de 25%
dos desvios apresentados por Monte Carlo.
2.2.1 Transformada de Cholesky
Pouco tempo depois, Iman e Conover (1982) desenvolveram um procedimento
para induzir determinada matriz de correlação em variáveis multidimensionais nos
experimentos de simulação. A metodologia era simples e independente do tipo de
distribuição da amostra, preservando o formato original da mesma. O método poderia
ser empregado nos experimentos onde o conceito de variáveis correlacionadas era
aplicável. Os autores realizaram experimentos utilizando a amostragem por Monte
Carlo para estimar o viés e a variância associados ao método.
Naquela época, modelagens eram largamente empregadas para simular
relacionamentos complexos entre variáveis econômicas, sociais ou físicas, a fim de
estimar valores desconhecidos ou realizar previsões. A evolução dos computadores
induzia uma crescente complexidade nos modelos desenvolvidos e já não era raro
encontrar aplicações com centenas de variáveis de entrada que consumiam horas de
processamento até fornecer o primeiro resultado.
Muitos estudos sobre técnicas estatísticas para modelagem em computadores já
haviam sido publicados, mas pouco fora feito relativamente à incorporação de
dependências múltiplas entre as variáveis de entrada. Era comum apenas assumir as
variáveis de entrada como independentes entre si, apesar dos estudos de Scheuer e
13
Stoller (1962) já apontarem a possibilidade de gerar vetores correlacionados a partir de
vetores aleatórios indicando, na ocasião, dois métodos para realizar esta transformação.
Uma abordagem em uso para incorporar certa dependência entre variáveis era
considerar combinações lineares de variáveis aleatórias a fim de construir uma estrutura
com a correlação desejada. Isto funcionava bem para séries de entrada aleatórias
normais mas, quando as amostras de entrada eram obtidas por métodos estratificados,
esta abordagem destruía a integridade dos estratos originais. Além disso, as
combinações lineares para amostragens aleatórias não-normais poderiam afetar a
distribuição marginal apresentada pelas séries originais.
Outra abordagem, proposta alguns anos antes, segundo os autores, consistia em
transformar linearmente um vetor normalmente distribuído em outro vetor
multidimensional e, logo após, aplicar as transformações convenientes para obter as
distribuições marginais procuradas. Contudo, os momentos (média, variância) das séries
transformadas eram difíceis de controlar. Em caso de duas variáveis, o controle poderia
ser feito utilizando distribuições log-normais e hiperbólicas mas, em caso de mais
variáveis, o tratamento analítico ficava inviável.
A abordagem proposta pelos autores foi baseada na hipótese de que a correlação
por rank (ou rank correlation) era uma forma sensata de definir dependências entre as
variáveis de entrada no modelo. Os autores acreditavam que o coeficiente de correlação
calculado sobre as séries originais, ainda não transformadas, poderia perder sentido caso
tais séries fossem não-normais ou quando houvesse outliers nas amostras. Por outro
lado, os coeficientes de correlação por rank continuavam fazendo sentido para a maioria
das simulações, mesmo quando os dados de entrada eram normalmente distribuídos.
O método utilizado consistia na aplicação da transformada de Cholesky para
obter, a partir da matriz de correlação desejada, uma matriz triangular inferior que, por
sua vez, seria multiplicada à direita por um vetor multidimensional com variáveis
independentes, resultando no vetor multidimensional com as correlações desejadas.
14
Para o caso tridimensional (D=3), o algoritmo de Cholesky para produzir
vetores correlacionados a partir de vetores independentes foi descrito a seguir.
Sejam:
* Σ ... a matriz de correlação desejada para a variável de entrada;
* A ... uma matriz triangular superior;
* At ... a matriz transposta da matriz A.
Por definição, devemos admitir que:
Σ = At A [2.1]
Assim, teremos:
[2.2]
E, conseqüentemente:
[2.3]
Ou, de forma equivalente:
[2.4]
=Σ
sssssssss
333231
232221
131211
=
aaaaaa
A
33
2322
131211
000
=
aaaaa
aAT
332313
2212
11
000
⋅
=
aaaaaa
aaaaa
a
sssssssss
33
2322
131211
332313
2212
11
333231
232221
131211
0000
00
+++++=
aaaaaaaaaaaaaaaaa
aaaaa
sssssssss
2
33
2
23
2
13222312131113
23221312
2
22
2
121112
13111211
2
11
333231
232221
131211
......
..
15
E, se este sistema apresentar solução, então:
[2.5]
Generalizando para vetores multidimensionais (D=N), teremos:
[2.6]
Uma das hipóteses do método era a independência das séries de variáveis de
entrada utilizadas na transformação de Cholesky. Entretanto, tais amostras nem sempre
apresentavam a independência desejada. Os autores desenvolveram então um
procedimento para corrigir as discrepâncias decorrentes deste fato e que eram
observadas entre as matrizes de correlação calculadas e esperadas. O procedimento
consistia na aplicação da transformada de Cholesky sobre a matriz de correlação real
(naturalmente distinta da matriz identidade I) relativa às amostras originais. A nova
matriz triangular inferior obtida era invertida e multiplicada à direita pela matriz
triangular já produzida por Cholesky, para gerar uma nova matriz triangular inferior que
seria aplicada sobre os vetores de entrada. Os novos vetores obtidos a partir desta última
operação possuiriam, exatamente, a matriz de correlação procurada.
Este algoritmo de ajuste da Transformada de Cholesky, para os casos em que a
matriz de correlação dos vetores de entrada é diferente da matriz identidade, foi
apresentado a seguir.
asaasa
sa
11
3113
11
2112
1111
=
=
=
( )
aasa
aasaaasa
2
23
2
133333
12133222
23
2
122222
.1
−−=
−⋅=
−=
N , ... 2,i 1,ij com ,.1 1
1
1
1
2
++=
−⋅=
−=
∑
∑−
=
−
=
i
kjkikij
iiij
i
kikiiii
aasaa
asa
16
Sejam:
* T ... a verdadeira matriz de correlação da variável de entrada;
* Q ... uma matriz triangular inferior;
* Σ ... matriz de correlação desejada para a variável de entrada;
* S ... uma matriz auxiliar.
Tais que:
T = Q Qt [2.7]
Σ = S T St [2.8]
Assim:
Σ = S Q Qt St = At A [2.9]
Onde uma solução possível é:
S Q = At ou S = At Q-1 [2.10]
Em seguida, a matriz Q é determinada pela aplicação do algoritmo de Cholesky
à matriz T e S é determinada pelas equações 2.10. A matriz St é a nova matriz de
transformação ajustada. A matriz St deve ser multiplicada à direita pelo vetor de entrada
para obter o novo vetor transformado que, desse modo, possuirá matriz de correlação
idêntica à matriz desejada (Σ).
Alguns testes realizados pelos autores, envolvendo amostragens de Monte Carlo,
demonstraram que a aplicação do procedimento de correção aproximou bastante os
valores reais dos valores procurados para as correlações das séries de entrada,
principalmente para as correlações próximas de zero. A medida de variância das séries
corrigidas era cerca de 12 a 15 vezes menor que a das séries não-corrigidas e decrescia à
medida que o número de repetições aumentava.
17
Um teste importante utilizando um exemplo prático obtido de um livro-texto foi
realizado pelos autores para avaliar o impacto da transformação das variáveis
independentes em variáveis correlacionadas. Neste teste, a variável aleatória de entrada
possuía quatro dimensões e alimentava uma função analítica. Foi empregada a
distribuição normal multidimensional, por ser a única distribuição multidimensional que
poderia ser manipulada sem fazer uso dos métodos de aproximação apresentados pelos
autores. Valores arbitrários para as demais variáveis do exercício foram atribuídos
apenas para caracterizar uma aplicação de simulação.
As saídas consideradas no teste foram: a função-distribuição dos valores da
função analítica estudada e seus quatro momentos. Os resultados utilizados como
referência para as comparações foram obtidos com amostras de 1000 elementos. Em
seguida, foram utilizados os métodos de Monte Carlo e do Hipercubo Latino para gerar
amostras de 50 elementos em dez corridas consecutivas. Os resultados foram
comparados à referência anteriormente definida. Dois casos foram analisados utilizando
Monte Carlo e o Hipercubo e aplicando o método desenvolvido pelos autores. Outros
dois casos foram preparados utilizando as mesmas amostras sem, contudo, aplicar o
procedimento sugerido pelos autores.
Nos casos em que o procedimento de forçar a correlação foi aplicado, para
ambos os métodos de amostragem, três dos quatro momentos apresentaram valores mais
próximos aos da referência. Além disso, todos os casos onde o procedimento foi
aplicado apresentaram desvios-padrão com valores inferiores para os quatro momentos.
Os gráficos das funções-distribuição da variável de saída (função analítica)
também foram comparados nos casos onde o procedimento de forçar a correlação foi
utilizado e nos casos em que não o foi. Os resultados mostraram que, para aquele
exemplo, utilizar o método sugerido pelos autores resultou em melhores estimativas,
tanto para Monte Carlo quanto para o Hipercubo.
18
2.2.2 Hipercubo Latino para grandes amostras
Alguns anos depois, Stein (1987) estava analisando o modelo matemático para
um equipamento do qual pretendia estimar o valor esperado de uma certa medida de
performance. O modelo matemático consistia em um conjunto de equações diferenciais
e a medida de performance era uma função multidimensional. Quando o número de
variáveis era muito grande, métodos analíticos ou determinísticos eram evitados, tendo
em vista sua complexidade. Nestes casos, os pesquisadores utilizavam então a
simulação por Monte Carlo, com amostragem aleatória simples. Contudo, o autor
utilizou também, em seu exercício de simulação, a amostragem por Hipercubo Latino,
sugerida por McKay e outros (1979).
Stein (1987) verificou, ao começar o experimento, que a amostragem por
Hipercubo estratificava, na medida do possível, cada distribuição marginal das variáveis
de entrada. Por outro lado, escolhia aleatoriamente o valor a ser utilizado dentro de cada
estrato do Universo. O autor concluiu que, quanto maior o número de simulações em
relação ao número de variáveis de entrada da função estudada, a utilização da
amostragem por Hipercubo Latino produzia resultados com menor variância que os
obtidos por Monte Carlo.
O autor sabia, por McKay e outros (1979), que a variância do resultado da
simulação seria menor no Hipercubo que em Monte Carlo quando a covariância entre
duas amostras consecutivas fosse negativa. Isso aconteceria quando a função utilizada
como estimador fosse monotônica em cada uma de suas variáveis. O autor sabia que
não era o caso do estimador no experimento analisado (circuito eletrônico).
Como o resultado prático apontava que a variância do Hipercubo era menor que
a de Monte Carlo, o autor procurou encontrar uma demonstração que justificasse tal
observação. Concluiu assim que, quando o número de observações aumentava e atingia
um valor muito superior ao número de variáveis de entrada, a covariância do estimador
para duas observações consecutivas era, assintoticamente, negativa.
19
Juntamente com a estimativa de valor do estimador, o autor sabia que era
importante produzir a estimativa do erro no cálculo do estimador. Quando utilizava a
amostragem aleatória simples (Monte Carlo) com N repetições, o autor sabia que uma
estimativa consistente da variância do valor esperado do estimador seria (1/N) da
variância da amostra. Porém, quando utilizava o Hipercubo, investigações preliminares
indicaram que seria possível avaliar o estimador aproximando sua função por meio de
equações de regressão. Entretanto, era difícil avaliar tais equações e a performance do
estimador com esse procedimento, o que tornava sua utilidade incerta.
Uma forma simples, segundo o autor, de estimar a variância de um estimador ao
utilizar a amostragem por Hipercubo é aplicar o método da amostragem por Hipercubo
Latino Replicado. Este método consiste em criar várias amostras com Hipercubos
independentes e estimar a variância entre tais amostras. Este método foi desenvolvido
por Iman e Conover (1980). Claro que o número de Hipercubos deve ser grande para
que a estimativa seja precisa.
Em muitas aplicações, podem existir dependências entre as componentes da
variável de entrada dos modelos. O autor apresentou um procedimento para introduzir
tais dependências em amostragens por Hipercubo Latino, quando o tamanho destas
amostras fosse grande. Embora ciente da existência do procedimento desenvolvido por
Iman e Conover (1982), o autor verificou que seria inadequado utilizar este
procedimento quando a dependência condicional entre duas variáveis de entrada não
fosse monotônica.
O autor sugeriu, assim, um novo método para atribuir dependência entre
variáveis independentes geradas pelo Hipercubo. O método partia de uma matriz de
ranks (or rank matrix) já definida e consistia em construir uma nova amostra com o
Hipercubo a partir da inversa da função-distribuição geradora da matriz de ranks. O
problema era encontrar tal função inversa. Porém, quando era difícil encontrar a função
analítica, o autor conseguia uma boa aproximação por simulação.
20
A metodologia proposta para atribuir dependências entre as variáveis de entrada
foi aplicada a um atuador de impressoras e apresentou erro quadrático médio para a
variável de saída com o Hipercubo de 22% a 87% inferior ao erro quadrático médio
obtido utilizando a amostragem de Monte Carlo.
2.2.3 Amostragem Descritiva
Neste período, Saliby (1990a) questionou o fato de que, nos experimentos em
simulação, o padrão de amostragem deveria ser a amostragem aleatória simples com
grande número de corridas. Paralelamente, introduziu um novo conceito de
amostragem, denominado amostragem Descritiva. Segundo o autor, mais do que um
novo conceito, a amostragem Descritiva rompeu o paradigma da geração aleatória de
valores para as amostras na tentativa de reproduzir o comportamento natural dos
acontecimentos.
Na visão do autor, o paradigma da imitação da realidade era um equívoco. Na
verdade, a necessidade de empregar a amostragem aleatória sobre um universo
populacional era devida à falta de conhecimento sobre as características da população
estudada. Com o objetivo de evitar as amostras tendenciosas, a amostragem aleatória
ganhava preferência sobre os demais métodos.
Contudo, em muitas aplicações de Monte Carlo, as amostras são obtidas, por
hipótese, de distribuições já conhecidas e, nestes casos, o propósito fundamental das
amostragens é simular um certo comportamento aleatório e não realizar inferências
sobre a população analisada.
Segundo o autor, utilizar a amostragem aleatória simples com este propósito
causa uma imprecisão desnecessária à distribuição da população estudada, elevando a
variância do resultado dos estimadores simulados.
A alternativa mais apropriada e melhor, segundo o autor, para as aplicações de
Monte Carlo, seria a amostragem Descritiva ao invés da amostragem aleatória simples.
21
A principal característica deste novo conceito de amostragem era o fato dele estar
fundamentado na seleção determinística dos valores nas amostras de entrada. Esta
escolha mais seleta pretendia reduzir as discrepâncias entre as distribuições empírica e
teórica, impedindo a flutuação aleatória dos valores nas amostras estudadas.
O método da amostragem Descritiva era fácil de implementar e produzia
estimativas mais precisas das variáveis de saída, com pequeno incremento no tempo de
programação e praticamente nenhum incremento no tempo de execução. A única
exigência em relação a Monte Carlo, antes da implementação, era conhecer o tamanho
da amostra desejada.
Muito embora o método da amostragem Descritiva tenha contribuído para a
prática de exercícios de simulação, possibilitando estimativas mais exatas dos valores
estudados, suas aplicações ainda são muito conceituais. O maior ponto de discussão
quando este método é sugerido ainda é convencer que, ao contrário da crença comum,
não há necessidade de haver seleção aleatória dos valores das amostras nos
experimentos de Monte Carlo.
Considerando a quebra do paradigma da aleatoriedade nos valores das amostras
em simulação, fica evidente a superioridade dos métodos determinísticos em relação à
precisão e exatidão dos resultados nos experimentos de Monte Carlo.
O autor descreveu no estudo os principais passos para a realização dos
experimentos em simulação por Monte Carlo. Tais procedimentos, que foram discutidos
detalhadamente naquele trabalho, estão apresentados a seguir.
Inicialmente, a formulação do problema de simulação era apresentada. Um
modelo que pudesse descrever o comportamento do sistema a ser estudado era
construído ou adaptado. Tal modelo deveria transformar um conjunto de variáveis
aleatórias de entrada (multidimendional) em um conjunto de variáveis de saída
(multidimensional) denominado de conjunto de resposta. As distribuições de
probabilidade das variáveis de entrada eram supostamente conhecidas, enquanto as
22
distribuições das variáveis do conjunto de resposta eram desconhecidas. Quando eram
executadas corridas de simulação, as variáveis de entrada eram substituídas por
amostras aleatórias de tais variáveis. Assim, como conjuntos de resposta, eram obtidas
amostras das variáveis de saída.
Uma simulação, conforme definição adotada, era a execução do código de
programação de modo a produzir um conjunto de valores para cada variável de resposta
ou estimador em estudo. Um conjunto de valores das variáveis de entrada produzia um,
e apenas um, conjunto de valores das variáveis de resposta. Cada conjunto de valores
das variáveis de resposta era proveniente de uma corrida. Assim, uma simulação era
composta de N ou mais corridas, caso não fossem adotados outros critérios de parada. O
valor obtido em uma única corrida era irrelevante quando se utilizava a amostragem
aleatória simples mas não o era quando a amostragem Descritiva era adotada. Embora
os parâmetros do modelo fossem quase sempre constantes, por simplicidade, uma
corrida de simulação sempre produzia resultados distintos das demais. As flutuações dos
resultados de saída deveriam ser minimizadas e as tentativas de minimização geravam
inconvenientes, normalmente compensados pela simplicidade na programação e na
execução por Monte Carlo.
Na formulação de um problema de simulação, uma corrida podia ser vista como
um conjunto de funções a serem calculadas. À medida que o tamanho da amostra de
entrada aumentava, dois comportamentos assintóticos eram esperados, por hipótese,
para os estimadores: a ausência de tendência, de modo a tornar o resultado exato, e a
presença de consistência, ou mínima variância.
A variância dos resultados em simulação era relacionada apenas à variabilidade
das amostras de entrada. Conforme era esperado, havia sempre uma relação entre as
amostragens de entrada e os resultados dos estimadores. Conhecimentos prévios
apontavam duas fontes de variância: os valores e as seqüências. Desde os primórdios da
metodologia de simulação, estas duas características gerais eram observadas nas
amostras das variáveis de entrada.
23
Ambas as características o conjunto de valores e uma particular seqüência em
que aparecessem estavam relacionadas a dois conceitos probabilísticos fundamentais.
O conjunto dos valores, por hipótese, deveria apresentar um padrão de freqüências
relativas em comum acordo com a distribuição que estivesse sendo amostrada. A
seqüência de ocorrência dos valores deveria apresentar um comportamento que
representasse a aleatoriedade. Ao utilizar a amostragem aleatória simples, ambos os
fatores eram modificados simultaneamente. Com a amostragem Descritiva, apenas um
dos fatores sofria modificações.
Separando as fontes de variância, seus impactos sobre a variância do conjunto de
resposta poderiam ser estudados separadamente. As principais conclusões da pesquisa
que analisou, isoladamente, tais fontes foram: a contribuição relativa da variância do
conjunto de valores era maior ou igual a 50% da variância dos resultados; elevando o
tamanho de uma corrida, a amostra de entrada ficava mais próxima da distribuição
teórica, mas a variância dos estimadores não era modificada; o coeficiente de
determinação, utilizado em análises de dependência para modelos de regressão linear,
poderia ser utilizado para medir a influência da variância do conjunto de valores na
amostra; a variância do conjunto de valores influenciou a maioria dos experimentos
realizados, enquanto a variância da seqüência de ocorrência influenciou apenas
experimentos de simulação de filas de espera (ou problemas de filas M/M/1).
Para compreender a variância dos resultados provocada pela variância do
conjunto de valores na amostra, o autor realizou alguns experimentos utilizando a
amostragem aleatória simples. A análise dos resultados apontou um aparente paradoxo:
embora as distribuições teóricas das variáveis de entrada fossem conhecidas, as
amostras destas variáveis se mostravam diferentes. Na verdade, as diferentes condições
de execução do programa, colhendo amostras distintas do perfil teórico esperado, eram
causadas pela seleção aleatória de valores para tais amostras. Estas discrepâncias
provocavam o aumento da variância dos estimadores de saída, demonstrando a clara
presença do efeito provocado pela variância do conjunto de valores na amostra.
24
A proposta da amostragem Descritiva era eliminar ou, ao menos, reduzir o
impacto da variância do conjunto de valores de entrada nas aplicações que envolviam
Monte Carlo. Ela estava fundamentada na escolha determinística dos valores nas
amostras e, em seguida, na permutação aleatória de tais valores. Nos casos onde o
tamanho das amostras não era conhecido com antecedência, este tamanho era estimado.
As modificações a serem feitas nos códigos de programação que utilizavam a
amostragem aleatória simples eram mínimas e o acréscimo no tempo de execução dos
programas, insignificante.
Uma série de experimentos foi conduzida pelo autor comparando ambos os
métodos de amostragem. Nestes experimentos, exceto na aplicação das filas M/M/1, o
valor da média dos resultados utilizando a amostragem Descritiva foi muito próximo do
valor utilizando a amostragem aleatória simples, o que mostra a ausência de tendência
dos estimadores com a amostragem Descritiva. Os resultados com a amostragem
Descritiva foram mais exatos que aqueles com a amostragem aleatória simples. As
variâncias dos resultados com a amostragem Descritiva foram bem menores que as
variâncias com a amostragem aleatória simples. Isto significa que, em corridas menores,
os mesmos intervalos de confiança para os estimadores poderiam ser conseguidos
empregando a amostragem Descritiva. Os únicos casos onde os estimadores utilizando a
amostragem Descritiva produziram resultados tendenciosos foram os experimentos de
estado estacionário, como o caso das filas M/M/1 quando estas estavam congestionadas.
Este viés introduzido poderia ser eliminado aumentando o tamanho das corridas,
inicialmente fixadas em N=100 tentativas. Na verdade, à medida que a intensidade de
tráfico crescesse em direção ao valor unitário, o número de tentativas ou o tamanho das
corridas deveria aumentar sensivelmente. Isto, contudo, não acontecia, pois o tamanho
das corridas estava fixado. As discussões envolvendo o problema das filas necessitariam
de novos estudos antes de gerarem conclusões.
Apesar dos resultados satisfatórios apresentados pelo autor relativos ao
desempenho estatístico da amostragem Descritiva, dois outros questionamentos ainda
permaneciam sobre este método: o fato de poder gerar tendência aos estimadores e o de
não permitir que os valores das amostras variassem.
25
Em relação à questão dos estimadores serem tendenciosos na amostragem
Descritiva, os estudos realizados até então mostraram que a magnitude dos desvios
introduzidos é muito pequena se comparada aos erros eliminados ao retirar a variância
do conjunto de valores da amostra na entrada.
Quanto à questão sobre a fixação do conjunto de valores da amostra, a maioria
das situações testadas seguia exatamente as hipóteses fundamentais dos modelos nas
simulações. Além do mais, existe a crença equivocada de que os erros introduzidos com
a amostragem aleatória compensavam as incertezas sobre os parâmetros das
distribuições de entrada. No entanto, incertezas como estas ou outras presentes na
modelagem não poderiam ser compensadas com a introdução de novas incertezas.
Continuando em sua linha de pesquisa, Saliby (1990b) apresentou novos
experimentos e aplicações para estudar os dois fatores causadores da variância do
estimador de saída o conjunto de valores e a seqüência de ocorrência - nos casos onde
Monte Carlo era utilizado.
Já naquela ocasião, a codificação dos algoritmos e aplicações tendia a ser mais
demorada e crítica na obtenção de resultados que a própria execução dos programas,
tendo em vista o avanço tecnológico acelerado. Entretanto, o pouco conhecimento
acumulado ao longo dos últimos anos sobre os novos métodos de amostragem motivava
as pesquisas por uma maior compreensão das razões que justificassem as variâncias dos
resultados.
Nesta pesquisa, o autor verificou, empiricamente, que a maior parte da variância
dos estimadores de saída era devida à variância do conjunto de valores nas amostras de
entrada, e que a variância associada à seqüência de ocorrência daqueles valores era
dependente do tipo de aplicação e muito imprevisível.
26
Estes resultados gerais forneceram as informações necessárias às novas
abordagens de amostragem como as de conjuntos determinísticos - por exemplo, a
amostragem Descritiva.
O principal problema no estudo era descobrir se havia algum padrão que
comandasse as variâncias dos resultados, fornecendo sugestões sobre como reduzir ou
eliminar tais flutuações. O padrão a que o autor se referia e procurava não deveria ser
uma relação entre os resultados dos estimadores e os correspondentes valores das
variáveis de entrada, mas sim a relação entre os valores das amostras de entrada e as
propriedades teóricas conhecidas dessas amostras.
Seguindo o costume dos testes em simulação, foram realizados três
experimentos utilizando a amostragem aleatória simples como método para gerar as
amostras de entrada. Os experimentos consistiam em uma rede PERT, um problema de
filas M/M/1 e um sistema de estoques. Um método alternativo para gerar amostras
distribuídas aleatoriamente também foi sugerido pelo autor. Este método separava a
amostra de entrada em duas outras de mesma dimensão. Uma delas seria responsável
pela atribuição dos valores de entrada e a outra, pela determinação da ordem em que
estes valores seriam distribuídos nas variáveis de entrada. Assim, seria possível separar
os efeitos causados pelas duas fontes de variância trabalhando individualmente com
estas seqüências.
Para obter as conclusões almejadas, foram realizados experimentos com dez
corridas de dez amostras cada, o que era equivalente a 100 amostras numa única corrida
utilizando a amostragem aleatória simples.
Na simulação do sistema de estoques, os resultados mostraram que 53% da
variância total do estimador seriam justificados pela variância no conjunto de valores de
entrada. Apenas os 47% da variância total original permaneceria sem explicações pelo
modelo construído. Outra conclusão importante foi que a variação do conjunto de
valores da amostra influenciava, freqüentemente, a maioria dos estimadores nos
exemplos analisados. A influência da variação nas seqüências de ocorrência só foi
27
apontada no problema das filas M/M/1. Junto com esta última evidência foi apontado
que uma investigação mais detalhada sobre os impactos dessas variâncias em problemas
de filas congestionadas seria necessária.
Contudo, a principal contribuição do estudo foi sugerir que a variância do
conjunto de valores na amostra de entrada operava como ruído no sistema, e que este
ruído era introduzido durante o processo de amostragem aleatória simples, na etapa de
escolha dos valores. Ao questionar esta variância, o autor apresentou a proposta de uma
nova abordagem para amostragem em simulação que eliminaria esse problema: a
amostragem Descritiva.
2.3 Método de Quasi-Monte Carlo
Alguns anos depois, Morokoff e Caflisch (1995) apresentaram o estudo no qual
novas abordagens determinísticas para as amostragens nos problemas de Monte Carlo
eram analisadas. Estas novas abordagens eram conhecidas por método de Quasi-Monte
Carlo e estavam fundamentadas no emprego das seqüências de baixa-discrepância
conhecidas como Halton, Sobol e Faure.
2.3.1 Discrepância
Discrepância de uma série numérica é uma função que procura medir a
uniformidade da seqüência. Segundo Traub e Papageorgiou (1996), discrepância é uma
medida do desvio em relação à uniformidade. Os autores consideram a discrepância
uma quantidade que avalia o grau de uniformidade de um conjunto de pontos dispersos
no espaço.
A definição de discrepância, apresentada pelos autores, e alguns exemplos de
suas aplicações foram mostrados a seguir.
28
[2.11]
Onde:
* N ... é o número de pontos da amostra ou o tamanho da série;
* Is ... é o cubo unitário s-dimensional no Universo estudado;
* v(Q) ... é o volume de uma sub-região Q no cubo unitário Is.
A discrepância, na forma apresentada, é facilmente perceptível de modo gráfico
quando o Universo possui até três dimensões. Ela é uma medida relativa pois seu valor
não depende apenas da seqüência analisada, mas também das sub-regiões definidas no
cubo unitário. Sua definição foi muito útil pois não apenas quantificava uma
propriedade fundamental da aleatoriedade (uniformidade) como também ajudou a
identificar as imperfeições dos geradores de pontos aleatórios e pseudo-aleatórios mais
comuns. A capacidade de quantificar a aleatoriedade foi uma das razões que induziram
a procura constante por novas seqüências com distribuições cada vez mais uniformes.
A forma mais simples de apresentar, identificar e, de certa forma, quantificar
graficamente a discrepância em séries numéricas é realizar experimentos em duas
dimensões. A comparação de regiões de acumulação dos pares ordenados, formados
pelas relações estabelecidas entre os conjuntos numéricos em cada eixo, pode classificar
as seqüências analisadas quanto ao grau de uniformidade. A figura 2.1, a seguir, ilustra
uma possível situação em tais experimentos didáticos.
Para ilustrar a percepção gráfica da discrepância, foram realizados experimentos
bidimensionais com 50, 150 e 255 pares ordenados distribuídos em um quadrado
unitário. As coordenadas dos pontos grafados foram geradas de duas formas distintas. A
primeira forma empregou um gerador de números aleatórios para as seqüências de cada
coordenada. A segunda utilizou séries numéricas de Halton (baixa-discrepância) com
( )QvN
Qempontosde#IQ
Ns
D −=∈
sup
29
números primos distintos em cada coordenada. Os resultados foram apresentados nas
figuras 2.2 a 2.5 a seguir.
Figura 2.1 Resultado possível em experimentos bidimensionais para quantificar a discrepânciadas séries numéricas – regiões concentradas e regiões vazias.
Figura 2.2 Discrepâncias para 50 pares ordenados no quadrado unitário, utilizando comocoordenadas séries de Halton (A) e séries aleatórias (B) - D50(A) = 3% e D50(B) = 5%.
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
(A)
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
(B)
30
Figura 2.3 Discrepâncias para 150 pares ordenados no quadrado unitário, utilizando comocoordenadas séries de Halton (A) e séries aleatórias (B) – D150(A) = 1,67% e D150(B) = 2,33%.
Figura 2.4 Discrepância para 255 pares ordenados no quadrado unitário, utilizando comocoordenadas séries de Halton (baixa-discrepância) – D255 = 0,57%.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
(A)
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
(B)
31
Figura 2.5 Discrepância para 255 pares ordenados no quadrado unitário, utilizando comocoordenadas séries aleatórias – D255 = 1,35%
Assim, sabendo que uma característica teórica importante das séries aleatórias
simples era a uniformidade da seqüência, e que existiam conjuntos que apresentavam
menores discrepâncias que as verificadas nas séries aleatórias, era razoável supor que
tais conjuntos, chamados de baixa-discrepância, poderiam apresentar melhores
desempenhos que os aleatórios nos experimentos de simulação. O método de Quasi-
Monte Carlo, que será discutido a seguir, emprega as seqüências de baixa-discrepância.
2.3.2 Séries numéricas de Halton
Em seus estudos, Morokoff e Caflisch (1995) compararam o impacto das
seqüências de Halton, Sobol e Faure (também chamadas quasi-aleatórias) entre si e
com a amostragem aleatória simples em experimentos específicos para apontar os
efeitos de algumas propriedades do integrando variância, suavidade da função e
dimensão - sobre a convergência dos estimadores. De maneira geral, o método de
Quasi-Monte Carlo foi superior ao de Monte Carlo com amostragem aleatória simples.
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
32
Esta diferença, contudo, foi superficial pois, quando a dimensão era elevada ou o
integrando deixava de ser uma função suave, os resultados eram equivalentes.
A principal característica da amostragem aleatória era sua uniformidade. Esta
propriedade sugeria que, utilizando seqüências com maior uniformidade em suas
distribuições que a apresentada pela seqüência aleatória, poderiam ser obtidos melhores
resultados. Estas séries com distribuição mais uniforme eram denominadas de
seqüências de baixa-discrepância.
Uma destas seqüências Halton - era obtida pela decomposição de números
naturais numa base prima qualquer. Inicialmente, um número primo (P) era escolhido
ao acaso para cada dimensão do integrando. Depois, o número (N) de elementos da
amostra era estabelecido. Os números naturais até (N-1) eram então decompostos na
base (P) escolhida. A seguir, os termos da seqüência de Halton eram então
determinados pelo somatório dos algarismos da decomposição em números primos,
divididos por potências crescentes do número primo (P), conforme mostrado nas
expressões 2.12 e 2.13. A cada dimensão ou variável de entrada era empregado um
número primo distinto.
A determinação do k-ésimo elemento de uma seqüência de Halton
unidimensional com número primo p, por exemplo, segue o procedimento abaixo.
! Decomposição de (k-1) na base p;
[2.12]
! Somatório dos termos da decomposição, divididos por potências crescentes de p.
[2.13]
[ ]aaaaaa nnn pk 012211 Κ−−=−
pa
pa
pa
pa
pa
pah n
nn
nn
nk 1
112
32
210 ... +
−−− ++++++=
33
Encontrar, por exemplo, os dez primeiros termos da série de Halton
unidimensional para o número primo p=2.
! 1o. passo: decompor na base p=2 os dez primeiros números naturais (0 9);
[2.14]
! 2o. passo: aplicar os somatórios das frações conforme definição anterior.
[2.15]
Outro exemplo seria encontrar os dez primeiros termos da seqüência de Halton
unidimensional para o número primo p=3.
! 1o. passo: decompor na base p=3 os dez primeiros números naturais;
[ ][ ][ ][ ][ ]100111010
2
2
2
2
2
4
3
2
1
0
=
=
=
=
= [ ][ ][ ][ ][ ]10011000111110101
2
2
2
2
2
9
8
7
6
5
=
=
=
=
=
81100
4311
4110
210
222
22
22
325
24
23
2
1
=++=
=+=
=+=
=
=
h
h
h
hh
1691001
1611000
87111
83110
85101
2222
2222
222
222
222
43210
4329
328
327
326
=+++=
=+++=
=++=
=++=
=++=
h
h
h
h
h
34
[2.16]
! 2o. passo: somatório dos termos decompostos conforme definição anterior.
[2.17]
2.3.3 Método simplificado de Halton
O procedimento de Halton, apesar de simples, exige grande esforço matemático
nos casos com grandes amostras, pois a decomposição de grandes números nas bases
primas sugeridas é trabalhosa. Existe uma simplificação do método, identificada por
construção ou matematicamente, que reproduz a seqüência original, obtida pela
definição, por recursividade e evita o grande trabalho matemático.
Para entender o método simplificado de Halton, basta observar que as
seqüências possuem subconjuntos consecutivos com p valores espaçados de 1/p, são
sempre iniciadas por 0 (zero), os primeiros termos dos subconjuntos são formados pela
divisão de um termo já existente na série pelo número primo p e, finalmente, são
subconjuntos uniformes por construção no intervalo unitário [0,1).
[ ][ ][ ][ ][ ]11102
10
3
3
3
3
3
4
3
2
1
0
=
=
=
=
= [ ][ ][ ][ ][ ]10022212012
3
3
3
3
3
9
8
7
6
5
=
=
=
=
=
9411
9110
231
0
33
33
3
25
24
3
2
1
=+=
=+=
=
=
=
h
h
h
hh
271100
9822
9521
9220
9712
333
33
33
33
33
3210
29
28
27
26
=++=
=+=
=+=
=+=
=+=
h
h
h
h
h
35
Os passos do método simplificado estão apresentados a seguir, com o cálculo
dos dez primeiros termos de Halton para o número primo p=5.
! 1o. passo: o primeiro subconjunto inicia por 0 (zero);
[2.18]
! 2o. passo: o primeiro subconjunto possui p elementos espaçados de 1/p;
[2.19]
! 3o. passo: o próximo subconjunto inicia pelo segundo termo da série (já
calculado) dividido pelo número primo p;
[2.20]
! 4o. passo: os demais elementos deste subconjunto são espaçados de 1/p, como no
subconjunto anterior;
[2.21]
! 5o. passo: se houvesse mais termos a serem calculados, o primeiro elemento do
próximo subconjunto seria o terceiro elemento da série dividido pelo primo p; e,
assim, sucessivamente.
01=h
52
51
511
51
5101
23
12
=+=+=
=+=+=
p
p
hh
hh
54
51
531
53
51
521
45
34
=+=+=
=+=+=
p
p
hh
hh
251
551
26 ===
phh
2511
51
2561
256
51
2511
78
67
=+=+=
=+=+=
p
p
hh
hh
2521
51
25161
2516
51
25111
910
89
=+=+=
=+=+=
p
p
hh
hh
36
2.3.4 Séries de Sobol e Faure
A seqüência de Sobol utiliza o mesmo algoritmo da seqüência de Halton. A
particularidade que diferencia Sobol e Halton está relacionada aos números primos
empregados nas séries. O número primo para todas as dimensões ou variáveis de
entrada, na seqüência de Sobol, é o mesmo: o número inteiro dois. Para imprimir
aleatoriedade e diferenciar as seqüências de elementos nas séries de Sobol, algumas
técnicas de permutação são empregadas. Assim, cada dimensão considerada na
simulação possui uma permutação distinta para a seqüência dos valores de Sobol.
A seqüência de Faure utiliza, por sua vez, o mesmo algoritmo que as seqüências
de Halton e Sobol. O número primo empregado, entretanto, está relacionado ao tamanho
definido para a amostra em cada dimensão ou variável de entrada. Este número primo
também é fixo, como em Sobol, mas sua determinação não é direta. O número primo
utilizado como semente na série de Faure é o menor número primo maior ou igual ao
número de elementos da amostra. Da mesma forma que em Sobol, as amostras para as
demais dimensões ou variáveis de entrada nas simulações são obtidas por permutações
dos elementos da seqüência original de Faure.
2.3.5 Experimentos com séries de baixa-discrepância
Estudos anteriores feitos por Niederreiter (1988) demonstraram que as
seqüências de Halton, Sobol e Faure possuem discrepâncias limitadas, dependentes do
número de termos da amostra e da dimensão do integrando. Estes limites sugeriam que,
para amostras com elevado número de termos, as seqüências quasi-aleatórias de Halton,
Sobol e Faure eram, consideravelmente, mais uniformes que as seqüências aleatórias
simples. A expectativa de erro para aplicações de Monte Carlo com amostragem
aleatória simples era proporcional ao número N de termos da amostra (N-1/2). Como a
teoria das probabilidades não se aplicava a estes casos, uma nova abordagem deveria ser
adotada para estimar o erro de integração ao utilizar as seqüências quasi-aleatórias.
Desse modo, para o autor, o conceito de variação do integrando passou a ter mais
importância que o conceito anterior de variância do estimador. Por variação do
37
integrando, ele se referia ao somatório das variações das projeções do integrando nas
suas dimensões correspondentes.
Um dos principais resultados de pesquisas conhecidas sobre erros de integração
é denominado desigualdade de Koksma-Hlawka, e estabelece que o erro de integração é
sempre menor ou igual ao produto da variação do integrando pela discrepância da série
utilizada na amostragem. O limite da discrepância de uma seqüência aleatória converge
para valores proporcionais a N-1/2 e sugere que, utilizando seqüências de menor
discrepância que a aleatória, poderiam ser obtidos menores erros de integração, ao
menos para grandes valores de N. A sugestão foi adotada por Morokoff e Caflisch
(1995), que trabalharam com as seqüências de baixa-discrepância de Halton, Sobol e
Faure.
Naquele estudo, Morokoff e Caflisch (1995) procuraram identificar a fonte e a
natureza das discrepâncias entre os valores dos estimadores. O objetivo da pesquisa era
realizar um conjunto de experimentos numéricos que demonstrassem, de forma clara, a
influência da variância, variação, dimensão e suavidade do integrando na taxa de
convergência das integrais. O método de amostragem utilizado na pesquisa foi o de
Quasi-Monte Carlo. Os resultados do estudo poderiam ser aproveitados para o
desenvolvimento de novos métodos de redução de variância ou de novas técnicas de
Monte Carlo com seqüências quasi-aleatórias.
Para cada exemplo estudado, o erro no cálculo da integral podia ser aproximado
pela expressão cN-α, onde N representava o número de pontos de integração quasi-
aleatórios. Em geral, os resultados mostraram que o expoente α na integração por
Quasi-Monte Carlo era superior ao expoente padrão com valor ½ - da integração por
Monte Carlo. Esta superioridade, contudo, desaparecia quando a dimensão do
integrando aumentava ou quando a suavidade da função integranda diminuía.
Contudo, ainda havia dúvidas sobre o uso da função variação do integrando, ao
invés da variância do estimador, na previsão dos erros de integração. Por exemplo, duas
funções basicamente idênticas como o produtório de x e o produtório de (1-x)
38
possuiriam integrais de igual valor quando calculadas com seqüências quasi-aleatórias.
Suas variações, entretanto, eram muito diferentes entre si.
A fim de investigar a real influência que as variações possuíam na determinação
de erros dos estimadores, uma variedade de funções com amplo intervalo de flutuação
foi avaliada e integrada sobre o cubo unitário. As funções foram escolhidas de modo a
possuírem expressões analíticas para suas integrais, para permitir estimativas de sua
variância e sua variação. As funções também foram normalizadas de modo a possuírem
valor unitário nas integrais sobre o cubo unitário.
Para o caso da seqüência de Halton, como os primeiros integrandos utilizados
eram suscetíveis em relação ao valor zero e os primeiros elementos de Halton estão
muito próximos de zero, os 200 elementos iniciais da seqüência foram descartados. O
limite de 200 foi escolhido aleatoriamente. A seqüência de Faure teve problema similar.
O primeiro conjunto testado de funções integrandas multidimensionais era
relativamente simples e consistia em funções produtório de outras funções
unidimensionais. Estas funções eram escolhidas com características peculiares, como
alta variação e baixa variância, para permitir a avaliação do efeito produzido por estes
fatores. Várias corridas foram realizadas utilizando a seqüência de Sobol para
dimensões que variavam de 5 a 30 variáveis. Os resultados destes experimentos
mostraram que o uso de seqüências quasi-aleatórias produzia erros menores que o uso
de seqüências aleatórias simples.
As seqüências quasi-aleatórias também foram aplicadas em três experimentos
mais realísticos oriundos de atividades científicas ou problemas de engenharia. As
funções empregadas foram restritas a universos onde as soluções de suas integrais
pudessem ser determinadas analiticamente, de modo a facilitar as análises dos
resultados das simulações.
Por exemplo, Monte Carlo era freqüentemente empregado na solução de
equações integrais associadas a problemas de transporte. No primeiro exemplo real, os
autores consideraram uma função integral que descrevia o trajeto de partículas em um
39
espaço unidimensional de tamanho unitário. Em cada passo, a partícula percorria uma
distância uniformemente distribuída no intervalo [0,1]. O estimador de interesse era
uma função integral que representava a probabilidade de uma partícula entrar no espaço
analisado, atravessar toda sua extensão e deixar o mesmo espaço. Para esta integral, a
função degrau era utilizada como componente do integrando para representar o fato da
partícula conseguir atravessar o espaço. Dependendo do número de movimentos
executados antes da saída, a partícula contribuía com certa probabilidade ao resultado
da integral. O número de movimentos da partícula foi limitado a 20, embora não
houvesse necessidade de impor limites, considerando que os mesmos resultados teriam
sido obtidos com limite de 6 passos. Uma variação deste exercício é considerar que a
partícula nunca deixará o espaço. Cada movimento define os limites do próximo
movimento. Por exemplo, após o primeiro movimento, a nova posição da partícula seria
x’ e o alcance do segundo movimento estaria uniformemente distribuído no novo
intervalo [0 , 1-x’]. Neste caso, como no anterior, a simulação aconteceria até o 20º
movimento ou outro limite qualquer imposto na pesquisa. A principal diferença entre o
primeiro método e o segundo é que a função do integrando, no segundo caso, é suave e
contínua. Foram executadas 100 corridas em ambos os casos.
Considerando que a dimensão efetiva deste experimento era seis, não foi
surpresa, segundo os autores, que os resultados encontrados fossem similares no caso
contínuo e no caso não-contínuo, para uma dimensão de 20. A seqüência de Halton
apresentou os melhores resultados. A seqüência de Faure apresentou erros maiores que
as demais, talvez pelo fato do número primo adotado ter sido 23. A razão de
convergência para o caso contínuo em todas as seqüências foi cerca de N-0.95. Por outro
lado, para o caso não-contínuo do movimento da partícula, Halton também apresentou o
menor erro e uma razão de convergência de N-0.7. Faure apresentou o maior erro, mas
uma razão de convergência ligeiramente melhor, N-0.85. A menor razão de convergência
foi apresentada pela seqüência de Sobol e era incomum e confusa. Ela serviu como
ilustração para a dificuldade de realizar previsões de convergência utilizando seqüências
quasi-aleatórias.
40
O segundo exemplo real estudado considerava a equação de Boltzmann, que
descreve a evolução da função distribuição para a densidade de um gás rarefeito no
espaço em movimento. Estudos anteriores forneciam a fórmula exata para o ganho de
velocidade nestes casos, provocado por colisões binárias. Este ganho podia ser descrito
por uma integral sobre a variável de velocidade e dois parâmetros angulares que
caracterizavam o tipo de colisão. Este foi o primeiro exemplo testado cuja integral não
era calculada explicitamente sobre o cubo unitário. Neste caso, os métodos de
amostragem adotados foram equivalentes a uma mudança de variáveis. Os autores
lembraram que muitas técnicas de amostragem, quando vistas como mudança de
variáveis, produzem integrandos não-contínuos ou redirecionam a função característica
de conjuntos retangulares para conjuntos irregulares. Eles recomendaram cuidado ao
aplicar métodos de redução de variância em seqüências de baixa-discrepância.
Todas as seqüências quasi-aleatórias empregadas apresentaram comportamentos
similares e melhores que a seqüência aleatória simples. O erro quadrático para as
seqüências quasi-aleatória apresentou taxas de convergência variando de N-0.65 a N-0.61,
enquanto para seqüências pseudo-aleatórias apresentou taxa de convergência de N-0.51.
O terceiro exemplo estudado foi o cálculo da integral de linha de Feynman-Kac,
onde Monte Carlo tinha aplicação freqüente. Os autores calcularam o resultado em altas
dimensões, discretizando o intervalo de tempo e considerando movimentos gaussianos
aleatórios como aproximações do movimento browniano. Novamente, não era uma
integral sobre o cubo unitário. Os mesmos métodos utilizados no exemplo anterior
poderiam ser aplicados também neste exemplo. A amostragem uniforme no intervalo
[0,2π] foi obtida multiplicando seqüências uniformes no intervalo [0,1] por 2π. Os
resultados foram obtidos para um espaço com dimensão 40. Embora a dimensão fosse
elevada, a seqüência de Halton apresentou os menores erros. A seqüência de Sobol
apresentou resultados semelhantes. A seqüência de Faure apresentou resultados piores
que Halton e Sobol. Quando o número de elementos das seqüências era pequeno, os
erros apresentados pelas seqüências quasi-aleatórias e pseudo-aleatória foram
semelhantes. Todas as três seqüências quasi-aleatórias apresentaram taxa de
41
convergência variando de N-0.65 a N-0.61, enquanto o erro quadrático para a seqüência
pseudo-aleatória apresentou taxa de convergência de N-0.41.
O desempenho das seqüências de Quasi-Monte Carlo na avaliação de integrais
de funções características era de particular interesse, pois mostrava o potencial de
sucesso destas seqüências nas simulações do movimento de partículas. Funções
características são aquelas onde decisões do tipo SIM/NÃO devam ser tomadas. Como
no exemplo do movimento da partícula, quando a decisão sobre o fato da partícula ter
ou não conseguido atravessar o espaço deveria ser tomada. A função característica a ser
integrada correspondia a um subconjunto do parâmetro espaço e os valores do
parâmetro indicavam uma decisão positiva. Quando o domínio do parâmetro era
mapeado em um cubo unitário, o volume do conjunto SIM - ou a integral da função
característica representava a probabilidade da decisão ser aceita.
A fim de determinar os efeitos dos saltos de valor nos integrandos, experimentos
foram realizados utilizando funções características de um cubo e de um cone. O cubo
foi adotado porque era a base da definição de discrepância e possuía variação finita
igual a 2s, onde s era a dimensão do integrando. O cone foi escolhido pois possui
variação infinita e é agudo. Experimentos foram conduzidos para comparar o impacto
das seqüências e determinar taxas de convergência como funções da dimensão do
integrando. Para comparar resultados como função das dimensões, os integrandos foram
normalizados de modo que o valor das integrais, para todas as formas e dimensões,
fosse unitário.
O experimento consistia em 50 corridas com 50 valores distintos de tamanho de
amostra (N) espaçados igualmente, e de modo logarítmico, nas dimensões 2 a 6. Para
ambos os formatos (cubo ou cone) o erro aumentava com a dimensão considerada. A
convergência foi geralmente melhor para a dimensão 2 e decaía quando a dimensão
aumentava. A seqüência de Halton forneceu erros menores, especialmente para a
dimensão 2. Para o cubo, a convergência na dimensão 2 foi cerca de N-0.95 para todas as
seqüências, enquanto para as dimensões 3 a 6, o erro quadrático atingiu taxas de
convergência variando de N-0.71 a N-0.89. A seqüência de Faure apresentou erros maiores
42
no início, mas apresentou melhor convergência. Todas as seqüências apresentaram erros
similares quando o número de elementos na amostra era cerca de 30.000.
Para o cone, o valor do erro foi muito próximo ao esperado com a amostragem
aleatória simples e a taxa de convergência do erro foi próxima das apresentadas para o
cubo. Para as dimensões 4 a 6, todas as seqüências apresentaram resultados
semelhantes, exceto Sobol na dimensão 4, que apresentou desempenho muito ruim. As
taxas de convergência do erro variaram de N-0.54 a N-0.62. Novamente, a seqüência de
Halton foi ligeiramente melhor que as demais, com a maior diferença acontecendo na
dimensão 2. Halton e Faure apresentaram comportamento semelhante, enquanto Sobol
apresentou erros de mesma magnitude porém menos previsíveis.
Um conjunto de experimentos foi realizado para a função característica de uma
esfera nas dimensões 2 a 6. O comportamento do erro foi similar ao obtido com o cone.
Para a esfera, a taxa de convergência do erro na dimensão 2 foi cerca de N-0.78 com
todas as seqüências, enquanto na dimensão 6 foi cerca de N-0.6. Novamente, a seqüência
de Halton teve desempenho ligeiramente melhor na dimensão 2. A seqüência de Sobol,
contudo, não aparentou ser imprevisível em comparação às demais.
O desempenho melhor das seqüências quasi-aleatórias no cubo era esperado.
Tais seqüências foram construídas para minimizar a discrepância, que era calculada
sobre retângulos. Além disso, seqüências multidimensionais eram construídas pela
combinação de seqüências unidimensionais e o cubo era o produto de funções
características unidimensionais. Contudo, era preciso notar que a taxa de convergência
do tipo 1/N, sugerida como limite da discrepância, somente foi aproximada no caso
bidimensional, ao menos para os valores de N (tamanho da amostra) considerados no
estudo.
Por outro lado, em todos os experimentos, os erros conseguidos com as
seqüências de Quasi-Monte Carlo foram significativamente inferiores aos obtidos pelo
método clássico de Monte Carlo para os casos com maior tamanho de amostra. Isto
significava que o método de Quasi-Monte Carlo era capaz de reduzir o valor da
43
constante c na estimativa do tamanho do erro da integral (c.N-α), ainda que não
melhorasse significativamente a taxa α de decaimento do erro.
Após tantos experimentos, os autores ainda questionavam se o pior desempenho
das seqüências quasi-aleatórias com funções características, em relação ao desempenho
com funções contínuas, conforme observado anteriormente, possuía conexão com o fato
das funções características apresentarem variação infinita. Para comprovar isso, dois
outros experimentos foram conduzidos. Ambos envolviam funções apoiadas em esferas
situadas dentro do cubo unitário. O primeiro integrando era uma função contínua não-
diferenciável que, por este motivo, possuía variação infinita. O segundo era uma função
suave cuja variação crescia exponencialmente com a dimensão estudada.
Para a função contínua, todas as seqüências nas dimensões 2 e 3 convergiram à
taxa próxima de 1/N, com a seqüência de Halton apresentando, novamente, o menor
erro. As maiores dimensões possuíam taxa de convergência de cerca de N-0.7. Para a
função suave, Halton apresentou o melhor resultado na dimensão 2 e demonstrou
redução da taxa de convergência com a elevação da dimensão do problema, variando de
N-0.9, para dimensão 2, a N-0.62, para dimensão 6. A seqüência de Sobol mostrou o
mesmo tipo de comportamento que apresentara com o cone, com os piores resultados
obtidos para a dimensão 4. A magnitude dos erros era equivalente à apresentada com
Halton. As taxas de convergência para Sobol variavam de N-0.94, na dimensão 2, para N-
0.62, na dimensão 4, embora tais taxas não aparentassem confiabilidade. A seqüência de
Faure apresentou resultados intermediários entre Halton e Sobol, com erros e taxas de
convergência semelhantes.
Com isto, os autores sugeriram que a continuidade das funções nos integrandos
era muito importante para melhorar a convergência das aplicações que utilizavam
seqüências de Quasi-Monte Carlo.
44
2.4 Aplicações de Quasi-Monte Carlo
Paskov e Traub (1995) afirmaram que a simulação de Monte Carlo estava sendo
largamente empregada na avaliação de instrumentos financeiros e que enormes quantias
estavam sendo anualmente investidas em pesquisas nesta área. Um ano antes, Guterl
(1994) havia observado que não apenas os matemáticos estavam estudando a antiga
teoria dos números. Segundo ele, de maneira geral, o mercado industrial estava voltando
seus interesses para as teorias numéricas e estudando suas aplicações, a fim de facilitar a
pesada rotina das corporações.
Como já era conhecido na ocasião, o método de Monte Carlo utilizava amostras
aleatórias (ou pseudo-aleatórias). O simples teste de colocar um certo número de pontos
aleatórios das seqüências de Monte Carlo em duas dimensões permitia verificar a
ausência de uniformidade proporcional às regiões vazias no gráfico. De maneira geral,
parecia atrativo poder escolher pontos que fossem uniformemente distribuídos tanto
quanto possível. A medida, na teoria dos números, que era denominada discrepância,
quantificava o desvio de um conjunto de pares ordenados em D dimensões de um
conjunto de pontos uniformemente distribuídos no mesmo espaço. Tal medida passou a
ser empregada na busca por seqüências mais uniformes.
Existem vários conjuntos denominados de baixa-discrepância, apesar de não
haver ainda definição comprovada e científica de um conjunto D-dimensional de pontos
que apresente a menor discrepância.
Na pesquisa, Paskov e Traub (1995) compararam a eficácia dos métodos de
baixa-discrepância com o método tradicional de Monte Carlo na avaliação de
derivativos financeiros. Eles utilizaram uma CMO (collateralized mortgage obligation)
oferecida pelo banco Goldman Sachs, com dez classes de títulos definidos por meio da
avaliação de dez integrais com dimensões que podiam chegar a 360. A CMO foi
escolhida por apresentar integrais com elevada dimensão e porque cada processo de
avaliação destas integrais era muito demorado e dispendioso. Os autores esperavam
poder replicar as conclusões geradas no estudo para outros instrumentos derivativos. Os
45
autores consideraram, por hipótese, que o problema financeiro foi definido por uma
integração sobre o cubo unitário com dimensão D.
As seqüências de baixa-discrepância escolhidas no experimento foram Halton e
Sobol. Eles compararam o resultados obtidos a partir destas seqüências com os
resultados utilizando o método de Monte Carlo clássico e com o método de Monte Carlo
utilizando variáveis antitéticas. Para realizar o estudo, os autores desenvolveram um
software chamado FINDER com o qual programaram e executaram as simulações
pretendidas. O software foi desenvolvido para estações de trabalho e incorporou
melhorias aos algoritmos utilizados para gerar seqüências de Sobol.
O trabalho apresentado foi baseado em dois anos de pesquisas, construção do
software e execução dos experimentos. Resultados preliminares foram apresentados a
instituições financeiras em Nova York/USA entre 1993 e 1994. Um artigo publicado no
início de 1994 discutia os principais tópicos e sugeria a superioridade dos métodos
determinísticos em exemplos práticos. Outros resultados experimentais foram
apresentados em uma conferência em meados de 1994. Um artigo publicado na revista
Business Week apontava as possíveis superioridades das seqüências de baixa-
discrepância.
No artigo, os autores procuraram apenas divulgar suas principais descobertas e
apontar os resultados típicos do estudo. Eles descobriram com os experimentos que a
seqüência de Sobol teve melhor desempenho que as seqüências de Halton e aleatória
simples do método de Monte Carlo. O desempenho a que os autores fizeram referência
estava relacionado ao tempo de convergência dos estimadores de saída. Os autores
concluíram também que a convergência apresentada por Sobol era mais suave que a
observada em Monte Carlo tradicional. Utilizando o mesmo critério de parada nas
simulações para todas as seqüências estudadas, a seqüência de Sobol finalizava de duas
a cinco vezes mais rápida que Monte Carlo tradicional e, geralmente, apresentando
menor erro. Os autores também verificaram que os resultados utilizando a seqüência de
Sobol foram consideravelmente melhores que os obtidos utilizando o Método de Monte
46
Carlo com variáveis antitéticas. Este último, por sua vez, apresentou melhores
resultados que Monte Carlo clássico.
Segundo os autores, as conclusões apresentadas permaneceram para os casos em
que o tamanho das amostras era pequeno (cerca de 4.000 pontos). Mais tarde, análises
estatísticas conduzidas nos casos com amostras pequenas mostraram a superioridade das
seqüências de Sobol sobre Monte Carlo com variáveis antitéticas. Em alguns casos, para
atingir o mesmo desempenho com intervalo de confiança de 95%, por exemplo, Monte
Carlo com variáveis antitéticas necessitava de 7 a 79 vezes mais pontos que a seqüência
de Sobol. Os autores observaram também que Monte Carlo com variáveis antitéticas
também era sensível à semente inicial como no Monte Carlo clássico. A convergência
utilizando variáveis antitéticas também foi menos irregular que no caso de Monte Carlo
tradicional.
Os autores afirmaram que os resultados obtidos nos experimentos eram
relacionados ao instrumento financeiro estudado (CMO). Eles não garantiram a
superioridade da seqüência de Sobol sobre Monte Carlo para outras aplicações.
Contudo, esperavam que as vantagens da utilização da seqüência de Sobol pudessem ser
reaplicadas a muitos outros tipos de derivativos.
A idéia principal do método de Monte Carlo que foi explorada pelos autores era
a reposição da integral de uma função contínua (integrando) por um somatório discreto
com N termos escolhidos, aleatoriamente, no intervalo de domínio do integrando. Era
resultado estatístico conhecido que, se os N pontos fossem aleatoriamente escolhidos, o
erro esperado na substituição da integral pelo somatório seria σ(f)/(n0,5), onde σ2(f) era
a variância do integrando f e n o tamanho da amostra utilizada. Uma das vantagens do
método de Monte Carlo, segundo os autores, era o fato de ser independente da dimensão
do integrando. Em contrapartida, a razão de convergência do método de Monte Carlo
era proporcional ao inverso da raiz quadrada do tamanho da amostra utilizada. Esta
constatação tem sido um dos motivadores da busca por novos métodos de convergência
mais rápidos, como os métodos que utilizam seqüências de baixa-discrepância.
47
As seqüências de baixa discrepância Sobol e Halton que foram adotadas nos
experimentos possuíam taxa de convergência proporcional a ((log n)d)/n. O fator de
convergência das séries de baixa discrepância (n-1) deveria ser comparado ao fator das
séries aleatórias simples (n-1/2) empregadas. Pesquisas anteriores apontaram para o fato
de que o ganho na velocidade de convergência das séries de Sobol e Halton diminuía
com o aumento da dimensão do integrando. Pesquisas posteriores, segundo os autores,
revelaram também que as vantagens teóricas da aplicação das seqüências de baixa-
discrepância desapareciam em experimentos com dimensões muito pequenas (D ≤ 30).
Entretanto, os autores afirmaram que os resultados de tais pesquisas foram
completamente diferentes dos obtidos nos testes com o instrumento financeiro analisado
(CMO). As dimensões deste título hipotecário eram devidas ao fato dele possuir
maturidade de 30 anos com pagamentos mensais. Assim, havia 360 (30 x 12) integrais
de fluxo de pagamentos para serem avaliadas a valores presentes.
Em um dos experimentos, os autores revelaram que utilizaram 20 sementes
diferentes para gerar as seqüências de números aleatórios no método de Monte Carlo
clássico. O valor adotado foi a média aritmética dos 20 resultados distintos por Monte
Carlo. Executando as seqüências de Sobol e Halton apenas uma vez foi o suficiente para
que obtivessem os mesmos resultados da média aritmética das 20 repetições de Monte
Carlo.
Outro experimento desenvolvido pelos autores adotava um critério de parada
com base no erro relativo do valor da integral entre duas corridas consecutivas. Caso
este erro fosse menor que um valor previamente estabelecido, a simulação seria
interrompida. O exercício foi executado com seqüências de Sobol, Halton e três
seqüências de Monte Carlo com sementes diferentes. Uma vez estabelecido um valor
para o critério, a seqüência de Sobol foi interrompida com 160.000 pontos amostrados,
enquanto Halton com 700.000 pontos e três simulações de Monte Carlo com 410.000,
430.000 e 780.000 pontos, respectivamente. Mesmo convergindo mais rápido, Sobol
apresentou resultado mais exato para o valor da integral que o método de Monte Carlo.
48
Neste estudo, a única técnica de redução de variância empregada pelos autores
foi a correção do método de Monte Carlo clássico por variáveis antitéticas, que
apresentaram resultados satisfatórios e melhores que os de Monte Carlo clássico.
Obter bons resultados com um número relativamente pequeno de pontos na
amostra, mesmo que em detrimento da precisão dos resultados, é muito importante para
pessoas que trabalham com apreciação de CMO’s ou outros produtos derivativos. Os
métodos que possam avaliar estes instrumentos em questão de minutos são muito
procurados, mesmo que a precisão da avaliação varie entre 10-2 e 10-4. Segundo os
autores, a tendência é de que tais avaliações ou outras mais complexas sejam
necessárias no dia-a-dia das operações em um futuro próximo.
Para testar a precisão dos resultados com amostras de tamanho pequeno, os
autores realizaram um experimento com amostras de 4.000 pontos, empregando as
seqüências de Sobol, Monte Carlo e Monte Carlo com variáveis antitéticas. O resultado
obtido com 20 milhões de pontos por Monte Carlo com variáveis antitéticas foi adotado
como valor exato da integral. Este valor foi utilizado para estimar os erros nos
resultados. Um determinado método era considerado vencedor na comparação com os
outros se o erro apresentado pelo método em relação ao valor exato fosse menor que os
demais. Assim, quando comparado a Monte Carlo clássico, Sobol venceu 177 de um
total de 200 comparações (aproveitamento de 90%). Quando comparado a Monte Carlo
com variáveis antitéticas, Sobol venceu em 70% das ocasiões. Neste experimento, Sobol
foi simulado em 103 segundos enquanto Monte Carlo com variáveis antitéticas em 113
segundos numa estação de trabalho utilizada à época. Assim, Sobol foi executado em
menor tempo e apresentou os menores erros. A superioridade do método de Sobol no
estudo realizado estava comprovada.
Os autores encerraram a pesquisa sugerindo que novas comparações fossem
feitas entre as seqüências de baixa-discrepância quando aplicadas aos novos
instrumentos financeiros derivativos.
49
Nessa mesma época, Traub e Papageorgiou (1996) também testaram as
seqüências de Faure e Sobol na avaliação do preço de uma Collateralized Mortgage
Obligation (CMO). Segundo os autores, resultados semelhantes aos encontrados nos
testes foram obtidos com outros instrumentos financeiros, tais como Opções Asiáticas.
Além disso, pesquisas anteriores já indicavam a superioridade quanto à velocidade de
convergência e à exatidão dos resultados nos casos em que seqüências determinísticas
eram empregadas para aplicações de simulação.
Os autores concluíram que os métodos determinísticos empregados (seqüências
de Faure e Sobol) apresentaram resultados muito superiores aos do método de Monte
Carlo tradicional. Os autores também verificaram a sensível dependência do método de
Monte Carlo à semente inicial do gerador de números aleatórios.
Para amostras de tamanho menor, os métodos determinísticos apresentaram os
menores erros nos resultados. Para a avaliação de uma das malhas do ativo financeiro
analisado, por exemplo, o método de Faure atingiu a precisão de 10-2 com 170 pontos na
amostra. No mesmo experimento, Sobol conseguiu a mesma precisão com 600 pontos
na amostra e Monte Carlo, por sua vez, com 2.700 pontos na amostra. Os autores
notaram que Monte Carlo desperdiçava pontos no Universo de combinações possíveis,
verificando a presença de pontos de acumulação após o processo de amostragem
aleatória não-uniforme nas várias dimensões. O mesmo experimento sugerido por
Paskov e Traub (1995) foi realizado: números aleatórios foram gerados e relacionados
em duas dimensões; foi verificada a existência de regiões onde não havia pares
ordenados e regiões onde havia maior acúmulo de pares ordenados.
Os autores concluíram que os métodos determinísticos foram de 20 a 50 vezes
mais velozes na convergência que Monte Carlo tradicional, mesmo com tamanhos de
amostra moderados (cerca de 2.000 pontos). Quando a alta precisão e a exatidão eram
necessárias aos resultados, os métodos determinísticos podiam ser até 1000 vezes mais
velozes que o método de Monte Carlo clássico.
50
Simulações de Monte Carlo com amostras pequenas não eram confiáveis. Era
interesse dos pesquisadores obter pontos distribuídos tão uniformemente quanto fosse
possível. Este era o princípio fundamental das seqüências com baixa-discrepância.
Em 1992, era do conhecimento de todos que, embora a teoria sugerisse que os
métodos de baixa-discrepância fossem superiores ao de Monte Carlo em algumas
aplicações, esta superioridade desapareceria à medida que o número de dimensões
aumentasse. Naquele ano, programas foram desenvolvidos e testados em seqüências de
baixa-discrepância para apreciação de derivativos financeiros na Universidade de
Columbia.
Em 1995, a IBM anunciou um produto chamado Deterministic Simulation
Blaster - desenvolvido para aumentar a velocidade nas simulações. Esse produto
empregava alguns dos métodos determinísticos de baixa-discrepância. Entretanto, a
descrição dos métodos empregados ainda não havia sido revelada aos autores quando da
publicação daquele estudo.
Traub e Papageorgiou trabalharam em conjunto com Paskov no
desenvolvimento do software para executar simulações empregando métodos
determinísticos de amostragem, conhecido como FINDER. Eles verificaram que a
diferença no desempenho poderia ser associada ao número de pontos que cada método
utilizava para atingir a mesma precisão e exatidão no resultado. Tal exatidão poderia ser
definida de acordo com a aplicação estudada. A velocidade de um método em relação a
outro foi parametrizada pela razão entre o número mínimo de pontos que os métodos
necessitavam para atingir a precisão requerida. Os autores concluíram que os resultados
relativos à velocidade naquele estudo forneceram informações mais completas que os
cálculos do erro em relação a valores considerados exatos. Os autores enfatizaram
também que os resultados para as seqüências determinísticas apresentaram desempenho
sempre superior ao de Monte Carlo tradicional.
A questão da velocidade de convergência era de particular importância pois, na
ocasião, as instituições financeiras aceitavam erros relativos na terceira casa decimal em
51
troca do aumento considerável da velocidade total de cálculo, uma vez que os
instrumentos financeiros já continham erros sistêmicos, intrínsecos ao processo. Através
de uma das aplicações, os autores verificaram que a seqüência de Faure apresentou a
mesma precisão com número de pontos 16 vezes menor que Monte Carlo. Eles
mostraram que, em geral, 2000 pontos de Faure poderiam apreciar o ativo estudado
(CMO) de 20 a 50 vezes mais rápido que Monte Carlo clássico. Para uma seqüência
com N pontos de Faure, os autores obtiveram erros da ordem de N-0.82, enquanto Monte
Carlo tradicional apresentou erros da ordem de N-0.5, muito superiores, portanto. Para
melhorar a exatidão dos resultados com Monte Carlo e aproximar esta da que fora
obtida com os métodos determinísticos, os autores precisavam, em alguns casos, utilizar
1000 vezes mais pontos que os empregados pelos métodos determinísticos.
Dentre os métodos determinísticos, a conclusão dos autores foi que a seqüência
de Faure era superior à de Sobol. Além de apresentar superioridade, as seqüências de
Faure poderiam ter sido expandidas para dimensões muito maiores e com pequeno
acréscimo ao esforço já empregado na criação das seqüências aleatórias simples.
Encerrando, os autores afirmaram já ter conseguido resultados encorajadores
relacionados à avaliação do preço de instrumentos derivativos com mais de 1500
dimensões (ou variáveis), utilizando seqüências de Faure.
Dois anos mais tarde, Owen (1998) apresentou um estudo onde procurava
melhorar o desempenho das seqüências de Quasi-Monte Carlo utilizando as técnicas
normalmente aplicadas a Monte Carlo. Ele conseguiu, para o caso particular de
conjuntos embaralhados, melhorar a exatidão dos resultados. Conseguiu também utilizar
a teoria de Monte Carlo para ampliar Quasi-Monte Carlo a dimensões muito elevadas,
por meio da amostragem com Supercubo Latino.
O problema considerado no estudo de Owen era estimar a integral sobre
domínios não-uniformes em casos onde o integrando possuía dimensão muito elevada.
O autor concentrou esforços nas formas de combinação existentes entre Monte Carlo e
Quasi-Monte Carlo para solucionar o problema da integração.
52
Segundo o autor, as técnicas padronizadas de solução de integrais tinham boa
exatidão quando o integrando era diferenciável e possuía dimensão unitária. Para
integrandos com dimensões superiores à unitária, porém ainda pequenas, versões
iterativas das técnicas unidimensionais ainda eram aplicáveis. Integrandos que
apresentassem dimensões muito grandes, contudo, eram mais bem avaliados utilizando
métodos de simulação, incluindo Monte Carlo e métodos de distribuição uniforme,
como Quasi-Monte Carlo. A definição de um problema de dimensão elevada, segundo o
autor, estava relacionada à existência de integrações iterativas computacionalmente
inviáveis e que possuíam exatidão insuficiente.
Owen (1998) utilizou em seus estudos a definição de dimensão efetiva de um
integrando, aplicada por Caflisch, Morokoff e Owen em 1997. Segundo esta definição, a
dimensão efetiva de um integrando, no sentido do truncamento, era o menor inteiro tal
que, caso a dimensão do integrando fosse reduzida a este inteiro, a variância da integral
seria maior ou igual a 0.99σ2, onde σ2 era a variância da integral original. Esta definição
de truncamento refletia que, para alguns integrandos, apenas um pequeno conjunto de
variáveis de entrada poderia conduzir ao resultado correto. Claro que o valor do limite
fixado em 0.99 foi uma escolha arbitrária e qualquer outro valor poderia ser utilizado
em seu lugar. Se o pesquisador já possuísse, de imediato, alguma idéia sobre as
variáveis que realmente influenciariam o resultado poderia separar tais variáveis antes
de aplicar a definição.
Além dos métodos tradicionais de Monte Carlo, o autor utilizou em seus estudos
os métodos de Quasi-Monte Carlo e Quasi-Monte Carlo aleatório, que consistia em
permutar os elementos das seqüências dos métodos determinísticos empregados e
utilizar as permutações como novas seqüências. A principal razão para a adoção das
permutações de Quasi-Monte Carlo era a crença de que nestes casos haveria
cancelamentos de algumas componentes do erro de previsão. A razão teórica de
convergência para os métodos determinísticos (proporcional a N-1) era assintoticamente
superior à razão característica de Monte Carlo (proporcional a N-0.5). Em dimensões
elevadas, os métodos determinísticos sequer alcançariam esta dimensão se o tamanho da
53
amostra N fosse muito pequeno. O autor observou que o limite do erro aumentava com
o tamanho da amostra até que este tamanho fosse igual a eD, onde D era a dimensão do
integrando.
Segundo Owen (1998), estudos anteriores reportaram que os métodos de Quasi-
Monte Carlo eram superiores a Monte Carlo clássico na prática, embora tal vantagem
desaparecesse para dimensões superiores ou iguais a 8. Entretanto, outros pesquisadores
demonstraram que, para dimensões da ordem de 360, as seqüências determinísticas
ainda eram muito efetivas na avaliação dos integrandos.
Nos experimentos realizados, a exatidão dos resultados apresentados por Quasi-
Monte Carlo foi assintoticamente superior à exatidão apresentada por Monte Carlo
tradicional. A principal desvantagem prática apresentada por Quasi-Monte Carlo foi a
inexistência de uma metodologia para prever a exatidão das avaliações das integrais
estudadas. Até então, não havia maneira de estimar a ordem de grandeza do erro nos
resultados.
Para os experimentos com dimensões muito grandes, o autor utilizou o
Hipercubo Latino (ou LHS), que era uma forma de estratificação simultânea em todas as
dimensões D envolvidas na integração. Este método de amostragem poderia ser
empregado para quaisquer dimensões analisadas, inclusive para dimensões de ordem
superior ao número elementos das amostras utilizadas (D>N). Pelo fato do LHS
estratificar cada variável de entrada, individualmente, era possível integrar funções
aditivas com grande exatidão.
Nos casos onde o integrando possuía dimensão muito maior do que sua
dimensão efetiva, o autor sugeria empregar o método de Quasi-Monte Carlo para as
variáveis relacionadas à dimensão efetiva e utilizar outros métodos quaisquer para as
demais variáveis em jogo. As seqüências de amostragem para as variáveis menos
representativas da integração poderiam ser fixadas no valor mais provável das amostras,
que era 0.5. Isto, contudo, poderia tornar a média da amostra um estimador tendencioso
54
para o resultado, além de aumentar a dificuldade de previsão teórica do erro intrínseco
ao cálculo da integral.
Para os experimentos com transporte de partículas, estudados por Spainer (1995)
e Okten (1996), foi sugerido preencher as colunas remanescentes (relativas ao
complemento da dimensão efetiva) do integrando com seqüências de Monte Carlo
clássico. Owen, em 1994, considerou preencher as colunas remanescentes com a
amostragem por Hipercubo Latino. Segundo o autor, se fossem empregadas seqüências
determinísticas para as primeiras dimensões (efetivas) do integrando e Monte Carlo ou o
Hipercubo para as demais dimensões, seria possível avaliar com maior exatidão o
estimador do resultado da integração. Um benefício adicional sobre a sugestão de
utilizar o valor 0.5 para os todos os elementos das amostras não-efetivas era que os
preenchimentos com quaisquer outras seqüências determinísticas iriam causar uma
menor perda na exatidão do resultado da integração.
Segundo o autor, era sempre possível re-arrumar os componentes do integrando
de modo a conseguir a redução efetiva de sua dimensão. Como exemplo, foi citado o
experimento do movimento Browniano de partículas em diferentes intervalos de tempo,
que poderia ser parametrizado em relação à distância percorrida em lugar do tempo
transcorrido. Os resultados apontaram que era possível reduzir a dimensão efetiva do
problema, uma vez que o movimento total da partícula estava fortemente associado aos
primeiros passos realizados no espaço em estudo.
Owen (1998) sugeriu, adicionalmente, a aplicação de um método de amostragem
denominado por ele de Super Cubo Latino (ou LSC), que seria formado pela
amostragem estratificada de diversas permutações das seqüências de Quasi-Monte
Carlo. O método do LSC estava sendo empregado para analisar o movimento
Browniano de partículas onde os fenômenos de colisão eram permitidos. Nestes
movimentos, os pesquisadores atribuíam um conjunto de variáveis para cada colisão
possível e os valores destas variáveis eram obtidos de amostras do Super Cubo Latino.
55
O autor concluiu que, ao empregar a aleatoriedade nos métodos de Quasi-Monte
Carlo, era possível melhorar os resultados de três formas distintas. A primeira forma
seria por iterações, onde os erros poderiam ser estimados com base nas amostras
utilizadas. A segunda seria nos casos que utilizassem conjuntos embaralhados, onde os
cancelamentos poderiam acontecer e melhorar a exatidão dos resultados. A terceira
forma seria empregando o Super Cubo Latino, onde as regras antes conhecidas e
utilizadas para dimensões menores seriam adotadas nos casos de grandes dimensões.
Saliby (1998) propôs um estudo comparativo entre os métodos da amostragem
Descritiva e do Hipercubo Latino. Naquele estudo, o autor descreveu os métodos e suas
similaridades, mostrando até onde poderiam ser considerados próximos. Segundo o
autor, o método da amostragem Descritiva pode ser considerado o caso-limite do
Hipercubo e, neste sentido, seria a evolução deste.
Proposta como abordagem alternativa em relação à abordagem de Monte Carlo
tradicional, a amostragem Descritiva representava, na verdade, uma mudança
conceitual. Esta amostragem consistia na seleção totalmente determinística dos valores
da amostra e da sua conseqüente permutação aleatória. Apesar de alguns resultados
teóricos já disponíveis, a amostragem Descritiva carecia de um desenvolvimento teórico
adequado. Uma das tentativas neste sentido foi aquele estudo, que procurava apoiar a
teoria da amostragem Descritiva na já fundamentada teoria do Hipercubo Latino,
identificando suas semelhanças e apontando seus principais desafios. A única diferença
entre ambos os métodos era que, ao contrário da amostragem Descritiva, o Hipercubo
ainda preservava uma mínima componente de variabilidade aleatória nos valores
selecionados para as amostras.
O conceito de variabilidade de uma amostra estava ligado ao fato de sua
variância poder ser decomposta em duas componentes principais: uma associada à
variância nos valores da amostra e outra associada à mudança na ordem em que tais
valores ocorrem dentro da amostra. A idéia da amostragem Descritiva era eliminar da
amostra a componente associada à variância nos valores, que segundo o autor era
56
desnecessária, e manter a variação na ordem de ocorrência dos valores na amostra, que
era inevitável. Simbolicamente, a amostragem aleatória simples consistia na
combinação de dois conjuntos, um contendo os valores da amostra e outro contendo
indicadores da seqüência de ocorrência na amostra, conforme mostrado a seguir.
Amostragem Aleatória Simples = Conjunto Aleatório x Seqüência Aleatória
A amostragem Descritiva, por sua vez, era representada, simbolicamente, apenas
pelo conjunto de seqüências aleatórias, conforme abaixo.
Amostragem Descritiva = Conjunto Determinístico x Seqüência Aleatória
A única exigência para empregar a amostragem Descritiva era conhecer
previamente o tamanho necessário da amostra para cada aplicação. A principal questão
relativa à amostragem Descritiva era a escolha cuidadosa dos valores da seqüência ao
invés de sua geração aleatória. Este princípio seguia a linha do conhecimento
proveniente de experimentos anteriores, que relacionaram a aleatoriedade do método de
Monte Carlo apenas à variabilidade na seqüência. Tais experimentos também afirmaram
que a variabilidade nos valores da seqüência em nada influenciava a variância global
das amostras aleatórias simples.
O Hipercubo Latino foi o precursor do método da amostragem Descritiva e
consistia na aplicação de uma técnica de mapeamento ao horizonte de valores
permitidos para a amostra. Este mapeamento, como forma de reduzir a variância da
amostra, controlava fortemente os valores obtidos nas seqüências, embora ainda
permitisse uma pequena aleatoriedade nesses valores. Após sua proposição por McKay
e outros (1979), a técnica do Hipercubo foi largamente aplicada em análises de risco e
em aplicações de engenharia, onde os autores a denominaram simulação determinística
para experimentos computacionais.
A primeira semelhança apontada pelo autor entre a amostragem Descritiva e o
Hipercubo provinha do fato de que amostras subseqüentes seriam geradas pela
57
permutação das seqüências inicialmente produzidas. A única diferença era o modo
como os elementos das seqüências iniciais eram escolhidos em cada estrato do domínio
de valores possíveis.
As demais semelhanças foram verificadas através de inúmeros estudos
empíricos conduzidos pelo autor e outros pesquisadores.
Outra semelhança era que, não importando o método de amostragem escolhido,
a variância atribuída à seqüência dos termos nas amostras era sempre de ordem N-1,
enquanto a atribuída à mudança nos valores dos elementos da amostra dependia do
método de amostragem adotado. Para a amostragem aleatória simples, por exemplo, esta
variância atribuída à mudança nos valores dos elementos também era de ordem N-1 e, na
maioria dos casos, era o termo dominante na variância total da amostra.
Para o Hipercubo Latino, a variância atribuída à mudança no conjunto de valores
da amostra apresentava ordem N-a, onde o parâmetro a era maior ou igual a 2. Isto
mostrava que, quanto maior o tamanho da amostra gerada, a variância atribuída à
mudança nos valores dos termos seria menos significativa que a variância atribuída à
flutuação em sua seqüência de ocorrência. Como a variância atribuída à mudança de
valores era nula na amostragem Descritiva, este método poderia ser considerado
equivalente ou caso-limite do Hipercubo, quando o tamanho da amostra considerada
fosse muito elevado.
Saliby (1998) realizou um experimento para comparar o desempenho de ambos
os métodos de amostragem em questão: a amostragem Descritiva e o Hipercubo Latino.
O experimento consistiu em avaliar um estimador definido por uma simples fórmula
matemática, apresentada na expressão 2.22.
[2.22]
Nesta aplicação, X e Y eram variáveis independentes com distribuição normal
padronizada. O propósito do experimento era avaliar a média das amostras do estimador
( )YXD 22 2/1+=
58
D. Os valores da média e da variância do estimador já eram conhecidos a priori (µD =
1.2533 e σD = 0.4292). Os experimentos foram conduzidos de forma a avaliar as
contribuições individuais das variâncias relativas à flutuação nos valores das amostras e
à mudança na ordem de ocorrência desses valores. Uma série de tamanhos de amostra,
variando de 10 a 1000 termos, foi empregada para obtenção dos resultados.
Os resultados obtidos no experimento mostraram que a variância das amostras
Descritivas sempre permaneceu próxima à variância das amostras do Hipercubo e
ambas foram de ordem N-1. Estes resultados mostraram também que, à medida que o
tamanho da amostra aumentava, a razão entre a variância atribuída aos valores do
conjunto e a atribuída à ordem de ocorrência diminuía. Além disso, o autor verificou
que, para grandes tamanhos de amostra, a variância na seqüência de ocorrência era
dominante e ambos os métodos de amostragem ficavam equivalentes.
O autor concluiu afirmando que a amostragem Descritiva representava uma
evolução da amostragem por Hipercubo, sendo mais eficiente em termos estatísticos e
computacionais, uma vez que não requeria etapas intermediárias de escolha dos valores
no conjunto de amostras.
Gaure e Kleijnen (1998) apresentaram outras aplicações para os métodos de
amostragem de Monte Carlo e os demais métodos determinísticos empregados em
simulação. O propósito do estudo conduzido pelos autores foi testar e gerenciar o risco
presente no projeto de sistemas, utilizando a simulação como ferramenta para avaliar a
robustez das características testadas. Segundo os autores, a escolha dentre dois sistemas
era feita através de comparações das funções de distribuição de seus desempenhos. Tais
comparações estavam atreladas a determinado critério e compactadas em funções de
utilidade ou funções características, que eram expressões matemáticas representando as
preferências em relação ao risco contido nos sistemas avaliados.
Até então, a maioria dos estudos de robustez de sistemas considerava apenas três
valores para cada parâmetro em estudo e suas diversas combinações possíveis. Em
59
seguida, técnicas matemáticas eram empregadas para escolher as combinações mais
prováveis e avaliar os resultados com estas combinações. A análise de risco, por outro
lado, utilizava tamanhos elevados de amostras para cada parâmetro. Como exemplo, o
autor citou o Hipercubo Latino que requeria, nos experimentos realizados, amostras de
pelo menos cem termos. Assim, enquanto a análise tradicional dos experimentos
utilizava valores críticos para os parâmetros, a análise de risco empregava praticamente
todo o espectro de valores possíveis e de combinações esperadas com os parâmetros do
sistema. Ao final, o procedimento da análise de risco construía a função distribuição dos
resultados com maior precisão e exatidão que nos casos tradicionais.
Na comparação de vários sistemas de controle utilizando os critérios da análise
de risco, proposta pelos autores da pesquisa, os parâmetros de incerteza considerados
foram as médias dos tempos de processamento e suas respectivas variâncias, as médias
dos tempos entre falhas consecutivas do sistema e as durações dos intervalos para
execução dos reparos no sistema. Além destes últimos, as taxas de demanda do produto
final também foram adotadas como parâmetro. Ao todo, foram 17 parâmetros
considerados nas análises realizadas.
Por simplicidade, os autores escolheram o intervalo de ±5% ao redor dos valores
mais prováveis de cada parâmetro como domínios a serem estudados. O método de
amostragem do Hipercubo Latino foi utilizado para gerar cem amostras (cenários) no
ambiente estudado. Os cenários criados foram considerados equiprováveis. Desta forma,
todos os parâmetros possuíam distribuições uniformes nos intervalos considerados. Para
cada cenário, foram executadas simulações para períodos de um mês de produção, em
regime de 22 dias úteis com dois turnos por dia. Todas as simulações utilizavam as
mesmas condições de contorno.
O objetivo era atingir 99.9% de nível de serviço e minimizar o tempo de
processo dos sistemas (WIP). Como medidas de desempenho, foram utilizados o tempo
de processo mensal e a proporção mensal dos turnos com níveis de serviço abaixo de
99.9%. A teoria da dominância estocástica poderia ser aplicada para classificar (por
ranks) os sistemas estudados com base nos resultados obtidos.
60
Os autores concluíram o estudo afirmando que os resultados da aplicação dos
métodos de simulação para avaliar a questão da robustez em sistemas de produção
foram satisfatórios. Eles propuseram este procedimento diferente dos tradicionais,
utilizando a amostragem de Monte Carlo e as amostragens determinísticas, para poder
construir cenários incertos para parâmetros ambientais também incertos. A simulação
destes diferentes cenários conduziu a uma medida mais exata e precisa do risco
envolvido na adoção de sistemas que resultassem em falhas futuras. Os autores
acreditavam que este procedimento apresentava mais vantagens em relação ao método
tradicional, mesmo com a desvantagem de requerer maior número de experimentos. As
análises da robustez de diversos sistemas de controle de produção ilustraram a nova
abordagem proposta e mostraram a combinação da análise de risco com a simulação
estocástica na comparação de sistemas. Os experimentos também demonstraram a
importância do projeto de robustez nos sistemas, apresentando situações onde ignorar as
variações ambientais e as incertezas poderiam negligenciar parcelas significativas do
risco global.
61
2.5 Conclusões
Neste capítulo, os diversos métodos de amostragem para aplicações de
simulação foram apresentados. Exemplos mostraram aplicações do método de Monte
Carlo clássico, com a amostragem aleatória simples, e de Monte Carlo modificado, que
utiliza a amostragem pseudo-aleatória, onde existe a liberdade de escolha do valor da
semente responsável pela seqüência dos valores aleatórios. Outros exemplos e
aplicações adotaram o método de amostragem com conjuntos determinísticos, como a
amostragem Descritiva, ou o Hipercubo Latino, que ainda apresenta uma componente
aleatória na determinação dos valores nas amostras. Finalmente, foram abordadas as
mais recentes pesquisas e aplicações em termos de metodologias de amostragem com
conjuntos quasi-aleatórios, os métodos de baixa-discrepância conhecidos como Quasi-
Monte Carlo, que utilizam as séries numéricas de Halton, Sobol e Faure.
A maior parte dos resultados apresentados pelos autores discutidos neste
capítulo indicou a superioridade das seqüências determinísticas de Quasi-Monte Carlo
sobre o método tradicional de Monte Carlo, que utiliza amostragem aleatória (ou
pseudo-aleatória) simples. A superioridade foi constatada por indicadores de velocidade
de convergência nos modelos empregados ou por indicadores de exatidão e precisão dos
resultados em relação às estimativas para as aplicações analisadas.
Alguns autores, contudo, apresentaram limites claros para tal superioridade
paramétrica através da dimensão considerada nos casos e aplicações abordadas.
Segundo alguns pesquisadores, a superioridade das seqüências de baixa-discrepância era
mantida até que o estimador analisado possuísse oito dimensões. Acima deste valor, a
superioridade não mais foi constatada. Outros resultados demonstraram que, ao menos
nas aplicações em que foram empregados, os métodos de Quasi-Monte Carlo são
superiores em termos de convergência e exatidão para dimensões de cerca de 360
variáveis de entrada.
Apesar de diferentes valores limítrofes para estas características encontradas em
diversas aplicações na natureza, uma conclusão comum foi notadamente identificada em
62
todos os autores abordados: a superioridade relativa dos métodos de Quasi-Monte Carlo
e suas variações sobre o método tradicional de Monte Carlo. Esta superioridade foi
verificada em diferentes níveis para cada aplicação, considerando os valores
estabelecidos para os critérios adotados nas comparações (convergência e exatidão).
Combinações dos efeitos obtidos pela utilização dos diversos métodos de
amostragem com os efeitos da imposição de correlações entre as variáveis na entrada de
uma aplicação, através da Transformada de Cholesky, também foram discutidas nesse
capítulo. Os resultados apresentados foram satisfatórios quando comparados aos obtidos
pela utilização dos métodos tradicionais empregados no ambiente empresarial, que
desconsidera certas inter-relações entre as variáveis de entrada.
Nos capítulos subseqüentes, todos os diferentes métodos de amostragem
abordados e discutidos serão comparados entre si. Os correspondentes desempenhos
individuais serão estudados em experimentos e aplicações envolvendo análise de risco,
apreciação de instrumentos derivativos financeiros, avaliação do retorno esperado em
carteira de ações e no cálculo de integrais múltiplas, que foi uma das aplicações
pioneiras do método de Monte Carlo clássico em Engenharia.
63
3 METODOLOGIA
Neste capítulo, serão apresentadas as classificações da pesquisa a ser realizada
quanto aos fins e aos meios, a abrangência e a delimitação do estudo, descrevendo os
tipos de aplicações onde serão testados e comparados os diferentes métodos de
amostragem. Serão apresentadas também as formas de coletar os dados nos
experimentos e os critérios adotados para analisar o desempenho das seqüências de
amostragem nas aplicações selecionadas.
3.1 Tipo de pesquisa
O estudo a ser realizado consistirá na comparação de seis métodos de
amostragem apresentados no capítulo anterior através da avaliação do desempenho dos
conjuntos de amostras quando aplicados aos casos de análise de risco, apreciação (ou
precificação) de derivativos financeiros, avaliação de carteiras de ações e avaliação de
integrais múltiplas.
Segundo a taxionomia apresentada por Vergara (1997), esta pesquisa pode ser
classificada, quanto aos fins, em duas categorias. Inicialmente, como uma pesquisa
exploratória, por tratar de assunto relacionado a descobertas relativamente recentes e
que ainda não foi completamente esgotado em ambientes acadêmicos. A seguir, como
pesquisa aplicada, por ser especialmente voltada ao mercado financeiro, onde o
desenvolvimento de instrumentos para avaliação de ativos tem recebido grande atenção
devido à velocidade com que surgem operações cada vez mais complexas e dependentes
de muitas variáveis inter-relacionadas.
De acordo com a classificação adotada por Vergara (1997), esta pesquisa
pertence, quanto aos meios empregados, a duas outras categorias. É uma pesquisa
experimental, uma vez que permitirá analisar o fenômeno da superioridade de uma
metodologia de amostragem em relação às demais estudadas neste trabalho. A
64
comparação dos desempenhos dos métodos será realizada através da mudança das
variáveis de entrada e das condições de contorno nas aplicações. Também é uma
pesquisa de laboratório, pois as principais ferramentas a serem empregadas na análise
dos resultados e na criação das seqüências de amostragem a serem comparadas serão o
computador e seus respectivos programas.
Este trabalho também pode ser classificado, segundo Vergara (1997), como um
estudo de caso, pois os experimentos e aplicações realizadas para obtenção dos dados
estão fundamentados em situações reais e casos extraídos diretamente do mercado
financeiro ou relacionados a antigas questões de engenharia.
3.2 Universo e amostra
Há muitos experimentos e problemas onde as metodologias de amostragem aqui
estudadas1 poderiam ser aplicadas a fim de comparar a convergência e a exatidão dos
resultados obtidos para as variáveis de saída.
Entretanto, devido à limitação do tempo disponível e ao fato de que a atividade-
fim deste trabalho não é esgotar o tema, quatro categorias de experimentos foram
cuidadosamente selecionadas. A escolha teve por base facilitar o tratamento dos
resultados e contribuir para a obtenção de conclusões concretas sobre as características
dos métodos de amostragem empregados. Para modelar as aplicações desta pesquisa,
foram observados os procedimentos e as principais recomendações para a construção de
modelos e para a subseqüente realização dos experimentos a eles associados, conforme
mencionado em Vose (1996).
Em todas as aplicações desta pesquisa, as séries de baixa-discrepância
empregadas foram obtidas pelo método de Quasi-Monte Carlo aleatório. Por este
método, cada variável de entrada é associada a um número primo na primeira corrida e
1 Método de Monte Carlo clássico, Métodos de Quasi-Monte Carlo, Amostragem Descritiva e HipercuboLatino.
65
recebe como amostra a série de Quasi-Monte Carlo correspondente a esse primo. Nas
corridas seguintes, as variáveis recebem permutações simples das séries utilizadas na
primeira corrida. Não há alteração nos valores dos termos nas amostras das corridas
subseqüentes (método de conjuntos determinísticos).
A primeira categoria estudada nesta pesquisa foi selecionada dentre um universo
de aplicações existentes no mercado financeiro: a Análise de Risco na tomada de
decisão sobre o lançamento de um novo produto no mercado.
3.2.1 ANÁLISE DE RISCO
O problema da Análise de Risco de um novo produto, definido em Saliby (1989,
apêndice A8), trata da situação de uma empresa que estuda suas opções de investimento
no dia-a-dia. Esta empresa está considerando a possibilidade de lançar um novo produto
na área de negócios em que atua.
Para avaliar a viabilidade do ponto de vista da empresa neste lançamento, foram
identificados e quantificados os principais fatores que, de alguma forma, pudessem
influenciar o resultado financeiro consolidado do empreendimento.
Investimento inicial:
Dentre estes fatores, o investimento inicial é de particular importância, pois,
dependendo de sua ordem de grandeza e da dificuldade em conseguir o financiamento, o
projeto pode ser inviável. Para a fabricação e colocação do produto no mercado, é
necessário um desembolso inicial de R$ 1.000.000,00 (um milhão de reais), valor
preciso o suficiente a ponto de poder ser considerado correto. Por ser investimento de
natureza específica, sem utilidade para outros fins, e por ser exclusivo da empresa
estudada, não há valor residual a ser recuperado no futuro, após o ciclo mercadológico
do produto.
66
Vida mercadológica do produto:
O lançamento se refere a um produto ainda inexistente no mercado, do tipo
novidade, e dele se espera uma vida mercadológica curta no que diz respeito ao volume
de vendas. Com base na experiência e intuição dos diretores, a empresa estima em 60%
a probabilidade de permanência do produto por dois anos em sua lista de produtos
vendidos. Uma estimativa mais otimista, proveniente da mesma fonte de informações, é
a permanência por três anos consecutivos na lista de produtos vendidos pela empresa,
avaliada com 40% de probabilidade de ocorrência. A possibilidade de o produto
permanecer por mais de três anos na lista de produtos vendidos pela empresa foi
descartada pelos diretores.
Custo unitário:
Devido às incertezas do empreendimento, o custo unitário de preparação do
produto, desconsiderando as despesas iniciais de investimento, foi especificado através
de uma distribuição de probabilidades. Os valores possíveis e suas respectivas
probabilidades são fornecidos na tabela 3.1 a seguir. É importante observar que, tendo
em vista a possibilidade de estabelecer bons acordos comerciais para a pequena vida
mercadológica considerada, os custos serão idênticos ao longo de toda a vida do
produto.
Tabela 3.1 Custos unitários dos novos produtos e suas probabilidades de ocorrência, para aaplicação de Análise de Risco no lançamento
Custo unitário (R$) Probabilidade (%)
3,00 40
3,50 30
4,00 30
67
Vendas anuais:
O volume de vendas do novo produto deverá variar de forma aleatória ao longo
dos anos, porém, ao contrário dos custos, seu valor para cada ano no mercado será
independente dos demais anos. Pela experiência anterior da empresa, foi verificado que
as vendas eram mais bem representadas por uma distribuição empírica contínua. Desta
forma, os volumes anuais de vendas deverão variar uniformemente para cada um dos
cinco intervalos apresentados na tabela 3.2. Os cinco intervalos de valores possíveis
para os volumes anuais de vendas são considerados equiprováveis.
Tabela 3.2 Intervalos possíveis para os volumes anuais de venda dos novos produtos, para aaplicação de Análise de Risco no lançamento
Intervalo Probabilidade (%) Limites (mil unidades)
1 20 70 a 360
2 20 360 a 410
3 20 410 a 490
4 20 490 a 630
5 20 630 a 900
Gráfico 3.1 Função de distribuição acumulada de probabilidades dos volumes anuais devendas (mil unidades), segundo tabela 3.2
0
0.2
0.4
0.6
0.8
1
0 200 400 600 800 1000VENDAS (mil unid)
F (V)
68
Estes intervalos de valores para os volumes anuais de vendas também podem ser
descritos, de modo equivalente, através de sua função de distribuição acumulada de
probabilidades, apresentada no gráfico 3.1 logo após a tabela 3.2. Quaisquer que sejam
os métodos de amostragem utilizados, os valores para os volumes anuais de vendas
serão obtidos através da inversa da função de distribuição acumulada.
Preço de venda:
Para este estudo, o preço unitário de venda foi fixado em R$ 5,00, independente
dos fatores de mercado presentes nos cenários adotados. Esta aproximação é aceitável
quando o produto analisado é classificado como inédito, ou do tipo novidade, sem a
presença de outro equivalente em circulação.
Critério de decisão e taxa de desconto do fluxo de caixa:
O critério de decisão adotado para o investimento é o do fluxo de caixa
descontado (ou FCD). Os valores presentes dos fluxos de caixa futuros serão somados e
expressos em unidades de R$ 1.000,00 (unidades de mil reais).
A taxa de desconto utilizada na avaliação dos projetos da empresa é de 15% ao
ano, antes da aplicação do imposto de renda e de outros impostos cabíveis.
Outras premissas:
Foi considerado que o produto já estará disponível para as vendas logo após o
pagamento do investimento inicial. Além disso, a convenção adotada para os fluxos de
caixa foi a de que tais fluxos estariam concentrados ao final dos períodos anuais.
69
Objetivo da simulação:
O objetivo principal com o emprego da Simulação neste experimento é
determinar o perfil de risco do projeto2, com interesse específico na média e no desvio-
padrão da média dos valores presentes dos fluxos de caixa.
Os diferentes métodos de amostragem empregados no experimento produzirão, a
cada corrida de simulação, uma amostra dos valores presentes dos fluxos de caixa
descontados. A partir das amostras geradas, os valores das médias e dos
correspondentes desvios-padrão das médias serão calculados, conforme as respectivas
expressões 3.1 apresentadas a seguir.
[3.1]
3.2.1.1 Variantes do experimento de análise de risco
Com o objetivo de testar a convergência e a exatidão dos resultados
apresentados pela aplicação dos métodos de amostragem estudados, três variantes do
problema de análise de risco foram empregadas. Em todos os casos, as alterações
realizadas procuraram aumentar a dimensão do problema ou o número de variáveis de
entrada.
Na primeira e segunda variantes, a dimensão do problema foi aumentada a partir
da ampliação da vida mercadológica do produto analisado. Esta dimensão foi, na
primeira variante do exercício, elevada para o horizonte de 6 anos, e na segunda, para o
horizonte de 14 anos. A vida mercadológica do produto no último ano continuou com a
probabilidade de ocorrência fixada em 40%, enquanto a vida mercadológica até o
penúltimo ano permaneceu com probabilidade de 60%. Os demais parâmetros
permaneceram constantes.
NVP
N
iiVP∑
== 1( )
11
2
−=
∑ −=
N
N
ii
VP
VPVPσe
70
Na terceira variante do problema, parâmetros antes considerados constantes
passaram a flutuar em faixas de valores com suas respectivas probabilidades de
ocorrência. Os parâmetros que passaram a variar foram: o investimento inicial, que
passou a ter três valores com diferentes probabilidades, conforme a tabela 3.3; o custo
unitário dos novos produtos a cada ano, que passou a ter valores independentes entre
anos consecutivos; o preço de venda ao consumidor final, que passou a ser influenciado
pelas variáveis de mercado, recebendo acréscimo ou decréscimo de valor de acordo com
o volume anual de vendas, conforme a tabela 3.4; finalmente, o volume de vendas do
primeiro ano passou a incorporar o risco associado ao atraso na entrega das instalações,
que reduz o volume efetivo de vendas no ano de lançamento, conforme apresentado na
tabela 3.5 a seguir.
Tabela 3.3 Valores do investimento inicial para lançar o novo produto e suas probabilidadesde ocorrência, para a terceira variante da aplicação de Análise de Risco
Investimento inicial (mil R$) Probabilidade (%)
900,00 25
1.000,00 45
1.100,00 30
Tabela 3.4 Variações no preço final dos novos produtos com as respectivas probabilidades deocorrência, para a terceira variante da aplicação de Análise de Risco
Intervalo vendas Probabilidade (%) Variação (%)
1 20 -20 a -10
2 20 -10 a 0
3 20 -5 a 5
4 20 0 a 10
5 20 10 a 20
2 A função distribuição acumulada do valor presente dos fluxos de caixa descontados à taxa anual pré-estabelecida de 15%.
71
Tabela 3.5 Reduções no volume de vendas do primeiro ano após lançar o produto, para aterceira variante da aplicação de Análise de Risco
Redução vendas (%) Probabilidade (%)
zero 60
20 30
40 10
A segunda categoria identificada no universo de aplicações do mercado
financeiro a ser analisada foi a Avaliação de uma Carteira (ou Portfolio) de Ações
Correlacionadas. Neste experimento, foram empregados os métodos de amostragem e as
transformações3 apresentadas no capítulo anterior.
3.2.2 AVALIAÇÃO DE PORTFOLIO DE AÇÕES
Neste experimento, o interesse maior era a avaliação do retorno esperado para
uma carteira de ações correlacionadas, cujos retornos médios anuais e correspondentes
desvios-padrão eram previamente conhecidos. A matriz de correlação das ações que
compunham a carteira também era conhecida. Abordagens equivalentes às utilizadas
neste experimento para criar dependências entre vetores independentes podem ser
consultadas no documento técnico do Risk MetricsTM terceira edição (1995), produzido
pela Morgan Guaranty Trust Company. Outros exemplos de aplicações de séries multi-
correlacionadas, bem como dos procedimentos para obter vetores correlacionados
podem ser encontrados em Jorion (1997).
Para o presente estudo, foi proposta uma carteira formada com quatro ações. As
proporções dos investimentos financeiros atribuídos a cada uma das ações eram iguais
entre si (25%). Os retornos anuais médios das ações componentes da carteira e seus
respectivos desvios-padrão foram apresentados na tabela 3.6 a seguir.
3 Transformada de Cholesky e Procedimento de Ajuste da Transformada de Cholesky.
72
Tabela 3.6 Retornos anuais médios e desvios-padrão para as ações da carteira analisada, naaplicação de Avaliação de Portfolio de Ações
Retorno anual médio (%) Desvio-padrão (%)
Ação 1 15 20
Ação 2 10 12
Ação 3 25 40
Ação 4 16 20
A aplicação poderia ser empregada para determinar os percentis da distribuição
de retornos da carteira, sabendo que as ações componentes possuíam comportamentos
correlacionados. A matriz de correlação destas ações foi apresentada na tabela 3.7.
Tabela 3.7 Matriz de correlação entre os retornos anuais médios das ações da carteiraanalisada, na aplicação de Avaliação de Portfolio de Ações
Ação 1 Ação 2 Ação 3 Ação 4
Ação 1 1 0.8 0.7 0.6
Ação 2 0.8 1 0.75 0.55
Ação 3 0.7 0.75 1 0.65
Ação 4 0.6 0.55 0.65 1
Além de determinar os percentis da distribuição de retornos da carteira, a
aplicação poderia determinar a probabilidade de o retorno anual da carteira superar um
valor de referência. Esta última atribuição foi adotada como objetivo intermediário do
experimento, definindo o estimador de saída do modelo como a probabilidade do
retorno anual da carteira superar o valor de 20%.
Nesta pesquisa, entretanto, o principal objetivo da aplicação e de suas variantes
era comparar o desempenho dos métodos de amostragem testados, utilizando os
critérios de velocidade de convergência e exatidão dos retornos da carteira. Como
função de saída foi assim definida a probabilidade de o retorno anual da carteira superar
o valor de 20%.
73
3.2.2.1 Variantes do experimento de avaliação de portfolio de ações
Algumas variantes poderiam ser introduzidas nesta aplicação de modo a elevar a
dimensão do problema e testar a hipótese de que os métodos de Quasi-Monte Carlo
apresentam superioridade apenas nos casos com dimensões pequenas. Duas variantes
foram consideradas.
A primeira variante considerou que o número de ações componentes da carteira
de investimentos aumentou para oito. Os novos valores das médias dos retornos anuais
individuais para as ações e seus respectivos desvios-padrão foram listados na tabela 3.8.
A nova matriz de correlação entre os retornos foi apresentada na tabela 3.9.
A segunda variante desta aplicação continuou aumentando a dimensão do
experimento, considerando a carteira composta de dez ações multi-correlacionadas. A
tabela 3.10 apresentou os retornos anuais médios das ações e seus respectivos desvios-
padrão. A tabela 3.11 apresentou a nova matriz de correlação imposta às dez variáveis
da carteira. Os valores utilizados nestas variantes do experimento não tiveram a
pretensão de replicar alguma carteira específica. Os valores foram escolhidos para testar
o desempenho dos métodos de amostragem em grandes dimensões.
Tabela 3.8 Retornos anuais médios e desvios-padrão para as ações da carteira analisada, naprimeira variante da aplicação de Avaliação de Portfolio de Ações
Retorno anual médio (%) Desvio-padrão (%)
Ação 1 15 20
Ação 2 10 12
Ação 3 25 40
Ação 4 16 20
Ação 5 20 25
Ação 6 12 16
Ação 7 13 18
Ação 8 10 13
74
Tabela 3.9 Matriz de correlação dos retornos anuais médios das ações da carteira analisada,na segunda variante da aplicação de Avaliação de Portfolio de Ações
Ação 1 Ação 2 Ação 3 Ação 4 Ação 5 Ação 6 Ação 7 Ação 8
Ação 1 1 0.8 0.7 0.6 0.5 0.4 0.3 0.2
Ação 2 1 0.75 0.55 0.45 0.40 0.45 0.30
Ação 3 1 0.65 0.55 0.45 0.35 0.25
Ação 4 1 0.5 0.6 0.7 0.8
Ação 5 1 0.75 0.65 0.5
Ação 6 1 0.5 0.6
Ação 7 1 0.8
Ação 8 1
Tabela 3.10 Retornos anuais médios e desvios-padrão das ações da carteira analisada, naterceira variante da aplicação de Avaliação de Portfolio de Ações
Retorno anual médio (%) Desvio-padrão (%)
Ação 1 15 20
Ação 2 10 12
Ação 3 25 40
Ação 4 16 20
Ação 5 20 25
Ação 6 12 16
Ação 7 13 18
Ação 8 10 13
Ação 9 18 22
Ação 10 23 28
75
Tabela 3.11 Matriz de correlação dos retornos anuais médios das ações da carteira analisada,na terceira variante da aplicação de Avaliação de Portfolio de Ações
Aç 1 Aç 2 Aç 3 Aç 4 Aç 5 Aç 6 Aç 7 Aç 8 Aç 9 Aç 10
Aç 1 1 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.05
Aç 2 1 0.75 0.55 0.45 0.40 0.45 0.30 0.2 0.1
Aç 3 1 0.65 0.55 0.45 0.35 0.25 0.15 0.1
Aç 4 1 0.5 0.6 0.7 0.8 0.6 0.5
Aç 5 1 0.75 0.65 0.5 0.45 0.35
Aç 6 1 0.5 0.6 0.7 0.6
Aç 7 1 0.8 0.5 0.45
Aç 8 1 0.85 0.65
Aç 9 1 0.55
Aç 10 1
A terceira categoria de aplicações escolhidas no universo de situações
encontradas no mercado financeira foi a Avaliação do Preço (Apreciação ou
Precificação) de Ativos Financeiros Derivativos. No caso, serão avaliadas as Opções
de Compra de um determinado ativo-objeto.
3.2.3 PRECIFICAÇÃO DE OPÇÕES
A opção do tipo européia sobre um ativo-objeto atribui ao portador o direito de
comprar (no caso de opção de compra) ou de vender (se a opção for de venda) o ativo-
objeto por um preço previamente definido (preço de exercício) na data do vencimento
da opção.
O modelo mais conhecido para apreciação (ou precificação) de Opções é o
modelo de Black & Scholes, desenvolvido em 1973, que faz uma série de suposições a
respeito do comportamento do ativo-objeto da opção. Dentre as suposições, está o fato
de que o preço do ativo segue uma distribuição log-normal. Isto significa que o
logaritmo do preço do ativo-objeto é uma variável aleatória normalmente distribuída.
76
Algumas definições iniciais são necessárias antes da apresentação da expressão
fechada para o cálculo do valor da opção, de modo a esclarecer as dependências entre as
variáveis de controle. Assim,
P0 ... é o preço do ativo-objeto da opção na data inicial
t ... é a medida do tempo transcorrido a partir da data inicial
Pt ... é o preço do ativo-objeto da opção no instante de tempo t
Z ... é uma variável aleatória com distribuição Normal padrão
µ ... é o crescimento médio no valor do ativo-objeto ao longo do tempo
σ ... é o desvio-padrão do crescimento médio no valor do ativo-objeto.
O preço do ativo-objeto, no instante de tempo t, é modelado pela expressão 3.2
abaixo.
[3.2]
A receita bruta do portador da opção de compra, no instante do vencimento,
depende da relação entre o preço do ativo-objeto na ocasião, calculado pela expressão
3.2, e o preço de exercício estabelecido no contrato da opção. O portador da opção de
compra deverá exercer a opção apenas se o preço do ativo-objeto estiver avaliado com
valor superior ao do preço de exercício. Caso contrário, e justamente por isso o fato não
ocorra, realizará prejuízo imediato no exercício. A tabela 3.12, a seguir, apresenta os
possíveis valores, no exercício ou vencimento, para o fluxo de caixa bruto do portador
da opção de compra.
Tabela 3.12 Fluxo de caixa bruto do portador de uma opção de compra para um ativo-objeto,na data de exercício ou do vencimento da opção
Ativo-Objeto Preço Exercício Relação Fluxo Caixa bruto
Pt ≤ K zeroPt K
Pt > K Pt - K
( )[ ]ePP tZtt
5.025.00
⋅⋅+⋅⋅−⋅= σσµ
77
Dessa forma, se o preço do ativo-objeto no instante do exercício for maior que o
preço de exercício, o fluxo de caixa bruto naquela data será a diferença entre o preço do
ativo-objeto e o preço de exercício. Caso contrário, o fluxo de caixa bruto será nulo.
Considerando a distribuição de valores da variável normal aleatória Z, as várias
situações para o fluxo de caixa futuro são estudadas e seus resultados trazidos a valor
presente pela taxa livre de risco. A média dos valores presentes dos fluxos de caixa
futuros para as diversas corridas executadas representa o valor da opção de compra por
simulação.
O valor considerado exato da avaliação da Opção de Compra, para comparação
com os resultados obtidos na simulação, será o valor calculado pela fórmula fechada do
modelo de Black & Scholes. Esta fórmula, bem como os passos de seu
desenvolvimento, estão explicados claramente em Hull (1993). As equações estão
mostradas nas expressões 3.3 e alguns esclarecimentos foram prestados logo a seguir.
[3.3]
N(d) é a função densidade de probabilidade acumulada para uma variável com
distribuição Normal padrão e seu valor representa a probabilidade da variável ser menor
ou igual a d. A variável r representa a taxa livre de risco na unidade de tempo adotada
para t. As demais variáveis possuem as mesmas definições que as estabelecidas para a
expressão 3.2, equação do estimador de saída para a simulação.
A variante que poderia ser introduzida nesta aplicação seria considerar uma
carteira formada de muitas opções de compra e venda, avaliar o resultado individual de
cada opção e determinar o valor total da carteira. Esta variante, contudo, por limitações
de escopo e tempo, não foi realizada.
( ) ( ) ( )ded NKNPc tr21 ⋅⋅−⋅= ⋅−
t
trKP
d⋅
⋅
++
=σ
σ2
ln2
1 tdd ⋅−= σ12e
78
A quarta categoria de experimentos estudados nesta pesquisa estava relacionada
ao universo de aplicações práticas em Engenharia. O caso selecionado foi a Avaliação
de uma Integração Múltipla de quarta ordem.
3.2.4 INTEGRAÇÃO MÚLTIPLA
O problema da integração múltipla, apresentado por Saliby (1989, apêndice A5),
representa o tipo de aplicação para o qual o método de Monte Carlo foi originalmente
proposto.
Em sua abordagem, conhecida como Monte Carlo direto e apresentada por
Hammersley e Handscomb, em 1964, a integral definida de uma determinada função no
intervalo [A , B], representada por ...
[3.4]
era estimada através da relação ...
[3.5]
Em geral, através de uma simples transformação de variáveis, esta integral pode
passar a ser avaliada num intervalo unitário (ou [B-A] = 1). Esta mesma idéia pode ser
replicada ao cálculo de uma integral múltipla (n-dimensional).
O problema específico deste estudo consiste em estimar o valor da integral pelos
métodos de amostragem analisados. Em seguida, armazenar e comparar os diferentes
comportamentos de convergência e os valores obtidos para cada método empregado.
dxxfB
A
⋅=Θ ∫ )(
( )
⋅−=∑
=
N
fABY
N
iix
1)(
79
A integração a ser estimada neste exercício possui dimensão quatro e foi
apresentada na expressão 3.6 a seguir.
[3.6]
O valor da estimativa da integral corresponde à média da variável de resposta
definida pela expressão 3.7.
[3.7]
Como informação adicional, Saliby (1989) fornece o valor exato desta integral
de quarta ordem apresentada na aplicação. Seu valor é 1.0693976.
3.2.4.1 Variantes do experimento de integração múltipla
As variantes para este caso podem ser conseguidas elevando a dimensão da
integral a ser estimada para ordens superiores. Quanto maior a ordem da integral mais
difícil é sua solução analítica e, portanto, os métodos de simulação nestas ocasiões
passam a ser muito úteis.
Desta forma, a primeira variante que foi analisada nesta aplicação foi a
integração múltipla de ordem oito, definida pela expressão 3.8 a seguir.
[3.8]
A segunda variante foi a integração múltipla de ordem dez, definida pela
expressão 3.9 abaixo.
[3.9]
dxdxdxdxe xxxx4321
1
0
1
0
1
0
1
04321 ⋅⋅⋅⋅=Θ ∫ ∫ ∫ ∫ ⋅⋅⋅
⋅= ∑
= NfY
N
iix 1)(
1
dxdxdxdxe xxxx8321
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
08321 ⋅⋅⋅⋅⋅⋅⋅⋅=Ω ∫ ∫ ∫ ∫ ∫ ∫ ∫ ∫ ⋅⋅⋅⋅⋅⋅⋅
dxdxdxdxe xxxx10321
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
010321 ΚΚΚ ⋅⋅⋅⋅=Ψ ∫ ∫ ∫ ∫ ∫ ∫ ∫ ∫ ⋅⋅⋅
80
3.3 Coleta de dados
As informações sobre os critérios de comparação adotados - velocidade de
convergência e exatidão do resultado nas aplicações estudadas nesta pesquisa - serão
obtidas a partir de três planilhas. Estas planilhas foram desenvolvidas em MS EXCEL
2000 e, por macros, reproduzem as seqüências numéricas relativas aos métodos de
amostragem considerados.
As planilhas fundamentais para obtenção dos resultados da pesquisa foram
denominadas Risk.xls, Samples.xls e Cholesky.xls.
3.3.1 Velocidade de convergência
A planilha Samples.xls contém os algoritmos para criação das seqüências
analisadas de Monte Carlo clássico, Amostragem Descritiva, Hipercubo Latino e Quasi-
Monte Carlo. As séries numéricas de Quasi-Monte Carlo foram Halton, Sobol e Faure,
conforme definições apresentadas no capítulo anterior. Como os algoritmos para gerar
as séries numéricas de Quasi-Monte Carlo foram desenvolvidos a partir de funções pré-
definidas do EXCEL 2000, as velocidades de execução dos códigos são muito inferiores
à velocidade de cálculo das amostras aleatórias simples, que já é padronizada e foi
programada no código-fonte do aplicativo.
Assim, a comparação entre os desempenhos dos métodos de amostragem quanto
à velocidade de convergência dos resultados nas aplicações não será através do tempo
real de execução das corridas individuais e nem através da duração total da simulação.
Considerando que uma função ou comando externo do software necessita de
outros comandos internos para sua execução e que a amostragem aleatória foi
programada apenas com comandos internos, seria injusto comparar o tempo de
simulação pelo valor do tempo transcorrido. O melhor estimador na comparação das
velocidades de convergência dos resultados é o número de corridas executadas até
alcançar determinada meta de convergência.
81
As sub-rotinas desenvolvidas na planilha Samples.xls em VBA4 foram
programadas para interromper as corridas de simulação de acordo com o critério
estabelecido pelo usuário no início da simulação. O usuário deve escolher o tipo de
critério e seu valor antes de executar as sub-rotinas controladoras da simulação. A
simulação será interrompida assim que o valor do critério escolhido for alcançado.
Os critérios pré-programados nas sub-rotinas da Samples.xls foram: a precisão
relativa entre duas leituras consecutivas do estimador de saída, o número de corridas
executadas durante a simulação e o tempo total transcorrido desde o início da
simulação.
3.3.2 Exatidão do resultado
Os resultados das aplicações serão verificados na planilha Risk.xls após a
execução total das corridas necessárias para atingir as metas especificadas nos critérios
de parada da simulação.
Nos casos onde o valor exato do resultado da aplicação for conhecido, o
estimador de exatidão do resultado da simulação será o desvio percentual relativo ao
valor exato. O maior ou menor valor deste desvio fornecerá informações relativas à
superioridade de um método de amostragem frente a outro.
Nas aplicações onde o valor exato do resultado da aplicação for desconhecido, o
procedimento adotado para obter o valor considerado exato será o mesmo empregado
por diversos pesquisadores e apresentado no segundo capítulo. Este procedimento
consiste em simular o experimento pelo método clássico de Monte Carlo até que a
precisão desejada para o resultado seja alcançada. O resultado da simulação por Monte
Carlo será assim adotado como valor exato na aplicação. As simulações pelos demais
métodos de amostragem serão então realizadas e seus resultados serão comparados ao
valor obtido por Monte Carlo, definido como exato.
4 Visual Basic for Applications – Linguagem de programação existente no aplicativo EXCEL 2000.
82
No caso da precificação de opções de compra ou de outros derivativos
financeiros, o valor exato considerado nesta pesquisa foi o valor obtido pelos
instrumentos de avaliação adotados no mercado. Para a avaliação de opções européias
de compra, o valor exato foi calculado pelo modelo de Black & Scholes, desenvolvido
em 1973.
Para a avaliação da carteira de ações correlacionadas, o valor exato do resultado
foi obtido pela simulação por Monte Carlo clássico. Os resultados produzidos pelos
demais métodos de amostragem foram comparados ao valor exato definido. Neste
trabalho, a aplicação de Avaliação de Portfolio de Ações será estudada sob dois
aspectos. O primeiro aspecto consiste em testar a transformada de Cholesky nas
diferentes amostras em estudo. O segundo aspecto consiste em, uma vez comprovada a
eficiência da transformação, comparar os desempenhos dos métodos de amostragem
segundo os critérios de convergência e exatidão dos resultados.
3.3.3 Eficiência da correlação forçada
Os algoritmos e as sub-rotinas empregadas para obter as séries multi-
correlacionadas transformadas pelo método de Cholesky foram armazenados na planilha
Cholesky.xls.
Inicialmente, será testada a eficiência do algoritmo para correlacionar, segundo
uma matriz conhecida, as séries de variáveis independentes utilizadas no experimento.
Diversas séries independentes entre si serão produzidas pelos métodos de amostragem
estudados e a estas séries serão aplicados a Transformada de Cholesky e o procedimento
de ajuste5, conforme explicado no capítulo anterior. A matriz de correlação relativa às
séries transformadas será comparada à matriz de correlação desejada. O maior erro
relativo entre os elementos da matriz transformada e os correspondentes elementos da
matriz desejada será calculado. Esse erro será calculado para cada conjunto de amostras
testadas e os valores serão comparados entre si para gerar conclusões sobre a eficiência
da transformação de Cholesky.
5 Conforme apresentado por Iman e Conover (1982) e explicado no segundo capítulo desta dissertação.
83
O interesse particular em testar a eficiência das transformações aplicadas aos
vetores independentes não está relacionado à aprovação dos algoritmos. O motivo é
verificar o perfil real das séries que estão sendo efetivamente utilizadas na comparação
dos métodos de amostragem. Uma pesquisa mais detalhada sobre os efeitos globais das
transformações aplicadas às amostras de alguns tipos de distribuição já existentes6
poderá ser encontrada em Iman e Davenport (1982).
Após verificar o perfil real das séries transformadas utilizadas nas simulações,
serão analisados os desempenhos dos métodos de amostragem segundo os dois critérios
de comparação já estabelecidos para as aplicações: convergência e exatidão dos
resultados.
Neste capítulo, foram estabelecidas as classificações desta pesquisa em
categorias quanto aos fins e quanto aos meios empregados para sua execução. Todas as
aplicações a serem realizadas como experimentos também foram apresentadas com
riqueza de detalhes. Simultaneamente, as principais variações, simplificações e
limitações de escopo consideradas durante a realização do estudo também foram
mostradas. Finalmente, foram relacionados e discutidos os critérios para a comparação
dos desempenhos de cada método de amostragem analisado.
6 Normal, lognormal, uniforme e loguniforme.
84
4 RESULTADO
Neste capítulo, serão vistos os principais resultados obtidos nas simulações,
assim como os comentários sobre o desempenho dos métodos de amostragem em cada
aplicação e em suas respectivas variantes. Serão apresentadas também as formas de
tratamento das informações recebidas diretamente dos modelos simulados, as principais
limitações do método, do hardware e do software empregados na pesquisa.
4.1 Tratamento dos dados
As sub-rotinas desenvolvidas na linguagem de programação residente no
aplicativo utilizado (EXCEL 2000) forneceram os resultados para todas as aplicações
realizadas. Não houve necessidade de tratar os dados de saída das sub-rotinas, pois estas
já foram programadas para realizar todo o processamento das informações recebidas dos
modelos. Os resultados gerados nas planilhas Risk.xls, Samples.xls e
Cholesky.xls foram comparados entre si para cada método de amostragem analisado.
Tabelas e gráficos contendo as informações coletadas nas diversas simulações da
pesquisa foram apresentados a seguir. A tabela com as comparações das sub-rotinas
utilizadas também foi apresentada ao final do capítulo. Tabelas com as comparações dos
principais resultados dos métodos de amostragem em relação ao método de Monte Carlo
clássico foram apresentadas no Apêndice I. Estas tabelas foram construídas pela
combinação de informações contidas nas tabelas do presente capítulo.
As tabelas com os resultados das aplicações foram seguidas de comentários
gerais sobre o desempenho dos estimadores adotados e sobre o desempenho das séries
de amostragem analisadas na pesquisa.
O próximo capítulo consolidará as informações relevantes dos experimentos e
apresentará as conclusões do estudo, de modo a poderem ser empregados nas próximas
85
pesquisas sobre o tema. O próximo capítulo também sugerirá novos temas de pesquisa
relacionados ao assunto.
4.2 Limitações da pesquisa
Este estudo apresenta algumas limitações relativas à metodologia empregada, ao
hardware e ao software utilizados. Tais limitações foram abordadas a seguir. Quaisquer
outras limitações não apresentadas explicitamente foram, provavelmente, consideradas
dependentes das demais.
4.2.1 Metodologia
A metodologia exploratória apresenta a limitação intrínseca da ausência de
generalidade nos experimentos realizados. Os experimentos são, normalmente, casos
específicos e particulares que despertam o interesse dos pesquisadores. As conclusões
obtidas nestes estudos não podem ser adotadas como teoria geral. Na verdade, são
conclusões diretamente relacionadas ao experimento e só podem ser aplicadas, com
segurança, a ele. Desenvolvimentos teóricos e mais profundos necessitariam de maior
tempo de maturação e fogem ao propósito do presente trabalho.
Outra limitação da metodologia adotada está relacionada à restrição ao número
de categorias de aplicações estudadas. As quatro categorias abordadas na pesquisa não
esgotam o universo de aplicações existentes no Mercado Financeiro ou na Pesquisa
Operacional em Engenharia. Existem outros experimentos que podem ser adaptados ao
propósito acadêmico, como foi o caso destes, e serem testados nos moldes dos exemplos
aqui discutidos, com o propósito de reforçarem as conclusões desta pesquisa.
Pode haver, é claro, dentre as categorias de aplicações analisadas, exceções às
regras e conclusões aqui obtidas. Como a metodologia exploratória procura atribuir
condições de contorno às variáveis de entrada nos modelos com base em observações
do mundo físico ou seguindo, nos casos mais difíceis, a própria intuição e o bom senso,
86
é possível encontrar situações onde as conclusões não se apliquem ou onde sua adoção
conduza a erros grosseiros e resultados não-verídicos.
O simples fato de não estar desenvolvendo teorias sobre as categorias de
aplicações analisadas, me previne de estabelecer quaisquer generalizações sobre as
conclusões e descobertas desta pesquisa. O artifício acadêmico de permitir flutuações ou
o emprego ilimitado de variáveis aleatórias independentes nos experimentos não garante
a generalização das conclusões ou a replicação dos resultados parciais em tentativas
futuras.
4.2.2 Hardware
Apesar das simulações serem executadas em um equipamento com processador
de 1 GHz e RAM de 512 MB, a arquitetura do processador é limitada frente aos
processadores com tecnologia RISC, encontrados nas estações de trabalho IBM, Sun e
HP, e utilizados nos experimentos de simulação apresentados no segundo capítulo.
As simulações executadas nesta pesquisa consumiram muito tempo de
desenvolvimento e processamento, o que poderia ser reduzido com a utilização de
pacotes específicos de software ou estações de trabalho, redirecionando o tempo para a
avaliação de outras categorias de experimentos.
Entretanto, como o hardware empregado nos experimentos não deve influenciar
o desempenho das séries de amostragem pelos critérios definidos no capítulo anterior, é
esperado que as conclusões sejam idênticas em estações de trabalho ou em PCs. O
emprego de estações de trabalho apenas reduziria o tempo de processamento, pois o
número de experimentos realizados no mesmo intervalo de tempo seria maior.
87
4.2.3 Software
O aplicativo utilizado nos experimentos, MS EXCEL 2000, apresenta limitações
físicas que precisam ser observadas. Estas limitações estão presentes em todas as
análises conduzidas no tratamento dos dados.
Pelo algoritmo empregado para gerar as seqüências de Quasi-Monte Carlo,
especificamente as séries de Halton e Sobol, só seria possível realizar experimentos com
até 5041 elementos na amostra, considerando o limite físico do aplicativo.
Experimentos que necessitassem de amostras com mais de 5041 elementos não
poderiam ser realizados nesta pesquisa.
Outra limitação estava relacionada ao critério da velocidade de convergência dos
resultados nas aplicações analisadas. Para este critério, foi empregado um estimador
indireto, pois o tempo real para a execução do programa não poderia ser comparado
entre os diferentes métodos de amostragem. Isto acontecia porque, no caso de Monte
Carlo clássico, havia um programa interno no aplicativo que calculava os elementos da
série. Para os demais métodos, a sub-rotina precisava ser implementada utilizando
comandos e funções externas. O aumento no tempo de execução do método de Quasi-
Monte Carlo era muito superior ao tempo utilizado por Monte Carlo tradicional. Assim,
ao utilizar estimadores de tempo real estaríamos comparando situações distintas e não-
equivalentes em termos de programação. Os resultados obtidos das medições em tempo
real não seriam úteis para a pesquisa.
Entretanto, se os algoritmos dos demais métodos de amostragem fossem re-
programados internamente no software, o tempo de execução das aplicações poderia ser
mensurado diretamente. Como alternativa, poderia ser empregado outro software onde
nenhum dos métodos de amostragem tenha sido pré-programado. Neste caso, apesar de
mais trabalhoso, o tempo real de execução poderia ser comparado entre os diferentes
métodos.
Uma outra opção, que foi a escolhida, seria encontrar um estimador que pudesse
representar o tempo de convergência dos resultados. O estimador adotado foi o número
88
de corridas executadas até que o critério de convergência tenha sido atingido. A
velocidade de convergência seria inversamente proporcional a esse número de corridas.
Os diversos métodos de amostragem poderiam então ser comparados pelo inverso do
número de corridas executadas até a convergência.
O principal motivo da adoção do aplicativo MS EXCEL 2000 foi o interesse de
tornar as sub-rotinas, programas, planilhas, e resultados disponíveis a um maior número
de estudantes e pesquisadores, sem a necessidade de aguardar a aquisição de um pacote
específico de softwares para replicar os experimentos e as descobertas mais relevantes.
As contrapartidas mais significativas pela utilização do aplicativo em questão
foram administrar suas limitações físicas e os tempos de execução dos programas
A maior vantagem foi o alto potencial de penetração dos programas, resultados e
conclusões deste trabalho de pesquisa nos meios acadêmico e científico.
4.3 Resultados das simulações
Os resultados foram estruturados a seguir por categoria7 a que pertencem e,
dento de cada categoria, pelo tipo de análise8 a que o experimento se propõe investigar.
Alguns dos critérios para comparação entre as velocidades de convergência e a
exatidão dos resultados, para os diferentes métodos de amostragem, foram qualitativos,
com base no conceito de vitórias por simulação realizada. Isto é, em um evento de
simulação, o método que apresentar o menor número de corridas que os demais até
atingir o critério especificado, vence os outros em velocidade de convergência
naquele evento. Da mesma forma, o método que apresentar o menor erro relativo ao
valor considerado exato para a simulação vence os demais naquele evento. A
7 Análise de Risco, Avaliação de Portfolio de Ações, Precificação de Opções de Compra e IntegraçãoMúltipla.8 Velocidade de convergência, Exatidão do resultado e Eficiência da correlação forçada.
89
somatória das vitórias em velocidade de convergência e em exatidão dos resultados
fornece o método que apresentou superioridade em relação aos demais nas aplicações
testadas.
Antes das simulações, os algoritmos dos métodos de amostragem e de outras
sub-rotinas afins precisavam ser implementados no aplicativo utilizado (EXCEL 2000).
A linguagem de programação adotada, conforme já mencionado, foi a do próprio
aplicativo (VBA). As seqüências de Halton e Faure (método de Quasi-Monte Carlo)
necessitavam de rotinas auxiliares para as etapas intermediárias da obtenção de
amostras. Tais etapas consistiam em determinar listas de números primos consecutivos
ou encontrar o menor número primo maior (ou igual) a algum número inteiro fornecido.
O tempo para desenvolver as rotinas de programação não foi precisamente mensurado.
Porém, as rotinas do método de Quasi-Monte Carlo exigiram mais tempo de
implementação que as demais envolvidas no experimento. Uma estimativa do grau
relativo de complexidade entre as rotinas empregadas foi apresentada na tabela 4.4, ao
final do capítulo, e utilizou como indicador de complexidade a extensão dos programas,
em número de linhas.
4.3.1 Análise de risco
As simulações foram realizadas para o caso-base e suas três variantes. Em todos
os casos foram considerados dez tamanhos distintos de amostra. No caso-base, a
dimensão era cinco, enquanto que nos casos variantes a dimensão era, respectivamente,
oito, dezesseis e doze. Os tamanhos de amostra no caso-base variaram de 100 a 1000. O
tempo para simulação das séries de baixa-discrepância com amostras de tamanho 1000
era muito elevado face à informação que agregava. Era mais eficiente trabalhar com
séries menores. Assim, para os demais casos estudados, os tamanhos de amostra
variaram de 50 a 500.
O estimador de saída nos casos desta categoria foi o valor esperado das médias
do valor presente líquido (VPL) do empreendimento em cada corrida. Os valores
definidos como exatos para o estimador nesta categoria, o tamanho da amostra e o
número de corridas de Monte Carlo utilizadas para obter estes valores exatos foram
90
apresentados na tabela 4.1. O critério de parada nas simulações foi o desvio relativo
entre dois valores consecutivos do estimador de saída. O valor atribuído a este desvio
foi específico para cada caso, pois dependia do valor exato definido para o estimador. A
intenção era encerrar a simulação quando o erro relativo entre duas avaliações
consecutivas do estimador acontecesse a partir da terceira casa decimal, inclusive. Os
percentuais adotados como critérios de parada para os desvios entre dois valores
consecutivos do estimador também foram apresentados na tabela 4.1.
Os quadros contendo os resultados das simulações para os casos desta aplicação
foram apresentados a seguir. Cada quadro de resultados está organizado pelo método de
amostragem (vertical) e pelo tamanho da amostra empregada no experimento
(horizontal). Em cada combinação de método e tamanho de amostra, foram
apresentados dois valores. O valor superior corresponde ao do número de corridas
realizadas até atingir o critério de convergência definido para aquele caso. O valor
inferior corresponde ao valor absoluto do desvio percentual em relação ao valor exato
adotado, logo após a interrupção da simulação.
No Apêndice I, foram apresentadas tabelas construídas a partir dos quadros de
resultado apresentados neste capítulo. As tabelas mostram as comparações dos critérios
de desempenho estudados velocidade de convergência e exatidão do resultado para
cada método de amostragem em relação ao método padronizado de Monte Carlo
clássico. As tabelas do Apêndice I apresentam a razão máxima e mínima entre os
valores dos critérios de desempenho para cada método e os correspondentes valores
para Monte Carlo clássico, nas quatro aplicações estudadas. O Apêndice I também
apresenta as tabelas contendo o número de vitórias consolidadas para cada critério e
método de amostragem nas aplicações realizadas.
Os resultados do caso-base com cinco dimensões estão no quadro 4.1 a seguir.
Os resultados do primeiro caso variante, com 8 dimensões, estão no quadro 4.2. Os
resultados do segundo caso variante, com 16 dimensões, e do terceiro caso variante,
com 12 dimensões, estão mostrados, respectivamente, nos quadros 4.3 e 4.4.
91
Tabela 4.1 Valores exatos para o VPL, tamanho das amostras, número de corridas e critériode desvio, adotados nos casos da aplicação de Análise de Risco
Caso Valor (KR$) TamanhoAmostras
NúmeroCorridas
Critério deParada
Desvio (%)
Caso-base (D=5) 390,61 2000 5000 0,001
1a. Variante (D=8) 1.595,82 2000 3000 0,0003
2a. Variante (D=16) 3.152,18 5000 1900 0,0001
3a. Variante (D=12) 486,21 2000 3000 0,001
92
Quadro 4.1 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato definido para o caso-base (D=5), na aplicação de Análise de Risco
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 136 147 108 79 176 761
0
0 erro % 7.997% 6.641% 4.864% 0.259% 0.043% 2.525%
# corridas 43 60 52 35 155 1412
0
0 erro % 5.758% 2.426% 15.280% 0.321% 0.322% 0.540%
# corridas 35 40 56 71 56 124
T
A
M
A
N
H
O
3
0
0 erro % 3.080% 2.061% 7.194% 0.241% 0.110% 0.596%
# corridas 84 93 39 64 58 1174
0
0 erro % 2.808% 1.210% 1.116% 0.036% 0.010% 0.297%
# corridas 20 50 103 55 132 1155
0
0 erro % 2.103% 1.618% 1.651% 0.015% 0.041% 0.603%
# corridas 23 83 92 69 68 72
D
A 6
0
0 erro % 1.699% 1.485% 0.750% 0.028% 0.275% 0.900%
# corridas 82 49 34 65 63 717
0
0 erro % 1.171% 1.029% 0.968% 0.005% 0.110% 0.263%
# corridas 21 73 59 41 63 478
0
0 erro % 1.636% 0.968% 3.383% 0.421% 0.375% 0.409%
# corridas 33 35 27 58 20 639
0
0 erro % 1.646% 0.849% 2.032% 0.281% 0.484% 0.465%
# corridas 52 26 53 20 31 167
A
M
O
S
T
R
A
1
0
0
0erro % 1.101% 0.646% 2.786% 0.362% 0.416% 0.963%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
93
Quadro 4.2 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato definido para o caso variante 1 (D=8), na aplicação de Análise de Risco
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 22 137 11 65 9 1765
0 erro % 4.802% 4.228% 5.114% 0.061% 0.142% 0.357%
# corridas 53 97 32 46 78 3131
0
0 erro % 2.623% 2.154% 1.712% 0.160% 0.029% 0.150%
# corridas 81 69 83 70 54 355
T
A
M
A
N
H
O
1
5
0 erro % 1.541% 1.238% 1.216% 0.124% 0.026% 0.224%
# corridas 40 37 63 78 78 1072
0
0 erro % 1.470% 0.661% 4.385% 0.036% 0.081% 0.019%
# corridas 96 57 32 63 18 2042
5
0 erro % 0.853% 0.573% 0.580% 0.087% 0.117% 0.344%
# corridas 58 53 89 36 37 198
D
A 3
0
0 erro % 0.851% 0.629% 2.148% 0.008% 0.120% 0.152%
# corridas 47 95 42 83 67 703
5
0 erro % 0.595% 0.508% 0.905% 0.086% 0.083% 0.089%
# corridas 52 15 59 67 89 744
0
0 erro % 1.148% 0.451% 0.347% 0.081% 0.071% 0.470%
# corridas 83 104 96 62 68 1814
5
0 erro % 0.905% 0.588% 1.449% 0.131% 0.109% 0.309%
# corridas 28 51 19 42 78 208
A
M
O
S
T
R
A
5
0
0 erro % 0.862% 0.542% 0.570% 0.038% 0.005% 0.150%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
94
Quadro 4.3 Número de corridas e valor absoluto do desvio percentual relativo ao valor exatodefinido para o caso variante 2 (D=16), na aplicação de Análise de Risco
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 128 52 126 63 133 8725
0 erro % 7.538% 3.569% 4.386% 0.114% 0.002% 0.112%
# corridas 72 158 177 79 179 2531
0
0 erro % 4.747% 1.840% 1.443% 0.062% 0.024% 0.263%
# corridas 64 180 123 54 95 337
T
A
M
A
N
H
O
1
5
0 erro % 2.897% 1.097% 0.987% 0.171% 0.082% 0.373%
# corridas 60 132 63 65 106 3492
0
0 erro % 2.623% 0.655% 3.769% 0.043% 0.060% 0.016%
# corridas 165 77 33 52 119 2752
5
0 erro % 1.927% 0.572% 0.573% 0.036% 0.031% 0.126%
# corridas 137 89 23 9 20 320
D
A 3
0
0 erro % 1.463% 0.557% 1.836% 0.018% 0.066% 0.016%
# corridas 52 17 70 53 129 1443
5
0 erro % 1.247% 0.483% 0.679% 0.041% 0.002% 0.025%
# corridas 54 23 47 43 19 2614
0
0 erro % 1.471% 0.284% 0.334% 0.055% 0.032% 0.043%
# corridas 52 14 109 57 9 1584
5
0 erro % 1.381% 0.363% 1.281% 0.065% 0.106% 0.095%
# corridas 71 76 17 66 70 200
A
M
O
S
T
R
A
5
0
0 erro % 1.287% 0.397% 0.512% 0.008% 0.007% 0.039%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
95
Quadro 4.4 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato definido para o caso variante 3 (D=12), na aplicação de Análise de Risco
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 84 155 254 89 90 2375
0 erro % 15.483% 18.333% 27.171% 1.078% 0.459% 0.898%
# corridas 122 114 73 144 50 3481
0
0 erro % 5.307% 8.821% 6.318% 0.502% 0.378% 0.893%
# corridas 66 95 36 86 191 151
T
A
M
A
N
H
O
1
5
0 erro % 6.961% 5.931% 5.482% 0.211% 0.341% 0.803%
# corridas 198 3 115 72 31 1212
0
0 erro % 3.490% 4.154% 22.232% 0.187% 1.484% 1.049%
# corridas 53 12 47 55 70 1312
5
0 erro % 1.617% 1.727% 2.789% 0.397% 0.255% 0.352%
# corridas 23 35 15 11 85 84
D
A 3
0
0 erro % 2.046% 2.516% 10.883% 1.342% 0.133% 0.045%
# corridas 33 73 101 38 21 2333
5
0 erro % 1.344% 2.808% 3.854% 0.092% 0.976% 1.242%
# corridas 45 35 51 83 80 1134
0
0 erro % 1.600% 2.322% 2.314% 0.004% 0.123% 0.314%
# corridas 45 12 36 114 94 1984
5
0 erro % 1.621% 2.585% 7.479% 0.065% 0.368% 0.304%
# corridas 92 42 85 41 144 78
A
M
O
S
T
R
A
5
0
0 erro % 1.691% 2.060% 3.121% 0.293% 0.245% 0.086%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
96
4.3.1.1 Velocidade de convergência
Em relação à velocidade de convergência, os métodos de Quasi-Monte Carlo, da
amostragem Descritiva e do Hipercubo Latino obtiveram, aproximadamente, igual
número de vitórias. Houve apenas uma ocasião em que o método tradicional de Monte
Carlo superou os demais, apresentando o menor número de corridas realizadas até a
convergência. Tendo em vista a aleatoriedade dos experimentos, o fato de ocorrerem
vitórias isoladas da amostragem aleatória simples já era esperado. O gráfico 4.1 a seguir
apresenta os percentuais de vitórias no critério de velocidade de convergência para os
casos e métodos de amostragem analisados.
Pelo fato de apresentarem igual número de vitórias, os métodos de Quasi-Monte
Carlo, da amostragem Descritiva e do Hipercubo Latino foram considerados
equivalentes quanto à velocidade de convergência nos experimentos de Análise de
Risco para lançamento de um novo produto no mercado.
Gráfico 4.1 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo ao critério de velocidade de convergência, na aplicação de Análise de Risco
4.3.1.2 Exatidão do resultado
Em relação ao critério de exatidão do resultado, mensurado pelo valor absoluto
do desvio percentual relativo ao valor exato definido no início de cada simulação, os
métodos do Hipercubo Latino e da amostragem Descritiva apresentaram clara
0%
5%
10%
15%
20%
Halton Sobol Faure Descritiva Hipercubo Aleatória
97
superioridade sobre os demais. Dentre ambos, o Hipercubo apresentou número
ligeiramente maior de vitórias que a amostragem Descritiva. Esta pequena diferença do
Hipercubo em relação à amostragem Descritiva pode ser mera casualidade, devido à
aleatoriedade dos experimentos. O gráfico 4.2 apresenta os percentuais consolidados de
vitórias em relação ao critério de exatidão do resultado para os casos e métodos de
amostragem abordados.
Por apresentarem um número expressivo de vitórias no critério de exatidão do
resultado, os métodos do Hipercubo Latino e da amostragem Descritiva foram
considerados equivalentes quanto a este critério nos experimentos de Análise de Risco.
Gráfico 4.2 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, na aplicação de Análise de Risco
4.3.2 Avaliação de Portfolio de Ações
Nesta aplicação, em particular, antes de avaliar o desempenho dos métodos de
amostragem quanto à velocidade de convergência e à exatidão do resultado, foram
realizados testes com o algoritmo de transformação de Cholesky e seu respectivo
procedimento de ajuste, que convertem vetores independentes em vetores multi-
correlacionados.
Os testes consistiram em transformar vetores independentes obtidos por
amostragem aleatória simples, amostragem Descritiva, séries de Halton e algumas
combinações destas, em vetores correlacionados para observar a eficiência das
transformações. Os testes foram realizados com vetores de dimensão quatro. Esta
0%
10%
20%
30%
40%
50%
Descritiva Hipercubo Aleatória
98
simplificação não introduz qualquer tendência no resultado, uma vez que o algoritmo de
Cholesky independe do tipo de distribuição original e da dimensão dos vetores de
entrada.
O objetivo dos testes era conhecer o perfil real dos vetores de entrada nos
experimentos desta aplicação, uma vez que os vetores originais gerados pelos métodos
estudados, com as distribuições conhecidas, seriam transformados antes de serem
empregados nas simulações.
O teste era simples e consistia em comparar os elementos da matriz de
correlação real obtida com os vetores transformados e os elementos da matriz de
correlação desejada para os mesmos vetores. A comparação seria através do valor
absoluto do desvio relativo entre os elementos das matrizes. O maior desvio relativo
dentre todos os obtidos para um determinado método era comparado aos maiores
desvios relativos dos demais métodos.
O resultado dos testes da transformação de Cholesky, com o procedimento de
ajuste explicitado no segundo capítulo, foram satisfatórios. O maior desvio relativo
obtido entre os elementos da matriz de correlação real e os elementos da matriz desejada
foi de 1,596%. Esse desvio foi obtido quando o vetor de entrada original era formado
por amostras aleatórias simples.
Adicionalmente, foi verificado nos testes que a diferença no valor exato definido
para o resultado do caso-base, obtido por Monte Carlo tradicional, antes e após a
aplicação da transformada de Cholesky com ajuste, era significativo. Isto significava
que mesmo para um número elevado de repetições ou tamanhos de amostra a correlação
entre os vetores de entrada era relevante.
Em seguida, foram avaliados os critérios de velocidade de convergência e de
exatidão do resultado para o caso-base e os dois casos variantes desta aplicação. Estes
experimentos foram feitos nos moldes dos realizados na categoria da aplicação anterior.
Os tamanhos de amostra utilizados nos casos desta aplicação variaram de 50 a 500. O
99
estimador adotado foi a probabilidade do retorno anual da carteira ser superior a 20%. O
valor exato do estimador foi definido através da simulação de Monte Carlo tradicional.
Os valores exatos das probabilidades anuais de retorno superiores a 20% para os casos
analisados nesta aplicação foram mostrados na tabela 4.2 a seguir.
O critério de parada nas simulações foi o desvio relativo entre duas avaliações
consecutivas do estimador. O erro percentual mínimo adotado para interromper a
simulação dependia, contudo, do valor exato definido para cada experimento. Este erro
percentual mínimo foi definido em cada caso de modo a permitir variação no valor do
resultado apenas a partir da terceira casa decimal. Os desvios percentuais empregados
como critérios de parada em cada caso foram mostrados na tabela 4.2.
Os quadros 4.5, 4.6 e 4.7 apresentam os resultados das simulações para o caso-
base (dimensão 4), o primeiro caso variante (dimensão 8) e o segundo caso variante
(dimensão 10), respectivamente.
Tabela 4.2 Valores exatos para a probabilidade, tamanho das amostras, número de corridas ecritério de desvio, adotados na aplicação de Avaliação de Portfolio de Ações
Caso Probab. (%) TamanhoAmostras
NúmeroCorridas
Critério deParada
Desvio (%)
Caso-base (D=4) 75,26 2000 2000 0,006
1a. Variante (D=8) 87,83 2000 1000 0,005
2a. Variante (D=10) 90,46 2000 1000 0,005
100
Quadro 4.5: Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso-base (D=4), na aplicação de Avaliação de Portfolio de Ações
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 28 4 165 106 63 595
0 erro % 4.431% 9.651% 7.815% 1.580% 1.105% 0.753%
# corridas 52 63 26 50 27 561
0
0 erro % 3.058% 2.037% 1.628% 2.493% 0.498% 0.303%
# corridas 39 20 40 2 3 43
T
A
M
A
N
H
O
1
5
0 erro % 0.838% 4.380% 0.638% 8.951% 0.979% 1.555%
# corridas 80 46 39 17 23 522
0
0 erro % 1.978% 1.462% 5.631% 2.268% 0.285% 0.468%
# corridas 2 17 56 43 46 132
5
0 erro % 3.273% 1.053% 0.853% 1.226% 0.315% 1.188%
# corridas 20 18 12 5 27 54
D
A 3
0
0 erro % 2.232% 0.350% 4.742% 3.193% 0.366% 0.749%
# corridas 11 27 7 51 48 243
5
0 erro % 0.574% 1.538% 2.818% 0.048% 0.322% 0.156%
# corridas 14 51 39 8 46 484
0
0 erro % 1.608% 0.923% 0.836% 1.056% 0.625% 0.440%
# corridas 4 31 2 43 12 304
5
0 erro % 0.498% 0.574% 2.160% 0.759% 1.569% 0.261%
# corridas 31 32 16 32 23 22
A
M
O
S
T
R
A
5
0
0 erro % 0.067% 0.915% 1.363% 0.323% 0.754% 0.363%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
101
Quadro 4.6 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso variante 1 (D=8), na aplicação de Avaliação de Portfolio de Ações
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 51 44 42 106 29 455
0 erro % 6.460% 6.587% 8.916% 0.279% 0.114% 0.294%
# corridas 40 49 20 5 16 561
0
0 erro % 3.394% 1.039% 2.141% 2.084% 0.193% 0.071%
# corridas 56 2 17 6 47 28
T
A
M
A
N
H
O
1
5
0 erro % 2.843% 5.879% 0.566% 0.952% 1.341% 1.325%
# corridas 46 48 12 16 2 262
0
0 erro % 1.923% 1.135% 5.547% 0.875% 1.331% 0.946%
# corridas 8 26 31 26 36 422
5
0 erro % 2.540% 1.751% 0.307% 0.665% 0.092% 0.599%
# corridas 61 4 23 2 47 49
D
A 3
0
0 erro % 1.045% 0.946% 1.721% 1.711% 0.986% 0.706%
# corridas 48 31 34 24 2 193
5
0 erro % 1.346% 1.182% 0.573% 1.488% 0.518% 0.552%
# corridas 61 37 43 29 4 384
0
0 erro % 1.132% 1.123% 1.025% 0.134% 0.193% 0.073%
# corridas 16 31 63 60 17 244
5
0 erro % 1.262% 1.137% 1.980% 0.161% 1.250% 0.488%
# corridas 4 54 44 55 83 44
A
M
O
S
T
R
A
5
0
0 erro % 0.718% 0.520% 1.070% 0.279% 0.381% 0.314%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
102
Quadro 4.7 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso variante 2 (D=10), na aplicação de Avaliação de Portfolio de Ações
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 82 3 10 10 62 525
0 erro % 6.947% 3.919% 7.136% 0.503% 0.753% 1.580%
# corridas 52 59 53 36 55 491
0
0 erro % 3.692% 1.721% 2.464% 0.480% 0.804% 0.706%
# corridas 8 34 40 18 34 8
T
A
M
A
N
H
O
1
5
0 erro % 0.971% 2.020% 1.848% 1.790% 1.079% 1.708%
# corridas 9 45 48 32 47 232
0
0 erro % 2.161% 1.744% 3.889% 0.654% 0.385% 0.407%
# corridas 50 63 21 45 29 922
5
0 erro % 1.007% 1.135% 1.029% 0.021% 0.381% 0.055%
# corridas 37 44 54 43 32 51
D
A 3
0
0 erro % 1.150% 1.332% 1.868% 0.045% 0.399% 0.032%
# corridas 27 45 65 33 43 503
5
0 erro % 1.076% 0.608% 1.426% 0.741% 0.327% 0.674%
# corridas 43 36 40 29 15 84
0
0 erro % 0.760% 0.779% 0.292% 0.116% 1.432% 0.844%
# corridas 20 3 3 21 10 144
5
0 erro % 1.535% 0.749% 1.217% 0.199% 0.724% 0.064%
# corridas 34 23 41 34 31 21
A
M
O
S
T
R
A
5
0
0 erro % 0.405% 0.503% 0.401% 0.210% 0.132% 0.303%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
103
4.3.2.1 Eficiência da correlação forçada
Os testes do grau de eficiência da correlação forçada foram realizados com todos
os métodos de amostragem em estudo. Um teste adicional empregando a combinação de
seqüências de Halton e de seqüências aleatórias simples também foi aplicado. Estas
seqüências foram escolhidas para o teste adicional por apresentarem nos testes
individuais os maiores desvios percentuais relativos à matriz de correlação desejada.
Os resultados mostraram que o método de transformação de Cholesky,
acompanhado do procedimento de ajuste, fornece vetores de saída correlacionados
segundo a matriz de correlação estabelecida. Houve pequenos desvios nos termos da
matriz de correlação para algumas das seqüências de entrada testadas.
O maior valor absoluto do desvio percentual relativo aos termos da matriz de
correlação desejada após a transformação de vetores formados por séries de Halton foi
de 0,086%. Para os vetores formados pelas seqüências de Sobol, Faure e amostragem
Descritiva não houve desvio significativo. Com as seqüências do Hipercubo Latino, o
maior valor absoluto do desvio percentual foi de 0,010%. O maior valor absoluto do
desvio percentual relativo aos termos da matriz de correlação desejada foi de 1,596%,
para os vetores originais formados pela amostragem aleatória simples. Para vetores
formados pela combinação das séries de Halton com amostras aleatórias simples, o
maior valor do desvio foi de 1,434%.
Pelo fato dos testes apontarem que o maior desvio relativo entre os elementos da
matriz de correlação real e os da matriz de correlação desejada foi de 1,596% e pela
ordem de grandeza dos valores da matriz referência, as diferenças nos vetores
transformados pelas duas matrizes aconteceriam na terceira casa decimal. Como o
propósito destes testes era conhecer o perfil real dos vetores transformados, e como os
testes mostraram que os resultados das simulações antes e após as transformações eram
diferentes, os erros obtidos com Cholesky foram considerados aceitáveis na pesquisa.
104
Para testar a necessidade de aplicar a transformação de Cholesky aos vetores
originais quando o número de corridas e o tamanho das amostras fossem elevados, foi
realizado um teste empregando Monte Carlo clássico. Para obter o valor exato para o
caso-base desta aplicação, foram executadas 2000 corridas com amostras de 2000
termos nos vetores de entrada do modelo. O estimador foi o mesmo, isto é, a
probabilidade do retorno anual da carteira superar o valor de 20%. O resultado da
simulação obtido aplicando a transformação de Cholesky com ajuste a cada vetor de
entrada foi 75,26%. O resultado obtido sem aplicar a transformação aos vetores do
modelo foi 39,09%. A grande diferença entre os resultados encontrados sugere que,
mesmo para grandes amostras e várias corridas, os resultados com vetores
independentes podem ser muito diferentes dos resultados com vetores correlacionados.
Como a diferença entre os resultados obtidos antes e após aplicar a
transformação de Cholesky foi expressiva, a alternativa de não aplicar a mesma não foi
considerada nesta aplicação, pois os vetores de entrada são, por hipótese,
correlacionados. Para os casos desta aplicação, portanto, os vetores de entrada no
modelo foram transformados por Cholesky com algoritmo de ajuste após serem gerados
pelos métodos de amostragem e antes de iniciar a simulação.
Assim, concluímos que os vetores de entrada empregados nos diversos casos da
aplicação de Avaliação de Portfolio de Ações possuíam, após a Transformação de
Cholesky com procedimento de ajuste, a matriz de correlação desejada.
4.3.2.2 Velocidade de convergência
De acordo com os dados dos quadros 4.5 a 4.7, o método da amostragem
Descritiva e de Halton apresentaram o maior número de vitórias no critério de
velocidade de convergência. Estes resultados foram ligeiramente superiores ao obtido
com o método de Faure. De maneira geral, todos os métodos de conjuntos
determinísticos ou de conjuntos estratificados, como o Hipercubo, realizaram um
número menor de corridas até a convergência que Monte Carlo tradicional. Tal fato
105
caracterizou, nesta aplicação, a superioridade dos demais métodos sobre Monte Carlo
clássico quanto à convergência. O gráfico 4.3 apresenta os percentuais consolidados das
vitórias de cada método de amostragem em relação ao total de simulações realizadas,
quanto ao critério de convergência dos resultados.
Pelos resultados obtidos, os métodos da amostragem Descritiva, de Halton e de
Faure foram considerados equivalentes em relação à velocidade de convergência dos
resultados, nos experimentos de Avaliação de Portfolio de Ações.
Gráfico 4.3 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo à velocidade de convergência, na aplicação de Avaliação de Portfolio de Ações
4.3.2.3 Exatidão do resultado
Pelos quadros 4.5 a 4.7, a superioridade do método da amostragem Descritiva,
do Hipercubo Latino e da amostragem Aleatória Simples (Monte Carlo) sobre o método
de Quasi-Monte Carlo, quanto ao critério da exatidão do resultado, foi evidente nos
experimentos realizados. Assim, apesar das séries de Halton apresentarem maior
velocidade de convergência, os desvios obtidos para os resultados do estimador após a
convergência foram maiores que os desvios com os demais métodos. O gráfico 4.4
apresenta os percentuais consolidados de vitórias relativas ao critério de exatidão do
resultado para os métodos de amostragem e as situações analisadas.
0%
5%
10%
15%
20%
25%
Halton Sobol Faure Descritiva Hipercubo Aleatória
106
Pela superioridade quanto ao número de vitórias no critério de exatidão dos
resultados, os métodos da amostragem Descritiva, do Hipercubo e de Monte Carlo
foram considerados equivalentes na aplicação de Avaliação de Portfolio de Ações.
Gráfico 4.4 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo à exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações
4.3.3 Precificação de Opções
O valor exato do resultado nesta aplicação foi definido pela fórmula fechada de
Black & Scholes (1973). Nesta aplicação, não foram consideradas aplicações variantes
para o caso-base. Deste modo, o valor exato para o preço da opção de compra foi R$
4,76. O desvio percentual relativo a este valor e adotado como critério de parada nas
simulações foi 0,001%.
Para as simulações nesta aplicação foram empregadas amostras de tamanho 50 a
500. O estimador foi o valor esperado da média dos preços da opção obtidos por
simulação. Os resultados das simulações para os métodos de amostragem e os vários
tamanhos de amostra estão no quadro 4.8. Neste quadro foi mostrado o número de
corridas até a convergência e o desvio percentual do resultado relativo ao valor exato. O
critério para interromper as corridas foi o erro percentual do resultado inferior a
0,001%.
0%
5%
10%
15%
20%
25%
30%
Halton Sobol Faure Descritiva Hipercubo Aleatória
107
Quadro 4.8 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso-base, na aplicação de Precificação de Opções
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 2 2 2 2 40 1725
0 erro % 9.228% 9.228% 18.695% 0.408% 0.214% 1.011%
# corridas 2 2 2 2 78 531
0
0 erro % 5.240% 5.240% 5.784% 0.201% 0.073% 0.365%
# corridas 2 2 2 2 25 105
T
A
M
A
N
H
O
1
5
0 erro % 4.402% 4.402% 4.105% 0.130% 0.043% 0.250%
# corridas 2 2 2 2 17 1102
0
0 erro % 2.853% 2.853% 15.539% 0.096% 0.080% 0.357%
# corridas 2 2 2 2 47 832
5
0 erro % 2.626% 2.626% 2.645% 0.077% 0.023% 0.483%
# corridas 2 2 2 2 13 144
D
A 3
0
0 erro % 2.398% 2.398% 8.155% 0.064% 0.085% 0.263%
# corridas 2 2 2 2 21 513
5
0 erro % 2.347% 2.347% 3.905% 0.054% 0.005% 0.529%
# corridas 2 2 2 2 34 184
0
0 erro % 1.539% 1.539% 1.756% 0.047% 0.033% 0.321%
# corridas 2 2 2 2 10 504
5
0 erro % 1.428% 1.428% 5.859% 0.042% 0.012% 0.735%
# corridas 2 2 2 2 2 133
A
M
O
S
T
R
A
5
0
0 erro % 1.416% 1.416% 2.883% 0.038% 0.112% 0.276%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
108
4.3.3.1 Velocidade de convergência
Pelo quadro 4.8, o critério de parada para os métodos de conjuntos
determinísticos9 foi atingido logo na segunda corrida. O motivo desse resultado já
esperado é que este experimento possui apenas uma variável e os conjuntos de amostras
são determinísticos. Desse modo, as amostras apresentam permutações simples dos
mesmos valores para esta única variável na segunda corrida, levando a resultados
idênticos. A informação relevante nesta categoria de aplicação, portanto, era o
desempenho dos métodos de amostragem quanto ao critério de exatidão do resultado.
4.3.3.2 Exatidão do resultado
Conforme as informações do quadro 4.8, o Hipercubo Latino apresentou os
melhores resultados em relação ao critério de exatidão do resultado, vencendo os
demais métodos em cerca de 80% das simulações. A amostragem Descritiva venceu nas
simulações restantes. Entretanto, é interessante notar que a diferença média entre os
desvios percentuais relativos ao valor exato apresentados pela amostragem Descritiva e
pelo Hipercubo foi de 0,072 ponto percentual. Adicionalmente, em todas as ocasiões
onde o Hipercubo venceu os demais métodos nesta aplicação, a amostragem Descritiva
apresentou o segundo menor valor de erro percentual. O gráfico 4.5 apresenta os
percentuais consolidados das vitórias relativas ao critério de exatidão do resultado para
cada método de amostragem analisado.
A amostragem Descritiva e os métodos de conjuntos determinísticos
apresentaram as maiores velocidades de convergência em todos os casos desta
aplicação. Os resultados apresentados por estes métodos foram muito próximos ao valor
exato obtido por Black & Scholes, com desvios ocorrendo apenas na terceira casa
decimal. O método do Hipercubo Latino apresentou uma média de 29 corridas para
convergência, enquanto a convergência pela amostragem Descritiva aconteceu logo na
segunda corrida, por razões já explicadas. Assim, a amostragem Descritiva foi
9 Métodos de Halton, Sobol, Faure e da amostragem Descritiva.
109
considerada a mais adequada nos experimentos de avaliação do preço de uma opção de
compra por simulação.
Gráfico 4.5 Percentual consolidado de vitórias para cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, na aplicação de Precificação de Opções
4.3.4 Integração múltipla
O estimador considerado nesta aplicação foi o valor da integral múltipla
analisada. O valor exato da integral no caso-base foi fornecido na descrição do
experimento10. Os valores exatos para as variantes 1 e 2 do caso-base foram obtidos na
simulação por Monte Carlo clássico. Estes valores foram apresentados na tabela 4.3,
juntamente com os tamanhos de amostra e o número de corridas de Monte Carlo
utilizadas para os cálculos. O valor do erro percentual relativo ao valor exato e adotado
como critério de convergência em cada caso também foi mostrado na tabela 4.3.
Para estas aplicações foram utilizadas amostras cujos tamanhos variavam de 50
a 500 termos. Os resultados das simulações nesta aplicação foram apresentados nos
quadros seguintes. O quadro 4.9 apresenta os resultados do caso-base, com dimensão 4.
O quadro 4.10 apresenta os resultados do primeiro caso variante, com dimensão 8, e o
quadro 4.11, os resultados do segundo caso variante, com dimensão 10. Assim como
nas aplicações anteriores, estes quadros foram organizados por método de amostragem e
10 Capítulo três desta dissertação.
0%10%20%30%40%50%60%70%80%
Descritiva Hipercubo
110
tamanho das amostras na simulação. Cada combinação destas duas características,
apresenta dois valores. O valor superior é o número de corridas até a convergência e o
valor inferior é o desvio percentual relativo ao valor exato definido para cada caso nesta
aplicação.
Os comentários e as análises relativas à velocidade de convergência e à exatidão
do resultado foram apresentados logo após os quadros de resultado.
No Apêndice I, foram mostradas as tabelas construídas a partir dos quadros de
resultado onde são feitas comparações dos critérios de desempenho velocidade de
convergência e exatidão do resultado para os métodos estudados. Cada método de
amostragem é comparado ao método padronizado de Monte Carlo clássico. As tabelas
contêm a razão máxima e mínima entre os valores dos critérios de desempenho para
cada método e os valores para Monte Carlo. O Apêndice I também apresenta as tabelas
com o número consolidado de vitórias relativas a cada critério para todos os métodos de
amostragem.
Tabela 4.3 Valores exatos para a integral, tamanho de amostras, número de corridas e critériode desvio, adotados na aplicação de Integração Múltipla
Caso Valor TamanhoAmostras
NúmeroCorridas
Critério deParada
Desvio (%)
Caso-base (D=4) 1,0693976 _ _ 0,0001
1a. Variante (D=8) 1,0039845 5000 2000 0,0001
2a. Variante (D=10) 1,0009863 5000 2000 0,00001
111
Quadro 4.9 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato da integral no caso-base (D=4), na aplicação de Integração Múltipla
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 138 155 179 221 113 1185
0 erro % 1.241% 1.042% 1.893% 0.041% 0.018% 0.134%
# corridas 103 56 162 86 24 2381
0
0 erro % 0.602% 0.574% 0.664% 0.053% 0.098% 0.058%
# corridas 117 199 233 104 188 168
T
A
M
A
N
H
O
1
5
0 erro % 0.575% 0.495% 0.356% 0.046% 0.060% 0.124%
# corridas 27 51 24 52 70 2262
0
0 erro % 0.471% 0.304% 1.530% 0.015% 0.016% 0.066%
# corridas 40 148 109 30 68 2312
5
0 erro % 0.381% 0.312% 0.227% 0.055% 0.073% 0.009%
# corridas 89 36 77 107 49 37
D
A 3
0
0 erro % 0.276% 0.295% 0.723% 0.046% 0.011% 0.065%
# corridas 153 70 81 52 93 713
5
0 erro % 0.204% 0.219% 0.326% 0.073% 0.091% 0.024%
# corridas 92 45 95 144 55 1434
0
0 erro % 0.129% 0.054% 0.202% 0.047% 0.037% 0.026%
# corridas 48 24 74 85 137 1184
5
0 erro % 0.111% 0.127% 0.463% 0.051% 0.000% 0.045%
# corridas 51 65 11 66 75 73
A
M
O
S
T
R
A
5
0
0 erro % 0.122% 0.187% 0.119% 0.032% 0.009% 0.033%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
112
Quadro 4.10 Número de corridas e valor absoluto do desvio percentual do resultado relativoao valor exato da integral no caso variante 1 (D=8), na aplicação de Integração Múltipla
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 37 41 68 23 50 1205
0 erro % 0.213% 0.154% 0.184% 0.038% 0.021% 0.003%
# corridas 38 35 29 76 49 201
0
0 erro % 0.120% 0.043% 0.050% 0.000% 0.004% 0.008%
# corridas 61 55 25 45 14 59
T
A
M
A
N
H
O
1
5
0 erro % 0.104% 0.075% 0.045% 0.015% 0.027% 0.013%
# corridas 10 31 33 43 29 52
0
0 erro % 0.091% 0.041% 0.138% 0.009% 0.001% 0.016%
# corridas 33 31 11 13 72 452
5
0 erro % 0.043% 0.056% 0.052% 0.034% 0.017% 0.010%
# corridas 51 2 40 46 28 33
D
A 3
0
0 erro % 0.050% 0.019% 0.082% 0.009% 0.001% 0.007%
# corridas 51 17 20 27 68 253
5
0 erro % 0.048% 0.050% 0.055% 0.000% 0.000% 0.009%
# corridas 7 16 13 3 28 164
0
0 erro % 0.058% 0.013% 0.039% 0.023% 0.000% 0.017%
# corridas 14 24 29 43 49 654
5
0 erro % 0.028% 0.014% 0.066% 0.001% 0.003% 0.001%
# corridas 26 49 25 26 44 13
A
M
O
S
T
R
A
5
0
0 erro % 0.038% 0.027% 0.025% 0.002% 0.004% 0.010%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
113
Quadro 4.11 Número de corridas e valor absoluto do desvio percentual do resultado relativoao valor exato da integral no caso variante 2 (D=10), na aplicação de Integração Múltipla
MÉTODO DE AMOSTRAGEM
Halton Sobol Faure Descritiva Hipercubo Aleatória
# corridas 120 100 63 144 76 585
0 erro % 0.062% 0.033% 0.053% 0.008% 0.000% 0.011%
# corridas 31 93 54 42 87 991
0
0 erro % 0.042% 0.016% 0.014% 0.003% 0.003% 0.005%
# corridas 30 74 55 72 44 125
T
A
M
A
N
H
O
1
5
0 erro % 0.040% 0.017% 0.017% 0.001% 0.001% 0.004%
# corridas 60 135 57 129 39 322
0
0 erro % 0.028% 0.013% 0.045% 0.001% 0.000% 0.000%
# corridas 48 65 18 77 78 712
5
0 erro % 0.015% 0.010% 0.003% 0.001% 0.001% 0.001%
# corridas 19 87 40 78 15 30
D
A 3
0
0 erro % 0.014% 0.006% 0.025% 0.001% 0.008% 0.002%
# corridas 86 77 16 138 56 1213
5
0 erro % 0.015% 0.010% 0.008% 0.003% 0.000% 0.002%
# corridas 51 122 30 51 93 424
0
0 erro % 0.014% 0.005% 0.006% 0.001% 0.002% 0.005%
# corridas 26 11 46 57 62 634
5
0 erro % 0.015% 0.001% 0.017% 0.003% 0.006% 0.001%
# corridas 63 49 66 52 49 45
A
M
O
S
T
R
A
5
0
0 erro % 0.012% 0.007% 0.011% 0.002% 0.006% 0.002%
OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #
corridas ou erro % para um determinado tamanho de amostra.
114
4.3.4.1 Velocidade de convergência
Os quadros 4.9 a 4.11 indicam que os métodos de amostragem de Sobol, Faure e
Monte Carlo tradicional apresentaram números iguais de vitórias para o critério da
velocidade de convergência. Apesar da amostragem Descritiva apresentar número
menor de vitórias, a ordem de grandeza desta diferença sugere que esse fato poderia ser
atribuído ao acaso. O gráfico 4.6 apresenta os percentuais consolidados das vitórias de
cada método de amostragem, quanto ao critério da velocidade de convergência, nos
casos desta aplicação.
Os métodos de amostragem de Sobol, Faure, Monte Carlo e Descritiva podem,
desse modo, ser considerados equivalentes quanto à velocidade de convergência, nos
experimentos de integração múltipla realizados.
Gráfico 4.6 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério da velocidade de convergência, na aplicação de Integração Múltipla
4.3.4.2 Exatidão do resultado
Em relação à exatidão do resultado da simulação, o método da amostragem
Descritiva apresentou número de vitórias muito maior que o número de vitórias
apresentadas por Quasi-Monte Carlo e ligeiramente superior ao número de vitórias
0%
5%
10%
15%
20%
Halton Sobol Faure Descritiva Hipercubo Aleatória
115
apresentadas pelo Hipercubo e por Monte Carlo clássico. O gráfico 4.7 mostra os
percentuais consolidados das vitórias dos métodos de amostragem em relação ao critério
de exatidão do resultado. A superioridade da amostragem Descritiva sobre os demais
métodos no critério de exatidão do resultado foi evidente nos experimentos de
integração múltipla realizados.
Gráfico 4.7 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, na aplicação de Integração Múltipla
4.3.5 Complexidade do código de programação
Além das informações sobre a velocidade de convergência e a exatidão do
resultado obtido na simulação, outras considerações importantes devem ser feitas em
relação ao custo-benefício da implementação e da execução das sub-rotinas nos
experimentos. A crescente complexidade dos problemas práticos e a elevação da
capacidade dos aplicativos podem exigir dos programadores maior atenção na
implementação dos algoritmos correspondentes aos métodos de amostragem.
De acordo com o grau de complexidade do método de amostragem, seus
benefícios podem não compensar o tempo de implementação, teste e execução dos
programas. A tabela 4.4 apresenta o número de linhas de código das macros elaboradas
0%
10%
20%
30%
40%
50%
Descritiva Hipercubo Aleatória
116
em VBA11 para fornecer amostras segundo os métodos analisados nesta pesquisa.
Alguns dos métodos necessitavam de rotinas auxiliares para adaptar as planilhas, antes
da execução do programa principal. O número de linhas de código foi adotado como
primeira aproximação do grau de complexidade das macros e, conseqüentemente, dos
algoritmos referentes aos métodos de amostragem. A complexidade aumentaria a
medida que novas rotinas precisassem ser elaboradas para complementar as tarefas do
programa principal.
Tabela 4.4 Número de linhas de código das macros elaboradas em VBA para fornecer asamostras de acordo com os algoritmos dos métodos de amostragem analisados na pesquisa
Descrição da sub-rotina Seqüências que a utilizam Número de linhas
Gerar seqüência de QMC12 Halton, Sobol e Faure 42
Gerar seqüência Descritiva Amostragem Descritiva 17
Gerar seqüência Hipercubo Hipercubo Latino 18
Gerar seqüência AAS13 Monte Carlo clássico 14
Gerar lista de números primos Halton, Faure 33
Fornecer número primo ≥ N Faure 50
A partir da tabela 4.4, notamos que o método de Monte Carlo clássico,
considerado o mais simples de ser programado, apresentou o menor número de linhas de
código em sua macro. Em seguida, na escala simplificada de complexidade, estava o
método da amostragem Descritiva. O método de amostragem mais complexo, que
exigiu portanto o maior número de sub-rotinas e de linhas de código na implementação
foi o de Faure. Outros métodos de amostragem poderiam ser empregados, assim como
novas combinações daqueles apresentados na tabela 4.4, a fim de simplificar os
algoritmos e reduzir os cálculos. Esta pesquisa, contudo, abordou os principais métodos
de amostragem que vinham sendo pesquisados no universo acadêmico nos últimos anos,
principalmente pela equipe da Columbia University, em Nova Iorque, EUA.
11 Visual Basic for Applications, linguagem de programação do MS EXCEL 2000.12 Quasi-Monte Carlo; a saber: seqüências de amostragem de Halton, Sobol ou Faure.13 Amostragem Aleatória Simples; ou método de amostragem de Monte Carlo clássico.
117
5 CONCLUSÃO
De maneira geral, qualquer um dos três métodos de amostragem de Quasi-Monte
Carlo utilizados nos experimentos Halton, Sobol ou Faure apresentou percentual de
vitórias, em relação ao critério de velocidade de convergência, 300% acima do
percentual apresentado pelo método de Monte Carlo clássico. Existem outras ocasiões,
que podem ser consultadas nos quadros de resultado, onde ao menos uma dentre as três
seqüências de Quasi-Monte Carlo apresenta velocidade de convergência superior à
velocidade do método tradicional de Monte Carlo. O gráfico 5.1 apresenta os
percentuais consolidados das vitórias de cada método de amostragem sobre o total
relativo à velocidade de convergência, em todos os experimentos desta pesquisa.
Gráfico 5.1 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério da velocidade de convergência, em todos os experimentos da pesquisa
A partir do gráfico 5.1, é possível verificar que os métodos de Quasi-Monte
Carlo apresentaram superioridade quanto à velocidade de convergência sobre o método
do Hipercubo Latino. O método da amostragem Descritiva, por sua vez, foi equivalente,
quanto à convergência, aos métodos de Quasi-Monte Carlo (Faure, Halton e Sobol).
Assim, pela análise do gráfico 5.1, podemos afirmar que existe superioridade em
relação ao critério da velocidade de convergência dos métodos de conjuntos
determinísticos sobre os métodos do Hipercubo e de Monte Carlo clássico.
0%
5%
10%
15%
20%
25%
Halton Sobol Faure Descritiva Hipercubo Aleatória
118
A principal característica que identifica uma aplicação de simulação como
candidata a empregar os métodos de Quasi-Monte Carlo é a necessidade de uma alta
velocidade de execução sem compromissos rígidos quanto à exatidão do resultado. Caso
seja necessário estabelecer fortes exigências sobre a exatidão do resultado, métodos com
velocidades equivalentes de convergência e melhores desempenhos relativos à exatidão
do resultado, como a amostragem Descritiva, deveriam ser adotados ou, ao menos,
testados.
Em relação à exatidão dos resultados nos experimentos realizados, o método do
Hipercubo Latino e da amostragem Descritiva apresentaram os melhores desempenhos
no panorama consolidado da pesquisa. O gráfico 5.2 apresenta os percentuais
consolidados das vitórias, quanto ao critério de exatidão dos resultados, de cada método
de amostragem empregado nas simulações. Considerando a mesma importância para os
critérios de convergência e exatidão, o método da amostragem Descritiva foi superior
aos demais nas aplicações analisadas, pois apresentou o maior número consolidado de
vitórias obtidas para ambos os critérios de desempenho. O desempenho global dos
métodos de Quasi-Monte Carlo, nas aplicações desta pesquisa, foi inferior ao da
amostragem Descritiva devido ao resultado relativo ao critério de exatidão do resultado.
O número de vitórias obtidas no critério de exatidão, que foi muito menor ao obtido pela
amostragem Descritiva e pelo Hipercubo, afetou o resultado global de Quasi-Monte
Carlo na pesquisa.
Gráfico 5.2 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, em todos os experimentos da pesquisa
0%
10%
20%
30%
40%
50%
Halton Sobol Faure Descritiva Hipercubo Aleatória
119
Em aplicações de Engenharia, como o cálculo de integrais múltiplas por
simulação, os experimentos realizados com integrandos de dimensões 4 a 10 mostraram
que Quasi-Monte Carlo, empregando as séries de Sobol e Faure, foi equivalente à
Monte Carlo quanto à convergência. Para as mesmas aplicações, as séries de Halton
apresentaram velocidade de convergência inferior à apresentada por Monte Carlo
clássico. Em relação à exatidão do resultado, Monte Carlo foi muito superior a Quasi-
Monte Carlo na consolidação dos resultados obtidos para este critério nos experimentos.
Aliada às características de convergência e de exatidão do resultado, a
complexidade dos algoritmos empregados pode inviabilizar a utilização de alguns dos
métodos de amostragem estudados. Nos casos abordados na pesquisa, a complexidade
introduzida nos códigos das macros devido à Quasi-Monte Carlo e o tempo de execução
das simulações de Quasi-Monte Carlo em EXCEL não foram compensados pelos
resultados obtidos.
Para a aplicação de Avaliação de Portfolio de Ações, foram utilizados os
algoritmos de Transformação de Cholesky e seu correspondente ajuste para transformar
vetores independentes em vetores correlacionados segundo uma matriz definida. Testes
foram conduzidos com amostras determinísticas de Quasi-Monte Carlo e com amostras
dos demais métodos empregados, como o Hipercubo Latino, a amostragem Descritiva e
Monte Carlo clássico. Os resultados dos testes foram positivos, apresentando realmente
vetores transformados cujas matrizes de correlação eram muito próximas da matriz
almejada. O maior valor absoluto do erro percentual entre os elementos das matrizes de
correlação transformada e teórica foi 1,596%, quando o vetor transformado era
composto de séries aleatórias simples (Monte Carlo clássico).
Os resultados dos testes com Monte Carlo na aplicação de Avaliação de
Portfolio de Ações empregando vetores independentes e vetores transformados por
Cholesky foram muito diferentes. Esse resultado mostrou que, mesmo com grande
número de corridas e grandes amostras, desconsiderar as relações entre os vetores de
entrada pode gerar resultados incorretos. A magnitude desse erro dependerá da matriz
de correlação entre tais vetores. Uma possível equação matricial que relacione a
120
discrepância nos resultados antes e após aplicar a Transformação de Cholesky e a matriz
de correlação definida para os vetores não pôde ser identificada nestes testes. Novos
experimentos específicos poderiam ser elaborados para isolar e descobrir a equação de
dependência.
De maneira geral, admitindo a mesma importância para ambos os critérios de
desempenho adotados convergência e exatidão o método da amostragem Descritiva
apresentou os melhores resultados consolidados nas aplicações desta pesquisa. O
gráfico 5.3 apresenta o número consolidado de vitórias para cada método de
amostragem considerando todos os experimentos da pesquisa.
Gráfico 5.3 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo a ambos os critérios de desempenho, em todas as aplicações da pesquisa
5.1 Sugestões para novas pesquisas
Conforme foi sugerido na seção anterior deste capítulo, outras pesquisas
poderiam ser conduzidas a fim de identificar a equação de dependência para a
discrepância entre os resultados, antes e depois de aplicar a Transformação de Cholesky
aos vetores de entrada, e a matriz de correlação atribuída a estes vetores.
É muito interessante continuar este estudo, aplicando os critérios de velocidade
de convergência e exatidão do resultado às simulações com outros instrumentos
0%
5%
10%
15%
20%
25%
30%
Halton Sobol Faure Descritiva Hipercubo Aleatória
121
derivativos existentes no Mercado Financeiro. Outras pesquisas poderiam avaliar
algumas combinações de carteiras formadas por instrumentos derivativos e verificar a
influência dos fatores macroeconômicos nas simulações em relação a outros os critérios
de desempenho relevantes, diferentes de convergência e exatidão.
Outra linha de pesquisa mais aprofundada seria desenvolver experimentos para
isolar e identificar a dependência dos critérios de velocidade de convergência e exatidão
do resultado com a dimensão do caso ou da aplicação analisada. As futuras pesquisas
poderiam empregar um número de variáveis muito superior ao maior número adotado
neste estudo (D=16) e ampliar as evidências sobre o impacto da dimensão no resultado
da simulação.
Por fim, sugiro novas pesquisas nas áreas de Engenharia de Software e
Matemática para elaborar algoritmos mais eficientes relacionados às séries de Quasi-
Monte Carlo ou novas seqüências que elevem as taxas de convergência ou aumentem a
exatidão dos resultados. Adicionalmente, novos estudos que incorporem os algoritmos
existentes aos pacotes de aplicativos mais comuns poderiam ajudar a difundir as
pesquisas sobre novas aplicações dos métodos de amostragem aqui empregados.
122
6 REFERÊNCIAS BIBLIOGRÁFICAS
GAURY, E.G.A., KLEIJNEN, J.P.C. Risk analysis of robust system design. In:
Proceedings of the 1998 Winter Simulation Conference, p. 1533-1540.
Tilburg, Netherlands: Center for Economic Research (CentER).
GUTERL, F. Suddenly, number theory makes sense to industry. Business Week,
Science & Technology sector, p. 172-174. Princeton, New Jersey, June 20, 1994.
HULL, J.C. Options, Futures and other derivative securities. New Jersey: Prentice-
Hall, 1993. 492 p.
IMAN, R.L., CONOVER, W.J. A distribution-free approach to inducing rank
correlation among input variables. Communications in Statistics, Vol. 11, No.
3, p. 311-334, 1982.
__________, DAVENPORT, J.M. Rank correlation plots for use with correlated input
variables. Communications in Statistics, Vol. 11, No. 3, p. 335-360, 1982.
JORION, P. Value at Risk: the new benchmark for controlling derivatives risk.
Chicago: Irwin Professional Publishing, 1997. 332 p.
MCKAY, M.D., BECKMAN, R.J., CONOVER, W.J. A comparison of three methods
for selecting values of input variables in the analysis of output from a computer
code. Technometrics, Vol. 21, No. 2, p. 239-245, May 1979.
MOROKOFF, W.J., CAFLISCH, R.E. Quasi-Monte Carlo integration. January 17,
1995, 36p. Los Angeles, California: Air Force Office of Scientific Research.
123
NIEDERREITER, H. Quasi-Monte Carlo methods for multidimensional numerical
integration, Numerical Integration III, International Series of Numerical
Math. 85. H. Brass and G. Hämmerlin eds. Birkhäuser Verlag, Basel, 1988.
OWEN, A.B., Monte Carlo extension of Quasi-Monte Carlo. In: Proceedings of the
1998 Winter Simulation Conference, p. 571-577. Stanford, California:
Stanford University.
PASKOV, S.H., TRAUB, J.F. Faster valuation of financial derivatives: a promising
alternative to Monte Carlo. The Journal of Portfolio Management, Fall
(1995), p. 113-120. New York, New York.
SALIBY, E. Repensando a simulação: a amostragem descritiva. Rio de Janeiro:
Editora da UFRJ, São Paulo: Editora Atlas S.A., 1989. 182 p.
__________. Descriptive sampling: a better approach to Monte Carlo simulation.
Journal of the Operational Research Society, Vol. 41, No. 12, p. 1133-1142,
1990a.
__________. Understanding the variability of simulation results: an empirical study.
Journal of the Operational Research Society, Vol. 41, No. 4, p. 319-327,
1990b.
__________, PAUL, R.J. Implementing Descriptive sampling in three-phase discrete
event simulation models. Journal of the Operational Research Society, Vol.
44, p. 147-160, 1993.
__________. Descriptive sampling: an improvement over Latin hypercube sampling. In:
Proceedings of the 1997 Winter Simulation Conference, p. 230-233. Atlanta,
Georgia: Renaissance Waverly Hotel.
124
SCHEUER, E.M., STOLLER, D.S. On the generation of Normal random vectors.
Technometrics, 1962, Vol. 4, No. 2, p. 278-281.
STEIN, M. Large sample properties of simulations using Latin hypercube sampling.
Technometrics, Chicago: American Statistical Association and the American
Society for Quality Control, May 1987, Vol. 29, No. 2, p. 143-151.
TRAUB, J.F., PAPAGEORGIOU, A. New results on deterministic pricing of financial
derivatives. In: Mathematical Problems in Finance, April 15, 1996. Princeton,
New Jersey: Institute for Advanced Study.
VERGARA, S.C. Projetos e relatórios de pesquisa em Administração. São Paulo:
Editora Atlas S.A., 1997, 90 p.
VOSE, D. Quantitative risk analysis: a guide to Monte Carlo simulation modelling.
Chichester, England: John Wiley & Sons Ltd., 1996. 328 p.
ZANGARI, P. Mathematics of structured Monte Carlo. Risk MetricsTM – Technical
Document, 3rd edition, p. 98-106. New York: May 26, 1995.
___________. Routines to simulate correlated Normal random variables. Risk
MetricsTM – Technical Document, 4th edition, p. 253-255. New York: 1996.
125
7 ANEXO
7.1 Aplicação de Análise de Risco
Tabela 7.1 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Análise de Risco
Melhor Caso Pior Caso
Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro
Halton 5.75 3.49 0.56 3.17
Sobol 6.42 0.67 0.52 2.63
Faure 3.15 2.89 0.70 1.93
Descritiva 8.35 0.38 0.96 0.10
Hipercubo 5.39 0.43 0.43 0.02
5
Halton 8.00 13.44 1.42 2.44
Sobol 5.14 5.53 0.74 5.69
Faure 16.00 14.31 1.25 0.74
Descritiva 6.80 1.06 0.84 0.96
Hipercubo 19.56 0.40 0.83 0.15
8
Halton 7.06 1.08 0.61 3.33
Sobol 40.33 3.96 1.53 20.41
Faure 5.60 243.48 0.92 36.29
Descritiva 7.64 30.02 1.36 0.01
Hipercubo 11.10 0.79 0.54 2.85
12
Halton 6.81 67.04 1.67 15.25
Sobol 16.77 31.74 1.60 6.98
Faure 13.91 116.56 1.43 5.48
Descritiva 35.56 1.15 2.72 1.68
Hipercubo 17.56 1.12 1.12 0.08
16
126
Tabela 7.2 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Análise de Risco
Melhor Caso Pior Caso
Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade
Halton 1.14 3.21 10.65 3.28
Sobol 0.67 6.42 4.49 2.35
Faure 0.83 0.78 28.27 2.71
Descritiva 0.02 1.09 1.03 1.15
Hipercubo 0.02 0.43 1.04 3.15
5
Halton 2.44 1.42 76.74 2.68
Sobol 0.96 4.93 34.53 2.89
Faure 0.74 1.25 228.96 1.70
Descritiva 0.05 5.50 1.87 1.37
Hipercubo 0.03 2.67 4.24 1.37
8
Halton 1.08 7.06 45.77 3.65
Sobol 2.26 3.19 56.30 2.40
Faure 3.10 2.31 243.48 5.60
Descritiva 0.01 1.36 30.02 7.64
Hipercubo 0.39 1.41 2.97 0.99
12
Halton 7.76 5.27 161.40 5.82
Sobol 2.94 1.87 40.32 2.64
Faure 2.65 2.74 231.91 5.54
Descritiva 0.20 3.03 2.67 5.37
Hipercubo 0.02 6.56 4.18 16.00
16
127
Tabela 7.3 Número de “vitórias” para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Análise de Risco
Método de Amostragem
# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória
5 4 2 2 1 1
8 2 3 2 3
12 1 4 1 2 2
16 2 2 2 2 2
Total 7 8 8 8 8 1
Tabela 7.4 Número de “vitórias” para cada método de amostragem estudado quanto ao critério daexatidão do resultado, na aplicação de Análise de Risco
Método de Amostragem
# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória
5 6 4
8 3 6 1
12 5 3 2
16 1 7 2
Total 15 20 5
128
7.2 Aplicação de Avaliação de Portfolio de Ações
Tabela 7.5 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Avaliação dePortfolio de Ações
Melhor Caso Pior Caso
Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro
Halton 7.50 1.90 0.65 4.23
Sobol 14.75 12.81 0.69 2.52
Faure 15.00 8.26 0.23 0.72
Descritiva 21.50 5.76 0.30 1.03
Hipercubo 14.33 0.63 0.28 0.27
4
Halton 11.00 2.28 0.40 2.44
Sobol 14.00 4.44 0.54 1.20
Faure 2.80 29.97 0.38 4.06
Descritiva 24.50 2.42 0.40 0.33
Hipercubo 13.00 1.41 0.53 1.21
8
Halton 2.56 5.31 0.19 0.90
Sobol 17.33 2.48 0.22 0.92
Faure 5.20 4.52 0.20 1.08
Descritiva 5.20 0.32 0.28 0.14
Hipercubo 3.17 6.98 0.24 0.63
10
129
Tabela 7.6 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Avaliação dePortfolio de Ações
Melhor Caso Pior Caso
Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade
Halton 0.19 0.71 10.11 1.08
Sobol 0.47 3.00 12.81 14.75
Faure 0.41 1.08 18.05 3.43
Descritiva 0.31 0.47 8.24 1.12
Hipercubo 0.27 0.28 6.00 2.50
4
Halton 1.48 0.80 47.51 1.40
Sobol 1.20 0.54 22.40 1.02
Faure 0.43 1.65 30.32 1.07
Descritiva 0.33 0.40 29.18 11.20
Hipercubo 0.15 1.17 2.70 3.50
8
Halton 0.57 1.00 36.31 1.38
Sobol 0.90 1.11 42.04 1.16
Faure 0.35 0.20 58.95 0.94
Descritiva 0.14 0.28 3.09 0.67
Hipercubo 0.44 0.68 12.60 1.59
10
130
Tabela 7.7 Número de “vitórias” para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Avaliação de Portfolio de Ações
Método de Amostragem
# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória
4 1 1 4 4
8 3 1 2 4
10 3 2 2 1 1 3
Total 7 4 6 7 5 3
Tabela 7.8 Número de “vitórias” para cada método de amostragem estudado quanto aocritério da exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações
Método de Amostragem
# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória
4 1 1 1 1 2 4
8 1 3 3 3
10 1 4 3 2
Total 2 1 2 8 8 9
131
7.3 Aplicação de Precificação de Opções
Tabela 7.9 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Precificação deOpções
Melhor Caso Pior Caso
Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro
Halton 86.00 9.13 9.00 4.79
Sobol 86.00 9.13 9.00 4.79
Faure 86.00 18.49 9.00 5.47
Descritiva 86.00 0.40 9.00 0.15
Hipercubo 66.50 0.41 0.53 0.10
1
Tabela 7.10 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Precificação deOpções
Melhor Caso Pior Caso
Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade
Halton 1.94 25.00 17.58 52.50
Sobol 1.94 25.00 17.58 52.50
Faure 5.47 9.00 43.56 55.00
Descritiva 0.06 25.00 0.55 26.50
Hipercubo 0.01 2.43 0.41 66.50
1
Tabela 7.11 Número de “vitórias” para cada método de amostragem estudado quanto aos doiscritérios de desempenho, na aplicação de Precificação de Opções
Método de Amostragem
Critério Halton Sobol Faure Descritiva Hipercubo Aleatória
Convergência 10 10 10 10 1
Exatidão 2 8
Total 10 10 10 12 9
132
7.4 Aplicação de Integração Múltipla
Tabela 7.12 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Integração Múltipla
Melhor Caso Pior Caso
Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro
Halton 8.37 7.14 0.42 4.26
Sobol 4.92 2.83 0.76 7.75
Faure 9.42 23.17 0.48 11.15
Descritiva 7.70 5.83 0.35 0.71
Hipercubo 9.92 1.70 0.76 0.18
4
Halton 4.64 30.56 0.49 5.19
Sobol 16.50 2.66 0.16 2.49
Faure 4.09 5.47 0.15 8.42
Descritiva 5.33 1.38 0.12 0.54
Hipercubo 4.21 2.11 0.17 0.06
8
Halton 4.17 10.56 0.48 5.87
Sobol 5.73 2.04 0.24 645.49
Faure 7.56 3.43 0.56 2317.06
Descritiva 2.36 0.58 0.25 62.78
Hipercubo 2.84 0.32 0.45 0.44
10
133
Tabela 7.13 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Integração Múltipla
Melhor Caso Pior Caso
Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade
Halton 2.48 2.46 40.33 5.78
Sobol 2.05 3.18 33.10 1.56
Faure 2.86 0.72 24.06 2.12
Descritiva 0.23 4.35 5.83 7.70
Hipercubo 0.01 0.86 7.73 3.40
4
Halton 3.44 2.29 68.44 3.24
Sobol 0.77 1.00 49.31 2.93
Faure 2.28 1.23 72.07 2.24
Descritiva 0.02 0.93 12.08 5.22
Hipercubo 0.01 0.57 6.73 2.40
8
Halton 2.67 0.82 1408.36 0.53
Sobol 0.94 0.34 645.49 0.24
Faure 1.13 1.40 2317.06 0.56
Descritiva 0.22 1.74 62.78 0.25
Hipercubo 0.00 0.76 20.31 0.82
10
134
Tabela 7.14 Número de “vitórias” para cada método de amostragem quanto ao critério davelocidade de convergência, na aplicação de Integração Múltipla
Método de Amostragem
# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória
4 3 2 3 2
8 1 2 1 2 1 3
10 2 1 3 1 3
Total 3 6 6 5 4 6
Tabela 7.15 Número de “vitórias” para cada método de amostragem quanto ao critério daexatidão do resultado, na aplicação de Integração Múltipla
Método de Amostragem
# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória
4 3 4 3
8 4 3 3
10 6 2 2
Total 13 9 8
135
7.5 Consolidação do número de vitórias na pesquisa
Tabela 7.16 Número de “vitórias” consolidadas para cada método de amostragem em relaçãoao critério da velocidade de convergência, para todas as aplicações
Método de Amostragem
Aplicação Halton Sobol Faure Descritiva Hipercubo Aleatória
A-1 7 8 8 8 8 1
A-2 7 4 6 7 5 3
A-3 10 10 10 10 1
A-4 3 6 6 5 4 6
Total 27 28 30 30 18 10
Tabela 7.17 Número de “vitórias” consolidadas para cada método de amostragem em relaçãoao critério da exatidão do resultado, para todas as aplicações
Método de Amostragem
Aplicação Halton Sobol Faure Descritiva Hipercubo Aleatória
A-1 15 20 5
A-2 2 1 2 8 8 9
A-3 2 8
A-4 13 9 8
Total 2 1 2 38 45 22
Tabela 7.18 Total geral do número de “vitórias” para cada método de amostragem em relaçãoa ambos os critérios de desempenho, para todas as aplicações
Método de Amostragem
Aplicação Halton Sobol Faure Descritiva Hipercubo Aleatória
A-1 7 8 8 23 28 6
A-2 9 5 8 15 13 12
A-3 10 10 10 12 9
A-4 3 6 6 18 13 14
Total 29 29 32 68 63 32