Notas de aula de MAC5796 Walter Figueiredo Mascarenhas...

39
Notas de aula de MAC5796 Walter Figueiredo Mascarenhas Primeiro semestre de 2011 São Paulo, fevereiro-julho de 2011

Transcript of Notas de aula de MAC5796 Walter Figueiredo Mascarenhas...

  • Notas de aula de MAC5796

    Walter Figueiredo Mascarenhas

    Primeiro semestre de 2011

    São Paulo, fevereiro-julho de 2011

  • ii

  • Sumário

    1 Stops 11.1 Aviso aos navegantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Equações diferenciais ordinárias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

    1.3.1 Teoria básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3.2 As funções A e B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3.3 Soluções por séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.3.4 Provas da seção 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    1.4 A fórmula de Dynkin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.5 Condições para aplicar a fórmula de Dynkin . . . . . . . . . . . . . . . . . . . . . . . 121.6 Stops no tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.7 O Processo de Ornstein Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.8 Solução da equação de Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . 161.9 Estimando os parâmetros para o processo de Ornstein-Ulhenbeck . . . . . . . . . . . 17

    1.9.1 Provas da seção 1.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.10 Stops Fixos para o processo de Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . 20

    1.10.1 Provas da seção 1.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.11 Stops de queda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    1.11.1 As condições de Otimalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . 261.11.2 O movimento Browniano e o movimento Browniano geométrico . . . . . . . . 261.11.3 Determinando a função objetivo . . . . . . . . . . . . . . . . . . . . . . . . . 271.11.4 Provas da seção 1.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    Referências Bibliográficas 35

    iii

  • iv SUMÁRIO

  • Capítulo 1

    Stops

    1.1 Aviso aos navegantes

    Este documento é uma versão preliminar das notas de aula do curso MAC5796. Como todaversão inicial, ela certamente contem erros de digitação. Por isso, agradecerei se você me enviaremails ([email protected]) relatando os problemas que encontrar.

    O que está escrito aqui é um complemento ao que foi dito na sala de aula. Não se surpreenda sealguns conceitos aparecerem do nada: eles foram motivados (espero) durante as aulas. Por exemplo,não discuto aqui o que são stops nem defino o que é um tempo de parada.

    1.2 Introdução

    Nas próximas seções discutimos como calcular o valor esperado do ganho associado a stopsusando a fórmula de Dynkin. Esta fórmula é um resultado profundo sobre tempos de parada paraprocessos estocásticos de Feller-Dynkin. A discussão detalhada deste tipo de processo está alémda nossa proposta, mas se você tiver curiosidade para saber mais sobre eles o primeiro passo éestudar Øksendal (2007). O primeiro volume de Williams (2000a) apresenta uma discussão maisgeral e detalhada, mas é mais difícil. Nosso objetivo é ilustrar o uso destes conceitos em um exemploparticular: o processo de Ornstein-Uhlenbeck. Esperamos que ao ver esta teoria funcionando emexemplos concretos você se sinta motivado a estudar este assunto em mais profundidade, levando emconta os detalhes importantes que esconderemos debaixo do tapete nesta apresentação introdutória.

    O capítulo começa com uma revisão da teoria de equações diferenciais, na seção 1.3. Em seguidaexplicamos como calcular o valor esperado de estratégias de stop usando estas equações diferenciais.

    1.3 Equações diferenciais ordinárias

    Esta seção apresenta resultados básicos sobre equações diferenciais ordinárias. A teoria destasequações é ampla e é descrita no livro Sotomayor (1979). Porém, nossos objetivos são mais modestos.Analisaremos apenas equações da forma

    f ′′(x) + q(x) f ′(x)− p(x) f(x) = 0 (1.1)

    1

  • 2 STOPS 1.3

    em um intervalo (x, x), onde permitimos x = −∞ ou x = +∞. Esta equação é a principal ferramentana nossa análise dos stops e esta seção descreve suas propriedades relevantes no nosso contexto.

    Por exemplo, o cálculo do valor esperado do ganho associado a stops para o processo de Ornstein-Uhlenbeck leva à equação

    f ′′(x)− xf ′(x)− rf(x) = 0, (1.2)

    na qual q(x) = −x e p(x) = r. As soluções desta equação são complicadas e envolvem funçõeshipergeométricas e de Hermite, como o leitor constatará ao resolvê-la no Mathematica. Porém, ateoria apresentada aqui nos permite chegar à muitas conclusões a respeito das soluções da equação(1.2). Estas conclusões são suficientes para resolver os problemas de stops para o processo deOrnstein-Uhlenbeck que descreveremos nas próximas seções.

    Nesta seção assumimos que as funções p, q : (x, x) 7→ R satisfazem as seguintes condições:

    p(x) > 0 para todo x ∈ (x, x). (1.3)

    A funções p e q são localmente Lipschitz: para todo x ∈ (x, x) existem �x e �x positivos tais que

    ∣x− y∣ ≤ �x ⇒ ∣p(x)− p(y)∣+ ∣q(x)− q(y)∣ ≤ �x ∣x− y∣ . (1.4)

    Um critério simples que garante esta condição é a continuidade da derivada: uma função comderivada contínua é localmente Lipschitz.

    Na próxima subseção apresentaremos aspectos básicos da teoria da equação (1.1). A subseção(1.3.2) apresenta duas famílias de soluções da equação (1.1) que simplificam a análise de proble-mas de stop. Finalmente, as provas dos lemas e corolários enunciados nas subseções seguintes sãoapresentadas na subseção 1.3.4.

    1.3.1 Teoria básica

    A primeira pergunta que surge ao considerarmos a equação (1.1) é: ela tem solução? No livroSotomayor (1979) você encontrará resultados que podem ser resumidos assim:

    Teorema 1.3.1 Se os coeficientes p e q da equação (1.1) satisfazem a condição (1.4) então, paratodos x0 ∈ (x, x) e f0 e f ′0 existe uma, e apenas uma, função f : (x, x) 7→ R que tem derivadassegundas e satisfaz a equação (1.1) com as condições iniciais f(x0) = f0 e f ′(x0) = f ′0. ⊓⊔

    Como Sotomayor (1979) ilustra, a teoria de equações diferenciais ordinárias é capaz de lidarcom problemas gerais e complexos. Felizmente, a nossa equação (1.1) tem uma característica que asimplifica e não precisamos de toda a teoria. Esta equação é linear, ou seja:

    Teorema 1.3.2 Se as funções f, g : (x, x) 7→ R são soluções de (1.1) e � ∈ R então ℎ = f + �gtambém é uma solução. ⊓⊔

    Em geral é difícil encontrar soluções em forma fechada para a equação (1.1). Porém, o próximolema explica como gerar outras soluções a partir de uma solução conhecida, mesmo para a equaçãonão homogênea, na qual o lado direito é diferente de zero:

  • 1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 3

    Lema 1.3.1 (Variação dos parâmetros) Seja f uma solução da equação (1.1) e ℎ : (x, x) 7→ R umafunção contínua. Se f(x) ∕= 0 para todo x ∈ (x, x) e x0 é um ponto de (x, x) então, para

    �(x, x0) = e−∫ xx0q(s)ds (1.5)

    e

    '(x, x0, g0, g

    ′0

    )= g0 +

    ∫ xx0

    �(t, x0)

    f(t)2

    (∫ tx0

    f(s)

    �(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g

    ′0

    )dt (1.6)

    são tais que g(x) = f(x)'(x, x0, g0, g′0) é a única solução da equação não homogênea

    ℒ(g) = g′′ + qg′ − pg = ℎ, (1.7)

    com g(x0) = g0 e g′(x0) = g′0. ⊓⊔

    A positividade de p na equação (1.1) tem conseqüências importantes para o estudo de stops.Para entendê-las é conveniente considerar o operador ℒ associado a equação (1.1):

    ℒ(g) = g′′ + qg′ − pg. (1.8)

    Esta expressão quer dizer que dada uma função g com derivadas segundas definimos uma outrafunção, ℒ(g), cujo valor no ponto x é

    ℒ(g) (x) = g′′(x) + q(x) g′(x)− p(x) g(x) .

    Podemos então expressar a equação (1.1) como ℒ(f) = 0 e analisar as conseqüências de ℒ(f) ≥ 0:

    Lema 1.3.2 (Princípio do máximo) Seja f : (x, x) 7→ R uma função com derivadas segundas e[a, c] um subintervalo de (x, x) com f(a) ≥ 0 ou f(c) ≥ 0. Se ℒ(f) (y) ≥ 0 para todo y ∈ [a, b] entãomaxa≤b≤c f(b) = max { f(a) , f(c) }, i.e, o máximo de f é atingido nos extremos de [a, b]. ⊓⊔

    Este lema tem os seguintes corolários:

    Corolário 1.3.1 . Sejam f uma solução de (1.1), x0 ∈ (x, x) e g : [x0, x) 7→ R uma funçãocom derivadas segundas contínuas tal que ℒ(g) (x) ≥ 0 para todo x ∈ [x0, x). Se g(x0) ≥ f(x0) eg′(x0) ≥ f ′(x0) então, para todo x ∈ (x0, x),

    g(x) ≥ f(x) e g′(x) ≥ f ′(x). (1.9)

    Se g′′(x0) > f ′′(x0) então os ≥ na equação acima podem ser trocados por >. ⊓⊔

    Corolário 1.3.2 . Seja f : (x, x) 7→ R uma função com derivadas segundas contínuas e ℒ(f) (y) ≥0 para todo y ∈ (x, x). Se x ∈ (x, x) é tal que f(x) ≥ 0 e f ′(x) = 0 então, para todo y ∈ (x, x)−{x }:

    f(y) ≥ f(x) , y < x⇒ 0 ≥ f ′(y) e y > x⇒ f ′(y) ≥ 0. (1.10)

    Se f ′′(x) > 0 então os ≥ na equação acima podem ser trocados por >. ⊓⊔

  • 4 STOPS 1.3

    1.3.2 As funções A e B

    Esta seção apresenta famílias de soluções da equação (1.1) que simplificam a análise dos stops.O primeiro passo é usar o corolário (1.3.2) para obter uma família de soluções positivas de (1.1):

    Definição 1.3.1 Dada uma equação diferencial ordinária (1.1) que satisfaz as condições (1.3) e(1.4), definimos A : (x, x) × (x, x) 7→ R como sendo a única função com derivadas segundas em xque satisfaz as seguintes condições para todo x, x0 ∈ (x, x):

    A(x0;x0) = 1 e A′(x0;x0) = 0, (1.11)

    A′′(x;x0) + q(x)A′(x;x0)− p(x)A(x;x0) = 0, (1.12)

    onde A′ denota a derivada de A com respeito ao primeiro argumento. ⊓⊔

    Ou seja, para um x0 fixo a função f(x) = A(x;x0) é a solução da equação (1.1) com a condiçãoinicial f(x0) = 1 e f ′(x0) = 0.

    No lema 1.11 usamos o ‘;’ para distingüir parâmetros da variável com respeito a qual derivamosna equação (1.1). Ou seja, o sinal ′ indica derivação com respeito ao argumento que precede o ‘;’.Os demais argumentos são considerados como parâmetros e as derivadas com relação a eles sãoindicadas pelo símbolo de derivada parcial ∂.

    O corolário 1.3.2 implica que se x < x0 < y então

    A′(x;x0) < 0, A′(y;x0) > 0, A(x;x0) > 1, e A(y;x0) > 1. (1.13)

    O próximo lema explica como obter outras soluções da equação (1.1) a partir de A:

    Lema 1.3.3 Considere a função A em (1.3.1) e defina I : (x, x)× (x, x)× (x, x) 7→ R como

    I(x; y, x0) =

    ∫ xy

    e−∫ ty q(s)ds

    A(t;x0)2 dt. (1.14)

    A função B : (x, x)× (x, x)× (x, x) 7→ R definida por

    B(x; y, x0) = A(y;x0)A(x;x0) I(x; y, x0) (1.15)

    tem as seguintes propriedades:

    B(y; y, x0) = 0 e B′(y; y, x0) = 1, (1.16)

    B′′(x; y, x0) + q(x)B′(x; y, x0)− p(x)B(x; y, x0) = 0, (1.17)

    onde B′ denota a derivada de B com respeito a primeira coordenada.Além disso, se g é uma solução de (1.1) para a qual especificamos g(y) e g′(y) então

    g(x) = g(y)A(x;x0)

    A(y;x0)+

    (g′(y)− g(y) A

    ′(x;x0)

    A(y;x0)

    )B(x; y, x0) , (1.18)

    ou seja, todas as soluções de (1.1) são combinações simples de A e B. ⊓⊔

  • 1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 5

    As funções A, B e I simplificam a análise do problema de fronteira, no qual buscamos a soluçãof da equação (1.1) tal que f(a) = fa e f(c) = fc, onde x < a < c < x e fa e fc são valores préespecificados. Este é o problema fundamental no cálculo de stops e sua solução é expressa assim:

    Lema 1.3.4 Considere x0, a, c ∈ (x, x), com a < c. A função

    f(x; a, c) =A(x;x0)

    I(c;x, x0)− I(a;x, x0)

    (I(c;x, x0)

    A(a;x0)U(a)− I(a;x, x0)

    A(c;x0)V (c)

    )(1.19)

    é a única solução da equação diferencial (1.1) com f(a; a, c) = U(a) e f(c; a, c) = V (c). ⊓⊔

    DefinindoÛ(a;x0) =

    U(a)

    A(a;x0)e V̂ (c; c0) =

    V (c)

    A(c;x0)

    podemos expressar as derivadas parciais da função f de modo compacto. Usando o software Math-ematica concluímos que

    ∂f

    ∂a(x; a, c) = ℎa(a, c, x, x0)

    (Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))

    Û ′(a)

    I ′(a;x, x0)

    ), (1.20)

    ∂f

    ∂c(x; a, c) = ℎc(a, c, x, x0)

    (Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))

    V̂ ′(c)

    I ′(c;x, x0)

    ), (1.21)

    onde

    ℎa(a, c, x, x0) =A(x;x0) I(c;x, x0) I

    ′(a;x, x0)

    (I(c;x, x0)− I(a;x, x0))2, (1.22)

    ℎc(a, c, x, x0) = −A(x;x0) I(a;x, x0) I

    ′(c;x, x0)

    (I(c;x, x0)− I(a;x, x0))2. (1.23)

    A definição de I em (1.14) mostra que se a < x < c então

    I(c;x, x0) > 0, I′(c;x, x0) > 0, I(a;x, x0) < 0 e I

    ′(a;x, x0) > 0,

    e isto implica que ℎa e ℎc acima são positivos. Como conseqüência podemos focar nos termos quenão envolvem ℎa e ℎc nas equações (1.20) e (1.21) para analisar a otimalidade de a e c. Podemosconcluir, por exemplo, que se a < x < c e a e c maximizam o ganho como stops fixos então

    Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))Û ′(a)

    I ′(a;x, x0)= 0,

    Û(a)− V̂ (c) + (I(c;x, x0)− I(a;x, x0))V̂ ′(c)

    I ′(c;x, x0)= 0, (1.24)

    o que leva a equação surpreendentemente simples

    Û ′(a)I ′(c;x, x0) = V̂′(c)I ′(a;x, x0).

    Estas equações podem ser usadas para implementar métodos numéricos para calcular os valoresótimos de a e b ou analisar o seu comportamento, como faremos na sub seção 1.10.

  • 6 STOPS 1.3

    1.3.3 Soluções por séries

    Em geral, não há soluções com fórmulas fechadas para a equação (1.1). Mesmo quando há, estassoluções podem ser complicadas. Este é o caso da equação (1.2): sua solução pode ser expressa emtermos de funções hipergeométricas e de Hermite. Porém estas funções não são simples e poucoajudam no entendimento das soluções. Por isso, é interessante estudar técnicas para obter soluçõesaproximadas simples para a equação (1.1), mesmo quando soluções com fórmulas fechadas sãoconhecidas.

    A resolução por séries é um dos métodos para obter tais soluções aproximadas. O princípio ésimples e nós o ilustraremos no caso da equação (1.2). Suponha que gostaríamos de entender ocomportamento das soluções f(x) da equação (1.2) para x próximo de x0. O método de solução porséries consiste em procurar uma soluções aproximadas da forma

    fn(x) =n∑k=0

    ak (x− x0)k (1.25)

    Derivando a expressão para f em (1.25) obtemos

    fn′(x) =

    n∑k=1

    kak (x− x0)k−1 .

    Derivando novamente e substituindo k por m+ 2 obtemos

    fn′′(x) =

    n∑k=2

    k (k − 1) ak (x− x0)k−2 =n−2∑m=0

    (m+ 1) (m+ 2) am+2 (x− x0)m .

    Note também que

    xfn′(x) = (x− x0) f ′(x) + x0f ′(x) =

    n∑k=1

    kak (x− x0)k +n∑k=1

    x0kak (x− x0)k−1

    Substituindo k por m na primeira soma acima e m+ 1 na obtemos que

    xfn′(x) =

    n∑m=1

    mam (x− x0)m +n−1∑m=0

    x0(m+ 1)am+1 (x− x0)m

    = nan (x− x0)n +n−1∑m=0

    (mam + x0(m+ 1)am+1) (x− x0)m .

    Inserindo as expressões para fn, xf ′n e f ′′n acima na expressão para o operador ℒ, (1.8), obtemos

    ℒ(fn) (x) =n−2∑m=0

    (n+ 1) (n+ 2) an+2 (x− x0)n

    −r

    (an−1 (x− x0)n−1 + an (x− x0)n +

    n−2∑m=0

    am (x− x0)m)− ((n− 1) an−1 + nx0an) (x− x0)n−1

  • 1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 7

    −nan (x− x0)n −n−2∑m=0

    (mam + x0(m+ 1)am+1) (x− x0)m .

    Escolhendo então os am de modo que

    am+2 =(m+ 1)x0am+1 + (m+ r) am

    (m+ 2) (m+ 1)(1.26)

    eliminamos os somatórios na expressão acima e obtemos

    ℒ(fn) (x) = − ((n− 1 + r) an−1 + nx0an + (n+ r) an (x− x0)) (x− x0)n−1

    o que se torna muito pequeno se x− x0 for menor que 1 e n for grande. Dados então a0 e a1, quecorrespondem a f(x0) e f ′(x0), podemos obter todos os an’s a partir da recorrência (1.26).

    A análise acima considera x próximo a x0 finito na equação (1.2), porém também é possívelusar esta equação para analisar o limite x → ∞. Neste caso o natural é desprezar o termo em r e�′′ e tentar o balanço (�′)2 − x�′ = 0. Isto leva a � = x2/2 + �1(x), para �1 pequena em relação ax2/2. Substituindo na equação (1.2) completa obtemos

    �1′′(x) + 1 +

    (x+ �1

    ′(x))2 − (x+ �1′(x))x− r ≈ 0

    Desprezando os termos em �21 e �′′1 nesta equação obtemos x�1′(x) = r − 1 o que leva a �1(x) =

    (r − 1) ln(x). Isto leva à aproximação

    g0(x) = ex2/2+(r−1)ln(x) = xr−1ex

    2/2.

    Para validar esta aproximação calculamos ℒ(g0) (x) e obtemos, para x > 0 e r ∈ (0, 1),

    ℒ(g0) (x) = (2− r) (1− r) ex2

    2 xr−3 =(2− r) (1− r)

    x2g0(x) > 0,

    o que é muito menor que g0(x). Em termos intuitivos, isto é um bom sinal e indica que g0 é umaboa aproximação em termos relativos. Em termos precisos, como conseqüência do corolário 1.3.1aplicado a −g0 e −f a última equação prova o seguinte lema:

    Lema 1.3.5 Se x0 > 0 e f é uma solução da equação (1.2) com f(x0) ≤ g0(x0) e f ′(x0) ≤ g0′(x0)então f(x) < g0(x) e f ′(x) < g′(x) para todo x > x0. ⊓⊔

    Isto nos dá um modo de limitar superiormente as soluções de (1.2) para x grande: se x0 > 0 emmax { f(x0) /g(x0) , f ′(x0)/g′(x0) } > 0 então

    f(x) < mg0(x) e f′(x) < mg0

    ′(x)

    para x > x0.Podemos corrigir g0 para obter um limitante inferior para f . A idéia é tentar algo da forma

    ga(x) = g0(x)(

    1 +a

    x

    ). (1.27)

    Ou seja, para x→∞ fazemos uma expansão em séries de potências de 1/x. O Mathematica indica

  • 8 STOPS 1.3

    que, para a > 0 e 0 ≤ r ≤ 1,

    ℒ(ga) (x) = −ex2

    2 xr−4(ax2 − (2− r) (1− r)x− a (3− r) (2− r)

    )≤ −e

    x2

    2 xr−4(ax2 − 2x− 6a

    )Portanto, para a = 1 e x > xc, onde

    xc =2 +√

    28

    2≈ 3.64575 (1.28)

    xc é a maior raiz da equação

    x2 − (2− r) (1− r)x− a (3− r) (2− r) = 0,

    temos que ℒ(g1) (x) < 0. O mesmo argumento usado acima prova o seguinte lema

    Lema 1.3.6 Se x0 > xc e f é uma solução da equação (1.2) com f(x0) ≥ g1(x0) e f ′(x0) ≥ g1′(x0)então f(x) > g1(x) e f ′(x) > g1′(x) para todo x > x0. ⊓⊔

    Combinando os dois últimos lemas obtemos o seguinte resultado rigoroso sobre as soluções daequação (1.2):

    Lema 1.3.7 Suponha que f é uma solução da equação, (1.2) e xc é dado por (1.28),

    g0(x) = ex2/2 ∣x∣r−1 , e g1(x) = ex

    2/2 ∣x∣r−1 (1 + 1/ ∣x∣) .

    Se f(xc) > 0 e f ′(xc) > 0 então, para todo x > xc,

    mg1(x) < f(x) < Mg0(x) e mg1′(x) < f ′(x) < Mg0

    ′(x).

    para

    m = min

    {f(xc)

    g1(xc),

    f ′(xc)

    g1′(xc)

    }e M = min

    {f(xc)

    g0(xc),

    f ′(xc)

    g0′(xc)

    }.

    Por simetria, se x < −xc, f(x) > 0 e f ′(x) < 0 então

    mg1(x) < f(x) < Mg0(x) e Mg0′(x) < f ′(x) < mg1

    ′(x).

    ⊓⊔

    Há outros modos, até mesmo curiosos, para aproximar as soluções. Por exemplo, a função

    f(x) = e

    (x2

    2+ 3(r−1)

    2rln(

    1+ rx2

    3

    ))(1.29)

    é uma boa aproximação mesmo para x enorme.Isto completa esta subseção. Esperamos que você perceba que nem sempre a solução em forma

    fechada, como a que o Mathematica oferece para a equação (1.2), é a melhor ferramenta paraestudar estas equações. Usando as expansões em acima podemos entender o comportamento destassoluções para x pequeno e grande.

  • 1.3 EQUAÇÕES DIFERENCIAIS ORDINÁRIAS 9

    1.3.4 Provas da seção 1.3

    Prova do lema 1.3.1. É fácil ver que g(x0) = g0. Derivando (1.6) obtemos

    '′(x, x0, g0, g

    ′0

    )=�(x, x0)

    f(x)2

    (∫ xx0

    f(s)

    �(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g

    ′0

    ). (1.30)

    e (1.6) leva a

    g′(x) = f ′(x)'(x, x0, g0, g

    ′0

    )+�(x, x0)

    f(x)

    (∫ xx0

    f(s)

    �(s, x0)(ℎ(s) + g0p(s)) ds+ g

    ′0f(x0)

    ), (1.31)

    A equação ((1.5)) mostra que �(x0, x0) = 1 e

    g′(x0) = f′(x0)'

    (x0, x0, g0, g

    ′0

    )+

    1

    f(x0)f(x0) g

    ′0 = g

    ′0.

    Derivando mais uma vez chegamos a

    g′′(x) = f ′′(x)'(x, x0, g0, g

    ′0

    )+ f ′(x)'′

    (x, x0, g0, g

    ′0

    )+�(x, x0)

    f(x)

    f(x)

    �(x, x0)(ℎ(x) + g0p(x))

    +

    (�′(x, x0)

    f(x)− �(x, x0) f

    ′(x)

    f(x)2

    )(∫ xx0

    f(s)

    �(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g

    ′0

    ),

    Usando que f é solução de (1.1) e que �′(x, x0) = −q(x) �(x, x0) concluímos que

    g′′(x) =(p(x) f(x)− q(x) f ′(x)

    )'(x, x0, g0, g

    ′0

    )+ f ′(x)'′

    (x, x0, g0, g

    ′0

    )+ ℎ(x) + p(x) g0

    −(q(x) �(x, x0)

    f(x)+�(x, x0) f

    ′(x)

    f(x)2

    )(∫ xx0

    f(s)

    �(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g

    ′0

    ).

    A equação (1.30) mostra que os termos f ′(x)'′(x, x0, g0, g′0) e

    −�(x, x0) f′(x)

    f(x)2

    (∫ xx0

    f(s)

    �(s, x0)(ℎ(s) + g0p(s)) ds+ f(x0) g

    ′0

    ).

    nesta equação cancelam e temos

    g′′(x) = p(x)(g0 + f(x)'

    (x, x0, g0, g

    ′0

    ))−

    q(x)

    (f ′(x)'

    (x, x0, g0, g

    ′0

    )− �(x, x0)

    f(x)

    ∫ xx0

    f(s)

    �(s, x0)(ℎ(s) + g0p(s)) ds

    )+ ℎ(x) .

    Finalmente, a equações (1.6)e (1.31) levam a

    g′′(x) = p(x) g(x)− q(x) g′(x) + ℎ(x) ,

    o que prova o lema. ⊓⊔Prova do lema 1.3.2. Mostraremos que se o máximo é superior a max { f(a) , f(c) } ≥ 0 então

    existe c ∈ (a, b) com ℒ(f) (c) < 0. De fato, tomando c ∈ (a, b) que maximiza f teríamos f ′(c) = 0

  • 10 STOPS 1.3

    e f ′′(c) ≤ 0 pelos critérios usuais de maximilidade. Isto implica que

    ℒ(f) (c) = f ′′(c) + q(c) f ′(c)− p(c) f(c) = f ′′(c)− p(c) f(c) < 0.

    Isto prova o lema. ⊓⊔Prova do corolário 1.3.1. Seja d = g − d. Mostraremos inicialmente que se d′′(x) > 0 então

    d(y) > d(x) > 0 para todo y > x. De fato, a condições d′(x) = 0 e d′′(x) > 0 implicam que ovalor do máximo de d no intervalo [x, y] é superior a d(x). Pelo princípio do máximo (lema 1.3.2),d(y) = maxx≤c≤y > d(x). Agora mostramos que se d′′(x) > 0 então d′(y) > 0 para y > 0. De fatose existisse y > x com d′(y) < 0 então nem x nem y seriam pontos de máximo no intervalo [x, y], oque contraria o princípio do máximo. Se existisse y > x com d′(y) = 0 então

    L′′(d)y = ℒ(d) (y)− q(y) d′(y) + p(y) d(y) = ℒ(d) (y) + p(y) d(y) > 0

    e novamente nem x nem y seriam máximos de d no intervalo [x, y]. Isto completa a análise do casod′′(x) > 0.

    A análise acima mostra que a solução A da equação (1.1) com A(x) = 1 e A′(x) = 0, que temA′′(x) = p(x) > 0, satisfaz estritamente as desiguldades em (1.10). Definindo então ℎ = ℒ(d), olema 1.3.1 mostra que, d = A', para

    �(y) = e−∫ yx q(s)ds e '(y) =

    ∫ yx

    �(t)

    A(t)2

    (∫ tx

    A(s)

    �(s)ℎ(s) + d(x) p(s)ds

    )dt.

    As desigualdades em (1.9) seguem então das propriedades de A provadas na análise do caso d′′(0) > 0e dos fatos que d(x) ≥ 0 e ℎ(y) ≥ 0. ⊓⊔

    Prova do corolário 1.3.2 As desigualdades referentes a x > x0 seguem do corolário 1.3.2.Para analisar x < x0 basta aplicar o corolário 1.3.2 à função f̃(x) = f(−x) e x̃0 = −x0, que satisfazuma equação como 1.1, mas com q substituído por q̃(x) = −q(−x). ⊓⊔

    Prova do lema 1.3.3. A equação (1.16) segue, por simples substituição e derivação, de (1.11).A equação (1.17) segue do lema (1.3.1). Para provar (1.18) note que o lado direito desta equaçãosatisfaz (1.1), vale g(x0) para x = x0, tem derivada g′(x0) para x = x0. O teorema 1.3.1 mostraentão que g deve ser igual ao lado direito de (1.18) para todo x. ⊓⊔

    Prova do lema 1.3.4. Toda solução f da equação (1.1) com variável y pode ser escrita como

    f(y) = �A(y;x0) + �B(y;x, x0) (1.32)

    para � e � convenientes. Para satisfazer as condições f(a) = fa e f(c) = c devemos ter então

    fa = �A(a;x0) + �B(a, x, x0) ,

    fc = �A(c;x0) + �B(c, x, x0) .

  • 1.4 A FÓRMULA DE DYNKIN 11

    Isto dermina � e �:

    � =B(c, x, x0) fa −B(a, x, x0) fc

    A(a;x0)B(c, x, x0)−B(a, x, x0)A(c;x0),

    � =A(a;x0) fc −A(c;x0) fa

    A(a;x0)B(c, x, x0)−B(a, x, x0)A(c;x0).

    Substituindo y por x na equação (1.32) e lembrando que pela equação (1.16) B(x;x, x0) = 0,obtemos que f(x) = �A(x;x0). Segundo a equação (1.15)

    B(a, x, x0) = A(x;x0)A(a;x0) I(a;x, x0) e B(c, x, x0) = A(x;x0)B(c, x0) I(c;x, x0)

    e temos que f(x) = �A(x;x0) é equivalente a

    f(x) = A(x;x0)A(x;x0)A(c;x0) I(c;x, x0) fa −A(x;x0)A(a;x0) I(a;x, x0) fc

    A(a;x0)A(x;x0)A(c;x0) I(c;x, x0)−A(x;x0)A(a;x0) I(a;x, x0)A(c;x0),

    Dividindo o numerador e o denominador desta expressão por A(a;x0)A(x;x0)A(c;x0) obtemos(1.19) e o lema está provado. ⊓⊔

    1.4 A fórmula de Dynkin

    A fórmula de Dynkin se aplica a processos que satisfazem uma equação diferencial estocásticada forma

    dXt = �(Xt) dt+ �(Xt) dBt. (1.33)

    Para entender de fato esta equação você precisará estudar, em um primeiro passo, livros comoØksendal (2007) e em um segundo passo livros como o segundo volume de Williams (2000b). Nopasso zero é melhor ficar em exemplos concretos, como o movimento Browniano que discutimosanteriormente ou o processo de Ornstein-Uhlenbeck que discutiremos nas próximas seções.

    O matemático russo Eugene Dynkin, que foi aluno de A. Kolmogorov, estudou em profundidadeo gerador infinitesimal do processo acima. Este gerador infinitesimal atua sobre funções suaves fde acordo com a expressão

    Gf(x) = �2(x)

    2f ′′(x) + �(x) f ′(x)

    Dynkin observou que se � é um tempo de parada, � é um número positivo e a função f , oprocesso Xt e o tempo de parada � satisfazem as condições descritas logo abaixo na seção ?? então

    E(e−��f(X� )

    )= f(X0) + E

    (∫ �0e−�s ((G− �) (f)) (Xs) ds

    ). (1.34)

    onde ((G− �)) (f) (x) quer dizer

    �2(x)

    2f ′′(x) + �(x) f ′(x)− �f(x) . (1.35)

    A fórmula de Dynkin (1.34) leva ao seguinte procedimento para calcular o ganho descontandoesperado quando iniciamos o processo pt com p0 = b e recebemos e−��U(a) quando acionamos ostop inferior e e−��V (c) quando acionamos o stop superior:

  • 12 STOPS 1.5

    Se encontrarmos uma função f tal que f(a) = U(a) e f(c) = V (c) e

    �(s)2

    2f ′′(s) + �(s) f ′(s)− �f(s) = 0. (1.36)

    então a equação (1.34) mostra que

    E(e−��U(a) ; p� = a

    )+ E

    (e−��V (c) ; p� = c

    )= f(b) . (1.37)

    Portanto, calcular o efeito da escolha dos stops se reduz a resolver a equação (1.36) com as condiçõesde contorno f(a) = U(a) e f(c) = V (c). Feito isto, o valor esperado do ganho é facilmente obtidoa partir de (1.37).

    Nas próximas seções discutiremos como aplicar este procedimento. Finalmente, observamos quea fórmula de Dynkin (1.34) é uma conseqüência direta do teorema de parada opcional de Doob.Variantes dela podem ser derivadas diretamente da fórmula de Itô, como em Rogers (2010). Porémconsideramos melhor fazer referência a um fórmula concisa como (1.34) através de um nome mere-cido – Dynkin – do que mencionar todo o processo usado em sua derivação e suas variações.

    1.5 Condições para aplicar a fórmula de Dynkin

    A princípio, para aplicarmos a fórmula de Dynkin a função f : Rn 7→ R deve estar no domíniodo gerador infinitesimal

    Gf(x) = �2(x)

    2f ′′(x) + �(x) f ′(x).

    Formalmente, isto quer dizer que

    1. lim∣x∣→∞ f(x) = 0.

    2. f tem derivadas segundas contínuas. (isto justifica o cálculo de Gf).

    3. A função Gf é contínua e lim∣x∣→∞ Gf(x) = 0.

    Porém, esta condição pode ser relaxada quando há um conjunto C tal que Xt ∈ C para todot ≤ � . Neste caso as condições de decaimento de f e Gf podem ser trocadas por

    1. limk→∞ f(xk) = 0 para toda seqüência {xk, k ∈ N} ⊂ C com limk→∞ ∣xk∣ =∞.

    2. limk→∞ Gf(xk) = 0 para toda seqüência {xk, k ∈ N} ⊂ C com limk→∞ ∣xk∣ =∞.

    Por exemplo:

    ∙ No caso de stops inferiores e superiores Xt estará entre o limite inferior a e superior c parat ≤ � e não nos precisamos nos preocupar com o decaimento de f e Gf , pois nenhuma seqüência{xk, k ∈ N} com a ≤ xk ≤ c converge para infinito.

    ∙ O mesmo ocorre no limite móvel descrito na seção 1.11 pois neste caso ao limitarmos a quedatambém limitamos as trajetórias Xt para t ≤ � .

    ∙ No caso de stop superior, podemos ter xk → −∞ mas não xk → +∞. Portanto, precisamosnos preocupar apenas com os limites limx→−∞ f(x) e limx→−∞ Gf(x).

  • 1.6 STOPS NO TEMPO 13

    ∙ Para limites inferiores ocorre o oposto: precisamos nos preocupar apenas com os limiteslimx→+∞ f(x) e limx→+∞ Gf(x).

    1.6 Stops no tempo

    A fórmula de Dynkin também vale para processos multidimensionais e isto permite incorporarstops que dependem do tempo no procedimento discutido nas seções anteriores. A idéia é encararXt na equação (1.33) como um vetor, ao invés de um número. Por exemplo, podemos fazer

    dX1 = dt, (1.38)

    dX2 = �(X2) dt+ �(X2) dBt. (1.39)

    O gerador infinitesimal deste processo é

    Gf(x) = ∂f∂t

    (t, x) + �(x)∂f

    ∂x(t, x) +

    �(x)2

    2

    ∂2f

    ∂x2(t, x) .

    e a estratégia descrita acima leva ao seguinte problema de valor inicial

    �(x)2

    2

    ∂2f

    ∂x2(t, x) +

    ∂f

    ∂t(t, x) + �(x)

    ∂f

    ∂x(t, x)− �f(x, t) = 0, (1.40)

    f(t, a) = U(a) , f(t, c) = U(c) e f(T, x) = U(x) . (1.41)

    O método padrão para resolver este problema é usar séries de Fourier. Primeiro resolvemos aequação (1.40) considerando f0(t, x) = f0(x) (sem dependência em t) e com a condição de fronteiraf(a) = U(a) e f(c) = U(c), como discutido anteriormente. Em seguida escrevemos

    f(t, x) =∞∑n=0

    e−�ntfn(x) ,

    com �0 = 0 e os demais fn’s e �n’s escolhidos de modo que

    ∞∑n=0

    e−�nT fn(x) = U(x) , (1.42)

    �(x)2

    2

    ∂fn∂x

    (x) + �(x)∂fn∂x

    (x)− (�+ �n)fn(x) = 0, (1.43)

    fn(a) = 0, fn(c) = 0. (1.44)

    Há uma vasta teoria sobre as equações acima (veja Figueiredo (1997) e Neves (2001)). Ela mostraque para funções � e � “razoáveis” existe uma seqüência {�n, n ∈ N} de expoentes e soluções{ gn, n ∈ N} não nulas correspondentes que geram todas as outras como combinações lineares,como uma base em um espaço vetorial. A idéia então é tomarmos fn = �nℎn com coeficientes�n apropriados. Pela nossa definição �0 = 1 e para calcular �n para n > 0 observamos que asfunções ℎn são ortogonais com respeito ao seguinte produto interno no espaço das funções contínuas

  • 14 STOPS 1.7

    f : [a, c] 7→ R com f(a) = f(c) = 0:

    < f, g >=

    ∫ caw(s) f ′(s)g′(s)ds,

    ondew(x) = e

    ∫ xa

    2�(x)�(s)

    ds. (1.45)

    De fato, integrando por partes temos que

    < ℎn, ℎm >= w(s)ℎn′(s)ℎm(s)

    ∣∣s=cs=a−∫ caℎm(s)w(s)

    (ℎn′′(s)− 2�(s)

    �(s)ℎn′(s)

    )ds.

    Como ℎn é solução de (1.43) deduzimos que

    < ℎn, ℎm >= −2 (�n + �)∫ ca

    w(s)

    �(s)2ℎn(s)ℎm(s) ds. (1.46)

    Trocando n por m nesta equação e subtraindo dela mesma obtemos que

    2 (�m − �n)∫ ca

    w(s)

    �(s)2ℎn(s)ℎm(s) ds = 0.

    Como �m ∕= �n a integral nesta última equação deve ser nula e (1.46) mostra que < ℎn, ℎm >= 0.Portanto, reescrevendo a equação (1.42) como

    ∞∑n=1

    �ne−�nTℎn(x) = U(x)− ℎ0(x)

    e tomando o produto interno com ℎn obtemos que

    �ne−�nT

    ∫ caw(s)

    (ℎn′(s))2ds =

    ∫ caw(s) (U(s)− ℎ0(s))′ ℎn′(s)ds

    ou seja,

    �n = e�nT

    ∫ ca w(s)

    (U ′(s)− ℎ0′(s)

    )ℎn′(s)ds∫ c

    a w(s)(ℎn′(s))2ds

    .

    Finalmente, a fórmula de Dynkin diz que o valor esperado do ganho descontado é

    g(a, c) = f(b, 0) =

    ∞∑n=0

    fn(b) = f0(a, b, c) +

    ∞∑n=1

    �n(a, c)ℎn(a, b, c) .

    1.7 O Processo de Ornstein Uhlenbeck

    O processo de Ornstein Uhlenbeck descreve preços que revertem a média. Ele satisfaz a equaçãodiferencial estocástica

    dpt = � (�− pt) dt+ �dBt. (1.47)

    Este processo é motivado pela equação diferencial determinística

    dp

    dt= � (�− p) , (1.48)

  • 1.7 O PROCESSO DE ORNSTEIN UHLENBECK 15

    a qual pode ser pensada como o limite de (1.47) quando � → 0. A equação determinística (1.48)tem solução

    p(t) = �+ (p(0)− �) e−�t. (1.49)

    O comportamento desta solução é simples: ela reverte exponencialmente para a média �. O processode Ornestein Uhlenbeck tem comportamento parecido. Só é adicionada a perturbação aleatória �dBt.

    O gerador do processo de Ornstein Uhlenbeck é

    G= �2

    2

    d2

    dx2+ � (�− x) d

    dx

    e para usarmos o método descrito na nota sobre a fórmula de Dynkin para analisar os tempos deparada devemos resolver a equação diferencial

    �2

    2C ′′(x) + � (�− x)C ′(x)− �C(x) = 0. (1.50)

    Ao invés de lidar diretamente com esta equação é interessante considerar a função D definida por

    D(y) = C(�(�y + 1)) com � =�

    �√

    2�. (1.51)

    Uma vez encontrada D, podemos recuperar C a partir da equação

    C(x) = D

    (x− ���

    ).

    Note queD′(y) = ��C ′(�(�y + 1)) (1.52)

    e

    D′′(y) = �2�2C ′′(�(�y + 1)) =2�2�2

    �2(�C(�(�y + 1))− � (�− �(�y + 1)))C ′(�(y + 1)). (1.53)

    Usando a expressão para � na equação (1.51) obtemos que

    2�2�2

    �2=

    1

    e as equações (1.52) e (1.53) levam a seguinte equação, na qual r = �/�,

    D′′(y) = rD(y) + yD′(y). (1.54)

    Por exemplo, no caso do índice Bovespa no período de 04/01/2010 a 06/05/2011 o estimadorde máxima verosimilhança para o processo de Ornstein-Uhlenbeck leva a

    � = 10.38, � = 66970, � = 0.1133 e � = 12683.

    Avaliando numericamente � e r obtemos

    � ≈ 0.042 e r ≈ 0.011.

  • 16 STOPS 1.8

    Ou seja, no exemplo do IBovespa � e r são da ordem de centésimos. Como � reflete a variação de xcom respeito a média e é razoável esperar stops ótimos a uns porcentos do preço médio, isto sugereque o y ótimo deve ser de ordem 1, de modo que ��y seja da ordem alguns porcentos do índice.

    Infelizmente, a equação (1.54) não tem soluções simples em forma fechada. O Mathematica porexemplo expressa estas soluções em termos de funções hipergeométricas e de Hermite. Este modode expressar as soluções não ajuda no entendimento delas. É melhor procurar soluções assintóticas,que permitam analisar qualitativamente o seu comportamento. Na seções 1.3 e 1.10 analisamosestas soluções.

    1.8 Solução da equação de Ornstein-Uhlenbeck

    Nesta seção mostramos que a solução da equação diferencial estocástica de Ornstein Uhlenbeck(1.47) com condição inicial p0 é dada por

    pt = �+ e−�t (p0 − �) +

    �√�e−�t

    ∫ �t0

    esdBs. (1.55)

    e derivaremos algumas propriedades desta solução.Para verificar que pt na equação (1.55) é a solução da equação (1.47) com condição inicial p0

    basta notar que p0 = p0 e usar a fórmula de Itô. Esta fórmula é descrita na página 44 de Øksendale diz que se o processo Xt satisfaz uma equação diferencial estocástica

    dXt = �(Xt) dt+ �(Xt) dBt

    e a função g : R2 → R tem derivadas parciais contínuas então o processo Yt = g(t,Xt) satisfaz aequação diferencial estocástica

    dYt =∂g

    ∂tt,Xtdt+

    ∂g

    ∂xt,XtdXt +

    �(Xt)2

    2

    ∂g

    ∂xt,Xtdt.

    A função g apropriada para o nosso caso é g(t, x) = e�t (x− �). Para esta g a última equação e aequação (1.47) mostram que Yt = e�t (Xt − �) satisfaz

    dYt = �e�t (Xt − �) dt+ e�t (� (�−Xt) dt+ �dBt) = �e�tdBt.

    Isto implica que

    e�t (Xt − �) = Yt = p0 − �+ �∫ t

    0e�sdBs.

    Multiplicando esta equação por e−�t e somando � aos dois lados obtemos que

    Xt = �+ e−�t (p0 − �) + �e−�t

    ∫ t0e�sdBs. (1.56)

    Fazendo a mudança de variável s = u/� e notando que Bu/� tem a mesma distribuição que 1√�Buobtemos que, em termos de distribuição,∫ t

    0e�sdBs =

    1√�

    ∫ �u0

    eudBu.

  • 1.9 ESTIMANDO OS PARÂMETROS PARA O PROCESSO DE ORNSTEIN-ULHENBECK 17

    Substituindo esta expressão em (1.56) obtemos (1.55)A integral

    It =

    ∫ t0esdBs (1.57)

    é um processo estocástico de um tipo muito especial. Ao ler Øksendal (2007) você descobrirá queela é um martingale com respeito à filtração {ℱt, t ≥ 0} definida pelo movimento Browniano Bt.Ou seja,

    E(It∣ ℱs) = Is (1.58)

    para todo 0 ≤ s ≤ t∞. Em particular,

    E(It) = E(E(It∣ ℱ0)) = E(I0) = 0.

    Tomando o valor esperado de pt em (1.55) obtemos

    E(pt) = �+ e−�t (p0 − �) +�√�e−�tE(It) = �+ e−�t (p0 − �) , (1.59)

    que é exatamente o que obteríamos para equação determinística (1.48).A teoria de integração estocástica nos permite obter mais resultados sobre It. Por exemplo, a

    isometria de Itô, descrita na página 29 de Øksendal (2007), mostra que

    E(I2t)

    = E(∫ t

    0e2sds

    )=

    1

    2

    (e2t − 1

    )e podemos então calcular a variância de pt:

    E(

    (pt − E(pt))2)

    = E(�2

    �e−2�tI2�t

    )=�2

    2�

    (1− e−2�t

    ).

    Note que esta variância é limitada: ela nunca passa de �2/(2�). Combinando esta observação coma equação (1.59) e a igualdade E

    (p2t)

    = E(

    (pt − E(pt))2)

    + E(pt)2 obtemos

    E(p2t)

    =�2

    2�

    (1− e−2�t

    )+(�+ e−�t (p0 − �)

    )2≤ �

    2

    2�+ max

    {�2, (p0 − �)2

    }, (1.60)

    o que mostra que pt é um processo de variância limitada.

    1.9 Estimando os parâmetros para o processo de Ornstein-Ulhenbeck

    Esta seção explica como obter o estimador de máxima verosimilhança para o processo Ornstein-Uhlenbeck. Os resultados enunciados são provados na próxima subseção.

    Lema 1.9.1 O log da verosimilhança correspondente a n + 1 amostras X̂ ={X̂0, X̂1, . . . X̂n

    }do

    processo de Ornstein Uhlenbeck, com X̂k tomada no instante tk, é

    ℒ(X̂;�, �, �

    )= −n

    2log

    (�2

    2�

    )− 1

    2

    n∑k=1

    log(

    1− e2(tk−1−tk))

  • 18 STOPS 1.9

    − ��2

    n∑k=1

    (X̂k − �− e�(tk−1−tk)

    (X̂k−1 − �

    ))21− e2�(tk−1−tk)

    . (1.61)

    ⊓⊔

    A equação (1.61) simplifica consideravelmente se os tk’s são igualmente espaçados, i.e., se tk = k�para alguma constante �. Neste caso ela se torna

    ℒ(X̂;�, �, �

    )= −n

    2log(z)− 1

    2z

    n∑k=1

    (X̂k − X̂k−1 + X̂k−1y − w

    )2(1.62)

    para

    y = 1− e−��, z =�2(1− e−2��

    )2�

    e w = �y. (1.63)

    Para maximizar o log da máxima verosimilhança basta encontrar um minimizador y, z, w para

    f(y, z, w) = nlog(z) +1

    z

    n∑k=1

    (X̂k − X̂k−1 + X̂k−1y − w

    )2(1.64)

    e derivar �, � and � from equação (1.63):

    � = − log(1− y)�

    , �2 =2�z

    y (2− y)e � = w/y. (1.65)

    Felizmente, o próximo lema mostra há uma solução (y, z, w) explícita:

    Lema 1.9.2 O minimizador da função f definida na equação (1.64), se existir, é único e dado por

    ŷ = −

    ∑nk=1

    (X̂k − X̂k−1 −Δ

    )X̂k−1∑n

    k=1

    (X̂k−1 −X

    )X̂k−1

    , (1.66)

    ŵ =1

    n

    (X̂n − X̂0 + ŷ

    n∑k=1

    X̂k−1

    )= Δ + ŷX, (1.67)

    ẑ =1

    n

    n∑k=1

    (X̂k − X̂k−1 + X̂k−1ŷ − ŵ

    )2, (1.68)

    for

    X =1

    n

    n∑k=1

    X̂k−1 e Δ =X̂n − X̂0

    n.

    ⊓⊔

    1.9.1 Provas da seção 1.9

    Prova do lema 1.9.1 Como vimos na seção P16-(1.8) o processo de Ornstein-Uhlenbeck satisfaz

    Xt = �+ e−�t (X0 − �) + �e−�t

    ∫ t0e�udBu.

  • 1.9 ESTIMANDO OS PARÂMETROS PARA O PROCESSO DE ORNSTEIN-ULHENBECK 19

    Portanto, para s ≤ t,

    (Xt − �)− e�(s−t) (Xs − �) = �e−�t∫ tse�udBu.

    Como conseqüência, dados n+ 1 instantes t0 = 0, t1, . . . , tn o vetor

    V = (Xt1 , . . . , Xtn)t ,

    a matriz bidiagonal

    A =

    ⎛⎜⎜⎜⎜⎜⎜⎜⎝

    1

    −e�(t0−t1) 1−e�(t1−t2) 1

    .... . .

    −e�(tn−1−tn) 1

    ⎞⎟⎟⎟⎟⎟⎟⎟⎠e o vetor e = (1, 1, . . . , 1, 1)′ são tais que

    N = A (V − �e) (1.69)

    tem distribuição normal multivariada com média zero e coordenadas independentes com variância

    �2kk = �2e−2�tkE

    ⎛⎝(∫ tktk−1

    e�sdBs

    )2⎞⎠ = �2e−2�tk (∫ tktk−1

    e2�udBu

    )=�2

    2�

    (1− e2�(tk−1−tk)

    ).

    Reescrevendo (1.69) comoV = A−1N + �e

    concluímos que V tem distribuição normal multivariada com média �e e matrix de covariância

    Σ = A−1ΣNA−t,

    onde ΣN é a matriz diagonal com entradas �2kk dadas acima. Portanto,

    Σ−1 = AtΣ−1N A

    e a fórmula padrão para a verosimilhança da normal multivariada mostra que (a menos de con-stantes)

    ℒ(X̂;�, �, �

    )= −1

    2log(det(Σ))− 1

    2

    (X̂ − �A−1e

    )tΣ−1

    (X̂ − �e

    )=

    −12

    log(det(ΣN ))−1

    2

    (X̂ − �e

    )tAtΣ−1N A

    (X̂ − �e

    )= −1

    2log(det(ΣN ))−

    1

    2

    ∥∥∥Σ−1/2N A(X̂ − �e)∥∥∥2 . (1.70)Agora,

    det(ΣN ) =n∏k=1

    �2kk =

    (�2

    2�

    )n n∏k=1

    (1− e2�(tk−1−tk)

    )

  • 20 STOPS 1.10

    e (A(X̂ − �e

    ))k

    = X̂k − �− e�(tk−1−tk)(X̂k−1 − �

    ).

    Combinando as últimas duas equações com (1.70) obtemos (1.61) e completamos esta prova. ⊓⊔Prova do lema 1.9.2 Igualando o gradiente de f a obtemos as seguintes equações

    n∑k=1

    (X̂k − X̂k−1 + X̂k−1y − w

    )X̂k−1 = 0, (1.71)

    n

    z− 1z2

    n∑k=1

    (X̂k − X̂k−1 + X̂k−1y − w

    )2= 0, (1.72)

    n∑k=1

    (X̂k − X̂k−1 + X̂k−1y − w

    )= 0. (1.73)

    A equação (1.73) leva à equação (1.67). Inserindo w em (1.71) obtemos

    n∑k=1

    (X̂k − X̂k−1 −Δ +

    (X̂k−1 −X

    )y)X̂k−1 = 0.

    Resolvendo esta equação para y nós chegamos à equação (1.66). Finalmente, a equação (1.72) levaa (1.68) e esta prova está completa. ⊓⊔

    1.10 Stops Fixos para o processo de Ornstein-Uhlenbeck

    Nesta seção combinamos as técnicas discutidas nas seções anteriores para analisar o problemade stops inferiores e superiores para o processo de Ornstein-Uhlenbeck. Seguindo o processo descritona subseção 1.3.2, consideramos as soluções A0(x) da equação

    f ′′(x)− xf ′(x)− rf(x) = 0, (1.74)

    com A0(0) e A0′(0) = 1. Assumiremos que 0 < r < 1 mas estaremos mais interessados no caso r“pequeno”, ou seja, na faixa dos centésimos.

    A nossa funções de utilidade inferior e superior serão o próprio preço, ou seja, U(x) = V (x) = x.Assumiremos que o preço inicial é b e buscaremos a ≤ b ≤ c que levem a um ganho máximo. Segundoa teoria na seção 1.4 e o lema P4-(1.3.2), isto leva ao problema de maximização da função

    f(b, a, c) =A0(b)

    I(c, b)− I(a, b)(I(c, b)G(a)− I(a, b)G(c)) (1.75)

    para

    I(x, b) =

    ∫ xb

    e∫ tb sds

    A0(t)2dt = e

    −b2/2∫ xb

    et2/2

    A0(t)2dt e G(x) =

    x

    A0(x). (1.76)

    As equações (1.20) e (1.21) mostram que

    ∂f

    ∂a(b, a, c) = ℎa(a, c, b)

    (G(a)−G(c) + (I(c, b)− I(a, b)) G

    ′(a)

    I ′(a, b)

    ), (1.77)

    ∂f

    ∂c(b, a, c) = ℎc(a, c, b)

    (G(a)−G(c) + (I(c, b)− I(a, b)) G

    ′(c)

    I ′(c, b)

    ), (1.78)

  • 1.10 STOPS FIXOS PARA O PROCESSO DE ORNSTEIN-UHLENBECK 21

    onde ℎa e ℎc são fatores positivos.A função f é ilustrada na figura 1.1 abaixo. Nesta seção exporemos as propriedades desta figura

    usando a teoria desenvolvida neste texto.

    Figura 1.1: O gráfico de f(b, a, c) com b = 0 e r = 0.01, com −12 < a < 0 e 0 < c < 12.

    A figura 1.1 foi feita no Mathematica, calculando f a partir das combinações de funções Her-miteH e Hypergeometric1F1 que este programa usa para representar as soluções da equação (1.74).Note que a parte do gráfico para a < −10 e c > 10 está faltando e o gráfico parece recortado paravalores grandes de −a e c. Isto ocorre pois os valores destas funções são MUITO grandes para taisa e c e o Mathematica se perde nas contas. Em versões anteriores ele desenhava “lixo” para estesvalores. Na versão atual, 8.0.0.0, esse problema foi corrigido escondendo o lixo sob o tapete.

    Parte desta figura pode ser entendida a partir do próximo lema.

    Lema 1.10.1 As integrais I(+∞, b) = limc→∞ I(c, b) e I(−∞, b) = lima→−∞ I(a, b) são finitas e

    lim∣x∣→∞

    G(x) = 0 e lim∣x∣→∞

    G′(x)

    I(x, b)= +∞. (1.79)

    Este lema e equação (1.75) leva as seguintes conclusões, que podem ser observadas no gráfico:

    ∙ Para c fixo,

    lima→−∞

    f(b, a, c) = − A0(b)I(c, b)− I(−∞, b)

    I(−∞, b)G(c)

    O limite acima é positivo para c > 0, porém o ele é minúsculo para c ≥ 4. Ao longo do topo,quando a decresce f(b, a, c) cresce muito lentamente. As a equações (1.77) e (1.79) indicam quea derivada parcial em a é negativa para −a grande e com isso não há máximo nesta direção:quanto menor o a melhor. Na prática isto significa que não devemos usar stops inferiores.

    ∙ Para a fixo,

    limc→∞

    f(b, a, c) =A0(b)

    I(∞, b)− I(−∞, b)I(∞, b)G(a) .

    Este limite é negativo para a < 0, porém o seu módulo é minúsculo para a < −4. O gráficotambém indica que é contraproducente tomar c > 4. Isto é confirmado pelas equações (1.77)

  • 22 STOPS 1.10

    e (1.79) que mostram que a derivada parcial de f com respeito a c é negativa para c grande eportanto é contraprodutivo aumentar c demais. Ou seja, devemos sim usar um stop superior.A figura também indica que o c ótimo, o topo do morro, não depende muito de a.

    A discussão acima mostra que no caso do processo de Ornstein-Uhlenbeck devemos considerarapenas o stop superior. Deste ponto até fim desta seção mostraremos como aplicar a fórmula deDynkin para resolver este problema. Há uma restrição importante ao se aplicar a fórmula de Dynkin(1.34): a função f deve ser limitada. No caso de stops inferiores e superiores não é necessário sepreocupar com isto pois toda funcão contínua em um intervalo [a, c] finito é limitada. Porém, paraaplicar a fórmula de Dynkin com a = −∞ precisamos encontrar uma solução f da equação (1.74)tal que f(a) se mantenha limitado quando a → −∞. O limite a → −∞ de (1.75) fornece estasolução:

    Lema 1.10.2 A função ℎ(x; c) dada por

    ℎ(x; c) =A0(x)H(x)

    H(c)G(c) , (1.80)

    onde

    H(x) =

    ∫ x−∞

    et2/2

    A(t)2dt, (1.81)

    é uma solução da equação (1.74) tal que ℎ(c; c) = c e limx→−∞ ℎ(x; c) = 0. ⊓⊔

    Portanto, para encontrar o stop superior ótimo dado o preço inicial b fixo devemos maximizar

    ℎ(b; c) =A0(b)H(b)

    H(c)G(c) .

    Como A0(b)H(b) independe de c e é positivo, devemos então maximizar

    g(c) =G(c)

    H(c)=

    c

    H(c)A0(c).

    Usando a equação (1.76) obtemos

    H(c) =

    ∫ c−∞

    et2/2

    A(t)2dt =

    ∫ 0−∞

    et2/2

    A(t)2dt+

    ∫ c0

    et2/2

    A(t)2dt = H(0) + I(c, 0)

    eg(c) =

    c

    H(0)A0(c) +A0(c) I(c, 0).

    Note que H(0) depende apenas de r, via A0, mas não de c, portanto, podemos chamar este termode �r. Por exemplo, o Mathematica mostra que

    �1/100 = 80.34014871205489.

    O lema 1.3.1 com f = A0 e x0 = 0 mostra que B(x) = A0(x) I(x, 0) é a solução de (1.74) comB(0) = 0 e B′(0) = 1. Logo, nosso objetivo é maximizar

    g(c) =c

    �rA0(c) +B(c).

  • 1.10 STOPS FIXOS PARA O PROCESSO DE ORNSTEIN-UHLENBECK 23

    Note que esta função não depende de b. Ou seja, o stop superior c∗ que encontrarmos deveria serindependente de b. Há um problema porém: e se b for maior que c∗? A resposta é simples: pareimediatamente! Ou seja, não devemos esquecer da restrição c ≥ b, mas há um procedimento simplespara lidar com o caso c∗ > b.

    1.10.1 Provas da seção 1.10

    Prova do lema 1.10.1. O lema 1.3.7 mostra que

    es2/2

    A0(t)2 ≤

    1

    m2e−s

    2/2t2−2r (1.82)

    para t grande. Isto mostra que I(+∞, b) < +∞. Um argumento análogo mostra que I(−∞, b) éfinita. A equação (1.76) mostra que

    G′(x)

    I ′(x, b)= eb

    2/2e−x2/2(A0(x)− xA0′(x)

    )= eb

    2/2e−x2/2

    (1− xA0

    ′(x)

    A0(x)

    )A0(x)

    O lema 1.3.7 mostra que existe xc e R > 0 tal se ∣x∣ ≥ xc então

    −eb2/2x2 1R<

    G′(x)

    I ′(x, b)≤ −eb2/2x2R.

    Isto leva à equação (1.79) e completa esta prova. ⊓⊔Prova do lema 1.10.2. É claro que ℎ(c; c) = A0(c)G(c) = c. Note que, para c fixo, f(x) =

    A0(x)H(x) satisfaz

    f ′(x) = A0′(x)H(x) +

    ex2/2

    A0(x). (1.83)

    Derivando novamente,

    f ′′(x) = A0′′(x)H(x) +

    A0′(x)ex

    2/2

    A0(x)2 + x

    ex2/2

    A0(x)− A0

    ′(x)ex2/2

    A0(x)2 .

    Com A0 é solução da equação (1.74) temos

    f ′′(x) =(xA0

    ′(x) + rA0(x))H(x) + x

    ex2/2

    A0(x)= rA0(x)H(x) + x

    (A0′(x)H(x) +

    ex2/2

    A0(x)

    )

    e a equação (1.83) mostra que f ′′(x) = rf + xf ′. Logo, f é solução de (1.74). Isto mostra que ℎtambém é solução de (1.74). Para mostrar que limx→−∞ ℎ(x) = 0 usaremos o seguinte lema:

    Lema 1.10.3 ∫ ∞x

    t2−2re−t2/2dt ≤ x1−2re−x2/2

    (1 +

    1

    x

    )(1.84)

    ⊓⊔

    O lema 1.3.7 mostra que se x < −xc então

    A0(x) ≤Mex2/2 ∣x∣r−1 .

  • 24 STOPS 1.11

    Combinando isto com o lema 1.10.3 temos então que para x < −xc,

    ℎ(x; c) ≤Mex2/2 ∣x∣r−1 × ∣x∣1−2r e−x2/2(

    1 +1

    ∣x∣

    )G(c)

    H(c)≤ 2M G(c)

    H(c)∣x∣−r .

    Como r > 0 isto mostra que limx→−∞ ℎ(x; c) = 0 e completa a prova do lema 1.10.2. ⊓⊔Prova do lema 1.10.3. Tomando v = x� e u = e−x2/2 temos que∫ ∞x

    t�e−t2/2dt =

    ∫ ∞x

    udv = uv∣t=∞t=x −∫ ∞x

    vdu = x�−1e−x2/2 + (� − 1)

    ∫ ∞x

    t�−2e−t2/2dt.

    Quando � ≤ 1 isto mostra que

    0 ≤∫ ∞x

    t�e−t2/2dt ≤ x�−1e−x2/2.

    As duas últimas equações levam a∫ ∞x

    t2−2re−t2/2 = x1−2re−x

    2/2 + (1− 2r)∫ ∞x

    t1−2re−t2/2dt ≤ x1−2re−x2/2 + x−2re−x2/2.

    Isto prova o lema. ⊓⊔

    1.11 Stops de queda

    Esta seção discute stops baseados em quedas nos preços. Analisamos a situação na qual encer-ramos uma operação se o preço atingir um limite superior z ou tiver uma queda de um certo valord em relação ao preço máximo atingido desde o início da operação.

    Esta situação é descrita na figura 1.2. Ela apresenta dois casos, ambos com preço inicial v. Noprimeiro caso o preço atinge um valor m superior a v mas logo em seguida tem uma queda ded unidades entre o instante em que o máximo m foi atingido e instante �1. Logo após a quedaencerramos a operação e recebemos uma utilidade U(m− d) descontada por uma taxa de juros�. No segundo caso o preço sobe e atinge um limite superior z no instante �2. Neste momentoliquidamos nossa posição e embolsamos uma utilidade U(m− d) descontada pela mesma taxa �.

    dv

    z

    �1

    �2

    ganho e−��2U(z)

    m

    ganho e−��1U(m− d)

    Figura 1.2: A determinação de stops de queda.

  • 1.11 STOPS DE QUEDA 25

    Em muitos casos a utilidade no parágrafo acima é o próprio preço. Porém considerar utilidadesmais gerais nos permite lidar com custos de transação ou mesmo o custo do aluguel de ações. Asituação descrita nesta seção se aplica mais a operações de compra, porém a a situação para vendaé análoga: colocamos um stop inferior fixo e uma tolerância máxima de subida no preço. Podemosentão descontar da utilidade o custo do aluguel em caso de venda de uma ação alugada.

    Na verdade, lidaremos com um caso mais geral: permitiremos que o limite de queda d dependado máximo m. Equivalentemente, consideraremos que o stop de queda é dado por uma função�(m). Por exemplo, com os resultados apresentados aqui podemos analisar, por exemplo, a políticade parar após uma queda de 10% do preço, que corresponde a tomar �(m) = 0.9m. Além disso, aoestudar o limite z →∞ podemos entender também a estratégia de não usar limites superiores.

    Em termos formais, dado uma função contínua � : R 7→ R e um processo de preços descritopela equação diferencial estocástica

    dpt = �(pt) dt+ �(pt) dBt (1.85)

    definimos o processo dos máximos:mt = sup

    0≤s≤tpt

    e os tempos de parada

    �z = inf { t ≥ 0 tal que pt = z }, �� = inf { t ≥ 0 tal que pt ≤ �(mt) } (1.86)

    e� = min { �z, �� }. (1.87)

    Dado v ∈ (−∞, z] e uma função utilidade U : R 7→ R, o valor esperado do ganho será então

    g(v, z, �) = E(e−��U(p� )

    ). (1.88)

    Nas próximas subseção mostraremos que, sob as hipóteses descritas abaixo,

    g(v, z, �) = e− (v,z,�)

    (U(z)−

    ∫ zv

    e (s,z,�)U(�(s))

    B(�(s) , s)ds

    ), (1.89)

    onde (v, z, �) =

    ∫ zv

    A(�(s) , s)

    B(�(s) , s)ds (1.90)

    e A e B são funções com parâmetros x e v tais que, para v fixo, f(x) = A(x, v) e f(x) = B(x, v)são as soluções da equação diferencial

    �(x)2

    2f ′′(x) + �(x) f ′(x)− �f(x) = 0 (1.91)

    que satisfazem as condições iniciais

    A(v, v) = 1, A′(v, v) = 0, B(v, v) = 0 e B′(v, v) = 1. (1.92)

    Esta seção se baseia em duas hipóteses:

  • 26 STOPS 1.11

    ∙ A função � : R 7→ R satisfaz �(u) < u para todo u ∈ R e é localmente Lipschitz, ou seja paracada v ∈ R existem � e � positivos tais que, para u,w ∈ R com ∣u− v∣ < � e ∣w − v∣ < �,temos que ∣�(u)− �(w)∣ < � ∣u− w∣.

    ∙ As funções � e � na equação (1.85) são Lipschitz contínuas e �(x) > 0 para todo x ∈ R. Estassão as condições padrão para equações diferencias estocásticas (veja Øksendal (2007).)

    Estas hipóteses estarão implícitas em tudo que enunciarmos e não as repetiremos.Acreditamos que a abordagem apresentada aqui é original, mas ela certamente foi motivada

    pelos trabalhos Siegert (1953), Lehoczky (1977), Iglehart (1995) e Rogers (2010), que por sinaltambém se baseiam em, ou redescobrem, resultados de trabalhos anteriores.

    1.11.1 As condições de Otimalidade

    É fácil calcular a derivada de (1.89) com respeito a z:

    ∂g

    ∂z(v, z, �) = −A(�(z) , z)

    B(�(z) , z)g(v, z, �)+e− (v,z,�)

    (U ′(z)− U(�(z))

    B(�(z) , z)−∫ zv

    A(�(z) , z) e (s,z,�)U(�(s))

    B(�(z) , z)B(�(s) , s)ds

    )

    =e− (v,z,�)

    B(�(z) , z)

    {U ′(z)B(�(z) , z)− U(�(z))− U(�(z))A(�(z) , z)

    }1.11.2 O movimento Browniano e o movimento Browniano geométrico

    Nesta seção analisamos o caso no qual a aleatoriedade vem de um processo da forma Xt =�t+�Bt, onde Bt é o movimento Browniano padrão. Ou seja, temos a equação diferencial estocástica

    dXt = �dt+ �dBt,

    a qual está associada a equação diferencial ordinária

    1

    2�2y′′ + ry′ − �y = 0.

    Esta EDO tem soluções da forma

    y(x) = C1e

    1x + C2e

    2x

    onde = 1 e = 2 são as raízes da equação

    1

    2�22 + r − � = 0.

    Ou seja,

    1 = −1

    �2

    (√r2 + 2��2 + r

    )< 0

    e

    2 =

    1

    �2

    (√r2 + 2��2 − r

    )> 0.

  • 1.11 STOPS DE QUEDA 27

    Segue que

    A(x, v) =1

    2 − 1

    (

    2e

    1(x−v) − 1e2(x−v)), (1.93)

    B(x, v) =1

    2 − 1

    (e2(x−v) − e1(x−v)

    ), (1.94)

    Logo,

    A′(x, v) =

    12

    2 − 1

    (e1(x−v) − e2(x−v)

    )= −12B(x, v) , (1.95)

    B′(x, v) =1

    2 − 1

    (

    2e

    2(x−v) − 1e1(x−v))

    =, (1.96)

    1.11.3 Determinando a função objetivo

    A determinação do valor esperado do ganho dados v e z e a função � se baseia na figura 1.3abaixo. Essa figura ilustra que, para v ≤ z, dado � > 0 existe �∗ tal que se 0 = � = v−u ≤ �∗ então∣∣∣∣g(v, z, �)− g(u, z, �)− U(�(v))−A(�(v) , v) g(v, z, �)B(�(v) , v) (v − u)

    ∣∣∣∣ ≤ � (v − u)e a fórmula (1.89) para g segue do seguinte lema:

    Lema 1.11.1 Considere um intervalo [y, z], funções contínuas a, b : [y, z] 7→ R e uma funçãolimitada f : [y, z] 7→ R. Se para todo � > 0 existir �� > 0 tal que, para u, v ∈ [y, z] com 0 ≤ v−u ≤ ��,

    ∣f(u)− f(v)− (a(v) f(v) + b(v)) (u− v)∣ ≤ � (v − u) (1.97)

    então, para todo u ∈ [y, z],

    f(u) = e−∫ zu a(s)ds

    (f(z)−

    ∫ zue∫ zs a(t)dtb(s) ds

    ). (1.98)

    ⊓⊔

    Em termos intuitivos, este lema está relacionado à solução da equação diferencial ordinária

    ∂g

    ∂v(v, z, �) =

    U(�(v))−A(�(v) , v) g(v, z, �)B(�(v) , v)

    .

    Ele toma conta de picuinhas técnicas envolvidas na solução desta EDO.Na figura 1.3, � = v − u > 0 é pequeno e � > 1 é uma constante de Lipschitz para � em [u, v]

    tal que �(v) +�� < u. Ela decompõe o espaço amostral Ωu dos caminhos que começam com p0 = uem de três eventos disjuntos

    Ωu = Ωu1 ∪ Ωu21 ∪ Ωu22,

    descritos assim:

    ∙ Ωu1 é formado pelos caminhos que começam com p0 = u e atingem v antes de atingir �(v)+��.Cada ! ∈ Ωu1 atinge v pela primeira vez no tempo �1(!). Alguns deles atingem z antes deuma queda significativa, como o caminho terminando em �11. Outros tem a queda antes deatingir z, como o caminho terminando em �12 na figura 1.3.

  • 28 STOPS 1.11

    m12

    �(m12)�12

    u

    v

    �(v) + ��

    �(v)− ��

    z

    �22

    �22 − �

    �21

    �2

    �1

    �11

    m22

    �(m22)

    Figura 1.3: Determinando o modelo para stops de queda.

    ∙ Os demais elementos de Ωu formam o conjunto Ωu2 = Ωu21∪Ωu22. Eles atingem o preço �(v)+��pela primeira vez no tempo �2(!). A partir dai temos duas possibilidades:

    – Cada ! ∈ Ωu21 atinge v pela primeira vez no instante �21(!), e isto ocorre antes de !atingir �(v)− ��.

    – Os elementos de Ωu22 atingem �(v)− �� no instante �22, antes de chegar a v.

    A figura 1.3 decompõe a análise dos caminhos em Ωu em três partes.

    1. Em uma primeira fase temos um problema de stops fixos, com limite inferior em �(v) + �� estop superior em v. Em seguida temos duas possibilidades:

    2. A partir de �1 temos um novo problema de stop de queda. Ele é muito parecido ao problematodo, só que agora começamos em v ao invés de u.

    3. A partir de �2 temos outro problema de stops fixos, com stop inferior em �(v) − �� e stopsuperior em v. O processo original certamente terminará até o instante �22 indicado na figura1.3 pois neste momento a queda de preço já é superior a u − �(u) pois, como � = v − u,�(v) ≤ �(u) + �� pela propriedade de Lipschitz e u− (�(v) + ��) ≥ u− �(u). Além disso, demodo parecido ao item (1) acima, o processo se renovará a partir do tempo �21.

    Isto sugere a seguinte decomposição para g(u, v, �) = E(e−�U(�)):

    g(u, v, �) = E(e−��U(p� ); Ω

    u1

    )+ E

    (e−��U(p� ); Ω

    u21

    )+ E

    (e−��U(p� ); Ω

    u22

    )(1.99)

    onde E(f ;C) indica o valor esperado da função f restrita ao conjunto C, ou equivalentemente,E(f ;C) = E(1{C} f), onde 1{C} é a função indicadora de C. Usaremos então o conhecimentoadquirido sobre stops fixos na seção 1.4 para analisar os três termos desta soma. Estes resultadoslevam ao seguinte lema:

  • 1.11 STOPS DE QUEDA 29

    Lema 1.11.2 Dado y < z e � > 0, existe �∗ > 0 tal que se u, v ∈ [y, z] e 0 ≤ v − u ≤ �∗ então∣∣∣∣E(e−��U(p� ); Ωu1)− (1− A(�(v) , v)B(�(v) , v))g(v, z, �) (v − u)

    ∣∣∣∣ ≤ �3 (v − u) , (1.100)∣∣E(e−��U(p� ); Ωu21)∣∣ ≤ �3 (v − u) , (1.101)∣∣∣∣E(e−��U(p� ); Ωu22)− U(�(v))B(�(v) , v) (v − u)∣∣∣∣ ≤ �3 (v − u) . (1.102)

    ⊓⊔

    Somando estas três desigualdades obtemos a hipótese (1.97) do lema ?? e a equação (1.89) seguedeste lema.

    Na próxima subseção provamos os lemas 1.11.1 e 1.11.2. A prova do lema 1.11.1 é uma repetiçãodos argumentos usados para provar a existência e unicidade das soluções diferenciais ordináriaslineares e é apresentada no fim da subseção 1.11.4, pois a hipótese é um pouco diferente da usual:exigimos apenas derivadas à esquerda. A prova do lema 1.11.2 é técnica, mas em termos intuitivos elatem dois ingredientes: a propriedade forte de Markov dos processos que satisfazem a equação (1.85)e a solução obtida para o problema de stops fixos na seção 1.4. A propriedade forte de Markov dizque o processo que estamos estudando se renova a partir do instante �1 e por isso E(e−��U(p� ); Ωu1)pode ser expressa como um múltiplo de g(v, z, �), onde o fator de multiplicação reflete o ocor-rido até atingirmos �1. Em princípio esta idéia de renovação não se aplica a E(e−��U(p� ); Ωu21)e E(e−��U(p� ); Ωu22) pois o máximo atingido entre 0 e �2 afeta o processo após �2. Porém, comoa prova do lema mostra, este efeito é muito pequeno e é possível obter as estimativas (1.100) –(1.102). O efeito é tão pequeno que o argumento mais simples, porém impreciso, que desconsideraa dependência de �21 e �22 do passado t < �2 leva ao resultado correto.

    1.11.4 Provas da seção 1.11

    Prova do lema 1.11.1. Tome v ∈ [y, z]. Pela continuidade de a e b, que é uniforme no intervalofechado [y, z], e pela expansão e−x − 1 + x = O

    (x2), dado � > 0 existe n ∈ N tal que os pontos

    vk = v + k(z − v)/n, k = 0, . . . , n satisfazem, para k = 1, . . . , n,

    ∣f(vk)− f(vk−1)− (a(vk) f(vk) + b(vk)) (vk − vk−1)∣ ≤ � (vk − vk−1) , (1.103)∣∣∣e− ∫ vkvk−1 a(s)ds − 1 + a(vk) (vk − vk−1)∣∣∣ ≤ � (vk − vk−1) , (1.104)∣∣∣e− ∫ vkvk−1 a(s)ds − 1∣∣∣ ≤ �, (1.105)onde M = supv≤s≤z ∣a(s)∣+ ∣b(s)∣+ ∣f(s)∣. As condições acima implicam que

    e∫ zvka(s)ds

    f(vk)− e∫ zvk−1

    a(s)dsf(vk−1) = e

    ∫ zvk−1

    a(s)ds((e−∫ vkvk−1

    a(s)ds − 1)f(vk) + f(vk)− f(vk−1)

    )= e

    ∫ zvka(s)ds

    b(vk) (vk − vk−1) + e∫ zvk−1

    a(s)ds(�k − �k − �k)

  • 30 STOPS 1.11

    onde

    �k = f(vk)− f(vk−1)− (a(vk) f(vk) + b(vk)) (vk − vk−1) , (1.106)

    �k =(e−∫ vkvk−1

    a(s)ds − 1− a(vk) (vk − vk−1))f(vk) , (1.107)

    �k =(e−∫ vkvk−1

    a(s)ds − 1)b(vk) (vk − vk−1) . (1.108)

    As condições (1.97) e (1.103)– (1.104) implicam que

    ∣�k∣ ≤ � (vk − vk−1) , ∣�k∣ ≤M� (vk − vk−1) e ∣�k∣ ≤M� (vk − vk−1) .

    Logo,∣∣∣e∫ zvk−1 a(s)ds (�k − �k − �k)− e∫ zvk a(s)dsb(vk) (vk − vk−1)∣∣∣ ≤ eM(z−v)(2M + 1)� (vk − vk−1) .Como

    f(z) = e∫ zv a(s)dsf(v) +

    n∑k=1

    (e∫ ztka(s)ds

    f(tk)− e∫ ztk−1

    a(s)dsf(tk−1)

    )temos que∣∣∣∣f(z)− e∫ zv a(s)dsf(v)− ∫ z

    ve∫ zs a(t)dtb(s) ds

    ∣∣∣∣ ≤∣∣∣∣∣∫ zve∫ zs a(t)dtb(s) ds−

    n∑k=1

    e∫ zvka(s)ds

    b(vk) (vk − vk−1)

    ∣∣∣∣∣++

    n∑k=1

    ∣∣∣e∫ zvk a(s)dsf(vk)− e∫ zvk−1 a(s)dsf(vk−1)− e∫ zvk a(s)dsb(vk) (vk − vk−1)∣∣∣≤

    ∣∣∣∣∣∫ zve∫ zs a(t)dtb(s) ds−

    n∑k=1

    e∫ zvka(s)ds

    b(vk) (vk − vk−1)

    ∣∣∣∣∣+ eM(v−z) (2M + 1) (v − z) �.Como a e b são contínuas e � > 0 é arbitrário, o termo na última linha converge para 0 quandon→∞ e �→ 0. Portanto,

    f(z)− e∫ zv a(s)dsf(v)−

    ∫ zve∫ zs a(t)dtb(s) ds = 0,

    de onde obtemos (1.98). ⊓⊔Prova do lema 1.11.2. Esta prova usa a teoria de processos de Markov, como descrita no

    capítulo III de Williams (2000a). Essa teoria considera que o espaço amostral Ω do processo pt naequação (1.85) é o conjunto f : [0,∞) 7→ R e se baseia em uma família Px de probabilidades, umapara cada x ∈ R. Dentre outras propriedades, Px atribui probabilidade 1 ao subespaço das funçõesf ∈ Ω com f(0) = x. A teoria expressa a equação (??) como

    g(u, z, �) = Eu(G), para G = e−��U(p� ) . (1.109)

  • 1.11 STOPS DE QUEDA 31

    e as equações (1.100)–(1.102) se tornam∣∣∣∣Ev(G; Ωu1)− (1− A(�(v) , v)B(�(v) , v))g(v, z, �) (u− v)

    ∣∣∣∣ ≤ �3 (v − u) , (1.110)∣Ev(G; Ωu21)∣ ≤

    3(v − u) , (1.111)∣∣∣∣Ev(G; Ωu22)− U(�(v))B(�(v) , v) (u− v)

    ∣∣∣∣ ≤ �3 (v − u) , (1.112)Para provar estas desigualdades consideramos os tempos de parada �1 e �2 descritos na figura 1.3 edefinimos tempo de parada T = inf { �1, �2 } e o operador de shift associado: (�T!)(t) = !(t+ T ).Note que se ! ∈ Ω1 então T (!) = �1(!) e �(�T!) = �(!)− T (!), pois o ocorrido para 0 ≤ s ≤ �1 éirrelevante na determinação de mt = sup0≤s≤t !s para t ≥ �1. Logo, para tais !’s

    (�T!)�(ΩT!) = !(�(ΩT!)− T (!)) = !�(!)

    e(�TG)(!) = e

    −��(�T!)U(

    (�T!)�(�T!)

    )= e−�(�(!)−T(!))U(!� ) = e

    �T(!)G(!) . (1.113)

    Segue então do teorema forte de Markov, enunciado na página 250 de Williams (2000a), que

    Eu(G; Ωu1) = Eu(e−��1e�TG; Ωu1

    )= Eu

    (e−��1�TG; Ω

    u1

    )= Eu

    (e−��1Ev(G); Ωu1

    ).

    Como, por definição, Ev(G) = g(v, z, �) concluímos que

    Eu(G; Ωu1) = Eu(e−��1 ; Ωu1

    )g(v, z, d) . (1.114)

    Esta equação indica a relevância de Eu(e−��1 ; Ωu1) e também motiva a análise de Eu(e−��1 ; Ωu1) e éresumida no seguinte lema, que é provado no fim desta seção:

    Lema 1.11.3 Dadas as funções A e B em (1.92) e � : [y, z] 7→ R tal que �(u) < u e � > 1 existem�1,M1 > 0 tais que

    �(v) + �(v − u) < v, (1.115)∣∣∣∣Eu(e−��1 ; Ωu1)− 1− A(�(v) , v)B(�(v) , v) (u− v)∣∣∣∣ ≤ M1 (u− v)2 , (1.116)∣∣∣∣Eu(e−��2 ; Ωu2)− 1B(�(v) , v) (u− v)∣∣∣∣ ≤ M1 (u− v)2 , (1.117)

    Pu(Ωu2) ≤ M1 (v − u) , (1.118)

    para todo u, v ∈ [y, z] e 0 ≤ v − u ≤ �1. ⊓⊔

    A desigualdade (1.110) segue de (1.114) e (1.116) se tomarmos

    0 ≤ v − u ≤ �2 = min{�1,

    3M1

    }.

  • 32 STOPS 1.11

    Substituindo U por 1 na equação (1.113) e � por �21 concluímos que, em Ωu21, e−��21 =e�T �T e

    −��21 e portanto, fazendo b = �(v) + �� e notando que T = �2 em Ωu21, obtemos

    Eu(e−��21 ; Ωu21

    )= Eu

    (e−��2��2e

    −��21 ; Ωu21)

    = Eu(e−��2Er

    (e−��21

    ); Ωu21

    )=

    Eu(e−��2 ; Ωu21

    )Eb(e−��21

    )≤ Eu

    (e−��2 ; Ωu2

    )Eb(e−��21

    ). (1.119)

    O mesmo argumento usado para provar o lema 1.11.3 mostra que existe uma constante M2 tal quese 0 ≤ v − u ≤ �1 então

    Eb(e−��21

    )≤M2 (v − u) .

    Tomando o limite (monótono) � ↓ 0 na penúltima equação e usando (1.118) concluímos que

    0 ≤ v − u ≤ �1 ⇒ Pu(Ωu21) ≤M2M1 (u− v)2 , (1.120)

    ou seja, a probabilidade de Ωu21 é muito pequena. Como conseqüência, para que (1.111) seja satisfeitabasta tomarmos

    0 ≤ v − u ≤ �3 = min

    {�2,

    3M1M2 supx∈[y,z] 1 + ∣U(x)∣

    }.

    Para analisar (1.112) note que se ! ∈ Ωu22 então

    e−��(!)U(!� ) = e−��2(!)U(�(v)) + �1(!) + �2(!) (1.121)

    para

    �1(!) =(e−��(!) − e−��2(!)

    )U(�(v)) e �2(!) = e

    −��(!) (U(!� )− U(�(v)))

    Note que se ! ∈ Ωu22 então !� ∈ [�(v)− ��, �(v) + ��]. Pela continuidade de U , podemos escolher�4 ∈ (0, �3] tal que

    0 ≤ v − u ≤ �4 ⇒ ∣U(!� )− U(�(v))∣ ≤�

    6M1,

    para M1 no lema 1.11.3. Para tais !’s, e−�� ≤ e−��2 Logo, se 0 ≤ v − u ≤ �4 então (1.118) leva a

    ∣Eu(�2; Ωu21)∣ ≤ Eu(∣�2(!)∣ ; Ωu21) ≤Eu(e−��2 ; Ωu21)�

    6M1≤ E

    u(e−��2 ; Ωu2)�

    6M1≤ �

    6(v − u) . (1.122)

    Além disso, �2(!) ≤ �(!) ≤ �22(!). Portanto

    ∣�1(!)∣ =∣∣∣e−��(!) − e−��2(!)∣∣∣ ∣U(�(v))∣ = e−��2(!) ∣∣∣1− e−�(�(!)−�2(!))∣∣∣ ∣U(�(v))∣

    ≤ e−��2(!)(

    1− e−�(�22(!)−�2(!)))∣U(�(v))∣ .

    Aplicando argumento usado em (1.119) com �21 substituído por �22, obtemos

    ∣Eu(�1; Ωu22)∣ ≤ Eu(e−��2(!)

    (1− e−�(�22(!)−�2(!))

    ); Ωu22

    )∣U(�(v))∣

    = Eu(e−��2(!)Eb

    (1− e−��22

    )∣U(�(v))∣ ; Ωu22

    )= Eu

    (e−��2(!); Ωu22

    )(1− Eb

    (e−��22

    ))∣U(�(v))∣ .

  • 1.11 STOPS DE QUEDA 33

    O mesmo argumento usado para provar (1.116), substituindo g por 1, mostra que existe �5 ∈ (0, �4]e uma constante M2 tal que

    0 ≤ v − u ≤ �5 ⇒ 0 ≤(

    1− Eb(e−��22

    ))≤M3 (v − u) .

    Logo, se para tais u e v, a penúltima equação e (1.118) mostram que

    ∣Eu(�1; Ωu22)∣ ≤ Eu(e−��2(!); Ωu2

    )M2 ∣U(�(v))∣ (v − u) ≤M�M1M3 (u− v)2 , (1.123)

    Segue então das equações (1.118), (1.122) (1.121), (1.122) e (1.123) que se 0 ≤ u− v ≤ �5 então∣∣∣∣Eu(e−��(!)U(!� ) ; Ωu22)− U(�(v))B(�(v) , v) (u− v)∣∣∣∣ ≤ ∣∣∣∣Eu(e−��(!)U(!� ) ; Ωu2)− U(�(v))B(�(v) , v) (u− v)

    ∣∣∣∣+∣∣∣Eu(e−��(!)U(!� ) ; Ωu21)∣∣∣+ ∣Eu(�1); Ωu22∣+ ∣Eu(�2); Ωu22∣≤ (M1M2 +M2M� +M�M1M3) (v − u)2 +

    6(u− v) .

    Basta tomarmos então

    �∗ = min

    {�5,

    6 (M1M2 +M2M� +M�M1M3)

    }para verificar (1.112) e completar esta prova. ⊓⊔

    Prova do lema 1.11.3 É conveniente considerar as funções

    ℎ1(u, v, r) = 1−Ar(�(v) + � (v − u) , v)Br(�(v) + � (v − u) , v)

    Br(u, v) , (1.124)

    ℎ2(u, v, r) =Br(u, v)

    Br(�(v) + � (v − u) , v), (1.125)

    onde o índice r enfatiza a dependência de A e B no parâmetro r = � na sua definição. A teoria deequações diferenciais mostra que esta dependência é contínua. Por hipótese e continuidade de �,�0 = infv∈[y,z](v − �(v))/(2�) é positivo para todo v ∈ [y, z]. Logo

    v − u < �0 ⇒ �(v) + � (v − u) ≤v + �(v)

    2= v − v − �(v)

    2< v.

    Isto mostra (1.115) e o denominador de ℎ1 e ℎ2 não se anula para tais u’s e v’s, pois a teoria daseção (1.4) mostra Br(x, v) < 0 para x < v. como Ar e Br são definidas em termos da equaçãodiferencial (1.91) elas tem derivadas parciais com respeito a u com uma certa constante de LipschitzΛ no compacto

    { (u, v, �) com 0 ≤ r ≤ �, u, v ∈ [y, z] com 0 ≤ v − u ≤ �0 },

    Tomaremos

    M1 = 1 + 2Λ + sup0≤r≤�

    1

    B(�(v) , v, �)e �1 = min

    {1,

    �02M1

    }.

  • 34 STOPS 1.11

    Considerando a = �(v)− �� e c = v temos que Ar(c) = 1 e Br(c) = 0 e

    Ar(c)Br(a)−Br(c)Ar(a) = Ar(v, v)Br(a, v)−Ar(a, v)Br(v, v) = Br(a, v)

    Considerando agora uma utilidade V com V (a) = 0 e V (c) = 1 para o problema de stops fixos comb = u, stop inferior a e stop superior c obtemos da equação (P??-(??)) que

    Eu(e−��1 ; Ωu1

    )= 1 +

    A�(a, v)

    B�(a, v)B�(u, v) = ℎ1(u, v, �)

    Usando ′ para denotar derivada com respeito a primeira coordenada, concluímos das propriedadesde A e B que ℎ1′(v, v, r) = Ar(�(v) , v) /Br(�(v) , v). Segue então do teorema do valor médio e dofato que ℎ1′(., v, r) tem constante de Lipschtz Λ que

    Eu(e−��1 ; Ωu1

    )= 1 +

    A�(�(v) , v)

    B�(�(v) , v)(u− v) + �1 com ∣�1∣ ≤ Λ (u− v)2 .

    Como M1 > Λ, isto prova (1.116). Um argumento similar tomando V (a) = 1 e V (c) e usando aequação (P??-(??)) leva a

    Eu(e−��2 ; Ωu2

    )=

    B�(u, v)

    Br(�(v) + � (v − u) , v)= ℎ2(u, v, �) , ℎ2

    ′(v, v, r) = 1/Br(�(v) , v)

    eEu(e−��2 ; Ωu2

    )=

    1

    B�(�(v) , v)(u− v) + �2 com ∣�2∣ ≤ Λ (u− v)2 ,

    mostrando (1.117). Finalmente, tomando o limite � ↓ 0 nesta desigualdade concluímos que

    Pu(Ωu2) ≤1

    B0(�(v) , v)(u− v) + Λ (u− v)2 ≤

    (1

    B0(�(v) , v)+ Λ

    )(v − u) ≤M1 (v − u) .

    Isto prova a equação (1.118) e completa a prova deste lema. ⊓⊔

  • Referências Bibliográficas

    Figueiredo(1997) D. Figueiredo. Análise de Fourier e equações diferenciais parciais. IMPA,Projeto Euclides, 3o edição. Citado na pág. 13

    Iglehart(1995) W. Glynn & L. Iglehart. Trading securities using trailing stops. ManagementScience, (41):1096–1106. Citado na pág. 26

    Lehoczky(1977) J. Lehoczky. Formulas for stopped diffusion processes with stopping times basedon the maximum. The Annals of Probability, 5(4):601–607. Citado na pág. 26

    Neves(2001) D. Figueiredo & A. Neves. Equações Diferenciais Aplicadas. Sociedade Brasileira deMatemática. Citado na pág. 13

    Øksendal(2007) B. Øksendal. Stochastic differential equations. Springer Verlag, 6o edição. Citadona pág. 1, 11, 17, 26

    Rogers(2010) N. Imkeller & L. Rogers. Trading to stops. Preprint disponível online no endereçohttp://www.statslab.cam.ac.uk/˜chris/papers.html, 2010. Citado na pág. 12, 26

    Siegert(1953) D. Darling & A. Siegert. The first passage problem for a continuous markov process.Ann. Math. Statist., (24):624–639. Citado na pág. 26

    Sotomayor(1979) J. Sotomayor. Lições de equações diferenciais ordinárias. IMPA, Projeto Eu-clides. Citado na pág. 1, 2

    Williams(2000a) C. Rogers & D. Williams. Diffusions, Markov Processes and Martingales, vol-ume I. Cambridge University Press, 2o edição. Citado na pág. 1, 30, 31

    Williams(2000b) C. Rogers & D. Williams. Diffusions, Markov Processes and Martingales, vol-ume II. Cambridge University Press, 2o edição. Citado na pág. 11

    35

    StopsAviso aos navegantesIntroduçãoEquações diferenciais ordináriasTeoria básicaAs funções A e BSoluções por sériesProvas da seção 1.3

    A fórmula de DynkinCondições para aplicar a fórmula de DynkinStops no tempoO Processo de Ornstein UhlenbeckSolução da equação de Ornstein-UhlenbeckEstimando os parâmetros para o processo de Ornstein-UlhenbeckProvas da seção 1.9

    Stops Fixos para o processo de Ornstein-UhlenbeckProvas da seção 1.10

    Stops de quedaAs condições de OtimalidadeO movimento Browniano e o movimento Browniano geométricoDeterminando a função objetivoProvas da seção 1.11

    Referências Bibliográficas