aula03-Cadeias_de_Markov
-
Upload
brsdivecom -
Category
Documents
-
view
217 -
download
0
Transcript of aula03-Cadeias_de_Markov
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 1/26
MOQ-12Cadeias de Markov
Professora:
Denise Beatriz T. P. do Areal Ferrari
Instituto Tecnológico de Aeronáutica
Divisão de Engenharia Mecânica-Aeronáutica
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 2/26
RoteiroIntrodução
Processos EstocásticosMotivação
Cadeias de Markov
• Definição• Propriedade Markoviana
• Propriedade de Estacionariedade
• Matriz de Transição
• Equação de Chapman-Kolmogorov
• Vetor de Probabilidades Iniciais
• Classificação de Estados
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 3/26
IntroduçãoHipótese de Independência
Cadeias de Markov:• podem ser considerados como a generalização mais
simples do esquema de experimentos independentes.
Esses processos são o ponto inicial para o
desenvolvimento de um novo e importante ramoda Teoria das Probabilidades:Teoria dos Processos Estocásticos.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 4/26
Processos EstocásticosFunções Aleatórias
• Intervalo de tempo: série temporal
Exemplos:• flutuações de câmbio;
• sinais (fala, áudio e vídeo);
• dados médicos (eletrocardiograma, pressão sangüínea etemperatura);
• movimentos aleatórios (Movimento Browniano e Passeio Aleatório)
• Região do espaço: campo aleatório
Exemplos:• imagens estáticas;
• topografias aleatórias (satélite);
• variações de composição em um material não homogêneo.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 5/26
Motivação (1)Problema em estudo:
Estamos medindo a temperatura do ambiente externoa cada hora, durante um dia.
Temperaturafl fenômeno aleatório.
(resulta de uma conjuminação de fatores meteorológicos que não podemser determinados com exatidão)
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 6/26
Motivação (2)Para medir esta temperatura, usamos um termômetro que
mede desde 0°C até 50°C, com divisões de 10°C.• temos um conjunto finito de resultados ou estados possíveis:0°C, 10°C, 20°C, 30°C, 40°C e 50°C.
Sejam:X1 = temperatura medida no início do período (primeira observação)X2 = temperatura medida na segunda observação (1 hora depois de X1)
Xn = temperatura medida no n-ésimo período observado, n = 1,2,...
A seqüência X1, X2,..., X24 é um exemplo de Processo Estocástico.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 7/26
Motivação (3)A seqüência X1, X2,..., X24 é um exemplo de Processo Estocástico.
Processo estocástico de parâmetro discreto: instantes pontuais de tempo (intervalos a cada hora)
X1 = estado inicial do processo
Xn = estado do processo no instante n.
Processo estocástico de parâmetro contínuo: Seestivéssemos monitorando a temperatura continuamente.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 8/26
Motivação (4) Espaço de estados (E): Xnœ E
• Discreto:
E = {x œ | x≥0°C} = {0°C, 10°C, 20°C, 30°C, ... }
O termômetro utilizado pode medir apenas um número definido detemperaturas (variações de 10°C).
• Contínuo:
E = {x œ | x ≥ 0°C}O termômetro utilizado pode medir qualquer temperatura.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 9/26
Cadeias de MarkovÉ um tipo especial de processo estocástico, que satisfaz as
seguintes condições:
• o parâmetro n é discreto (ex: tempo)
• o espaço de estados E é discreto (coleção de estados possíveis)E pode ser finito ou infinito e enumerável. Vamos considerar E finito. Ascadeias de Markov deste tipo são chamadas Cadeias de Markov Finitas.
• o estado inicial do processo ou o espaço de estados é conhecido.
• vale a propriedade markoviana
• vale a propriedade de estacionariedade
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 10/26
Propriedade MarkovianaPara n = 1,2,..., e qualquer seqüência de estados possíveis s1 , s2 ,...,sn+1 ,
com Xn, Xn-1,..., X1 conhecidos:
Em palavras:As probabilidades de todos os estados futuros X j (j>n) dependemsomente do estado atual Xn, mas não dependem dos estados anterioresX1,..., Xn-1.
O estado “futuro” do sistema depende do “presente”, mas não depende do“passado”.
)|(
),...,,|(
11
221111
nnnn
nnnn
s X s X P
s X s X s X s X P
===
=====
++
++
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 11/26
Propriedade de Estacionariedade
Probabilidades de transição: P(Xn+1= s j|Xn= si)
Probabilidades de transição estacionárias:
A cadeia de Markov é dita homogênea ou estacionária.
si s j
P(Xn+1= s j|Xn= si)
P(Xn+1= si|Xn= si)
,...2,1 .)|( 1 =====+ n pcte s X s X P ijin jn
= pii
= pij
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 12/26
Matriz de TransiçãoCadeia de Markov Finita e Estacionária
k possíveis estados: s1 , s2 ,...,sk
⎥⎥
⎥
⎦
⎤
⎢⎢
⎢
⎣
⎡
=
333231
232221
131211
3
2
1
321
p p p
p p p
p p p
s
s
s
P
s s s
∑= ==
≥k
jk i pij
pij
1 ,...1 ,1
0
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 13/26
ExemploSuponha que na Terra de Oz, nunca há dois dias
ensolarados consecutivos.• Se em um dia qualquer faz sol, no dia seguinte pode tanto nevar
quanto chover.
• Se chover, metade das vezes continua chovendo no dia seguinte e
nas outras ocasiões pode tanto fazer sol ou nevar.• Se nevar, apenas metade das vezes o dia seguinte também neva.
Queremos:
Representar graficamente a Cadeia de MarkovConstruir sua matriz de transição
Determinar a probabilidade de nevar daqui a dois dias?
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 14/26
Equação de Chapman-KolmogorovSejam:
• P a matriz de transição de uma cadeia de Markov.• O elemento pij
(n) da matriz P(n) representa a probabilidade de que o processo, iniciado no estado si, estará no estado s j, depois de n passos.
• u um instante qualquer entre 0 e n.
ou, alternativamente:
nu p p pk
r
un
rj
u
ir
n
ij <<=∑=
− 0 ,.1
)()()(
,... ,n p p s X s X P pk
r
rj
n
ir i jn
n
ij 21 ,)|(
1
)1(1
)( ===== ∑=
−
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 15/26
Vetor de Probabilidades Iniciais(a priori)Em muitas situações, não conhecemos o estado da Cadeia de Markov no instante
inicial.
Cadeia de Markov Finita e Estacionáriak possíveis estados: s1 , s2 ,...,sk
Para i=1,...,k:vi = probabilidade de que o processo esteja no estado si no instante inicial
A qualquer vetor w = (w1 ,..,wk ), tal que wi≥ 0 e w1+w2+...+wk =1 chamamosvetor de probabilidades.
O vetor v =(v1 ,..., vk ) é chamado vetor de probabilidades iniciais, pois representaas probabilidades dos vários estados da cadeia no instante de início do processo.
1 e 01
=≥ ∑=
k
i
ii vv
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 16/26
Vetor de Probabilidades Iniciais(a priori)Teorema:
• Seja P a matriz de transição de uma cadeia de Markov• v o vetor de probabilidades iniciais.
Então, a probabilidade de que o processo esteja no estado s j depois den passos é a j-ésima componente do vetor:
onde:
v(n) = [v1(n) v2(n)...vk (n)]vi
(n) = P(Xn= si)
nn P .)( vv =
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 17/26
Classificação de EstadosA fim de ilustrar as próximas definições, vamos utilizar a
Cadeia de Markov representada a seguir:
A
B
C
D
E⎥⎥⎥
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎢⎢⎢
⎣
⎡
=
2.08.00001.04.05.000
07.03.000
0005.05.00006.00.4
ED
C
BA
E D C BA
P
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 18/26
Definição: CaminhoDados dois estados si e s j, um caminho entre si e s jé uma seqüência de transições que começam em si
e terminam em s j, tais que cada transição tem uma probabilidade positiva de ocorrência.
1. Um estado s j é acessível a partir do estado si seexiste um caminho que liga si a s j.
2. Dois estados si e s j são comunicáveis se s j éacessível a partir de si e si é acessível a partir de s j.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 19/26
3. Um conjunto de estados E em uma cadeia de Markov é uma classe se nenhum estado fora de E é acessível por qualquer estado em E.Se a cadeia inteira é formada por uma única classe, isto é,
todos os estados são comunicáveis, a cadeia é ditairredutível.
4. Um estado si é absorvente se pii = 1.
5. Um estado si é transiente se existe um estado sj que éacessível a partir de si, mas o estado si não é acessível a
partir de sj.
6. Se um estado não é transiente ele é recorrente.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 20/26
7. Um estado si é periódico com período T>1 se T é omenor número tal que todos os caminhos quelevam do estado si de volta a si tem comprimento
múltiplo de T. Se um estado recorrente não é periódico ele é aperiódico.
8. Se todos os estados em uma Cadeia de Markov sãorecorrentes, aperiódicos e comunicáveis entre si,então a cadeia é dita ergódica.
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 21/26
ExemploSuponha que só existem dois refrigerantes: guaraná e soda.
• Se uma pessoa escolheu guaraná, existe 90% de chance de peçanovamente guaraná.
• Se a pessoa tiver escolhido soda, a chance de que peça esterefrigerante outra vez é de 80%.
1. Se uma pessoa é atualmente consumidora de soda, qual a probabilidade de que escolha guaraná no segundo pedido futuro?
2. Se a pessoa é atualmente consumidora de guaraná, qual é a probabilidade de que escolha guaraná no terceiro pedido futuro?
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 22/26
SoluçãoOs pedidos de cada consumidor podem ser interpretados como uma Cadeia deMarkov de dois estados, descritos como:
Estado 1 = a pessoa escolheu guaraná da última vez (G)Estado 2 = a pessoa escolheu soda da última vez (S)
Vamos definir:X0= refrigerante escolhido no presenteXn= refrigerante escolhido no n-ésimo pedido futuro
A seqüencia X0, X1,... pode ser descrita como a seguinte Cadeia de Markov:
Agora sim, podemos responder às perguntas...
⎥⎦
⎤⎢⎣
⎡=8.02.01.09.0
SG
SG
P G
S
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 23/26
1. Se uma pessoa é atualmente consumidora de soda, qual a probabilidade
de que escolha guaraná no segundo pedido futuro?
Queremos:
De outra maneira:
)2(2102 )|( pS X G X P ===
⎥⎦
⎤⎢⎣
⎡=⎥
⎦
⎤⎢⎣
⎡⎥⎦
⎤⎢⎣
⎡=
66.034.0
17.083.0
8.02.0
1.09.0
8.02.0
1.09.02 P
S
G
S
G
vez 0 vez 1 vez 2
p22 p21
P 21 p11
p21(2) =
(probabilidade de que o próximo pedidoseja soda e o segundo pedido seja soda)
+(probabilidade de que o próximo pedidoseja guaraná e o segundo pedido seja soda)
= p21 p11 + p22 p21
=(0.2)(0.9)+(0.8)(0.2)=0.34
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 24/26
2. Se a pessoa é atualmente consumidora de guaraná, qual é a
probabilidade de que escolha guaraná no terceiro pedido futuro?
Queremos: )3(1103 )|( pG X G X P ===
⎥
⎦
⎤⎢
⎣
⎡=⎥
⎦
⎤⎢
⎣
⎡⎥
⎦
⎤⎢
⎣
⎡==
562.0438.0
219.0781.0
66.034.0
17.083.0
8.02.0
1.09.0. 23 P P P
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 25/26
2. Se a pessoa é atualmente consumidora de guaraná, qual é a
probabilidade de que escolha guaraná no terceiro pedido futuro?De outra maneira:
vez 0 vez 1 vez 2 vez 3
p12 p22 p21
p21
p12
p11 p11 p11
G
G
S
G
G
S
p11
(3)
= p12 p22 p21+ p12 p21 p11 + p11 p12 p21 + p11 p11 p11 ==(0.1)(0.8)(0.2)+(0.1)(0.2)(0.9) +(0.9)(0.1)(0.2) +(0.9)(0.9)(0.9) = 0.781
8/7/2019 aula03-Cadeias_de_Markov
http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 26/26
Suponha, que 60% das pessoas bebem guaraná e 40% bebem soda agora.Daqui a três pedidos, que fração das pessoas beberá guaraná?
Queremos: v(3) = v. P 3
Temos: v =[0.6 0.4]
Portanto:
]3562.06438.0[562.0438.0
219.0781.0]4.06.0[. 3)3( =⎥
⎦
⎤⎢⎣
⎡== P vv