aula03-Cadeias_de_Markov

26
MOQ-12 Cadeias de Markov Professora: Denise Beatriz T. P. do Areal Ferrari [email protected] Instituto Tecnológico de Aeronáutica Divisão de Engenharia Mecânica-Aer onáutica

Transcript of aula03-Cadeias_de_Markov

Page 1: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 1/26

MOQ-12Cadeias de Markov

Professora:

Denise Beatriz T. P. do Areal Ferrari

[email protected]

Instituto Tecnológico de Aeronáutica

Divisão de Engenharia Mecânica-Aeronáutica

Page 2: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 2/26

RoteiroIntrodução

Processos EstocásticosMotivação

Cadeias de Markov

• Definição• Propriedade Markoviana

• Propriedade de Estacionariedade

• Matriz de Transição

• Equação de Chapman-Kolmogorov

• Vetor de Probabilidades Iniciais

• Classificação de Estados

Page 3: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 3/26

IntroduçãoHipótese de Independência

Cadeias de Markov:•  podem ser considerados como a generalização mais

simples do esquema de experimentos independentes.

Esses processos são o ponto inicial para o

desenvolvimento de um novo e importante ramoda Teoria das Probabilidades:Teoria dos Processos Estocásticos.

Page 4: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 4/26

Processos EstocásticosFunções Aleatórias

• Intervalo de tempo: série temporal 

Exemplos:• flutuações de câmbio;

• sinais (fala, áudio e vídeo);

• dados médicos (eletrocardiograma, pressão sangüínea etemperatura);

• movimentos aleatórios (Movimento Browniano e Passeio Aleatório)

• Região do espaço: campo aleatório

Exemplos:• imagens estáticas;

• topografias aleatórias (satélite);

• variações de composição em um material não homogêneo.

Page 5: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 5/26

Motivação (1)Problema em estudo:

Estamos medindo a temperatura do ambiente externoa cada hora, durante um dia.

Temperaturafl fenômeno aleatório.

(resulta de uma conjuminação de fatores meteorológicos que não podemser determinados com exatidão)

Page 6: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 6/26

Motivação (2)Para medir esta temperatura, usamos um termômetro que

mede desde 0°C até 50°C, com divisões de 10°C.• temos um conjunto finito de resultados ou estados possíveis:0°C, 10°C, 20°C, 30°C, 40°C e 50°C.

Sejam:X1 = temperatura medida no início do período (primeira observação)X2 = temperatura medida na segunda observação (1 hora depois de X1)

Xn = temperatura medida no n-ésimo período observado, n = 1,2,...

A seqüência X1, X2,..., X24 é um exemplo de Processo Estocástico.

Page 7: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 7/26

Motivação (3)A seqüência X1, X2,..., X24 é um exemplo de Processo Estocástico.

Processo estocástico de parâmetro discreto: instantes pontuais de tempo (intervalos a cada hora)

X1 = estado inicial do processo

Xn = estado do processo no instante n.

Processo estocástico de parâmetro contínuo: Seestivéssemos monitorando a temperatura continuamente.

Page 8: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 8/26

Motivação (4) Espaço de estados (E): Xnœ E

• Discreto:

E = {x œ | x≥0°C} = {0°C, 10°C, 20°C, 30°C, ... }

O termômetro utilizado pode medir apenas um número definido detemperaturas (variações de 10°C).

• Contínuo:

E = {x œ | x ≥ 0°C}O termômetro utilizado pode medir qualquer temperatura.

Page 9: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 9/26

Cadeias de MarkovÉ um tipo especial de processo estocástico, que satisfaz as

seguintes condições:

• o parâmetro n é discreto (ex: tempo)

• o espaço de estados E é discreto (coleção de estados possíveis)E pode ser finito ou infinito e enumerável. Vamos considerar E finito. Ascadeias de Markov deste tipo são chamadas Cadeias de Markov Finitas.

• o estado inicial do processo ou o espaço de estados é conhecido.

• vale a propriedade markoviana

• vale a propriedade de estacionariedade

Page 10: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 10/26

Propriedade MarkovianaPara n = 1,2,..., e qualquer seqüência de estados possíveis s1 , s2 ,...,sn+1 ,

com Xn, Xn-1,..., X1 conhecidos:

Em palavras:As probabilidades de todos os estados futuros X j (j>n) dependemsomente do estado atual Xn, mas não dependem dos estados anterioresX1,..., Xn-1.

O estado “futuro” do sistema depende do “presente”, mas não depende do“passado”.

)|( 

),...,,|(

11

221111

nnnn

nnnn

 s X  s X  P 

 s X  s X  s X  s X  P 

===

=====

++

++

Page 11: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 11/26

Propriedade de Estacionariedade

 Probabilidades de transição: P(Xn+1= s j|Xn= si)

 Probabilidades de transição estacionárias:

A cadeia de Markov é dita homogênea ou estacionária.

 si  s j

P(Xn+1= s j|Xn= si)

P(Xn+1= si|Xn= si)

,...2,1 .)|( 1 =====+ n pcte s X  s X  P  ijin jn

= pii

= pij

Page 12: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 12/26

Matriz de TransiçãoCadeia de Markov Finita e Estacionária

k possíveis estados: s1 , s2 ,...,sk 

⎥⎥

⎢⎢

=

333231

232221

131211

3

2

1

321  

 p p p

 p p p

 p p p

 s

 s

 s

 P 

 s s s

∑= ==

≥k 

 jk i pij

 pij

1 ,...1 ,1

0

Page 13: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 13/26

ExemploSuponha que na Terra de Oz, nunca há dois dias

ensolarados consecutivos.• Se em um dia qualquer faz sol, no dia seguinte pode tanto nevar 

quanto chover.

• Se chover, metade das vezes continua chovendo no dia seguinte e

nas outras ocasiões pode tanto fazer sol ou nevar.• Se nevar, apenas metade das vezes o dia seguinte também neva.

Queremos:

Representar graficamente a Cadeia de MarkovConstruir sua matriz de transição

Determinar a probabilidade de nevar daqui a dois dias?

Page 14: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 14/26

Equação de Chapman-KolmogorovSejam:

• P a matriz de transição de uma cadeia de Markov.• O elemento pij

(n) da matriz P(n) representa a probabilidade de que o processo, iniciado no estado si, estará no estado s j, depois de n passos.

• u um instante qualquer entre 0 e n.

ou, alternativamente:

nu p p pk 

un

rj

u

ir 

n

ij <<=∑=

− 0 ,.1

)()()(

 ,... ,n p p s X  s X  P  pk 

rj

n

ir i jn

n

ij 21 ,)|(

1

)1(1

)( ===== ∑=

Page 15: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 15/26

Vetor de Probabilidades Iniciais(a priori)Em muitas situações, não conhecemos o estado da Cadeia de Markov no instante

inicial.

Cadeia de Markov Finita e Estacionáriak possíveis estados: s1 , s2 ,...,sk 

Para i=1,...,k:vi = probabilidade de que o processo esteja no estado si no instante inicial

A qualquer vetor w = (w1 ,..,wk ), tal que wi≥ 0 e w1+w2+...+wk =1 chamamosvetor de probabilidades.

O vetor v =(v1 ,..., vk ) é chamado vetor de probabilidades iniciais, pois representaas probabilidades dos vários estados da cadeia no instante de início do processo.

1 e 01

=≥ ∑=

i

ii vv

Page 16: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 16/26

Vetor de Probabilidades Iniciais(a priori)Teorema:

• Seja P a matriz de transição de uma cadeia de Markov• v o vetor de probabilidades iniciais.

Então, a probabilidade de que o processo esteja no estado s j depois den passos é a j-ésima componente do vetor:

onde:

v(n) = [v1(n) v2(n)...vk (n)]vi

(n) = P(Xn= si)

nn  P .)( vv =

Page 17: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 17/26

Classificação de EstadosA fim de ilustrar as próximas definições, vamos utilizar a

Cadeia de Markov representada a seguir:

A

 B

C

 D

 E⎥⎥⎥

⎥⎥⎥

⎢⎢⎢

⎢⎢⎢

=

2.08.00001.04.05.000

07.03.000

0005.05.00006.00.4

ED

C

BA

 E D C BA

 P 

Page 18: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 18/26

Definição: CaminhoDados dois estados si e s j, um caminho entre si e s jé uma seqüência de transições que começam em si

e terminam em s j, tais que cada transição tem uma probabilidade positiva de ocorrência.

1. Um estado s j é acessível a partir do estado si seexiste um caminho que liga si a s j.

2. Dois estados si e s j são comunicáveis se s j éacessível a partir de si e si é acessível a partir de s j.

Page 19: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 19/26

3. Um conjunto de estados E em uma cadeia de Markov é uma classe se nenhum estado fora de E é acessível por qualquer estado em E.Se a cadeia inteira é formada por uma única classe, isto é,

todos os estados são comunicáveis, a cadeia é ditairredutível.

4. Um estado si é absorvente se pii = 1.

5. Um estado si é transiente se existe um estado sj que éacessível a partir de si, mas o estado si não é acessível a

 partir de sj.

6. Se um estado não é transiente ele é recorrente.

Page 20: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 20/26

7. Um estado si é periódico com período T>1 se T é omenor número tal que todos os caminhos quelevam do estado  si de volta a  si tem comprimento

múltiplo de T. Se um estado recorrente não é periódico ele é aperiódico.

8. Se todos os estados em uma Cadeia de Markov sãorecorrentes, aperiódicos e comunicáveis entre si,então a cadeia é dita ergódica.

Page 21: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 21/26

ExemploSuponha que só existem dois refrigerantes: guaraná e soda.

• Se uma pessoa escolheu guaraná, existe 90% de chance de peçanovamente guaraná.

• Se a pessoa tiver escolhido soda, a chance de que peça esterefrigerante outra vez é de 80%.

1. Se uma pessoa é atualmente consumidora de soda, qual a probabilidade de que escolha guaraná no segundo pedido futuro?

2. Se a pessoa é atualmente consumidora de guaraná, qual é a probabilidade de que escolha guaraná no terceiro pedido futuro?

Page 22: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 22/26

SoluçãoOs pedidos de cada consumidor podem ser interpretados como uma Cadeia deMarkov de dois estados, descritos como:

Estado 1 = a pessoa escolheu guaraná da última vez (G)Estado 2 = a pessoa escolheu soda da última vez (S)

Vamos definir:X0= refrigerante escolhido no presenteXn= refrigerante escolhido no n-ésimo pedido futuro

A seqüencia X0, X1,... pode ser descrita como a seguinte Cadeia de Markov:

Agora sim, podemos responder às perguntas...

⎥⎦

⎤⎢⎣

⎡=8.02.01.09.0

SG

 SG

 P G

S

Page 23: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 23/26

1. Se uma pessoa é atualmente consumidora de soda, qual a probabilidade

de que escolha guaraná no segundo pedido futuro?

Queremos:

De outra maneira:

)2(2102 )|( pS  X G X  P  ===

⎥⎦

⎤⎢⎣

⎡=⎥

⎤⎢⎣

⎡⎥⎦

⎤⎢⎣

⎡=

66.034.0

17.083.0

8.02.0

1.09.0

8.02.0

1.09.02 P 

S

G

S

G

vez 0 vez 1 vez 2

 p22 p21

 P 21 p11

 p21(2) =

(probabilidade de que o próximo pedidoseja soda e o segundo pedido seja soda)

+(probabilidade de que o próximo pedidoseja guaraná e o segundo pedido seja soda)

= p21 p11 + p22 p21

=(0.2)(0.9)+(0.8)(0.2)=0.34

Page 24: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 24/26

2. Se a pessoa é atualmente consumidora de guaraná, qual é a

 probabilidade de que escolha guaraná no terceiro pedido futuro?

Queremos: )3(1103 )|( pG X G X  P  ===

⎤⎢

⎡=⎥

⎤⎢

⎡⎥

⎤⎢

⎡==

562.0438.0

219.0781.0

66.034.0

17.083.0

8.02.0

1.09.0. 23  P  P  P 

Page 25: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 25/26

2. Se a pessoa é atualmente consumidora de guaraná, qual é a

 probabilidade de que escolha guaraná no terceiro pedido futuro?De outra maneira:

vez 0 vez 1 vez 2 vez 3

 p12 p22 p21

 p21

 p12

 p11 p11 p11

G

G

S

G

G

S

 p11

(3)

=  p12 p22 p21+  p12 p21 p11 +  p11 p12 p21 +  p11 p11 p11 ==(0.1)(0.8)(0.2)+(0.1)(0.2)(0.9) +(0.9)(0.1)(0.2) +(0.9)(0.9)(0.9) = 0.781

Page 26: aula03-Cadeias_de_Markov

8/7/2019 aula03-Cadeias_de_Markov

http://slidepdf.com/reader/full/aula03-cadeiasdemarkov 26/26

Suponha, que 60% das pessoas bebem guaraná e 40% bebem soda agora.Daqui a três pedidos, que fração das pessoas beberá guaraná?

Queremos: v(3) = v. P 3

Temos: v =[0.6 0.4]

Portanto:

]3562.06438.0[562.0438.0

219.0781.0]4.06.0[. 3)3( =⎥

⎤⎢⎣

⎡== P vv