CIn- UFPE Sistemas Especialistas Probabilísticos.
Transcript of CIn- UFPE Sistemas Especialistas Probabilísticos.
CIn- UFPE
SistemasSistemasEspecialistasEspecialistasProbabilísticosProbabilísticos
CIn- UFPE
Sistemas Especialistas Probabilísticos
Glauber Tomaz ([email protected])
Hendrik Teixeira Macedo ([email protected])
Mariana Lara Neves ([email protected])
CIn- UFPE
Conteúdo da apresentação
Combinando conhecimento e objetivos num ambiente de incerteza
A Teoria da Utilidade
Funções de utilidade
Funções de utilidade multivariada
Redes de decisão
Teoria do Valor da Informação
CIn- UFPE
Combinando a teoria da utilidade com a teoria da probabilidade
Criação de um “decision-theoric agent”
este agente toma decisões em contextos onde a incerteza e os objetivos conflitantes deixariam um agente lógico sem poder de decisão
usa uma função utilidade no processo de tomada de decisão
CIn- UFPE
Função utilidade
fornece um número que expressa quão desejável o estado é para o agente
indica as preferências do agente entre as várias situações do mundo
é combinada com a probabilidade de ocorrência dos estados resultantes, fornecendo a utilidade esperada de cada ação
CIn- UFPE
Função utilidade
U(S) utilidade do estado S
cada ação A poderá gerar diferentes estados Resulti(A)
antes da execução da ação A, o agente calcula a probabilidade para cada estado resultante:
P(Resulti(A) | Do(A),E)
E evidência do agente sobre o mundo
Do(A) proposição de que A será executada no estado em que o agente se encontra
CIn- UFPE
Função utilidade
a utilidade esperada de uma ação, dadas as evidências do estado:
EU(A|E) = P(Resulti(A)|E,Do(A)).U(Resulti(A))
Princípio da máxima utilidade esperada (MEU): um agente racional deverá escolher a ação que maximize sua utilidade esperada
CIn- UFPE
Teoria da Utilidade
Loteria: cenários complexos onde os diferentes resultados obtidos são “prêmios”, e que estes são determinados por acaso.
L= [p,A ; 1-p,B]
Notação para expressar preferências entre loterias:
A>B, AB e AB
CIn- UFPE
Axiomas da teoria da utilidade:
Ordenamento:
(A>B) V (B>A) V (AB)
Transitividade:
(A>B) (B>C) (A>C)
Continuidade:
A>B>C p [p,A ; 1-p,C] B
CIn- UFPE
Axiomas da teoria da utilidade:
Substituição:
AB [p,A ; 1-p,C] [p,B ; 1-p,C]
Monotonicidade:
A>B (pq [p,A; 1-p,B] [q,A; 1-q,B]
Decomposição:
[p,A; 1-p,[q,B; 1-q,C]] [p,A;(1-p)q,B; (1-p)(1-q),C]
CIn- UFPE
Axiomas da Utilidade:
Princípio da Utilidade:
U(A)>U(B) A>B
U(A)=U(B) A B
Princípio da Máxima Utilidade Esperada (MEU):
U([p1,S1 ; ... ; pn,Sn]) = piU(Si)
CIn- UFPE
Funções Utilidade
mapeia estados em valores reais
os agentes podem ter quaisquer preferências, contanto que elas atendam aos axiomas da teoria
Utilidade do dinheiro:
preferência monotônica: o agente prefere possuir mais dinheiro quando se lida com valores definidos
CIn- UFPE
Exemplo de um programa de TV(solução 1)
opção 1: US$ 1,000,000
opção 2: tentar US$ 3,000,000 na moeda (cara ou coroa)
Cálculo do EMV (Valor monetário esperado)
EMV(rejeitar) = US$ 1,000,000
EMV(aceitar) = ½($0) + ½($3,000,000)
= US$ 1,500,000
Solução: aceitar!
CIn- UFPE
Exemplo de um programa de TV(solução 2)
situação atual U(Sk) = 5
opção 1 U(Sk+1,000,000) = 8
opção 2 U(Sk+3,000,000) = 10
EU(rejeitar) = U(Sk+1,000,000) = 8
EU(aceitar) = ½ U(Sk) + ½ U(Sk+3,000,000)
= 7.5
Solução: rejeitar!
CIn- UFPE
Paradoxo de St. Petersburg (Bernoulli - 1738)
Moeda : cara na n-ésima vez $ 2n
Probabilidade = (½)n
EMV = P(carai).MV(carai)
= (½)i.2i = 1 + 1 + ... =
Bernoulli: a utilidade do dinheiro é medida em escala logarítmica
U(Sk+n) = log2n
EU = P(carai).U(carai)
= (½)i.log22i = 1/2 + 2/4 + ... = 2
U(Sk+4) = log24 = 2 (US$4,00)
CIn- UFPE
Grayson (1960)
As preferências de Mr. Beard são consistentes com a função utilidade:
U(Sk+n) = -263.31 + 22.09.log(n + 150,000)
para (-$150,000 < n < $800,000)
CIn- UFPE
Grayson (1960)
Boa parte das pessoas tem uma função com forma côncava no lado positivo de riqueza
risk-averse: U(SL) < U(SEMV(L))
(parte positiva do gráfico)
risk-seeking: (parte negativa do gráfico)
certainty equivalent: valor que o agente aceita no lugar de uma aposta
insurance premium: diferença entre EMV(L) e o certainty equivalent
risk-neutral: agente que possui uma curva linear para a função utilidade
CIn- UFPE
Julgamento humano
Teoria de decisão é normativa:
descreve como o agente deveria atuar.
As pessoas geralmente violam os axiomas da teoria da utilidade.
Tversky e Kahneman (1982) , Allais (1953)
A: 80% de chance de $4,000
B: 100% de chance de $3,000
C: 20% de chance de $4,000
D: 25% de chance de $3,000
CIn- UFPE
Julgamento humano
Resultados: B e C
U($0) = 0
0.8.U($4,000) < U($3,000)
0.2.U($4,000) > 0.25.U($3,000)
risk-averse em eventos com alta probabilidade de ganhos
risk-seeking em eventos de baixa probabilidade de ganho
CIn- UFPE
Escalas e valores da utilidade
“melhor prêmio possível” U(S) = uT
“pior catástrofe possível” U(S) = u
Utilidades normalizadas:
u = 0 e uT=1
resultados intermediário: [p, uT; (1-p), u]
Exemplos:
problemas médicos, de transporte e de meio-ambiente
CIn- UFPE
Escalas e valores da utilidade
Nos casos médicos e de segurança, temos:
u = morte imediata
exemplos: revisões em aviões, material dos carros, etc..
Valor de cada vida humana (análises médicas e de segurança):
micromort = chance de uma em um milhão de morte (US $20)
QUALY = equivalente a um ano em boa saúde, sem enfermidades
CIn- UFPE
Sistemas Especialistas
“...um programa de computador inteligente, que usa uma base de conhecimento e inferências para resolver problemas complexos, que requerem grande esforço intelectual humano.” (Feigenbaum 82). Todos os organismos vivos são especialistas em lidar com incertezas, do contrário não sobreviveriam.
Problema: Instalar um reator nuclear.Considerações: custo do terreno, distância às áreas habitadas, risco de acidentes, etc.Características do problema: vários atributos.
Sistemas Especialistas sob Incertezas
CIn- UFPE
Funções Utilidade Multivariadas
• Um agente com um conjunto de preferências tem uma função utilidade do tipo
U(x1,..., xn) = f[f1(x1),..., fn(xn)]
onde f1(x1) é uma função “simples”.
• Quanto maior o valor do atributo, maior o valor da função utilidade. Exemplo: quanto maior a AusênciaDeAcidentes, melhor a solução.
CIn- UFPE
Dominância entre Atributos
• Um terreno B, para a construção do reator, custa menos e é mais distante das áreas habitadas do que um terreno A.
X1
X2
AD
C BRegião de domínio sobre A
Mas se os atributos forem incerteza ? ?
CIn- UFPE
Neste caso, precisamos introduzir o conceito de dominância estocástica.
Professor, o que édominância estocástica ?
• Suponha que o custo do terreno A seja normalmente distribuído em torno de R$ 3,7 milhões, com desvio padrão de R$ 0,4 milhões; e o custo do terreno B seja normalmente distribuído em torno de R$ 4,0 milhões, com desvio padrão de R$ 0,35 milhões.
CIn- UFPE
• Matematicamente se duas ações A e B têm distribuição de probabilidade p1(x) e p2(x) com relação ao atributo X, então A domina estocasticamente B em X se
xx
dxxpdxxpx-
2
-
1 ')'( ')'( ,IR
Distribuição Acumulada e Dominância
CIn- UFPE
Preferências sem Incerteza
• Um conjunto de atributos {risco, custo do terreno, funcionários} exibe independência preferencial mútua (IPM) se estes não são correlacionados.
Teorema: Se os atributos X1,...,Xn são mutuamente independentes, então a preferência do agente pode ser descrita como a que vai maximizar a função
onde cada Vi é a função valor do atributo Xi.
i
ii SXVSV )]([)(
Estruturas de Preferências e Utilidade Multivariada
CIn- UFPE
Preferências com Incerteza
• Atributos {X1,..., Xn} têm independência de utilidade sobre atributos {Y1,..., Yn}, se as preferências pelas loterias em {X1,..., Xn} são independentes dos valores de {Y1,..., Yn}.
• Atributos {X1,..., Xn} são mutuamente independentes de utilidade (MIU), se cada subconjunto de {X1,..., Xn} é independente de utilidade dos demais atributos do conjunto.
• Para atributos MIU, a utilidade é multiplicativa.
U = k1U1 + k2U2 + k1 k2U1 U2.
CIn- UFPE
Rede de Decisão = Rede Bayesiana + ações/utilidades
Local do reator
Proximidadeà População
CustosFuncionários
U
Risco de Acidentes
Rede de Decisão
CIn- UFPE
Descrição da Rede de Decisão
• Nós de Chance (ovais): representam as variáveis aleatóriascomo nas redes Bayesianas;
• Nós de Decisão (retângulos): representam os pontos onde o agente que vai tomar a decisão pode escolher uma ação;
• Nós de Utilidade (losângulos): representam a função utilidadedo agente.
CIn- UFPE
Tabela de Ação-Utilidade
Local do reator
Funcionários
U
Risco de Acidentes
• A tabela de ação-utilidade é uma versão compilada da formulação original.
CIn- UFPE
Algoritmo de Avaliação de Redes de Decisão
1. Ajuste as variáveis de evidência para o estado atual.
2. Para cada possível valor do nó de decisão: (a) Ajuste o nó para o valor de decisão dado; (b) Calcule as probabilidades posteriores para os nós pais do nó utilidade, usando um algoritmo inferência probabilística padrão; (c) Calcule a utilidade resultante da ação;
3. Retorne a ação com a maior função utilidade.
CIn- UFPE
Quais as perguntas que devemos fazer sobre o problema?
• Precisamos saber como novas informações vão afetar a função utilidade do agente.
Teoria do Valor da Informação
Privatização ?
CIn- UFPE
Problema do Petróleo• Uma multinacional está vai comprar os direitos de explorar petróleo no Brasil. Existem 10 bacias onde a exploração é permitida. Estudos revelaram que apenas uma das bacia tem uma boa reserva de petróleo que vale aproximadamente R$ 1 bilhão. O preço de cada bacia é R$ 100 milhões.
Quanto a empresa deve pagar para obter a informação da consultoria ?
CIn- UFPE
•Considere n = 10, C = R$ 1 bilhão e C/n = R$ 100 milhões.
• Com uma probabilidade 1/n, a consultoria mostra que a bacia 3 tem petróleo. Neste caso, a companhia vai comprar o bacia por C/n e terá um lucro de C - C/n = (n - 1)C/n .
• Com uma probabilidade (n - 1)/n, a consultoria mostra que um bloco não tem petróleo. A probabilidade de encontrar petróleo nas outras bacias é de 1/(n - 1). Assim, o lucro da empresa é C/(n - 1) - C/n = C/[(n - 1)/n] .
• O lucro que a empresa terá devido a informação é
n
C
nn
C
n
n
n
Cn
n
)1(
1)1(1
CIn- UFPE
Valor da Informação Perfeita (VIP)
• O conhecimento atual do agente é E. A função utilidade esperada para a melhor ação é dada por
i
iiA
ARUAFEARPE )]([)](,|)([max)|(
onde A é uma ação do agente, Ri(A) é um estado de saída possível, F(A) representa a execução da ação A e P(Ri | E, F ) é a probabilidade condicional de Ri acontecer quando E e F acontecem.
CIn- UFPE
• O novo valor de após a nova evidência Ej é
i
ijiA
jE ARUEAFEARPEEj
)]([]),(,|)([max),|(
• A evidência Ej é uma variável aleatória, portanto, devemos tomar a média sobre todos os possíveis valores ejk de Ej.
• O valor da informação Ej é definido por
k
jkjejkjjE EeEEEeEPEjk
)|(),|()|()(
CIn- UFPE
Propriedades do Valor da Informação
• O valor da informação é não negativo
.0)( IRIN, jE EEj
• O valor da informação, em geral, é não aditivo
)()(),( kEjEkjE EEEE
• O valor da informação independe da ordem
),(),( jkEkjE EEEE
CIn- UFPE
Algoritmo de um Agente-Detetive Miope
função Agente-Detetive (percepção) retorna uma ação
estático: D - uma rede de decisão
integre a percepção em D
j o valor que maximiza E(Ej) - C(Ej)
Se E(Ej) > C(Ej)
então retorne uma Requisição de Ej
do contrário retorne a melhor ação de D
• O agente miope calcula o valor da informação assumindo que apenas uma evidência é adquirida.
CIn- UFPE
• Determine o escopo do problema
• Desenhe a rede de conexões (topologia)
• Associe as probabilidades
• Associe as utilidades
• Forneça as evidências disponíveis
• Avalie o diagrama
• Obtenha outras evidências
• Realize uma análise sobre as repostas a pequenas variações do sistema
Construindo um Sistema Especialista sob Incerteza
CIn- UFPE
Biobliografia
• Russel, S. and Norvig, P., “Artificial Intelligence: A Modern Approach”, Prentice-Hall (1995). Capítulo 16.
• Giarratano, J. and Riley, G., “Expert Systems: Principles and Programming ”, International Thomson Publishing, 2nd edition (1994). Capítulo 4.
• Waterman, D. A., “A Guide to Expert Systems ”, Addison-Wesley (1986). Capítulos 12 e 25.
• Rich, E. e Knight, K., “ Inteligência Artificial ”, Makron Books (1993). Capítulo 8.