IFAM’s - Mem orias Associativas Baseadas no Aprendizado ...valle/PDFfiles/cbrn05_slides.pdf ·...

22
IFAM’s - Mem´ orias Associativas Baseadas no Aprendizado Nebuloso Implicativo Marcos Eduardo Valle ([email protected]) Peter Sussner ([email protected]) 19 de Outubro de 2005

Transcript of IFAM’s - Mem orias Associativas Baseadas no Aprendizado ...valle/PDFfiles/cbrn05_slides.pdf ·...

IFAM’s - Memorias Associativas Baseadas

no Aprendizado Nebuloso Implicativo

Marcos Eduardo Valle ([email protected])Peter Sussner ([email protected])

19 de Outubro de 2005

Cronograma da Apresentacao:

1. Redes Neurais Nebulosas,

2. Aprendizado Nebuloso Implicativo,

3. Memorias Associativas Nebulosas Implicativas (IFAMs)

4. Exemplo - Armazenamento de Padroes,

5. Aplicacao - Problema de Predicao,

6. Relacao entre as IFAM’s, Memorias Associativas Morfologicas

e a Memoria Associativa de Wang-Lu,

7. Conclusao.

1

Modelo Neural...

Neuronios logicos de Pedrycz com limiar:

yi =n∨

j=1

(

wij txj

)

∨ θi , para i = 1,2, . . . , m .

ou

yi =n∧

j=1

(

mij s xj

)

∧ ϑi , para i = 1,2, . . . , m .

Entradas: x1, x2, . . . , xn,

Pesos Sinapticos: wij e mij,

Limiar (threshold): θi e ϑi,

Saıdas: y1, . . . , ym.

representa o maximo e t uma t-norma,∧

representa o mınimo e s e uma s-norma.

2

Rede Neural Nebulosa (RNN)...

Rede neural nebulosa progressiva de camada unica com m neuronios:

y = (W ◦ x) ∨ θ,

e

y = (M • x) ∧ ϑ,

Vetor de entrada: x ∈ [0,1]n,

Matriz dos pesos sinapticos: W, M ∈ [0,1]m×n,

Vetor de limiar (threshold): θ, ϑ ∈ [0,1]m,

Vetor de saıdas: y ∈ [0,1]m.

◦ representa composicao max-t,

• representa composicao min-s.

3

Relacao de Dualidade...

Relacao de dualidade entre ◦ e •:

A • B = A ◦ B,

Onde R ∈ [0,1]m×n e a negacao de R ∈ [0,1]m×n dada por:

rij = 1 − rij.

Conclusao:

(M • x) ∧ ϑ = (M • x) ∨ ϑ =(

M ◦ x)

∨ ϑ

Vamos considerar somente RNN’s descritas pela composicao ◦.

4

Postulado de Hebb...

A variacao do peso de uma conexao sinaptica depende de ambas

ativacoes pre-sinaptica (entrada) e pos-sinaptica (saıda).

∆wij = F (xj, yi), (Haykin)

5

Aprendizado Nebuloso Implicativo...

Definimos:

∆wij =(

xj ⇒ yi

)

,

onde ⇒ e uma implicacao nebulosa.

Interpretacao: A variacao do pesos sinaptico e o grau de vera-

cidade da afirmacao: ”Se estımulo, entao resposta”.

6

Armazenando Varios Padroes...

Queremos treinar a rede com {(xξ,yξ) : ξ = 1, . . . , p}.

wij =(

x1j ⇒ y1

i

)

∧(

x2j ⇒ y2

i

)

∧ . . . ∧(

xpj ⇒ y

pi

)

=p∧

ξ=1

(

xξj ⇒ y

ξi

)

.

Notacao Matricial:

W = Y ~ XT ,

onde X = [x1, . . . ,xp] e Y = [y1, . . . ,yp].

7

R-implicacao...

R-implicacao associada a t (t-norma usada em ◦):

(x ⇒R y) = sup{z ∈ [0,1] : x t z ≤ y}.

Aprendizado nebuloso R-implicativo: W = Y ~R XT .

W obtida atraves do aprendizado nebuloso R-implicativo e a

solucao de

max{

W ∈ [0,1]m×n : W ◦ X ≤ Y}

.

Se existe W0 ∈ [0,1]m×n tal que W0◦X = Y entao W = Y ~RXT

e tal que W ◦ X = Y e W0 ≤ W .

8

Exemplos t-norma e R-implicacoes...

t-norma R-implicacao

x t y = x ∧ y x ⇒R y =

{

1, x ≤ y

y, x > y

x t y = x · y x ⇒R y = 1 ∧(

yx

)

x t y = 0 ∨ (x + y − 1) x ⇒R y = 1 ∧ (1 − x + y)

9

Memoria Associativa Nebulosa Implicativa(IFAM)

E uma rede neural nebulosa descrita pela equacao

y = (W ◦ x) ∨ θ

onde

W = Y ~R XT e θ =p∧

ξ=1

A implicacao usada em ~R e a R-implicacao associada a t-norma

de ◦.

10

Exemplo da Literatura (Liu 1999)

Padroes de entrada e saıda:

ξ xξ

1 [0.5, 0.5, 0.4, 0.4, 0.3]T [0.5, 0.6, 0.3]T

2 [0.1, 0.3, 0.3, 0.4, 0.4]T [0.5, 0.6, 0.4]T

3 [0.8, 0.4, 0.6, 0.7, 0.4]T [0.6, 0.8, 0.4]T

4 [0.3, 0.4, 0.4, 0.3, 0.4]T [0.5, 0.6, 0.4]T

5 [0.6, 0.4, 0.7, 0.7, 0.5]T [0.7, 0.7, 0.5]T

6 [0.1, 0.1, 0.2, 0.2, 0.1]T [0.5, 0.6, 0.3]T

7 [0.7, 0.2, 0.4, 0.3, 0.2]T [0.5, 0.7, 0.3]T

8 [0.8, 0.4, 0.3, 0.4, 0.2]T [0.5, 0.8, 0.3]T

11

IFAM de Lukasiewicz

Matriz dos pesos sinapticos:

WLukasiewicz =

0.7 1.0 1.0 0.9 1.01.0 1.0 1.0 1.0 1.00.5 1.0 0.8 0.7 1.0

,

e o vetor de limiar

θ =[

0.5 0.6 0.3]T

.

12

Capacidade absoluta de armazenamento

Modelo Cap. Abs. de Arm.

Max-min FAM com limiar 8IFAM de Lukasiewicz 8

IFAM de Godel 8IFAM de Goguen 8FAM de Junbo 4

M.A. de Wang e Lu 4FAM de Kosko 1

GFAM de Lukasiewicz 0

Podemos mostrar que o desempenho da IFAM de Godel e no

mınimo tao bom quanto o desempenho da Max-mim FAM com

limiar.

13

Aplicacao das IFAM’s como Sistema deRegras Nebulosas

As memorias associativas nebulosas podem representar sistemas

de regras nebulosas onde armazenamos regras da forma SE-

ENTAO.

Aplicacao: Previsao de mao-de-obra requerida nas industrias

metalurgicas do estado Bengal do Oeste na India.

14

Definimos 5 variaveis linguısticas A1, A2, . . . , A5 e sentencas como

“Se a mao-de-obra requerida no ano n e Ai, entao a mao-de-

obra requerida no n + 1 e Aj”.

Obtemos um conjunto de pares de entrada e saıda que serao

armazenados numa memoria associativa nebulosa.

A estimativa da mao-de-obra requerida no ano n + 1 e:

An+1 = (W ◦ An) ∨ θ ,

onde An e a mao-de-obra requerida no ano n e ◦ e a composicao

max-t.

15

Previsao de mao-de-obra estimada:

1984 1986 1988 1990 1992 1994 19961100

1200

1300

1400

1500

1600

1700

1800

YEAR

MAN

POW

ER

Valor AtualIFAM Goguen e M.A. Wang−LuIFAM Godel e Max−min FAM LimiarKosko FAM e GFAMIFAM LukasiewiczARIMA1ARIMA2

16

Erro medio na previsao de mao-de-obra:

Metodo Erro medio

IFAM de Lukasiewcz 2.29%FAM de Kosko 2.67%

GFAM de Lukasiewicz 2.67%IFAM de Godel 2.73%

Max-min FAM com limiar 2.73%IFAM de Goguen 2.99%

M.A. de Wang e Lu 2.99%ARIMA2 5.48%ARIMA1 9.79%

17

IFAM’s e as Memorias AssociativasMorfologicas

Relacao entre a IFAM de Lukasiewicz e as memorias associativas

morfologicas:

W = (WXY ∧ 0) + 1,

(W ◦ x) ∨ θ = [(WXY ∧ 0) ∨� x] ∨ θ.

18

IFAM’s e a Memoria Associativa deWang-Lu

A fase de recordacao da IFAM de Goguen e da memoria associ-

ativa de Wang e Lu sao identicas exceto pelo vetor limiar usado

na IFAM.

A diferenca entre estes dois modelos esta na fase de armazena-

mento:

WGG = WprodXY ∧ 1.

Importante: WGG ∈ [0,1]m×n enquanto que WprodXY ∈ (R≥0

∞ )m×n.

Logo, um padrao recordado pela a memoria associativa (mor-

fologica nebulosa) de Wang e Lu pode nao ser nebuloso.

19

Conclusao:

• IFAMs sao RNN treinadas usando o aprendizado nebuloso

R-implicativo.

Exemplos: IFAM de Lukasiewicz, IFAM de Godel e IFAM de

Goguen.

• Capacidade Absoluta de Armazenamento das IFAM’s e me-

lhor que a FAM Kosko e a FAM Generalizada de Chung-Lee.

• O desempenho da IFAM de Godel e no mınimo tao bom

quanto o desempenho da Max-mim FAM com limiar de Liu.

• IFAMs podem ser usadas como sistemas de regras nebulo-

sas.

20

• IFAM’s podem ser utilizadas em problemas da predicao.

IFAM de Lukasiewicz apresentou os melhor resultado.

Falta ainda conduzir pesquisas mais profundas sobre a uti-

lizacao das IFAMs como aproximadores de funcoes!

• Mostramos que a IFAM de Lukasiewicz e as memorias as-

sociativas morfologicas estao fortemente relacionadas se as

memorias fundamentais forem conjuntos nebulosos.

Uma relacao semelhente foi mostrada para IFAM de Goguen

e a memoria associativa de Wang e Lu.

• Falta conduzir pesquisas sobre a escolha da t-norma e da

R-implicacao utilizada da IFAM para um dado problema.