Otimização PSO.pdf

5
Otimização por Enxame de Partículas - PSO Primeira Lista de Exercícios - Sistemas Bio-Inspirados para Engenharia Mileny Ximenes Oliveia Programa de Pós-Graduação em Engenharia de Sistemas Eletrônicos e de Automação Departamento de Engenharia Elétrica/ Universidade de Brasília Brasília E-mail: [email protected] Resumo Este documento se propõe a apresentar o método de otimização por enxame de partículas, analisar a resposta do sistema a medida que se alteram alguns parâmetros, como o tamanho do enxame, as dimensões do problema e a função custo, que é relacionada diretamente com a aptidão das partículas em busca de uma solução ótima. Palavras chaveOtimização por enxame de partículas, função custo, algoritmo. I. INTRODUÇÃO Os sistemas bio-inspirados tem surgido com um conjunto de modelos baseados no comportamento e na forma de atuar de certos sistemas biológicos, com a finalidade de solucionar problemas nas mais diversas áreas: energia, transporte, entre outras. Portanto um algoritmo bio-inspirado é aquele que soluciona problemas computacionais baseados na biologia, ciência da vida [1] Dentre estes modelos, os algoritmos evolutivos, em especial os baseados em população, têm tido grande sucesso em solucionar problemas de otimização de múltiplas soluções [2] . Um dos métodos utilizados, e que será trabalhado neste documento, é o de Otimização por Enxame de Partículas (PSO,particle swarm optimization). Consiste em um algoritmo de otimização heurística inspirado no comportamento em grupo de animais, como peixes e pássaros. Se destina a otimizar uma função objeto por meio da troca de informações entre partículas de um grupo, resultando em um algoritmo eficiente, robusto e de simples implementação computacional [3]. No PSO as partículas são representadas por vetores que definem a velocidade e a localização atual de cada partícula, e estas informações são atualizadas segundo sua velocidade atual, seu aprendizado pessoal e o aprendizado adquirido pelo bando [4]. O processo de busca e otimização possui alguns componentes, são eles: Espaço amostral de busca - onde são consideradas todas as possíveis soluções de um problema; Função custo ou função objetivo - funciona como parâmetro de avaliação de desempenho de uma partícula dentro de um espaço de busca. A Figura 1 destaca um fluxograma do algoritmo de otimização PSO. O mesmo começa com a formação das partículas que irão conceber o enxame, determinando suas posições e velocidades iniciais. Em seguida são feitas as atualizações destes vetores até que o número máximo de interações seja obtido ou uma partícula tenha adquirido a aptidão desejada no programa[4]. Figura 1. Fluxograma do algoritmo de otimização PSO. Este trabalho se destina a apresentar o desempenho do modelo de otimização PSO utilizando para tanto diferentes funções custo, dimensões e tamanhos de enxame. O documento se subdivide entre as seções de Fundamentação Teórica, onde é apresentado o desenvolvimento matemático para implementação do software de otimização; A seção de Resultados apresenta os diferentes resultados para as distintas funções custo utilizadas; Na seção Conclusões e Discussões é feita uma análise comparativa dos resultados; por fim, são apresentadas as referências utilizadas para este estudo.

Transcript of Otimização PSO.pdf

Page 1: Otimização PSO.pdf

Otimização por Enxame de Partículas - PSO Primeira Lista de Exercícios - Sistemas Bio-Inspirados para Engenharia

Mileny Ximenes Oliveia

Programa de Pós-Graduação em Engenharia de Sistemas Eletrônicos e de Automação

Departamento de Engenharia Elétrica/ Universidade de Brasília

Brasília

E-mail: [email protected]

Resumo — Este documento se propõe a apresentar o método

de otimização por enxame de partículas, analisar a resposta do

sistema a medida que se alteram alguns parâmetros, como o

tamanho do enxame, as dimensões do problema e a função custo,

que é relacionada diretamente com a aptidão das partículas em

busca de uma solução ótima.

Palavras chave— Otimização por enxame de partículas, função

custo, algoritmo.

I. INTRODUÇÃO

Os sistemas bio-inspirados tem surgido com um conjunto

de modelos baseados no comportamento e na forma de atuar de certos sistemas biológicos, com a finalidade de solucionar problemas nas mais diversas áreas: energia, transporte, entre outras. Portanto um algoritmo bio-inspirado é aquele que soluciona problemas computacionais baseados na biologia, ciência da vida [1] Dentre estes modelos, os algoritmos evolutivos, em especial os baseados em população, têm tido grande sucesso em solucionar problemas de otimização de múltiplas soluções [2] .

Um dos métodos utilizados, e que será trabalhado neste documento, é o de Otimização por Enxame de Partículas (PSO,particle swarm optimization). Consiste em um algoritmo de otimização heurística inspirado no comportamento em grupo de animais, como peixes e pássaros. Se destina a otimizar uma função objeto por meio da troca de informações entre partículas de um grupo, resultando em um algoritmo eficiente, robusto e de simples implementação computacional [3].

No PSO as partículas são representadas por vetores que definem a velocidade e a localização atual de cada partícula, e estas informações são atualizadas segundo sua velocidade atual, seu aprendizado pessoal e o aprendizado adquirido pelo bando [4].

O processo de busca e otimização possui alguns componentes, são eles:

Espaço amostral de busca - onde são consideradas todas as possíveis soluções de um problema;

Função custo ou função objetivo - funciona como parâmetro de avaliação de desempenho de uma partícula dentro de um espaço de busca.

A Figura 1 destaca um fluxograma do algoritmo de otimização PSO. O mesmo começa com a formação das partículas que irão conceber o enxame, determinando suas posições e velocidades iniciais. Em seguida são feitas as atualizações destes vetores até que o número máximo de interações seja obtido ou uma partícula tenha adquirido a aptidão desejada no programa[4].

Figura 1. Fluxograma do algoritmo de otimização PSO.

Este trabalho se destina a apresentar o desempenho do modelo de otimização PSO utilizando para tanto diferentes funções custo, dimensões e tamanhos de enxame. O documento se subdivide entre as seções de Fundamentação Teórica, onde é apresentado o desenvolvimento matemático para implementação do software de otimização; A seção de Resultados apresenta os diferentes resultados para as distintas funções custo utilizadas; Na seção Conclusões e Discussões é feita uma análise comparativa dos resultados; por fim, são apresentadas as referências utilizadas para este estudo.

Page 2: Otimização PSO.pdf

II. FUNDAMENTAÇÃO TEÓRICA

Seja S, o tamanho do enxame; N, a dimensão dada ao

problema; t, o instante atual; e a particula i, localizada na posição xi(t) no espaço de soluções a uma velocidade vi(t), que indica direção e magnitude do deslocamento da partícula. Cada partícula apresenta uma lembrança yi(t), referente a melhor posição individual visitada e o enxame possui uma memória ys(t), referente a melhor posição que uma das partículas obteve. No decorrer do algoritmo as partículas alteram suas velocidades em função das melhores posições individual e coletiva e por uma componente que fornece características da velocidade anterior da partícula, servindo como um termo de momentum. Sendo a equação que descreve tais movimentações dada por:

( ) ( ) ( ( ) ( )) ( ( ) ( )) (1)

Onde r1 e r2 são valores aleatórios entre 0 e 1, que permitem uma busca natural durante o processo de otimização. Já c1 e c2 são valores constantes, geralmente iguais, referentes a aceleração e responsáveis por controlar a distância que uma partícula percorre em uma interação. Já w está associado ao peso de inércia (momentum) que multiplica a velocidade no instante anterior a t, e tem influência no modo em que ocorre a exploração, inicialmente de forma mais ampla e a medida que se aumentam as interações as buscas vão se convergindo [5].

Após a atualização da velocidade da partícula, sua nova posição segue a equação:

( ) ( ) ( ) (2)

Além disso cada partícula apresenta uma aptidão, mensurada a partir da função objetivo, ou custo. E ou melhora sua aptidão a cada interação ou mantém um melhor valor obtido em interações anteriores. Para este trabalho serão utilizadas diferentes funções custo (fx(i)), são elas:

( ) ∑

( ) (3)

( ) ∑ (∑

)

( ) (4)

( ) ∑ ( ( ))

( ) (5)

( ) ∑ ( ) ( )

( ) (6)

( ) ∑ (√| |)

(Schwefel) (7)

( ) ( √

)

(

∑ ( ) ) (Ackley) (8)

III. RESULTADOS

As Tabelas de 1 a 6 representam a otimização por enxame

de partículas com a utilização das funções custo Esférica, Quadric, Rastrigin, Rosenbrock, Schwefel e Ackley, respectivamente. Utilizando o software MatLab®, foram considerados os seguintes parâmetros para a simulação.

Número máximo de interações = 1000;

c1 = c2 = 2,1;

w decresce linearmente na faixa de valores [0.9 a 0.1];

[xmin , xmax ] = [-8.0, 8.0], exceto para Schwefel: [-500, 500] e Ackley = [-32, 32];

[vmin , vmax ] = [-6.0, 6.0], exceto para Schwefel: [-300, 300] e Ackley = [-24, 24];

vinicial = vmax /10;

Threshold = 0.01, exceto para Rosenbrok: 0.1;

Para cada valor de N e S estabelecidos foram realizados 33 experimentos.

Sendo o threshold utilizado apenas como base para definir o número de acertos das funções escolhidas e não como um dos critérios de parada.

TABLE I. FUNÇÃO CUSTO ESFÉRICA

Média Mediana Mínimo

Desvio

Padrão Goals

S = 10

N = 2 4,46E-97 2,68E-111 4,39E-121 2,56E-96 33

N = 4 2,73E-56 8,50E-66 1,16E-74 1,41E-55 33

N = 6 8,85E-31 9,28E-40 4,43E-46 4,70E-30 33

N = 8 9,60E-21 1,11E-27 9,57E-34 4,11E-20 33

N = 10 2,35E-15 2,72E-19 2,22E-24 9,39E-15 33

N = 12 7,29E-12 2,87E-15 5,27E-18 3,03E-11 33

N = 14 1,64E-09 1,09E-11 4,05E-15 6,51E-09 33

N = 16 2,31E-08 4,58E-10 2,13E-12 7,92E-08 33

N = 18 1,48E-06 2,97E-08 5,50E-10 5,21E-06 33

N = 20 2,24E-05 5,81E-07 4,23E-09 9,85E-05 33

N = 22 2,84E-05 4,66E-06 1,98E-07 8,89E-05 33

S = 20

N = 2 1,76E-119 5,84E-125 1,53E-133 7,33E-119 33

N = 4 5,03E-81 1,12E-84 5,01E-90 1,41E-80 33

N = 6 7,98E-53 7,98E-57 2,02E-61 3,43E-52 33

N = 8 9,25E-39 2,32E-41 1,13E-44 4,15E-38 33

N = 10 4,02E-28 5,96E-32 2,05E-35 1,45E-27 33

Page 3: Otimização PSO.pdf

N = 12 1,30E-22 1,67E-24 6,92E-27 3,38E-22 33

N = 14 4,68E-18 5,02E-20 4,72E-23 1,75E-17 33

N = 16 5,26E-15 3,02E-16 2,77E-19 1,24E-14 33

N = 18 3,26E-12 2,04E-13 1,98E-15 9,71E-12 33

N = 20 2,58E-10 2,25E-11 2,71E-13 6,65E-10 33

N = 22 1,31E-08 1,02E-09 1,71E-11 2,86E-08 33

S = 25

N = 2 1,65E-124 2,82E-128 1,21E-140 6,40E-124 33

N = 4 2,46E-84 3,79E-87 1,59E-91 7,43E-84 33

N = 6 1,67E-57 5,12E-62 3,22E-69 9,42E-57 33

N = 8 1,77E-42 7,11E-45 2,05E-49 6,44E-42 33

N = 10 1,15E-32 1,37E-34 1,10E-37 2,97E-32 33

N = 12 1,41E-25 3,58E-27 9,03E-29 7,11E-25 33

N = 14 1,91E-19 5,74E-21 3,90E-24 7,35E-19 33

N = 16 9,46E-17 1,61E-17 5,88E-19 1,59E-16 33

N = 18 1,66E-13 1,44E-14 3,33E-16 7,28E-13 33

N = 20 1,96E-12 4,96E-13 4,75E-15 2,80E-12 33

N = 22 9,47E-10 7,80E-11 1,72E-13 2,45E-09 33

TABLE II. FUNÇÃO CUSTO QUADRIC

Média Mediana Mínimo

Desvio

Padrão Goals

S = 10

N = 2 3,53E-80 8,45E-93 3,00E-102 2,03E-79 33

N = 4 1,64E-26 1,77E-33 8,94E-42 7,06E-26 33

N = 6 5,56E-12 5,02E-16 6,79E-19 2,25E-11 33

N = 8 3,86E-07 2,92E-08 3,25E-10 1,02E-06 33

N= 10 8,78E-05 6,04E-05 3,48E-06 9,88E-05 33

N= 12 6,86E-03 5,15E-03 2,54E-04 5,67E-03 28

N= 14 1,06E-01 6,84E-02 9,09E-03 1,06E-01 1

N= 16 4,20E-01 3,41E-01 5,77E-02 2,95E-01 0

N= 18 1,68E+00 1,67E+00 3,43E-01 9,77E-01 0

N= 20 3,61E+00 3,20E+00 9,61E-01 1,94E+00 0

N= 22 6,98E+00 6,10E+00 1,84E+00 3,52E+00 0

S = 20

N= 2 2,62E-96 3,48E-105 5,61E-111 1,50E-95 33

N= 4 6,20E-44 6,02E-49 7,45E-55 2,82E-43 33

N= 6 2,93E-20 5,79E-23 1,20E-27 1,62E-19 33

N= 8 3,03E-11 2,68E-12 9,56E-15 9,42E-11 33

N= 10 2,19E-06 4,85E-07 1,70E-08 8,18E-06 33

N= 12 8,97E-04 3,61E-04 5,53E-06 1,25E-03 33

N= 14 1,26E-02 8,66E-03 2,13E-03 1,20E-02 20

N= 16 1,62E-01 1,43E-01 1,20E-02 1,51E-01 0

N= 18 6,21E-01 4,81E-01 6,95E-02 5,82E-01 0

N= 20 1,59E+00 1,43E+00 3,36E-01 7,50E-01 0

N= 22 4,07E+00 3,51E+00 9,50E-01 2,50E+00 0

S = 25

N= 2 1,68E-102 2,91E-110 1,53E-117 9,63E-102 33

N= 4 1,13E-48 3,84E-51 2,91E-55 3,87E-48 33

N= 6 5,30E-22 1,91E-25 3,91E-29 2,46E-21 33

N= 8 2,95E-12 4,27E-13 4,08E-16 8,97E-12 33

N= 10 1,92E-07 7,46E-08 1,33E-09 3,22E-07 33

N= 12 3,17E-04 9,31E-05 1,89E-06 6,12E-04 33

N= 14 6,88E-03 5,21E-03 6,93E-04 8,40E-03 27

N= 16 6,26E-02 4,70E-02 6,55E-03 4,98E-02 3

N= 18 4,23E-01 2,84E-01 1,77E-02 3,17E-01 0

N= 20 1,33E+00 1,01E+00 3,59E-01 8,58E-01 0

N= 22 3,43E+00 2,98E+00 7,14E-01 2,20E+00 0

TABLE III. FUNÇÃO CUSTO RASTRIGIN

Média Mediana Mínimo

Desvio

Padrão Goals

S = 10

N = 2 0 0 0 0 33

N = 4 6,94E-01 3,15E-03 0 9,13E-01 17

N = 6 2,17E+00 1,99E+00 0 1,48E+00 2

N = 8 3,84E+00 3,00E+00 9,95E-01 2,01E+00 0

N= 10 8,20E+00 7,96E+00 3,01E+00 3,22E+00 0

N= 12 1,06E+01 9,95E+00 4,97E+00 3,93E+00 0

N= 14 1,65E+01 1,69E+01 4,98E+00 5,11E+00 0

N= 16 1,87E+01 1,79E+01 5,97E+00 6,21E+00 0

N= 18 2,71E+01 2,56E+01 1,40E+001 8,51E+000 0

N= 20 2,98E+01 2,96E+01 1,38E+001 9,98Ee+000 0

N= 22 3,91E+01 3,74E+01 2,23E+001 1,38E+001 0

S = 20

N= 2 0 0 0 0 33

N= 4 1,51E-01 0 0 3,62E-01 28

N= 6 1,03E+00 9,95E-01 0 8,79E-01 10

N= 8 2,69E+00 2,98E+00 0 1,39E+00 2

N= 10 5,13E+00 4,97E+00 9,95E-01 2,57E+00 0

N= 12 7,98E+00 7,96E+00 1,99E+00 4,15E+00 0

N= 14 1,02E+01 9,95E+00 4,97E+00 3,68E+00 0

N= 16 1,49E+01 1,59E+01 5,97E+00 5,80E+00 0

N= 18 2,04E+01 1,99E+01 7,96E+00 5,52E+00 0

N= 20 2,38E+01 2,44E+01 1,24E+01 5,76E+00 0

N= 22 2,97E+01 2,84E+01 1,49E+01 8,49E+00 0

S = 25

N= 2 0 0 0 0 33

N= 4 3,02E-02 0 0 1,73E-01 32

N= 6 9,05E-01 9,95E-01 0 8,01E-01 12

N= 8 2,70E+00 2,98E+00 4,38E-07 1,58E+00 1

N= 10 4,37E+00 4,97E+00 0 1,91E+00 1

Page 4: Otimização PSO.pdf

N= 12 8,54E+00 7,96E+00 3,98E+00 2,83E+00 0

N= 14 1,00E+01 9,95E+00 4,97E+00 3,47E+00 0

N= 16 1,30E+01 1,39E+01 2,99E+00 3,75E+00 0

N= 18 1,83E+01 1,79E+01 6,10E+00 5,74E+00 0

N= 20 2,15E+01 2,19E+01 9,95E+00 7,26E+00 0

N= 22 2,67E+01 2,49E+01 1,29E+01 7,55E+00 0

TABLE IV. FUNÇÃO CUSTO ROSENBROCK

Média Mediana Mínimo

Desvio

Padrão Goals

S = 10

N = 2 9,74E-10 3,83E-14 2,11E-18 4,6E-09 33

N = 4 9,80E-02 1,88E-02 0,000104 3,24E-01 29

N = 6 2,57E+00 5,55E-01 0,054587 5,06E+00 4

N = 8 7,40E+00 3,34E+00 1,51E-01 9,35E+00 0

N= 10 1,02E+01 7,80E+00 6,00E-01 8,73E+00 0

N= 12 1,85E+01 1,67E+01 4,77E+00 1,08E+01 0

N= 14 1,75E+01 1,92E+01 1,39E+00 8,89E+00 0

N= 16 2,51E+01 2,27E+01 2,23E+00 1,37E+01 0

N= 18 3,40E+01 3,30E+01 12,45539 13,5733 0

N= 20 3,95E+01 3,68E+01 8,62302 19,09481 0

N= 22 3,72E+01 3,70E+01 10,77116 16,67181 0

S = 20

N= 2 8,6E-15 9,51E-18 1,81E-25 4,65E-14 33

N= 4 7,11E-02 0,003379 2,86E-06 2,99E-01 30

N= 6 9,09E-01 1,50E-01 0,024156 3,09E+00 9

N= 8 1,46E+00 6,94E-01 0,197726 2,07E+00 0

N= 10 3,18E+00 2,00E+00 3,26E-01 3,12E+00 0

N= 12 1,13E+01 1,08E+01 8,82E-01 8,31E+00 0

N= 14 1,64E+01 1,53E+01 9,11E-01 9,44E+00 0

N= 16 1,95E+01 1,56E+01 2,35E+00 1,23E+01 0

N= 18 2,73E+01 2,60E+01 9,83E+00 1,40E+01 0

N= 20 3,19E+01 3,07E+01 4,25E+00 1,63E+01 0

N= 22 3,81E+01 3,82E+01 1,04E+01 1,32E+01 0

S = 25

N= 2 8,6E-17 2,25E-19 8,65E-23 4,63E-16 33

N= 4 3,17E-02 0,001364 4,98E-07 1,31E-01 31

N= 6 3,71E-01 1,70E-01 0,003985 5,50E-01 11

N= 8 3,85E+00 6,72E-01 1,30E-01 6,60E+00 0

N= 10 6,78E+00 3,35E+00 0,139891 7,74E+00 0

N= 12 9,64E+00 7,75E+00 6,13E-01 7,76E+00 0

N= 14 1,79E+01 1,72E+01 1,17E+00 1,05E+01 0

N= 16 2,48E+01 2,28E+01 8,27E-01 1,51E+01 0

N= 18 2,91E+01 3,08E+01 6,35E+00 1,44E+01 0

N= 20 2,83E+01 2,66E+01 1,61E+00 1,68E+01 0

N= 22 3,56E+01 3,94E+01 6,95E+00 1,46E+01 0

TABLE V. FUNÇÃO CUSTO SCHWEFEL

Média Mediana Mínimo

Desvio

Padrão Goals

S = 10

N= 2 -1,15E+03 -1,14E+03 -1,95E+03 3,64E+02 33

N= 4 -1,80E+03 -1,74E+03 -3,16E+03 4,45E+02 33

N= 6 -1,94E+03 -1,97E+03 -2,88E+03 5,22E+02 33

N= 8 -2,09E+03 -1,97E+03 -3,91E+03 6,57E+02 33

N= 10 -1,67E+03 -1,70E+03 -3,12E+03 7,29E+02 33

N= 12 -2,31E+03 -2,45E+03 -3,91E+03 9,64E+02 33

N= 14 -1,84E+03 -1,74E+03 -3,57E+03 7,88E+02 33

N= 16 -1,84E+03 -2,07E+03 -5,07E+03 1,36E+03 31

N= 18 -1,83E+03 -1,56E+03 -5,33E+03 1,30E+03 32

N= 20 -1,59E+03 -1,52E+03 -4,66E+03 1,41E+03 29

N= 22 -1,27E+03 -1,09E+03 -3,89E+03 1,10E+03 29

S = 20

N= 2 -1,52E+03 -1,34E+03 -2,27E+03 3,62E+02 33

N= 4 -2,07E+03 -2,11E+03 -2,74E+03 3,26E+02 33

N= 6 -2,59E+03 -2,61E+03 -3,57E+03 5,37E+02 33

N= 8 -2,76E+03 -2,78E+03 -4,32E+03 6,02E+02 33

N= 10 -2,78E+03 -2,72E+03 -4,13E+03 6,05E+02 33

N= 12 -2,74E+03 -2,72E+03 -4,99E+03 7,65E+02 33

N= 14 -2,95E+03 -2,98E+03 -4,78E+03 7,87E+02 33

N= 16 -2,76E+03 -2,76E+03 -5,59E+03 9,51E+02 33

N= 18 -2,75E+03 -2,54E+03 -5,80E+03 1,30E+03 33

N= 20 -3,03E+03 -2,84E+03 -7,19E+03 1,36E+03 33

N= 22 -2,76E+03 -2,82E+03 -5,96E+03 1,37E+03 32

S = 25

N= 2 -1,62E+03 -1,56E+03 -2,51E+03 3,30E+02 33

N= 4 -2,38E+03 -2,49E+03 -3,00E+03 3,67E+02 33

N= 6 -2,52E+03 -2,55E+03 -3,40E+03 5,01E+02 33

N= 8 -2,85E+03 -2,94E+03 -5,03E+03 7,46E+02 33

N= 10 -2,93E+03 -2,90E+03 -4,68E+03 7,10E+02 33

N= 12 -3,02E+03 -3,10E+03 -4,40E+03 7,59E+02 33

N= 14 -3,15E+03 -3,08E+03 -5,19E+03 9,72E+02 33

N= 16 -2,88E+03 -2,88E+03 -4,13E+03 8,03E+02 33

N= 18 -3,29E+03 -3,16E+03 -6,42E+03 1,13E+03 33

N= 20 -3,22E+03 -3,16E+03 -7,19E+03 1,29E+03 33

N= 22 -2,68E+03 -2,55E+03 -5,05E+03 1,44E+03 32

TABLE VI. FUNÇÃO CUSTO ACKLEY

Média Mediana Mínimo

Desvio

Padrão Goals

S = 10 N= 2 1,02E+01 1,02E+01 1,02E+01 5,41E-15 0

Page 5: Otimização PSO.pdf

N= 4 1,02E+01 1,02E+01 1,02E+01 5,41E-15 0

N= 6 1,02E+01 1,02E+01 1,02E+01 1,88E-01 0

N= 8 1,05E+01 1,02E+01 1,02E+01 4,48E-01 0

N= 10 1,08E+01 1,06E+01 1,02E+01 5,91E-01 0

N= 12 1,14E+01 1,15E+01 1,02E+01 6,72E-01 0

N= 14 1,19E+01 1,19E+01 1,07E+01 5,27E-01 0

N= 16 1,20E+01 1,19E+01 1,02E+01 9,05E-01 0

N= 18 1,26E+01 1,29E+01 1,10E+01 8,20E-01 0

N= 20 1,31E+01 1,30E+01 1,17E+01 9,05E-01 0

N= 22 1,34E+01 1,34E+01 1,17E+01 7,74E-01 0

S = 20

N= 2 1,02E+01 1,02E+01 1,02E+01 5,41E-15 0

N= 4 1,02E+01 1,02E+01 1,02E+01 5,41E-15 0

N= 6 1,02E+01 1,02E+01 1,02E+01 1,12E-01 0

N= 8 1,03E+01 1,02E+01 1,02E+01 2,03E-01 0

N= 10 1,03E+01 1,02E+01 1,02E+01 2,69E-01 0

N= 12 1,07E+01 1,08E+01 1,02E+01 4,50E-01 0

N= 14 1,09E+01 1,07E+01 1,02E+01 5,13E-01 0

N= 16 1,12E+01 1,12E+01 1,02E+01 5,79E-01 0

N= 18 1,16E+01 1,14E+01 1,04E+01 7,54E-01 0

N= 20 1,21E+01 1,20E+01 1,02E+01 7,69E-01 0

N= 22 1,24E+01 1,24E+01 1,10E+01 6,64E-01 0

S = 25

N= 2 1,02E+01 1,02E+01 1,02E+01 5,41E-15 0

N= 4 1,02E+01 1,02E+01 1,02E+01 5,41E-15 0

N= 6 1,02E+01 1,02E+01 1,02E+01 5,41E-15 0

N= 8 1,02E+01 1,02E+01 1,02E+01 8,86E-02 0

N= 10 1,03E+01 1,02E+01 1,02E+01 3,04E-01 0

N= 12 1,05E+01 1,05E+01 1,02E+01 3,92E-01 0

N= 14 1,07E+01 1,07E+01 1,02E+01 3,70E-01 0

N= 16 1,10E+01 1,11E+01 1,02E+01 5,75E-01 0

N= 18 1,14E+01 1,14E+01 1,02E+01 7,03E-01 0

N= 20 1,18E+01 1,16E+01 1,06E+01 7,89E-01 0

N= 22 1,21E+01 1,19E+01 1,09E+01 8,32E-01 0

IV. CONCLUSÕES E DISCUSSÕES

Observando o desempenho do PSO para as diferentes

funções custo é possível notar que algumas delas apresentaram desempenhos melhores com um número menor de partículas no enxame, como foi o caso da função Quadric, onde a medida que o dimensionamento do espaço em estudo aumentava os valores obtidos na otimização eram maiores que o threshold estabelecido, tornando a otimização, deste exercício, por esta função menos eficiente. O mesmo foi observado nas funções Rosenbrock e Rastrigin.

Já na funções Esférica e Schwefel os valores obtidos durante as interações foram mais acertivos que para outras funções. De maneira geral, para o problema proposto estas funções apresentaram melhores resultados, com a grande maioria das soluções menores que o threshold de 0.01.

Com os resultados obtidos pode-se observer que o algoritmo de otimização estudado neste trabalho pode ser implementado com diferentes funções custo e cada uma delas oferecer soluções distintas para um mesmo espaço amostral. E tendo em vista que o PSO se reorganiza a cada nova interação as soluções obtidas foram boas na maioria das funções.

REFERÊNCIAS

[1] J. A. Ruiz-Vanoye and O. Díaz-Parra, “Bio-innovacion”, Editorial

Académica Dragón Azteca, 1° Ed, Junho 2013.

[2] M. P. Caraciolo, “Multi-Ring: Uma nova topologia para otimização por enxame de partículas (PSO)”. Trabalho de Conclusão de Curso - Eng. Da Computação. Escola Politécnica de Pernambuco. 2008. Disponível em: http://tcc.ecomp.poli.br/20081/monografia_marcel_final.pdf.

[3] M. SCHWAAB, “Análise de Dados Experimentais I - Fundamentos de Estatística e Estimação de Parâmetros”. Rio de Janeiro, E-papers, 2007.

[4] A. V. Siciliano, “Algoritmos Genéticos e Particle Swarm Optimization e

suas aplicações problemas de Guerra Eletrônica.” Diretoria de Sistemas de Armas da Marinha (DSAM). IX Simpósio de Guerra Eletrônica. Rio de Janeiro, 2007.

[5] Kennedy, J. e R. Eberhart. Particle Swarm Optimization. IEEE

International Conference on Neural Network. Perth, Australia, 1995. 1942-1948p.