Aplicação de Modelos de Redes
Neurais na Elaboração e Análise de
Cenários Macroeconômicos
Maurílio Benite
Dissertação apresentada à Escola de Engenharia de São
Carlos da Universidade de São Paulo, como parte dos
requisitos para obtenção do título de Mestre em Engenharia
de Produção
ORIENTADOR: Prof. Dr. Marcelo Seido Nagano
São Carlos
2003
ii
Ao Prof. Dr. Marcelo Seido Nagano, pela orientação segura, pelo incentivo,
pela amizade e por tudo aquilo que me ensinou no decorrer da realização deste
trabalho.
Ao Prof. Titular João Vitor Moccellin e ao Prof. Dr. Edgard Monforte Merlo,
pelos valiosos comentários e sugestões durante o Exame de Qualificação.
Ao Prof. Dr. Renato Vairo Belhot, pelo apoio no início desta caminhada.
À Marisley, por estar sempre presente nos momentos importantes da minha
vida, pelo carinho, companheirismo e incentivo desde meu ingresso até a conclusão
deste trabalho de Pós-Graduação.
Ao CNPq – Conselho Nacional de Desenvolvimento Científico e
Tecnológico, pelo apoio financeiro.
A todos os funcionários da Pós-Graduação do Departamento de Engenharia
de Produção da EESC – USP, especialmente José Luís e Silvana, pela paciência,
colaboração e boa vontade.
Aos companheirões Gargamel, Leandro e Tião, pela força.
iii
SUMÁRIO
LISTA DE FIGURAS....................................................................................................................v
LISTA DE TABELAS...................................................................................................................vi
LISTA DE ABREVIATURAS E SIGLAS......................................................................................viii
LISTA DE SÍMBOLOS..................................................................................................................x
RESUMO.................................................................................................................................xiii
ABSTRACT...............................................................................................................................xiv
1 INTRODUÇÃO.........................................................................................................................1
1.1 Justificativa..........................................................................................................................3
1.2 Objetivo...............................................................................................................................6
2 CENÁRIOS E COMPLEXIDADE SISTÊMICA............................................................................8
2.1 Cenários...............................................................................................................................8
2.2 Ambientes complexos e a Cibernética..............................................................................10
3 REDES NEURAIS ARTIFICIAIS E SUAS APLICAÇÕES............................................................13
3.1 Condições e descrição da ativação neural.........................................................................15
3.2 Aprendizado neural...........................................................................................................18
3.3 Arquitetura e processamento neurais básicos....................................................................19
3.4 Treinamento de uma rede neural genérica........................................................................24
3.5 Aplicações em redes neurais artificiais.............................................................................27
4 REDES NEURAIS AUTO-ORGANIZADAS...............................................................................30
4.1.1 Teoria de Ressonância Adaptativa – Redes ART..........................................................31
iv
4.1.2 Operação e parâmetros de uma Rede ART-2.................................................................38
4.1.3 Algoritmo de treinamento de uma Rede ART-2............................................................40
4.2.1 Redes SOM.....................................................................................................................41
4.2.2 Conceito de vizinhança em redes SOM.........................................................................44
4.2.3 Operação e algoritmo de uma rede SOM......................................................................46
4.3 Redes neurais auto-organizadas e a proposta deste estudo..............................................49
5 ABORDAGEM NEURAL NÃO SUPERVISIONADA NA ELABORAÇÃO E ANÁLISE DE
CENÁRIOS MACROECONÔMICOS...........................................................................................50
5.1 Fase 1.................................................................................................................................61
5.2 Fase 2.................................................................................................................................65
5.3 Fase 3.................................................................................................................................68
5.4 Fase 4...............................................................................................................................100
5.5 Análise dos resultados obtidos........................................................................................101
6 CONSIDERAÇÕES FINAIS....................................................................................................103
REFERÊNCIAS BIBLIOGRÁFICAS.........................................................................................107
OBRAS CONSULTADAS..........................................................................................................114
APÊNDICE A – FUNÇÕES DE ATIVAÇÃO
APÊNDICE B – PAÍSES ESTUDADOS POR CONTINENTE
v
LISTA DE FIGURAS
FIGURA 1: Esquema de um neurônio biológico....................................................................13
FIGURA 2: Fronteiras de classificação linear e neural...........................................................17
FIGURA 3: Esquema de uma rede neural genérica................................................................22
FIGURA 4: Arquitetura de uma rede ART-2..........................................................................35
FIGURA 5: Arquitetura de uma rede SOM............................................................................43
FIGURA 6: Conceito de região de vizinhança em um arranjo retangular de neurônios.........45
FIGURA 7: Sistema neural híbrido usado na elaboração e estudo de cenários
macroeconômicos....................................................................................................................52
FIGURA 8: Exemplo de mapa topológico utilizado no estudo...............................................70
FIGURA 9: Regiões de ativação neural dos clusters ρ4c2, ρ7c2 e ρ9c2...............................71
FIGURA 10: Regiões de ativação neural dos clusters ρ4c3, ρ7c3 e ρ9c3.............................73
FIGURA 11: Regiões de ativação neural do cluster ρ4c4......................................................75
FIGURA 12: Regiões de ativação neural do cluster ρ7c5......................................................80
FIGURA 13: Regiões de ativação neural do cluster ρ9c6......................................................85
FIGURA 14: Regiões de ativação neural do cluster ρ9c7......................................................87
FIGURA 15: Regiões de ativação neural do cluster ρ9c8......................................................89
FIGURA 16: Regiões de ativação neural do cluster ρ9c9......................................................91
FIGURA 17: Regiões de ativação neural do cluster ρ9c10....................................................93
FIGURA 18: Regiões de ativação neural do cluster ρ9c11....................................................96
FIGURA 19: Regiões de ativação neural do cluster ρ9c12....................................................98
vi
LISTA DE TABELAS
TABELA 1: Países de renda per capita baixa, de acordo com WORLD BANK (1995).......58
TABELA 2: Países de renda per capita média-baixa, de acordo com WORLD BANK
(1995)......................................................................................................................................59
TABELA 3: Países de per capita média, de acordo com WORLD BANK (1995)................59
TABELA 4: Países de per capita média-alta, de acordo com WORLD BANK (1995).........60
TABELA 5: Países de per capita alta, de acordo com WORLD BANK (1995)....................61
TABELA 6: Quantidade de clusters obtidos para cada valor de ρ empregado no
estudo.......................................................................................................................................62
TABELA 7: Quantidade de países em cada um dos clusters obtidos para ρ = 0,4.................63
TABELA 8: Quantidade de países em cada um dos clusters obtidos para ρ = 0,7.................64
TABELA 9: Quantidade de países em cada um dos clusters obtidos para ρ = 0,9.................64
TABELA 10: Países contidos em cada cluster, para ρ = 0,4..................................................66
TABELA 11: Países contidos em cada cluster, para ρ = 0,7..................................................66
TABELA 12: Países contidos em cada cluster, para ρ = 0,9..................................................67
TABELA 13: Neurônios vencedores para cada país nos clusters ρ4c2, ρ7c2 e ρ9c2............72
TABELA 14: Neurônios vencedores para cada país nos clusters ρ4c3, ρ7c3 e ρ9c3............74
TABELA 15: Neurônios vencedores para cada país no cluster ρ4c4.....................................76
TABELA 16: Neurônios vencedores para cada país no cluster ρ7c5.....................................81
TABELA 17: Neurônios vencedores para cada país no cluster ρ9c6.....................................86
vii
TABELA 18: Neurônios vencedores para cada país no cluster ρ9c7.....................................88
TABELA 19: Neurônios vencedores para cada país no cluster ρ9c8.....................................90
TABELA 20: Neurônios vencedores para cada país no cluster ρ9c9.....................................92
TABELA 21: Neurônios vencedores para cada país no cluster ρ9c10...................................94
TABELA 22: Neurônios vencedores para cada país no cluster ρ9c11...................................97
TABELA 23: Neurônios vencedores para cada país no cluster ρ9c12...................................99
viii
LISTA DE ABREVIATURAS
ARCH - Autoregressive Conditional Heteroskedasticity
ART – Adaptive Ressonance Theory
BAM – Bidirectional Associative Memory
BSB – Brain State in a Box
BPI – Business Periodics Index
CMAC – Cerebellar Model Articulation Controller
DCL – Differential Competitive Learning
FIR – Finite Impulse Response
GARCH – Generalized Autoregressive Conditional Heteroskedasticity
GRNN – General Regression Neural Network
IEEE – Institute of Electrical and Electronics Engineers
IPVR – Institute for Parallel and Distributed High Performance Systems
LVQ – Learning Vector Quantization
MLP – Multi Layer Perceptron
NN – Neural Network
OLS – Orthogonal Least Squares
ix
PNN – Probabilistic Neural Networks
RBF – Radial Basis Function
RPROP – Recurrent Back-Propagation
SOM – Self-Organizing Map
SNNS – Stuttgart Neural Network Simulator
TDNN – Time Delay Neural Network
x
LISTA DE SÍMBOLOS
a - pesos fixos ascendentes da camada F1 em redes ART
aij - conexão neuronal ascendente da camada F1b à camada F2 em redes
ART
b - pesos fixos descendentes na camada F1 em redes ART
C1 - neurônio de controle de apresentação de dados para F1 em redes
ART
C2 - neurônio de controle de apresentação de dados para F2 em redes
ART
c - peso fixo utilizado no teste de reset em redes ART
D - vetor de dados descendente comparado aos padrões contidos em F2
em redes ART
Dj - distância entre as ponderações do padrão d entrada e do neurônio j
em redes SOM
Dn - arranjo dimensional de neurônios em redes SOM
d - ativação da unidade F2 vencedora em redes ART
xi
dij - conexão neuronal descendente da camada F1b à camada F2 em redes
ART
e - parâmetro preventivo de divisão por zero no treinamento de redes
ART
F1 - camada de processamento dos vetores de entrada em redes ART
F1a - camada de neurônios de pré-processamento dos dados de entrada
em redes ART-2
F1b - camada de neurônios de transmissão de dados pré-processados em
redes ART-2
F2 - neurônios representativos de cada categoria em redes ART
I - vetor de dados de entrada em redes ART
L - regra de aprendizagem neuronal em redes SOM
m - neurônio vencedor em redes SOM
n - número de unidades de entrada de uma rede ART
ri - posição relativa de um neurônio em redes SOM
rm - posição relativa de um neurônio vencedor em redes SOM
t - número de ciclos do treinamento de redes ART
Vm(t) - região de vizinhança de um neurônio vencedor em redes SOM
Wij - ponderações dos dados de entrada e dos neurônios do mapa
topológico em redes SOM
xii
z - número de unidades de cluster em redes ART
α - taxa de aprendizagem de uma rede ART
ρ - parâmetro de vigilância de uma rede ART
σ - função de controle de aprendizado da região de vizinhança de redes
SOM
Ω - número de ciclos de treinamento em redes SOM
xiii
RESUMO
BENITE, M. (2003). Aplicação de modelos de redes neurais na elaboração e análise de
cenários macroeconômicos. São Carlos, 2003. 123 p. Dissertação (Mestrado) – Escola de
Engenharia de São Carlos, Universidade de São Paulo.
Este estudo versa sobre uma investigação de viabilidade da utilização de redes
neurais auto-organizadas na classificação e exploração de dados macroeconômicos. Para
tanto, foi elaborado um método no qual foram empregadas topologias neurais auto-
organizadas, procurando assim explorar as características de melhor desempenho de cada um
dos modelos, sob um enfoque seqüencial e com o intuito de se adquirir conhecimento
intermediário em cada uma de suas fases, diminuindo o impacto da complexidade tanto no
tempo requerido para realização da tarefa quanto na análise dos resultados. Os próprios
resultados obtidos sugerem que a utilização de redes neurais artificiais auto-organizadas na
aquisição de conhecimento sobre bases de dados aplicáveis às Ciências Econômicas
apresenta desempenho análogo aos modelos paramétricos tradicionalmente empregados na
construção de cenários com tais informações.
Palavras-chave: redes neurais auto organizadas; dados macroeconômicos; cenários e
complexidade.
xiv
ABSTRACT
BENITE, M. (2003). Application of neural network models in macroeconomic scenarios
building and analysis. São Carlos, 2003. 123 p. Dissertação (Mestrado) – Escola de
Engenharia de São Carlos, Universidade de São Paulo.
This study turns on an inquiry of viability of the use of self-organizing neural nets in
classification and exploration of macroeconomic data. For this purpose, a method in which
had been used self-organized neural topologies was elaborated, looking to explore the better
characteristics of performance of each one of the models, under a sequential approach and
with objective of acquiring intermediate knowledge in each one of its phases, diminishing
the impact of the complexity as in time consuming as in analysis of results. Main results
obtained suggest the use of self-organized artificial neural nets in acquisition of knowledge
on Economic databases presents analog performance to traditional parametric models in
scenarios building.
Keywords: self-organizing neural networks; macroeconomic data; scenarios and complexity.
1
1 INTRODUÇÃO
A necessidade de conhecer as causas e o desejo de controlar o nível de incerteza que
cerca diversos aspectos da vida têm sido temas centrais das relações do Homem com a
Natureza e seus eventos futuros. Sob um ambiente de incerteza, freqüentemente torna-se
necessária a tomada de decisões enquadradas em circunstâncias as quais se têm pouco
conhecimento acerca das conseqüências futuras, o que torna interessante a elaboração de
uma perspectiva dos possíveis efeitos que redundarão destas decisões.
De maneira a lidar com este problema, deve haver a possibilidade de se identificar
potenciais de sucesso e fracasso ao longo do tempo e, se possível, monitorar e controlar seu
processo gerador. Pensando nos diferentes resultados possíveis de um determinado evento a
ser realizado como diferentes estados de natureza de um processo, sob uma situação ótima
dever haver sempre um plano contingente elaborado através da especificação geral dos
vários resultados possíveis deste processo em relação ao futuro (VARIAN, 1994). A mais
utilizada forma de se prover a informação requerida para uso em processos decisórios é a
utilização de cenários (GODET & ROUBELAT, 1996; GAUSEMEIER, FINK &
SCHLAKE, 1998). A elaboração e o gerenciamento de cenários são métodos importantes e
amplamente utilizados no acompanhamento de processos de planejamento, e com base em
suas projeções são efetuados ajustes e correções nestes processos com o intuito de se
alcançar metas e traçar objetivos de maneira satisfatória (GODET, 1987).
2
Uma metodologia operacional bastante usual de se elaborar um cenário consiste na
restrição do campo de estudo a partir da definição e delimitação de um determinado sistema
a ser abordado e explorado analiticamente. Um sistema qualquer consiste de um grupo de
elementos inter-relacionados, coordenados de maneira a formar um conjunto
(GAUSEMEIER, FINK & SCHLAKE, 1998). As estruturas de um sistema, como por
exemplo, a rede de relacionamentos entre seus elementos, é essencial na compreensão de sua
evolução na medida em que se mantém alguma estabilidade global. O papel de uma análise
estrutural é destacar o arranjo dos relacionamentos entre as variáveis envolvidas,
independentemente de serem quantificáveis ou não, as quais caracterizam o sistema em
questão. Contudo, tais estruturas, além de seu estado momentâneo, por muitas vezes também
apresentam uma evolução temporal (GODET, 1987) que apresenta basicamente as seguintes
características:
• Tendência à variação: novas tecnologias, regulamentação, intervenção e expectativas
são fatores que provocam um aumento contínuo do número de variáveis que
influenciam um determinado estado;
• Tendência dinâmica: a interação ao longo do tempo entre as variáveis explicativas
causa freqüentes modificações nos processos que geram estados futuros.
Muitos sistemas apresentam estas duas tendências simultaneamente, e a união entre
as mesmas pode gerar um considerável aumento na sua complexidade, fazendo com que a
efetividade de métodos tradicionais de gerenciamento e controle torne-se cada vez menor ao
longo do tempo. A interdependência entre os diversos fatores de influência desempenha um
papel fundamental na compreensão destes sistemas, e uma abordagem apropriada para seu
monitoramento seria a idéia de um conjunto de influências coligadas (GAUSEMEIER, FINK
& SCHLAKE, 1998) a serem gerenciadas como um todo.
3
1.1 Justificativa
A construção de uma metodologia de apoio à decisão baseada na obtenção dos seus
possíveis estados e o posterior agrupamento de seus elementos constituintes através do uso
de técnicas de processamento exclusivamente matemático, com o intuito de se acompanhar e
monitorar tanto o estado quanto a trajetória de um determinado sistema, seria interessante
sob o ponto de vista não só de monitoramento e gerenciamento deste sistema bem como da
verificação da aplicabilidade da técnica em relação ao problema proposto. Dentre as mais
diversas técnicas adequadas a este tipo de aplicação, destacam-se os modelos de redes
neurais artificiais como uma alternativa interessante na construção de tecnologias de suporte
à decisão. Redes neurais artificiais apresentam características específicas, intrínsecas à sua
formulação, que possibilitam a aproximação de qualquer função contínua, inclusive funções
não lineares complexas, e também podem generalizar os resultados obtidos para dados
previamente desconhecidos, ou seja, produzir respostas coerentes e apropriadas para padrões
ou exemplos que não foram utilizados em seu treinamento (FAUSETT, 1994; HAYKIN,
1994; BISHOP, 1995).
Através do uso de modelos de redes neurais, mais especificamente aqueles
conhecidos como modelos neurais auto-organizados, podem ser ilustradas as estruturas
contidas em uma base de dados arbitrária, que descrevem diferentes aspectos de um
determinado fenômeno de interesse. Pode-se citar como exemplo, que em tarefas de
reconhecimento de imagens, uma base de dados deve ser trabalhada tendo-se em mente a
necessidade de se descrever um determinado estado do sistema que define o conjunto, como
no caso de reconhecimento de alvos ou no diagnóstico de doenças. Quando modelos neurais
4
são usados para representar um estado, esta representação pode ser considerada como um
modelo não paramétrico deste sistema, produzido automaticamente (KOHONEN, 1989).
No âmbito da análise dos resultados obtidos, seria desejável a existência de
conhecimento que direcione a qualidade dos resultados disponibilizados pelo sistema;
contudo este conhecimento pode ser excessivamente complexo, não estar padronizado ou
mesmo não existir, e assim poderia-se contar com os resultados obtidos pelo processamento
dos dados disponíveis realizado pelo próprio sistema, monitorando-os ao longo do tempo
para que seu aperfeiçoamento conduza a resultados cada vez mais aderentes às necessidades
dos usuários (LAUDON & LAUDON, 1996).
Como técnica alternativa para a realização deste tipo de tarefa, existem modelos
neurais particulares auto-organizados conhecidos como redes SOM (Self-Organizing Maps)
que podem ser usados em uma apresentação visual das estruturas contidas em qualquer base
de dados. Se estes dados descrevem o estado de um mesmo sistema em momentos distintos,
como no caso de uma análise de série de tempo, os relacionamentos entre estes casos serão
evidenciados. Por outro lado, se os dados descrevem os estados de diferentes sistemas, estes
sistemas se tornarão comparáveis entre si (KASKI & KOHONEN, 1996).
Não há dúvidas de que existem técnicas muito diversas para a realização de uma
mesma tarefa matemática (ZHANG, PATUWO & HU, 1998), inclusive no caso da
elaboração e análise de cenários (GAUSEMEIER, FINK & SCHLAKE, 1998). Existem
diversos procedimentos paramétricos consagrados que são largamente utilizados para a
análise de dados e suas estruturas subjacentes, dentre os quais pode-se citar:
5
• Análise Multivariada: técnica estatística, que consiste no estudo dos
relacionamentos entre variáveis contidas em arranjos matriciais, sendo possível
também sua aplicação na geração e análise de clusters (JOHNSON & WICHERN,
1992);
• Metodologia Box-Jenkins: estudo da evolução temporal de uma ou mais variáveis e
modelagem de fenômenos através do inter-relacionamento entre variáveis
dependentes e independentes ocorrido através do tempo (BOX & JENKINS, 1976);
• Modelos Heterocedásticos ARCH-GARCH: modelos focados no relaxamento da
hipótese estatística de variância constante nos dados de diversas amostras de uma
população (ENGLE, 2001).
Porém, a despeito de sua inegável utilidade, estes modelos tradicionais apresentam
características que geram dificuldades operacionais para sua efetiva aplicação, como o
problema inerente em se trabalhar com modelos estatísticos complexos, suas hipóteses
restritivas a serem satisfeitas e a dificuldade em se alcançar conclusões e resultados por não
especialistas (SERRANO-CINCA, 1996). Modelos de redes neurais artificiais auto-
organizados possuem a vantagem de não exigirem do usuário a aplicação de nenhuma teoria
acerca da organização destes dados, e podem fornecer subsídios para a atualização ou
mesmo formulação de novas teorias acerca do assunto em questão (SARLE, 2001), o que
possibilita seu emprego como alternativa a estes modelos.
Desde a última década, redes neurais artificiais têm sido bastante empregadas como
estruturas computacionais para apoio à decisão e ganho muita popularidade em diversas
áreas como engenharia, filosofia, psicologia, lingüística, estatística, processamento de sinais,
previsão de séries temporais e problemas de reconhecimento de padrões (BRAGA,
6
LUDERMIR & CARVALHO, 2000). A versatilidade apresentada pelo processamento de
dados paralelo habilita os modelos neurais a muitos outros campos do conhecimento.
Deste modo, este estudo propõe a utilização de uma abordagem neural na elaboração
e análise de cenários macroeconômicos e a discussão de seus resultados em relação à
factibilidade dos mesmos. Por meio do uso de técnicas específicas de redes neurais em que o
treinamento da rede não possui um resultado desejado correspondente através do qual seus
parâmetros de aprendizagem seriam calibrados pelo operador, procura-se investigar as saídas
produzidas pelos modelos utilizados através da comparação com aquelas elaboradas
usualmente por especialistas ou por modelos paramétricos já consagrados pela literatura.
Este tipo de questão é vastamente explorado por vários estudiosos da Computação
Neural. Contudo, tanto em âmbitos de aplicação quanto em bases de dados relacionados às
Ciências Humanas, sua disseminação é muito limitada devido às características específicas
da sua estrutura, pois sendo a tarefa classificatória realizada por um modelo de caixa-preta
baseado exclusivamente em critérios numéricos de aproximação de padrões, existe certa
resistência relativa à aceitação da sua aplicação, já que a classificação neural é puramente
numérica e iterativa.
1.2 Objetivo
O objetivo deste estudo é a investigação acerca da viabilidade de elaboração de
cenários através do uso de modelos de redes neurais auto-organizadas, bem como sua análise
sob uma ótica econômica. Para tanto, utiliza-se uma base de dados macroeconômicos por
país obtida no World Development Report, publicação anual editada pelo World Bank , na
versão editada em 1999.
7
Fazendo uso de algumas características dos modelos neurais, especialmente aquelas
relativas à classificação de padrões, a possibilidade da geração de autômatos reconhecedores
de características redundantes para a identificação de grupos de países baseados em sua
conjuntura econômica será apresentada. Procurar-se-á também demonstrar como um mapa
auto-organizado pode ser obtido e empregado na descrição visual das estruturas contidas em
um sistema macroeconômico. Assume-se a restrição de não haver conhecimento prévio
relacionado à quantidade ou os tipos de categorias existentes, buscando saídas definidas por
um processo próprio auto-organizativo gerado pelo processamento neural e que atuaria
independente de supervisão ou crítica, gerando resultados que poderiam ser comparados às
classificações obtidas por especialistas ou mesmo outros modelos mais empregados com esta
finalidade.
Este trabalho se encontra dividido em seis Capítulos, sendo este o primeiro deles,
que trata da apresentação, justificativa e objetivos do estudo. No Capítulo 2, discute-se a
problemática relativa à elaboração de cenários e a complexidade inerente ao gerenciamento
de vastas bases de dados, relacionadas aos problemas e ambientes ilustrados através destes
cenários. No Capítulo 3, apresentamos um resumo do funcionamento das redes neurais
artificiais, sua estrutura, seu modo de aprendizagem e as principais topologias utilizadas,
bem como alguns exemplos de aplicações clássicas nas quais o uso de redes neurais
artificiais é largamente empregado e aceito pelas comunidades científica e de negócios. O
Capítulo 4 apresenta as topologias neurais utilizadas no estudo: a Teoria da Ressonância
Adaptativa e os modelos neurais derivados da mesma, particularmente o modelo ART-2
(Adaptive Ressonance Theory), utilizado neste trabalho, e as redes SOM, empregadas na
obtenção de mapas topológicos para os clusters gerados pelas rede ART-2. Os resultados
8
obtidos pela abordagem neural aqui proposta estão contidos no Capítulo 5, e as
considerações finais do estudo são apresentadas e discutidos no Capítulo 6.
9
2 CENÁRIOS E COMPLEXIDADE SISTÊMICA
Conforme mencionado no Capítulo anterior, a elaboração de cenários consiste
atualmente na técnica mais comum empregada na descrição de sistemas diversos, sendo
também aplicada no estudo de alternativas de planejamento e controle dos mesmos. Assim, é
descrita a seguir uma metodologia bastante empregada na elaboração e análise de cenários de
qualquer escopo, de acordo com GODET & ROUBELAT (1996) e GAUSEMEIER, FINK &
SCHLAKE (1998).
2.1 Cenários
Um cenário é um estudo prospectivo acerca do futuro aliado à organização das
informações obtidas, de modo a oferecer um conjunto de informações coerente, sistemático,
compreensível e plausível, com o objetivo de descrever um determinado evento e oferecer
instrução e suporte à tomada de decisões (COATES, 2000). Duas grandes categorias podem
ser identificadas (GODET & ROUBELAT, 1996) quando se depara com os mais diversos
cenários produzidos:
• Cenário exploratório: estudo que considera as tendências observadas no passado e no
momento atual, concluindo com a geração de um provável estado futuro;
10
• Cenário antecipatório ou normativo: construído com base em diferentes pontos de
vista acerca do futuro, procura traçar diretrizes para que determinado estado seja
alcançado ou evitado.
Tanto cenários exploratórios como cenários antecipatórios podem e devem ser
direcionados por diversas alternativas e depois contrastados entre si e com o ambiente
contemporâneo, à medida que incorporam mudanças mais ou menos prováveis, para que se
possa efetuar um julgamento acerca de sua plausibilidade. De fato, a palavra “cenário” é
muitas vezes mal utilizada e serve para qualificar qualquer tipo de hipótese acerca de um
ambiente qualquer analisado, podendo ser este tanto estático quanto dinâmico.
Deste modo, é razoável considerar-se, em uma abordagem operacional, que cenários
são formatados através do encadeamento de uma ou diversas técnicas de análise de
informações, dispostas em uma seqüência lógica, com o intuito de se prover material
organizado e útil como apoio à tomada de decisões. Assim, os elementos comuns a qualquer
elaboração de cenários seriam seqüencialmente os seguintes (WOLLENBERG, EDMUNDS
& BUCK, 2000):
1. Definição do propósito dos cenários a serem elaborados;
2. Informação sobre a estrutura do sistema em questão e dos grandes direcionadores
de mudanças;
3. Geração dos cenários, através da organização estruturada das informações
disponíveis;
4. Implicações dos cenários e posterior utilização pelos tomadores de decisão.
11
O trabalho resultante desta operação, assim, seria basicamente um estudo que
possibilitaria ao seu usuário final a tomada de decisões fundamentado em seus pressupostos
e conclusões, tanto no aspecto de controle e monitoramento, realizados através de ajustes aos
desvios da trajetória esperada, como no aspecto da análise gerencial das informações
contidas. De fato, a elaboração e o uso de cenários têm sido cada vez mais utilizados pelas
mais diversas organizações a partir dos anos 70 (GAUSEMEIER, FINK & SCHLAKE,
1998), tanto na orientação do planejamento estratégico de procedimentos, quanto na
definição de atitudes pró-ativas em relação ao ambiente.
Contudo, e especialmente no âmbito das Ciências Humanas, a interpretação de
cenários antecipatórios ou exploratórios é permeada por aspectos de análise qualitativa, e por
conseqüência de pontos de vista extremamente particulares sobre determinados problemas,
que por sua vez dependem de várias características subjetivas relacionadas ao(s) analista(s)
envolvidos na tarefa, tornando sempre suas conclusões passíveis de discussão e limitando a
existência de trabalhos orientando sua elaboração mais específica e adequada a determinados
tipos de ambientes distintos (BEER, 1979), especialmente quando o assunto trata de temas
complexos.
As implicações desta complexidade resultam em que muitas vezes não existem
metodologias baseadas em análise qualitativa que sejam suficientemente seguras do ponto de
vista analítico: via de regra, os cenários obtidos através de análise qualitativa carecem de
uma metodologia padronizada, já que são baseadas em pontos de vista personalizados. Isso
nos remete ao objetivo deste estudo, que procura apresentar uma alternativa baseada em um
processamento numérico de elaboração de cenários compostos por dados estudados em
Humanidades. A identificação de relacionamentos a posteriori realizada por modelos
neurais auto-organizados mostra-se uma ferramenta aplicável em uma vasta gama de estudos
12
prospectivos, e assim sua aplicabilidade pode significar um passo na direção desta
padronização, ainda que os resultados obtidos careçam de formalismo paramétrico.
2.2 Ambientes complexos e a Cibernética
A construção de cenários é uma tarefa envolvida em uma situação complexa,
causada não apenas pelas diferentes características contidas nas diversas informações
utilizadas, mas também pela interdependência e influência dos dados entre si e pela
instabilidade gerada por estes relacionamentos (WILLIAMS, 1999), que aumentam
exponencialmente à medida que mais informação é adicionada. A maneira mais usual de se
lidar com esta complexidade é a construção de sistemas de informação que produzam
resultados compatíveis e aceitáveis (LAUDON & LAUDON, 1996; TURBAN &
ARONSON, 2001) com a necessidade final expressa na elaboração dos cenários em questão
(GAUSEMEIER, FINK & SCHLAKE, 1998). A abordagem sistêmica utilizada trata-se de
uma escolha gerencial, tomada no sentido de se prover apoio aos processos de planejamento,
previsão, monitoramento e controle de projetos cuja complexidade intrínseca se constitui em
um grande desafio. Esta escolha se concentra em basicamente um dos três métodos
apresentados abaixo (LAUDON & LAUDON, 1996; WILLIAMS, 1999);
• Metodologia clássica: consiste na decomposição descendente do sistema em
direção aos seus elementos estruturais;
• Metodologia holística: baseada na composição ascendente do sistema a partir de
seus elementos básicos;
• Uso de elementos de Tecnologia de Informação e Pesquisa Operacional: objetivo
de se buscar novos relacionamentos nos dados que possam indicar resultados não
facilmente perceptíveis.
13
Quaisquer das três alternativas apresentadas possuem vantagens e desvantagens na
busca de semelhanças estruturais relacionadas à existência de propriedades gerais, que
podem ser ou não aplicáveis às mais diversas formas sistêmicas (DURATEX S.A., 1985).
Porém, o grande complicador de uma análise sistêmica consiste na dificuldade em se apontar
com segurança quais propriedades identificadas em um determinado sistema podem ser
generalizadas para um outro sistema em particular, e este problema aumenta à medida que se
adicionam mais e mais dados na composição da análise. Existe ainda um caráter
probabilístico envolvido na tarefa decisória: como de fato parece ser impossível lidar com a
complexidade inerente aos sistemas de uma maneira geral, deve haver uma probabilidade
associada a cada cenário oriundo da análise de um determinado sistema.
Muito embora vários modelos possam ser desenvolvidos com vista à tomada de
decisões em um ambiente de complexidade crescente, neste estudo é utilizada a abordagem
proposta na Cibernética conforme BEER (1979): a complexidade inerente à interação entre
os dados estruturais de um sistema, associada à possibilidade de erro inerente à incerteza
decorrente de uma análise específica, deve ser tratada como um modelo de caixa preta, ou
seja, assume-se que não seria de fato plausível que uma análise qualquer seria a mais
adequada (o que de fato pode ser um argumento em favor da personalização). Entretanto,
alternativas das mais diversas teriam sua efetividade observada pelos resultados obtidos
independentemente da metodologia empregada. Aqui nota-se a possibilidade alternativa
oferecida pelos modelos de redes neurais artificiais.
Dentre as alternativas relativas especificamente ao terceiro método relacionado às
diversas abordagens sistêmicas de construção de cenários apresentado acima (como por
exemplo, o emprego da Análise Multivariada), os modelos de redes neurais artificiais
destacam-se como uma abordagem numérica e de processamento paralelo que apresentam
14
resultados bastante positivos na busca e classificação de padrões de dados semelhantes, e que
desde os anos 80 têm ganho crescente popularidade entre o meio acadêmico e o mundo dos
negócios. No próximo capítulo será descrita a estrutura geral dos modelos neurais, bem
como apresentam-se algumas aplicações clássicas em que estes modelos são empregados,
através dos quais procurar-se-á clarificar a razoabilidade da proposição deste estudo.
15
3 REDES NEURAIS ARTIFICIAIS E SUAS APLICAÇÕES
Uma rede neural artificial é um sistema de processamento de informações que
apresenta certas características em comum com as redes neurais biológicas que formam o
sistema nervoso dos seres vivos. Basicamente, estas características são formuladas através do
estudo da célula fundamental do cérebro, o neurônio, e reproduzidas através de algoritmos
que procuram simular o funcionamento de um conjunto de neurônios. É apresentado na
figura abaixo um exemplo simplificado de um neurônio.
FIGURA 1: Esquema de um neurônio biológico. Adaptado de HAYKIN (1994).
Soma
Dendritos
Axônios
Sentido da Propagação do Impulso Nervoso
16
O funcionamento de um neurônio biológico pode ser resumido basicamente da
seguinte maneira: os dendritos recebem sinais de entrada vindos de outras células, o soma e
os próprios dendritos integram e processam estes sinais, a informação é transmitida ao longo
do axônio para outros neurônios por meio das sinapses, que são as ligações entre os
dendritos de neurônios diferentes.
Os neurônios biológicos atuam em conjunto na realização de suas funções nos seres
vivos, através de uma arquitetura paralela composta por bilhões de células realizando um
processamento concomitante. Esta formatação particular torna o sistema nervoso capaz de
realizar determinadas tarefas com resultados melhores do que os obtidos por um
processamento computacional em série, como por exemplo, modelagem e identificação de
padrões e processamento de imagens e sinais (BRAGA, LUDERMIR & CARVALHO,
2000). Assim, modelos de redes neurais artificiais foram motivados pelo desejo de se
entender e simular o funcionamento do cérebro humano, e têm sido desenvolvidos através de
generalizações via modelos matemáticos inspirados na cognição humana ou na biologia
neural (FAUSETT, 1994), com base nas seguintes hipóteses genéricas:
• O processamento de informações ocorre em elementos simples chamados
neurônios;
• São transmitidos sinais entre os neurônios através de conexões (sinapses) existentes
entre eles;
• Cada conexão tem associada a si uma ponderação, a qual, em uma rede neural
típica, processa o sinal transmitido; o conjunto destas ponderações pode ser visto
como o conhecimento armazenado na rede, contido em uma memória distribuída;
• Neurônios que desempenham função semelhante durante o processamento da
informação recebida são dispostos em uma mesma camada; assim, camadas
17
sucessivas são criadas na rede neural com o intuito de se realizar em cada uma
delas uma fase distinta do processamento (redes multicamadas);
• A cada neurônio se aplica uma função de ativação (geralmente não linear) que
computa seu sinal de saída a partir dos dados recebidos.
No seguimento deste capítulo apresentamos as características comuns relativas às
arquiteturas e ao processamento presentes nos modelos de redes neurais artificiais mais
empregados, conforme FAUSET (1994), HAYKIN (1994), BISHOP (1995), BRAGA,
LUDERMIR & CARVALHO (2000) e SARLE (2001).
3.1 Condições e descrição da ativação neural
O processamento realizado pelos neurônios, além de estar disposto em uma
arquitetura paralela, também lança mão de uma propagação seqüencial na qual os neurônios
de camadas posteriores recebem como sinal de entrada o resultado do processamento
ocorrido nas camadas anteriores (redes multicamadas). Contudo, este sinal deve ser forte o
suficiente para que o neurônio seguinte seja estimulado a continuar realizando a transmissão
do impulso, caso contrário o processamento é interrompido (HAYKIN, 1994). Podemos
citar, como exemplo biológico, a reação à temperatura de um objeto tocado por uma pessoa;
se esta temperatura estiver dentro de parâmetros que não agridem o organismo, apenas a
sensação de toque é transmitida, enquanto a sensação da temperatura fica em um segundo
plano sensorial. Nos modelos de redes neurais artificiais, estas características são simuladas
através da adoção de estado, função e limiar de ativação.
O estado de ativação representa o próprio estado de cada um dos neurônios da rede -
ativado ou em repouso - e indica qual o formato dos dados que a rede é capaz de processar,
18
podendo estes serem compostos por valores binários (0 ou 1), bipolares (-1 ou +1) ou reais;
este estado é definido através de funções de ativação.
As funções de ativação realizam o processamento dos sinais recebidos por cada
neurônio individualmente e o transformam em um estado de ativação neural. Assim, várias
unidades de processamento de uma rede neural transformam seus dados de entrada usando
uma função escalar, gerando um valor chamado de valor de ativação, que é propagado
através das conexões sinápticas a uma ou mais unidades de processamento. A função de
ativação é chamada também de função de transferência, e a ativação do neurônio funciona
através da aplicação de funções matemáticas, envolvendo adições, comparações e/ou
transformações numéricas, como por exemplo, o uso de uma função degrau, tangente
hiperbólica ou logística (Apêndice A). Se uma unidade não transforma sua entrada, é dito
que se aplica uma função identidade ou função de ativação linear. A razão para o uso de
funções de ativação diferentes da função identidade reside na necessidade de se limitar os
valores de saída da rede, bem como na simulação de um limiar de ativação para que um
neurônio propague seu sinal adiante. O uso de diferentes tipos de funções de ativação,
portanto, consiste na delimitação da amplitude do sinal de saída do neurônio, e a escolha
deve ocorrer através de um método experimental. A principal vantagem apresentada por
modelos de redes neurais artificiais, quando comparados aos tradicionais modelos lineares,
consiste justamente na plasticidade de processamento decorrente de seu paralelismo e da
ajustabilidade de suas funções de ativação, que atuando em conjunto geram fronteiras de
classificação não lineares, conforme mostrado na figura abaixo:
19
FIGURA 2: Fronteiras de classificação linear e neural: o Gráfico A mostra a divisão entre duas classes de dados distintas obtidas por um modelo linear, e o Gráfico B mostra uma divisão para as mesmas classes obtida por um modelo não linear.
Já o limiar de ativação consiste em um valor obtido pela função de ativação que
determina o disparo ou a inibição da atividade do neurônio, conforme descrito acima, e a
conseqüente propagação do sinal pela rede, podendo consistir em um valor de corte em um
ponto de máximo ou de mínimo.
Algumas redes adotam também a aplicação de uma função de saída, que modula o
estado de ativação de um neurônio em seu valor de saída, porém geralmente é aplicada uma
função identidade.
3.2 Aprendizado neural
A mais distinta propriedade das redes neurais artificiais é sua habilidade em
aprender com o ambiente, e melhorar sua performance através deste aprendizado. Esta
X1
X2
X1
X2
Gráfico A Gráfico B
20
melhoria ocorre através de um processo iterativo e cíclico de ajustes realizados em suas
conexões sinápticas e em seu limiar de ativação (HAYKIN, 1994; BRAGA, LUDERMIR &
CARVALHO, 2000).
Geralmente, uma rede neural produz resultados cada vez melhores à medida que
existe uma maior quantidade de informação (dados) inseridos e disponíveis em seu processo
de aprendizado. O conjunto de regras e procedimentos numéricos adotados para obtenção de
estabilidade nos parâmetros da rede neural, através de um ajuste contínuo dos pesos das
conexões que definem os procedimentos para a solução de um problema de aprendizado, é
chamado de algoritmo de treinamento. Os algoritmos de treinamento mais empregados são
os seguintes:
• Aprendizado via correção de erro: utiliza uma função de custo associada aos erros
de processamento obtidos pela rede, e realiza os ajustes nos pesos sinápticos
baseados na gravidade deste erro, atingindo uma solução estável quando as
ponderações passam a mudar pouco a cada ciclo de treinamento;
• Aprendizado competitivo: os neurônios competem entre si pela atividade de
processamento através de mecanismos de comparação entre os dados e suas
ponderações, levando à especialização individual dos neurônios;
• Aprendizado Hebbiano: baseado no fortalecimento ou depressão sináptica em
função da existência ou ausência de propagação do sinal entre neurônios
conectados.
Contudo, independentemente do conjunto de regras empregado na obtenção do
aprendizado neural, os dados de treinamento disponíveis podem apresentar ou não pares de
entrada e saída que orientem os ajustes dos pesos sinápticos no sentido de que a rede produza
21
a saída desejada. Este aspecto diz respeito especialmente à interação entre a rede neural
empregada e seu ambiente, e esta particularidade é modelada através de paradigmas de
aprendizado.
Paradigmas de aprendizado são métodos de gerenciamento dos resultados
produzidos pela rede neural, constituídos basicamente pelo paradigma de aprendizado
supervisionado, o qual supõe a existência de um direcionador externo que orienta a rede para
as saídas desejadas, e pelo paradigma de aprendizado não supervisionado, no qual inexiste
este direcionador, fazendo com que os resultados produzidos pela rede sejam considerados
como sendo o melhor processamento possível obtido a partir dos dados disponíveis.
3.3 Arquitetura e processamento neurais
Os modelos de redes neurais artificiais mais amplamente empregados na resolução
dos mais diversos tipos de problemas apresentam algumas estruturas genéricas e outras
particulares que desempenham funções específicas no processamento neural. São
apresentadas abaixo as estruturas genéricas que compõem a imensa maioria das topologias
neurais, bem como o papel desempenhado pelas mesmas no processamento. Em respeito às
estruturas particulares, estas são em quantidade tão grande que seu detalhamento foge do
escopo deste trabalho. As estruturas genéricas são as conexões entre os neurônios e o arranjo
entre as camadas de neurônios da rede. Já os atributos básicos do processamento neural são a
conectividade, o padrão de propagação do sinal e o padrão de manutenção da sua topologia
(HAYKIN, 1994; BRAGA, LUDERMIR & CARVALHO, 2000).
As conexões entre os neurônios podem ser do tipo ascendente ou acíclico,
conectando o neurônio a outro(s) neurônio(s) que executem uma etapa posterior do
22
processamento, e descendente ou cíclico, conectando o neurônio a outro(s) neurônio(s) que
executem uma etapa anterior do processamento, como por exemplo em um mecanismo de
retroação do erro de classificação obtido. Via estas conexões interneuronais ocorre a
propagação do sinal de processamento na rede, que pode ocorrer de maneira direta, ou seja, o
sinal é sempre ascendente em direção à camada de saída, e a retropropagação, que ocorre
quando o impulso sináptico retorna pela rede com o intuito de se corrigir o erro da resposta
obtida em relação à desejada. Esta inovação foi a grande responsável pelo grande incremento
na capacidade de generalização apresentada por redes neurais multicamadas - o famoso
algoritmo Backpropagation descrito em RUMELHART, HINTON & WILLIAMS (1986).
Em relação à conectividade da rede, a mesma pode apresentar uma estrutura fraca
ou parcialmente conectada, quando nem todos os neurônios se conectam entre si,
completamente conectada, no caso onde todos os neurônios estão interconectados, e ainda
existem os modelos de redes neurais sem pesos, que se utilizam de tabelas-verdade
armazenadas em cada um dos neurônios da rede, sem existir entre estes conexão ponderada
ajustável.
Em relação à existência e arranjo das camadas de neurônios, característica esta que
geralmente batiza suas topologias representativas, a mesma consiste na maneira com que os
neurônios são estruturados, podendo ser redes de neurônio único – o famoso modelo
McCulloch-Pitts -, redes multicamadas (ver Figura 3), redes recorrentes, as quais possuem
conexões ligando a saída de um neurônio à entrada de outro neurônio da mesma camada, de
uma camada anterior ou de si mesmo, e estruturas neuronais matriciais, que consistem em
camadas dispostas de maneira multidimensional. Finalmente, não é absolutamente necessário
que o operador de uma rede neural deva ficar restrito ao padrão topológico adotado
inicialmente: pode-se incorrer na adoção de um padrão de manutenção da topologia através
23
do qual determina-se uma estrutura fixa, de modo que a disposição e quantidade dos
neurônios e das conexões permanece imutável ou redes neurais construtivas, ou seja, redes
com regras que permitem a otimização de sua estrutura para cada problema específico,
através do uso de algoritmos genéticos, técnicas de poda e algoritmos construtivos, onde
novas estruturas são adicionadas à rede ou eliminadas (BRAGA, LUDERMIR &
CARVALHO, 2000).
Apresenta-se na Figura 3 abaixo um esquema genérico utilizado desde os primeiros
modelos neurais propostos na década de 50 até hoje em algumas das topologias mais
utilizadas, como Multilayer Perceptron com algoritmo Backpropagation (RUMELHART,
HINTON & WILLIAMS, 1986), composto por uma rede neural artificial multicamadas
totalmente conectadas entre si.
FIGURA 3: Esquema de uma rede neural genérica. Adaptado de ZELL et al. (2001).
Camada de entrada
Camada intermediária
Conexões
Camada de saída
Dados de entrada
Saída da rede
24
Lista-se abaixo as topologias neurais mais utilizadas e conhecidas, conforme
levantamento disponível em SARLE (2001), subdivididas de acordo com o paradigma de
aprendizado adotado, o que demonstra a imensa diversidade de topologias existentes que
realizam processamento neural:
1 Algoritmo Supervisionado:
1.1 Feedforward: Linear, Hebbiano (Hebb,1949; Fausett (1994), Perceptron
(Rosenblatt,1958; Minsky & Papert,1969; Minsky & Papert, 1988; Fausett,1994;
Adaline (Widrow & Hoff, 1960; Fausett, 1994), Higher Order (Bishop,1995)
Functional Link (Pao,1989), MLP - Multilayer perceptron (Bishop,1995; Reed &
Marks, 1999; Fausett,1994), Backprop (Rumelhart, Hinton, & Williams,1986),
Cascade Correlation (Fahlman & Lebiere, 1990; Fausett, 1994),Quickprop
(Fahlman, 1989), RPROP (Riedmiller & Braun,1993), Redes RBF (Bishop, 1995;
Moody & Darken, 1989; Orr,1996); OLS - Orthogonal Least Squares (Chen, Cowan
& Grant, 1991), CMAC - Cerebellar Model Articulation Controller (Albus, 1975;
Brown & Harris, 1994);
1.2 Somente Classificatórias: LVQ - Learning Vector Quantization (Kohonen, 1988;
Fausett, 1994), PNN - Probabilistic Neural Network (Specht, 1990; Masters, 1993;
Hand, 1982; Fausett, 1994);
1.3 Somente Regressão: GRNN - General Regression Neural Network (Specht, 1991;
Nadaraya, 1964; Watson, 1964), Feedback (Hertz, Krogh, & Palmer, 1991;
Medsker & Jain,2000), BAM - Bidirectional Associative Memory (Kosko, 1992;
Fausett, 1994), Boltzman Machine (Ackley et al., 1985; Fausett, 1994);
25
1.4 Séries de Tempo Recorrentes: Backpropagation through time (Werbos, 1990),
Elman (Elman, 1990), FIR - Finite Impulse Response (Wan, 1990), Jordan (Jordan,
1986), Real-time recurrent network (Williams & Zipser, 1989), Recurrent
backpropagation (Pineda, 1989; Fausett, 1994), TDNN - Time Delay NN (Lang,
Waibel & Hinton, 1990);
1.5 Competitivas: ARTMAP (Carpenter, Grossberg & Reynolds, 1991), Fuzzy
ARTMAP (Carpenter et al., 1992; Kasuba, 1993), Gaussian ARTMAP
(Williamson, 1995), Counterpropagation (Hecht-Nielsen, 1987; Hecht-Nielsen ,
1988; Hecht-Nielsen, 1990; Fausett, 1994), Neocognitron (Fukushima, Miyake &
Ito, 1983; Fukushima, 1988; Fausett, 1994).
2 Algoritmo Não-Supervisionado:
2.1 Competitivo: Vector Quantization (Grossberg, 1976; Kohonen, 1984), Conscience
(Desieno, 1988), Self-Organizing Maps (Kohonen, 1995; Fausett, 1994), Local
Linear (Mulier & Cherkassky, 1995);
2.2 Adaptive resonance theory: ART-1 (Carpenter & Grossberg, 1987a; Moore, 1988;
Fausett, 1994), ART-2 (Carpenter & Grossberg, 1987b; Fausett, 1994), ART-2A
(Carpenter, Grossberg & Rosen, 1991a), ART-3 (Carpenter & Grossberg, 1990),
Fuzzy ART (Carpenter, Grossberg & Rosen, 1991b), DCL - Differential Competitive
Learning (Kosko, 1992);
2.3 Dimension Reduction: (Diamantaras & Kung, 1996), Hebbiano (Hebb, 1949; Fausett,
1994), Oja (Oja, 1989), Sanger (Sanger, 1989), Hebbiano Differencial (Kosko, 1992);
26
2.4 Autoassociação: Linear autoassociator (Anderson et al., 1977; Fausett, 1994), BSB -
Brain State in a Box (Anderson et al., 1977; Fausett, 1994), Hopfield (Hopfield,
1982; Fausett, 1994)
3.4 Treinamento de uma rede neural genérica
Conforme abordado acima uma rede neural é essencialmente caracterizada através
dos padrões de suas conexões entre os seus neurônios - a arquitetura da rede -, pelo seu
método de determinação das ponderações presentes nas conexões - seu algoritmo de
treinamento ou aprendizagem - e por sua função de ativação (BRAGA, LUDERMIR &
CARVALHO, 2000). Como forma de proceder ao treinamento das redes neurais para o
desempenho da função desejada, os dados utilizados são geralmente particionados em:
• Amostra de treinamento: utilizada para efetivamente treinar a rede, isto é, para
ajustar as ponderações das conexões entre os neurônios de cada camada;
• Amostra de validação: utilizada para verificar a consistência do aprendizado da
rede e para a seleção das variáveis a serem utilizadas;
• Amostra de teste: utilizada para controle da estimativa dos erros produzidos pela
rede.
Algumas das características mais proeminentes presentes nos modelos neurais são
relativas à sua capacidade de aprendizado através de exemplos, sem que seja necessária a
adoção de um algoritmo específico para uma aplicação específica, e a conseqüente
generalização da informação aprendida, utilizável através da extrapolação dos resultados
obtidos para eventos inéditos de um mesmo problema. Isso ocorre basicamente através da
detecção de características comuns contidas em conjuntos de dados, gerando grupamentos e
27
categorias (HAYKIN, 1994; BISHOP, 1995). Conforme explanado acima, existem dois
paradigmas de aprendizagem sob os quais os mais diversos algoritmos de processamento têm
sido desenvolvidos: o aprendizado supervisionado e o aprendizado não supervisionado
(SARLE, 2001). O primeiro lança mão de um supervisor externo que direciona a resposta
desejada para o problema, ajustando-se assim os parâmetros da rede de acordo com sua
orientação; o segundo não possui nenhuma orientação externa, o que leva a rede a gerar
representações internas dos dados a partir de regularidades estatísticas detectadas nos dados
de entrada. A escolha do paradigma de aprendizado depende do tipo de aplicação a que a
rede neural será utilizada e às limitações relativas à topologia da rede (HAYKIN, 1994).
O primeiro fator de diferenciação da escolha do paradigma de aprendizado refere-se
a que os algoritmos supervisionados apresentam um comportamento sensível ao aumento da
escala computacional. Esta limitação advém do ajuste das ponderações das conexões
sinápticas sofrerem um efeito exponencial causado pela quantidade de informações recebidas
pelo neurônio, ou seja, sendo Ci o número de conexões de entrada de um determinado
neurônio, quanto maior Ci, maior o tempo computacional requerido pela realização da tarefa
(esse efeito é conhecido como o Problema da Dimensionalidade). O segundo fator de
diferenciação seria devido à própria natureza da aplicação requerida, já que existem diversas
situações em que não existe conhecimento a priori do problema a ser solucionado, como por
exemplo no caso do uso de radares e localização de alvos (HEILEMAN,
GEORGIOPOULOS & HWANG, 1994), ou mesmo, no caso de tarefas de classificação, não
é possível se examinar todas as possibilidades de agrupamento possíveis (JOHNSON &
WICHERN, 1992). Assim, a possibilidade de um processamento neural realizar este tipo de
tarefa torna-se interessante, especialmente em tarefas de obtenção de aprendizado. Nestes
casos, a adoção de um algoritmo não supervisionado é uma alternativa realizável.
28
No caso da escolha do operador recair sobre a utilização de um paradigma de
aprendizado não supervisionado, existem topologias neurais conhecidas como modelos auto-
organizados, que foram formuladas para serem utilizadas como instrumentos de descoberta
de conhecimento, ou seja, o processo interativo global de descoberta e extração de novos
padrões ou estruturas em uma base de dados. Tal procedimento pode disponibilizar a
obtenção de conhecimento implícito, previamente desconhecido e potencialmente útil a
partir dos dados empregados. Assim, a principal fonte de interesse no emprego destes
modelos seria sua capacidade de trabalhar uma base de dados sem a necessidade de reduzir a
quantidade de informação contida nestes dados, ou seja, não é necessário o descarte de
informação para que seja possível um melhor desempenho do modelo e obtenha-se
resultados plausíveis a partir deste.
3.5 Aplicações de redes neurais artificiais
Após um período, entre as décadas de 60 e 80, no qual houve uma frustração
generalizada devido à incapacidade das topologias empregadas à época (neurônio único ou
vários neurônios dispostos em apenas uma camada) em realizar classificações de padrões
não linearmente separáveis, o sucesso da proposição de uma arquitetura multicamadas com
ajuste dos pesos sinápticos via retropropagação do erro obtido deram um enorme impulso à
aplicabilidade de redes neurais artificiais (HAYKIN, 1994). Especificamente no caso das
arquiteturas multicamadas, estudos comprovaram que duas camadas intermediárias são
suficientes para aproximar qualquer função matemática (CYBENKO, 1988; CHESTER,
1990), o que indica serem estes modelos classificadores universais de funções.
Contudo, existem várias arquiteturas neurais propostas, e cada uma delas gera
resultados melhores para determinados tipos de problemas, o que faz a experimentação
destes modelos em relação ao desempenho de certas tarefas um procedimento necessário e
29
interessante na medida que são identificados os melhores usos para cada uma das
arquiteturas existentes. Esta plasticidade operacional torna os modelos de redes neurais
passíveis de realizarem as mais diversas aplicações, o que as torna amplamente difundidas
em diversas áreas do conhecimento, desde aquelas ligadas à pesquisa científica e tecnológica
quanto aos negócios. Sendo assim, o campo de atuação de um pesquisador através do estudo
de redes neurais artificiais acaba se tornando multidisciplinar (FAUSETT, 1994), em virtude
de que as aplicações em que são empregadas são de cunho geral e engloba a conceituação
simultânea de diversas áreas do conhecimento (BRAGA, LUDERMIR & CARVALHO,
2000). Assim, de acordo com (KOHONEN, 1989), a grande contribuição dos modelos
neurais se dá nas áreas de representação do conhecimento e reconhecimento de padrões.
A opção por modelos de redes neurais artificiais na solução de tarefas diversas se dá
geralmente por conta da complexidade inerente à mesma; sistemas excessivamente
complexos e/ou compostos por conjuntos de dados vastos, complexos e inter-relacionados
são mais satisfatoriamente resolvidos com o uso desta metodologia (SMITH & GUPTA,
2000; BRAGA, LUDERMIR & CARVALHO, 2000). A razão principal repousa no fato de
que, quanto maior a quantidade de informações disponível, maior a dificuldade na
modelagem do sistema representado por esta informação (BRAGA, LUDERMIR &
CARVALHO, 2000).
Com o objetivo de ilustrar a diversidade de aplicações nas quais redes neurais
artificiais têm sido usadas, lista-se abaixo alguns dos usos em que modelos de redes neurais
artificiais são largamente empregados, de acordo com as áreas de concentração nas quais
foram apresentados estudos durante a IEEE International Conference On Neural Networks,
realizada em 1994 em Washington, nos Estados Unidos:
30
Sistemas híbridos (PARK, 1994);
Inteligência Computacional (TAKAHASHI et. al., 1994);
Neurobiologia (HEILEMAN, GEORGIOPOULOS & HWANG, 1994);
Ciência cognitiva (MAHONEY, 1994);
Controladores inteligentes (WEIERICH & VON ROSENBERG, 1994);
Aprendizado e reconhecimento de padrões (BARTFAI, 1994);
Previsão de séries de tempo (ENGLISCH & HIEMSTRA, 1994);
Economia e negócios (VISHWAKARMA, 1994);
Sistemas de energia (TSAI, TAI & REYNOLDS, 1994);
Análise de movimento (MITRA, 1994);
Processamento e transmissão de sinais (SPECHT & ROMSDAHL, 1994);
Estimação e identificação (KANE & MILGRAM, 1994).
Pode-se ainda citar uma grande quantidade de estudos nas áreas de Ciências
Econômicas, Ciências Contábeis e Administração, segundo levantamentos realizados por
WONG & SELVI (1998), VELLIDO, LISBOA & VAUGHAN (1999) e WONG, LAI &
LAM (2000). Dentre estas aplicações, encontra-se, segundo os autores acima, trabalhos
realizados em Auditoria, Finanças, Recursos Humanos, Sistemas de Informação, Marketing
e Distribuição, Produção e Operações, Atuária, Administração Geral, Varejo, Política
Tributária e Mercado de Capitais, em um total de mais de 483 artigos relacionados em cerca
de 54 periódicos científicos e livros-texto, além dos trabaljos constantes nas bases de dados
ABI/INFORM e Business Periodical Index (BPI).
Todos estes usos possíveis para modelos de redes neurais se devem à sua
adaptabilidade às tarefas mais distintas e às diversas arquiteturas propostas, que
empiricamente são testadas e têm seus resultados comparados entre si e entre outros modelos
31
utilizáveis para a mesma finalidade. Este é um trabalho enorme e que ainda tem muito a
retribuir à medida em que mais e mais sistemas complexos são estudados sob a ótica do
processamento neural.
32
4 REDES NEURAIS AUTO-ORGANIZADAS
Existem, conforme abordado anteriormente, muitos casos em que sistemas
complexos são analisados sem que haja um conhecimento a priori das saídas relacionadas às
informações disponíveis para estudo. Desta forma, incorre-se em uma escolha entre duas
possibilidades: um estudo realizado sob uma ótica tradicional, composta por modelos
vastamente conhecidos e debatidos, mas que contudo nem sempre apresentam uma
especificidade desejável na abordagem da tarefa, ou a utilização de um modelo de caixa-
preta em que as saídas são obtidas de acordo com a Teoria Cibernética (BEER, 1979). No
segundo caso, redes neurais artificiais são uma das alternativas mais interessantes, já que sua
plasticidade inerente ao processamento realizado as tornam passíveis de uso em sistemas
quaisquer.
Deste modo, realizada a escolha pelo processamento neural, deve-se em primeiro
lugar decidir acerca do paradigma de aprendizagem a ser empregado, e depois se definir a
topologia neural. No caso da escolha do operador recair sobre um paradigma de aprendizado
não supervisionado, em vista principalmente da falta de conhecimento padronizado acerca
do sistema a ser estudado, existe uma classe de redes neurais artificiais, bastante semelhantes
às estruturas neurobiológicas conhecidas, que apresentam resultados expressivos no
desempenho de tarefas cujo conteúdo de informação está exclusivamente contido nos dados
de entrada do sistema. Estas redes neurais possuem como característica mais marcante a
capacidade de auto-organização de seus neurônios, tanto no aspecto de classificação
33
neuronal como no aspecto visual da representação destas estruturas, e são conhecidas como
redes neurais auto-organizadas.
Apresenta-se neste capítulo os modelos de redes neurais auto-organizados
baseados na Teoria de Ressonância Adaptativa, mais pormenorizadamente a rede ART-2,
utilizada neste estudo, e as redes neurais geradas a partir de modelos SOM. Além da
descrição da topologia e do funcionamento destas redes, são detalhados seu algoritmo de
funcionamento e o ciclo de processamento realizado por cada uma destas arquiteturas.
4.1.1 Teoria de Ressonância Adaptativa - Redes ART
Durante décadas, estatísticos aplicaram Análise Discriminante e Modelos de
Regressão na modelagem de padrões nos quais os dados de treinamento disponíveis são
rotulados (com entradas e saídas conhecidas) e técnicas de clustering quando estes dados não
são rotulados. Estes métodos encontram analogias em redes neurais, onde topologias
multicamadas com algoritmos de retropropagação do erro são usados quando os dados são
rotulados, e modelos auto-organizados quando não são rotulados (SMITH & GUPTA, 2000).
Estas técnicas de clustering têm sido usadas no agrupamento e categorização de dados
baseados nas estruturas naturais contidas nestes. O objetivo de um algoritmo de clustering
apropriado é maximizar o grau de similaridade entre os padrões de um mesmo cluster, ao
mesmo tempo em que o grau de similaridade entre os diversos clusters é minimizado.
Para os problemas relacionados à classificação de padrões sob os quais as
informações fornecidas residem apenas nos dados relativos a estes problemas, sem que exista
um crítico externo que possa orientar os resultados obtidos, seria interessante que um modelo
matemático, notadamente um modelo de Inteligência Artificial, elaborasse uma classificação
34
própria baseada na exploração das redundâncias contidas nos dados de entrada disponíveis à
rede (TAURITZ, 2002).
Desta forma, é necessária a aplicação de técnicas que não se apóiem em supervisão
de erro das saídas como forma de se obter classes agrupadas de acordo com um determinado
estado em que se encontram os elementos, tornando possível detectar relacionamentos entre
eles (BRAGA, LUDERMIR e CARVALHO, 2000). Assim, pode-se gerar matematicamente
estruturas de relacionamentos entre vários estados que coexistem sob um mesmo cenário.
Uma arquitetura adequada a este tipo de tarefa deveria identificar padrões através da
comparação dos mesmos, e posteriormente elaborar um critério para o agrupamento destes
padrões de acordo com a similaridade ou disparidade das características apresentadas.
Existem diversos modelos neurais que atendem a estes requisitos, conforme discutido no
Capítulo 3. Contudo, neste trabalho é proposto o uso do modelo neural auto-associativo
baseado na Teoria de Ressonância Adaptativa, ou ART, criada por Stephen Grossberg em
1976 (TAURITZ, 2002), mais especificamente a rede na qual são utilizados dados contínuos
como informação de entrada da rede, topologia esta conhecida como ART-2 (CARPENTER
& GROSSBERG, 1987b).
ART engloba uma ampla variedade de redes neurais artificiais baseadas
explicitamente na neurofisiologia, e são definidas em relação ao seu algoritmo de
treinamento em termos de equações diferenciais detalhadas e críveis como modelos
plausíveis dos neurônios biológicos. Na prática, as redes ART são implementadas como
soluções analíticas ou aproximações para estas equações diferenciais. A ressonância
adaptativa sobre a qual a teoria se refere ocorre quando padrões de atividade nas camadas de
entrada e saída se reforçam em sinergia.
35
Uma característica fundamental na Teoria de Ressonância Adaptativa que
fundamenta o funcionamento das redes ART consiste em que se nenhuma classe ressoa com
o padrão de entrada apresentado à rede, uma nova classe é criada, de acordo com um
parâmetro de vigilância previamente escolhido e que pode ser calibrado. Tal característica
foi concebida com o intuito de se solucionar o dilema plasticidade-estabilidade,
denominação utilizada acerca do problema de trade-off presente em redes neurais artificiais
em se manter capaz de adaptar ou agrupar padrões de entrada indefinidamente (plasticidade)
e ao mesmo tempo preservar o conhecimento adquirido, impedindo que os novos padrões se
superponham ao conhecimento prévio adquirido pela rede (estabilidade), conforme descrito
em CARPENTER & GROSSBERG (1987a). Esta característica, inclusive, é bastante
positiva se for relembrado o Problema da Dimensionalidade mencionado na Seção 3.4.
Portanto, esta arquitetura é conduzida por um algoritmo que utiliza um critério racional na
alocação de padrões, através de seus vetores de entrada, em direção à geração de
agrupamentos baseados na similaridade entre os padrões apresentados.
Existem redes ART dos mais diversos tipos, utilizando paradigmas de aprendizado
tanto supervisionado como não supervisionado. Os modelos mais conhecidos e utilizados
são:
• ART-1: primeiros modelos desenvolvidos, sua principal peculiaridade é a
utilização de dados binários como entradas da rede;
• ART-2: modelo desenvolvido para processar dados contínuos;
• ART-3: modelo que utiliza ação de neuro-transmissores na propagação dos dados
pela rede;
36
• ARTMAP: composto por duas sub-redes, ART-a, que recebe e processa um
determinado padrão de entradas apresentado, e ART-b, que constitui a
resposta desejada para o padrão apresentado à rede;
• Fuzzy ART: rede ART que processa dados fuzzy;
• Fuzzy ARTMAP: rede ARTMAP que processa dados fuzzy.
No caso do presente trabalho, conforme disposto no início deste capítulo, é utilizado
o modelo ART-2, o qual consiste de um modelo de paradigma de aprendizado não
supervisionado capaz de realizar o processamento de entradas e saídas analógicas
(CARPENTER & GROSSBERG, 1987b). Seu algoritmo de treinamento é basicamente um
algoritmo iterativo, no qual cada caso é processado de modo a se encontrar a classe mais
parecida possível com a informação apresentada, e em seguida esta classe tem sua
informação atualizada para que apresente características mais parecidas com a de seus
componentes, incluindo o último elemento incorporado, em um processo de prototipagem de
categorias. A arquitetura básica de uma rede ART envolve três grupos de neurônios: uma
camada de processamento dos vetores de entrada, chamada F1, os neurônios representativos
de cada categoria, chamados de camada F2, e o mecanismo de controle do grau de
similaridade dos padrões alocados em uma mesma categoria, composto por um neurônio
único e chamado de mecanismo de reset.
Na Figura 4 disposta a seguir, é representada a arquitetura de uma rede ART-2, bem
como as conexões e suas devidas direção e polaridade, para melhor compreensão do exposto.
Setas largas mostram que todas as unidades da camada de origem são conectadas a todas as
unidades da camada de destino, tanto na direção ascendente (aij) quanto na descendente (dij),
e os sinais (+) e (-) indicam, respectivamente, sinal excitatório e inibitório.
37
FIGURA 4: Arquitetura de uma rede ART-2. Adaptado de CARPENTER & GROSSBERG
(1987a).
A camada F1 de uma rede ART-2 pode ser considerada como consistindo de duas
partes: uma parte destinada à leitura dos vetores de entrada (F1a) e outra destinada à
interface entre estes vetores e a própria rede (F1b). Esta interface combina sinais recebidos
tanto da leitura dos vetores quanto da camada F2, para efeito de comparação da similaridade
entre o sinal de entrada com o vetor de pesos do neurônio selecionado como candidato ao
aprendizado. Estes nodos podem ser considerados nodos auxiliares que pré-processam as
entradas, através de uma combinação de operações de normalização dos dados. Isso torna o
modelo ART-2 adequado ao processamento e classificação de dados analógicos
(CARPENTER & GROSSBERG, 1987b), como os que são apresentados à rede neste
trabalho, em categorias baseadas em suas similaridades. Esta é a primeira fase do processo
de treinamento de uma rede ART qualquer, chamada etapa de reconhecimento.
+ + ++
Camada F1a
Camada F1b
aij
dij
Camada F2
+
+
+
+
+
-
+-
Neurônio C2
Neurônio C1
Reset
38
Para efeito de controle da similaridade dos padrões de entrada alocados em uma
mesma categoria existem dois grupos de conexões, cada um com suas próprias ponderações,
entre cada neurônio de F1b e de F2. Cada neurônio da camada F1b se conecta a todos os
neurônios da camada F2 através de conexões ascendentes: a ponderação relativa a cada
conexão ascendente relacionada ao i-ésimo neurônio F1b ligada ao j-ésimo neurônio F2 será
chamado aij. Por sua vez, cada neurônio da camada F2 se conecta a todos os neurônios da
camada F1b através de conexões descendentes: a ponderação relativa a cada conexão
descendente relacionada ao j-ésimo neurônio F2 ligada ao i-ésimo neurônio F1b será
chamada dij.
A camada F2 é uma camada competitiva, na medida em que o neurônio
representativo de cada categoria que retorne a maior entrada ponderada de acordo com as
conexões ascendentes se torna o candidato ao aprendizado daquele padrão de entrada, e a
ativação de todos os outros neurônios de F2 são zeradas. A seguir, os neurônios de F1b
combinam informações oriundas do processamento ocorrido em F1a e F2. Esta é a segunda
fase do treinamento de uma rede ART, chamada etapa de comparação.
A efetivação do aprendizado e conseqüente incorporação do vetor de entrada ao
neurônio candidato escolhido em F2 depende da similaridade entre o vetor descendente D e
o vetor de entrada. Esta decisão é tomada pela unidade de reset, baseado nos sinais recebidos
pelas camadas F1b e F2. Se o neurônio candidato não é efetivamente escolhido como
representativo da categoria do vetor de entrada, é inibido e um novo neurônio de F2 é
selecionado como novo candidato ao aprendizado. Esta é a terceira fase do treinamento de
uma rede ART, chamada etapa de busca.
39
Finalmente, nota-se que para cada fase do treinamento é requerida uma resposta
distinta de cada um dos neurônios das camadas F1b e F2. Para que os mesmos consigam
distinguir como desempenhar a tarefa adequadamente, existem duas unidades suplementares
dotadas de pesos binários (0 para sinal inibitório e 1 para sinal excitatório) e não atualizáveis
que atuam como mecanismos de controle para estas repostas, chamadas C1 e C2. A unidade
C1 determina o fluxo de dados para a camada F1b, e a unidade C2 determina o fluxo de
dados e habilita os neurônios da camada F2. Assim, cada neurônio de F1b e F2 nas redes
ART possui três fontes pelas quais pode ser recebido um sinal:
• F1b pode receber sinais de F1a (sinal de entrada), F2 (sinal descendente) e da
unidade de controle C1;
• F2 pode receber sinais de F1b (sinal ascendente), da unidade de reset e da unidade
de controle C2;
Desta forma, a ativação adequada dos neurônios é efetivada quando se recebem dois
sinais excitatórios dos três possíveis, caso contrário não ocorre ativação. Este mecanismo é
conhecido como Regra dos Dois Terços.
A despeito das topologias ART apresentarem uma maior complexidade do que
outras topologias neurais de uso mais geral, e seu treinamento necessitar de um número de
ciclos dependente do processo de treinamento utilizado, salienta-se que a introdução de
neurônios que atuam como controladores do processo de treinamento possibilitam às redes
ART se mostrarem mais capazes de armazenar informações sem incorrer na criação de falsos
padrões através de generalização espúria (FAUSETT, 1994; BRAGA, LUDERMIR &
CARVALHO, 2000).
40
As redes neurais baseadas na topologia ART são utilizadas nas mais diversas
aplicações relacionadas à classificação, como reconhecimento de dados em questionários,
reconhecimento de alvos militares, reconhecimento de caracteres e processamento de sinais
(FAUSETT, 1994; BRAGA, LUDERMIR & CARVALHO, 2000).
4.1.2 Operação e parâmetros de uma rede ART-2
Antes da descrição dos passos de inicialização e do algoritmo de uma rede ART-2,
abaixo é apresentada uma lista contendo os parâmetros utilizados no algoritmo de
treinamento de uma rede ART-2, conforme descrito por CARPENTER & GROSSBERG
(1987b), bem como seus respectivos papéis no modelo. São citados em alguns parâmetros
abaixo valores obtidos de maneira empírica pelos autores do trabalho original que descreve o
modelo como sendo os valores que minimizam o número de ciclos de treinamento, ou seja,
valores que permitem que a rede obtenha uma classificação com apenas um ciclo de
treinamento para cada padrão apresentado à rede.
• t: número de ciclos do treinamento, ou a quantidade de vezes que um padrão deve
ser apresentado à rede até que seja obtida sua classificação;
• n: número de unidades de entrada (camadas F1a e F1b);
• z: número de unidades de cluster (camada F2);
• a, b: pesos fixos na camada F1, ambos empiricamente obtidos com valor 10;
• c: peso fixo utilizado no teste de reset, obtido empiricamente com valor igual a 0,1;
• d: ativação da unidade F2 vencedora, com valor obtido empiricamente igual a 0,9;
• e: parâmetro introduzido para prevenir divisão por zero quando a norma de um
vetor de dados de entrada é nula, sendo que seu valor dever ser qualquer número
inteiro positivo;
41
• α: taxa de aprendizagem, sendo que 0 < α < 1; seu valor indica o grau em que os
novos padrões pertencentes a cada cluster terão na atualização de seus pesos no
próximo ciclo de treinamento;
• ρ: parâmetro de vigilância, sendo que 0 < ρ < 1; este parâmetro determina quantos
clusters serão formados, em uma razão direta ao valor adotado, o que significa
que este parâmetro define o grau de variação admitido entre os próprios
componentes de cada cluster.
Para uma rede ART-2 os pesos das conexões descendentes dij são inicializadas em
zero de acordo com resultados empíricos e apresentados por CARPENTER & GROSSBERG
(1987b). Já no caso das conexões ascendentes aij o valor de inicialização das mesmas é dado
pela equação:
aij(0) ≤ nd )1(
1−
, (1.a)
com d conforme definido acima e n sendo igual ao número de conexões. Deste modo,
empiricamente o valor de inicialização das conexões ascendentes aij é dado por
aij(0) ≤ n1,0
1, (1.b)
Todos os valores obtidos empiricamente significam que se trata da obtenção via
tentativa e erro de parâmetros de convergência interna da rede em um menor número de
ciclos possível, ou seja, muito embora outros valores podem ser utilizados nos parâmetros a,
b, c, d, estes números sugeridos acima são positivamente aqueles que produzem um custo
42
computacional menor em termos de tempo. Na prática operacional, os parâmetros obtidos
empiricamente permitem que a rede classifique cada padrão com apenas um ciclo de
treinamento (ZELL et al., 2001), sendo assim, t acima definido como sendo igual a 1.
No procedimento de atualização dos pesos da rede, são possíveis duas abordagens
operacionais: treinamento sincronizado e treinamento estável. No treinamento sincronizado,
a rede efetua um passo de propagação a cada inicialização, e no treinamento estável a rede
propaga o padrão até obter uma classificação para o mesmo. Assim, pode-se dizer que se for
necessário traçar o caminho do padrão através da rede, lança-se mão do treinamento
sincronizado, caso contrário utiliza-se o treinamento estável, o qual também requer menos
tempo para executar a tarefa.
4.1.3 Algoritmo de treinamento de uma rede ART-2
Com o intuito de tornar mais claro o procedimento de classificação realizado pela
rede ART-2, descreve-se a seguir a estrutura do seu algoritmo, conforme FAUSETT (1994):
Passo 1: Inicializar os parâmetros da rede:
a, b, c, d, e, ρ
Determinar t (número de ciclos do treinamento).
Passo 2: Para cada vetor de entrada I, repetir passos 3, 4 e 5 z vezes até obter classificação
do padrão apresentado; caso contrário, criar nova unidade em F2.
Passo 3: Buscar YJ-ésima unidade F2 com maior sinal. (Definir J para yJ ≥ yj para j = 1, ..., m.).
43
Passo 4: Verificar reset, de acordo com valor de ρ; se o valor de comparação for pelo menos
igual a ρ, reset é verdadeiro, caso contrário é falso.
Passo 5: Se reset for verdadeiro, buscar a próxima YJ-ésima unidade F2 com maior sinal; se
reset for falso, atualizar conexões da unidade F2 vencedora, de acordo com
dij(vencedor, t+1) = (1+α)dij(vencedor, t) (2)
4.2.1 Redes SOM
O estudo da neurofisiologia não serviu como base e inspiração apenas na criação de
topologias neurais e seus respectivos algoritmos de treinamento, mas também foi o ponto de
partida na proposição de arquiteturas que simulam o funcionamento do cérebro na
armazenagem de conhecimento e no desempenho de tarefas cognitivas. Estas redes são
conhecidas como modelos de Kohonen (KOHONEN, 1989), ou redes SOM, as quais são
descritas a seguir.
Uma característica extremamente útil em uma análise classificatória para um
conjunto de dados seria a possibilidade de se apresentar as estruturas contidas em uma
determinada base de dados de uma forma que seja facilmente inteligível e ao mesmo tempo
preserve a maior quantidade de informação presente nos dados originais possível. Alguns
modelos neurais auto-organizados são métodos que apresentam as características essenciais
de um grupo de dados, como a estrutura de suas categorias e os relacionamentos entre seus
itens, em uma forma bidimensional.
44
Freqüentemente, padrões contidos em um conjunto de dados n-dimensional possuem
uma estrutura bastante complexa, mas que pode se apresentar mais clara se for resumida em
um espaço de características uni, bi ou tridimensional. KOHONEN (1989) desenvolveu os
modelos SOM como uma forma de detectar automaticamente similaridades relevantes em
grandes bases de dados, através da construção de um mapa facilmente caracterizável a partir
de um espaço multidimensional, tornando assim os clusters mais prontamente visualizáveis.
Assim como os modelos multicamadas genéricos de redes neurais, os modelos SOM
envolvem a adaptação das ponderações das conexões em reflexo ao aprendizado obtido,
porém este aprendizado não é supervisionado na medida em que a saída desejada para a rede
não é conhecida. Outra diferença significativa entre os modelos SOM e os modelos neurais
genéricos reside na arquitetura e no papel desempenhado pela localização dos neurônios no
processo de aprendizado. Na rede SOM os vetores de entrada são ligados a um arranjo de
neurônios (Dn), normalmente unidimensional (uma linha) ou bidimensional (uma matriz). A
Figura 5 mostra esta arquitetura para n entradas e uma matriz quadrada com nove neurônios.
45
FIGURA 5: Arquitetura de uma rede SOM. A seta larga indica que todas as entradas estão conectadas a todos os neurônios do mapa topológico. Adaptado de BRAGA, LUDERMIR & CARVALHO (2000).
Quando um padrão de entradas é apresentado à rede SOM, certas regiões da camada
de neurônios se tornam ativas, e as ponderações entre as conexões da camada de entrada e
estas regiões são reforçadas. Uma vez concluído o aprendizado, padrões de entrada similares
causarão atividade semelhante nas mesmas regiões do mapa topológico. A idéia principal
contida neste modelo é a obtenção de uma ordenação e um arranjo entre os neurônios. A
ordenação obtida é importante na medida em que a mesma refere-se a regiões de neurônios
ativados simultaneamente, e o arranjo encontrado se refere à intensidade desta ativação. Se
um determinado neurônio é ativado, provavelmente outros em sua região de vizinhança
também serão ativados, e assim é gerado um arranjo físico dos neurônios baseado em sua
localização (KOHONEN, 1989; DEBOECK & KOHONEN, 2000). Esta arquitetura
apresenta uma justificativa biológica importante, já que o cérebro humano apresenta regiões
X1 X3 X4 X5 X2 Xn ....
D1 D2 D3
D4 D5 D6
D7 D8 D9
Wij
46
de neurônios operando de forma centralizada e localizada em relação à execução de
determinadas tarefas (córtex auditivo, córtex visual, etc).
4.2.2 Conceito de vizinhança em redes SOM
A maior característica dos resultados produzidos por uma rede SOM consiste na
emulação dos mesmos em uma estrutura que procura simular o sistema nervoso central
humano. Assim, sabe-se que no cérebro humano em atividade normal há claramente a
existência de um “neurônio vencedor”, definido como sendo o neurônio cujas ponderações
são mais semelhantes ao padrão apresentado, e que é ativado nas situações em que ocorre a
recepção de um determinado estímulo.De maneira a simular esta resposta do cérebro humano
nos modelos SOM, o processo de aprendizado é modificado e o “neurônio vencedor” captura
a maior parte do conhecimento adquirido acerca de determinados padrões, mas as
ponderações dos neurônios da região de vizinhança do “neurônio vencedor” também
aprendem com a entrada apresentada em menor grau.
Deste modo, deve-se definir o conceito de região de vizinhança Vm(t) em relação à
arquitetura SOM. Em um arranjo linear de neurônios, a vizinhança é simplesmente composta
pelos neurônios à direita e à esquerda do vencedor. Entretanto, para se compreender o efeito
de uma região de neurônios ativa, deve-se considerar vizinhanças maiores, como mostrados
na Figura 6, para um arranjo bidimensional de neurônios com uma estrutura de vizinhança
retangular.
Inicialmente, o tamanho da região de vizinhança ao redor do neurônio vencedor deve
ser suficientemente grande para que ocorra uma especialização regional dos neurônios de
acordo com cada padrão, mas à medida que o procedimento do aprendizado se consolida, a
47
região de vizinhança deve diminuir gradativamente para que a resposta da rede se torne mais
localizada. Esta resposta localizada, necessária para a distinção entre os diferentes padrões, é
reforçada pela variação da quantidade de aprendizado percebida por cada neurônio contido
na região de vizinhança do neurônio vencedor. O neurônio vencedor recebe a maior parte do
aprendizado, e seus vizinhos aprendem cada vez menos à medida que se encontram mais
afastados do vencedor.
FIGURA 6: Conceito de região de vizinhança em um arranjo retangular de neurônios.
Adaptado de (FAUSETT, 1994).
Vm(t) = 1
Vm(t) = 2
Vm(t) = 3
Neurônio Vencedor
48
Os mapas topológicos obtidos pelos modelos SOM desempenham um método de
exibição adaptativa particularmente útil na representação de dados estatísticos estruturados.
As características presentes nesta estrutura que se mostram relevantes em uma análise
exploratória de dados são basicamente as seguintes:
• O mapeamento obtido representa uma base de dados de maneira ordenada, por
meio do qual similaridades entre as amostras dos dados são visualizadas como
relações geométricas das imagens das amostras contidas no mapa;
• A ordem obtida no mapeamento torna o mesmo plausível de ser utilizado como
base na qual os indicadores estatísticos individuais podem ser visualizados, o que
também os torna facilmente compreensíveis, bem como o grau de clustering de
cada elemento pode ser representado por escalas de cinza ou colorida.
Assim como outros modelos de redes neurais, o algoritmo de aprendizado de uma
rede SOM segue os procedimentos básicos contidos na apresentação de um padrão de
entrada, no cálculo das saídas dos neurônios do mapa topológico, e na atualização das
ponderações. As diferenças residem no método usado para o cálculo das saídas, baseado na
similaridade entre as ponderações e as entradas, e o conceito de vizinhança na atualização
das ponderações.
4.2.3 Operação e algoritmo de uma rede SOM
Conforme SMITH & GUPTA (2000), definindo o tamanho da vizinhança ao redor
de um neurônio vencedor m em um período t como sendo Vm(t), a parcela de aprendizado
que cada neurônio i em conjunto com sua vizinhança m recebe é determinada por:
49
L = a(t) exp(-ri – rm/σ2(t)) (3)
onde ri – rm é a distância física (expressa em quantidade de neurônios) entre o
neurônio i e o neurônio vencedor m.
As funções a(t) e σ2(t) são usadas no controle do montante de conhecimento que
cada neurônio aprende em relação ao neurônio vencedor, e devem ser funções decrescentes
ao longo do tempo. O montante de conhecimento deve ser maior no neurônio vencedor (onde
i = m e ri = rm) e deve diminuir em uma proporção exponencial do inverso da distância entre
o neurônio vizinho e o neurônio vencedor. Neurônios externos à região de vizinhança não
capturam nenhum aprendizado a respeito do padrão apresentado.
Assim como outros modelos de redes neurais, o algoritmo de aprendizado de uma
rede SOM segue os procedimentos básicos contidos na apresentação de um padrão de
entrada, cálculo das saídas dos neurônios do mapa topológico, e atualização das
ponderações. As diferenças residem no método usado para o cálculo das saídas, baseado na
similaridade entre as ponderações e as entradas, e o conceito de vizinhança na atualização
das ponderações. Este procedimento algorítmico é basicamente o seguinte (FAUSETT,
1994):
Passo 1: Inicializar
• ponderações em pequenos valores randômicos;
• tamanho da vizinhança Vm(0) grande (mas menor do que o número de
neurônios em uma dimensão do arranjo);
• parâmetros das funções a(t) e σ2(t) entre 0 e 1.
50
Passo 2: Apresentar um padrão de entradas x à camada de entrada e calcular sua distância
em relação às ponderações de cada neurônio j:
Dj= jwx − = ∑=
−n
iiji wx
1
2)( (4)
Passo 3: Selecionar o neurônio com a menor distância em relação ao vencedor m.
Passo 4: Atualizar as ponderações das conexões entre o padrão de entrada e o neurônio
vencedor e sua região de vizinhança de acordo com a regra de aprendizagem:
wij(t+1) = wij(t) + L[xi - wij(t)], (5)
onde
L = a(t) exp(-ri – rm/σ2(t)) (6)
para qualquer neurônio j em Vm(t).
Passo 5: Continue a partir do Passo 2 por Ω ciclos; então diminuir tamanho da vizinhança,
a(t) e σ2(t);
Repetir até ponderações estabilizarem.
As redes SOM têm sido predominantemente usadas em procedimentos de clustering
e extração de características, como uma técnica de data mining (ZHANG, PATUWO & HU,
51
1998; VELLIDO, LISBOA & VAUGHAN, 2000). Também existem pesquisas relacionadas
ao uso de redes SOM na obtenção de soluções de problemas de otimização e controle, bem
como em diagnósticos financeiros (DEBOECK & KOHONEN, 2000).
4.3 Redes neurais auto-organizadas e a proposta deste estudo
Este Capítulo procurou, através da descrição de duas topologias neurais auto-
organizadas, apresentar suas características mais relevantes, que as tornariam úteis em
análises de dados complexos e inter-relacionados: a geração de respostas não direcionadas
por crítica externa, sendo possível encontrar relacionamentos não percebidos pelo operador,
tanto no caso das redes ART como nas redes SOM; a solução do Problema da
Dimensionalidade e a conseqüente eliminação da geração de falsos padrões, no caso
específico das redes ART; e a obtenção de mapas visuais a partir de clusters e seus
respectivos neurônios vencedores no caso das redes SOM. Deste modo, um sistema
seqüencial de análise de dados macroeconômicos através do emprego destas topologias
acima descritas é apresentado a seguir, bem como os resultados obtidos são apresentados e
discutidos.
52
5. ABORDAGEM NEURAL NÃO SUPERVISIONADA NA ELABORAÇÃO E
ANÁLISE DE CENÁRIOS MACROECONÔMICOS
Nesta etapa do estudo realizado, efetua-se uma análise da viabilidade da aplicação de
um método computacional totalmente baseado em topologias neurais auto-organizadas e não
supervisionadas, através da utilização de uma base de dados relativas ao estudo da
Macroeconomia. O método utilizado baseia-se em um processamento efetuado em quatro
fases, feito seqüencialmente. Cada uma das fases se torna geradora de entradas para a fase
seguinte; contudo, o tempo necessário no desempenho de cada uma das tarefas é
relativamente baixo, especialmente quando comparado às metodologias mais tradicionais
citadas no Capítulo introdutório deste trabalho.
O estudo foi inteiramente realizado com o emprego de apenas um computador
pessoal, equipado com um processador AMD Athlon com velocidade de processamento de
1,2 Gigahertz, 20 Megabites de espaço em disco rígido e 256 Megabites de memória virtual.
Os softwares usados foram o Statistica Neural Networks, versão 4.0 F, e o freeware
disponibilizado em conjunto pelo Institute for Parallel and Distributed High Performance
Systems (IPVR) da University of Stuttgart e pelo Wilhelm-Schickard-Institute for Computer
Science da University of Tübingen, ambos na Alemanha, chamado SNNS – Stuttgart Neural
Network Simulator, na sua versão 4.2, obtido em:
http://www-ra.informatik.uni-tuebingen.de/downloads/SNNS/Windows/
53
O software acima foi desenvolvido em plataforma Unix, e para que seja possível sua
utilização no sistema operacional Windows foi necessário o emprego do simulador X-Win32,
versão Demo 3.4.1, obtido gratuitamente no link:
http://www-ra.informatik.uni-tuebingen.de/downloads/SNNS/Windows/Sources/X11-Lib/
O modelo neural híbrido empregado consiste, conforme mencionado, em quatro
fases distintas, esquematizado na Figura 7:
• Fase 1: Uso de um modelo neural ART-2, com o propósito específico de se gerar
clusters a partir dos países, através de seleção efetuada pelo algoritmo próprio,
baseada nos dados macroeconômicos de cada um dos mesmos;
• Fase 2: Identificação dos componentes das categorias obtidas nas redes ART-2
empregadas;
• Fase 3: Elaboração de mapas topológicos para cada um dos clusters obtidos,
através do uso do algoritmo SOM;
• Fase 4: Elaboração de cenário macroeconômico para cada cluster, através de
análise econômica, com a apresentação e discussão dos resultados obtidos via
classificação neural, com base na identificação do grau de conformidade ou
aderência ao cluster para cada país individualmente, através da análise visual do
mapa topológico.
54
FIGURA 7: Sistema neural híbrido usado na elaboração e estudo de cenários macroeconômicos.
D D D
D D D
D D D
FASE 4
Rede ART 2
CLUSTERS
x
y
z
Ω
CLUSTER X
Possíveis Cenários em X ................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
FASE 1 FASE 2
FASE 3
Possíveis Cenários em Z ................................................................................................................................................................................................................................................................................................................................................................................................................................................
D D D
D D D
D D D
CLUSTER Z
55
Como variáveis empregadas na obtenção dos clusters na Fase 1, são utilizados os
dados contidos no “THE 1999 WORLD BANK DEVELOPMENT INDICATORS CD-ROM”,
versão 4.2, que consiste em uma base de 503 dados dispostos em uma série de tempo anual
para um total de 210 países, entre os anos de 1960 e 1997, renovada anualmente pelo World
Bank com a incorporação de estatísticas dos anos mais recentes. Destes, foram escolhidos os
154 países os quais existem 27 dados macroeconômicos disponíveis para o ano de 1997,
devido ao mesmo ser o mais recente dentre os que constam na publicação. Países nos quais
mais de um quarto dos dados utilizados não estão disponibilizados no trabalho foram
excluídos deste estudo. O Apêndice B apresenta várias tabelas nas quais constam, por região
do Globo, os países classificados em clusters pelo sistema neural usado.
Os dados de Produto Interno Bruto, Produto Nacional Bruto e Renda per capita
foram excluídos do estudo, devido à sua importância relativamente maior na implicação dos
outros dados utilizados. Justifica-se esta exclusão, entretanto, por não se poder afirmar o
quanto mais importantes tais informações seriam, e na ausência de uma ponderação
relativamente razoável fundamentada empiricamente, os mesmos não foram utilizados,
adotando-se uma metodologia semelhante àquela adotada em KASKI & KOHONEN (1996),
nas quais a não utilização da renda per capita se justificou devido ao interesse em
demonstrar relacionamentos menos evidentes entre os dados com o uso de uma única rede
SOM.
Abaixo se encontram identificados e descritos em oito áreas de concentração os
dados macroeconômicos utilizados na entrada da rede ART-2 que compõe a Fase 1, na sua
exata ordem de apresentação à rede neural:
56
1. Razões econômicas primárias em função do Produto Interno Bruto (PIB), definido pelo
World Bank como o conjunto da produção final de bens e serviços realizada em um
determinado país, independentemente da nacionalidade dos agentes econômicos, em um
período de um ano:
Investimento doméstico bruto/PIB: razão entre despesas com o aumento dos ativos fixos
da economia mais mudanças líquidas nos níveis de estoques e o Produto Interno Bruto,
expressa em porcentagem;
Exportações de bens e serviços/PIB: razão entre o valor das exportações de bens e
serviços e o Produto Interno Bruto, expressa em porcentagem;
Poupança doméstica bruta/PIB: razão entre o montante poupado no país por residentes e
não residentes e o Produto Interno Bruto, expressa em porcentagem;
Poupança nacional bruta/PIB: razão entre o montante poupado por residentes no país e no
exterior e o Produto Interno Bruto, expressa em porcentagem;
Pagamento de juros/PIB: razão entre o total financeiro relacionado ao pagamento de juros
sobre passivos contraídos pelo país no exterior e o Produto Interno Bruto, expressa em
porcentagem;
Dívida total/PIB: razão entre o valor global da dívida externa (se existir) do país e o
Produto Interno Bruto, expressa em porcentagem;
Valor presente da dívida/PNB: razão entre a atualização monetária do valor da dívida
externa (se houver) do país em 1997, calculada pelo método do Valor Presente Líquido, e
o Produto Interno Bruto, expressa em porcentagem;
Crescimento do PIB: percentual de crescimento ou queda do Produto Interno Bruto.
2. Comércio internacional:
57
Exportação agrícola: montante total da exportação de produtos agrícolas, expresso em
bilhões de dólares americanos em 1997;
Exportação industrial: montante total da exportação de produtos manufaturados, expresso
em bilhões de dólares americanos em 1997;
Exportação de serviços: montante total da exportação de produtos financeiros e outros
serviços, expresso em bilhões de dólares americanos em 1997;
Importação de bens e serviços: montante total da entrada de produtos financeiros e outros
serviços, expresso em bilhões de dólares americanos em 1997;
Importação agrícola: montante total da importação de produtos agrícolas, expresso em
bilhões de dólares americanos em 1997;
Importação industrial: montante total da importação de produtos industrializados,
expresso em bilhões de dólares americanos em 1997;
Importação de serviços: montante total da entrada de serviços prestados por não-
residentes, expresso em bilhões de dólares americanos em 1997.
3. Dados de consumo agregado:
Consumo privado: valor de mercado de todos os bens e serviços adquiridos ou recebidos
como renda pelas famílias e por instituições sem fins lucrativos, expresso em bilhões de
dólares americanos em 1997;
Consumo governamental: inclui todas as despesas correntes com compras de bens e
serviços, inclusive salários e pensões, por todos os níveis de governo, exceto autarquias,
expresso em bilhões de dólares americanos em 1997.
4. Preços domésticos:
58
Variação de preços ao consumidor: calculado de acordo com as estatísticas oficias do
país, expresso em porcentagem relacionada à variação do índice de preços oficial.
5. Indicadores monetários:
Deflator implícito do PIB: mede a taxa média anual da variação dos preços em uma
economia, calculado pelo método dos mínimos quadrados e expresso em porcentagem.
6. Finanças governamentais:
Receitas correntes: total de impostos e outras rendas do governo em um determinado
exercício, expresso em bilhões de dólares americanos em 1997;
Superávit ou déficit primário: excesso ou falta de recursos por parte do governo,
descontados os gastos com consumo e investimento governamentais, para o exercício de
1997.
7. Balanço de pagamentos:
Renda líquida investida no exterior: receita de investimentos diretos e em ativos
financeiros efetuados no exterior, expressa em bilhões de dólares americanos em 1997;
Transferências correntes líquidas: transferências ao exterior de ativos financeiros sem
contrapartida (como doações, por exemplo), expressa em bilhões de dólares americanos
em 1997;
Balanço da conta corrente: somatório líquido de exportações de bens e serviços, rendas, e
transferências correntes, expressa em bilhões de dólares americanos em 1997;
59
Mudança nas reservas: variação observada no saldo dos ativos financeiros mantidos pelo
Banco Central de um determinado país na comparação de um exercício fiscal com o
exercício imediatamente anterior, expresso em pocentagem;
Reservas, incluindo ouro: total dos ativos financeiros mantidos pelo Banco Central de um
determinado país ao final de um dado exercício, expresso em bilhões de dólares
americanos em 1997.
8. Dívida externa e fluxo de capitais:
Serviço total da dívida: somatório dos pagamentos relativos a principal e juros sobre o
total da dívida externa de curto e longo prazo, efetuados geralmente em moeda
estrangeira, mais recompra de títulos públicos e novos empréstimos obtidos junto ao
Fundo Monetário Internacional, expresso em bilhões de dólares americanos em 1997.
Os resultados foram analisados de acordo com benchmark realizado através de
comparação com os grupos de países classificados de acordo com a renda per capita - item
tradicionalmente utilizado na classificação de países sob o aspecto de contas nacionais -
contidos no CD-ROM utilizado como base de dados para o estudo. Encontram-se referidos
na Tabela 1 abaixo os países, segundo sua renda per capita em 1997, de acordo com os
dados e a classificação do World Bank:
60
TABELA 1: Países de renda per capita baixa, de acordo com WORLD BANK (1995)
Baixa Renda Per Capita – até US$ 2000 (1997)
Angola 820 Guiné Equatorial 1.790 Paquistão 1.580Azerbaijão 1.520 Guiné-Bissau 230 Quênia 1.160
Bangladesh 1.090 Haiti 1.260Rep. Centro-Africana 1.310
Benin 1.260 Iêmen 720 Rep. Congo 1.290Burkina Faso 1.000 Ilhas Salomão 623 Rep. Dem. Congo 760Burundi 620 Índia 1.660 Rwanda 650Butão 430 Laos 1.300 São Tomé e Príncipe 290Cabo Verde 1.090 Madagascar 900 Senegal 1.690Camarões 1.770 Malawi 700 Serra Leoa 410Camboja 1.290 Maldivas 1.130 Suazilândia 1.520Comoros 400 Mali 720 Sudão 1.370Costa do Marfim 1.690 Mauritânia 1.650 Tanzânia 620Cuba 364 Mianmar 668 Tchad 950Djibouti 510 Moçambique 690 Togo 1.460Eritréia 1.040 Moldova 1.450 Tonga 1.810Etiópia 500 Mongólia 1.490 Uganda 1.160Gâmbia 1.440 Nepal 1.090 Uzbequistão 1.020Gana 1.610 Niger 830 Vanuatu 1.340Geórgia 1.980 Nigéria 860 Vietnã 1.590Guiana 800 Papua Nova Guiné 930 Zâmbia 910
Percebe-se nesta Tabela que os países considerados de baixa renda pelo World Bank
são países pertencentes, respectivamente, à África Sub-Saariana, à Ásia Central e do Sul, e
mais Cuba, o Iêmen e a Mongólia.
61
TABELA 2: Países de renda per capita média-baixa, de acordo com WORLD BANK
(1995).
Renda Per Capita Média-Baixa – de US$ 2000 a US$ 4000 (1997)
Albânia 2.170 El
Salvador 2.860 Letônia 3.970
Armênia 2.540 Equador 4.700 Macedônia 3.180 Bahrein 2.070 Fiji 2.460 Marrocos 3.210 Belize 2.670 Filipinas 3.670 Paraguai 3.860 Bolívia 2.810 Honduras 2.260 Samoa 3.915 Bulgária 3.870 Jamaica 3.330 Síria 3.000 Cazaquistão 3.530 Jordânia 3.350 Sri Lanka 2.460 China 3.070 Kirjistão 2.180 Ucrânia 2.170 Dominica 3.040 Lesoto 2.490 Zimbabwe 2.240 Egito 3.080
Nesta faixa de renda per capita encontra-se, de acordo com o World Bank, países
dos cinco continentes, sendo portanto geograficamente mais bem distribuída pelo mundo.
TABELA 3: Países de renda per capita média, de acordo com WORLD BANK (1995).
Renda Per Capita Média – de US$ 4000 a US$ 7000 (1997)
Argélia 4.250 Hungria 6.970 Romênia 4.270 Bielo-Rússia 4.820 Irã 5.690 Rússia 4.280 Estônia 5.090 Líbano 6.090 Seychelles 6.910 Brasil 6.350 Lituânia 4.140 Tailândia 6.490 Colômbia 6.570 Namíbia 5.100 Trinidad e
Tobago 6.460
Costa Rica 6.510 Peru 4.580 Tunísia 5.050
62
Gabão 6.560 Polônia 6.510 Turquia 6.470 Guatemala 4.060 Rep.
Dominicana 4.690
Também nesta faixa de renda nota-se a presença de países dos cinco continentes,
com uma notável participação da América Latina.
TABELA 4: Países de renda per capita média-alta, de acordo com WORLD BANK (1995).
Renda Per Capita Média – Alta - de US$ 7000 a US$ 15000 (1997)
África do Sul
7.190 Eslovênia 11.880 México 8.110
Arábia Saudita
10.540 Grécia 12.540 Rep. Coréia
13.430
Argentina 10.100 Ilhas Maurícios
9.230 Rep. Tcheca
10.380
Botswana 7.430 Malásia 7.730 Uruguai 9.110 Chile 12.240 Malta 9.330 Venezuela 8.660 Eslováquia 7.860
Nesta categoria vê-se países dos cinco continentes, caracterizados por economias
com forte setor exportador; contudo, disparidades cambiais podem influenciar esta
classificação em alguns casos (Botswana, Rep. Coréia).
63
TABELA 5: Países de renda per capita alta, de acordo com WORLD BANK (1995).
Renda Per Capita Alta – a partir de US$ 15000 (1997)
Alemanha 21.170 França 22.210 Kuwait 23.519 Austrália 19.510 Holanda 21.300 Noruega 24.260 Áustria 22.010 Hong
Kong 24.350 Nova
Zelândia 15.780
Bélgica 23.090 Ilhas Virgens
22.890 Portugal 14.180
Canadá 21.750 Irlanda 17.420 Reino Unido
20.710
Dinamarca 23.450 Islândia 24.001 Singapura 29.230 Espanha 15.690 Israel 17.680 Suécia 19.010 Estados Unidos
29.080 Itália 20.100 Suíça 26.580
Finlândia 19.660 Japão 24.400
Na classe que engloba os países de alta renda, nota-se a presença dos países tradicionalmente
considerados desenvolvidos do mundo, com a inclusão de alguns paraísos fiscais (Hong
Kong, Ilhas Virgens), um país exportador de petróleo (Kuwait) e outros de desenvolvimento
mais recente (Irlanda, Islândia, Israel, Nova Zelândia, Singapura).
5.1. Fase 1
Foi nesta etapa empregada uma rede neural baseada na topologia conhecida como
ART-2, com os seguintes parâmetros de inicialização da rede adotados, de acordo com
CARPENTER & GROSSBERG (1987 b ) e ZELL et. al., (2000):
Treinamento estável;
t = 1 ciclo;
64
Conexões dij = 0;
Conexões aij = 1,92 (valor máximo obtido na Equação 1.b);
n = 27;
z = 25;
a = 10;
b = 10;
c = 0,1;
d = 0,9;
e = 1;
α = 0,7.
O parâmetro ρ foi testado com três valores diferentes, respectivamente 0,4, 0,7 e 0,9,
no intuito de se verificar possível diferenças quanto às classificações neurais obtidas face à
variação do parâmetro de vigilância da rede, o que acabou se mostrando de fundamental
importância nas classificações obtidas na rede ART-2. A quantidade de clusters obtida em
cada uma das redes – considerando cada ρ como compondo uma rede neural ART-2 distinta
das demais - está contida na Tabela 6 abaixo:
TABELA 6: Quantidade de clusters obtidos para cada valor de ρ empregado no estudo
Valor de ρ Número de clusters obtidos
0,4 4
0,7 5
0,9 12
65
A razão da variação na quantidade de clusters retornados pela rede ART-2, conforme
CARPENTER & GROSSBERG (1987 b) é clara: valores altos de ρ permitem uma
miscigenação menor entre os componentes de cada categoria, fazendo com que seja admitida
uma diversificação menor nas mesmas. À medida que se diminui ρ, esta diferenciação se
torna menos relevante na fase de busca das redes ART, o que leva à obtenção de uma menor
quantidade de clusters. Para cada valor de ρ, são apresentados nas Tabelas abaixo a
quantidade de países em cada um dos clusters gerados.
TABELA 7: Quantidade de países em cada um dos clusters obtidos para ρ = 0,4.
ρ = 0,4 Quantidade de Países
1 1
2 4
3 9
4 140
Percebe-se nesta primeira rede ART-2, com um valor de ρ baixo, que poucos países
foram qualificados como sendo suficientemente distintos dos demais para que se justificasse
a geração de um cluster correspondente. Como resultado, nota-se que existem apenas quatro
categorias, sendo uma delas bastante genérica, contendo 140 países.
66
TABELA 8: Quantidade de países em cada um dos clusters obtidos para ρ = 0,7.
ρ = 0,7 Quantidade de Países
1 1
2 4
3 9
4 1
5 139
Nesta segunda rede ART-2, vemos que a antiga categoria genérica encontrada na
rede anterior classificou apenas mais uma classe de países, e ainda assim com apenas um
componente. Assim, o incremento no valor de ρ de 0,4 para 0,7 produziu pouco efeito na
obtenção de categorias de países mais definidas.
TABELA 9: Quantidade de países em cada um dos clusters obtidos para ρ = 0,9.
ρ = 0,9 Quantidade de Países
1 1
2 4
3 9
4 1
5 1
6 15
67
7 24
8 21
9 39
10 9
11 6
12 24
Nesta última rede ART-2 percebemos a geração de diversas classes de países, as
quais discutiremos na Fase 3, com a apresentação dos mapas topológicos. Contudo, a
categoria genérica ainda não desapareceu por completo, indicando duas prováveis hipóteses:
a primeira seria relativa a uma insuficiência dos dados macroeconômicos disponíveis para a
obtenção de uma classificação perfeitamente uniforme, e a segunda seria de que existem
relacionamentos entre as variáveis macroeconômicas que não são suficientemente evidentes
para que se possa compreender sua interação, remetendo-nos ao problema da complexidade
discutido no Capítulo 2 deste trabalho.
5.2. Fase 2
Os componentes de cada mapa topológico para cada um dos clusters obtidos, através
do uso de redes ART-2, estão apresentados nas Tabelas 10, 11 e 12 dispostas no seguimento
do texto.
68
TABELA 10: Países contidos em cada cluster, para ρ = 0,4.
Cluster Países
1 Estados Unidos
2 Austrália, Nova Zelândia, Hong Kong, Holanda
3 Alemanha, Áustria, Bélgica, Canadá, Finlândia, França, Itália, Japão, Reino
Unido
4 Demais países restantes
A primeira rede ART-2, com parâmetro de vigilância igual a 0,4 destacou países de
renda relativamente elevada, conforme se pode ver na Tabela acima. Os demais
permaneceram em uma categoria genérica, não sendo diferenciados pela rede neural.
TABELA 11: Países contidos em cada cluster, para ρ = 0,7.
Cluster Países
1 Estados Unidos
2 Austrália, Nova Zelândia, Hong Kong, Holanda
3 Alemanha, Áustria, Bélgica, Canadá, Finlândia, França, Itália, Japão, Reino
Unido
4 Cuba
5 Demais países restantes
69
Na segunda rede ART-2 vê-se que apenas Cuba foi destacada da categoria genérica
obtida na rede anterior.
TABELA 12: Países contidos em cada cluster, para ρ = 0,9.
Cluster Países
1 Estados Unidos
2 Austrália, Holanda, Hong Kong, Nova Zelândia
3 Alemanha, Áustria, Bélgica, Canadá, Finlândia, França, Itália, Japão, Reino
Unido
4 Cuba
5 China
6 Cabo Verde, Chile, Comoros, Dinamarca, Fiji, Geórgia, Grécia, Ilhas
Maurícios, Ilhas Salomão, Ilhas Virgens, Indonésia, Maldivas, Malta, Moldova,
Noruega, Papua Nova Guiné, Samoa, São Tomé e Príncipe, Suécia, Suíça,
Tanzânia, Tonga, Trinidad e Tobago, Vanuatu
7 Albânia, Bielo-Rússia, Bulgária, Eslováquia, Eslovênia, Estônia, Hungria,
Letônia, Lituânia, Macedônia, Polônia, República Tcheca, Romênia, Rússia,
Ucrânia
8 Belize, Bolívia, Brasil, Colômbia, Costa Rica, Dominica, El Salvador, Equador,
Filipinas, Guatemala, Guiana, Honduras, Jamaica, Líbano, Malásia, México,
Mianmar, Paraguai, Peru, República Dominicana, Sri Lanka, Tailândia,
Uruguai, Venezuela
9 Argélia, Armênia, Azerbaijão, Bangladesh, Butão, Camboja, Cazaquistão,
70
Egito, Índia, Jordânia, Kirjistão, Laos, Marrocos, Mongólia, Nepal, Paquistão,
Síria, Tunísia, Turquia, Uzbequistão, Vietnã
10 Angola, Botswana, Burkina Faso, Burundi, Camarões, Costa do Marfim,
Djibouti, Eritréia, Etiópia, Gabão, Gâmbia, Gana, Guiné Equatorial, Guiné-
Bissau, Haiti, Lesoto, Madagascar, Malawi, Mali, Mauritânia, Moçambique,
Namíbia, Niger, Nigéria, Quênia, Rep. Congo, Rep. Dem. Congo, República
Centro-Africana, Rwanda, Senegal, Serra Leoa, Seychelles, Suazilândia, Sudão,
Tchad, Togo, Uganda, Zâmbia, Zimbabwe
11 África do Sul, Argentina, Espanha, Irlanda, Islândia, Israel, Portugal, Rep.
Coréia, Singapura
12 Arábia Saudita, Bahrein, Benin, Iêmen, Irã, Kuwait
Nesta última rede ART-2 encontra-se uma divisão das categorias maior e mais
detalhada dos países que compõem o estudo. Mais à frente serão discutidas as composições
de cada cluster obtido, bem como a aderência de cada componente do cluster ao mesmo face
à análise visual dos mapas topológicos das redes SOM. Salienta-se que, muito embora a
visualização obtida nas redes SOM é um excelente meio de se comparar categorias e detectar
relacionamentos obscuros entre seus componentes, o próprio desconhecimento a priori do
significado de determinado relacionamento entre as variáveis torna a análise dos clusters
relativamente complexa e realizada parcialmente de forma intuitiva. A pesquisa por
similaridades entre os dados de entrada utilizados na Fase 1 deste estudo foi uma alternativa
empregada na tentativa de se descobrir o que é considerado relevante no emparelhamento
dos clusters pela rede neural, contudo esta limitação analítica deve ser ressaltada.
71
5.3. Fase 3
Nesta etapa apresenta-se uma exploração das estruturas visuais obtidas com o
emprego de uma rede SOM, realizada para cada componente individualmente. Foi
empregado um tamanho padrão referente ao mapa topológico, consistindo de um arranjo
bidimensional de 50 neurônios de largura por 50 neurônios de comprimento, totalizando
2.500 neurônios. Foi escolhido tal tamanho relativamente avantajado em face da quantidade
de dados contidos no estudo (27 características para 154 países). Os parâmetros de
inicialização do algoritmo da rede SOM foram os seguintes:
Vm(0) = 1 (limitação do software empregado)
L = 0,1
Ω = 1000 ciclos (limite máximo de iterações da rede)
Na Figura 8 a seguir ilustramos um mapa topológico reduzido com as dimensões dos
mapas apresentados a seguir. A numeração dos neurônios segue a ordem da esquerda para a
direita e de cima para baixo, com 50 neurônios em cada linha. Assim, o primeiro neurônio do
alto à esquerda é o neurônio de número 1, o último neurônio da primeira linha o de número
50, o primeiro à esquerda da segunda linha o neurônio 51, e assim sucessivamente, até o
último neurônio à direita da última linha sendo identificado como o neurônio 2.500.
Nos mapas obtidos neste estudo pelas redes SOM, os neurônios vencedores que
correspondem à região de ativação de cada país em seu respectivo cluster serão
representados por neurônios pintados de preto. Contudo, deve-se salientar que a
interpretação dos resultados obtidos em cada mapa topológico é muitas vezes dificultosa, e
72
esta ressalva é valida a partir do momento em que o aspecto relevante nesta etapa é a
visualização obtida em cada cluster obtido por ART-2.
FIGURA 8: Exemplo de mapa topológico utilizado no estudo.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200
201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899 900901 902 903 904 905 906 907 908 909 910 911 912 913 914 915 916 917 918 919 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949 950951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999 1000
1001 1002 1003 1004 1005 1006 1007 1008 1009 1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 1025 1026 1027 1028 1029 1030 1031 1032 1033 1034 1035 1036 1037 1038 1039 1040 1041 1042 1043 1044 1045 1046 1047 1048 1049 10501051 1052 1053 1054 1055 1056 1057 1058 1059 1060 1061 1062 1063 1064 1065 1066 1067 1068 1069 1070 1071 1072 1073 1074 1075 1076 1077 1078 1079 1080 1081 1082 1083 1084 1085 1086 1087 1088 1089 1090 1091 1092 1093 1094 1095 1096 1097 1098 1099 11001101 1102 1103 1104 1105 1106 1107 1108 1109 1110 1111 1112 1113 1114 1115 1116 1117 1118 1119 1120 1121 1122 1123 1124 1125 1126 1127 1128 1129 1130 1131 1132 1133 1134 1135 1136 1137 1138 1139 1140 1141 1142 1143 1144 1145 1146 1147 1148 1149 11501151 1152 1153 1154 1155 1156 1157 1158 1159 1160 1161 1162 1163 1164 1165 1166 1167 1168 1169 1170 1171 1172 1173 1174 1175 1176 1177 1178 1179 1180 1181 1182 1183 1184 1185 1186 1187 1188 1189 1190 1191 1192 1193 1194 1195 1196 1197 1198 1199 1200
1201 1202 1203 1204 1205 1206 1207 1208 1209 1210 1211 1212 1213 1214 1215 1216 1217 1218 1219 1220 1221 1222 1223 1224 1225 1226 1227 1228 1229 1230 1231 1232 1233 1234 1235 1236 1237 1238 1239 1240 1241 1242 1243 1244 1245 1246 1247 1248 1249 12501251 1252 1253 1254 1255 1256 1257 1258 1259 1260 1261 1262 1263 1264 1265 1266 1267 1268 1269 1270 1271 1272 1273 1274 1275 1276 1277 1278 1279 1280 1281 1282 1283 1284 1285 1286 1287 1288 1289 1290 1291 1292 1293 1294 1295 1296 1297 1298 1299 13001301 1302 1303 1304 1305 1306 1307 1308 1309 1310 1311 1312 1313 1314 1315 1316 1317 1318 1319 1320 1321 1322 1323 1324 1325 1326 1327 1328 1329 1330 1331 1332 1333 1334 1335 1336 1337 1338 1339 1340 1341 1342 1343 1344 1345 1346 1347 1348 1349 13501351 1352 1353 1354 1355 1356 1357 1358 1359 1360 1361 1362 1363 1364 1365 1366 1367 1368 1369 1370 1371 1372 1373 1374 1375 1376 1377 1378 1379 1380 1381 1382 1383 1384 1385 1386 1387 1388 1389 1390 1391 1392 1393 1394 1395 1396 1397 1398 1399 14001401 1402 1403 1404 1405 1406 1407 1408 1409 1410 1411 1412 1413 1414 1415 1416 1417 1418 1419 1420 1421 1422 1423 1424 1425 1426 1427 1428 1429 1430 1431 1432 1433 1434 1435 1436 1437 1438 1439 1440 1441 1442 1443 1444 1445 1446 1447 1448 1449 14501451 1452 1453 1454 1455 1456 1457 1458 1459 1460 1461 1462 1463 1464 1465 1466 1467 1468 1469 1470 1471 1472 1473 1474 1475 1476 1477 1478 1479 1480 1481 1482 1483 1484 1485 1486 1487 1488 1489 1490 1491 1492 1493 1494 1495 1496 1497 1498 1499 15001501 1502 1503 1504 1505 1506 1507 1508 1509 1510 1511 1512 1513 1514 1515 1516 1517 1518 1519 1520 1521 1522 1523 1524 1525 1526 1527 1528 1529 1530 1531 1532 1533 1534 1535 1536 1537 1538 1539 1540 1541 1542 1543 1544 1545 1546 1547 1548 1549 15501551 1552 1553 1554 1555 1556 1557 1558 1559 1560 1561 1562 1563 1564 1565 1566 1567 1568 1569 1570 1571 1572 1573 1574 1575 1576 1577 1578 1579 1580 1581 1582 1583 1584 1585 1586 1587 1588 1589 1590 1591 1592 1593 1594 1595 1596 1597 1598 1599 16001601 1602 1603 1604 1605 1606 1607 1608 1609 1610 1611 1612 1613 1614 1615 1616 1617 1618 1619 1620 1621 1622 1623 1624 1625 1626 1627 1628 1629 1630 1631 1632 1633 1634 1635 1636 1637 1638 1639 1640 1641 1642 1643 1644 1645 1646 1647 1648 1649 16501651 1652 1653 1654 1655 1656 1657 1658 1659 1660 1661 1662 1663 1664 1665 1666 1667 1668 1669 1670 1671 1672 1673 1674 1675 1676 1677 1678 1679 1680 1681 1682 1683 1684 1685 1686 1687 1688 1689 1690 1691 1692 1693 1694 1695 1696 1697 1698 1699 17001701 1702 1703 1704 1705 1706 1707 1708 1709 1710 1711 1712 1713 1714 1715 1716 1717 1718 1719 1720 1721 1722 1723 1724 1725 1726 1727 1728 1729 1730 1731 1732 1733 1734 1735 1736 1737 1738 1739 1740 1741 1742 1743 1744 1745 1746 1747 1748 1749 17501751 1752 1753 1754 1755 1756 1757 1758 1759 1760 1761 1762 1763 1764 1765 1766 1767 1768 1769 1770 1771 1772 1773 1774 1775 1776 1777 1778 1779 1780 1781 1782 1783 1784 1785 1786 1787 1788 1789 1790 1791 1792 1793 1794 1795 1796 1797 1798 1799 18001801 1802 1803 1804 1805 1806 1807 1808 1809 1810 1811 1812 1813 1814 1815 1816 1817 1818 1819 1820 1821 1822 1823 1824 1825 1826 1827 1828 1829 1830 1831 1832 1833 1834 1835 1836 1837 1838 1839 1840 1841 1842 1843 1844 1845 1846 1847 1848 1849 18501851 1852 1853 1854 1855 1856 1857 1858 1859 1860 1861 1862 1863 1864 1865 1866 1867 1868 1869 1870 1871 1872 1873 1874 1875 1876 1877 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 19001901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 1913 1914 1915 1916 1917 1918 1919 1920 1921 1922 1923 1924 1925 1926 1927 1928 1929 1930 1931 1932 1933 1934 1935 1936 1937 1938 1939 1940 1941 1942 1943 1944 1945 1946 1947 1948 1949 19501951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049 20502051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099 21002101 2102 2103 2104 2105 2106 2107 2108 2109 2110 2111 2112 2113 2114 2115 2116 2117 2118 2119 2120 2121 2122 2123 2124 2125 2126 2127 2128 2129 2130 2131 2132 2133 2134 2135 2136 2137 2138 2139 2140 2141 2142 2143 2144 2145 2146 2147 2148 2149 21502151 2152 2153 2154 2155 2156 2157 2158 2159 2160 2161 2162 2163 2164 2165 2166 2167 2168 2169 2170 2171 2172 2173 2174 2175 2176 2177 2178 2179 2180 2181 2182 2183 2184 2185 2186 2187 2188 2189 2190 2191 2192 2193 2194 2195 2196 2197 2198 2199 2200
2201 2202 2203 2204 2205 2206 2207 2208 2209 2210 2211 2212 2213 2214 2215 2216 2217 2218 2219 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249 22502251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299 23002301 2302 2303 2304 2305 2306 2307 2308 2309 2310 2311 2312 2313 2314 2315 2316 2317 2318 2319 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349 23502351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399 24002401 2402 2403 2404 2405 2406 2407 2408 2409 2410 2411 2412 2413 2414 2415 2416 2417 2418 2419 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449 24502451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499 2500
São mostradas abaixo as redes SOM nas quais os clusters compostos por mais de um
elemento são apresentados. A nomenclatura adotada a partir deste ponto para cada mapa se
resume em quatro ou cinco caracteres, sendo os dois primeiros indicando o parâmetro de
vigilância e seu algarismo significativo, e os dois ou três últimos indicando a numeração do
cluster.
73
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 9: Regiões de ativação neural dos clusters ρ4c2, ρ7c2 e ρ9c2.
74
TABELA 13: Neurônios vencedores para cada país nos clusters ρ4c2, ρ7c2 e ρ9c2.
País Neurônio Vencedor Austrália 2319 Holanda 1219 Hong Kong 1951 Nova Zelândia 1965
Nota-se que neste cluster se encontram países que apresentam desempenho do
balanço da conta corrente e das transferências correntes líquidas relativamente similares, mas
não ao ponto de apresentarem uma grande proximidade na ativação neuronal. Assim, mesmo
sendo classificados em uma mesma categoria, suas diferenças dentro do cluster são
evidenciadas devido à pouca proximidade entre os neurônios vencedores representativos de
cada país. Nota-se inclusive que nos casos específicos de Hong Kong (neurônio vencedor
1951) e da Holanda (neurônio vencedor 1219) os mesmos se encontram relativamente
distantes visualmente de Austrália e Nova Zelândia, indicando maior grau de semelhança
entre os si.
75 75
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 10: Regiões de ativação neural dos clusters ρ4c3, ρ7c3 e ρ9c3,.
76
TABELA 14: Neurônios vencedores para cada país nos clusters ρ4c3, ρ7c3 e ρ9c3.
País Neurônio Vencedor Alemanha 944 Áustria 86 Bélgica 33 Canadá 334 Finlândia 282 França 466 Itália 214 Japão 312 Reino Unido 81
Este cluster apresenta países que indicam taxas bastante próximas para a variação de
preços ao consumidor para o ano estudado, bem como similaridades importantes nas reservas
incluindo ouro. Contudo, na análise dos neurônios vencedores notamos três áreas de ativação
distintas: uma composta apenas pela Alemanha, outra composta por Reino Unido, Bélgica,
Finlândia, Áustria e Canadá, e uma terceira, reunindo Japão, Itália e França. Assim, nota-se
que dentro desta mesma categoria existem três grupos de países devido à análise dos
neurônios vencedores.
77
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 11: Regiões de ativação neural do clusterρ4c4.
78
TABELA 15: Neurônios vencedores para cada país no cluster ρ4c4.
País Neurônio Vencedor África do Sul 1682 Albânia 2474 Angola 1921 Arábia Saudita 2074 Argélia 2170 Argentina 1739 Armênia 2185 Azerbaijão 2085 Bahrein 1770 Bangladesh 2038 Belize 2077 Benin 2182 Bielo-Rússia 2076 Bolívia 1783 Botswana 2125 Brasil 1589 Bulgária 1728 Burkina Faso 2333 Burundi 2379 Butão 2225 Cabo Verde 1980 Camarões 2279 Camboja 2281 Casaquistão 1986 Chile 1581 China 1684 Colômbia 1887 Comoros 2183 Costa do Marfim 2129 Costa Rica 2028 Cuba 2241 Dinamarca 1990 Djibouti 1982 Dominica 1984 Egito 1988 El Salvador 1937 Equador 1884 Eritréia 1981 Eslováquia 1977 Eslovênia 2026 Espanha 1891 Estônia 1780 Etiópia 2331
79
Fiji 1983 Filipinas 1882 Gabão 2122 Gâmbia 2083 Gana 2181 Geórgia 2284 Grécia 2091 Guatemala 2085 Guiana 1974 Guiné Equatorial 2038 Guiné-Bissau 2381 Haiti 2135 Honduras 2079 Hungria 1433 Iêmen 1680 Ilhas Maurícios 1882 Ilhas Salomão 2490 Ilhas Virgens 2177 Índia 1692 Indonésia 1686 Irã 2341 Irlanda 1889 Islândia 2193 Israel 1525 Jamaica 1928 Jordânia 1928 Kirjistão 2279 Kuwait 1775 Laos 2281 Lesoto 1828 Letônia 1780 Líbano 1980 Lituânia 1781 Macedônia 1979 Madagascar 2181 Malásia 1880 Malawi 2183 Maldivas 2286 Mali 2279 Malta 1874 Marrocos 1785 Mauritânia 2130 México 1586 Mianmar 2485 Moçambique 2179 Moldova 2325 Mongólia 2277 Namíbia 1976 Nepal 2377
80
Niger 2183 Nigéria 2177 Noruega 1990 Papua Nova Guiné 2223 Paquistão 1783 Paraguai 2037 Peru 1531 Polônia 1675 Portugal 2139 Quênia 2083 Rep. Congo 2019 Rep. Coréia 1628 Rep. Dem. Congo 2481 República Centro-Africana 2476 República Dominicana 1985 República Tcheca 1623 Romênia 2372 Rússia 1686 Rwanda 2284 Samoa 2388 São Tomé e Príncipe 2081 Senegal 1985 Serra Leoa 2479 Seychelles 1976 Singapura 1485 Síria 2137 Sri Lanka 1782 Suazilândia 1876 Sudão 2238 Suécia 2386 Suíça 1992 Tailândia 1529 Tanzânia 2486 Tchad 2233 Togo 2231 Tonga 2488 Trinidad e Tobago 1885 Tunísia 2028 Turquia 1787 Ucrânia 2320 Uganda 2282 Uruguai 1583 Uzbequistão 2384 Vanuatu 2483 Venezuela 1430 Vietnã 2177 Zâmbia 1885 Zimbabwe 1934
81
Neste cluster se encontram praticamente todos os países que se diferenciam pelos
mais diversos motivos, daqueles que foram classificados como distintos pela Fase 1, ou seja,
este cluster seria um default em que a Fase 1 agrupa todos os países que não apresentam
discrepâncias importantes, dado um padrão de vigilância. Porém, é evidente na análise dos
neurônios vencedores que trata-se de uma classificação relativamente regular. Todos os
neurônios ativados no mapa topológico acima estão concentrados em uma mesma área, o que
demonstra que, considerando-se um grau de diferenciação relativamente baixo, este cluster é
bastante equilibrado em relação à sua constituição visual.
82
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 12: Regiões de ativação neural do cluster ρ7c5.
83
TABELA 16: Neurônios vencedores para cada país no cluster ρ7c5.
País Neurônio Vencedor África do Sul 1682 Albânia 2474 Angola 1921 Arábia Saudita 2074 Argélia 2170 Argentina 1739 Armênia 2185 Azerbaijão 2085 Bahrein 1770 Bangladesh 2038 Belize 2077 Benin 2182 Bielo-Rússia 2076 Bolívia 1783 Botswana 2125 Brasil 1589 Bulgária 1728 Burkina Faso 2333 Burundi 2379 Butão 2225 Cabo Verde 1980 Camarões 2279 Camboja 2281 Casaquistão 1986 Chile 1581 China 1684 Colômbia 1887 Comoros 2183 Costa do Marfim 2129 Costa Rica 2028 Dinamarca 1990 Djibouti 1982 Dominica 1984 Egito 1988 El Salvador 1937 Equador 1884 Eritréia 1981 Eslováquia 1977 Eslovênia 2026 Espanha 1891 Estônia 1780 Etiópia 2331 Fiji 1983 Filipinas 1882
84
Gabão 2122 Gâmbia 2083 Gana 2181 Geórgia 2284 Grécia 2091 Guatemala 2085 Guiana 1974 Guiné Equatorial 2038 Guiné-Bissau 2381 Haiti 2135 Honduras 2079 Hungria 1433 Iêmen 1680 Ilhas Maurícios 1882 Ilhas Salomão 2490 Ilhas Virgens 2177 Índia 1692 Indonésia 1686 Irã 2341 Irlanda 1889 Islândia 2193 Israel 1525 Jamaica 1928 Jordânia 1928 Kirjistão 2279 Kuwait 1775 Laos 2281 Lesoto 1828 Letônia 1780 Líbano 1980 Lituânia 1781 Macedônia 1979 Madagascar 2181 Malásia 1880 Malawi 2183 Maldivas 2286 Mali 2279 Malta 1874 Marrocos 1785 Mauritânia 2130 México 1586 Mianmar 2485 Moçambique 2179 Moldova 2325 Mongólia 2277 Namíbia 1976 Nepal 2377 Niger 2183 Nigéria 2177
85
Noruega 1990 Papua Nova Guiné 2223 Paquistão 1783 Paraguai 2037 Peru 1531 Polônia 1675 Portugal 2139 Quênia 2083 Rep. Congo 2019 Rep. Coréia 1628 Rep. Dem. Congo 2481 República Centro-Africana 2476 República Dominicana 1985 República Tcheca 1623 Romênia 2372 Rússia 1686 Rwanda 2284 Samoa 2388 São Tomé e Príncipe 2081 Senegal 1985 Serra Leoa 2479 Seychelles 1976 Singapura 1485 Síria 2137 Sri Lanka 1782 Suazilândia 1876 Sudão 2238 Suécia 2386 Suíça 1992 Tailândia 1529 Tanzânia 2486 Tchad 2233 Togo 2231 Tonga 2488 Trinidad e Tobago 1885 Tunísia 2028 Turquia 1787 Ucrânia 2320 Uganda 2282 Uruguai 1583 Uzbequistão 2384 Vanuatu 2483 Venezuela 1430 Vietnã 2177 Zâmbia 1885 Zimbabwe 1934
86
Esta Tabela se diferencia da Tabela 11 apenas pela exclusão de Cuba dentre seus
elementos, sendo assim a classificação default da Fase 1 para ρ = 0,7. Contudo, a
uniformização também é bastante grande dentre os neurônios vencedores. Este resultado
aponta para uma detecção relativamente intuitiva de que a grande parte dos países do mundo,
considerada sob um grau de exigência de diferenciação médio, possui a maior parte de suas
características macroeconômicas relativamente parecidas, ou pelo menos suas diferenças
neste aspecto não são particularmente relevantes. Porém, retornando à análise visual do
mapa, também pode ser notado que o grau de conformidade não é tão grande quanto no
cluster ρ4c4, assegurando que a rede SOM considera relevante o valor adotado pelo
parâmetro ρ na rede ART-2 da Fase 1.
87
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 13: Regiões de ativação neural do cluster ρ9c6.
88
TABELA 17: Neurônios vencedores para cada país no cluster ρ9c6.
País Neurônio Vencedor Cabo Verde 1610 Chile 1666 Comoros 1608 Dinamarca 672 Fiji 1360 Geórgia 1711 Grécia 581 Ilhas Maurícios 1564 Ilhas Salomão 834 Ilhas Virgens 1612 Indonésia 1518 Maldivas 874 Malta 1509 Moldova 1464 Noruega 675 Papua Nova Guiné 1363 Samoa 830 São Tomé e Príncipe 1466 Suécia 977 Suíça 525 Tanzânia 778 Tonga 930 Trinidad e Tobago 1512 Vanuatu 877
Esta é a Tabela default para ρ = 0,9. A diversidade ainda é grande, com países das
mais diversas regiões do mundo. Contudo, de uma maneira geral, são países que apresentam
bom desempenho global nos dados referentes especialmente às exportações, quando se
analisa individualmente as semelhanças entre seus dados. Também, notamos a polarização
das regiões de ativação, sendo a mais personalizada a região mais à esquerda, onde há uma
predominância dos países do Pacífico Sul. Os demais países deste cluster se situam na região
mais à direita na qual ocorrem diversos neurônios vencedores.
89
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 14: Regiões de ativação neural do cluster ρ9c7.
90
TABELA 18: Neurônios vencedores para cada país no cluster ρ9c7.
País Neurônio Vencedor Albânia 2246 Bielo-Rússia 2298 Bulgária 2146 Eslováquia 2400 Eslovênia 2398 Estônia 2500 Hungria 2200 Letônia 2497 Lituânia 2497 Macedônia 2198 Polônia 2049 República Tcheca 2300 Romênia 2493 Rússia 2495 Ucrânia 2345
Este cluster agrupa de maneira bem interessante os países da antiga “Cortina de
Ferro”, que também apresentam similaridades visíveis de seus dados relacionados a consumo
privado e governamental, quando suas entradas são revisitadas pelo analista. Visualmente,
no mapa topológico, os neurônios vencedores também se encontram bastante próximos, o
que indica uma boa uniformização do cluster, sendo particularmente este resultado bastante
interessante, especialmente lembrando-se que trata-se de um resultado recorrente mas obtido
de maneira experimental.
91
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 15: Regiões de ativação neural do cluster ρ9c8.
92
TABELA 19: Neurônios vencedores para cada país no cluster ρ9c8.
País Neurônio Vencedor Belize 396 Bolívia 192 Brasil 50 Colômbia 398 Costa Rica 493 Dominica 296 El Salvador 594 Equador 398 Filipinas 498 Guatemala 590 Guiana 196 Honduras 298 Jamaica 47 Líbano 344 Malásia 600 México 150 Mianmar 596 Paraguai 342 Peru 496 República Dominicana 598 Sri Lanka 500 Tailândia 148 Uruguai 400 Venezuela 300
Este cluster agrupa principalmente os países em desenvolvimento da América Latina
e Ásia, com a notável inclusão do Líbano. São, deste modo, países que apresentam
similaridades em praticamente todos os dados apresentados, como pode ser verificado na
análise do mapa topológico obtido, o qual lembra bastante o resultado apresentado em ρ9c7,
diferindo-se apenas na região ativada do mapa topológico.
93
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 16: Regiões de ativação neural do clusterρ9c9.
94
TABELA 20: Neurônios vencedores para cada país no cluster ρ9c9.
País Neurônio Vencedor Argélia 1521 Armênia 1473 Azerbaijão 1373 Bangladesh 1273 Butão 1275 Camboja 1019 Cazaquistão 1372 Egito 1172 Índia 1126 Jordânia 1368 Kirjistão 1120 Laos 973 Marrocos 1468 Mongólia 1168 Nepal 1377 Paquistão 1278 Síria 1269 Tunísia 1420 Turquia 1124 Uzbequistão 1425 Vietnã 1271
Este cluster inclui antigos países que compunham a extinta União Soviética, países
mais pobres da Ásia e da África Mediterrânea, e também os europeus Turquia e Armênia.
Uma grande característica comum a todos é o nível alto das importações no período
estudado. O mapa topológico também retorna uma região de ativação regular, licalizada na
região central da estrutura.
95
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 17: Regiões de ativação neural do cluster ρ9c10.
96
TABELA 21: Neurônios vencedores para cada país no cluster ρ9c10.
País Neurônio Vencedor Angola 2257 Botswana 2460 Burkina Faso 2402 Burundi 2201 Camarões 2203 Costa do Marfim 2205 Djibouti 2454 Eritréia 2454 Etiópia 2301 Gabão 2305 Gâmbia 2303 Gana 2103 Guiné Equatorial 2203 Guiné-Bissau 1906 Haiti 2451 Lesoto 2406 Madagascar 2005 Malawi 2353 Mali 2301 Mauritânia 1852 Moçambique 2007 Namíbia 2359 Niger 2402 Nigéria 2159 Quênia 2103 Rep. Congo 2259 Rep. Dem. Congo 2101 República Centro-Africana 2201 Rwanda 2401 Senegal 1904 Serra Leoa 2001 Seychelles 2362 Suazilândia 2458 Sudão 2105 Tchad 2451 Togo 2353 Uganda 2351 Zâmbia 1804 Zimbabwe 2003
97
Este padrão obtido no sistema se refere a uma classe exclusivamente africana, sem
uma diferenciação clara entre a África do Norte e a África Sub-Saariana. O mapa visual
apresenta uma padronização extremamente uniforme, com vários países apresentando o
mesmo neurônio vencedor, indicando grandes semelhanças entre os dados macroeconômicos
dos mesmos de acordo com a rede SOM. Realizando-se uma comparação entre esta classe e
as Tabelas de Renda Per Capita constantes mais acima neste Capítulo, podemos perceber
que os fatores geográfico e geoposicional parecem ser mais influentes na constituição desta
categoria do que a própria renda per capita, tendo em vista que alguns países da África
Mediterrânea que constam como possuidores de renda per capita maiores que os países mais
ao sul foram classificados juntos.
98
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 18: Regiões de ativação neural do cluster ρ9c11.
99
TABELA 22: Neurônios vencedores para cada país no cluster ρ9c11.
País Neurônio Vencedor África do Sul 1015 Argentina 1217 Espanha 1143 Irlanda 1146 Islândia 1445 Israel 916 Portugal 1294 Rep. Coréia 1019 Singapura 1862
O cluster acima junta países emergentes em estágio avançado, de uma maneira geral,
muito embora sua padronização visual seja fragmentada, com Singapura apresentando um
distanciamento relativamente grande dos outros dois grupos, compostos respectivamente por
Israel, África do Sul, República da Coréia e Argentina mais à esquerda, e Portugal, Espanha,
Irlanda e Islândia mais à direita. Contudo, para o ano de 1997 (data-base dos dados
utilizados), os países desta classe gozavam de situação macroeconômica relativamente
estável, com vários indicadores em situação de equilíbrio, como por exemplo os seus dados
econômicos estruturais (área de concentração 3), indicadores monetários (área de
concentração 5) e finanças governamentais (área de concentração 6).
100
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
1 01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1 09 1 1 0 1 1 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 7 1 1 8 1 1 9 1 20 1 21 1 22 1 23 1 24 1 25 1 26 1 27 1 28 1 29 1 30 1 31 1 32 1 33 1 34 1 35 1 36 1 37 1 38 1 39 1 40 1 41 1 42 1 43 1 44 1 45 1 46 1 47 1 48 1 49
1 51 1 52 1 53 1 54 1 55 1 56 1 57 1 58 1 59 1 60 1 61 1 62 1 63 1 64 1 65 1 66 1 67 1 68 1 69 1 70 1 71 1 72 1 73 1 74 1 75 1 76 1 77 1 78 1 79 1 80 1 81 1 82 1 83 1 84 1 85 1 86 1 87 1 88 1 89 1 90 1 91 1 92 1 93 1 94 1 95 1 96 1 97 1 98 1 99
201 202 203 204 205 206 207 208 209 21 0 21 1 21 2 21 3 21 4 21 5 21 6 21 7 21 8 21 9 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249
251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299
301 302 303 304 305 306 307 308 309 31 0 31 1 31 2 31 3 31 4 31 5 31 6 31 7 31 8 31 9 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349
351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399
401 402 403 404 405 406 407 408 409 41 0 41 1 41 2 41 3 41 4 41 5 41 6 41 7 41 8 41 9 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449
451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499
501 502 503 504 505 506 507 508 509 51 0 51 1 51 2 51 3 51 4 51 5 51 6 51 7 51 8 51 9 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549
551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599
601 602 603 604 605 606 607 608 609 61 0 61 1 61 2 61 3 61 4 61 5 61 6 61 7 61 8 61 9 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649
651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699
701 702 703 704 705 706 707 708 709 71 0 71 1 71 2 71 3 71 4 71 5 71 6 71 7 71 8 71 9 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749
751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799
801 802 803 804 805 806 807 808 809 81 0 81 1 81 2 81 3 81 4 81 5 81 6 81 7 81 8 81 9 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849
851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899
901 902 903 904 905 906 907 908 909 91 0 91 1 91 2 91 3 91 4 91 5 91 6 91 7 91 8 91 9 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949
951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999
1 001 1 002 1 003 1 004 1 005 1 006 1 007 1 008 1 009 1 01 0 1 01 1 1 01 2 1 01 3 1 01 4 1 01 5 1 01 6 1 01 7 1 01 8 1 01 9 1 020 1 021 1 022 1 023 1 024 1 025 1 026 1 027 1 028 1 029 1 030 1 031 1 032 1 033 1 034 1 035 1 036 1 037 1 038 1 039 1 040 1 041 1 042 1 043 1 044 1 045 1 046 1 047 1 048 1 049
1 051 1 052 1 053 1 054 1 055 1 056 1 057 1 058 1 059 1 060 1 061 1 062 1 063 1 064 1 065 1 066 1 067 1 068 1 069 1 070 1 071 1 072 1 073 1 074 1 075 1 076 1 077 1 078 1 079 1 080 1 081 1 082 1 083 1 084 1 085 1 086 1 087 1 088 1 089 1 090 1 091 1 092 1 093 1 094 1 095 1 096 1 097 1 098 1 099
1 1 01 1 1 02 1 1 03 1 1 04 1 1 05 1 1 06 1 1 07 1 1 08 1 1 09 1 1 1 0 1 1 1 1 1 1 1 2 1 1 1 3 1 1 1 4 1 1 1 5 1 1 1 6 1 1 1 7 1 1 1 8 1 1 1 9 1 1 20 1 1 21 1 1 22 1 1 23 1 1 24 1 1 25 1 1 26 1 1 27 1 1 28 1 1 29 1 1 30 1 1 31 1 1 32 1 1 33 1 1 34 1 1 35 1 1 36 1 1 37 1 1 38 1 1 39 1 1 40 1 1 41 1 1 42 1 1 43 1 1 44 1 1 45 1 1 46 1 1 47 1 1 48 1 1 49
1 1 51 1 1 52 1 1 53 1 1 54 1 1 55 1 1 56 1 1 57 1 1 58 1 1 59 1 1 60 1 1 61 1 1 62 1 1 63 1 1 64 1 1 65 1 1 66 1 1 67 1 1 68 1 1 69 1 1 70 1 1 71 1 1 72 1 1 73 1 1 74 1 1 75 1 1 76 1 1 77 1 1 78 1 1 79 1 1 80 1 1 81 1 1 82 1 1 83 1 1 84 1 1 85 1 1 86 1 1 87 1 1 88 1 1 89 1 1 90 1 1 91 1 1 92 1 1 93 1 1 94 1 1 95 1 1 96 1 1 97 1 1 98 1 1 99
1 201 1 202 1 203 1 204 1 205 1 206 1 207 1 208 1 209 1 21 0 1 21 1 1 21 2 1 21 3 1 21 4 1 21 5 1 21 6 1 21 7 1 21 8 1 21 9 1 220 1 221 1 222 1 223 1 224 1 225 1 226 1 227 1 228 1 229 1 230 1 231 1 232 1 233 1 234 1 235 1 236 1 237 1 238 1 239 1 240 1 241 1 242 1 243 1 244 1 245 1 246 1 247 1 248 1 249
1 251 1 252 1 253 1 254 1 255 1 256 1 257 1 258 1 259 1 260 1 261 1 262 1 263 1 264 1 265 1 266 1 267 1 268 1 269 1 270 1 271 1 272 1 273 1 274 1 275 1 276 1 277 1 278 1 279 1 280 1 281 1 282 1 283 1 284 1 285 1 286 1 287 1 288 1 289 1 290 1 291 1 292 1 293 1 294 1 295 1 296 1 297 1 298 1 299
1 301 1 302 1 303 1 304 1 305 1 306 1 307 1 308 1 309 1 31 0 1 31 1 1 31 2 1 31 3 1 31 4 1 31 5 1 31 6 1 31 7 1 31 8 1 31 9 1 320 1 321 1 322 1 323 1 324 1 325 1 326 1 327 1 328 1 329 1 330 1 331 1 332 1 333 1 334 1 335 1 336 1 337 1 338 1 339 1 340 1 341 1 342 1 343 1 344 1 345 1 346 1 347 1 348 1 349
1 351 1 352 1 353 1 354 1 355 1 356 1 357 1 358 1 359 1 360 1 361 1 362 1 363 1 364 1 365 1 366 1 367 1 368 1 369 1 370 1 371 1 372 1 373 1 374 1 375 1 376 1 377 1 378 1 379 1 380 1 381 1 382 1 383 1 384 1 385 1 386 1 387 1 388 1 389 1 390 1 391 1 392 1 393 1 394 1 395 1 396 1 397 1 398 1 399
1 401 1 402 1 403 1 404 1 405 1 406 1 407 1 408 1 409 1 41 0 1 41 1 1 41 2 1 41 3 1 41 4 1 41 5 1 41 6 1 41 7 1 41 8 1 41 9 1 420 1 421 1 422 1 423 1 424 1 425 1 426 1 427 1 428 1 429 1 430 1 431 1 432 1 433 1 434 1 435 1 436 1 437 1 438 1 439 1 440 1 441 1 442 1 443 1 444 1 445 1 446 1 447 1 448 1 449
1 451 1 452 1 453 1 454 1 455 1 456 1 457 1 458 1 459 1 460 1 461 1 462 1 463 1 464 1 465 1 466 1 467 1 468 1 469 1 470 1 471 1 472 1 473 1 474 1 475 1 476 1 477 1 478 1 479 1 480 1 481 1 482 1 483 1 484 1 485 1 486 1 487 1 488 1 489 1 490 1 491 1 492 1 493 1 494 1 495 1 496 1 497 1 498 1 499
1 501 1 502 1 503 1 504 1 505 1 506 1 507 1 508 1 509 1 51 0 1 51 1 1 51 2 1 51 3 1 51 4 1 51 5 1 51 6 1 51 7 1 51 8 1 51 9 1 520 1 521 1 522 1 523 1 524 1 525 1 526 1 527 1 528 1 529 1 530 1 531 1 532 1 533 1 534 1 535 1 536 1 537 1 538 1 539 1 540 1 541 1 542 1 543 1 544 1 545 1 546 1 547 1 548 1 549
1 551 1 552 1 553 1 554 1 555 1 556 1 557 1 558 1 559 1 560 1 561 1 562 1 563 1 564 1 565 1 566 1 567 1 568 1 569 1 570 1 571 1 572 1 573 1 574 1 575 1 576 1 577 1 578 1 579 1 580 1 581 1 582 1 583 1 584 1 585 1 586 1 587 1 588 1 589 1 590 1 591 1 592 1 593 1 594 1 595 1 596 1 597 1 598 1 599
1 601 1 602 1 603 1 604 1 605 1 606 1 607 1 608 1 609 1 61 0 1 61 1 1 61 2 1 61 3 1 61 4 1 61 5 1 61 6 1 61 7 1 61 8 1 61 9 1 620 1 621 1 622 1 623 1 624 1 625 1 626 1 627 1 628 1 629 1 630 1 631 1 632 1 633 1 634 1 635 1 636 1 637 1 638 1 639 1 640 1 641 1 642 1 643 1 644 1 645 1 646 1 647 1 648 1 649
1 651 1 652 1 653 1 654 1 655 1 656 1 657 1 658 1 659 1 660 1 661 1 662 1 663 1 664 1 665 1 666 1 667 1 668 1 669 1 670 1 671 1 672 1 673 1 674 1 675 1 676 1 677 1 678 1 679 1 680 1 681 1 682 1 683 1 684 1 685 1 686 1 687 1 688 1 689 1 690 1 691 1 692 1 693 1 694 1 695 1 696 1 697 1 698 1 699
1 701 1 702 1 703 1 704 1 705 1 706 1 707 1 708 1 709 1 71 0 1 71 1 1 71 2 1 71 3 1 71 4 1 71 5 1 71 6 1 71 7 1 71 8 1 71 9 1 720 1 721 1 722 1 723 1 724 1 725 1 726 1 727 1 728 1 729 1 730 1 731 1 732 1 733 1 734 1 735 1 736 1 737 1 738 1 739 1 740 1 741 1 742 1 743 1 744 1 745 1 746 1 747 1 748 1 749
1 751 1 752 1 753 1 754 1 755 1 756 1 757 1 758 1 759 1 760 1 761 1 762 1 763 1 764 1 765 1 766 1 767 1 768 1 769 1 770 1 771 1 772 1 773 1 774 1 775 1 776 1 777 1 778 1 779 1 780 1 781 1 782 1 783 1 784 1 785 1 786 1 787 1 788 1 789 1 790 1 791 1 792 1 793 1 794 1 795 1 796 1 797 1 798 1 799
1 801 1 802 1 803 1 804 1 805 1 806 1 807 1 808 1 809 1 81 0 1 81 1 1 81 2 1 81 3 1 81 4 1 81 5 1 81 6 1 81 7 1 81 8 1 81 9 1 820 1 821 1 822 1 823 1 824 1 825 1 826 1 827 1 828 1 829 1 830 1 831 1 832 1 833 1 834 1 835 1 836 1 837 1 838 1 839 1 840 1 841 1 842 1 843 1 844 1 845 1 846 1 847 1 848 1 849
1 851 1 852 1 853 1 854 1 855 1 856 1 857 1 858 1 859 1 860 1 861 1 862 1 863 1 864 1 865 1 866 1 867 1 868 1 869 1 870 1 871 1 872 1 873 1 874 1 875 1 876 1 877 1 878 1 879 1 880 1 881 1 882 1 883 1 884 1 885 1 886 1 887 1 888 1 889 1 890 1 891 1 892 1 893 1 894 1 895 1 896 1 897 1 898 1 899
1 901 1 902 1 903 1 904 1 905 1 906 1 907 1 908 1 909 1 91 0 1 91 1 1 91 2 1 91 3 1 91 4 1 91 5 1 91 6 1 91 7 1 91 8 1 91 9 1 920 1 921 1 922 1 923 1 924 1 925 1 926 1 927 1 928 1 929 1 930 1 931 1 932 1 933 1 934 1 935 1 936 1 937 1 938 1 939 1 940 1 941 1 942 1 943 1 944 1 945 1 946 1 947 1 948 1 949
1 951 1 952 1 953 1 954 1 955 1 956 1 957 1 958 1 959 1 960 1 961 1 962 1 963 1 964 1 965 1 966 1 967 1 968 1 969 1 970 1 971 1 972 1 973 1 974 1 975 1 976 1 977 1 978 1 979 1 980 1 981 1 982 1 983 1 984 1 985 1 986 1 987 1 988 1 989 1 990 1 991 1 992 1 993 1 994 1 995 1 996 1 997 1 998 1 999
2001 2002 2003 2004 2005 2006 2007 2008 2009 201 0 201 1 201 2 201 3 201 4 201 5 201 6 201 7 201 8 201 9 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038 2039 2040 2041 2042 2043 2044 2045 2046 2047 2048 2049
2051 2052 2053 2054 2055 2056 2057 2058 2059 2060 2061 2062 2063 2064 2065 2066 2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078 2079 2080 2081 2082 2083 2084 2085 2086 2087 2088 2089 2090 2091 2092 2093 2094 2095 2096 2097 2098 2099
21 01 21 02 21 03 21 04 21 05 21 06 21 07 21 08 21 09 21 1 0 21 1 1 21 1 2 21 1 3 21 1 4 21 1 5 21 1 6 21 1 7 21 1 8 21 1 9 21 20 21 21 21 22 21 23 21 24 21 25 21 26 21 27 21 28 21 29 21 30 21 31 21 32 21 33 21 34 21 35 21 36 21 37 21 38 21 39 21 40 21 41 21 42 21 43 21 44 21 45 21 46 21 47 21 48 21 49
21 51 21 52 21 53 21 54 21 55 21 56 21 57 21 58 21 59 21 60 21 61 21 62 21 63 21 64 21 65 21 66 21 67 21 68 21 69 21 70 21 71 21 72 21 73 21 74 21 75 21 76 21 77 21 78 21 79 21 80 21 81 21 82 21 83 21 84 21 85 21 86 21 87 21 88 21 89 21 90 21 91 21 92 21 93 21 94 21 95 21 96 21 97 21 98 21 99
2201 2202 2203 2204 2205 2206 2207 2208 2209 221 0 221 1 221 2 221 3 221 4 221 5 221 6 221 7 221 8 221 9 2220 2221 2222 2223 2224 2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235 2236 2237 2238 2239 2240 2241 2242 2243 2244 2245 2246 2247 2248 2249
2251 2252 2253 2254 2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277 2278 2279 2280 2281 2282 2283 2284 2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299
2301 2302 2303 2304 2305 2306 2307 2308 2309 231 0 231 1 231 2 231 3 231 4 231 5 231 6 231 7 231 8 231 9 2320 2321 2322 2323 2324 2325 2326 2327 2328 2329 2330 2331 2332 2333 2334 2335 2336 2337 2338 2339 2340 2341 2342 2343 2344 2345 2346 2347 2348 2349
2351 2352 2353 2354 2355 2356 2357 2358 2359 2360 2361 2362 2363 2364 2365 2366 2367 2368 2369 2370 2371 2372 2373 2374 2375 2376 2377 2378 2379 2380 2381 2382 2383 2384 2385 2386 2387 2388 2389 2390 2391 2392 2393 2394 2395 2396 2397 2398 2399
2401 2402 2403 2404 2405 2406 2407 2408 2409 241 0 241 1 241 2 241 3 241 4 241 5 241 6 241 7 241 8 241 9 2420 2421 2422 2423 2424 2425 2426 2427 2428 2429 2430 2431 2432 2433 2434 2435 2436 2437 2438 2439 2440 2441 2442 2443 2444 2445 2446 2447 2448 2449
2451 2452 2453 2454 2455 2456 2457 2458 2459 2460 2461 2462 2463 2464 2465 2466 2467 2468 2469 2470 2471 2472 2473 2474 2475 2476 2477 2478 2479 2480 2481 2482 2483 2484 2485 2486 2487 2488 2489 2490 2491 2492 2493 2494 2495 2496 2497 2498 2499
FIGURA 19: Regiões de ativação neural do cluster ρ9c12.
101
TABELA 23: Neurônios vencedores para cada país no cluster ρ9c12.
País Neurônio Vencedor Arábia Saudita 443 Bahrein 1058 Benin 2119 Iêmen 1969 Irã 1536 Kuwait 290
Esta classe é composta por países do Oriente Médio grandes produtores de petróleo
mais a República do Benin, localizada na África Ocidental e com economia voltada para a
agricultura.À exceção do país africano, cujo neurônio vencedor se encontra próximo ao do
Iêmen, não se pode afirmar, devido a uma relativa disparidade entre as variáveis, que este
cluster forma uma categoria relativamente uniforme, à exceção dos dados de exportação
relativamente similares em relação ao Produto Interno Bruto. Ainda no tocante à análise
visual do mapa, o Bahrein tem seu neurônio vencedor relativamente isolado, assim como o
Irã, e a região mais acima e à direita apresenta atividade nos neurônios correspondentes à
Arábia Saudita e ao Kuwait.
101
5.4. Fase 4
Nesta fase procura-se interpretar cada cluster obtido, através de uma análise qualitativa
baseada na análise dos mesmos, bem como de seus mapas topológicos, procurando em certas
convergências de acordo com a classificação baseada na renda per capita sugerida pelo World
Bank.
Em primeiro lugar, destacamos o caso altamente específico dos Estados Unidos, e depois
os casos de Cuba e China. O primeiro, mesmo sob uma relativamente pequena taxa de vigilância
dos padrões, que admite maior diversidade em cada categoria, sempre foi classificado
separadamente dos outros países. A principal razão notada quando analisamos os dados é a
magnitude dos seus dados reais: para qualquer das oito áreas de concentração dos dados
macroeconômicos empregados, o módulo dos mesmos é sempre bastante elevado em comparação
com todos os outros. O caso cubano é exatamente o oposto: muito embora tenha sido necessário o
emprego de uma maior diferenciação entre os clusters para que Cuba fosse considerado distinto dos
demais, o módulo dos dados reais cubanos é extremamente baixo. Finalmente, a China parece
compor um caso à parte quando analisamos algumas das suas razões primárias em função do PIB,
especialmente relacionadas a investimento e exportações, os quais apresentam um percentual
elevado, indicando uma forte orientação política no sentido da expansão.
A categoria 3 obtida em quaisquer dos parâmetros de vigilância das redes ART mostra um
grupo de países que, mesmo sem uma grande proximidade entre os seus neurônios vencedores,
mostram desempenho de suas contas relativas ao comércio internacional e ao balanço de
pagamentos com desempenhos relativamente semelhantes em magnitude.
102
A categoria 4 apresenta países de renda elevada, mesmo não havendo a disponibilidade
destes dados às redes treinadas. Assim, supõe-se que os outros dados incluídos como entradas às
redes ART indicam um padrão macroeconômico que responde de maneira semelhante, mesmo na
ausência da variável mais importante.
Nas classes 6, 7, 8, 9 e 10, compostas respectivamente por países da antiga Europa
comunista, da América Latina e Caribe, do Norte da África e Sul da Ásia, África Sub-Saariana, e
por países de alto volume percentual de exportações, notamos também a clara convergência
geopolítica em relação à sua própria composição, sendo que não existem dados relacionados a tal
característica que possam sugerir esta classificação às redes ART-2. Esta é uma constatação que
indica que os dados macroeconômicos apontam, no caso do estudo cross-sectional realizado, uma
situação histórica momentânea que pode ter sido determinada por fatos ocorridos no passado, que
exercem grande influência nas contas nacionais dos países no tocante ao estudo do período em que
os dados foram empregados, ou mesmo por razões outras que não podem ser detectadas apenas com
a análise destes dados fornecidos à rede. Podemos ressaltar, neste sentido, a existência do cluster
11, composto por países recentemente considerados de renda média ou média-alta pelo World
Bank, e do cluster 12, que não aparenta nesta análise nenhuma semelhança à luz da análise dos
dados fornecidos à rede, o que pode indicar a existência de relacionamentos não compreendidos.
5.5. Análise dos resultados obtidos
A viabilidade de uso das redes neurais em classificação de dados é uma realidade
comprovada pelos mais diversos empregos que a técnica se prestou, especialmente na última
década. Especificamente no caso de dados macroeconômicos, as redes neurais auto-organizadas se
mostraram ferramentas que proporcionam ao usuário uma comparação intuitiva bastante
interessante, notadamente na obtenção de estruturas visuais, que indicam tanto uma categorização
103
relativa aos grupos distintos que compõem cada cluster quanto um posicionamento dos elementos
dentro de um mesmo grupo. Porém, mostra-se necessário, face à conformidade relativamente difusa
que caracteriza alguns clusters, a adição de dados que permitam uma melhor definição dos critérios
adotados pelo próprio sistema, notadamente na Fase 1 do sistema proposto.
Contudo, o resultado mais importante deste estudo não é plenamente visualizável em seus
mapas topológicos: as classificações obtidas aparentam na maior parte dos casos um padrão que se
relaciona a dados de renda per capita e geopolíticos, os quais não constam de forma alguma em
nenhuma entrada disponível em quaisquer das Fases que compuseram o sistema. Tal resultado é
bastante similar ao obtido no estudo realizado por KASKI & KOHONEN, em 1996, utilizando-se
os dados contidos no World Bank Development Report do ano de 1992, incluindo também
indicadores sócio-econômicos.
104
6 CONSIDERAÇÕES FINAIS
O uso de técnicas de classificação neural auto-organizadas em uma base de dados
macroeconômica confiável se mostrou uma alternativa plausível, com tempo de execução
relativamente baixo e com perspectivas promissoras. Os clusters obtidos neste estudo se revelaram
razoáveis em comparação com estudos realizados com o emprego de técnicas tradicionais, baseadas
na análise da renda per capita e do produto agregado, utilizadas pelo World Bank, tendo em vista
que a composição dos mesmos apresenta coerência compatível com os resultados apresentados por
estas técnicas. A visualização destes clusters proporcionada pela Fase 3 se mostrou interessante do
ponto de vista da disponibilidade da ilustração de suas estruturas, o que torna seu exame uma tarefa
mais objetiva. Contribuem nestes pontos positivos, especialmente no caso das redes SOM, a
especificação matemática da aproximação vetorial contida em seu algoritmo de treinamento, e
especialmente no caso das redes ART, a sua arquitetura adequada a um bom manejo do Problema
da Dimensionalidade e da impossibilidade da geração de falsos padrões, casos estes iminentes em
bases de dados complexas e correlacionadas.
Seguramente o ponto de discussão mais intensa acerca dos resultados obtidos gira em
torno da própria adoção de uma metodologia de processamento do tipo caixa-preta, em que não há
uma modelagem que dê sustentação à classificação obtida: apenas confia-se nas saídas
proporcionadas pela rede neural. Contudo, isso pode ser também apreciado sob uma ótica favorável,
na qual o mais importante atributo da realização de uma tarefa qualquer seria a obtenção do melhor
desempenho possível, independentemente de qual a metodologia adotada. Observa-se na prática,
105
com referência a uma vastíssima bibliografia na área computacional, que a utilização de modelos
neurais no controle e monitoramento de sistemas complexos geralmente apresenta resultados mais
positivos do que aqueles obtidos por técnicas matemáticas tradicionais, tanto em relação a uma
maior eficácia na realização das tarefas, quanto no menor dispêndio computacional e na necessidade
de grande especialização do operador, redundando em uma crescente utilização desta metodologia
em problemas computacionais e de engenharia.
Outro ponto que deve ser destacado diz respeito à natureza das variáveis utilizadas:
algumas variáveis são nominais (expressas em valor monetário corrente) e outras variáveis são reais
(expressas levando-se em conta a variação de outras grandezas econômicas, como índices de
preços). Todavia, este é um problema inerente à elaboração das Contas Nacionais, e a proposição de
fórmulas para sua solução é uma tarefa que foge do escopo deste trabalho.
Uma terceira discussão em torno dos resultados obtidos seria originária da primeira
limitação ressaltada acima: a dificuldade operacional em interpretar os resultados obtidos pela rede
SOM mais positivamente. A análise realizada apresenta determinadas dificuldades à medida em que
devem existir inter-relacionamentos não capturados face ao conhecimento econômico atual.
Contudo, deve-se compreender os resultados obtidos como um indicador de que existe uma
diferenciação entre as categorias obtidas, muitas delas inclusive de maneira bastante clara segundo
os mapas topológicos obtidos.
Abaixo estão apresentadas algumas sugestões para a continuidade de pesquisas na área,
tendo em vista que vários aspectos pertinentes não são abordados pelo presente trabalho:
106
• Comparar diretamente a utilização de sistemas de classificação neural com as
técnicas mais comuns mencionadas no corpo do texto, através da apreciação de
suas potencialidades e inadequações intrínsecas;
• Realizar estudos semelhantes baseados na evolução temporal destes dados em
uma série de tempo, com a geração de vários clusters relativos aos diversos anos
considerados e a conseqüente comparação das mudanças ocorridas intracluster e
intercluster, como, por exemplo, a migração entre clusters e a conseqüente
evolução de cada um dos clusters obtidos;
• Utilização de arquiteturas capazes de realizar processamento de dados difusos
(lógica fuzzy), como por exemplo Fuzzy ARTMAP, o que permitiria a geração de
categorias superpostas, e uma posterior comparação dos resultados com a
metodologia aqui empregada;
• Analisar a sobreposição entre os clusters em relação às suas similaridades,
considerando assim alguns componentes como não completamente aderentes a
uma categoria específica;
• Outras aplicações de interesse nas áreas relativas à Economia e Finanças,
especialmente relacionadas ao estudo de risco e composição de carteiras de ativos
(portfolio), tendo em vista a capacidade de identificação de relacionamentos a
posteriori observada no sistema proposto neste estudo.
Além destas possibilidades, sem dúvida o emprego de um sistema semelhante pode
efetuar classificações de dados relativos aos estudos de Humanidades em uma vasta gama de
aplicações, como planejamento urbano e regional, planejamento cooperativo, organização industrial
e economia de empresas, análise de concorrência, estudos em Contabilidade Social e
Desenvolvimento Econômico, pesquisas e análises sociais e demográficas, e muitas outras.
107
REFERÊNCIAS BIBLIOGRÁFICAS
BARTFAI, G. (1994). Hierarchical Clustering with ART Neural Networks. . In: THE IEEE
INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando, EUA, 1994. Annals. Orlando,
v.II, p.940-944.
BEER, S. (1979). Cibernética na administração: visão totalmente original de como organizar e
administrar desde uma pequena empresa até um país. São Paulo, Ibrasa.
BISHOP, C.M. (1995). Neural networks for pattern recognition. Birmingham, Oxford University
Press.
BOX, G.E.P.;JENKINS, G.M. (1976). Time series analysis, forecasting and control. San Francisco,
Holden Day.
BRAGA, A.P.; LUDERMIR, T.B.; CARVALHO, A.C.P.L.F. (2000). Redes neurais artificiais:
teoria e aplicações. Rio de Janeiro, Livro Técnico e Científico.
CARPENTER, G.A.; GROSSBERG, S. (1987). A massively parallel architecture for a self-
organizing neural pattern recognition machine. Computer Vision, Graphics and Image Processing,
v.37, p.54-115.
108
CARPENTER, G.A.; GROSSBERG, S. (1987). ART-2: self-organization of a stable category
recognition codes for analog input patterns. Applied Optics, v.26, n.23, p.4919-4930, Dec.
CHESTER, D.L. (1990). Why two hidden layers are better than one. International Joint Conference
on Neural Networks, v.1, p.265-268.
COATES, J.F. (2000). Scenario planning. Technological Forecasting and Social Change, v.5,
p.115-123.
CYBENKO, G. (1988). Continuous valued neural networks with two hidden layers are sufficient.
Medford, Department of Computer Science/Tufts University (Technical Report).
DEBOECK, G.; KOHONEN, T. (2000). Visual explorations in finance with self-organizing maps.
London, Springer-Verlag.
DURATEX S.A. (1985). A abordagem sistêmica das organizações. São Paulo./Relatório técnico
Divisão de Treinamento/
ENGLE, R. (2001). The use of ARCH/GARCH models in applied econometrics. Journal of
Economic Perspectives, v.15, n.4, p.157-168.
ENGLISCH, H.; HIEMSTRA, Y. (1994). The correlation as cost function in neural networks. In:
THE IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando, EUA, 1994. Annals.
Orlando, v.V, p.3170-3172.
109
FAUSETT, L. (1994). Fundamentals of neural networks: architectures, algorithms, and
applications. Englewood Cliffs, Prentice Hall.
GAUSEMEIER, J.; FINK, A.; SCHLAKE, O. (1998). Scenario management: an approach to
develop future potentials. Technological Forecasting and Social Change, v.59, p.111-130.
GODET, M. (1987). Scenarios and strategic planning. London, Butterworth.
GODET, M.; ROUBELAT, F. (1996). Creating the future: the use and misuse of scenarios. Long
Range Planning, v.29, n.2, p.164-171.
HAYKIN, S. (1994). Neural networks: a comprehensive foundation. Hamilton, Prentice-Hall.
HEILEMAN, G.L.; GEORGIOPOULOS, M.; HWANG, J. (1994). A survey of learning results for
ART1 networks. In: THE IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando,
EUA, 1994. Annals. Orlando, v.II, p.1222-1225.
JOHNSON, R.A.; WICHERN, D.W. (1992). Applied multivariate statistical analysis. Upper Saddle
River, Prentice-Hall.
KANE, R.; MILGRAM, M. (1994). Financial forecasting and rules extraction from trained
networks.:In: THE IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando, EUA,
1994. Annals. Orlando, v.V, p.3190-3195.
110
KASKI, S.; KOHONEN, T. (1996). Exploratory data analysis by the self-organizaing map:
structures of welfare and poverty in the world. Helsinki, Neural Networks Research Centre/Helsinki
University of Technology (Technical Report).
KIANG, M. (2001). Extending the Kohonen self-organizing map networks for clustering analysis.
Computational Statistics & Data Analysis, v.38, p.161-180.
KOHONEN, T. (1989). Self-organization and associative memory. 3.ed. New York, Springer-
Verlag.
LAUDON, K.C.; LAUDON, J.P. (1996). Management information systems: organization and
technology. 4.ed. Upple Saddle River, Prentice-Hall.
MAHONEY, B. (1994). The limits of a computational model of human thinking. In: THE IEEE
INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando, EUA, 1994. Annals. Orlando,
v.IV, p.2173.
MITRA, S. (1994). Fuzzy inferencing with ART networks. In: THE IEEE INTERNATIONAL
CONFERENCE ON NEURAL NETWORKS, Orlando, EUA, 1994. Annals. Orlando, v.II, p.1230-1234.
PARK, Y. (1994). An ART2 trained by two-stage learning on circularly ordered data sequence. In:
THE IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando, EUA, 1994. Annals.
Orlando, v.V, p.2928-2933.
RUMELHART, D.E.; HINTON, G.E.; WILLIAMS, R.J. (1986). Learning representations by back-
propagation errors. Nature, v.323, p.533-536.
111
SARLE, W.S. (2001). Neural network FAQ. ftp.sas.com/pub/neural/FAQ.txt.zip. (18 Sept).
SERRANO-CINCA, C. (1996). Self organizing neural networks for financial diagnosis. Decision
Support Systems, v.17, p.227-238.
SMITH, K.A.;GUPTA, J.N.D. (2000). Neural networks in business: techniques and applications for
the operations researcher. Computers & Operations Research, v.27, p.1023-1044.
SPECHT, D.F.; ROMSDAHL, H. (1994). Experience with adaptive probabilistic neural networks
and adaptive general regression neural networks. In: THE IEEE INTERNATIONAL CONFERENCE ON
NEURAL NETWORKS, Orlando, EUA, 1994. Annals. Orlando, v.II, p.1203-1208.
TAKAHASHI, H. et.al. (1994). The reliability of neural networks on pattern recognition. In: THE
IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando, EUA, 1994. Annals.
Orlando, v.V, p.3067-3070.
TAURITZ, D.R. (2001). The adaptive resonance (ART) clearinghouse.
http://www.wi.leidenuniv.nl/art/ (06 Feb).
THE 1999 WORLD BANK DEVELOPMENT INDICATORS - Win*STARS version 4.2. (CD-
ROM). Washington, 1999.
TSAI, W.Y.; TAI, H.M.; REYNOLDS, A.C. (1994). An ART2-BP neural net and its application to
reservoir engineering. In: THE IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS,
Orlando, EUA, 1994. Annals. Orlando, v.V, p.3289-3294.
112
TURBAN, E.; ARONSON, J.E. (2001). Decision support systems and intelligent systems. 6.ed.
Upper Saddle River, Prentice-Hall.
VARIAN, H.R. (1994). Microeconomia:princípios básicos. Trad. por Luciane Melo. Rio de Janeiro,
Campus.
VELLIDO, A.; LISBOA, P.J.G.; VAUGHAN, J. (1999). Neural networks in business: a survey of
applications (1992-1998). Expert Systems with Applications, v.17, p.51-70.
VISHWAKARMA, K.P. (1994). A neural network to predict multiple economic time series. In:
THE IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS, Orlando, EUA, 1994. Annals.
Orlando, v.VI, p.3674-3679.
WEIERICH, P.; VON ROSENBERG, M. (1994). The use of formal measures for the training of
hierarchical Kohonen maps. In: THE IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS,
Orlando, EUA, 1994. Annals. Orlando, v.II, p.612-615.
WEST, D. (2000). Neural network credit scoring models. Computers & Operations Research, v.27,
p.1131-1152.
WILLIAMS, T.M. (1999). The need for new paradigms for complex projects. International Journal
of Project Management, v.17, n.5, p.269-273.
WOLLENBERG, E.; EDMUNDS, D.; BUCK, L. (2000). Using scenarios to make decisions about
the future: anticipatory learning for the adaptive co-management of community forests. Landscape
and Urban Planning, v.47, p.65-77.
113
WONG, B.K.; SELVI, Y. (1998). Neural network applications in finance: a review and analysis of
literature (1990-1996). Information & Management, v.34, p.129-139.
WONG, B.K.; LAI, V.S.; LAM, J. (2000). A bibliography of neural network business applications
research: 1994-1998. Computers & Operations Research, v.27, p.1045-1076.
ZHANG, G.; PATUWO, B.E.; HU, M.Y. (1998). Forecasting with artificial neural networks: the
state of the art. International Journal of Forecasting, v.14, p.35-62.
ZELL, A. et al. (2001). SNNS - Stuttgart Neural Networks Simulator user manual version 4.2.
http://www-ra.informatik.uni-tuebingen.de/downloads/SNNS/SNNSv4.2/Manual.pdf (27 Aug).
114
OBRAS CONSULTADAS
ABELÉM, A.J.; PACHECO, M.A.; VELLASCO, M.M.B.R. (1995). Modelagem de redes neurais
artificiais para previsão de séries temporais. In: II SIMPÓSIO BRASILEIRO DE REDES NEURAIS, São
Carlos, 1995. Anais. São Carlos, v.1, p.107-112.
AHN, B.S.; CHO, S.S.; KIM, C.Y. (2000). The integrated methodology of rough set theory and
artificial neural network for business failure prediction. Expert Systems With Applications, v.18,
p.65-74.
AMARI, S. (1990). Neural representation of information. In: I INTERNATIONAL JOINT CONFERENCE
ON NEURAL NETWORKS, Washington, 1990. Annals. Washington, v.I, p.509-511.
BACK, B.; LAITINEN, T.; SERE, K. (1996). Neural networks and genetic algorithms for
bankruptcy predictions. Expert Systems With Applications, v.11, n.4, p.407-413.
BALAKRISHNAN, S.N.; WEIL, R.D. (1996). Neurocontrol: a literature survey. Mathematical and
Computational Modelling, v.23, n.1, p.101-117.
BALLINI, R.; VON ZUBEN, F.J. (2000). Application of neural networks to adaptive control of
nonlinear systems. Automatica, v.36, p.1929-1933.
115
BALKIN, S.D.; ORD, J.K. (2000). Automatic neural network modeling for univariate time series.
International Journal of Forecasting, v.16, p.509-515.
BARTFAI, G. (1995). An ART-based modular architecture for learning hierarchical clusterings.
Wellington, Department of Computer Science/Victoria University of Wellington (Technical
Report).
BARTFAI, G.; WHITE, R. (1996). ART-based modular networks for incremental learning of
hierarchical clusterings. Wellington, Department of Computer Science/Victoria University of
Wellington (Technical Report).
BARTFAI, G. (1998). An adaptive resonance theory-based neural network capable of learning via
representational redescription. Budapest, Analogical and Neural Computing Systems
Laboratory/Computer and Automation Research Institute/Hungarian Academy of Sciences
(Technical Report).
BLANCO, A.; DELGADO, M.; PEGALAJAR, M.C. (2000). A genetic algorithm to obtain the
optimal recurrent neural network. International Journal of Approximate Reasoning, v.23, p.67-83.
BJORNSON, C.; BARNEY, D.K. (1999). Identifying significant model inputs with neural networks
– tax court determination of reasonable compensation. Expert Systems With Applications, v.17,
p.13-19.
BODE, J. (1998). Decision support with neural networks in the management of research and
development: concepts and application to cost estimation. Information & Management, v. 4, p.33-
40.
116
CALLEN, J.L. et al. (1996). Neural network forecasting of quarterly accounting earnings.
International Journal of Forecasting, v.12, p.475-482.
CHESTER, D.L. (1990). Why Two Hidden Layers Are Better Than One. In: I INTERNATIONAL
JOINT CONFERENCE ON NEURAL NETWORKS, Washington, EUA, 1990. Annals. Washington, v.I,
p.265-268.
CHIANG, W.C.; URBAN, T.L.; BALDRIDGE, G. W. (1996). A neural network approach to
mutual fund net asset value forecasting. Omega-The International Journal of Management Science,
v.24, n.2, p.205-215.
CHIEN, T.W. et al. (1999). A neural networks-based approach for strategic planning. Information
& Management, v.35, p.357-364.
COTTIS, R.A. et al. (1999). Neural network methods for corrosion data reduction. Materials and
Design, v.20, p.169-178.
COURRIEU, P. (2001). Two methods for encoding clusters. Neural Networks, v.14, p.175-183.
FANG, J.; XI, Y. (1997). Neural network design based on evolutionary programming. Artificial
Intelligence in Engineering, v.11, p.155-161.
FUNAHASHI, K. (1998). Multilayer neural networks and Bayes decision theory. Neural Networks,
v.11, p.209-213.
117
GRUCA, T.S.; KLEMZ, B.R. (1998). Using neural networks to identify competitive market
structures from aggregate market response data. Omega-The International Journal of Management
Science, v.26, n.1, p.49-62.
HEINEMANN, M. (2000). Adaptive learning of rational expectations using neural networks.
Journal of Economic Dynamics & Control, v.24, p.1007-1026.
HORNE, B.G; HUSH, D.R. (1996). Bounds on the complexity of recurrent neural network
implementations of finite state machines. Neural Networks, v.9, n.2, p.243-252.
HU, M.Y.; SHANKER, M.; HUNG, M.S. (1999). Estimation of posterior probabilities of consumer
situational choices with neural network classifiers. International Journal of Research in Marketing,
v.16, p.307-317.
INDRO, D. C. et al. (1999). Predicting mutual fund performance using artificial neural networks.
Omega-The International Journal of Management Science, v.27, p.373-380.
ISHIBUCHI, H.; NII, M. (2000). Neural networks for soft decision making. Fuzzy Sets and
Systems, v.115, p.121-140.
KAMGAR-PARSI, B.; GUALTIERI, J.A. (1990). Clustering taxonomic data with neural networks.
In: I INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, Washington, EUA, 1990.
Annals. Washington, v.I, p.277-280.
KARAYANNIS, N.B.; VENETSANOPOULOS, A.N. (1995). On the training and performance of
high-order neural networks. Mathematical Biosciences, v.68, p.129-143.
118
KASPARIAN, V.; BATUR, C. (1998). Model reference based neural network adaptive controller.
ISA Transactions, v.37, p.21-39.
KLEIN, B.D.; ROSSIN, D.F. (1999). Data quality in neural network models: effect of error rate and
magnitude of error on predictive accuracy. Omega-The International Journal of Management
Science, v.27, p.569-582.
KUO, R. J.; XUE, K. C. (1999). Fuzzy neural networks with application to sales forecasting. Fuzzy
Sets and Systems, v.108, p.123-143.
LANOUETTE, R.; THIBAULT, J.; VALADE, J.L. (1999). Process modeling with neural networks
using small experimental datasets. Computers & Chemical Engineering, v.23, p.1167-1176.
LAXTON, R. (2000). The World Wide Web as a neural net – implications for market-driven web
enabling. Technological Forecasting and Social Change, v.64, p.55-70.
LEE, K.C.; HAN, I.; KWON, Y. (1996). Hybrid neural network models for bankruptcy predictions.
Decision Support Systems, v.18, p.63-72.
LI, H.X.; DA, X.L. (2000). A neural network representation of linear programming. European
Journal of Operational Research, v.124, p.224-234.
LI, S. (2000). The development of a hybrid intelligent system for developing marketing strategy.
Decision Support Systems, v.27, p.395-409.
119
LIN, T.; HORNE, B.G.; GILES, C.L. (1998). How embedded memory in recurrent neural network
architectures helps learning long-term temporal dependencies. Neural Networks, v.11, p.861-868.
LIU, P. (2000). Max-min fuzzy Hopfield neural networks and an efficient learning algorithm. Fuzzy
Sets and Systems, v.112, p.41-49.
MACLEAN, D. (2001). Analyzing the monetary aggregates. Bank of Canada Review, Summer
2001, p.31- 43.
MEERT, K. (1998). A real-time recurrent learning network structure for data reconciliation.
Artificial Intelligence in Engineering, v.12, p.213-218.
MEKKAOUI, A.; JESPERS, P. (1990). An optimal self-organizing pattern classifier. In;
INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, Washington, EUA, 1990. Annals.
Washington, v.I, p.447-450.
NIKOV, A.; STOEVA, S. (2001). Quick fuzzy backpropagation algorithm. Neural Networks, v.14,
p.231-244.
PATTERSON, R.A.; PIRKUL, H. (2000). Heuristic procedure neural networks for the CMST
problem. Computers & Operations Research, v.27, p.1171-1200.
PIERRE, S.; SAID, H.; PROBST, W.G. (2000). Routing in computer networks using artificial
neural networks. Artificial Intelligence in Engineering, v.14, p.295-305.
120
PIRAMUTHU, S. (1999). Financial credit-risk evaluation with neural and neurofuzzy systems.
European Journal of Operational Research, v.112, p.310-321.
POSEY, C.L.; HAWKES, L.W. (1996). Neural networks applied to knowledge acquisitionin the
student model. Information Sciences, v.88, p.275-298.
QUAH, T.S.; SRINIVASAN, B. (1999). Improving returns on stock investment through neural
network selection. Expert Systems With Applications, v.17, p.295-301.
SCHYNS, P.G. (1990). Expertise acquisition through concepts refinement in a self-organizing
architecture. In: INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, Washington, EUA.
Annals. Washington, v.I, p.236-239.
SETIONO, R.; THONG, J.Y.L.; YAP, C.S. (1998). Symbolic rule extraction form neural networks
– an application to identifying organizations adopting IT. Information & Management, v.34, p.91-
101.
SHARDA, R.; WANG, J. (1996). Neural networks and operations research/management science.
European Journal of Operational Research, v.93, p.227-229.
SHMUELI, D.; SALOMON, I.; SHEFER, D. (1996). Neural network analysis of travel behavior:
evaluating tools for prediction. Transportation Research, v.4, n.3, p.151-166.
SILVA, L.C.; CARVALHO FILHO, E.C.B. (1995). Métodos de rotulagem para as redes de
Kohonen. In: II SIMPÓSIO BRASILEIRO DE REDES NEURAIS, São Carlos, 1995. Anais. São Carlos,
v.1, p.199-204.
121
ST. JOHN, C.H.; BALAKRISHNAN, N.; FIET, J.O. (2000). Modeling the relationship between
corporate strategy and wealth creation using neural networks. Computers & Operations Research,
v.27, p.1077-1092.
SUNG, A.H. (1998). Ranking importance of input parameters of neural networks. Expert Systems
With Applications, v.15, p.405-411.
TAURITZ, D.R.; HEINS, L.G. (1995). Adaptive Resonance Theory (ART): an introduction. Leiden,
Department of Computer Sciences/Leiden University (Technical Report), 1995.
WALCZAK, S. (2001). Neural networks as a too, for developing and validating business heuristics.
Expert Systems With Applications, v.21, p.31-36.
WANG, S. (1996). Nonparametric econometric modeling: a neural network approach. European
Journal of Operational Research, v.89, p.581-592.
WANG, S. (1997). Neural networks in generalizing expert knowledge. Computers and Industrial
Engineering, v.32, n.1, p.67-76.
WANG, S. (1998). An insight into the standard back-propagation neural network model for
regression analysis. Omega-The International Journal of Management Science, v.26, n.1, p.133-
140.
WANG, S. (1999). Nonlinear regression: a hybrid model. Computers & Operations Research, v.26,
p.799-817.
122
WEI, Y. (2000). Recurrent neural networks for computing weighted Moore-Penrose inverse.
Applied Mathematics and Computation, v.116, p.279-287.
WONG, B.K.; BODNOVICH, T.A.; SELVI, Y. (1997). Neural network applications in business: a
review and analysis of the literature (1988-95). Decision Support Systems, v.19, p.301-320.
YAHIA, M. E. et al. (2000). Rough neural expert systems. Expert Systems With Applications, v.18,
p.87-99.
YAO, J.; LI, Y.; TAN, C.L. (2000). Option price forecasting using neural networks. Omega-The
International Journal of Management Science, v.28, p.455-466.
ZENGQI, S.; ZHIDONG, D. (1996). A fuzzy neural network and its application to controls.
Artificial Intelligence in Engineering, v.10, p.311-315.
ZHANG, G. et al. (1999). Artificial neural networks in bankruptcy prediction: general framework
and cross-validation analysis. European Journal of Operational Research, v.116, p.16-32.
ZHANG, G.; HU, M.Y. (1998). Neural network forecasting of the British Pound/US Dollar
exchange rate. Omega-The International Journal of Management Science, v.26, n.4, p.495-506.
ZOPOUDINIS, C.; DOUMPOS, M.; MATSATSINIS, N.F. On the use of knowledge-based
decision support systems in financial management: a survey. Decision Support Systems, v.20,
p.259-277.
123
APÊNDICE A
Funções de Ativação
Estão a seguir apresentadas algumas funções de ativação utilizadas no treinamento de redes
neurais artificiais. Para cada tipo de função há uma correspondência com o comportamento da base
de dados utilizada ou com o tipo de problema a ser aprendido pela rede neural, portanto a escolha
da função de ativação depende em boa medida da experiência prática do operador em manipular os
diversos modelos de redes neurais existentes, bem como do seu conhecimento das aplicações bem-
sucedidas de cada arquitetura. Constam também, juntamente com as expressões matemáticas das
funções, seus respectivos gráficos que mostram o comportamento das mesmas.
Função Degrau:
≤>
=LimitevLimitev
v,0,1
)(ϕ
Função Linear:
vkv .)( =ϕ
Função Logística Sigmoidal ou Sigmóide:
v
ϕ
v
ϕ
125
APÊNDICE B
Países Estudados Por Continente
África:
África do Sul Eritréia Mauritânia Seychelles Angola Etiópia Moçambique Suazilândia Argélia Gabão Namíbia Sudão Botswana Gâmbia Niger Tanzânia Burkina Faso Gana Nigéria Tchad Burundi Guiné Equatorial Quênia Togo Cabo Verde Guiné-Bissau Rep. Congo Tunísia Camarões Lesoto Rep. Dem. Congo Uganda Comoros Madagascar República Centro-Africana Zâmbia Costa do Marfim Malawi Rwanda Zimbabwe Djibouti Mali Senegal Egito Marrocos Serra Leoa
América Central:
Belize Dominica Haiti República Dominicana Costa Rica El Salvador Honduras Trinidad e Tobago Cuba Guatemala Jamaica
América do Norte
Canadá Estados Unidos México
América do Sul:
126
Argentina Chile Guiana Uruguai Bolívia Colômbia Paraguai VenezuelaBrasil Equador Peru
Ásia:
Arábia Saudita Filipinas Jordânia Nepal Azerbaijão Geórgia Kirjistão Paquistão Bahrein Hong Kong Kuwait Rep. Coréia Bangladesh Iêmen Laos Singapura Benin Índia Líbano Síria Butão Indonésia Malásia Sri Lanka Camboja Irã Maldivas Tailândia China Israel Mianmar UsbequistãoCasaquistão Japão Mongólia Vietnã
Europa:
Albânia Eslovênia Islândia Portugal Alemanha Espanha Itália Reino Unido Armênia Estônia Letônia República TchecaÁustria Finlândia Lituânia Romênia Bélgica França Macedônia Rússia Bielo-Rússia Grécia Malta Suécia Bulgária Holanda Moldova Suíça Dinamarca Hungria Noruega Turquia Eslováquia Irlanda Polônia Ucrânia
Oceania:
Austrália Ilhas Maurícios Papua Nova Guiné Tonga Fiji Ilhas Salomão Samoa Vanuatu Ilhas Virgens Nova Zelândia São Tomé e Príncipe
Top Related