LÉO PIRES DE SOUZA
AVALIAÇÃO DE CONFIABILIDADE ESTRUTURAL COM MONTE CARLO E
REDES NEURAIS EM UM AMBIENTE DE SOFTWARE INTEGRADO.
Dissertação submetida ao programa de Pós-Graduação em Engenharia Civil da UniversidadeFederal Fluminense, como requisito parcial paraobtenção do Grau de Mestre. Área deConcentração: Tecnologia da Construção.
Orientador: JOSÉ MURILO FERRAZ SARAIVA, D.Sc.
NiteróiDezembro 2005
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
Ficha Catalográfica elaborada pela Biblioteca da Escola de Engenharia e Instituto de Computação da UFF
S729 Souza, Léo Pires de. Avaliação de confiabilidade estrutural com Monte Carlo e redesneurais em um ambiente de software integrado / Léo Pires deSouza. – Niterói, RJ : [s.n.], 2005.
248 f.
Orientador: José Murilo Ferraz Saraiva .Dissertação (Mestrado em Engenharia Civil) - Universidade
Federal Fluminense, 2005.
1. Análise estrutural (Engenharia). 2. Estruturas - Patologia. 3.Método Monte Carlo. 4. Confiabilidade (Engenharia). 5. Redesneurais. I. Título.
CDD 624.171
LÉO PIRES DE SOUZA
AVALIAÇÃO DE CONFIABILIDADE ESTRUTURAL COM MONTE CARLO E
REDES NEURAIS EM UM AMBIENTE DE SOFTWARE INTEGRADO.
Dissertação submetida ao curso de Pós-Graduaçãoem Engenharia Civil da Universidade FederalFluminense, como requisito parcial para obtençãodo Grau de Mestre. Área de Concentração:Tecnologia da Construção.
Aprovada em 12 de dezembro de 2005
BANCA EXAMINADORA
___________________________________________________________________________
José Murilo Ferraz Saraiva, D.Sc. – OrientadorUNIVERSIDADE FEDERAL FLUMINENSE
___________________________________________________________________________
Plácido Barbosa, M.Sc.UNIVERSIDADE FEDERAL FLUMINENSE
___________________________________________________________________________
Nelson Francisco Fávilla Ebecken, D.ScUNIVERSIDADE FEDERAL DO RIO DE JANEIRO
NiteróiDezembro 2005
Não importa o tamanho da queda, sefores persistente, chegarás ao topo,ileso, novamente.
Léo Pires de Souza
Dedico esta dissertação à vida e atodos os que me ajudaram a chegar atéaqui.
AGRADECIMENTOS
Agradeço àqueles que me ajudaram a chegar até aqui. Não é possível citar todos, mastenho absoluta certeza de que os que participaram desta conquista, saberão que estão aquilembrados.
Agradeço em especial aos meus pais, Álvaro e Lêda, e à minha irmã Lia, pelaformação do meu caráter e à Silvana, minha esposa, pela companhia em todos os momentosdifíceis desta caminhada.
Agradeço aos professores do curso de mestrado pelas informações disponibilizadas e
em especial aos professores Murilo e Plácido, pelo total apoio e incentivo que deram à
realização deste trabalho.
Agradeço à Pedro, Iporan e Kátia. Três grandes pessoas que conheci durante o curso ecom as quais dividi os melhores e os piores momentos desta trajetória e sem os quais não teriaconseguido.
Finalmente, agradeço àqueles que estiveram ao meu lado durante este difícil início deano e que me ajudaram a estar vivo, para pode lhes agradecer do fundo do meu coração: Deusos abençoe.
SUMÁRIO
1 INTRODUÇÃO................................................................................................................21
2 CONFIABILIDADE ESTRUTURAL............................................................................262.1 DEFINIÇÃO DO ÍNDICE DE CONFIABILIDADE.................................................292.2 TRANSFORMAÇÕES ISOPROBABILISTICAS.....................................................32
2.2.1 Redução de variáveis ..........................................................................................332.2.2 Normais equivalentes .........................................................................................332.2.3 Variáveis aleatórias correlacionadas ................................................................34
2.3 MÉTODOS DE OBTENÇÃO DA CONFIABILIDADE DE UMA ESTRUTURA..36
3 MÉTODO MONTE CARLO..........................................................................................383.1 HISTÓRICO................................................................................................................403.2 MÉTODO MONTE CARLO TRADICIONAL..........................................................433.3 GERAÇÃO DE NÚMEROS PSEUDO-ALEATÓRIOS............................................443.4 TESTES DE ADERÊNCIA ........................................................................................48
3.4.1 Teste chi-quadrado.............................................................................................483.4.2 Teste de Kolmogorov-Smirnov..........................................................................49
3.5 A FUNÇÃO INVERSA ..............................................................................................543.6 O MÉTODO MONTE CARLO E A CONFIABILIDADE ESTRUTURAL.............60
4 REDES NEURAIS ...........................................................................................................644.1 AS REDES NEURAIS ARTIFICIAIS .......................................................................664.2 O NEURÔNIO ARTIFICIAL.....................................................................................684.3 FUNÇÕES DE ATIVAÇÃO ......................................................................................71
4.3.1 Função degrau unitário (binary-threshold) .....................................................724.3.2 Função linear ......................................................................................................734.3.3 Função Sigmóide.................................................................................................744.3.4 Função Gaussiana...............................................................................................76
4.4 SINAPSES ARTIFICIAIS ..........................................................................................774.5 CONJUNTO DE TREINAMENTO............................................................................78
4.5.1 Seleção dos valores de entrada e saída .............................................................804.5.2 Apresentação do conjunto de treinamento.......................................................804.5.3 Quantidade de amostras do conjunto de treinamento ....................................82
4.6 CLASSIFICAÇÃO DAS REDES NEURAIS ............................................................824.6.1 Redes monocamada ............................................................................................834.6.2 Redes multicamadas...........................................................................................834.6.3 Redes não recorrentes ........................................................................................844.6.4 Redes recorrentes ...............................................................................................844.6.5 Algoritmos de aprendizado................................................................................844.6.6 Conectividade......................................................................................................854.6.7 Combinação das diversas características das Redes Neurais.........................85
4.7 PERCEPTRON ...........................................................................................................854.8 PERCEPTRONS MULTICAMADAS .......................................................................884.9 O ALGORITMO BACKPROPAGATION.................................................................90
4.9.1 A regra delta .......................................................................................................904.9.2 A regra delta generalizada.................................................................................944.9.3 A função sigmóide e o Backpropagation ..........................................................954.9.4 Implementação....................................................................................................96
4.10 EXTRAÇÃO DE REGRAS........................................................................................964.11 IMPORTÂNCIA RELATIVA DAS VARIÁVEIS DE ENTRADA ..........................994.12 UTILIZAÇÃO DAS REDES NEURAIS..................................................................102
4.12.1 Detecção de danos em estruturas de pontes ...................................................1024.12.2 Análise de vigas de concreto reforçadas com fibra de carbono ...................1034.12.3 Outros trabalhos...............................................................................................105
5 O ALGORITMO MCRN INTEGRADO.....................................................................1075.1 AMBIENTE DE DESENVOLVIMENTO ...............................................................1105.2 ESTRUTURA GERAL DO PROJETO ....................................................................1105.3 ESTRUTURA GLOBAL DE NAVEGAÇÃO .........................................................1125.4 MÓDULO MONTE CARLO ...................................................................................112
5.4.1 Simulação estatística ........................................................................................1175.5 MÓDULO ANÁLISE ESTRUTURAL ....................................................................122
5.5.1 Cálculo da Viga.................................................................................................1285.6 MÓDULO MANUTENÇÃO....................................................................................1305.7 MÓDULO REDE NEURAL.....................................................................................1335.8 MÓDULO CONFIABILIDADE...............................................................................1385.9 MODULARIZAÇÃO E FUTURAS IMPLEMENTAÇÕES ...................................142
5.9.1 Classe projeto....................................................................................................1425.9.2 Classe Distribuição ...........................................................................................1425.9.3 Lista de variáveis disponíveis ..........................................................................1435.9.4 Definindo o módulo intermediário utilizado..................................................1455.9.5 Conjunto de saída da Rede Neural .................................................................146
5.10 INSTALAÇÃO ..............................................................................................................146
6 ESTUDOS DE CASO ....................................................................................................1476.1 FLECHAS EM VIGAS.............................................................................................147
6.1.1 Cálculo de flechas segundo a NBR 6118.........................................................1476.1.2 Comportamento estatístico da variável aleatória Flecha..............................1536.1.3 Avaliação da confiabilidade da viga ...............................................................1566.1.4 Patologia e recuperação de estruturas............................................................163
6.2 PLANOS DE MANUTENÇÃO EM ESTRUTURAS DE CONCRETO ARMADO168
6.3 CONCLUSÕES.........................................................................................................178
7 CONCLUSÕES..............................................................................................................1807.1 SUGESTÕES PARA FUTURAS PESQUISAS.......................................................181
8 OBRAS CITADAS.........................................................................................................183
9 OBRAS CONSULTADAS.............................................................................................187
10 APÊNDICES ...............................................................................................................19210.1 IMPLEMENTAÇÃO COMPLETA DO MÉTODO MONTE CARLOTRADICIONAL..................................................................................................................19310.2 PROBABILIDADE DE FALHA – VARIÁVEIS CORRELACIONADAS ............20310.3 O ALGORITMO BACKPROPAGATION...............................................................20610.4 UTILIZAÇÃO DO SOFTWARE INTEGRADO MCRN ........................................211
10.4.1 Barra de navegação principal..........................................................................21110.5 MÓDULO MONTE CARLO ...................................................................................21410.6 MÓDULO ANÁLISE ESTRUTURAL ....................................................................22410.7 MÓDULO REDE NEURAL.....................................................................................23010.8 MÓDULO CONFIABILIDADE...............................................................................23510.9 MÓDULO DE MANUTENÇÃO..............................................................................238
11 ANEXOS .....................................................................................................................24111.1 RELACIONAMENTO NORMAL EQUIVALENTE – DER KIUREGHIAN ........24211.2 VARIÁVEIS ALEATÓRIAS NA ENGENHARIA .................................................24511.3 PROBABILIDADE DE FALHA DE UM ELEMENTO DE TRELIÇA .................246
LISTA DE FIGURAS
Figura 2.1 - Espaço das variáveis X1 e X2 ..............................................................................29
Figura 2.2 – Índice de confiabilidade de Cornell. ....................................................................30
Figura 2.3– índice de confiabilidade Hasofer and Lind ...........................................................32
Figura 3.1 – Área S a ser determinada pelo método de Monte Carlo tradicional. ...................41
Figura 3.2 - O teorema da transformação integral Fonte: SARAIVA, 1997, p. 26..................44
Figura 4.1 – Exemplo de um dos vários tipos de neurônios encontrados nos mamíferos........65
Figura 4.2 – Rede neural multicamada.....................................................................................67
Figura 4.3 – Modelo de um neurônio artificial.........................................................................70
Figura 4.4 – Região intersináptica de uma rede neural artificial..............................................77
Figura 4.5 – Representação geométrica do AND, OR e XOR. ................................................88
Figura 4.6 – Versão tridimensional do problema XOR............................................................89
Figura 4.7 – Estrutura estudada por PANDEY.......................................................................103
Figura 4.8 – Modelo de viga utilizada por IAN. ....................................................................104
Figura 5.1 – Estrutura global do software. .............................................................................111
Figura 5.2 – Detalhe simplificado da navegação do sistema..................................................112
Figura 5.3 – Diagrama de classes do módulo de Simulação Monte Carlo.............................113
Figura 5.4 – Fluxograma de entrada de dados – Módulo Monte Carlo..................................114
Figura 5.5 – Fluxograma de processamento – módulo Monte Carlo .....................................115
Figura 5.6 – Diagrama de classe do módulo estrutural (viga)................................................122
Figura 5.7 – Fluxograma de entrada de dados – Módulo Vigas.............................................123
Figura 5.8 – Fluxograma de processamento – Módulo Vigas................................................124
Figura 5.9 – Membro de viga prismática................................................................................128
Figura 5.10 – Matriz de rigidez de membro de viga prismática.............................................128
Figura 5.11 – Diagrama de classes do módulo de manutenção..............................................130
Figura 5.12 – Fluxograma Entrada de Dados – Módulo Manutenção. ..................................131
Figura 5.13 – Fluxograma de processo – Módulo Manutenção. ............................................132
Figura 5.14 – Diagrama de classes do módulo de redes neurais. ...........................................134
Figura 5.15 – Fluxograma entrada de dados – Módulo Rede Neural.....................................135
Figura 5.16 – Fluxograma de processamento – Módulo Rede Neural ...................................136
Figura 5.17 – Diagrama de classes do módulo de confiabilidade ..........................................139
Figura 5.18 – Fluxograma Entrada de Dados – Módulo Confiabilidade. ..............................140
Figura 5.19 – Fluxograma de processo – Módulo Confiabilidade. ........................................140
Figura 6.1 – Considerações sobre fissura do concreto tracionado. ........................................148
Figura 6.2 – Viga isostática. ...................................................................................................156
Figura 6.3 - Discretização da viga ..........................................................................................160
Figura 6.4 – Fluxograma genérico para a diagnose de uma estrutura convencional..............166
Figura 6.5 – Viga com desplacamento do concreto. ..............................................................167
Figura 6.6 – Laje proposta para avaliação da probabilidade de falha. ...................................172
Figura 6.7 – Disposição das vigotas. ......................................................................................172
Figura 6.8 – Nós da laje discretizada......................................................................................174
Figura 6.9 – Membros da laje discretizada.............................................................................174
Figura 6.10 – Região afetada pela carbonatação. ...................................................................175
Figura 10.1 – Barra de Ferramentas principal. .......................................................................212
Figura 10.2 – Tela inicial........................................................................................................213
Figura 10.3 – Tela inicial - Módulo Monte Carlo. .................................................................214
Figura 10.4 – Informações gerais - Módulo Monte Carlo......................................................216
Figura 10.5 – Funções de falha - Módulo Monte Carlo. ........................................................217
Figura 10.6 – Edição de Função de falha – Módulo Monte Carlo. ........................................218
Figura 10.7 – Características estatísticas das variáveis – Módulo Monte Carlo. ...................219
Figura 10.8 – Características estatísticas das variáveis – Módulo Monte Carlo. ...................220
Figura 10.9 – Relacionamento entre variáveis – Módulo Monte Carlo. ................................221
Figura 10.10 – Variáveis simuladas – Módulo Monte Carlo. ................................................222
Figura 10.11 – Gráfico das variáveis simuladas – Módulo Monte Carlo...............................223
Figura 10.12 – Seleção do tipo de estrutura. ..........................................................................225
Figura 10.13 – Definição de membros – Módulo Análise Estrutural.....................................226
Figura 10.14 – Carregamento nos membros – Módulo Análise Estrutural. ...........................227
Figura 10.15 – Carregamento nos membros completo – Módulo Análise Estrutural. ...........228
Figura 10.16 – Carregamento nos nós – Módulo Análise Estrutural. ....................................229
Figura 10.17 – Solução da viga – Módulo Análise Estrutural. ..............................................230
Figura 10.18 – Parâmetros do backpropagation – Módulo Rede Neural. ..............................232
Figura 10.19 – Conjunto de entrada – Módulo Rede Neural. ................................................233
Figura 10.20 – Conjunto de saída – Módulo Rede Neural. ....................................................234
Figura 10.21 – Saída do teste da rede – Módulo Rede Neural. ..............................................235
Figura 10.22 – Parâmetro para definição da confiabilidade da estrutura – MóduloConfiabilidade..................................................................................................................236
Figura 10.23 –Confiabilidade da estrutura. ............................................................................237
Figura 10.24 –Tela inicial – Módulo Manutenção. ................................................................239
Figura 10.25 – Final da execução – Módulo Manutenção. ....................................................240
Figura 11.1 – Treliça isostática analisada por SARAIVA, 1997, p. 87..................................246
LISTA DE TABELAS
Tabela 3.1 – Resultados da Simulação .....................................................................................42
Tabela 3.2 – Distribuição Kolmogorov-Smirnov.....................................................................51
Tabela 3.3 – Vetores pseudo-aleatórios com distribuição normais ..........................................59
Tabela 3.4 - Vetores pseudo-aleatórios com distribuição exponencial ....................................59
Tabela 3.5 - Resultados simulação Monte Carlo tradicional....................................................62
Tabela 4.1 – determinação da importância de cada variável de entrada. ...............................100
Tabela 5.1 – Métodos para simulação de variáveis aleatórias................................................118
Tabela 5.2 – Obtenção dos parâmetros das distribuições.......................................................118
Tabela 5.3 – Funções de probabilidade acumulada................................................................120
Tabela 6.1 – Testes de aderência para a variável aleatória Flecha. ........................................154
Tabela 6.2 – Dados da viga. ...................................................................................................157
Tabela 6.3 – Dados da viga. ...................................................................................................157
Tabela 6.4 – Variáveis aleatórias............................................................................................159
Tabela 6.5 – Parâmetros da rede neural..................................................................................160
Tabela 6.6 – 40 primeiros valores do conjunto de treinamento..............................................161
Tabela 6.7 – Resultado do teste da rede neural treinada. .......................................................162
Tabela 6.8 – Resultado do teste da rede neural treinada. .......................................................164
Tabela 6.9 – Variáveis aleatórias............................................................................................167
Tabela 6.10 – Confiabilidade da viga danificada. ..................................................................167
Tabela 6.11 – Variáveis aleatórias..........................................................................................173
Tabela 6.12 – Variáveis aleatórias..........................................................................................175
Tabela 6.13 – parâmetros da rede neural................................................................................176
Tabela 6.14 – Resultado do teste da rede neural treinada. .....................................................177
Tabela 6.15 – Confiabilidade da laje carbonatada..................................................................178
Tabela 10.1 – Resultados da simulação..................................................................................205
Tabela 10.2 – Descrição dos ícones da barra de navegação principal....................................212
Tabela 11.1 – Distribuições marginais ...................................................................................242
Tabela 11.2 – iX com distribuição normal e jX pertencente ao grupo 1. ...........................243
Tabela 11.3 – iX com distribuição normal e jX pertencente ao grupo 1. ...........................243
Tabela 11.4 – iX e jX pertencente ao grupo 1 e ( )ijFF ρ= ................................................243
Tabela 11.5 – iX pertence ao grupo 1, jX pertencente ao grupo 2 e ( )jijFF δρ ,= ............244
Tabela 11.6 – iX e jX pertencente ao grupo 2 e ( )iiijFF δδρ ,,= .......................................244
Tabela 11.7 – Características estatísticas das variáveis aleatórias mais utilizadas naengenharia. .......................................................................................................................245
Tabela 11.8 – Características das variáveis. SARAIVA, 1997, p. 88. ...................................246
Tabela 11.9 – Resultado comparativo. SARAIVA, 1997, p. 94.............................................247
LISTA DE ROTINAS
Rotina 3.1 – Rotina de exemplo de simulação com Monte Carlo Tradicional.........................42
Rotina 3.2 – Gerador de números pseudo-aleatórios RAN1 ....................................................47
Rotina 3.3 – Geração da distribuição de densidade empírica...................................................51
Rotina 3.4 – Determinação do valor da distribuição de Kolmogorov-Smirnov.......................52
Rotina 3.5 – Teste aderência de um vetor com distribuição normal ........................................52
Rotina 3.6 – Teste de aderência da distribuição normal N(40,5) .............................................53
Rotina 3.7 – Método de Box-Muller ........................................................................................55
Rotina 3.8 – Método de Newton-Raphson para obtenção do valor da função inversa normal.58
Rotina 3.9 - Método de Newton-Raphson para obtenção do valor da função inversaexponencial. .......................................................................................................................58
Rotina 3.10 – Avaliação da função de falha.............................................................................61
Rotina 3.11 – Monte Carlo tradicional .....................................................................................61
Rotina 5.1 – Integração – Quadratura de Gauss. ....................................................................120
Rotina 5.2 – Implementação de Cholesky. .............................................................................121
Rotina 5.3 – Lista de variáveis simuladas pelo módulo Monte Carlo....................................144
Rotina 5.4 – Chamado formListaVariaveis para mostrar as variáveis simuladas por MonteCarlo.................................................................................................................................145
LISTA DE GRÁFICOS
Gráfico 3.1– Aderência da distribuição gerada ........................................................................53
Gráfico 4.1 – Representação gráfica da função degrau unitário...............................................72
Gráfico 4.2 – Comportamento de função linear variando-se os valores de a...........................73
Gráfico 4.3 - Comportamento de função sigmóide variando-se os valores de �.....................75
Gráfico 4.4 – Comportamento gráfico da função gaussiana. ...................................................76
Gráfico 6.1 –aderência lognormal - viga 1 - 500....................................................................155
Gráfico 6.2 –aderência lognormal - viga 1 - 1000..................................................................155
Gráfico 6.3 –aderência lognormal - viga 1 - 2000..................................................................155
Gráfico 6.4 –aderência lognormal - viga 1 - 5000..................................................................155
Gráfico 6.5 –aderência lognormal - viga 2 - 500....................................................................155
Gráfico 6.6 –aderência lognormal - viga 2 - 1000..................................................................155
Gráfico 6.7 –aderência lognormal - viga 2 - 2000..................................................................156
Gráfico 6.8 –aderência lognormal - viga 2 - 5000..................................................................156
LISTA DE ABREVIATURAS SIGLAS E SÍMBOLOS
( )xG Função que representa a superfície limite de falha da estrutura.
X Vetor das variáveis aleatórias no espaço físico.
fp Probabilidade de falha da estrutura.
A Evento aleatório.
( )xf , (.)φ Função de densidade de probabilidade.
( )xF , (.)Φ Função de distribuição acumulada.
)( ixh Distribuição de probabilidade conjunta.
( )xE Esperança matemática da variável X.
( )xV Variância da variável X.
M Margem de segurança de CORNELL.
β Índice de confiabilidade.
X Variável aleatória no seu espaço original.
Z Variável aleatória no espaço normal, reduzido e estatisticamenteindependente.
*Z Ponto de projeto – Menor distância da superfície de falha à origem.
( )yxf , Função de densidade conjunta das variáveis aleatória X e Y.
( )Xf x Função de probabilidade marginal da variável aleatória X.
µ Média da amostra.
σ Desvio padrão da amostra.
ρ Coeficiente de correlação entre duas variáveis aleatórias.
Nρ Matriz dos coeficientes de correlação normalizados.
Γ Matriz triangular inferior, obtida da transformação de cholesky.
Z Vetor das variáveis independentes.
N Número de simulações.
S Área de uma figura plana.
( )AP Probabilidade de ocorrer o evento A.
( )UF 1− Inversa da função de distribuição acumulada da variável aleatória U.
20X Estatística do teste chi-quadrado.
ksα Nível de significância adotado para um teste de hipótese.
oH Hipótese inicial.
( )XFe Função de distribuição acumulada empírica.
D Maior diferença entre a distribuição acumulada e a distribuição acumuladaempírica de X.
αD Valor tabelado para a estatística da Kolmogorov-Smirnov.
( )σµ ,N Distribuição de probabilidade normal com média µ e desvio padrão σ .
δ Número limite de interações do método de Newton Raphson.
VR Vetor com valores aleatórios referentes à resistência da estrutura.
VS Vetor com valores aleatórios referentes ao esforço aplicado à estrutura.
k Neurônio artificial.
W Matriz de pesos sinápticos.
θ Valor do limiar de disparo do neurônio artificial.
o Sinal de saída de um neurônio artificial.
( ).ϕ , ( ).g Função de ativação de um neurônio artificial.
E Erro quadrático médio do algoritmo backpropagation.
kv Somatório dos sinais de estimulação recebidos pelo neurônio k.
η Taxa de aprendizagem da rede neural.
α Constante de momento da regra delta generalizada.
RNA Rede neural artificial.
RV Redução de variância.
MCRN Algoritmo Monte Carlo com Rede Neural.
FDP Função de densidade de probabilidade.
FPA Função de distribuição acumulada.
BPN Algoritmo Backpropagation.
RESUMO
A utilização dos conceitos de confiabilidade vem crescendo no mundo inteiro nas trêsúltimas décadas. Sua utilização tem ganhado força, principalmente, na elaboração de planosde manutenção preventiva em ambientes industriais. Na engenharia civil, diversos trabalhostêm sido divulgados demonstrando o enorme ganho que o engenheiro tem ao utilizar osconceitos de confiabilidade na identificação de problemas estruturais. Em 1997 José MuriloFerraz Saraiva, demonstrou que a utilização das redes neurais em conjunto com o métodoMonte Carlo, de simulação estatística, e um ambiente intermediário de análise estruturalfornece uma ferramenta poderosa, precisa e eficaz na determinação da confiabilidade deestruturas de concreto armado. Este método foi denominado de algoritmo MCRN. O objetivodesta dissertação é dar continuidade a este trabalho criando um ambiente integrado desoftware com o algoritmo, de forma a demonstrar que, além de agregar todas as suascaracterísticas já comprovadas, este ambiente pode trazer um ganho de produtividade enormeno trabalho de avaliação da confiabilidade de estruturas de concreto armado, auxiliando naelaboração de planos de manutenção destas estruturas.
ABSTRACT
The utilization of reliability concepts has strongly grown all over the world in the lastthree decades. The implementation of industrial plants maintenance plans has being the mainfocus. On civil engineer the publishing of a great amount of researches has being shown thebenefits achieved by engineers who dedicates to the utilization of reliability concepts. By theyear of 1997, José Murilo Ferraz Saraiva demonstrated that neural networks, working togetherwith Monte Carlo simulation and a structural analysis software, could bring up a powerfultool to the analysis of reinforce concrete structures reliability. He called this method theMCRN algorithm. Based on José Murilo Ferraz Saraiva works, this dissertation implementsthe MCRN algorithm in an integrated software environment and claim to demonstrate that,besides the known advantages of the algorithm, an integrated software environment can easythe work to achieve the structure reliability and to implement structural maintenance plans.
1 INTRODUÇÃO
A preocupação com o estudo e o desenvolvimento de técnicas para análise da
confiabilidade de estruturas aplicadas a Engenharia vem crescendo desde o começo da década
de setenta, mostrando que há um razoável interesse mundial nessa área. MADSEN, 1986,
analisa o histórico deste desenvolvimento e o divide em três fases distintas: O primeiro
período, compreendido entre os anos de 1920 e 1960; o segundo período, compreendido entre
os anos 1967 e 1974 e o terceiro período que vai até o ano de 1984.
O primeiro período, 1920-1960, foi caracterizado por estudos isolados e baseados
principalmente em uma análise determinística com a utilização de coeficientes de segurança.
Segundo MADSEN, estes coeficientes estavam sempre atrelados a fatores econômicos e eram
estabelecidos por meios de julgamentos de engenharia e não refletiam, necessariamente, as
necessidades dos processos da época.
O Segundo período, 1967-1974, caracterizou-se pelo crescimento do interesse
acadêmico na confiabilidade estrutural e pela aceitação da utilização de métodos estatísticos
na engenharia estrutural. Destaca-se neste período CORNELL1 apud MADSEN p. 4, com a
sugestão do método dos momentos.
A terceira fase, sugerida por MADSEN, foi marcada principalmente pelos estudos de
HASOFER e LIND2 apud SARAIVA, 1997, p. 16, at al, que permitiram a elaboração de
técnicas baseadas em superfícies de resposta como os métodos FORM E SORM.
1 CORNELL, C. A. A Probability-Based Structural Code. Journal of the American Concrete Institute.Vol. 66, No. 12, 1969, pp. 974-985.2 HASOFER, A.M. and N.C. LIND. – Exact and Invariant Second Moment Code Format. Journal of theEngineering Mechanics Division, ASCE, Vol. 100, 1974, pp. 111-121.
22
A partir de então, o desenvolvimento do estudo da confiabilidade e segurança
estrutural levou à criação de poderosas ferramentas computacionais que, segundo SARAIVA,
1997, p.3, possibilitaram o cálculo de probabilidades de falha com precisão razoável e custo
computacional mínimo.
Muitos destes métodos mostraram-se problemáticos nos casos em que o estudo
considerava estruturas muito complexas com várias variáveis envolvidas na análise. A
pesquisa do ponto de projeto, necessário à elaboração do índice de confiabilidade da estrutura,
não convergia para um resultado satisfatório devido à complexa geometria das superfícies de
falha. Foi então que os métodos de simulação estatística, como o Método Monte Carlo,
ganharam força na avaliação da confiabilidade das estruturas. Diversas pesquisas levaram à
formulações de técnicas de simulação estatística de variáveis e deram um novo impulso ao
estudo da confiabilidade estrutural.
Os métodos de simulação exigem um esforço computacional grande para estruturas
complexas, além do fato de ser complicado o estabelecimento de uma equação que traduza de
forma coerente o estado de falha da estrutura. Outro problema que surge é a necessidade de
utilização de softwares de análise estrutural para cada conjunto de valores simulados. Estes
fatos, segundo PAPADRAKAKIS, 1996, p.146, foram decisivos para os poucos casos de
investigação de probabilidade de falha em grandes estruturas.
A partir do ano de 1996 dois trabalhos abriram um novo rumo na evolução das
técnicas de investigação do índice de confiabilidade de estruturas. No Brasil, SARAIVA e na
Grécia, PAPADRAKAKIS, propuseram a utilização de Redes Neurais no processo tirando
proveito dos algoritmos otimizados das Redes Neurais para a determinação das equações de
falha das estruturas, aumentando a eficiência e a confiabilidade do processo. Estes algoritmos
foram denominados de MCRN (Monte Carlo com Redes Neurais). O processo pode ser de
maneira simples, descrito da seguinte forma:
• Determinação das variáveis envolvidas no processo;
• Determinação dos parâmetros estatísticos de cada variável;
• Simulação das variáveis utilizando-se Monte Carlo;
• Para cada conjunto de variáveis simuladas, avaliar o comportamento da estrutura
com a utilização de um software de análise estrutural;
23
• Alimentar o software de Redes Neurais com cada conjunto de entradas (valores
simulados) e saídas (resultado da análise estrutural) de forma a se treinar a rede e
obter a equação de falha correspondente;
• De posse da equação de falha, simular novos valores das variáveis de entrada e
testar a equação para obtenção do número de falhas (resultados menores ou iguais
à zero) e consequente determinação do índice de confiabilidade da estrutura.
Fica claro pela descrição anterior, que o processo ainda é bastante custoso além de
exigir que o Engenheiro trabalhe em três ambientes de software distintos: simulação Monte
Carlo; análise de estruturas e Redes Neurais. A transferência de informações entre cada
ambiente é bastante demorada devido ao seu volume, cerca de 50 a 100 simulações de cada
variável, o que continua sendo um ponto desestimulante para que a avaliação de
confiabilidade de estruturas torne-se uma constante na Engenharia Civil.
Esta dissertação objetiva demonstrar que o desenvolvimento de um software que
integre de maneira automática os três ambientes computacionais citados anteriormente,
reduzirá drasticamente o esforço necessário para análise da confiabilidade de estruturas. O
aplicativo será desenvolvido introduzindo um módulo básico de simulação Monte Carlo, um
módulo básico de análise estrutural e um módulo básico de Redes Neurais utilizando o
algoritmo Backpropagation. Uma vez desenvolvido o software, serão definidos alguns estudos
de casos a serem avaliados pela nova plataforma e comparados com estudos anteriores. A
metodologia utilizada na pesquisa segue os seguintes passos:
• Pesquisa bibliográfica para entendimento das técnicas de obtenção do índice de
confiabilidade de um sistema ou elemento de um sistema;
• Pesquisa bibliográfica para definição dos métodos de geração de variáveis pseudo-
aleatórias das distribuições estatísticas utilizadas na análise de confiabilidade de
estruturas, para o desenvolvimento do módulo de simulação Monte Carlo;
• Pesquisa bibliográfica para definição do módulo de análise estrutural a ser
desenvolvido;
• Pesquisa bibliográfica a respeito do algoritmo Backpropagation para o
desenvolvimento do módulo de Rede Neural;
24
• Desenvolvimento dos três módulos citados anteriormente em um ambiente de
software integrado;
• Reprodução de estudos de confiabilidade de estruturas publicados para
determinação do grau de confiabilidade do produto desenvolvido;
• Conclusões e criticas a respeito do modelo proposto:
• Direcionamento para o aprofundamento de estudos futuros dentro da linha de
pesquisa utilizada.
Espera-se demonstrar o enorme ganho que o processo de análise de estruturas terá
caso os softwares de mercado venham a incorporar, de uma forma integrada, módulos de
avaliação de confiabilidade utilizando-se de técnicas de simulação e algoritmos neurais. O
caminho crítico para elaboração do projeto está no tempo exigido para definição,
desenvolvimento e estabilização de um software como o proposto. Para diminuir este risco,
optou-se pela utilização de algoritmos básicos, deixando o aprofundamento em cada
algoritmo para uma futura tese de doutorado. Baseado na metodologia proposta este trabalho
foi estruturado da seguinte forma
• CAPÍTULO 2 – Apresentação dos fundamentos teóricos da confiabilidade
estrutural.
• CAPÍTULO 3 – Discussão do embasamento teórico do método Monte Carlo para
simulação estatística de variáveis aleatórias. São apresentados vários algoritmos,
desenvolvidos em Mathcad, elaborados durante a fase de pesquisa, que foram a
base para a elaboração do ambiente integrado proposto.
• CAPÍTULO 4 – Discussão do embasamento teórico das redes neurais. É
apresentada uma vasta pesquisa em torno de pontos como: a lei de aprendizado do
Perceptron; o método do gradiente descendente; redes multicamadas e conceito de
retro propagação e backpropagation; montagem dos conjuntos de treinamento;
geração das matrizes de pesos sinápticos; extração de regras; funções de ativação e
uma visão da utilização atual das redes neurais nas pesquisa em engenharia civil.
• CAPÍTULO 5 – Detalhamento do desenvolvimento e das funcionalidades do
ambiente integrado proposto.
25
• CAPÍTULO 6 – Estudo de caso.
• CAPÍTULO 7 - considerações finais e conclusões. Também são apresentadas
possíveis linhas para a continuidade da pesquisa.
2 CONFIABILIDADE ESTRUTURAL
Durante sua vida útil, uma estrutura está sujeita a carregamentos, forças e
deslocamentos que podem levá-la de um estado seguro para um estado de limite de utilização
ou estado de falha. A qualidade dos materiais empregados, a sua utilização e várias outras
quantidades aleatórias, como a ação do homem, também são fatores que afetam as condições
de uma estrutura e podem lavá-la a falhar.
Algumas destas variáveis têm um comportamento dependente do tempo, como o efeito
do vento ou das ondas em uma estrutura e seu estudo deve ser modelado segundo processos
estocásticos.
De uma forma geral, todas as técnicas de análise de confiabilidade estrutural baseiam-
se na representação de cada estado limite da estrutura através de uma função de falha,
definida como ( )xG , que engloba todas as variáveis básicas envolvidas na análise,
representadas por um vetor aleatório:
[ ]nXXXX ,..., 21=
Assim:
),...,,()( 21 nXXXGXG = ( 2.1 )
27
Dependendo da complexidade das variáveis iX a função ( )xG pode representar uma
relação linear, nos casos mais simples, ou uma relação não linear nos casos mais complexos.
De posse da função de falha e do comportamento estatístico de cada variável é possível
evoluir ( )xG , que poderá assumir as configurações mostradas na Figura 2.1.
Avaliando ( )xG em seu domínio de falha é possível estabelecer a probabilidade de
falha da estrutura como sendo:
)0)(( ≤= XGPpf ( 2.2 )
O complemento da probabilidade de falha, R = 1 - pf, é normalmente denominado de
confiabilidade da estrutura. Pode-se afirmar de forma simplificada, que uma estrutura é tanto
mais confiável, para certo estado limite, quanto menor for o valor de pf (SARAIVA, 1997, p.
7). Segundo MOHAMED3 apud SOARES, 2001, p. 17, a confiabilidade pode ser definida
como: a probabilidade de sobrevivência de um componente ou um sistema desde que
utilizado de acordo com as especificações de projeto.
No estado de falha a peça ultrapassa seu estado limite (deformações excessivas,
fissuras ou até mesmo colapso). O estado limite do componente é definido pelo engenheiro e,
normalmente, a probabilidade de falha situa-se entre 10 -3 e 10 –7.
Sendo a função de densidade de probabilidade conjunta das variáveis iX dada por:
),...,,( 21 nx xxxf
e como a equação ( 2.2 ) nos mostra que a probabilidade de falha é igual à probabilidade de
ocorrer o evento:
3 MOHAMED, A. RYFES. Theoretical Manual. Version 1.0. LaRAMA – Laboratoire de Recherches etApplications en Mécanique Avancée. Clermont Ferrant. France.
28
0≤= ⎟⎠⎞⎜
⎝⎛ XGA
então ( 2.2 ) pode ser escrita como:
∫ ≤=
0)()(
XG xf dxxfp ( 2.3 )
Se as variáveis aleatórias iX forem todas independentes e com distribuição de
probabilidade ( )ixh o problema será de fácil solução pois distribuição de probabilidades
conjunta poderá ser escrita como:
)(*...*)(*)(),...,( 2121 nn xhxhxhxxxfX =
A grande dificuldade desta abordagem está nos casos em que as variáveis iX são
dependentes, já que nem sempre se conhece a distribuição de probabilidades conjunta, e nos
casos em que o número de variáveis aleatórias é muito grande, pois cria dificuldades do ponto
de vista analítico e numérico. Infelizmente estas duas suposições abrangem a maioria dos
casos práticos. Por outro lado, as informações a respeito das variáveis aleatórias permitem o
conhecimento de suas médias e variâncias, além da covariância entre pares de variáveis,
limitando a análise a funções do primeiro e segundo momentos.
29
X1
X2
Domínio seguro G(X1, X2) > 0
Domínio de falha G(X1, X2) < 0
Superfície de falha G(X1, X2) = 0
Figura 2.1 - Espaço das variáveis X1 e X2
2.1 DEFINIÇÃO DO ÍNDICE DE CONFIABILIDADE
A definição do índice de confiabilidade foi sugerida inicialmente por CORNELL4
apud MADSEN, 1986, p. 45, baseado na teoria dos momentos em que os primeiros e
segundos momentos fornecem, respectivamente, a média ( )XE e a variância ( )XV .
Substituindo-se os parâmetros xi na função de falha pelas correspondentes variáveis
aleatórias iX obtêm-se a chamada margem de segurança M:
)( iXGM =
( )( )( )( )XGVXGE
=β
4 CORNELL, C. A. A Probability-Based Structural Code. Journal of the American Concrete Institute.Vol. 66, No. 12, 1969, pp. 974-985.
30
A interpretação geométrica deste índice mostra que ele é a distância medida do ponto
( )ME à superfície de falha.
β, V(G(X))
E(G(X))
0Domínio seguroDomínio de falha
x
Figura 2.2 – Índice de confiabilidade de Cornell.
Fonte: Madsen, 1986, p. 46
Novos estudos foram desenvolvidos, culminando com a definição do índice de
confiabilidade de HASOFER and LIND5 apud SARAIVA, 1997, p. 16, at al, que propuseram
uma transformação das variáveis originais X para um espaço formado por variáveis normais,
reduzidas e estatisticamente independentes Z . Neste contexto, a distância da superfície de
falha definida por ( ) 0.0=ZG à origem do espaço reduzido Z é, por si só, uma medida de
confiabilidade. O índice de confiabilidade β passa a ser encarado, então, como a menor destas
distâncias (Figura 2.3).
O ponto Z* é tradicionalmente conhecido como ponto de projeto (MADSEN, 1986, p.
52). Segue então:
*Z=β ( 2.4 )
A probabilidade de falha passa a ser definida como:
5 HASOFER, A.M. and N.C. LIND. – Exact and Invariant Second Moment Code Format. Journal of theEngineering Mechanics Division, ASCE, Vol. 100, 1974, pp. 111-121.
31
)( β−Φ=fp ( 2.5 )
Esta definição permitiu o desenvolvimento de diversos métodos analíticos para
determinação do índice de confiabilidade de sistemas estruturais. O primeiro destes métodos é
o FORM, que se utiliza de um conjunto de transformações que visam levar todas as variáveis
básicas para o espaço normal, reduzido e estatisticamente independente. A pesquisa do ponto
de projeto é efetuada por um algoritmo de pesquisa operacional definido por HASOFER and
LIND e aprimorado por RACKWITZ and FIESSLER6 apud CASCIATI, 1991, p. 155,
conhecido por HRLF. O algoritmo pode ser resumido por:
[ ] TkKT
k
k ZgZgZZgZg
Z )()()()(
1 **2
)1( ∇⋅−⋅⋅∇⋅∇
=+ ( 2.6 )
No ponto VK :
( )*Zg∇ Gradiente da função de falha no espaço reduzido;
( )kZg Valor da função de falha no espaço reduzido.
Como o índice de confiabilidade β, equação ( 2.4 ) é definido no espaço das variáveis
normais reduzidas e estatisticamente independentes, torna-se necessário definir uma
transformação isoprobabilística que permita ao método trabalhar com variáveis dependentes e
não normais.
6 RACKWTZ, R. and FIESSLER, B. (1968), Structural Reliability under Combined RandomSequences, Computer & Structures, 9, 489-494.
32
X1
X2
d
Superfície de falha G(X1, X2) = 0
0
Z*
Figura 2.3– índice de confiabilidade Hasofer and Lind
2.2 TRANSFORMAÇÕES ISOPROBABILISTICAS
Na prática, um problema de análise estrutural envolve variáveis aleatórias que podem
ser consideradas independentes ou não correlacionadas, cujas características estatísticas não
se alteram em presença de uma outra variável, ou variáveis aleatórias dependentes ou
correlacionadas, cujas características se alteram em presença de uma outra variável. Segundo
BUSSAB, 2004, p. 219, duas variáveis aleatórias X e Y, com densidade conjunta f(x,y) e
marginais fx(x) e fy(y), respectivamente, são independentes se:
)()(),( yfxfyxf yx ⋅=
Dependendo do tipo de problema que se está analisando algumas transformações
específicas devem ser utilizadas para transformação das variáveis aleatórias para o espaço
normal reduzido e estatisticamente independente.
33
2.2.1 Redução de variáveis
Se X é uma variável aleatória independente e com distribuição normal N(µ,σ), a
variável aleatória definida pela equação ( 2.7 ) terá distribuição normal N(0,1):
σµ−
=XZ ( 2.7 )
2.2.2 Normais equivalentes
Para variáveis independentes, com distribuição de probabilidades não normal, uma
distribuição normal equivalente à distribuição original pode ser obtida igualando-se a
probabilidade acumulada e a densidade de probabilidade da distribuição original às
respectivas probabilidades acumulada e densidade de probabilidade da distribuição normal
equivalente. Assim no ponto de falha xi* (ANG,1984, p.350):
( )**
ixNx
Nxi xF
xi
i
i =⎟⎟⎠
⎞⎜⎜⎝
⎛ −Φ
σµ
onde:
Nx
Nx ii
σµ , Média e desvio padrão da normal equivalente para Xi.
( )*ix xF
iProbabilidade acumulada original de X no ponto xi
*.
)(−Φ Probabilidade acumulada da normal padrão N(0,1).
Evoluindo a igualdade anterior, vem que:
34
( )[ ]*1*ix
Nxi
Nx xFx
iii
−Φ⋅−= σµ ( 2.8 )
Da forma análoga, igualando-se as densidades de probabilidade e evoluindo a
igualdade tem-se:
( )[ ]{ }( )*
*1
ix
ixNx xf
xF
i
i
i
−Φ=
φσ ( 2.9 )
onde:
( )*ix xf
iDensidade de probabilidade original de X no ponto xi
*
( )−φ Densidade de probabilidade da normal padrão N(0,1)
2.2.3 Variáveis aleatórias correlacionadas
Para transformar variáveis aleatórias correlacionadas em variáveis aleatórias
independentes pode-se utilizar a transformação de Rosemblatt ou a transformação de Nataf.
Segundo MOHAMED, apud SOARES, 2001, p. 49, a transformação de Rosemblatt é a
melhor solução, porém ela exige o conhecimento da lei de distribuição conjunta das variáveis
aleatórias relacionadas, o que na maioria dos casos reais nem sempre é conhecida. Já a
transformada de Nataf utiliza-se apenas das médias, dos desvios padrões e da matriz de
correlação das variáveis. A transformada de Nataf foi detalhada por KIUREGHIAN, 1986,
p.85-104.
A transformação parte do princípio que as variáveis envolvidas são todas normais.
Assim, caso a análise do problema envolva variáveis não normais, a transformação
especificada pelas equações ( 2.8 ) e ( 2.9 ) deve inicialmente ser aplicada.
O segundo passo é definir uma matriz de correlação entre as variáveis envolvidas. Para
tanto, KIUREGHIAN definiu uma série de equações que permitem ajustar esta matriz de
35
forma a expressar correlações normais equivalentes. O item 11.1 do anexo desta dissertação
contém os valores de F extraídos de KIUREGHIAN, 1986, p.90-95.
Cada relacionamento deve ser analisado independentemente de forma que :
jiN
ji F ,, ρρ ⋅= ( 2.10 )
O valor de F na equação ( 2.11 ) é obtido das equações citadas e é dependente da
distribuição das variáveis envolvidas na correlação. Para um vetor de variáveis aleatórias
X = [X1, X2, ... ,Xn]T a matriz de correlação final deve ser equivalente à:
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
=
1...............
...1
...1
21
212
121
,,
,,
,,
Nxx
Nxx
Nxx
Nxx
Nxx
Nxx
NX
nn
n
n
ρρ
ρρρρ
ρ ( 2.11 )
Definindo-se Γ como a matriz triangular inferior, obtida da transformação de Cholesky
a partir da matriz de correlação especificada em ( 2.11 ), o vetor Z das variáveis
independentes é obtido pela seguinte equação:
UZ ⋅Γ= ( 2.12 )
De forma que:
NX
T ρ=Γ⋅Γ
36
2.3 MÉTODOS DE OBTENÇÃO DA CONFIABILIDADE DE UMA ESTRUTURA
Como dito no item anteriormente, o primeiro método analítico desenvolvido para
obtenção do índice de confiabilidade de uma estrutura foi o método FORM.
O método se baseia em um algoritmo de pesquisa operacional para determinação do
ponto da superfície de falha mais próximo da origem. Baseado nas transformações definidas
no item 2.2, Transformações Isoprobabilísticas, o método FORM utiliza a seguinte relação
para redução do próximo ponto a ser avaliado para o espaço das variáveis normais reduzidas e
estatisticamente independentes:
[ ]mXZ −⋅⋅Γ= −− 11 σ ( 2.13 )
onde:
m Vetor com as médias originais das variáveis Xi.
σ Matriz diagonal com os desvios padrão das variáveis Xi.
⎥⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
=
iσ
σσ
σ
00
020001
Com o aprimoramento dos algoritmos e definições do método FORM novos métodos
foram sendo propostos, sempre visando aperfeiçoar a procura do ponto de projeto na
superfície de falha. O grande problema, comum a todos estes métodos analíticos, é que
quando a função de falha expressa uma relação complexa entre as variáveis aleatórias os
algoritmos nem sempre convergem para o valor desejado. Na busca de soluções alternativas
os métodos de simulação estatística, como o método Monte Carlo, começaram a ser utilizados
para a obtenção da probabilidade de falha.
O método Monte Carlo, que é detalhado no capítulo 3, exige um número de
simulações muito grande para convergir para o resultado esperado, o que torna sua execução
37
bastante pesada em termos computacionais. Com o avanço das tecnologias de hardware e
software e com a utilização das chamadas técnicas de redução de variância, que reduzem
drasticamente o número de simulações necessárias para se obter a probabilidade de falha da
estrutura, este problema passa a ter uma importância menor. Porém, o método Monte Carlo
ainda não minimiza um problema sério comum a todos os métodos analíticos anteriores: A
determinação da função de falha.
A tarefa de se estabelecer corretamente a equação, ou equações, que traduzam o
comportamento de estruturas complexas é uma tarefa bastante minuciosa, complexa e nem
sempre correta. Vários autores (MADSEN, 1996, CASCIATI, 1991, ANG, 1984 et al.)
descrevem metodologias que visam avaliar todas as incertezas inerentes ao processo de
avaliação do caminho crítico de uma estrutura de forma a se conhecer o problema com maior
clareza. Nenhum destes métodos, porém, leva necessariamente a uma visão exata do
comportamento da estruturas num ambiente de falha.
Na tentativa de se obter uma alternativa para este problema, SARAIVA, Brasil 1997, e
PAPADRAKAKIS, Grécia, 1996, propuseram a utilização de algoritmos neurais para a
solução deste problema. Este algoritmo denominado MCRN será detalhado ao longo desta
dissertação.
3 MÉTODO MONTE CARLO
Antes de se iniciar qualquer tipo de análise de um sistema é preciso conhecer seu
comportamento em detalhes. Esta não é uma tarefa trivial e dependendo do grau de
complexidade do mesmo pode se tornar um trabalho bastante complicado. Entretanto a
qualidade da concepção, avaliação ou customização de um sistema está diretamente ligada ao
conhecimento de como seus elementos interagem interna e externamente com o meio
ambiente.
Todo sistema é composto por diversos elementos que mantêm algum tipo de
relacionamento entre si e com o meio ambiente externo. O correto conhecimento a respeito
destes relacionamentos, permite definir em detalhes os estados aos quais o sistema está
sujeito, além de permitir definir como se dá a passagem de um estado para outro e quão
crítico é cada estado para o perfeito funcionamento do sistema.
A melhor forma de se entender um sistema é através da criação de um modelo
conceitual. Um modelo é a representação dos objetivos de um sistema de forma a se poder
prever o que acontecerá se determinadas ações forem tomadas. A modelagem de um sistema é
uma ferramenta poderosa para o correto entendimento do que realmente acontece com o
mesmo. Se um modelo não for capaz de fornecer um mínimo de entendimento do
funcionamento do sistema, ele não terá utilidade prática.
De acordo com BRATLEY, 1987, p. 2, para que um modelo seja útil é essencial que,
fornecidas as variáveis envolvidas na análise, seu comportamento e propriedades possam ser
determinados de uma forma prática: analiticamente, numericamente ou inserindo valores no
modelo e observando as respectivas respostas. Este último processo é denominado simulação.
Apesar de os processos de simulação serem ferramentas poderosas, não se deve
subestimar o custo requerido para aquisição de dados e para sua execução em um ambiente
39
computacional para se produzir resultados apurados. Assim, os métodos de simulação foram
durante muitos anos considerados como ferramentas que só deveriam ser utilizadas no caso de
falha das demais opções. Os avanços tecnológicos, tanto na linha de software, hardware como
na elaboração de algoritmos otimizados, fizeram com que os métodos de simulação passassem
a desempenhar um papel importante na análise de comportamento dos sistemas.
Os processos de simulação têm sido exaustivamente utilizados no desenvolvimento de
jogos de computadores e na confecção de mecanismos como simuladores de vôo. Na área de
engenharia, os processos de simulação aparecem com frequência na análise do
comportamento estrutural dos sistemas. Simulações de ações como carregamentos, ações de
ventos, de marés e de deslocamentos permitem uma avaliação detalhada das estruturas
submetidas a diversos tipos de solicitações.
Um dos fatores da credibilidade científica dos métodos de simulação é a capacidade de
se poder reproduzir e replicar um experimento. Por reprodução entende-se a repetição do
experimento anterior de forma a se obter exatamente a mesma saída. Por replicação entende-
se a capacidade de, baseado em um experimento anterior, permitir ao investigador alterar
determinados parâmetros do experimento para avaliar as conseqüências no sistema como um
todo.
Por outro lado, a precisão dos métodos de simulação depende diretamente da
estimação dos parâmetros estatísticos das variáveis aleatórias em questão. Um método de
simulação fornece estimativas estatísticas do comportamento do sistema e não uma avaliação
exata do seu comportamento. Desta forma, estes métodos, como qualquer método estatístico,
devem ser encarados como ferramentas de auxílio para a tomada de decisão.
O intuito deste capítulo é detalhar a concepção, o desenvolvimento e a utilização do
método de simulação Monte Carlo. Segundo SUBIA, 1991, p. 5, o método Monte Carlo é
uma técnica de simulação para a solução de um modelo, na qual se usam números pseudo-
aleatórios independentes e uniformemente distribuídos no intervalo [0,1].
40
3.1 HISTÓRICO
No ano de 1945, durante a segunda guerra mundial, um grupo de cientistas da
Universidade da Pensilvania, Filadelfia, encontrava-se na fase final do desenvolvimento do
primeiro computador eletrônico, o ENIAC. Havia um enorme interesse em sua utilização para
estudo do desenvolvimento de modelos de reações termonucleares. Grandes nomes estavam
envolvidos no processo, entre eles, John Von Neumann. Os primeiros resultados dos testes
realizados com o ENIAC foram divulgados na primavera de 1946, em Los Alamos, e o seu
sucesso despertou interesse de Stam Ulam um exímio matemático que estava trabalhando em
Los Alamos. Além de um excelente matemático, Stam era um admirador de jogos e vinha
trabalhando em pesquisas para desenvolvimento de jogos em duas dimensões. Sua teoria era
de que os métodos estatísticos de amostragem randômica haviam caído em desuso devido ao
alto grau de complexidade exigido, o que inviabilizava sua utilização manual. Porém, com o
advento do ENIAC, Stam estava convencido de que as técnicas de análise estatística deveriam
ser ressuscitadas..
As idéias de Stam despertaram um enorme interesse em Von Newmann que
vislumbrou a definição de um modelo estatístico que auxiliasse na solução dos problemas de
suas pesquisas com reações termonucleares. O interesse de Von Newmann foi decisivo para
que o método fosse utilizado nas pesquisas de Los Alamos. METROPOLIS, 1987, p.127,
assume a autoria do nome Monte Carlo. Segundo ele a idéia surgiu das aventuras de um tio de
Stam Ulam, um assíduo frequentador de cassinos, que estava envolvido em uma campanha
para pedir dinheiro emprestado a parentes, com o objetivo de jogar nos famosos cassinos de
Monte Carlo. O método tem sido utilizado desde então em várias pesquisas de física e
engenharia para simulação de variáveis aleatórias, permitindo ao pesquisador gerar, a partir
do conhecimento das distribuições de probabilidade das variáveis aleatórias envolvidas na
análise, amostras com tamanho suficiente para o embasamento científico do seu estudo.
Apesar de simples implementação, o método apresenta o inconveniente de ser bastante
pesado em termos computacionais. Para que seja possível convergir para os parâmetros
desejados, o número de simulações deve ser bastante alto. Em termos de confiabilidade
estrutural adota-se, como padrão, que o número de simulações deve ser no mínimo o inverso
da probabilidade de falha pf.
Assim para uma probabilidade da falha da ordem de 10-6 seriam necessárias 1.000.000
de simulações. Com o rápido crescimento das tecnologias de hardware e software e com a
41
utilização de técnicas de redução de variância, que reduzem drasticamente o número de
simulações necessárias para se atingir a precisão desejada, este inconveniente foi minimizado
e o método Monte Carlo vem sendo exaustivamente utilizado em pesquisas científicas no
estudo da teoria das filas, qualidade e confiabilidade de estruturas, astrofísica, física nuclear e
várias outras pesquisas nas áreas de medicina, economia, agricultura etc. Um exemplo
adaptado de SOBOL, 1994, p.9, demonstra de maneira bem simples o método de Monte
Carlo. Supondo que se queira calcular a área de uma figura plana S.
O exemplo mostra por questões de simplicidade uma figura quadrada, mas esta pode
ser completamente arbitrária desde que descreva uma região fechada. Supondo que a figura
possa ser completamente inserida em uma região quadrada de lados unitários como na Figura
3.1, escolhem-se aleatoriamente N pontos entre 0 e 1 e designa-se por Ns o número de pontos
que caem dentro da área S. Definindo-se o evento
{ }SáreadadentrocaipontooA = , tem-se que NS/N, frequência relativo do evento A,
irá convergir para ( )AP , probabilidade de ocorrer o evento A, ao se tomar N suficientemente
grande. Geometricamente falando, NS/N converge para a área S procurada.
Y
X0
1
1
0.2
0.2
0.8
0.8
S
Figura 3.1 – Área S a ser determinada pelo método de Monte Carlo tradicional.
42
fpN 1
=( 3.1 )
mc nSimulacoes( ) x runif nSimulacoes 0, 1,( )←
y runif nSimulacoes 0, 1,( )←
acerto 0←
acerto acerto if xi 0.2≥ xi 0.8≤∧( ) yi 0.2≥ yi 0.8≤∧( )∧ 1, 0,⎡⎣ ⎤⎦+←
i 0 nSimulacoes 1−..∈for
acertonSimulacoes
return
:=
Rotina 3.1 – Rotina de exemplo de simulação com Monte Carlo Tradicional
A Tabela 3.1 mostra os resultados obtidos variando-se o número de simulações. A área
do quadrado, 0.36 unidades de área, foi atingida após 100000 simulações. Esta aplicação é
obviamente bastante simples, porém existem outros métodos mais indicados para obtenção da
área de figuras planas. No entanto o método Monte Carlo é bastante utilizado quando se trata
de calcular o volume de um corpo no espaço multidimensional. Este exemplo pode também
ser ampliado para a solução de integrais de área ou de volume.
Tabela 3.1 – Resultados da Simulação
Número de simulações Resultado em unidades de área
10 0.3
100 0.33
1000 0.356
10000 0.356
100000 0.36
43
3.2 MÉTODO MONTE CARLO TRADICIONAL
O método Monte Carlo pode ser explicado pelo teorema da transformação integral
(BUSSAB, 2004, p. 237).
“Seja X uma variável aleatória com função densidade f(x) e função dedistribuição acumulada F(x). Sendo U uma outra variável aleatória definidapor U = F(x), então U tem distribuição uniforme no intervalo [0,1].”
Como F é uma função de distribuição acumulada de uma variável contínua, ela é
estritamente crescente e, portanto, se U = F(x), então:
( )uFX 1−= ( 3.2 )
Supondo que u é um valor obtido de uma distribuição uniforme padrão, com
distribuição de probabilidade entre 0 e 1, então:
( ) uuFU =
Logo, a probabilidade acumulada de U ≤ u é igual a u. Assim, se u é um valor de U, o
correspondente valor da variável X obtida da equação ( 3.2 ) terá probabilidade acumulada:
( ) ( )[ ] ( )[ ] ( )[ ] ( )xFxFFxFUPxUFPxXP XXUXX ==≤=≤=≤ −1
O que significa que se (u1, u2, ..., un) é uma série de valores de U, a série de valores
correspondentes obtidas da equação ( 3.2 ) terá a distribuição acumulada FX(x).
Dois pontos devem ser colocados como de fundamental importância para a simulação
de variáveis pseuso-aleatórias com o método Monte Carlo: a geração de variáveis
44
uniformemente distribuídas no intervalo [0,1] e a obtenção da inversa da função de
probabilidade acumulada (FPA).
Segundo SARAIVA, 1997, p. 26, a tarefa de se gerar números aleatórios com
distribuição uniforme no intervalo [0,1] não é elementar e deve ser feita de forma criteriosa.
Os algoritmos utilizados devem garantir a não correlação entre os valores gerados.
Outro ponto a ser considerado é período de repetição destes valores. Quanto maior for
o período para início da repetição dos valores, maior a garantia de que estes possam ser
considerados como pseudo-aleatórios e assim, utilizados em análises estatísticas sem
comprometimento do modelo matemático.
Para as distribuições onde não seja possível obter a inversa da FPA dever-se-á lançar
mão de métodos alternativos para geração de valores com a respectiva distribuição ou utilizar
algoritmos numéricos para obtenção da respectiva função inversa.
Y
X0
1
ui
Xi = valor gerado
Figura 3.2 - O teorema da transformação integralFonte: SARAIVA, 1997, p. 26
3.3 GERAÇÃO DE NÚMEROS PSEUDO-ALEATÓRIOS
É fato que todos os algoritmos computacionais de geração de vetores com distribuição
uniforme em algum momento geram valores duplicados, o que os torna algoritmos
determinísticos e os valores por eles gerados não podem ser chamados de valores aleatórios.
Por isso o termo pseudo-aleatório deve ser utilizado ao se referir a estes valores. O que define
45
se estes valores pseudo-aleatórios podem ser utilizados em um experimento estatístico sem
comprometimento do modelo matemático é o tamanho do período de repetição e a condição
necessária de não correlação entre os valores gerados.
KNUT7, 1969, apud ANG, 1984, pg. 281, demonstrou que para grandes períodos de
repetição os valores gerados tendem a se comportar como valores uniformemente distribuídos
e estatisticamente independentes.
O gerador de números pseudo-aleatórios mais comum é o gerador congruencial que
pode ser definido como:
( ) ( ) nimcXaX ii ,...,1,mod1 =⋅+⋅=+( 3.3 )
Nesta equação m é denominado módulo e a e c de multiplicador e incremento,
respectivamente, e devem ser inteiros positivos.
Definindo ik como:
⎟⎠⎞
⎜⎝⎛ +⋅
=m
cxaIntk i
i
então o correspondente resíduo do módulo m será:
iii kmcxaX ⋅−+⋅=+1( 3.4 )
Normalizando-se os valores obtidos de ( 3.4 ) pelo módulo m obtém-se:
7 KNUT, D.E., The Art of Computer Programming: Seminumerical Algorithms, Vol. 2, Addison-Wesley,Massachusetts, 1969.
46
mx
u ii
11
++ = ( 3.5 )
Este gerador fornece um vetor de números pseudo-aleatórios entre 0 e 1 com
distribuição de probabilidade uniforme (ANG, 1984, p. 280). Neste algoritmo, m define o
tamanho de período de repetição. Assim, nas aplicações práticas m deve assumir valores
grandes. GREENBERGER8, 1961, apud ANG, 1984, p. 280, demonstrou que o
relacionamento entre os valores gerados por este algoritmo tende a 0 quando m tende a
infinito. RUBINSTEIN, 1981, p. 23, define como ótimos os seguintes valores: m = 235; a =
27 + 1 e c = 1.
SUBIA, 1991, capítulo 2, estudou 4 modelos de geradores de números pseudo-
aleatórios. Dois baseados no algoritmo congruencial e dois baseados em algoritmos
subtrativos. Para o estudo comparativo foram gerados vários vetores com distribuição
Normal, Lognormal e exponencial. A conclusão de seu trabalho mostra que o algoritmo
intitulado RAN1, apresentou os melhores resultados.
Nesta dissertação serão utilizados o gerador congruencial padrão e o gerador RAN1
proposto por SUBIA, cujo desenvolvimento em Mathcad encontra-se na Rotina 3.2.
Inicialmente a rotina inicializa três geradores congruenciais e procede ao
preenchimento do vetor R, com números aleatórios procedentes dos geradores congruenciais
um e dois. O terceiro gerador fornece um valor aleatório que definirá a posição, no vetor R, de
cada valor gerado.
Uma vez apurado o número pseudo-aleatório, a posição deste no vetor R será
novamente preenchida por um novo valor fornecido pelos geradores congruenciais um e dois.
A rotina original devolvia apenas um único valor, apurado do vetor R. Subsequentes
chamadas forneciam os demais valores alterando sua posição no vetor R conforme
especificado anteriormente. A rotina foi alterada para, em uma só chamada, devolver um
vetor com o número de valores estipulados pelo parâmetro numAleat.
8 GREENBERGER, M., An A Priory Determination of Serial Correlation in Computer GeneratedRandom Numbers, Mathematics of computation, 15, 1961, pp. 383-389.
47
M1 259200:= M2 134456:= M3 243000:=
IA1 7141:= IA2 8121:= IA3 4561:=
IC1 54773:= IC2 28411:= IC3 51349:=
RM11
M1← RM2
1M2
←
pseudoAleat numAleat seed,( ) IX1 mod IC 1 seed− M 1,( )←
IX1 mod IA 1 IX1⋅ IC 1+ M 1,( )←
IX2 mod IX1 M 2,( )←
IX3 mod IX1 M 3,( )←
IX1 mod IA 1 IX1⋅ IC 1+ M 1,( )←
IX2 mod IA 2 IX2⋅ IC 2+ M 2,( )←
Rj IX1 IX2 RM 2⋅+( ) RM 1⋅←
j 0 96..∈for
IX1 mod IA 1 IX1⋅ IC 1+ M 1,( )←
IX2 mod IA 2 IX2⋅ IC 2+ M 2,( )←
IX3 mod IA 3 IX3⋅ IC 3+ M 3,( )←
j trunc96 IX3⋅( )
M 3
⎡⎢⎢⎣
⎤⎥⎥⎦
←
pRani Rj←
Rj IX1 IX2 RM 2⋅+( ) RM 1⋅←
i 0 numAleat 1−..∈for
pRanreturn
:=
Rotina 3.2 – Gerador de números pseudo-aleatórios RAN1
48
O segundo parâmetro, seed, controla como se dará toda a geração dos números
pseudo-aleatórios. Chamadas alternadas com o mesmo valor de seed garantem a geração de
vetores idênticos. Isto é muito útil na pesquisa científica, pois permite ao pesquisador repetir
com exatidão um experimento anterior.
Para validar se um determinado vetor com números pseudo-aleatórios representa uma
determinada distribuição de probabilidades deve-se aplicar um teste de aderência. Existem na
literatura, basicamente, dois testes: chi-quadrado e Kolmogorov-Smirnov.
É de suma importância que toda geração de valores pseudo-aleatórios seja seguida da
verificação da aderência à curva de probabilidade da distribuição desejada. Caso o teste falhe
para o nível de significância adotado, a amostra deverá ser rejeitada e um novo conjunto de
valores deverá ser gerado.
3.4 TESTES DE ADERÊNCIA
Na teoria estatística, um teste de aderência tem como objetivo principal resolver o
problema de testar a hipótese, com um nível de significância arbitrado, de que uma variável
aleatória tenha certa distribuição de probabilidades específica.
Destacam-se dois testes clássicos de aderência: o teste chi-quadrado e o teste
Kolmogorov-Smirnov.
3.4.1 Teste chi-quadrado
O teste chi-quadrado baseia-se na divisão variável aleatória X em intervalos de classe
e aplicação o teste de hipótese:
00 : PPH = ( 3.6 )
Sendo k o número de intervalo de classes, Oi a frequência observada no i-ésimo
intervalo de classe e Ei a frequência esperada no i-ésimo intervalo de classe, então a
estatística sugerida por Karl Pearson para testar a hipótese foi:
49
( )∑=
−=
k
i i
ii
EEOX
1
220
É importante compreender que 20X é uma função dos valores observados 01, 02, ..., 0k
e, portanto, é uma variável aleatória. A distribuição verdadeira de 20X é bastante complicada.
No entanto, pode ser demonstrado que se a população seguir a distribuição utilizada na
estatística, 20X terá,aproximadamente uma distribuição qui-quadrada com k-p-1 graus de
liberdade, onde p é o número de parâmetros da distribuição utilizada na hipótese. Rejeita-se a
hipótese de que a distribuição da população é a distribuição utilizada na hipótese se o valor
calculado de estatística de teste for fCX ,120 α−> , sendo fC ,1 α− o valor da distribuição chi-
quadrado na probabilidade acumulada ( )α−1 e α o nível de significância adotado .
Este teste é bastante utilizado para variáveis aleatórias discretas. No caso de variáveis
contínuas o resultado poderá variar muito em função do número de intervalos utilizados e do
tamanho de cada intervalo. Por isso, para testar variáveis contínuas, o teste Kolmogorov-
Smirnov tem sido mais indicado.
3.4.2 Teste de Kolmogorov-Smirnov
Sendo x1,x2,...,xn valores observados de uma população p da variável aleatória X, com
distribuição acumulada F(x), deseja-se estimar se a amostra observada veio de uma
distribuição de probabilidade específica. O teste de hipótese será:
( ) ( )xFxFH 00 : = para todo x. ( 3.7 )
( )XF0 é a distribuição acumulada teórica, isto é, para qualquer valor de X o valor de
( )XF0 fornecerá a probabilidade de a variável aleatória assumir valores iguais a, ou menores
50
que X. Inserindo a distribuição acumulada empírica eF , o teste estatístico de Kolmogorov-
Smirnov é definido por:
( ) ( )ieinixFxFD −=
≤≤1max ( 3.8 )
A função de distribuição acumulada empírica é definida como:
0 1xx ≤
ni
1+≤≤ ii xxx ( 3.9 )( ) =xFe
1 nxx ≥
Pela hipótese de nulidade, de que a amostra tenha sido extraída de distribuição teórica
especificada, espera-se que para cada valor de X, ( )xFe esteja suficientemente próximo de
( )xF0 . Isto é, espera-se que as diferenças entre ( )xFe e ( )xF0 sejam pequenas. A máxima
diferença obtida de ( 3.8 ) será considerada como a medida de discrepância entre o modelo e
os dados obtidos. Este valor deverá ser comparado com os valores da Tabela 3.2, fixado um
nível de significância para o teste. Se D for maior que o valor tabelado αD a hipótese 0H será
rejeitada. O teste de Kolmogorov-Smirnov aplica-se somente às distribuições contínuas.
Outros métodos podem ser encontrados na literatura como o teste de Cramer-von Mises,
descrito por RUBINSTEIN, 1981, p. 30. Porém é também consenso na literatura que o
método de Kolmogorov-Smirnov é o mais adequado às distribuições contínuas apesar do
maior esforço computacional requerido quando comparado com o teste chi-quadrado.
O desenvolvimento do teste Kolmogorov-Smirnov, com a verificação da aderência
para um vetor gerado com distribuição normal N(40,5), está demonstrado da Rotina 3.3 à
Rotina 3.6. Inicialmente a função de densidade empírica do vetor normal gerado é calculada
segundo a equação ( 3.9 ). Em seguida, utilizando-se a equação ( 3.8 ), a máxima diferença
entre a função de densidade empírica e a função de probabilidade acumulada da distribuição é
51
obtida. Baseado neste valor, a aderência para o nível de significância desejado é verificada. A
matriz TABks, Rotina 3.4, foi criada a partir da Tabela 3.2.
Tabela 3.2 – Distribuição Kolmogorov-Smirnov
Fonte: BUSSAB, 2004, p. 507
p p pn 0,05 0,02 0,01 n 0,05 0,02 0,01 n 0,05 0,02 0,011 975 990 995 21 287 321 344 41 208 232 2492 842 900 929 22 281 314 337 42 205 229 2463 708 785 829 23 275 307 330 43 203 227 2434 624 689 734 24 269 301 323 44 201 224 2415 563 627 669 25 264 295 317 45 198 222 2386 519 577 617 26 259 290 311 46 196 219 2357 483 538 576 27 254 284 305 47 194 217 2338 454 507 542 28 250 279 300 48 192 215 2319 430 480 513 29 246 275 295 49 190 213 22810 409 457 489 30 242 270 290 50 188 211 22611 391 437 468 31 238 266 28512 375 419 449 32 234 262 28113 361 404 432 33 231 258 277
50>n
358,1n
517,1n
628,1
14 349 390 418 34 227 254 27315 338 377 404 35 224 251 269 Expressão geral para n > 50
16 327 366 392 36 221 247 26517 318 355 381 37 218 244 26218 309 346 371 38 215 241 25819 301 337 361 39 213 238 25520 294 329 352 40 210 235 252
nD
pe
⋅
−≅
2log 2
O Gráfico 3.1 mostra como se comportam a distribuição acumulada e a densidade
empírica para o teste.
densidadeEmpirica vetor( )
vDEii 1+
rows vetor( )←
i 0 rows vetor( ) 1−..∈for
vDEreturn
:=
Rotina 3.3 – Geração da distribuição de densidade empírica
52
KolmogorovSmirnov n α,( )
l ks if mod n 5,( ) 0> truncn5
⎛⎜⎝
⎞⎠
, truncn5
⎛⎜⎝
⎞⎠
1−,⎛⎜⎝
⎞⎠
←
c ks if mod n 5,( ) 0> 3 mod n 5,( ) 1−( )⋅ α+, 3 5 1−( )⋅ α+,[ ]←
KS
TAB ksl ks c ks,
1000←
n 50≤if
num 1.358 α αKS 05if
1.517 α αKS 02if
1.628 α αKS 01if
←
KSnum
n⎛⎜⎝
⎞⎠
←
otherwise
KSreturn
:=
Rotina 3.4 – Determinação do valor da distribuição de Kolmogorov-Smirnov
AderenciaNormal vetorNormal αKS, µ, σ,( ) vetor s sort vetorNormal( )←
de densidadeEmpirica vetor s( )←
Dtempi pnorm vetor siµ, σ,⎛
⎝⎞⎠
dei−←
i 0 rows vetor s( ) 1−..∈for
D max Dtemp( )←
KS KolmogorovSmirnov rows vetor s( ) αKS,( )←
RC 1 D KS<if
1−( ) otherwise
←
RCreturn
:=
Rotina 3.5 – Teste aderência de um vetor com distribuição normal
53
αKS05 0:= αKS02 1:= αKS01 2:=
µ 40:=
σ 5:=
nSimulacoes 2000:=
vetorNormal rnorm nSimulacoes 40, 5,( ):=
AderenciaNormal vetorNormal αKS05, µ, σ,( ) 1=
D > Dα Hipótese H0 aceita. A distribuição é normal
Rotina 3.6 – Teste de aderência da distribuição normal N(40,5)
140 160 180 200 220 240 260 2800
0.05
0.1
0.15
0.2
0.250.214
5.901 10 4−×
dei
pnorm vetor siµ, σ,⎛
⎝⎞⎠
264.382154.037 vetor si
Gráfico 3.1– Aderência da distribuição gerada
54
3.5 A FUNÇÃO INVERSA
De acordo com a equação ( 3.2 ), a simulação de um vetor pseudo-aleatório com
distribuição de probabilidade definida se dá pela função inversa de sua função de
probabilidade acumulada. Segundo DEVROYE, 1986, p. 30:
“O método da função inversa é o único método universal: se tudo o quepodemos fazer é computar F(x) para todo x, e temos tempo suficiente aonosso alcance, então podemos gerar variáveis randômicas com função dedistribuição F [...]”
Nem sempre é possível obter-se, analiticamente, a função inversa de uma dada função
( )xF . Nestes casos, as únicas alternativas são: utilizar outros métodos numéricos para
geração do vetor pseudo-aleatório ou desenvolver um método numérico para aproximar o
valor da função inversa desejada. Um caso clássico de função cuja inversa não é obtida
analiticamente é o da função FDA da distribuição normal:
( )
∫∞
∞−
⋅
−−
⋅⋅⋅
= 2
2
2
21 σ
µ
πσ
x
normal eFDA ( 3.10 )
Existem na literatura citações a respeito de funções inversas aproximadas, mas o
método mais aceito é o proposto por BOX e MULLER9 apud ANG, 1984, p. 285-285 at al. Se
u1 e u2 são um par de números pseudo-aleatórios com distribuição uniforme e estatisticamente
independentes então um par de números pseudo-aleatórios com distribuição normal N(µ,σ)
pode ser gerado por:
211 2cosln2 uux ⋅⋅⋅⋅−⋅+= πσµ ( 3.11 )
9 BOX,G.E.P., and MULLER,M.E., “a Note on generating of Random Normal Deviates,” Annals ofMath. Stat,. 29, 1958, pp.610-611.
55
212 2senln2 uux ⋅⋅⋅⋅−⋅+= πσµ ( 3.12 )
A Rotina 3.7 mostra a o desenvolvimento do método Box-Muller no Mathcad. A
rotina recebe os parâmetros da distribuição normal e dois vetores com distribuições uniformes
U(0,1) e devolve um par de vetores com distribuição normal N(µ,σ).
Existem na literatura diversas tabelas com as funções inversas das distribuições mais
comuns além da descrição de outros métodos para geração de números pseudo-aleatórios,
como o método da composição, o método da função de variáveis randômicas etc (ANG, 1984;
BRATLEY 1986; DEVROYE, 1986; RUBINSTEIN, 1981 et al.).
BoxMuller µ σ, u1, u2,( )x1i µ σ 2− ln u1i( )⋅⋅ cos 2 π⋅ u2i⋅( )⋅+←
x2i µ σ 2− ln u1i( )⋅⋅ sin 2 π⋅ u2i⋅( )⋅+←
i 0 rows u1( ) 1−..∈for
x1 x2( )
:=
Rotina 3.7 – Método de Box-Muller
Caso não seja possível obter soluções alternativas um método numérico deve ser
utilizado.
O cuidado que se deve ter com um método numérico para geração de funções inversas
de distribuições contínuas é em relação ao ponto de parada, já que estas distribuições são
definidas em intervalos infinitos. Desta forma, os algoritmos apresentam valores inexatos e o
erro a ser assumido deve ser cuidadosamente estudado.
DEVROYE, 1986, p. 27-34, sugere três diferentes métodos numéricos para obtenção
da função inversa: o método da bisseção; o método da secante e o método de Newton-
Raphson.
Os métodos da bisseção e da secante necessitam de que seja estabelecido um intervalo
[a,b] que contenha a solução. Sendo possível expressar este intervalo, o método da bisseção
sempre convergirá para o resultado correto. O problema está na análise para geração destes
intervalos que nem sempre é uma tarefa fácil.
56
Caso a função de distribuição de densidade ( )xf seja conhecida, o método de Newton-
Raphson poderá ser utilizado. O método baseia-se apenas no conhecimento da média µ e do
desvio padrão σ da amostra. DEVROYE sugere que se tome o valor zero como valor inicial
de pesquisa para o método de Newton-Raphson.
Os testes realizados mostraram, porém, que para amostras com média alta, o valor da
função de densidade no ponto zero é muito pequeno e, em função da quantidade de dígitos
significativos utilizados pelos computadores, este valor poderá vir a ser considerado 0, o que
leva o método a falhar.
A Rotina 3.8 demonstra a proposta de DEVROYE para o método de Newton-Raphson.
As funções pnorm e qnorm do Mathcad devolvem a probabilidade acumulada e a função
densidade, respectivamente, da distribuição normal N(µ,σ).
Além da média µ e do desvio padrão σ, a rotina recebe como parâmetros um vetor u
com números uniformemente distribuídos no intervalo [0,1], um limite para a parada do
método, caso não haja convergência e um parâmetro δ que sugere o erro máximo a ser
considerado para a obtenção do valor procurado.
Quando a diferença entre o valor anterior x e o valor atual xnext for menor que δ, o
método assume que o valor obtido convergiu para o valor esperado.
A matriz de saída contém o vetor com os valores da função inversa e o número de
simulações necessárias à convergência.
A Tabela 3.3 mostra a comparação entre os resultados obtidos gerando-se os vetores
pseudo-aleatórios com distribuição de probabilidade normal e parâmetros µ = 40 e σ = 5,
com a função qnorm do Mathcad, com o método de Newton-Raphson e com a rotina de Box-
Muller.
A Tabela 3.4 mostra a comparação entre os resultados obtidos gerando-se os vetores
pseudo-aleatórios com distribuição de probabilidade exponencial e parâmetro λ = 0.002, com
a função qexp do Mathcad, com o método de Newton-Raphson e com a rotina para geração de
vetores com distribuição exponencial baseada na sua função inversa:
( )xcialinvExponen −⋅−= 1ln1λ
( 3.13 )
57
São mostrados apenas os 16 primeiros números de uma série de 1000 simulados para
cada caso.
A avaliação dos resultados obtidos para a distribuição normal mostra que os valores
gerados com a rotina de Newton-Raphson coincidem com os valores gerados pela função
qnorm do Mathcad. Além disso, o número médio de interações necessárias à geração de cada
valor é de 3.133, o que é um valor baixo e não onera o tempo necessário à geração do vetor.
Todos os valores passaram no teste de aderência de Kolmogorov-Smirnov, o que demonstra a
confiabilidade de todos os métodos testados.
Em relação à geração de distribuição exponencial, tanto os valores gerados pelo
método Newton-Raphson quanto os gerados pela função qexp do Mathcad e os gerados pelo
método da inversa, utilizando-se a equação ( 3.13 ) e o método descrito em ( 3.2 ), são
exatamente iguais. Como no caso anterior, todos os valores passaram no teste de aderência de
Kolmogorov-Smirnov.
O valor do parâmetro para comparação do erro admissível no método de Newton-
Raphson, δ, foi estipulado em 0.0001 para estes testes e demonstrou ser um valor bastante
razoável. O limite de interações utilizado foi de 100. Comparando-se os resultados, pode-se
notar que o máximo de interações necessárias foi de 12.
Estas avaliações demonstram a confiabilidade do método de Newton-Raphson para
obtenção da função inversa. O cuidado na sua utilização diz respeito somente ao valor inicial
a ser utilizado para iniciar a pesquisa. Para a geração de valores normais utilizou-se o valor da
média µ, que para a maioria dos casos aparece como uma boa escolha. Para a geração de
valores exponenciais, utilizou-se o próprio valor do parâmetro λ.
É necessário uma avaliação criteriosa, em função da distribuição que se queira gerar,
para a definição do valor inicial de pesquisa.
58
NewtonRaphson u µ, σ, δ, limite,( )x µ←
int 0←
xnext xpnorm x µ, σ,( ) ui−( )
dnorm x µ, σ,( )−←
x xnext←
int int 1+←
xnext x− δ> int limite<∧if
break otherwise
1while
vni x←
vInti int←
i 0 rows u( ) 1−..∈for
vn vInt( )return
:=
Rotina 3.8 – Método de Newton-Raphson para obtenção do valor da função inversa normal.
NewtonRaphson u λ, δ, limite,( )x λ←
int 0←
xnext xpexp x λ,( ) ui−( )
dexp x λ,( )−←
x xnext←
int int 1+←
xnext x− δ> int limite<∧if
break otherwise
1while
vni x←
vInti int←
i 0 rows u( ) 1−..∈for
vn vInt( )return
:=
Rotina 3.9 - Método de Newton-Raphson para obtenção do valor da função inversa exponencial.
59
Tabela 3.3 – Vetores pseudo-aleatórios com distribuição normais
Núm. InteraçõesNewton-Raphson
Newton-Raphson
Mathcadfunçãoqnorm
Box-Mullervetor 1
Box-MullerVetor 2
0 4 33.82042 33.82042 47.5798 47.329021 2 40.34264 40.34264 43.16751 44.686632 2 38.78831 38.78831 40.18669 46.726823 3 36.13279 36.13278 47.16418 35.053774 3 42.23197 42.23197 44.44805 39.746755 3 44.63461 44.63469 41.42536 42.776166 5 30.85856 30.85855 47.80984 29.586527 4 45.10869 45.10869 37.90486 41.98498 6 28.54806 28.54804 48.84813 27.867139 2 38.90504 38.90504 46.32575 42.03976
10 4 46.80173 46.80174 39.72193 37.8867111 4 34.2417 34.2417 43.05656 30.2666812 3 43.60917 43.60918 42.63697 42.5403313 2 40.97535 40.97535 36.48386 36.1136514 2 41.22144 41.22144 43.13107 44.0038215 2 40.39095 40.39095 34.39522 39.53001
Kolmogorov-Smirnov
ok ok ok ok
Valor máximo 12Valor mínimo 1
Média 3.133
Tabela 3.4 - Vetores pseudo-aleatórios com distribuição exponencial
Núm. InteraçõesNewton-Raphson
Newton-Raphson Mathcadfunção qexp
Função inversaexponencial
0 4 142.04215 142.04215 142.042151 5 678.97859 678.9786 678.97862 4 271.57639 271.57639 271.576393 6 1.25584e3 1.25584e3 1.25584e34 3 91.46051 91.46052 91.460525 6 1.0628e3 1.0628e3 1.0628e36 4 292.62933 292.62934 292.629347 7 1411.05799 1411.05799 1411.057998 2 12.7391 12.73912 12.739129 4 198.22079 198.22079 198.22079
10 4 392.74334 392.74337 392.7433711 6 969.97361 969.97361 969.9736112 2 16.48024 16.48032 16.4803213 4 144.65668 144.65668 144.6566814 5 504.45046 504.45046 504.4504615 4 416.23463 416.2347 416.2347
Kolmogorov-Smirnov
ok ok ok
Valor máximo 12Valor mínimo 1
Média 4.418
60
3.6 O MÉTODO MONTE CARLO E A CONFIABILIDADE ESTRUTURAL
Para explicar a utilização do método Monte Carlo na determinação da confiabilidade
de uma estrutura pode-se fazer uma analogia com o exemplo de determinação da área S do
quadrado da Figura 3.1. No exemplo gera-se N pares (X,Y) de coordenadas cartesianas,
entendendo-se X e Y como duas variáveis básicas da análise, uniformemente distribuídas no
intervalo [0,1] e conta-se o número de vezes que um ponto caí dentro da área especificada.
Este valor dividido por N fornece a probabilidade de se atingir a área S, que coincide com o
valor da área.
No capítulo 2, a Figura 2.1 e a Figura 2.3 mostram o conceito da superfície de falha e
do ponto de projeto, definido como a menor distância da origem à superfície de falha, e que
define o índice de confiabilidade β, equação ( 2.4 ), e consequentemente a probabilidade de
falha pf, equação ( 2.5 ). De uma forma análoga à determinação da área S do quadrado, se a
função de falha ( )XG for definida, por exemplo, como:
( ) SRXG −=
e se forem gerados os vetores VR e VS , com as respectivas distribuições de probabilidades
das variáveis R e S, pode-se, aplicando os valores iVR e iVS , para todo i, na função ( )XG ,
contar o número de vezes que o resultado cai na área de falha ( ( ) 0≤XG ). Este número
dividido por N, número de simulações, fornecerá a probabilidade de falha pf do elemento
estrutural representado por ( )XG . O índice de confiabilidade β será obtido por:
fp−= 1β ( 3.14 )
Nos itens 10.1 e 10.2 do apêndice deste documento encontra-se a proposta completa
do método Monte Carlo e a reprodução do exemplo proposto por ANG, 1987, p. 369-372. O
resultado proposto por ANG é comparado com o método Monte Carlo e com o método
analítico FORM, descrito no capítulo 2.
61
A Rotina 3.10 e a Rotina 3.11 mostram a utilização do método Monte Carlo
tradicional para a definição da probabilidade de falha de uma estrutura, dado a função de falha
correspondente. As gerações de vetores normais e testes de aderência seguiram os métodos
mostrados anteriormente e reproduzem o problema proposto por ANG, 1984, p. 361-362.
Distribuições estatísticas Função de falha
µ σ DistY 40 5 normal
Z 50 2.5 normal
M 1000 200 normal
G 1 Y Z, M,( ) Y Z⋅ M−:=
fG1 Y Z, M, nAleat,( ) falha 0←
f f G 1 Yindmc Zindmc, Mindmc,( )←
falha falha 1+( ) f f 0≤if
falha otherwise
←
indmc 0 nAleat 1−..∈for
falhareturn
:=
Rotina 3.10 – Avaliação da função de falha
MC nAleat α KS,( ) Y vetorNormal 40 5, nAleat, α KS,( )0 0,←
Z vetorNormal 50 2.5, nAleat, α KS,( )0 0,←
M vetorNormal 1000 200, nAleat, α KS,( )0 0,←
fG0 fG1 Y Z, M, nAleat,( )←
p f0
rows fG( ) 1−
i
fGi∑=
nAleat←
p f
:=
Rotina 3.11 – Monte Carlo tradicional
62
Tabela 3.5 - Resultados simulação Monte Carlo tradicional
Número de Simulações Pf
1000 0.0010
2000 0.0005
5000 0.0002
10000 0.0008
20000 0.00135
30000 0.00097
40000 0.00075
50000 0.00112
60000 0.00112
ANG chegou ao valor de 0.00114 para a probabilidade de falha, com o método
analítico baseado na teria do Segundo Momento. Apesar de este procedimento ser bastante
simples, a Tabela 3.5 mostra que o número de simulações necessárias à convergência para a
solução real é muito grande. O que torna a utilização do método Monte Carlo tradicional
muito custoso, principalmente face à variáveis básicas correlacionadas ou quando a análise
exige a avaliação de funções de falha não lineares.
Para contornar este problema várias formulações de técnicas de redução de variância
têm sido propostas com o intuito de reduzir o número de simulações (SARAIVA, 1997, p.29-
34; ANG, 1984, p.292-301; SUBIA, 1991, p. 62-77; RUBINSTEIN, 1981, p.114-152;
BRATLEY, 1987, p.44-76 et al.). O inconveniente destes métodos é que eles não são
métodos gerais, exigindo uma avaliação detalhada para cada caso. O método da Esperança
Condicionada, por exemplo, exige que pelo menos uma variável básica possa ser expressa
como estatisticamente independente das demais. O método da amostragem por importância
utiliza-se da definição de uma função densidade de probabilidade auxiliar hx que possua um
maior conteúdo de probabilidade dentro da região de falha. Desta forma, a técnica baseia-se
em uma boa escolha desta função. Segundo SARAIVA, 1997, p. 33:
63
“Infelizmente ainda não existe uma técnica que seja ao mesmo tempoprecisa e absolutamente geral para a obtenção da melhor função deimportância e a escolha sempre é feita tomando-se alguns critérios práticosbaseados em experiências anteriores.”
No caminho para definir um método geral que possibilite a redução do número de
simulações SARAIVA, 1997, e PAPADRAKAKIS, 1996, propuseram a utilização do método
Monte Carlo em conjunto com algoritmos neurais. A idéia é utilizar o Monte Carlo em
conjunto com um software de análise estrutural para gerar um conjunto de treinamento da
rede neural. Este conjunto pode ser elaborado com cerca de 100 a 300 simulações. Depois de
treinada, a rede neural fornece uma função que se aproxima do caminho crítico do modelo
estrutural analisado, ou seja, uma função de falha extremamente otimizada. De posse desta
função de falha, utiliza-se o método Monte Carlo para avaliar a confiabilidade do modelo pelo
método tradicional, reduzindo-se o número de simulações para atingir o resultado final.
SARAIVA, 1997, p. 94, mostra um quadro comparativo da utilização de dois métodos
Monte Carlo tradicionais com técnicas de redução de variâncias com o método por ele
denominado de MCRN (Monte Carlo e Redes Neurais) para avaliação da probabilidade de
falha de uma barra de uma treliça isostática sujeita a uma carga concentrada P. A reprodução
da formulação do experimento e a tabela com os resultados comparativos encontram-se no
item 11.3 do anexo deste documento. No experimento de SARAIVA, após a obtenção da
função de falha global pela Rede Neural, a simulação com Monte Carlo tradicional convergiu
para a probabilidade de falha do elemento de barra com 3000 simulações enquanto os demais
métodos, Monte Carlo com técnicas de redução de variância, ainda apresentavam valores bem
acima do esperado.
O método mostrou-se muito eficiente em relação à redução do número de simulações
quando comparado com os métodos tradicionais. É óbvio que todo o problema discutido em
Transformações Isoprobabilísticas, capítulo 2, deve ser levado em conta para a simulação de
variáveis correlacionadas. A utilização dos algoritmos neurais na solução de problemas
diversos tem sido amplamente estudada nos últimos anos e os resultados têm comprovado a
eficiência das redes neurais. A escolha do algoritmo neural e da arquitetura de rede a ser
utilizada passa a ser o objeto de análise para cada caso prático. Este trabalho, porém, pode ser
minimizado com a utilização de algoritmos genéticos que permitem ao software tomar
decisões de acordo com dados históricos. Esta abordagem tem como uma grande vantagem a
utilização dos dados históricos na abordagem de futuros problemas. A rede aprende e evolui
com cada caso analisado.
4 REDES NEURAIS
O desenvolvimento da teoria das redes neurais artificiais está intimamente ligado ao
estudo do comportamento dos neurônios biológicos. Os neurônios são unidades funcionais de
informação e operam em grandes conjuntos. Os conjuntos de neurônios associados formam os
chamados circuitos ou redes neurais. O que diferencia os neurônios das demais células do
organismo animal é sua morfologia adaptada para o processamento de informações e a
variedade de seus tipos morfológicos (LENT, 2001, p. 14).
O corpo do neurônio, soma, apresenta um grande número de prolongamentos
ramificados denominados dendritos. Através dos dendritos o neurônio recebe as informações
dos demais neurônios a que se associa. Outro prolongamento do neurônio, geralmente na sua
poção terminal, pouco ramificado é o axônio. Um neurônio possui um único axônio e é por
ele que saem as informações destinadas aos outros neurônios do circuito neural. A Figura 4.1
mostra um exemplo de neurônio com seus dendritos e o axônio.
A estrutura de contato entre os neurônios é denominada de sinapse. Esta região está
compreendida entre duas membranas celulares: a membrana pré-sináptica, de onde chegam os
estímulos provenientes de outros neurônios, e a membrana pós-sináptica, que é a do dendrito.
Através desta estrutura dá-se a troca de informação entre dois neurônios. Durante a
transmissão, sinapse, os sinais elétricos nem sempre passam sem alteração podendo ser
bloqueados ou multiplicados, o que significa que este é um local de decisão e é justamente
neste fato que reside a grande flexibilidade funcional do sistema nervoso.
Na região intersináptica, o estímulo nervoso que chega à sinapse é transferido à
membrana dedrital através de substâncias conhecidas como neurotransmissores. O resultado
desta transferência é uma alteração no potencial elétrico da membrana pós-sinaptica.
Dependendo do tipo de neurotransmissor a conexão sináptica será excitatória ou inibitória.
65
Uma conexão excitatória provoca uma alteração no potencial da membrana que contribui para
a formação de um impulso nervoso no axônio de saída, enquanto que uma conexão inibitória
age no sentido oposto (KOVÁCS, 2002, p. 15).
Para que o impulso de saída se propague através da membrana o potencial elétrico
deve atingir uma determinada magnitude a ponto de despolarizar a membrana. Este valor
limite, abaixo do qual não há transmissão de informação, é denominado de limiar (threshold).
A grande capacidade de processamento de informações da rede provém da integração
entre milhares de sinapses existentes em cada neurônio. Os efeitos inibitórios e excitatórios de
cada uma das sinapses sobre o potencial da membrana do neurônio pós-sinaptico somam-se
algebricamente e o resultado dessa integração é que caracteriza a mensagem que emerge
através do axônio do segundo neurônio, em direção a outras células (LENT, 2001, p. 98).
Figura 4.1 – Exemplo de um dos vários tipos de neurônios encontrados nos mamíferos.
Com base nos conhecimentos do comportamento dos neurônios biológicos iniciaram-
se, a partir de 1943, com a proposta do primeiro neurônio artificial por Warren McCulloch,
médico, filósofo, matemático e poeta, a pesquisa e desenvolvimento das redes neurais
artificiais.
66
4.1 AS REDES NEURAIS ARTIFICIAIS
As primeiras informações sobre a neurocomputação datam de 1943, em artigos de
McCulloch e Pitts, que sugeriam a construção de uma máquina baseada no cérebro humano.
Em 1949 Donald Hebb escreveu o livro "The Organization of Behavior". Hebb foi o primeiro
a propor uma lei de aprendizagem especifica para as sinapses dos neurônios.
O primeiro neurocomputador a obter sucesso, o Mark I Perceptron, surgiu entre 1957 e
1958, criado por Frank Rosenblatt, Charles Wightman e outros. Devido à profundidade de
seus estudos muitos consideram Rosenblatt o fundador da neurocomputação na forma em que
a temos hoje.
Em 1962, Bernard Widrow desenvolveu o Adaline, equipado com uma poderosa lei
de aprendizado e que propunha a utilização uma função linear como função de ativação do
neurônio artificial.
Iniciou-se então um período de paralisação nos estudos das redes neurais artificiais
devido à publicação do livro “Perceptrons” de Marvin Minsk e Seymour Papert, que apontou
várias limitações do Perceptron de duas camadas o que desencorajou fortemente a
continuidade das pesquisas sobre o assunto.
A retomada dos estudos aconteceu, especialmente, a partir de 1986 com a publicação
do texto de Rumelhart intitulado “Parallel Distributed Processing”, que marcou o
renascimento do assunto após quase duas décadas de paralisação nas pesquisas. O trabalho de
Rumelhart introduziu novas arquiteturas de rede que não possuíam as limitações apontadas
por Minsk, além de popularizar o mais importante algoritmo das redes neurais, o
Backpropagation.
A Figura 4.2 apresenta uma rede neural multicamada com uma camada de entrada,
uma camada oculta e uma camada de saída. O número de neurônios nas camadas de entrada e
saída depende do tamanho do vetor que contém os sinais de entrada a serem fornecidos à rede
e do vetor que contém os sinais de saída. Na camada oculta o número de neurônios é obtido
através de um dimensionamento experimental.
Os elementos Nj e Ni representam os neurônios j e i respectivamente e Wij o elemento
ij da matriz de pesos ou conexões sinápticas. O vetor X fornece os sinais de entrada na rede e
o vetor Y os sinais de saída. Segundo SARAIVA, 1997, p. 39, esta topologia é uma das mais
utilizadas na resolução de problemas de engenharia. Os vetores X e Y, valores de entrada e
saída, compõem o conjunto de treinamento a ser submetido à rede. Através deste conjunto de
treinamento e de sua capacidade de abstração as redes definitivamente aprendem.
67
Um fato a ser observado na comparação entre as redes neurais biológicas e as redes
neurais artificiais é a diferença de velocidade de processamento entre o cérebro humano e as
redes neurais artificiais. Apesar de um neurônio biológico poder processar mil sinais por
segundo enquanto um neurônio artificial pode processar até um bilhão de sinais por segundo,
o tempo de resposta do cérebro humano é infinitamente maior que o de uma rede neural
artificial. Isto é explicado pela incrível arquitetura de processamento paralelo do cérebro, o
que lhe imprime um desempenho ainda muito distante de ser alcançado por métodos
artificiais. Este fato faz com que cada vez mais os projetistas de redes neurais busquem
melhorar o tempo de resposta das redes utilizando arquiteturas de processamento paralelo.
.
.
.
.
.
.
.
.
.
X1
X2
Xn
Y1
Y2
Yn
.
.
.
Nj NiWij
Camada de entrada
Camada oculta
Camada de saída
.
.
.
Sinal
Figura 4.2 – Rede neural multicamada.
HAYKIN, 1994, p. 2 define as redes neurais artificiais como processadores
distribuídos dotados de massivo paralelismo que têm a propensão natural de armazenar
conhecimentos experimentais e torná-los disponíveis para uso. A semelhança com o cérebro
se dá em dois aspectos básicos: o conhecimento é adquirido pela rede através de um processo
de treinamento e a força das conexões interneurais, pesos sinápticos, são utilizadas para o
armazenamento do conhecimento.
Dentre as várias propriedades das redes neurais, destaca-se a sua não linearidade, o
que a confere extrema eficiência e flexibilidade para avaliação de fenômenos muito
complexos, a sua grande capacidade de adaptação às novas situações perante novos conjuntos
68
de treinamento, sua elevada tolerância à falhas e sua extrema capacidade de aprendizado, que
lhe permite reconhecer e memorizar padrões.
Na tentativa de projetar redes neurais que cada vez mais reforcem estas propriedades
vários estudos vêm sendo desenvolvidos nos últimos 20 anos. O grande desafio está na
utilização de massiva computação paralela e processamento distribuído, de forma a tentar
aproximar cada vez mais as redes neurais artificiais das redes neurais biológicas.
4.2 O NEURÔNIO ARTIFICIAL
Um neurônio biológico pode ser modelado como um neurônio artificial que consiste
de um módulo de alteração dos sinais que saem de um neurônio e chegam a outro neurônio,
analogamente às sinapses, conexões de entrada, analogamente aos dendritos, um elemento
processador de sinais, analogamente ao corpo do neurônio e uma conexão de saída,
analogamente ao axônio.
O neurônio recebe estímulos dos neurônios a ele conectados ou do meio externo. O
neurônio pode ter múltiplas conexões de entrada, porém somente uma conexão de saída que,
no entanto, distribuí o sinal gerado para todos os neurônios conectados da próxima camada.
Para que o funcionamento de um neurônio artificial se aproxime ao máximo do
funcionamento de um neurônio biológico, alguns requisitos devem ser atendidos:
1. Os sinais de saída de um neurônio devem ser alterados, segundo um peso próprio
da ligação entre o neurônio atual e cada neurônio da camada seguinte, simulando
as transformações que ocorrem com os sinais ao se propagarem pela região
sináptica. Ou seja, um sinal de entrada xj, pela sinapse j conectada ao neurônio k
deve ser multiplicado pelo peso wkj. O valor de wkj será positivo para uma sinapse
excitatória e negativo para uma sinapse inibitória;
2. Os sinais que chegam ao neurônio k devem ser somados, de forma a se combinar
linearmente todas as atividades de saída dos neurônios da camada anterior que o
estão excitando;
3. O neurônio k deve ter um mecanismo que permita processar os sinais de entrada de
forma a simular o aumento do potencial elétrico do neurônio biológico e formular
o sinal de saída, ou seja, uma função de ativação;
69
4. A propagação do sinal de saída deve respeitar o valor do limiar de disparo a
exemplo do que acontece com os neurônios biológicos, de forma a se poder
aumentar ou diminuir o nível de atividade da rede.
5. O sinal de saída deve ser propagado a todos os neurônios da camada seguinte.
Em termos matemáticos, um neurônio k pode ser descrito pelo seguinte par de
equações:
∑=
⋅=p
jjkjk xwu
1( 4.1 )
( )kkk uo θϕ −= ( 4.2 )
onde:
x1, x2,..., xn são os sinais de entrada;
w1, w2, ..., wn são os pesos das sinapses do neurônio k;
uk é um combinador linear;
θk é o valor do limiar de disparo (threshold);
ϕ(.) é a função de ativação;
ok é o sinal de saída do neurônio.
A Figura 4.3 mostra de uma maneira esquemática a idealização de um neurônio
artificial.
HAYKIN, 1994, p. 9, propõe que o valor do limiar de disparo seja inserido como o
elemento 0 do vetor de pesos. Assim, para o neurônio k, o valor do limiar de disparo seria
obtido em wk,0 e as equações ( 4.1 ) e ( 4.2 ) seriam rescritas como:
∑=
⋅=p
jjkjk xwv
0( 4.3 )
( )kk vo ϕ= ( 4.4 )
70
.
.
.
wk1
wk2
wkn
x1
x2
xn
Σ vk ϕ(vk) yk
wk0
Figura 4.3 – Modelo de um neurônio artificial.
Conforme dito anteriormente, a grande capacidade de processamento paralelo do
cérebro humano confere às redes neurais biológicas uma altíssima velocidade de
processamento de informações. Assim, um alto grau de conectividade entre neurônios e de
processamento paralelo, além de uma capacidade de decomposição não linear dos sinais
recebidos e de aprendizado, são os fatores básicos que caracterizam a eficiência
computacional de uma rede neural artificial.
O processamento paralelo dos sinais recebidos pelo neurônio pode ser concebido tanto
sob forma de hardware como software. Sistemas operacionais desenhados para permitir que
diversos processos possam estar ativos ao mesmo tempo, permitem que se desenhe um
neurônio como um processo independente, ou uma classe.
Na geração da “rede”, no lugar de se gerar matrizes e vetores que conterão os valores
dos pesos e dos sinais de ativação de cada neurônio, criam-se vários processos independentes,
objetos, baseados na definição de uma classe “neurônio”. Cada objeto instanciado deve
possuir, além de outras, propriedades que definam o número de neurônios nas camadas
anteriores e posteriores, valores da taxa de aprendizagem, intervalo para geração dos valores
dos pesos sinápticos etc. As conexões entre os neurônios podem ser formadas através da
utilização de pipes, que são listas circulares. Cada vez que uma informação é gravada em um
pipe, o próprio sistema operacional sinaliza o processo “dono” do pipe, avisando-o da
chegada da nova informação.
71
A rede assim gerada utilizará do conceito de processamento paralelo, sob forma de
software, otimizando o aprendizado da mesma. Obviamente este cenário exige recursos de
memória e capacidade de processamento adequado ao tamanho da rede que será gerada, além
de controles muito mais sofisticados no desenvolvimento do software.
4.3 FUNÇÕES DE ATIVAÇÃO
Um neurônio biológico possui um estado de ativação que indica se o mesmo está ativo
(excitado) ou inativo (não excitado). Os neurônios artificiais também possuem diferentes
estados de ativação. Alguns, analogamente aos neurônios biológicos, possuem somente dois
estados, outros podem tomar qualquer valor dentro de um conjunto determinado.
As funções de ativação de um neurônio artificial reproduzem o ocorrido no corpo do
neurônio biológico onde os sinais de entrada são processados e, quando o valor do limiar de
disparo é atingido, um sinal de saída é gerado para todos os neurônios conectados da camada
seguinte.
Os estados de ativação dos neurônios artificiais são determinados pelas funções de
ativação que transformam a entrada global, resultado da soma de todos os sinais enviados por
neurônios da camada anterior, definido na equação ( 4.3 ), alterada pelo valor de um limiar de
disparo (threshold), em um valor ou estado de ativação cujo intervalo normalmente varia de 0
a 1 ou de –1 a 1. Assim, o valor de ativação determina se um neurônio artificial está
totalmente ativo (1) ou totalmente inativo (0 ou –1).
A escolha da função de ativação a ser utilizada por um neurônio será função:
1. Do tipo de rede;
2. Da função a ser desenvolvida pelo neurônio;
3. Da interpretação dos valores de saída da rede.
A seguir, serão apresentadas as principais funções de ativação utilizadas nas RNA
atuais.
72
4.3.1 Função degrau unitário (binary-threshold)
Esta função define, essencialmente, dois estados de ativação: ativou ou inativo. Sendo
o valor de vk definido pela equação ( 4.3 ), então a função assumirá os seguintes valores:
g(vk) = 1 se vk > 0
g(vk) = 0 se vk ≤ 0
Se o valor de ativação for positivo o neurônio produz um sinal de saída ativo (1), caso
contrário o sinal de saída será inibido (0), indicando ausência de suficiente estimulação no
sinal de entrada para romper o limiar de disparo θ (SKAPURA, 1996, p. 12). Esta função é
particularmente utilizada para detecção de padrões no conjunto de entradas utilizado.
0.4 0.2 0 0.2 0.4
0.2
0.4
0.6
0.8
1
Gráfico 4.1 – Representação gráfica da função degrau unitário
73
4.3.2 Função linear
A principal utilização da função linear está na obtenção da aproximação linear de uma
determinada função ( )xf . A função linear pode ser descrita como:
( ) 1−=kvg se vk ≤ -1/a
( ) kk vavg ⋅= se -1/a < vk < 1/a
( ) 1=kvg se vk 1/a
Se os valores de vk estiverem compreendidos no intervalo (–1/a, 1/a), a função
fornecerá como saída o valor kva ⋅ . Fora deste intervalo a saída é fixada em –1 e 1
respectivamente. Quando a for fixado em 1, a saída será igual à vk. Sua aplicação está
destinada aos casos em que se deseja distribuir um sinal, sem alterações, para outras unidades
de processamento ou quando se deseja obter uma combinação linear dos sinais de entrada.
1 0.5 0 0.5 1
1
0.5
0.5
1
a = 0.5a = 1a= 2
Gráfico 4.2 – Comportamento de função linear variando-se os valores de a.
74
4.3.3 Função Sigmóide
A função sigmóide é, atualmente, a função de ativação mais utilizada na construção de
redes neurais artificiais. É definida como uma função crescente com propriedades assintóticas.
Um exemplo de função sigmóide é a função logística, que é definida como:
( ))exp(1
1x
vg⋅−+
=λ ( 4.5 )
sendo λ o parâmetro de inclinação da função. O Gráfico 4.3 mostra a função sigmóide com
diferentes inclinações, variando-se λ. Pode-se notar que quando λ tende a infinito, a função
sigmóide tende a se comportar como a função degrau unitário. A função apresenta as
seguintes características:
1. preserva as características de monotonicidade e saturação;
2. assume valores contínuos entre 0 e 1;
3. é continuamente diferenciável;
4. a região de transição tende a existir perto do valor 0, porém pode ser alterada para
a direita ou para a esquerda variando-se o valor do parâmetro λ.
O elemento com função de ativação dado por ( 4.5 ) é conhecido como neurônio não
linear, sendo utilizado com sucesso em problemas envolvendo reconhecimento de padrões.
Segundo SARAIVA, 1997, p. 50:
[...] em quase todas as aplicações práticas envolvendo o uso do algoritmo“Backpropagation” (BPN), a camada intermediária (ou camada oculta) utilizaa função sigmóide como função de ativação. Um dos motivos para justificaressa preferência está no fato da derivada da função g(v) aproximar-se dezero na faixa de saturação, o que é bastante conveniente, tendo em vistaque no algoritmo BPN a fórmula para o cálculo do erro envolve a derivadade g(v).
Como visto anteriormente, a função degrau unitário possibilita a geração de dois
estados de saída: ativo e não ativo. A função sigmóide, por outro lado, possibilita um terceiro
estado de ativação do neurônio: um estado indefinido, em algum lugar entre o ativo e o
inativo, um estado de transição. Por fim, um sinal zero produz uma saída igual a 0,5 que
75
corresponde à metade do caminho entre os estados ativos e inativos. Esta não é uma situação
desejada, já que na maioria dos casos práticos o interessante é reduzir ao máximo a geração de
um estado inativo para o sinal de saída do neurônio.
1 0.5 0 0.5 1
0.2
0.4
0.6
0.8
parâmetro 1parâmetro 0.25parâmetro 0.5parâmetro 355parâmetro 0
Gráfico 4.3 - Comportamento de função sigmóide variando-se os valores de λ.
Em alguns casos práticos, quando for necessário que o sinal de saída esteja entre o
intervalo (-1, 1), pode-se utilizar a função tangente hiperbólica, definida na equação ( 4.6 ).
( ) ( )( )v
vvg−+−−
=exp1exp1
( 4.6 )
76
4.3.4 Função Gaussiana
A função gaussiana é muito utilizada quando se deseja classificar as amostras que
compõem o conjunto de treinamento em diferentes classes pré-definidas. Uma função
gaussiana típica assume a seguinte formulação:
( ) 21
σ−
=v
evg ( 4.7 )
O termo σ é o parâmetro de amortização da função. O Gráfico 4.4 mostra o
comportamento da função para valores de σ entre –1 e 1. O gráfico mostra que a função
gaussiana age como um filtro, permitindo que apenas as amostras que produzam ativação
dentro um intervalo muito pequeno passem, cancelando as demais entradas.
1 0.5 0 0.5 1
0.2
0.4
0.6
0.8
Gráfico 4.4 – Comportamento gráfico da função gaussiana.
Segundo SKAPURA, 1996, p. 21, os pesos relativos às conexões entre neurônios
gaussianos agem como seletores. Quando a camada que estiver alimentando um neurônio
gaussiano produzir um sinal de saída que confira com o peso da conexão com o neurônio em
questão, a função detectará esta convergência e gerará um sinal indicando que esta ocorreu.
77
4.4 SINAPSES ARTIFICIAIS
A região intersináptica de uma RNA pode ser expressa em termos de uma matriz de
pesos entre os neurônios de duas camadas. A Figura 4.4 mostra de uma maneira esquemática
esta definição. Cada linha da matriz corresponde aos pesos a serem aplicados na propagação
do sinal ao neurônio da camada posterior, correspondente àquela linha. Ou seja, ao neurônio 1
da camada h, N[h1], deverão ser aplicados os pesos correspondentes à linha 1 da matriz de
pesos.
Assumindo que a camada i seja a camada anterior à camada h e que todos os neurônios
da camada i deverão propagar seus sinais para todos os neurônios da camada h, então a matriz
de pesos terá dimensão (número de neurônios da camada i) x (número de neurônios da
camada h).
O valor da função de ativação de cada neurônio (Ni1, Ni2, ..., Nin) deverá ser
multiplicado pelo correspondente peso do neurônio Nh. Os valores resultantes serão somados
e transferidos ao neurônio Nh como seu sinal de entrada de acordo com a equação ( 4.3 ).
.
.
.
.
.
.
.
.
.
...
...
.
.
.
X X X Σ
.
.
.
ΣX X X
w[1][ h1 ] w[1][ h2 ] w[1][ hn ]N[ i1 ]
N[ i2 ]
N[ in ]
N[ h1 ]
N[ hn ]w[n][ h1 ] w[n][ h2 ] w[n][ hn ]
Figura 4.4 – Região intersináptica de uma rede neural artificial.
78
A geração da matriz de pesos deverá preceder os demais passos do algoritmo de uma
RNA. Alguns autores propõem a geração desta matriz em um módulo separado, passando-a
como parâmetro à rotina de controle principal.
Os valores de cada peso deverão ser compostos por números pseudo-aleatórios
uniformemente distribuídos em um intervalo fixo. O valor do intervalo deverá ser selecionado
de acordo com o tipo de experimento que se deseja avaliar com a RNA. Na literatura,
encontram-se valores sugeridos que variam desde (-1,1) até (-0.1,0.1). A obtenção destes
valores é puramente empírica e é parte do processo de treinamento da RNA.
EBERHART, 1990, p. 53, sugere que para RNA auto-ajustáveis, como as redes
Hopfield, os valores dos pesos gerados sejam normalizados. Apesar de não haver um
consenso a respeito de como esta normalização deve acontecer, CAUDILL10 apud
EBERHART, 1990, p. 54, sugere que sendo w’ij o vetor pseudo-aleatório inicial gerado para
um intervalo (0,1), então os pesos normalizados wij serão obtidos por:
( ) 21
0
2'
'
⎥⎦
⎤⎢⎣
⎡=
∑=
in
iij
ijij
w
ww ( 4.8 )
Durante a fase de treinamento, a matriz de pesos é ajustada de acordo com o algoritmo
utilizado. Ao final do treinamento, a matriz de pesos final será responsável por fornecer os
valores que permitirão à RNA, uma vez fornecidos valores de entrada, convergir para as
saídas equivalentes. Este “caminho” pode ser entendido como uma regra de aprendizado que
pode ser obtida sob forma de uma função dos valores de entrada (itens 4.5.1 e 4.10) através de
algoritmos diversos.
4.5 CONJUNTO DE TREINAMENTO
A principal característica das RNA é de aprender a generalizar um modelo real do
ambiente em que ela se insere de forma a poder, baseada em informações a respeito deste
ambiente, chegar a soluções aproximadas do problema que se estuda. Logo, o treinamento de
uma RNA deve ser conduzido com informações que melhor representem o mundo externo,
79
incluindo suas imperfeições, para que sua capacidade de generalização possa estar em perfeita
sintonia com este ambiente externo.
O grupo de informações fornecidas às RNA é denominado de conjunto de treinamento
e é composto por pares de vetores, amostras, que constituem os valores de entrada para o
problema em estudo e suas respectivas saídas. No capítulo 3 estudou-se um exemplo de
determinação da confiabilidade estrutural de um sistema representado pela equação de falha (
4.9 ).
( ) MZYMZYG −⋅=,, ( 4.9 )
Esta equação utiliza três variáveis de entrada e fornece uma única solução para o
problema. Se esta equação for utilizada para geração de um conjunto de treinamento de uma
RNA, cada amostra a ser apresentada à rede será composta de um vetor X, com os valores das
variáveis Y, Z e M, de dimensões 1x3 e um vetor Y, com a solução de ( 4.9 ), de dimensões
1x1.
Como dito anteriormente, os valores devem ser representativos do problema em estudo
e devem ser capazes de fornecer situações em que a estrutura se encontra dentro e fora da
região de falha definida por ( 4.9 ), como apresentado na discussão sobre a definição do índice
de confiabilidade, capítulo 2, item 0.
Na formação do conjunto de treinamento deve-se ter especial atenção em três pontos:
na seleção dos valores de entrada e saída; na sua forma de apresentação e na quantidade de
amostras a ser utilizada.
SARAIVA, 1997, p.109-120, analisa em detalhes estes três pontos e fornece valores
comparativos, entre três diferentes experimentos, que mostram a variação que ocorre nos
resultados finais obtidos dependendo do tamanho do conjunto de treinamento utilizado e da
representatividade dos valores selecionados. A seguir, estes três pontos, cruciais para o
perfeito treinamento de uma RNA, serão discutidos.
10 M. Caudill, Neural networks primer, part IV. AI Expert, 61-67 (August 1988)
80
4.5.1 Seleção dos valores de entrada e saída
O conjunto de treinamento deve ser estabelecido baseado na observação do
comportamento do ambiente em que a RNA estará inserida. Para que a representação do
modelo em estudo pela RNA seja coerente com o modelo real, a dispersão entre os diversos
valores fornecidos deve ser coerente com o tipo de estudo que se estiver realizando.
Isto significa que um bom conhecimento do comportamento estatístico das variáveis
envolvidas na análise, comportamento este que pode ser avaliado através de parâmetros como
sua média e variância, e da amplitude dos valores envolvidos no problema analisado é de
suma importância para a elaboração do conjunto de treinamento, pois fornece a dispersão
encontrada no modelo real, seja por meio de conhecimentos anteriores seja por meio de
elaboração de experimentos em laboratório.
Desta forma, para cada experimento deve-se estabelecer um intervalo de confiança que
seja representativo do estudo em questão e remover do conjunto de treinamento os valores
que estejam fora deste intervalo. Este procedimento reduz o tempo de treinamento da rede já
que estes valores extremos não são característicos do domínio do problema.
Um outro ponto a ser considerado diz respeito ao número de variáveis utilizadas na
análise, que influenciará no tamanho da cada amostra do conjunto de treinamento. A
utilização de analises estatísticas e dimensionais permitem combinar o número de variáveis
de forma a ser criar um subconjunto representativo do estudo. SWINGLER11 apud RAFIQ,
2001, p.1547, sugere um método para redução da dimensão do conjunto de treinamento.
O método baseia-se no treinamento de uma RNA com um conjunto de treinamento
grande e poucos neurônios na camada oculta. Se os pesos sinápticos forem inicializados com
valores aleatórios pequenos haverá muito pouca alteração nos pesos das variáveis menos
importantes. Estas variáveis poderão então ser descartadas, se necessário.
No item 4.11 deste documento, será apresentado um método proposto por GOH, 1995,
para determinação, em termos percentuais, da participação de cada variável de entrada no
treinamento da rede.
4.5.2 Apresentação do conjunto de treinamento
Após o processamento do conjunto de entradas, a RNA convergirá para valores de
saída correspondentes.
81
Estes valores serão comparados com os valores fornecidos pelo conjunto de saídas
para determinação do erro relativo obtido na tentativa de aprendizado da rede.
O treinamento só será considerado encerrado quando a diferença entre valores obtidos
pela RNA e os valores de saída fornecidos for considerada satisfatória. Isto é, no ponto em
que a rede mantém um nível de abstração que a permite convergir para os valores de saída
dado um conjunto de entrada, sem se tornar extremamente especialista.
As funções de ativação estudadas anteriormente fornecem sua saída dentro de um
determinado intervalo: (-1,1) para as funções Linear e Gaussiana e (0,1) para as funções
Degrau Unitário e Sigmóide.
Desta forma, a saída fornecida por uma RNA após processado todos os valores de
entrada, será compatível com o intervalo fornecido pela função de ativação utilizada, ou seja,
para os casos estudados, (-1,1) ou (0,1).
Torna-se conveniente então, que os valores do conjunto de treinamento estejam dentro
do mesmo intervalo de trabalho da função de ativação utilizada pela RNA. Ou seja, deve
haver uma normalização do conjunto de treinamento antes do processamento do mesmo.
Uma formulação bastante aceita para normalização dos valores de entrada baseia-se
nos valores extremos da variável em estudo, xmax e xmin. Cada valor x da variável X será
normalizado utilizando-se a equação ( 4.10 ).
( )( )minmax
min
xxxxxnomalizado −
−= ( 4.10 )
O problema desta formulação é que ela gera muitos valores próximos de 0 e 1, ou seja,
próximos aos valores extremos da função sigmóide.
Alguns autores preconizam que o treinamento se dará de uma maneira mais rápida se
os valores normalizados estiverem afastados dos extremos 0 e 1. A equação ( 4.11 ) apresenta
uma outra estratégia de normalização que visa atender esta proposta.
11 SWINGLER, K. Applying neural networks: A pratical guide. New York. Academic Press, 1996.
82
Cxx nnomalizado +⎟⎠⎞
⎜⎝⎛=
21
10( 4.11 )
onde C é uma constante, geralmente entre –0.25 e 0.25, que garante que os valores
normalizados estejam no intervalo entre 0.2 e 0.8, e a variável n assume o número de dígitos
da parte inteira da variável x. Assim, para um valor de x igual a 234.98, n assumirá o valor 3
(RAFIQ, 2001, p.1547).
Algumas implementações de RNA utilizam como primeira fase a normalização dos
valores do conjunto de treinamento apresentado, outras exigem que o conjunto fornecido já
esteja normalizado.
4.5.3 Quantidade de amostras do conjunto de treinamento
Infelizmente não existe uma regra padrão que defina o tamanho do conjunto de
treinamento. O importante é que ele seja representativo do problema em estudo. Segundo
SARAIVA, 1997, p. 118, o sucesso na obtenção do conjunto de treinamento dependerá em
muito da experiência anterior do analista, que deverá possuir pelo menos uma idéia da
amplitude total dos valores de falha ( )XG .
Em geral, o conjunto de treinamento gerado é dividido em duas partes: uma parte é
utilizada para o treinamento da rede e a segunda para testar a capacidade de convergência da
rede treinada.
O teste realizado com o subconjunto de testes serve para avaliar se o erro relativo entre
os valores esperados e os efetivamente fornecidos pela rede treinada estão dentro de um
padrão admissível para o experimento em questão.
4.6 CLASSIFICAÇÃO DAS REDES NEURAIS
A classificação das redes neurais poderá ser feita da seguinte forma:
83
• Quanto ao número de camadasMonocamada
Multicamada
• Quanto ao tipo de algoritmo de treinamentoSupervisionado
Não supervisionado
• Quanto ao tipo de conexão entre os neurôniosRecorrentes
Não recorrentes
• Quanto à conectividadeCompletamente conectada
Parcialmente conectada
4.6.1 Redes monocamada
São redes que não possuem a camada oculta. Os sinais passam diretamente da camada
de entrada para a camada de saída. Em geral o fluxo do sinal segue em uma única direção, ou
seja, não há realimentação da rede. O Perceptron original proposto por Rosemblatt é um
exemplo de Rede Monocamada.
4.6.2 Redes multicamadas
São redes que possuem uma ou mais camadas de neurônios entre a camada de entrada
e a camada de saída. Esta camada intermediária é conhecida como camada oculta. Os
neurônios da camada oculta têm a função de “interferir” no sinal enviado da camada de
entrada para a camada de saída, modificando-os com os pesos correspondentes. Adicionando-
se mais neurônios à camada oculta, a rede passa a extrair estatísticas de alta-ordem, o que é
particularmente interessante quando o tamanho da camada de entrada é grande.
Quando os neurônios recebem sinais da camada anterior e os propagam para a camada
posterior têm-se uma rede não recorrente (“feedforward”). Quando os neurônios de uma
camada também propagarem seus sinais para a camada anterior, diz-se que a rede possui um
fluxo de realimentação. São as chamadas redes recorrentes.
84
4.6.3 Redes não recorrentes
Este tipo de rede não possui conexão de realimentação. O fluxo da informação segue
da camada de entrada passando pelas camadas ocultas, caso existam, até atingir a camada de
saída. O encaminhamento do sinal na rede é progressivo ou direto (“feedforward”). A rede é
estável. As redes com função de base radial e as redes Perceptron são exemplos de redes não
recorrentes.
4.6.4 Redes recorrentes
Este tipo de rede possui conexões de realimentação. As conexões de realimentação
originam-se dos neurônios da camada oculta e dos neurônios da camada de saída. De uma
forma geral, se existe uma conexão do neurônio Ni com o neurônio Nj, também existe uma
conexão do neurônio Nj com o neurônio Ni, ambas com o mesmo peso, isto é, wij = wji. As
redes recorrentes são bastante empregadas em problemas de otimização. A rede Hopfield é
um exemplo de RNA recorrente.
4.6.5 Algoritmos de aprendizado
Segundo ROITMAN, 2001, p. 26:
“O algoritmo de aprendizado está associado aos procedimentos bemdefinidos, utilizados no treinamento, para adaptar os parâmetros de umaRNA, de forma que ela possa aprender uma determinada função levandoem consideração também sua arquitetura e sua topologia.”
Os algoritmos de aprendizado podem ser classificados como: treinamento
supervisionado ou auto-associativo e treinamento não supervisionado ou hetero-associativo.
No aprendizado supervisionado a rede aprende com um conjunto de treinamento
composto por entradas e saídas de mesma natureza. A rede aprende a associar padrões, como
é o caso do algoritmo Backpropagation. No aprendizado não supervisionado não se conhece a
saída desejada para um determinado vetor de entrada. As sinapses são ajustadas de tal maneira
a tornar possível o agrupamento das entradas de acordo com as suas principais características
85
4.6.6 Conectividade
A conectividade de uma RNA está associada a sua topologia, isto é, diz respeito às
conexões e a disposição dos neurônios (ROITMAN, 2001, p. 26). Quando todos os neurônios
de uma camada comunicam-se com os neurônios da camada seguinte, a rede é dita
completamente conectada, caso contrário, parcialmente conectada. As conexões podem ser:
1. Laterais: entre neurônios da mesma camada;
2. Intercamadas: entre neurônios de camadas diferentes;
3. Auto-excitatórias: partem e atingem o mesmo neurônio.
4.6.7 Combinação das diversas características das Redes Neurais.
A combinação destas características citadas dá origem a vários tipos de RNA.
ROITMAN, 2001, em seu trabalho analisa redes neurais que trabalham com o conceito de
variação de tempo (séries temporais) e avalia as Redes Neurais com Atraso de Tempo, Redes
Neurais com Tempo Adaptável Continuamente, Redes Neurais de Regressão Generalizada e
Redes Neurais com Função de Base Radial.
SKAPURA, 1996, analisa as Redes de Elman e Jordan além das Redes Neurais
Probabilísticas.
HERTZ12, apud SARAIVA, 1997, p. 78, estuda a Rede Recorrente de Hamming,
vantajosa como classificador de padrões, assim como a Rede de Hopfield. Essa rede trabalha
com um critério de proximidade conhecido como distância de Hamming, que nada mais é do
que o número de bits em que um determinado vetor de entrada difere de um vetor armazenado
na memória.
4.7 PERCEPTRON
O Perceptron é uma rede neural simples proposta por Rosemblatt no final da década de
50. O seu objetivo é separar um conjunto de valores de entrada x1, x2, ..., xn, em duas classes:
C1 e C2. Se o valor de saída do Perceptron for +1 o valor de entrada será atribuído à classe
C1. Se o valor de saída do Perceptron for –1 o valor de entrada será atribuído à classe C2.
12 HERTZ, J., KROGH, A. , PALMER,R.G. – “Introduction to the theory of neural computation”,Addison-Wesley Publishing Company, New York, 1991.
86
O Perceptron original é uma Rede Neural monocamada com apenas um neurônio na
camada de saída.
O modelo do neurônio utilizado por Rosembleatt assemelha-se ao proposto nas
equações ( 4.1 ) e ( 4.2 ), com a única diferença que não há necessidade da utilização do
índice k, já que a rede possui apenas um neurônio.
Rosemblatt utilizou-se do princípio de treinamento hebbino, proposto por Hebb em
1949, para compor o treinamento do Perceptron.
Hebb propôs um sistema de aprendizado em que a intensidade das conexões sinápticas
é alterada em função de erros detectados localmente. Assim, para o i-ésimo passo, os
parâmetros wi são alterados da seguinte maneira:
www ATERIORi
ATUALi ∆+=
iii xoyw ⋅−⋅=∆ )(η
( 4.12 )
onde:
w - são os pesos das conexões sinápticas;
xi - o i-ésimo valor de entrada;
yi - o i-ésimo valor de saída;
oi - o valor de saída do discriminador linear no i-ésimo passo;
η - a taxa de aprendizado, que indica a taxa com que os pesos são alterados emfunção dos erros (yi – oi).
O discriminador linear proposto por Hebb utiliza um neurônio binário com a função
degrau unitário, analisada no item 4.3.1, também representada pelo uso da função sinal (sgn).
O valor de saída oi é exatamente a saída da função sgn em relação produto do valor xi pelo
peso sináptico correspondente, wi .
87
( )⎟⎠
⎞⎜⎝
⎛−⋅= ∑
=
n
i
ANTERIORli
ANTERIORil xwo
1,sgn θ ( 4.13 )
Rosemblatt utilizou o principio de Hebb para alterar os pesos sinápticos de um
discriminador linear. Para explicar o funcionamento do Perceptron de Rosemblatt, deve-se
tomar um conjunto de treinamento X, que possua valores pertencentes a uma classe C1 e
valores pertencentes a uma classe C2. Segundo HAYKIN, 1994, p. 109, se as classes C1 e C2
são linearmente separáveis existe um vetor de pesos w tal que:
0≥⋅ xwT para todos os valores do vetor X pertencentes à classe C1
e
0<⋅ xwT para todos os valores vetor X pertencentes à classe C2
A equação ( 4.12 ) mostra que se o valor do neurônio de saída, na i-ésima classificação
for igual ao valor desejado, nenhuma correção dos pesos é efetuada, já que os valores de ∆w
serão zerados. Se os valores forem diferentes, os pesos serão alterados pela seguinte regra de
atualização:
[ ] ( ) ( ) ( )nxnnwnw ⋅−=+ η1 se ( ) ( ) 0≥⋅ nxnwT e ( )nx pertence à classe C2
e
[ ] ( ) ( ) ( )nxnnwnw ⋅+=+ η1 se ( ) ( ) 0<⋅ nxnwT e ( )nx pertence à classe C1
HAYKIN, 1994, p. 110-112 e KOVÁCS, 2002, p. 44-48 et al, demonstram a
convergência do algoritmo proposto por Rosemblatt. O seu modelo simples proposto foi
duramente criticado, como já dito anteriormente, por Mynsky e Pappert em 1969, que
enfatizaram as limitações do Perceptron como a incapacidade de implementar o OU exclusivo,
88
XOR, por não ser este linearmente separável. Este fato praticamente encerrou as pesquisas
sobre redes neurais até a década de 80. O renascimento deu-se especialmente a partir de 1986
com a publicação do texto de Rumelhart intitulado “Parallel Distributed Processing”. O
trabalho de Rumelhart introduziu novas arquiteturas de rede que não possuíam as limitações
apontadas por Minsk, além de popularizar o mais importante algoritmo das redes neurais, o
Backpropagation.
4.8 PERCEPTRONS MULTICAMADAS
A resolução de várias limitações do Perceptron de Rosemblatt, como a resolução da
função XOR, pode ser atribuída à inclusão de uma camada oculta, alterando a topologia do
Perceptron de monocamada para multicamada. DENNIS, 1997, propõe a seguinte discussão
em relação à utilização de camadas ocultas na resolução, principalmente do clássico problema
da função XOR.
A análise do OR, AND e XOR, sob um ponto de vista bidimensional pode ser
representada geometricamente colocando-se os valores de entrada, binários, como vértices de
um quadrado (Figura 4.5).
0
100
0 1
1
11
0
1
0
AND OR XOR
Figura 4.5 – Representação geométrica do AND, OR e XOR.
Fonte: DENNIS, 1997.
Do ponto de vista geométrico, o Perceptron tenta solucionar os problemas AND, OR e
XOR utilizando uma linha reta que separa duas classes de entrada: Classe 1, em um dos lados
da linha e Classe 2, do outro lado da linha. O processo discutido no item 4.7 torna fácil esta
análise para as funções AND e OR, mas não para o XOR.
89
Em uma versão tridimensional do problema, Figura 4.6, as duas primeiras entradas
correspondem à função XOR e a terceira entrada é o AND das duas anteriores. Desta forma, a
entrada 3 conterá 1 (verdadeiro), apenas quando as entradas 1 e 2 também possuírem 1. Esta
abordagem torna possível separar as duas classes originalmente projetadas. Uma forma de
tornar o problema linearmente separável com o Perceptron é adicionando uma camada extra
entre a camada de entrada e a de saída, ou seja, uma camada oculta. Com o número suficiente
de camadas ocultas é possível transformar qualquer problema complexo em um problema
linearmente separável.
0000101010010111
321 SaídaEntradaEntradaEntrada
Entrada 1 Entrada 2 Entrada 3
w1 w2 w3
Saída
Figura 4.6 – Versão tridimensional do problema XOR.
Fonte: DENNIS, 1997.
O modelo de treinamento do Perceptron monocamada não se aplica a este novo
modelo. O algoritmo mais utilizado para treinamento de redes Perceptron Multicamadas é o
Backpropagation.
Tudo o que foi discutido neste capítulo a respeito da topologia de uma rede neural
multicamada, Figura 4.2, da formulação do neurônio artificial, da propagação dos sinais
gerados pelos neurônios pela camada intersináptica e da utilização da função sigmóide como
uma função de ativação não linear, encaixa-se no contexto do Perceptron multicamada com
algoritmo de treinamento Backpropagation.
O Backpropagation é o algoritmo implementado neste trabalho para análise de
confiabilidade de sistemas estruturais utilizando-se o método Monte Carlo e redes neurais. O
desenvolvimento do software proposto é discutido em detalhes no capítulo 5.
90
4.9 O ALGORITMO BACKPROPAGATION
O algoritmo Backpropagation baseia-se no método do Gradiente Descendente, ou
Regra Delta, estabelecida por Widrow em 1962 no trabalho Generalization and Information
Storage in Networks of Adaline Neurons e mais tarde reavaliada por Rumelhart, Hinton e
Williams, em 1986, que através da utilização de funções de ativação não lineares
generalizaram a Regra Delta de Widrow para ser utilizada em RNA Multicamadas. O ponto
central do algoritmo está na utilização da regra da cadeia para a derivação da função de
ativação que definirá a sensibilidade desta em relação ao estado interno e aos pesos da rede.
Os erros entre a saída estabelecida pela rede e os valores de saída fornecidos pelo conjunto de
treinamento são propagados de volta para cada neurônio da rede, calculando-se os gradientes
de seus pesos. O aprendizado progride alternando-se a propagação dos sinais de ativação e a
retro-propagação dos erros instantâneos obtidos na camada de saída da rede.
4.9.1 A regra delta
A Regra Delta baseia-se na pesquisa do ponto de mínimo utilizando-se o conceito do
gradiente descendente. O conceito de taxa de aprendizado utilizado na análise do Perceptron
será utilizado no desenvolvimento da Regra Delta. Para o perfeito entendimento do processo,
as seguintes padronizações serão utilizadas:
j - Índice do neurônio da camada anterior, que enviou um sinal de ativação.
k - Índice do neurônio da camada que está recebendo um sinal de ativação.
p - Indica o processamento da amostra p, pattern, do conjunto de treinamento.
kg - sinal de entrada para o neurônio k.
ko - sinal de saída do neurônio k.
η - a taxa de aprendizado, definida em ( 4.12 ).
x - vetor com os valores de entrada do conjunto de treinamento.
y - vetor com as respectivas saídas do conjunto de treinamento.
n - número de interações do processo de treinamento
P - número total de amostras do conjunto de treinamento.
91
O sinal recebido por um neurônio k, oriundo de um neurônio j, foi definido pela
equação ( 4.3 ) e seu respectivo sinal de saída pela equação ( 4.4 ).
O sinal de erro na saída de um neurônio k na interação n é definido como:
pkpkpk oye −=
O valor instantâneo do erro quadrático do neurônio j é definido como:
2
21
pke⋅
O valor pE correspondente à soma de todos os erros quadráticos dos neurônios da
camada de saída, os únicos neurônios visíveis para os quais os erros podem ser calculados, é
então definido por:
∑⋅=k
pkp eE 2
21
( 4.14 )
O erro quadrático médio será então definido como:
∑∑⋅⋅
=p k
pkeP
E 2
21
( 4.15 )
O objetivo do algoritmo é minimizar o erro quadrado médio para todo o conjunto de
treinamento.
Para a determinação do ponto de mínimo deve-se derivar a função de erro em relação
aos pesos da rede e alterá-los de acordo com ( 4.16 ), que define a regra Delta de Widrow.
92
O sinal negativo indica a pesquisa pelo gradiente descendente no espaço dos pesos
sinápticos.
kjkj w
Ew∂∂
⋅−=∆ η ( 4.16 )
Pela regra da cadeia, evolui-se a equação ( 4.16 ):
kj
k
kkj wg
gE
wE
∂∂
⋅∂∂
=∂∂
Aplicando-se ( 4.3 ), obtêm-se:
( ) jjkjkjkj
k oowww
g=
∂∂
=∂∂ ∑ ( 4.17 )
Definindo δpk como sendo:
kpk g
E∂∂
−=δ ( 4.18 )
então:
jpkkj o⋅⋅=∆ δη( 4.19 )
93
Os pesos de cada conexão i, cada linha da matriz de pesos, devem ser alterados por um
valor proporcional ao produto de δk, disponível para o neurônio que recebe os sinais desta
conexão, pelo valor de ativação oj ao longo desta conexão.
A determinação de δk é um processo recursivo. A regra da cadeia pode ser utilizada
para expressar δk em função de dois fatores: a taxa de alteração do erro em relação à saída ok e
a taxa de alteração da saída do neurônio k em relação ao seu sinal de entrada. Assim:
k
k
kkpk g
ooE
gE
∂∂
⋅∂∂
−=∂∂
−=δ ( 4.20 )
Porém:
)( kkk
oyoE
−−=∂∂
( )kkk
k gfgo ′=
∂∂
( 4.21 )
Substituindo-se ( 4.21 ) em ( 4.20 ) vem que:
( ) ( )kkkkpk gfoy ′⋅−=δ( 4.22 )
E para um neurônio k na camada de saída, ∆w será dado por:
( ) ( ) jpkjkkkkji oogfoyw ⋅⋅=⋅′⋅−⋅=∆ δηη( 4.23 )
94
De uma forma similar, para um neurônio da camada oculta:
ipjji ow ⋅⋅=∆ δη
( ) ∑ ⋅⋅′=k
kjpkjjpj wgf δδ
( 4.24 )
O algoritmo apresentado envolve duas fases: na primeira fase o conjunto de
treinamento completo é propagado pela rede em direção à camada de saída (feedforward),
fato denominado por época do treinamento, e os erros δ são computados e acumulados; na
segunda fase, os valores de ∆w são calculados e os pesos alterados no sentido inverso da
propagação dos sinais de entrada (backpropagation). Este tipo de algoritmo, em que todo o
conjunto de treinamento é processado, acumulando-se os valores de δ e só então alterando os
pesos das sinapses é denominado de treinamento batch.
A retro-ropagação do ajuste dos pesos pode também ser efetuada após cada amostra
ser propagada até a camada de saída. Este método é conhecido como treinamento online.
Neste caso, ao invés de se utilizar o erro quadrático médio, equação ( 4.15 ), utiliza-se o erro
instantâneo definido por ( 4.14 ). Segundo HAYKIN, 1994, p.152-153, a escolha do método a
ser utilizado depende do problema em questão.
4.9.2 A regra delta generalizada
O algoritmo Backpropagation baseia-se na técnica do gradiente descendente que visa
encontrar o ponto de mínimo global da superfície de erro. Caso esta superfície seja muito
complexa, é possível que existam vários pontos de mínimos locais, e que o algoritmo fique
preso em um destes mínimos locais. Isto provavelmente ocorrerá com a utilização de uma
taxa de aprendizado η muito pequena, pois as alterações aplicadas aos pesos sinápticos são
proporcionais à η. Por outro lado, aumentando o valor de η, a rede poderá oscilar muito se
tornando instável.
Uma maneira de se aumentar à taxa de aprendizado sem causar oscilações é
utilizando-se o conceito de momento, multiplicando-se a variação dos pesos sinápticos da
95
interação anterior por um fator denominado α. A constante de momento α pode assumir
valores no intervalo (0,1). Sua função é controlar o ajuste dos pesos sinápticos agindo na
variação da interação anterior. Então a equação ( 4.23 ) pode ser escrita da seguinte forma:
ANTERIORjijpk
NOVOji wow ∆⋅+⋅⋅=∆ αδη
( 4.25 )
A equação ( 4.25 ) representa a regra delta generalizada, que para um caso especial,
com α igual à zero, é a regra delta.
4.9.3 A função sigmóide e o Backpropagation
O termo ( )jj gf ′ que aparece no cálculo dos valores de δ, equações ( 4.22 ) e ( 4.24 ),
refere-se à derivada da função de ativação dos neurônios da rede. Para que esta derivada
exista a função de ativação deverá ser contínua.
A função de ativação mais utilizada nas redes Perceptron Multicamadas é a função
sigmóide, expressa pela equação ( 4.5 ). A utilização desta função faz com que a amplitude
dos sinais de saída de um neurônio oscile no intervalo (0,1). Escrevendo a equação ( 4.5 ) em
função do sinal de ativação do neurônio k, e com o parâmetro λ da função sigmóide fixado em
1, tem-se:
( ))exp(1
1
kk o
o−+
=ϕ ( 4.26 )
A derivada primeira de ( 4.26 ) é:
( ) ( ) ( )kkkkk oogfo −⋅=′=′ 1ϕ( 4.27 )
96
A equação ( 4.27 ) mostra que ( )koϕ′ assume o valor máximo para ok = 0.5 e o valor
mínimo para ok = 0 ou ok = 1. Como a alteração dos pesos sinápticos da rede é proporcional
ao valor de ( )koϕ′ , consequentemente com uma função de ativação sigmoidal os pesos
sinápticos terão maior alteração para os neurônios com valor de ativação igual a 0.5. Segundo
HAYKIN, 1994, p.149, esta propriedade contribui para a estabilidade do Backpropagation
como um algoritmo de treinamento.
4.9.4 Implementação
Diversas propostas para melhoria do algoritmo básico do Backpropagation podem ser
encontradas na literatura. HAYKIN, 1994, p. 192-220, propõe, entre outras, a utilização da
regra Delta-Bar-Delta, na qual a taxa de aprendizado é alterada durante a fase de treinamento,
e a utilização de lógica fuzzy no auxílio a melhoria da convergência da rede aos valores de
saída.
WERBOS, 1990, propõe uma alteração no algoritmo para que este possa reconhecer
padrões de valores que variam com o tempo, permitindo a rede trabalhar com processos
estocásticos.
O item 10.3 do apêndice deste documento mostra o desenvolvimento do
Backpropagation no Mathcad. A base do algoritmo está de acordo com a proposta de
EBERHART, 1990, p. 331-344, e reproduz fielmente a teoria básica apresentada do BPN.
4.10 EXTRAÇÃO DE REGRAS
A extração das regras de uma rede neural treinada desempenha um papel importante
na representação de funções complexas como elementos de fácil compreensão. As regras
podem ser utilizadas em sistemas especialistas permitindo conclusões valiosas a respeito de
uma determinada investigação.
HENCKEL estudou o algoritmo para extração de regras de uma rede Backpropagation
baseado nos pesos sinápticos e nos valores dos limiares de ativação, thresholds, obtidos após
o treinamento da rede.
O algoritmo converte a função desempenhada por um simples neurônio BP em um
conjunto de regras que permitem avaliar se o conhecimento adquirido pela rede está realmente
97
de acordo com o esperado, além de permitir uma explicação a respeito de como a solução
final foi encontrada, para cada conjunto de testes submetido à rede após o seu treinamento.
O desenvolvimento proposto baseia-se nas três seguintes premissas:
1. A função desempenhada por um neurônio BPN depende inteiramente de seus
pesos sinápticos e de seus limiares de ativação, portanto estas serão as únicas
informações utilizadas;
2. As entradas com pesos com maiores valores absolutos têm maior responsabilidade
no sinal de saída do neurônio;
3. A função de ativação sigmóide tende a 1 para grandes valores de ativação
positivos e tende a 0 para valores de ativação negativos.
As regras geradas assumirão duas formas distintas:
altaésaídaaentãose 1exp
baixaésaídaaentãose 1exp( 4.28 )
Onde exp1 e exp2 representam um conjunto de declarações a respeito das variáveis de entrada.
Os pesos associados a cada variável de entrada são denominados por wi e o valor do
limiar de ativação por θ. Partindo-se do princípio que a rede utiliza a função de ativação
sigmóide logística, sua saída estará no intervalo (0,1). Uma saída acima de 0.9 é geralmente
interpretada como 1, verdadeiro, e uma saída abaixo de 0.1 como 0, ou falso. Outros valores
são interpretados como ambíguos. Supondo que para um neurônio i, os pesos associados
sejam w = (5,4,-3,-2), convenientemente colocados em ordem decrescente, e θ = 2, então
avaliando os extremos, verifica-se que se i1 = 1 (maior que 0.9) e i4 = 0 (menor que 0.1) então
a rede será pelo menos (at least) 4 e as regras a seguir serão válidas:
altaésaídaaentãoieise 01 41 == Regra 4.1
98
baixaésaídaaentãoise 11 = Regra 4.2
A Regra 4.2 é uma regra de mínimo. Denominando por px uma declaração que pode
tornar a saída alta, então:
01 ≥= xxx wquandoiquesignificap
00 <= xxx wquandoiquesignificap
Sendo assim, a Regra 4.1 pode ser rescrita como:
altaésaídaaentãoppse 41 Regra 4.3
Definindo o termo mintotal como sendo a soma de todos os pesos negativos mais o
limiar de ativação (threshold), pode-se escrever uma função f como sendo:
( ) mintotalf =φ
( ) xx wtotalpf += min
( ) yxyx wwtotalppf ++= min
A função f é chamada função at least. No exemplo anterior, f(p1p4):
99
322323min −=+−−=+−−= θtotal
( ) 425341 =−++−=ppf
o que condiz com o resultado apresentado anteriormente. Quando f se aproxima de 0, a saída
pode ser ambígua. Quando f for maior que 2 a saída estará acima de 0.9. Sendo m o número
de sinapses de um neurônio na camada oculta e n o número de variáveis de entrada, as regras
podem ser definidas como combinações de:
nmondeppp xmxx ≤≤0,...,, 21
Para a extração das regras pesquisam-se as possíveis expressões da menor, ( )φf ,
quando 0=m , para a maior, ( )xmxx pppf ,...,, 21 . Como a totalidade de expressões da rede
forma uma árvore, de dimensão 2n, pesquisar as possíveis expressões significa percorrer a
árvore testando cada expressão. Se ( ) 2>xipf a expressão será bem sucedida, caso contrário
terá falhado. Dependendo do número de variáveis de entrada a árvore pode se tornar muito
grande para ser pesquisada sequencialmente. Logo, a utilização de métodos como Success
Pruning (poda por sucesso), Failure Pruning (poda por falha) ou uma combinação destes
agilizará o processo. Estes métodos estão descritos em detalhe por HENCKEL. Estudos
interessantes sobre extração de regras podem ser obtidos em ALEXANDRA, 1998, que
introduz uma abordagem teórica e comenta os algoritmos M-of-N e Subset e em GONZÁLEZ,
2002, que estuda a extração de regras baseado em algoritmos fuzzy.
4.11 IMPORTÂNCIA RELATIVA DAS VARIÁVEIS DE ENTRADA
Conforme discutido no item 4.5.1, um conjunto de treinamento deve se representativo
do problema a ser estudado, não deve conter valores que extrapolem os domínios das
variáveis de entrada e deve ter a dimensão suficiente para que a rede possa ser treinada a obter
100
soluções para o ambiente considerado. A última proposição diz respeito à utilização de
variáveis que não influenciam, ou influenciam muito pouco, no treinamento da rede. Estas
variáveis devem ser retiradas do conjunto de treinamento de forma a se obter um treinamento
menos custoso e menos sujeito às oscilações. GARSON13 apud GOH, 1995, p.150-151,
apresenta o método proposto para determinação da importância relativa de cada variável de
entrada, baseado no percentual de contribuição de cada variável nos valores finais dos pesos
sinápticos. O método baseia-se no particionamento dos pesos da camada de saída de cada
neurônio oculto em componentes associados com cada neurônio de entrada. O exemplo a
seguir foi extraído de GOH, 1995, p.150. A Tabela 4.1 mostra os pesos sinápticos de uma
rede treinada com três neurônios na camada de entrada, quatro neurônios ocultos e um
neurônio de saída.
Tabela 4.1 – determinação da importância de cada variável de entrada.
Pesos sinápticos
Neurônios ocultos Entrada 1 Entrada 2 Entrada 3 Saída
Neurônio 1 -1,67624 3,29022 1,32466 4,57857
Neurônio 2 -0,51874 -0,22921 -0,25526 -0,48815
Neurônio 3 -4,01764 2,12486 -0,08168 -5,73901
Neurônio 4 -1,75691 -1,44702 0,58286 -2,65221
O método resume-se aos seguintes passos:
1. Para cada neurônio i, multiplicar o valor absoluto dos pesos da camada de saída
pelo valor absoluto do peso sináptico da camada oculta. Repetindo-se este passo
para cada variável j de entrada, os seguintes produtos pij são obtidos:
Entrada 1 Entrada 2 Entrada 3
Neurônio 1 p11 = -1,67624 * 4,57857 p12 = 3,29022 * 4,57857 p13 = 1,32466 * 4,57857
Neurônio 2 P21 = -0,51874 * 0,48815 P22 = -0,22921 * 0,48815 P23 = -0,25526 * 0,48815
Neurônio 3 P31 = -4,01764 * 5,73901 P32 = 2,12486 * 5,73901 P33 = -0,08168 * 5,73901
Neurônio 4 P41 = -1,75691 * 2,65221 P42 = -1,44702 * 2,65221 P43 = 0,58286 * 2,65221
13 GARSON, G.D. Interpreting neural-network connection weights. AI Expert, 6(7) (1991) 47-51.
101
Entrada 1 Entrada 2 Entrada 3
Neurônio 1 p11 = 7,674782 p12 = 15,064503 p13 = 6,065049
Neurônio 2 P21 = 0,253223 P22 = 0,111889 P23 = 0,124605
Neurônio 3 P31 = 23,057276 P32 = 12,194593 P33 = 0,468762
Neurônio 4 P41 = 4,659694 P42 = 3,837801 P43 = 1,545867
2. Para cada neurônio oculto, dividir pij pela soma de todas as variáveis de entrada,
obtendo qij.
Entrada 1 Entrada 2 Entrada 3
Neurônio 1 q11 = p11/( p11+ p12+ p13) q12 = p12/( p11+ p12+ p13) q13 = p13/( p11+ p12+ p13)
Neurônio 2 q21 = p21/( p11+ p12+ p13) q22 = p22/( p11+ p12+ p13) q23 = p23/( p11+ p12+ p13)
Neurônio 3 q31 = p31/( p31+ p32+ p33) q32 = p32/( p31+ p32+ p33) q33 = p33/( p31+ p32+ p33)
Neurônio 4 q41 = p41/( p41+ p42+ p43) q42 = p42/( p41+ p42+ p43) q43 = p43/( p41+ p42+ p43)
Entrada 1 Entrada 2 Entrada 3
Neurônio 1 q11 = 0,266445 q12 = 0,522994 q13 = 0,210560
Neurônio 2 q21 = 0,517080 q22 = 0,228477 q23 = 0,254443
Neurônio 3 q31 = 0,645489 q32 = 0,341388 q33 = 0,013123
Neurônio 4 q41 = 0,463958 q42 = 0,382123 q43 = 0,153919
3. Para cada neurônio de entrada obter sj, formado pelo somatório dos valores de qij
anteriores.
Entrada 1 Entrada 2 Entrada 3
Neurônio 1 q11 = 0,266445 q12 = 0,522994 q13 = 0,210560
Neurônio 2 q21 = 0,517080 q22 = 0,228477 q23 = 0,254443
Neurônio 3 q31 = 0,645489 q32 = 0,341388 q33 = 0,013123
Neurônio 4 q41 = 0,463958 q42 = 0,382123 q43 = 0,153919
Soma s1=1,892972 s2 =1,474982 s3 = 0,632046
102
4. Dividir sj pela soma de todas as variáveis de entrada. Expresso como um valor
percentual, este número fornece a importância relativa ou distribuição de todos os
pesos de saída em relação às correspondentes variáveis de entrada.
Entrada 1 Entrada 2 Entrada 3
Importância relativa (%) (s1 * 100) / (s1 + s2 + s3) (s2 * 100) / (s1 + s2 + s3) (s1 * 100) / (s1 + s2 + s3)
Entrada 1 Entrada 2 Entrada 3
Importância relativa 47,32 % 36,87 % 15,80 %
4.12 UTILIZAÇÃO DAS REDES NEURAIS
A utilização das redes neurais em pesquisas de diversas áreas cresceu muito nas duas
últimas décadas. Neste item, destacam-se algumas pesquisas desenvolvidas na engenharia
civil, mais precisamente aquelas voltadas para a área de estruturas.
Os dois primeiros trabalhos serão detalhados de forma a mostrar como se dá a
elaboração das pesquisas envolvendo a utilização de redes neurais.
As demais pesquisas serão resumidas em um único item, provendo uma boa referência
bibliográfica da utilização de redes neurais na engenharia civil.
4.12.1 Detecção de danos em estruturas de pontes
PANDEY, 1995, propôs a utilização de um Perceptron multicamada com
backpropagation para identificação de elementos estruturalmente danificados em uma
estrutura de ponte formada por uma treliça metálica.
A Figura 4.7 mostra a estrutura proposta por PANDEY e as três áreas onde foram
simuladas alterações na rigidez das peças. O exercício proposto visou identificar os membros
das áreas danificadas e a alteração de sua rigidez como uma função da seção transversal de
cada peça. Com a ajuda de um software de elementos finitos, foi gerado um conjunto de
treinamento com 40 amostras de valores de entrada, correspondentes aos deslocamentos nos
nós 7, 8, 9, 10 e 11, onde foram aplicadas cargas concentradas, estáticas, de 100 Kg, e 40
saídas, correspondentes às áreas das seções transversais de cada barra da estrutura (21 barras).
103
Cada amostra era composta de 5 valores de entrada com 21 valores correspondentes de saída.
Além destes, outros 10 conjuntos foram gerados para testes da rede treinada.
PANDEY pesquisou duas arquiteturas de rede: uma rede com apenas uma camada
oculta, composta de 21 neurônios e outra com duas camadas ocultas, cada uma com 21
neurônios. Para ambas as redes PANDEY utilizou um fator de treinamento η de 0.9, um fator
de momento α de 0.9 e um erro percentual de 0.01.
Em sua conclusão, PANDEY constata que as redes foram capazes de determinar as
áreas danificadas da estrutura proposta e que a rede composta por duas camadas ocultas teve
melhor desempenho, destacando que dados obtidos de apenas alguns pontos de medição na
estrutura foram suficientes para o treinamento da rede.
7 8 9 10 11
Figura 4.7 – Estrutura estudada por PANDEY.
4.12.2 Análise de vigas de concreto reforçadas com fibra de carbono
IAN, 2001, propôs a utilização de redes neurais para a determinação do esforço
máximo admitido para vigas de concreto reforçadas com fibras de carbono, baseados em
dados experimentais. A idéia foi provar que a utilização das redes neurais na determinação
dos deslocamentos provocados pelos carregamentos aplicados às vigas reforçadas, é muito
104
mais rápida do que com a utilização de softwares de elementos finitos, dado o trabalho
exigido por estes softwares na elaboração do modelo gráfico dos elementos estruturais a
serem analisados.
Para a elaboração do conjunto de treinamento, IAN utilizou 10 vigas de dimensão
20x20 cm, com diferentes seções de armaduras de tração, reforçadas com fibra de carbono nas
laterais e na parte inferior. Um carregamento gradual foi aplicado às vigas, até a sua ruptura,
A carga aplicada foi sendo anotada a cada 5,08mm no incremento das deflexões das vigas,
obtendo um total de 254 observações, das quais 229 foram utilizadas para o conjunto de
treinamento e 25 (aproximadamente 10% das observações de cada viga) para o conjunto de
testes. A Figura 4.8 mostra o modelo das vigas utilizadas por IAN.
IAN utilizou uma rede neural com funções de base radial na sua análise com 50
neurônios na camada oculta. Após o treinamento, a rede conseguiu prever as deflexões das
vigas, para um dado carregamento, com um erro relativo de 0,9956% em relação ao modelo
real.
Em sua conclusão, IAN sugere que, dado a maior precisão dos valores fornecidos
pelos softwares de elementos finitos, uma solução híbrida pode ser definida: a utilização de
redes neurais para pesquisar a melhor configuração de reforço para as vigas e a utilização de
softwares de elementos finitos para avaliação do desempenho do sistema reforçado, utilizando
a rede, neste caso, como um elemento de tomada de decisão.
20 cm
20 c
m
Reforço comfibra de carbono
Figura 4.8 – Modelo de viga utilizada por IAN.
105
4.12.3 Outros trabalhos
A seguir, serão apresentadas, de uma forma mais resumida, outras pesquisas
envolvendo a utilização de Redes Neurais na engenharia civil.
• HADI, 2003, utilizou uma rede Backpropagation para determinação da seção
transversal, ótima, de vigas de concreto biapoiadas, visando redução de custos de
construção. Para o conjunto de treinamento utilizou-se o valor do momento fletor
máximo da viga, o fck do concreto, resistência do aço fyk, as dimensões máximas
da viga, o custo do concreto e do aço por metro quadrado e o custo das formas por
metro quadrado. Os valores correspondentes de saída foram: a taxa de armadura de
tração ótima, a área da seção transversal da armadura de tração ótima, a largura
ótima da viga e o custo ótimo por metro quadrado da viga. A rede utilizada possuía
5 neurônios na camada de entrada, 1 neurônio na camada oculta e quatro na
camada de saída. A taxa de aprendizado η, utilizada foi de 0.01 e o erro quadrático
máximo admitido foi de 0.0001. Foram utilizadas 50 amostras para o conjunto de
treinamento e o erro médio percentual encontrado foi de 2.71%. O maior problema
relatado foi a grande variância dos valores de saída do conjunto de treinamento
utilizado que determinou um grande trabalho nos ajustes das variáveis da rede de
forma a se obter os valores de saída da rede no domínio esperado.
• GOMES, 2005, estudou a detecção de danos em estruturas com redes neurais de
função de base radial. A montagem do conjunto de treinamento foi efetuada em
cima de uma viga de 2.4m de comprimento, módulo de elasticidade E=2.5x1010
N/m2, de seção retangular com altura h=0.24m e base b=0.14m. A viga foi
discretizada em 24 elementos. Um programa de elementos finitos foi utilizado para
simular os estados de danos induzidos na viga através da redução de sua inércia e
posterior avaliação das variações nas frequências naturais, simulando vários
cenários de danos. Utilizando o conceito de análise de sensibilidade modal,
GOMES gerou os conjuntos de treinamento e teste, cujas entradas foram as
variações dos quadrados das frequência naturais e as saídas os índices de danos em
cada elemento da estrutura, perfazendo um total de 433 amostras. Depois de
treinada a rede foi capaz de permitir a avaliação da redução de inércia em cada
106
elemento discretizado da viga. Em sua conclusão, GOMES atesta que, para
grandes estruturas, definido a grande variedade de combinação de elementos
danificados pode tornar inviável o treinamento da rede para avaliar a estrutura
como um todo. O processo mostrou-se mais eficaz em determinar a região onde
ocorrem danos e, com pouca precisão, a intensidade destes danos.
• GOH, 1995, propôs a utilização do Backpropagation para identificação da
capacidade de carga de estacas cravadas em solos arenosos. O conjunto de
treinamento utilizado baseou-se em um banco de dados de estacas reais, ou seja,
dados práticos foram utilizados na análise. O conjunto de entradas inicialmente
contou com o módulo de elasticidade da estaca, o seu peso, a área de sua seção
transversal, seu tamanho, a altura de queda do martelo, o peso do martelo e o tipo
de martelo. Para o conjunto de saída utilizou a capacidade de carga para cada
estaca apresentada. O conjunto de treinamento contou com 59 amostras e o de
testes com 35. Depois de encerrado o primeiro treinamento, GOH observou a
pequena variação nos pesos sinápticos relativos à variável tipo do martelo, o que
indicou a pouca importância desta variável no contexto do problema, como
discutido no item 4.5.1 deste documento. Os resultados fornecidos pela rede
treinada foram comparados com resultados obtidos por formulações matemáticas
fornecidas por métodos como o Engineering News, Hiley e Janbu. A rede neural
apresentou um menor espalhamento dos valores finais de capacidade de carga das
estacas, mostrando que o método é bastante confiável.
Os trabalhos aqui apresentados representam apenas um pequeno universo das
pesquisas que vêm sendo realizadas na utilização de redes neurais na engenharia civil. A
continuidade dos estudos tende a aumentar as opções que a utilização das redes neurais
artificiais pode prover no aprimoramento da análise e formulação dos processos de
engenharia.
5 O ALGORITMO MCRN INTEGRADO
Pelo exposto nos capítulos 2 e 3 fica claro que uma das questões fundamentais no
estudo da confiabilidade estrutural é a avaliação da probabilidade de falha de um sistema ou
componentes de um sistema. Para que seja possível avaliar esta probabilidade é necessário
estabelecer uma equação que defina o caminho crítico de falha do sistema ou componente.
Para sistemas simples, do tipo resistência esforço, as equações de falha são
praticamente instantâneas e de definição bastante imediata. Avaliando a equação ( 5.1 ), onde
R representa a resistência do elemento estrutural e S o esforço nele aplicado, percebe-se
claramente que quando esforço é maior que a resistência o elemento entra em um ambiente de
falha. Com os métodos propostos nos capítulos 2 e 3 avalia-se com extrema facilidade a
probabilidade de falha deste elemento.
SRp f −= ( 5.1 )
O problema aparece para sistemas complexos, onde nem sempre é possível explicitar a
equação de falha ou mesmo quando esta assume uma complexidade elevada.
Para o segundo caso mostrou-se que os métodos analíticos tradicionais como FORM e
SORM podem encontrar enormes dificuldades na obtenção do ponto de projeto,
principalmente nos casos mais complexos envolvendo um grande número de variáveis
básicas, onde nem sempre conseguem convergir para uma solução válida.
O método Monte Carlo fornece uma alternativa bastante interessante para este
problema, porém mostrou-se que o esforço computacional inerente ao método é grande, dado
108
o número de simulações exigidas para obter-se um resultado com precisão aceitável. Além
disto, ainda depende da correta explicitação da equação de falha do problema a ser analisado
(o número de simulações para o método clássico é aproximadamente igual a 102/pf ).
As técnicas de redução de variância reduzem bastante o número de simulações
exigidas pelo método Monte Carlo clássico, porém ainda as mantém em um número elevado,
além do fato de não serem universais, necessitando cada caso de um estudo. Em SUBIA,
1991, p. 91 encontra-se um estudo bastante completo da utilização das técnicas de redução de
variância além de diversos exemplos numéricos em que o Monte Carlo clássico é comparado
com os métodos que utilizam técnicas de RV, conjugados com uma engenhosa discretização
do domínio de falha.
O método de Monte Carlo, mesmo com a utilização de técnicas de RV, ainda pode
exigir um razoável esforço computacional, principalmente quando aplicado em problemas de
confiabilidade em que o valor de pf é da ordem de 10-3 a 10-5.
Os fatos expostos não têm a intenção de classificar os métodos citados como
ineficientes. Ao contrário, vêm sendo explorados em diversas pesquisas, utilizados em
trabalhos práticos ao longo de 3 décadas e têm sido responsáveis pela enorme evolução da
avaliação da confiabilidade de sistemas neste período. Técnicas como o método da superfície
de resposta, SAGRILO, 1994 e a utilização de curvas do tipo SPLINE por OLIVEIRA14, 1997
apud SARAIVA, 1997, p.34, têm sido propostos com resultados bastante significativos. O
intuito, na realidade, é mostrar que estes métodos são trabalhosos e totalmente dependentes da
explicitação de uma equação de falha do sistema e que sua complexidade aumenta na medida
em que a equação de falha torna-se altamente complexa e não linear.
Estes fatos motivaram SARAIVA, 1997, a propor a utilização das redes neurais como
um elemento facilitador do processo fazendo uso de sua habilidade em aproximar funções
contínuas e limitadas (no caso específico de confiabilidade, a função ( )XG ), em um
algoritmo híbrido que conjuga o método Monte Carlo e redes neurais.
A idéia básica é a de se utilizar três ambientes distintos na avaliação do problema: Um
software de simulação de variáveis aleatórias (Monte Carlo); um software de análise
estrutural, calcado em métodos de análise não linear de estruturas e um software de Redes
Neurais.
14 OLIVEIRA, R.A. - “Confiabilidade de Sistemas Estruturais pelo Método de Integração Monte Carlocom Amostragem por Importância” - D.Sc.Thesis, Programa de Engenharia Civil, COPPE/UFRJ,Brasil, 1997.
109
Uma vez definida todas as variáveis aleatórias, suas distribuições estatística e o
relacionamento entre elas, vetores pseuso-aleatórios são gerados com o método Monte Carlo.
Em seguida o software de análise estrutural é utilizado para estudar o comportamento da
estrutura, segundo as condições simuladas (carregamentos, deslocamentos, efeitos de
temperatura, efeitos de marés, efeitos de ventos etc. ).
Após a análise da estrutura, obtêm-se um conjunto de entradas (valores simulados) e
saídas (resultado da análise estrutural) que constituirão a base de informações para o
treinamento da Rede Neural.
Depois de encerrado o treinamento da rede, obtêm-se um panorama do ambiente de
falha desejado. O resultado da avaliação dos algoritmos neurais é, de uma maneira básica, o
caminho necessário para se chegar ao conjunto de valores de saída, dado o conjunto de
valores de entrada. Através de algoritmos específicos é possível extrair a equação que traduz
esta transformação, denominada equação de falha no estudo da confiabilidade. Esta extração
baseia-se na utilização de algoritmos fuzzy e não será alvo desta dissertação. Os estudos de
caso propostos permitirão explicitar a equação de falha em função da análise do problema e
das condições normativas aplicáveis a cada caso.
De posse da equação de falha, o método Monte Carlo é novamente utilizado para
avaliação da frequência com que a estrutura entra no ambiente de falha, o que fornecerá,
então, a probabilidade de falha da estrutura. Segundo SARAIVA, 1997, p.30, com este
algoritmo, acelerara-se todo o processo de simulação evitando-se as desvantagens do
algoritmo Monte Carlo tradicional, ao mesmo tempo fazendo uso da habilidade das redes
neurais multicamadas em aproximar funções contínuas e limitadas (no caso específico de
confiabilidade, a função ( )XG ).
Trabalhar com três ambientes de softwares distintos ainda é bastante custoso para o
engenheiro. A transferência de informações entre cada ambiente é bastante demorada devido
ao seu volume, cerca de 100 simulações de cada variável envolvida, o que continua sendo um
ponto desestimulante para que a avaliação de confiabilidade de estruturas torne-se uma
constante na Engenharia Civil.
Na tentativa de provar que a criação de um ambiente integrado de software, que
englobe os três ambientes citados, minimizará bastante o custo de se avaliar a probabilidade
de falha de uma estrutura, este trabalho dá continuidade à pesquisa de SARAIVA, 1997, e
propõe o desenvolvimento deste ambiente integrado de software, que é discutido em detalhes
neste capítulo.
110
5.1 AMBIENTE DE DESENVOLVIMENTO
Para o desenvolvimento do software proposto optou-se pela utilização do Visual Basic
por ser uma ferramenta de fácil manipulação e que reduz extremamente o tempo de
desenvolvimento, por ser indicada para o desenvolvimento de interfaces simples e por ter
poder de processamento adequado ao porte do software proposto: uma aplicação simples que
se destina a demonstrar de forma clara a integração entre os ambientes Monte Carlo, análise
estrutural e redes neurais. O projeto utilizou os conceitos de orientação à objetos permitidos
pelo Visual Basic. O desenvolvimento em classes permite a modularização do software de
forma que um módulo possa ser substituído ou mesmo agregado, bastando para isto utilizar-se
os padrões de desenvolvimento proposto.
O ambiente demonstrou-se bastante estável, porém para que o produto possa ser
utilizado como um software de mercado, novas linguagens de programação devem ser
utilizadas, como C++ ou Java. O Visual Basic demonstrou-se um pouco lento nas rotinas de
cálculo numérico e manipulação de matrizes. O principal ponto negativo verificado foi o
tempo necessário à inversão de matrizes.
Um modelo possível para o desenvolvimento de um software comercial, pode utilizar
o próprio Visual Basic como a ferramenta para interface com o usuário, devido às facilidades
já expostas, implementando as classes voltadas aos processamento matemático em C, C++ ou
Java, sob a forma de DLLs (dynamic link libraries). Este modelo permite a futura expansão do
software para um ambiente Web, bastando substituir a interface com o usuário por
codificação ASP, mantendo-se a plataforma Windows. Para a migração para a plataforma
Unix ou Linux, as mudanças seriam bem mairoes, exigindo uma restruturação total do projeto
do software.
5.2 ESTRUTURA GERAL DO PROJETO
A Figura 5.1 mostra de uma forma bem compacta a estrutura funcional do software
desenvolvido. Os quatro módulos compõem a espinha dorsal do sistema. Todos os algoritmos
implementados, com exceção dos algoritmos do módulo de análise estrutural, já foram citados
nos capítulos anteriores ou encontram-se no apêndice deste trabalho.
Em linhas gerais o software comporta-se como um software de “workflow”, onde as
informações disponibilizadas por um módulo são mantidas em memória, disponíveis para os
próximos módulos que compõem o fluxo do processo. Neste caso específico o módulo Monte
111
Carlo é responsável por gerar, para cada variável aleatória, vetores com valores pseudo-
aleatórios de acordo com sua distribuição estatística e vetores com suas respectivas
probabilidades acumuladas e densidade de probabilidade.
Os valores gerados estarão disponíveis para serem utilizados com parâmetros de
entrada para o módulo de análise estrutural. Desta forma, se o módulo Monte Carlo gerar
amostras de tamanho N, e se pelo menos uma destas variáveis simuladas for utilizada como
entrada para o módulo de análise estrutural, automaticamente a estrutura em questão será
avaliada N vezes.
Os valores pseudo-aleatórios gerados pelo módulo Monte Carlo e os valores de saída
oriundos das N avaliações da estrutura poderão ser combinados para formar o conjunto de
treinamento da rede neural. Após o treinamento a rede estará disponível para ser consultada e
fornecer as saídas correspondentes às esntrada recebidas.
O módulo Confiabilidade utiliza os módulos Monte Carlo, para gerar novamente os
valores pseudo-aleatórios das variáveis utilizadas na função de falha a ser avaliada, com
amostras de tamanho maior do que as utilizadas para treinar a rede e suficientemente grandes
para que seja possível atingir um índice de confiabilidade confiável, e Rede Neural que
fornece os valores das variáveis correspondentes à saída da análise estrutural.
Após coletada todas estas informações, as funções de falha fornecidas serão avaliadas
para determinação da probabilidade de falha da estrutura e seu índice de confiabilidade.
Monte Carlo Análise estrutural
Rede Neural
Confiabilidade
Figura 5.1 – Estrutura global do software.
112
5.3 ESTRUTURA GLOBAL DE NAVEGAÇÃO
A Figura 5.2 fornece um esquema simplificado da estrutura de navegação do software.
Todos os módulos propostos são compostos de duas telas de interface com o usuário: uma tela
de entrada de parâmetros e uma tela com a saída do processamento correspondente ao
módulo. Estas telas serão detalhadas nos itens correspondentes a cada módulo.
«interface»Principal
«interface»Monte Carlo
«interface»Estruturas
«interface»Rede Neural
«interface»Confiabilidade
«interface»Saída Monte Carlo
«interface»Saída Estruturas
«interface»Saída Rede Neural
«interface»Saída Confiabilidade
Figura 5.2 – Detalhe simplificado da navegação do sistema.
5.4 MÓDULO MONTE CARLO
O módulo Monte Carlo foi desenvolvido de acordo com os estudos elaborados nos
capítulos 2 e 3.
A Figura 5.3 mostra o diagrama de classes simplificado do módulo. O diagrama
mostra o fluxo das principais informações do processo além das suas principais propriedades
e métodos. A Figura 5.4 e a Figura 5.5 mostram os fluxogramas da entrada de dados e do
processamento do módulo.
As seguintes distribuições estão disponíveis para simulação de variáveis aleatórias:
• Uniforme
• Normal
• Lognormal
113
• Exponencial
• Weibull
• Extremo tipo I largest
+Gerar valores pseudo aleatórios()+Gerar CDF()+Gerar PDF()
-Nome Variável-Distribuição-Média-Desvio Padrao-Vetor Pseudo aleatório-PDF-CDF-Nível de significância-Tamanho da amostra
Distribuição
+Avaliação da função de falha()
-Nome Função-Função-Variáveis : Distribuição
Funções
+Geraçao de valores Pseudo aleatórios()+Avaliação da confiabilidade do Sistema()
-Variáveis : Distribuição-Tamanh da amostra-Nível de significância-Funções de Falha : Funções
Monte Carlo
+Testar aderência()
-Vetor Pseudo aleatório-CDF-Nível de Significância-Tamanho da amostra
Kologorov-Smirnov
-Aderência*
-CDF*
Propriedades estatísticas
Propriedades da função de falha
Nome da variável Valores Pseudo Aleatórios
Figura 5.3 – Diagrama de classes do módulo de Simulação Monte Carlo
114
Definição do modode operação
Recuperacaracterísticas
gerais
SimulaçãoEstatística
Recuperar funçãode falha
Recuperar variáveisda função de falha
Recupera variáveisavulças
Para cadavariável
Próximavariável
Recupera parâmtrosestastísticos da
variável
Controlerede
neural
Sim
Sim
Não
Não
Recuperadistribuição estatística
da variável
Reciperarelacionamento
entre as variáveis
Início
Fim
Figura 5.4 – Fluxograma de entrada de dados – Módulo Monte Carlo
115
Início
VariáveisRelacionadas
Não SimVariáveis
IndependentesVariáveis
dependentes
Disponibilizaas variáveis
Fim
VariáveisRelacionadas
Não
SimAnálise de
Confiabilidade
Montar matrizde relacionamento
RecuperarMédias e Desv.
Pdrãonormal equivalente
Recuperarcoeficiente
de correlaçãoequivalente
Transformadade NAtaf
Variáveisdependentes
Variáveisindependentes
Para cada variávelgerar valores comdistribuição N{0,1}
Próximavariável
Resolve o sistemade equações
J 1− Z⋅ µ norm+
Fim
Para cadavariável
Gerar númerospseudo-aleatórios
uniformes entre 0 e1
Gerar valoresde acordo com adistribuição da
variável
Executarteste de aderênciaKologorov-Smirnov
AderênciaConfirmada
Não
Sim
Próximavariável
VariáveisIndependentes
Fim
Figura 5.5 – Fluxograma de processamento – módulo Monte Carlo
116
O módulo apresenta 3 funcionalidades distintas:
• Simulação estatística
• Avaliação de confiabilidade pelo método tradicional
• Simulação estatística com interface para redes neurais (MCRN)
No modo de Simulação Estatística são fornecidos os valores gerados para cada
variável fornecida de acordo com suas características estatísticas.
No modo Monte Carlo Tradicional deve-se fornecer uma equação de falha que, ao
final da simulação das variáveis fornecidas, será avaliada para definição da probabilidade de
falha. Durante a fase de avaliação da confiabilidade, o conjunto de valores simulados para as
variáveis será utilizado para a avaliação da função.
De acordo com o que foi dito no capítulo 3, item 3.6, cada vez que a função avaliada
retornar um valor menor ou igual à zero será adicionada uma unidade ao total de falhas do
processo (superfície de falha). Ao final da avaliação de todos os valores simulados, o número
total de falhas será dividido pelo número total de valores simulados, obtendo-se assim a
probabilidade de falha da estrutura avaliada. Aplicando-se a equação ( 3.14 ) obtem-se seu
índice de confiabilidade.
No modo MCRN as variáveis simuladas estarão disponíveis, em memória, para serem
utilizadas durante as fases de verificação estrutural e redes neurais.
Está prevista também a possibilidade de se gerar valores levando-se em conta a
dependência entre as variáveis. Esta funcionalidade baseia-se na transformação de NATAF,
discutida no capítulo 2, item 2.2.
Para cada distribuição simulada, é efetuado o teste de aderência de Kolmogorov-
Smirnov, discutido no capítulo 3, item 3.4.2.
Após a geração de todas as variáveis, o resultado é mostrado ao usuário e
disponibilizada a opção de exportação dos valores simulados para arquivos compatíveis com
o formato de planilhas Excel. São fornecidos também gráficos do controle de aderência, da
probabilidade acumulada e da densidade de probabilidade para cada variável simulada.
117
5.4.1 Simulação estatística
Os algoritmos de simulação seguem as propostas apresentadas no capítulo 3 e as
rotinas disponíveis nos itens 7.1 e 7.2 do anexo.
Para cada variável definida é instanciado um objeto da classe distribuição que herda da
classe principal as propriedades definidas no formulário geral. O objeto é identificado pelo
nome da variável. As demais propriedades inerentes a cada variável são informadas nos
passos seguintes.
O software prevê que mais de uma função de falha seja fornecida. Assim como no
caso das variáveis, para cada função fornecida é instanciado um objeto da classe Funções. A
principal propriedade deste objeto é a coleção de variáveis associadas à função.
Para geração de números pseudo-aleatórios, com distribuição U{0,1} disponibilizou-se
as duas opções analisadas no capítulo 3: o método congruencial, equações ( 3.3 ), ( 3.4 ) e
( 3.5 ) e o algoritmo proposto por SUBIA, 1991, p.23. A partir dos números pseudo-
aleatórios, procede-se então a geração dos valores para as variáveis aleatórias com suas
respectivas distribuições de probabilidade.
A Tabela 5.1 mostra as formulações utilizadas para a geração dos valores das
distribuições e a Tabela 5.2 as regras utilizadas para obtenção dos parâmetros das
distribuições baseados na média µ e no desvio padrão σ .
Além destes métodos disponibilizou-se, também, o algoritmo de Newton-Raphson,
proposto por DEVROYE, 1986, p.27-34, para simulação numérica das funções inversas
(capítulo 3, item 3.5).
Para simulação de valores com distribuição Lognormal, o método de Newton-Raphson
tem a vantagem sobre o método tradicional pois evita a geraração de números com
distribuição Normal, o que agiliza em muito o processo.
Após a simulação de cada variável é efetuado o teste de aderência de Kolmogorov-
Smirnov, capítulo 3, item 3.4.2.
Para a realização do teste de Kolmogorov-Smirnov é necessário obter-se os valores da
distribuição acumulada, CDF, do modelo probabilístico a ser verifico. A Tabela 5.3 mostra as
funções acumuladas das distribuições contempladas.
118
Tabela 5.1 – Métodos para simulação de variáveis aleatórias.
Distribuição Método Função Inversa Observações
Normal Box-Muller -
Exponencial Inversa ( )x−⋅− 1lnβ
Lognormal Xe - ( )ζλ,NX =
Weibull Inversa( )( ) βθ
1
ln x−⋅
Extremo I largest InversaU
x+⎟⎟
⎠
⎞⎜⎜⎝
⎛⎟⎠⎞
⎜⎝⎛⋅−
1lnln1α
Tabela 5.2 – Obtenção dos parâmetros das distribuições.
Distribuição Parâmetros
Exponencial µβ =
Lognormal ⎟⎟⎠
⎞⎜⎜⎝
⎛+= 2
2
1lnµσζ ( ) 2
21ln ζλ ⋅−= u
Extremo I largest2
2
*6 σπα = α
µ 577216.0+=U
A geração da FDA das distribuições Normal e Lognormal exige a integração das
funções no intervalo (- ∞ , x). O algoritmo de integração utilizado foi o proposto por CONTE,
1981, p.319-327, que utiliza a composição entre o método dos trapézios e o da quadratura de
Gauss. O método consiste na subdivisão do intervalo de integração em um número finito de
intervalos, aplicando-se a cada intervalo o método da quadratura de Gauss.
De acordo com PACITTI, 1976, p. 446, as quadraturas podem ser escritas na forma
geral:
119
( )∑=
⋅=N
iii xfWI
1
( 5.2 )
Os valores xi são igualmente espaçados no intervalo base nij xxx ≥≤ que é
justamente o intervalo de integração (a,b). A amplitude de cada intervalo é dada por:
( )( )11 −
−==−+ n
abhxx ii ( 5.3 )
sendo n o número de pontos de integração escolhidos dentro do intervalo (a,b). O grau de
interpolação é então definido como o número de pontos de integração definidos menos 1.
Para cada grau de interpolação n tem-se o mesmo número de incógnitas n, que são os
pesos W. Assim para 3=n , tem-se 3/131 == WW e 3/42 =W . Ou seja, para quantas n
incógnitas W especifica-se, integra-se a função através de um polinômio de grau 1−n .
De forma a minimizar o erro de integração introduz-se uma nova incógnita na análise:
a localização dos pontos de integração, P. A integração terá, então, a precisão de um
polinômio de grau 12 −⋅ n . A obtenção das abscissas e pesos da quadratura de Gauss é
bastante complexa, mas encontram-se tabeladas e disponíveis na literatura específica.
A Rotina 5.1 mostra o método da quadratura de Gauss, com 4 pontos de integração
para cada um dos N intervalos, trapézios, que se queira dividir o intervalo original (a,b). Caso
a amostra simulada não seja aprovada no teste de aderência, todo o processo, a partir da
geração dos números pseudo-aleatórios U{0,1} é repetido até o limite estabelecido nas opções
padrões do software. Se depois de ultrapassado este limite não for possível obter uma amostra
que seja aprovada pelo teste de aderência o processamento é interrompido.
120
Tabela 5.3 – Funções de probabilidade acumulada.
Distribuição Função Distribuição Acumulada
Normal( )
∫∞−
⋅
−−
⋅⋅⋅
x x
e 2
2
2
21 σ
µ
πσ
Lognormal( )( )
∫∞−
⋅
−−
⋅⋅⋅⋅
x x
ex
2
2
2ln
21 σ
µ
πσ
Exponencial βx
e−
−1
Weibullβ
θ⎟⎠⎞
⎜⎝⎛−
−t
e1
Extremo I largest ( )[ ]uxe −⋅−− αexp
QG_RT a b, n,( ) point0.339981043584856
0.861136311594053⎛⎜⎝
⎞⎠
←
weight0.652145154862546
0.347854845137454⎛⎜⎝
⎞⎠
←
hb a−( )
n←
hover2h2
←
p1 point 0 hover2⋅←
p2 point 1 hover2⋅←
s1 0←
s2 0←
x a i h⋅+ hover2−←
s1 s1 FUNCAO p1− x+( )+ FUNCAO p1 x+( )+←
s2 s2 FUNCAO p2− x+( )+ FUNCAO p2 x+( )+←
i 0 n 1−..∈for
s hover2 weight 0 s1⋅ weight 1 s2⋅+( )⋅←
s
:=
Rotina 5.1 – Integração – Quadratura de Gauss.
121
Se as variáveis a serem simuladas apresentarem algum grau de relacionamento entre
si, o processo de simulação de variáveis correlacionadas, capítulo 2, item 2.2, é aplicado. O
método usa a transformada de NATAF para efetuar a transformação de variáveis
correlacionadas em variáveis independentes. A transformada de NATAF utiliza uma matriz
triangular inferior, obtida da transformação de Cholesky, a partir da matriz de correlação entre
as variáveis aleatórias, equação ( 2.10 ). Na Rotina 5.2 encontra-se método proposto por
RALSTON, 1965. p. 320 para obtenção da matriz triangular inferior.
A média e o desvio padrão de cada variável deverão ser transformados para uma
média e um desvio padrão equivalentes a uma distribuição normal, equações ( 2.8 ) e ( 2.9 ).
O próximo passo é definir uma matriz de correlação entre as variáveis envolvidas. Para que
esta matriz possa expressar, para as variáveis não normais uma correlação normal equivalente,
utiliza-se as equações definidas por KIUREGHIAN, 1986, aplicando-se para cada valor
obtido a equação ( 2.10 ). A simulação das variáveis, neste caso, restringe-se à geração de
variáveis com distribuição N{0,1}. Finalmente, aplicando-se a equação ( 2.13 ), para cada
valor simulado de cada variável, obtêm-se os valores finais da simulação desejada, mantendo-
se a correlação especificada entre as variáveis analisadas.mCholeski A( ) n rows A( )←
Ln n, 0←
sum 0←
sum if j 0> sum Li j,( )2+, sum,⎡
⎣⎤⎦←
j 1 i 1−..∈for
Li i, Ai i, sum−( )1
2←
sum 0←
sum if j 0> sum Li j, Lk j,⋅+, sum,( )←
j 1 i 1−..∈for
Lk i,1
Li i,Ak i, sum−( )⋅←
k i 1+ n..∈for
o 0←
i n<if
i 1 n..∈for
Lreturn
:=
Rotina 5.2 – Implementação de Cholesky.
122
5.5 MÓDULO ANÁLISE ESTRUTURAL
O desenvolvimento do módulo baseou-se no método da rigidez de acordo com os
algoritmos propostos por GERE, 1981, p. 286-309. Disponibilizou-se a avaliação de vigas
contínuas, pórticos planos e estruturas em grelha. A descrição a seguir é baseada na avaliação
de vigas contínuas. Os processos de pórticos planos e grelhas seguem, fielmente, o mesmo
conceito especificado para as vigas.
A Figura 5.6 mostra o diagrama de classes simplificado. A Figura 5.4 e a Figura 5.5
mostram os fluxogramas da entrada de dados e do processamento do módulo.
+Calcular a estrutura()+Disponibilizar valores calculados()
-Parâmetros da estruturaViga
+Gerar valores pseudo aleatórios()+Gerar CDF()+Gerar PDF()
-Nome Variável-Distribuição-Média-Desvio Padrao-Vetor Pseudo aleatório-PDF-CDF-Nível de significância-Tamanho da amostra-Saida RNA : bool
Distribuição
Valores pseudo aleatórios
Nome da variável
Figura 5.6 – Diagrama de classe do módulo estrutural (viga)
123
Recuperarnúmero demembros
Variáveissimuladas
Sim
Não
Início
Para cadamembro
Próximomembro
Recuperarcomprimento
Recuperaraltura
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Variáveissimuladas
SimRecuperar
largura
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Não
Variáveissimuladas
SimRecuperarvalor do
carregamento
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Não
Recuperartipo de
carregamento
Recuperardistância á esquerda
e tamanho
Variáveissimuladas
SimRecuperarMódulo de
Elasticidade
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Não
Calcularnúmero de
nós
Variáveissimuladas
Sim
Não
Para cadanó
Recuperarrestrições
nos eixos Z e Y
Recuperarcarregamento
no eixo Y
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Variáveissimuladas
SimRecuperarcarregamento
no eixo Z
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Próximonó
Fim Não
Figura 5.7 – Fluxograma de entrada de dados – Módulo Vigas
124
Início
Monta vetorcom comprimentode cada menbro
Fim
Para cadamembro
Próximavariável
Monta vetormomento de inércia
IZde cada menbro
Monta vetorMódulo deelasticidade
de cada menbro
Monta vetorAções de extrmidade
de membrosrestringidos
Recuperarestrições de nós
Monta matrizde cargas nodais
equivalentes
Monta vetorAções de extrmidade
de membrosrestringidos
Calculadeslocamentos
nodais e reações deapoio
Monta matriz derigidez membro
Monta matriz derigidez global
Calcula ações deextremidade de
membro
Disponibilizavalores finais
Figura 5.8 – Fluxograma de processamento – Módulo Vigas
125
A modelagem de um sistema estrutural para sua resolução através do método da
rigidez deve apresentar um número de coordenadas globais igual ao grau de indeterminação
cinemática da estrutura. Em princípio haverá coordenadas globais onde houver cargas
externas aplicadas, deslocamentos nodais impostos (recalques), deslocamentos de interesse e
reações a calcular.
No método da rigidez, não há necessidade de redução do número de coordenadas
locais. Como os esforços finais são obtidos em termos das coordenadas locais, deve-se utilizar
uma discretização da estrutura em elementos que possuam tantos graus de liberdade quantos
sejam necessários para se definir as linhas de estado do sistema estrutural.
Classificando-se os deslocamentos segundo as coordenados globais em impostos
(prescritos, restringidos ou de índice 0) e desconhecidos (incógnitos ou de índice 1), o vetor
dos deslocamentos locais pode ser escrito da seguinte forma:
{ } [ ] [ ][ ]{ }
{ }⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧⋅=
x
rAAs 10 , onde
{ }
{ } ⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
U
U
x
r r
( 5.4 )
A matriz de incidência cinemática [ ]A é decomposta em duas submatrizes:
• [ ]0A que transforma os deslocamentos globais impostos { }r ou rU em
deformações locais { }s ;
• [ ]1A que transforma os deslocamentos globais livres { }x ou U em deformações
locais { }s ;
A partir da equação de equilíbrio, os graus de liberdade globais podem ser separados
em prescritos e indeterminados, obtendo-se:
126
{ }
{ }
[ ] [ ]
[ ] [ ]
[ ]
[ ]⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧⋅
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
x
r
kk
kk
x
r
1110
0100( 5.5 )
A matriz de rigidez da estrutura integrada pode ser representada através das
submatrizes:
• [ ]00k ou [ ]RRk é a matriz de rigidez (quadrada e simétrica), referente aos graus de
liberdade prescritos da estrutura, que fornece as reações { }r associadas aos
deslocamentos globais;
• [ ]10k ou [ ]LRk e [ ]01k ou [ ]RLk são submatrizes de rigidez cruzadas que
relacionam as forças externas com deslocamentos prescritos e as reações nodais
com a configuração deformada;
• [ ]11k ou [ ]LLk é a matriz de rigidez (quadrada e simétrica), que relaciona as ações
externas { }X aos deslocamentos globais.
As submatrizes podem ser obtidas algebricamente pela aplicação da equação da matriz
de rigidez da estrutura integrada:
[ ] [ ] [ ] [ ]AkAK T ⋅⋅= ( 5.6 )
Se forem conhecidos os deslocamentos impostos { }r e as ações aplicadas { }X , os
valores dos deslocamentos globais podem ser obtidos através da equação:
[ ] { } [ ] { }( )rKXK ⋅−⋅−10
111
( 5.7 )
127
Para o caso dos deslocamentos prescritos serem nulos (estrutura plana fixada em
apoios do 1º, 2º ou 3º gênero), tem-se:
{ } [ ] { }XKx ⋅= −111
( 5.8 )
Conhecidos os deslocamentos globais, pode-se então achar os valores das reações:
{ } [ ] { } [ ] { }xKrKR ⋅+⋅= 0100( 5.9 )
Os esforços são:
{ } { } [ ] { }skSS ⋅+= 0( 5.10 )
Mais uma vez, para o caso dos deslocamentos prescritos serem nulos (estrutura plana
fixada em apoios do 1º, 2º ou 3º gênero), tem-se:
{ } { } [ ] [ ] [ ] { }XKAkSS ⋅⋅⋅+= −11110
( 5.11 )
A matriz de rigidez global [ ]K é formada pela sobreposição das matrizes de rigidez de
membro, Figura 5.10.
128
Y
X
Z
Figura 5.9 – Membro de viga prismática.
⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
−
−−−
−
−
=
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
LEI
S
ZZZZ
ZZZZ
ZZZZ
ZZZZ
M
4626
612612
2646
612612
22
2323
22
2323
Figura 5.10 – Matriz de rigidez de membro de viga prismática.
5.5.1 Cálculo da Viga
Para que se possa definir a estrutura a ser avaliada deve-se fornecer os dados na
seguinte ordem:
• Definição dos membros
• Carregamento dos membros
• Atributo dos nós
129
Durante a definição dos membros deve-se fornecer, primeiramente, o número de
membros que compõem a viga. Em seguida fornece-se o comprimento, o momento de inércia
em relação ao eixo X e o módulo de elasticidade de cada membro. Para estes últimos pode-se
optar por fornecer um valor fixo, ou fornecer o nome de uma das variáveis simuladas com o
módulo Monte Carlo.
Como para cada variável simulada é instanciado um objeto da classe Distribuição, as
propriedades das variáveis estão disponíveis para serem associadas a qualquer um dos
elementos anteriores.
O mesmo ocorre com a definição dos carregamentos de cada membro. É preciso
fornecer, para cada membro carregado, os tipos de carregamento (concentrado, distribuído
retangular ou distribuído triangular), o seu valor, a distância de aplicação ao nó à esquerda do
membro e o seu tamanho. Neste caso, para o valor do carregamento pode-se optar por
fornecer um valor fixo, ou também associar este valor a uma variável simulada anteriormente.
Ao fornecer os valores dos atributos de cada nó, deve-se informar se existem restrições
na direção Y e Z e o valor da carga concentrada (carregamento no eixo Y) e da carga
momento (eixo Z), caso existam. Novamente, os valores destes carregamentos podem ser
explícitos ou associados a uma variável simulada.
Basta que apenas um dos itens anteriores esteja associado a uma variável simulada
para que o módulo entenda que deve avaliar a viga tantas vezes quanto for o tamanho da
amostra simulada.
Para cada resolução, um objeto da classe Viga é instanciado e todos os valores de
deslocamentos e reações em cada nó da estrutura são mantidos em memória, disponíveis para
serem utilizados, em conjunto com as variáveis simuladas, pelo Módulo de Redes Neurais.
Segundo o conceito de “WorkFlow”, cada passo executado estará disponível ao passo
seguinte. Assim como na associação de variáveis do Módulo de Viga, é possível associar os
valores gerados pelo cálculo estrutural ao módulo de Redes Neurais e ao Módulo de
Confiabilidade.
A associação de valores pseudo-aleatórios, gerados a partir do comportamento
estatístico da variável correspondente, a itens como momento de inércia e módulo de
elasticidade do concreto para um membro da viga, sugere ser possível utilizar o algoritmo
MCRN para avaliação de peças avariadas, sujeitas a perda de seção de concreto seja por
motivos de carbonatação ou por corrosão de armaduras. Em um trabalho para avaliar a
urgência na recuperação estrutural de tais peças, o conhecimento do seu índice de
confiabilidade será de suma importância em termos de tomada de decisão.
130
A avaliação da estrutura por meio de análise não linear e elementos finitos,
possibilitará considerar os efeitos da corrosão das armaduras, o que trará uma maior precisão
nos resultados analisados.
O algoritmo MCRN, baseia-se na utilização conjunta dos valores das variáveis
simuladas com os valores obtidos pelas várias resoluções da estrutura para que seja formado o
conjunto de treinamento da Rede Neural. A montagem deste conjunto de treinamento será
discutida no módulo Rede Neural.
5.6 MÓDULO MANUTENÇÃO
O módulo Manutenção é um módulo bastante simples e destina-se a implementar uma
simulação estocástica do avanço da carbonatação em uma estrutura de concreto, baseado em
variáveis aleatórias que refletem a agressividade ambiental aonde se insere a estrutura. Sua
função é simplesmente determinar em que idade da estrutura a profundidade carbonatada
atingirá um determinado valor fornecido ao módulo. A Figura 5.11 mostra o diagrama de
classes simplificado. A Figura 5.12 e a Figura 5.13 mostram os fluxogramas da entrada de
dados e do processamento do módulo.
+Avaliação da profundidade de carbonatação()
-Profundiade de Carbonatação : Double-Taxa de CO2 : Double-Temperatura : double-Umidade relativa : double-Fator água cimento : Double
Manutenção
+Geraçao de valores Pseudo aleatórios()+Avaliação da confiabilidade do Sistema()
-Variáveis : Distribuição-Tamanh da amostra-Nível de significância-Funções de Falha : Funções
Monte Carlo
Vetor valores simulados
Variáveis aleatórias
Figura 5.11 – Diagrama de classes do módulo de manutenção
131
Recuperar tempoinicial para pesquisa
de carbonatação
Início
Recuperarincrementodo tempo
Recuperarprofundiade
de carbonatação aser pesquisada
Variáveissimuladas
Sim
Não
RecuperarTaxa de CO2
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Variáveissimuladas
SimRecuperar
Temperatura
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Não
Variáveissimuladas
SimRecuperar
Umidade Relativa
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Não
Variáveissimuladas
SimRecuperar
fator água/cimento
Mostrar listade variáveissimuladas
Recuperarvariávelda lista
Não
Fim
Figura 5.12 – Fluxograma Entrada de Dados – Módulo Manutenção.
132
Início
Para cadavalor simulado
Próximovalor
Recupera variáveisaleatórias da
simulação atual
Calculaprofundidade de
carbonatação
Atingiuprofundiadeespecificada
Sim
Não
Simular variáveisMonte Carlo
Próximasimulação
Início
Mostra valoresda última simulação
Calculaprofundidade
média decarbonatação
Figura 5.13 – Fluxograma de processo – Módulo Manutenção.
A teoria proposta por SILVA, 1997, para formulação de uma metodologia que
possibilite a avaliação da vida útil de estruturas de concreto armado, que fundamenta o
funcionamento deste módulo, está descrita no item 0.
Partindo do ano inicial, simulam-se as variáveis aleatórias taxa de CO2, temperatura,
umidade relativa e fator água/cimento. Após a simulação, evoluem-se as equações
determinação da profundidade de carbonatação em função do tempo, para cada um dos
valores simulados. Se a profundidade média obtida na simulação for maior ou igual à
profundidade limite especificada, o módulo encerra a execução, mostrando os valores obtidos
em cada simulação e um gráfico de evolução da carbonatação por ano de vida da estrutura.
133
5.7 MÓDULO REDE NEURAL
O módulo Rede Neural foi desenvolvido de acordo com os estudos elaborados no
capítulo 4.
A Figura 5.14 mostra o diagrama de classes simplificado do módulo. O diagrama
mostra o fluxo das principais informações e suas principais propriedades e métodos. A Figura
5.15 e a Figura 5.16 mostram os fluxogramas da entrada de dados e do processamento do
módulo.
Os valores básicos necessários para o processamento do módulo são:
• Número máximo de interações;
• Número de neurônios da camada oculta;
• Tamanho do conjunto de treinamento;
• Função de ativação;
• Tolerância ao erro quadrático;
• Taxa de treinamento;
• Taxa de momento;
• Intervalo para geração dos pesos sinápticos;
• Rotina de normalização.
134
+Monta conjunto de entrada()+Monta conjunto de saída()+Gera pesos sinápticos()+Normaliza conjunto de entrada()+Treinamento Backpropagation()+Teste Backpropagation()+Disponibilizar valores de saída ()
-Taxa de aprendizado-Taxa de momento-Neurônios camada oculta-Intervalo para geração de pesos sinápticos-Máximo de interações-Erro tolerável-Tamanho do conjunto de treinamento-Normalizar valores de entrada : boolean(idl)-Função de ativação-Variáveis de entrada : Distribuição-Variáveis de saída : Distribuição-Modo de execução
Rede Neural
+Calcular a estrutura()+Disponibilizar valores calculados()
-Parâmetros da estruturaViga
Deformações deslocamentos e reações
Nome do nó
+Gerar valores pseudo aleatórios()+Gerar CDF()+Gerar PDF()
-Nome Variável-Distribuição-Média-Desvio Padrao-Vetor Pseudo aleatório-PDF-CDF-Nível de significância-Tamanho da amostra-Saida RNA : bool
Distribuição
+Avaliação da função de falha()
-Nome Função-Função-Variáveis : Distribuição
Funções
+Geraçao de valores Pseudo aleatórios()+Avaliação da confiabilidade do Sistema()
-Variáveis : Distribuição-Tamanh da amostra-Nível de significância-Funções de Falha : Funções
Monte Carlo
+Testar aderência()
-Vetor Pseudo aleatório-CDF-Nível de Significância-Tamanho da amostra
Kologorov-Smirnov
-Aderência*
-CDF*
Propriedades estatísticas
Propriedades da função de falha
Nome da variável Valores Pseudo Aleatórios
Valores pseudo aleatórios com distribuição Unifrme
Intervalo para geração de pesos sinápticos
Figura 5.14 – Diagrama de classes do módulo de redes neurais.
135
Informaçõesbásicas
para execução
Início
Fim
Informaçõesbásicas
da regra Delta
Informaçõesbásicas
normalização
Informaçõesbásicas geraçãopesos Sinápticos
Para cadavariável doconjunto de
entrada
Mostrar listade variáveisdisponíveis
Recuperarvariávelda lista
Próximavariável
Para cadavariável do
conjunto de saída
Mostrar listade variáveisdisponíveis
Recuperarvariávelda lista
Próximavariável
Figura 5.15 – Fluxograma entrada de dados – Módulo Rede Neural.
136
Início
Instanciar ObjetoRede NeuralTreinamento
Fim
Para cada variávelselecionada
conjunto de entrada
Próximavariável
Inicializarpropriedades
básicas(tela de entrada)
Recupera pesossinápticos da fase de
trienamento
Gera matriz pesossonápticos
Oculta e saída
Verifica erroquadrático
Monta matrizentrada conjuntode treinamento
Propagar conjuntotreinamento à
camada de saída
Retropropagaerros acumulados
Tamanhoconjunto
treinamento
Monta matrizentrada conjunto
de teste
Não
Sim
Para cada variávelselecionada
conjunto de saída
Próximavariável
Monta matrizsaída conjuntode treinamento
NormalizarconjuntoEntrada
Não
SimUtilizar variáveis
simuladas
Utilizar distribuiçãoacuulada das
variáveis simuladas
Execuçãotreinamento
Sim
Não
Para cada época dotreinamento
Execuçãoteste
Não
Sim
Erro menorque tolerância
Não SimPróximaépoca
Disponibiliza Saída eerro quadrático
Figura 5.16 – Fluxograma de processamento – Módulo Rede Neural
O próximo passo é selecionar as variáveis que comporão os conjuntos de entrada e
saída para o treinamento da rede.
Para a formação do conjunto de entrada estarão disponíveis todas as variáveis
simuladas pelo método Monte Carlo e para o conjunto de saída todos os valores obtidos como
saída do módulo de análise estrutural, como: deformações, ações e reações nos nós da
estrutura.
137
Após a seleção das variáveis, os valores gerados para cada variável serão
concatenados, formando-se duas matrizes distintas: uma para o conjunto de entrada e outra
para o conjunto de saída.
Caso opte-se por não selecionar uma rotina de normalização para as variáveis de
entrada o módulo utilizará a distribuição acumulada das variáveis para formar o conjunto de
entrada do treinamento.
Este procedimento foi proposto por este trabalho como forma de pesquisar a acuidade
dos resultados obtidos formando-se o conjunto de entrada desta forma. A motivação veio
baseada nas discussões sobre montagem do conjunto de treinamento efetuadas no capítulo 4,
item 4.5. Vários autores citam os problemas encontrados na adoção de uma boa política de
normalização dos valores de entrada. EBERHART, 1990, p.39-4 e p.215-229 e HAYKIN,
1994, p. 160-192, citam a grande influência que a política de normalização exerce no tempo
de convergência da rede, na sua capacidade de generalização e no problema de saturação dos
neurônios da camada oculta.
A maior dificuldade está em escolher os canais, ou agrupamentos de variáveis, para a
normalização. EBERHART, 1990, p.39-4 cita que variáveis com algum nível de
relacionamento devem ser normalizadas em conjunto, de forma a não se perder o grau de
relação entre elas.
A proposta de se utilizar a função de distribuição acumulada partiu das seguintes
premissas: o módulo Monte Carlo efetua a simulação das variáveis levando em conta o
relacionamento entre elas, caso exista, além destes valores já estarem distribuídos no intervalo
entre 0 e 1.
O principal ponto a ser ressaltado é exatamente a simulação de variáveis
correlacionadas. O conjunto de entrada, assim montado, mantém todas as características
estatísticas das variáveis aleatórias, o que parecer ser um ganho extraordinário na capacidade
da rede neural em generalizar valores de saída baseado em entradas aleatórias. Os resultados
comparativos entre análises de confiabilidade com um conjunto de entrada normalizado por
alguma das formulações propostas no capítulo 4, item 4.5, e a utilização da distribuição
acumulada das variáveis será analisado no estudo de caso proposto no capítulo 6.
Os conjuntos de treinamento e teste são montados simultaneamente a partir do
tamanho do conjunto de treinamento fornecido no formulário de entrada de dados. Após a
convergência no treinamento da rede, um novo objeto da classe Rede Neural é instanciado
para que a capacidade de generalização da rede possa ser validada.
138
Neste passo, as matrizes dos pesos sinápticos das camadas oculta e saída são
disponibilizadas para serem utilizadas no processo de teste da rede. Estas matrizes são
passadas ao novo objeto instanciado como propriedades públicas.
O conjunto de testes montado anteriormete é submetido à rede para que se possa
avaliar sua capacidade de convergir para os valores de sáida esperados.
Caso os valores de saída fornecidos pela rede não estejam de acordo com que pede o
experimento, novas arquiteturas podem ser testadas até que se conclua que a rede proposta
converge corretamente, de forma a poder-se utilizá-la, definitivamente, para a avaliação final
da confiabilidade da estrutura proposta.
A nova fase que se segue, apesar de chamada de Módulo de Confiabilidade, na
realidade é uma visita a todo o processo citado anteriormente, a partir do Módulo Monte
Carlo, com novo valor para o tamanho dos vetores de variáveis simuladas, tamanho este que
deverá ser suficiente para que uma boa estimativa da confiabilidade seja atingida (de um
modo geral entre 2000 e 10000 simulações).
A grande diferença está no fato de que, no lugar de executar o módulo de análise
estrutural, o processo utiliza-se simplesmente da resposta da rede neural para obter as saídas
(deslocamentos e reações nodais) da avaliação da estrutura.
5.8 MÓDULO CONFIABILIDADE
O módulo Confiabilidade utiliza todas as informações geradas pela execução da
simulação das variáveis aleatórias e pelo treinamento da rede neural, baseado nas saídas dos
processamentos do módulo de análise estrutural, para determinar a probabilidade de falha e,
consequentemente, a confiabilidade da estrutura analisada.
A Figura 5.17 mostra o diagrama de classes simplificado. O diagrama mostra o fluxo
das principais informações além das suas principais propriedades e métodos. A Figura 5.18 e
a Figura 5.19 mostram os fluxogramas da entrada de dados e do processamento do módulo.
139
+Avaliação da confiabilidade do sistema()
-Funções de falha : Funções-Variáveis-Tamanho da amostra
Confiabilidade
+Monta conjunto de entrada()+Monta conjunto de saída()+Gera pesos sinápticos()+Normaliza conjunto de entrada()+Treinamento Backpropagation()+Teste Backpropagation()+Disponibilizar valores de saída ()
-Taxa de aprendizado-Taxa de momento-Neurônios camada oculta-Intervalo para geração de pesos sinápticos-Máximo de interações-Erro tolerável-Tamanho do conjunto de treinamento-Normalizar valores de entrada : boolean(idl)-Função de ativação-Variáveis de entrada : Distribuição-Variáveis de saída : Distribuição-Modo de execução
Rede Neural
Saída Rede neural
Conjunto de entrada
+Gerar valores pseudo aleatórios()+Gerar CDF()+Gerar PDF()
-Nome Variável-Distribuição-Média-Desvio Padrao-Vetor Pseudo aleatório-PDF-CDF-Nível de significância-Tamanho da amostra-Saida RNA : bool
Distribuição
+Avaliação da função de falha()
-Nome Função-Função-Variáveis : Distribuição
Funções
+Geraçao de valores Pseudo aleatórios()+Avaliação da confiabilidade do Sistema()
-Variáveis : Distribuição-Tamanh da amostra-Nível de significância-Funções de Falha : Funções
Monte Carlo
+Testar aderência()
-Vetor Pseudo aleatório-CDF-Nível de Significância-Tamanho da amostra
Kologorov-Smirnov
-Aderência*
-CDF*
Propriedades estatísticas
Propriedades da função de falha
Nome da variável Valores Pseudo Aleatórios
End1
End2
Figura 5.17 – Diagrama de classes do módulo de confiabilidade
140
Recuperarnúmero desimulações
Início
Para cadavariáveis da equação
de falha
Próximavariável
Fim
Mostrar listade variáveis
de saída da redeneural
Recuperarvariávelda lista
Recuperarequaçõesde falha
Figura 5.18 – Fluxograma Entrada de Dados – Módulo Confiabilidade.
Início
Fim
Simular variáveisaleatórias
novo número desimulações
Consultar rede neuralcom os novos
valores simulados
Avaliarfunções de falha
- Probabilidade defalha -
Figura 5.19 – Fluxograma de processo – Módulo Confiabilidade.
141
De uma forma geral, o que se sucede neste módulo é apenas uma execução do módulo
Monte Carlo e do Módulo Rede Neural, sem a necessidade de interação com o usuário, já que
neste ponto o software já conhece as características estatísticas de todas as variáveis, já possui
uma rede neural treinada que o possibilitará recuperar o comportamento da estrutura em
questão sem a necessidade de se executar novamente o módulo de análise estrutural, já
conhece a equação de falha que será avaliada e, finalmente, já sabe qual variável utilizar em
qual situação (simulação estatística, formação do conjunto de entradas para a rede neural e
quais destas variáveis são utilizadas na equação de falha).
O que falta ser informado é o novo número de simulações desejado para a avaliação da
probabilidade de falha da estrutura. Após a alteração deste valor, todo o processo discutido no
item 5.4 é novamente executado.
Com os novos valores simulados, gera-se o novo conjunto de entradas para a rede
neural. Neste ponto, não há necessidade de gerar um conjunto de saída. A própria rede
fornece os valores de saída desejados.
O passo final é substituir na equação de falha as variáveis correspondentes, para cada
valor simulado ou fornecido pela rede neural. Para cada substituição avalia-se se a função
retornou um valor menor ou igual à zero computando-se, neste caso, uma falha. A
probabilidade de falha fp será, então, fornecida pela seguinte equação:
simulaçõesdetotalnúmerofalhasdetotalnúmerop f = ( 5.12 )
Consequentemente, a confiabilidade da estrutura virá de:
fp−= 1β ( 5.13 )
Encerra-se, assim, o ciclo que compõe o algoritmo integrado MCRN. Suas vantagens
em relação ao método Monte Carlo Tradicional, Monte Carlo com redução de variância e aos
métodos FORM, SORM e similares já foram amplamente discutidas neste trabalho.
142
5.9 MODULARIZAÇÃO E FUTURAS IMPLEMENTAÇÕES
O algoritmo MCRN não está limitado à utilização na avaliação de estruturas de
concreto armado. Na realidade, sua utilização abrange uma gama enorme de aplicações.
Dentre todo este escopo destas aplicações pode-se citar algumas:
• Avaliação de riscos de investimentos;
• Avaliação de riscos ambientais;
• Elaboração de planos de manutenção de parques industriais;
• Avaliação da confiabilidade de projetos logísticos;
• Avaliação da evolução e da confiabilidade de projetos de controle de poluição.
O projeto apresentado pode ser alterado de forma a se adaptar a todas estas propostas
de pesquisa, bastando para isto que novos módulos intermediários, no caso deste trabalho o de
avaliação estrutural, sejam agregados ao projeto.
Esta facilidade se dá devido a modularidade do projeto desenvolvido. A finalidade
deste tópico é informar que padrões de desenvolvimento um novo módulo deverá seguir para
se adaptar à estrutura global do projeto.
5.9.1 Classe projeto
A classe clsProjeto controla o módulo de simulação estatística. Ela é instanciada junto
com o módulo Monte Carlo e o objeto global modGlobal.objProjeto guarda o handle de
acesso à classe.
O objeto público collVariaveis é uma coleção de handles para cada variável simulada
pelo módulo Monte Carlo.
5.9.2 Classe Distribuição
Cada instância da classe clsDistribuição corresponde a uma variável simulada pelo
módulo Monte Carlo. Como dito no item 5.9.1, os handles de acesso a cada um destes objetos
encontram-se empilhados na coleção pública collVariaveis da classe clsProjeto.
143
O acesso às variáveis pode ser executado sequencialmente, até o limite de objetos
fornecido pela propriedade count de collVariáveis, ou diretamente pelo nome da variável
desejada. O trecho de código seguinte recupera o nome da terceira variável da coleção:
modGlobal.objProjeto.collVariaveis.item(3).variavel
5.9.3 Lista de variáveis disponíveis
Por padrão, o formulário formListaVariaveis é responsável por fornecer as listas de
variáveis disponíveis em memória, sejam elas variáveis simuladas pelo módulo Monte Carlo
ou resultado da execução do módulo intermediário.
A lógica de recuperação da lista das diversas variáveis disponíveis deve ser incluída
neste formulário. Isto cria uma flexibilidade enorme, pois independente de como um módulo
intermediário seja implementado, a lógica de recuperação do nome das variáveis
disponibilizadas estará encapsulada neste módulo. O padrão adotado é que o usuário sempre
escolherá a variável com a qual deseja trabalhar selecionando um célula de um objeto grid e
selecionando um botão de ação que cotém o texto “variáveis simuladas”. O rotina
correspondente ao evento click do botão é a responsável por inicializar o formulário
formListaVariaveis.
Após carregado, as propriedades públicas activeCol e activeRow deverão ser setadas
para a coluna e linha da célula do grid selecionada pelo usuário, respectivamente e em
seguida, a rotina desenvolvida para carregar a lista desejada deve ser chamada, recebendo
como parâmetros o ponteiro para o objeto de grid a ser preenchido e para o o bjeto form que o
contém. Desta forma criou-se o padrão global para o fornecimento da lista das variáveis
disponíveis.
A Rotina 5.3, mostra como foi implementado a lista das variáveis simuladas pelo
módulo Monte Carlo em formListaVariaveis e a Rotina 5.4 mostra a chamada à este método
efetuada a partir do formulário formBackPropagation.
144
Public Sub fillGrid(ByRef gridV As fpSpread, ByRef parentV As Form)
On Error GoTo errVariables
Set gridP = gridV
Set parentForm = parentV
With Me.grdVariaveis
.maxRows = modGlobal.objProjeto.collVariaveis.count
configuraGrid
' Se não foi simulado nenhuma variável a rotina será automaticamente
' desviada para o controle de erro.
.col = 1
For i = 0 To modGlobal.objProjeto.collVariaveis.count - 1
.row = i + 1
.TypeCheckText = modGlobal.objProjeto.collVariaveis.item(i + 1).variavel
Next i
.ReDraw = True
End With
Exit Sub
ErrVariables:
modGlobal.myMsgBox "Não existem variáveis simuladas. Por favor verifique.", , "
Exit Sub
End Sub
Rotina 5.3 – Lista de variáveis simuladas pelo módulo Monte Carlo.
145
Private Sub btnVariavelEntradaSimulada_Click()
With formListaVariaveis
Load formListaVariaveis
.activeCol = 1
.activeRow = 1
.fillGrid Me.grdConjuntoEntrada, Me
.Show 1
End With
Exit Sub
End Sub
Rotina 5.4 – Chamado formListaVariaveis para mostrar as variáveis simuladas por Monte Carlo
5.9.4 Definindo o módulo intermediário utilizado
A propriedade global modGlobal.moduloCentral deve conter a indicação do módulo
intermediário que se está utilizando. Esta indicação tem formato livre em forma de uma string
de caracteres. Por padrão a variável deve ser inicializada quando o formulário correspondente
for carregado em memória. Os formulários do projeto possuem um método privado
configuraForm, chamado a partir do evento form.load que inicializa todas as variáveis
necessárias à execução do formulário.
No módulo Rede Neural, no método privado montaConjuntoSaidaSimulado, será
necessário conhecer com qual módulo intermediário se está trabalhando para definir a
montagem do conjunto de treinamento da rede backpropagation.
146
5.9.5 Conjunto de saída da Rede Neural
Quando o botão “variáveis simuladas” é acionado pelo usuário para seleção das
variáveis que irão compor o conjunto de saída alvo da rede backpropagation, o método
privado montaConjuntoSaidaSimulado de formBackPropagation é invocado para a montagem
do conjunto baseado nas variáveis disponibilizadas pela execução do módulo intermediário
em questão.
O método é responsável pelo cálculo da média e desvio padrão das variáveis
selecionadas, pela obtenção de sua função de distribuição acumulada e pelo preenchimento
das matrizes conjuntoSaidaTreino e conjuntoSaidaTeste que conterão os valores utilizados
durante o treinamento e o teste da rede treinada, respectivamente, com os valores gerados para
a FDA de cada variável selecionada.
Para implementação de um novo módulo intermediário, este método deverá ser
alterado para recuperar os valores gerados de acordo com o padrão utilizado.
5.10 INSTALAÇÃO
O arquivo setup.exe, no diretório Package do CD fornecido com o projeto, executará a
instalação do aplicativo. Após a instalação, o diretório “icons” deverá ser copiado para o
diretório de instalação do aplicativo.
6 ESTUDOS DE CASO
Neste capítulo serão apresentados alguns exemplos que procurarão demonstrar a
utilização prática do software proposto. A idéia é mostrar sua aplicabilidade em termos de
validação de condições normativas e em termos da avaliação da confiabilidade de estruturas
que apresentem danos patológicos. O método proposto poderá evoluir, em futuras pesquisas,
para a elaboração de sistemas especialistas de controle de manutenção corretiva e preventiva
de estruturas.
6.1 FLECHAS EM VIGAS
6.1.1 Cálculo de flechas segundo a NBR 6118
O cálculo dos deslocamentos em vigas é efetuado pelo princípio dos trabalhos virtuais,
a partir da função ( )xM 0 do momento fletor devido ao carregamento atuante, da função
( )xM 1 do momento devido a uma carga concentrada unitária aplicada no ponto que se quer
determinar a deformação, do valor do módulo de elasticidade do concreto e do valor do
momento de inércia da seção transversal. A flecha corresponde à deformação no ponto de
maior deslocamento.
∫=
=
⋅⋅
=lx
x
dxMMIE
flecha0
101
148
Para vigas de concreto armado, além da não homogeneidade do material, deve-se
considerar a possibilidade de existência de fissura, no concreto tracionado, que diminui a
rigidez da seção nestas regiões.
σs - tensão no aço
σcs - tensão no concreto na altura do aço
εcc - Deformação concreto comprimido
εct - Deformação concreto tracionado
εst - Deformação armadura tração
εcc
εctεst σs
σcs
bf
hfx xd
d h
bz
M(z)
k
kεccx
εstd x−( )
Kr Ky Ku
u
Curvatura (tangente K)
I - trecho estádio III - trecho estádio IIIII - trecho estádio III
Mu
Momento
My
Mr
III
I
II
r
y
εyk εslim
fyk
εs
σs σc
εc2.0 3.5
fcm = fck + 3.5
ponto associado ao εykestádio I
entre as fissurasestádio II
nas fissuras
Figura 6.1 – Considerações sobre fissura do concreto tracionado.
149
Verifica-se nas vigas de concreto armado que os trechos onde aparecem as fissuras
comportam-se como no estádio II e os trechos entre fissuras comportam-se como no estádio I.
No estádio I o concreto resiste às tensões de tração junto com a armadura. Para valores acima
do momento de fissuração rM toda a tensão de tração passa a ser resistida pela armadura,
tendo a seção um comportamento do estádio II. O concreto armado fissurado, sob flexão,
produz uma não linearidade entre ações e deslocamentos que deve ser levado em conta para o
cálculo rigoroso das deformações em vigas de concreto armado. Há de se considerar também
um efeito não linear produzido pela fluência do concreto, provocada pelas ações de longa
duração. Para o cálculo de flechas em vigas a NBR 6118, 2003, permite adotar o processo
simplificado, baseado no modelo proposto por BRANSON15 apud CARVALHO, 2004, p.182,
que toma a variação da tensão ao longo da seção transversal e ao longo do comprimento de
uma maneira simplificada, permitindo obter um valor de inércia intermediário ao valor no
estádio I e no final do estádio II. A adaptação do modelo proposto por BRANSON, para
avaliação da flecha imediata em viga, sugerido pela NBR 6118 é dada pela equação:
ccsr
cr
cseq IEIMM
IMM
EI ⋅≤⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⋅⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎠⎞
⎜⎝⎛−+⋅⎟
⎠⎞
⎜⎝⎛⋅= 2
33
1 ( 6.1 )
onde:
• cI é o momento de inércia da seção de concreto homogeneizada, Estádio I;
• 2I é o momento de inércia da seção de concreto armado no estádio II puro;
• M é o momento fletor solicitante;
• rM é o momento de fissuração.
• csE é o Módulo de elasticidade secante do concreto igual à ckf⋅4760
15 BRANSON, D.E. (1968). Procedures for computing deflections. ACI Journal, 65. New York,setember.
150
De acordo com a NBR-6118, o momento de fissuração é dado por:
t
ctcr y
fIM inf,⋅⋅
=α
( 6.2 )
onde:
• ty é a distância do centróide da seção à fibra mais tracionada;
• inf,ctf é a resistência à tração direta do concreto, igual a 3/221,0 ckf⋅
• α é igual a 1,2 para seções T e 1,5 para seções retangulares.
A flecha imediata pode ser obtida a partir da equação da resistência dos materiais:
( )eq
c
Ilp
tW4
0⋅⋅
=α
( 6.3 )
onde:
• pé a carga definida por uma combinação de carregamento;
• l corresponde ao vão da viga;
• cα é o coeficiente obtido da resistência dos materiais que depende da
condição estática do sistema considerado e do tipo de ações atuantes.
A flecha adicional ∆W, incluindo os efeitos fluência do concreto, é dada por:
( ) ( ) ( )0´0
501tW
tftfW ⋅⎥
⎦
⎤⎢⎣
⎡⋅+
−=∆
ρ( 6.4 )
151
onde:
• ´ρ é a taxa de armadura de compressão na seção crítica, igual a db
As
⋅
´
;
• ( )tf é igual a 32,0996,068,0 tt ⋅⋅ ;
• t equivale ao tempo em meses para o qual se deseja o valor da flecha;
• ( ) 2=tf para t maior que 70 meses;
• 0t equivale à idade, em meses, relativa à data de aplicação da carga de
longa duração.
Para a aplicação do método é necessário o cálculo das características da seção nos
estádios I e II. Para tanto, define-se a relação entre os módulos de deformação longitudinal do
aço e do concreto eα :
c
se E
E=α
As equações ( 6.5 ), ( 6.6 ) e ( 6.7 ) fornecem a área da seção homogeneizada, o centro
de gravidade e o momento de inércia à flexão, no estádio I, respectivamente.
( ) ( )1−⋅+⋅+⋅−= eswfwfh AhbhbbA α ( 6.5 )
152
( ) ( )
h
eswf
wf
h A
dAhbh
bb
y
⋅−⋅+⋅+⎟⎟⎠
⎞⎜⎜⎝
⎛⋅−
=
122
22
α ( 6.6 )
( ) ( )
( ) ( )2
2233
1
221212
dyA
hyhbh
yhbbhbhbb
I
hes
hwf
hfwfwfwf
h
−⋅−⋅
+⎟⎠⎞
⎜⎝⎛ −⋅⋅+⎟⎟
⎠
⎞⎜⎜⎝
⎛−⋅⋅−+
⋅+
⋅−=
α
( 6.7 )
Para o cálculo do momento de inércia no estádio II puro deve-se conhecer a altura da
linha neutra, que pode ser obtida pela equação 02 =+⋅+⋅ cxbxa IIII , sendo a, b e c
fornecidos pelas equações ( 6.8 ), ( 6.9 ) e ( 6.10 ) respectivamente.
2wb
a = ( 6.8 )
( ) ( ) sesewff AAbbhb ⋅+⋅−+−⋅= αα '1 ( 6.9 )
( ) ( )wff
sese bbh
AdAdc −⋅−⋅⋅−⋅−⋅−=2
12
'' αα ( 6.10 )
153
sendo 'd a distância do centro de gravidade de 'sA até a borda comprimida de concreto. O
momento de inércia é calculado pelas equações ( 6.11 ) e ( 6.12 ), para fII hx < e fII hx >
respectivamente.
( ) ( ) ( )2''23
13
dxAdxAxb
I IIseIIseIIf
II −⋅⋅−+−⋅⋅+⋅
= αα( 6.11 )
( ) ( ) ( )
( ) ( )2''
2233
1
2312
dxA
dxAh
xbbxbhbb
I
IIse
IIsef
IIwfIIwfwf
II
−⋅⋅−
+−⋅⋅+⎟⎟⎠
⎞⎜⎜⎝
⎛−⋅−+
⋅+
⋅−=
α
α( 6.12 )
Para vigas com seção retangular e sem armadura negativa deve-se utilizar fw bb = ,
0=fh e 0' =sA .
6.1.2 Comportamento estatístico da variável aleatória Flecha
O módulo de rede Neural utiliza a distribuição de probabilidades das variáveis que
compõem o conjunto de saída para converter os valores normalizados entre 0 e 1, fornecidos
pela função de ativação dos neurônios da camada de saída, em valores reais. Como na
literatura encontram-se autores que tratam as flechas tanto com distribuição normal como com
distribuição lognormal, foi necessário estabelecer um estudo comparativo para determinar a
melhor opção. Utilizou-se no estudo a viga detalhada no item 6.1.3 e a viga proposta por
SARAIVA, 1997, p 109. Foram executas para cada viga 4 simulações com 500, 1000, 2000 e
5000 valores, utilizando-se os módulos Monte Carlo e Análise Estrutural detalhados no
capítulo 5. Para cada simulação testou-se a aderência dos valores gerados para as distribuições
exponencial, normal e lognormal. Apesar de não se encontrar referências à utilização da
distribuição exponencial para efeito de análise de flechas na literatura, esta distribuição foi
testada para efeitos comparativos. Os valores obtidos podem ser verificados na Tabela 6.1.
154
Uma análise criteriosa demonstra que a distribuição lognormal é a mais se encaixou na
maioria das simulações realizadas. Baseado neste estudo, adotou-se para este trabalho a
distribuição lognormal como sendo a distribuição da variável aleatória Flecha. As curvas de
aderência das distribuições lognormal são mostradas do Gráfico 6.1 ao Gráfico 6.8.
Tabela 6.1 – Testes de aderência para a variável aleatória Flecha.
Distribuição VigaQtd.
SimulaçõesMax
(Dist.Empírica – FDA)Kolmogorov
Smirnov Aderência
Exponencial Viga 1 500 0.5123026 0.03162278 Não
1000 0.02701612 0.02236068 Não
2000 0.02274727 0.02236068 Não
5000 0.5030734 0.01 Não
Viga 2 500 0.57179212 0.03162278 Não
1000 0.56818346 0.02236068 Não
2000 0.56848838 0.02236068 Não
5000 0.57060128 0.01 Não
Normal Viga 1 500 0.04833739 0.03162278 Não
1000 0.15695298 0.02236068 Sim
2000 0.16650105 0.02236068 Sim
5000 0.03141351 0.01 Não
Viga 2 500 0.04277806 0.03162278 Não
1000 0.02571302 0.02236068 Não
2000 0.02258205 0.02236068 Não
5000 0.01685081 0.01 Não
Lognormal Viga 1 500 0.04077104 0.03162278 Não
1000 0.11783064 0.02236068 Sim
2000 0.12698896 0.02236068 Sim
5000 0.00536518 0.01 Sim
Viga 2 500 0.03177873 0.03162278 Não
1000 0.02147993 0.02236068 Sim
2000 0.01231219 0.02236068 Sim
5000 0.00869573 0.01 Sim
155
0,02 0,025 0,03 0,035 0,04 0,045 0,050,
0,2
0,4
0,6
0,8
0, 0,05 0,1 0,15 0,2 0,20,
0,2
0,4
0,6
0,8
Gráfico 6.1 –aderência lognormal - viga 1 - 500 Gráfico 6.2 –aderência lognormal - viga 1 - 1000
0, 0,1 0,2 0,3 0,0,
0,2
0,4
0,6
0,8
0,02 0,03 0,04 0,05 0,060,
0,2
0,4
0,6
0,8
Gráfico 6.3 –aderência lognormal - viga 1 - 2000 Gráfico 6.4 –aderência lognormal - viga 1 - 5000
0,9 1, 1,1 1,2 1,3 1,40,
0,2
0,4
0,6
0,8
0,8 0,9 1, 1,1 1,2 1,30,
0,2
0,4
0,6
0,8
Gráfico 6.5 –aderência lognormal - viga 2 - 500 Gráfico 6.6 –aderência lognormal - viga 2 - 1000
156
0,8 0,9 1, 1,1 1,2 1,3 1,40,
0,2
0,4
0,6
0,8
0,8 0,9 1, 1,1 1,2 1,3 1,40,
0,2
0,4
0,6
0,8
Gráfico 6.7 –aderência lognormal - viga 2 - 2000 Gráfico 6.8 –aderência lognormal - viga 2 - 5000
6.1.3 Avaliação da confiabilidade da viga
Para a aplicação do algoritmo MCRN propõe-se a viga da Figura 6.2. A confiabilidade
da viga será avaliada em função da flecha, verificada segundo as considerações do item 6.1.1.
O dimensionamento seguiu as orientações da norma NBR 6118, de 2003. As
características da viga e as condições de carregamento estão mostradas na Tabela 6.2 e na
Tabela 6.3 respectivamente.
g1 g1g2
q1
P1 P1
300 300200
Figura 6.2 – Viga isostática.
157
Tabela 6.2 – Dados da viga.
Classe de
Agressividade
fck
(Mpa)
Cobrimento
(mm) Aço
Base
(cm)
Altura
(cm)
Módulo Elasticidade
Concreto
(kN/cm2)
I 20 25 CA-50 20 70 2504.4
Tabela 6.3 – Dados da viga.
q1
(kN/cm)
g1
(kN/cm)
g2
(kN/cm)
P1
(kN)
0,05 0,29 0,17 14
A resolução da viga levou à seguinte taxa de armadura:
2'
2
1.2
54.16
cmA
cmA
s
s
=
=
A flecha imediata verificada para a combinação de carregamentos quase permanente
foi de 1,37 cm. Segundo a NBR 6118, 2003, o critério para verificação da flecha imediata é:
350lflechaimediata < ( 6.13 )
Para o vão de 800 cm da viga, tem-se a valor da flecha imediata máxima em 2,29 cm,
que é maior que os 1,37 cm verificados, estando a viga de acordo com as limitações de
deformações impostas pela norma.
158
A flecha total no tempo infinito aponta para um valor de 2,58 cm. Segundo a NBR
6118, 2003, o critério para verificação da flecha imediata é:
250lflechamáxima < ( 6.14 )
Para o vão de 800 cm da viga, tem-se a valor da flecha máxima em 3,20 cm, que é
maior que os 2,58 cm previstos para a flecha no infinito, estando a viga de acordo com as
limitações de deformações impostas pela norma.
Posto que a flecha imediata esteja verificada, assume-se que o problema passa a ser a
variação da flecha no infinito, sendo este o parâmetro para determinação da confiabilidade da
estrutura.
A equação virá em função das equações ( 6.4 ) e ( 6.14 ). A taxa de armação 'ρ é
obtida em função da armadura de compressão igual a 1,8 cm2, de acordo com a formulação da
equação ( 6.15 ).
001547.02' =⋅
=db
Asρ ( 6.15 )
O tempo 0t , idade em meses relativa à aplicação da carga longa, será de 28 dias. Logo:
93.03028
30arg
0 === alongacidadet ( 6.16 )
A equação ( 6.17 ) mostra a equação de falha final, levando-se em consideração a
flecha verificada em 70 dias:
159
( ) 342,241326862,3501
)28()70(1250800
' ⋅−=⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎟⎠
⎞⎜⎜⎝
⎛⋅−
−+⋅− imediataimediata flechaffflecha
ρ( 6.17 )
Para a simulação dos carregamentos será utilizado um desvio padrão igual a µ⋅1,0 . A
distribuição de probabilidades dos carregamentos será considerada lognormal. A Tabela 6.4
resume as variáveis aleatórias utilizadas.
Tabela 6.4 – Variáveis aleatórias
Variável Distribuição µ σ
W1 Lognormal 0.30 0.030
W2 Lognormal 0.19 0.019
P Lognormal 14 1.4
I Lognormal 571666.67 57166.667
A Figura 6.3 mostra a proposta de discretização da viga. A parte central será
subdividida em dois membros de forma a obter-se o deslocamento no nó 3. Os membros 1 e 4
são carregados de acordo com a variável aleatória W1, os membros 2 e 3 com a variável
aleatória W2 e nos nós 2 e 4 será aplicada o carregamento simulado pela variável aleatória P.
A estimativa dos valores dos parâmetros para execução do módulo de rede neural seguiu os
estudos realizados no capítulo 4. Para o tamanho do conjunto de treinamento utilizou-se a
proposta de HAYKIN, 1994, p.179, de que este deve ser diretamente proporcional ao número
de pesos sinápticos da rede, W, e inversamente proporcional ao erro padrão desejado ente os
valores alvo e os gerados pela rede, ε .
εWN > ( 6.18 )
160
300 300100 100
Membro 1 Membro 2 Membro 3 Membro 4
Nó1 Nó2 Nó3 Nó4 Nó5
Figura 6.3 - Discretização da viga
A Tabela 6.5 descreve todos os valores utilizados para o treinamento da rede.
Tabela 6.5 – Parâmetros da rede neural
Número máximo de interações 500
Número de neurônios na camada oculta 6
Tamanho do conjunto de treinamento 240
Tolerância ao erro 0.001
Taxa de treinamento 0.075
Taxa de momento 0.1
Intervalo para geração dos pesos sinápticos ]-0.5, 0.5[
Função de ativação logística
A Tabela 6.6 mostra os 40 primeiros valores do conjunto de treinamento gerado após a
execução dos módulos Monte Carlo (variáveis W1, W2, P e I) e análise estrutural (variável
Flecha nó 3).A Tabela 6.7 mostra os 40 primeiros resultados da aplicação do conjunto de teste
depois de treinada a rede, com 500 interações (épocas de treinamento). Pode-se perceber que
a rede adquiriu uma excelente capacidade de convergir para os valores desejados sem perder
sua capacidade de generalização; a rede não se mostra especialista.
161
Tabela 6.6 – 40 primeiros valores do conjunto de treinamento.
Entrada Saída
W1 W2 P I Flecha nó 3
1 0,2968 0,1836 26,7071 601440,3703 1,24102 0,2632 0,1834 6,6505 555468,3380 0,98353 0,3257 0,1607 5,0516 522021,0608 1,14274 0,3628 0,2076 19,3449 599064,3618 1,32715 0,2938 0,1457 21,6564 596419,4763 1,12646 0,2786 0,1766 6,2329 503368,2064 1,10777 0,3610 0,2000 9,1753 609244,3211 1,16078 0,2860 0,2267 3,8963 472296,5068 1,25009 0,3484 0,1575 13,9519 656205,6710 1,0557
10 0,2599 0,1725 9,2494 590131,4836 0,937511 0,3401 0,1543 13,5049 561534,0271 1,203412 0,2934 0,2088 5,3727 534307,8829 1,116713 0,3353 0,1836 6,4068 499211,6537 1,279014 0,2966 0,1589 7,9170 590951,9265 0,980315 0,2564 0,1666 16,4946 497041,1698 1,207716 0,3036 0,1934 5,7156 486265,4012 1,233817 0,2776 0,1778 16,1160 473730,8179 1,338618 0,3355 0,1784 10,1980 670221,0773 0,990819 0,2959 0,1583 2,8209 565636,9080 0,951820 0,3014 0,1770 9,2592 549412,9259 1,112221 0,3025 0,1764 11,7621 616515,3017 1,024422 0,3090 0,1806 1,1300 595781,8500 0,941123 0,2815 0,1786 16,7802 527307,3600 1,223324 0,3032 0,2289 16,8316 565461,5639 1,265125 0,3170 0,1940 4,1219 497675,1493 1,216526 0,2289 0,1921 11,4136 556499,1013 0,981027 0,2493 0,1826 12,1195 571611,1713 0,997428 0,2793 0,1694 31,2848 608257,9983 1,229129 0,3678 0,1634 10,5930 472238,5555 1,475330 0,3511 0,1900 22,5308 618707,4363 1,276731 0,3089 0,1928 3,6518 557478,9182 1,058832 0,3091 0,1898 2,2731 549091,0457 1,051533 0,2652 0,1799 9,7703 699013,9248 0,815934 0,3121 0,1670 70,4405 571983,4773 1,911035 0,2959 0,1794 3,3665 508237,4251 1,102036 0,3307 0,1590 10,3046 544275,3292 1,180537 0,3365 0,2071 8,6920 515564,3293 1,313738 0,2637 0,1637 25,4530 510343,3093 1,326639 0,2874 0,1936 21,7515 594620,8300 1,183840 0,2607 0,1770 4,2734 504772,9410 1,0287
162
Tabela 6.7 – Resultado do teste da rede neural treinada.
Saída Rede Neural Valor Alvo Erro relativo
1,0743 1,0621 1,13431,0034 0,9090 9,40371,1389 1,1458 0,60251,2736 1,2405 2,59761,1777 1,1808 0,25741,2203 1,2717 4,21091,0497 1,0697 1,91091,0535 1,0723 1,78541,0261 1,0449 1,83221,1186 1,1430 2,17701,3557 1,3695 1,01901,2937 1,3173 1,82230,9684 0,9118 5,84611,3405 1,3221 1,37811,1554 1,1523 0,26401,1779 1,1522 2,18641,0093 0,9835 2,55091,2347 1,2185 1,31561,2818 1,3400 4,53991,3044 1,3186 1,09161,1128 1,0910 1,95111,1246 1,1207 0,35080,9901 0,9805 0,96461,0499 1,0617 1,12911,0622 1,0760 1,29521,1508 1,1623 0,99901,1090 1,1164 0,67401,2012 1,1832 1,50091,1250 1,1186 0,57251,3521 1,3870 2,58001,1900 1,1825 0,62841,0417 1,0473 0,54351,1513 1,1300 1,85061,2928 1,2643 2,20401,1039 1,1464 3,84971,1684 1,1778 0,81190,9752 0,8667 11,12961,2638 1,2442 1,54871,2861 1,2712 1,15660,9650 0,8911 7,6618
Erro quadrático 2,2758.10-3
163
O módulo de confiabilidade foi executado com 5000 simulações do cenário elaborado
anteriormente. A confiabilidade obtida foi de 100 %, o que significa que a viga está atendendo
os requisitos normativos.
Foi executada uma simulação com 5 neurônios na camada de saída. Para este caso a
rede neural mostrou-se instável, apresentando erros relativos de 26% e 43%, valores atípicos
quando comparados com os demais. Para esta simulação, a confiabilidade obtida foi de
99,62%. O teste anterior, com a rede apresentando uma maior estabilidade nos resultados
testados foi considerado o teste válido para a avaliação da viga proposta. A Tabela 6.8 mostra
a saída da rede neural para a simulação com 6 neurônios na camada oculta.
6.1.4 Patologia e recuperação de estruturas
Um dos grandes problemas na engenharia civil, atualmente, é o número crescente de
estruturas deterioradas. Os motivos para este número crescente vão desde a busca por
estruturas mais arrojadas, encorrendo-se em maiores riscos, até a utilização de materiais não
apropriados. Segundo SOUZA, 2001, p. 13:
“[...]Este complexo conjunto de fatores gera o que é chamado dedeterioração estrutural. Objetivamente, as causas da deterioração podemser as mais diversas, desde o envelhecimento natural da estrutura até osacidentes, e até mesmo a irresponsabilidade de alguns profissionais queoptam por materiais fora da especificação, na maioria das vezes poralegadas razões econômicas.”
O fato é que a necessidade de estabelecer critérios básicos para a análise do nível de
deterioração de uma estrutura e a padronização de ações e métodos a serem utilizados na sua
recuperação, fez nascer o estudo da patologia, recuperação e reforço das estruturas de
concreto que, além de se preocupar com o caráter corretivo das anomalias encontradas,
também prevê métodos preventivos na tentativa de amenizar o aparecimento de danos
estruturais provocados por corrosão de armaduras, carbonatação do concreto etc. O estudo
sobre o nível de deterioração de uma estrutura inicia-se por uma avaliação minuciosa da
mesma, detectando-se todos os pontos aonde possa haver comprometimento da segurança. De
forma semelhante, o estudo a respeito do nível de agressividade que o ambiente no qual a
estrutura será inserida provocará, também depende de uma análise detalhada das condições
ambientais, níveis de substâncias agressivas no ar, nível de umidade, presença de agentes
químicos corrosivos etc.
164
Tabela 6.8 – Resultado do teste da rede neural treinada.
Saída Rede Neural Valor Alvo Erro relativo
1,0665 1,0978 2,94001,1029 1,1649 5,62081,1719 1,1496 1,90371,0064 1,0156 0,91941,0720 1,1750 9,60480,9521 0,9820 3,13421,1412 1,1149 2,30041,2494 1,3781 10,29401,1675 1,1404 2,31941,0689 1,0841 1,42070,8696 0,8937 2,76921,2208 1,2313 0,86120,9991 0,9750 2,41150,9279 0,9639 3,87021,0332 1,0718 3,73751,2331 1,2835 4,08760,8562 0,8734 2,01041,0987 1,0884 0,93671,3152 1,8903 43,72480,8555 0,8612 0,66981,0409 1,0516 1,02881,2512 1,2878 2,92941,0836 1,1445 5,62681,1552 1,1834 2,44060,8094 0,7403 8,53690,9983 0,9839 1,44670,9550 0,9695 1,51440,9867 1,0150 2,86861,0066 1,0153 0,86651,2848 1,6210 26,16321,1443 1,1689 2,14561,0584 1,1487 8,52611,2260 1,3343 8,83270,9522 0,9703 1,89800,9159 0,9505 3,77821,2268 1,2756 3,98361,2619 1,3685 8,44451,2339 1,2408 0,55730,9298 0,9390 0,98621,1959 1,1774 1,5493
Erro quadrático 4,92.10-3
165
Após a análise minuciosa dos fatos citados, o engenheiro deverá tomar uma decisão a
respeito dos métodos de recuperação ou prevenção a serem adotados baseados na criticidade
encontrada. O fluxograma da Figura 6.4 foi proposto por SOUZA, 2001, p. 80, como um guia
para orientar o trabalho de detecção de danos e análise de impacto. Os primeiros passos
propostos são: o exame visual da estrutura e a análise do meio ambiente, seguidos se uma
decisão a respeito da tomada ou não de medidas urgentes.
Neste ponto de tomada de decisão, a análise da confiabilidade da estrutura avaliada
pode ser um diferencial extraordinário para o engenheiro. O ambiente integrado, proposto por
este trabalho, pode se tornar uma ferramenta poderosa no auxílio desta análise.
A avaliação da confiabilidade de uma estrutura danificada raramente é executada
durante o processo inicial que, na maioria dos casos, envolve um exame superficial baseado
em critérios puramente subjetivos, que levam em consideração, muitas das vezes, apenas o
comportamento dos aspectos estéticos. Na tomada de decisão observa-se em geral que essa
avaliação apressada, superficial e inconsequente, pode levar a dois extremos igualmente
danosos: simples reparos superficiais ou demolições injustificadas de grandes estruturas, que
causam enormes danos materiais, morais e sociais. Tendo em vista que as cargas atuantes nas
peças de uma estrutura são majoradas com a utilização de coeficientes determinísticos
exagerados, principalmente nas peças de menor importância, a idéia é a de utilizar a
confiabilidade do elemento que apresenta o problema patológico como uma medida auxiliar,
mais consistente, na tomada de decisão.
Para demonstrar de uma maneira simples esta proposta, será imposto à viga analisada
anteriormente um ponto de perda de área de concreto, que pode ser provocado por corrosão
das armaduras, carbonatação do concreto, estado de fissuração excessivo, corrosão química
do concreto etc. A confiabilidade da estrutura reavaliada neste exemplo.
A Figura 6.5 mostra a proposta de dano a ser analisada. Será simulado um
desplacamento do concreto na seção correspondentes aos membros 2 e 3, afetando,
basicamente, a camada de cobrimento das armaduras da parte superior da viga. Vale ressaltar
que esse tipo de patologia ocorre com bastante frequência, tendo em vista a má execução das
obras e a ausência de planos de manutenção preventiva.
Para a simulação serão introduzidas duas novas variáveis aleatórias: o momento de
inércia da seção comprometida e o módulo de elasticidade do concreto. A Tabela 6.9 mostra a
nova configuração de variáveis aleatórias. A Tabela 6.10 mostra o resultado das simulações
efetuadas para o cenário proposto.
166
Exame visual da estrutura Análise do meio ambiente
Medidasurgentes
Providênciasemergenciais
Histórico
Mapeamentode
Anomalias
Identificaçãode Erros
Análise do projeto Instrumentação eensaios laboratoriais
Novosdados Coleta de dados
Análise dos dados
Diagnóstico
Fim
Sim
Não
Sim
Não
Sim
Não
Figura 6.4 – Fluxograma genérico para a diagnose de uma estrutura convencional.
Fonte: SOUZA, 2001, p. 80
167
Tabela 6.9 – Variáveis aleatórias
Variável Distribuição µ σ
W1 Lognormal 0.30 0.030
W2 Lognormal 0.19 0.019
P Lognormal 14 1.4
I1 Lognormal 571666.67 57166.667
I2 Lognormal 501271.67 50127.167
E2 Lognormal 2504.4 250.44
Tabela 6.10 – Confiabilidade da viga danificada.
Número de Simulações Confiabilidade Probabilidade de Falha
1000 91,2000 0,0880
2000 91,4001 0,0860
3000 92,0667 0,0793
4000 92,3500 0,0765
5000 92,0800 0,0792
10.000 91,4700 0,0853
15.000 91,7600 0,0824
20.000 91,6150 0,0838
25.000 91,6760 0,0832
30.000 91,3900 0,0861
300 300100 100
Membro 1 Membro 2 Membro 3 Membro 4
Nó1 Nó2 Nó3 Nó4 Nó5
I1 = 571666.67 m4E = 2504.4 kN/cm2
I1 = 571666.67 m4E = 2504.4 kN/cm2
I2 = 501271.67 m4E2 = 2504.4 kN/cm2
Figura 6.5 – Viga com desplacamento do concreto.
168
6.2 PLANOS DE MANUTENÇÃO EM ESTRUTURAS DE CONCRETO ARMADO
Este estudo de caso destina-se a demonstrar como o software desenvolvido pode
auxiliar na elaboração de um plano de manutenção preventiva para estruturas de concreto
armado. O exemplo baseia-se no estudo efetuado por SILVA, 1997, que propôs um método
para previsão da vida útil de uma laje pré-moldada sujeita a um processo de corrosão das
armaduras. O método proposto avalia duas fases distintas do processo de degradação
estrutura: uma fase de iniciação e uma fase de propagação.
Na fase de iniciação estima-se o tempo para o início do processo de corrosão, em
função da degradação do concreto por motivo de penetração de cloretos ou CO2. Na fase de
propagação, onde a corrosão já é considerada ativa, avalia-se sua evolução até que esta atinja
um estado limite. Para a avaliação da fase de iniciação, SILVA utiliza as equações propostas
por MORINAGA16, apud SILVA, 1997, p. 3:
( ) ( ) ( ) ( ) 5.05.0 76,16,40217,0174,0391,144,25/ tWTURRCx ⋅−⋅⋅⋅+⋅−⋅⋅⋅= ( 6.19 )
( ) ( ) ( )( ) ( ) 5.0
5.05.0
315,125,09,40217,0174,0391,144,25/ t
WWTURRCx ⋅⎟⎟
⎠
⎞⎜⎜⎝
⎛⋅+
−⋅⋅⋅+⋅−⋅⋅⋅= ( 6.20 )
onde:
t Profundidade da carbonatação;
C Concentração de CO2;
R Razão da velocidade de carbonatação em função do material de revestimento;
T Temperatura;
UR Umidade relativa;
16 Morinaga, S.;(1990).Prediction of service lives of reinforced concrete buildings based on thecorrosion rate of reinforcing steal. Proceedings 5th International Conference – Durability of BuildingsMaterials and Components, Brighton, Reino Unido, 5-16.
169
W Fator água cimento e
t Tempo em dias.
Para a avaliação da fase de propagação, SILVA propõe que a redução da seção das
armaduras seja obtida segundo a lei de Faraday:
ticorrit ⋅⋅−= 0232,0φφ ( 6.21 )
onde:
tφ Diâmetro da armadura no tempo t, em milímetros;
iφ Diâmetro inicial;
corri Intensidade da corrosão e
t Tempo em anos.
Nos casos em que a corrosão ocorre pela carbonatação do concreto a seguinte equação,
proposta por MORINAGA, é utilizada:
6543211 55,25042,433,276,23443,3535,184,21 XXXXXXq ⋅+⋅+⋅+⋅−⋅−⋅−= ( 6.22 )
onde:
1q Taxa de corrosão;
1X Temperatura;
2X Umidade relativa;
3X Concentração de oxigênio;
170
4X Interação entre 1X e 2X ;
5X Interação entre 1X e 3X e
6X Interação entre 2X e 3X
A seguir, a equação proposta para estudar o efeito da fissuração no concreto causada
pela corrosão:
ddcQcr ⋅⎟
⎠⎞
⎜⎝⎛ ⋅+⋅=
85,0
21602,0 ( 6.23 )
onde:
1q Taxa de corrosão quando o concreto fissura;
c Cobrimento das armaduras e
d Diâmetro das armaduras.
O tempo para o início da fissuração é determinado com os valores da taxa de corrosão,
obtido pela equação ( 6.22 ), para o caso de carbonatação, e pelo total de corrosão obtido pela
equação ( 6.23 ):
1qQcrtp = ( 6.24 )
SILVA utilizou intervalos de tempo constantes, que chamou de idades da edificação,
ied . Para cada idade, estimou o tempo de iniciação, iti e o tempo de propagação, itp , como
sendo:
171
iii tiedtp −= ( 6.25 )
Os valores de iti e de itp foram estimados para cada barra e seção da laje, permitindo
calcular o momento resistente de cada seção crítica. Considerando a redistribuição de
esforços, SILVA determinou a carga máxima resistente da laje nervurada para cada
simulação. Ao final das simulações determinou os parâmetros estatísticos da carga máxima
resistente, variável aleatória PRESIS, cuja função de distribuição que melhor se ajustou foi a
Lognormal. Durante o processo de simulação, duas outras variáveis aleatórias foram
simuladas: carga permanente, PSOLPP, com função de distribuição normal e sobrecarga,
PSOLSL, com função de distribuição extremo tipo I. Utilizando a equação de falha definida
em ( 6.26 ) e o método FORM, SILVA estimou a probabilidade de falha da laje, para cada
período de tempo, de forma progressiva, determinando quais as partes da laje que devem ser
recuperadas e a que nível deve ser esta recuperação. Os cenários de falha produzidos
basearam-se na fissuração produzida pela corrosão e pela perda da capacidade resistente à
flexão
)0( ≤−−= PSOLSCPSOLPPPRESSISPpfi ( 6.26 )
Os valores das variáveis aleatórias foram calibrados após várias inspeções em
estruturas da região de Barcelona, Espanha. O caso real avaliado, utilizou uma laje de
dimensões 5,95 x 3,80, com uma profundidade de carbonatação medida igual a 18mm e uma
idade de 38 anos. SILVA concluiu que, para uma probabilidade de falha de 5x10-4, a corrosão
iniciou-se no sexto ano, prazo onde a viga deveria ter sofrido uma manutenção preventiva
para evitar que o processo se alastrasse, comprometendo a estrutura. Para esta mesma
probabilidade de falha, o tempo estimado para perda da capacidade resistente à flexão foi de
51 anos. Ou seja, entre a data da inspeção e os 13 anos seguintes, a laje deverá sofrer uma
manutenção corretiva.
O método demonstra claramente a possibilidade de se criar planos de manutenção para
estruturas de concreto armado utilizando-se processos estocásticos e os conceitos de
172
confiabilidade discutidos neste trabalho. De forma a utilizar o software desenvolvido para
demonstrar a possibilidade de se criar o controle de manutenções em um ambiente integrado,
propôs-se a avaliação de uma laje pré-moldada, Figura 6.6, similar à laje avaliada por SILVA.
Para efeito de simplificação, propôs-se uma área definida, afetada pela carbonatação.
Paredes
500
300
Figura 6.6 – Laje proposta para avaliação da probabilidade de falha.
50
Camada de concreto
Camada de regularização
5
Figura 6.7 – Disposição das vigotas.
A Tabela 6.11 mostra as variáveis aleatórias que definem as condições ambientais
encontradas por SILVA. Estas variáveis foram simuladas para a pesquisa do avanço do
processo de carbonatação com o tempo. Pelo Módulo de Manutenção desenvolvido, que
utiliza as equações ( 6.19 ) e ( 6.20 ), e calculando-se a laje como uma grelha, pelo método da
rigidez descrito no item 5.5, simulou-se o tempo que a carbonatação levou para atingir as
armaduras da vigotas da laje pré-moldada, 13 mm.
173
Tabela 6.11 – Variáveis aleatórias
Variável Descrição Distribuição µ σ
C Concentração de CO2 Normal 0.055 0.0088
W Fator água/cimento Lognormal 0.59 0.059
T Temperatura Normal 19 3,42
UR Umidade relativa Lognormal 0.6 0,1035
Para cada intervalo de tempo, definido de um em um ano, utilizou-se o módulo de
Monte Carlo, para simular as variáveis aleatórias definidas seguindo os parâmetros
estatísticos levantados por SILVA Após cada simulação, as equações propostas foram
avaliadas para definição da profundidade de carbonatação. O método prosseguiu,
automaticamente, até que a profundidade média da última simulação fosse igual ou maior que
a camada de cobrimento das armaduras, 13 mm. O valor obtido foi de 6 anos para que a
carbonatação atingisse as armadura, fato que coincide com o início do processo de corrosão,
visto que o concreto estará poroso a ponto de permitir o aumento da umidade e da taxa de
oxigênio junto às armaduras, fator determinante para dar início ao processo eletrolítico de
corrosão.
O valor de 6 anos obtido coincide com o valor obtido por SILVA para inicio da
fissuração provocada pelo corrosão na sua laje avaliada. Adotou-se, por simplificação, que
neste ponto a camada de concreto do cobrimento já não contribui para a resistência à flexão
do conjunto. Assim, os momentos de inércia dos membros afetados pelo processo de
carbonatação foram recalculados, levando-se em consideração a perda da camada de
cobrimento. As mesmas premissas da viga estudada no item anterior foram utilizadas para a
avaliação da probabilidade de falha da laje. Ou seja, decidiu-se avaliar a probabilidade de
falha em relação ao não atendimento das condições normativas de flecha limite no infinito. O
deslocamento vertical do nó 37 foi utilizado como o valor da flecha da laje.
Os nós e os membros utilizados na discretização da laje são mostrados na Figura 6.8 e
na Figura 6.9, respectivamente. Os membros de 1 a 54 são formados pelas vigotas da laje pré-
moldada. Os membros de 55 a 104 são formados pela capa de concreto da laje, que contribui
para a rigidez do conjunto.
174
1 2 3
17
5 6 7 8 9
1210 11
4
13 15 16 18 19 20
2521 22 23 24
35
26 27 28 29 30 31
32 33 34
14
36 37 38 39 40 41 42
43 44 45 46 47 48 49 50 51 52 53
54 55 56 57 58 59 60 61 62 63 64
65 66 67 68 69 70 71 72 73
Figura 6.8 – Nós da laje discretizada.
1 2 3
17
5 6 7 8 9
1210 11
4
13 15 16 18
19 20 2521 22 23 24
35
26 27
28 29 30 31 32 33 34
14
36
37 38 39 40 41 42 43 44 45
46 47 48 49 50 51 52 53 54
55 56 57 58 59 60 61 62 63 64
65 66 67 68 69 70 71 72 73 74
75 76 77 78 79 80 81 82 83 84
85 86 87 88 89 90 91 92 93 94
95 96 97 98 99 100 101 102 103 104
Figura 6.9 – Membros da laje discretizada.
.
175
A Figura 6.10 mostra a região considerada carbonatada e os membros afetados e a
Tabela 6.12 as características das variáveis aleatórias utilizadas na avaliação da laje.
Tabela 6.12 – Variáveis aleatórias
Variável Descrição Distribuição µ σ
MELONG M. Elasticidade longitudinal concreto Lognormal 3031,25 303,125
METRANS M. Elasticidade transversal concreto Lognormal 1485,91 148,591
IXVIGOTA Mom. Inércia X das vigotas Lognormal 3441,67 344,167
IYVIGOTA Mom. Inércia Y das vigotas Lognormal 2442,92 244,292
IXVIGOTAC M. Inércia X das vigotas carbonatadas Lognormal 2733,51 273,351
IYVIGOTAC M. Inércia Y das vigotas carbonatadas Lognormal 2334,58 233,458
IXCAPA M. Inércia X da camada de concreto Lognormal 56,36 5,636
IYCAPA M. Inércia Y da camada de concreto Lognormal 59,98 5,998
QM1-54 Carregamento nos membros de 1 a 54 Lognormal 0,2714 0,02714
QM55-104 Carregamento nos membros de 55 a 104 Lognormal 0,1629 0,01629
12 13
21 22 23
31
Figura 6.10 – Região afetada pela carbonatação.
176
Os momentos de inércia dos membros afetados pela carbonatação (membros 12, 13,
21, 22, 23 e 31) foram associados às variáveis IXVIGOTAC e IYVIGOTAC e seus módulos
de elasticidade transversal e longitudinal associados à MELONG e METRANS,
respectivamente. Os momentos de inércia dos demais membros foram associados às variáveis
IXVIGOTA e IYVIGOTA, e seus e seus módulos de elasticidade transversal e longitudinal
fixados em 3031,35 e 1485,91, respectivamente.
Os membros formados pela camada de concreto superior da laje, membros 55 à 104,
tiveram seus momentos de inércia atribuídos às variáveis IXCAPA e IYCAPA.
As variáveis QM1-54 e QM55-104, simularam os carregamentos nos membros
formados pelas vigotas e nos membros formados pela capa de concreto, respectivamente.
A Tabela 6.13 mostra os parâmetros utilizados para o treinamento da rede neural. O
conjunto de treinamento foi montado com as variáveis aleatórias simuladas e com os
respectivos deslocamnetos verticais no nó 37 da laje, obtidos após 300 simulações.
Tabela 6.13 – parâmetros da rede neural
Número máximo de interações 500
Número de neurônios na camada oculta 6
Tamanho do conjunto de treinamento 240
Tolerância ao erro 0.001
Taxa de treinamento 0.075
Taxa de momento 0.1
Intervalo para geração dos pesos sinápticos ]-0.5, 0.5[
Função de ativação Logística
A Tabela 6.14 mostra o resultado do treinamento da rede neural. Pode-se verificar que
a rede demonstrou uma capaciade bastante confiável de responder à deformação vertical do
nó 37 em presença das variáveis simuladas. A confiabilidade e as respectivas probabilidades
de falha, obtidas após o treinamento da rede neural, estão mostradas na Tabela 6.15.
177
Tabela 6.14 – Resultado do teste da rede neural treinada.
Saída Rede NeuralValor Alvo
Flecha Nó 37 Erro relativo
1,0840 1,0828 0,10731,1899 1,2027 1,07411,1903 1,1988 0,71651,1251 1,1402 1,33941,2370 1,2277 0,75141,3679 1,3707 0,19971,3409 1,3887 3,56191,0857 1,0995 1,27861,1165 1,1290 1,11361,1465 1,1486 0,18551,3322 1,3230 0,68761,2090 1,1875 1,77841,2433 1,2570 1,09901,3174 1,3053 0,92151,1199 1,1247 0,43191,2967 1,2868 0,75831,3196 1,3949 5,70311,2082 1,2128 0,38121,3428 1,3670 1,80281,1109 1,1214 0,94961,2465 1,2719 2,03951,3381 1,3238 1,07211,1749 1,1869 1,01411,2677 1,2187 3,86231,2842 1,3078 1,83791,2147 1,2221 0,60911,2674 1,3349 5,32331,0321 0,9041 12,40391,3761 1,4408 4,70601,3421 1,3276 1,08081,0616 0,9771 7,95621,4063 1,4424 2,57171,3245 1,3119 0,95101,3145 1,2904 1,83771,3244 1,3570 2,45731,1646 1,1913 2,28991,1613 1,1908 2,53681,2030 1,1969 0,50941,1778 1,1849 0,6065
Erro quadrático 4,98865.10-3
178
Tabela 6.15 – Confiabilidade da laje carbonatada.
Número de Simulações Confiabilidade Probabilidade de Falha
1000 99,6000 0,00402000 98,0500 0,01953000 98,8000 0,01174000 98,4250 0,01585000 98,5200 0,0148
10000 98,4400 0,015615000 98,7100 0,012920000 98,5950 0,014125000 98,6360 0,013630000 98,6500 0,0135
6.3 CONCLUSÕES
Os ambientes de softwares atuais, destinados a avaliar a confiabilidade e a elaborar
planos de manutenção de determinados elementos estruturais e industriais, como filtros de
óleo, vasos de pressão etc, vêm se proliferando a cada ano. Métodos como a Manutenção
Baseada na Confiabilidade, que visam identificar os Modos de Falha de sistemas produtivos,
utilizam técnicas como FMEA e FMECA, aliadas a algoritmos de decisão, que permitem
identificar gargalos não só em elementos estruturais ou máquinas, mas também em processos,
reduzindo perdas de produção nas Unidades avaliadas. De uma forma geral, o trabalho de
identificação segue as seguintes fases:
• Levantamento e estratificação de dados;
• Análise de Falhas (FMEA);
• Avaliação da criticidade das falhas e
• Geração de tarefas preventivas, através de diagramas de decisões, específicos.
Se levado para o lado da administração de uma obra civil, estes métodos por si só já
atendem às necessidades das construtoras e empreendedoras. Porém, na medida em que os
problemas se voltam para o acompanhamento das estruturas ao longo de sua vida útil, além do
179
estabelecimento de metodologias de acompanhamento de processos, necessita-se de métodos
que auxiliem no conhecimento do comportamento destas estruturas em relação ao meio
ambiente em que estão inseridas. Diversos são os livros, artigos e tese que descrevem
minuciosamente os processos de degradação do concreto armado devido a estes fatores
agressivos. A evolução dos softwares atuais incorporando métodos de avaliação estocásticos
que levem em conta algoritmos de degradação das estruturas de concreto armado, a enorme
capacidade das redes neurais em aprender a reconhecer padrões e a integração entre sistemas
da análise não linear de estruturas em geral, fornecerá uma ferramenta completa para que os
engenheiros possam prever, com razoável antecedência, a necessidade de uma intervenção em
uma estrutura, evitando danos posteriores, e possam determinar com segurança o quanto é
confiável uma estrutura já danificada.
7 CONCLUSÕES
A proposta desta pesquisa, em mostrar que a criação um ambiente integrado de
software que implemente o algoritmo MCRN, proposto por SARAIVA, 1997, além de contar
com todas as vantagens extensivamente citadas por SARAIVA e por este trabalho em relação
aos métodos tradicionais para determinação da confiabilidade estrutural, dá ao engenheiro
uma poderosa arma para análise de estruturas comprometidas, foi alcançado.
A validade do método já foi devidamente demonstrada por SARAIVA, 1997 e por
PAPADRAKAKIS, 1996 et al. O que restava superar era o intenso trabalho demandado pela
necessidade de convivência com 3 ambientes de softwares diferente. O produto desenvolvido
demonstra que a análise em um ambiente integrado torna o trabalho bem mais ameno,
permitindo que diversas situações possam ser simuladas dando maior credibilidade ao produto
final.
A proposta de utilização da probabilidade acumulada das variáveis aleatórias para
normalizar os valores do conjunto de treinamento da rede neural mostrou-se eficiente, para
um número de épocas de treinamento em torno de 500, e abre um amplo campo de pesquisa já
que permite que se tire proveito da correlação estatística entre as variáveis simuladas.
O estudo de caso mostrou que o método pode trazer um diferencial muito grande se
utilizado em conjunto com os estudos de patologia, recuperação e reforço de estruturas, dando
ao engenheiro uma ferramenta para tomada de decisões a respeito da criticidade do caso em
estudo.
181
7.1 SUGESTÕES PARA FUTURAS PESQUISAS
Como considerações para futuras pesquisas destacam-se:
• Pesquisas de novas distribuições de probabilidade para incremento do módulo
Monte Carlo;
• Utilização de algoritmos numéricos de integração mais eficientes de forma a
melhorar a acuidade da geração das distribuições de probabilidade acumuladas;
• Utilização de simulações com variações temporais;
• Pesquisa de novos métodos numéricos para geração da função inversa além do
método de Newton Raphson como sugerido por DEVROYE, 1986;
• Implementação de um módulo de análise não linear de estruturas de forma a se
obter valores mais precisos para as deformações e esforços resistentes das
estruturas analisadas, além de prover uma maior diversificação de estruturas a
serem analisadas;
• Adoção de algoritmos para melhoria da eficiência da rede neural, como análise de
variação temporal, WERBOS, 1990 e ROITMAN, 2001, alteração da taxa de
treinamento durante o treinamento, HAYKIN, 1994, validação do fenômeno de
treinamento excessivo com consequente perda de generalização, TZAFESTAS,
1996.
• Estudos de novos modelos de redes neurais, como redes auto-organizáveis, redes
recorrentes, Hopfield;
• Utilização de modelos matemáticos de deterioração de materiais como concreto e
aço, ao longo do tempo, que em conjunto com as redes neurais temporais
fornecerão um método excelente de previsão de perda de confiabilidade de
estruturas sujeitas a determinados ambientes impróprios. Desta forma, o algoritmo
proposto poderá ser utilizado de forma bem eficiente para o planejamento de um
plano de manutenção preventiva de estruturas. A pesquisas de FARAGE, 2000,
que propõe um método numérico para determinação do efeito da reação alcalis-
agregado no concreto, de SILVA, 2002, que propõe um modelo para simular o
crescimento do problema de corrosão das armaduras e NEAL, 1993, que fornece
182
um estudo detalhado para utilização das cadeias de Markov são documentos que
poderão auxiliar a pesquisa;
• Utilização de algoritmos genéticos para controle da escolha dos parâmetros da rede
neural baseado no histórico das estruturas analisadas;
• Utilização de algoritmos fuzzy para extração das funções de falha da rede treinada,
para atender aos casos em que estas funções não podem ser explicitadas, além da
extração das regras, que podem vir a ser utilizadas em sistemas especialistas no
controle e planejamento de manutenções corretivas e preventivas das estruturas em
estudo.
• Implementar novos módulos intermediários, seguindo o padrão descrito no item
5.9, para evolução do algoritmo na exploração de novas áreas, como análise de
risco, meio ambiente, manutenção industrial etc.
8 OBRAS CITADAS
ALEXANDRA, Cristea; CRISTEA, P.; OKAMOTO, T. Neural network knowledgeextraction: Revue Roumaine des Science Technique: Série Électrotechinique etÉnergétique. Bucharest. v.43, n.1, 1998. Disponível em:http://wwwis.win.tue.nl:8080/~acristea/Journals/REVROU/. Acesso em: 20 de junhode 2005.
ANG, Alfredo H-S.: TANG, Wilson H. Probability concepts in engineering planningand design: Decision, risk and reliability. New York : John Wiley & Sons, Inc, V. 2,n.2, p. 562, 1984.
ARAUJO,José Milton de. Processos simplificados para cálculo de flechas de vigasde concreto armado. Teoria e prática na Engenharia Civil. Dunas, n.5, p.1-10. 2004.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 6118 – Projeto deestruturas de concreto: Procedimento. Rio de Janeiro, 2003, 170 p.
BRATLEY, Paul; FOX, Bennett L.; SCHRAGE, Linus E. A guide to simulation. NewYork: Springer-Verlag, 1987, 397 p.
BUSSAB, Wilton de O.; MORETTIN, Pedro A. Estatística Básica. 5º ed. São Paulo :Editora Saraiva, 2004, 526.
CARVALHO, Roberto C.; FILHO, Jasson RODRIGUES F. Cálculo e detalhamento deestruturas usuais de concreto armado. São Paulo: EduFSCar, 2004, 374 p.
CASCIATI, F; FARAVELLI, L. Fragility Analysis of Complex Structural Sistems. NewYork: John Wiley and Sons, Inc, 1991, 413 p.
CONTE, Samuel D.; BOOR, Carl. Elementary Numerical Analisys: An AlgorithmicApproach. 3 ed. Singapore. McGraw-Hill International Editions, 1981, 432 p.
DENNIS, Simon; MCAULEY, Devin. Neural Networks by Example: An Introduction toNeural Networks Using the BrainWave Simulator. 1997. Disponível em:http://www2.psy.uq.edu.au/~brainwav/Manual/. Acesso em: 11 de junho de 2005.
184
DEVROYE, Luc. Non-Uniform Random Variate Generation. New York: Springer-Verlag, 1986, 843 p.
EBERHART, Russel C.; DOBBINS, Roy W. Neural Network PC Tools: A praticalguide.California: Academic Press, 1990. p. 414.
FARAGE, Michèle Cristina R. Modelagem e implementação numérica da expansãopor reação álcalis-agregado do concreto. Rio de Janeiro, 2000,. P. 142. Tese deDoutorado – Universidade Federal do Rio de Janeiro, Rio de Janeiro. 2000.
FLOOD, Ian; MUSZYNSKI, Larry; NANDY, Sujay. Rapid analysis of externallyreinforced concrete beams using neural networks. Computer & Structures. Elsevier,n. 79, p. 1553-1559. 2001.
GERE, James M.; WEAVER JR., William. Análise de estruturas reticuladas. NewYork, Litton Educational Publishing, 1981, 443 p.
GOH, A.T.C. Backpropagation neural networks for modeling complex systems.Artifitial intelligence in engineering. Elsevier, n. 9, p. 143-151. 1995.
GOMES, Herbert Martins. Detecção de dano estrutural com redes neurais artificiais.Teoria e prática na engenharia civil, n. 6, p. 33-42. 2005.
GONZÁLEZ, Marco Aurélio S.; SOIBELMAN, Lucio; FORMOSO, Carlos Torres.Explaining results in a Neural-Mass appraisal model. 9th European Estate SocietyConference. 2002, Glasgow, junho 2002.
HADI, Muhammad N.S. Neural networks applications in concrete structures.Computer & Structures. Elsevier, n. 81, p. 373-381. 2003.
HAYKIN, Simon. Neural Networks: A comprehensive foundation. New Jersey:Prentice Hall inc, 1994, 696 p.
HENCKEL, J.; SIRJANI, Abolfazl. Extracting Rules from Backpropagation Units.Disponível em: http://www.geocities.com/Paris/6502/rulex1.html. Acesso em: 26 demaio de 2005.
KIUREGHIAN. Armen Der; ASCE, M.; LIU, P. Structural reliability under incompleteprobability information. Journal of Engineering Mechanics. v. 112, n. 1, January,1986.
KOVÁCS, Zsolt L. Redes Neurais artificiais. 3º. ed. São Paulo: Editora livraria dafísica, 2002. p. 174.
LENT, Roberto. Cem bilhões de neurônios: Conceitos fundamentais de neurociência.São Pauo: Editora Atheneu, 2001. p. 698.
MADSEN, H.O.; KRENK, S.; LIND, N.C. Methods of Structural Safety. New Jersey:Prentice-Hall, 1986.
METROPOLIS, N. The beginning of the Monte Carlo Method. Los Alamos ScienceSpecial Issue. Los Alamo, 1987. p.125-130.
185
NEAL, Radford M. Probabilistic inference using markov chain monte carlo methods.Technical reports CRG-TR-93-1. Universidade de Toronto. Toronto. 1993.
PACITTI, Tércio; ATIKINSON, Cyril P. Programação e métodos computacionais.Brasil, Livros técnicos e científicos editora LTDA, v.2, n.2, 665 p., 1976.
PANDEY, P.C.; BARAI, S.V. Multilayer perceptron in damage detection of bridgestructures. Computer & Structures. Elsevier, v. 54, p. 597-608. 1995.
PAPADRAKAKIS, Manolis; PAPADOPOULOS, Vissarion; LAGAROS, Nigo D.Structural reliability of elastic-plastic structures using neural networks and MonteCarlo Similation. Computer methods in applied mechanics and engineering. Elsevier,v. 136, p. 145-163. 1996.
RAFIQ, M.Y.; BUGMANN, G.; EASTERBROOK, D.J. Neural Networks design forengineering applications. Computer & Structures. Elsevier, n. 79, p. 1541-1552.2001.
RALSTON, Anthony. A first course in numerical analysis. Tokio: McGraw Hill, 1965.p. 578.
ROITMAN, Valéria L. Um modelo computacional de redes neurais para predição doíndice de desempregoaberto. Rio de Janeiro, 2001. p. 122. Tese de Doutorado –Universidade Federal do Rio de Janeiro, Rio de Janeiro. 2001.
RUBINSTEIN, Reuven Y. Simulation and the Monte Carlo Method. New York: JohnWiley & Sons, 1981. p. 278.
SARAIVA, José Murilo Ferraz. A utilização de Redes Neurais em conjunto com ométodo de Monte Carlo na análise da confiabilidade de estruturas. Rio de Janeiro,1997. p. 151. Tese de Doutorado - Universidade Federal do Rio de Janeiro, Rio deJaneiro. 1997.
SAGRILO, Luis Volneu Sudati. Análise de confiabilidade estrutural utilizando osmétodos analíticos FORM e SORM. Rio de Janeiro, 1994. p. 142. Tese deDoutorado - Universidade Federal do Rio de Janeiro, Rio de Janeiro. 1994.
SILVA, José Turíbio da. La predicción de la vida útil y de la vida residual de lasconstrucciones. Evaluación y rehabilitación de edificios. 2002, Barcelona. P. Roca,2002. p. 25.
SKAPURA, David M. Building neural networks. New York: ACM press, 1996. p. 286.
SOARES, Rodrigo de Carvalho; VENTURINI, Wilson Sérgio. Introdução à análise deconfiabilidade. São Carlos, 2001. p. 182. Escola de Engenharia de São Carlos, SãoCarlos, 2001.
SOBOL, Ilya M. A primer for the Monte Carlo Method. Flórida: CRC Press, 1994, p.107.
SOUZA, Vicente Custódio M.; RIPPER, Thomaz. Patologia, Recuperação e Reforçode Estruturas de Concreto. 3º ed. São Paulo: Editora Pini, 2001. 255 p.
186
SUBIA, Julio Ernesto Pulido. Confiabilidade de sistemas estruturais pelo métodoMonte Carlo com técnica de redução de variância. Rio de Janeiro, 1991. p. 128.Tese de Doutorado - Universidade Federal do Rio de Janeiro, Rio de Janeiro, 1991.
TZAFESTAS, S.G.; DALIANIS, P.J.; ANTHOPOULOS, G. On the overtrainingphrnomenon of backpropagation neural networks. Mathematics and computers insimulations. Elsevier, n. 40, p. 507-521. 1996.
WERBOS, J. Paul. Backpropagation through time: what it does and how to do it.Proceedings of the IEEE. v.78. n.10. 1990.
9 OBRAS CONSULTADAS
ABDIAS M. Gomes, TURIBIO J. da Silva, JOSÉ Eeduardo Aguiar. Reliability analisyswith deterioration mathematical models aiding the inspection of concrete bridges. In:First International conference on bridge maintenance, safety and management. 2002,Barcelona: IABMAS, 2002. p. 8.
ALEXANDRA, Cristea; CRISTEA, P.; OKAMOTO, T. Neural network knowledgeextraction: Revue Roumaine des Science Technique: Série Électrotechinique etÉnergétique. Bucharest. v.43, n.1, 1998. Disponível em:<http://wwwis.win.tue.nl:8080/~acristea/Journals/REVROU/>. Acesso em: 20 dejunho de 2005
ANG, Alfredo H-S.: TANG, Wilson H. Probability concepts in engineering planningand design: Basic Principles. New York : John Wiley & Sons, Inc, v. 2, n.1, 409 p,1984.
ANG, Alfredo H-S.: TANG, Wilson H. Probability concepts in engineering planningand design: Decision, risk and reliability. New York : John Wiley & Sons, Inc, V. 2,n.2, p. 562, 1984.
ARAUJO, José Milton de. Processos simplificados para cálculo de flechas de vigasde concreto armado. Teoria e prática na Engenharia Civil. Dunas, n.5, p.1-10. 2004.
ASSIS, Wayne Santos de. Utilização de recursos multimídia no ensino de concretoarmado e protendido. São Paulo, 2002. p. 142. Dissertação de Mestrado -Universidade de São Paulo, São Paulo. 2002.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 6118 – Projeto deestruturas de concreto: Procedimento. Rio de Janeiro, 2003, 170 p.
BATHE, Klaus-Jurgen. Finite element procedures. New Jersey : Prentice hall, inc,1982, 735 p.
BRATLEY, Paul; FOX, Bennett L.; SCHRAGE, Linus E. A guide to simulation. NewYork: Springer-Verlag, 1987, 397 p.
188
BUSSAB, Wilton DE O.; MORETTIN, Pedro A. Estatística Básica. 5º ed. São Paulo :Editora Saraiva, 2004, 526.
CARVALHO, Roberto C.; FILHO, Jasson Rodrigues F. Cálculo e detalhamento deestruturas usuais de concreto armado. São Paulo: EduFSCar, 2004, 374 p.
CASCIATI, F; FARAVELLI, L. Fragility Analysis of Complex Structural Sistems. NewYork: John Wiley and Sons, Inc, 1991, 413 p.
CHASSIAKOS, Anastassios G.; MASRI, Sami F. Identification of sctructural systemsby neural networks. Mathematics and computers in simulation. 1996, Elsevier. n. 40,p. 637-656.
CONTE, Samuel D.; BOOR, Carl. Elementary Numerical Analisys: An AlgorithmicApproach. 3 ed. Singapore. McGraw-Hill International Editions, 1981, 432 p.
DENNIS, Simon; MCAULEY, Devin. Neural Networks by Example: An Introduction toNeural Networks Using the BrainWave Simulator. 1997. Disponível em:<http://www2.psy.uq.edu.au/~brainwav/Manual/>. Acesso em: 11 de junho de 2005.
DEVROYE, Luc. Non-Uniform Random Variate Generation. New York: Springer-Verlag, 1986, 843 p.
EBECKEN, Nelson F.F. Data Mining. Southampton: WIT Press/ComputatuionalMechanics Publications, 1998. p. 449.
EBERHART, Russell C.; DOBBINS, Roy W. Neural Network PC Tools: A praticalguide.California: Academic Press, 1990. p. 414.
FARAGE, Michèle Cristina R. Modelagem e implementação numérica da expansãopor reação álcalis-agregado do concreto. Rio de Janeiro, 2000,. P. 142. Tese deDoutorado – Universidade Federal do Rio de Janeiro, Rio de Janeiro. 2000.
FLOOD, Ian.; MUSZYNSKI, Larry.; NANDY, Sujay. Rapid analysis of externallyreinforced concrete beams using neural networks. Computer & Structures. Elsevier,n. 79, p. 1553-1559. 2001.
FOURNIÉ, Eric. Minimum distance estimation and testing for interest rate model.Mathematics and computers in simulation. Elsevior, n.38, p. 143-150. 1995.
GERE, James M.; WEAVER JR., William. Análise de estruturas reticuladas. NewYork, Litton Educational Publishing, 1981, 443 p.
GOH, A.T.C. Backpropagation neural networks for modeling complex systems.Artifitial intelligence in engineering. Elsevier, n. 9, p. 143-151. 1995.
GOMES, Herbert Martins. Detecção de dano estrutural com redes neurais artificiais.Teoria e prática na engenharia civil, n. 6, p. 33-42. 2005.
GONZÁLEZ, Marco Aurélio S.; SOIBELMAN, Lucio; FORMOSO, Carlos Torres.Explaining results in a Neural-Mass appraisal model. 9th European Estate SocietyConference. 2002, Glasgow, junho 2002.
189
HADI, Muhammad N.S. Neural networks applications in concrete structures.Computer & Structures. Elsevier, n. 81, p. 373-381. 2003.
HAYKIN, Simon. Neural Networks: A comprehensive foundation. New Jersey:Prentice Hall inc, 1994, 696 p.
HECHT-NIELSEN, Robert. Neurocomputing. United States of America: Addisin-Wesley Publishing Company, 1990, 433 p.
HENCKEL, J.; SIRJANI, Abolfazl. Extracting Rules from Backpropagation Units.Disponível em: <http://www.geocities.com/Paris/6502/rulex1.html>. Acesso em: 26de maio de 2005.
KIUREGHIAN, Armen Der; ASCE, M.; LIU, P. Structural reliability under incompleteprobability information. Journal of Engineering Mechanics. v. 112, n. 1, January,1986.
KIUREGHIAN, Armen Der; MADANAT, Pestana. Accuracy of system identification inthe prsence of random fields. Applications of statistics in Civil Engineering.Rotterdam: Millpress, 2003. p. 427-433, 2003.
KOVÁCS, Zsolt L. Redes Neurais artificiais. 3º. ed. São Paulo: Editora livraria dafísica, 2002. p. 174.
LENT, Roberto. Cem bilhões de neurônios: Conceitos fundamentais de neurociência.São Pauo: Editora Atheneu, 2001. p. 698.
MADSEN, H.O.; KRENK, S.; LIND, N.C. Methods of Structural Safety. New Jersey:Prentice-Hall, 1986.
MAJID, K.I. Non-Linear structures: Matrix methods of analysis and design bycomputers. London: Butterworth & Co. Ltd, 1972. p. 403.
METROPOLIS, N. The beginning of the Monte Carlo Method. Los Alamos ScienceSpecial Issue. Los Alamo, 1987. p.125-130.
MONTGOMERY, Douglas C.; RUNGER, George C. Estatística aplicada eprobabilidade para engenheiros. Rio de Janeiro : Livros técnicos e científicos editoraS.A, 2003. p. 463.
NEAL, Radford M. Probabilistic inference using markov chain monte carlo methods.Technical reports CRG-TR-93-1. Universidade de Toronto. Toronto. 1993. p. 144.
NIE, Jinsuo; ELLINGWOOD, Bruce R. A new directional simulation method forsystem reliability. Part II: application of neural networks. Probabilistic EngineeringMechanics, New York: Elsevier ltda,V. 19, p. 437-447, 2004.
PACITTI, Tércio; ATIKINSON, Cyril P. Programação e métodos computacionais.Brasil, Livros técnicos e científicos editora LTDA, v.2, n.2, 665 p., 1976.
PANDEY, P. C.; BARAI, S. V. Multilayer perceptron in damage detection of bridgestructures. Computer & Structures. Elsevier, v. 54, p. 597-608. 1995.
190
PAPADRAKAKIS, Manolis; PAPADOPOULOS, Vissarion; LAGAROS, Nigo D.Structural reliability of elastic-plastic structures using neural networks and MonteCarlo Similation. Computer methods in applied mechanics and engineering. Elsevier,v. 136, p. 145-163. 1996.
PINTO, Rivelli da Silva; RAMALHO, Marcio Antonio. Não linearidade física egeométrica no projeto de edifícios usuais de concreto armado. Cadernos deengenharia de estruturas. São Carlos, n. 19, p. 171-206. 2002.
RAFIQ, M.Y.; BUGMANN, G.; EASTERBROOK, D.J. Neural Networks design forengineering applications. Computer & Structures. Elsevier, n. 79, p. 1541-1552.2001.
RALSTON, ANTHONY. A first course in numerical analysis. Tokio: McGraw Hill,1965. p. 578.
REAL, Mauro de Vasconcelos; FILHO, Américo Campos. Aplicação do método deMonte Carlo no estudo de vigas e pilares de concreto armado. Teoria e prática naengenharia civil. Porto Alegre, n. 2, p. 35-44, maio, 2001.
ROITMAN, Valéria L. Um modelo computacional de redes neurais para predição doíndice de desempregoaberto. Rio de Janeiro, 2001. p. 122. Tese de Doutorado –Universidade Federal do Rio de Janeiro, Rio de Janeiro. 2001.
RUBINSTEIN, Reuven Y. Simulation and the Monte Carlo Method. New York: JohnWiley & Sons, 1981. p. 278.
RUGGIERO, Márcia A.G.; LOPES, Vera Lúcia R. Cálculo numérico: Aspectosteóricos e computacionais. São Paulo: McGraw Hill, 1988. p. 295.
SAGRILO, Luis Volnei Sudati. Análise de confiabilidade estrutural utilizando osmétodos analíticos FORM e SORM. Rio de Janeiro, 1994. p. 142. Tese deDoutorado - Universidade Federal do Rio de Janeiro, Rio de Janeiro. 1994.
SARAIVA, José Murilo Ferraz. A utilização de Redes Neurais em conjunto com ométodo de Monte Carlo na análise da confiabilidade de estruturas. Rio de Janeiro,1997. p. 151. Tese de Doutorado - Universidade Federal do Rio de Janeiro, Rio deJaneiro. 1997.
SARAIVA, José Murilo Ferraz.; EBECKEN, Nelson F.F. Aplicação de redes neuraisartificiais no estudo da confiabilidade estrutural. Revista internacional de métodosnuméricos para cálculo y diseño en ingeniería, v. 14, p. 167-179. 1998.
SCHUEREMANS, Luc; GEMERT, Dionys Van. Benefit of splines and neuralnetworks in simulation based structural reliability analysis. Structural safety. Elsevier,n. 27, p. 246-261. 2005.
SILVA, José Turíbio da; ROCA, Pere. Avaliação Probabilística de Lajes NervuradasAfetadas pela Corrosão das Armaduras . IV Congresso Iberoamericano de Patologiadas Construções. 1997, Porto Alegre. Vol. I. p. 521-528.
191
SILVA, José Turíbio da. La predicción de la vida útil y de la vida residual de lasconstrucciones. Evaluación y rehabilitación de edificios. 2002, Barcelona. P. Roca,2002. p. 25.
SILVA, José Turíbio da. Caracterização estatística de parâmetros físicos doconcreto. 44º Congresso Brasileiro do Concreto. 2002, B. Horizonte.2002, p. 15.
SKAPURA, David M. Building neural networks. New York: ACM press, 1996. p. 286.
SOARES, Rodrigo de Carvalho; VENTURINI, Wilson Sérgio. Introdução à análise deconfiabilidade. São Carlos, 2001. p. 182. Escola de Engenharia de São Carlos, SãoCarlos, 2001.
SOBOL, Ilya M. A primer for the Monte Carlo Method. Flórida: CRC Press, 1994, p.107.
SOUZA, Léo Pires de; ALLENDE, Kátia Araújo; SARAIVA, José Murilo Ferraz;DARWISH, FATHI AREF I. Utilização do algoritmo MCRN para modelagem daresistência de um pilar encamisado. 4º congresso internacional sobre ocomportamento de estruturas danificadas, 2005, João Pessoa, Brasil, Anais... JoãoPessoa: DAMSTRUC, 2005. 1 CD.
SOUZA, Vicente Custódio M.; Ripper, THOMAZ. Patologia, Recuperação e Reforçode Estruturas de Concreto. 3º ed. São Paulo: Editora Pini, 2001. 255 p.
SUBIA, Julio Ernesto Pulido. Confiabilidade de sistemas estruturais pelo métodoMonte Carlo com técnica de redução de variância. Rio de Janeiro, 1991. p. 128.Tese de Doutorado - Universidade Federal do Rio de Janeiro, Rio de Janeiro, 1991.
TZAFESTAS, S.G.; DALIANIS, P.J.; ANTHOPOULOS, G. On the overtrainingphrnomenon of backpropagation neural networks. Mathematics and computers insimulations. Elsevier, n. 40, p. 507-521. 1996.
WERBOS, J. Paul. Backpropagation through time: what it does and how to do it.Proceedings of the IEEE. v.78. n.10. 1990.
10 APÊNDICES
193
10.1 IMPLEMENTAÇÃO COMPLETA DO MÉTODO MONTE CARLO TRADICIONAL
O programa a seguir, desenvolvido em Mathcad, apresenta as rotinas básicas do
método Monte Carlo tradicional. Por questões de simplificação só foi previsto a correlação
entre duas variáveis com distribuição LogNormal.
O teste de Kolmogorov-Smirnov foi utilizado para verificação de aderência dos
variáveis pseudo-aleatórias geradas.
As distribuições previstas são:
• Normal;
• LogNormal
• Extremo tipo I largest values (Gumbel).
O item 10.2 deste apêndice mostra a utilização do algoritmo proposto para verificação
da probabilidade de falha com variáveis LogNormal correlacionadas.
Os resultados obtidos foram comparados com os resultados obtidos utilizando-se o
método FORM e os resultados obtidos serão mostrados para comparação dos resultados.
A teoria utilizada no desenvolvimento deste programa foi amplamente discutida nos
capítulos 2 e 3. Sua confecção foi a base para o desenvolvimento do módulo Monte Carlo do
software integrado proposto no capítulo 5.
194
Definições
Distribuições Implementadas
dNormal 1:= Distribução Normal
dLogNormal 2:= Distribuição LogNormal
dGumbel 3:= Distribuição Extremo Tipo 1 (Gumbel)
Geração de números pseudo-aleatórios
M1 259200:= M2 134456:= M3 243000:=
IA1 7141:= IA2 8121:= IA3 4561:=
IC1 54773:= IC2 28411:= IC3 51349:=
pseudoAleat numAleat seed,( ) RM11
M1←
RM21
M2←
IX1 mod IC1 seed− M1,( )←
IX1 mod IA1 IX1⋅ IC1+ M1,( )←
IX2 mod IX1 M2,( )←
IX3 mod IX1 M3,( )←
IX1 mod IA1 IX1⋅ IC1+ M1,( )←
IX2 mod IA2 IX2⋅ IC2+ M2,( )←
Rj IX1 IX2 RM2⋅+( ) RM1⋅←
j 0 96..∈for
IX1 mod IA1 IX1⋅ IC1+ M1,( )←
IX2 mod IA2 IX2⋅ IC2+ M2,( )←
IX3 mod IA3 IX3⋅ IC3+ M3,( )←
j trunc96 IX3⋅( )
M3
⎡⎢⎢⎣
⎤⎥⎥⎦
←
pRani Rj←
Rj IX1 IX2 RM2⋅+( ) RM1⋅←
i 0 numAleat 1−..∈for
pRanreturn
:=
195
DIstribuições
Distribuição Normal
função densidade :
fdpNormal x µ, σ,( )1
σ 2 π⋅⋅e
x µ−( )2−
2 σ2
⋅⋅:=
função distribuição acumulada:
fdaNormal x µ, σ,( )∞−
xxfdpNormal x µ, σ,( )
⌠⎮⌡
d:=
Distribuição Logormal
função densidade :
fdpLogNormal x µ, σ,( )1
σ x⋅ 2 π⋅⋅e
ln x( ) µ−( )2−
2 σ2
⋅⋅
⎡⎢⎢⎢⎣
⎤⎥⎥⎥⎦
x 0>if
0 x 0≤if
:=
função distribuição acumulada:
fdaLogNormal x µ, σ,( )0
xxfdpLogNormal x µ, σ,( )
⌠⎮⌡
d:=
geração de variáveis randômicas:
rndLNormal x( ) ex:= Tendo x uma distribuição normal
196
Distribuição Gumble - Type I largest value
função densidade :
fdpGumble x α, u,( ) α e α− x u−( )⋅⋅ exp e α− x u−( )⋅
−⎡⎣ ⎤⎦⋅:=
função probabilidade acumulada:
fdaGumble x α, u,( ) exp e α− x u−( )⋅−⎡⎣ ⎤⎦:=
inversa distribuição acumulada:
rndTypeI X α, u,( ) u1α
ln ln1X
⎛⎜⎝
⎞⎠
⎛⎜⎝
⎞⎠
⋅−:=
Distribuição Uniforme
função densidade :
fdpUnif x α, β,( )1
β α−α x≤ β≤if
0 otherwise
:=
função probabilidade acumulada:
fdaUnif x α, β,( ) 0 x α<if
x α−
β α−α x≤ β<if
1 x β≥if
:=
inversa distribuição acumulada:
invFDAUnif x α, β,( ) x β α−( )⋅ α+:=
197
Kolmogorov-Smirnov
αKS05 0:= αKS02 1:= αKS01 2:=
TABks
975
519
391
327
287
259
238
221
208
196
990
577
437
366
321
290
266
247
232
219
995
617
468
392
344
311
285
265
249
235
842
483
375
318
281
254
234
218
205
194
900
538
419
355
314
284
262
244
229
217
929
576
449
381
337
305
281
262
246
233
708
454
361
309
275
250
231
215
203
192
785
507
404
346
307
279
258
241
227
215
829
542
432
371
330
300
277
258
243
231
624
430
349
301
269
246
227
213
201
190
689
480
390
337
301
275
254
238
224
213
734
513
418
361
323
295
273
255
241
228
563
409
338
294
264
242
224
210
198
188
627
457
377
329
295
270
251
235
222
211
669
489
404
352
317
290
269
252
238
226
⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝
⎞
⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟
⎠
:=
densidadeEmpirica vetor( )
vDEii 1+
rows vetor( )←
i 0 rows vetor( ) 1−..∈for
vDEreturn
:=
KS n α,( )
lks if mod n 5,( ) 0> truncn5
⎛⎜⎝
⎞⎠
, truncn5
⎛⎜⎝
⎞⎠
1−,⎛⎜⎝
⎞⎠
←
cks if mod n 5,( ) 0> 3 mod n 5,( ) 1−( )⋅ α+, 3 5 1−( )⋅ α+,[ ]←
KS
TABkslks cks,
1000←
n 50≤if
num 1.358 α αKS05if
1.517 α αKS02if
1.628 α αKS01if
←
KSnum
2 n⋅⎛⎜⎝
⎞⎠
←
otherwise
KSreturn
:=
198
NormalKS vetor αKS, de, µ, σ,( ) vetors sort vetor( )←
Dtempi fdaNormal vetorsiµ, σ,⎛
⎝⎞⎠
dei−←
i 0 rows vetor( ) 1−..∈for
D max Dtemp( )←
ks KS rows vetor( ) αKS,( )←
RC 1 D ks<if
1−( ) otherwise
←
RCreturn
:=
LogNormalKS vetor αKS, de, µ, σ,( ) vetors sort vetor( )←
Dtempi fdaLogNormal vetorsiµ, σ,⎛
⎝⎞⎠
dei−←
i 0 rows vetor( ) 1−..∈for
D max Dtemp( )←
ks KS rows vetor( ) αKS,( )←
RC 1 D ks<if
1−( ) otherwise
←
RCreturn
:=
GumbleKS vetor αKS, de, α, u,( ) vetors sort vetor( )←
Dtempi fdaGumble vetorsiα, u,⎛
⎝⎞⎠
dei−←
i 0 rows vetor( ) 1−..∈for
D max Dtemp( )←
ks KS rows vetor( ) αKS,( )←
RC 1 D ks<if
1−( ) otherwise
←
RCreturn
:=
199
Geração de Vetores Pseudo-Aleatórios
Vetor Uniforme
vUnif nAleat( ) seed rnd 1( )←
vUnif pseudoAleat nAleat seed,( )←
vUnifreturn
:=
Vetor Normal
vNormal µ σ, nAleat, αKS, t, de,( ) VN 1−←
u1 vUnif nAleat( )←
u2 vUnif nAleat( )←
x1i µ σ 2− ln u1i( )⋅⋅ cos 2 π⋅ u2i⋅( )⋅+←
x2i µ σ 2− ln u1i( )⋅⋅ sin 2 π⋅ u2i⋅( )⋅+←
i 0 rows u1( ) 1−..∈for
KS1 NormalKS x1 αKS, de, µ, σ,( )←
KS2 NormalKS x2 αKS, de, µ, σ,( )←
break( ) KS1 0> KS2 0>∨if
t 1if
break otherwise
VN 0<while
VN x1 KS1 0>if
x2 otherwise
←
VNreturn
:=
Vetor LogNormal
vLNormal µ σ, nAleat, αKS, de,( ) VN 1−←
ζ ln 1σ
2
µ2
+⎛⎜⎜⎝
⎞
⎠←
λ ln µ( )12
ζ2
⋅−←
vLN rndLNormal vNormal λ ζ, nAleat, αKS, 0,( )( )←
KS LogNormalKS vLN αKS, de, λ, ζ,( )←
break( ) KS 0>if
VN 0<while
vLNreturn
:=
200
Vetor Gumble - Extremo tipo I largest values
vGumbel µ σ, nAleat, αKS, de,( ) VN 1−←
γ 0.577216←
απ
2
σ2 6⋅
←
u µγ
α−←
vTI rndTypeI vUnif nAleat( ) α, u,( )←
KS GumbleKS vTI αKS, de, α, u,( )←
break( ) KS 0>if
VN 0<while
vTIreturn
:=
Funções de Correlação normal equivalente ( NATAF)
LOGNORMAL - LOGNORMAL
FcorrLogNormal ρ δ1, δ2,( )ln 1 ρ δ1⋅ δ2⋅+( )
ρ ln 1 δ22+⎛
⎝⎞⎠ ln 1 δ1
2+⎛⎝
⎞⎠⋅⋅
:=
Correlação equivalente
cEquiv mVar mCorr,( ) cEq identity cols mCorr( )( )←
cEqii jj, mCorrii jj, FcLN mCorrii jj, mVarii 1,, mVarjj 1,,( )⋅←
cEq jj ii, cEqii jj,←
mVarii 2, dLogNormalif
cEqii jj, mCorrii jj,←
cEq jj ii, cEqii jj,←
otherwise
jj ii 1+ cols mCorr( ) 1−..∈for
ii 0 rows mCorr( ) 2−..∈for
cEqreturn
:=
201
Definindo as funções Normais equivalentes
σNx µ σ, Fx, fx,( )dnorm qnorm Fx 0, 1,( ) 0, 1,( )
fx:=
µNx x µ, σ, Fx, σN,( ) x σN qnorm Fx 0, 1,( )⋅−:=
LOGNORMAL
nequLN µ σ, x,( ) ζ ln 1σ
2
µ2
+⎛⎜⎜⎝
⎞
⎠←
λ ln µ( )12
ζ2
⋅−←
σNx x ζ⋅←
µNx x 1 ln x( )− λ+( )⋅←
µNx σNx λ ε( )
:=
GUMBEL
nequGb µ σ, x,( ) γ 0.577216←
α1π2
σ2 6⋅
←
U1 µγ
α1−←
S α1 x U1−( )⋅←
fx α1 e S−⋅ e e S−
−( )⋅←
Fx e e S−−( )
←
σN σNx µ σ, Fx, fx,( )←
µN µNx x µ, σ, Fx, σN,( )←
µN σN α1 U1 Fx fx( )
:=
202
Sub Rotinas Gerais
Montagem das matrizes µ e σ normalizadas
normEq mVar m,( )
norm mVari 0, mVari 1,( )( ) mVari 2, dNormalif
nequLN mVari 0, mVari 1,, mi,( ) mVari 2, dLogNormalif
nequGb mVari 0, mVari 1,, mi,( ) mVari 2, dGumbelif
←
µnorminorm0 0,←
σnormi i,norm0 1,←
i 0 rows mVar( ) 1−..∈for
µnorm σnorm( )return
:=
Transformada de NATAF
transformadaNATAF mVar mCorr, σnorm,( ) Γ cholesky cEquiv mVar mCorr,( )( ) 1−←
J Γ σnorm1−
⋅←
Γ J( )return
:=
203
10.2 PROBABILIDADE DE FALHA – VARIÁVEIS CORRELACIONADAS
Utilizando-se do algoritmo do item anterior, este exemplo avalia a probabilidade de
falha de um elemento estrutural, com a função de falha definida por ( ) MWYWMYG −⋅=,, .
Variável Média Coef. De Variação Distribuição
Y 40 0.125 LogNormal
W 50 0.050 LogNormal
M 1000 0.200 Estremo I largest
Função de falha: ( ) MWYWMYG −⋅=,,
Relacionamento entre Y e W: ρyw = 0.400
Dados da Análise
Matriz com a definição das variáveis aleatórias do problema.LayOut :
i,1 Médiai,2 Coeficiente de Variação δi,3 Tipo de distribuição de probabilidades
mVariaveis
40
50
1000
.125
.05
.2
2
2
3
⎛⎜⎜⎜⎝
⎞⎟
⎠
:= m
40
50
1000
⎛⎜⎜⎜⎝
⎞⎟
⎠
:=
mVariaveisσ
40
50
1000
mVariaveis0 0, mVariaveis0 1,⋅
mVariaveis1 0, mVariaveis1 1,⋅
mVariaveis2 0, mVariaveis2 1,⋅
2
2
3
⎛⎜⎜⎜⎝
⎞
⎟
⎠
:= * mVariaveisσ
40
50
1000
5
2.5
200
2
2
3
⎛⎜⎜⎜⎝
⎞⎟
⎠
=
Matriz dos Coeficientes Correlação : mCorr
1
.4
0
.4
1
0
0
0
1
⎛⎜⎜⎜⎝
⎞⎟
⎠
:=
204
Definição da função de acumulo de falha
fG Y W, M, nAleat,( ) falha 0←
ff G Yindmc Windmc, Mindmc,( )←
falha falha 1+( ) ff 0≤if
falha otherwise
←
indmc 0 nAleat 1−..∈for
falhareturn
:=
MC nAleat αKS,( ) de densidadeEmpirica nAleat( )←
varNorm normEq mVariaveisσ m,( )←
µnorm varNorm0 0,←
σnorm varNorm0 1,←
NATAF transformadaNATAF mVariaveis mCorr, σnorm,( )←
J NATAF0 1,←
M vNormal 0 1, nAleat, αKS, 1, de,( )←
Y vNormal 0 1, nAleat, αKS, 1, de,( )←
W vNormal 0 1, nAleat, αKS, 1, de,( )←
Z
Yj
W j
Mj
⎛⎜⎜⎜⎝
⎞
⎟
⎠
←
X J 1− Z⋅ µnorm+←
y j X0←
wj X1←
mj X2←
j 0 nAleat 1−..∈for
fG0 fG y w, m, nAleat,( )←
pf0
rows fG( ) 1−
i
fGi∑=
nAleat←
pf
:=
205
Tabela 10.1 – Resultados da simulação
Número de Simulações pf
1000 0.0010
2000 0.0035
5000 0.0030
10000 0.0039
15000 0.00327
A seguir, o resultado obtido utilizando-se o método FORM, descrito no capítulo 2,
com uma tolerância de erro de 0.001.
"passo"
1
2
3
4
5
6
7
"pf"
0.0048
0.003
0.0031
0.0031
0.0031
0.0031
0.0031
"B"
2.5932
2.7425
2.742
2.742
2.742
2.742
2.742
"modGgV"
330.2664
305.346
294.7604
295.2533
296.1274
296.1733
296.1089
"GgV"
289.137
91.5373
130.754−
⎛⎜⎜⎝
⎞
⎠268.5746
63.3028
130.754−
⎛⎜⎜⎝
⎞
⎠256.9888
61.1872
130.754−
⎛⎜⎜⎝
⎞
⎠257.0204
63.3913
130.754−
⎛⎜⎜⎝
⎞
⎠257.9303
63.7716
130.754−
⎛⎜⎜⎝
⎞
⎠258.0166
63.635
130.754−
⎛⎜⎜⎝
⎞
⎠257.9534
63.5918
130.754−
⎛⎜⎜⎝
⎞
⎠
"alpha"
0.8755
0.2772
0.3959−
⎛⎜⎜⎝
⎞
⎠0.8796
0.2073
0.4282−
⎛⎜⎜⎝
⎞
⎠0.8719
0.2076
0.4436−
⎛⎜⎜⎝
⎞
⎠0.8705
0.2147
0.4429−
⎛⎜⎜⎝
⎞
⎠0.871
0.2154
0.4415−
⎛⎜⎜⎝
⎞
⎠0.8712
0.2149
0.4415−
⎛⎜⎜⎝
⎞
⎠0.8711
0.2148
0.4416−
⎛⎜⎜⎝
⎞
⎠
"gV"
1000
77.8075
43.4347−
9.6042−
2.4723
0.9987
0.0963−
"Vnext"
2.2702−
0.7187−
1.0266
⎛⎜⎜⎝
⎞
⎠2.4123−
0.5686−
1.1744
⎛⎜⎜⎝
⎞
⎠2.3907−
0.5692−
1.2164
⎛⎜⎜⎝
⎞
⎠2.3869−
0.5887−
1.2143
⎛⎜⎜⎝
⎞
⎠2.3884−
0.5905−
1.2107
⎛⎜⎜⎝
⎞
⎠2.3888−
0.5891−
1.2106
⎛⎜⎜⎝
⎞
⎠2.3887−
0.5889−
1.2108
⎛⎜⎜⎝
⎞
⎠
"erro"
0.6289
0.0339
0.0557−
0.0121−
0.003
0.0012
0.0001−
"Unext"
40
50
1000
⎛⎜⎜⎝
⎞
⎠27.6621
48.3552
1259.7988
⎛⎜⎜⎝
⎞
⎠26.7376
46.2152
1279.118
⎛⎜⎜⎝
⎞
⎠27.7007
46.0276
1284.6031
⎛⎜⎜⎝
⎞
⎠27.8669
46.1769
1284.3347
⎛⎜⎜⎝
⎞
⎠27.8073
46.2062
1283.8694
⎛⎜⎜⎝
⎞
⎠27.7884
46.1973
1283.8446
⎛⎜⎜⎝
⎞
⎠
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
206
Com 7 interações chegou-se a uma probabilidade de falha de 0.0031. ANG, 1984, p.
369-372 apresenta a probabilidade de falha de 0.00394 para este exemplo.
10.3 O ALGORITMO BACKPROPAGATION
O módulo de rede neural do software integrado proposto por este trabalho e
apresentado em detalhes no capítulo 5 seguiu exatamente o algoritmo demonstrado a seguir.
A base do algoritmo está de acordo com a proposta de EBERHART, 1990, p. 331-344.
Os critérios de normalização, geração da matriz de pesos sinápticos e a escolha dos
parâmetros seguem o exposto no capítulo 4.
Inicialização
Constantes
η 0.075:= taxa de treinamento (learnong rate)
α 0.1:= momento (momentum)
wintervalo 0.5− 0.5( ):= intervalo para geração dos pesos sinápticos
tolerancia 0.0001:= Tolerância ao erro
Funções de apoio
fAtivacao v( )1
1 exp v−( )+( ):= Função de ativação sigmóide
novaMatriz ii jj,( ) 0:= Criação de novas matrizes zeradas
207
Normalização do conjunto de treinamento
As variáveis xN e yN deverão ser inicializadas com o conjunto completo, treinamento e teste, dos valores de entrada e saída respectivamente.
Cn 0.005:=
i 0 cols xN( ) 1−..:=
x0 i,
xN0 i,( )1
2
10strlen num2str trunc xN0 i,( )( )( )
Cn+:= y0 i,
yN0 i,( )1
2
10strlen num2str trunc yN0 i,( )( )( )
Cn+:=
x1 i,
xN1 i,( )1
2
10strlen num2str trunc xN1 i,( )( )( )
Cn+:= y1 i,
yN1 i,( )1
2
10strlen num2str trunc yN1 i,( )( )( )
Cn+:=
Geração conjuntos de teste e de treinamento
tamCTrein 100:=
treino
out0i 0, xT( )i 0,←
out0i 1, xT( )i 1,←
target i 0, yT( )i 0,←
target i 1, yT( )i 1,←
i 0 tamCTrein 1−..∈for
out0 target( )
:= teste
out0i tamCTrein− 0, xT( )i 0,←
out0i tamCTrein− 1, xT( )i 1,←
target i tamCTrein− 0, yT( )i 0,←
target i tamCTrein− 1, yT( )i 1,←
i tamCTrein rows xT( ) 1−..∈for
out0 target( )
:=
out0 treino0 0,:= target treino0 1,:=
208
weight linhas colunas,( ) w matrix linhas colunas 1+, novaMatriz,( )←
wi j, runif 1 wintervalo0 0,, wintervalo0 1,
,⎛⎝
⎞⎠
0←
j 0 colunas..∈for
i 0 linhas 1−..∈for
wreturn
:=
Geração da matriz de pesos
Algoritimo backpropagation
w2 matrix nOutputNodes nHiddenNodes 1+, novaMatriz,( ):=
w1 matrix nHiddenNodes nInputNodes 1+, novaMatriz,( ):=
delta1 matrix nPatterns nHiddenNodes, novaMatriz,( ):=
delta2 matrix nPatterns nOutputNodes, novaMatriz,( ):=
out2 matrix nPatterns nOutputNodes, novaMatriz,( ):=
out1 matrix nPatterns nHiddenNodes, novaMatriz,( ):=
Número de amostras para treinamentonPatterns rows out0( ):=
nOutputNodes cols target( ):=neurônios na camada de saída
neurônios na camada de entradanInputNodes cols out0( ):=
neurônios na camada ocultanHiddenNodes 5:=
Definição das matrizes e vetores do processo
209
RNA bp int teste, wI, wO,( ) interacoes 0←
w1 wI teste "S"if
weight nHiddenNodes nInputNodes 1+,( ) otherwise
←
delw1 w1←
w2 wO teste "S"if
weight nOutputNodes nHiddenNodes 1+,( ) otherwise
←
delw2 w2←
somatorio w1h nInputNodes,←
somatorio somatorio w1h i, out0p i,⋅+←
i 0 nInputNodes 1−..∈for
out1p h, fAtivacao somatorio( )←
h 0 nHiddenNodes 1−..∈for
somatorio w2j nHiddenNodes,←
somatorio somatorio w2j h, out1p h,⋅+←
h 0 nHiddenNodes 1−..∈for
out2p j, fAtivacao somatorio( )←
j 0 nOutputNodes 1−..∈for
delta2p j, target p j, out2p j,−( ) out2p j,⋅ 1 out2p j,−( )⋅←
j 0 nOutputNodes 1−..∈for
somatorio 0←
somatorio somatorio delta2p j, w2j h,⋅( )+←
j 0 nOutputNodes 1−..∈for
delta1p h, somatorio out1p h,⋅ 1 out1p h,−( )⋅←
h 0 nHiddenNodes 1−..∈for
p 0 nPatterns 1−..∈for
break teste "S"if
y 0 int 1−..∈for
:=
210
somatorio 0←
somatorio somatorio delta2p j,+←
p 0 nPatterns 1−..∈for
dw η somatorio⋅ α delw2j nHiddenNodes,⋅+←
w2j nHiddenNodes, w2j nHiddenNodes, dw+←
delw2j nHiddenNodes, dw←
somatorio 0←
somatorio somatorio delta2p j, out1p h,⋅+←
p 0 nPatterns 1−..∈for
dw η somatorio⋅ α delw2j h,⋅+←
w2j h, w2j h, dw+←
delw2j h, dw←
h 0 nHiddenNodes 1−..∈for
j 0 nOutputNodes 1−..∈for
somatorio 0←
somatorio somatorio delta1p h,+←
p 0 nPatterns 1−..∈for
dw η somatorio⋅ α delw1h nInputNodes,⋅+←
w1h nInputNodes, w1h nInputNodes, dw+←
delw1h nInputNodes, dw←
somatorio 0←
somatorio somatorio delta1p h, out0p i,⋅+←
p 0 nPatterns 1−..∈for
dw η somatorio⋅ α delw1h i,⋅+←
w1h i, w1h i, dw+←
delw1h i, dw←
i 0 nInputNodes 1−..∈for
h 0 nHiddenNodes 1−..∈for
erro 0←
erro erro target p j, out2p j,−( )2+←
j 0 nOutputNodes 1−..∈for
p 0 nPatterns 1−..∈for
erroerro
nPatterns nOutputNodes⋅←
break erro tolerancia<if
interacoes interacoes 1+←
out1 out2 w1 w2 delw1 delw2 erro interacoes( )return
211
10.4 UTILIZAÇÃO DO SOFTWARE INTEGRADO MCRN
No capítulo 5 foi demonstrado com detalhes o algoritmo MCRN sob a forma de um
software integrando os módulos de Monte Carlo, Análise Estrutural, Redes Neurais e
Confiabilidade. Este item mostra a utilização do software proposto. Para a explicação da
utilização de suas funcionalidades será executada a avaliação da viga proposta no estudo de
caso do capítulo 6.
10.4.1 Barra de navegação principal
A Figura 10.1 mostra a barra de navegação principal do software. Por esta barra tem-
se acesso a todos os módulos desenvolvidos. Para a análise de confiabilidade de uma
determinada estrutura pelo algoritmo integrado MCRN deve-se seguir a ordem:
• Simulação Monte Carlo;
• Análise estrutural;
• Redes Neurais;
• Confiabilidade
Os módulos Simulação Monte Carlo e Análise Estrutural podem ser executados
independente do algoritmo integrado. Assim, pode-se utilizar o software somente para simular
variáveis aleatórias, exportando o conteúdo simulado para arquivos texto de forma a utilizar
os resultados em outra plataforma de estudos estatísticos ou para resolução e recuperação de
deslocamentos e esforços em estruturas de vigas contínuas, pórticos planos ou grelhas.
O módulo manutenção, cuja função é verificar o tempo em que a carbonatação em
uma peça de concreto leva para atingir uma determinada profundidade, baseado em variáveis
aleatórias que espelham as condições de agressividade ambiental, trabalha em conjunto com o
Módulo Monte Carlo.
Os módulos de Rede Neural e Confiabilidade só funcionam dentro do conceito do
fluxo da informação do ambiente integrado, ou seja, não podem ser executados independentes
dos demais módulos.
212
Na Tabela 10.2 são descritos os ícones da barra de navegação principal. As
funcionalidades de salva, impressão e ajuda, não foram contempladas na versão atual do
software.
Figura 10.1 – Barra de Ferramentas principal.
Tabela 10.2 – Descrição dos ícones da barra de navegação principal.
Ícone Descrição
Permite salvar as definições do usuário para o módulo ativo de forma a se poder,
posteriormente, recuperar um experimento anterior. Ainda não nesta versão.
Permite a impressão dos valores das telas de saída de cada módulo. Ainda não
contemplado nesta versão.
Permite acesso ao módulo de simulação Monte Carlo.
Permite acesso ao módulo de análise estrutural.
Permite acesso ao módulo de redes neurais.
Permite acesso ao módulo de confiabilidade MCRN.
Permite acesso ao módulo de Controle de Manutenção.
Executa a saída do sistema.
Entra no módulo de ajuda. Não contemplado nesta versão.
.
213
A sequência proposta utilizará todos os parâmetros da viga e da rede neural definidos
no capítulo 6, item 6.1.4. A Figura 10.2 mostra a tela inicial do módulo. A sequência de
apresentação seguirá a ordem:
• Monte Carlo
• Análise Estrutural
• Rede Neural
• Confiabilidade
Figura 10.2 – Tela inicial.
214
10.5 MÓDULO MONTE CARLO
A seleção do ícone ou a sequência de menu arquivo/monte carlo, dá acesso ao
módulo de simulação estatística. O módulo permite ao usuário simular variáveis aleatórias
independentes ou relacionadas. O resultado pode ser exportado para arquivos texto para ser
utilizado em outros ambientes computacionais. A Figura 10.3 mostra a tela inicial do módulo.
O módulo permite executar três funcionalidades independentes:
• Simulação de estatísticas
• Monte Carlo tradicional
• Monte Carlo com rede neural
Figura 10.3 – Tela inicial - Módulo Monte Carlo.
215
A definição do funcionamento de cada modalidade está explicada, em detalhes, no
capítulo 5, item 5.4.1. Para dar prosseguimento ao módulo deve-se informar o nome do
projeto e o tipo de funcionalidade pretendida.
A seguir é apresentado o formulário “Geral”, Figura 10.4. Neste formulário são
fornecidas as informações básicas do módulo, definidas a seguir:
• Tamanho do vetor Informa o número de valores que serão gerados para cada
variável simulada;
• Garantir aderência Informa se após a simulação de cada variável será
aplicado o teste de aderência de Kolmogorov-Smirnov.
Na tela de Opções é possível fornecer o número máximo
de tentativas de aderência, após o qual a geração será
suspensa;
• Nível de significância Informa ao módulo o nível de significância que deve ser
adotado para o teste de aderência de Kolmogorov-
Smirnov;
• Valor inicial Informa se o próprio aplicativo gerará os valores iniciais,
seeds, necessários à geração dos números pseudo-
aleatórios com distribuição uniforme, de acordo com o
discutido no capítulo 3, item 3.3. Caso contrário, o
usuário deverá fornecer os valores, possibilitando repetir
um experimento anterior.
O botão de opções permite fornecer valores padrões para cada um destes itens. Os
valores são salvos no arquivo de inicialização do aplicativo e estarão disponíveis na sua
próxima execução.
O próximo formulário é o de funções de falha, onde será fornecida a função a ser
avaliada para definição do índice de confiabilidade da estrutura Figura 10.5.
Este formulário não será apresentado caso a funcionalidade selecionada seja de
simulação estatística, onde não há avaliação de nível de confiabilidade, mas apenas geração
de valores com uma distribuição específica.
216
Figura 10.4 – Informações gerais - Módulo Monte Carlo.
Para iniciar a edição de uma função de falha deve-se selecionar o botão Adicionar. Os
botões Remover e Alterar podem ser utilizados para excluir um função de falha fornecida ou
para alterar seu conteúdo, respectivamente.
Durante a fase de avaliação da confiabilidade, cada valor simulado para as variáveis
serão utilizados para a avaliação da função. De acordo com o que foi dito no capítulo 3, item
3.6, cada vez que a função avaliada retornar um valor menor ou igual à zero será adicionada
uma unidade ao total de falhas do processo. Poderão ser fornecidas várias funções de falha. A
confiabilidade final será fornecida em cima da avaliação da probabilidade de falha de todas as
funções fornecidas. Ao final da avaliação de todos os valores simulados, o número total de
falhas será dividido pelo número total de valores simulados, obtendo-se assim a probabilidade
de falha da estrutura avaliada. Aplicando-se a equação ( 3.14 ) será obtido então o índice de
confiabilidade da estrutura.
217
Figura 10.5 – Funções de falha - Módulo Monte Carlo.
A Figura 10.6 mostra a tela de edição de função de falha. Após a digitação, o botão
“Sintaxe” deverá ser selecionado para que seja efetuada a validação da equação fornecida.
Durante a validação serão extraídas as variáveis fornecidas. Estas variáveis estarão
disponíveis no próximo formulário para que sejam fornecidas as características estatísticas de
cada uma.
O editor de equações é bastante simples e efetua um validação básica da sintaxe,
fornecendo uma mensagem detalhada sobre o problema encontrado, posicionando o cursor
sobre a área onde o conflito foi encontrado. Os botões do lado superior esquerdo mostram os
operadores matemáticos e as funções implementadas nesta versão. Após a validação, a
equação poderá ser testada, bastando para isso que sejam fornecidos valores para cada
variável identificada na tabela posicionada no lado direito do formulário e selecionando-se o
botão testar.
218
Figura 10.6 – Edição de Função de falha – Módulo Monte Carlo.
Após o fornecimento da equação de falha o formulário seguinte, Estatística, será
habilitado, Figura 10.7.
Inicialmente todas as variáveis fornecidas na função de falha estarão automaticamente
disponibilizadas para suas características estatísticas sejam fornecidas.
Um ponto importante a ser abordado é que para as variáveis que forem ser utilizadas
como saída da rede neural, como é o caso da maioria das variáveis associadas às funções de
falha, deve-se selecionar a caixa de seleção Rede Neural. Desta forma, as caixas de texto de
entrada dos parâmetros estatísticos da variável serão desabilitadas e o usuário deverá fornecer
apenas a sua distribuição de probabilidades.
O próprio módulo de rede neural pesquisará os parâmetros destas variáveis baseado na
amostra fornecida após a execução do módulo de análise estrutural.
219
Figura 10.7 – Características estatísticas das variáveis – Módulo Monte Carlo.
Utilizando o botão será possível fornecer novas variáveis aleatórias. Para que os
parâmetros estatísticos de cada variável possam ser fornecidos, a caixa de seleção Rede
Neural deverá ser desmarcada. A Figura 10.8 mostra a relação completa das variáveis a serem
simuladas para o estudo da viga proposta. Deve-se reparar que, como no formulário geral
optou-se pela geração automática dos seeds, a lista destinada a sua digitação aparece
desabilitada. No caso de optar-se por fornecer os seeds, seus valores deverão ser relacionados
a cada variável fornecida.
No caso da distribuições Normal, como o método utilizado para geração dos valores
simulados é o de Box-Muller e como este método necessariamente gera sempre dois vetores
com valores simulados para cada variável, é necessário fornecer dois valores de seeds. O
mesmo acontece para a distribuição LogNormal, já que o método utilizado para geração de
220
valores simulados é a utilização da função Xe , tendo X uma distribuição normal (capítulo 5,
item 5.4.1).
Figura 10.8 – Características estatísticas das variáveis – Módulo Monte Carlo.
Na sequência, aparece o formulário de digitação dos relacionamentos entre as
variáveis fornecidas. No exemplo atual não há relacionamento entre alguma variável, porém,
o formulário respectivo está mostrado na Figura 10.9.
A figura mostra uma simulação do que seria a geração de 4 variáveis aleatórias: A, B,
C, D e E. No exemplo, as variáveis A e B têm uma correlação de 0,4 entre si, e as variáveis C
e D uma correlação de 0,3. Para fornecer as correlações, deve-se selecionar a variável na lista
vertical esquerda e fornecer o valor à variável correlacionada na lista horizontal superior.
Automaticamente a matriz de correlação é montada na planilha central.
O exemplo atual seguirá sem que tenha sido fornecido nenhum valore de correlação
entre as variáveis da análise.
221
Figura 10.9 – Relacionamento entre variáveis – Módulo Monte Carlo.
Neste ponto, todos os dados necessários ao inicio da simulação das variáveis aleatórias
já foram fornecidos. Para dar início à simulação o botão Executar deverá ser pressionado.
A Figura 10.10 mostra a tela de resultados da simulação efetuada. No controle Lista de
variáveis simuladas pode-se selecionar qual a variável a ser consultada. O painel da esquerda
mostra um resumo das características fornecidas para a simulação da variável e os valores
obtidos durante a sua simulação, a saber:
• Elapsed Time O tempo de CPU consumido para a simulação;
• Tentativas aderência Uniforme Número de tentativas de aderência para a
geração dos valores pseudo-aleatórios
uniformemente distribuídos entre 0 e 1;
222
• Tentativas aderência distribuição Número de tentativas de aderência para a
geração dos valores da variável;
• Seed 1 e seed 2 Os valores automáticos gerados para as seeds,
necessárias para a geração dos números
pseudo-aleatórios com distribuição uniforme.
Na lista da direita tem-se os 100 primeiros valores gerados para a variável, os valores
da sua função de densidade de probabilidade e da sua função de distribuição acumulada. O
botão Visualizar permite alternar o conteúdo do quadro da direita, alternando entre os valores
gerados e os gráficos de aderência, da FDP e da FPA. A Figura 10.11 mostra o gráfico da
função de densidade de probabilidade da variável aleatória I2.
Figura 10.10 – Variáveis simuladas – Módulo Monte Carlo.
223
Figura 10.11 – Gráfico das variáveis simuladas – Módulo Monte Carlo.
O botão Gráfico permite alternar entre os três gráficos citados anteriormente.
O botão Exportar permite que os valores gerados, para a variável aleatórias atual
sejam exportados para arquivos do tipo texto. Estes arquivos podem ser importados para uma
planilha Excel ou para qualquer outro software que permita a entrada de informações a partir
destes tipos de arquivo.
Se a modalidade de execução do módulo Monte Carlo for Monte Carlo Tradicional, na
parte inferior já seria mostrada a probabilidade de falha e o índice de confiabilidade do
experimento.
224
10.6 MÓDULO ANÁLISE ESTRUTURAL
A seleção do ícone ou a sequência de menu arquivo/análise estrutural, dá acesso
ao módulo de Análise Estrutural.
O módulo permite resolver uma viga contínua, um pórtico plano ou uma estrutura em
grelha, com carregamentos concentrados e distribuídos obtendo as reações de apoio, os
deslocamentos e as ações de extremidades no nós. Como dito anteriormente este módulo pode
ser executado independentemente dos demais.
Como as três funcionalidades deste módulo operam de maneira exatamente igual, será
apresentado somente a sequência para a resolução da viga contínua proposta.
No exemplo utilizado será mostrado como associar as variáveis simuladas a valores de
carregamentos, momentos de inércia e módulos de elasticidade do concreto.
A primeira ação a ser tomada é a seleção do tipo de estrutura que irá ser resolvida. A
Figura 10.12 mostra a tela de seleção. A seleção mostra que uma estrutura de viga contínua
será apresentada.
O primeiro passo para efetuar a análise da viga é fornecer a definição de cada membro
da estrutura. Após informar o número de membros a lista será atualizada com uma entrada
para cada membro. Os valores a serem fornecidos são os seguintes:
• Comprimento Comprimento do membro;
• Momento de inércia Momento de inércia, em relação ao eixo X, do membro;
• Módulo de elasticidade Módulo de elasticidade do concreto no membro.
Com exceção do comprimento, os demais itens poderão ter seus valores fornecidos
explicitamente, digitados, ou associados às variáveis aleatórias simuladas pelo método Monte
Carlo.
Para associar o valor a uma variável aleatória o usuário deve selecionar a célula da
lista e clicar no botão Variáveis Simuladas. Neste momento será aberta uma janela com todas
as variáveis simuladas. O usuário deverá selecionar a variável desejada e clicar em Confirmar.
O controle voltará para o formulário de Definição de Membros com a variável aleatória
associada.
225
Figura 10.12 – Seleção do tipo de estrutura.
A Figura 10.13 mostra esta versatilidade. Para o primeiro valor do módulo de
elasticidade forneceu-se um valor explícito, 2504.4, para o segundo associou-se a variável
aleatória E2.
A figura mostra a tela de variáveis simuladas com a variável E2 selecionada. Ela será
associada ao terceiro membro da viga. Para o quarto membro será também fornecido o valor
explícito de 2504.4. O valores dos momentos de inércia dos membros 1 e 4 e dos membros 2
e 3 foram associados, de forma idêntica, às variáveis I1 e I2 respectivamente.
O próximo passo é preencher o formulário de carregamento nos membros.
226
Figura 10.13 – Definição de membros – Módulo Análise Estrutural.
No formulário de Carregamento nos Membros, Figura 10.14, o botão Nova Linha
dever ser utilizado para a cxraição de uma nova linha para cada membro carregado da viga.
Os valores a serem fornecidos são os seguintes:
• Membro Número do membro cujo carregamento será especificado;
• Tipo de carga Tipo de carregamento no membro: concentrado; distribuído
retangular ou distribuído triangular;
• Distância á esquerda Distância do nó da esquerda ao início do carregamento;
• Tamanho Comprimento total do carregamento (somente para
carregamentos distribuídos).
227
O valor do carregamento poderá ser fornecido explicitamente, digitado, ou associado
às variáveis aleatórias simuladas pelo método Monte Carlo da mesma forma as variáveis do
formulário de Definição de Membros foram associadas.
A Figura 10.14 mostra que o tipo de carregamento deve ser fornecido a partir de uma
lista pré-definida.
Figura 10.14 – Carregamento nos membros – Módulo Análise Estrutural.
Um detalhe importante a ser observado é em relação ao sinal do carregamento. Os
ícones e informam se a seleção é para um carregamento positivo ou negativo,
respectivamente. O botão permite alternar entre uma definição e outra.
A Figura 10.15 mostra o formulário de carregamento nos membros completo com os
valores utilizados para a análise da viga.
O próximo passo é preencher o formulário de atributos dos nós.
228
Figura 10.15 – Carregamento nos membros completo – Módulo Análise Estrutural.
No formulário de Atributos dos Nós, Figura 10.16, deve-se fornecer as características
de cada nó da viga, definidas a seguir:
• Restrição Y 1 se o nó tiver restrição vertical, 0 caso contrário;
• Restrição Z 1 se o nó tiver restrição de rotação, 0 caso contrário;
• Carreg. Y Valor do carregamento vertical, concentrado, no nó;
• Carreg. Z Valor da carga momento no nó.
O valor dos carregamentos Y e Z poderão ser fornecidos explicitamente, ou associados
às variáveis aleatórias simuladas pelo método Monte Carlo, assim como no formulário de
229
Carregamento de Membros. O sinal do carregamento Z deverá seguir a orientação das figuras
e que definem o carregamento positivo ou negativo respectivamente.
Figura 10.16 – Carregamento nos nós – Módulo Análise Estrutural.
Neste ponto todos os dados necessários ao inicio da resolução da viga já foram
fornecidos. O botão Executar dá início ao processo de análise da estrutura fornecida. O
número de vezes que a estrutura proposta será avaliada dependerá do número de valores
simulados pelo Módulo Monte Carlo.
A Figura 10.17 mostra a tela da saída com os valores dos deslocamentos e reações de
apoio da viga resolvida. A lista inferior mostra a definição de cada membro da viga.
Os botões permitem que se navegue pelas várias
resoluções da viga, selecionando a primeira solução, a anterior, a próxima e a última
respectivamente.
230
Figura 10.17 – Solução da viga – Módulo Análise Estrutural.
Neste ponto, além das variáveis simuladas, todos os conjuntos de valores de
deslocamentos nodais e reações de apoio estarão disponíveis para serem utilizados pelo
módulo de rede neural.
10.7 MÓDULO REDE NEURAL
A seleção do ícone ou a sequência de menu arquivo/rede neural, dá acesso ao
módulo de Rede Neural. O módulo permite ao usuário treinar a rede backpropagation
utilizando os valores simulados pelo método Monte Carlo e disponibilizados pelo método
Análise Estrutural para formar o conjunto de entrada e de saída respectivamente.
231
A Figura 10.18 mostra o formulário inicial com os parâmetros que devem ser
fornecidos para o treinamento da rede, a saber:
• Núm. Máx. de Interações Limite de épocas a serem utilizadas para o
treinamento caso a tolerância ao erro especificada
não seja atingida;
• Neurônios camada oculta Momento de inércia, em relação ao eixo X, do
membro;
• Tam. conjunto treinamento Baseado neste parâmetro será definido o tamanho
do conjunto de treinamento e o tamanho do
conjunto de teste da rede, por diferença entre este
valor e o número de simulações efetuadas pelo
método Monte Carlo;
• Função de ativação Define se será utilizada a função logística ou a
tangente hiperbólica como função de ativação dos
neurônios da camada oculta;
• Tolerância ao erro Define qual o valor tolerável para a diferença entre
os valores fornecidos à rede e os valores da
camada de saída. Quando atingido o treinamento é
encerrado;
• Taxa de treinamento Define o valor da taxa de treinamento (ver item
4.9.1);
• Taxa de momento Define o valor da taxa de momento (ver item
4.9.1);
• Intervalo superior Valor máximo para geração dos pesos sinápticos
(ver item 4.4);
232
• Intervalo inferior Valor mínimo para geração dos pesos sinápticos
(ver item 4.4);
• Normalização Define a forma de normalizar os valores do
conjunto de entrada (ver itens 4.5 e 5.6).
A seguir os parâmetros necessários para que sejam montados os conjuntos de entrada e
saída para o treinamento da rede devem ser fornecidos.
O formulário é dividido em duas partes: na da esquerda, fornece-se os valores para
formação do conjunto de entrada e na da direita, os valores para formação da conjunto de
saída.
Figura 10.18 – Parâmetros do backpropagation – Módulo Rede Neural.
233
A Figura 10.19 mostra a tela que fornece as opções de variáveis para formação do
conjunto de entrada. Não aparecem nesta lista os valores disponibilizados pelo módulo
Análise Estrutural. Para o exemplo atual, o conjunto de entrada será formado pelas variáveis
W1, W2, P, I1, I2 e E2.
Figura 10.19 – Conjunto de entrada – Módulo Rede Neural.
A Figura 10.20 mostra a tela que fornece as opções de variáveis para formação do
conjunto de saída. Só aparecem nesta lista as variáveis que, no módulo Monte Carlo, foram
marcadas como Rede Neural, no formulário Estatística, e os valores disponibilizados pelo
módulo Análise Estrutural. Para o exemplo atual, o conjunto saída será composto pela
variável Deslocamento Y nó 3, que corresponde a variável FLECHA definida na equação de
falha fornecida ao módulo Monte Carlo.
234
Neste ponto todos as informações necessárias ao prosseguimento do módulo Rede
Neural já terão sido fornecidas. O botão Executar dará início ao processo de treinamento da
Rede Neural.
Figura 10.20 – Conjunto de saída – Módulo Rede Neural.
A Figura 10.21 mostra a tela da saída com a comparação entre os valores alvo,
fornecidos pela porção dos valores disponibilizados pelo módulo Análise Estrutural que
compuseram o conjunto de teste, e o valores fornecidos pela camada de saída da rede treinada.
Na coluna da direita é apresentado o erro relativo entre estes dois valores, na parte
inferior o erro médio quadrático e o número de interações necessárias para treinar a rede. Se
os valores apresentados não estiverem de acordo com o esperado, pode-se voltar a tela de
entrada de dados da rede neural, alterar os valores do algoritmo backpropagation e executar o
treinamento novamente. Somente quando o treinamento for dado por encerrado é que o
processo estará pronto para iniciar a avaliação da confiabilidade da estrutura proposta.
235
Figura 10.21 – Saída do teste da rede – Módulo Rede Neural.
10.8 MÓDULO CONFIABILIDADE
A seleção do ícone ou a sequência de menu arquivo/confiabilidade, dá acesso ao
módulo de Confiabilidade. O módulo permite ao usuário simular novamente as variáveis
fornecidas ao módulo Monte Carlo, com um número superior simulações, e utilizar estes
novos valores para questionar a rede neural a respeito da saída correspondente. Neste ponto a
rede neural treinada substitui o módulo de análise estrutural.
No exemplo atual, a saída da rede corresponderá ao deslocamento vertical no nó 3 da
viga analisada, que será associado à variável aleatória FLECHA, definida na equação de falha
do módulo Monte Carlo. Para cada consulta à rede, a equação de falha será avaliada
236
computando-se falha para valores menores ou iguais a zero. A divisão do número de falhas
pela quantidade de valores simulados fornecerá a probabilidade de falha da estrutura.
A Figura 10.22 mostra a tela onde o usuário deverá fornecer o novo número de valores
a serem simulados e associar às variáveis que compõem as funções de falha fornecidas os
valores disponibilizados pelo processo, até este ponto.
No exemplo atual, de todas as variáveis disponibilizadas, somente a variável
Deslocamento Y nó 3 não foi associada a nenhum processo anterior. Por este motivo, ela é a
única que aparece na lista da Figura 10.22.
Neste ponto o usuário já terá fornecido todos os dados para que se inicie a busca pela
confiabilidade da estrutura proposta. Para dar início ao processo o botão Executar deverá ser
pressionado.
Figura 10.22 – Parâmetro para definição da confiabilidade da estrutura – Módulo Confiabilidade.
237
O resultado final é fornecido com o mesmo formulário de saída do módulo Monte
Carlo. As diferenças as serem salientadas são: o número de simulações passa a ser o definido
no módulo Confiabilidade e na parte inferior disponibiliza-se a confiabilidade e a
probabilidade de falha da estrutura.
A Figura 10.23 mostra o resultado obtido para a confiabilidade após 5000 simulações
das variáveis W1, W2, P, I1, I2 e E2. O gráfico mostrado é o gráfico de aderência, teste de
Kolmogorov-Smirnov, para a variável I1.
Figura 10.23 –Confiabilidade da estrutura.
238
10.9 MÓDULO DE MANUTENÇÃO
A seleção do ícone ou a sequência de menu arquivo/Manutenção, dará acesso ao
módulo de Manutenção. O módulo permite determinar a idade de uma edificação quando
carbonatação no concreto atingir uma determinada profundidade.
A teoria completa em que se baseou a confecção do módulo está explicada no item 0.
Apesar de não estar inserido no processo de determinação da confiabilidade de um elemento
estrutural, sua função de avaliar a deterioração de uma estrutura com o tempo é de suma
importância para a avaliação de estruturas de concreto armado.
Inicialmente, deve-se utilizar o Módulo Monte Carlo para geração das variáveis
aleatórias que refletem as condições ambientais nas quais a estrutura a ser analisada está
inserida. As variáveis a serem simuladas são as seguintes:
• CO2 Concentração de CO2, em %.
• T Temperatura, em ºC;
• UR Umidade relativa, em %/100 e
• W Fator água cimento.
Após a simulação inicial, os valores de entrada devem ser associados às variáveis
simuladas ou ter um valor explícito fornecido. A Figura 10.24 mostra a tela inicial do módulo
já com as variáveis aleatória, simuladas por Monte Carlo, associadas.
Pode-se verificar na lista superior a opção por pesquisar a partir do ano 1, de um em
um ano, até a profundidade de carbonatação atingir 13 mm. Após a execução o gráfico
posicionado do lado direito inferior será preenchido mostrando a variação do processo de
carbonatação com o tempo.
239
Figura 10.24 –Tela inicial – Módulo Manutenção.
Após a associação, o botão confirmar deverá ser selecionado para dar início ao
processamento. Serão efetuadas contínuas simulações até que a profundidade média atingida
em uma simulação se iguale ou supere a fornecida.
A Figura 10.25 mostra o resultado do módulo. A lista da esquerda fornece as variáveis
da última simulação, que gerou a profundidade média final. Ao lado, os valores da média, do
desvio padrão e o tempo em anos final. No lado direito o gráfico preenchido.
240
Figura 10.25 – Final da execução – Módulo Manutenção.
11 ANEXOS
242
11.1 RELACIONAMENTO NORMAL EQUIVALENTE – DER KIUREGHIAN
As tabelas abaixo fornecem o valor do coeficiente F utilizado na transformada de
NATAF, para a obtenção da matriz de relacionamento normal equivalente, item 2.2.3
equações ( 2.10 ) e ( 2.11 ).
As distribuições são divididas em dois grupos distintos: o grupo 1 representa as
distribuições com dois parâmetros com redução à forma padrão e o grupo 2 representa as
distribuições com dois parâmetros sem redução à forma padrão. Baseando-se nas
combinações entre as distribuições propostas, cinco categorias de fórmulas foram definidas
por KIUREGHIAN apresentadas nas tabelas a seguir.
Tabela 11.1 – Distribuições marginais
Grupo 1 Grupo 2
Nome Símbolo Nome Símbolo
Uniform UN Lognormal LN
Exponencial SE Gamma GM
Rayleigh SR Type II Largest values T2L
Type I largest values T1L Type III Smallest values T3S
Type I Smallest values T1S
243
Tabela 11.2 – iX com distribuição normal e jX pertencente ao grupo 1.
X F (constante)
UN 1.023
SE 1.107
SR 1.014
T1L 1.031
T1S 1.031
Tabela 11.3 – iX com distribuição normal e jX pertencente ao grupo 1.
X F (δj)
LN( )21ln j
j
δ
δ
+
GM 2118.0007.0001.1 jj δδ +−
T2L 2364.0238.0030.1 jj δδ +−
T3S 2328.0195.0031.1 jj δδ +−
Tabela 11.4 – iX e jX pertencente ao grupo 1 e ( )ijFF ρ= .
UN SE SR T1L T1S
UN 2047.0047.1 ρ−
SE 2029.0133.1 ρ+ 2153.0367.0229.1 ρρ +−
SR 2008.0038.1 ρ− 2021.0100.0123.1 ρρ +− ρ029.0028.1 −
T1L 2015.0055.1 ρ+ 2031.0154.0142.1 ρρ +− 2006.0045.0046.1 ρρ +− 2005.0069.0064.1 ρρ +−
T1S 2015.0055.1 ρ+ 2031.0154.0142.1 ρρ ++ 2006.0045.0046.1 ρρ ++ 2005.0069.0064.1 ρρ ++ 2005.0069.0064.1 ρρ +−
244
Tabela 11.5 – iX pertence ao grupo 1, jX pertencente ao grupo 2 e ( )jijFF δρ ,= .
UN SE SR T1L T1S
LN22 249.0010.0
014.0019.1
j
j
δρ
δ
+
++
j
j
j
ρδ
δρ
δρ
437.0
303.0025.0
019.0003.0098.122 −+
+++
j
j
j
ρδ
δρ
δρ
130.0
231.0004.0
014.0001.0011.122 −+
+++
j
j
j
ρδ
δρ
δρ
197.0
233.0004.0
014.0001.0029.122 −+
+++
j
j
j
ρδ
δρ
δρ
197.0
233.0004.0
014.0001.0029.122 ++
++−
GM22 127.0002.0
007.0023.1
j
j
δρ
δ
+
+−
j
j
j
ρδ
δρ
δρ
296.0
173.0014.0
009.0003.0104.122 −+
+−+
j
j
j
ρδ
δρ
δρ
090.0
126.0002.0
007.0001.0014.122 −+
+−+
j
j
j
ρδ
δρ
δρ
132.0
131.0003.0
007.0001.0031.122 −+
+−+
j
j
j
ρδ
δρ
δρ
132.0
131.0003.0
007.0001.0031.122 ++
+−−
T2L22 405.0074.0
305.0033.1
j
j
δρ
δ
+
++
j
j
j
ρδ
δρ
δρ
728.0
455.0130.0
361.0145.0109.122 −+
+++
j
j
j
ρδ
δρ
δρ
229.0
383.0028.0
066.0038.0036.122 −+
++−
j
j
j
ρδ
δρ
δρ
332.0
383.0020.0
263.0060.0056.122 −+
++−
j
j
j
ρδ
δρ
δρ
332.0
383.0020.0
263.0060.0056.122 ++
+++
T3S22 379.0005.0
237.0061.1
j
j
δρ
δ
+
−−
j
j
j
ρδ
δρ
δρ
467.0
459.0010.0
271.0145.0147.122 −+
+−+
jj
j
ρδδ
δρ
136.0353.0
012.0042.0047.12 −
+−+
j
j
j
ρδ
δρ
δρ
211.0
356.0003.0
210.0065.0064.122 −+
+−+
j
j
j
ρδ
δρ
δρ
211.0
356.0003.0
210.0065.0064.122 ++
+−−
Tabela 11.6 – iX e jX pertencente ao grupo 2 e ( )iiijFF δδρ ,,= .
LN GM T2L T3S
LN ( )( ) ( )22 1ln1ln
1ln
ji
ji
δδρ
δρδ
++
+
GM
j
jii
ji
j
i
ρδ
δδρδ
δδ
ρδ
δρ
119.0
029.0104.0
130.0223.0
002.0016.0
004.0033.0001.1
22
2
−
+−
++
+−
++
( )( )
( )ji
ji
ji
ji
δδ
δδρ
δδ
ρδδ
ρ
014.0
077.0
125.0
001.0012.0
022.0002.1
22
2
+
+−
++
++−
+
T2L
j
jii
ji
j
i
ρδ
δδρδ
δδ
ρδ
δρ
277.0
126.0441.0
379.0288.0
018.0222.0
019.0082.0026.1
22
2
−
+−
++
++
−+
j
jii
ji
j
i
ρδ
δδρδ
δδ
ρδ
δρ
182.0
075.0313.0
379.0174.0
012.0225.0
030.0056.0029.1
22
2
−
+−
++
++
−+ ( )( )
( )( )
( )( ) ( )jijiji
ji
ji
jiji
ji
ji
δδδδδδρ
δδδ
δδρ
δδδδρ
δδρ
δδρ
++++
+−
+−−
++−
++−
+++
141.0257.0
371.0
218.0020.0
203.0570.0
662.0055.0
104.0054.0086.1
2
22
333
222
T3S
j
jii
ji
j
i
ρδ
δδρδ
δδ
ρδ
δρ
174.0
009.0005.0
350.0220.0
002.0210.0
011.0052.0031.1
22
2
−
++
++
+−
++
jji
ij
ij
i
ρδδδ
ρδδ
δδ
δρ
011.0003.0
006.0339.0
121.0202.0
007.0034.0032.1
2
2
−+
−+
+−
−+
j
jii
ji
j
i
ρδ
δδρδ
δδ
ρδ
δρ
481.0
034.0005.0
435.0372.0
013.0259.0
241.0146.0065.1
22
2
−+
++
++
−++( )
( )( )
ji
ji
ji
ji
δδ
δδρ
δδρ
δδρ
007.0
007.0
337.0001.0
200.0004.0063.1
222
−
++
++−
+−−
245
11.2 VARIÁVEIS ALEATÓRIAS NA ENGENHARIA
Todo trabalho estatístico exige um conhecimento prévio das características estatísticas
das variáveis aleatórias envolvidas. A constatação destes parâmetros pode vir através de
pesquisa, baseada em amostras colhidas de experimentos aleatórios, ou através da
bibliografia. SOARES, 2001, pg. 24-27, coletou vários experimentos em diversas publicações
e forneceu um resumo das características estatísticas das principais variáveis aleatórias
envolvidas em estudos de engenharia. A Tabela 11.7 resume a sua pesquisa.
Tabela 11.7 – Características estatísticas das variáveis aleatórias mais utilizadas na engenharia.
Variável Aleatória Características estatísticas µσ
=cv
Permanente: Log-normal ou Normal 8% a 15%
Acidental: Gumbel ou Weibull 0% a 30%
Ações externas
Onda (oceano ou mar): Gumbel ou Weibull 40%
Tensão: Log-normal ou Normal 10% a 25%Concreto
Módulo de elasticidade: Log-normal ou Normal 15%
Tensão: Log-normal ou Normal 6% a 12%Aço
Módulo de elasticidade: Log-normal ou Normal 8% a 15%
Tamanho ou abertura entre fissuras: Exponencial -Fissura
Homogeneidade: Weibull -
Deterioração Exponencial -
Erro Modelo: Normal (0,σ ) -
Base: Log-normal ou Normal cmµ/5,0
Altura: Log-normal ou Normal cmµ/5,0
Geometria
Cobrimento da armadura: Uniforme cmµ/0,2≅
246
11.3 PROBABILIDADE DE FALHA DE UM ELEMENTO DE TRELIÇA
Este anexo reproduz a proposta e os resultados obtidos por SARAIVA, 1997, p 87-95,
para avaliação da probabilidade de falha da barra 1 da treliça isostática da Figura 11.1 com o
algorítimo MCRN (Monte Carlo com Redes Neurais) por ele proposto.
A Tabela 11.9 mostra o resultado comparativo do método com os algorítimos MCC,
Monte Carlo tradicional e MCRV, Monte Carlo com redução de variância esperança
condicionada.
P
A
B C
Barra 1 Barra 2
Barra 3
L
60º
60º 60º
Figura 11.1 – Treliça isostática analisada por SARAIVA, 1997, p. 87.
Tabela 11.8 – Características das variáveis. SARAIVA, 1997, p. 88.
Variável Distribuição Média Desvio Padrão
Carga P Normal 14 1.25
Resistência R Normal 11 1.50
247
Tabela 11.9 – Resultado comparativo. SARAIVA, 1997, p. 94.
Nsim MCC erel% MCRV erel% MCRN1 erel%
100 0.0300 25.0 0.0404 1.5 0.0376 5.5
200 0.0350 12.1 0.0411 3.3 0.0413 3.8
300 0.0333 16.3 0.0408 2.5 0.0425 6.8
400 0.0300 25.0 0.0410 3.0 0.0441 10.8
500 0.0300 25.0 0.0409 2.8 0.0413 3.8
1000 0.0430 8.0 0.0408 2.5 0.0404 1.5
2000 0.0420 5.5 0.0402 1.0 0.0393 1.2
3000 0.0410 3.0 0.0402 1.0 0.0392 1.5
Livros Grátis( http://www.livrosgratis.com.br )
Milhares de Livros para Download: Baixar livros de AdministraçãoBaixar livros de AgronomiaBaixar livros de ArquiteturaBaixar livros de ArtesBaixar livros de AstronomiaBaixar livros de Biologia GeralBaixar livros de Ciência da ComputaçãoBaixar livros de Ciência da InformaçãoBaixar livros de Ciência PolíticaBaixar livros de Ciências da SaúdeBaixar livros de ComunicaçãoBaixar livros do Conselho Nacional de Educação - CNEBaixar livros de Defesa civilBaixar livros de DireitoBaixar livros de Direitos humanosBaixar livros de EconomiaBaixar livros de Economia DomésticaBaixar livros de EducaçãoBaixar livros de Educação - TrânsitoBaixar livros de Educação FísicaBaixar livros de Engenharia AeroespacialBaixar livros de FarmáciaBaixar livros de FilosofiaBaixar livros de FísicaBaixar livros de GeociênciasBaixar livros de GeografiaBaixar livros de HistóriaBaixar livros de Línguas
Baixar livros de LiteraturaBaixar livros de Literatura de CordelBaixar livros de Literatura InfantilBaixar livros de MatemáticaBaixar livros de MedicinaBaixar livros de Medicina VeterináriaBaixar livros de Meio AmbienteBaixar livros de MeteorologiaBaixar Monografias e TCCBaixar livros MultidisciplinarBaixar livros de MúsicaBaixar livros de PsicologiaBaixar livros de QuímicaBaixar livros de Saúde ColetivaBaixar livros de Serviço SocialBaixar livros de SociologiaBaixar livros de TeologiaBaixar livros de TrabalhoBaixar livros de Turismo
Top Related