Fábio Balbo - SMNC · solução dos problemas de Engenharia e de problemas reais de uma forma...

70

Transcript of Fábio Balbo - SMNC · solução dos problemas de Engenharia e de problemas reais de uma forma...

i

Fábio Balbo

Guilherme Pianezzer

Marco Argenta

Marina Vargas

Sandro Rodrigues

Tatiane Cazarin

LIVRO DE RESUMOS O livro de resumos contém os resumos expandidos e resumos dos posterês apresentados durante o II Simpósio de Métodos

Numéricos Computacionais da UFPR 2012

Programa de Pós-Graduação em Métodos Numéricos em Engenharia (PPGMNE)

Universidade Federal do Paraná (UFPR)

2012

ii

Informações Básicas

O objetivo principal do Simpósio de Métodos Numéricos Computacionais da UFPR é propor um espaço para divulgação e

debate dos trabalhos acadêmicos, bem como a apresentação de trabalhos desenvolvidos pelos professores, alunos e demais

participantes.

A proposta do simpósio é disseminar a pesquisa em métodos numéricos em engenharia e viabilizar um local para a discussão

das pesquisas e trabalhos desenvolvidos na área

O livro de resumos contém os resumos expandidos, posterês e as palestras apresentadas durante o evento.

Direitos Autorais

Os conceitos emitidos em artigos são de exclusiva responsabilidade de seus autores, não refletindo, necessariamente, a opinião

da redação. Não se permite a reprodução total ou parcial dos trabalhos, apenas utilizar como fonte de dados desde que seja

indicada, na forma de citação, explicitamente a sua fonte.

Corpo Editorial

Editora responsável

Editora UFPR

Coordenação Editorial

Marco André Argenta

Marina Vargas Reis de Paula Gonçalves

Organização

Fábio André Negri Balbo

Guilherme Augusto Pianezzer

Sandro Rodrigues

Tatiane Cazarin da Silva

Comitê Científico

Ademir Alves Ribeiro

Andrea Sell Diminski

Anselmo Chaves Neto

Arinei Carlos Lindbeck da Silva

Carlos Henrique Marchi

Cláudio Ávila

Deise Maria Bertholdi Costa

Eduardo Del Avanzi

Jair Mendes Marques

Liliana Madalena Gramani

Luciano Araki

Luzia Vidal de Souza

Marcio Villela

Marco André Argenta

Marcos Arndt

Maurício Felga Gobbi

Neida Maria Patias Volpe

Nelson Dias

Paulo Henrique

Paulo Justiniano Ribeiro Junior

Ricardo Almeida

Roberto Dalledone Machado

Sérgio Scheer

Volmir Eugênio Wilhelm

Concepção do projeto gráfico

Marco André Argenta

Web design

Marco André Argenta

3

Sumário

Informações Básicas ...................................................................................................................................................................... ii

Direitos Autorais ........................................................................................................................................................................... ii

Corpo Editorial .............................................................................................................................................................................. ii

Sumário .......................................................................................................................................................................................... 3

Apresentação .................................................................................................................................................................................. 5

RESUMOS EXPANDIDOS........................................................................................................................................................... 6

MODELO MECANOBIOLÓGICO DE REMODELAMENTO ÓSSEO ................................................................................. 7

MODELO NUMÉRICO MICROMECÂNICO PARA SCAFFOLD DE HIDROXIAPATITA ............................................... 9

SOLUÇÃO DA EQUAÇÃO DE DIFUSÃO-ADVECÇÃO UNIDIMENSIONAL EM UM CANAL ................................... 11

ANÁLISE DA EQUAÇÃO DA DIFUSÃO COM FONTE VARIÁVEL NO TEMPO A PARTIR DO MÉTODO DOS

ELEMENTOS DE CONTORNO ............................................................................................................................................ 13

CONTROLE DO TAMANHO DO PARÂMETRO DA MALHA PELA APROXIMAÇÃO POR ELEMENTOS FINITOS

PARA A EQUAÇÃO DE HELMHOLTZ EM UMA DIMENSÃO ........................................................................................ 15

DESENVOLVIMENTO DE UM MODELO UNIDIMENSIONAL DE EVOLUÇÃO TÉRMICA DE UM

RESERVATÓRIO SUBTROPICAL ....................................................................................................................................... 17

SIMILARIDADE ENTRE ESCALARES NA CAMADA-LIMITE ATMOSFÉRICA UTILIZANDO LARGE-EDDY

SIMULATION......................................................................................................................................................................... 19

SIMULAÇÃO NUMÉRICA DA CAMADA LIMITE ATMOSFÉRICA SUPERFICIAL COM O EMPREGO DO

MÉTODO DE FILTRAGEM LAGRANGEANA – MFL ....................................................................................................... 21

CONTROLE DE QUALIDADE EM DADOS MICROMETEOROLÓGICOS ..................................................................... 23

GERAÇÃO DO ELEMENTO REPRESENTATIVO DO CONCRETO COM AGREGADOS GRAÚDOS EM FORMATO

ELÍPTICO ................................................................................................................................................................................ 25

DESENVOLVIMENTO DE MODELO HIPERBÓLICO PARA PREVISÃO DA RELAÇÃO TENSÃO X

DEFORMAÇÃO X BIODEGRADAÇÃO EM RESÍDUOS SÓLIDOS URBANOS ............................................................. 27

RESOLUÇÃO DE SISTEMAS LINEARES ESPARSOS COM APLICAÇÕES EM GEOFÍSICA DE EXPLORAÇÃO .... 29

ANÁLISE ESTATÍSTICA MULTIVARIADA DOS ACIDENTES DAS RODOVIAS FEDERAIS PARANAENSES NO

PERÍODO DE 2009 A 2012 .................................................................................................................................................... 31

ESTUDO DE SÉRIES TEMPORAIS PELO MÉTODO SUPPORT VECTOR MACHINE – SVM ....................................... 33

ANÁLISE DO RISCO DE INSOLVÊNCIA DE COMPANHIAS DO SETOR DE ENERGIA USANDO METODOLOGIA

MULTICRITÉRIO PROMETHEE II ...................................................................................................................................... 35

IDENTIFICAÇÃO DE FATORES DE RISCO E ESTIMAÇÃO DA PROBABILIDADE DE INADIMPLÊNCIA EM

TELECOMUNICAÇÕES ........................................................................................................................................................ 37

ESTUDO DA VELOCIDADE DE CONVERGÊNCIA DO MÉTODO DE CAUCHY PARA MINIMIZAÇÃO

IRRESTRITA .......................................................................................................................................................................... 39

CONVERGÊNCIA DE UM ALGORITMO SEM DERIVADAS PARA OTIMIZAÇÃO RESTRITA ................................. 41

PROPOSTA DE UM ALGORITMO DE OTIMIZAÇÃO BASEADO EM ENXAMES DE PARTÍCULAS ....................... 43

TRATAMENTO DE INCERTEZAS UTILIZANDO PROGRAMAÇÃO DINÂMICA DETERMINÍSTICA ...................... 45

UM SISTEMA PARA REPOSIÇÃO DO ESTOQUE EM UMA EMPRESA PÚBLICA ...................................................... 47

PROGRAMAÇÃO LINEAR BINÁRIA NO PROBLEMA DA PROGRAMAÇÃO DE HORÁRIOS ESCOLARES: UM

ESTUDO DE CASO EM UM CURSO DO ENSINO SUPERIOR ......................................................................................... 49

AVALIAÇÃO DO DESEMPENHO DE ALGORITMOS GENÉTICOS EM OTIMIZAÇÃO DE PORTFÓLIOS............... 51

MODELAGEM MATEMÁTICA DO ESCALONAMENTO DE JOGOS NA GRADE HORÁRIA DO CAMPEONATO

BRASILEIRO .......................................................................................................................................................................... 53

SIMULAÇÃO DA MOVIMENTAÇÃO DE PEDESTRES ASSUMINDO VARIÁVEIS PSICOCOMPORTAMENTAIS . 55

4

RESUMO DOS POSTERS .......................................................................................................................................................... 57

COMPARAÇÃO DE PARÂMETROS BIOMECÂNICOS NA RETRAÇÃO INICIAL DE CANINO INFERIOR ENTRE A

ORTODONTIA CONVENCIONAL E LINGUAL ATRAVÉS DA ANÁLISE POR ELEMENTOS FINITOS ................... 58

ANÁLISE DE TENSÕES A PARTIR DE FORÇAS ORTODÔNTICAS BASEADA NO MÉTODO DOS ELEMENTOS

FINITOS .................................................................................................................................................................................. 59

ANÁLISE NUMÉRICA DO ESCOAMENTO LAMINAR SOBRE UM AQUECEDOR 3D PROTUBERANTE

MONTADO EM UMA PLACA DE CIRCUITO IMPRESSO ............................................................................................... 60

DESENVOLVIMENTO DE UM MODELO COMPUTACIONAL PARA O CÁLCULO DE CONFIABILIDADE DE

VIGAS DE CONCRETO ARMADO ...................................................................................................................................... 61

OTIMIZAÇÃO DO CONSUMO DE LOCOMOTIVAS: UMA ABORDAGEM REATIVA ................................................ 62

UM APLICATIVO PARA O PROBLEMA DE CORTE DE BARRAS UNIDIMENSIONAL ............................................. 63

COMPARAÇÃO ENTRE OS MÉTODOS DE INTEGRAÇÃO NUMÉRICA PARA ESTIMAÇÃO DOS PARÂMETROS

DE UM MODELO BINOMIAL COM EFEITO ALEATÓRIO ............................................................................................. 64

ESTUDO COMPARATIVO DE DIFERENTES MÉTODOS NUMÉRICOS PARA A DETERMINAÇÃO DE

AUTOVALORES E AUTOVETORES ................................................................................................................................... 65

ANÁLISE ESTATÍSTICA DA DISTRIBUIÇÃO DE RESÍDUOS URBANOS EM TERRENOS BALDIOS NA CIDADE

DE FAZENDA RIO GRANDE ............................................................................................................................................... 66

ALGORITMO PARA MEDIÇÃO DE ERRO DE CIRCULARIDADE E EXCENTRICIDADE E CONSTRUÇÃO DE

GRÁFICO POLAR DE PERFIL DE CIRCULARIDADE ...................................................................................................... 67

5

Apresentação

O Programa de Pós-Graduação em Métodos Numéricos em Engenharia (PPGMNE), da Universidade Federal do

Paraná, criado pelo Departamento de Construção Civil (Setor de Tecnologia) e pelo Departamento de Matemática (Setor de

Ciências Exatas), tem por objetivo congregar as áreas de concentração de Mecânica Computacional e de Programação

Matemática num único curso, por perceber a inter-relação entre as mesmas e por acreditar que, num trabalho conjunto, multi e

interdisciplinar, é possível o desenvolvimento e aplicação dos métodos numérico-computacionais na busca de novas formas de

solução dos problemas de Engenharia e de problemas reais de uma forma geral. O PPGMNE iniciou atividades em 1994 com o

curso de mestrado e em 2003 passou a oferecer também o curso de doutorado. O Programa não tem a pretensão de cobrir todo

o conhecimento das áreas mencionadas, mas considera-se apto a desenvolver trabalhos em algumas das áreas mais

importantes, conforme a natureza de seu corpo docente, que envolve professores de diversos departamentos: Construção Civil,

Engenharia Mecânica, Engenharia Elétrica, Matemática, Estatística, Informática e Desenho.

A proposta do simpósio é disseminar a pesquisa em métodos numéricos em engenharia e viabilizar um local para a

discussão das pesquisas e trabalhos desenvolvidos na área.

O evento proporcionará:

Divulgar a produção científica desenvolvida pela comunidade acadêmica do Curso de Pós-Graduação de Métodos

Numéricos em Engenharia, e demais instituições de ensino participantes;

Promover o intercâmbio entre pesquisadores, alunos e professores, visando a troca de informações científicas;

Realizar a integração das pesquisas concluídas e/ou em andamento possibilitando uma complementação dos

resultados e direcionamento das propostas;

Construir um ambiente de discussão dos desafios enfrentados pelo desenvolvimento da pesquisa sob o ponto de vista

empresarial e acadêmico.

6

RESUMOS EXPANDIDOS Trabalhos apresentados na forma de resumos expandidos.

7

MODELO MECANOBIOLÓGICO DE REMODELAMENTO ÓSSEO

André Luiz Daniel, Emílio G. F. Mercuri, Mildred B. Hecke.

Palavras-Chave: Remodelamento ósseo, elementos finitos, modelo biológico.

1 INTRODUÇÃO

O remodelamento é um fenômeno biológico de

manutenção e reparo do tecido ósseo. O processo é

coordenado por pelo menos três grupos celulares que são

essenciais para o remodelamento: os osteoblastos,

osteoclastos e os osteócitos. Os osteoblastos produzem o

osteóide que, após sua mineralização, forma o tecido

ósseo. Os osteoclastos reabsorvem o tecido e precedem os

osteoblastos durante o remodelamento. A detecção e

desencadeamento do processo é regido pelos osteócitos,

que ficam imersos na matriz extracelular e se conectam

uns aos outros por uma intricada rede de extensões das

suas membranas.

Evidências experimentais sugerem que os osteócitos e os

osteoblastos controlam a sinalização do início do

remodelamento. Ambos são capazes de detectar

perturbações mecânicas na matriz extracelular, como

deformações e a presença de microdanos, e de produzirem

sinais bioquímicos de controle que incluem o fator de

crescimento (TGF- ), o RANKL e o ligante da

osteoprotegerina (OPG) (Herinksen et al., 2009).

Os modelos matemáticos são uma ferramenta valiosa para

testar hipóteses e analisar causas e efeitos de perturbações

em sistemas complexos (Pivonka et al., 2008). Diversos

modelos do remodelamento ósseo foram criados nas

últimas décadas e a tendência tem sido incluir dados

experimentais da biologia óssea na forma de variáveis,

parâmetros e estrutura do modelo. A construção de

modelos com esse conceito possibilita o estudo de doenças

e a influência de fármacos.

2 OBJETIVOS

O objetivo principal do trabalho é acoplar um modelo de

interações células-proteínas que incorpore os dados da

literatura da biologia óssea em um modelo linear elástico

de elementos finitos, capaz de modificar sua rigidez

conforme o histórico de deformações.

3 MÉTODOS

O método dos elementos finitos (MEF) é um procedimento

numérico para resolução de problemas de valor de

contorno. O MEF é empregado para resolver o problema

elasto-estático linear e obter a energia de deformação w

que é o dado de entrada para o modelo biológico.

O modelo biológico adotado é um sistema de equações

diferenciais elaborado por Lemaire et al. (2004) e

modificado por funções de controle sugeridas por Scheiner

et al. (2012). Quatro equações diferenciais representam a

evolução temporal de osteoblastos responsivos ou

préosteoblastos (R), osteoblastos maduros (B), osteoclastos

(C) e da densidade óssea (O). As equações são acopladas

de forma que um sinalizador produzido por um tipo celular

influencia no desenvolvimento de outra célula,

depois reabs

. . . . ,

. . ,

. . . ,

. .

BR C R

C

B

B

C

C L A C

DdRD P R R

dt

DdBR k B

dt

dCD D C

dt

dOk B k C

dt

(1)

onde C e L são funções de controle que mediam a

influência do TGF- e do RANKL, respectivamente,

3

4 3 10

4 2 0

,

1

1

P

L P

L P

O

P

L

RANKL

L

k K B

k k K KkR I

k k k

IP

r

(2)

0 . S

C S

C f C

C C

(3)

6 5

P P P PP

P P

I k S k

I k k k

(4)

e P é a função de controle do hormônio da paratireoide

(PTH). A função na primeira equação de (1) descreve a

influência da energia de deformação na proliferação de

osteoblastos,

.sup

1eq

eq

ww

w

(5)

onde .supeq

w é o valor da energia de deformação para o

equilíbrio superior. Caso .supeq

w w então 0 . A

função ,RANKLP controla na produção de RANKL,

.inf

, 1

eq

RANKL

wP

w

(6)

sendo .infeq

w o valor da energia de deformação para

equilíbrio inferior. O parâmetro será igual a 0

quando .infeqew w .

A figura (1) exemplifica o controle das funções (5) e

(6). O sistema estará em equilíbrio quando

.inf .supeq eqe ew w w .

8

Figura 1: Influencia da energia de deformação na produção de

RANKL pela e na proliferação de osteoblastos.

4 RESULTADOS

O modelo foi avaliado durante 100 dias em uma geometria

de fêmur proximal. O resultado obtido pode ser analisado

na figura (2).

5 DISCUSSÃO

O modelo estudado atingiu um padrão de distribuição de

densidade que se assemelha as encontradas em

radiografias ósseas (2, a)), com a região cortical e algumas

porções de osso trabecular mais densas, e as demais áreas

com menos massa e menos rigidez. Esta aproximação leva

a duas conclusões: a corroboração do modelo biológico de

Lemaire e que a utilização da energia de deformação como

sinal de mecanotransdução é adequada.

Figura 2: a) Radiografia da região proximal do fêmur, Doblaré

and García (2002), b)Condições de contorno e

distribuição da densidade (g/cm3) após 100 dias. fc =

3000N, 24o

C , fc=1800N, 28o

t .

6 CONCLUSÕES

A evolução temporal do modelo, partindo de uma

condição inicial de rigidez uniforme ao longo do tecido,

foi satisfatória pois atingiu uma conformação

qualitativamente similar as encontradas em radiologias da

região proximal do fêmur.

REFERÊNCIAS

Doblaré M. and García J.M. Anisotropic bone remodeling

model based on a continuum damagerepair theory.

Journal of Biomechanics, pages 293–309, 2002.

Herinksen K., Neutzsky-Wulff A.V., Bonewald L.F., and

Karsdal M.A. Local communication on and within

bone controls bone remodeling. Bone, pages 1026–

1033, 2009.

Lemaire V., Tobin F., Greller L., Cho C., and Suva L.

Modeling the interactions between osteoblast and

osteoclast activities in bone remodeling. Journal of

Theoretical Biology, pages 293–309, 2004.

Pivonka P., Zimak J., Smith D.W., Gardiner B.S., Dunstan

C.R., Sims N.A., Martin T.J., and Mundy G.R. Model

structure and control of bone remodeling: a

theoretical study. Bone, 2008.

Scheiner S., Pivonka P., Hellmich C., and Smith D.W.

Mechanobiological regulation of bone remodeling -

theoretical development of a coupled system biolgy-

micromechanical approach. Cornell University

Library: arXiv:1201.2488v1, 2012.

9

MODELO NUMÉRICO MICROMECÂNICO PARA SCAFFOLD DE

HIDROXIAPATITA

Emílio Graciliano Ferreira Mercuri, André Luiz Daniel, Roberto Dalledone Machado, Mildred Ballin Hecke.

Palavras-Chave: Biomaterial de hidroxiapatita, Micromecânica do contínuo, Tensor de Eshelby

1 INTRODUÇÃO

A reconstrução e reparo de tecido ósseo fraturado é um

processo complexo que demanda um longo período de

tempo e muitas vezes reduz a funcionalidade da estrutura

do osso. Uma intervenção possível que facilita a

regeneração é a utilização de scaffolds para preencher os

defeitos e conferir suporte às cargas naturais do tecido. O

objetivo deste estudo é o desenvolvimento de um modelo

computacional representativo do comportamento mecânico

de um scaffold de hidroxiapatita com cultura de células

ósseas (osteoclastos e osteoblastos). O estudo trata da

simulação de um carregamento distribuído na superfície de

um scaffold e a distribuição de tensões e deformações em

uma seção transversal do mesmo com o enfoque da

micromecânica do contínuo.

2 MICROMECÂNICA

2.1 Elemento de Volume Representativo

Na micromecânica do contínuo (Hill, 1963; Suquet, 1997;

Zaoui, 2002), o material como um todo é entendido como

macro-homogêneo, porém na sua estrutura interna ele é

entendido como microheterogêneo, nos elementos de

volume representativos (EVR). Em geral, são escolhidos

subdomínios quase homogêneos com grandezas físicas

conhecidas (frações de volume f ou propriedade

constitutivas). Os subdomínios são conhecidos como as

fases do material.

Figura 1: EVR do Scaffold

O comprimento característico do EVR (comprimento das

heterogeneidades dentro do EVR do scaffold, Figura 1)

deve ser considerado grande quando comparado às

dimensões das heterogeneidades dentro do EVR, o

comprimento d, e suficientemente pequeno comparado ao

comprimento característico da geometria ou do

carregamento da estrutura na qual está definido o EVR, o

comprimento ℒ . Matematicamente, essa separação de

escalas pode ser escrita como ld ℒ .

O biomaterial em questão é descrito como um meio poroso

constituído de policristais de hidroxiapatita contendo poros

vazios e poros preenchidos de matéria orgânica não

colagenosa com células ósseas em ambiente líquido. A

hidroxiapatita está presente em formato cilíndrico (tipo

agulhas) com rigidez ℂ𝐻𝐴 e fração de volume fHA. A

orientação das inclusões de hidroxiapatita é aleatórea. Já

os poros podem ser caracterizados como esferas com

fração de volume fPV (poros vazios) ou fMO (poros com

matéria orgânica), como mostra a Figura 1.

A porosidade total é definida como:

MOPV ff (1)

A Tabela 1 mostra as propriedades elásticas dessas fases.

Fase Módulo Fase Volumétrico k

Cisalhante µ

Hidroxiapatita KHA = 82:6 GPa 𝜇HA = 44:9 GPa Células Ósseas KMO = 2:3 GPa 𝜇MO = 0 GPa Poros Vazios KPV = 0 GPa 𝜇PV = 0 GPa

Tabela 1: Tabela das propriedades constitutivas

elásticasHellmich et al. (2004).

O tensor de rigidez para qualquer uma das fases r descritas

acima em função de K e 𝜇 é:

ℂ𝑟 = 𝑘𝑟𝕁 + 𝜇𝑟𝕂 (2)

sendo 𝕁 a parte volumétrica do tensor identidade de

quarta-ordem 𝕀 (Iijkl= ½( 𝛿𝑖𝑘𝛿𝑗𝑙 + 𝛿𝑖𝑙𝛿𝑘𝑗 )), e 𝕂 a parte

desviadora do mesmo tensor, 𝕂 = 𝕀 − 𝕁. As componentes

de 𝕁 são Jijkl = 1/3𝛿𝑖𝑗𝛿𝑘𝑙.

2.2 Localização

A deformação em uma fase r dentro do EVR do

biomaterial pode ser obtida pela expressão:

휀𝑟 = 𝔸𝑟𝑒𝑠𝑡: 𝑬𝑠𝑐𝑎𝑓 (3)

O tensor de concentração 𝔸𝑟𝑒𝑠𝑡 pode ser adequadamente

estimado através do problema de matrizinclusão de

Eshelby (1957). Para policristais deve-se utilizar o

esquema auto-consistente Zaoui (2002); Benveniste

(1987).

𝔸𝑟𝑒𝑠𝑡 = [𝕀 + ℙ𝑟

𝑚𝑜: (ℂ𝑟 − ℂ𝑚𝑜)]−1:

{∑ 𝑓𝑠𝑠 [𝕀 + ℙ𝑠𝑚𝑜: (ℂ𝑠 − ℂ𝑚𝑜)]

−1}−1 (4)

O tensor de Hill de quarta ordem ℙ𝑟𝑚𝑜 representa o

formato da fase r, considerada como uma inclusão

elipsoidal incorporada na matriz de rigidez ℂ𝑚𝑜 . Para

matrizes isotrópicas (que serão consideradas nesse

trabalho), ℙ𝑟𝑚𝑜 r é escrito através do tensor de Eshelby

10

Eshelby (1957). Para maiores detalhes no tensor de Hill

ver (Fritsch et al., 2006).

2.3 Homogeneização

A estimativa das propriedades elásticas de um material a

partir das propriedades das fases é um procedimento

conhecido como homogeneização. As microdeformações

compatíveis cinematicamente no EVR são

homogeneizadas segundo a Equação 5.

𝑬𝑠𝑐𝑎𝑓 = 1

𝑉 ∫ 휀 𝑑𝑉 = 𝑓𝑀𝑂휀𝑀𝑂𝑉𝐸𝑉𝑅

+ 𝑓𝐻𝐴휀𝐻𝐴

(5)

As tensões (macroscópicas) homogeneizadas ∑ são

definidas como média espacial, dentro do EVR,

das microtensões 𝜎

∑ = 𝑠𝑐𝑎𝑓1

𝑉 ∫ 𝜎 𝑑𝑉 = 𝑓𝑀𝑂𝜎𝑀𝑂𝑉𝐸𝑉𝑅

+ 𝑓𝐻𝐴𝜎𝐻𝐴 (6)

As tensões e deformações (macroscópicas)

homogeneizadas, ∑ 𝑠𝑐𝑎𝑓 𝑒 𝑬𝑠𝑐𝑎𝑓 , são relacionadas pelo

tensor de rigidez (macroscópico) homogeneizado:

∑ = 𝑠𝑐𝑎𝑓 ℂ𝑠𝑐𝑎𝑓ℎ𝑜𝑚 : 𝑬𝑠𝑐𝑎𝑓 (7)

Podemos identificar a relação entre os tensores de rigidez

das fases ℂ𝑟 e a rigidez homogeneizada global C do EVR

como:

ℂ𝑠𝑐𝑎𝑓ℎ𝑜𝑚 = ∑ 𝑓𝑟ℂ𝑟: 𝔸𝑟

𝑒𝑠𝑡𝑟 (8)

3 DISCUSSÃO E CONCLUSÕES

Os estudo de Scaffolds e do fenômeno de remodelamento

ósseo são assuntos de natureza multidisciplinar e estão

numa área de fronteira relativamente nova na literatura.

Trata-se, portanto, de um tema bastante complexo e esse

trabalho está em fase de desenvolvimento.

REFERÊNCIAS

Benveniste Y. A new approach to the application of mori-

tanaka’s theory in composite materials. Mechanics of

Materials, 6(2):147 – 157, 1987.

ISSN 0167-6636.

Eshelby J.D. The determination of the elastic field of an

ellipsoidal inclusion, and related problems.

Proceedings of the Royal Society of London. Series

A. Mathematical and Physical Sciences,

241(1226):376–396, 1957.

Fritsch A., Hellmich C., and Dormieux L. Porous

polycrystals built up by uniformly and

axisymmetrically oriented needles: Homogenization

of elastic properties. pages 198–198, 2006.

Hellmich C., Ulm F.J., and Dormieux L. Can the diverse

elastic properties of trabecular and cortical bone be

attributed to only a few tissueindependent phase

properties and their interactions? Biomechanics and

Modeling in Mechanobiology, 2:219–238, 2004.

ISSN 1617-7959. 10.1007/s10237-004-0040-0.

Hill R. Elastic properties of reinforced solids: Some

theoretical principles. Journal of the Mechanics and

Physics of Solids, 11(5):357 – 372, 1963. ISSN 0022-

5096.

Suquet P., editor. Continuum micromechanics. Springer-

Verlag New York, Inc., New York, NY, USA, 1997.

ISBN 3-211-82902-4.

Zaoui A. Continuum micromechanics: Survey. Journal of

Engineering Mechanics, 128(8):808– 816, 2002.

11

SOLUÇÃO DA EQUAÇÃO DE DIFUSÃO-ADVECÇÃO UNIDIMENSIONAL EM

UM CANAL

Marcelo Franco de Oliveira, Cynara de Lourdes da Nóbrega Cunha.

Palavras-Chave: difusão-advecção, explícito, implícito, transporte

1 INTRODUÇÃO

A equação da difusão-advecção unidimensional (1D)

permite determinar o transporte de um soluto em um canal

devido à combinação do transporte difusivo e advectivo. A

solução analítica dessa equação só é possível em alguns

casos simplificados; para estudos onde a velocidade e

coeficiente de difusão turbulenta são variáveis, se faz

necessário uma solução numérica dessa equação.

Nesse trabalho é desenvolvida a solução numérica para a

equação da difusão-advecção utilizando dois métodos

numéricos, o método de diferenças finitas explicito e o

método de diferenças finitas implícito; os resultados

numéricos obtidos são comparados com a solução analítica

para um caso simplificado.

2 EQUAÇÃO DA DIFUSÃO-ADVECÇÃO

A equação da difusão-advecção 1D é uma equação

diferencial parcial de segunda ordem, a qual descreve um

fenômeno físico, onde partículas ou energia são

transportadas dentro de um sistema. A equação é dada por: 2

2

C C CD U

t xx

(1)

onde C(x,t) é a concentração do soluto, D é o

coeficiente de difusão turbulenta, e U é a velocidade

longitudinal de meio, isto é, velocidade longitudinal

do fluído. Considerando uma fonte contínua, as

seguintes condições de contorno podem ser definidas:

0(0, )C t C (2)

( ,0) 0C x (3)

*( , )C tU f

x

(4)

onde *f

é o fluxo. A equação 1 é utilizada na

modelação unidimensional de problemas de

qualidade de água, principalmente em rios. Para

simular o transporte de substâncias dissolvidas ao

longo de rios, estuários e reservas subterrâneas,

freqüentemente têm sido utilizados modelos

numéricos. Estes modelos são formados por uma ou

mais equações diferenciais que descrevem a evolução

de processos físicos como o de transferência por

advecção e por difusão (Meireles et al., 2004).

3 MODELO NUMÉRICO

Os modelos numéricos tem sido de fundamental

importância na solução de equações diferencias, pois em

muitos casos não é possível determinar a solução

analíticas, devido ao grau de complexidade do problema.

Existem diversos métodos numéricos para a solução de

equações diferencias, os mais conceituados atualmente

são: Métodos dos Elementos Finitos (MEF), Método dos

Elementos de Contorno (MEC), e o Métodos das

Diferenças Finitas (MDF), que é destacado por dois

esquemas de aproximação, o método explícito e implícito.

Nesse artigo a equação 1 é resolvida através do MDF.

3.1 Esquema Explícito O método de diferenças finitas explícito é o mais simples

de se utilizar, pois para calcular a concentração do soluto

em um determinado ponto em um tempo t t , é

necessário conhecer apenas valores correspondentes do

tempo anterior t . Utilizando esse método para diferenças

progressivas no tempo e no espaço, a equação 1 pode ser

discretizada como: 1

1 1

2

1

2j j j j j

i i i i i

j j

i i

C C C C CD

t x

C CU

x

(5)

para U e D são considerados constantes, onde o super-

índice j representa o tempo e o sub-índice i representa o

ponto do domínio. A equação 5 deve ser resolvida para 1j

iC :

1

1 1

1

( 2 )

( )

j j j j

i i i i

j j j

i i i

C E C C C

C C C

(6)

sendo 2

D tE

x

e U t

x

Com a equação 6 a solução do problema é obtida de forma

explícita. A principal vantagem desse método é o tempo de

processamento, e a desvantagem está relacionada às

restrições em relação a escolha de x e t . Um número

adimensional que caracteriza a extensão relativa das

oscilações numéricas é o número de Courant, que é

associado à discretização no tempo e no espaço, é obtido

por U tC

x

. Para uma boa estabilidade da solução o

número de Courant deve ser 1C .

3.2 Esquema Implícito O esquema implícito, também conhecido como método

explícito de Euler, as derivadas espaciais são

desenvolvidas de maneira semelhante ao explícito, mas as

diferenças são as discretizações feitas para um tempo

t t , e não mais função apenas do tempo anterior t ,

como é no método explícito. Assim, desenvolvendo a

equação 1 pelo método explícito tem-se:

12

1 1 1 1

1 1

2

1 1

1

2j j j j j

i i i i i

j j

i i

C C C C CD

t x

C CU

x

(7)

e resolvendo a equação 7 tem-se:

1 1

1

1

1

12

2

j j

i i

j j

i i

D t U t D tC C

x x x

D t U tC C

x x

(8)

ou de maneira mais resumida:

1 1 1

1 1

j j j j

i i i iC C C C

(9)

Nota-se na equação 9 que, em cada passo de tempo,

aparecem três termos que devem ser calculados,

formando um sistema de equações para solução

simultânea de todos os termos, a cada passo de

tempo.

4 SOLUÇÃO ANALÍTICA

A obtenção de soluções analíticas para equações

diferenciais é de fundamental importância, pois é possível

validar as soluções numéricas e calibrar parâmetros

utilizados nas equações, mas a obtenção de uma solução

analítica nem sempre é uma tarefa fácil. Técnicas para

resolver analiticamente uma equação diferencial podem

ser encontradas em livros de física-matemática,

matemática avançada; as técnicas usualmente envolvidas

na solução de equações diferenciais são frequentemente

descritas em livros de “matemática avançada”,

“matemática aplicada” ou “matemática para engenharia”,

(Dias, 2002). As vantagens da solução analíticas são:

rapidez na obtenção dos resultados, não sendo necessário a

discretização temporal ou espacial, a desvantagem é que é

possível obter solução analítica para poucos casos, com

várias simplificações.

5 SOLUÇÃO DO PROBLEMA

Nesse trabalho a equação da difusão-advecção foi

resolvida utilizando o método explícito e o implícito, e os

resultados numéricos obtidos são comparados com os

resultados a partir da solução analítica (Figura 1 e Figura

2) dada por Genuchten & Alves, 1982:

0( , ) ( ) ( , )i iC x t C C C A x t (10)

sendo por:

1 1( , )

2 22 2

Ux

Dx Ut x Ut

A x t erfc e erfcDt Dt

iC condição inicial e 0C condição de contorno, em x = 0.

Para esse trabalho a condição inicial é nula, a equação 10

se reduz à:

0( , ) ( , )C x t C A x t (11)

Os valores utilizados no problema são:

0.1U m/s , 0 10C mg/L 2.0t seg,

10.0x m, 2.0D m2/s, 0.0iC mg/L.

O comprimento total do canal analisado foi 100m.

0 800 1600 2400 3200 4000Tempo

0

2

4

6

8

10

Co

nce

ntr

açã

o (

C)

Analítica

Implícito

Explícito

Figura 1: Comparação entre os valores de concentrações (mg/L)

obtidas numericamente e analiticamente em x=50m.

0 2000 4000 6000 8000 10000t

0

2

4

6

8

10

Co

nce

ntr

açã

o (

C)

X=5 m

X=20 m

X=50 m

X=100 m

X=150 m

X=200 m

Figura 2: Comparação entre os valores de concentrações (mg/L)

obtidas numericamente MDF implícito em vários pontos do

domínio.

REFERÊNCIAS

Dias, N.L., Obtenção de uma solução analítica da equação

de Difusão-Advecção com decaimento de 1º ordem

pelo método da transformação de similaridade

generalizada. Revista Brasileira de Recursos

Hídricos, Vol 8: 181-188, 2003.

Genuchten M. Th. V., & Alves, W. J., Analytical solutions

of the One-Dimensional Convectives-Dispersives

Solute transport equation, United States Department

of Agriculture, Technical Bulletin Number 1661,

1982.

Meireles, A.C.M., Barreto, F.M.S., Sousa, I.V.A., Lima,

C.H.R., Estudo da solução da equação difusiva-

advectiva, para rios Naturais, utilizando o método das

diferenças finitas, 2004, disponível em

http://artigocientifico.uol.com.br/uploads/artc_12026

26875_60.pdf.

13

ANÁLISE DA EQUAÇÃO DA DIFUSÃO COM FONTE VARIÁVEL NO TEMPO

A PARTIR DO MÉTODO DOS ELEMENTOS DE CONTORNO

Roberto Pettres, Luiz Alkimin de Lacerda.

Palavras-Chave: Método dos Elementos de Contorno, Solução Fundamental Independente do Tempo.

1 INTRODUÇÃO

Os primeiros registros que tratam da origem do Método

dos Elementos de Contorno (MEC) datam do ano de 1823,

em uma publicação do matemático norueguês Niels Henrik

Abel sobre o problema da tautócrona (‘tempo igual’)

(Simmons, 1987). Nesse trabalho, Abel se retrata ao

método, como técnica baseada em equações integrais para

resolução de problemas baseados em equações diferenciais

parciais. Tal método recebeu atenção de diversos

pesquisadores e foram necessárias mais oito décadas de

estudos para que o método recebesse a primeira teoria

clássica das equações integrais desenvolvida por Fredholm

em 1903 (Jacobs, 1979). Ainda no século XX, diversos

autores utilizaram a técnica de equações integrais e

oportunizaram importantes contribuições para a evolução

do método, sendo denominado Método dos Elementos de

Contorno a partir dos trabalhos de Brebbia em 1978

(Brebbia, 1978), o qual apresentou uma formulação

baseada em equações integrais e em técnicas de resíduos

ponderados. Atualmente, o MEC vem sendo empregado

para solucionar um número cada vez maior de problemas

em mecânica dos sólidos, eletromagnetismo entre outros, e

em determinadas formulações, acaba contando com o

acoplamento de outros métodos numéricos, como o

Método de Diferenças Finitas (MDF) (Kreyszig, 2006).

Dessa forma, acoplado ao MEC, emprega-se nesse

trabalho o MDF para solucionar a equação da difusão de

calor com um termo fonte variável no tempo contando

com uma solução fundamental independente do tempo. Ao

final do trabalho apresentam-se os resultados obtidos.

2 MODELO UNIDIMENSIONAL

O modelo matemático escolhido para este estudo é

Equação da Difusão com termo fonte (eq.1).

)(22 tFt

uu

(1)

O modelo geométrico é uma barra de comprimento igual a

L sob as seguintes condições de contorno (eq.2):

.),(;),0(

;),(;),0(

^^

^^

qtLqqtq

utLuutu

(2)

Onde u é o potencial. A condição inicial é dada por (eq.3):

0)0,( xu (3)

3 FORMULAÇÃO COM MEC

A partir do modelo matemático e do modelo geométrico

obtém-se a equação resultante denominada formulação

inversa de resíduos ponderados:

0),(

1

^_

0

_^_

0

0

_

20

_

0

_

2

2

0

_

Lx

Lx

Lx

x

L

LLx

x

Lx

x

L

wqqwuuwdxtxF

wdxdt

ud

dx

dwu

dx

udwdx

dx

wdu

(4)

Utilizando e aplicando as propriedades da função Delta de

Dirac (Kreyszig, 2006) para igualar ao diferencial presente

no primeiro integrando da (eq.4), pode-se obter o efeito no

ponto campo x de uma fonte concentrada aplicada no

ponto fonte . Então, substituindo (eq.5):

),(2

2

xdx

wd (5)

na (eq.4), obtém-se a equação:

0

),(1

),(

0

^

0

^

00

_

0

_

xLxxLx

LLL

wqwqwuwu

dxwtxFdxwdt

ud

kdxxu (6)

No Método dos Elementos de Contorno, a função de

ponderação w é a solução do problema singular

equivalente, isto é, é a função de Green (Greenberg, 1971)

para o operador diferencial. Assim, ),(* xuw ,

denominada solução fundamental, pode ser interpretada

como o efeito, no ponto campo x de uma fonte

concentrada aplicada no ponto fonte . Para o caso

unidimensional, a solução fundamental (Vladimirov,

1979) é dada por:

2

||),(*

xxu (12)

Substituindo a (eq.7) na (eq.6), obtêm-se:

0

^

0

^

00

_

),(1

),(

xLxxLx

LL

wqwqwuwu

wdxtxFwdxdt

ud

kxu

(13)

Fazendo ),(_

txuu e ),(_

txqq em (eq.8) e definindo

as condições de contorno essenciais de acordo com a

(eq.9), obtêm-se a equação constituinte do MEC (eq.10)

para o problema proposto.

0),(),0( tLutu (14)

14

Lx

x

L

L

txqx

dxx

txF

dxx

dt

txdutu

0

0

0

2

),(2

||

2

||),(

2

||),(1),(

(15)

No primeiro integrando da equação 10 está presente uma

derivada temporal. Como a solução fundamental utilizada

nesse trabalho é independente do tempo, faz-se necessário

o emprego de alguma técnica ou modelo numérico para o

processo de avanço no tempo.

3.1 Modelo Numérico de Avanço no Tempo

Várias abordagens têm sido propostas para a aplicação do

MEC em problemas parabólicos, onde se emprega como

solução do problema singular equivalente, uma solução

independente do tempo. Nesse tipo de formulação, faz-se

necessário o emprego de métodos de marcha no tempo, em

razão da integral que contém o termo diferencial no tempo.

Entre os métodos comumente utilizados, acoplado ao

MEC, está o Método de Diferenças Finitas (MDF).

O MDF visa obter a taxa de variação de uma grandeza de

um instante para o seguinte, sendo uma aproximação para

o valor da derivada no ponto quanto t torna-se

extremamente pequeno. Desta forma, a derivada no tempo

presente na (eq.10) é aproximada pelo quociente da

variação dos potenciais pelo intervalo de tempo

correspondente, conforme (eq.11).

t

txuttxu

dt

txdu

),(),(),( (16)

Substituindo a (eq.11) na (eq.10), tem-se:

Lx

x

L

L

txqx

dxx

txF

dxx

t

txuttxutu

0

0

0

2

),(2

||

2

||),(

2

||),(),(1),(

(17)

Discretizando em células o domínio do problema e

assumindo que as variações em cada qual são lineares

(Figura 1), pode-se montar um sistema linear para

determinar a solução do problema a partir das funções de

aproximação dadas por (eq.13 e eq.14):

Figura 1 – Discretização do domínio em células lineares.

1i

(18)

1i

(19)

3.2 Implementação Computacional

A formulação proposta foi implementada no software

Matlab R2011®, utilizando duas células lineares para

discretização do domínio, visando à obtenção da solução

com o menor esforço computacional.

4 RESULTADOS NUMÉRICOS

A análise numérica foi realizada utilizando os parâmetros

L = 1, 2 = 1.5 (condutividade), t = 0.0833 (critério de

estabilidade, Wrobel, 1981) em 100 passos de avanço no

tempo, sendo calculado o coeficiente R2 para identificar a

correlação entre as soluções ilustradas pela Figura 2:

Figura 2 – Comparação entre a solução analítica e o MEC para os

potenciais e fluxos ao longo do tempo.

5 CONCLUSÃO

Os resultados demonstraram que para o problema

proposto, a relação apresentada na (eq.12) produz

resultados precisos para os valores de fluxo, R2=1, e para

os valores potenciais, R2=0.99529. Analisando ambos os

resultados, observa-se que a resposta do modelo apresenta

grande precisão quando são analisados pontos pertencentes

ao contorno (onde são obtidos os fluxos), pois trata apenas

de valores de contorno, como sugere o nome do método, já

para o potencial calculado em um ponto do domínio, o

modelo apresenta um pequeno erro. Esse tipo de erro está

relacionado ao tamanho do incremento de tempo t , do

tipo de função de aproximação utilizada para as células e

suas dimensões (comprimento), necessitando de um

intervalo de tempo específico para o processo de difusão

de calor em toda a extensão da célula. Assim, os resultados

obtidos neste trabalho comprovam a potencialidade do

MEC e a eficácia da solução fundamental independente do

tempo para o problema de difusão proposto.

REFERÊNCIAS

Brebbia. C. A. The boundary element method for

engineers. Pentech Press, London, 1978.

Greenberg. M. D. Application of Green’s Functions in

Science and Engineering. P. Hall, New Jersey, 1971.

Jacobs, D. The State of the Art in Numerical Analysis,

Academic Press, New York, USA, 1979.

Kreyszig, E. Advanced Engineering Mathematics 9th

Edition. Wiley, Ohio, 2006.

Vladimirov, V. S. Generalized Functions in Mathematical

Physics. Nauka Publishers, Moscow, 1979.

Wrobel, L. C. Potential and Viscous Flow Problems Using

the Boundary Element Method, U.K. Ph.D. Thesis,

University of Southampton, 1981.

15

CONTROLE DO TAMANHO DO PARÂMETRO DA MALHA PELA

APROXIMAÇÃO POR ELEMENTOS FINITOS PARA A EQUAÇÃO DE

HELMHOLTZ EM UMA DIMENSÃO

Jean Eduardo Sebold, Luiz Alkimin de Lacerda, Jose Antonio Marques Carrer.

Palavras-Chave: Elementos Finitos, Base Hierárquica, Aproximação de Padé.

1 INTRODUÇÃO

Este artigo trata de um Método de Elementos Finitos

usando funções de base hierárquicas de Legendre para a

aproximação da solução da equação Helmholtz

unidimensional. As condições de contorno acústicas são

fracamente representadas, e é definido um problema

auxiliar com condições de contorno homogêneas

facilitando o caminho para a aproximação. Esta abordagem

auxiliar permite a formulação de um método de solução

geral. Elementos finitos de segunda ordem são usados

juntamente com um parâmetro de discretização com base

no número de onda fixado e da tolerância de erro

requerida. Uma fórmula explícita é definida para o

controle do tamanho do parâmetro da malha baseado na

aproximação de Padé. A análise paramétrica é conduzida

para validar a abordagem de elementos finitos e o

parâmetro de controle de malha. O controle da dispersão

nos resultados mostra que a formulação numérica é robusta

e pode ser estendida para ordens superiores na análise de

elementos finitos.

2 MODELO MATEMÁTICO FUNÇÕES DE BASE

HIERÁRQUICAS DE LEGENDRE

Nesta seção apresentaremos as funções de base

hierárquicas de Legendre, que são definidas, de acordo

com Harari and Thompson (1996), da seguinte forma:

Seja 𝒮𝑝 ⊂ 𝐻1(Ω) um subespaço de elementos

finitos do espaço dos polinômios contínuos por partes de

grau p denotado por 𝒫𝑝.

𝒮𝑝 = {𝜙|𝜙 ∈ 𝐶01(Ω), 𝜙 ∈ 𝒫𝑝(Ω𝑒)} (1)

onde 𝐶01(Ω) é o espaço de todas as funções que são uma

vez continuamente diferenciáveis, as quais juntamente

com suas derivadas, tem suporte compacto em (Ω) =(0,1), que é um aberto limitado de ℝ e Ω𝑒 = [−1,1] é o

elemento de referência. Seja {𝓝𝑘}𝑘=1

𝑝+1 um conjunto de funções de base,

em que a funções nodais são dadas pela variação k = 1, 2,

enquanto que para k = 3, p+1, temos as funções de base

internas. Podemos definir tal conjunto como segue:

{

𝓝𝑘(𝜉) =

1

2(1 + 𝜉𝑘𝜉), 𝑘 = 1,2

𝓝𝑘(𝜉) =1

‖𝐿𝑘−2‖∫ 𝐿𝑘−2(𝑡)𝑑𝑡𝜉

−1

(2)

Onde {Lk−2}k=3p+1

é o conjunto dos polinômios de Legendre,

‖𝐿𝑘−2‖2 =

2

2𝑘−3, 𝜉1 = 1, 𝜉2 = −1.

3 EXPERIMENTOS NUMÉRICOS

Pelo Método dos Elementos Finitos utilizando as funções

de bases hierárquicas de Legendre, aproximaremos o

seguinte problema proposto em Liu (2009): Encontrar

𝜙 ∈ 𝐻1(Ω), tal que

(𝜙′, 𝑤′) + 𝜉2(𝜙, 𝑤) = 0 (3)

Para todo w ∈ H01(Ω), sujeito às condições de contorno:

{

𝑃𝑟𝑒𝑠𝑠ã𝑜: 𝜙(𝑥) = �̃�(𝑥)

𝑉𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑𝑒:𝑑𝜙

𝑑𝑥=𝑑 �̃�

𝑑𝑥= 𝑖𝜉𝜌𝑣(𝑥)

(4)

para todo 𝑥 ∈ Γ , onde Γ é o contorno de Ω , 𝜌 é a

densidade, v é a velocidade �̃� é uma função complexa

dada.

Para tanto, usaremos um problema auxilar, com

condições de contorno homogênea, baseado em ϕ̃.

4 RELAÇÃO DE DISPERSÃO DISCRETA

Com base nos experimentos numéricos veremos que o erro

na aproximação por elementos finitos pode causar uma

diferença de fase com respeito à solução exata. Este efeito

depende não somente no parâmetro de malha h, mas

também da frequência temporal 𝜔 e pode ser analisado

pelo estudo das propriedades dispersivas da solução

numérica. Neste momento, tomaremos emprestadas

ferramentas fundamentais exibidas num estudo feito por

Mark Ainsworth, Ainsworth (2003, 2004), das quais

destacamos o seguinte teorema:

Teorema 4.1 Sejam [2𝑁𝑒 + 2/2𝑁𝑒]𝜉 tan(𝜉) e [2𝑁0/2𝑁0 −

2]𝜉 cot(𝜉) as notações para a aproximação de Padé de

𝜉 tan(𝜉) e 𝜉 cot(𝜉) , respectivamente, onde 𝑁𝑒 = ⌊𝑝/2⌋ e

𝑁0 = ⌊(𝑝 + 1)/2⌋. Assim, 𝜔ℎ𝑝 satisfaz cos(ℎ𝜉) ≈

𝑅𝑝(ℎ𝜔ℎ𝑝), 𝑒𝑚 𝑞𝑢𝑒

𝑅𝑝(2𝜉)

= [2N0/2N0 − 2]ξ 𝑐𝑜𝑡(ξ) − [2Ne + 2/2Ne]ξ 𝑡𝑎𝑛(ξ)

[2N0/2N0 − 2]ξ 𝑐𝑜𝑡(ξ) + [2Ne + 2/2Ne]ξ 𝑡𝑎𝑛(ξ)

(5)

onde 𝑅𝑝 é a função racional, 𝜔ℎ𝑝 vem da relação de

dispersão discreta e p é a ordem do método Este teorema,

demonstrado em Ainsworth (2003), nos fornece

informações essenciais sobre a relação de dispersão

discreta para a equação escalar de Helmholtz em uma

dimensão na aproximação de ordem p,

16

e além disso, conduz à possibilidade de encontrarmos um

parâmetro adequado para a malha na aproximação por

elementos finitos.

5 SELEÇÃO DO PARÂMETRO DA MALHA

Vamos utilizar a teoria desenvolvida nas duas seções

anteriores para estabelecer um critério de seleção do

parâmetro da malha (ℎ =1

𝑛) para elementos de segunda

ordem, sendo n é o número de elementos na malha.

REFERÊNCIAS

Ainsworth M. Discrete dispersion for hp-version finite

element approximation at high wavenumber. SIAM J.

Numer. Analysis, 42, 2003.

Ainsworth M. Dispersive properties of high – order

nédélec/edge element approximation of the time -

harmonic maxwell equations. Philosophical

transactions of the The Royal Society of London,

362:471–491, 2004.

Harari I. and Thompson L. Recent developments in finite

element methods for structural acoustic. Archives of

Computational Methods in Engineering, 3:131–311,

1996.

Liu Y. Fast Multipole Boundary Element Method., volume

1. 2009.

17

DESENVOLVIMENTO DE UM MODELO UNIDIMENSIONAL DE EVOLUÇÃO

TÉRMICA DE UM RESERVATÓRIO SUBTROPICAL

Bruna Arcie Polli, Michael Mannich, Tobias Bleninger.

Palavras-Chave: Temperatura da água, estratificação térmica, modelo, lago, reservatório.

1 INTRODUÇÃO

A temperatura de um corpo d’água afeta diretamente a

qualidade desse recurso, devido a sua influência sobre os

processos físicos, químicos e biológicos (Esteves, 1989).

A estratificação da coluna d’água é o resultado da ação do

vento na superfície e trocas de energia – nas quais os

processos mais significativos são: a absorção de radiação

de ondas curtas e longas, evaporação, condução e emissão

pela superfície da água – que são fortemente influenciadas

por condições meteorológicas (Edinger, Duttweiler,

Geyer, 1968). No fundo e margens de reservatórios

também ocorre transferência de calor embora, em muitos

casos, seja comumente desprezada por ser pequena.

A utilização de um modelo de evolução térmica permite

simular e prever os processos de formação e manutenção

estratificação térmica do corpo d’água, sua evolução

temporal e é fundamental para simular transporte de

nutrientes e acoplamento com modelos ecológicos.

2 MODELO MATEMÁTICO

Um modelo unidimensional de temperatura para

reservatórios implicitamente assume que os gradientes de

temperatura horizontal são várias ordens de magnitude

superiores ao transporte vertical (Henderson-Sellers,

1984). Tal característica é típica de lagos estratificados. Os

processos energéticos ocorrem principalmente na interface

água-ar. A transferência de calor no sedimento ocorre, no

entanto, em lagos de profundidade moderada, essa

entrada/saída é pequena comparada à absorção direta

(Wetzel, 1983). A Figura 1 apresenta os principais

parâmetros para a caracterização do processo de evolução

térmica.

A equação da difusão turbulenta para o transporte de calor,

unidimensional, não-permanente é (Bedford,

Babajimopoulos, 1977):

𝜕𝑇

𝜕𝑡=

𝜕

𝜕𝑧[𝐸

𝜕𝑇

𝜕𝑧] −

1

𝜌𝑤𝑐𝑝

𝜕𝑞

𝜕𝑧 (1)

na qual T=T(z,t) é a temperatura da água (°C), z é a

elevação (m) – medida do fundo para cima, t é o tempo (s),

E é o coeficiente de difusão turbulenta para o transporte de

calor na vertical (m2s

-1), ρw é a massa específica da água

(kgm-3

), cp é o calor específico da água (J kg-1

K-1

), q=q(z)

é uma função fonte de calor (Jm-2

s-1

). Considera-se a área

do reservatório constante. A equação (1) é uma equação

diferencial parcial parabólica de segunda ordem, de forma

que exige duas condições de contorno e uma condição

inicial (Chapra, Canale, 2008):

𝜌𝑤𝑐𝑝𝐸𝜕𝑇

𝜕𝑧|𝑧=𝐻

= −𝑞𝑛 (2)

𝜕𝑇

𝜕𝑧|𝑧=0

= 0 (3)

𝑇(𝑧, 𝑡 = 0) = 0 (4)

O termo referente à fonte de calor na equação (1) é devido

à absorção da radiação solar ao longo da coluna d’água, o

qual é usualmente representado por um decaimento

exponencial (Dake, Harleman, 1969):

𝑞(𝑧) = (1 − 𝛽)𝑞𝑠𝑛 𝑒𝑥𝑝(−𝜂𝑧) (5)

na qual β é a proporção da radiação líquida de ondas curtas

absorvida na superfície, η é o coeficiente de absorção (m-1

)

e qsn é a radiação líquida na superfície da água.

U

Ta

ρw(z) T(z)

t=t1

z0

zH

z(m)

H(m)

q

Figura 3 Parâmetros de interesse do processo de evolução

térmica

A determinação do fluxo de calor na interface água-ar

pode ser parametrizada conforme Edinger, Duttweiler e

Geyer (1968):

𝑞𝑛 = 𝐾(𝑇𝑒 − 𝑇𝑠) (6)

na qual K é o coeficiente de transferência de calor (W

°C-1

m-2

), Te é a temperatura de equilíbrio (°C) e Ts é a

temperatura da superfície da água (°C) e qn é o fluxo de

calor (W m-2

).

A temperatura de equilíbrio é definida como a temperatura

na qual a taxa líquida de transferência de calor na

superfície da água é zero (Edinger, Duttweiler, Geyer,

1968). A temperatura de equilíbrio e o coeficiente de

transferência de calor são funções da velocidade do vento,

temperatura da superfície da água, temperatura de orvalho

e radiação solar líquida (Sundaram, Rehm, 1971). A

temperatura de equilíbrio é dada por (Antonopoulos,

Gianniou, 2003):

𝑇𝑒 = 𝑇𝑑 +𝑞𝑛𝑠

𝐾 (7)

na qual qns é a radiação solar de onda curta na superfície (J

m-2

s-1

) e Td é a temperatura do ponto de orvalho (°C). O

coeficiente de transferência de calor, K, é dado por:

𝐾 = 4,5 + 0,05𝑇𝑠 + 𝛿𝑓(𝑈) + 0,47𝑓(𝑈) (8)

na qual:

18

𝑓(𝑈) = 9,2 + 0,46𝑈2 (9)

𝛿 = 0,35 + 0,015𝑇𝑚 + 0,0012𝑇𝑚2 (10)

𝑇𝑚 =𝑇𝑠+𝑇𝑑

2 (11) [11]

em que: U é a velocidade do vento (ms-1

) e Tm em °C.

A temperatura de orvalho pode ser calculada conforme

(Stull, 2000):

𝑇𝑑 =237,3×𝑣𝑎𝑟

17,2694−𝑣𝑎𝑟 (12)

𝑣𝑎𝑟 =17,2694×𝑇𝑎

(237,3+𝑇𝑎)+ 𝑙𝑛(𝑈𝑅) (13)

em que UR é a umidade relativa e Ta é a temperatura do ar

(°C).

O coeficiente de difusão turbulenta é parametrizado

conforme (Henderson-Sellers, 1985):

𝐸 = 𝐸0𝑓 (14)

𝐸0 =𝜅𝑤𝑠

∗(𝑧𝐻−𝑧)

𝑃0𝑒𝑥𝑝 (−𝑘∗(𝑧𝐻 − 𝑧)) (15)

𝑓 = (1 + 37𝑅𝑖2)−1 (16)

𝑅𝑖 = 𝑁2(𝑧𝐻−𝑧)

2

𝑤∗2 (17)

𝑘∗ = 6,6√𝑠𝑒𝑛 ∅𝑈−1,84 (18)

nas quais: E0 é o coeficiente de difusão turbulenta em

estratificação neutra (m2s

-1), κ é a constante de von

Kárman (κ~0,4), zH é a profundidade total da coluna

d’água (m), z é a profundidade (m), ws* é a velocidade de

atrito do vento na superfície (ms-1

), k* é uma função da

latitude e da velocidade do vento, P0 é o valor neutro do

número de Prandtl turbulento, Ri é o número de

Richardson, N é a frequência de Brunt-Väisälä (s-1

) e ∅ é a

latitude.A vantagem das formulações parametrizadas para

a determinação do coeficiente de difusão turbulenta reside

no fato de que não há necessidade de calibração do

modelo. Futuramente o modelo de evolução térmica será

acoplado com modelo de transporte, balanço de oxigênio

dissolvido e produção/emissão de CO2.

3 RESULTADOS

O modelo foi implementado com o método de diferenças

finitas explícito. O estudo de caso preliminar do modelo

foi realizado com dados do Reservatório do Rio Verde,

cuja profundidade média é de 5,6 m, área de 7,6 km2 e

volume de 34 milhões de m3 e tempo de residência de 218

dias, aplicado para o período de 01/12/2009 até

21/12/2009.Com relação aos resultados, o modelo não

acompanha as flutuações de temperatura que ocorrem ao

longo do tempo, conforme é apresentado nas figuras (2) e

(3).

4 CONCLUSÕES

O modelo ainda está sendo desenvolvido, portanto os

resultados são preliminares. Algumas modificações ainda

serão realizadas com o objetivo de obter melhor solução,

dentre elas, a modificação para o método implícito. Além

disso, pretende-se comparar os resultados obtidos no

modelo desenvolvido neste trabalho com modelos já

disponíveis.

Figura 4 Resultados para elevação de 8,0 m

Figura 5 Resultados para elevação de 6,5 m

REFERÊNCIAS BIBLIOGRÁFICAS

Antonopoulos, V. Z., Gianniou, S.K., “Simulation of

Water Temperature and Dissolved Oxygen

Distribution in Lake Vegoritis, Greece”. Ecological

Modelling, 160, pp. 39-53, 2003.

Bedford, K. W., Babajimopoulos, C., “Vertical

Diffusivities in areally averaged models”.

Proceedings of the American Society of Civil

Engineers.Vol.103 (EE1), February 1977, pp.113-

125, 1977.

Chapra, S. C., Canale, R.P. Métodos Numéricos para

Engenharia. Mc Graw Hill. 5ª ed., 2008.

Dake, J. M. K., Halerman, D. R. F., “Thermal

Stratification in Lakes: Analytical and Laboratory

Studies”.Water Resources Research. Vol.5, No. 2,

April 1969, pp. 484-495, 1969.

Edinger, J.E., Duttweiler, D.W., Geyer, J.C., “The

Response of Water Temperatures to Metereological

Conditions”.Water Resources Research. Vol.4, No. 5,

October 1968, pp. 1137-1143, 1968.

Henderson-Sellers, B., “Development and Application of

“U.S.E.D.”: a Hydroclimate Lake Stratification

Model”. Ecological Modelling, Vol. 21, No. 3,

November 1984, pp. 233-246, 1984.

Henderson-Sellers, B., “New Formulation of Eddy

Diffusion Thermocline Models”. Applied

Mathmatical Modelling.Vol. 9, January 1985,

pp.441-446, 1985.

Sundaram, T. R., Rehm, R. G., “ Formation and

Maintenance of Termoclines in Temperate Lakes”.

AIAA. Vol. 9, No.7, pp. 1322-1329, 1971.

Stull, R. B. Meteorology for Scientists and Engineers. 2

ed. Brooks/Cole, 2000.

Wetzel, R.G., Limnology. Saunders College Publishing.2ª

ed. USA, 1983.

0 5 10 15 200

5

10

15

20

25

Tempo (dias)

T(º

C)

Temperatura simulada (ºC)

Temperatura medida (ºC)

z=8.0 m

Tm

= 24.9223 ºC

Tm

= 24.6034ºC

0 5 10 15 200

5

10

15

20

25

Tempo (dias)

T(º

C)

Temperatura medida (ºC)

Temperatura simulada (ºC)

z=6.5 m

Tm

= 24.1003 ºC

Tm

= 23.1005 ºC

19

SIMILARIDADE ENTRE ESCALARES NA CAMADA-LIMITE ATMOSFÉRICA

UTILIZANDO LARGE-EDDY SIMULATION

Diana M. Cancelli, Marcelo Chamecki, Nelson L Dias.

Palavras-Chave: Similaridade entre escalares, Teoria de Similaridade de Monin-Obukhov, Large-Eddy Simulation

1 INTRODUÇÃO

Em estudos envolvendo hidrologia, poluição do ar,

previsões meteorológicas, e mais recentemente efeito

estufa e mudanças climáticas, costuma-se supor que as

flutuações de dois escalares quaisquer (temperatura,

umidade, concentração de um gás ou de partículas)

possuem comportamento similar na camada-limite

superficial (CLS) da atmosfera. Esta suposição, implícita

ou não, deve-se à hipótese ou Teoria de Similaridade de

Monin-Obukhov (TSMO).

Com o intuito de verificar a validade dessa hipótese

estudos experimentais e analíticos tem sido realizados, por

exemplo Warhaft (1976), Hill (1989) e Dias and Brutsaert

(1996). Para que dois escalares sejam perfeitamente

similares é necessário que todas as funções de similaridade

entre eles sejam iguais; Cancelli et al. (2012) observam

que diferentes autores utilizam diferentes funções para

fazer essa verificação obtendo, muitas vezes, resultados

divergentes. A não-similaridade entre dois escalares, em

geral, é atribuída a fenômenos físicos. Uma vez que, em

campo, não é possível controlar nem identificar esses

fenômenos físicos, conjecturam-se como possíveis causas

a advecção local, não-estacionariedade, papel ativo/passivo

dos escalares e fluxo de entranhamento no topo da CLA.

Uma forma de verificar os efeitos desses fenônemos

físicos sobre a similaridade é através de simulação de

grandes vórtices - large-eddy simulation (LES). Neste tipo

de simulação é possível controlar as condições de contorno

do problema e reproduzir os efeitos conjecturados. Neste

trabalho são apresentados os resultados iniciais

relacionados à verificação do efeito do papel ativo/passivo

da umidade sobre sua similaridade com a temperatura.

2 LARGE-EDDY SIMULATION

O Em linhas gerais, em LES são resolvidas as equações de

Navier-Stokes tridimensionais para uma faixa de escalas

da turbulência determinada pelo tamanho de grade

utilizado na simulação. Todas as escalas turbulentas cujo

tamanho está entre o tamanho dos elementos da malha e do

domínio são chamadas de escalas resolvidas; escalas

menores que os elementos de malha são parametrizadas

por modelos de

subgrade e chamadas de não-resolvidas. Como resultado

da simulação são gerados campos tridimensionais de

velocidade e dos escalares em questão.

3 SIMULAÇÕES

A base do modelo utilizado neste trabalho, assim como o

código computacional, são descritos em Kumar et al.

(2006). Foi necessária a inclusão da umidade no código

computacional, uma vez que a temperatura era o único

escalar implementado. Quatro simulações com domínio

5120x yL L m e 2048zL m , grade com

80x y m e 16z m e 64x64x128 elementos de

malha foram realizadas; em cada simulação foram gerados

os campos 3D para um período de 6 horas com 0.1t s .

Um fluxo superficial de calor 1' ' 0.24w ms K e um

fluxo de umidade 1 1' ' 0.008w q ms gkg foram utilizados

como condições de contorno na superfície; para

caracterizar convecção livre, o vento geostrófico utilizado

foi 1, 1.0,0.0g gU V ms e supôs-se que não existe

troca de calor nem de umidade com a atmosfera acima do

topo do domínio.

Para a temperatura o perfil inicial utilizado foi o mesmo

nas quatro simulações; para a umidade foram adotados

dois perfis diferentes: um similar ao perfil de temperatura

e outro não similar. Os perfis, devidamente

adimensionalizados, são apresentados na Figura 1. Além

disso, foi considerado o fato da umidade atuar como

escalar passivo ou ativo; ela atua como escalar ativo

quando é incluída no cálculo do termo de empuxo, ou seja,

ela passa a ter influência sobre o campo de velocidades. As

denominações QAS, QPS, QAD, QPD referem-se às

simulações em que a umidade atua como escalar ativo (A)

e passivo (P); S e D indicam, respectivamente, que o perfil

inicial de umidade é similar ao perfil de temperatura, ou

dissimilar.

Figura 2: Perfis iniciais de temperatura e umidade.

4 RESULTADOS E CONSIDERAÇÕES FINAIS

Uma das formas mais comuns para a verificação da

similaridade é através do coeficiente de correlação entre os

dois escalares em questão, ou seja, o coeficiente de

correlação entre eles deve ser igual a 1.0 para o caso de

similaridade perfeita. Na Figura 2 observamos o

coeficiente de correlação entre temperatura e umidade qr

para cada uma das quatro simulações; os perfis se

diferenciam de acordo com a condição inicial utilizada

para a umidade. A influência ativo/passivo da umidade é

imperceptível.

20

Figura 2: Perfis verticais do coeficiente de correlação.

iz indica

a altura da CLA.

Uma outra maneira de observar a similaridade,

recentemente utilizada por Cancelli et al. (2012), é através

do coeficiente simétrico de eficiência de transferência

(STE), que pode ser obtido no domínio temporal ou

espectral, ou seja, é um valor entre 0.0 e 1.0, sendo 1.0

para similaridade perfeita em qualquer um dos domínios.

No domínio espectral, para uma altura de 40m acima da

superfície, o comportamento de STE é apresentado na

Figura 3. Esta é uma forma de verificação da similaridade

entre os fluxos e não entre os escalares.

Figura 3: Coeficiente simétrico de eficiência de

transferência.

Observando os dois indicadores de similaridade podemos

concluir que, para o caso de convecção livre, o efeito

ativo/passivo da umidade é praticamente irrelevante e que

as diferenças observadas nestes quatro casos são devidas à

condição inicial utilizada.

Salienta-se que os resultados apresentados aqui são

iniciais. Simulações com maior número de pontos de grade

e menores elementos de malha, assim como reprodução de

outros fenômenos considerados como causas de

similaridade, serão realizadas na sequência desse estudo.

REFERÊNCIAS

Cancelli D., Dias N.L., and Chamecki M. Dimensionless

criteria for the production-dissipation equilibrium of

scalar fluctuations and their implications for scalar

similarity. Water Resources Research, In press.,

2012. doi:doi:10.1029/ 2005WR003954.

Dias N.L. and Brutsaert W. Similarity of scalars under

stable conditions. Boundary Layer Meteoreology,

80:355-373, 1996.

Hill R.J. Implications of Monin-Obukhov similarity theory

for scalar quantities. Journal of Atmospheric

Sciences, 46:2236–2244, 1989.

Kumar V., Kleissl J., Meneveau C., and Parlange M.B.

Large-eddy simulation of a diurnal cycle of the

atmospheric boundary layer: Atmospheric stability

and scaling issues. Water Resources Research,

42:W06D09, 2006. doi:10. 1029/2005WR004651.

Warhaft Z. Heat and moisture flux in the stratified

boundary layer. Q J Roy Meteorol Soc, 102:703–707, 1976

21

SIMULAÇÃO NUMÉRICA DA CAMADA LIMITE ATMOSFÉRICA

SUPERFICIAL COM O EMPREGO DO MÉTODO DE FILTRAGEM

LAGRANGEANA – MFL

Ana Paula Kelm Soares, Ricardo Carvalho de Almeida.

Palavras-Chave: Camada limite atmosférica, Método de Filtragem Lagrangeana, Turbulência.

1 INTRODUÇÃO

O Método de Filtragem Lagrangeana (MFL) foi

desenvolvido com o objetivo de simular escoamentos

turbulentos na sua média. Este método consiste na

filtragem das equações de transporte escritas no referencial

Lagrangeano, no qual as não-linearidades das equações

não são explicitadas. Desta maneira, a forma funcional das

equações não se altera, e o número de incógnitas e

equações se mantém igual.

O MFL baseia-se na interpretação física de que o

escoamento de pequena escala é responsável pela

homogenização das propriedades físicas em escalas

menores. Este efeito é expresso através de um filtro

espacial implícito. Sabe-se que a grade de diferenças

finitas consiste em um filtro do tipo box (Sorbjan, 1989;

Wilcox, 2000). No MFL, a parte advectiva das equações é

resolvida através do Método Semi-Lagrangeano (MSL), e

as forçantes, através do Método das Diferenças Finitas

(MDF), de modo que o filtro utilizado no MFL é o próprio

introduzido pelo MDF.

O MFL foi apresentado por Almeida et al. (2011), o qual

foi aplicado ao caso bidimensional de escoamento ao redor

de uma placa plana com altos valores de número de

Reynolds. Os resultados mostraram que o método é capaz

de reproduzir resultados de soluções analíticas e empíricas,

além de ser numericamente estável e computacionalmente

eficiente.

O presenta trabalho mostra a proposta de uso do MFL na

simulação de camada limite atmosférica superficial

bidimensional, e alguns resultado preliminares. Na

atmosfera, os processos de troca de calor são de extrema

importância, sendo assim, o diferencial deste trabalho é a

inclusão da equação de conservação da energia no sistema

de equações.

2 METODOLOGIA

2.1 Modelo Matemático

Para aplicação do MFL, é necessário que as equações

sejam lineares, assim, utiliza-se as equações com

aproximação de Boussinesq. As equações a serem

resolvidas, nas suas versões bidimensionais, são as

seguintes (Arya, 1988):

𝜕𝑢

𝜕𝑥+𝜕𝑤

𝜕𝑥= 0 (1)

𝐷𝑢

𝐷𝑡= −

1

𝜌0

𝜕𝑝1𝜕𝑥

+ 𝑣𝛻2𝑢 = 0 (2)

𝐷𝑤

𝐷𝑡=𝑔

𝑇0𝑇1 −

1

𝜌0

𝜕𝑝1𝜕𝑧

+ 𝑣𝛻2𝑤 = 0 (3)

𝐷𝜃

𝐷𝑡= 𝛼ℎ𝛻

2𝜃 (4)

onde 𝑥, 𝑧 e 𝑡 correspondem, respectivamente, às

coordenadas horizontal, vertical, e ao tempo; 𝑢(𝑥, 𝑧, 𝑡) e 𝑤(𝑥, 𝑧, 𝑡) são as velocidades horizontal e vertical; 𝜌0 e

𝑇0 representam o estado hidrostático da densidade e da

temperatura (constantes), 𝑝1(𝑥, 𝑧, 𝑡) e 𝑇1(𝑥, 𝑧, 𝑡) são os

desvios do estado hidrostático para pressão e temperatura;

𝜃(𝑥, 𝑧, 𝑡) é a temperatura potencial; 𝑣 é a viscosidade

cinemática; 𝛼ℎ é a condutividade térmica; e 𝑔 é a

aceleração da gravidade.

Para se obter o desvio da temperatura (𝑇1) a partir da

temperatura potencial (𝜃) , não é possível utilizar a

tradicional equação de Poisson, por tratar-se de uma

equação não-linear. Assim, 𝑇1 é obtido a partir da

aproximação descrita a seguir.

Primeiramente, considera-se a seguinte equação:

𝜕𝜃

𝜕𝑧=𝑑𝑇

𝑑𝑧+ Γ𝑑

onde Γ𝑑 é o gradiente adiabático seco, e 𝑇 é a temperatura

total, ou seja, 𝑇 = 𝑇0 + 𝑇1. Separando a equação acima em

diferenças finitas, substituindo 𝜃(𝑧 = 0) = 𝑇(𝑧 = 0), e

rearranjando a equação, obtém-se finalmente que:

𝑇1 = 𝜃 − 𝑇0 + Γ𝑧 (5)

As condições de contorno assumidas na superfície são de

imposição da pressão, não-deslizamento e não-penetração.

A temperatura também é prescrita na superfície. No topo,

a velocidade, a temperatura e a pressão são prescritas. Nas

laterais, utilizou-se condição de contorno cíclica, assim,

espera-se que as variáveis tentam a ficar constantes na

direção 𝑥. Como as condições de contorno impostas são

constantes no tempo, espera-se que as condições iniciais

percam importância com o passar do tempo.

2.2 Modelo Matemático

A equação de transporte bidimensional de um escalar

genérico 𝜙(�⃗�(𝑡), 𝑡) pode ser escrita da seguinte forma:

𝐷𝜙(�⃗�(𝑡), 𝑡)

𝐷𝑡= 𝑆(�⃗�(𝑡), 𝑡) (6)

onde 𝑆(�⃗�(𝑡), 𝑡) representa as fontes e sumidouros aos

quais o escalar está submetido, e �⃗�(𝑡) = (𝑥(𝑡), 𝑧(𝑡)).

22

A derivada total de 𝜙(�⃗�(𝑡), 𝑡) é aproximada pelo MSL:

𝐷𝜙(�⃗�(𝑡), 𝑡)

𝐷𝑡≈𝜙+ − 𝜙−

2∆𝑡 (7)

onde ∆𝑡 é o intervalo de tempo. Na equação 7, 𝜙+ é o

valor de 𝜙 no ponto de grade, 𝜙− é o valor de 𝜙 no ponto

da partícula, estimado a partir do campo de velocidade. O

esquema escolhido para estimar o ponto de partida foi o

proposto por Almeida et al. (2009). Substituindo-se 7 em 6

e aplicando o filtro espacial do MFL, obtemos que:

⟨𝜙+⟩ − ⟨𝜙−⟩

2∆𝑡= ⟨S(�⃗�(𝑡), 𝑡)⟩ . (8)

Nota-se que a aplicação do filtro, como mostrado na

equação 8, não requer parametrização da subgrade, nem

esquema de fechamento. Entretanto, os termos que

compõem S(�⃗�(𝑡), 𝑡) devem ser lineares.

A fim de melhorar o desempenho computacional, o

espaçamento de grade na vertical tem uma distribuição

logarítmica, de modo que a grade seja mais fina próximo a

superfície. A pressão é obtida por uma equação elíptica,

resolvida implicitamente pelo método SOR (Succesive

Over Relaxation).

3 RESULTADOS PRELIMINARES

As figuras 1 e 2 mostram o aquecimento da superfície, e o

consequente movimento vertical em uma atmosfera não-

instável. Neste caso, foi imposto um gradiente vertical de

temperatura de −0,5𝐾/𝑘𝑚.

Figura 1: Velocidade vertical

Figura 2: Temperatura potencial

REFERÊNCIAS

Almeida R., Alves J., and Tanajura C. Simulation of two-

dimensional high Reynolds number wake flows with

the use of filtered Lagrangian Navier-Stokes

equations. Journal of the Brazilian Society of

Mechanical Sciences and Engineering, 33(1):86–98,

2011.

Almeida R.C., Costa G.A.S., Fonseca L.C.M., and Alves

J.L.D. Particle trajectory calculations with a two-step

three-time level semi-Lagrangian scheme well suited

for curved flows. International Journal for Numerical

Methods in Fluids, 61:995–1028, 2009.

Arya S. Introduction to micrometeorology, volume 42.

Academic Pr, 1988

Sorbjan Z. Structure of the atmospheric boundary layer.

Prentice Hall advanced reference series: Physical and

life sciences. Prentice Hall, 1989. ISBN

9780138535575.

Wilcox D. Turbulence modeling for CFD. DCW

Industries, Inc., 2nd edition, 2000. ISBN

9780963605108.

23

CONTROLE DE QUALIDADE EM DADOS MICROMETEOROLÓGICOS

Dornelles Vissoto Junior, Nelson Dias.

Palavras-Chave: Controle de Qualidade, Turbulência, Fluxos Superficiais, Evaporação

1 INTRODUÇÃO

O monitoramento micrometeorológico tem sido

amplamente utilizado como uma importante ferramenta na

análise dos dados ambientais, em especial a medição de

fluxos superficiais através do método eddy covariance, ou

Covariâncias Turbulentas (Dias et al., 2002; Aubinet et al.,

2012; Scientifc, 1996; Lee et al., 2004). Estudos ao longo

dos anos tem buscado melhorar a qualidade das medições

de eddy covariance, eliminando os efeitos devido a

sensibilidade dos sensores, em especial na análise dos

dados pós processamento. Após a aplicação de técnicas de

filtragem ainda restam nos dados medidos valores que não

são fisicamente aceitáveis, os outliers. Este trabalho

propõe uma abordagem simples para a filtragem dos

dados, analisando o perfil dos fluxos pela hora de medição.

2 DADOS MICROMETEOROLÓGICOS

Os dados foram obtidos pelo LEMMA-UFPR

(Laboratório de Monitoramento e Modelagem

Ambientais) durante o período de 22/07/2004 a

14/09/2004 em uma campanha realizada sobre o Lago de

Furnas. Foram utilizados os sensores anemômetro sônico

CAMPBELL CSAT e o Termohigrômetro LICOR

LI7500. Os dados foram obtidos a uma frequência de

20Hz, analisados e processados em médias de flutuações a

cada 30 minutos, para os quais são calculados os fluxos.

3 METODOLOGIA

Para estabelecer uma metodologia de detecção para os

outliers das séries temporais, foi separado o conjunto de

dados por blocos utilizando a própria relação temporal,

onde os blocos de dados foram subdivididos pela meia

hora correspondente ao seu período de medição. A figura 1

mostra a distribuição de frequências em cada meia hora e

o boxplot com os quartis de 25% e 75% para Fluxos de

Calor Latente (Evaporação).

Figura 6: Distribuição dos Dados em Blocos de 30 Min

Desta maneira, os blocos divididos em cada meia hora,

estabeleceram 48 blocos de controle para cada variável. A

estatística padrão considerando que a distribuição dos

dados medidos em cada meia hora correspondente

obedecem uma distribuição normal não foi aplicada,

porque a distribuição normal não se mostrou representativa

da distribuição dos blocos de dados. A própria estatística

esta influenciada pelos outliers. Neste sentido, há a

necessidade de uma nova abordagem para a medida de

dispersão dos dados em cada bloco.

Uma abordagem razoável é estabelecer a medidade

dispersão em função de uma variável

bastanterepresentativa da física dos fluxos medidos

naquela meia hora, sendo esta variável a mediana.

Resumidamente, a mediana representa o valor

intermediário dos valores de ocorrência da variável

naquele bloco de dados, ou seja, é uma valor confiável

para representar o comportamento médio.

Com esta informação se obtém, para cada medida,

o desvio com relação a mediana, que fisicamente vai

representar o quanto a variável está distante do valor

intermediário de ocorrência dentro daquele conjunto de

dados, e obtém-se o desvio mediano definido por:

𝑍(𝑖) = |𝑧(𝑖) − 𝑧𝑚𝑒𝑑𝑖𝑎𝑛| (1)

Para esta nova variável, em um conjunto de dados com N

valores, quanto mais próximo z(i) estiver do valor

esperado mediano 𝑧𝑚𝑒𝑑𝑖𝑎𝑛 , mais próximo de 0 estará o

valor de Z(i). Do contrário, quanto mais afastado o valor

estiver da mediana, maior será o valor de Z(i). Assim

sendo, os valores esperados para os outliers serão sempre

os maiores valores de Z(i). Para uniformizar a dispersão

dos dados de modo a não eliminar os valores de Z(i) que

são suficientemente grandes, mas que não são outliers,

deve-se determinar qual é a faixa de variação da disperão

válida para os dados. Colocando num gráfico a dispersão

Z(i) contra a frequência de ocorrência, o que se observa é

que os dados se comportam com distribuição próxima a

uma Distribuição de Weibull, que tem a expressão dada

por:

𝑓(𝑥) =𝑘

𝛾(𝑥

𝛾)𝑘−1

𝑒−(𝑥𝛾)𝑘

, (2)

Sendo a acumulada dada por:

𝑓(𝑥) = 1 − 𝑒−(

𝑥

𝛾)𝑘

. (3)

Para exemplificar o método, supondo um conjunto

hipotético de desvios medianos 𝑧(𝑖) − 𝑧𝑚𝑒𝑑𝑖𝑎𝑛 de um

conjunto de dados e extrapolando os valores extremos dos

desvios em set1 e set2, obtém-se:

Tabela 1: Z(i)

f z(i) − zmedian set1 set2

0.1 1 1 1

24

0.2 2 2 2

0.3 4 4 4

0.4 8 8 8

0.5 16 16 16

0.6 32 32 32

0.7 64 64 64

0.8 128 128 512

0.9 256 256 1024

1.0 512 1024 2048

Visualizando o gráfico de variação da função

contra a frequência acumulada de ocorrência (neste caso a

frequência é de 1=10 para cada variável) e confrontando

com o ajuste de uma equação 3 (através de mínimos

quadrados) para cada conjunto de dados, e ainda supondo

as linhas de determinação dos outliers como três vezes o

valor da função ajustada à frequência acumulada de 68%

(empírico), obtém-se a figura 2:

Figura 7: Distribuição Acumulada de Weibull

Como pode se observar, não importa quão distante os

outliers estarão da mediana, o seu impacto sobre este

critério estatístico é muito baixo, de modo que se pode

afirmar que a estatística pelo k desvio mediano não sofre

influência da magnitude dos outliers e pode ser utilizado

como um criterio de controle de qualidade válido.

4 CONCLUSÕES

O tratamento de outliers é uma questão ainda em aberto no

controle de qualidade de dados micrometeorológicos.

Como não é possível a determinação de equações físicas

em dados pós processados, o estabelecimento de critérios

empíricos tem sido uma saída muito versátil. O critério de

determinação pelo desvio mediano se apresentou como um

bom filtro para a limpeza da maioria dos outliers,

eliminando poucos dados de fluxos superficiais

considerados fisicamente aceitáveis.

REFERÊNCIAS

Aubinet M., Vesala T., and Papale D., editors. Eddy

Covariance: A Practical Guide to Measurement and

Data Analysis. Springer, Dordrecht, Heidelberg,

London, New York, 2012.

Dias N.L., Kan A., Grodzki L., Sanchez S.D., and Vissotto

Jr. D. O método de covariâncias turbulentas

atenuadas (MCTA) para medição dos fluxos de calor

sens ível e latente: aplicação ao lago de Itaipu e seu

redor. Revista Brasileira de Recursos Hídricos,

7(1):143–160, 2002.

Lee X., Massman W.J., and Law B.E., editors. Handbook

of Micrometeorology. A Guide for Surface Flux

Measurements. Kluwer, Dordrecht, 2004.

Scientifc C. Eddy correlation system: instruction manual.

Campbell Scientifc, Inc., Logan, Utah, USA, 9/96

edition, 1996.

25

GERAÇÃO DO ELEMENTO REPRESENTATIVO DO CONCRETO COM

AGREGADOS GRAÚDOS EM FORMATO ELÍPTICO

Guilherme Augusto Pianezzer, Fábio André Negri Balbo, Eloy Kavisky, Liliana Madalena Gramani, Marcelo Rassy Teixeira.

Palavras-Chave: Elemento Representativo do Concreto, Detecção de Colisão.

1 INTRODUÇÃO

O concreto é um material poroso, heterogêneo, que pode

ser estudado em diferentes escalas: Nanoscópica,

microscópica, mesoscópica e macroscópica Tulio (2001).

Em especial a escala mesoscópica é uma escala com

dimensões maiores que a das moleculares, de modo que o

domínio possui propriedades macroscópicas, mas com

dimensões menores que a dimensão macroscópica Teixeira

(2011).

Figura 8: Heterogeneidade do concreto Mehta e Monteiro

(2008)

Quando analisada a mesoestrutura (≅ 10-3

m) do concreto,

percebe-se a presença de dois constituintes: a pasta de

cimento endurecida (Argamassa) e as partículas de

agregado graúdo, como pode ser observada na Figura 2.

Na análise, também percebe-se a presença de vazios e

defeitos de aderência que justificam a heterogeneidade do

concreto.

Para estudar o comportamento do concreto é preciso lidar

com esta heterogeneidade e para isso surge a necessidade

de criar um elemento representativo do concreto (RVE).

Com este elemento representativo é possível estudar as

tensões e deformações, resultantes dos efeitos que o

concreto está sujeito, assim como é possível estimar as

propriedades do material estudado.

2 GERAÇÃO DO RVE

Para modelar este elemento representativo, baseia-se na

curva granulométrica dos agregados graúdos presentes no

concreto.

Segundo (Wriggers and Moftah, 2006), a geração da

configuração aleatória das partículas deve satisfazer as

características básicas do material real. Com este objetivo,

a distribuição deve ser tal que as partículas sejam o

máximo possível macroscopicamente homogêneas no

espaço. A ideia principal deste trabalho é escolher

partículas de agregado graúdo de uma fonte, cuja

distribuição segue uma certa curva representativa do

material e além disso alocar cada partícula seguindo

algumas regras de posicionamento, como, por exemplo,

não haver intersecção entre os agregados.

Cada forma das partículas depende do tipo de agregado

escolhido. Vários meios de caracterizar a geometria dos

agregados já foram publicados. (Wittmann et al., 1984) e

posteriormente (Wang et al., 1999) criaram um método

para gerar os agregados graúdos baseando-se na expressão:

𝑟 ≡ 𝑟(𝜃) = 𝐴0 + ∑ 𝐴𝑗 cos(𝑗𝜃 + 𝛼𝑗)𝑚𝑗=1 (1)

onde 𝐴0 representa o raio médio do agregado obtido a

partir da curva granulométrica, 𝐴𝑗 representa a amplitude

da frequência, 𝑗𝜃, de Fourier, m o total de vértices criado e

j o ângulo de fase. O resultado obtido foi a aproximação do

agregado por um polígono de m vértices.

Em trabalhos mais recentes, como (Wriggers and Moftah,

2006) e (Teixeira, 2011), cada agregado foi aproximado

por um círculo (para o caso 2-D) ou por esferas (para o

caso 3-D).

Para este trabalho cada agregado é aproximado por discos

elípticos. Para a geração do RVE são consideradas 3

hipóteses:

1. Os agregados devem estar inteiramente contidos no

domínio do concreto. 2. Não deve existir intersecção entre

os agregados. 3. Os agregados possuem formato elíptico.

A respeito da hipótese 1, um teste simples é realizado para

saber se os agregados estão inteiramente contidos no

domínio do concreto.

A respeito da hipótese 2, para detectar as colisões entre os

diversos agregados é necessário criar um procedimento

que, ao adicionar um novo agregado na matriz de

argamassa, verifique se há intersecção entre os elementos.

Os testes utilizados como referência estão contidos dentro

da área de computação gráfica e, em especial, o teste de

detecção de colisão entre elipses utilizado foi o proposto

por (Choi et al., 2005).

3 CONSIDERAÇÕES FINAIS

A tabela 1 mostra a curva granulométrica utilizada como

exemplo para gerar os primeiros modelos.

Para gerar diferentes RVE’s alterou-se a porcentagem de

área que os agregados ocupam no domínio do concreto,

dado pela taxa de área dos agregados (ap). Os resultados

obtidos estão na Figura 2.

26

Figura 9: Estruturas Aleatórias Geradas

Abertura da Peneira % Total Retirado (%)

12,70 0

9,50 23

4,75 74

2,36 100

Tabela 2: Resultado da análise de peneiramento Wriggers

e Moftah (2006)

REFERENCIAS

Choi Y., Wang W., and Liu Y. Continuous collision

detection for elliptic disks. HKU CS Tech Report,

2005.

Mehta P. and Monteiro P. Concreto-Microestrutura,

Propriedades e materiais. IBRACON, São Paulo,

2008.

Teixeira M.R. A Contribution to the numerical modeling

of the heterogeneity of concrete with the elements

free Galerkin method. Ph.D. thesis, São Paulo,

2011.

Tulio B.N. Experimental analysis of fracture processes in

concrete. Revista Brasileira de Ciências Mecânicas,

23:545–550, 2001.

Wang Z., Kwan A., and Chan H. Mesoscopic study of

concrete i: generation of random aggregate structure

and finite element mesh. Comput, 70:533 – 544,

1999.

Wittmann F., Roelfstra P., and Sadaouki H. Simulation

and analysis of composite structures.

Mater,Sci,Engng, 68:239– 248, 1984.

Wriggers P. and Moftah S.O. Mesoscale models for

concrete: Homogenisation and damage behavior.

Elsevier, 42:623 – 636, 2006. ISSN 1631 -

0721.doi:DOI:10.1016/j.finel.

27

DESENVOLVIMENTO DE MODELO HIPERBÓLICO PARA PREVISÃO DA

RELAÇÃO TENSÃO X DEFORMAÇÃO X BIODEGRADAÇÃO EM RESÍDUOS

SÓLIDOS URBANOS

Letícia Maria Nocko, Eduardo Dell’Avanzi.

Palavras-Chave: Resíduos sólidos urbanos, Aterros sanitários, Biodegradação, Modelo hiperbólico, Recalques.

1 INTRODUÇÃO

Fora a competência do engenheiro em desenvolver uma

modelagem computacional, cinco fatores que garantem a

acurácia do modelo numérico em prever o comportamento

de um determinado fenômeno de engenharia são: (a) a

adequação da equação governante em descrever o

fenômeno de interesse, (b) a acurácia dos modelos

matemáticos constitutivos em descreverem as

características hidro-mecânicas dos materiais envolvidos,

(c) a definição acurada das condições de contorno do

problema, incluindo o universo necessário de análise, (d) a

adaptabilidade do método de solução (e.g. métodos dos

elementos finitos vs. método das diferenças finitas), e (e) a

robustez do algoritmo matemático na solução do sistema

de equações. Dentre esses fatores, os modelos

constitutivos empregados possuem um papel relevante

uma vez que visam descrever o comportamento real do

material em estudo. Com relação ao universo da mecânica

dos solos, os modelos constitutivos em geral consideram

aspectos singulares do solo tais como a realidade

multifásica (sólidos, líquidos e gases), anisotrópica e

heterogênea de suas características hidro-mecânicas.

Entretanto, a geotecnia tem tradicionalmente considerado

o volume de sólidos do solo sempre constante, o que não

pode ser aplicado ao estudo do comportamento dos

resíduos sólidos urbanos (RSU), visto que esse material se

degrada e gera gases e líquidos, caracterizando-se como

um sistema não conservativo de massa. Visando

contemplar a estimativa de comportamento de sistemas de

massa não conservativos, Otsuka (2010) e Nocko (2010)

desenvolveram um modelo matemático para descrição do

comportamento mecânico dos RSU ao longo do tempo. O

modelo inclui equações constitutivas inter-relacionadas

acopladas ao processo de degradação da matéria orgânica e

respectiva geração de gases.

O objetivo deste trabalho é apresentar um resumo das

equações constitutivas que compõem o modelo de previsão

do comportamento mecânico dos RSU, incluindo alguns

resultados de curvas de previsão do comportamento

mecânico.

2 MODELO HIPERBÓLICO DE PREVISÃO DO

COMPORTAMENTO MECÂNICO DE RSU

2.1 Formulação

O modelo baseia-se na formulação hiperbólica proposta

originalmente por Kondner (1963) para descrever a curva

tensão-deformação de um solo submetido a um ensaio de

compressão triaxial sob tensão confinante constante.

Matematicamente, tem-se:

𝜎𝑑 =휀

𝑎 + 𝑏휀 ( 1 )

onde σd é a tensão desviadora, ε é a deformação, 1

𝑎 é o

módulo tangente inicial (Ei) e 1

𝑏 é a tensão de desvio na

ruptura (σult).Otsuka (2010), partindo da Equação (1) e

adotando o critério de ruptura de Mohr-Coulomb e a

formulação proposta por Janbu (1967) para descrição do

módulo de elasticidade tangente inicial, desenvolveu uma

formulação para descrição do módulo de elasticidade

tangente em função da variação de matéria orgânica ao

longo do tempo. Matematicamente, tem-se:

𝜕𝐸𝑡𝑔

𝜕𝑡= 𝑃0 [

𝜕𝑘

𝜕𝑀𝑂∙𝜕𝑀𝑂

𝜕𝑡∙ (𝜎3𝑃0)𝑛

+ 𝑘 ∙ (𝜎3𝑃0)𝑛

∙ 𝑙𝑛 (𝜎3𝑃0) ∙

𝜕𝑛

𝜕𝑀𝑂∙𝜕𝑀𝑂

𝜕𝑡] −

2∙𝑅𝑓∙𝜎𝑑

𝑆2 {𝑆

𝜕𝐸𝑖

𝜕𝑡− 𝐸𝑖

𝜕𝑆

𝜕𝑡} + (𝑅𝑓∙𝜎𝑑)

2∙(𝑆2

𝜕𝐸𝑖

𝜕𝑡−𝐸𝑖∙2∙𝑆

𝜕𝑆

𝜕𝑡)

𝑆4

(2)

Onde o termo ∂S

∂t na Equação (3) é igual a:

𝜕𝑆

𝜕𝑡=

2 ∙ cos𝜑 ∙ (𝜕𝑐𝜕𝑀𝑂

∙𝜕𝑀𝑂𝜕𝑡

+𝜕𝜑𝜕𝑀𝑂

∙𝜕𝑀𝑂𝜕𝑡

(𝜎3 − 𝑐 ∙ tan𝜑))

(1 − sin𝜑)+

cos𝜑 ∙𝜕𝜑𝜕𝑀𝑂

∙𝜕𝑀𝑂𝜕𝑡

∙ 𝑆

(1 − sin𝜑)

(3)

A Tabela 1 fornece o significado dos termos presentes nas

Equações (2) e (3). Etg Módulo tangente da curva hiperbólica

t Tempo

P0 Pressão de referência

MO Teor de matéria orgânica

k Parâmetro da equação de Janbu

n Parâmetro da equação de Janbu

σ3 Tensão confinante

Rf Razão de ruptura

S Pico de resistência do ensaio de compressão triaxial

Ei Módulo tangente inicial

φ Ângulo de atrito interno do material

c Coesão do material

Tabela 3: Significado dos termos presentes na equação

governante do modelo hiperbólico proposto.

A avaliação da Equação (2) é possível a partir da definição

de mais cinco equações constitutivas que descrevam a

relação entre os parâmetros do modelo de Janbu (1967) e

os parâmetros do critério de resistência com a variação da

matéria orgânica ao longo do tempo.

2.2 Calibração

A calibração do modelo foi realizada com dados de ensaios

triaxiais realizados com misturas solo-coloide (Sales, 2010).

Esse material é constituído por uma mistura de solo e coloide

gelatinoso e foi proposto por Otsuka et al (2010) para ser

utilizado no estudo de sistemas não-conservativos de massa. As

vantagens do uso desse material ao invés dos RSU são: (a)

permitir que os ensaios sejam feitos com amostras menores,

28

mas igualmente representativas, e (b) possibilitar a obtenção de

parâmetros geotécnicos de forma sistemática. Além disso, a

presença do componente coloidal permite a simulação da

redução de massa dos resíduos devido ao processo de

biodegradação, através da transformação da fase semi-sólida do

coloide em fase líquida.

3 RESULTADOS E DISCUSSÃO

3.1 Simulações

Foram realizadas diversas simulações com o modelo proposto:

de ensaios rápidos e lentos, de carregamentos no campo ao

longo do tempo, de descarregamento da pilha de resíduos

devido à redução da massa de matéria orgânica presente. Foi

observado que para cada estágio da biodegradação da matéria

orgânica a curva tensão-deformação apresenta um

comportamento característico de resistência e deformabilidade

do RSU. O modelo foi capaz de capturar um comportamento

dos RSU até então observado somente na prática (Bray et al.,

2009) de desenvolver diferentes resistências dependendo da

taxa de carregamento. O modelo indicou que essa resistência

aumenta somente até um limite, indicando uma taxa ótima de

carregamento, a partir do qual ela passa a diminuir (Figura 1).

Figura 10. Variação da resistência dos RSU em função da tensão

desviadora aplicada mensalmente. Fonte: Nocko (2010).

3.2 Validação

O modelo foi validado com dados de Carvalho (1999), que

realizou ensaios triaxiais com RSU do Aterro

Bandeirantes, em São Paulo. As Figuras 2 e 3 apresentam

os resultados obtidos para ensaios realizados com tensões

confinantes de 200 kPa e 400 kPa.

4 CONCLUSÕES

O modelo hiperbólico proposto mostrou-se adequado para

a previsão do comportamento mecânico dos RSU, visto

que se ajustou bem a dados da literatura obtidos através de

ensaios com RSU. Além disso, o modelo também permitiu

observar a reação que os RSU apresentam quando

submetidos a diferentes taxas de carregamento, podendo

fornecer uma explicação para diversas rupturas de aterros

citadas na literatura.

Figura 11. Modelo proposto aplicado aos dados de Carvalho (1999)

com tensão de confinamento de 200 kPa. Fonte: Nocko (2010)

Figura 12. Modelo proposto aplicado aos dados de Carvalho (1999)

com tensão de confinamento de 400 kPa. Fonte: Nocko (2010).

REFERÊNCIAS

Bray, J. D., Zekkos, D., Kavazanjian Jr, E.,

Athanasopoulos, G. A., Riemer, M. F. Shear Strength

of Municipal Solid Waste. Journal of Geotechnical and

Geoenvironmental Engineering, v. 135, n. 6, p. 709-

722, 2009.

Carvalho, M. F. Comportamento Mecânico de Resíduos

Sólidos Urbanos. Tese de Doutorado, Escola de

Engenharia de São Carlos, USP, 1999.

Janbu, N. Settlements Calculations Based On The Tangent

Modulus Concept. Three Guest Lectures At Moscow State

University, Bulletin N. 2, Geotechnical Division,

Norwegian Institute Of Technology, 1967.

Kondner, R. L. Hyperbolic Stress-Strain Response:

Cohesive Soils. Journal of the Soil Mechanics and

Foundations Division, v. 89, n. SM1, p. 115-143,

1963.

Nocko, L. M. Modelagem acoplada tensão x deformação x

biodegradação de resíduos sólidos urbanos. 56 p.

TCC - Engenharia Ambiental, UFPR, 2010.

Otsuka, B. T. Desenvolvimento de modelo hiperbólico

com processo de biodegradação acoplado para

previsão do comportamento mecânico de resíduos

sólidos urbanos. 162 p. Dissertação – UFPR, 2010.

Otsuka, B. T., Avanzi, E. D., Campos, T. M. P. Estudo do

comportamento mecânico de misturas solo-coloide

visando o entendimento do processo reológico de

ganho de resistência. In: XV COBRAMSEG, 2010.

Sales, C. V. Q. Avaliação do comportamento mecânico de

misturas solo-gelatina visando a modelagem de

recalques de aterros sanitários. 65 p. TCC –

Engenharia Ambiental, UFPR, 2010.

29

RESOLUÇÃO DE SISTEMAS LINEARES ESPARSOS COM APLICAÇÕES EM

GEOFÍSICA DE EXPLORAÇÃO

Tuanny Brufati, Saulo Pomponet, Amin Bassrei.

Palavras-Chave: Otimização, Sistemas Lineares, Geofísica.

1 INTRODUÇÃO

Neste trabalho estamos interesados no estudo da inversão,

cujos parâmetros a serem invertidos no problema de

tomografia sísmica, a saber, surgem da parametrização do

recíproco do campo de velocidades, a partir dos quais se

obtém o tempo de trânsito por meio da técnica de traçado

de raios.

Para isto, realizamos o estudo do comportamento de

alguns métodos iterativos para sistemas lineares na solução

de problemas discretos mal postos vindos da tomografia

sísmica. Consideramos o método de gradientes conjugados

e as variantes: métodos de gradientes conjugados para

equações normais, os métodos de gradientes conjugados

sugeridos por Polak e Ribière e por Fletcher e Reeves.

Para a resolução do sistema foi necessário utilizar a

Regularização de Tikhonov para o sistema linear

resultante, calculando o parâmetro de regularização com o

auxílio do pacote Regularization Tools.

Depois disso, mantivemos fixados esses parâmetros e

comparamos o número de iterações para a convergência de

cada método.

2 DESCRIÇÃO DO MODELO

Consideramos o modelo de um anticlinal não simétrico

com origem tectônica. Tal situação tem grande relevância

na exploração de óleo, pois ele apresenta espaços com

dobras que podem acumular hidrocarbonetos. O

reservatório é representado por um arenito poroso (1500

m/s) e a vedação por uma camada impermeável de xisto

(2500 m/s). O modelo foi discretizado em 800 blocos de

dimensões 10m x 10m. Para as simulações, consideramos

30 fontes em um poço e 30 receptores no outro, de forma a

ter 900 raios ou 900 equações.

3 ESPECIFICAÇÕES GERAIS

Estudamos o comportamento de alguns métodos iterativos

para sistemas lineares na solução de problemas discretos

mal postos vindos da tomografia sísmica.

Consideramos o método de gradientes conjugados (T. E.

B. Brufati. Método de gradientes conjugados, disponível

em http://people.ufpr.br/~ewkaras/ic/tuanny11.pdf , 2011.)

e, além disso, as seguintes variantes: métodos de

gradientes conjugados para equações normais (Y. Saad.

Iterative Methods for Sparse Linear Systems. Society for

Industrial and Applied Mathematics, Philadelphia, 2003.),

os métodos de gradientes conjugados sugeridos por Polak

e Ribière e por Fletcher e Reeves (J. Nocedal e S. J.

Wright, Numerical Optimization. Springer Verlag, New

York, 1999.).

O problema direto (H. A. Schots. Tomografia sísmica poço

a poço e poço a superfície utilizando ondas diretas.

Dissertação de Mestrado. Departamento de Geofísica,

Universidade Federal da Bahia, 1990.) foi resolvido com a

técnica de traçado de raios (Andersen and A. Kak. Digital

ray tracing in two-dimensional refractive yields. J. Acoust.

Soc.Am.,72:1593-1606,1982.), que gera as distâncias

viajadas por cada raio em um meio 2-D, resultando na

matriz de tomografia G. Os tempos de trânsito são

computados multiplicando a matriz G pelo vetor de

vagarosidade verdadeira s ,o inverso das velocidades

verdadeiras, e em seguida o vetor resultante é

randomicamente perturbado. Os dados de entrada da

inversão são a matriz G e o vetor de tempos de trânsito t, e

para o procedimento inverso usamos os algoritmos de

gradientes conjugados listados anteriormente. A inversão

gera os tempos de trânsito, os coeficientes para o modelo e

a vagarosidade do meio.

Nós usamos a regularização de Tikhonov (S. F. V. Bazán

and L. S. Borges. Métodos para problemas inversos de

grande porte. Volume 39. São Carlos. São Paulo, Brasil,

2009.) para o sistema linear perturbado resultante,

calculando o parâmetro de regularização com o auxílio do

pacote Regularization Tools (Christian Hansen.

Regularization Tools: A Matlab package for analysis and

solution of discrete ill-posed problems. Numerical

Algorithms, 6:1-15, 1994.).

Para uma tolerância de 10-10

para a norma residual, o

algoritmo de inversão produziu um modelo reconstruído

que se aproxima corretamente do original.

Depois disso, mantivemos fixados esses parâmetros e

comparamos o número de iterações para a convergência de

cada método. Para o modelo atual, as curvas de norma

residual versus o número de iterações para os métodos

iterativos foram similares.

4 TESTES COMPUTACIONAIS

Os testes computacionais foram realizados usando, até

então, dois modelos geofísicos. Apresentamos a seguir os

modelos verdadeiros (ver Figura 1), sendo o modelo 1 à

esquerda e o modelo 2 à direita.

Figura 1: Modelos verdadeiros.

Apresentamos agora os modelos estimados (ver Figura 2),

sendo o modelo 1 à esquerda e o modelo 2 à direita.

30

Figura 2: Modelos estimados.

Os métodos testados fornecem uma inversão muito

semelhante ao modelo verdadeiro.

5 CONCLUSÕES

Percebemos que os quatro métodos que foram

implementados, testados e analisados fornecem uma

inversão muito semelhante entre si e coerente com o

modelo verdadeiro.

Na próxima etapa do trabalho iremos montar uma coleção

de modelos geofísicos para estimar um perfil de

desempenho para cada variante do método GC.

6 REFERÊNCIAS

S. F. V. Bazán and L. S. Borges. Métodos para problemas

inversos de grande porte. Volume 39. São Carlos.

São Paulo, Brasil, 2009.

T. E. B. Brufati. Método de gradientes conjugados,

disponível em

http://people.ufpr.br/~ewkaras/ic/tuanny11.pdf ,

2011.

Christian Hansen. Regularization Tools: A Matlab package

for analysis and solution of discrete ill-posed

problems. Numerical Algorithms, 6:1-15, 1994.

Andersen and A. Kak. Digital ray tracing in two-

dimensional refractive yields. J. Acoust.

Soc.Am.,72:1593-1606,1982.

J. Nocedal e S. J. Wright, Numerical Optimization.

Springer Verlag, New York, 1999.

Y. Saad. Iterative Methods for Sparse Linear Systems.

Society for Industrial and Applied Mathematics,

Philadelphia, 2003.

H. A. Schots. Tomografia sísmica poço a poço e poço a

superfície utilizando ondas diretas. Dissertação de

Mestrado. Departamento de Geofísica, Universidade

Federal da Bahia, 1990.

31

ANÁLISE ESTATÍSTICA MULTIVARIADA DOS ACIDENTES DAS RODOVIAS

FEDERAIS PARANAENSES NO PERÍODO DE 2009 A 2012

Vanessa Ferreira Sehaber, Adriano Rodrigues de Melo, Jair Mendes Marques.

Palavras-Chave: Análise Fatorial Exploratória, Acidentes de Trânsito, Análise de Correlação Canônica, Análise de

Componentes Principais

1 INTRODUÇÃO

Cotidianamente, acompanha-se nos meios de comunicação

acidentes de trânsito com vítimas, dentre estas, algumas

que são levadas ao óbito.

O Departamento de Trânsito do Paraná (DETRAN-PR)

disponibiliza em anuários estatísticos informações sobre o

crescimento da frota e dos acidentes ao passar dos anos,

conforme a Fonte: Anuário Estatístico 2010 (DETRAN-

PR)

Tabela 2.

Ano Frota Acidentes ARF1

2005 3.432.367 97.918 13.519

2006 3.675.703 93.426 12.276

2007 3.999.483 100.624 12.707

2008 4.358.093 109.005 15.624

2009 4.683.631 106.321 17.680

2010 5.041.846 115.348 20.707 Fonte: Anuário Estatístico 2010 (DETRAN-PR)

Tabela 2: Crescimento da frota de veículos e acidentes de trânsito

no estado do Paraná.

Observa-se que no período compreendido de 2005 e 2010,

a frota de veículos, os acidentes e os acidentes nas

rodovias federais do Paraná aumentaram, respectivamente,

em torno de 47%, 18% e 54%.

Em CESVIBRASIL (2012) são apontados alguns motivos

que podem estar associados aos acidentes de trânsito,

como erro humano, condições da pista, velocidade

excessiva, distância insuficiente em relação ao veículo

dianteiro, desrespeito à sinalização, condições da pista,

dirigir sob efeito de drogas e/ou álcool, defeito mecânico

em veículo, dentre outros.

1.1 Descrição da malha rodoviária

Segundo o DER (2012), a malha rodoviária do Estado do

Paraná é constituída de 118.587,07 km, cuja jurisdição

distribui-se da seguinte forma: 3.958,93 km de rodovias

federais, 11.902,14 km de rodovias estaduais e 102.726,00

km de rodovias municipais. As rodovias podem ser

administradas pelas instituições públicas responsáveis:

Departamento de Estradas e Rodagem do Estado do Paraná

(DER), Departamento Nacional de Infraestrutura e

Transporte (DNIT) ou concedidas à iniciativa privada

(Empresas Concessionárias).

Assim, o presente trabalho se desenvolve na campo

estatístico multivariado para explorar as causas dos

acidentes ocorridos nas rodovias federais do Paraná.

1 Acidentes Rodovias Federais

2 ASPECTOS METODOLÓGICOS

Este trabalho está em desenvolvimento e visa utilizar

técnicas exploratórias de sintetização para verificar

possíveis relações entre as variáveis observáveis como

causas dos acidentes de trânsito das rodovias federais

paranaenses no período de 1 de janeiro de 2009 a 31 de

abril de 2012. Dentre tais técnicas, destacam-se a análise

de componentes principais, análise fatorial exploratória e

análise de correlação canônica (Mingoti, 2005). Deseja-se

encontrar variáveis latentes, não mensuradas no conjunto

de dados, que possam explicar melhor a ocorrência de

acidentes de trânsito em cada rodovia.

Com o banco de dados disponibilizado pela Polícia

Rodoviária Federal (PRF) estão sendo analisadas 15

rodovias. Este banco de dados dispõe de informações de,

aproximadamente, 65.000 acidentes, assim como dos

veículos, dos condutores e das pessoas envolvidas,

referentes aos 40 meses mencionados anteriormente.

Para realizar a análise dos dados, está sendo utilizado o

software R, o qual é ao mesmo tempo uma linguagem de

programação e um ambiente para computação estatística e

gráfica (R-Project, 2012).

Foram agrupadas as planilhas dos 40 meses e foram

separadas as observações pertinentes à cada rodovia. Cada

variável foi analisada a fim de verificar falhas de

preenchimento e foram excluídas as variáveis e as

observações que não pudessem ser analisadas devido às

tais falhas. Em virtude disso, a planilha referente às

pessoas não será utilizada na análise do banco de dados.

A maior parte das variáveis é composta por variáveis

qualitativas. Cada categoria foi considerada como variável

e discretizada como presente (1) ou não-presente (0). De

modo a simplificar a análise dos dados e os cálculos

computacionais, os quilômetros (em valores decimais)

onde incidiram os acidentes foram organizados por

intervalos de classe de 1 a 1 quilômetro e agrupadas as

observações correspondentes a cada variável dentro do

intervalo de 1 quilômetro.

No momento, estão sendo aplicadas as análises de

componentes principais e fatorial exploratória nos dados

da planilha acidentes e, após encontrar as variáveis que

sumarizem as informações principais das variáveis

originais, será aplicada a análise de correlação canônica

em tais variáveis a fim de buscar relações entre as

variáveis das planilhas de acidentes com veículos e de

acidentes com condutores em cada rodovia. Dessa forma,

este trabalho vem a contribuir com a sociedade de modo a

apontar as principais causas de acidentes de trânsito em

cada rodovia.

32

REFERÊNCIAS

CESVIBRASIL. Prováveis Causas de Acidentes.

Fevereiro, 2012. URL

www.cesvibrasil.com.br/segura

nca/biblioteca_dados.shtm

DER. Departamento de Estradas de Rodagem. Setembro,

2012. URL

http://www.infraestrutura.pr.gov.br/module

s/conteudo/conteudo.php?conteudo=186

DETRAN. Departamento de Trânsito do Paraná. Anuário

Estatístico 2010. Junho, 2012. URL

http://www.detran.

pr.gov.br/arquivos/File/estatisticasdetransito/anuario/

anuario2010.pdf

Mingoti, S. A. Análise de Dados Através de Métodos de

Estatística Multivariada: Uma Abordagem Aplicada.

Editora UFMG, Belo Horizonte, 2005.

R-Project. Setembro, 2012. URL http://www.r-project.org/

33

ESTUDO DE SÉRIES TEMPORAIS PELO MÉTODO SUPPORT VECTOR

MACHINE – SVM

André Luiz Emidio de Abreu, Anselmo Chaves Neto.

Palavras-Chave: Séries Temporais, Previsão, Support Vector Machine - SVM.

1 INTRODUÇÃO

Este trabalho apresenta o projeto do estudo de doutorado

desenvolvido a partir de 2011. O objetivo do estudo é,

baseado nos métodos já conhecidos, elaborar um novo

método de previsão de séries temporais alternativo aos já

existentes, podendo ser aplicado a qualquer tipo de série

temporal. Tal método utilizará, além dos métodos

tradicionais de previsão, a aplicação do método conhecido

como SVM (Support Vector Machine – Máquinas de

Vetores Suporte), neste caso o método Support Vector

Regression (derivado do SVM).

A perspectiva gerada pelo projeto é de elaborar um método

que utilize varias séries menores, ou secundarias, para a

previsão de séries temporais. Logo, ao se calcular a

previsão de uma série temporal, por exemplo, vazão de um

grande rio, pode-se utilizar as vazões de seus afluentes na

previsão da sua vazão, centralizando o estudo nos agentes

que modificam a sua vazão.

Com isso, uma nova técnica será apresentada e tendo seus

resultados comparados com os métodos já conhecidos e

consagrados.

2 REVISÃO BIBLIOGRAFICA

2.1 Support Vector Machine

O Support Vector Machine (SVM) é um sistema de

aprendizagem estatística muito utilizada tanto em

aplicações de classificação como em regressão.

Em 1965, Vladimir Vapnik propôs um algoritmo para

encontrar um hiperplano separador em uma classificação

linear. Entretanto, em 1992, Bernhard Boser, Isabelle

Guyon e Vapnik criaram uma classificação não linear,

aplicando as Funções Kernel. Em 1995, Corinna Cortes e

Vapnik sugeriram uma modificação no algoritmo,

introduzindo variáveis de folgas para obter uma margem

suave no hiperplano separador (CORTES e VAPNIK,

1995). O SVM minimiza a probabilidade de classificação

errada dos padrões.

O nome Support Vector Machine enfatiza a importância

que os vetores mais próximos da margem de separação

representam, uma vez que eles determinam à

complexidade do SVM (CARVALHO, 2005).

2.2 Modelagem primal com as margens rígidas

O objetivo do modelo do SVM é encontrar um hiperplano

ótimo com a maior margem de separação possível que

separe os vetores da classe −1 da classe +1.

Considerando-se, inicialmente, dois conjuntos linearmente

separáveis, como por exemplo, ilustrado na figura 1:

Figura 3: Ilustração de conjuntos linearmente separáveis.

Uma classificação linear pode ser obtida pela função que

considerada de classe +1 se f (x) 0 e caso contrário é

considerada de classe −1. Assim, a função decisão f (x) é

representada por:

.)( bxwxf t (20)

A figura 2 ilustra diversas separações dos conjuntos.

Figura 2: Ilustração de conjuntos linearmente separáveis.

O processo de treinamento do SVM consiste na obtenção

de valores para os pesos w e do termo bias b de forma a

maximizar a distancia entre as margens. Desta maneira, o

SVM se torna robusto a pequenas variações no conjunto de

treinamento, possibilitando uma melhor generalização,

conforme a figura 3:

Figura 3: Separação ótima de dois conjuntos

linearmente separáveis.

O problema primal do SVM é dado por:

34

1)(.

2

1min

bxwyas

ww

t

i

t (21)

2.3 Support Vector Regression – SVR

A extensão do SVM para o tratamento de problemas de

regressão se dá pela introdução de uma função de perda,

denominada do inglês loss function.

Em linhas gerais, o Support Vector Regression (SVR)

utiliza os mesmos princípios do algoritmo de classificação,

com exceção de alguns detalhes (PARRELLA, 2007).

Uma das principais diferenças é que o SVR, ao contrário

do SVM, propõe determinar um hiperplano ótimo do qual

as amostras de treinamento estejam as mais próximas

possíveis, não importando em qual lado da superfície os

pontos se localizem (LIMA, 2004).

Todavia, apesar dos propósitos de otimização serem

opostos, ambos os modelos visam estabelecer uma função

com máxima capacidade de generalização (LIMA, 2004).

Figura 4: Função de perda.

As variáveis de folga *, ii estão associadas

respectivamente aos dados localizados abaixo da margem

inferior e acima da margem superior. Assim, pode-se

escrever o problema primal como sendo:

li

ybxw

bxwyas

Cw

ii

iii

iii

l

i

ii

,,1,0,

.

)(||||2

1min

*

*

1

*2

(22)

Onde: nIRw , IRb são as incógnitas do problema e C é

denominada constante de regularização, pois pondera os

termos da função de minimização.

2.4 Séries Temporais

Série Temporal é um conjunto de observações geradas

seqüencialmente no tempo e que apresentam uma

dependência serial entre elas. Se o conjunto é contínuo, a

série temporal é dita contínua e se o conjunto é discreto, a

série é dita discreta (Chaves Neto, 2009).

O conceito de séries temporais está relacionado a um

conjunto de observações de uma determinada variável feita

em períodos sucessivos de tempo e ao longo de um

determinado intervalo. Podemos citar como exemplos as

cotações diárias da taxa do dólar, as vendas mensais de um

determinado produto, a taxa de desemprego de um país, e

etc. Os objetivos de se analisar uma série temporal são os

seguintes (Morettin e Toloi, 1981):

Descrição: propriedades da série como, por

exemplo, o padrão de tendência, a existência de

alterações estruturais, etc;

Explicação: construir modelos que permitam

explicar o comportamento da série no período

observado;

Controle de Processos: por exemplo, controle

estatístico de qualidade;

Previsão: prever valores futuros com base em

valores pasados.

Uma Série Temporal pode ser representada da seguinte

maneira: nnt ZZZZZZST ,...,,...,,,, 1321 ou como a

série nZST t ...,,2,1 e consideraremos aqui séries onde

as observações são feitas no mesmo intervalo de tempo

fixado h.

Formalmente pode-se definir Série Temporal como:

Definição: Uma série temporal Zt é uma realização do

processo estocástico Z(ω,t), onde tT ={t1, t2, …, tn} com

ti - tj = h, é o tempo.

3 CONCLUSÕES

Como este artigo apresenta apenas o inicio do estudo,

ainda existem resultados, e sim apenas uma previsão do

que é esperado.

Almeja-se ao fim do estudo, o desenvolvimento do método

e que ele seja capaz de, ao ser comparados com os demais

métodos, ser superior em eficácia na previsão.

REFERÊNCIAS

Carvalho, B. P. R. O Estado da Arte em Métodos de

Reconhecimento de Padrões: Support Vector

Machines. In: Congresso Nacional de Tecnologia e

Comunicação, 2005, Belo Horizonte, Minas Gerais.

Chaves Neto, A. Análise de séries temporais (notas de

aula). Departamento de Estatística, Universidade

Federal do Paraná, Curitiba, 2009.

Cortes, C. Vapnik, V. Support-Vector Networks. Machine

Learning, volume 20, número 3, setembro/1995, pg

273-297, editora Springer, 1995.

Lima, C. A. de M. Comitê de máquinas: uma abordagem

unificada empregando maquinas de vetores-suporte.

378 f. Tese (Doutorado em Engenharia Elétrica) –

Faculdade de Engenharia Elétrica e de Computação,

Universidade Estadual de Campinas, Campinas,

2004.

Morettin, P. A., Toloi, C. M. Modelos para Previsão de

Séries Temporais. Edgard Blucher, 1981.

Parrella, F. Online Support Vector Regression. Master

Science Thesis. Department of Information Science,

University of Genoa, Italy, 2007.

35

ANÁLISE DO RISCO DE INSOLVÊNCIA DE COMPANHIAS DO SETOR DE

ENERGIA USANDO METODOLOGIA MULTICRITÉRIO PROMETHEE II

Gerson Ulbricht, Moacir Manoel Rodrigues Junior, Adriana Kroenke, Neida M. Patias Volpi, Sander Joner.

Palavras-chave: Insolvência, PROMETHEE II, Plano GAIA, Correlação por Postos.

4 INTRODUÇÃO

Reconhecer e perceber a saúde financeira de uma empresa

é de fundamental importância para a manutenção de suas

atividades de forma lucrativa (BRESSAN; BRAGA;

LIMA 2004). Desta maneira a percepção de um cenário de

crise ou de turbulência nas atividades da mesma é de suma

importância para que a gestão se anteceda aos fatos,

mitigando assim os riscos financeiros envoltos na empresa,

que culminam no estado de insolvência e podendo chegar

na falência da empresa.

A Insolvência de uma empresa é o momento em que a

organização se percebe incapaz de honrar com seus

compromissos sem afetar o capital investido pelos seus

proprietários (LEV, 1968). Segundo Bressan, Braga e

Lima (2004, p. 557) a insolvência é um processo de

declínio prolongado e que não é discreto, ou seja, não é um

processo abrupto e sim uma situação que se estende por

alguns períodos de tempo. Analisar o desempenho

financeiro das empresas para Nascimento, Pereira e

Hoeltgebaum (2010) é caracterizá-las de acordo com sua

solvência ou insolvência.

Este trabalho se propõe a identificar as contribuições que

um modelo de Análise Multicritério de Apoio a Decisão

pode trazer para a verificação de um cenário crítico para as

empresas do setor de energia elétrica.

5 METODOLOGIA

A metodologia Preference Ranking Organization

METHod for Enrichment Evaluations – PROMETHEE

(Brans e Vincke, 1985) pode ser aplicada a problemas de

escolha, classificação ou ordenação das alternativas, onde

se tem um número conhecido de critérios que se deseja

otimizar, buscando soluções que atendam da melhor forma

possível aos critérios estabelecidos para as alternativas

consideradas. Neste trabalho foi utilizado o PROMETHEE

II, o qual permite inclusive uma visão gráfica da avaliação

das alternativas conforme os critérios avaliativos por meio

do Plano GAIA (BRANS e MARESCHAL, 1999).

Para a análise e obtenção dos resultados da pesquisa de

forma a responder o objetivo de pesquisa, utilizou-se de

cinco indicadores, apontados por Kanitz (1978) como

sendo os mais importantes em uma análise que busca

identificar as empresas com maior risco de insolvência.

Estes indicadores foram: Rentabilidade do Patrimônio

Líquido (RPL), Liquidez Geral (LG), Liquidez Seca (LS),

Liquidez Corrente (LC) e Endividamento Total (ET), os

quais formam os 5 critérios avaliativos utilizados.

Para aplicação da metodologia, foram atribuídos pesos e

limiares para cada critério conforme julgamento dos

decisores. Optou-se por utilizar a função de preferência 5

(BRANS e MARESCHAL, 1999), para todos os critérios

avaliados, de modo que a transição entre indiferença para a

preferência estrita entre alternativas ocorra de forma linear.

A partir daí, foram atribuídos parâmetros baseados em

discussões em equipe e levando-se em conta a

característica de variabilidade dos dados. Na tabela 1, são

apresentados os limiares de preferência e de indiferença

entre alternativas a serem comparadas, bem como o tipo de

função de preferência adotado em cada critério de

avaliação.

Critério RPL LG LS LC ET

Peso (w) 0,2 0,2 0,2 0,2 0,2

Limiar de

Indiferença 0,05 0,10 0,10 0,30 0,10

Limiar de

preferência 0,20 0,50 0,50 0,60 0,30

Min/Max Max Max Max Max Min

Função de

preferência 5 5 5 5 5

Tabela 1: Parâmetros atribuídos aos critérios de avaliação.

Após a definição dos parâmetros a serem utilizados, foi

aplicada a ordenação das alternativas com auxílio do

PROMETHEE II. Analisando o Plano GAIA gerado pela

primeira análise, conforme mostrado na figura 1, foi

possível verificar que os critérios de avaliação Liquidez

Seca e Liquidez Corrente, possuem projeção bastante

semelhante.

Figura 1: Plano GAIA.

Sendo assim, optou-se por retirar um desses critérios do

processo avaliativo e aplicar novamente a metodologia.

Optou-se por retirar o critério liquidez corrente e dessa

forma atribuir pesos iguais aos quatro critérios restantes.

Os resultados comparativos são apresentados na tabela 2

por meio de dois cenários. Cenário 1: Ordenação com 5

critérios de avaliação

Cenário 2: Ordenação com 4

critérios de avaliação

36

COMPANHIA Phi COMPANHIA Phi

COPEL 0,5839 COPEL 0,5355

NEOENERGIA 0,5388 NEOENERGIA 0,4713

FORPART 0,4651 521 PARTICIP 0,3946

521 PARTICIP 0,3993 FORPART 0,3314

ELETROBRAS 0,328 TRACTEBEL 0,2402

ENERGISA 0,2658 ELETROBRAS 0,2283

MPX ENERGIA 0,2417 UPTICK 0,2131

AGCONCESSO 0,2249 ENERGISA 0,2099

TRACTEBEL 0,2143 AGCONCESSOES 0,1843

LIGHT S/A 0,1619 MPX ENERGIA 0,1447

EQUATORIAL 0,1256 BONAIRE PART 0,1089

BONAIRE PART 0,1246 LIGHT S/A 0,1029

UPTICK 0,1179 AES TIETE 0,0779

CELESC 0,0974 CELESC 0,0661

AES TIETE 0,0169 EQUATORIAL 0,0389

ENERGIAS BR -0,024 TRAN PAULIST 0,0241

CEMIG -0,0425 ENERGIAS BR -0,0179

TRAN PAULIST -0,096 CEMIG -0,0242

CEMIG GT -0,115 CEMIG GT -0,0527

CPFL ENERGIA -0,1338 CPFL ENERGIA -0,0993

BRASILIANA -0,1574 VBC ENERGIA -0,1114

VBC ENERGIA -0,1756 BRASILIANA -0,1655

AES ELPA -0,2314 AES ELPA -0,2295

CEB -0,3427 TERNA PART -0,2918

CPFLGERACAO -0,3571 IENERGIA -0,3128

AMPLA INVEST -0,3752 CPFLGERACAO -0,3203

TERNA PART -0,3892 CEB -0,3271

REDE ENERGIA -0,4004 AMPLA INVEST -0,3742

IENERGIA -0,4253 REDE ENERGIA -0,4217

CELGPAR -0,6405 CELGPAR -0,6235

Tabela 2: Ordenação Considerando Dois Cenários

Para comparar a relação entre os ordenamentos obtidos nos

cenários 1 e 2, foi utilizada a correlação por postos, a qual

utiliza apenas da ordenação dos valores para definir o grau

de relacionamento entre as variáveis (BARBETTA, 2002).

Aplicando-se a correlação por postos aos dois cenários, foi

obtida uma correlação de 96,84%, confirmando um efeito

reduzido com a retirada de um dos critérios estudados. É

possível verificar por sua vez que as empresas que foram

os extremos tanto da análise com 5 critérios, quanto da

análise de 4 critérios se mantiveram.

Os resultados da ordenação das empresas de energia

elétrica apontaram a COPEL como a empresa com melhor

desempenho financeiro auferindo desta maneira menor

probabilidade de entrar em estado de insolvência nos

próximos períodos. Na outra extremidade os resultados

descrevem a CELGPAR como a empresa com maior

probabilidade de entrar em estado de insolvência. Os

resultados apresentados nesta análise não afirmam a

presença em um estado de insolvência por parte das

empresas com pior colocação, este fato mostra por sua vez

que estas empresas, dentro do âmbito setorial, são as

empresas com maiores chances de entrar nesta situação.

3 CONCLUSÕES

Através da aplicação da metodologia multicritério

PROMETHEE II, foi possível obter uma ordenação das

companhias conforme os indicadores contábeis

considerados.

A representação por meio do plano GAIA, permitiu de

forma visual, localizar 2 critérios que possuíam grande

grau de correlação em seus dados, onde ao eliminar um

esses critérios da análise, os resultados sofreram pequenas

alterações, conforme demonstrado através do índice de

correlação por postos.

Sendo assim, na aplicação de modelos multicritério de

decisão, torna-se importante a análise prévia dos dados o

que permite em muitos casos, reduzir os critérios de

avaliação, diminuindo consequentemente os julgamentos

necessários por parte dos decisores bem como a

complexidade do problema.

A classificação final das alternativas pelo PROMETHEE,

sofre variação conforme mudanças atribuídas nas funções

de decisão bem como nos parâmetros avaliativos. Assim, é

importante que o decisor, seja ele uma só pessoa ou uma

equipe, tenha conhecimento da problemática tratada,

podendo opinar baseado em experiências anteriores bem

como na análise detalhada do problema.

REFERÊNCIAS

Barbetta, Pedro Alberto. Estatística Aplicada às Ciências

Sociais. Ed. da UFSC. Florianópolis - SC, 2002.

Brans, J. P.; Vincke, P. H. A preference ranking

organization method: (The PROMETHEE Method for

Multiple Criteria Decision-Making). Management

Science, v. 31, p. 647-656, 1985.

Brans, Jean P., Mareschal. Multicriteria Decision Aid: The

PROMETHEE GAIA Solution. Pesquisa Operacional,

Vol. 19, 06/1999, p. 1-23.

Bressan, V. G. F.; Braga, M. J.; Lima, J. E. Análise de

Insolvência das cooperativas de crédito rural do estado

de Minas Gerais. Est. Economia. São Paulo v. 34 n. 3,

p. 553 – 585. Jul-set. 2004.

Kanitz, S. Como Prever Falências. São Paulo: McGraw

Hill, c1978. 174 p.

Lev, B. Análisis de Estados Financeiros, um Nuevo

Enfoque. Esic, Madrid. 1968.

Nascimento, S.; Pereira, A. M.; Hoeltgebaum, M.

Aplicação dos Modelos de Previsão de Insolvências

nas Grandes Empresas Aéreas Brasileiras. Revista de

Contabilidade do Mestrado em Ciências Contábeis, v.

15, p. 40-51, 2010.

37

IDENTIFICAÇÃO DE FATORES DE RISCO E ESTIMAÇÃO DA

PROBABILIDADE DE INADIMPLÊNCIA EM TELECOMUNICAÇÕES

Flaviane Peccin, Anselmo Chaves Neto.

Palavras-Chave: Regressão Logística, Inadimplência, Telecomunicações.

1 INTRODUÇÃO

O setor de telecomunicações brasileiro entrou num

processo contínuo de expansão após as privatizações que

ocorreram na década de 1990. Com esse processo,

entraram nesse mercado novos competidores e novas

tecnologias. Isso foi benéfico para o consumidor, que

atualmente tem mais opções de escolha de prestadoras do

serviço. Por outro lado, as empresas que oferecem esse

serviço precisam quantificar as probabilidades de esses

clientes pagarem pelo serviço prestado.

A inadimplência impacta diretamente o negócio de

telecomunicações e pode ser medido pela necessidade de

provisão, ou seja, a reserva financeira que as empresas

quem de fazer para os chamados devedores duvidosos

(PDD – Provisão para Devedores Duvidosos).

Nesse contexto, esse estudo visa mapear as variáveis que

podem ser consideradas fatores de risco para

inadimplência e construir um modelo preditivo para

estimar a probabilidade de pagamento das faturas mensais.

Para isso, foi utilizada uma amostra de 43.339 clientes de

uma empresa de telecomunicações. Esses clientes

adquiriram produtos entre janeiro e dezembro de 2007 e

foram acompanhados por doze meses para avaliar sua

performance quanto ao pagamento de suas faturas mensais.

Dessa forma, a amostra foi dividida em dois grupos,

denominados bons e maus. Clientes bons são aqueles que,

durante os doze meses, atingiram no máximo cinco dias

em atraso, no total de 23.095 clientes. Maus são aqueles

que atingiram 90 dias de atraso para pagamento de pelo

menos uma fatura no período observado, no total de

20.244 clientes.

2 DESENVOLVIMENTO

2.1 Variáveis Dummy

A variável dummy é também conhecida como variável

fictícia, muda e/ou indicadora. O uso de variáveis dummies

para representar regressoras qualitativas num modelo de

regressão é, em geral, mais indicado que proceder à

alocação de códigos quaisquer às categorias dessas

variáveis. A dificuldade básica com a alocação de códigos

é que eles definem uma métrica para os níveis da variável

qualitativa, métrica que pode não ser razoável (Giolo,

2006). Uma variável qualitativa com K classes será

representada por K-1 variáveis indicadoras, cada qual

tomando os valores 0 e 1.

2.2 Regressão Logística

De acordo com Paula (2010), a regressão logística tem se

constituído num dos principais métodos de modelagem

estatística de dados quando a variável é dicotômica.

Conforme Giolo (2006), essa técnica é apropriada para a

análise de experimentos que apresentam variáveis

respostas categóricas em que o interesse seja o de

descrever a relação entre a variável resposta e um conjunto

de variáveis explanatórias.

No contexto apresentado em Chaves Neto (2007), o

modelo linear logístico simples (uma variável explicativa)

é derivado da função matemática conhecida como

sigmoide.

Conforme Chaves Neto (2007), quando o interesse está em

estabelecer a relação entre a variável resposta Y e as

diversas variáveis explicativas X1, X2,..., Xp-1, que

podem representar fatores de interesse, o modelo logístico

linear múltiplo tem a forma:

𝜃(𝑥) = 𝑃(𝑌 = 1|𝑥) = 𝑒𝛽0+∑ 𝛽𝑘

𝑝−1𝑘=1

1+𝑒𝛽0+∑ 𝛽𝑘

𝑝−1𝑘=1

= 𝑒𝛽′𝑥

1+𝑒𝛽′𝑥 (23)

LOGIT p(x) = 0 + 1x1 + 2x2 +...+ p-1xp-1 (24)

3 MODELOS DE BEHAVIOUR SCORE

Conforme Sicsú (2010), Os modelos utilizados para

clientes ou ex-clientes de crédito do credor são chamados

de behaviour score e utilizam as informações relativas a

créditos anteriores. Por exemplo, se o cliente pagou em dia

eventuais parcelas anteriores, essa informação contribuirá

de forma positiva no cálculo do score. Em contrapartida,

se o cliente atrasou várias parcelas anteriores, seu score

será reduzido em razão dessa experiência negativa.

Segundo Thomas (2000), a metodologia para construção

desses modelos era originalmente julgamental. Andrade

(2004) ressalta que, embora algumas empresas ainda

utilizem modelos julgamentais, atualmente a vasta maioria

utiliza os modelos quantitativos, construídos a partir de

técnicas de análise estatística multivariada, tais como a

análise discriminante e a regressão logística, ou em

modelos de inteligência artificial, como redes neurais.

4 RESULTADOS E DISCUSSÃO

As variáveis foram discretizadas conforme o risco relativo

de inadimplência para criação das dummies. O modelo de

regressão logística foi ajustado a procedure PROC

LOGISTIC do software SAS. Para seleção inicial das

variáveis, aplicou-se o método backward. Após a seleção

inicial, avaliou-se o VIF (Fator de Inflação de Variância),

para avaliar a multicolinearidade no modelo final. O

modelo ajustado foi:

LOGIT p(x) = -7,73781 * Parcelamento = Sim

-1,25798 * Fraude = Sim + 1,88968 * Desconexão = Sim

+4,56403 * VlFatura = 01. ≤ 20,62

+1,02997 * VlFatura = 02. > 20,62 e ≤ 82,25

-0,85369 * VlFatura = 06. > 132,38 e ≤ 171,59

-2,96388 * VlFatura = 07. > 171,59

+0,35635 * VlAjuste = 02. > 1,49 e ≤ 5,28

-1,91493 * TotalPago = 01. ≤ 1,90

-1,56662 * TotalPago = 02. > 1,90 e ≤ 40,40

+2,5933 * TotalPago = 08. > 141,30 e ≤ 178,64

+4,05412 * TotalPago = 09. > 178,64

-2,21613 * MediaPago = 00. Missing

+0,28772 * MediaPago = 04. > 83,19 e ≤ 90,71

38

+0,68641 * MediaPago = 05. > 90,71 e ≤ 97,48

+0,90004 * MediaPago = 06. > 97,48 e ≤ 110,30

+1,12178 * MediaPago = 07. > 110,30 e ≤ 222,56

+0,68695 * MaiorVlPago = 03. > 47,21 e ≤ 101,91

+0,70164 * MaiorVlPago = 04. > 101,91 e ≤ 123,78

+0,30355 * MaiorVlPago = 05. > 123,78 e ≤ 242,26

+0,31406 * QtdeLinhas = 02. > 1

-0,7578 * VlFatAtrasoMax = 04. > 214,84 e ≤ 250,43

-0,50326 * VlFatAtrasoMax = 05. > 250,43 e ≤ 313,86

-0,68891 * VlFatAtrasoMax = 06. > 313,86 e ≤ 455,93

-1,30949 * VlFatAtrasoMax = 07. > 455,93

-1,74844 * SeqFatura = 01. ≤ 9

-0,60201 * SeqFatura = 02. > 9 e ≤ 10

+0,85615 * SeqFatura = 04. > 12 e ≤ 14

+2,06999 * SeqFatura = 05. > 14 e ≤ 17

+2,84824 * SeqFatura = 06. > 17

-0,33308 * L1feitos = 01. ≤ 96,55

+0,48088 * L1feitos = 04. > 236,58

-0,31485 * L2feitos = 03. > 44,80 e ≤ 516,14

-0,63125 * L2feitos = 04. > 516,14

+1,18921 * L7feitos = 01. ≤ 3,37

+0,88123 * L7feitos = 02. > 3,37 e ≤ 6,69

+0,4679 * L7feitos = 03. > 6,69 e ≤ 10,91

-0,38627 * L7feitos = 06. > 27,72 e ≤ 33,52

-0,66432 * L7feitos = 07. > 33,52 e ≤ 68,46

-0,719 * L7feitos = 08. > 68,46 e ≤ 100,67

-0,94312 * L7feitos = 09. > 100,67 e ≤ 186,54

-0,96637 * L7feitos = 10. > 186,54

-0,26586 * L8feitos = 03. > 3,56 e ≤ 9,85

-0,44218 * L8feitos = 04. > 9,85 e ≤ 15,83

-0,42863 * L8feitos = 05. > 15,83 e ≤ 31,89

-0,53862 * L8feitos = 06. > 31,89

+0,27949 * L9feitos = 03. > 12,02 e ≤ 29,96

+0,36556 * L9feitos = 04. > 29,96 e ≤ 52,86

+0,39817 * L9feitos = 05. > 52,86

+0,27563 * L10feitos = 01. ≤ 2,78

-0,15295 * L10feitos = 03. > 5,99

+0,18955 * L18feitos = 03. > 1,59 e ≤ 7,94

-0,19282 * L19feitos = 01. ≤ 0,48

+0,35136 * L20feitos = 03. > 1,68

+0,40968 * L7recebidos = 07. > 78,35

-0,30252 * L20recebidos = 03. > 0,87 e ≤ 2,16

-0,72417 * L20recebidos = 04. > 2,16 e ≤ 7,35

-0,48685 * L20recebidos = 05. > 7,35 e ≤ 12,98

-0,3392 * L20recebidos = 06. > 12,98

+0,21932 * L21recebidos = 04. > 20,02 e ≤ 58,59

-0,65273 * Feitos_total = 01. ≤ 144,94

+0,32836 * Feitos_total = 03. > 270,72 e ≤ 732,55

+0,77005 * Feitos_total = 04. > 732,55

-0,1397 * CanalVendas = BCENT

+0,33241 * CanalVendas = Outros

+0,68068 * CdProdVoz = 01-Excelente

-0,18787 * CEP = 06-Muito Mau

-0,29646 * CEP = 07-Horrível/Missing

+0,48966 * Cidade = 01-Excelente/Muito Bom

+0,20741 * Cidade = 05-Mau

+0,35518 * Cidade = 06-Muito Mau/Horrível/Missing

-0,53438 * DsProdVoz = 06-Muito Mau/Horrível/Missing

+0,46144 * NAT_OCUP = 02-Muito Bom/Missing

+0,25005 * OCUPACAO = 01-Excelente/Muito Bom

+0,28512 * OCUPACAO = 03-Bom

-0,25626 * OCUPACAO = 06-Muito Mau/Mau/Horrível

-0,46168 * UF = 05-Mau/Muito Mau/missing

+0,37885 * Migracao = 1) Sim

+1,57767 * WhiteList = 01 - 0 a 2

+0,82984 * WhiteList = 02 - 3 a 5

O modelo ajustado apresenta ajuste satisfatório. Todos os

parâmetros são significativos com valor-p p < 0,05,

considerando nível de significância de 0,05. Obteve-se,

também a Análise de Deviance. para concluir que existe

uma relação estatisticamente significativa entre a variável

resposta Y e as variáveis explicativas que compõem o

vetor x. A porcentagem do Desvio explicada pelo modelo

é igual a 80,83%. Esta estatística é semelhante ao R2 da

regressão linear. A análise do VIF não indicou problemas

de multicolinearidade. Além disso, o modelo ajustado tem

ídice de Kolmogorov-Smirnov KS= 89,9% e taxa aparente

de erro de 4,94%. Portanto é um modelo com bom poder

de discriminação.

5 CONCLUSÕES

Neste estudo, foi obtido um modelo para estimar a

probabilidade de pagamento das faturas de uma empresa

do setor de telecomunicações. Foram identificados como

principais fatores de risco de inadimplência: os

parcelamentos, os alertas de fraude, os altos valores de

fatura, os baixos valores de pagamentos históricos, os altos

valores da fatura paga com o maior número de dias em

atraso, o tempo de relacionamento (clientes novos

representam maior risco), determinadas regiões

identificadas por meio de estado, cidade e CEP, além do

tipo de serviço contratado e do perfil de consumo.

REFERÊNCIAS

ANDRADE, F. W. (2004). Desenvolvimento de modelo

de Risco de Portfólio para Carteiras de Crédito a

Pessoas Físicas. Tese de Doutorado. São Paulo, SP,

Brasil.

CHAVES NETO, A. (2007). Análise Multivariada II.

Notas de aula da disciplina Análise Multivariada II.

Curitiba, Paraná, Brasil.

GIOLO, S. R. (2006). Introdução a Análise de dados

Categóricos. Notas de aula da disciplina Introdução a

Análise de dados Categóricos..

PAULA, G. A. (2010). Modelos de Regressão com apoio

computacional.

http://www.ime.usp.br/∼giapaula/mlgs.html. São

Paulo, SP, Brasil.

SUCSÚ, A. L. (2010). Credit Scoring: desenvolvimento,

implantação, acompanhamento. São Paulo: Edgard

Blucher.

THOMAS, L. C. (2000). A survey of credit and

behavioural scoring: forecasting financial risk of

lending to consumers. International Journal of

Forecasting.

39

ESTUDO DA VELOCIDADE DE CONVERGÊNCIA DO MÉTODO DE CAUCHY

PARA MINIMIZAÇÃO IRRESTRITA

Tatiane Cazarin da Silva, Ademir Alves Ribeiro, Gislaine Aparecida Periçaro.

Palavras-Chave: Algoritmo, Velocidade de Convergência, Método de Cauchy.

1 INTRODUÇÃO

Os problemas de otimização estão relacionados às mais

diversas áreas, dentre as quais, destacam-se a engenharia,

logística, economia, medicina, transporte e demais

ciências.

Quando o modelo matemático que descreve o problema

em questão é estruturado significativamente torna-se

possível empregar técnicas matemáticas de otimização que

busquem determinar uma solução ótima para o estudo.

O problema de otimização irrestrita é definido como

𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟 𝑓(𝑥) 𝑠𝑢𝑗𝑒𝑖𝑡𝑜 𝑎 𝑥 ∈ 𝑅𝑛 , (1)

e os métodos mais conhecidos para a sua resolução tratam

de informações relacionadas ao estudo da derivada da

função. Dentre tais métodos destacam-se o Método de

Cauchy, o Método de Newton, o Método das Direções

Conjugadas e os Métodos de Quase-Newton (Izmailov e

Solodov, 2007; Ribeiro e Karas, 2013).

Nesse sentido, realizamos um estudo sobre a velocidade de

convergência do algoritmo de Cauchy, em especial,

discutindo uma nova conjectura para a taxa de

convergência com base em alguns aspectos numéricos

abordados.

2 MÉTODO DE CAUCHY

O método do Gradiente, ou Método de Cauchy, é um

método clássico em Otimização. Tem como objetivo

minimizar a função objetivo por meio de um processo

iterativo, no qual, a cada etapa é feita uma busca na

direção oposta ao gradiente da função no ponto corrente,

conforme estruturado a seguir:

Dado: 𝑥0 ∈ 𝑅𝑛

𝑘 = 0

REPITA enquanto ∇𝑓(𝑥𝑘) ≠ 0

Defina 𝑑𝑘 = −∇𝑓(𝑥𝑘)

Obtenha tk > 0 tal que 𝑓(𝑥𝑘 + tk𝑑𝑘) < 𝑓(𝑥𝑘)

Faça 𝑥𝑘+1 = 𝑥𝑘 + 𝑡𝑘𝑑𝑘

𝑘 = 𝑘 + 1

Quando consideramos a função quadrática 𝑓: 𝑅𝑛 → 𝑅 dada

por:

𝑓(𝑥) =1

2 𝑥𝑇𝐴𝑥 + 𝑏𝑇𝑥 + 𝑐, (2)

com 𝐴 ∈ 𝑅𝑛 𝑥 𝑛, 𝐴 > 0, 𝑏 ∈ 𝑅𝑛 e 𝑐 ∈ 𝑅 podemos

estabelecer resultados relevantes acerca da taxa de

convergência já que o algoritmo, com tamanho de passo

𝑡𝑘 > 0, calculado pela busca exata tem convergência

global.

2.1 Abordagens para a taxa de convergência

Diversas são as caracterizações da taxa de convergência do

método de Cauchy. Alguns trabalhos destacam a forma

dita clássica e outros propõem novas taxas, que se

menores, garantem uma maior rapidez na convergência e

eficiência do método.

A seguir são apresentadas duas avaliações sobre a taxa de

convergência. A primeira clássica, e a segunda verificada

por Karas et al. (2005).

Bertsekas (1995) apresenta a taxa de convergência clássica

para o método de Cauchy, na norma euclidiana, dada por

‖𝑥𝑘+1 − 𝑥∗‖2‖𝑥𝑘 − 𝑥∗‖2

≤ λ𝑛 − λ1λ𝑛 + λ1

, (3)

onde λ1 e λ𝑛 , são respectivamente, o maior e menor

autovalor de 𝐴, com passo 𝛼 =2

λ1+λ𝑛.

Karas et al. (2005) provaram uma taxa de convergência

melhor para o algoritmo de Cauchy. Tomando 𝑥∗ =0 e 𝑓(𝑥∗) = 0, a função quadrática definida por

𝑓(𝑥) =1

2 𝑥𝑇𝐴𝑥, (4)

gera uma sequência que converge linearmente para 𝑥∗ com

taxa de convergência √1 −λ1

λ𝑛, estruturado em

Teorema 1. Considere a função quadrática dada em (4) e a

sequência gerada pelo algoritmo de Cauchy. Então, para

todo 𝑘 ∈ 𝑁, ‖𝑥𝑘+1‖2 ≤ 𝛾‖𝑥𝑘‖2, onde 𝛾 = √1 −

λ1

λ𝑛.

Tal resultado estabelece uma relação entre a velocidade de

convergência associada à norma euclidiana dos termos da

sequência gerada. Como o radicando pertence ao intervalo

[0,1), então temos que

√1 −λ1

λ𝑛≥ 1 −

λ1

λ𝑛. (5)

Nesse sentido, verificou-se a possibilidade de que a taxa de

convergência do método proposto seja dada por um valor

menor

𝛾 = 1 −λ1

λ𝑛 (6)

de acordo com os experimentos realizados.

3 CONJECTURA

Considerando a função quadrática (4), temos que a matriz

𝐴 é simétrica. Utilizando este fato, e realizando a

decomposição espectral podemos chegar a uma

equivalência para o cálculo do novo ponto 𝑥𝑘+1 = 𝑥𝑘 +𝑡𝑘𝑑𝑘. Tomando o caso (2 × 2), podemos, sem perda de

generalidade, considerar a matriz

𝐴 = (1 00 𝜆

), (7)

40

onde 𝜆 ≥ 1. Definindo o vetor unitário

𝑢 = (cos 𝑠sin 𝑠

) (8)

o passo ótimo é dado por 𝑡 =𝑢𝑇𝐴2𝑢

𝑢𝑇𝐴3𝑢. Dessa forma, a nossa

conjectura equivale a provar que a função

𝜑(𝑠) = 2𝑡𝑢𝑇𝐴𝑢 − 𝑡2𝑢𝑇𝐴2𝑢 −1

𝜆(2 −

1

𝜆) (9)

satisfaz relação

𝜑(𝑠) ≥ 0, ∀𝑠 ∈ [0,𝜋

2]. (10)

4 EXPERIMENTOS

A fim de reforçar o nosso palpite sobre esse resultado,

foram realizados alguns testes numéricos, com base no

valor mínimo da função 𝜑(𝑠) para diversos valores de 𝜆. A

seguir temos o gráfico da função tomando 𝜆 = 10 e os

correspondentes mínimos de 𝜑 para diferentes valores de

𝜆.

Figura 4: 𝜆 = 10.

Figura 2: min(𝜑).

Os testes numéricos realizados verificaram que a função 𝜑

é sempre positiva, e que o mínimo se aproxima de zero

para valores suficientemente grandes, ou seja, evidencia-se

o fato de que a melhor taxa de convergência do método de

Cauchy é a proposta na conjectura em (6).

Com isso, como continuidade do trabalho, procuramos

comprovar algebricamente que o caso 𝑛 × 𝑛 recai na

análise estabelecida 2 × 2 e provar a relação (10).

REFERÊNCIAS

Bertsekas, D. P. Nonlinear Programming. Athena

Scientific, 1995.

Izmailov A. e Solodov M. Otimização, volume 2. IMPA,

2007.

Karas E. W., Mota A.M., and Ribeiro A.A. On the

convergence rate of the cauchy algorithm in the 𝑙2

norm. 2005.

Ribeiro A. A. e Karas E. W. Um Curso de Otimização.

Cengage Learning Editora, a ser lançado, 2013.

41

CONVERGÊNCIA DE UM ALGORITMO SEM DERIVADAS PARA

OTIMIZAÇÃO RESTRITA

Conejo, P. D., Karas, E. W., Pedroso, L. G., Ribeiro, A. A., Sachine, M.

Palavras-Chave: Algoritmos sem derivadas, Otimização com restrições, Programação não linear.

1 INTRODUÇÃO

Neste trabalho discutimos a convergência global de um

algoritmo de região de confiança sem derivadas, para

resolver o problema de programação não linear

minimizar ( )

sujeita a ,

f x

x (25)

com n não vazio, fechado, convexo e : nf

uma função diferenciável. Apesar da função objetivo ser

diferenciável, assumimos que suas derivadas não estão

disponíveis. Esta situação é comum em várias aplicações

(Conn et al., 1998), particularmente quando a função

objetivo é fornecida por um pacote de simulação ou uma

caixa preta. Tais situações práticas tem motivado a

pesquisa em otimização sem derivadas nos últimos anos

(Conn et al., 1998, 2009).

2 ALGORITMO PROPOSTO

Apresentamos um algoritmo geral de região de confiança

para resolver o problema (1) e que gera uma sequência de

minimizadores aproximados para os subproblemas

restritos. O algoritmo permite grande liberdade nas

construções e resoluções dos subproblemas.

Para cada iteração k , consideramos o corrente

iterando kx e o modelo quadrático

1

,2

Tk k T

k kQ d f x g d d G d (26)

onde k ng e

xn n

kG é uma matriz simétrica.

Qualquer modelo quadrático desta forma pode ser utilizado, desde que forneça uma aproximação suficientemente precisa da função objetivo, no sentido de

que kG satisfaça a Hipótese H3 e 0k

kg Q satisfaça

H4 discutida à frente. Assumimos pouco sobre kG ,

somente simetria e limitação uniforme, permitindo que

modelos lineares possam ser utilizados. Não utilizamos

modelos obtidos por Taylor pois nos interessa o caso onde,

apesar de existentes, as derivadas não estão disponíveis.

Consideramos a medida de estacionariedade do problema

de minimizar kQ sobre o conjunto convexo e fechado

em kx definido por,

,k k k

k P x g x (27)

onde P denota a projeção ortogonal sobre o conjunto

. Note que o ponto *x é estacionário para o

problema original (1) se, e somente se,

* * * 0P x f x x .

Para provar convergência a pontos estacionários,

assumimos que as soluções aproximadas, k nd , dos

subproblemas de região de confiança

minimizar ( )

sujeita a

k

k

k

Q d

x d

d

(28)

satisfaçam a condição de decréscimo

10 min , ,1 ,1

k k

k k k k

k

Q Q d cG

(29)

onde 1 0c é uma constante independente de k.

Condições deste tipo são bem conhecidas na abordagem de

região de confiança em diferentes situações. No caso

irrestrito, a medida k é simplesmente kg e o clássico

passo de Cauchy a satisfaz (Nocedal e Wright, 1999; Conn

et al., 2009).

Em (Gonzaga et al., 2003), os autores provam

convergência global em um método de filtro assumindo

soluções aproximadas de subproblemas satisfazendo

condição análoga. Para otimização sem derivadas em

caixas, os autores em (Tröltzsch, 2011) também assumem

esta condição.

Depois de calculada uma solução aproximada do

subproblema, analisamos se a solução fornece um

decréscimo satisfatório no modelo. Como usual em

métodos de região de confiança, o passo tentativo é

avaliado por meio da razão

.0

k k k

k k

k k

f x f x d

Q Q d

(30)

Apresentamos agora o algoritmo de região de confiança

sem derivadas, sem especificar como o modelo é

atualizado e qual algoritmo interno é utilizado para

resolver os subproblemas.

42

Algoritmo Geral

0

0

1

1

3Dados: , 0, 0, 0, .

4

Defina 0.

REPITA

Se , então

, 0 e .2

Senão

Encontre uma solução aproximada do

subprobklema satisfazendo (2).

k k

k k kk

k

k

x

k

d x x

d

1

1

1

1

Se , então

e .

Senão

e .2

1

k

k k k

k k

k k k

k

x x d

x x

k k

2.1 Análise de Convergência

Provamos que, sob hipóteses razoáveis, todo ponto de

acumulação da sequência gerada pelo algoritmo é

estacionário. De agora em diante, assumimos que o

algoritmo gera uma sequência infinita kx .

As hipóteses a seguir são úteis na análise de convergência.

H1. 1f C e f Lipschitziana com constante de

Lipschitz 0L .

H2. f é limitada inferiormente no conjunto .

H3. As matrizes kG são limitadas superiormente,

isto é, existe 1 tal que para todo ,k

1.kG

H4. Existe uma constante 2 0c tal que

2

k k

kg f x c

para todo k .

As Hipóteses H1, H2 e H3 são comuns em análise de

convergência.

A Hipótese H4 impõe que o modelo represente

adequadamente a função objetivo. A Hipótese H4 é

omitida em alguns algoritmos práticos e com bons

resultados numéricos (Conn et al., 1998; Fasano et al.,

2009), mas para nosso algoritmo é uma propriedade

fundamental para esta- belecer convergência.

Supondo válidas as hipóteses anteriores, mostramos que a

sequência de regiões de confiança k e a sequencia de

mediadas k convergem para zero. Em seguida,

utilizando a não expansividade da projeção estabelecemos

a relação

3 4 ,k k k

k kP x f x x c c (31)

com 3c e

4c constantes positivas independentes de k.

Concluímos que a medida de estacionariedade,

k k kP x f x x , do problema original converge

para zero. Assim, todo ponto de acumulação da sequência

kx gerada pelo algoritmo é estacionário de primeira

ordem.

3 CONCLUSÕES

Com hipóteses naturais, provamos convergência a ponto

estacionário de primeira ordem para um algoritmo de

região de confiança sem derivadas com restrições

convexas. Pesquisas futuras são necessárias para estender a

análise em problemas com domínios gerais..

REFERÊNCIAS

Conn A.R., Scheinberg K., e Toint P.L. A Derivative Free

Optimization Algorithm in Practice. Em Proceedings

of the AIAA Conference. St Louis, 1998.

Conn A.R., Scheinberg K., e Vicente L.N. Introduction to

Derivative-Free Optimization. MPSSIAM Series on

Optimization. SIAM, Philadelphia, 2009.

Fasano G., Morales J.L., e Nocedal J. On the geometry

phase in model-based algorithms for derivative-free

optimization. Optimization Methods and Software,

24:145–154, 2009.

Gonzaga C.C., Karas E.W., e Vanti M. A globally

convergent filter method for nonlinear programming.

SIAM J. Optimization, 14(3):646–669, 2003.

Nocedal J. e Wright S.J. Numerical Optimization. Springer

Series in Operations Research. Springer-Verlag,

1999.

Tröltzsch A. An Active-set Trust-Region Method for

Bound-Constrained Nonlinear Optimization without

Derivatives Applied to Noisy Aerodynamic Design

Problems. Tese de Doutorado, Université de

Toulouse, 2011.

43

PROPOSTA DE UM ALGORITMO DE OTIMIZAÇÃO BASEADO EM

ENXAMES DE PARTÍCULAS

Sinvaldo R. Moreno, Eloy Kaviski.

Palavras-Chave: Otimização, Programação Matemática, Enxames de Partículas, Convergência

1 INTRODUÇÃO

Otimização por Enxame de Partículas, ou do original em

inglês Particle Swarm Optimization (PSO), foi proposto

por Kennedy e Eberhart (1995). Neste trabalho um novo

algoritmo é proposto visando resolver os problemas

existentes no PSO, relacionados a incapacidade do

coeficiente de inércia 𝜔 retornar ao seu valor inicial, a

explosão da velocidade das partículas e estagnação em

mínimos locais. O algoritmo foi aplicado a algumas

funções de teste e apresentou bons resultados.

2 ALGORITMO PSO PROPOSTO

O PSO possui a configuração 𝐿𝑏𝑒𝑠𝑡 e a 𝐺𝑏𝑒𝑠𝑡 , que se

distinguem pela forma e número de partículas que

compreendem a vizinhança de uma partícula. O esquema

𝐿𝑏𝑒𝑠𝑡 ou PSO Local está relacionado com a melhor

partícula na vizinhança do indivíduo 𝑥𝑖, já o 𝐺𝑏𝑒𝑠𝑡 ou PSO

Global com a melhor partícula em todo enxame (Kennedy

and Eberhart, 1995). O algoritmo desenvolvido combina o

coeficiente de inércia 𝜔, o coeficiente de constrição 𝜒 e o

algoritmo PSO Unificado (UPSO) proposto por

Parsopoulos and Vrahatis (2004). O algoritmo utiliza os

dois esquemas do PSO através de um coeficiente de

unificação 𝑢 combinando a habilidade de exploração local

do esquema 𝐿𝑏𝑒𝑠𝑡 e a capacidade de busca global do 𝐺𝑏𝑒𝑠𝑡 , chamado de PSO Unificado Modificado (M-UPSO), o

mesmo é descrito nas equações (1), (2) e (3).

𝐺𝑖𝑑𝑘+1 = 𝜔 𝑉𝑖𝑑

𝑘 + 𝜒[𝑐1 𝑟1𝑘(𝑃𝑖𝑑

𝑏𝑒𝑠𝑡 − 𝑋𝑖𝑑𝑘 )] +

+𝜒[𝑐2 𝑟2𝑘(𝐺𝑏𝑒𝑠𝑡

𝑘 − 𝑋𝑖𝑑𝑘 )] (1)

𝐿𝑖𝑑𝑘+1 = 𝜔 𝑉𝑖𝑑

𝑘 + 𝜒[𝑐1 𝑟1𝑘(𝑃𝑖𝑑

𝑏𝑒𝑠𝑡 − 𝑋𝑖𝑑𝑘 )] +

+𝜒[𝑐2 𝑟2𝑘(𝐿𝑏𝑒𝑠𝑡

𝑘 − 𝑋𝑖𝑑𝑘 )] (2)

𝐿𝑖𝑑𝑘+1 = 𝑢𝐺𝑖𝑑

𝑘+1 + (1 − 𝑢) 𝐿𝑖𝑑𝑘+1 (3)

Os indíces correspondentes representam: 𝑑 = 1,… , 𝐷; onde 𝐷 é a dimensão do espaço de busca da solução;

𝑖 = 1,… , 𝑁; com 𝑁 representando o tamanho do enxame;

𝑘 é o número de iterações; 𝜔 é o peso inercial; 𝑟1 e 𝑟2 são

números aleatórios, 𝑈 ∈ [0,1]; 𝑐1e 𝑐2 são os coeficientes

cognitivos individual e social e assumem valores iguais a

2,05. O M-UPSO ainda faz uso do coeficiente de

constrição 𝜒 que assume o valor igual à 0,729; o

coeficiente de unificação 𝑢 assume valores tais que

𝑢 ∈ [0,1]. Um novo método é proposto para a variação

linear da inércia 𝜔 e é descrito pela equação (4), onde i

representa a partícula avaliada na iteração atual e o total de

partículas no enxame é representado por 𝑁.

𝜔(𝑖) = 𝜔𝑚𝑎𝑥 − (𝜔𝑚𝑎𝑥−𝜔𝑚𝑖𝑛

𝑁) 𝑖 (4)

O processo de exploração do espaço de soluções realizado

pelo M-UPSO é descrito como um passo iterativo 𝑘 ≥ 0

na equação (3), com 𝑖 = 1,… , 𝑁; onde 𝑁 é finito e

𝑋𝑖𝑑𝑘 ∈ 𝑅𝑛 é a posição atual do 𝑖𝑡ℎ indíviduo da

população, a velocidade 𝑉𝑖𝑑𝑘 ∈ 𝑅𝑛 é a direção de busca,

𝐿𝑖𝑑𝑘+1 e 𝐺𝑖𝑑

𝑘+1compõem a nova posição no passo 𝑘 + 1.

2.1 Convergência do Algoritmo

A prova da convergência utilizou das equações (1) e (3)

com 𝑢 = 1, onde foi avaliada a trajetória de uma partícula

isolada em intervalo de tempo discreto, portanto 𝑥𝑡 representa o valor de 𝑥𝑖

𝑘, neste caso, pode-se eliminar o

subscrito 𝑖 e a notação vetorial. Fazendo a substituição da

equação (3) na equação (1), escrevendo a componente

estocástica 𝑐1𝑟1 = 𝜓1 e 𝑐2𝑟2 = 𝜓2 e adotando a relação

𝑥𝑡 = 𝑥𝑡−1 + 𝑣𝑡 , a velocidade no tempo 𝑡 pode ser escrita

como 𝑣𝑡 = 𝑥𝑡 − 𝑥𝑡−1, de onde se obtém a seguinte forma

de recorrência:

𝑥𝑡+1 = (1 + 𝜔 − 𝜒𝜓1 − 𝜒𝜓2)𝑥𝑡 −𝜔𝑥𝑡−1 +

+𝜒𝜓1𝑝𝑡 + 𝜒𝜓2 𝑔𝑏𝑒𝑠𝑡 (5)

[𝜆2 − 𝜆(1 + 𝜔 − 𝜒(𝜓1 +𝜓2)) + 𝜔]. (1 − 𝜆) = 0 (6)

Obtendo as três raízes deste polinômio, têm-se uma raiz

em 𝜆1 = 1 e as outras duas são obtidas das relações:

𝜆2 = 𝛼 =𝜔 − 𝜒(𝜓1 + 𝜓2) + 1 + 𝛾

2 (7)

𝜆3 = 𝛽 =𝜔 − 𝜒(𝜓1 + 𝜓2) + 1 − 𝛾

2 (8)

𝛾 = √[𝜔 − 𝜒(𝜓1 + 𝜓2) + 1]2 − 4𝜔 (9)

Os valores de 𝛾 são obtidos através da equação (9) e

deverão estar no domínio dos complexos (𝛾 ∈ 𝐶) ,

conforme será visto ulteriormente, para o M-UPSO

convergir. O algoritmo PSO Padrão não utiliza o

coeficiente de constrição 𝜒, podendo portanto, para

algumas condições iniciais ser satisfeita a condição de

𝛾 ∈ 𝑅 no PSO Padrão. Desta forma Clerc e Kennedy

(2002) fizeram uma análise das condições de convergência

quando 𝛾 ∈ 𝑅 e concluíram que não é uma condição

necessária para o PSO Padrão. Pode se observar que 𝛼 e 𝛽

são autovalores da matriz que representa a equação (5) e

uma forma explicita da relação de recorrência pode ser

escrita como:

𝜉1 =𝜔𝑥0 + 𝜒(𝜓1𝑝𝑡 + 𝜓2𝑔𝑡𝑏𝑒𝑠𝑡)

𝜔 + 𝜒(𝜓1 + 𝜓2) (10)

𝜉2 =𝛽(𝑥0 − 𝑥1) − 𝑥1 + 𝑥2

𝛾(𝛼 − 1) (11)

𝜉3 =𝛼(𝑥1 − 𝑥0) + 𝑥1 − 𝑥2

𝛾(𝛽 − 1) (12)

𝑥𝑡 = 𝜉1 + 𝜉2𝛼𝑡 + 𝜉3𝛽

𝑡 (13)

A equação (13) pode ser utilizada para calcular a trajetória

44

da partícula assumindo que 𝑝𝑡 , 𝑔𝑡𝑏𝑒𝑠𝑡 , 𝜉1, 𝜉2 e 𝜔

permanecem constantes. A sequência (𝑥𝑡)𝑡=0+∞ tem sua

convergência determinada pela magnitude dos valores de

𝛼 e 𝛽 obtidos através da equação (7) e (8). Considerando o

valor de 𝑥𝑡 no limite, tem-se:

lim𝑡→∞

𝑥𝑡 = lim𝑡→∞

𝜉1 + 𝜉2𝛼𝑡 + 𝜉3𝛽

𝑡 (14)

lim𝑡→∞

𝑥𝑡 = lim𝑡→∞

𝜉1 + 𝜉2𝛼𝑡 + 𝜉3𝛽

𝑡 = 𝜉1 (15)

A condição descrita na equação (15) ocorrerá desde que

lim𝑡→∞ 𝛼𝑡 = 0 se ‖𝛼‖ < 1 e limite lim𝑡→∞ 𝛽

𝑡 = 0 se

‖𝛽‖ < 1. Entretanto se ‖𝑧‖ = 1 , neste caso 𝑧 pode

representar 𝛼 ou 𝛽, o limite dado pela equação (14) não

existe e a sequência (𝑥𝑡)𝑡=0+∞ diverge.

3 RESULTADOS

O M-UPSO foi aplicado a algumas funções testes, obtendo

resultados superiores ao PSO Padrão, conforme tabela 1:

Função

Rosenbrock

PSO Padrão M-UPSO

𝐿𝑏𝑒𝑠𝑡 𝐺𝑏𝑒𝑠𝑡 𝑢 = 0.5 𝑢 = 1

Média 𝐹(𝑥) 3,2𝐸−21 0.0 0.0 0.0

RMSE 2.4𝐸−11 0.0 0.0 0.0

Média

Iterações

2.300 1.483 572 667

Média

Avaliações

72.024 59.628 13.759 16.009

Runtime(s) 21,20 17,50 4,00 4,51

Função

Rastrigin

PSO Padrão M-UPSO

𝐿𝑏𝑒𝑠𝑡 𝐺𝑏𝑒𝑠𝑡 𝑢 = 0.5 𝑢 = 1

Média 𝐹(𝑥) 3,0𝐸−15 2,4𝐸−15 6,2𝐸−16 8,4𝐸−16

RMSE 1,8𝐸−9 1,7𝐸−9 9,1𝐸−10 9,3𝐸−10

Média

Iterações

1.011 949 67 61

Média

Avaliações

24.306 22.812 1.651 1.494

Runtime(s) 8,3 7,8 4,15 1,81

Tabela 1: Resultados para funções teste do PSO

4 CONCLUSÕES

O algoritmo proposto apresenta rápida convergência além

de ter resolvido o problema relacionado ao coeficiente de

inércia não retornar ao valor inicial como no PSO Padrão.

O M-UPSO pode ainda ser utilizado sem o limitador de

velocidade máxima e a velocidade inicial adotada pode ser

nula. Este algoritmo é de fácil implementação além de

apresentar baixo custo computacional.

REFERÊNCIAS

Clerc M. and Kennedy J. The particle swarm - explosion,

stability, and convergence in a multidimensional

complex space. Evolutionary Computation, IEEE

Transactions on, 6(1):58–73, 2002. ISSN 1089-

778X.

Kennedy J. and Eberhart R.C. Particle swarm

optimization. pages 1942–1948. Proceedings IEEE,

1995. IEEE Service Center, Piscataway, NJ, pp. IV.

Parsopoulos K. and Vrahatis M. "upso": A unified particle

swarm optimization scheme. In Proceedings of the

International Conference of Computational Methods

in Sciences and Engineering (ICCMSE 2004),

volume 1, pages 868–873. 2004.

45

TRATAMENTO DE INCERTEZAS UTILIZANDO PROGRAMAÇÃO DINÂMICA

DETERMINÍSTICA

Leandro A. Nacif, Marcelo R. Bessa.

Palavras-Chave: Otimização, Programação Dinâmica, Operação de Reservatórios, Programação Matemática.

1 INTRODUÇÃO

A bacia do rio Iguaçu está localizada na região sul do

Brasil e é um dos principais afluentes do rio Paraná. Na

cabeceira se localiza o reservatório da Usina de Foz do

Areia (Governador Bento Munhoz, 1676 MW) com um

volume útil de 3.805 hm3 vide Figura 1 e, imediatamente a

jusante, afogando seu canal de fuga, se encontra o

reservatório de Segredo (Governador Ney Braga, 1260

MW) com um volume útil de 388 hm3.

O reservatório de Segredo recebe, além da vazão defluente

de Foz do Areia e a sua vazão incremental, uma vazão

transferida do reservatório do desvio do rio Jordão (DRJ)

Figura 1. Esta transferência de vazão se dá através de um

túnel subterrâneo que liga o reservatório de Segredo ao

reservatório do desvio do Jordão e o sistema de

transferência de vazão é o mesmo de vasos comunicantes,

onde a quantidade de vazão transferida é função da

diferença entre as cotas montantes de Segredo e DRJ. O

reservatório de DRJ possui uma PCH que turbina uma

vazão constante de 10 m3/s e um vertedouro tipo lâmina

livre que verte automaticamente quando sua cota excede a

cota da soleira da comporta (610m).

A bacia do Iguaçu é também conhecida por não possuir

uma sazonalidade definida no regime de vazões, por ser

uma bacia de resposta muito rápida à precipitação e por ter

uma grande variabilidade em seu histórico de vazões,

fazendo com que as previsões de vazão de meses à frente

sejam pouco confiáveis. Esta imprevisibilidade dificulta o

planejamento da geração destas usinas levando-as a

consideráveis vertimentos, como se observa na Tabela1.

Estes aspectos reunidos em uma única bacia permitem

trata-la como única dentro do Sistema Interligado Nacional

- SIN e motiva uma modelagem distinta das modelagens

tradicionais já publicadas na literatura e daquela utilizada

pelos atuais modelos oficiais adotados pelo Operador

Nacional do Sistema, o responsável pelo planejamento da

operação do Sistema Interligado Nacional. Este trabalho

tem como objetivos mostrar os impactos de uma

modelagem adequada do afogamento do canal de fuga e da

transferência de vazão e propor uma forma no tratamento

das incertezas no tocante às vazões.

Foz do Areia - Média Anual

Ano Vert(m3/s) Vert(% MLT)

2011 254 39,3

2010 244 37,7

2009 156 24,1 Tabela 1: Média Anual dos Vertimentos Verificados para Foz do

Areia

Figura 1: Topologia do Sistema

2 METODOLOGIA

Para a representação matemática de bacias com estas

características a Programação Dinâmica se destaca por ser

um método que possui grande flexibilidade para o

tratamento de características especiais e principalmente

pela forma como ela trata as incertezas relativas às vazões,

com destaque para a Programação Dinâmica Estocástica

(Labadie, 2004). Ocorre que esta representação possui um

grande custo computacional que a torna inviável. Desta

forma será apresentado uma maneira de tratar as incertezas

externamente ao algoritmo de Programação Dinâmica sob

a forma de custo de operação e com isto, ocorre a

otimização de forma determinística.

Programação Dinâmica teve como horizonte de estudo 1

mês, ao fim deste deve-se ter alguma informação sobre o

futuro, sob a forma de custo de operação. Será então

construída uma curva de custo de operação para o segundo

mês através da utilização de uma metodologia adaptada da

Teoria Estocástica dos Reservatórios em conjunto com a

geração de Series Sintéticas e o Método de Monte Carlo,

como descrito por (Kelman, 1987) e (GOMIDE, 1986).

Com o objetivo de assegurar a compatibilidade da curva de

custo para o segundo mês com as curvas do primeiro mês,

o método de Monte Carlo foi utilizado com uma

modelagem muito próxima àquela utilizada na

Programação Dinâmica para o primeiro mês. Entretanto,

neste caso não é resolvido um problema de otimização

para cada estado, mas sim uma vazão turbinada constante

sendo o maior valor entre disponibilidade da usina e limite

máximo de geração. A Função de Produção também sofreu

uma alteração e está apresentada pela Equação 1. A Figura

2, que traz toda a informação acerca da incerteza, mostra

uma forma desta função que é uma projeção da função

completa, considerando o nível do reservatório do Jorão

constante. Maiores detalhes sobre esta abordagem podem

ser encontrados em (Nacif, 2012).

),,(].)..[(),,( pjmlvtlvt hNNHQqdisphQqP (1)

onde:

P - Geração hidroelétrica (MW médios)

46

- Produtividade Específica

m

smMW // 3

tq - Vazão Turbinada (m3/s)

vQ - Vazão vertida (m3/s)

lH - Altura de queda Líquida (m)

disp - Disponibilidade da usina no segundo mês

As variáveis em letra maiúscula são aleatórias.

Figura 2: Função de Custo

3 RESULTADOS E CONCLUSÕES

Será apresentado uma simulação do despacho proposto

pela Programação Dinâmica, bem como uma comparação

com os dados observados. Foram então rodados os casos

referentes à todos os meses do ano 2011, com a

metodologia processando o horizonte de dois meses, sendo

utilizado apenas o despacho para o primeiro mês. Desta

forma, foram processados 12 casos com a Programação

Dinâmica sendo uma janela de 2 meses móvel a cada mês.

Os níveis finais de cada primeiro mês alimentaram os

respectivos meses subsequentes e a vazões utilizadas

foram as geradas para o 2 mês e previstas para o primeiro,

bem como as verificadas para utilização na simulação.

Cabe ressaltar que para o primeiro mês, janeiro de 2011, o

nível inicial provém da rodada da PDDD para dezembro

de 2010, com a finalidade de apresentar os resultados para

o ano de 2011 na sua totalidade.

2011 Ger(MWm) Vert.(m3/s)

GBM Ver. 908.4 254.5

GBM Sim. 1038.7 121.1

SGD Ver. 880.5 401.3

SGD Sim. 1119.9 408.2 Tabela 2: Comparação entre despacho proposto pela

PDDD com valores verificados em 2011.

A Tabela 2 mostra os resultados da simulação do despacho

proposto para 2011. Pode-se observar uma redução de

mais de 50% nos vertimentos em Foz do Areia, bem como

uma geração média anual 14 % maior para GBM e 27%

maior em Segredo.

REFERÊNCIAS

GOMIDE F.L.S. Teoria estocastica dos reservatórios

aplicada ao planejamento energetico de sistemas

hidreletricos. Ph.D. thesis, Universidade Federal do

Paraná., 1986. Tese (Titular), Departamento de

Hidráulica e Saneamento.

Kelman J. Modelos estocasticos no gerenciamento de

recursos hÃdricos. Modelos para gerenciamento de

recursos hÃdricos, ABRH, 1987. São Paulo: Nobel.

Labadie J.W. Optimal operation of multireservoir systems:

State-of-the-art review. Journal Of Water Resources

Planningand Management, 2004.

Nacif L.A. Operação energetica dos reservatórios de

foz do areia, segredo e derivação do jordão na

bacia do iguaçu. In booktitle. 2012. Congresso

Brasileiro de Planejamento EnergÃc tico, Curitiba,

2012.

47

UM SISTEMA PARA REPOSIÇÃO DO ESTOQUE EM UMA EMPRESA

PÚBLICA

Ednaldo de Oliveira Martins, Neida Maria Patias Volpi. Palavras-Chave: Estoque, Pesquisa Operacional, Otimização, Programação Matemática.

1 INTRODUÇÃO

A administração de estoque de materiais tem sido alvo de

inúmeros estudos por parte de gestores e acadêmicos. As

instituições públicas brasileiras devem utilizar ferramentas

modernas para melhor administrar os seus estoques de

materiais. Este trabalho propõe um modelo de

gerenciamento para o estoque de peças e equipamentos,

utilizando técnicas de Pesquisa Operacional. Controlar e

gerir peças de reposição significa encontrar respostas

viáveis e eficientes para questões básicas de qualquer

sistema de controle de estoque (BOTTER & FORTUIN,

2000, p. 656-674): quais peças devem ser estocadas?

Quando estas peças devem ser ressupridas? Qual deve ser

a quantidade do pedido? Com tantos requisitos essenciais

relacionados a estes tipos de itens, é natural que a gestão

das peças de reposição se torne uma importante área de

pesquisa dentro do controle de estoque (HUISKONEN,

2001, p. 125-133). Neste trabalho será apresentado um

sistema para ajudar nestas questões.

2. DESCRIÇÃO DO SISTEMA DE REPOSIÇÃO DE

ESTOQUE

O modelo proposto tem quatro etapas: a primeira consiste

na seleção dos itens que provocam o maior impacto no

orçamento; na segunda é feita uma previsão de demandas

destes itens; estas informações são utilizadas em uma

terceira etapa onde um programa foi desenvolvido para

planejar as compras dos itens nos períodos escolhidos em

função de um crédito previsto; na quarta etapa a compra é

feita em função do crédito recebido.

Propõe-se que na seleção dos itens seja utilizada a

classificação ABC (FILHO, 2004, p.35) e que a previsão

seja apoiada pelo estudo das séries históricas das

demandas dos materiais classificados como do tipo A.

Na terceira etapa, as informações da primeira e da segunda

etapas são empregadas numa planilha denominada

PLANEJATRI_COMPRAS (P_C), vinculada a um

programa de otimização (PLANEJATRI), desenvolvido no

ambiente do LINGO, que propõe a reposição, em cada

período, dos materiais com demanda e orçamento

previstos.

Na quarta etapa, um segundo programa (COMPRAS),

também desenvolvido no LINGO e vinculado àquela

mesma planilha atualiza o planejamento da compra

mediante o crédito disponível.

O planejamento de compras e estoque é feito inicialmente

em função da previsão da demanda de cada item e da

quantidade existente no estoque. Considerou-se reposição

trimestral, mas o programa pode ser alterado para atender

em períodos diferentes. Essa previsão de gastos é

informada ao órgão superior responsável pela liberação do

crédito, que responde com uma previsão de crédito.

De posse da previsão de crédito, o PLANEJATRI propõe a

reposição (compra) ótima para cada trimestre do ano

seguinte. Em algumas empresas públicas ocorre que o

crédito não chega conforme o previsto, isto é, nos prazos e

valores planejados. Dessa forma, o crédito pode ser maior

ou menor do que o previsto e, além disso, pode chegar em

períodos diferentes do planejado. Assim, faz-se necessário,

tomar decisões diferenciadas e, o programa COMPRAS

auxilia na decisão da compra ótima, após a chegada do

crédito, de fato.

2.1 Entrada de Dados

Nessa etapa a planilha P_C recebe as informações dos

itens selecionados pela classificação ABC e os respectivos

dados que serão empregadas no modelo. As informações

essenciais são:

Identificação dos itens;

Previsão trimestral de cada item do planejamento;

Estoque no ano anterior;

Valor de cada item j (vj);

Estoque mínimo; e

Previsão de crédito.

Além dessas informações, o programa admite informações

complementares que serão usadas como fatores de peso na

decisão da reposição:

Estoque de segurança;

Vida útil de cada item (ftempo);

Lead time (tempo entre a compra e a chegada do item); e

Prioridade (prioj que é um peso atribuído pelo gerente de

acordo com seu conhecimento estratégico).

Com a entrada dos dados a planilha gera automaticamente

outras informações que serão utilizados no planejamento,

inclusive um planejamento inicial que é utilizado como

referência.

2.2 Programa de Planejamento PLANEJATRI

O modelo de planejamento foi codificado no

PLANEJATRI, e desenvolvido no LINGO 12.0. É um

programa de otimização que interage com a P_C. O

PLANEJATRI utiliza as informações do estoque, da

previsão da demanda, das características dos materiais e da

disponibilidade de crédito para planejar a compra ótima,

em função do crédito previsto. O objetivo deste programa

é encontrar uma solução que maximiza o valor total da

compra, minimiza o valor total do estoque e minimiza o

número de itens não atendidos quando o crédito é menor

do que o previsto. As variáveis de decisão são:

i. xpcij: previsão da quantidade a ser adquirida do item j

no período i;

ii. prev_natij: previsão da quantidade não atendida do item

j no período i quando o crédito previsto é

menor do que o valor de referência;

iii. prev_eij: previsão do número de itens j que

permanecerá no estoque no final período i.

O fbomj associado ao item j é um parâmetro que é

diretamente proporcional à demanda anual do item, isto é,

quanto maior a sua demanda, maior é o peso dado à

decisão de comprá-lo. Considerou-se como fbomj a

demanda anual do item j. O fmauj associado ao item j é um

48

parâmetro que é inversamente proporcional ao valor do

item, isto é, quanto maior o seu valor menor é o peso dado

à decisão de comprá-lo. Considerou-se como fmauj o

inverso do valor do item j. Para compor, em fim, os

coeficientes das variáveis do modelo, o PLANEJATRI

utiliza as informações complementares fornecidas pelo

gerente, como pesos diretamente proporcionais aos

respectivos valores: ftempoj, leadtimej e prioj.

A função objetivo do modelo a ser maximizada foi

representada da forma:

t

1i

n

1j

ijjj

t

1i

n

1j

ijj

t

1i

n

1j

ijjjjj

nat_prev*prio*fbome_prev*v

xpc*ftempo*leadtime*fmau*fbom)x(z

onde n representa o número de itens e t o número de

períodos do planejamento.

As restrições utilizadas representam o fluxo de entrada e

saída de itens por período, o estoque mínimo de segurança

por item, o estoque máximo de cada item por período, a

compra máxima por item e período e o crédito previsto

para cada período. Os parâmetros e, ponderam a

função objetivo evitando que valores de ordem de

grandezas diferentes tendenciem as decisões.

Após a execução do PLANEJATRI é possível avaliar o

valor da compra efetuada VC e o valor do estoque VE em

cada período t.

2.3 Programa COMPRAS

Com a chegada do crédito emprega-se o programa

COMPRAS. É um programa semelhante ao

PLANEJATRI, isto é, um programa de otimização

desenvolvido no LINGO 12.0 que interage com a planilha

P_C. O COMPRAS utiliza as informações atualizadas dos

itens e do crédito que chegou de fato para efetuar a compra

ótima, para um período ou mais, dependendo da

quantidade recebida. Se o crédito for maior que o previsto

para o período o gerente pode acrescentar um percentual

acima do previsto inicialmente ou ainda, a demanda dos

próximos períodos. Se não houve compras em períodos

anteriores ao crédito, a demanda anterior é acrescida à

demanda atual. Se houve compras em períodos anteriores

que não atenderam totalmente a demanda, esse resíduo

(demanda não atendida) também é acrescido à demanda

atual. A decisão de comprar é tomada em função dos

mesmos objetivos do PLANEJATRI. As variáveis de

decisão são:

i. xcij: quantidade a ser adquirida do item j no período i;

ii. natij: previsão da quantidade não atendida do item j

no período i quando o crédito previsto é menor do

que o valor de referência;

iii. eij: previsão do número de itens j que permanecerá no

estoque no final período i.

As restrições são as mesmas utilizadas no programa

anterior, mas com os valores atualizados. Existe um

programa COMPRAS para cada período do planejamento.

A função objetivo do modelo a ser maximizada foi

representada da forma:

1

1 1

( ) * * * *

* * * ; 1

n

i j ij j j ij

j

n n

ij ij j j ij

j j

z x fbom fmau leadtime ftempo xc

v e fbom prio nat i t

3 ESTUDO DE CASO

Foi aplicado o sistema de gerenciamento de estoque em

um estudo de caso onde 8 itens foram considerados, esses

itens representaram 90% do custo total de uma empresa

com uma determinada “classe” de itens. A previsão da

demanda de cada item foi feita utilizando a previsão

automática de séries temporais do software Statgraphics.

Com os dados dos itens e a previsão de crédito foi

realizado o planejamento trimestral, onde houve uma

redução no valor do estoque de 2610,99 unidades

monetárias para 1917,52; redução de 26,56%. O programa

possibilita também aumentar quantidade de itens previstos

para serem adquiridos, neste caso foi utilizado o valor de

5%.

Com a chegada do crédito é acionado o programa

COMPRAS. Foram realizadas diversas simulações de

chegada de crédito a fim de analisar o comportamento do

programa diante de possíveis cenários.

4 CONCLUSÕES FINAIS

Após testes considerando vários tipos de cenários, tais

como, recebimento de crédito sem atraso, crédito atrasado,

valor disponível abaixo do previsto e acima do previsto e

mudanças de prioridades verificou-se que o sistema

mostrou-se amigável e flexível em função de vários

parâmetros que podem ser controlados pelo planejador e

executor das compras. Vale a pena frisar que os modelos

apresentados são úteis em dois momentos: o PLANETRI

para fazer a previsão de crédito necessário para as

demandas do próximo ano, o COMPRAS no momento que

o crédito é disponibilizado e não é exatamente o que foi

previsto no planejamento, que é o que acontece em muitos

casos.

REFERÊNCIAS BIBLIOGRÁFICAS BOTTER, R., & FORTUIN, L. Stocking strategy for

service parts: A case study. International Journal of

Operations & Production Management, 20 (6). p.

656-674, 2000.

FILHO, E. KERBER. Metodologia para Implementação de

um Sistema de Gestão de Estoques: Estudo do Caso

do Almoxarifado da Base Aérea de Canoas. p. 32-35,

2004.

HUISKONEN, J. Maintenance spare parts logistics:

special characteristics and strategic choices.

International Journal of Production Economics , 71.

p. 125-133, 2001.

49

PROGRAMAÇÃO LINEAR BINÁRIA NO PROBLEMA DA PROGRAMAÇÃO

DE HORÁRIOS ESCOLARES: UM ESTUDO DE CASO EM UM CURSO DO

ENSINO SUPERIOR

Pedro Rochavetz de Lara Andrade,Cassius Tadeu Scarpin, Maria Teresinha Arns Steiner.

Palavras-Chave: Programação Linear Binária, Geração da Grade Horária do Ensino Superior

1 INTRODUÇÃO

Neste trabalho é proposto um modelo matemático de

Programação Linear Binária (PLB), o qual tem como

objetivo construir a grade horária do curso de Engenharia

de Produção (EP) pertencente ao Departamento de EP

(DEP), da Universidade Federal do Paraná (UFPR). Serão

propostos os horários das disciplinas a serem ofertadas do

DEP para o curso de EP, ou seja, não serão consideradas

pelo modelo as disciplinas que o curso de EP recebe de

outros departamentos, nem as disciplinas que o DEP oferta

para outros cursos.

2 DESCRIÇÃO DO PROBLEMA

Em toda universidade, no início de cada semestre letivo

existe a necessidade de construir a grade horária de cada

curso. Essa tarefa consiste em definir os horários dos

professores que ministrarão as disciplinas a cada uma das

turmas do curso. Também existe a necessidade de se

realizar periodicamente reuniões administrativas, como

reuniões de departamento e de colegiado de curso. Para

agendá-las é preciso que todos os professores estejam

disponíveis simultaneamente.

As reuniões departamentais são mensais e as reuniões de

colegiado são, em geral, de duas por semestre. A fim de

permitir que exista um horário padrão para essas reuniões,

estipulou-se que o usuário deverá cadastrar um período de

duas horas, e nesse horário, o modelo não alocará

disciplina alguma para todos os professores.

3 METODOLOGIA

Será criado um modelo para cada semestre. O curso de EP

possui 11 professores, 24 disciplinas específicas, 12 por

semestre e 5 turmas. As variáveis do problema

representam um professor ministrando ou não, uma

disciplina para uma turma, em um horário do dia (Pereira,

Netto e Laracruz, 2007).

Criou-se um índice para as variáveis, o qual atrela

professores, disciplinas e turmas simultaneamente. Este

índice só será criado para conjuntos Professor-Disciplina-

Turma que representem um professor, as disciplinas que

ele ministra e as turmas que devem cursá-las. No caso

estudado, existem 32 conjuntos por semestre.

Considerando que cada conjunto pode ser alocado em um

dos 11 horários do dia, em um dos 5 dias da semana, o

número de variáveis do problema é de 1.760. As variáveis

são representadas conforme apresentado em (A):

𝑋𝑐,𝑑,ℎ (A)

Onde os três índices de X representam o conjunto

Professor-Disciplina-Turma, o dia e o horário que a

variável representa, respectivamente.

A Função Objetivo do problema é representada por (1).

𝑀𝑖𝑛 𝑍(𝑋) = ∑∑∑𝑃𝑐,𝑑,ℎ ∗ 𝑋𝑐,𝑑,ℎ

11

ℎ=1

5

𝑑=1

32

𝑐=1

(1)

Onde P traduz matematicamente a importância de uma

variável ser utilizada pelo modelo (Ribeiro Filho e Lorena,

2006). P é definido através do produto de outros três

coeficientes, cada um representa a importância de uma

situação específica, conforme apresentado em (2).

𝑃𝑐,𝑑,ℎ = 𝑃𝑐,𝑑,ℎ,1 ∗ 𝑃𝑐,𝑑,ℎ,2 ∗ 𝑃𝑐,𝑑,ℎ,3 (2)

O coeficiente P com índice 1 representa a preferência de

horários dos professores. Eles irão definir estes

coeficientes, variando de 1 a 10, colocando valores

menores para os horários de suas preferências.

O índice 2 representa a intenção de evitar aulas no período

das 11:30 às 12:30, horário de almoço. Este coeficiente

valerá 10 para as as variáveis que representem este horário,

para os outros casos, o valor será 1. (Pamplona e

Montevechi, 2005)

O índice 3 traduz a preferência por determinados horários

para cada turma, e com essa preferência, a intenção é criar

a tendência de que o modelo evite intervalos entre aulas

(janelas), e ainda intercale o período de oferta das

disciplinas específicas a cada ano.

As restrições do problema são as seguintes:

∑𝑋𝑐,𝑑,ℎ𝑐

≤ 1, ∀𝑑, ℎ. (4)

Restrição para impedir que um professor ministre duas

disciplinas no mesmo horário de um dia. Nessa restrição, c

varia entre os conjuntos que indicam um professor

específico, d varia de 1 (segunda-feira) a 5 (sexta-feira) e h

varia de 1 (7:30) a 11 (18:30).

∑𝑋𝑐,𝑑,ℎ𝑐

≤ 1, ∀𝑑, ℎ. (5)

Para impedir que sejam ofertadas para uma turma, duas

disciplinas no mesmo horário de um dia. Onde c varia

entre os conjuntos que representam uma turma específica.

∑∑𝑋𝑐,𝑑,ℎ

11

ℎ=1

5

𝑑=1

= 𝑊𝑐, ∀ 𝑐 (6)

∑∑𝑋𝑐,𝑑,ℎ

11

ℎ=1

5

𝑑=1

= 𝑌𝑐 ∗ 𝑊𝑐, ∀ 𝑐 (7)

Para alocar na grade horária, a carga horária total de todas

as disciplinas. Onde W é o valor da carga horária da

disciplina em questão, em horas aula. Para disciplinas

optativas, W é multiplicado por uma variável Y, também

binária, que valerá “1” caso a optativa seja ofertada, e “0”

caso contrário. Conforme apresentado em (7).

∑𝑋𝑐,𝑑,ℎ𝑐

+ 𝑋𝑐,𝑑,ℎ+1 = 0 (8)

Para garantir um horário de duas horas para as reuniões

administrativas. c varia entre todos os conjuntos, d e h são

definidos pelo usuário.

𝑋𝑐,𝑑,ℎ + 𝑋𝑐,𝑑,ℎ+𝐿 ≤ 1, ∀𝑐, 𝑑, ℎ (9)

50

Para alocar as aulas organizadamente ao longo da semana.

Onde h+L é o conjunto de todos os horários que não

podem ser alocados em conjunto com a variável do horário

h.

∑∑∑𝑋𝑐,𝑑,ℎ

11

ℎ=1

5

𝑑=1𝑐

≥ 𝑇𝑡 (10)

Para garantir que as turmas recebam toda a carga horária

do período em que se encontram. O índice c varia entre os

que representam uma turma específica, e T é o valor da

soma das cargas horárias de todas as disciplinas que esta

turma deve receber em um semestre.

∑∑∑𝑋𝑐,𝑑,ℎ

11

ℎ=1

5

𝑑=1𝑐

≥ 𝑍𝑝 (11)

Para garantir que todos os professores cumpram sua carga

horária mínima em sala de aula. Onde c varia entre os que

representam um professor específico, e Z é o valor da

carga horária mínima que o professor deve cumprir.

∑𝑋𝑐,𝑑,ℎ𝑐

= 0 (12)

Para impedir que sejam alocadas aulas para uma turma em

horários que ela possua aulas de outros departamentos.

Onde d e h são definidos pelo usuário, e c varia entre os

conjuntos que representam uma turma específica. (Socha,

Knowles, Sampels, 2002).

4 IMPLEMENTAÇÃO E RESULTADOS

O modelo foi executado no LINGO 12.0, em um

computador com processador i3, 4 GB de memória RAM.

O tempo de execução foi 42 segundos. A Figura 1 ilustra a

grade horária das turmas no primeiro semestre. As

disciplinas azuis foram alocadas pelo modelo, as brancas

foram decididas por outros departamentos.

Figura 1: Grade horária do primeiro semestre

Pode-se notar que as aulas alocadas para o quinto ano

foram alocadas de acordo com os pesos estabelecidos, no

primeiro ou no último horário do dia. Nota-se também que

a restrição de alocar as aulas organizadamente na semana

cumpre corretamente seu papel, alocando sempre aulas no

mesmo horário de dias intercalados da semana. Nota-se

também que o horário estabelecidos para as reuniões,

quarta-feira 13:30-15:30, foi respeitado, já que nenhuma

disciplina específica foi alocada nesse horário.

5 CONCLUSÕES

Neste trabalho apresentou-se a análise da situação do curso

de EP da UFPR, no que diz respeito à geração da grade

horária, e construído um modelo matemático que gerou a

grade horária do curso de EP.

Concluiu-se que o modelo é capaz de gerar a grade horária

do curso satisfatoriamente, portanto é viável para

utilização prática. O modelo é capaz de reduzir o esforço

para se realizar esta tarefa, visto que o tempo para sua

realização de forma empírica é de vários dias, e através do

modelo, diminui para alguns minutos, somando-se tempo

de cadastro e de processamento.

Notou-se também que o modelo atendeu a todas as

restrições e que o sistema de pesos também funcionou

satisfatoriamente, pois a maior parte das disciplinas foram

alocadas dentro da preferência estabelecida. Outra

conclusão a que se chegou foi a de que a restrição gerada

para que as aulas fossem alocadas organizadamente ao

longo da semana cumpriu corretamente o seu papel, porém

também “tirou” a liberdade do modelo no que diz respeito

a ocupar horários vagos da semana.

Para trabalhos futuros, sugere-se que os resultados sejam

comparados com os fornecidos por métodos heurísticos,

também que seja feita uma interface gráfica para interação

com o usuário. Outra sugestão é que se leve em

consideração também a questão da alocação das

disciplinas em salas de aula.

REFERÊNCIAS

Pamplona, E. D. O.; Montevechi, J. A. B. Engenharia

Econômica II. Itajubá, Instituto De Engenharia De

Produção E Gestão - Universidade Federal De

Itajubá. Apostila. 2005.

Pereira, R. S.; Netto, P. O. B.; Laracruz, A. J. O Método

Grasp Aplicado A Um Problema De Coloração:

Estudo De Caso Em Uma Instituição De Ensino

Fundamental E Médio. In: X Simpósio De Pesquisa

Operacional E Logística Da Marinha, 2007, Rio De

Janeiro.

Ribeiro Filho, G.; Lorena, L. A. N. An Integer

Programming Model For The School Timetabling

Problem. In: XIII Congresso Latino-Ibero Americano

De Investigación Operativa (CLAIO), 2006, [S.L.]

(INPE 14397-PRE/9484).

Socha, K.; Knowles, J.; Sampels, M. Max-Min Ant System

For The University Course Timetabling Problem.

Springer-Verlag Berlin Heidelberg, P.1-13, Setembro

2002.

1 Segunda Terça Quarta Quinta Sexta 2 Segunda Terça Quarta Quinta Sexta

07:30 CM041 CM045 CM041 CM045 CM041 07:30 TP002 CE003 TP002 CE003

08:30 CM041 CM045 CM041 CM045 CM041 08:30 TP002 CE003 TP002 CE003

09:30 CI208 TP001-A CI208 TP001-A 09:30 TP053 CF060 TP053 CF060

10:30 CI208 TP001-A CI208 TP001-A 10:30 TP053 CF060 TP053 CF060

11:30 11:30

12:30 12:30

13:30 CD020-B CD020-A CD020-B CD020-A 13:30 CF063 TP003 CF063 TP003

14:30 CD020-B CD020-A CD020-B CD020-A 14:30 CF063 TP003 CF063 TP003

15:30 TP001-B TP001-B 15:30

16:30 TP001-B TP001-B 16:30

17:30 17:30

18:30 18:30

Primeiro Ano Segundo Ano

3 Segunda Terça Quarta Quinta Sexta 4 Segunda Terça Quarta Quinta Sexta

07:30 TH046 TM115 TH046 TM115 07:30 TP010 TP015 TP909 TP015 TP909

08:30 TH046 TM115 TH046 TM115 08:30 TP010 TP015 TP909 TP015 TP909

09:30 TM218 TE160 TM218 TE160 TM117 09:30 TP010 TP933 TP013 TP933 TP011

10:30 TM218 TE160 TM218 TE160 TM117 10:30 TP010 TP933 TP013 TP933 TP011

11:30 TM117 11:30

12:30 12:30

13:30 TM219 TM219 13:30 TP016 TP018

14:30 TM219 TM219 14:30 TP016 TP018

15:30 15:30 TP016 TP018

16:30 16:30 TP016 TP018

17:30 17:30

18:30 18:30

Terceiro Ano Quarto Ano

Almoço

AlmoçoAlmoço

Almoço

51

AVALIAÇÃO DO DESEMPENHO DE ALGORITMOS GENÉTICOS EM

OTIMIZAÇÃO DE PORTFÓLIOS

Thaís Mariane Biembengut, Simone Aparecida Miloca, Neida Maria Patias Volpi.

Palavras-Chave: Algoritmo Genético Multiobjetivo, Métricas C e S, Otimazação de Portfólios.

1 INTRODUÇÃO

Carteira de investimento (portfólio) é um conjunto de

ativos constituídos por um investidor, basicamente com

dois objetivos: maximizar seus lucros e minimizar os

riscos. O problema seguinte consiste em determinar a

quantidade ou a porcentagem do capital a ser investido em

cada ativo selecionado. Para este fim deve-se considerar o

retorno esperado de cada ativo e o risco que cada

investidor está disposto a aceitar em seu investimento.

A teoria moderna de portfólios assume que, para um dado

nível de risco, um investidor consciente deseja o máximo

de retorno, e para um dado nível de retorno esperado, o

investidor deseja minimizar o risco. Existem também

investidores extremos que querem somente maximizar o

retorno (desconsiderando o risco) ou minimizar o risco

(desconsiderando o retorno). Em geral, podemos descrever

as formulações dos problemas de otimização de portfolios

através de cinco diferentes formulações. Apresenta-se, a

seguir, o modelo proposto por Markowitz (1952)

𝑀𝑎𝑥 𝑓(𝑥) = ∑𝑙𝑖𝑥𝑖

𝑛

𝑖=1

(1)

𝑀𝑖𝑛 𝑓(𝑥) =∑

𝑛

𝑖=1

∑𝑥1𝑥𝑗𝜎𝑖𝑗

𝑛

𝑗=1

(2)

∑𝑥𝑖 = 1

𝑛

𝑖=1

𝑥𝑖 ≥ 0

onde

𝜎𝑖𝑗 é a covariância entre os ativos i e j

𝑙𝑖 é o retorno do ativo i depois de um período de tempo.

A decisão ótima é dada por um vetor (𝑥1, 𝑥2,, … , 𝑥𝑛,), onde

𝑥𝑖, i = 1, 2, ..., n, é o percentual do capital C a ser investido

no ativo i, sendo n o número de ativos.

Este problema pode ser resolvido por diferentes técnicas,

como Programação quadrática, Simulated annealing, e

Algoritimos evolutivos (Ehrgott, 2000).

Considerando que se tenha selecionado um conjunto de

ativos para constituir o portfólio, o objetivo deste trabalho

é avaliar o desempenho de dois algoritmos evolutivos para

ajudar na decisão do investimento em ativos de um

portfólio. A avaliação final é feita pelo investidor que, se

desejar o maior lucro, independentemente do risco que está

associado a esta escolha, selecionará opções que lhe

propiciem isto, deixando de lado aquelas que, embora

tenham menor risco, têm menor possibilidade de retorno.

2 ALGORITMO GENÉTICO MULTIOBJETIVO

Algoritmos Genéticos (AGs) assim como outros

algoritmos evolutivos têm seu mecanismo inspirado no

processo de evolução natural. Algumas ideias

fundamentais da evolução, tais como recombinação e

seleção são utilizadas na construção de algoritmos

robustos e que requerem um mínimo de informações sobre

o problema (Deb, 2001). Em problemas com mais de uma

função objetivo, onde a solução é dada pelo conjunto

ótimo de Pareto (fronteira eficiente), os algoritmos

genéticos multiobjetivo têm se destacado pela habilidade

de encontrar uma boa aproximação da solução exata. Por

esse motivo, um grande número de algoritmos têm sido

propostos, como por exemplo o MultiObjective Genetic

Algorithm (MOGA), o Niched-Pareto Genetic Algorithm

(NPGA) e o Non-dominated Sorting Genetic Algorithm

(NSGA) (Coelho, 2000). Uma nova geração de algorimtos

genéticos multiobjetivo introdurizam o elitismo, que

consiste em selecionar as melhores soluções para serem

utilizadas na iteração seguinte. Dentre os AGs elitistas

mais citados estão o Strength Pareto Evolutionary

Algorithm (SPEA, SPEA2)(Zitzler, 2001) e NSGAII (Deb,

2001).

2.1 Métricas

No intuito de comparar os diferentes métodos de

otimização multiobjetivo, diversas métricas foram criadas.

A métrica C, proposta Deb (2001), avalia a proporção de

soluções obtida em um método que são dominadas por

soluções obtidas em outro. Desta forma dados dois

conjuntos A e B de soluções obtidas por algoritmos

diferentes, a métrica C calcula a proporção de soluções em

B, que são fracamente dominadas por soluções de A e é

dada por:

𝐶(𝐴, 𝐵) = |𝑏 ∈ 𝐵|∃𝑎 ∈ 𝐴: 𝑎 ≽ 𝑏|

|𝐵|

Para avaliar a diversidade de um conjunto não dominado

de soluções, Schott (1995) sugere a métrica Spacing (S),

que considera a distância relativa entre soluções

consecutivas em um conjunto de pontos não dominados,

dada por:

𝑆 = √1

𝑄 ∑(𝑑𝑖 − �̅�)

2

|𝑄|

𝑖=1

onde 𝑑𝑖 = 𝑚𝑖𝑛𝑘∈𝑄^𝑘≠𝑖 ∑ |𝑓𝑚𝑖 − 𝑓𝑚

𝑘|𝑀𝑚=1 é o valor mínimo

dado pela soma da diferença absoluta dos valores da

função objetivo, entre a i-ésima solução e outra qualquer

pertence ao conjunto. O valor �̅� é a média das distâncias

definas acima, Q é o número de soluções no conjunto não

dominado e M é o número de funções objetivo.

A métrica S, mede os desvios padrões dos diferentes 𝑑𝑖𝑠. Quando as soluções são próximas e uniformemente

espaçadas o correspondente valor medido é menor. Logo,

um algoritmo que encontra um menor valor de S para o

conjunto não dominado, é melhor.

52

2.2 Aplicação Numérica e Resultados

O modelo apresentado nas equações 1 e 2 do item 1, foi

resolvido pelos algoritmos genéticos NSGA-II e SPEA2, e

obtidas as respectivas fronteiras eficientes. A fronteira

exata foi obtida pelo método dos pesos. Os dados

empregados nos experimentos, foram extraídos de um

conjunto de 26 ativos mais negociados no BOVESPA

entre período 01 de janeiro de 2004 a 31 de dezembro de

2007.

As fronteiras eficientes geradas pelos algoritmos SPEA2 e

NSGA-II, exibidas nas figuras 1 e 2 respectivamente, são

comparadas com a fronteira exata. O desempenho dos AGs

foi comparado por meio da avaliação das métricas C e S.

Os resultados obtidos pela métrica C, apontam que 61,54

% das soluções obtidas pela NSGA, são dominadas pelas

soluções obtidas pelo SPEA, e 7% das soluções do SPEA

são dominadas pelas do NSGA. Para a métrica S, não

houve diferença entre os valores obtidos.

Figura 5: Fronteira Eficiente - NSGA-II

Figura 2: Fronteira Eficiente - SPEA2

3 CONCLUSÕES.

Com relação à convergência, avaliada por meio

da métrica C, o SPEA2 apresenta um grande

número de soluções que são melhores do que as

obtidas pelo NSGA. Em ambos os algoritmos, a

fronteira obtida é bastante diversificada e os resultados

obtidos pela métrica S não diferem significativamente.

REFERÊNCIAS

Deb, K. Multi-objective optimization using evolutionary

algorithms. John Wiley and Sons , 2001.

Coello, C.A.C. An updated survey of GA-based

multiobjective optimization techniques. ACM

Computing Surveys, 32(2), 109-143, 2000.

Ehrgott,M., Gandibleux,X. A Survey and Annotated

Bibliography on Multiobjective Combinatorial

Optimization. OR Spectrun, 2000.

Markowitz, H.M. Portfolio selection. Journal of

Finance,77-91, 1952.

Schott, J.R. Fault toletant design using single and multi-

criteria genetic algorithms. Master’s Thesis,

Massachusetts Institute off Technology, 1995.

Zitzler, E. and Deb, K. and Thiele, L. and Coello, C. A.

and Corne, D. Evolutionary Multi-Criterion

Optimization (EMO 2001). Springer, 2001.

53

MODELAGEM MATEMÁTICA DO ESCALONAMENTO DE JOGOS NA

GRADE HORÁRIA DO CAMPEONATO BRASILEIRO

Guilherme Vinicyus Batista, Cassius Tadeu Scarpin, Gustavo Valentim Loch

Palavras-Chave: Campeonato Brasileiro, Programação Linear Inteira, horário, jogos

1 INTRODUÇÃO

As competições esportivas em todo o mundo envolvem

muito dinheiro. Os gastos são diversos, por exemplo:

atletas recebem salários altíssimos, transferências dos

mesmos entre clubes chegam a movimentar milhões de

reais, torcedores costumam ir ao estádio e compram

produtos de seu clube ou atleta favorito, além dos valores

envolvidos em patrocínios e os ganhos com imagem.

A Confederação Brasileira de Futebol (CBF) é a entidade

máxima do futebol no país, sendo responsável pelo

campeonato de futebol nacional. Este trabalho pretende

mostrar as principais restrições que um campeonato dessa

magnitude deve respeitar, conciliando os interesses dos

principais envolvidos para ter um campeonato justo,

equilibrado e que permita uma maior audiência de público.

Utilizando técnicas de Pesquisa Operacional, Nemhauser e

Trick (1997) trabalharam com a programação dos jogos da

liga universitária de basquete da Carolina do Norte nos

Estados Unidos, um campeonato onde todos os times se

enfrentavam entre si; Durán (2007) com o campeonato de

futebol chileno. A partir de 2005 começaram a se utilizar

técnicas de Programação Linear Inteira no campeonato

brasileiro (RIBEIRO; URRUTIA, 2011).

Todos os envolvidos no campeonato brasileiro, clubes,

CBF, emissoras de televisão, torcedores, patrocinadores,

entre outros, querem tirar o máximo proveito da estrutura

do campeonato e terem segurança de que estão fazendo um

bom investimento. Um escalonamento bem feito é o

principal interesse de todos os envolvidos, sendo que um

campeonato justo deve dar a mesma condição a todos os

competidores.

2 O CAMPEONATO BRASILEIRO DE FUTEBOL

O campeonato brasileiro de futebol ocorre anualmente, e

em 2011 foi disputado por 20 times. O regulamento da

competição prevê que a disputa deve ocorrer no sistema de

pontos corridos de forma contínua, em turno e returno,

com 190 jogos em cada fase, totalizando 380 jogos, são 38

rodadas, com 10 jogos por rodada onde todos os 20 times

se enfrentam entre si uma vez em cada fase alternando o

mando de campo. Além disso, a sequência de jogos na

primeira e segunda fase devem ser as mesmas, formando

um campeonato espelhado.

A disputa dura sete meses e cada equipe joga no máximo

duas vezes por semana (meio de semana ou final de

semana), sendo que existem certas peculiaridades no

torneio já que alguns jogos tem preferência por ocorrer em

datas específicas dependendo dos times que se enfrentam.

Por exemplo, quando times da mesma cidade se enfrentam

e tem grande rivalidade diz-se que é um clássico e deve

ocorrer no final de semana.

Analisando a tabela do campeonato de 2011 pode-se

perceber que os jogos, em geral, ocorrem em horários que

se repetem de semana em semana. Deste modo, uma

adaptação foi realizada quanto aos horários dos jogos,

estabelecendo que nas rodadas de meio de semana possam

vir a ocorrer em 3 ocasiões de horários:

Quarta feira às 19h50min

Quarta feira às 21h50min

Quinta feira sem horário definido

Nas rodadas de finais de semana também foram

consideradas 3 ocasiões de horários para ocorrerem os

jogos:

Sábado sem horário definido

Domingo às 16h00min

Domingo às 18h00min

Vale ressaltar que esse esquema de horários faz parte da

proposta do problema e podem ocorrer pequenas

variações.

3 MODELAGEM MATEMÁTICA

A fim de fazer com que o campeonato tenha uma

quantidade de jogos semelhante, em cada horário, para

cada um dos times foi desenvolvido um modelo

matemático de programação linear inteira.

Para isso, foi imprescindível uma entrada de dados do

escalonamento dos jogos do campeonato brasileiro com a

seguinte informação:

𝑥𝑖𝑗𝑘 =

Para dar continuidade ao modelo foi necessário criar mais

uma variável com 4 dimensões:

𝑥𝑖𝑗𝑘ℎ =

Sendo que h pode assumir os valores 1, 2, 3, 4 , 5, 6 que

representam os seis respectivos horários mostrados na

seção anterior.

Definindo-se uma quantidade mínima de jogos 𝑄𝑀𝐼𝑁ℎ para cada time em cada horário, e também uma quantidade

máxima 𝑄𝑀𝐴𝑋ℎ (essa não pode ser excedida). Cada vez

que essa quantidade mínima não é respeitada existe uma

punição com um custo 𝐶ℎ . Para saber a quantidade de vezes que uma restrição não foi

respeitada foi criada a seguinte variável inteira:

𝐻ℎ𝑖 =

Logo a função objetivo é a seguinte:

𝑚𝑖𝑛 𝑧 =∑∑𝐶ℎ ∗ 𝐻ℎ𝑖

6

ℎ=1

𝑛

𝑖=1

(1)

Como as rodadas 𝑘 podem ser tanto no final de semana

1, se o time i joga em casa contra o time j

na rodada k

0, caso contrário

1, se o time i joga em casa contra o time j

na rodada k no horário h

0, caso contrário

Quantidade de vezes que o time i não

respeitou a quantidade mínima de jogos

definida para h

54

como no meio de semana, existe dois conjuntos

independentes: 𝐹𝑆 para toda rodada 𝑘 que ocorre no fim de

semana onde os jogos podem ocorrer nos horários 4, 5, 6 e

o conjunto 𝑀𝑆 para toda rodada 𝑘 que ocorre no meio da

semana onde os jogos podem ocorrer nos horário 1,2,3.

A restrição abaixo iguala a variável 𝑥𝑖𝑗𝑘 às outras três

novas variáveis da seguinte forma:

𝑥𝑖𝑗𝑘 = ∑𝑥𝑖𝑗𝑘

3

ℎ=1

⩝ 𝑘, 𝑖, 𝑗 ∶ 𝑘 ∈ 𝑀𝑆 (2)

𝑥𝑖𝑗𝑘 = ∑𝑥𝑖𝑗𝑘

6

ℎ=4

⩝ 𝑘, 𝑖, 𝑗 ∶ 𝑘 ∈ 𝐹𝑆 (3)

Para garantir a quantidade mínima de jogos temos a

seguinte restrição:

∑∑𝑥𝑖𝑗𝑘ℎ

𝑛

𝑗=1

≥ 𝑄𝑀𝐼𝑁ℎ − 𝐻𝑖ℎ ,

𝑛−1

𝑘=1

⩝ 𝑖 , ℎ = 1,2,3 ,𝑖 ≠ 𝑗, 𝑘 ∈ 𝑀𝑆

(4)

∑∑𝑥𝑖𝑗𝑘ℎ

𝑛

𝑗=1

≥ 𝑄𝑀𝐼𝑁ℎ − 𝐻𝑖ℎ ,

𝑛−1

𝑘=1

⩝ 𝑖 , ℎ = 4,5,6 ,𝑖 ≠ 𝑗, 𝑘 ∈ 𝐹𝑆

(5)

A quantidade máxima:

∑∑𝑥𝑖𝑗𝑘ℎ

𝑛

𝑗=1

≤ 𝑄𝑀𝐴𝑋ℎ ,

𝑛−1

𝑘=1

⩝ 𝑖 , ℎ = 1,2,3, 𝑖≠ 𝑗 , 𝑘 ∈ 𝑀𝑆

(6)

∑∑𝑥𝑖𝑗𝑘ℎ

𝑛

𝑗=1

≤ 𝑄𝑀𝐴𝑋ℎ ,

𝑛−1

𝑘=1

⩝ 𝑖 , ℎ = 4,5,6, 𝑖≠ 𝑗 , 𝑘 ∈ 𝐹𝑆

(7)

Apenas essas restrições não garantiriam que ocorreriam

jogos em todos os possíveis horários em cada rodada então

foi estabelecido uma quantidade mínima para obrigar que

em todo horário haja alguém jogando e respeitando os

seguintes limites da tabela 1: Tabela 4 - Quantidade mínima de jogos em cada horário por

rodada

Horário Quantidade

Mínima (𝑀𝐼𝑁ℎ)

1 2

2 4

3 2

4 3

5 3

6 2

O novo grupo de restrições é o seguinte:

∑∑𝑥𝑖𝑗𝑘ℎ

𝑛

𝑗=1

≥ 𝑀𝐼𝑁ℎ , ⩝ 𝑘, 𝑖 ≠ 𝑗

𝑛

𝑖=1

4 CONCLUSÃO

Em poucos instantes um computador core i5 64 bits, 4Gb

de RAM no software LINGO 9, obteve uma solução

ótima. Ao analisar a distribuição nos jogos durante o

campeonato de futebol de 2011 observou-se uma grande

diferença na quantidade de jogos que cada time fazia nos

mais diversos horários, alguns times chegaram a jogar 11

vezes na primeira fase no horário do domingo as 4 horas

enquanto alguns jogavam menos de 4 vezes. Com a

aplicação desse modelo matemático a diferença entre a

quantidade de jogos de cada equipe nos horário baixou

drasticamente, podendo ser outro fato que ajude a tornar o

campeonato mais equilibrado. Num trabalho futuro seria

interessante ver o aproveitamento desses times nos

diversos horários, levanto em conta outros fatores como o

apoio da torcida para melhorar o modelo proposto nesse

trabalho.

O problema de programação inteira aplicada ao

campeonato brasileiro de futebol aqui exposto mostra que

o campeonato está pode atender ainda mais critérios para

ser justo para com todos os times e busca atender ao

interesse dos envolvidos. Além de demonstrar que a

técnica de programação inteira pode ser aplicada nas mais

diversas áreas.

5 REFERÊNCIAS

DURÁN,G. et al. – Scheduling the Chilean Soccer

League by Integer Programming. INFORMS 2009

NEMHAUSER, G. L.; TRICK M. A. SCHEDULING A

MAJOR COLLEGE BASKETBALL

CONFERENCE. Georgia Institute of Technology,

Atlanta, Georgia. 1997

RIBEIRO, C. C.; URRUTIA S. – Scheduling the

Brazilian Soccer Tounament: Solution Approach

and Practice. INFORMS 2011

55

SIMULAÇÃO DA MOVIMENTAÇÃO DE PEDESTRES ASSUMINDO

VARIÁVEIS PSICOCOMPORTAMENTAIS

Marina Vargas, Marco A. Argenta.

Palavras-Chave: Fluxo Pedonal; Variáveis Psicocomportamentais; Inteligência Artificial; Agentes.

1 INTRODUÇÃO

A otimização e controle do fluxo de tráfego de pedestres

ao longo de um ambiente de caminhada é um interessante

e abrangente campo de interação entre matemáticos,

engenheiros, psicólogos e programadores. O fluxo de

grandes multidões de pedestres está se tornando cada vez

mais importante com o crescimento das populações nas

cidades. Nesse contexto é necessário que os espaços

físicos também se desenvolvam.

Muitos estudos de fluxo de pedestres foram empreendidos,

em especial nas últimas três décadas, contudo o nosso

conhecimento sobre o fluxo de multidões ainda é

insuficiente e atrasado se comparado a outros modos de

transporte, justamente por existir um fator comportamental

que transforma esse tipo de estudo em algo extremamente

complexo.

Alguns autores, como Hughes (2002), defendem que o

movimento dos pedestres é regido por equações de fluxo

contínuo derivadas do fluxo de um único pedestre ou de

múltiplos pedestres. As teorias de Hughes derivam da idéia

de se relacionar o fluxo e a densidade de pedestres através

de um diagrama, conhecido como diagrama fundamental.

Muitos outros autores também consideram tal diagrama

como peça importante para a análise do fluxo de pedestres,

como Fruin (1971), Tanaboriboon et al. (1986), Helbing et

al. (2000); Helbing (2002), dentre outros. Contudo, há

diversas linhas de pesquisa quando o assunto é

movimentação de pedestres, onde as teorias variam desde

o uso de autômatos celulares (Schadschneider, 2002;

Burstedde et al., 2002) à comparação entre fluxo de

pedestres e campos potenciais (Dapper, 2007), etc.

Na década de 90, o governo dos EUA financiou um dos

mais intensivos estudos sobre evacuação de pessoas em

edifícios. O atentado ao edifício World Trade Center em

26 de fevereiro de 1993 foi estudado exaustivamente por

Fahy and Proulx (1995) utilizando como ferramentas de

pesquisa entrevistas e questionários relacionados com o

comportamento de ocupantes selecionados (Valentin and

Ono, 2006).

Observa-se com tudo isso que é possível associar a

movimentação de pedestres a modelos matemáticos e

dessa forma, realizar simulações computacionais com o

objetivo de descrever, e até predizer acontecimentos

envolvendo a segurança pública, evitando transtornos

decorrentes do planejamento e infraestrutura inadequados,

e possibilitando descrever o comportamento humano

diante de algumas situações.

Neste trabalho, três ferramentas formam a base de

conceituação básica: Cinemática e Dinâmica de sistemas

de partículas, Inteligência Artificial, mais especificamente,

agentes e Comportamento Psicossocial.

O desenvolvimento inicial do ambiente de simulação será

composto por partículas simples que se locomoverão com

regras de movimentação cinemática. Com a solidificação

desta etapa, haverá a introdução de agentes que possam

representar comportamentos humanos simples, como

desviar de obstáculos e escolher alguns caminhos

específicos. Logo após, serão incluídos os conceitos de

dinâmica de sistemas de partículas, como por exemplo

colisões.

Na sequência, serão incluídos os conceitos de Inteligência

Artificial, com toda a sua bagagem probabilística de redes

de Bayes e cadeias de Markov, através do uso de

Processos Decisão de Markov Parcialmente Observáveis

(POMDP), aliados a conhecimentos da sociologia, mais

especificamente conhecimentos psicossociais. Tais

conhecimentos serão avaliados probabilisticamente no

decorrer da simulação através do uso de agentes com

crenças, desejos e intenções, ou seja, agentes BDI (Nair

and Tambe, 2005; Pereira, 2008). Desta forma, será

trabalhado com um híbrido de políticas POMDP com

planos BDI, chamado de I-plan. Um I-plan é uma

sequência de ações construídas para alcançar um

determinado estado.

Figura 1: Sequência de ações para alcansar estados desejados.

O passo seguinte se dá com a inclusão de variáveis

comportamentais características do pânico, que serão

inicialmente validadas através de referências bibliográficas

e posteriormente serão realizadas consultas a técnicos e

psicólogos específicos da área psicocomportamental que

possam garantir a veracidade de tais variáveis.

Com relação à ferramenta de desenvolvimento, a escolha

se dá pela linguagem Python, por ser uma linguagem de

alto nível, otimizada para o programador ou seja, de fácil

implementação e aprendizado, possui vários ambientes

integrados e é portável a todos os sistemas operacionais,

além de ter módulos para processamento gráfico

(PETTELE, 2011).

Espera-se que esse trabalho possa simular e representar de

56

forma adequada situações com e sem pânico considerando

variáveis psicocomportamentais, de forma que o

movimento dos agentes se assemelhe ao movimento

humano nessas situações.

REFERÊNCIAS

Burstedde C., Kirchner A., Klauck K., Schadschneider A.,

and Zittartz J. Cellular automaton approach to

pedestrian dynamics - applications. Pedestrian and

Evacuation Dynamics, pages 87–98, 2002.

Dapper F. Planejamento de Movimento para Pedestres

utilizando Campos Potenciais. Master’s Thesis,

Universidade Federal do Rio Grande do Sul, 2007.

Fahy R.F. and Proulx G. Evacuation of the world trade

center: what went right? NFPA Journal, pages 60–67,

1995.

Fruin J.J. Designing for pedestrians. a level-of service

concept. Highway Research Record, 377:1–15, 1971.

Helbing D. Simulation of pedestrian crowds in normal and

evacuation situations. Most, 21:21–58, 2002.

Helbing D., Farkas I., and Vicsek T. Simulating dynamical

features of escape panic. Nature, 407:487, 2000.

Hughes R.L. A continuum theory for the flow of

pedestrians. Transportation Research Part B:

Methodological, 36(6):507-535, 2002.

Nair R. and Tambe M. Hybrid bdi-pomdp framework for

multiagent teaming. J. Artif. Int. Res., 23:367–420,

2005.

Pereira D.R. Construção de Planos BDI a partir de

Políticas Ótimas de POMDPs, com Aplicação na

Auto-Regulação de Trocas Sociais em Sistemas

Multiagentes. Master’s Thesis, Universidade Católica

de Pelotas, 2008.

PETTELE. Tutorial de Introdução ao Python. Engenharia

de Telecomunicações – Universidade Federal

Fluminense, Niterói-RJ, 2011.

Schadschneider A. Cellular automaton approach to

pedestrian dynamics - theory. Pedestrian and

Evacuation Dynamics, pages 75–86, 2002.

Tanaboriboon Y., Hwa S.S., and Chor C.H. Pedestrian

characteristics study in singapore. Journal of

Transportation Engineering - ASCE, 112(3), 1986.

Valentin M.V. and Ono R. Saídas de emergência e

comportamento humano: Uma abordagem histórica e

o estado atual da arte no brasil. In NUTAU. 2006.

57

RESUMO DOS POSTERS Resumo dos trabalhos apresentados na forma de posters.

58

COMPARAÇÃO DE PARÂMETROS BIOMECÂNICOS NA RETRAÇÃO

INICIAL DE CANINO INFERIOR ENTRE A ORTODONTIA CONVENCIONAL

E LINGUAL ATRAVÉS DA ANÁLISE POR ELEMENTOS FINITOS

Ricardo Sommerfeld, Marco A. Argenta, Emílio Graciliano Ferreira Mercuri, Lucila Largura, Ana Paula de Oliveira Gebert.

Palavras-Chave: Ortodontia convencional, Ortodontia lingual, Retração inicial de canino, Análise por elementos finitos.

RESUMO:

A extração de dentes permanentes, principalmente de primeiros pré-molares, tornou-se rotina no planejamento ortodôntico.

Devido à proximidade desses dentes ao centro de cada quadrante da arcada, tais exodontias são indicadas em situações de

apinhamento, biprotrusão e estética desfavorável (Mezomo B. M. et al 2010). O fechamento de espaço é possível através da

retração total do segmento anterior ou retração inicial de dentes caninos, sendo que, a retração canina pode ser empregada com

duas técnicas distintas, utilizando arco contínuo através de gancho, molas espirais e corrente elástica ou arco segmentado,

realizado a partir de alças de retração (Shimizu R. H. et al 2004). Diferentes movimentos dentários carecem de uma força

distinta, pois com o excesso da mesma poderá haver efeitos colaterais, como atraso no movimento dentário, dor, mobilidade

dentária e reabsorção radicular (Souza R. S. et al 2003). Por esses motivos e outros a ortodontia vem utilizando a metodologia

de análise por elementos finitos (AEF) que se caracteriza como uma forma de análise matemática, que determina o estado de

tensão e deformação inicial de estruturas, promovendo informações sobre deslocamento e grau de tensão (Lotti R. S. et al.,

2006). Este trabalho tem por objetivo avaliar as diferenças biomecânicas na retração inicial de um canino inferior entre a

utilização da técnica lingual e convencional em aparelhos ortodônticos através da AEF, uma vez que esta metodologia é pouco

discutida na literatura. Para realizar a simulação através da AEF, foi utilizado um sólido tridimensional gerado em um software

específico a partir de imagens tomográficas de uma mandíbula, contendo todos os dentes com exceção dos terceiros molares.

Com a intenção de simular forças mecânicas a partir de um fechamento de espaço, foi removido o primeiro pré-molar inferior,

remodelando sua área tornando-o homogêneo com osso cortical. Os brackets e fio ortodôntico, cujas propriedades são de aço

inoxidável, foram desenvolvidos dentro do programa de reconstrução Solidworks 2012 (Dassault Systemes, Solidworks Corps,

USA). No modelo foi aplicada uma força de 120g/f na parte interna da face distal no bracket canino e na porção interna da

face mesial no bracket do primeiro molar, porém, em sentido oposto simulando o tracionamento elástico. Com a perspectiva de

avaliar a diferença de tensões no posicionamento do aparelho, a força, os brackets e fio ortodôntico são idênticos na técnica

lingual e convencional. Considerando que a mecânica na movimentação ortodôntica é similar em ambos os lados da

mandíbula, foi aceitável avaliar apenas uma hemi-arcada. Essa redução possibilitou o refinamento da malha de elementos

finitos, o que forneceu um resultado mais apurado. Os resultados são visualizados em escalas de cores, onde cada coloração

corresponde á um grau de tensão ou deslocamento. Tendo esse modelo como aproximado, os dados encontrados indicaram que

nessa simulação houve uma diferença na distribuição de tensões em relação às técnicas ortodônticas vestibular e lingual. Os

resultados oferecidos por esses modelos são simplificados, pois oferecem apenas dados da tensão inicial após o carregamento e

não reproduzem características biológicas individuais como, força mastigatória e oclusão (Blatt M. et al., 2006).

REFERÊNCIAS

Blatt M., Butignon L. E. e Bonachela W. C., Análise de elementos finitos aplicados á implantodontia – uma nova realidade

virtual para o real. Innovations Implant Journal – Biomaterials and Esthetics, 01:53-61, 2006.

Lotti R. S., Machado A. W., Mazzieiro E. T. e Júnior J. L., Aplicabilidade científica do método dos elementos finitos. R Dental

Press Ortodon Ortop Facial, 11:35-43, 2006.

Mezomo B. M., Pierret M., Rosenbach G., Tavares C. A. E., A extração de segundos molares superiores para o tratamento

classe II. Dental Press J Orthod, 15:94-105, 2010.

Shimizu R. H., Staszak K. R., Shimizu I. A. e Ambrósio A. R., Retração dos dentes caninos com alças: Aspectos biomecânicos

indispensáveis para o sucesso deste procedimento. J Bras Ortodon Ortop Facial, 9:86-178, 2004.

Souza R. S., Pinto A. S., Shmizu R. H., Sakima M. T. e Júnior L. G. G., Avaliação do sistema de forças gerado pela alça T de

retração pré-ativada segundo o padrão UNESP-Araraquara. R Dental Press Ortodon Ortop Facial, 8:113-122, 2003.

59

ANÁLISE DE TENSÕES A PARTIR DE FORÇAS ORTODÔNTICAS BASEADA

NO MÉTODO DOS ELEMENTOS FINITOS

Cláudia Slongo, Marco André Argenta.

Palavras-Chave: Biomecânica, Método dos Elementos Finitos, Simulação Computacional, Bioengenharia.

RESUMO:

Um dos rumos de pesquisa de maior interesse para a ortodontia clínica é o estudo das respostas por forças aplicadas pelos

aparelhos dentários no tecido ósseo da face humana. Desde 1973, quando o método de elementos finitos foi apresentado à

pesquisa ortodôntica, o estilo da análise foi aplicável ao estudo dos campos de tensão e deformação nas estruturas de suporte

do dente (Huang et al, 2011). Logo, por sua análise favorável a geometrias complexas, o método de elementos finitos passou a

ser frequentemente utilizado em estudos biomecânicos (Middleton, Jones and Wilson, 1990). Neste estudo, o método dos

elementos finitos também será uma ferramenta essencial para a análise. A pesquisa em questão focará basicamente na

comparação das distribuições de tensões e deformações em distintos modelos montados; como um sistema de dente único e

outro de dentes múltiplos, contendo ou não um implante. Tal estudo constitui-se por modelos computacionais tridimensionais

construídos a partir de tomografias computadorizadas - processo feito utilizando o software de reconstrução virtual

SIMPLEWARE (Simpleware, United Kingdom). A construção do modelo também conta com os softwares MESHLAB (ISTI –

CNR, Italy), em que se determinará a malha de elementos finitos implantada, e ANSYS (Ansys, United States), na qual serão

definidas as condições de contorno e de carga, além das propriedades mecânicas aproximadas ao do tecido ósseo humano. Na

literatura, compreende-se que a influência de mais dentes ou de implantes no modelo causa impacto nas distribuições e

magnitudes de tensões e deformações além da rigidez do modelo. Field et al (2007), ao comparar as mudanças biomecânicas

provocadas por uma carga ortodôntica na região de suporte do dente entre um modelo de dente único e outro com mais dois

dentes adjacentes, provou a alteração de distribuição e magnitude da tensão entre os dois modelos. Esta pesquisa não só

questionará a diferença dos resultados nos distintos modelos simulados, mas também relacionará as forças ortodônticas com

suas respostas iatrogênicas. Sabe-se que as forças ortodônticas no sistema dentário remetem a remodelagem do osso alveolar –

provocando uma série derespostas complexas na interface do ligamento periodontal caracterizada como movimentação

ortodôntica do dente (Marangalou, Ghalichi and Mirzakouchaki, 2009). Além disso, foi provado que tensões excessivas de

cargas ortodônticas podem levar à reabsorção radicular, um problema grave durante o tratamento clínico (Huang et al, 2011).

REFERÊNCIAS

Middleton, J., Jones, M.L. and Wilson, A.N., Three-dimensional analysis of orthodontic tooth movement. Journal of

Biomedical Engineering, 1990.

Marangalou J. H., Ghalichi, F. and Mirzakouchaki, B., Numerical simulation of orthodontic bone remodeling. Orthodontic

Waves, 2009.

Huang, H. et al., Mechanical responses of periodontal ligament under a realistic orthodontic loading. Procedia Engineering,

2012.

Field, C. et al., Mechanical responses to orthodontic loading: A 3-dimensional finite element multi-tooth model. American

Journal of Orthodontics and Dentofacial Orthopedics, 2009.

60

ANÁLISE NUMÉRICA DO ESCOAMENTO LAMINAR SOBRE UM

AQUECEDOR 3D PROTUBERANTE MONTADO EM UMA PLACA DE

CIRCUITO IMPRESSO

Felipe Baptista Nishida, Thiago Antonini Alves.

Palavras-Chave: Simulação Numérica, Escoamento Laminar, Aquecedor 3D Protuberante, ANSYS/Fluent®

.

RESUMO:

Neste trabalho foi realizada uma investigação numérica das características do escoamento laminar sobre um aquecedor 3D

protuberante montado na placa inferior de um canal de placas paralelas utilizando o software comercial ANSYS/Fluent®. O

escoamento forçado foi considerado com propriedades constantes sob condições de regime permanente. Na entrada do canal, o

perfil de velocidade era uniforme. Este problema está associado ao escoamento sobre componentes eletrônicos montados em

uma placa de circuito impresso, caracterizando o Nível 2 de empacotamento eletrônico (Alves, 2010). As equações de

conservação com suas condições de contorno foram resolvidas numericamente dentro de um único domínio, que englobou as

regiões do aquecedor e do fluido, através de um procedimento acoplado. A discretização das equações governantes no domínio

foi baseada no Método de Volumes de Controle (Patankar, 1980). O algoritmo SIMPLE (Semi-Implicit Method for Pressure

Linked Equations) foi utilizado para tratar do acoplamento pressão-velocidade. Devido às não-linearidades na Equação do

Momentum, as componentes de velocidade e a correção da pressão foram sub-relaxadas para prevenir instabilidade e

divergência. O critério de parada do processo iterativo de resolução foi estabelecido para mudanças absolutas das variáveis

primitivas menores do que quatro algarismos significativos entre duas iterações consecutivas, enquanto a conservação global

de massa no domínio foi satisfeita em todas as iterações. Após um estudo de independência de grade computacional (Nishida

et al. 2012), os resultados numéricos foram obtidos com uma grade 3D não-uniforme no domínio de solução contendo 212.670

volumes de controle. Esta grade computacional foi mais concentrada nas regiões próximas às interfaces sólido-fluido devido

aos maiores gradientes das variáveis primitivas nestas regiões. Eventuais efeitos de oscilação do escoamento não foram

considerados. As resoluções numéricas foram executadas num microcomputador com processador Intel® Core

TM 2 Duo E7500

2,94GHz e 4GB de RAM. O tempo de processamento de uma solução típica foi de aproximadamente 5 (cinco) minutos. Para

obtenção destes resultados, foram utilizados valores típicos de geometria e propriedades encontrados nas aplicações de

resfriamento de componentes eletrônicos montados numa placa de circuito impresso (Alves and Altemani, 2012; Bar-Cohen et

al. 2003; Joshi and Nakayama, 2003). Os efeitos do número de Reynolds, baseado na altura do aquecedor protuberante, foram

investigados na faixa de 100 a 300, correspondendo a velocidades médias de entrada do ar no canal de 0,20 m/s a 0,63 m/s. De

acordo com Garimella and Eibeck (1991), nesta faixa de Reynolds o escoamento sobre o aquecedor protuberante permanece no

regime laminar. As principais características deste escoamento consistiram de uma pequena recirculação a montante do

aquecedor, da formação de um vórtice de ferradura ao redor das laterais da protuberância e de uma grande recirculação na

região a jusante do aquecedor. As linhas de corrente e os perfis de velocidade do escoamento laminar sobre o aquecedor

protuberante para diversas situações foram apresentados e comparados, quando possível, com os resultados disponíveis na

literatura (Hwang and Yang, 2004; Yaghoubi and Velayati, 2005).

REFERÊNCIAS

Alves, T.A., Resfriamento conjugado de aquecedores discretos em canais, Tese de Doutorado, Faculdade de Engenharia

Mecânica, Universidade Estadual de Campinas, Campinas, SP, Brasil, 129 p., 2010.

Alves, T.A., and Altemani, C.A.C. An invariant descriptor for heaters temperature prediction in conjugate cooling.

International Journal of Thermal Sciences, 58:92-101, 2012.

Bar-Cohen, A., Eatwe, A.A., and Prasher, R.S. Heat transfer in electronic equipment. In: Bejan, A., and Kraus, A.D. (Eds.).

Heat transfer handbook, John Wiley & Sons, Chap. 13:947-1027, 2003.

Garimella, S.V., and Eibeck, P.A. Enhancement of single phase convective heat transfer from protruding elements using vortex

generators. International Journal of Heat and Mass Transfer, 34:2431-2433, 1991.

Hwang, J.Y., and Yang, K.S., Numerical study of vertical structures around a wall-mounted cubic obstable in channel flow.

Physics of Fluid, 16:2382-2394, 2004.

Joshi, Y.; Nakayama, W., Forced convection: external flows. In: Bejan, A., and Kraus, A.D. (Eds.). Heat transfer handbook,

John Wiley & Sons, Chap. 6:653-661, 2003.

Nishida, F.B., Machado, V., Barbur, M.A., e Alves, T.A. Transferência de calor conjugada convecção forçada-condução de um

aquecedor 3D protuberante montado em uma placa de circuito impresso, Anais do XIX Congresso Nacional de

Estudantes de Engenharia Mecânica, São Carlos, SP, 2012.

Patankar, S.V. Numerical heat transfer and fluid flow. Hemisphere Publishing Corporation, 1980.

Yaghoubi, M., and Velayati, E., Undeveloped convective heat transfer from an array of cubes in cross-stream direction.

International Journal of Thermal Sciences, 44:756-765, 2005.

61

DESENVOLVIMENTO DE UM MODELO COMPUTACIONAL PARA O

CÁLCULO DE CONFIABILIDADE DE VIGAS DE CONCRETO ARMADO

Henrique Machado Kroetz, Jonathan da Maia Santos de Melo, Rodolfo Krul Tessari, Amacin Rodrigues Moreira.

RESUMO:

A ocorrência de uma falha ao longo da vida útil de uma estrutura de construção civil pode ocasionar graves perdas, não

somente de valor financeiro mas também humano. As recomendações normativas brasileiras referentes às estruturas de

concreto armado não possibilitam o conhecimento de suas reais probabilidades de falha, trazendo recomendações de segurança

que utilizam critérios semi-probabilísticos, através da utilização de coeficientes parciais de segurança, conforme Moreira

(2002). O presente trabalho trata do desenvolvimento de um software para a determinação da probabilidade de ruína e do

índice de confiabilidade de uma viga-pilar de concreto armado, submetida à flexocompressão e cisalhamento, através da

utilização de métodos numéricos. O procedimento consiste na entrada de dados sobre a viga, área de seção transversal, áreas de

armadura superiores e inferiores, resistência dos materiais e comprimento, calculando-se assim sua resistência de forma

determinística. São inseridos também dados sobre os esforços solicitantes, através de sua média, desvio padrão, e tipo de ação.

De acordo com o tipo de ação, é associada à solicitação um tipo de distribuição de probabilidade, conforme recomendado por

Soares e Venturini (2001). A integração da função densidade de probabilidade de cada tipo de distribuição foi aproximada pelo

método do trapézio, com o passo se relacionando a cada número de desvios padrão com relação à média, gerando-se assim

uma matriz bidimensional que relaciona uma quantidade de desvios padrão em relação à média a uma probabilidade de

ocorrência de um evento, representada pela área da curva. Entra-se então com os dados sobre a posição do carregamento com

relação à viga e sua distribuição, bem como a posição e condições de restrição dos apoios. A estrutura é então resolvida através

do método da rigidez direta, obtendo-se assim os esforços internos do elemento de barra. Em seguida, inicia-se um série de

comparações entre a resistência determinística do elemento e a solicitação aleatória. Para a solicitação, é gerado um número

aleatório entre 0 e 1, e ele é associado a uma probabilidade de ocorrência. Sendo assim, busca-se na matriz bidimensional os

dois valores mais próximos ao valor sorteado, através do método da bissecção. Com estes valores, é feita uma interpolação

linear utilizando os respectivos números de desvios padrão relacionados às áreas encontradas, para se determinar qual desvio

padrão será adotado para se aplicar à solicitação. É então comparada a solicitação aumentada ou mitigada pelo número de

desvios padrão obtido. Dessa forma, a função de desempenho da estrutura é definida como a subtração entre sua resistência

determinística e esforços internos gerados pela solicitação estatística. Caso o valor da função seja negativo, é incrementado um

contador de falha. Esta simulação se repete uma quantidade de vezes duas ordens de grandeza maior do que a ordem de

grandeza negativa da precisão de confiabilidade desejada, em simulações de Monte Carlo, como recomendado em Nogueira

(2005). A partir daí, é obtida diretamente a probabilidade de falha da estrutura, dividindo-se a quantidade de falhas pela

quantidade de simulações, e, daí, é obtido diretamente seu índice de confiabilidade.

REFERÊNCIAS

MOREIRA, Amacin Rodrigues. Metodologia para avaliação de estruturas de pontes usando a teoria de confiabilidade:

estudo de caso. 2002. 147 f. Dissertação (Mestrado) – Universidade Federal do Paraná. Curitiba, 2002.

NOGUEIRA, C.G. Um modelo de confiabilidade e otimização aplicado às estruturas de barras de concreto armado.

2005. 166 f. Dissertação (Mestrado) – Escola de Engenharia de São Carlos, Universidade de São Paulo. São Carlos, 2005.

SOARES, Rodrigo de Carvalho; VENTURINI, Wilson Sergio. Introdução à análise de confiabilidade. São Carlos:

Universidade de São Carlos, 2001.

62

OTIMIZAÇÃO DO CONSUMO DE LOCOMOTIVAS: UMA ABORDAGEM

REATIVA

Pâmela de Assis Beltrani, Fabrício Enembreck.

Palavras-Chave: Inteligência Artificial, Agentes reativos, Otimização do consumo de combustíveis.

RESUMO:

Está sendo desenvolvido no laboratório de Agente de Softwares da PUCPR o projeto CAT (Condução Automática de Trens)

com o objetivo de desenvolver ferramentas computacionais utilizando Inteligência Artificial para possibilitar o controle seguro

e eficiente de uma composição férrea. O objetivo deste projeto consiste em desenvolver um controlador automático e reativo

de trem com o mínimo de modelagem matemática e integrá-lo ao equipamento de simulação presente no laboratório de agentes

na PUCPR. Para o desenvolvimento deste trabalho foi feita uma revisão bibliográfica sobre o assunto, a aquisição dos dados e

a seleção dos cenários da simulação, a implementação do controlador reativo (Russel, 2004; Cossetin,2011) e a avaliação deste

controlador. Essa sequência foi necessária, pois para conduzir um trem são utilizadas regras de condução (Borges,2009;

Anaice,2011) muito diferentes das utilizadas para a condução de outros meios de transporte graças ao sistema de folgas

presente entre os vagões e a presença de um sistema de frenagem composto por freios que utilizam regras de aplicação e

soltura diferentes entre si. Além disso, durante a etapa de aquisição e implementação foi necessário construir um novo software

para capturar novos dados que não estavam disponíveis no início do projeto. A partir disso foi possível começar a

especificação e a codificação do projeto durante a etapa de implementação para finalmente ser possível obter os dados e avaliar

o desempenho deste agente. A partir dos dados obtidos é possível observar que a condução feita por um humano ainda é mais

eficiente para a redução do consumo de combustível. Ao final dos experimentos o agente apresentou 88,956% do tempo com

condução ótima enquanto o humano apresentou 90,528%. Entretanto, com relação ao conforto de condução (uso das folgas) a

diferença foi de apenas 0,03% entre o agente e o humano. Dessa forma, o agente se mostrou capaz de conduzir de maneira

reativa, o que é algo que não havia sido feito anteriormente utilizando o mínimo de modelagem matemática. A construção de

um agente reativo para a condução de trens se demonstra um desafio interessante, porém com o entendimento dos conceitos

necessários foi possível construir um agente com um desempenho interessante, comparável ao desempenho de um condutor

humano.

REFERÊNCIAS

Anaice, R. T. Estudo da Utilização de Agentes Autônomos para o Controle de Locomotivas. Curitiba. Pontifícia Universidade

Católica do Paraná – Relatório Final de Graduação,Pesquisa e Pós-Graduação, 2011.991.

Borges, A. P. Descoberta de Regras de Condução de Trens de Carga. Curitiba. Pontifícia Universidade Católica do Paraná –

Dissertação, 2009.

Cossetin, M. J. Integração de controle automático em um equipamento de simulação de locomotivas. Curitiba Pontifícia

Universidade Católica do Paraná – Relatório Final de Graduação, Pesquisa e Pós-Graduação,2011.

Russel,S. And Norvig. P. Artificial Inteligence: A Moderfn Approach, Prentice Hall, 2004.

63

UM APLICATIVO PARA O PROBLEMA DE CORTE DE BARRAS

UNIDIMENSIONAL

Cássia Larangeira Taborda Ribas, Neida Maria Patias Volpi.

Palavras-Chave: Pesquisa Operacional, Problema de corte unidimensional, Geração de colunas.

RESUMO:

Este é um estudo sobre o problema de corte que se baseia no Problema de Corte Unidimensional e utiliza técnicas de Geração

de Colunas, cuja teoria com maior repercussão e utilidade foi desenvolvida por Gilmore e Gomory em 1961 (Gilmore, P. &

Gomory R.: “A Linear Programming Approach to the Cutting Stock Problem”, 1961) e são consideradas até hoje eficazes.

Como o cenário real de uma empresa é instável e sujeito a alterações constantemente, considerou-se um problema comum para

tentar chegar mais próximo de determinada realidade escolhida. Tornando assim, possível a comparação com uma situação

real. Um aplicativo foi desenvolvido em MATLAB. Tal problema refere-se ao corte de peças maiores disponíveis em estoque,

em itens menores, visando atender a demanda e otimizar uma determinada função objetivo (Ex:minimizar quantidade de barras

utilizadas ou minimizar a perda total). Para a elaboração do aplicativo foram consideradas algumas restrições específicas para

o corte de bobinas de papel: (a). Número máximo de larguras em um padrão de corte, (b). Quantidade mínima de utilização de

um padrão, (c). Estoque máximo por item, perda considerada zero. Juntamente com essas informações, o Método de Geração

de Colunas foi inserido. Como este método trabalha com um subconjunto de padrões de corte, foi necessária também a

utilização do Problema da Mochila, como um subproblema. Com uma breve análise dos resultados, tem-se que a perda total

obtida pelo estudo real e a perda calculada pelo estudo realizado foram, respectivamente: 0.005% e 0.0006%. Tal diferença

pode parecer pequena quando aplicada em volumes pequenos, o que é um caso atípico. Os volumes são, constantemente,

grandes e esta diferença tem um importante significado. Sendo assim, o aplicativo criado não só atende as necessidades, como

melhora ainda mais os resultados, uma vez que a perda total analisada em determinado estudo teve uma significativa redução

REFERÊNCIAS

Gilmore, P. & Gomory R.: “A Linear Programming Approach to the Cutting Stock Problem”. Operations Research, Received

May, 1961.

64

COMPARAÇÃO ENTRE OS MÉTODOS DE INTEGRAÇÃO NUMÉRICA PARA

ESTIMAÇÃO DOS PARÂMETROS DE UM MODELO BINOMIAL COM

EFEITO ALEATÓRIO

Maurício Fernandes do Nascimento Junior, Bruna Isabelle Carpes Pereira, Wagner Hugo Bonat.

RESUMO:

Modelos Lineares Generalizados Mistos (MLGM) são uma classe de modelos que podem ser utilizados quando se possui mais

de uma medida em um mesmo indivíduo. Aplicações desta classe de modelos aparecem na análise de dados longitudinais, em

que determinada característica dos indivíduos são verificadas ao longo do tempo ou em estudos experimentais onde mais de

uma medida é tomada no mesmo bloco ou parcela. Esses modelos podem ser estimados com certa facilidade quando a

distribuição da variável resposta é Gaussiana (Verbeke and Molenberghs, 200), mas nos casos de respostas possuindo outras

distribuições a análise é mais complexa. Isso ocorre por que se faz necessário resolver integrais que não possuem solução

analítica (Diggle, Heagerty, LiangandZeger, 2002). A estimação nesses casos é feita com o uso de integração numérica. O

objetivo deste trabalho é comparar diferentes métodos de integração numérica, para a estimação dos parâmetros de um modelo

Binomial com intercepto aleatório. Para comparar a eficiência dos métodos de integração numérica, gerou-se uma amostra

aleatória de 20 repetições para 10 indivíduos com resposta binomial e uma covariável numérica X. Os parâmetros utilizados

foram um intercepto, 𝛽0 = 2 , um parâmetro para X, 𝛽1 = −4 , e um desvio-padrão para os efeitos aleatórios, 𝜎 = 0.5 .

Realizou-se a estimação com 8métodos de integração diferentes, método dos trapézios, método de Simpson, quadratura Gauss-

Hermite, Laplace, adaptativo Gauss-Hermite, Monte Carlo MC, Quase Monte Carlo – Sobol e Quase Monte Carlo-Halton. O

método que apresentou melhores resultados foi o método de quadratura Gauss-Hermite. Para investigar mais a fundo esse

método e compará-lo com os métodos Quase Monte Carlo, novas amostras com número de indivíduos maiores e número de

repetições menores foram geradas. Para essas amostras os métodos Quase Monte Carlo não apresentaram uma estimação

satisfatória. Usando poucos pontos de integração esses métodos não conseguiram estimar uma grande quantidade de vezes.

Mesmo aumentando a quantidade de pontos para mais de 300 houve várias amostras que não puderam ser estimadas. O método

de quadratura estimou todas as amostras usando poucos pontos de integração, 20, 50 e 70. Os intervalos de confiança

continham o real valor dos parâmetros em mais de 90% dos casos e o tempo de estimação é curto comparado aos métodos

Quase Monte Carlo. Entre esses três métodos de integração o que se mostrou mais fácil e mais eficiente foi o método da

quadratura Gauss-Hermite.

REFERÊNCIAS

Diggle, P.J.,Heagerty, P., Liang, K. Y., and Zeger,S.L., Analysis of Longitudinal Data, volume II. New York, 2002.

Verbeke, G., and Molenberghs, G., Linear Mixed Models for Longitudinal Data, New York, 2000.

65

ESTUDO COMPARATIVO DE DIFERENTES MÉTODOS NUMÉRICOS PARA A

DETERMINAÇÃO DE AUTOVALORES E AUTOVETORES

Guilherme Netto, Marcos Arndt.

Palavras-Chave: Autovalores, Autovetores, Métodos Numéricos.

RESUMO:

A determinação de autovalores e autovetores é necessária para muitos problemas de engenharia, como a análise dinâmica e a

análise de estabilidade de sistemas estruturais. Diversos métodos numéricos para solução destes problemas são encontrados na

literatura, com suas devidas particularidades, qualidades e defeitos. O objetivo deste trabalho é descrever e comparar os

principais métodos numéricos utilizados. As principais características de cada método são explicadas, sendo também discutida

a sua aplicabilidade para problemas descritos por diferentes tipos de matrizes (densas, esparsas, bandas, complexas). A

eficiência de cada método é avaliada sob os seguintes aspectos: precisão dos resultados, custo computacional (tempo de

processamento) e velocidade de convergência. Os principais métodos analisados são: Método da Potência Clássico (Hoffman,

2001), Iteração Inversa com deslocamento (inverse iteration with shift) (Datta, 1995), Método QR (Stoer and Bulirsch, 1983) e

Método de Arnoldi (Ainsworth Jr, 2003).

REFERÊNCIAS

Ainsworth Jr, G. O., Desenvolvimento de um algoritmo baseado no método de Arnoldi para solução de problemas de

autovalor generalizado, 2003. Tese (Doutorado), UFRJ.

Datta, B. N., Numerical linear algebra and applications. Brooks/Cole, 1995.

Hoffman, J. D., Methods for engineers and scientists, CRC Press, 2001.

Stoer, J., and Bulirsch, R., Introduction to numerical analysis. Springer, 1983.

66

ANÁLISE ESTATÍSTICA DA DISTRIBUIÇÃO DE RESÍDUOS URBANOS EM

TERRENOS BALDIOS NA CIDADE DE FAZENDA RIO GRANDE

Guilherme Parreira da Silva, Thiago de Farias Pires.

Palavras-Chave: Programação Estatística, Resíduos Urbanos, Testes Estatísticos, Gráficos Estatísticos.

RESUMO:

O objetivo geral deste trabalho é o estudo estatístico do destino de resíduos urbanos no município de Fazenda Rio

Grande, no estado do Paraná e tem como objetivos específicos:

I) O estudo e descrição das áreas com maior incidência de lixo;

II) Apontar os tipos de resíduos mais comuns em terrenos baldios na cidade;

III) A análise da percepção dos moradores em relação ao lixo nestas áreas.

Os dados foram cedidos pelo Laboratório de Estatística Aplicada da UFPR (LEA/UFPR) oriundos da base de

defesa de uma tese de doutorado do Setor de Ciências da Terra (no prelo). Estes traziam informações a respeito de

13 tipos de lixo (que posteriormente foram agrupados em quatro grandes categorias: domésticos e industriais,

orgânicos, perigosos e mistos) e suas respectivas coordenadas geográficas. Além disto, traziam informações

levantadas a respeito da incidência de insetos que transmitem doenças e problemas de saúde em habitações nas

proximidades dos focos de lixo. No presente trabalho foi realizada inferência estatística dos dados obtidos,

utilizando testes não paramétricos, como o Chi-Quadrado Simulado, Wilcoxon, Soma de Ranks de Kruskal-Wallis

e teste de correlação de postos de Spearman (Siegel, 1975). Para a realização dos testes, foi utilizado o software e

linguagem R dando ênfase na programação para geração de reportes automáticos (Ribeiro Jr, 2005), tornando ágil a

análise das informações. Grande parte dos resultados foi apresentada primeiramente em tabelas, posteriormente, os

resultados mais relevantes de forma gráfica. Ressalta-se o uso de grafos, metodologia gráfica amplamente utilizada

no campo da computação (Csárdi. G, 2012), aqui utilizada para verificar a relação entre os tipos de resíduos, além

de mapas, mostrando visualmente a distribuição dos resíduos urbanos no município. Esse estudo tem utilidade,

sobretudo no campo de engenharia ambiental e sanitária no gerenciamento de resíduos, podendo servir de base para

estratégias de atuação na área, além de servir como uma opção para o procedimento de análises estatísticas em

estudos semelhantes.

REFERÊNCIAS

Bussab, W.O.; Morettin, P.A. Estatística Básica. 5ª edição. Editora Saraiva. 2002

Csárdi. G.; Nepusz. T. R igraph Reference Manual. 2012. Disponível em: <http://igraph.sourceforge.net/doc/igraph-docs.pdf>

Último acesso em: 13/09/2012

Guimarães. Paulo Ricardo B. Notas de Aula: Estatística Não-paramétrica. 2011.

Ribeiro Jr, P. J. Introdução ao Ambiente Estatístico R. 2005. Disponível em:

<http://www.leg.ufpr.br/~paulojus/embrapa/Rembrapa/> Último acesso em: 13/09/2012

Siegel, S. Estatística Não-Paramétrica. Mc Graw-Hill, 1975.

67

ALGORITMO PARA MEDIÇÃO DE ERRO DE CIRCULARIDADE E

EXCENTRICIDADE E CONSTRUÇÃO DE GRÁFICO POLAR DE PERFIL DE

CIRCULARIDADE

Holisses Bellon. Palavras-Chave: Erro de circularidade, excentricidade, perfil de circularidade, metrologia dimensional avançada, UPR e filtro

gaussiano.

RESUMO:

O estudo da medição de circularidade é um dos ramos da metrologia dimensional avançada. O erro de circularidade e faixa que

contém o elemento geométrico medido entre dois círculos concêntricos. A diferença radial entre esses círculos nos dará o um

valor estimado para o erro de circularidade. Foram coletados pontos de um circularímetro da Taylor Robson e logo após foi

aplicado um algoritmo visando obter resultados semelhantes, devido à escassez literária sobre o assunto que geralmente se

concentra no processo de medição e não no processo matemático do software tive que inserir artifícios próprios para completar

tal algoritmo. Os resultados mostram-se bastante precisos sendo que obtivemos pequenos desvios na sétima casa decimal que

giravam em torno de duas unidades nesta respectiva casa. Com relação à excentricidade nossos dados foram precisos também

considerando o truncamento feito pelo software. Na geração do gráfico de perfil de circularidade quando comparado com o

software do circularímetro resulta numa semelhança gráfica que na comparação visual torna-se imperceptível qualquer

diferença. Utilizando um filtro gaussiano para o algoritmo foi possível a simulação de diferentes UPR para a transmissão dos

dados obtendo diferentes amplitudes de erro (rugosidade, ondulação e desvio de forma). Este trabalho ajudou a esclarecer

grande parte da matemática empregada pelos softwares de circularímetro o que possibilitará a obtenção de diversas simulações

para o processo de medição, bem como o melhor entendimento de seu processo o que possibilitará avanço no tratamento dos

dados, assim como o desenvolvimento de novas técnicas de medição.

REFERÊNCIAS

Muralikrishnan, Bala, and Raja Jay, Computational Surface and Roundness Metrology, 2009.

Meyer, E.S., Morrison, A.J., and Plummer, C.S., The finite element method: A good friend. Journal of Numerical Methods, .

Meyer, E.S., Morrison, A.J., and Plummer C.S., Finite differences and finite volumes. Two old friends. Journal of Numerical

Methods, 32:1223–1241, 1995b.

Zienkiewicz, O.C., and Taylor, R.L., The finite element method, volume II. McGraw Hill, 1991.

68

Sumário por primeiro autor

Ana Paula Kelm Soares, Ricardo Carvalho de Almeida. 21

André Luiz Daniel, Emílio G. F. Mercuri, Mildred B. Hecke. 7

André Luiz Emidio de Abreu, Anselmo Chaves Neto. 33

Bruna Arcie Polli, Michael Mannich, Tobias Bleninger. 17

Cássia Larangeira Taborda Ribas, Neida Maria Patias Volpi. 63

Cláudia Slongo, Marco André Argenta. 59

Conejo, P. D., Karas, E. W., Pedroso, L. G., Ribeiro, A. A., Sachine, M. 41

Diana M. Cancelli, Marcelo Chamecki, Nelson L Dias. 19

Dornelles Vissoto Junior, Nelson Dias. 23

Ednaldo de Oliveira Martins, Neida Maria Patias Volpi. 47

Emílio Graciliano Ferreira Mercuri, André Luiz Daniel, Roberto Dalledone Machado, Mildred Ballin Hecke. 9

Felipe Baptista Nishida, Thiago Antonini Alves. 60

Flaviane Peccin, Anselmo Chaves Neto. 37

Gerson Ulbricht, Moacir Manoel Rodrigues Junior, Adriana Kroenke, Neida M. Patias Volpi, Sander Joner. 35

Guilherme Augusto Pianezzer, Fábio André Negri Balbo, Eloy Kavisky, Liliana Madalena Gramani, Marcelo Rassy

Teixeira. 25

Guilherme Netto, Marcos Arndt. 65

Guilherme Parreira da Silva, Thiago de Farias Pires. 66

Guilherme Vinicyus Batista, Cassius Tadeu Scarpin, Gustavo Valentim Loch 53

Henrique Machado Kroetz, Jonathan da Maia Santos de Melo, Rodolfo Krul Tessari, Amacin Rodrigues Moreira. 61

Holisses Bellon. 67

Jean Eduardo Sebold, Luiz Alkimin de Lacerda, Jose Antonio Marques Carrer. 15

Leandro A. Nacif, Marcelo R. Bessa. 45

Letícia Maria Nocko, Eduardo Dell’Avanzi. 27

Marcelo Franco de Oliveira, Cynara de Lourdes da Nóbrega Cunha. 11

Marina Vargas, Marco A. Argenta. 55

Maurício Fernandes do Nascimento Junior, Bruna Isabelle Carpes Pereira, Wagner Hugo Bonat. 64

Pâmela de Assis Beltrani, Fabrício Enembreck. 62

Pedro Rochavetz de Lara Andrade,Cassius Tadeu Scarpin, Maria Teresinha Arns Steiner. 49

Ricardo Sommerfeld, Marco A. Argenta, Emílio Graciliano Ferreira Mercuri, Lucila Largura, Ana Paula de Oliveira

Gebert. 58

Roberto Pettres, Luiz Alkimin de Lacerda. 13

Sinvaldo R. Moreno, Eloy Kaviski. 43

Tatiane Cazarin da Silva, Ademir Alves Ribeiro, Gislaine Aparecida Periçaro. 39

Thaís Mariane Biembengut, Simone Aparecida Miloca, Neida Maria Patias Volpi. 51

Tuanny Brufati, Saulo Pomponet, Amin Bassrei. 29

Vanessa Ferreira Sehaber, Adriano Rodrigues de Melo, Jair Mendes Marques. 31