Post on 21-Feb-2021
Interpolacao Suave em Espacos Euclidianos
e outras Variedades Riemanianas
Rui Manuel Carreira Rodrigues
Departamento de Matematica
Universidade de Coimbra
2006
Interpolacao Suave em Espacos Euclidianos
e outras Variedades Riemanianas
Rui Manuel Carreira Rodrigues
Dissertacao apresentada a Faculdade de Ciencias e Tecnologia
da Universidade de Coimbra para cumprimento dos requisitos
necessarios a obtencao do grau de Doutor em Matematica, espe-
cialidade em Matematica Pura. Trabalho realizado sob orientacao
cientıfica da Doutora Fatima Silva Leite, Professora Catedratica
no Departamento de Matematica da Universidade de Coimbra.
Departamento de Matematica
Universidade de Coimbra
2006
Trabalho de investigacao
co-financiado pelo Fundo Social Europeu
atraves do programa PRODEP III.
Concurso Publico n. 2/5.3/PRODEP/2003 - Doutoramentos.
Agradecimentos
A realizacao duma dissertacao de doutoramento envolve sempre pessoas e instituicoes
com as quais, por diversas razoes, contraımos uma dıvida de gratidao indelevel. As
proximas linhas sao-lhes dedicadas.
As minhas primeiras palavras sao para a Professora Doutora Fatima Silva Leite minha
orientadora cientıfica. Ao longo dos ultimos anos, em todos os pequenos e grandes mo-
mentos da minha carreira cientıfica, esteve sempre presente a meu lado, orientando-me
cientificamente, guiando-me por vezes sem eu dar por isso e motivando-me sempre para
ir um pouco mais longe. O seu empenho, compreensao e amizade proporcionaram-me
um ambiente onde o dialogo foi sempre uma constante e onde pude sem reservas desen-
volver as minhas aptidoes. Com a Professora Fatima Leite aprendi muito e continuarei
a aprender com a certeza de que nunca poderei retribuir. O meu muito obrigado.
Agradeco ao Instituto Superior de Engenharia de Coimbra e, em particular, ao Depar-
tamento de Fısica e Matematica o empenho demonstrado no apoio da minha candidatura
ao programa PRODEP III. O seu sucesso permitiu que pudesse beneficiar de uma dis-
pensa de servico docente, sem a qual nao teria conseguido fazer igual.
A minha Unidade de Investigacao, o Instituto de Sistemas e Robotica-Coimbra, agra-
deco todo o apoio financeiro que me tem concedido, que em varias ocasioes foi essencial
nos projectos que conduziram a preparacao desta tese. A Fundacao Calouste Gulbenkian
agradeco a atribuicao de uma bolsa de estudo para uma deslocacao a Universidade de
Florenca em Italia, onde tive a oportunidade de aprofundar conhecimentos e conhecer
outras realidades.
Ao Professor Doutor Andrey Sarychev gostaria de agradecer o interesse pela minha
carreira de que sempre deu mostra. Gostaria de lhe agradecer ainda pelas conversas e
sugestoes de que a minha investigacao beneficiou e tambem por me ter recebido, acom-
panhado e orientado, durante a minha estadia na Universita degli Studi di Firenze.
Ao Professor Doutor Eduardo Marques de Sa gostaria de agradecer as observacoes
que muito contribuıram para o conteudo do primeiro capıtulo.
Nao me esqueco de Silverio Rosa, Delfim Torres, Janusz Jakubiak, Urbano Nunes e
Larissa Labakhua com quem pude partilhar ideias e desenvolver em equipa trabalho de
investigacao. A Manuel Guerra, Knut Huper e Joao Cardoso agradeco a disponibilidade
para conversar sobre matematica.
Gostaria tambem de agradecer aos colegas do (meu) Departamento de Fısica e Ma-
tematica que sempre aceitaram, compreenderam e acompanharam este meu projecto.
Nao me esqueco tambem dos meus pais e irmaos que sao sempre implicitamente parte
de todos os meus trajectos.
E especialmente a Billie que sempre a meu lado, orgulhosa e sorridente, contribuiu em
todo este percurso para colorir muitos momentos desta tese. Sem o seu apoio e paciencia
tudo teria sido bem mais difıcil.
Este momento significa o culminar da minha investigacao para doutoramento. Indica
tambem que a persistencia e os anos de trabalho deram fruto e que o desanimo de muitos
momentos nao foi em vao. Talvez o gosto por aprender os tenha mesmo suavizado.
Aproveito para agradecer a todos os que me ajudaram a progredir e a ser um pouco mais
de mim mesmo.
Resumo
Esta dissertacao e dedicada ao estudo de problemas de interpolacao suave em variedades
Riemanianas. O trabalho esta dividido em duas partes. Na primeira parte analisamos
certas curvas spline em espacos Euclidianos e estudamos qual a sua relacao com proble-
mas de interpolacao dinamica. Em particular, estendemos a classe mais geral das funcoes
L-spline resultados anteriores para splines generalizados escalares e estudamos uma classe
de novos splines multi-dimensionais, em espacos Euclidianos de dimensao arbitraria, asso-
ciados a operadores diferenciais lineares com coeficientes matriciais. Em ambos os casos,
sao estabelecidas ligacoes com problemas de controlo optimal. Na segunda parte apre-
sentamos dois algoritmos geometricos para a geracao de curvas interpoladoras suaves em
variedades Riemanianas conexas e completas tais como, grupos de Lie matriciais conexos
e compactos e a esfera n-dimensional. Cada algoritmo e composto por um pequeno
numero de passos que e independente da suavidade da curva. Esta propriedade e con-
sequencia do papel desempenhado por uma determinada funcao (funcao suavizante) que
e escolhida logo que a suavidade da curva esteja definida.
Palavras chave: Curvas interpoladoras suaves, L-splines, splines generalizados, ope-
radores diferenciais lineares com coeficientes matriciais, calculo das variacoes, controlo
optimal, sistemas lineares de controlo, variedades Riemanianas, grupos de Lie matriciais,
algoritmo de De Casteljau, algoritmos geometricos.
Abstract
In this thesis we study smooth interpolating curves on Riemannian manifolds. In the first
part of the thesis we explore connections between splines in Euclidean spaces associated
to linear differential operators and dynamical interpolation problems. We emphasize
the optimal properties of some Euclidean splines, known in the literature as L-splines,
extending previous work on scalar generalized splines. We then consider a class of linear-
quadratic problems and use tools from optimal control to produce new time-dependent
splines in arbitrary Euclidean spaces, associated to linear differential operators with ma-
trix coefficients. This first part shows that splines are intrinsic to optimal control theory
since they appear naturally as minimizers of some optimal control problems. In the
second part of the thesis we present two simple and efficient geometric algorithms to ge-
nerate interpolating curves of arbitrary degree of smoothness in Euclidean spaces. Each
algorithm consists of a recursive procedure and is performed in a small number of steps,
independently of the required degree of smoothness of the curve. This interesting pro-
perty of both algorithms results from the role played by an appropriate function (the
smoothing function) which is used to define the interpolating curve and is chosen as soon
as the smoothness of the curve is fixed. These algorithms are then extended to other
connected and complete Riemannian manifolds such as, compact and connected matrix
Lie groups and spheres. Some of the results of the thesis can be found in [61], [64], [65],
[58] e [36].
Keywords: Smooth interpolating curves, L-splines, generalized splines, linear differ-
ential operators with matrix coefficients, calculus of variations, optimal control, linear
systems, Riemannian manifolds, matrix Lie groups, De Casteljau algorithm, geometric
algorithms.
2000 Mathematics Subject Classification: 41A15, 41A30, 53B21, 65D05, 65D07,
93C15.
Indice
Introducao 1
I Funcoes spline associadas a operadores diferenciaise controlo optimal 9
1 Funcoes L-spline e controlo optimal 11
1.1 Funcoes L-spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.2 Existencia e unicidade. Primeira relacao integral . . . . . . . . . . 14
1.1.3 Um caso particular: splines generalizados . . . . . . . . . . . . . . 16
1.2 Abordagem variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Um problema de controlo optimal para funcoes L-spline . . . . . . . . . . 19
1.3.1 Formulacao e analise do problema (modelo de entrada-saıda) . . . 19
1.3.2 Formulacao e analise do problema (modelo de estado) . . . . . . . 22
1.3.3 Splines generalizados e controlo optimal . . . . . . . . . . . . . . . 26
1.3.4 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Observacoes finais e referencias . . . . . . . . . . . . . . . . . . . . . . . . 29
2 Splines generalizados em espacos Euclidianos e controlo optimal 31
2.1 Splines generalizados em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.1 Existencia, unicidade e comportamento optimal . . . . . . . . . . . 34
2.1.2 Interpretacao variacional . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Ligacoes com a teoria de controlo . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 O caso p = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2.3 Ligacoes com equacoes de Riccati . . . . . . . . . . . . . . . . . . . 49
2.3 Observacoes finais e referencias . . . . . . . . . . . . . . . . . . . . . . . . 51
xi
II Algoritmos geometricos para a geracao de curvas splineem variedades Riemanianas 53
3 Elementos de geometria Riemaniana 55
3.1 Preliminares de geometria diferencial . . . . . . . . . . . . . . . . . . . . . 55
3.2 Variedades Riemanianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3 Conexao Riemaniana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4 Geodesicas em variedades Riemanianas . . . . . . . . . . . . . . . . . . . . 60
3.5 Grupos de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.5.1 Grupos de Lie matriciais . . . . . . . . . . . . . . . . . . . . . . . . 68
3.6 Observacoes finais e referencias . . . . . . . . . . . . . . . . . . . . . . . . 73
4 Um algoritmo com tres passos 75
4.1 Formulacao do problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2 O algoritmo de De Casteljau . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3 O novo algoritmo em espacos Euclidianos . . . . . . . . . . . . . . . . . . 82
4.3.1 Funcoes suavizantes . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.3.2 Descricao do algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.3.3 Propriedades do algoritmo . . . . . . . . . . . . . . . . . . . . . . . 89
4.3.4 Flexibilidade do algoritmo . . . . . . . . . . . . . . . . . . . . . . . 91
4.4 O algoritmo em grupos de Lie matriciais . . . . . . . . . . . . . . . . . . . 93
4.4.1 O algoritmo no grupo ortogonal especial . . . . . . . . . . . . . . . 97
4.5 Observacoes finais e referencias . . . . . . . . . . . . . . . . . . . . . . . . 100
5 Um algoritmo com dois passos 103
5.1 Formulacao do problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 O novo algoritmo em espacos Euclidianos . . . . . . . . . . . . . . . . . . 104
5.2.1 Propriedades do algoritmo . . . . . . . . . . . . . . . . . . . . . . . 108
5.2.2 Flexibilidade do algoritmo . . . . . . . . . . . . . . . . . . . . . . . 108
5.3 O algoritmo em grupos de Lie matriciais . . . . . . . . . . . . . . . . . . . 110
5.3.1 O algoritmo no grupo ortogonal especial . . . . . . . . . . . . . . . 113
5.4 O algoritmo na esfera n-dimensional . . . . . . . . . . . . . . . . . . . . . 114
5.5 Observacoes finais e referencias . . . . . . . . . . . . . . . . . . . . . . . . 119
Comentarios finais 121
Referencias bibliograficas 125
Indice alfabetico 133
xii
Introducao
Nesta dissertacao estudamos problemas de interpolacao suave em espacos Euclidianos
e outras variedades Riemanianas. A motivacao para a necessidade de construir curvas
interpoladoras suaves vem de diversas aplicacoes a engenharia.
Ao longo do tempo foram propostas diferentes abordagens para o problema da geracao
de splines interpoladores. As dificuldades inerentes a extensao de resultados conheci-
dos, guiaram os nossos trabalhos de investigacao por dois percursos que correspondem a
abordagens distintas do mesmo problema. Se por um lado, dedicamos uma parte deste
trabalho ao estudo de curvas spline em espacos Euclidianos, que sejam solucao de certos
problemas de optimizacao, por outro, dedicamos parte dos nossos esforcos ao desenvolvi-
mento de algoritmos geometricos que permitem gerar de forma eficiente curvas spline
de suavidade arbitraria em outras variedades Riemanianas. Nunca deixamos contudo
de questionar o comportamento optimal das curvas geradas. Trabalhos anteriores em
espacos nao Euclidianos parecem indicar nao ser possıvel alcancar o melhor de “dois
mundos”. Se se pretende gerar curvas interpoladoras que sejam optimas num certo sen-
tido, entao o reverso da medalha surge geralmente com a dificuldade da determinacao de
expressoes explıcitas para as curvas que se vislumbram. Por estes motivos esta dissertacao
encontra-se dividida em duas partes.
A primeira parte intitulada “Funcoes spline associadas a operadores diferenciais e
controlo optimal”, e dedicada a caracterizacao de certas curvas spline em espacos Eucli-
dianos e ao estudo da sua relacao com problemas de interpolacao dinamica1. A segunda
parte desta tese denominada “Algoritmos geometricos para a geracao de curvas spline em
variedades Riemanianas”, e por sua vez dedicada ao desenvolvimento de dois algoritmos
geometricos, para a geracao de curvas spline em certas variedades Riemanianas conexas
e compactas.
Seguimos com uma pequena introducao historica sobre funcoes spline, que nos conduz
ao ponto em que iniciamos os trabalhos de investigacao que compoem a primeira parte
desta dissertacao, e permite enquadrar o trabalho por nos desenvolvido.
1Expressao introduzida por Crouch e Jackson no inıcio da decada de 90 em [18] e [35], para designar
problemas de controlo optimal em que se pretende conduzir variaveis de estado de um sistema de con-
trolo, por um conjunto de condicoes de interpolacao, atraves da determinacao de variaveis de controlo
adequadas.
1
Introducao
As funcoes spline2 despontaram na area da aproximacao numerica, durante a decada
de 50 do seculo XX, e contudo aceite que a primeira referencia matematica a splines surgiu
em 1946 num artigo de Schoenberg. Estas surgiram no contexto da procura de melho-
res solucoes para problemas de interpolacao, onde alem das condicoes de interpolacao
classicas, ha tambem determinadas condicoes de continuidade. Na sua genese, as funcoes
spline eram simplesmente funcoes definidas num intervalo real [a, b], com expressao poli-
nomial em cada intervalo de uma particao ∆ de [a, b] e com a exigencia acrescida de
um certo grau de suavidade em cada ponto intermedio de ∆ (na ligacao dos polinomios
adjacentes). Ou seja, em vez de aproximar uma funcao por um unico polinomio num
intervalo [a, b], concretiza-se a aproximacao pela colagem de varias funcoes polinomiais.
Prescinde-se da suavidade global da funcao que aproxima para obter uma aproximacao
melhor.
A natureza e as propriedades fundamentais dos splines polinomiais, permitiram que
fossem rapidamente adoptados em diversas areas de matematica aplicada tais como,
modelacao geometrica na construcao de automoveis e na construcao de aeronaves (na
industria automovel, pode referir-se em particular os trabalhos de De Casteljau na
Citroen, de Bezier na Renault e de De Boor na General Motors), levando a teoria das
funcoes spline a um desenvolvimento fulgurante. Algum tempo mais tarde, em desenho
assistido por computador, as funcoes spline tiveram um papel determinante como ferra-
menta essencial na reproducao de formas complexas suaves. Neste contexto, os splines
polinomiais sao agora curvas parametrizadas seccionalmente polinomiais. O sucesso da
utilizacao extensiva de splines polinomiais nas diversas areas, deveu-se em grande parte
a sua simplicidade do ponto de vista computacional e a sua capacidade intrınseca de
reproduzir formas complexas.
Os splines cubicos sao com toda a certeza os splines polinomiais mais divulgados. Sao
por definicao funcoes reais definidas no intervalo [a, b] ⊂ R, duas vezes continuamente
diferenciaveis em [a, b], que em cada intervalo de uma particao
∆ : a = t0 < t1 < · · · < tm = b
de [a, b], tem uma expressao polinomial de grau maximo tres. Mostra-se que um spline
cubico existe e e unico se forem prescritas mais duas condicoes de interpolacao nas
derivadas, uma no instante inicial e outra no instante final. Usualmente, prescrevem-
se os valores da primeira derivada em t = a e t = b. A curva resultante e o spline cubico
mais conhecido, que e geralmente designado por spline cubico classico. Uma alternativa
consiste em prescrever os valores da segunda derivada, originando o spline cubico natural,
2A palavra spline provem do nome de um instrumento usado por engenheiros para o ajustamento
de curvas suaves, por determinados pontos de interpolacao. Imagens esclarecedoras sobre o uso de
splines encontram-se no endereco (http://www.cs.wisc.edu/∼deboor/draftspline.html). Uma recolha
bibliografica sobre splines em teoria da aproximacao, mantida por Larry Schumaker e Carl de Boor,
pode ser consultada, por exemplo, em (http://www.cs.wisc.edu/∼deboor/bib/bib.html).
2
Introducao
se forem prescritos valores nulos. O spline cubico classico tem uma propriedade optimal
interessante. Mostra-se que e o unico minimizante da funcional integral
J(x(·)) =
∫ b
a
(x(t))2 dt
no conjunto das funcoes x : [a, b] → R que satisfazem identicas condicoes de interpolacao
e sao duas vezes continuamente diferenciaveis em [a, b]. A extensao natural ao caso de
curvas parametrizadas em espacos Euclidianos de dimensao arbitraria e relativamente
simples de concretizar.
A extensao do conceito de spline polinomial nao tardou e progrediu em diversas
direccoes. Uma generalizacao importante surgiu na decada de 60 com os splines generali-
zados escalares de Ahlberg, Nilson e Walsh [2]3. Este conjunto de funcoes spline contem
em particular todos os splines polinomiais. Sao funcoes reais definidas em [a, b] que, em
cada intervalo de uma particao ∆ de [a, b], sao solucao de uma equacao diferencial da
forma
L∗Lx = 0
onde L e um operador diferencial linear de ordem p e L∗ e o adjunto de L. Em cada
instante t = a e t = b prescrevem-se p condicoes de interpolacao e exige-se que a funcao
que resulta da ligacao de todos os segmentos, seja suave de classe C 2p−2 no intervalo [a, b].
Existe um unico spline generalizado escalar associado ao operador L, a particao ∆ e ao
conjunto de condicoes de interpolacao prescrito. O spline cubico classico ocorre quando
p = 2 e L ≡ D2. A propriedade optimal deste spline cubico encontra tambem uma
generalizacao natural. O spline generalizado escalar e o unico minimizante da funcional
J(x(·)) =
∫ b
a
(Lx(t))2 dt
no conjunto das funcoes x : [a, b] → R que satisfazem as mesmas condicoes de interpolacao
e sao de classe C 2p−2 no intervalo [a, b].
Com Schultz e Varga [70] surgiram em 1967 as funcoes L-spline, conjunto de funcoes
que contem os splines generalizados de Ahlberg, Nilson e Walsh como caso particular.
Schultz e Varga vao um pouco mais longe, permitindo nos instantes intermedios de uma
particao ∆ de [a, b], condicoes de interpolacao nas derivadas e um numero variavel de
condicoes de suavidade. Em cada instante intermedio as condicoes de suavidade e as
condicoes de interpolacao nas derivadas totalizam 2p condicoes. O numero de condicoes
de interpolacao nas derivadas e o numero de condicoes de suavidade pode contudo variar
com equilıbrio, de ponto para ponto da particao ∆ de [a, b].
A evolucao constante permite que hoje em dia o termo spline tenha uma
conotacao um pouco mais “suave”. Podemos afirmar que os splines sao, na
3Os mesmos autores sao, ainda na mesma epoca, responsaveis pela primeira referencia bibliografica
inteiramente dedicada ao estudo das funcoes spline [3].
3
Introducao
sua essencia, funcoes interpoladoras com um certo grau de suavidade global,
resultado da ligacao (colagem com certas condicoes de suavidade) de funcoes
mais simples que sao os seus segmentos.
O estudo de splines no contexto da analise de problemas de controlo optimal, teve inıcio
no princıpio da decada de 90, como resposta a procura de outro tipo de ferramentas
matematicas, para lidar com questoes de ındole pratica, associadas por exemplo, a pro-
blemas de trafego aereo ou a problemas de planeamento de trajectorias para sistemas
mecanicos. Os trabalhos de investigacao de Crouch e Jackson para dinamicas lineares [18]
e dinamicas nao-lineares [35], parecem-nos ser as primeiras publicacoes sobre splines em
espacos Euclidianos e controlo optimal. Um pouco mais tarde, Martin e seus colabo-
radores [46], estabeleceram uma relacao directa entre os splines generalizados de Ahlberg,
Nilson e Walsh e certos problemas de controlo optimal para sistemas lineares com uma
unica entrada e uma unica saıda (SISO 4). Este trabalho inovador e no entanto um pouco
obscuro. Os autores transmitem a ideia da descoberta de um vasto leque de novos splines
ignorando que estes, nao sao mais do que, os ja bem conhecidos splines generalizados es-
calares. O enquadramento correcto com uma simplicidade de processos consideravel e
conseguido mais tarde por Rodrigues em [66] e Rodrigues, Silva Leite e Simoes em [60].
Com estes tres trabalhos ficou claro que os splines generalizados podem ser interpre-
tados, como output optimo de problemas de controlo optimal, para sistemas contınuos
invariantes no tempo, na forma canonica de controlabilidade.
Os resultados obtidos estabeleceram uma pequena ponte entre a teoria das funcoes
spline (associadas a operadores diferenciais) e a teoria de sistemas, apresentando por
essa via uma nova perspectiva sobre o assunto. As funcoes spline sao afinal mais do que
solucoes de certos problemas de interpolacao, surgem naturalmente como componente
fundamental em problemas de controlo optimal.
A ligacao entre splines em espacos Euclidianos e controlo optimal e um dos temas que
Martin e seus colaboradores continuaram a explorar, consulte-se por exemplo [74], [45],
[25] e [26]. Contudo, em grande parte destes trabalhos, a ligacao nao e estabelecida com
splines generalizados escalares mas sim com splines suavizantes, isto e, de uma forma
simples, funcoes spline que em vez de interpolar, passam razoavelmente perto dos dados
prescritos (situacao que e conveniente considerar quando, por exemplo, se acredita que
a obtencao dos dados iniciais esta sujeita a erros). Estas funcoes spline surgiram com
destaque no trabalho de Wahba na area da estatıstica [79]. Vem a proposito mencionar
o recente trabalho de doutoramento de Luıs Machado onde e desenvolvido o estudo de
splines suavizantes no contexto global das variedades Riemanianas [44].
Surge agora o momento de descrever os progressos que alcancamos apos a obtencao
dos resultados descritos em [66] e [60]. Progredimos na procura de estabelecer ligacoes
entre a teoria das funcoes spline, associadas a operadores diferenciais e a teoria dos
4Do Ingles “single input single output”.
4
Introducao
sistemas de controlo. E neste contexto que surgem os resultados originais que constituem
a primeira parte desta tese. No primeiro capıtulo estendemos os resultados obtidos, para
os splines generalizados escalares de Ahlberg, Nilson e Walsh, a classe mais geral das
funcoes L-spline de Schultz e Varga. A perspectiva sobre o assunto e agora bem mais
vasta o que permite definir com mais clareza certos aspectos nao observaveis, aquando
do estudo feito para os splines generalizados escalares. O segundo capıtulo e totalmente
dedicado a definicao e equivalencia de uma classe de novos splines multi-dimensionais,
em espacos Euclidianos de dimensao arbitraria, associados a operadores diferenciais li-
neares com coeficientes matriciais e problemas de controlo optimal para sistemas com
entradas multiplas e saıdas multiplas (MIMO 5). Os resultados sao obtidos directamente
para a situacao mais geral em que a dinamica e variante no tempo. Estes resultados
levantam problemas complicados de natureza computacional, que na sua versao mais
simples envolvem polinomios matriciais directamente associados a resolucao do problema
quadratico de valores proprios. Em qualquer destes capıtulos a abordagem comeca por
ser variacional. Este e do nosso ponto de vista o caminho natural a percorrer entre duas
areas aparentemente “desconexas”.
Iniciamos a descricao do outro percurso que culminou na obtencao dos resultados
contidos na segunda parte desta tese, incluindo factos historicos relevantes que permitem
enquadrar o trabalho desenvolvido.
O estudo de splines em espacos nao Euclidianos e consequencia da procura de novas
tecnicas em muitas aplicacoes a engenharia onde os espacos de configuracao sao estru-
turas geometricas nao Euclidianas. Esta necessidade fez com que os desenvolvimentos
posteriores passassem pela adaptacao e generalizacao a variedades Riemanianas (como
e o caso de alguns grupos de Lie) das tecnicas e metodos desenvolvidos em espacos
Euclidianos. O problema do planeamento de trajectorias para sistemas mecanicos e um
exemplo importante. Por exemplo, Zefran, Kumar e Croke em [78], estudaram o pro-
blema da construcao de uma trajectoria suave para o movimento de um corpo rıgido,
com o conhecimento previo das posicoes e orientacoes inicial e final do corpo. Anali-
saram estes problemas numa perspectiva optimal considerando determinadas funcionais
custo. Trata-se concretamente de um problema de planeamento de trajectorias no grupo
de Lie especial Euclidiano SE(3,R).
Uma generalizacao do conceito de spline cubico em variedades Riemanianas surgiu
em 1989 com o trabalho pioneiro de Noakes, Heinzinger e Paden [50]. Esta generalizacao
baseia-se na extensao a variedades Riemanianas do conceito Euclidiano de polinomio
cubico. Estes sao definidos como as solucoes de um problema de segunda ordem do
calculo das variacoes, que consiste em minimizar a funcional integral
J(γ(·)) =
∫ 1
0
⟨Ddt
dγdt, D
dtdγdt
⟩dt
5Do Ingles “multi input multi output”.
5
Introducao
no conjunto das curvas na variedade, que sao em simultaneo de classe C 2 e satisfazem
condicoes de interpolacao nos instantes t = 0 e t = 1. Na expressao da funcional, 〈·,·〉identifica a metrica Riemaniana e D
dtdenota a derivada covariante de um campo de
vectores ao longo de uma curva na variedade. Observa-se que os splines cubicos em va-
riedades sao afinal as curvas com todas as condicoes prescritas, que minimizam o integral
do quadrado da norma da componente tangencial da sua aceleracao. Esta generalizacao
coincide em particular com a formulacao variacional (classica) de um polinomio cubico
em espacos Euclidianos. A abordagem utilizada em [50] despertou um interesse renovado
por estes assuntos, bem patente nos trabalhos posteriores de Crouch e Silva Leite [21, 22]
no contexto dos problemas de interpolacao dinamica em variedades Riemanianas e de
Camarinha [15] no estudo da geometria dos polinomios cubicos Riemanianos. O estudo de
splines polinomiais de ordem superior em variedades Riemanianas surgiu com Camarinha,
Silva Leite e Crouch em [14].
O constante e crescente uso de splines em variedades Riemanianas, bem como o in-
teresse em evitar as dificuldades decorrentes da abordagem variacional, nomeadamente,
a incapacidade em resolver as equacoes de Euler-Lagrange com a consequente nao de-
terminacao de expressoes explıcitas para as curvas interpoladoras, deram o impulso
necessario a outra abordagem para gerar curvas interpoladoras em variedades Riemania-
nas, que consiste na generalizacao do algoritmo classico de De Casteljau. Este algoritmo
que e bastante eficaz do ponto de vista numerico, permite em espacos Euclidianos a con-
strucao de curvas polinomiais de qualquer grau, atraves de um metodo recursivo onde em
cada etapa se aplica sucessivamente um processo de interpolacao linear. A construcao de
splines polinomiais e consequencia da aplicacao repetida do algoritmo. A generalizacao
natural deste algoritmo a outras variedades Riemanianas conexas e completas, tais como
grupos de Lie de matrizes conexos e compactos, como por exemplo, o grupo ortogonal es-
pecial das rotacoes no espaco SO(3,R), foi apresentada por Park e Ravani em [51]. Estes
conceberam a ideia simples de substituir os segmentos de recta, em espacos Euclidianos,
por arcos de geodesica, em variedades Riemanianas. Esta generalizacao envolve um certo
grau de sofisticacao, valendo a pena destacar que e do ponto de vista teorico bastante
simples. Uma das vantagens deste novo algoritmo em relacao a abordagem variacional
reside na obtencao de expressoes explıcitas para os splines gerados. O estudo e aplicacao
do algoritmo na esfera n-dimensional e em grupos de Lie matriciais conexos e compactos
surgiu posteriormente com Crouch, Kun e Silva Leite em [19, 20]. Contudo, ao contrario
dos splines obtidos por via da abordagem variacional, o comportamento optimal das cur-
vas geradas por aplicacao da generalizacao do algoritmo de De Casteljau, e ainda hoje
desconhecido. Recentemente, em [4], Altafini apresentou um estudo do algoritmo de De
Casteljau no grupo especial Euclidiano SE(3,R).
Este e o momento para descrever qual e a nossa contribuicao para este tema de inves-
tigacao. Iniciamos o estudo do algoritmo de De Casteljau com a finalidade de o estender a
construcao de splines nao polinomiais em Rn. Seguindo o trabalho de Nagy e Vendel [76],
6
Introducao
apresentamos em Rodrigues, Silva Leite e Rosa [59], o estudo em espacos Euclidianos de
dimensao arbitraria da construcao de uma curva spline, cujos segmentos sao definidos
a custa de uma combinacao convexa de arcos de circunferencia e segmentos de recta.
Exige-se que esta curva spline passe por um conjunto de pontos antecipadamente pre-
scritos, tal como acontece com a aplicacao do algoritmo de De Casteljau. Esta construcao
geometrica partilha algumas propriedades com o algoritmo classico de De Casteljau que
importa salientar, nomeadamente:
i) Cada segmento da curva spline depende apenas dos dados iniciais na sua vizinhanca
e por isso a sua construcao e realizada de forma individual. Esta propriedade local e
do ponto de vista das aplicacoes uma propriedade desejavel. Uma alteracao pontual
de algum dado inicial nao requer o calculo completo (de novo) da curva final.
ii) Pequenas adaptacoes permitem que o algoritmo contemple a construcao de um spline,
para o qual, alem dos pontos de interpolacao sao tambem prescritas as velocidades.
iii) A implementacao do algoritmo nao envolve dificuldades e permite a obtencao de
uma expressao explıcita para a curva final.
A expressao explıcita da curva spline obtida em [59], envolve geralmente a presenca de
funcoes trigonometricas, consequentemente, os desenvolvimentos alcancados significaram
um pequeno progresso no que diz respeito a extensao do algoritmo de De Casteljau. O
trabalho descrito apresenta ainda a analise do comportamento optimal da curva spline
em certos casos particulares.
Este ultimo trabalho teve no entanto um efeito inesperado a outro nıvel, pois per-
mitiu o despertar de uma nova perspectiva sobre a construcao geometrica operada pelo
algoritmo classico de De Casteljau. A observacao de que toda a iteracao do algoritmo
classico e tambem resultado de um processo de combinacao convexa, conduziu-nos ao
conceito de funcao suavizante de um spline. Este conceito acabou por ser fundamental
na obtencao de dois novos algoritmos geometricos para a geracao de curvas spline em
variedades Riemanianas, que descrevemos na segunda parte desta dissertacao.
Iniciamos esta segunda parte com uma sıntese de conceitos e resultados de geometria
Riemaniana que sao essenciais nos desenvolvimentos posteriores.
Em seguida, apresentamos um algoritmo geometrico com apenas tres passos que per-
mite a construcao eficiente de curvas interpoladoras de uma classe de suavidade arbitraria.
Observando a estrutura do algoritmo pode considerar-se que este e uma extensao do al-
goritmo classico de De Casteljau. As semelhancas sao evidentes e muitas propriedades
sao partilhadas. O caso em que a variedade Riemaniana e um grupo de Lie matricial
conexo e compacto, munido da metrica Riemaniana bi-invariante, e analisado com algum
detalhe. Consideramos em particular o grupo ortogonal especial.
Por ultimo, e com o objectivo de melhorar a complexidade dos algoritmos ja pro-
postos, apresentamos um outro algoritmo geometrico que permite a construcao eficiente
7
Introducao
de curvas spline de uma classe de suavidade arbitraria apenas em dois passos. Analisamos
a descricao deste novo algoritmo em grupos de Lie matriciais conexos e compactos (tal
como fizemos para o algoritmo anterior) e tambem na esfera n-dimensional. Embora
a primeira vista os dois algoritmos parecam oriundos da mesma famılia (que tambem
inclui o algoritmo de De Casteljau) na verdade eles tem naturezas diferentes e divergem
em alguns aspectos importantes.
Para concluir esta introducao indicamos mais alguns aspectos da estrutura da tese.
Iniciamos cada capıtulo da tese com um breve resumo dos principais objectivos que pre-
tendemos atingir. Terminamos cada capıtulo com algumas observacoes sobre a divulgacao
dos resultados e referencias bibliograficas sobre areas especıficas de matematica, cujas fer-
ramentas usamos em cada capıtulo.
Nos comentarios finais apresentamos algumas questoes em aberto, descrevendo algu-
mas das dificuldades que encontramos no decorrer do nosso trabalho e perspectivamos o
que pensamos ser o nosso trabalho futuro.
No final desta tese, apos cada referencia bibliografica, pode encontrar-se uma descricao
das paginas do texto onde cada referencia foi citada.
Usamos o software matematico Mapler em todos os exemplos apresentados no texto
que de alguma forma exigiram algum esforco computacional.
8
Parte I
Funcoes spline
associadas a operadores diferenciais
e controlo optimal
9
Capıtulo 1
Funcoes L-spline e controlo optimal
As funcoes L-spline surgem pela primeira vez no trabalho de Schultz e Varga
[70]. Neste, como em grande parte dos trabalhos da epoca, os splines estao a-
ssociados a formulacao de problemas de interpolacao mais ou menos classicos,
e a abordagem utilizada e sobretudo numerica. Contudo, e possıvel interpre-
tar algumas funcoes spline, de um modo mais abstracto, como solucao de
certos problemas do calculo das variacoes. Esta outra abordagem e do nosso
ponto de vista bastante importante. Permite-nos vislumbrar e estabelecer a
ponte entre a interpretacao classica de funcoes spline e uma interpretacao
moderna associada a resolucao de problemas de controlo optimal. Neste
capıtulo, consideramos a classe das funcoes L-spline (funcoes spline associadas
a certos operadores diferenciais) e mostramos como podem ser interpretadas
do ponto de vista da teoria de sistemas. Os resultados apresentados surgem
na sequencia de trabalhos anteriores sobre splines generalizados escalares.
1.1 Funcoes L-spline
Seja C k[a, b], com k ∈ N, o espaco vectorial real de todas as funcoes reais de variavel
real que sao contınuas e tem derivadas contınuas ate a ordem k, inclusive, em [a, b].
Considera-se o operador diferencial linear de ordem p ∈ N
L : C p[a, b] −→ C[a, b] ,
L· ≡ Dp · + ap−1(t)Dp−1 · + · · ·+ a1(t)D · +a0(t) · , (1.1)
onde Dk representa o operador diferencial que associa a uma funcao g : [a, b] ⊂ R →R (suficientemente derivavel no intervalo [a, b]) a derivada g(k). Cada funcao ai, i =
0, 1, . . . , p− 1, pertence ao espaco C p[a, b]. Associado ao operador L esta o seu operador
11
Funcoes L-spline e controlo optimal
adjunto1 denotado por L∗, tambem definido em C p[a, b], e dado por
L∗ : C p[a, b] −→ C[a, b] ,
L∗· ≡ (−1)pDp · + (−1)p−1Dp−1(ap−1(t) ·) + · · · −D(a1(t) ·) + a0(t) · .
Kk[a, b], k ∈ N, designa o conjunto das funcoes g : [a, b] → R cuja derivada g(k−1) e
uma funcao absolutamente contınua no intervalo [a, b] 2 e cuja derivada g(k) pertence ao
espaco de Hilbert L2[a, b].
Seja ainda
∆ : a = t0 < t1 < · · · < tm = b ,
uma particao de m+ 1 pontos, m ∈ N, do intervalo [a, b] e seja
Z = (z1, z2, . . . , zm−1) ∈ Zm−1
um vector onde cada componente zi e tal que 1 ≤ zi ≤ p e esta associada ao instante
intermedio ti de ∆. A qualquer vector com estas propriedades, chamamos vector de
incidencia associado a particao ∆.
1.1.1 Definicoes
Apresentam-se as definicoes de L-spline e de L-spline de tipo I, tal como foram descritas
pela primeira vez em 1967 por Schultz e Varga [70].
Definicao 1.1 (Funcao L-spline)
A funcao s : [a, b] → R e um L-spline para a particao ∆ e vector de incidencia Zse s ∈ K2p[ti, ti+1], s e solucao da equacao diferencial L∗Lx = 0, em cada intervalo
[ti, ti+1], i = 0, 1, . . . ,m− 1, e s(k)(ti−) = s(k)(ti
+) para todo o i = 1, 2, . . . ,m− 1 e todo
o k = 0, 1, . . . , 2p− 1 − zi.
A equacao diferencial L∗Lx = 0 e uma equacao linear homogenea de ordem 2p (unica-
mente com termos de ordem par quando L tem coeficientes constantes). O spline s acaba
por ser o resultado da concatenacao de m solucoes si : [ti, ti+1] → R, i = 0, 1, . . . ,m− 1,
de L∗Lx = 0. Cada si e um segmento da funcao L-spline. A concatenacao e efectuada
de uma forma suave recorrendo as condicoes de continuidade que se podem escrever na
forma si−1(k)(ti) = si
(k)(ti) onde i = 1, 2, . . . ,m − 1 e k = 0, 1, . . . , 2p − 1 − zi. Pode
estabelecer-se que o spline s e representado por meio dos seus segmentos, do seguinte
modo:
1Para a justificacao do nome “operador adjunto de L” atribuıdo ao operador L∗, mesmo quando
os coeficientes de L sao matriciais, veja-se por exemplo Coddington e Levinson [17]. Na literatura, o
operador L∗ e tambem designado por “adjunto formal de L”.2Em particular acontece que g ∈ C k−1[a, b].
12
1.1. Funcoes L-spline
s(t) =
s0(t), t ∈ [a, t1[
si(t), t ∈ [ti, ti+1[ , i = 1, 2, . . . ,m− 2
sm−1(t), t ∈ [tm−1, b]
.
Definicao 1.2
Seja f uma funcao pertencente a Kp[a, b] e s : [a, b] → R um L-spline para a particao ∆
e vector de incidencia Z. O spline s e um L-spline interpolador de f de tipo I se:
(i) s(k)(ti) = f (k)(ti), i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , zi − 1,
(ii) s(k)(t0) = f (k)(t0), s(k)(tm) = f (k)(tm), k = 0, 1, . . . , p− 1.
A presenca de f ∈ Kp[a, b] na definicao de uma funcao L-spline de tipo I nao e essen-
cial. Basta prescrever certos valores numericos de interpolacao e de fronteira para que
possamos substituir f e apresentar a seguinte definicao alternativa, que passamos a usar.
Definicao 1.3 (L-spline de tipo I)
Seja s : [a, b] → R um L-spline para ∆ e Z e sejam αki , ηk
0 e ηkm numeros reais prescritos.
A funcao s e um L-spline de tipo I se satisfaz as seguintes condicoes de interpolacao e de
fronteira:
(i) s(k)(ti) = αki , i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , zi − 1,
(ii) s(k)(t0) = ηk0 , s(k)(tm) = ηk
m, k = 0, 1, . . . , p− 1.
Os numeros reais αki , ηk
0 e ηkm sao designados respectivamente por valores de interpolacao
e valores de fronteira da funcao L-spline de tipo I.
Observacao 1.1
Schultz e Varga, definem funcoes L-spline interpoladores de f ∈ Kp[a, b] de outros tipos.
Cada tipo esta associado a um determinado conjunto de condicoes de interpolacao e de
fronteira. Sobre este assunto consultar [70]. Neste trabalho apenas iremos lidar com
L-splines de tipo I. Por isso, daqui em diante, sempre que escrevermos “funcao L-spline”,
esta implıcito que nos referimos a “funcao L-spline de tipo I”.
Observacao 1.2
Suprime-se a funcao f (a interpolar) porque neste texto nao e importante interpretar
uma funcao L-spline de tipo I como uma funcao interpoladora no sentido estrito. O leitor
observara que a presenca de f ∈ Kp[a, b] acaba por ser parte integrante das demonstracoes
que conduzem aos resultados de existencia e unicidade, de uma funcao L-spline de tipo I.
De facto, para cada conjunto de valores numericos αki , ηk
0 e ηkm, e sempre possıvel achar
f ∈ Kp[a, b] que satisfaca as condicoes prescritas.
13
Funcoes L-spline e controlo optimal
Uma funcao L-spline de tipo I tem prescritas p condicoes no instante inicial t0 e p
condicoes no instante final tm. Em cada instante ti, i = 1, 2, . . . ,m− 1, estao prescritas
2p condicoes que resultam da soma de zi condicoes de interpolacao e de 2p− zi condicoes
de suavidade. E claro que o numero de condicoes de interpolacao pode variar ao longo
dos instantes ti. O mesmo sucede para as condicoes de suavidade.
Se s e um L-spline de tipo I entao cada segmento si pertence ao subespaco3 kerL∗L
para todo i = 0, 1, . . . ,m − 1. Cada si e combinacao linear de 2p funcoes infinitamente
diferenciaveis. Para determinar estas funcoes basta conhecer as raızes da equacao carac-
terıstica associada ao operador L, uma vez que λ e raiz da equacao associada a L se e so se
−λ e raiz da equacao associada ao operador adjunto L∗. A expressao final de s depende
da determinacao de 2pm constantes reais. Na Definicao 1.1 as condicoes de continuidade
nos pontos ti de ∆, com i 6= 0,m, originam∑m−1
i=1 (2p − zi) = 2p(m − 1) −∑m−1
i=1 zi
equacoes. As condicoes de interpolacao (i), na Definicao 1.3, permitem escrever∑m−1
i=1 zi
equacoes. Finalmente, as condicoes de fronteira (ii), ainda na Definicao 1.3, dao origem
a 2p equacoes. Obtem-se um total de 2pm equacoes lineares nas 2pm constantes reais,
isto e, um sistema linear algebrico Az = c onde a matriz dos coeficientes e quadrada de
ordem 2pm. Este sistema acaba por ser sempre possıvel e determinado como veremos
mais a frente.
1.1.2 Existencia e unicidade. Primeira relacao integral
Apresentam-se os resultados principais que permitem assegurar a existencia de um unico
L-spline de tipo I para cada conjunto de valores de interpolacao e de fronteira. O proximo
resultado apresenta uma relacao entre os operadores L e L∗ que e conhecida na literatura
por Identidade de Lagrange.
Teorema 1.1 (Identidade de Lagrange)
Se g e h sao duas funcoes reais definidas e com derivadas ate a ordem p em [a, b] entao
h(t)Lg(t) − g(t)L∗h(t) =d
dtB(g(t), h(t)) (1.2)
onde B(g, h) representa a expressao matematica
p−1∑
j=0
g(p−j−1)
j∑
k=0
(−1)k (ap−j+k h)(k) .
A demonstracao da identidade de Lagrange (1.2) pode encontrar-se, por exemplo, em
Coddington e Levinson [17].
Lema 1.1
A funcao nula em [a, b] e o unico L-spline de tipo I com valores de interpolacao e de
fronteira nulos.
3Adopta-se a nomenclatura inglesa “ker” para representar o nucleo de uma aplicacao linear.
14
1.1. Funcoes L-spline
Podemos recorrer a identidade de Lagrange para demonstrar este resultado.
Teorema 1.2
Existe um unico L-spline de tipo I para cada conjunto prescrito de valores de interpolacao
e de fronteira.
Demonstracao - A determinacao de uma funcao L-spline de tipo I esta directamente
dependente da resolucao de um sistema linear algebrico Az = c com igual numero de
equacoes e incognitas. Se os valores de interpolacao e de fronteira prescritos forem todos
nulos entao o sistema linear e homogeneo. O Lema 1.1 permite deduzir que este sistema
tem apenas uma solucao. Daqui resulta que a solucao de Az = c existe e e unica
qualquer que seja o vector c, e portanto, existe sempre um unico L-spline de tipo I para
cada conjunto prescrito de valores de interpolacao e de fronteira.
O conceito de L-spline interpolador de tipo I (Definicao 1.2) esta bem presente nos
proximos resultados, cujas demonstracoes podem encontrar-se em Prenter [54].
Lema 1.2
Se f ∈ Kp[a, b] e s e um L-spline interpolador de f de tipo I, entao
∫ b
a
Ls(t) (Lf(t) − Ls(t)) dt = 0 .
Teorema 1.3 (Primeira relacao integral)
Se f ∈ Kp[a, b] e s e um L-spline interpolador de f de tipo I, entao
∫ b
a
(Lf(t))2 dt =
∫ b
a
(Ls(t))2 dt+
∫ b
a
(Lf(t) − Ls(t))2 dt .
Demonstracao - Desenvolvendo o integral∫ b
a(Lf(t) − Ls(t))2 dt obtem-se
∫ b
a
(Lf(t) − Ls(t))2 dt =
∫ b
a
(Lf(t))2 dt− 2
∫ b
a
Lf(t)Ls(t) dt+
∫ b
a
(Ls(t))2 dt
=
∫ b
a
(Lf(t))2 dt− 2
∫ b
a
Ls(t) (Lf(t) − Ls(t)) dt
−∫ b
a
(Ls(t))2 dt .
A aplicacao do Lema 1.2 permite obter o resultado desejado.
Dos Teoremas 1.2 e 1.3 resulta o seguinte corolario valido para qualquer funcao L-spline
de tipo I.
Corolario 1.1
Se s e um L-spline de tipo I, entao s minimiza a funcional
J(y(·)) =
∫ b
a
(Ly(t))2 dt
15
Funcoes L-spline e controlo optimal
no conjunto de todas as funcoes y ∈ Kp[a, b] que tenham valores de interpolacao e de
fronteira iguais aos valores de s.
Os resultados apresentados permanecem validos mesmo quando a funcao spline s e
de classe C 2p em cada intervalo [ti, ti+1]. Daqui em diante, usamos sempre esta classe de
funcoes em vez de K2p. E ainda, por uma questao de simplicidade, chamamos as funcoes
L-spline de tipo I apenas funcoes L-spline.
1.1.3 Um caso particular: splines generalizados
As funcoes L-spline (de tipo I) tem em cada instante ti, i = 1, 2, . . . ,m− 1, um numero
zi de condicoes de interpolacao e um numero 2p − zi de condicoes de suavidade (que
garantem a continuidade da funcao e das suas derivadas ate a ordem 2p − zi − 1 no
instante ti). E de esperar que o numero de condicoes de interpolacao bem como o
numero de condicoes de suavidade possa variar ao longo dos instantes ti. Uma situacao
especial ocorre quando zi = 1 para todo i = 1, 2, . . . ,m − 1. Em cada instante ti existe
apenas uma condicao de interpolacao simples e 2p− 1 condicoes de suavidade, isto e, a
funcao spline e afinal de classe C 2p−2 em [a, b]. Estas funcoes L-spline muito particulares,
que correspondem a escolha do vector de incidencia Z = (1, 1, . . . , 1), sao conhecidas na
literatura como splines generalizados (de tipo I). Este conjunto de funcoes, subconjunto
das funcoes L-spline, surgiu em 1964 no trabalho de Ahlberg, Nilson e Walsh [2].
1.2 Abordagem variacional
Nesta seccao interpretamos as funcoes L-spline do ponto de vista do calculo das variacoes.
O Corolario 1.1 e o resultado principal que permite vislumbrar esta nova abordagem. Os
resultados obtidos dizem apenas respeito ao caso em que o operador diferencial L em (1.1)
e invariante no tempo, isto e, tem coeficientes constantes.
Considere o operador diferencial
L· ≡ Dp · + ap−1Dp−1 · + · · · + a1D · + a0· ,
a particao do intervalo [a, b]
∆ : a = t0 < t1 < · · · < tm = b
e o vector de incidencia associado a ∆
Z = (z1, z2, . . . , zm−1) .
Ω representa o espaco de todas as funcoes y : [a, b] → R que sao de classe C 2p em cada
subintervalo [ti, ti+1]. Seja (Pv) o seguinte problema do calculo das variacoes:
16
1.2. Abordagem variacional
J(y(·)) =
∫ b
a
(Ly(t))2 dt −−−→y ∈Ω
min ,
sujeito as condicoes de interpolacao
y(k)(ti) = αki , i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , zi − 1 , (1.3)
de fronteira
y(k)(t0) = ηk0 , y(k)(tm) = ηk
m, k = 0, 1, . . . , p− 1 , (1.4)
e de suavidade
y(k)(ti−) = y(k)(ti
+), i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , 2p− 1 − zi , (1.5)
onde αki , ηk
0 e ηkm sao numeros reais prescritos.
Denotamos por ΩA o conjunto das funcoes admissıveis para o problema (Pv), isto e,
o subconjunto das funcoes y de Ω que tem as propriedades de interpolacao (1.3), de
fronteira (1.4) e de suavidade (1.5). Neste contexto, uma funcao δy : [a, b] → R e uma
variacao admissıvel de y ∈ ΩA se y + δy pertence a ΩA. A variacao de Gateaux da
funcional J em y, segundo δy, e representada por δJ(y, δy) e pode calcular-se do seguinte
modo
δJ(y, δy) =
(d
dαJ(y + αδy)
)
α=0
.
Apresentamos uma condicao necessaria para que uma funcao y ∈ ΩA seja solucao do
problema (Pv).
Teorema 1.4
Se y ∈ ΩA e solucao do problema (Pv) entao y e solucao da equacao diferencial L∗Lx = 0
em todo o intervalo [ti, ti+1] com i = 0, 1, . . . ,m− 1.
No enunciado deste resultado, L∗ representa, tal como e habito, o operador adjunto
associado ao operador L. Neste caso, ele tem a seguinte expressao
L∗· ≡ (−1)pDp · + (−1)p−1ap−1Dp−1 · + · · · − a1D · + a0 · .
A demonstracao do teorema passa por comprovar que a equacao de Euler-Lagrange asso-
ciada ao problema (Pv), se reduz simplesmente a equacao diferencial L∗Lx = 0 em cada
intervalo [ti, ti+1], i = 0, 1, . . . ,m − 1. Para atingir este objectivo e preciso utilizar o
seguinte resultado fundamental na area do calculo das variacoes.
Teorema 1.5 (Teorema fundamental do calculo das variacoes)
Se J tem um extremo em y ∈ ΩA entao δJ(y, δy) = 0 para toda a variacao admissıvel δy
de y.
17
Funcoes L-spline e controlo optimal
Demonstracao - (do Teorema 1.4)
Seja y ∈ ΩA uma solucao do problema (Pv) e δy uma qualquer variacao admissıvel de y.
Calcule-se a variacao de Gateaux da funcional J . Tem-se
δJ(y, δy) =
(d
dα
∫ b
a
(Ly(t) + αLδy(t))2 dt
)
α = 0
=
(d
dα
m−1∑
i=0
∫ ti+1
ti
(Ly(t) + αLδy(t))2 dt
)
α =0
=
(m−1∑
i=0
∫ ti+1
ti
2 (Ly(t) + αLδy(t))Lδy(t) dt
)
α = 0
=
m−1∑
i=0
∫ ti+1
ti
2Ly(t)Lδy(t) dt .
Note-se que a permuta entre as operacoes de derivacao e integracao e justificada pelo
facto de y e δy pertencerem a Ω. Como y e solucao do problema, tem de acontecer
m−1∑
i=0
∫ ti+1
ti
Ly(t)Lδy(t) dt = 0 ,
qualquer que seja δy. Aplicando a identidade de Lagrange (1.2) obtem-se a equacao
m−1∑
i=0
∫ ti+1
ti
δy(t)L∗Ly(t) dt+m−1∑
i=0
B(δy(t), Ly(t))]ti+1
ti= 0 ,
que e simplesmente equivalente a
m−1∑
i=0
∫ ti+1
ti
δy(t)L∗Ly(t) dt = 0 , (1.6)
porque δy e uma variacao admissıvel. Por fim, dado que δy e uma variacao admissıvel
arbitraria, pode concluir-se que a relacao estabelecida em (1.6) implica forcosamente que
y e solucao de L∗Lx = 0 em cada subintervalo [ti, ti+1]. De facto, suponha-se que a
funcao h = L∗Ly e diferente de zero em t = t∗ pertencente a um determinado intervalo
[tj , tj+1]. Porque h e uma funcao contınua, existe um intervalo [c, d] ⊂ [tj , tj+1] onde h
tem sinal constante. Supoe-se h(t) > 0 e considera-se a variacao admissıvel
δy(t) =
((t− c)(d− t))2p+1 se t ∈ [c, d]
0 se t ∈ [a, b] \ [c, d].
Nestas condicoes, deduz-se que
m−1∑
i=0
∫ ti+1
ti
δy(t)L∗Ly(t) dt =
∫ d
c
((t− c)(d− t))2p+1 L∗Ly(t) dt > 0 ,
conclusao que contradiz (1.6). O raciocınio e semelhante caso h seja uma funcao negativa
no intervalo [c, d].
18
1.3. Um problema de controlo optimal para funcoes L-spline
O Teorema 1.4 apresenta uma condicao necessaria para que y ∈ ΩA seja extremal da
funcional J , isto e, seja solucao do problema (Pv). Na verdade, o Teorema 1.4 permite
concluir que toda a solucao y : [a, b] → R do problema (Pv) tem as seguintes propriedades:
y e de classe C 2p, y e solucao de L∗Lx = 0 em todo o intervalo [ti, ti+1], y e suave no
intervalo [a, b] de acordo com as condicoes (1.5), y satisfaz determinadas condicoes de
interpolacao (1.3) e de fronteira (1.4). Uma funcao que satisfaz em simultaneo estas
propriedades e sem qualquer duvida um L-spline (de tipo I). No Teorema 1.2 ficou esta-
belecido que esta funcao existe e e unica. Estas conclusoes permitem enunciar os proximos
resultados.
Corolario 1.2
y ∈ ΩA e solucao do problema (Pv) se e so se y e solucao da equacao diferencial L∗Lx = 0
em todo o intervalo [ti, ti+1] com i = 0, 1, . . . ,m− 1.
Teorema 1.6
A unica solucao do problema (Pv) e a funcao L-spline que satisfaz as condicoes de inter-
polacao e de fronteira prescritas no enunciado do problema.
1.3 Um problema de controlo optimal
para funcoes L-spline
A abordagem variacional discutida na seccao anterior permite-nos estabelecer uma ponte
entre a teoria das funcoes L-spline (splines associados a operadores diferenciais) e pro-
blemas de controlo optimal associados a dinamicas lineares. Mais uma vez, os resultados
obtidos dizem apenas respeito ao caso em que o operador diferencial L tem coeficientes
constantes.
1.3.1 Formulacao e analise do problema
(modelo de entrada-saıda)
Seja
∆ : a = t0 < t1 < · · · < tm = b
uma particao do intervalo [a, b] e seja
Z = (z1, z2, . . . , zm−1)
um vector de incidencia associado a ∆. Sejam L e Lc os dois operadores lineares com
coeficientes constantes
L· ≡ Dp · + ap−1Dp−1 · + · · · + a1D · + a0· ,
Lc· ≡ cpDp · + · · · + c1D · + c0 · .
19
Funcoes L-spline e controlo optimal
Nao se assume cp 6= 0 e define-se o numero inteiro σ, 0 ≤ σ ≤ p, da forma
σ = max j : cj 6= 0 .
Assume-se que os operadores diferenciais L e Lc nao tem factores em comum,
isto e, que os polinomios caracterısticos associados aos operadores L e Lc sao
primos entre si.
Seja (Pc) o problema de controlo optimal
J(u(·)) =
∫ b
a
(Lcu(t))2 dt −−−→
u∈Umin ,
sujeito ao sistema de controlo
Ly(t) = Lc u(t) , em q.t.p. t ∈ [a, b] 4 ,
as condicoes de interpolacao
y(k)(ti) = αki , i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , zi − 1 ,
de fronteira
y(k)(t0) = ηk0 , y(k)(tm) = ηk
m, k = 0, 1, . . . , p− 1 ,
e de suavidade
y(k)(ti−) = y(k)(ti
+), i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , 2p− 1 − zi ,
onde αki , ηk
0 e ηkm sao numeros reais prescritos.
Utilizou-se U para representar o conjunto de todos os controlos admissıveis para o pro-
blema (Pc). Entende-se por controlo admissıvel, qualquer funcao real seccionalmente
contınua e limitada no intervalo [a, b], de classe C p+σ em cada subintervalo [ti, ti+1],
onde i = 0, 1, . . . ,m− 1.
No problema de controlo optimal apresentado o sistema de controlo esta descrito por
uma equacao diferencial que envolve a entrada u e a saıda y. E uma representacao de
entrada-saıda5. O sistema e linear, invariante no tempo, com uma unica entrada e uma
unica saıda. E um sistema SISO6. Nao e muito vulgar observar em problemas de controlo
optimal uma descricao do sistema (fısico) que seja tao geral.
A relacao entre o problema de controlo optimal (Pc) e o problema do calculo das
variacoes (Pv) e mais ou menos clara. Reescreveu-se o problema (Pv) introduzindo o
controlo u : [a, b] → R por meio da equacao diferencial Ly = Lc u. Assim, os resultados
obtidos para o problema (Pv) sugerem, desde logo, como responder a questao da existencia
de solucoes para o problema de controlo optimal. Em simultaneo, permitem obter uma
primeira caracterizacao das solucoes de (Pc).
4(q.t.p.) - em quase todos os pontos.5Ou representacao externa pois intervem apenas as variaveis externas do sistema.6Do Ingles “single input single output”.
20
1.3. Um problema de controlo optimal para funcoes L-spline
Teorema 1.7
Se σ 6= 0 entao o problema (Pc) tem multiplas solucoes. Cada solucao e uma funcao
seccionalmente contınua, constituıda por m segmentos distintos, cada qual dependente
de σ parametros livres.
Demonstracao - O problema de controlo optimal (Pc) tem pelo menos uma solucao
porque o problema (Pv) tem solucao. Alem disso, cada solucao de (Pc) gera sempre
o mesmo output optimo, isto e, a mesma funcao L-spline. Seja y este L-spline, unica
solucao do problema (Pv), e seja u uma solucao do problema (Pc). Como y e uma
funcao constituıda por m segmentos distintos (de classe C 2p) e L y(t) = Lc u(t) em q.t.p.
do intervalo [a, b], conclui-se que u tambem e uma funcao constituıda por m segmentos
distintos. Cada segmento esta definido num dos subintervalos [ti, ti+1], i = 0, 1, . . . ,m−1,
e e de classe C p+σ. Sejam ui e yi os segmentos de u e y no intervalo generico [ti, ti+1]. O
segmento ui e solucao da equacao diferencial linear completa Lc z = φi onde φi representa
a funcao L yi. Logo, ui pertence ao espaco afim v+kerLc, onde v e uma solucao particular
da equacao completa. Deduziu-se que a expressao de cada segmento ui depende de σ
parametros livres, ou seja, concluı-se que o problema (Pc) tem uma multiplicidade de
solucoes se σ 6= 0.
O proximo resultado e consequencia imediata do resultado anterior.
Corolario 1.3
Se σ = 0 entao o problema (Pc) tem apenas uma solucao. Esta e uma funcao seccional-
mente contınua constituıda por m segmentos distintos.
Quando σ 6= 0, cada controlo optimo depende da concretizacao de mσ constantes reais.
Esta liberdade na escolha de uma solucao e uma mais valia do ponto de vista pratico.
Quando σ = 0 o problema tem uma unica solucao. A expressao do controlo optimo e
simplesmente
u(t) = c0−1L y(t) , em q.t.p. t ∈ [a, b] .
Observacao 1.3
Nao e de esperar que as solucoes do problema (Pc) sejam funcoes contınuas em todo
o intervalo [a, b] (podem ocorrer descontinuidades (de primeira especie) nos instantes
intermedios ti ∈ ∆), no entanto, existem casos em que tal acontece. Quando σ = 0
mostra-se que a solucao do problema e contınua no instante ti se a componente zi,
do vector de incidencia Z, tiver um valor inferior a p. Logo, o controlo optimo sera
uma funcao contınua em todo o intervalo [a, b] quando acontecer zi < p para todo i =
1, 2, . . . ,m − 1. E possıvel afirmar um pouco mais. Quando Lc ≡ cσDσ e zi < p para
todo i, verifica-se que cada controlo optimo e pelo menos de classe C σ em todo o [a, b].
A demonstracao do Teorema 1.7 mostra como calcular as solucoes ou solucao do pro-
blema (Pc). Em primeiro lugar e preciso calcular o output optimo y do problema. Depois,
21
Funcoes L-spline e controlo optimal
a determinacao da expressao geral das solucoes do problema, e feita localmente, com base
em cada segmento de y. O proximo teorema apresenta uma propriedade importante das
solucoes do problema (Pc).
Teorema 1.8
Se u e uma solucao de (Pc) entao cada segmento ui pertence ao subespaco kerL∗Lc.
Demonstracao - Seja u uma solucao de (Pc) e ui o seu segmento no intervalo ar-
bitrario [ti, ti+1]. Pretende-se mostrar que o segmento ui e solucao da equacao diferencial
L∗Lc z = 0, no intervalo [ti, ti+1]. Seja y o output optimo do problema (Pc) e yi o seg-
mento de y no intervalo [ti, ti+1]. Neste intervalo, os segmentos ui e yi sao tais L∗L yi = 0
e L yi = Lc ui. Daqui resulta naturalmente que L∗Lc ui = 0.
Em particular, quando σ = 0, cada segmento ui do controlo optimo u, pertence ao
subespaco kerL∗.
Ficou claro que as funcoes L-spline tem uma interpretacao natural do ponto de vista
da teoria de sistemas, como output optimo do problema de controlo optimal (Pc). Vale
a pena observar que a cada L-spline nao esta associado um unico problema de controlo,
mas sim um conjunto de problemas, cuja unica diferenca, consiste no operador Lc.
Na formulacao do problema de controlo optimal o sistema de controlo esta descrito
por um modelo matematico de entrada-saıda, dado pela equacao diferencial Ly = Lc u.
Ate aqui, todo o estudo realizado teve como base esta representacao. A seguir apresen-
tamos uma formulacao alternativa para o problema (Pc). Esta consiste na substituicao
do modelo de entrada-saıda por um modelo de estado7. Pretende-se apresentar uma for-
mulacao classica do problema (Pc) que, em particular, nos permite mostrar que o exposto
em (Martin et al. [46]), (Zhang, Tomlinson e Martin [80]), (Rodrigues [66]) e (Rodrigues,
Silva Leite e Simoes [60]), e uma consequencia dos resultados apresentados neste capıtulo.
1.3.2 Formulacao e analise do problema
(modelo de estado)
O modelo de estado que corresponde a equacao diferencial de entrada-saıda
y(p) + ap−1y(p−1) + · · · + a0y = cpu
(p) + · · · + c0u , (1.7)
e o seguinte x(t) = Ax(t) +Bu(t) (equacao de estado)
y(t) = Cx(t) + du(t) (equacao de saıda). (1.8)
O sistema e linear e invariante no tempo porque a sua representacao de entrada-saıda e
uma equacao diferencial linear de coeficientes constantes. A representacao de estado (1.8)
e uma representacao minimal8 porque os operadores diferenciais L e Lc nao tem factores
7Esta representacao do sistema e tambem designada por representacao interna.8Nao existe outra representacao de estado do sistema com menor numero de variaveis de estado.
22
1.3. Um problema de controlo optimal para funcoes L-spline
em comum. Logo, o vector de estado x toma valores no espaco de estados X = Rp, A
e uma matriz (quadrada) de ordem p, B e uma matriz coluna com p linhas, C e uma
matriz linha com p colunas e d e um numero real. A concretizacao das matrizes A, B,
C e do escalar d nao e, no entanto, unica. Existe uma infinidade de representacoes de
estado (1.8), associadas a mesma representacao de entrada-saıda, que resultam de mu-
dancas de coordenadas no espaco de estados. Neste ponto, vale a pena referir que estas
mudancas de coordenadas nao se reflectem na saıda do sistema, isto e, a expressao de
y nao sofre alteracoes. Todas estas representacoes de estado acabam por partilhar duas
caracterısticas muito importantes. Sao em simultaneo completamente controlaveis e com-
pletamente observaveis no intervalo [a, b] (consequencia da representacao ser minimal).
Sem perder generalidade no tratamento do problema, consideramos a representacao de
estado que consiste em escolher
A =
0 1 · · · 0...
.... . .
...
0 0 · · · 1
−a0 −a1 · · · −ap−1
p×p
B =
0...
0
1
p×1
(1.9)
C =[c0 − a0cp · · · cp−1 − ap−1cp
]1×p
d = cp .
Confirmar que a representacao de estado (1.9) corresponde a representacao de entrada-
saıda (1.7) e um exercıcio simples. Seja x = [x1, . . . , xp]′ o vector de estado9. Da equacao
de estado obtem-se o conjunto de equacoes
x1 = x2 , · · · xp−1 = xp , xp = −a0x1 − a1x2 − · · · − ap−1xp + u .
Daqui decorre que xi = x(i−1)1 para todo o i = 1, 2, . . . , p. Logo, x1 e u sao tais que
x1(p) + ap−1x1
(p−1) + · · · + a0x1 = u, isto e, tais que
Lx1 = u . (1.10)
Entretanto, a equacao de saıda permite escrever
y = Cx+ du
= (c0 − a0cp)x1 + · · · + (cp−1 − ap−1cp)x(p−1)1 + cpu
= c0x1 + · · · + cp−1x(p−1)1 + cpu− cp
(Lx1 − x
(p)1
).
Usando (1.10) obtem-se
y = c0 x1 + · · · + cp−1 x(p−1)1 + cp x
(p)1 = Lc x1 .
9Utiliza-se o sımbolo ′ para indicar a transposta de uma matriz.
23
Funcoes L-spline e controlo optimal
Ou seja, a representacao (1.9) permite deduzir o conjunto de equacoes
Lx1(t) = u(t)
y(t) = Lc x1(t)(1.11)
onde t ∈ [a, b]. A equacao diferencial de entrada-saıda e agora uma consequencia imedia-
ta. Note-se que a passagem da representacao (1.7) para a representacao (1.9) e simples.
Basta ter em conta as constantes a0, . . . , ap−1 e c0, . . . , cp.
Observacao 1.4
Cada representacao de estado resulta de uma escolha distinta das variaveis de estado.
No caso da representacao (1.9) verificou-se que as variaveis de estado sao x1 e as suas
p − 1 primeiras derivadas. Quando p − 1 variaveis de estado dependem de uma unica
variavel de estado da forma descrita, e costume chamar a x1, . . . , xp variaveis de fase.
Um conjunto muito particular de variaveis de fase consiste em tomar x1 = y e xi =
y(i−1), i = 2, 3 . . . , p. No entanto, nem sempre e possıvel obter uma representacao de
estado consistente com este conjunto de variaveis de estado. No caso da representacao de
estado (1.9) tal nao e simplesmente possıvel sem a imposicao de uma condicao adicional.
Esta situacao particular e apresentada mais a frente.
Seja (Pce) o problema de controlo optimal que resulta do problema (Pc), por substi-
tuicao do modelo de entrada-saıda (1.7) pelo modelo de estado (1.9):
J(u(·)) =
∫ b
a
(Lcu(t))2 dt −−−→
u∈Umin ,
sujeito a dinamica
x(t) = Ax(t) +Bu(t)
y(t) = Cx(t) + du(t) em q.t.p. t ∈ [a, b],
as condicoes de interpolacao
y(k)(ti) = αki , i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , zi − 1 ,
de fronteira
y(k)(t0) = ηk0 , y(k)(tm) = ηk
m, k = 0, 1, . . . , p− 1 ,
e de suavidade
y(k)(ti−) = y(k)(ti
+), i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , 2p− 1 − zi ,
onde αki , ηk
0 e ηkm sao numeros reais prescritos e U e tal como descrito na
pagina 20.
24
1.3. Um problema de controlo optimal para funcoes L-spline
Podemos afirmar que os problemas (Pc) e (Pce) sao equivalentes, isto e, partilham o
mesmo conjunto de solucoes e geram o mesmo output optimo. Esta equivalencia e con-
sequencia (mais uma vez) de os operadores L e Lc nao terem factores em comum.
Com a formulacao do problema (Pce) e preciso garantir que o sistema e completamente
controlavel, no intervalo [a, b], do ponto de vista da saıda (output controllability). Ou
seja, e necessario averiguar se a matriz
Γ =[CB CAB · · · CAp−1B d
]1×(p+1)
tem caracterıstica completa, isto e, rankΓ = 1. No caso do problema (Pce) acontece
sempre. O resultado e obvio se d 6= 0. Quando d = 0, o resultado e uma consequencia
da propriedade de controlabilidade completa do estado.
Na formulacao do problema (Pce) o operador diferencial L esta obviamente dissi-
mulado. Para determinar a expressao do output optimo em cada subintervalo [ti, ti+1],
i = 1, 2, . . . ,m − 1, basta conhecer os valores proprios da matriz A (que equivale ao
calculo das raızes da equacao caracterıstica associada ao operador L).
Observacao 1.5
Assumiu-se inicialmente que os operadores L e Lc nao tem factores em comum. Verifica-
se que esta imposicao so e mesmo relevante, a partir do momento em que se pretende
apresentar a formulacao alternativa para o problema (Pc). De facto, os resultados obtidos
para (Pc), permanecem validos mesmo quando L e Lc tem algum factor em comum. No
entanto, nesta situacao, a obtencao da formulacao alternativa deixa de fazer sentido.
Ja nao e possıvel estabelecer a mesma equivalencia entre os problemas (Pc) e (Pce). E
sempre possıvel formular o problema (Pce) com a representacao de estado (1.9). Esta ja
nao e uma representacao minimal e por isso, embora controlavel, nao e em simultaneo
observavel. Verifica-se que o sistema continua completamente controlavel do ponto de
vista da saıda. Verifica-se tambem que o problema tem sempre solucao e continua a
produzir o mesmo output optimo. No entanto, nem toda a solucao do problema (Pc) e
agora solucao do problema (Pce). Seja u uma qualquer solucao do problema (Pce). Ja se
observou que a representacao de estado (1.9) implica o conjunto de equacoes (1.11). Em
particular, num intervalo generico [ti, ti+1], tem-seLx1 = ui
yi = Lc x1
.
Daqui resulta que o segmento ui tem de pertencer ao espaco afim Lv + L[ kerLc], onde
v e uma solucao particular da equacao completa Lc z = yi. Como
dimL[ kerLc] = dim kerLc − dim (kerL ∩ kerLc)
e dim kerLc = σ, deduz-se que o numero de parametros livres na expressao de ui e agora
σ − ρ, onde ρ e o numero de factores comuns a L e Lc. Ou seja, o conjunto de solucoes
25
Funcoes L-spline e controlo optimal
do problema (Pce) e um subconjunto proprio do conjunto de solucoes do problema (Pc).
Observe-se que o problema (Pce) tem solucao unica se e so se o operador L e um multiplo
do operador Lc, isto e, se e so se ρ = σ.
1.3.3 Splines generalizados e controlo optimal
Quando o vector de incidencia e Z = (1, 1, . . . , 1) e σ = 0, verifica-se que os problemas
(Pc) e (Pce) (com dinamica de entrada-saıda e dinamica de estado) estao directamente
associados aos splines generalizados de Ahlberg, Nilson e Walsh. Este foi o tema dos
trabalhos de investigacao (Martin et al. [46]), (Zhang, Tomlinson e Martin [80]), (Ro-
drigues [66]) e (Rodrigues, Silva Leite e Simoes [60]). Nestes trabalhos foi estudado
apenas o problema (Pce) com c0 = 1, isto e, o problema que consiste em
J(u(·)) =
∫ b
a
u(t) 2 dt −−−→u∈U
min ,
sujeito a dinamicax(t) = Ax(t) +Bu(t)
y(t) = x1(t) em q.t.p. t ∈ [a, b],
as condicoes de interpolacao
y(ti) = αi, i = 1, 2, . . . ,m− 1 ,
de fronteira
y(k)(t0) = ηk0 , y(k)(tm) = ηk
m, k = 0, 1, . . . , p− 1 ,
e de suavidade
y(k)(ti−) = y(k)(ti
+), i = 1, 2, . . . ,m− 1, k = 0, 1, . . . , 2p− 2 ,
onde αi, ηk0 e ηk
m sao numeros reais prescritos e U e tal como descrito na
pagina 20.
Os resultados coincidem mas sao obtidos de uma forma substancialmente diferente. Em
particular, e possıvel mostrar que a unica solucao deste problema e afinal de classe C p−2
no intervalo [a, b]. Esta e a unica situacao em que as variaveis de estado sao x1 = y e
xi = y(i−1), i = 2, 3 . . . , p.
1.3.4 Exemplos
Apresentam-se tres exemplos. Para todos fixou-se p = 2, o intervalo [0, 3], a particao
∆ : a = 0 < 0.5 < 1 < 2 < 2.25 < 3 = b ,
26
1.3. Um problema de controlo optimal para funcoes L-spline
e o vector de incidencia
Z = (2, 1, 2, 1) .
Prescrevem-se as mesmas condicoes de interpolacao
y(t1) = 1.5 , y(t2) = 1 , y(t3) = 0.5 , y(t4) = 1/6 , (1.12)
y(t1) = −1 , y(t3) = −0.5 . (1.13)
As mesmas condicoes de fronteira
y(0) = 3 , y(3) = 0 , (1.14)
y(0) = −1 , y(3) = 0 . (1.15)
As condicoes de suavidade que resultam naturalmente do vector de incidencia sao
y(t1−) = y(t1
+) , y(t2−) = y(t2
+) , (1.16)
y(t1−) = y(t1
+) , y(t2−) = y(t2
+) , (1.17)
y(t2−) = y(t2
+) , (1.18)
y(t3−) = y(t3
+) , y(t4−) = y(t4
+) , (1.19)
y(t3−) = y(t3
+) , y(t4−) = y(t4
+) , (1.20)
y(t4−) = y(t4
+) . (1.21)
Apresentam-se os graficos do output optimo e de uma solucao para cada problema.
Exemplo 1.1
J(u(·)) =
∫ 3
0
(u(t))2 dt −−→ min ,
sujeito ao sistema de controlo
y(t) = u(t)
e as condicoes (1.12)–(1.21).
Ao sistema de controlo corresponde a representacao de estadox1 = x2
x2 = u, y = x1 .
Conclui-se que o problema tem uma unica solucao porque σ = 0. O output optimo
correspondente y e em cada subintervalo solucao da equacao diferencial z(4) = 0, isto
e, y e um polinomio de grau maximo tres em cada subintervalo. Consequentemente, o
controlo optimo u e em cada subintervalo um polinomio de grau maximo um. Observa-se
que u e uma funcao contınua nos instantes t2 = 1 e t4 = 2.25, confirmando o que foi dito
na Observacao 1.3.
27
Funcoes L-spline e controlo optimal
t1 t2 t3 t4 3
1
2
3 y(·)
0 t
t1 t2 t3 t4 3
−20
−10
0
10
20u(·)
t
Figura 1.1: Output optimo e controlo optimo
Exemplo 1.2
J(u(·)) =
∫ 3
0
(2u(t) + u(t))2 dt −−→ min ,
sujeito ao sistema de controlo
y(t) + 36y(t) = 2u(t) + u(t)
e as condicoes (1.12)–(1.21).
O sistema de controlo tem a seguinte representacao de estadox1 = x2
x2 = −36x1 + u, y = x1 + 2x2 .
A solucao do problema de controlo optimal nao e unica porque σ = 1. Cada controlo
optimo u depende, em cada subintervalo, de um parametro livre. O output optimo y e
em cada subintervalo combinacao linear das funcoes φ1(t) = cos (6t), φ2(t) = t cos (6t),
φ3(t) = sin (6t) e φ4(t) = t sin (6t).
t1 t2 t3 t4 3
1
2
3 y(·)
0 t0 t1 t2 t3 t4 3
4
8
12
16 u(·)
t
Figura 1.2: Output optimo e um controlo optimo
28
1.4. Observacoes finais e referencias
Exemplo 1.3
J(u(·)) =
∫ 3
0
(u(t) − u(t) − 2u(t))2 dt −−→ min ,
sujeito a
y(t) + 9y(t) − 10y(t) = u(t) − u(t) − 2u(t)
e as condicoes (1.12)–(1.21).
O sistema de controlo tem a seguinte representacao de estado
x1 = x2
x2 = 10x1 − 9x2 + u, y = 8x1 − 10x2 + u .
A solucao do problema de controlo optimal nao e unica porque σ = 2. Cada controlo
optimo depende em cada subintervalo de dois parametros livres. O output optimo y e
em cada subintervalo combinacao linear de funcoes exponenciais.
t1 t2 t3 t4 3
1
3 y(·)
0
2
t 0 t1 t2 t3 t4 3
2
4
6u(·)
t
Figura 1.3: Output optimo e um controlo optimo
1.4 Observacoes finais e referencias
Parte dos resultados apresentados neste capıtulo esta publicada em revista internacional
em (Rodrigues e Silva Leite [61]). Estes resultados foram apresentados, pelo autor, na
conferencia internacional “ECC’01 - European Control Conference” (Porto, Portugal),
encontrando-se publicados em (Rodrigues [67]). Em [61] e apresentada a relacao entre as
funcoes L-spline e a teoria de sistemas, atraves do estudo de um problema de controlo,
semelhante ao problema (Pce).
Os resultados apresentados neste capıtulo onde se destaca o problema de controlo
optimal com representacao de entrada-saıda, foram recentemente apresentados, pelo au-
tor, na conferencia internacional “CONTROLO’2006 - 7th Portuguese Conference on
Automatic Control” (Lisboa, Portugal) e publicados em (Rodrigues e Silva Leite [64]).
29
Funcoes L-spline e controlo optimal
Vale a pena observar que a aplicacao directa do Princıpio do Maximo de Pontryagin
ao problema de controlo optimal (Pc) permite, sem recorrer ao problema (Pv), obter os
resultados contidos no Teorema 1.7.
Sobre funcoes L-spline e de destacar fundamentalmente o trabalho original de Schultz
e Varga [70]. Sobre splines generalizados e obrigatorio consultar os trabalhos de Ahlberg,
Nilson e Walsh [2, 3]. Os resultados que estabelecem uma ligacao global entre splines ge-
neralizados e a teoria de sistemas encontram-se publicados em (Martin et al. [46]), (Zhang,
Tomlinson e Martin [80]), (Rodrigues [66]) e (Rodrigues, Silva Leite e Simoes [60]). A
interpretacao das funcoes spline na perspectiva do calculo das variacoes e natural. Nao
e no entanto tao divulgada. Sobre este assunto veja-se por exemplo (Micula [47]).
Sobre teoria de sistemas, e em particular sobre sistemas lineares, existem inumeras
publicacoes. Destacam-se apenas as seguintes referencias (Brockett [12]), (Luenberger
[43]), (Kailath [37]), (Rugh [68]) e (Ribeiro [56, 57]). Sobre controlabilidade completa
da saıda (de um sistema linear) sugerem-se (Kreindler e Sarachik [39]) e (Brockett e
Mesarovic [11]). Nestes trabalhos e possıvel encontrar uma exposicao mais elaborada
deste topico da teoria de sistemas. Sobre calculo das variacoes menciona-se em particu-
lar (Gelfand e Fomin [31]) e, num contexto mais vasto, (Luenberger [42]), (Prenter [54]),
(Arnold [7]) e (Agudo [23]). Num contexto mais geral citam-se (Apostol [5, 6]).
30
Capıtulo 2
Splines generalizados em espacos Euclidianos
e controlo optimal
Neste capıtulo apresentamos uma generalizacao a espacos Euclidianos de di-
mensao arbitraria dos splines generalizados tratados no capıtulo anterior.
Analisamos as suas propriedades, deduzimos resultados de existencia e unici-
dade e estabelecemos, tal como no capıtulo precedente, a ligacao entre estas
curvas e a teoria de sistemas.
O conceito de spline generalizado escalar (introduzido na pagina 16) pode
estender-se de forma imediata a espacos Euclidianos de dimensao arbitraria.
Para tal basta substituir funcoes escalares por funcoes vectoriais (curvas em
Rn), mantendo o operador diferencial L, linear de ordem p, adaptando as
condicoes de interpolacao, as condicoes de fronteira e as condicoes de suavi-
dade. Porque o operador L nao sofre alteracoes esta generalizacao e simples.
Cada componente da curva spline e um spline generalizado escalar, e por
isso, a curva spline minimiza a funcional∫ b
a〈Lx,Lx〉 dt, onde 〈·, ·〉 representa
o produto interno Euclidiano, no conjunto de todas as curvas com a mesma
suavidade, que satisfazem identicas condicoes de interpolacao e de fronteira.
Embora esta generalizacao seja imediata e de notar que apenas o caso polino-
mial, associado ao operador L ≡ Dp, encontra destaque na literatura, onde o
uso destas curvas polinomiais e recorrente em trabalhos de investigacao que
envolvem aplicacoes no planeamento de trajectorias.
Sabemos que os splines generalizados escalares estao directamente associa-
dos a um determinado problema de controlo optimal, isto e, sao a primeira
componente do estado optimo de um problema de controlo linear-quadratico
(pagina 26). Pelo menos duas questoes surgem naturalmente de imediato:
O que podemos concluir sobre o estado optimo? Sera ele uma curva spline
em Rn? A procura de resposta para estas duas perguntas, conduziu-nos a
31
Splines generalizados em espacos Euclidianos e controlo optimal
uma outra classe de curvas spline, definidas a custa de operadores diferenci-
ais com coeficientes matriciais, que incluem, como caso particular, os splines
generalizados escalares. Alem disso, tambem importante, e a constatacao de
que estas curvas spline estao directamente ligadas a determinados problemas
de controlo optimal. Por todos estes motivos, acreditamos que estas novas
curvas spline sao a extensao natural dos splines generalizados escalares.
2.1 Splines generalizados em Rn
Seja [a, b] o intervalo de numeros reais e seja ∆ : a = t0 < t1 < · · · < tm = b uma
qualquer particao de [a, b]. C k[a, b], k ∈ N, representa o espaco vectorial real de todas
as curvas, definidas em [a, b] e com valores em Rn, n ∈ N, que sao contınuas e tem
derivadas contınuas ate a ordem k em [a, b]. Dk representa o operador diferencial que
a cada curva de C k[a, b] associa a derivada de ordem k. Seja L o operador diferencial
linear de ordem p ∈ N
L : C p[a, b] −→ C[a, b] ,
L· ≡ Dp · +Ap−1(t)Dp−1 · + · · · +A1(t)D · +A0(t) · .
Cada Aj , j = 0, 1, . . . , p− 1, e uma funcao matricial que a todo t ∈ [a, b] associa a matriz
Aj(t), quadrada de ordem n. Assume-se que todas as entradas de cada matriz Aj sao
elementos do espaco C p[a, b]. Associado ao operador L temos o seu operador adjunto L∗
definido da forma
L∗ : C p[a, b] −→ C[a, b] ,
L∗· ≡ (−1)pDp · + (−1)p−1Dp−1(Ap−1(t)′ ·) + · · · −D(A1(t)
′ ·) +A0(t)′· ,
onde Aj′ indica a transposta da matriz Aj . Por fim, Ω designa o conjunto de todas as
curvas f : [a, b] → Rn, pelo menos de classe C 2p−2 em [a, b] e pelo menos de classe C 2p
em cada intervalo [ti, ti+1], i = 0, 1, . . . ,m, unindo pontos consecutivos da particao de
[a, b] escolhida. Passamos a definir o que pensamos ser a extensao adequada, a curvas de
Rn, dos splines generalizados escalares, referidos no capıtulo precedente.
Definicao 2.1 (Spline generalizado em Rn)
A curva s : [a, b] → Rn e um spline generalizado em R
n, para o operador L e para
a particao ∆ de [a, b], se s ∈ Ω, s e solucao da equacao diferencial com coeficientes
matriciais L∗Lx = 0 em cada intervalo [ti, ti+1], i = 0, 1, . . . ,m, s satisfaz as condicoes
de interpolacao
s(ti) = αi, i = 1, 2, . . . ,m− 1 ,
e satisfaz as condicoes de fronteira
s(k)(t0) = ηk0 , s(k)(tm) = ηk
m , k = 0, 1, . . . , p− 1 ,
onde αi, ηk0 e ηk
m sao pontos de Rn prescritos.
32
2.1. Splines generalizados em Rn
Os pontos de Rn, αi, η
k0 e ηk
m sao, respectivamente, os valores de interpolacao e valores
de fronteira do spline generalizado.
Observacao 2.1
Num primeiro comentario importa destacar que a definicao de spline generalizado em Rn
inclui, quando n = 1, a definicao classica de spline generalizado escalar.
Observacao 2.2
No caso muito particular em que o operador L e simplesmente Dp, obtem-se curvas
cujas componentes sao funcoes spline polinomiais (escalares) de grau 2p − 1. Podemos
assim confirmar que as curvas polinomiais e os splines polinomiais em Rn sao situacoes
particulares contempladas na Definicao 2.1. Este e o unico caso, incluıdo na Definicao 2.1,
com destaque na literatura.
A equacao diferencial L∗Lx = 0 e homogenea de ordem 2p, com coeficientes matriciais.
A determinacao da sua solucao geral nao e difıcil do ponto de vista teorico. Como seria
de esperar, o mesmo ja nao sucede do ponto de vista numerico. Um bom exemplo destas
dificuldades, para equacoes de segunda ordem, surge associado as aplicacoes do problema
quadratico de valores proprios, como se pode observar em Tisseur e Meerbergen [77].
Quando p = 1 a equacao pode escrever-se por extenso da seguinte forma
x+ (A0(t) −A0(t)′) x−
(A0(t)
′A0(t) − A0(t))x = 0 .
Se os coeficientes do operador L forem constantes obtem-se simplesmente
x+(A0 −A0
′) x−(A0
′A0
)x = 0 .
Neste ultimo caso reconhece-se rapidamente uma certa simetria no que toca aos coefi-
cientes da equacao diferencial. O coeficiente de x e uma matriz simetrica, o coeficiente
de x e uma matriz anti-simetrica e o coeficiente de x e de novo uma matriz simetrica.
Esta e uma propriedade muito particular dos coeficientes da equacao L∗Lx = 0 quando
L e invariante no tempo.
Proposicao 2.1
Se o operador L e invariante no tempo entao os coeficientes de ordem par da equacao
diferencial L∗Lx = 0 sao matrizes simetricas enquanto que os coeficientes de ordem
ımpar sao matrizes anti-simetricas.
Demonstracao - Assumindo Ap = I consideramos os operadores diferenciais L e L∗:
L· ≡ ApDp · +Ap−1D
p−1 · + · · · +A1D · +A0 · ,
L∗· ≡ (−1)pAp′Dp · + (−1)p−1(Ap−1)
′Dp−1 · + · · · −A1
′D · +A0′·
e o operador composto
L∗L · ≡ C2pD2p · +C2p−1D
2p−1 · + · · · + C1D · +C0 · .
33
Splines generalizados em espacos Euclidianos e controlo optimal
Verifica-se que os coeficientes de ordem par C2k, k = 0, 1, . . . , p, e os coeficientes de ordem
ımpar C2k−1, k = 1, 2, . . . , p, se podem escrever do seguinte modo
C2k = (−1)k+1 Ak′Ak +
∑
i+j =2kj < i≤ p
(−1)δ(Ai
′Aj +Aj′Ai
) , (2.1)
C2k−1 = (−1)k+1∑
i+j = 2k−1j < i≤ p
(−1)σ(Ai
′Aj −Aj′Ai
), (2.2)
onde i e j sao numeros inteiros nao negativos, δ = i−j2 e σ = i−j−1
2 . Basta agora
usar (2.1) e (2.2) para concluir que C2k′ = C2k e (C2k−1)
′= −C2k−1.
Observacao 2.3
Da demonstracao da Proposicao 2.1 fica claro que, quando n = 1, a equacao diferencial
L∗Lx = 0 tem apenas termos de ordem par.
2.1.1 Existencia, unicidade e comportamento optimal
Apresentamos os resultados principais que asseguram a existencia e unicidade de um
spline generalizado em Rn. Os processos utilizados resultam da adaptacao, a curvas de
Rn, dos processos aplicados no caso escalar. Neste contexto, 〈· , ·〉 representa o produto
interno Euclidiano em Rn. Podemos considerar o proximo resultado uma generalizacao
da Identidade de Lagrange apresentada no capıtulo anterior.
Lema 2.1
Se x e y sao duas curvas em Rn com derivadas ate a ordem p em [a, b], entao
〈y, Lx〉 − 〈x, L∗y〉 =d
dtB(x, y) (2.3)
onde
B(x, y) =
p∑
j=1
j−1∑
k=0
(−1)k⟨Dj−1−k x,Dk
(Ak
′y)⟩.
Demonstracao - Estabelecendo Ap(t) = I para todo t ∈ [a, b], tem-se
〈y, Lx〉 − 〈x, L∗y〉 =
p∑
j=0
⟨AjD
jx, y⟩−
p∑
j=0
⟨x, (−1)jDj
(Aj
′y)⟩
=
p∑
j=1
(⟨Djx,Aj
′y⟩
+ (−1)j+1⟨x,Dj
(Aj
′y)⟩)
.
Verifica-se, por inducao em j, que as curvas x e Aj′y admitem a seguinte relacao
⟨Djx,Aj
′y⟩
+ (−1)j+1⟨x,Dj
(Aj
′y)⟩
=d
dt
j−1∑
k=0
(−1)k⟨Dj−1−k x,Dk
(Ak
′y)⟩
34
2.1. Splines generalizados em Rn
para todo o j tal que 1 ≤ j ≤ p. Daqui resulta
〈y, Lx〉 − 〈x, L∗y〉 =d
dt
p∑
j=1
j−1∑
k=0
(−1)k⟨Dj−1−k x,Dk
(Ak
′y)⟩.
Lema 2.2
A funcao nula em [a, b] e o unico spline generalizado em Rn, associado a L e ∆, com
valores de interpolacao e de fronteira nulos.
Demonstracao - Seja s um spline generalizado para L e ∆, com valores de inter-
polacao e de fronteira nulos. Nestas condicoes, pode concluir-se que o spline s e, em
cada subintervalo, solucao da equacao diferencial com coeficientes matriciais Lx = 0. De
facto, usando a identidade (2.3) com x = s e y = Ls, obtem-se a seguinte expressao
m−1∑
i=0
∫ ti+1
ti
〈Ls, Ls〉 dt =
m−1∑
i=0
∫ ti+1
ti
〈s, L∗L s〉 dt+m−1∑
i=0
(B(s, Ls)|ti+1
ti= 0 .
Porque s ∈ Ω, s tem valores de interpolacao e de fronteira nulos e L∗L s = 0 em cada
subintervalo, a expressao anterior implica que
m−1∑
i=0
∫ ti+1
ti
〈Ls, Ls〉 dt = 0 ,
e portanto Ls = 0 em cada intervalo [ti, ti+1], com i = 0, 1, . . . ,m−1. Porque os p valores
de fronteira no instante t0 sao nulos, deduz-se que a expressao de s no intervalo [t0, t1] e
identicamente nula. Uma vez que s esta em Ω, este efeito propaga-se sucessivamente a
todos os subintervalos, permitindo concluir que s(t) = 0, ∀ t ∈ [a, b].
Este resultado permite concluir que dois splines generalizados, associados a L e ∆, sao
iguais se e so se tem os mesmos valores de interpolacao e de fronteira.
Teorema 2.1
Existe um unico spline generalizado em Rn, associado a L e ∆, para cada conjunto de
valores de interpolacao e de fronteira.
Demonstracao - A determinacao de um spline generalizado em Rn esta directamente
dependente da obtencao da solucao de um sistema linear de equacoes algebricas Az = c
com 2npm equacoes e 2npm incognitas. Este sistema resulta das condicoes de inter-
polacao, das condicoes de fronteira e das condicoes de suavidade do spline s. Observa-se
que a modificacao dos valores de interpolacao e de fronteira nao afecta a matriz do
sistema. Alem disso, se os valores de interpolacao e de fronteira forem todos nulos o sis-
tema algebrico e homogeneo. O Lema 2.2 permite concluir que este sistema homogeneo
e possıvel e determinado. Consequentemente, a solucao de Az = c existe e e unica
35
Splines generalizados em espacos Euclidianos e controlo optimal
quaisquer que sejam os valores de interpolacao e de fronteira. Fica assim estabelecida a
existencia e unicidade de um spline generalizado, associado a um determinado conjunto
de valores de interpolacao e de fronteira.
O proximo lema permite-nos apresentar, no Teorema 2.2, uma propriedade optimal
dos splines generalizados em Rn.
Lema 2.3
Se s e um spline generalizado em Rn, associado a L e ∆, e f e uma curva de Ω que
satisfaz as mesmas condicoes de fronteira e de interpolacao entao∫ b
a
〈Lf − Ls, Ls〉 dt = 0 .
Demonstracao - Usando a identidade (2.3) com x = f − s e y = Ls, obtem-se
∫ b
a
〈Lf − Ls, Ls〉 dt =
m−1∑
i=0
∫ ti+1
ti
〈Lf − Ls, Ls〉 dt
=
m−1∑
i=0
∫ ti+1
ti
〈f − s, L∗L s〉 dt+m−1∑
i=0
(B(f − s, Ls)|ti+1
ti.
A primeira expressao do segundo membro e nula porque L∗L s = 0 em cada subintervalo.
A segunda expressao tambem e nula porque f e s tem prescritas identicas condicoes de
interpolacao e de fronteira e f ∈ Ω.
Teorema 2.2
Se s e um spline generalizado em Rn, associado a L e ∆, entao s minimiza a funcional
J(x(·)) =
∫ b
a
〈Lx,Lx〉 dt
no conjunto de todas as curvas x de Ω que tenham valores de interpolacao e de fronteira
iguais aos valores de s.
Demonstracao - Desenvolvendo o integral∫ b
a
〈Lx− Ls, Lx− Ls〉 dt
obtem-se∫ b
a
〈Lx− Ls, Lx− Ls〉 dt =
∫ b
a
〈Lx,Lx〉 dt− 2
∫ b
a
〈Lx,Ls〉 dt+∫ b
a
〈Ls, Ls〉 dt
=
∫ b
a
〈Lx,Lx〉 dt− 2
∫ b
a
〈Lx− Ls, Ls〉 dt−∫ b
a
〈Ls, Ls〉 dt .
A aplicacao do Lema 2.3 permite concluir que a segunda parcela e nula e, portanto,∫ b
a
〈Ls, Ls〉 dt =
∫ b
a
〈Lx,Lx〉 dt−∫ b
a
〈Lx− Ls, Lx− Ls〉 dt ,
de onde resulta imediatamente a propriedade pretendida.
36
2.1. Splines generalizados em Rn
2.1.2 Interpretacao variacional
Apresentamos uma interpretacao variacional das curvas spline definidas na seccao prece-
dente. Esta interpretacao ira permitir estabelecer e explorar a relacao entre estas curvas
spline e a teoria de sistemas de controlo. Por ora, consideramos o problema do calculo
das variacoes (Pv) que consiste em
J(x(·)) =
∫ b
a
〈Lx(t), Lx(t)〉 dt −−−→x∈Ω
min ,
sujeito as condicoes de interpolacao
x(ti) = αi, i = 1, 2, . . . ,m− 1 ,
e de fronteira
x(k)(t0) = ηk0 , x(k)(tm) = ηk
m, k = 0, 1, . . . , p− 1 ,
onde αi, ηk0 e ηk
m sao pontos pertencentes a Rn.
Embora usemos a mesma notacao que no problema Pv formulado no capıtulo anterior,
esta implıcito que, agora, L identifica um operador diferencial de coeficientes matriciais
tal como definido na pagina 32, Ω e o conjunto de curvas em Rn apresentado tambem na
pagina 32 e, finalmente, os instantes tj pertencem a uma particao ∆ do intervalo [a, b].
Denotamos por ΩA o conjunto das funcoes admissıveis para o problema (Pv), isto e, o
subconjunto das funcoes de Ω que satisfazem as condicoes de interpolacao e de fronteira
enunciadas.
Teorema 2.3
Se x ∈ ΩA e solucao do problema (Pv) entao x e em cada intervalo [ti, ti+1], i =
0, 1, . . . ,m−1, uma solucao da equacao diferencial com coeficientes matriciais L∗L z = 0.
Demonstracao - Seja x ∈ ΩA uma solucao do problema (Pv) e δx uma variacao
admissıvel de x. Calcule-se a variacao de Gateaux da funcional J . Tem-se
δJ(x, δx) =
(d
dαJ(x+ αδx)
)
α =0
=
(d
dα
∫ b
a
〈Lx+ αLδx, Lx+ αLδx〉 dt)
α =0
=
(∫ b
a
2 〈Lδx, Lx+ αLδx〉 dt)
α =0
= 2
∫ b
a
〈Lδx, Lx〉 dt .
Como x e solucao do problema (Pv), tem de acontecer forcosamente
∫ b
a
〈Lδx, Lx〉 dt = 0 ,
37
Splines generalizados em espacos Euclidianos e controlo optimal
qualquer que seja a variacao admissıvel δx. Logo, recorrendo uma vez mais a identi-
dade (2.3), deduz-se quem−1∑
i=0
∫ ti+1
ti
〈δx, L∗Lx〉 dt = 0
porque δx e uma variacao admissıvel, isto e, δx ∈ Ω e satisfaz condicoes de interpolacao e
de fronteira nulas. Finalmente, porque δx e uma variacao admissıvel arbitraria, conclui-
se que x e, em cada subintervalo unindo pontos sucessivos da particao ∆, uma solucao
da equacao diferencial L∗L z = 0.
Podemos concluir que a equacao de Euler-Lagrange associada ao problema (Pv) e sim-
plesmente a equacao diferencial L∗L z = 0. Mais uma vez, os resultados obtidos na
Seccao 2.1.1, permitem concluir que a condicao apresentada no enunciado do teorema
anterior e afinal uma condicao necessaria e suficiente. Este e o tema do proximo corolario.
Corolario 2.1
x ∈ ΩA e solucao do problema (Pv) se e so se x e solucao da equacao diferencial L∗L z = 0
em cada subintervalo da particao ∆.
Podemos agora enunciar o resultado que responde em absoluto as principais questoes
decorrentes da formulacao do problema (Pv).
Teorema 2.4
O problema (Pv) tem uma unica solucao, que e o spline generalizado em Rn associado
a L e ∆, que satisfaz as condicoes de interpolacao e de fronteira prescritas no enunciado
do problema.
2.2 Ligacoes com a teoria de controlo
Mostramos como a partir da teoria de sistemas e possıvel interpretar as funcoes spline
definidas na Seccao 2.1. Reescrevemos o problema variacional (Pv) como um problema
de controlo optimal, formulado para sistemas lineares nao autonomos (ou variantes no
tempo) com multiplas entradas. A transicao entre os dois problemas e estabelecida por
meio da seguinte relacao Lx(t) = v(t), t ∈ [a, b]. Obtem-se o seguinte problema de
controlo optimal que designamos por (P )
J(v(·)) =
∫ b
a
〈v(t), v(t)〉 dt −−−→v ∈U
min ,
sujeito a dinamica
Lx(t) = v(t) ,
as condicoes de interpolacao
x(ti) = αi, i = 1, 2, . . . ,m− 1 ,
38
2.2. Ligacoes com a teoria de controlo
e condicoes de fronteira
x(k)(t0) = ηk0 , x(k)(tm) = ηk
m, k = 0, 1, . . . , p− 1 ,
onde αi, ηk0 e ηk
m pertencem a Rn.
U e o conjunto de todos os controlos admissıveis para o problema (P ), isto e, o conjunto
de todas as curvas v : [a, b] → Rn de classe C p−2 em [a, b] e de classe C p em cada
subintervalo unindo pontos consecutivos da particao ∆, do intervalo [a, b]. Mostramos
que o problema tem solucao unica e que o estado do sistema que lhe corresponde e um
spline generalizado em Rn tal como foi definido.
Interrompemos a sequencia de resultados para enunciar o Princıpio do Maximo de
Pontryagin (PMP) [53]. Este princıpio estabelece uma condicao necessaria de optima-
lidade de primeira ordem, que e o resultado a que recorremos para resolver o problema
(P ). Consideramos o problema de controlo optimal generico:
J [x(·), u(·)] =
∫ b
a
L(t, x(t), u(t)) dt −−−→(x,u)
min ,
sujeito a
x(t) = f(t, x(t), u(t)) , em q.t.p. t ∈ [a, b] ,
x(a) = ηa, x(b) = ηb ,
(2.4)
onde ηa, ηb ∈ Rn. Assume-se que o estado x : [a, b] → R
n e uma funcao contınua e que o
controlo u : [a, b] → U ⊂ Rr e uma funcao limitada e seccionalmente contınua em [a, b].
Assume-se ainda que as funcoes L e f estao definidas e sao contınuas em [a, b]× Rn ×U
e sao continuamente diferenciaveis em relacao a t, x e u.
Apresentamos o PMP para o problema (2.4).
Teorema 2.5 (Princıpio do Maximo de Pontryagin)
Se um controlo u(·) (funcao seccionalmente contınua tomando valores em U) e a corre-
spondente trajectoria x(·), que transfere o estado do sistema de ηa (em t = a) ate ηb
(em t = b), minimizam a funcional J [x(·), u(·)] entao, existe um vector linha nao nulo
(ψ0, ψ(·)′), onde ψ0 e uma constante, ψ0 ≤ 0, e ψ : [a, b] → Rn e uma funcao absoluta-
mente contınua, tal que (x(·), u(·), ψ0, ψ(·)) e um extremal de Pontryagin, isto e, satisfaz
i) o sistema Hamiltoniano
x =∂H
∂ψ
ψ = −∂H∂x
(sistema adjunto),
ii) a condicao de maximo
H(t, x(·), u(·), ψ0, ψ(·)) = max H(t, x(·), u(·), ψ0, ψ(·)) : u(·) ∈ U ,
39
Splines generalizados em espacos Euclidianos e controlo optimal
onde
H(t, x, u, ψ0, ψ) = ψ0 L(t, x, u) + 〈ψ, f(t, x, u)〉
e a funcao Hamiltoniana.
Observacao 2.4
Um extremal de Pontryagin (x(·), u(·), ψ0, ψ(·)) diz-se normal se ψ0 6= 0. Quando ψ0 = 0
o extremal de Pontryagin diz-se anormal. Neste caso, pode observar-se que a maximizacao
da funcao Hamiltoniana acaba por nao depender da expressao da funcional J .
Existem generalizacoes e modificacoes do PMP que se adaptam as diferentes formulacoes
de cada problema de controlo optimal.
Voltamos de novo a nossa atencao para o problema (P ). Achamos a sua solucao
resolvendo, no intervalo arbitrario [ti, ti+1], o problema (Pi):
Ji(v(·)) =
∫ ti+1
ti
〈v(t), v(t)〉 dt −−−→v ∈U
min ,
sujeito a
Lx(t) = v(t) ,
x(ti) = αi, x(ti+1) = αi+1 .
Note-se, que no primeiro subintervalo e no ultimo subintervalo ha que considerar condi-
coes de fronteira adicionais. Contudo, estas nao interferem nas conclusoes que apresen-
tamos. Reescrevemos o problema (Pi) recorrendo a transformacao usual de uma equacao
linear de ordem superior num sistema linear de primeira ordem. Obtem-se
Ji(v(·)) =
∫ ti+1
ti
〈v(t), v(t)〉 dt −−−→v ∈U
min ,
sujeito a
z(t) = A(t)z(t) +Bv(t) ,
z1(ti) = αi , z1(ti+1) = αi+1 ,
onde z′ = (z1, z2, . . . , zp)′ =
(x, x, . . . , x(p−1)
)′e
A(t) =
0 I · · · 0...
.... . .
...
0 0 · · · I
−A0(t) −A1(t) · · · −Ap−1(t)
pn×pn
, B =
0...
0
I
pn×n
.
E necessario impor uma condicao suplementar para que possamos ter a garantia que o
problema se encontra bem formulado.
40
2.2. Ligacoes com a teoria de controlo
E preciso assumir que as matrizes A0, . . . , Ap−1 sejam tais que o sistema de
controlo z(t) = A(t) z(t) + B v(t) e completamente controlavel no intervalo
[a, b]. Esta e uma imposicao natural que decorre da formulacao do problema.
Determinamos a solucao do problema aplicando directamente o PMP. A funcao Hamil-
toniana e
H(t, z(t), v(t), ψ0, ψ(t)) = ψ0〈v(t), v(t)〉 + 〈ψ(t), A(t)z(t) +Bv(t)〉 .
O sistema Hamiltoniano e simplesmente
z(t) = A(t)z(t) +Bv(t)
ψ(t) = −A(t)′ψ(t). (2.5)
Nao existem solucoes anormais porque o sistema de controlo e completamente controlavel.
Assim, podemos fixar ψ0 = − 12 . Para v e ψ admissıveis, a condicao de maximo, que neste
caso e equivalente a∂H
∂v= 0 ,
permite estabelecer a seguinte relacao
−v(t) + ψ(t)′B = 0 .
Se ψ′ = (ψ1, . . . , ψp)′ com ψj ∈ R
n entao, da equacao anterior resulta que
v(t) = ψp(t) (2.6)
e o unico candidato a controlo optimo. Por outro lado, observa-se que o sistema Hamil-
toniano (2.5) permite escrever o conjunto de equacoes
Lx(t) = v(t)
L∗ψp(t) = 0(2.7)
onde L∗ e o operador adjunto associado ao operador diferencial L. De (2.6) e (2.7)
deduz-se que v e x sao tais que
L∗v(t) = 0
L∗Lx(t) = 0.
Conclui-se que, se v e solucao do problema (Pi) entao v e uma solucao, no intervalo
[ti, ti+1], da equacao diferencial de ordem p, com coeficientes matriciais, L∗w = 0.
Tambem se conclui que o estado x que corresponde a v e uma solucao, no intervalo
[ti, ti+1], da equacao diferencial de ordem 2p, com coeficientes matriciais, L∗Lw = 0.
Estas conclusoes permitem-nos enunciar os proximos resultados que sao validos para o
problema (P ).
41
Splines generalizados em espacos Euclidianos e controlo optimal
Lema 2.4
Toda a solucao do problema (P ) e, em cada subintervalo [ti, ti+1], solucao da equacao
diferencial com coeficientes matriciais L∗w = 0 onde
L∗· ≡ (−1)pDp · + (−1)p−1Dp−1(Ap−1(t)′ ·) + · · · −D(A1(t)
′ ·) +A0(t)′· ,
e o operador adjunto associado ao operador
L· ≡ Dp · +Ap−1(t)Dp−1 · + · · · +A1(t)D · +A0(t) · .
A trajectoria optima correspondente e, em cada subintervalo [ti, ti+1], solucao da equacao
diferencial com coeficientes matriciais L∗Lw = 0.
Teorema 2.6
A trajectoria optima do problema (P ) e o spline generalizado em Rn, associado a L e
∆, que satisfaz as condicoes de interpolacao e de fronteira prescritas no enunciado do
problema.
Teorema 2.7
O problema (P ) tem uma unica solucao. O controlo u(t) = Ls(t), onde s e o spline
generalizado em Rn associado a L e ∆, que satisfaz as condicoes de interpolacao e de
fronteira prescritas no enunciado do problema, e a solucao pretendida.
2.2.1 O caso p = 1
O caso em que p = 1 tem um interesse muito particular. Obtem-se um problema de
controlo linear-quadratico classico com condicoes de interpolacao. Neste caso muito par-
ticular, consideramos sem perder generalidade que v(t) = B(t)u(t), onde assumimos que
B e uma funcao matricial de classe C 1 em [a, b] com valores em Rn×n. Assumimos
tambem que a matriz B(t) tem caracterıstica maxima, isto e, que rankB(t) = n, qual-
quer que seja t ∈ [a, b]. Ou seja, temos o problema de controlo optimal que designamos
por (P ∗),
J(u(·)) =
∫ b
a
〈B(t)u(t), B(t)u(t)〉 dt −−−→u∈U
min ,
sujeito a dinamica
x(t) = A(t)x(t) +B(t)u(t) ,
e as condicoes de interpolacao
x(ti) = αi , i = 0, 1, . . . ,m ,
onde αi ∈ Rn e U e o conjunto de todas as funcoes u : [a, b] → R
n de classe
C 1 em cada subintervalo unindo pontos consecutivos da particao ∆.
42
2.2. Ligacoes com a teoria de controlo
Assumindo que o sistema de controlo e completamente controlavel no intervalo [a, b], a
aplicacao do PMP permite deduzir que ψ(t) = B(t)u(t) e consequentemente
u(t) = B(t)−1ψ(t)
e o unico candidato a controlo optimo. Os proximos corolarios sao consequencia imediata
do Lema 2.4 e dos Teoremas 2.6 e 2.7.
Corolario 2.2
O problema (P ∗) tem uma unica solucao. A sua restricao a cada subintervalo [ti, ti+1],
e solucao da equacao diferencial com coeficientes matriciais L∗(B(t)w) = 0 onde L∗ ≡−D − A(t)′ e o operador adjunto associado ao operador L ≡ D −A(t). A trajectoria
optima correspondente e, em cada subintervalo [ti, ti+1], solucao da equacao diferencial
com coeficientes matriciais, L∗Lw = 0, que se pode escrever por extenso da seguinte
forma
w + (A(t)′ −A(t)) w −(A(t)′A(t) + A(t)
)w = 0 .
Corolario 2.3
A trajectoria optima do problema (P ∗) e o spline generalizado em Rn, associado ao
operador L ≡ D −A(t) e a particao ∆, que satisfaz as condicoes de interpolacao prescritas
no enunciado do problema.
No Teorema 2.8 apresentamos expressoes locais explıcitas para o controlo e estado opti-
mos, obtidas a partir da matriz de transicao associada ao sistema homogeneo x = A(t)x.
Teorema 2.8
Se x e o estado optimo do problema (P ∗) entao x e definido em cada subintervalo [ti, ti+1]
por
x(t) = Φ(t, ti)αi +
(∫ t
ti
Φ(t, s)Φ(ti, s)′ ds
)Si
−1 (Φ(ti, ti+1)αi+1 − αi) ,
onde Φ(t, ti) e a matriz de transicao associada ao sistema homogeneo x = A(t)x e Si
representa a matriz simetrica∫ ti+1
ti
Φ(ti, s)Φ(ti, s)′ ds .
Se u e o controlo optimo do problema (P ∗) entao u e definido em cada subintervalo
[ti, ti+1] por
u(t) = B(t)−1 Φ(ti, t)′ Si
−1 (Φ(ti, ti+1)αi+1 − αi) .
Demonstracao - Devido a relacao ψ(t) = B(t)u(t), valida em cada subintervalo
[ti, ti+1], o sistema Hamiltoniano, associado ao problema (P ∗), pode reescrever-se do
seguinte modo x(t) = A(t)x(t) + ψ(t)
ψ(t) = −A(t)′ψ(t). (2.8)
43
Splines generalizados em espacos Euclidianos e controlo optimal
Da equacao adjunta ψ(t) = −A(t)′ψ(t) conclui-se imediatamente que
ψ(t) = Φ(ti, t)′ψ(ti)
onde Φ(t, ti) e a matriz de transicao para x = A(t)x. A substituicao da expressao para ψ
na primeira equacao do sistema (2.8) origina o sistema linear de primeira ordem completo
x = A(t)x + Φ(ti, t)′ψ(ti). A sua solucao, com condicao inicial x(ti) = αi, e dada por
x(t) = Φ(t, ti)αi +
∫ t
ti
Φ(t, s)Φ(ti, s)′ψ(ti) ds . (2.9)
So falta determinar uma expressao explıcita para ψ(ti). Usando a outra condicao inicial
x(ti+1) = αi+1 tem-se, a partir da equacao anterior,
αi+1 = Φ(ti+1, ti)αi +
(∫ ti+1
ti
Φ(ti+1, s)Φ(ti, s)′ ds
)ψ(ti)
= Φ(ti+1, ti)αi + Φ(ti+1, ti)
(∫ ti+1
ti
Φ(ti, s)Φ(ti, s)′ ds
)ψ(ti) .
A ultima equacao permite escrever Φ(ti+1, ti)−1 αi+1 − αi = Si ψ(ti) ou de forma equi-
valente Φ(ti, ti+1)αi+1 − αi = Si ψ(ti). Porque Si e sempre uma matriz nao singular
(qualquer que seja o subintervalo) obtem-se
ψ(ti) = Si−1(Φ(ti, ti+1)αi+1 − αi) . (2.10)
Finalmente, substituindo a expressao de ψ(ti) na equacao (2.9) deduz-se, tal como
foi enunciado, a expressao de x em cada subintervalo [ti, ti+1]. A expressao de u,
em cada subintervalo [ti, ti+1], e uma consequencia imediata da relacao entre u e ψ,
u(t) = B(t)−1ψ(t), da expressao para ψ, ψ(t) = Φ(ti, t)′ψ(ti), e de (2.10) para ψ(ti).
Vale a pena reparar que esta demonstracao acaba por estar assente num facto simples.
Sabe-se que a trajectoria optima do problema (P ∗) e em cada subintervalo solucao da
equacao diferencial L∗Lx = 0. E natural decompor esta equacao no seguinte conjunto
de duas equacoes Lx(t) = ψ(t)
L∗ψ(t) = 0,
que nao e mais do que o sistema Hamiltoniano (2.8). Numa primeira fase resolve-se
a equacao L∗ψ(t) = 0, que e um sistema homogeneo. Depois, resolve-se a equacao
Lx(t) = ψ(t) que e um sistema completo. Esta observacao tem ainda outra vantagem,
esclarece sobre qual o caminho a tomar, para poder obter expressoes locais explıcitas do
estado optimo e do controlo optimo do problema principal que e (P ).
Observacao 2.5
A demonstracao do Teorema 2.8 permite obter uma expressao para o valor optimo da
funcao objectivo do problema (P ∗). Em [ti, ti+1] deduz-se, sem dificuldade, que o valor
44
2.2. Ligacoes com a teoria de controlo
mınimo da funcao objectivo e ψ(ti)′Si ψ(ti). Logo, J(u) =
∑m−1i=0 (ψ(ti)
′Si ψ(ti)), e
portanto,
J(u) =
m−1∑
i=0
((Φ(ti, ti+1)αi+1 − αi)
′Si−1(Φ(ti, ti+1)αi+1 − αi)
).
Observacao 2.6
Verificamos que a trajectoria optima do problema (P ∗) e solucao da equacao diferencial
x+ (A(t)′ −A(t)) x−(A(t)′A(t) + A(t)
)x = 0
em cada subintervalo da particao ∆. Gostarıamos apenas de salientar que esta equacao
nao depende da matriz B. Este facto nao e surpreendente e aceita-se facilmente se
observarmos que na resolucao do problema (P ∗), usando o PMP, esta implıcito que
v(t) = B(t)u(t), facto que elimina a ocorrencia da matriz B em todos os calculos poste-
riores. A nao dependencia da matriz B tambem esta patente na expressao explıcita de
x apresentada no enunciado do Teorema 2.8. Ou seja, como seria de esperar, fixando A
e variando B, obtem-se uma multiplicidade de problemas que estao directamente rela-
cionados com o mesmo spline generalizado em Rn.
Na formulacao do problema (P ∗) exigiu-se que a matriz B(t) fosse quadrada. O caso
em que esta matriz e rectangular e analisado no final deste capıtulo.
Observacao 2.7
Algumas conclusoes quando L e invariante no tempo.
• O estado optimo e o controlo optimo do problema (P ∗) tem em cada subintervalo
[ti, ti+1] as seguintes expressoes
x(t) = e(t−ti)A
(αi +
(∫ t
ti
e(ti−s)(A +A′) ds
)ψ(ti)
),
e
u(t) = B(t)−1 e(ti−t)A′
ψ(ti) ,
onde
ψ(ti) =
(∫ ti+1
ti
e(ti−s)(A +A′) ds
)−1(e(ti−ti+1)A αi+1 − αi
).
• Cada segmento do estado optimo x e em cada intervalo [ti, ti+1] solucao da equacao
diferencial
x+ (A′ −A) x− (A′A)x = 0 .
45
Splines generalizados em espacos Euclidianos e controlo optimal
2.2.2 Exemplos
Consideramos dois exemplos do caso p = 1 com espaco de estados R2. Assumimos que
x(t) = (x1(t), x2(t))′ e u(t) = (u1(t), u2(t))
′.
Exemplo 2.1
J(u(·)) =
∫ 2
0
(u1(t))2 + (u2(t))
2 dt −−−→u∈U
min ,
sujeito ao sistema de controlo nao autonomox1 = t 2x2 + u2
x2 = −t 2x1 + u1
e condicoes de interpolacao
x(t0 = 0) = (0, 0)′ , x(t1 = 1) = (1, 0.5)′ , x(t2 = 2) = (−0.25, 1)′ .
O intervalo de tempo e [0, 2] e a particao escolhida e ∆ : a = 0 < 1 < 2 = b. A matriz de
transicao associada ao sistema homogeneo e
Φ(t, ti) =
cos
(t3−ti
3
3
)sin(
t3−ti3
3
)
− sin(
t3−ti3
3
)cos(
t3−ti3
3
) .
O sistema de controlo e completamente controlavel no intervalo [a, b]. O resultado
classico, devido a Kalman [38], para testar a controlabilidade completa do sistema, con-
siste em averiguar se a matriz simetrica
W = W (τ0, τ1) =
∫ τ1
τ0
Φ(τ0, t)B(t)B(t)′ Φ(τ0, t)′ dt
e definida positiva sempre que τ1 > τ0 com τ0, τ1 ∈ [0, 2]. Porque B e Φ sao matrizes
ortogonais a matriz W e simplesmente[τ1 − τ0 0
0 τ1 − τ0
]
logo definida positiva em todo o subintervalo de [0, 2]. O controlo optimo u e, em cada
subintervalo [ti, ti+1], solucao da equacao diferencial L∗(Bu) = 0, isto e, solucao do
sistema de equacoes diferenciaisu2 − t 2u1 = 0
u1 + t 2u2 = 0.
Obtem-se
u1(t) = ci1 sin(
t3
3
)+ ci2 cos
(t3
3
),
u2(t) = ci2 sin(
t3
3
)− ci1 cos
(t3
3
),
46
2.2. Ligacoes com a teoria de controlo
ci1, ci2 ∈ R. O spline generalizado em R2 que corresponde a u e em cada subintervalo
[ti, ti+1] solucao do seguinte sistema de equacoes diferenciais, que resulta da equacao
L∗Lx = 0, x1 − 2 t 2x2 − t 4x1 − 2 t x2 = 0
x2 + 2 t 2x1 + 2 t x1 − t 4x2 = 0.
Obtem-se para as componentes do vector de estado
x1(t) = (ci2 + tci4) sin(
t3
3
)− (ci1 + tci3) cos
(t3
3
),
x2(t) = (ci1 + tci3) sin(
t3
3
)+ (ci2 + tci4) cos
(t3
3
),
ci1, ci2, ci3, ci4 ∈ R. O spline generalizado gerado e uma funcao contınua em [0, 2]. O
mesmo ja nao acontece para u que tem uma descontinuidade no instante t1.
x1
x2
−0.6−0.2
0 0.2
0.2
0.6
0.6
1
1
Figura 2.1: Spline generalizado em R2
u1
u2
0.5 1.5 2
−2
−1
−1
1
1
Figura 2.2: Controlo optimo
47
Splines generalizados em espacos Euclidianos e controlo optimal
Exemplo 2.2
J(u(·)) =
∫ 4
0
(u1(t))2 + 2 u1(t)u2(t) + 2 (u2(t))
2 dt −−−→u∈U
min ,
sujeito ao sistema de controlo autonomo
x1 = −x2 + u2
x2 = 2 x1 + u1 + u2
e condicoes de interpolacao
x(t0 = 0) = (0, 0)′ , x(t1 = 1) = (1, 0.5)′ ,
x(t2 = 2) = (−0.25, 1)′ , x(t3 = 4) = (1,−1)′ .
O sistema e completamente controlavel. Basta observar que a matriz de controlabilidade
tem caracterıstica maxima. O controlo optimo u e, em cada subintervalo [ti, ti+1], solucao
da equacao diferencial L∗(Bu) = 0, isto e, solucao do sistema de equacoes diferenciais
u2 + 2 u1 + 2 u2 = 0
u1 + u2 − u2 = 0.
Daqui resulta
u1(t) = ci1 sin(√
2 t)
+ ci2 cos(√
2 t),
u2(t) = −(√
23 ci2 + 2
3 ci1
)sin(√
2 t)
+(√
23 ci1 − 2
3 ci2
)cos(√
2 t),
ci1, ci2 ∈ R. O spline generalizado em R2 que corresponde a u e em cada subintervalo
[ti, ti+1] solucao da equacao
x+ (A′ −A) x− (A′A)x = 0 ,
isto e, do seguinte sistema de equacoes diferenciais
x1 + 3 x2 − 4 x1 = 0
x2 − 3 x1 − x2 = 0.
Obtem-se para as componentes do vector de estado
x1(t) = (ci1 + ci3t) sin(√
2 t)
+ (ci2 + ci4t) cos(√
2 t),
x2(t) =(ci2
√2 + 1
3 ci3 + ci4√
2 t)sin(√
2 t)−(ci1
√2 + ci3
√2 t− 1
3 ci4)cos(√
2 t),
onde ci1, ci2, ci3 e ci4 sao constantes reais a determinar em cada subintervalo [ti, ti+1].
48
2.2. Ligacoes com a teoria de controlo
x1
x2
−0.8 0.4
−1.5
−1
−0.5
0
0.51
1
Figura 2.3: Spline generalizado em R2
u1
u2
−1.5 −1 −0.5 0.5
−0.6
0
0.6
1.2
Figura 2.4: Controlo optimo
2.2.3 Ligacoes com equacoes de Riccati
Recordemos que (Observacao 2.7) no caso em que p = 1 e L e invariante no tempo, cada
segmento do estado optimo e solucao da equacao diferencial
x+ (A′ −A) x − (A′A)x = 0 .
Este facto motiva a seguinte pergunta:
Dada uma equacao diferencial de segunda ordem com coeficientes matriciais
x+ C x+K x = 0 , x ∈ Rn ,
onde C e anti-simetrica e K e simetrica, em que condicoes sao as suas solucoes
segmentos de um spline generalizado em Rn?
Pretende-se saber afinal se existe uma matriz A tal que
A′ −A = C e −A′A = K . (2.11)
49
Splines generalizados em espacos Euclidianos e controlo optimal
Vejamos que a existencia de A e equivalente a existencia de uma solucao simetrica de
uma certa equacao algebrica de Riccati. Na verdade, porque toda a matriz A admite a
decomposicao em parte simetrica e em parte anti-simetrica
A = A+A′
2 + A−A′
2 ,
fica claro que, se existe A satisfazendo (2.11) entao, existe uma matriz simetrica S tal
que
A = S − C2 .
Da condicao −A′A = K, conclui-se que
−(S − C
2
)′ (S − C
2
)= K
⇔ −(S − C′
2
)(S − C
2
)= K
⇔ S2 + S(−C
2
)+(−C
2
)′S − C2
4 +K = 0 . (2.12)
Esta e a equacao algebrica de Riccati que mencionamos anteriormente. Recorrendo a Lan-
caster e Rodman [41] podemos concluir que a equacao (2.12) tem uma solucao simetrica
se e somente se os blocos de Jordan associados aos valores proprios imaginarios puros da
matriz Hamiltoniana
H =
[−C
2 IC2
4 −K −C2
]
tem dimensao par. Alem disso essa solucao e unica se todos os valores proprios de H
forem imaginarios puros.
Uma outra relacao entre os problemas em analise neste capıtulo e uma certa equacao
diferencial de Riccati surge ao tentar responder a seguinte questao:
Sera possıvel obter resultados semelhantes aos da Seccao 2.2.1 para o pro-
blema (P ∗) quando B(t) e uma matriz rectangular de dimensao n× r, r < n,
e rankB(t) = r para todo t ∈ [a, b]?
O problema de controlo optimal correspondente contınua a ter solucao unica. Mostra-se
que o estado optimo e controlo optimo tem em cada subintervalo [ti, ti+1] as seguintes
expressoes
x(t) = Φ(t, ti)αi +
(∫ t
ti
Φ(t, s)Ψ(s)Φ(ti, s)′ ds
)Si
−1 (Φ(ti, ti+1)αi+1 − αi) , (2.13)
e
u(t) = (B(t)′B(t))−1B(t)′ Φ(ti, t)
′ Si−1 (Φ(ti, ti+1)αi+1 − αi) , (2.14)
onde
Si =
∫ ti+1
ti
Φ(ti, s)Ψ(s)Φ(ti, s)′ ds
50
2.3. Observacoes finais e referencias
e uma matriz simetrica definida positiva e
Ψ(t) = B(t) (B(t)′B(t))−1B(t)′ .
Contudo, em geral, x dado por (2.13) nao e solucao da equacao diferencial L∗Lx = 0.
Basta por exemplo considerar o caso autonomo em que
A =
[0 1
0 0
]e B =
[0
1
]. (2.15)
A matriz Ψ desempenha aqui um papel determinante. E uma matriz quadrada de ordem
n, simetrica, tal que Ψ(t)B(t) = B(t) e Ψ(t)k = Ψ(t) para todo k ∈ N. Esta propriedade
implica em particular que det Ψ(t) = 0 ou detΨ(t) = 1. Tem-se detΨ(t) = 0 quando B
e rectangular de dimensao n × r (de caracterıstica maxima), pois pode verificar-se que
rankΨ(t) = r. Tem-se detΨ(t) = 1 quando B e quadrada de ordem n (de caracterıstica
maxima), pois verifica-se facilmente que Ψ(t) = I.
Mostra-se que u, dado por (2.14), e solucao da equacao L∗(Bu) = 0 (e, portanto, x e
um spline generalizado) se e somente se Ψ e solucao da equacao diferencial matricial de
Riccati
X(t) = X(t)A(t)′ −A(t)′X(t) . (2.16)
Quando B e uma matriz quadrada (de caracterıstica maxima), Ψ(t) = I e evidentemente
uma solucao da equacao (2.16).
Sobre esta equacao de Riccati podemos dizer um pouco mais. Demonstra-se, em
Reid [55] e Barnett [8], que a equacao (2.16), com condicao inicial X(t0) = X0, tem uma
unica solucao dada por
X(t) = Φ(t0, t)′X0 Φ(t, t0)
′ ,
e que rankX(t) = rankX0 qualquer que seja t ∈ [a, b]. Assim, X e invertıvel em [a, b] se
X0 for invertıvel.
Finalmente, o exemplo sugerido em (2.15) acaba por mostrar que o estado optimo do
problema de controlo optimal, associado aos splines generalizados escalares, nao e um
spline generalizado em Rn tal como foi definido neste capıtulo.
2.3 Observacoes finais e referencias
Na Pre-Publicacao (Rodrigues e Silva Leite [62]), do Departamento de Matematica da
Universidade de Coimbra, surgem os primeiros resultados sobre splines generalizados em
Rn, quando o operador diferencial e invariante no tempo. A extensao destes resultados ao
caso em que o operador diferencial e variante no tempo aparece a posteriori e encontra-se
publicada em revista internacional (Rodrigues e Torres [65]).
Enquanto no trabalho de investigacao [62] os resultados obtidos decorrem de uma
abordagem variacional, em [65] a abordagem decorre fundamentalmente da aplicacao de
51
Splines generalizados em espacos Euclidianos e controlo optimal
metodos proprios da area de controlo optimal, nomeadamente da aplicacao do Princıpio
do Maximo de Pontryagin.
Os resultados foram apresentados com comunicacao, pelo autor, no encontro “Second
Junior European Meeting on Control Theory and Stabilization”, que decorreu no “Di-
partimento di Matematica del Politecnico di Torino”, em Dezembro de 2003, no “First
Control Training Site Workshop”, que decorreu na Universidade de Coimbra em Julho de
2004, e finalmente, na conferencia internacional “Optimization’2004”, na Universidade
de Lisboa, ainda em Julho de 2004.
Sobre o Princıpio do Maximo de Pontryagin e fundamental consultar os textos cla-
ssicos de Pontryagin et al. [53] e de Boltyanskii [9]. Uma descricao sobre a genese do
Princıpio do Maximo de Pontryagin pode encontrar-se em Gamkrelidze [30]. Destacamos
ainda sobre controlo optimal e calculo das variacoes (Pinch [52]) e numa perspectiva
historica (Sussmann e Willems [75]).
Sobre equacoes diferenciais matriciais de Riccati destacamos (Barnett [8]). Estas
equacoes diferenciais tem sido largamente estudadas por matematicos. A atencao que
despertam em teoria de sistemas, tem origem na forma como uma equacao diferencial
matricial de Riccati muito particular, surge associada a um certo problema de controlo
optimal para sistemas lineares. Este problema e conhecido na literatura como the linear
regulator problem, consulte-se por exemplo (Kalman [38]).
52
Parte II
Algoritmos geometricos
para a geracao de curvas spline
em variedades Riemanianas
53
Capıtulo 3
Elementos de geometria Riemaniana
Neste capıtulo apresentamos uma sıntese de conceitos e resultados da area
da geometria Riemaniana que sao essenciais na discussao do trabalho de
investigacao que apresentamos nos dois proximos capıtulos. As referencias
bibliograficas de base estao descritas no final do capıtulo.
3.1 Preliminares de geometria diferencial
Seja M uma variedade suave de dimensao finita n ∈ N (usamos a definicao adoptada
por Boothby [10] e, em particular, assumimos que M e uma variedade topologica). Neste
capıtulo, a expressao suave significa sempre C∞ diferenciavel.
Se q e um ponto de M entao TqM representa o espaco tangente a variedade M em
q, isto e, o conjunto de todas as derivacoes Xq cujo domınio e constituıdo por todas
as funcoes reais suaves, definidas numa vizinhanca de q. Existem no entanto outras
definicoes equivalentes de espaco tangente. A definicao apresentada e geralmente desig-
nada como a definicao algebrica de espaco tangente e tem como principal caracterıstica
ser independente de qualquer sistema de coordenadas locais. O espaco tangente a M em
q e um espaco vectorial real de dimensao igual a dimensao de M enquanto variedade,
ou seja, dim TqM = dimM , para todo o q ∈ M . Aos elementos deste espaco vectorial
da-se o nome de vectores tangentes a M no ponto q. Ao conjunto TM =⋃
q ∈M TqM
que resulta da uniao disjunta de todos os espacos tangentes chama-se fibrado tangente.
Este e uma variedade suave de dimensao 2n.
Um campo de vectores em M e qualquer aplicacao X : M → TM que a cada ponto
q ∈M associa um vector tangente X(q) = Xq ∈ TqM . Um campo de vectores e suave se
a aplicacao entre variedades, que o define, for suave. O conjunto de todos os campos de
vectores suaves, que denotamos por X(M), e um espaco vectorial real para as operacoes
X + Y : (X + Y )q = Xq + Yq e αX : (αX)q = αXq com X,Y ∈ X(M) e α ∈ R.
Seja C∞(M) o conjunto de todas as funcoes reais suaves definidas num aberto da
55
Elementos de geometria Riemaniana
variedade M . Com um campo de vectores X ∈ X(M) e uma funcao f ∈ C∞(M), e
possıvel definir um novo campo de vectores fX ∈ X(M) da seguinte forma q ∈ M 7→fX(q) = f(q)X(q), e uma nova funcao Xf ∈ C∞(M) da seguinte forma, q ∈ M 7→Xf(q) = Xq(f) (Xq e uma derivacao).
Uma curva parametrizada, ou simplesmente curva, suave em M , e qualquer aplicacao
γ : (a, b) ⊂ R → M que seja suave (entre variedades). Usando o conceito de curva e
possıvel apresentar uma definicao equivalente de espaco tangente. O espaco TqM , q ∈M ,
pode definir-se em alternativa como o conjunto de todos os vectores velocidade com ponto
de aplicacao o ponto q de todas as curvas suaves em M , isto e, Xq ∈ TqM se
Xq =(
dγdt
)t=0
onde γ : (−ε, ε) ⊂ R → M , ε > 0, e uma curva suave em M tal que γ(0) = q. Esta
definicao alternativa fornece uma interpretacao geometrica explıcita do espaco tangente.
E no entanto uma definicao local, pois esta dependente de cada sistema de coordenadas.
Seja X um campo de vectores suave na variedade suave M de dimensao n. Uma
curva suave γ : (a, b) ⊂ R → M e uma curva integral de X se γ(t) = X(γ(t)) para todo
t ∈ (a, b). A determinacao de uma curva integral de X equivale, em coordenadas locais,
a determinacao de uma solucao de um sistema de n equacoes diferenciais ordinarias.
Teorema 3.1 (Boothby [10])
Seja X um campo de vectores suave numa variedade suave M . A cada q ∈ M esta
associado um unico intervalo aberto (−ε, ε) ⊂ R, onde ε ≡ ε(q), e uma curva integral de
X , γ : (−ε, ε) → M , tal que γ(0) = q. Se α : (−a, a) → M e outra curva integral de X
tal que α(0) = q entao (−a, a) ⊂ (−ε, ε) e α(t) = γ(t) para todo t ∈ (−a, a).
O teorema garante a existencia de uma unica curva integral de X , definida para valores
de t suficientemente proximos de zero, que no instante t = 0 toma o valor q. Denotamos
esta curva integral de X , associada ao ponto q, por γq(·).Seja δ > 0 um numero real tal que, qualquer que seja q ∈ M , γq esta definida no
intervalo (−δ, δ). A famılia de todas as aplicacoes
P t : M →M ; q 7→ P t(q) = γq(t) , t ∈ (−δ, δ) ,
chama-se fluxo do campo de vectores X . Cada aplicacao P t e um difeomorfismo1. Alem
disso, P 0 = Id (aplicacao identidade) e P t P s = P s P t = P t+s, t, s, t + s ∈ (−δ, δ),logo, P−t P t = P t P−t = Id e portanto (P t)−1 = P−t.
X e um campo de vectores completo se cada curva integral de X associada a todo o
ponto q ∈M esta definida para todo t ∈ R.
Observacao 3.1
Se M e uma variedade suave compacta entao todos os elementos de X(M) sao completos.
1Aplicacao bijectiva suave cuja inversa tambem e suave.
56
3.2. Variedades Riemanianas
Seja F : M → N uma aplicacao suave entre as variedades suavesM e N . O diferencial
(ou aplicacao tangente) de F no ponto q ∈M e a aplicacao linear
dFq : TqM → TF (q)N
que ao vector tangente Xq de TqM associa o vector tangente dFq(Xq) ∈ TF (q)N definido
do seguinte modo
dFq(Xq) =(
ddtF (γ(t))
)t=0
,
onde γ : (−ε, ε) →M e uma qualquer curva em M suave tal que γ(0) = q e γ(0) = Xq.
Observacao 3.2
Se F : M → N e um difeomorfismo entao dFq tambem e bijectiva, ou seja, a aplicacao
diferencial e um isomorfismo entre espacos vectoriais para todo o q ∈M sendo (dFq)−1 =
(dF−1)F (q).
F : M → N e uma imersao de M em N se dFq e injectiva para todo q ∈ M (logo,
acontece dimM ≤ dimN). Se F e uma imersao injectiva entao M = F (M) 2 e uma sub-
variedade3 da variedade N , designada subvariedade imersa. Mais restritivo e o conceito
de mergulho. Se uma imersao injectiva F : M → N e tambem um homeomorfismo4 de
M em M = F (M), onde em M ⊂ N se toma a topologia relativa5, entao F diz-se um
mergulho. A imagem de um mergulho e uma subvariedade mergulhada.
Exemplo 3.1
A esfera n-dimensional
Sn = x ∈ Rn+1 : x1
2 + · · · + xn+12 = 1
e uma subvariedade mergulhada de Rn+1.
O proximo resultado, devido a Whitney, indica que toda a variedade suave pode ser
mergulhada num espaco Euclidiano de dimensao suficientemente grande.
Teorema 3.2 (Whitney)
Toda a variedade suave M pode ser mergulhada em RN com N ≤ 2 dimM + 1.
3.2 Variedades Riemanianas
Uma metrica Riemaniana permite estabelecer um produto interno em cada espaco tan-
gente a variedade. Permite ainda que a transicao de produto interno para produto in-
terno, entre espacos tangentes, seja uma transicao suave. Com uma metrica Riemaniana
passa a ser possıvel analisar na variedade certas caracterısticas geometricas tais como o
comprimento de curvas na variedade.
2Com a topologia e a estrutura diferenciavel que tornam F : M → fM um difeomorfismo.3Subconjunto da variedade que e tambem uma variedade suave.4Aplicacao ϕ entre espacos topologicos que e bijectiva e bicontınua, ou seja, ϕ e ϕ−1 sao contınuas.5Topologia induzida em fM pela topologia em N .
57
Elementos de geometria Riemaniana
Definicao 3.1
Uma metrica Riemaniana numa variedade suaveM e qualquer aplicacao que a cada ponto
q de M , associa um produto interno 〈·,·〉q no espaco tangente TqM , de tal modo que, se
X e Y pertencem a X(M), entao a aplicacao entre variedades q 7→ 〈X(q), Y (q)〉q e suave.
Por uma questao de simplicidade e costume omitir o ındice na expressao 〈·,·〉q e usar 〈·,·〉para representar a metrica Riemaniana. Assim faremos sempre que nao haja motivo para
confusao. Note-se que uma metrica Riemaniana nao e necessariamente unica.
Observacao 3.3
Em toda a variedade suave e possıvel definir uma metrica Riemaniana.
Definicao 3.2
Uma variedade Riemaniana e um par (M, 〈·,·〉) constituıdo por uma variedade suave e
uma sua metrica Riemaniana.
Exemplo 3.2
Rn com o produto interno Euclidiano e uma variedade Riemaniana.
Seja W uma subvariedade imersa de uma variedade Riemaniana N . A metrica Rie-
maniana definida em N induz uma metrica Riemaniana em W transformando W numa
variedade Riemaniana. A metrica induzida e definida a custa da aplicacao inclusao
i : W → N , do seguinte modo: se q ∈ W e u, v ∈ TqW entao 〈u, v〉q = 〈diq(u), diq(v)〉q .O mesmo acontece quando W e uma subvariedade mergulhada de N
Exemplo 3.3
Porque Sn e uma subvariedade mergulhada de Rn+1, a aplicacao inclusao i : Sn → R
n+1
induz uma metrica Riemaniana em Sn. Os vectores tangentes a esfera n-dimensional
sao simplesmente interpretados como vectores em Rn+1 com o consequente calculo do
produto interno Euclidiano.
Se γ : (a, b) ⊂ R → M e uma curva suave numa variedade Riemaniana M entao a
funcao suave
t ∈ (a, b) 7→⟨
dγdt, dγ
dt
⟩ 12
γ(t)≡⟨
dγdt, dγ
dt
⟩12 ∈ R
+
associa a cada t ∈ (a, b) o comprimento do vector velocidade γ(t) (assumimos que o
vector velocidade nao tem nunca comprimento nulo). O comprimento de arco da curva
γ no intervalo [c, d] ⊂ (a, b) e dado pelo valor do integral
l(γ) =
∫ d
c
⟨dγdt, dγ
dt
⟩12
dt . (3.1)
A curva γ esta parametrizada por comprimento de arco se⟨
dγdt, dγ
dt
⟩= 1 para todo o t.
Por fim, seja F : M → N um difeomorfismo entre duas variedades Riemanianas. F e
uma isometria se 〈u, v〉q = 〈dFq(u), dFq(v)〉F (q) para todo o q ∈M e todo o u, v ∈ TqM .
58
3.3. Conexao Riemaniana
3.3 Conexao Riemaniana
Seja M uma variedade suave. Um campo de vectores ao longo de uma curva suave
γ : (a, b) ⊂ R → M e qualquer aplicacao suave V : (a, b) → TM que a cada t ∈ (a, b)
associa um vector tangente V (t) ∈ Tγ(t)M . O conjunto dos vectores velocidade de γ
permite definir o campo de vectores ao longo de γ, t ∈ (a, b) → dγdt
(t), designado como
campo de vectores velocidade ao longo da curva γ. Um campo de vectores V ao longo
da curva γ e induzido por X ∈ X(M) se V (t) = X(γ(t)) para todo t ∈ (a, b).
Definicao 3.3
Uma conexao afim ∇ numa variedade suave M e uma aplicacao, que a cada par (X,Y ) ∈X(M) × X(M) associa um outro campo de vectores em X(M) representado por ∇XY ,
com as seguintes propriedades
i) ∇fX+gY Z = f ∇XZ + g∇Y Z,
ii) ∇X(Y + Z) = ∇XY + ∇XZ,
iii) ∇X(f Y ) = f ∇XY +X(f)Y ,
onde X,Y, Z ∈ X(M) e f, g ∈ C∞(M).
Pode provar-se que ∇XY (q), q ∈ M , depende de Y e apenas do valor de X em q.
Este facto permite dar sentido a expressao ∇XqY , definindo-a como ∇Xq
Y = ∇XY (q).
Uma conexao afim em M da origem, de forma unica, a uma forma de derivar (derivada
covariante) campos de vectores ao longo de curvas.
Proposicao 3.1 (Carmo [24])
SeM e uma variedade suave com uma conexao afim ∇ e γ e uma curva suave em M entao,
existe uma unica transformacao, denotada por Ddt
e designada por derivada covariante,
que a cada campo de vectores V ao longo de γ associa um outro campo de vectoresDVdt
(derivada covariante de V ) ao longo de γ. A transformacao Ddt
tem as seguintes
propriedades que a caracterizam:
i) Se V e induzido por Y ∈ X(M) entao DVdt
= ∇ dγdtY ,
ii) D(Y +Z)dt
= DYdt
+ DZdt
, se Y e Z sao campos de vectores ao longo de γ,
iii) D(fY )dt
= dfdtY + f DY
dt, se Y e um campo de vectores ao longo de γ e f ∈ C∞(M).
Em i), se a curva suave γ : (a, b) → M e tal que γ(t0) = q e γ(t0) = v entao a expressaoDVdt
= ∇ dγdtY significa, em particular, que DV
dt(t0) = ∇vY ∈ TqM .
A derivada covariante pode aplicar-se sucessivamente obtendo de cada vez um novo
campo de vectores ao longo da curva.
Quando M = Rn mostra-se que a derivada covariante coincide com a derivada usual.
59
Elementos de geometria Riemaniana
Observacao 3.4
Quando M e uma subvariedade mergulhada em Rn a derivada covariante admite uma
interpretacao geometrica importante. Seja γ : (a, b) →M uma curva suave em M e seja
V : (a, b) → TM um campo de vectores ao longo de γ. Observando γ e V do ponto de
vista do espaco ambiente pode concluir-se que a derivada usual dVdt
: (a, b) → Rn e um
campo de vectores ao longo de γ. Contudo, em geral, dVdt
(τ), τ ∈ (a, b), nao pertence
ao espaco tangente Tγ(τ)M , e portanto, dVdt
nao e do ponto de vista de M um campo de
vectores ao longo de γ. Existe no entanto uma relacao entre a derivada usual de V e a
derivada covariante de V . Pode mostrar-se que a derivada covariante de V e um campo
de vectores ao longo de γ que em cada instante τ ∈ (a, b) e o vector de Tγ(τ)M que resulta
da projeccao ortogonal do vector dVdt
(τ) ∈ Rn no espaco tangente Tγ(τ)M .
Seja M uma variedade suave com uma conexao afim ∇ e γ uma curva suave em M .
Um campo de vectores V ao longo de γ diz-se paralelo (ao longo de γ) se DVdt
≡ 0 no
domınio de γ. Se v ∈ Tγ(t0)M entao existe um unico campo de vectores V paralelo ao
longo da curva γ tal que V (t0) = v. V e designado por transporte paralelo de v ao longo
da curva γ.
Seja (M, 〈·,·〉) uma variedade Riemaniana com uma conexao afim ∇. Se 〈V1, V2〉 e
constante para todo o par de campo de vectores V1, V2 paralelos ao longo de qualquer
curva suave γ em M entao a conexao diz-se compatıvel com a metrica Riemaniana.
O proximo resultado apresenta uma propriedade interessante.
Proposicao 3.2 (Milnor [48], Carmo [24])
Seja M uma variedade Riemaniana com uma conexao afim compatıvel com a metrica
Riemaniana. Se X e Y sao campos de vectores ao longo de uma curva suave γ em M
entao ddt〈X,Y 〉 =
⟨DXdt, Y⟩
+⟨X, DY
dt
⟩no domınio de γ.
Uma conexao afim ∇ numa variedade suave M diz-se simetrica se ∇XY − ∇YX =
[X,Y ] para todo o X,Y ∈ X(M), onde [X,Y ] ∈ X(M) e definido como [X,Y ](f) =
X(Y f) − Y (Xf) para todo o f ∈ C∞(M).
Teorema 3.3 (Milnor [48], Carmo [24])
Numa variedade Riemaniana existe uma unica conexao afim que e simultaneamente
simetrica e compatıvel com a sua metrica Riemaniana.
A conexao afim que o Teorema 3.3 refere, e apelidada de conexao Riemaniana ou conexao
de Levi-Civita.
3.4 Geodesicas em variedades Riemanianas
M passa a designar uma variedade Riemaniana munida da sua conexao Riemaniana.
60
3.4. Geodesicas em variedades Riemanianas
Definicao 3.4
Uma curva suave γ : (a, b) ⊂ R → M e uma geodesica se Ddt
dγdt
= 0 para todo t ∈ (a, b),
isto e, se o campo de vectores velocidade de γ e paralelo ao longo de γ.
E claro que as curvas geodesicas em M estao directamente associadas a escolha de uma
determinada metrica Riemaniana.
Quando γ : (a, b) → M e uma geodesica tem-se ddt
⟨dγdt, dγ
dt
⟩= 2
⟨Ddt
dγdt, dγ
dt
⟩= 0, e
portanto, o comprimento do vector velocidade e constante ao longo de γ. Contudo, o
vector velocidade pode ter comprimento constante ao longo de uma curva sem que esta
seja uma geodesica. Se o comprimento do vector velocidade e constante igual a zero
entao a geodesica reduz-se apenas a um ponto de M . Assumimos doravante que o vector
velocidade nao tem nunca comprimento nulo. Assim, o comprimento de arco da curva
geodesica γ a partir de γ(t0), t0 ∈ (a, b), e proporcional a (t− t0) (ver (3.1)).
Porque toda a restricao de uma geodesica e ainda uma geodesica, chamamos segmento
de geodesica ou arco de geodesica, a toda a geodesica definida num intervalo fechado.
Dizemos que uma geodesica γ em M une o ponto q1 ao ponto q2 se γ e um segmento de
geodesica definido num intervalo [a, b] com γ(a) = q1 e γ(b) = q2.
Um ponto interessante: uma mudanca de parametro t → τ numa curva geodesica,
permite gerar uma nova curva geodesica se e so se τ e funcao linear do parametro t.
Assim, por exemplo, se γt e um segmento de geodesica definido em [a, b] (b 6= a) entao
γτ , onde τ = t−ab−a
, e um segmento de geodesica definido no intervalo [0, 1] 6. A imagem
de ambas as geodesicas e evidentemente a mesma.
Suponhamos que a variedade M tem dimensao n. Em coordenadas locais, pode
observar-se que a existencia de uma geodesica esta directamente dependente da deter-
minacao de solucao de um sistema nao linear de n equacoes diferenciais ordinarias de
segunda ordem. De facto, se (U,ϕ) e um sistema de coordenadas de γ(t0) e ϕ γ(t) =
(x1(t), . . . , xn(t)) entao γ e uma geodesica se e so se as funcoes coordenadas x1, . . . , xn,
definidas para todo t tal que γ(t) ∈ U , sao solucao do sistema de equacoes diferenciais
d 2xk
dt2+
n∑
i,j =1
Γkij
dxi
dt
dxj
dt= 0 , k = 1, 2, . . . , n , (3.2)
onde Γkij sao n3 funcoes reais suaves7 definidas no aberto U .
O proximo teorema sobre existencia e unicidade de uma curva geodesica e uma con-
sequencia directa de resultados contidos, em simultaneo, em Carmo [24] e Milnor [48].
Teorema 3.4
Para cada q ∈ M e cada v ∈ TqM existe um numero real ε > 0 e uma unica geodesica
em M , γ : (−ε, ε) →M , tal que γ(0) = q e γ(0) = v.
6O parametro de um segmento de geodesica γ : [0, 1] → M e proporcional ao comprimento de arco.7As funcoes Γk
ij tem o nome de sımbolos de Christoffel da conexao. Mostra-se que permitem deter-
minar de forma unica a conexao Riemaniana.
61
Elementos de geometria Riemaniana
No enunciado do Teorema 3.4, o numero real ε depende directamente do comprimento do
vector velocidade v. Em particular, pode aumentar-se o comprimento do vector veloci-
dade v (aumentar a velocidade de uma geodesica) diminuindo a amplitude do intervalo
de definicao da geodesica, ou entao, pode aumentar-se o intervalo de definicao de uma
geodesica diminuindo a velocidade da geodesica.
Considera-se no espaco tangente TqM o aberto B(0, δ) = v : ‖v‖ < δ, isto e, a bola
aberta de centro no elemento neutro de TqM e raio δ > 0. Escolhe-se o numero real
δ por forma que, para todo o v ∈ B(0, δ), a unica geodesica γ em M , que no instante
t = 0 passa pelo ponto q com velocidade v, esta definida no intervalo (−ε, ε) com ε > 1.
Define-se a aplicacao exponencial em q da seguinte forma
expq : B(0, δ) ⊂ TqM →M ; v 7→ expq(v) = γ(1) , (3.3)
isto e, como a aplicacao suave que a cada v ∈ B(0, δ) associa o ponto γ(1) ∈M da unica
geodesica que no instante t = 0 passa por q com velocidade v. Em particular, tem-se
expq(0) = q. expq(v) e o ponto da unica geodesica determinada por v cuja distancia
(medida na geodesica) ao ponto q e exactamente o comprimento do vector v. De facto,
l =
∫ 1
0
⟨dγdt, dγ
dt
⟩12
dt =
∫ 1
0
⟨dγ(0)
dt, dγ(0)
dt
⟩12
dt =
∫ 1
0
‖v‖ dt = ‖v‖ .
QuandoM = Rn e se identifica TqM com R
n, a aplicacao exp e a aplicacao identidade.
Lema 3.1 (Boothby [10])
Seja q ∈ M e seja v ∈ TqM tal que expq(v) esta bem definida. Logo, expq(tv) esta
definida pelo menos em |t| ≤ 1 e γ(t) = expq(tv) e a geodesica em M tal que γ(0) = q e
γ(0) = v.
A unica geodesica que no instante t = 0 passa por q ∈ M com velocidade v ∈ TqM e
denotada por expq(tv) ficando explıcita a dependencia de q e de v.
Lema 3.2 (Milnor [48])
A cada ponto q ∈ M estao associados um numero real δ > 0 e uma vizinhanca U de q,
de tal forma que:
i) Existe um unico segmento de geodesica em M de comprimento l ≤ δ que une cada
par de pontos de U .
ii) A aplicacao expp : B(0, δ) ⊂ TpM → M define, para todo o ponto p ∈ U , um
difeomorfismo de B(0, δ) ⊂ TpM num aberto de M que contem U .
Nao esta garantido que a unica geodesica na alınea i), no enunciado do lema, esteja
totalmente contida na vizinhanca U . Tal e no entanto sempre possıvel se se escolher
convenientemente U . O proximo resultado mostra que as geodesicas sao, de um ponto
de vista local, curvas que minimizam o comprimento de arco de curva.
62
3.4. Geodesicas em variedades Riemanianas
Chamamos curva seccionalmente suave a toda a aplicacao contınua w : [a, b] → M
que e seccionalmente suave no intervalo [a, b]. Dizemos que w une o ponto q1 ao ponto
q2 se w(a) = q1 e w(b) = q2.
Teorema 3.5 (Milnor [48])
Sejam δ e U tal como no enunciado do Lema 3.2 e γ : [0, 1] → M o unico segmento
de geodesica de comprimento l = l(γ) ≤ δ que une dois pontos quaisquer de U . Se
w : [0, 1] →M e uma curva seccionalmente suave que une os mesmos pontos de U entao
l(γ) ≤ l(w). A igualdade e valida se e somente se w([0, 1]) = γ([0, 1]).
Corolario 3.1 (Milnor [48], Carmo [24])
Se uma curva seccionalmente suave w : [a, b] → M , com parametro proporcional ao
comprimento de arco, tem comprimento menor ou igual ao comprimento de qualquer
outra curva seccionalmente suave unindo os pontos w(a) e w(b) entao w e uma geodesica.
O calculo de um segmento de geodesica unindo quaisquer dois pontos (tal como
definido no enunciado do Teorema 3.5) envolve a determinacao de uma solucao de um
problema com condicoes de fronteira para o sistema de equacoes diferenciais (3.2).
Definicao 3.5
Uma geodesica γ : [a, b] → M e minimal (ou de comprimento mınimo) se l(γ) ≤ l(w)
qualquer que seja a curva seccionalmente suave w unindo os pontos extremos de γ.
Em sıntese, os segmentos de geodesica que unem pontos suficientemente proximos
minimizam o comprimento de arco de curva, e sao por isso geodesicas de comprimento
mınimo. E claro que uma geodesica minimal pode nao ser unica.
As curvas geodesicas admitem outra caracterizacao bastante interessante. Mostra-se
que uma curva seccionalmente suave w : [0, 1] → M e uma geodesica se e somente se w
e ponto crıtico da funcional energia E(γ) =∫ 1
0〈dγ
dt, dγ
dt〉 dt.
Daqui em diante M e uma variedade Riemaniana conexa (munida da sua conexao
Riemaniana).
Definicao 3.6
M e geodesicamente completa se para todo q ∈M e todo o v ∈ TqM existe uma geodesica
γ definida para todo t ∈ R tal que γ(0) = q e γ(0) = v.
Ou seja, M e geodesicamente completa se e so se para todo o ponto q ∈ M a aplicacao
exponencial expq esta definida para todo o vector v ∈ TqM .
Toda a variedade Riemaniana conexa M e um espaco metrico para a distancia d, que
a cada par de pontos (q1, q2) ∈M ×M associa o numero d(q1, q2) definido como sendo o
ınfimo dos comprimentos de todas as curvas seccionalmente suaves em M que unem q1 e
q2 (existe pelo menos uma curva porque M e conexa).
Um arco de geodesica, unindo dois pontos de M , e minimal se e somente se o seu
comprimento e igual a distancia d entre o seu ponto inicial e o seu ponto final.
63
Elementos de geometria Riemaniana
Teorema 3.6 (Hopf e Rinow)
Se M e uma variedade Riemaniana conexa entao as seguintes afirmacoes sao equivalentes:
i) M e geodesicamente completa.
ii) Existe q ∈M tal que expq esta definida em todo o espaco TqM .
iii) M e um espaco metrico completo para a distancia d.
iv) Existe uma geodesica minimal unindo qualquer par de pontos de M .
Algumas conclusoes sobre os resultados apresentados no Teorema 3.6. A equivalencia
entre as alıneas i) e ii) permite concluir que basta existir um ponto q de M tal que
expq esteja definida em todo o espaco tangente TqM , para que o mesmo aconteca para
todo o ponto de M . Devido a equivalencia entre i) e iii), em vez de dizer que M e
uma variedade Riemaniana geodesicamente completa pode dizer-se simplesmente que M
e uma variedade Riemaniana completa.
As variedades Riemanianas simultaneamente conexas e completas sao particularmente
importantes porque existe a garantia da existencia de uma geodesica minimal unindo
quaisquer dois pontos.
Basta recordar que um espaco metrico compacto e completo para concluir que, se
uma variedade Riemaniana conexa M e compacta entao M e completa.
Exemplo 3.4 (Algumas curvas geodesicas)
Apresentamos as curvas geodesicas em duas variedades Riemanianas simultaneamente
conexas e completas.
1. Seja M = Rn com a metrica Riemaniana definida pelo produto interno Euclidiano.
Neste caso, a derivada covariante coincide com a derivada usual, logo, γ e uma
geodesica se d2γdt2
≡ 0, isto e, se γ e uma recta parametrizada onde o parametro e
proporcional ao comprimento de arco.
2. Seja M = Sn com a metrica Riemaniana induzida pelo espaco ambiente Rn+1
(munido da metrica Euclidiana).
Todas as geodesicas de Sn estao contidas em cırculos maximos8.
Existe uma infinidade de geodesicas de comprimento mınimo que unem dois pontos
antıpodas9 de Sn. Quando os pontos nao sao antıpodas existe apenas uma geodesica
de comprimento mınimo unindo os dois pontos. Constata-se que um segmento de
geodesica e minimal se e so se o seu comprimento e inferior ou igual a π. Se os
pontos sao antıpodas entao o segmento e minimal se o comprimento e exactamente
igual ao valor π. Em qualquer dos casos, existe uma infinidade de geodesicas nao
minimais unindo pontos de Sn.
8Curvas que resultam da interseccao de Sn com qualquer plano que passe pelo seu centro.9Pontos que resultam da interseccao de Sn com qualquer recta que passe pelo seu centro.
64
3.5. Grupos de Lie
Se q ∈ Sn e v ∈ TqSn, v 6= 0, entao a curva parametrizada
γ(t) = cos(‖v‖t) q + 1‖v‖ sin(‖v‖t) v , t ∈ R ,
e a unica geodesica em Sn que no instante t = 0 passa pelo ponto q com velocidade
v. Se q1 e q2 nao sao pontos antıpodas de Sn entao o arco de geodesica minimal
que une o ponto q1 (no instante t = 0) ao ponto q2 (no instante t = 1) e
γ(t) = sin((1−t)θ)sin θ
q1 + sin(tθ)sin θ
q2 , t ∈ [0, 1] ,
onde θ = cos−1(q1′q2) e o angulo entre os vectores de R
n+1 com origem no centro
de Sn e extremidade nos pontos q1 e q2.
3.5 Grupos de Lie
Iniciamos esta seccao apresentando a definicao de algebra de Lie.
Definicao 3.7
Um espaco vectorial V sobre o corpo R e uma algebra de Lie se e possıvel definir em Vuma operacao binaria
[·,·] : V × V → V
designada por produto de Lie, com as seguintes propriedades
i) [u, v] = −[v, u] (anti-simetria),
ii) [αu + βv, w] = α[u,w] + β[v, w] (linearidade),
iii) [u, [v, w]] + [v, [w, u]] + [w, [u, v]] = 0 (identidade de Jacobi),
onde α, β ∈ K e u, v, w ∈ V .
As propriedades i) e ii) garantem que o produto de Lie e bilinear. A propriedade i)
permite ainda concluir que [v, v] = 0 para todo v ∈ V . A dimensao de uma algebra de
Lie e a sua dimensao enquanto espaco vectorial.
Exemplo 3.5
O espaco vectorial X(M) e uma algebra de Lie para o produto de Lie que associa a
cada par X,Y ∈ X(M) o campo de vectores [X,Y ] ∈ X(M) definido como [X,Y ](f) =
X(Y f) − Y (Xf) para todo o f ∈ C∞(M).
Definicao 3.8
Um grupo algebrico G e um grupo de Lie se for uma variedade suave de dimensao n, de
tal modo que, as operacoes produto e inversa
G×G → G
(g, h) 7→ gh
G → G
h 7→ h−1
65
Elementos de geometria Riemaniana
sao aplicacoes suaves entre variedades. A dimensao de um grupo de Lie e a sua dimensao
enquanto variedade10. G e um grupo de Lie abeliano se G e um grupo algebrico abeliano.
Exemplo 3.6
Rn e um grupo de Lie aditivo (abeliano).
Se G e um grupo de Lie e g e um elemento fixo de G entao as aplicacoes
inversa
I : G→ G ; h 7→ h−1,
translacao a esquerda (por g)
Lg : G→ G ; h 7→ gh,
e translacao a direita (por g)
Rg : G→ G ; h 7→ hg,
sao difeomorfismos tais que I−1 = I, (Lg)−1 = Lg−1 e (Rg)
−1 = Rg−1 .
Uma metrica Riemaniana 〈·,·〉 num grupo de Lie G e invariante a esquerda (invariante
por translacoes a esquerda) se 〈u, v〉g = 〈d(Lh)g(u), d(Lh)g(v)〉Lh(g) para todo g, h ∈ G e
todo u, v ∈ TgG, ou seja, por outras palavras, se a aplicacao Lh e uma isometria. Define-se
de modo semelhante, usando Rh, metrica Riemaniana invariante a direita. Uma metrica
Riemaniana em G e bi-invariante se e em simultaneo invariante a esquerda e invariante
a direita.
Observacao 3.5
Se G e um grupo de Lie conexo e compacto entao G tem uma metrica Riemaniana
bi-invariante que e unica.
Um campo de vectores X ∈ X(G) e invariante a esquerda (invariante por translacoes
a esquerda) se dLhX = X para todo h ∈ G, isto e, se d(Lh)g(Xg) = XLh(g) = Xhg
para todo h, g ∈ G e todo Xg ∈ TgG. Define-se de modo semelhante campo de vectores
invariante a direita.
Observacao 3.6
Todo o campo de vectores invariante a esquerda e completo. Se X,Y ∈ X(G) sao inva-
riantes a esquerda entao o produto de Lie [X,Y ] ∈ X(G) e invariante a esquerda.
Para determinar completamente um campo de vectores invariante a esquerda basta con-
hecer o seu valor num ponto qualquer g ∈ G (em particular na identidade11 do grupo).
De facto, seja X um campo de vectores invariante a esquerda, Xg o seu valor no ponto
10Consideramos apenas grupos de Lie de dimensao finita.11Representamos a identidade do grupo de Lie G por e.
66
3.5. Grupos de Lie
g ∈ G e q um outro ponto de G. Tem-se Xq = Xhg para algum h ∈ G e portanto
Xq = d(Lh)g(Xg). Deduz-se que a cada v ∈ TgG, qualquer que seja g ∈ G, esta asso-
ciado um unico campo de vectores X ∈ X(G), invariante a esquerda, tal que X(g) = v.
Em particular, a cada V ∈ TeG12 esta associado
X : G→ TG ; g 7→ X(g) = d(Lg)e(V ) ∈ TgG
que e o unico campo de vectores invariante a esquerda tal que X(e) = V .
Este ultimo resultado permite definir, tendo em conta que o produto de Lie de campos
invariantes a esquerda e tambem um campo invariante a esquerda, o seguinte produto de
Lie no espaco tangente na identidade de G
[·,·] : TeG× TeG→ TeG ; (Xe, Ye) 7→ [Xe, Ye] = [X,Y ](e) (3.4)
transformando-o numa algebra de Lie (sobre R).
A algebra de Lie de G, denotada por g, e o espaco tangente TeG munido do produto
de Lie (3.4).
Observacao 3.7
Existe uma correspondencia biunıvoca entre vectores da algebra de Lie g e campos de
vectores em G invariantes a esquerda.
Qualquer produto interno 〈·,·〉e definido na algebra de Lie g de um grupo de Lie G,
permite definir uma metrica Riemaniana invariante a esquerda em G, do seguinte modo
〈u, v〉g = 〈d(Lg−1)g(u), d(Lg−1)g(v)〉e
onde g ∈ G e u, v ∈ TgG. De modo semelhante, usando Rg−1 , define-se uma metrica
Riemaniana invariante a direita em G. Se estas coincidirem entao estamos perante uma
metrica bi-invariante.
Seja φ : R → G um homomorfismo de grupos de Lie13. A imagem da aplicacao φ, que
e um subgrupo algebrico abeliano de G, chama-se subgrupo com um-parametro14 de G.
Note-se que a aplicacao φ e tambem uma curva suave no grupo de Lie G tal que φ(0) = e
e portanto φ(0) ∈ g.
Todo o vector tangente V ∈ g determina um unico homomorfismo de grupos de Lie
φV : R → G tal que φV (0) = V . Na verdade, ao vector V corresponde um unico campo
de vectores X ∈ X(G) invariante a esquerda tal que X(e) = V . Logo, existe uma unica
curva integral ψ de X , tal que ψ(0) = e. A curva ψ esta definida para todo t ∈ R
porque X e completo e evidentemente ψ(0) = V . Por fim, mostra-se que ψ : R → G e
12Usamos letra maiuscula para representar os elementos do espaco tangente TeG.13φ e um homomorfismo de grupos de Lie se φ e em simultaneo um homomorfismo algebrico entre
grupos e uma aplicacao suave entre variedades.14E costume associar um subgrupo com um-parametro a aplicacao φ e nao a sua imagem (tal como
acontece para as curvas).
67
Elementos de geometria Riemaniana
um homomorfismo algebrico entre os grupos R e G e portanto ψ e o homomorfismo de
grupos de Lie φV pretendido. O homomorfismo φV associado ao vector V e ainda tal que
φsV (t) = φV (st), s ∈ R.
Existe de facto uma correspondencia biunıvoca entre elementos de g e subgrupos com
um-parametro de G.
Define-se a aplicacao exponencial no grupo de Lie G como sendo a aplicacao suave
exp : g → G ; V 7→ exp(V ) = φV (1) .15 (3.5)
Conclui-se de imediato que
φ(t) ≡ φV (t) = exp(tV ) , t ∈ R ,
e o unico subgrupo com um-parametro associado ao vector V ∈ g. Logo,
• exp((t+ s)V ) = exp(tV ) exp(sV ),
• (exp(tV ))−1 = exp(−tV ),
• exp(0) = e.
A aplicacao exponencial no grupo de Lie nao e uma aplicacao injectiva. E por vezes sobre-
jectiva (o que acontece, por exemplo, quando G e um grupo de Lie conexo e compacto).
Contudo, a aplicacao exp e um difeomorfismo local de uma vizinhanca de 0 ∈ g numa
vizinhanca de e ∈ G. Existe por isso uma vizinhanca U da identidade de G onde se de-
fine a aplicacao inversa (que e tambem um difeomorfismo local) designada por logaritmo:
log : U → g.
Seja G um grupo de Lie e g a sua algebra de Lie. Se H e um subgrupo de Lie16 de G
entao a algebra de Lie h de H e uma subalgebra de Lie17 de g.
Se H e um subgrupo de Lie de um grupo de Lie G entao os subgrupos com um-
parametro de H sao exactamente os subgrupos com um-parametro de G associados aos
elementos de h ⊂ g.
3.5.1 Grupos de Lie matriciais
Consideramos o conjunto de todas as matrizes quadradas de ordem n, com entradas reais,
representado por gl(n) ≡ Rn×n e o seu subconjunto
GL(n) = A ∈ gl(n) : detA 6= 0 .15A aplicacao exponencial em grupos de Lie (3.5) e em geral distinta da aplicacao exponencial (3.3)
quando M e um grupo de Lie e q e a identidade do grupo (Helgason [32]). Estas coincidem quando M
e um grupo de Lie munido de uma metrica Riemaniana bi-invariante.16H e em simultaneo um subgrupo algebrico e uma subvariedade de G e a aplicacao inclusao i : H → G
e uma imersao injectiva.17h e um subespaco de g e o produto de Lie (induzido) e fechado em h.
68
3.5. Grupos de Lie
Estes dois conjuntos de matrizes sao variedades suaves de dimensao n2. Alem disso,
GL(n) e um grupo de Lie multiplicativo sendo gl(n) a sua algebra de Lie com produto
de Lie o comutador de matrizes, isto e,
[V,W ] = VW −WV , para todo V,W ∈ gl(n) . (3.6)
Por grupo de Lie de matrizes (que tenham entradas reais) entende-se qualquer sub-
grupo de Lie de GL(n). Todo o grupo de Lie de matrizes G tem uma algebra de Lie de
matrizes g, que e obviamente uma subalgebra de Lie de gl(n).
Um grupo de Lie de matrizes conexo e compacto que iremos considerar nos proximos
capıtulos e o grupo ortogonal especial. Este e constituıdo pelas matrizes ortogonais de
determinante um e e representado por SO(n). Ou seja,
SO(n) = A ∈ GL(n) : A′A = I e det(A) = 1 .
A algebra de Lie de SO(n) e o conjunto das matrizes anti-simetricas
so(n) = V ∈ gl(n) : V = −V ′ .
cuja dimensao e n(n−1)2 . Um caso particular muito importante ocorre quando n = 3.
SO(3) e designado por grupo de Lie das rotacoes no espaco (se A ∈ SO(3) e v ∈ R3
entao Av corresponde a uma rotacao de v, em R3, de um angulo pertencente ao intervalo
[0, 2π[ em torno de um eixo fixo dado por um vector de R3).
O produto interno
〈·,·〉 : g × g → R ; (V,W ) 7→ 〈V,W 〉 = tr(V ′W ) 18 (3.7)
na algebra de Lie g de um grupo de Lie de matrizes G, permite definir duas metricas
Riemanianas em G (uma invariante a esquerda e outra invariante a direita). Quando
G = SO(n) a metrica gerada pelo produto interno e bi-invariante e, alem disso, 〈A,B〉g =
tr(A′B) para todo o g ∈ SO e todo A,B ∈ TgSO.
No caso particular dos grupos de Lie e algebras de Lie de matrizes, a aplicacao ex-
ponencial e precisamente a exponencial de matrizes que a cada V ∈ g associa a matriz
exp(V ) ≡ eV ∈ G que e a soma da serie convergente∑∞
j=0V j
j! . Logo, todo o subgrupo
com um-parametro de G corresponde a imagem de uma curva t ∈ R 7→ etV com V ∈ g.
A aplicacao logaritmo e um difeomorfismo local de uma certa vizinhanca U da matriz
identidade I ∈ G, numa vizinhanca da matriz nula 0 ∈ g. Mostra-se que a aplicacao
logaritmo associa a cada A ∈ U a matriz log(A) ∈ g que e a soma da serie convergente∑∞
j=1(−1)j+1 (A−I)j
j.
A maior vizinhanca da matriz nula 0 ∈ g onde exp e injectiva chama-se domınio de
injectividade da aplicacao exponencial. Os resultados que envolvem a exponencial e o
18O traco de uma matriz A e representado por tr(A).
69
Elementos de geometria Riemaniana
logaritmo, a apresentar nos dois proximos capıtulos, pressupoem que estamos restringidos
a este domınio.
QuandoG e um grupo de Lie de matrizes os campos de vectores invariantes a esquerda
e invariantes a direita tem uma expressao simples. De facto, se X e um campo de
vectores invariante a esquerda associado a V ∈ g entao X(g) = gV para todo g ∈ G
(isto e, simplesmente multiplicacao a esquerda por g) - Se X e um campo de vectores
invariante a direita associado a V ∈ g entao X(g) = V g para todo g ∈ G (isto e,
simplesmente multiplicacao a direita por g). Para tal, basta verificar que d(Lh)g(Xg) =
hXg e d(Rh)g(Xg) = Xgh para todo h, g ∈ G e todo Xg ∈ TgG. Vejamos como no
primeiro caso. Seja γ(t) uma curva em G tal que γ(0) = Xg (evidentemente γ(0) = g).
Logo,
d(Lh)g(Xg) = d(Lh)g(γ(0))
= ddt
(Lh γ(t))t=0 = h γ(0) = hXg .
A representacao simplificada de campos de vectores invariantes (a esquerda e a direita)
num grupo de Lie de matrizes G, permite caracterizar qualquer espaco tangente TgG,
g ∈ G, de uma forma simples a custa dos elementos da algebra de Lie de G. Seja
X : g 7→ gV o unico campo de vectores invariante a esquerda associado a V ∈ g, isto
e, tal que X(e) = V . Tem-se X(g) = d(Lg)e(V ) = gV para todo o g ∈ G. Porque a
aplicacao tangente d(Lg)e e um isomorfismo entre os espacos vectoriais g e TgG, conclui-se
finalmente que
TgG = gV, V ∈ g
qualquer que seja g ∈ G. De igual modo, a custa da caracterizacao de campos de vectores
invariantes a direita em G, conclui-se que
TgG = V g, V ∈ g
qualquer que seja g ∈ G. Suponhamos agora que x : (a, b) → G e uma curva suave em G.
Os resultados apresentados permitem afirmar que x(t)−1x(t) e x(t)x(t)−1 sao elementos
da algebra de Lie g, qualquer que seja t ∈ (a, b).
Observacao 3.8
Sejam q ∈ SO(n), S1 = TqSO(n) = V q, V ∈ so(n) e S2 = Sq, S ∈ S(n) onde S(n)
denota o subespaco de gl(n) das matrizes simetricas de ordem n. Seja ainda o produto
interno (3.7) definido na algebra de Lie gl(n). Mostra-se que S2 e subespaco de gl(n), que
〈S1,S2〉 = 0 (porque o traco do produto de uma matriz simetrica por outra anti-simetrica
e nulo) e que gl(n) = S1 ⊕ S2 (porque gl(n) e soma directa de so(n) e S(n)). Ou seja,
deduz-se que (TqSO(n))⊥ = S2.
Observacao 3.9
Note-se que a expressao do produto de Lie de matrizes (3.6), na algebra de Lie gl(n), e
um caso particular do produto de Lie (3.4), definido no espaco tangente na identidade de
70
3.5. Grupos de Lie
qualquer grupo de Lie. Na deducao deste resultado e preciso considerar a representacao
simplificada, em grupos de Lie de matrizes, dos campos de vectores invariantes a esquerda.
A cada elemento V de uma algebra de Lie g associa-se a aplicacao linear
adV : g → g ; W 7→ (adV )W = [V,W ] .
Verifica-se que (adV )[A,B] = [(adV )A,B] + [A, (adV )B] qualquer que seja A,B ∈ g.
Define-se recursivamente (adV )jW = (adV )j−1W para todo j ≥ 2. A aplicacao que
associa a cada V ∈ g a aplicacao linear adV de gl(n) e um homomorfismo de algebras de
Lie19.
Enunciamos a seguir alguns resultados, sobre grupos de Lie de matrizes e algebras de
Lie de matrizes, que nos serao particularmente necessarios nos proximos capıtulos.
Lema 3.3
Se t 7→ A(t) e t 7→ B(t) sao curvas suaves numa algebra de Lie g entao
eA(t)B(t) e−A(t) ∈ g
para todo t e tem-se
eA(t)B(t) e−A(t) = B(t) + (adA(t))B(t) + 12!(adA(t))2B(t) + 1
3! (adA(t))3B(t) + · · · .
Observacao 3.10
Usando a aplicacao ad tambem podemos escrever eA(t)B(t) e−A(t) = eadA(t)B(t).
Lema 3.4 (Sattinger e Weaver [69])
Se t 7→ A(t) e uma curva suave numa algebra de Lie g entao
d
dteA(t) = ΩL
A(t) eA(t) = eA(t) ΩRA(t)
onde
ΩLA(t) =
∫ 1
0
eu adA(t)A(t) du e ΩRA(t) =
∫ 1
0
e−u adA(t)A(t) du .
Observacao 3.11
Se t 7→ A(t) e uma curva suave numa algebra de Lie g entao ΩLA(t) e ΩR
A(t) pertencem a
g para todo o t. Deduzem-se as seguintes identidades
ΩL−A(t) = −ΩR
A(t) ,
ΩLA(t) = eA(t)ΩR
A(t) e−A(t) = eadA(t)ΩRA(t) .
Destas obtem-se
ΩLA(t) = −eA(t)ΩL
−A(t) e−A(t).
19φ : g → h e um homomorfismo de algebras de Lie se φ e linear e preserva o produto de Lie, isto e,
φ([V, W ]g) = [φ(V ), φ(W )]h para todo V, W ∈ g.
71
Elementos de geometria Riemaniana
Lema 3.5
Se t 7→ A(t) e t 7→ B(t) sao curvas suaves numa algebra de Lie g entao
d
dt
(eadA(t)B(t)
)= eadA(t)
((adΩR
A(t))B(t) + B(t)).
Demonstracao - Aplicando os resultados contidos nos Lemas 3.3 e 3.4 obtem-se
d
dt
(eadA(t)B(t)
)=
d
dt
(eA(t)B(t) e−A(t)
)
= eA(t)ΩRA(t)B(t) e−A(t) + eA(t)
(B(t) e−A(t) +B(t)ΩL
−A(t) e−A(t))
= eA(t)(ΩR
A(t)B(t) + B(t) −B(t)ΩRA(t)
)e−A(t)
= eA(t)([ΩR
A(t), B(t)] + B(t))e−A(t)
= eadA(t)((adΩR
A(t))B(t) + B(t)).
Observacao 3.12
Salientamos ainda as seguintes propriedades.
- e−adA(t) = ead(−A(t)) ,
- eadA(t)(−B(t)) = − eadA(t)B(t) ,
-(eadA(t)B(t)
)′= e−adA(t)′B(t)′ ,
- ((adA(t))B(t))′= − (adA(t)′)B(t)′ = (ad(−A(t)′))B(t)′ ,
-d
dte−A(t) = − e−A(t)
(d
dteA(t)
)e−A(t) .
Exemplo 3.7 (Algumas curvas geodesicas)
1. Seja G um grupo de Lie conexo e compacto com a sua metrica Riemaniana bi-
invariante. Mostra-se que uma curva γ e uma geodesica de G (para a metrica
bi-invariante) se e somente se γ e um subgrupo com um-parametro de G ou uma
translacao de um subgrupo com um-parametro. Ou seja, toda a geodesica de G e
dada por
γ(t) = g exp(tV ) , t ∈ R ,
ou por
γ(t) = exp(tV )g , t ∈ R ,
onde g ∈ G e V ∈ g (algebra de Lie de G). Em particular, o unico subgrupo com
um-parametro de G determinado pelo vector V ∈ g, exp(tV ), t ∈ R, e a unica
geodesica γ em G tal que γ(0) = e e γ(0) = V . Ao vector V chama-se gerador
infinitesimal de γ.
72
3.6. Observacoes finais e referencias
Seja G um grupo de Lie matricial conexo e compacto. Se g, h ∈ G e V ∈ g e tal
que V = log(g−1h) entao
γ(t) = getV , t ∈ [0, 1] ,
e um arco de geodesica minimal que une o ponto g (no instante t = 0) ao ponto h
(no instante t = 1). Confirmacao: Seja γ(t) = getV , t ∈ [0, 1], V ∈ g, um arco de
geodesica que une o ponto g (no instante t = 0) ao ponto h (no instante t = 1), ou
seja, tal que eV = g−1h. Porque a metrica Riemaniana e bi-invariante, tem-se
l(γ) =
∫ 1
0
〈γ(t), γ(t)〉12
γ(t) dt
=
∫ 1
0
⟨γ(t)−1γ(t), γ(t)−1γ(t)
⟩ 12
edt
=
∫ 1
0
〈V, V 〉 12 dt = 〈V, V 〉 1
2 .
Para que γ(t) = getV seja um arco de geodesica minimal, a matriz V ∈ g tem de
ser tal que eV = g−1h e 〈V, V 〉 e mınimo, ou seja, V = log(g−1h).
Outro arco de geodesica minimal, unindo o ponto g (no instante t = 0) ao ponto h
(no instante t = 1), e γ(t) = etW g, t ∈ [0, 1], onde W ∈ g e tal que W = log(hg−1).
2. (Curva geodesica na esfera Sn,
continuacao do ponto 2, exemplo 3.4, pagina 64)
Na esfera Sn existem inumeros arcos de geodesica de comprimento mınimo que
unem qualquer par de pontos antıpodas. Se q1 e q2 sao dois pontos antıpodas entao
todo o arco de geodesica minimal, unindo q1 (no instante t = 0) a q2 (no instante t =
1) pode escrever-se (usando a aplicacao exponencial de matrizes) como γ : [0, 1] →Sn, t 7→ γ(t) = etθ QAQ′
q1, onde θ = cos−1(q1′q2), A = E21 − E12 e uma matriz
anti-simetrica, de ordem n+1, resultado da diferenca das matrizes elementares E21
e E12, e Q e uma matriz ortogonal, de ordem n + 1, cujas colunas resultam da
aplicacao do metodo de Gram-Schmidt a uma base ordenada v1, v2, · · · , vn+1 de
Rn+1, onde se impoe apenas que v1 = q1. Note-se que a matriz QAQ′ e tambem
anti-simetrica porque Q e ortogonal. Pode constatar-se que etθ QAQ′
e para todo t
uma matriz de SO(n+ 1). Quando n = 2 e interessante observar que a aplicacao γ
provoca de facto uma rotacao (contınua) do ponto q1 no espaco R3. Sobre rotacoes
no espaco e esclarecedora a consulta da referencia (Kuipers [40]).
3.6 Observacoes finais e referencias
Este capıtulo tem como principais referencias bibliograficas os textos (Boothby [10]),
(do Carmo [24]), (Milnor [48]) e (Spivak [72, 73]). Ainda neste contexto e num ambito
73
Elementos de geometria Riemaniana
interdisciplinar foi tambem importante a consulta dos textos (Agrachev e Sachkov [1]),
(Arnold [7]), (Bullo e Lewis [13]), (Helgason [32]), (Isidori [34]), (Murray, Li e Sastry [49])
e (Sattinger e Weaver [69]).
74
Capıtulo 4
Um algoritmo com tres passos
Apresentamos um algoritmo geometrico que permite construir, numa va-
riedade Riemaniana, uma curva spline de uma classe de suavidade arbitraria,
que satisfaz um conjunto prescrito de condicoes de interpolacao (posicoes e
velocidades). A ideia do algoritmo surgiu da observacao da importancia de
algumas propriedades do algoritmo classico de De Casteljau. O novo algo-
ritmo define em apenas tres passos cada segmento da curva spline. O numero
de passos e independente da classe de suavidade pretendida e do numero
de condicoes de interpolacao prescritas. Esta propriedade e consequencia da
introducao de uma funcao suavizante na descricao do algoritmo. A funcao
suavizante e escolhida logo que o grau de suavidade da curva spline esteja
definido.
4.1 Formulacao do problema
Propomos um algoritmo geometrico que permite gerar uma solucao para o seguinte pro-
blema generico com condicoes de interpolacao.
Problema (P ):
Seja M uma variedade Riemaniana conexa e completa. Considere m + 1
pontos distintos de M , pi, i = 0, 1, . . . ,m, e m + 1 vectores tangentes a M ,
vi, i = 0, 1, . . . ,m, tais que vi ∈ TpiM . Pretende-se determinar uma curva
spline
s : [a, b] ⊂ R →M
que seja suave de classe C k, k ∈ N, em [a, b], e que satisfaca as condicoes de
interpolacao
s(ti) = pi , s(ti) = vi ,
em cada instante ti de uma particao ∆ : a = t0 < t1 < · · · < tm = b de [a, b].
75
Um algoritmo com tres passos
Na literatura podemos encontrar varios algoritmos e varias solucoes para o problema
(P ). As curvas geradas evoluem em variedades Riemanianas conexas e completas tais
como espacos Euclidianos ou grupos de Lie. Grande parte dos resultados tem como prin-
cipal motivacao as aplicacoes a engenharia, nomeadamente, o planeamento de trajectorias
para o movimento de um corpo rıgido. Um dos metodos mais conhecidos para a geracao
de curvas polinomiais em espacos Euclidianos e o algoritmo classico de De Casteljau. Este
algoritmo fornece, com algumas adaptacoes, uma solucao para (P ) quando M = Rn. A
extensao do algoritmo de De Casteljau a outras variedades Riemanianas, grupos de Lie
matriciais e esferas unitarias, aparece pela primeira vez no trabalho pioneiro de Park e
Ravani [51] e Crouch, Kun e Silva Leite [19, 20].
Apresentamos um algoritmo geometrico que permite construir uma solucao para o
problema (P ). Consideramos em primeiro lugar o caso em que M = Rn (munido da
metrica Euclidiana). A descricao do novo algoritmo e assim mais intuitiva e mais facil
de visualizar. A observacao e interpretacao das suas caracterısticas principais, no espaco
Rn, permite que a descricao noutras variedades Riemanianas fique bem mais facilitada.
Analisamos o processo de adaptacao deste novo algoritmo ao caso em que M e um grupo
de Lie matricial. Destacamos o caso do grupo ortogonal especial. Nestes casos, nao
consideramos o problema (P ) em toda a sua generalidade, isto e, nao garantimos que a
curva gerada e de facto de classe C k com k arbitrario.
O novo algoritmo geometrico e composto apenas de tres passos qualquer que seja o
grau k de suavidade da curva spline. A ideia principal surge da observacao da construcao
geometrica, operada pelo algoritmo classico de De Casteljau, para a determinacao de
um spline cubico de classe C 1 no espaco Rn. Comecamos por recordar o algoritmo
geometrico de De Casteljau.
4.2 O algoritmo de De Casteljau
O algoritmo de De Casteljau tem por finalidade a construcao de curvas polinomiais inter-
poladoras em espacos Euclidianos. E nesse contexto, um dos algoritmos mais conhecidos.
O interesse que desperta resulta sobretudo de dois factos: 1) O algoritmo e do ponto de
vista algebrico bastante simples de compreender; 2) Mais importante ainda, o algoritmo
de De Casteljau e um algoritmo geometrico - todo o desenvolvimento do algoritmo tem
uma interpretacao geometrica muito simples e intuitiva, que decorre da aplicacao repetida
de um processo de interpolacao linear. A nossa principal fonte de informacao sobre este
algoritmo e (Farin [28]). Segundo parece, estes resultados foram obtidos por volta de
1959, por Paul De Casteljau, para a empresa Citroen. Em [28] sao mencionados dois re-
latorios, da autoria de De Casteljau, de 1959 e 1963, onde estes resultados se encontram
descritos.
O metodo de De Casteljau permite construir uma curva polinomial parametrizada,
de qualquer grau r, r ≥ 1, a partir de um conjunto de r+ 1 pontos distintos de Rn. Seja
76
4.2. O algoritmo de De Casteljau
q0, q1, . . . , qr uma sequencia de r + 1 pontos distintos de Rn. O metodo gera uma curva
polinomial parametrizada c : [0, 1] → Rn, de grau maximo r, que satisfaz as condicoes
de interpolacao c(0) = q0 e c(1) = qr. Apenas os pontos q0 e qr sao realmente pontos
de interpolacao da curva polinomial gerada pelo metodo de De Casteljau. Os pontos
q1, . . . , qr−1 servem apenas de suporte a aplicacao do algoritmo e, por este motivo, sao
designados como pontos de suporte1 da curva c. Mostramos como construir uma curva
polinomial de grau tres para exemplificar como funciona o metodo de De Casteljau. Neste
caso particular o metodo e composto de tres iteracoes. Considere a sequencia q0, q1, q2, q3
de pontos distintos de Rn.
Primeira iteracao: Definem-se tres curvas polinomiais de grau um,
c11(t) = (1 − t)q0 + tq1 ,
c21(t) = (1 − t)q1 + tq2 ,
c31(t) = (1 − t)q2 + tq3 , t ∈ [0, 1] .
Segunda iteracao: Definem-se duas curvas polinomiais de grau dois,
c12(t) = (1 − t)c11(t) + tc21(t) , c22(t) = (1 − t)c21(t) + tc31(t) , t ∈ [0, 1] .
Terceira e ultima iteracao: Da iteracao anterior resulta a seguinte curva polinomial
de grau tres
c13(t) = (1 − t)c12(t) + tc22(t) , t ∈ [0, 1] .
A curva polinomial gerada e simplesmente c(t) = c13(t), t ∈ [0, 1], sendo
c(t) = (1 − t)3q0 + 3t(1 − t)2q1 + 3t2(1 − t)q2 + t3q3 , t ∈ [0, 1] , (4.1)
uma expressao explıcita da curva. Vejamos o que acontece do ponto de vista geometrico
no decorrer das tres iteracoes. As seguintes figuras representam as iteracoes do algoritmo.
q0
q1
q2
q3 q0
q1
q2
q3
c11(·)
c21(·)
c31(·)
Figura 4.1: Dados iniciais e primeira iteracao
1Existem designacoes alternativas como por exemplo pontos de controlo ou pontos de Bezier.
77
Um algoritmo com tres passos
q0
q1
q2
q3
c12(·)
c22(·)
q0
q1
q2
q3
c13(·)
Figura 4.2: Segunda iteracao e terceira iteracao
Na proxima figura podemos observar os dados iniciais e a curva polinomial gerada pelo
algoritmo. Observe-se novamente que a curva c passa unicamente pelo ponto inicial e
pelo ponto final da sequencia de pontos prescrita.
q0
q1
q2
q3
c(·)
Figura 4.3: Curva final
A figura seguinte permite observar sem qualquer duvida que todo o ponto da curva final,
c(τ), com τ ∈ ]0, 1[, resulta de um processo repetido de interpolacao linear.
q0
q1
q2
q3
c11(τ )
c21(τ )
c31(τ )
c12(τ )
c22(τ )
c(τ )
Figura 4.4: Interpolacao linear sucessiva
78
4.2. O algoritmo de De Casteljau
Vejamos a descricao geral do algoritmo de De Casteljau. Esta e feita de um modo
recursivo como o exemplo apresentado sugere.
Algoritmo classico de De Casteljau:
Sejam q0, q1, . . . , qr pontos distintos de Rn. Se
ci0(t) = qi−1 , t ∈ [0, 1] ,
i = 1, 2, . . . , r + 1 ,
entao a formula recursiva
cij(t) = (1 − t) cij−1(t) + t ci+1j−1(t) , t ∈ [0, 1] ,
j = 1, 2, . . . , r ,
i = 1, 2, . . . , r − j + 1 ,
gera uma curva parametrizada c ≡ c1r : [0, 1] → Rn, polinomial de grau
maximo r, que passa pelo ponto q0 no instante t = 0 e pelo ponto qr no
instante t = 1. O ındice j identifica o numero da iteracao enquanto o numero
r − j + 1 indica o numero de curvas polinomiais de grau j em cada iteracao.
A obtencao de uma curva polinomial de grau r ≥ 1, que passe pelos pontos q0 e qr,
exige a realizacao de r iteracoes e o calculo de r2+ r2 curvas polinomiais. Observe-se que
em cada nova iteracao sao geradas curvas polinomiais que resultam de uma combinacao
convexa, de curvas obtidas na iteracao anterior. Mostra-se que a curva polinomial obtida
por aplicacao do algoritmo de De Casteljau tem a seguinte expressao explıcita, funcao
dos dados iniciais,
c(t) =
r∑
i=0
(ri
)ti (1 − t)r−iqi . (4.2)
Considere r = 3 e compare com a expressao (4.1). Toda a curva polinomial na forma (4.2)
e designada por curva de Bezier. O algoritmo de De Casteljau e portanto um algoritmo
recursivo para construir curvas de Bezier. Mais ainda, toda a curva polinomial gerada
no decurso do algoritmo e tambem uma curva de Bezier.
Observacao 4.1
A curva polinomial de grau r ≥ 1 depende directamente da escolha dos r − 1 pontos de
suporte. Logo, manipulando os pontos de suporte e possıvel gerar uma curva polinomial
com algumas propriedades antecipadamente desejadas.
Observacao 4.2
A partir da expressao (4.2) deduzem-se expressoes simples para as derivadas (ate a ordem
79
Um algoritmo com tres passos
r) da curva c nos instantes inicial e final 2. Tem-se,
c(k)(0) =r!
(r − k)!∆kq0 , (4.3)
c(k)(1) =r!
(r − k)!∆kqr−k , k = 0, 1, . . . , r , (4.4)
onde
∆kqi =
k∑
j=0
(kj
)(−1)k−jqi+j .
Naturalmente, os valores de c(k)(0) e c(k)(1) dependem explicitamente dos dados iniciais.
Em particular, de (4.3) e (4.4) resulta por exemplo
c(0) = r(q1 − q0) , c(1) = r(qr − qr−1) , (4.5)
c(0) = (r2 − r)(q2 − 2q1 + q0) , c(1) = (r2 − r)(qr − 2qr−1 + qr−2) .
Estes resultados sugerem como recorrer ao algoritmo de De Casteljau para construir uma
curva polinomial c : [0, 1] → Rn que satisfaca, por exemplo, as condicoes
c(0) = p0 , c(1) = p1 ,
c(0) = v0 , c(1) = v1 ,
onde p0 e p1 sao pontos distintos de Rn e v0, v1, sao vectores tangentes nos pontos p0 e
p1 respectivamente. Definem-se os pontos de suporte
x0 = p0 + 13 v0 , x1 = p1 − 1
3 v1 ,
e repete-se o processo de construcao de uma curva polinomial de grau tres. Usando (4.5)
confirma-se que a curva obtida satisfaz todas as condicoes de interpolacao.
Mostramos a seguir como a aplicacao do algoritmo classico de De Casteljau permite
construir uma curva spline s : [a, b] → Rn que seja solucao do problema (P ). A estrategia
consiste em calcular separadamente, por meio do algoritmo de De Casteljau, cada seg-
mento de s. Consideramos primeiro a situacao em que k = 1. Considere o segmento
si : [ti, ti+1] → Rn (onde i pode variar de 0 ate m − 1). Porque si tem de satisfazer as
seguintes condicoes de interpolacao
si(ti) = pi , si(ti+1) = pi+1 ,
si(ti) = vi , si(ti+1) = vi+1 ,
podemos aplicar directamente o raciocınio apresentado na Observacao 4.2. Por uma
questao de simplicidade substituımos o intervalo de tempo [ti, ti+1] pelo intervalo [0, 1].
2As derivadas nos instantes t = 0 e t = 1 sao evidentemente derivadas laterais.
80
4.2. O algoritmo de De Casteljau
Uma conveniente reparametrizacao de cada segmento, aquando da definicao da curva
final, devolve a estrutura original. Escolhem-se os pontos de suporte
xi = pi + 13 vi , xi+1 = pi+1 − 1
3 vi+1 ,
e define-se si como a curva polinomial de grau tres que decorre da aplicacao do metodo
de De Casteljau. Repetindo este processo para todo o i = 0, 1, . . . ,m− 1, obtem-se uma
curva spline t → s(t), resultado da ligacao de todos os segmentos si, com a seguinte
expressao
s(t) = si
(t− ti
ti+1 − ti
), t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 , (4.6)
que e solucao do problema (P ) com k = 1. Em (4.6), a curva si : [0, 1] → Rn e
construıda tal como si, mas esta associada aos pontos de suporte xi = pi + 13 hi vi e
xi+1 = pi+1 − 13 hi vi+1, com hi = ti+1 − ti. A curva spline (4.6) e (em geral) apenas
de classe C 1 no intervalo [a, b]. Apesar de ser localmente polinomial de grau tres esta
curva nao e no entanto um spline cubico classico. Vejamos como determinar uma solucao
para o problema (P ) no caso geral k > 1. Cada segmento da curva s e, tal como
anteriormente, determinado de forma independente. Porque a curva final tem de ser de
classe C k e preciso prescrever k−1 derivadas sucessivas, ate a ordem k, em cada instante
ti. Logo, a determinacao de cada segmento si pressupoe o calculo de 2k pontos de
suporte x0, x1, . . . , x2k−1. Os pontos x0, . . . , xk−1 dependem directamente das k derivadas
prescritas no instante ti enquanto os pontos xk, . . . , x2k−1 dependem directamente das
k derivadas prescritas no instante ti+1. Cada segmento si e uma curva polinomial de
grau 2k + 1. A curva final s e o resultado da ligacao de todos os segmentos e a sua
expressao e mais uma vez tal como em (4.6). A determinacao de cada segmento exige o
calculo de 2k pontos de suporte e envolve a realizacao de 2k + 1 iteracoes do algoritmo,
com o consequente calculo de (2k + 1)(k + 1) curvas polinomiais. E portanto evidente
que o numero de operacoes envolvidas na determinacao de s aumenta substancialmente
a medida que o valor de k aumenta.
Uma adaptacao natural do algoritmo de De Casteljau a outras variedades Riema-
nianas completas, tais como grupos de Lie matriciais conexos e compactos, surge pela
primeira vez no trabalho de Park e Ravani [51]. A ideia de base e simples e consiste na
substituicao de segmentos de recta, em espacos Euclidianos, por arcos de geodesica, em
variedades Riemanianas. Esta generalizacao e do ponto de vista teorico bastante elegante,
mas como seria de esperar, a aplicacao dos resultados e em geral bastante difıcil. O estudo
e aplicacao desta generalizacao a grupos de Lie matriciais conexos e compactos e esferas
unitarias, surge posteriormente nos trabalhos de Crouch, Kun e Silva Leite [19, 20]. Nada
se sabe ainda sobre o comportamento optimal das curvas geradas.
81
Um algoritmo com tres passos
4.3 O novo algoritmo em espacos Euclidianos
Consideramos M = Rn munido da metrica Euclidiana. A novidade do novo algoritmo
proposto surge na construcao de cada segmento da curva spline. Para construir cada
segmento sao necessarios apenas tres passos qualquer que seja o grau de suavidade k da
curva final. A introducao de uma funcao suavizante de ordem k e um dos pontos funda-
mentais deste novo algoritmo. A funcao suavizante acaba por ser a principal responsavel
pelo facto do numero de passos do algoritmo nao depender do valor de k.
4.3.1 Funcoes suavizantes
Definicao 4.1
Uma funcao real φ : [0, 1] → R e uma funcao suavizante de ordem k, k ∈ N, se φ e suave
e satisfaz o seguinte conjunto de condicoes
φ(0) = 0 , φ(1) = 1 , (4.7)
φ(j)(0) = 0 , φ(j)(1) = 0 , j = 1, 2, . . . , k − 1 (k > 1) . (4.8)
Uma funcao suavizante de ordem k = 1 e qualquer funcao suave φ : [0, 1] → R que
satisfaz apenas (4.7). Um exemplo simples e φ(t) = t. Outro ainda e φ(t) = sin(
π2 t).
Observacao 4.3
Chamamos funcao suavizante a toda a funcao nas condicoes da Definicao 4.1 porque
estas tem a qualidade de suavizar o spline gerado pelo novo algoritmo. Mostramos mais
a frente porque motivo tal acontece.
A seguir mostramos que existe sempre uma funcao suavizante de ordem k, qualquer
que seja k ∈ N. Optamos por um processo construtivo, para tal, determinamos uma
funcao polinomial com todas as caracterısticas pretendidas.
Se φ e uma funcao suavizante de ordem k entao g(t) = φ(t), t ∈ [0, 1], e uma funcao
suave tal que g(j)(0) = 0 e g(j)(1) = 0 para todo o j = 0, 1, . . . , k− 2. Uma funcao nestas
condicoes e
g(t) = α tk−1 (1 − t)k−1 = αk−1∑
v=0
(k−1
v
)(−1)v tk−1+v , α ∈ R .
Logo, podemos concluir que
φ(t) =
∫g(t) dt = α
(k−1∑
v=0
ηv tk+v
)+ β , α, β ∈ R ,
onde α e β sao constantes a determinar e
ηv =(−1)v
(k−1
v
)
k + v, v = 0, 1, . . . , k − 1 ,
82
4.3. O novo algoritmo em espacos Euclidianos
e candidata a ser uma funcao suavizante de ordem k. So falta mesmo garantir que φ
satisfaz (4.7). Para que tal seja possıvel e preciso acontecer β = 0 e α =(∑k−1
v=0 ηv
)−1
.
Estamos em condicoes de enunciar o seguinte resultado.
Lema 4.1
A funcao polinomial de grau 2k − 1
φ(t) = αk−1∑
v=0
ηv tk+v (4.9)
onde
ηv =(−1)v
(k−1
v
)
k + ve α =
(∑k−1v=0 ηv
)−1
e uma funcao suavizante de ordem k, k ∈ N.
Concretizamos a funcao suavizante (4.9) para alguns valores de k. Temos:
- φ(t) = t e uma funcao suavizante de ordem k = 1;
- φ(t) = 3t2 − 2t3 e uma funcao suavizante de ordem k = 2;
- φ(t) = 10t3 − 15t4 + 6t5 e uma funcao suavizante de ordem k = 3.
Observacao 4.4 (Propriedades da funcao suavizante (4.9))
• A funcao suavizante (4.9) e tal que
φ(k)(0) = α (k − 1)! 6= 0 e φ(k)(1) = α (−1)k−1(k − 1)! 6= 0 .
Basta recordar que a expressao da primeira derivada de (4.9) e α tk−1 (1 − t)k−1.
• A funcao suavizante (4.9) (de ordem k) e a unica solucao do seguinte problema do
calculo das variacoes:
J(x(·)) =
∫ 1
0
(x(k)(t)
)2
dt −−−→x∈Ω
min ,
sujeito as condicoes
x(0) = 0 , x(1) = 1 ,
x(j)(0) = 0 , x(j)(1) = 0 , j = 1, 2, . . . , k − 1 (k > 1) ,
onde Ω representa o conjunto de todas as funcoes suaves x : [0, 1] → R. Obtem-se
toda uma gama de funcoes suavizantes se se substituir, na expressao da funcional,
o operador diferencial L ≡ Dk por L ≡ Dk + ak−1Dk−1 + · · · + a1D + a0, com
coeficientes reais constantes. Constata-se que estas funcoes suavizantes sao afinal
segmentos de splines escalares tal como definidos no primeiro capıtulo.
83
Um algoritmo com tres passos
4.3.2 Descricao do algoritmo
Pretende-se determinar uma curva spline s : [a, b] → Rn suave de classe C k que seja
solucao do problema (P ). Cada segmento de s e construıdo de forma individual. Seja
si : [ti, ti+1] → Rn o segmento de s que une o ponto pi, no instante t = ti, com si(ti) = vi,
ao ponto pi+1, no instante t = ti+1, com si(ti+1) = vi+1. Mais uma vez, por uma questao
de simplicidade no processo de construcao de si, usamos o intervalo de tempo [0, 1] em
vez de [ti, ti+1]. Definem-se dois pontos de suporte a partir dos dados iniciais. Esta e
uma etapa semelhante a que ocorre na aplicacao do algoritmo de De Casteljau aquando
da determinacao de uma curva de classe C 1. Os pontos de suporte sao neste caso
xi = pi + vi e xi+1 = pi+1 − vi+1 .
O processo de construcao de cada segmento envolve apenas tres passos, qualquer que seja
o grau de suavidade k da curva final.
Primeiro passo do algoritmo:
Definem-se os seguintes segmentos de recta
li(t) = (1 − t)pi + txi = pi + tvi ,
ci(t) = (1 − t)pi + tpi+1 = pi + t(pi+1 − pi) ,
ri(t) = (1 − t)xi+1 + tpi+1 = pi+1 + (t− 1)vi+1 , t ∈ [0, 1] .
As curvas li, ci, ri : [0, 1] → Rn chamamos respectivamente componente esquerda, com-
ponente intermedia e componente direita3 do segmento t→ si(t).
Observacao 4.5
• As componentes de si visualizam-se com facilidade se se observar que
ci(0) = li(0) = pi , ci(1) = ri(1) = pi+1 , (4.10)
e ainda, que li(1) = xi e ri(0) = xi+1.
• Note-se que as componentes esquerda e direita tem as seguintes propriedades
li(0) = pi , li(0) = vi , li(j)(0) = 0 , j ≥ 2 . (4.11)
ri(1) = pi+1 , ri(1) = vi+1 , ri(j)(1) = 0 , j ≥ 2 . (4.12)
Segundo passo do algoritmo:
Introduz-se uma funcao suavizante φ para definir as seguintes curvas
ai(t) = (1 − φ(t)) li(t) + φ(t) ci(t) ,
bi(t) = (1 − φ(t)) ci(t) + φ(t) ri(t) , t ∈ [0, 1] .(4.13)
As curvas ai : [0, 1] → Rn e bi : [0, 1] → R
n sao suaves e sao resultado de uma combinacao
convexa, usando uma funcao suavizante φ, de componentes do segmento si.
3As letras l, c, e r, sao fruto da descricao deste algoritmo em lıngua inglesa. Isto e, l indica “left”, c
esta para “center” e r indica “right”.
84
4.3. O novo algoritmo em espacos Euclidianos
Observacao 4.6
As curvas t→ ai(t) e t → bi(t) tem as seguintes propriedades
ai(0) = bi(0) = li(0) = pi , ai(1) = bi(1) = ri(1) = pi+1 , (4.14)
ai(0) = li(0) = vi , bi(1) = ri(1) = vi+1 . (4.15)
Estas sao consequencia imediata de (4.10), (4.11) e (4.12), junto com as propriedades (4.7)
da funcao suavizante. As propriedades apresentadas permitem visualizar as duas curvas
com mais clareza.
Terceiro passo do algoritmo:
Combinando as curvas t → ai(t) e t → bi(t) de forma semelhante ao que foi feito no
passo anterior para as componentes li, ci e ri, isto e, atraves de uma combinacao convexa
usando φ, obtem-se por fim a curva suave
si(t) = (1 − φ(t)) ai(t) + φ(t) bi(t) , t ∈ [0, 1] . (4.16)
O segmento si admite tambem a seguinte representacao, funcao das suas componentes,
si(t) = (1 − φ(t))2 li(t) + 2φ(t)(1 − φ(t)) ci(t) + φ(t)2 ri(t) , t ∈ [0, 1] . (4.17)
Observacao 4.7
Um primeiro olhar sobre a expressao (4.17) permite concluir, usando (4.10) e as pro-
priedades (4.7) da funcao suavizante, que
si(0) = pi e si(1) = pi+1 . (4.18)
A derivada da expressao (4.16), junto com (4.14), (4.15) e (4.7), permite deduzir que
si(0) = vi e si(1) = vi+1 . (4.19)
Terminamos a descricao do algoritmo sublinhando que as propriedades (4.14), (4.15),
(4.18) e (4.19), sao totalmente independentes da ordem k da funcao suavizante φ. Ou
seja, e suficiente que φ satisfaca (4.7), para tal, basta considerar uma funcao suavizante
de ordem k = 1. As proximas figuras representam cada passo deste novo algoritmo.
Escolheu-se φ(t) = sin(
π2 t)
que e uma funcao suavizante de ordem k = 1.
r
q
p
pi pi+1
vi
vi+1
r
q
p
pi pi+1
xi
xi+1
li(·)
ci(·)
ri(·)
Figura 4.5: Dados iniciais e primeiro passo do algoritmo
85
Um algoritmo com tres passos
r
q
p
pi pi+1
ai(·)
bi(·)
r
q
p
pi pi+1
si(·)
Figura 4.6: Segundo e terceiro passo do algoritmo
r
q
p
pi pi+1
vi
vi+1
si(·)
Figura 4.7: Dados iniciais e segmento si
Podemos considerar que a presenca dos pontos de suporte, xi e xi+1, nao e essencial
para a descricao do algoritmo. Na verdade, estes sao perfeitamente dispensaveis. So tem
mesmo relevancia na visualizacao ou representacao grafica das componentes esquerda e
direita.
Lema 4.2
Se φ e uma funcao suavizante de ordem k entao as curvas t→ ai(t) e t→ bi(t), definidas
em (4.13), sao tais que
ai(j)(0) = li
(j)(0) e bi(j)(1) = ri
(j)(1) , j = 0, 1, . . . , k . (4.20)
Consequentemente,
ai(0) = pi , bi(1) = pi+1 ,
ai(0) = vi , bi(1) = vi+1 ,
ai(j)(0) = 0 , bi
(j)(1) = 0 , j = 2, 3, . . . , k .
86
4.3. O novo algoritmo em espacos Euclidianos
Demonstracao - Comecamos por reescrever as curvas ai e bi do seguinte modo
ai(t) = li(t) + φ(t) (ci(t) − li(t)) ,
bi(t) = ci(t) + φ(t) (ri(t) − ci(t)) , t ∈ [0, 1] .
Aplicando a formula de Leibniz para a derivada de ordem j do produto, obtem-se
ai(j) = li
(j) +
j∑
v=0
(jv
)φ(v)(ci − li)
(j−v)
=
j∑
v=1
(jv
)φ(v)(ci − li)
(j−v) + (1 − φ) li(j) + φ ci
(j) ,
bi(j) = ci
(j) +
j∑
v=0
(jv
)φ(v)(ri − ci)
(j−v)
=
j∑
v=1
(jv
)φ(v)(ri − ci)
(j−v) + (1 − φ) ci(j) + φ ri
(j) .
O uso das propriedades (4.7) e (4.8) da funcao suavizante, junto com (4.10), permite
obter (4.20). A observacao das propriedades (4.11) e (4.12) completa a demonstracao.
Observacao 4.8
A demonstracao do lema anterior permite verificar que
ai(k+1)(0) = (k + 1)φ(k)(0)
(ci(0) − li(0)
)
= (k + 1)φ(k)(0) (pi+1 − pi − vi) ,
bi(k+1)(1) = (k + 1)φ(k)(1) (ri(1) − ci(1))
= (k + 1)φ(k)(1) (vi+1 − pi+1 + pi) ,
qualquer que seja k ∈ N. Podemos afirmar que os valores ai(k+1)(0) e bi
(k+1)(1) sao em
geral nao nulos para uma funcao suavizante de ordem k.
Lema 4.3
Se φ e uma funcao suavizante de ordem k entao o segmento t→ si(t), definido em (4.16),
e tal que
si(j)(0) = li
(j)(0) e si(j)(1) = ri
(j)(1) , j = 0, 1, . . . , k .
Logo, tem-se
si(0) = pi , si(1) = pi+1 ,
si(0) = vi , si(1) = vi+1 ,
si(j)(0) = 0 , si
(j)(1) = 0 , j = 2, 3, . . . , k .
87
Um algoritmo com tres passos
Demonstracao - Reescrevemos a curva si do seguinte modo
si(t) = ai(t) + φ(t) (bi(t) − ai(t)) , t ∈ [0, 1] .
A aplicacao da formula de Leibniz para a derivada de ordem j do produto, permite obter
si(j) = ai
(j) +
j∑
v=0
(jv
)φ(v)(bi − ai)
(j−v)
=
j∑
v=1
(jv
)φ(v)(bi − ai)
(j−v) + (1 − φ) ai(j) + φ bi
(j) .
O uso das propriedades (4.7) e (4.8) da funcao suavizante φ, em conjunto com (4.14) e
os resultados do Lema 4.2, conclui a demonstracao.
Observacao 4.9
Para obter expressoes para as derivadas si(k+1)(0) e si
(k+1)(1) deve considerar-se em
separado os casos k = 1 e k > 1. Quando k = 1 obtem-se
si(0) = 2 φ(0)(2 (pi+1 − pi − vi) + φ(0)(pi+1 − pi − vi+1)
),
si(1) = 2 φ(1)(2 (vi+1 − pi+1 + pi) − φ(1)(pi+1 − pi − vi)
).
Quando k > 1 obtem-se
si(k+1)(0) = 2(k + 1)φ(k)(0) (pi+1 − pi − vi)
= 2 ai(k+1)(0) ,
si(k+1)(1) = 2(k + 1)φ(k)(1) (vi+1 − pi+1 + pi)
= 2 bi(k+1)(1) .
Podemos concluir que os valores de si(k+1)(0) e de si
(k+1)(1) sao em geral nao nulos.
O proximo resultado estabelece que a curva spline, gerada por aplicacao do novo
algoritmo, e solucao do problema (P ).
Observacao 4.10
O Teorema 4.1 e consequencia da aplicacao do Lema 4.3 a cada um dos subintervalos
[ti, ti+1]. E, por isso, necessario definir si : [0, 1] → Rn tal como si, em (4.16), mas
satisfazendo as condicoes
si(0) = pi , si(1) = pi+1 ,
˙si(0) = hi vi , ˙si(1) = hi vi+1 ,
onde hi = ti+1 − ti.
88
4.3. O novo algoritmo em espacos Euclidianos
Teorema 4.1
Se φ e uma funcao suavizante de ordem k entao a curva spline definida do seguinte modo
s(t) = si
(t− ti
ti+1 − ti
), t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 , (4.21)
e solucao do problema (P ), isto e, s e uma curva suave de classe C k que satisfaz as
condicoes de interpolacao
s(ti) = pi , s(ti) = vi , s(j)(ti) = 0 , j = 2, 3, . . . , k ,
para todo o i = 0, 1, . . . ,m.
Demonstracao - E suficiente constatar que s(j)(ti+1−) = s(j)(ti+1
+) para todo o
j = 0, 1, . . . , k e todo o i = 0, 1, . . . ,m− 2.
A determinacao de uma solucao para o problema (P ) requer a escolha de uma funcao
suavizante e a aplicacao repetida do novo algoritmo ao calculo de cada segmento. A
curva final (4.21), solucao de (P ), e o resultado da ligacao de todos os segmentos.
4.3.3 Propriedades do algoritmo
1. Destacamos novamente que o numero de passos do novo algoritmo nao depende
do valor de k. Mais precisamente, o numero de passos para cada segmento e
sempre tres, qualquer que seja o grau de suavidade k da curva spline (4.21).
Esta propriedade e consequencia do papel fundamental desempenhado pela funcao
suavizante.
2. Se φ for a funcao polinomial de grau 2k− 1 definida em (4.9) entao cada segmento
da curva spline (4.21) e uma curva polinomial de grau (maximo) 4k− 1. Para esta
escolha de φ, cada segmento requer o calculo de seis curvas polinomiais. Foi visto
que a aplicacao do algoritmo de De Casteljau, com a consequente prescricao das
restantes condicoes iniciais, isto e, da prescricao de derivadas nulas (desde a ordem
dois ate a ordem k) em cada instante da particao, requer o calculo de (2k+1)(k+1)
curvas polinomiais em 2k+1 passos. A diferenca e bastante substancial. No entanto,
cada segmento da curva, obtida por aplicacao do algoritmo de De Casteljau, e uma
curva polinomial de grau (maximo) 2k + 1, distinto do valor 4k − 1.
3. Outra propriedade importante que distingue a curva (4.21) das demais curvas spline,
tem a ver com o facto de cada segmento da curva estar unicamente dependente dos
dados iniciais na sua vizinhanca (alem da funcao suavizante). Cada segmento e de-
terminado de forma individual. O mesmo acontece quando se aplica o algoritmo de
De Casteljau. Esta e no entanto uma propriedade pouco comum a maior parte das
curvas spline. Damos como exemplo as curvas spline apresentadas no Capıtulo 2,
89
Um algoritmo com tres passos
onde se inclui o spline cubico classico em Rn. Esta propriedade local e muito im-
portante e bastante util do ponto de vista da aplicacao pratica da curva (4.21).
Suponhamos que e necessario modificar os dados iniciais associados a determinado
instante ti de ∆. Se ti e um instante intermedio entao e preciso calcular de novo
apenas os segmentos si−1 e si. Caso contrario bastara calcular de novo um unico
segmento do spline, o segmento inicial ou o segmento final. Nao e pois necessario
repetir o calculo de todos os segmentos da curva. No calculo da maior parte das
curvas spline acontece precisamente o contrario.
4. Quando se pretende determinar uma curva de classe C 1 basta escolher φ(t) = t.
Acontece que a curva spline (4.21), que corresponde a esta escolha de φ, e exac-
tamente a mesma curva que resulta da aplicacao, aos mesmos dados iniciais, do al-
goritmo de De Casteljau. A confirmacao deste facto e simples. Cada segmento das
duas curvas e por construcao uma curva polinomial de grau maximo tres. Os seg-
mento sao identicos porque tem de satisfazer o mesmo conjunto de quatro condicoes
iniciais. Cada segmento tem neste caso a seguinte expressao
si(t) = pi + vit+ (3pi+1 − 3pi − 2vi − vi+1)t2 + (2pi + vi − 2pi+1 + vi+1)t
3 .
5. A curva spline gerada pelo novo algoritmo nao e em geral de classe C k+1 tal como
se pode deduzir da Observacao 4.9. So mesmo em certos casos especiais. O es-
tudo destes casos decorre da analise da equacao si(k+1)(1) = si+1
(k+1)(0) com
i = 0, 1, . . . ,m − 2. Quando k = 1 e a funcao suavizante e φ(t) = t, conclui-
se, usando a informacao contida na Observacao 4.9, que a curva spline (4.21) e
de classe C 2 se e so se acontecer 3pi+2 − vi+2 − 4vi+1 − 3pi − vi = 0 para todo
i = 0, 1, . . . ,m − 2. Ou seja, se existir uma relacao entre os dados iniciais que
originam o segmento si, e os dados iniciais que permitem determinar o segmento
si+1. Quando k > 1 e a funcao suavizante e dada por (4.9), deduz-se, usando mais
uma vez a informacao contida na Observacao 4.9, que a curva spline (4.21) e de
classe C k+1 se e so se, para todo i = 0, 1, . . . ,m−2, acontecer pi+2−2vi+1−pi = 0
se k e ımpar ou pi+2 − 2pi+1 + pi = 0 se k e par.
6. Resultados globais sobre o comportamento optimal da curva (4.21) sao por en-
quanto desconhecidos. Um facto interessante ocorre quando k = 1 e φ(t) = t.
Neste caso, cada componente da curva spline e uma funcao L-spline (de tipo I)
associada ao operador diferencial L ≡ D2, a particao ∆ de [a, b] e ao vector de
incidencia Z = (z1, z2, . . . , zm−1) = (2, 2, . . . , 2). Por isso, se 〈·, ·〉 representa o pro-
duto interno Euclidiano entao a curva spline (4.21) e solucao do seguinte problema:
J(x(·)) =
∫ b
a
〈x(t), x(t)〉 dt −−−→x∈Ω
min ,
90
4.3. O novo algoritmo em espacos Euclidianos
sujeito as condicoes
x(ti) = pi , x(ti) = vi , i = 0, 1, . . . ,m ,
onde Ω e a famılia de curvas x : [a, b] → Rn suaves de classe C 1.
4.3.4 Flexibilidade do algoritmo
Mostramos como adaptar o novo algoritmo a um problema de interpolacao mais geral,
onde o numero de condicoes de interpolacao pode variar de ponto para ponto, ou seja,
quando em cada instante ti de ∆ as condicoes de interpolacao sao
s(ti) = pi , s(ti) = p1i , . . . s(ki)(ti) = pki
i , (4.22)
onde ki e um numero associado ao ponto pi e e tal que 1 ≤ ki ≤ k, i = 0, 1 . . . ,m.
A adaptacao do algoritmo requer modificacoes simples, que incidem apenas na defi-
nicao das componentes esquerda e direita de cada segmento do spline. A componente in-
termedia nao sofre alteracoes bem como todo o processo posterior que permite a obtencao
de cada segmento. Seja si : [0, 1] → Rn o segmento que une o ponto pi ao ponto pi+1. Se
ki e o numero associado ao ponto pi entao a componente esquerda e o seguinte polinomio
de grau ki
li(t) = pi +
ki∑
v=1
pvi
v!tv , t ∈ [0, 1] . (4.23)
Se ki+1 e o numero associado ao ponto pi+1 entao a componente direita e o seguinte
polinomio de grau ki+1
ri(t) = pi+1 +
ki+1∑
v=1
pvi+1
v!(t− 1)v , t ∈ [0, 1] . (4.24)
A componente intermedia nao sofre alteracoes, isto e, mantem-se
ci(t) = (1 − t)pi + tpi+1 , t ∈ [0, 1] . (4.25)
Observe-se que as componentes esquerda e direita tem as seguintes propriedades
li(0) = pi , ri(1) = pi+1 ,
li(0) = p1i , ri(1) = p1
i+1 ,
......
li(ki)(0) = pki
i , ri(ki+1)(1) = p
ki+1
i+1 ,
li(j)(0) = 0 , j > ki , ri
(j)(1) = 0 , j > ki+1 .
Optamos por nao dar importancia aos pontos de suporte xi = li(1) e xi+1 = ri(0), pois
nao sao relevantes para a descricao do algoritmo. A partir daqui o processo nao sofre
91
Um algoritmo com tres passos
alteracoes. Escolhe-se uma funcao suavizante de ordem k e determinam-se curvas ai,
bi e si tal como foi descrito na apresentacao do algoritmo. Resultados semelhantes aos
Lemas 4.2 e Lema 4.3 tem demonstracoes identicas. Assim, podemos enunciar o seguinte
resultado global.
Teorema 4.2
Se φ e uma funcao suavizante de ordem k entao:
(i) Cada segmento si : [0, 1] → Rn, i = 0, 1, . . . ,m− 1, definido da forma
si(t) = (1 − φ(t))2 li(t) + 2φ(t)(1 − φ(t)) ci(t) + φ(t)2 ri(t) , t ∈ [0, 1] ,
onde li esta definida em (4.23), ri esta definida em (4.24) e ci esta definida em (4.25),
tem as propriedades:
si(0) = pi , si(1) = pi+1 ,
si(0) = p1i , si(1) = p1
i+1 ,
......
si(ki)(0) = pki
i , si(ki+1)(1) = p
ki+1
i+1 ,
si(j)(0) = 0 , j = ki + 1, . . . , k , si
(j)(1) = 0 , j = ki+1 + 1, . . . , k .
(ii) A curva spline s : [a, b] → Rn definida do seguinte modo
s(t) = si
(t− ti
ti+1 − ti
), t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 ,
e uma curva suave de classe C k que satisfaz as condicoes de interpolacao (4.22) e
s(j)(ti) = 0 , j = ki + 1, . . . , k ,
em cada instante ti de ∆. Na expressao de s, si e construıdo tal como si, mas
satisfaz as condicoes
si(0) = pi , si(1) = pi+1 ,
˙si(0) = hi p1i ,
˙si(1) = hi p1i+1 ,
......
s(ki)
i (0) = (hi)ki pki
i , s(ki+1)
i (1) = (hi)ki+1 p
ki+1
i+1 ,
onde hi = ti+1 − ti.
Se a funcao suavizante e dada por (4.9) entao cada segmento si e uma curva polinomial
de grau 4k − 2 + max(ki, ki+1).
Nas proximas seccoes necessitamos de conceitos e resultados de geometria Riemaniana
que se encontram descritos no Capıtulo 3.
92
4.4. O algoritmo em grupos de Lie matriciais
4.4 O algoritmo em grupos de Lie matriciais
Consideramos no problema inicial (P ) o caso k = 1 e apresentamos uma generalizacao
do algoritmo a grupos de Lie de matrizes onde a interpolacao por arcos de geodesica
substitui o processo de interpolacao linear.
A adaptacao do algoritmo a grupos de Lie matriciais desperta um interesse teorico
natural. Em pe de igualdade estao as possıveis aplicacoes praticas do algoritmo. Tal so e
contudo possıvel se o algoritmo for aplicavel do ponto de vista computacional, isto e, se
o calculo das curvas geodesicas, envolvidas na descricao do algoritmo, for razoavelmente
simples de concretizar. Tal acontece quando a variedade Riemaniana, onde o problema
e formulado, e um grupo de Lie de matrizes conexo e compacto.
Quando G e um grupo de Lie conexo e compacto, as curvas geodesicas sao subgrupos
com um-parametro ou suas translacoes. Em particular, quando G e um grupo de Lie de
matrizes compacto, o calculo das curvas geodesicas requer apenas o calculo da exponencial
de matrizes.
Seja M = G um grupo de Lie matricial simultaneamente conexo e compacto, munido
da sua unica metrica Riemaniana bi-invariante, e seja g a algebra de Lie de G.
O metodo que apresentamos permite construir uma curva spline s : [a, b] → G, de
classe C 1, tal que s(ti) = pi ∈ G e s(ti) = vi ∈ TpiG em cada instante ti, i = 0, 1, . . . ,m,
de uma particao ∆ de [a, b]. Associado a cada ponto pi e a cada vector tangente vi existe
um unico elemento Vi ∈ g tal que vi = Vipi, para todo i = 0, 1, . . . ,m.
Tal como para o caso Euclidiano, cada segmento de s e construıdo de forma individual.
Seja si : [0, 1] → G o segmento de s que une o ponto pi (no instante t = 0) com velocidade
vi = Vipi, ao ponto pi+1 (no instante t = 1) com velocidade vi+1 = Vi+1pi+1. Uma vez
mais, usamos o intervalo [0, 1] em vez de [ti, ti+1].
Primeiro passo do algoritmo:
Definem-se os seguintes arcos de geodesica que sao as correspondentes componentes es-
querda, intermedia e direita do segmento si:
li(t) = etVipi ,
ci(t) = etWipi ,
ri(t) = e(t−1)Vi+1pi+1 , t ∈ [0, 1] ,
(4.26)
onde
Wi = log(pi+1pi
−1).
Note-se que a curva ci e um arco de geodesica minimal unindo pi a pi+1.
Observacao 4.11
Confirma-se sem dificuldade que as componentes de si sao curvas suaves tais que:
ci(0) = li(0) = pi , ci(1) = ri(1) = pi+1 ,
li(0) = Vipi = vi , ri(1) = Vi+1pi+1 = vi+1 .
93
Um algoritmo com tres passos
Segundo passo do algoritmo:
Introduz-se uma funcao suavizante φ para definir as curvas:
ai(t) = eφ(t)Ai(t) li(t) ,
bi(t) = eφ(t)Bi(t) ci(t) , t ∈ [0, 1] ,(4.27)
onde
Ai(t) = log(ci(t) li(t)
−1)
e Bi(t) = log(ri(t) ci(t)
−1), t ∈ [0, 1] , (4.28)
sao curvas suaves na algebra de Lie g.
Observacao 4.12
Constata-se que
Ai(0) = Bi(1) = 0 .
Se por acaso [Vi,Wi] = [Vi+1,Wi] = 0 entao Ai(1) = Wi − Vi e Bi(0) = Wi − Vi+1.
Observacao 4.13
As curvas ai : [0, 1] → G e bi : [0, 1] → G foram definidas combinando duas curvas
geodesicas, que sao componentes do segmento si, num processo que e analogo ao processo
de combinacao convexa no espaco Euclidiano Rn. A tecnica e semelhante a utilizada no
estudo da generalizacao do algoritmo de De Casteljau com Park e Ravani [51] e Crouch,
Kun e Silva Leite [19, 20] .
Vejamos o que acontece do ponto de vista geometrico para a curva ai. Para obter o ponto
ai(τ), onde τ ∈ [0, 1], une-se o ponto li(τ) (no instante t = 0) ao ponto ci(τ) (no instante
t = 1) pela curva em G, parametrizada pela funcao φ,
γτ (t) = eφ(t)Ai(τ) li(τ) , t ∈ [0, 1] .
O ponto ai(τ) e finalmente dado por γτ (τ).
As seguintes expressoes alternativas para as curvas ai e bi serao uteis um pouco mais
a frente:
ai(t) = e(φ(t)−1)Ai(t) ci(t) ,
bi(t) = e(φ(t)−1)Bi(t) ri(t) .(4.29)
A obtencao destas expressoes e simples. Por exemplo, para ai, tem-se,
ai(t) = eφ(t)Ai(t) li(t)
= eφ(t)Ai(t) e−Ai(t) eAi(t) li(t)
= e(φ(t)−1)Ai(t)(ci(t) li(t)
−1)li(t)
= e(φ(t)−1)Ai(t) ci(t) .
94
4.4. O algoritmo em grupos de Lie matriciais
Terceiro passo do algoritmo:
Define-se a curva si, combinando t→ ai(t) e t→ bi(t), da seguinte forma:
si(t) = eφ(t)Si(t) ai(t) , t ∈ [0, 1] , (4.30)
onde
Si(t) = log(bi(t) ai(t)
−1), t ∈ [0, 1] , (4.31)
e uma curva suave na algebra de Lie g. O segmento si admite a seguinte expressao
alternativa
si(t) = e(φ(t)−1)Si(t) bi(t) , t ∈ [0, 1] . (4.32)
Observacao 4.14
• Constata-se que
Si(0) = Si(1) = 0 . (4.33)
• O segmento si pode ainda escrever-se do seguinte modo
si(t) = eφ(t)Si(t) eφ(t)Ai(t) etVi pi , t ∈ [0, 1] .
Esta expressao permite observar o que acontece geometricamente. Para obter o
ponto si(τ), onde τ ∈ [0, 1], concretiza-se um deslocamento do ponto pi ao longo do
arco de geodesica li ate ao ponto li(τ). Segue-se um deslocamento ao longo da curva
γτ (t) = eφ(t)Ai(τ)li(τ), t ∈ [0, 1], ate ao ponto γτ (τ) = eφ(τ)Ai(τ)li(τ). Finalmente,
desloca-se o ponto γτ (τ) ao longo da curva eφ(t)Si(τ)γτ (τ) = eφ(t)Si(τ)ai(τ) ate ao
ponto eφ(τ)Si(τ)ai(τ) que e si(τ).
Lema 4.4
Se φ e uma funcao suavizante de ordem k = 1 entao ai e bi, definidas em (4.27)-(4.28),
sao curvas suaves em G com as seguintes propriedades
ai(0) = bi(0) = li(0) = pi , ai(1) = bi(1) = ri(1) = pi+1 , (4.34)
ai(0) = li(0) = vi , bi(1) = ri(1) = vi+1 . (4.35)
Demonstracao - Para obter (4.34) basta usar (4.27) para t = 0 e (4.29) para t = 1.
A obtencao de (4.35) envolve dois passos. Tomando A(t) = φ(t)Ai(t), obtem-se, a partir
de (4.27),
ai(t) = ΩLA(t) eA(t) li(t) + eA(t) li(t) .
Logo, porque A(0) = 0,
ai(0) = ΩLA(0) li(0) + li(0)
= A(0) pi + li(0) .
95
Um algoritmo com tres passos
Porque φ e uma funcao suavizante de ordem k = 1 e Ai(0) = 0, conclui-se que
ai(0) = li(0) = vi .
Definindo B(t) = (φ(t) − 1)Bi(t), tem-se de (4.29),
bi(t) = ΩLB(t) eB(t) ri(t) + eB(t) ri(t) .
Porque B(1) = 0,
bi(1) = ΩLB(1) ri(1) + ri(1)
= B(1) pi+1 + ri(1) .
Por fim, porque φ e uma funcao suavizante de ordem k = 1 e Bi(1) = 0, conclui-se que
bi(1) = ri(1) = vi+1 .
Lema 4.5
Se φ e uma funcao suavizante de ordem k = 1 entao o segmento si, definido em (4.30)-
(4.31), e uma curva suave em G tal que
si(0) = li(0) = pi , si(1) = ri(1) = pi+1 , (4.36)
si(0) = li(0) = vi , si(1) = ri(1) = vi+1 . (4.37)
Demonstracao - As propriedades (4.36) resultam de (4.30), (4.33) e (4.34). A
obtencao de (4.37) envolve dois passos. Definindo S(t) = φ(t)Si(t) tem-se, de (4.30),
si(t) = ΩLS(t) eS(t) ai(t) + eS(t) ai(t) .
Porque S(0) = 0, deduz-se que
si(0) = ΩLS(0) ai(0) + ai(0)
= S(0) pi + li(0) .
Porque φ e uma funcao suavizante de ordem k = 1 e Si(0) = 0, tem-se
si(0) = li(0) = vi .
Usando a expressao alternativa para si, (4.32), tomando, desta vez, S(t) = (φ(t)−1)Si(t),
tem-se
si(t) = ΩLS(t) eS(t) bi(t) + eS(t) bi(t) .
Porque S(1) = 0, vem que
si(1) = ΩLS(1) bi(1) + bi(1)
= S(1) pi+1 + ri(1) .
96
4.4. O algoritmo em grupos de Lie matriciais
Porque φ e uma funcao suavizante de ordem k = 1 e Si(1) = 0, tem-se por fim
si(1) = ri(1) = vi+1 .
Os Lemas 4.4 e 4.5 permitem apresentar o proximo resultado. A semelhanca da
Observacao 4.10, define-se si : [0, 1] → G tal como si, em (4.30)-(4.31), mas satisfazendo
as condicoes si(0) = pi, si(1) = pi+1, ˙si(0) = hi vi e ˙si(1) = hi vi+1, onde hi = ti+1 − ti.
Teorema 4.3
Se φ e uma funcao suavizante de ordem k = 1 entao a curva spline
s(t) = si
(t− ti
ti+1 − ti
)∈ G , t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 ,
e solucao do problema (P ) com k = 1, isto e, s e uma curva suave de classe C 1 que
satisfaz as condicoes de interpolacao
s(ti) = pi , s(ti) = vi , i = 0, 1, . . . ,m .
Os resultados obtidos apontam para que a curva spline, apresentada no enunciado do
Teorema 4.3, seja uma curva de classe C k. O resultado com a generalidade esperada nao
foi no entanto ainda alcancado.
4.4.1 O algoritmo no grupo ortogonal especial
Quando o grupo de Lie matricial G e o grupo ortogonal especial SO(n), conseguimos
melhores resultados. Consideramos SO(n) munido da metrica Riemaniana bi-invariante,
gerada pelo produto interno de Frobenius na algebra de Lie so(n), ou seja, o produto
interno que a cada par de matrizes anti-simetricas (V,W ) associa 〈V,W 〉 = tr(V ′W ).
Neste caso particular, conseguimos mostrar que a derivada covariante de cada seg-
mento si, i = 0, 1, . . . ,m − 1, e nula quer no instante t = 0 quer no instante t = 1.
Conseguimos portanto mostrar que o spline s em SO(n) e de facto uma curva de classe
C 2 em [a, b] (quando φ e uma funcao suavizante de ordem k = 2). Para tal, e preciso
desenvolver um pouco as expressoes de ai e si que culminem na obtencao de expressoes
explıcitas para ai e si.
Definindo A(t) = φ(t)Ai(t), tem-se de (4.27) para ai e de (4.26) para li,
ai(t) = ΩLA(t) ai(t) + eA(t) Vi li(t)
= ΩLA(t) ai(t) + eA(t) Vi e
−A(t) eA(t) li(t)
= ΩLA(t) ai(t) + eA(t) Vi e
−A(t) ai(t)
=(ΩL
A(t) + eadA(t)Vi
)ai(t) .
97
Um algoritmo com tres passos
Para a segunda derivada tem-se
ai(t) =(ΩL
A(t) + eadA(t)(ad ΩRA(t))Vi
)ai(t) +
(ΩL
A(t) + eadA(t)Vi
)ai(t)
=
(ΩL
A(t) + eadA(t)(adΩRA(t))Vi +
(ΩL
A(t) + eadA(t)Vi
)2)ai(t) .
Definindo S(t) = φ(t)Si(t), tem-se da expressao para ai e da expressao (4.30) para si,
si(t) = ΩLS(t) si(t) + eS(t) ai(t)
= ΩLS(t) si(t) + eS(t)
(ΩL
A(t) + eadA(t)Vi
)ai(t)
= ΩLS(t) si(t) + eS(t)
(ΩL
A(t) + eadA(t)Vi
)e−S(t) eS(t) ai(t)
= ΩLS(t) si(t) + eadS(t)
(ΩL
A(t) + eadA(t)Vi
)si(t)
=(ΩL
S(t) + eadS(t)(ΩL
A(t) + eadA(t)Vi
))si(t) .
Logo,
si(t) =(ΩL
S(t) + eadS(t)((ad ΩR
S (t))(ΩL
A(t) + eadA(t)Vi
)+ ΩL
A(t)
+ eadA(t)(ad ΩRA(t))Vi
))si(t) +
(ΩL
S(t) + eadS(t)(ΩL
A(t) + eadA(t)Vi
))si(t)
=(ΩL
S(t) + eadS(t)(ΩL
A(t) + (ad ΩRS (t))
(ΩL
A(t) + eadA(t)Vi
)
+ eadA(t)(ad ΩRA(t))Vi
)+(ΩL
S(t) + eadS(t)(ΩL
A(t) + eadA(t)Vi
))2)si(t) .
Para todo q ∈ SO(n) tem-se gl(n) = TqSO(n) ⊕ (TqSO(n))⊥ com
TqSO(n) = V q : V ∈ so(n)
e
(TqSO(n))⊥ = Sq : S ∈ S(n)
onde S(n) denota o conjunto de todas as matrizes reais simetricas de ordem n. Obser-
vando a expressao de si concluımos que
ΩLS(t) + eadS(t)
(ΩL
A(t) + (ad ΩRS (t))
(ΩL
A(t) + eadA(t)Vi
)+ eadA(t)(ad ΩR
A(t))Vi
)
pertence a algebra de Lie so(n) e que
(ΩL
S(t) + eadS(t)(ΩL
A(t) + eadA(t)Vi
))2
pertence ao subespaco S(n), qualquer que seja t ∈ [a, b]. Ou seja, a expressao para
si(t) apresenta uma decomposicao unica como soma de um elemento de Tsi(t)SO(n) com
um elemento de (Tsi(t)SO(n))⊥. Tendo presente a interpretacao geometrica de derivada
98
4.4. O algoritmo em grupos de Lie matriciais
covariante, numa variedade Riemaniana mergulhada num espaco Euclidiano, concluımos
que
Dsi
dt(t) =
(ΩL
S(t) + eadS(t)(ΩL
A(t)+
+ (adΩRS (t))
(ΩL
A(t) + eadA(t)Vi
)+ eadA(t)(adΩR
A(t))Vi
))si(t) .
Porque S(0) = A(0) = 0 e φ(0) = 0 tem-se ΩRA(0) = A(0) = 0 e ΩR
S (0) = S(0) = 0, logo,
Dsi
dt(0) =
(ΩL
S(0) + ΩLA(0) + (ad ΩR
S (0))(ΩL
A(0) + Vi
)+ (adΩR
A(0))Vi
)pi
=(ΩL
S(0) + ΩLA(0)
)pi .
Assumindo φ(0) = 0 tem-se
ΩLA(0) =
∫ 1
0
eu adA(0)((adΩR
uA(0)) A(0) + A(0))du = 0
e
ΩLS(0) =
∫ 1
0
eu adS(0)((ad ΩR
uS(0)) S(0) + S(0))du = 0 .
Consequentemente,Dsi
dt(0) = 0 .
O mesmo acontece para t = 1. Neste caso, usando as expressoes alternativas para bi e
si, (4.29) e (4.32), definindo B(t) = (φ(t) − 1)Bi(t) e S(t) = (φ(t) − 1)Si(t), obtem-se
bi(t) =
(ΩL
B(t) + eadB(t)(adΩRB(t))Vi+1 +
(ΩL
B(t) + eadB(t)Vi+1
)2)bi(t)
e
si(t) =(ΩL
S(t) + eadS(t)(ΩL
B(t) + (ad ΩRS (t))
(ΩL
B(t) + eadB(t)Vi+1
)
+ eadB(t)(ad ΩRB(t))Vi+1
)+(ΩL
S(t) + eadS(t)(ΩL
B(t) + eadB(t)Vi+1
))2)si(t) .
Logo,
Dsi
dt(t) =
(ΩL
S(t) + eadS(t)(ΩL
B(t)+
+ (adΩRS (t))
(ΩL
B(t) + eadB(t)Vi+1
)+ eadB(t)(ad ΩR
B(t))Vi+1
))si(t) .
Porque S(1) = B(1) = 0 e φ(1) = 1 tem-se ΩRB(1) = B(1) = 0 e ΩR
S (1) = S(1) = 0.
Impondo φ(1) = 0 conclui-se que
Dsi
dt(1) = 0 .
99
Um algoritmo com tres passos
Observacao 4.15
Observe-se queDai
dt(t) =
(ΩL
A(t) + eadA(t)(adΩRA(t))Vi
)ai(t)
eDbidt
(t) =(ΩL
B(t) + eadB(t)(ad ΩRB(t))Vi+1
)bi(t) .
Logo, assumindo φ(0) = φ(1) = 0, conclui-se, como seria de esperar, que
Dai
dt(0) = 0 e
Dbidt
(1) = 0 .
Acabamos de demonstrar o Teorema 4.4. Como anteriormente, si : [0, 1] → SO(n) e
definido como si, em (4.30)-(4.31), mas satisfaz as condicoes si(0) = pi, si(1) = pi+1,˙si(0) = hi vi e ˙si(1) = hi vi+1, onde hi = ti+1 − ti.
Teorema 4.4
Se φ e uma funcao suavizante de ordem k = 2 entao a curva spline
s(t) = si
(t− ti
ti+1 − ti
)∈ SO(n), t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 ,
e uma curva suave de classe C 2 que satisfaz as condicoes de interpolacao
s(ti) = pi , s(ti) = vi ,Ds
dt(ti) = 0 , i = 0, 1, . . . ,m ,
isto e, a curva s e solucao do problema (P ) com k = 2.
Observacao 4.16
• Quando n = 3, isto e, quando G e SO(3), o grupo de Lie das rotacoes no espaco,
existem expressoes explıcitas para a aplicacao exponencial e para a aplicacao lo-
garitmo (mais detalhes em Murray, Li e Sastry [49]). A descricao do algoritmo fica
por isso mais facilitada quer do ponto de vista computacional quer do ponto de
vista numerico.
• Pode usar-se a descricao do algoritmo em R3 e em SO(3) para definir uma curva
suave no grupo de Lie SE(3), grupo de Lie Euclidiano especial (grupo de Lie das
configuracoes, rotacao e posicao, do corpo rıgido).
4.5 Observacoes finais e referencias
Os resultados originais contidos neste capıtulo encontram-se publicados em revista inter-
nacional (Rodrigues, Silva Leite e Jakubiak [58]). Uma versao preliminar foi apresentada,
pelo autor, na conferencia internacional “MTNS’2004 - Sixteenth International Sympo-
sium on Mathematical Theory of Networks and Systems” (Leuven, Belgica), encontrando-
se publicada nos Proceedings da Conferencia (Rodrigues e Silva Leite [63]). Em [58] pode
100
4.5. Observacoes finais e referencias
encontrar-se o estudo do algoritmo com tres passos no caso particular em que a variedade
Riemaniana M e a esfera Sn.
Trabalhos anteriores, que motivaram em larga medida o estudo apresentado neste
capıtulo, foram apresentados, pelo autor, na conferencia internacional “ICAR’2003 - 11th
International Conference on Advanced Robotics” (Coimbra, Portugal), e encontram-se
publicados nos Proceedings do Encontro (Rodrigues, Silva Leite e Rosa [59]). Este tra-
balho versa o estudo de um algoritmo para a geracao de uma curva spline em espacos
Euclidianos, cuja expressao local e resultado de uma combinacao convexa de arcos de
circunferencia e segmentos de recta.
101
Capıtulo 5
Um algoritmo com dois passos
Apresentamos um algoritmo geometrico que permite construir uma curva
spline, de uma classe de suavidade arbitraria, que satisfaz um conjunto pre-
scrito de condicoes de interpolacao. O novo algoritmo define em apenas dois
passos cada segmento da curva spline. O numero de passos e independente
da classe de suavidade pretendida e do numero de condicoes de interpolacao
prescritas. Esta propriedade e consequencia da introducao de uma funcao
suavizante na descricao do algoritmo. Esta e escolhida logo que o grau de
suavidade da curva spline esteja definido.
5.1 Formulacao do problema
Estamos interessados no seguinte problema com condicoes de interpolacao.
Problema (P ):
Determinar uma curva spline s : [a, b] ⊂ R →M , numa variedade Riemaniana
conexa e completa M , que seja suave de classe C k, k ∈ N, em [a, b], e que
satisfaca em cada instante ti de uma particao ∆ : a = t0 < t1 < · · · < tm = b
de [a, b], as condicoes de interpolacao
s(ti) = pi , s(ti) = p1i , . . .
Dδ−1s
dt δ−1(ti) = pδ
i ,
onde pi e um ponto de M e p1i , . . . , p
δi , com 1 ≤ δ ≤ k, sao vectores tangentes
a M no ponto pi, para todo i = 0, 1, . . . ,m. Exige-se que p0, p1, . . . , pm sejam
pontos distintos de M .
Propomos um algoritmo geometrico que permite gerar uma solucao para o problema (P )
quando M = Rn. Generalizamos o processo a outras variedade Riemanianas, nomeada-
mente a grupos de Lie matriciais (destacando o caso M = SO(n)) e a esfera Sn. Nestes
casos, os resultados obtidos contemplam apenas o caso em que no problema (P ) estao
prescritas condicoes de interpolacao nas posicoes e nas velocidades, ou seja, quando δ = 1.
103
Um algoritmo com dois passos
5.2 O novo algoritmo em espacos Euclidianos
O algoritmo permite construir de uma forma individual cada segmento de uma solucao
para o problema (P ) e tem sempre dois passos quaisquer que sejam o grau de suavidade
k e o numero δ de condicoes de interpolacao nas derivadas.
Observacao 5.1
Recordamos que uma funcao suavizante de ordem k+ 1, k ∈ N, e qualquer funcao suave
φ : [0, 1] → R, que satisfaz o conjunto de condicoes de interpolacao
φ(0) = 0 , φ(1) = 1 , (5.1)
φ(j)(0) = 0 , φ(j)(1) = 0 , j = 1, 2, . . . , k . (5.2)
Uma funcao suavizante de ordem k+1 e por exemplo a funcao polinomial de grau 2k+1
φ(t) = α
k∑
v=0
ηv tk+1+v (5.3)
onde
ηv =(−1)v
(kv
)
k + 1 + ve α =
(∑kv=0 ηv
)−1
.
O conceito de funcao suavizante foi apresentado no Capıtulo 4 (na pagina 82).
Considera-se M = Rn munido da metrica Euclidiana. Pretende-se determinar uma
curva spline s : [a, b] → Rn que seja solucao do problema (P ). Seja si : [ti, ti+1] → R
n o
segmento de s que une o ponto pi, no instante t = ti, ao ponto pi+1, no instante t = ti+1.
Por uma questao de simplicidade no processo de construcao de si, usamos o intervalo de
tempo [0, 1] em vez de [ti, ti+1].
Primeiro passo do algoritmo:
Este passo consiste na determinacao de duas curvas suaves li, ri : [0, 1] → Rn que de-
signamos respectivamente por componente esquerda e componente direita do segmento
si. Escolhe-se um operador diferencial L, linear de ordem k + 1, com coeficientes reais
constantes. Determinam-se as componentes li e ri do seguinte modo:
A componente esquerda e a unica solucao do problema
Lx(t) = 0 , t ∈ [0, 1] ,
x(0) = pi , x(0) = p1i , . . . x(δ)(0) = pδ
i ,
x(j)(0) = 0 , j = δ + 1, . . . , k ,
(5.4)
enquanto a componente direita e a unica solucao do problema
Lx(t) = 0 , t ∈ [0, 1] ,
x(1) = pi+1 , x(1) = p1i+1 , . . . x(δ)(1) = pδ
i+1 ,
x(j)(1) = 0 , j = δ + 1, . . . , k .
(5.5)
104
5.2. O novo algoritmo em espacos Euclidianos
Segundo passo do algoritmo:
Introduz-se uma funcao suavizante φ para construir o segmento si : [0, 1] → Rn. Este
e definido como combinacao convexa, usando a funcao suavizante φ, das componentes
esquerda e direita, da seguinte forma
si(t) = (1 − φ(t)) li(t) + φ(t) ri(t) , t ∈ [0, 1] . (5.6)
Lema 5.1
Seja φ uma funcao suavizante de ordem k + 1 e seja L um operador diferencial linear
de ordem k + 1, com coeficientes reais constantes. Se li : [0, 1] → Rn e solucao do
problema (5.4) e ri : [0, 1] → Rn e solucao do problema (5.5), entao
si(t) = (1 − φ(t)) li(t) + φ(t) ri(t) , t ∈ [0, 1] ,
e uma curva suave tal que
si(j)(0) = li
(j)(0) e si(j)(1) = ri
(j)(1) , j = 0, 1, . . . , k ,
isto e,
si(0) = pi , si(1) = pi+1 ,
si(0) = p1i , si(1) = p1
i+1 ,
......
si(δ)(0) = pδ
i , si(δ)(1) = pδ
i+1 ,
si(j)(0) = 0 , j = δ + 1, . . . , k , si
(j)(1) = 0 , j = δ + 1, . . . , k .
Demonstracao - A curva si pode escrever-se do seguinte modo
si(t) = li(t) + φ(t) (ri(t) − li(t)) , t ∈ [0, 1] .
A aplicacao da formula de Leibniz para a derivada de ordem j do produto, permite obter
si(j) = li
(j) +
j∑
v=0
(jv
)φ(v)(ri − li)
(j−v)
=
j∑
v=1
(jv
)φ(v)(ri − li)
(j−v) + (1 − φ) li(j) + φ ri
(j) .
O uso das propriedades (5.1) e (5.2) da funcao suavizante φ, permite concluir por fim
que
si(j)(0) = li
(j)(0) e si(j)(1) = ri
(j)(1) , j = 0, 1, . . . , k .
O proximo resultado, consequencia do Lema 5.1, estabelece que a curva spline, gerada
por aplicacao do algoritmo, e solucao do problema (P ).
105
Um algoritmo com dois passos
Observacao 5.2
Tal como no capıtulo precedente, torna-se necessario definir si : [0, 1] → Rn como foi
feito para si, em (5.6), mas satisfazendo as condicoes
si(0) = pi , si(1) = pi+1 ,
˙si(0) = hi p1i ,
˙si(1) = hi p1i+1 ,
......
s(δ)
i (0) = (hi)δ pδ
i , s(δ)
i (1) = (hi)δ pδ
i+1 ,
onde hi = ti+1 − ti.
Teorema 5.1
Se φ e uma funcao suavizante de ordem k + 1 e L e um operador diferencial linear de
ordem k + 1, com coeficientes reais constantes, entao a curva spline
s(t) = si
(t− ti
ti+1 − ti
), t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 , (5.7)
e solucao do problema (P ), isto e, s e uma curva suave de classe C k que satisfaz as
condicoes de interpolacao
s(ti) = pi , s(ti) = p1i , . . . s(δ)(ti) = pδ
i ,
e alem destas,
s(j)(ti) = 0 , j = δ + 1, . . . , k ,
para todo o i = 0, 1, . . . ,m.
Demonstracao - E suficiente observar que s(j)(ti+1−) = s(j)(ti+1
+) para todo o
j = 0, 1, . . . , k e todo o i = 0, 1, . . . ,m− 2.
A determinacao de uma solucao para o problema (P ), atraves da aplicacao repetida
do algoritmo, pressupoe a escolha de uma funcao suavizante de ordem k + 1 e de um
operador diferencial linear de ordem k + 1, com coeficientes reais constantes. A curva
final (5.7), solucao de (P ), e o resultado da ligacao de todos os segmentos.
Observacao 5.3
Para gerar uma curva de classe C 1 pode escolher-se a partir de (5.3), a funcao suavizante
φ(t) = 3t2 − 2t3 .
Uma curva de classe C 2 resulta por exemplo, da escolha de
φ(t) = 10t3 − 15t4 + 6t5 .
Apresentamos algumas figuras que descrevem o processo de construcao da curva
spline. Estas representam a construcao de uma curva de classe C 1 com componentes
polinomiais.
106
5.2. O novo algoritmo em espacos Euclidianos
p
p0 p1 p2
p10
p11
p12
Figura 5.1: Dados iniciais
p
p0 p1 p2
l0(·) r0(·)
l1(·) r1(·)
p
p0 p1 p2
s0(·)
s1(·)
Figura 5.2: Primeiro e segundo passo do algoritmo
p
p0 p1 p2
p10
p11
p12
s(·)
Figura 5.3: Dados iniciais e curva s
107
Um algoritmo com dois passos
5.2.1 Propriedades do algoritmo
1. O numero de passos do algoritmo nao depende do valor de k, uma vez que o numero
de passos para cada segmento e sempre dois, qualquer que seja o grau de suavidade
k da curva (5.7), e o numero δ (1 ≤ δ ≤ k) de condicoes de interpolacao nas
derivadas. Esta propriedade e consequencia do papel fundamental desempenhado
pela funcao suavizante.
2. Se φ e a funcao polinomial de grau 2k+1 definida em (5.3) e li e ri sao as solucoes
polinomiais de grau δ associadas ao operador L ≡ Dk+1 e aos problemas (5.4) e (5.5)
entao, cada segmento da curva (5.7) e uma curva polinomial de grau (maximo)
2k + 1 + δ. Neste caso, cada segmento da curva s requer o calculo de tres curvas
polinomiais.
3. Outra propriedade decorre da determinacao individual de cada segmento. O facto
de cada segmento estar unicamente dependente dos dados iniciais na sua vizinhanca
(alem da funcao suavizante e do operador diferencial), distingue a curva (5.7) das
demais curvas spline. Recordamos as curvas spline apresentadas no Capıtulo 2, onde
se inclui o spline cubico classico em Rn. Esta propriedade local e muito importante
e bastante util do ponto de vista da aplicacao pratica da curva (5.7). Ao modificar
os dados iniciais associados a determinado instante ti de ∆, e necessario calcular de
novo os segmentos si−1 e si, se ti e um instante intermedio, caso contrario, basta
calcular de novo um unico segmento do spline, o segmento inicial ou o segmento
final. Nao e por isso necessario repetir o calculo de todos os segmentos da curva. E
de notar que para a maior parte das curvas spline acontece precisamente o oposto.
4. A curva spline gerada pelo novo algoritmo nao e em geral de classe C k+1. So mesmo
em casos especiais e que tal acontece. O estudo destes casos decorre da analise da
equacao si(k+1)(1) = si+1
(k+1)(0) para todo i = 0, 1, . . . ,m− 2.
Observacao 5.4
Resultados globais sobre o comportamento optimal da curva (5.7) nao sao por enquanto
conhecidos.
5.2.2 Flexibilidade do algoritmo
Mostramos como adaptar o novo algoritmo a problemas de interpolacao mais exigentes,
onde o numero de condicoes de interpolacao pode variar de ponto para ponto, ou seja,
quando em cada instante ti de ∆ as condicoes de interpolacao sao
s(ti) = pi , s(ti) = p1i , . . . s(ki)(ti) = pki
i , (5.8)
onde ki esta associado ao ponto pi e e tal que 1 ≤ ki ≤ k, i = 0, 1 . . . ,m.
108
5.2. O novo algoritmo em espacos Euclidianos
A adaptacao do novo algoritmo requer modificacoes simples, que incidem apenas na
definicao das componentes esquerda e direita de cada segmento. Nem mesmo a escolha
da funcao suavizante ou a escolha do operador diferencial tem de ser alteradas. Seja
si : [0, 1] → Rn o segmento que une o ponto pi ao ponto pi+1.
Se ki e o numero associado ao ponto pi entao a componente esquerda e a unica solucao
do problema
Lx(t) = 0 , t ∈ [0, 1] ,
x(0) = pi , x(0) = p1i , . . . x(ki)(0) = pki
i ,
x(j)(0) = 0 , j = ki + 1, . . . , k .
(5.9)
Se ki+1 e o numero associado ao ponto pi+1 entao a componente direita e a unica solucao
do problema
Lx(t) = 0 , t ∈ [0, 1] ,
x(1) = pi+1 , x(1) = p1i+1 , . . . x(ki+1)(1) = p
ki+1
i+1 ,
x(j)(1) = 0 , j = ki+1 + 1, . . . , k .
(5.10)
O processo nao sofre mais alteracoes. Escolhe-se uma funcao suavizante de ordem k + 1
e determina-se a curva si tal como foi descrito na apresentacao do algoritmo. Enuncia-se
o seguinte resultado global.
Teorema 5.2
Se φ e uma funcao suavizante de ordem k + 1 e L e um operador diferencial linear de
ordem k + 1, com coeficientes reais constantes, entao:
(i) Cada segmento si : [0, 1] → Rn, i = 0, 1, . . . ,m− 1, definido da forma
si(t) = (1 − φ(t)) li(t) + φ(t) ri(t) , t ∈ [0, 1] ,
onde li e solucao de (5.9) e ri e solucao de (5.10), tem as propriedades:
si(0) = pi , si(1) = pi+1 ,
si(0) = p1i , si(1) = p1
i+1 ,
......
si(ki)(0) = pki
i , si(ki+1)(1) = p
ki+1
i+1 ,
si(j)(0) = 0 , j = ki + 1, . . . , k , si
(j)(1) = 0 , j = ki+1 + 1, . . . , k .
(ii) A curva spline s : [a, b] → Rn definida do seguinte modo
s(t) = si
(t− ti
ti+1 − ti
), t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 ,
e uma curva suave de classe C k que satisfaz as condicoes de interpolacao (5.8) e
s(j)(ti) = 0 , j = ki + 1, . . . , k ,
109
Um algoritmo com dois passos
em cada instante ti de ∆. Na expressao de s, si e construıdo tal como si, mas
satisfaz as condicoes
si(0) = pi , si(1) = pi+1 ,
˙si(0) = hi p1i ,
˙si(1) = hi p1i+1 ,
......
s(ki)
i (0) = (hi)ki pki
i , s(ki+1)
i (1) = (hi)ki+1 p
ki+1
i+1 ,
onde hi = ti+1 − ti.
Observacao 5.5
Observando a descricao dos passos do algoritmo pode constatar-se que e possıvel escolher
operadores diferenciais (lineares de ordem k+1 com coeficientes reais constantes) distintos
no calculo de cada segmento.
Nas proximas seccoes necessitamos de conceitos e resultados de geometria Riemaniana
que se encontram descritos no Capıtulo 3.
5.3 O algoritmo em grupos de Lie matriciais
O processo de construcao apresentado na seccao anterior nao se pode estender na sua
globalidade a toda a variedade Riemaniana. O principal problema reside na obtencao das
componentes esquerda e direita de cada segmento do spline. Nem mesmo quando estas sao
funcoes polinomiais de grau maior que um, existe uma correspondencia completamente
satisfatoria a outras variedades Riemanianas. Formulas explıcitas para o analogo de
polinomios em variedades Riemaniana sao tambem por enquanto desconhecidas. Por
estes motivos, so mesmo quando as componentes esquerda e direita sao polinomios de
grau um, e que a generalizacao e praticavel.
Consideramos no problema inicial (P ) apenas o caso k = 1 e apresentamos uma
generalizacao do algoritmo a grupos de Lie de matrizes, conexos e compactos, onde a
interpolacao por arcos de geodesica substitui o processo de interpolacao linear.
Seja M = G um grupo de Lie matricial simultaneamente conexo e compacto, munido
da sua unica metrica Riemaniana bi-invariante. Seja ainda g a algebra de Lie de G.
O algoritmo permite construir uma curva spline s : [a, b] → G, de classe C 1, tal que
s(ti) = pi ∈ G e s(ti) = vi ∈ TpiG em cada instante ti, i = 0, 1, . . . ,m, de uma particao ∆
de [a, b]. Podemos afirmar que a cada ponto pi e a cada vector tangente vi esta associado
um unico elemento Vi ∈ g tal que vi = Vipi, i = 0, 1, . . . ,m.
Cada segmento de s e construıdo de forma individual. Seja si : [0, 1] → G o segmento
de s que une o ponto pi (no instante t = 0) com velocidade vi = Vipi, ao ponto pi+1 (no
instante t = 1) com velocidade vi+1 = Vi+1pi+1.
110
5.3. O algoritmo em grupos de Lie matriciais
Primeiro passo do algoritmo:
Definem-se os seguintes arcos de geodesica que sao as componentes esquerda e direita do
segmento si:
li(t) = etVipi ,
ri(t) = e(t−1)Vi+1pi+1 , t ∈ [0, 1] .(5.11)
Observacao 5.6
As componentes de si sao curvas suaves tais que:
li(0) = pi , ri(1) = pi+1 ,
li(0) = Vipi = vi , ri(1) = Vi+1pi+1 = vi+1 .
Segundo passo do algoritmo:
Define-se o segmento si combinando as componentes t 7→ li(t) e t 7→ ri(t), atraves da
introducao de uma funcao suavizante φ, do seguinte modo:
si(t) = eφ(t)Si(t) li(t) , t ∈ [0, 1] , (5.12)
onde
Si(t) = log(ri(t) li(t)
−1), t ∈ [0, 1] , (5.13)
e uma curva suave na algebra de Lie g. O segmento si admite a expressao alternativa
si(t) = e(φ(t)−1)Si(t) ri(t) , t ∈ [0, 1] . (5.14)
Observacao 5.7
O segmento si pode ainda escrever-se do seguinte modo
si(t) = eφ(t)Si(t)etVipi , t ∈ [0, 1] .
Para obter o ponto si(τ), onde τ ∈ [0, 1], efectua-se um deslocamento do ponto pi ao longo
do arco de geodesica li ate ao ponto li(τ) = eτVipi. Segue-se um deslocamento ao longo
da curva γτ (t) = eφ(t)Si(τ) li(τ), t ∈ [0, 1], ate ao ponto si(τ) = γτ (τ) = eφ(τ)Si(τ) li(τ).
Lema 5.2
Se φ e uma funcao suavizante de ordem 2 entao o segmento si, definido em (5.12)-(5.13),
e uma curva suave em G com as seguintes propriedades
si(0) = li(0) = pi , si(1) = ri(1) = pi+1 , (5.15)
si(0) = li(0) = vi , si(1) = ri(1) = vi+1 . (5.16)
111
Um algoritmo com dois passos
Demonstracao - Para obter (5.15) basta usar a expressao (5.12) para t = 0 e a
expressao (5.14) para t = 1 em conjunto com as propriedades (5.1) da funcao suavizante.
Para obter (5.16) o raciocınio e: Definindo A(t) = φ(t)Si(t) tem-se, de (5.12),
si(t) = ΩLA(t) eA(t) li(t) + eA(t) li(t) .
Logo, porque A(0) = 0,
si(0) = ΩLA(0) li(0) + li(0)
= A(0) pi + li(0) .
Porque φ e uma funcao suavizante de ordem 2 tem-se
si(0) = li(0) = vi .
Da expressao alternativa para si, (5.14), tomando B(t) = (φ(t) − 1)Si(t), tem-se
si(t) = ΩLB(t) eB(t) ri(t) + eB(t) ri(t) .
Porque B(1) = 0, vem que
si(1) = ΩLB(1) ri(1) + ri(1)
= B(1) pi+1 + ri(1) .
Porque φ e uma funcao suavizante de ordem 2 tem-se por fim
si(1) = ri(1) = vi+1 .
A semelhanca da Observacao 5.2, define-se si : [0, 1] → G tal como si, em (5.12)-
(5.13), mas satisfazendo as condicoes si(0) = pi, si(1) = pi+1, ˙si(0) = hi vi e ˙si(1) =
hi vi+1, onde hi = ti+1 − ti.
Teorema 5.3
Se φ e uma funcao suavizante de ordem 2 entao a curva spline
s(t) = si
(t− ti
ti+1 − ti
)∈ G, t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 ,
e solucao do problema (P ) com k = 1, o que significa que s e uma curva suave de classe
C 1 que satisfaz as condicoes de interpolacao
s(ti) = pi , s(ti) = vi , i = 0, 1, . . . ,m .
Os resultados obtidos apontam para que a curva spline, apresentada no enunciado do
Teorema 5.3, seja mais precisamente uma curva de classe C k tal que
Dj s
dtj(ti) = 0 , j = 1, 2, . . . , k − 1 , i = 0, 1, . . . ,m .
O resultado com a generalidade esperada nao foi no entanto ainda alcancado!
112
5.3. O algoritmo em grupos de Lie matriciais
5.3.1 O algoritmo no grupo ortogonal especial
Quando G = SO(n) podemos incrementar um pouco mais os resultados obtidos. Consi-
deramos SO(n) munido da metrica Riemaniana bi-invariante, gerada pelo produto interno
de Frobenius na algebra de Lie so(n), isto e, o produto interno que a cada par de matrizes
anti-simetricas (V,W ) associa 〈V,W 〉 = tr(V ′W ).
Mostramos que a derivada covariante de cada segmento si, i = 0, 1, . . . ,m− 1, e nula
quer no instante t = 0 quer no instante t = 1. Ou seja, o spline s em SO(n) e uma curva
de classe C 2 em [a, b] (quando φ e uma funcao suavizante de ordem 3).
Definindo A(t) = φ(t)Si(t), tem-se da expressao (5.12) para si e da expressao (5.11)
para li,
si(t) = ΩLA(t) si(t) + eA(t) Vi li(t)
= ΩLA(t) si(t) + eA(t) Vi e
−A(t) eA(t) li(t)
= ΩLA(t) si(t) + eA(t) Vi e
−A(t) si(t)
=(ΩL
A(t) + eadA(t)Vi
)si(t) .
Logo,
si(t) =(ΩL
A(t) + eadA(t)(ad ΩRA(t))Vi
)si(t) +
(ΩL
A(t) + eadA(t)Vi
)si(t)
=
(ΩL
A(t) + eadA(t)(ad ΩRA(t))Vi +
(ΩL
A(t) + eadA(t)Vi
)2)si(t) .
Para todo q ∈ SO(n) tem-se gl(n) = TqSO(n) ⊕ (TqSO(n))⊥ com
TqSO(n) = V q : V ∈ so(n)
e
(TqSO(n))⊥ = Sq : S ∈ S(n)
onde S(n) denota o conjunto das matrizes reais simetricas de ordem n. Da expressao de
si deduz-se que
ΩLA(t) + eadA(t)(ad ΩR
A(t))Vi
pertence a algebra de Lie so(n) e que
(ΩL
A(t) + eadA(t)Vi
)2
e elemento do subespaco S(n), para todo o t ∈ [a, b]. Ou seja,
Dsi
dt(t) =
(ΩL
A(t) + eadA(t)(ad ΩRA(t))Vi
)si(t) .
Assumindo φ(0) = 0 e φ(0) = 0 tem-se A(0) = 0 e ΩRA(0) = A(0) = 0, e portanto,
Dsi
dt(0) = ΩL
A(0) pi .
113
Um algoritmo com dois passos
Assumindo tambem φ(0) = 0 tem-se
ΩLA(0) =
∫ 1
0
eu adA(0)((ad ΩR
uA(0)) A(0) + A(0))du = 0 .
Logo,Dsi
dt(0) = 0 .
Da expressao alternativa para si, (5.14), com B(t) = (φ(t) − 1)Si(t), obtem-se
Dsi
dt(t) =
(ΩL
B(t) + eadB(t)(ad ΩRB(t))Vi+1
)si(t) .
Logo, assumindo φ(1) = 1 e φ(1) = φ(1) = 0, conclui-se que
Dsi
dt(1) = 0 .
Resumindo, temos o Teorema 5.4. Tal como anteriormente, e necessario definir si :
[0, 1] → SO(n) tal como si, em (5.12)-(5.13), mas satisfazendo as condicoes si(0) = pi,
si(1) = pi+1, ˙si(0) = hi vi e ˙si(1) = hi vi+1, onde hi = ti+1 − ti.
Teorema 5.4
Se φ e uma funcao suavizante de ordem 3 entao a curva spline
s(t) = si
(t− ti
ti+1 − ti
)∈ SO(n), t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 ,
e uma curva suave de classe C 2 que satisfaz as condicoes de interpolacao
s(ti) = pi , s(ti) = vi ,Ds
dt(ti) = 0 , i = 0, 1, . . . ,m ,
isto e, s e solucao do problema (P ) com k = 2 e δ = 1.
5.4 O algoritmo na esfera n-dimensional
Estendemos a descricao do algoritmo ao caso da esfera
Sn = x ∈ Rn+1 : x1
2 + · · · + xn+12 = 1.
Assumimos que a variedade Riemaniana esta equipada com a metrica Riemaniana in-
duzida pela metrica Euclidiana do espaco ambiente Rn+1. Seja si : [0, 1] → Sn o seg-
mento que une o ponto pi ∈ Sn com velocidade vi ∈ TpiSn (no instante t = 0) ao ponto
pi+1 ∈ Sn com velocidade vi+1 ∈ Tpi+1Sn (no instante t = 1). E necessario assumir ainda
que: i) pi e pi+1 nao sao pontos antıpodas, ii) vi e vi+1 sao vectores nao nulos.
A componente esquerda do segmento si e o unico segmento de geodesica em Sn que
no instante t = 0 passa pelo ponto pi com velocidade vi, isto e,
li(t) = cos(‖vi‖t) pi + 1‖vi‖ sin(‖vi‖t) vi , t ∈ [0, 1] .
114
5.4. O algoritmo na esfera n-dimensional
A componente direita e o unico segmento de geodesica em Sn que no instante t = 1 passa
pelo ponto pi+1 com velocidade vi+1,
ri(t) = cos(‖vi+1‖(t− 1)) pi+1 + 1‖vi+1‖ sin(‖vi+1‖(t− 1)) vi+1 , t ∈ [0, 1] .
O segmento si e definido como combinacao das componentes t 7→ li(t) e t 7→ ri(t),
atraves da introducao de uma funcao suavizante φ, do seguinte modo:
si(t) =sin((1 − φ(t)) θi(t))
sin(θi(t))li(t) +
sin(φ(t) θi(t))
sin(θi(t))ri(t) , t ∈ [0, 1] , (5.17)
onde
θi(t) = cos−1(li(t)′ri(t)) , t ∈ [0, 1] . (5.18)
Observacao 5.8
Para as componentes li e ri obtem-se
li(t) = −‖vi‖ sin(‖vi‖t) pi + cos(‖vi‖t) vi , t ∈ [0, 1]
e
ri(t) = −‖vi+1‖ sin(‖vi+1‖(t− 1)) pi+1 + cos(‖vi+1‖(t− 1)) vi+1 , t ∈ [0, 1] .
Daqui resulta
li(k)(t) =
(−1)k2 ‖vi‖k li(t) se k e par
(−1)k−1
2 ‖vi‖k−1 li(t) se k e ımpar
e
ri(k)(t) =
(−1)k2 ‖vi+1‖k ri(t) se k e par
(−1)k−1
2 ‖vi+1‖k−1 ri(t) se k e ımpar.
Logo, em particular,
li(k)(0) =
(−1)k2 ‖vi‖k pi se k e par
(−1)k−1
2 ‖vi‖k−1 vi se k e ımpar(5.19)
e
ri(k)(1) =
(−1)k2 ‖vi+1‖k pi+1 se k e par
(−1)k−1
2 ‖vi+1‖k−1 vi+1 se k e ımpar. (5.20)
Para cada segmento si definem-se as funcoes
fi(t) =sin((1 − φ(t)) θi(t))
sin(θi(t))e gi(t) =
sin(φ(t) θi(t))
sin(θi(t)), t ∈ [0, 1] . (5.21)
Consequentemente, o segmento si pode escrever-se como
si(t) = fi(t) li(t) + gi(t) ri(t) , t ∈ [0, 1] .
115
Um algoritmo com dois passos
Usando a regra de Leibniz para a derivada de ordem j do produto obtem-se
si(j) =
j∑
u =0
(ju
)fi
(u) li(j−u) +
j∑
u =0
(ju
)gi
(u) ri(j−u) .
Se φ e uma funcao suavizante de ordem 4 entao
fi(0) = 1 , fi(1) = 0 , gi(0) = 0 , gi(1) = 1 ,
fi(j)(0) = 0 , fi
(j)(1) = 0 , gi(j)(0) = 0 , gi
(j)(1) = 0 j = 1, 2, 3 .
Logo,
si(j)(0) = li
(j)(0) , si(j)(1) = ri
(j)(1) , j = 0, 1, 2, 3 , (5.22)
e portanto
si(0) = li(0) = pi , si(1) = ri(1) = pi+1 ,
si(0) = li(0) = vi , si(1) = ri(1) = vi+1 .
Se Π(si
(j)(t)), j ≥ 2, denota a projeccao ortogonal de si
(j)(t) no espaco tangente
Tsi(t)Sn entao
Π(si(j)(t)) = si
(j)(t) − 〈si(t), si(j)(t)〉 si(t) (5.23)
onde 〈·,·〉 denota o produto interno Euclidiano em Rn+1. Logo,
Dsi
dt(t) = Π(si(t)) = si(t) − 〈si(t), si(t)〉 si(t) .
No instante t = 0 tem-se, de (5.22) e (5.19),
Dsi
dt(0) = si(0) − 〈si(0), si(0)〉 si(0)
= −‖vi‖2pi + ‖vi‖2〈pi, pi〉 pi = 0 .
No instante t = 1 tem-se, de (5.22) e (5.20),
Dsi
dt(1) = si(1) − 〈si(1), si(1)〉 si(1)
= −‖vi+1‖2pi+1 + ‖vi+1‖2〈pi+1, pi+1〉 pi+1 = 0 .
PorqueDj si
dtj= Π
(d
dt
(Dj−1si
dtj−1
)), j ∈ N ,
tem-se, para j = 2,
D2si
dt2(t) = Π
(d
dt
(Ds
dt
))
= Π
(d
dt(si(t) − 〈si(t), si(t)〉 si(t))
)
= Π(...s i(t) − 〈si(t), si(t)〉 si(t) − 〈si(t),
...s i(t)〉 si(t) − 〈si(t), si(t)〉 si(t)) .
116
5.4. O algoritmo na esfera n-dimensional
Porque a operacao projeccao e linear, 〈si(t), si(t)〉 si(t) e 〈si(t),...s i(t)〉 si(t) tem a direccao
de si(t), logo, perpendiculares ao plano tangente no ponto si(t), e 〈si(t), si(t)〉 si(t) vive
no plano tangente no ponto si(t), conclui-se usando (5.23), que
D2si
dt2(t) = Π(
...s i(t)) − 〈si(t), si(t)〉 si(t)
=...s i(t) − 〈si(t),
...s i(t)〉 si(t) − 〈si(t), si(t)〉 si(t) .
No instante t = 0 tem-se de (5.22) e (5.19),
D2si
dt2(0) = −‖vi‖2vi + ‖vi‖2〈pi, vi〉 pi + ‖vi‖2〈pi, pi〉 vi = 0 .
No instante t = 1 tem-se de (5.22) e (5.20),
D2si
dt2(1) = −‖vi+1‖2vi+1 + ‖vi+1‖2〈pi+1, vi+1〉 pi+1 + ‖vi+1‖2〈pi+1, pi+1〉 vi+1 = 0 .
O proximo Lema e consequencia directa dos calculos efectuados.
Lema 5.3
Se φ e uma funcao suavizante de ordem 4 entao o segmento si, definido em (5.17)-(5.18),
e uma curva suave em Sn com as seguintes propriedades:
si(0) = pi , si(0) = vi ,Dsi
dt(0) = 0 ,
D2si
dt2(0) = 0 ,
si(1) = pi+1 , si(1) = vi+1 ,Dsi
dt(1) = 0 ,
D2si
dt2(1) = 0 .
Como anteriormente, si : [0, 1] → Sn e definido como si, em (5.17)-(5.18), mas satisfaz
as condicoes si(0) = pi, si(1) = pi+1, ˙si(0) = hi vi e ˙si(1) = hi vi+1, onde hi = ti+1 − ti.
Teorema 5.5
Se φ e uma funcao suavizante de ordem 4 entao a curva spline
s(t) = si
(t− ti
ti+1 − ti
)∈ Sn, t ∈ [ti, ti+1] , i = 0, 1, . . . ,m− 1 ,
e uma curva suave de classe C 3 que satisfaz as condicoes de interpolacao
s(ti) = pi , s(ti) = vi ,Ds
dt(ti) = 0 ,
D2s
dt2(ti) = 0 , i = 0, 1, . . . ,m ,
onde vi 6= 0, isto e, s e solucao do problema (P ) com k = 3 e δ = 1.
Observacao 5.9
Os resultados obtidos apontam para que a seguinte afirmacao seja verdadeira.
• Se φ e uma funcao suavizante de ordem k + 1 entao, as funcoes 1 − fi e gi sao
funcoes suavizantes de ordem k + 1.
117
Um algoritmo com dois passos
Ou seja, as funcoes fi e gi, definidas em (5.21), para cada segmento si, satisfazem
fi(0) = 1 , fi(1) = 0 , gi(0) = 0 , gi(1) = 1 ,
f(j)i (0) = 0 , f
(j)i (1) = 0 , g
(j)i (0) = 0 , g
(j)i (1) = 0 , j = 1, 2, . . . , k .
A confirmar-se a afirmacao anterior, pode concluir-se que
si(j)(0) = li
(j)(0) , si(j)(1) = ri
(j)(1) , j = 0, 1, . . . , k .
Apresentamos quatro figuras que ilustram o processo de construcao de uma curva
spline s de classe C 1 na esfera S2.
Figura 5.4: Dados iniciais
Figura 5.5: Primeiro e segundo passo do algoritmo
118
5.5. Observacoes finais e referencias
Figura 5.6: Dados iniciais e curva s
5.5 Observacoes finais e referencias
O algoritmo apresentado neste capıtulo permite resolver, em situacoes identicas, o mesmo
problema que o algoritmo do capıtulo anterior. No entanto, o algoritmo com dois passos
e mais eficaz e mais simples de implementar, sobretudo quando adaptado a espacos nao
Euclidianos, tais como grupos de Lie matriciais, onde o calculo da exponencial e do loga-
ritmo de matrizes envolve novas dificuldades (aproveitamos para mencionar os trabalhos
de Silva Leite e Crouch [71], Gallier e Xu [29] e Cardoso [16] sobre o calculo da aplicacao
exponencial e da aplicacao logaritmo em grupos de Lie matriciais). Contudo, e nossa
conviccao que os dois algoritmos escondem naturezas distintas apesar da semelhanca na
construcao das curvas em cada passo.
Parte dos resultados originais contidos neste capıtulo estao publicados em revista
internacional em (Jakubiak, Silva Leite e Rodrigues [36]).
119
Comentarios finais
Chegados a este ponto queremos partilhar com o leitor o nosso ponto de vista a respeito
dos progressos conseguidos com este trabalho de investigacao e dar conta de possıveis
caminhos a percorrer num futuro proximo.
Nesta dissertacao apresentamos alguns desenvolvimentos que contribuem para o es-
tudo do tema da geracao de funcoes interpoladoras suaves em variedades Riemanianas.
Os resultados contidos na primeira parte desta tese contribuem para que certos aspec-
tos da ligacao entre a teoria das funcoes spline e a teoria do controlo linear estejam hoje
bem definidos e consistentes1. A extensao dos resultados ao caso vectorial e uma con-
tribuicao que permite dar um sentido ainda mais global a essa ligacao. O estudo realizado
(para o caso vectorial) levanta algumas questoes bastante interessantes. A complexidade
associada aos operadores diferenciais de ordem p com coeficientes matriciais e um de-
safio por si so. Embora tenhamos expressoes explıcitas para as funcoes envolvidas, o seu
calculo para p > 1 nao e do ponto de vista computacional simples de concretizar. Os
operadores estudados tambem estao associados a certos problemas de valores proprios
polinomiais, mas neste campo quase tudo esta por fazer. Outra questao que merece
uma analise cuidada e a da relacao estabelecida (no caso p = 1) com uma certa equacao
algebrica de Riccati. A obtencao de resultados para p arbitrario e um assunto que nao foi
ainda devidamente explorado. Os resultados obtidos no caso vectorial levam-nos a supor
que a abordagem utilizada possa vir a ser adaptada a outras variedades Riemanianas que
nao o espaco Euclidiano. A experiencia acumulada permite-nos antever muitas dificul-
dades e desafios permanentes. Estas dificuldades foram, alias, a principal motivacao para
a abordagem alternativa aos problemas de interpolacao que apresentamos na segunda
parte desta tese.
Os algoritmos para a geracao de curvas suaves em variedades Riemanianas apresen-
tam processos de construcao que sao em simultaneo versateis e inovadores. As suas pro-
priedades principais sao consequencia directa da introducao das funcoes suavizantes. As
caracterısticas que revelam tornam-nos ferramentas fundamentais em muitas aplicacoes.
Neste contexto, reconhecemos que a sua simplicidade e tambem uma mais valia.
1Alem da investigacao que Clyde Martin e seus colaboradores desenvolveram nao temos conhecimento
de outros trabalhos nesta area.
121
Comentarios finais
O espaco Euclidiano e o ambiente ideal para poder experimentar (este e o espaco com
que nos identificamos) porque em geral ocorre uma maior simplicidade de processos que
esta provavelmente associada aos muitos recursos de que dispomos. E por isso natural
que se estudem primeiro os problemas num espaco Euclidiano, para assim poder mais
facilmente vislumbrar possıveis metodos de generalizacao a variedades Riemanianas. No
contexto dos espacos Euclidianos, ficamos com a ideia de que algumas propriedades e
ligacoes estao ainda por descobrir. Acreditamos ser possıvel identificar uma certa opti-
malidade no comportamento global das curvas geradas e com isso estabelecer a ponte
com problemas de controlo optimal. Recentemente, Egerstedt e Martin [27] mostraram
que as curvas de Bezier (que surgem em particular em todas as etapas da aplicacao
do algoritmo de De Casteljau) sao uma construcao fundamental em teoria do controlo,
surgindo como solucao de certo tipo de problemas de controlo optimal. Este e um dos
objectivos que pretendemos prosseguir. Uma outra questao prende-se com a conviccao
de que talvez hajam propriedades que permitam apresentar uma definicao unificada das
curvas geradas pelos dois algoritmos (e tambem pelo algoritmo de De Casteljau). Outra
questao que nos parece interessante explorar e que nao consideramos ainda, diz respeito
a analise das propriedades numericas de ambos os algoritmos.
Os grandes desafios ocorrem contudo noutra dimensao que e a das variedades Riema-
nianas nao Euclidianas. Este e o palco onde cada pequeno passo e de facto uma grande
contribuicao, onde existe uma grande actividade de investigacao e onde quase tudo esta
em aberto.
Os resultados que apresentamos em outras variedades Riemanianas conexas e com-
pactas como grupos de Lie matriciais sao prometedores. Contudo, com estes surgem
inumeras questoes e desafios tecnicos que nao foram ainda superados. Quando apre-
sentamos a aplicacao dos dois algoritmos no grupo de Lie ortogonal especial SO(n) refe-
rimos ser nossa conviccao que os resultados obtidos sao validos para a geracao de curvas
de classe C k, com k arbitrario (para uma escolha adequada da funcao suavizante). No
entanto, tudo parece indicar que a confirmacao deste facto requer encontrar um outro for-
malismo que permita superar as dificuldades na manipulacao das expressoes matematicas
envolvidas. Na esfera n-dimensional este problema parece mais tangıvel e acessıvel de
concretizar a curto prazo.
Uma outra questao para o caso dos grupos de Lie matriciais conexos e compactos,
munidos da metrica bi-invariante, esta associada a natureza local dos resultados obti-
dos e tem a ver directamente com o domınio de injectividade da aplicacao exponencial.
Esta e uma restricao necessaria com consequentes limitacoes no alcance global dos dois
algoritmos.
Uma questao pertinente ocorre quando se observa a flexibilidade de que os dois algo-
ritmos dao mostra no caso Euclidiano. Constata-se que as componentes de cada segmento
das curvas geradas, podem ser funcoes polinomiais de grau superior e no caso do segundo
algoritmo e ate possıvel optar por solucoes de outras equacoes diferenciais lineares. Na
122
Comentarios finais
extensao dos dois algoritmos a outras variedades Riemanianas consideramos componentes
que sao arcos de geodesica, isto e, tratamos apenas o caso que corresponde em espacos
Euclidianos a utilizacao de segmentos de recta. A extensao da flexibilidade demonstrada
a outras variedades Riemanianas pressupoe uma generalizacao adequada do conceito de
funcao polinomial. Recorde-se que Camarinha, Silva Leite e Crouch, em [14], apresen-
taram uma definicao de polinomio de grau superior em variedades Riemanianas, usando
uma abordagem variacional, mas nao conseguiram concretizar expressoes explıcitas para
as curvas geradas. Recentemente, Huper e Silva Leite [33] deram uma nova definicao de
polinomio em variedades Riemanianas, mergulhadas num espaco Euclidiano de dimensao
apropriada, que reduz substancialmente a complexidade da abordagem variacional. Alem
disso, tambem apresentaram um algoritmo para a geracao de curvas interpoladoras suaves
que e simples de implementar e permite a obtencao de expressoes explıcitas para as cur-
vas geradas. Estamos certos que este novo conceito de curvas polinomiais em variedades
Riemanianas permitira estender os dois algoritmos estudados (na segunda parte) a pro-
blemas de interpolacao mais complexos.
Os comentarios que acabamos de expor dao uma ideia dos muitos caminhos que
podemos optar por percorrer no futuro imediato.
123
Referencias bibliograficas
[1] Andrei A. Agrachev and Yuri L. Sachkov. Control theory from the geometric view-
point, volume 87 of Encyclopaedia of Mathematical Sciences. Springer-Verlag, Berlin,
2004. citado na p. 74
[2] J. H. Ahlberg, E. N. Nilson, and J. L. Walsh. Fundamental properties of generalized
splines. Proc. Nat. Acad. Sci. U.S.A., 52:1412–1419, 1964. citado nas pp. 3, 16 e 30
[3] J. H. Ahlberg, E. N. Nilson, and J. L. Walsh. The theory of splines and their
applications. Academic Press, New York, 1967. citado nas pp. 3 e 30
[4] Claudio Altafini. The De Casteljau algorithm on SE(3). In Nonlinear control in the
year 2000, Vol. 1 (Paris), volume 258 of Lecture Notes in Control and Inform. Sci.,
pages 23–34. Springer, London, 2001. citado na p. 6
[5] Tom M. Apostol. Calculus. Vol. I: One-variable calculus, with an introduction to
linear algebra. Second edition. John Wiley & Sons Inc., 1967. citado na p. 30
[6] Tom M. Apostol. Calculus. Vol. II: Multi-variable calculus and linear algebra, with
applications to differential equations and probability. Second edition. John Wiley &
Sons Inc., 1969. citado na p. 30
[7] V. I. Arnold. Mathematical methods of classical mechanics. Springer-Verlag, New
York, 1978. Translated from the Russian by K. Vogtmann and A. Weinstein, Grad-
uate Texts in Mathematics, 60. citado nas pp. 30 e 74
[8] S. Barnett. Matrices in control theory. Van Nostrand Reinhold Co., 1971. With
applications to linear programming. citado nas pp. 51 e 52
[9] V. G. Boltyanskii. Mathematical methods of optimal control. Holt, Rinehart and
Winston, Inc., New York, 1971. Translated from the Russian by K. N. Trirogoff.
Edited by Ivin Tarnove, Balskrishnan-Neustadt Series. citado na p. 52
[10] William M. Boothby. An introduction to differentiable manifolds and Riemannian
geometry. Academic Press, 1975. Pure and Applied Mathematics, No. 63. citado
nas pp. 55, 56, 62 e 73
125
Referencias bibliograficas
[11] R. W. Brockett and M. D. Mesarovic. The reproducibility of multivariable systems.
J. Math. Anal. Appl., 11:548–563, 1965. citado na p. 30
[12] R. W. Brockett. Finite dimensional linear systems. Series in Decision and Control.
John Wiley & Sons Inc,, 1970. citado na p. 30
[13] Francesco Bullo and Andrew D. Lewis. Geometric control of mechanical systems,
volume 49 of Texts in Applied Mathematics. Springer-Verlag, New York, 2005. citado
na p. 74
[14] M. Camarinha, F. Silva Leite, and P. Crouch. Splines of class Ck on non-Euclidean
spaces. IMA J. Math. Control Inform., 12(4):399–410, 1995. citado nas pp. 6 e 123
[15] M. Camarinha. A geometria dos polinomios cubicos em variedades Riemannianas.
PhD thesis, Universidade de Coimbra, 1996. citado na p. 6
[16] J. Cardoso. Logaritmos de matrizes - aspectos teoricos e numericos. PhD thesis,
Universidade de Coimbra, Dezembro 2003. citado na p. 119
[17] Earl A. Coddington and Norman Levinson. Theory of ordinary differential equations.
McGraw-Hill Book Company, Inc., New York-Toronto-London, 1955. citado nas
pp. 12 e 14
[18] P. Crouch and J. Jackson. Dynamic interpolation for linear-systems. In Proceedings
of the 29th IEEE conference on decision and control, pages 2312–2314, Honolulu,
Hawaii, 1990. citado nas pp. 1 e 4
[19] P. Crouch, G. Kun, and F. Silva Leite. De Casteljau algorithm for cubic polynomials
on the rotation group. In Proceedings of the 2nd Portuguese Conference on Auto-
matic Control, pages 547–552, Porto, Portugal, September 1996. citado nas pp. 6,
76, 81 e 94
[20] P. Crouch, G. Kun, and F. Silva Leite. The De Casteljau algorithm on Lie groups
and spheres. J. Dynam. Control Systems, 5(3):397–429, 1999. citado nas pp. 6, 76,
81 e 94
[21] P. Crouch and F. Silva Leite. Geometry and the dynamic interpolation problem. In
Proceedings of the American Control Conference, pages 1131–1136, Boston, USA,
1991. citado na p. 6
[22] P. Crouch and F. Silva Leite. The dynamic interpolation problem: on Riemannian
manifolds, Lie groups, and symmetric spaces. J. Dynam. Control Systems, 1(2):177–
202, 1995. citado na p. 6
[23] F. R. Dias Agudo. Analise Real, volume III. Escolar Editora, 1992. citado na p. 30
126
Referencias bibliograficas
[24] Manfredo Perdigao do Carmo. Geometria riemanniana, volume 10 of Projeto
Euclides. Instituto de Matematica Pura e Aplicada, Rio de Janeiro, 1979. citado
nas pp. 59, 60, 61, 63 e 73
[25] Magnus Egerstedt and Clyde F. Martin. Optimal trajectory planning and smoothing
splines. Automatica, 37(7):1057–1064, 2001. citado na p. 4
[26] Magnus Egerstedt and Clyde Martin. Statistical estimates for generalized splines.
ESAIM Control Optim. Calc. Var., 9:553–562 (electronic), 2003. citado na p. 4
[27] Magnus B. Egerstedt and Clyde F. Martin. A note on the connection between Bezier
curves and linear optimal control. IEEE Trans. Automat. Control, 49(10):1728–1731,
2004. citado na p. 122
[28] Gerald Farin. Curves and surfaces for computer-aided geometric design. Computer
Science and Scientific Computing. Academic Press Inc., San Diego, CA, fourth edi-
tion, 1997. citado na p. 76
[29] J. Gallier and D. Xu. Computing exponentials of skew-symmetric matrices and log-
arithms of orthogonal matrices. International Journal of Robotics and Automation,
17(4):1–11, 2002. citado na p. 119
[30] R. V. Gamkrelidze. Discovery of the maximum principle. J. Dynam. Control Sys-
tems, 5(4):437–451, 1999. citado na p. 52
[31] I. M. Gelfand and S. V. Fomin. Calculus of variations. Revised English edition
translated and edited by Richard A. Silverman. Prentice-Hall Inc., Englewood Cliffs,
N.J., 1963. citado na p. 30
[32] Sigurdur Helgason. Differential geometry, Lie groups, and symmetric spaces, vol-
ume 80 of Pure and Applied Mathematics. Academic Press Inc., 1978. citado nas
pp. 68 e 74
[33] Knut Huper and F. Silva Leite. On the geometry of rolling and interpolation curves
on Sn, SO(n) and Graßmann manifolds. Accepted for publication in Journal of
Dynamical and Control Systems, 2006. citado na p. 123
[34] Alberto Isidori. Nonlinear control systems. Communications and Control Engineer-
ing Series. Springer-Verlag, Berlin, third edition, 1995. citado na p. 74
[35] J. Jackson and P. Crouch. Dynamic interpolation and application to flight control.
Journal of guidance control and dynamics, 14(4):814–822, 1991. citado nas pp. 1 e 4
[36] Janusz Jakubiak, Fatima Silva Leite, and Rui C. Rodrigues. A two-step algorithm
of smooth spline generation on Riemannian manifolds. J. Comput. Appl. Math.,
194(2):177–191, 2006. citado nas pp. ix e 119
127
Referencias bibliograficas
[37] T. Kailath. Linear systems. Prentice-Hall Inc., 1980. Prentice-Hall Information and
System Sciences Series. citado na p. 30
[38] R. E. Kalman. Contributions to the theory of optimal control. Bol. Soc. Mat.
Mexicana (2), 5:102–119, 1960. citado nas pp. 46 e 52
[39] E. Kreindler and P. E. Sarachik. On the concepts of controllability and observability
of linear systems. IEEE Trans. Automatic Control, AC-9:129–136, 1964. citado na
p. 30
[40] Jack B. Kuipers. Quaternions and rotation sequences. Princeton University Press,
Princeton, NJ, 1999. citado na p. 73
[41] Peter Lancaster and Leiba Rodman. Algebraic Riccati equations. Oxford Science
Publications. The Clarendon Press Oxford University Press, New York, 1995. citado
na p. 50
[42] David G. Luenberger. Optimization by vector space methods. John Wiley & Sons
Inc., New York, 1969. citado na p. 30
[43] David G. Luenberger. Introduction to dynamic systems. Theory, models, and appli-
cations. John Wiley & Sons Inc., 1979. citado na p. 30
[44] L. Machado. Problemas de mınimos quadrados em variedades Riemannianas. PhD
thesis, Universidade de Coimbra, 2005. citado na p. 4
[45] C. F. Martin, Shan Sun, and M. Egerstedt. Optimal control, statistics and path plan-
ning. Math. Comput. Modelling, 33(1-3):237–253, 2001. Computation and control,
VI (Bozeman, MT, 1998). citado na p. 4
[46] Clyde Martin, Per Enqvist, John Tomlinson, and Zhimin Zhang. Linear control
theory, splines and interpolation. In Computation and control, IV (Bozeman, MT,
1994), volume 20 of Progr. Systems Control Theory, pages 269–287. Birkhauser
Boston, Boston, MA, 1995. citado nas pp. 4, 22, 26 e 30
[47] G. Micula. A variational approach to spline functions theory. Rend. Sem. Mat.
Univ. Politec. Torino, 61(3):209–227 (2004), 2003. Splines, radial basis functions
and applications. citado na p. 30
[48] J. Milnor. Morse theory. Based on lecture notes by M. Spivak and R. Wells. Annals
of Mathematics Studies, No. 51. Princeton University Press, Princeton, N.J., 1963.
citado nas pp. 60, 61, 62, 63 e 73
[49] Richard N. Murray, Ze Xiang Li, and S. Shankar Sastry. A mathematical introduction
to robotic manipulation. CRC Press, Boca Raton, FL, 1994. citado nas pp. 74 e 100
128
Referencias bibliograficas
[50] Lyle Noakes, Greg Heinzinger, and Brad Paden. Cubic splines on curved spaces.
IMA J. Math. Control Inform., 6(4):465–473, 1989. citado nas pp. 5 e 6
[51] F. C. Park and B. Ravani. Bezier curves on Riemannian manifolds and Lie groups
with kinematic applications. ASME Journal of Mechanical Design, 117:36–40, 1995.
citado nas pp. 6, 76, 81 e 94
[52] Enid R. Pinch. Optimal control and the calculus of variations. Oxford Science
Publications. Oxford University Press, 1993. citado na p. 52
[53] L. S. Pontryagin, V. G. Boltyanskii, R. V. Gamkrelidze, and E. F. Mishchenko. The
mathematical theory of optimal processes. Translated from the Russian by K. N.
Trirogoff; edited by L. W. Neustadt. Interscience Publishers John Wiley & Sons,
Inc. New York-London, 1962. citado nas pp. 39 e 52
[54] P. M. Prenter. Splines and variational methods. Wiley-Interscience [John Wiley &
Sons], New York, 1975. Pure and Applied Mathematics. citado nas pp. 15 e 30
[55] William T. Reid. A matrix differential equation of Riccati type. Amer. J. Math.,
68:237–246, 1946. citado na p. 51
[56] Maria Isabel Ribeiro. Analise de sistemas lineares, volume 1 of Coleccao ensino da
ciencia e da tecnologia. IST Press, 2002. citado na p. 30
[57] Maria Isabel Ribeiro. Analise de sistemas lineares, volume 2 of Coleccao ensino da
ciencia e da tecnologia. IST Press, 2002. citado na p. 30
[58] Rui C. Rodrigues, F. Silva Leite, and Janusz Jakubiak. A new geometric algorithm
to generate smooth interpolating curves on Riemannian manifolds. LMS J. Comput.
Math., 8:251–266 (electronic), 2005. citado nas pp. ix e 100
[59] Rui C. Rodrigues, F. Silva Leite, and Silverio Rosa. On the generation of a trigono-
metric interpolating curve in R3. In Proceedings of the 11th International Confer-
ence on Advanced Robotics, ICAR2003, Coimbra, Portugal, 2003. CD-ROM paper
N1629.PDF. citado nas pp. 7 e 101
[60] Rui C. Rodrigues, F. Silva Leite, and C. Simoes. Generalized splines and optimal
control. In Proceedings of the European Control Conference, ECC’99, Karlsruhe,
Germany, 1999. CD-ROM paper F0259.PDF. citado nas pp. 4, 22, 26 e 30
[61] Rui C. Rodrigues and F. Silva Leite. L-splines – a manifestation of optimal control.
IMA J. Math. Control Inform., 19(3):313–324, 2002. citado nas pp. ix e 29
[62] Rui C. Rodrigues and F. Silva Leite. A multi-input/multi-output system repre-
sentation of generalized splines in Rn. Pre-publicacao 02-13, Departamento de
Matematica, Universidade de Coimbra, 2002. citado na p. 51
129
Referencias bibliograficas
[63] Rui C. Rodrigues and F. Silva Leite. A new geometric algorithm to generate spline
curves. In Proceedings of the Sixteenth International Symposium on: Mathematical
Theory of Networks and Systems (MTNS2004), Leuven, Belgium, 2004. CD-ROM
paper 311.PDF. citado na p. 100
[64] Rui C. Rodrigues and F. Silva Leite. An optimal control problem for splines associ-
ated to linear differential operators. In Proceedings of the 7th Portuguese Conference
on Automatic Control - CONTROLO’2006, Lisboa, Portugal, 2006. citado nas pp. ix
e 29
[65] Rui C. Rodrigues and Delfim F. M. Torres. Generalized splines in Rn and optimal
control. Rend. Semin. Mat. Univ. Politec. Torino, 64(1):63–78, 2006. citado nas
pp. ix e 51
[66] Rui C. Rodrigues. Splines e controlo optimal. Master’s thesis, Universidade de
Coimbra, Outubro 1998. citado nas pp. 4, 22, 26 e 30
[67] Rui C. Rodrigues. An optimal control approach of L-spline functions. In Proceedings
of the student forum - European Control Conference, ECC’01, Porto, Portugal, 2001.
citado na p. 29
[68] Wilson J. Rugh. Linear system theory. 2nd ed. Prentice Hall, 1996. citado na p. 30
[69] D. H. Sattinger and O. L. Weaver. Lie groups and algebras with applications to
physics, geometry, and mechanics, volume 61 of Applied Mathematical Sciences.
Springer-Verlag, New York, 1986. citado nas pp. 71 e 74
[70] M. H. Schultz and R. S. Varga. L-splines. Numer. Math., 10:345–369, 1967. citado
nas pp. 3, 11, 12, 13 e 30
[71] F. Silva Leite and P. Crouch. Closed forms for the exponential mapping on matrix
Lie groups based on Putzer’s method. J. Math. Phys., 40(7):3561–3568, 1999. citado
na p. 119
[72] Michael Spivak. Calculus on manifolds. A modern approach to classical theorems of
advanced calculus. W. A. Benjamin, Inc., 1965. citado na p. 73
[73] Michael Spivak. A comprehensive introduction to differential geometry. Vol. I. Pub-
lish or Perish Inc., third edition, 1999. citado na p. 73
[74] Shan Sun, Magnus B. Egerstedt, and Clyde F. Martin. Control theoretic smoothing
splines. IEEE Trans. Automat. Control, 45(12):2271–2279, 2000. citado na p. 4
[75] H. J. Sussmann and J. C. Willems. 300 years of optimal control: from the brachys-
tochrone to the maximum principle. IEEE Control Systems, pages 32–44, 1997.
citado na p. 52
130
Referencias bibliograficas
[76] Marta Szilvasi-Nagy and Terez P. Vendel. Generating curves and swept surfaces by
blended circles. Comput. Aided Geom. Design, 17(2):197–206, 2000. citado na p. 6
[77] Francoise Tisseur and Karl Meerbergen. The quadratic eigenvalue problem. SIAM
Rev., 43(2):235–286, 2001. citado na p. 33
[78] Milos Zefran, Vijay Kumar, and Christopher Croke. On the generation of smooth
three-dimensional rigid body motions. IEEE Transactions on Robotics and Automa-
tion, 14(4):576–589, 1998. citado na p. 5
[79] Grace Wahba. Spline models for observational data, volume 59 of CBMS-NSF Re-
gional Conference Series in Applied Mathematics. Society for Industrial and Applied
Mathematics (SIAM), Philadelphia, PA, 1990. citado na p. 4
[80] Zhimin Zhang, John Tomlinson, and Clyde Martin. Splines and linear control theory.
Acta Appl. Math., 49(1):1–34, 1997. citado nas pp. 22, 26 e 30
131
Indice alfabetico
A
adV , 71
Agrachev, 125
Ahlberg, 125
algebra de Lie, 65
algebra de Lie de matrizes, 69
algebra de Lie de um grupo de Lie, 67
algoritmo com dois passos
componente direita, 104
componente esquerda, 104
em grupos de Lie matriciais, 110
na esfera n-dimensional, 114
primeiro passo, 104
segundo passo, 105
algoritmo com tres passos
componente direita, 84
componente esquerda, 84
componente intermedia, 84
em grupos de Lie matriciais, 93
primeiro passo, 84
segundo passo, 84
terceiro passo, 85
algoritmo de De Casteljau, 76
curva de Bezier, 79
descricao geral, 79
em variedades Riemanianas
completas, 81
pontos de suporte, 77, 81
Altafini, 125
aplicacao exponencial
num grupo de Lie, 68
de matrizes, 69
numa variedade Riemaniana, 62
aplicacao logaritmo
num grupo de Lie, 68
de matrizes, 69
aplicacao translacao a direita, 66
aplicacao translacao a esquerda, 66
Apostol, 125
arco de geodesica, 61
Arnold, 125
B
Barnett, 125
Boltyanskii, 125, 129
Boothby, 125
Brockett, 126
Bullo, 126
C
C k[a, b], 11, 32
C∞(M), 55
cırculos maximos, 64
Camarinha, 126
campo de vectores, 55
completo, 56
invariante a direita, 66
num grupo de Lie de matrizes, 70
invariante a esquerda, 66
num grupo de Lie de matrizes, 70
suave, 55
campo de vectores ao longo
de uma curva suave, 59
induzido, 59
paralelo, 60
133
Indice alfabetico
Cardoso, 126
Coddington, 126
comprimento de arco de uma curva, 58
comutador de matrizes, 69
conexao afim numa variedade suave, 59
compatıvel, 60
de Levi-Civita ou Riemaniana, 60
simetrica, 60
conjunto de controlos admissıveis, 20, 39
Croke, 131
Crouch, 126, 127, 130
curva de Bezier, 79
curva integral, 56
curva parametrizada
por comprimento de arco, 58
curva seccionalmente suave, 63
curva suave, 56
D
∆, ver particao de um intervalo realDdt
, 59
dFq, 57
δJ , ver variacao de Gateaux
δy, ver variacao admissıvel
Dk, 11, 32
De Casteljau, 76
derivada covariante, 59
Dias Agudo, 126
difeomorfismo, 56
diferencial num ponto, 57
dimensao de um grupo de Lie, 66
dimensao de uma algebra de Lie, 65
do Carmo, 127
E
expq, 62
expq(tv), 62
exp, 68
Egerstedt, 127, 128, 130
Enqvist, 128
equacao algebrica de Riccati, 50
equacao diferencial matricial de Riccati, 51
esfera n-dimensional, 57
espaco tangente num ponto, 55, 56
num grupo de Lie de matrizes, 70
F
Farin, 127
fibrado tangente, 55
fluxo de um campo de vectores, 56
Fomin, 127
funcao suavizante de ordem k, 82
de ordem k = 1, 82
funcao polinomial, 83
G
G, ver grupo de Lie
g, ver algebra de Lie de um grupo de Lie
GL(n), 68
gl(n), 68
Gallier, 127
Gamkrelidze, 127, 129
Gelfand, 127
geodesica, 61
geodesica minimal, 63
geodesica na esfera n-dimensional, 64, 73
geodesica num grupo de Lie
conexo e compacto, 72
geodesicamente completa, 63
grupo de Lie, 65
campo de vectores
invariante a direita, 66
invariante a esquerda, 66
metrica Riemaniana
bi-invariante, 66
invariante a direita, 66
invariante a esquerda, 66
translacao a direita, 66
translacao a esquerda, 66
grupo de Lie abeliano, 66
grupo de Lie das rotacoes no espaco, 69
grupo de Lie de matrizes, 69
134
Indice alfabetico
grupo ortogonal especial, 69
H
Heinzinger, 129
Helgason, 127
homeomorfismo, 57
homomorfismo de algebras de Lie, 71
homomorfismo de grupos de Lie, 67
Huper, 127
I
identidade de Lagrange, 14
generalizacao, 34
imersao, 57
Isidori, 127
isometria, 58
J
Jackson, 126, 127
Jakubiak, 127, 129
K
Kk[a, b], 12
Kailath, 128
Kalman, 128
ker, 14
Kreindler, 128
Kuipers, 128
Kumar, 131
Kun, 126
L
L, 11, 16, 19, 32
L∗, 12, 17, 32
Lg, ver aplicacao translacao a esquerda
l(γ), 58
log, 68
L-spline, 12
L-spline (de tipo I), 13
L-spline interpolador, 13
Lancaster, 128
Levinson, 126
Lewis, 126
Li, 128
Luenberger, 128
M
M , 55, 60, 63, 75, 103
metrica Riemaniana, 58
Machado, 128
Martin, 127, 128, 130, 131
Meerbergen, 131
mergulho, 57
Mesarovic, 126
Micula, 128
Milnor, 128
Mishchenko, 129
Murray, 128
N
∇, ver conexao afim
∇XY , 59
Nilson, 125
Noakes, 129
O
Ω, 16, 32
ΩA, 17, 37
operador diferencial
invariante no tempo, 16, 19
variante no tempo, 11, 32
operador diferencial adjunto
invariante no tempo, 17
variante no tempo, 12, 32
output controllability, 25
ΩLA(t), 71
ΩRA(t), 71
P
(P ), 38, 75, 103
(P ∗), 42
(Pce), 24
(Pc), 20
135
Indice alfabetico
(Pv), 17, 37
[·, ·], ver produto de Lie
Paden, 129
Park, 129
particao de um intervalo real, 12, 16, 19, 32
Pinch, 129
PMP, 39
pontos antıpodas, 64
Pontryagin, 129
Prenter, 129
princıpio do maximo de Pontryagin, 39
condicao de maximo, 39
extremal de Pontryagin, 39
anormal, 40
normal, 40
funcao Hamiltoniana, 40
sistema adjunto, 39
sistema Hamiltoniano, 39
problema
de controlo optimal, 20, 24, 26, 38–40
linear-quadratico, 42
do calculo das variacoes, 17, 37, 83
problema de interpolacao
em variedades Riemanianas, 75, 103
produto de Lie, 65, 67, 69
Q
q.t.p., 20
R
Rg, ver aplicacao translacao a direita
Ravani, 129
Reid, 129
representacao de entrada-saıda, 20
representacao de estado, 22
representacao de estado minimal, 22
Ribeiro, 129
Rodman, 128
Rodrigues, 127, 129, 130
Rosa, 129
Rugh, 130
S
Sn, ver esfera n-dimensional
SO(n), ver grupo ortogonal especial
so(n), 69
SO(3), 100
SE(3), 100
Sachkov, 125
Sarachik, 128
Sastry, 128
Sattinger, 130
Schultz, 130
segmento de geodesica, 61
Silva Leite, 126, 127, 129, 130
Simoes, 129
sistema de controlo
equacao de estado, 22
equacao de saıda, 22
modelo de entrada-saıda, 20
modelo de estado, 22
SISO, 20
Spivak, 130
spline
segmento de um spline, 12
valores de fronteira, 13, 33
valores de interpolacao, 13, 33
spline generalizado em Rn, 32
spline generalizado escalar, 16
subalgebra de Lie, 68
subgrupo com um-parametro, 67
subgrupo de Lie, 68
subvariedade, 57
imersa, 57
mergulhada, 57
Sun, 128, 130
Sussmann, 130
Szilvasi-Nagy, 131
T
TM , 55
TqM , 55, 56
136
Indice alfabetico
(TqSO(n))⊥, 70
Tisseur, 131
Tomlinson, 128, 131
Torres, 130
U
U , 20, 39, 42
V
Varga, 130
variaveis de fase, 24
variacao admissıvel, 17, 37
variacao de Gateaux, 17, 37
variedade, 55
suave, 55
variedade Riemaniana, 58
vector de incidencia
de uma particao, 12, 16, 19
vector tangente num ponto, 55
Vendel, 131
W
Wahba, 131
Walsh, 125
Weaver, 130
Whitney, 57
Willems, 130
X
Xq, 55
X(M), 55, 65
Xu, 127
Z
Z, ver vector de incidencia de uma particao
Zefran, 131
Zhang, 128, 131
137