Algebra e Matrizes Hamilton

310
“ALinear” — 2005/12/19 — 13:25 — page i — #1 Em memória de Eliana Farias Bueno. Inesquecível esposa, eterna amiga. Miriam, Claudia und Georg Müller gewidmet.

Transcript of Algebra e Matrizes Hamilton

Page 1: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page i — #1i

i

i

i

i

i

Em memória deEliana Farias Bueno.Inesquecível esposa,

eterna amiga.

Miriam, Claudia und Georg Müllergewidmet.

Page 2: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page ii — #2i

i

i

i

i

i

Page 3: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page iii — #3i

i

i

i

i

i

Prefácio

Este texto é dirigido a alunos de um segundo curso de Álgebra Linear. Apesarde todos os conceitos estarem definidos, noções básicas sobre o espaçoRn sãosupostas conhecidas e, portanto, têm apresentação concisa. São utilizados algunsresultados elementares do cálculo diferencial e da teoria de funções em uma variávelcomplexa.

Com o ponto de vista da Análise Matemática, o livro oferece um tratamentomoderno para temas básicos da Álgebra Linear e pode ser lido com diversos grausde aprofundamento, destinando-se tanto a alunos que ainda estão aprendendo oformalismo da linguagem matemática como também àqueles mais avançados, quepretendem consolidar e ampliar seus conhecimentos sobre o assunto.

A primeira versão deste texto surgiu como uma adaptação de parte de um livroque considero uma obra-prima: o texto de P. Lax, "Linear Algebra" [20], cujainfluência não é dissimulada.

Decidi adaptar o texto de Lax quando senti a dificuldade de meus alunosem acompanhá-lo. Alterei demonstrações e o ordenamento do texto, salientei asdiferenças entre espaços reais e complexos, esmiucei certas passagens e inserialguns tópicos complementares, sempre visando tornar o texto menos denso. Após autilização dessa adaptação por mim e outros professores, resolvi fazer modificaçõesmais profundas, enfatizando um tópico que tradicionalmente é ignorado nos textosde Álgebra Linear: as assim chamadas funções de matrizes, que são matrizesoriginadas por funçõesf : U ⊂ C → C, tais comoAk, A−1, senA ou mesmoo fluxo eAt. Usualmente restringe-se a apresentação dessas ao caso de polinômiosde uma matriz quadrada ou então, se a matrizA for simétrica eA = P−1DP comD diagonal, define-sef(A) porP−1f(D)P , em quef(D) é obtida ao se avaliarfem cada uma das entradas diagonais deD.

A apresentação de funções de matrizes pode ser sintetizada como sendo umageneralização da versão em dimensão finita do cálculo funcional de Dunford-Schwartz [8] e já era conhecida por Gantmacher [9]. Ela é simples e tem conse-qüências notáveis:f(A) é sempre um polinômio na matrizA (com coeficientesdependendo da funçãof ), que pode ser facilmente obtido, se forem conhecidos os

iii

Page 4: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page iv — #4i

i

i

i

i

i

autovalores deA e suas multiplicidades. Essa abordagem, uma técnica corriqueirana Álgebra Linear Numérica, tem sido esquecida nos textos deÁlgebra Linear.Livros bem reputados (veja [15], [16], [19], [33]) e até mesmo tratados maisavançados (como [3], [25] ou o próprio texto de Lax [20]) apenas mencionam ocálculo funcional de matrizes simétricas. Assim, o presente texto também tem aintenção de contribuir para uma reavaliação do cálculo funcional na Álgebra Linearbásica e, como conseqüência, mostrar que o tratamento funcional do fluxoeAt ébem mais simples do que por meio da forma canônica de Jordan.

O cálculo funcional, mais do que uma simples ferramenta computacional, temimplicações teóricas importantes. A demonstração do Teorema da DecomposiçãoPrimária no caso complexo (que Lax denomina "Spectral Theorem") é feita pormeio dessa técnica, que não pressupõe conhecimento de resultados da Álgebra.

Inseri também seções devotadas a outras decomposições matriciais: LU ,Decomposição de Aplicações em Valores Singulares, Cholesky, Schur eQR,resultados constantes de qualquer curso de Álgebra Linear Numérica. (O livro deLax contém um capítulo mais avançado sobre a resolução de sistemas lineares.)

Com a introdução de diversas modificações no livro de Lax, ousoapresentá-lo como uma obra independente. Mas, Lax é oghostwriter, cujo nome está aquiausente porque este texto está muito aquém dos méritos daquele. Assim, as falhasdeste são de minha inteira responsabilidade.

O presente texto cobre todo o espectro básico da Álgebra Linear: espaçosvetoriais e bases, o espaço dual, aplicações lineares e suasrepresentações matri-ciais, determinantes, a decomposição primária, a forma canônica de Jordan e adecomposição racional (de Frobenius), espaços euclidianos, formas quadráticas,diagonalização de operadores normais (e, com isso, operadores unitários e orto-gonais) e, finalmente, algumas outras decomposições matriciais.

O estilo adotado no texto é formal: os resultados são apresentados como lemas,proposições, teoremas etc. Acho-o apropriado para alunos que dão seus primeirospassos no formalismo da linguagem matemática.

A linguagem utilizada é, intencionalmente, abstrata e concisa. Não creio serproveitoso, nesse nível, continuar explorando uma abordagem mais direta e evitarassim a abstração. Nas palavras de Lax, os alunos não devem ser excluídos doparaíso criado por Emmy Noether e Emil Artin.

A apresentação concisa reduz o espaço para exemplos, especialmente emtópicos mais básicos. Os exemplos estão confinados a assuntos que julgo seremmais pertinentes a um segundo curso de Álgebra Linear.

Os exercícios, no final de cada capítulo, variam desde aplicações corriqueiras

Page 5: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page v — #5i

i

i

i

i

i

da teoria até a apresentação de resultados mais refinados, com demonstrações maiselaboradas. Alguns desses exercícios estão presentes em vários textos de ÁlgebraLinear, outros foram formulados por mim mesmo. Algumas vezes esses exercícios– especialmente em tópicos básicos – introduzem notações e conceitos que serãousados livremente no resto do texto. Outros exercícios indicam demonstraçõesalternativas de resultados expostos. Finalmente, outros complementam o materialapresentado, sugerindo generalizações.

Uma observação importante: o conteúdo deste texto terá uma continuidadenatural em um livro de introdução à Análise Funcional. Esse último, escrito emconjunto com Antônio Zumpano e Grey Ercole, encontra-se redigido e em processode revisão.

Faço alguns comentários sobre os capítulos da presente obra.O Capítulo 1 introduz espaços vetoriais e bases. Os espaços vetoriais são

considerados apenas sobre os corposR ou C, o que é coerente com a linhageral do texto, que é voltada para a área de Análise Matemática. Geralmente,os alunos que assistem ao curso, na UFMG, não possuem formação em Álgebra.Isso tornou necessária uma apresentação detalhada do espaço quociente. Apesardisso, é bom salientar que o espaço quociente é usado apenas duas vezes: uma nademonstração do Teorema do Núcleo e da Imagem (que também possui uma provaalternativa, sem o uso desse conceito) e outra na demonstração da forma canônicade Jordan (Seção 7.4), apenas como uma notação adequada. A utilização do espaçoquociente na prova do Teorema do Núcleo e da Imagem unifica conceitos: a mesmademonstração repete-se no estudo de outras estruturas algébricas. (Saliento que oprofessor, se assim o desejar, pode não apresentar o espaço quociente e substituí-lopor meio do isomorfismo introduzido no Teorema 1.29.)

O Capítulo 2 trata do espaço dual e apresenta uma primeira versão do Teoremade Representação de Riesz (para espaços de dimensão finita). Geralmente o duale o bidual são apresentados após a introdução de espaços de aplicações lineares,como casos particulares desses. O texto inverte essa ordem para dar um segundoexemplo de isomorfismo canônico entre espaços vetoriais (o primeiro é dado noTeorema 1.29). Entretanto, os alunos normalmente acham esse capítulo muitoabstrato. O professor pode optar por não apresentá-lo ou simplesmente protelarsua apresentação.

O Capítulo 3 começa por mostrar que a definição de multiplicação de matrizesé uma conseqüência natural da composição de aplicações lineares. Nesse capítulotambém são tratados outros tópicos fundamentais de um cursode Álgebra Linear:matrizes e representações de aplicações lineares, sistemas lineares, espaço linha e

Page 6: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page vi — #6i

i

i

i

i

i

espaço coluna, núcleo e imagem de uma aplicação linear etc. Grande ênfase é dadaàs matrizes de mudança de base (a rigor,mudança de coordenadas), pois entendoque o tratamento clássico – por meio damatriz de passagem– mais confunde doque esclarece. Se o professor optar por evitar a introdução do espaço quociente,o Teorema do Núcleo e da Imagem pode, ainda assim, ser enunciado como umteorema de isomorfismo, por meio da utilização do Exercício 16 do Capítulo 3.

O Capítulo 4 aborda a teoria de determinantes. Os textos de Álgebra Linearnormalmente enfrentam um dilema ao tratá-los: ou apresentam a "teoria completa"de permutações e do sinal de uma permutação, segundo métodosque,stricto sensu,fogem ao escopo da Álgebra Linear, ou preferem introduzir brevemente essestópicos, remetendo aos textos de Álgebra a demonstração dosresultados utilizados.Isso causa um certo desconforto, evidenciado na observaçãofeita por Lang na seçãosobre permutações da primeira edição de seu texto de ÁlgebraLinear [19]: "Aoleitor que for alérgico a argumentos combinatórios, aconselhamos assimilar apenaso enunciado das propriedades e omitir as demonstrações." A apresentação escolhidapara determinantes supera esse dilema: a teoria de permutações e do sinal de umapermutação é apresentada segundo métodos da Álgebra Linear, como conseqüênciado material exposto.

No Capítulo 5 são introduzidos os autovalores e autovetores de um operador,bem como o polinômio mínimo e o Teorema de Cayley-Hamilton, aqui demons-trado de um modo bastante simples. Também é estudada a complexificação de umespaço vetorial.

Apesar de incluírem a apresentação do espaço quociente e da complexificaçãode um espaço vetorial – tópicos que, normalmente, não são vistos em um primeirocurso de Álgebra Linear –, os Capítulos 1-5 formam a parte básica do curso.

O Capítulo 6 introduz o cálculo funcional. (Se o professor julgar que seus alunosnão possuem os conhecimentos necessários para a leitura desse Capítulo, ele podeoptar entre uma apresentação "operacional" do mesmo ou seguir algum dos roteirosalternativos, que serão descritos posteriormente.) A Seção 6.3 é relativamentemais avançada, consideradas as noções de topologia empregadas para se mostrara "estabilidade" do método que fundamenta o cálculo funcional. Entretanto, essaspreocupações não são essenciais, e o professor pode apenas mostrar o isomorfismode álgebras, sem preocupações com a estabilidade do método.A Seção 6.4dá exemplos do emprego do cálculo funcional: o fluxo de uma matriz, funçõestrigonométricas etc.

O Capítulo 7 apresenta a decomposição primária, a forma canônica de Jordane a decomposição racional. O cálculo funcional mostra o Teorema da Imagem do

Page 7: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page vii — #7i

i

i

i

i

i

Espectro ("Spectral Mapping Theorem") e o Teorema da Decomposição Primária nocaso complexo – denominado Teorema Espectral. (A demonstração desse resultadoé um pouco abstrata). A forma de Jordan é demonstrada a partirdo TeoremaEspectral 7.2. A construção é muito simples e descrita minuciosamente por meiode vários exemplos. Minha experiência didática mostra que esse trajeto é preferívela uma abordagem direta da forma de Jordan, como aquela presente no ApêndiceD. Em primeiro lugar, porque o Teorema Espectral é suficientepara grande partedas necessidades teóricas da Álgebra Linear; mas também porque o problema de seobter uma base na qual um operador assume uma forma simples é introduzido aospoucos, dando tempo para o aluno maturar essa questão. A versão real do TeoremaEspectral – isto é, a decomposição primária – e a forma de Jordan real são obtidasestudando a complexificação de um espaço real. Utilizando a forma canônica deJordan, obtemos, de maneira incomum, a decomposição racional.

Os Capítulos 6 e 7 – conjuntamente com os diversos Apêndices com elesrelacionados – apresentam o cálculo funcional e as decomposições fundamentaisválidas em espaços vetoriais arbitrários.

O Capítulo 8 introduz os espaços com produto interno. Mantenho a tradiçãobourbakista de apresentá-los apenas após o estudo de espaços vetoriais gerais.Acho que o professor deve ressaltar o aspecto geométrico introduzido com oproduto interno. Por exemplo, o processo de ortogonalização de Gram-Schmidtpode ser justificado em casos bi- e tridimensionais. Mais do que isso, no caso deespaços de dimensãon, uma representação decompondo-o em um eixo vertical eseu complementar ortogonal é adequada: muitas demonstrações podem ser, assim,geometricamente justificadas. Em coerência com o caminho voltado para a Análise,algumas propriedades da norma de uma matriz quadrada são apresentadas. Tambémsão estudadas as relações entre o núcleo e a imagem de uma aplicação linear e desua adjunta, bem como algumas propriedades básicas de isometrias.

O Capítulo 9 apresenta formas quadráticas e a Lei da Inércia. De certa forma, eleconstitui uma unidade com o Capítulo 10, que trata das principais formas canônicasem espaço com produto interno: o Teorema Espectral para operadores normais, oestudo de classes de operadores normais no caso de espaços reais e a decomposiçãode um operador em valores singulares. Decidi dividir o material em dois capítulospara tornar claro que o Capítulo 9 pode ser omitido, a critériodo instrutor.Contudo, apresentar o Teorema de Lagrange e então passar à diagonalizaçãode matrizes simétricas é uma forma de unificar conceitos que usualmente sãotratados separadamente: formas bilineares simétricas e diagonalização de matrizessimétricas. No Capítulo 10 também se demonstra que operadores auto-adjuntos são

Page 8: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page viii — #8i

i

i

i

i

i

diagonalizáveis por meio de técnicas de minimax.Algumas seções do Capítulo 11 – que apresenta as decomposições matriciais

de Cholesky, Schur eQR–, oferecem abordagem alternativa ou complementar aresultados apresentados nos Capítulos 8 e 10.

Agradecimentos. A lista de agradecimento é enorme e comporta grande parte demeus amigos. Para não correr o risco de esquecer alguns, destaco apenas aquelesque estiveram mais diretamente envolvidos na redação destelivro.

Ana Cristina Vieira e Paulo Antônio Fonseca Machado adotaram, em cursosque ministraram, a primeira versão deste trabalho (a adaptação do texto de Lax)e contribuíram com várias sugestões e correções. O enfoque utilizado para aapresentação de determinantes foi escolhido após várias discussões com HelderCandido Rodrigues e P. A. F. Machado. A abordagem do cálculo funcional ébaseada num texto apresentado naI Bienal da Matemática e muito deve a CarlosTomei, George Svetlichny, Eliana Farias Bueno e H. C. Rodrigues. A participaçãode H. C. Rodrigues na redação da Seção 7.6 foi decisiva. No Apêndice E seguisugestões de Mário Jorge Dias Carneiro.

O texto foi inteiramente revisto por Leopoldo Grajeda Fernandes, que contribuiucom inúmeras sugestões, abordando tanto o enfoque adotado quanto o estilode redação. Marcelo Domingues Marchesin e Carlos Henrique Costa Moreirautilizaram o texto atual em seus cursos de Álgebra Linear e sugeriram modificaçõespertinentes.

Agradeço também a vários leitores e meus alunos, em especiala LeandroMartins Cioletti, que apresentaram sugestões e críticas, todas elas bem-vindas.

Finalmente, C. Tomei é responsável por uma leitura minuciosa, sugestõesvaliosas – que procurei seguir de acordo com minha capacidade – e inúmerascríticas, todas elas muito bem fundamentadas. A principal crítica feita por Tomeidiz respeito à tradição brasileira de tratar a Álgebra Linear (justamente uma dasáreas mais aplicadas da matemática) como uma disciplina quase que exclusivamenteteórica. Esse texto não rompe com essa tradição, em parte devido ao propósito deintegrá-lo a um texto de introdução à Análise Funcional, mastambém por causa deminha inexperiência em termos de aplicações da Álgebra Linear. Nesse sentido, acrítica feita por Tomei só pode ser sanada por ele mesmo ou poroutro matemáticoque realmente entenda do assunto...

A todos, o meu muito obrigado.

Belo Horizonte, dezembro de 2005

Page 9: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page ix — #9i

i

i

i

i

i

Sumário

Prefácio ix

Quadro de Dependências xv

1 Base e Dimensão 11.1 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Somas Diretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Espaço Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Dualidade 152.1 O Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3 Aplicações Lineares 223.1 Aplicações Lineares e Matrizes - parte 1 . . . . . . . . . . . . . .. 223.2 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . . . . . . 253.3 Espaço Linha e Espaço Coluna . . . . . . . . . . . . . . . . . . . . 293.4 Resolução de Sistemas Lineares . . . . . . . . . . . . . . . . . . . 323.5 O Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . . . . 373.6 Aplicações Lineares e Matrizes - parte 2 . . . . . . . . . . . . . .. 403.7 A Transposta de uma Aplicação Linear . . . . . . . . . . . . . . . . 453.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4 Determinantes 554.1 Determinantes de Matrizes2× 2 . . . . . . . . . . . . . . . . . . . 554.2 Função Determinante . . . . . . . . . . . . . . . . . . . . . . . . . 574.3 Existência de uma Função Determinante . . . . . . . . . . . . . . .60

ix

Page 10: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page x — #10i

i

i

i

i

i

4.4 Unicidade da Função Determinante . . . . . . . . . . . . . . . . . . 614.5 Propriedades do Determinante de uma Matriz . . . . . . . . . . .. 67

4.5.1 O Determinante da Matriz Transposta . . . . . . . . . . . . 674.5.2 O Determinante do Produto de Matrizes Quadradas . . . . .68

4.6 A Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . 704.7 Matrizes Semelhantes . . . . . . . . . . . . . . . . . . . . . . . . . 724.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

5 Operadores e Polinômios 785.1 Autovetores e Autovalores . . . . . . . . . . . . . . . . . . . . . . 785.2 Subespaços Invariantes . . . . . . . . . . . . . . . . . . . . . . . . 825.3 O Polinômio Mínimo . . . . . . . . . . . . . . . . . . . . . . . . . 855.4 O Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 865.5 A Complexificação de um Espaço Vetorial . . . . . . . . . . . . . . 875.6 Um Homomorfismo de Álgebras . . . . . . . . . . . . . . . . . . . 905.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

6 O Cálculo Funcional 966.1 O Polinômio Interpolador . . . . . . . . . . . . . . . . . . . . . . . 966.2 Funções de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 1006.3 Estendendo o Homomorfismo de Álgebras . . . . . . . . . . . . . . 1036.4 Aplicações do Cálculo Funcional . . . . . . . . . . . . . . . . . . . 104

6.4.1 O Fluxo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1046.4.2 Funções Trigonométricas . . . . . . . . . . . . . . . . . . . 1086.4.3 Logaritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . 1086.4.4 Raiz Quadrada . . . . . . . . . . . . . . . . . . . . . . . . 1086.4.5 A Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

6.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

7 Teoria Espectral 1147.1 Imagem do Espectro . . . . . . . . . . . . . . . . . . . . . . . . . 1147.2 O Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . . . 1157.3 Decomposição Primária . . . . . . . . . . . . . . . . . . . . . . . . 1227.4 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . 1277.5 Forma de Jordan Real . . . . . . . . . . . . . . . . . . . . . . . . . 1367.6 Decomposição Racional . . . . . . . . . . . . . . . . . . . . . . . 1387.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Page 11: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page xi — #11i

i

i

i

i

i

8 Estrutura Euclidiana 1528.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1528.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1538.3 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . . . . . . 1568.4 Projeções Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . 1588.5 A Adjunta de uma Aplicação Linear . . . . . . . . . . . . . . . . . 1628.6 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1688.7 Operadores Lineares . . . . . . . . . . . . . . . . . . . . . . . . . 1718.8 Norma de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . 1738.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

9 Formas Sesquilineares e Quadráticas 1869.1 Formas Sesquilineares e Bilineares . . . . . . . . . . . . . . . . . .1869.2 Diagonalização de Formas Quadráticas . . . . . . . . . . . . . . .. 1909.3 A Lei da Inércia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1949.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

10 Teoria Espectral Euclidiana 20110.1 Operadores auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . 20110.2 Princípios de Minimax para os Autovalores . . . . . . . . . . .. . 20610.3 Operadores Normais . . . . . . . . . . . . . . . . . . . . . . . . . 20810.4 Operadores Normais em Espaços Reais . . . . . . . . . . . . . . . 21210.5 Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . . 21610.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

11 Decomposições Matriciais 22711.1 A Decomposição de Cholesky . . . . . . . . . . . . . . . . . . . . 22711.2 A Decomposição de Schur . . . . . . . . . . . . . . . . . . . . . . 22911.3 A DecomposiçãoQR . . . . . . . . . . . . . . . . . . . . . . . . . 23011.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234

Apêndices

A Matrizes Elementares e a DecomposiçãoLU 236A.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241

B Funções de Matrizes: Comparando Definições 242

Page 12: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page xii — #12i

i

i

i

i

i

C Decomposição Primária 246

D Forma Canônica de Jordan 252D.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

E Sistemas de Equações Diferenciais Lineares 264E.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271

F Espaços Normados 274F.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278

Lista de símbolos 280

Referências Bibliográficas 283

Índice Remissivo 287

Page 13: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page xiii — #13i

i

i

i

i

i

Quadro de Dependências

Capítulo 1

?���

Capítulo 2 - Capítulo 3 -� Apêndice A

?Capítulo 4

?Capítulo 5

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -�� @@R?Apêndice B

Capítulo 6HHY

�����*Apêndice D Apêndice C

HHj HHjHHj

Apêndice E Seção 7.1- Seção 7.2- Seção 7.4� Seção 7.3

Seção 7.5?

- Seção 7.6

���

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

?Capítulo 8 -�

���Apêndice F

?

Capítulo 9 -

?

Capítulo 10

Capítulo 11 -� Apêndice A

xiii

Page 14: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page xiv — #14i

i

i

i

i

i

Outras opções de curso.O texto foi escrito de maneira a proporcionar uma grandeflexibilidade na escolha do material a ser lecionado.

O Apêndice A é opcional, mas pode ser apresentado simultaneamente ou logoapós o Capítulo 3. (Alguns resultados sobre matrizes elementares são utilizadas nosexercícios do Capítulo 4. A decomposiçãoLU é utilizada no Capítulo 11.)

O Capítulo 2 também é opcional, bem como a Seção 3.7.O Capítulo 6 e as duas primeiras seções do Capítulo 7 expõem o cálculo

funcional. O Capítulo 6 é relativamente simples (com exceçãode parte de suaúltima seção, que pode ser omitida) e pode ser apresentado com um ponto devista operacional. A ligação entre a apresentação tradicional cálculo funcionalde matrizes simétricas e na forma canônica de Jordan com o Capítulo 6 é feitano Apêndice B, que não precisa ser exposto. O Apêndice E apresenta resultadosbásicos sobre sistemas lineares de equações diferenciais ordinárias e pode servircomo apoio para o estudo do fluxo linear, feito no Capítulo 6.

Se o professor tiver dúvidas com respeito à "maturidade matemática" de seusalunos, talvez seja recomendável omitir a Seção 7.2 e apresentar, ao invés –opçãoque não está presente no quadro de dependências–, o Apêndice C ou o ApêndiceD.

Mas, todo o cálculo funcional pode não ser exposto. Nesse caso, há duaspossibilidades: a primeira consiste em substituir o Capítulo 6 e as duas primeirasseções do Capítulo 7 pelo Apêndice C e então voltar ao texto principal no Exemplo7.10.

A outra consiste em substituir o cálculo funcional pelo Apêndice D, o quesignifica uma apreciável economia de tempo. Nesse Apêndice éfeita uma de-monstração bastante simples da forma canônica de Jordan, adaptando e comple-mentando aquela presente em Strang [33]. (Os únicos pré-requisitos para essademonstração são somas diretas de subespaços e o Teorema do Núcleo e daImagem.) Nesse caso, os resultados da Seção 7.2 serão obtidos como conseqüênciada forma de Jordan. (Apesar de a Seção 7.5 ter sido escrita enfatizando a repetiçãode métodos utilizados na Seção 7.3, o professor não terá dificuldades em apresentá-la.)

Seguindo a ordem natural do texto, a Seção 7.3 pode ser omitida; por essemotivo, a ordem natural do Capítulo 7 no quadro de dependências foi alterada.Também pode-se não apresentar a Seção 7.6, que trata da decomposição racional deFrobenius.

A apresentação do Capítulo 9 é facultativa, uma vez que a passagem direta doCapítulo 8 para o Capítulo 10 é inteiramente natural.

Page 15: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page xv — #15i

i

i

i

i

i

xv

A Seção 10.2 pode ser omitida, já que apenas apresenta uma segunda demons-tração do Teorema Espectral para operadores auto-adjuntos.

O Capítulo 11 pode não ser exposto ou então ser apresentado simultaneamentecom resultados dos Capítulos 8 e 10. Muitos dos resultados deste Capítulosão apenas uma formulação diferente de resultados anteriormente descritos. Sãoutilizados resultados apresentados no Apêndice A.

O Apêndice B é opcional, mostrando que a apresentação feita de funções dematrizes é equivalente às definições usualmente utilizadasnos textos de ÁlgebraLinear.

A Seção 8.8 introduz a norma de uma matriz quadrada; o Apêndice F é maisambicioso, introduzindo a norma de uma aplicação linear. A escolha entre a Seção8.8 ou o Apêndice F fica a critério do professor.

Finalmente, vários resultados têm uma demonstração alternativa exposta nopróprio texto. Pode-se optar entre essas alternativas ou apresentar ambas.

Page 16: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page xvi — #16i

i

i

i

i

i

Page 17: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 1 — #17i

i

i

i

i

i

1Base e Dimensão

Este Capítulo apresenta algumas noções básicas da Álgebra Linear, introduzsomas diretas e define o espaço quociente.

1.1 Espaços Vetoriais

O corpoR ou o corpoC serão denotados porK.

Definição 1.1 Um espaço vetorialX sobre o corpoK é um conjunto cujoselementos(chamadosvetores) podem ser somados e multiplicados porescalares,isto é, os elementos do corpoK. Sex, y, z ∈ X e λ, µ ∈ K, as seguintespropriedades devem ser satisfeitas pela adição e multiplicação por escalar:

(i) x+ y ∈ X (fechamento);

(ii) (x+ y) + z = x+ (y + z) (associatividade);

(iii) x+ y = y + x (comutatividade);

(iv) existe0 ∈ X tal quex+ 0 = x (elemento neutro);

(v) existe(−x) ∈ X tal quex+ (−x) = 0 (inverso aditivo);

(vi) λx ∈ X (fechamento);

(vii) µ(λx) = (µλ)x (associatividade);

(viii) λ(x+ y) = λx+ λy (distributividade);

(ix) (λ+ µ)x = λx+ µx (distributividade);

1

Page 18: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 2 — #18i

i

i

i

i

i

2 Base e Dimensão Cap. 1

(x) 1x = x (regra da unidade).

Denotaremosx + (−y) simplesmente porx − y (veja o Exercício 1). Aimportância da condição(x) na definição de espaço vetorial é indicada no Exercício3.

Exemplo 1.2 O conjuntoKn = {(x1, x2, . . . , xn) | xi ∈ K (i = 1, . . . , n)} com asdefinições usuais de adição e multiplicação por escalar é um espaço vetorial. �

Exemplo 1.3 O conjuntoF de todas as funções{f : S → K} definidas numconjunto S 6= ∅ e com as operações de adição e multiplicação por escalarusualmente definidas é um espaço vetorial. �

Exemplo 1.4 Também são espaços vetoriais o conjuntoK[z] de todos os po-linômios com coeficientes emK (na incógnitaz) ou o subconjuntoKn[z] de todosos polinômios de graumenordo quen (na incógnitaz). �

Definição 1.5 Um subconjuntoY de um espaço vetorialX é umsubespaço, se seuselementos satisfizerem as propriedades que definem o espaço vetorialX.

Exemplo 1.6 O subconjunto deKn de todos os vetores cuja primeira coordenada énula é um subespaço deKn. SeS = R, os subconjunto deF (veja o Exemplo 1.3)formado por todas as funções contínuas ou por todas as funções de períodoπ sãosubespaços deF . O mesmo acontece com o subconjunto deK[z] formado pelospolinômios de grau par. �

Definição 1.7 SejamX eY espaços vetoriais sobre o corpoK. Uma aplicação

T : X → Y

satisfazendoT (x+ λy) = Tx+ λTy

para quaisquerx, y ∈ X e λ ∈ K é chamadatransformação linearou aplicaçãolinear. SeX = Y , também chamamosT de operador linearou simplesmenteoperador. SeY = K, uma aplicação linear é denominadafuncional linear.

SeT for uma bijeção, dizemos queT é umisomorfismoe que os espaçosX eY sãoisomorfos.

(No caso de aplicações lineares, é usual denotarT (x) por Tx. Em algumassituações, especialmente para funcionais lineares, não semantêm tal notação.)

Observação 1.8Note que, na definição de aplicação linear, estamos indicando asoperações nos espaços vetoriaisX eY da mesma maneira: emT (x + λy), a somax+ λy ocorre no espaçoX, enquanto ocorre emY na expressãoTx+ λTy . �

Page 19: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 3 — #19i

i

i

i

i

i

§1.2 Bases 3

1.2 Bases

Definição 1.9 SejaS ⊂ X um subconjunto qualquer de um espaço vetorialX.Umacombinação linearde elementos deS é uma soma(finita)

λ1x1 + . . .+ λkxk,

comλ1, . . . , λk ∈ K ex1, . . . , xk ∈ S.O conjunto S é linearmente dependente, se existir um número finito de

elementosx1, . . . , xk ∈ S

e escalaresλ1, . . . , λk ∈ K, não todos nulos, tais que

λ1x1 + . . .+ λkxk = 0.

Caso contrário, o conjuntoS é linearmente independente.O conjuntoS gera o espaçoX se, para todox ∈ X, existirem(finitos)

elementosx1, . . . , xj ∈ S e escalaresλ1, . . . , λj ∈ K tais quex = λ1x1+. . .+λjxj.UmabasedeX é um subconjuntoordenadoB que é linearmente independente

e geraX. Um espaço vetorialX temdimensão finita, se possuir uma base comum número finito de elementos,1 ou seX = {0}. Caso contrário, ele temdimensãoinfinita .

Lema 1.10 Suponhamos queS = {x1, . . . , xn} gere o espaço vetorialX e que{y1, . . . , yj} seja linearmente independente emX. Então

j ≤ n.

Demonstração:Suponhamos quej > n. ComoS geraX, temos que

y1 = λ1x1 + . . .+ λnxn,

sendo ao menos um dos escalaresλ1, . . . , λn diferente de zero (veja o Exercício10). Podemos suporλ1 6= 0. Temos então que{x2, . . . , xn, y1} geraX. De fato, sex ∈ X, existem escalaresα1, . . . , αn tais quex = α1x1 + . . .+ αnxn. Mas, então,

x = α1

[1

λ1

(y1 − λ2x2 − . . .− λnxn)

]+ α2x2 + . . .+ αnxn,

1Diz-se também que o espaço vetorial é finitamente gerado.

Page 20: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 4 — #20i

i

i

i

i

i

4 Base e Dimensão Cap. 1

mostrando o afirmado.De maneira análoga,y2 = β2x2 + . . . + βnxn + β1y1, com ao menos um dos

escalaresβ2, . . . , βn diferente de zero (veja o Exercício 11). Supondoβ2 6= 0,verificamos então que o conjunto{x3, . . . , xn, y1, y2} gera o espaçoX. Repetindosucessivamente esse procedimento, obtemos que

{y1, . . . , yn}

gera o espaçoX. Em particular,

yn+1 = γ1y1 + . . .+ γnyn.

Mas, então,

−γ1y1 − . . .− γnyn + 1yn+1 + 0yn+2 + . . .+ 0yj = 0,

o que contradiz{y1, . . . , yj} ser um conjunto linearmente independente. 2

Lema 1.11 Todo espaço vetorialX 6= {0} gerado por um subconjuntoS ={x1, . . . , xn} possui uma base.

Demonstração:SeS for linearmente dependente, um de seus elementos pode serescrito como combinação linear dos elementos restantes. Retirando esse elemento,o conjunto restante continua gerandoX. Continuamos retirando elementos quesão combinação linear dos elementos restantes até obter um conjunto linearmenteindependente que continua gerandoX. 2

Note que o espaço vetorialX = {0} não possui base.

Teorema 1.12Todas as bases de um espaço vetorialX de dimensão finita possuemo mesmo número de elementos.

Demonstração: SeB = {x1, . . . , xn} e B′ = {y1, . . . , yj} forem bases deX, oLema 1.10 aplicado ao conjunto linearmente independenteB′ e ao conjunto geradorB mostra quej ≤ n. Aplicando então ao conjunto linearmente independenteB e aoconjunto geradorB′, obtemosn ≤ j. 2

Page 21: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 5 — #21i

i

i

i

i

i

§1.2 Bases 5

Definição 1.13SeB = {x1, . . . , xn} for uma base do espaço vetorialX, dizemosqueX tem dimensãon e escrevemos

dimX = n.

SeX = {0},X tem dimensão finita igual a zero.

Teorema 1.14Todo subconjunto linearmente independenteS = {y1, . . . , yj} deum espaço vetorialX de dimensãon ≥ 1 pode ser completado para formar umabase deX.

Demonstração: Se S não gerarX, então existe um vetorx1 ∈ X que não écombinação linear dos elementos deS. O conjunto

{y1, . . . , yj, x1}

é linearmente independente. Repetimos esse procedimento umnúmero finito devezes, até obter uma base deX. 2

O Teorema 1.14 mostra-nos como obter diferentes bases para um espaço vetorialX 6= {0} de dimensão finita. Assim,X possui muitas bases.

Definição 1.15SejamX um espaço vetorial eB = {x1, . . . , xn} uma base deX.Sex ∈ X, então existem(únicos) escalaresλ1, . . . , λn ∈ K tais que

x = λ1x1 + . . .+ λnxn.

O vetor(λ1, . . . , λn) ∈ Kn é chamadorepresentaçãodex na baseB eλ1, . . . , λn

ascoordenadasdex na baseB. Denotamos também por[x]B o vetor(λ1, . . . , λn).

Definição 1.16Sejaei ∈ Kn o vetor cujai-ésima coordenada é igual a1, as outrassendo nulas. O conjuntoE = {e1, . . . , en} é abase canônicado espaçoKn.

Observação 1.17Uma base de um espaço vetorial é um conjunto ordenado.Assim, seB = {x1, x2, . . . , xn} for uma base do espaçoX, entãoB′ ={x2, . . . , xn, x1} é outra base deX. O mesmo acontece se a base possuir um númeroinfinito de elementos.

A ordenação dos elementos da base permite dar sentido à representação de umvetor em uma base. Uma vez que(λ1, . . . , λn) = λ1e1 + . . . + λnen, vemos que aescolha de uma base no espaçoX de dimensãon gera um isomorfismo entreX eKn

(este espaço considerado com a base canônica). A importância desse isomorfismoé explorada no Exercício 8. �

Page 22: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 6 — #22i

i

i

i

i

i

6 Base e Dimensão Cap. 1

Observação 1.18Tendo alcançado esse ponto, não deixa de ser interessantecomparar três concepções do plano. A primeira concepção é o plano como es-paço euclidiano, o espaço da geometria clássica. Esse espaço é completamentehomogêneo: se, de repente, um objeto fosse transportado para esse plano,não haveria como localizá-lo. Todos os pontos são absolutamente iguais. Asegunda concepção é o plano como espaço vetorial. Nesse caso, existe um pontoexcepcional: a origem. Um objeto transportado para o plano apenas distinguiriasua localização como ocupando a origem ou não. A terceira concepção vem com aintrodução de coordenadas, e cria o plano da geometria analítica clássica. Aqui alocalização de cada ponto é muito bem determinada por suas coordenadas.

O isomorfismo entre um espaço de dimensão finitan e o Kn introduz apossibilidade de medirmos distâncias ou mesmo ângulos. Essa possibilidade seráestudada posteriormente, especialmente nos Capítulos 8 e 10. �

1.3 Somas Diretas

Definição 1.19SejamA,B subconjuntos de um espaço vetorialX. DenotamosporA+B o conjunto de todos os vetoresx+ y, comx ∈ A ey ∈ B.

Proposição 1.20SejamU, V subespaços deX. EntãoU + V é subespaço deX.O subespaçoU + V é chamadosomados subespaçosU eV .

Demonstração:Sez1 = x1+y1 ez2 = x2+y2 forem elementos deU+V eλ ∈ K,então claramenteλz1 + z2 ∈ U + V (veja o Exercício 4). 2

Definição 1.21SejamU, V subespaços deX. O subespaçoW = U + V é asomadireta dos subespaçosU e V se cada elemento dew ∈ W puder ser escrito demaneira única como

w = x+ y.

Nesse caso denotamosW porW = U ⊕ V . (Veja a Figura 1.1.)

A definição de soma direta pode ser generalizada para a soma deum númerofinito de subespaços deX.

Proposição 1.22O subespaçoW = U + V é a soma direta dos subespaçosU, VdeX se, e somente se,U ∩ V = {0}.

Page 23: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 7 — #23i

i

i

i

i

i

§1.3 Somas Diretas 7

����������������������������

������

U

V

u

v(u, v) ∈ U ⊕ V

1

Figura 1.1:SeW = U ⊕ V , um pontow ∈W escreve-se de maneira única comow = u + v.

Demonstração:Suponhamos queW = U ⊕ V . Sez ∈ U ∩ V entãow = x + ytambém pode ser escrito comow = (x + z) + (y − z). Como a decomposiçãow = x + y é única, devemos terx = x + z e y = y − z. Assim,z = 0 (veja oExercício 2).

Reciprocamente, suponhamos quex1 + y1 ex2 + y2 sejam duas decomposiçõesdew ∈ W . Entãox1 − x2 = y2 − y1 pertencem simultaneamente aU e V . Logox1 − x2 = 0 = y2 − y1, garantindo a unicidade da decomposição. 2

Teorema 1.23SejaX um espaço vetorial de dimensão finita. Então vale:

(i) todo subespaçoY deX possui dimensão finita;

(ii) todo subespaçoY possui um complementoZ ⊂ X, isto é, existe umsubespaçoZ deX tal que

X = Y ⊕ Z.

Demonstração:SeY = {0}, entãodimY = 0. Caso contrário, tome0 6= y1 ∈ Y .Se existiry2 ∈ Y linearmente independente comy1, consideramos então o conjunto{y1, y2}. Se esse conjunto gerarY , temos uma base. Se não, podemos acrescentary3 ∈ Y linearmente independente comy1 e y2. Procedendo assim, obtemossucessivamente conjuntos linearmente independentes, cada um contendo o anterior.De acordo com o Lema 1.10, esse processo só pode continuar enquanto essesconjuntos tiverem menos elementos do que a dimensão deX. Obtemos assim umabase{y1, . . . , yj} paraY .

Aplicando então o Teorema 1.14, essa base pode ser completada até obtermosuma base{y1, . . . , yj, x1, . . . , xn−j} paraX. DefinaZ como o espaço de todas as

Page 24: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 8 — #24i

i

i

i

i

i

8 Base e Dimensão Cap. 1

combinações lineares dos elementosx1, . . . , xn−j. ClaramenteZ é um subespaçodeX eZ ∩ Y = {0}. Logo, pela Proposição 1.22, temosX = Y ⊕ Z. 2

1.4 Espaço Quociente

Definição 1.24SejaY um subespaço deX. Sex1, x2 ∈ X, dizemos quex1 écongruentea x2 móduloY , escrito

x1 ≡ x2 mod Y,

sex1 − x2 ∈ Y .

Podemos dividir o espaçoX em diferentes classes de equivalência móduloY(veja o Exercício 30). Denotaremos a classe contendo o elementox por [x].

Definição 1.25Se [x] e [z] forem classes de equivalência móduloY e λ ∈ K,definimos

[x] + [z] = [x+ z], λ[x] = [λx].

Com essas operações, o conjunto de todas as classes de equivalência móduloYtorna-se um espaço vetorial, denotado por

X

You X/Y

e denominadoespaço quocientedeX por Y .A classe de equivalência[x] muitas vezes é representada porx+ Y .

A rigor, precisamos mostrar que as operações emX/Y estão bem definidas,isto é, independem dos representantes de cada classe de equivalência. Portanto,suponhamos quex1 ∈ [x] e z1 ∈ [z]. Entãox1 = x + y1 e z1 = z + y2, comy1, y2 ∈ Y . Mas, então,x1 + z1 = x + y1 + z + y2 = x + z + (y1 + y2) e, assim,x1 + z1 ≡ x + z mod Y . Do mesmo modo,λx1 = λx + (λy1) e λx1 ≡ λxmod Y .

Exemplo 1.26 SejaX um espaço vetorial qualquer. SeY = X, entãoX/Y ={[0]}, poisx ≡ 0 mod Y para todox ∈ X. Por outro lado, seY = {0}, entãoX/Y = X, poisx ≡ y mod Y implica quex = y. �

Page 25: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 9 — #25i

i

i

i

i

i

§1.4 Espaço Quociente 9

Exemplo 1.27 SejaY ⊂ R2 o subespaço definido porY = {(x, y) | y = 2x}.(Em outras palavras,Y é a reta de equaçãoy = 2x). Na Figura 1.2, os vetoresw1, . . . , w5 pertencem todos à mesma classe. Assim, o vetor[w1] + Y ∈ R2/Y éuma reta paralela à retay = 2x. O espaço quocienteR2/Y é formado por todas asretas paralelas à retay = 2x.

-

6

��������������������

��������������������

@@

@I

��

��

��

���

6

�������

XXXXXXy

x

y

Y

[w]+Y

w1

w2

w3

w4

w5

Figura 1.2:O subespaçoY é a retay = 2x. Os vetoresw1, . . . , w5 pertencem todos à mesma classe.

O espaçoR2/Y é formado por todas as retas paralelas à retay = 2x.

Sem dificuldades, podemos estender a interpretação geométrica aqui apre-sentada ao caso geral. �

Exemplo 1.28 Sejax ∈ Kn e considereY o subespaço de todos os vetores cujasduas primeiras coordenadas são nulas. Então dois vetores são congruentes móduloY se, e somente se, suas duas primeiras coordenadas forem iguais. Isto é,

(x1, x2, x3, . . . , xn) ≡ (y1, y2, y3, . . . , yn) mod Y ⇔ x1 = y1 e x2 = y2.

A classe de equivalência dex ∈ Kn pode ser vista como um vetor com duascomponentes, dadas pela primeira e segunda coordenadas dex. �

Teorema 1.29Consideremos a decomposição

X = Y ⊕ Z.

Page 26: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 10 — #26i

i

i

i

i

i

10 Base e Dimensão Cap. 1

Então a aplicaçãoQ : Z → X/Y definida porQ(z) = [z] é um isomorfismocanônico. (Um isomorfismo écanônico, se ele independer de escolhas de bases nosespaços envolvidos).

Assim, seX tiver dimensão finita e{z1, . . . , zj} for uma base deZ, então{[z1], . . . , [zj]} é uma base deX/Y . Portanto,

dimX/Y = dimZ = dimX − dimY.

Demonstração:DefinimosQ : Z ⊂ X → X/Y porQ(z) = [z]. A aplicaçãoQ éclaramente linear.

Cada classe[x] ∈ X/Y tem como representante um elementox ∈ X. Mas,existe uma única decomposiçãox = y + z, com y ∈ Y e z ∈ Z. Assim,[x] = [y + z] = [z], mostrando queQ é sobrejetor.

Suponhamos que[z1] = [z2]. Entãoz1 = z2 + y, comy ∈ Y . Mas, isso implicaquez1−z2 = y ∈ Y . Comoz1−z2 ∈ Z, concluímos quez1−z2 = 0, completandoa demonstração. 2

1.5 Exercícios

1. Se−x for o inverso aditivo dex ∈ X, mostre que−x = (−1)x.

2. Mostre que o elemento neutro aditivo de um espaço vetorialé único. Mostreque0x = 0 para todox ∈ X e λ0 = 0 para todoλ ∈ K, sendo0 ∈ X oelemento neutro aditivo.

3. SejaX = {(x1, . . . , xn) | xi ∈ K}. Defina a somax + y da maneira usual eλx = 0 para todoλ ∈ K ex ∈ X. Verifique quais propriedades da definiçãode espaço vetorial são satisfeitas.

4. Mostre queY ⊂ X é um subespaço se, e somente se,λx + y ∈ Y paraquaisquerx, y ∈ Y eλ ∈ K.

5. SeX for um espaço vetorial, mostre que os conjuntosX e {0} (queconsiste apenas do elemento neutro aditivo) são subespaçosdeX, chamadossubespaços triviais.

6. SejaS 6= ∅. Generalize o Exemplo 1.3 e mostre que{f : S → Kn} é umespaço vetorial.

Page 27: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 11 — #27i

i

i

i

i

i

§1.5 Exercícios 11

7. SejaV ⊂ Kn o conjunto de todas asn-uplas da forma(0, 0, x3, . . . , xn).Mostre queV é um subespaço deKn.

8. SejaU = {(x, y) ∈ R2 | x > 0, y > 0}. Sez1 = (x1, y1) e z2 = (x2, y2)forem elementos deU eλ ∈ R, defina

z1 + z2 = (x1x2, y1y2), λz1 = (xλ1 , y

λ1 ).

(a) Mostre queU é um espaço vetorial com elemento neutro aditivo(1, 1);

(b) mostre que, sev1 = (e, 1) e v2 = (1, e), entãoB = {v1, v2} é uma basedeU (estamos denotando pore a base dos logaritmos naturais).

(c) DefinaT : U → R2 porT (z) = [z]B, em que[z]B é a representação dez na baseB. Mostre queT é um isomorfismo.

9. SejaS ⊂ X um subconjunto arbitrário do espaço vetorialX. Mostreque o conjunto de todas as combinações lineares dos elementos de S éum subespaço deX, chamado(sub)espaço geradopor S e denotado por< S >. Mostre que, seY ⊂ X for um subespaço tal queS ⊂ Y ,então< S > ⊂ Y . (Esse exercício generaliza o procedimento usado nademonstração do Teorema 1.23).

10. SeS ⊂ X for linearmente independente, mostre que0 6∈ S. Mostre que,se um conjunto possuir um subconjunto linearmente dependente, então esseconjunto é linearmente dependente.

11. Qual a razão, na demonstração do Lema 1.10, de substituirmos sempreum dos elementosxj, . . . , xn do conjunto{xj, . . . , xn, y1, . . . , yj−1} peloelementoyj? Porque não podemos substituiryj por um dos elementosy1, . . . , yj−1?

12. SejaS = {1, z, z2, . . . , zn, . . .}. Mostre queS é uma base deK[z].

13. SejaT : X → Y uma aplicação linear e definakerT := {v ∈ X | Tv = 0}.Mostre queT é injetora se, e somente se,kerT = {0}.

14. Exiba um isomorfismo entreKn eKn[z].

15. DefinaK∞ como o espaço de todas as seqüências(z1, . . . , zn, . . .) com asoma e multiplicação por escalar definidas de maneira natural. Mostre queK∞ é um espaço vetorial. Considere seu subespaçoK∞

0 , formado por todas

Page 28: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 12 — #28i

i

i

i

i

i

12 Base e Dimensão Cap. 1

as seqüências satisfazendozi = 0, exceto para um número finito de índices.Mostre queK∞

0 é isomorfo ao espaçoK[t].

16. SejamT : X → Y eS : Y → Z aplicações lineares. Mostre que a compostaS ◦ T = ST é uma aplicação linear.

17. SejaT : X → Y um isomorfismo entre os espaçosX e Y . Mostre que ainversaT−1 : Y → X é linear.

18. Mostre que todo espaço vetorial de dimensãon sobre o corpoK é isomorfoa Kn. Esse isomorfismo é único? Conclua que quaisquer dois espaçosdedimensãon sobre o mesmo corpoK são sempre isomorfos. Os espaçosRn eCn são isomorfos?

19. SejamX, Y espaços vetoriais de dimensão finita sobre o corpoK. Mostreque, seT : X → Y for um isomorfismo, então a imagem porT de toda basedeX é uma base deY . Em particular,dimX = dimY .

20. SejaB = {x1, . . . , xn} uma base deX e Y um espaço vetorial. Escolhaarbitrariamentey1, . . . , yn ∈ Y . Mostre que existe uma única aplicaçãolinear T : X → Y tal queT (xi) = yi parai = 1, . . . , n. Conclua que,se{y1, . . . , yn} for uma base deY , entãoT é um isomorfismo.

21. Mostre queS é uma base deX se, e somente se, todo elementox ∈ X puderser escrito de maneira única como combinação linear dos elementos deS.

22. SejaX um espaço vetorial de dimensãon. SeS = {y1, . . . , yn} ⊂ X for umconjunto linearmente independente, mostre queS é uma base deX.

23. SejamX um espaço vetorial de dimensãon eS = {y1, . . . , yn} um conjuntoque geraX. Mostre queS é uma base deX.

24. SejaX um espaço vetorial eS = {x1, . . . , xk} um subconjunto linearmentedependentes formado por vetores não-nulos do espaçoX. Mostre que umdeles é combinação linear dos vetores precedentes.

25. SejaX um espaço de dimensãon e V1 ⊕ · · · ⊕ Vk uma soma direta desubespaços deX. Mostre quedim(V1⊕· · ·⊕Vk) = dimV1+. . .+dimVk ≤ n.

26. SejamX um espaço de dimensão finita eU, V subespaços deX. Mostre quedim(U + V ) = dimU + dimV − dim(U ∩ V ).

Page 29: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 13 — #29i

i

i

i

i

i

§1.5 Exercícios 13

27. Denotaremos porMn×n(K) o conjunto das matrizesn × n com entradasno corpo K. Defina o conjunto das matrizessimétricasS = {A ∈Mn×n(K) |At = A}, em queAt denota a transposta da matrizA (veja3.12 para a definição da transposta de uma matriz); defina o conjunto dasmatrizesanti-simétricasA = {A ∈ Mn×n(K) |At = −A}. Mostre queMn×n(K) = S ⊕A.

28. Mostre queU ∩ V é um subespaço deX, seU eV forem subespaços deX.O subespaçoU ∩ V é ainterseçãodos subespaçosU eV .

29. SejaX um espaço vetorial eW1,W2 subespaços. Mostre que, seX =W1 ∪W2, entãoX = Wi para pelo menos algumi ∈ {1, 2}.

30. Seja∼ uma relação de equivalência2 num conjuntoA. Dadox ∈ A, denote

cl(x) := {y ∈ A | y ∼ x}

a classe de equivalência do elementox. Mostre queA pode ser escrito comouma união disjunta de suas classes de equivalência.

31. Mostre que a congruência móduloY é uma relação de equivalência.

32. SejaY um subespaço deX comdimY = dimX. Mostre queY = X.

33. SejaW ⊂ R3 o subespaço (verifique!) formado por todas as soluções daequação linear homogênea2x + 3y + 4z = 0. Descreva as classes deequivalência da congruência móduloW .

34. SejamX um espaço vetorial eM,N subespaços. Dê exemplo desses espaços,de modo que

(a) nemM , nemX/M tenha dimensão finita;

(b) X/M tenha dimensão finita, masX/N não tenha.

35. SejaT : X → X um operador linear eW um subespaço invariantepor T ,isto é,T (W ) ⊂ W . Considere a aplicaçãoT : X → X/W definida porT (x) = [Tx]. Mostre queT é linear e que, seq ∈ K[z] satisfizerq(T ) = 0,entãoq(T ) = 0.

2Quer dizer, sex, y, z ∈ A, então:(i) x ∼ x; (ii) sex ∼ y, entãoy ∼ x; (iii) sex ∼ y ey ∼ z,entãox ∼ z.

Page 30: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 14 — #30i

i

i

i

i

i

14 Base e Dimensão Cap. 1

36. SejaW ⊂ X um subespaço eQ : X → X/W a aplicação quociente definidaporQ(x) = [x]. SejaY ⊂ X outro subespaço deX. Mostre queX = W⊕Yse, e somente se, a restriçãoQ|Y : Y → X/W for um isomorfismo.

37. A soma diretade espaços vetoriaisX1, X2 é o conjuntoX1 ⊕X2 de todos ospares(x1, x2) comx1 ∈ X1 ex2 ∈ X2. Definindo adição e multiplicação porescalar coordenada a coordenada, mostre queX1 ⊕X2 é um espaço vetorial.SeX1 eX2 tiverem dimensão finita, entãodim(X1⊕X2) = dimX1+dimX2.

38. SejaY um subespaço deX. Mostre queX é isomorfo aY ⊕X/Y .

Page 31: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 15 — #31i

i

i

i

i

i

2Dualidade

Este Capítulo apresenta uma primeira versão do Teorema de Representação deRiesz e também do isomorfismo canônico entre o espaçoX e o bidualX ′′. Ele podeser suprimido numa primeira leitura ou a critério do instrutor.

2.1 O Espaço Dual

Existem muitas maneiras de produzir espaços vetoriais a partir de espaços ousubespaços conhecidos. Por exemplo, seM for um subespaço deX, entãoX/Mé um novo espaço vetorial. Ou, dados os espaços vetoriaisX e Y , podemosconsiderar o espaçoX ⊕ Y , apresentado no Exercício 37 do Capítulo 1.

Apresentaremos agora uma forma importante de obter um novo espaço vetorial,partindo do espaçoX:

Definição 2.1 SeX for um espaço vetorial sobreK, consideremos o conjunto

X ′ = {ℓ : X → K | ℓ é linear}.

De maneira natural vemos queX ′ tem uma estrutura de espaço vetorial, sedefinirmos, paraℓ,m ∈ X ′ eλ ∈ K,

(ℓ+m)(x) = ℓ(x) +m(x), (λℓ)(x) = λℓ(x).

Com essas operações,X ′ = {ℓ : X → K | ℓ é linear} denota oespaço dual1 deX.Os elementos deX ′ são chamados defuncionais lineares.

1Também chamado espaço dualalgébrico do espaçoX, em contraposição ao espaço dualtopológicodefinido em textos de Análise Funcional. Em espaços de dimensão finita as definiçõescoincidem.

15

Page 32: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 16 — #32i

i

i

i

i

i

16 Dualidade Cap. 2

Exemplo 2.2 SejaX = {f : [0, 1] → R | f é contínua}. Definaℓ(f) =∫ 1

0f(s)ds

e, paras0 ∈ [0, 1] fixo,m(f) = f(s0). É fácil verificar queℓ ∈ X ′ em ∈ X ′. �

Exemplo 2.3 Definaπ1 : Kn → K porπ1(x1, . . . , xn) = x1. Entãoπ1 ∈ (Kn)′. �

Seja{x1, . . . , xn} uma base do espaço vetorialX. Então, para todox ∈ X, existemescalaresℓ1(x), . . . , ℓn(x) tais que

x = ℓ1(x)x1 + . . .+ ℓn(x)xn.

Os escalaresℓi(x) são justamente as coordenadas dex na base{x1, . . . , xn}.(Quer dizer, sex = α1x1 + . . .+ αnxn, ℓi(x) denotaαi.)

Teorema 2.4 SejaB = {x1, . . . , xn} uma base deX e

x = ℓ1(x)x1 + . . .+ ℓn(x)xn.

Então, seδij denotar0, sei 6= j, e1, sei = j, temos:

(i) ℓi : X → K é um funcional linear eℓi(xj) = δij, para i, j ∈ {1, . . . , n};

(ii) o conjunto{ℓ1, . . . , ℓn} é uma base deX ′, chamada debase dualda baseB;

(iii) sem ∈ X ′, então

m(x) = ℓ1(x)m(x1) + . . .+ ℓn(x)m(xn).

(iv) para todo0 6= x ∈ X, existem ∈ X ′ tal quem(x) 6= 0.

Demonstração:(i) Suponhamos quex = α1x1+. . .+αnxn ey = β1x1+. . .+βnxn

(quer dizer,ℓi(x) = αi e ℓi(y) = βi). Entãox+ λy = (α1 + λβ1)x1 + . . .+ (αn +λβn)xn e, portanto,ℓi(x+ λy) = αi + λβi = ℓi(x) + λℓi(y).

(ii) Suponhamos queλ1ℓ1 + . . . + λnℓn = 0 ∈ X ′. Avaliando esse funcionalsucessivamente nos vetoresx1, . . . , xn, concluímos queλ1 = . . . = λn = 0. Sejaagoram ∈ X ′. Então

m(x) = m(α1x1 + . . .+ αnxn) = α1m(x1) + . . .+ αnm(xn)

= ℓ1(x)m(x1) + . . .+ ℓn(x)m(xn),

provando não apenas queℓ1, . . . , ℓn geramX ′, mas também a afirmação(iii).(iv) Se0 6= x, então alguma coordenadaℓi(x) na expressãox = ℓ1(x)x1 + . . .+

ℓn(x)xn não é nula. Considerem = ℓi. 2

Page 33: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 17 — #33i

i

i

i

i

i

§2.1 O Espaço Dual 17

Observação 2.5A parte (iii) do Teorema 2.4 é uma versão do Teorema deRepresentação de Riesz; veja o Teorema 8.22. �

Uma vez queX ′ é um espaço vetorial de dimensãon, esse espaço tem o seudual, que será denotado porX ′′ e chamado debidual deX. O teorema anteriorgarante então quedimX ′′ = n, pois já vimos quedimX ′ = n.

Note queX ′′ é, por definição, o espaço vetorial de aplicações lineares

X ′′ = {L : X ′ → K | L é linear}.

Quer dizer,L é uma transformação linear que associa, a cada funcional linearℓ : X → K, o númeroL(ℓ) ∈ K. Os elementos deX ′′ são, aparentemente,complicados. Mostraremos que as aplicações lineares emX ′′ estão canonicamenteassociadas aos vetores do espaçoX. Quer dizer, existe um isomorfismo entreXe X ′′ que independe da utilização de qualquer base nesses espaçosvetoriais. (Aexistência de um isomorfismo entre esses espaços é trivial: veja o Exercício 18 doCapítulo 1.)

Lema 2.6 Para cadax ∈ X fixo, considere a aplicaçãoLx : X ′ → K definida por

Lx(ℓ) = ℓ(x).

Quer dizer,Lx associa a cada funcional linearℓ ∈ X ′ o valor queℓ assume nopontox. EntãoLx ∈ X ′′.

Demonstração:Suponhamos queℓ,m ∈ X ′. Então, seα ∈ K,

Lx(ℓ+ αm) = (ℓ+ αm)(x) = ℓ(x) + αm(x) = Lx(ℓ) + αLx(m).

(Compare essa demonstração com o Exemplo 2.2.) 2

Teorema 2.7 Os espaçosX ′′ e X são canonicamente isomorfos. Mais preci-samente, todo elemento do espaçoX ′′ é da formaLx, para algumx ∈ X.

Demonstração: Apesar de ser constituída de etapas bastante simples, a idéia dademonstração é relativamente elaborada. DefinimosΓ = {Lx | x ∈ X}. Quer dizer,os elementos deΓ são as aplicações lineares definidas no lema anterior. Vamosmostrar, em primeiro lugar, queΓ é um subespaço deX ′′. Depois, mostraremosqueX é isomorfo aΓ. Assim,dim Γ = n = dimX ′′. Isso quer dizer queΓ = X ′′.

Page 34: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 18 — #34i

i

i

i

i

i

18 Dualidade Cap. 2

SejamLx, Ly ∈ Γ e λ ∈ K. ConsideremosLx + λLy. Queremos mostrar queessa aplicação linear é um elemento deΓ, isto é,Lx +λLy = Lz para algumz ∈ X.Temos, paraℓ ∈ X ′,

(Lx + λLy)(ℓ) = Lx(ℓ) + λLy(ℓ) = ℓ(x) + λℓ(y) = ℓ(x+ λy) = Lx+λy(ℓ).

Isso mostra queΓ é um subespaço deX ′′. Agora definimos:

T : X → Γx 7→ Lx.

Vamos mostrar queT é um isomorfismo entreX eΓ. Temos que

T (x+ λy) = Lx+λy = Lx + λLy = T (x) + λT (y),

de acordo com o que mostramos na primeira parte. A aplicaçãoT é sobrejetorapor definição. A injetividade também é clara: seT (x) = T (y), entãoLx = Ly e,portanto,Lx(ℓ) = Ly(ℓ) para todoℓ ∈ X ′. Mas, então,ℓ(x) = ℓ(y) e ℓ(x− y) = 0para todoℓ ∈ X ′. Mas, isto implica quex− y = 0, de acordo com o Teorema 2.4,(iv). Isto mostra a injetividade e completa a demonstração. 2

Concluímos este capítulo com a seguinte aplicação dada por Lax [20], sur-preendente à primeira vista:

Teorema 2.8 Sejamt1, . . . , tn pontos distintos do intervaloI. Então existemconstantesα1, . . . , αn tais que

I

p(t)dt = α1p(t1) + . . .+ αnp(tn)

para todo polinômiop de grau menor do quen.

Demonstração:O espaçoKn[t] de todos os polinômiosp(t) = a0 + a1t + . . . +an−1t

n−1 de grau menor do quen é isomorfo aKn e, portanto, tem dimensãon.Definimosℓj(p) = p(tj). Entãoℓj ∈ (Kn[t])′. Afirmamos que{ℓ1, . . . , ℓn} é

linearmente independente. De fato, suponhamos que

λ1ℓ1 + . . .+ λnℓn = 0 ∈ (Kn[t])′.

Isso implica que

λ1p(t1) + . . .+ λnp(tn) = 0, ∀ p ∈ Kn[t]. (2.1)

Page 35: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 19 — #35i

i

i

i

i

i

§2.2 Exercícios 19

Considere os polinômios

q1(t)=(t−t2)· · ·(t−tn), q2(t)=(t−t1)(t−t3) · · · (t−tn),. . ., qn(t)=(t−t1). . .(t−tn−1).

Cada polinômioqi possui exatamenten − 1 raízes nos pontostj, com j 6= i.Substituindo sucessivamente os polinômiosqi na relação(2.1), obtemosλiq(ti) =0, o que implicaλi = 0. Isso mostra que{ℓ1, . . . , ℓn} é linearmente independenteem(Kn[t])′ e, portanto, uma base desse espaço.

Assim, todo funcional linearℓ : Kn[t] → R é uma combinação linear dosfuncionaisℓ1, . . . , ℓn e, portanto,

ℓ = α1ℓ1 + . . .+ αnℓn

para escalaresα1, . . . , αn ∈ K. O resultado segue-se daí ao considerarmos ofuncional linear

p 7→∫

I

p(t)dt. 2

2.2 Exercícios

1. Considere a baseB := {v1, v2} doR2, em quev1 = (2, 1) ev2 = (3, 1). Achea base dual deB.

2. SejaRn[t] o espaço de todos os polinômios (com coeficientes emR) degrau menor do quen (na incógnitat). Mostre que as seguintes aplicaçõespertencem ao dual deRn[t]:

(a) πi(p(t)) = ai para todoi = 0, 1, . . . , n− 1, sep(t) ∈ Rn[t] for dado porp(t) = a0 + a1t+ . . .+ an−1t

n−1;

(b) J(p(t)) =∫ 1

0p(t)dt, para todop(t) ∈ Rn[t].

3. Considere o espaçoR2[t], como antes. Sejamℓ1 : R2[t]→ R eℓ2 : R2[t]→ R

dadas porℓ1(p(t)) =∫ 1

0p(t)dt e ℓ2(p(t)) =

∫ 2

0p(t)dt. Mostre queB′ =

{ℓ1, ℓ2} é uma base de(R2[t])′. Ache a base{v1, v2} de R2[t] da qualB′ é

dual.

4. Considere a demonstração do Teorema 2.7. SeX tiver dimensão infinita, oque podemos concluir?

Page 36: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 20 — #36i

i

i

i

i

i

20 Dualidade Cap. 2

5. SejamX um espaço vetorial arbitrário ef : X → K um funcional linearnão-nulo.

(a) Mostre queker f temcodimensão 1, isto é, existew ∈ X tal que

X = ker f ⊕ < w > .

(< w > denota o espaço gerado porw ∈ X).

(b) Seg : X → K for outro funcional linear, entãog é um múltiplo escalardef se, e somente se, o núcleo deg contiver o núcleo def .

(c) Sejamϕ, f1, . . . , fr funcionais lineares no espaçoX. Mostre queϕ écombinação linear def1, . . . , fr se, e somente se,ker f1∩ · · ·∩ker fr ⊂kerϕ.

6. SejamX um espaço vetorial eS ⊂ X um subconjunto arbitrário. OanuladordeS é o conjuntoS0 = {f ∈ X ′ | f(s) = 0 ∀ s ∈ S}. Mostre queS0 ésubespaço deX ′.

7. SejaY ⊂ X um subespaço do espaço vetorial de dimensão finitaX. MostrequedimX = dimY + dimY 0. IdentificandoX e X ′′ (de acordo com oTeorema 2.7), mostre queY 00 := (Y 0)0 = Y .

8. SejaS = {(2,−2, 3, 4,−1), (−1, 1, 2, 5, 2), (0, 0,−1,−2, 3), (1,−1, 2, 3, 0)}um subconjunto doR5. Obtenha o anulador de< S >.

9. SejaW ⊂ X um subespaço ef : W → K linear. Mostre que existe umfuncional linearϕ : X → K que estendef , isto é,ϕ(w) = f(w) para todow ∈W .

10. SejaT : X → Y uma aplicação linear. A aplicaçãoT induz uma aplicaçãolinearT ′ : Y ′ → X ′ da seguinte maneira: para cada funcionalℓ : Y → K,definimos

T ′ : Y ′ → X ′ por T ′(ℓ) = ℓT = ℓ ◦ T.

Y

X

��� @

@R

K-

T ℓ

ℓ ◦ T

Page 37: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 21 — #37i

i

i

i

i

i

§2.2 Exercícios 21

(A aplicaçãoT ′ é atranspostadeT . Alguns autores a chamam deadjuntadeT , mas ela não coincide com a aplicação adjunta que será definida no Capítulo8.)

(a) Mostre queT ′ é uma aplicação linear;

(b) seS, T : X → Y forem aplicações lineares, mostre que(S + αT )′ =S ′ + αT ′;

(c) seS : X → Y e T : Y → Z forem aplicações lineares, mostre que(ST )′ = T ′S ′;

(d) seT : X → Y tiver inversa, mostre que(T−1)′ = (T ′)−1;

(e) seX e Y tiverem dimensão finita, identificandoX ′′ comX e Y ′′ comY , mostre queT ′′ := (T ′)′ é então identificado comT ;

(f) seX e Y tiverem dimensão finita, qual a relação entre os núcleos eimagens deT eT ′? (Observação: o núcleo e a imagem de uma aplicaçãolinear estão definidos em 3.10.)

11. SejaX um espaço de dimensão finita, comX = M ⊕ N . Considere aprojeção π : X → M definida porπ(x) = m, sex = m + n. Obtenhaπ′.

Page 38: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 22 — #38i

i

i

i

i

i

3Aplicações Lineares

Este Capítulo introduz aplicações lineares e suas representações matriciais, osespaços linha e coluna de uma matriz, demonstra o Teorema do Núcleo e da Imageme estuda detalhadamente a relação entre diferentes representações matriciais de ummesmo operador.

3.1 Aplicações Lineares e Matrizes - parte 1

SejamX e Y espaços vetoriais sobre o mesmo corpoK. Como sabemos, umaaplicação linear(ou transformação linear) é uma aplicaçãoT : X → Y tal que

T (x+ λy) = Tx+ λTy, ∀ x, y ∈ X eλ ∈ K.

Exemplo 3.1 Se K[z] for o espaço vetorial de polinômios (com coeficientes emK, na incógnitaz), T : K[z] → K[z] definida porT (p) = p′ (derivação) é umatransformação linear, bem comoS(p) =

∫p (integração; na família de primitivas

escolhemos sempre a constante de integração como nula). SeX = Y = R2,definimos arotaçãoR : R2 → R2 como a aplicação que roda em torno da origempor um ângulo0 < θ < 2π um ponto doR2 \ {0}, no sentido anti-horário, eR(0) = 0. (Veja a Figura 3.1.) É claro que o único ponto fixo porR é a origem.�

Exemplo 3.2 SejamX = Kn, Y = Km e aij ∈ K, para j = 1, . . . , n ei = 1, . . . ,m. Sex = (x1, . . . , xn) ∈ Kn e y = (y1, . . . , ym) ∈ Kn, definimosy = Tx por

yi =n∑

j=1

aijxj, i = 1, . . . ,m. (3.1)

22

Page 39: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 23 — #39i

i

i

i

i

i

§3.1 Aplicações Lineares e Matrizes - parte 1 23

-

6

����*

���������*

�����

AA

AAK

HHHHYAA

AAK

HHHHY

a

b

a + bR(a)

R(b)

R(a + b)

x

y

1

Figura 3.1:A linearidade deR é geometricamente clara.

Afirmamos queT é linear. De fato, sew = (w1, . . . , wn) ∈ Kn eλ ∈ K, temos

(T (x+ λw))i =n∑

j=1

aij(xj + λwj) =n∑

j=1

aijxj + λn∑

j=1

aijwj = (Tx)i + λ(Tw)i.

(Escolhai ∈ {1, . . . ,m} e escreva explicitamente a soma efetuada.) �

Teorema 3.3 Toda aplicação linearT : Kn → Km é da forma(3.1).

Demonstração:Consideremos a base canônica{e1, . . . , en} doKn. Temos, então,

quex = x1e1 + . . .+ xnen =n∑

j=1

xjej. ComoT é linear,

y = Tx = T

(n∑

j=1

xjej

)=

n∑

j=1

xjT (ej).

Denotemos ai-ésima coordenada do vetorT (ej) poraij, isto é,aij = (T (ej))i.Assim, ai-ésima coordenada dey é

yi =n∑

j=1

xjaij,

como queríamos provar. 2

Observação 3.4Note que, para provarmos o Teorema 3.3, fizemos uso explícitodabase canônica doRn. Ao denotaraij = (T (ej))i, estamos fazendo uso implícito dabase canônica doRm. �

Page 40: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 24 — #40i

i

i

i

i

i

24 Aplicações Lineares Cap. 3

É conveniente representar os coeficientes(aij) da expressão (3.1) como umarranjo retangular:

A =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... ..

...am1 am2 · · · amn

;

denominamos tal arranjomatrizm× n, m sendo o número de linhas en o númerode colunas. O elementoaij é aentradacorrespondente à linhai e à colunaj. Sem = n, dizemos que a matrizA é quadrada. UmasubmatrizdeA é uma matrizobtida deA ao se omitir algumas de suas linhas e/ou colunas.

O Exemplo 3.2 e o Teorema 3.3 mostram que existe uma correspondênciabijetiva entre o conjunto de matrizesm × n e o espaço das aplicações linearesdeKn para oKm. Denotaremos o elementoaij da matrizA, chamadamatriz querepresentaT (com relação às bases canônicas doKn eKm) por

Tij = aij = (T (ej))i.

Exemplo 3.5 Seja R : R2 → R2 a rotação apresentada no Exemplo 3.1.Escolhendo a base canônicaE = {e1, e2}, encontramos a matrizA que representaR (com relação à base canônica doR2 no domínio e na imagem). O nosso ponto departida, para isso, consiste na expressão (3.1). Paraj = 1, 2, considerando o vetorx = ej, vemos que o lado direito de (3.1) produz aj-ésima coluna da matriz(aij).Assim, seRe1 = P , o pontoP tem coordenadas(cos θ, sen θ), de acordo com aprópria definição das funções seno e cosseno. Do mesmo modo, seRe2 = Q, ascoordenadas deQ são(cos(θ + π/2), sen (θ + π/2)) = (−sen θ, cos θ). Logo, arepresentação deR na baseE é amatriz de rotação

A =

(cos θ −sen θsen θ cos θ

).

Observação 3.6Comparando os Exemplos 3.1 e 3.5, notamos que o primeiroindepende da escolha de uma base nos espaços considerados. Por outro lado, aoexpressarR como uma matriz, o segundo faz uso de bases nos espaçosRn eRm.

Em certo sentido, no caso de aplicações lineares entre espaços de dimensãofinita, essa é a diferença entre aplicações lineares e matrizes: a definição de umaaplicação linear independe da escolha de bases nos espaços envolvidos. A matrizque representa uma aplicação linear entre os espaçosKn eKm, por sua vez, faz usoda representação dos vetoresx eTx em bases dos respectivos espaços. �

Page 41: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 25 — #41i

i

i

i

i

i

§3.2 Multiplicação de Matrizes 25

Definição 3.7 SejamT , S aplicações lineares deX paraY . Definimos

(T + S)(x) = Tx+ Sx, (λT )(x) = λTx.

Com essas operações, o conjunto de todas as aplicações linearesT : X → Y é umespaço vetorial(algébrico1), denotado porL(X,Y ).

(Se você tiver lido o Capítulo 2, compare a definição anterior com a definição doespaço dual.)

Verifique queL(X,Y ) é um espaço vetorial!

Lema 3.8 SejamS, T : Kn → Km. Então(S + T )ij = Sij + Tij e (λT )ij = λTij.Em outras palavras, estão assim definidas a soma de duas matrizesm × n

(como a matriz obtida ao se somar as entradas correspondentesde cada matriz)e a multiplicação de uma matriz por um escalar(como a matriz obtida aose multiplicar cada entrada da matriz pelo escalar). As operações no espaçoL(Kn,Km) correspondem às operações no conjunto das matrizesm × n, fazendodesse conjunto, denotado porMm×n(K), um espaço vetorial.

Demonstração: Utilizando a notação do Teorema 3.3, temos, por definição, queaij e bij são asi-ésimas coordenadas dos vetoresT (ej) e S(ej). Assim, sesomarmos asi-ésimas coordenadas desses vetores, obtemosbij + aij. Por outrolado,S(ej) + T (ej) = (S + T )(ej), de modo que ai-ésima componente do vetor(S + T )(ej) é bij + aij.

Do mesmo modo, ai-ésima componente do vetor(λT )(ej) é λ multiplicadopelai-ésima componente do vetorT (ej).

É fácil verificar que, com essas operações,Mm×n(K) é um espaço vetorial.2

3.2 Multiplicação de Matrizes

SejamX, Y e Z espaços vetoriais sobre o mesmo corpoK, e T : X → Ye S : Y → Z aplicações lineares. Denotamos porS ◦ T : X → Z a aplicaçãocomposta deT comS. Quer dizer,

(S ◦ T )x = S(Tx).

É fácil verificar queS ◦ T ∈ L(X,Z). Além disso, vale:

1Em contraposição ao espaço das aplicações lineares definidoem cursos de Análise Funcional.

Page 42: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 26 — #42i

i

i

i

i

i

26 Aplicações Lineares Cap. 3

(i) R ◦ (S ◦ T ) = (R ◦ S) ◦ T, ∀ R ∈ L(Z,W );

(ii) (P + S) ◦ T = P ◦ T + S ◦ T, ∀ P ∈ L(Y, Z);

(iii) S ◦ (T +Q) = S ◦ T + S ◦Q, ∀ Q ∈ L(X,Y ).

(As propriedades(i) e (ii) independem das aplicações envolvidas serem lineares.)Usualmente, no caso de aplicações lineares, denotamosS ◦T porST , chamado

de produto das aplicações linearesS e T . Note que, em geral,ST 6= TS (naverdade, os dois lados nem precisam estar simultaneamente definidos; mesmoestando, não há razão para serem iguais).

Através do Lema 3.8 foram interpretadas as operações no espaço vetorialL(Kn,Km) em termos de operações entre matrizes, introduzindo assim operaçõesem Mm×n(K) com as quais este é um espaço vetorial, isomorfo ao espaçoL(Kn,Km) (verifique que temos realmente um isomorfismo!). A composição dasaplicações linearesT : Kn → Km e S : Km → Kp pode ser interpretadacomo operação entre matrizes. Isso introduz o produto de matrizes e justifica adenominação de produto para a composição de aplicações lineares, bem como anotaçãoST ao invés deS ◦ T . Vamos obter a expressão do produto de matrizes.

O nosso ponto de partida, para isso, consiste da expressão (3.1). Considerandoo vetorx = ej, vemos que o lado direito de (3.1) produz aj-ésima coluna da matriz(aij). Mas,Tej é justamente um vetor doKm, cujai-ésima coordenada éaij:

Tej = cj, em quecj é a j-ésima coluna da matriz que representaT. (3.2)

Assim, é natural interpretar os vetores emKm como "vetores coluna". Parasermos consistentes, interpretaremos tanto os vetores doKn como os vetores doKm como vetores coluna.

Notamos assim, em termos dessa interpretação de vetores, que uma matrizA,além de um arranjo retangular, pode ser concebida de duas maneiras diferentes:como uma linha de vetores coluna ou como uma coluna de vetoreslinha:

A = (c1 c2 . . . cn) =

ℓ1...ℓm

, (3.3)

em que

cj =

a1j...amj

e ℓi = (ai1 ai2 · · · ain).

Page 43: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 27 — #43i

i

i

i

i

i

§3.2 Multiplicação de Matrizes 27

Utilizaremos as diversas concepções de uma matriz – arranjode números oude vetores linha ou vetores coluna – para podermos interpretar a composição deaplicações lineares e introduzirmos a multiplicação de matrizes.

Para isso, começamos por um caso simples: um funcional linear ℓ : Kn → K.De acordo com o Teorema 3.3, a essa aplicação corresponde uma"matriz linha"(c1 . . . cn). Se você tiver lido o Capítulo 2, isso mostra que os elementos doespaço dual doRn são, em termos matriciais, justamente as matrizes linha (istoé, as matrizes formadas por uma única linha en colunas).

De acordo com (3.1),ℓx = c1x1 + c2x2 + . . .+ cnxn. Mas,ℓ corresponde a umamatriz linha, enquanto o vetorx ∈ Kn é visto como uma coluna. Chegamos assima

ℓx = (c1 . . . cn)

x1...xn

= c1x1 + c2x2 + . . .+ cnxn, (3.4)

expressão que serve como definição do produto de uma matriz linha por uma matrizcoluna!

A fórmula de multiplicação de uma matrizm× n por uma matriz colunan× 1decorre também imediatamente de (3.1): seT ∈ L(Kn,Km) for representada pelamatriz(aij), entãoy = Tx tem coordenadas

yi =n∑

j=1

aijxj, i = 1, . . . ,m. (3.5)

Uma vez que já convencionamos que os nossos vetores são representados porcolunas e

Tx =

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

x1

x2...xn

,

vemos que

y =

y1

y2...ym

= Tx =

ℓ1ℓ2...ℓm

x =

ℓ1xℓ2x

...ℓmx

, (3.6)

o que vem da comparação de (3.5) com (3.4).

Page 44: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 28 — #44i

i

i

i

i

i

28 Aplicações Lineares Cap. 3

Agora é fácil obter a fórmula de multiplicação de uma matrizp × m por umamatrizm×n: uma matrizp×m corresponde a uma aplicação linearS ∈ L(Km,Kp)e uma matrizm × n a uma aplicação linearT ∈ L(Kn,Km). A composiçãoST ∈ L(Kn,Kp) está bem definida e produz uma matrizp× n. Vamos caracterizaressa matriz. Pela equação(3.2), Tej é igual acj, a j-ésima coluna deT . Domesmo modo(ST )ej corresponde àj-ésima coluna da matriz que representaST .Aplicando a fórmula (3.6) parax = cj = Tej, temos então

(ST )ej = S(Tej) = Scj =

ℓ1cj...

ℓpcj

,

em queℓk é ak-ésima linha deS, parak = 1, . . . , p. Mostramos assim a regra: seS for uma matrizp ×m eT uma matrizm × n, então o produtoST é uma matrizp× n, cuja entradakj é o produto dak-ésima linha deS pelaj-ésima coluna deT :

(ST )kj = ℓkcj,

em que

S =

ℓ1...ℓp

e T = (c1 · · · cn).

Expressando de outra forma,

ST = (Sc1 Sc2 . . . Scn),

comSci denotando ai-ésima coluna da matrizST .Definimos, assim, oproduto de uma matrizm × n por uma matrizn × p.

Note que, uma vez que o produto de transformações lineares é associativo, amultiplicação de matrizes é associativa. Outras propriedades básicas da multi-plicação de matrizes decorrem, do mesmo modo, das propriedades análogas dacomposição de aplicações lineares.

Definição 3.9 SejaA uma matrizn×n. Dizemos queA é invertível, se existir umamatrizB tal que

AB = BA = I,

em queI denota a matriz identidaden × n. É fácil ver que existe no máximo umamatrizB com tal propriedade(veja o Exercício 5). Denotamos, portanto,B = A−1

e chamamosA−1 de inversada matrizA.

Page 45: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 29 — #45i

i

i

i

i

i

§3.3 Espaço Linha e Espaço Coluna 29

3.3 Espaço Linha e Espaço Coluna

Para1 ≤ i ≤ m e 1 ≤ j ≤ n, suponhamos conhecidos os valoresaij e osvaloresbj. Um sistema linearemm equações en incógnitas procura a soluçãox1, . . . , xn que satisfaz

a11x1 + . . . + a1nxn = b1a21x1 + . . . + a2nxn = b2

......

...am1x1 + . . . + amnxn = bm.

Em termos de matrizes, esse sistema pode ser escrito como

a11 a12 · · · a1n

a21 a22 · · · a2n...

..... .

...am1 am2 · · · amn

x1

x2...xn

=

b1b2...bm

,

ou,Ax = b

Se b = 0, o sistema é chamadohomogêneo; se b 6= 0, o sistema énão-homogêneo. Os sistemasAx = b eAx = 0 relacionam-se de um modo especial, demodo que informações sobre as soluções de um fornecem dados importantes para asolução do outro. Por esse motivo, no estudo do sistemaAx = b, o sistemaAx = 0é chamadosistema homogêneo associado.

Nesta e nas próximas seções estudaremos o sistema linearAx = b. Para isso,começamos estudando mais detalhadamente a matrizA = (aij) ∈ Mm×n(K).Como sabemos, ela pode ser vista por meio de suas linhas ou colunas:

A =

a11 . . . a1n...

.. ....

am1 . . . amn

= (c1 . . . cn) =

ℓ1...ℓm

. (3.7)

Os vetores colunasc1, . . . , cn são vetores doKm. Se C = {c1, . . . , cn},chamamos deespaço colunao espaço gerado porC, isto é,< C > ⊂ Km.

Por outro lado, podemos interpretar as linhas deA como elementos dopróprio espaçoKn (ou como elementos do dual(Kn)′). Se escrevermosL =

Page 46: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 30 — #46i

i

i

i

i

i

30 Aplicações Lineares Cap. 3

{ℓ1, . . . , ℓm} ⊂ Kn, chamamos deespaço linhao espaço gerado porL, isto é,< L > ⊂ Kn.

Começamos interpretando o espaço coluna de uma matriz. Para isso, definimos:

Definição 3.10SejaT : X → Y uma aplicação linear. Definimos aimagemdeT ,denotada porimT , por

imT = {y ∈ Y | y = Tx}.

Definimos onúcleodeT , denotado porkerT , por

kerT = {x ∈ X | Tx = 0}.

O núcleo e a imagem deT são subespaços vetoriais deX eY , respectivamente.De fato, sex1, x2 ∈ kerT e λ ∈ K, entãoT (x1 + λx2) = T (x1) + λT (x2) =0 + λ0 = 0, provando quex1 + λx2 ∈ kerT . Se y1, y2 ∈ imT , entãoexistemx1, x2 ∈ X tais quey1 = T (x1) e y2 = T (x2). Logo, seλ ∈ K,y1 + λy2 = T (x1) + λT (x2) = T (x1 + λx2), o que mostra quey1 + λy2 ∈ imT .

Lema 3.11 Considere o sistema linear não-homogêneoAx = b, em queA =(aij) ∈Mm×n(K). Então são equivalentes:

(i) Existe soluçãox paraAx = b;

(ii) O vetorb é combinação linear das colunas deA.

Demonstração:Basta notar que o sistemaAx = b é equivalente à equação

x1

a11

a21...

am1

+ x2

a12

a22...

am2

+ . . .+ xn

a1n

a2n...

amn

=

b1b2...bm

.

2

Em outras palavras, acabamos de mostrar que< C > é o subespaçoimA.

Definição 3.12SeA = (aij) ∈ Mm×n(K) for uma matrizm × n, definimos atranspostadeA como a matrizAt = (at

ij) ∈Mn×m(K), comatij = aji.

Page 47: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 31 — #47i

i

i

i

i

i

§3.3 Espaço Linha e Espaço Coluna 31

Assim, seA for a matriz dada por (3.7), então

At =

a11 . . . am1...

. . ....

a1n . . . amn

.

Assim, as colunas da matrizAt são justamente as linhas da matrizA. Comoconseqüência imediata do Lema 3.11, temos que

< L > = imAt. (3.8)

SeS for a aplicação linear representada pela matrizA (com relação às basescanônicas doKn e Km), então< L > é a imagem da aplicação linearS t (que échamadatranspostada aplicação linearS e representada pela matrizAt).

Vamos agora relacionar as dimensões dos espaços< C > e < L > de umamatrizA. Mostraremos que esses espaços têm a mesma dimensão; isso é um fatonotável, pois eles são subespaços de espaços vetoriais diferentes!

Teorema 3.13Dada uma matrizm × n, seu espaço linha tem a mesma dimensãode seu espaço coluna.

Demonstração:Suponhamos que os vetores

b1 = (b11, b12, . . . , b1n), b2 = (b21, b22, . . . , b2n), . . . , br = (br1, br2, . . . , brn)

formem uma base do espaço linha da matrizA. Então cada linhaℓi de A écombinação linear desses elementos:

ℓ1 = λ11b1 + . . .+ λ1rbr

ℓ2 = λ21b1 + . . .+ λ2rbr... =

...

ℓm = λm1b1 + . . .+ λmrbr

Igualando a componentei de cada uma dessas equações, obtemos

a1i = λ11b1i + λ12b2i + . . .+ λ1rbri

a2i = λ21b1i + λ22b2i + . . .+ λ2rbri

... =...

ami = λm1b1i + λm2b2i + . . .+ λmrbri.

Page 48: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 32 — #48i

i

i

i

i

i

32 Aplicações Lineares Cap. 3

Quer dizer,

a1i

a2i...ami

= b1i

λ11

λ21...

λm1

+ b2i

λ12

λ22...

λm2

+ . . .+ bri

λ1r

λ2r...

λmr

,

mostrando que as colunas deA são combinações lineares dosr vetores

λ11

λ21...

λm1

, . . . ,

λ1r

λ2r...

λmr

.

Isso quer dizer que o espaço coluna tem dimensão, no máximo, igual ar, ou seja,

dim < C > ≤ dim < L > .

Procedendo da mesma maneira com relação a uma base do espaço coluna,mostramos que

dim < L > ≤ dim < C > .

Assim, essas duas dimensões são iguais.22

Definição 3.14Definimos opostoda matrizA, denotado porposto A, como sendo

dim < C > = dim < L > .

SeA for uma representação matricial da aplicação linearT , definimosposto T =posto A.

3.4 Resolução de Sistemas Lineares

Vamos estudar a resolução do sistemaAx = b. Para isso, mais sinteticamenteainda, representaremos esse sistema por uma única matriz, chamadamatriz

2De maneira mais elegante, podemos notar que mostramosdim < C > ≤ dim < L > paraqualquer matriz. Aplicando esse fato à matrizAt , obtemos o resultado.

Page 49: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 33 — #49i

i

i

i

i

i

§3.4 Resolução de Sistemas Lineares 33

aumentada do sistema:

A = (A | b) =

a11 a12 · · · a1n

∣∣ b1a21 a22 · · · a2n

∣∣ b2...

.... . .

...

∣∣∣∣...

am1 am2 · · · amn

∣∣ bm

É claro que, se estivermos tratando de um sistema homogêneoAx = 0, não hánecessidade de trabalhar com a matriz aumentada do sistema.

É fácil verificar que as seguintes operações sobre as linhas da matrizA nãoalteram o conjunto de soluções do sistemaAx = b:

(a) Transpor as linhasi e j;

(b) Multiplicar a linhai por um escalar não-nulo;

(c) Substituir a linhaj por sua soma com um múltiplo da linhai.3

As operações(a), (b) e (c) são asoperações elementaressobre as linhas damatrizA.

Consideremos então uma matriz satisfazendo as seguintes propriedades:

- se existir o primeiro elemento não-nulo da linhai (chamadopivôda linhai) ese esse ocorrer na colunaj, então, se existir o pivô da linhai+ ℓ, esse ocorrenuma colunak > j, para todoℓ ∈ {1, . . . ,m− i};

- o pivô de cada linha é igual a1.

Dizemos então que essa matriz (ou o sistema) está na formaescalonadae umasucessão de operações elementares utilizadas para levar uma matriz qualquerC até

3Com relação a operação(c), note quex = (x1, x2, . . . , xn) satisfaz

ai1x1 + . . . + ainxn = bi

aj1x1 + . . . + ajnxn = bj

se, e somente se, satisfizer

ai1x1 + . . . + ainxn = bi

(aj1 + αai1)x1 + . . . + (ajn + αain)xn = bj + αbi.

Page 50: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 34 — #50i

i

i

i

i

i

34 Aplicações Lineares Cap. 3

uma matriz na forma escalonada é umescalonamentoda matrizC. (Segundo oExercício 11, a uma matriz podem estar associadas diferentes formas escalonadas.)

Dada uma matriz arbitráriaC = (cij) ∈ Mm×n(K), a sucessiva aplicação deoperações elementares (sobre suas linhas) pode levá-la atéuma forma escalonada.De fato, se existir algum elemento não-nulo na primeira coluna deC, ao aplicarmosas operações elementares(a) e (b) obtemos uma nova matrizC ′ = (c′ij), comc′11 = 1. A aplicação da operação elementar(c) torna possível transformar em zeroqualquer outro elemento não-nulo da primeira coluna. O resultado então segue-sedaí por indução sobre o número de linhas deC.

Suponhamos agora que uma matrizC esteja naforma escalonada. Se cada pivôfor o único elemento não-nulo de sua coluna, dizemos que a matriz está na formaescalonada reduzida por linhas. Aplicando a operação elementar(c), podemosfazer com que uma matriz na forma escalonada atinja sua formareduzida porlinhas. De fato, consideremos o pivô da última linha não-nula deC. A aplicação daoperação elementar(c) torna possível zerar os elementos que estão acima do pivô,mantendo ainda a matriz na forma escalonada. A demonstraçãoagora segue-se daípor indução, aplicando o mesmo procedimento ao pivô da penúltima linha não-nuladeC e assim sucessivamente.

Duas matrizesA e B sãoequivalentes por linhase existir uma sucessão deoperações elementares sobre as linhas deA que a transforma na matrizB. Noteque a aplicação de uma única operação elementar não altera o espaço linha de umamatriz. Por conseguinte, são iguais os espaços linhas de duas matrizes equivalentespor linha.

Proposição 3.15SejaA ∈ Mm×n(K). O sistemaAx = b não possui soluçãose, e somente se, a forma escalonada reduzida por linhas da matriz aumentadaA = (A | b) possuir um pivô na última coluna.

Demonstração:Se a forma escalonada reduzida por linhas deA possuir uma linhacom a forma

(0 | 1),

claramente o sistemaAx = b não tem solução.Denotaremos por(R | c) a forma escalonada reduzida por linhas da matrizA,

uma vez ignorada todas as linhas nulas. Suponhamos que a forma(R | c) nãopossua uma linha do tipo(0 | 1). É claro que:

- o número de coordenadas dec corresponde ao número de pivôs emR;

Page 51: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 35 — #51i

i

i

i

i

i

§3.4 Resolução de Sistemas Lineares 35

- as colunas correspondentes aos pivôs formam uma base do espaço coluna deR.

Assim,c é um vetor com o mesmo número de coordenadas que a dimensão doespaço coluna deR. Ou seja,c está no espaço coluna deR e, portanto, o sistemaRx = c possui solução. (Veja o Exercício 23 do Capítulo 1.) Como o conjuntode soluções não é alterado por operações elementares, o sistemaAx = b possuisolução. 2

Vamos agora mostrar que existe apenas uma forma escalonada reduzida porlinhas paraA = (A | b). Começamos com uma observação simples, que é a baseda prova do próximo resultado: uma vez que o espaço linha de uma matriz não éalterado pela aplicação de uma sucessão de operações elementares, quaisquer quesejam as maneiras de se escalonar a matriz aumentada(A | b) do sistemaAx = b, asformas escalonadas obtidasou terão todas pivôs na última coluna (correspondenteà coluna do vetorb) e, portanto, o sistema não terá solução,ou nenhuma delas terápivô na última coluna e, portanto, o sistema terá solução.

Lema 3.16 Consideremos o sistemaAx = b, para x ∈ Kn. Seja A =(A | b) a matriz aumentada desse sistema. Então os pivôs obtidos em qualquerescalonamento deA são sempre os mesmos.

Demonstração: Denotemos porck a k-ésima coluna deA. Qualquer que seja oescalonamento deA, ele terá um pivô na primeira coluna apenas quandoc1 6= 0.Assim, a existência de um pivô na primeira coluna independe do modo de seescalonarA.

Consideremos, então, a existência de um pivô na colunak, comk ∈ {2, . . . , n}.Tomemos a submatrizBk−1 obtida deA ao se considerar suask−1 colunas iniciais:

Bk−1 = (c1 c2 . . . ck−1).

Notamos que, se uma seqüência de operações elementares produzir um esca-lonamento deA, então ela produz um escalonamento deBk−1. Reciprocamente, setivermos um escalonamento deBk−1, então ask − 1 colunas iniciais deA foramescalonadas.

Parax ∈ Kk−1, consideremos então o sistema

Bk−1x = ck.

Page 52: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 36 — #52i

i

i

i

i

i

36 Aplicações Lineares Cap. 3

Esse sistema não possui solução se, e somente se, ao escalonarmos a matrizaumentada(Bk−1 | ck), obtivermos um pivô em sua última coluna. Mas, como jávimos, a existência desse pivô independe de como foi feito esse escalonamento. Oresultado está provado. 2

É claro que, numa matrizA ∈ Mm×n(K), o número máximo possível de pivôsé igual an, um para cada coluna deA. Chamamos devariável livre do sistemaAx = b a toda coordenada dex correspondente a uma coluna deA sem pivô.

Teorema 3.17Matrizes escalonadas reduzidas por linha têm o mesmo espaçolinha se, e somente se, tiverem as mesmas linhas não-nulas. Em particular, cadamatriz é equivalente a uma única matriz na forma escalonada reduzida por linhas.

Demonstração: É claro que duas matrizes que possuem as mesmas linhas não-nulas possuem o mesmo espaço linha.

Por outro lado, suponhamos que duas matrizesA e B, ambas na formaescalonada reduzida por linhas, tenham o mesmo espaço linha. Sejaℓ a últimalinha não-nula deA. Suponhamos que essa seja ak-ésima linha deA. Comoos pivôs de duas formas escalonadas reduzidas por linhas ocorrem nas mesmasposições, a matrizB possui exatamentek linhas não-nulas:ℓ1, . . . , ℓk. Denotemosas coordenadas deℓ por (ℓ1, . . . , ℓn) e as deℓi por (ℓ1i , . . . , ℓ

ni ), parai = 1, . . . , k.

(Quer dizer, estamos supondo queA e B tenhamn colunas.) Suponhamos queo pivô da linhaℓ ocorra na posiçãor. Como pivôs ocorrem na mesma posição,concluímos que o pivô da linhaℓk ocorre na posiçãor.

Como os espaços linhas deA eB são iguais, existem escalaresλ1, . . . , λk taisque

ℓ = λ1ℓ1 + . . .+ λkℓk. (3.9)

Como as coordenadasℓ1, . . . , ℓr−1 deℓ são todas nulas e os pivôs deℓ1, . . . , ℓkdevem ocorrer em posições anteriores à posiçãor, necessariamenteλk = 1 eλ1 = . . . = λk−1 = 0. Quer dizer, a última linha não-nula deA é igual à últimalinha não-nula deB. Repetindo sucessivamente esse argumento, concluímos quetodas linhas não-nulas deA eB são iguais. 2

Dois sistemasAx = b e A′x = b′ sãoequivalentesse possuírem as mesmassoluções. Isso quer dizer que as matrizes aumentadas dessessistemas têm o mesmoespaço linha. Passando à forma escalonada reduzida por linhas, podemos aplicaro Teorema 3.17 e concluir que as matrizes aumentadas desses sistemas possuem amesma forma escalonada reduzida por linhas.

Page 53: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 37 — #53i

i

i

i

i

i

§3.5 O Teorema do Núcleo e da Imagem 37

3.5 O Teorema do Núcleo e da Imagem

Nesta Seção provaremos um dos resultados mais importantes da Álgebra Linear:

Teorema 3.18 (do Núcleo e da Imagem)SejaT ∈ L(X,Y ). Então os espaços vetoriais

X

kerTe imT

são canonicamente isomorfos.Em particular, seX eY tiverem dimensão finita, então

dimX = dim(kerT ) + dim(imT ). (3.10)

Para motivar a demonstração que apresentaremos, cujo fundamento perpassa oestudo de todas as estruturas algébricas, apresentamos o

Exemplo 3.19 ParaA ∈ Mm×n(K), considere o sistema linear não-homogêneoAx = b. Suponhamos quexp seja uma solução desse sistema. Claramente,xp + ztambém é solução do sistema, qualquer que sejaz ∈ kerA. Mas, essas são as únicassoluções. De fato, sex for outra solução, temos queA(x − xp) = 0, de modo quex− xp = z ∈ kerA.

A igualdadex = xp + z significa quex ≡ xp mod kerA. Portanto, no espaçoquocienteKn/ kerA a equaçãoAx = b terá solução única[xp]! �

Demonstração: A prova do Teorema do Núcleo e da Imagem é sintetizada noseguinte diagrama: (setas verticais sempre indicarão isomorfismos)

XT

- imT

6

X

kerT

Tq

@@

@@@R

Vamos definirTq : Xker T

→ imT por Tq([x]) = Tx e mostrar queTq é umisomorfismo canônico. Temos:

Page 54: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 38 — #54i

i

i

i

i

i

38 Aplicações Lineares Cap. 3

1. Tq está bem definida:x ≡ y mod kerT quer dizer queT (x − y) = 0, ouseja,T (x) = T (y).

2. Tq é linear: Tq([x] + λ[y]) = Tq([x + λy]) = T (x + λy) = Tx + λTy =Tq([x]) + λTq([y]).

3. Tq é injetora: seTq([x]) = Tq([y]), entãoTx = Ty e T (x − y) = 0, dondex ≡ y mod kerT .

4. Tq é sobrejetora, por definição.

Logo,Tq é um isomorfismo canônico.SeX eY tiverem dimensão finita, deduzimos que

dim

(X

kerT

)= dim(imT ).

Mas, como já vimos,dim(X/ kerT ) = dimX − dim(kerT ), de onde segue-se aafirmação sobre as dimensões, completando a prova do teorema. 2

A demonstração anterior nos mostra a utilidade essencial doespaço quociente:mesmo seT não tiver inversa, podemos construir, de maneira natural, um isomor-fismo a partir deT , no caso, a aplicaçãoTq.

Devido a sua importância, apresentaremos uma demonstraçãoalternativa dafórmula (3.10), sem fazer uso do conceito de espaço quociente.

Demonstração alternativa da fórmula (3.10): Seja{x1, . . . , xj} uma base dekerT . Completamos esse conjunto até obter uma base

B = {x1, . . . , xj, wj+1, . . . , wn}

de X. ClaramenteX = kerT ⊕ W , em queW é o espaço gerado por{wj+1, . . . , wn}.

Afirmamos que{Twj+1, . . . , Twn} é uma base deimT ⊂ Y . De fato,suponhamos que

αj+1Twj+1 + . . .+ αnTwn = 0.

EntãoT (αj+1wj+1 + . . . + αnwn) = 0, mostrando queαj+1wj+1 + . . . + αnwn ∈kerT . Mas, então,αj+1 = . . . = αn = 0, poisX = kerT ⊕W . Isso mostra que osvetoresTwj+1, . . . , Twn são linearmente independentes.

Page 55: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 39 — #55i

i

i

i

i

i

§3.5 O Teorema do Núcleo e da Imagem 39

Seja agoray ∈ imT . Então existex ∈ X tal queTx = y. Como Bé base deX, x = α1x1 + . . . + αjxj + αj+1wj+1 + . . . + αnwn e, portanto,y = Tx = αj+1Twj+1 + . . . + αnTwn, mostrando que esses vetores geramimT .Isso conclui a prova. 2

Se você comparar essas duas demonstrações, perceberá que a essência dasegunda é o procedimento aplicado na primeira: mostramos que existe umisomorfismo entre o espaço gerado porwj, . . . , wn, que denotaremos porW , e oespaçoimT , cuja base é{Twj, . . . , Twn}. Note queW é isomorfo aX/ kerT ,segundo o Teorema 1.29.

Mostraremos agora algumas conseqüências do Teorema do Núcleo e da Imagem.Nesses resultados,T : X → Y denota uma aplicação linear. As demonstraçõesseguem-se imediatamente da fórmula

dimX = dim(imT ) + dim(kerT ).

Corolário 3.20 Suponhamos quedimY < dimX. Entãodim(kerT ) ≥ 1.

Demonstração:Note que, em particular,dim(imT ) ≤ dimY < dimX. 2

O Corolário 3.20 é muitas vezes formulado em termos de sistemas lineares:

Corolário 3.21 SejaA ∈ Mm×n(K), comm < n. Então o subespaço de todasas soluções do sistema linear homogêneoAx = 0 têm dimensão maior do que ouigual a1.

Corolário 3.22 Se dimX = dimY , entãoT é injetora se, e somente se, forsobrejetora.

Demonstração:SeT for injetora,Tx = 0 implicax = 0. Logo,dim(kerT ) = 0.Assim,dim(imT ) = dimX = dimY e, portanto,imT = Y . Reciprocamente, seT for sobrejetora,imT = Y e, portanto,dim(kerT ) = 0. 2

Em particular, sedimX = dimY , o Corolário 3.22 garante queT é injetorase, e somente se,kerT = {0}. Esse resultado é válido, na verdade, para quaisquerespaços vetoriaisX e Y . De fato,4 seT for injetora, claramentekerT = {0}; seexistissex1 6= x2 tal queT (x1) = T (x2), entãoT (x1 − x2) = 0, comx1 − x2 6= 0.

A formulação do Corolário 3.22 em termos de sistemas linearesé a seguinte:

4Veja o Exercício 13 do Capítulo 1.

Page 56: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 40 — #56i

i

i

i

i

i

40 Aplicações Lineares Cap. 3

Corolário 3.23 SejaA ∈ Mn×n(K). Então o sistema não-homogêneoAx = b temsolução única para todob ∈ Y se, e somente se, o sistema homogêneoAx = 0 tiversolução única.

O seguinte resultado decorre imediatamente do Teorema 3.13:

Corolário 3.24 SeA ∈Mm×n(K), entãodim(imA) = dim(imAt).

O próximo resultado vale apenas para matrizes quadradas:

Corolário 3.25 SejaA uma matrizn× n. Então

dim(kerA) = dim(kerAt).

Demonstração: De fato, ser := dim(imA) = dim(imAt), a aplicação doTeorema do Núcleo e da Imagem garante que:

dim(kerA) = n− r e dim(kerAt) = m− r.

Daí decorre o afirmado. 2

Finalmente, enunciamos o resultado apresentado no Exemplo3.19, que nãopassa de uma caracterização do isomorfismo dado na primeira demonstração doTeorema do Núcleo e da Imagem:

Proposição 3.26Sejab ∈ Km um elemento da imagem deT : Kn → Km. Entãoexiste um único elementoxp ∈ Kn tal que toda solução deTx = b é congruente axp módulokerT , isto é, seTx = b, entãox = xp + z, para algumz ∈ kerT .

Em outras palavras, se o sistemaAx = b possuir uma soluçãoxp, então todasas suas soluções sãoxp + z, em quez ∈ kerA.

3.6 Aplicações Lineares e Matrizes - parte 2

Na primeira Seção deste Capítulo mostramos como associar a cada aplicaçãolinear T : Kn → Km uma matrizA = (aij), que representaT com relaçãoàs bases canônicas doKn e Km. Mostraremos agora que a mesma associaçãoentre aplicações lineares e matrizes é válida para o caso de uma aplicação linearT : X → Y entre espaços vetoriais de dimensão finitaX eY .

A principal diferença, nesse caso, consiste em não termos uma escolha "natural"para bases nos espaçosX e Y . Suponhamos quedimX = n e dimY = m.

Page 57: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 41 — #57i

i

i

i

i

i

§3.6 Aplicações Lineares e Matrizes - parte 2 41

Escolhendo uma base arbitráriaB = {x1, . . . , xn} do espaçoX e escrevendox = λ1x1+ . . .+λnxn, a aplicaçãoB : X → Kn definida porBx = (λ1, . . . , λn) =λ1e1 + . . . + λnen é um isomorfismo entreX e Kn. Da mesma forma, ao seescolher uma baseC = {y1, . . . , ym} no espaçoY , obtém-se um isomorfismoCentreY eKm. Temos assim o seguinte diagrama (as setas verticais sempreindicamisomorfismos):

TX −→ Y

B ↓ ↓ CKn −→ Km

TK

. (3.11)

A aplicação linearTK é definida como composta de aplicações lineares (estamosusando a notação de composta para enfatizar)

TK = C ◦ T ◦B−1

e é representada por uma matrizA, de acordo como o que vimos na primeira seçãodeste capítulo. É usual chamar a matrizA de representação da aplicação linearT com respeito às basesB e C (dos espaçosX e Y , respectivamente) e denotarA = T C

B . Temos, assim, uma identificação entre a aplicação linearT (comX e Yconsiderados com as basesB e C, respectivamente) e a matrizA = T C

B . Com essaidentificação, o diagrama(3.11) pode ser condensado:

T CB

X,B −→ Y, C (3.12)

(estamos enfatizando, na expressão dos espaçosX eY , as bases que produziram amatrizT C

B ). Note, entretanto, queX,B é uma notação para o espaçoKn, ressaltandoa base usada emX para torná-lo isomorfo aKn.

Suponhamos que existaT−1. Essa aplicação linear terá uma representaçãomatricial [T−1]BC . É fácil verificar queA−1 = [T−1]BC (veja o Exercício 23).

Exemplo 3.27 SejamX e Y espaços vetoriais com basesB = {x1, . . . , xn} eC = {y1, . . . , ym}, respectivamente. SejaT : X → Y uma aplicação linear.Vejamos como obterT C

B . Para isso, usamos o diagrama

TX −→ Y

B ↓ ↓ CKn −→ Km

T CB

.

Page 58: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 42 — #58i

i

i

i

i

i

42 Aplicações Lineares Cap. 3

Como vimos, ai-ésima coluna da matriz procurada é obtida ao se calcularT CBe1 =

(CTB−1)ei. Mas,Bxi = ei, de modo que(CTB−1)ei = (CT )B−1ei = (CT )xi.ComoC é a aplicação que associa aT (xi) ∈ Y as suas coordenadas na baseC,temos que ai-ésima coluna da matriz procurada é[Txi]C. �

Note que, em particular, teremos a representação matricialde uma aplicaçãolinearT : Kn → Km, se escolhermos bases arbitrárias emKn eKm.

Associamos, assim, a cada aplicação linearT : X → Y uma matriz, cujaexpressão depende dos isomorfismos entreX e Kn e Y e Km. Esses, por sua vez,dependem das bases consideradas nos espaçosX e Y . Uma vez que cada escolhade base emX produz um isomorfismo diferente entreX eKn e o mesmo acontececom Y e Km, vemos que existem muitas maneiras distintas de representar umatransformação linear por meio de uma matriz. Como se relacionam essas diferentesmatrizes que representam a aplicação linearT?

Para responder a essa pergunta, começamos estudando como serelacionam asrepresentações dex em basesB = {x1, . . . , xn} e B = {x′1, . . . , x′n} do espaçoX.O mesmo procedimento anterior pode ser utilizado:

IX −→ X

B ↓ ↓ BKn −→ Kn

P BB

.

(Para sermos coerentes com a notação anterior, deveríamos escreverIBB ao invés deP BB . Entretanto, é usual denotar esse tipo de matriz pela letraP .)

De acordo com o exemplo 3.27, ai-ésima coluna deP BB é obtida calculando-

se a expressão deBIB−1(e1) = BI(x1) = [xi]B. A matrizP BB é chamadamatriz

mudança5 da baseB para a baseB. Dadas as coordenadas dex na baseB, isto é,[x]B, as coordenadas dex na baseB são dadas porP B

B [x]B = [x]B. Claramente amatrizP B

B possui inversaPBB .

Consideremos agora uma outra representaçãoT CB , relativa às basesB deX e C

5Alguns autores preferem chamar essa matriz de "matriz de passagem" da baseB para a baseB.Assim, a terminologia utilizada por eles fica invertida com relação à nossa.

Page 59: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 43 — #59i

i

i

i

i

i

§3.6 Aplicações Lineares e Matrizes - parte 2 43

deY . Temos o diagrama

T CB

X,B −→ Y, CP BB ↓ ↓ QC

CX, B −→ Y, C

T CB

.

Esse diagrama, cujas componentes são matrizes, nos mostra que

T CB = [QC

C]−1T C

BPBB = QC

CTCBP

BB .

O caso em que os espaçosX eY são iguais permite que se tome a mesma basenos dois espaços. Nesse caso, denotamosTB

B porTB, que é chamada representaçãodeT na baseB. A relação entreTB eTB é dada por

TB = [PBB ]−1TBP

BB = P B

B TBPBB ,

para qualquer outra baseB deX.

Observação 3.28Dada uma aplicação linearT : X → X entre espaços dedimensãon, a escolha de basesB e C emX pode fazer com que a representaçãomatricial deT assuma formas bem gerais. Por exemplo, seT for invertível, T C

Bpode ser a matriz identidade! (Veja o Exercício 39.) Assim, arepresentação deTem bases completamente arbitrárias quase não nos passa informação relevante sobrea aplicaçãoT . �

Exemplo 3.29 Considere a aplicação linearT : R2 → R2 definida por

T (x, y) = (4x− 2y, 2x+ y).

Para simplificarmos a notação neste exemplo, escreveremos os nossos vetoresindiferentemente como linhas ou colunas.

SejaB a base doR2 formada pelos vetoresv1 = (1, 1) e v2 = (−1, 0). Vamosachar a matriz que representaT com relação à baseB. (Quer dizer, estamosutilizando a mesma base no domínio e na imagem e procuramos a matrizTB.) Paraisso, calculamos

T (v1) = (2, 3) = 3(1, 1) + (−1, 0) = 3v1 + v2.

Page 60: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 44 — #60i

i

i

i

i

i

44 Aplicações Lineares Cap. 3

Note que escrevemos a imagem deT (v1) na baseB, utilizada também nocontradomínio. De acordo com a notação introduzida na Definição 1.15, temos

[T (v1)]B =

(31

).

Da mesma forma,T (v2) = (−4,−2) = −2(1, 1) + 2(−1, 0) = −2v1 + 2v2 e,portanto,

[T (v2)]B =

(−2

2

).

Assim,

TB =

(3 −21 2

).

As colunas deTB são as imagens dos vetores da baseB, escritas na própria baseButilizada, nesse caso, também no contradomínio.

Se quisermos calcular a imagem do vetor(1, 2) = 1e1 + 2e2 utilizando a matrizTB, primeiro expressamos esse vetor na baseB:

(1, 2) = 2(1, 1) + 1(−1, 0) = 2v1 + v2.

Calculando

TB

(21

)=

(3 −21 2

)(21

)=

(44

),

obtemos a "resposta" na baseB. Se quisermos a resposta na base canônica,precisamos escrever o resultado obtido nessa base:

4v1 + 4v2 = 4(1, 1) + 4(−1, 0) = (0, 4) = 0e1 + 4e2,

que é o mesmo resultado que obtemos ao calcular diretamenteT (1, 2), utilizando aexpressãoT (x, y) = (4x− 2y, 2x+ y).

Para entendermos melhor a estrutura deste exemplo, temos o seguinte diagrama

TER2, E −→ R2, E

PBE ↓ ↓ PB

ER2,B −→ R2,B

TB

.

Page 61: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 45 — #61i

i

i

i

i

i

§3.7 A Transposta de uma Aplicação Linear 45

Aqui, TE é a representação "natural" da transformaçãoT (x, y) = (4x−2y, 2x+y). Isso é, a matriz cujas colunas são, respectivamente,T (1, 0) = (4 2)t eT (0, 1) = (−2 1)t.

A matrizTB é a matriz obtida no exemplo. A matrizPBE é a matriz mudança da

baseE para a baseB. Ela é obtida pelo mesmo método: escrevemos a imagem dosvetorese1, e2 pela aplicação identidade na baseB. Temos

(1, 0) = 0(1, 1)−1(−1, 0) = 0v1−v2 e (0, 1) = 1(1, 1)+1(−1, 0) = 1v1+1v2.

A matrizPBE é, então,

PBE =

(0 1−1 1

).

O diagrama anterior garante que

TE = [PBE ]−1TBP

BE ,

ou seja, (4 −22 1

)=

(0 1−1 1

)−1(3 −21 2

)(0 1−1 1

)

Se calcularmos a inversa da matrizPBE , verificaremos esse fato. Entretanto, é fácil

obterP EB . Essa matriz tem como colunas a expressão dos vetoresv1 e v2 na base

canônica. Assim, é claro que

P EB =

(1 −11 0

).

Verifique queP EB = [PB

E ]−1. �

3.7 A Transposta de uma Aplicação Linear

(Esta Seção é mais avançada e pode ser omitida sem prejuízo para o restante dotexto.)

Existe uma maneira intrínseca de se definir a aplicação transpostaT t de umoperador linearT . (No caso de aplicações lineares denota-se a transpostaT t

também porT ′, o que faremos a seguir. Veja o Exercício 10 do Capítulo 2.)Para isso, sejamT : X → Y uma aplicação linear entre os espaçosX e Y .

Considereℓ ∈ Y ′, isto é,ℓ : Y → K é linear. Então o produto dessas aplicações(isto é, a composta)ℓT : X → K é um elemento do dualX ′.

Page 62: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 46 — #62i

i

i

i

i

i

46 Aplicações Lineares Cap. 3

Y

X

��� @

@R

K-

T ℓ

mℓ

Nossa notação provisória émℓ(x) = ℓ(Tx). Note que, variandoℓ ∈ Y ′,obtemos diferentes aplicaçõesm ∈ X ′. Consideremos entãoT ′ : Y ′ → X ′ definidapor

T ′(ℓ) = ℓT = mℓ.

Desse modo, a aplicaçãoT ′ é uma aplicação definida no espaço dualY ′ e tomandovalores no espaço dualX ′. Afirmamos queT ′ é linear. De fato,

T ′(ℓ1 + λℓ2) = (ℓ1 + λℓ2)T = ℓ1T + λℓ2T = T ′(ℓ1) + λT ′(ℓ2),

para quaisquerℓ1, ℓ2 ∈ Y ′ eλ ∈ K.Vamos agora introduzir uma nova notação para a avaliação de um elemento do

dual em um ponto do espaço: até agoraℓ(z) denota a avaliação deℓ : Z ′ → K nopontoz ∈ Z. É usual denotarℓ(z) por

〈ℓ, z〉.

Abandonaremos a notação provisóriamℓ e usaremos a notaçãoT ′ℓ. Assim, pordefinição,

〈T ′ℓ, x〉 = 〈ℓ, Tx〉ou, o que é o mesmo,

T ′ℓ = ℓT. (3.13)

Nosso próximo objetivo é caracterizar a aplicaçãoT ′ para o caso deT : Rn →Rm. Veremos que podemos representarT ′ (a aplicação transposta) por uma matriz,que é justamente a transposta da matriz que representaT com relação às basescanônicas doRn eRm.

O lado direito de(3.13) tem interpretação imediata: comoℓ ∈ (Rm)′, ℓ é dadapor uma matriz linha, de modo que

ℓT = (c1 . . . cm)

a11 . . . a1n...

.. ....

am1 . . . amn

.

Page 63: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 47 — #63i

i

i

i

i

i

§3.8 Exercícios 47

Se quisermos interpretarT ′ como uma matriz, então devemos identificar(Km)′ comKm e (Kn)′ com Kn. Assim T ′ : (Km)′ → (Kn)′ passa a ser vista como umaaplicaçãoT : Km → Kn. O vetor colunaℓ ∈ Km, quando aplicado aT ′, satisfaz aigualdadeT ′ℓ = ℓT , ou seja, seB = (bij) for a representação matricial deT ′ (comrelação às bases canônicas doKm eKn), então

T ′

c1...cm

=

b11 . . . b1m...

. . ....

bn1 . . . anm

c1...cm

= (c1 . . . cm)

a11 . . . a1n...

. . ....

am1 . . . amn

.

A segunda igualdade mostra queB = (bij) deve satisfazerbij = aji, como severifica mediante escolha adequada dec1, . . . , cm. Mas, então,B = At, como antesdefinido.

3.8 Exercícios

1. SejaA = (c1 · · · ck · · · cn) uma matriz descrita por meio de suas colunas. Sex = x1e1 + . . .+xnen, interpreteAx como uma multiplicação das colunas deA pelo vetorx. Em seguida, interprete a multiplicaçãoAB de duas matrizescomo uma operação envolvendo as colunas dessas matrizes.

2. Considere os polinômiosp1(t) = 7t5 + 6t2, p2(t) = 1 + t no espaçoK6[t] detodos os polinômios de grau menor que 6.

(a) SeS = {p1, p2}, descreva< S >;

(b) ache uma baseB de K6[t] que completa o conjunto linearmenteindependenteS;

(c) determine a representação de cada um dos vetores deB nessa base;

(d) determine a representação deq ∈ K6[t] em termos da baseB.

3. Mostre queL(X,Y ) (introduzido na Definição 3.7) é um espaço vetorial.

4. Se você tiver lido o Capítulo 2, represente em matrizes a base dual da basecanônica{e1, . . . , en} doRn.

5. Dada uma matrizA, n × n, mostre que existe no máximo uma matrizB talqueAB = BA = I, em queI ∈Mn×n(K).

Page 64: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 48 — #64i

i

i

i

i

i

48 Aplicações Lineares Cap. 3

6. Mostre que uma matriz quadradaA tem inversa se, e somente se, o sistemaAx = 0 só possuir a solução trivial.

7. SejaA ∈ Mn×n(K) uma matriz diagonal, com todos os elementos diagonaisdistintos. SeB comutar comA, mostre queB é diagonal.

8. Quais matrizesA ∈ Mn×n(K) comutam com todas as matrizesB ∈Mn×n(K)?

9. Exiba uma base deMn×n(K) formada apenas por matrizes invertíveis.

10. SejaK[t] o espaço de todos os polinômios na incógnitat. ConsidereT :K[t] → K6[t] definida da seguinte maneira: sep ∈ K[t], entãoTp é opolinômio emK6[t] cujos coeficientes de grau menor que 6 são iguais aoscoeficientes dep. Mostre queT é linear. Ache uma base paraimT e kerT .O Teorema do Núcleo e da Imagem pode ser aplicado? Justifique.

11. Mostre que o escalonamento do mesmo sistema pode produzir duas formasescalonadas distintas.

12. Mostre que a equivalência por linhas, tal qual definida napágina 34, é umarelação de equivalência.

13. SejaA uma matrizn × n. Mostre que são equivalentes as seguintesafirmações:

(a) existe uma matrizB, n× n, tal queBA = I;

(b) a matrizA é equivalente por linhas à matriz identidadeI;

(c) a matrizA é invertível.

14. SejamA eB matrizesm×n equivalentes por linhas, com colunasa1, . . . , an

e b1, . . . , bn, respectivamente.

(a) As colunasaj1 , . . . , ajkde A são linearmente independentes se, e

somente se, as colunas correspondentesbj1 , . . . , bjkdeB forem linear-

mente independentes;

(b) se existirem escalares tais queaℓ = αj1aj1 + . . . αjkajk

, então existemescalares tais quebℓ = βj1bj1 + . . . βjk

bjk;

Page 65: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 49 — #65i

i

i

i

i

i

§3.8 Exercícios 49

(c) o espaço gerado pelas linhas deA é igual ao espaço gerado pelas linhasdeB.

15. Mostre a Proposição 3.26 utilizando o isomorfismoTq definido na primeirademonstração do Teorema do Núcleo e da Imagem.

16. Enuncie e demonstre o Teorema do Núcleo e da Imagem substituindoX/ kerT por um espaçoZ tal queX = kerT ⊕ Z. Você deve dar umademonstração direta, isto é, sem apelar para o próprio Teorema do Núcleo eda Imagem.

17. Umaprojeçãoé uma aplicação linearπ : X → X tal queπ2 = π. Mostreque toda projeçãoπ : X → X satisfazX = ker π ⊕ imπ (compare com oExercício 28). SejaX = W1 ⊕W2 e x = w1 + w2, comwi ∈ Wi. MostrequeΠ : X → W1, definida porΠx = w1, é uma projeção.

18. Sejamπ1, π2 : X → X projeções. Mostre que são equivalentes:

(a) π1 + π2 é uma projeção;

(b) π1π2 + π2π1 = 0;

(c) π1π2 = π2π1 = 0.

19. SejamX e Y espaços vetoriais eB uma base deX (mesmo queX tenhadimensão infinita). Faça corresponder, de maneira arbitrária, um vetoryx ∈ Ya cada elementox ∈ B. Mostre que existe uma única transformação linearT : X → Y tal que Tx = yx para todox ∈ B. (Note que, emparticular, isso implica que uma transformação linearT : Kn → Km ficacompletamente determinada pela imagem que ela assume em qualquer basedoKn.) Mostre então que uma transformação linearT : X → Y é injetora se,e somente se, levar vetores linearmente independentes em vetores linearmenteindependentes.

20. SejamX eY espaços vetoriais com a mesma dimensão finita. Suponha que,para as aplicações linearT : X → Y eS : Y → X, seja verdadeiroST = I,a identidade emX. Mostre queS = T−1. (Compare com o Exercício 29.)

21. SeT : X → Y e S : Y → Z forem aplicações lineares invertíveis, mostreque(ST )−1 = T−1S−1. Mostre também que(S t)−1 = (S−1)t.

Page 66: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 50 — #66i

i

i

i

i

i

50 Aplicações Lineares Cap. 3

22. SejaA ∈ Mm×n(K). Considere os seguintes "métodos" para obter-se umabase paraimA:

(a) Escolha uma base paraKn. Calcule a imagem dos vetores dessabase. Esses vetores geram a imagem. Extraia então um subconjuntolinearmente independente, que é a base procurada;

(b) Obtenha uma base parakerAt. Complete até obter uma base do espaçointeiro. Os vetores introduzidos formam uma base do espaçoimA;

(c) Escalone a matrizAt (veja a Seção A). As transpostas das linhas não-nulas deAt nos dão uma base deimT ;

(d) Calcule uma base dekerT . Complete esse conjunto, até obter uma basedo espaço inteiro. As imagens dos vetores adicionados à basedekerTformam uma base deimA;

(e) Sejab = (b1 b2 . . . bm)t um vetor genérico doKm. Monte a matrizaumentada do sistema (veja a Seção A). Escalone o sistema e imponhaque ele possua solução. Cada linha nula no escalonamento deA produzuma equação na matriz aumentada e a imagem é o conjunto dos pontosque satisfazem essas equações. Extraia daí uma base. (O que acontecese não houver linha nula?)

(f) Escalone a matrizA. As colunas deA correspondentes aos pivôs (vejaa Seção A) da forma escalonada deA são uma base deimA.

Justifique quais desses métodos realmente produzem bases deim A.

Considere agora

A =

3 1 2 4 11 1 1 1 22 2 2 1 1

.

Utilize todos os métodos corretos dentre as alternativas anteriores para obterbases paraimA.

23. SejaT : X → Y uma aplicação linear invertível representada, com relaçãoàs basesB e C dos espaçosX eY , respectivamente, pela matrizT C

B . Mostreque a aplicação inversaT−1 é representada, com relação às basesC eB, pelamatriz [T C

B ]−1.

24. SejaX um espaço vetorial de dimensão finita sobreK. Parav, w ∈ X,definimosv ≡ w, se existir uma transformação linear invertívelT : X → X

Page 67: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 51 — #67i

i

i

i

i

i

§3.8 Exercícios 51

tal queTv = w. Mostre que assim está definida uma relação de equivalência.Mostre também que essa relação de equivalência possui apenas duas classes:uma formada apenas pelo elemento0 ∈ X e a outra formada por todos osoutros vetores deX.

25. Se

M =

(a11 a12

a21 a22

),

definaT : M2×2(K)→M2×3(K) por

T (M) =

(a12 a11 − a12 a21 − a12

a22 a21 − a11 a22 + a21

).

Sejam

B =

{(1 00 1

),

(1 10 0

),

(1 11 0

),

(1 11 1

)},

B′ =

{(1 00 0

),

(0 10 0

),

(0 01 0

),

(0 00 1

) },

C =

{(1 0 00 0 0

),

(1 1 00 0 0

),

(1 1 10 0 0

),

(1 1 11 0 0

),

(1 1 11 1 0

),

(1 1 11 1 1

)}

C′ =

{(1 0 00 0 0

),

(0 1 00 0 0

),

(0 0 10 0 0

),

(0 0 01 0 0

),

(0 0 00 1 0

),

(0 0 00 0 1

)}.

(a) Mostre queT : M2×2 →M2×3 é linear;

(b) mostre queB e B′ são bases deM2×2, enquantoC e C′ são bases deM2×3;

(c) ache a representação matricial deT relativa às basesB eC, bem como arelativa às basesB′ eC′;

Page 68: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 52 — #68i

i

i

i

i

i

52 Aplicações Lineares Cap. 3

(d) ache a relação entre essas matrizes;

(e) obtenha bases parakerT e imT .

26. SejamT (x, y, x) = (x+y+z, y+z, x) eB = {(1, 0, 1), (0, 1, 0), (−1, 0, 1)}.Então:

(a) ache a matrizTB;

(b) usando essa matriz, especifique uma base parakerT e imT ;

(c) calculeT (1, 1, 1) utilizando a representação matricial calculada em(a).

27. A definição dos espaçoskerT e imT de uma aplicação linearT : X → Yindepende (da existência) de bases nesses espaços. Contudo,seA for umamatriz que representa uma aplicação linear, tantokerA comoimA dependemdas bases consideradas no domínio e no contradomínio. Explique.

28. SejamX um espaço vetorial de dimensão finita eT : X → X uma aplicaçãolinear. Mostre que

X = kerT ⊕ imT

se, e somente se,kerT = kerT 2.

29. SejamA eB matrizes, não necessariamente quadradas. Suponha queAB = I(a identidade no espaço apropriado). Mostre quepostoA = postoB.

30. SejamS, T : X → Y eR : Y → Z aplicações lineares. Mostre:

(a) posto(S + T ) ≤ posto(S) + posto(T );

(b) posto(RS) ≤ min{posto(S), posto(T )}.

31. Dê exemplo de matrizesA,B tais queAB = 0, masBA 6= 0.

32. SejamA,B matrizes quadradas invertíveis. Mostre que(AB)−1 = B−1A−1.

33. SejamA ∈Mm×n eB ∈Mn×p matrizes em blocos,(A11 A12

A21 A22

)

6

r

6

n− r

� q� m− q e r

n− r--

(B11 B12

B21 B22

)

6

t

6

p− t

Page 69: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 53 — #69i

i

i

i

i

i

§3.8 Exercícios 53

com blocosA11 ∈ Mq×r, A12 ∈ Mq×(n−r), A21 ∈ M(m−q)×r, A22 ∈M(m−q)×(n−r) para a matrizA e blocosB11 ∈ Mr×t, B12 ∈ Mr×(p−t),B21 ∈M(n−r)×t,B22 ∈M(n−r)×(p−t) para a matrizB.

Mostre que

AB =

(A11B11 + A12B21 A11B12 + A12B22

A21B11 + A22B21 A21B12 + A22B22

).

34. SejamA eD matrizesp × p e (n − p) × (n − p), respectivamente. Mostreque a matriz

X =

(A B0 D

)

é invertível se, e somente se, as matrizesA eD forem invertíveis. Nesse caso,

X−1 =

(A−1 −A−1BD−1

0 D−1

).

35. SejamA,B,C,D ∈ Mn×n(K). Suponha queA seja invertível. Mostre queexistem matrizesX,Y ∈Mn×n(K) tais que

P =

(A BC D

)=

(A OC I

)(I Y0 X

).

DecomponhaP de maneira similar, seB, C ouD forem invertíveis.

36. SejaT : X → X uma transformação linear eX = W1 ⊕ · · · ⊕ Wk.Suponhamos queT (Wi) ⊂ Wi para i ∈ {1, . . . , k} (dizemos que ossubespaçosWi são invariantespor T ). SeBi for uma base deWi, mostrequeB = {B1, . . . ,Bk} é uma base deX. AcheTB em termos deTBi

.

37. SejaX um espaço de dimensão finita eT : X → X um operador tal queT (V ) ⊂ V para algum subespaçoV ⊂ X. Sempre existeW ⊂ X tal queT (W ) ⊂ W eX = V ⊕W?

38. SejamA,B ∈ Mn×n(K), o espaço das matrizesn × n com coeficientesem K. Dizemos queA é semelhante aB, se existir uma matriz invertívelP ∈ Mn×n(K) tal queB = P−1AP . Mostre que a semelhança é umarelação de equivalência. Esboce um diagrama que representaessa relaçãode equivalência. É usual dizer então queA eB são iguais, a menos de umamudança de base. Essa frase faz sentido para você?

Page 70: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 54 — #70i

i

i

i

i

i

54 Aplicações Lineares Cap. 3

39. SejamX,Y espaços de dimensão finita. Duas aplicações linearesS, T :X → Y sãoequivalentes em basesse existirem basesB,B′ deX e C, C′deY de modo queT C

B = SC′

B′. Mostre que assim está definida uma relaçãode equivalência. Mostre que duas aplicações de mesmo posto são sempreequivalentes em bases. Descreva em termos de diagramas a equivalênciaem bases. Em particular, mostre queS e T são equivalentes em basesse, e somente se, existirem aplicações lineares invertíveis P : X → X eQ : Y → Y tais queS = PTQ.

40. SejamX um espaço vetorial eU, V ⊂ X subespaços. Mostre que

U + V

Ve

U

U ∩ Vsão isomorfos. Esse isomorfismo é canônico?

Page 71: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 55 — #71i

i

i

i

i

i

4Determinantes

Aqui é feita uma apresentação elementar da teoria de determinantes e suaspropriedades, incluindo a regra de Cramer. A relação entre determinantes e volumesserá apresentada nos exercícios do Capítulo 8.

4.1 Determinantes de Matrizes2× 2

Consideremos inicialmente uma matriz

A =

(a bc d

)= (c1 c2)

com entradas no corpoK e colunasc1, c2. Denota-se pordetA o determinante deA, que é definido pordetA = ad− bc.

As seguintes propriedades são de verificação imediata:

(i) Se duas colunas forem iguais, então o determinante da matrizA é igual azero:

det

(a ac c

)= 0;

(ii) O determinante é uma aplicação linear em cada uma de suas colunas. Maisprecisamente,

det(c1 + αc′1 c2) = det

(a+ λa′ bc+ λc′ d

)= det

(a bc d

)+ λ det

(a′ bc′ d

)

= det(c1 c2) + α det(c′1 c2)

55

Page 72: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 56 — #72i

i

i

i

i

i

56 Determinantes Cap. 4

e

det(c1 c2 + αc′2) = det

(a b+ µb′

c d+ µd′

)= det

(a bc d

)+ µ det

(a b′

c d′

)

= det(c1 c2) + α det(c1 c′2);

(iii) O determinante da matriz identidade (2× 2) é igual a1.

Também temos:

(iv) Se trocarmos as colunas deA, o determinante muda de sinal

det(c2 c1) = det

(b ad c

)= − det

(a bc d

)= det(c1 c2);

(v) Se somarmos a uma coluna um múltiplo da outra, então o determinante deAnão se altera:

det

(a+ λb bc+ λd d

)= det

(a bc d

)e det

(a b+ µac d+ µc

)= det

(a bc d

);

(vi) Sec1 = αc2, entãodetA = 0:

det

(αc cαd d

)= α det

(c cd d

)= 0;

(vii) detA = detAt:

det

(a bc d

)= det

(a cb d

).

Consideremos agora um sistema linear com duas equações, nas incógnitasx1 ex2:

ax1 + bx2 = y1

cx1 + dx2 = y2,

em que as constantesa, b, c, d, y1 e y2 são arbitrárias. Multiplicando a primeiraequação pord e a segunda por−b e então somando, obtemos

x1(ad− bc) = y1d− y2b.

Page 73: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 57 — #73i

i

i

i

i

i

§4.2 Função Determinante 57

Analogamente,x2(ad− bc) = ay2 − cy1.

Escrevendo o sistema matricialmente na formaAx = y,(a bc d

)(x1

x2

)=

(y1

y2

),

vemos que sua solução,sedetA 6= 0, pode ser escrita em termos de determinantes

x1 =

det

(y1 by2 d

)

detAe x1 =

det

(a y1

c y2

)

detA.

Essa é aregra de Cramerpara a solução de um sistema de duas equações em duasincógnitas.

4.2 Função Determinante

Definiremos uma função determinante a partir das propriedades satisfeitas pelodeterminante de uma matriz2× 2.

Definição 4.1 Sejamc1, c2, . . . , cn ∈ Kn. Umafunção determinanteD(c1, . . . , cn)é uma função

D : Kn × · · · × Kn → K

(c1 , . . . , cn) 7→ D(c1, . . . , cn)

satisfazendo as seguintes propriedades:

(d1) D é uma funçãoalternada, isto é, seci = cj para i 6= j, i, j ∈ {1, . . . , n},entãoD(c1, . . . , cn) = 0;

(d2) D(c1, . . . , cn) é uma funçãon-linear, isto é,D é uma aplicação linear emcada coordenada, as outras sendo mantidas fixas; mais precisamente, setodos oscj comj 6= i estiverem fixos,

D(c1, . . . , λci + c′i, . . . , cn) = λD(c1, . . . , ci, . . . , cn)+D(c1, . . . , c′i, . . . , cn).

(d3) D(e1, . . . , en) = 1, em que{e1, . . . , en} é a base canônica doKn.

Page 74: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 58 — #74i

i

i

i

i

i

58 Determinantes Cap. 4

Para melhor entendermos o significado da hipótese(d3), em muitos resultadosconsideraremos apenas uma função satisfazendo as propriedades(d1) e (d2).

É claro que a definição de uma função satisfazendo as propriedades(d1) e (d2)pode ser expressa em termos de matrizes: seA = (c1 c2 · · · cn) for uma matrizn× n (com colunasc1, . . . , cn), entãoD(A) = D(c1, c2, . . . , cn).

Lema 4.2 Seja D uma função satisfazendo a propriedade(d2). Então, sãoequivalentes as afirmações:

(d1) D é uma função alternada;

(d′1) Se os vetores consecutivosci e ci+1 forem iguais, entãoD(c1, · · · , ci, ci+1, · · · , cn) = 0.

Demonstração: (d′1) ⇒ (d1) Faremos indução sobre as posições com colunasiguais. Ou seja, paraj = i+ k, faremos indução sobrek ∈ N = {1, 2, . . .}.

Se k = 1, temos a própria afirmativa(d1). Suponhamos o resultadoverdadeiro parak: sempre queci = ci+k entãoD(c1, . . . , ci, . . . , ci+k, . . . , cn) =0. Simplificando a notação, escreveremosD(ci, . . . , ci+k, ci+k+1) ao invés deD(c1, . . . , ci, . . . , ci+k, ci+k+1, . . . , cn). Suponhamosci = ci+k+1. Então vale(verifique cuidadosamente cada passagem):

D(ci, . . . , ci+k, ci+k+1) =

= D(ci, . . . , ci+k, ci+k + ci+k+1)

= D(ci, . . . , ci+k, ci+k + ci+k+1) +D(ci, . . . , ci+k+1, ci+k + ci+k+1)

= D(ci, . . . , ci+k + ci+k+1, ci+k + ci+k+1)

= 0.

A implicação(d1)⇒ (d′1) é imediata. 2

Não é óbvia a existência de uma função satisfazendo as propriedades(d1) e(d2). Contudo, outras propriedades de uma tal função seguem-se imediatamente dadefinição:

Lema 4.3 Uma função que satisfaz as propriedades(d1) e (d2) também satisfaz aspropriedades

(d4) D é uma funçãoanti-simétrica,isto é, se trocarmosci por cj, então o valordeD é multiplicado por−1. Sendo mais preciso,

D(c1, . . . , ci, . . . , cj, . . . , cn) = −D(c1, . . . , cj, . . . , ci, . . . , cn);

Page 75: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 59 — #75i

i

i

i

i

i

§4.2 Função Determinante 59

(d5) Se somarmos a um vetorci um múltiplo do vetorcj, o valor deD não sealtera;

(d6) Sec1, . . . , cn forem linearmente dependentes, entãoD(c1, . . . , cn) = 0.

Demonstração: Como vamos trocar apenas as colunasci e cj, os outros vetorespermanecendo fixos, denotaremosD(c1, . . . , ci, . . . , cj, . . . , cn) simplesmente porD(ci, cj). Temos

0 = D(ci + cj, ci + cj) = D(ci, ci + cj) +D(cj, ci + cj)

= D(ci, ci) +D(ci, cj) +D(cj, ci) +D(cj, cj)

= D(ci, cj) +D(cj, ci).

LogoD(ci, cj) = −D(cj, ci), mostrando(d4).As propriedades(d1) e (d2) implicam

D(ci + λcj, cj) = D(ci, cj) + λD(cj, cj) = D(ci, cj) + 0

= D(ci, cj).

Quanto a(d6), suponhamos quec1, . . . , cn sejam linearmente dependentes.Então um desses elementos pode ser escrito como combinação linear dos restantes.Vamos supor quec1 = λ2c2 + . . .+ λncn. A propriedade(d2) nos garante que

D(c1, . . . , cn) = D(λ2c2 + . . .+ λncn, c2, . . . , cn)

= λ2D(c2, c2, . . . , cn) + . . .+ λnD(cn, c2, . . . , cn).

Por(d1), todos os termos na última linha são nulos; isso mostra(d6). 2

Observação 4.4SejaA uma matriz realn×n. Nesse caso,D(A) pode ser positivo,negativo ou nulo. Nos dois primeiros casos, a imagem da base canônicaE do Rn éuma baseB desse espaço, cujos vetores correspondem às colunas deA.

Dizemos que a baseB estápositivamente orientada(ou queE eB têm a mesmaorientação), seD(A) > 0.

Se D(A) 6= 0, dizer que a função determinante é anti-simétrica é dizerque, permutando duas colunas deA, alteramos a orientação da baseB. (Veja aObservação 8.52.) �

Page 76: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 60 — #76i

i

i

i

i

i

60 Determinantes Cap. 4

4.3 Existência de uma Função Determinante

Precisamos, contudo, mostrar que existe alguma função satisfazendo aspropriedades da função determinante. É o que faremos agora.

Definição 4.5 SejaA uma matrizn×n. Parai, j ∈ {1, . . . , n},Aij denota a matrizobtida ao se eliminar ai-ésima linha e aj-ésima coluna deA.

Exemplo 4.6 Seja

A =

2 3 57 11 13

17 19 23

.

Então

A11 =

(11 1319 23

), A12 =

(7 13

17 23

), A13 =

(7 11

17 19

)

e assim por diante. �

Teorema 4.7 Existe uma função determinante.

Demonstração:SeA for uma matrizn×n, faremos indução emn. Sen = 2, entãotodas as propriedades da função determinante já foram verificadas anteriormente.1

Suponhamos a existência de uma função determinanteD para matrizes(n − 1) ×(n− 1) e consideremos uma matrizA = (aij) ∈Mn×n. Definimos

D1(A)=(−1)1+1a11D(A11) +. . .+ (−1)1+ja1jD(A1j) + . . .+ (−1)1+na1nD(A1n).(4.1)

Mostraremos queD1(A) satisfaz as propriedades(d′1) − (d3). Comoa propriedade(d′1) é equivalente à propriedade(d1), D1(A) é uma funçãodeterminante.

(d′1) Suponhamos que duas colunasci e ci+1 deA sejam iguais. Em particular,duas colunas deA1k são iguais, sek 6∈ {i, i+ 1}. Assim, apenas os termos

(−1)1+ia1iD(A1i) e (−1)1+(i+1)a1(i+1)D(A1(i+1))

1Não há impedimento em se tomarn = 1 e considerarD(a) = a. As propriedades(ii) e (iii)da função determinante são obviamente verdadeiras e a propriedade(i) vale por vacuidade.

Page 77: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 61 — #77i

i

i

i

i

i

§4.4 Unicidade da Função Determinante 61

podem ser não-nulos em(4.1). Contudo, como as colunasci e ci+1 são iguais,também são iguais as matrizesA1i eA1(i+1). Do mesmo modo paraa1i e a1(i+1).Disso decorre que(4.1) é igual a zero.

(d2) Suponhamos quej-ésima coluna deA sejacj + λc′j, isto é, que paraj fixo,a sua entradaij sejaaij + λa′ij para todoi = 1, . . . , n.

Sek 6= j, o termoa1k não depende dej, enquantoA1k depende linearmente dacolunaj deA. Assim,(−1)1+ka1kA1k depende linearmente daj-ésima coluna deApara todok 6= j. Por outro lado, sek = j, entãoa1j + λa′1j depende linearmente dacolunaj, enquantoA1j não depende da colunaj-ésima coluna deA. Assim, todosos termos de(4.1) dependem linearmente da colunaj da matrizA.

(d3) SeA for a matriz identidadeI, então apenas a parcela(−1)1+1a11D(I11)não é nula em(4.1). Mas, nesse caso,I11 é a matriz identidade(n− 1)× (n− 1) e,portanto,D(I11) = 1. Isso mostra queD1(I) = 1. 2

Definição 4.8 SejaA uma matrizn×n. SendoD uma função determinante definidapara matrizes(n− 1)× (n− 1), definimos indutivamente

Di(A) = (−1)i+1ai1D(Ai1) + · · ·+ (−1)i+nainD(Ain).

Esta igualdade é aexpansão do determinante deA segundo os cofatores dai-ésima linhadeA.

Corolário 4.9 A funçãoDi, definida anteriormente, é uma função determinante.

Demonstração:Basta verificar que pode ser repetido todo o procedimento utilizadona demonstração de queD1(A) é uma função determinante. 2

Mostramos assim a existência de várias funções determinante. Nosso objetivo émostrar que todas elas são iguais: existe uma única função determinante.

4.4 Unicidade da Função Determinante

Definição 4.10Seja I = {1, 2, . . . , n} ou, mais geralmente, um conjunto{x1, . . . , xn} com n elementos distintos. Umapermutaçãoé uma aplicaçãosobrejetorap : I → I.

Page 78: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 62 — #78i

i

i

i

i

i

62 Determinantes Cap. 4

Existem várias notações para uma permutaçãop : I → I. Escreveremospi ao invésdep(i) (ou dep(xi)) e representaremos uma permutaçãop por

p =

(1 2 . . . np1 p2 . . . pn

)

ou por uma matrizA = (aij), comaij = 0 sei 6= pj eaij = 1, sei = pj, chamadarepresentação matricialda permutaçãop oumatriz da permutaçãop.

Exemplo 4.11 Considere a permutação

p =

(1 2 3 42 4 3 1

).

A permutaçãop é representada pela matriz

0 0 0 11 0 0 00 0 1 00 1 0 0

= A.

Note que cada coluna da matrizA corresponde a um vetor distinto da base canônicadoKn. �

É claro que uma permutação é, necessariamente, injetora. Permutações podemser compostas e têm inversa. Denotamos porpq a composta das permutaçõesp e q.

Exemplo 4.12 Considere as permutações

p =

(1 2 3 42 4 1 3

)e q =

(1 2 3 43 4 1 2

).

Então

qp =

(1 2 3 44 2 3 1

)e p−1 =

(1 2 3 43 1 4 2

).

Proposição 4.13A composta de duas permutações do conjunto{1, . . . , n}equivale à multiplicação das matrizes de suas permutações.

Page 79: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 63 — #79i

i

i

i

i

i

§4.4 Unicidade da Função Determinante 63

Demonstração: Consideremos o espaçoKn e sua base canônica. Podemosidentificar o conjunto{1, . . . , n} com{e1, . . . , en}. Uma permutação do conjuntoE = {e1, . . . , en} induz uma aplicação linearT : Kn → Kn definida porT (ej) = epj

e a matriz que representap é justamente a matrizTE . Essa aplicaçãolinear é um isomorfismo, pois leva base em base. A composição de permutaçõesequivale à composta dessas aplicações lineares. Mas, já vimos que a composta deaplicações lineares equivale à multiplicação das matrizesque as representam. Issoconclui a demonstração. 2

Note que a Proposição 4.13 justifica a introdução da notação matricial para umapermutação.

Definição 4.14Uma transposiçãoé uma permutaçãoτ : I → I tal que existemdois elementosi, j ∈ I (ouxi, xj ∈ I) com

τi = j, τj = i e τk = k, ∀ k ∈ I, comk 6∈ {i, j}.

O próximo resultado garante a unicidade da função determinante quando restritaàs matrizes de permutação:

Lema 4.15 SeD1 eD2 forem funções que satisfazem as propriedades(d1) e (d2) eD1(I) = D2(I), entãoD1(A) = D2(A) para toda matriz de permutaçãoA.

Demonstração: SejaA uma matriz de permutaçãon × n. Uma transposiçãocorresponde à troca de duas colunas da matrizA e altera o sinal de seu determinante.Claramente um número finito (no máximo igual an−1) de transposições transformaa matrizA na matriz identidade: basta fazer com que o vetore1 seja transposto paraa primeira coluna, obtendo assim a matrizA1; depois transpore2 para a segundacoluna, obtendo a matrizA2 e assim sucessivamente. Sek tais transposições foremutilizadas nesse processo, temos

D1(A) = −D1(A1) = D1(A2) = · · · = (−1)kD1(I) (4.2)

Essa igualdade mostra que a função determinante de qualquermatriz de permutaçãoé caracterizada pelos valores que ela assume na matriz identidade.

Como o mesmo cálculo vale paraD2(A), isso mostra que essas funçõescoincidem, seA for uma matriz de permutação. 2

O próximo resultado esclarece o significado de(d3) na definição da funçãodeterminante.

Page 80: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 64 — #80i

i

i

i

i

i

64 Determinantes Cap. 4

Teorema 4.16SejamD1 eD2 funções satisfazendo as propriedades(d1) e(d2). SeD1(I) = D2(I), entãoD1 = D2.

Demonstração: Sejamc1, . . . , cn ∈ Kn vetores arbitrários. Escrevendo cada umdesses vetores em termos da base canônica doKn, obtemos

c1 = a11e1 + . . .+ an1en,

c2 = a12e1 + . . .+ an2en,... =

...

cn = a1ne1 + . . .+ annen

(estamos usando essa notação para os índices, pois os vetores c1, . . . , cn sãocolunas!).

Assim,

D1(c1, . . . , cn) = D1(a11e1 + . . .+ an1en, c2, . . . , cn)

= a11D1(e1, c2, . . . , cn) + . . .+ an1D1(en, c2, . . . , cn).

Se substituirmos agorac2 por a12e1 + . . . + an2en, obteremos uma expressãosemelhante. Feitas todas as substituições dec2, . . . , cn, chegaremos a

D1(c1, . . . , cn) =n∑

i1,...,in=1

ai11ai22 · · · ainnD1(ei1 , . . . , ein) (4.3)

e a mesma igualdade vale paraD2.Nesse somatório, tanto paraD1 como paraD2, são nulas todas as parcelas em

que há repetição de algum dos índicesi1, . . . , in. De fato, nesse caso, temos queik = ij parak 6= j e entãoeik = eij . Param = 1, 2, a propriedade(d1) dodeterminante garante então queDm(ei1 , . . . , eij , . . . , eik , . . . , ein) = 0. Quer dizer,basta considerar o caso em que todos os índicesi1, . . . , in são diferentes entre si.Mas, então, está estabelecida uma permutação dos inteiros{1, . . . , n} e o resultadosegue-se do Lema 4.15. 2

Corolário 4.17 Existe uma única função determinante.

Está assim mostrada a existência de apenas uma função determinante, definidapara qualquer matriz quadrada. Relembramos a definição dada no início doCapítulo:

Page 81: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 65 — #81i

i

i

i

i

i

§4.4 Unicidade da Função Determinante 65

Definição 4.18SejamD a função determinante eA = (c1 · · · cn) uma matrizn× n denotada por meio de suas colunas. Definimos

detA = D(c1, . . . , cn).

Em outras palavras, passamos a utilizar a notação habitualdetA para odeterminante da matrizA.

Agora vamos mostrar algumas propriedades de permutações que normalmentesão utilizadas na prova da unicidade do determinante.

A demonstração do Lema 4.15 nos garante que:

Corolário 4.19 Toda permutação é um produto de transposições. Além disso, sep = τk · · · τ1 é uma decomposição dep como produto de transposições, então

D(cp1 , . . . , cpn) = (−1)kD(c1, . . . , cn).

Definição 4.20Sejamp uma permutação eA a matriz que representap. Definimoso sinal da permutaçãop por

ǫ(p) = ǫ(A) := det(A).

Fazendoci = ei no Corolário 4.19, temos queD(A) = (−1)k, sep = τk · · · τ1for a decomposição dep como produto dek transposições. Mas, a definição dosinal garante, em particular, queǫ(p) independe de como uma permutação pode serescrita como produto de transposições. Assim, o Corolário 4.19 pode ser escritocomo

D(cp1 , . . . , cpn) = ǫ(p)D(c1, . . . , cn). (4.4)

Proposição 4.21O sinal de uma permutação tem as seguintes propriedades:

(i) seid for a permutação identidade, entãoǫ(id) = 1;

(ii) seτ for uma transposição,ǫ(τ) = −1;

(iii) sep ep′ forem permutações, entãoǫ(p′p) = ǫ(p′)ǫ(p).

Demonstração: (i) e (ii) decorrem das propriedades(d3) e (d4) da funçãodeterminante. Como toda permutação é produto de transposiçõesp = τk · · · τ1 ep′ = τ ′j · · · τ ′1. Assim,p′p = τ ′j · · · τ ′1τk · · · τ1 e

ǫ(p′p) = (−1)j+k = (−1)j(−1)k = ǫ(p′)ǫ(p). 2

Page 82: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 66 — #82i

i

i

i

i

i

66 Determinantes Cap. 4

Tão logo verifiquemos quedet(AB) = detA detB, será possível apresentaruma prova muito mais elegante de 4.21(iii) (veja o Exercício 11).

Sabemos que basta considerarmos as permutações do conjunto{1, . . . , n} naequação(4.3). Tendo em vista a definição do sinal de uma permutação,(4.3)escreve-se como

D(c1, . . . , cn) =∑

p

ǫ(p)ap11ap22 · · · apnn, (4.5)

que é a expressão clássica do determinante em termos de permutações.

Exemplo 4.22 Sejamc1 = (a11, a21) e c2 = (a12, a22) vetores doK2. Calcule odeterminanteD(c1, c2).

Precisamos, em primeiro lugar, determinar todas as permutações do conjunto{1, 2}. Elas são a identidade e uma transposição. Assim, temosǫ(p1) = 1 eǫ(p2) = −1. Então

D(c1, c2) =∑

p

ǫ(p)ap11ap22 = (1)a11a22 + (−1)a12a21 = a11a22 − a12a21.

O Exercício 4 deixa claro que o cálculo de determinantes por meio depermutações é um processo enfadonho e pouco aplicável. O escalonamento de umamatriz nos fornece um método muito mais eficaz:

Exemplo 4.23 Consideremos a matriz

A =

1 1 1 11 2 2 21 1 3 34 3 2 1

.

Multiplicando a primeira linha por−1 e somando à terceira e à quarta e, então,multiplicando a primeira linha por−4 e somando à quarta linha, não alteramos ovalor do determinante:

detA = det

1 1 1 11 2 2 21 1 3 34 3 2 1

= det

1 1 1 10 1 1 10 0 2 20 −1 −2 −3

.

Page 83: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 67 — #83i

i

i

i

i

i

§4.5 Propriedades do Determinante de uma Matriz 67

Continuando o escalonamento, obtemos (de acordo com as propriedades dodeterminante)

detA = det

1 1 1 10 1 1 10 0 2 20 −1 −2 −3

= (2) det

1 1 1 10 1 1 10 0 1 10 0 −1 −2

.

Então,

detA = (2) det

1 1 1 10 1 1 10 0 1 10 0 −1 −2

= −(2) det

1 1 1 10 1 1 10 0 1 10 0 0 1

.

É claro que, levando a última matriz à forma escalonada reduzida por linhas,obteremos a matriz identidade. (Veja também o Exercício 16.) Assim,

detA = −2.�

4.5 Propriedades do Determinante de uma Matriz

Nesta Seção mostraremos propriedades clássicas do determinante de umamatriz.

4.5.1 O Determinante da Matriz Transposta

Teorema 4.24SejaA uma matrizn× n eAt a transposta da matrizA. Então

detA = detAt.

Demonstração:A equação(4.5) garante que

detA =∑

p

ǫ(p)ap11ap22 · · · apnn.

Mas, sep(i) = j, entãoi = p−1p(i) = p−1(j). Comopi denotap(i), p−1(j) serádenotado porp−1

j, de modo que a última expressão pode ser escrita comoi = p−1j.

Page 84: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 68 — #84i

i

i

i

i

i

68 Determinantes Cap. 4

Assim, sep1 = j, entãoap11 = ajp−1j. Da mesma forma para os outros índices, de

modo que∑

p

ǫ(p)ap11ap22 · · · apnn =∑

p

ǫ(p)a1p−11a2p−1

2· · · anp−1

n.

Mas, sep percorrer todas as permutações de{1, . . . , n}, o mesmo acontece comp−1. Uma vez que o sinal dep e o dep−1 é o mesmo, chegamos a

detA =∑

p−1

ǫ(p−1)a1p−11a2p−1

2· · · anp−1

n=∑

p

ǫ(p)a1p1a2p2 · · · anpn,

que é o determinante da matriz transposta, pois cada uma de suas entradas aparecena formaaji ao invés deaij. 2

Corolário 4.25 A expansão em cofatores pode ser feita também segundo qualquercoluna da matriz quadradaA.

4.5.2 O Determinante do Produto de Matrizes Quadradas

Teorema 4.26SejamA = (aij) eB = (bij) matrizesn× n. Então

det(BA) = detB detA.

Demonstração: Sejam Aj, Bj e Dj as j-ésimas colunas deA, B e BA,respectivamente. A equação(3.2) garante que aj-ésima coluna de uma matriz éobtida ao se calcular o seu valor emej. Assim,

(BA)ej = B(Aej) = BAj.

Por definição,Dj = a1jB1 + . . . + anjBn. Assim, seD denotar a funçãodeterminante,

det(BA) = D(a11B1 + · · ·+ an1Bn, . . . , a1nB1 + · · ·+ annBn).

Expandindo essa última expressão como feito com a equação(4.3) e aplicando aequação(4.4), encontramos

det(BA) =∑

p

ap11 · · · apnnD(Bp1 , . . . , Bpn)=∑

p

ǫ(p)ap11 · · · apnnD(B1, . . . , Bn)

= detB∑

p

ǫ(p)ap11 · · · apnn = detB detA.2

Page 85: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 69 — #85i

i

i

i

i

i

§4.5 Propriedades do Determinante de uma Matriz 69

Demonstração alternativa do teorema4.26: Como antes, temos que

det(BA) = D(BA1, . . . , BAn).

Suponhamos quedetB 6= 0. Definimos então a funçãoD por

D(A1, . . . , An) = D(A) :=det(BA)

detB.

Em virtude da expressão paradet(BA) obtida, podemos escreverD como

D(A1, . . . , An) =D(BA1, . . . , BAn)

detB. (4.6)

Vamos provar que a funçãoD satisfaz as propriedades(d1) − (d3) da funçãodeterminantedetA. Temos(d1) SeAi = Aj, parai 6= j, entãoBAi = BAj. ComoD satisfaz à propriedade(d1), temosD = 0;(d2) ComoB(x + λy) = Bx + λBy, cadaBAi é uma função linear deAi. ComoD én-linear, o mesmo vale paraD;(d3) ParaAi = ei, temos

D(e1, . . . , en) =D(Be1, . . . , Ben)

detB.

Mas,Bei = Bi, a i-ésima coluna deB. Logo

D(e1, . . . , en) =D(B1, . . . , Bn)

detB=

detB

detB= 1.

Uma vez que existe uma única função determinante,D(A1, . . . , An) = det(A).Isso prova o afirmado, sedetB 6= 0, poisD(A1, . . . , An) = det(BA)

det B.

Suponhamos agora quedetB = 0. Como vimos, a funçãoD(BA1, · · · , BAn) = det(BA) satisfaz as propriedades(d1) e (d2). Além disso,quandoAi = ei, temos0 = detB = D(Be1, · · · , Ben). O Teorema 4.16 garantequeD(BA1, · · · , BAn) = 0. Assim,det(BA) = 0 e o mesmo valor é assumidopordetA detB, como queríamos mostrar. (Demonstrações alternativas do caso emquedetB = 0 são apresentadas nos Exercícios 10 e 25(c).) 2

Page 86: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 70 — #86i

i

i

i

i

i

70 Determinantes Cap. 4

4.6 A Regra de Cramer

SejamA = (aij) uma matrizn×n eb ∈ Kn um vetor. Consideremos a equação

Ax = b.

Suponhamos quex =n∑

j=1

xjej seja uma solução dessa equação. Denotando por

cj a j-ésima coluna deA, podemos escreverAx =n∑

j=1

xjAej =n∑

j=1

xjcj = b. Isso

quer dizer que

(c1 · · · cj · · · cn)

x1...xj...xn

=

b1...bn

n∑

j=1

xjcj = b e bi =n∑

j=1

xjaij. (4.7)

DefinimosAk como sendo a matriz obtida ao se substituir ak-ésima coluna deA pelo vetorb. Descrevendo essa matriz em termos de suas colunas, obtemos

Ak = (c1 . . . ck−1 b ck+1 . . . cn) = (c1 . . . ck−1

n∑

j=1

xjcj ck+1 . . . cn), (4.8)

desde quex seja uma solução deAx = b.Assim, utilizando a notação deD para a função determinante,

detAk =n∑

j=1

xjD(c1, . . . , ck−1, cj, ck+1, . . . , cn).

Logo, sex for solução deAx = b, vale

detAk = xk detA, (4.9)

pois todos os outros termos se anulam no somatório. Portanto,

xk =detAk

detA, (4.10)

desde quedetA 6= 0. Essa é aregra de Cramerpara se obter a solução da equaçãoAx = b, para um dadob. Ela garante que, sedetA 6= 0, então a (única) soluçãoxdeAx = b tem coordenadas que satisfazem a igualdadexk = det Ak

det A.

Page 87: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 71 — #87i

i

i

i

i

i

§4.6 A Regra de Cramer 71

Teorema 4.27Parak ∈ {1, . . . , n}, seja

B =((−1)1+k detA1k . . . (−1)i+k detAik . . . (−1)n+k detAnk

),

em que a matrizB está sendo descrita em termos de suas colunas. Então vale

BA = AB = (detA)I. (4.11)

Assim,A é invertível se, e somente se,detA 6= 0. Nesse caso,A−1 =(1/ detA)B, ou seja,

(A−1)ki = (−1)i+k detAik

detA. (4.12)

A matrizB é chamada deadjunta clássicadeA.

Demonstração: Tomex ∈ Rn arbitrário e definau = Ax. De acordo com aequação(4.8), se expandirmosdetAk com relação a suak-ésima coluna, obtemos

detAk =n∑

i=1

(−1)i+k detAik ui.

Decorre da equação(4.9), que

(detA)xk =n∑

i=1

(−1)i+k detAik ui. (4.13)

A equação(4.7) nos mostra como se multiplica uma matriz descrita em termosde suas colunas por um vetor (observe a inversão de índices nadefinição deB!):

detA

x1...xn

=

((−1)1+k detA1k · · · (−1)i+k detAik · · · (−1)n+k detAnk

)u1...un

Quer dizer, mostramos que, ao definiru = Ax, então vale

(detA)x = Bu. (4.14)

Comou = Ax, vem(detA)x = BAx para todox e, portanto,BA = (detA) I.Se detA 6= 0, então(1/ detA)B é a inversa deA (veja o Exercício 13 do

Capítulo 3). Se, por outro lado,A tiver inversaA−1, aplicando o determinanteem ambos os lados deAA−1 = I, obtemosdetA detA−1 = det I = 1. Logo,detA 6= 0.

ParaAB ≡ 0 no caso em quedetA = 0, veja o Exercício 19. 2

Page 88: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 72 — #88i

i

i

i

i

i

72 Determinantes Cap. 4

4.7 Matrizes Semelhantes

Definição 4.28SejaA = (aij) uma matriz quadrada. Definimos otraço da matrizA, denotado portrA, por

trA =n∑

i=1

aii.

Teorema 4.29O traço é uma aplicação linear etr (AB) = tr (BA).

Demonstração:A linearidade do traço é óbvia. Por definição, temos

(AB)ii =n∑

k=1

aikbki e (BA)kk =n∑

i=1

bkiaik.

Assim,

tr (AB) =n∑

i=1

(n∑

k=1

aikbki

)=

n∑

k=1

(n∑

i=1

bkiaik

)= tr (BA).

2

Definição 4.30Duas matrizesA e B são semelhantes, se existir uma matrizinvertívelP tal queB = P−1AP .

Claramente, temos assim definida uma relação de equivalência2 no conjunto dasmatrizesn× n.

Teorema 4.31Matrizes semelhantes possuem o mesmo determinante e o mesmotraço.

Demonstração:Temos

detB = det(P−1AP ) = detP−1 detA detP = detA det(P−1P ) = detA det I

= detA.

Também, pelo Teorema 4.29,

trB = tr (P−1AP ) = tr (APP−1) = tr (AI) = trA. 2

2Veja o Exercício 38 do Capítulo 3.

Page 89: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 73 — #89i

i

i

i

i

i

§4.8 Exercícios 73

Como vimos anteriormente, dada uma aplicação linearT de um espaçoX dedimensãon nele mesmo, ao se escolher uma base deX, podemos representarT poruma matriz. Duas representações deT , obtidas pela escolha de duas bases distintas,são semelhantes. Aplicando o teorema anterior, vemos que faz sentido a seguintedefinição:

Definição 4.32SejaT : V → V uma aplicação linear definida no espaço vetorialde dimensão finitaV . Definimos

trT = trTBB = trTB e detT = detTB

B = detTB,

em queB é qualquer base deV .

4.8 Exercícios

1. SejaK = R ou K = C. Mostre que a propriedade(d4) da funçãodeterminante implica a propriedade(d1). Assim, poderíamos ter definido afunção determinante como uma que satisfaz as propriedades(d2)−(d3)−(d4).

2. Sem calcular o determinante da matriz que a representa, obtenhaǫ(p), sendo

p =

(1 2 3 4 5 65 4 2 1 6 3

).

Escrevap como produto de transposições.

3. SejaA uma matriz de permutação. Mostre queA−1 = At e queǫ(A) =ǫ(A−1).

4. Repita o Exemplo 4.22 para três vetores genéricos doK3. Em outras palavras,calcule o determinante de uma matriz3× 3 utilizando a expressão(4.5).

5. Sejamc1, . . . , cn ∈ Kn as colunas da matrizA. Mostre quedetA = 0 implicaque os vetoresc1, . . . , cn são linearmente dependentes.

6. Aplique as propriedades da função determinante para calcular o determinanteda matriz

2 5 −3 −2−2 −3 2 −5

1 3 −2 2−1 −6 4 3

.

Page 90: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 74 — #90i

i

i

i

i

i

74 Determinantes Cap. 4

7. Mostre o Corolário 4.25.

8. SejaA uma matrizn× n. Mostre que:det(tI− A) é um polinômiomônico3

de graun na variávelt.

9. SejaB(t) uma matrizn × n cujas entradasbij(t) dependem continuamenteda variávelt. Mostre quedetB(t) depende continuamente det.

10. Suponha provado quedet(AB) = detA detB, sedetB 6= 0. Usando osExercícios 8 e 9, definaB(t) = B + tI e mostre a validade do resultadotambém no caso em quedetB = 0.

11. Representando permutações por matrizes, verifique que a Proposição4.21(iii) é conseqüência imediata do Teorema 4.26.

12. SejaA ∈ Mm×n(R) uma matriz de postor. Mostre quer é o maior númeronatural tal queA possui uma submatrizAr, r × r, comdetAr 6= 0.

13. Sejamx1, x2, x3 ∈ K. Mostre que

det

1 x1 x21

1 x2 x22

1 x3 x23

= (x2 − x1)(x3 − x1)(x3 − x2).

Sex1, . . . , xn ∈ K, mostre então por indução que

Vn = det

1 x1 · · · xn−11

1 x2 · · · xn−12

......

1 xn · · · xn−1n

=

i>j

(xi − xj)

em que o produtório é tomado sobre todos os termos(xj − xi) com i < j.Esse determinante é odeterminante de Vandermondede ordemn.

14. Mostre que, se as funçõesf1, f2 forem de classeC2 e se

ψ(t) = det

(f1(t) f2(t)f ′

1(t) f ′2(t)

),

3Isto é, o coeficiente do termo de maior grau é igual a1.

Page 91: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 75 — #91i

i

i

i

i

i

§4.8 Exercícios 75

então

ψ′(t) = det

(f1(t) f2(t)f ′′

1 (t) f ′′2 (t)

).

Generalize então para matrizesn× n:

ψ(t) = detA(t) = det

f1(t) f2(t) · · · fn(t)f ′

1(t) f ′2(t) · · · f ′

n(t)...

...f

(n−1)1 (t) f

(n−1)2 (t) · · · f

(n−1)n (t)

.

comfj(t) suficientemente suave paraj = 1, . . . , n. A funçãoψ(t) é muitasvezes denotada porW (f1, . . . , fn)(t) e chamadaWronskianodas funçõesf1, . . . , fn.

15. Sejamf1, . . . , fn : I ⊂ R→ R funções de classeCn−1. Mostre que, se existirum pontot0 ∈ I tal queW (f1, . . . , fn)(t0) 6= 0, então essas funções sãolinearmente independentes no espaçoCn−1(I) de todas as funções de classeCn−1 definidas no intervaloI. Generalize para funções analíticas definidasnum abertoU ⊂ C. Mostre então que, seλ1, . . . , λn ∈ C forem distintos enão-nulos, as funçõeseλ1t, . . . , eλnt são linearmente independentes.

16. SejaA uma matriztriangular superior, isto é, uma matriz da forma

A =

a11 a12 · · · a1n

0 a22 · · · a2n...

..... .

...0 0 · · · ann

.

Mostre quedetA = a11 · · · ann. Mostre o resultado análogo para uma matriztriangular inferior, isto é, para uma matriz com a forma da transposta damatrizA dada acima.

17. Considere a matrizn× n

Q =

(A B0 D

),

em queA é uma matrizm×m eD uma matriz(n−m)× (n−m). Mostreque

detQ = detA detD.

Page 92: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 76 — #92i

i

i

i

i

i

76 Determinantes Cap. 4

Generalize para uma matrizA que sejatriangular superior em blocos, isso é,uma matriz da forma

P =

A1 ∗ · · · ∗0 A2 · · · ∗...

.... . .

...0 0 · · · Aj

,

em que∗ denota uma matriz de tamanho adequado e cada matrizAi équadrada.

18. SejamA,B,C,D ∈Mn×n(K), comdetA 6= 0. Mostre que

detP = det

(A BC D

)= det(AD − ACA−1B).

Para isso, encontreX eY tais que(A BC D

)=

(A 0C I

)(I Y0 X

).

(A matrizX é chamadacomplemento de SchurdeA emP .)

Em particular, seAC = CA, isso implica quedetP = det(AD −CB). Nesse caso, utilizando a continuidade da função determinante (vejao Exercício 9), mostre que o resultado continua válido também sedetA = 0.

19. Dada a matriz quadradaA, sejaB a adjunta clássica deA. Mostre quea adjunta clássica deAt é igual aBt. Utilize então a igualdadeBtAt =(detAt) I para concluir a demonstração do Teorema 4.27.

20. Mostre a igualdade

α1 detAi1 + α2 detAi2 + . . .+ αn detAin = det A,

em queA é a matriz obtida deA trocando-se suai-ésima linha pela linha(α1 α2 . . . αn). Mostre também o resultado análogo para

β1 detA1j + . . .+ βn detAnj

e produza uma nova demonstração do Teorema 4.27.

Page 93: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 77 — #93i

i

i

i

i

i

§4.8 Exercícios 77

21. Usando a regra de Cramer, determine os valores dek para os quais o sistema

kx + y + z = 1x + ky + z = 1x + y + kz = 1

possui solução única. Compare com o resultado obtido por meiodeescalonamento (método de Gauss - veja o Apêndice A).

22. SejamA,B matrizesn × n. Mostre que a igualdadeAB − BA = I nunca ésatisfeita.

23. SejaB ∈ Mn×n(K) uma matriz fixa. DefinaϕB : Mn×n(K) → Mn×n(K)por

ϕB(A) = AB −BA.Mostre queϕB é linear e quedetϕB = 0.

24. SejamA,B matrizesn×n. Mostre que, seAB−BA = A, entãodetA = 0.

Os próximos resultados dependem da teoria de escalonamentoe de matrizeselementares (veja o Apêndice A).

24. Utilizando escalonamento e matrizes elementares, mostre queA possuiinversa se, e somente se,detA 6= 0. (Veja o Teorema 4.27).

25. Mostre quedet(AB) = detA detB utilizando matrizes elementares. Paraisso:

(a) Mostre o resultado no caso deA ser uma matriz elementar;

(b) Suponha que a matrizA seja invertível (e, portanto, um produto dematrizes elementares, pelo Exercício 13 do Capítulo 11). Mostre oresultado usando(a);

(c) Mostre que, seAB for invertível, entãoA eB são invertíveis. Concluaque, seA não tiver inversa, entãodet(AB) = 0 = detA detB.

26. Mostre quedetAt = detA utilizando matrizes elementares.

Page 94: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 78 — #94i

i

i

i

i

i

5Operadores e Polinômios

Neste Capítulo introduzimos autovalores e autovetores, apresentamos algunsresultados simples sobre diagonalização de operadores, demonstramos o Teoremade Cayley-Hamilton e definimos a complexificação de um espaço real.

5.1 Autovetores e Autovalores

Dados um espaço vetorialX dedimensão finitae um operador linearT : X →X, queremos encontrar uma baseB deX, na qual a representaçãoTB desse operadorseja a mais simples possível.

Consideremos a seguinte situação ideal: suponhamos a existência de umadecomposição

X = W1 ⊕W2 ⊕ · · · ⊕Wn, dimWi = 1, T (Wi) ⊂ Wi, 1 ≤ i ≤ n. (5.1)

Seja{wi} uma base deWi. EntãoB = {w1, . . . , wn} é uma base deX. ComoT (Wi) ⊂ Wi, existeλi ∈ K tal queTwi = λiwi. A representação deT na baseB(no domínio e na imagem) é a matriz diagonalA = TB, dada por

A =

λ1 0 · · · 00 λ2 · · · 0...

..... .

...0 0 · · · λn

.

Dizemos, então, queT é diagonalizável. (Note que podemos terλi = λj parai 6= j.)

Observe que a igualdadeTwi = λiwi garante quewi ∈ ker(λiI − T ); assim,det(λiI−T ) = det(λiI−A) = 0, de acordo com a Definição4.32 (veja o Exercício

78

Page 95: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 79 — #95i

i

i

i

i

i

§5.1 Autovetores e Autovalores 79

1). Isso quer dizer queλi é uma raiz do polinômiop(t) = det(tI − A), chamadopolinômio característicodo operadorT (ou da matrizA). Lembramos1 quep(t) éum polinômio mônico de graun. Assim, podemos concluir (mesmo quandoλi = λj

parai 6= j) quep(t) = (t− λ1)(t− λ2) · · · (t− λn) (5.2)

e wi ∈ ker(λiI − T ). (Note que a equaçãoTx = λix é satisfeita por qualquerelemento deWi.)

Mudemos agora o enfoque e consideremos o operadorT com seu polinômiocaracterísticop(t) = det(tI− T ). As raízesλ ∈ K do polinômio característico sãoosautovaloresdeT . Se existiremn raízesdistintasλi ∈ K, isto é, se

p(t) = (t− λ1) · · · (t− λn),

com λi 6= λj para i 6= j, o espaçoWi := ker(T − λiI) terá dimensão 1. Defato, existe pelo menos um vetor não-nulowi tal que(T − λiI)wi = 0 pois, comoT −λiI não tem inversa, o sistema(T −λiI)x = 0 tem solução não-trivialwi. (Essevetorwi 6= 0 é umautovetordeT associado ao autovalorλi.) Isso quer dizer quedimWi ≥ 1. Para garantir quedimWi = 1, aceitaremos momentaneamente queautovetoreswi associados a autovalores distintosλi são linearmente independentes,resultado que será demonstrado mais adiante. Admitido esseresultado, concluímosque{w1, . . . , wn} é uma base deX e dimWi = 1. Quer dizer, nesse caso especialem que o polinômio característico possuin raízes distintas no corpoK, teremosprovado que

X = W1 ⊕W2 ⊕ · · · ⊕Wn,

comWi = ker(T − λiI) eT (Wi) ⊂ Wi (poisT (cwi) = cTwi = cλiwi ∈ Wi).Estamos, assim, em um caso particular da situação em que iniciamos; logo, a

representação deT na baseB = {w1, . . . , wn} será justamente a matriz diagonaldada porA.

Entretanto, nem sempre o polinômio característico é produto de fatores linearesdistintos, mesmo se o operadorT for diagonalizável. Considere o seguinte exemplo:

Exemplo 5.1 O polinômio característico da aplicação identidadeI : Rn → Rn ép(t) = det(tI− I) = (t−1)n, que possui apenas a raiz1.Vale a decomposição(5.1)

Kn = V1 ⊕ · · · ⊕ Vn

comVi = {cei | c ∈ K} e I(Vi) ⊂ Vi. Contudo, ao autovalor1 está associado oespaçoW1 = ker(1I− I) = ker 0 = Kn. �

1Veja o Exercício 8 do Capítulo 4.

Page 96: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 80 — #96i

i

i

i

i

i

80 Operadores e Polinômios Cap. 5

Antes de mostrarmos a afirmação que autovetores associados aautovaloresdistintos são linearmente independentes, ressaltaremos algumas definições:

Definição 5.2 SejamX um espaço vetorial sobre o corpoK, com dimensão finitan, e T : X → X um operador. O polinômiop(t) := det(tI − T ) é o polinômiocaracterísticodeT . As raízesλi ∈ K desse polinômio são osautovaloresdeT . Amultiplicidade algébricade um autovalor é a sua multiplicidade como raiz dep(t).2

Os elementos não-nulos do núcleoker(λiI − T ) são osautovetoresassociados aoautovalorλi, ou simplesmente autovetores deT . O auto-espaçoXλ associado aoautovalorλ é definido por

Xλ := ker(λI− T ) = {x ∈ X; (λI− T )x = 0}.

O conjunto dos autovalores deT é oespectrodeT e denotado porσ(T ).Se existir uma baseB deX tal queTB seja uma matriz diagonal, dizemos que

T édiagonalizável.

Observação 5.3Note que a equação(4.11) tem implicação importante, no casoem quedetA = 0: comoAB = (detA)I, concluímos que cada coluna não-nula damatrizB é um autovetor deA associado ao autovalor0. �

Frisamos que apenas as raízesλi ∈ K do polinômio característico sãoautovalores do operador. Assim, seT : R2 → R2 for definido porT (x, y) =(−y, x), então seu polinômio característico ép(t) = t2 + 1, que não possui raízesreais. Portanto,T não possui autovalores eσ(T ) = ∅. ConsiderandoT : C2 → C2

definido da mesma maneira,p(t) = t2 + 1 = (t− i)(t+ i), eσ(T ) = {i,−i}. Issomostra que a análise de uma aplicação linearT : X → X depende muito do corpoK sobre o qualX é espaço vetorial.

Observação 5.4O polinômio característico deT : X → X é especialmenteimportante por causa de suas raízes, os autovalores deT . Comodet(T − tI) =(−1)n det(tI − T ) (em quen é a dimensão deX) é um polinômio que possui asmesmas raízes dedet(tI − T ), é usual chamar de polinômio característico deTtambém ao polinômiodet(T − tI).

Mostraremos agora a afirmativa de que autovetores associados a autovaloresdistintos são linearmente independentes. Sendo mais preciso:

2Veja o Exercício 3 para a definição de multiplicidade de uma raiz.

Page 97: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 81 — #97i

i

i

i

i

i

§5.1 Autovetores e Autovalores 81

Teorema 5.5 Sewi for um autovetor deT : X → X associado ao autovalorλi ∈ K, e seλi 6= λj para i 6= j, então o conjunto{w1, . . . , wk} é linearmenteindependente.

Demonstração: Faremos indução no númerok de elementos do conjunto{w1, . . . , wk}. Sek = 1, o resultado é óbvio. Suponhamos verdadeiro parak − 1vetores e consideremos o caso dek vetores. Se

α1w1 + α2w2 + . . .+ αkwk = 0, (5.3)

aplicandoT em (5.3), obtemos

α1Tw1 + α2Tw2 + . . .+ αkTwk = 0.

MasTwi = λiwi. Assim,

α1λ1w1 + . . .+ αkλkwk = 0.

Por outro lado, multiplicando (5.3) porλk, vem

α1λkw1 + α2λkw2 + . . .+ αkλkwk = 0.

Subtraindo essas duas últimas equações, concluímos que

α1(λ1 − λk)w1 + α2(λ2 − λk)w2 + . . .+ αk−1(λk−1 − λk)wk−1 = 0.

Comoλi − λk 6= 0 para todoi = 1, . . . , k − 1, a hipótese de indução garante queαi = 0 parai ∈ {1, . . . , k − 1}. Levando em(5.3), concluímos queαk = 0 e que{w1, . . . , wk} é linearmente independente. 2

O corolário a seguir traz o enunciado do resultado verificadono início da Seção:

Corolário 5.6 SeX for um espaço vetorial de dimensãon e se o polinômiocaracterístico do operador linearT : X → X possuirn raízes distintas, entãoX possui uma baseB formada por autovetores deT . A aplicaçãoT representadana baseB é uma matriz diagonal, sendo os elementos da diagonal principal osautovalores deT .

Finalizamos esta Seção apresentando uma caracterização dos operadoreslineares diagonalizáveisT : X → X definidos no espaço vetorial de dimensãofinitaX.

Page 98: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 82 — #98i

i

i

i

i

i

82 Operadores e Polinômios Cap. 5

Teorema 5.7 SejaX um espaço de dimensão finita. Uma aplicação linearT :X → X é diagonalizável se, e somente se, existir uma baseB deX formada porautovetores deT .

Demonstração:Suponhamos queB = {v1, . . . , vn} seja uma base deX tal queTBseja uma matriz diagonal (não estamos supondo que osλi sejam distintos!):

TB = D =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

.

ClaramenteDei = λiei. SejaB : X → Kn o isomorfismo dado porB(vi) = ei.EntãoT = B−1DB e Tvi = B−1D(Bvi) = B−1Dei = B−1(λiei) = λiB

−1ei =λivi, mostrando que cadavi é autovetor deT .

A recíproca é imediata. 2

É fácil dar exemplos de operadores que não são diagonalizáveis:

Exemplo 5.8 Consideremos o operadorT : R2 → R2, cuja representação matricialna base canônica doR2 é

A =

(0 10 0

).

O polinômio característico deA (e deT ) é p(t) = t2, de modo que seu únicoautovalor éλ = 0. A esse autovalor deA está associado um único autovetor:Ae1 = 0e1. Pelo Teorema 5.7, não existe uma baseB deR2, na qualA assuma umarepresentação diagonal. �

5.2 Subespaços Invariantes

Os resultados apresentados na Seção anterior tornaram clara a utilidade deencontrarmos subespaços invariantes por um operador linear T : X → X. NestaSeção apresentaremos um critério para verificar se um subespaço é invariante porT .

Para isso, consideremos um espaço vetorialX . Suponhamos que esteja escritocomo uma soma direta:

X = W1 ⊕ · · · ⊕Wℓ, (5.4)

Page 99: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 83 — #99i

i

i

i

i

i

§5.2 Subespaços Invariantes 83

isto é, que cada pontox ∈ X tenha uma única representação

x = x1 + . . .+ xℓ, xj ∈Wj, j = 1, . . . , ℓ.

Paraj ∈ {1, . . . , ℓ}, definimos asprojeções canônicas

πj : X → Wj ⊂ Xx 7→ xj.

Claramente valeπjπi = δijπi, (5.5)

em queδij = 0, sei 6= j, eδii = 1, comi, j ∈ {1, . . . , ℓ}. Além disso,

ℓ∑

j=1

πj = I. (5.6)

Reciprocamente, se os operadores linearesπ1, . . . , πℓ satisfizerem(5.5) e (5.6),definindoWj = πj(X), temos que(5.4) se verifica e que os operadoresπj são asprojeções canônicas dessa decomposição.

Definição 5.9 Suponhamos que

X = W1 ⊕ · · · ⊕Wℓ

e queT : X → X satisfaçaT (Wj) ⊂ Wj para j = 1, . . . , ℓ. Dizemos então queos subespaçosWj sãoinvariantespelo operador linearT ∈ L(X,X). Definimosentão osblocosTj deT por Tj = T |Wj

: Wj → Wj. Dizemos também queT é asoma direta dos operadoresTj.

Proposição 5.10Suponhamos queT ∈ L(X,X) e X = W1 ⊕ · · · ⊕ Wℓ, comprojeções correspondentesπj, j = 1, . . . , ℓ. EntãoT (Wj) ⊂ Wj se, e somente se,

Tπj = πjT.

Demonstração: Suponhamos queT (Wj) ⊂ Wj. Tomex ∈ X arbitrário. Entãoπjx ∈ Wj e, conseqüentemente,Tπjx ∈ Wj. LogoπiTπjx = δijTπjx para todoj = 1, . . . , ℓ. Somando todos esses termos e utilizando(5.6), obtemos

Tπix =ℓ∑

j=1

δijTπjx =ℓ∑

j=1

πiTπjx = πiT

(ℓ∑

j=1

πjx

)= πiTx.

Page 100: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 84 — #100i

i

i

i

i

i

84 Operadores e Polinômios Cap. 5

Reciprocamente, seT comutar com todoπj, para todox ∈Wj vale

Tx = Tπjx = πjTx ∈Wj,

mostrando queT (Wj) ⊂ Wj. 2

Note que os resultados apresentados independem do fato do espaçoX terdimensão finita. Por outro lado, se os subespaçosWj da decomposição

X = W1 ⊕ · · · ⊕Wℓ

forem invariantes porT : X → X eX tiver dimensão finita, a escolha de basesBi

para os espaçosWi produz uma baseB = {B1, . . . ,Bn} paraX. A representaçãodeT nessa base,TB é umamatriz diagonal em blocos, isto é:

TB =

[T1]B1 0 · · · 00 [T2]B2 · · · 0...

..... .

...0 0 · · · [Tℓ]Bℓ

.

Reciprocamente, se existir uma baseB do espaçoX na qualT : X → X érepresentado por uma matriz diagonal comℓ blocos, então existe uma decomposiçãoX = W1 ⊕ · · · ⊕Wℓ, comT (Wi) ⊂ Wi (veja o Exercício 11).

A decomposição do espaçoX como soma direta de subespaços invariantes pelooperadorT : X → X será exaustivamente estudada no Capítulo 7.

Exemplo 5.11 SejamW1 = {(x, 0, z, 0) ∈ R4} e W2 = {(0, y, 0, w) ∈ R4}.Claramente vale

R4 = W1 ⊕W2.

Considere a aplicaçãoT : R4 → R4 definida por

T (x, y, z, w) = (x− z, y + w, x+ 2z, w)

ClaramenteT (Wi) ⊂ Wi para i = 1, 2. Tomemos as basesB1 ={(1, 0, 1, 0), (−1, 0, 1, 0)} e B2 = {(0, 1, 0, 1), (0, 0, 0, 1)} de W1 e W2,respectivamente. A representação deT na baseB = {B1,B2} é

TB =

32−1

20 0

32

32

0 00 0 2 10 0 −1 0

.

Page 101: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 85 — #101i

i

i

i

i

i

§5.3 O Polinômio Mínimo 85

5.3 O Polinômio Mínimo

SejamT : X → X um operador linear eq ∈ K[z], com q(z) = αkzk +

αk−1zk−1 + α1z + α0. Mesmo seX tiver dimensão infinita, está bem definido o

operadorq(T ) := αkT

k + αk−1Tk−1 + · · ·+ α1T + α0I.

(SeX for um espaço de dimensão finita, a aplicação linearq(T ) : X → X érepresentada por uma matrizn× n ao se escolher uma base deX.)

Nosso objetivo é generalizar esse procedimento, de modo a averiguarmos emqual situação é possível obterf(T ), mesmo quef não seja um polinômio. (Esseé o objetivo do Capítulo 6.) Começamos, contudo, estudando funções polinomiais.Lembramos que um polinômio émônico, se o coeficiente de seu termo de maiorgrau for igual a1.

Definição 5.12Um polinômio mínimom ∈ K[z] de uma aplicaçãoT : X → X éum polinômio mônico de menor grau tal quem(T ) = 0.

Lema 5.13 Todo operador linearT : X → X, definido em um espaçoX dedimensãon, possui um polinômio mínimo.

Demonstração:O espaçoL(X,X) de todas as aplicações linearesT : X → X éum espaço vetorial de dimensãon2. (Esse espaço é isomorfo ao espaçoMn×n(K)de todas as matrizesn × n com entradas emK). Assim, as aplicações linearesI,T, T 2, . . . , T n2

são, necessariamente, linearmente dependentes. Quer dizer, existemescalaresα0, α1, . . . , αn2 ∈ K, nem todos nulos, tais que

α0I + α1T + . . .+ αn2T n2

= 0.

Definindop(z) = α0 +α1z+ . . .+αn2zn2, temos0 6= p ep(T ) = 0. Dividindo

pelo coeficiente do termo de maior grau, obtemos um polinômiomônico p. Opolinômio mínimo então existe, como decorrência da aplicação do Princípio da BoaOrdenação ao conjunto de todos os polinômios mônicos que anulamT . 2

Lema 5.14 Sep(T ) = 0 para um polinômiop ∈ K[z] em um polinômio mínimodeT , entãop é um múltiplo dem.

Page 102: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 86 — #102i

i

i

i

i

i

86 Operadores e Polinômios Cap. 5

Demonstração:SeI denotar o conjunto de todos os polinômios com coeficientesem K[z] que anulamT , claramente a soma de dois polinômios emI, bem comoa multiplicação dep por qualquer polinômio (com coeficientes emK) estão emI.(Quer dizer,I é um ideal.) A divisão euclidiana dep porm nos dáp = qm + r.Comor = p− qm pertence aI e o grau dem é mínimo, concluímos quer = 0. 2

Note que, em particular, esse resultado implica aunicidade do polinômiomínimo deT .

5.4 O Teorema de Cayley-Hamilton

Apresentamos agora um dos resultados mais importantes da Álgebra Linear. Eletambém é válido para operadores definidos em espaços reais dedimensão finita,como mostraremos posteriormente (veja o Corolário 5.22):

Teorema 5.15 (Cayley-Hamilton)SejaX um espaçocomplexode dimensão finita. Sep ∈ K[z] for o polinômio

característico deT : X → X, entãop(T ) = 0.

Demonstração: Faremos indução sobren = dimX ou, o que é o mesmo, sobreo tamanho da matriz que representa o operadorT . Sen = 1, o resultado é óbvio.Suponhamos que ele seja válido para qualquer espaço complexo de dimensãon− 1e consideremosT : X → X, comdimX = n. Sejaλ ∈ C uma raiz do polinômiocaracterísticop de T e tomex1 tal queTx1 = λx1. Considere então uma base{x1, x2, . . . , xn} deX, cujo primeiro elemento éx1. Nessa base,T é representadopor uma matriz com a forma

A =

(λ ∗0 A1

), (5.7)

em queA1 denota uma matriz quadrada e∗ representan−1 entradas sobre as quaisnão temos controle. Claramente,

p(t) = det(tI− A) = (t− λ) det(tI− A1) = (t− λ)p1(t),

em quep1(t) é o polinômio característico deA1. Assim (veja o Exercício 14),

p(A) = (A− λI)p1(A).

Page 103: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 87 — #103i

i

i

i

i

i

§5.5 A Complexificação de um Espaço Vetorial 87

Para obtermosp1(A), decorre de(5.7) queAk tem a forma (veja o Exercício 15)

(λk ∗0 Ak

1

)

e, portanto,

p1(A) =

(p1(λ) ∗

0 p1(A1)

)=

(p1(λ) ∗

0 0

),

de acordo com nossa hipótese de indução.Assim, (os tamanhos das matrizesI são diferentes em cada expressão)

p(A) = (A− λI)p1(A) =

(0 ∗0 (A1 − λI)

)(p1(λ) ∗

0 0

)=

(0 00 0

),

completando a demonstração. 2

Uma demonstração alternativa do Teorema de Cayley-Hamilton, válida paraRouC, é sugerida no Exercício 16.

O próximo resultado é conseqüência imediata do Lema 5.14.

Corolário 5.16 SejaT : X → X um operador no espaço complexo de dimensãofinitaX. O polinômio mínimo deT é um divisor do polinômio característico deT .

Como mostraremos na próxima Seção, esse mesmo resultado valesem ahipótese deX ser um espaço complexo.

5.5 A Complexificação de um Espaço Vetorial

Definição 5.17SejamA ∈ Mn×n(K) e z ∈ Kn um vetor qualquer. Definimos amatriz conjugadaA ∈ Mn×n(K) como a matriz obtida ao se tomar o conjugadoem cada uma das entradas deA e ovetor conjugadoz ∈ Kn como o vetor obtidoao se tomar o conjugado em cada uma das coordenadas dez.

É de verificação imediata queA+ λB = A + λB, AB = A B para quaisquermatrizesA,B ∈ Mn×n(K) e λ ∈ K. Além disso, também valeAz = Az paraqualquerz ∈ Kn.

Page 104: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 88 — #104i

i

i

i

i

i

88 Operadores e Polinômios Cap. 5

Definição 5.18Definimos acomplexificaçãode um espaço vetorial realX comosendo o conjunto

XC = {u+ iv; u, v ∈ X}.EmXC, definimos a soma de vetores e a multiplicação por um número complexode maneira "natural". É fácil verificar queXC torna-se, assim, um espaço vetorialsobre os complexos.

Definição 5.19SejamX um espaço real eT : X → X uma aplicação linear.Definimos acomplexificaçãodeT como sendo a aplicaçãoTC : XC → XC, dadapor TC(u+ iv) = Tu+ iTv.

Proposição 5.20SejamX um espaço vetorial real de dimensão finita eT : X →X uma aplicação linear. As seguintes afirmativas são válidas:

(i) toda base deX sobreR é uma base deXC sobreC;

(ii) os polinômios característicos deT eTC são iguais;

(iii) seλ for um autovalor deTC, entãoλ também é um autovalor deTC; asmultiplicidades algébricas dos autovaloresλ e λ são iguais;

(iv) sejaW ⊂ XC um subespaço tal que

w = u+ iv ∈ W ⇒ w = u− iv ∈ W .

EntãoW possui uma base formada por vetores reais.

Demonstração: (i) Basta notar que as partes realu e imagináriav de qualquervetoru + iv podem ser escritas como combinação linear dos elementos da base deX.

(ii) Escolhida uma base deX sobre os reais, decorre imediatamente de(i), poisas representações deT eTC nessa base são iguais.

(iii) Sejamλ um autovalor deTC e p(z) o polinômio característico deTC.Como p(z) também é o polinômio característico deT , os coeficientes dep(z)são reais. Tomando o conjugado na equaçãop(λ) = 0, obtemosp(λ) = 0,o que mostra queλ também é uma raiz do polinômio característico deTC. Sep′(λ) = . . . = p(d−1)(λ) = 0 e p(d)(λ) 6= 0 (isto é, seλ for raiz de multiplicidadeddo polinômio característico), tomando o conjugado em cada uma dessas equações

Page 105: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 89 — #105i

i

i

i

i

i

§5.5 A Complexificação de um Espaço Vetorial 89

obtemosp′(λ) = . . . = p(d−1)(λ) = 0 e p(d)(λ) 6= 0, o que garante queλ tambémtem multiplicidaded.

(iv) Seja{w1, . . . , wk} uma base deW , comwj = uj + ivj, j = 1, . . . , k.Somando e subtraindo os vetoreswj e wj, obtemos queuj = uj + i0 evj = vj + i0estão emW . Assim, o conjuntoS = {u1, v1, . . . , uk, vk} é um conjunto de vetoresreais que geraW . Uma base formada de vetores reais é obtida ao se tomar umsubconjunto deS comk elementos que seja linearmente independente emX. (Vejao Exercício 19.) 2

Exemplo 5.21 Consideremos o operadorT : R2 → R2 definido porT (x, y) =(−y, x). Sua representação matricial na base canônica doR2 é a matriz

A =

(0 −11 0

).

A complexificaçãoTC do operadorT é definida por

TC

((x1, y1) + i(x2, y2)

)= T (x1, y1) + iT (x2, y2) = (−y1, x1) + i(−y2, x2).

A representação matricial deTC com relação à base canônica deC2 também é dadapela matrizA. �

Decorre de(i) queXC é um espaço vetorial de dimensãon sobre os complexos.Entretanto, ele é um espaço vetorial de dimensão2n sobre os reais. Se os escalaresforem reais,X ⊂ XC é um subespaço. (Veja o Exercício 13.)

Corolário 5.22 (Cayley-Hamilton) SejaT : X → X um operador sobre o espaçoreal de dimensão finitaX ep o polinômio característico deT . Entãop(T ) = 0.

Demonstração:No caso real, o resultado decorre da Proposição 5.20(ii). 2

Note que, no caso de um espaçoX real de dimensão finita, o Corolário 5.16decorre imediatamente do corolário anterior e do Lema 5.14.

Corolário 5.23 SejamT : X → X um operador linear eTC sua complexificação.Se o subespaçoW ⊂ XC possuir uma base formada por vetores reais, então ele é acomplexificação de um subespaçoW ⊂ X, isto é,WC = W . SeWC for invariantepor TC, então os polinômios mínimos deTC|W e deT |W são iguais.

Page 106: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 90 — #106i

i

i

i

i

i

90 Operadores e Polinômios Cap. 5

Demonstração:Todo vetor deW é da formaw = u+ iv, sendou ev vetores reais.Escrevendou e v em termos dos vetores da base real, segue-se imediatamente daíque W é a complexificação do espaço realW gerado pelos vetores dessa base.Como a representação matricial deTC|W e deT |W em termos da base real é amesma, seus polinômios mínimos coincidem. 2

5.6 Um Homomorfismo de Álgebras

Polinômios emK[z] e operadores linearesT : X → X definidos em um espaçovetorial sobre o corpoK têm em comum, além de ambos serem espaços vetoriais,uma importante propriedade: existe uma multiplicação em ambos os conjuntos.

Definição 5.24Uma álgebraA sobre o corpoK é um espaço vetorial sobre ocorpoK que possui, adicionalmente, uma multiplicação satisfazendo as seguintespropriedades, para todosu, v, w ∈ A ek ∈ K:

(i) (uv)w = u(vw) (associatividade);

(ii) u(v + w) = uv + uw (distributividade);

(iii) k(uv) = (ku)v = u(kv).

Se existir um elementoe ∈ A tal queeu = ue = u para todou ∈ A, a álgebraA possui umaunidade. Seuv = vu para todosu, v ∈ A, temos uma álgebracomutativa.

Exemplo 5.25 O espaço vetorialK[z] de todos os polinômios com coeficientes emK é uma álgebra comutativa com unidade. O espaço vetorialMn×n(K) é umaálgebra (não-comutativa) com unidade. O espaçoL(X,X) é uma álgebra. (SeXfor um espaço de dimensão finita, essa álgebra pode ser identificada comMn×n(K),ao escolhermos uma base emX.) FixadoT ∈ L(X,X), sejaK[T ] o conjuntode todas as aplicações lineares obtidas ao se avaliar o polinômio p ∈ K[z] emT ∈ L(X,X):

T 7→ p(T ) ∈ L(X,X).

É fácil verificar queK[T ] é uma subálgebra comutativa deL(X,X). �

Page 107: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 91 — #107i

i

i

i

i

i

§5.7 Exercícios 91

Consideremos agora as álgebrasK[z] e K[T ], definidas no exemplo anterior. Aaplicação

φ : K[z] → K[T ]p 7→ p(T )

é uma aplicaçãolinear que satisfaz, adicionalmente,

φ(pq) = pq(T ) = p(T )q(T ) = φ(p)φ(q).

(A segunda igualdade, de verificação imediata, é o Exercício14. Ela já foi utilizadaanteriormente.) A aplicaçãoφ é umhomomorfismo de álgebras.

O núcleo deφ é o conjunto de múltiplos do polinômio mínimom de T .A divisão euclidiana do polinômiop por m mostra queK[T ] é constituída depolinômios emT com grau menor do que o do polinômio mínimo. (Estamosconvencionando que o grau do polinômio identicamente nulo é−∞.) Por definição,o homomorfismoφ é sobrejetor.

5.7 Exercícios

1. SejaB uma base do espaçoX e T : X → X um operador. Mostre que(tI− T )B = tI− TB.

2. Seλ1, . . . , λj forem autovalores distintos deT eWi = ker(λiI − T ), mostreque o subespaçoW = W1 + · · ·+Wj é a soma direta dos subespaçosWi, ouseja,

W = W1 ⊕ · · · ⊕Wj.

(Emoutras palavras, sejamwi1, . . . , wiki

autovetores linearmente independentesassociados ao autovalorλi da aplicação linearT , comi = 1, . . . , j. Então oconjunto

{w11, w12, . . . , w1k1 , w21, . . . , w2k2 , . . . , wj1, . . . , wjkj}

é linearmente independente.)

3. Suponha que o polinômiop(z) seja da forma(z − λ)dq(z), comq(λ) 6= 0 ed ∈ {2, 3, . . .}. Mostre quep′(λ) = . . . = p(d−1)(λ) = 0, masp(d)(λ) 6= 0.Dizemos que a raizλ dep(z) temmultiplicidaded.

Page 108: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 92 — #108i

i

i

i

i

i

92 Operadores e Polinômios Cap. 5

4. SejaA ∈Mn×n(C). Mostre que o polinômio característico deA = (aij) tema forma

p(z) = zn − (trA)zn−1 + . . .+ (−1)n detA.

Seλ1, . . . , λn forem os autovalores deA (com a mesma multiplicidade queeles aparecem no polinômio característico), conclua que

n∑

i=1

λi = trA en∏

i=1

λi = detA.

5. SejamA,B ∈ Mn×n(K), com A invertível. Mostre que os polinômioscaracterísticos deAB eBA coincidem. Utilizando a continuidade da funçãodeterminante, verifique que a hipótese deA ser invertível pode ser retirada.

6. SejaA uma matrizn × n eB = P−1AP . Sem e p forem, respectivamente,os polinômios mínimo e característico deB, mostre que esses polinômiostambém são os polinômios mínimo e característico deA.

7. ConsidereT : R3 → R3 dada porT (x, y, z) = (3x+y− z, 2x+2y− z, 2x+2y). Ache seu polinômio mínimo.

8. SejamT : X → X um operador linear eq um polinômio com coeficientesemK. Mostre que, seλ for um autovalor deT , entãoq(λ) é um autovalor deq(T ).

9. SejamT : X → X um operador linear ep ∈ K[z]. Mostre que, seK = C eµfor um autovalor dep(T ), então existe um autovalorλ deT tal queµ = p(λ).Dê um exemplo mostrando que esse resultado não é válido seK = R.

10. Mostre que os polinômios mínimo e característico de um operadorT : X →X possuem as mesmas raízes, a menos de multiplicidade.

11. SejaA ∈ Mn×n(K) uma representação matricial deT : X → X. SeA foruma matriz diagonal em blocos, mostre queX pode ser decomposto comosoma direta de subespaços invariantes porT .

12. SejaT : X → X um operador linear eW ⊂ X um subespaço invariante.Mostre que os polinômios característicopW e mínimomW deT |W : W → Wdividem os polinômios característicop e mínimom deT .

Page 109: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 93 — #109i

i

i

i

i

i

§5.7 Exercícios 93

Se X = W1 ⊕ W2, com W1,W2 invariantes porT , e ser e s foremos polinômios mínimos deT |W1 e T |W2 , respectivamente, mostre queo polinômio mínimo deT é mmc(r , s), o mínimo múltiplo comum dospolinômiosr es.

13. SejaX um espaço vetorial real de dimensãon. Mostre queXC tem dimensão2n sobre os reais.

14. Sejamp, q ∈ K[z] polinômios com coeficientes emK e T : X → X umaaplicação linear. Mostre que(pq)(T ) = p(T )q(T ).

15. SejaA uma matriz diagonal em blocos:

A =

A1 0 · · · 00 A2 · · · 0...

.... ..

...0 0 · · · Aℓ

,

em que as submatrizesAi, i = 1, . . . , ℓ são quadradas.

Mostre que (não é necessário utilizar o Exercício 33 do Capítulo 3)

Ak =

Ak1 0 · · · 0

0 Ak2 · · · 0

......

. .....

0 0 · · · Akℓ

.

Além disso, se

A =

(A1 A2

0 A4

)

com blocos quadradosA1 e A4 (possivelmente de tamanhos diferentes),mostre que vale

Ak =

(Ak

1 ∗0 Ak

4

),

em que∗ designa uma matriz de tamanho adequado.

16. O objetivo desse exercício é oferecer uma demonstração alternativa doTeorema de Cayley-Hamilton, válida paraR ou C. Sejap(t) o polinômiocaracterístico do operadorT : X → X, em queX é um espaço vetorial de

Page 110: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 94 — #110i

i

i

i

i

i

94 Operadores e Polinômios Cap. 5

dimensão finita sobre o corpoK. Dadox ∈ X arbitrário, basta mostrar quep(T )x = 0. Para isso, sejam é o maior natural tal que o conjunto

S = {v, Tv, . . . , Tm−1v},

é linearmente independente.

(a) Mostre que os elementos deS formam uma base deW = < S >;

(b) Mostre queT (W ) ⊂ W ;

(c) Obtenha a representação matricialA deT |W na baseS;

(d) Calcule, desenvolvendodet(tI − A), o polinômio característicopW deA;

(e) Mostre quepW (T )x = 0;

(f) Mostre quep(t) = q(t)pw(t) e então conclua.

17. SejamX um espaço vetorialreal e S, T : X → X operadores lineares.Mostre as seguintes propriedades da complexificaçãoTC : XC → XC:

(i) (S + αT )C = SC + αTC para todoα ∈ R;

(ii) (ST )C = SCTC;

18. SejaTC a complexificação do operadorT : X → X, sendoX é um espaçovetorial real. Suponha queλ ∈ R seja um autovalor deTC (e, portanto, deT ). Mostre que, se{w1, . . . , wk} é uma base do espaço invarianteWλ ⊂ XC,comwj = uj + ivj, então tanto{u1, . . . , uk} quanto{v1, . . . , vk} são basesdeWλ.

Suponha agora queλ ∈ C\R seja um autovalor deTC e {w1, . . . , wk} umabase deWλ, sendowj = uj + ivj. É verdade que{u1, . . . , uk} é uma base deWλ?

19. Na demonstração da Proposição 5.20(iv), o que garante a existência de umsubconjunto de{u1, v1, . . . , uk, vk} com k elementos que seja linearmenteindependente?

Definição 5.26SejaT : X → X um operador. Um polinômiop anula o vetorx ∈ X com relação aT , sep(T )x = 0. O polinômio mônico de menor grau queanulax ∈ X (com relação aT ) é opolinômio mínimodex ∈ X ouT-anuladordex.

Page 111: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 95 — #111i

i

i

i

i

i

§5.7 Exercícios 95

19. SejamX um espaço de dimensão finita eT : X → X um operador.

(a) Mostre a existência doT -anulador dex ∈ X;

(b) mostre que qualquer polinômio que anulax ∈ X é um múltiplo doT -anulador dex; conclua que o polinômio mínimo deT é um múltiplo dopolinômio mínimo dex;

(c) mostre que existex ∈ X para o qual oT -anulador e o polinômio mínimodeT coincidem.

20. (Dependência contínua dos autovalores)Mostre que os autovalores de umamatriz A = (aij) ∈ Mn×n(C) dependem continuamente das entradas damatrizA. Mais precisamente, sejaB = (bij) ∈ Mn×n(C). Dadosǫ > 0e λ ∈ σ(A), existemδ > 0 e µ ∈ σ(B) tais que|aij − bij| < δ implica|λ− µ| < ǫ. Para isso:

(a) verifique que basta provar que as raízes do polinômio

p(x) = xn + an−1xn−1 + . . .+ a1x+ a0

dependem continuamente dean−1, . . . , a0;

(b) mostre que é suficiente provar(a) no caso de0 ser raiz dep;

(c) verifique a dependência contínua nesse último caso.

Page 112: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 96 — #112i

i

i

i

i

i

6O Cálculo Funcional

Neste capítulo apresentaremos, para o caso de dimensão finita, a versãogeneralizada do cálculo funcional de Dunford e Schwartz [8], de modo a podermosdar sentido paraf(T ), no caso em queT : X → X é um operador linear no espaçode dimensão finitaX ef : U ⊂ C→ C uma função suave o suficiente. Esse tipo deaplicação linearf(T ) é usualmente chamado defunção de matriz. (Note, contudo,que essa denominação não é precisa: como não se estuda comof varia comT , nãoestamos lidando com uma função, mas sim com a aplicação linear f(T ), isto é, ovalor assumido porf emT !)

6.1 O Polinômio Interpolador

Definição 6.1 Uma funçãof : U ⊂ C → C (ou f : I ⊂ R → R) é euclidianacom relação ao polinômiop se:

(i) todas as raízes dep pertencem aU (respectivamente, aI);

(ii) sez0 for uma raiz dep com multiplicidade1 k, entãof tem derivadas até aordemk emz0.

Note que, seU for um aberto ef analítica emU (veja o Exercício 2 paraa definição e propriedades de uma função analítica), a condição (ii) verifica-seimediatamente.

A terminologia utilizada na definição dada é motivada pelo seguinte resultado,válido tanto para funções definidas emI ⊂ R como emU ⊂ C. Convencionaremosque o grau do polinômio identicamente nulo é−∞.

1Veja o Exercício 3 do Capítulo 5 para a definição da multiplicidade de uma raiz.

96

Page 113: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 97 — #113i

i

i

i

i

i

§6.1 O Polinômio Interpolador 97

Proposição 6.2Sejaf euclidiana com relação ao polinômiop. Então existem umafunçãoq, contínua em cada uma das raízes do polinômiop, e um polinômior taisquef = qp+ r, gr r < gr p.

Demonstração:Sejar um polinômio arbitrário. Consideremos a funçãoq definida(nos pontos do domínio def que não são raízes dep) por

q =f − rp

.

Queremos mostrar que podemos escolherr com grau menor do que o dep, de modoqueq possua extensão contínua em cada uma das raízes dep. Notamos queq é tãosuave quantof em cada pontoz que não é uma raiz dep.

Sejaz0 uma raiz de multiplicidadek do polinômiop, isto é,

p(z) = (z − z0)ks(z),

sendos um polinômio tal ques(z0) 6= 0. Queremos acharr de modo que oquociente

f(z)− r(z)(z − z0)k

possua extensão contínua emz0. De acordo com a regra de L’Hospital, isso acontecequando

f(z0) = r(z0), f′(z0) = r′(z0), . . . , f

(k−1)(z0) = r(k−1)(z0) (6.1)

e se existirfk(z0).

Basta, portanto, mostrar que existe um polinômior com grau menor do que o dep,satisfazendo relações como(6.1) em cada raizz0 do polinômiop. A existência detal polinômio será mostrada no lema a seguir. 2

Para mostrarmos a existência do polinômior, denotaremosf (0) = f .

Lema 6.3 Sejam dados os valores

f(z1) f ′(z1) · · · f (d1−1)(z1)...

...f(zℓ) f ′(zℓ) · · · f (dℓ−1)(zℓ)

Page 114: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 98 — #114i

i

i

i

i

i

98 O Cálculo Funcional Cap. 6

em quez1, . . . , zℓ são distintos. Sejan igual ad1 + d2 + . . .+ dℓ. Então, existe umúnico polinômior, de grau menor do que ou igual an− 1, satisfazendo

r(ki)(zi) = f (ki)(zi)

para todoi = 1, . . . , ℓ eki = 0, . . . , di − 1.

Exemplo 6.4 Antes de passarmos ao caso geral, vejamos em um exemplo ademonstração do Lema 6.3. Suponhamos conhecidos os valoresf(z0), f(z1) ef ′(z1). Queremos encontrar um polinômio de grau2 tal que r(z0) = f(z0),r(z1) = f(z1) e r′(z1) = f ′(z1). Sejar(z) = az2 + bz + c. Então os coeficientesder devem satisfazer ao sistema matricial:

z20 z0 1z21 z1 1

2z1 1 0

abc

=

f(z0)f(z1)f ′(z1)

. (6.2)

Se os valoresf(z0), f(z1) ef ′(z1) forem nulos, basta tomarr ≡ 0. (A unicidadeder, nesse caso, é conseqüência do argumento apresentado a seguir.)

Suponhamos que o sistema(6.2) não possua solução ou que essa não seja única.Então, o sistema homogêneo associado possui uma solução não-trivial (a0 b0 c0)

t.Consideremos o polinômio não-nulo

t(z) = a0z2 + b0z + c0.

É claro quet(z) tem raízesz0 e z1, a segunda com multiplicidade2 (já quez1 éraiz da derivada det). Mas isso implica quet(z) é um múltiplo de(z− z0)(z− z1)

2

e tem grau maior do que ou igual a3, o que é um absurdo. Logo(6.2) tem soluçãoúnica para quaisquer valoresf(z0), f(z1) ef ′(z1). �

Demonstração:O polinômior procurado satisfaz a um sistema linear que pode serescrito matricialmente como

Bz = b,

sendoz o vetor que tem como coordenadas os coeficientes procurados de r, b umvetor cujasn coordenadas são os valores conhecidos def eB a matrizn × n dosistema linear assim formado.

SeB não possuir inversa, o sistemaBz = 0 tem solução não trivial

z0 = (a0 . . . an−1)t.

Page 115: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 99 — #115i

i

i

i

i

i

§6.1 O Polinômio Interpolador 99

Consideremos o polinômio

t(z) = a0 + a1z + . . .+ an−1zn−1,

que é um polinômio de grau menor do que ou igual an − 1. Comoz0 satisfaz osistema homogêneo associado, temos quet(z) deve ser um múltiplo de

(z − z1)d1 · · · (z − zℓ)

dℓ ,

o que é um absurdo, pois o último polinômio tem graun. Assim,B possui inversae o sistemaBz = b solução única, qualquer que seja o vetorb. 2

O polinômior é chamado depolinômio interpolador.Apresentamos agora uma conseqüência da Proposição 6.2 que está ausente de

nossos cursos básicos de uma variável complexa: a álgebraH de todas as funçõesanalíticasf : C → C é euclidiana com relação a todo polinômiop. Maisgeralmente, temos

Proposição 6.5Na divisão euclidiana

f = qp+ r (gr r < gr p)

da função analíticaf : U ⊂ C → C pelo polinômiop cujas raízes estão emU , oquocienteq é analítico.

Demonstração:De acordo com a demonstração da Proposição 6.2, a função

q =f − rp

é analítica, pois o numerador e o denominador se anulam exatamente nos mesmospontos e os zeros do numerador possuem multiplicidade maiordo que ou igual àdos zeros do denominador. Assim,q possui uma expansão em série de potênciasem cada ponto deU . 2

Esse resultado possui extensão para funçõesf : I ⊂ R → R de classeC∞ epolinômios cujas raízes estão todas emI: a regra de L’Hospital implicará então queq ∈ C∞.

Page 116: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 100 — #116i

i

i

i

i

i

100 O Cálculo Funcional Cap. 6

6.2 Funções de Matrizes

Algumas vezes escreveremosf(z) para distinguir a funçãof : U ⊂ C→ C (ouf : I ⊂ R→ R) da aplicação linearf(T ).

SejamT : X → X um operador definido no espaço de dimensão finitaX emo polinômio mínimo deT .

Suponhamos quef seja euclidiana com relação ao polinômiom. Então

f(z) = q(z)m(z) + r(z),

comgr r < grm. Uma vez quem(T ) = 0, é natural definir

f(T ) = r(T ).

Definição 6.6 Sejam(z) = (z − λ1)d1 · · · (z − λℓ)

dℓ o polinômio mínimo dooperadorT . Se estiverem definidos os valores

f(λ1) f ′(λ1) · · · f (d1−1)(λ1)...

...f(λℓ) f ′(λℓ) · · · f (dℓ−1)(λℓ),

dizemos quef éeuclidiana com respeito aT e definimos

f(T ) = r(T ),

sendor o polinômio interpolador dado pelo Lema 6.3.

A Definição 6.6 tem uma conseqüência importante, que salientamos desde já:ooperadorf(T ) sempre comuta com o operadorT !

Observação 6.7Se compararmos a definição anterior com a definição de umafunção euclidianaf com respeito am, vemos que as exigências sobref são menosrestritivas. Qual a razão dessa diferença?

A resposta é simples: ao considerarmos abstratamente a divisão

f(z) = q(z)m(z) + r(z), (6.3)

precisamos impor condições emf que possibilitem definir uma funçãoq que dêum sentido àquela divisão. Se essas exigências forem satisfeitas, podemos então

Page 117: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 101 — #117i

i

i

i

i

i

§6.2 Funções de Matrizes 101

concluir quer é dado pelo polinômio interpolador, que está definido sob condiçõesmenos exigentes.

Por outro lado, ao considerarmosf(T ), supondo possível a substituição dezpor T em (6.3), obtemosf(T ) = q(T )m(T ) + r(T ), teremosf(T ) = r(T ),independente da definição deq(T ). Assim, apenas o valor do polinômior emTé importante.

A possibilidade da substituição dez porT em(6.3) é aceita implicitamente emmuitos textos. Mas uma dificuldade incontornável antepõe-se a ela em situaçõesgerais: q(T ) tem que estar previamente definido para que a substituição façasentido! �

Entretanto, a Definição 6.6 é, muitas vezes, pouco aplicável: é mais fácil obtero polinômio característicop deT do que o polinômio mínimom. Seria proveitosose pudéssemos utilizarp ao invés dem na definição do operadorf(T ). E isso podeser feito. Podemos utilizar múltiplos dem enquanto a suavidade def permitir. Aomostrarmos esse resultado manteremos a notaçãof = qm+r (sendor o polinômiointerpolador definido antes) para simbolizar quef(T ) foi definido comor(T ).Suponhamos ques seja outro polinômio que anula a matrizT e r1 o polinômiointerpolador gerado pors. Então teríamosf = q1s+ r1 (isto é,f(T ) seria definidocomor1(T )). Mas o Lema 6.3 garante que

r1(z) = q2(z)m(z) + r(z). (6.4)

De fato, seλ for uma raiz de multiplicidaded dem(z), notamos que

r(i)1 (λ) = f (i)(λ) = r(i)(λ), for i = 0, . . . , d− 1.

Uma vez que todos os termos da equação(6.4) são polinômios, a substituiçãodez porT faz sentido, de acordo com a Seção 5.6. Assim,

r1(T ) = r(T ),

o que autoriza a utilização de qualquer múltiplos(z) do polinômio mínimom(z)do operadorT ao invés dem(z) na Definição 6.6.

Observação 6.8Note que, na argumentação anterior, não verificamos quer1 = r,mas apenas quer1(T ) = r(T )! �

Page 118: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 102 — #118i

i

i

i

i

i

102 O Cálculo Funcional Cap. 6

Exemplo 6.9 Consideremos a matriz

A =

2 1 11 2 11 1 2

.

Os autovalores deA são1 e4. Seu polinômio mínimo ém(z) = (z−1)(z−4), comose verifica facilmente. Se quisermos calcularA1000, definimos a funçãof(z) =z1000 e consideramos o polinômior(z) = az + b satisfazendor(4) = f(4) = 41000

e r(1) = f(1) = 1. Definindoc = 41000, entãor(z) = c−13z + 4−c

3. Assim,

A1000 = r(A) =

c+23

c−13

c−13

c−13

c+23

c−13

c−13

c−13

c+23

.

Notamos que, uma vez quef(z) = z1000 é um polinômio, poderíamos ter feito adivisão euclidianaf(z) = q(z)m(z) + r(z) (obtendo assimr), donde se segue queA1000 = r(A), em virtude do homomorfismo de álgebras 5.6. �

Exemplo 6.10 Consideremos a matriz

A =

0 0 10 0 00 0 0

.

Queremos calcularcosA.Os polinômios característico e mínimo deA sãop(z) = z3 e m(z) = z2.

Utilizando p, obtemos o polinômio interpoladorrp(z) = az2 + bz + c, em quea = −1/2, b = 0 e c = 1 (pois c = r(0) = cos 0 = 1, b = r′(0) = −sen 0 = 0e 2a = r′′(0) = − cos 0 = −1). Utilizandom, obtemos o polinômio interpoladorrm(z) = az + b, em quea = 0 e b = 1. Assim,rp 6= rm. Contudo,

rp(A) = −1

2

0 0 10 0 00 0 0

2

+

1 0 00 1 00 0 1

=

1 0 00 1 00 0 1

= rm(A)

e cosA = rp(A) = rm(A) = I. �

Page 119: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 103 — #119i

i

i

i

i

i

§6.3 Estendendo o Homomorfismo de Álgebras 103

6.3 Estendendo o Homomorfismo de Álgebras

SejamT : X → X uma aplicação linear definida no espaçoX de dimensãon em o seu polinômio mínimo. Suponhamos quef e g sejam euclidianas com relaçãoa T . Nosso objetivo nesta seção é mostrar que, em(fg)(z) é válida a substituiçãodez porT : (fg)(T ) = f(T )g(T ).

Assim, suponhamos quem(z) = (z − λ1)d1 · · · (z − λℓ)

dℓ o polinômio mínimodeT .

Como vimos na Seção 5.6, existe um homomorfismo naturalφ entreK[z], aálgebra de polinômios com coeficientes emK e K[T ], a álgebra de operadoreslineares obtida ao se avaliar cada polinômiop ∈ K[z] emT .

Denotamos porJ a álgebra de todas as funções euclidianas com respeito aT .É claro queK[z] é uma subálgebra deJ .

Definimos, então,Φ : J → K[T ] por Φ(f) = f(T ), sendof(T ) dadopela Definição 6.6. ClaramenteΦ é uma aplicação linear. Vamos verificar queΦ(fg) = Φ(f)Φ(g). Sef = q1m + rf e g = q2m + rg denotam as divisõeseuclidianas def e g por m, claramenteΦ(f)Φ(g) = rf (T )rg(T ) = (rfrg)(T ).Por outro lado, sejafg = q3m + rfg a divisão euclidiana defg por m. Comovimos antes da Definição 6.6, vale a divisão de polinômiosrfrg = q4m + rfg, oque implicaΦ(fg) = rfg(T ) = (rfrg)(T ) = Φ(f)Φ(g). Isso mostra queΦ é umhomomorfismo de álgebras, que estende o homomorfismoφ.

K[z] φւ ց

J −→ K[T ]Φ

O núcleo deΦ é constituído pelas funçõesf ∈ J que possuem resto nulo quandodivididas porm, isto é, pelas funçõesf tais que

f(λ1) = 0, . . . , f (d1−1)(λ1) = 0, . . . , f(λℓ) = 0, . . . , f (dℓ−1)(λℓ) = 0.

Observação 6.11(Os resultados aqui descritos são mais avançados e requeremconhecimentos da topologia doKn.) É possível introduzir uma topologia emK[z],na qual o homomorfismoφ é contínuo. Para isso, sejaK ⊂ K um conjuntocompacto que contenhaσ(T ) em seu interior. Definimosk = max{d1−1, . . . , dℓ−1} e a norma

‖p‖Ck(K) = maxz∈K{|p(z)|, . . . , |p(k)(z)|}.

Page 120: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 104 — #120i

i

i

i

i

i

104 O Cálculo Funcional Cap. 6

É de verificação imediata que a convergência nessa norma implica convergênciana semi-norma

‖p‖K[z] = max{|p(λ1)|, . . . , |p(d1−1)(λ1)|, . . . , |p(λℓ)|, . . . , |p(dℓ−1)(λℓ)|}.

Se considerarmosK[T ] com a topologia deKn2, o homomorfismoφ é contínuo.

De fato, sejamp e q polinômios quaisquer. O polinômio (emT ) p(T ) − q(T )tem coeficientes que dependem apenas dos valores assumidos pelos polinômiosp e q (e, conforme o caso, pelas suas derivadas até a ordemk) no espectroσ(T ) = {λ1, . . . , λℓ} do operadorT , de acordo com a Definição 6.6. Segue-seimediatamente daí quep(T ) estará perto deq(T ), sep eq estiverem suficientementepróximos na norma‖ · ‖Ck(K).

Entretanto, para garantir a continuidade deΦ precisamos restringir a álgebraJ . Fazemos isso definindoFk, a álgebra de todas as funçõesf definidas e declasseCk em todos os pontos do interior do compactoK. ClaramenteFk ⊂ J .Consideramos emFk a mesma norma introduzida emK[z]. É claro queK[z]também é uma subálgebra deFk.

O mesmo argumento que prova a continuidade deφ continua válido. Assim,ΦFk = Φ|Fk é contínuo.

K[z] φւ ց

Fk −→ K[T ]ΦFk

A continuidade deΦFk é importante na Álgebra Linear Numérica. �

6.4 Aplicações do Cálculo Funcional

Esta seção dará especial atenção ao fluxoeAt e suas principais propriedades.

6.4.1 O Fluxo

Começamos com a definição usual do fluxoeAt. Essa depende da noção deconvergência uniforme e da noção de norma de uma matriz quadrada (veja a Seção8.8). Essa primeira definição pode ser omitida, se o professor julgar desejável.

Page 121: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 105 — #121i

i

i

i

i

i

§6.4 Aplicações do Cálculo Funcional 105

Partimos da função exponencialexp : C → C, cuja representação em série depotências

exp(zτ) = ezτ = 1 +∞∑

n=1

znτn

n!,

converge uniformemente em conjuntos compactos. Se‖A‖ denotar a norma usualno espaçoL(Cn,Cn) das transformações linearesA : Cn → Cn, afirmamos que

I +∞∑

n=1

Anτn

n!

define um operador linear. De fato, a norma emL(Cn,Cn) tem a propriedade

‖AB‖ ≤ ‖A‖ ‖B‖,

seguindo-se daí que‖Ai‖ ≤ ‖A‖i. Assim, parak ∈ N, decorre que∥∥∥∥∥I +

k∑

n=1

Anτn

n!

∥∥∥∥∥ ≤ 1 +k∑

n=1

‖A‖n|τ |nn!

. (6.5)

Para cada valor deτ fixo, a série à direita converge. Como o espaçoL(Cn,Cn) écompleto, oM -teste de Weierstraß implica que

exp(Aτ) = eAτ := I +∞∑

n=1

Anτn

n!

é um operador linear. Tomandoτ = t ∈ R, definimos ofluxo eAt da matrizA.Também notamos que(6.5) mostra que a convergência é uniforme, seτ pertencer aum conjunto compacto. Logo, diferenciação termo a termo produz sua derivada e

d

dteAt = eAtA.

Além disso, quandot = 0, temos

eAt∣∣t=0

= e0 = I.

Essas são as propriedades principais do fluxoeAt. Em particular, vemos queeAt éuma solução fundamental do sistema matricialX ′ = AX,X(0) = I.

Page 122: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 106 — #122i

i

i

i

i

i

106 O Cálculo Funcional Cap. 6

Essa definição do fluxoeAt torna difícil o seu cálculo explícito: usualmente énecessário obter a forma canônica de JordanJ = P−1AP da matrizA, entãoeJt

(veja o Apêndice B) e, finalmente,eAt = PeJtP−1. O cálculo funcional tornapossível obtereAt facilmente.

Apresentamos agora uma forma alternativa de introduzir o fluxo, sem apelarpara sua definição por meio de séries de potências. SejaA uma matriz quadrada.Consideremos a funçãof : C → C (dependente do parâmetro realt) definida porf(z) = ezt. Ela define a função de matrizeAt.

Exemplo 6.12 Seja

A =

1 0 00 2 −50 1 −2

.

Queremos calculareAt. O polinômio característico deA (e também o seu polinômiomínimo) é

p(z) = (z − 1)(z + i)(z − i).(Estamos considerandoA como uma matriz no corpoC. Como mostraremos aseguir, a utilização de raízes complexas é vantajosa.)

Para obtermoseAt, definimos a funçãof(z) = ezt. Basta, então, encontrar umpolinômio, de grau no máximo igual a2, tal quer(1) = f(1) = et, r(i) = f(i) =cos t + i sen t e r(−i) = f(−i) = cos t − i sen t. Substituindo essas relações nopolinômior(z) = az2 + bz + c, achamosa = (et/2)− (cos t+ sen t)/2, b = sen te c = (et/2) + (cos t− sen t)/2. Assim,

eAt =

[et

2− cos t+ sen t

2

]A2 + (sen t)A+

[et

2+

cos t− sen t

2

]I,

que é, para cadat, uma matriz real (como não poderia deixar de ser), emboratenhamos considerado a matrizA como uma matriz complexa. �

Exemplo 6.13 Seja

A =

3 −4 −1−3 5 121 −32 −7

.

O polinômio característico deA é

p(z) = (z − 1)z2.

Page 123: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 107 — #123i

i

i

i

i

i

§6.4 Aplicações do Cálculo Funcional 107

Para calcularmoseAt, obtemos os coeficientes der(z) = az2 + bz + c de modo quesejam satisfeitas as relaçõesr(1) = e1t = et, r(0) = e0t = 1 e r′(0) = te0t = t.Assim,c = 1, b = t ea = et − t− 1. Concluímos que

eAt = (et − t− 1)A2 + tA+ 1I.�

Para obtermos algumas propriedades do fluxo, definimos:

Definição 6.14SejaI ⊂ R um intervalo fechado não-degenerado(isto é,I não sereduz a um ponto). Uma aplicação contínuax : I → Kn é chamada decaminho.O caminhox é diferenciável, se existir ovetor velocidade

x′(t) = limh→0

x(t+ h)− x(t)h

∈ Kn.

(Se t for um ponto de fronteira, o limite é o respectivo limite lateral. Tambémchamamos o vetor velocidade dederivadadex(t)).

Em outras palavras, sex(t) = (x1(t), . . . , xn(t)) ∈ Kn, então

x′(t) = (x′1(t), . . . , x′n(t)).

IdentificandoMm×n(K) comKmn, a mesma noção faz sentido para caminhosque tomam valores no espaçoMm×n(K). Assim, seA(t) denotar um caminho emMm×n(K), sua derivada é obtida ao se derivar cada uma das entradas deA(t).

Também podemos considerar funçõesψ : U ⊂ C → Kn (ou Mm×n(K)) edefinir a derivadaψ′(z) de maneira análoga.

Deduzimos imediatamente as seguintes propriedades do fluxoeAt:

(i) eAt∣∣t=0

= I;

(ii) ddteAt = eAtA.

Da fato, a função de matrizeAt pode ser considerada oriunda da funçãog(z, t) =ezt. Se fizermost = 0 nessa função, obtemosg(z, 0) = e0, de onde segue-se(i).Uma vez que

∂tg(z, t) = eztz = g(z, t)z,

o homomorfismo de álgebras 6.3 garante(ii).

Page 124: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 108 — #124i

i

i

i

i

i

108 O Cálculo Funcional Cap. 6

Observação 6.15Embora a funçãof(z) = ez satisfaça a equação

ez+w = ezew,

não podemos deduzir queeA+B = eAeB, uma vez que a substituição simultânea dasvariáveisz porA ew porB não é permitida pelo cálculo funcional. Contudo, seA eB comutarem, o simples conhecimento de queeA é um polinômio emA nospermite concluir queeAB = BeA, que é uma parte importante da demonstração dequeeA+B = eAeB se, e somente se,AB = BA (veja o Exercício 13). �

6.4.2 Funções Trigonométricas

O estudo da subseção anterior permanece válido para o caso daexponencialeiAt

(ou seja, para a funçãog(z, it), comt ∈ R, a qual gera as funções trigonométricassenAt e cosAt. Essas funções também são fáceis de obter por meio do cálculo

funcional.As mesmas observações também se aplicam a outras funções trigonométricas.

6.4.3 Logaritmo

Dada uma matriz quadradaA, comdetA 6= 0, o cálculo funcional permite aobtenção da matrizB = logA. Apenas temos que escolher um ramo da funçãof(z) = log z que contenha o espectroσ(A) e, então, obterB = logA por meiodo polinômio interpolador. Claro, a matrizB depende do ramo escolhido, mas arelaçãoeB = A segue-se sempre deelog z = z.

Se todos os autovalores da matriz realA forem positivos, podemos entãoconsiderar a função realf(x) = lnx (logaritmo neperiano) e aplicar a mesmatécnica. A matrizB = lnA, assim obtida, é a única solução real da equaçãoeB = A.

6.4.4 Raiz Quadrada

Suponhamos que todos os autovalores da matriz realA sejam reais e não-negativos. Adicionalmente, se0 for um autovalor deA, supomos que ele seja umaraiz simples do polinômio mínimom deA. Nesse caso, podemos utilizar a funçãof : (0,∞)→ R, f(x) =

√x para definir

√A. Aqui, o cálculo funcional é utilizado

em uma função que é apenas contínua no autovalor simplesλ = 0 da matrizA.

Page 125: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 109 — #125i

i

i

i

i

i

§6.4 Aplicações do Cálculo Funcional 109

Contudo, podemos definir√A mesmo queA e seus autovalores sejam

complexos e não-nulos. Apenas precisamos escolher um ramo da função logaritmof(z) = log z para o qual a raiz quadrada de todos os autovalores da matrizA estejadefinida. Então aplicamos o cálculo funcional à função complexaf(z) =

√z.

Observação 6.16A definição de√A não determina todas as soluções da equação

B2 = A. SeA for a matriz identidade2× 2,(−1 0

0 −1

),

(1 10 −1

)e

(−1 1

0 1

)

também são soluções deB2 = I, além deB = I, a única solução que pode serobtida por meio da função raiz quadrada real. Além disso, seA = −I, a equaçãoB2 = A possui a solução real (

0 −11 0

),

que não vem de da função√A. �

6.4.5 A Inversa

A maneira clássica de se obter a inversa por meio do polinômiocaracterísticop(ou mínimo) da matriz invertívelA é a seguinte: se

p(z) = zm + . . .+ a1z + a0

temos0 = Am + am−1A

m−1 + . . .+ a1A+ a0I.

Multiplicando essa relação porA−1, obtemos

a0A−1 = −[a1 + . . .+ amA

m−1].

ComoA possui inversa,a0 6= 0. ObtemosA−1 dividindo o lado direito da igualdadeanterior pora0.

Para uma matriz invertível arbitrária, esse procedimento não é vantajoso comrelação ao cálculo da inversa por meio de eliminação gaussiana. Em geral, tambémo cálculo funcional não é vantajoso.

Mas, por exemplo, se a matriz invertívelA for simétrica e possuir poucosautovalores, o cálculo funcional é útil: veja [28] (ou [5]).

Page 126: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 110 — #126i

i

i

i

i

i

110 O Cálculo Funcional Cap. 6

6.5 Exercícios

1. Sejamp,m ∈ K[z]. Mostre que o restor da divisão euclidianap = qm + ré justamente o polinômio interpolador. Assim, o polinômio interpoladorfornece uma generalização natural da divisão euclidiana.

2. (Este exercício requer alguma familiaridade com funçõesde uma variávelcomplexa.) SejamU ⊂ C um aberto ef : U → C uma função. Dizemos quef éanalíticaemU , se ela possuir derivada em todos os pontos do abertoU eholomorfaemU , se ela possuir desenvolvimento em série de potências (comraio de convergência positivo) em todos os pontos do abertoU .

Suponha queU seja um aberto convexo,f : U → C analítica emU eγ : [a, b]→ U um caminho diferenciável por partes, comγ(a) = γ(b).

(a) Sez0 ∈ U , considere o quocienteq(z) = f(z)/(z − z0). Mostre queqpossui uma primitiva emU , donde se conclui que

∫γq(z)dz = 0.

(b) Efetue a divisão euclidianaf(z) = q(z)(z − z0) + r(z) e mostre afórmula integral de Cauchy para conjuntos abertos convexos:

γ

f(z)dz

z − z0

= f(z0)W (f, z0),

em queW (f, z0) denota o número de rotação eγ(t) 6= x0 para todot ∈ [a, b]. (Essa é uma demonstração muito simples da fórmula integralde Cauchy!)

(c) Conclua, por meio de argumentos clássicos (veja, por exemplo, [27]),que toda função analítica é holomorfa.

(d) Seγ for como em(b), utilize a divisão euclidiana para demonstrar que∫

γ

f(z)dz

(z − z0)2= f ′(z0)W (z0, γ).

3. Sejaf uma função euclidiana com relação à matrizn× n

A =

A1 0 · · · 00 A2 · · · 0...

.... ..

...0 0 · · · Aℓ

,

Page 127: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 111 — #127i

i

i

i

i

i

§6.5 Exercícios 111

em que os blocosAi são matrizes quadradas. Mostre que

f(A) =

f(A1) 0 · · · 00 f(A2) · · · 0...

..... .

...0 0 · · · f(Aℓ)

.

4. Sejamp(z) = (z − λ)n ef uma função euclidiana com relação ap. Obtenhaexplicitamente os coeficientes do polinômio interpoladorr tal quef = qp+r,gr r < gr p.

5. CalculesenA e eA, para

A =

1 1 20 1 30 0 1

.

6. CalculeeAt, se

A =

(0 −11 0

).

7. Mostre que a matriz

A =

(0 01 0

)

não possui raiz quadrada. Isso contradiz os resultados da Seção 6.4.4?

8. SejamA(t) eB(t) dois caminhos diferenciáveis emMn×n(K) definidos nomesmo intervaloI ⊂ R. Mostre que

d

dt[A(t)B(t)] =

[d

dtA(t)

]B(t) + A(t)

[d

dtB(t)

].

9. SejamI ∋ t 7→ A(t) ∈ Mn×n(K) um caminho ef uma função suave, talquef ′ seja euclidiana com relação aA(t) para todot ∈ I (isso certamenteacontece sef : C→ C for analítica) ef(A(t)) a função de matriz resultante.Mostre:

(a) ddt

[A(t)]k = A′(t)[A(t)]k−1 + AA′(t)[A(t)]k−2 + . . .+ [A(t)]k−1A′(t).

Page 128: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 112 — #128i

i

i

i

i

i

112 O Cálculo Funcional Cap. 6

(b) SeA(t) eA′(t) comutarem, entãoddtf(A(t)) = f ′(A(t))A′(t). Dê um

exemplo mostrando que esse resultado não é válido seA(t) eA′(t) nãocomutarem.

(c) ddt

[tr f(A(t))] = tr [f ′(A(t))A′(t)], mesmo seA(t) e A′(t) nãocomutarem.

10. Sejamx1, . . . , xn : I → Kn caminhos diferenciáveis. SeD denotara função determinante, mostre queD(x1(t), . . . , xn(t)) é diferenciável ecalcule sua derivada. Deduza que, set 7→ A(t) ∈ Mn×n(K) for um caminhodiferenciável tal queA(0) = I, então d

dtdetA(t)

∣∣t=0

= trA′(0).

11. Sejat 7→ A(t) ∈ Mn×n(R) é um caminho diferenciável. Mostre que, paratodo valor det tal queA(t) é invertível, vale

[detA(t)]′

detA(t)= tr

([A(t)]−1A′(t)

),

ou seja,d

dtln detA(t) = tr

([A(t)]−1A′(t)

).

12. Dê um exemplo mostrando queeA+B 6= eAeB no caso de as matrizesA eBnão comutarem.

13. Mostre quee(A+B)t = eAteBt se, e somente se,A eB comutarem.

Observação: Podemos tereA+B = eAeB, mesmo que as matrizesA eB nãocomutem. Por exemplo, considere

A =

0 0√

3π0 0 −π

−√

3π π 0

e B =

0 0 −√

3π0 0 −π√3π π 0

.

Definição 6.17SejaA = (aij) ∈ Mn×n(R). A matrizA é positiva, seaij > 0 enão-negativa, seaij ≥ 0 para todoi, j ∈ {1, . . . , n}. Um vetorx = (x1, . . . , xn) épositivo(resp.,não-negativo) sexi > 0 (resp.,xi ≥ 0) para todoi ∈ {1, . . . , n}.Notamosx ≥ y, sexi ≥ yi para todoi ∈ {1, . . . , n}.

14. (O Teorema de Perron)SejaA uma matriz positiva. Considere

K := {x ≥ 0 | ‖x‖ = 1}e definar = supK{ρ > 0 | Ax ≥ ρx}.

Page 129: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 113 — #129i

i

i

i

i

i

§6.5 Exercícios 113

(a) o valorr está bem definido e é positivo;

(b) se um vetorz > 0 satisfizerAz ≥ rz, entãoz é um autovetor deAassociado ao autovalorr;

(c) vale a desigualdade:|Ax| ≤ A|x|, em que|v| denota o vetor comcoordenadas iguais ao valor absoluto das coordenadas dev;

(d) o autovetorz é positivo e o valorr é o maior autovalor deA;

(e) o autovalorr é simples. Assim, seAw = rw, entãow é um múltiplo dez.

Page 130: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 114 — #130i

i

i

i

i

i

7Teoria Espectral

Neste Capítulo apresentamos os resultados mais importantessobre operadoresdefinidos em espaços arbitrários de dimensão finita: o Teorema Espectral e adecomposição primária, a forma canônica de Jordan e a decomposição racional.A demonstração do Teorema Espectral é feita utilizando-se ocálculo funcionale, por isso, relativamente, abstrata (veja o quadro de dependências para trajetosalternativos).

7.1 Imagem do Espectro

Nosso primeiro resultado esclarece a relação entre os autovalores deT e osautovalores def(T ).

Teorema 7.1 (da Imagem do Espectro)Sejaf uma função euclidiana com relação ao operadorT : X → X, definido

no espaço complexoX de dimensãon. Sev for um autovetor deT associado aoautovalorλ, entãov é um autovetor def(T ) associado ao autovalorf(λ). Todoautovalor def(T ) é da formaf(λ), em queλ é um autovalor deT . Portanto, emsímbolos, valef(σ(T )) = σ(f(T )).

Demonstração: Comof é euclidiana com relação àT , f(T ) = r(T ) = akTk +

. . .+ a1T + a0I. Sev for um autovetor relacionado ao autovalorλ,

f(T )v = r(T )v = (akλk + . . .+ a1λ+ a0)v = r(λ)v = f(λ)v.

Reciprocamente, suponhamos queµ seja um autovalor def(T ) = r(T ).Consideremos o polinômior(z)− µ, que pode ser fatorado emC como

r(z)− µ = ak

k∏

i=1

(z − λi).

114

Page 131: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 115 — #131i

i

i

i

i

i

§7.2 O Teorema Espectral 115

Conseqüentemente,

r(T )− µI = ak

k∏

i=1

(T − λiI).

Como o lado esquerdo dessa equação não possui inversa, ao menos um dos fatoresT − λiI não é invertível. Assim,λi é, ao mesmo tempo, um autovalor deT e umaraiz der(z)− µ. Portanto,

f(λi) = r(λi) = µ.2

7.2 O Teorema Espectral

Definição 7.2 Um operadorN : X → X é nilpotente se existirk ∈ N tal queNk = 0.

Provaremos agora um dos resultados mais importantes da Álgebra Linear.

Teorema 7.3 (Espectral)SejamX um espaço vetorial complexo de dimensãon e T : X → X um

operador linear com polinômio característico

p(z) = (z − λ1)s1 · · · (z − λℓ)

sℓ ,

em que os autovaloresλi são distintos, parai = 1, . . . , ℓ.Então existem subespaçosW1, . . . ,Wℓ invariantes porT (isto é,T (Wi) ⊂ Wi)

tais queX = W1 ⊕ · · · ⊕Wℓ.

Além disso,dimWi = si e os polinômios mínimosmi e m de T |Wie T são,

respectivamente,mi = (z − λi)di em(z) = m1(z) · · ·mℓ(z) = (z − λ1)

d1 · · · (z −λℓ)

dℓ, em que1 ≤ di ≤ si.Também vale a decomposiçãoT = D+N , comD diagonalizável,N nilpotente,

sendo ambos polinômios emT (e, portanto,DN = ND).

Demonstração:Para cadaλi consideramos um abertoUi ∋ λi, de modo que

Ui ∩ Uk = ∅,

Page 132: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 116 — #132i

i

i

i

i

i

116 Teoria Espectral Cap. 7

sei 6= k. Definimosfi(z) = 1, sez ∈ Ui, efi(z) = 0, sez ∈ Uj, j 6= i. As funçõesf1, . . . , fℓ são euclidianas com relação àp e as relações

f 2i = fi, fifj = 0, se i 6= j, e

ℓ∑

i=1

fi = 1

são válidas emℓ⋃

i=1

Ui ⊃ σ(T ). Assim, denotandofi(T ) porπi, as relações

π2i = πi, πiπj = 0, se i 6= j, e

ℓ∑

i=1

πi = I, (7.1)

continuam válidas (de acordo com a Seção 6.3), mostrando assim que cadaπi é umaprojeção.

SeWi denotar a imagemπi(X), obtemos

X = W1 ⊕ · · · ⊕Wℓ.

Comoπi comuta comT , claramente valeT (Wi) ⊂ Wi (veja a Proposição 5.10).Independente das basesB1, . . . ,Bℓ escolhidas para os espaçosW1, . . . ,Wℓ,

respectivamente,T pode ser representado por uma matriz diagonal em blocosAcom relação à baseB = {B1, . . . ,Bℓ} deX = W1 ⊕ · · · ⊕Wℓ:

A = TB =

A1 0 · · · 00 A2 · · · 0...

.... . .

...0 0 · · · Aℓ

.

Afirmamos que, parai = 1, . . . , ℓ, o polinômio característico deAi é

det(zI− Ai) = (z − λi)si ,

o que implica quedimWi = si e que o polinômio mínimo deAi é (z − λi)di,

para1 ≤ di ≤ si (de acordo com o Lema 5.14). Daí decorre imediatamente que opolinômiom tem a forma dada pelo teorema. (Veja o Exercício 12 do Capítulo5.Compare com a Proposição 7.6.)

Para provarmos nossa afirmação é suficiente mostrar que o único autovalor deAi éλi pois, por um lado, temos a fatoração

p(z) = (z − λ1)s1 · · · (z − λℓ)

sℓ

Page 133: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 117 — #133i

i

i

i

i

i

§7.2 O Teorema Espectral 117

e, por outro,

p(A) = det(zI− A) = det(zI− A1) · · · det(zI− Aℓ).

Vamos considerar apenasi = 1, os casos restantes sendo análogos. Sejaλ 6= λ1

arbitrário. Definimos as funções

g(z)=

q1(z) = z − λ, sez ∈ U1,

qj(z) = 1, sez ∈ℓ⋃

j=2

Uj,e h(z)=

1/(z − λ), sez ∈ U1,

1, sez ∈ℓ⋃

j=2

Uj.

Notamos que, na construção das projeçõesπ1, . . . , πℓ, as vizinhanças disjuntasU1, . . . , Uℓ foram escolhidas arbitrariamente. Reduzindo a vizinhançaU1 de λ1,podemos supor queλ 6∈ U1. Assim,h está bem definida e vale

g(z)h(z) = 1.

Isso garante queg(A) possui inversa.Agora calculamosg(A). Para isso, notamos que

g(z) = q1(z)f1(z) + q2(z)f2(z) + . . .+ qℓ(z)fℓ(z).

Em virtude do homomorfismo de álgebras 6.3, temos

g(T ) = (T − λI)π1 + . . .+ Iπℓ.

Representando o operadorT na baseB obtemos a expressão deg(A):

g(A) =

A1 − λI 0 · · · 00 I · · · 0...

.... ..

...0 0 · · · I

.

Comog(A) tem inversa,A1− λI também possui inversa. Comoλ 6= λ1 foi tomadoarbitrariamente, está provado que o único autovalor deA1 éλ1.

Consideramos agora o operador diagonalizávelD =∑ℓ

i=1 λiπi. (Em cadaWi

temosDi := λiπi = λiI, em queI é o operador identidade emWi, de acordo com(7.1). Isso implica queD é diagonalizável. Veja o Exemplo 7.5.)

Page 134: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 118 — #134i

i

i

i

i

i

118 Teoria Espectral Cap. 7

DefinimosN = T −D. A representação deN na baseB é

NB =

A1 − λ1I 0 · · · 00 A2 − λ2I · · · 0...

.... . .

...0 0 · · · Aℓ − λℓI

.

Como o polinômio mínimo deAi = T |Wié pi(z) = (z − λi)

di , vem que(Ai − λiI)

k = 0 para todoi = 1, . . . , ℓ, sek = max{d1, . . . , dℓ} e, portanto,Nk = 0.

Temos queD =∑ℓ

i=1 λiπi =∑ℓ

i=1 λifi(T ) é uma soma de polinômios emTe, portanto, um polinômio emT . Mas isso implica queN = T − D é polinômioemT , completando a prova. 2

Observação 7.4SedimX = n, a demonstração garante a validade do TeoremaEspectral quando o operadorT : X → X possui todos os seusn autovalores(contada a multiplicidade) no corpoR (veja o Exemplo 7.5).

Se esse não for o caso (isto é, se o polinômio característico deT possuir fatoresirredutíveis de grau 2), o Teorema Espectral possui uma generalização (conhecidacomo Teorema da Decomposição Primária), que será tratada naSeção 7.3. �

Exemplo 7.5 SejaT : R4 → R4 definida por

T (x1, x2, x3, x4) = (2x1 − x2 + x4, 3x2 − x3, x2 + x3,−x2 + 3x4).

O polinômio característico deT ép(z) = (z−3)(z−2)3 e verifica-se facilmentequem(z) = (z − 3)(z − 2)2 é o polinômio mínimo deT .

Inicialmente exemplificaremos o Teorema 7.3 com respeito à base canônica doR4. Denotaremos porA a matriz que representaT nessa base.

A projeçãoπ1 (associada ao autovalor3) é obtida ao se resolver o sistema1

r(z) = az2 + bz + c, r(3) = 1, r(2) = 0, r′(2) = 0.

Assim,a = 1, b = −4, c = 4 e

π1 = A2 − 4A+ 4I =

0 −2 1 10 0 0 00 0 0 00 −2 1 1

.

1Para simplificar os cálculos, usamos o polinômio mínimo deT ao invés do polinômiocaracterístico.

Page 135: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 119 — #135i

i

i

i

i

i

§7.2 O Teorema Espectral 119

Do mesmo modo,

π2 =

1 2 −1 −10 1 0 00 0 1 00 2 −1 0

.

As relações(7.1) seguem-se daí imediatamente. Logo,

x1

x2

x3

x4

= R4 =

−2x2 + x3 + x4

00

−2x2 + x3 + x4

+

x1 + 2x2 − x3 − x4

x2

x3

2x2 − x3

= W1 ⊕W2.

A matrizD é definida por

D = 3π1 + 2π2 =

2 −2 1 10 2 0 00 0 2 00 −2 1 3

e a matriz nilpotenteN por

N = A−D =

0 1 −1 00 1 −1 00 1 −1 00 1 −1 0

.

É fácil verificar queN2 = 0 eND = DN .Se escolhermos, por exemplo, bases

B1 = {w1 = (1, 0, 0, 1)}e

B2 = {w2 = (1, 0, 0, 0), w3 = (2, 1, 0, 2), w4 = (−1, 0, 1,−1)}para os espaçosW1 e W2, respectivamente, entãoT é representado pela matrizdiagonal em blocos

B =

(3) 0 0 0000

2 0 00 3 −10 1 1

.

Page 136: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 120 — #136i

i

i

i

i

i

120 Teoria Espectral Cap. 7

na base{B1,B2} = {w1, w2, w3, w4}. ComoD é uma matriz diagonal nessa base,temos imediatamente

D =

3 0 0 00 2 0 00 0 2 00 0 0 2

e

N = B −D =

0 0 0 00 0 0 00 0 1 −10 0 1 −1

também satisfazN2 = 0. �

De acordo com o Teorema Espectral, se o polinômio característico de umoperadorT : V → V definido no espaço complexo de dimensão finitaV for

p(z) = (z − λ1)s1 · · · (z − λℓ)

sℓ ,

então seu polinômio mínimo é

m(z) = (z − λ1)d1 · · · (z − λℓ)

dℓ ,

em que1 ≤ di ≤ si. O inteiro positivodi é oíndicedo autovalorλi.Está implícita no Teorema 7.3 a seguinte caracterização dosespaçosWi:

Proposição 7.6Wi = ker(T − λiI)di. Os elementos deker(T − λiI)

di são osautovetores generalizadosassociados aλi.

Demonstração:De fato, sewi ∈ Wi, então(T − λiI)diwi = 0, pois o polinômio

mínimo deT |Wié (z − λi)

di . Assim,

Wi ⊂ ker(T − λiI)di .

Reciprocamente, tomemosv ∈ X arbitrário e suponhamos que(T − λiI)div = 0.

Escrevendov = wi + w, em quewi ∈ Wi e w ∈ W := W1⊕ · · · ⊕Wi−1⊕Wi+1⊕· · · ⊕Wℓ, segue-se daí que(T − λiI)

diw = 0, pelo que provamos antes. Sew 6= 0,chegamos a um absurdo, pois, emW1⊕· · ·⊕Wi−1⊕Wi+1⊕· · ·⊕Wℓ, T tem comopolinômio característico ∏

j 6=i

j=1,...,ℓ

(z − λj)sj ,

Page 137: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 121 — #137i

i

i

i

i

i

§7.2 O Teorema Espectral 121

o qual não é divisível por(z − λi)di, contrariando o Exercício 19 do Capítulo 5.

(Veja também o Exercício 15 deste Capítulo.) 2

O resultado anterior nos indica uma maneira alternativa de encontrar os espaçosWi: vale

ker(T − λiI) ( · · · ( ker(T − λiI)di = ker(T − λiI)

di+1 = · · · = ker(T − λiI)si .

(7.2)(Para as inclusões estritas veja o Exercício 5; as igualdades são conseqüênciasde (z − λi)

di e (z − λi)si serem, respectivamente, os polinômios mínimos e

característico deT |Wi).

O índice di do autovalorλi é encontrado quando essa seqüência de subes-paços estabiliza-se. Ou, alternativamente,ker(T − λiI)

di é o primeiro subespaçoda seqüência que tem dimensãosi.

Corolário 7.7 SejaX um espaço de dimensão finita. Um operador linearT : X →X é diagonalizável se, e somente se, o seu polinômio mínimo forproduto de fatoreslineares distintos.

Demonstração: Suponhamos queT seja diagonalizável. Sejamλ1, . . . , λℓ osautovalores distintos deT . EntãoX possui uma base formada por autovetores deT , de acordo com o Corolário 5.6. Considere o polinômio

h(z) = (z − λ1) . . . (z − λℓ).

Sev for um autovetor deT associado ao autovalorλi, então(T − λiI)v = 0. Issoimplica queh(T )v = 0 para qualquer autovetor deT . Como o Teorema Espectral7.3 implica que o polinômio mínimo e característico possuemos mesmos fatoresirredutíveis, mostramos queh é o polinômio mínimo deT .

Reciprocamente, sem(z) = (z − λ1) . . . (z − λℓ) for o polinômio mínimode T , então o polinômio mínimo deT |Wi

é (z − λiI). Isso quer dizer queWi = ker(T − λiI). Assim, todo elemento deWi é um autovetor deT . TomandobasesBi de cada espaçoWi, temos queB = {B1, . . . ,Bℓ} é uma base deX formadapor autovetores deT . 2

Page 138: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 122 — #138i

i

i

i

i

i

122 Teoria Espectral Cap. 7

7.3 Decomposição Primária

(Esta seção pode ser omitida, a critério do instrutor.)SejaT : X → X um operador linear sobre o espaço realX de dimensãon.

Se o polinômio característicop deT tiver suasn raízes emR, o Teorema Espectral7.3 pode ser aplicado. Se esse não for o caso, aquele resultado não é imediatamenteaplicável.

Teorema 7.8 (da Decomposição Primária)SejamX um espaço vetorial real de dimensão finitaX e T : X → X uma

aplicação linear. Sejap ∈ R[z] o polinômio característico deT . Se

p(z) = [p1(z)]s1 · · · [pℓ(z)]

sℓ

for a decomposição dep(z) em fatores irredutíveis, compi 6= pk para i 6= k. Então,o polinômio mínimo deT é

m(z) = [p1(z)]d1 · · · [pℓ(z)]

dℓ ,

em que0 < di ≤ si para i = 1, . . . , ℓ. O espaçoX decompõe-se como soma diretade subespaços

X = W1 ⊕ · · · ⊕Wℓ,

sendoWi = ker[pi(T )]di = ker[pi(T )]si invariante porT . Sepi tiver grau dois,dimWi = 2si.

Demonstração:Suponhamos que

XC = W1 ⊕ · · · ⊕ Wℓ (7.3)

seja a decomposição espectral deTC, de acordo com o Teorema Espectral 7.3 (aoespaço invarianteWi está associado apenas o autovalorλi deTC).

De acordo com o Lema 5.20(i), escolhendo uma baseB paraX, obtemos umamatriz realA que representa tantoT quantoTC nessa base.

Sejaλ um autovalorreal de TC e Wλ = ker(TC − λI)d um dos subespaçosda decomposição espectral(7.3) de TC. (Estamos utilizando a Proposição 7.6.)Sejamw ∈ Wλ = ker(TC − λI)d e x a representação dew na baseB. Então(A − λI)dx = 0. Tomando o conjugado nessa equação, obtemos(A − λI)dx = 0.Assim,w ∈ Wλ. De acordo com o Lema 5.20(iii), Wλ possui uma base formada

Page 139: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 123 — #139i

i

i

i

i

i

§7.3 Decomposição Primária 123

por vetores reais. Mas uma base formada por vetores reais para ker(TC − λI)d éuma base paraker(T − λI)d.

Seja agoraλ ∈ C \ R um autovalor deTC. Entãoλ também é um autovalor deTC, de acordo com o item(iii) do Lema 5.20. Assim, aos autovalores distintosλ eλ, estão associados os subespaçosWλ eWλ da decomposição (7.3).

SejamWλ = ker(TC−λI)d e{w1, . . . , wk} uma base deWλ, comwj = uj +ivj.De acordo com o Lema 5.20(iii), Wλ = ker(TC − λI)d. Daí segue-se que{w1, . . . , wk} é uma base deWλ.

Consideremos então o subespaçoWλ⊕ Wλ. Uma vez que o conjunto de vetoresreais

S = {u1, v1, . . . , uk, vk}gera esse espaço e possui2k elementos, ele é uma base deWλ ⊕ Wλ, pois essesubespaço deXC tem dimensão2k. SejaWλλ =< S > o subespaço real geradoporS. O Corolário 5.23(iv) garante queWλ ⊕ Wλ é a complexificação do espaçorealWλλ.

Assim, vemos que

X = Wλ1 ⊕ · · ·Wλs⊕Wλ1λ1

⊕ · · ·Wλtλt

é a decomposição deT em subespaços invariantes, associada à decomposiçãoespectral (7.3) deTC. 2

Observação 7.9Os subespaços invariantesWλ1λ1, . . . ,Wλtλt

não estão associadosa autovalores reais, mas a fatores irredutíveis de grau 2 do polinômio característicodeT . �

Exemplo 7.10 Considere a aplicaçãoT : R5 → R5 definida por

T (x1, x2, x3, x4, x5) = (10x1−7x4 +x5,−x3, x2, 13x1−9x4 +x5, 4x1−3x4 +x5).

A representação deT na base canônica doR5 é a matriz

A =

10 0 0 −7 10 0 −1 0 00 1 0 0 013 0 0 −9 14 0 0 −3 1

.

Page 140: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 124 — #140i

i

i

i

i

i

124 Teoria Espectral Cap. 7

O polinômio característico deA é

det(A− λI) =

10− λ 0 0 −7 10 −λ −1 0 00 1 −λ 0 013 0 0 −9− λ 14 0 0 −3 1− λ

.

Expandindo esse determinante com relação à segunda coluna,obtemos:

det(A− λI) = −λ det

10− λ 0 −7 10 −λ 0 013 0 −9− λ 14 0 −3 1− λ

− det

10− λ 0 −7 10 −1 0 013 0 −9− λ 14 0 −3 1− λ

.

Desenvolvendo esses dois determinantes, obtemos

det(A− λI) = λ2 det

10− λ −7 113 −9− λ 14 −3 1− λ

+ det

10− λ −7 113 −9− λ 14 −3 1− λ

= (λ2 + 1)[λ3 − 2λ2 + λ]

= λ(λ2 + 1)(λ− 1)2.

Pelo Teorema da Decomposição Primária,

R5 = kerA⊕ ker(A2 + I)⊕ ker(A− I)2.

Page 141: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 125 — #141i

i

i

i

i

i

§7.3 Decomposição Primária 125

Encontramos2 kerA resolvendo o sistemaAx = 0. Assim,

10 0 0 −7 10 0 −1 0 00 1 0 0 013 0 0 −9 14 0 0 −3 1

10 0 0 −7 10 1 0 0 00 0 1 0 03 0 0 −2 04 0 0 −3 1

Logo, x2 = x3 = 0, x4 = 3x1/2, x5 = −4x1 + 3x4 = −4x1 + 9x1/2 = x1/2.Assim, a solução geral deAx = 0 é x = (2x1, 0, 0, 3x1, x1) e o vetorv1 ∈ B ={v1, v2, v3, v4, v4} pode ser escolhido comov1 = (2, 0, 0, 3, 1).

CalculandoA2 +I e resolvendo o sistema(A2 +I)x = 0, encontramos a soluçãogeral

(0, x2, x3, 0, 0),

de modo que os vetoresv2 ev3 podem ser escolhidos como

v2 = (0, 1, 0, 0, 0) e v3 = (0, 0, 1, 0, 0).

Da mesma forma o sistema(A− I)2x = 0, cuja solução geral é

(x1, 0, 0, x4, 3x1 − 2x4)

o que nos permite escolher os vetores

v4 = (1, 0, 0, 0, 3) e v5 = (0, 0, 0, 1,−2).

Consideremos então a baseB = {v1, v2, v3, v4, v5}. Vamos representar a aplicaçãolinearT nessa base. Temos:

T (2, 0, 0, 3, 1) = 0 = 0v1

T (0, 1, 0, 0, 0) = (0, 0, 1, 0, 0) = 1v3

T (0, 0, 1, 0, 0) = (0,−1, 0, 0, 0) = −v2

T (1, 0, 0, 0, 3) = (13, 0, 0, 16, 7) = 13v4 + 16v5

T (0, 0, 0, 1,−2) = (−9, 0, 0,−11,−5) = −9v4 − 11v5.

Assim, a representação deT na baseB é a matriz diagonal em blocos

TB =

(0) 0 0 0 000

(0 −11 0

)0 00 0

00

0 00 0

(13 −916 −11

)

.

2O Exercício 17 pede que você obtenha a decomposição primáriapor meio do cálculo funcional,isto é, como no Exemplo 7.5.

Page 142: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 126 — #142i

i

i

i

i

i

126 Teoria Espectral Cap. 7

A submatriz(0) corresponde à restrição deT ao subespaço invariantekerA. Asubmatriz (

0 −11 0

)

é a restrição deT ao subespaço invarianteker(A2 + I). A submatriz(

13 −916 −11

)

é a restrição deT ao subespaço invarianteker(A− I)2. �

Lema 7.11 SejamS, T : X → X duas aplicações lineares no espaço de dimensãofinitaX. Suponhamos queST = TS. Então existe uma base deX na qual tantoScomoT realizam sua decomposição primária.

Demonstração: Como no Teorema da Decomposição Primária, sejaWi =ker[pi(T )]di. Sewi ∈Wi, afirmamos queSwi ∈Wi (isto é, queWi é um subespaçoinvariante também paraS). De fato,

[pi(T )]diSwi = S[pi(T )]diwi = 0.

Isso mostra o afirmado. 2

No caso deK = C podemos obter um resultado mais forte:

Proposição 7.12SejamS, T : X → X duas aplicações lineares no espaço dedimensão finitaX sobreC. Suponhamos queST = TS. Então existe uma base deX formada por autovetores generalizados deS eT .

Demonstração: Já vimos queWi = ker(T − λiI)di é invariante porS. Todos

os elementos não-nulos deWi são, por definição, autovetores generalizados deT . Aplicamos então o Teorema da Decomposição Primária ao subespaçoWi comrespeito aS e obteremos uma divisão desse subespaço em subespaços formados porautovetores generalizados deS. 2

Note que a demonstração anterior mostra que a Proposição 7.12 permaneceválida para qualquer número de operadores que comutam. Maisprecisamente,

Proposição 7.13SeT1, . . . , Tm : X → X forem aplicações lineares no espaço dedimensão finitaX sobreC e seTiTj = TjTi para i, j ∈ 1, . . . ,m, então existeuma base deX formada por autovetores generalizados para todas as aplicaçõesT1, . . . , Tm.

Page 143: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 127 — #143i

i

i

i

i

i

§7.4 Forma Canônica de Jordan 127

7.4 Forma Canônica de Jordan

SejaX um espaço complexo de dimensão finita. Nesta seção mostraremos comoencontrar uma base deX na qual um operador linearT : X → X assume umamatriz especialmente simples.

Definição 7.14Sejamλ1, . . . , λj os autovalores distintos de uma matrizJ , n × n.A matrizJ está naforma canônica de Jordan, se

J =

J1 0 · · · 00 J2 · · · 0...

..... .

...0 0 · · · Jk

, em queJi =

λi 1 0 · · · 00 λi 1 · · · 0...

..... . .. .

...0 0 · · · λi 10 0 · · · 0 λi

,

(Ao autovalorλi está associadopelo menosum blocoJi; às vezes define-seJi coma sub-diagonal de1s situando-se abaixo da diagonal principal. O blocoJi podeser uma matriz1× 1.) O blocoJi é umbloco de Jordanassociado ao autovalorλi.

Mostraremos, na seqüência, que toda matriz complexa é semelhante a umamatriz na forma canônica de Jordan. Consideramos um espaço vetorial complexoapenas para garantir que os autovalores estão todos presentes no corpo (veja oExemplo 7.18, a seguir). Note que a demonstração que apresentaremos é bemsimples: quase tudo que faremos é introduzir notação.

DenotaremosN0 = {0} eNk = ker(A − λiI)k, parak = 1, . . . , di. Note que

Wi = Ndi.

No enunciado e na demonstração do próximo resultado utilizaremos oisomorfismo canônicoQ descrito em 1.29 entreX/Y eZ, um espaço complementara Y com relação aX (isto é, X = Y ⊕ Z). Como, para os nossospropósitos, a notação do quociente é muito mais elucidativado que mencionarmoso espaço complementar envolvido, ao denotarmosx ∈ X/Y estamos, na verdade,considerandox ∈ Z (em queX = Y ⊕ Z).

Nℓ+1 = Nℓ ⊕ Zℓ (A− λiI) Nℓ = Nℓ−1 ⊕ Zℓ−1

Zℓ −→ Zℓ−1

Q ↓ ↓ QNℓ+1

Nℓ−→ Nℓ

Nℓ−1

Em outras palavras, ao escrevermos, por exemplo,A− λiI : Nℓ+1

Nℓ→ Nℓ

Nℓ−1, estamos

realmente considerando a aplicação(A− λi) : Zℓ → Zℓ−1.

Page 144: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 128 — #144i

i

i

i

i

i

128 Teoria Espectral Cap. 7

Lema 7.15 A aplicação

A− λiI :Nℓ+1

Nℓ

→ Nℓ

Nℓ−1

é injetora, para todoℓ ∈ {1, . . . , di − 1}.

Demonstração: Seja0 6= x ∈ Nℓ+1

Nℓ. Isso quer dizer que(A − λiI)

ℓ+1x = 0 e(A− λiI)

ℓx 6= 0. Consideremos então(A− λiI)x. Como(A− λiI)ℓ(A− λiI)x =

(A−λiI)ℓ+1x, vemos que(A−λiI)x ∈ Nℓ. Por outro lado,(A−λiI)

ℓ−1(A−λiI)x =(A − λiI)

ℓx 6= 0, mostrando que(A − λiI)x 6∈ Nℓ−1. Assim, essa aplicaçãorealmente está tomando valores emNℓ/Nℓ−1.

Afirmamos agora que essa aplicação é injetora. De fato, sejamx, y ∈ Nℓ+1

Nℓ, com

(A − λiI)x = (A − λiI)y. Então(A − λiI)(x − y) = 0, o que é um absurdo, poisentãox− y estaria emNℓ. 2

Vamos agora construir uma base especial paraWi. Lembramos que uma base deNℓ/Nℓ−1 (mais precisamente, para o espaço complementar aNℓ−1 emNℓ) é obtidaao se escolher uma base paraNℓ−1 e então completá-la até obter uma base deNℓ ; oselementos introduzidos formam a base procurada. (Veja os Teoremas 1.23 e 1.29.)

Para isso, relembramos que (para simplificar a notação, escreveremosd ao invésdedi):

N1 ⊂ N2 ⊂ · · ·Nd−1 ⊂ Nd = Wi.

Analisamos essa seqüência de subespaços no sentido contrário: começaremosdeNd/Nd−1 e chegaremos aN1 = N1/N0. (Mais precisamente, continuamos afalar dos espaços complementares e não dos espaços quocientes.)

Consideremos uma base {xd1 , . . . , xdkd

}

deNd/Nd−1.Pelo lema, {

(A− λiI)xd1 , . . . , (A− λiI)xdkd

}

é um conjunto linearmente independente emNd−1/Nd−2. Podemos completar talconjunto até obter uma base desse espaço:

{(A− λiI)xd1 , . . . , (A− λiI)xdkd

, x(d−1)1 , . . . , x(d−1)k(d−1)

}.

(Essa é justamente uma base para o espaço complementar deNd−2 emNd−1.)

Page 145: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 129 — #145i

i

i

i

i

i

§7.4 Forma Canônica de Jordan 129

Prosseguimos, então, desse modo até chegarmos a uma base paraN1/N0 = N1.No quadro a seguir, denotamosS = (A − λiI). Descrevemos os espaços

envolvidos e suas bases:

Nd

Nd−1→ {xd1 , . . . , xdkd

}Nd−1

Nd−2→ {Sxd1 , . . . , Sxdkd

, x(d−1)1, . . . , x(d−1)k(d−1)

}Nd−2

Nd−3→ {S2xd1 , . . . , S

2xdkd, Sx(d−1)1

, . . . , Sx(d−1)k(d−1), x(d−2)1

, . . . , x(d−2)k(d−2)}

......

...N1

N0→ {Sd−1xd1 , . . . , S

d−1xdkd, . . . , x11 , . . . , x1k1

}.

O que é uma base deWi? Usamos a construção anterior para obtê-la.Começamos com uma base paraN1. Uma base paraN2 é obtida ao se completaressa base deN1. Isso é equivalente a adicionarmos os vetores da base deN2/N1 àbase deN1. Em seguida, obtemos uma base deN3 ao completar a base deN2. Isso,como antes, é equivalente a tomarmos os vetores da base deN3/N2. E assim pordiante. Ordenamos essa base da seguinte maneira (outras ordenações são possíveis):

{Sd−1xd1, . . . , Sxd1 , xd1 , . . . , S

d−1xdkd, . . . , Sxdkd

, xdkd

}.

Esses vetores são responsáveis pelos blocosd × d (relativos ao autovalorλi)presentes na forma canônica de Jordan. Em seguida, acrescentamos os vetores{Sd−2x(d−1)1 ,. . . , Sx(d−1)1 , x(d−1)1 ,. . . , S

d−2x(d−1)k(d−1), Sx(d−1)k(d−1)

, x(d−1)k(d−1)

}.

Esses vetores são responsáveis pelos blocos(d − 1) × (d − 1) (relativos aoautovalorλi) presentes na forma canônica de Jordan. E assim sucessivamente, atéintroduzirmos os vetores {

x11 , . . . , x1k1

},

que são responsáveis pelos blocos1 × 1 (relativos ao autovalorλi) presentes naforma canônica de Jordan. A base deWi assim construída é umabase de Jordando subespaçoWi. Obtemos então uma base do espaço inteiro ao obtermos bases deJordan de cada espaçoWi. A base obtida é umabase de Jordan.

Consideremos o seguinte exemplo abstrato:

Exemplo 7.16 ConsideremosN1 ( N2 ( N3 = W . Suponhamos as seguintesbases para os espaços envolvidos (como antes, estamos falando dos complementares

Page 146: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 130 — #146i

i

i

i

i

i

130 Teoria Espectral Cap. 7

e não de espaços quocientes):

N3

N2→ {x31, x32}

N2

N1→ {(A− λiI)x31, (A− λiI)x32, x21, x22}

N1 → {(A− λiI)2x31, (A− λiI)

2x32, (A− λiI)x21, (A− λiI)x22, x11}.

(Note que os vetores deN1 pertencem ao núcleo de(A− λiI)).Consideremos então a base

{w1 = (A− λiI)2x31, w2 = (A− λiI)x31, w3 = x31, w4 = (A− λiI)

2x32,w5 = (A− λiI)x32, w6 = x32, w7 = (A− λiI)x21, w8 = x21,w9 = (A− λiI)x22, w10 = x22, w11 = x11} .

Então(A−λiI)w1 =0 e, portanto,Aw1 =λiw1. Também,(A−λi)w2 =w1 e, assim,Aw2 =w1 + λiw2. Finalmente,(A− λi)w3 =w2 eAw3 =w2 + λiw3.

Do mesmo modo para os vetores restantes. Assim, a representação deA nessabase é

λ1 1 00 λ1 10 0 λ1

0 0 00 0 00 0 0

0 00 00 0

0 00 00 0

000

0 0 00 0 00 0 0

λ1 1 00 λ1 10 0 λ1

0 00 00 0

0 00 00 0

000

0 0 00 0 0

0 0 00 0 0

(λ1 10 λ1

)0 00 0

00

0 0 00 0 0

0 0 00 0 0

0 00 0

(λ1 10 λ1

)00

0 0 0 0 0 0 0 0 0 0 (λ1)

Teorema 7.17 (Jordan)SejamA,B ∈Mn×n(C) duas matrizes semelhantes, isto é,

A = P−1BP.

Então

(i) A eB possuem os mesmos autovaloresλi;

(ii) os espaçosNj(λi) = ker(A − λiI)j eMj(λi) = ker(B − λiI)

j possuem amesma dimensão para todoj ∈ N e todo autovalorλi.

Page 147: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 131 — #147i

i

i

i

i

i

§7.4 Forma Canônica de Jordan 131

Reciprocamente, se estas duas condições se verificarem, então A e B sãosemelhantes. Em particular, é única(a menos de ordenamento dos blocos) a formacanônica de Jordan de uma matriz.

Demonstração: Suponhamos queA e B sejam semelhantes. Como matrizessemelhantes têm o mesmo polinômio característico (veja o Exercício 6), vale(i).

Notamos agora que os núcleos de duas matrizes semelhantes têm dimensãoigual. De fato, seC = Q−1DQ e {x1, . . . , xk} for uma base do núcleo deC,então{Qx1, . . . , Qxk} é uma base do núcleo deD.

Temos também que, seA e B forem semelhantes, então também sãosemelhantes as matrizesA− aI eB − aI, bem como qualquer potência delas:

(A− aI)m = P−1(B − aI)mP.

A relação(ii) decorre então de os núcleos dessas matrizes terem a mesma dimensão.Reciprocamente, de acordo com a hipótese(ii), os subespaços

Mℓ = ker(B − λi)ℓ

têm a mesma dimensão do espaço correspondenteNℓ. Em outras palavras, oprocedimento aplicado aNℓ, se repetido para a matrizB, produzirá o mesmonúmero de elementos para cada base deMℓ/Mℓ−1. Ordenando os autovalores(comuns) deA eB e então seguindo o procedimento para se obter uma forma deJordan em cada bloco, a representação deB numa base de Jordan ordenada comoa base deA fará com que as duas matrizes tenham exatamente a mesma formadeJordan (pois seus autovalores também são iguais). Assim, existem mudanças debaseQ1 eQ2 tais que

Q−11 AQ1 = J = Q−1

2 BQ2.

DefinindoP = Q2Q−11 , obtemos

A = P−1BP.

Note que o processo de construção de uma base que coloca um operador naforma de Jordan implica, em particular, a unicidade (a menosdo ordenamento dosblocos de Jordan) da forma canônica de Jordan de um operador. 2

Page 148: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 132 — #148i

i

i

i

i

i

132 Teoria Espectral Cap. 7

Exemplo 7.18 SejaT : R4 → R4 definido por

T (x1, x2, x3, x4) = (2x1 − x2 + x4, 3x2 − x3, x2 + x3,−x2 + 3x4).

Vamos obter a forma canônica de Jordan deT , bem como uma base na qualTassume essa forma.

O polinômio característico deT é p(t) = (t − 3)(t − 2)3 (verifique!). Assim,todos os autovalores deT estão no corpoR e podemos obter (uma) a forma deJordan deT .

Verificamos que

N1 = ker(T − 2I) = {(x1, x2, x2, x2) : x1, x2 ∈ R}N2 = ker(T − 2I)2 = {(x1, x2 + x3, 2x3, 2x2) | x1, x2, x3 ∈ R}.

Como a dimensão deker(T − 2I)2 é igual à multiplicidade de2 como raiz dopolinômio característicop(t) deT , temos que o espaçoW2 do Teorema Espectral7.3 (ou D.5) é dado porker(T − 2I)2.

Vamos obter uma base de Jordan paraW2. Para isso, notamos que existemtrês vetores emN2 e quedim(N2/N1) = 1. Isso quer dizer que teremos umbloco 2 × 2 e um bloco1 × 1 associados ao autovalor2. Claramente o vetorw2 = (0, 1, 0, 2) ∈ N2 ew2 6∈ N1. Calculamos entãow1 = (T−2I)w2 = (1, 1, 1, 1).(A demonstração do Teorema de Jordan garante quew2 ∈ N1 e quew1, w2 sãolinearmente independentes; esses vetores produzem o bloco2 × 2). Para obtermosuma base deN1, escolhemos o vetorw3 = (1, 0, 0, 0) ∈ N1, que claramente élinearmente independente comw1. (Mais uma vez, a demonstração do Teorema deJordan garante que{w1, w2, w3} são linearmente independentes; o vetorw3 produzo bloco1× 1.)

Para o autovalor3, a forma escalonada reduzida de

(T − 3I) =

−1 −1 0 10 0 −1 00 1 −2 00 −1 0 0

é

1 0 0 −10 1 0 00 0 1 00 0 0 0

.

Assim, o subespaçoW3 = ker(T − 3I) do Teorema Espectral 7.3 (ou D.5) é dadopor

{(x1, 0, 0, x1) | x1 ∈ R}.Esse subespaço tem base(1, 0, 0, 1) = w4 e produz um bloco1 × 1 associado aoautovalor3.

Page 149: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 133 — #149i

i

i

i

i

i

§7.4 Forma Canônica de Jordan 133

Temos assim a baseB = {w1, w2, w3, w4}, que é uma base de Jordan deT . Osvetoresw1,w3 ew4 são autovetores deT (os dois primeiros associados ao autovalor2).

Assim, representandoT na baseB, obtemos uma forma de Jordan deT :

TB = J =

(2 10 2

)00

00

0 0 (2) 00 0 0 (3)

.

Exemplo 7.19 Obtenha uma baseB na qual a matrizA esteja na forma canônicade Jordan:

A =

2 0 0 0 0 01 2 0 0 0 0−1 0 2 0 0 0

0 1 0 2 0 01 1 1 1 2 00 0 0 0 1 −1

.

O polinômio característico deA ép(t) = (t−2)5(t+1), pois a matrizA é triangularsuperior.

Se chamarmos deW−1 o subespaço relacionado ao autovalor−1, vemos quedimW−1 = 1 e que uma base para esse subespaço é dado pelo vetore6. (Vocêconsegue justificar esse fato sem fazer qualquer conta?) Denotaremos porw1 := e6o primeiro vetor da base procurada.

Consideremos agora o espaçoW2, associado ao autovalor2. Temos quedimW2 = 5 e que

A− 2I =

0 0 0 0 0 01 0 0 0 0 0−1 0 0 0 0 0

0 1 0 0 0 01 1 1 1 0 00 0 0 0 1 −3

.

Se chamarmosN1 = ker(A − 2I), vemos quedimN1 = 2. (Você consegueperceber isso sem fazer qualquer conta? Lembre-se que o número de linhasnulas no escalonamento deA − 2I fornece os graus de liberdade nas soluções de(A− 2I)x = 0, isto é, a dimensão desse espaço.)

Page 150: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 134 — #150i

i

i

i

i

i

134 Teoria Espectral Cap. 7

Verificamos que

N1 = ker(A− 2I) = {(0, 0, x3,−x3, x4, x4/3) | x3, x4 ∈ R}O número de elementos emN1 nos dá o número de blocos de Jordan associados aoautovalor2. Assim, dois blocos de Jordan estão associados a esse autovalor. Comoo espaço invarianteW2 associado ao autovalor2 tem dimensão 5, existem apenasduas possibilidades para a decomposição de Jordan desse subespaço:ou existe umbloco2× 2 e outro bloco3× 3, ouexiste um bloco4× 4 e um bloco1× 1.

Um novo cálculo nos mostra que

N2 = ker(A− 2I)2 = {(0, 0, x3, x4, x5, (3x5 − x4 − x3)/9)}.Ora, isso indica que a única possibilidade para decompor os blocos de Jordan é umbloco4× 4 e um bloco1× 1. Em particular,W2 = N4.

Verificamos então que

N3 = ker(A− 2I)3 = {(0, x2, x3, x4, x5, (−2x2 − 3x3 − 3x4 + 9x5)/27}N4 = ker(A− 2I)4 = {(x1, x2, x3, x4, x5, (27x5 − 9x4 − 9x3 − 6x2 − 10x1)/81}.(Já era claro que deveríamos ter5 graus de liberdade emker(A− 2I)4.)

Escolhemos então o vetor

w5 = (1, 0, 0, 0, 0,−10/81) ∈ N4 \N3.

Obtemos

w4 = (A−2I)w5 = (0, 1,−1, 0, 1, 10/27), w3 = (A−2I)w4 = (0, 0, 0, 1, 0,−1/9)

ew2 = (A− 2I)w3 = (0, 0, 0, 0, 1, 1/3).

Note quew2 é um autovetor deA, pois ele pertence aN1. ComoN1 tem dimensão2, existe um outro autovetor nesse espaço, linearmente independente comw2. Esseéw6 = (0, 0, 1,−1, 0, 0).

Tendo obtido os vetores{w1, . . . , w6}, a representação deA nessa base satisfaz

Aw1 = −w1 (pois(A+ I)w1 = 0)

Aw2 = 2w2 (pois(A− 2I)w2 = 0)

Aw3 = w2 + 2w3 (pois(A− 2I)w3 = w2)

Aw4 = w3 + 2w4 (pois(A− 2I)w4 = w3)

Aw5 = w4 + 2w5 (pois(A− 2I)w5 = w4)

Aw6 = 2w6

Page 151: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 135 — #151i

i

i

i

i

i

§7.4 Forma Canônica de Jordan 135

Assim, a representação deA nessa base é

J =

(−1) 0 0 0 0 00000

2 1 0 00 2 1 00 0 2 10 0 0 2

0000

0 0 0 0 0 (2)

.

Exemplo 7.20 Seja

A =

−1 1 −1 −3 −1 70 −1 1 2 3 20 0 −1 0 −2 10 0 0 −1 1 −20 0 0 0 −1 30 0 0 0 0 −4

,

cujo polinômio característico é (obviamente)p(t) = (t+ 1)5(t+ 4). Temos

ker(A+ 4I) = {(−2x1, 0,−x1, x1,−x1, x1) | x1 ∈ R}ker(A+ I) = {(x1, x2,−2x2, x2, 0, 0) | x1, x2 ∈ R}ker(A+ I)2 = {(x1, x2,−2x3 − 2x4, x3, x4, 0) | x1, x2, x3, x4 ∈ R}ker(A+ I)3 = {(x1, x2, x3, x4, x5, 0) | x1, x2, x3, x4, x5 ∈ R}

Escolhemosw1 = (−2, 0,−1, 1,−1, 1) ∈ ker(A + 4I). Esse é o primeiro vetor deuma base na qualA é representada por sua forma canônica de Jordan.

Como dim(ker(A + I)3/ ker(A + I)2) = 1, existe apenas um bloco3 × 3.Claramente,w4 = (0, 0, 1, 0, 0, 0) ∈ ker(A + I)3 \ ker(A + I)2. Seja então(A + I)w4 = w3 = (−1, 1, 0, 0, 0, 0) ∈ ker(A + I)2 e (A + I)w3 = w2 =(1, 0, 0, 0, 0, 0) ∈ ker(A+ I).

Comodim ker(A+I)2

ker(A+I)= 2, existe um vetor nesse espaço quociente, linearmente

independente comw3. À primeira vista, poderíamos escolher o vetorw =(0, 1, 0, 0, 0, 0), pois ele está emker(A + I)2 e não está emker(A + I). Entretanto,em ker(A+I)2

ker(A+I), os vetoresw4 e w são linearmente dependentes: basta notar que a

diferença entre eles é um vetor emker(A + I). Uma escolha correta para o vetor

Page 152: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 136 — #152i

i

i

i

i

i

136 Teoria Espectral Cap. 7

de ker(A+I)2

ker(A+I), linearmente independente comw3 éw5 = (0, 0,−2, 0, 1, 0) (verifique).

Então(A+ I)w5 = w4 = (1, 1,−2, 1, 0, 0).Notamos, em particular, que pode ser complicada a escolha detrês vetores

linearmente independentes num espaço quocienteNi/Ni−1. Em geral, isso podeser obtido por simples inspeção: o vetorw5 escolhido tem uma coordenada quenão está presente no espaçoker(A + I). Se essa inspeção não for suficiente, amelhor maneira é pensar como é construída a base do espaçoNi/Ni−1: partindode uma base deNi−1 os elementos que completam a base deNi formam a basedo quociente. Esse é o processo computacional adequado quando a dimensão doquociente for grande. �

Teorema 7.21Toda matrizA ∈Mn×n(C) é semelhante à sua transposta.

Demonstração: Uma vez quedetA = detAt, obtemos que o polinômiocaracterístico dessas duas matrizes é igual. Em particular, elas têm os mesmosautovalores.

Notamos que, seq for um polinômio eB uma matrizn × n, então[q(B)]t =q(Bt) (basta tomar a transposta). Seλi for um autovalor deA (e, portanto, deAt), aplicando esse resultado para os polinômios(t − λi)

k e então considerandoa dimensão de seus núcleos, decorre do Corolário 3.25 que a condição (ii) doTeorema de Jordan também é cumprida. 2

Nas duas próximas seções estudaremos como expressar a formacanônica deJordan, no caso em que todas as raízes do polinômio característico não estão nocorpoK. A primeira dessas maneiras produz a forma de Jordan real; a segunda, adecomposição racional de Frobenius.

7.5 Forma de Jordan Real

Como vimos, a forma de Jordan classifica as matrizes complexasque sãosemelhantes: com ordenamento apropriado dos vetores da base, duas matrizsemelhantes têm a mesma forma de Jordan. Dada uma matriz realA, pode-se pensarque o conjunto das matrizesP−1AP , em queP é uma matriz complexa, é maior doque o conjuntoQ−1AQ, comQ matriz real. O Exercício 21 garante que isso nãoacontece.

Para obtermos a versão real da forma canônica de Jordan utilizaremos acomplexificação de um espaço vetorial realX.

Page 153: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 137 — #153i

i

i

i

i

i

§7.5 Forma de Jordan Real 137

Teorema 7.22 (Forma de Jordan real)Seja T : X → X um operador linear real. Então existe uma baseC

de X na qual T é representado por uma matrizJ , diagonal em blocos, cujosblocos diagonais, além daqueles associados a autovalores reais e que são comona definição da forma de Jordan complexa, também podem ter a forma

Jα,β =

Dα,β I2 0 · · · 00 Dα,β I2 · · · 0...

..... . · · · ...

0 0 0 Dα,β I20 0 0 0 Dα,β

em queDα,β =

(α β−β α

),

sendoα+ iβ um autovalor complexo deTC e I2 a matriz identidade2× 2.

Uma matriz nesse formato está naforma de Jordan real.

Demonstração: A demonstração praticamente repete os primeiros passos dademonstração do Teorema da Decomposição Primária 7.8. Como lá, podemos noslimitar ao caso de autovaloresλ ∈ C \ R da complexificaçãoTC deT .

Suponhamos queTC possua um autovalorλ 6∈ R. Decorre do Lema 5.20(iii)queλ também é autovalor deTC, o que garante a existência dos espaçosWλ e Wλ.Como na demonstração do Teorema da Decomposição Primária vemos que, se osvetoreswj = uj + ivj (j = 1, . . . , k) formarem uma base deWλ, então os vetoresuj − ivj formam uma base deWλ.

Afirmamos que

S = {u1, v1, u2, v2, . . . , uk, vk}

é uma base deWλ ⊕ Wλ formada apenas por vetores reais. De fato, comodim Wλ = dim Wλ = k, o conjuntoS tem o número de elementos igual à dimensãodo espaçoWλ ⊕ Wλ. Por outro lado, todo vetor desse espaço é combinação lineardos elementos deS. Isso mostra o afirmado. Assim,Wλ ⊕ Wλ é a complexificaçãodo espaço realWλλ, que tem como base o conjuntoS.

Finalmente, sew1 = u1 + iv1 satisfizerTCw1 = λw1 paraλ = α+ iβ ∈ C \R,então

T (u1) + iT (v1) = (αu1 − βv1) + i(βu1 + αv1), (7.4)

Page 154: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 138 — #154i

i

i

i

i

i

138 Teoria Espectral Cap. 7

mostrando que os autovetoresw±1 = u1 ± iv1 deTC dão origem às colunas

α β−β α

0 0...

...0 0

quando representamosT na baseS.Se, paraj ∈ {2, . . . , r}, tivermosTCwj = λwj + wj−1, vemos que

Tuj + iTvj = (αuj − βvj + uj−1) + i(βuj + αvj + vj−1)

= uj−1 + (αuj − βvj) + i[vj−1 + (βuj + αvj + vj−1)].

Em particular, sej = 2, os vetoresw±2 dão origem às colunas

1 00 1α β−β α

0 0...

...0 0

,

o que implica que, na base{u1, v1, u2, v2, . . . , uk, vk} deWλλ, T é representado porblocos da forma descrita no enunciado do teorema. 2

7.6 Decomposição Racional

(Essa Seção é opcional, podendo ser omitida, a critério do professor, semprejuízo para o restante do texto.)

Em última instância, a decomposição racional, também chamada dedecomposição de Frobenius, é o resultado mais geral válido para um operadorqualquer em um espaço de dimensão finitaX. Essa generalidade é dada pelo fatodesse resultado independer do corpo sobre o qualX é espaço vetorial.

Consonante com nossa proposta de estudar espaços vetoriais sobre R ouC, vamos inverter a perspectiva natural e obter a decomposição racional comoconseqüência da forma canônica (complexa) de Jordan.

Page 155: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 139 — #155i

i

i

i

i

i

§7.6 Decomposição Racional 139

Definição 7.23SejaT : X → X um operador. Um polinômiop anula o vetorx ∈ X com relação aT sep(T )x = 0. Um polinômio mônico de menor grauque anulax ∈ X (com relação aT ) é chamadopolinômio mínimodex ∈ X ouT-anulador dex.

Num espaço de dimensão finitaX, sempre existe umT -anulador dex. De fato, opolinômio mínimo deT anula todos os vetores deX. Assim, o conjunto de todos ospolinômios que anulamx é não-vazio. A aplicação do Princípio da Boa Ordenaçãoa este conjunto então garante a existência de um polinômio demenor grau que anulax. Dividindo pelo coeficiente do termo de maior grau desse polinômio, obtemos opolinômio mínimo dex.

De maneira análoga à prova do Lema 5.14, verifica-se que qualquer polinômioque anulax com relação aT é um múltiplo de um polinômio mínimo dex. Emparticular, isso garante aunicidadedo polinômio mínimo dex.

Proposição 7.24SejaT : X → X um operador definido no espaço de dimensãofinitaX. Então existe um vetorx cujo polinômio mínimo coincide com o polinômiomínimo deT .

Demonstração: Para um vetorx ∈ X fixo, considere o conjuntoI de todosos polinômios que anulamx. Todos elementos desse conjunto são múltiplos dopolinômio mínimomx dex e o polinômio mínimom deT pertence aI.

À medida que variamosx ∈ X, obtemos diferentes polinômiosmx, todos elesdividindom. Mas existe um número finito de polinômios que são divisores dem.Assim, quandox percorreX, os polinômiosmx percorrem um número finito depolinômios distintos, todos eles divisores dem. Sejamp1, . . . , pk tais polinômios.(Note que cada um desses polinômios é um polinômiomx para certox ∈ X, masnão podemos afirmar que os polinômiosp1, . . . , pk sejamtodosos divisores dem.)

DefinaXi = {x ∈ X | pi(T )x = 0}. É claro que cadaXi 6= ∅ é um subespaçodeX. Além disso, sex ∈ X, entãox ∈ Xi para pelo menos umi = 1, . . . , k.Assim,

X ⊂k⋃

i=1

Xi.

Mas, de acordo com o Exercício 29 do Capítulo 1, isso implica queX ⊂ Xi paraalgumi0 ∈ {1, . . . , k}. Isso garante quepi0(T )(x) = 0 para todox ∈ X e, portanto,pi0 é múltiplo dem. Logo,m = pi0 , pois todos os polinômios em{p1, . . . , pk} sãomônicos e dividemm. 2

Page 156: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 140 — #156i

i

i

i

i

i

140 Teoria Espectral Cap. 7

Sejax0 ∈ X tal que oT -anulador dex0 é o polinômio mínimom deT . Se ograu dem for igual ak, então os vetoresx0, Tx0, . . . , T

k−1x0 são todos linearmenteindependentes. (Se fossem linearmente dependentes, oT -anulador dex0 teria graumenor do que ou igual ak − 1.) SejaW o subespaço deX gerado por tais vetores.Comom = mx0 é mônico e tem grauk,

m(T )x0 = (a0I + a1T + . . .+ T k)x0 = 0. (7.5)

Daí segue-se imediatamente queT kx0 é combinação linear dex0, Tx0, . . . , Tk−1x0.

Dizemos então quex0 é um vetorcíclico de ordemk.Em outras palavras, provamos queT (W ) ⊂ W . Note que a representação de

T |W na baseB = {x0, Tx0, . . . , Tk−1x0} deW é a matriz

B =

0 0 0 · · · 0 −a0

1 0 0 · · · 0 −a1

0 1 0 · · · 0 −a2

0 0 1. . . 0 −a3

......

.... . . . . .

...0 0 0 · · · 1 −ak−1

. (7.6)

ChamamosW desubespaço gerado peloT -anulador dex0.

Definição 7.25Um bloco cíclicoou bloco de Frobeniusde uma matrizA é umasubmatriz quadradaB com a forma(7.6). Essa submatriz é chamadamatrizcompanheirade ordemk e está associada a um polinômio mônico de grauk. Amatriz companheira do polinômio1 é a matriz(0).

Colocamos agora a questão: existe um subespaçoW ′, invariante porT , tal que

X = W ⊕W ′?

Se o polinômio mínimo for igual ao polinômio característicode T , sabemos aresposta: sim, comW ′ = ∅ (justifique!). Ou seja,W = X, e obtemos umarepresentação simples para o operadorT .

Note que, se uma tal decomposição for possível, então obteremos umarepresentação deT em blocos de Frobenius: o primeiro, associado ao polinômiomínimo deT . Um segundo bloco de Frobenius estará associado ao polinômiomínimo do operadorS = T |W ′. E assim sucessivamente.

Page 157: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 141 — #157i

i

i

i

i

i

§7.6 Decomposição Racional 141

Vamos mostrar que uma tal decomposição sempre existe. Mais precisamente,denotemosW = Z(x0, T ) o subespaço gerado peloT -anulador dex0 e,generalizando,Z(xk, T ) o subespaço gerado peloT -anulador dexk ∈ X. Entãotemos:

Teorema 7.26 (Decomposição Racional – Frobenius)SejaT : X → X um operador definido no espaço de dimensão finitaX. Então

existem vetores não-nulosx0, x1, . . . , xk tais que

X = Z(x0, T )⊕ Z(x1, T )⊕ · · · ⊕ Z(xk, T ),

em que cada espaçoZ(xi, T ) é invariante porT e, sepi denotar oT -anulador dexi, entãopi dividepi−1 para todoi ep0 é o polinômio mínimo deT .

Além disso, o inteirok e os T -anuladoresp0, . . . , pk são determinados demaneira única por essas condições.

Os polinômiosp0, . . . , pk são chamadosfatores irredutíveisdeT .

A demonstração do Teorema 7.26 será feita utilizando-se a forma de Jordan dooperadorT . Começamos mostrando como obter vetores de determinadas ordens:

Lema 7.27 SejamT : X → X um operador linear e

λ 1 0 · · · 00 λ 1 · · · 0...

.... .. . . .

...0 0 · · · λ 10 0 · · · 0 λ

um bloco de Jordan deT de ordemk × k. Se S = T − λI, seja C ={Sk−1x, Sk−2x, . . . , Sx, x} a base de Jordan responsável por esse bloco. Entãox é um vetor de ordemk.

Demonstração:SejaB = {x, Tx, . . . , T k−1x}. Por indução, é fácil verificar queB é linearmente independente se, e somente se,C for linearmente independente.Como o polinômio mínimo deT |W é (t − λ)k, temosSkx = 0. Desses fatosdecorre imediatamente o afirmado. 2

Agora mostraremos como dar origem a blocos de ordem maior.

Page 158: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 142 — #158i

i

i

i

i

i

142 Teoria Espectral Cap. 7

Lema 7.28 Seja W1 ⊕ W2 uma soma direta de subespaços invariantes pelooperadorT . Sejamp eq osT -anuladores dex ey, respectivamente, comx ∈W1 ey ∈W2. Sep e q forem primos entre si, então oT -anulador dex+ y épq.

Demonstração: Sejar o T -anulador dex + y. Entãor(x + y) = r(x) + r(y).Comor é um polinômio emT ex ∈ W1, temos quer(x) ∈ W1. Do mesmo modo,r(y) ∈W2. Isso quer dizer quer é um múltiplo tanto dep quanto deq. Comop e qsão primos entre si, concluímos quer é múltiplo depq.

Uma vez que(pq)(x+ y) = p(x)q(x) + p(y)q(y) = 0, vemos quer = pq. 2

Agora mostraremos como raízes complexas conjugadas do polinômiocaracterístico deT dão origem a blocos de Frobenius:

Lema 7.29 SejaT : X → X um operador linear sobre o espaço realX. Suponhaque o polinômio característico deT tenha as raízes complexas conjugadasλ, λ. Se

λ 1 0 · · · 00 λ 1 · · · 0...

..... . .. .

...0 0 · · · λ 10 0 · · · 0 λ

e

λ 1 0 · · · 00 λ 1 · · · 0...

..... . .. .

...0 0 · · · λ 10 0 · · · 0 λ

forem blocos de Jordank×k deTC associados a essas raízes, então existem vetoresx0, x0 de ordemk determinados por bases de Jordan desses blocos, tais quex0 + x0

é um vetor real de ordem2k, responsável pelo bloco de Frobenius

0 0 0 · · · 0 −a0

1 0 0 · · · 0 −a1

0 1 0 · · · 0 −a2

0 0 1.. . 0 −a3

..... . .. .

...0 0 0 · · · 1 −a2k−1

.

Demonstração:SejaW o subespaço de dimensãok, invariante porTC associado aoautovalor complexoλ. De acordo com o Lema 7.27, existe um vetorx0, de ordemk, que geraW .

Sabemos que está relacionado ao subespaçoW um subespaço invarianteW deTC, cujos elementos são os conjugados dos elementos deW . Isso implica quex0 éum vetor de ordemk que gera o espaçoW .

Page 159: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 143 — #159i

i

i

i

i

i

§7.6 Decomposição Racional 143

Os polinômios mínimosmλ(t) emλ(t) deW eW são, respectivamente,(t−λ)k

e (t − λ)k. Como esses polinômios são primos entre si, podemos aplicar oLema7.28 e concluir quex0+x0 temT -anulador(t−λ)k(t−λ)k = [(t−λ)(t−λ)]k, que éum polinômio real de grau2k. A matriz de Frobenius dada é a matriz companheiradesse polinômio. Note quex0 + x0 é um vetor real, poisx0 é o conjugado do vetorx0. 2

Demonstração do Teorema 7.26:Faremos indução sobre a dimensãon do espaçoX, incluindo a unicidade da decomposição. O cason = 1 é trivial.

Suponhamos o resultado válido para qualquer operadorT : Y → Y definidonum espaçoY de dimensão menor do que ou igual ak. Consideremos um espaçoX de dimensãok+1. Sejam o polinômio mínimo deT . Para cada fator irredutível(t − λ)ℓ do polinômio mínimo está associado ao menos um bloco de Jordan detamanhoℓ× ℓ. Se conhecermos a base responsável por esse bloco, tomamos ovetorx de ordemℓ, de acordo com Lema 7.27. Seλ for uma raiz complexa, tomamostambém o vetorx, que estará associado ao fator irredutível(t− λ)ℓ.

Assim, sex1, . . . , xj forem os vetores assim escolhidos (associados às raízes dopolinômio mínimo), tomex0 = x1 + . . . + xj. Esse vetor é responsável pelo blocode Frobenius associado ao polinômio mínimo deT , de acordo com o Lema 7.28.Note que, seX for um espaço real, a aplicação do Lema 7.29 garante quex0 seráum vetor real.

Consideremos então os blocos restantes na forma de Jordan deT . Eles geramum espaço invarianteW ′, que é a soma direta dos espaços invariantes gerados poresses blocos. Aplicamos então a hipótese de indução ao operadorT : W ′ → W ′ eobtemos a (única) decomposição cíclica desse operador.

Note que o polinômio mínimo deT |W ′ divide o polinômio mínimo deT . Como,por indução, essa hipótese também é satisfeita para a decomposição deT |W ′, aprova está completa. 2

Note que, apesar de a demonstração do Teorema 7.26 ter sido feita por indução,o processo descrito é construtivo e nos fornece a base na qualT : X → X assumesua decomposição racional. Mostraremos isso nos próximos exemplos.

Exemplo 7.30 Elucidaremos aqui o processo construtivo da decomposição racionalde uma matriz à partir de sua forma de Jordan. Para isso, consideremos um operadorT : R11 → R11, cuja representação de sua complexificação numa baseB assume a

Page 160: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 144 — #160i

i

i

i

i

i

144 Teoria Espectral Cap. 7

forma de Jordan dada por

A =

λ1 1 0 0 0 0 0 0 0 0 00 λ1 1 0 0 0 0 0 0 0 00 0 λ1 0 0 0 0 0 0 0 00 0 0 λ1 1 0 0 0 0 0 00 0 0 0 λ1 1 0 0 0 0 00 0 0 0 0 λ1 0 0 0 0 00 0 0 0 0 0 λ2 1 0 0 00 0 0 0 0 0 0 λ2 0 0 00 0 0 0 0 0 0 0 λ2 1 00 0 0 0 0 0 0 0 0 λ2 00 0 0 0 0 0 0 0 0 0 λ2

.

Aqui, λ1 e λ1 são autovalores conjugados deTC, enquantoλ2 ∈ R (justifique!).Os polinômios característico e mínimo deA são obtidos imediatamente:

p(t) = (t− λ1)3(t− λ1)

3(t− λ2)5 e m(t) = (t− λ1)

3(t− λ1)3(t− λ2)

2.

O bloco de Frobenius associado ao polinômio mínimo é um bloco8 × 8, quetem como base

{x0, Ax0, . . . , A7x0},

em que o vetorx0 é obtido como soma de três vetores: o terceiro, o sexto e o oitavo(ou então o décimo) vetores da baseB. Note que o terceiro e o sexto vetores serãovetores conjugados, de modo que o vetorx0 será um vetor real.

O segundo bloco de Frobenius é obtido ao se considerar os polinômioscaracterístico e mínimo dos blocos restantes:

p1(t) = (t− λ2)3 e m1(t) = (t− λ2)

2.

Assim, o segundo bloco de Frobenius será um bloco2× 2 e terá como base

{x1, Ax1},

em quex1 é o décimo (respectivamente, o oitavo) vetor da baseB. Finalmente,existirá um terceiro bloco de Frobenius, relativo ao polinômio

p2(t) = (t− λ2) = m2(t),

o qual será gerado pelo décimo primeiro vetor da baseB. �

Page 161: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 145 — #161i

i

i

i

i

i

§7.6 Decomposição Racional 145

Exemplo 7.31 Consideremos a matriz

A =

2 0 0 0 0 01 2 0 0 0 0−1 0 2 0 0 0

0 1 0 2 0 01 1 1 1 2 00 0 0 0 1 −1

,

que já foi estudada no Exemplo 7.19. Nesse caso, os polinômios característico emínimo deA são

p(t) = (t+ 1)(t− 2)5 e m(t) = (t+ 1)(t− 2)4,

respectivamente. A decomposição racional deA é dada por

0 0 0 0 −161 0 0 0 160 1 0 0 80 0 1 0 −160 0 0 1 7

00000

0 0 0 0 0 (2)

.

Para obtermos uma baseC na qualA assume sua decomposição racional,partimos da baseB obtida no Exemplo 7.19. SeJ denotar a forma de Jordan deA, mostramos naquele exemplo queJ = P−1AP , em que

P =

0 0 0 0 1 00 0 0 1 0 00 0 0 −1 0 10 0 1 0 0 −10 1 0 1 0 01 1

3−1

91027−10

810

.

O bloco de Frobenius5× 5 associado ao polinômio mínimo tem como base

{x0, Ax0, . . . , A4x0},

em que o vetorx0 é a soma da primeira e quinta colunas da matrizP . O bloco deFrobenius1× 1 é gerado pela sexta coluna da matrizP . �

Page 162: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 146 — #162i

i

i

i

i

i

146 Teoria Espectral Cap. 7

Exemplo 7.32 Consideremos a matriz real

A =

0 2 0 −6 21 −2 0 0 21 0 1 −3 21 −2 1 −1 21 −4 3 −3 4

.

Calculando os polinômios característicop e mínimom deA, obtemos

p(t) = (t− 2)(t2 + 2)2 e m(t) = (t− 2)(t2 + 2).

Assim,A é diagonalizável como matriz complexa, mas não como matriz real.Uma baseB na qualA assume sua forma de Jordan é dada por

B =

01112

,

3√

2i2

−1+i√

22

1 + i√

22

0

−1− i√

22

,

−3√

2i2

−1−i√

22

1− i√

22

0

−1 + i√

22

,

3√

2i2

0

1 + i√

24

12− i

√2

4

0−3i

√2

4

,

−3√

2i2

0

1− i√

24

12

+ i√

24

03i√

24

.

Como matriz complexa, podemos escolher como vetores de ordem1 responsáveispelos blocos associados aos autovalores1, i

√2 e−i

√2 tanto o primeiro, segundo

e terceiro vetores da baseB, quanto o primeiro, quarto e quinto vetores da baseB.(Para cada vetor complexo, tomamos o vetor e seu conjugado.)

Se somarmos o primeiro, o segundo e o terceiro vetores deB, obtemos o vetor

x0 =

00310

,

que é responsável pelo bloco de Frobenius associado ao polinômio mínimo deA.Nesse caso, o segundo bloco de Frobenius é obtido ao se somar oquarto e quintovetores da baseB:

x1 =

00210

.

Page 163: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 147 — #163i

i

i

i

i

i

§7.7 Exercícios 147

Na baseC = {x0, Ax0, A2x0, x1, Ax1} a matrizA assume a sua decomposição

racional:

0 0 41 0 −20 1 2

0 00 00 0

0 0 00 0 0

(0 −21 0

)

.

A primeira submatriz diagonal está ligada ao polinômio mínimo deA. A segundasubmatriz diagonal está ligada ao quocientep

m. (Note que o polinômio característico

dessa submatriz multiplicado pelo polinômio mínimom deA produz o polinômiocaracterísticop deA.)

Se tivéssemos escolhido os vetoresx0 como a soma do primeiro, quarto e quintovetores da baseB ex1 como a soma do segundo e terceiro vetores deB, obteríamosuma outra base na qualA assume sua decomposição racional. �

7.7 Exercícios

1. Suponha que a matrizA seja diagonalizável. Mostre o Teorema de Cayley-Hamilton como conseqüência do Teorema da Imagem do Espectro.

2. SejaT : X → X um operador definido no espaço de dimensão finitaX.Suponha queT k = 0 para algum inteirok. Obtenha os autovalores deT .

3. Seja

A =

(1 22 1

).

Calcule os autovalores desenA.

4. Na demonstração do Teorema Espectral 7.3, reduzimos as vizinhançasUi ∋λi para mostrar que o único autovalor da aplicaçãoT restrita aWi éλi. Essaredução não é necessária. Justifique.

5. SejaN : X → X um operador nilpotente, comNk = 0 e Nk−1 6= 0.Sejax ∈ X tal queNkx = 0 masNk−1x 6= 0. Mostre que os vetores{x,Nx, . . . , Nk−1x} são linearmente independentes. Conclua as inclusõesestritas na equação (7.2):

ker(T−λiI)( · · ·(ker(T−λiI)di = ker(T−λiI)

di+1 = · · · = ker(T−λiI)si .

Page 164: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 148 — #164i

i

i

i

i

i

148 Teoria Espectral Cap. 7

Você percebeu que essas inclusões estritas já haviam sido provadas nademonstração do Teorema de Jordan 7.17?

6. SejaA uma matriz tal queAk = 0. Mostre queBk = 0 para qualquer matrizB semelhante aA.

7. SejaN uma matrizn× n, comn ≥ 2. SeN for nilpontente, mostre que nãoexiste uma matrizA tal queA2 = N .

8. Dê exemplos de operadoresN,M : X → X, ambos nilpotentes, tais queNM eN +M não sejam nilpotentes.

9. SejaA uma matriz diagonalizável eW um subespaço invariante porA.Mostre queA|W é diagonalizável.

10. (Diagonalização simultânea de operadores)SejamX um espaço vetorial dedimensão finitan eS, T : X → X operadores diagonalizáveis. SeST = TS,mostre queT eS são simultaneamente diagonalizáveis, isto é, que existe umabaseB deX formada por elementos que são ao mesmo tempo autovetores deS eT .

11. SedimX = n, sejamS, T : X → X sejam operadores diagonalizáveis.Suponha queST = TS. Mostre queS + T é diagonalizável. Descreva oespectro deS + T .

12. SejamN,M : X → X operadores nilpotentes, comNM = MN . MostrequeM +N é nilpotente.

13. O Teorema 7.3 garante a existência de uma decomposiçãoT = D + N ,comDN = ND, sendoD diagonalizável eN nilpotente. Mostre que asaplicações linearesD eN são únicas.

14. SejamX um espaço complexo de dimensão finita eT : X → X um operadorlinear invertível. Mostre queT = DN , comD diagonalizável eN nilpotente.Mostre também que essa decomposição é única.

15. Sejax ∈ X arbitrário. Demonstre, por indução, que(T − λiI)kx = 0

implica quex ∈ Wi e obtenha, assim, uma outra demonstração de queker(T − λiI)

di = Wi.

Page 165: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 149 — #165i

i

i

i

i

i

§7.7 Exercícios 149

16. Encontre a decomposição dada pelo Teorema 7.3 para a matriz

A =

1 1 1 1 10 1 1 1 10 0 1 1 10 0 0 2 10 0 0 0 2

.

17. Obtenha a decomposição primária do operadorT do Exemplo 7.10 utilizandoo cálculo funcional.

18. SejaA ∈ Mn×n(K) uma matriz tal queA2 = 2A + I. A matriz A édiagonalizável?

19. Dê uma demonstração direta do Lema 7.15. Mostre, portanto, que a aplicaçãoA− λiI está bem definida e tem as propriedades descritas no lema.

20. Demonstre a Proposição 7.13.

21. SejamA e B matrizes reais tais queA = P−1BP para alguma matrizcomplexaP . Mostre queA = Q−1BQ para alguma matriz realQ.

22. Obtenha basesB na quais as seguintes matrizes estejam na forma canônica deJordan:

(a)

2 5 0 0 00 2 0 0 00 0 −1 0 −10 0 0 −1 00 0 0 0 −1

.

(b)

1 1 0 0 −1 0 4 00 1 1 −1 −1 −3 3 −40 0 1 0 1 1 −2 10 0 0 1 1 1 −4 −50 0 0 0 1 0 −1 −50 0 0 0 0 1 1 −10 0 0 0 0 0 1 −20 0 0 0 0 0 0 3

.

Page 166: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 150 — #166i

i

i

i

i

i

150 Teoria Espectral Cap. 7

23. Sejam

m(t) = (t− λ1)d1 . . . (t− λr)

dr e p(t) = (t− λ1)s1 . . . (t− λr)

sr

os polinômios mínimo e característico do operadorT : X → X definido noespaço complexoX. Mostre que

(a) existe ao menos um blocodi × di associado ao autovalorλi;

(b) o número de blocos associados ao autovalorλi é igual àmultiplicidadegeométricadeλi (isto é, à dimensão do auto-espaçoXλi

associado aoautovalorλi). do autovalorλi.)

24. A menos de ordenamento dos blocos, determine todas as possíveis formascanônicas de Jordan para uma matriz complexa

(a) cujo polinômio característico ép(t) = (t− 2)3(t− 5)2;

(b) cujos polinômios mínimo ém(t) = (t − 2)2, sabendo queA é umamatriz7× 7;

(c) cujo polinômio característico ép(t) = (t− 3)4(t− 5)4 e cujo polinômiomínimo ém(t) = (t− 3)2(t− 5)2.

25. Suponha que sejam reais os autovalores deA ∈ Mn×n(R) e queA2 sejasemelhante aA. Quais são os possíveis autovalores deA?

26. SejaT : X → X um operador no espaço complexoX. Suponha queT k = Ipara algum inteiro positivok. Mostre queT é diagonalizável.

27. SejaA ∈Mn×n(C) uma matriz invertível eJ a sua forma canônica de Jordan.Qual é a forma canônica de Jordan deA−1?

28. Verifique que a demonstração do Teorema 7.22 garante, em particular, que ossubespaçosWλ eWλ associados aos autovalores conjugadosλ, λ possuem amesma dimensão. Você é capaz de dar uma outra demonstração desse fato?

29. SejaT : X → X um operador no espaço de dimensão finitaX. Mostre queexiste um espaço invarianteW ⊂ X comdimW = 1 oudimW = 2.

Page 167: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 151 — #167i

i

i

i

i

i

§7.7 Exercícios 151

30. Considere a matriz

i 1 0 00 i 0 00 0 −i 00 0 0 −i

.

Essa matriz é a forma de Jordan de alguma aplicaçãoT : R4 → R4? E deuma aplicaçãoS : C4 → C4?

31. SejaT : R4 → R4 um operador que tem a forma de Jordan complexa dadapor

i 1 0 00 i 0 00 0 −i 10 0 0 −i

.

Ache a sua forma de Jordan real.

Definição 7.33Um operadorT : X → X definido no espaço realX é semi-simplesse sua complexificaçãoTC : XC → XC for diagonalizável.

32. SejamX um espaço real de dimensão finita eT : X → X um operador.Mostre queT = D + N , comD semi-simples eN nilpotente, sendo queDN = ND.

33. Verifique que, na baseC descrita no Exemplo 7.31, a matrizA assume suadecomposição racional.

34. Verifique que a matrizA do Exemplo 7.32 assume sua forma de Jordan nabaseB ali descrita. Verifique também que, na baseC daquele exemplo,Aassume sua decomposição racional.

35. Seja que, na baseB, a matrizA assume sua forma racional. Obtenha umabaseC na qualA assume a forma de Jordan.

Page 168: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 152 — #168i

i

i

i

i

i

8Estrutura Euclidiana

Neste Capítulo estudamos as propriedades básicas de espaçoscom produtointerno, projeções ortogonais, o Teorema de Representação de Riesz e algumaspropriedades geométricas relacionadas com a adjunta de umaaplicação linearT .

8.1 Produto Interno

Definição 8.1 SejaE um espaço vetorial sobre o corpoK. Umproduto internoemE é uma aplicação〈· , ·〉 : E × E → K satisfazendo as seguintes propriedades:

(i) 〈x, y〉 = 〈y, x〉;

(ii) 〈x+ λy, z〉 = 〈x, z〉+ λ〈y, z〉;

(iii) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se, e somente se,x = 0.

Um espaçoE com produto interno éeuclidiano se tiver dimensão finita.1 SeE for um espaço vetorial sobre os complexos,E e o produto interno tambémsão chamados, respectivamente, de espaçohermitiano ou unitário e produtohermitiano.

Exemplo 8.2 Se E = Rn, o produto internocanônico (também chamado deproduto escalar) é definido por

〈x, y〉 = x · y =n∑

i=1

xiyi = (x1 . . . xn)t

y1...yn

= xty,

1Essa terminologia varia de acordo com o autor consultado: para alguns, um espaço euclidiano éum espaçoreal com produto interno, mesmo em dimensão infinita.

152

Page 169: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 153 — #169i

i

i

i

i

i

§8.2 Norma 153

em quext = (x1 . . . xn)t denota a transposta da representação dex na basecanônica ey = (y1 . . . yn).

Com a mesma notação, o produto interno canônico emCn é definido por

〈x, y〉 = x · y =n∑

i=1

xiyi = (x1 . . . xn)t

y1...yn

= xty.

Definição 8.3 Sejamx, y vetores do espaço com produto internoE. Esses vetoressãoortogonais(ouperpendiculares) se〈x, y〉 = 0. Nesse caso escrevemosx ⊥ y.

Posteriormente justificaremos geometricamente essa definição.

8.2 Norma

Definição 8.4 SejaE um espaço vetorial sobre o corpoK. Umanorma emE éuma aplicação‖ · ‖ : E → [0,∞) satisfazendo as seguintes propriedades:

(i) ‖x‖ > 0 sex 6= 0;

(ii) ‖λx‖ = |λ| ‖x‖, paraλ ∈ K;

(iii) ‖x+ y‖ ≤ ‖x‖+ ‖y‖.

Considerado com uma norma‖ · ‖, dizemos queE é um espaçonormado.

O valor‖x‖ pode ser interpretado, geometricamente, como o comprimento dovetorx. Se‖x‖ = 1, o vetorx éunitário. (Veja o Exercício 1.)

SejaE um espaço com produto interno. Consideremos (com abuso de notação)‖x‖ := 〈x, x〉1/2. Vamos mostrar que essa notação é coerente, isto é, que〈x, x〉1/2 realmente define uma norma. Começamos justificando a definiçãodeperpendicularidade, dada anteriormente.

Teorema 8.5 (Pitágoras)SejaE um espaço com produto interno e‖x‖ = 〈x, x〉1/2. Então, sex ⊥ y,

temos‖x+ y‖2 = ‖x‖2 + ‖y‖2.

Page 170: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 154 — #170i

i

i

i

i

i

154 Estrutura Euclidiana Cap. 8

Demonstração:Basta desenvolver‖x+ y‖2:

‖x+ y‖2 = 〈x+ y, x+ y〉 = 〈x, x〉+ 〈x, y〉+ 〈y, x〉+ 〈y, y〉 = ‖x‖2 + ‖y‖2,

poisx ey são ortogonais. 2

Suponhamos agora queE seja um espaço real. Então〈x + y, x + y〉 =‖x‖2 + 2〈x, y〉 + ‖y‖2. Se valer o Teorema de Pitágoras, entãox ⊥ y. (Veja oExercício 2.)

Proposição 8.6 (Desigualdade de Cauchy-Schwarz)SejaE um espaço com produto interno. Então, se‖x‖ = 〈x, x〉1/2, para todos

x, y ∈ E vale:|〈x, y〉| ≤ ‖x‖ ‖y‖.

Demonstração:A prova que apresentaremos é bem geométrica. (Interprete!)Sex = λy, então|〈x, y〉| = |λ| 〈y, y〉 = |λ| ‖y‖2 = ‖x‖ ‖y‖. Sex 6= λy, existe

α ∈ K tal que|〈y − αx, x〉| = 0. De fato, basta tomarα := 〈y, x〉/‖x‖2; note que‖x‖ = 0 está incluído no caso anterior. Então, pelo Teorema de Pitágoras,

‖αx‖2 < ‖y‖2.

Substituindo o valor deα, obtemos

|〈y, x〉|2‖x‖4 ‖x‖

2 < ‖y‖2,

e a desigualdade de Cauchy-Schwarz segue-se imediatamente daí, pois|〈y, x〉| =|〈x, y〉|. (Uma outra prova da desigualdade de Cauchy-Schwarz é sugerida noExercício 3.) 2

SeE for um espaçoreal com produto interno, uma vez que a desigualdade deCauchy-Schwarz garante que

−1 ≤⟨

x

‖x‖ ,y

‖y‖

⟩≤ 1,

é natural definir o ânguloθ entre os vetoresx ey (com0 ≤ θ ≤ π) por

cos θ =

⟨x

‖x‖ ,y

‖y‖

⟩.

Page 171: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 155 — #171i

i

i

i

i

i

§8.2 Norma 155

Assim, podemos escrever

〈x, y〉 = ‖x‖ ‖y‖ cos θ,

expressão muitas vezes usada na definição do produto escalarx · y de vetoresx, y ∈ R3.

A desigualdade de Cauchy-Schwarz permite que justifiquemos anotação‖x‖ =〈x, x〉1/2. (Veja também o Exercício 3.)

Proposição 8.7Todo espaço com produto internoE tem uma norma definida por‖x‖ = 〈x, x〉1/2. Dizemos que essa norma égeradapelo do produto interno.

Demonstração: A primeira propriedade de norma decorre imediatamente dadefinição do produto interno. Além disso,

‖λx‖2 = 〈λx, λx〉 = λλ〈x, x〉 = |λ|2 ‖x‖2.

Finalmente, denotando porRe z a parte real dez ∈ C, temos que

‖x+ y‖2 = 〈x+ y, x+ y〉 = ‖x‖2 + 〈x, y〉+ 〈y, x〉+ ‖y‖2= ‖x‖2 + 2Re 〈x, y〉+ ‖y‖2 (8.1)

≤ ‖x‖2 + 2Re |〈x, y〉|+ ‖y‖2≤ ‖x‖2 + 2‖x‖ ‖y‖+ ‖y‖2 = (‖x‖+ ‖y‖)2

2

Observação 8.8Consideremos o isomorfismo entre um espaço vetorialE combaseB = {v1, . . . , vn} e o espaçoKn. Seja[x]B a representação dex na baseBe [y]B o vetor obtido ao se tomar o conjugado em cada uma das entradasde [y]B.Definimos um produto interno emE por

〈x, y〉 = [x]tB[y]B.

Essa definição é a generalização do Exemplo 8.2. (Veremos posteriormenteuma certa recíproca desse resultado, caracterizando produtos internos em espaçosde dimensão finita.)

Parafraseando Lima [22], ao dizermos que um espaço vetorialde dimensãofinita é euclidiano, não estamos atribuindo uma propriedadeespecial a esse espaço.Estamos, na verdade, escolhendo naquele espaço um determinado produto interno,entre os vários produtos internos com que ele poderia ser considerado. (Compare

Page 172: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 156 — #172i

i

i

i

i

i

156 Estrutura Euclidiana Cap. 8

com a Observação 8.21.) Estudar espaços de dimensão finita sem produto interno éprocurar entender quais resultados dependem da estrutura topológica do espaço.

Essa é a situação em dimensão finita, mas espaços de dimensão infinita sãomuito diferentes: nem sempre é razoável (ou desejável) definir um produto internonesses espaços. Em muitas situações práticas, um espaço vetorial tem uma normaque está naturalmente associada ao problema considerado, aqual pode gerar umatopologia que não é equivalente àquela gerada por um produtointerno. (Veja oApêndice F). �

Lema 8.9 SejaE um espaço com produto interno. Então são válidas asidentidadesde polarização:

(i) seE for um espaço real,

〈x, y〉 =1

4‖x+ y‖2 − 1

4‖x− y‖2.

(ii) seE for um espaço complexo,

〈x, y〉 =1

4‖x+ y‖2 − 1

4‖x− y‖2 +

i

4‖x+ iy‖2 − i

4‖x− iy‖2.

Demonstração:Basta desenvolver o lado direito de cada uma das igualdades.2

A seguinte propriedade de espaços com produto interno é imediata (desenvolvao lado esquerdo da igualdade):

Proposição 8.10Em todo espaço com produto interno vale aidentidade do parale-logramo:

‖x+ y‖2 + ‖x− y‖2 = 2(‖x‖2 + ‖y‖2

).

A identidade do paralelogramo tem inúmeras implicações. Veja, por exemplo,[6]. SeE for um espaço normado, a identidade do paralelogramo é satisfeita apenasquando sua norma for gerada por um produto interno (veja o Exercício 7).

8.3 Bases Ortonormais

Definição 8.11SejaE um espaço com produto interno. Um subconjuntoX ⊂ E éortogonal, seu ⊥ v para quaisqueru, v ∈ X. Se, além disso, todos os seus vetoresforem unitários, entãoX éortonormal.

Page 173: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 157 — #173i

i

i

i

i

i

§8.3 Bases Ortonormais 157

Lema 8.12 Em um espaço com produto internoE, todo conjunto ortogonalformado por vetores não-nulos é linearmente independente.

Demonstração: Sejam x1, . . . , xm ∈ X elementos arbitrários do conjuntoortogonal. Suponhamos que

α1x1 + . . .+ αmxm = 0

para escalaresα1, . . . , αm. Então,

0 = 〈0, xi〉 = 〈α1x1+. . .+αmxm, xi〉 = α1〈x1, xi〉+. . .+αm〈xm, xi〉 = αi〈xi, xi〉.Como〈xi, xi〉 = ‖xi‖2 6= 0, temosαi = 0. 2

Assim, sedimE = n e o conjunto ortogonal{x1, . . . , xn} for formado porvetores não-nulos, obtemos imediatamente uma base ortonormal ao dividir cadavetor por sua norma. Suponhamos queB = {x1, . . . , xn} seja uma base ortonormaldeE. Parax ∈ E, temos

x = α1x1 + . . .+ αnxn.

Os escalaresαi podem ser facilmente determinados. Como a base é ortonormal,segue-se daí que

αi = 〈x, xi〉, i = 1, . . . , n.

Consideremos então um outro vetory ∈ E. Temos que

〈x, y〉 = 〈α1x1 + . . .+ αnxn, β1x1 + . . .+ βnxn〉 = α1β1 + . . .+ αnβn,

o que mostra que, com relação a uma base ortonormal,2 qualquer produto internoemE tem a forma dada pela Observação 8.8. Em particular, quandoy = x, temos

‖x‖2 = α1α1 + . . .+ αnαn = |α1|2 + . . .+ |αn|2.Podemos ainda explorar mais as relações anteriores com a Observação 8.8. Se

x = α1x1 + . . .+ αnxn, concluímos facilmente que a aplicação

S : E → Kn, Sx = (α1, . . . , αn)

é um isomorfismo que transforma um dado produto interno emE no produto escalarusual noKn.

SejaB = {x1, . . . , xn} uma base ortonormal deE eT : E → E uma aplicaçãolinear. É fácil verificar que, seA = (aij) é a representação deT na baseB, entãoaij = 〈xi, Txj〉.

2Para o caso de bases que não são ortonormais, veja o Exercício19.

Page 174: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 158 — #174i

i

i

i

i

i

158 Estrutura Euclidiana Cap. 8

Observação 8.13Consideremos o contexto da Observação 8.8. Lá foi escolhidauma base arbitráriaB do espaçoX e introduzido um produto interno emX, pormeio do isomorfismo que associa ao vetorx ∈ X a sua representação (como vetordoKn). Note que, desse modo,B torna-se uma base ortonormal. �

8.4 Projeções Ortogonais

Na Seção anterior, mostramos que bases ortogonais são fáceis de lidar. Mas, elasexistem? Num primeiro curso de Álgebra Linear, as noções de projeção ortogonal,ilustradas nas figuras(8.1) e (8.2), foram apresentadas.

- -��

���6

projx1u

w

x1

u

Figura 8.1:O vetorprojx1u = (〈u, x1〉/‖x1‖2)x1 é a projeção ortogonal do vetoru no vetorx1. O

vetorw é a "componente" deu ortogonal ao vetorx1.

- -�

���

-�

6

�����6

x1

x2

projx2u

projx1u

w

u

Figura 8.2:O vetorw é a "componente" deu ortogonal ao plano gerado porx1 ex2.

O processo de ortogonalização de Gram-Schmidt é a generalização desseprocedimento. Apresentamos uma demonstração sintética desse resultado.

Page 175: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 159 — #175i

i

i

i

i

i

§8.4 Projeções Ortogonais 159

Teorema 8.14 (Gram-Schmidt)Dada uma base arbitrária{y1, . . . , yn} do espaço euclidianoE, existe uma

base ortonormal{x1, . . . , xn} deE formada por vetoresxi que são combinaçõeslineares dos vetoresy1, . . . , yi, para todoi = 1, . . . , n.

Demonstração:Utilizaremos indução na dimensão do espaço, o cason = 1 sendotrivial. Suponhamos obtidos os vetoresx1, . . . , xk−1. Consideramos então

xk =1

c

(yk −

k−1∑

i=1

cixi

),

em quec e c1, . . . , ck−1 são constante que serão determinadas. Para obtermosxk ortogonal a todos osxi já escolhidos, basta definirci = 〈yk, xi〉 para i =1, . . . , k − 1. Escolhemos entãoc como a norma do vetoryk −

∑k−1i=1 cixi. Note

quec > 0. 2

O processo de ortogonalização de Gram-Schmidt garante a existência de umainfinidade de bases ortonormais para espaços euclidianos. Uma interpretação doTeorema de Gram-Schmidt em termos de decomposição matricial será dada naSeção 11.3.

O processo de ortogonalização de Gram-Schmidt pode ser refraseado em termosde somas diretas de subespaços:

Definição 8.15O complemento ortogonaldo subespaçoY do espaço com produtointernoE, denotado porY ⊥, é o conjunto

Y ⊥ = {x ∈ E | 〈x, y〉 = 0, ∀ y ∈ Y }.

ClaramenteY ⊥ é um subespaço deE.

Teorema 8.16Para qualquer subespaçoY ⊂ E de um espaço euclidiano temos

E = Y ⊕ Y ⊥.

Além disso, vale(Y ⊥)⊥ = Y.

Demonstração:Sejaw ∈ Y ∩ Y ⊥. Então〈w,w〉 = 0 e, portanto,w = 0.Seja{y1, . . . , ym} uma base ortonormal deY e x ∈ E. Definaz = x − y e

y ∈ Y por 〈x, y1〉 y1 + . . .+ 〈x, ym〉 ym ∈ Y . Então,x = y + z e z ∈ Y ⊥.

Page 176: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 160 — #176i

i

i

i

i

i

160 Estrutura Euclidiana Cap. 8

Temos que〈y, w〉 = 0 para todow ∈ Y ⊥. Isso significa queY ⊂ (Y ⊥)⊥.Suponhamos queY 6= (Y ⊥)⊥ e 0 6= z ∈ (Y ⊥)⊥ \ Y . Então〈z, y〉 = 0 para todoy ∈ Y e, por conseguinte,z ∈ Y ⊥ ∩ (Y ⊥)⊥ = {0}. Absurdo. 2

Observação 8.17A demonstração dada continua válida para espaços de dimensãoinfinita, desde queY ⊂ E tenha dimensão finita. SeE tiver dimensão finita,uma outra prova é a seguinte: tomemos uma base ortogonal{y1, . . . , ym} de Ye então completemos, utilizando Gram-Schmidt, até obter uma base ortogonal{y1, . . . , ym, w1, . . . , wk} deE. Claramente, temos queY ⊥ é o espaço gerado por{w1, . . . , wk}. �

Definição 8.18Na decomposição

E = Y ⊕ Y ⊥

x = y + z,

a componentey é aprojeção ortogonaldex emY , também denotada porπY x. AaplicaçãoπY : E → Y é aprojeção ortogonaldeE emY .

Note que a denominação utilizada está de acordo com aquela das Figuras(8.1)e (8.2).

Teorema 8.19SejaY um subespaço do espaço euclidianoE ex ∈ E. Entre todosos elementosy ∈ Y , aquele com menor distância atéx é o elementoπY x:

‖x− πY x‖ ≤ ‖x− y‖ ∀ y ∈ Y. (8.2)

Demonstração:O Teorema 8.16 garante quex− y = (πY x− y)+ z, comz ∈ Y ⊥.Pelo Teorema de Pitágoras,

‖x− y‖2 = ‖πY x− y‖2 + ‖z‖2.

Assim,‖x− y‖ é mínima quandoy = πY x. 2

Exemplo 8.20 (O problema dos quadrados mínimos - 1a. parte)Seja A umamatriz realm × n. Quando um sistemaAx = b não tem solução, podemos aindaassim procurar o vetorx tal queAx seja a melhor aproximação possível para o vetorb. Esse é oproblema dos quadrados mínimos.

Page 177: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 161 — #177i

i

i

i

i

i

§8.4 Projeções Ortogonais 161

A desigualdade(8.2) toma a seguinte forma no problema dos quadradosmínimos:

‖b− Ax‖ ≤ ‖b− Ax‖ ∀ x ∈ Rn.

Decorre do Teorema 8.19 (aplicado ao subespaçoimA) que a soluçãox doproblema dos quadrados mínimos é ortogonal a esse subespaço:

〈b− Ax,Ay〉 = 0 ∀ y ∈ Rn. (8.3)

Note também que, seb for o ponto mais próximo deb no espaçoimA, entãox é uma solução deAx = b. Essa equação tem pelo menos uma solução;várias soluções podem ocorrer quando existirem variáveis livres no sistema linearformado. �

Nosso próximo objetivo é estudar equações semelhantes à equação(8.3). É oque faremos na próxima seção.

Observação 8.21Como vimos na Observação 8.13, escolhida uma baseB de umespaço de dimensão finitaX, por meio da aplicaçãox 7→ [x]B ∈ Kn, que associaa cada ponto dex as suas coordenadas com relação à baseB, introduzimos umproduto interno emX, relacionado ao produto interno canônico do espaçoKn.Podemos então nos perguntar: por que estudar produtos internos arbitrários emespaços de dimensão finita? Ou, mais especificamente, por queestudar produtosinternos arbitrários no espaçoKn?

Podemos responder a essa pergunta considerando, por exemplo, um problemade quadrados mínimos. Suponhamos quey = (y1, . . . , yn) seja um vetor formadoao se considerarn dadosy1, . . . , yn obtidos experimentalmente (por exemplo, adistância de algumas galáxias à Terra). Admitamos que, parai ∈ {1, . . . , n}, osdadosyi não sejam igualmente confiáveis, isto é, que a precisão com que foramobtidos varie comi; associemos um pesopi a esse dado, medindo o quanto esse éconfiável. Queremos obter uma soluçãoy = (y1, . . . , yn) que aproxime esses dados– levando em conta a precisão com que foram obtidos –, comy pertencente a umsubespaçoX doRn (pense em um problema de máximos e mínimos com restrições,no qual são utilizados multiplicadores de Lagrange, por exemplo). Assim, ao invésde tentarmos minimizar o quadrado dos errosyi − yi:

(y1 − y1)2 + . . .+ (yn − yn)2,

Page 178: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 162 — #178i

i

i

i

i

i

162 Estrutura Euclidiana Cap. 8

procuramos minimizar3

p21(y1 − y1)

2 + . . .+ p2n(yn − yn)2,

com y = (y1, . . . , yn) ∈ X.Nesse caso, estamos substituindo o produto interno canônico doRn pelo produto

interno〈z, w〉 = p2

1z1w1 + . . .+ p2nznwn,

em quez = (z1, . . . , zn) e w = (w1, . . . , wn). (Verifique que esse é realmenteum produto interno emRn!) Em outras palavras, muitas vezes somos naturalmentelevados a considerar um produto interno diferente do usual. �

8.5 A Adjunta de uma Aplicação Linear

Fixadoy ∈ E, a aplicaçãox 7→ 〈x, y〉 é uma aplicação linear. Reciprocamente,temos o importante

Teorema 8.22 (de Representação de Riesz)Todo funcional linearℓ : E → K num espaço euclidianoE pode ser escrito

como um produto interno. Mais precisamente, existe um únicoy ∈ E tal que

ℓ(x) = 〈x, y〉 ∀ x ∈ E.

Se você tiver lido o Capítulo 2, compare o enunciado anterior com o Teorema2.4. Existe uma generalização desse resultado para certos espaços com produtointerno de dimensão infinita (os espaços de Hilbert), se supusermosℓ contínua.4

Veja, contudo, o Exercício 15.Demonstração:Considere uma base ortonormalx1, . . . , xn ∈ E. Sex ∈ E, então〈x, x1〉x1 + . . .+ 〈x, xn〉xn e

ℓ(x) = 〈x, x1〉 ℓ(x1) + . . .+ 〈x, xn〉 ℓ(xn)

=⟨x, ℓ(x1)x1

⟩+ . . .+

⟨x, ℓ(xn)xn

⟩=⟨x, ℓ(x1)x1 + . . .+ ℓ(xn)xn

⟩.

Definay = ℓ(x1)x1 + . . .+ ℓ(xn)xn. Como{x1, . . . , xn} é uma base,y é único.2

3Na Estatística, os pesos geralmente satisfazempi = 1/σ2i , em queσi é avariância. Assim,

menor é o peso do dado se a variância é maior.4Sim! Em espaços de dimensão infinita aplicações lineares nãosão necessariamente contínuas.

Veja o apêndice F.

Page 179: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 163 — #179i

i

i

i

i

i

§8.5 A Adjunta de uma Aplicação Linear 163

Corolário 8.23 SeE for um espaço euclidiano real, a aplicaçãoℓ 7→ y é umisomorfismo entreE ′ = {ℓ : E → R} eE.

Em outras palavras, seE for um espaço euclidiano real, existe um isomorfismocanônico entreE e E ′. (O espaçoE ′ não tem, nesse contexto, qualquer produtointerno.)

O Teorema de Representação de Riesz tem muitas aplicações importantes (veja,por exemplo, [6]). Utilizaremos esse resultado para mostrar a existência da adjuntade uma aplicação linear.

Definição 8.24SejamE,F espaços com produto interno eT : E → F umaaplicação(não necessariamente linear). Uma aplicaçãoT ∗ : F → E éadjuntadeT , se satisfizer

〈Tx, y〉 = 〈x, T ∗y〉 ∀ x ∈ E, y ∈ F.

Lema 8.25 SejamE,F espaços com produto interno eT : E → F uma aplicaçãolinear. Se existir a adjunta deT , então ela é única. Além disso,T ∗ é linear.

Demonstração:Sejamy, z ∈ F eλ ∈ K. Então,

⟨x, T ∗(y + λz)

⟩= 〈Tx, y + λz〉 = 〈Tx, y〉+ λ〈Tx, z〉 = 〈x, T ∗y〉+ 〈x, λT ∗z〉.

Assim, ⟨x, T ∗(y + λz)− T ∗y − λT ∗z

⟩= 0.

Escolhendox = T ∗(y + λz) − T ∗y − λT ∗z, concluímos a linearidade deT ∗. Omesmo argumento prova sua unicidade. 2

Proposição 8.26SejamE,F espaços euclidianos. Então existe a adjunta de umaaplicaçãolinearT : E → F .

Demonstração:Para todoy ∈ F fixo, a aplicaçãox 7→ 〈Tx, y〉 pertence ao dualE ′ = {ℓ : E → K | ℓ é linear}. O Teorema de Representação de Riesz garante,então, que existe um únicow ∈ E (dependendo dey ∈ F ) tal que

〈Tx, y〉 = 〈x,w〉

para todox ∈ E. DefinaT ∗y = w. Está assim definida, para caday ∈ F , umaaplicaçãoT ∗ : F → E.

Page 180: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 164 — #180i

i

i

i

i

i

164 Estrutura Euclidiana Cap. 8

A linearidade deT ∗, bem como sua unicidade, foram demonstradas no Lema8.25. 2

Em espaços de dimensão infinitaE,F nem sempre existe a adjunta de umaaplicaçãoT : E → F (veja os Exercícios 17 e 18).

Exemplo 8.27 SejaT : R2 → R2 dada porT (x, y) = (ax+ by, cx + dy), comR2

considerado com o produto interno canônico. A base canônicaé, então, ortonormale a representação deT nessa base é a matriz

TE =

(a bc d

).

Logo,⟨T (x1, y1), (x2, y2)

⟩= (ax1 + by1)x2 + (cx1 + dy1)y2

= (ax2 + cy2)x1 + (bx2 + dy2)y1

=⟨(x1, y1), (ax2 + cy2, bx2 + dy2)

⟩,

de onde concluímos que

[T ∗]E =

(a cb d

)= (TE)

t.

Sea, b, c, d ∈ C, considerandoC2 com o produto interno canônico eT : C2 →C2 dada por

T (x, y) = (ax+ by, cx+ dy),

então a representação de sua adjunta com relação à base canônica seria a conjugadada transposta da representação deT com relação à base canônica (verifique!).�

Observação 8.28O Exercício 20 generaliza o Exemplo 8.27. Note que, seC foruma base arbitrária deE e T : E → E uma aplicação linear, a relação entre[T ]Ce [T ∗]C é bem mais complicada do que a apresentada no exemplo anterior. Vejatambém o Exercício 27. �

Exemplo 8.29 (O problema dos quadrados mínimos - 2a. parte)SejaA ∈ Mm×n(R). Como vimos no Exemplo 8.20, uma solução do problemados quadrados mínimos é obtida ao se resolver a equação(8.3):

〈b− Ax,Ay〉 = 0 ∀ y ∈ Rn.

Page 181: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 165 — #181i

i

i

i

i

i

§8.5 A Adjunta de uma Aplicação Linear 165

Ora,〈b− Ax,Ay〉 = 0 ∀ y ∈ Rn ⇔ AtAx = Atb.

A equaçãoAtAx = Atb é conhecida comoequação normalpara o problemados quadrados mínimos e nos fornece a solução desse problema. Veja também oExemplo 11.8. �

Proposição 8.30SejamE,F,G espaços euclidianos eT, S : E → F eR : F → Gaplicações lineares eλ ∈ K. Então vale:

(i) I∗ = I;

(ii) (T + S)∗ = T ∗ + S∗;

(iii) (λT )∗ = λT ∗;

(iv) (RT )∗ = T ∗R∗;

(v) (T ∗)∗ = T ;

(vi) seF = E eT ouT ∗ for invertível, então(T−1)∗ = (T ∗)−1.

Demonstração: As provas dos resultados afirmados são muito semelhantes.Faremos apenas algumas delas.

(ii) 〈x, (S+T )∗y〉 = 〈(S+T )x, y〉 = 〈Sx, y〉+〈Tx, y〉 = 〈x, S∗y〉+〈x, T ∗y〉 =〈x, (S∗ + T ∗)y〉. A unicidade da adjunta garante então que(S + T )∗ = S∗ + T ∗.

(v) 〈x, T ∗∗y〉 = 〈T ∗x, y〉 = 〈y, T ∗x〉 = 〈Ty, x〉 = 〈x, Ty〉. De novo, aunicidade da adjunta garante o afirmado.

Suponhamos que existaT−1. Então, tomando a adjunta emTT−1 = I = T−1Te, aplicando(v), obtemos(T−1)∗T ∗ = I = T ∗(T−1)∗. O caso em que existe(T ∗)−1

é análogo. 2

Proposição 8.31SejaW um subespaço invariante pelo operadorT : X → X.EntãoW⊥ é invariante porT ∗.

Demonstração:Sejamx ∈ W e y ∈ W⊥. Então0 = 〈Tx, y〉 = 〈x, T ∗y〉. Assim,T ∗y é perpendicular ax para todox ∈W . Isso quer dizer queT ∗y ∈W⊥. 2

A demonstração simples do próximo resultado está em oposição à suaimportância...

Page 182: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 166 — #182i

i

i

i

i

i

166 Estrutura Euclidiana Cap. 8

Teorema 8.32SejamE,F espaços euclidianos eT : E → F uma aplicaçãolinear. Então vale:

(i) kerT ∗ = (imT )⊥;

(ii) kerT = (imT ∗)⊥;

(iii) imT ∗ = (kerT )⊥;

(iv) imT = (kerT ∗)⊥;

(v) posto T = posto T ∗.

Em particular, vale a decomposição ortogonal5

E = kerT ∗ ⊕ imT.

�������������

�������������

E

·

ker T

im T ∗

-

T

�T ∗

�������������

�������������

F

·

ker T ∗

im T

Figura 8.3:As aplicaçõesT eT ∗ decompõem ortogonalmente os espaçosE eF .

Demonstração:Também nesse caso as demonstrações são muito semelhantes. Aafirmação(i) mostra-se assim:

y ∈ kerT ∗ ⇔ T ∗y = 0 ⇔ 〈x, T ∗y〉 = 0 ∀ x ∈ E⇔ 〈Tx, y〉 = 0 ∀ x ∈ E ⇔ y ⊥ imT.

5Observe que, emE = kerT ∗ ⊕ im T , a notação⊕ é insatisfatória, uma vez que aortogonalidade entre os subespaçosker T ∗ e im T é informação primordial da afirmação. Assim,vamos salientar a ortogonalidade dos espaços envolvidos emuma soma direta dizendo que ela éortogonal.

Page 183: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 167 — #183i

i

i

i

i

i

§8.5 A Adjunta de uma Aplicação Linear 167

Do mesmo modo mostra-se(ii). As relações(iii) e (iv) são obtidas passando-se aocomplementar ortogonal.

Finalmente, temos

postoT ∗ = dim(imT ∗) = dim(kerT )⊥ = dimE − dim(kerT ) = dim(imT )

= postoT,

mostrando(v). 2

Observação 8.33Compare(iv) com a opção(b) do Exercício 22 do Capítulo 3.�

Exemplo 8.34 SejaA ∈ Mm×n(K) uma matriz. Consideremos o sistema linearnão-homogêneoAx = b. Suponhamos quexp seja uma solução desse sistema. Jávimos que todas as soluções deAx = b são da formaxp + z, em quez ∈ kerA(veja o Exemplo 3.19).

Agora, exploremos o vínculo entre as soluções deAx = b e as deAx = 0. SekerA = {0}, então existeA−1 ex = A−1b é a única solução deAx = b.

Se kerA tiver dimensãok, existemk soluções linearmente independentesx1, . . . , xk deAx = 0. SeAx = b tiver soluçãoxp, então todas as suas soluçõesserãoxp+α1x1+. . .+αkxk. MasAx = b pode não ter solução: basta queb 6∈ imA.Considerada a decomposição ortogonal

Kn = kerA∗ ⊕ imA,

vemos queAx = b tem solução se, e somente se,b ∈ (kerA∗)⊥ = imA. �

O Exemplo 8.34 sugere uma relação entrekerA ekerA∗. Vamos explicitar essarelação:

Corolário 8.35 (Alternativa de Fredholm)SejaT : E → E um operador definido no espaço euclidianoE. Consideremos

as seguintes equações:Tx = y, T ∗u = v (8.4)

eTx = 0, T ∗u = 0. (8.5)

Então

Page 184: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 168 — #184i

i

i

i

i

i

168 Estrutura Euclidiana Cap. 8

(i) ou ambas as equações em(8.4) têm solução para quaisquerx, y ∈ E eu, v ∈ E (Claro que então ambas as equações em(8.5) possuem apenasa solução trivial.)

(ii) ou as equações em(8.4) possuem exatamente o mesmo número de soluçõeslinearmente independentes. Sex ∈ kerT e u ∈ kerT ∗, então〈u, y〉 = 0 e〈x, v〉 = 0.

Demonstração:Suponhamos queTx = y tenha solução para qualquerx, y ∈ E.Isso que dizer queimT = E = ker(T ∗)⊥ e, portanto,kerT ∗ = {0}.

Do Teorema 8.32(v) segue-se quedim(kerT ) = dim(kerT ∗). O item(iv) nosmostra que sey ∈ imT , então〈u, y〉 = 0; e o item(iii) garante que〈x, v〉 = 0. 2

8.6 Isometrias

Definição 8.36SejamE,F espaços euclidianos eM : E → F uma aplicação(não necessariamente linear). A aplicaçãoM é umaisometriase, para quaisquerx, y ∈ E, tivermos

‖Mx−My‖ = ‖x− y‖. (8.6)

Decorre imediatamente da definição que a composta de duas isometrias é umaisometria.

Um exemplo elementar de isometria é umatranslação:

Tx = x+ a

paraa ∈ E fixo.Dada uma isometria, podemos compô-la com uma translação e produzir assim

uma isometria quepreserva a origem(isto é, leva0 ∈ E em 0 ∈ F ). Recipro-camente, toda isometria é a composta de uma isometria que preserva a origem comuma translação.

Teorema 8.37SejamE,F espaços euclidianos eM : E → F uma isometria, comM(0) = 0. Então

M(x+ y) = Mx+My.

SeE,F forem espaçosreais, entãoM é linear.

Page 185: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 169 — #185i

i

i

i

i

i

§8.6 Isometrias 169

Demonstração:Vamos denotarMx = x′,My = y′ etc. Por definição vale

‖x′ − y′‖ = ‖x− y‖. (8.7)

Tomando sucessivamentex = 0 ey = 0 em(8.7), obtemos também

‖x′‖ = ‖x‖, e ‖y′‖ = ‖y‖. (8.8)

Uma vez que

〈x′ − y′, x′ − y′〉 = 〈x′, x′〉 − 〈x′, y′〉 − 〈y′, x′〉+ 〈y′, y′〉,

ao elevarmos ao quadrado(8.7) e (8.8), obtemos

〈x′, y′〉+ 〈y′, x′〉 = 〈x, y〉+ 〈y, x〉. (8.9)

Do mesmo modo,

‖z−x−y‖2 = ‖z‖2+‖y‖2+‖x‖2−〈z, x〉−〈x, z〉−〈z, y〉−〈y, z〉+〈x, y〉+〈y, x〉.

Segue-se de(8.7), (8.8) e (8.9) que

‖z′ − x′ − y′‖2 = ‖z − x− y‖2.

Escolhemos entãoz = x+ y. O lado direito dessa igualdade é, então, nulo. Assim,temosz′ − x′ − y′ = 0. Mas isso mostra queM(x+ y) = Mx+My.

Suponhamos agora queE,F sejam espaços reais. Então,(8.9) implica que

〈Mx,My〉 = 〈x, y〉.

Agora completamos a prova da linearidade deM :

〈M(λx),My〉 = 〈λx, y〉 = λ〈x, y〉 = λ〈Mx,My〉 = 〈λMx,My〉.

Por conseguinte,〈M(λx)− λMx,My〉 = 0.

Escolhendo sucessivamentey = λx ey = x, obtemos

〈M(λx)− λMx,M(λx)〉 = 0

e〈M(λx)− λMx, λMx〉 = λ〈M(λx)− λMx,Mx〉 = 0.

Page 186: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 170 — #186i

i

i

i

i

i

170 Estrutura Euclidiana Cap. 8

Logo,〈M(λx)− λMx,M(λx)− λMx〉 = 0,

mostrando a linearidade deM no caso real. (Veja o Exercício 38.) 2

Note que uma isometrialinear entre espaços euclidianosE eF sempre é umaaplicação injetora.

Teorema 8.38SejamE,F espaços euclidianos eM : E → F uma aplicaçãolinear. As seguintes afirmativas são equivalentes:

(i) M é uma isometria;

(ii) M preserva o produto interno:〈Mx,My〉 = 〈x, y〉;

(iii) M∗M = I.

SedimE = dimF , então essas condições são equivalentes a

(iv) M eM∗ são isometrias.

Demonstração:A identidade de polarização (Lema 8.9) adequada ao caso mostra(i)⇒ (ii).

Para quaisquerx, y ∈ E, vale

〈x, y〉 = 〈Mx,My〉 = 〈x,M∗My〉 ⇒ 〈x,M∗My − y〉 = 0.

Escolhendox = M∗My − y, vemos que(ii)⇒ (iii).Uma vez que

〈x, y〉 = 〈M∗Mx, y〉 = 〈Mx,My〉,temos que(iii)⇒ (i).

Se dimE = dimF , deM∗M = I decorre queM−1 = M∗ e, portanto,MM∗ = I. Como‖x‖2 = 〈x,MM∗x〉 = 〈M∗x,M∗x〉 = ‖M∗x‖2, temos queM∗ é uma isometria. O mesmo cálculo comM∗M ao invés deMM∗ garante queM também é uma isometria. Assim,(iii)⇒ (iv).

É óbvio que(iv)⇒ (i). 2

Como uma isometria preserva a ortogonalidade, temos imediatamente:

Corolário 8.39 SejamE,F espaços euclidianos eM : E → F uma isometria.EntãoM transforma conjuntos ortogonais deE em conjuntos ortogonais deF .

Page 187: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 171 — #187i

i

i

i

i

i

§8.7 Operadores Lineares 171

Proposição 8.40SejamE,F espaços euclidianos de mesma dimensão eM : E →F uma isometria linear. Se esses espaços forem reais, entãodetM = ±1. No casocomplexo,| detM | = 1.

Demonstração: No caso real, comoM∗ = M t e detM t = detM , a igualdadeM∗M = I garante que(detM)2 = 1 e, portanto,detM = ±1. No caso complexo,M∗ = M t. Decorre daí quedetM∗ = detM t = detM = detM . Assim,detMdetM = 1, provando o afirmado. 2

O significado geométrico da Proposição 8.40 é que uma aplicação que preservanormas também preserva volumes. Veja o Exercício 53.

8.7 Operadores Lineares

Nosso objetivo nesta seção é iniciar o estudo de operadores linearesT : E → E,em queE é um espaço euclidiano.

Definição 8.41SejamE um espaço euclidiano eT : E → E um operador linear.Dizemos que

(i) T éunitário, seT ∗T = TT ∗ = I;

(ii) T éauto-adjunto, seT ∗ = T ;

(iii) T éantiauto-adjunto, seT ∗ = −T ;

(iv) T énormal, seT ∗T = TT ∗.

A mesma denominação é utilizada para as matrizes que representam taisoperadores com relação a uma base ortogonal.

Operadores unitários também são chamados deortogonais(especialmente seEfor um espaço real), enquanto operadores auto-adjuntos também são chamados dehermitianosou simétricos, essas denominações sendo empregadas para diferenciaroperadores auto-adjuntos em espaços complexos e reais, respectivamente.

Por esse motivo, as denominações anti-hermitiano (no caso complexo) e anti-simétrico (no caso real) são também utilizadas para um operador antiauto-adjunto.Operadores auto-adjuntos, antiauto-adjuntos e unitáriossão sempre normais, comopodemos verificar facilmente.

Como vimos na seção anterior, se o operadorM : E → E for uma isometria,entãoM∗ = M−1 eM é unitário.

Page 188: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 172 — #188i

i

i

i

i

i

172 Estrutura Euclidiana Cap. 8

Proposição 8.42SejaT : E → E um operador definido no espaçocomplexocomproduto internoE. Então

〈Tx, x〉 = 0 ∀ x ∈ E ⇔ T = 0.

Demonstração: Escolhendox = u + v, a relação〈Tx, x〉 = 0 nos mostraque 〈Tv, u〉 + 〈Tu, v〉 = 0. Mas, se escolhermosx = u + iv, obtemosi〈Tv, u〉 − i〈Tu, v〉 = 0. Assim,

〈Tv, u〉 = −〈Tu, v〉 = −〈Tv, u〉.

Assim,〈Tv, u〉 = 0 para qualquer escolha deu ev, de onde segue-se queT = 0. 2

Proposição 8.43SejaH : E → E um operador definido no espaço euclidianoE.Então vale:

(i) SeH = H∗, então〈Hx, x〉 ∈ R para todox ∈ E;

(ii) Se 〈Hx, x〉 ∈ R para todox ∈ E e E for um espaçocomplexo, entãoH = H∗.

Demonstração:SeH = H∗, então

〈Hx, x〉 = 〈x,Hx〉 = 〈Hx, x〉,

mostrando que〈Hx, x〉 ∈ R. Reciprocamente,〈Hx, x〉 = 〈Hx, x〉 = 〈x,Hx〉 =〈H∗x, x〉 implica 〈(H − H∗)x, x〉 = 0 para todox ∈ E. ConcluímosH = H∗

como conseqüência da Proposição 8.42. 2

A Proposição 8.42 é falsa em espaços reais com produto interno. Consideremos,por exemplo,T : R2 → R2 dado por

(0 −11 0

).

Então〈Tw,w〉 = 0 para todow ∈ R2, masT 6= 0. Vale o seguinte resultado:

Teorema 8.44SejamE um espaçoreal com produto interno eT : E → E umoperador. Então〈Tx, x〉 = 0 para todox ∈ E se, e somente se,T for antiauto-adjunto.

Page 189: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 173 — #189i

i

i

i

i

i

§8.8 Norma de Matrizes 173

Demonstração:Suponhamos que〈Tx, x〉 = 0 para todox ∈ E. Então

0 = 〈T (x+y), x+y〉 = 〈Tx, y〉+〈Ty, x〉 = 〈Tx, y〉+〈x, Ty〉 = 〈Tx, y〉+〈T ∗x, y〉.

Assim,

0 = 〈Tx, y〉+ 〈T ∗x, y〉 =⟨(T − T ∗)x, y

⟩∀ x, y ∈ E.

Daí decorre imediatamente queT = T ∗.Reciprocamente, seT = −T ∗, então

〈Tx, x〉 = 〈x, T ∗x〉 = −〈x, Tx〉 = −〈Tx, x〉,

provando o afirmado. 2

Teorema 8.45SejamE um espaço euclidiano eT : E → E um operador. EntãoT é normal se, e somente se,‖Tx‖ = ‖T ∗x‖ para todox ∈ E. Em particular, valea decomposição ortogonal

E = kerT ⊕ imT.

Demonstração:Suponhamos queT seja normal. Então vale:

‖Tx‖2 = 〈Tx, Tx〉 = 〈T ∗Tx, x〉 = 〈TT ∗x, x〉 = 〈T ∗x, T ∗x〉 = ‖T ∗x‖2.

Reciprocamente, de‖Tx‖ = ‖T ∗x‖ obtemos (como acima)

〈TT ∗x, x〉 = 〈T ∗Tx, x〉 ⇒⟨(TT ∗ − T ∗T )x, x

⟩= 0 ∀ x ∈ E.

ComoTT ∗ − T ∗T é auto-adjunto, da Proposição 8.42 inferimos queTT ∗ = T ∗T ,provando queT é normal.

Quanto à decomposição ortogonal, decorre imediatamente de‖Tx‖ = ‖T ∗x‖quekerT = kerT ∗. Aplicando o Teorema 8.32, obtemos o afirmado. 2

8.8 Norma de Matrizes

(Essa Seção necessita de conhecimentos básicos da topologia do espaçoRn epode ser suprimida sem prejuízo para o restante do texto.)

Page 190: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 174 — #190i

i

i

i

i

i

174 Estrutura Euclidiana Cap. 8

SejaA ∈ Mn×n(K) uma matriz. IdentificandoMn×n(K) com Kn2, podemos

introduzir uma noção natural de norma emMn×n(K) e transformar esse em umespaço normado. (Esse é, basicamente, o procedimento utilizado no Exercício 21.)Contudo, não é esse o caminho que escolheremos: definiremos diretamente umanorma emMn×n(K). A principal vantagem desse procedimento – veja na seqüência– consiste na propriedade(ii) da Proposição 8.50.

Para isso, começamos por relembrar que um conjuntoK ⊂ Kn é compacto se,e somente se, for limitado e fechado; além disso, sabemos quetoda função contínuadefinida num compactoK assume máximo e mínimo emK.

Definição 8.46Duas normas‖ · ‖0 e ‖ · ‖1 no espaçoKn são equivalentes se, esomente se, existirem constantesκ > 0 eλ > 0 de modo que

κ‖x‖0 < ‖x‖1 ≤ λ‖x‖0.

Algumas normas equivalentes no espaçoKn são consideradas no Exercício 46.

Proposição 8.47Todas as normas no espaçoKn são equivalentes.

Demonstração:De fato, sejax = (x1, . . . , xn) ∈ Kn e‖ · ‖0 uma norma arbitráriano espaçoKn. Vamos mostrar que essa norma é equivalente à norma‖ · ‖∞, dadapor

‖x‖∞ = max1≤i≤n

|xi|.

De fato, definindoλ := ‖e1‖0 + . . .+ ‖en‖0, temos, para todox ∈ X,

‖x‖0 = ‖x1e1 + . . .+ xnen‖0 ≤n∑

i=1

|xi| ‖ei‖0 ≤ λ‖x‖∞.

Isso mostra que a aplicaçãof : (Kn, ‖ · ‖∞) → R+ dada porf(x) = ‖x‖0 écontínua, atingindo, portanto, um mínimoκ emS := {x ∈ Kn | ‖x‖∞ = 1}. Temosqueκ > 0, pois‖ · ‖0 é uma norma. Assim, se0 6= x ∈ X, temos(x/‖x‖∞) ∈ S e

∥∥∥∥x

‖x‖∞

∥∥∥∥0

≥ κ ⇔ κ‖x‖∞ ≤ ‖x‖0,

o que mostra que são equivalentes as normas‖ · ‖∞ e‖ · ‖0. 2

Page 191: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 175 — #191i

i

i

i

i

i

§8.8 Norma de Matrizes 175

Corolário 8.48 Todo operador linearT : Kn → Kn é contínua.

Demonstração: De fato, sex = (x1, . . . , xn) ∈ Kn, entãoTx =n∑

i=1

xiTei e,

portanto,‖Tx‖ ≤ λ‖x‖sum,

em queλ := max1≤i≤n ‖Tei‖ e ‖x‖sum :=∑n

i=1 |xi|. Tomandox = z − w,como todas as normas noKn são equivalentes, mostramos queT é (uniformemente)contínuo. 2

Definição 8.49SejaA ∈Mn×n(K) e‖ · ‖ uma norma noKn. Definimos

‖A‖ = max‖x‖=1

‖Ax‖.

Chamamos‖A‖ denormada matrizA.

Decorre imediatamente da definição que‖Ax‖ ≤ ‖A‖ ‖x‖ para todox ∈ Kn.O próximo resultado garante que a norma de uma matriz é realmente uma norma

no espaçoMn×n(K) de todas as matrizesn× n.

Proposição 8.50SejaA : Kn → Kn a aplicação linear dada pela matrizA ∈Mn×n(K). Então

(i) A aplicação‖ · ‖ : Mn×n(K)→ [0,∞) é uma norma;

(ii) ‖AB‖ ≤ ‖A‖ ‖B‖ para quaisquerA,B ∈Mn×n(K);

(iii) ‖A‖ = max‖x‖=1=‖y‖

∣∣〈Ax, y〉∣∣.

Demonstração:Claramente‖A‖ ≥ 0 e ‖A‖ = 0 se, e somente se,Ax = 0 paratodox 6= 0. Além disso

‖λA‖ = max‖x‖=1

‖λAx‖ = max‖x‖=1

|λ| ‖Ax‖ = |λ| max‖x‖=1

‖Ax‖ = |λ| ‖A‖.

Finalmente,

‖A+B‖ = max‖x‖=1

‖(A+B)x‖ ≤ max‖x‖=1

{‖Ax‖+ ‖Bx‖

}

≤ max‖x‖=1

‖Ax‖+ max‖x‖=1

‖Bx‖ = ‖A‖+ ‖B‖,

Page 192: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 176 — #192i

i

i

i

i

i

176 Estrutura Euclidiana Cap. 8

completando a prova de(i).Como‖(AB)x‖ = ‖A(Bx)‖ ≤ ‖A‖ ‖Bx‖ ≤ ‖A‖ ‖B‖ ‖x‖, (ii) está provado.Para mostrar(iii), afirmamos que

‖x‖ = sup‖y‖=1

∣∣〈x, y〉∣∣.

Para provar nossa afirmação, notamos que∣∣〈x, y〉

∣∣ ≤ ‖x‖ ‖y‖ ≤ ‖x‖, se‖y‖ = 1.A desigualdade contrária é obtida ao tomarmosy = x/‖x‖.

Aplicando esse resultado, obtemos

‖A‖ = sup‖x‖=1

‖Ax‖ = sup‖x‖=1=‖y‖

∣∣〈Ax, y〉∣∣.

2

8.9 Exercícios

1. Seja‖ · ‖ uma norma no espaçoE. Mostre que‖0‖ = 0.

2. SejaE um espaço euclidiano complexo. Dê um exemplo mostrando que avalidade do Teorema de Pitágoras não implica quex ⊥ y.

3. SejaE um espaço com o produto interno〈·, ·〉. Demonstre a desigualdade deCauchy-Schwarz da seguinte maneira: parax, y ∈ E, desenvolva a expressão0 ≤ 〈x − αty, x − αty〉. Escolhendoα = 〈x, y〉. obtenha um trinômiodo segundo grau com coeficientes reais. Analise esse trinômio e obtenha adesigualdade de Cauchy-Schwarz.

4. SejaC([a, b],K) o espaço das funções contínuasf : [a, b]→ K. Mostre que

〈f, g〉 :=

∫ b

a

f(t)g(t)dt

define um produto interno nesse espaço.

5. Parau = (x1, y1) ∈ R2 e v = (x2, y2) ∈ R2, defina〈u, v〉 = 2x1x2 − x1y2 −x2y1 + 2y1y2. Mostre que está assim definido um produto interno emR2.

6. SejaE um espaço com produto interno eA : X → E um isomorfismo entre oespaço vetorialX eE. Parax, y ∈ X defina〈x, y〉 := 〈Ax,Ay〉. Mostre queestá assim definido um produto interno emX. (Compare com a Observação8.8.)

Page 193: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 177 — #193i

i

i

i

i

i

§8.9 Exercícios 177

7. SejaE um espaço normado que satisfaz a identidade do paralelogramo.Definindo 〈·, ·〉 : E × E → K por meio da identidade de polarizaçãoconveniente, mostre que〈·, ·〉 é um produto interno emE e que a norma deEé gerada por esse produto interno.

8. Considere agora o espaçoC([−π, π],R) com o produto interno definido noExercício 4. Mostre que o conjunto

X := {1, sen t, cos t, sen 2t, cos 2t, . . .}

é um conjunto ortogonal.

9. Considere então o espaço vetorialC([−1, 1],R) com o produto internodefinido no Exercício 4. SejaP ⊂ C([−1, 1],R) o subespaço formado portodas as funções pares eI ⊂ C([−1, 1],R) o subespaço formado por todasas funções ímpares. Mostre queI = P⊥.

10. SejaE um espaço com produto interno. Interprete geometricamenteadesigualdade de Cauchy-Schwarz em termos de normas dos vetores não-nulosy eprojxy.

11. SejaR[t] o espaço vetorial de todos os polinômios com coeficientes emR. Nesse espaço, considere o produto interno definido emC([−1, 1],R).Verifique que

X = {1, t, t2, . . .}é uma base desse espaço. Encontre os4 primeiros termos da base{p1, p2, . . .}obtida ao se aplicar o processo de ortogonalização de Gram-Schmidt à baseX. Os polinômiospn(t) são ospolinômios de Legendre, que são úteis noestudo de equações diferenciais.

12. No processo de Gram-Schmidt, passe de uma base arbitrária{u1, . . . , un} doespaço euclidianoE para uma baseortogonal{x1, . . . , xn} sem normalizaros vetores ortogonais em cada passo do processo. Verifique que 0 ≤ ‖xi‖ ≤‖ui‖ para todoi = 1, . . . , n. Prove que‖xi‖ = 0 implica queui está noespaço gerado poru1, . . . , ui−1, enquanto‖xi‖ = ‖ui‖ significa queui éortogonal a cada vetorxj, paraj = 1, . . . , i− 1.

13. SejamE um espaço com produto interno e{w1, . . . , wm} uma baseortonormal do subespaçoW . Mostre que, para todov ∈ E, vale a

Page 194: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 178 — #194i

i

i

i

i

i

178 Estrutura Euclidiana Cap. 8

desigualdade de Bessel

m∑

j=1

|〈v, wj〉|2 ≤ ‖v‖2.

14. SejamW1,W2 subespaços do espaço com produto internoE. Mostre que

(W1 +W2)⊥ = W⊥

1 ∩W⊥2 e (W1 ∩W2)

⊥ = W⊥1 +W⊥

2 .

15. Sejaℓ0 o espaço de todas as seqüência(xi) comxi = 0 exceto talvez para umnúmero finito de índices.

(a) Verifique que{e1, . . . , en, . . .} é uma base deℓ0, em queei é a seqüênciacujo i-ésimo elemento é igual a 1, os restantes sendo todos nulos. Dadox ∈ ℓ0, temos que existem = m(x) ∈ N tal quex = α1e1+. . .+αmem.

(b) Defina 〈ei, ej〉 = δij, com δij = 0, se i 6= j e δii = 0. Estendalinearmente para os elementos deℓ0 e verifique que está, assim, definidoum produto interno emℓ0.

(c) Consideref : ℓ0 → K definido por

f(x) = f(α1e1 + . . .+ αmem) = α1 +α2

2+ . . .+

αm

m.

Mostre que não existev ∈ ℓ0 tal quef(x) = 〈x, v〉 para todox ∈ ℓ0.(Esse contra-exemplo é uma adaptação daquele apresentado em [1].)

16. Prove o Corolário 8.23. O que acontece seE for um espaço complexo?

17. Consideremos o espaçoℓ0, introduzido no Exercício 15. Sex ∈ ℓ0, entãox =α1e1 + . . .+αmem para únicos escalaresα1, . . . , αm, em quem = m(x) ∈ N

depende dex. DefinaT : ℓ0 → ℓ0 por

T (α1e1 + . . .+ αmem) = (α1 + . . .+ αm)e1.

Mostre queT não possui adjunta. (Exemplo presente em [1].)

18. Considere o espaço de polinômiosR[t] como no Exercício 11. SejaD :R[t] → R[t] definido porDp = p′ (derivação emt). Mostre que não existeum operadorD∗ : K[t]→ K[t] tal que〈Dp, q〉 = 〈p,D∗q〉.

Page 195: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 179 — #195i

i

i

i

i

i

§8.9 Exercícios 179

19. SejaE um espaço euclidiano eB = {v1, . . . , vn} uma base qualquer desseespaço. Definagij = 〈vi, vj〉. Seu = α1v1 + . . . + αnvn e v = β1v1 + . . . +βnvn, mostre que vale

〈u, v〉 =n∑

i,j=1

gijαiβj. (8.10)

Verifique então que a matrizG = (gij) é hermitiana epositiva definida, istoé,

[u]tBG[u]B > 0 ∀ 0 6= u ∈ E.Reciprocamente, mostre que, seG for uma matriz hermitiana e positivadefinida, então(8.10) define um produto interno6 emE. A matrizG é amatrizde Gramdos vetoresv1, . . . , vn. Também se denotaG = G(v1, . . . , vn).

20. SejamB = {v1, . . . , vn} eC = {w1, . . . , wm} basesortonormaisdos espaçoseuclidianosE eF , respectivamente. SejaT : E → F uma aplicação linear.Mostre que, parai ∈ {1, . . . ,m} e j ∈ {1, . . . , n},

T CB = A = (aij), em que aij = 〈wi, T (vj)〉.

Conclua que(T ∗)BC = B = (bij), em quebij = aji, generalizando assim oExemplo 8.27.

21. SejamE,F espaços euclidianos. Dadas as aplicaçõesS, T ∈ L(E,F ), defina

〈S, T 〉 = tr (ST ∗).

Mostre que assim está definido um produto interno emL(E,F ). SeA = (aij)eB = (bij) forem, respectivamente, as matrizes deS eT com relação a basesortonormais deE eF , mostre que

〈A,B〉 =∑

i,j

aijbij.

22. Considere o espaçoC([0, π],R) com o produto interno definido no Exercício4 e seu subespaçoR2[t]. Tome o funcional linearℓ : R2[t]→ R dado por

ℓ(p) = 〈p(t), sen t〉.6Veja também os Exercícios 23 e 24 do Capítulo 9 para a relação entre produtos internos e

matrizes.

Page 196: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 180 — #196i

i

i

i

i

i

180 Estrutura Euclidiana Cap. 8

Acheq ∈ R2[t] tal que

ℓ(p) = 〈p(t), q(t)〉 ∀ p ∈ R2[t].

23. Considere o espaçoC([−π, π],R) com o produto interno definido noExercício 4 e seu subespaçoR5[t]. Achep ∈ R5[t] de modo que

∫ π

π

|sen t− p(t)|2dt

assuma o menor valor possível. Compare as aproximações desen t obtidaspor meio desse polinômio e da série de Maclaurin desen t.

24. Achea, b, c ∈ R de forma a minimizar o valor da integral

∫ 1

−1

|x3 − ax2 − bx− c|2dx.

25. SejaT : E → E um operador definido no espaço euclidiano realE. Mostreque

T ∗C(u+ iv) = T ∗u+ iT ∗v

e, em particular, que a complexificação de um operador normal(respectivamente, auto-adjunto e antiauto-adjunto) é um operador normal(respectivamente, auto-adjunto e antiauto-adjunto).

26. Considere a matrizP = (v1 v2 . . . vn) cujas colunas são os vetores{v1, v2, . . . , vn} de uma base ortonormal doKn. Mostre quePP ∗ = P ∗P =I.

27. EmR3 verifique que⟨(x1, x2, x3), (y1, y2, y3)

⟩= 2x1y1 + 3x2y2 + 4x3y3

define um produto interno. Encontre a adjunta da aplicação linearT dada por

T

xyz

=

1 0 12 −1 33 −1 4

xyz

com relação a esse produto interno.

Page 197: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 181 — #197i

i

i

i

i

i

§8.9 Exercícios 181

28. SejaT : X → X um operador sobre o espaço euclidianoX. Suponha queTv = λv eT ∗w = µw, comλ 6= µ. Mostre que〈v, w〉 = 0.

29. SejamE um espaço euclidiano eT : E → E um operador. Suponha queF ⊂ E seja um subespaço invariante porT eT ∗. Mostre que(T |F )∗ = T ∗|F .Assim, a restrição de um operador normal (respectivamente,auto-adjuntoou antiauto-adjunto) a um subespaço invariante tanto porT como porT ∗ énormal (respectivamente, auto-adjunto ou antiauto-adjunto).

30. SejamE um espaço euclidiano eπ : E → E uma projeção. Mostre queπ é uma projeção ortogonal (isto é,kerπ = (imπ)⊥) se, e somente se,〈πx, x− πx〉 = 0 para todox ∈ E. Mostre que, se uma projeçãoπ : E → Esatisfizer‖πx‖ ≤ ‖x‖ para todox ∈ E, entãoπ é ortogonal.

31. SejamE um espaço euclidiano eπ : E → E uma projeção. Mostre que asseguintes afirmações são equivalentes:

(a) π é normal;

(b) π é auto-adjunta;

(c) π é uma projeção ortogonal sobre sua imagem.

32. SejamS, T : E → E operadores auto-adjuntos no espaço euclidianoE.Mostre queST é auto-adjunto se, e somente se,ST = TS.

33. SejamE,F espaços euclidianos eT : E → F uma aplicação linear. Mostreque

(a) T é injetora se, e somente se,T ∗ for sobrejetora;

(b) T é sobrejetora se, e somente se,T ∗ for injetora.

34. SejamE,F espaços euclidianos eT : E → F uma aplicação linear. MostrequeT ∗T : E → E eTT ∗ : F → F têm o mesmo posto deT (e deT ∗).

35. SejaE um espaço com produto interno eα, β ∈ E vetores fixos. Mostre queTx = 〈x, α〉β define uma aplicação linear emE. Mostre queT ∗ existe eobtenha sua expressão.

36. Umisomorfismodos espaços com produto internoE eF é uma bijeção linearT : E → F que satisfaz, adicionalmente,〈Tx, Ty〉 = 〈x, y〉, para todosx, y ∈ E (isto é,T é uma isometria).

Page 198: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 182 — #198i

i

i

i

i

i

182 Estrutura Euclidiana Cap. 8

SejaT : E → F uma aplicação linear entre os espaços euclidianosE e F ,comdimE = dimF . Mostre que as seguintes afirmações são equivalentes:

(a) T preserva o produto interno;

(b) T é um isomorfismo (de espaços com produto interno);

(c) T leva toda base ortonormal deE em base ortonormal deF ;

(d) T leva alguma base ortonormal deE em uma base ortonormal deF .

SejamB e C bases ortonormais deE eF , respectivamente. Mostre tambémque T C

B é uma matriz ortogonal (unitária) se, e somente se,T for umaisometria.

37. SejamE,F espaços euclidianos ef : E → F uma aplicação que preservaproduto interno. Mostre quef é linear.

38. SejaE um espaço euclidiano complexo. Dê exemplo de uma isometriaM : E → E, comM(0) = 0, que não é linear.

39. SejaE um espaço com produto interno. Dê exemplo de uma aplicaçãoM : E → E tal queM∗M = I, masMM∗ 6= I.

40. SejamE,F espaços euclidianos eM : E → F uma isometria linear. Dê umainterpretação paraMM∗.

41. SejamT : E → E um operador em o polinômio mínimo deT . Mostre queo polinômio mínimo deT ∗ ém. Ser for o polinômio interpolador deT comrespeito a uma funçãof , conclua que o polinômio interpolador deT ∗ comrespeito af é r.

42. SejaT : E → E um operador linear no espaço euclidianoE. Mostre quenem sempre existe um polinômiop tal queT ∗ = p(T ).

43. SejaA ∈ Mn×n(K). Suponha queA∗ = −A. Mostre queeA é ortogonal (ouunitária).

44. SejamE,F dois espaços com produto interno. Considere a soma diretaE ⊕ F definida no Exercício 37 do Capítulo 1. Mostre queE ⊕ F é umespaço com produto interno se definirmos

⟨(x1, y1), (x2, y2)

⟩= 〈x1, x2〉+ 〈y1, y2〉.

Page 199: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 183 — #199i

i

i

i

i

i

§8.9 Exercícios 183

Mostre também que o gráfico de uma aplicação linearT : E → F é umsubespaço deE ⊕ F .

45. Considere o espaço com produto internoE ⊕ F , tal qual no Exercício 44.

(a) DefinaU : E ⊕ F → F ⊕ E porU(x, y) = (y,−x). Mostre queU∗

existe e obtenha sua expressão. Obtenha tambémU∗U eUU∗.

(b) SeT : E → E possuir adjuntaT ∗ : E → E, qual é a relação entre osgráficos deT eT ∗?

46. Considerez = (z1, . . . , zn) ∈ Kn e defina

‖z‖∞ = max1≤i≤n

|zi|,‖z‖sum = ‖z1‖+ . . .+ ‖zn‖‖z‖ =

√z1z1 + . . .+ znzn.

Mostre que‖ · ‖∞, ‖ · ‖sum e‖ · ‖ são normas emKn. Mostre também que

‖z‖∞ ≤ ‖z‖ ≤ ‖z‖sum ≤ n‖z‖∞.

47. SejaA ∈Mn×n(K). Mostre que‖A‖ = ‖A∗‖ e‖A∗A‖ = ‖A‖2.

48. SejaA ∈Mn×n(K). SeA for normal, mostre que‖A2‖ = ‖A‖2.

49. Considere queE = Kn e resolva os Exercícios 7 e 8 do Apêndice F.

50. Aceite o fato que todo espaço vetorial possui uma base (umresultado que édemonstrado utilizando-se o lema de Zorn). Mostre então quetodo espaçovetorial possui um produto interno e, portanto, uma norma.

Definição 8.51Sejamv1, . . . , vr vetores emKn. O conjunto

x1v1 + . . .+ xrvr com 0 ≤ xi ≤ 1 ∀ i = 1, . . . , r

é o paralelepípedoP = P(v1, . . . , vr) gerado por {v1, . . . , vr}. Definimosindutivamente ovolume (r-dimensional) do paralelepípedopor vol(P(v1)) =‖v1‖ e, supondo definido o volume do paralelepípedo gerado pork − 1 vetores,definimosvol (P(v1, . . . , vk)) = ‖h‖ vol(P(v2, . . . , vk)), em que‖h‖ é a alturado paralelepípedo, isto é, sew for a projeção dev1 sobre o espaço gerado por{v2, . . . , vk}, entãoh = v1 − w.

Page 200: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 184 — #200i

i

i

i

i

i

184 Estrutura Euclidiana Cap. 8

51. Dado um conjunto arbitrário{v1, . . . , vk} do espaço euclidianoE dedimensãon, considere a matrizA, k × n, cujas linhas são as coordenadasdevi com relação a uma baseortogonalB deE:

A =

[v1]tB

...[vk]

tB

.

(a) Mostre queAA∗ é a matriz de GramG(v1, . . . , vk) = (〈vi, vj〉);conclua então quedetG(v1, . . . , vk) é diferente de zero se os vetoresv1, . . . , vk forem linearmente independentes e nulo se esses vetoresforem linearmente dependentes;7

(b) mostre que

detG(v1, . . . , vk) = ‖h‖2 detG(v2, . . . , vk),

em quev1 = h+w, sendoh ortogonal ao espaço gerado porv2, . . . , vk;conclua adesigualdade de Hadamard:

0 ≤ detG ≤ ‖v1‖2 . . . ‖vk‖2;

(c) Mostre que

[vol(P(v1, . . . , vk))]2 = detG(v1, . . . , vk).

52. Sejav1, . . . , vn ∈ Kn vetores linearmente independentes. Conclua que

vol(P(v1, . . . , vn)) = |D(v1, . . . , vn)|,

em queD é a função determinante.

53. SejaT : Kn → Kn um operador linear eP um paralelepípedon-dimensional emKn. Mostre queT (P) é um paralelepípedo evol(T (P)) =| detT | vol(P).

Observação 8.52Uma vez estabelecida a relação entre determinantes e volumes,estamos em condições de interpretar o significado geométrico das outras duas

7O item(b) garante quedet G(v1, . . . , vk) ≥ 0.

Page 201: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 185 — #201i

i

i

i

i

i

§8.9 Exercícios 185

operações elementares sobre as linhas de uma matrizA (compare com a Observação4.4). A multiplicação de uma linha por uma constante positivacmultiplica o volumedo paralelepípedo formado pelas linhas deA também porc. (Isso é evidente quandoc é inteiro ou mesmo uma fração.) A substituição de uma linha deA por suasoma com outra linha certamente não altera o determinante deA, pois a alturado paralelepípedo (gerado pelas linhas deA) não é modificada: a projeção do vetoraltura sobre o espaço gerado pelos demais vetores permanecea mesma. Isto tambémpode ser visto de outra maneira: se a linha a ser alterada corresponder a um vetorvertical (o que podemos obter por uma mudança de base), adicionar a essa uma outralinha deA corresponde a inclinar o paralelepípedo. Pelo Princípio deCavalieri, ovolume não se altera.

Page 202: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 186 — #202i

i

i

i

i

i

9Formas Sesquilineares e

Quadráticas

Neste Capítulo estudamos formas sesquilineares e bilineares. Apresentaremoso Teorema de Lagrange e a Lei da Inércia.

9.1 Formas Sesquilineares e Bilineares

Definição 9.1 SejaX um espaço vetorial. Umaforma sesquilinearemX é umafunçãoB : X ×X → K tal que, para quaisquerα ∈ K ex1, x2, y1, y2 ∈ X,

(i) B(αx1 + x2, y1) = αB(x1, y1) +B(x2, y1):

(ii) B(x1, αy1 + y2) = αB(x1, y1) +B(x1, y2).

SeX for um espaço real, é usual dizer queB é umaforma bilinear.Uma forma sesquilinear éhermitiana, seB(x, y) = B(y, x) para quaisquer

x, y ∈ X. No caso real, dizemos que a forma bilinear ésimétrica. A denominaçãoauto-adjuntaé empregada em ambos os casos. SeB(x, y) = −B(y, x), dizemosque a forma éantiauto-adjunta.

Ao utilizarmos a denominaçãoforma estaremos nos referindo a uma formasesquilinear ou bilinear.

Exemplo 9.2 Em um espaço com produto internoE, 〈 ·, ·〉 é uma forma autoadjun-ta. �

186

Page 203: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 187 — #203i

i

i

i

i

i

§9.1 Formas Sesquilineares e Bilineares 187

Exemplo 9.3 SejaA ∈Mn×n(K) uma matriz . DefinindoB : Kn ×Kn → K por

B(x, y) = xtAy = (x1 x2 . . . xn)

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...an1 an2 · · · ann

y1

y2...yn

,

obtemos uma forma emKn. Mais geralmente, dado um operadorT : E → E noespaço euclidianoE,B(x, y) = 〈Tx, y〉 = 〈x, T ∗y〉 define um forma emE. �

Denotaremos porS(X) o conjunto das formas emX. (No caso real, esse espaçoé usualmente denotado porL2(X).) O espaçoS(X) é um espaço vetorial com asdefinições usuais de soma de funções e multiplicação de função por escalar (veja oExercício 1).

Concentraremos nossa atenção no caso em queX é um espaço euclidiano.Nesses espaços, formas estão intrinsecamente ligadas a operadores, relação jásugerida pelo Exemplo 9.3:

Teorema 9.4 SejamE um espaço euclidiano eB uma forma emE. Então, existeum único operador linearS : E → E tal que, para quaisquerx, y ∈ E,

B(x, y) = 〈x, S∗y〉 = 〈Sx, y〉.

A formaB é auto-adjunta(respectivamente, antiauto-adjunta) se, e somente se,S∗ = S (resp.,S∗ = −S).

Demonstração: Fixadoy ∈ E, a aplicaçãoΨy : E → K definida porΨy(x) =B(x, y) é um funcional linear emE. Pelo Teorema de Representação de Riesz 8.22,existe um único vetorwy ∈ E tal queB(x, y) = Ψy(x) = 〈x,wy〉 para todox ∈ E.Definimos, então,S∗ : E → E porS∗y = wy, ou seja,B(x, y) = 〈x, S∗y〉.

Afirmamos queS∗ é linear. De fato,

〈x, S∗(αy1 + y2)〉 = B(x, αy1 + y2) = αB(x, y1) +B(x, y2)

= α〈x, S∗y1〉+ 〈x, S∗y2〉 = 〈x, αS∗y1 + S∗y2〉.

A unicidade deS∗ é clara: se〈x, S∗y〉 = B(x, y) = 〈x,R∗y〉, então, para quaisquerx, y ∈ E, vale〈x, (S∗ −R∗)y〉 = 0, de onde segue-se queS∗ = R∗.

Parax, y ∈ E arbitrários, temos

B(x, y) = B(y, x) ⇔ 〈Sx, y〉 = 〈Sy, x〉 ⇔ 〈Sx, y〉 = 〈x, Sy〉

Page 204: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 188 — #204i

i

i

i

i

i

188 Formas Sesquilineares e Quadráticas Cap. 9

e

B(x, y) = −B(y, x) ⇔ 〈Sx, y〉 = −〈Sy, x〉 ⇔ 〈Sx, y〉 = 〈x,−Sy〉. 2

O resultado anterior mostra que a denominação de forma auto-adjunta eantiauto-adjunta está em conformidade com propriedades dos operadoresS; assim,outras denominações empregadas para descrever propriedades deS também sãoaplicadas a uma forma.

Corolário 9.5 SejaE um espaço euclidiano. EntãoS(E), o espaço das formas emE, é canonicamente isomorfo aL(E,E), o espaço dos operadores emE.

Demonstração:O Teorema 9.4 garante que, dada uma formaB ∈ S(E), existe umoperadorS : E → E tal queB(x, y) = 〈Sx, y〉.

DenotamosTB = S, isto é,B(x, y) = 〈TBx, y〉. Afirmamos que a aplicaçãoB 7→ TB é um isomorfismo canônico entreS(E) eL(E,E). De fato,

〈T(B1+αB2)x, y〉 = (B1 + αB2)(x, y) = B1(x, y) + αB2(x, y)

= 〈TB1x, y〉+ α〈TB2x, y〉 = 〈(TB1 + αTB2)x, y〉.A unicidade da aplicaçãoS tal queB(x, y) = 〈Sx, y〉 garante queB 7→ TB éinjetora. Essa aplicação também é sobrejetora: dado o operador T : E → E,claramenteB(x, y) = 〈Tx, y〉 define uma forma emE. 2

Por conseguinte, sedimE = n, deduzimos daí quedim(S(E)) = n2, que é adimensão deL(E,E). Mas, dada a formaB, como determinar o operadorS?

Corolário 9.6 Dada uma base ortonormalB = {v1, . . . , vn} do espaço euclidianoE, associamos à formaB a matrizA = (aij) que representaS∗ nessa base, queestá caracterizada por

aij = B(vi, vj) = 〈vi, S∗vj〉.

Essa matriz é arepresentação deB na baseB.Se[x]B = (x1 x2 . . . xn)t e [y]B = (y1 y2 . . . yn)t forem, respectivamente, as

representações dex ey na baseB, então

B(x, y) = 〈x, S∗y〉= [x]tBA [y]B

= (x1 x2 . . . xn)

a11 a12 · · · a1n

a21 a22 · · · a2n...

.... . .

...an1 an2 · · · ann

y1

y2...yn

. (9.1)

Page 205: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 189 — #205i

i

i

i

i

i

§9.1 Formas Sesquilineares e Bilineares 189

Demonstração:A matrizA que representaS∗ na baseB é dada, em termos de suascolunas, por

([S∗v1]B [S∗v2]B · · · [S∗vn]B).

SeS∗vj = a1jv1 + . . .+ anjvn, entãoaij = B(vi, vj) = 〈vi, S∗vj〉.

ComoB e a expressão matricial em(9.1) coincidem nos vetores da baseB, aprova está completa. 2

Observação 9.7Verificamos assim que, em espaços euclidianos, o Exemplo 9.3éabsolutamente geral: todas as formas são como naquele exemplo. Note tambémque o produto interno canônico noKn corresponde ao caso em que a matrizA é aidentidade. (O Exercício 19 do Capítulo 8 dá condições para que uma forma sejaum produto interno.) �

Em qualquer espaço de dimensão finitaX, é possível associar uma matriz a umaforma. Escolhida uma base arbitrária{x1, . . . , xn} paraX, a formaB : X×X → K

é caracterizada pelosn2 númerosaij := B(xi, xj) e a matrizA = (aij) representaB com essa base, comB(x, y) = [x]tBA [y]B. (Veja o Exercício 10. Compare,porém, com a Observação 8.13.) Em espaços euclidianos, essas duas maneiras deassociar formas a matrizes (isto é, a que acabamos de definir eaquela apresentadano texto, como representação do operadorS∗) coincidem unicamente quando a baseconsiderada for ortonormal.

Observação 9.8A expressãoB(x, y) = [x]tBA [y]B mostra que a matriz querepresenta uma forma reage a uma mudança de base de uma maneira diferentedaquela quando representa um operador: se[x]C = Q[x]B e [y]C = Q[y]B (estamosdenotando a matriz mudança de base porQ apenas por razões estéticas),

B(x, y) = [x]tCA [y]C = [x]tB(QtAQ) [y]B = [x]tB(Q∗AQ) [y]B.

Observação 9.9Sejaf : Rn → R uma aplicação de classeC2. Pode-se mostrarque a derivada segunda def é uma forma bilinear simétricaf ′′(x) (que varia como pontox ∈ Rn). O Corolário 9.6 garante a existência de uma matriz simétricaHx

(que varia com o pontox), tal que, para vetoresh, k ∈ Rn,

f ′′(x)(h, k) = htHxk,

Page 206: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 190 — #206i

i

i

i

i

i

190 Formas Sesquilineares e Quadráticas Cap. 9

A matriz Hx é a hessianade f no pontox. A forma quadráticaqx(h) :=f ′′(x)(h, h) = htHxh aparece no desenvolvimento de Taylor def :

f(x+ h) = f(x) +1

1!f ′(x)h+

1

2!qx(h) + r(h),

em quer(h) denota o resto de Taylor. �

9.2 Diagonalização de Formas Quadráticas

Definição 9.10SejamE um espaço euclidiano eB ∈ S(E) uma forma. Aaplicaçãoq : E → K, dada porq(v) = B(v, v), é chamadaforma quadrática.

SeB for auto-adjunta, dizemos queq é simétrica(no caso real) ou hermitiana(no caso complexo).

SeB = {v1, . . . , vn} for uma base ortonormal emE ex = x1v1 + . . . + xnvn,de acordo com(9.1) toda forma quadráticaq(x) pode ser escrita como

q(x) =n∑

i,j=1

aijxixj. (9.2)

Se denotarmos porQ : E → Kn a aplicaçãox 7→ [x]B, vemos que a formaquadráticaq : E → R induz uma forma quadráticaqB definida noKn, dadapela expressão matricial(9.2) e representada pelo diagrama (I denota a aplicaçãoidentidade, como sempre):

qE −→ K

Q ↓ ↓ IKn −→ K

qB

Na seqüência, identificaremos repetidamenteq comqB.Começamos tratando as formas quadráticas definidas em espaços euclidianos

reais. Nesse caso, podemos supor que a aplicaçãoA : E → E (e, conseqüen-temente, a forma quadráticaq) seja simétrica. De fato, temos que(A + A∗)∗ =A+ A∗. O operador

A+ A∗

2

Page 207: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 191 — #207i

i

i

i

i

i

§9.2 Diagonalização de Formas Quadráticas 191

é aparte auto-adjuntado operadorA. Temos que

q(x) = 〈x,Ax〉 =

⟨x,A+ A∗

2x

⟩.

Como vimos, a forma quadráticaq : E → R induz uma forma quadrática noRn, dada por sua expressão matricial numa base ortonormal deE. Assim, podemosconsiderar queq seja uma forma quadrática definida noRn.

Teorema 9.11 (Lagrange)SejaE um espaço euclidianorealde dimensãon. Dada uma forma quadrática

simétricaq : E → R, é possível fazer umamudança de coordenadas linearLx = y(isto é, existe uma matriz mudança de baseL) de modo que, na nova variávely, aforma quadráticaq seja diagonal, isto é,

q(L−1y) =n∑

i=1

diy2i . (9.3)

Demonstração:Sejaq(x) = 〈x,Ax〉, a matrizA = (aij) sendo simétrica. (Noteque isso significa que estamos identificando a forma com sua expressão matricial.)Se todos os termosaij forem nulos,q já é diagonal.

Suponhamos que todos os termos diagonais deq sejam nulos, mas que existaum termoaij diferente de zero, digamosa12 = a21 6= 0. De acordo com(9.2), oúnico termo deq envolvendo apenasx1 ex2 é

2a12x1x2.

Fazendo a mudança de variável linearx1 = w1 + w2, x2 = w1 − w2,x3 = w3, . . . , xn = wn, obtemos que os termos envolvendo apenasw1 ew2 são

a12w21 − a12w

22.

Assim, mostramos que podemos supor, sem perda de generalidade, queq possuaum termo diagonal diferente de zero.

Suponhamos então quea11 6= 0. Agrupamos os termos contendox1:

a11x21 + 2

n∑

j=2

a1jx1xj.

Page 208: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 192 — #208i

i

i

i

i

i

192 Formas Sesquilineares e Quadráticas Cap. 9

Logo, podemos escrever esses termos como

a11

(x1 +

1

a11

n∑

j=2

a1jxj

)2

− 1

a11

(n∑

j=2

a1jxj

)2

Fazendo a mudança de variável lineary1 = x1 + a21

a11x2 + . . . + an1

a11xn, y2 =

x2, . . . , yn = xn, concluímos que

q(x1, . . . , xn) = a11y21 + q2(y2, . . . , yn),

Tendo diagonalizado o termo emy1, repetimos então o processo com a formaquadráticaq2. 2

Exemplo 9.12 Aplicaremos a demonstração do Teorema 9.11 à forma quadrática

q(x, y, z) = 2x2 − 3y2 + z2 − 2xy + 4xz − 4yz.

(Identifique a passagem correspondente na demonstração do teorema.)Os termos que envolvem a variávelx são2x2 − 2xy + 4xz = 2(x2 − xy +

2xz) = 2[x2 − x(2z − y)]. Completando o quadrado, obtemosx2 − x(2z − y) =[x− (2z − y)/2]2 − (2z − y)2/4.

Efetuamos, então, a mudança de variávelw = x− (2z − y)/2 = x− z + y/2.Segue-se daí que

q(x, y, z) = 2w2− (2z − y)2

2−3y2+z2−4yz = 2w2−7

2y2−z2−2yz =: q1(w, y, z).

Separando os termos que envolvemy, repetimos o processo:−7y2/2 − 2yz =−7/2(y2 + (4/7)yz). Completando o quadrado,y2 + (4/7)yz = (y + (2/7)z)2 −(4/49)z2. Fazemos então a mudança de variávelv = y + (2/7)z. Assim,

q1(w, y, z) = 2w2 − 7

2v2 +

2

7z2 − z2 = 2w2 − 7

2v2 − 5

7z2 =: q2(w, v, z).

Se quisermos, ainda podemos fazer a mudança de variávelr = w/√

2, s =(√

2/√

7)v e t = (√

7/√

5)z, assim obtendo

q3(r, s, t) = r2 − s2 − t2.

Note que todas as mudanças de variável feitas são lineares e invertíveis. �

Page 209: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 193 — #209i

i

i

i

i

i

§9.2 Diagonalização de Formas Quadráticas 193

A demonstração dada pode ser adaptada para se provar o Teorema de Lagrangepara formas quadráticas hermitianas (veja o Exercício 13).Apresentaremos, aoinvés, uma demonstração que enfatiza a geometria da situação:

Teorema 9.13Dada uma forma quadráticahermitiana no espaço euclidianocomplexoE de dimensãon, é possível fazer uma mudança de coordenadas linearLx = z de modo que, na nova variávelz, a forma quadráticaq seja diagonal, istoé,

q(L−1z) = d1z1z1 + . . .+ dnznzn = d1|z1|2 + . . .+ dn|zn|2, (9.4)

em quedi ∈ R para todoi = 1, . . . , n.

Demonstração:Suponhamos queq(x) = 〈x,Ax〉, sendoA uma matriz hermitiana.Escolhav1 tal queq(v1) = 〈v1, Av1〉 6= 0. (Seq(x) 6≡ 0, a existência de um talv1

está garantida pela Proposição 8.42.)Consideremos agora o conjuntoW1, formado por todos os vetoresx ∈ E tais

que〈x,Av1〉 = 0. ClaramenteW1 é um subespaço deE. ComoAv1 6= 0, temosentão quedimW1 = n − 1. Seq|W1 6= 0, repetimos o processo e obtemos umvetor v2 tal que〈v2, Av2〉 6= 0 e definimos o espaçoW2 porW2 = 〈x,Avi〉 = 0parai = 1, 2. Se esse processo puder ser repetidon vezes, obtemos então uma base{v1, . . . , vn} deE. Caso contrário, após um númeror de passagens, teremos obtidoo conjunto linearmente independente{v1, . . . , vr} e encontraremos um subespaçoWr, com dimensãon − r > 0, tal queq|Wr

≡ 0. Selecionamos, nesse caso, umabase{vr+1, . . . , vn} desse subespaço. Claramente{v1, . . . , vn} é uma base deE.

Por construção temos〈vi, Avj〉 = 0 parai > j. ComoA é auto-adjunta, segue-se daí〈Avi, vj〉 = 0 = 〈vj, Avi〉 e, portanto,〈vi, Avj〉 = 0 paraj > i. Assim, sex = z1v1 + . . .+ znvn for um vetor arbitrário,

〈x,Ax〉 = 〈z1v1+. . .+znvn, z1v1+. . .+znvn〉 = z1z1〈v1, Av1〉+. . .+znzn〈vnAvn〉.Definindodi = 〈vi, Avi〉, obtemos o resultado. 2

Notamos que, por meio da identidade de polarização, podemosexpressar oTeorema de Lagrange como um resultado sobre formas auto-adjuntas. Veja oExercício 14.

Teorema 9.14Dada uma matrizA ∈Mn×n(K) hermitiana(simétrica), existe umamatrizM ∈Mn×n(K) tal que

M∗AM = D, (9.5)

sendoD uma matriz diagonal.

Page 210: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 194 — #210i

i

i

i

i

i

194 Formas Sesquilineares e Quadráticas Cap. 9

Demonstração:Considerada a mudança de variável linearLx = y que diagonalizaa forma quadrática hermitiana (simétrica)q(x) = 〈x,Ax〉, sejaM = L−1. Entãox = My e

q(x) = 〈x,Ax〉 = 〈My,AMy〉 = 〈y,M∗AMy〉.Claramente,q tem a forma (9.4) (ou (9.3), respectivamente) se, e somente se,

M∗AM for uma matriz diagonal. Isso prova que os Teoremas 9.11 e 9.14 sãoequivalentes. 2

Em muitas aplicações é importante utilizar mudanças de coordenadas tais queos comprimentos euclidianos da velha variável e da nova sejam o mesmo, isto é,

‖v‖2 = ‖z‖2.Em termos da expressão matricialv = Mz, isso significa queM é uma

isometria. Assim, de acordo com o Teorema 8.38,M deve satisfazerM∗M = I.Um dos resultados mais importantes da Matemática garante que, dada uma

forma quadráticaq, é possível diagonalizá-la por meio de uma mudança isométricade coordenadas. Em outras palavras, de modo que tanto(9.5) comoM∗M = Isejam satisfeitas. Veremos isso no próximo capítulo!

9.3 A Lei da Inércia

Se q for uma forma quadrática hermitiana, notamos que a Proposição 8.43garante queq(x) ∈ R para todox ∈ E.

Definição 9.15Dizemos que a forma quadrática hermitiana(simétrica) q épositiva definida(respectivamente,positiva semidefinida) em um subespaçoY ⊂E, seq(x) > 0 (resp.,q(x) ≥ 0) para todo0 6= x ∈ Y . SeY = E, dizemos apenasqueq épositiva definida(resp.,positiva semidefinida).

De maneira análoga, definimos quandoq é negativa definida, negativasemidefinidaetc.

Se existirem pontosx, y ∈ E tais queq(x) > 0 e q(y) < 0, a forma q éindefinida.

Note que, escolhida uma base ortonormalB para o espaçoE, a formaq épositiva definida se, e somente se, a matrizAB for uma matriz positiva definida,tal qual definido no Exercício 19 do Capítulo 8. (Veja também o Exercício 20 desteCapítulo.) Assim, podemos falar de matriz positiva semidefinida, negativa definidaetc.

Page 211: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 195 — #211i

i

i

i

i

i

§9.3 A Lei da Inércia 195

Teorema 9.16 (Lei da Inércia – Sylvester)Independente da escolha da mudança linear de variáveis que diagonaliza uma

forma quadrática simétrica(hermitiana) q, o número de termos positivos, negativose nulos entre os coeficientesdi é sempre o mesmo.

Demonstração:Suponhamos que por meio da mudança linear de variáveisLx = z,a forma quadrática se escreva como

q(L−1z) = d1|z1|2 + . . .+ dn|zn|2. (9.6)

Denotamos porp+, p− ep0 o número de termos positivos, negativos e nulos em(9.6), respectivamente.

Afirmamos que a dimensão do maior subespaço deY ⊂ V no qualq é positivadefinida ép+:

p+ = max dimY, q positiva emY.

Similarmente, afirmamos que a dimensão do maior subespaçoZ ⊂ V no qualq énegativa-definida ép−:

p− = max dimZ, q negativa emY.

Para mostrarmos as afirmações, reordenamos os termosdi de(9.6) de modo queosp primeiros sejam todos positivos, comp = p+.

q(y) = d1y21 + . . .+ dpy

2p + dp+1y

2p+1 + . . .+ dny

2n. (9.7)

Para y = (y1, . . . , yn) ∈ V , seja S+ o subespaço dos vetores da forma(y1, . . . , yp, 0, . . . , 0). Claramenteq é positiva emS+. Isso mostra quep+ ≤max dimY , com q positiva emY . Suponhamos que exista algum subespaçoY com q positiva emY e dimY > p. ClaramenteS+ ⊂ Y . Considere aaplicaçãoπ : Y → S+, π(y) = π(y1, . . . , yn) = (y1, . . . , yp, 0, . . . , 0). ComodimY > dimS+, existey 6= 0 tal queπ(y) = 0. Mas isso implica que asprimeirasp componentes dey são nulas. Mas então, de acordo com(9.7), q(y) ≤ 0,contradição. Analogamente se mostra a afirmação sobrep−.

Desse modo garantimos que os númerosp+, p− e p0 podem ser definidos emtermos deq, independente das coordenadas que colocamq na forma diagonal. Umavez quep+ + p− + p0 = n, isso completa a demonstração. 2

Observação 9.17A Lei da Inércia tem uma conseqüência importante: ela implicaque a natureza de um ponto crítico não é alterada, se for feitauma mudança devariável linear no problema considerado. Assim, um ponto desela continua sendoum ponto de sela após qualquer mudança de coordenadas linear. �

Page 212: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 196 — #212i

i

i

i

i

i

196 Formas Sesquilineares e Quadráticas Cap. 9

9.4 Exercícios

1. SejaX um espaço vetorial. Mostre que o espaço das formasS(X) é umespaço vetorial com as definições usuais de soma de funções e multiplicaçãode função por escalar.

2. SejaB uma forma no espaço vetorialX. Mostre que vale a identidade

qB(x+ y) + qB(x− y) = 2(qB(x) + qB(y)

),

que generaliza a identidade do paralelogramo.

3. SejamX um espaço vetorialreal eB ∈ S(X). Verifique a igualdade

B(x, y) +B(y, x) =1

2

[qB(x+ y)− qB(x− y)

]. (9.8)

(Essa identidade nos mostra que, se a formaB : X ×X → R for simétrica,então o lado esquerdo da equação nos fornece uma expressão para B emtermos deq.)

4. SejaB : R2 × R2 → R definida por

B(x, y) = 3x1y1 − 2x1y2 + 5x2y1 + 7x2y2,

em quex = (x1, x2) ey = (y1, y2).

(a) Mostre queB é uma forma bilinear que não é simétrica. Obtenha aforma quadrática associada aB;

(b) Defina1

B(x, y) =1

4

[qB(x+ y)− qB(x− y)

].

Mostre queB é uma forma bilinear simétrica, que não coincide comB,mas à qual também está associada a forma quadráticaqB.

5. Dê exemplo de uma forma bilinear à qual está associada uma formaquadrática identicamente nula.

1Compare com o Exercício 3.

Page 213: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 197 — #213i

i

i

i

i

i

§9.4 Exercícios 197

6. SejaX um espaço vetorial complexo eB ∈ S(X). Mostre aidentidade depolarização:

B(x, y) =1

4[q(x+ y)− q(x− y)] +

i

4[q(x+ iy)− q(x− iy)].

SeX for real eB for simétrica, então vale:

B(x, y) =1

4[q(x+ y)− q(x− y)].

(Note que as identidades de polarização dadas pelo Lema 8.9 são casosparticulares das identidades anteriores.)

Assim, dada uma forma quadráticaq, definida num espaçocomplexoX,sempre conseguimos recuperar a formaB ∈ S(X) que a define. SeX forum espaçoreal, esse resultado só é válido se soubermos queB é uma formasimétrica. (Compare com o Exercício 4.)

7. SejaE um espaço euclidianocomplexo. Mostre que uma forma sesquilinearB ∈ S(E) é hermitiana se, e somente se, a forma quadráticaq(x) = B(x, x)for real para todox ∈ E.

8. SejamX um espaço vetorial eB : X × X → K uma forma positivasemidefinida. Mostre queqB(y) = 0 se, e somente se,B(x, y) = 0 paratodox ∈ X.

9. SejamX um espaço vetorial eB uma forma positiva semidefinida. Mostre adesigualdade

|B(x, y)| ≤√qB(x)

√qB(y),

que é uma generalização da desigualdade de Cauchy-Schwarz.

10. SejaB uma forma no espaçoX e {x1, . . . , xn} uma base deX. Mostre queB está caracterizada pela matriz(aij), em queaij = B(xi, xj). ExpresseB(x, y) em termos dessa matriz.

11. SejaB uma forma no espaço euclidianoE e B uma base deE. SeA for amatriz que representaB (nessa base), definimos opostodeB como sendo oposto deA.

(a) Mostre que o posto de uma forma está bem definido.

Page 214: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 198 — #214i

i

i

i

i

i

198 Formas Sesquilineares e Quadráticas Cap. 9

(b) SejaB uma forma de posto1 no espaço euclidiano realE. Mostreque existem funcionais linearesf : E → R e g : E → R tais queB(x, y) = f(x)g(y).

12. Se a matriz que representa uma formaB : E × E → K (com relação a umabase ortonormal) for invertível, mostre que, para todox0 ∈ E, existey0 ∈ Etal queB(x0, y0) 6= 0.

13. Mostre o Teorema de Lagrange 9.13 para o caso de formas quadráticashermitianas, adaptando a demonstração apresentada para o caso de formasquadráticas simétricas.

14. Enuncie o Teorema de Lagrange (Teoremas 9.11 e 9.13) comoum resultadosobre a diagonalização de uma forma sesquilinear auto-adjunta.

15. Dada a forma quadráticaax2 + bxy + cy2, encontre a matriz simétrica que arepresenta.

16. Considere a forma quadráticaq : R4 → R definida por

q(x1, x2, x3, x4) = x21 + 6x1x2 + 5x2

2 − 4x1x3 − 12x2x3

+ 4x23 − 4x2x4 − x3x4 − x2

4.

Coloqueq na forma diagonal.

Definição 9.18Duas matrizesA eB emMn×n(K) sãocongruentesse existir umamatriz invertívelM ∈Mn×n(K) tal queA = M∗BM .

17. Mostre que a congruência de matrizes é uma relação de equivalência emMn×n(K).

18. SejamA,B ∈ Mn×n(K) matrizes congruentes. Mostre quedetA > 0 se, esomente se,detB > 0.

19. Mostre que toda matriz simétrica (hermitiana) é congruente a uma matrizdiagonal cujas entradas assumem apenas os valores−1, 0 e1.

20. Mostre que uma forma quadrática simétrica (hermitiana)q(x) = 〈x,Ax〉 épositiva definida no espaço euclidianoE se, e somente se, a matrizAB querepresentaA numa base ortonormalB for positiva definida, tal qual definidono Exercício 19 do Capítulo 8. Verifique o mesmo resultado parauma formanegativa definida, positiva semidefinida etc.

Page 215: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 199 — #215i

i

i

i

i

i

§9.4 Exercícios 199

21. Mostre que uma forma quadrática hermitiana (simétrica)q(x) = 〈x,Ax〉 épositiva definida se, e somente se,A for congruente aI.

22. Faça um diagrama para a relaçãoM∗AM = D em termos de mudanças debases.

Definição 9.19SejaA ∈ Mn×n(K). Para cadar ≤ n, a submatriz(aij),1 ≤ i, j ≤ r ≤ n é a submatriz principaldeA de ordemr, denotada porAr.O determinante deAr é omenor principal de ordemr.

23. Mostre que, se todos os menores principais de uma matriz simétrica(hermitiana)A ∈ Mn×n(K) forem positivos, então a matrizA é positivadefinida.

24. Mostre que todos os menores principais de uma matriz simétrica (hermitiana)A ∈Mn×n(K) positiva definida são positivos.

25. Mostre que uma matriz simétrica (hermitiana)A = (aij) é negativa definidase, e somente se, seus menores principais tiverem sinais alternados, comdetA1 = a11 < 0.

26. SejaX um espaçocomplexo. Além das formas sesquilineares definidas emE, são importantes as formasB : X×X → C tais que para quaisquerα ∈ C

eu1, u2, v1, v2 ∈ E,

(i) B(αu1 + u2, v) = αB(u1, v) +B(u2, v);

(ii) B(u, αv1 + v2) = αB(u, v1) +B(u, v2).

Essas são as formasbilinearesdefinidas emX. Denotaremos porB(X) oconjunto das formas bilineares2 emX. Uma forma bilinear ésimétrica, seB(u, v) = B(v, u), e anti-simétrica, seB(u, v) = −B(v, u) para quaisqueru, v ∈ X.

Verifique as seguintes afirmações:

(a) SejaB = {x1, . . . , xn} uma base deX. Então existe um isomorfismoentre o espaçoB(X) e o espaçoMn×n(C).

2Como o estrutura bilinear não está em acordo com uma estrutura de produto interno num espaçocomplexo, não consideramos aqui espaços euclidianos.

Page 216: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 200 — #216i

i

i

i

i

i

200 Formas Sesquilineares e Quadráticas Cap. 9

(b) SejaB uma base deX e A a matriz que representaB nessa base. AformaB é simétrica se, e somente se, a matrizA for simétrica. A formaB é anti-simétrica se, e somente se,A for anti-simétrica.

(c) O espaçoB(X) é a soma direta dos subespaços das formas simétricas eanti-simétricas.

(d) SejamC uma outra base deX eP = PBC . SeA representar a formaB

na baseB eC representarB na baseC, entãoC = P tAP .

(e) Está bem definido o posto de uma formaB como o posto de uma matrizque representaB. Uma forma bilinearB é não-degeneradase o seuposto for igual àdimX.

(f) SeB for uma forma bilinear simétrica, definindoq(v) = B(v, v), vale

B(u, v) =1

4[q(u+ v)− q(u− v)], (9.9)

chamadaidentidade de polarização.

(g) SeB for uma forma bilinear simétrica, existe uma base deX na qualBé representada por uma matriz diagonal (compare com o Exercício 14).Em particular, dada uma matriz simétricaA ∈ Mn×n(C), existe umamatriz invertívelP ∈Mn×n(C) tal queP tAP é diagonal.

(h) SejaB uma forma bilinear não-degenerada. Mostre que a cada operadorT : X → X está associado um único operadorT ′ tal queB(Tx, y) =B(x, T ′y). Vale: (T1T2)

′ = T ′2T

′1; (cT1 + T2)

′ = cT ′1 + T ′

2; (T ′)′ = T .

(i) SejaB uma forma bilinear anti-simétrica. Então o posto deB é par e,nesse caso,B pode ser representada por uma matriz diagonal em blocos

(0 J

−J 0

),

em queJ é a matriz quadrada

0 . . . 0 10 . . . 1 0... .. .

......

1 . . . 0 0

.

(j) Enuncie e demonstre um resultado análogo ao do item(h) para umaforma bilinear anti-simétrica.

Page 217: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 201 — #217i

i

i

i

i

i

10Teoria Espectral Euclidiana

Alguns dos resultados mais importantes da Álgebra Linear emespaçoseuclidianos serão vistos neste Capítulo: a diagonalização de operadores auto-adjuntos e normais e as decomposições polar e em valores singulares de umoperador.

10.1 Operadores auto-adjuntos

Lema 10.1 SejamE um espaço euclidiano eH : E → E um operador auto-adjunto. Então:

(i) H possui apenas autovalores reais;

(ii) autovetores correspondentes a autovalores distintos são ortogonais.

Demonstração:Considerando a complexificação deH, podemos supor queE sejaum espaço complexo. Sejax um autovetor associado ao autovalorλ deH. Então

λ〈x, x〉 = 〈λx, x〉 = 〈Hx, x〉 = 〈x,Hx〉 = 〈x, λx〉 = λ〈x, x〉,

de modo que(λ− λ)〈x, x〉 = 0. Isso mostra queλ = λ e prova(i).Sejamx, y autovetores associados aos autovalores distintosλ, µ ∈ R. Então

λ〈x, y〉 = 〈Hx, y〉 = 〈x,Hy〉 = 〈x, µy〉 = µ〈x, y〉,

de modo que(λ− µ)〈x, y〉 = 0.

Comoλ 6= µ, isso implicax ⊥ y, completando a prova. 2

201

Page 218: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 202 — #218i

i

i

i

i

i

202 Teoria Espectral Euclidiana Cap. 10

Teorema 10.2 (Espectral dos Operadores Auto-adjuntos)SejamE um espaço euclidianocomplexo e H : E → E um operador

hermitiano(isto é, auto-adjunto). Então os autovetores deH formam uma baseortogonal deE.

Demonstração: De acordo com o Teorema Espectral 7.3,1 os autovetoresgeneralizados deH geram o espaçoE. Para mostrarmos o afirmado, precisamosmostrar queE possui uma base formada por (autênticos) autovetores deH. Defato, nesse caso, podemos aplicar o processo de ortogonalização de Gram-Schmidte obter bases ortogonais para os subespaços invariantes associados a cada autovalor.Em virtude do Lema 10.1, esses espaços são ortogonais, de modo que teremosuma base ortogonal formada por autovetores deH. (Assim, como conseqüênciado Teorema 5.7,H será representado, nessa base, por uma matriz diagonal.)

Suponhamos quex seja um autovetor generalizado deH associado ao autovalorλ. Então(H−λI)dx = 0 para algumd ∈ N. Queremos mostrar que(H−λI)x = 0.Suponhamos inicialmente qued = 2. Então, tomando o produto interno comx,obtemos

0 = 〈(H − λI)2x, x〉 = 〈(H − λI)x, (H − λI)x〉 = ‖(H − λI)x‖2.

Mas isso implica que(H − λI)x = 0, como desejado.2

Sed > 2, reescrevemos(H − λI)dx = 0 como(H − λI)2(H − λI)d−2x = 0.Definindow = (H − λI)d−2x, podemos concluir que(H − λI)w = 0, ou seja,(H − λI)d−1x = 0. Por indução, chegamos ao resultado desejado. 2

O próximo resultado é apenas uma reformulação do Teorema 10.2 em termos dematrizes. De fato, normalizando a base ortogonal dada pelo Teorema 10.2, obtemosentão uma matriz cujas colunas formam uma base ortonormal. (Veja o Exercício 26do Capítulo 8.)

Teorema 10.3SejaH uma matriz complexa auto-adjunta. Então existem umamatriz unitáriaU e uma matriz diagonalD tais que

U∗HU = D.

A versão do Teorema 10.2 para operadores simétricos é a seguinte:

1Veja a página 204 para uma prova alternativa do Teorema 10.2,sem a utilização de resultadosdo Capítulo 7.

2Considerando a forma canônica de Jordan, esse resultado já implica(b).

Page 219: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 203 — #219i

i

i

i

i

i

§10.1 Operadores auto-adjuntos 203

Teorema 10.4SejaH : E → E um operador simétrico no espaço euclidianorealE. Então existe uma base ortonormal deE formada por autovetores deH.

Demonstração:Considerando a complexificaçãoHC : EC → EC, a expressão

HCx = λx (10.1)

e o fato dos autovalores deH serem reais implicam que as partes real e imagináriadex satisfazem(10.1). Como ao menos uma dessas partes é não-nula, obtemos umautovetor real deHC associado a cada autovetor complexo. 2

Observação 10.5Utilizando o Teorema 10.2 (respectivamente, a demonstração de10.4), podemos apresentar uma demonstração alternativa doTeorema 9.13 (resp.,9.11). Como já vimos, obtemos uma base ortonormal formada porautovetores(complexos ou reais, conforme o caso) deH. SejaB = {v1, . . . , vn} essa baseortonormal deE. Sev ∈ E, consideremos sua representaçãoz = (z1 z2 . . . zn) nabaseB (quer dizer,z = [v]B):

v = z1v1 + z2v2 + . . .+ znvn. (10.2)

Então

‖v‖2 = 〈v, v〉 =n∑

i=1

|zi|2 = ‖z‖2. (10.3)

AplicandoH em(10.2), obtemos

Hv = λ1z1v1 + . . .+ λnznvn, (10.4)

em queλi é o autovalor associado ao autovetorvi.Substituindo(10.2) e (10.4) emq(v) = 〈v,Hv〉, vemos que

q(v) = λ1|z1|2 + . . .+ λn|zn|2.

Essa expressão mostra que a nova variávelz diagonaliza a forma quadráticahermitiana (simétrica)q, sendoλ1, . . . , λn os autovalores deH. Combinando como Teorema 9.14, vemos que

P ∗HP = D.

A equação(10.3) mostra queP é uma isometria e, portanto,P ∗ = P−1. �

Page 220: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 204 — #220i

i

i

i

i

i

204 Teoria Espectral Euclidiana Cap. 10

Demonstração alternativa dos Teoremas 10.2 e 10.4: SejaH : E → E umoperador auto-adjunto no espaço euclidiano (real ou complexo) E. Faremos ademonstração por indução na dimensão do espaçoE, o casodimE = 1 sendotrivial. Suponhamos o resultado válido para espaços de dimensãon− 1 e considereum espaçoE de dimensãon.

Seja λ um autovalor deH (que sabemos ser real) ex um autovetorcorrespondente. Considere a decomposiçãoE = < x > ⊕ < x >⊥. De acordocom a Proposição 8.31,W = < x >⊥ é invariante porH. Como a restrição deHao subespaço(n− 1)-dimensionalW é um operador auto-adjunto (veja o Exercício29 do Capítulo 8), o resultado está demonstrado. 2

Uma conseqüência importante dos Teoremas 10.2 e 10.4 diz respeito aoperadores auto-adjuntos que comutam:

Proposição 10.6 (Diagonalização simultânea de operadoresauto-adjuntos)SejamH,K : E → E operadores auto-adjuntos. EntãoHK = KH se, e

somente se, os auto-espaços deH forem invariantes porK. Nesse caso, existeuma base ortonormal deE formada por elementos que são, ao mesmo tempo,autovetores deK eH.

Demonstração:Suponhamos que os operadores comutem. Seja

E = Eλ1 ⊕ · · · ⊕ Eλj

a decomposição deE em termos dos auto-espaçosEλiassociados aos autovalores

distintos λ1, . . . , λj de H. Assim, sew ∈ Eλi, entãoHw = λiw. Logo,

H(Kw) = KHw = λi(Kw), mostrando queKw ∈ Eλi.

Consideramos, então, o operador auto-adjunto (justifique!)K : Eλi→ Eλi

eaplicamos o Teorema 10.2 (ou o Teorema 10.4). Obtemos então uma base deEλi

formada por autovetores deK. Como todo elemento deEλié um autovetor deH,

obtivemos assim uma base ortogonal desse espaço formada porautovetores tanto deK quanto deH. Aplicamos então esse processo a cada auto-espaçoEλi

.Reciprocamente, acabamos de mostrar queH e K são simultaneamente

diagonalizáveis. Como as representações diagonais desses operadores comutamcom relação a uma base ortonormal formada por autovetores deH eK, o mesmoacontece com esses operadores. 2

Note que o resultado anterior pode ser generalizado para qualquer número deaplicações auto-adjuntas que comutem duas a duas.

Page 221: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 205 — #221i

i

i

i

i

i

§10.1 Operadores auto-adjuntos 205

Reapresentamos a definição de forma quadrática hermitiana (simétrica)positivadefinida(Seção 9.3) em termos de operadores:

Definição 10.7Um operador linear auto-adjuntoH : E → E é positivosemidefinidose〈Hx, x〉 ≥ 0 para todox ∈ E. Nesse caso, escrevemosH ≥ 0.Quando〈Hx, x〉 > 0 para todox 6= 0, escrevemosH > 0 e dizemos queH épositivo definido.

Também se usa a nomenclaturapositivopara um operador positivo definido enão-negativopara um operador positivo semidefinido. Preferimos reservar o termopositivo para outra classe de operadores: aqueles associados ao Teorema de Perron(veja a Definição 6.17).

Exemplo 10.8 SejamE,F espaços euclidianos eT : E → F um operador linear.Como sua adjunta é uma aplicação deF paraE, existe a compostaT ∗T : E → E,que é auto-adjunta e positiva semidefinida. De fato,

(T ∗T )∗ = T ∗(T ∗)∗ = T ∗T e 〈T ∗Tx, x〉 = 〈Tx, Tx〉 ≥ 0.�

Lema 10.9 SejaE um espaço euclidiano. Um operador auto-adjuntoH : E → Eé positivo semidefinido se, e somente se, seus autovalores forem todos maiores doque ou iguais a zero. O operadorH é positivo definido se, e somente se, todos osseus autovalores forem positivos.

Demonstração: Se H ≥ 0 e Hx = λx, entãoλ〈x, x〉 = 〈Hx, x〉 ≥ 0.Reciprocamente, comoH é auto-adjunto, existe uma base ortonormal formada porautovetores:Hxi = λixi, parai = 1, . . . , n. Sex = α1x1 + . . .+ αnxn, então

〈Hx, x〉 =

⟨n∑

i=1

αiHxi,

n∑

i=1

αixi

⟩=

n∑

i=1

λi|αi|2 ≥ 0.

A segunda afirmação decorre da demonstração apresentada. 2

Já vimos que operadores cujos autovalores são maiores do queou iguais a zeropossuem raiz quadrada real (isto é, existe um operadorS tal queS2 = T ), desde que0 compareça no polinômio mínimo com multiplicidade no máximoigual a1 (vejaa Subseção 6.4.4). Agora apresentaremos uma situação em quepodemos assegurara unicidade da raiz quadrada.

Page 222: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 206 — #222i

i

i

i

i

i

206 Teoria Espectral Euclidiana Cap. 10

Teorema 10.10 (Unicidade da Raiz Quadrada)SejamE um espaço euclidiano eH : E → E um operador auto-adjunto

e positivo semidefinido. EntãoH possui umaúnica raiz quadrada positivasemidefinidaP : E → E.

Demonstração:Consideremos a decomposição deE como soma direta ortogonalde autoespaços deH: E = Eλ1 ⊕ · · · ⊕ Eλk

, em queλ1, . . . , λk são os autovaloresdistintos deH. Se x = x1 + . . . + xk ∈ Eλ1 ⊕ · · · ⊕ Eλk

, entãoHx =λ1x1+ . . .+λkxk. DefinimosPx =

√λ1x1+ . . .+

√λkxk. ClaramenteP 2x = Hx,

mostrando queP é uma raiz quadrada deH. O Lema 10.9 garante queP é positivosemidefinido. (Note que definimos diretamente a raiz quadrada deT , sem apelarpara os resultados de 6.4.4. O Exercício 15 pede que você façaisso usando o cálculofuncional.)

Para mostrarmos a unicidade, notamos inicialmente que todaraiz quadradaQdeH comuta comH: QH = QQ2 = Q2Q = HQ. Assim, cada auto-espaço deH é invariante porQ (pelo Teorema 10.6) e o Teorema da Imagem do Espectro7.1 garante que o único autovalor deQ em cada auto-espaçoEλi

é√λi. (Estamos

usando apenas a versão polinomial daquele Teorema!) Assim,Q coincide comPem cada subespaçoEλi

e, por conseguinte, no espaço inteiroE. 2

Demonstração alternativa do Teorema 10.10:De acordo com o Teorema 10.6, seQ também satisfizerQ2 = H, entãoQ eH são simultaneamente diagonalizáveispor base ortonormal formada por autovetores deH, como vimos no início dademonstração anterior. Nessa base, seλ1, . . . , λn forem os autovalores deH,

H =

λ1 0 · · · 00 λ2 · · · 0...

.... ..

...0 0 · · · λn

e Q =

µ1 0 · · · 00 µ2 · · · 0...

.... ..

...0 0 · · · µn

.

ComoQ2 = H, devemos terµi =√λi. O mesmo argumento se aplica aP . Assim,

os autovalores deP eQ coincidem. Como os auto-espaços deH são invariantestanto porP quanto porQ, segue-se daí queQ = P . 2

10.2 Princípios de Minimax para os Autovalores

(Esta Seção pode ser omitida sem prejuízo para o restante do texto. Elaapresenta ainda um outro método para se provar os Teoremas 10.2 e 10.4 que

Page 223: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 207 — #223i

i

i

i

i

i

§10.2 Princípios de Minimax para os Autovalores 207

nos permite, em particular, provar a existência de autovalores e autovetores deum operador auto-adjunto sem termos que apelar para o Teorema Fundamental daÁlgebra. Isso é fundamental em espaços de dimensão infinita.)

Demonstração alternativa dos Teoremas 10.2 e 10.4:A função contínuaψ :E → R definida porψ(x) = 〈Hx, x〉 assume um máximo no conjunto compacto3

K := {x ∈ E | ‖x‖ = 1}. Sejax1 esse ponto de máximo eλ1 o valor deψ nesseponto. Então, para todox ∈ E, vale

〈(H − λ1I)x, x〉 = ‖x‖2⟨

(H − λ1I)x

‖x‖ ,x

‖x‖

⟩= ‖x‖2

(⟨H

x

‖x‖ ,x

‖x‖

⟩− λ1

)

≤ 0,

mostrando que ⟨(H − λ1I)x, x

⟩≤ 0 ∀ x ∈ E. (10.5)

Decorre daí, ao escolhermosx = x1 + ty comt ∈ R ey ∈ E, que

t2⟨(H − λ1I)y, y

⟩+ 2t

⟨(H − λ1I)x1, y

⟩≤ 0.

Verificamos assim que o discriminante dessa equação do segundo grau é menor doque ou igual a zero. Quer dizer,

⟨(H − λ1I)x1, y

⟩= 0 para todoy ∈ E e, portanto,

(H − λ1I)x1 = 0. Mostramos assim a existência de um autovalorλ1 e de umautovetorx1 deH.

Consideremos agora o complementar ortogonalE1 do espaço gerado porx1,que tem dimensãon− 1. Pela Proposição 8.31,E1 é invariante porH e a restriçãodeH a este subespaço é auto-adjunta. Por indução, podemos suporqueH|E1 possuiuma base ortonormal formada por autovetores deH. Isso completa a prova. 2

A expressão〈Hx, x〉‖x‖2 =

⟨H

(x

‖x‖

),x

‖x‖

é oquociente de Rayleigh.

Teorema 10.11 (Princípio do Minimax)SejamH : E → E um operador auto-adjunto definido no espaço euclidianoE

eλ1 ≤ λ2 ≤ · · · ≤ λn os autovalores deH. Então

λj = mindim S=j

(max

x∈S, ‖x‖=1〈Hx, x〉

),

3Veja o Apêndice F.

Page 224: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 208 — #224i

i

i

i

i

i

208 Teoria Espectral Euclidiana Cap. 10

em queS é um subespaço deE.

Demonstração:Consideremos um subespaçoS ⊂ E arbitrário, com dimensãoj.Inicialmente vamos mostrar que

maxx∈S, ‖x‖=1

〈Hx, x〉 ≥ λj, (10.6)

de onde concluímos quemindim S=j

(max

x∈S, ‖x‖=1〈Hx, x〉

)≥ λj.

Sejam{x1, . . . , xn} uma base ortonormal de autovetores deH correspondentesaos autovaloresλ1, . . . , λn eU o espaço gerado pelos vetoresx1, . . . , xj−1. Comodim(S ∩ U) ≤ (j − 1) e dim(S) = j, existex ∈ S que é perpendicular a todosos vetores deU . Quer dizer,x = αjxj + . . . + αnxn para escalaresαj, . . . , αn.Podemos supor que1 = ‖x‖2 =

∑ni=j |αi|2 = 1. Assim,

〈Hx, x〉 =n∑

i=j

λi|αi|2 ≥ λj

n∑

i=j

|αi|2 = λj,

mostrando(10.6).Para completarmos a prova, basta mostrarmos um subespaçoS de dimensão

j no qualλj ≥ 〈Hx, x〉 para todox ∈ S com ‖x‖ = 1. SejaS gerado porx1, . . . , xj. Entãox = α1x1 + . . .+ αjxj para todox ∈ S e, portanto, supondo que1 = ‖x‖2 =

∑ji=1 |αi|2 = 1, vemos que

〈Hx, x〉 =

j∑

i=i

λi|αi|2 ≤ λj

j∑

i=1

|αi|2 = λj.

A demonstração está completa. 2

10.3 Operadores Normais

Relembramos que um operadorA : E → E é antiauto-adjunto, seA∗ = −A.De acordo com a Proposição 8.30, temos

(−iA)∗ = iA∗ = −iA,

mostrando que−iA é um operador auto-adjunto. Decorre imediatamente doTeorema 10.2:

Page 225: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 209 — #225i

i

i

i

i

i

§10.3 Operadores Normais 209

Teorema 10.12SejaA : E → E um operador antiauto-adjunto no espaçoeuclidiano complexoE. Então:

(i) os autovalores deA são iguais a zero ou imaginários puros;

(ii) existe uma base ortonormal deE consistindo de autovetores deA.

Demonstração: Considere uma base ortonormal{x1, . . . , xn} formada porautovetores de−iA associados aos autovaloresλ1, . . . , λn. Então(−iA)xj = λjxj,comλj ∈ R. Seλj 6= 0, então

Axj = (iλj)xj,

mostrando queA tem os mesmos autovetores de−iA e que a cada autovalorλj

não-nulo de−iA está associado o autovalor imaginário(iλj) deA. 2

Agora mostramos a teoria espectral de operadores normais emespaçoseuclidianos complexos.

Teorema 10.13Um operador linearN : E → E definido no espaço euclidianocomplexoE possui uma base ortonormal consistindo de autovetores se, esomentese, for normal.

Demonstração:Suponhamos queN seja normal. Uma vez queN eN∗ comutam,o mesmo acontece com

H :=N +N∗

2e A :=

N −N∗

2.

Os operadoresH e N são auto-adjunto e antiauto-adjunto, respectivamente.Aplicamos então o Teorema 10.2 e a Proposição 10.6 aos operadoresH e −iA:existe uma base ortonormal formada por autovetores tanto deH quanto de−iA e,assim, por autovetores tanto deH quanto deA. Como

N = H + A,

vemos que essa base é formada por autovetores deN . Note que, segundo osTeoremas 10.2 e 10.12, seHv = av e Av = (ib)v (com a, b ∈ R), entãoNv = Hv + Av = (a+ bi)v.

Page 226: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 210 — #226i

i

i

i

i

i

210 Teoria Espectral Euclidiana Cap. 10

Suponhamos agora a existência de uma base ortonormalB consistindo deautovetores deN . SeN for representado nessa base por

NB =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

,

entãoN∗ é representado nessa base por

N∗B =

λ1 0 · · · 0

0 λ2 · · · 0...

.... . .

...0 0 · · · λn

.

Como essas matrizes são diagonais, elas comutam. Mas isso implica queN eN∗

comutam. 2

Note que, em particular, mostramos que autovetores associados a autovaloresdistintos de um operador normal são ortogonais. Uma demonstração alternativa doTeorema 10.13 é sugerida nos exercícios deste Capítulo.

Aplicando o Teorema 10.13 obtemos:

Teorema 10.14SejaU : E → E uma aplicação unitária definida no espaçoeuclidiano complexoE. Então:

(i) Existe uma base ortonormal formada por autovetores deU ;

(ii) Os autovalores deU tem valor absoluto igual a1.

Demonstração: ComoU∗U = I, U tem inversaU−1 = U∗. Isso implica queUé normal, possuindo assim uma base ortonormal formada por seus autovetores. Seλ for um autovetor deU associado ao autovalorv, então‖Uv‖ = ‖λv‖ = |λ| ‖v‖.ComoU é isométrica,|λ| = 1. 2

Teorema 10.15 (Resolução Espectral dos Operadores Normais)SejamE um espaço euclidiano complexo eN : E → E um operador

normal, com autovalores distintosλ1, . . . , λk. SejaEλjo auto-espaço associado

Page 227: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 211 — #227i

i

i

i

i

i

§10.3 Operadores Normais 211

ao autovalorλj, para1 ≤ j ≤ k. Seπj : E → Eλjdenotar a projeção ortogonal

sobreEλj, então

I =k∑

j=1

πj e N =k∑

j=1

λjπj.

As projeções ortogonaisπj satisfazem

πiπj = 0, sei 6= j, π2j = πj e π∗

j = πj.

Demonstração:De acordo com o Teorema 10.13, vale

E = Eλ1 ⊕ · · · ⊕ Eλk,

em que os espaçosEλjsão ortogonais dois a dois. Em outras palavras,

x = x1 + . . .+ xk, xj ∈ Eλj, (10.7)

com xi ⊥ xj parai 6= j. Definimos entãoπj(x) = xj. Claramenteπj é umaaplicação linear, satisfazendoπ2

j = πj e πiπj = 0 se i 6= j. A expressão(10.7)pode ser escrita como

I =k∑

j=1

πj.

Aplicando o operadorN em (10.7), como os elementos não-nulos deEλjsão

autovetores associados ao autovalorλj, obtemos

Nx = Nx1 + . . .+Nxk = λ1x1 + . . .+ λkxk =k∑

j=1

λjπj(x).

Falta apenas mostrar que as projeçõesπj são auto-adjuntas. Sey = y1 + . . . + yk

comyj ∈ Eλj, então

〈πjx, y〉 =

⟨xj,

k∑

i=1

yi

⟩=

k∑

i=1

〈xj, yi〉 = 〈xj, yj〉

=k∑

i=1

〈xi, yj〉 =

⟨k∑

i=1

xi, yj

⟩= 〈x, πjy〉,

devido à ortogonalidade dos espaços envolvidos. 2

Page 228: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 212 — #228i

i

i

i

i

i

212 Teoria Espectral Euclidiana Cap. 10

Corolário 10.16 SejamE um espaço euclidiano complexo eM,N : E → Eoperadores,N sendo normal. Todo auto-espaço deN é invariante porM se, esomente se,NM = MN .

Demonstração:SeNM = MN , repetindo o argumento em 10.6, vemos que todoauto-espaço deN é invariante porM . Por outro lado, o Teorema 10.15 garante aexistência da decomposição espectralN =

∑j λjπj, sendoπj a projeção ortogonal

associada ao auto-espaçoEλjdeN . Em virtude da Proposição 5.10, temos que

Mπj = πjM . Mas entãoMN =∑

j λjMπj =∑

j λjπjM = NM . 2

Observação 10.17Uma maneira alternativa de se verificar queNM = MNimplica que os auto-espaços do operador normalN são invariantes porM é aseguinte: de acordo com o Teorema Espectral 7.3, as projeções ortogonais deNsão polinômios emN . Assim, seM comuta comN , comuta também com essasprojeções. Mas então o resultado decorre da Proposição 5.10. �

Utilizando o Exercício 29 do Capítulo 8 e o Corolário 10.16, a prova do próximoresultado repete inteiramente a demonstração de 10.6 e podeser generalizada paravários operadores normais que comutam dois a dois:

Proposição 10.18 (Diagonalização simultânea de operadores normais)SejamM,N : E → E operadores normais definidos no espaço euclidiano

complexoE. EntãoMN = NM se, e somente se, existir uma base ortonormal deE formada por elementos que são, ao mesmo tempo, autovetores deM eN .

10.4 Operadores Normais em Espaços Reais

Agora obteremos a representação de operadores normais em espaçoseuclidianos reais.

Começamos com uma observação: considerado um espaço euclidiano realE,então

〈u1 + iv1, u2 + iv2〉 := (〈u1, u2〉+ 〈v1, v2〉) + i(〈v1, u2〉 − 〈u1, v2〉)

define um produto interno emEC, que satisfaz

〈u+ iv, u+ iv〉 = 〈u, u〉+ 〈v, v〉.

Page 229: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 213 — #229i

i

i

i

i

i

§10.4 Operadores Normais em Espaços Reais 213

Lema 10.19 SejaT : E → E um operador definido no espaço euclidiano realE.EntãoT ∗

C(u + iv) = T ∗u + iT ∗v. Portanto, a complexificação de um operador

normal(respectivamente, auto-adjunto e antiauto-adjunto) é um operador normal(respectivamente, auto-adjunto e antiauto-adjunto).

Demonstração:Sejams, t, u, v ∈ E. Então

〈TC(u+ iv), s+ it〉 = 〈TC(u+ iv), s〉 − i〈TC(u+ iv), t〉= 〈Tu+ iTv, s〉 − i〈Tu+ iTv, t〉= 〈u, T ∗s〉+ i〈v, T ∗s〉 − i〈u, T ∗t〉+ 〈v, T ∗t〉= 〈u+ iv, T ∗s+ iT ∗t〉.

Está assim mostrado queT ∗C(u + iv) = T ∗u + iT ∗v. SeN : E → E for normal,

então

NCN∗C(u+ iv) = NN∗u+ iNN∗v = N∗Nu+ iN∗Nv = N∗

CNC(u+ iv)

prova a afirmação sobre operadores normais. As outras são imediatas. 2

Teorema 10.20SejamE um espaço euclidiano real eN : E → E um operadornormal. Então, existe uma base ortonormal deE na qualN é representado poruma matriz diagonal em blocos, com blocos diagonaisA1, . . . , Ak, sendo

Aj = λj ∈ R ou Aj =

(αj βj

−βj αj

),

o último caso ocorrendo quandoλj = αj +iβj for um autovalor da complexificaçãoNC : EC → EC.

Demonstração:Já vimos que a complexificaçãoNC deN é uma aplicação normal.De acordo com o Teorema 10.13,NC possui uma base formada por autovetoresnormais. O argumento apresentado na primeira prova do Teorema 10.4 mostra queos autovalores reais deNC podem ser associados a autovetores reais. Sey = u+ ivfor um autovetor deNC associado ao autovalor complexoλ = α+ iβ, entãoy é umautovetor deNC associado ao autovalorλ (como se verifica imediatamente). Assim,obtemos uma decomposição ortogonal deEC na forma

E = < x1 > ⊕ · · ·⊕ < xk >

⊕(< y1 > ⊕ < y1 >)⊕ · · · ⊕ (< yℓ > ⊕ < yℓ >), (10.8)

Page 230: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 214 — #230i

i

i

i

i

i

214 Teoria Espectral Euclidiana Cap. 10

em quex1, . . . , xk são autovetores reais deNC (e, portanto, deN ), y1, y1, . . . , yℓ, yℓ

são autovetores associados aos autovalores complexos deNC.Consideremos um autovetory = u+ iv deNC associado ao autovalor complexo

λ = α + iβ. Então{u, v} é uma base do subespaço< y > ⊕ < y > em (10.8).(Repetimos essa argumentação, para comodidade do leitor:u, v ∈ < x > ⊕ < x >e geram essa soma direta; logo, formam uma base.) Temos queu ⊥ v emE. Defato, comou− iv também é um autovetor deNC (associado a um autovalor distintodaquele deu+ iv),

0 = 〈u+ iv, u− iv〉 = ‖u‖2 + i〈u, v〉+ i〈v, u〉 − ‖v‖2.A igualdade anterior mostra que‖u‖ = ‖v‖ e também que

u ⊥ v.

Normalizando os vetores escolhidos, obtemos uma base ortonormal.Finalmente, como

NCu+ iNCv = (αu− βv) + i(βu+ αv),

a representação matricial da restrição deNC ao subespaço< y > ⊕ < y > é(

α β−β α

).

Assim, a representação deNC numa base assim construída tem a forma afirmadano teorema. Como a base utilizada é formada por vetores reais,a representação deN coincide com a deNC nessa base. 2

Note que a demonstração do Teorema 10.20 foi uma conseqüência imediata defatos mostrados anteriormente, que foram relembrados no decorrer de sua prova.

O seguinte corolário decorre dos Teoremas 10.12 e 10.20 (pois acomplexificação de um operador antiauto-adjunto é um operador antiauto-adjunto):

Corolário 10.21 SejaA : E → E um operador antisimétrico definido no espaçoeuclidiano realE. Existe uma base ortonormal deE na qualA é representado poruma matriz diagonal em blocos, com blocos diagonaisA1, . . . , Ak, sendo

Aj = 0 ∈ R ou Aj =

(0 βj

−βj 0

),

o último caso ocorrendo quandoλj = 0 + iβj for um autovalor da complexificaçãoNC : EC → EC.

Page 231: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 215 — #231i

i

i

i

i

i

§10.4 Operadores Normais em Espaços Reais 215

Teorema 10.22SejaT : E → E um operador ortogonal definido no espaçoeuclidiano realE. Então existe uma base ortonormalB na qualT é uma matrizdiagonal em blocos, com blocos diagonais iguais a1,−1 e blocos2× 2 da forma

(cos θ sen θ−sen θ cos θ

).

Demonstração: ComoT é normal, o Teorema 10.20 mostra a existência de umabase ortonormal com blocos de tamanho1× 1 ou2× 2.

O Teorema 10.14 garante que os autovalores deT têm valor absoluto igual a1.ComoT é uma isometria, a imagem de uma base ortonormal é uma base ortonormal.Isso mostra que cada coluna das matrizes diagonais2× 2 devem ter norma1. Mas,de acordo como o Teorema 10.20, essa matriz tem a forma

(α β−β α

).

Comoα2 + β2 = 1, podemos escrever essa matriz na forma(

cos θ sen θ−sen θ cos θ

).

2

Corolário 10.23 Todo operador ortogonal definido num espaço euclidiano dedimensão ímpar possui um autovalor real.

Para interpretarmos geometricamente a imagem de operadores normais emespaços euclidianos reais, começamos por considerar um dosbloco presentes narepresentação matricial de um operador ortogonal:

(cos θ sen θ−sen θ cos θ

).

Quando submetidas a mudanças de bases ortonormais, matrizes desse tipopreservam a sua forma ou são transformadas em matrizes

(cos θ −sen θsen θ cos θ

)=

(cos(−θ) sen (−θ)−sen (−θ) cos(−θ)

).

(Veja o Exercício 31.)

Page 232: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 216 — #232i

i

i

i

i

i

216 Teoria Espectral Euclidiana Cap. 10

Tais matrizes correspondem a rotações nos espaços bidimensionais associadosaos pares de autovalores complexos conjugadosλ, λ. (Compare com o Exemplo3.5.)

Nos espaços associados a autovalores reais, um operador ortogonal age comoa identidadeI ou como−I. A presença do autovalor−1 garante a existência deumareflexãocom relação à direção do autovetor que satisfazTx = −x. Matrizesdiagonais com todas as suas entradas diagonais iguais a1, exceto uma, que é iguala −1, são chamadasreflexões simples. Do mesmo modo, matrizes diagonais embloco com todos os blocos diagonais iguais a1, exceto um bloco2 × 2, que entãocorresponde a uma rotação, são chamadasrotações simples. É fácil verificar quetodo operador ortogonal é o produto de rotações simples e reflexões simples.

Consideremos um operador anti-simétrico. Os autovetores correspondentes aoautovalor0 pertencem ao núcleo do operador. O bloco

(0 β−β 0

)

corresponde a uma rotação (no sentido anti-horário) de um ânguloπ seguida de umaalteração de tamanho correspondente à multiplicação porβ. (Seβ < 0, temos umareflexão.)

Uma vez que um operador simétrico é diagonalizável, ele produz alterações detamanho (correspondentes à multiplicação pelo autovalorλ) em todas as direçõescorrespondentes aos seus autovetores.

Finalmente, consideremos um bloco(

α β−β α

)

de um operador normal. Uma vez que(

α β−β α

)=√α2 + β2

(cos θ −sen θsen θ cos θ

),

vemos que esse bloco é a combinação de uma rotação com uma alteração detamanho, correspondente à multiplicação pelo fator

√α2 + β2.

10.5 Valores Singulares

Dado um operadorT : X → X definido no espaço de dimensão finitaX,vimos que a sua representação matricialTB com relação a uma baseB deX nem

Page 233: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 217 — #233i

i

i

i

i

i

§10.5 Valores Singulares 217

sempre é diagonalizável, a forma canônica de Jordan nos indicando qual a formamais simples que esse operador pode assumir.

Se permitirmos a utilização de bases distintas no domínio e contradomínio, arepresentação matricialT C

B de todo operadorT : X → X pode ser bem simples.(Compare com o Exercício 39 do Capítulo 3.)

A utilização de bases distintas no domínio e contradomínio permite tambémconsiderarmos aplicações linearesT : X → Y com domínio e contradomíniodistintos. Restringiremos a nossa apresentação ao caso em queX eY são espaçoseuclidianos. (O leitor interessado no caso geral pode consultar, por exemplo, [25].)

Para introduzirmos a decomposição de uma aplicaçãoT : X → Y em valoressingulares, começamos com o seguinte exemplo:

Exemplo 10.24A matriz

A =

(2 0 00 1 0

)

levaS2 := {w ∈ R3 | ‖w‖ = 1} na elipse

x2

4+ y2 = 1.

De fato, o pontow = (x, y, z) ∈ R3 é levado no ponto(2x, y) ∈ R2. Esse últimoclaramente satisfaz a equação da elipse dada.

-A

-

6

x

y

Figura 10.1:A matrizA transforma a esferaS2 ⊂ R3 em uma elipse noR2.

Mostraremos que toda aplicação linearT : Rn → Rm tem comportamentosemelhante àquele apresentado no Exemplo 10.24:T transforma a esfera unitáriaSn−1 = {x ∈ Rn | ‖x‖ = 1} ⊂ Rn em um elipsóidek-dimensional no espaçoRm.

Page 234: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 218 — #234i

i

i

i

i

i

218 Teoria Espectral Euclidiana Cap. 10

Teorema 10.25 (Decomposição de Aplicações em Valores Singulares)SejamE,F espaços euclidianos eT : E → F uma aplicação linear de posto

r. Então existem bases ortonormaisB = {v1, . . . , vn} deE e C = {w1, . . . , wm}deF tais que

Tvi = µiwi para i ∈ {1, . . . , r}, comµi > 0 (10.9)

Tvi = 0 para i ∈ {r + 1, . . . , n}, (10.10)

T ∗wi = µivi para i ∈ {1, . . . , r}, (10.11)

T ∗wi = 0 para i ∈ {r + 1, . . . ,m}. (10.12)

Denotando porD1 a matriz diagonalr × r

D1 =

µ1

µ2

. . .µr

,

a representaçãoT CB é, portanto, a matrizm× n

D = T CB =

(D1 00 0

).

Os escalaresµ1, . . . , µr são osvalores singularesda aplicação linearT : E → F .

Demonstração:O Exemplo 10.8 mostra queT ∗T : E → E é um operador positivosemidefinido. TemoskerT = ker(T ∗T ). De fato,

Tv = 0⇔ 〈Tv, Tu〉 = 0 ∀ u ∈ E ⇔ 〈T ∗Tv, u〉 ∀ u ∈ E ⇔ T ∗Tv = 0.

Isso mostra queposto(T ∗T ) = n− dim(kerT ∗T ) = n− dim(kerT ) = r.Uma vez queT ∗T é um operador auto-adjunto, o Teorema 10.2 (ou o Teorema

10.4) garante a existência de uma base ortonormalB = {v1, . . . , vn} deE formadapor autovetores deT ∗T . Como os autovalores deT ∗T são não-negativos, temosassim que

T ∗T (vi) = µ2i vi, i = 1, . . . , r e T ∗T (vi) = 0, i = r + 1, . . . , n.

Para obtemos uma base deF definimos, parai ∈ {1, . . . , r},

wi =1

µi

T (vi).

Page 235: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 219 — #235i

i

i

i

i

i

§10.5 Valores Singulares 219

Para esses valores dei temosTvi = µiwi, enquantoTvi = 0 parai ∈ {r+1, . . . , n},poiskerT = kerT ∗T . (Logo, os vetoresvr+1, . . . , vn formam uma base ortonormalde kerT , se esse subespaço for não-vazio.) As equações(10.9) e (10.10) estãosatisfeitas e obtivemos a matrizD1.

Precisamos mostrar que{w1, . . . , wr} é base ortonormal deimT . Se i, j ∈{1, . . . , r}, então

〈wi, wj〉 =1

µiµj

〈Tvi, T vj〉 =1

µiµj

〈T ∗Tvi, vj〉

=1

µiµj

〈µ2i vi, vj〉 =

µi

µj

〈vi, vj〉 =µi

µj

δij,

em queδij = 0 sei 6= j e δii = 1. Comodim(imT ) = r, provamos o afirmado.A equação(10.11) decorre imediatamente de

T ∗wi = T ∗(

1

µi

Tvi

)=

1

µi

T ∗Tvi = µivi.

Seja{wr+1, . . . , wm} uma base ortonormal dekerT ∗. Esses vetores satisfazem(10.12). De acordo com o Teorema 8.16,kerT ∗ = (imT )⊥. Assim, os vetores{w1, . . . , wm} formam uma base ortonormal deF , completando a prova. 2

Usualmente a baseB é ordenada de modo queµ1 ≥ µ2 ≥ . . . ≥ µr.SejamA uma matrizm × n, En e Em as bases canônicas doRn e Rm,

respectivamente. SejamB e C, respectivamente, as bases ortonormais doRn e Rm

dados pelo Teorema 10.25. Então, se denotamos porP a matrizPBEn

e porQ amatrizQEm

C , temosA = QDP,

chamada decomposição emvalores singularesda matrizA. Note que as matrizesPeQ são ortogonais.

Observação 10.26A decomposição matricial deA mostra que toda esfera noKn étransformada num elipsóidek-dimensional noKm. De fato, as matrizesQ eP sãoisometrias, enquantoD aumenta ou diminui o tamanho dos autovetores. �

Exemplo 10.27Consideremos a matriz real

A =

1 11 10 0

.

Page 236: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 220 — #236i

i

i

i

i

i

220 Teoria Espectral Euclidiana Cap. 10

Para obter a decomposição deA em valores singulares, obtemos a matrizAtA;

AtA =

(2 22 2

),

cujos autovalores sãoλ1 = 4 e λ2 = 0. Os valores singulares deA são, portanto,σ1 =

√4 = 2 e σ2 =

√0 = 0. A matriz P , cujas colunas são os autovetores

normalizados deAtA é

P =1√2

(1 11 −1

).

O vetorw1 é dado por

w1 =1

σ1

Av1 =1√2

110

.

Para obtermos os vetoresw2 e w3, achamos uma base ortonormal dekerAt

(neste exemplo, não é necessário utilizar o processo de ortogonalização de Gram-Schmidt):

w2 =1√2

1−1

0

e w3 =

001

.

Portanto,

A = QDP =

1√2

1√2

01√2

−1√2

0

0 0 1

2 00 00 0

(

1√2

1√2

1√2

−1√2

).

Exemplo 10.28SejaA uma matrizm×n. Suponhamos que, na decomposição emvalores singulares da matrizA, A = QDP , a matrizD tenha postor < n. Escrevaa matrizQ em blocos,Q = (Qr Qm−r), a submatrizQr contendor colunas deQe a submatrizQm−r as(m − r) colunas restantes. Do mesmo modo para a matrizP = (Pr Pn−r). Então, seD1 for a matriz diagonal com os valores singulares deA,temos

A = (Qr Qm−r)

(D1 00 0

)(P t

r

P tn−r

)= QrD1P

tr.

Essa é adecomposição reduzida em valores singularesdeA, que pode ser feitamesmo se a matrizA tiver posto máximo. Como os valores singulares deA sãopositivos, podemos definir a matriz

A+ : PrD−11 Qt

r,

Page 237: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 221 — #237i

i

i

i

i

i

§10.5 Valores Singulares 221

chamadapseudo-inversadeA ou inversa de Moore-Penrose. �

Observação 10.29A determinação do posto de uma matrizA,m×n, por meio deseu escalonamento muitas vezes não é viável numericamente,devido a propagaçãode erros no processo computacional. A decomposição dessa matriz em valoressingulares oferece uma solução para esse problema. �

Em analogia à forma polar de um número complexo, existe a decomposiçãopolar de um operador arbitrárioT no espaço euclidianoE:

Teorema 10.30 (Decomposição Polar)SejaT : E → E um operador arbitrário no espaço euclidianoE. Então existem

operadoresP,U : E → E, comP positivo semidefinido eU unitário (ortogonal)de modo queT = PU . O operadorP é único. SeT for invertível, entãoU tambémé único.

Demonstração:Considere as bases ortonormaisB e C dadas pelo Teorema 10.25aplicado ao operadorT . EntãoTvi = µiwi, comµi ≥ 0 para todoi ∈ {1, . . . , n}.DefinimosP,U : E → E por Pwi = µiwi e Uvi = wi. ClaramenteP é auto-adjunto e positivo semidefinido (de acordo com o Lema 10.9), enquantoU é unitárioeT = PU .

ComoT ∗ = U∗P , vem TT ∗ = PUU∗P = P 2. Assim, P é a única raizquadrada positiva semidefinida deTT ∗ (veja o Exemplo 10.8 e o Teorema 10.10).SeT possuir inversa,P possui inversa eU = P−1T garante a unicidade deU nessecaso. 2

Na decomposição polarT = PU , P eU geralmente não comutam. Na verdade,eles comutam apenas quandoT for normal. (Veja o Exercício 23.)

Corolário 10.31 Todo operador linearT : E → E no espaço euclidianoE podeser escrito na formaT = UP , comP positivo semidefinido eU unitário. Asunicidades deP eU são como antes.

Demonstração: Basta aplicar o Teorema 10.30 ao operadorT ∗ e, então, tomar oadjunto. 2

Page 238: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 222 — #238i

i

i

i

i

i

222 Teoria Espectral Euclidiana Cap. 10

10.6 Exercícios

1. O Teorema 9.14 mostra que toda matriz simétrica é congruente a uma matrizdiagonal. Dada a equivalência entre os Teoremas 9.11 e 9.14,podemosconcluir que a Lei da Inércia é uma afirmação sobre matrizes simétricas. Elagarante que, no Teorema 9.14, o número de termos positivos, negativos enulos na matriz diagonalD independe da mudança de variável utilizada. Poroutro lado, sabemos que, seD for a diagonalização da matrizA, então oselementos diagonais deD são os autovalores deA. Mas sabemos que osautovalores deA independem da base na qual a matriz é representada. Issonão implica a Lei da Inércia?

2. Considere a matriz simétrica

A =

4 2 22 4 22 2 4

.

Ache uma matriz ortogonal (isto é,P t = P−1) e uma matriz diagonalD taisque

P−1AP = D.

3. SejamE um espaço euclidiano eT : E → E uma isometria. Seλ for umautovalor deT , mostre que|λ| = 1.

4. SejamE um espaço euclidiano complexo eλ um autovalor do operadornormalT : E → E. Mostre que todo autovetor deT é autovetor deT ∗

correspondente ao autovalorλ. Conclua então que autovetores associados aautovalores distintos de um operador normal são sempre ortogonais.

5. SejaE um espaço euclidiano complexo. SejamS, T : E → E operadoreslineares, comST = TS. Mostre queST tem um autovetor em comum.

6. SejamN : E → E um operador normal no espaço euclidiano complexoE.Mostre que, sex for um autovetor deN , entãoW = < x >⊥ é invariante porN eN∗.

7. Mostre, por indução, que todo operador normalN : E → E definido emum espaço euclidiano complexoE possui uma base ortonormal formada porautovetores.

Page 239: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 223 — #239i

i

i

i

i

i

§10.6 Exercícios 223

8. Considere uma base ortonormal{x1, . . . , xn} formada por autovetores dooperador normalN : E → E, definido no espaço euclidianoE. MostrequeNN∗xi = N∗Nxi e conclua queN é normal.

9. SejamR,S, T : E → E operadores auto-adjuntos definidos no espaçoeuclidianoE. Suponha queRT = TR, ST = TS e que em cada auto-espaço deT , tantoR quantoS tenham um único autovalor. Mostre queRpossui uma base ortonormal formada por elementos que são autovetores dastrês aplicações.

10. SejaT : E → F uma aplicação linear entre espaços euclidianos. Qual arelação entre os autovalores deT ∗T e os deTT ∗?

11. SejaT : E → E um operador linear definido no espaço realE. Mostre queexiste uma base ortonormalB na qualTB é diagonal se, e somente se,T forauto-adjunto.

12. SejaT : E → F uma aplicação linear entre os espaços euclidianosE e F .Mostre:

(a) seT for injetora, entãoT ∗T possui inversa;

(b) imT ∗ = im (T ∗T ) e imT = im (TT ∗);

(c) seT for sobrejetora, entãoTT ∗ possui inversa.

13. Mostre que um operadorT é positivo definido se, e somente se,T ≥ 0 e Tfor invertível.

14. Mostre que são equivalentes as seguintes condições sobre um operadorP :E → E definido num espaço euclidianoE.

(a) P = T 2 para algum operador auto-adjuntoT ;

(b) P = S∗S para algum operadorS;

(c) P é positivo semidefinido.

15. Com a notação do Teorema 10.10 mostre, utilizando o cálculo funcional, queP =

√H é positiva semidefinida.

Page 240: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 224 — #240i

i

i

i

i

i

224 Teoria Espectral Euclidiana Cap. 10

16. Verifique que a matriz

A =

(2 ii 2

)

é normal. Encontre uma matriz unitáriaU tal queU∗AU seja diagonal.

17. SejaE um espaço euclidiano complexo eN : E → E um operador norma.Verifique que o procedimento utilizado na demonstração alternativa dosTeoremas 10.2 e 10.4, na página 204, também prova queN é diagonalizável.

18. Mostre que, se todos os autovalores de uma aplicaçãoT : E → E tiveremvalor absoluto igual a1, entãoT é unitária.

19. SejaN : E → E um operador normal no espaço euclidianoE. Mostre queexiste uma matriz unitária (ortogonal)U tal queN∗ = UN e, então, queimN∗ = imN .

20. SejaN um operador normal no espaço euclidianoE. Mostre que existeum operador auto-adjuntoA positivo semidefinido e um operador unitário(ortogonal)U tal que

N = UA = AU.

SeN for invertível,U eA são únicos. (É usual denotarA = |N |. Comparecom o Exercício 19.)

21. SejaN : E → E um operador no espaço euclidianoE. Usando o cálculofuncional, mostre queN∗ é um polinômio emN se, e somente se,N fornormal. (Compare com o Exercício 42 do Capítulo 8.)

22. Dê exemplos de operadoresM,N : E → E definidos no espaço euclidianocomplexoE, comN normal, tais que os auto-espaços deM sejam invariantesporN eNM 6= MN .

23. Mostre que, na decomposição polarT = PU do operadorT : E → E,temosPU = UP se, e somente se,T for normal. (Esse enunciado mereceinterpretação, uma vez que em geral não há unicidade deU . SeT for normal,entãoP comuta com toda matriz unitária tal queT = PU . Reciprocamente,seP comuta com algumU tal queT = PU , entãoT é normal.)

24. SejaA uma matriz (real) anti-simétrica. Mostre queA2 é uma matrizsimétrica negativa semidefinida. Conclua daí que os autovalores não-nulosde uma matriz anti-simétrica são imaginários puros.

Page 241: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 225 — #241i

i

i

i

i

i

§10.6 Exercícios 225

25. SejamS,N : E → E operadores no espaço euclidianoE, sendoN normal.Mostre queNS = SN implicaN∗S = SN∗.

26. SejamM,N : E → E operadores normais no espaço euclidianoE. SeMN = NM , mostre queM∗N = NM∗ eMN∗ = N∗M . Em particular,NM é normal.

27. SejamM,N : E → E operadores normais definidos no espaço euclidianocomplexoE e S : E → E um operador arbitrário. Mostre que, seNS = SM , entãoN∗S = SM∗.

28. SejamM,N : E → E operadores normais definidos no espaço euclidianoE.Suponha queMN seja normal. Mostre queN comuta comM∗M .

29. SejamM,N : E → E operadores normais definidos no espaço euclidianoE.Suponha queMN seja normal. Mostre queNM é normal.

30. SejamS, T : E → E dois operadores auto-adjuntos no espaço euclidianoE. Mostre queST = TS se, e somente se, existe um operador auto-adjuntoR : E → E tal queS = p(R) eT = q(R).

31. Mostre que uma matriz (cos θ sen θ−sen θ cos θ

)

preserva sua forma ou é transformada na matriz

(cos(−θ) sen (−θ)−sen (−θ) cos(−θ)

)

quando submetida a uma matriz mudança de base ortogonal.

32. Dê um exemplo mostrando que não há unicidade deU na decomposição polardeT : E → E, se esse operador não for invertível.

33. SejamE,F espaços euclidianos. Dois operadores linearesT : E → E eS : F → F sãounitariamente equivalentesse existir uma aplicação linearunitáriaU : E → F tal queU∗SU = T . Mostre queS, T são unitariamenteequivalentes se, e somente se, existirem bases ortonormaisB deE e C deFtaisTB = SC.

Page 242: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 226 — #242i

i

i

i

i

i

226 Teoria Espectral Euclidiana Cap. 10

34. Com a notação do Exercício 33, sejamS e T operadores normais. Mostreque os operadoresS e T são unitariamente equivalentes se, e somente se,tiverem o mesmo polinômio mínimo. Conclua que dois operadores normaissemelhantes são sempre unitariamente equivalentes.

35. SejamA,B ∈ Mn×n(R) matrizes unitariamente equivalentes. Mostre queA eB sãoortogonalmente equivalentes, isto é, existe uma matriz ortogonalP ∈Mn×n(R) tal queP ∗AP = P tAP = B.

36. ("Diagonalização" simultânea de duas formas quadráticas). Em geralnão é possível encontrar uma mudança de variávelQx = z que diagonalizesimultaneamente as formas quadráticas simétricasq1(x) e q2(x). Dê umexemplo em que essa diagonalização é impossível. Por outro lado, seq1for uma forma quadrática hermitiana (simétrica) positiva definida eq2 umaforma quadrática hermitiana (simétrica), então é possíveldiagonalizá-lassimultaneamente. Mais precisamente, sejamH,K matrizes hermitianas,Hsendo positiva definida. Mostre que existe uma matrizQ tal queQ∗HQ = IeQ∗KQ é diagonal.

Page 243: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 227 — #243i

i

i

i

i

i

11Decomposições Matriciais

Neste Capítulo estudaremos as decomposições matriciais de Cholesky, Schure QR. Os resultados que apresentaremos são bastante úteis na Álgebra LinearNumérica.

11.1 A Decomposição de Cholesky

Como vimos no Lema 10.9, um operador auto-adjunto é positivo definido se, esomente se, todos os seus autovalores forem positivos.

Lema 11.1 SejaA uma matrizn× n simétrica positiva definida. Então cada umadas submatrizes principaisAr é positiva definida(e, portanto,detAr > 0) para1 ≤ r ≤ n.

Demonstração:Sejax∗ = (x1, . . . , xr) ∈ Rr um vetor não-nulo arbitrário e definax = (x1, . . . , xr, 0, . . . , 0) ∈ Rn. Como

〈x∗, Arx∗〉 = 〈x,Ax〉

eA é positiva definida, o resultado segue-se daí. 2

Note que o Lema 11.1 combinado com a Proposição A.4 garante que uma matrizpositiva definidaA possui decomposiçãoLU , obtida mediante a sucessiva aplicaçãoda operação elementar do tipo(c) à matrizA. Em particular,A possui uma fatoraçãoLDU , a matriz diagonalD = (dii) tendo seus elementos diagonais positivos. Mas,como a matrizA é simétrica, temos

LDU = A = At = U tDLt.

227

Page 244: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 228 — #244i

i

i

i

i

i

228 Decomposições Matriciais Cap. 11

Pela Proposição A.3 temosLt = U , de modo queA = LDLt. DefinindoD1/2

como a matriz

D1/2 =

√d11 0 · · · 00

√d22 · · · 0

......

0 0 · · ·√dnn

.

Mas, então,A = LDLt = (LD1/2)(D1/2Lt) = L1L2, a matrizL1 sendotriangular inferior e a matrizL2 sendo triangular superior. ComoA = At, segue-sedaí queL2 = Lt

1, mostrando que

A = LLt,

chamadadecomposição de Choleskyda matrizA.Assim, uma matrizn × n positiva definida tem duas decomposições: a

decomposiçãoA = LDU e a decomposição de CholeskyA = L1Lt1. Já vimos

queL1 = LD1/2, o que nos mostra como obter a decomposição de Cholesky damatrizA.

O próximo resultado caracteriza as matrizes positivas definidas e apresenta umresumo dos resultados obtidos nesta seção:

Proposição 11.2SejaA uma matriz simétrican× n. As seguintes afirmações sãoequivalentes:

(i) A é positiva definida;

(ii) As submatrizes principaisA1, . . . , An têm determinante positivo;

(iii) A matrizA tem uma decomposiçãoLDU , com os elementos diagonais damatriz diagonalD todos positivos;

(iv) A tem uma decomposição de CholeskyA = LLt, sendoL uma matriztriangular inferior com elementos diagonais positivos.

Demonstração:Já vimos as implicações(i)⇒ (ii)⇒ (iii)⇒ (iv).Seja agorax ∈ Rn um vetor não-nulo arbitrário ey = Ltx. Como a matrizLt

possui inversa,y 6= 0. Assim

〈x,Ax〉 = xt(LLtx) = (xtL)(Ltx) = yty = ‖y‖2 > 0.

Isso mostra que(iv)⇒ (i). 2

Page 245: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 229 — #245i

i

i

i

i

i

§11.2 A Decomposição de Schur 229

11.2 A Decomposição de Schur

SejaA uma matrizn× n no corpoC.

Teorema 11.3 (Schur)Existe uma matriz unitáriaU tal queT = U∗AU é triangular superior.

Demonstração: Faremos indução emn, o resultado sendo óbvio paran = 1.Suponhamos válido para uma matrizk × k qualquer e consideremosA, matriz(k + 1) × (k + 1). Sejaw1 um autovetor unitário associado ao autovalorλ1 deA. O processo de ortogonalização de Gram-Schmidt assegura a existência de umabase ortonormal{w1, w2, . . . , wk+1} paraCk+1. A matrizR, cujai-ésima coluna éo vetorwi, é unitária. Consideremos entãoR∗AR = (R∗A)R. A primeira colunadessa matriz éR∗Aw1. MasR∗Aw1 = λ1R

∗w1 = λ1e1, pois as linhas deR∗ sãodadas pelos vetoresw1, . . . , wk+1. Assim, a matrizR∗AR tem a forma

λ1 ∗ · · · ∗0... S0

,

em queS é uma matrizk × k. Pela hipótese de indução, existe uma matriz unitáriaV1 tal queT1 = V ∗

1 SV1 é uma matriz triangular superior. Definimos então

V =

1 0 · · · 00... V1

0

.

ClaramenteV é unitária e

V ∗(R∗AR)V =

1 0 · · · 00... V ∗

1

0

λ1 ∗ · · · ∗0... S0

1 0 · · · 00... V1

0

=

λ1 ∗ · · · ∗0... V ∗

1 SV1

0

=

λ1 ∗ · · · ∗0... T1

0

= T,

Page 246: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 230 — #246i

i

i

i

i

i

230 Decomposições Matriciais Cap. 11

uma matriz triangular superior. Definimos, então,U = RV . A matrizU é unitária,pois

U∗U = (RV )∗(RV ) = V ∗R∗RV = I.

Isso completa a demonstração. 2

A demonstração apresentada continua válida seA for uma matriz real cujosautovalores estão no corpoR. Uma prova alternativa do Teorema de Schur éindicada no Exercício 2. Note que o teorema pode também ser formulado paraaplicações lineares ao invés de matrizes.

Apresentamos, como conseqüência, mais uma prova dos Teoremas 10.2 e 10.4:

Corolário 11.4 SeA for uma matriz auto-adjunta, então existe uma matriz unitáriaU tal queU∗AU = D, sendoD uma matriz diagonal. SeA for uma matriz real, amatrizU é ortogonal.

Demonstração:SejaA hermitiana. De acordo com o Teorema de Schur 11.3, existeuma matriz unitáriaU tal queU∗AU = T , sendoT uma matriz triangular superior.Mas

T ∗ = (U∗AU)∗ = U∗A∗U = U∗AU = T,

de acordo com a Proposição 8.30. Isso mostra queT é auto-adjunta e, portanto,uma matriz diagonal.

SeA for real, todos os autovalores deA são reais e, portanto, também seusautovetores. Isso implica que a matrizU é ortogonal. 2

11.3 A DecomposiçãoQR

O processo de ortogonalização de Gram-Schmidt pode ser interpretado comouma decomposição de uma matriz cujas colunas são linearmente independentes.

Teorema 11.5 (A decomposiçãoQR de uma base)SejaA uma matrizm× n de poston. Então

A = QR,

em queQ é uma matrizm × n com colunas ortonormais eR é uma matrizn × ntriangular superior com elementos diagonais positivos.

Page 247: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 231 — #247i

i

i

i

i

i

§11.3 A DecomposiçãoQR 231

Demonstração:Sejamv1, . . . , vn as colunas da matrizA. Como essa matriz temposton, esses vetores são linearmente independentes emKm. Aplicando o processode ortogonalização de Gram-Schmidt 8.14 a esses vetores, obtemos os vetoresortonormaisq1, . . . , qn ∈ Km, dados por

qk =1

rkk

(vk −

k−1∑

i=1

rikqi

), (k = 1, . . . , n)

em querik = 〈vk, qi〉 parai = 1, . . . , k−1 erkk é a norma do vetorvk−∑k−1

i=1 rikqi.Mas isso quer dizer que

v1 = r11q1v2 = r12q1 + r22q2...

...vn = r1nq1 + . . .+ rnnqn.

(11.1)

DefinindoQ como a matriz cujas colunas são os vetoresq1, . . . , qn e R a matriztriangular superior

R =

r11 r12 · · · r1n

0 r21 · · · r2n...

.... ..

...0 0 · · · rnn

= (r1 r2 · · · rn),

temos que aj-ésima coluna da matrizQR é

QRej = Qrj = r1jq1 + r2jq2 + . . .+ rjjqj + 0qj+1 + . . .+ 0qn = vj.

Isso mostra queQR = A, completando a demonstração. 2

Exemplo 11.6 Considere a matriz

A =

1 1 10 1 11 1 11 0 1

.

Vamos encontrar uma matriz ortogonalP tal que imP = imA e obter adecomposiçãoQR da matrizA. Em seguida, vamos resolver o sistemaAx = bparab = (0 0 0 1)t.

Page 248: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 232 — #248i

i

i

i

i

i

232 Decomposições Matriciais Cap. 11

É claro que as colunas deA são linearmente independentes. (Por outro lado, opróprio processo de ortogonalização de Gram-Schmidt nos mostrará isso.) SeA fordada em termos de suas colunas(v1 v2 v3), aplicando o processo de Gram-Schmidta esses vetores obteremos os vetoresq1, q2 e q3. DenotandoQ = (q1 q2 q3), temos

Q = (q1 q2 q3) =

√3

3

√15

15−

√10

10

0√

155

√105√

33

√15

15−

√10

10√3

3−2

√15

15

√105

.

Como o espaço gerado pelas colunas deA é justamente o espaço gerado pelascolunas deQ, a matriz ortogonalP é justamente a matrizQ. A matrizR é a matrizque muda da base{v1, v2, v3} para a base{q1, q2, q3} (justifique!). Assim,

R =

〈q1, v1〉 〈q1, v2〉 〈q1, v3〉〈q2, v1〉 〈q2, v2〉 〈q2, v3〉〈q3, v1〉 〈q3, v2〉 〈q3, v3〉

=

√3 2

√3

3

√3

0√

153

√155

0 0√

105

.

SeAx = b, entãoQRx = b e, portanto,Rx = Qtb. Portanto, basta resolver

√3 2

√3

3

√3

0√

153

√155

0 0√

105

xyz

= Qtb =

√3

3

−2√

1515√105

.

Obtemos imediatamente

xyz

=

0−1

1

.

O que pode acontecer quando as colunasv1, . . . , vn deA forem linearmentedependentes? Nesse caso, ao ortogonalizarmos as colunas deA, obteremos umou mais vetores iguais a zero (veja o Exercício 24 do Capítulo 1). Desprezandoos vetores nulos obtidos, continuaremos a ter uma base ortonormalq1, . . . , qr paraimA, sendor o posto da matrizA. A matrizQ = (q1, . . . , qr) é uma isometria e

posto A = posto Q.

Uma vez que os vetoresvi satisfazem a equação(11.1) (mas utilizando apenasr vetoresq1, . . . , qr ao invés dosn vetoresq1, . . . , qn daquela equação), obtemos

Page 249: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 233 — #249i

i

i

i

i

i

§11.3 A DecomposiçãoQR 233

R = (rij) como sendo a matrizn × r triangular superior dada porrij = 〈ui, qj〉.Uma vez queQ é uma isometria, temos‖Ax‖ = ‖QRx‖ = ‖Rx‖, de modo quekerA = kerR. Assim, uma vez queA eR têmn colunas,

postoR = n− kerR = n− kerA = r = posto A.

Condensamos os nossos resultados no seguinte teorema:

Teorema 11.7 (DecomposiçãoQR)SejaA uma matriz realm× n com postor. Então podemos escrever

A = QR,

sendoQ a matrizn × r de uma isometria satisfazendoimA = imQ eR é umamatriz triangular superiorn× r de postor.

Exemplo 11.8 (O problema dos quadrados mínimos - 3a. parte)Seja A umamatriz realm × n. Procuramos o vetorx tal queAx seja a melhor aproximaçãopossível para o vetorb. O vetor x, que melhor aproxima o vetorb, deve ser aprojeção ortogonal deb no espaçoimA (justifique!).

Vamos resolver esse problema usando a decomposiçãoQR. Procuramos,portanto, um vetorx tal queb − (QR)x seja perpendicular àimQ = imA. Ora,sabemos que(imQ)⊥ = kerQ∗. Assim, o vetorb − (QR)x pertence ao núcleo deQ∗. Logo,

Q∗(b−QRx) = 0 ⇒ Rx = Q∗b.

Uma vez queQR = A, o vetorQQ∗b é justamente a projeção ortogonal deb emimA.

Consideremos um exemplo concreto: seja a matriz

A =

1 0 10 1 21 1 3

= (v1 v2 v3).

A terceira coluna deA é igual a duas vezes a segunda coluna somada à primeira.Se aplicarmos o processo de Gram-Schmidt às colunasv1, v2 e v3, obteremos osvetoresq1 = ((1/

√2) 0 (1/

√2))t e q2 = ((−1/

√6) (2/

√6) (1/

√6))t. Assim,

Q =

1√2

−1√6

0 2√6

1√2

1√6

.

Page 250: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 234 — #250i

i

i

i

i

i

234 Decomposições Matriciais Cap. 11

A matrizR = (rij) satisfazrij = 〈v1, qj〉. Portanto,

R =

(2√2

1√2

4√2

0 3√6

6√6

).

Para resolvermos o problema dos quadrados mínimosAx = (1 1 1)t, basta resolver

(2√2

1√2

4√2

0 3√6

6√6

)

xyz

= Qtb =

(22√3

),

cuja solução é

xyz

=

2

3

110

+ z

−1−2

1

.

O vetor(−1 − 2 1)t pertence ao núcleo deA e o vetor(1 1 0)t é a única soluçãodo problema dos quadrados mínimos. �

11.4 Exercícios

1. SejaA uma matriz simétrica invertível. Mostre queA2 é uma matriz positivadefinida.

2. SejamE um espaço euclidiano eT : E → E um operador cujo polinômiocaracterístico tem suas raízes no corpoK. DefinaW = < v >, para algumautovetorv deT e considereE = W ⊕W⊥. Então:

(a) T (W⊥) ⊂ W⊥;

(b) Mostre por indução o Teorema de Schur.

3. SejaB uma base ortonormal deV . Suponhamos que a representaçãoA = TBdo operador linearT : V → V seja uma matriz triangular superior. MostrequeT é normal se, e somente se,A for diagonal. Deduza daí o Teorema10.13.

4. Na decomposição de Schur,U∗AU = T , há unicidade da matriz triangularsuperiorT?

Page 251: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 235 — #251i

i

i

i

i

i

§11.4 Exercícios 235

5. (Desigualdade de Schur)SejaA = (aij) ∈ Mn×n(C) e λ1, . . . , λn seusautovalores. Mostre que

n∑

i=1

|λi|2 ≤n∑

i,j=1

|aij|2

e que a igualdade só se verifica quandoA for normal.

6. Conclua, utilizando a desigualdade de Schur, que seM,N são matrizesnormais eMN é normal, entãoNM é normal. (Veja o Exercício 29 doCapítulo 10.)

Page 252: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 236 — #252i

i

i

i

i

i

AMatrizes Elementares e a

Decomposição LU

SejaA ∈ Mm×n(K). Vamos mostrar como o escalonamento de uma matrizpode ser interpretado em termos de uma decomposição da matrizA.

Uma matrizE é elementarse puder ser obtida da matriz identidadem×m pormeio da aplicação de uma operação elementar. O próximo resultado mostra que aaplicação de uma operação elementar sobre as linhas da matriz A é equivalente àmultiplicação desse matriz por uma matriz elementar.

Proposição A.1 Seja e uma operação elementar sobre(as linhas de) a matrizA ∈ Mm×n(K) eE a matriz elementare(I), sendoI a matriz identidadem × m.Entãoe(A) = EA.

Demonstração: A demonstração deve ser feita para todos os tipos de operaçãoelementar. Consideraremos apenas a aplicação de uma operação elementar(c): alinha j será substituída pela soma da linhaj comλ vezes a linhai. A matrizE,nesse caso, é dada por

E =

1 0 . . . 0...

...0 . . . λ . . . 1 . . . 0...

...0 0 . . . 1

← linha j

↑colunaj

236

Page 253: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 237 — #253i

i

i

i

i

i

237

Então

EA =

1 0 . . . 0...

...0 . . . λ . . . 1 . . . 0...

...0 0 . . . 1

a11 a12 . . . a1n...

...aj1 aj2 . . . ajn...

...am1 am2 . . . amn

=

a11 a12 . . . a1n...

...aj1 + λai1 aj2 + λai2 . . . ajn + λain

......

am1 am2 . . . amn

,

que é justamentee(A). 2

Consideremos o processo de escalonamento de uma matrizA e suponhamosqueE seja uma matriz elementar obtida por meio da operação elementar (b) ou (c).É fácil verificar que tanto a matrizE como sua inversa (que existe!) são matrizestriangulares inferiores (veja o Exercício 2).

Tendo em vista a Proposição A.1, dada uma matrizA ∈ Mm×n(K), obtemosuma forma escalonadada matrizA ao multiplicá-la por matrizes elementaresEkEk−1 . . . E2E1. Quer dizer,

(EkEk−1 . . . E2E1)A = U,

em queU = (uij) tem todos os seus elementos abaixo da diagonaluii iguais a zero.Suponhamos que, nesse processo de levar a matrizA a sua forma escalonada,

a operação elementar(a) não tenha sido utilizada. Uma vez que a matrizEkEk−1 . . . E2E1 tem inversa e sua inversa é uma matriz triangular inferior (vejao Exercício 3), obtemos que

A = LU

em que a matrizL é triangular inferior e a matrizU = (uij) é "triangular superior",significando queuij = 0, se i > j. Essa é adecomposiçãoLU da matrizA ∈ Mm×n(K). (A decomposiçãoA = LU , quando possível, é usualmente feitapara matrizes quadradasA. Nesse caso, a matrizU é uma autêntica matriz triangularsuperior.)

Page 254: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 238 — #254i

i

i

i

i

i

238 Matrizes Elementares e a Decomposição LU Cap. A

Observação A.2Se, no escalonamento deA ∈ Mm×n(K), não for utilizada aoperação elementar(a), a decomposiçãoLU pode ser atingida unicamente por meioda operação elementar(c): não há necessidade de transformar em1 o primeiroelemento não-nulo de cada linha. Assim, suponhamos que por meio das matrizeselementaresE1,...,Ek todos os elementos abaixo do pivô de cada linha tenham sidoanulados até a colunaj − 1, e que o pivô da colunaj esteja na linhai, comi ≤ j.Seℓ > i, para anularmos o elementobℓj da matriz(bij) = Ek . . . E1A, substituímosa linhaℓ pela linhaℓ somada a(−λℓ,j) vezes a linhai. A essa operação correspondea matriz elementar

linha i→

linha ℓ→

1.. .

1...

. . .−λℓ,j · · · 1

.. .1

.

↑colunaj

O valor deλℓ,j é bℓj/bij, sebℓj e bij forem os primeiros elementos não-nulos daslinhas ℓ e i, respectivamente, da matrizEk . . . E1A. Se multiplicarmos todas asmatrizes que anulam os elementosbℓj, comℓ > i, obteremos a matriz

Qj =

1. ..

1−λi+1,j

..... .

−λi+r,j 1

.

É fácil verificar queLj = Q−1j existe e tem o mesmo formato da matriz dada.

Decorre daí que, na decomposiçãoLU da matrizA, todos os elementos da diagonalprincipal da matrizL são iguais a1. �

SejaA uma matrizm×n. Suponhamos que não tenha sido utilizada a operaçãoelementar(a) no escalonamento deA e que tenhamos chegado a exatamenten

Page 255: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 239 — #255i

i

i

i

i

i

239

pivôs. De acordo com a Observação A.2, isso implica que, na decomposiçãoLUda matrizA, os elementos diagonais da matrizm × m L são todos iguais a1,enquanto os elementos diagonais da matrizU são justamente os pivôs. Podemosentão escrever a matrizA numa forma mais simétrica: se

U =

u11 u12 · · · u1n

0 u22 · · · u2n...

.... ..

...0 0 · · · unn

0 0 · · · 0... · · · ...0 0 · · · 0

,

comuii 6= 0, então podemos decomporU = DU ′:

DU ′ =

u11 0 · · · 0 0 · · · 00 u22 · · · 0 0 · · · 0...

.. ....

... · · · ...0 0 unn 0 · · · 00 0 · · · 0 0 · · · 0... · · · ...

... · · · ...0 0 · · · 0 0 · · · 0

1 u12/u11 · · · u1n/u11

0 1 · · · u2n/u22...

.. ....

0 0 · · · 10 0 · · · 0... · · · ...0 0 · · · 0

,

em queD é uma matrizm×m eU ′ uma matrizm×n, com elementos "diagonais"iguais a1. Temos, assim,

A = LDU ′.

É usual escreverA = LDU , chamadadecomposiçãoLDU da matrizA.

Proposição A.3 SejaA uma matrizm × n. SeA = LU e A = LU , comL,Lmatrizesm × m triangulares inferiores com elementos diagonais iguais a1 eU,U matrizes triangulares superiores com elementos "diagonais" não-nulos, entãoL = L eU = U . Em particular, a decomposiçãoLDU de uma matriz é única.

Demonstração:Como a matrizL possui inversa, temosU = (L−1L)U . A matrizquadradaL−1L é triangular inferior e tem elementos diagonais iguais a1. Vamosmostrar queL−1L =: R = (rij) é a matriz identidade. Temosri1 = 0 sei 6= 1, oque pode ser comprovado multiplicando a linhai deR pela primeira coluna deU ,

Page 256: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 240 — #256i

i

i

i

i

i

240 Matrizes Elementares e a Decomposição LU Cap. A

poisRU é uma matriz triangular inferior eu11 6= 0. Da mesma forma, multiplicandoas linha deR pela segunda coluna deU , verificamos queri2 = 0 sei 6= 2 e assimsucessivamente. LogoR = I eU = U .

SejaD = (dij) a matriz diagonalm × m com dii = uii parai = 1, . . . , n edjj = 0 sej > n. É fácil verificar que existe uma única matriz triangular superiorU ′,m× n, com elementos "diagonais" iguais a1, tal queU = DU ′. Isso completaa prova. 2

O resultado anterior é importante, pois estamos tratando daforma escalonadada matrizA ∈Mm×n(K), que não é única!

Proposição A.4 SejaA uma matrizm×n tal que todas suas submatrizes principaisAr sejam invertíveis. EntãoA tem uma decomposiçãoLU .

Demonstração:Comoa11 = A1, o elementoa11 é o pivô da primeira linha. Existeentão uma matriz invertívelE, obtida ao se aplicar sucessivamente a operaçãoelementar(c) de modo a anular todos os elementos deA abaixo do pivô. Temosentão que

EA =

a11 a12 · · · a1n

0 b22 · · · b2n...

...0 bm2 · · · bmn

.

Claramente a submatriz principal deEA(a11 a12

0 b22

)

resulta da submatriz principal deA(a11 a12

a21 b22

)

mediante a aplicação de uma operação elementar do tipo(c). Em particular, aquelasubmatriz principal deEA é invertível, pois a submatriz deA é invertível (porhipótese). Daí decorre queb22 6= 0, mostrando queb22 é um pivô da segunda linhadeEA. A prova agora segue-se daí por indução. 2

Suponhamos agora que, ao levarmos a matrizA a sua forma escalonada sejanecessária a aplicação da operação elementar(a). Então não é possível decompor

Page 257: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 241 — #257i

i

i

i

i

i

§A.1 Exercícios 241

a matrizA na formaLU . Entretanto, podemos considerar as matrizes elementaresque fazem as transposições de linhas necessárias para o escalonamento da matrizA. Cada matriz dessas é ortogonal. Consideremos a matrizP , produto de todasessas matrizes. (A matrizP é uma matriz de permutação, como produto detransposições).

Consideremos então a matrizPA. Com essa permutação das linhas deA, épossível levar a matrizA a uma forma triangular superior por meio unicamente daoperação elementar(c). (Veja o Exercício 6.) Assim, para a matrizPA vale:

PA = LU.

Como a matrizP é ortogonal, temos então

A = P tLU.

A.1 Exercícios

1. Demonstre a Proposição A.1 com relação às operações elementares(a) e (b).

2. Mostre que toda matriz elementar tem inversa, e que essa inversa é umamatriz elementar. Mostre que uma matriz elementar surgida no processo deescalonamento da matrizA é uma matriz triangular inferior.

3. Mostre que o produto de matrizes triangulares inferiores(respectivamente,superiores) é uma matriz triangular inferior (resp., superior).

4. Justifique o algoritmo usualmente utilizado para se obtera inversa de umamatriz.

5. Dê um exemplo mostrando que é possível terA = LU = L′U ′, comL,L′

matrizes triangulares inferiores com elementos diagonaistodos iguais a1 eU,U ′ matrizes triangulares superiores. (Compare com a Proposição A.3.)

6. Considere uma matrizA que não tenha decomposiçãoLU . SejaP o produtode todas as transposições necessárias para tornar possívelo escalonamento deA. Mostre quePA tem uma decomposiçãoLU .

Page 258: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 242 — #258i

i

i

i

i

i

B

Funções de Matrizes:Comparando Definições

Funções de matrizes são usualmente definidas em duas situações: ou a funçãof é suave nos autovalores da matriz diagonalizávelA = P−1DP (comD diagonal)ef(A) é definida porP−1f(D)P , sendof(D) obtida ao se aplicarf em cada umadas entradas diagonais deD, ou a funçãof é analítica ef(A) é definida por meiode uma expansão em série de potências def . Em ambos os casos, a funçãof éeuclidiana com relação am.

Nosso objetivo neste Apêndice é mostrar que o método do cálculo funcionalcoincide com a definição usualmente empregada em livros tradicionais de ÁlgebraLinear. Por razões de simplicidade, mostraremos primeiro que a definiçãono caso de uma matriz diagonalizável (isto é,f(A) = P−1f(D)P , comodescrito anteriormente) coincide com a Definição 6.6. Contudo, esse caso estácompletamente englobado por aquele de uma matriz na forma deJordan, que seráaveriguado em seguida.

Começamos pelo seguinte resultado auxiliar, que mostra comose aplica ocálculo funcional para uma matriz diagonal em blocos:

Lema B.1 Sejaf uma função euclidiana com relação à matrizn× n em blocos

A =

A1 0 · · · 00 A2 · · · 0...

.... . .

...0 0 · · · Aℓ

.

242

Page 259: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 243 — #259i

i

i

i

i

i

243

Então

f(A) =

f(A1) 0 · · · 00 f(A2) · · · 0...

..... .

...0 0 · · · f(Aℓ)

.

Demonstração:Sejar = a0 + a1z + a2z2 + . . .+ amz

m o polinômio interpoladorprocurado. Claramente vale:

f(A) = a0I + a1

A1 0 · · · 00 A2 · · · 0...

.... ..

...0 0 · · · Aℓ

+a2

A21 0 · · · 0

0 A22 · · · 0

......

. .....

0 0 · · · A2ℓ

+ . . .+ am

Am1 0 · · · 00 Am

2 · · · 0...

.... ..

...0 0 · · · Am

=

r(A1) 0 · · · 00 r(A2) · · · 0...

.... ..

...0 0 · · · r(Aℓ)

Assim, o resultado estará provado se tivermos

f(Aj) = r(Aj).

Para j = 1, . . . , ℓ, sejamm e mj os polinômios mínimos deA e Aj,respectivamente. Comom(A) = 0, necessariamente cada blocoAj é anulado porm. Pelo Lema 5.14, temos quem é um múltiplo demj. Como vimos antes daobservação 6.8, isso implica quef(Aj) = r(Aj). 2

Consideremos então o caso de uma matriz diagonalizávelA. Seja, portanto,f uma função definida nos autovalores da matrizA = P−1DP (sendoD matrizdiagonal). A definição usual def(A) éP−1f(D)P .

De acordo com o Lema B.1, para calcularmosf(D) segundo a Definição 6.6,basta calcularmosf em cada um dosn blocos diagonaisD1 = λ1, . . . , Dn = λn

Page 260: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 244 — #260i

i

i

i

i

i

244 Funções de Matrizes: Comparando Definições Cap. B

da matrizD. Como o polinômio mínimo do blocoDj émj = z − λj, temos quef(Dj) = r(Dj) = f(λj). Logo

f(D) = r(D) =

f(λ1) 0 · · · 00 f(λ2) · · · 0...

..... .

...0 0 · · · f(λn)

.

Mas entãor(A) = r(P−1DP ) = P−1r(D)P = P−1f(D)P,

mostrando que as duas definições coincidem.

Consideremos agora o caso geral: escrevemosA = P−1JP em que a matrizJestá na forma canônica de Jordan. É usual definirf(A) = P−1f(J)P . (Em algunstextos de Álgebra Linear, apenas o caso def(z) = ezt é analisado.)

Recordamos alguns fatos básicos sobre a forma canônica de Jordan. Comosabemos, uma matrizn × n complexa (ou uma que possuan autovalores – nãonecessariamente distintos – no corpoK) está na forma canônica de Jordan se ela fordiagonal em blocos

J =

Jλ1 0 · · · 00 J2 · · · 0...

.... . .

...0 0 · · · Jλk

sendo que os blocosJλipossuem a forma

Jλi=

λi 1 0 · · · 00 λi 1 · · · 0...

..... . .. .

...0 0 · · · λi 10 0 · · · 0 λi

.

Estamos denotando porλi um dos autovalores da matrizA. Ao mesmo autovalorλi podem estar associados diferentes blocosJλi

. Sabemos que existe pelo menosum blocodi × di, sendodi a multiplicidade algébrica do autovalorλi (isto é, amultiplicidade deλi como fator do polinômio característico deA).

SeJ for uma matriz na forma canônica de Jordan, consideremos um bloco Jλ

de tamanhok × k, comk ≤ d, sendod a multiplicidade algébrica do autovalorλ.

Page 261: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 245 — #261i

i

i

i

i

i

245

Suponhamos inicialmente quek = d. Nesse caso, como(z − λ)k é o polinômiomínimo (e característico) do bloco, a funçãof(Ji) é dada por um polinômio de grauno máximo igual ak − 1, de acordo com a Definição 6.6:

r(z) = ak−1(z − λ)k−1 + . . .+ a1(z − λ) + a0.

Os coeficientesai são obtidos pela relaçõesf (i)(λ) = r(i)(λ). A regra da cadeiagarante quer(i)(λ) = ai. Assim,

f(Jλ) = f(λ)I + f ′(λ)(Jλ − λI) + . . .+f (k−1)(λ)

(k − 1)!(Jλ − λI)(k−1)

=

f(λ) f ′(λ)1!

f ′′(λ)2!

· · · f (k−1)(λ)(k−1)!

0 f(λ) f ′(λ)1!

· · · 0...

..... . .. .

...0 0 · · · f(λ) f ′(λ)

1!

0 0 · · · 0 f(λ)

. (B.1)

Comparando essa expressão, obtida por meio da Definição 6.6, com a definiçãode função de matriz na forma de Jordan1 vemos que elas coincidem.

No caso de blocosk×k, com1 ≤ k < d, basta então notarmos que o polinômioprocurado sempre deverá ter grauk − 1, pois o polinômio mínimo do bloco (quecoincide com o polinômio característico) tem grauk. Assim, a expressão obtidacontinua válida para qualquer blocok × k.

Para passarmos dos blocos para a matriz na forma canônica de Jordan bastaempregarmos o Lema B.1.

1Em [32], o fluxoeJt de uma matrizJ na forma canônica de Jordan é explicitamente calculado.Trocando-se a funçãoexp zt por uma funçãof suficientemente suave, obtemos então uma expressãoidêntica à equação(B.1). Veja, a esse respeito, [29].

Page 262: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 246 — #262i

i

i

i

i

i

CDecomposição Primária

O objetivo deste Apêndice é apresentar uma demonstração "tradicional" doTeorema da Decomposição Primária.

Dizemos que dois polinômiosp, q ∈ K[t] sãoprimos entre si, se o únicopolinômio mônico que dividir tantop quantoq for o polinômio 1.

Lema C.1 Sejamp, q ∈ K[t]. Sep e q forem primos entre si, então existempolinômiosa, b ∈ K[t] tais que

ap+ bq = 1.

Demonstração:SejaI o conjunto de todos os polinômios da formaap + bq, coma, b ∈ K[t]. ComoI possui elemento não-nulo, existe emI um polinômio não-nulode menor grau, que chamaremosd = ap+ bq.

Afirmamos qued divide tantop quantoq. De fato, sed não dividissep, porexemplo, teríamosp = md + r, em que o grau der é menor do que o grau ded.Comop e d estão emI, r = p − md ∈ I, o que contradiz a escolha ded. Logor = 0, mostrando o afirmado.

Comop e q são primos entre si,d tem grau zero, isto é,d é uma constante,digamosk. Comok 6= 0, escolhendoa = a/k e b = b/k temos

ap+ bq = 1.2

Corolário C.2 Sejamp1, . . . , pk, pk+1 ∈ K[t] polinômios primos entre si dois adois. Entãop2 . . . pkpk+1 ep1 são primos entre si.

246

Page 263: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 247 — #263i

i

i

i

i

i

247

Demonstração: Isso se prova por indução emk. Sek = 1, nada há a provar.Suponhamos verdadeiro parak = j e sejad um polinômio mônico que dividep1 e p2 . . . pjpj+1. Comop1 e pj+1 são primos entre si, existem polinômiosa eb tais queap1 + bpj+1 = 1. Multiplicando porp2 . . . pj, obtemosap1(p2 . . . pj) +b(p2 . . . pjpj+1) = p2 . . . pj. Comod divide tantop1 quantop2 . . . pjpj+1, vemos qued divide p2 . . . pj. Mas então a hipótese de indução garante qued = 1, provando oafirmado. 2

Lema C.3 Sejamp, q ∈ K[t] primos entre si e0 6= A ∈Mn×n(K). SejamNp,Nq eNpq os núcleos das matrizesp(A), q(A) ep(A)q(A), respectivamente. Então

Npq = Np ⊕Nq.

Demonstração:Como existem polinômiosa, b ∈ K[t] tais quebq + ap = 1, temosque

b(A)q(A) + a(A)p(A) = I.

Sex ∈ Npq, entãob(A)q(A)x ∈ Np. De fato, aplicandop(A) a esse ponto, temosp(A)b(A)q(A)x = b(A)p(A)q(A)x = 0, dada a comutatividade de polinômiosda matrizA. Da mesma forma temosa(A)p(A)x ∈ Nq, sex ∈ Npq. Comob(A)q(A)x + a(A)p(A)x = x, mostramos quex = xp + xq, com xp ∈ Np exq ∈ Nq.

Para mostrar que essa decomposição é única, suponhamos quex = xp + xq =xp + xq. Mas entãoy := xp − xp = xq − xq pertence, simultaneamente, aNp eNq.Aplicandob(A)q(A) + a(A)p(A) = I emy, temos

b(A)q(A)y + a(A)p(A)y = y.

Mas b(A)q(A)y = 0 = a(A)p(A)y, de modo quey = 0, o que implicax = xp exq = xq, mostrando a unicidade da decomposição. 2

Por indução, obtemos então o

Corolário C.4 Seja0 6= A ∈ Mn×n(K). Sep1, p2, . . . , pk são polinômios emK[t],primos entre si dois a dois, seNpi

denota o núcleo depi(A) eNp1...pko núcleo de

p1(A) . . . pk(A), entãoNp1...pk

= Np1 ⊕ · · · ⊕Npk.

Page 264: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 248 — #264i

i

i

i

i

i

248 Decomposição Primária Cap. C

Definição C.5 Sejap ∈ K[t] o polinômio característico da aplicação linearT :X → X, em queX é um espaço vetorial de dimensão finitan. Suponhamos que

p(t) = [p1(t)]s1 · · · [pj(t)]

sj

seja a decomposição dep em fatores irredutíveis, compi 6= pk para i 6= k.Definimos, parai = 1, . . . , j, o auto-espaço generalizadoassociado ao polinômiopi como o conjunto de todos os vetoresv ∈ X para os quais existe um inteiropositivok tal que

[pi(T )]kv = 0.

No caso em quepi(t) = t−λi, sendoλi um autovalor deT , os elementos não-nulosdo auto-espaço generalizado são osautovetores generalizadosdeT associados aoautovalorλi.

Parak ∈ N∗, sejaNk(pi) o núcleo de[pi(T )]k. Claramente temos que

N1(pi) ⊂ N2(pi) ⊂ · · · .

ComoNk(pi) é um subespaço do espaço de dimensão finitaX para todok ∈ N,esses subespaços precisam ser todos iguais a partir de certoíndicek ∈ N. Sejadi = d(pi) o menor inteiro positivo com tal propriedade, isto é,

Ndi(pi) = Ndi+1(pi) = · · · , mas Ndi−1(pi) 6= Ndi

(pi).

O inteiro positivodi é oíndicedepi(T ).

Lema C.6 Os subespaçosNk(pi) são invariantes pelo operadorT , para todok ∈ N∗. SeWi = ker[pi(T )]di, então o polinômio mínimo deT restrito aWi é[pi(T )]di.

Demonstração: Seja w ∈ Nk(pi) = ker[pi(T )]k. Então [pi(T )]kTw =T [pi(T )]kw = 0, mostrando queTw ∈ Nk(pi).

A afirmação sobre o polinômio mínimo decorre da definição dedi. 2

Teorema C.7 (Decomposição Primária)SejaT : X → X uma aplicação linear ep ∈ K[t] seu polinômio característico.

Sep(t) = [p1(t)]

s1 · · · [pj(t)]sj

Page 265: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 249 — #265i

i

i

i

i

i

249

for a decomposição dep(t) em fatores irredutíveis, compi 6= pk para i 6= k, então,sedi for o índice depi(T ), o polinômio mínimo deT é

m(t) = [p1(t)]d1 · · · [pj(t)]

dj ,

em que0 < di ≤ si para i = 1, . . . , j. Em outras palavras, o polinômio mínimopossui todos os fatores irredutíveis do polinômio característico deT . Além disso,

X = W1 ⊕ · · · ⊕Wj,

em queWi = ker[pi(T )]di , comT (Wi) ⊂ Wi.

Demonstração: Sejam ∈ K[t] o polinômio mínimo deT . De acordo com oTeorema de Cayley-Hamilton 5.22 e o Lema 5.14, os únicos fatores irredutíveispresentes na decomposição dem são fatores irredutíveis dep. Incluindo fatoresirredutíveis [pi(t)]

0 do polinômio característicop que eventualmente estejamausentes na decomposição dem, podemos escrever

m(t) = m1(t) · · ·mj(t),

commi(t) = [pi(t)]ri e ri ≥ 0 parai = 1, . . . , j. (Vamos mostrar queri = di > 0

para todoi = 1, . . . , j).Comom(T ) = 0, vemos que todo vetorv ∈ X pertence ao núcleo dem(T ) =

m1(T ) · · ·mj(T ). Como os polinômiosm1(t) = [p1(t)]r1 , . . . ,mj(t) = [pj(t)]

rj

são primos entre si dois a dois, podemos aplicar o Corolário C.4e concluir que

X = Nm1···mj= Nm1 ⊕ · · · ⊕Nmj

. (C.1)

Consideremos agoraqi(t) := [pi(t)]di. Pela definição dedi, se0 ≤ ri ≤ di,

entãoNmi⊂ Nqi

= Wi eX = Nm1...mj⊂ Nq1...qk

. Assim, pelo Corolário C.4,

X = Nq1 ⊕ · · · ⊕Nqj= W1 ⊕ · · · ⊕Wj. (C.2)

Seri > di ainda temosNmi⊂ Nqi

, pois a definição dedi garante queNqi= Nmi

.Em outras palavras, a decomposição (C.2) sempre é válida e, tendo em conta oLema C.6, provamos a decomposição afirmada no enunciado do teorema.

Vamos agora provar queri = di. DenotandoTi = T |Wi, temos queqi(Ti) = 0,

pela definição deWi. Assim(q1 . . . qj)T = 0 e, comom(t) é o polinômio mínimodeT , m(t) divide q1(t) . . . qj(t) e portantori ≤ di. Mas a definição dedi garantea existência dex ∈ Wi tal quex 6∈ [pi(T )]ri parari < di. ComoNmi

⊂ Nqi, isso

contradiz a existência das decomposições (C.1) e (C.2). Logori = di. 2

Page 266: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 250 — #266i

i

i

i

i

i

250 Decomposição Primária Cap. C

Proposição C.8Com a notação do TeoremaC.7, o subespaçoWi = ker[pi(T )]di

tem dimensão igual ao grau de[pi(t)]si, em quesi é a multiplicidadede pi como

fator irredutível do polinômio característicop(t).

Demonstração: Como o polinômio característico de uma matrizn × n tem graun, basta mostrar que o polinômio característico deT restrito aWi é justamente[pi(t)]

si.SejaBi uma base deWi. ComoX = W1 ⊕ · · · ⊕Wj, a representação deT na

baseB formada pelos vetores de cada baseBi é

TB = A =

A1 0 · · · 00 A2 · · · 0...

..... .

...0 0 · · · Aj

,

em queAi é um bloco de tamanhoki × ki, em queki é a dimensão deWi. Assim

det(tI− A) = det(tI− A1) · · · det(tI− Aj). (C.3)

Observe quedet(tI − Ai) é o polinômio característico deTi, a restrição deT aosubespaçoWi. Como o polinômio mínimo deTi é [pi(t)]

di (pelo Lema C.6), oTeorema da Decomposição Primária C.7 garante que o polinômiocaracterísticode Ti é uma potência depi(t). Da igualdade (C.3) segue-se que o polinômiocaracterístico deTi é [pi(t)]

si. 2

Corolário C.1 SejaX um espaço de dimensão finita. Um operador linearT :X → X é diagonalizável se, e somente se, o seu polinômio mínimo forproduto defatores lineares distintos.

Demonstração: Suponhamos queT seja diagonalizável. Sejamλ1, . . . , λℓ osautovalores distintos deT . EntãoX possui uma base formada por autovetores deT , de acordo com o Corolário 5.6. Considere o polinômio

h(z) = (z − λ1) . . . (z − λℓ).

Sev for um autovetor deT associado ao autovalorλi, então(T − λiI)v = 0. Issoimplica queh(T )v = 0 para qualquer autovetor deT . Como o Teorema Espectral7.3 implica que o polinômio mínimo e característico possuemos mesmos fatoresirredutíveis, mostramos queh é o polinômio mínimo deT .

Page 267: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 251 — #267i

i

i

i

i

i

251

Reciprocamente, sem(z) = (z − λ1) . . . (z − λℓ) for o polinômio mínimode T , então o polinômio mínimo deT |Wi

é (z − λiI). Isso quer dizer queWi = ker(T − λiI). Assim, todo elemento deWi é um autovetor deT . TomandobasesBi de cada espaçoWi, temos queB = {B1, . . . ,Bℓ} é uma base deX formadapor autovetores deT . 2

Page 268: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 252 — #268i

i

i

i

i

i

DForma Canônica de Jordan

Neste Apêndice apresentamos uma demonstração direta (istoé, sem utilizar oTeorema Espectral 7.3 ou o Teorema da Decomposição Primária) da existência e"unicidade" da forma canônica de Jordan de uma matriz complexa.

Definição D.1 Sejamλ1, . . . , λj os autovalores distintos de uma matrizJ , n × n.A matrizJ está naforma canônica de Jordanse

J =

J1 0 · · · 00 J2 · · · 0...

..... .

...0 0 · · · Jk

, em queJi =

λi 1 0 · · · 00 λi 1 · · · 0...

..... . .. .

...0 0 · · · λi 10 0 · · · 0 λi

,

(Ao autovalorλi está associadopelo menosum blocoJi; às vezes se defineJi coma sub-diagonal de1s situando-se abaixo da diagonal principal. O blocoJi podeser uma matriz1× 1.) O blocoJi é umbloco de Jordanassociado ao autovalorλi.

Note que o polinômio característico da matrizJ é da forma

p(z) = (z − λ1)s1 . . . (z − λj)

sj .

Assim, o número de vezes que o autovalorλi aparece na diagonal deJ é justamentea sua multiplicidade como raiz do polinômio característico.

SejaT : X → X um operador no espaçoX, comdimX = n. SuponhamosqueT possa ser representado por uma matrizJ na forma canônica de Jordan. Issosignifica que existe uma baseB deX de modo queJ = TB.

Consideremos um dos blocos de JordanJi eB′ ⊂ B a base do espaço invarianteassociado a esse bloco (veja o Exercício 11 do Capítulo 5).

252

Page 269: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 253 — #269i

i

i

i

i

i

253

SeB′ = {v1, . . . , vr}, então

T (v1) = λv1 e T (vk) = vk−1 + λvk, para k ∈ {2, . . . , r}.Essa é umacadeia de Jordande comprimentor. No caso de um bloco1× 1, temosuma cadeia de comprimento1 associado ao autovetor responsável por aquele bloco.

O método de Fillipov fornece uma das provas mais diretas da existência deuma base na qual um operador assume a forma canônica de Jordan. Faremos essademonstração adaptando e complementando aquela apresentada em Strang [33].

No enunciado do teorema estamos assumindo queX seja um espaço complexo.Basta, entretanto, que o polinômio característicop deT : X → X tenha todas assuas raízes no corpoK.

Teorema D.2 (Jordan)SejaT : X → X um operador no espaço complexoX de dimensãon. Então,

existe uma base deX na qualT é representada por uma matriz na forma canônicade Jordan. Essa representação é única, a menos de ordenamento dos blocos deJordan.

Demonstração: Começamos mostrando a existência de uma base na qual ooperadorT é representado por uma matriz na forma canônica de Jordan.

Para isso, faremos indução emn = dimX, partindo do fato que, sedimX = 1,entãoTB está na forma canônica de Jordan para qualquer baseB deX e que essarepresentação é única. Suponhamos então o resultado válidopara qualquer operadordefinido num espaçoY de dimensão menor do que ou igual an − 1, incluindotambém a unicidade(a menos de ordenamento dos blocos)dessa representação.

Consideremos então um autovalorλ de T e o operador não-invertívelS =T − λI. (Essa passagem acontece para que consideremos uma matriz que não éinvertível, por motivos que ficarão claros mais abaixo.)

DenotemosU = imS. Claramente valeS(U) ⊂ U . Uma vez quekerS 6= 0,temos quer := dimU < n. Ser = 0, entãodim(kerS) = n e T = λI está naforma de Jordan.

Se1 ≤ r ≤ n − 1, podemos aplicar a nossa hipótese de indução ao operadorS|U : U → U . Portanto, existe uma baseB1 = {u1, . . . , ur} deU , comr vetorespertencentes a cadeias de Jordan (cada uma delas iniciada por um autovetor) tal que,nessa base,S|U está na forma canônica de Jordan. (Note que os espectrosσ(S) eσ(S|U) coincidem.)

Consideremos então um espaço complementarY deU com relação aX:

X = U ⊕ Y.

Page 270: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 254 — #270i

i

i

i

i

i

254 Forma Canônica de Jordan Cap. D

SejaW = Y ∩ kerS. O subespaçoW é formado por todos os autovetores deS correspondentes ao autovalor0 que não estão emU e tem dimensãok ≥ 0. (Sek = 0, esse espaço não é considerado.) A escolha de uma base{w1, . . . , wk} paraW mantémS|U⊕W na forma de Jordan, já que os vetores deW contribuem comautovetores deS (e, portanto, com blocos1×1). Mais do que isso, os vetores deWnão dão origem a cadeias de Jordan de comprimento maior do que1: se existissev ∈ X tal queSv = w paraw ∈W , entãow ∈ imS, o que é um absurdo.

Tomemos entãoV como um complementar deW com relação aY : Y = V ⊕W .Assim, estamos considerando uma decomposição

X = U ⊕ V ⊕W.

Para mostrarmos o resultado, basta verificar que podemos escolher adequadamenteuma base deV , poisS|U⊕W está na forma canônica de Jordan.

Como dimW = k e o Teorema do Núcleo e da Imagem garante quedim(kerS) = n−r, existem exatamenten−r−k autovetores deS emU associadosao autovalor0 e, portanto,n − r − k cadeias de Jordan emU associadas a esseautovalor. Sejauimax o elemento maximal de cada cadeia de Jordan emU associadaao autovalor0.

Comouimax ∈ U , existevi ∈ X tal queSvi = uimax para todoi = 1, . . . , n −r − k. Note que as cadeias relativas ao autovalor0 emkerS ∩ U aumentaram seucomprimento.

O conjunto{v1, . . . , vn−r−k} é um conjunto linearmente independente, poissua imagem porS é o conjunto linearmente independente{u1max , . . . , un−r−kmax}formado por todos os elementos maximais das cadeias de Jordan associadas aoautovalor0. Afirmamos que os vetoresv1, . . . , vn−r−k estão todos emV . Comoconseqüência, os vetoresui da base deU , os vetoreswi da base deW e os vetoresvi escolhidos formam uma base deX.

Para provar nossa afirmação, notamos quevi 6∈ W para todoi ∈ {1, . . . , n −r − k}, pois os elementos deW são autovetores deT . Se fossevi ∈ U paraalgum i, chegaríamos a uma contradição: se a base deU fosse formada por umaúnica cadeia de Jordan, teríamos que osr + 1 vetores{vi, uimax , . . . , u1} ⊂ Useriam todos linearmente independentes edimU = r; por outro lado, se existissemdistintas cadeias de Jordan emU , a eliminação do elemento maximal de outra cadeiade Jordan (que não a cadeia formada poruimax , . . . , u1) e a introdução do vetorvi

na cadeiauimax , . . . , u1 produziria uma forma de Jordan no subespaçoU distintadaquela cuja unicidade é garantida pela hipótese de indução. Assim, provamos queos vetoresvi estão no subespaçoV , parai ∈ {1, . . . , n− r − k}.

Page 271: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 255 — #271i

i

i

i

i

i

255

Ao ordenarmos a baseB de X assim construída, colocamos os vetoresvi

imediatamente após o respectivo vetoruimax associado ao autovalor0. Colocamos,em seguida, todos os vetoreswi.

AssimSB está na forma canônica de Jordan. ComoSB = [T − λI]B = TB − λI,também temos queTB = SB + λI é uma matriz na forma de Jordan.

Agora consideremos a "unicidade" da forma de Jordan deS. Já decompusemoso espaçoX comoX = U ⊕ V ⊕W , em que oudimV ≥ 1 ou dimW ≥ 1 (ouambos). Por indução, admitimos a "unicidade" da forma de Jordan em espaços dedimensão atén− 1.

SedimW ≥ 1, temos, por indução, a unicidade da forma de Jordan emU ⊕ V .Como os elementos deW não dão origem a cadeias de Jordan de comprimentomaior do que1, temos imediatamente a unicidade (a menos de ordenamento dosblocos) da forma de Jordan deS.

Suponhamos, então, quedimW = 0. Quer dizer, estamos considerando umadecomposiçãoX = U ⊕ V . Por hipótese de indução, temos a unicidade da formade Jordan emU . Como cadeias distintas de Jordan decompõemU em subespaçosdistintos (aos quais a hipótese de indução aplica-se), podemos assumir queU sejagerado por uma única cadeia de Jordan, necessariamente associada ao autovalor0deS. Mas comoS está na forma de Jordan, existev ∈ V tal queSv = uimax , para ovetor máximo da cadeia de Jordan emU . Mas isso implica a unicidade da forma deJordan deS. A unicidade (a menos de ordenamento dos blocos) da forma canônicadeT é, então, imediata. 2

Já que o método de Filippov é indutivo, muitas vezes ele é pouco adequadopara a obtenção de uma base na qual uma matriz dada assume sua forma deJordan – posteriormente mostraremos um método efetivo paraobter-se uma tal base.Vejamos, contudo, um exemplo da aplicação do método de Fillipov, seguindo Strang[33]:

Exemplo D.3 Consideremos a matriz

A =

8 0 0 8 80 0 0 8 80 0 0 0 00 0 0 0 00 0 0 0 8

.

O polinômio característico deA é

p(z) = z3(z − 8)2.

Page 272: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 256 — #272i

i

i

i

i

i

256 Forma Canônica de Jordan Cap. D

É claro que uma base paraU := imA é dada por{e1, e2, e5}. Assim, o operadorA|U é representado por uma matriz3× 3

B =

8 0 80 0 80 0 8

.

Note que essa matriz equivale à eliminação das terceiras e quartas linhas e colunasda matrizA. Note também queσ(B) = σ(A) e que o autovalor8 tem multiplicidade2.

Para obtermos uma base que colocaB na forma canônica de Jordan, aplicamosmais uma vez o mesmo método. Claramente o espaço coluna deB é gerado pelosvetoresx1 = e1 e x2 = e2 + e5. (Observe que, às segunda e terceira linhas deB correspondem os vetorese2 e e5, respectivamente.) Além disso,Bx1 = 8x1

e Bx2 = 8x2 + 8x1. Chegamos então a uma cadeia de Jordan se mudarmos deescala: definimosu1 = 8x1 e u2 = x2. EntãoBu1 = 8u1 e Bu2 = 8u2 + u1.Assim, a cadeia associada ao autovalor8 da matrizA está completa (pois8 é raizde multiplicidade2 do polinômio característico deA):

u1 =

80000

e u2 =

01001

são os elementos da base procurada responsáveis pelo bloco2 × 2 associado aoautovalor8.

A matrizB teme2 como um autovetor associado ao autovalor0.

Be2 = Ae2 = 0.

Isso significa que todos os vetores necessários para colocarB na forma canônicade Jordan já foram encontrados e conclui o primeiro passo na obtenção da formacanônica de Jordan da matrizA: a obtenção de uma base paraimB.

O espaçokerA obviamente tem dimensão2 e é gerado pelos vetorese2 e e3.A sua interseção comimA é gerada pore2. Isso quer dizer que existe solução

x ∈ R5 para o problemaAx = e2.

Page 273: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 257 — #273i

i

i

i

i

i

257

A solução geral deAx = u3 = e2 é

−1/800

1/80

+ x2

01000

+ x3

00100

.

Escolhemos então a solução

x =

−10010

= e4 − e1,

pois esta não pertence aimA+kerA. (Com a notação da demonstração do TeoremaD.2, obtemosx ∈ V ). Assim, obtemos mais dois elementos da base procurada:u3 = e2 ev4 = x = e4 − e1.

Finalmente, o último vetor da base procurada é um elementow ∈ kerA que nãopertence aimA∩kerA. (Ou seja, com a notação da demonstração do Teorema D.2,obtemosw ∈ W .) Assim

w5 = e3.

A base{u1, u2, u3, v4, w5} coloca a matrizA na forma de Jordan. Em outraspalavras, seP = (u1 u2 u3 v4 w5) (a matrizP sendo descrita por suas colunas),então

P−1AP = J =

(8 10 8

)0 00 0

00

0 00 0

(0 10 0

)00

0 0 0 0 (0)

.

Com uma pequena variação sobre o método de Filippov, podemos aumentar suaaplicabilidade. Apresentaremos essa modificação no decorrer do próximo exemplo:

Exemplo D.4 Seja

A =

2 0 0 0 0 01 2 0 0 0 0−1 0 2 0 0 0

0 1 0 2 0 01 1 1 1 2 00 0 0 0 1 −1

.

Page 274: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 258 — #274i

i

i

i

i

i

258 Forma Canônica de Jordan Cap. D

O polinômio característico deA é p(z) = (z − 2)5(z + 1). Como a matrizA éinvertível, consideremosB = A− 2I:

B =

0 0 0 0 0 01 0 0 0 0 0−1 0 0 0 0 0

0 1 0 0 0 01 1 1 1 0 00 0 0 0 1 −3

.

O polinômio característico deB é q(z) = z5(z + 3).Claramentee6 = (0 0 0 0 0 1)t é o (único) autovetor associado ao autovalor−3.

Ele nos fornece o primeiro vetor da base de Jordan:u1 = e6. (Se esse vetor nãofosse evidente, resolveríamos o sistema(B − 3I)x = 0.)

Se b ∈ R6 é um vetor arbitrário, escalonando a matriz aumentada(B | b)encontramos tanto uma base parakerB como paraimB:

0 0 0 0 0 0∣∣ b1

1 0 0 0 0 0∣∣ b2

−1 0 0 0 0 0∣∣ b3

0 1 0 0 0 0∣∣ b4

1 1 1 1 0 0∣∣ b5

0 0 0 0 1 −3∣∣ b6

−→

1 0 0 0 0 0∣∣ b2

0 1 0 0 0 0∣∣ b4

0 0 1 1 0 0∣∣ b5 − b2 − b4

0 0 0 0 1 −3∣∣ b6

0 0 0 0 0 0∣∣ b3 + b2

0 0 0 0 0 0∣∣ b1

.

Assim, uma base parakerB é dada por

00

−x4

x4

3x6

x6

= x4

00−1

100

+ x6

000031

,

enquantoimB tem como base os vetores deB correspondentes aos pivôs (veja oExercício 14 do Apêndice A):

01−1

010

,

000110

,

000010

e

000001

.

Page 275: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 259 — #275i

i

i

i

i

i

259

É fácil verificar quekerB ∩ imB tem como base um autovetor associado aoautovalor0.

u =

000031

.

O segundo autovetor associado a0 não pertence akerB ∩ imB e é dado por

v =

00−1

100

.

Assim, existem apenas dois blocos associados ao autovalor0. Um deles é umacadeia de Jordan de tamanho4 (justifique!) que tem como primeiro vetor

u2 = u;

o outro é uma cadeia de Jordan de tamanho1 criada pelo vetorw6 = v.Precisamos encontrar os outros elementos da cadeia gerada por u2. Para isso,

resolvemos

Bx = u2,

cuja solução geral é

x =

003010

+ α

00−1

100

+ β

000031

.

Escolhemos uma soluçãou3 (deBx = u2) comu3 ∈ imB. Para que a solução

Page 276: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 260 — #276i

i

i

i

i

i

260 Forma Canônica de Jordan Cap. D

pertença a esse espaço, devemos terα = −3, de modo que obtemos

u3 =

000−3

41

.

O vetoru4 é escolhido como uma solução emimB deBx = u3. Esse sistema temcomo solução geral

x =

0−3

0710

+ α

001−1

00

+ β

000031

+ γ

0000−3

1

.

Assim, devemos terα = 3 eβ = −4/3 para quex ∈ imB. Escolhemos então

u4 =

0−3

34−3−4

3

.

Finalmente, resolvemos o sistemaBx = u4 e obtemos

v5 =

340−5−4

3

0

,

vetor que não está emimB + kerB.

Page 277: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 261 — #277i

i

i

i

i

i

261

Assim, a matrizP = (u1 u2 u3 u4 u5 w6) colocaB na forma canônica de Jordan.Somando2I, a matrizA está na forma de Jordan:

J =

(−1) 0 0 0 0 00000

2 1 0 00 2 1 00 0 2 10 0 0 2

0000

0 0 0 0 0 (2)

.

No próximo resultado, como no Teorema D.2, não é necessário queX sejaum espaço complexo, mas apenas que todos os fatores irredutíveis do polinômiocaracterísticop do operadorT : X → X tenham grau igual a um.

Corolário D.5 (Teorema Espectral)SejamX um espaço vetorial complexo de dimensãon e T : X → X um

operador linear com polinômio característico

p(z) = (z − λ1)s1 · · · (z − λℓ)

sℓ ,

em que os autovaloresλi, i = 1, . . . , ℓ são distintos.Então, existem subespaçosW1, . . . ,Wℓ invariantes porT tais que

X = W1 ⊕ · · · ⊕Wℓ.

Além disso,dimWi = si, o polinômio mínimosmi deT |Wiémi = (z − λi)

di

eWi = ker(T − λiI)di , em que1 ≤ di ≤ si é o comprimento do maior bloco de

Jordan associado ao autovalorλi.

Demonstração:Basta definirWi como o espaço gerado pelos vetores de todas ascadeias de Jordan correspondentes ao autovalorλi na forma canônica de Jordan.

É claro que o polinômio mínimo deT |Wié justamente o comprimentodi da

maior cadeia de Jordan presente emWi. Assim, todo elemento deWi pertence aker(T − λiI)

di . A reciproca é obtida ao se representarT numa base na qualTassume uma forma de Jordan. 2

Esse resultado nos indica como obter diretamente os subespaçosWi: vale

ker(T − λiI) ( · · · ( ker(T − λiI)di = ker(T − λiI)

di+1 = · · · = ker(T − λiI)si .

(D.1)

Page 278: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 262 — #278i

i

i

i

i

i

262 Forma Canônica de Jordan Cap. D

(Para as inclusões estritas veja o Exercício 5 do Capítulo 7; as igualdades sãoconseqüências de(z − λi)

di e (z − λi)si serem, respectivamente, os polinômios

mínimos e característico deT |Wi).

O índice di do autovalorλi é encontrado quando essa seqüência de subes-paços estabiliza-se. Ou, alternativamente,ker(T −λiI)

di é o primeiro subespaço daseqüência que tem dimensãosi. Os elementos deker(T − λiI)

di são osautovetoresgeneralizadosassociados aλi.

Corolário D.1 SejaX um espaço de dimensão finita. Um operador linearT :X → X é diagonalizável se, e somente se, o seu polinômio mínimo forproduto defatores lineares distintos.

Demonstração: Suponhamos queT seja diagonalizável. Sejamλ1, . . . , λℓ osautovalores distintos deT . EntãoX possui uma base formada por autovetores deT , de acordo com o Corolário 5.6. Considere o polinômio

h(z) = (z − λ1) . . . (z − λℓ).

Sev for um autovetor deT associado ao autovalorλi, então(T − λiI)v = 0. Issoimplica queh(T )v = 0 para qualquer autovetor deT . Como o Teorema Espectral7.3 implica que o polinômio mínimo e característico possuemos mesmos fatoresirredutíveis, mostramos queh é o polinômio mínimo deT .

Reciprocamente, sem(z) = (z − λ1) . . . (z − λℓ) for o polinômio mínimode T , então o polinômio mínimo deT |Wi

é (z − λiI). Isso quer dizer queWi = ker(T − λiI). Assim, todo elemento deWi é um autovetor deT . TomandobasesBi de cada espaçoWi, temos queB = {B1, . . . ,Bℓ} é uma base deX formadapor autovetores deT . 2

Uma conseqüência imediata da forma canônica de Jordan é a existência de umadecomposiçãoT = D + N , comD diagonalizável,N nilpotente eND = DN .(Veja o Exercício 3.) Mostraremos agora a unicidade dessa decomposição, seguindo[22].

Teorema D.6 SejaT : X → X um operador no espaço complexo de dimensãofinitaX. Existe uma única decomposiçãoT = D + N , comD diagonalizável,Nnilpotente eDN = ND.

Demonstração: (Roteiro) ClaramenteD e N comutam comT . ComoWi =ker(T − λi)

di é invariante porT , esse espaço também é invariante porD e N .

Page 279: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 263 — #279i

i

i

i

i

i

§D.1 Exercícios 263

SeTi, Di eNi denotam as restriçõesT |Wi, D|Wi

eN |Wi, respectivamente, então

(Ti − λiI)−Ni = Di − λiI.

Olado esquerdo da igualdade é nilpotente (como soma de operadores nilpotentes quecomutam), enquanto o lado direito é diagonalizável. Diagonalizando o lado direitoda igualdade, o lado esquerdo continua sendo nilpotente. Mas isso implica queDi − λiI = 0 e, portanto,Ti − λiI = Ni. Mas essa é justamente a decomposiçãooferecida pela forma canônica de Jordan. 2

Observação D.7Apesar de já termos apresentado alguns exemplos de obtençãodaforma canônica de Jordan, sugiro que se retorne ao texto principal na Seção 7.4 paraum estudo mais exaustivo do assunto. Contudo, é possível seguir diretamente paraa Seção 7.5. �

D.1 Exercícios

1. Mostre que os elementos de uma cadeia de Jordan são linearmenteindependentes.

2. Prove diretamente que os vetoresvi, ui e wi da demonstração da forma deJordan (Teorema D.2) são linearmente independentes.

3. Considere um operadorT : X → X, cuja representação matricial na baseB é uma matrizJ na forma canônica de Jordan. Mostre a existência deuma decomposiçãoT = D + N , comD diagonalizável,N nilpotente eDN = ND.

4. Complete os detalhes da demonstração do Teorema D.6. Para isso, confiraos resultados citados naquele esboço de demonstração nos exercícios doCapítulo 7.

Page 280: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 264 — #280i

i

i

i

i

i

ESistemas de EquaçõesDiferenciais Lineares

Neste Apêndice mostraremos brevemente como o cálculo funcional pode seraplicado no estudo de um sistema (linear) de equações diferenciais ordinárias. Nãotemos a pretensão de ser completo ou auto-suficiente: apenasapresentamos algumasdefinições básicas e expomos, utilizando o cálculo funcional, a demonstração dealguns resultados clássicos.

Resolver um sistema linear de equações diferenciais, comn equações (deprimeira ordem) com coeficientes constantes, significa encontrar n funçõescontinuamente diferenciáveis1 x1, . . . , xn : R→ R que satisfaçam o sistema

x′1 = a11x1 + . . . + a1nxn + b1x′2 = a21x1 + . . . + a2nxn + b2... =

......

...x′n = an1x1 + . . . + annxn + bn.

Definindo a funçãox : R→ Rn porx(t) =(x1(t) . . . xn(t)

)t, verificamos que

esse sistema pode ser escrito na forma

x′ = Ax+ b,

em quex′(t) é o vetor obtido derivando-se cada uma das coordenadas do vetor x(t)e b = (b1 . . . bn)t.

Em consonância com a nomenclatura empregada no caso de sistemas lineares(veja a Seção 3.3), seb = 0, o sistema éhomogêneo; caso contrário, ele é chamadonão-homogêneo.

1Isto é, cujas derivadas são funções contínuas.

264

Page 281: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 265 — #281i

i

i

i

i

i

265

Vamos deter nossa atenção no sistema homogêneo

x′ = Ax. (E.1)

Se, ao procurarmos soluções de (E.1) exigirmos,adicionalmente, que a soluçãox satisfaça acondição inicial

x(t0) = x0, (E.2)

em quex0 é um vetor doRn, estamos lidando com umproblema de valor inicial.Seguindo [30], mostraremos inicialmente aunicidadede solução do problema

de valor inicial (E.1)-(E.2).

Teorema E.1 O problema de valor inicial(E.1)-(E.2) possui, no máximo, umasolução.

Demonstração:Sejamx = (x1 . . . xn)t e y = (y1 . . . yn)t soluções do problemade valor inicial. Definimosz = (z1 . . . zn)t por z(t) = x(t)− y(t) e

u(t) =

∫ t

t0

(|x1(s)− y1(s)|+ . . .+ |xn(s)− yn(s)|

)ds.

Como cada uma das parcelas da integral anterior é uma função contínua, oTeorema Fundamental do Cálculo garante que

u′(t) = |x1(t)− y1(t)|+ . . .+ |xn(t)− yn(t)|.

Masxi(t) =

∫ t

t0

x′i(s)ds, yi(t) =

∫ t

t0

y′i(s)ds e

|xi(t)− yi(t)| =∣∣∣∣∫ t

t0

(x′i(s)− yi(s)

)ds

∣∣∣∣ ≤∫ t

t0

∣∣x′i(s)− yi(s)∣∣ds, i ∈ {1, . . . , }.

Portanto,

u′(t) ≤n∑

i=1

∫ t

t0

|x′i(s)− y′i(s)|ds. (E.3)

Suponhamos quexi(t) − yi(t) 6= 0 para algumi ∈ {1, . . . , n}. TomeM > 0tal quexi(t0) 6= yi(t0) para algumt0 ∈ I = [t0 −M, t0 + M ]. Então, set ∈ I,podemos encontrarρ > 0 tal que (veja o Exercício 1)

n∑

i=1

∫ t

t0

|x′i(s)− y′i(s)|ds ≤ ρn∑

i=1

∫ t

t0

|xi(s)− yi(s)|ds, ∀ i ∈ {1, . . . , n}.

Page 282: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 266 — #282i

i

i

i

i

i

266 Sistemas de Equações Diferenciais Lineares Cap. E

Substituindo na desigualdade (E.3), obtemos que a funçãou : R→ R satisfaz ainequação diferencial

u′ ≤ ρu.

Multiplicando poreρt, concluímos que

d

dt

(eρtu(t)

)≤ 0.

Integrando essa desigualdade entret0 e t ∈ I, comou(t0) = 0, vem queu(t) ≤ 0 para todot ∈ I. Comou(t) ≥ 0 para todot ∈ R eM > 0 é arbitrário,chegamos a uma contradição. Assim, provamos queu ≡ 0. 2

Definição E.2 Sejamx1, . . . , xn soluções do sistema(E.1). Consideremos a matrizX(t), cujas colunas são os vetoresx1(t), . . . , xn(t). Definimos oWronskianoW (x1, . . . , xn)(t) das soluçõesx1, . . . , xn por

W (x1, . . . , xn)(t) = detX(t).

Dizemos que as soluçõesx1, . . . , xn sãolinearmente independentes, se

W (x1, . . . , xn)(t) 6= 0 ∀ t ∈ R.

Nesse caso, a matrizX(t) é chamadamatriz fundamentaldo sistema(E.1).Caso contrário, isto é, seW (x1, . . . , xn)(t0) = 0 para algumt0 ∈ R, as solução

sãolinearmente dependentes.

(Compare com o Exercício 14 do Capítulo 4. A ligação entre as duas definições doWronskiano será elucidada nos Exercícios 2 e 3 deste Apêndice.)

Sabemos que os vetoresx1(t0), . . . , xn(t0) ∈ Rn são linearmente independentesse, e somente se,W (x1, . . . , xn)(t0) 6= 0. Assim, a independência lineardas soluçõesx1, . . . , xn de (E.1) equivale à independência linear dos vetoresx1(t), . . . , xn(t) para todot ∈ R.

Enfatizamos que combinações linearesc1x1 + . . .+ cjxj de soluçõesx1, . . . , xj

de (E.1) também são soluções de (E.1).

Proposição E.3Se as soluçõesx1, . . . , xn de (E.1) forem linearmente independentes, então elasconstituem umabase do espaço de soluções, isto é, toda soluçãoy de (E.1) é umacombinação linearc1x1 + . . .+ cnxn.

Page 283: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 267 — #283i

i

i

i

i

i

267

Essa Proposição justifica a denominação desolução geralpara a expressão

c1x1 + . . .+ cnxn,

se{x1, . . . , xn} for uma base de soluções de (E.1).Demonstração: Sejay uma solução de (E.1). Queremos mostrar que existemconstantesc1, c2, . . . , cn tais que

y(t) = c1x1(t) + c2x2(t) + . . .+ cnxn(t), ∀ t ∈ R.

Sejat0 ∈ R e consideremosy(t0). Em t0, temos o sistema linear nas incógnitasc1, . . . , cn:

c1x1(t0) + c2x2(t0) + . . .+ cnxn(t0) = y(t0).

Como sabemos, seW (t0) 6= 0, tal sistema tem solução única. Como as soluçõesc1x1(t)+ . . .+ cnxn(t) ey(t) de (E.1) coincidem no pontot0, elas são idênticas emR, como conseqüência do Teorema E.1. 2

Observação E.4SejaX(t) uma matriz fundamental de (E.1). Podemos escrevera solução geral desse sistema em termos matriciais: definindo o parâmetroc =(c1 . . . cn)t ∈ Rn, temos

x(t) = X(t)c.

Em particular, a resolução de um problema de valor inicial pode ser descrita demaneira bastante simples por meio da matriz fundamental: sex(t0) = x0 ∈ Rn,então devemos resolver

X(t0)c = x0,

donde obtemosc = X−1(t0)ζ e, portanto,

x = X(t)[X−1(t0)ζ].

Salientamos, entretanto, que a obtenção direta dec = (c1 . . . cn)t quase sempre épreferível à obtenção deX−1(t0)ζ.

Notamos que vale a equação matricial

X ′ = AX, (E.4)

(a derivada da matrizX(t) é a derivação de cada uma de suas componentes), poiscada coluna deX(t) é solução dex′ = Ax. Considerado o isomorfismo entreMn×n

eRn2, o Teorema de Unicidade E.1 é aplicável à equação matricial (E.4).

Em virtude da ligação entre os sistemasX ′ = AX e x′ = Ax, a matrizfundamental desse último sistema também é chamadasolução fundamental. �

Page 284: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 268 — #284i

i

i

i

i

i

268 Sistemas de Equações Diferenciais Lineares Cap. E

Proposição E.5Sejamx1, . . . , xn soluções do sistema(E.1). Então

(i) ouW (x1, . . . , xn)(t) ≡ 0 (e as soluções são linearmente dependentes);

(ii) ouW (x1, . . . , xn)(t) 6= 0 para todot ∈ R (e as soluções são linearmenteindependentes).

Demonstração: Suponhamos queW (x1, . . . , xn)(t0) = 0 parat0 ∈ R. Então,existem constantes nem todas nulasc1, . . . , cn, tais quec1x1(t0)+. . .+cnxn(t0) = 0.

Definaw(t) = c1x1(t) + . . . + cnxn(t). Entãow(t) satisfaz(E.1) ew(t0) = 0.Pelo Teorema E.1, temos quew(t) ≡ 0. Isto mostra quex1(t), . . . , xn(t) sãolinearmente dependentes em todos os pontos deR. 2

Definição E.6 Sejam x1, . . . , xn soluções de(E.1) satisfazendo as condiçõesiniciais xi(0) = ei, em que{e1, . . . , en} é a base canônica doRn. Então a matrizX(t) =

(x1(t) . . . xn(t)

)é chamadafluxo lineardo sistema(E.1)e denotada por

eAt ou exp(At).

Se eAt for o fluxo do sistemax′ = Ax, temos queW (x1, . . . , xn)(0) 6= 0.Tendo em vista a Proposição E.5, valeW (x1, . . . , xn)(t) 6= 0 para todot ∈ R, demodo queeAt é uma solução fundamental do sistema (E.1). Assim, uma maneirade encontrarn soluções linearmente independentes dex′ = Ax consiste em obter ofluxo eAt. A existênciado fluxoeAt está provada na Seção 6.4.

Como as colunas deeAt formam uma base do espaço de soluções de (E.1),podemos enunciar o seguinte resultado:

Teorema E.7 (Existência e Unicidade)O problema de valor inicial(E.1)-(E.2)possui uma única solução para todo

vetorx0 ∈ Rn.

Com o intuito de ilustrar a utilização do Teorema E.1 na demonstração deresultados, vamos apresentar algumas propriedades do fluxoeAt.

Proposição E.8SejamA,B matrizes reaisn × n. SeAB = BA, entãoeAtB =BeAt e eAteBt = e(A+B)t se, e somente se,AB = BA.

Além disso, sev for um autovetor deA associado ao autovalorλ, então, paratodot ∈ R, v é um autovetor deeAt associado ao autovaloreλt.

Page 285: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 269 — #285i

i

i

i

i

i

269

Demonstração:QueeAt comuta comB é uma conseqüência imediata do cálculofuncional, poiseAt é um polinômio (com coeficientes dependendo det) na matrizA.

SeA comutar comB, então

d

dt

(eAteBt

)= AeAteBt + eAtBeBt = AeAteBt +BeAteBt = (A+B)eAteBt.

Isso mostra queeAteBt é solução deX ′ = (A + B)X, X(0) = I. Comoe(A+B)t é solução desse problema de valor inicial, o resultado decorre da unicidadede solução desse sistema matricial.

Reciprocamente, derivandoe(A+B)t = eAteBt, encontramos

(A+B)e(A+B)t = AeAteBt + eAtBeBt.

Nova derivação produz

(A+B)2e(A+B)t = A2eAteBt + 2AeAtBeBt + eAtB2eBt.

Tomandot = 0, obtemos(A+B)2 = A2 +2AB+B2, de onde decorre o resultado.Finalmente, a afirmação sobre o autovetor deA decorre imediatamente do

Teorema da Imagem do Espectro 7.1. 2

Proposição E.9Suponhamos que a matrizA ∈ Mn×n(K) seja decomposta pelasoma direta

Kn = W1 ⊕ . . .⊕Wℓ

de subespaços invariantes porA. Então essa soma também decompõeeAt.

(Veja, a respeito, a Seção 5.2.)

Demonstração: Considere a projeção canônicaπi : Kn → Wi. Decorre daProposição 5.10 (ou do Teorema 7.3) queAπi = πiA. O resultado decorre, então,do Lema E.8. 2

Em outras palavras, o Lema anterior garante que a decomposição primária(ou espectral) da matrizA também é uma decomposição do fluxoeAt. Assim,se λ1, . . . , λℓ forem os autovalores distintos da matrizA ∈ Mn×n(K) e Wi =

Page 286: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 270 — #286i

i

i

i

i

i

270 Sistemas de Equações Diferenciais Lineares Cap. E

ker(A − λiI)di denotar o subespaço de autovetores generalizados associados ao

autovalorλi, a decomposição

Kn = W1 ⊕ · · · ⊕Wk

é tal queA(Wi) ⊂ Wi. O Lema E.9 garante que

eAt = eA1t ⊕ · · · ⊕ eAℓt,

em queAi = A|Wi.

Podemos calcular explicitamente a forma deeAit. De fato, sejapi(z) =(z − λi)

di . Comopi(Ai) = 0, o cálculo funcional garante queeAit = ri(Ai),em que

ri(z) = adi−1(z − λi)di−1 + . . .+ a1(z − λi) + a0.

Resolvendo o sistemari(λi) = eλit, r′i(λi) = teλit, . . . , r(di−1)i = tdi−1eλit,

obtemos os coeficientesai = ai(t). É fácil verificar que esses coeficientes têm aforma eλitP (t), em quePi(t) é um polinômio na variávelt, com grau menor ouigual adi − 1. Uma vez que

ri(Ai) = adi−1(t)(Ai − λiI)di−1 + . . .+ a1(t)(Ai − λiI) + a0(t)I.

e que uma base de soluções dex′ = Aix é dada pelas colunas da matrizeAit, vemosque essas soluções têm a forma

Pdi(t)eλit,

em que os polinômiosvetoriaisPdi(t) têm graudi−1 e são obtidos ao se multiplicar

ai(t) = eλitPi(t) pelas colunas de potências da matrizA, isto é, ao calcularexplicitamenteri(A).

Consideremos agora o caso de uma matriz realA que possua "autovalores"complexos. Para cada parλ, λ = α±iβ, a expansãoeλt = eαt(cos βt±isen βt) geraum par de soluções reaiseαt cos βt, eαtsen βt. Desse modo, as soluções associadasao par de autovaloresλ, λ são da forma

Pλ(t)eαt cos βt, Pλ(t)e

αtsen βt,

em quePλ tem graudλ − 1.

Observação E.10Uma conseqüência do que acabamos de fazer é que todo oestudo do fluxo lineareAt, incluindo a classificação de sistemas lineares porconjugação, pode ser feita sem a utilização da forma canônica de Jordan. �

Page 287: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 271 — #287i

i

i

i

i

i

§E.1 Exercícios 271

Definição E.11 Dizemos que os sistemas

x′ = Ax e x′ = Bx

(ou os fluxos que lhes são associados) são linearmente conjugados, se existe umisomorfismoh : Kn → Kn tal que

h(ϕ(t, x)) = ψ(t, h(x)).

Teorema E.12 A aplicação linearh(x) = Cx é uma conjugação linear entre ossistemas

x′ = Ax e x′ = Bx

se, e somente se,C for invertível eCA = BC. Em particular, esses sistemas sãolinearmente conjugados se, e somente se, as matrizesA eB forem semelhantes.

Demonstração: SeCA = BC, a Proposição E.8 mostra queCeAtx = eBtCx,ou seja, queh(x) = Cx é uma conjugação linear entre os sistemasx′ = Ax ex′ = Bx. Reciprocamente, derivandoCeAtx = eBtCx com relação at obtemosCAeAtx = BeBtCx. Tomandot = 0, vemCAx = BCx para todox, provandoqueCA = BC. 2

Observação E.13Uma vez que a conjugação é uma relação de equivalência, oTeorema E.12 mostra que as classes de equivalência das conjugações lineares sãodadas pelas classes de semelhança de duas matrizes. Quer dizer, dois sistemas deequações diferenciais lineares são linearmente conjugados, se as matrizes dessessistemas têm a mesma forma canônica de Jordan.

E.1 Exercícios

1. Na demonstração do Teorema E.1, mostre, detalhadamente,que existe umaconstanteρ > 0 tal queu′ ≤ ρu.

2. Consideremos uma equação diferencial de ordemn

y(n)(t) = f(t, y(t), y′(t), . . . , y(n−1)(t)). (E.5)

Page 288: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 272 — #288i

i

i

i

i

i

272 Sistemas de Equações Diferenciais Lineares Cap. E

Definindox1 = y, x2 = y′,...,xn = y(n−1), verifique que uma solução de (E.5)é obtida ao se resolver o sistema

x′1 = x2

x′2 = x3...

...x′n = f(t, x1, . . . , xn−1).

(E.6)

3. Considere a equação linear homogênea de ordemm:

anx(n)(t) + . . .+ a1x

′(t) + a0x(t) = 0.

Transforme essa equação em um sistema homogêneo de equaçõeslinearesde primeira ordem. Compare o Wronskiano, definido no Exercício14 doCapítulo 4, com o Wronskiano desse sistema.

4. (Esse exercício necessita de conhecimentos sobre a derivada da aplicaçãodeterminante.) Mostre oTeorema de Liouville: sex1, . . . , xn forem soluçõesde (E.1), então

W (t) = W (t0) exp

(∫ t

t0

tr (A)ds

).

5. SejamΨ(t) eΦ(t) duas soluções do sistema matricial (E.4), sendoΨ(t) umamatriz fundamental do sistemax′ = Ax. Mostre que existe uma única matrizC ∈Mn×n tal que, para todot ∈ (α, β), vale

Φ(t) = Ψ(t)C.

Em particular,Φ também é uma matriz fundamental dex′ = Ax se, e somentese,C tem inversa.

6. (Método de Variação dos Parâmetros)SejaX(t) uma matriz fundamentaldex′ = Ax. Dada a soluçãoϕ(t) dex′ = Ax + B, comϕ(t0) = ζ ∈ Rn,mostre que

ϕ(t) = X(t)

[X−1(t0)ζ +

∫ t

t0

X−1(s)B(s)ds

].

Page 289: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 273 — #289i

i

i

i

i

i

§E.1 Exercícios 273

7. Para toda matrizA ∈Mn×n, mostre que a aplicação

U : R→Mn×n, U(t) = eAt

é um homomorfismoC∞ do grupo aditivo (R,+) sobre o grupomultiplicativo GL(K), formado pelas matrizes emMn×n que possueminversa. Por homomorfismo queremos dizer que

U(t+ s) = U(t)U(s), para todos s, t ∈ R.

Page 290: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 274 — #290i

i

i

i

i

i

FEspaços Normados

O presente apêndice é uma adaptação da abordagem feita por E.Lima [23] parao tratamento de espaços normados.

SeX e Y forem espaços vetoriais normados, nem toda aplicação linear T :X → Y é contínua. Para mostrarmos esse fato, começamos com a caracterizaçãodas aplicações lineares contínuas:

Teorema F.1 SejamX eY espaços normados eT : X → Y uma aplicação linear.São equivalentes as propriedades:

(i) T é contínua na origem;

(ii) sup‖x‖=1

‖Tx‖ = M <∞ (T é limitada);

(iii) existeC > 0 tal que‖Tx‖ ≤ C‖x‖ para todox ∈ X;

(iv) T é contínua.

Demonstração:A linearidade deT imediatamente nos garante que(iii)⇒ (iv)⇒(i). Para mostrar(i) ⇒ (ii), suponhamos(ii) falsa. Então, para cadan ∈ N∗,existeyn ∈ X tal que‖yn‖ = 1 e ‖Tyn‖ ≥ n. Definindoxn = yn/n, temos quexn → 0, enquanto‖Txn‖ ≥ 1, contradizendo(i). Finalmente,(ii) ⇒ (iii), pois,sex 6= 0, entãox/‖x‖ tem norma 1 e, portanto‖T (x/‖x‖)‖ ≤ M . Mas então‖Tx‖ ≤M‖x‖. 2

Corolário F.2 Uma aplicação linearT : X → Y sobrejetoraé um homeomorfismo(isto é, uma bijeção contínua com inversa contínua) entre os espaços normadosXeY se existirem constantesκ > 0 eλ > 0 de modo que

κ‖x‖ ≤ ‖Tx‖ ≤ λ‖x‖.

274

Page 291: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 275 — #291i

i

i

i

i

i

275

Demonstração: Basta notar que a continuidade deT−1 equivale à existência deuma constanteκ−1 < 0 tal que‖T−1y‖ ≤ κ−1‖y‖ para todoY ∋ y = Tx, comx ∈ X. 2

Dizemos que os espaçosX e Y são linearmente homeomorfosse existir umhomeomorfismo linearT : X → Y .

Exemplo F.3 SejaK[t] o espaço vetorial de todos os polinômios (com coeficientesemK) na variávelt. Parap ∈ K[t], definimos

‖p‖ = supt∈[0,1]

|p(t)|.

O Teorema Fundamental da Álgebra garante que‖ · ‖ é uma norma emK[t].Definimos agoraT : K[t] → R por T (p) = p(2). ClaramenteT é linear.Mostraremos queT é descontínua no polinômiop = 0. De fato, tomandoǫ = 1/2,consideremos o polinômiopn := (t/2)n. Claramente‖pn − 0‖ = 1/2n, mas|T (pn)− 0| = |T (pn)| = 1. �

Quando o mesmo espaçoX for considerado com diferentes normas, algumasvezes empregaremos a notação(X, ‖ · ‖) para ressaltarmos queX está sendoconsiderado com a norma‖ · ‖.

Definição F.4 Duas normas‖ · ‖0 e ‖ · ‖1 num espaçoX são equivalentes se aaplicação identidadeI : (X, ‖ · ‖0) 7→ (X, ‖ · ‖1) for um homeomorfismo. Emoutras palavras, quando existirem constantesκ > 0 eλ > 0 de modo que

κ‖x‖0 < ‖x‖1 ≤ λ‖x‖0.

Algumas normas equivalentes no espaçoKn são consideradas no Exercício 46do Capítulo 8. Vamos mostrar, seguindo [23], que todas as normas num espaçonormado de dimensão finita são equivalentes.

Para isso, relembramos que um conjuntoK ⊂ Kn é compacto se, e somente se,for limitado e fechado; e também que toda função contínua definida num compactoK ⊂ Kn assume máximo e mínimo emK.

Lema F.5 Seja(X, ‖ ·‖) um espaço vetorial normado. ConsidereKn com a norma‖x‖∞ := max

i=1,...,n|xi|. Então toda aplicação linearT : (Kn, ‖ ·‖∞)→ X é contínua.

Page 292: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 276 — #292i

i

i

i

i

i

276 Espaços Normados Cap. F

Demonstração:Sex = x1e1 + . . . + xnen, definindoλ = ‖Te1‖ + . . . + ‖Ten‖,temos

‖Tx‖ =n∑

i=1

|xi| ‖Tei‖ ≤ maxi=1,...,n

|xi|n∑

i=1

‖Tei‖ = λ‖x‖∞. 2

Teorema F.6 Seja(X, ‖ · ‖) um espaço normado de dimensãon sobre o corpoK.EntãoX é linearmente homeomorfo aKn.

Demonstração:Escolha uma baseB = {x1, . . . , xn} emX e considerex = α1x1+. . .+ αnxn ∈ X. A representação[x]B ∈ Kn é o vetorα = (α1 α2 · · · αn)t ∈ Kn.Consideremos o isomorfismoT : (Kn, ‖ · ‖∞)→ X, dado porTα = x. De acordocom o Lema F.5,T é contínua.

Definimos agoraf : (Kn, ‖ · ‖∞) → [0,∞) por f(x) = ‖Tx‖. Decorredo Exercício 1 quef é uma função contínua. Assim,f assume um mínimo nocompactoS := {x ∈ Kn | ‖x‖∞ = 1}. Esse mínimo é positivo, pois‖ · ‖ é umanorma. Assim, se0 6= x ∈ Kn, temos(x/‖x‖∞) ∈ S e

f

(x

‖x‖∞

)=

∥∥∥∥Tx

‖x‖∞

∥∥∥∥ ≥ κ ⇔ κ‖x‖∞ ≤ ‖Tx‖.

O Corolário F.2 garante então queT é um homeomorfismo. 2

Corolário F.7 SejamX eY espaços normados,dimX = n. Então toda aplicaçãolinear T : X → Y é contínua.

Demonstração:SejaS : Kn → X um homeomorfismo linear. EntãoU = T ◦ S :Kn → Y é uma aplicação linear contínua, de acordo com o Lema F.5. MasentãoT = U ◦ S−1 é uma aplicação linear contínua. 2

Corolário F.8 Todas as normas num espaço vetorialX de dimensão finita sãoequivalentes.

Demonstração:Se‖ · ‖1 e ‖ · ‖2 forem duas normas emX, decorre do CorolárioF.7 que as aplicações identidadeI12 : (X, ‖ · ‖1) 7→ (X, ‖ · ‖2) e I21 : (X, ‖ · ‖2) 7→(X, ‖ · ‖1) são contínuas. Isso garante a equivalência das normas consideradas.2

SejaA ∈ Mm×n(K) uma matriz. IdentificandoMm×n(K) comKmn, podemosintroduzir uma noção natural de norma emMm×n(K) e transformá-lo num espaçonormado. Contudo, seguiremos um caminho mais geral: seT : X → Y for umaaplicação linearcontínua, definiremos diretamentenorma de uma aplicação linear‖T‖.

Page 293: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 277 — #293i

i

i

i

i

i

277

Definição F.9 SejamX eY espaços normados eT : X → Y uma aplicação linearcontínua. Definimos

‖T‖ = max‖x‖≤1

‖Tx‖.

Nessa definição, note que‖ · ‖ designa tanto a norma emX quanto a norma emY .A definição nos mostra que‖Tx‖ ≤ ‖T‖ ‖x‖ para todox ∈ X.

O próximo resultado garante que‖·‖ é realmente uma norma no espaço vetorialL(X,Y ) de todas as aplicações linearescontínuasdeX emY .

Proposição F.10SejamX,Y espaços normados eT : X → Y uma aplicaçãolinear contínua. Então

(i) ‖T‖ é uma norma;

(ii) ‖ST‖ ≤ ‖S‖ ‖T‖.Demonstração: Claramente‖T‖ ≥ 0 e ‖T‖ = 0 se, e somente se,Tx = 0 paratodox 6= 0. Vale

‖λT‖ = maxx 6=0

‖λTx‖‖x‖ = max

x 6=0

|λ | ‖Tx‖‖x‖ = |λ|max

x 6=0

‖Tx‖‖x‖ = |λ| ‖T‖.

Além disso,

‖S + T‖ = maxx 6=0

‖(S + T )x‖‖x‖ ≤ max

x 6=0

‖Sx‖+ ‖Tx‖‖x‖

≤ maxx 6=0

‖Sx‖‖x‖ + max

x 6=0

‖Tx‖‖x‖ = ‖S‖+ ‖T‖.

(ii) ‖(ST )x‖ = ‖S(Tx)‖ ≤ ‖S‖ ‖Tx‖ ≤ ‖S‖ ‖T‖ ‖x‖. 2

Observação F.1A norma da aplicaçãoT depende das normas escolhidas nosespaçosX e Y (veja em [24], p. 65, uma tabela relacionando a norma de umamatrizA, n×m, com diferentes normas nos espaçosRm eRn).

Consideremos então uma aplicação linearT : X → Y entre espaços normados,com dimX = m e dimY = n. A escolha de bases nos espaçosX e Y geraisomorfismos entreX e Km e Y e Kn, respectivamente. Esses isomorfismosnão precisam ser isométricos, de forma que representações matriciais deT podempossuir normas diferentes da norma da aplicaçãoT .

Contudo, se os espaços envolvidos forem euclidianos, a normada aplicaçãoTé igual à norma (como aplicação linear) de qualquer uma de suas representaçõesmatriciais referentes a bases ortonormais nos espaçosX e Y , pois as matrizesmudança de base envolvidas serão sempre unitárias. (Veja o Exercício 7.) �

Page 294: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 278 — #294i

i

i

i

i

i

278 Espaços Normados Cap. F

F.1 Exercícios

1. SejaX um espaço normado. Mostre que a aplicaçãox ∈ X 7→ ‖x‖ ∈ R+ éuma aplicação contínua. Mostre que, sexn → x ∈ X, então‖xn‖ → ‖x‖.Mostre que as aplicações(x, y) ∈ X×X 7→ x+ y ∈ X e (λ, x) ∈ C×X 7→λx ∈ X são contínuas (os espaçosX×X eC×X estão providos da topologiaproduto).

2. SejamX1, . . . , Xn e Y espaços normados eT : X1 × · · · × Xn → Yuma aplicaçãon-linear. Se(x1, . . . , xn) ∈ X1 × · · · × Xn, mostre que sãoequivalentes as propriedades:

(a) T é contínua;

(b) T é contínua na origem;

(c) sup‖x1‖=...=‖xn‖=1,

‖T (x1, . . . , xn)‖ = M <∞ (T é limitada);

(d) existeC > 0 tal que‖T (x1, . . . , xn)‖ ≤ C[‖x1‖ · · · ‖xn‖] para todo(x1, . . . , xn) ∈ X1 × · · · ×Xn;

Conclua que tanto a função determinante como a multiplicaçãode um vetorpor um escalar são aplicações contínuas.

3. SejaX um espaço normado. Mostre que, sedist (·, ·) : X × X → R+ foruma distância1 gerada por uma norma (isto é,dist (x, y) = ‖x − y‖), entãoela satisfaz

(a) dist (x+ z, y + z) = dist (x, y) para todosx, y, z ∈ X (invariância portranslação);

(b) dist (λx, λy) = |λ| dist (x, y) (homotetia).

Reciprocamente, seX for um espaço métrico e sedist for uma distância emX que satisfaz(a) e (b), entãodist é gerada por uma norma.

4. Seja(X, dist) um espaço métrico. Mostre que qualquer conjunto compactoK ⊂ X é um conjunto limitado e fechado. Verifique também que a

1Uma distânciaé uma aplicaçãodist (·, ·) : X × X → R+ que satisfaz: i)dist (x, y) ≥ 0 edist (x, y) = 0⇔ x = y; ii) dist (x, y) = dist (y, x); iii) dist (x, z) ≤ dist (x, y) + dist (y, z) paratodosx, y, z ∈ X. Um espaço métricoé um conjuntoX munido de uma distância.

Page 295: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 279 — #295i

i

i

i

i

i

§F.1 Exercícios 279

imagem de um compacto por uma função contínua é um conjunto compacto.Finalmente, mostre que a imagem de um conjunto limitado por uma funçãocontínua é limitada.

5. SejamE,F espaços com produto interno eT : E → F uma aplicação linearcontínua. Mostre que

‖T‖ = sup‖x‖=1=‖y‖

|〈Tx, y〉|.

SeE,F forem espaços euclidianos, conclua que‖T‖ = ‖T ∗‖.

6. SejaT : E → E um operador auto-adjunto definido no espaço euclidianoE.Mostre que

‖T‖ = sup‖x‖=1

|〈Tx, x〉|.

7. SejaE um espaço euclidiano eT : E → E um operador. Mostre que‖T‖2 = ‖T ∗T‖ = ‖TT ∗‖. Conclua que‖U‖ = 1 para todo operador unitário(ortogonal)U : E → E. SeU−1TU = S com U unitário (ortogonal),verifique que

(a) ‖T‖ = ‖S‖;(b) ‖T‖ =

√λ, em queλ é o maior autovalor deT ∗T .

8. SejaE um espaço euclidiano eT : E → E um operador invertível, com‖T‖ = 1 = ‖T−1‖. Mostre queT ∗ = T−1.

Page 296: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 280 — #296i

i

i

i

i

i

Lista de Símbolos

K,R,C 1X 1Kn,F ,K[z],Kn[z] 2B 3[x]B 5E 5A+B,U + V, U ⊕ V 6x1 ≡ x2 mod Y, [x], x+ Y, X

Y, X/Y 8

< S > 11kerT 11K∞ 11T−1 12∼, cl(x) 13X1 ⊕X2 14X ′ 15δij 16X ′′ 17S0, Y 00 20T ′ 21π 21A = (aij), (aij), Tij 24L(X,Y ),Mm×n(R),Mm×n(K) 25ST 26A−1 28< C >,< L > 29imT 30At, T t, 30posto A, posto T 32A 33

280

Page 297: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 281 — #297i

i

i

i

i

i

TK, TCB , (X,B) 41

P BB , Q

CC 42

TB 43〈ℓ, z〉 46D(c1, . . . , cn) 57Aij 60pi 62τ 63detA 65ǫ(p), ǫ(A) 65trA 72trT, detT 73W (f1, . . . , fn)(t) 75Xλ, σ(T ) 80πj 83Tj, T |Wj

83q(T ) 85A, z, XC, TC 87A,K[T ] 90φ 91f(T ) 100eAt 106x(t), A(t) 107J, Ji 127Nk 127E, 〈x, y〉 152‖x‖ 153x ⊥ y 153Re z 155Y ⊥, (Y ⊥)⊥ 159T ∗ 163‖A‖ 175G(v1, . . . , vn) 179P(v1, . . . , vk),P(v1, . . . , vk) 183B(x, y),S(X),L2(X) 186q 190qB 190

Page 298: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 282 — #298i

i

i

i

i

i

q(x) > 0, q(x) ≥ 0, q(x) < 0, q(x) ≤ 0 194Ar 199H ≥ 0, H > 0 205

Page 299: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 283 — #299i

i

i

i

i

i

Referências Bibliográficas

[1] J. F. Andrade: Um Exemplo (simples) de um Operador Auto-adjunto semAutovalores e Outros Exemplos, Matemática Universitária37 (2004), 9-14.

[2] H. Anton e C. Rorres: Elementary Linear Algebra: Applications version, 6th.edition, Wiley, New York, 1991.

[3] R. Bellman: Introduction to Matrix Analysis, McGraw-HillBook Company,New York, 1960. (Republicado na série "Classics in applied mathematics",SIAM, 1995).

[4] G. Birkhoff e S. MacLane: Álgebra Moderna Básica, 4a. Edição, EditoraGuanabara Dois, Rio de Janeiro, 1980.

[5] H. P. Bueno:Functions of Matrices, Cubo5 (2003), no. 3, 31-54.

[6] H. P. Bueno, G. Ercole e A. Zumpano: Introdução à Análise Funcional, empreparação.

[7] L. Debnath e P. Mikusinski: Introduction to Hilbert spaces with applications,Academic Press, Boston, 1990.

[8] N. Dunford e J. T. Schwartz: Linear Operators I, Interscience, New York,1968.

[9] F. R. Gantmacher: The Theory of Matrices, vol. 1 and 2, Chelsea PublishingCo., New York, 1959.

[10] I. M. Gelfand: Lectures on Linear Algebra, Interscience, New York, 1961.

[11] G. Golub e C. Van Loan: Matrix Computations, 2nd. Edition,Johns Hopkins,Baltimore, 1989.

283

Page 300: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 284 — #300i

i

i

i

i

i

[12] J. I. Hall: Another Elementary Approach to the Jordan Form, Amer. Math.Monthly 98 (1991), no. 4, 336-340.

[13] P. R. Halmos: Finite Dimensional Vector Spaces, Springer, 1974.

[14] P. R. Halmos: Linear Algebra Problem Book, The Mathematical Associationof America, Washington, DC, 1995.

[15] M. Hirsch and S. Smale: Differential Equations, Dynamical Systems andLinear Algebra, Academic Press, New York, 1974.

[16] K. Hoffman e R. Kunze: Álgebra Linear, 2a. edição, LivrosTécnicos eCientíficos Editora, Rio de Janeiro, 1979.

[17] A. N. Kolmogorov e S. V. Fomin: Elementos de la Teoria de Funciones y delAnalysis Funcional, Mir, Moscu, 1975.

[18] S. Lang: Estruturas Algébricas, Livros Técnicos e Científicos Editora, Rio deJaneiro, 1972.

[19] S. Lang: Álgebra Linear, Editora Edgard Blücher/Editora Universidade deBrasília, São Paulo, 1971.

[20] P. D. Lax: Linear Algebra, Wiley-Interscience Publication, New York, 1997.

[21] S. J. Leon: Álgebra Linear com Aplicações, 4a. Edição, Livros Técnicos eCientíficos Editora, Rio de Janeiro, 1999.

[22] E. L. Lima: Álgebra Linear, 2a. edição, IMPA, Rio de Janeiro, 1996.

[23] E. L. Lima: Análise no EspaçoRn, 2a. edição, IMPA, Rio de Janeiro, 2002.

[24] E. L. Lima: Curso de Análise, volume 2, 6a. edição, IMPA, Rio de Janeiro,2000.

[25] V. V. Prasolov: Problems and Theorems in Linear Algebra, Translationsof Mathematical Monographs vol. 134, American Mathematical Society,Providence, Rhode Island, 1994.

[26] M. Reed e B. Simon: Methods of Modern Mathematical Physics, vol. I,Academic Press, New York, 1972.

Page 301: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 285 — #301i

i

i

i

i

i

[27] W. Rudin: Real and Complex Analysis, 3rd. Edition, McGraw-Hill, NewYork, 1987.

[28] N. C. Saldanha e C. Tomei:Spectra of Regular Polytopes, Discrete &Computational Geometry7 (1992), 403-414.

[29] R. J. Santos: Álgebra Linear e Aplicações, Imprensa Universitária da UFMG,Belo Horizonte, 2004.

[30] R. J. Santos: Introdução às Equações Diferenciais Ordinárias, ImprensaUniversitária da UFMG, Belo Horizonte, 2005.

[31] G. E. Shilov: Linear Algebra, Dover, New York, 1977.

[32] J. Sotomayor: Lições de Equações Diferenciais Ordinárias, IMPA, Rio deJaneiro, 1979.

[33] G. Strang: Linear Algebra and its Applications, 3rd. edition, Harcourt, FortWorth, 1988.

Page 302: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 286 — #302i

i

i

i

i

i

Page 303: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 287 — #303i

i

i

i

i

i

Índice Remissivo

adjunta, 163de uma aplicação linear, 21

adjunta clássica, 71álgebra, 90

com unidade, 90comutativa, 90

alternativa de Fredholm, 167anulador, 94

de um subconjunto, 20aplicação linear

adjunta, 21, 163anti-hermitiana, 171anti-simétrica, 171antiauto-adjunta, 171auto-adjunta, 171

positiva definida, 205positiva semidefinida, 205

auto-espaço, 80autovalor, 80autovetor, 80bloco de uma, 83complexificação de uma, 88determinante de uma, 73diagonalizável, 78, 80espaço invariante por uma, 83gráfico de uma, 183hermitiana, 171imagem de uma, 30inversa de uma, 12núcleo de uma, 30

nilpotente, 115normal, 171polinômio característico de uma, 80projeção, 83que preserva produto interno, 170,

181representação em bases, 41semi-simples, 151simétrica, 171traço de uma, 73transposta, 21, 31, 45valores singulares, 218

aplicações linearesdiagonalização simultânea de, 148,

212, 226equivalentes em bases, 54produto de, 26unitariamente equivalentes, 225

autovalordependência contínua, 95índice de um, 120, 262multiplicidade algébrica, 80multiplicidade geométrica, 150

autovetor, 80autovetores, 80

generalizados, 120, 262

base, 3canônica doKn, 5de Jordan, 129dual, 16

287

Page 304: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 288 — #304i

i

i

i

i

i

ortogonal, 156ortonormal, 156positivamente orientada, 59

Besseldesigualdade de, 178

bidual, 17bloco

cíclico, 140de Frobenius, 140de Jordan, 127, 252

caminho, 107derivada de um, 107diferenciável, 107vetor velocidade, 107

Cauchy-Schwarzdesigualdade de, 154

Cayley-Hamiltonteorema de, 86

Choleskydecomposição de, 228

codimensão 1, 20combinação linear, 3compacto, 174complemento

de Schur, 76ortogonal, 159

complexificaçãode um espaço vetorial, 88de um operador, 88

congruência de matrizes, 198conjugado

de um vetor, 87de uma matriz, 87

conjuntoortonormal, 156compacto, 174

gerador, 3linearmente dependente, 3linearmente independente, 3ortogonal, 156

coordenadas de um vetor, 5cosseno

de um operador, 108de uma matriz, 108

Cramerregra de, 57, 70

decomposiçãoLDU , 239LU , 237QR, 230, 233de Cholesky, 228de Frobenius, 141de Schur, 229em valores singulares deA, 219

reduzida, 220polar, 221racional, 141

desigualdadede Bessel, 178de Cauchy-Schwarz, 154, 197de Hadamard, 184de Schur, 235

determinanteda matriz de Gram, 184da matriz transposta, 67de uma aplicação linear, 73de Vandermonde, 74do produto de matrizes, 68existência do, 60expansão em cofatores, 61, 68unicidade do, 64

determinante e volume, 184

Page 305: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 289 — #305i

i

i

i

i

i

diagonalização simultâneade duas formas quadráticas, 226de operadores diagonalizáveis, 148de operadores normais, 212de produto interno e matriz hermiti-

ana, 226distância, 278

equivalência em basesde aplicações lineares, 54

espaço métrico, 278espaço vetorial, 1

coluna, 29com produto hermitiano, 152com produto interno, 152complexificação de um, 88de dimensão finita, 3de dimensão infinita, 3dual, 15euclidiano, 152finitamente gerado, 3gerado peloT -anulador dex, 140gerado por um subconjunto, 11hermitiano, 152linha, 30normado, 153subespaço trivial, 10unitário, 152

espaços vetoriaiscanonicamente isomorfos, 10isomorfos, 2linearmente homeomorfos, 275normados

homeomorfismo de, 274soma direta de, 14

espectro, 80exponencial

de um operador, 106de uma matriz, 106

fatores irredutíveis, 141fluxo linear, 105, 106, 268forma, 186

auto-adjunta, 186bilinear, 186, 199

não-degenerada, 200simétrica, 186, 199

canônica de Jordan, 127, 252unicidade, 131

posto de uma, 197quadrática

hermitiana, 190indefinida, 194negativa definida, 194negativa semidefinida, 194positiva definida, 194positiva semidefinida, 194simétrica, 190

representação matricial, 188sesquilinear, 186

antiauto-adjunta, 186hermitiana, 186

Fredholmalternativa de, 167

Frobeniusbloco de, 140decomposição de, 141

funçãoanalítica, 110de matriz, 96

definição, 100determinante, 57

existência da, 60unicidade da, 64

Page 306: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 290 — #306i

i

i

i

i

i

euclidianacom relação a um operador, 100com relação a um polinômio, 96com relação a uma matriz, 100

holomorfa, 110funcional linear, 2, 15

gráfico de uma aplicação linear, 183Gram

matriz de, 179, 184Gram-Schmidt

ortogonalização de, 158

Hadamarddesigualdade de, 184

homeomorfismo, 274homomorfismo

de álgebras, 91

identidadede polarização, 156, 197, 200do paralelogramo, 156, 196

índice de um autovalor, 120, 262inversa, 12

de Moore-Penrose, 221isometria, 168

que preserva a origem, 168isomorfismo, 2

canônico, 10de espaços com produto interno, 181

Jordanbase de, 129bloco de, 127, 252cadeia de, 253forma canônica de, 127, 252

unicidade, 131forma real, 137

Lagrangeteorema de, 191

Legendrepolinômios de, 177

lei da inércia, 195Liouville

teorema de, 272logaritmo

de um operador, 108de uma matriz, 108

matriz, 24anti-simétrica, 13aumentada de um sistema, 33auto-adjunta, 171conjugada, 87cosseno, 108de Gram, 179, 184

determinante da, 184de permutação, 62de rotação, 24decomposiçãoLDU , 239LU , 237QR, 230de Cholesky, 228de Schur, 229em valores singulares deA, 219

diagonal em blocos, 84elementar, 236entrada de uma, 24escalonamento de uma, 34espaço coluna, 29espaço linha, 30exponencial, 106fluxo de uma, 106forma canônica de Jordan, 127, 252

Page 307: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 291 — #307i

i

i

i

i

i

unicidade, 131forma de Jordan real, 137forma escalonada, 33

reduzida por linhas, 34hermitiana, 171inversa, 28logaritmo, 108mudança de base, 42não-negativa, 112negativa definida, 194negativa semidefinida, 194norma de uma, 175positiva, 112positiva definida, 179

relação com produto interno, 179positiva semidefinida, 194posto de uma, 32pseudo-inversa, 221quadrada, 24que representa uma aplicação linear,

24que representa uma forma, 188raiz quadrada, 108seno, 108simétrica, 13, 171submatriz, 24submatriz principal, 199traço de uma, 72transposta, 30triangular inferior, 75triangular superior, 75triangular superior em blocos, 76

matrizescongruentes, 198equivalentes por linha, 34ortogonalmente equivalentes, 226produto de, 28

semelhantes, 72menor principal, 199Moore-Penrose

inversa de, 221mudança de variável linear, 191multiplicidade

algébrica de um autovalor, 80de um fator irredutível, 250de uma raiz, 91geométrica de um autovalor, 150

norma, 153de uma aplicação linear, 276de uma matriz, 175gerada pelo produto interno, 155

operações elementaressobre as linhas de uma matriz, 33

operador, 2anti-hermitiano, 171anti-simétrico, 171antiauto-adjunto, 171auto-adjunto, 171

positivo semidefinido, 205bloco de um, 83complexificação de um, 88diagonalizável, 78, 80espaço invariante por um, 83função de um

exponencial, 106logaritmo, 108raiz quadrada, 108seno, 108

hermitiano, 171nilpotente, 115normal, 171ortogonal, 171polinômio característico de um, 80

Page 308: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 292 — #308i

i

i

i

i

i

projeção, 83semi-simples, 151simétrico, 171simétrico, 171unitário, 171

operadoresdiagonalização simultânea de, 148,

212, 226ordem de um vetor, 140orientação de uma base, 59ortogonalidade, 153

paralelepípedovolume do, 183gerado pork vetores, 183volume do, 184

permutação, 61notação matricial, 62transposição, 63

Perronteorema de, 112

Pitágorasteorema de, 153

pivô, 33polar, decomposição, 221polinômio

característico, 79, 80interpolador, 99mínimo

de um operador, 85de um vetor, 94, 139do operador adjunto, 182unicidade do, 86

mônico, 74, 85T -anulador, 94, 139

polinômiosde Legendre, 177

primos entre si, 246posto

de uma forma, 197de uma matriz, 32

princípio do minimax, 207problema de valor inicial, 265problema dos quadrados mínimos, 160

equação normal, 165solução pela decomposiçãoQR, 233

processo de ortogonalização de Gram-Schmidt, 158

produtode aplicações lineares, 26de matrizes, 28escalar, 152hermitiano, 152interno, 152

canônico, 152identidade de polarização, 156

produto internoe matriz positiva definida, 179matriz que representa um, 179

projeção, 21, 49canônica, 83ortogonal, 160

pseudo-inversa, 221

quadrados mínimos, 160, 233equação normal, 165

quociente de Rayleigh, 207

raizmultiplicidade de uma, 91

raiz quadradade um operador, 108

unicidade da, 206de uma matriz, 108

Rayleigh

Page 309: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 293 — #309i

i

i

i

i

i

quociente de, 207reflexão, 216

simples, 216regra de Cramer, 57, 70representação de um vetor em uma base,

5Riesz

teorema de representação de, 162rotação, 22

simples, 216

Schurcomplemento de, 76decomposição de, 229desigualdade de, 235

semelhança de matrizes, 72seno

de um operador, 108de uma matriz, 108

sinal de uma permutação, 65sistema linear, 29

escalonamento, 34forma escalonada, 33

reduzida por linhas, 34homogêneo, 29matriz aumentada de um, 33não-homogêneo, 29

homogêneo associado, 29operações elementares, 33pivô, 33variável livre, 36

sistema linear de equações diferenciaisbase do espaço de soluções, 266condição inicial, 265existência de soluções, 268fluxo linear, 268homogêneo, 264

matriz fundamental, 266não-homogêneo, 264solução fundamental, 267solução geral, 267soluções linearmente dependentes,

266soluções linearmente independen-

tes, 266unicidade de solução, 265Wronskiano, 266

sistema linearesequivalentes, 36

solução fundamentalde um sistema linear de equações

diferenciais, 267solução geral

de um sistema linear de equaçõesdiferenciais, 267

soma diretade operadores, 83

subespaço, 2gerado peloT -anulador dex, 140gerado por um conjunto, 11invariante, 13, 53trivial, 10

subespaçosinterseção de, 13soma de, 6soma direta de, 6

submatriz, 24principal, 199

menor, 199Sylvester

teorema de, 195

T -anulador, 139teorema

Page 310: Algebra e Matrizes Hamilton

i

i

“ALinear” — 2005/12/19 — 13:25 — page 294 — #310i

i

i

i

i

i

alternativa de Fredholm, 167da decomposiçãoQR, 233da decomposição de Frobenius, 141da decomposição polar, 221da decomposição primária, 118,

122, 248da decomposição racional, 141da imagem do espectro, 114da soma direta ortogonal, 159de caracterização de matrizes positi-

vas-definidas, 228de Cayley-Hamilton, 86, 89de diagonalização de matrizes

hermitianas, 202de diagonalização de matrizes simé-

tricas, 203de diagonalização para matrizes

hermitianas, 230de diagonalização para matrizes

simétricas, 230de existência do determinante, 60de existência e unicidade de solução

de sistema lineares de equaçõesdiferenciais, 268

de Gram-Schmidt, 158de Lagrange, 191de Liouville, 272de minimax, 207de Perron, 112de Pitágoras, 153de representação de Riesz, 162de Schur, 229de Sylvester, 195de unicidade da raiz quadrada, 206de unicidade do determinante, 64do núcleo e da imagem, 37dos operadores diagonalizáveis, 82

dos valores singulares, 217espectral, 115, 261

dos operadores auto-adjuntos, 202forma de Jordan complexa, 130, 253forma de Jordan real, 137propriedades do traço, 72

traçode uma aplicação linear, 73de uma matriz, 72

transformação linear, 2translação, 168transposição, 63transposta

de uma aplicação linear, 21, 31, 45de uma matriz, 30

unicidade de soluçãode um sistema linear de equações

diferenciais, 265

valores singulares de uma aplicaçãolinear, 218

Vandermondedeterminante de, 74

variável livre, 36vetor, 1

conjugado, 87não-negativo, 112positivo, 112unitário, 153

vetor cíclicode ordemk, 140

vetoresortogonais, 153perpendiculares, 153

Wronskiano, 75, 266