´ALGEBRA LINEAR Francesco Russo e Aron Simis

53
´ ALGEBRA LINEAR Francesco Russo e Aron Simis

Transcript of ´ALGEBRA LINEAR Francesco Russo e Aron Simis

Page 1: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

ALGEBRA LINEAR

Francesco Russo e Aron Simis

Page 2: ´ALGEBRA LINEAR Francesco Russo e Aron Simis
Page 3: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

Conteudo

Capıtulo 1. Preliminares de uma aplicacao linear 11.1. Polinomio caracterıstico e polinomio minimo 11.2. Autovalores e autovetores 31.3. Diagonalizacao e triangulacao de uma aplicacao linear 41.4. Subespacos invariantes de uma aplicacao linear 71.5. Decomposicao T -primaria de um espaco vetorial 8Exercicios de revisao e referentes ao capıtulo 10

Capıtulo 2. A teoria dos fatores invariantes e dos divisores elementares 172.1. Matrizes com elementos polinomiais 172.2. Escalonamento de matrizes com elementos polinomiais 232.3. Forma canonica de Smith 262.4. Equivalencia em Mn×n(k[X]) e semelhnanca em Mn×n(k) 302.5. Forma canonica racional 312.6. Fatores invariantes e divisores elementares 332.7. Teoremas de decomposicao T -ciclica I e T -primaria II 352.8. Teorema de decomposicao T–ciclica II 37Exercicios do capıtulo 40

Capıtulo 3. Forma canonica de Jordan 453.1. Forma canonica de Jordan para operadores nilpotentes 453.2. Forma canonica de Jordan para operadores com polinomio minimo completamente

redutivel sobre k 47Exercisios do capıtulo 49

iii

Page 4: ´ALGEBRA LINEAR Francesco Russo e Aron Simis
Page 5: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

CAPıTULO 1

Preliminares de uma aplicacao linear

1.1. Polinomio caracterıstico e polinomio minimo

Seja K um corpo arbitrario, fixo de uma vez por todas, a menos de afirmacao em contrario.Seja V um K-espaco vetorial de dimensao finita. Denotaremos por End(V ) o conjunto dasaplicacoes lineares de V em V e observamos que End(V ), alem de admitir uma estrutura deK-espaco vetorial (com dim End(V ) = (dimV )2), admite uma outra operacao natural, a decomposicao de aplicacoes , que lhe confere estrutura de anel (nao comutativo). Nesta secaoestudaremos as propriedades preliminares de uma aplicacao linear T ∈ End(V ). Indicaremospor IV ∈ End(V ) a aplicacao linear identidade, assim como I ∈ Mn×n(K) denotara a matrizidentidade In×n.

Seja T ∈ End(V ). Dado p(t) = a0 + a1t+ . . .+ artr ∈ K[t], definimos

p(T ) := a0IV + a1T + . . .+ arTr ∈ End(V )

como a aplicacao linear cuja imagem em v e

p(T )(v) := a0v + a1T (v) + . . .+ arTr(v) ∈ V.

Com essa notacao podemos definir um homorfismo de aneis comutativos φT : K[t]→ K[T ],dado por

φT (p(t)) = p(T ) ∈ End(V ),onde K[T ] designa a K-subalgebra do anel End(V ) gerada por T ∈ End(V ). Neste mesmoespırito, definimos uma operacao •T : K[t]× V → V de K[t] em V , dada por

p(t) •T v = p(T )(v) ∈ V.A operacao •T induz uma estrutura de K[t]-modulo finitamente gerado no K-espaco vetorial

V .Analogamente, se A ∈Mn×n(K), definimos

p(A) = a0I + a1A+ . . .+ arAr ∈Mn×n(K)

e a operacao•A : K[t]×K⊕n → K⊕n

comop(t) •A v = p(A)(v) ∈ K⊕n,

onde p(A)(v) designa o produto da matriz p(A) pelo vetor coluna v.Dada A(t) = (ai,j(t)) ∈Mn×n(K[t]) e dados v1, . . . ,vn ∈ V , definimos

A(t) •T

v1...

vn

= A(T )

v1...

vn

=

∑n

j=1 a1,j(T )(vj)...∑n

j=1 an,j(T )(vj)

.

1

Page 6: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2 1. POLINOMIO MINIMO E CARATERISTICO

1.1.1. Definicao. (Polinomio carateristico e polinomio minimo) Seja T ∈ End(V ) eseja B = {v1, . . . ,vn} uma base de V . O polinomio carateristico de T e

cT (t) := det(tI − [T ]BB) ∈ K[t].

O polinomio minimo de T , indicado com mT (t) e o gerador monico do ideal ker (φT ) ⊆ K[t],i. e. e o polinomio monico de menor grau p(t) ∈ K[t] com a propriedade que p(T ) = 0End(V ).

Se A ∈Mn×n(K), definimos o polinomio carateristico de A como

cA(t) = det(tI −A) ∈ K[t]

e o polinomio minimo de A, mA(t), como o gerador monico de ker (φA).

Por definicao de matriz associada a uma aplicacao linear com respeito a uma base B, temosque, se [T ]BB = A = [ai,j ],

T (vj) =n∑i=1

ai,jvi.

Se B ∈Mn×n(K) e uma matriz inversıvel, entao

det(tI −B−1AB) = det(B−1(tI −A)B) = det(tI −A)

para qualquer matriz A ∈ Mn×n(K). Portanto o polinomio caraterestico de T e bem definido,nao dependendo da escolha da base B utilizada na sua definicao. cT (t) e um polinomio monicode grau n = dim(V ). Observamos que

det(tI −A) = det((tI −A)t) = det(tI −At).

Se C(t) = tI −At ∈Mn×n(K[t]), temos

(1.1.1) C(t) •T

v1...

vn

=

T (v1)−∑n

i=1 ai,1(vi)...

T (vn)−∑n

i=1 ai,n(vi)

=

0V...

0V

.

Se ad(C(t)) ∈Mn×n(K[t]) e a matriz adjunta de C(t) ∈Mn×n(K[t]), temos

(1.1.2) ad(C(t)) · C(t) = C(t) · ad(C(t)) = det(tI −At) · I = cT (t) · I.

Podemos agora demonstrar um resultado classico importante.

1.1.2. Teorema. (Cayley-Hamilton) Seja T ∈ End(V ). Entao

cT (T ) = 0End(V ),

i. e. T anula o proprio polinomio carateristico.Analogamente, se A ∈Mn×n(K), entao

cA(A) = 0Mn×n(K).

Page 7: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

1.2. DEFINICOES 3

Demonstracao. Seja B = {v1, . . . ,vn} uma base de V . De (1.1.2) e de (1.1.1), deduzimos cT (T )(v1)...

cT (T )(vn)

= (cT (t) · I) •T

v1...

vn

= ad(C(t)) •T

C(t) •T

v1...

vn

=

= ad(C(t)) •T

0V...

0V

=

0V...

0V

.

Portanto a aplicacao linear cT (T ) e a aplicacao nula porque se anula sobre uma base de V .�

1.1.3. Corolario. Seja T ∈ End(V ). O polinomio minimo de T divide o polinomio carate-ristico de T .

1.2. Autovalores e autovetores

Nesta secao introduziremos as primeiras nocoes de subespacos invariantes, atraves dos au-tovalores de uma aplicacao linear.

1.2.1. Definicao. (Autovalor e autovetor de un aplicacao linear) Seja T ∈ End(V ).Um autovetor de T e um vetor v ∈ V \ 0V tal que existe λ ∈ K com a propriedade que

T (v) = λv.

O elemento λ ∈ K se diz autovalor de T e v se diz autovetor relativo ao autovalor λ.Analogamente, se A ∈Mn×n(K), um vetor nao nulo v ∈ K⊕n se diz autovetor da matriz A

se existir λ ∈ K tal queA · v = λv.

O elemento λ ∈ K se diz nesse caso autovalor de A.

Indicamos com Vλ, λ ∈ K, o seguinte subespaco de V

Vλ = ker (λIV − T ).

Esse subespaco vetorial de V , chamado de autoespaco de T relativo a λ ∈ K.

Observamos que λ ∈ K e autovalor se e somente se Vλ 6= 0V . A relacao entre os autovaloresde T ∈ End(V ) (ou de A ∈Mn×n(K)) e o polinomio caraterıstico de T e exprimida pelo seguinteresultado.

1.2.2. Teorema. Os autovalores de T ∈ End(V ) (ou de A ∈Mn×n(K)) sao precisamene asraizes em K de cT (t) (respectivamente de cA(t)), que coincidem com as raizes em k de mT (t)(respectivamente de mA(t)).

Em particular se n = dim(V ), entao T tem no maximo n autovalores distintos.

Demonstracao. Seja B = {v1, . . . ,vn} uma base de V e seja [T ]BB a matriz de T em relacaoa base B. O aplicacao linear λIV −T tem nucleo nao trivial se e somente se det([λIV −T ]BB) = 0se e somente se cT (λ) = 0.

Seja agora λ ∈ k um autovalor e seja v ∈ Vλ \ 0V . Temos

0V = mT (T )(v) = mT (λ) · v.Sendo v 6= 0V , temos mT (λ) = 0, i. e. qualquer raiz de cT (t) em k e raiz de mT (t). Sendo quemT (t) divide cT (t), qualquer raiz de mT (t) em k e raiz de cT (t). �

Page 8: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

4 1. POLINOMIO MINIMO E CARATERISTICO

1.2.3. Teorema. Sejam λ1, . . . , λm autovalores distintos de uma aplicacao linear T ∈ End(V )e sejam wj ∈ Vλj \0V , j = 1, . . . ,m, entao w1, . . . ,wm sao linearmente independentes sobre K.

Em particular a soma dos subespacos Vλ1 , . . . , Vλm e direta.

Demonstracao. Seja pj(t) =∏i 6=j(t− λi). Por definicao tem-se:

pj(T )(wk) ={ ∏

i 6=j(λj − λi)wj se k = j

0V se k 6= j

Sejaa1w1 + . . .+ amwm = 0V

com ai ∈ k. Temos que para cada j = 1, . . . ,m

0V = pj(T )(0V ) = pj(T )(m∑i=1

aiwi) =n∑i=1

aipj(T )(wi) = aj∏i 6=j

(λj − λi)wj .

Portanto aj = 0 para cada j = 1, . . . ,m. �

1.2.4. Definicao. (Multiplicidade algebrica e geometrica de um autovalor)Seja cT (t) o polinomio caraterıstico de T ∈ End(V ) e seja λ ∈ K um autolavor de T . Se

cT (t) = (t− λ)µq(t) com q(t) ∈ K[t] e com q(λ) 6= 0, dizemos que µ e a multiplicidade algebricade λ.

A multiplicidade geometrica do autovalor λ ∈ K de T e a dimensao do autoespaco Vλ relativoao autovalor λ.

1.3. Diagonalizacao e triangulacao de uma aplicacao linear

1.3.1. Definicao. (Endomorfismo diagonalizavel ou triangularizavel) Uma aplicacaolinear T ∈ EndK(V ) e diagonalizavel sobre K se existe uma base B = {v1, . . . ,vn} de V tal que[T ]BB seja uma matriz diagonal. Equivalentemente, T e diagonalizavel sobre K se e somente seexiste uma base do K-espaco V formada por autovetores de T .

Dizemos que T e triangularizavel superiormente (respectivamente, inferiormente) sobre Kse existe uma base B = {v1, . . . ,vn} de V tal que [T ]BB seja uma matriz triangular superior(respectivamente, triangular inferior).

Correspondentemente, uma matriz A ∈ Mn×n(K) se diz diagonalizavel (triangularizavelsuperiormente ou inferiormente) sobre K se existe P ∈Mn×n(K) inversıvel tal que P−1 ·A · Pseja diagonal (triangular superior, respectivamente, triangular inferior).

Sempre que nao se prestar a confusao, omitiremos o complemento “sobre K”.

O Teorema 1.2.3 tem o seguinte corolario, cuja demonstracao e imediata.

1.3.2. Corolario. Se T ∈ End(V ) admite n autovalores distintos, onde n = dim(V ), entaoT e diagonalizavel.

Em geral, uma aplicacao linear nao e diagonalizavel como mostram os seguinte exemplos.

1.3.3. Exemplo. Seja

A =[

0 10 0

]e seja TA : K2 → K2 definido por

TA((xy

)) = A ·

(xy

).

Page 9: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

1.3. DEFINICOES 5

Entao cTA(t) = t2, o unico autovalor e 0 e V0 = ker (T ) e um subespaco de dimensao 1.Portanto nao existe uma base de K2 formada por autovetores de T . O aplicacao linear TA eclaramente triagularizavel superiormente. Temos mTA(t) = t2.

Observemos que T nao e diagonalizavel sobre K, qualquer que seja o corpo K. O exemploseguinte mostra que, em geral, a diagonalizabilidade depende do corpo K.

Seja Tθ : R2 → R2 a aplicacao linear definida por

Tθ((xy

)) =

[cos(θ) sin(θ)− sin(θ) cos(θ)

]·(xy

),

com θ ∈ [0, 2π). Se θ 6= 0, π, entao cTθ(t) nao tem raizes reais. A aplicacao linear Tθ nao esequer triangularizavel sobre R para esses valores de θ - mas o e sobre C.

Esses exemplos simples poem em evidencia a necessidade de criterios mediante os quaisuma aplicacao linear seja diagonaliavel ou triangularizavel. O proximo resultado fornece um talcriterio de triangularizacao .

1.3.4. Teorema. As seguintes condicoes sao equivalentes para T ∈ End(V ):(1) T triangularizavel superiormente (ou inferiormente);(2) cT (t) e completamente fatoravel sobre K.

Demonstracao. Suponhamos triangularizavel superiormente (logo, inferiormente tambem- porque?). Consideremos uma base B de V tal que A = [T ]BB seja triangular. E imediato verque tI − [T ]BB e triangular, logo cT (t) =

∏mj=1(t− ai,i). Portanto, cT e completamente fatoravel

sobre K.Reciprocamente, suponhamos que cT (t) =

∏mj=1(t − λj)µj com λj ∈ K µ1 + . . . + µm = n.

Seja 0 6= v1 ∈ Vλ1 e completemos este vetor a uma base B de V . Temos:

[T ]BB =(

λ1 A1

0(n−1)×1 A2

),

com A1 ∈M1×(n−1)(K) e A2 ∈M(n−1)×(n−1)(K).Calculando o polinomio carateristico de T , temos

cT (t) = det(tI − [T ]BB) = (t− λ1) det(tI(n−1)×(n−1) −A2) = (t− λ) · cA2(t).

Segue que A2 ∈M(n−1)×(n−1)(K) tem polinomio carateristico completamente sobre K. Proce-dendo por inducao sobre n = dim(V ), existe uma matriz invertıvel P2 ∈ M(n−1)×(n−1)(K) talque P−1

2 A2 P2 seja triangular superior. Pondo

P =(

1 01×(n−1)

0(n−1)×1 P2

).,

segue facilmente que

P−1 · [T ]BB · P =(

λ1 A3

0(n−1)×1 P−12 ·A2 · P2

),

como querıamos. �

Como vimos anteriormente a obstrucao para a diagonalizacao de T ∈ End(V ) reside napossibilidade que existam um numero insuficiente de autovetores para formar uma base de V . Adimensao de um autoespaco e limitada superiormente pela multiplicidade algebrica do autovalor.

Page 10: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

6 1. POLINOMIO MINIMO E CARATERISTICO

1.3.5. Proposicao. Seja T ∈ End(V ) e sejam λi ∈ K os autovalores de T de multiplicidadeµi ≥ 1, i = 1, . . . ,m. Entao

1 ≤ dim(Vλi) ≤ µi

e

dim(Vλ1 ⊕ . . .⊕ Vλm) ≤m∑i=1

µi.

Demonstracao. Seja {v1, . . . ,vri} uma base de Vλi que completamos a uma base B ={v1, . . . ,vn} de V . Temos

[T ]BB =(λi · Iri×ri A1

0(n−ri)×ri A2

),

com A1 ∈Mri×(n−ri)(K) e A2 ∈M(n−ri)×(n−ri)(K).Calculando o polinomio carateristico de T , temos

cT (t) = det(tI − [T ]BB) = (t− λi)ri det(tI(n−ri)×(n−ri) −A2),

que implica µi ≥ ri. �

1.3.6. Teorema. Seja T ∈ End(V ) e seja n = dim(V ). As seguintes condicoes sao equiva-lentes:

(1) T diagonalizavel;(2) (a) cT (t) =

∏mj=1(t − λj)µj com µ1 + . . . + µm = n = dim(V ), onde os elementos λj

sao distintos;(b) dim(Vλj ) = µj para cada j = 1, . . . ,m;

(3) V = Vλ1 ⊕ . . .⊕ Vλm.

Portanto se T ∈ End(V ) e diagonalizavel, mT (t) =∏mj=1(t− λj)

Demonstracao. Se T e diagonalizavel, pelo Teorema 1.3.4, o polinomio carateristico eda forma especificada em a). Sendo diagonalizavel e lembrando a Proposicao 1.2.3 temos queVλ1 ⊕ . . .⊕ Vλm = V . Deduzimos portanto, via Proposicao 1.3.5

n = dim(V ) = dim(Vλ1 ⊕ . . .⊕ Vλm) ≤m∑i=1

µi = n.

Sendo dim(Vλi) ≤ µi temos necessariamente a igualdade.Se valem as condicoes a) e b), temos dim(Vλ1 ⊕ . . . ⊕ Vλm) =

∑mi=1 µi = n e portanto

V = Vλ1 ⊕ . . .⊕ Vλm . Essa ultima condicao implica em que T seja diagonalizavel.Escolhendo uma base B de V formada por autovetores de T , temos que a matriz [T ]BB e

diagonal, de onde se deduz mT (t) =∏mj=1(t− λj). �

Observemos que a fatoracao de mT (t) acima e caso particular de uma fatoracao mais geral(Proposicao 1.4.3). Alem disso, a recıproca da ultima afirmacao do teorema acima e valida(Teorema 1.5.1).

Page 11: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

1.4. DEFINICOES 7

1.4. Subespacos invariantes de uma aplicacao linear

Quando T e diagonalizavel, cT (t) =∏mj=1(t − λj)µj com µ1 + . . . + µm = n = dim(V ) e

mT (t) =∏mj=1(t − λj). Isso representa de alguma forma o caso ideal. Uma maneira de ler o

resultado anterior que permite uma generalizacao e a seguinte: os autoespacos sao construidoscomo ker (T − λIV ) e no caso diagonalizavel fornecem uma decomposicao de V em soma diretade autoespacos. Essa resultado vai ser generalizado a um T ∈ End(V ) qualquer na proximasecao. Antes sao necessarias algumas definicoes e observacoes gerais que generalizam a nocao deautoespaco para expressoes polinomiais de T mais gerais que as da forma T − λIV .

1.4.1. Definicao. (Subespaco T–invariante) Seja T ∈ End(V ) e seja U ⊆ V um su-bespaco. O subespaco U se diz T -invariante se T (U) ⊆ U .

Quando temos um subespaco T–invariante, podemos definir

T|U : U → U

e claramente T ∈ End(U). Vamos ver como produzir subespacos T -invariantes via polinomios.

1.4.2. Exemplo. Seja T ∈ End(V ), seja q(t) ∈ K[t] e seja q(T ) : V → V a aplicacao linearassociada. Se U := ker (q(T )), entao U e’ subespaco T -invariante.

Temos T ◦ q(T ) = q(T ) ◦ T e portanto, se u ∈ U ,

0V = T (0V ) = T (q(T )(u)) = q(T )(T (u)),

i. e. T (u) ∈ U .Em particular se λ ∈ K, temos que a nocao de autoespaco e obtida considerando os po-

linomios qλ(t) = t− λ.

Poder decompor V em subespacos T -invariantes, permite semplificar o problema do pontode vista computacional, como mostraremos na proxima proposicao. A existencia de uma de-composicao de V em subespacos T–invariantes vai ser tratada na secao 1.5.

1.4.3. Proposicao. Seja T ∈ End(V ) e seja V = U1 ⊕ . . . ⊕ Ur com Ui subespacos T–invariantes. Se Ti = T|Ui : Ui → Ui, temos :

cT (t) =r∏i=1

cTi(t)

e

mT (t) = m. c.m.{mT1(t), . . . ,mTr(t)}.

Demonstracao. Sejam Bi bases de Ui e seja B = {v1, . . . ,vn} = B1 ∪ . . . ∪ Br. Sendo osUi subespacos T–invariantes, temos

[T ]BB

A1

A2

. . .Ar

,

onde Ai = [Ti]BiBi e o restante da matriz e composto por zeros. Calculando segue imediatamenteque cT (t) =

∏ri=1 c

Ti(t). Por definicao temos que mT (T ) = 0End(V ). Portanto mT (Ti) = 0End(Ui)

para cada i, i. e. mTi(t) divide mT (t) e portanto m. c.m.{mT1(t), . . . ,mTr(t)} divide mT (t).

Page 12: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

8 1. POLINOMIO MINIMO E CARATERISTICO

Reciprocamente, seja p(t) ∈ K[t] divisıvel por cada um dos polinomios mT1(t), . . . ,mTr(t). Afir-mamos que p(T ) = 0End(V ), do que segue, em particular, que m. c.m.{mT1(t), . . . ,mTr(t)}(T ) =0End(V ) e, portanto, que mT (t) divide m. c.m.{mT1(t), . . . ,mTr(t)}. Ora, seja v ∈ V , comv = u1 + · · ·+ ur, ui ∈ Ui; escrevendo p(t) = qi(t)mTi(t), i = 1, . . . , r, tem-se:

p(T )(v) = p(T )(u1 + · · ·+ ur) = p(T )(u1) + · · ·+ p(T )(ur)

= (q1mT1)(T )(u1) + · · ·+ (qrmTr)(T )(ur)

= (q1mT1(T ))(u1) + · · ·+ (qrmTr(T ))(ur)

= q1(mT1(T (u1)) + · · ·+ qr(mTr(T (ur))

= q1(mT1(T1))(u1) + · · ·+ qr(mTr(Tr))(ur)= q1(0End(U1))(u1) + · · ·+ qr(0End(Ur))(ur)

logo p(T ) = 0End(V ), como querıamos. �

1.5. Decomposicao T -primaria de um espaco vetorial

Vamos provar um resultado importante que mostra como a partir da fatorizacao do polinomiocarateristico (ou minimo) de uma aplicacao linear T : V → V em fatores ”primarios”sejapossivel construir uma decomposicao de V em subespacos T−invariantes tais que a restricaode T a esses subespacos tenha como polinomio carateristico (respectivamente minimo) o fator”primario”correspondente.

1.5.1. Teorema. (Teorema de decomposicao primaria) Seja T ∈ End(V ) e seja

mT (t) = q1(t)e1 · · · qr(t)er

o polinomio minimo de T , onde cada qi(t) e um polinomio monico irredutivel, 1 ≤ ei para cadai = 1, . . . , r e os qi(t) ∈ K[t] sao distintos. Entao

(1) V e soma direta de subespacos T -invariantes; precisamente,

V = ker (q1(T )e1)⊕ · · · ⊕ ker (qr(T )er);

(2)cT (t) = q1(t)l1 · · · qr(t)lr ,

com 1 ≤ ei ≤ li para cada i = 1, . . . , r;(3) ker (qi(T )ei) = ker (qi(T )li) para cada i = 1, . . . , r;(4) dim(ker (qi(T )ei)) = li · grau(qi);(5) O polinomio minimo (respectivamente, carateristico) da restricao de T a ker (qi(T )ei)

e qi(t)ei (respectivamente, qi(t)li).

Demonstracao. (1) Ja observamos que os subespacos ker (qi(T )ei) sao T -invariantes. Pro-vemos, primeiramente, que V = ker (q1(T )e1) + . . .+ ker (qr(T )er). Para tal, provaremos que:

• Im(hi(T )) ⊆ ker (qi(T )ei) para i = 1, . . . , r, onde hi(t) =∏j 6=i qj(t)

ej ;• V = Im(h1(T )) + . . .+ Im(hr(T )).

A primeira afirmativa e bastante evidente, uma vez que qi(t)ei hi(t) = mT (t), logo qi(T )ei seanula nos elementos da imagem de hi(T ).

Para provar a segunda afirmativa, observemos que o maximo divisor comum dos polinomiose 1, logo existe uma relacao h1(t)g1(t) + . . . + hr(t)gr(t) = 1, onde g1(t), . . . , gr(t) ∈ K[t] saopolinomios convenientes. Substituindo t 7→ T e aplicando em um v ∈ V arbitrario, obtemos

v = IV (v) = h1(T )(g1(T )(v)) + · · ·+ hr(T )(gr(T )(v)),

Page 13: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

1.5. DECOMPOSICAO PRIMARIA 9

isto e, V ⊂ Im(h1(T )) + · · ·+ Im(hr(T )), como se queria.O polinomio mT (t) nao divide hi(t) e portanto hi(T ) 6= 0End(V ), i.e. existe v ∈ V \ 0V tal

que hi(T )(v) 6= 0.Mostremos agora que a soma Im(h1(T )) + . . . + Im(hr(T )) e direta, isto e, que, para todo

i = 1, . . . , r, tem-seker (qi(T )ei) ∩ (

∑j 6=i

ker (qj(T )ej )).

Seja entao v ∈ ker (qi(T )ei)∩ (∑

j 6=i ker (qj(T )ej )). Para cada i, os polinomios qi(t)ei e hi(t) saorelativamente primos, logo existem ai(t), bi(t) ∈ K[t] tais que ai(t)qi(t)ei + bi(t)hi(t) = 1. Comoantes, obtemos

v = IV (v) = a(T )(qi(T )ei(v)) + b(T )(hi(T )(v)) = 0V + 0V = 0V .

(2) Aplicando o mesmo argumentos da parte (1) aos fatores de cT (t) (em vez de mT (t)),obtem-se analogamente V = ker (q1(T )l1)⊕· · ·⊕ker (qk(T )lk). Como as inclusoes ker (qi(T )ei) ⊆ker (qi(T )li) sao imediatas, uma vez que ei ≤ li, comparando as dimensoes obtemos ker (qi(T )ei) =ker (qi(T )li) para todo i = 1, . . . , r.

(3) e (4) Seja agora Ti a restricao de T a Ui = ker (qi(T )ei). Como a restricao comuta comsomas e produtos, tem-se qi(Ti)ei = 0End(Ui) e, portanto, qi(t) e o unico fator irredutivel demTi(t), i.e. mTi(t) = qi(t)αi com 1 ≤ αi; isso implica em cTi(X) = qi(X)βi , βi ≥ αi ≥ 1. Adimensao de ker (qi(T )ei) e portanto βi · grau(qi(t). Vamos mostrar que βi = li e que αi = ei.Isso segue das relacoes

r∏i=1

qi(t)li = cT (t) =r∏i=1

cTi(t) =r∏i=1

qi(t)βi ,

r∏i=1

qi(t)ei = mT (t) =r∏i=1

mTi(t) =r∏i=1

qi(t)αi ,

onde as igualdades do meio foram provadas na Proposicao 1.4.3. �

Como consequencia obtemos uma primeira formulacao da veneravel decomposicao de Jordan.

1.5.2. Corolario. Seja T ∈ End(V ). Suponhamos que cT (t) se fatora completamente sobreK, digamos, cT (t) = (t−λ1)l1 · · · (t−λr)lr e mT (t) = (t−λ1)e1 · · · (t−λr)er . Entao existe umadecomposicao direta T -invariante V = V1 ⊕ · · · ⊕ Vr tal que:

(i) Vi = ker ((T − λi)ei);(ii) dimVi = li, para 1 ≤ i ≤ r;(iii) A restricao T |Vi tem polinomio mınimo (t−λI)ei e e da forma λiI+Si, onde Si : Vi → Vi

e nilpotente de ındice ei.

Demonstracao. O unico item que requer algum comentario e (iii). Novamente, usamosque a restricao comuta com somas e produtos, logo, pondo Ti = T |Vi e denotando por Ii a matrizidentidade de ordem li, tem-se que (Ti − λiIi)ei = 0. Logo Si := Ti − λiIi e nilpotente de ındiceno maximo ei Por outro lado, mTi(t) = (t − λi)ei pelo item (4) do teorema anterior. Logo, oındice de nilpotencia e exatamente ei �

1.5.3. Corolario. Seja T ∈ End(V ). Entao T e diagonalizavel sobre K se e so se mT (X)e completamente fatoravel sobre K e sem fatores multiplos.

Demonstracao. Resulta imediatamente do Corolario 1.5.2 e da equivalencia (1) ⇔ (3) doTeorema 1.3.6. �

Page 14: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

10 1. POLINOMIO MINIMO E CARATERISTICO

Exercicios de revisao e referentes ao capıtulo

(1) Seja Ei,j ∈Mm×m(K) a matriz cujos elementos el,m satisfazem a seguinte condicao(a) el,m = 1 se (l,m) = (i, j);(b) el,m = 0 se (l,m) 6= (i, j).

Para a ∈ K e para i 6= j seja Eai,j = I + aEi,j . Para i 6= j seja Ei,j = I + Ei,j +Ej,i − Ei,i − Ej,j e seja, para c ∈ K∗, Eci = I + (c− 1)Ei,i.

Essas matrizes se dizem matrizes elementares. Provar que sao invertiveis e descrevera inversa de cada tipo.

(2) Dada A ∈Mm×n(K) com

A

A1...Am

,

i.e. Ai ∈ Kn, i = 1, . . . ,m sao os vetores linha da matriz A. Mostrar que(a) Eai,j ·A tem como i-esima linha Ai + aAj e as outras linha iguais;(b) Ei,j ·A tem como i-esima linha Aj , como j-esima linha Ai e as outras linhas iguais

as linhas de A;(c) Eci ·A tem na i-esima linha cAi e as outras linhas iguais as linhas de A.

Duas matrizes A,B ∈Mm×n(K) se dizem linha equivalentes se existem um numerofinito de matrizes elementares E1, . . . , Er ∈Mm×m(K) tais que E1 ·E2 · . . . ·Er ·A = B.

Moltiplicar uma matriz A ∈ Mm×n(K) a direita por matrizes elmentares emMn×n(K) e descrever o resultado sobre as colunas de A. Definir a nocao de matri-zes coluna equivalentes.

(3) Dadas A ∈ Mm×n(K), X =

x1...xn

∈ Mn×1(K), B =

b1...bm

∈ Mm×1(K), consi-

deramos o sistema de equacoes lineares com coeficientes em K nas incognitas x1, . . . , xndado por

A ·X = B.

SejaA =

(A | B

)∈Mm×(n+1)(K)

a matriz associada ao sistema.Mostrar que qualquer sistema obtido moltiplicando por matrizes elementares a es-

querda a matriz do sistema, i.e. operando sobre as linhas do sistema com as operacoesdescritas anteriormente, tem as mesmas solucoes do sistema original (usar o fato queas matrizes elementares sao inversiveis).

(4) Seja A ∈Mm×n(K). Dizemos que A e linha reduzida a forma escada se:(a) o primeiro elemento nao nulo de cada linha e igual a 1;(b) o primeiro elemento nao nulo da (i+1)-esima linha se encontra a direita do primeiro

elemento nao nulo da i-esima linha;(c) os elementos de uma coluna que contem o primeiro elemento nao nulo de uma

linha, diferente desse elemento, sao nulos.Mostrar que dada A ∈ Mm×n(K), existem um numero finito de matrizes elemen-

tares E1, . . . , Er tais que E1 · E2 · . . . · Er ·A seja linha reduzida a forma escada.

Page 15: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

EXERCICIOS 11

Deduzir que, se n > m, entao o sistema um sistema homogeneo da forma A ·X =0Mm×1(K) admite uma solucao com pelo menos um elemento xi nao nulo.

(5) Seja A ∈Mn×n(K). Mostrar que as seguintes condicoes sao equivalentes:(a) A e linha equivalente a I;(b) A e produto de matrizes elementares;(c) A e invertivel;(d) o sistema de equacoes lineares homogeneas A · X = 0Mm×1(K) admite somente a

solucao com todos os xi nulos.Deduzir que dada uma matriz invertivel, a matriz inversa A−1 e obtida aplicando

a I as operacoes elementares que levam a matriz A em I.

(6) Seja A ∈Mn×n(K). Dados i, j, definimos Ai,j ∈Mn−1×n−1(K) como a matriz obtidade A eliminando a i-esima linha e a j-esima coluna de A.

Definimos det(A) indutivamente segundo a seguinte formula:

det(A) = a1,1 det(A1,1)− a2,1 det(A2,1) + . . .+ (−1)n+1an,1 det(An,1) ∈ K.

Mostrar as seguintes propriedades de det(A):(a) det(I) = 1;(b) a funcao det(A) e linear com respeito as linhas de A, i.e. para cada α, β ∈ K

temos

det(

A1...

αAi + βA′i...Am

) = α det(

A1...Ai...Am

) + β det(

A1...A′i...Am

);

(c) Se A tem duas linhas iguais, entao det(A) = 0;(d) se i 6= j, entao

det(

A1...

Ai + βAj...Am

) = det(

A1...Ai...Am

)

para cada β ∈ K;(e) A matriz obtinda trocando duas linhas de A tem determinante igual a −det(A);(f) Se uma linha de A e nula, entao det(A) = 0.(g) Deduzir que det(Eai,j) = 1 para cada a ∈ K, det(Ei,j) = −1 e det(Eci ) = c para

cada c ∈ K∗.(h) Utilizando as propriedades acima deduzir que se E e uma matriz elementar dos

3 tipos acima e se A ∈ Mn×n(K) e arbitraria, entao temos det(E · A) = det(E) ·det(A). Por inducao mostrar que o mesmo resultado vale se E for produto dematrizes elementares.

(i) provar que A ∈Mn×n(K) e invertivel se e somente se det(A) 6= 0.(j) (Definicao axiomatica do determinante) Seja

d : Mn×n(K)→ K

Page 16: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

12 1. POLINOMIO MINIMO E CARATERISTICO

uma funcao que satisfaz as propriedades a), b) e c) acima. Provar que d(A) =det(A) para cada A ∈Mn×n(K).

(k) Concluir que podemos calcular o determinante desenvolvendo segundo qualquerlinha (ou coluna) porque a funcao assim definida satisfaz as propriedades a), b) ec) acima.

(l) Sejam A,B ∈Mn×n(K). Provar que det(A ·B) = det(A) · det(B). Deduzir que seA e invertivel, entao det(A−1) = det(A)−1.

(m) Provar que det(A) = det(At), onde At e a matriz trasposta de A.(n) Seja A ∈Mn×n(K), seja αi,j = (−1)i+j det(Ai,j) e seja

ad(A) = [αi,j ]t ∈Mn×n(K)

a matriz adjunta de A. Provar que

A · ad(A) = ad(A) ·A = det(A)I

e deduzir que se det(A) 6= 0, entao A−1 = ad(A)det(A) .

(7) Seja A ∈ Mm×n(K). Definimos o posto linha de A, indicado com rank (A), como adimensao do subespaco de Kn gerado pelas linhas de A. Definimos o posto coluna deA, indicado com rank (A), como a dimensao do subespaco de Km gerado pelas colunasde A. Mostre que(a) para qualquer A ∈ Mm×n(K) temos rank (A) = rank (A). Portanto chamaremos

esse numero simplesmente de posto de A e o indicaremos com rank (A). Concluirque rank (A) ≤ min{m,n}.

(b) rank (A) e igual ao numero de linhas nao nulas na forma linha reduzida de A,respectivamente rank (A) e igual ao numeros de colunas nao nulas na forma colunareduzida de A.

(c) rank (A) e o maximo tamanho de uma submatriz quadrada de A com determinantenao nulo.

(d) A ∈Mn×n(K) e invertivel se e somente se rank (A) = n se e somente se det(A) 6= 0se e somente se as colunas (e as linhas) de A formam una base de Kn.

(8) Sejam A,B, P,Q ∈Mn×n(K). Mostrar que se B e invertivel e se B = P · A ·Q, entaoP,A e Q sao inversiveis.

(9) A ∈ Mn×n(K) se diz nilpotente se existir r > 0 tal que Ar = 0. Mostrar que seA ∈Mn×n(K) e nilpotente, entao I +A e invertivel.

(10) Sejam A =

1 0 10 −1 −11 1 0

e B =

0 1 00 0 01 0 0

.

(a) Encontre A−1.(b) Encontre X tal que AX = B.

(11) Seja A ∈Mn×n(K). Definimos tr(A) =∑n

i=1 ai,i ∈ K o traco de A. Mostrar que:(a) tr(A+B) = tr(A) + tr(B) e tr(A ·B) = tr(B ·A) para cada A,B ∈Mn×n(K).(b) Se B e invertivel, entao tr(B−1 ·A ·B) = tr(A).

(12) Sejam Ui, . . . Ur subespacos vetorias do espaco vetorial V sobre K. A soma dos epacosUi, indicada com U1 + . . . + Ur e o subespaco de V formado pelos vetores da formav = u1 + . . .+ ur, ui ∈ Ui. Mostar que

Page 17: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

EXERCICIOS 13

(a) a soma dos Ui e direta se e somente se cada vetor de U1 . . .+Ur admite uma unicaescritura como a anterior.

(b) dim(U1 + . . .+Ur) ≤∑r

i=1 dim(Ui) e que vale igual se e somente se a soma e direta.(c) Se Bi ’ e base de Ui, mostrar que ∪ri=1Bi e um sistema de geradores de U1+. . .+Ur,

que e uma base se e somente se a soma e direta. Concluir que dado um subesacoU de V existe W ⊆ V subespaco tal que V = U ⊕W (subespaco complementar deU).

(d) Mostrar que Mn×n(K) e soma direta dos subespacos das matrizes simetricas (A =At) e das matrizes antisimetricas (A = −At). Mostre que as matrizes de traco nulosformam um subespaco de Mn×n(K). Encontrar um subespaco complementar emMn×n(K).

(13) Seja A ∈Mn×n(K) e seja mA(t) = tr + ar−1tr−1 + . . .+ a0 o polinomio minimo de A.

Mostrar que A e invertivel se e somente se a0 6= 0.

(14) Seja T ∈ End(V ). Mostrar que T e triangularizavel superiormente se e somente se etriangularizavel inferiormente.

(15) Considere o espaco vetorial V = M2×2(K), a matriz

A =[

1 2−1 3

]e W = {B ∈ V : AB = BA} (conjunto das matrizes que comutam com A).(a) Mostre que W e subespaco de V .(b) Determine uma base para W .(c) Complete a base encontrada no item (a) para uma base de V .(d) Calcule as matrizes de mudanca de base entre a base do item (c) e a base canonica

de V , a saber,

C ={[

1 00 0

],

[0 10 0

],

[0 01 0

],

[0 00 1

]}.

(e) Encontre as coordenadas de C =[

1 11 1

]em relacao a base encontrada no item

(b).

(16) Seja T : K4 −→ K3 definida por:

T (x1, x2, x3, x4) = (x2 − 3x3 + x4, 2x1 − 3x2 + x4, 2x1 + x2 − x3).

(a) Encontre a matriz de T em relacao as bases canonicas de K4 e K3.(b) Determine ker (T ) e Im(T ).(c) T injetiva? sobrejetiva? Justifique.

(17) Seja B = {v1 = (1,−1, 0),v2 = (1, 1, 0),v3 = (0, 0,−1)} ∈ K3.(a) Determine as coordenadas de

v = (x, y, z) em relacao a base B.(b) Se T : K3 −→ K3 e uma transformacao linear tal que T (v1) = v3, T (v2) = v2 e

T (v3) = −v1, determine T (x, y, z).(c) Determine (se existirem) os autovalores de T e os autovetores associados.

Page 18: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

14 1. POLINOMIO MINIMO E CARATERISTICO

(18) Sejam T1 : K3 −→ K3 e T2 : K3 −→ K3 transformacoes lineares, tais que:[T1

]CC

=

1 0 01 1 00 0 2

e[T2

]CC

=

4 −2 2−1 2 −1−5 4 −3

,onde C ⊂ K3 e a base canonica.(a) Determine se T1 e diagonalizavel. Idem para T2.(b) Se possvel, determine uma base de K3 de autovetores de T1 e represente T1 nesta

base. Idem para T2.

(19) Dado n ≥ 1, seja T : Pn → Pn a transformacao derivada T = d/dt, onde Pn designa oespaco vetorial de polinomios de grau no maximo n com coeficientes reais.(a) Determinar os auto-valores de T e os auto-subespacos correspondentes(b) Determinar os polinomios cT (t) e mT (t).

(20) Seja T : Mn×n(K)→Mn×n(K) definido por T (A) = At. Provar que se a caracteristicado corpo K e diferente de dois, entao T e diagonalizavel. Encontrar os autoespacos deT , fornecendo a decomposicao de Mn×n(K) como soma direta de autoespacos de T .

(21) Seja T : V → W uma aplicacao linear de K-espacos vetoriais. Seja w ∈ Im(T ) e sejav tal que T (v) = w. Mostrar que os elementos de T−1(w) sao da forma v + u comu ∈ ker (T ).

(22) Seja U ⊆ V um subespaco vetorial do K-espaco vetorial V . Provar que v1 ∼ v2 se esomente se v1 − v2 ∈ U e uma realcao de equivalencia sobre o conjunto V . IndicamosV/ ∼ com V/U e os elementos de uma classe de equivalencia de um elemento v com[v]. Mostrar que as operacoes

+ : V/U × V/U → V/U

e· : K× V/U → V/U

dadas por [v1] + [v2] = [v1 + v2] e α · [v] = [α · v] nao dependem da escolha dorepresentantes na classe de equivalencia e estao portanto bem definidas. Provar que(V/U,+, ·) e um espaco vetorial sobre K, o espaco quociente de V por U . Mostrar que:

(a) se dim(V ) = n ≥ 1, se {v1, . . .vr} e uma base de U que se extende a uma base{v1, . . .vn} de V , entao {[vr+1], . . . , [vn]} e uma base de V/U , i.e. dim(V/U) =dim(V )− dim(U);

(b) πU : V → V/U definido por πU (v) = [v] e um homomorfismo sobrejetor de K-espacos vetoriais tal que ker (πU ) = U ;

(c) dato T : V → W homorfismo de K-espacos vetoriais, a aplicacao T : V/ker (T )→W dada por T ([v]) = T (v) esta bem definida e e homomorfismo de K-espacos ve-toriais. Verificar que T = T ◦πker (T ), i.e. o seguinte diagrama comuta (significandoque percorrendo os dois caminhos indicados pelas setas chegamos ao mesmo pontode W ):

Vπker (T )

}}{{{{

{{{{

T

��>>>

>>>>

>

Vker (T ) eT // W

Page 19: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

EXERCICIOS 15

(d) Im(T ) = Im(T ) e T : V/ker (T ) → Im(T ) e isomorfismo de espacos vetoriais.Deduzir uma nova prova do Teorema do Nucleo e da Imagem via formula dadimensao do quociente provada anteriormente.

(23) (a) Seja T ∈ End(V ), onde V e um K-espaco vetorial de dimensao finita. Mostrar queT e injetor se e somente se T e sobrejetor se e somente se T ∈ Aut(V ).

(b) Seja V = R[x], o R-espaco vetorial dos polinomios com coeficientes no corpo R.Definimos os aplicacao linears T1(p(x)) = p

′(x) (derivada primeira) e T2(p(x)) =∫ x

0 p(t)dt. O aplicacao linear Ti, i = 1, 2, e injetor? E sobrejetor? Descreverker (Ti) e Im(Ti) e relacionar os resultados com o item anterior.

(24) SejaA ·X = B

um sistema de m equacoes lineares nas variaveis X =

x1...xn

∈Mn×1(K). Seja

A =(A | B

)∈Mm×n+1(K)

a matriz associada ao sistema. Provar que:

(a) rank (A) ≤ rank (A) ≤ rank (A) + 1;

(b) o sistema admite uma solucao se e somente se B =

b1...bm

∈ Im(TA) se e somente

se rank (A) = rank (A);(c) se existe uma solucao, entao as solucoes do sistema podem ser parametrizadas por

um subespaco linear de Kn de dimensao n− rank (A) ≥ 0.

(25) Seja A ∈Mn×n(K). Se p(x) = a0 + a1x+ . . .+ arxr ∈ K[x], definimos

p(A) = a0I + a1A+ . . .+ arAr ∈Mn×n(K).

Mostrar que existe um polinomio p(x) ∈ K[x] de grau menor ou igual a n2 tal quep(A) = 0Mn×n(K).

Page 20: ´ALGEBRA LINEAR Francesco Russo e Aron Simis
Page 21: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

CAPıTULO 2

A teoria dos fatores invariantes e dos divisores elementares

2.1. Matrizes com elementos polinomiais

Nesta secao estudaremos de perto matrizes cujos elementos sao polinomios em uma indeter-minada. Por conveniencia e habito, mudaremos a notacao empregada anteriormente: o corpo debase sera designado por k (minusculo) e a indeterminada, por X (maiusculo). A teoria a seguire, de fato, uma sub-teoria da teoria das matrizes com elementos no corpo de fracoes racionaisK = k(X), de modo que, em ultima instanica, estamos novamente no contexto da parte anteriore tudo que foi visto la se aplica em principio ao corpo k(X). Contudo, para bem explorar aspropriedades de tipo aritmetico, e importante trabalhar com polinomios e nao com fracoes .

A teoria requer algum investimento preliminar mas as aplicacoes as matrizes com elementosno corpo das constantes k compensarao o esforco.

O conjunto das matrizes retangularesm×n com elementos em k[X] sera denotadoMm×n(k[X]).Esse conjunto e naturalmente um k[X]-modulo. Se m = n, podemos multiplicar tais matrizes eintruduzir em Mn×n(k[X]) uma estrutura de anel nao comutativo com unidade, dito o anel dasmatrizes sobre k[X]. Eis alguns exemplos de matrizes com elementos em C[X].

A =

X − 1 0 0 −1

3 X − 2 −2 00 4 X + 7 01 0 5 2X

, B =

X3 − 4 2X − 1X2 +

√3iX X6

3X7 X

Note que A se parece muito a uma matriz da forma XI−A, com A ∈M4×4(k). A matriz abaixonao e polinomial para qualquer corpo de contantes k pois 1

X 6∈ k[X].

C =

0 0 00 0 00 0 1

X

Passaremos a denotar matrizes polinomiais por A(X), B(X), etc. A notacao indica que

estamos considerando tais matrizes e nao apenas matrizes com elementos em k. O mote desteparagrafo e a dupla identidade de um objeto de Mm×n(k[X]) como uma matriz com elementospolinomiais ou como um polinomio a coeficientes matriciais. Um exemplo permite esclarecereste ponto:(

X − 1 2 X2 + 1X3 −X X3 + 2X2 1

)=

(0 0 01 1 0

)X3 +

(0 0 10 2 0

)X2

+(

1 0 0−1 0 0

)X +

(−1 2 10 0 1

)Esta identificacao e valida para matrizes retangulares em geral. Alem disso, no caso de

matrizes quadradas, esta identificacao pode ser traduzida em termos de um isomorfismo natural:

17

Page 22: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

18 2. Mn×n(k[X]) E FATORES INVARIANTES

2.1.1. Proposicao. Existe um isomorfismo natural de aneis

Mn×n(k[X]) ' (Mn×n(k))[X],

cuja restricao ao subanel Mn×n(k) e a identidade.

Demonstracao. Dada A(X) ∈Mn×n(k[X]), digamos

A(X) =

f11(X) . . . f1n(X)...

...fn1(X) . . . fnn(X)

,

onde fij(X) =∑

l α(l)ij X

l ∈ k[X], a mesma associamos o polinomio

PA(X) :=∑l

AlXl

com coeficientes matriciais, onde

Al =

α(l)11 . . . α

(l)1n

......

α(l)n1 . . . α

(l)nn

.

Esta associacao fornece uma aplicacao µ : Mm×n(k[X]) → (Mm×n(k))[X], cuja restricao aosubanel Mm×n(k) e claramente a identidade. Esta aplicacao por outro lado, obviamente admiteuma inversa. Por comodidade, denotaremos abreviadamente

A(X) =

(∑l

α(l)ij X

l

)i,j

, PA(X) =∑l

(l)ij

)i,jX l.

Com esta notacao , fica facil verificar que µ e um homomorfismo, isto e, preserva soma eproduto de matrizes. Com efeito, dadas

A(X) =

(∑l

α(l)ij X

l

)i,j

, B(X) =

(∑l

β(l)ij X

l

)i,j

,

com, respectivamente,

µ(A(X)) = PA(X) =∑l

(l)ij

)i,jX l

eµ(B(X)) = PB(X) =

∑l

(l)ij

)i,jX l,

temos

µ (A(X) +B(X)) = µ

(∑l

(α(l)ij + β

(l)ij )X l

)i,j

=∑l

(l)ij + β

(l)ij

)i,jX l

=∑l

(l)ij

)i,jX l +

∑l

(l)ij

)i,jX l

= µ(A(X)) + µ(B(X)).

Page 23: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.1. MATRIZES COM ELEMENTOS POLINOMIAIS 19

Para o produto, as formulas ficam mais complicadas, mas a verificacao segue o mesmoprincipio. Observemos que

A(X) ·B(X) =

(∑l

α(l)ij X

l

)i,j

·

(∑l

β(l)ij X

l

)i,j

=

((∑l

α(l)i1 X

l)(∑l

β(l)1jX

l) + · · ·+ (∑l

α(l)inX

l)(∑l

β(l)njX

l)

)i,j

=

(n∑t=1

((∑l

α(l)it X

l)(∑l

β(l)tj X

l)

))i,j

=

n∑t=1

∑l

(∑

0≤k≤lα

(k)it β

(l−k)tj )X(l)

i,j

=

∑l

∑0≤k≤l

(n∑t=1

α(k)it β

(l−k)tj )X(l)

i,j

Segue que

µ (A(X) ·B(X)) = µ

∑l

∑0≤k≤l

(n∑t=1

α(k)it β

(l−k)tj )X(l)

i,j

=

∑l

∑0≤k≤l

(n∑t=1

α(k)it β

(l−k)tj )

X(l)

= (∑l

(l)ij

)i,jX l)(

∑l

(l)ij

)i,jX l)

= µ (A(X))µ (B(X)) .

2.1.2. Observacao. A identificacao entre matrizes polinomiais e polinomios matriciais,mesmo no caso retangular m× n, e a expressao dos seguintes fatos algebricos mais avancados:

(1) O anel k[X] e N-graduado, isto e, tem-se k[X] =∑

d≥0 k[X]d – soma direta de k-espacosvatoriais k[X]d de dimensao 1, onde k[X]d := kXd = {αXd |α ∈ k} ' k.

(2) Um k[X]-modulo livre de posto r e, analogamente a um k-espaco vetorial de dimensaor, uma soma direta k[X]r := k[X]⊕· · ·⊕k[X] (r somandos). Um tal modulo e tambemN-graduado, isto e, k[X]r =

∑d≥0 k[X]rd, onde k[X]rd = k[X]d⊕· · ·⊕k[X]d (soma direta

de r k-espacos vatoriais k[X]d de dimensao 1).(3) Dada uma fatoracao r = mn, temos k[X]r = k[X]mn = (k[X]m)n, que pode ser visto

na forma sugestivak[X] ⊕ · · · ⊕k[X]k[X] ⊕ · · · ⊕k[X]

...k[X] ⊕ · · · ⊕k[X]

Page 24: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

20 2. Mn×n(k[X]) E FATORES INVARIANTES

(m somas diretas de n somandos cada). Reminiscente de uma matriz? De fato, istofornece um isomorfismo de k[X]-modulos k[X]mn ' Mm×n(k[X]) em analogia com ocaso de k-espacos vatoriais.

(4) Usando a graduacao introduzida acima, temos ainda

k[X]mn =∑d≥0

(k[X]mn)d =∑d≥0

(k[X]d)mn =∑d≥0

(kXd)mn =

=∑d≥0

(kmn)Xd ' (Mm×n(k))[X]

como k[X]-modulos, onde na ultima passagem, identificamos kmn com Mm×n(k) comode habito.

(5) Finalmente, no caso em que m = n (isto e, r = n2 e um quadrado perfeito), resulta abonificacao de que isomorfimso acima preserva o produto de Mn×n(k[X]) (neste caso,este e de fato um anel, nao so um k[X]-modulo!)

Como primeira aplicacao da identificacao entre matrizes com elementos polinomiais e polinomioscom coefficientes matrizes vamos fornecer uma outra demonstracao do Teorema de Cayley-Hamilton, vide-se Teorema 1.1.2.

2.1.3. Teorema. (Cayley-Hamilton) Seja A ∈Mn×n(k). Entao

cA(A) = 0Mn×n(K).

Demonstracao. Seja cA(X) = Xn + pn−1Xn−1 + · · · + p1X + p0, pi ∈ k. Dada XI − A,

podemos construir a matriz adjunta ad(XI − A) cujas entradas sao polinomios de grau nomaximo n− 1. Portanto temos

ad(XI −A) = B0 +B1X + · · ·+Bn−1Xn−1,

com Bi ∈Mn×n(k). Lembramos que

ad(XI −A) · (XI −A) = (XI −A) · ad(XI −A) = cA(X) · I =

= p0 · I + · · ·+ (pn−1 · I)Xn−1 + IXn.

Da escritura de ad(XI −A) como polinomio matricial obtemos

ad(XI −A) · (XI −A) = (B0 +B1X + · · ·+Bn−1Xn−1) · (XI −A) =

= (−B0 ·A) + (B0 −B1 ·A)X + · · ·+ (Bn−2 −Bn−1 ·A)Xn−1 +Bn−1Xn.

Dois polinomios matriciais sao iguais se e so se os coefficientes deles sao iguais como matrizesem Mn×n(k). Segue que:

−B0 ·A = p0 · I,B0 −B1 ·A = p1 · I,

...Bn−2 −Bn−1 ·A = pn−1 · I,

Bn−1 = I.

Multiplicando as ultimas n− 1 equacoes por potencias crescentes de A obtemos:

−B0 ·A = p0 · I,B0 ·A−B1 ·A2 = p1 ·A,

...Bn−2 ·An−1 −Bn−1 ·An = pn−1 ·An−1,

Bn−1 ·An = An.

Page 25: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.1. MATRIZES COM ELEMENTOS POLINOMIAIS 21

Somando as colunas verticais das equacoes obtemos 0Mn×n(K) = cA(A). �

2.1.1. Divisao euclidiana de matrizes polinomiais. Uma vez de posse da identificacaocanonica Mn×n(k[X]) ' (Mn×n(k))[X], podemos perguntar se peculiaridades dos polinomiosusuais passam aos polinomios matriciais (logo, tambem as matrizes polinomiais). Por exemplo,temos:

2.1.4. Definicao. (grau de um polinomio matricial e matriz polinomial propria)Dada A(X) ∈ Mn×n(k[X]) nao nula, o grau gr(A(X)) desta matriz e o grau do polinomiomatricial associado (este sendo o maior exponente r de X cujo coeficiente Ar e uma matriz naonula).

Uma matriz A(X) ∈Mn×n(k[X]) e dita propria se o coeficente dominante Ar do polinomiomatricial associado e uma matriz invertivel sobre k (isto e, se detAr 6= 0)

Propriedades do grau usual sob adicao e multiplicacao de matrizes mantem-se apenasparcialmente:

2.1.5. Lema. Sejam A(X), B(X) ∈ Mn×n(k[X]) nao nulas cuja soma e produto tambemsejam nao nulas. Entao:

(i) gr(A(X) +B(X)) ≤ max{gr(A(X)), gr(B(X))}(ii) gr(A(X)B(X)) ≤ gr(A(X))+gr(B(X)); a igualdade da-se se os coeficientes dominantes

A e B dos polinomios matriciais associados satisfazem AB 6= 0.

Resulta que a divisao euclidiana e um deles, desde que sob certas hipoteses. Como o coefici-ente dominante de um polinomio usual f(X) ∈ k[X] e invertivel, precisamos uma hipotese quegaranta isto no caso de uma matriz polinomial. Precisamente, temos

2.1.6. Proposicao. (Divisao euclidiana) Sejam A(X), B(X) ∈Mn×n(k[X]), com B(X)propria. Entao existem Q(X), R(X) ∈ Mn×n(k[X]), unicamente determinados por A(X) eB(X), satisfazendo as condicoes :

(1) A(X) = Q(X)B(X) +R(X)(2) R(X) = 0 ou gr(R(X)) < gr(B(X)).

Demonstracao. A demonstracao e praticamente a mesma do caso conhecido da divisaoeuclidiana para polinomios a coeficientes num corpo. Primeiramente, escrevemos as matrizesdadas em forma polinomial, digamos, A(X) = ArX

r + · · ·+A0, B(X) = BsXs + · · ·+B0, onde

Ar 6= 0 e det(Bs) 6= 0.Existencia: Se r < s, fazemos Q(X) = 0 e R(X) = A(X). Suponhamos entao que r ≥ s.

Procedemos por inducao sobre r, o caso em que r = 0 (isto e, A(X) = Ar) e absorvido pelocaso r < s, a menos que s = 0. Neste ultimo caso, pomos Q(X) = ArB

−1s e R(X) = 0 (este

caso sera um caso particular do caso geral abaixo).Suponhamos, assim, que r ≥ 1 e consideremos o polinomio A(X) − ArB−1

s Xr−sB(X), quetem grau no maximo r−1. Denotemos este polinomio por A1(X). Pela hipotese indutiva, existemQ1(X) e R1(X) tais que A1(X) = Q1(X)B(X) + R1(X), com R1(X) = 0 ou gr(R1(X)) <gr(B(X)). Tomando Q(X) := Q1(X) +ArB

−1s Xr−s e R1(X) = R(X), encontramos o quociente

e o resto desejados.Unicidade: Suponhamos que

A(X) = Q(X)B(X) +R(X) = Q′(X)B(X) +R′(X).

Entao (Q(X) −Q′(X))B(X) = R′(X) − R(X). Pelo Lema 2.1.5 (i), o grau do membro direitoe no maximo igual a s− 1 = gr(B(X))− 1. No membro esquerdo, temos um fator que e matriz

Page 26: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

22 2. Mn×n(k[X]) E FATORES INVARIANTES

propria. Seu coeficiente dominante e uma matriz invertivel, portanto nao anula qualquer matriznao nula. Se Q(X) − Q′(X) 6= 0, segue do Lema 2.1.5 (ii) que o grau do membro esquerdo eno minimo s; absurdo. Logo, necessariamente, Q(X) = Q′(X). Consequentemente, tambemR′(X) = R(X). �

2.1.7. Observacao. A rigor, o que acabamos de demonstrar foi divisao euclidiana a direita(isto e, aquela em que o quociente e multiplicador a esquerda). Deixamos como exercicio derotina verificar a existencia e unicidade de uma divisao a esquerda. Em geral, o quociente(resp.o resto) a direita e distinto do quociente(resp. o resto) a esquerda. No que segue, fixaremos adivisao sistematicamente a direita.

2.1.2. Polinomios matriciais e resto da divisao. Analogamente aos homomorfismosde substituicao (ou de avaliacao ) ja conhecidos (por exemplo, k[X] → k, f(X) 7→ f(α) ouk[X] → Mn×n(k), f(X) 7→ f(A)), podemos definir o valor de um polinomio matricial P (X) ∈Mn×n(k[X]) numa matriz A ∈Mn×n(k), atraves da aplicacao

P (X) = PrXr + Pr−1X

r−1 + · · ·+ P0 7→ PD(A) = PrAr + Pr−1A

r−1 + · · ·+ P0.

Como no processo de divisao euclidiana, chamamos aqui tambem a atencao ao fato de que estaaplicacao de substituicao admite uma versao a esquerda

P (X) = PrXr + Pr−1X

r−1 + · · ·+ P0 7→ PE(A) = ArPr +Ar−1Pr−1 + · · ·+ P0

e que, em geral os resultados das substituicoes dao matrizes distintas.Mais grave e o fato de que, ao contrario dos processos de substituicao anteriores, o presente

nao e um homomorfismo de aneis. E facil ver que preserva a soma de matrizes e o produto porum polinomio, mas nao o produto de matrizes em geral.

2.1.8. Exercicio. Dar exemplo de substituicoes cujos valores a direita e a esquerda saodistintos. Dar igualmente exemplo de que a substituicao nao preserva o produto de matrizes.(Sugestao: probabilisticamente, qualquer exemplo deve funcionar!)

Apesar da falencia da substituicao em preservar o produto de matrizes, o seguinte resultadobasico e valido e, conforme veremos em seguida, extremamente util. E uma generalizacao naturaldo fato que se f(X) ∈ k[X] e se f(X) = g(X) · (X − α) + r, entao r = f(α).

2.1.9. Proposicao. (Teorema do Resto) Dada A ∈Mn×n(k), o resto da divisao a direita(resp. a esquerda) de um polinomio matricial P (X) ∈ Mn×n(k[X]) pela matriz caracterısticaXI −A e o valor PD(A) (resp. PE(A)).

Demonstracao. Seja P (X) = PrXr + Pr−1X

r−1 + · · · + P0. Entao e facil verificar quepara cada k = 0, 1, . . . , r,

XjI −Aj = (Xj−1I +Xj−2A+ · · ·+XAj−2 +Aj−1) · (XI −A)= Qj(X) · (XI −A).

Moltiplicando ambos os membros da equacao anterior a esquerda por Pj e somando de 0 ate rtemos

P (X)− PD(A) =r∑j=0

Pk · (XjI −Aj) = (r∑j=0

Pj ·Qj(X)) · (XI −A)

= Q(X) · (XI −A),

de onde segue a proposicao pela unicidade do quociente e do resto da divisao a direita (resp.a esquerda). Da mesma forma se prova a parte relativa a divisao a esquerda por XI −A. �

Page 27: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS 23

2.1.10. Proposicao. Seja A ∈Mn×n(k) e sejam mA(X) e cA(X) os polinomios minimo ecarateristico de A. Entao cA(X) divide mA(X)n. Em particular mA(X) e cA(X) tem os mesmosfatores irredutiveis monicos.

Demonstracao. Sabemos que mA(X) divide cA(X) pelo Teorema de Cayley-Hamiltone portanto os fatores irredutiveis monicos de mA(X) dividem cA(X). O Teorema da divisaogarante a existencia de R(X) ∈Mn×n(k[X]) tal que

mA(X) · I = R(X) · (XI −A).

Tomando os determinantes a esquerda e a direita obtemos

(mA(X))n = det(R(X)) · cA(X).

2.2. Escalonamento de matrizes com elementos polinomiais

Primeiramente, estabeleceremos resultados analogos aos de eliminacao gaussiana sobre k.Todas as operacoes a ser efetuadas deverao preservar o carater polinomial dos resultados (isto e,sem criar fracoes com denominadores polinomiais nao constantes). Guiados por este principio,retomamos as operacoes elementares, desta vez em Mm×n(k[X]).

Abaixo, damos a forma da matriz elementar correspondente a cada uma das operacoeselementares acima.

(1) Transposicao de linhas (colunas) i e j:

Mi,j =

1. . .

10 · · · 1

1. . .

11 · · · 0

1. . .

1

onde (Mi,j)kk = (Mi,j)ij = (Mi,j)ji = 1, se k 6= i, j; (Mi,j)kl = 0, em caso contrario(Mantemos a convencao de que os espacos vazios sao ocupados por zeros). Maisgeralmente, o resultado de efetuar uma permutacao das linhas (colunas) de uma matrizcorresponde a uma matriz com 0 e 1, sendo que cada 0 figura em exatamente uma linhae uma coluna (estas matrizes sao chamadas de matrizes de permutacao ).

Page 28: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

24 2. Mn×n(k[X]) E FATORES INVARIANTES

(2) Multiplicacao de uma linha (coluna) i por uma constante α ∈ k, α 6= 0:

Mα i =

1. . .

1. . .

1

com (Mα i)ii = α.

(3) Soma de uma linha (coluna) j com uma linha i multiplicada por um polinomio p(X) ∈k[X]:

Mp i+j =

1. . .

1...

. . .p(X) · · · 1

. . .1

com (Mp i+j)ji = p(X).

2.2.1. Observacao. Comparando com as definicoes do primeiro curso de algebra linear, ve-mos que (1) e a mesma; (3) contempla a possibilidade de multiplicar uma linha por um polinomio(nao so uma constante) antes de soma-la a outra. Finalmente, (2) so permite multiplicacao porelementos nao-nulos do corpo k. A razao do desequilıbrio aparente entre as operacoes de tipo(2) e (3) e devido a necessidade das operacoes serem reversiveis (isto e, corresponderem amultiplicacoes por matrizes quadradas que admitam inversas com elementos polinomiais).

2.2.2. Exemplo. Considere as seguintes matrizes sobre Q[X]:(X 01 X − 1

),

(1 2X0 3

)A primeira nao admite inversa sobre Q[X] (embora a admita sobre Q(X), o que e um facilexercicio). A segunda admite inversa sobre Q[X]. E claro, por outro lado, que toda matriz Asobre k[X], cujos elementos pertencem todos a k e tal que detA 6= 0, admite inversa sobre k,logo sobre k[X] por maior razao.

Observemos que a nocao do determinante de uma matriz quadrada A sobre k[X] nao precisaser reintroduzido: definimo-lo como sendo o determinante de A, esta considerada como matrizsobre k(X) (que e um corpo, em cujo caso ja sabemos a definicao ). E bastante evidente que,se A e matriz quadrada sobre k[X], entao detA ∈ k[X]. pelo mesmo principio, a definicao deposto de uma matriz retangular sobre k[X] nao precisa ser repetida.

A proposicao a seguir diz exatamente quais matrizes quadradas sobre k[X] admitem inversasobre k[X].

2.2.3. Proposicao. Seja k um corpo arbitrario. Uma matriz quadrada A sobre k[X] admiteinversa sobre k[X] se e somente se detA ∈ k \ {0}.

Page 29: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS 25

Demonstracao. Pela conhecida relacao , temos A ad(A) = (detA)I, onde ad(A) e a matrizdos cofatores de A. Em particular, pela definicao mesma dos cofatores, ad(A) e matriz sobrek[X]. Trabalhando sobre k(X), a inversa e dada por A−1 = (detA)−1 ad(A). Se detA ∈ k,segue que os elementos de A−1 sao polinomios. Inversamente, se A admite inversa A−1 sobrek[X], entao detA det(A−1) = 1 e o produto de dois polinomios que da como resultado 1. Logo,detA admite inverso multiplicativo em k[X] e, portanto, tem de pertencer a k \ {0}. �

Como no caso de escalonamento sobre um corpoK, diremos que uma matrizB ∈Mm×n(k[X])e elementarmente equivalente a uma matriz A ∈ Mm×n(k[X]) se B = AE ou B = FA, ondeE e F sao matrizes elementares (isto e, correspondem a operacoes elementares por linhaou coluna, sobre k[X]). Dizemos que B e equivalente a A se existirem matrizes elementa-res E1, . . . , Er, F1, . . . , Fs tais que B = E1 · · ·ErAF1 · · ·Fs. Usaremos, neste caso, a notacaoB ∼ A.

Como antes, trata-se de uma relacao de equivalencia no conjunto Mm×n(k[X]). Ainda comoantes, nossa tarefa sera exibir uma forma canonica para cada classe de equivalencia.

Para familiarizar-nos com o teorema de escalonamento em Mm×n(k[X]), convem tratar pri-meiro alguns exemplos simples, onde possamos reconhecer o padrao geral.

2.2.4. Exemplo. Consideremos a matriz(X X + 1

X + 2 X + 4

)∈M2×2(Q[X])

Deixaremos ao aluno o prazer de determinar explicitamente as operacoes elementares usadasem cada uma das passagens abaixo.(

X X + 1X + 2 X + 4

)∼

(X 1

X + 2 2

)∼(X 12 1

)∼(

1 X1 2

)∼

(1 01 −X + 2

)∼(

1 00 −X + 2

)Facil demais? Porque os polinomios sao todos de grau 1? Porque a matriz e quadrada? Nos

dois proximos exemplos, transgredimos estas condicoes .

2.2.5. Exemplo. Uma matriz com elementos polinomiais de graus diferentes:(X2 X + 1X − 1 X2

)∼

(X + 1 X2

X2 X − 1

)∼(X + 1 −XX2 −X3 +X − 1

)∼

(X + 1 1X2 −X3 +X2 +X − 1

)∼

(1 X + 1

−X3 +X2 +X − 1 X2

)∼

(1 0

−X3 +X2 +X − 1 X4 − (X + 1)(X − 1)

)∼

(1 00 X4 − (X + 1)(X − 1)

)

Page 30: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

26 2. Mn×n(k[X]) E FATORES INVARIANTES

2.2.6. Exemplo. Uma matriz 2× 3 com elementos polinomiais, de posto 1:(X X2 X3

X2 X3 X4

)∼

(X 0 X3

X2 0 X4

)∼(

X 0 0X2 0 0

)∼

(X 0 00 0 0

)2.2.7. Exemplo. A matriz caracterıstica de uma matriz A ∈M2(k):

XI −A =(X − a11 −a12

−a21 X − a22

)Suponhamos, primeiramente, que A nao e diagonal; digamos, a12 6= 0. Entao tem-se:

XI −A ∼(

1 X − a11

−a−121 (X − a22) −a21

)∼(

1 X − a11

X − a22 a12a21

)∼

(1 0

X − a22 −(X − a11)(X − a22) + a12a21

)∼(

1 00 cA(X)

),

onde cA(X) e o polinomio caracterıstico de A.Suponhamos, em seguida, que A seja diagonal, isto e, a12 = a21 = 0. Se a11 6= a22, temos:

XI −A =(X − a11 0

0 X − a22

)∼(X − a11 −X + a11

0 (X − a22)

)∼

(X − a11 a11 − a22

0 (X − a22)

)∼(

1 0(a11 − a22)−1(X − a22) 0

)∼

(1 00 cA(X)

),

ainda da mesma forma anterior.Finalmente, se A e escalar (isto e, a12 = a21 = 0, a11 = a22 := a, entao a forma canonica

sera a propria matriz caracterıstica.

2.3. Forma canonica de Smith

Estamos preparados para os principais resultados desta parte.

2.3.1. Teorema. (Forma canonica de Smith) Toda matriz A ∈Mm×n(k[X]) e equivalentea uma matriz m× n semi-diagonal sobre k[X] da forma

SA =

f1(X) 0 · · · 0f2(X) 0 · · · 0

. . ....

...fr(X) 0 · · · 0

0 0 · · · 0 0 · · · 0...

......

......

0 0 · · · 0 0 · · · 0

,(2.3.1)

onde r e o posto de A e, para todo 1 ≤ j ≤ r, fj(X) ∈ k[X] e polinomio monico que dividefj+1(X) (com a convencao de que fr+1 = 0).

Page 31: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.3. FORMA CANONICA DE SMITH 27

Demonstracao. Podemos supor que A nao e a matriz nula. Procedemos por inducaosobre m. No conjunto de todas as matrizes equivalentes a A escolhamos uma que admite comoelemento na posicao (1, 1) um polinomio monico de menor grau possivel; denotemos um talpolinomio por g(X). Dividindo todo elemento da primeira linha de A por g(X), obtemos umamatriz m× n da forma (

g(X) r12(X) . . . r1n(X)...

......

),

onde r1j(X) sao os respectivos restos das divisoes. Em particular, gr(r1j(X)) < gr(g(X)), paratodo j. Esta matriz foi obtida de A por (m− 1) transformacoes elementares, logo e equivalentea A. Por hipotese, segue necessariamente que r1j(X) = 0 para todo j. Procedendo similarmentecom a primeira coluna desta matriz, obtemos

A ∼

g(X) 0 . . . 0

0... A1

0

,

onde A1 e matriz m− 1× n− 1 polinomial. Pela hipotese indutiva, esta matriz e equivalente auma matriz

SA1 =

f2(X) 0 · · · 0f3(X) 0 · · · 0

. . ....

...fr(X) 0 · · · 0

0 0 · · · 0 0 · · · 0...

......

......

0 0 · · · 0 0 · · · 0

,(2.3.2)

onde r − 1 e o posto de A1 e os polinomios se comportam conforme o enunciado do teorema.Consequentemente, aplicando a matriz dada A operacoes elementares da forma

1 0 . . . 00... P1

0

,

onde P1 e matriz m− 1× n− 1 elementar usada para passar de A1 a SA1 , chegamos a que A eequivalente a

SA =

f1(X) 0 0 0 0 0 0 00 f2(X) 0 · · · 00 f3(X) 0 · · · 0...

. . ....

...0 fr(X) 0 · · · 0

0 0 0 · · · 0 0 · · · 0...

......

......

...0 0 0 · · · 0 0 · · · 0

.

Page 32: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

28 2. Mn×n(k[X]) E FATORES INVARIANTES

Ponhamos f1(X) := g(X). Resta mostrar que g(X)|f2(X). Ora, a matriz acima e aindaequivalente a matriz que se obtem ao somar a primeira linha multiplicada por g(X) a segundalinha. Tornando a dividir f2(X) por g(X), como no inicio, obtemos uma matriz equivalentecom um elemento (o resto desta divisao) com grau menor do que o de g(X). Novamente, somosobrigados a concluir que g(X) divide f2(X), como queriamos demosntrar. �

2.3.2. Teorema. (Unicidade da forma canonica de Smith) A forma (2.3.1) e unica-mente determinada pela matriz dada A. Mais precisamente, para todo 2 ≤ j ≤ r, fj(X) =dj(X)dj−1(X) , onde dj(X) e o mdc (monico) de todos os subdeterminantes de ordem j de A.

Demonstracao. Fixemos um j, 1 ≤ j ≤ r, com r = p(A). Se B e elementarmente equiva-lente a A, entao, devido as possiveis formas das matrizes elementares, vemos que todo menor deordem j de B e um menor de ordem j de A multiplicado por um α ∈ k \ 0 ou uma combinacaoda forma ∆ + p(X)∆′, onde p(X) ∈ k[X] e ∆,∆′ sao menores de ordem j de A.

Daqui resulta, pela definicao , que o mdc (monico) de todos os menores de ordem j de Be igual ao mdc (monico) dj de todos os menores de ordem j de A. Iterando este processo,deduzimos que o mdc (monico) de todos os menores de ordem j da matriz de Smith SA e iguala dj .

Ora, como fl|fl+1, para 1 ≤ l ≤ r − 1, resulta facilmente que o mdc (monico) de todos osmenores de ordem j da matriz de Smith e o produto f1 · · · fj . Logo, dj = f1 · · · fj . Daqui resultao enunciado procurado. �

2.3.3. Definicao. (Fatores invariantes de uma matriz polinomial) Os polinomiosmonicos fj(X) da forma de Smith sao chamados os fatores invariantes da matrizA ∈Mn×n(k[X]).

2.3.4. Corolario. Sejam A,B ∈Mm×n(k[X]). Entao A e equivalente a B se e so se temos mesmos fatores invariantes.

2.3.5. Teorema. (Caracterizacao do polinomio minimo) Seja A ∈ Mn×n(k). Sejamf1(X), . . . , fn(X) ∈ k[X] os fatores invariantes da matriz carateristica de A, XI − A. Entao amatriz caracterıstica XI −A tem posto n e, alem disso, tem-se:

cA(X) = f1(X) · · · fn(X), mA(X) = fn(X).

Demonstracao. A afirmacao relativa ao posto e ao polinomio caracterıstico e obvia. Defato por definicao temos

XI −A = E · SA(X) · E′,com E,E′ sao produto de matrizes elementares em Mn×n(k[X]). Tomando os determinantes,deduzimos

cA(X) = det(E) · det(E′) · f1(X) · · · fn(X).Sendo cA(X) monico e sendo os fi(X) monicos, temos det(E) · det(E′) = 1.

Seja dn−1(X) o m.c.d. monico dos menores de ordem n − 1 de XI − A. Sabemos quefn(X) = det(XI−A)

dn−1(X) . Por definicao de matriz adjunta, temos que o m.c.d. monico dos elementosda matriz ad(XI −A) e exatamente dn−1(X). Portanto

ad(XI −A) = dn−1(X) · P (X),

Page 33: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.3. FORMA CANONICA DE SMITH 29

com P (X) ∈ Mn×n(k[X]) matriz com elementos polinomios relativamente primos entre si. Dead(XI −A) · (XI −A) = det(XI −A) · I obtemos

dn−1(X) · P (X) · (XI −A) = dn−1(X) · fn(X) · Ie portanto

P (X) · (XI −A) = fn(X) · I.Pelo teorema do resto podemos interpretar a relacao anterior como que o resto da divisao adireita de fn(X) · I por XI − A e nulo, i.e. fn(A) = 0. Isso implica que mA(X) divide fn(X),i.e.

fn(X) = h(X) ·mA(X).Para concluir e suficiente mostrar que h(X) tem grau zero porque os dois polinomios fn(X) emA(X) sao monicos. Dividindo mA(X)·I a direita por XI−A e sendo mA(A) = 0 por definicao,o teorema da divisao garante a existencia de R(X) ∈Mn×n(k[X]) tal que

mA(X) · I = R(X) · (XI −A).

Combinando as relacoes anteriores obtemos

P (X) · (XI −A) = h(X) ·mA(X) · I = h(X) ·R(X) · (XI −A),

que, sendo XI −A de posto n, implica

P (X) = h(X) ·R(X).

Entao h(X) ∈ k porque, por construcao, os elementos de P (X) eram relativamente primos entresi. �

2.3.6. Observacao. Assim, o polinomio caracterıstico de A e o produto de todos os fatoresinvariantes de XI − A e o polinomio minimo de A e o fator caracterıstico de maior grau deA. Para calcular mA(X) podemos determinar a forma normal de Smith ou, mais diretamente,calcular o mdc dos subseterminantes submaximos da matriz caracterıstica de A. Qual metodo emais eficiente? A resposta depende de varias circunstancias, mas, em geral, para valores grandesde n, a forma normal de Smith e preferivel.

2.3.7. Observacao. Sejam k e k′ dois corpos com k ⊆ k′ (e.g. R ⊆ C) e seja A ∈Mn×n(k).A priori pensando A como elemento de Mn×n(k′) teremos a nocao de polinomio minimo de Acom coeficientes em k′, i.e. o polinomio monico de menor grau de k′[X] que se anula sobreA e nao e claro que esse polinomio coincida com o polinomio minimo de A em k[X]. Quantoacabamos de mostrar revela que o polinomio minimo de A nao depende do corpo. Isso porque seA ∈Mn×n(k) ⊂Mn×n(k′), entao o n-esimo fator invariante de XI −A pertence sempre a k[X].Que depende do corpo e a fatorizacao do polinomio minimo e portanto a ”forma canonica”. Porexemplo considerando

A =(

0 −11 0

)como matriz com coeficentes reais, temos que mA(X) = X2 + 1 e que A e in forma canonicaracional como matriz real. Em M2×2(C), o polinomio minimo de A se fatora em mA(X) =(X − i)(X + i) e a forma canonica racional como matriz complexa de A e(

i 00 −i

).

Page 34: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

30 2. Mn×n(k[X]) E FATORES INVARIANTES

2.4. Equivalencia em Mn×n(k[X]) e semelhnanca em Mn×n(k)

2.4.1. Teorema. Sejam A(X), B(X) ∈Mn×n(k[X]) com B(X) propria e A(X) e B(X) degrau um. Entao A(X) e equivalente a B(X) se e so se existirem P,Q ∈ Mn×n(k) inversiveistais que B(X) = P ·A(X) ·Q.

Demonstracao. Se B(X) = P · A(X) · Q, entao claramente A(X) e equivalente a B(X)(lembramos que cada matriz in Mn×n(k) invertivel e produto de matrizes elementares!).

Ao contrario se A(X) e B(X) sao equivalentes, existem P (X), Q(X) ∈Mn×n(k[X]) produtosde matrizes elementares tais que

B(X) = P (X) ·A(X) ·Q(X).(2.4.1)

Sendo B(X) propria pudemos dividir a esquerda a matriz P (X) por B(X) e a matriz Q(X) adireita obtendo

P (X) = B(X) · P1(X) + P,(2.4.2)

Q(X) = Q1(X) ·B(X) +Q,(2.4.3)

onde sendo B(X) de grau um, temos P,Q ∈Mn×n(k). Combinando (2.4.2) e (2.4.1), obtemos

P ·A(X) ·Q1(X) = B(X) ·D1(X),(2.4.4)

com D1(X) = (Q(X)−1 − P1(X)) ·Q1(X). Seja

P1(X) ·A(X) ·Q(X) = D2(X) ·B(X),

onde D2(X) = P1(X) · P (X)−1.No resto da demostracao vamos provar que essas matrizes P e Q tem a propriedade querida,

i.e. que B(X) = P ·A(X) ·Q. Por isso vamos substuir na primeira equacao de cima as expressoesobtidas nas equacoes anteriores. Entao

B(X) = (P +B(X)P1(X)) ·A(X) ·Q(X)= P ·A(X) ·Q(X) +B(X) ·D2(X) ·B(X)= P ·A(X) ·Q+ P ·A(X) ·Q1(X) ·B(X) +B(X) ·D2(X) ·B(X)= P ·A(X) ·Q+B(X) ·D(X) ·B(X),

onde D(X) = D1(X) +D2(X). Para concluir e bastante mostrar que D(X) = 0. De

B(X)− P ·A(X) ·Q = B(X) ·D(X) ·B(X),

sendo que A(X) e B(X) tem grau um, segue que B(X)D(X)B(X) tem grau no maximo um. SeD(X) 6= 0, entao , sendo B(X) uma matriz propria, B(X) ·D(X) ·B(X) teria grau pelo menosdois que seria impossivel. Obtemos que D(X) = 0 e que B(X) = P · A(X) ·Q como desejado.Mostamos agora que P e Q sao inversiveis. Se B(X) = B1X + B0 e se A(X) = A1X + A0,obtemos

B1X +B0 = P · (A1X +A0) ·Q = (P ·A1 ·Q)X + P ·A0 ·Q,i.e. B1 = P ·A1 ·Q e a afirmacao segue do feito que B1 e invertivel (por que?). �

O proximo teorema e de importancia fundamental e vai permitir de dezurir muitos resultadosda teoria dos fatores invariantes e da forma canonica de Smith da matriz caracterıstica XI −A,A ∈Mn×n(k).

2.4.2. Teorema. Duas matrizes A,B ∈ Mn×n(k) sao semelhantes se e so se XI − A eequivalente a XI −B em Mn×n(k[X]).

Page 35: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.5. FORMA CANONICA RACIONAL 31

Demonstracao. Se A e semelhante a B, entao existe P ∈ Mn×n(k) invertivel tal queP · B · P−1 = A. Facilmente obtemos P (XI − B)P−1 = XI − A e a conclusao segue do feitoque uma matriz invertivel em Mn×n(k) e produto de matrizes elementares. Portanto XI −B eequivalente a XI −A.

Se XI − A e equivalente a XI − B pelo teorema 2.4.1, existem P,Q ∈ Mn×n(k) tais queXI − B = P · (XI − A) · Q. Eseguindo a multiplicacao obtemos P · Q = I, i.e. Q = P−1 eB = P ·A · P−1, i.e. A e B sao semelhantes. �

2.4.3. Corolario. Sejam k um subcorpo do corpo k′ e sejam A,B ∈Mn×n(k). Entao A eB sao semelhantes em Mn×n(k) se e so se sao semelhantes em Mn×n(k′).

Demonstracao. Sendo Mn×n(k) ⊆ Mn×n(k′), e claro que se A e B sao semelhantes emMn×n(k), entao sao semelhantes em Mn×n(k′).

Se A e B sao semelhantes em Mn×n(k′), entao pelo teorema anterior XI −A e XI −B saoequivalentes em Mn×n(k′[X]) e portanto tem os mesmos fatores invariantes em k′[X]. Mas osfatores invariantes de XI −A e XI −B sao polinomios em k[X] e portanto as matrizes XI −Ae XI −B sao equivalentes em Mn×n(k[X]) pelo corollario 2.3.4 tendo a mesma forma canonicade Smith. Aplicando mais uma vez o teorema 2.4.2 deduzimos que A e B sao semelhantes emMn×n(k). �

2.4.4. Observacao. Nao e verdade que se A = P ′ · B · P ′−1 com P ′ ∈ Mn×n(k′), entaoP ′ ∈ Mn×n(k). O corolario anterior garante so a existencia de uma matriz P ∈ Mn×n(k) talque A = P ·B · P−1.

2.5. Forma canonica racional

O Teorema 2.4.2 permite de deduzir os teoremas da forma canonica racional da teoria dosfatores invariantes e ate de fornecer uma demosntracao diferente do Teorema de DecomposicaoPrimaria, Teorema 1.5.1. Vamos tratar primeiro o caso das matrizes companheiras.

2.5.1. Definicao. (Matriz companheira de um polinomio monico g(X) = Xm −αm−1X

m−1 − . . .− α1X − α0 de grau m). A matriz m×m

C(g(X)) =

0 0 0 . . . α0

1 0 0 . . . α1

0 1 0 . . . α2...

......

. . ....

0 0 0 1 αm−1

.

se diz a matriz companheira de g(X) e se indica com C(g(X)).

2.5.2. Proposicao. Seja f(X) ∈ k[X] um polinomio monico de grau n ≥ 1e seja C(f(X)) ∈Mn×n(K) a matriz companheira de f(X). Entao XI − C(f(X)) e equivalente a

1 0 0 0 0 00 1 0 0 · · · 00 1 0 · · · 0...

. . ....

......

. . ....

0 f(X)

∈Mn×n(k[X]).

Page 36: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

32 2. Mn×n(k[X]) E FATORES INVARIANTES

Demonstracao. E facil verificar (verifique!) que para uma matriz da forma C(f(X))temos mC(f(X))(X) = cC(f(X))(X) = f(X), cfr. Lema 2.8.2. Portanto os fatores invariantes deXI − C(f(X)) sao tais que

f1(X) · · · fn(X) = cC(f(X))(X) = f(X) = mC(f(X))(X) = fn(X).

Segue que f1(X) = · · · = fn−1(X) = 1 e fn(X) = f(X). A forma canonica de Smith deXI − C(f(X)) e esatamente como acima. �

2.5.3. Teorema. (Forma canonica racional-primeira versao ) Cada matriz A ∈Mn×n(k)e semelhante a uma unica matriz da forma

C(fl(X)) 0 0 0 00 C(fl+1(X)) · · · 0...

. . ....

0 C(fn(X))

,

onde os fj(X), j = l, . . . , n, 1 ≤ l ≤ n, sao polinomios monicos nao costantes com apropriedade que fi(X) divide fi+1(X) para cada i = l, . . . , n − 1. Os polinomios fj(X) sao osfatores invariantes nao constantes de XI −A.

Demonstracao. Seja 1 0 0 0 0 00 1 0 0 · · · 00 fl(X) 0 · · · 0...

. . ....

...0 fn(X)

a forma canonica de Smith de XI − A, i.e. os fj(X) sao os fatores invariantes nao constantesde XI −A. Seja

C =

C(fl(X)) 0 0 0 0

0 C(fl+1(X)) · · · 0...

. . ....

0 C(fn(X))

.

Observamos que C ∈Mn×n(k).Entao

XI − C =

XI − C(fl(X)) 0 0 0 0

0 XI − C(fl+1(X)) · · · 0...

. . ....

0 XI − C(fn(X))

e pela proposicao 2.5.2 cada bloco XI − C(fj(X)) e’ equivalente a

1 0 0 0 0 00 1 0 0 · · · 00 1 0 · · · 0...

. . ....

......

. . ....

0 fj(X)

.

Page 37: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.6. FATORES INVARIANTES E DIVISORES ELEMENTARES 33

Portanto XI − C e equivalente a

1 0 0 0 0 00 1 0 0 · · · 00 fl(X) 0 · · · 0...

. . ....

......

. . ....

0 fn(X)

e de consequencia a XI − A. Disso deduzimos que A e semelhante a C pelo Teorema 2.4.2. Aunicidade e clara porque se A fosse semelhante a uma matriz da forma

C ′ =

C(f ′l′(X)) 0 0 0 0

0 C(f ′l′+1(X)) · · · 0...

. . ....

0 C(f ′n(X))

,

com f ′i(X) monico e irredutivel e tal que f ′i(X) divide f ′i+1(X), os fatores invariantes de XI−C ′seriam f ′l′(X), . . . , f ′n(X)(argumentaremos como acima) e seriam tambem os fatores invariantesde XI −A. Portanto teremos l = l′ e f ′j(X) = fj(X) e a unicidade resulta provada. �

2.6. Fatores invariantes e divisores elementares

2.6.1. Proposicao. Se f(X) = q1(X)e1 · · · ql(X)el e um polinomio de grau n, onde os qj(X)sao irredutiveis, monicos e distintos, entao C(f(X)) e semelhante a uma matriz da forma

C(q1(X)e1)C(q2(X)e2)

. . .C(ql(X)el)

.

Demonstracao. Seja

C =

C(q1(X)e1) 0 0 0 0

0 C(q2(X)e2) · · · 0...

. . ....

0 C(ql(X)el)

.

Entao

XI − C =

XI − C(q1(X)e1) 0 0 0 0

0 XI − C(q2(X)e2) · · · 0...

. . ....

0 XI − C(ql(X)el)

e como antes cada bloco XI − C(qj(X)ej ) e’ equivalente a

1 0 0 0 0 00 1 0 0 · · · 00 1 0 · · · 0...

. . ....

...0 qj(X)ej

.

Page 38: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

34 2. Mn×n(k[X]) E FATORES INVARIANTES

Sendo que os polinomios qj(X) sao irredutiveis e relativamente primos, o m.c.d. monico dosmenores de ordem n− 1 de XI − C e igual a 1 (por que?). Portanto XI − C e equivalente a

1 0 0 0 0 00 1 0 0 · · · 00 1 0 · · · 0...

. . ....

...0 f(X)

que e a forma canonica de Smith de XI − C(f(X)). Portanto C(f(X)) e semelhante a C. �

2.6.2. Corolario. (Forma canonica racional-segunda versao ). Seja A ∈ Mn×n(k)com polinomio minimo mA(X) = q1(X)e1 . . . qr(X)er . Entao

i) Existe uma matriz semelhante a A da forma

D =

D1

D2

. . .Dr

,

onde cada Di tem a forma

Di =

C(qi(X)ei)

C(qi(X)ei,2). . .

C(qi(X)ei,pi )

e temos ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r, p1 ≥ p2 ≥ . . . ≥ pr.

ii) A forma da matriz no ponto acima se diz forma canonica racional de A e e unica modulouma permutacao dos blocos.

iii) Os polinomios qi(X)ei,j , i = 1, . . . , r, j = 1, . . . , pi se dizem divisores elementares de A.Os divisores elementares sao os fatores primarios dos fatores invariantes de XI −A.

Demonstracao. Sejam fk(X), . . . , fn(X) os fatores invariantes nao costantes de XI − A.Na fatorizacao dos fj(X) podem aparacer como fatores irredutiveis so q1(X), . . . , qr(X) (porque?). Portanto aplicando o teorema 2.5.3 e a proposicao 2.6.1 deduzimos que A e semelhantea uma matriz

B =

Bk

Bk+1

. . .Bn

,

onde cada Bl, l = k, . . . , n tem a forma

Bl =

C(q1(X)e1,n−l+1)

C(q2(X)e2,n−l+1). . .

C(qr(X)er,n−l+1)

,

com ei,n−l+1 ≥ 0, ei,1 = ei e ei,n−l+1 ≤ ei,n−l para cada i = 1, . . . , r. Sendo XI −B claramenteequivalente a XI −D, obtemos que A e semelhante a D. Resulta claro, revertendo o argumento

Page 39: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.7. DECOMPOSICAO PRIMARIA E CICLICA 35

que grupando as matrizes companheiras de divisores elementares distintos, podemos construirB como acima tal que XI −D seja equivalente a XI − B. Sendo que os qi(X) sao irredutiveise distintos, cada matriz XI −Bl e’ equivalente a uma matriz do tipo

11

. . .q1(X)e1,n−l · · · qr(X)er,n−l

.

Sejam fl(X) = q1(X)e1,n−l · · · qr(X)er,n−l ; temos que fl(X) e monico e divide fl+1(X). Segueque XI −B, e portanto XI −A, e’ equivalente a

1 0 0 0 0 00 1 0 0 · · · 00 fk(X) 0 · · · 0...

. . ....

...0 fn(X)

,

onde cada fl(X) divide o seguinte e e monico. Isso mostra a unicidade da forma canonicaracional de A (por que?). �

Segue imediatamente o seguinte fato.

2.6.3. Corolario. Duas matrizes A,B ∈Mn×n(k) sao semelhantes se e so se tem a mesmaforma canonica racional se e so se tem os mesmos divisores elementares.

A demonstracao da segunda versao da forma canonica racional mostra tambem como dadosos divisores elementares de uma matriz A ∈ Mn×n(k) se construem os fatores invariantes deXI − A. Sejam qi(X)ei,j os divisores elementares, i = 1, . . . , r, j = 1, . . . , pi, p1 ≥ . . . ≥ pr.Pondo ei,m = 0 se m > pi, podemos construir a seguinte matriz em Mp1×r(k[X])

q1(X)e1,p1 q2(X)e2,p1 · · · · · · qr(X)er,p1q1(X)e1,p1−1 q2(X)e2,p1−1 · · · · · · qr(X)er,p1−1

.... . .

......

q1(X)e1,1 q2(X)e2,1 · · · · · · qr(X)er,1

.

Entao os fatores invariantes de XI − A sao os polinomios monicos obtidos multiplicando oselementos de cada linha da matriz acima. Ao contrario dados os fatores invariantes nao costantesde XI − A podemos construir uma matriz como acima em qual cada entrada seja um divisorelementar de A.

2.7. Teoremas de decomposicao T -ciclica I e T -primaria II

Os resultados da secao anterior permitem de demonstrar diferentemente o Teoremas de De-composicao T -primaria e tambem de provar o Teorema de Decomposicao T -ciclica. Vamos obteros teoremas de decomposicao ciclica e primaria como corolarios dos resultados anteriores pelabem nota correspondencia entre matrizes semelhantes como matrizes de uma mesma aplicacaolinear com respeito a bases diferentes. Na proxima secao forneceremos uma demonstracao diretado Teorema de Decomposicao T -ciclica e portanto dos resultado dessa secao. Antes precisamosda definicao de subespaco T -ciclico.

Page 40: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

36 2. Mn×n(k[X]) E FATORES INVARIANTES

2.7.1. Definicao. (Subespaco T -ciclico) Seja T ∈ End(V ). Dado um vetor u ∈ V , osubconjunto

U = {f(T )(u) | f(X) ∈ k[X]}e subespaco de V . Um subespaco de V desta forma e dito ser T -ciclico, associado ao vetor u (uentao dito ser um gerador de U , se nao der lugar a confusoes).

2.7.2. Observacao. A designacao acima vem do fato de que um tal subespaco e o k[X]-submodulo de V gerado pelo elemento u ∈ V , onde a estrutura de k[X]-modulo de V e aintroduzida no Capıtulo 1.

Se U e subespaco T -ciclico, entao U e obviamente T -invariante. Se r = dim(U), entaoB = {u, T (u), . . . , T r−1(u)} e uma base de U . Se T r(u) =

∑r−1i=0 αiT

i(u) e se f(X) = Xr −∑r−1i=0 αiX

i, temos que[T ]BB = C(f(X)),

vide-se o Lemma 2.8.2 para os detalhes das demonstracoes das afirmacoes acima.

2.7.3. Corolario. (Existencia e unicidade decomposicao T -ciclica) Seja T ∈ End(V )com polinomio minimo mT (X) = q1(X)e1 . . . qr(X)er . Entao

i) V = U1,1⊕U1,2⊕ . . .⊕U1,p1 ⊕U2,1⊕ . . .⊕Ur,pr com Ui,j subespacos T -ciclicos tais quepara cada i = 1, . . . , r e para cada j = 1, . . . , pi − 1, dim(Ui,j) ≥ dim(Ui,j+1).

ii) O polinomio minimo da restricao de T a Ui,j e’ da forma qi(X)ei,j com ei = ei,1 ≥ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r. (os polinomios qi(X)ei,j se dizem divisoreselementares de T )

iii) dim(Ui,j) = ei,j · di, onde di = grau(qi(X)).

iv) Existe uma base B de V tal que

[T ]BB =

A1

A2

. . .Ar

,

onde cada Ai tem a forma

Ai =

C(qi(X)ei)

C(qi(X)ei,2). . .

C(qi(X)ei,pi )

.

v) A forma da matriz no ponto iv) se diz forma canonica racional de T e e’ unica modulouma permutacao dos blocos.

Demonstracao. Seja B′ uma base de V e seja A = [T ]B′B′ . O resultado segue aplicando a

segunda versao da forma canonica racional a matriz A. �

Page 41: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.8. DECOMPOSICAO T -CICLICA 37

2.7.4. Corolario. (Teorema de decomposicao primaria) Seja T ∈ End(V ), seja

cT (X) = q1(X)l1 · · · qr(X)lr

o polinonmio caracterıstico de T e seja

mT (X) = q1(X)e1 · · · qr(X)er

o polinomio minimo de T , onde cada qi(X) e um polinomio monico irredutivel, 1 ≤ ei ≤ li paracada i = 1, . . . , r e os qi(X) sao distintos. Entao

i) ker (qi(T )ei) 6= 0V e um subespaco T -invariante para cada i = 1, . . . , r.ii) V = ker (q1(T )e1)⊕ · · · ⊕ ker(qk(T )er).iii) dim(ker (qi(T )ei)) = li · grau(qi(X)).iv) O polinomio minimo da restricao de T a ker (qi(T )ei) e qi(X)ei.

Demonstracao. Seja Vi =⋃pij=1 Ui,j , onde os Ui,j sao os subespacos T -ciclicos contruidos

aplicando o corolario 2.7.3. Entao cada Vi e T -invariante e V = V1 ⊕ . . . ⊕ Vr; a restricaode T a cada Vi tem como polinomio minimo qi(X)ei . Disso segue facilmente que o polinomiocarateristico de T|Vi e qi(X)l1 , vide-se Proposicao 2.1.10. Portanto dim(Vi) = li · grau(qi(X)).Para concluir e’ suficiente mostrar que Vi = ker (qi(T )ei) = ker (qi(T )li). Temos as inclusoesVi ⊆ ker (qi(T )ei) ⊆ ker (qi(T )li). Se Vi,,j = ker (qi(T )li) ∩ Vj 6= 0V , com j 6= i, esse subespacode Vj seria T -invariante por ser intersecao de subespacos T -invariantes e para qualquer v ∈ Vi,jteremos qi(T )li(v) = 0V = qj(T )em,j (v). O polinomio minimo de T|Vi,j deveria dividir qi(X)lie qj(X)em,j , que sao coprimos e seria portanto o polinomio costante 1. Essa contradicao provaque ker (qi(T )li) ⊆ Vi, concluindo a demonstracao. �

2.8. Teorema de decomposicao T–ciclica II

O objetivo dessa secao e’ demonstrar diretamente o Teorema de Decomposicao T -ciclica,Teorema 2.8.1 abaixo, ja provado no Corolario 2.7.3. Dessa maneira vamos obter uma novademonstracao do Corolario 2.6.2 que nao depende da teoria dos fatores invariantes e das matrizespolinomiais. Para ficar completamtente independentes da citada teoria, usaremos o Teorema dadecomposicao T -primaria demonstrado diretamente no Teorema 1.5.1.

Pelo teorema de decomposicao primaria, querendo achar uma forma canonica para um ope-rador T : V → V podemos supor sem perda de generalidade que mT (X) = q(X)e com e ≥ 1 eq(X) irredutivel em k[X]. A partir desse caso com o procedimento usual acharemos a ”formacanonica”para um T qualquer fatorizando o polinomio minimo de T em fatores irredutiveismonicos. Para encontrar a forma canonica vamos demostrar um teorema de existencia e unici-dade para uma decomposicao de V em subespacos T -ciclicos; a restricao de T a esse subespacosvai ter como matriz em uma base oportunamente escolhida uma matriz naturalmente associadaa q(X)li , e = l1 ≥ l2 ≥ . . . ≥ lp.

2.8.1. Teorema. (Existencia e unicidade da decomposicao ciclica) Seja T : V → Vuma aplicacao linear e suponhamos que

mT (X) = q(X)e,

com q(X) ∈ k[X] irredutivel e monico e com e ≥ 1. Entao :i) (existencia) V = U1 ⊕ U2 . . . ⊕ Up, onde cada Ui e’ um subespaco T -ciclico tal que

o polinomio minimo de T|Ui seja da forma q(X)ei com e = e1 ≥ e2 ≥ . . . ≥ ep,dim(Ui) = d · ei, d = grau(q(X)).

Page 42: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

38 2. Mn×n(k[X]) E FATORES INVARIANTES

ii) (unicidade) Se V = U ′1⊕U ′2 . . .⊕U ′p′, onde cada U ′j e’ um subespaco T -ciclico tal que

o polinomio minimo de T|U ′j seja da forma q(X)e′j com e = e′1 ≥ e′2 ≥ . . . ≥ e′p′, entao

p = p′ e ei = e′i para cada i = 1, . . . , p.

Demonstracao. Para inducao sobre n = dim(V ) ≥ 1. Para n = 1, necessariamentemT (X) = X − α e o teorema e’ verdadeiro.

Seja d = grau(q(X)) ≥ 1. Temos q(T )e−1 6= 0End(V ) por definicao de polinomio minimo.Entao existe u ∈ V tal que q(T )e−1(u) 6= 0V . Seja U1 =< u, T (u), . . . >, i.e. o subespacociclico T -invariante gerado por u e seja T1 a restricao de T a U1. Sendo que q(T1)e = 0End(U1)

o polinomio minimo de T1 e’ da forma q(X)e1 com e1 ≤ e. De q(T1)e−1(u) 6= 0 deduzimose1 = e. Entao U1 =< u, T (u), . . . , T de−1(u) > porque sendo q(X)e o polinomio minimo de T|U1

,T de(u) ∈< u, T (u), . . . , T de−1(u) > e portanto T r(u) ∈< u, T (u), . . . , T de−1(u) > para cadar ≥ d · e. Por outro lado temos que se u, T (u), . . . , T de−1(u) fossem linearmente dependentes,entao o polinomio minimo de T|U1

seria de grau menor a d · e (lembramos que f(T|U1) = 0 se e

so se f(T )(u) = 0). Concluimos que dim(U1) = de. Se d · e = n, o teorema esta demostrado.Suponhamos d · e < n.

Sendo U1 um subespaco T -invariante, T induz uma transformacao linear T : V/U1 → V/U1

definida comoT ([v]) = [T (v)].

(Mostrar que e’ bem definida!). Se f(X) ∈ k[X], entao se verifica logo que

f(T )([v]) = [f(T )(v)].

Dessa ultima relacao deduzimos que mT (X) divide mT (X), i.e. mT (X) = q(X)e2 , e2 ≤ e1 = e.Se W e um subespaco T -ciclico de V gerado por w tal que q(X)e seja o polinomio minimo deT|W , entao q(X)e e um multiplo do polinomio minimo da restricao de T ao subesaco T -ciclicogerado por [w].

Aplicando a ipotese de inducao a V/U1, de dimensao n− dim(U1) < n, obtemos

V/U1 = U2 ⊕ U3 . . .⊕ Up,

onde cada U j e’ T -ciclico e a restricao de T a cada U j tem polinomio minimo da forma q(X)ejcom e2 ≥ e3 ≥ . . . ≥ ep. Para completar a demostracao vamos construir a partir de U j ,j = 2, . . . , p subespacos Uj de V tais que:

a) cada Uj seja isomorfo a U j e entao T -ciclico;b) o polinomio minimo da restricao de T a Uj seja exatamente q(X)ej ;c) V = U1 ⊕ U2 . . .⊕ Up.

Cada subespaco U j e’ gerado por um vetor [uj] e temos

U j =< [uj], . . . , Tljd−1([uj]) > .

De q(T )lj ([uj]) = 0V/U1deduzimos q(T )ej (uj) ∈ U1; sendo U1 gerado por u1 obtemos q(T )ej (uj) =

f(T )(u1) por algum f(X) ∈ k[X]. Afirmamos que podemos deduzir a existencia de um vetoru′j ∈ U1 tal que q(T )ej (T )(uj + u′j) = 0V . Demonstrado isso pegaremos

Uj =< uj + u′j, . . . , Tejd−1(uj + u′j) >

e verificaremos as propriedades a), b) e c).A afirmacao segue dos seguintes fatos. Temos

0V = q(T )e(uj) = q(T )e−ejq(T )ej (uj)q(T )e−ejf(T )(u1).

Page 43: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

2.8. DECOMPOSICAO T -CICLICA 39

Sendo que a restricao de T a U1 tem polinomio minimo q(X)e, temos que q(X)e divide q(X)e−ejf(X).Isso implica f(X) = h(X)q(X)ej (por que?). Tomando u′j = −h(T )(u1) ∈ U1, temos

q(T )ej (uj + u′j) = f(T )(u1) + q(T )ej (−h(T )(u1)) = 0V .

Sendo que u′j ∈ U1, claramente [uj] = [uj + u′j] e entao esse vetor e um gerador de U j ,j = 2, . . . , p. Observamos antes que o polinomio minimo da restricao de T a Uj e um multiplode q(X)ej , mas q(T )ej (uj + u′j) = 0V implica que o polinomio minimo da restricao de T a Ujseja esatamente q(X)ej , assim que b) esta demonstrado. Mostramos a). Argumentando comono caso de U1 no inicio da demonstracao, temos que os espacos vetorias Uj e U j tem dimensaod · lj . O mapa natural πj : Uj → U j definido como πj(uj +u′j) = [uj +u′j] = [uj ] e uma aplicacaolinear sobrejetora que, pelo teorema do nucleo e da imagem, induz um isomorfismo entre Uj eU j para cada j = 2, . . . p, completando a demonstracao do ponto a).

Indicamos con π : V → V/U1 o mapa projecao definido como π(v) = [v]. Entao a restricaode π a cada Uj e o πj definido anteriormente. Sendo que πj e um isomorfismo, temos Uj∩U1 = 0Vpara cada j = 2, . . . , p. Se w1 + w2 + . . . + wp = 0V , com wi ∈ Ui, i = 1, . . . , p, aplicandoπ, teremos π(w2) + . . . + π(wp) = 0V , π(wj) ∈ U j para cada j = 2, . . . , p. Isso implicaπ(wj) = 0V/U1

(por que?) e portanto wj = 0V para cada j = 2, . . . , p pela injetividade deπj . Portanto a soma U1 + . . .+ Up e direta e coincide com V sendo um subespaco de dimensaon = dim(V ).

Passamos a mostrar a unicidade da decomposicao na forma especificada em ii). Seja m ≥ 1o menor inteiro tal que em 6= e′m. Sendo e1 = e = e′1, temos 2 ≤ m ≤ min{p, p′}. Podemos suporsem perda de generalidade que em > e′m. Por outro lado sabemos que e′m ≥ e′j para cada j ≥ me portanto que q(T )e

′m(U ′j) = 0V para cada j ≥ m. Entao

q(T )e′m(V ) = q(T )e

′m(U ′1)⊕ q(T )e

′m(U ′2)⊕ . . .⊕ q(T )e

′m(U ′m−1),

onde a soma continua direta porque os U ′j sao T -invariantes. Cada U ′k e’ T -ciclico de dimensaod · e′k. Se verifica facilmente que dim(q(T )e

′m(U ′k)) = d · (e′k − e′m) para cada k = 1, . . . ,m − 1.

Calculando com a outra decomposicao obtemos

q(T )e′m(V ) ⊇ q(T )e

′m(U1)⊕ q(T )e

′m(U2)⊕ . . .⊕ q(T )e

′m(Um−1)⊕ q(T )e

′m(Um)

com dim(q(T )e′m(Ut)) = d(et−e′m) para cada t = 1, . . . ,m. Disso deduzimos

∑m−1k=1 d·(e′k−e′m) ≥∑m

k=1 d(ek − e′m) e portanto em ≤ e′m contra a hipotese. �

Combinando o teorema de decomposicao primaria e o teorema de decomposicao ciclica,dado T : V → V aplicacao linear podemos sempre supor a existencia de subespacos T -ciclicos.Portanto para estudar T e suficiente conhecer a restricao dele aos subespacos T -ciclicos que Tindividua, sendo esses essencialmente ”unicos”.

2.8.2. Lema. Seja U um subsespaco T -ciclico de V de dimensao m ≥ 1.Entao :

i) U tem uma base B da forma B = {u, T (u), . . . , Tm−1(u)}.ii) Se Tm(u) = α0u + α1T (u) + . . .+ αm−1T

m−1(u), entao

[T ]BB =

0 0 0 . . . α0

1 0 0 . . . α1

0 1 0 . . . α2...

......

. . ....

0 0 0 1 αm−1

= C(Xm − αm−1Xm−1 − . . .− α1X − α0).

Page 44: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

40 2. Mn×n(k[X]) E FATORES INVARIANTES

iii) O polinomio minimo de T|U e’

g(X) = Xm − αm−1Xm−1 − . . .− α1X − α0.

Demonstracao. Podemos pensar U como gerado por u, T (u), T 2(u), etc. Se T r(u) = 0U ,entao T l(u) = 0U para cada l ≥ r e

U =< u, T (u), . . . , T r−1(u) > .

Sendo que dim(U) = m, temos que T j(u) 6= 0U para cada j = 1, . . . ,m− 1. Mostramos que osm vetores u, T (u), . . . , Tm−1(u) sao linearmente indipendentes. Seja

β0u + β1T (u) + . . .+ βm−1Tm−1(u) = 0U

uma relacao entre os vetores com βi ∈ k. Suponhamos que exista i, 1 ≤ i ≤ m−1 tal que βi 6= 0e tal que

β0u + β1T (u) + . . .+ βiTi(u) = 0U .

Entao T i(u) ∈< u, T (u), . . . , T i−1(u) >. Aplicando T teremos que tambem T i+k(u) ∈<u, T (u), . . . , T i−1(u) > de onde deduziremos que o subespaco U estaria contido em

< u, T (u), . . . , T i−1(u) >;

i − 1 ≤ m − 2 implica i ≤ m − 1 e isso e’ impossivel porque dim(U) = m. A parte ii) e clara.Vamos provar iii). Seja f(X) ∈ k[X]. Entao f(T|U ) = 0End(U) se e somente se f(T )(u) = 0U .Portanto o polinonio minimo de T|U e o polinomio monico h(X) de menor grau positivo tal queh(T )(u) = 0. Sendo {u, T (u), . . . , Tm−1(u)} uma base de V , o grau de h(X) e maior o igual am. Sendo g(T )(u) = 0U , teremos que o grau de h(X) e exatamente m e que h(X) divide g(X);sendo os dois monicos temos h(X) = g(X). �

Exercicios do capıtulo

(1) Mostrar que em geral para A(X), B(X) ∈Mn×n(k[X]),

grau(A(X) ·B(X)) 6= grau(A(X)) + grau(B(X)).

(2) Efetuar a divisao euclidiana a direita de A(X) por B(X) nos seguintes casos, escrevendoprimeiramente as duas matrizes como polinomios matriciais.(a)

A(X) =(

X3 + 5X + 1 3X3 +X − 12X3 +X2 + 2 4X3 + 2X + 2

),

B(X) =(

2X2 − 1 X2

3X2 2X2

)(b)

A(X) =(

2X2 + 2 X2 + 2−3X −X

), B(X) =

(X 2−2 X

)(3) No Exercıcio anterior, item (b), verifique que a divisao e exata (isto e, tem resto nulo)

em um lado, mas nao no outro.

Page 45: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

EXERCICIOS DO CAPITULO 41

(4) Dadas as matrizes

P (X) =

2X4 −X2 + 2 −X3 +X − 1 1−X2

X3 −X + 1 −X4 +X2 − 2 1 +X2

X2 − 1 −X − 1X4 +X2 − 1

,

A =

0 1 00 0 12 0 0

,

determinar o valor PD(A) pelos dois metodos da divisao euclidiana e da substituicaodireta.

(5) Seja A ∈Mn×n(R) tal que A2 = −In×n.(a) Mostrar que n = 2r por algum inteiro r ≥ 1.(b) Mostrar que para cada v ∈ Rn \ 0, temos

dim(< A(v),v >) = 2.

Deduzir que para n = 2, a matriz A e semelhante a(0 −11 0

).

(c) Mostrar que A e semelhante em Mn×n(R) a(0 −Ir×r

Ir×r 0

).

(d) Se substituirmos R por C a conclusao do ponto (i) continua verdadeira? Se naoconstruir um contraexemplo.

(6) Seja A ∈ Mm×n(Z). Mostrar que existem P ∈ Mm×m(Z) e Q ∈ Mn×n(Z) inversiveistais que

P ·A ·Q =

d1 0 · · · 0d2 0 · · · 0

. . ....

...dr 0 · · · 0

0 0 · · · 0 0 · · · 0...

......

......

0 0 · · · 0 0 · · · 0

,

onde r e o posto de A e onde, para todo 1 ≤ j ≤ r, dj ∈ Z e um inteiro positivo quedivide dj+1 (com a convencao de que dr+1 = 0).

Page 46: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

42 2. Mn×n(k[X]) E FATORES INVARIANTES

(7) Seja A ∈M10×10(Q) a matriz seguinte.

A =

−1 0 0 0 0 0 0 0 0 00 0 3 0 0 0 0 0 0 00 1 2 0 0 0 0 0 0 00 0 0 0 3 0 0 0 0 00 0 0 1 2 0 0 0 0 00 0 0 0 0 3 0 0 0 00 0 0 0 0 0 0 0 0 −90 0 0 0 0 0 1 0 0 −120 0 0 0 0 0 0 1 0 20 0 0 0 0 0 0 0 0 4

.

(a) Encontrar cA(X) e mA(X).(b) Encontrar os fatores invariantes de XI −A (e a forma canonica racional de A).

(8) Achar a forma normal de Smith de

A =(

x2 x− 1x+ 1 x2

).

(9) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre Q[X],pelo metodo das operacoes elementares:(a) X − 1 0 −1

3 X − 2 00 4 X + 7

(b) (

X X2 − 1 X3

X2 X − 1 X2 +X − 1

)(c) X 0 0

0 X − 1 00 0 X − 2

(d) X 0 0

0 X 00 0 X − 2

(10) Verificar, justificando devidamente, quais das matrizes seguintes sobre C[X] estao na

forma normal de Smith.(a) Uma matriz A ∈Mm×n(C) na forma reduzida linha/coluna(b) Uma matriz diagonal A(X) ∈Mn×n(C[X]) cuja diagonal principal e composta de

polinomios monicos em ordem estritamente crescente de graus.

Page 47: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

EXERCICIOS DO CAPITULO 43

(c) Uma matriz diagonal A(X) ∈Mn×n(C[X]) da forma1 0 . . . 0 00 1 . . . 0 0...

......

...0 0 . . . 1 00 0 . . . 0 f(X)

com f(X) ∈ C[X] monico.

(d) Uma matriz diagonal A(X) ∈Mn×n(C[X]) com o mesmo polinomio monico repe-tido ao longo da diagonal principal.

(11) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre R[X],pelo metodo dos subdeterminantes:(a) f(X) 0

0 g(X)0 1

e(f(X) 0 1

0 g(X) 0

)onde f(X), g(X) ∈ R[X] sao monicos.

(b) 1 + 2X X3 + 4X2 +X + 2 X3 + 4X + 20 X2 +X X2

1− 2X X3 + 3X2 − 3X − 1 X3 −X2 + 4X − 2

(c) A matriz caracterıstica da matriz

0 0 0 −α0

1 0 0 −α1

0 1 0 −α2

0 0 1 −α3

onde αi ∈ R.

(12) Usando a teoria dos fatores invariantes da matriz carateristica associada, demonstraros seguintes fatos:(a) uma matriz A ∈Mn×n(k) e semelhante a At;(b) Sejam A,B ∈M2×2(R) (resp. M2×2(C)). Entao A e B sao semelhantes se e so se

mA(X) = mB(X).(c) Sejam A,B ∈M3×3(R) (resp. M3×3(C)). Entao A e B sao semelhantes se e so se

cA(X) = cB(X) e mA(X) = mB(X).(d) Construir duas matrizes A,B ∈ M3×3(R) nao semelhantes e com mA(X) =

mB(X).(e) Para cada n ≥ 4 construir exemplos de matrizes A,B ∈Mn×n(R) nao semelhantes

e tais que cA(X) = cB(X) e mA(X) = mB(X).

(13) Encontrar o polinomio minimo de

A =

2 1 12 3 21 1 2

,

calculando os fatores invarientes de XI −A.

Page 48: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

44 2. Mn×n(k[X]) E FATORES INVARIANTES

(14) Seja

A =

2 −1 1 −11 0 1 −10 0 1 00 0 0 1

∈M4×4(C).

Encontrar a forma canonica racional de A.

(15) Mostrar que se por A ∈ Mn×n(k), temos mA(X) = cA(X), entao A e semelhante aC(det(XI −A)) = C(cA(X)).

Page 49: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

CAPıTULO 3

Forma canonica de Jordan

3.1. Forma canonica de Jordan para operadores nilpotentes

Introduzimos a definicao de operador nilpotente e de matriz nilpotente.

3.1.1. Definicao. (Operador e matriz nilpotente) Seja T : V → V uma aplicacao linearde V . O operador T se diz nilpotente se existir um inteiro p ≥ 1 tal que

T p = T ◦ · · · ◦ T︸ ︷︷ ︸p

= 0End(V ).

O menor inteiro r ≥ 1 com a propriedade que T r = 0V se diz ındice de nilpotencia de T .Uma matriz A ∈Mn×n(k) se diz nilpotente se existir p ≥ 1 tal que

Ap = A · · ·A︸ ︷︷ ︸p

= 0

e o ındice de nilpotencia de A o menor inteiro r ≥ 1 com a propriedade que Ar = 0.

Enunciamos algumas propriedades dos operadores nilpotentes que sao consequencias diretasda definicao.

(i) Se r e o ındice de nilpotencia de T , entao mT (X) = Xr e o polinomio minimo deum operador nilpotente e portanto completamente redutivel em k[X]. Claramente sen = dim(V ), cT (X) = Xn.

(ii) λ = 0 e o unico auto-valor de uma aplicacao linear nilpotente T .(iii) Se T : V → V e nilpotente, os auto-vetores de T sao exatamente os elementos do nucleo

ker (T ) (todos associados ao auto-valor unico 0)

Vamos considerar agora casos particulares dos resultados demonstrados anteriormente.

3.1.2. Proposicao. Seja T : V → V um operador nilpotente de ındice de nilpotencia r eseja U ⊆ V um subespaco T -ciclico de dimensao m ≥ 1.Entao

i) U tem uma base B da forma B = {u, T (u), . . . , Tm−1(u)}.ii)

[T ]BB =

0 0 0 . . . 01 0 0 . . . 00 1 0 . . . 0...

......

. . ....

0 0 0 1 0

.

iii) O polinomio minimo de T|U e Xm e m ≤ r.

Demonstracao. O polinomio minimo de T|U e da forma X l, 1 ≤ l ≤ r e as afirmacoesseguem por exemplo do Lema 2.8.2. �

45

Page 50: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

46 3. FORMA CANONICA DE JORDAN

Estamos agora na posicao para mostrar o Teorema da forma canonica de Jordan para ope-radores nilpotentes. Precisamos so de uma definicao. .

3.1.3. Definicao. (Bloco elementar de Jordan de tamanho n). Definimos como blocoelementar de Jordan de tamanho n a matriz Jn ∈Mn×n(k) da forma

Jn =

0 0 0 . . . 01 0 0 . . . 00 1 0 . . . 0...

......

. . ....

0 0 0 1 0

.

3.1.4. Teorema. (Forma canonica de Jordan para operadores nilpotentes) SejaT : V → V uma aplicacao linear nilpotente de ındice de nilpotencia r, i.e. mT (X) = Xr. Entao

i) V = U1 ⊕ U2 ⊕ . . .⊕ Up com Ui subespaco T -ciclico.ii) O polinomio minimo da restricao de T a Ui e da forma Xri com r = r1 ≥ r2 ≥ . . . ≥ rp

para cada i = 1, . . . , p, onde dim(Ui) = ri.iii) Existe uma base B de V tal que

[T ]BB =

Jr

Jr2. . .

Jrp

,

onde cada Jri e um bloco elementar de Jordan de tamanho ri, r = r1 ≥ . . . ≥ rp.iv) A forma da matriz no ponto iii) se diz forma canonica de Jordan de T e e unicamente

determinada.

Demonstracao. Pelo teorema de decomposicao ciclica sabemos che existem U1, . . . Up su-bespacos T -ciclicos tais que V = U1⊕U2⊕. . .⊕Up. Se dim(Ui) = ri, podemos supor r1 ≥ . . . ≥ rp.Sendo T nilpotente podemos aplicar a Proposicao 3.1.2 para deduzir que o polinomio minimoda restricao de T a Ui seja Xri . E claro que T r1 = 0V e que T r1−1 6= 0V (se ui o gerador de Ui,T r1(ui) = 0V mas T r1−1(u1) 6= 0V ). Portanto r1 = r.

Sendo mT (X) = Xr, aplicando o teorema de unicidade da decomposicao T -ciclica, obtemosa demonstracao do ponto iv), o ponto iii) sendo claro. �

3.1.5. Definicao. (ındices de nilpotencia sucessivos de um operador nilpotente)Os inteiros {r1, . . . , rp} se dizem ındices de nilpotencia sucessivos de T .

3.1.6. Corolario. (Forma canonica de Jordan de matrizes nilpotentes) Seja A ∈Mn×n(k) uma matriz nilpotente de ındice de nilpotencia r. Entao

i) existe uma unica matriz semelhante a A, dita a forma canonica de Jordan de A, daforma

JrJr2

. . .Jrp

,

onde cada Jri bloco elementar de Jordan de tamanho ri, com r = r1 ≥ . . . ≥ rp. Osinteriro {r1, . . . , rp} se dizem ındices de nilpotencia sucessivos de A.

Page 51: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

3.2. FORMA CANONICA DE JORDAN 47

ii) Duas matrizes nilpotentes A,B ∈ Mn×n(k) sao semelhantes se e so se tem a mesmaforma canonica de Jordan se e so se tem os mesmos ındices de nilpotencia successivos.

3.2. Forma canonica de Jordan para operadores com polinomio minimocompletamente redutivel sobre k

Nessa secao vamos estudar as aplicacoes lineares T : V → V por quais o polinomio minimode T seja completamente redutivel em k[X], i.e. mT (X) = (X − λ1)e1 · · · (X − λr)er comλi ∈ k distintos, i = 1, . . . , r. Essa condicao e satisfeita para qualquer T : V → V se porexemplo o corpo k e algebricamente fechado (e.g. k = C!). Observamos que temos cT (X) =(X − λ1)s1 · · · (X − λr)sr com si ≥ ei para cada i = 1, . . . , r.

Nessa hipotese, aplicando o teorema de decomposicao primaria e o teorema da forma canonicade Jordan para operadores nilpotentes, vamos obter uma forma canonica para operadores quais-quer.

Precisamos introduzir uma definicao.

3.2.1. Definicao. (Bloco elementar de Jordan de tamanho n relativo ao autovalorλ ∈ k) Dados n ≥ 1 e λ ∈ k definimos o bloco elementar de Jordan de tamanho n relativo aoautovalor λ como a matriz J(λ)n ∈Mn×n(k) da forma:

J(λ)n =

λ 0 0 . . . 01 λ 0 . . . 00 1 λ . . . 0...

......

. . ....

0 0 0 1 λ

.

Claramente J(0)n = Jn, i.e. os blocos elementares relativos ao autovalor 0 sao os blocoselementares de Jordan.

3.2.2. Teorema. (Forma canonica de Jordan) Seja T : V → V um operador tal quecT (X) = (X − λ1)s1 · · · (X − λr)sr , com λi ∈ k distintos, i = 1, . . . r, e seja mT (X) = (X −λ1)e1 · · · (X − λr)er , ei ≤ si, o polinomio minimo de T . Entao

i) V = V1⊕ . . .⊕ Vr, onde Vi = ker ((T − λiIV )ei) e’ um subespaco T -invariante dedimensao si para cada i = 1, . . . , r.

ii) Para cada i = 1, . . . , r, se Ti e a restricao de T a Vi, entao Ti = λiIVi + Si comSi : Vi → Vi operador nilpotente de ındice de nilpotencia ei.

iii) Se ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi, i = 1, . . . , r, sao os ındices de nilpotencia sucessivos deSi, entao existe uma base B de V tal que

[T ]BB =

A1

A2

. . .Ar

,

onde cada Ai ∈Msi×si(k) tem a forma

Ai =

J(λi)ei

J(λi)ei,2. . .

J(λi)ei,pi

.

Page 52: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

48 3. FORMA CANONICA DE JORDAN

iv) A forma da matriz no ponto iii) se diz forma canonica de Jordan de T e e unica modulouma permutacao dos blocos Ai.

Demonstracao. O teorema de decomposicao primaria, teorema 1.5.1, mostra que V =V1 ⊕ . . . ⊕ Vr (lembramos que cada Vi e claramente T -invariante), que dim(Vi) = si e que seTi = T|Vi , entao mTi(X) = (X − λi)ei . Seja Si : Vi → Vi o operador Ti − λiIVi . Por definicaotemos que Si e nilpotente e que o ındice de nilpotencia dele e esatamente ei. Aplicando oTeorema da forma canonica de Jordan para operadores nilpotentes a Si deduzimos a existenciade uma bade Bi de Vi tal que [Si]BiBi seja composta de blocos elementares de Jordan de tamanhosei = ei,1, . . . , ei,pi , i = 1, . . . , r, onde ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi sao os ındices de nilpotenciasucessivos de Si. Segue imediatamente que [Ti]BiBi = Ai. Tomando come base de V a baseB obtidas como uniao das bases Bi por i = 1, . . . r, obtemos que [T ]BB e exatamente comoespecificado no ponto iii). A unicidade modulo permutacoes das Ai segue da unicidade da formacanonica de Jordan para operadores nilpotentes. �

Vamos fazer algumas observacoes e comentarios.

(1) Caracterısticas de Segre. Da interpretacao matricial acima, deduzimos a seguintetabela de numeros inteiros positivos

λ1, s1, e1,1, e1,2, . . . , . . . , e1,p1

λ2, s2, e2,1, e2,2, . . . , e1,p2 , 0...

λr, sr, er,1, er,2, . . . , . . . , er,pr

(cujas linhas tem comprimento diferentes, em geral). Estes inteiros sao chamados ca-racterısticas de Segre. Por hipotese, eles determinam completamente a forma canonicade Jordan, logo sao invariantes da classe de semelhanca das matrizes representativas deT . Se T for nilpotente as caracterısticas de Segre sao a dimensao do espaco e os ındicesde nilpotencia sucessivos.

(2) Observemos as relacoes obvias∑r

j=1 sj = n e∑pj

l=1 ej,l = sj (1 ≤ j ≤ r). A se-gunda relacao mostra que, esencialmente, as caracterısticas de Segre dependem so dopolinomio minimo de T e das ındices de nilpotencia sucessivos de Si e nao do polinomiocaracterıstico.

(3) Para cada j = 1, . . . , r, a multiplicidade de λj como raız do polinomio mınimo mT (X)e a caracterıstica de Segre ej,1 (o primeiro, maior por hipotese).

(4) A dimensao do auto-espaco Vλj = ker (T −λjI) associado ao auto-valor λj e ainda dadopor dim(ker (Tj − λjI)) = sj − rank (Tj − λjI) = sj − (

∑pjl=1(ej,l − 1)) = −(−pj) = pj .

Assim, ha um total de pj auto-vetores linearmente independentes associados a λj ,portanto um para cada sub-bloco elementar de Jordan daquele auto-valor.

Embora a segunda observacao mostre que nao todas as caracterısticas de Segre sejam neces-sarias para determinar a classe de semelhanca de uma matriz (podemos por exemplo eliminara segunda coluna de inteiros na matriz que define as caracterısticas de Segre), enunciamos oseguinte corolario nessa forma.

3.2.3. Corolario. (Forma canonica de Jordan de matrizes) Seja A ∈Mn×n(k) umamatriz com polinomio minimo completamente redutivel em k[X]. Entao

Page 53: ´ALGEBRA LINEAR Francesco Russo e Aron Simis

EXERCISIOS DO CAPITULO 49

i) existe uma matriz semelhante a A, dita a forma canonica de Jordan de A, da formaA1

A2

. . .Ar

,

onde cada Ai ∈Msi×si(k) tem a forma

Ai =

J(λi)ei

J(λi)ei,2. . .

J(λi)ei,pi

,

com ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi, i = 1, . . . , r.ii) A forma canonica de Jordan de A unica modulo permutacoes dos blocos Ai.iii) Duas matrizes A,B ∈Mn×n(k) com polinomios minimos completamente redutiveis em

k[X] sao semelhantes se e so se tem a mesma forma canonica de Jordan se e so se temas mesmas caracterısticas de Segre.

Exercisios do capıtulo