09.02.2017 Views

lgebra Linear, Elon Lages Lima

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

326 A Forma Canônica de Jordan Apêndice<br />

subespaço cíclico de dimensão 2 e cada w l (l = 1,...,r) gera um<br />

subespaço cíclico de dimensão 1 (o que significa Aw 1 =···=Aw l =0).<br />

O resultado fundamental sobre operadores nilpotentes é o<br />

Teorema A1.2. Seja A: E → E um operador nilpotente de índice k<br />

num espaço vetorial de dimensão n. Existem inteiros k 1 = k ≥ k 2 ≥<br />

··· ≥ k r > 0, tais que E = F 1 ⊕···⊕F r , onde cada F i é um subespaço<br />

cíclico de dimensão k i .<br />

Evidentemente, k 1 +···+k r = n.<br />

Tomando em cada F i (i = 1,...,r) uma base V i = {u i ,Au i ,...,<br />

A k i−1 u i }, obtemos uma base V = V 1 ∪ ... ∪ V r , em relação à qual<br />

a matriz de A é formada por r blocos a i ∈ M(k i × k i ), ao longo da<br />

diagonal. Cada bloco a i tem a forma vista no Exemplo 2: para j < k i<br />

sua j-ésima coluna é e j+1 ∈ R k i<br />

enquanto sua k i -ésima coluna é zero.<br />

A2. Existência da Forma Canônica de Jordan.<br />

Dado um operador linear A: E → E num espaço vetorial complexo<br />

de dimensão finita, provaremos que existe uma base em E na qual a<br />

matriz de A tem a forma canônica de Jordan: é triangular inferior,<br />

os auto-valores que formam sua diagonal são repetidos consecutivamente<br />

de acordo com suas multiplicidades algébricas e, além disso,<br />

os elementos imediatamente abaixo da diagonal são iguais a 0 ou 1;<br />

todos os demais elementos são nulos.<br />

Teorema A2.1. Seja A: E → E um operador linear num espaço vetorial<br />

(real ou complexo) de dimensão finita. Existe uma decomposição<br />

E = F⊕G, como soma direta de subespaços invariantes F, G tais que<br />

A é nilpotente em F e invertível em G.<br />

Demonstração: Como a dimensão de E é finita, a seqüência de subespaços<br />

invariantes<br />

E ⊃ Im(A) ⊃ Im(A 2 ) ⊃ ...<br />

não pode ser estritamente decrescente para sempre. Seja então k o<br />

menor número natural tal que Im(A k ) = Im(A k+1 ). Afirmamos que<br />

então Im(A k+1 ) = Im(A k+2 ). Com efeito,<br />

Im(A k+2 ) = A[Im(A k+1 )] = A[Im(A k )] = Im(A k+1 ).

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!