09.05.2013 Views

ALGEBRA LINEAR Francesco Russo e Aron Simis - Portale Posta DMI

ALGEBRA LINEAR Francesco Russo e Aron Simis - Portale Posta DMI

ALGEBRA LINEAR Francesco Russo e Aron Simis - Portale Posta DMI

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

ÁLGEBRA <strong>LINEAR</strong><br />

<strong>Francesco</strong> <strong>Russo</strong> e <strong>Aron</strong> <strong>Simis</strong>


Conteúdo<br />

Capítulo 1. Preliminares de uma aplicação linear 1<br />

1.1. Polinômio característico e polinômio minimo 1<br />

1.2. Autovalores e autovetores 3<br />

1.3. Diagonalização e triangulação de uma aplicação linear 4<br />

1.4. Subespaços invariantes de uma aplicação linear 7<br />

1.5. Decomposição T -primária de um espaço vetorial 8<br />

Exercicios de revisão e referentes ao capítulo 10<br />

Capítulo 2. A teoria dos fatores invariantes e dos divisores elementares 17<br />

2.1. Matrizes com elementos polinomiais 17<br />

2.2. Escalonamento de matrizes com elementos polinomiais 23<br />

2.3. Forma canônica de Smith 26<br />

2.4. Equivalencia em Mn×n(k[X]) e semelhnanca em Mn×n(k) 30<br />

2.5. Forma canônica racional 31<br />

2.6. Fatores invariantes e divisores elementares 33<br />

2.7. Teoremas de decomposição T -ciclica I e T -primaria II 35<br />

2.8. Teorema de decomposição T –ciclica II 37<br />

Exercicios do capítulo 40<br />

Capítulo 3. Forma canônica de Jordan 45<br />

3.1. Forma canônica de Jordan para operadores nilpotentes 45<br />

3.2. Forma canônica de Jordan para operadores com polinômio minimo completamente<br />

redutivel sobre k 47<br />

Exercisios do capítulo 49<br />

iii


CAPíTULO 1<br />

Preliminares de uma aplicação linear<br />

1.1. Polinômio característico e polinômio minimo<br />

Seja K um corpo arbitrário, fixo de uma vez por todas, a menos de afirmação em contrário.<br />

Seja V um K-espaço vetorial de dimensão finita. Denotaremos por End(V ) o conjunto das<br />

aplicações lineares de V em V e observamos que End(V ), além de admitir uma estrutura de<br />

K-espaço vetorial (com dim End(V ) = (dim V ) 2 ), admite uma outra operação natural, a de<br />

composição de aplicações , que lhe confere estrutura de anel (não comutativo). Nesta seção<br />

estudaremos as propriedades preliminares de uma aplicação linear T ∈ End(V ). Indicaremos<br />

por IV ∈ End(V ) a aplicação linear identidade, assim como I ∈ Mn×n(K) denotara a matriz<br />

identidade In×n.<br />

Seja T ∈ End(V ). Dado p(t) = a0 + a1t + . . . + art r ∈ K[t], definimos<br />

como a aplicação linear cuja imagem em v é<br />

p(T ) := a0IV + a1T + . . . + arT r ∈ End(V )<br />

p(T )(v) := a0v + a1T (v) + . . . + arT r (v) ∈ V.<br />

Com essa notação podemos definir um homorfismo de aneis comutativos φT : K[t] → K[T ],<br />

dado por<br />

φT (p(t)) = p(T ) ∈ End(V ),<br />

onde K[T ] designa a K-subálgebra do anel End(V ) gerada por T ∈ End(V ). Neste mesmo<br />

espírito, definimos uma operação • T : K[t] × V → V de K[t] em V , dada por<br />

V .<br />

p(t) • T v = p(T )(v) ∈ V.<br />

A operação • T induz uma estrutura de K[t]-modulo finitamente gerado no K-espaço vetorial<br />

Analogamente, se A ∈ Mn×n(K), definimos<br />

e a operação<br />

como<br />

p(A) = a0I + a1A + . . . + arA r ∈ Mn×n(K)<br />

•A : K[t] × K ⊕n → K ⊕n<br />

p(t) •A v = p(A)(v) ∈ K ⊕n ,<br />

onde p(A)(v) designa o produto da matriz p(A) pelo vetor coluna v.<br />

Dada A(t) = (ai,j(t)) ∈ Mn×n(K[t]) e dados v1, . . . , vn ∈ V , definimos<br />

⎛ ⎞ ⎛ ⎞ ⎛ n v1<br />

v1<br />

j=1<br />

⎜ ⎟ ⎜ ⎟ ⎜<br />

A(t) •T ⎝ . ⎠ = A(T ) ⎝ . ⎠ = ⎝<br />

vn<br />

vn<br />

a1,j(T )(vj)<br />

<br />

.<br />

n<br />

j=1 an,j(T<br />

⎞<br />

⎟<br />

⎠ .<br />

)(vj)<br />

1


2 1. POLINÔMIO MINIMO E CARATERISTICO<br />

1.1.1. Definição. (Polinômio carateristico e polinômio minimo) Seja T ∈ End(V ) e<br />

seja B = {v1, . . . , vn} uma base de V . O polinômio carateristico de T é<br />

c T (t) := det(tI − [T ] B B) ∈ K[t].<br />

O polinômio minimo de T , indicado com m T (t) é o gerador monico do ideal ker (φT ) ⊆ K[t],<br />

i. e. é o polinômio monico de menor grau p(t) ∈ K[t] com a propriedade que p(T ) = 0 End(V ).<br />

Se A ∈ Mn×n(K), definimos o polinômio carateristico de A como<br />

c A (t) = det(tI − A) ∈ K[t]<br />

e o polinômio minimo de A, m A (t), como o gerador mônico de ker (φA).<br />

Por definição de matriz associada a uma aplicação linear com respeito a uma base B, temos<br />

= A = [ai,j],<br />

n<br />

T (vj) = ai,jvi.<br />

que, se [T ] B B<br />

i=1<br />

Se B ∈ Mn×n(K) é uma matriz inversível, então<br />

det(tI − B −1 AB) = det(B −1 (tI − A)B) = det(tI − A)<br />

para qualquer matriz A ∈ Mn×n(K). Portanto o polinômio caraterestico de T é bem definido,<br />

não dependendo da escolha da base B utilizada na sua definição. c T (t) é um polinômio monico<br />

de grau n = dim(V ). Observamos que<br />

det(tI − A) = det((tI − A) t ) = det(tI − A t ).<br />

Se C(t) = tI − At ∈ Mn×n(K[t]), temos<br />

(1.1.1)<br />

⎛<br />

v1<br />

⎜<br />

C(t) •T ⎝ .<br />

vn<br />

⎞ ⎛<br />

T (v1) −<br />

⎟ ⎜<br />

⎠ = ⎝<br />

n i=1 ai,1(vi)<br />

.<br />

T (vn) − n i=1 ai,n(vi)<br />

⎞ ⎛<br />

⎟ ⎜<br />

⎠ = ⎝<br />

0V<br />

.<br />

0V<br />

⎞<br />

⎟<br />

⎠ .<br />

Se ad(C(t)) ∈ Mn×n(K[t]) é a matriz adjunta de C(t) ∈ Mn×n(K[t]), temos<br />

(1.1.2) ad(C(t)) · C(t) = C(t) · ad(C(t)) = det(tI − A t ) · I = c T (t) · I.<br />

Podemos agora demonstrar um resultado clássico importante.<br />

1.1.2. Teorema. (Cayley-Hamilton) Seja T ∈ End(V ). Então<br />

i. e. T anula o proprio polinômio carateristico.<br />

Analogamente, se A ∈ Mn×n(K), então<br />

c T (T ) = 0 End(V ),<br />

c A (A) = 0 Mn×n(K).


1.2. DEFINIÇÕES 3<br />

Demonstração. Seja B = {v1, . . . , vn} uma base de V . De (1.1.2) e de (1.1.1), deduzimos<br />

⎛<br />

c<br />

⎜<br />

⎝<br />

T (T )(v1)<br />

.<br />

cT ⎞<br />

⎟<br />

⎠ = (c<br />

(T )(vn)<br />

T ⎛ ⎞<br />

⎛ ⎛ ⎞⎞<br />

v1<br />

v1<br />

⎜ ⎟<br />

⎜ ⎜ ⎟⎟<br />

(t) · I) •T ⎝ . ⎠ = ad(C(t)) •T ⎝C(t) •T ⎝ . ⎠⎠<br />

=<br />

vn<br />

⎛ ⎞ ⎛ ⎞<br />

vn<br />

= ad(C(t)) •T<br />

⎜<br />

⎝<br />

0V<br />

.<br />

0V<br />

⎟ ⎜<br />

⎠ = ⎝<br />

Portanto a aplicação linear c T (T ) é a aplicação nula porque se anula sobre uma base de V .<br />

<br />

1.1.3. Corolário. Seja T ∈ End(V ). O polinômio minimo de T divide o polinômio carateristico<br />

de T .<br />

0V<br />

.<br />

0V<br />

⎟<br />

⎠ .<br />

1.2. Autovalores e autovetores<br />

Nesta seção introduziremos as primeiras noções de subespaços invariantes, através dos autovalores<br />

de uma aplicação linear.<br />

1.2.1. Definição. (Autovalor e autovetor de un aplicação linear) Seja T ∈ End(V ).<br />

Um autovetor de T é um vetor v ∈ V \ 0V tal que existe λ ∈ K com a propriedade que<br />

T (v) = λv.<br />

O elemento λ ∈ K se diz autovalor de T e v se diz autovetor relativo ao autovalor λ.<br />

Analogamente, se A ∈ Mn×n(K), um vetor não nulo v ∈ K ⊕n se diz autovetor da matriz A<br />

se existir λ ∈ K tal que<br />

A · v = λv.<br />

O elemento λ ∈ K se diz nesse caso autovalor de A.<br />

Indicamos com Vλ, λ ∈ K, o seguinte subespaço de V<br />

Vλ = ker (λIV − T ).<br />

Esse subespaço vetorial de V , chamado de autoespaço de T relativo a λ ∈ K.<br />

Observamos que λ ∈ K é autovalor se e somente se Vλ = 0V . A relação entre os autovalores<br />

de T ∈ End(V ) (ou de A ∈ Mn×n(K)) e o polinômio caraterístico de T é exprimida pelo seguinte<br />

resultado.<br />

1.2.2. Teorema. Os autovalores de T ∈ End(V ) (ou de A ∈ Mn×n(K)) são precisamene as<br />

raizes em K de c T (t) (respectivamente de c A (t)), que coincidem com as raizes em k de m T (t)<br />

(respectivamente de m A (t)).<br />

Em particular se n = dim(V ), então T tem no maximo n autovalores distintos.<br />

Demonstração. Seja B = {v1, . . . , vn} uma base de V e seja [T ] B B a matriz de T em relação<br />

à base B. O aplicação linear λIV − T tem núcleo não trivial se e somente se det([λIV − T ] B B ) = 0<br />

se e somente se cT (λ) = 0.<br />

Seja agora λ ∈ k um autovalor e seja v ∈ Vλ \ 0V . Temos<br />

0V = m T (T )(v) = m T (λ) · v.<br />

Sendo v = 0V , temos m T (λ) = 0, i. e. qualquer raiz de c T (t) em k é raiz de m T (t). Sendo que<br />

m T (t) divide c T (t), qualquer raiz de m T (t) em k é raiz de c T (t).


4 1. POLINÔMIO MINIMO E CARATERISTICO<br />

1.2.3. Teorema. Sejam λ1, . . . , λm autovalores distintos de uma aplicação linear T ∈ End(V )<br />

e sejam wj ∈ Vλj \ 0V , j = 1, . . . , m, então w1, . . . , wm são linearmente independentes sobre K.<br />

Em particular a soma dos subespaços Vλ1 , . . . , Vλm é direta.<br />

Demonstração. Seja pj(t) = <br />

i=j (t − λi). Por definição tem-se:<br />

<br />

pj(T )(wk) = i=j (λj − λi)wj se k = j<br />

0V<br />

se k = j<br />

Seja<br />

a1w1 + . . . + amwm = 0V<br />

com ai ∈ k. Temos que para cada j = 1, . . . , m<br />

m<br />

n<br />

<br />

0V = pj(T )(0V ) = pj(T )( aiwi) = aipj(T )(wi) = aj (λj − λi)wj.<br />

i=1<br />

Portanto aj = 0 para cada j = 1, . . . , m. <br />

1.2.4. Definição. (Multiplicidade algébrica e geométrica de um autovalor)<br />

Seja c T (t) o polinômio caraterístico de T ∈ End(V ) e seja λ ∈ K um autolavor de T . Se<br />

c T (t) = (t − λ) µ q(t) com q(t) ∈ K[t] e com q(λ) = 0, dizemos que µ é a multiplicidade algébrica<br />

de λ.<br />

A multiplicidade geométrica do autovalor λ ∈ K de T é a dimensão do autoespaço Vλ relativo<br />

ao autovalor λ.<br />

1.3. Diagonalização e triangulação de uma aplicação linear<br />

1.3.1. Definição. (Endomorfismo diagonalizavel ou triangularizavel) Uma aplicação<br />

linear T ∈ EndK(V ) é diagonalizável sobre K se existe uma base B = {v1, . . . , vn} de V tal que<br />

[T ] B B seja uma matriz diagonal. Equivalentemente, T é diagonalizável sobre K se e somente se<br />

existe uma base do K-espaço V formada por autovetores de T .<br />

Dizemos que T é triangularizavel superiormente (respectivamente, inferiormente) sobre K<br />

se existe uma base B = {v1, . . . , vn} de V tal que [T ] B B seja uma matriz triangular superior<br />

(respectivamente, triangular inferior).<br />

Correspondentemente, uma matriz A ∈ Mn×n(K) se diz diagonalizável (triangularizavel<br />

superiormente ou inferiormente) sobre K se existe P ∈ Mn×n(K) inversível tal que P −1 · A · P<br />

seja diagonal (triangular superior, respectivamente, triangular inferior).<br />

Sempre que não se prestar a confusão, omitiremos o complemento “sobre K”.<br />

O Teorema 1.2.3 tem o seguinte corolário, cuja demonstração é imediata.<br />

1.3.2. Corolário. Se T ∈ End(V ) admite n autovalores distintos, onde n = dim(V ), então<br />

T é diagonalizavel.<br />

i=1<br />

Em geral, uma aplicação linear não é diagonalizavel como mostram os seguinte exemplos.<br />

1.3.3. Exemplo. Seja<br />

e seja TA : K 2 → K 2 definido por<br />

A =<br />

<br />

x<br />

TA(<br />

y<br />

0 1<br />

0 0<br />

<br />

<br />

x<br />

) = A ·<br />

y<br />

<br />

.<br />

i=j


1.3. DEFINIÇÕES 5<br />

Então c TA(t) = t 2 , o único autovalor é 0 e V0 = ker (T ) é um subespaço de dimensão 1.<br />

Portanto não existe uma base de K 2 formada por autovetores de T . O aplicação linear TA é<br />

claramente triagularizavel superiormente. Temos m TA(t) = t 2 .<br />

Observemos que T não é diagonalizavel sobre K, qualquer que seja o corpo K. O exemplo<br />

seguinte mostra que, em geral, a diagonalizabilidade depende do corpo K.<br />

Seja Tθ : R2 → R2 a aplicação linear definida por<br />

<br />

x cos(θ) sin(θ)<br />

Tθ( ) =<br />

y − sin(θ) cos(θ)<br />

<br />

x<br />

·<br />

y<br />

com θ ∈ [0, 2π). Se θ = 0, π, então c Tθ(t) não tem raizes reais. A aplicação linear Tθ não é<br />

sequer triangularizavel sobre R para esses valores de θ - mas o é sobre C.<br />

Esses exemplos simples põem em evidência a necessidade de critérios mediante os quais<br />

uma aplicação linear seja diagonaliável ou triangularizavel. O próximo resultado fornece um tal<br />

critério de triangularização .<br />

1.3.4. Teorema. As seguintes condições são equivalentes para T ∈ End(V ):<br />

(1) T triangularizavel superiormente (ou inferiormente);<br />

(2) c T (t) é completamente fatorável sobre K.<br />

Demonstração. Suponhamos triangularizavel superiormente (logo, inferiormente também<br />

- porque?). Consideremos uma base B de V tal que A = [T ] B B seja triangular. É imediato ver<br />

que tI − [T ] B B é triangular, logo cT (t) = m j=1 (t − ai,i). Portanto, cT é completamente fatorável<br />

sobre K.<br />

Reciprocamente, suponhamos que cT (t) = m j=1 (t − λj) µj com λj ∈ K µ1 + . . . + µm = n.<br />

Seja 0 = v1 ∈ Vλ1 e completemos este vetor a uma base B de V . Temos:<br />

[T ] B <br />

<br />

λ1 A1<br />

B =<br />

,<br />

0 (n−1)×1 A2<br />

com A1 ∈ M 1×(n−1)(K) e A2 ∈ M (n−1)×(n−1)(K).<br />

Calculando o polinômio carateristico de T , temos<br />

c T (t) = det(tI − [T ] B B) = (t − λ1) det(tI (n−1)×(n−1) − A2) = (t − λ) · c A2 (t).<br />

Segue que A2 ∈ M (n−1)×(n−1)(K) tem polinômio carateristico completamente sobre K. Procedendo<br />

por indução sobre n = dim(V ), existe uma matriz invertível P2 ∈ M (n−1)×(n−1)(K) tal<br />

que P −1<br />

2 A2 P2 seja triangular superior. Pondo<br />

segue facilmente que<br />

<br />

P =<br />

P −1 · [T ] B <br />

B · P =<br />

1 0 1×(n−1)<br />

0 (n−1)×1<br />

λ1<br />

P2<br />

<br />

.,<br />

A3<br />

0 (n−1)×1 P −1<br />

2 · A2 · P2<br />

como queríamos. <br />

Como vimos anteriormente a obstrução para a diagonalização de T ∈ End(V ) reside na<br />

possibilidade que existam um numero insuficiente de autovetores para formar uma base de V . A<br />

dimensão de um autoespaço é limitada superiormente pela multiplicidade algébrica do autovalor.<br />

<br />

,<br />

<br />

,


6 1. POLINÔMIO MINIMO E CARATERISTICO<br />

1.3.5. Proposição. Seja T ∈ End(V ) e sejam λi ∈ K os autovalores de T de multiplicidade<br />

µi ≥ 1, i = 1, . . . , m. Então<br />

e<br />

1 ≤ dim(Vλi ) ≤ µi<br />

dim(Vλ1 ⊕ . . . ⊕ Vλm ) ≤<br />

m<br />

µi.<br />

Demonstração. Seja {v1, . . . , vri } uma base de Vλi que completamos a uma base B =<br />

{v1, . . . , vn} de V . Temos<br />

[T ] B B =<br />

λi · Iri×ri A1<br />

0 (n−ri)×ri A2<br />

com A1 ∈ M ri×(n−ri)(K) e A2 ∈ M (n−ri)×(n−ri)(K).<br />

Calculando o polinômio carateristico de T , temos<br />

i=1<br />

<br />

,<br />

c T (t) = det(tI − [T ] B B) = (t − λi) ri det(tI(n−ri)×(n−ri) − A2),<br />

que implica µi ≥ ri. <br />

1.3.6. Teorema. Seja T ∈ End(V ) e seja n = dim(V ). As seguintes condições são equivalentes:<br />

(1) T diagonalizavel;<br />

(2) (a) cT (t) = m j=1 (t − λj) µj com µ1 + . . . + µm = n = dim(V ), onde os elementos λj<br />

são distintos;<br />

(b) dim(Vλj ) = µj para cada j = 1, . . . , m;<br />

(3) V = Vλ1 ⊕ . . . ⊕ Vλm .<br />

Portanto se T ∈ End(V ) é diagonalizavel, mT (t) = m j=1 (t − λj)<br />

Demonstração. Se T é diagonalizavel, pelo Teorema 1.3.4, o polinômio carateristico é<br />

da forma especificada em a). Sendo diagonalizavel e lembrando a Proposição 1.2.3 temos que<br />

⊕ . . . ⊕ Vλm = V . Deduzimos portanto, via Proposição 1.3.5<br />

Vλ1<br />

n = dim(V ) = dim(Vλ1 ⊕ . . . ⊕ Vλm ) ≤<br />

m<br />

µi = n.<br />

Sendo dim(Vλi ) ≤ µi temos necessariamente a igualdade.<br />

Se valem as condições a) e b), temos dim(Vλ1 ⊕ . . . ⊕ Vλm ) = m i=1 µi = n e portanto<br />

V = Vλ1 ⊕ . . . ⊕ Vλm . Essa ultima condição implica em que T seja diagonalizavel.<br />

Escolhendo uma base B de V formada por autovetores de T , temos que a matriz [T ] B B é<br />

diagonal, de onde se deduz mT (t) = m j=1 (t − λj). <br />

Observemos que a fatoração de m T (t) acima é caso particular de uma fatoração mais geral<br />

(Proposição 1.4.3). Além disso, a recíproca da última afirmação do teorema acima é válida<br />

(Teorema 1.5.1).<br />

i=1


1.4. DEFINIÇÕES 7<br />

1.4. Subespaços invariantes de uma aplicação linear<br />

Quando T é diagonalizavel, cT (t) = m j=1 (t − λj) µj com µ1 + . . . + µm = n = dim(V ) e<br />

mT (t) = m j=1 (t − λj). Isso representa de alguma forma o caso ideal. Uma maneira de ler o<br />

resultado anterior que permite uma generalização é a seguinte: os autoespaços são construidos<br />

como ker (T − λIV ) e no caso diagonalizavel fornecem uma decomposição de V em soma direta<br />

de autoespaços. Essa resultado vai ser generalizado a um T ∈ End(V ) qualquer na proxima<br />

seção. Antes são necessarias algumas definições e observações gerais que generalizam a noção de<br />

autoespaço para expressões polinomiais de T mais gerais que as da forma T − λIV .<br />

1.4.1. Definição. (Subespaço T –invariante) Seja T ∈ End(V ) e seja U ⊆ V um subespaço.<br />

O subespaço U se diz T -invariante se T (U) ⊆ U.<br />

Quando temos um subespaço T –invariante, podemos definir<br />

T |U : U → U<br />

e claramente T ∈ End(U). Vamos ver como produzir subespaços T -invariantes via polinômios.<br />

1.4.2. Exemplo. Seja T ∈ End(V ), seja q(t) ∈ K[t] e seja q(T ) : V → V a aplicação linear<br />

associada. Se U := ker (q(T )), então U e’ subespaço T -invariante.<br />

Temos T ◦ q(T ) = q(T ) ◦ T e portanto, se u ∈ U,<br />

0V = T (0V ) = T (q(T )(u)) = q(T )(T (u)),<br />

i. e. T (u) ∈ U.<br />

Em particular se λ ∈ K, temos que a noção de autoespaço é obtida considerando os polinômios<br />

qλ(t) = t − λ.<br />

Poder decompor V em subespaços T -invariantes, permite semplificar o problema do ponto<br />

de vista computacional, como mostraremos na proxima proposição. A existencia de uma decomposição<br />

de V em subespaços T –invariantes vai ser tratada na seção 1.5.<br />

1.4.3. Proposição. Seja T ∈ End(V ) e seja V = U1 ⊕ . . . ⊕ Ur com Ui subespaços T –<br />

invariantes. Se Ti = T |Ui : Ui → Ui, temos :<br />

c T r<br />

(t) = c Ti (t)<br />

e<br />

i=1<br />

m T (t) = m. c. m.{m T1 (t), . . . , m Tr (t)}.<br />

Demonstração. Sejam Bi bases de Ui e seja B = {v1, . . . , vn} = B1 ∪ . . . ∪ Br. Sendo os<br />

Ui subespaços T –invariantes, temos<br />

⎛<br />

⎞<br />

onde Ai = [Ti] Bi<br />

Bi<br />

[T ] B B<br />

⎜<br />

⎝<br />

A1<br />

A2<br />

. ..<br />

Ar<br />

e o restante da matriz é composto por zeros. Calculando segue imediatamente<br />

que c T (t) = r<br />

i=1 cTi (t). Por definição temos que m T (T ) = 0End(V ). Portanto m T (Ti) = 0 End(Ui)<br />

para cada i, i. e. m Ti (t) divide m T (t) e portanto m. c. m.{m T1 (t), . . . , m Tr (t)} divide m T (t).<br />

⎟<br />

⎠ ,


8 1. POLINÔMIO MINIMO E CARATERISTICO<br />

Reciprocamente, seja p(t) ∈ K[t] divisível por cada um dos polinômios m T1 (t), . . . , m Tr (t). Afirmamos<br />

que p(T ) = 0 End(V ), do que segue, em particular, que m. c. m.{m T1 (t), . . . , m Tr (t)}(T ) =<br />

0 End(V ) e, portanto, que m T (t) divide m. c. m.{m T1 (t), . . . , m Tr (t)}. Ora, seja v ∈ V , com<br />

v = u1 + · · · + ur, ui ∈ Ui; escrevendo p(t) = qi(t)m Ti (t), i = 1, . . . , r, tem-se:<br />

p(T )(v) = p(T )(u1 + · · · + ur) = p(T )(u1) + · · · + p(T )(ur)<br />

= (q1 m T1 )(T )(u1) + · · · + (qr m Tr )(T )(ur)<br />

= (q1 m T1 (T ))(u1) + · · · + (qr m Tr (T ))(ur)<br />

= q1(m T1 (T (u1)) + · · · + qr(m Tr (T (ur))<br />

= q1(m T1 (T1))(u1) + · · · + qr(m Tr (Tr))(ur)<br />

= q1(0 End(U1))(u1) + · · · + qr(0 End(Ur))(ur)<br />

logo p(T ) = 0 End(V ), como queríamos. <br />

1.5. Decomposição T -primária de um espaço vetorial<br />

Vamos provar um resultado importante que mostra como a partir da fatorização do polinômio<br />

carateristico (ou minimo) de uma aplicação linear T : V → V em fatores ”primarios”seja<br />

possivel construir uma decomposição de V em subespacos T −invariantes tais que a restrição<br />

de T a esses subespaços tenha como polinômio carateristico (respectivamente minimo) o fator<br />

”primário”correspondente.<br />

1.5.1. Teorema. (Teorema de decomposição primaria) Seja T ∈ End(V ) e seja<br />

m T (t) = q1(t) e1 · · · qr(t) er<br />

o polinômio minimo de T , onde cada qi(t) é um polinômio mônico irredutivel, 1 ≤ ei para cada<br />

i = 1, . . . , r e os qi(t) ∈ K[t] são distintos. Então<br />

(1) V é soma direta de subespaços T -invariantes; precisamente,<br />

(2)<br />

V = ker (q1(T ) e1 ) ⊕ · · · ⊕ ker (qr(T ) er );<br />

c T (t) = q1(t) l1 · · · qr(t) lr ,<br />

com 1 ≤ ei ≤ li para cada i = 1, . . . , r;<br />

(3) ker (qi(T ) ei ) = ker (qi(T ) li ) para cada i = 1, . . . , r;<br />

(4) dim(ker (qi(T ) ei )) = li · grau(qi);<br />

(5) O polinômio minimo (respectivamente, carateristico) da restrição de T a ker (qi(T ) ei )<br />

é qi(t) ei (respectivamente, qi(t) li ).<br />

Demonstração. (1) Já observamos que os subespaços ker (qi(T ) ei ) são T -invariantes. Provemos,<br />

primeiramente, que V = ker (q1(T ) e1 ) + . . . + ker (qr(T ) er ). Para tal, provaremos que:<br />

• Im(hi(T )) ⊆ ker (qi(T ) ei ) para i = 1, . . . , r, onde hi(t) = <br />

j=i qj(t) ej ;<br />

• V = Im(h1(T )) + . . . + Im(hr(T )).<br />

A primeira afirmativa é bastante evidente, uma vez que qi(t) ei hi(t) = m T (t), logo qi(T ) ei se<br />

anula nos elementos da imagem de hi(T ).<br />

Para provar a segunda afirmativa, observemos que o máximo divisor comum dos polinômios<br />

é 1, logo existe uma relação h1(t)g1(t) + . . . + hr(t)gr(t) = 1, onde g1(t), . . . , gr(t) ∈ K[t] são<br />

polinômios convenientes. Substituindo t ↦→ T e aplicando em um v ∈ V arbitrário, obtemos<br />

v = IV (v) = h1(T )(g1(T )(v)) + · · · + hr(T )(gr(T )(v)),


1.5. DECOMPOSIÇÃO PRIMARIA 9<br />

isto é, V ⊂ Im(h1(T )) + · · · + Im(hr(T )), como se queria.<br />

O polinômio mT (t) não divide hi(t) e portanto hi(T ) = 0End(V ), i.e. existe v ∈ V \ 0V tal<br />

que hi(T )(v) = 0.<br />

Mostremos agora que a soma Im(h1(T )) + . . . + Im(hr(T )) é direta, isto é, que, para todo<br />

i = 1, . . . , r, tem-se<br />

ker (qi(T ) ei<br />

<br />

) ∩ ( ker (qj(T ) ej )).<br />

j=i<br />

Seja então v ∈ ker (qi(T ) ei ) ∩ ( <br />

j=i ker (qj(T ) ej )). Para cada i, os polinômios qi(t) ei e hi(t) são<br />

relativamente primos, logo existem ai(t), bi(t) ∈ K[t] tais que ai(t)qi(t) ei + bi(t)hi(t) = 1. Como<br />

antes, obtemos<br />

v = IV (v) = a(T )(qi(T ) ei (v)) + b(T )(hi(T )(v)) = 0V + 0V = 0V .<br />

(2) Aplicando o mesmo argumentos da parte (1) aos fatores de c T (t) (em vez de m T (t)),<br />

obtém-se analogamente V = ker (q1(T ) l1 )⊕· · ·⊕ker (qk(T ) lk). Como as inclusões ker (qi(T ) ei ) ⊆<br />

ker (qi(T ) li ) são imediatas, uma vez que ei ≤ li, comparando as dimensões obtemos ker (qi(T ) ei ) =<br />

ker (qi(T ) li ) para todo i = 1, . . . , r.<br />

(3) e (4) Seja agora Ti a restrição de T a Ui = ker (qi(T ) ei ). Como a restrição comuta com<br />

somas e produtos, tem-se qi(Ti) ei = 0End(Ui) e, portanto, qi(t) é o único fator irredutivel de<br />

mTi (t), i.e. mTi(t) = qi(t) αi com 1 ≤ αi; isso implica em cTi (X) = qi(X) βi , βi ≥ αi ≥ 1. A<br />

dimensão de ker (qi(T ) ei ) é portanto βi · grau(qi(t). Vamos mostrar que βi = li e que αi = ei.<br />

Isso segue das relações<br />

r<br />

qi(t) li<br />

r<br />

T<br />

= c (t) = c Ti<br />

r<br />

(t) = qi(t) βi ,<br />

i=1<br />

r<br />

qi(t) ei T<br />

= m (t) =<br />

i=1<br />

i=1<br />

r<br />

m Ti (t) =<br />

i=1<br />

i=1<br />

r<br />

qi(t) αi ,<br />

onde as igualdades do meio foram provadas na Proposição 1.4.3. <br />

Como consequência obtemos uma primeira formulação da venerável decomposição de Jordan.<br />

1.5.2. Corolário. Seja T ∈ End(V ). Suponhamos que c T (t) se fatora completamente sobre<br />

K, digamos, c T (t) = (t − λ1) l1 · · · (t − λr) lr e m T (t) = (t − λ1) e1 · · · (t − λr) er . Então existe uma<br />

decomposição direta T -invariante V = V1 ⊕ · · · ⊕ Vr tal que:<br />

(i) Vi = ker ((T − λi) ei );<br />

(ii) dim Vi = li, para 1 ≤ i ≤ r;<br />

(iii) A restrição T |Vi tem polinômio mínimo (t−λI) ei e é da forma λiI+Si, onde Si : Vi → Vi<br />

é nilpotente de índice ei.<br />

Demonstração. O único item que requer algum comentário é (iii). Novamente, usamos<br />

que a restrição comuta com somas e produtos, logo, pondo Ti = T |Vi e denotando por Ii a matriz<br />

identidade de ordem li, tem-se que (Ti − λiIi) ei = 0. Logo Si := Ti − λiIi é nilpotente de índice<br />

no máximo ei Por outro lado, mTi (t) = (t − λi) ei pelo item (4) do teorema anterior. Logo, o<br />

índice de nilpotência é exatamente ei<br />

<br />

1.5.3. Corolário. Seja T ∈ End(V ). Então T é diagonalizavel sobre K se e só se m T (X)<br />

é completamente fatorável sobre K e sem fatores múltiplos.<br />

Demonstração. Resulta imediatamente do Corolário 1.5.2 e da equivalência (1) ⇔ (3) do<br />

Teorema 1.3.6. <br />

i=1


10 1. POLINÔMIO MINIMO E CARATERISTICO<br />

Exercicios de revisão e referentes ao capítulo<br />

(1) Seja Ei,j ∈ Mm×m(K) a matriz cujos elementos el,m satisfazem a seguinte condição<br />

(a) el,m = 1 se (l, m) = (i, j);<br />

(b) el,m = 0 se (l, m) = (i, j).<br />

Para a ∈ K e para i = j seja Ea i,j = I + aEi,j. Para i = j seja Ei,j = I + Ei,j +<br />

Ej,i − Ei,i − Ej,j e seja, para c ∈ K∗ , Ec i = I + (c − 1)Ei,i.<br />

Essas matrizes se dizem matrizes elementares. Provar que são invertiveis e descrever<br />

a inversa de cada tipo.<br />

(2) Dada A ∈ Mm×n(K) com<br />

⎛<br />

⎜<br />

A ⎝<br />

A1<br />

.<br />

Am<br />

⎞<br />

⎟<br />

⎠ ,<br />

i.e. Ai ∈ K n , i = 1, . . . , m são os vetores linha da matriz A. Mostrar que<br />

(a) E a i,j · A tem como i-esima linha Ai + aAj e as outras linha iguais;<br />

(b) Ei,j · A tem como i-esima linha Aj, como j-esima linha Ai e as outras linhas iguais<br />

as linhas de A;<br />

(c) Ec i · A tem na i-esima linha cAi e as outras linhas iguais as linhas de A.<br />

Duas matrizes A, B ∈ Mm×n(K) se dizem linha equivalentes se existem um numero<br />

finito de matrizes elementares E1, . . . , Er ∈ Mm×m(K) tais que E1 · E2 · . . . · Er · A = B.<br />

Moltiplicar uma matriz A ∈ Mm×n(K) a direita por matrizes elmentares em<br />

Mn×n(K) e descrever o resultado sobre as colunas de A. Definir a noção de matrizes<br />

coluna equivalentes.<br />

⎛ ⎞<br />

⎛ ⎞<br />

(3) Dadas A ∈ Mm×n(K), X =<br />

⎜<br />

⎝<br />

x1<br />

.<br />

xn<br />

⎟<br />

⎜<br />

⎠ ∈ Mn×1(K), B = ⎝<br />

b1<br />

.<br />

bm<br />

⎟<br />

⎠ ∈ Mm×1(K), consi-<br />

deramos o sistema de equações lineares com coeficientes em K nas incognitas x1, . . . , xn<br />

dado por<br />

A · X = B.<br />

Seja<br />

A = A | B ∈ M m×(n+1)(K)<br />

a matriz associada ao sistema.<br />

Mostrar que qualquer sistema obtido moltiplicando por matrizes elementares a esquerda<br />

a matriz do sistema, i.e. operando sobre as linhas do sistema com as operações<br />

descritas anteriormente, tem as mesmas soluções do sistema original (usar o fato que<br />

as matrizes elementares são inversiveis).<br />

(4) Seja A ∈ Mm×n(K). Dizemos que A é linha reduzida a forma escada se:<br />

(a) o primeiro elemento não nulo de cada linha é igual a 1;<br />

(b) o primeiro elemento não nulo da (i+1)-esima linha se encontra a direita do primeiro<br />

elemento não nulo da i-esima linha;<br />

(c) os elementos de uma coluna que contem o primeiro elemento não nulo de uma<br />

linha, diferente desse elemento, são nulos.<br />

Mostrar que dada A ∈ Mm×n(K), existem um numero finito de matrizes elementares<br />

E1, . . . , Er tais que E1 · E2 · . . . · Er · A seja linha reduzida a forma escada.


EXERCICIOS 11<br />

Deduzir que, se n > m, então o sistema um sistema homogeneo da forma A · X =<br />

0 Mm×1(K) admite uma solução com pelo menos um elemento xi não nulo.<br />

(5) Seja A ∈ Mn×n(K). Mostrar que as seguintes condições são equivalentes:<br />

(a) A é linha equivalente a I;<br />

(b) A é produto de matrizes elementares;<br />

(c) A é invertivel;<br />

(d) o sistema de equações lineares homogeneas A · X = 0 Mm×1(K) admite somente a<br />

solução com todos os xi nulos.<br />

Deduzir que dada uma matriz invertivel, a matriz inversa A −1 é obtida aplicando<br />

a I as operações elementares que levam a matriz A em I.<br />

(6) Seja A ∈ Mn×n(K). Dados i, j, definimos Ai,j ∈ Mn−1×n−1(K) como a matriz obtida<br />

de A eliminando a i-esima linha e a j-esima coluna de A.<br />

Definimos det(A) indutivamente segundo a seguinte formula:<br />

det(A) = a1,1 det(A1,1) − a2,1 det(A2,1) + . . . + (−1) n+1 an,1 det(An,1) ∈ K.<br />

Mostrar as seguintes propriedades de det(A):<br />

(a) det(I) = 1;<br />

(b) a função det(A) é linear com respeito as linhas de A, i.e. para cada α, β ∈ K<br />

temos<br />

⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞<br />

⎜<br />

det( ⎜<br />

⎝<br />

A1<br />

.<br />

αAi + βA ′ i<br />

.<br />

Am<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎟)<br />

= α det( ⎜<br />

⎟ ⎜<br />

⎠ ⎝<br />

A1<br />

.<br />

Ai<br />

.<br />

Am<br />

(c) Se A tem duas linhas iguais, então det(A) = 0;<br />

(d) se i = j, então<br />

⎛ ⎞ ⎛<br />

A1<br />

⎜ ⎟ ⎜<br />

⎜ . ⎟ ⎜<br />

⎜ ⎟ ⎜<br />

det( ⎜ Ai + βAj ⎟)<br />

= det( ⎜<br />

⎜ ⎟ ⎜<br />

⎝<br />

.<br />

⎠ ⎝<br />

Am<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎟)<br />

+ β det( ⎜<br />

⎟ ⎜<br />

⎠ ⎝<br />

para cada β ∈ K;<br />

(e) A matriz obtinda trocando duas linhas de A tem determinante igual a − det(A);<br />

(f) Se uma linha de A é nula, então det(A) = 0.<br />

(g) Deduzir que det(Ea i,j ) = 1 para cada a ∈ K, det( Ei,j) = −1 e det(Ec i ) = c para<br />

cada c ∈ K∗ .<br />

(h) Utilizando as propriedades acima deduzir que se E é uma matriz elementar dos<br />

3 tipos acima e se A ∈ Mn×n(K) é arbitraria, então temos det(E · A) = det(E) ·<br />

det(A). Por indução mostrar que o mesmo resultado vale se E for produto de<br />

matrizes elementares.<br />

(i) provar que A ∈ Mn×n(K) é invertivel se e somente se det(A) = 0.<br />

(j) (Definição axiomatica do determinante) Seja<br />

d : Mn×n(K) → K<br />

A1<br />

.<br />

Ai<br />

.<br />

Am<br />

⎞<br />

⎟<br />

⎟)<br />

⎟<br />

⎠<br />

A1<br />

.<br />

A ′ i<br />

.<br />

Am<br />

⎟<br />

⎟);<br />

⎟<br />


12 1. POLINÔMIO MINIMO E CARATERISTICO<br />

uma função que satisfaz as propriedades a), b) e c) acima. Provar que d(A) =<br />

det(A) para cada A ∈ Mn×n(K).<br />

(k) Concluir que podemos calcular o determinante desenvolvendo segundo qualquer<br />

linha (ou coluna) porque a função assim definida satisfaz as propriedades a), b) e<br />

c) acima.<br />

(l) Sejam A, B ∈ Mn×n(K). Provar que det(A · B) = det(A) · det(B). Deduzir que se<br />

A é invertivel, então det(A −1 ) = det(A) −1 .<br />

(m) Provar que det(A) = det(A t ), onde A t é a matriz trasposta de A.<br />

(n) Seja A ∈ Mn×n(K), seja αi,j = (−1) i+j det(Ai,j) e seja<br />

ad(A) = [αi,j] t ∈ Mn×n(K)<br />

a matriz adjunta de A. Provar que<br />

A · ad(A) = ad(A) · A = det(A)I<br />

e deduzir que se det(A) = 0, então A −1 = ad(A)<br />

det(A) .<br />

(7) Seja A ∈ Mm×n(K). Definimos o posto linha de A, indicado com rank (A), como a<br />

dimensão do subespaço de K n gerado pelas linhas de A. Definimos o posto coluna de<br />

A, indicado com rank (A), como a dimensão do subespaço de K m gerado pelas colunas<br />

de A. Mostre que<br />

(a) para qualquer A ∈ Mm×n(K) temos rank (A) = rank (A). Portanto chamaremos<br />

esse numero simplesmente de posto de A e o indicaremos com rank (A). Concluir<br />

que rank (A) ≤ min{m, n}.<br />

(b) rank (A) é igual ao numero de linhas não nulas na forma linha reduzida de A,<br />

respectivamente rank (A) é igual ao numeros de colunas não nulas na forma coluna<br />

reduzida de A.<br />

(c) rank (A) é o maximo tamanho de uma submatriz quadrada de A com determinante<br />

não nulo.<br />

(d) A ∈ Mn×n(K) é invertivel se e somente se rank (A) = n se e somente se det(A) = 0<br />

se e somente se as colunas (e as linhas) de A formam una base de K n .<br />

(8) Sejam A, B, P, Q ∈ Mn×n(K). Mostrar que se B é invertivel e se B = P · A · Q, então<br />

P, A e Q são inversiveis.<br />

(9) A ∈ Mn×n(K) se diz nilpotente se existir r > 0 tal que Ar A ∈ Mn×n(K) é nilpotente, então I + A é invertivel.<br />

⎡<br />

⎤ ⎡ ⎤<br />

1 0 1<br />

0 1 0<br />

(10) Sejam A = ⎣ 0 −1 −1 ⎦ e B = ⎣ 0 0 0 ⎦.<br />

= 0. Mostrar que se<br />

1 1 0<br />

1 0 0<br />

(a) Encontre A−1 .<br />

(b) Encontre X tal que AX = B.<br />

(11) Seja A ∈ Mn×n(K). Definimos tr(A) = n<br />

i=1 ai,i ∈ K o traço de A. Mostrar que:<br />

(a) tr(A + B) = tr(A) + tr(B) e tr(A · B) = tr(B · A) para cada A, B ∈ Mn×n(K).<br />

(b) Se B é invertivel, então tr(B −1 · A · B) = tr(A).<br />

(12) Sejam Ui, . . . Ur subespaços vetorias do espaco vetorial V sobre K. A soma dos epaços<br />

Ui, indicada com U1 + . . . + Ur é o subespaço de V formado pelos vetores da forma<br />

v = u1 + . . . + ur, ui ∈ Ui. Mostar que


EXERCICIOS 13<br />

(a) a soma dos Ui é direta se e somente se cada vetor de U1 . . . + Ur admite uma unica<br />

escritura como a anterior.<br />

(b) dim(U1 +. . .+Ur) ≤ r i=1 dim(Ui) e que vale igual se e somente se a soma é direta.<br />

(c) Se Bi ’ e base de Ui, mostrar que ∪r i=1Bi é um sistema de geradores de U1+. . .+Ur,<br />

que é uma base se e somente se a soma é direta. Concluir que dado um subesaço<br />

U de V existe W ⊆ V subespaço tal que V = U ⊕ W (subespaço complementar de<br />

U).<br />

(d) Mostrar que Mn×n(K) é soma direta dos subespaços das matrizes simetricas (A =<br />

At ) e das matrizes antisimetricas (A = −At ). Mostre que as matrizes de traço nulos<br />

formam um subespaço de Mn×n(K). Encontrar um subespaço complementar em<br />

Mn×n(K).<br />

(13) Seja A ∈ Mn×n(K) e seja m A (t) = t r + ar−1t r−1 + . . . + a0 o polinômio minimo de A.<br />

Mostrar que A é invertivel se e somente se a0 = 0.<br />

(14) Seja T ∈ End(V ). Mostrar que T é triangularizavel superiormente se e somente se é<br />

triangularizavel inferiormente.<br />

(15) Considere o espaço vetorial V = M2×2(K), a matriz<br />

<br />

1 2<br />

A =<br />

−1 3<br />

e W = {B ∈ V : AB = BA} (conjunto das matrizes que comutam com A).<br />

(a) Mostre que W é subespaço de V .<br />

(b) Determine uma base para W .<br />

(c) Complete a base encontrada no item (a) para uma base de V .<br />

(d) Calcule as matrizes de mudança de base entre a base do item (c) e a base canônica<br />

de V , a saber,<br />

C =<br />

1 0<br />

0 0<br />

<br />

0 1<br />

,<br />

0 0<br />

(e) Encontre as coordenadas de C =<br />

(b).<br />

(16) Seja T : K 4 −→ K 3 definida por:<br />

<br />

0<br />

,<br />

1<br />

0<br />

0<br />

<br />

1<br />

<br />

1<br />

1 1<br />

<br />

0 0<br />

,<br />

0 1<br />

<br />

.<br />

em relação a base encontrada no item<br />

T (x1, x2, x3, x4) = (x2 − 3x3 + x4, 2x1 − 3x2 + x4, 2x1 + x2 − x3).<br />

(a) Encontre a matriz de T em relação as bases canônicas de K 4 e K 3 .<br />

(b) Determine ker (T ) e Im(T ).<br />

(c) T injetiva? sobrejetiva? Justifique.<br />

(17) Seja B = {v1 = (1, −1, 0), v2 = (1, 1, 0), v3 = (0, 0, −1)} ∈ K 3 .<br />

(a) Determine as coordenadas de<br />

v = (x, y, z) em relação a base B.<br />

(b) Se T : K 3 −→ K 3 é uma transformação linear tal que T (v1) = v3, T (v2) = v2 e<br />

T (v3) = −v1, determine T (x, y, z).<br />

(c) Determine (se existirem) os autovalores de T e os autovetores associados.


14 1. POLINÔMIO MINIMO E CARATERISTICO<br />

(18) Sejam T1 : K3 −→ K3 e T2 : K3 −→ K3 transformações lineares, tais que:<br />

C T1<br />

C =<br />

⎡ ⎤<br />

1 0 0<br />

C ⎣ 1 1 0 ⎦ e T2<br />

C<br />

0 0 2<br />

=<br />

⎡<br />

⎤<br />

4 −2 2<br />

⎣ −1 2 −1 ⎦ ,<br />

−5 4 −3<br />

onde C ⊂ K 3 é a base canônica.<br />

(a) Determine se T1 é diagonalizavel. Idem para T2.<br />

(b) Se possvel, determine uma base de K 3 de autovetores de T1 e represente T1 nesta<br />

base. Idem para T2.<br />

(19) Dado n ≥ 1, seja T : Pn → Pn a transformação derivada T = d/dt, onde Pn designa o<br />

espaço vetorial de polinômios de grau no máximo n com coeficientes reais.<br />

(a) Determinar os auto-valores de T e os auto-subespaços correspondentes<br />

(b) Determinar os polinômios c T (t) e m T (t).<br />

(20) Seja T : Mn×n(K) → Mn×n(K) definido por T (A) = A t . Provar que se a caracteristica<br />

do corpo K é diferente de dois, então T é diagonalizavel. Encontrar os autoespaços de<br />

T , fornecendo a decomposição de Mn×n(K) como soma direta de autoespaços de T .<br />

(21) Seja T : V → W uma aplicação linear de K-espaços vetoriais. Seja w ∈ Im(T ) e seja<br />

v tal que T (v) = w. Mostrar que os elementos de T −1 (w) são da forma v + u com<br />

u ∈ ker (T ).<br />

(22) Seja U ⊆ V um subespaço vetorial do K-espaço vetorial V . Provar que v1 ∼ v2 se e<br />

somente se v1 − v2 ∈ U é uma realção de equivalência sobre o conjunto V . Indicamos<br />

V/ ∼ com V/U e os elementos de uma classe de equivalência de um elemento v com<br />

[v]. Mostrar que as operações<br />

+ : V/U × V/U → V/U<br />

e<br />

· : K × V/U → V/U<br />

dadas por [v1] + [v2] = [v1 + v2] e α · [v] = [α · v] não dependem da escolha do<br />

representantes na classe de equivalência e estão portanto bem definidas. Provar que<br />

(V/U, +, ·) é um espaco vetorial sobre K, o espaço quociente de V por U. Mostrar que:<br />

(a) se dim(V ) = n ≥ 1, se {v1, . . . vr} é uma base de U que se extende a uma base<br />

{v1, . . . vn} de V , então {[vr+1], . . . , [vn]} é uma base de V/U, i.e. dim(V/U) =<br />

dim(V ) − dim(U);<br />

(b) πU : V → V/U definido por πU(v) = [v] é um homomorfismo sobrejetor de Kespaços<br />

vetoriais tal que ker (πU) = U;<br />

(c) dato T : V → W homorfismo de K-espaços vetoriais, a aplicação T : V/ker (T ) →<br />

W dada por T ([v]) = T (v) esta bem definida e é homomorfismo de K-espaços vetoriais.<br />

Verificar que T = T ◦πker (T ), i.e. o seguinte diagrama comuta (significando<br />

que percorrendo os dois caminhos indicados pelas setas chegamos ao mesmo ponto<br />

de W ):<br />

V<br />

πker (T )<br />

<br />

<br />

T<br />

<br />

<br />

V<br />

<br />

ker (T ) W<br />

Te


EXERCICIOS 15<br />

(d) Im( T ) = Im(T ) e T : V/ker (T ) → Im(T ) é isomorfismo de espaços vetoriais.<br />

Deduzir uma nova prova do Teorema do Núcleo e da Imagem via formula da<br />

dimensão do quociente provada anteriormente.<br />

(23) (a) Seja T ∈ End(V ), onde V é um K-espaço vetorial de dimensão finita. Mostrar que<br />

T é injetor se e somente se T é sobrejetor se e somente se T ∈ Aut(V ).<br />

(b) Seja V = R[x], o R-espaço vetorial dos polinômios com coeficientes no corpo R.<br />

Definimos os aplicação linears T1(p(x)) = p ′<br />

<br />

(x) (derivada primeira) e T2(p(x)) =<br />

x<br />

0 p(t)dt. O aplicação linear Ti, i = 1, 2, é injetor? É sobrejetor? Descrever<br />

ker (Ti) e Im(Ti) e relacionar os resultados com o item anterior.<br />

(24) Seja<br />

A · X = B<br />

um sistema de m equações lineares nas variaveis X =<br />

A = A | B ∈ Mm×n+1(K)<br />

a matriz associada ao sistema. Provar que:<br />

(a) rank (A) ≤ rank ( A) ≤ rank (A) + 1;<br />

(b) o sistema admite uma solução se e somente se B =<br />

⎛<br />

⎜<br />

⎝<br />

⎛<br />

⎜<br />

⎝<br />

x1<br />

.<br />

xn<br />

b1<br />

.<br />

bm<br />

⎞<br />

⎟<br />

⎠ ∈ Mn×1(K). Seja<br />

⎞<br />

⎟<br />

⎠ ∈ Im(TA) se e somente<br />

se rank (A) = rank ( A);<br />

(c) se existe uma solução, então as soluções do sistema podem ser parametrizadas por<br />

um subespaço linear de K n de dimensão n − rank (A) ≥ 0.<br />

(25) Seja A ∈ Mn×n(K). Se p(x) = a0 + a1x + . . . + arx r ∈ K[x], definimos<br />

p(A) = a0I + a1A + . . . + arA r ∈ Mn×n(K).<br />

Mostrar que existe um polinômio p(x) ∈ K[x] de grau menor ou igual a n 2 tal que<br />

p(A) = 0 Mn×n(K).


CAPíTULO 2<br />

A teoria dos fatores invariantes e dos divisores elementares<br />

2.1. Matrizes com elementos polinomiais<br />

Nesta seção estudaremos de perto matrizes cujos elementos são polinômios em uma indeterminada.<br />

Por conveniência e hábito, mudaremos a notação empregada anteriormente: o corpo de<br />

base será designado por k (minúsculo) e a indeterminada, por X (maiúsculo). A teoria a seguir<br />

é, de fato, uma sub-teoria da teoria das matrizes com elementos no corpo de frações racionais<br />

K = k(X), de modo que, em última instânica, estamos novamente no contexto da parte anterior<br />

e tudo que foi visto lá se aplica em principio ao corpo k(X). Contudo, para bem explorar as<br />

propriedades de tipo aritmético, é importante trabalhar com polinômios e não com frações .<br />

A teoria requer algum investimento preliminar mas as aplicações às matrizes com elementos<br />

no corpo das constantes k compensarão o esforço.<br />

O conjunto das matrizes retangulares m×n com elementos em k[X] será denotado Mm×n(k[X]).<br />

Esse conjunto é naturalmente um k[X]-módulo. Se m = n, podemos multiplicar tais matrizes e<br />

intruduzir em Mn×n(k[X]) uma estrutura de anel não comutativo com unidade, dito o anél das<br />

matrizes sobre k[X]. Eis alguns exemplos de matrizes com elementos em C[X].<br />

A =<br />

⎛<br />

⎜<br />

⎝<br />

X − 1 0 0 −1<br />

3 X − 2 −2 0<br />

0 4 X + 7 0<br />

1 0 5 2X<br />

⎞<br />

⎛<br />

⎟<br />

⎠ , B = ⎝<br />

X 3 − 4 2X − 1<br />

X 2 + √ 3iX X 6<br />

3X 7 X<br />

Note que A se parece muito a uma matriz da forma XI −A, com A ∈ M4×4(k). A matriz abaixo<br />

não é polinomial para qualquer corpo de contantes k pois 1<br />

X ∈ k[X].<br />

⎛ ⎞<br />

C = ⎝<br />

0 0 0<br />

0 0 0<br />

0 0 1<br />

X<br />

Passaremos a denotar matrizes polinomiais por A(X), B(X), etc. A notação indica que<br />

estamos considerando tais matrizes e não apenas matrizes com elementos em k. O mote deste<br />

parágrafo é a dupla identidade de um objeto de Mm×n(k[X]) como uma matriz com elementos<br />

polinomiais ou como um polinômio a coeficientes matriciais. Um exemplo permite esclarecer<br />

este ponto:<br />

X − 1 2 X 2 + 1<br />

X 3 − X X 3 + 2X 2 1<br />

<br />

=<br />

+<br />

⎠<br />

⎞<br />

⎠<br />

<br />

0 0 0<br />

X<br />

1 1 0<br />

3 <br />

0 0 1<br />

+<br />

X<br />

0 2 0<br />

2<br />

<br />

1 0 0 −1 2 1<br />

X +<br />

−1 0 0<br />

0 0 1<br />

Esta identificação é válida para matrizes retangulares em geral. Além disso, no caso de<br />

matrizes quadradas, esta identificação pode ser traduzida em termos de um isomorfismo natural:<br />

17


18 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

2.1.1. Proposição. Existe um isomorfismo natural de anéis<br />

Mn×n(k[X]) (Mn×n(k))[X],<br />

cuja restrição ao subanél Mn×n(k) é a identidade.<br />

Demonstração. Dada A(X) ∈ Mn×n(k[X]), digamos<br />

⎛<br />

f11(X)<br />

⎜<br />

A(X) = ⎝ .<br />

. . .<br />

⎞<br />

f1n(X)<br />

⎟<br />

. ⎠ ,<br />

fn1(X) . . . fnn(X)<br />

onde fij(X) = <br />

l α(l)<br />

ij Xl ∈ k[X], à mesma associamos o polinômio<br />

PA(X) := <br />

AlX l<br />

com coeficientes matriciais, onde<br />

Al =<br />

⎛<br />

⎜<br />

⎝<br />

l<br />

α (l)<br />

11 . . . α (l)<br />

1n<br />

.<br />

α (l)<br />

n1 . . . α (l)<br />

nn<br />

Esta associação fornece uma aplicação µ : Mm×n(k[X]) → (Mm×n(k))[X], cuja restrição ao<br />

subanél Mm×n(k) é claramente a identidade. Esta aplicação por outro lado, obviamente admite<br />

uma inversa. Por comodidade, denotaremos abreviadamente<br />

<br />

<br />

A(X) =<br />

, PA(X) = <br />

l<br />

α (l)<br />

ij Xl<br />

i,j<br />

.<br />

⎞<br />

⎟<br />

⎠ .<br />

l<br />

α (l)<br />

ij<br />

i,j Xl .<br />

Com esta notação , fica fácil verificar que µ é um homomorfismo, isto é, preserva soma e<br />

produto de matrizes. Com efeito, dadas<br />

<br />

<br />

<br />

<br />

A(X) =<br />

, B(X) =<br />

,<br />

com, respectivamente,<br />

e<br />

temos<br />

l<br />

α (l)<br />

ij Xl<br />

⎛<br />

<br />

µ (A(X) + B(X)) = µ ⎝<br />

i,j<br />

µ(A(X)) = PA(X) = <br />

µ(B(X)) = PB(X) = <br />

= <br />

l<br />

l<br />

α (l)<br />

ij<br />

(α (l)<br />

ij<br />

l<br />

l<br />

+ β(l)<br />

ij )Xl<br />

<br />

i,j Xl + <br />

= µ(A(X)) + µ(B(X)).<br />

l<br />

α (l)<br />

ij<br />

β (l)<br />

ij<br />

<br />

i,j<br />

β (l)<br />

ij<br />

<br />

<br />

l<br />

β (l)<br />

ij Xl<br />

i,j Xl<br />

i,j Xl ,<br />

⎞<br />

⎠ = <br />

<br />

i,j Xl<br />

l<br />

i,j<br />

<br />

α (l)<br />

ij<br />

<br />

+ β(l)<br />

ij<br />

i,j Xl


2.1. MATRIZES COM ELEMENTOS POLINOMIAIS 19<br />

Para o produto, as fórmulas ficam mais complicadas, mas a verificação<br />

principio. Observemos que<br />

segue o mesmo<br />

A(X) · B(X) =<br />

<br />

<br />

<br />

<br />

·<br />

<br />

Segue que<br />

=<br />

=<br />

=<br />

=<br />

<br />

l<br />

α (l)<br />

ij Xl<br />

i,j<br />

l<br />

β (l)<br />

ij Xl<br />

( <br />

α (l)<br />

i1 Xl )( <br />

β (l)<br />

1j Xl ) + · · · + ( <br />

α (l)<br />

in Xl )( <br />

l<br />

<br />

n<br />

<br />

( <br />

α (l)<br />

it Xl )( <br />

t=1<br />

t=1<br />

l<br />

l<br />

⎛ ⎛<br />

n<br />

⎝ ⎝ <br />

( <br />

α (k)<br />

l<br />

0≤k≤l<br />

l<br />

0≤k≤l<br />

⎛<br />

⎝ <br />

⎛<br />

⎝ n<br />

( α (k)<br />

t=1<br />

l<br />

l<br />

β (l)<br />

tj Xl )<br />

it β(l−k)<br />

tj<br />

it β(l−k)<br />

tj<br />

0≤k≤l<br />

i,j<br />

<br />

l<br />

i,j<br />

⎞⎞<br />

)X (l) ⎠⎠<br />

⎞⎞<br />

)X (l) ⎠⎠<br />

⎛⎛<br />

µ (A(X) · B(X)) = µ ⎝⎝<br />

<br />

⎛<br />

⎝ n<br />

( α (k)<br />

t=1<br />

= <br />

⎛<br />

⎝ n<br />

( α (k)<br />

= ( <br />

l<br />

l<br />

0≤k≤l<br />

α (l)<br />

ij<br />

t=1<br />

it β(l−k)<br />

tj<br />

<br />

i,j Xl )( <br />

= µ (A(X)) µ (B(X)) .<br />

l<br />

i,j<br />

i,j<br />

it β(l−k)<br />

tj<br />

β (l)<br />

ij<br />

⎞<br />

) ⎠ X (l)<br />

<br />

l<br />

⎞⎞<br />

)X (l) ⎠⎠<br />

i,j Xl )<br />

β (l)<br />

nj Xl )<br />

2.1.2. Observação. A identificação entre matrizes polinomiais e polinômios matriciais,<br />

mesmo no caso retangular m × n, é a expressão dos seguintes fatos algébricos mais avançados:<br />

(1) O anél k[X] é N-graduado, isto é, tem-se k[X] = <br />

d≥0 k[X]d – soma direta de k-espaços<br />

vatoriais k[X]d de dimensão 1, onde k[X]d := k Xd = {αXd | α ∈ k} k.<br />

(2) Um k[X]-módulo livre de posto r é, analogamente a um k-espaço vetorial de dimensão<br />

r, uma soma direta k[X] r := k[X]⊕· · ·⊕k[X] (r somandos). Um tal módulo é também<br />

N-graduado, isto é, k[X] r = <br />

d≥0 k[X]r d , onde k[X]r d = k[X]d ⊕· · ·⊕k[X]d (soma direta<br />

de r k-espaços vatoriais k[X]d de dimensão 1).<br />

(3) Dada uma fatoração r = mn, temos k[X] r = k[X] mn = (k[X] m ) n , que pode ser visto<br />

na forma sugestiva<br />

k[X] ⊕ · · · ⊕k[X]<br />

k[X] ⊕ · · · ⊕k[X]<br />

.<br />

k[X] ⊕ · · · ⊕k[X]<br />

i,j<br />

⎞<br />

⎠<br />

<br />

i,j


20 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

(m somas diretas de n somandos cada). Reminiscente de uma matriz? De fato, isto<br />

fornece um isomorfismo de k[X]-módulos k[X] mn Mm×n(k[X]) em analogia com o<br />

caso de k-espaços vatoriais.<br />

(4) Usando a graduação introduzida acima, temos ainda<br />

k[X] mn = <br />

(k[X] mn )d = <br />

(k[X]d) mn = <br />

(k X d ) mn =<br />

d≥0<br />

d≥0<br />

d≥0<br />

= <br />

(k mn )X d (Mm×n(k))[X]<br />

d≥0<br />

como k[X]-módulos, onde na última passagem, identificamos kmn com Mm×n(k) como<br />

de hábito.<br />

(5) Finalmente, no caso em que m = n (isto é, r = n2 é um quadrado perfeito), resulta a<br />

bonificação de que isomorfimso acima preserva o produto de Mn×n(k[X]) (neste caso,<br />

este é de fato um anél, não só um k[X]-módulo!)<br />

Como primeira aplicação da identificação entre matrizes com elementos polinomiais e polinômios<br />

com coefficientes matrizes vamos fornecer uma outra demonstração do Teorema de Cayley-<br />

Hamilton, vide-se Teorema 1.1.2.<br />

2.1.3. Teorema. (Cayley-Hamilton) Seja A ∈ Mn×n(k). Então<br />

c A (A) = 0 Mn×n(K).<br />

Demonstração. Seja c A (X) = X n + pn−1X n−1 + · · · + p1X + p0, pi ∈ k. Dada XI − A,<br />

podemos construir a matriz adjunta ad(XI − A) cujas entradas são polinômios de grau no<br />

máximo n − 1. Portanto temos<br />

com Bi ∈ Mn×n(k). Lembramos que<br />

ad(XI − A) = B0 + B1X + · · · + Bn−1X n−1 ,<br />

ad(XI − A) · (XI − A) = (XI − A) · ad(XI − A) = c A (X) · I =<br />

= p0 · I + · · · + (pn−1 · I)X n−1 + IX n .<br />

Da escritura de ad(XI − A) como polinômio matricial obtemos<br />

ad(XI − A) · (XI − A) = (B0 + B1X + · · · + Bn−1X n−1 ) · (XI − A) =<br />

= (−B0 · A) + (B0 − B1 · A)X + · · · + (Bn−2 − Bn−1 · A)X n−1 + Bn−1X n .<br />

Dois polinômios matriciais são iguais se e só se os coefficientes deles são iguais como matrizes<br />

em Mn×n(k). Segue que:<br />

−B0 · A = p0 · I,<br />

B0 − B1 · A = p1 · I,<br />

.<br />

Bn−2 − Bn−1 · A = pn−1 · I,<br />

Bn−1 = I.<br />

Multiplicando as ultimas n − 1 equações por potencias crescentes de A obtemos:<br />

−B0 · A = p0 · I,<br />

B0 · A − B1 · A 2 = p1 · A,<br />

.<br />

Bn−2 · A n−1 − Bn−1 · A n = pn−1 · A n−1 ,<br />

Bn−1 · A n = A n .


2.1. MATRIZES COM ELEMENTOS POLINOMIAIS 21<br />

Somando as colunas verticais das equações obtemos 0 Mn×n(K) = c A (A). <br />

2.1.1. Divisão euclidiana de matrizes polinomiais. Uma vez de posse da identificação<br />

canônica Mn×n(k[X]) (Mn×n(k))[X], podemos perguntar se peculiaridades dos polinômios<br />

usuais passam aos polinômios matriciais (logo, também às matrizes polinomiais). Por exemplo,<br />

temos:<br />

2.1.4. Definição. (grau de um polinômio matricial e matriz polinomial propria)<br />

Dada A(X) ∈ Mn×n(k[X]) não nula, o grau gr(A(X)) desta matriz é o grau do polinômio<br />

matricial associado (este sendo o maior exponente r de X cujo coeficiente Ar é uma matriz não<br />

nula).<br />

Uma matriz A(X) ∈ Mn×n(k[X]) é dita própria se o coeficente dominante Ar do polinômio<br />

matricial associado é uma matriz invertivel sobre k (isto é, se det Ar = 0)<br />

Propriedades do grau usual sob adição e multiplicação de matrizes mantêm-se apenas<br />

parcialmente:<br />

2.1.5. Lema. Sejam A(X), B(X) ∈ Mn×n(k[X]) não nulas cuja soma e produto também<br />

sejam não nulas. Então:<br />

(i) gr(A(X) + B(X)) ≤ max{gr(A(X)), gr(B(X))}<br />

(ii) gr(A(X)B(X)) ≤ gr(A(X))+gr(B(X)); a igualdade dá-se se os coeficientes dominantes<br />

A e B dos polinômios matriciais associados satisfazem AB = 0.<br />

Resulta que a divisão euclidiana é um deles, desde que sob certas hipóteses. Como o coeficiente<br />

dominante de um polinômio usual f(X) ∈ k[X] é invertivel, precisamos uma hipótese que<br />

garanta isto no caso de uma matriz polinomial. Precisamente, temos<br />

2.1.6. Proposição. (Divisão euclidiana) Sejam A(X), B(X) ∈ Mn×n(k[X]), com B(X)<br />

própria. Então existem Q(X), R(X) ∈ Mn×n(k[X]), unicamente determinados por A(X) e<br />

B(X), satisfazendo as condições :<br />

(1) A(X) = Q(X)B(X) + R(X)<br />

(2) R(X) = 0 ou gr(R(X)) < gr(B(X)).<br />

Demonstração. A demonstração é praticamente a mesma do caso conhecido da divisão<br />

euclidiana para polinômios a coeficientes num corpo. Primeiramente, escrevemos as matrizes<br />

dadas em forma polinomial, digamos, A(X) = ArX r + · · · + A0, B(X) = BsX s + · · · + B0, onde<br />

Ar = 0 e det(Bs) = 0.<br />

Existência: Se r < s, fazemos Q(X) = 0 e R(X) = A(X). Suponhamos então que r ≥ s.<br />

Procedemos por indução sobre r, o caso em que r = 0 (isto é, A(X) = Ar) é absorvido pelo<br />

caso r < s, a menos que s = 0. Neste último caso, pomos Q(X) = ArB−1 e R(X) = 0 (este<br />

caso será um caso particular do caso geral abaixo).<br />

Suponhamos, assim, que r ≥ 1 e consideremos o polinômio A(X) − ArB −1<br />

s X r−s B(X), que<br />

tem grau no máximo r−1. Denotemos este polinômio por A1(X). Pela hipótese indutiva, existem<br />

Q1(X) e R1(X) tais que A1(X) = Q1(X)B(X) + R1(X), com R1(X) = 0 ou gr(R1(X)) <<br />

gr(B(X)). Tomando Q(X) := Q1(X) + ArB −1<br />

s X r−s e R1(X) = R(X), encontramos o quociente<br />

e o resto desejados.<br />

Unicidade: Suponhamos que<br />

A(X) = Q(X)B(X) + R(X) = Q ′ (X)B(X) + R ′ (X).<br />

Então (Q(X) − Q ′ (X))B(X) = R ′ (X) − R(X). Pelo Lema 2.1.5 (i), o grau do membro direito<br />

é no máximo igual a s − 1 = gr(B(X)) − 1. No membro esquerdo, temos um fator que é matriz<br />

s


22 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

própria. Seu coeficiente dominante é uma matriz invertivel, portanto não anula qualquer matriz<br />

não nula. Se Q(X) − Q ′ (X) = 0, segue do Lema 2.1.5 (ii) que o grau do membro esquerdo é<br />

no minimo s; absurdo. Logo, necessariamente, Q(X) = Q ′ (X). Consequentemente, também<br />

R ′ (X) = R(X). <br />

2.1.7. Observação. A rigor, o que acabamos de demonstrar foi divisão euclidiana á direita<br />

(isto é, aquela em que o quociente é multiplicador à esquerda). Deixamos como exercicio de<br />

rotina verificar a existência e unicidade de uma divisão á esquerda. Em geral, o quociente(resp.<br />

o resto) á direita é distinto do quociente(resp. o resto) á esquerda. No que segue, fixaremos a<br />

divisão sistematicamente á direita.<br />

2.1.2. Polinômios matriciais e resto da divisão. Analogamente aos homomorfismos<br />

de substituição (ou de avaliação ) já conhecidos (por exemplo, k[X] → k, f(X) ↦→ f(α) ou<br />

k[X] → Mn×n(k), f(X) ↦→ f(A)), podemos definir o valor de um polinômio matricial P (X) ∈<br />

Mn×n(k[X]) numa matriz A ∈ Mn×n(k), através da aplicação<br />

P (X) = PrX r + Pr−1X r−1 + · · · + P0 ↦→ PD(A) = PrA r + Pr−1A r−1 + · · · + P0.<br />

Como no processo de divisão euclidiana, chamamos aqui também a atenção ao fato de que esta<br />

aplicação de substituição admite uma versão à esquerda<br />

P (X) = PrX r + Pr−1X r−1 + · · · + P0 ↦→ PE(A) = A r Pr + A r−1 Pr−1 + · · · + P0<br />

e que, em geral os resultados das substituições dão matrizes distintas.<br />

Mais grave é o fato de que, ao contrário dos processos de substituição anteriores, o presente<br />

não é um homomorfismo de anéis. É fácil ver que preserva a soma de matrizes e o produto por<br />

um polinômio, mas não o produto de matrizes em geral.<br />

2.1.8. Exercicio. Dar exemplo de substituições cujos valores á direita e á esquerda são<br />

distintos. Dar igualmente exemplo de que a substituição nào preserva o produto de matrizes.<br />

(Sugestão: probabilisticamente, qualquer exemplo deve funcionar!)<br />

Apesar da falência da substituição em preservar o produto de matrizes, o seguinte resultado<br />

básico é válido e, conforme veremos em seguida, extremamente útil. É uma generalização natural<br />

do fato que se f(X) ∈ k[X] e se f(X) = g(X) · (X − α) + r, então r = f(α).<br />

2.1.9. Proposição. (Teorema do Resto) Dada A ∈ Mn×n(k), o resto da divisão à direita<br />

(resp. à esquerda) de um polinômio matricial P (X) ∈ Mn×n(k[X]) pela matriz característica<br />

XI − A é o valor PD(A) (resp. PE(A)).<br />

Demonstração. Seja P (X) = PrX r + Pr−1X r−1 + · · · + P0. Então é fácil verificar que<br />

para cada k = 0, 1, . . . , r,<br />

X j I − A j = (X j−1 I + X j−2 A + · · · + XA j−2 + A j−1 ) · (XI − A)<br />

= Qj(X) · (XI − A).<br />

Moltiplicando ambos os membros da equação anterior a esquerda por Pj e somando de 0 até r<br />

temos<br />

r<br />

P (X) − PD(A) = Pk · (X j I − A j r<br />

) = ( Pj · Qj(X)) · (XI − A)<br />

j=0<br />

= Q(X) · (XI − A),<br />

de onde segue a proposição pela unicidade do quociente e do resto da divisão a direita (resp.<br />

a esquerda). Da mesma forma se prova a parte relativa a divisão a esquerda por XI − A. <br />

j=0


2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS 23<br />

2.1.10. Proposição. Seja A ∈ Mn×n(k) e sejam m A (X) e c A (X) os polinômios minimo e<br />

carateristico de A. Então c A (X) divide m A (X) n . Em particular m A (X) e c A (X) têm os mesmos<br />

fatores irredutiveis mônicos.<br />

Demonstração. Sabemos que m A (X) divide c A (X) pelo Teorema de Cayley-Hamilton<br />

e portanto os fatores irredutiveis mônicos de m A (X) dividem c A (X). O Teorema da divisão<br />

garante a existencia de R(X) ∈ Mn×n(k[X]) tal que<br />

m A (X) · I = R(X) · (XI − A).<br />

Tomando os determinantes a esquerda e a direita obtemos<br />

(m A (X)) n = det(R(X)) · c A (X).<br />

2.2. Escalonamento de matrizes com elementos polinomiais<br />

Primeiramente, estabeleceremos resultados análogos aos de eliminação gaussiana sobre k.<br />

Todas as operações a ser efetuadas deverão preservar o caráter polinomial dos resultados (isto é,<br />

sem criar frações com denominadores polinomiais não constantes). Guiados por este principio,<br />

retomamos as operações elementares, desta vez em Mm×n(k[X]).<br />

Abaixo, damos a forma da matriz elementar correspondente a cada uma das operações<br />

elementares acima.<br />

(1) Transposição de linhas (colunas) i e j:<br />

⎛<br />

1<br />

⎜<br />

Mi,j = ⎜<br />

⎝<br />

. ..<br />

1<br />

0 · · · 1<br />

1<br />

. ..<br />

1<br />

1 · · · 0<br />

onde (Mi,j)kk = (Mi,j)ij = (Mi,j)ji = 1, se k = i, j; (Mi,j)kl = 0, em caso contrário<br />

(Mantemos a convenção de que os espaços vazios são ocupados por zeros). Mais<br />

geralmente, o resultado de efetuar uma permutação das linhas (colunas) de uma matriz<br />

corresponde a uma matriz com 0 e 1, sendo que cada 0 figura em exatamente uma linha<br />

e uma coluna (estas matrizes são chamadas de matrizes de permutação ).<br />

1<br />

. ..<br />

1<br />

⎞<br />

⎟<br />


24 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

(2) Multiplicação de uma linha (coluna) i por uma constante α ∈ k, α = 0:<br />

⎛<br />

1<br />

⎞<br />

⎜<br />

Mα i = ⎜<br />

⎝<br />

. ..<br />

1<br />

α<br />

1<br />

. ..<br />

⎟<br />

⎠<br />

com (Mα i)ii = α.<br />

(3) Soma de uma linha (coluna) j com uma linha i multiplicada por um polinômio p(X) ∈<br />

k[X]:<br />

⎛<br />

1<br />

⎞<br />

⎜<br />

Mp i+j = ⎜<br />

⎝<br />

. ..<br />

1<br />

.<br />

p(X)<br />

. ..<br />

· · · 1<br />

. ..<br />

⎟<br />

⎠<br />

com (Mp i+j)ji = p(X).<br />

2.2.1. Observação. Comparando com as definições do primeiro curso de álgebra linear, vemos<br />

que (1) é a mesma; (3) contempla a possibilidade de multiplicar uma linha por um polinômio<br />

(não só uma constante) antes de somá-la a outra. Finalmente, (2) só permite multiplicação por<br />

elementos não-nulos do corpo k. A razão do desequilíbrio aparente entre as operações de tipo<br />

(2) e (3) é devido à necessidade das operações serem reversiveis (isto é, corresponderem a<br />

multiplicações por matrizes quadradas que admitam inversas com elementos polinomiais).<br />

2.2.2. Exemplo. Considere as seguintes matrizes sobre Q[X]:<br />

<br />

X<br />

1<br />

<br />

0<br />

,<br />

X − 1<br />

<br />

1<br />

0<br />

2X<br />

3<br />

<br />

A primeira não admite inversa sobre Q[X] (embora a admita sobre Q(X), o que é um fácil<br />

exercicio). A segunda admite inversa sobre Q[X]. É claro, por outro lado, que toda matriz A<br />

sobre k[X], cujos elementos pertencem todos a k e tal que det A = 0, admite inversa sobre k,<br />

logo sobre k[X] por maior razão.<br />

Observemos que a noção do determinante de uma matriz quadrada A sobre k[X] não precisa<br />

ser reintroduzido: definimo-lo como sendo o determinante de A, esta considerada como matriz<br />

sobre k(X) (que é um corpo, em cujo caso já sabemos a definição ). É bastante evidente que,<br />

se A é matriz quadrada sobre k[X], então det A ∈ k[X]. pelo mesmo principio, a definição de<br />

posto de uma matriz retangular sobre k[X] não precisa ser repetida.<br />

A proposição a seguir diz exatamente quais matrizes quadradas sobre k[X] admitem inversa<br />

sobre k[X].<br />

2.2.3. Proposição. Seja k um corpo arbitrário. Uma matriz quadrada A sobre k[X] admite<br />

inversa sobre k[X] se e somente se det A ∈ k \ {0}.<br />

1<br />

1


2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS 25<br />

Demonstração. Pela conhecida relação , temos A ad(A) = (det A)I, onde ad(A) é a matriz<br />

dos cofatores de A. Em particular, pela definição mesma dos cofatores, ad(A) é matriz sobre<br />

k[X]. Trabalhando sobre k(X), a inversa é dada por A −1 = (det A) −1 ad(A). Se det A ∈ k,<br />

segue que os elementos de A −1 são polinômios. Inversamente, se A admite inversa A −1 sobre<br />

k[X], então det A det(A −1 ) = 1 é o produto de dois polinômios que dá como resultado 1. Logo,<br />

det A admite inverso multiplicativo em k[X] e, portanto, tem de pertencer a k \ {0}. <br />

Como no caso de escalonamento sobre um corpo K, diremos que uma matriz B ∈ Mm×n(k[X])<br />

é elementarmente equivalente a uma matriz A ∈ Mm×n(k[X]) se B = AE ou B = F A, onde<br />

E e F são matrizes elementares (isto é, correspondem a operações elementares por linha<br />

ou coluna, sobre k[X]). Dizemos que B é equivalente a A se existirem matrizes elementares<br />

E1, . . . , Er, F1, . . . , Fs tais que B = E1 · · · ErAF1 · · · Fs. Usaremos, neste caso, a notação<br />

B ∼ A.<br />

Como antes, trata-se de uma relação de equivalência no conjunto Mm×n(k[X]). Ainda como<br />

antes, nossa tarefa será exibir uma forma canônica para cada classe de equivalência.<br />

Para familiarizar-nos com o teorema de escalonamento em Mm×n(k[X]), convem tratar primeiro<br />

alguns exemplos simples, onde possamos reconhecer o padrão geral.<br />

2.2.4. Exemplo. Consideremos a matriz<br />

X X + 1<br />

X + 2 X + 4<br />

<br />

∈ M2×2(Q[X])<br />

Deixaremos ao aluno o prazer de determinar explicitamente as operações elementares usadas<br />

em cada uma das passagens abaixo.<br />

<br />

X<br />

X + 2<br />

<br />

X + 1<br />

X + 4<br />

∼<br />

<br />

X<br />

X + 2<br />

<br />

1 X<br />

∼<br />

2 2<br />

<br />

1 1<br />

∼<br />

1 1<br />

X<br />

2<br />

<br />

∼<br />

<br />

1<br />

1<br />

<br />

0<br />

1<br />

∼<br />

−X + 2 0<br />

<br />

0<br />

−X + 2<br />

Fácil demais? Porque os polinômios são todos de grau 1? Porque a matriz é quadrada? Nos<br />

dois próximos exemplos, transgredimos estas condições .<br />

2.2.5. Exemplo. Uma matriz com elementos polinomiais de graus diferentes:<br />

<br />

X2 X − 1<br />

X + 1<br />

X2 <br />

∼<br />

<br />

X + 1<br />

X<br />

X2 2 <br />

X + 1<br />

∼<br />

X − 1 X<br />

−X<br />

2 −X3 <br />

+ X − 1<br />

∼<br />

<br />

X + 1 1<br />

X2 −X3 + X2 ∼<br />

<br />

+ X − 1<br />

<br />

1 X + 1<br />

−X3 + X2 + X − 1 X2 ∼<br />

<br />

<br />

1 0<br />

−X3 + X2 + X − 1 X4 ∼<br />

<br />

− (X + 1)(X − 1)<br />

<br />

1 0<br />

0 X4 <br />

− (X + 1)(X − 1)


26 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

2.2.6. Exemplo. Uma matriz 2 × 3 com elementos polinomiais, de posto 1:<br />

<br />

X X2 X3 X2 X3 X4 <br />

X 0 X3 ∼<br />

X2 0 X4 <br />

X 0 0<br />

∼<br />

X2 <br />

0 0<br />

∼<br />

<br />

X<br />

0<br />

0<br />

0<br />

<br />

0<br />

0<br />

2.2.7. Exemplo. A matriz característica de uma matriz A ∈ M2(k):<br />

<br />

X − a11 −a12<br />

XI − A =<br />

−a21 X − a22<br />

Suponhamos, primeiramente, que A não é diagonal; digamos, a12 = 0. Então tem-se:<br />

XI − A ∼<br />

∼<br />

<br />

1 X − a11<br />

−a −1<br />

21 (X − a22)<br />

<br />

<br />

1 X − a11<br />

∼<br />

−a21 X − a22 a12a21<br />

<br />

<br />

1 0<br />

1 0<br />

∼<br />

X − a22 −(X − a11)(X − a22) + a12a21 0 cA(X)<br />

onde cA(X) é o polinômio característico de A.<br />

Suponhamos, em seguida, que A seja diagonal, isto é, a12 = a21 = 0. Se a11 = a22, temos:<br />

<br />

X − a11 0<br />

X − a11 −X + a11<br />

XI − A =<br />

∼<br />

0 X − a22<br />

0 (X − a22)<br />

<br />

X − a11 a11 − a22<br />

1 0<br />

∼<br />

∼<br />

0 (X − a22) (a11 − a22) −1 <br />

(X − a22) 0<br />

<br />

1 0<br />

∼<br />

,<br />

0 cA(X)<br />

ainda da mesma forma anterior.<br />

Finalmente, se A é escalar (isto é, a12 = a21 = 0, a11 = a22 := a, então a forma canônica<br />

será a própria matriz característica.<br />

2.3. Forma canônica de Smith<br />

Estamos preparados para os principais resultados desta parte.<br />

2.3.1. Teorema. (Forma canônica de Smith) Toda matriz A ∈ Mm×n(k[X]) é equivalente<br />

a uma matriz m × n semi-diagonal sobre k[X] da forma<br />

⎛<br />

f1(X) 0 · · ·<br />

⎞<br />

0<br />

(2.3.1)<br />

⎜<br />

SA = ⎜<br />

⎝<br />

0<br />

.<br />

f2(X)<br />

0<br />

.<br />

. ..<br />

· · ·<br />

fr(X)<br />

0<br />

.<br />

0<br />

.<br />

0<br />

0<br />

.<br />

· · ·<br />

· · ·<br />

· · ·<br />

0 ⎟<br />

. ⎟<br />

0 ⎟ ,<br />

⎟<br />

0 ⎟<br />

.<br />

⎠<br />

0 0 · · · 0 0 · · · 0<br />

onde r é o posto de A e, para todo 1 ≤ j ≤ r, fj(X) ∈ k[X] é polinômio mônico que divide<br />

fj+1(X) (com a convenção de que fr+1 = 0).<br />

<br />

,


2.3. FORMA CANÔNICA DE SMITH 27<br />

Demonstração. Podemos supor que A não é a matriz nula. Procedemos por indução<br />

sobre m. No conjunto de todas as matrizes equivalentes a A escolhamos uma que admite como<br />

elemento na posição (1, 1) um polinômio mônico de menor grau possivel; denotemos um tal<br />

polinômio por g(X). Dividindo todo elemento da primeira linha de A por g(X), obtemos uma<br />

matriz m × n da forma <br />

g(X)<br />

.<br />

r12(X)<br />

.<br />

. . .<br />

<br />

r1n(X)<br />

,<br />

.<br />

onde r1j(X) são os respectivos restos das divisões. Em particular, gr(r1j(X)) < gr(g(X)), para<br />

todo j. Esta matriz foi obtida de A por (m − 1) transformações elementares, logo é equivalente<br />

a A. Por hipótese, segue necessariamente que r1j(X) = 0 para todo j. Procedendo similarmente<br />

com a primeira coluna desta matriz, obtemos<br />

⎛<br />

⎜<br />

A ∼ ⎜<br />

⎝<br />

g(X) 0 . . . 0<br />

0<br />

. A1<br />

0<br />

onde A1 é matriz m − 1 × n − 1 polinomial. Pela hipótese indutiva, esta matriz é equivalente a<br />

uma matriz<br />

SA1 =<br />

⎛<br />

f2(X) 0 · · ·<br />

⎞<br />

0<br />

(2.3.2)<br />

⎜<br />

⎝<br />

0<br />

.<br />

f3(X)<br />

0<br />

.<br />

. ..<br />

· · ·<br />

fr(X)<br />

0<br />

.<br />

0<br />

.<br />

0<br />

0<br />

.<br />

· · ·<br />

· · ·<br />

· · ·<br />

0 ⎟<br />

. ⎟<br />

0 ⎟ ,<br />

⎟<br />

0 ⎟<br />

.<br />

⎠<br />

0 0 · · · 0 0 · · · 0<br />

onde r − 1 é o posto de A1 e os polinômios se comportam conforme o enunciado do teorema.<br />

Consequentemente, aplicando à matriz dada A operações elementares da forma<br />

⎛<br />

⎞<br />

1 0 . . . 0<br />

⎜ 0<br />

⎟<br />

⎜<br />

⎟<br />

⎝ . P1 ⎠<br />

0<br />

,<br />

onde P1 é matriz m − 1 × n − 1 elementar usada para passar de A1 a SA1 , chegamos a que A é<br />

equivalente a<br />

⎛<br />

f1(X) 0 0 0 0 0 0<br />

⎞<br />

0<br />

⎜<br />

SA = ⎜<br />

⎝<br />

0<br />

0<br />

.<br />

0<br />

0<br />

.<br />

f2(X)<br />

0<br />

.<br />

f3(X)<br />

0<br />

.<br />

. ..<br />

· · ·<br />

fr(X)<br />

0<br />

.<br />

0<br />

0<br />

.<br />

0<br />

0<br />

.<br />

· · ·<br />

· · ·<br />

· · ·<br />

· · ·<br />

0 ⎟<br />

0 ⎟<br />

. ⎟<br />

0 ⎟ .<br />

⎟<br />

0 ⎟<br />

.<br />

⎠<br />

0 0 0 · · · 0 0 · · · 0<br />

⎞<br />

⎟<br />

⎠ ,


28 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

Ponhamos f1(X) := g(X). Resta mostrar que g(X)|f2(X). Ora, a matriz acima é ainda<br />

equivalente à matriz que se obtem ao somar a primeira linha multiplicada por g(X) á segunda<br />

linha. Tornando a dividir f2(X) por g(X), como no inicio, obtemos uma matriz equivalente<br />

com um elemento (o resto desta divisão) com grau menor do que o de g(X). Novamente, somos<br />

obrigados a concluir que g(X) divide f2(X), como queriamos demosntrar. <br />

2.3.2. Teorema. (Unicidade da forma canônica de Smith) A forma (2.3.1) é unicamente<br />

determinada pela matriz dada A. Mais precisamente, para todo 2 ≤ j ≤ r, fj(X) =<br />

dj(X)<br />

dj−1(X) , onde dj(X) é o mdc (mônico) de todos os subdeterminantes de ordem j de A.<br />

Demonstração. Fixemos um j, 1 ≤ j ≤ r, com r = p(A). Se B é elementarmente equivalente<br />

a A, então, devido às possiveis formas das matrizes elementares, vemos que todo menor de<br />

ordem j de B é um menor de ordem j de A multiplicado por um α ∈ k \ 0 ou uma combinação<br />

da forma ∆ + p(X)∆ ′ , onde p(X) ∈ k[X] e ∆, ∆ ′ são menores de ordem j de A.<br />

Daqui resulta, pela definição , que o mdc (mônico) de todos os menores de ordem j de B<br />

é igual ao mdc (mônico) dj de todos os menores de ordem j de A. Iterando este processo,<br />

deduzimos que o mdc (mônico) de todos os menores de ordem j da matriz de Smith SA é igual<br />

a dj.<br />

Ora, como fl|fl+1, para 1 ≤ l ≤ r − 1, resulta facilmente que o mdc (mônico) de todos os<br />

menores de ordem j da matriz de Smith é o produto f1 · · · fj. Logo, dj = f1 · · · fj. Daqui resulta<br />

o enunciado procurado. <br />

2.3.3. Definição. (Fatores invariantes de uma matriz polinomial) Os polinômios<br />

mônicos fj(X) da forma de Smith são chamados os fatores invariantes da matriz A ∈ Mn×n(k[X]).<br />

2.3.4. Corolário. Sejam A, B ∈ Mm×n(k[X]). Então A é equivalente a B se e só se têm<br />

os mesmos fatores invariantes.<br />

2.3.5. Teorema. (Caracterização do polinômio minimo) Seja A ∈ Mn×n(k). Sejam<br />

f1(X), . . . , fn(X) ∈ k[X] os fatores invariantes da matriz carateristica de A, XI − A. Então a<br />

matriz característica XI − A tem posto n e, além disso, tem-se:<br />

c A (X) = f1(X) · · · fn(X), m A (X) = fn(X).<br />

Demonstração. A afirmação relativa ao posto e ao polinômio característico é óbvia. De<br />

fato por definição temos<br />

XI − A = E · SA(X) · E ′ ,<br />

com E, E ′ são produto de matrizes elementares em Mn×n(k[X]). Tomando os determinantes,<br />

deduzimos<br />

c A (X) = det(E) · det(E ′ ) · f1(X) · · · fn(X).<br />

Sendo cA (X) mônico e sendo os fi(X) mônicos, temos det(E) · det(E ′ ) = 1.<br />

Seja dn−1(X) o m.c.d. mônico dos menores de ordem n − 1 de XI − A. Sabemos que<br />

fn(X) = det(XI−A)<br />

dn−1(X) . Por definição de matriz adjunta, temos que o m.c.d. mônico dos elementos<br />

da matriz ad(XI − A) é exatamente dn−1(X). Portanto<br />

ad(XI − A) = dn−1(X) · P (X),


2.3. FORMA CANÔNICA DE SMITH 29<br />

com P (X) ∈ Mn×n(k[X]) matriz com elementos polinômios relativamente primos entre si. De<br />

ad(XI − A) · (XI − A) = det(XI − A) · I obtemos<br />

e portanto<br />

dn−1(X) · P (X) · (XI − A) = dn−1(X) · fn(X) · I<br />

P (X) · (XI − A) = fn(X) · I.<br />

Pelo teorema do resto podemos interpretar a relação anterior como que o resto da divisão a<br />

direita de fn(X) · I por XI − A é nulo, i.e. fn(A) = 0. Isso implica que m A (X) divide fn(X),<br />

i.e.<br />

fn(X) = h(X) · m A (X).<br />

Para concluir é suficiente mostrar que h(X) tem grau zero porque os dois polinômios fn(X) e<br />

m A (X) são mônicos. Dividindo m A (X)·I a direita por XI −A e sendo m A (A) = 0 por definição,<br />

o teorema da divisão garante a existencia de R(X) ∈ Mn×n(k[X]) tal que<br />

Combinando as relações anteriores obtemos<br />

m A (X) · I = R(X) · (XI − A).<br />

P (X) · (XI − A) = h(X) · m A (X) · I = h(X) · R(X) · (XI − A),<br />

que, sendo XI − A de posto n, implica<br />

P (X) = h(X) · R(X).<br />

Então h(X) ∈ k porque, por construção, os elementos de P (X) eram relativamente primos entre<br />

si. <br />

2.3.6. Observação. Assim, o polinômio característico de A é o produto de todos os fatores<br />

invariantes de XI − A e o polinômio minimo de A é o fator característico de maior grau de<br />

A. Para calcular m A (X) podemos determinar a forma normal de Smith ou, mais diretamente,<br />

calcular o mdc dos subseterminantes submáximos da matriz característica de A. Qual método é<br />

mais eficiente? A resposta depende de várias circunstâncias, mas, em geral, para valores grandes<br />

de n, a forma normal de Smith é preferivel.<br />

2.3.7. Observação. Sejam k e k ′ dois corpos com k ⊆ k ′ (e.g. R ⊆ C) e seja A ∈ Mn×n(k).<br />

A priori pensando A como elemento de Mn×n(k ′ ) teremos a noção de polinômio minimo de A<br />

com coeficientes em k ′ , i.e. o polinômio mônico de menor grau de k ′ [X] que se anula sobre<br />

A e não é claro que esse polinômio coincida com o polinômio minimo de A em k[X]. Quanto<br />

acabamos de mostrar revela que o polinômio minimo de A não depende do corpo. Isso porque se<br />

A ∈ Mn×n(k) ⊂ Mn×n(k ′ ), então o n-esimo fator invariante de XI − A pertence sempre a k[X].<br />

Que depende do corpo é a fatorização do polinômio minimo e portanto a ”forma canônica”. Por<br />

exemplo considerando<br />

A =<br />

0 −1<br />

1 0<br />

como matriz com coeficentes reais, temos que m A (X) = X 2 + 1 e que A é in forma canonica<br />

racional como matriz real. Em M2×2(C), o polinômio minimo de A se fatora em m A (X) =<br />

(X − i)(X + i) e a forma canônica racional como matriz complexa de A é<br />

i 0<br />

0 −i<br />

<br />

.


30 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

2.4. Equivalencia em Mn×n(k[X]) e semelhnanca em Mn×n(k)<br />

2.4.1. Teorema. Sejam A(X), B(X) ∈ Mn×n(k[X]) com B(X) propria e A(X) e B(X) de<br />

grau um. Então A(X) é equivalente a B(X) se e só se existirem P, Q ∈ Mn×n(k) inversiveis<br />

tais que B(X) = P · A(X) · Q.<br />

Demonstração. Se B(X) = P · A(X) · Q, então claramente A(X) é equivalente a B(X)<br />

(lembramos que cada matriz in Mn×n(k) invertivel é produto de matrizes elementares!).<br />

Ao contrario se A(X) e B(X) são equivalentes, existem P (X), Q(X) ∈ Mn×n(k[X]) produtos<br />

de matrizes elementares tais que<br />

(2.4.1)<br />

B(X) = P (X) · A(X) · Q(X).<br />

Sendo B(X) propria pudemos dividir a esquerda a matriz P (X) por B(X) e a matriz Q(X) a<br />

direita obtendo<br />

(2.4.2)<br />

(2.4.3)<br />

P (X) = B(X) · P1(X) + P,<br />

Q(X) = Q1(X) · B(X) + Q,<br />

onde sendo B(X) de grau um, temos P, Q ∈ Mn×n(k). Combinando (2.4.2) e (2.4.1), obtemos<br />

(2.4.4)<br />

P · A(X) · Q1(X) = B(X) · D1(X),<br />

com D1(X) = (Q(X) −1 − P1(X)) · Q1(X). Seja<br />

P1(X) · A(X) · Q(X) = D2(X) · B(X),<br />

onde D2(X) = P1(X) · P (X) −1 .<br />

No resto da demostração vamos provar que essas matrizes P e Q têm a propriedade querida,<br />

i.e. que B(X) = P ·A(X)·Q. Por isso vamos substuir na primeira equação de cima as expressões<br />

obtidas nas equações anteriores. Então<br />

B(X) = (P + B(X)P1(X)) · A(X) · Q(X)<br />

= P · A(X) · Q(X) + B(X) · D2(X) · B(X)<br />

= P · A(X) · Q + P · A(X) · Q1(X) · B(X) + B(X) · D2(X) · B(X)<br />

= P · A(X) · Q + B(X) · D(X) · B(X),<br />

onde D(X) = D1(X) + D2(X). Para concluir é bastante mostrar que D(X) = 0. De<br />

B(X) − P · A(X) · Q = B(X) · D(X) · B(X),<br />

sendo que A(X) e B(X) têm grau um, segue que B(X)D(X)B(X) tem grau no máximo um. Se<br />

D(X) = 0, então , sendo B(X) uma matriz propria, B(X) · D(X) · B(X) teria grau pelo menos<br />

dois que seria impossivel. Obtemos que D(X) = 0 e que B(X) = P · A(X) · Q como desejado.<br />

Mostamos agora que P e Q são inversiveis. Se B(X) = B1X + B0 e se A(X) = A1X + A0,<br />

obtemos<br />

B1X + B0 = P · (A1X + A0) · Q = (P · A1 · Q)X + P · A0 · Q,<br />

i.e. B1 = P · A1 · Q e a afirmação segue do feito que B1 é invertivel (por que?). <br />

O proximo teorema é de importancia fundamental e vai permitir de dezurir muitos resultados<br />

da teoria dos fatores invariantes e da forma canônica de Smith da matriz característica XI − A,<br />

A ∈ Mn×n(k).<br />

2.4.2. Teorema. Duas matrizes A, B ∈ Mn×n(k) são semelhantes se e só se XI − A é<br />

equivalente a XI − B em Mn×n(k[X]).


2.5. FORMA CANÔNICA RACIONAL 31<br />

Demonstração. Se A é semelhante a B, então existe P ∈ Mn×n(k) invertivel tal que<br />

P · B · P −1 = A. Facilmente obtemos P (XI − B)P −1 = XI − A e a conclusão segue do feito<br />

que uma matriz invertivel em Mn×n(k) é produto de matrizes elementares. Portanto XI − B é<br />

equivalente a XI − A.<br />

Se XI − A é equivalente a XI − B pelo teorema 2.4.1, existem P, Q ∈ Mn×n(k) tais que<br />

XI − B = P · (XI − A) · Q. Eseguindo a multiplicação obtemos P · Q = I, i.e. Q = P −1 e<br />

B = P · A · P −1 , i.e. A e B são semelhantes. <br />

2.4.3. Corolário. Sejam k um subcorpo do corpo k ′ e sejam A, B ∈ Mn×n(k). Então A e<br />

B são semelhantes em Mn×n(k) se e só se são semelhantes em Mn×n(k ′ ).<br />

Demonstração. Sendo Mn×n(k) ⊆ Mn×n(k ′ ), é claro que se A e B são semelhantes em<br />

Mn×n(k), então são semelhantes em Mn×n(k ′ ).<br />

Se A e B são semelhantes em Mn×n(k ′ ), entao pelo teorema anterior XI − A e XI − B são<br />

equivalentes em Mn×n(k ′ [X]) e portanto tem os mesmos fatores invariantes em k ′ [X]. Mas os<br />

fatores invariantes de XI − A e XI − B são polinômios em k[X] e portanto as matrizes XI − A<br />

e XI − B são equivalentes em Mn×n(k[X]) pelo corollario 2.3.4 tendo a mesma forma canônica<br />

de Smith. Aplicando mais uma vez o teorema 2.4.2 deduzimos que A e B são semelhantes em<br />

Mn×n(k). <br />

2.4.4. Observação. Não é verdade que se A = P ′ · B · P ′−1 com P ′ ∈ Mn×n(k ′ ), então<br />

P ′ ∈ Mn×n(k). O corolario anterior garante só a existência de uma matriz P ∈ Mn×n(k) tal<br />

que A = P · B · P −1 .<br />

2.5. Forma canônica racional<br />

O Teorema 2.4.2 permite de deduzir os teoremas da forma canônica racional da teoria dos<br />

fatores invariantes e até de fornecer uma demosntração diferente do Teorema de Decomposição<br />

Primaria, Teorema 1.5.1. Vamos tratar primeiro o caso das matrizes companheiras.<br />

2.5.1. Definição. (Matriz companheira de um polinômio monico g(X) = Xm −<br />

αm−1X m−1 − . . . − α1X − α0 de grau m). A matriz m × m<br />

⎛<br />

0 0 0 . . . α0<br />

⎜ 1 0 0 . . . α1<br />

⎜<br />

C(g(X)) = ⎜ 0 1 0 . . . α2<br />

⎜<br />

⎝<br />

.<br />

. . . .. .<br />

⎞<br />

⎟ .<br />

⎟<br />

⎠<br />

0 0 0 1 αm−1<br />

se diz a matriz companheira de g(X) e se indica com C(g(X)).<br />

2.5.2. Proposição. Seja f(X) ∈ k[X] um polinômio mônico de grau n ≥ 1e seja C(f(X)) ∈<br />

Mn×n(K) a matriz companheira de f(X). Então XI − C(f(X)) é equivalente a<br />

⎛<br />

⎞<br />

1 0 0 0 0 0<br />

⎜ 0<br />

⎜ 0<br />

⎜ .<br />

⎜<br />

⎝<br />

.<br />

1 0<br />

1<br />

0<br />

0<br />

. ..<br />

· · ·<br />

· · ·<br />

.<br />

. ..<br />

0<br />

0<br />

.<br />

.<br />

⎟ ∈ Mn×n(k[X]).<br />

⎟<br />

⎠<br />

0 f(X)


32 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

Demonstração. É facil verificar (verifique!) que para uma matriz da forma C(f(X))<br />

temos mC(f(X)) (X) = cC(f(X)) (X) = f(X), cfr. Lema 2.8.2. Portanto os fatores invariantes de<br />

XI − C(f(X)) são tais que<br />

f1(X) · · · fn(X) = c C(f(X)) (X) = f(X) = m C(f(X)) (X) = fn(X).<br />

Segue que f1(X) = · · · = fn−1(X) = 1 e fn(X) = f(X). A forma canônica de Smith de<br />

XI − C(f(X)) é esatamente como acima. <br />

2.5.3. Teorema. (Forma canônica racional-primeira versão ) Cada matriz A ∈ Mn×n(k)<br />

é semelhante a uma unica matriz da forma<br />

⎛<br />

C(fl(X)) 0<br />

⎜ 0 C(fl+1(X))<br />

⎜<br />

⎝ .<br />

0 0<br />

· · ·<br />

. ..<br />

0<br />

0<br />

.<br />

⎞<br />

⎟<br />

⎠<br />

0 C(fn(X))<br />

,<br />

onde os fj(X), j = l, . . . , n, 1 ≤ l ≤ n, são polinômios mônicos não costantes com a<br />

propriedade que fi(X) divide fi+1(X) para cada i = l, . . . , n − 1. Os polinômios fj(X) são os<br />

fatores invariantes não constantes de XI − A.<br />

Demonstração. Seja ⎛<br />

⎜<br />

⎝<br />

1 0 0 0 0 0<br />

0 1 0 0 · · · 0<br />

0<br />

.<br />

fl(X)<br />

. ..<br />

0 · · ·<br />

.<br />

0<br />

.<br />

0 fn(X)<br />

a forma canônica de Smith de XI − A, i.e. os fj(X) são os fatores invariantes não constantes<br />

de XI − A. Seja<br />

⎛<br />

C(fl(X))<br />

⎜ 0<br />

C = ⎜<br />

⎝ .<br />

0<br />

C(fl+1(X))<br />

0<br />

. ..<br />

0<br />

· · ·<br />

0<br />

0<br />

.<br />

⎞<br />

⎟<br />

⎠<br />

0 C(fn(X))<br />

.<br />

Observamos que C ∈ Mn×n(k).<br />

Então<br />

⎛<br />

XI − C(fl(X))<br />

⎜ 0<br />

XI − C = ⎜<br />

⎝ .<br />

0<br />

XI − C(fl+1(X))<br />

0<br />

. ..<br />

0<br />

· · ·<br />

0<br />

0<br />

.<br />

⎞<br />

⎟<br />

⎠<br />

0 XI − C(fn(X))<br />

e pela proposição 2.5.2 cada bloco XI − C(fj(X)) e’ equivalente a<br />

⎛<br />

⎞<br />

1 0 0 0 0 0<br />

⎜ 0<br />

⎜ 0<br />

⎜ .<br />

⎜<br />

⎝<br />

.<br />

1 0<br />

1<br />

0<br />

0<br />

. ..<br />

· · ·<br />

· · ·<br />

.<br />

. ..<br />

0<br />

0<br />

.<br />

.<br />

⎟ .<br />

⎟<br />

⎠<br />

0 fj(X)<br />

⎞<br />

⎟<br />


2.6. FATORES INVARIANTES E DIVISORES ELEMENTARES 33<br />

Portanto XI − C é equivalente a<br />

⎛<br />

1 0 0 0 0 0<br />

⎞<br />

⎜ 0<br />

⎜ 0<br />

⎜ .<br />

⎜<br />

⎝<br />

.<br />

1 0<br />

fl(X)<br />

0<br />

0<br />

. ..<br />

· · ·<br />

· · ·<br />

.<br />

. ..<br />

0<br />

0<br />

.<br />

.<br />

⎟<br />

⎠<br />

0 fn(X)<br />

e de consequencia a XI − A. Disso deduzimos que A é semelhante a C pelo Teorema 2.4.2. A<br />

unicidade é clara porque se A fosse semelhante a uma matriz da forma<br />

C ′ ⎛<br />

C(f<br />

⎜<br />

= ⎜<br />

⎝<br />

′ l ′(X)) 0 0 0 0<br />

0 C(f ′ l ′ +1 (X)) · · · 0<br />

.<br />

.<br />

..<br />

.<br />

0 C(f ′ ⎞<br />

⎟<br />

⎠<br />

n(X))<br />

,<br />

com f ′ i (X) mônico e irredutivel e tal que f ′ i (X) divide f ′ i+1 (X), os fatores invariantes de XI −C′<br />

seriam f ′ l ′(X), . . . , f ′ n(X)(argumentaremos como acima) e seriam também os fatores invariantes<br />

de XI − A. Portanto teremos l = l ′ e f ′ j (X) = fj(X) e a unicidade resulta provada. <br />

2.6. Fatores invariantes e divisores elementares<br />

2.6.1. Proposição. Se f(X) = q1(X) e1 · · · ql(X) el é um polinômio de grau n, onde os qj(X)<br />

são irredutiveis, mônicos e distintos, então C(f(X)) é semelhante a uma matriz da forma<br />

⎛<br />

C(q1(X)<br />

⎜<br />

⎝<br />

e1 )<br />

C(q2(X) e2 )<br />

. ..<br />

C(ql(X) el)<br />

⎞<br />

⎟<br />

⎠ .<br />

Demonstração. Seja<br />

⎛<br />

C(q1(X)<br />

⎜<br />

C = ⎜<br />

⎝<br />

e1 )<br />

0<br />

0<br />

C(q2(X)<br />

0 0 0<br />

e2<br />

.<br />

)<br />

. ..<br />

· · · 0<br />

.<br />

0 C(ql(X) el)<br />

⎞<br />

⎟<br />

⎠ .<br />

Então<br />

⎛<br />

XI − C(q1(X)<br />

⎜<br />

XI − C = ⎜<br />

⎝<br />

e1 )<br />

0<br />

0<br />

XI − C(q2(X)<br />

0 0 0<br />

e2<br />

.<br />

)<br />

. ..<br />

· · · 0<br />

.<br />

0 XI − C(ql(X) el)<br />

⎞<br />

⎟<br />

⎠<br />

e como antes cada bloco XI − C(qj(X) ej ) e’ equivalente a<br />

⎛<br />

1 0 0 0 0 0<br />

⎜ 0 1 0 0 · · · 0<br />

⎜ 0 1 0 · · · 0<br />

⎜<br />

⎝<br />

.<br />

. .. . .<br />

0 qj(X) ej<br />

⎞<br />

⎟ .<br />

⎟<br />


34 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

Sendo que os polinômios qj(X) são irredutiveis e relativamente primos, o m.c.d. mônico dos<br />

menores de ordem n − 1 de XI − C é igual a 1 (por que?). Portanto XI − C é equivalente a<br />

⎛<br />

⎞<br />

1 0 0 0 0 0<br />

⎜ 0 1 0 0 · · · 0 ⎟<br />

⎜ 0 1 0 · · · 0 ⎟<br />

⎜<br />

⎝<br />

.<br />

. ..<br />

⎟<br />

. . ⎠<br />

0 f(X)<br />

que é a forma canônica de Smith de XI − C(f(X)). Portanto C(f(X)) é semelhante a C. <br />

2.6.2. Corolário. (Forma canônica racional-segunda versão ). Seja A ∈ Mn×n(k)<br />

com polinômio minimo mA (X) = q1(X) e1 . . . qr(X) er . Então<br />

i) Existe uma matriz semelhante a A da forma<br />

⎛<br />

⎞<br />

⎜<br />

D = ⎜<br />

⎝<br />

onde cada Di tem a forma<br />

⎛<br />

C(qi(X)<br />

⎜<br />

Di = ⎜<br />

⎝<br />

ei )<br />

D1<br />

D2<br />

. ..<br />

C(qi(X) ei,2 )<br />

Dr<br />

. ..<br />

⎟<br />

⎠ ,<br />

C(qi(X) ei,p i )<br />

e temos ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r, p1 ≥ p2 ≥ . . . ≥ pr.<br />

ii) A forma da matriz no ponto acima se diz forma canônica racional de A e é unica modulo<br />

uma permutação dos blocos.<br />

iii) Os polinômios qi(X) ei,j , i = 1, . . . , r, j = 1, . . . , pi se dizem divisores elementares de A.<br />

Os divisores elementares são os fatores primários dos fatores invariantes de XI − A.<br />

Demonstração. Sejam fk(X), . . . , fn(X) os fatores invariantes não costantes de XI − A.<br />

Na fatorização dos fj(X) podem aparacer como fatores irredutiveis só q1(X), . . . , qr(X) (por<br />

que?). Portanto aplicando o teorema 2.5.3 e a proposição 2.6.1 deduzimos que A é semelhante<br />

a uma matriz<br />

⎛<br />

⎞<br />

⎜<br />

B = ⎜<br />

⎝<br />

Bk<br />

Bk+1<br />

onde cada Bl, l = k, . . . , n tem a forma<br />

⎛<br />

C(q1(X)<br />

⎜<br />

Bl = ⎜<br />

⎝<br />

e1,n−l+1)<br />

C(q2(X) e2,n−l+1)<br />

. ..<br />

Bn<br />

. ..<br />

⎟<br />

⎠ ,<br />

⎞<br />

⎟<br />

⎠<br />

C(qr(X) er,n−l+1)<br />

com ei,n−l+1 ≥ 0, ei,1 = ei e ei,n−l+1 ≤ ei,n−l para cada i = 1, . . . , r. Sendo XI − B claramente<br />

equivalente a XI − D, obtemos que A é semelhante a D. Resulta claro, revertendo o argumento<br />

⎞<br />

⎟<br />

⎠ ,


2.7. DECOMPOSIÇÃO PRIMARIA E CICLICA 35<br />

que grupando as matrizes companheiras de divisores elementares distintos, podemos construir<br />

B como acima tal que XI − D seja equivalente a XI − B. Sendo que os qi(X) são irredutiveis<br />

e distintos, cada matriz XI − Bl e’ equivalente a uma matriz do tipo<br />

⎛<br />

1<br />

⎜ 1<br />

⎜<br />

⎝<br />

. ..<br />

q1(X) e1,n−l · · · qr(X) er,n−l<br />

⎞<br />

⎟<br />

⎠ .<br />

Sejam fl(X) = q1(X) e1,n−l · · · qr(X) er,n−l; temos que fl(X) é mônico e divide fl+1(X). Segue<br />

que XI − B, e portanto XI − A, e’ equivalente a<br />

⎛<br />

1<br />

⎜ 0<br />

⎜ 0<br />

⎜<br />

⎝ .<br />

0<br />

1<br />

0<br />

0<br />

fk(X)<br />

. ..<br />

0<br />

0<br />

0<br />

0<br />

· · ·<br />

· · ·<br />

.<br />

0<br />

0<br />

0<br />

.<br />

⎞<br />

⎟ ,<br />

⎟<br />

⎠<br />

0 fn(X)<br />

onde cada fl(X) divide o seguinte e é mônico. Isso mostra a unicidade da forma canônica<br />

racional de A (por que?). <br />

Segue imediatamente o seguinte fato.<br />

2.6.3. Corolário. Duas matrizes A, B ∈ Mn×n(k) são semelhantes se e só se têm a mesma<br />

forma canônica racional se e só se têm os mesmos divisores elementares.<br />

A demonstração da segunda versão da forma canonica racional mostra tambem como dados<br />

os divisores elementares de uma matriz A ∈ Mn×n(k) se construem os fatores invariantes de<br />

XI − A. Sejam qi(X) ei,j os divisores elementares, i = 1, . . . , r, j = 1, . . . , pi, p1 ≥ . . . ≥ pr.<br />

Pondo ei,m = 0 se m > pi, podemos construir a seguinte matriz em Mp1×r(k[X])<br />

⎛<br />

⎞<br />

⎜<br />

⎝<br />

q1(X) e1,p1 q2(X) e2,p1 · · · · · · qr(X) er,p 1<br />

q1(X) e1,p1−1 q2(X) e2,p1−1 · · · · · · qr(X) er,p1−1 .<br />

. .. . .<br />

q1(X) e1,1 q2(X) e2,1 · · · · · · qr(X) er,1<br />

Então os fatores invariantes de XI − A são os polinômios monicos obtidos multiplicando os<br />

elementos de cada linha da matriz acima. Ao contrario dados os fatores invariantes não costantes<br />

de XI − A podemos construir uma matriz como acima em qual cada entrada seja um divisor<br />

elementar de A.<br />

⎟<br />

⎠ .<br />

2.7. Teoremas de decomposição T -ciclica I e T -primaria II<br />

Os resultados da seção anterior permitem de demonstrar diferentemente o Teoremas de Decomposição<br />

T -primaria e tambem de provar o Teorema de Decomposição T -ciclica. Vamos obter<br />

os teoremas de decomposição ciclica e primaria como corolarios dos resultados anteriores pela<br />

bem nota correspondencia entre matrizes semelhantes como matrizes de uma mesma aplicação<br />

linear com respeito a bases diferentes. Na proxima seção forneceremos uma demonstração direta<br />

do Teorema de Decomposição T -ciclica e portanto dos resultado dessa seção. Antes precisamos<br />

da definição de subespaço T -ciclico.


36 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

2.7.1. Definição. (Subespaço T -ciclico) Seja T ∈ End(V ). Dado um vetor u ∈ V , o<br />

subconjunto<br />

U = {f(T )(u) | f(X) ∈ k[X]}<br />

é subespaço de V . Um subespaço de V desta forma é dito ser T -ciclico, associado ao vetor u (u<br />

éntão dito ser um gerador de U, se não der lugar a confusões).<br />

2.7.2. Observação. A designação acima vem do fato de que um tal subespaço é o k[X]submódulo<br />

de V gerado pelo elemento u ∈ V , onde a estrutura de k[X]-módulo de V é a<br />

introduzida no Capítulo 1.<br />

Se U é subespaço T -ciclico, então U é obviamente T -invariante. Se r = dim(U), então<br />

B = {u, T (u), . . . , T r−1 (u)} é uma base de U. Se T r (u) = r−1 i=0 αiT i (u) e se f(X) = Xr −<br />

r−1 i=0 αiX i , temos que<br />

[T ] B B = C(f(X)),<br />

vide-se o Lemma 2.8.2 para os detalhes das demonstrações das afirmações acima.<br />

2.7.3. Corolário. (Existencia e unicidade decomposição T -ciclica) Seja T ∈ End(V )<br />

com polinômio minimo m T (X) = q1(X) e1 . . . qr(X) er . Então<br />

i) V = U1,1 ⊕ U1,2 ⊕ . . . ⊕ U1,p1 ⊕ U2,1 ⊕ . . . ⊕ Ur,pr com Ui,j subespaços T -ciclicos tais que<br />

para cada i = 1, . . . , r e para cada j = 1, . . . , pi − 1, dim(Ui,j) ≥ dim(Ui,j+1).<br />

ii) O polinômio minimo da restrição de T a Ui,j e’ da forma qi(X) ei,j com ei = ei,1 ≥<br />

ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r. (os polinômios qi(X) ei,j se dizem divisores<br />

elementares de T )<br />

iii) dim(Ui,j) = ei,j · di, onde di = grau(qi(X)).<br />

iv) Existe uma base B de V tal que<br />

[T ] B B =<br />

onde cada Ai tem a forma<br />

⎛<br />

C(qi(X)<br />

⎜<br />

Ai = ⎜<br />

⎝<br />

ei )<br />

⎛<br />

⎜<br />

⎝<br />

A1<br />

A2<br />

C(qi(X) ei,2 )<br />

. ..<br />

. ..<br />

Ar<br />

⎞<br />

⎟<br />

⎠ ,<br />

C(qi(X) ei,p i )<br />

v) A forma da matriz no ponto iv) se diz forma canônica racional de T e e’ unica modulo<br />

uma permutação dos blocos.<br />

Demonstração. Seja B ′ uma base de V e seja A = [T ] B′<br />

B ′. O resultado segue aplicando a<br />

segunda versão da forma canônica racional a matriz A. <br />

⎞<br />

⎟<br />

⎠ .


2.8. DECOMPOSIÇÃO T -CICLICA 37<br />

2.7.4. Corolário. (Teorema de decomposição primaria) Seja T ∈ End(V ), seja<br />

o polinônmio característico de T e seja<br />

c T (X) = q1(X) l1 · · · qr(X) lr<br />

m T (X) = q1(X) e1 · · · qr(X) er<br />

o polinômio minimo de T , onde cada qi(X) é um polinômio mônico irredutivel, 1 ≤ ei ≤ li para<br />

cada i = 1, . . . , r e os qi(X) são distintos. Então<br />

i) ker (qi(T ) ei ) = 0V é um subespaço T -invariante para cada i = 1, . . . , r.<br />

ii) V = ker (q1(T ) e1 ) ⊕ · · · ⊕ ker(qk(T ) er ).<br />

iii) dim(ker (qi(T ) ei )) = li · grau(qi(X)).<br />

iv) O polinômio minimo da restrição de T a ker (qi(T ) ei ) é qi(X) ei .<br />

Demonstração. Seja Vi = pi j=1 Ui,j, onde os Ui,j são os subespaços T -ciclicos contruidos<br />

aplicando o corolario 2.7.3. Então cada Vi é T -invariante e V = V1 ⊕ . . . ⊕ Vr; a restrição<br />

de T a cada Vi tem como polinômio minimo qi(X) ei . Disso segue facilmente que o polinômio<br />

carateristico de T |Vi é qi(X) l1 , vide-se Proposição 2.1.10. Portanto dim(Vi) = li · grau(qi(X)).<br />

Para concluir e’ suficiente mostrar que Vi = ker (qi(T ) ei ) = ker (qi(T ) li ). Temos as inclusoes<br />

Vi ⊆ ker (qi(T ) ei ) ⊆ ker (qi(T ) li ). Se Vi,,j = ker (qi(T ) li ) ∩ Vj = 0V , com j = i, esse subespaço<br />

de Vj seria T -invariante por ser interseção de subespaços T -invariantes e para qualquer v ∈ Vi,j<br />

teremos qi(T ) li (v) = 0V = qj(T ) em,j li<br />

(v). O polinômio minimo de T|Vi,j deveria dividir qi(X)<br />

e qj(X) em,j , que são coprimos e seria portanto o polinômio costante 1. Essa contradição prova<br />

que ker (qi(T ) li ) ⊆ Vi, concluindo a demonstração. <br />

2.8. Teorema de decomposição T –ciclica II<br />

O objetivo dessa seção e’ demonstrar diretamente o Teorema de Decomposição T -ciclica,<br />

Teorema 2.8.1 abaixo, já provado no Corolario 2.7.3. Dessa maneira vamos obter uma nova<br />

demonstração do Corolario 2.6.2 que não depende da teoria dos fatores invariantes e das matrizes<br />

polinomiais. Para ficar completamtente independentes da citada teoria, usaremos o Teorema da<br />

decomposição T -primária demonstrado diretamente no Teorema 1.5.1.<br />

Pelo teorema de decomposição primária, querendo achar uma forma canônica para um operador<br />

T : V → V podemos supor sem perda de generalidade que m T (X) = q(X) e com e ≥ 1 e<br />

q(X) irredutivel em k[X]. A partir desse caso com o procedimento usual acharemos a ”forma<br />

canônica”para um T qualquer fatorizando o polinômio minimo de T em fatores irredutiveis<br />

mônicos. Para encontrar a forma canônica vamos demostrar um teorema de existencia e unicidade<br />

para uma decomposição de V em subespaços T -ciclicos; a restrição de T a esse subespaços<br />

vai ter como matriz em uma base oportunamente escolhida uma matriz naturalmente associada<br />

a q(X) li , e = l1 ≥ l2 ≥ . . . ≥ lp.<br />

2.8.1. Teorema. (Existencia e unicidade da decomposição ciclica) Seja T : V → V<br />

uma aplicação linear e suponhamos que<br />

m T (X) = q(X) e ,<br />

com q(X) ∈ k[X] irredutivel e mônico e com e ≥ 1. Então :<br />

i) (existência) V = U1 ⊕ U2 . . . ⊕ Up, onde cada Ui e’ um subespaço T -ciclico tal que<br />

o polinômio minimo de T |Ui seja da forma q(X)ei com e = e1 ≥ e2 ≥ . . . ≥ ep,<br />

dim(Ui) = d · ei, d = grau(q(X)).


38 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

ii) (unicidade) Se V = U ′ 1 ⊕ U ′ 2 . . . ⊕ U ′ p ′, onde cada U ′ j e’ um subespaço T -ciclico tal que<br />

o polinômio minimo de T |U ′ seja da forma q(X)<br />

j e′ j com e = e ′ 1 ≥ e′ 2 ≥ . . . ≥ e′ p ′, então<br />

p = p ′ e ei = e ′ i para cada i = 1, . . . , p.<br />

Demonstração. Para indução sobre n = dim(V ) ≥ 1. Para n = 1, necessariamente<br />

mT (X) = X − α e o teorema e’ verdadeiro.<br />

Seja d = grau(q(X)) ≥ 1. Temos q(T ) e−1 = 0End(V ) por definição de polinômio minimo.<br />

Então existe u ∈ V tal que q(T ) e−1 (u) = 0V . Seja U1 =< u, T (u), . . . >, i.e. o subespaco<br />

ciclico T -invariante gerado por u e seja T1 a restrição de T a U1. Sendo que q(T1) e = 0End(U1) o polinômio minimo de T1 e’ da forma q(X) e1 com e1 ≤ e. De q(T1) e−1 (u) = 0 deduzimos<br />

e1 = e. Então U1 =< u, T (u), . . . , T de−1 (u) > porque sendo q(X) e o polinômio minimo de T |U1 ,<br />

T de (u) ∈< u, T (u), . . . , T de−1 (u) > e portanto T r (u) ∈< u, T (u), . . . , T de−1 (u) > para cada<br />

r ≥ d · e. Por outro lado temos que se u, T (u), . . . , T de−1 (u) fossem linearmente dependentes,<br />

então o polinômio minimo de T |U1 seria de grau menor a d · e (lembramos que f(T |U1 ) = 0 se e<br />

só se f(T )(u) = 0). Concluimos que dim(U1) = de. Se d · e = n, o teorema esta demostrado.<br />

Suponhamos d · e < n.<br />

Sendo U1 um subespaço T -invariante, T induz uma transformação linear T : V/U1 → V/U1<br />

definida como<br />

T ([v]) = [T (v)].<br />

(Mostrar que e’ bem definida!). Se f(X) ∈ k[X], então se verifica logo que<br />

f(T )([v]) = [f(T )(v)].<br />

Dessa ultima relação deduzimos que m T (X) divide m T (X), i.e. m T (X) = q(X) e2 , e2 ≤ e1 = e.<br />

Se W é um subespaço T -ciclico de V gerado por w tal que q(X) e seja o polinômio minimo de<br />

T |W , então q(X) e é um multiplo do polinômio minimo da restrição de T ao subesaço T -ciclico<br />

gerado por [w].<br />

Aplicando a ipotese de indução a V/U1, de dimensão n − dim(U1) < n, obtemos<br />

V/U1 = U 2 ⊕ U 3 . . . ⊕ U p,<br />

onde cada U j e’ T -ciclico e a restrição de T a cada U j tem polinômio minimo da forma q(X) ej<br />

com e2 ≥ e3 ≥ . . . ≥ ep. Para completar a demostração vamos construir a partir de U j,<br />

j = 2, . . . , p subespaços Uj de V tais que:<br />

a) cada Uj seja isomorfo a U j e então T -ciclico;<br />

b) o polinômio minimo da restrição de T a Uj seja exatamente q(X) ej ;<br />

c) V = U1 ⊕ U2 . . . ⊕ Up.<br />

Cada subespaço U j e’ gerado por um vetor [uj] e temos<br />

U j =< [uj], . . . , T ljd−1 ([uj]) > .<br />

De q(T ) lj ([uj]) = 0 V/U1 deduzimos q(T )ej (uj) ∈ U1; sendo U1 gerado por u1 obtemos q(T ) ej (uj) =<br />

f(T )(u1) por algum f(X) ∈ k[X]. Afirmamos que podemos deduzir a existencia de um vetor<br />

u ′ j ∈ U1 tal que q(T ) ej (T )(uj + u ′ j ) = 0V . Demonstrado isso pegaremos<br />

Uj =< uj + u ′ j , . . . , T ejd−1<br />

(uj + u ′ j ) ><br />

e verificaremos as propriedades a), b) e c).<br />

A afirmação segue dos seguintes fatos. Temos<br />

0V = q(T ) e (uj) = q(T ) e−ej q(T ) ej (uj)q(T ) e−ej f(T )(u1).


2.8. DECOMPOSIÇÃO T -CICLICA 39<br />

Sendo que a restrição de T a U1 tem polinômio minimo q(X) e , temos que q(X) e divide q(X) e−ej f(X).<br />

Isso implica f(X) = h(X)q(X) ej (por que?). Tomando u ′ j = −h(T )(u1) ∈ U1, temos<br />

q(T ) ej (uj + u ′ j ) = f(T )(u1) + q(T ) ej (−h(T )(u1)) = 0V .<br />

Sendo que u ′ j ∈ U1, claramente [uj] = [uj + u ′ j ] e então esse vetor é um gerador de U j,<br />

j = 2, . . . , p. Observamos antes que o polinômio minimo da restrição de T a Uj é um multiplo<br />

de q(X) ej , mas q(T ) ej (uj + u ′ j ) = 0V implica que o polinômio minimo da restrição de T a Uj<br />

seja esatamente q(X) ej , assim que b) esta demonstrado. Mostramos a). Argumentando como<br />

no caso de U1 no inicio da demonstração, temos que os espaços vetorias Uj e U j têm dimensão<br />

d·lj. O mapa natural πj : Uj → U j definido como πj(uj +u ′ j ) = [uj +u ′ j ] = [uj] é uma aplicação<br />

linear sobrejetora que, pelo teorema do nucleo e da imagem, induz um isomorfismo entre Uj e<br />

U j para cada j = 2, . . . p, completando a demonstração do ponto a).<br />

Indicamos con π : V → V/U1 o mapa projeção definido como π(v) = [v]. Entao a restrição<br />

de π a cada Uj é o πj definido anteriormente. Sendo que πj é um isomorfismo, temos Uj∩U1 = 0V<br />

para cada j = 2, . . . , p. Se w1 + w2 + . . . + wp = 0V , com wi ∈ Ui, i = 1, . . . , p, aplicando<br />

π, teremos π(w2) + . . . + π(wp) = 0V , π(wj) ∈ U j para cada j = 2, . . . , p. Isso implica<br />

π(wj) = 0 V/U1 (por que?) e portanto wj = 0V para cada j = 2, . . . , p pela injetividade de<br />

πj. Portanto a soma U1 + . . . + Up é direta e coincide com V sendo um subespaço de dimensão<br />

n = dim(V ).<br />

Passamos a mostrar a unicidade da decomposição na forma especificada em ii). Seja m ≥ 1<br />

o menor inteiro tal que em = e ′ m. Sendo e1 = e = e ′ 1 , temos 2 ≤ m ≤ min{p, p′ }. Podemos supor<br />

sem perda de generalidade que em > e ′ m. Por outro lado sabemos que e ′ m ≥ e ′ j para cada j ≥ m<br />

e portanto que q(T ) e′ m(U ′ j ) = 0V para cada j ≥ m. Então<br />

q(T ) e′ m(V ) = q(T ) e′ m(U ′ 1) ⊕ q(T ) e′ m(U ′ 2) ⊕ . . . ⊕ q(T ) e′ m(U ′ m−1),<br />

onde a soma continua direta porque os U ′ j são T -invariantes. Cada U ′ k e’ T -ciclico de dimensão<br />

d · e ′ k . Se verifica facilmente que dim(q(T )e′ m(U ′ k )) = d · (e′ k − e′ m) para cada k = 1, . . . , m − 1.<br />

Calculando com a outra decomposição obtemos<br />

q(T ) e′ m(V ) ⊇ q(T ) e′ m(U1) ⊕ q(T ) e′ m(U2) ⊕ . . . ⊕ q(T ) e′ m(Um−1) ⊕ q(T ) e′ m(Um)<br />

com dim(q(T ) e′ m(Ut)) = d(et−e ′ m) para cada t = 1, . . . , m. Disso deduzimos m−1<br />

k=1 d·(e′ k −e′ m) ≥<br />

m<br />

k=1 d(ek − e ′ m) e portanto em ≤ e ′ m contra a hipotese. <br />

Combinando o teorema de decomposição primária e o teorema de decomposição ciclica,<br />

dado T : V → V aplicação linear podemos sempre supor a existencia de subespaços T -ciclicos.<br />

Portanto para estudar T é suficiente conhecer a restrição dele aos subespacos T -ciclicos que T<br />

individua, sendo esses essencialmente ”unicos”.<br />

2.8.2. Lema. Seja U um subsespaço T -ciclico de V de dimensão m ≥ 1.<br />

Então :<br />

i) U tem uma base B da forma B = {u, T (u), . . . , T m−1 (u)}.<br />

ii) Se T m (u) = α0u + α1T (u) + . . . + αm−1T m−1 (u), então<br />

[T ] B B =<br />

⎛<br />

⎜<br />

⎝<br />

0 0 0 . . . α0<br />

1 0 0 . . . α1<br />

0<br />

.<br />

1<br />

.<br />

0<br />

.<br />

. . .<br />

. ..<br />

α2<br />

.<br />

0 0 0 1 αm−1<br />

⎞<br />

⎟ = C(X<br />

⎟<br />

⎠<br />

m − αm−1X m−1 − . . . − α1X − α0).


40 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

iii) O polinomio minimo de T |U e’<br />

g(X) = X m − αm−1X m−1 − . . . − α1X − α0.<br />

Demonstração. Podemos pensar U como gerado por u, T (u), T 2 (u), etc. Se T r (u) = 0U,<br />

então T l (u) = 0U para cada l ≥ r e<br />

U =< u, T (u), . . . , T r−1 (u) > .<br />

Sendo que dim(U) = m, temos que T j (u) = 0U para cada j = 1, . . . , m − 1. Mostramos que os<br />

m vetores u, T (u), . . . , T m−1 (u) são linearmente indipendentes. Seja<br />

β0u + β1T (u) + . . . + βm−1T m−1 (u) = 0U<br />

uma relação entre os vetores com βi ∈ k. Suponhamos que exista i, 1 ≤ i ≤ m − 1 tal que βi = 0<br />

e tal que<br />

β0u + β1T (u) + . . . + βiT i (u) = 0U.<br />

Então T i (u) ∈< u, T (u), . . . , T i−1 (u) >. Aplicando T teremos que tambem T i+k (u) ∈<<br />

u, T (u), . . . , T i−1 (u) > de onde deduziremos que o subespaço U estaria contido em<br />

< u, T (u), . . . , T i−1 (u) >;<br />

i − 1 ≤ m − 2 implica i ≤ m − 1 e isso e’ impossivel porque dim(U) = m. A parte ii) é clara.<br />

Vamos provar iii). Seja f(X) ∈ k[X]. Então f(T |U) = 0 End(U) se e somente se f(T )(u) = 0U.<br />

Portanto o polinônio minimo de T |U é o polinômio mônico h(X) de menor grau positivo tal que<br />

h(T )(u) = 0. Sendo {u, T (u), . . . , T m−1 (u)} uma base de V , o grau de h(X) é maior o igual a<br />

m. Sendo g(T )(u) = 0U, teremos que o grau de h(X) é exatamente m e que h(X) divide g(X);<br />

sendo os dois mônicos temos h(X) = g(X). <br />

Exercicios do capítulo<br />

(1) Mostrar que em geral para A(X), B(X) ∈ Mn×n(k[X]),<br />

grau(A(X) · B(X)) = grau(A(X)) + grau(B(X)).<br />

(2) Efetuar a divisão euclidiana à direita de A(X) por B(X) nos seguintes casos, escrevendo<br />

primeiramente as duas matrizes como polinômios matriciais.<br />

(a)<br />

(b)<br />

A(X) =<br />

<br />

X3 + 5X + 1 3X3 + X − 1<br />

A(X) =<br />

2X 3 + X 2 + 2 4X 3 + 2X + 2<br />

<br />

2X2 − 1 X2 B(X) =<br />

2X 2 + 2 X 2 + 2<br />

−3X −X<br />

3X 2 2X 2<br />

<br />

<br />

,<br />

<br />

<br />

X 2<br />

, B(X) =<br />

−2 X<br />

(3) No Exercício anterior, item (b), verifique que a divisão é exata (isto é, tem resto nulo)<br />

em um lado, mas não no outro.


(4) Dadas as matrizes<br />

P (X) =<br />

⎛<br />

EXERCICIOS DO CAPÍTULO 41<br />

⎝ 2X4 − X 2 + 2 −X 3 + X − 1 1 − X 2<br />

X 3 − X + 1 −X 4 + X 2 − 2 1 + X 2<br />

X 2 − 1 −X − 1X 4 + X 2 − 1<br />

⎛<br />

A = ⎝<br />

0 1 0<br />

0 0 1<br />

2 0 0<br />

determinar o valor PD(A) pelos dois métodos da divisão euclidiana e da substituição<br />

direta.<br />

⎞<br />

⎠ ,<br />

(5) Seja A ∈ Mn×n(R) tal que A 2 = −In×n.<br />

(a) Mostrar que n = 2r por algum inteiro r ≥ 1.<br />

(b) Mostrar que para cada v ∈ R n \ 0, temos<br />

dim(< A(v), v >) = 2.<br />

Deduzir que para n = 2, a matriz A é semelhante a<br />

0 −1<br />

1 0<br />

<br />

.<br />

(c) Mostrar que A é semelhante em Mn×n(R) a<br />

<br />

0 −Ir×r<br />

0<br />

Ir×r<br />

(d) Se substituirmos R por C a conclusão do ponto (i) continua verdadeira? Se não<br />

construir um contraexemplo.<br />

(6) Seja A ∈ Mm×n(Z). Mostrar que existem P ∈ Mm×m(Z) e Q ∈ Mn×n(Z) inversiveis<br />

tais que<br />

⎛<br />

d1 0 · · ·<br />

⎞<br />

0<br />

⎜<br />

P · A · Q = ⎜<br />

⎝<br />

0<br />

.<br />

d2<br />

0<br />

.<br />

. ..<br />

· · ·<br />

dr<br />

0<br />

.<br />

0<br />

.<br />

0<br />

0<br />

.<br />

· · ·<br />

· · ·<br />

· · ·<br />

0 ⎟<br />

. ⎟<br />

0 ⎟ ,<br />

⎟<br />

0 ⎟<br />

.<br />

⎠<br />

0 0 · · · 0 0 · · · 0<br />

onde r é o posto de A e onde, para todo 1 ≤ j ≤ r, dj ∈ Z é um inteiro positivo que<br />

divide dj+1 (com a convenção de que dr+1 = 0).<br />

<br />

.<br />

⎞<br />

⎠ ,


42 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

(7) Seja A ∈ M10×10(Q) a matriz seguinte.<br />

⎛<br />

−1<br />

⎜ 0<br />

⎜ 0<br />

⎜ 0<br />

⎜<br />

A = ⎜ 0<br />

⎜ 0<br />

⎜ 0<br />

⎜ 0<br />

⎝ 0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

3<br />

2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

3<br />

2<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

3<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

0<br />

⎞<br />

0<br />

0 ⎟<br />

0 ⎟<br />

0 ⎟<br />

0 ⎟<br />

0 ⎟ .<br />

⎟<br />

−9 ⎟<br />

−12 ⎟<br />

2 ⎠<br />

0 0 0 0 0 0 0 0 0 4<br />

(a) Encontrar c A (X) e m A (X).<br />

(b) Encontrar os fatores invariantes de XI − A (e a forma canonica racional de A).<br />

(8) Achar a forma normal de Smith de<br />

<br />

x2 x − 1<br />

A =<br />

x + 1 x2 (9) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre Q[X],<br />

pelo método das operações elementares:<br />

(a)<br />

(b)<br />

(c)<br />

(d)<br />

⎛<br />

⎝<br />

<br />

.<br />

X − 1 0 −1<br />

3 X − 2 0<br />

0 4 X + 7<br />

X X 2 − 1 X 3<br />

X 2 X − 1 X 2 + X − 1<br />

⎛<br />

⎝<br />

⎛<br />

⎝<br />

X 0 0<br />

0 X − 1 0<br />

0 0 X − 2<br />

X 0 0<br />

0 X 0<br />

0 0 X − 2<br />

(10) Verificar, justificando devidamente, quais das matrizes seguintes sobre C[X] estão na<br />

forma normal de Smith.<br />

(a) Uma matriz A ∈ Mm×n(C) na forma reduzida linha/coluna<br />

(b) Uma matriz diagonal A(X) ∈ Mn×n(C[X]) cuja diagonal principal é composta de<br />

polinômios mônicos em ordem estritamente crescente de graus.<br />

⎞<br />

⎠<br />

⎞<br />

⎠<br />

⎞<br />


EXERCICIOS DO CAPÍTULO 43<br />

(c) Uma matriz diagonal A(X) ∈ Mn×n(C[X]) da forma<br />

⎛<br />

⎞<br />

1 0 . . . 0 0<br />

⎜ 0 1 . . . 0 0 ⎟<br />

⎜<br />

⎟<br />

⎜ . . . . ⎟<br />

⎝ 0 0 . . . 1 0 ⎠<br />

0 0 . . . 0 f(X)<br />

com f(X) ∈ C[X] mônico.<br />

(d) Uma matriz diagonal A(X) ∈ Mn×n(C[X]) com o mesmo polinômio mônico repetido<br />

ao longo da diagonal principal.<br />

(11) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre R[X],<br />

pelo método dos subdeterminantes:<br />

(a)<br />

(b)<br />

⎛<br />

⎝<br />

f(X) 0<br />

0 g(X)<br />

0 1<br />

⎞<br />

⎠ e<br />

onde f(X), g(X) ∈ R[X] são mônicos.<br />

⎛<br />

f(X) 0 1<br />

0 g(X) 0<br />

⎝ 1 + 2X X3 + 4X 2 + X + 2 X 3 + 4X + 2<br />

0 X 2 + X X 2<br />

1 − 2X X 3 + 3X 2 − 3X − 1 X 3 − X 2 + 4X − 2<br />

(c) A matriz característica da matriz<br />

⎛<br />

0<br />

⎜ 1<br />

⎝ 0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

0<br />

−α0<br />

−α1<br />

−α2<br />

⎞<br />

⎟<br />

⎠<br />

0 0 1 −α3<br />

onde αi ∈ R.<br />

(12) Usando a teoria dos fatores invariantes da matriz carateristica associada, demonstrar<br />

os seguintes fatos:<br />

(a) uma matriz A ∈ Mn×n(k) é semelhante a A t ;<br />

(b) Sejam A, B ∈ M2×2(R) (resp. M2×2(C)). Então A e B são semelhantes se e só se<br />

m A (X) = m B (X).<br />

(c) Sejam A, B ∈ M3×3(R) (resp. M3×3(C)). Então A e B são semelhantes se e só se<br />

c A (X) = c B (X) e m A (X) = m B (X).<br />

(d) Construir duas matrizes A, B ∈ M3×3(R) não semelhantes e com m A (X) =<br />

m B (X).<br />

(e) Para cada n ≥ 4 construir exemplos de matrizes A, B ∈ Mn×n(R) não semelhantes<br />

e tais que c A (X) = c B (X) e m A (X) = m B (X).<br />

(13) Encontrar o polinômio minimo de<br />

⎛<br />

A = ⎝<br />

2 1 1<br />

2 3 2<br />

1 1 2<br />

calculando os fatores invarientes de XI − A.<br />

⎞<br />

⎠ ,<br />

<br />

⎞<br />


44 2. Mn×n(k[X]) E FATORES INVARIANTES<br />

(14) Seja<br />

⎛<br />

2<br />

⎜<br />

A = ⎜ 1<br />

⎝ 0<br />

−1<br />

0<br />

0<br />

1<br />

1<br />

1<br />

⎞<br />

−1<br />

−1 ⎟<br />

0 ⎠ ∈ M4×4(C).<br />

0 0 0 1<br />

Encontrar a forma canônica racional de A.<br />

(15) Mostrar que se por A ∈ Mn×n(k), temos m A (X) = c A (X), então A é semelhante a<br />

C(det(XI − A)) = C(c A (X)).


CAPíTULO 3<br />

Forma canônica de Jordan<br />

3.1. Forma canônica de Jordan para operadores nilpotentes<br />

Introduzimos a definição de operador nilpotênte e de matriz nilpotênte.<br />

3.1.1. Definição. (Operador e matriz nilpotênte) Seja T : V → V uma aplicação linear<br />

de V . O operador T se diz nilpotênte se existir um inteiro p ≥ 1 tal que<br />

T p = T ◦ · · · ◦ T<br />

= 0End(V ).<br />

p<br />

O menor inteiro r ≥ 1 com a propriedade que T r = 0V se diz índice de nilpotência de T .<br />

Uma matriz A ∈ Mn×n(k) se diz nilpotênte se existir p ≥ 1 tal que<br />

A p = A · · · A<br />

= 0<br />

p<br />

e o índice de nilpotência de A ó menor inteiro r ≥ 1 com a propriedade que A r = 0.<br />

Enunciamos algumas propriedades dos operadores nilpotentes que são consequencias diretas<br />

da definição.<br />

(i) Se r é o índice de nilpotência de T , então m T (X) = X r e o polinômio minimo de<br />

um operador nilpotênte é portanto completamente redutivel em k[X]. Claramente se<br />

n = dim(V ), c T (X) = X n .<br />

(ii) λ = 0 é o único auto-valor de uma aplicação linear nilpotente T .<br />

(iii) Se T : V → V é nilpotente, os auto-vetores de T são exatamente os elementos do núcleo<br />

ker (T ) (todos associados ao auto-valor único 0)<br />

Vamos considerar agora casos particulares dos resultados demonstrados anteriormente.<br />

3.1.2. Proposição. Seja T : V → V um operador nilpotente de índice de nilpotência r e<br />

seja U ⊆ V um subespaço T -ciclico de dimensão m ≥ 1.<br />

Então<br />

i) U tem uma base B da forma B = {u, T (u), . . . , T m−1 (u)}.<br />

ii)<br />

[T ] B ⎛<br />

⎞<br />

0 0 0 . . . 0<br />

⎜ 1 0 0 . . . 0 ⎟<br />

⎜<br />

B = ⎜ 0 1 0 . . . 0 ⎟ .<br />

⎜<br />

⎝<br />

.<br />

. . . ..<br />

⎟<br />

. ⎠<br />

0 0 0 1 0<br />

iii) O polinomio minimo de T |U é X m e m ≤ r.<br />

Demonstração. O polinômio minimo de T |U é da forma X l , 1 ≤ l ≤ r e as afirmações<br />

seguem por exemplo do Lema 2.8.2. <br />

45


46 3. FORMA CANÔNICA DE JORDAN<br />

Estamos agora na posição para mostrar o Teorema da forma canônica de Jordan para operadores<br />

nilpotentes. Precisamos só de uma definição. .<br />

3.1.3. Definição. (Bloco elementar de Jordan de tamanho n). Definimos como bloco<br />

elementar de Jordan de tamanho n a matriz Jn ∈ Mn×n(k) da forma<br />

⎛<br />

⎞<br />

0 0 0 . . . 0<br />

⎜ 1 0 0 . . . 0 ⎟<br />

⎜<br />

Jn = ⎜ 0 1 0 . . . 0 ⎟ .<br />

⎜<br />

⎝<br />

.<br />

. . . ..<br />

⎟<br />

. ⎠<br />

0 0 0 1 0<br />

3.1.4. Teorema. (Forma canônica de Jordan para operadores nilpotentes) Seja<br />

T : V → V uma aplicação linear nilpotente de índice de nilpotência r, i.e. mT (X) = Xr . Então<br />

i) V = U1 ⊕ U2 ⊕ . . . ⊕ Up com Ui subespaço T -ciclico.<br />

ii) O polinômio minimo da restrição de T a Ui é da forma Xri com r = r1 ≥ r2 ≥ . . . ≥ rp<br />

para cada i = 1, . . . , p, onde dim(Ui) = ri.<br />

iii) Existe uma base B de V tal que<br />

⎛<br />

⎞<br />

[T ] B B =<br />

⎜<br />

⎝<br />

Jr<br />

Jr2<br />

onde cada Jri é um bloco elementar de Jordan de tamanho ri, r = r1 ≥ . . . ≥ rp.<br />

iv) A forma da matriz no ponto iii) se diz forma canônica de Jordan de T e é unicamente<br />

determinada.<br />

Demonstração. Pelo teorema de decomposição ciclica sabemos che existem U1, . . . Up subespacos<br />

T -ciclicos tais que V = U1⊕U2⊕. . .⊕Up. Se dim(Ui) = ri, podemos supor r1 ≥ . . . ≥ rp.<br />

Sendo T nilpotênte podemos aplicar a Proposição 3.1.2 para deduzir que o polinômio minimo<br />

da restrição de T a Ui seja X ri . É claro que T r1 = 0V e que T r1−1 = 0V (se ui ó gerador de Ui,<br />

T r1 (ui) = 0V mas T r1−1 (u1) = 0V ). Portanto r1 = r.<br />

Sendo m T (X) = X r , aplicando o teorema de unicidade da decomposição T -ciclica, obtemos<br />

a demonstração do ponto iv), o ponto iii) sendo claro. <br />

3.1.5. Definição. (índices de nilpotência sucessivos de um operador nilpotênte)<br />

Os inteiros {r1, . . . , rp} se dizem índices de nilpotência sucessivos de T .<br />

3.1.6. Corolário. (Forma canônica de Jordan de matrizes nilpotentes) Seja A ∈<br />

Mn×n(k) uma matriz nilpotente de índice de nilpotência r. Então<br />

i) existe uma unica matriz semelhante a A, dita a forma canônica de Jordan de A, da<br />

forma ⎛<br />

⎞<br />

⎜<br />

⎝<br />

Jr<br />

Jr2<br />

. ..<br />

. ..<br />

onde cada Jri bloco elementar de Jordan de tamanho ri, com r = r1 ≥ . . . ≥ rp. Os<br />

interiro {r1, . . . , rp} se dizem índices de nilpotência sucessivos de A.<br />

Jrp<br />

Jrp<br />

⎟<br />

⎠ ,<br />

⎟<br />

⎠ ,


3.2. FORMA CANÔNICA DE JORDAN 47<br />

ii) Duas matrizes nilpotentes A, B ∈ Mn×n(k) são semelhantes se e só se têm a mesma<br />

forma canônica de Jordan se e só se têm os mesmos índices de nilpotência successivos.<br />

3.2. Forma canônica de Jordan para operadores com polinômio minimo<br />

completamente redutivel sobre k<br />

Nessa seção vamos estudar as aplicações lineares T : V → V por quais o polinômio minimo<br />

de T seja completamente redutivel em k[X], i.e. m T (X) = (X − λ1) e1 · · · (X − λr) er com<br />

λi ∈ k distintos, i = 1, . . . , r. Essa condição é satisfeita para qualquer T : V → V se por<br />

exemplo o corpo k é algebricamente fechado (e.g. k = C!). Observamos que temos c T (X) =<br />

(X − λ1) s1 · · · (X − λr) sr com si ≥ ei para cada i = 1, . . . , r.<br />

Nessa hipotese, aplicando o teorema de decomposição primária e o teorema da forma canônica<br />

de Jordan para operadores nilpotentes, vamos obter uma forma canônica para operadores quaisquer.<br />

Precisamos introduzir uma definição.<br />

3.2.1. Definição. (Bloco elementar de Jordan de tamanho n relativo ao autovalor<br />

λ ∈ k) Dados n ≥ 1 e λ ∈ k definimos o bloco elementar de Jordan de tamanho n relativo ao<br />

autovalor λ como a matriz J(λ)n ∈ Mn×n(k) da forma:<br />

⎛<br />

⎜<br />

J(λ)n = ⎜<br />

⎝<br />

λ 0 0 . . . 0<br />

1 λ 0 . . . 0<br />

0 1 λ . . . 0<br />

. . .<br />

. .. .<br />

0 0 0 1 λ<br />

Claramente J(0)n = Jn, i.e. os blocos elementares relativos ao autovalor 0 são os blocos<br />

elementares de Jordan.<br />

3.2.2. Teorema. (Forma canônica de Jordan) Seja T : V → V um operador tal que<br />

cT (X) = (X − λ1) s1 · · · (X − λr) sr , com λi ∈ k distintos, i = 1, . . . r, e seja mT (X) = (X −<br />

λ1) e1 · · · (X − λr) er , ei ≤ si, o polinômio minimo de T . Então<br />

i) V = V1 ⊕ . . . ⊕ Vr, onde Vi = ker ((T − λiIV ) ei ) e’ um subespaço T -invariante de<br />

dimensão si para cada i = 1, . . . , r.<br />

ii) Para cada i = 1, . . . , r, se Ti é a restrição de T a Vi, então Ti = λiIVi + Si com<br />

Si : Vi → Vi operador nilpotênte de índice de nilpotência ei.<br />

iii) Se ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi , i = 1, . . . , r, são os índices de nilpotência sucessivos de<br />

Si, então existe uma base B de V tal que<br />

⎛<br />

⎞<br />

[T ] B B =<br />

⎜<br />

⎝<br />

A1<br />

onde cada Ai ∈ Msi×si (k) tem a forma<br />

⎛<br />

J(λi)ei<br />

⎜<br />

Ai = ⎜<br />

⎝<br />

A2<br />

J(λi)ei,2<br />

. ..<br />

. ..<br />

Ar<br />

⎞<br />

⎟ .<br />

⎟<br />

⎠<br />

⎟<br />

⎠ ,<br />

J(λi)ei,p i<br />

⎞<br />

⎟<br />

⎠ .


48 3. FORMA CANÔNICA DE JORDAN<br />

iv) A forma da matriz no ponto iii) se diz forma canônica de Jordan de T e é unica modulo<br />

uma permutação dos blocos Ai.<br />

Demonstração. O teorema de decomposição primária, teorema 1.5.1, mostra que V =<br />

V1 ⊕ . . . ⊕ Vr (lembramos que cada Vi é claramente T -invariante), que dim(Vi) = si e que se<br />

Ti = T |Vi , então mTi (X) = (X − λi) ei . Seja Si : Vi → Vi o operador Ti − λiIVi . Por definição<br />

temos que Si é nilpotênte e que o índice de nilpotência dele é esatamente ei. Aplicando o<br />

Teorema da forma canônica de Jordan para operadores nilpotêntes a Si deduzimos a existencia<br />

de uma bade Bi de Vi tal que [Si] Bi seja composta de blocos elementares de Jordan de tamanhos<br />

Bi<br />

ei = ei,1, . . . , ei,pi , i = 1, . . . , r, onde ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi são os índices de nilpotência<br />

sucessivos de Si. Segue imediatamente que [Ti] Bi<br />

Bi = Ai. Tomando come base de V a base<br />

B obtidas como união das bases Bi por i = 1, . . . r, obtemos que [T ] B B<br />

é exatamente como<br />

especificado no ponto iii). A unicidade modulo permutações das Ai segue da unicidade da forma<br />

canônica de Jordan para operadores nilpotentes. <br />

Vamos fazer algumas observações e comentarios.<br />

(1) Características de Segre. Da interpretação matricial acima, deduzimos a seguinte<br />

tabela de números inteiros positivos<br />

λ1, s1, e1,1, e1,2, . . . , . . . , e1,p1<br />

λ2, s2, e2,1, e2,2, . . . , e1,p2 , 0<br />

.<br />

λr, sr, er,1, er,2, . . . , . . . , er,pr<br />

(cujas linhas têm comprimento diferentes, em geral). Estes inteiros são chamados características<br />

de Segre. Por hipótese, eles determinam completamente a forma canônica<br />

de Jordan, logo são invariantes da classe de semelhança das matrizes representativas de<br />

T . Se T for nilpotênte as características de Segre são a dimensão do espaço e os índices<br />

de nilpotência sucessivos.<br />

(2) Observemos as relações óbvias r j=1 sj = n e pj l=1 ej,l = sj (1 ≤ j ≤ r). A segunda<br />

relação mostra que, esencialmente, as características de Segre dependem só do<br />

polinômio minimo de T e das índices de nilpotência sucessivos de Si e não do polinômio<br />

característico.<br />

(3) Para cada j = 1, . . . , r, a multiplicidade de λj como raíz do polinômio mínimo mT (X)<br />

é a característica de Segre ej,1 (o primeiro, maior por hipótese).<br />

(4) A dimensão do auto-espaço Vλj = ker (T −λjI) associado ao auto-valor λj é ainda dado<br />

por dim(ker (Tj − λjI)) = sj − rank (Tj − λjI) = sj − ( pj l=1 (ej,l − 1)) = −(−pj) = pj.<br />

Assim, há um total de pj auto-vetores linearmente independentes associados a λj,<br />

portanto um para cada sub-bloco elementar de Jordan daquele auto-valor.<br />

Embora a segunda observação mostre que não todas as características de Segre sejam necessarias<br />

para determinar a classe de semelhanca de uma matriz (podemos por exemplo eliminar<br />

a segunda coluna de inteiros na matriz que define as características de Segre), enunciamos o<br />

seguinte corolario nessa forma.<br />

3.2.3. Corolário. (Forma canônica de Jordan de matrizes) Seja A ∈ Mn×n(k) uma<br />

matriz com polinômio minimo completamente redutivel em k[X]. Então


EXERCISIOS DO CAPÍTULO 49<br />

i) existe uma matriz semelhante a A, dita a forma canônica de Jordan de A, da forma<br />

⎛<br />

⎞<br />

⎜<br />

⎝<br />

A1<br />

A2<br />

onde cada Ai ∈ Msi×si (k) tem a forma<br />

⎛<br />

J(λi)ei<br />

⎜<br />

Ai = ⎜<br />

⎝<br />

. ..<br />

J(λi)ei,2<br />

Ar<br />

. ..<br />

⎟<br />

⎠ ,<br />

J(λi)ei,p i<br />

com ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi , i = 1, . . . , r.<br />

ii) A forma canônica de Jordan de A única modulo permutações dos blocos Ai.<br />

iii) Duas matrizes A, B ∈ Mn×n(k) com polinômios minimos completamente redutiveis em<br />

k[X] são semelhantes se e só se têm a mesma forma canônica de Jordan se e só se têm<br />

as mesmas características de Segre.<br />

Exercisios do capítulo<br />

⎞<br />

⎟<br />

⎠ ,

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!