ALGEBRA LINEAR Francesco Russo e Aron Simis - Portale Posta DMI
ALGEBRA LINEAR Francesco Russo e Aron Simis - Portale Posta DMI
ALGEBRA LINEAR Francesco Russo e Aron Simis - Portale Posta DMI
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
ÁLGEBRA <strong>LINEAR</strong><br />
<strong>Francesco</strong> <strong>Russo</strong> e <strong>Aron</strong> <strong>Simis</strong>
Conteúdo<br />
Capítulo 1. Preliminares de uma aplicação linear 1<br />
1.1. Polinômio característico e polinômio minimo 1<br />
1.2. Autovalores e autovetores 3<br />
1.3. Diagonalização e triangulação de uma aplicação linear 4<br />
1.4. Subespaços invariantes de uma aplicação linear 7<br />
1.5. Decomposição T -primária de um espaço vetorial 8<br />
Exercicios de revisão e referentes ao capítulo 10<br />
Capítulo 2. A teoria dos fatores invariantes e dos divisores elementares 17<br />
2.1. Matrizes com elementos polinomiais 17<br />
2.2. Escalonamento de matrizes com elementos polinomiais 23<br />
2.3. Forma canônica de Smith 26<br />
2.4. Equivalencia em Mn×n(k[X]) e semelhnanca em Mn×n(k) 30<br />
2.5. Forma canônica racional 31<br />
2.6. Fatores invariantes e divisores elementares 33<br />
2.7. Teoremas de decomposição T -ciclica I e T -primaria II 35<br />
2.8. Teorema de decomposição T –ciclica II 37<br />
Exercicios do capítulo 40<br />
Capítulo 3. Forma canônica de Jordan 45<br />
3.1. Forma canônica de Jordan para operadores nilpotentes 45<br />
3.2. Forma canônica de Jordan para operadores com polinômio minimo completamente<br />
redutivel sobre k 47<br />
Exercisios do capítulo 49<br />
iii
CAPíTULO 1<br />
Preliminares de uma aplicação linear<br />
1.1. Polinômio característico e polinômio minimo<br />
Seja K um corpo arbitrário, fixo de uma vez por todas, a menos de afirmação em contrário.<br />
Seja V um K-espaço vetorial de dimensão finita. Denotaremos por End(V ) o conjunto das<br />
aplicações lineares de V em V e observamos que End(V ), além de admitir uma estrutura de<br />
K-espaço vetorial (com dim End(V ) = (dim V ) 2 ), admite uma outra operação natural, a de<br />
composição de aplicações , que lhe confere estrutura de anel (não comutativo). Nesta seção<br />
estudaremos as propriedades preliminares de uma aplicação linear T ∈ End(V ). Indicaremos<br />
por IV ∈ End(V ) a aplicação linear identidade, assim como I ∈ Mn×n(K) denotara a matriz<br />
identidade In×n.<br />
Seja T ∈ End(V ). Dado p(t) = a0 + a1t + . . . + art r ∈ K[t], definimos<br />
como a aplicação linear cuja imagem em v é<br />
p(T ) := a0IV + a1T + . . . + arT r ∈ End(V )<br />
p(T )(v) := a0v + a1T (v) + . . . + arT r (v) ∈ V.<br />
Com essa notação podemos definir um homorfismo de aneis comutativos φT : K[t] → K[T ],<br />
dado por<br />
φT (p(t)) = p(T ) ∈ End(V ),<br />
onde K[T ] designa a K-subálgebra do anel End(V ) gerada por T ∈ End(V ). Neste mesmo<br />
espírito, definimos uma operação • T : K[t] × V → V de K[t] em V , dada por<br />
V .<br />
p(t) • T v = p(T )(v) ∈ V.<br />
A operação • T induz uma estrutura de K[t]-modulo finitamente gerado no K-espaço vetorial<br />
Analogamente, se A ∈ Mn×n(K), definimos<br />
e a operação<br />
como<br />
p(A) = a0I + a1A + . . . + arA r ∈ Mn×n(K)<br />
•A : K[t] × K ⊕n → K ⊕n<br />
p(t) •A v = p(A)(v) ∈ K ⊕n ,<br />
onde p(A)(v) designa o produto da matriz p(A) pelo vetor coluna v.<br />
Dada A(t) = (ai,j(t)) ∈ Mn×n(K[t]) e dados v1, . . . , vn ∈ V , definimos<br />
⎛ ⎞ ⎛ ⎞ ⎛ n v1<br />
v1<br />
j=1<br />
⎜ ⎟ ⎜ ⎟ ⎜<br />
A(t) •T ⎝ . ⎠ = A(T ) ⎝ . ⎠ = ⎝<br />
vn<br />
vn<br />
a1,j(T )(vj)<br />
<br />
.<br />
n<br />
j=1 an,j(T<br />
⎞<br />
⎟<br />
⎠ .<br />
)(vj)<br />
1
2 1. POLINÔMIO MINIMO E CARATERISTICO<br />
1.1.1. Definição. (Polinômio carateristico e polinômio minimo) Seja T ∈ End(V ) e<br />
seja B = {v1, . . . , vn} uma base de V . O polinômio carateristico de T é<br />
c T (t) := det(tI − [T ] B B) ∈ K[t].<br />
O polinômio minimo de T , indicado com m T (t) é o gerador monico do ideal ker (φT ) ⊆ K[t],<br />
i. e. é o polinômio monico de menor grau p(t) ∈ K[t] com a propriedade que p(T ) = 0 End(V ).<br />
Se A ∈ Mn×n(K), definimos o polinômio carateristico de A como<br />
c A (t) = det(tI − A) ∈ K[t]<br />
e o polinômio minimo de A, m A (t), como o gerador mônico de ker (φA).<br />
Por definição de matriz associada a uma aplicação linear com respeito a uma base B, temos<br />
= A = [ai,j],<br />
n<br />
T (vj) = ai,jvi.<br />
que, se [T ] B B<br />
i=1<br />
Se B ∈ Mn×n(K) é uma matriz inversível, então<br />
det(tI − B −1 AB) = det(B −1 (tI − A)B) = det(tI − A)<br />
para qualquer matriz A ∈ Mn×n(K). Portanto o polinômio caraterestico de T é bem definido,<br />
não dependendo da escolha da base B utilizada na sua definição. c T (t) é um polinômio monico<br />
de grau n = dim(V ). Observamos que<br />
det(tI − A) = det((tI − A) t ) = det(tI − A t ).<br />
Se C(t) = tI − At ∈ Mn×n(K[t]), temos<br />
(1.1.1)<br />
⎛<br />
v1<br />
⎜<br />
C(t) •T ⎝ .<br />
vn<br />
⎞ ⎛<br />
T (v1) −<br />
⎟ ⎜<br />
⎠ = ⎝<br />
n i=1 ai,1(vi)<br />
.<br />
T (vn) − n i=1 ai,n(vi)<br />
⎞ ⎛<br />
⎟ ⎜<br />
⎠ = ⎝<br />
0V<br />
.<br />
0V<br />
⎞<br />
⎟<br />
⎠ .<br />
Se ad(C(t)) ∈ Mn×n(K[t]) é a matriz adjunta de C(t) ∈ Mn×n(K[t]), temos<br />
(1.1.2) ad(C(t)) · C(t) = C(t) · ad(C(t)) = det(tI − A t ) · I = c T (t) · I.<br />
Podemos agora demonstrar um resultado clássico importante.<br />
1.1.2. Teorema. (Cayley-Hamilton) Seja T ∈ End(V ). Então<br />
i. e. T anula o proprio polinômio carateristico.<br />
Analogamente, se A ∈ Mn×n(K), então<br />
c T (T ) = 0 End(V ),<br />
c A (A) = 0 Mn×n(K).
1.2. DEFINIÇÕES 3<br />
Demonstração. Seja B = {v1, . . . , vn} uma base de V . De (1.1.2) e de (1.1.1), deduzimos<br />
⎛<br />
c<br />
⎜<br />
⎝<br />
T (T )(v1)<br />
.<br />
cT ⎞<br />
⎟<br />
⎠ = (c<br />
(T )(vn)<br />
T ⎛ ⎞<br />
⎛ ⎛ ⎞⎞<br />
v1<br />
v1<br />
⎜ ⎟<br />
⎜ ⎜ ⎟⎟<br />
(t) · I) •T ⎝ . ⎠ = ad(C(t)) •T ⎝C(t) •T ⎝ . ⎠⎠<br />
=<br />
vn<br />
⎛ ⎞ ⎛ ⎞<br />
vn<br />
= ad(C(t)) •T<br />
⎜<br />
⎝<br />
0V<br />
.<br />
0V<br />
⎟ ⎜<br />
⎠ = ⎝<br />
Portanto a aplicação linear c T (T ) é a aplicação nula porque se anula sobre uma base de V .<br />
<br />
1.1.3. Corolário. Seja T ∈ End(V ). O polinômio minimo de T divide o polinômio carateristico<br />
de T .<br />
0V<br />
.<br />
0V<br />
⎟<br />
⎠ .<br />
1.2. Autovalores e autovetores<br />
Nesta seção introduziremos as primeiras noções de subespaços invariantes, através dos autovalores<br />
de uma aplicação linear.<br />
1.2.1. Definição. (Autovalor e autovetor de un aplicação linear) Seja T ∈ End(V ).<br />
Um autovetor de T é um vetor v ∈ V \ 0V tal que existe λ ∈ K com a propriedade que<br />
T (v) = λv.<br />
O elemento λ ∈ K se diz autovalor de T e v se diz autovetor relativo ao autovalor λ.<br />
Analogamente, se A ∈ Mn×n(K), um vetor não nulo v ∈ K ⊕n se diz autovetor da matriz A<br />
se existir λ ∈ K tal que<br />
A · v = λv.<br />
O elemento λ ∈ K se diz nesse caso autovalor de A.<br />
Indicamos com Vλ, λ ∈ K, o seguinte subespaço de V<br />
Vλ = ker (λIV − T ).<br />
Esse subespaço vetorial de V , chamado de autoespaço de T relativo a λ ∈ K.<br />
Observamos que λ ∈ K é autovalor se e somente se Vλ = 0V . A relação entre os autovalores<br />
de T ∈ End(V ) (ou de A ∈ Mn×n(K)) e o polinômio caraterístico de T é exprimida pelo seguinte<br />
resultado.<br />
1.2.2. Teorema. Os autovalores de T ∈ End(V ) (ou de A ∈ Mn×n(K)) são precisamene as<br />
raizes em K de c T (t) (respectivamente de c A (t)), que coincidem com as raizes em k de m T (t)<br />
(respectivamente de m A (t)).<br />
Em particular se n = dim(V ), então T tem no maximo n autovalores distintos.<br />
Demonstração. Seja B = {v1, . . . , vn} uma base de V e seja [T ] B B a matriz de T em relação<br />
à base B. O aplicação linear λIV − T tem núcleo não trivial se e somente se det([λIV − T ] B B ) = 0<br />
se e somente se cT (λ) = 0.<br />
Seja agora λ ∈ k um autovalor e seja v ∈ Vλ \ 0V . Temos<br />
0V = m T (T )(v) = m T (λ) · v.<br />
Sendo v = 0V , temos m T (λ) = 0, i. e. qualquer raiz de c T (t) em k é raiz de m T (t). Sendo que<br />
m T (t) divide c T (t), qualquer raiz de m T (t) em k é raiz de c T (t).
4 1. POLINÔMIO MINIMO E CARATERISTICO<br />
1.2.3. Teorema. Sejam λ1, . . . , λm autovalores distintos de uma aplicação linear T ∈ End(V )<br />
e sejam wj ∈ Vλj \ 0V , j = 1, . . . , m, então w1, . . . , wm são linearmente independentes sobre K.<br />
Em particular a soma dos subespaços Vλ1 , . . . , Vλm é direta.<br />
Demonstração. Seja pj(t) = <br />
i=j (t − λi). Por definição tem-se:<br />
<br />
pj(T )(wk) = i=j (λj − λi)wj se k = j<br />
0V<br />
se k = j<br />
Seja<br />
a1w1 + . . . + amwm = 0V<br />
com ai ∈ k. Temos que para cada j = 1, . . . , m<br />
m<br />
n<br />
<br />
0V = pj(T )(0V ) = pj(T )( aiwi) = aipj(T )(wi) = aj (λj − λi)wj.<br />
i=1<br />
Portanto aj = 0 para cada j = 1, . . . , m. <br />
1.2.4. Definição. (Multiplicidade algébrica e geométrica de um autovalor)<br />
Seja c T (t) o polinômio caraterístico de T ∈ End(V ) e seja λ ∈ K um autolavor de T . Se<br />
c T (t) = (t − λ) µ q(t) com q(t) ∈ K[t] e com q(λ) = 0, dizemos que µ é a multiplicidade algébrica<br />
de λ.<br />
A multiplicidade geométrica do autovalor λ ∈ K de T é a dimensão do autoespaço Vλ relativo<br />
ao autovalor λ.<br />
1.3. Diagonalização e triangulação de uma aplicação linear<br />
1.3.1. Definição. (Endomorfismo diagonalizavel ou triangularizavel) Uma aplicação<br />
linear T ∈ EndK(V ) é diagonalizável sobre K se existe uma base B = {v1, . . . , vn} de V tal que<br />
[T ] B B seja uma matriz diagonal. Equivalentemente, T é diagonalizável sobre K se e somente se<br />
existe uma base do K-espaço V formada por autovetores de T .<br />
Dizemos que T é triangularizavel superiormente (respectivamente, inferiormente) sobre K<br />
se existe uma base B = {v1, . . . , vn} de V tal que [T ] B B seja uma matriz triangular superior<br />
(respectivamente, triangular inferior).<br />
Correspondentemente, uma matriz A ∈ Mn×n(K) se diz diagonalizável (triangularizavel<br />
superiormente ou inferiormente) sobre K se existe P ∈ Mn×n(K) inversível tal que P −1 · A · P<br />
seja diagonal (triangular superior, respectivamente, triangular inferior).<br />
Sempre que não se prestar a confusão, omitiremos o complemento “sobre K”.<br />
O Teorema 1.2.3 tem o seguinte corolário, cuja demonstração é imediata.<br />
1.3.2. Corolário. Se T ∈ End(V ) admite n autovalores distintos, onde n = dim(V ), então<br />
T é diagonalizavel.<br />
i=1<br />
Em geral, uma aplicação linear não é diagonalizavel como mostram os seguinte exemplos.<br />
1.3.3. Exemplo. Seja<br />
e seja TA : K 2 → K 2 definido por<br />
A =<br />
<br />
x<br />
TA(<br />
y<br />
0 1<br />
0 0<br />
<br />
<br />
x<br />
) = A ·<br />
y<br />
<br />
.<br />
i=j
1.3. DEFINIÇÕES 5<br />
Então c TA(t) = t 2 , o único autovalor é 0 e V0 = ker (T ) é um subespaço de dimensão 1.<br />
Portanto não existe uma base de K 2 formada por autovetores de T . O aplicação linear TA é<br />
claramente triagularizavel superiormente. Temos m TA(t) = t 2 .<br />
Observemos que T não é diagonalizavel sobre K, qualquer que seja o corpo K. O exemplo<br />
seguinte mostra que, em geral, a diagonalizabilidade depende do corpo K.<br />
Seja Tθ : R2 → R2 a aplicação linear definida por<br />
<br />
x cos(θ) sin(θ)<br />
Tθ( ) =<br />
y − sin(θ) cos(θ)<br />
<br />
x<br />
·<br />
y<br />
com θ ∈ [0, 2π). Se θ = 0, π, então c Tθ(t) não tem raizes reais. A aplicação linear Tθ não é<br />
sequer triangularizavel sobre R para esses valores de θ - mas o é sobre C.<br />
Esses exemplos simples põem em evidência a necessidade de critérios mediante os quais<br />
uma aplicação linear seja diagonaliável ou triangularizavel. O próximo resultado fornece um tal<br />
critério de triangularização .<br />
1.3.4. Teorema. As seguintes condições são equivalentes para T ∈ End(V ):<br />
(1) T triangularizavel superiormente (ou inferiormente);<br />
(2) c T (t) é completamente fatorável sobre K.<br />
Demonstração. Suponhamos triangularizavel superiormente (logo, inferiormente também<br />
- porque?). Consideremos uma base B de V tal que A = [T ] B B seja triangular. É imediato ver<br />
que tI − [T ] B B é triangular, logo cT (t) = m j=1 (t − ai,i). Portanto, cT é completamente fatorável<br />
sobre K.<br />
Reciprocamente, suponhamos que cT (t) = m j=1 (t − λj) µj com λj ∈ K µ1 + . . . + µm = n.<br />
Seja 0 = v1 ∈ Vλ1 e completemos este vetor a uma base B de V . Temos:<br />
[T ] B <br />
<br />
λ1 A1<br />
B =<br />
,<br />
0 (n−1)×1 A2<br />
com A1 ∈ M 1×(n−1)(K) e A2 ∈ M (n−1)×(n−1)(K).<br />
Calculando o polinômio carateristico de T , temos<br />
c T (t) = det(tI − [T ] B B) = (t − λ1) det(tI (n−1)×(n−1) − A2) = (t − λ) · c A2 (t).<br />
Segue que A2 ∈ M (n−1)×(n−1)(K) tem polinômio carateristico completamente sobre K. Procedendo<br />
por indução sobre n = dim(V ), existe uma matriz invertível P2 ∈ M (n−1)×(n−1)(K) tal<br />
que P −1<br />
2 A2 P2 seja triangular superior. Pondo<br />
segue facilmente que<br />
<br />
P =<br />
P −1 · [T ] B <br />
B · P =<br />
1 0 1×(n−1)<br />
0 (n−1)×1<br />
λ1<br />
P2<br />
<br />
.,<br />
A3<br />
0 (n−1)×1 P −1<br />
2 · A2 · P2<br />
como queríamos. <br />
Como vimos anteriormente a obstrução para a diagonalização de T ∈ End(V ) reside na<br />
possibilidade que existam um numero insuficiente de autovetores para formar uma base de V . A<br />
dimensão de um autoespaço é limitada superiormente pela multiplicidade algébrica do autovalor.<br />
<br />
,<br />
<br />
,
6 1. POLINÔMIO MINIMO E CARATERISTICO<br />
1.3.5. Proposição. Seja T ∈ End(V ) e sejam λi ∈ K os autovalores de T de multiplicidade<br />
µi ≥ 1, i = 1, . . . , m. Então<br />
e<br />
1 ≤ dim(Vλi ) ≤ µi<br />
dim(Vλ1 ⊕ . . . ⊕ Vλm ) ≤<br />
m<br />
µi.<br />
Demonstração. Seja {v1, . . . , vri } uma base de Vλi que completamos a uma base B =<br />
{v1, . . . , vn} de V . Temos<br />
[T ] B B =<br />
λi · Iri×ri A1<br />
0 (n−ri)×ri A2<br />
com A1 ∈ M ri×(n−ri)(K) e A2 ∈ M (n−ri)×(n−ri)(K).<br />
Calculando o polinômio carateristico de T , temos<br />
i=1<br />
<br />
,<br />
c T (t) = det(tI − [T ] B B) = (t − λi) ri det(tI(n−ri)×(n−ri) − A2),<br />
que implica µi ≥ ri. <br />
1.3.6. Teorema. Seja T ∈ End(V ) e seja n = dim(V ). As seguintes condições são equivalentes:<br />
(1) T diagonalizavel;<br />
(2) (a) cT (t) = m j=1 (t − λj) µj com µ1 + . . . + µm = n = dim(V ), onde os elementos λj<br />
são distintos;<br />
(b) dim(Vλj ) = µj para cada j = 1, . . . , m;<br />
(3) V = Vλ1 ⊕ . . . ⊕ Vλm .<br />
Portanto se T ∈ End(V ) é diagonalizavel, mT (t) = m j=1 (t − λj)<br />
Demonstração. Se T é diagonalizavel, pelo Teorema 1.3.4, o polinômio carateristico é<br />
da forma especificada em a). Sendo diagonalizavel e lembrando a Proposição 1.2.3 temos que<br />
⊕ . . . ⊕ Vλm = V . Deduzimos portanto, via Proposição 1.3.5<br />
Vλ1<br />
n = dim(V ) = dim(Vλ1 ⊕ . . . ⊕ Vλm ) ≤<br />
m<br />
µi = n.<br />
Sendo dim(Vλi ) ≤ µi temos necessariamente a igualdade.<br />
Se valem as condições a) e b), temos dim(Vλ1 ⊕ . . . ⊕ Vλm ) = m i=1 µi = n e portanto<br />
V = Vλ1 ⊕ . . . ⊕ Vλm . Essa ultima condição implica em que T seja diagonalizavel.<br />
Escolhendo uma base B de V formada por autovetores de T , temos que a matriz [T ] B B é<br />
diagonal, de onde se deduz mT (t) = m j=1 (t − λj). <br />
Observemos que a fatoração de m T (t) acima é caso particular de uma fatoração mais geral<br />
(Proposição 1.4.3). Além disso, a recíproca da última afirmação do teorema acima é válida<br />
(Teorema 1.5.1).<br />
i=1
1.4. DEFINIÇÕES 7<br />
1.4. Subespaços invariantes de uma aplicação linear<br />
Quando T é diagonalizavel, cT (t) = m j=1 (t − λj) µj com µ1 + . . . + µm = n = dim(V ) e<br />
mT (t) = m j=1 (t − λj). Isso representa de alguma forma o caso ideal. Uma maneira de ler o<br />
resultado anterior que permite uma generalização é a seguinte: os autoespaços são construidos<br />
como ker (T − λIV ) e no caso diagonalizavel fornecem uma decomposição de V em soma direta<br />
de autoespaços. Essa resultado vai ser generalizado a um T ∈ End(V ) qualquer na proxima<br />
seção. Antes são necessarias algumas definições e observações gerais que generalizam a noção de<br />
autoespaço para expressões polinomiais de T mais gerais que as da forma T − λIV .<br />
1.4.1. Definição. (Subespaço T –invariante) Seja T ∈ End(V ) e seja U ⊆ V um subespaço.<br />
O subespaço U se diz T -invariante se T (U) ⊆ U.<br />
Quando temos um subespaço T –invariante, podemos definir<br />
T |U : U → U<br />
e claramente T ∈ End(U). Vamos ver como produzir subespaços T -invariantes via polinômios.<br />
1.4.2. Exemplo. Seja T ∈ End(V ), seja q(t) ∈ K[t] e seja q(T ) : V → V a aplicação linear<br />
associada. Se U := ker (q(T )), então U e’ subespaço T -invariante.<br />
Temos T ◦ q(T ) = q(T ) ◦ T e portanto, se u ∈ U,<br />
0V = T (0V ) = T (q(T )(u)) = q(T )(T (u)),<br />
i. e. T (u) ∈ U.<br />
Em particular se λ ∈ K, temos que a noção de autoespaço é obtida considerando os polinômios<br />
qλ(t) = t − λ.<br />
Poder decompor V em subespaços T -invariantes, permite semplificar o problema do ponto<br />
de vista computacional, como mostraremos na proxima proposição. A existencia de uma decomposição<br />
de V em subespaços T –invariantes vai ser tratada na seção 1.5.<br />
1.4.3. Proposição. Seja T ∈ End(V ) e seja V = U1 ⊕ . . . ⊕ Ur com Ui subespaços T –<br />
invariantes. Se Ti = T |Ui : Ui → Ui, temos :<br />
c T r<br />
(t) = c Ti (t)<br />
e<br />
i=1<br />
m T (t) = m. c. m.{m T1 (t), . . . , m Tr (t)}.<br />
Demonstração. Sejam Bi bases de Ui e seja B = {v1, . . . , vn} = B1 ∪ . . . ∪ Br. Sendo os<br />
Ui subespaços T –invariantes, temos<br />
⎛<br />
⎞<br />
onde Ai = [Ti] Bi<br />
Bi<br />
[T ] B B<br />
⎜<br />
⎝<br />
A1<br />
A2<br />
. ..<br />
Ar<br />
e o restante da matriz é composto por zeros. Calculando segue imediatamente<br />
que c T (t) = r<br />
i=1 cTi (t). Por definição temos que m T (T ) = 0End(V ). Portanto m T (Ti) = 0 End(Ui)<br />
para cada i, i. e. m Ti (t) divide m T (t) e portanto m. c. m.{m T1 (t), . . . , m Tr (t)} divide m T (t).<br />
⎟<br />
⎠ ,
8 1. POLINÔMIO MINIMO E CARATERISTICO<br />
Reciprocamente, seja p(t) ∈ K[t] divisível por cada um dos polinômios m T1 (t), . . . , m Tr (t). Afirmamos<br />
que p(T ) = 0 End(V ), do que segue, em particular, que m. c. m.{m T1 (t), . . . , m Tr (t)}(T ) =<br />
0 End(V ) e, portanto, que m T (t) divide m. c. m.{m T1 (t), . . . , m Tr (t)}. Ora, seja v ∈ V , com<br />
v = u1 + · · · + ur, ui ∈ Ui; escrevendo p(t) = qi(t)m Ti (t), i = 1, . . . , r, tem-se:<br />
p(T )(v) = p(T )(u1 + · · · + ur) = p(T )(u1) + · · · + p(T )(ur)<br />
= (q1 m T1 )(T )(u1) + · · · + (qr m Tr )(T )(ur)<br />
= (q1 m T1 (T ))(u1) + · · · + (qr m Tr (T ))(ur)<br />
= q1(m T1 (T (u1)) + · · · + qr(m Tr (T (ur))<br />
= q1(m T1 (T1))(u1) + · · · + qr(m Tr (Tr))(ur)<br />
= q1(0 End(U1))(u1) + · · · + qr(0 End(Ur))(ur)<br />
logo p(T ) = 0 End(V ), como queríamos. <br />
1.5. Decomposição T -primária de um espaço vetorial<br />
Vamos provar um resultado importante que mostra como a partir da fatorização do polinômio<br />
carateristico (ou minimo) de uma aplicação linear T : V → V em fatores ”primarios”seja<br />
possivel construir uma decomposição de V em subespacos T −invariantes tais que a restrição<br />
de T a esses subespaços tenha como polinômio carateristico (respectivamente minimo) o fator<br />
”primário”correspondente.<br />
1.5.1. Teorema. (Teorema de decomposição primaria) Seja T ∈ End(V ) e seja<br />
m T (t) = q1(t) e1 · · · qr(t) er<br />
o polinômio minimo de T , onde cada qi(t) é um polinômio mônico irredutivel, 1 ≤ ei para cada<br />
i = 1, . . . , r e os qi(t) ∈ K[t] são distintos. Então<br />
(1) V é soma direta de subespaços T -invariantes; precisamente,<br />
(2)<br />
V = ker (q1(T ) e1 ) ⊕ · · · ⊕ ker (qr(T ) er );<br />
c T (t) = q1(t) l1 · · · qr(t) lr ,<br />
com 1 ≤ ei ≤ li para cada i = 1, . . . , r;<br />
(3) ker (qi(T ) ei ) = ker (qi(T ) li ) para cada i = 1, . . . , r;<br />
(4) dim(ker (qi(T ) ei )) = li · grau(qi);<br />
(5) O polinômio minimo (respectivamente, carateristico) da restrição de T a ker (qi(T ) ei )<br />
é qi(t) ei (respectivamente, qi(t) li ).<br />
Demonstração. (1) Já observamos que os subespaços ker (qi(T ) ei ) são T -invariantes. Provemos,<br />
primeiramente, que V = ker (q1(T ) e1 ) + . . . + ker (qr(T ) er ). Para tal, provaremos que:<br />
• Im(hi(T )) ⊆ ker (qi(T ) ei ) para i = 1, . . . , r, onde hi(t) = <br />
j=i qj(t) ej ;<br />
• V = Im(h1(T )) + . . . + Im(hr(T )).<br />
A primeira afirmativa é bastante evidente, uma vez que qi(t) ei hi(t) = m T (t), logo qi(T ) ei se<br />
anula nos elementos da imagem de hi(T ).<br />
Para provar a segunda afirmativa, observemos que o máximo divisor comum dos polinômios<br />
é 1, logo existe uma relação h1(t)g1(t) + . . . + hr(t)gr(t) = 1, onde g1(t), . . . , gr(t) ∈ K[t] são<br />
polinômios convenientes. Substituindo t ↦→ T e aplicando em um v ∈ V arbitrário, obtemos<br />
v = IV (v) = h1(T )(g1(T )(v)) + · · · + hr(T )(gr(T )(v)),
1.5. DECOMPOSIÇÃO PRIMARIA 9<br />
isto é, V ⊂ Im(h1(T )) + · · · + Im(hr(T )), como se queria.<br />
O polinômio mT (t) não divide hi(t) e portanto hi(T ) = 0End(V ), i.e. existe v ∈ V \ 0V tal<br />
que hi(T )(v) = 0.<br />
Mostremos agora que a soma Im(h1(T )) + . . . + Im(hr(T )) é direta, isto é, que, para todo<br />
i = 1, . . . , r, tem-se<br />
ker (qi(T ) ei<br />
<br />
) ∩ ( ker (qj(T ) ej )).<br />
j=i<br />
Seja então v ∈ ker (qi(T ) ei ) ∩ ( <br />
j=i ker (qj(T ) ej )). Para cada i, os polinômios qi(t) ei e hi(t) são<br />
relativamente primos, logo existem ai(t), bi(t) ∈ K[t] tais que ai(t)qi(t) ei + bi(t)hi(t) = 1. Como<br />
antes, obtemos<br />
v = IV (v) = a(T )(qi(T ) ei (v)) + b(T )(hi(T )(v)) = 0V + 0V = 0V .<br />
(2) Aplicando o mesmo argumentos da parte (1) aos fatores de c T (t) (em vez de m T (t)),<br />
obtém-se analogamente V = ker (q1(T ) l1 )⊕· · ·⊕ker (qk(T ) lk). Como as inclusões ker (qi(T ) ei ) ⊆<br />
ker (qi(T ) li ) são imediatas, uma vez que ei ≤ li, comparando as dimensões obtemos ker (qi(T ) ei ) =<br />
ker (qi(T ) li ) para todo i = 1, . . . , r.<br />
(3) e (4) Seja agora Ti a restrição de T a Ui = ker (qi(T ) ei ). Como a restrição comuta com<br />
somas e produtos, tem-se qi(Ti) ei = 0End(Ui) e, portanto, qi(t) é o único fator irredutivel de<br />
mTi (t), i.e. mTi(t) = qi(t) αi com 1 ≤ αi; isso implica em cTi (X) = qi(X) βi , βi ≥ αi ≥ 1. A<br />
dimensão de ker (qi(T ) ei ) é portanto βi · grau(qi(t). Vamos mostrar que βi = li e que αi = ei.<br />
Isso segue das relações<br />
r<br />
qi(t) li<br />
r<br />
T<br />
= c (t) = c Ti<br />
r<br />
(t) = qi(t) βi ,<br />
i=1<br />
r<br />
qi(t) ei T<br />
= m (t) =<br />
i=1<br />
i=1<br />
r<br />
m Ti (t) =<br />
i=1<br />
i=1<br />
r<br />
qi(t) αi ,<br />
onde as igualdades do meio foram provadas na Proposição 1.4.3. <br />
Como consequência obtemos uma primeira formulação da venerável decomposição de Jordan.<br />
1.5.2. Corolário. Seja T ∈ End(V ). Suponhamos que c T (t) se fatora completamente sobre<br />
K, digamos, c T (t) = (t − λ1) l1 · · · (t − λr) lr e m T (t) = (t − λ1) e1 · · · (t − λr) er . Então existe uma<br />
decomposição direta T -invariante V = V1 ⊕ · · · ⊕ Vr tal que:<br />
(i) Vi = ker ((T − λi) ei );<br />
(ii) dim Vi = li, para 1 ≤ i ≤ r;<br />
(iii) A restrição T |Vi tem polinômio mínimo (t−λI) ei e é da forma λiI+Si, onde Si : Vi → Vi<br />
é nilpotente de índice ei.<br />
Demonstração. O único item que requer algum comentário é (iii). Novamente, usamos<br />
que a restrição comuta com somas e produtos, logo, pondo Ti = T |Vi e denotando por Ii a matriz<br />
identidade de ordem li, tem-se que (Ti − λiIi) ei = 0. Logo Si := Ti − λiIi é nilpotente de índice<br />
no máximo ei Por outro lado, mTi (t) = (t − λi) ei pelo item (4) do teorema anterior. Logo, o<br />
índice de nilpotência é exatamente ei<br />
<br />
1.5.3. Corolário. Seja T ∈ End(V ). Então T é diagonalizavel sobre K se e só se m T (X)<br />
é completamente fatorável sobre K e sem fatores múltiplos.<br />
Demonstração. Resulta imediatamente do Corolário 1.5.2 e da equivalência (1) ⇔ (3) do<br />
Teorema 1.3.6. <br />
i=1
10 1. POLINÔMIO MINIMO E CARATERISTICO<br />
Exercicios de revisão e referentes ao capítulo<br />
(1) Seja Ei,j ∈ Mm×m(K) a matriz cujos elementos el,m satisfazem a seguinte condição<br />
(a) el,m = 1 se (l, m) = (i, j);<br />
(b) el,m = 0 se (l, m) = (i, j).<br />
Para a ∈ K e para i = j seja Ea i,j = I + aEi,j. Para i = j seja Ei,j = I + Ei,j +<br />
Ej,i − Ei,i − Ej,j e seja, para c ∈ K∗ , Ec i = I + (c − 1)Ei,i.<br />
Essas matrizes se dizem matrizes elementares. Provar que são invertiveis e descrever<br />
a inversa de cada tipo.<br />
(2) Dada A ∈ Mm×n(K) com<br />
⎛<br />
⎜<br />
A ⎝<br />
A1<br />
.<br />
Am<br />
⎞<br />
⎟<br />
⎠ ,<br />
i.e. Ai ∈ K n , i = 1, . . . , m são os vetores linha da matriz A. Mostrar que<br />
(a) E a i,j · A tem como i-esima linha Ai + aAj e as outras linha iguais;<br />
(b) Ei,j · A tem como i-esima linha Aj, como j-esima linha Ai e as outras linhas iguais<br />
as linhas de A;<br />
(c) Ec i · A tem na i-esima linha cAi e as outras linhas iguais as linhas de A.<br />
Duas matrizes A, B ∈ Mm×n(K) se dizem linha equivalentes se existem um numero<br />
finito de matrizes elementares E1, . . . , Er ∈ Mm×m(K) tais que E1 · E2 · . . . · Er · A = B.<br />
Moltiplicar uma matriz A ∈ Mm×n(K) a direita por matrizes elmentares em<br />
Mn×n(K) e descrever o resultado sobre as colunas de A. Definir a noção de matrizes<br />
coluna equivalentes.<br />
⎛ ⎞<br />
⎛ ⎞<br />
(3) Dadas A ∈ Mm×n(K), X =<br />
⎜<br />
⎝<br />
x1<br />
.<br />
xn<br />
⎟<br />
⎜<br />
⎠ ∈ Mn×1(K), B = ⎝<br />
b1<br />
.<br />
bm<br />
⎟<br />
⎠ ∈ Mm×1(K), consi-<br />
deramos o sistema de equações lineares com coeficientes em K nas incognitas x1, . . . , xn<br />
dado por<br />
A · X = B.<br />
Seja<br />
A = A | B ∈ M m×(n+1)(K)<br />
a matriz associada ao sistema.<br />
Mostrar que qualquer sistema obtido moltiplicando por matrizes elementares a esquerda<br />
a matriz do sistema, i.e. operando sobre as linhas do sistema com as operações<br />
descritas anteriormente, tem as mesmas soluções do sistema original (usar o fato que<br />
as matrizes elementares são inversiveis).<br />
(4) Seja A ∈ Mm×n(K). Dizemos que A é linha reduzida a forma escada se:<br />
(a) o primeiro elemento não nulo de cada linha é igual a 1;<br />
(b) o primeiro elemento não nulo da (i+1)-esima linha se encontra a direita do primeiro<br />
elemento não nulo da i-esima linha;<br />
(c) os elementos de uma coluna que contem o primeiro elemento não nulo de uma<br />
linha, diferente desse elemento, são nulos.<br />
Mostrar que dada A ∈ Mm×n(K), existem um numero finito de matrizes elementares<br />
E1, . . . , Er tais que E1 · E2 · . . . · Er · A seja linha reduzida a forma escada.
EXERCICIOS 11<br />
Deduzir que, se n > m, então o sistema um sistema homogeneo da forma A · X =<br />
0 Mm×1(K) admite uma solução com pelo menos um elemento xi não nulo.<br />
(5) Seja A ∈ Mn×n(K). Mostrar que as seguintes condições são equivalentes:<br />
(a) A é linha equivalente a I;<br />
(b) A é produto de matrizes elementares;<br />
(c) A é invertivel;<br />
(d) o sistema de equações lineares homogeneas A · X = 0 Mm×1(K) admite somente a<br />
solução com todos os xi nulos.<br />
Deduzir que dada uma matriz invertivel, a matriz inversa A −1 é obtida aplicando<br />
a I as operações elementares que levam a matriz A em I.<br />
(6) Seja A ∈ Mn×n(K). Dados i, j, definimos Ai,j ∈ Mn−1×n−1(K) como a matriz obtida<br />
de A eliminando a i-esima linha e a j-esima coluna de A.<br />
Definimos det(A) indutivamente segundo a seguinte formula:<br />
det(A) = a1,1 det(A1,1) − a2,1 det(A2,1) + . . . + (−1) n+1 an,1 det(An,1) ∈ K.<br />
Mostrar as seguintes propriedades de det(A):<br />
(a) det(I) = 1;<br />
(b) a função det(A) é linear com respeito as linhas de A, i.e. para cada α, β ∈ K<br />
temos<br />
⎛<br />
⎞ ⎛ ⎞ ⎛ ⎞<br />
⎜<br />
det( ⎜<br />
⎝<br />
A1<br />
.<br />
αAi + βA ′ i<br />
.<br />
Am<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎟)<br />
= α det( ⎜<br />
⎟ ⎜<br />
⎠ ⎝<br />
A1<br />
.<br />
Ai<br />
.<br />
Am<br />
(c) Se A tem duas linhas iguais, então det(A) = 0;<br />
(d) se i = j, então<br />
⎛ ⎞ ⎛<br />
A1<br />
⎜ ⎟ ⎜<br />
⎜ . ⎟ ⎜<br />
⎜ ⎟ ⎜<br />
det( ⎜ Ai + βAj ⎟)<br />
= det( ⎜<br />
⎜ ⎟ ⎜<br />
⎝<br />
.<br />
⎠ ⎝<br />
Am<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎟)<br />
+ β det( ⎜<br />
⎟ ⎜<br />
⎠ ⎝<br />
para cada β ∈ K;<br />
(e) A matriz obtinda trocando duas linhas de A tem determinante igual a − det(A);<br />
(f) Se uma linha de A é nula, então det(A) = 0.<br />
(g) Deduzir que det(Ea i,j ) = 1 para cada a ∈ K, det( Ei,j) = −1 e det(Ec i ) = c para<br />
cada c ∈ K∗ .<br />
(h) Utilizando as propriedades acima deduzir que se E é uma matriz elementar dos<br />
3 tipos acima e se A ∈ Mn×n(K) é arbitraria, então temos det(E · A) = det(E) ·<br />
det(A). Por indução mostrar que o mesmo resultado vale se E for produto de<br />
matrizes elementares.<br />
(i) provar que A ∈ Mn×n(K) é invertivel se e somente se det(A) = 0.<br />
(j) (Definição axiomatica do determinante) Seja<br />
d : Mn×n(K) → K<br />
A1<br />
.<br />
Ai<br />
.<br />
Am<br />
⎞<br />
⎟<br />
⎟)<br />
⎟<br />
⎠<br />
A1<br />
.<br />
A ′ i<br />
.<br />
Am<br />
⎟<br />
⎟);<br />
⎟<br />
⎠
12 1. POLINÔMIO MINIMO E CARATERISTICO<br />
uma função que satisfaz as propriedades a), b) e c) acima. Provar que d(A) =<br />
det(A) para cada A ∈ Mn×n(K).<br />
(k) Concluir que podemos calcular o determinante desenvolvendo segundo qualquer<br />
linha (ou coluna) porque a função assim definida satisfaz as propriedades a), b) e<br />
c) acima.<br />
(l) Sejam A, B ∈ Mn×n(K). Provar que det(A · B) = det(A) · det(B). Deduzir que se<br />
A é invertivel, então det(A −1 ) = det(A) −1 .<br />
(m) Provar que det(A) = det(A t ), onde A t é a matriz trasposta de A.<br />
(n) Seja A ∈ Mn×n(K), seja αi,j = (−1) i+j det(Ai,j) e seja<br />
ad(A) = [αi,j] t ∈ Mn×n(K)<br />
a matriz adjunta de A. Provar que<br />
A · ad(A) = ad(A) · A = det(A)I<br />
e deduzir que se det(A) = 0, então A −1 = ad(A)<br />
det(A) .<br />
(7) Seja A ∈ Mm×n(K). Definimos o posto linha de A, indicado com rank (A), como a<br />
dimensão do subespaço de K n gerado pelas linhas de A. Definimos o posto coluna de<br />
A, indicado com rank (A), como a dimensão do subespaço de K m gerado pelas colunas<br />
de A. Mostre que<br />
(a) para qualquer A ∈ Mm×n(K) temos rank (A) = rank (A). Portanto chamaremos<br />
esse numero simplesmente de posto de A e o indicaremos com rank (A). Concluir<br />
que rank (A) ≤ min{m, n}.<br />
(b) rank (A) é igual ao numero de linhas não nulas na forma linha reduzida de A,<br />
respectivamente rank (A) é igual ao numeros de colunas não nulas na forma coluna<br />
reduzida de A.<br />
(c) rank (A) é o maximo tamanho de uma submatriz quadrada de A com determinante<br />
não nulo.<br />
(d) A ∈ Mn×n(K) é invertivel se e somente se rank (A) = n se e somente se det(A) = 0<br />
se e somente se as colunas (e as linhas) de A formam una base de K n .<br />
(8) Sejam A, B, P, Q ∈ Mn×n(K). Mostrar que se B é invertivel e se B = P · A · Q, então<br />
P, A e Q são inversiveis.<br />
(9) A ∈ Mn×n(K) se diz nilpotente se existir r > 0 tal que Ar A ∈ Mn×n(K) é nilpotente, então I + A é invertivel.<br />
⎡<br />
⎤ ⎡ ⎤<br />
1 0 1<br />
0 1 0<br />
(10) Sejam A = ⎣ 0 −1 −1 ⎦ e B = ⎣ 0 0 0 ⎦.<br />
= 0. Mostrar que se<br />
1 1 0<br />
1 0 0<br />
(a) Encontre A−1 .<br />
(b) Encontre X tal que AX = B.<br />
(11) Seja A ∈ Mn×n(K). Definimos tr(A) = n<br />
i=1 ai,i ∈ K o traço de A. Mostrar que:<br />
(a) tr(A + B) = tr(A) + tr(B) e tr(A · B) = tr(B · A) para cada A, B ∈ Mn×n(K).<br />
(b) Se B é invertivel, então tr(B −1 · A · B) = tr(A).<br />
(12) Sejam Ui, . . . Ur subespaços vetorias do espaco vetorial V sobre K. A soma dos epaços<br />
Ui, indicada com U1 + . . . + Ur é o subespaço de V formado pelos vetores da forma<br />
v = u1 + . . . + ur, ui ∈ Ui. Mostar que
EXERCICIOS 13<br />
(a) a soma dos Ui é direta se e somente se cada vetor de U1 . . . + Ur admite uma unica<br />
escritura como a anterior.<br />
(b) dim(U1 +. . .+Ur) ≤ r i=1 dim(Ui) e que vale igual se e somente se a soma é direta.<br />
(c) Se Bi ’ e base de Ui, mostrar que ∪r i=1Bi é um sistema de geradores de U1+. . .+Ur,<br />
que é uma base se e somente se a soma é direta. Concluir que dado um subesaço<br />
U de V existe W ⊆ V subespaço tal que V = U ⊕ W (subespaço complementar de<br />
U).<br />
(d) Mostrar que Mn×n(K) é soma direta dos subespaços das matrizes simetricas (A =<br />
At ) e das matrizes antisimetricas (A = −At ). Mostre que as matrizes de traço nulos<br />
formam um subespaço de Mn×n(K). Encontrar um subespaço complementar em<br />
Mn×n(K).<br />
(13) Seja A ∈ Mn×n(K) e seja m A (t) = t r + ar−1t r−1 + . . . + a0 o polinômio minimo de A.<br />
Mostrar que A é invertivel se e somente se a0 = 0.<br />
(14) Seja T ∈ End(V ). Mostrar que T é triangularizavel superiormente se e somente se é<br />
triangularizavel inferiormente.<br />
(15) Considere o espaço vetorial V = M2×2(K), a matriz<br />
<br />
1 2<br />
A =<br />
−1 3<br />
e W = {B ∈ V : AB = BA} (conjunto das matrizes que comutam com A).<br />
(a) Mostre que W é subespaço de V .<br />
(b) Determine uma base para W .<br />
(c) Complete a base encontrada no item (a) para uma base de V .<br />
(d) Calcule as matrizes de mudança de base entre a base do item (c) e a base canônica<br />
de V , a saber,<br />
C =<br />
1 0<br />
0 0<br />
<br />
0 1<br />
,<br />
0 0<br />
(e) Encontre as coordenadas de C =<br />
(b).<br />
(16) Seja T : K 4 −→ K 3 definida por:<br />
<br />
0<br />
,<br />
1<br />
0<br />
0<br />
<br />
1<br />
<br />
1<br />
1 1<br />
<br />
0 0<br />
,<br />
0 1<br />
<br />
.<br />
em relação a base encontrada no item<br />
T (x1, x2, x3, x4) = (x2 − 3x3 + x4, 2x1 − 3x2 + x4, 2x1 + x2 − x3).<br />
(a) Encontre a matriz de T em relação as bases canônicas de K 4 e K 3 .<br />
(b) Determine ker (T ) e Im(T ).<br />
(c) T injetiva? sobrejetiva? Justifique.<br />
(17) Seja B = {v1 = (1, −1, 0), v2 = (1, 1, 0), v3 = (0, 0, −1)} ∈ K 3 .<br />
(a) Determine as coordenadas de<br />
v = (x, y, z) em relação a base B.<br />
(b) Se T : K 3 −→ K 3 é uma transformação linear tal que T (v1) = v3, T (v2) = v2 e<br />
T (v3) = −v1, determine T (x, y, z).<br />
(c) Determine (se existirem) os autovalores de T e os autovetores associados.
14 1. POLINÔMIO MINIMO E CARATERISTICO<br />
(18) Sejam T1 : K3 −→ K3 e T2 : K3 −→ K3 transformações lineares, tais que:<br />
C T1<br />
C =<br />
⎡ ⎤<br />
1 0 0<br />
C ⎣ 1 1 0 ⎦ e T2<br />
C<br />
0 0 2<br />
=<br />
⎡<br />
⎤<br />
4 −2 2<br />
⎣ −1 2 −1 ⎦ ,<br />
−5 4 −3<br />
onde C ⊂ K 3 é a base canônica.<br />
(a) Determine se T1 é diagonalizavel. Idem para T2.<br />
(b) Se possvel, determine uma base de K 3 de autovetores de T1 e represente T1 nesta<br />
base. Idem para T2.<br />
(19) Dado n ≥ 1, seja T : Pn → Pn a transformação derivada T = d/dt, onde Pn designa o<br />
espaço vetorial de polinômios de grau no máximo n com coeficientes reais.<br />
(a) Determinar os auto-valores de T e os auto-subespaços correspondentes<br />
(b) Determinar os polinômios c T (t) e m T (t).<br />
(20) Seja T : Mn×n(K) → Mn×n(K) definido por T (A) = A t . Provar que se a caracteristica<br />
do corpo K é diferente de dois, então T é diagonalizavel. Encontrar os autoespaços de<br />
T , fornecendo a decomposição de Mn×n(K) como soma direta de autoespaços de T .<br />
(21) Seja T : V → W uma aplicação linear de K-espaços vetoriais. Seja w ∈ Im(T ) e seja<br />
v tal que T (v) = w. Mostrar que os elementos de T −1 (w) são da forma v + u com<br />
u ∈ ker (T ).<br />
(22) Seja U ⊆ V um subespaço vetorial do K-espaço vetorial V . Provar que v1 ∼ v2 se e<br />
somente se v1 − v2 ∈ U é uma realção de equivalência sobre o conjunto V . Indicamos<br />
V/ ∼ com V/U e os elementos de uma classe de equivalência de um elemento v com<br />
[v]. Mostrar que as operações<br />
+ : V/U × V/U → V/U<br />
e<br />
· : K × V/U → V/U<br />
dadas por [v1] + [v2] = [v1 + v2] e α · [v] = [α · v] não dependem da escolha do<br />
representantes na classe de equivalência e estão portanto bem definidas. Provar que<br />
(V/U, +, ·) é um espaco vetorial sobre K, o espaço quociente de V por U. Mostrar que:<br />
(a) se dim(V ) = n ≥ 1, se {v1, . . . vr} é uma base de U que se extende a uma base<br />
{v1, . . . vn} de V , então {[vr+1], . . . , [vn]} é uma base de V/U, i.e. dim(V/U) =<br />
dim(V ) − dim(U);<br />
(b) πU : V → V/U definido por πU(v) = [v] é um homomorfismo sobrejetor de Kespaços<br />
vetoriais tal que ker (πU) = U;<br />
(c) dato T : V → W homorfismo de K-espaços vetoriais, a aplicação T : V/ker (T ) →<br />
W dada por T ([v]) = T (v) esta bem definida e é homomorfismo de K-espaços vetoriais.<br />
Verificar que T = T ◦πker (T ), i.e. o seguinte diagrama comuta (significando<br />
que percorrendo os dois caminhos indicados pelas setas chegamos ao mesmo ponto<br />
de W ):<br />
V<br />
πker (T )<br />
<br />
<br />
T<br />
<br />
<br />
V<br />
<br />
ker (T ) W<br />
Te
EXERCICIOS 15<br />
(d) Im( T ) = Im(T ) e T : V/ker (T ) → Im(T ) é isomorfismo de espaços vetoriais.<br />
Deduzir uma nova prova do Teorema do Núcleo e da Imagem via formula da<br />
dimensão do quociente provada anteriormente.<br />
(23) (a) Seja T ∈ End(V ), onde V é um K-espaço vetorial de dimensão finita. Mostrar que<br />
T é injetor se e somente se T é sobrejetor se e somente se T ∈ Aut(V ).<br />
(b) Seja V = R[x], o R-espaço vetorial dos polinômios com coeficientes no corpo R.<br />
Definimos os aplicação linears T1(p(x)) = p ′<br />
<br />
(x) (derivada primeira) e T2(p(x)) =<br />
x<br />
0 p(t)dt. O aplicação linear Ti, i = 1, 2, é injetor? É sobrejetor? Descrever<br />
ker (Ti) e Im(Ti) e relacionar os resultados com o item anterior.<br />
(24) Seja<br />
A · X = B<br />
um sistema de m equações lineares nas variaveis X =<br />
A = A | B ∈ Mm×n+1(K)<br />
a matriz associada ao sistema. Provar que:<br />
(a) rank (A) ≤ rank ( A) ≤ rank (A) + 1;<br />
(b) o sistema admite uma solução se e somente se B =<br />
⎛<br />
⎜<br />
⎝<br />
⎛<br />
⎜<br />
⎝<br />
x1<br />
.<br />
xn<br />
b1<br />
.<br />
bm<br />
⎞<br />
⎟<br />
⎠ ∈ Mn×1(K). Seja<br />
⎞<br />
⎟<br />
⎠ ∈ Im(TA) se e somente<br />
se rank (A) = rank ( A);<br />
(c) se existe uma solução, então as soluções do sistema podem ser parametrizadas por<br />
um subespaço linear de K n de dimensão n − rank (A) ≥ 0.<br />
(25) Seja A ∈ Mn×n(K). Se p(x) = a0 + a1x + . . . + arx r ∈ K[x], definimos<br />
p(A) = a0I + a1A + . . . + arA r ∈ Mn×n(K).<br />
Mostrar que existe um polinômio p(x) ∈ K[x] de grau menor ou igual a n 2 tal que<br />
p(A) = 0 Mn×n(K).
CAPíTULO 2<br />
A teoria dos fatores invariantes e dos divisores elementares<br />
2.1. Matrizes com elementos polinomiais<br />
Nesta seção estudaremos de perto matrizes cujos elementos são polinômios em uma indeterminada.<br />
Por conveniência e hábito, mudaremos a notação empregada anteriormente: o corpo de<br />
base será designado por k (minúsculo) e a indeterminada, por X (maiúsculo). A teoria a seguir<br />
é, de fato, uma sub-teoria da teoria das matrizes com elementos no corpo de frações racionais<br />
K = k(X), de modo que, em última instânica, estamos novamente no contexto da parte anterior<br />
e tudo que foi visto lá se aplica em principio ao corpo k(X). Contudo, para bem explorar as<br />
propriedades de tipo aritmético, é importante trabalhar com polinômios e não com frações .<br />
A teoria requer algum investimento preliminar mas as aplicações às matrizes com elementos<br />
no corpo das constantes k compensarão o esforço.<br />
O conjunto das matrizes retangulares m×n com elementos em k[X] será denotado Mm×n(k[X]).<br />
Esse conjunto é naturalmente um k[X]-módulo. Se m = n, podemos multiplicar tais matrizes e<br />
intruduzir em Mn×n(k[X]) uma estrutura de anel não comutativo com unidade, dito o anél das<br />
matrizes sobre k[X]. Eis alguns exemplos de matrizes com elementos em C[X].<br />
A =<br />
⎛<br />
⎜<br />
⎝<br />
X − 1 0 0 −1<br />
3 X − 2 −2 0<br />
0 4 X + 7 0<br />
1 0 5 2X<br />
⎞<br />
⎛<br />
⎟<br />
⎠ , B = ⎝<br />
X 3 − 4 2X − 1<br />
X 2 + √ 3iX X 6<br />
3X 7 X<br />
Note que A se parece muito a uma matriz da forma XI −A, com A ∈ M4×4(k). A matriz abaixo<br />
não é polinomial para qualquer corpo de contantes k pois 1<br />
X ∈ k[X].<br />
⎛ ⎞<br />
C = ⎝<br />
0 0 0<br />
0 0 0<br />
0 0 1<br />
X<br />
Passaremos a denotar matrizes polinomiais por A(X), B(X), etc. A notação indica que<br />
estamos considerando tais matrizes e não apenas matrizes com elementos em k. O mote deste<br />
parágrafo é a dupla identidade de um objeto de Mm×n(k[X]) como uma matriz com elementos<br />
polinomiais ou como um polinômio a coeficientes matriciais. Um exemplo permite esclarecer<br />
este ponto:<br />
X − 1 2 X 2 + 1<br />
X 3 − X X 3 + 2X 2 1<br />
<br />
=<br />
+<br />
⎠<br />
⎞<br />
⎠<br />
<br />
0 0 0<br />
X<br />
1 1 0<br />
3 <br />
0 0 1<br />
+<br />
X<br />
0 2 0<br />
2<br />
<br />
1 0 0 −1 2 1<br />
X +<br />
−1 0 0<br />
0 0 1<br />
Esta identificação é válida para matrizes retangulares em geral. Além disso, no caso de<br />
matrizes quadradas, esta identificação pode ser traduzida em termos de um isomorfismo natural:<br />
17
18 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
2.1.1. Proposição. Existe um isomorfismo natural de anéis<br />
Mn×n(k[X]) (Mn×n(k))[X],<br />
cuja restrição ao subanél Mn×n(k) é a identidade.<br />
Demonstração. Dada A(X) ∈ Mn×n(k[X]), digamos<br />
⎛<br />
f11(X)<br />
⎜<br />
A(X) = ⎝ .<br />
. . .<br />
⎞<br />
f1n(X)<br />
⎟<br />
. ⎠ ,<br />
fn1(X) . . . fnn(X)<br />
onde fij(X) = <br />
l α(l)<br />
ij Xl ∈ k[X], à mesma associamos o polinômio<br />
PA(X) := <br />
AlX l<br />
com coeficientes matriciais, onde<br />
Al =<br />
⎛<br />
⎜<br />
⎝<br />
l<br />
α (l)<br />
11 . . . α (l)<br />
1n<br />
.<br />
α (l)<br />
n1 . . . α (l)<br />
nn<br />
Esta associação fornece uma aplicação µ : Mm×n(k[X]) → (Mm×n(k))[X], cuja restrição ao<br />
subanél Mm×n(k) é claramente a identidade. Esta aplicação por outro lado, obviamente admite<br />
uma inversa. Por comodidade, denotaremos abreviadamente<br />
<br />
<br />
A(X) =<br />
, PA(X) = <br />
l<br />
α (l)<br />
ij Xl<br />
i,j<br />
.<br />
⎞<br />
⎟<br />
⎠ .<br />
l<br />
α (l)<br />
ij<br />
i,j Xl .<br />
Com esta notação , fica fácil verificar que µ é um homomorfismo, isto é, preserva soma e<br />
produto de matrizes. Com efeito, dadas<br />
<br />
<br />
<br />
<br />
A(X) =<br />
, B(X) =<br />
,<br />
com, respectivamente,<br />
e<br />
temos<br />
l<br />
α (l)<br />
ij Xl<br />
⎛<br />
<br />
µ (A(X) + B(X)) = µ ⎝<br />
i,j<br />
µ(A(X)) = PA(X) = <br />
µ(B(X)) = PB(X) = <br />
= <br />
l<br />
l<br />
α (l)<br />
ij<br />
(α (l)<br />
ij<br />
l<br />
l<br />
+ β(l)<br />
ij )Xl<br />
<br />
i,j Xl + <br />
= µ(A(X)) + µ(B(X)).<br />
l<br />
α (l)<br />
ij<br />
β (l)<br />
ij<br />
<br />
i,j<br />
β (l)<br />
ij<br />
<br />
<br />
l<br />
β (l)<br />
ij Xl<br />
i,j Xl<br />
i,j Xl ,<br />
⎞<br />
⎠ = <br />
<br />
i,j Xl<br />
l<br />
i,j<br />
<br />
α (l)<br />
ij<br />
<br />
+ β(l)<br />
ij<br />
i,j Xl
2.1. MATRIZES COM ELEMENTOS POLINOMIAIS 19<br />
Para o produto, as fórmulas ficam mais complicadas, mas a verificação<br />
principio. Observemos que<br />
segue o mesmo<br />
A(X) · B(X) =<br />
<br />
<br />
<br />
<br />
·<br />
<br />
Segue que<br />
=<br />
=<br />
=<br />
=<br />
<br />
l<br />
α (l)<br />
ij Xl<br />
i,j<br />
l<br />
β (l)<br />
ij Xl<br />
( <br />
α (l)<br />
i1 Xl )( <br />
β (l)<br />
1j Xl ) + · · · + ( <br />
α (l)<br />
in Xl )( <br />
l<br />
<br />
n<br />
<br />
( <br />
α (l)<br />
it Xl )( <br />
t=1<br />
t=1<br />
l<br />
l<br />
⎛ ⎛<br />
n<br />
⎝ ⎝ <br />
( <br />
α (k)<br />
l<br />
0≤k≤l<br />
l<br />
0≤k≤l<br />
⎛<br />
⎝ <br />
⎛<br />
⎝ n<br />
( α (k)<br />
t=1<br />
l<br />
l<br />
β (l)<br />
tj Xl )<br />
it β(l−k)<br />
tj<br />
it β(l−k)<br />
tj<br />
0≤k≤l<br />
i,j<br />
<br />
l<br />
i,j<br />
⎞⎞<br />
)X (l) ⎠⎠<br />
⎞⎞<br />
)X (l) ⎠⎠<br />
⎛⎛<br />
µ (A(X) · B(X)) = µ ⎝⎝<br />
<br />
⎛<br />
⎝ n<br />
( α (k)<br />
t=1<br />
= <br />
⎛<br />
⎝ n<br />
( α (k)<br />
= ( <br />
l<br />
l<br />
0≤k≤l<br />
α (l)<br />
ij<br />
t=1<br />
it β(l−k)<br />
tj<br />
<br />
i,j Xl )( <br />
= µ (A(X)) µ (B(X)) .<br />
l<br />
i,j<br />
i,j<br />
it β(l−k)<br />
tj<br />
β (l)<br />
ij<br />
⎞<br />
) ⎠ X (l)<br />
<br />
l<br />
⎞⎞<br />
)X (l) ⎠⎠<br />
i,j Xl )<br />
β (l)<br />
nj Xl )<br />
2.1.2. Observação. A identificação entre matrizes polinomiais e polinômios matriciais,<br />
mesmo no caso retangular m × n, é a expressão dos seguintes fatos algébricos mais avançados:<br />
(1) O anél k[X] é N-graduado, isto é, tem-se k[X] = <br />
d≥0 k[X]d – soma direta de k-espaços<br />
vatoriais k[X]d de dimensão 1, onde k[X]d := k Xd = {αXd | α ∈ k} k.<br />
(2) Um k[X]-módulo livre de posto r é, analogamente a um k-espaço vetorial de dimensão<br />
r, uma soma direta k[X] r := k[X]⊕· · ·⊕k[X] (r somandos). Um tal módulo é também<br />
N-graduado, isto é, k[X] r = <br />
d≥0 k[X]r d , onde k[X]r d = k[X]d ⊕· · ·⊕k[X]d (soma direta<br />
de r k-espaços vatoriais k[X]d de dimensão 1).<br />
(3) Dada uma fatoração r = mn, temos k[X] r = k[X] mn = (k[X] m ) n , que pode ser visto<br />
na forma sugestiva<br />
k[X] ⊕ · · · ⊕k[X]<br />
k[X] ⊕ · · · ⊕k[X]<br />
.<br />
k[X] ⊕ · · · ⊕k[X]<br />
i,j<br />
⎞<br />
⎠<br />
<br />
i,j
20 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
(m somas diretas de n somandos cada). Reminiscente de uma matriz? De fato, isto<br />
fornece um isomorfismo de k[X]-módulos k[X] mn Mm×n(k[X]) em analogia com o<br />
caso de k-espaços vatoriais.<br />
(4) Usando a graduação introduzida acima, temos ainda<br />
k[X] mn = <br />
(k[X] mn )d = <br />
(k[X]d) mn = <br />
(k X d ) mn =<br />
d≥0<br />
d≥0<br />
d≥0<br />
= <br />
(k mn )X d (Mm×n(k))[X]<br />
d≥0<br />
como k[X]-módulos, onde na última passagem, identificamos kmn com Mm×n(k) como<br />
de hábito.<br />
(5) Finalmente, no caso em que m = n (isto é, r = n2 é um quadrado perfeito), resulta a<br />
bonificação de que isomorfimso acima preserva o produto de Mn×n(k[X]) (neste caso,<br />
este é de fato um anél, não só um k[X]-módulo!)<br />
Como primeira aplicação da identificação entre matrizes com elementos polinomiais e polinômios<br />
com coefficientes matrizes vamos fornecer uma outra demonstração do Teorema de Cayley-<br />
Hamilton, vide-se Teorema 1.1.2.<br />
2.1.3. Teorema. (Cayley-Hamilton) Seja A ∈ Mn×n(k). Então<br />
c A (A) = 0 Mn×n(K).<br />
Demonstração. Seja c A (X) = X n + pn−1X n−1 + · · · + p1X + p0, pi ∈ k. Dada XI − A,<br />
podemos construir a matriz adjunta ad(XI − A) cujas entradas são polinômios de grau no<br />
máximo n − 1. Portanto temos<br />
com Bi ∈ Mn×n(k). Lembramos que<br />
ad(XI − A) = B0 + B1X + · · · + Bn−1X n−1 ,<br />
ad(XI − A) · (XI − A) = (XI − A) · ad(XI − A) = c A (X) · I =<br />
= p0 · I + · · · + (pn−1 · I)X n−1 + IX n .<br />
Da escritura de ad(XI − A) como polinômio matricial obtemos<br />
ad(XI − A) · (XI − A) = (B0 + B1X + · · · + Bn−1X n−1 ) · (XI − A) =<br />
= (−B0 · A) + (B0 − B1 · A)X + · · · + (Bn−2 − Bn−1 · A)X n−1 + Bn−1X n .<br />
Dois polinômios matriciais são iguais se e só se os coefficientes deles são iguais como matrizes<br />
em Mn×n(k). Segue que:<br />
−B0 · A = p0 · I,<br />
B0 − B1 · A = p1 · I,<br />
.<br />
Bn−2 − Bn−1 · A = pn−1 · I,<br />
Bn−1 = I.<br />
Multiplicando as ultimas n − 1 equações por potencias crescentes de A obtemos:<br />
−B0 · A = p0 · I,<br />
B0 · A − B1 · A 2 = p1 · A,<br />
.<br />
Bn−2 · A n−1 − Bn−1 · A n = pn−1 · A n−1 ,<br />
Bn−1 · A n = A n .
2.1. MATRIZES COM ELEMENTOS POLINOMIAIS 21<br />
Somando as colunas verticais das equações obtemos 0 Mn×n(K) = c A (A). <br />
2.1.1. Divisão euclidiana de matrizes polinomiais. Uma vez de posse da identificação<br />
canônica Mn×n(k[X]) (Mn×n(k))[X], podemos perguntar se peculiaridades dos polinômios<br />
usuais passam aos polinômios matriciais (logo, também às matrizes polinomiais). Por exemplo,<br />
temos:<br />
2.1.4. Definição. (grau de um polinômio matricial e matriz polinomial propria)<br />
Dada A(X) ∈ Mn×n(k[X]) não nula, o grau gr(A(X)) desta matriz é o grau do polinômio<br />
matricial associado (este sendo o maior exponente r de X cujo coeficiente Ar é uma matriz não<br />
nula).<br />
Uma matriz A(X) ∈ Mn×n(k[X]) é dita própria se o coeficente dominante Ar do polinômio<br />
matricial associado é uma matriz invertivel sobre k (isto é, se det Ar = 0)<br />
Propriedades do grau usual sob adição e multiplicação de matrizes mantêm-se apenas<br />
parcialmente:<br />
2.1.5. Lema. Sejam A(X), B(X) ∈ Mn×n(k[X]) não nulas cuja soma e produto também<br />
sejam não nulas. Então:<br />
(i) gr(A(X) + B(X)) ≤ max{gr(A(X)), gr(B(X))}<br />
(ii) gr(A(X)B(X)) ≤ gr(A(X))+gr(B(X)); a igualdade dá-se se os coeficientes dominantes<br />
A e B dos polinômios matriciais associados satisfazem AB = 0.<br />
Resulta que a divisão euclidiana é um deles, desde que sob certas hipóteses. Como o coeficiente<br />
dominante de um polinômio usual f(X) ∈ k[X] é invertivel, precisamos uma hipótese que<br />
garanta isto no caso de uma matriz polinomial. Precisamente, temos<br />
2.1.6. Proposição. (Divisão euclidiana) Sejam A(X), B(X) ∈ Mn×n(k[X]), com B(X)<br />
própria. Então existem Q(X), R(X) ∈ Mn×n(k[X]), unicamente determinados por A(X) e<br />
B(X), satisfazendo as condições :<br />
(1) A(X) = Q(X)B(X) + R(X)<br />
(2) R(X) = 0 ou gr(R(X)) < gr(B(X)).<br />
Demonstração. A demonstração é praticamente a mesma do caso conhecido da divisão<br />
euclidiana para polinômios a coeficientes num corpo. Primeiramente, escrevemos as matrizes<br />
dadas em forma polinomial, digamos, A(X) = ArX r + · · · + A0, B(X) = BsX s + · · · + B0, onde<br />
Ar = 0 e det(Bs) = 0.<br />
Existência: Se r < s, fazemos Q(X) = 0 e R(X) = A(X). Suponhamos então que r ≥ s.<br />
Procedemos por indução sobre r, o caso em que r = 0 (isto é, A(X) = Ar) é absorvido pelo<br />
caso r < s, a menos que s = 0. Neste último caso, pomos Q(X) = ArB−1 e R(X) = 0 (este<br />
caso será um caso particular do caso geral abaixo).<br />
Suponhamos, assim, que r ≥ 1 e consideremos o polinômio A(X) − ArB −1<br />
s X r−s B(X), que<br />
tem grau no máximo r−1. Denotemos este polinômio por A1(X). Pela hipótese indutiva, existem<br />
Q1(X) e R1(X) tais que A1(X) = Q1(X)B(X) + R1(X), com R1(X) = 0 ou gr(R1(X)) <<br />
gr(B(X)). Tomando Q(X) := Q1(X) + ArB −1<br />
s X r−s e R1(X) = R(X), encontramos o quociente<br />
e o resto desejados.<br />
Unicidade: Suponhamos que<br />
A(X) = Q(X)B(X) + R(X) = Q ′ (X)B(X) + R ′ (X).<br />
Então (Q(X) − Q ′ (X))B(X) = R ′ (X) − R(X). Pelo Lema 2.1.5 (i), o grau do membro direito<br />
é no máximo igual a s − 1 = gr(B(X)) − 1. No membro esquerdo, temos um fator que é matriz<br />
s
22 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
própria. Seu coeficiente dominante é uma matriz invertivel, portanto não anula qualquer matriz<br />
não nula. Se Q(X) − Q ′ (X) = 0, segue do Lema 2.1.5 (ii) que o grau do membro esquerdo é<br />
no minimo s; absurdo. Logo, necessariamente, Q(X) = Q ′ (X). Consequentemente, também<br />
R ′ (X) = R(X). <br />
2.1.7. Observação. A rigor, o que acabamos de demonstrar foi divisão euclidiana á direita<br />
(isto é, aquela em que o quociente é multiplicador à esquerda). Deixamos como exercicio de<br />
rotina verificar a existência e unicidade de uma divisão á esquerda. Em geral, o quociente(resp.<br />
o resto) á direita é distinto do quociente(resp. o resto) á esquerda. No que segue, fixaremos a<br />
divisão sistematicamente á direita.<br />
2.1.2. Polinômios matriciais e resto da divisão. Analogamente aos homomorfismos<br />
de substituição (ou de avaliação ) já conhecidos (por exemplo, k[X] → k, f(X) ↦→ f(α) ou<br />
k[X] → Mn×n(k), f(X) ↦→ f(A)), podemos definir o valor de um polinômio matricial P (X) ∈<br />
Mn×n(k[X]) numa matriz A ∈ Mn×n(k), através da aplicação<br />
P (X) = PrX r + Pr−1X r−1 + · · · + P0 ↦→ PD(A) = PrA r + Pr−1A r−1 + · · · + P0.<br />
Como no processo de divisão euclidiana, chamamos aqui também a atenção ao fato de que esta<br />
aplicação de substituição admite uma versão à esquerda<br />
P (X) = PrX r + Pr−1X r−1 + · · · + P0 ↦→ PE(A) = A r Pr + A r−1 Pr−1 + · · · + P0<br />
e que, em geral os resultados das substituições dão matrizes distintas.<br />
Mais grave é o fato de que, ao contrário dos processos de substituição anteriores, o presente<br />
não é um homomorfismo de anéis. É fácil ver que preserva a soma de matrizes e o produto por<br />
um polinômio, mas não o produto de matrizes em geral.<br />
2.1.8. Exercicio. Dar exemplo de substituições cujos valores á direita e á esquerda são<br />
distintos. Dar igualmente exemplo de que a substituição nào preserva o produto de matrizes.<br />
(Sugestão: probabilisticamente, qualquer exemplo deve funcionar!)<br />
Apesar da falência da substituição em preservar o produto de matrizes, o seguinte resultado<br />
básico é válido e, conforme veremos em seguida, extremamente útil. É uma generalização natural<br />
do fato que se f(X) ∈ k[X] e se f(X) = g(X) · (X − α) + r, então r = f(α).<br />
2.1.9. Proposição. (Teorema do Resto) Dada A ∈ Mn×n(k), o resto da divisão à direita<br />
(resp. à esquerda) de um polinômio matricial P (X) ∈ Mn×n(k[X]) pela matriz característica<br />
XI − A é o valor PD(A) (resp. PE(A)).<br />
Demonstração. Seja P (X) = PrX r + Pr−1X r−1 + · · · + P0. Então é fácil verificar que<br />
para cada k = 0, 1, . . . , r,<br />
X j I − A j = (X j−1 I + X j−2 A + · · · + XA j−2 + A j−1 ) · (XI − A)<br />
= Qj(X) · (XI − A).<br />
Moltiplicando ambos os membros da equação anterior a esquerda por Pj e somando de 0 até r<br />
temos<br />
r<br />
P (X) − PD(A) = Pk · (X j I − A j r<br />
) = ( Pj · Qj(X)) · (XI − A)<br />
j=0<br />
= Q(X) · (XI − A),<br />
de onde segue a proposição pela unicidade do quociente e do resto da divisão a direita (resp.<br />
a esquerda). Da mesma forma se prova a parte relativa a divisão a esquerda por XI − A. <br />
j=0
2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS 23<br />
2.1.10. Proposição. Seja A ∈ Mn×n(k) e sejam m A (X) e c A (X) os polinômios minimo e<br />
carateristico de A. Então c A (X) divide m A (X) n . Em particular m A (X) e c A (X) têm os mesmos<br />
fatores irredutiveis mônicos.<br />
Demonstração. Sabemos que m A (X) divide c A (X) pelo Teorema de Cayley-Hamilton<br />
e portanto os fatores irredutiveis mônicos de m A (X) dividem c A (X). O Teorema da divisão<br />
garante a existencia de R(X) ∈ Mn×n(k[X]) tal que<br />
m A (X) · I = R(X) · (XI − A).<br />
Tomando os determinantes a esquerda e a direita obtemos<br />
(m A (X)) n = det(R(X)) · c A (X).<br />
2.2. Escalonamento de matrizes com elementos polinomiais<br />
Primeiramente, estabeleceremos resultados análogos aos de eliminação gaussiana sobre k.<br />
Todas as operações a ser efetuadas deverão preservar o caráter polinomial dos resultados (isto é,<br />
sem criar frações com denominadores polinomiais não constantes). Guiados por este principio,<br />
retomamos as operações elementares, desta vez em Mm×n(k[X]).<br />
Abaixo, damos a forma da matriz elementar correspondente a cada uma das operações<br />
elementares acima.<br />
(1) Transposição de linhas (colunas) i e j:<br />
⎛<br />
1<br />
⎜<br />
Mi,j = ⎜<br />
⎝<br />
. ..<br />
1<br />
0 · · · 1<br />
1<br />
. ..<br />
1<br />
1 · · · 0<br />
onde (Mi,j)kk = (Mi,j)ij = (Mi,j)ji = 1, se k = i, j; (Mi,j)kl = 0, em caso contrário<br />
(Mantemos a convenção de que os espaços vazios são ocupados por zeros). Mais<br />
geralmente, o resultado de efetuar uma permutação das linhas (colunas) de uma matriz<br />
corresponde a uma matriz com 0 e 1, sendo que cada 0 figura em exatamente uma linha<br />
e uma coluna (estas matrizes são chamadas de matrizes de permutação ).<br />
1<br />
. ..<br />
1<br />
⎞<br />
⎟<br />
⎠
24 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
(2) Multiplicação de uma linha (coluna) i por uma constante α ∈ k, α = 0:<br />
⎛<br />
1<br />
⎞<br />
⎜<br />
Mα i = ⎜<br />
⎝<br />
. ..<br />
1<br />
α<br />
1<br />
. ..<br />
⎟<br />
⎠<br />
com (Mα i)ii = α.<br />
(3) Soma de uma linha (coluna) j com uma linha i multiplicada por um polinômio p(X) ∈<br />
k[X]:<br />
⎛<br />
1<br />
⎞<br />
⎜<br />
Mp i+j = ⎜<br />
⎝<br />
. ..<br />
1<br />
.<br />
p(X)<br />
. ..<br />
· · · 1<br />
. ..<br />
⎟<br />
⎠<br />
com (Mp i+j)ji = p(X).<br />
2.2.1. Observação. Comparando com as definições do primeiro curso de álgebra linear, vemos<br />
que (1) é a mesma; (3) contempla a possibilidade de multiplicar uma linha por um polinômio<br />
(não só uma constante) antes de somá-la a outra. Finalmente, (2) só permite multiplicação por<br />
elementos não-nulos do corpo k. A razão do desequilíbrio aparente entre as operações de tipo<br />
(2) e (3) é devido à necessidade das operações serem reversiveis (isto é, corresponderem a<br />
multiplicações por matrizes quadradas que admitam inversas com elementos polinomiais).<br />
2.2.2. Exemplo. Considere as seguintes matrizes sobre Q[X]:<br />
<br />
X<br />
1<br />
<br />
0<br />
,<br />
X − 1<br />
<br />
1<br />
0<br />
2X<br />
3<br />
<br />
A primeira não admite inversa sobre Q[X] (embora a admita sobre Q(X), o que é um fácil<br />
exercicio). A segunda admite inversa sobre Q[X]. É claro, por outro lado, que toda matriz A<br />
sobre k[X], cujos elementos pertencem todos a k e tal que det A = 0, admite inversa sobre k,<br />
logo sobre k[X] por maior razão.<br />
Observemos que a noção do determinante de uma matriz quadrada A sobre k[X] não precisa<br />
ser reintroduzido: definimo-lo como sendo o determinante de A, esta considerada como matriz<br />
sobre k(X) (que é um corpo, em cujo caso já sabemos a definição ). É bastante evidente que,<br />
se A é matriz quadrada sobre k[X], então det A ∈ k[X]. pelo mesmo principio, a definição de<br />
posto de uma matriz retangular sobre k[X] não precisa ser repetida.<br />
A proposição a seguir diz exatamente quais matrizes quadradas sobre k[X] admitem inversa<br />
sobre k[X].<br />
2.2.3. Proposição. Seja k um corpo arbitrário. Uma matriz quadrada A sobre k[X] admite<br />
inversa sobre k[X] se e somente se det A ∈ k \ {0}.<br />
1<br />
1
2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS 25<br />
Demonstração. Pela conhecida relação , temos A ad(A) = (det A)I, onde ad(A) é a matriz<br />
dos cofatores de A. Em particular, pela definição mesma dos cofatores, ad(A) é matriz sobre<br />
k[X]. Trabalhando sobre k(X), a inversa é dada por A −1 = (det A) −1 ad(A). Se det A ∈ k,<br />
segue que os elementos de A −1 são polinômios. Inversamente, se A admite inversa A −1 sobre<br />
k[X], então det A det(A −1 ) = 1 é o produto de dois polinômios que dá como resultado 1. Logo,<br />
det A admite inverso multiplicativo em k[X] e, portanto, tem de pertencer a k \ {0}. <br />
Como no caso de escalonamento sobre um corpo K, diremos que uma matriz B ∈ Mm×n(k[X])<br />
é elementarmente equivalente a uma matriz A ∈ Mm×n(k[X]) se B = AE ou B = F A, onde<br />
E e F são matrizes elementares (isto é, correspondem a operações elementares por linha<br />
ou coluna, sobre k[X]). Dizemos que B é equivalente a A se existirem matrizes elementares<br />
E1, . . . , Er, F1, . . . , Fs tais que B = E1 · · · ErAF1 · · · Fs. Usaremos, neste caso, a notação<br />
B ∼ A.<br />
Como antes, trata-se de uma relação de equivalência no conjunto Mm×n(k[X]). Ainda como<br />
antes, nossa tarefa será exibir uma forma canônica para cada classe de equivalência.<br />
Para familiarizar-nos com o teorema de escalonamento em Mm×n(k[X]), convem tratar primeiro<br />
alguns exemplos simples, onde possamos reconhecer o padrão geral.<br />
2.2.4. Exemplo. Consideremos a matriz<br />
X X + 1<br />
X + 2 X + 4<br />
<br />
∈ M2×2(Q[X])<br />
Deixaremos ao aluno o prazer de determinar explicitamente as operações elementares usadas<br />
em cada uma das passagens abaixo.<br />
<br />
X<br />
X + 2<br />
<br />
X + 1<br />
X + 4<br />
∼<br />
<br />
X<br />
X + 2<br />
<br />
1 X<br />
∼<br />
2 2<br />
<br />
1 1<br />
∼<br />
1 1<br />
X<br />
2<br />
<br />
∼<br />
<br />
1<br />
1<br />
<br />
0<br />
1<br />
∼<br />
−X + 2 0<br />
<br />
0<br />
−X + 2<br />
Fácil demais? Porque os polinômios são todos de grau 1? Porque a matriz é quadrada? Nos<br />
dois próximos exemplos, transgredimos estas condições .<br />
2.2.5. Exemplo. Uma matriz com elementos polinomiais de graus diferentes:<br />
<br />
X2 X − 1<br />
X + 1<br />
X2 <br />
∼<br />
<br />
X + 1<br />
X<br />
X2 2 <br />
X + 1<br />
∼<br />
X − 1 X<br />
−X<br />
2 −X3 <br />
+ X − 1<br />
∼<br />
<br />
X + 1 1<br />
X2 −X3 + X2 ∼<br />
<br />
+ X − 1<br />
<br />
1 X + 1<br />
−X3 + X2 + X − 1 X2 ∼<br />
<br />
<br />
1 0<br />
−X3 + X2 + X − 1 X4 ∼<br />
<br />
− (X + 1)(X − 1)<br />
<br />
1 0<br />
0 X4 <br />
− (X + 1)(X − 1)
26 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
2.2.6. Exemplo. Uma matriz 2 × 3 com elementos polinomiais, de posto 1:<br />
<br />
X X2 X3 X2 X3 X4 <br />
X 0 X3 ∼<br />
X2 0 X4 <br />
X 0 0<br />
∼<br />
X2 <br />
0 0<br />
∼<br />
<br />
X<br />
0<br />
0<br />
0<br />
<br />
0<br />
0<br />
2.2.7. Exemplo. A matriz característica de uma matriz A ∈ M2(k):<br />
<br />
X − a11 −a12<br />
XI − A =<br />
−a21 X − a22<br />
Suponhamos, primeiramente, que A não é diagonal; digamos, a12 = 0. Então tem-se:<br />
XI − A ∼<br />
∼<br />
<br />
1 X − a11<br />
−a −1<br />
21 (X − a22)<br />
<br />
<br />
1 X − a11<br />
∼<br />
−a21 X − a22 a12a21<br />
<br />
<br />
1 0<br />
1 0<br />
∼<br />
X − a22 −(X − a11)(X − a22) + a12a21 0 cA(X)<br />
onde cA(X) é o polinômio característico de A.<br />
Suponhamos, em seguida, que A seja diagonal, isto é, a12 = a21 = 0. Se a11 = a22, temos:<br />
<br />
X − a11 0<br />
X − a11 −X + a11<br />
XI − A =<br />
∼<br />
0 X − a22<br />
0 (X − a22)<br />
<br />
X − a11 a11 − a22<br />
1 0<br />
∼<br />
∼<br />
0 (X − a22) (a11 − a22) −1 <br />
(X − a22) 0<br />
<br />
1 0<br />
∼<br />
,<br />
0 cA(X)<br />
ainda da mesma forma anterior.<br />
Finalmente, se A é escalar (isto é, a12 = a21 = 0, a11 = a22 := a, então a forma canônica<br />
será a própria matriz característica.<br />
2.3. Forma canônica de Smith<br />
Estamos preparados para os principais resultados desta parte.<br />
2.3.1. Teorema. (Forma canônica de Smith) Toda matriz A ∈ Mm×n(k[X]) é equivalente<br />
a uma matriz m × n semi-diagonal sobre k[X] da forma<br />
⎛<br />
f1(X) 0 · · ·<br />
⎞<br />
0<br />
(2.3.1)<br />
⎜<br />
SA = ⎜<br />
⎝<br />
0<br />
.<br />
f2(X)<br />
0<br />
.<br />
. ..<br />
· · ·<br />
fr(X)<br />
0<br />
.<br />
0<br />
.<br />
0<br />
0<br />
.<br />
· · ·<br />
· · ·<br />
· · ·<br />
0 ⎟<br />
. ⎟<br />
0 ⎟ ,<br />
⎟<br />
0 ⎟<br />
.<br />
⎠<br />
0 0 · · · 0 0 · · · 0<br />
onde r é o posto de A e, para todo 1 ≤ j ≤ r, fj(X) ∈ k[X] é polinômio mônico que divide<br />
fj+1(X) (com a convenção de que fr+1 = 0).<br />
<br />
,
2.3. FORMA CANÔNICA DE SMITH 27<br />
Demonstração. Podemos supor que A não é a matriz nula. Procedemos por indução<br />
sobre m. No conjunto de todas as matrizes equivalentes a A escolhamos uma que admite como<br />
elemento na posição (1, 1) um polinômio mônico de menor grau possivel; denotemos um tal<br />
polinômio por g(X). Dividindo todo elemento da primeira linha de A por g(X), obtemos uma<br />
matriz m × n da forma <br />
g(X)<br />
.<br />
r12(X)<br />
.<br />
. . .<br />
<br />
r1n(X)<br />
,<br />
.<br />
onde r1j(X) são os respectivos restos das divisões. Em particular, gr(r1j(X)) < gr(g(X)), para<br />
todo j. Esta matriz foi obtida de A por (m − 1) transformações elementares, logo é equivalente<br />
a A. Por hipótese, segue necessariamente que r1j(X) = 0 para todo j. Procedendo similarmente<br />
com a primeira coluna desta matriz, obtemos<br />
⎛<br />
⎜<br />
A ∼ ⎜<br />
⎝<br />
g(X) 0 . . . 0<br />
0<br />
. A1<br />
0<br />
onde A1 é matriz m − 1 × n − 1 polinomial. Pela hipótese indutiva, esta matriz é equivalente a<br />
uma matriz<br />
SA1 =<br />
⎛<br />
f2(X) 0 · · ·<br />
⎞<br />
0<br />
(2.3.2)<br />
⎜<br />
⎝<br />
0<br />
.<br />
f3(X)<br />
0<br />
.<br />
. ..<br />
· · ·<br />
fr(X)<br />
0<br />
.<br />
0<br />
.<br />
0<br />
0<br />
.<br />
· · ·<br />
· · ·<br />
· · ·<br />
0 ⎟<br />
. ⎟<br />
0 ⎟ ,<br />
⎟<br />
0 ⎟<br />
.<br />
⎠<br />
0 0 · · · 0 0 · · · 0<br />
onde r − 1 é o posto de A1 e os polinômios se comportam conforme o enunciado do teorema.<br />
Consequentemente, aplicando à matriz dada A operações elementares da forma<br />
⎛<br />
⎞<br />
1 0 . . . 0<br />
⎜ 0<br />
⎟<br />
⎜<br />
⎟<br />
⎝ . P1 ⎠<br />
0<br />
,<br />
onde P1 é matriz m − 1 × n − 1 elementar usada para passar de A1 a SA1 , chegamos a que A é<br />
equivalente a<br />
⎛<br />
f1(X) 0 0 0 0 0 0<br />
⎞<br />
0<br />
⎜<br />
SA = ⎜<br />
⎝<br />
0<br />
0<br />
.<br />
0<br />
0<br />
.<br />
f2(X)<br />
0<br />
.<br />
f3(X)<br />
0<br />
.<br />
. ..<br />
· · ·<br />
fr(X)<br />
0<br />
.<br />
0<br />
0<br />
.<br />
0<br />
0<br />
.<br />
· · ·<br />
· · ·<br />
· · ·<br />
· · ·<br />
0 ⎟<br />
0 ⎟<br />
. ⎟<br />
0 ⎟ .<br />
⎟<br />
0 ⎟<br />
.<br />
⎠<br />
0 0 0 · · · 0 0 · · · 0<br />
⎞<br />
⎟<br />
⎠ ,
28 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
Ponhamos f1(X) := g(X). Resta mostrar que g(X)|f2(X). Ora, a matriz acima é ainda<br />
equivalente à matriz que se obtem ao somar a primeira linha multiplicada por g(X) á segunda<br />
linha. Tornando a dividir f2(X) por g(X), como no inicio, obtemos uma matriz equivalente<br />
com um elemento (o resto desta divisão) com grau menor do que o de g(X). Novamente, somos<br />
obrigados a concluir que g(X) divide f2(X), como queriamos demosntrar. <br />
2.3.2. Teorema. (Unicidade da forma canônica de Smith) A forma (2.3.1) é unicamente<br />
determinada pela matriz dada A. Mais precisamente, para todo 2 ≤ j ≤ r, fj(X) =<br />
dj(X)<br />
dj−1(X) , onde dj(X) é o mdc (mônico) de todos os subdeterminantes de ordem j de A.<br />
Demonstração. Fixemos um j, 1 ≤ j ≤ r, com r = p(A). Se B é elementarmente equivalente<br />
a A, então, devido às possiveis formas das matrizes elementares, vemos que todo menor de<br />
ordem j de B é um menor de ordem j de A multiplicado por um α ∈ k \ 0 ou uma combinação<br />
da forma ∆ + p(X)∆ ′ , onde p(X) ∈ k[X] e ∆, ∆ ′ são menores de ordem j de A.<br />
Daqui resulta, pela definição , que o mdc (mônico) de todos os menores de ordem j de B<br />
é igual ao mdc (mônico) dj de todos os menores de ordem j de A. Iterando este processo,<br />
deduzimos que o mdc (mônico) de todos os menores de ordem j da matriz de Smith SA é igual<br />
a dj.<br />
Ora, como fl|fl+1, para 1 ≤ l ≤ r − 1, resulta facilmente que o mdc (mônico) de todos os<br />
menores de ordem j da matriz de Smith é o produto f1 · · · fj. Logo, dj = f1 · · · fj. Daqui resulta<br />
o enunciado procurado. <br />
2.3.3. Definição. (Fatores invariantes de uma matriz polinomial) Os polinômios<br />
mônicos fj(X) da forma de Smith são chamados os fatores invariantes da matriz A ∈ Mn×n(k[X]).<br />
2.3.4. Corolário. Sejam A, B ∈ Mm×n(k[X]). Então A é equivalente a B se e só se têm<br />
os mesmos fatores invariantes.<br />
2.3.5. Teorema. (Caracterização do polinômio minimo) Seja A ∈ Mn×n(k). Sejam<br />
f1(X), . . . , fn(X) ∈ k[X] os fatores invariantes da matriz carateristica de A, XI − A. Então a<br />
matriz característica XI − A tem posto n e, além disso, tem-se:<br />
c A (X) = f1(X) · · · fn(X), m A (X) = fn(X).<br />
Demonstração. A afirmação relativa ao posto e ao polinômio característico é óbvia. De<br />
fato por definição temos<br />
XI − A = E · SA(X) · E ′ ,<br />
com E, E ′ são produto de matrizes elementares em Mn×n(k[X]). Tomando os determinantes,<br />
deduzimos<br />
c A (X) = det(E) · det(E ′ ) · f1(X) · · · fn(X).<br />
Sendo cA (X) mônico e sendo os fi(X) mônicos, temos det(E) · det(E ′ ) = 1.<br />
Seja dn−1(X) o m.c.d. mônico dos menores de ordem n − 1 de XI − A. Sabemos que<br />
fn(X) = det(XI−A)<br />
dn−1(X) . Por definição de matriz adjunta, temos que o m.c.d. mônico dos elementos<br />
da matriz ad(XI − A) é exatamente dn−1(X). Portanto<br />
ad(XI − A) = dn−1(X) · P (X),
2.3. FORMA CANÔNICA DE SMITH 29<br />
com P (X) ∈ Mn×n(k[X]) matriz com elementos polinômios relativamente primos entre si. De<br />
ad(XI − A) · (XI − A) = det(XI − A) · I obtemos<br />
e portanto<br />
dn−1(X) · P (X) · (XI − A) = dn−1(X) · fn(X) · I<br />
P (X) · (XI − A) = fn(X) · I.<br />
Pelo teorema do resto podemos interpretar a relação anterior como que o resto da divisão a<br />
direita de fn(X) · I por XI − A é nulo, i.e. fn(A) = 0. Isso implica que m A (X) divide fn(X),<br />
i.e.<br />
fn(X) = h(X) · m A (X).<br />
Para concluir é suficiente mostrar que h(X) tem grau zero porque os dois polinômios fn(X) e<br />
m A (X) são mônicos. Dividindo m A (X)·I a direita por XI −A e sendo m A (A) = 0 por definição,<br />
o teorema da divisão garante a existencia de R(X) ∈ Mn×n(k[X]) tal que<br />
Combinando as relações anteriores obtemos<br />
m A (X) · I = R(X) · (XI − A).<br />
P (X) · (XI − A) = h(X) · m A (X) · I = h(X) · R(X) · (XI − A),<br />
que, sendo XI − A de posto n, implica<br />
P (X) = h(X) · R(X).<br />
Então h(X) ∈ k porque, por construção, os elementos de P (X) eram relativamente primos entre<br />
si. <br />
2.3.6. Observação. Assim, o polinômio característico de A é o produto de todos os fatores<br />
invariantes de XI − A e o polinômio minimo de A é o fator característico de maior grau de<br />
A. Para calcular m A (X) podemos determinar a forma normal de Smith ou, mais diretamente,<br />
calcular o mdc dos subseterminantes submáximos da matriz característica de A. Qual método é<br />
mais eficiente? A resposta depende de várias circunstâncias, mas, em geral, para valores grandes<br />
de n, a forma normal de Smith é preferivel.<br />
2.3.7. Observação. Sejam k e k ′ dois corpos com k ⊆ k ′ (e.g. R ⊆ C) e seja A ∈ Mn×n(k).<br />
A priori pensando A como elemento de Mn×n(k ′ ) teremos a noção de polinômio minimo de A<br />
com coeficientes em k ′ , i.e. o polinômio mônico de menor grau de k ′ [X] que se anula sobre<br />
A e não é claro que esse polinômio coincida com o polinômio minimo de A em k[X]. Quanto<br />
acabamos de mostrar revela que o polinômio minimo de A não depende do corpo. Isso porque se<br />
A ∈ Mn×n(k) ⊂ Mn×n(k ′ ), então o n-esimo fator invariante de XI − A pertence sempre a k[X].<br />
Que depende do corpo é a fatorização do polinômio minimo e portanto a ”forma canônica”. Por<br />
exemplo considerando<br />
A =<br />
0 −1<br />
1 0<br />
como matriz com coeficentes reais, temos que m A (X) = X 2 + 1 e que A é in forma canonica<br />
racional como matriz real. Em M2×2(C), o polinômio minimo de A se fatora em m A (X) =<br />
(X − i)(X + i) e a forma canônica racional como matriz complexa de A é<br />
i 0<br />
0 −i<br />
<br />
.
30 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
2.4. Equivalencia em Mn×n(k[X]) e semelhnanca em Mn×n(k)<br />
2.4.1. Teorema. Sejam A(X), B(X) ∈ Mn×n(k[X]) com B(X) propria e A(X) e B(X) de<br />
grau um. Então A(X) é equivalente a B(X) se e só se existirem P, Q ∈ Mn×n(k) inversiveis<br />
tais que B(X) = P · A(X) · Q.<br />
Demonstração. Se B(X) = P · A(X) · Q, então claramente A(X) é equivalente a B(X)<br />
(lembramos que cada matriz in Mn×n(k) invertivel é produto de matrizes elementares!).<br />
Ao contrario se A(X) e B(X) são equivalentes, existem P (X), Q(X) ∈ Mn×n(k[X]) produtos<br />
de matrizes elementares tais que<br />
(2.4.1)<br />
B(X) = P (X) · A(X) · Q(X).<br />
Sendo B(X) propria pudemos dividir a esquerda a matriz P (X) por B(X) e a matriz Q(X) a<br />
direita obtendo<br />
(2.4.2)<br />
(2.4.3)<br />
P (X) = B(X) · P1(X) + P,<br />
Q(X) = Q1(X) · B(X) + Q,<br />
onde sendo B(X) de grau um, temos P, Q ∈ Mn×n(k). Combinando (2.4.2) e (2.4.1), obtemos<br />
(2.4.4)<br />
P · A(X) · Q1(X) = B(X) · D1(X),<br />
com D1(X) = (Q(X) −1 − P1(X)) · Q1(X). Seja<br />
P1(X) · A(X) · Q(X) = D2(X) · B(X),<br />
onde D2(X) = P1(X) · P (X) −1 .<br />
No resto da demostração vamos provar que essas matrizes P e Q têm a propriedade querida,<br />
i.e. que B(X) = P ·A(X)·Q. Por isso vamos substuir na primeira equação de cima as expressões<br />
obtidas nas equações anteriores. Então<br />
B(X) = (P + B(X)P1(X)) · A(X) · Q(X)<br />
= P · A(X) · Q(X) + B(X) · D2(X) · B(X)<br />
= P · A(X) · Q + P · A(X) · Q1(X) · B(X) + B(X) · D2(X) · B(X)<br />
= P · A(X) · Q + B(X) · D(X) · B(X),<br />
onde D(X) = D1(X) + D2(X). Para concluir é bastante mostrar que D(X) = 0. De<br />
B(X) − P · A(X) · Q = B(X) · D(X) · B(X),<br />
sendo que A(X) e B(X) têm grau um, segue que B(X)D(X)B(X) tem grau no máximo um. Se<br />
D(X) = 0, então , sendo B(X) uma matriz propria, B(X) · D(X) · B(X) teria grau pelo menos<br />
dois que seria impossivel. Obtemos que D(X) = 0 e que B(X) = P · A(X) · Q como desejado.<br />
Mostamos agora que P e Q são inversiveis. Se B(X) = B1X + B0 e se A(X) = A1X + A0,<br />
obtemos<br />
B1X + B0 = P · (A1X + A0) · Q = (P · A1 · Q)X + P · A0 · Q,<br />
i.e. B1 = P · A1 · Q e a afirmação segue do feito que B1 é invertivel (por que?). <br />
O proximo teorema é de importancia fundamental e vai permitir de dezurir muitos resultados<br />
da teoria dos fatores invariantes e da forma canônica de Smith da matriz característica XI − A,<br />
A ∈ Mn×n(k).<br />
2.4.2. Teorema. Duas matrizes A, B ∈ Mn×n(k) são semelhantes se e só se XI − A é<br />
equivalente a XI − B em Mn×n(k[X]).
2.5. FORMA CANÔNICA RACIONAL 31<br />
Demonstração. Se A é semelhante a B, então existe P ∈ Mn×n(k) invertivel tal que<br />
P · B · P −1 = A. Facilmente obtemos P (XI − B)P −1 = XI − A e a conclusão segue do feito<br />
que uma matriz invertivel em Mn×n(k) é produto de matrizes elementares. Portanto XI − B é<br />
equivalente a XI − A.<br />
Se XI − A é equivalente a XI − B pelo teorema 2.4.1, existem P, Q ∈ Mn×n(k) tais que<br />
XI − B = P · (XI − A) · Q. Eseguindo a multiplicação obtemos P · Q = I, i.e. Q = P −1 e<br />
B = P · A · P −1 , i.e. A e B são semelhantes. <br />
2.4.3. Corolário. Sejam k um subcorpo do corpo k ′ e sejam A, B ∈ Mn×n(k). Então A e<br />
B são semelhantes em Mn×n(k) se e só se são semelhantes em Mn×n(k ′ ).<br />
Demonstração. Sendo Mn×n(k) ⊆ Mn×n(k ′ ), é claro que se A e B são semelhantes em<br />
Mn×n(k), então são semelhantes em Mn×n(k ′ ).<br />
Se A e B são semelhantes em Mn×n(k ′ ), entao pelo teorema anterior XI − A e XI − B são<br />
equivalentes em Mn×n(k ′ [X]) e portanto tem os mesmos fatores invariantes em k ′ [X]. Mas os<br />
fatores invariantes de XI − A e XI − B são polinômios em k[X] e portanto as matrizes XI − A<br />
e XI − B são equivalentes em Mn×n(k[X]) pelo corollario 2.3.4 tendo a mesma forma canônica<br />
de Smith. Aplicando mais uma vez o teorema 2.4.2 deduzimos que A e B são semelhantes em<br />
Mn×n(k). <br />
2.4.4. Observação. Não é verdade que se A = P ′ · B · P ′−1 com P ′ ∈ Mn×n(k ′ ), então<br />
P ′ ∈ Mn×n(k). O corolario anterior garante só a existência de uma matriz P ∈ Mn×n(k) tal<br />
que A = P · B · P −1 .<br />
2.5. Forma canônica racional<br />
O Teorema 2.4.2 permite de deduzir os teoremas da forma canônica racional da teoria dos<br />
fatores invariantes e até de fornecer uma demosntração diferente do Teorema de Decomposição<br />
Primaria, Teorema 1.5.1. Vamos tratar primeiro o caso das matrizes companheiras.<br />
2.5.1. Definição. (Matriz companheira de um polinômio monico g(X) = Xm −<br />
αm−1X m−1 − . . . − α1X − α0 de grau m). A matriz m × m<br />
⎛<br />
0 0 0 . . . α0<br />
⎜ 1 0 0 . . . α1<br />
⎜<br />
C(g(X)) = ⎜ 0 1 0 . . . α2<br />
⎜<br />
⎝<br />
.<br />
. . . .. .<br />
⎞<br />
⎟ .<br />
⎟<br />
⎠<br />
0 0 0 1 αm−1<br />
se diz a matriz companheira de g(X) e se indica com C(g(X)).<br />
2.5.2. Proposição. Seja f(X) ∈ k[X] um polinômio mônico de grau n ≥ 1e seja C(f(X)) ∈<br />
Mn×n(K) a matriz companheira de f(X). Então XI − C(f(X)) é equivalente a<br />
⎛<br />
⎞<br />
1 0 0 0 0 0<br />
⎜ 0<br />
⎜ 0<br />
⎜ .<br />
⎜<br />
⎝<br />
.<br />
1 0<br />
1<br />
0<br />
0<br />
. ..<br />
· · ·<br />
· · ·<br />
.<br />
. ..<br />
0<br />
0<br />
.<br />
.<br />
⎟ ∈ Mn×n(k[X]).<br />
⎟<br />
⎠<br />
0 f(X)
32 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
Demonstração. É facil verificar (verifique!) que para uma matriz da forma C(f(X))<br />
temos mC(f(X)) (X) = cC(f(X)) (X) = f(X), cfr. Lema 2.8.2. Portanto os fatores invariantes de<br />
XI − C(f(X)) são tais que<br />
f1(X) · · · fn(X) = c C(f(X)) (X) = f(X) = m C(f(X)) (X) = fn(X).<br />
Segue que f1(X) = · · · = fn−1(X) = 1 e fn(X) = f(X). A forma canônica de Smith de<br />
XI − C(f(X)) é esatamente como acima. <br />
2.5.3. Teorema. (Forma canônica racional-primeira versão ) Cada matriz A ∈ Mn×n(k)<br />
é semelhante a uma unica matriz da forma<br />
⎛<br />
C(fl(X)) 0<br />
⎜ 0 C(fl+1(X))<br />
⎜<br />
⎝ .<br />
0 0<br />
· · ·<br />
. ..<br />
0<br />
0<br />
.<br />
⎞<br />
⎟<br />
⎠<br />
0 C(fn(X))<br />
,<br />
onde os fj(X), j = l, . . . , n, 1 ≤ l ≤ n, são polinômios mônicos não costantes com a<br />
propriedade que fi(X) divide fi+1(X) para cada i = l, . . . , n − 1. Os polinômios fj(X) são os<br />
fatores invariantes não constantes de XI − A.<br />
Demonstração. Seja ⎛<br />
⎜<br />
⎝<br />
1 0 0 0 0 0<br />
0 1 0 0 · · · 0<br />
0<br />
.<br />
fl(X)<br />
. ..<br />
0 · · ·<br />
.<br />
0<br />
.<br />
0 fn(X)<br />
a forma canônica de Smith de XI − A, i.e. os fj(X) são os fatores invariantes não constantes<br />
de XI − A. Seja<br />
⎛<br />
C(fl(X))<br />
⎜ 0<br />
C = ⎜<br />
⎝ .<br />
0<br />
C(fl+1(X))<br />
0<br />
. ..<br />
0<br />
· · ·<br />
0<br />
0<br />
.<br />
⎞<br />
⎟<br />
⎠<br />
0 C(fn(X))<br />
.<br />
Observamos que C ∈ Mn×n(k).<br />
Então<br />
⎛<br />
XI − C(fl(X))<br />
⎜ 0<br />
XI − C = ⎜<br />
⎝ .<br />
0<br />
XI − C(fl+1(X))<br />
0<br />
. ..<br />
0<br />
· · ·<br />
0<br />
0<br />
.<br />
⎞<br />
⎟<br />
⎠<br />
0 XI − C(fn(X))<br />
e pela proposição 2.5.2 cada bloco XI − C(fj(X)) e’ equivalente a<br />
⎛<br />
⎞<br />
1 0 0 0 0 0<br />
⎜ 0<br />
⎜ 0<br />
⎜ .<br />
⎜<br />
⎝<br />
.<br />
1 0<br />
1<br />
0<br />
0<br />
. ..<br />
· · ·<br />
· · ·<br />
.<br />
. ..<br />
0<br />
0<br />
.<br />
.<br />
⎟ .<br />
⎟<br />
⎠<br />
0 fj(X)<br />
⎞<br />
⎟<br />
⎠
2.6. FATORES INVARIANTES E DIVISORES ELEMENTARES 33<br />
Portanto XI − C é equivalente a<br />
⎛<br />
1 0 0 0 0 0<br />
⎞<br />
⎜ 0<br />
⎜ 0<br />
⎜ .<br />
⎜<br />
⎝<br />
.<br />
1 0<br />
fl(X)<br />
0<br />
0<br />
. ..<br />
· · ·<br />
· · ·<br />
.<br />
. ..<br />
0<br />
0<br />
.<br />
.<br />
⎟<br />
⎠<br />
0 fn(X)<br />
e de consequencia a XI − A. Disso deduzimos que A é semelhante a C pelo Teorema 2.4.2. A<br />
unicidade é clara porque se A fosse semelhante a uma matriz da forma<br />
C ′ ⎛<br />
C(f<br />
⎜<br />
= ⎜<br />
⎝<br />
′ l ′(X)) 0 0 0 0<br />
0 C(f ′ l ′ +1 (X)) · · · 0<br />
.<br />
.<br />
..<br />
.<br />
0 C(f ′ ⎞<br />
⎟<br />
⎠<br />
n(X))<br />
,<br />
com f ′ i (X) mônico e irredutivel e tal que f ′ i (X) divide f ′ i+1 (X), os fatores invariantes de XI −C′<br />
seriam f ′ l ′(X), . . . , f ′ n(X)(argumentaremos como acima) e seriam também os fatores invariantes<br />
de XI − A. Portanto teremos l = l ′ e f ′ j (X) = fj(X) e a unicidade resulta provada. <br />
2.6. Fatores invariantes e divisores elementares<br />
2.6.1. Proposição. Se f(X) = q1(X) e1 · · · ql(X) el é um polinômio de grau n, onde os qj(X)<br />
são irredutiveis, mônicos e distintos, então C(f(X)) é semelhante a uma matriz da forma<br />
⎛<br />
C(q1(X)<br />
⎜<br />
⎝<br />
e1 )<br />
C(q2(X) e2 )<br />
. ..<br />
C(ql(X) el)<br />
⎞<br />
⎟<br />
⎠ .<br />
Demonstração. Seja<br />
⎛<br />
C(q1(X)<br />
⎜<br />
C = ⎜<br />
⎝<br />
e1 )<br />
0<br />
0<br />
C(q2(X)<br />
0 0 0<br />
e2<br />
.<br />
)<br />
. ..<br />
· · · 0<br />
.<br />
0 C(ql(X) el)<br />
⎞<br />
⎟<br />
⎠ .<br />
Então<br />
⎛<br />
XI − C(q1(X)<br />
⎜<br />
XI − C = ⎜<br />
⎝<br />
e1 )<br />
0<br />
0<br />
XI − C(q2(X)<br />
0 0 0<br />
e2<br />
.<br />
)<br />
. ..<br />
· · · 0<br />
.<br />
0 XI − C(ql(X) el)<br />
⎞<br />
⎟<br />
⎠<br />
e como antes cada bloco XI − C(qj(X) ej ) e’ equivalente a<br />
⎛<br />
1 0 0 0 0 0<br />
⎜ 0 1 0 0 · · · 0<br />
⎜ 0 1 0 · · · 0<br />
⎜<br />
⎝<br />
.<br />
. .. . .<br />
0 qj(X) ej<br />
⎞<br />
⎟ .<br />
⎟<br />
⎠
34 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
Sendo que os polinômios qj(X) são irredutiveis e relativamente primos, o m.c.d. mônico dos<br />
menores de ordem n − 1 de XI − C é igual a 1 (por que?). Portanto XI − C é equivalente a<br />
⎛<br />
⎞<br />
1 0 0 0 0 0<br />
⎜ 0 1 0 0 · · · 0 ⎟<br />
⎜ 0 1 0 · · · 0 ⎟<br />
⎜<br />
⎝<br />
.<br />
. ..<br />
⎟<br />
. . ⎠<br />
0 f(X)<br />
que é a forma canônica de Smith de XI − C(f(X)). Portanto C(f(X)) é semelhante a C. <br />
2.6.2. Corolário. (Forma canônica racional-segunda versão ). Seja A ∈ Mn×n(k)<br />
com polinômio minimo mA (X) = q1(X) e1 . . . qr(X) er . Então<br />
i) Existe uma matriz semelhante a A da forma<br />
⎛<br />
⎞<br />
⎜<br />
D = ⎜<br />
⎝<br />
onde cada Di tem a forma<br />
⎛<br />
C(qi(X)<br />
⎜<br />
Di = ⎜<br />
⎝<br />
ei )<br />
D1<br />
D2<br />
. ..<br />
C(qi(X) ei,2 )<br />
Dr<br />
. ..<br />
⎟<br />
⎠ ,<br />
C(qi(X) ei,p i )<br />
e temos ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r, p1 ≥ p2 ≥ . . . ≥ pr.<br />
ii) A forma da matriz no ponto acima se diz forma canônica racional de A e é unica modulo<br />
uma permutação dos blocos.<br />
iii) Os polinômios qi(X) ei,j , i = 1, . . . , r, j = 1, . . . , pi se dizem divisores elementares de A.<br />
Os divisores elementares são os fatores primários dos fatores invariantes de XI − A.<br />
Demonstração. Sejam fk(X), . . . , fn(X) os fatores invariantes não costantes de XI − A.<br />
Na fatorização dos fj(X) podem aparacer como fatores irredutiveis só q1(X), . . . , qr(X) (por<br />
que?). Portanto aplicando o teorema 2.5.3 e a proposição 2.6.1 deduzimos que A é semelhante<br />
a uma matriz<br />
⎛<br />
⎞<br />
⎜<br />
B = ⎜<br />
⎝<br />
Bk<br />
Bk+1<br />
onde cada Bl, l = k, . . . , n tem a forma<br />
⎛<br />
C(q1(X)<br />
⎜<br />
Bl = ⎜<br />
⎝<br />
e1,n−l+1)<br />
C(q2(X) e2,n−l+1)<br />
. ..<br />
Bn<br />
. ..<br />
⎟<br />
⎠ ,<br />
⎞<br />
⎟<br />
⎠<br />
C(qr(X) er,n−l+1)<br />
com ei,n−l+1 ≥ 0, ei,1 = ei e ei,n−l+1 ≤ ei,n−l para cada i = 1, . . . , r. Sendo XI − B claramente<br />
equivalente a XI − D, obtemos que A é semelhante a D. Resulta claro, revertendo o argumento<br />
⎞<br />
⎟<br />
⎠ ,
2.7. DECOMPOSIÇÃO PRIMARIA E CICLICA 35<br />
que grupando as matrizes companheiras de divisores elementares distintos, podemos construir<br />
B como acima tal que XI − D seja equivalente a XI − B. Sendo que os qi(X) são irredutiveis<br />
e distintos, cada matriz XI − Bl e’ equivalente a uma matriz do tipo<br />
⎛<br />
1<br />
⎜ 1<br />
⎜<br />
⎝<br />
. ..<br />
q1(X) e1,n−l · · · qr(X) er,n−l<br />
⎞<br />
⎟<br />
⎠ .<br />
Sejam fl(X) = q1(X) e1,n−l · · · qr(X) er,n−l; temos que fl(X) é mônico e divide fl+1(X). Segue<br />
que XI − B, e portanto XI − A, e’ equivalente a<br />
⎛<br />
1<br />
⎜ 0<br />
⎜ 0<br />
⎜<br />
⎝ .<br />
0<br />
1<br />
0<br />
0<br />
fk(X)<br />
. ..<br />
0<br />
0<br />
0<br />
0<br />
· · ·<br />
· · ·<br />
.<br />
0<br />
0<br />
0<br />
.<br />
⎞<br />
⎟ ,<br />
⎟<br />
⎠<br />
0 fn(X)<br />
onde cada fl(X) divide o seguinte e é mônico. Isso mostra a unicidade da forma canônica<br />
racional de A (por que?). <br />
Segue imediatamente o seguinte fato.<br />
2.6.3. Corolário. Duas matrizes A, B ∈ Mn×n(k) são semelhantes se e só se têm a mesma<br />
forma canônica racional se e só se têm os mesmos divisores elementares.<br />
A demonstração da segunda versão da forma canonica racional mostra tambem como dados<br />
os divisores elementares de uma matriz A ∈ Mn×n(k) se construem os fatores invariantes de<br />
XI − A. Sejam qi(X) ei,j os divisores elementares, i = 1, . . . , r, j = 1, . . . , pi, p1 ≥ . . . ≥ pr.<br />
Pondo ei,m = 0 se m > pi, podemos construir a seguinte matriz em Mp1×r(k[X])<br />
⎛<br />
⎞<br />
⎜<br />
⎝<br />
q1(X) e1,p1 q2(X) e2,p1 · · · · · · qr(X) er,p 1<br />
q1(X) e1,p1−1 q2(X) e2,p1−1 · · · · · · qr(X) er,p1−1 .<br />
. .. . .<br />
q1(X) e1,1 q2(X) e2,1 · · · · · · qr(X) er,1<br />
Então os fatores invariantes de XI − A são os polinômios monicos obtidos multiplicando os<br />
elementos de cada linha da matriz acima. Ao contrario dados os fatores invariantes não costantes<br />
de XI − A podemos construir uma matriz como acima em qual cada entrada seja um divisor<br />
elementar de A.<br />
⎟<br />
⎠ .<br />
2.7. Teoremas de decomposição T -ciclica I e T -primaria II<br />
Os resultados da seção anterior permitem de demonstrar diferentemente o Teoremas de Decomposição<br />
T -primaria e tambem de provar o Teorema de Decomposição T -ciclica. Vamos obter<br />
os teoremas de decomposição ciclica e primaria como corolarios dos resultados anteriores pela<br />
bem nota correspondencia entre matrizes semelhantes como matrizes de uma mesma aplicação<br />
linear com respeito a bases diferentes. Na proxima seção forneceremos uma demonstração direta<br />
do Teorema de Decomposição T -ciclica e portanto dos resultado dessa seção. Antes precisamos<br />
da definição de subespaço T -ciclico.
36 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
2.7.1. Definição. (Subespaço T -ciclico) Seja T ∈ End(V ). Dado um vetor u ∈ V , o<br />
subconjunto<br />
U = {f(T )(u) | f(X) ∈ k[X]}<br />
é subespaço de V . Um subespaço de V desta forma é dito ser T -ciclico, associado ao vetor u (u<br />
éntão dito ser um gerador de U, se não der lugar a confusões).<br />
2.7.2. Observação. A designação acima vem do fato de que um tal subespaço é o k[X]submódulo<br />
de V gerado pelo elemento u ∈ V , onde a estrutura de k[X]-módulo de V é a<br />
introduzida no Capítulo 1.<br />
Se U é subespaço T -ciclico, então U é obviamente T -invariante. Se r = dim(U), então<br />
B = {u, T (u), . . . , T r−1 (u)} é uma base de U. Se T r (u) = r−1 i=0 αiT i (u) e se f(X) = Xr −<br />
r−1 i=0 αiX i , temos que<br />
[T ] B B = C(f(X)),<br />
vide-se o Lemma 2.8.2 para os detalhes das demonstrações das afirmações acima.<br />
2.7.3. Corolário. (Existencia e unicidade decomposição T -ciclica) Seja T ∈ End(V )<br />
com polinômio minimo m T (X) = q1(X) e1 . . . qr(X) er . Então<br />
i) V = U1,1 ⊕ U1,2 ⊕ . . . ⊕ U1,p1 ⊕ U2,1 ⊕ . . . ⊕ Ur,pr com Ui,j subespaços T -ciclicos tais que<br />
para cada i = 1, . . . , r e para cada j = 1, . . . , pi − 1, dim(Ui,j) ≥ dim(Ui,j+1).<br />
ii) O polinômio minimo da restrição de T a Ui,j e’ da forma qi(X) ei,j com ei = ei,1 ≥<br />
ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r. (os polinômios qi(X) ei,j se dizem divisores<br />
elementares de T )<br />
iii) dim(Ui,j) = ei,j · di, onde di = grau(qi(X)).<br />
iv) Existe uma base B de V tal que<br />
[T ] B B =<br />
onde cada Ai tem a forma<br />
⎛<br />
C(qi(X)<br />
⎜<br />
Ai = ⎜<br />
⎝<br />
ei )<br />
⎛<br />
⎜<br />
⎝<br />
A1<br />
A2<br />
C(qi(X) ei,2 )<br />
. ..<br />
. ..<br />
Ar<br />
⎞<br />
⎟<br />
⎠ ,<br />
C(qi(X) ei,p i )<br />
v) A forma da matriz no ponto iv) se diz forma canônica racional de T e e’ unica modulo<br />
uma permutação dos blocos.<br />
Demonstração. Seja B ′ uma base de V e seja A = [T ] B′<br />
B ′. O resultado segue aplicando a<br />
segunda versão da forma canônica racional a matriz A. <br />
⎞<br />
⎟<br />
⎠ .
2.8. DECOMPOSIÇÃO T -CICLICA 37<br />
2.7.4. Corolário. (Teorema de decomposição primaria) Seja T ∈ End(V ), seja<br />
o polinônmio característico de T e seja<br />
c T (X) = q1(X) l1 · · · qr(X) lr<br />
m T (X) = q1(X) e1 · · · qr(X) er<br />
o polinômio minimo de T , onde cada qi(X) é um polinômio mônico irredutivel, 1 ≤ ei ≤ li para<br />
cada i = 1, . . . , r e os qi(X) são distintos. Então<br />
i) ker (qi(T ) ei ) = 0V é um subespaço T -invariante para cada i = 1, . . . , r.<br />
ii) V = ker (q1(T ) e1 ) ⊕ · · · ⊕ ker(qk(T ) er ).<br />
iii) dim(ker (qi(T ) ei )) = li · grau(qi(X)).<br />
iv) O polinômio minimo da restrição de T a ker (qi(T ) ei ) é qi(X) ei .<br />
Demonstração. Seja Vi = pi j=1 Ui,j, onde os Ui,j são os subespaços T -ciclicos contruidos<br />
aplicando o corolario 2.7.3. Então cada Vi é T -invariante e V = V1 ⊕ . . . ⊕ Vr; a restrição<br />
de T a cada Vi tem como polinômio minimo qi(X) ei . Disso segue facilmente que o polinômio<br />
carateristico de T |Vi é qi(X) l1 , vide-se Proposição 2.1.10. Portanto dim(Vi) = li · grau(qi(X)).<br />
Para concluir e’ suficiente mostrar que Vi = ker (qi(T ) ei ) = ker (qi(T ) li ). Temos as inclusoes<br />
Vi ⊆ ker (qi(T ) ei ) ⊆ ker (qi(T ) li ). Se Vi,,j = ker (qi(T ) li ) ∩ Vj = 0V , com j = i, esse subespaço<br />
de Vj seria T -invariante por ser interseção de subespaços T -invariantes e para qualquer v ∈ Vi,j<br />
teremos qi(T ) li (v) = 0V = qj(T ) em,j li<br />
(v). O polinômio minimo de T|Vi,j deveria dividir qi(X)<br />
e qj(X) em,j , que são coprimos e seria portanto o polinômio costante 1. Essa contradição prova<br />
que ker (qi(T ) li ) ⊆ Vi, concluindo a demonstração. <br />
2.8. Teorema de decomposição T –ciclica II<br />
O objetivo dessa seção e’ demonstrar diretamente o Teorema de Decomposição T -ciclica,<br />
Teorema 2.8.1 abaixo, já provado no Corolario 2.7.3. Dessa maneira vamos obter uma nova<br />
demonstração do Corolario 2.6.2 que não depende da teoria dos fatores invariantes e das matrizes<br />
polinomiais. Para ficar completamtente independentes da citada teoria, usaremos o Teorema da<br />
decomposição T -primária demonstrado diretamente no Teorema 1.5.1.<br />
Pelo teorema de decomposição primária, querendo achar uma forma canônica para um operador<br />
T : V → V podemos supor sem perda de generalidade que m T (X) = q(X) e com e ≥ 1 e<br />
q(X) irredutivel em k[X]. A partir desse caso com o procedimento usual acharemos a ”forma<br />
canônica”para um T qualquer fatorizando o polinômio minimo de T em fatores irredutiveis<br />
mônicos. Para encontrar a forma canônica vamos demostrar um teorema de existencia e unicidade<br />
para uma decomposição de V em subespaços T -ciclicos; a restrição de T a esse subespaços<br />
vai ter como matriz em uma base oportunamente escolhida uma matriz naturalmente associada<br />
a q(X) li , e = l1 ≥ l2 ≥ . . . ≥ lp.<br />
2.8.1. Teorema. (Existencia e unicidade da decomposição ciclica) Seja T : V → V<br />
uma aplicação linear e suponhamos que<br />
m T (X) = q(X) e ,<br />
com q(X) ∈ k[X] irredutivel e mônico e com e ≥ 1. Então :<br />
i) (existência) V = U1 ⊕ U2 . . . ⊕ Up, onde cada Ui e’ um subespaço T -ciclico tal que<br />
o polinômio minimo de T |Ui seja da forma q(X)ei com e = e1 ≥ e2 ≥ . . . ≥ ep,<br />
dim(Ui) = d · ei, d = grau(q(X)).
38 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
ii) (unicidade) Se V = U ′ 1 ⊕ U ′ 2 . . . ⊕ U ′ p ′, onde cada U ′ j e’ um subespaço T -ciclico tal que<br />
o polinômio minimo de T |U ′ seja da forma q(X)<br />
j e′ j com e = e ′ 1 ≥ e′ 2 ≥ . . . ≥ e′ p ′, então<br />
p = p ′ e ei = e ′ i para cada i = 1, . . . , p.<br />
Demonstração. Para indução sobre n = dim(V ) ≥ 1. Para n = 1, necessariamente<br />
mT (X) = X − α e o teorema e’ verdadeiro.<br />
Seja d = grau(q(X)) ≥ 1. Temos q(T ) e−1 = 0End(V ) por definição de polinômio minimo.<br />
Então existe u ∈ V tal que q(T ) e−1 (u) = 0V . Seja U1 =< u, T (u), . . . >, i.e. o subespaco<br />
ciclico T -invariante gerado por u e seja T1 a restrição de T a U1. Sendo que q(T1) e = 0End(U1) o polinômio minimo de T1 e’ da forma q(X) e1 com e1 ≤ e. De q(T1) e−1 (u) = 0 deduzimos<br />
e1 = e. Então U1 =< u, T (u), . . . , T de−1 (u) > porque sendo q(X) e o polinômio minimo de T |U1 ,<br />
T de (u) ∈< u, T (u), . . . , T de−1 (u) > e portanto T r (u) ∈< u, T (u), . . . , T de−1 (u) > para cada<br />
r ≥ d · e. Por outro lado temos que se u, T (u), . . . , T de−1 (u) fossem linearmente dependentes,<br />
então o polinômio minimo de T |U1 seria de grau menor a d · e (lembramos que f(T |U1 ) = 0 se e<br />
só se f(T )(u) = 0). Concluimos que dim(U1) = de. Se d · e = n, o teorema esta demostrado.<br />
Suponhamos d · e < n.<br />
Sendo U1 um subespaço T -invariante, T induz uma transformação linear T : V/U1 → V/U1<br />
definida como<br />
T ([v]) = [T (v)].<br />
(Mostrar que e’ bem definida!). Se f(X) ∈ k[X], então se verifica logo que<br />
f(T )([v]) = [f(T )(v)].<br />
Dessa ultima relação deduzimos que m T (X) divide m T (X), i.e. m T (X) = q(X) e2 , e2 ≤ e1 = e.<br />
Se W é um subespaço T -ciclico de V gerado por w tal que q(X) e seja o polinômio minimo de<br />
T |W , então q(X) e é um multiplo do polinômio minimo da restrição de T ao subesaço T -ciclico<br />
gerado por [w].<br />
Aplicando a ipotese de indução a V/U1, de dimensão n − dim(U1) < n, obtemos<br />
V/U1 = U 2 ⊕ U 3 . . . ⊕ U p,<br />
onde cada U j e’ T -ciclico e a restrição de T a cada U j tem polinômio minimo da forma q(X) ej<br />
com e2 ≥ e3 ≥ . . . ≥ ep. Para completar a demostração vamos construir a partir de U j,<br />
j = 2, . . . , p subespaços Uj de V tais que:<br />
a) cada Uj seja isomorfo a U j e então T -ciclico;<br />
b) o polinômio minimo da restrição de T a Uj seja exatamente q(X) ej ;<br />
c) V = U1 ⊕ U2 . . . ⊕ Up.<br />
Cada subespaço U j e’ gerado por um vetor [uj] e temos<br />
U j =< [uj], . . . , T ljd−1 ([uj]) > .<br />
De q(T ) lj ([uj]) = 0 V/U1 deduzimos q(T )ej (uj) ∈ U1; sendo U1 gerado por u1 obtemos q(T ) ej (uj) =<br />
f(T )(u1) por algum f(X) ∈ k[X]. Afirmamos que podemos deduzir a existencia de um vetor<br />
u ′ j ∈ U1 tal que q(T ) ej (T )(uj + u ′ j ) = 0V . Demonstrado isso pegaremos<br />
Uj =< uj + u ′ j , . . . , T ejd−1<br />
(uj + u ′ j ) ><br />
e verificaremos as propriedades a), b) e c).<br />
A afirmação segue dos seguintes fatos. Temos<br />
0V = q(T ) e (uj) = q(T ) e−ej q(T ) ej (uj)q(T ) e−ej f(T )(u1).
2.8. DECOMPOSIÇÃO T -CICLICA 39<br />
Sendo que a restrição de T a U1 tem polinômio minimo q(X) e , temos que q(X) e divide q(X) e−ej f(X).<br />
Isso implica f(X) = h(X)q(X) ej (por que?). Tomando u ′ j = −h(T )(u1) ∈ U1, temos<br />
q(T ) ej (uj + u ′ j ) = f(T )(u1) + q(T ) ej (−h(T )(u1)) = 0V .<br />
Sendo que u ′ j ∈ U1, claramente [uj] = [uj + u ′ j ] e então esse vetor é um gerador de U j,<br />
j = 2, . . . , p. Observamos antes que o polinômio minimo da restrição de T a Uj é um multiplo<br />
de q(X) ej , mas q(T ) ej (uj + u ′ j ) = 0V implica que o polinômio minimo da restrição de T a Uj<br />
seja esatamente q(X) ej , assim que b) esta demonstrado. Mostramos a). Argumentando como<br />
no caso de U1 no inicio da demonstração, temos que os espaços vetorias Uj e U j têm dimensão<br />
d·lj. O mapa natural πj : Uj → U j definido como πj(uj +u ′ j ) = [uj +u ′ j ] = [uj] é uma aplicação<br />
linear sobrejetora que, pelo teorema do nucleo e da imagem, induz um isomorfismo entre Uj e<br />
U j para cada j = 2, . . . p, completando a demonstração do ponto a).<br />
Indicamos con π : V → V/U1 o mapa projeção definido como π(v) = [v]. Entao a restrição<br />
de π a cada Uj é o πj definido anteriormente. Sendo que πj é um isomorfismo, temos Uj∩U1 = 0V<br />
para cada j = 2, . . . , p. Se w1 + w2 + . . . + wp = 0V , com wi ∈ Ui, i = 1, . . . , p, aplicando<br />
π, teremos π(w2) + . . . + π(wp) = 0V , π(wj) ∈ U j para cada j = 2, . . . , p. Isso implica<br />
π(wj) = 0 V/U1 (por que?) e portanto wj = 0V para cada j = 2, . . . , p pela injetividade de<br />
πj. Portanto a soma U1 + . . . + Up é direta e coincide com V sendo um subespaço de dimensão<br />
n = dim(V ).<br />
Passamos a mostrar a unicidade da decomposição na forma especificada em ii). Seja m ≥ 1<br />
o menor inteiro tal que em = e ′ m. Sendo e1 = e = e ′ 1 , temos 2 ≤ m ≤ min{p, p′ }. Podemos supor<br />
sem perda de generalidade que em > e ′ m. Por outro lado sabemos que e ′ m ≥ e ′ j para cada j ≥ m<br />
e portanto que q(T ) e′ m(U ′ j ) = 0V para cada j ≥ m. Então<br />
q(T ) e′ m(V ) = q(T ) e′ m(U ′ 1) ⊕ q(T ) e′ m(U ′ 2) ⊕ . . . ⊕ q(T ) e′ m(U ′ m−1),<br />
onde a soma continua direta porque os U ′ j são T -invariantes. Cada U ′ k e’ T -ciclico de dimensão<br />
d · e ′ k . Se verifica facilmente que dim(q(T )e′ m(U ′ k )) = d · (e′ k − e′ m) para cada k = 1, . . . , m − 1.<br />
Calculando com a outra decomposição obtemos<br />
q(T ) e′ m(V ) ⊇ q(T ) e′ m(U1) ⊕ q(T ) e′ m(U2) ⊕ . . . ⊕ q(T ) e′ m(Um−1) ⊕ q(T ) e′ m(Um)<br />
com dim(q(T ) e′ m(Ut)) = d(et−e ′ m) para cada t = 1, . . . , m. Disso deduzimos m−1<br />
k=1 d·(e′ k −e′ m) ≥<br />
m<br />
k=1 d(ek − e ′ m) e portanto em ≤ e ′ m contra a hipotese. <br />
Combinando o teorema de decomposição primária e o teorema de decomposição ciclica,<br />
dado T : V → V aplicação linear podemos sempre supor a existencia de subespaços T -ciclicos.<br />
Portanto para estudar T é suficiente conhecer a restrição dele aos subespacos T -ciclicos que T<br />
individua, sendo esses essencialmente ”unicos”.<br />
2.8.2. Lema. Seja U um subsespaço T -ciclico de V de dimensão m ≥ 1.<br />
Então :<br />
i) U tem uma base B da forma B = {u, T (u), . . . , T m−1 (u)}.<br />
ii) Se T m (u) = α0u + α1T (u) + . . . + αm−1T m−1 (u), então<br />
[T ] B B =<br />
⎛<br />
⎜<br />
⎝<br />
0 0 0 . . . α0<br />
1 0 0 . . . α1<br />
0<br />
.<br />
1<br />
.<br />
0<br />
.<br />
. . .<br />
. ..<br />
α2<br />
.<br />
0 0 0 1 αm−1<br />
⎞<br />
⎟ = C(X<br />
⎟<br />
⎠<br />
m − αm−1X m−1 − . . . − α1X − α0).
40 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
iii) O polinomio minimo de T |U e’<br />
g(X) = X m − αm−1X m−1 − . . . − α1X − α0.<br />
Demonstração. Podemos pensar U como gerado por u, T (u), T 2 (u), etc. Se T r (u) = 0U,<br />
então T l (u) = 0U para cada l ≥ r e<br />
U =< u, T (u), . . . , T r−1 (u) > .<br />
Sendo que dim(U) = m, temos que T j (u) = 0U para cada j = 1, . . . , m − 1. Mostramos que os<br />
m vetores u, T (u), . . . , T m−1 (u) são linearmente indipendentes. Seja<br />
β0u + β1T (u) + . . . + βm−1T m−1 (u) = 0U<br />
uma relação entre os vetores com βi ∈ k. Suponhamos que exista i, 1 ≤ i ≤ m − 1 tal que βi = 0<br />
e tal que<br />
β0u + β1T (u) + . . . + βiT i (u) = 0U.<br />
Então T i (u) ∈< u, T (u), . . . , T i−1 (u) >. Aplicando T teremos que tambem T i+k (u) ∈<<br />
u, T (u), . . . , T i−1 (u) > de onde deduziremos que o subespaço U estaria contido em<br />
< u, T (u), . . . , T i−1 (u) >;<br />
i − 1 ≤ m − 2 implica i ≤ m − 1 e isso e’ impossivel porque dim(U) = m. A parte ii) é clara.<br />
Vamos provar iii). Seja f(X) ∈ k[X]. Então f(T |U) = 0 End(U) se e somente se f(T )(u) = 0U.<br />
Portanto o polinônio minimo de T |U é o polinômio mônico h(X) de menor grau positivo tal que<br />
h(T )(u) = 0. Sendo {u, T (u), . . . , T m−1 (u)} uma base de V , o grau de h(X) é maior o igual a<br />
m. Sendo g(T )(u) = 0U, teremos que o grau de h(X) é exatamente m e que h(X) divide g(X);<br />
sendo os dois mônicos temos h(X) = g(X). <br />
Exercicios do capítulo<br />
(1) Mostrar que em geral para A(X), B(X) ∈ Mn×n(k[X]),<br />
grau(A(X) · B(X)) = grau(A(X)) + grau(B(X)).<br />
(2) Efetuar a divisão euclidiana à direita de A(X) por B(X) nos seguintes casos, escrevendo<br />
primeiramente as duas matrizes como polinômios matriciais.<br />
(a)<br />
(b)<br />
A(X) =<br />
<br />
X3 + 5X + 1 3X3 + X − 1<br />
A(X) =<br />
2X 3 + X 2 + 2 4X 3 + 2X + 2<br />
<br />
2X2 − 1 X2 B(X) =<br />
2X 2 + 2 X 2 + 2<br />
−3X −X<br />
3X 2 2X 2<br />
<br />
<br />
,<br />
<br />
<br />
X 2<br />
, B(X) =<br />
−2 X<br />
(3) No Exercício anterior, item (b), verifique que a divisão é exata (isto é, tem resto nulo)<br />
em um lado, mas não no outro.
(4) Dadas as matrizes<br />
P (X) =<br />
⎛<br />
EXERCICIOS DO CAPÍTULO 41<br />
⎝ 2X4 − X 2 + 2 −X 3 + X − 1 1 − X 2<br />
X 3 − X + 1 −X 4 + X 2 − 2 1 + X 2<br />
X 2 − 1 −X − 1X 4 + X 2 − 1<br />
⎛<br />
A = ⎝<br />
0 1 0<br />
0 0 1<br />
2 0 0<br />
determinar o valor PD(A) pelos dois métodos da divisão euclidiana e da substituição<br />
direta.<br />
⎞<br />
⎠ ,<br />
(5) Seja A ∈ Mn×n(R) tal que A 2 = −In×n.<br />
(a) Mostrar que n = 2r por algum inteiro r ≥ 1.<br />
(b) Mostrar que para cada v ∈ R n \ 0, temos<br />
dim(< A(v), v >) = 2.<br />
Deduzir que para n = 2, a matriz A é semelhante a<br />
0 −1<br />
1 0<br />
<br />
.<br />
(c) Mostrar que A é semelhante em Mn×n(R) a<br />
<br />
0 −Ir×r<br />
0<br />
Ir×r<br />
(d) Se substituirmos R por C a conclusão do ponto (i) continua verdadeira? Se não<br />
construir um contraexemplo.<br />
(6) Seja A ∈ Mm×n(Z). Mostrar que existem P ∈ Mm×m(Z) e Q ∈ Mn×n(Z) inversiveis<br />
tais que<br />
⎛<br />
d1 0 · · ·<br />
⎞<br />
0<br />
⎜<br />
P · A · Q = ⎜<br />
⎝<br />
0<br />
.<br />
d2<br />
0<br />
.<br />
. ..<br />
· · ·<br />
dr<br />
0<br />
.<br />
0<br />
.<br />
0<br />
0<br />
.<br />
· · ·<br />
· · ·<br />
· · ·<br />
0 ⎟<br />
. ⎟<br />
0 ⎟ ,<br />
⎟<br />
0 ⎟<br />
.<br />
⎠<br />
0 0 · · · 0 0 · · · 0<br />
onde r é o posto de A e onde, para todo 1 ≤ j ≤ r, dj ∈ Z é um inteiro positivo que<br />
divide dj+1 (com a convenção de que dr+1 = 0).<br />
<br />
.<br />
⎞<br />
⎠ ,
42 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
(7) Seja A ∈ M10×10(Q) a matriz seguinte.<br />
⎛<br />
−1<br />
⎜ 0<br />
⎜ 0<br />
⎜ 0<br />
⎜<br />
A = ⎜ 0<br />
⎜ 0<br />
⎜ 0<br />
⎜ 0<br />
⎝ 0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
3<br />
2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
3<br />
2<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
3<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
0<br />
⎞<br />
0<br />
0 ⎟<br />
0 ⎟<br />
0 ⎟<br />
0 ⎟<br />
0 ⎟ .<br />
⎟<br />
−9 ⎟<br />
−12 ⎟<br />
2 ⎠<br />
0 0 0 0 0 0 0 0 0 4<br />
(a) Encontrar c A (X) e m A (X).<br />
(b) Encontrar os fatores invariantes de XI − A (e a forma canonica racional de A).<br />
(8) Achar a forma normal de Smith de<br />
<br />
x2 x − 1<br />
A =<br />
x + 1 x2 (9) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre Q[X],<br />
pelo método das operações elementares:<br />
(a)<br />
(b)<br />
(c)<br />
(d)<br />
⎛<br />
⎝<br />
<br />
.<br />
X − 1 0 −1<br />
3 X − 2 0<br />
0 4 X + 7<br />
X X 2 − 1 X 3<br />
X 2 X − 1 X 2 + X − 1<br />
⎛<br />
⎝<br />
⎛<br />
⎝<br />
X 0 0<br />
0 X − 1 0<br />
0 0 X − 2<br />
X 0 0<br />
0 X 0<br />
0 0 X − 2<br />
(10) Verificar, justificando devidamente, quais das matrizes seguintes sobre C[X] estão na<br />
forma normal de Smith.<br />
(a) Uma matriz A ∈ Mm×n(C) na forma reduzida linha/coluna<br />
(b) Uma matriz diagonal A(X) ∈ Mn×n(C[X]) cuja diagonal principal é composta de<br />
polinômios mônicos em ordem estritamente crescente de graus.<br />
⎞<br />
⎠<br />
⎞<br />
⎠<br />
⎞<br />
⎠
EXERCICIOS DO CAPÍTULO 43<br />
(c) Uma matriz diagonal A(X) ∈ Mn×n(C[X]) da forma<br />
⎛<br />
⎞<br />
1 0 . . . 0 0<br />
⎜ 0 1 . . . 0 0 ⎟<br />
⎜<br />
⎟<br />
⎜ . . . . ⎟<br />
⎝ 0 0 . . . 1 0 ⎠<br />
0 0 . . . 0 f(X)<br />
com f(X) ∈ C[X] mônico.<br />
(d) Uma matriz diagonal A(X) ∈ Mn×n(C[X]) com o mesmo polinômio mônico repetido<br />
ao longo da diagonal principal.<br />
(11) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre R[X],<br />
pelo método dos subdeterminantes:<br />
(a)<br />
(b)<br />
⎛<br />
⎝<br />
f(X) 0<br />
0 g(X)<br />
0 1<br />
⎞<br />
⎠ e<br />
onde f(X), g(X) ∈ R[X] são mônicos.<br />
⎛<br />
f(X) 0 1<br />
0 g(X) 0<br />
⎝ 1 + 2X X3 + 4X 2 + X + 2 X 3 + 4X + 2<br />
0 X 2 + X X 2<br />
1 − 2X X 3 + 3X 2 − 3X − 1 X 3 − X 2 + 4X − 2<br />
(c) A matriz característica da matriz<br />
⎛<br />
0<br />
⎜ 1<br />
⎝ 0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
0<br />
−α0<br />
−α1<br />
−α2<br />
⎞<br />
⎟<br />
⎠<br />
0 0 1 −α3<br />
onde αi ∈ R.<br />
(12) Usando a teoria dos fatores invariantes da matriz carateristica associada, demonstrar<br />
os seguintes fatos:<br />
(a) uma matriz A ∈ Mn×n(k) é semelhante a A t ;<br />
(b) Sejam A, B ∈ M2×2(R) (resp. M2×2(C)). Então A e B são semelhantes se e só se<br />
m A (X) = m B (X).<br />
(c) Sejam A, B ∈ M3×3(R) (resp. M3×3(C)). Então A e B são semelhantes se e só se<br />
c A (X) = c B (X) e m A (X) = m B (X).<br />
(d) Construir duas matrizes A, B ∈ M3×3(R) não semelhantes e com m A (X) =<br />
m B (X).<br />
(e) Para cada n ≥ 4 construir exemplos de matrizes A, B ∈ Mn×n(R) não semelhantes<br />
e tais que c A (X) = c B (X) e m A (X) = m B (X).<br />
(13) Encontrar o polinômio minimo de<br />
⎛<br />
A = ⎝<br />
2 1 1<br />
2 3 2<br />
1 1 2<br />
calculando os fatores invarientes de XI − A.<br />
⎞<br />
⎠ ,<br />
<br />
⎞<br />
⎠
44 2. Mn×n(k[X]) E FATORES INVARIANTES<br />
(14) Seja<br />
⎛<br />
2<br />
⎜<br />
A = ⎜ 1<br />
⎝ 0<br />
−1<br />
0<br />
0<br />
1<br />
1<br />
1<br />
⎞<br />
−1<br />
−1 ⎟<br />
0 ⎠ ∈ M4×4(C).<br />
0 0 0 1<br />
Encontrar a forma canônica racional de A.<br />
(15) Mostrar que se por A ∈ Mn×n(k), temos m A (X) = c A (X), então A é semelhante a<br />
C(det(XI − A)) = C(c A (X)).
CAPíTULO 3<br />
Forma canônica de Jordan<br />
3.1. Forma canônica de Jordan para operadores nilpotentes<br />
Introduzimos a definição de operador nilpotênte e de matriz nilpotênte.<br />
3.1.1. Definição. (Operador e matriz nilpotênte) Seja T : V → V uma aplicação linear<br />
de V . O operador T se diz nilpotênte se existir um inteiro p ≥ 1 tal que<br />
T p = T ◦ · · · ◦ T<br />
= 0End(V ).<br />
p<br />
O menor inteiro r ≥ 1 com a propriedade que T r = 0V se diz índice de nilpotência de T .<br />
Uma matriz A ∈ Mn×n(k) se diz nilpotênte se existir p ≥ 1 tal que<br />
A p = A · · · A<br />
= 0<br />
p<br />
e o índice de nilpotência de A ó menor inteiro r ≥ 1 com a propriedade que A r = 0.<br />
Enunciamos algumas propriedades dos operadores nilpotentes que são consequencias diretas<br />
da definição.<br />
(i) Se r é o índice de nilpotência de T , então m T (X) = X r e o polinômio minimo de<br />
um operador nilpotênte é portanto completamente redutivel em k[X]. Claramente se<br />
n = dim(V ), c T (X) = X n .<br />
(ii) λ = 0 é o único auto-valor de uma aplicação linear nilpotente T .<br />
(iii) Se T : V → V é nilpotente, os auto-vetores de T são exatamente os elementos do núcleo<br />
ker (T ) (todos associados ao auto-valor único 0)<br />
Vamos considerar agora casos particulares dos resultados demonstrados anteriormente.<br />
3.1.2. Proposição. Seja T : V → V um operador nilpotente de índice de nilpotência r e<br />
seja U ⊆ V um subespaço T -ciclico de dimensão m ≥ 1.<br />
Então<br />
i) U tem uma base B da forma B = {u, T (u), . . . , T m−1 (u)}.<br />
ii)<br />
[T ] B ⎛<br />
⎞<br />
0 0 0 . . . 0<br />
⎜ 1 0 0 . . . 0 ⎟<br />
⎜<br />
B = ⎜ 0 1 0 . . . 0 ⎟ .<br />
⎜<br />
⎝<br />
.<br />
. . . ..<br />
⎟<br />
. ⎠<br />
0 0 0 1 0<br />
iii) O polinomio minimo de T |U é X m e m ≤ r.<br />
Demonstração. O polinômio minimo de T |U é da forma X l , 1 ≤ l ≤ r e as afirmações<br />
seguem por exemplo do Lema 2.8.2. <br />
45
46 3. FORMA CANÔNICA DE JORDAN<br />
Estamos agora na posição para mostrar o Teorema da forma canônica de Jordan para operadores<br />
nilpotentes. Precisamos só de uma definição. .<br />
3.1.3. Definição. (Bloco elementar de Jordan de tamanho n). Definimos como bloco<br />
elementar de Jordan de tamanho n a matriz Jn ∈ Mn×n(k) da forma<br />
⎛<br />
⎞<br />
0 0 0 . . . 0<br />
⎜ 1 0 0 . . . 0 ⎟<br />
⎜<br />
Jn = ⎜ 0 1 0 . . . 0 ⎟ .<br />
⎜<br />
⎝<br />
.<br />
. . . ..<br />
⎟<br />
. ⎠<br />
0 0 0 1 0<br />
3.1.4. Teorema. (Forma canônica de Jordan para operadores nilpotentes) Seja<br />
T : V → V uma aplicação linear nilpotente de índice de nilpotência r, i.e. mT (X) = Xr . Então<br />
i) V = U1 ⊕ U2 ⊕ . . . ⊕ Up com Ui subespaço T -ciclico.<br />
ii) O polinômio minimo da restrição de T a Ui é da forma Xri com r = r1 ≥ r2 ≥ . . . ≥ rp<br />
para cada i = 1, . . . , p, onde dim(Ui) = ri.<br />
iii) Existe uma base B de V tal que<br />
⎛<br />
⎞<br />
[T ] B B =<br />
⎜<br />
⎝<br />
Jr<br />
Jr2<br />
onde cada Jri é um bloco elementar de Jordan de tamanho ri, r = r1 ≥ . . . ≥ rp.<br />
iv) A forma da matriz no ponto iii) se diz forma canônica de Jordan de T e é unicamente<br />
determinada.<br />
Demonstração. Pelo teorema de decomposição ciclica sabemos che existem U1, . . . Up subespacos<br />
T -ciclicos tais que V = U1⊕U2⊕. . .⊕Up. Se dim(Ui) = ri, podemos supor r1 ≥ . . . ≥ rp.<br />
Sendo T nilpotênte podemos aplicar a Proposição 3.1.2 para deduzir que o polinômio minimo<br />
da restrição de T a Ui seja X ri . É claro que T r1 = 0V e que T r1−1 = 0V (se ui ó gerador de Ui,<br />
T r1 (ui) = 0V mas T r1−1 (u1) = 0V ). Portanto r1 = r.<br />
Sendo m T (X) = X r , aplicando o teorema de unicidade da decomposição T -ciclica, obtemos<br />
a demonstração do ponto iv), o ponto iii) sendo claro. <br />
3.1.5. Definição. (índices de nilpotência sucessivos de um operador nilpotênte)<br />
Os inteiros {r1, . . . , rp} se dizem índices de nilpotência sucessivos de T .<br />
3.1.6. Corolário. (Forma canônica de Jordan de matrizes nilpotentes) Seja A ∈<br />
Mn×n(k) uma matriz nilpotente de índice de nilpotência r. Então<br />
i) existe uma unica matriz semelhante a A, dita a forma canônica de Jordan de A, da<br />
forma ⎛<br />
⎞<br />
⎜<br />
⎝<br />
Jr<br />
Jr2<br />
. ..<br />
. ..<br />
onde cada Jri bloco elementar de Jordan de tamanho ri, com r = r1 ≥ . . . ≥ rp. Os<br />
interiro {r1, . . . , rp} se dizem índices de nilpotência sucessivos de A.<br />
Jrp<br />
Jrp<br />
⎟<br />
⎠ ,<br />
⎟<br />
⎠ ,
3.2. FORMA CANÔNICA DE JORDAN 47<br />
ii) Duas matrizes nilpotentes A, B ∈ Mn×n(k) são semelhantes se e só se têm a mesma<br />
forma canônica de Jordan se e só se têm os mesmos índices de nilpotência successivos.<br />
3.2. Forma canônica de Jordan para operadores com polinômio minimo<br />
completamente redutivel sobre k<br />
Nessa seção vamos estudar as aplicações lineares T : V → V por quais o polinômio minimo<br />
de T seja completamente redutivel em k[X], i.e. m T (X) = (X − λ1) e1 · · · (X − λr) er com<br />
λi ∈ k distintos, i = 1, . . . , r. Essa condição é satisfeita para qualquer T : V → V se por<br />
exemplo o corpo k é algebricamente fechado (e.g. k = C!). Observamos que temos c T (X) =<br />
(X − λ1) s1 · · · (X − λr) sr com si ≥ ei para cada i = 1, . . . , r.<br />
Nessa hipotese, aplicando o teorema de decomposição primária e o teorema da forma canônica<br />
de Jordan para operadores nilpotentes, vamos obter uma forma canônica para operadores quaisquer.<br />
Precisamos introduzir uma definição.<br />
3.2.1. Definição. (Bloco elementar de Jordan de tamanho n relativo ao autovalor<br />
λ ∈ k) Dados n ≥ 1 e λ ∈ k definimos o bloco elementar de Jordan de tamanho n relativo ao<br />
autovalor λ como a matriz J(λ)n ∈ Mn×n(k) da forma:<br />
⎛<br />
⎜<br />
J(λ)n = ⎜<br />
⎝<br />
λ 0 0 . . . 0<br />
1 λ 0 . . . 0<br />
0 1 λ . . . 0<br />
. . .<br />
. .. .<br />
0 0 0 1 λ<br />
Claramente J(0)n = Jn, i.e. os blocos elementares relativos ao autovalor 0 são os blocos<br />
elementares de Jordan.<br />
3.2.2. Teorema. (Forma canônica de Jordan) Seja T : V → V um operador tal que<br />
cT (X) = (X − λ1) s1 · · · (X − λr) sr , com λi ∈ k distintos, i = 1, . . . r, e seja mT (X) = (X −<br />
λ1) e1 · · · (X − λr) er , ei ≤ si, o polinômio minimo de T . Então<br />
i) V = V1 ⊕ . . . ⊕ Vr, onde Vi = ker ((T − λiIV ) ei ) e’ um subespaço T -invariante de<br />
dimensão si para cada i = 1, . . . , r.<br />
ii) Para cada i = 1, . . . , r, se Ti é a restrição de T a Vi, então Ti = λiIVi + Si com<br />
Si : Vi → Vi operador nilpotênte de índice de nilpotência ei.<br />
iii) Se ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi , i = 1, . . . , r, são os índices de nilpotência sucessivos de<br />
Si, então existe uma base B de V tal que<br />
⎛<br />
⎞<br />
[T ] B B =<br />
⎜<br />
⎝<br />
A1<br />
onde cada Ai ∈ Msi×si (k) tem a forma<br />
⎛<br />
J(λi)ei<br />
⎜<br />
Ai = ⎜<br />
⎝<br />
A2<br />
J(λi)ei,2<br />
. ..<br />
. ..<br />
Ar<br />
⎞<br />
⎟ .<br />
⎟<br />
⎠<br />
⎟<br />
⎠ ,<br />
J(λi)ei,p i<br />
⎞<br />
⎟<br />
⎠ .
48 3. FORMA CANÔNICA DE JORDAN<br />
iv) A forma da matriz no ponto iii) se diz forma canônica de Jordan de T e é unica modulo<br />
uma permutação dos blocos Ai.<br />
Demonstração. O teorema de decomposição primária, teorema 1.5.1, mostra que V =<br />
V1 ⊕ . . . ⊕ Vr (lembramos que cada Vi é claramente T -invariante), que dim(Vi) = si e que se<br />
Ti = T |Vi , então mTi (X) = (X − λi) ei . Seja Si : Vi → Vi o operador Ti − λiIVi . Por definição<br />
temos que Si é nilpotênte e que o índice de nilpotência dele é esatamente ei. Aplicando o<br />
Teorema da forma canônica de Jordan para operadores nilpotêntes a Si deduzimos a existencia<br />
de uma bade Bi de Vi tal que [Si] Bi seja composta de blocos elementares de Jordan de tamanhos<br />
Bi<br />
ei = ei,1, . . . , ei,pi , i = 1, . . . , r, onde ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi são os índices de nilpotência<br />
sucessivos de Si. Segue imediatamente que [Ti] Bi<br />
Bi = Ai. Tomando come base de V a base<br />
B obtidas como união das bases Bi por i = 1, . . . r, obtemos que [T ] B B<br />
é exatamente como<br />
especificado no ponto iii). A unicidade modulo permutações das Ai segue da unicidade da forma<br />
canônica de Jordan para operadores nilpotentes. <br />
Vamos fazer algumas observações e comentarios.<br />
(1) Características de Segre. Da interpretação matricial acima, deduzimos a seguinte<br />
tabela de números inteiros positivos<br />
λ1, s1, e1,1, e1,2, . . . , . . . , e1,p1<br />
λ2, s2, e2,1, e2,2, . . . , e1,p2 , 0<br />
.<br />
λr, sr, er,1, er,2, . . . , . . . , er,pr<br />
(cujas linhas têm comprimento diferentes, em geral). Estes inteiros são chamados características<br />
de Segre. Por hipótese, eles determinam completamente a forma canônica<br />
de Jordan, logo são invariantes da classe de semelhança das matrizes representativas de<br />
T . Se T for nilpotênte as características de Segre são a dimensão do espaço e os índices<br />
de nilpotência sucessivos.<br />
(2) Observemos as relações óbvias r j=1 sj = n e pj l=1 ej,l = sj (1 ≤ j ≤ r). A segunda<br />
relação mostra que, esencialmente, as características de Segre dependem só do<br />
polinômio minimo de T e das índices de nilpotência sucessivos de Si e não do polinômio<br />
característico.<br />
(3) Para cada j = 1, . . . , r, a multiplicidade de λj como raíz do polinômio mínimo mT (X)<br />
é a característica de Segre ej,1 (o primeiro, maior por hipótese).<br />
(4) A dimensão do auto-espaço Vλj = ker (T −λjI) associado ao auto-valor λj é ainda dado<br />
por dim(ker (Tj − λjI)) = sj − rank (Tj − λjI) = sj − ( pj l=1 (ej,l − 1)) = −(−pj) = pj.<br />
Assim, há um total de pj auto-vetores linearmente independentes associados a λj,<br />
portanto um para cada sub-bloco elementar de Jordan daquele auto-valor.<br />
Embora a segunda observação mostre que não todas as características de Segre sejam necessarias<br />
para determinar a classe de semelhanca de uma matriz (podemos por exemplo eliminar<br />
a segunda coluna de inteiros na matriz que define as características de Segre), enunciamos o<br />
seguinte corolario nessa forma.<br />
3.2.3. Corolário. (Forma canônica de Jordan de matrizes) Seja A ∈ Mn×n(k) uma<br />
matriz com polinômio minimo completamente redutivel em k[X]. Então
EXERCISIOS DO CAPÍTULO 49<br />
i) existe uma matriz semelhante a A, dita a forma canônica de Jordan de A, da forma<br />
⎛<br />
⎞<br />
⎜<br />
⎝<br />
A1<br />
A2<br />
onde cada Ai ∈ Msi×si (k) tem a forma<br />
⎛<br />
J(λi)ei<br />
⎜<br />
Ai = ⎜<br />
⎝<br />
. ..<br />
J(λi)ei,2<br />
Ar<br />
. ..<br />
⎟<br />
⎠ ,<br />
J(λi)ei,p i<br />
com ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi , i = 1, . . . , r.<br />
ii) A forma canônica de Jordan de A única modulo permutações dos blocos Ai.<br />
iii) Duas matrizes A, B ∈ Mn×n(k) com polinômios minimos completamente redutiveis em<br />
k[X] são semelhantes se e só se têm a mesma forma canônica de Jordan se e só se têm<br />
as mesmas características de Segre.<br />
Exercisios do capítulo<br />
⎞<br />
⎟<br />
⎠ ,