Вы находитесь на странице: 1из 38

Universidade Federal da Bahia

Instituto de Matemática
Departamento de Matemática

Algebra Linear II : Autovetores e Autovalores

Carlos E. N. Bahiano
Instituto de Matemática
Universidade Federal da Bahia - UFBa
40.210-170 Salvador, Bahia, Brasil

Apostila destinada ao
curso de Algebra Linear
II, oferecido pelo Departa-
mento de Matemática do
Instituto de Matemática
da UFBa.

Autor: Carlos Eduardo N. Bahiano


Data : 16/01/2004
Sumário
0 INTRODUÇÃO 1

1 NOÇÕES GERAIS SOBRE CORPOS, ESPAÇO DOS POLINÔMIOS


E DETERMINANTES 1
1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Corpos finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 O corpo dos números complexos . . . . . . . . . . . . . . . . . . . . 5
1.4 Anéis de polinômios em uma variável sobre um corpo . . . . . . . . . 6
1.5 Propriedades gerais dos polinômios . . . . . . . . . . . . . . . . . . . 7
1.6 Teoremas básicos sobre K[t] . . . . . . . . . . . . . . . . . . . . . . . 9
1.7 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7.1 exercı́cio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 Decomposição em somas diretas de subespaços Invariantes 15


2.1 Autovalores e Autovetores (valores e vetores caracterı́sticos) . . . . . 15
2.2 O Polinômio mı́nimo de um operador linear . . . . . . . . . . . . . . 15
2.3 Cálculo do Polinômio mı́nimo por meio de sistemas lineares. . . . . . 17
2.4 Polinômio caracterı́stico de um operador linear. . . . . . . . . . . . . 19
2.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Decomposição Primária (Decomposição Espectral genérica) . . . . . . 26
2.6.1 Operador diagonalizável . . . . . . . . . . . . . . . . . . . . . 34
2.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.8 Formas de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
0 INTRODUÇÃO
Esta apostila ainda tem por objetivo complementar as discussões feitas em sala
de aula. O primeiro capı́tulo compreende as ferramentas necessárias ao entendimento
dos conceitos em Álgebra linear 2, e outras necessárias para calcular e manipular de
forma adequada os objetos definidos ao longo da Teoria. Para ser mais preciso, os
conceitos são necessários para o cálculo do polinômio mı́nimo, e da decomposição
primária de operadores lineares, cálculo de autovalores e autovetores.
A decomposição primária de um operador linear pode ser pensada como uma forma
mais geral do teorema espectral, enunciado sem a necessidade do conceito de produto
interno. Além disto se o objetivo do Teorema espectral é representar um operador
T como soma de múltiplos das projeções ortogonais sobre os autoespaços, ou equiv-
alentemente como soma de composições de T com as projeç oes ortogonais sobre os
autoespaços, podemos pensar o teorema da decomposição primária como resultado in-
termediário, no sentido de decompor o espaço em soma diretas de espaços invariantes
pela ação do operador linear e conseqüentemente representação de T como soma de
composiç oes de T com projeções (não necessariamente ortogonal) sobre subespaços
invariantes pela ação de T. Neste sentido a decomposição primária é um resultado
eficiente, exceto quanto o polinômio mı́nimo do operador tem apenas um fator irre-
dutı́vel, e neste caso a decomposição cı́clica é a ferramenta mais adequada. Infeliz-
mente, ”Decomposição cı́clica”não consta no conteúdo programático deste curso.

1 NOÇÕES GERAIS SOBRE CORPOS, ESPAÇO DOS


POLINÔMIOS E DETERMINANTES
1.1 Corpos
Definição 1.1. Um conjunto K 6= ∅ é dito ser um corpo se podemos identificar em
K duas operações

+ : K × K → K, Soma

e
•:K×K→K multiplicação
satisfazendo as seguintes propriedades:

I - Propriedades da Soma
(a) A soma é comutativa : ∀a, b ∈ K ⇒ a + b = b + a
(b) A soma tem elemento neutro (chamado de zero), isto é, ∃0 ∈ K tal que 0 +
a = a ∀a ∈ K
(c) A soma é associativa, ∀a, b, c ∈ K ⇒ (a + b) + c = a + (b + c)
(d) Todo elemento tem um elemento oposto, istoé, ∀a ∈ K, ∃−a ∈ K tal que a+
(−a) = 0.
II - Propriedades da multiplicação
(a) A multiplicação é comutativa : ∀a, b ∈ K ⇒ a · b = b · a
(b) A multiplicação tem elemento neutro (chamado de unidade e representado
por 1 ), isto é, ∃1 ∈ K tal que 1 · a = a ∀a ∈ K
(c) A multiplicação é associativa, ∀a, b, c ∈ K ⇒ (a · b) · c = a · (b · c)
(d) Todo elemento, exceto o zero, tem um elemento inverso, istoé, ∀a ∈
K, a 6= 0, ∃a−1 ∈ K tal que a · a−1 = 1.
III - As operações são compatı́veis , isto é, vale a distributividade:
a · (b + c) = a · b + a · c
(b + c) · a = b · a + c · a

O leitor é fortemente encorajado a verificar que as seguintes propriedades ocorrem


para um corpo K:
1. Os elementos neutro da soma e da multiplicação são únicos, isto é não existem
dois elementos satisfazendo a propriedade do elemento neutro.
2. Se K tem ao menos dois elementos, então 1 6= 0.
3. Para todo b ∈ K, o seu oposto é (−1)b.
4. Todo elemento não nulo tem exatamente um único inverso.
5. Todo elemento tem exatamente um oposto.
6. vale a lei do cancelamento: ∀a 6= 0, aX = ab ⇔ X = b.
O motivo de introduzirmos a definição formal de um corpo deve-se ao fato de
podermos criar modelos mais gerais de espaços vetoriais. Felizmente, os alunos já
tiveram contato com vários exemplos de corpos e utilizaram ao menos uma das pro-
priedades acima, mesmo não sabendo que trabalhavam com uma estrutura formal
chamado de corpo. Por exemplo, os conjuntos:

Q, conjuntos dos números racionais;

2
R, (conjuntos dos números reais);
C, (conjuntos dos números complexos);

R(x) = { fg(x)
(x)
, f (x), g(x) são polinômios com coeficientes em R e g(x) é não nulo}.

O conjunto booleano {0, 1} onde 0 = 0 + 0 = 1 + 1 = 1 · 0 e 1 = 1 · 1

são exemplos de corpos com a soma e multiplicação usuais. Alem destes, podemos
ainda mostrar que qualquer Q-espaço vetorial V ⊂ C, de dimensão finita, é um corpo,
como por exemplo, os Q-espaços vetoriais do exercı́cio abaixo:

1.1.1 Exercı́cios
Mostre que as estruturas abaixo,com a soma e multiplicação de números reais ou
complexos, são corpos.
√ √
1. Q[ 2] := {a + b 2; a, b ∈ Q}
√ √
2. Q[ 5] := {a + b 5; a, b ∈ Q}
√ √ √ √ √
3. Q[ 2, 3] := {a + b 2 + c 3 + d 6; a, b, c, d ∈ Q}
√ √
4. Q[ −1] := {a + b −1; a, b ∈ Q}
√ √
5. Q[ −2] := {a + b −2; a, b ∈ Q}
√ √
6. Q[ −3] := {a + b −3; a, b ∈ Q}

Observação 1. Fique atento a diferença entre R[x] e R(x) pois o primeiro é o con-
junto de todos os polinômios na variável x e coeficientes reais, o segundo é o con-
junto das funçõesreais racionais na variável x, isto é, o conjunto dos quocientes de
polinômios em R[x].

1.2 Corpos finitos


Apenas para enriquecer ainda mais nosso elenco de exemplos de corpos vamos
definir um tipo de corpo, com um número finito de elementos, onde os elementos são
conjuntos.
Exemplo 1.2. Fixado um número primo, p ∈ Z. Para cada x ∈ Z defina o conjunto

x = {x + mp, m ∈ Z}

3
Não é dificil ver existem exatamente p conjuntos distintos, disjuntos e definidos como
acima, listados a seguir:
0, 1, 2, . . . , p − 1
De fato, basta observar que para cada número inteiro x ∈ Z existem inteiros m, r ∈ Z
tais que x = mp + r e 0 ≤ r < p (Teorema da divisão Euclideana). Portanto o
conjunto x = r com 0 ≤ r < p.
Agora considere o conjunto dado por Zp := {0, 1, 2, . . . , p − 1} e vamos definir em
Zp uma operação de soma e uma de multiplicação .

x + y := x + y
x · y := x · y

O leitor pode facilmente verificar a associatividade, comutatividade e distributividade


das operaçõesde soma e produto definidas acima, assim como, que os elementos neu-
tros são dados por : o para a soma e 1 para o produto, e que o oposto de r é p − r.
O cálculo do elemento oposto decorre da seguinte igualdade:

−r + mp = (p − r) + (m − 1)p ∀m ∈ Z.

O ponto mais delicado das propriedades é a existência de elemento inverso para


cada elemento diferente do elemento zero. Dado x 6= 0, como MDC(x, p) = 1 existem
n, m ∈ Z tais que xn + pm = 1, portanto

1 = 1 + 0 = xn + pm = xn + 0 = xn (1)
A propriedade de MDC, utilizada acima, decorre de uma propriedade básica de
números inteiros, chamada de “Teorema de Bezout”.
Proposição 1.3 (Teorema de Bezout). Dados a, b ∈ Z. Se MDC (a, b) = d então
existem n, m ∈ Z tais que
an + bm = d.
Demonstração. Veja [5, Teorema 1.3]
Exemplo 1.4. O corpo Z5
O modo mais eficiente de entender um corpo finito (do tipo Zp , pois existem outros
tipos) é descrever a soma e a multiplicação através de uma tabela. Nesta tabela
podemos perceber que tudo funciona como se trabalhassemos com multiplicação e soma
de inteiros módulo p, isto é, somamos e multiplicamos os representantes de cada

4
conjunto e tomamos como resultado o conjunto representado pelo resto da divisão por
p.
Na tabela abaixo, o leitor pode verificar que 4 + 2 = 6 = 1 e que 3 · 3 = 9 = 4.
Tabela de Soma Tabela de multiplicação

+ 0 1 2 3 4 • 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1

1.2.1 Exercı́cios
1. Construa as tabelas da soma e do produto em Zp para p = 2, 3, 7, 11
2. Tente construir um corpo com 9 elementos. (Acredite, isto existe.)

1.3 O corpo dos números complexos


Outro corpo particularmente importante para nós é o corpo dos números com-
plexos. Sua importância no caso de Álgebra linear II deve-se ao fato de que ele é o
corpo mais simples com a propriedade de conter todas as raı́zes de polinômios com
coeficiente reais. Esta propriedade particular do corpo C faz com que toda trans-
formação linear T : V → V de um C-espaço vetorial possua uma base em relação a
qual, o operador T tem uma matriz triangular superior como representação matricial.
O corpo C aparece naturalmente quando tentamos dar ao plano cartesiano R2 uma
multiplicação compatı́vel com a estrutura de espaço vetorial, ou simplesmente quando
procuramos pelo menor corpo que contém os números reais e a raiz do polinômio t2 +1.
A representação mais comum é:

C := {a + b −1; a, b ∈ R}
com soma e multiplicação operando como se segue:

√ √ √
(a + b −1) + (c + d −1) := (a + c) + (b + d) −1
√ √ √
(a + b −1) · (c + d −1) := (ac − bd) + (ad + bc) −1
o leitor pode facilmente demonstrar os seguintes fatos:

5
√ √
a) 0 + 0 −1 e 1 + 0 −1 são, respectivamente, o elemento neutro da soma e o
elemento neutro da multiplicação .

b) a + b −1 é o elemento zero se, e somente se, a = b = 0.
√ √
c) O oposto de a + b −1 é (−a) + (−b) −1
√ a −b

d) Se a + b −1 não é o zero então seu inverso é a2 +b2 + a2 +b2 −1

1.4 Anéis de polinômios em uma variável sobre um corpo


Definição 1.5. Dado um corpo K, e uma variável t. O conjunto
n
X
K[t] := { ar tr , com n ∈ N, ar ∈ K}
r=0

munido das operaçõesde soma e multiplicação definidas abaixo, é dito ser um anel de
polinômios em uma variável sobre o corpo K.

n
X m
X max
X {n,m}
r r
ar t + ar t := (ar + br )tr
r=0 r=0 r=0
Xn Xm n+m
X X
( ar tr ) · ( ar tr ) := cr tr , em que cr := ai bj
r=0 r=0 r=0 i+j=r

com ai = 0 sempre que i > n e bj = 0 sempre que j > m.


Se f (t) = a0 +a1 t+a2 t2 +· · ·+an tn ∈ K[t], dizemos que os elementos a0 , a1 , . . . , an , 0
são os coeficientes de f (t). Em particular, o coeficiente, não nulo, de maior ı́ndice
possı́vel, é dito ser o coeficiente lı́der de f (t) e o seu ı́ndice é dito ser o grau de f (t).

Embora a notação deixe claro que podemos associar a cada polinômio uma função
polinomial, esta certamente não é uma caracterização de um polinômio, pois os con-
ceitos de função polinomial e polinômio são essencialmente distintos. Como veremos
na consideração a seguir.
Seja K = Z2 e seja f (t) = t(t−1) ∈ K[t]. Visto como função de K em K o elemento
f (t) é a função nula pois f (1) = f (0) = 0, por outro lado visto como polinômio f (t)
não é o polinômio nulo.

6
1.5 Propriedades gerais dos polinômios
A seguir enumeraremos sem demonstração uma serie de propriedades elementares
dos polinômios. O leitor, deve se preciso, verificá-las por si só.
Seja K[t] um anel de polinômios, então:
1. Se f (t) = a0 + a1 t + a2 t2 + · · · + an tn , então f (t) é o polinômio zero se, e somente
se, a0 = a1 = · · · = an = 0.
2. f (t)g(t) ≡ 0 se, e somente se, f (t) ou g(t) é o polinômio zero.
3. Se f = a0 + a1 t + a2 t2 + · · · + an tn , tem inverso multiplicativo, isto é, se existe
g(t) ∈ K[t] tal que f (t)g(t) = 1, então f (t) é uma “constante” não nula, isto é,
a0 6= 0 e a1 = a2 = · · · = an = 0.
4. K[t] é um K-espaço vetorial de dimensão infinita. Mesmo quando o corpo K é
um conjunto finito. O conjunto {tn ; n ∈ N} é uma base para K[t].
Definição 1.6. a seguir introduziremos algumas definições e notações comuns quando
tratamos com polinômios:

• Dado um polinômio não nulo f (t) ∈ K[t], gr(f (t)) é a notação para o grau de
f (t).
• Um polinômio f (t) ∈ K[t], é dito ser mônico se o coeficiente do seu termo lı́der é
igual a 1. Por termo lı́der entendemos o termo não nulo de maior grau em f (t).
• Dados f (t), g(t) ∈ K[t], Dizemos que g(t) divide f (t) se existe q(t) ∈ K[t] tal
que f (t) = g(t)q(t).
• Dados f (t), g(t) ∈ K[t], não ambos nulos, o Máximo Divisor Comum de f (t)
e g(t) é o polinômio mônico, d(t), de maior grau possı́vel que divide a ambos.
Escrevemos,
MDC(f (t), g(t)) = d(t).

• Dois polinômios, não nulos, são ditos relativamente primos se o seu MDC é igual
a 1.
• Um polinômio, não nulo, é dito ser irredutı́vel se seus únicos divisores são as
constantes ou múltiplos dele próprio. Isto é:

f (t) irredutı́vel se, e somente se, f (t) = g(t)q(t) implica que g(t) ou q(t) é inversı́vel.

7
• Seja f (t) = atn + an−1 tn−1 + · · · + a1 t + b ∈ Q[t] um polinômio com coeficientes
inteiros, α = dc ∈ Q com MDC(c, d) = 1. Se f (α) = 0 então c divide b e d divide
a.
• Se f (t) = at3 +bt2 +ct+d ∈ R[t], com a 6= 0, então podemos, usando a mudança
b
de variável t = y − 3a , reduzir a equação at3 + bt2 + ct + d = 0 a uma equação do
b
tipo y 3 + py + q = 0. Logo α é raiz da última equação se, e somente se, α − 3a é
3
raiz de f (t). No entanto, para uma equação do tipo y + py + q = 0, a expressão:
s r³ ´ s r³ ´
3 q q 2 ³ p ´ 3 3 q q 2 ³ p ´3
α= − + + + − − +
2 2 3 2 2 3
fornece uma raiz real. Desta forma podemos dividir por y − α, para reduzir o
problema a uma equação de grau dois e usar a fórmula de Baskara para encontrar
as outras raı́zes.
• Para o caso de uma equação de grau 4, existe um processo semelhante, baseado
no completamento de quadrados.
Se f (t) = at4 + bt3 + ct2 + dt + e ∈ R[t], com a 6= 0, então podemos, usando a
b
mudança de variável t = y − 4a , reduzir a equação at4 + bt3 + ct2 + dt + e = 0
4 2
a uma equação do tipo y + py + qy + r = 0. Esta equação por sua vez pode
ser resolvida determinando α, β ∈ R tais que y 4 + (p + α)y 2 + (r + β) seja um
quadrado perfeito. Desta forma a equação y 4 + py 2 + qy + r = 0 equivale a
igualdade
y 4 + (p + α)y 2 + (r + β) = αy 2 − qy + β. (2)

Para que os dois lados da equação sejam quadrados perfeitos, mutatis mutantis,
os discriminantes, de ambas, devem ser iguais a zero. O que nos leva a um
sistema:
½
(p + α)2 − 4(r + β) = 0
q 2 − 4αβ = 0
Após resolvermos este sistema, para cada par α, β de soluções encontradas, a
equação 2 será reduzida a uma equação do do tipo:

(y 2 − ω)2 = (y − σ)2

que pode facilmente ser resolvida.

8
• Regra de Du Gua: Se f (t) ∈ R[t] tem grau n > 1, não tem zero como raiz, e
para algum r, 1 ≤ r < n, tem-se a2r ≤ ar−1 ar+1 então f (t) tem ao menos um par
de raı́zes complexas não reais.
O leitor pode encontrar muitas outras técnicas para encontrar raı́zes reais em
[6]

Definição 1.7 (Ideal: ). Um subconjunto, não vazio, J ⊆ K[t] é dito ser um ideal
se satisfaz as seguintes propriedades:
1. f (t) − g(t) ∈ J, ∀f (t), g(t) ∈ J. (Em particular,0 ∈ I.)
2. h(t)f (t) ∈ J, ∀f (t) ∈ J e h(t) ∈ K[t].
Exemplo 1.8. Os seguintes objetos são exemplos de ideais em K[t].
a ) Dados c1 , . . . , cr ∈ K[t], O conjunto dos polinômios que se anulam , simultane-
amente, em c1 , . . . , cr é um ideal em K[t].

b ) O conjunto dos polinômios em Q[t] que se anulam em 2 é um ideal em Q[t].
c ) Dado uma matriz quadrada com entradas num corpo K, A ∈ Mr (K), o conjunto:
{a0 + a1 t + a2 t2 + · · · + an tn , n ∈ N, tais que a0 I + a1 A + a2 A2 + · · · + an An ≡ 0}
em que I é a matriz identidade, é um ideal de K[t]

1.6 Teoremas básicos sobre K[t]


Teorema 1.9 (Divisão Euclideana). Dados dois polinômios,f (t), g(t) ∈ K[t], g(t) 6=
0, existem polinômios q(t) e r(t), chamados respectivamente de quociente e resto da
divisão, satisfazendo:

f (t) = q(t)g(t) + r(t) com r(t) ≡ 0 ou gr(r(t)) < gr(g(t)).

Demonstração. A demonstração deste fato é extremamente simples, e baseia-se na


redução sucessiva do grau do dividendo.
De fato, escreva f (t) = a0 + a1 t + a2 t2 + · · · + an tn , e g(t) = b0 + b1 t + · · · + bm tm ,
com an 6= 0 e bm 6= 0.
Se gr(f (t)) < gr(g(t)), tomamos q(t) := 0 e r(t) = f (t).
Se gr(f (t)) < gr(g(t)), ponha c0 := coeficiente do termo lı́der def (t) e substi-
m− gr(f (t))
tua f (t) por f1 (t) := f (t) − c0 b−1
m t g(t).
m− gr(f (t))
Se f1 (t) ≡ 0 ou gr(f1 (t)) < gr(g(t)) tomamos q(t) := cb−1 m t e r(t) :=
f1 (t), caso contrário, repetimos o processo para obtermos:

9
m− gr(f (t))
f1 (t) := f (t) − c0 b−1
m t g(t)
m− gr(f1 (t))
f2 (t) := f1 (t) − c1 b−1
m t g(t)
..
.
f (t) := f (t) − c b−1 tm− gr(fr−1 (t)) g(t)
r r−1 r−1 m

com gr(fr (t)) < gr(g(t)) ou fr (t) ≡ 0.


Neste caso vemos que, substituindo cada fı , temos:
m− gr(f (t))
f (t) = c0 b−1
m t g(t) + f1 (t)
−1 m− gr(f (t)) m− gr(f1 (t))
= c0 bm t g(t) + c1 b−1m t g(t) + f2 (t)
..
.
P m− gr(fı (t))
= ( r−1
ı cı b−1
m t )g(t) + fr (t).

Exemplo 1.10. Vamos aplicar a demonstração do teorema acima para os polinômios


f (t) = 4t5 − 2t3 + 5t + 2 e g(t) = 3t2 − 1. em Z7 .
−1 −1
O leitor deve estar atento ao significado da expressão 3 . Neste caso, 3 = 5
pois o inverso de 3 em Z7 é 5 (de fato, 3 · 5 = 15 = 2 · 7 + 1). temos:

f1 (t) := 4t5 − 2t3 + 5t + 2 − (45t3 )(3t2 − 1) = 4t3 + 5t + 2


f2 (t) := 4t3 + 5t + 2 − (6t)(3t2 − 1) = 4t + 2

Logo
4t5 − 2t3 + 5t + 2 = (6t3 + 6t)(3t2 − 1) + 4t + 2.
Proposição 1.11. Dado f (t) ∈ K[t] e λ ∈ K, tem-se:

f (λ) = 0 ⇔ t − λ divide f (t).

Demonstração. Basta aplicar o teorema anterior para obter F (t) = q(t)(t − λ) + c


onde c ∈ K, e consequentemente, f (λ) = q(λ) · 0 + c.
Proposição 1.12. Dado um polinômio f (t) = b+a1 t+a2 t2 +· · ·+an−1 tn−1 +atn , ∈ Q[t]
com coeficientes inteiros e λ ∈ Q. Se f (λ) = 0 então λ ∈ { dc tal que MDC(c, d) =
1, c|b e d|an }

10
Teorema 1.13 (Todo ideal é principal). Dado um ideal J ⊂ K[t], Se J 6= {0},
então existe um único polinômio mônico m(t) ∈ J tal que J = {q(t)m(t), q(t) ∈ K[t]}.
Istoé, todo ideal, não nulo, em K[t] é um conjunto de múltiplos de algum polinômio
mônico. Neste caso escrevemos, J = (m(t)) e dizemos que J é um ideal principal
gerado por m(t).
Demonstração. Seja m(t) um polinômio mônico de menor grau possı́vel contido
em J. Dado g(t) ∈ J escreva g(t) = q(t)m(t) + r(t) onde gr(r(t)) < gr(m(t)) ou
r(t) ≡ 0. Pela definição de ideal, temos que r(t) = g(t) − q(t)m(t) ∈ J. Logo, devido
a escolha do m(t), não podemos ter gr(r(t)) < gr(m(t)) e obrigatoriamente temos
r(t) ≡ 0. Isto é, g(t) = q(t)m(t).
Teorema 1.14 (Teorema de Bezout). Dados f (t), g(t) ∈ K[t]. Se f (t), g(t) não
são ambos nulos, então existem polinômios h1 (t), h2 (t) ∈ K[t] tais que

MDC(f (t), g(t)) = h1 (t)f (t) + h2 (t)g(t)

Demonstração. Seja d(t) = MDC(f (t), g(t)).


O conjunto J = {q1 (t)f (t) + q2 (t)g(t), q1 (t), q2 (t) ∈ K[t]} é um ideal de K[t] e pelo
teorema acima existe um polinômio m(t) ∈ J tal que J = {q(t)m(t), q(t) ∈ K[t]}.
Vamos mostrar que m(t) = MDC(f (t), g(t)). Como m(t) ∈ J, então m(t) =
h1 (t)f (t) + h2 (t)g(t).
Por outro lado, como d(t) divide ambos, f (t) e g(t), temos que d(t) divide m(t).
Portanto m(t) = q(t)d(t) e gr(m(t)) ≥ gr(d(t)). De acordo com a definição de
MDC, e como m(t) é mônico e divide ambos,f (t) e g(t), obrigatoriamente temos
gr(m(t)) ≤ gr(d(t)). Segue dai que q(t) é uma constante, necessariamente, igual a
1. Logo
d(t) = m(t) = h1 (t)f (t) + h2 (t)g(t).

Corolário 1.15. Se h(t) divide ambos, f (t) e g(t), então h(t) divide MDC(f (t), g(t)).
Além disto, se f (t) = q(t)g(t) + r(t), com g(t) 6= 0 ou r(t) 6= 0, então

MDC(f (t), g(t)) = MDC(g(t), r(t))

Demonstração. Segue imediatamente da demonstração acima.


Corolário 1.16. Se f1 (t), . . . , fr (t) ∈ K[t] são relativamente primos então existem
h1 (t), . . . , hr (t) ∈ K[t], tais que:

h1 (t)f1 (t) + · · · + hr (t)fr (t) = 1.

11
Demonstração. Imediato. O conjunto de todas as somas de múltiplos de f1 (t), . . . , fr (t)
é um ideal de K[t].
Teorema 1.17. Todo polinômio, não nulo, de grau maior que zero, é um produtos
de polinômios irredutı́veis. Isto é, se f (t) ∈ K[t] não pertence a K então

f (t) = p1 (t)n1 · · · pr (t)nr

onde cada pı (t) não pode ser fatorado em produto de dois polinômios de grau maior
ou igual a 1.

1.7 Determinantes
O conceito de determinante nos é apresentado no ensino fundamental atrav’es
de fórmulas prontas e de macetes para calculá-lo. Apresentaremos nesta seç ao a
definição formal de determinante, identificando-o como a única aplicação multilinear
alternada cujo valor assumido na matriz identidade é 1. As propriedades seguirão
facilmente da definição. Por motivo de simplicidade trabalharemos apenas com o
espaço de matrizes quadradas com entradas em um corpo no qual 1 + 1 6= 0, no
entanto os conceitos a seguir podem ser aplicados em casos mais gerais que corpos,
bastando que o conjunto ao qual pertencem as entradas da matriz possua uma soma e
multiplicação compatı́veis, a exemplo das matrizes quadradas com entradas inteiras,
ou entradas polinomiais, ou ainda funções numéricas.
Seja K um corpo e V um K-espaço vetorial de dimensão n > 1. Escrevamos Vn
para representar o produto cartesiano, de n-fatores,

V × · · · × V := {(ϑ1 , . . . , ϑn ) tal que ϑı ∈ V}.

Definição 1.18. Uma aplicação D : Vn → K é dita ser forma multilinear alternada


sobre V se satisfaz, para todos ϑ1 , . . . , ϑn , υ, ω ∈ V, e ∀λ ∈ K, as seguintes condições
:
1. D(ϑ1 , . . . , ϑı−1 , λυ, ϑı+1 . . . , ϑn ) = λD(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 . . . , ϑn ).

2. D(ϑ1 , . . . , ϑı−1 , ω, ϑı+1 , . . . , ϑ−1 , υ, ϑ+1 , . . . , ϑn ) = (−1)D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑ−1 , ω, ϑ+1 , . . . , ϑn )

3. D(ϑ1 , . . . , ϑı−1 , ω+υ, ϑı+1 , . . . , ϑn ) = D(ϑ1 , . . . , ϑı−1 , ω, ϑı+1 , . . . , ϑn )+D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑn )

Decorre diretamente da definição que se D é uma forma multilinear alternada


então:
• D(ϑ1 , . . . , ϑı−1 , ω, ϑı+1 , . . . , ϑ−1 , ω, ϑ+1 , . . . , ϑn ) = 0.

12
• D(ϑ1 , . . . , ϑı−1 , υ+ω, ϑı+1 , . . . , ϑ−1 , ω, ϑ+1 , . . . , ϑn ) = D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑ−1 , ω, ϑ+1 , . . . , ϑn )

Sabemos de Álgebra linear I que uma transformação linear T : V → K fica comple-


tamente determinada quando conhecemos os valores que T assume para cada elemento
em uma base de V. Desta forma é natural questionar se existe uma condição seme-
lhante para aplicações multilineares. Para entendermos isto vamos investigar o caso
do espaço R2 .
Exemplo 1.19. Suponha que D : R2 × R2 → R seja uma aplicação multilinear
alternada e seja {ε1 , ε2 } a base canônica do R2 . Dados vetores ϑ1 = α11 ε1 + α12 ε2 e
ϑ2 = α21 ε1 + α22 ε2 calculemos D(ϑ1 , ϑ2 ).
Temos

D(ϑ1 , ϑ2 ) = D(α11 ε1 + α12 ε2 , ϑ2 )


= α11 D(ε1 , ϑ2 ) + α12 D(ε2 , ϑ2 )
= α11 D(ε1 , α21 ε1 + α22 ε2 ) + α12 D(ε2 , α21 ε1 + α22 ε2 )
= α11 α21 D(ε1 , ε1 ) + α11 α22 D(ε1 , ε2 ) + α12 α21 D(ε2 , ε1 ) + α12 α22 D(ε2 , ε2 )
= 0 + α11 α22 D(ε1 , ε2 ) − α12 α21 D(ε1 , ε2 ) + 0
= (α11 α22 − α12 α21 )D(ε1 , ε2 )

Concluimos que toda forma multilinear alternada sobre R2 fica completa e unica-
mente determinada pelo valor no par (ε1 , ε2 ).
Um raciocı́nio análogo mostra que, se fixarmos a base canõnica do R3 , toda forma
multilinear alternada sobre R3 fica completa e unicamente determinada pelo valor no
terno (ε1 , ε2 , ε3 ). Em geral toda forma multilinear alternada sobre Rn fica completa e
unicamente determinada pelo valor na n-upla (ε1 , ε2 , . . . , εn ).
Podemos perceber neste exemplo que o fato de usarmos R como conjunto dos
escalares não desempenha nenhum papel fundamental nos cálculos e portanto o re-
sultado pode ser obtido de forma análoga para qualquer corpo K. No curso de Álgebra
linear I, aprendemos que o espaço das matrizes de ordem n com entradas num corpo
K é um K-espaço vetorial de dimensão n2 e portanto é isomorfo a Kn × · · · × Kn (
cartesiano com n fatores iguais a mathbbK n ). Podemos expressar este isomorfismo
pela transformação que a cada matriz associa o elemento de Kn × · · · × Kn cujas en-
tradas são as linhas da matriz desta forma, podemos pensar a n-upla (ε1 , ε2 , . . . , εn ).
como se fôra a matriz identidade, e portanto toda forma multilinear alternada fica
completa e unicamente determinada pelo valor que ela assume na matriz identidade.
Definição 1.20. Seja K um corpo e seja M\ (K) o espaço das matrizes de ordem n.
. Chamamos de função determinante a única forma multilinear alternada sobre Kn

13
cujo valor na matriz identidade é 1. Dada uma matriz A ∈ Mn (K), chamamos de
determinante de A o valor que a funç ao determinante assume em A.
Exemplo 1.21. Para o caso n = 2 temos o seguinte isomorfismo:
µ ¶
α11 α12
7−→ ((α11 , α12 ), (α21 , α22 ))
α21 α22
µ ¶
α11 α12
Consequentemente, pelo exposto no exemplo 1.19 temos que o determinante de
α21 α22
é α11 α22 − α12 α21 .

1.7.1 exercı́cio
1. Mostre que as seguintes regras definem uma forma multilinear alternada e calcule
o seu valor na identidade.
(a) Regra de Sarri para cálculo de determinantes de matrizes de ordem 3.
(b) D : R2 × R2 → R dada por D((x, y), (a, b)) = 2xb − 2ya.
(c) Regra de Laplace : Dada uma matriz A = (aı ) uma matriz de ordem
n > 2. Fixemos um valor  ∈ {1, . . . , n}, e definamos
n
X
D(A) = [(−1)ı+ aı · det(A[ı|])].
ı=1

Em que A[ı|] é a submatrix de A obtida eliminando-se a ı−ésima linha e


a −ésima coluna.
(d) Regra de Laplace : Dada uma matriz A = (aı ) uma matriz de ordem n > 2.
Fixemos um valor ı ∈ {1, . . . , n}, e definamos
n
X
D(A) = [(−1)ı+ aı · det(A[ı|])].
=1

2. Calcule, usando a regra de Laplace, o determinante das seguintes matrizes


µ ¶
2 3
(a) Resposta: -7
5 4
µ ¶
2−t 2
(b) Resposta: t2 − 5t + 4
1 3−t

14
 
1 2 3
(c)  0 2 3  Resposta: -3
1 1 0
 
1 2 3 0
 1 1 1 1 
(d) 
 0 0 1 0 
 Resposta: -1
0 0 2 1
 
1−t 2 2 0
 1 3 − t 0 1 
(e) 
 1

 Resposta: t4 − 6t3 + 7t2 + t − 3
1 1−t 0
0 1 1 1−t
3. Mostre que no espaço das matrizes, triangulares superior de ordem n, a regra
que a cada matriz associa o produto das entradas na diagonal principal, é uma
aplicação multilinear alternada cujo valor na identidade é 1. Clonclua que o
determinante de uma matriz triangular é o produto das entradas na diagonal
principal.

2 Decomposição em somas diretas de subespaços Invariantes


2.1 Autovalores e Autovetores (valores e vetores caracterı́sticos)
2.2 O Polinômio mı́nimo de um operador linear
Definição 2.1. Seja V um espaço vetorial sobre um corpo K. Uma aplicação T : V →
V é dito ser um operador linear se é uma transformação linear. Isto é,:

T (αv + βw) = αT (v) + βT (w) ∀α, β ∈ K, ∀v, w ∈ V.

Dado um operador linear T : V → V, de um K-espaço vetorial V de dimensão


finita, considere a aplicação
ϕ : K[t] → L(V, V)
que a cada polinômio f (t) = am tm + · · · + a1 t + a0 associa o operador linear am T m +
· · · + a1 T + a0 I, em que o sı́mbolo I representa o operador identidade. Isto é :

ϕ(am tm + · · · + a1 t + a0 ) = am T m + am−1 T m−1 + · · · + a1 T + a0 I.

Pode-se , facilmente, verificar que esta aplicação é uma transformação linear entre
K-espaços vetoriais. Além disto, sendo o domı́nio um espaço vetorial de dimensão

15
infinita e o contradomı́nio um espaço vetorial de dimensão finita, esta transformação
é obrigatoriamente não injetiva, ou seja, o seu núcleo é um subespaço vetorial não
nulo.
De fato, se dim V = n então fixando uma base Γ de V, temos que para cada
operador linear T : V → V existe uma única matriz A = (aı )1≤ı,≤n de ordem n tal
que:  
  x1
a11 a12 · · · a1n
T (x1 , . . . , xn ) =  .. .. .. ..  

x2 

. . . .  ... 
an1 an2 · · · ann
xn
Desta forma podemos concluir que o K espaço vetorial das transformações lineares
de V em V, L(V, V), tem dimensão n2 e que portanto o conjunto de operadores
2
lineares {T n , . . . , T 2 , T, I} é linearmente dependente. Sendo assim existem escalares
2
b0 , b1 , . . . , bn2 ∈ K, não todos nulos, tais que bn2 T n + · · · + b1 T + b0 I = 0. Portanto o
2
polinômio f (t) = bn2 tn + · · · + b1 t + b0 é não nulo e pertence ao núcleo de ϕ.
Por questão de simplicidade, escreveremos f (T ) pra representar a imagem do
polinômio f (t) por meio da aplicação ϕ, e o núcleo da aplicação ϕ será denotado
como abaixo:

ann(T ) := {ar tr +· · ·+a1 t+a0 ∈ K[t] tal que ar T r +· · ·+a1 T +a0 I é um operador nulo.}

Este subconjunto possui as seguites propriedades:

1. ann(T ) é não vazio.


2. f (t) − g(t) ∈ ann(T ), ∀f (t), g(t) ∈ ann(T ). (Em particular,0 ∈
ann(T ).)
3. h(t)f (t) ∈ ann(T ), ∀f (t) ∈ ann(T ) e h(t) ∈ K[t].

De acordo com a definição 1.7,ann(T )é um ideal em K[t]. Conseqüentemente, de


acordo com o Teorema 1.13,se ann(T ) 6= (0) então existe um único polinômio mônico
mT (t) ∈ K[t] tal que ann(T ) é o conjunto de múltiplos deste polinômio. Este fato
justifica a seguinte definição:
Definição 2.2. Dado um operador linear T : V → V de um K-espaço vetorial V de
dimensão finita. O polinômio mı́nimo de T é o polinômio mônico mT (t) ∈ K[t], de
menor grau possı́vel e que se “anula” em T.

16
Observação 2. Observe que a caracterização acima nos diz que o polinômio mı́nimo
de um operador T divide todo e qualquer polinômio que se “anula” em T. Logo, se
precisamos descobrir o polinômio mı́nimo de um operador,T, basta encontrarmos um
polinômio qualquer que se “anule” em T, fatorá-lo e testar seus divisores mônicos
para encontrar o de menor grau que se “anula” em T. O argumento da dependência
2
linear do conjunto {T n , . . . , T 2 , T, I} nos fornece este primeiro candidato. Uma outra
observação,muito importante, é que infelizmente não podemos garantir a existência
de polinômio mı́nimo para operadores em espaços de dimensão infinita.
Proposição 2.3. Se o espaço V é de dimensão finita, e A é a matriz de T em relação
a base canônica, então mT (A) é a matriz nula, mais que isto, mT (t) é o polinômio
mônico de menor grau possı́vel que se anula em A.
Demonstração. Basta observar que

bn T n + · · · + b1 t + b0 I é o operador nulo ⇔ bn An + · · · + b1 A + b0 I é a matriz nula.

Na primeira parte do curso, todos os espaços vetoriais considerados serão de di-


mensão finita, exceto quando mencionado o contrário.
Corolário 2.4. Dado um operador linear T : V → V. Se B é uma representação
matricial de T em relação a qualquer base de V, então mT (B) é a matriz nula. Mais
que isto, mT (t) é o polinômio mônico de menor grau possivel que se anula em B.
De fato, se B é a matriz de T em relação a outra base, então B = C −1 AC, onde
C é a matriz de mudança de base. Neste caso temos

an B n +· · ·+a1 B+a0 I = an C −1 An C+· · ·+a1 C −1 AC+a0 C −1 IC = C −1 (an An +· · ·+a1 A+a0 I)C.

Logo, um polinômio se anula em B se, e somente se, também se anula em A.


Observe que o corolário acima nos diz que o polinômio mı́nimo não depende da
representação matricial do operador.

2.3 Cálculo do Polinômio mı́nimo por meio de sistemas lineares.


Seja T : V → V um operador de um K-espaço vetorial V com dim(V) = n. Seja
A a matriz de T em relação a uma base Γ de V. Podemos determinar o polinômio
mı́nimo de T por meio do seguinte processo.
2
1. Forme o sistema α0 I + α1 A + · · · + αn2 An = O. Onde O é a matriz nula e
α1 , . . . , αn2 são as incógnitas.

17
2. Escalone a matriz deste sistema para obter as soluções em função de αn2 , αn2 −1 , . . . , αr
para o menor r possı́vel.
3. Escolha soluções fazendo sucessivamente αn2 = 0, αn2 −1 = 0, etc...
4. Ao encontrar o menor s para o qual αn2 = 0, αn2 −1 = 0, . . . , αs = 0 fornece a
solução trivial do sistema, faça αn2 = 0, αn2 −1 = 0, . . . , αs+1 = 0, αs = 1
5. Os coeficientes encontrados são os coeficientes do polinômio minı́mo.

Observação 3. O método de cálculo descrito acima, embora seja efetivo, é extrema-


mente dispendioso devido obviamente ao tamanho do sistema a ser resolvido. Uma
forma de reduzir o tamanho do sistema consiste em considerar o sistema

α0 I + α1 A + · · · + αn An = O.

O motivo pelo qual se pode fazer isto é o Teorema 2.8 de Cayley e Hamilton. Este
teorema afirma que o grau do polinômio mı́nimo é no máximo igual a dimensão do
espaço.
Definição 2.5 (Autovalor). Seja V um espaço vetorial de dimensão finita sobre
um corpo K. Dado um operador linear T : V → V. Um escalar λ ∈ K é dito ser um
autovalor( ou valor caracterı́stico )de T se mT (λ) = 0, ou equivalentemente, se t − λ
divide mT (t).
Exemplo 2.6. Considere o operador linear T : R3 → R3 dado por T (x, y, z) =
(2x, x + 3y − 2z, 2z). Determine o polinômio mı́nimo de T.
 
2 0 0
Considerando a base canônica temos A = T ]c =  1 3 −2  .
0 0 2
Queremos encontrar o polinômio mônico do tipo α3 t3 + α2 t2 + α1 t + α0 que tenha
o menor grau possı́vel e que se “anule” em A. Isto é,

α0 I + α1 A + α2 A2 + α3 A3 = O

Ou seja :

à ! à ! à ! à ! à !
1 0 0 2 0 0 4 0 0 8 0 0 0 0 0
α0 0 1 0 + α1 1 3 −2 + α2 5 9 −10 + α3 19 27 −38 = 0 0 0
0 0 1 0 0 2 0 0 4 0 0 8 0 0 0

18
Para este sistema, temos como solução:

α0 = 6α2 + 30α3 (3)


α1 = −5α2 − 19α3 (4)

Fazendo α3 = 0 temos

α0 = 6α2 (5)
α1 = −5α2 (6)

Portanto, não podemos fazer α3 = α2 = 0 sem anular todos os coeficientes. Desta


forma o polinômio mı́nimo deve ter grau 2.
Fazendo α3 = 0 e α2 = 1, obtemos α1 = −5 e α0 = 6. Segue portanto que o
polinômio mı́nimo é

mT (t) = t2 − 5t + 6 = (t − 2)(t − 3).

Observe que neste caso, os valores 2 e 3 são autovalores de T.

2.4 Polinômio caracterı́stico de um operador linear.


A observação 2 nos informa como obter o polinômio mı́nimo por meio de um outro
polinômio que se “anule” em T, o candidato natural citado nesta mesma observação
tem um custo computacional extremamente alto, nos forçando a procurar por um
cadidato melhor. A idéia foi originalmente apresentada por Hamilton. O matemático
Arthur Cayley em 1858 no livro “Memoir on the Theory of Matrices” apresentou o
polinômio caracterı́stico com candidato ideal,principalmente pela simplicidade com a
qual é definido.
Definição 2.7. Seja V um espaço vetorial de dimensão finita sobre um corpo K.
Dado um operador linear T : V → V. Seja A = (aı )1≤ı,≤n a matriz de T em relação
a base canônica. O polinômio caracterı́stico de T é o polinômio ℘c (x) ∈ K[x] dado
por:
℘c (x) = Det(A − xI)
Segue imediatamente da definição acima, e das propriedades de determinantes, que
℘c (x) tem grau igual a dimensão do espaço V. Além disto, o coeficiente do termo de
maior grau (termo lı́der) é (−1)dim(V) e o seu termo independente é igual a Det(A).

19
Teorema 2.8 (Cayley-Hamilton). Seja V um espaço vetorial, de dimensão n > 0,
sobre um corpo K. Dado um operador linear T : V → V, seja A = (aı )1≤ı,≤n a matriz
de T em relação a base canônica e ℘c (x) = (−1)n xn + bn−1 xn−1 + · · · + b1 x + b0 então:

(−1)n An + bn−1 An−1 + · · · + b1 A + b0 I = [0]


Corolário 2.9. O polinômio mı́nimo de um operador sempre divide o seu polinômio
caracterı́stico.
Teorema 2.10 (Cayley). Seja V um espaço vetorial, de dimensão n > 0, sobre um
corpo K. Dado um operador linear T : V → V, seja A = (aı )1≤ı,≤n a matriz de T
em relação a uma base Ω de V. Dado λ ∈ K, são equivalentes:

i) λ é um autovalor de T.
ii) Existe v ∈ V, não nulo, tal que T v = λv.
iii) Det(A − λI) = 0.

Demonstração.
(i ⇔ ii) Sabemos que λ ∈ K, é um autovalor T se, e somente se, mT (λ) = 0.
De acordo com as propriedades da divisão de polinômios, isto ocorre se, e somente se,

mT (x) = g(x)(x − λ) = (x − λ)g(x) com gr(g(x)) < gr(mT (x).

Se λ é autovalor, segue que

[0] = mT (T ) = g(T )(T − λI) = (T − λ)g(T ).

Como gr(g(x)) < gr(mT (x) temos obrigatoriamente que g(T ) não é o operador nulo,
portanto deve existir um w ∈ V tal que v = g(T )w é um vetor não nulo. Por outro
lado devemos ter:

0 = [0]w = mT (T )w = (T − λI)g(T )w = (T − λI)v = T v − λv (7)

Ou seja, existe ao menos um vetor não nulo v ∈ V tal que T v = λv. Reciprocamente,
se existe v ∈ V, não nulo, tal que T v = λv. Então, aplicando-se o algoritmo de divisão
temos:
mT (x) = g(x)(x − λ) + h com h ∈ K.
Segue que :
[0] = mT (T ) = g(T )(T − λI) + hI.

20
Portanto,

0 = [0]v = mT (T )v = g(T )(T − λI)v + hv = g(T )0 + hv = 0 + hv = hv (8)

Ou seja, 0 = hv com v não nulo. Logo h = 0. Neste caso,

mT (x) = g(x)(x − λ)
e consequentemente λ é raiz de mT (x).
(ii ⇔ iii) Se (x1 , x2 , . . . , xn ) são coordenadas de um vetor v em relação à
base Ω, então as coordenadas de T v são dadas por:
  
a11 · · · a1n x1
 a21 . . . a2n   x2 
T v = Av =   ... · · · ..   . 
.   .. 
an1 · · · ann xn

Portanto,
 
a11 · · · a1n    
x1 λx1
 
  x2   λx2 
T v = λv ⇔ 

a21 . . . a2n   ..  = . 
 .. ..   .   .. 
. ··· . 
xn λxn
an1 · · · ann

Ou equivalentemente,
à n n
!
X X ¡ ¢ ¡ ¢
a1 x , . . . , an x − λx1 , λx2 , . . . , λxn = 0, 0, . . . , 0
=1 =1

Isto é,
à n n
!
X X ¡ ¢
a1 x − λx1 , . . . , an x − λxn = 0, 0, . . . , 0
=1 =1

à n n−1
!
X X ¡ ¢
(a11 − λx1 ) + a1 x , . . . , (ann − λxn ) + a1 x = 0, 0, . . . , 0
=2 =1

Esta última igualdade pode ser representada na forma matricial por

21
 
a11 − λ a12 ··· a1n    
x1 0
 
  x2   0 
 a21 a22 − λ . . . a2n  ..  = . 
 .. .. .  .   .. 
 . . · · · .. 
xn 0
an1 an2 · · · ann − λ
Por
 outro lado a equação matricial
 acima, tem solução não nula se, e somente se
a11 − λ a12 · · · a1n
 
 
 a21 a22 − λ . . . a2n  é não inversı́vel ou em outras palavras, se e so-
 . .. .. 
 .. . ··· . 
an1 an2 · · · ann − λ
mente se seu determinante é igual a zero.
Reciprocamente, se Det(A − λI) = 0. Então A − λI é uma transformação linear
não inversı́vel e consequentemente seu núcleo é diferente do subespaço nulo. Logo
existe um vetor não nulo, v ∈ V tal que (A−λI)v = 0. Isto é, Av−λIv = Av−λv = 0.
Ou seja, Av = λv. Conseqüentemente, T v = λv para algum vetor, não nulo, v ∈ V.

Definição 2.11 (Autovetor). Seja V um espaço vetorial de dimensão finita sobre


um corpo K. Dado um operador linear T : V → V. Um vetor v ∈ V é dito ser um
autovetor de T se existe λ ∈ K tal que T v = λv.
Se T v = λ e v 6= 0, dizemos que v é um autovetor associado a λ.
Observação 4. Observe que de acordo com o Teorema 2.10 existe autovetor associado
a λ ∈ K se, e somente se, λ é um autovalor de T. De acordo com este mesmo Teorema
e pela definição de polinômio caracterı́stico, isto ocorre se, e somente se λ ∈ K é
raiz do polinômio caracterı́stico. Este mesmo raciocı́nio nos leva a concluir que o
polinômio mı́nimo e o polinômio caracterı́stico têm as mesmas raı́zes.
Exemplo 2.12. Considere o operador linear T : R3 → R3 dado por T (x, y, z) =
(2x, x + 3y − 2z, 2z). Determine o polinômio caracterı́stico de T.
 
2 0 0
Considerando a base canônica temos A = T ]c =  1 3 −2  . Logo:
0 0 2
 
2−t 0 0
℘c (t) = Det(A − tI) = Det  1 3 − t −2  = (2 − t)2 (3 − t).
0 0 2−t

22
Exemplo 2.13. Considere a transformação linear T : R2 → R2 dada por T (x, y) =
(x − y, x + 3y). Determinemos seus autovetores e autovalores.
µ ¶
2 1 −1
A matriz de T com respeito a base canônica de R é A = . Segue
1 3
portanto que o polinômio caracterı́stico de T é ℘c (t) = Det(A − tI) = t2 − 4t + 4 =
(t − 2)2 .
Desta forma λ = 2 é o único autovalor de T.
Para calcular os autovetores devemos, de acordo com o teorema 2.10, determinar
os vetores v = (x, y) tais que T (x, y) = (2x, 2y). Devemos portanto resolver o sistema:
µ ¶µ ¶ µ ¶
1 −1 x 2x
=
1 3 y 2y
Cuja forma matricial é:
·µ ¶ µ ¶¸ µ ¶ µ ¶µ ¶ µ ¶
1 −1 2 0 x −1 −1 x 0
− = =
1 3 0 2 y 1 1 y 0
Resolvendo o sistema temos que as soluções devem satisfazer x = −y. Portanto os
autovetores associados a 2 têm a forma (x, −x). O Leitor não terá dificuldade em ver
que o conjunto {(x, −x); x ∈ R} é um subespaço vetorial de R2 . Geometricamente
falando, isto significa que os transformados dos vetores cujas coordenadas fornecem
um ponto da reta y = −x, pertencem a mesma reta, ou seja a imagem da reta y = −x
por T é ela própria.

2.5 Exercı́cios
1. Encontre o polinônio mı́nimo, o polinômio caracterı́stico, os autovalores e os
autovetores (se houver) para cada um dos operadores abaixo.

(a) T : Q3 → Q3 dado por T (x, y, z) = (x, z, y).


(b) Seja V = {an xn + · · · + a1 x + a0 ∈ R[x], tal que n ≤ 3.}
i. T : V → V dado por T (a3 x3 + a2 x2 + a1 x + a0 ) = 3a3 x2 + 2a2 x + a1 .
ii. T : V → V dado por T (f ) = f (1 − x). (Mudança de parâmetros)
iii. T : V → V dado por T (a3 x + a2 x + a1 x + a0 ) = 31 a2 x3 + 12 a1 x2 + a0 x.
3 2

(c) T : Q4 → Q4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x +


y + 2z − 3w, x + y + z − 3w).
(d) T : R4 → R4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x +
y + 2z − 3w, x + y + z − 3w).

23
(e) T : C4 → C4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x +
y + 2z − 3w, x + y + z − 3w).
√ √
(f) T : C2 → C2 dado por T (x, y) = ((1 + −1)x + y, x − −1y).
(g) T : Z37 → Z37 dado por T (x, y, z, w) = (x, x + 3y + 5z, 2z).
(h) Fixado 0 ≤ θ < 2π. Seja T : R3 → R3 dado por T (x, y, z) = (x cos θ −
y sin θ, x sin θ + y cos θ, z).
(i) T : Q4 → Q4 dado por T (x, y, z) = (x + 3y + 3z, 3x + y + 3z, −3x − 3y − 5z).
(j) T : Q4 → Q4 dado por T (x, y, z) = (x + 4y + 3z, 3x + y + 3z, −3x − 3y − 5z).
(k) T : R2 → R2 dado por T (x, y) = (y, −x).
(l) T : C2 → C2 dado por T (x, y) = (y, −x).

2. Um operador Linear T : R3 → R3 tem como polinômio mı́nimo mT (x) = x3 −


x2 + x + λ. Mostre que:
(a) T é função injetiva, e somente se, λ 6= 0.
(b) Se T não é injetiva então, T não possui uma base formada por autovetores.
(c) Se T (1, 2, 1) = (−1, −2, −1) então, λ = 3.
3. Seja V um K- espaço vetorial de dimensão finita. Mostre que um operador
T : V → V é injetor se, e somente se, zero não é um autovalor de T.
4. Seja T um operador linear cuja representação matricial é uma matriz triagular
A = (aı ). Mostre que os autovalores de T são os elementos aıı .
5. Encontre uma base de R3 composta por autovetores do operador T (x, y, z) =
(−9x+4y +4z, −8x+3y +4z, −16x+8y +7z) e escreva a representação matricial
de T com respeito a esta base. Represente Geometricamente os autoespaços
associados.
6. Seja A = (aı ) uma matriz de ordem n, tal que aı = 0 sempre que ı ≤ . Mostre
que existe r ∈ N tal que Ar = O.
7. Seja V um K-espaço vetorial. Dado um operador linear T : V → V, mostre que
o conjunto dos autovetores associados a um mesmo autovalor λ ∈ K, juntamente
com o vetor nulo, Vλ := {v ∈ V; T v = λv}, é um subespaço vetorial de V.
8. Seja V um K-espaço vetorial. Dado um operador linear T : V → V, sejam
λ, β ∈ K autovalores distintos. Mostre que se {v1 , · · · , vr } e {w1 , · · · , wq } são,
respectivamente, bases de Vλ e Vβ então o conjunto {v1 , · · · , vr , w1 , · · · , wq } é
linearmente independente.(Dica: mostre que Vλ ∩ Vβ = {0})

24
9. Dado um corpo K. Mostre que o conjunto K[x], de todos os polinômios em uma
variável e com coeficientes em K é um K-espaço vetorial.
10. Dados K-espaços vetoriais V e W, mostre que o conjunto L(V, W), de todas as
transformações lineares de V em W é um espaço vetorial.
11. Mostre que dado um polinômio p(t) ∈ K[t] e uma transformação linear T : V →
V de um K-espaço vetorial as seguintes aplicações são transformaç oes lineares
de V em V :
(a) T n : V → V onde T n significa a composição de T consigo mesmo n vezes,
isto é, T n (v) := T (T n−1 (v)). Por abuso de notação T 0 é a identidade.
(b) αT n : V → V, com α ∈ K.
(c) αn T n + αn−1 T n−1 + · · · + α1 T + αI, onde I representa a identidade.
(d) Mostre que a aplicação Ψ : K[x] → L(V, V) definida por Ψ(αn xn +αn−1 xn−1 +
· · · + α1 x + α) = αn T n + αn−1 T n−1 + · · · + α1 T + αI. é uma transformação
linear.
12. Qual o núcleo da transformação Ψ definida acima?
13. Encontre as raı́zes reais dos polinômios abaixo, usando as técnicas descritas em
1.5 :
(a) p(x) = x3 − 30x2 + 129x − 100
(b) p(x) = x4 − 15x2 − 10x + 24
(c) p(x) = 245
16
− 49
2
x − 27
2
x2 + 2x3 + x4
(d) p(x) = x3 − x2 − 8x + 12.
(e) p(x) = x4 + 2x3 − 11x2 − 12x+ 36
(f) p(x) = x4 − x3 + 3x2 − 3x + 2
(g) p(x) = x4 + 3x2 + 2.
14. Encontre, se houver, as raı́zes dos polinômios abaixo, considerando o corpo K
indicado. (Lembre-se que existe um número finito de possibilidades !!!)
(a) p(x) = x3 − 30x2 + 129x − 100 em K = Z2 .
2
(b) p(x) = x + x em K = Z2 .
(c) p(x) = x5 + 2x4 − x2 + x + 2 em K = Z3 .
3 2
(d) p(x) = x − x − 3x + 2. em K = Z5 .

25
(e) p(x) = x4 + 2x3 − 11x2 − 12x+ 36 em K = Z7 .
2
(f) p(x) = x + 1 em K = Z2 .
10 2
(g) p(x) = x + 3x + 2. em K = Z3 .

2.6 Decomposição Primária (Decomposição Espectral genérica)


Como já dissemos no ı́nicio do texto, Se dim(V) é finita, nosso objetivo é encon-
trar para cada operador linear T : V → V uma base especial de V em relação a
qual a representação matricial de T seja a mais simples possı́vel. Do ponto de vista
computacional, a forma mais simples que uma matriz pode ter é a forma diagonal (
aı = 0 ı 6= ). Não é dificil perceber que um operador T admite uma representação
matricial por uma matriz diagonal se, e somente se, existe uma base do espaço, cujos
elementos são autovetores. Infelizmente nem todo operador admite uma tal repre-
sentação .
Pergunta-se então como encontrar uma base que nos forneça uma representação
mais simples possı́vel?
Para entendermos qual o efeito entre a base escolhida e a representação matricial,
iniciaremos estudando a decomposição em soma direta do espaço V.
Definição 2.14. Sejam W1 , . . . , Wr ⊂ V subespaços de V. Dizemos que V é soma
direta de W1 , . . . , Wr , e escrevemos V = W1 ⊕ · · · ⊕ Wr , se todo vetor v ∈ V se
escreve de forma única como:
v = w1 + · · · + wr com wı ∈ Wı
a primeira forma de decomposição (não necessariamente como soma direta) que
podemos imaginar de maneira a simplificar a representação matricial de um operador
T : V → V é fornecida pela proposição abaixo.
Proposição 2.15. Seja V um espaço vetorial, de dimensão finita, sobre um corpo
K. Dado um operador T : V → V cujo núcleo tem dimensão r ≥ 1, existe uma base
{v1 , . . . , vr , w1 , . . . , wm } de V, tal que a matriz de T tem r colunas iguais ao vetor
zero.
Demonstração. Escolha uma base {v1 , . . . , vr } do Núcleo (T ) e complete para obter
uma base de V.
Corolário 2.16 (Projeção ). Se T : V → V satisfaz T ◦ T = T então:

V = Núcleo (T ) ⊕ Imagem (T )
Em particular existe uma base em relação a qual a matrix A = (aı ) de T satisfaz :
aı = 0 ı 6=  ou  > r e aıı = 1 ı ≤ r onde r é a dimensão da imagem de T.

26
Demonstração. Ja sabemos que V = Núcleo (T ) + Imagem (T ). Com a hipotése
T 2 = T, temos que se v ∈ Núcleo (T ) ∩ Imagem (T ) então

v = T (w) ⇒ 0 = T (v) = T (T (w)) = T (w) ⇒ v = 0.

Isto é suficiente para garantir que cada vetor se escreve de forma única como soma
de um vetor na imagem com um vetor no núcleo.
Exemplo 2.17. Seja T : R3 → R3 , a aplicação dada por
T (x, y, z) = 21 (x − z, 2y, z − x), onde x, y, z são as coordenadas com respeito a base
canônica.
O leitor não terá dificuldade em ver que {(1, 0, 1)} é uma base do núcleo de T,
enquanto que {(1, 0, −1), (0, 1, 0)} é uma base da imagem de T.
Como  
1 0 1
Det  0 1 0 = 2
−1 0 1
os vetores {(1, 0, −1), (0, 1, 0), (1, 0, 1)} são L.I, e formam, portanto, uma base de R3 .
Construindo a matriz de T em relação a esta base temos:

T (1, 0, −1) = (1, 0, −1) = 1 · (1, 0, −1) + 0 · (0, 1, 0) + 0 · (1, 0, 1)


T (0, 1, 0) = (0, 1, 0) = 0 · (1, 0, −1) + 1 · (0, 1, 0) + 0 · (1, 0, 1)
T (1, 0, 1) = (0, 0, 0) = 0 · (1, 0, −1) + 0 · (0, 1, 0) + 0 · (1, 0, 1)

Portanto a matriz de T em relação a esta base é :


 
1 0 0
 0 1 0 
0 0 0
A afirmação acima pode ser generalizada pelos seguintes teoremas:
Teorema 2.18. Se V = W1 ⊕· · ·⊕Wr então existem r operadores lineares E1 , . . . , Er
de V tais que:
(a) Cada Eı é uma projeção sobre Wı . (Eı2 = Eı .)
(b) Eı ◦ E = 0, sempre que ı 6= .
(c) I = E1 + E2 + · · · + Er .

27
(d) A imagem de Eı é Wı .
Reciprocamente se existem r operadores lineares E1 , . . . , Er de V satisfazendo os itens
(a),(b) e (c), então V é soma direta das imagens destes operadores.
Demonstração.
Sabemos que cada v ∈ V se escreve de forma única como v = v1 + v2 + · · · + vr
onde cada vı ∈ Wı . Defina o operador linear Eı : V → V por Eı (v) = vı . Os itens
(a),(b) e (c) são satisfeitos por estes operadores.
Reciprocamente, suponha que E1 , . . . , Er sejam operadores lineares de V, satis-
fazendo os itens (a),(b) e (c) e que Wı seja a imagem de Eı .
Pela condição (c) temos v = I(v) = (E1 + E2 + · · · + Er )(v) = E1 (v) + E2 (v) +
· · · + Er (v). Logo V = W1 + · · · + Wr vamos mostrar que esta expressão para v é
única.
De fato, se v = E1 (v) + E2 (v) + · · · + Er (v) e v = ω1 + ω2 + · · · + ωr , com cada
ωı ∈ Wı , então existem vetores u1 , . . . , ur ∈ V tais que Eı (uı ) = ωı . Pelos itens (a),
(b), temos:
r
X r
X
E (v) = E (E1 (v) + E2 (v) + · · · + Er (v)) = E (Eı (v)) = E (ωı ) = E2 (u ) = ω .
ı=1 ı=1

Exemplo 2.19. Considere o R-espaço vetorial dos polinômios de coeficientes reais e


grau menor ou igual a três, R3 [x] := {ax3 + bx2 + cx + d; a, b, c, d ∈ R}, e os seguintes
operadores lineares F1 , F2 , F3 : R3 [x] → R3 [x] dados por:

F1 (ax3 + bx2 + cx + d) = ax3 + cx


F2 (ax3 + bx2 + cx + d) = bx2
F3 (ax3 + bx2 + cx + d) = d

Temos F1 + F2 + F3 = I, além disto F12 = F1 , F22 = F2 , F32 = F3 , e Fı ◦ F = O


sempre que ı 6= . Obviamente, as suas imagens são

W1 = {ax3 + cx; a, c ∈ R}
W2 = {bx2 ; b ∈ R}
W3 = {d; d ∈ R} = R

Conseqüentemente R3 [x] = W3 ⊕ W2 ⊕ W1 .
Observe que, se V tem dimensão n então, toda decomposição de V como soma
direta de subespaços vetoriais tem, no máximo, n somandos. Em particular toda base

28
de V fornece uma decomposição, de V, como soma direta de subespaços unidimen-
sionais.(verifique!)
O teorema a seguir é uma das ferramentas mais importantes para o estudo de um
operador linear T. Este teorema diz que é possı́vel “quebrar”o operador T em pedaços
mais simples, de forma que possamos estudar seu comportamento, estudando cada
um dos pedaços. Pode-se usar o teorema da decomposição primária para obter uma
representação matricial em forma de blocos e, trabalhar, posteriormente, cada bloco
para simplificar ainda mais a representação matricial do operador.
Uma limitação deste teorema é o fato dele não fornecer uma resposta satis-
fatória para o problema de encontrar uma representação matricial mais simples,
caso o polinômio mı́nimo seja potência de um polinômio irredutı́vel. Para este caso
recomenda-se o Teorema de decomposição cı́clica.
Uma das conseqüencias mais importantes deste teorema, é a caracterização dos
operadores diagonalizáveis através do polinômio mı́nimo: “ Um operador tem uma
representação matricial diagonal se, e somente se, seu polinômio mı́nimo
é um produto de polinômios de grau 1, dois-a-dois relativamente primos.”
Teorema 2.20 (Teorema da Decomposição primária). Dado um K-espaço ve-
torial V de dimensão finita, e um operador linear T : V → V. Seja mT (t) =
[p1 (t)]n1 [p2 (t)]n2 · · · [pr (t)]nr a decomposição do polinômio mı́nimo como produto de
polinômios irredutı́veis pı (t), com r ≥ 2, e MDC(pı (t), p (t)) = 1 sempre que ı 6= .
Seja Wı o núcleo do operador [p(T )]nı , ı = 1, 2, . . . , r. Então:

1. V = W1 ⊕ W2 ⊕ · · · ⊕ Wr .
2. T ω ∈ Wı ∀ω ∈ Wı . Ou seja, T (Wı ) ⊆ Wı ∀ı ∈ {1, 2, . . . , r}.
3. Se Γ1 , Γ2 , . . . , Γr são, respectivamente, bases de W1 , W2 , . . . , Wr e Ω é a união
ordenada das bases, isto é, Ω = Γ1 ∪ Γ2 ∪ · · · ∪ Γr , então a matriz de T, com
respeito a base Ω, é uma matriz diagonal por blocos. Isto é :
 
A1 O · · · · · · O
 . 
 O A2 O · · · .. 
 . .. .. .. 
T ]Ω = 
 .. O . . . 
 (9)
 . .. .. .. . 
 .. . . . .. 
O · · · · · · · · · Ar

Onde cada Aı é uma submatriz de ordem igual a dimensão de Wı .

29
Demonstração.
De acordo com o Teorema 2.18, para demonstrar o ı́tem (1), basta encontrarmos
r projeções E1 , . . . , Er : V → V tais que
(a ) Eı (V) = Wı ∀ı ∈ {1, 2, . . . , r}. Isto é, o conjunto imagem de Eı é Wı .
(b ) E1 + · · · + Er = I.
(c ) Eı ◦ E = O ∀ı 6= .
Considere, pois, os polinômios
Y r
mT (t))
fı (t) = n
= [p (t)]n .
[pı (t)] ı
6=ı

Como MDC([p1 (t)]n1 , [p2 (t)]n2 , . . . , [pr (t)]nr ) = 1 temos que


MDC(f1 (t), f2 (t), . . . , fr (t)) = 1. De acordo com o teorema de Bezout , veja 1.16,
existem r polinômios g1 (t), . . . , gr (t) ∈ K[t], tais que :

g1 (t)f1 (t) + · · · + gr (t)fr (t) = 1.

Conseqüentemente,

g1 (T ) ◦ f1 (T ) + · · · + gr (T ) ◦ fr (T ) = I.

Defina hı (t) = gı (t)fı (t) e considere os r operadores lineares Eı = gı (T ) ◦ fı (T ).


Vamos mostrar que:
• Eı ◦ E = O sempre que ı 6= .
• Cada Eı é uma projeção. Isto é, Eı2 = Eı ∀ı.
• O conjunto imagem de cada Eı é Wı
De fato, como mT (t) divide fı (t)f (t) sempre que ı 6= , temos

Eı ◦E = hı (T )◦h (T ) = gı (T )◦fı (T )◦g (T )◦f (T ) = gı (T )◦g (T )◦fı (T )◦f (T ) = O ∀ı 6= .

Pela construção dos operadores E1 , E2 , . . . , Er temos E1 + E2 + · · · + Er = I.


Portanto

Eı = Eı ◦I = Eı ◦(E1 +E2 +· · ·+Er ) = Eı ◦E1 +· · ·+Eı ◦Er = O+· · ·+Eı Eı +O+· · ·+O = Eı2 .

30
Além disto, como mT (t) divide [pı (t)]nı hı (t), temos que [pı (T )]nı ◦ Eı = O. Con-
seqüentemente a imagem de Eı está contida no núcleo de [pı (T )]nı . Reciprocamente,
se ı 6=  então f (t) é divisı́vel por [pı (t)]nı hı (t). Isto é, f (t) = s (t)[pı (t)]nı para algum
s (t) ∈ K[t]. Portanto se v ∈ V é um vetor do núcleo de [pı (t)]nı , então E v = 0. Em
outras palavras,
v = Iv = (E1 + E2 + · · · + Er )v = E1 v + E2 v + · · · + Er v = Eı v.
Concluimos que V = W1 ⊕ W2 ⊕ · · · ⊕ Wr .
Para mostrar o ı́tem (b) basta observar que: T ◦Eı = Eı ◦T. Portanto para ω ∈ Wı
temos ω = Eı v para algum v ∈ V. Logo:
T ω = T (Iω) = T (E1 ω + E2 ω + · · · + Er ω) = T (E1 ω) + · · · + T (Er ω)
= T (E1 (Eı v)) + · · · + T (Er (Eı v))
= T (Eı (Eı v))
= T (Eı2 (v))
= T (Eı v) = Eı (T v) ∈ Wı .
Finalmente, para todo v ∈ V existem ω1 , . . . , ωr ∈ V com ω ∈ Wı tais que
v = ω1 + · · · + ωr . Conseqüentemente,
T v = T ω1 + · · · + T ω r com T ωı ∈ Wı .
Em particular, se
Ω = {ω11 , ω12 , . . . , ω1s1 , ω21 , . . . ω2s2 , . . . , ωr1 , . . . , ωrsr }
onde {ωı1 , . . . ωısı } é uma base de Wı , então
T ωı = αı1 ωı1 + αı2 ωı2 + · · · αısı ωısı .
Ou seja as coordenadas de T ωı com respeito à base Ω são (0, 0, . . . , 0, αı1 , αı2 , . . . , αısı , 0, . . . , 0).
Logo a matriz T ]Ω é uma matriz diagonal por blocos. .
Observação 5. O fato do conjunto Ω, construido na demonstração acima, ser uma
base é uma conseqüencia que segue imediatamente da definição de soma direta. Mas
especificamente falando, se V = V1 ⊕ · · · ⊕ Vm então a união das bases de V1 , . . . , Vm
forma uma base de V.
Definição 2.21. Seja V um espaço de dimensão finita. Dado um operador linear
T : V → V, seja Ω uma base de V fornecida pela aplicação do ı́tem (3) do teorema
2.20. A matriz T ]Ω é dita ser uma decomposição primária de T.

31
Definição 2.22. Seja V um espaço de dimensão finita. Dado um operador linear
T : V → V, seja mT (t) = [p1 (t)]n1 [p2 (t)]n2 · · · [pr (t)]nr , como no teorema 2.20 e seja
Wı o núcleo do operador [p(T )]nı , ı = 1, 2, . . . , r. Considere os operadores H1 , . . . , Hr
de V, dados por ½
ω, se ω ∈ Wı
Hı ω =
0 se ω 6∈ Wı
A expressão
T = T ◦ H1 + · · · + T ◦ Hr
é dita ser uma decomposição espectral de T.
Exemplo 2.23. Considere o operador T : R6 → R6 cuja representação matricial com
respeito a base canônica é:
 
2 1 1 1 0 0
 1 2 1 1 0 0 
 
 0 0 3 0 1 1 
A= 
 0 0 1 1 0 0 
 0 0 0 0 0 1 
0 0 0 0 −1 0
Temos que :
℘c (t) = (t − 3)2 (t − 1)2 (t2 + 1)
mT (t) = (t − 3)2 (t − 1)(t2 + 1)
1. O núcleo de
 
2 −2 1 −2 1 1
 −2 2 1 −2 1 1 
 
 0 0 0 0 −4 −2 
(A − 3I)2 =  
 0 0 −2 4 1 1 
 0 0 0 0 8 −6 
0 0 0 0 6 8
tem como base Γ1 = {(0, 0, 2, 1, 0, 0), (1, 1, 0, 0, 0, 0)}.
2. O núcleo de  
1 1 1 1 0 0
 1 1 1 1 0 0 
 
 0 0 2 0 1 1 
(A − I) =  
 0 0 1 0 0 0 
 0 0 0 0 −1 1 
0 0 0 0 −1 −1

32
tem como base Γ2 = {(−1, 0, 0, 1, 0, 0), (−1, 1, 0, 0, 0, 0)}.
3. O núcleo de  
6 4 7 4 1 1
 4 6 7 4 1 1 
 
 0 0 10 0 2 4 
(A2 + I) =  
 0 0 4 2 1 1 
 0 0 0 0 0 0 
0 0 0 0 0 0
tem como base Γ3 = {(3, 3, −20, 15, 0, 50), (4, 4, −10, −5, 50, 0)}.
Conseqüentemente, em relação à base
Ω = {(0, 0, 2, 1, 0, 0), (1, 1, 0, 0, 0, 0), (−1, 0, 0, 1, 0, 0), (−1, 1, 0, 0, 0, 0), (3, 3, −20, 15, 0, 50), (4, 4, −10, −5, 50, 0)}

o operador T tem representação matricial dada por


 
3 0 0 0 0 0
 3 3 0 0 0 0 
 
 0 0 1 0 0 0 
T]Ω =  
 0 0 0 1 0 0 
 0 0 0 0 0 −1 
0 0 0 0 1 0
Neste exemplo, a matrix acima é uma decomposição primária de T. Se (y1 , y2 , y3 , y4 )
são coordenadas na base Ω acima, a expressão :
        
3 0 0 0 0 0 y1 0 0 0 0 0 0 y1 0 0 0 0 0 0 y1
 3 3 0 0 0 0  y2   0 0 0 0 0 0  y2   0 0 0 0 0 0  y2 
        
 0 0 0 0 0 0  y3   0 0 1 0 0 0  y3   0 0 0 0 0 0  y3 
T (y1 , y2 , y3 , yn 4, y5 , y6 ) =   +  +  
 0 0 0 0 0 0  y4   0 0 0 1 0 0  y4   0 0 0 0 0 0  y4 
 0 0 0 0 0 0  y5   0 0 0 0 0 0  y5   0 0 0 0 0 −1  y5 
0 0 0 0 0 0 y6 0 0 0 0 0 0 y6 0 0 0 0 1 0 y6

é uma decomposição espectral de T.


Observação 6. Observe que a expressão de decomposição espectral pode ser escrita
na base canônica, por meio da matrix de mudança da base Ω para base canônica e de
sua inversa:
   1 1 1

0 1 −1 −1 3 4 0 0 2
0 10 5
 0 1 0 1 3 4   1 1 −1 1
− 2
− 31 
   2 2 4 2 25 100 
 2 0 0 0 −20 −10   0 0 − 1
1 0 − 1 
M =  M −1 =  − 1 1
2
1 1
2 
1 
 1 0 1 0 15 −5   2 2 4
− 2
0 4 
 0 0 0 0 0 50   0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 50
0

33
Neste caso

T (x1 , x2 , x3 , x4 , x5 , x6 ) = H1 (x1 , x2 , x3 , x4 , x5 , x6 )+H2 (x1 , x2 , x3 , x4 , x5 , x6 )+H3 (x1 , x2 , x3 , x4 , x5 , x6 )


Onde H1 , H2 , H3 são os operadores cujas matrizes na base canônica são respectiva-
mente:
   1 1 1

0 1 −1 −1 3 4 3 0 0 0 0 0 0 0 2 0 10 5
 0 1 0 1 3 4   3 3 0 0 0 0  1 1
− 41 1 2
− 25 31
− 100 
   2 2 2 
 2 0 0 0 −20 −10    0 − 12 − 12 
A1 =   0 0 0 0 0 0  1 0 1 0 
 1 0 1 0 15 −5    − 1 1
− 12 1 
  0 0 0 0 0 0  2 2 4 0 4 
 0 0 0 0 0 50   0 0 0 0 0 0  0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 0 0 0 0 0 0 50 0
   1 1 1

0 1 −1 −1 3 4 0 0 0 0 0 0 0 0 2 0 10 5
 0 1 0 1 3 4   0 0 0 0 0 0   1 1
− 41 1 2
− 25 31
− 100 
   2 2 2 
 2 0 0 0 −20 −10   0   − 12 − 12 
A2 =   0 0 1 0 0   10 0 1 0 
 1 0 1 0 15 −5   0   1 1
− 12 1 
  0 0 0 1 0   −2 2 4 0 4 
 0 0 0 0 0 50   0 0 0 0 0 0  0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 0 0 0 0 0 0 50 0
   1 1 1

0 1 −1 −1 3 4 0 0 0 0 0 0 0 0 2 0 10 5
 0 1 0 1 3 4   0 0 0 0 0 0   1 1
−4 1 1 2
− 25 31
− 100 
   2 2 2 
 2 0 0 0 −20 −10   0   − 21 − 12 
A3 =   0 0 0 0 0   10 0 1 0 
 1 0 1 0 15 −5   0   1 1
− 12 1 
  0 0 0 0 0   −2 2 4 0 4 
 0 0 0 0 0 50   0 0 0 0 0 −1   0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 1 0 0 0 0 0 50 0

2.6.1 Operador diagonalizável


Definição 2.24. Um operador linear T : V → V é dito ser diagonalizável se existe
uma base de V em relação a qual a representação matricial de T é dada por uma
matriz diagonal. Isto é, uma matriz cujas entradas aı = 0 sempre que ı 6= .
Proposição 2.25. Seja V um K-espaço vetorial de dimensão finita. Um operador
T : V → V é diagonalizável se, e somente se, o seu polinômio mı́nimo tem a forma

mT (t) = (t − λ1 )(t − λ2 ) · · · (t − λr ) com λı 6= λ ∀ı 6= .

Demonstração. Se T é diagonalizável, então existe uma base de V formada por


autovetores de T. Neste caso se λ1 , . . . , λr ∈ K são os autovalores de T, então todo
vetor v ∈ V pode ser escrito como

v = ω1 + · · · + ωr com ωı autovetor tal que T ωı = λı ωı .

34
Desta forma considerando o polinômio f (t) = (t − λ1 ) · · · (t − λr ) ∈ K[t] e definindo
f (t)
fı (t) = t−λ ı
. Temos f (T ) = fı (T ) ◦ (T − λı ) ∀ı. Portanto,
r
X X
f (T )v = f (T )(ω1 + · · · + ωr ) = f (T )ωı = fı (T ) ◦ (T − λı I)ωı = 0
ı

Segue-se que f (t) é um polinômio mônico que se anula em T, e portanto é divisı́vel


pelo polinômio mı́nimo. Por outro lado, como nenhum dos fı (t) se anula em T,
nenhum divisor de f (t) se anula em T. Portanto, f (t) é o polinômio mı́nimo de T.
Reciprocamente, Se polinômio mı́nimo de T tem a forma mT (t) = (t − λ1 ) · · · (t −
λr ), o teorema da decomposição primária de T nos fornece uma base de V formada
por autovetores de T. Consequentemente, em relação a esta base, a representação
matricial de T é dada por uma matriz diagonal.

2.7 Exercı́cios
Encontre uma decomposição primária para os operadores abaixo:

1. T : Q3 → Q3 dado por T (x, y, z) = (x, y − z, z − y).


2. Seja V = {an xn + · · · + a1 x + a0 ∈ R[x], tal que n ≤ 3.}
(a) T : V → V dado por T (a3 x3 + a2 x2 + a1 x + a0 ) = 3a3 x2 + 2a2 x + a1 .
(b) T : V → V dado por T (f ) = f (1 − x). (Mudança de parâmetros)
(c) T : V → V dado por T (a3 x + a2 x + a1 x + a0 ) = 13 a2 x3 + 12 a1 x2 + a0 x.
3 2

3. T : Q4 → Q4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x + y +


2z − 3w, x + y + z − 3w).
4. T : R4 → R4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x + y +
2z − 3w, x + y + z − 3w).
5. T : C4 → C4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x + y +
2z − 3w, x + y + z − 3w).
√ √
6. T : C2 → C2 dado por T (x, y) = ((1 + −1)x + y, x − y −1).
7. T : Z37 → Z37 dado por T (x, y, z, w) = (x, x + 3y + 5z, 2z).
8. T : R3 → R3 dado por T (x, y, z) = (x cos π3 − y sin π3 , x sin π3 + y cos π3 , z).
9. T : Q4 → Q4 dado por T (x, y, z) = (x + 3y + 3z, 3x + y + 3z, −3x − 3y − 5z).

35
10. T : Q4 → Q4 dado por T (x, y, z) = (x + 4y + 3z, 3x + y + 3z, −3x − 3y − 5z).
11. T : R2 → R2 dado por T (x, y) = (y, −x).
12. T : C2 → C2 dado por T (x, y) = (y, −x).
13. T : Q3 → Q3 dado por T (x, y, z) = 2x, x + 3y − 2z, 2z).
14. T : Q3 → Q3 dado por T (x, y, z) = (x − y, x + 3y, 0).

2.8 Formas de Jordan


No enunciado do teorema da decomposição primária temos como hipótese a condição
do polinômio mı́nimo ter ao menos dois fatores irredutı́veis e relativamente primos. Se
o polinômio mı́nimo tem apenas um fator irredutı́vel, um problema particularmente
interessante é tentar encontrar uma base em relação a qual a representação matricial
do operador seja o mais simples possı́vel. Apresentarmos a forma canônica de Jordan
como resposta a este problema. Para o caso particular de R-espaços vetoriais apre-
sentaremos a decomposição em blocos de Jordan como um refinamento do teorema
da decomposição primária.

Referências
[1] Anton,Howard.,& Rorres,Chris.,Álgebra Linear com aplicações,Ed. Book-
man,2001
[2] Lima,E. Lages.,Álgebra linear, Coleção Matemática Universitária, IMPA,1998
[3] Hoffman, K. & Kunze,R.,Linear Algebra, Prentice Hall mathematics series,1967
[4] Noble, B. ,& Daniel, J. W.,Applied Linear Algebra, Prentice Hall, 1998.
[5] Santos, J. Plı́nio de O.,Introdução à Teoria dos Números, Coleção Matemática
Universitária, IMPA- CNPq, 1998
[6] Cláudio,D. Moraes & Marins, Jusaara M.,Cálculo numérico computa-
cional,Terceira edição, Ed Atlas, 1988

36

Вам также может понравиться