Anda di halaman 1dari 31

Universidade Federal da Bahia

Instituto de Matemática
Departamento de Matemática

Notas de aulas para Álgebra Linear II - B1 2

Professor: Carlos E. N. Bahiano


2018.2

1
Esta apóstila ainda está em construção. Ao longo do curso muitos conceitos e exercícios serão incorporados
ao texto. Sugestões e correções serão bem vindas.
2
Recomendamos o uso do software GAP para conferir e ampliar o entendimento decorrente da feitura dos exercícios.
O G.A.P pode ser obtido gratuitamente em http:\\www.gap-system.org
Sumário

0.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 NOÇÕES GERAIS SOBRE CORPOS, ESPAÇO DOS POLINÔMIOS E DETERMI-
NANTES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2.2 Corpos finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.2.3 O corpo dos números complexos . . . . . . . . . . . . . . . . . . . . . . . . . . 3
0.2.4 Anéis de polinômios em uma variável sobre um corpo . . . . . . . . . . . . . . 4
0.2.5 Propriedades gerais dos polinômios . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.2.6 Teoremas básicos sobre K[t] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
0.2.7 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
0.3 Decomposição em somas diretas de subespaços Invariantes . . . . . . . . . . . . . . 10
0.3.1 Autovalores e Autovetores (valores e vetores característicos) . . . . . . . . . . . 10
0.3.2 O Polinômio mínimo de um operador linear . . . . . . . . . . . . . . . . . . . . 10
0.3.3 Cálculo do Polinômio mínimo por meio de sistemas lineares. . . . . . . . . . . 11
0.3.4 Polinômio característico de um operador linear. . . . . . . . . . . . . . . . . . . 12
0.3.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
0.3.6 Decomposição Primária (Decomposição Espectral genérica) . . . . . . . . . . . 16
0.3.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
0.4 Espaços com Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
0.4.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
0.4.2 Norma e distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
0.4.3 Processo de ortogonalização de Gram- Schmidt . . . . . . . . . . . . . . . . . . 25
0.4.4 Projeção ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
0.4.5 Representação Matricial do Produto Interno . . . . . . . . . . . . . . . . . . . . 28
0.4.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
0.1 INTRODUÇÃO
Esta apostila ainda tem por objetivo complementar as discussões feitas em sala de aula. O primeiro
capítulo compreende as ferramentas necessárias ao entendimento das demonstrações dos principais
resultados em Álgebra linear 2, e outras necessárias para calcular e manipular de forma adequada os
objetos definidos ao longo da Teoria. Para ser mais preciso, os conceitos são necessários para o cálculo
do polinômio mínimo, e da decomposição primária de operadores lineares, cálculo de autovalores e
autovetores.
A decomposição primária de um operador linear pode ser pensada como uma forma mais geral
do teorema espectral, enunciado sem a necessidade do conceito de produto interno. Além disto, se o
objetivo do Teorema espectral é representar um operador T como soma de “múltiplos por escalar”das
projeções ortogonais sobre os autoespaços, ou equivalentemente como soma de composições de T com
as projeç oes ortogonais sobre os autoespaços, podemos pensar o teorema da decomposição primária
como resultado intermediário, no sentido de decompor o espaço em soma diretas de espaços invariantes
pela ação do operador linear e conseqüentemente representação de T como soma de composiç oes de
T com projeções (não necessariamente ortogonal) sobre subespaços invariantes pela ação de T. Neste
sentido a decomposição primária é um resultado eficiente, exceto quanto o polinômio mínimo do
operador tem apenas um fator irredutível, e neste caso a decomposição cíclica é a ferramenta mais
adequada. Infelizmente, ”Decomposição cíclica”não consta no conteúdo programático deste curso.

0.2 NOÇÕES GERAIS SOBRE CORPOS, ESPAÇO DOS POLINÔ-


MIOS E DETERMINANTES
0.2.1 Corpos
Definição 0.2.1. Um conjunto K ̸= ∅ é dito ser um corpo se podemos identificar em K duas operações

+ : K × K → K, Soma

e
•:K×K→K multiplicação
satisfazendo as seguintes propriedades:

I - Propriedades da Soma

(a) A soma é comutativa : a + b = b + a ∀a, b ∈ K ⇒


(b) A soma é associativa, (a + b) + c = a + (b + c) ∀a, b, c ∈ K ⇒
(c) A soma tem elemento neutro (chamado de zero), isto é, ∃0 ∈ K tal que 0+a = a ∀a ∈ K
(d) Todo elemento tem um elemento oposto, istoé, ∀a ∈ K, ∃ − a ∈ K tal que a + (−a) = 0.

II - Propriedades da multiplicação

(a) A multiplicação é comutativa : ∀a, b ∈ K ⇒ a · b = b · a


(b) A multiplicação tem elemento neutro (chamado de unidade e representado por 1 ), isto é,
∃1 ∈ K tal que 1 · a = a ∀a ∈ K
(c) A multiplicação é associativa, ∀a, b, c ∈ K ⇒ (a · b) · c = a · (b · c)
(d) Todo elemento, exceto o zero, tem um elemento inverso, istoé, ∀a ∈ K, a ̸= 0, ∃a−1 ∈
K tal que a · a−1 = 1.

III - As operações são compatíveis , isto é, vale a distributividade:


a · (b + c) = a · b + a · c
(b + c) · a = b · a + c · a

O leitor é fortemente encorajado a verificar que as seguintes propriedades são verdadeiras em um


corpo K:

1. Os elementos neutros da soma e da multiplicação são únicos, isto é não existem dois elementos
satisfazendo a propriedade de definição do elemento neutro.
2. Se K tem ao menos dois elementos, então 1 ̸= 0.

3. Para todo b ∈ K, o seu oposto é (−1)b.

4. Todo elemento não nulo tem exatamente um único inverso.

5. Todo elemento tem exatamente um oposto.

6. vale a lei do cancelamento: ∀a ̸= 0, aX = ab ⇔ X = b.

O motivo de introduzirmos a definição formal de um corpo deve-se ao fato de podermos criar


modelos mais gerais de espaços vetoriais. Felizmente, os alunos já tiveram contato com vários exemplos
de corpos e utilizaram ao menos uma das propriedades acima, mesmo não sabendo que trabalhavam
com uma estrutura formal chamado de corpo. Por exemplo, os conjuntos:

Q, conjuntos dos números racionais;

R, (conjuntos dos números reais);

C, (conjuntos dos números complexos);

R(x) = { fg(x)
(x)
, f (x), g(x) são polinômios com coeficientes em R e g(x) é não nulo}.

O conjunto booleano {0, 1} onde 0 = 0 + 0 = 1 + 1 = 1 · 0 e 1 = 1 · 1

são exemplos de corpos com respeito à soma e multiplicação usuais. Alem destes, podemos
ainda mostrar que qualquer Q-espaço vetorial V ⊂ C, de dimensão finita, fechado com respeito à
multiplicação de números complexos, é um corpo. Por exemplo, os Q-espaços vetoriais do exercício
abaixo:

Exercícios
Mostre que as estruturas abaixo,com a soma e multiplicação de números reais ou complexos, são
corpos.
√ √
1. Q[ 2] := {a + b 2; a, b ∈ Q}
√ √
2. Q[ 5] := {a + b 5; a, b ∈ Q}
√ √ √ √ √
3. Q[ 2, 3] := {a + b 2 + c 3 + d 6; a, b, c, d ∈ Q}
√ √
4. Q[ −1] := {a + b −1; a, b ∈ Q}
√ √
5. Q[ −2] := {a + b −2; a, b ∈ Q}
√ √
6. Q[ −3] := {a + b −3; a, b ∈ Q}

Observação 0.2.2. Fique atento a diferença entre R[x] e R(x) pois o primeiro é o conjunto de todos
os polinômios na variável x e coeficientes reais, o segundo é o conjunto das funções reais racionais na
variável x, isto é, o conjunto dos quocientes de polinômios em R[x].

0.2.2 Corpos finitos


Apenas para enriquecer ainda mais nosso elenco de exemplos de corpos vamos definir um tipo de
corpo, com um número finito de elementos, onde os elementos são conjuntos.

Exemplo 0.2.3. Fixado um número primo, p ∈ Z. Para cada x ∈ Z defina o conjunto

x = {x + mp, m ∈ Z}

Não é dificil ver existem exatamente p conjuntos distintos, disjuntos e definidos como acima, listados
a seguir:
0, 1, 2, . . . , p − 1
De fato, basta observar que para cada número inteiro x ∈ Z existem inteiros m, r ∈ Z tais que
x = mp + r e 0 ≤ r < p (Teorema da divisão Euclideana). Portanto o conjunto x = r com
0 ≤ r < p.
Agora considere o conjunto dado por Zp := {0, 1, 2, . . . , p − 1} e vamos definir em Zp uma operação
de soma e uma de multiplicação .

x + y := x + y
x · y := x · y

O leitor pode facilmente verificar a associatividade, comutatividade e distributividade das operações


de soma e produto definidas acima, assim como, que os elementos neutros são dados por : o para a
soma e 1 para o produto, e que o oposto de r é p − r.

O cálculo do elemento oposto decorre da seguinte igualdade:

−r + mp = (p − r) + (m − 1)p ∀m ∈ Z.

O ponto mais delicado das propriedades é a existência de elemento inverso para cada elemento
diferente do elemento zero. Dado x ̸= 0, como MDC(x, p) = 1 existem n, m ∈ Z tais que xn + pm = 1,
portanto

1 = 1 + 0 = xn + pm = xn + 0 = xn (1)
A propriedade de MDC, utilizada acima, decorre de uma propriedade básica de números inteiros,
chamada de “Teorema de Bezout”.

Proposição 0.2.4 (Teorema de Bezout). Dados a, b ∈ Z. Se MDC (a, b) = d então existem n, m ∈ Z


tais que
an + bm = d.

Demonstração. Veja [7, Teorema 1.3]

Exemplo 0.2.5. O corpo Z5


O modo mais eficiente de entender um corpo finito (do tipo Zp , pois existem outros tipos) é
descrever a soma e a multiplicação através de uma tabela. Nesta tabela podemos perceber que tudo
funciona como se trabalhassemos com multiplicação e soma de inteiros módulo p, isto é, somamos e
multiplicamos os representantes de cada conjunto e tomamos como resultado o conjunto representado
pelo resto da divisão por p.
Na tabela abaixo, o leitor pode verificar que 4 + 2 = 6 = 1 e que 3 · 3 = 9 = 4.
Tabela de Soma Tabela de multiplicação

+ 0 1 2 3 4 • 0 1 2 3 4

0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1

Exercícios
1. Construa as tabelas da soma e do produto em Zp para p = 2, 3, 7, 11

2. Tente construir um corpo com 9 elementos. (Acredite, isto existe.)

0.2.3 O corpo dos números complexos


Outro corpo particularmente importante para nós é o corpo dos números complexos. Sua impor-
tância no caso de Álgebra linear II deve-se ao fato de que ele é o corpo mais simples com a propriedade
de conter todas as raízes de polinômios com coeficiente reais. Esta propriedade particular do corpo
C faz com que toda transformação linear T : V → V de um C-espaço vetorial possua uma base em
relação a qual, o operador T tem uma matriz triangular superior como representação matricial.
O corpo C aparece naturalmente quando tentamos dar ao plano cartesiano R2 uma multiplicação
compatível com a estrutura de espaço vetorial, ou simplesmente quando procuramos pelo menor corpo
que contém os números reais e a raiz do polinômio t2 + 1. A representação mais comum é:

C := {a + b −1; a, b ∈ R}

com soma e multiplicação operando como se segue:

√ √ √
(a + b −1) + (c + d −1) := (a + c) + (b + d) −1
√ √ √
(a + b −1) · (c + d −1) := (ac − bd) + (ad + bc) −1

o leitor pode facilmente demonstrar os seguintes fatos:


√ √
a) 0 + 0 −1 e 1 + 0 −1 são, respectivamente, o elemento neutro da soma e o elemento neutro da
multiplicação .

b) a + b −1 é o elemento zero se, e somente se, a = b = 0.
√ √
c) O oposto de a + b −1 é (−a) + (−b) −1
√ −b

d) Se a + b −1 não é o zero então seu inverso é a2 +b
a
2 + a2 +b2 −1

0.2.4 Anéis de polinômios em uma variável sobre um corpo


Definição 0.2.6. Dado um corpo K, e uma variável t. O conjunto

n
K[t] := { ar tr , com n ∈ N, ar ∈ K}
r=0

munido das operações de soma e multiplicação definidas abaixo, é dito ser um anel de polinômios em
uma variável sobre o corpo K.


n ∑
m max
∑{n,m}
r r
ar t + ar t := (ar + br )tr
r=0 r=0 r=0

n ∑
m ∑
n+m ∑
( ar tr ) · ( ar tr ) := cr tr , em que cr := ai bj
r=0 r=0 r=0 i+j=r

com ai = 0 sempre que i > n e bj = 0 sempre que j > m.


Se f (t) = a0 + a1 t + a2 t2 + · · · + an tn ∈ K[t], dizemos que os elementos a0 , a1 , . . . , an , 0 são os
coeficientes de f (t). Em particular, o coeficiente, não nulo, de maior índice possível, é dito ser o
coeficiente líder de f (t) e o seu índice é dito ser o grau de f (t).

Embora a notação deixe claro que podemos associar a cada polinômio uma função polinomial, esta
certamente não é uma caracterização de um polinômio, pois os conceitos de função polinomial e
polinômio são essencialmente distintos. Como veremos na consideração a seguir.
Seja K = Z2 e seja f (t) = t(t − 1) ∈ K[t]. Visto como função de K em K o elemento f (t) é a
função nula pois f (1) = f (0) = 0, por outro lado visto como polinômio f (t) não é o polinômio nulo.

0.2.5 Propriedades gerais dos polinômios


A seguir enumeraremos sem demonstração uma serie de propriedades elementares dos polinômios.
O leitor, deve se preciso, verificá-las por si só.
Seja K[t] um anel de polinômios, então:

1. Se f (t) = a0 + a1 t + a2 t2 + · · · + an tn , então f (t) é o polinômio zero se, e somente se, a0 = a1 =


· · · = an = 0.

2. f (t)g(t) ≡ 0 se, e somente se, f (t) ou g(t) é o polinômio zero.


3. Se f = a0 + a1 t + a2 t2 + · · · + an tn , tem inverso multiplicativo, isto é, se existe g(t) ∈ K[t] tal que
f (t)g(t) = 1, então f (t) é uma “constante” não nula, isto é, a0 ̸= 0 e a1 = a2 = · · · = an = 0.

4. K[t] é um K-espaço vetorial de dimensão infinita. Mesmo quando o corpo K é um conjunto


finito. O conjunto {tn ; n ∈ N} é uma base para K[t].

Definição 0.2.7. a seguir introduziremos algumas definições e notações comuns quando tratamos com
polinômios:

• Dado um polinômio não nulo f (t) ∈ K[t], gr f (t) é a notação para o grau de f (t).

• Um polinômio f (t) ∈ K[t], é dito ser mônico se o coeficiente do seu termo líder é igual a 1. Por
termo líder entendemos o termo não nulo de maior grau em f (t).

• Dados f (t), g(t) ∈ K[t], Dizemos que g(t) divide f (t) se existe q(t) ∈ K[t] tal que f (t) = g(t)q(t).

• Dados f (t), g(t) ∈ K[t], não ambos nulos, o Máximo Divisor Comum de f (t) e g(t) é o polinômio
mônico, d(t), de maior grau possível que divide a ambos. Escrevemos,

MDC(f (t), g(t)) = d(t).

• Dois polinômios, não nulos, são ditos relativamente primos se o seu MDC é igual a 1.

• Um polinômio, não nulo, é dito ser irredutível se seus únicos divisores são as constantes ou
múltiplos dele próprio. Isto é:

f (t) irredutível se, e somente se, f (t) = g(t)q(t) implica que g(t) ou q(t) é inversível.

• Seja f (t) = atn +an−1 tn−1 +· · ·+a1 t+b ∈ Q[t] um polinômio com coeficientes inteiros, α = c
d ∈Q
com MDC(c, d) = 1. Se f (α) = 0 então c divide b e d divide a.

• Se f (t) = at3 + bt2 + ct + d ∈ R[t], com a ̸= 0, então podemos, usando a mudança de variável
t = y − 3ab
, reduzir a equação at3 + bt2 + ct + d = 0 a uma equação do tipo y 3 + py + q = 0.
Logo α é raiz da última equação se, e somente se, α − 3a b
é raiz de f (t). No entanto, para uma
3
equação do tipo y + py + q = 0, a expressão:
√ √( ) √ √( )
3 q q 2 ( p ) 3 3 q q 2 ( p )3
α= − + + + − − +
2 2 3 2 2 3

fornece uma raiz real. Desta forma podemos dividir por y − α, para reduzir o problema a uma
equação de grau dois e usar a fórmula de Baskara para encontrar as outras raízes.

• Para o caso de uma equação de grau 4, existe um processo semelhante, baseado no completamento
de quadrados.
Se f (t) = at4 + bt3 + ct2 + dt + e ∈ R[t], com a ̸= 0, então podemos, usando a mudança de
variável t = y − 4a b
, reduzir a equação at4 + bt3 + ct2 + dt + e = 0 a uma equação do tipo
y 4 + py 2 + qy + r = 0. Esta equação por sua vez pode ser resolvida determinando α, β ∈ R tais
que y 4 +(p+α)y 2 +(r+β) seja um quadrado perfeito. Desta forma a equação y 4 +py 2 +qy+r = 0
equivale a igualdade
y 4 + (p + α)y 2 + (r + β) = αy 2 − qy + β. (2)

Para que os dois lados da equação sejam quadrados perfeitos, mutatis mutantis, os discriminantes,
de ambas, devem ser iguais a zero. O que nos leva a um sistema:
{
(p + α)2 − 4(r + β) = 0
q 2 − 4αβ = 0
Após resolvermos este sistema, para cada par α, β de soluções encontradas, a equação 2 será
reduzida a uma equação do do tipo:

(y 2 − ω)2 = (y − σ)2

que pode facilmente ser resolvida.


• Regra de Du Gua: Se f (t) ∈ R[t] tem grau n > 1, não tem zero como raiz, e para algum
r, 1 ≤ r < n, tem-se a2r ≤ ar−1 ar+1 então f (t) tem ao menos um par de raízes complexas não
reais.
O leitor pode encontrar muitas outras técnicas para encontrar raízes reais em [8]

Definição 0.2.8 (Ideal: ). Um subconjunto, não vazio, J ⊆ K[t] é dito ser um ideal se satisfaz as
seguintes propriedades:

1. f (t) − g(t) ∈ J, ∀f (t), g(t) ∈ J. (Em particular,0 ∈ I.)

2. h(t)f (t) ∈ J, ∀f (t) ∈ J e h(t) ∈ K[t].

Exemplo 0.2.9. Os seguintes objetos são exemplos de ideais em K[t].

a ) Dados c1 , . . . , cr ∈ K[t], O conjunto dos polinômios que se anulam , simultaneamente, em


c1 , . . . , cr é um ideal em K[t].

b ) O conjunto dos polinômios em Q[t] que se anulam em 2 é um ideal em Q[t].

c ) Dado uma matriz quadrada com entradas num corpo K, A ∈ Mr (K), o conjunto: {a0 + a1 t +
a2 t2 + · · · + an tn , n ∈ N, tais que a0 I + a1 A + a2 A2 + · · · + an An ≡ 0} em que I é a matriz
identidade, é um ideal de K[t]

0.2.6 Teoremas básicos sobre K[t]


Teorema 0.2.10 (Divisão Euclideana). Dados dois polinômios,f (t), g(t) ∈ K[t], g(t) ̸= 0, existem
polinômios q(t) e r(t), chamados respectivamente de quociente e resto da divisão, satisfazendo:

f (t) = q(t)g(t) + r(t) com r(t) ≡ 0 ou gr r(t) < gr g(t).

Demonstração. A demonstração deste fato é extremamente simples, e baseia-se na redução suces-


siva do grau do dividendo.
De fato, escreva f (t) = a0 + a1 t + a2 t2 + · · · + an tn , e g(t) = b0 + b1 t + · · · + bm tm , com an ̸= 0 e
bm ̸= 0.
Se gr f (t) < gr g(t), tomamos q(t) := 0 e r(t) = f (t).
Se gr f (t) < gr g(t), ponha c0 := coeficiente do termo líider def (t) e substitua f (t) por f1 (t) :=
f (t) − c0 b−1 m−gr f (t) g(t).
m t
Se f1 (t) ≡ 0 ou gr f1 (t) < gr g(t) tomamos q(t) := cb−1 m−gr f (t) e r(t) := f (t), caso contrário,
m t 1
repetimos o processo para obtermos:

m−gr f (t)
f1 (t) := f (t) − c0 b−1
m t g(t)
−1 m−gr f1 (t)
f2 (t) := f1 (t) − c1 bm t g(t)
..
.
f (t) := f (t) − c b−1 tm−gr fr−1 (t) g(t)
r r−1 r−1 m

com gr fr (t) < gr g(t) ou fr (t) ≡ 0.


Neste caso vemos que, substituindo cada fı , temos:

f (t) = c0 b−1 m−gr f (t) g(t) + f (t)


m t 1
= c0 b−1 m−gr f (t) g(t) + c b−1 tm−gr f1 (t) g(t) + f (t)
m t 1 m 2
..
.
∑ m−gr fı (t) )g(t) + f (t).
= ( r−1
ı cı b−1
m t r

Exemplo 0.2.11. Vamos aplicar a demonstração do teorema acima para os polinômios f (t) =
4t5 − 2t3 + 5t + 2 e g(t) = 3t2 − 1. em Z7 .
−1 −1
O leitor deve estar atento ao significado da expressão 3 . Neste caso, 3 = 5 pois o inverso de 3
em Z7 é 5 (de fato, 3 · 5 = 15 = 2 · 7 + 1). temos:

f1 (t) := 4t5 − 2t3 + 5t + 2 − (45t3 )(3t2 − 1) = 4t3 + 5t + 2


f2 (t) := 4t3 + 5t + 2 − (6t)(3t2 − 1) = 4t + 2

Logo
4t5 − 2t3 + 5t + 2 = (6t3 + 6t)(3t2 − 1) + 4t + 2.

Proposição 0.2.12. Dado f (t) ∈ K[t] e λ ∈ K, tem-se:

f (λ) = 0 ⇔ t − λ divide f (t).

Demonstração. Basta aplicar o teorema anterior para obter F (t) = q(t)(t − λ) + c onde c ∈ K, e
consequentemente, f (λ) = q(λ) · 0 + c.

Proposição 0.2.13. Dado um polinômio f (t) = b + a1 t + a2 t2 + · · · + an−1 tn−1 + atn , ∈ Q[t] com
coeficientes inteiros e λ ∈ Q. Se f (λ) = 0 então λ ∈ { dc tal que MDC(c, d) = 1, c|b e d|an }

Teorema 0.2.14 (Todo ideal é principal). Dado um ideal J ⊂ K[t], Se J ̸= {0}, então existe um
único polinômio mônico m(t) ∈ J tal que J = {q(t)m(t), q(t) ∈ K[t]}. Istoé, todo ideal, não nulo, em
K[t] é um conjunto de múltiplos de algum polinômio mônico. Neste caso escrevemos, J = (m(t)) e
dizemos que J é um ideal principal gerado por m(t).

Demonstração. Seja m(t) um polinômio mônico de menor grau possível contido em J. Dado g(t) ∈ J
escreva g(t) = q(t)m(t) + r(t) onde gr r(t) < gr m(t) ou r(t) ≡ 0. Pela definição de ideal, temos que
r(t) = g(t) − q(t)m(t) ∈ J. Logo, devido a escolha do m(t), não podemos ter gr r(t) < gr m(t) e
obrigatoriamente temos r(t) ≡ 0. Isto é, g(t) = q(t)m(t).

Teorema 0.2.15 (Teorema de Bezout). Dados f (t), g(t) ∈ K[t]. Se f (t), g(t) não são ambos nulos,
então existem polinômios h1 (t), h2 (t) ∈ K[t] tais que

MDC(f (t), g(t)) = h1 (t)f (t) + h2 (t)g(t)

Demonstração. Seja d(t) = MDC(f (t), g(t)).


O conjunto J = {q1 (t)f (t) + q2 (t)g(t), q1 (t), q2 (t) ∈ K[t]} é um ideal de K[t] e pelo teorema acima
existe um polinômio m(t) ∈ J tal que J = {q(t)m(t), q(t) ∈ K[t]}.
Vamos mostrar que m(t) = MDC(f (t), g(t)). Como m(t) ∈ J, então m(t) = h1 (t)f (t) + h2 (t)g(t).
Por outro lado, como d(t) divide ambos, f (t) e g(t), temos que d(t) divide m(t). Portanto m(t) =
q(t)d(t) e gr m(t) ≥ gr d(t). De acordo com a definição de MDC, e como m(t) é mônico e divide
ambos,f (t) e g(t), obrigatoriamente temos gr m(t) ≤ gr d(t). Segue dai que q(t) é uma constante,
necessariamente, igual a 1. Logo

d(t) = m(t) = h1 (t)f (t) + h2 (t)g(t).

Corolário 0.2.16. Se h(t) divide ambos, f (t) e g(t), então h(t) divide MDC(f (t), g(t)). Além disto,
se f (t) = q(t)g(t) + r(t), com g(t) ̸= 0 ou r(t) ̸= 0, então

MDC(f (t), g(t)) = MDC(g(t), r(t))

Demonstração. Segue imediatamente da demonstração acima.

Corolário 0.2.17. Se f1 (t), . . . , fr (t) ∈ K[t] são relativamente primos então existem h1 (t), . . . , hr (t) ∈
K[t], tais que:
h1 (t)f1 (t) + · · · + hr (t)fr (t) = 1.

Demonstração. Imediato. O conjunto de todas as somas de múltiplos de f1 (t), . . . , fr (t) é um ideal


de K[t].

Teorema 0.2.18. Todo polinômio, não nulo, de grau maior que zero, é um produtos de polinômios
irredutíveis. Isto é, se f (t) ∈ K[t] não pertence a K então

f (t) = p1 (t)n1 · · · pr (t)nr

onde cada pı (t) não pode ser fatorado em produto de dois polinômios de grau maior ou igual a 1.
0.2.7 Determinantes
O conceito de determinante nos é apresentado no ensino fundamental atrav’es de fórmulas pron-
tas e de macetes para calculá-lo. Apresentaremos nesta seç ao a definição formal de determinante,
identificando-o como a única aplicação multilinear alternada cujo valor assumido na matriz identidade
é 1. As propriedades seguirão facilmente da definição. Por motivo de simplicidade trabalharemos
apenas com o espaço de matrizes quadradas com entradas em um corpo no qual 1 + 1 ̸= 0, no entanto
os conceitos a seguir podem ser aplicados em casos mais gerais que corpos, bastando que o conjunto
ao qual pertencem as entradas da matriz possua uma soma e multiplicação compatíveis, a exemplo
das matrizes quadradas com entradas inteiras, ou entradas polinomiais, ou ainda funções numéricas.
Seja K um corpo e V um K-espaço vetorial de dimensão n > 1. Escrevamos Vn para representar o
produto cartesiano, de n-fatores,

V × · · · × V := {(ϑ1 , . . . , ϑn ) tal que ϑı ∈ V}.

Definição 0.2.19. Uma aplicação D : Vn → K é dita ser forma multilinear alternada sobre V se
satisfaz, para todos ϑ1 , . . . , ϑn , υ, ω ∈ V, e ∀λ ∈ K, as seguintes condições :

1. D(ϑ1 , . . . , ϑı−1 , λυ, ϑı+1 . . . , ϑn ) = λD(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 . . . , ϑn ).

2. D(ϑ1 , . . . , ϑı−1 , ω, ϑı+1 , . . . , ϑȷ−1 , υ, ϑȷ+1 , . . . , ϑn ) = (−1)D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑȷ−1 , ω, ϑȷ+1 , . . . , ϑn )

3. D(ϑ1 , . . . , ϑı−1 , ω + υ, ϑı+1 , . . . , ϑn ) = D(ϑ1 , . . . , ϑı−1 , ω, ϑı+1 , . . . , ϑn ) + D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑn )

Decorre diretamente da definição que se D é uma forma multilinear alternada então:


• D(ϑ1 , . . . , ϑı−1 , ω, ϑı+1 , . . . , ϑȷ−1 , ω, ϑȷ+1 , . . . , ϑn ) = 0.

• D(ϑ1 , . . . , ϑı−1 , υ + ω, ϑı+1 , . . . , ϑȷ−1 , ω, ϑȷ+1 , . . . , ϑn ) = D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑȷ−1 , ω, ϑȷ+1 , . . . , ϑn )

Sabemos de Álgebra linear I que uma transformação linear T : V → K fica completamente deter-
minada quando conhecemos os valores que T assume para cada elemento em uma base de V. Desta
forma é natural questionar se existe uma condição semelhante para aplicações multilineares. Para
entendermos isto vamos investigar o caso do espaço R2 .

Exemplo 0.2.20. Suponha que D : R2 × R2 → R seja uma aplicação multilinear alternada e seja
{ε1 , ε2 } a base canônica do R2 . Dados vetores ϑ1 = α11 ε1 + α12 ε2 e ϑ2 = α21 ε1 + α22 ε2 calculemos
D(ϑ1 , ϑ2 ).
Temos

D(ϑ1 , ϑ2 ) = D(α11 ε1 + α12 ε2 , ϑ2 )


= α11 D(ε1 , ϑ2 ) + α12 D(ε2 , ϑ2 )
= α11 D(ε1 , α21 ε1 + α22 ε2 ) + α12 D(ε2 , α21 ε1 + α22 ε2 )
= α11 α21 D(ε1 , ε1 ) + α11 α22 D(ε1 , ε2 ) + α12 α21 D(ε2 , ε1 ) + α12 α22 D(ε2 , ε2 )
= 0 + α11 α22 D(ε1 , ε2 ) − α12 α21 D(ε1 , ε2 ) + 0
= (α11 α22 − α12 α21 )D(ε1 , ε2 )

Concluimos que toda forma multilinear alternada sobre R2 fica completa e unicamente determinada
pelo valor no par (ε1 , ε2 ).
Um raciocínio análogo mostra que, se fixarmos a base canõnica do R3 , toda forma multilinear
alternada sobre R3 fica completa e unicamente determinada pelo valor no terno (ε1 , ε2 , ε3 ). Em geral
toda forma multilinear alternada sobre Rn fica completa e unicamente determinada pelo valor na n-upla
(ε1 , ε2 , . . . , εn ).
Podemos perceber neste exemplo que o fato de usarmos R como conjunto dos escalares não de-
sempenha nenhum papel fundamental nos cálculos e portanto o resultado pode ser obtido de forma
análoga para qualquer corpo K. No curso de Álgebra linear I, aprendemos que o espaço das matrizes
de ordem n com entradas num corpo K é um K-espaço vetorial de dimensão n2 e portanto é isomorfo
a Kn × · · · × Kn ( cartesiano com n fatores iguais a Kn ). Podemos expressar este isomorfismo pela
transformação que a cada matriz associa o elemento de Kn × · · · × Kn cujas entradas são as linhas
da matriz desta forma, podemos pensar a n-upla (ε1 , ε2 , . . . , εn ). como se fôra a matriz identidade, e
portanto toda forma multilinear alternada fica completa e unicamente determinada pelo valor que ela
assume na matriz identidade.
Definição 0.2.21. Seja K um corpo e seja M\ (K) o espaço das matrizes de ordem n. . Chamamos de
função determinante a única forma multilinear alternada sobre Kn cujo valor na matriz identidade é 1.
Dada uma matriz A ∈ Mn (K), chamamos de determinante de A o valor que a funç ao determinante
assume em A.

Exemplo 0.2.22. Para o caso n = 2 temos o seguinte isomorfismo:


( )
α11 α12
7−→ ((α11 , α12 ), (α21 , α22 ))
α21 α22
( )
α11 α12
Consequentemente, pelo exposto no exemplo 0.2.20 temos que o determinante de é
α21 α22
α11 α22 − α12 α21 .

exercício
1. Mostre que as seguintes regras definem uma forma multilinear alternada e calcule o seu valor na
identidade.

(a) Regra de Sarri para cálculo de determinantes de matrizes de ordem 3.


(b) D : R2 × R2 → R dada por D((x, y), (a, b)) = 2xb − 2ya.
(c) Regra de Laplace : Dada uma matriz A = (aıȷ ) uma matriz de ordem n > 2. Fixemos um
valor ȷ ∈ {1, . . . , n}, e definamos


n
D(A) = [(−1)ı+ȷ aıȷ · det(A[ı|ȷ])].
ı=1

Em que A[ı|ȷ] é a submatrix de A obtida eliminando-se a ı−ésima linha e a ȷ−ésima coluna.


(d) Regra de Laplace : Dada uma matriz A = (aıȷ ) uma matriz de ordem n > 2. Fixemos um
valor ı ∈ {1, . . . , n}, e definamos


n
D(A) = [(−1)ı+ȷ aıȷ · det(A[ı|ȷ])].
ȷ=1

2. Calcule, usando a regra de Laplace, o determinante das seguintes matrizes


( )
2 3
(a) Resposta: -7
5 4
( )
2−t 2
(b) Resposta: t2 − 5t + 4
1 3−t
 
1 2 3
(c)  0 2 3  Resposta: -3
1 1 0
 
1 2 3 0
 1 1 1 1 
(d) 
 0 0 1 0 
 Resposta: -1
0 0 2 1
 
1−t 2 2 0
 1 3−t 0 1 
(e) 
 1
 Resposta: t4 − 6t3 + 7t2 + t − 3
1 1−t 0 
0 1 1 1−t
3. Mostre que no espaço das matrizes, triangulares superior de ordem n, a regra que a cada matriz
associa o produto das entradas na diagonal principal, é uma aplicação multilinear alternada cujo
valor na identidade é 1. Conclua que o determinante de uma matriz triangular é o produto das
entradas na diagonal principal.
0.3 Decomposição em somas diretas de subespaços Invariantes
0.3.1 Autovalores e Autovetores (valores e vetores característicos)
0.3.2 O Polinômio mínimo de um operador linear
Definição 0.3.1. Seja V um espaço vetorial sobre um corpo K. Uma aplicação T : V → V é dito ser
um operador linear se é uma transformação linear. Isto é,:
T (αv + βw) = αT (v) + βT (w) ∀α, β ∈ K, ∀v, w ∈ V.
Dado um operador linear T : V → V, de um K-espaço vetorial V de dimensão finita, considere a
aplicação
φ : K[t] → L(V, V)
que a cada polinômio f (t) = am tm + · · · + a1 t + a0 associa o operador linear am T m + · · · + a1 T + a0 I,
em que o símbolo I representa o operador identidade. Isto é :
φ(am tm + · · · + a1 t + a0 ) = am T m + am−1 T m−1 + · · · + a1 T + a0 I.
Pode-se , facilmente, verificar que esta aplicação é uma transformação linear entre K-espaços
vetoriais. Além disto, sendo o domínio um espaço vetorial de dimensão infinita e o contradomínio um
espaço vetorial de dimensão finita, esta transformação é obrigatoriamente não injetiva, ou seja, o seu
núcleo é um subespaço vetorial não nulo.
De fato, se dim V = n então fixando uma base Γ de V, temos que para cada operador linear
T : V → V existe uma única matriz A = (aıȷ )1≤ı,ȷ≤n de ordem n tal que: se as coordenadas de v ,
em relação à base Γ são (x1 , . . . , xn ) e as coordenadas de T (v) , em relação à base Γ são (y1 , . . . , yn ),
então    
y1   x1
 y2  a11 a12 · · · a1n  
   .. .. .. ..   x2 
 ..  =  . . . .  . 
.  .. 
an1 an2 · · · ann
yn xn
Desta forma podemos concluir que o K espaço vetorial das transformações lineares de V em V,
2
L(V, V), tem dimensão n2 e que portanto o conjunto de operadores lineares {T n , . . . , T 2 , T, I} é
linearmente dependente. Sendo assim existem escalares b0 , b1 , . . . , bn2 ∈ K, não todos nulos, tais que
2 2
bn2 T n + · · · + b1 T + b0 I = 0. Portanto o polinômio f (t) = bn2 tn + · · · + b1 t + b0 é não nulo e pertence
ao núcleo de φ.
Por questão de simplicidade, escreveremos f (T ) pra representar a imagem do polinômio f (t) por
meio da aplicação φ, e o núcleo da aplicação φ será denotado como abaixo:
ann(T ) := {ar tr + · · · + a1 t + a0 ∈ K[t] tal que ar T r + · · · + a1 T + a0 I é um operador nulo.}
Este subconjunto possui as seguites propriedades:

1. ann(T ) é não vazio.


2. f (t) − g(t) ∈ ann(T ), ∀f (t), g(t) ∈ ann(T ). (Em particular,0 ∈ ann(T ).)
3. h(t)f (t) ∈ ann(T ), ∀f (t) ∈ ann(T ) e h(t) ∈ K[t].

De acordo com a definição 0.2.8,ann(T )é um ideal em K[t]. Conseqüentemente, de acordo com o


Teorema 0.2.14,se ann(T ) ̸= (0) então existe um único polinômio mônico mT (t) ∈ K[t] tal que ann(T )
é o conjunto de múltiplos deste polinômio. Este fato justifica a seguinte definição:
Definição 0.3.2. Dado um operador linear T : V → V de um K-espaço vetorial V de dimensão finita.
O polinômio mínimo de T é o polinômio mônico mT (t) ∈ K[t], de menor grau possível e que se “anula”
em T.
Observação 0.3.3. Observe que a caracterização acima nos diz que o polinômio mínimo de um
operador T divide todo e qualquer polinômio que se “anula” em T. Logo, se precisamos descobrir o
polinômio mínimo de um operador,T, basta encontrarmos um polinômio qualquer que se “anule” em
T, fatorá-lo e testar seus divisores mônicos para encontrar o de menor grau que se “anula” em T. O
2
argumento da dependência linear do conjunto {T n , . . . , T 2 , T, I} nos fornece este primeiro candidato.
Uma outra observação,muito importante, é que infelizmente não podemos garantir a existência de
polinômio mínimo para operadores em espaços de dimensão infinita.
Proposição 0.3.4. Se o espaço V é de dimensão finita, e A é a matriz de T em relação a base
canônica, então mT (A) é a matriz nula, mais que isto, mT (t) é o polinômio mônico de menor grau
possível que se anula em A.
Demonstração. Basta observar que

bn T n + · · · + b1 t + b0 I é o operador nulo ⇔ bn An + · · · + b1 A + b0 I é a matriz nula.

Na primeira parte do curso, todos os espaços vetoriais considerados serão de dimensão finita, exceto
quando mencionado o contrário.
Corolário 0.3.5. Dado um operador linear T : V → V. Se B é uma representação matricial de T
em relação a qualquer base de V, então mT (B) é a matriz nula. Mais que isto, mT (t) é o polinômio
mônico de menor grau possivel que se anula em B.
De fato, se B é a matriz de T em relação a outra base, então B = C −1 AC, onde C é a matriz de
mudança de base. Neste caso temos

an B n + · · · + a1 B + a0 I = an C −1 An C + · · · + a1 C −1 AC + a0 C −1 IC = C −1 (an An + · · · + a1 A + a0 I)C.

Logo, um polinômio se anula em B se, e somente se, também se anula em A.


Observe que o corolário acima nos diz que o polinômio mínimo não depende da representação
matricial do operador.

0.3.3 Cálculo do Polinômio mínimo por meio de sistemas lineares.


Seja T : V → V um operador de um K-espaço vetorial V com dim(V) = n. Seja A a matriz de T
em relação a uma base Γ de V. Podemos determinar o polinômio mínimo de T por meio do seguinte
processo.
2
1. Forme o sistema α0 I + α1 A + · · · + αn2 An = O. Onde O é a matriz nula e α1 , . . . , αn2 são as
incógnitas.

2. Escalone a matriz deste sistema para obter as soluções em função de αn2 , αn2 −1 , . . . , αr para o
menor r possível.

3. Escolha soluções fazendo sucessivamente αn2 = 0, αn2 −1 = 0, etc...

4. Ao encontrar o menor s para o qual αn2 = 0, αn2 −1 = 0, . . . , αs = 0 fornece a solução trivial do


sistema, faça αn2 = 0, αn2 −1 = 0, . . . , αs+1 = 0, αs = 1

5. Os coeficientes encontrados são os coeficientes do polinômio minímo.

Observação 0.3.6. O método de cálculo descrito acima, embora seja efetivo, é extremamente dispen-
dioso devido obviamente ao tamanho do sistema a ser resolvido. Uma forma de reduzir o tamanho do
sistema consiste em considerar o sistema

α0 I + α1 A + · · · + αn An = O.

O motivo pelo qual se pode fazer isto é o Teorema 0.3.10 de Cayley e Hamilton. Este teorema afirma
que o grau do polinômio mínimo é no máximo igual a dimensão do espaço.
Definição 0.3.7 (Autovalor). Seja V um espaço vetorial de dimensão finita sobre um corpo K. Dado
um operador linear T : V → V. Um escalar λ ∈ K é dito ser um autovalor( ou valor característico )de
T se mT (λ) = 0, ou equivalentemente, se t − λ divide mT (t).
Exemplo 0.3.8. Considere o operador linear T : R3 → R3 dado por T (x, y, z) = (2x, x + 3y − 2z, 2z).
Determine o polinômio mínimo de T.
 
2 0 0
Considerando a base canônica temos A = T ]c =  1 3 −2  .
0 0 2
Queremos encontrar o polinômio mônico do tipo α3 t3 + α2 t2 + α1 t + α0 que tenha o menor grau
possível e que se “anule” em A. Isto é,

α0 I + α1 A + α2 A2 + α3 A3 = O
Ou seja :

( ) ( ) ( ) ( ) ( )
1 0 0 2 0 0 4 0 0 8 0 0 0 0 0
α0 0 1 0 + α1 1 3 −2 + α2 5 9 −10 + α3 19 27 −38 = 0 0 0
0 0 1 0 0 2 0 0 4 0 0 8 0 0 0

Para este sistema, temos como solução:

α0 = 6α2 + 30α3 (3)


α1 = −5α2 − 19α3 (4)

Fazendo α3 = 0 temos

α0 = 6α2 (5)
α1 = −5α2 (6)

Portanto, não podemos fazer α3 = α2 = 0 sem anular todos os coeficientes. Desta forma o
polinômio mínimo deve ter grau 2.
Fazendo α3 = 0 e α2 = 1, obtemos α1 = −5 e α0 = 6. Segue portanto que o polinômio mínimo é

mT (t) = t2 − 5t + 6 = (t − 2)(t − 3).

Observe que neste caso, os valores 2 e 3 são autovalores de T.

0.3.4 Polinômio característico de um operador linear.


A observação 0.3.3 nos informa como obter o polinômio mínimo por meio de um outro polinômio
que se “anule” em T, o candidato natural citado nesta mesma observação tem um custo computacional
extremamente alto, nos forçando a procurar por um cadidato melhor. A idéia foi originalmente
apresentada por Hamilton. O matemático Arthur Cayley em 1858 no livro “Memoir on the Theory of
Matrices” apresentou o polinômio característico com candidato ideal,principalmente pela simplicidade
com a qual é definido.

Definição 0.3.9. Seja V um espaço vetorial de dimensão finita sobre um corpo K. Dado um operador
linear T : V → V. Seja A = (aıȷ )1≤ı,ȷ≤n a matriz de T em relação a base canônica. O polinômio
característico de T é o polinômio ℘c (x) ∈ K[x] dado por:

℘c (x) = Det(A − xI)

Segue imediatamente da definição acima, e das propriedades de determinantes, que ℘c (x) tem
grau igual a dimensão do espaço V. Além disto, o coeficiente do termo de maior grau (termo líder) é
(−1)dim(V) e o seu termo independente é igual a Det(A).

Teorema 0.3.10 (Cayley-Hamilton). Seja V um espaço vetorial, de dimensão n > 0, sobre um corpo
K. Dado um operador linear T : V → V, seja A = (aıȷ )1≤ı,ȷ≤n a matriz de T em relação a base
canônica e ℘c (x) = (−1)n xn + bn−1 xn−1 + · · · + b1 x + b0 então:

(−1)n An + bn−1 An−1 + · · · + b1 A + b0 I = [0]

Corolário 0.3.11. O polinômio mínimo de um operador sempre divide o seu polinômio característico.

Teorema 0.3.12 (Cayley). Seja V um espaço vetorial, de dimensão n > 0, sobre um corpo K. Dado
um operador linear T : V → V, seja A = (aıȷ )1≤ı,ȷ≤n a matriz de T em relação a uma base Ω de V.
Dado λ ∈ K, são equivalentes:

i) λ é um autovalor de T.

ii) Existe v ∈ V, não nulo, tal que T v = λv.

iii) Det(A − λI) = 0.


Demonstração.
(i ⇔ ii) Sabemos que λ ∈ K, é um autovalor T se, e somente se, mT (λ) = 0. De acordo com as
propriedades da divisão de polinômios, isto ocorre se, e somente se,

mT (x) = g(x)(x − λ) = (x − λ)g(x) com gr(g(x)) < gr(mT (x).

Se λ é autovalor, segue que

[0] = mT (T ) = g(T )(T − λI) = (T − λ)g(T ).

Como gr(g(x)) < gr(mT (x) temos obrigatoriamente que g(T ) não é o operador nulo, portanto deve
existir um w ∈ V tal que v = g(T )w é um vetor não nulo. Por outro lado devemos ter:

0 = [0]w = mT (T )w = (T − λI)g(T )w = (T − λI)v = T v − λv (7)

Ou seja, existe ao menos um vetor não nulo v ∈ V tal que T v = λv. Reciprocamente, se existe v ∈ V,
não nulo, tal que T v = λv. Então, aplicando-se o algoritmo de divisão temos:

mT (x) = g(x)(x − λ) + h com h ∈ K.

Segue que :
[0] = mT (T ) = g(T )(T − λI) + hI.
Portanto,
0 = [0]v = mT (T )v = g(T )(T − λI)v + hv = g(T )0 + hv = 0 + hv = hv (8)
Ou seja, 0 = hv com v não nulo. Logo h = 0. Neste caso,

mT (x) = g(x)(x − λ)
e consequentemente λ é raiz de mT (x).
(ii ⇔ iii) Se (x1 , x2 , . . . , xn ) são coordenadas de um vetor v em relação à base Ω, então as
coordenadas de T v são dadas por:
  
a11 · · · a1n x1
 a21 . . . a2n  x2 
  
T v = Av =  . ..  .. 
 .. · · · .  . 
an1 · · · ann xn
Portanto,  
a11 ··· a1n    
  x1 λx1
  x2   λx2 
    
T v = λv ⇔  a21 . . . a2n  .. = .. 
 .. ..  .   . 
 . ··· . 
xn λxn
an1 · · · ann
Ou equivalentemente,
( n )
∑ ∑
n
( ) ( )
a1ȷ xȷ , . . . , anȷ xȷ − λx1 , λx2 , . . . , λxn = 0, 0, . . . , 0
ȷ=1 ȷ=1

Isto é, ( )

n ∑
n
( )
a1ȷ xȷ − λx1 , . . . , anȷ xȷ − λxn = 0, 0, . . . , 0
ȷ=1 ȷ=1
( )

n ∑
n−1
( )
(a11 − λ)x1 + a1ȷ xȷ , . . . , (ann − λ)xn + a1ȷ xȷ = 0, 0, . . . , 0
ȷ=2 ȷ=1

Esta última igualdade pode ser representada na forma matricial por


 
a11 − λ a12 ··· a1n    
  x1 0
   x2   0 
 a21 a22 − λ . . . a2n    
   ..  =  .. 
 .. .. ..  .   . 
 . . ··· . 
xn 0
an1 an2 · · · ann − λ
 
a11 − λ a12 ··· a1n
 
 
 a21 a22 − λ . . . a2n 
Por outro lado a equação matricial acima, tem solução não nula se, e somente se  
 .. .. .. 
 . . ··· . 
an1 an2 ··· ann − λ
é não inversível ou em outras palavras, se e somente se seu determinante é igual a zero.
Reciprocamente, se Det(A − λI) = 0. Então A − λI é uma transformação linear não inversível e
consequentemente seu núcleo é diferente do subespaço nulo. Logo existe um vetor não nulo, v ∈ V tal
que (A − λI)v = 0. Isto é, Av − λIv = Av − λv = 0. Ou seja, Av = λv. Conseqüentemente, T v = λv
para algum vetor, não nulo, v ∈ V.

Definição 0.3.13 (Autovetor). Seja V um espaço vetorial de dimensão finita sobre um corpo K. Dado
um operador linear T : V → V. Um vetor v ∈ V é dito ser um autovetor de T se existe λ ∈ K tal que
T v = λv.
Se T v = λ e v ̸= 0, dizemos que v é um autovetor associado a λ.

Observação 0.3.14. Observe que de acordo com o Teorema 0.3.12 existe autovetor associado a λ ∈ K
se, e somente se, λ é um autovalor de T. De acordo com este mesmo Teorema e pela definição de
polinômio característico, isto ocorre se, e somente se λ ∈ K é raiz do polinômio característico. Este
mesmo raciocínio nos leva a concluir que o polinômio mínimo e o polinômio característico têm as
mesmas raízes.

Exemplo 0.3.15. Considere o operador linear T : R3 → R3 dado por T (x, y, z) = (2x, x+3y −2z, 2z).
Determine o polinômio característico de T.
 
2 0 0
Considerando a base canônica temos A = T ]c =  1 3 −2  . Logo:
0 0 2
 
2−t 0 0
℘c (t) = Det(A − tI) = Det  1 3 − t −2  = (2 − t)2 (3 − t).
0 0 2−t

Exemplo 0.3.16. Considere a transformação linear T : R2 → R2 dada por T (x, y) = (x − y, x + 3y).


Determinemos seus autovetores e autovalores.
( )
1 −1
A matriz de T com respeito a base canônica de R é A =2 . Segue portanto que o
1 3
polinômio característico de T é ℘c (t) = Det(A − tI) = t2 − 4t + 4 = (t − 2)2 .
Desta forma λ = 2 é o único autovalor de T.
Para calcular os autovetores devemos, de acordo com o teorema 0.3.12, determinar os vetores
v = (x, y) tais que T (x, y) = (2x, 2y). Devemos portanto resolver o sistema:
( )( ) ( )
1 −1 x 2x
=
1 3 y 2y
Cuja forma matricial é:
[( ) ( )] ( ) ( )( ) ( )
1 −1 2 0 x −1 −1 x 0
− = =
1 3 0 2 y 1 1 y 0

Resolvendo o sistema temos que as soluções devem satisfazer x = −y. Portanto os autovetores associ-
ados a 2 têm a forma (x, −x). O Leitor não terá dificuldade em ver que o conjunto {(x, −x); x ∈ R} é
um subespaço vetorial de R2 . Geometricamente falando, isto significa que os transformados dos vetores
cujas coordenadas fornecem um ponto da reta y = −x, pertencem a mesma reta, ou seja a imagem da
reta y = −x por T é ela própria.

0.3.5 Exercícios
1. Encontre o polinônio mínimo, o polinômio característico, os autovalores e os autovetores (se
houver) para cada um dos operadores abaixo.

(a) T : Q3 → Q3 dado por T (x, y, z) = (x, z, y).


(b) Seja V = {an xn + · · · + a1 x + a0 ∈ R[x], tal que n ≤ 3.}
i. T : V → V dado por T (a3 x3 + a2 x2 + a1 x + a0 ) = 3a3 x2 + 2a2 x + a1 .
ii. T : V → V dado por T (f ) = f (1 − x). (Mudança de parâmetros)
iii. T : V → V dado por T (a3 x + a2 x + a1 x + a0 ) = 13 a2 x3 + 21 a1 x2 + a0 x.
3 2

(c) T : Q4 → Q4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x + y + 2z − 3w, x +


y + z − 3w).
(d) T : R4 → R4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x + y + 2z − 3w, x +
y + z − 3w).
(e) T : C4 → C4 dado por T (x, y, z, w) = (2x − 3y + z + w, x + 4y + z + w, x + y + 2z − 3w, x +
y + z − 3w).
√ √
(f) T : C2 → C2 dado por T (x, y) = ((1 + −1)x + y, x − −1y).
(g) T : Z37 → Z37 dado por T (x, y, z, w) = (x, x + 3y + 5z, 2z).
(h) Fixado 0 ≤ θ < 2π. Seja T : R3 → R3 dado por T (x, y, z) = (x cos θ − y sin θ, x sin θ +
y cos θ, z).
(i) T : Q4 → Q4 dado por T (x, y, z) = (x + 3y + 3z, 3x + y + 3z, −3x − 3y − 5z).
(j) T : Q4 → Q4 dado por T (x, y, z) = (x + 4y + 3z, 3x + y + 3z, −3x − 3y − 5z).
(k) T : R2 → R2 dado por T (x, y) = (y, −x).
(l) T : C2 → C2 dado por T (x, y) = (y, −x).

2. Um operador Linear T : R3 → R3 tem como polinômio mínimo mT (x) = x3 − x2 + x + λ. Mostre


que:

(a) T é função injetiva, e somente se, λ ̸= 0.


(b) Se T não é injetiva então, T não possui uma base formada por autovetores.
(c) Se T (1, 2, 1) = (−1, −2, −1) então, λ = 3.

3. Seja V um K- espaço vetorial de dimensão finita. Mostre que um operador T : V → V é injetor


se, e somente se, zero não é um autovalor de T.

4. Seja T um operador linear cuja representação matricial é uma matriz triagular A = (aıȷ ). Mostre
que os autovalores de T são os elementos aıı .

5. Encontre uma base de R3 composta por autovetores do operador T (x, y, z) = (−9x + 4y +


4z, −8x + 3y + 4z, −16x + 8y + 7z) e escreva a representação matricial de T com respeito a esta
base. Represente Geometricamente os autoespaços associados.

6. Seja A = (aıȷ ) uma matriz de ordem n, tal que aıȷ = 0 sempre que ı ≤ ȷ. Mostre que existe r ∈ N
tal que Ar = O.

7. Seja V um K-espaço vetorial. Dado um operador linear T : V → V, mostre que o conjunto dos
autovetores associados a um mesmo autovalor λ ∈ K, juntamente com o vetor nulo, Vλ := {v ∈
V; T v = λv}, é um subespaço vetorial de V.

8. Seja V um K-espaço vetorial. Dado um operador linear T : V → V, sejam λ, β ∈ K autovalores


distintos. Mostre que se {v1 , · · · , vr } e {w1 , · · · , wq } são, respectivamente, bases de Vλ e Vβ então
o conjunto {v1 , · · · , vr , w1 , · · · , wq } é linearmente independente.(Dica: mostre que Vλ ∩ Vβ =
{0})

9. Dado um corpo K. Mostre que o conjunto K[x], de todos os polinômios em uma variável e com
coeficientes em K é um K-espaço vetorial.

10. Dados K-espaços vetoriais V e W, mostre que o conjunto L(V, W), de todas as transformações
lineares de V em W é um espaço vetorial.

11. Mostre que dado um polinômio p(t) ∈ K[t] e uma transformação linear T : V → V de um
K-espaço vetorial as seguintes aplicações são transformaç oes lineares de V em V :

(a) T n : V → V onde T n significa a composição de T consigo mesmo n vezes, isto é, T n (v) :=


T (T n−1 (v)). Por abuso de notação T 0 é a identidade.
(b) αT n : V → V, com α ∈ K.
(c) αn T n + αn−1 T n−1 + · · · + α1 T + αI, onde I representa a identidade.
(d) Mostre que a aplicação Ψ : K[x] → L(V, V) definida por Ψ(αn xn + αn−1 xn−1 + · · · + α1 x +
α) = αn T n + αn−1 T n−1 + · · · + α1 T + αI. é uma transformação linear.

12. Qual o núcleo da transformação Ψ definida acima?

13. Encontre as raízes reais dos polinômios abaixo, usando as técnicas descritas em 0.2.5 :

(a) p(x) = x3 − 30x2 + 129x − 100


(b) p(x) = x4 − 15x2 − 10x + 24
16 − 2 x − 2 x +
245 49 27 2
(c) p(x) = 2x3 + x4
(d) p(x) = x3 − x2 − 8x + 12.
(e) p(x) = x4 + 2x3 − 11x2 − 12x+ 36
(f) p(x) = x4 − x3 + 3x2 − 3x + 2
(g) p(x) = x4 + 3x2 + 2.

14. Encontre, se houver, as raízes dos polinômios abaixo, considerando o corpo K indicado. (Lembre-
se que existe um número finito de possibilidades !!!)

(a) p(x) = x3 − 30x2 + 129x − 100 em K = Z2 .


(b) p(x) = x2 + x em K = Z2 .
(c) p(x) = x5 + 2x4 − x2 +x+2 em K = Z3 .
(d) p(x) = x3 − x2 − 3x + 2. em K = Z5 .
(e) p(x) = x4 + 2x3 − 11x2 − 12x+ 36 em K = Z7 .
(f) p(x) = x2 +1 em K = Z2 .
(g) p(x) = x10 + 3x2 + 2. em K = Z3 .

0.3.6 Decomposição Primária (Decomposição Espectral genérica)


Como já dissemos no ínicio do texto, Se dim(V) é finita, nosso objetivo é encontrar para cada
operador linear T : V → V uma base especial de V em relação a qual a representação matricial de T
seja a mais simples possível. Do ponto de vista computacional, a forma mais simples que uma matriz
pode ter é a forma diagonal ( aıȷ = 0 ı ̸= ȷ). Não é dificil perceber que um operador T admite uma
representação matricial por uma matriz diagonal se, e somente se, existe uma base do espaço, cujos
elementos são autovetores. Infelizmente nem todo operador admite uma tal representação .
Pergunta-se então como encontrar uma base que nos forneça uma representação mais simples
possível?
Para entendermos qual o efeito entre a base escolhida e a representação matricial, iniciaremos
estudando a decomposição em soma direta do espaço V.

Definição 0.3.17. Sejam W1 , . . . , Wr ⊂ V subespaços de V. Dizemos que V é soma direta de


W1 , . . . , Wr , e escrevemos V = W1 ⊕ · · · ⊕ Wr , se todo vetor v ∈ V se escreve de forma única
como:
v = w1 + · · · + wr com wı ∈ Wı

a primeira forma de decomposição (não necessariamente como soma direta) que podemos imaginar
de maneira a simplificar a representação matricial de um operador T : V → V é fornecida pela
proposição abaixo.

Proposição 0.3.18. Seja V um espaço vetorial, de dimensão finita, sobre um corpo K. Dado um
operador T : V → V cujo núcleo tem dimensão r ≥ 1, existe uma base {v1 , . . . , vr , w1 , . . . , wm } de V,
tal que a matriz de T tem r colunas iguais ao vetor zero.

Demonstração. Escolha uma base {v1 , . . . , vr } do Núcleo (T ) e complete para obter uma base de
V.
Corolário 0.3.19 (Projeção ). Se T : V → V satisfaz T ◦ T = T então:

V = Núcleo (T ) ⊕ Imagem (T )
Em particular existe uma base em relação a qual a matrix A = (aıȷ ) de T satisfaz : aıȷ = 0 ı ̸=
ȷ ou ȷ > r e aıı = 1 ı ≤ r onde r é a dimensão da imagem de T.
Demonstração. Ja sabemos que V = Núcleo (T ) + Imagem (T ). Com a hipotése T 2 = T, temos
que se v ∈ Núcleo (T ) ∩ Imagem (T ) então

v = T (w) ⇒ 0 = T (v) = T (T (w)) = T (w) ⇒ v = 0.

Isto é suficiente para garantir que cada vetor se escreve de forma única como soma de um vetor na
imagem com um vetor no núcleo.
Exemplo 0.3.20. Seja T : R3 → R3 , a aplicação dada por
T (x, y, z) = 12 (x − z, 2y, z − x), onde x, y, z são as coordenadas com respeito a base canônica.
O leitor não terá dificuldade em ver que {(1, 0, 1)} é uma base do núcleo de T, enquanto que
{(1, 0, −1), (0, 1, 0)} é uma base da imagem de T.
Como  
1 0 1
Det  0 1 0 = 2
−1 0 1
os vetores {(1, 0, −1), (0, 1, 0), (1, 0, 1)} são L.I, e formam, portanto, uma base de R3 .
Construindo a matriz de T em relação a esta base temos:

T (1, 0, −1) = (1, 0, −1) = 1 · (1, 0, −1) + 0 · (0, 1, 0) + 0 · (1, 0, 1)


T (0, 1, 0) = (0, 1, 0) = 0 · (1, 0, −1) + 1 · (0, 1, 0) + 0 · (1, 0, 1)
T (1, 0, 1) = (0, 0, 0) = 0 · (1, 0, −1) + 0 · (0, 1, 0) + 0 · (1, 0, 1)
Portanto a matriz de T em relação a esta base é :
 
1 0 0
 0 1 0 
0 0 0
A afirmação acima pode ser generalizada pelos seguintes teoremas:
Teorema 0.3.21. Se V = W1 ⊕ · · · ⊕ Wr então existem r operadores lineares E1 , . . . , Er de V tais
que:
(a) Cada Eı é uma projeção sobre Wı . (Eı2 = Eı .)

(b) Eı ◦ Eȷ = 0, sempre que ı ̸= ȷ.

(c) I = E1 + E2 + · · · + Er .

(d) A imagem de Eı é Wı .
Reciprocamente se existem r operadores lineares E1 , . . . , Er de V satisfazendo os itens (a),(b) e (c),
então V é soma direta das imagens destes operadores.
Demonstração.
Sabemos que cada v ∈ V se escreve de forma única como v = v1 + v2 + · · · + vr onde cada vı ∈ Wı .
Defina o operador linear Eı : V → V por Eı (v) = vı . Os itens (a),(b) e (c) são satisfeitos por estes
operadores.
Reciprocamente, suponha que E1 , . . . , Er sejam operadores lineares de V, satisfazendo os itens
(a),(b) e (c) e que Wı seja a imagem de Eı .
Pela condição (c) temos v = I(v) = (E1 + E2 + · · · + Er )(v) = E1 (v) + E2 (v) + · · · + Er (v). Logo
V = W1 + · · · + Wr vamos mostrar que esta expressão para v é única.
De fato, se v = E1 (v) + E2 (v) + · · · + Er (v) e v = ω1 + ω2 + · · · + ωr , com cada ωı ∈ Wı , então
existem vetores u1 , . . . , ur ∈ V tais que Eı (uı ) = ωı . Pelos itens (a), (b), temos:

r ∑
r
Eȷ (v) = Eȷ (E1 (v) + E2 (v) + · · · + Er (v)) = Eȷ (Eı (v)) = Eȷ (ωı ) = Eȷ2 (uȷ ) = ωȷ .
ı=1 ı=1
Exemplo 0.3.22. Considere o R-espaço vetorial dos polinômios de coeficientes reais e grau menor
ou igual a três, R3 [x] := {ax3 + bx2 + cx + d; a, b, c, d ∈ R}, e os seguintes operadores lineares
F1 , F2 , F3 : R3 [x] → R3 [x] dados por:

F1 (ax3 + bx2 + cx + d) = ax3 + cx


F2 (ax3 + bx2 + cx + d) = bx2
F3 (ax3 + bx2 + cx + d) = d

Temos F1 + F2 + F3 = I, além disto F12 = F1 , F22 = F2 , F32 = F3 , e Fı ◦ Fȷ = O sempre que


ı ̸= ȷ. Obviamente, as suas imagens são

W1 = {ax3 + cx; a, c ∈ R}
W2 = {bx2 ; b ∈ R}
W3 = {d; d ∈ R} = R

Conseqüentemente R3 [x] = W3 ⊕ W2 ⊕ W1 .
Observe que, se V tem dimensão n então, toda decomposição de V como soma direta de subespaços
vetoriais tem, no máximo, n somandos. Em particular toda base de V fornece uma decomposição, de
V, como soma direta de subespaços unidimensionais.(verifique!)
O teorema a seguir é uma das ferramentas mais importantes para o estudo de um operador linear
T. Este teorema diz que é possível “quebrar”o operador T em pedaços mais simples, de forma que
possamos estudar seu comportamento, estudando cada um dos pedaços. Pode-se usar o teorema
da decomposição primária para obter uma representação matricial em forma de blocos e, trabalhar,
posteriormente, cada bloco para simplificar ainda mais a representação matricial do operador.
Uma limitação deste teorema é o fato dele não fornecer uma resposta satisfatória para o problema
de encontrar uma representação matricial mais simples, caso o polinômio mínimo seja potência de um
polinômio irredutível. Para este caso recomenda-se o Teorema de decomposição cíclica.
Uma das conseqüencias mais importantes deste teorema, é a caracterização dos operadores dia-
gonalizáveis através do polinômio mínimo: “ Um operador tem uma representação matricial
diagonal se, e somente se, seu polinômio mínimo é um produto de polinômios de grau 1,
dois-a-dois relativamente primos.”
Teorema 0.3.23 (Teorema da Decomposição primária). Dado um K-espaço vetorial V de dimensão
finita, e um operador linear T : V → V. Seja mT (t) = [p1 (t)]n1 [p2 (t)]n2 · · · [pr (t)]nr a decomposição do
polinômio mínimo como produto de polinômios irredutíveis pı (t), com r ≥ 2, e MDC(pı (t), pȷ (t)) = 1
sempre que ı ̸= ȷ. Seja Wı o núcleo do operador [p(T )]nı , ı = 1, 2, . . . , r. Então:

1. V = W1 ⊕ W2 ⊕ · · · ⊕ Wr .

2. T ω ∈ Wı ∀ω ∈ Wı . Ou seja, T (Wı ) ⊆ Wı ∀ı ∈ {1, 2, . . . , r}.

3. Se Γ1 , Γ2 , . . . , Γr são, respectivamente, bases de W1 , W2 , . . . , Wr e Ω é a união ordenada das


bases, isto é, Ω = Γ1 ∪ Γ2 ∪ · · · ∪ Γr , então a matriz de T, com respeito a base Ω, é uma matriz
diagonal por blocos. Isto é :
 
A1 O · · · · · · O
 .. 
 O A2 O · · · . 
 
 .. . . .
. .
. 
T ]Ω =  . O . . .  (9)
 
 .. .. .. .. .. 
 . . . . . 
O · · · · · · · · · Ar

Onde cada Aı é uma submatriz de ordem igual a dimensão de Wı .

Demonstração.
De acordo com o Teorema 0.3.21, para demonstrar o ítem (1), basta encontrarmos r projeções
E1 , . . . , Er : V → V tais que
(a ) Eı (V) = Wı ∀ı ∈ {1, 2, . . . , r}. Isto é, o conjunto imagem de Eı é Wı .

(b ) E1 + · · · + Er = I.
(c ) Eı ◦ Eȷ = O ∀ı ̸= ȷ.

Considere, pois, os polinômios


mT (t)) ∏r
fı (t) = n
= [pȷ (t)]nȷ .
[pı (t)] ı
ȷ̸=ı

Como MDC([p1 (t)]n1 , [p 2 (t)]n2 , . . . , [p


r (t)]nr )
= 1 temos que
MDC(f1 (t), f2 (t), . . . , fr (t)) = 1. De acordo com o teorema de Bezout , veja 0.2.17, existem r polinô-
mios g1 (t), . . . , gr (t) ∈ K[t], tais que :

g1 (t)f1 (t) + · · · + gr (t)fr (t) = 1.

Conseqüentemente,
g1 (T ) ◦ f1 (T ) + · · · + gr (T ) ◦ fr (T ) = I.
Defina hı (t) = gı (t)fı (t) e considere os r operadores lineares Eı = gı (T ) ◦ fı (T ).
Vamos mostrar que:

• Eı ◦ Eȷ = O sempre que ı ̸= ȷ.

• Cada Eı é uma projeção. Isto é, Eı2 = Eı ∀ı.

• O conjunto imagem de cada Eı é Wı

De fato, como mT (t) divide fı (t)fȷ (t) sempre que ı ̸= ȷ, temos

Eı ◦ Eȷ = hı (T ) ◦ hȷ (T ) = gı (T ) ◦ fı (T ) ◦ gȷ (T ) ◦ fȷ (T ) = gı (T ) ◦ gȷ (T ) ◦ fı (T ) ◦ fȷ (T ) = O ∀ı ̸= ȷ.

Pela construção dos operadores E1 , E2 , . . . , Er temos E1 + E2 + · · · + Er = I. Portanto

Eı = Eı ◦ I = Eı ◦ (E1 + E2 + · · · + Er ) = Eı ◦ E1 + · · · + Eı ◦ Er = O + · · · + Eı Eı + O + · · · + O = Eı2 .

Além disto, como mT (t) divide [pı (t)]nı hı (t), temos que [pı (T )]nı ◦ Eı = O. Conseqüentemente a
imagem de Eı está contida no núcleo de [pı (T )]nı . Reciprocamente, se ı ̸= ȷ então fȷ (t) é divisível por
[pı (t)]nı . Isto é, fȷ (t) = sȷ (t)[pı (t)]nı para algum sȷ (t) ∈ K[t]. Portanto se v ∈ V é um vetor do núcleo
de [pı (t)]nı , então Eȷ v = 0. Em outras palavras,

v = Iv = (E1 + E2 + · · · + Er )v = E1 v + E2 v + · · · + Er v = Eı v.

Concluimos que V = W1 ⊕ W2 ⊕ · · · ⊕ Wr .
Para mostrar o ítem (b) basta observar que: T ◦ Eı = Eı ◦ T. Portanto para ω ∈ Wı temos ω = Eı v
para algum v ∈ V. Logo:

T ω = T (Iω) = T (E1 ω + E2 ω + · · · + Er ω) = T (E1 ω) + · · · + T (Er ω)


= T (E1 (Eı v)) + · · · + T (Er (Eı v))
= T (Eı (Eı v))
= T (Eı2 (v))
= T (Eı v) = Eı (T v) ∈ Wı .

Finalmente, para todo v ∈ V existem ω1 , . . . , ωr ∈ V com ω ∈ Wı tais que v = ω1 + · · · + ωr .


Conseqüentemente,
T v = T ω1 + · · · + T ωr com T ωı ∈ Wı .
Em particular, se
Ω = {ω11 , ω12 , . . . , ω1s1 , ω21 , . . . ω2s2 , . . . , ωr1 , . . . , ωrsr }
onde {ωı1 , . . . ωısı } é uma base de Wı , então

T ωıȷ = αı1 ωı1 + αı2 ωı2 + · · · αısı ωısı .

Ou seja as coordenadas de T ωıȷ com respeito à base Ω são (0, 0, . . . , 0, αı1 , αı2 , . . . , αısı , 0, . . . , 0). Logo
a matriz T ]Ω é uma matriz diagonal por blocos. .
Observação 0.3.24. O fato do conjunto Ω, construido na demonstração acima, ser uma base é uma
conseqüencia que segue imediatamente da definição de soma direta. Mas especificamente falando, se
V = V1 ⊕ · · · ⊕ Vm então a união das bases de V1 , . . . , Vm forma uma base de V.

Definição 0.3.25. Seja V um espaço de dimensão finita. Dado um operador linear T : V → V, seja
Ω uma base de V fornecida pela aplicação do ítem (3) do teorema 0.3.23. A matriz T ]Ω é dita ser
uma decomposição primária de T.

Definição 0.3.26. Seja V um espaço de dimensão finita. Dado um operador linear T : V → V,


seja mT (t) = [p1 (t)]n1 [p2 (t)]n2 · · · [pr (t)]nr , como no teorema 0.3.23 e seja Wı o núcleo do operador
[p(T )]nı , ı = 1, 2, . . . , r. Considere as projeções H1 , . . . , Hr de V, dadas por

Hı ω = ωı ,

em que ω = ω1 + ω2 + · · · + ωr é a expressão do vetor ω como soma de vetores pertecentes a Wı . A


expressão
T = T ◦ H1 + · · · + T ◦ Hr
é dita ser uma decomposição espectral de T.

Exemplo 0.3.27. Considere o operador T : R6 → R6 cuja representação matricial com respeito a


base canônica é:  
2 1 1 1 0 0
 1 2 1 1 0 0 
 
 0 0 3 0 1 1 
A=  0


 0 1 1 0 0 
 0 0 0 0 0 1 
0 0 0 0 −1 0
Temos que :

℘c (t) = (t − 3)2 (t − 1)2 (t2 + 1)


mT (t) = (t − 3)2 (t − 1)(t2 + 1)

1. O núcleo de  
2 −2 1 −2 1 1
 −2 2 1 −2 1 1 
 
 0 0 0 0 −4 −2 
(A − 3I) = 
2



 0 0 −2 4 1 1 
 0 0 0 0 8 −6 
0 0 0 0 6 8
tem como base Γ1 = {(0, 0, 2, 1, 0, 0), (1, 1, 0, 0, 0, 0)}.

2. O núcleo de  
1 1 1 1 0 0
 1 1 1 1 0 0 
 
 0 0 2 0 1 1 
(A − I) = 



 0 0 1 0 0 0 
 0 0 0 0 −1 1 
0 0 0 0 −1 −1
tem como base Γ2 = {(−1, 0, 0, 1, 0, 0), (−1, 1, 0, 0, 0, 0)}.

3. O núcleo de  
6 4 7 4 1 1
 4 6 7 4 1 1 
 
 0 0 10 0 2 4 
(A + I) = 
2



 0 0 4 2 1 1 
 0 0 0 0 0 0 
0 0 0 0 0 0
tem como base Γ3 = {(3, 3, −20, 15, 0, 50), (4, 4, −10, −5, 50, 0)}.
Conseqüentemente, em relação à base
Ω = {(0, 0, 2, 1, 0, 0), (1, 1, 0, 0, 0, 0), (−1, 0, 0, 1, 0, 0), (−1, 1, 0, 0, 0, 0), (3, 3, −20, 15, 0, 50), (4, 4, −10, −5, 50, 0)}

o operador T tem representação matricial dada por


 
3 0 0 0 0 0
 3 3 0 0 0 0 
 
 0 0 1 0 0 0 
T]Ω = 
 0 0 0


 1 0 0 
 0 0 0 0 0 −1 
0 0 0 0 1 0
Neste exemplo, a matrix acima é uma decomposição primária de T. Se (y1 , y2 , y3 , y4 ) são coordenadas
na base Ω acima, a expressão :
        
3 0 0 0 0 0 y1 0 0 0 0 0 0 y1 0 0 0 0 0 0 y1
 3 3 0 0 0 0  y2   0 0 0 0 0 0  y2   0 0 0 0 0 0  y2 
        
 0 0 0 0 0 0  y3   0 0 1 0 0 0  y3   0 0 0 0 0 0  y3 
T (y1 , y2 , y3 , yn 4, y5 , y6 ) =   +  +  
 0 0 0 0 0 0  y4   0 0 0 1 0 0  y4   0 0 0 0 0 0  y4 
 0 0 0 0 0 0  y5   0 0 0 0 0 0  y5   0 0 0 0 0 −1  y5 
0 0 0 0 0 0 y6 0 0 0 0 0 0 y6 0 0 0 0 1 0 y6

é uma decomposição espectral de T.


Observação 0.3.28. Observe que a expressão de decomposição espectral pode ser escrita na base
canônica, por meio da matrix de mudança da base Ω para base canônica e de sua inversa:
   1 
0 1 −1 −1 3 4 0 0 1
2 0 1
10 5
 0 1 4   1 1 −1 31 
2 − 25 − 100 
1 2
 0 1 3   2 2 4
 2 0 0 0 −20 −10   0 0 − 1
1 0 − 21 
M =  1 0

 M −1
=  1 1
 −
2 
1 
 1 0 15 −5   2 2
1
4 − 1
2 0 4 
 0 0 0 0 0 50   0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 50 0
Neste caso

T (x1 , x2 , x3 , x4 , x5 , x6 ) = T1 (x1 , x2 , x3 , x4 , x5 , x6 ) + T2 (x1 , x2 , x3 , x4 , x5 , x6 ) + T3 (x1 , x2 , x3 , x4 , x5 , x6 )


Onde T1 , T2 , T3 são os operadores cujas matrizes na base canônica são respectivamente:
   
0 1 −1 −1 3 4 3 0 0 0 0 0 0 0 1
2 0 1
10
1
5
 0 1 0 1 3 4   3 3 0 0 0 0  1 1
−4 1 1
− 25
2
− 100
31 
   2 2 2 
 2 0 0 0 −20 −10    0 − 12 − 21 
A1 =   0 0 0 0 0 0  1 0 1 0 
 1 0 1 0 15 −5    − 1 1
− 21 1 
  0 0 0 0 0 0  2 2 4 0 4 
 0 0 0 0 0 50   0 0 0 0 0 0  0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 0 0 0 0 0 0 50 0
   
0 1 −1 −1 3 4 0 0 0 0 0 0 0 0 1
2 0 1
10
1
5
 0 1 0 1 3 4   0 0 0 0 0 0   1 1
−4 1 1
− 25
2
− 100
31 
   2 2 2 
 2 0 0 0 −20 −10   0   − 12 − 21 
A2 =   0 0 1 0 0   10 0 1 0 
 −5   0   
  −2 − 21
1 1 1
 1 0 1 0 15  0 0 0 1 0 2 4 0 4 
 0 0 0 0 0 50   0 0 0 0 0 0  0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 0 0 0 0 0 0 50 0
   
0 1 −1 −1 3 4 0 0 0 0 0 0 0 0 1
2 0 1
10
1
5
 0 1 0 1 3 4   0 0 0 0 0 0   1 1
− 41 1
− 25
2
− 100
31 
   2 2 2 
 2 0 0 0 −20 −10   0   − 12 − 12 
A3 =   0 0 0 0 0   10 0 1 0 
 −5   0   
  −2 − 12
1 1 1
 1 0 1 0 15  0 0 0 0 0 2 4 0 4 
 0 0 0 0 0 50   0 0 0 0 0 −1   0 0 0 0 0 1 
50
1
0 0 0 0 50 0 0 0 0 0 1 0 0 0 0 0 50 0

Operador diagonalizável
Definição 0.3.29. Um operador linear T : V → V é dito ser diagonalizável se existe uma base de V
em relação a qual a representação matricial de T é dada por uma matriz diagonal. Isto é, uma matriz
cujas entradas aıȷ = 0 sempre que ı ̸= ȷ.
Proposição 0.3.30. Seja V um K-espaço vetorial de dimensão finita. Um operador T : V → V é
diagonalizável se, e somente se, o seu polinômio mínimo tem a forma

mT (t) = (t − λ1 )(t − λ2 ) · · · (t − λr ) com λı ̸= λȷ ∀ı ̸= ȷ.


Demonstração. Se T é diagonalizável, então existe uma base de V formada por autovetores de T.
Neste caso se λ1 , . . . , λr ∈ K são os autovalores de T, então todo vetor v ∈ V pode ser escrito como

v = ω1 + · · · + ωr com ωı autovetor tal que T ωı = λı ωı .


f (t)
Desta forma considerando o polinômio f (t) = (t − λ1 ) · · · (t − λr ) ∈ K[t] e definindo fı (t) = t−λı .
Temos f (T ) = fı (T ) ◦ (T − λı ) ∀ı. Portanto,

r ∑
f (T )v = f (T )(ω1 + · · · + ωr ) = f (T )ωı = fı (T ) ◦ (T − λı I)ωı = 0
ı

Segue-se que f (t) é um polinômio mônico que se anula em T, e portanto é divisível pelo polinômio
mínimo. Por outro lado, como nenhum dos fı (t) se anula em T, nenhum divisor de f (t) se anula em
T. Portanto, f (t) é o polinômio mínimo de T.
Reciprocamente, Se polinômio mínimo de T tem a forma mT (t) = (t − λ1 ) · · · (t − λr ), o teorema
da decomposição primária de T nos fornece uma base de V formada por autovetores de T. Consequen-
temente, em relação a esta base, a representação matricial de T é dada por uma matriz diagonal.

0.3.7 Exercícios
Encontre uma decomposição primária para os operadores abaixo:

1. T : Q3 → Q3 dado por T (x, y, z) = (x, y − z, z − y).

2. Seja V = {an xn + · · · + a1 x + a0 ∈ R[x], tal que n ≤ 3.}

(a) T : V → V dado por T (a3 x3 + a2 x2 + a1 x + a0 ) = 3a3 x2 + 2a2 x + a1 .


(b) T : V → V dado por T (f ) = f (1 − x). (Mudança de parâmetros)
(c) T : V → V dado por T (a3 x3 + a2 x2 + a1 x + a0 ) = 13 a2 x3 + 21 a1 x2 + a0 x.

3. T : Q4 → Q4 dado por T (x, y, z, w) = (2x−3y+z+w, x+4y+z+w, x+y+2z−3w, x+y+z−3w).

4. T : R4 → R4 dado por T (x, y, z, w) = (2x−3y+z+w, x+4y+z+w, x+y+2z−3w, x+y+z−3w).

5. T : C4 → C4 dado por T (x, y, z, w) = (2x−3y+z+w, x+4y+z+w, x+y+2z−3w, x+y+z−3w).


√ √
6. T : C2 → C2 dado por T (x, y) = ((1 + −1)x + y, x − y −1).

7. T : Z37 → Z37 dado por T (x, y, z, w) = (x, x + 3y + 5z, 2z).

8. T : R3 → R3 dado por T (x, y, z) = (x cos π3 − y sin π3 , x sin π3 + y cos π3 , z).

9. T : Q4 → Q4 dado por T (x, y, z) = (x + 3y + 3z, 3x + y + 3z, −3x − 3y − 5z).

10. T : Q4 → Q4 dado por T (x, y, z) = (x + 4y + 3z, 3x + y + 3z, −3x − 3y − 5z).

11. T : R2 → R2 dado por T (x, y) = (y, −x).

12. T : C2 → C2 dado por T (x, y) = (y, −x).

13. T : Q3 → Q3 dado por T (x, y, z) = 2x, x + 3y − 2z, 2z).

14. T : Q3 → Q3 dado por T (x, y, z) = (x − y, x + 3y, 0).

0.4 Espaços com Produto Interno


Nesta segunda parte do curso , estaremos considerando apenas espaços vetoriais sobre R ou C.
Desta forma, em todo o texto a partir deste parágrafo, o corpo k representa tanto R quanto C, exceto
quando mencionado em contrário. Ou seja, k ∈ {R, C}. Dado x ∈ k representaremos por x o complexo
conjugado de x, isto é se x = a + bi então x = a − bi. Uma outra notação
√ a ser utilizada é a de módulo
de um elemento λ ∈ k, escrito |λ|. Escrevendo λ = a + bi temos |λ| = a2 + b2 , em particular se λ ∈ R
então |λ| é simplesmente o valor absoluto de λ.
Definição 0.4.1. Seja V um k-espaço vetorial. Uma aplicação F : V × V → k é dita ser um produto
interno se satisfizer as seguintes propriedades:
1. F(ϑ + λu, ω) = F(ϑ, ω) + λ · F(u, ω) ∀ϑ, ω, u ∈ V e ∀λ ∈ k.

2. F(ϑ, ω) = F(ω, ϑ) ∀ϑ, ω ∈ V

3. F(ϑ, ϑ) ≥ 0 ∀ϑ ∈ V


4. F(ϑ, ϑ) = 0 ⇐⇒ ϑ = 0 .

0.4.1 Exercícios
1. Seja V um k espaço vetorial. Para cada caso abaixo determinar se ⟨_, _⟩ : V × V → k é ou não
produto interno.

(a) V = R2 ; k = R; ⟨(x, y), (a, b)⟩ = 6xa − 2yb;


(b) V = R3 ; k = R; ⟨(x, y, z), (a, b, c)⟩ = ax − yb + zc;
(c) V = R3 ; k = R; ⟨(x, y, z), (a, b, c)⟩ = 6xa − 2yc − 2xb + 8yb + zc;
(d) V = C2 ; k = C; ⟨(x, y), (a, b)⟩ = xa + (4i)yb;
(e) V = C2 ; k = C; ⟨(x, y), (a, b)⟩ = xa + 4yb;
(f) V = C2 ; k = R;
√ √ √ √
⟨(x1 + y1 −1, x2 + y2 −1), (a1 + b1 −1, a2 + b2 −1)⟩ = x1 a1 + y1 b1 + x2 a2 + y2 b2 ;

(g) V = C2 ; k = C; ⟨(x, y), (a, b)⟩ = 3xa + (4 + 4i)xb + (4 − 4i)ya + 11yb


( ) ( )
x y a b
(h) V = M2 (R) k = R, ⟨ , ⟩ = xa + yb + 4zc + ud − za − xc;
z u c d
(i) V = {ax2 + bx + c; a, b, c ∈ R} k = R; ⟨p(x), q(x)⟩ = p(0) · q(0) + p′ (0) · q ′ (0).

2. Sejam V um k espaço vetorial e T : V → V um isomorfismo, e ⟨_, _⟩ : V × V → k um produto


interno. Mostre que

(a) A aplicação PT : V × V → k dada por PT (ϑ, ω) = ⟨T ϑ, T ω⟩ é um produto interno.


(b) A aplicação P : V × V → k dada por P (ϑ, ω) = ⟨ϑ, ω⟩ é um produto interno.

3. Determine , se possível, os valores de λ ∈ R para os quais os vetores ϑ = (1, λ + 1, λ) e ω =


(λ − 1, λ, λ + 1) sejam ortogonais em R3 com respeito ao produto interno canônico.

0.4.2 Norma e distância


Definição 0.4.2. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Dado ω ∈ V a
norma ou comprimento do vetor ω, escrito ||ω||, é a raiz quadrada positiva do número real ⟨ω, ω⟩. Isto
é √
||ω|| = ⟨ω, ω⟩

Proposição 0.4.3. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Então:

1. ||ω|| ≥ 0 ∀ω ∈ V.

2. ||λω|| = |λ|||ω|| ∀ω ∈ V, ∀λ ∈ k,

3. |⟨ω, υ⟩| ≤ ||ω||||υ|| ∀ω, υ ∈ V. (Desigualdade de Cauchy-Schwarz)

4. ||ω + υ|| ≤ ||ω|| + ||υ|| ∀ω, υ ∈ V. (Desigualdade triangular)

5. ||ω + υ||2 + ||ω − υ||2 = 2(||ω||2 + υ||2 ) ∀ω, υ ∈ V. (Lei do paralelogramo)

Demonstração. Em sala de aula.

Proposição 0.4.4 (Fórmulas de polarização). Seja V um k-espaço vetorial com produto interno
⟨, ⟩ : V × V → k. Então:

1. ⟨ω, υ⟩ = 14 (||ω + υ||2 − ||ω − υ||2 ) se k = R.


2. ⟨ω, υ⟩ = 14 (||ω + υ||2 − ||ω − υ||2 ) + 41 i(||ω + iυ||2 − ||ω − iυ||2 ) se k = C.

Definição 0.4.5. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Dados vetores
ω, υ ∈ V a distância entre ω e υ, escrito d(ω, υ), é o número dado por

d(ω, υ) = ||ω − υ||

a aplicação d : V × V → R dada por d(ω, υ) = ||ω − υ|| é dita ser a função distância associada a
norma.

As propriedades da função distância decorrem imediatamente das propriedades da norma.

Proposição 0.4.6. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Então:

1. d(ω, υ) ≥ 0 ∀ω, υ ∈ V.

2. d(ω, υ) = 0 se, e somente se, ω = υ.

3. d(ω, υ) = d(υ, ω), ∀ω, υ ∈ V.

4. d(ω, υ) ≤ d(ω, u) + d(u, υ) ∀ω, υ, u ∈ V. (Desigualdade triangular)

Demonstração. Em sala de aula.

Teorema 0.4.7. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V×V → k. Dado um operador
linear T : V → V tem-se:

1. Se ⟨T ω, υ⟩ = 0 ∀ω, υ ∈ V então T = [0].

2. Se k = C e ⟨T ω, ω⟩ = 0 ∀ω ∈ V então T = [0].

Demonstração. Em sala de aula.

Observação 0.4.8. O item (2) do Teorema 0.4.7 não vale se k = R. De fato, considere R2 com
produto interno canônico e T : R2 → R2 dado por T (x, y) = (−y, x). T é uma rotação de ângulo igual
a π2 . Logo ⟨T ω, ω⟩ = 0 ∀ω ∈ R2 e T ̸= [0].

Definição 0.4.9. Sejam V, W k-espaços vetoriais com produto interno. ⟨, ⟩1 : V × V → k, e ⟨, ⟩2 :


W × W → k. Uma transformação linear T : V → W é dito ser uma isometria, ou transformação
isométrica, se satisfizer:
⟨T υ, T ω⟩2 = ⟨υ, ω⟩1 ∀υ, ω ∈ V.

Teorema 0.4.10. Sejam V, W k-espaços vetoriais com produto interno. ⟨, ⟩1 : V × V → k, e ⟨, ⟩2 :


W × W → k. Sejam || ||1 , || ||2 as normas induzidas pelos produtos internos. Uma transformação
linear T : V → W é uma isometria se, e somente se,

||T υ||2 = ||υ||1 ∀υ ∈ V.

Observação 0.4.11 (Cinco minutos de Loucura). Um conjunto não vazio munido de uma aplicação
que satisfaz as mesmas propriedades que a função distância , é dito ser um espaço métrico. Por-
tanto todo espaço vetorial com produto interno é um espaço métrico. A noção de métrica
em um conjunto traz consigo propriedades e definições que nos permitem falar em conjuntos abertos,
conjuntos fechados, continuidade e convergência. Por exemplo, uma sequência de vetores, {υn } em
um espaço com produto interno é dita convergir para ω se lim d(υn , ω) = 0, ou equivalentemente se,
n→∞
lim ||υn − ω|| = 0. Outros conceitos importantes na teoria de espaços métricos são: Fecho e comple-
n→∞
tude.Em espaços vetoriais de dimensão finita, com produto interno, todos os subespaços
são fechados e todos os operadores lineares são contínuos. Em espaço com dimensão infinita
isto não é verdadeiro.
0.4.3 Processo de ortogonalização de Gram- Schmidt
Definição 0.4.12. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Diz-se que dois
vetoresω ⊥ υV são ortogonais, e escrevemos ω ⊥ υ, se

⟨ω, υ⟩ = 0.

Definição 0.4.13. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Um subconjunto


S ⊂ V é dito ser ortogonal se é unitário ou se

ω⊥υ ∀ω, υ ∈ S com ω ̸= υ.

Proposição 0.4.14. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Todo


subconjunto ortogonal, S ⊂ V, formado por vetores não nulos, é Linearmente independente.

Demonstração. Em sala de aula.

Definição 0.4.15 (Complemento Ortogonal). Seja V um k-espaço vetorial com produto interno ⟨, ⟩ :
V × V → k. Dado um subconjunto S ⊂ V, não vazio,o conjunto

S ⊥ := {υ ∈ V; υ ⊥ ω ∀ω ∈ S}

é um k-subespaço vetorial, ao qual denominamos se Complemento ortogonal ao subespaço gerado por


S.

Exercícios
Considere os seguintes espaços vetoriais com seus respectivos produto interno.
Escalar Espaço P. Interno

R V1 := R4 produto interno canônico


R V2 := C ⟨a + bi, x + yi⟩ = ax + by
∫1
R V3 := R[x] ⟨f (x), g(x)⟩ = 0 f (x)g(x)dx

n ∑
m ∑
max{n,m}
R V4 := R[x] ⟨ r
ar x , br x ⟩ =
r
aı bı
r=0 r=0 ı=0
R V5 := R4 ⟨(a, b, c, d), (x, y, z, t)⟩ = 2ax + 3by + 4cz + dt
R V6 := M2 (R) ⟨A, B⟩ = tr(AB t )
( ) ( )
a b x y
R V7 := M2 (R) ⟨ , ⟩ = ax + 2by + cz + dt + bx + ay
c d z t
C V8 := C2 produto interno canônico
C V9 := C2 ⟨(x, y), (a, b)⟩ = 3xa + (4 + 4i)xb + (4 − 4i)ya + 11yb

n ∑
m ∑
max{n,m}
C V10 := C[x] ⟨ r
ar x , br x ⟩ =
r
aı bı
r=0 r=0 ı=0
C V11 := C4 ⟨(a, b, c, d), (x, y, z, t)⟩ = 2ax + 3by + 4cz + 5dt
t
C V12 := M2 (C) ⟨A, B⟩ = tr(AB )
( ) ( )
a b x y
C V13 := M2 (C) ⟨ , ⟩ = ax + 2by + cz + dt + bx + ay
c d z t

1. Para cada par ω, υ ∈ Vı ı ∈ {1, . . . , 14}. Calcule ||ω||, ||υ||, e ⟨ω, υ⟩.

(a) ω, υ ∈ V1 dados por ω = (1, −1, 2, 3) υ = (3, 1, 0, 1).


(b) ω, υ ∈ V2 dados por ω = 4 − 3i υ = 4 + 3i.
(c) ω, υ ∈ V3 dados por ω = x3 − 2x2 +1 υ = x + 2.
(d) ω, υ ∈ V4 dados por ω = x3 − 2x2 +1 υ = x + 2.
(e) ω, υ ∈ V5 dados por ω = (1, −1, 2, 3) υ = (3, 1, 0, 1).
( ) ( )
1 −1 3 1
(f) ω, υ ∈ V6 dados por ω = υ= .
2 3 0 1
( ) ( )
1 −1 3 1
(g) ω, υ ∈ V7 dados por ω = υ= .
2 3 0 1
(h) ω, υ ∈ V8 dados por ω = (1 + i, 4 + 3i) υ = (1 + i, 4 − 3i).
(i) ω, υ ∈ V9 dados por ω = (1 + i, 4 + 3i) υ = (1 + i, 4 − 3i).
(j) ω, υ ∈ V10 dados por ω = x3 + (1 + i)x2 + i υ = (1 + i)x + (4 − 3i).
(k) ω, υ ∈ V11 dados por ω = (1 + i, 4 + 3i, 1, 0) υ = (1 + i, 4 − 3i, 0, i).
( ) ( )
1+i 1−i 3 1−i
(l) ω, υ ∈ V12 dados por ω = υ= .
2 3i 0 i
( ) ( )
1+i 1−i 3 1−i
(m) ω, υ ∈ V13 dados por ω = υ= .
2 3i 0 i

2. Para cada item do exercício 1, calcule o subespaço ortogonal ao conjunto {ω, υ}, com respeito
ao produto interno correspondente.

3. Encontre uma base ortogonal, com respeito ao produto interno correspondente, para cada espaço
Vı definido na tabela 0.4.3.

4. Para cada item do exercício 1, calcule a projeção ortogonal de ω sobre υ, com respeito ao produto
interno correspondente.

Definição 0.4.16. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Um conjunto


ortogonal, máximo, é dito ser uma Base de Hilbert. Uma conjunto máximo de vetores linearmente
independentes é dito ser uma Base de Hamel.
Observação 0.4.17. Em espaços de dimensão infinita com produto interno, uma base de Hilbert não
é necessariamente uma base do espaço. Isto é, Toda base de Hilbert de V é subconjunto de uma base
de Hamel, mas pode não gerar o espaço V. Por outro lado em espaços de dimensão finita com produto
interno,toda base de Hilbert é uma base do espaço. Este resultado segue diretamente do processo de
ortogonalizaç ao de Gram-Schmidt apresentado a seguir.
Teorema 0.4.18 (Processo de ortogonalização de Gram-schmidt). Seja V um k-espaço vetorial com
produto interno ⟨, ⟩ : V × V → k. Dado um subconjunto S = {υ1 , . . . , υn } ⊂ V, de vetores linearmente
independentes, defina:

ω1 := υ1
⟨υ2 , ω1 ⟩
ω2 := υ2 − ω1
||ω1 ||2
⟨υ3 , ω2 ⟩ ⟨υ3 , ω1 ⟩
ω3 := υ3 − [ ω2 + ω1 ]
||ω2 ||2 ||ω1 ||2
.. ..
. := .
⟨υı , ωı−1 ⟩ ⟨υı , ω1 ⟩
ωı := υı − [ ωı−1 + · · · + ω1 ]
||ωı−1 || 2 ||ω1 ||2
.. ..
. := .
⟨υn , ωn−1 ⟩ ⟨υn , ω1 ⟩
ωn := υn − [ ωn−1 + · · · + ω1 ]
||ωn−1 || 2 ||ω1 ||2
Com estas definições temos:

1. O conjunto {ω1 , . . . , ωn } é um conjunto ortogonal linearmente independente.

2. O conjunto {ω1 , . . . , ωn } é uma base ortogonal para o subespaço gerado por S.

Demonstração. Em sala de aula.


Corolário 0.4.19. Seja V um k-espaço vetorial, de dimensão finita, com produto interno. Todo
subespaço não nulo tem uma base que é um conjunto ortogonal.
Demonstração. . Em sala de aula.

Teorema 0.4.20 (Processo de ortogonalização de Gram-schmidt generalizado). Seja V um k-espaço


vetorial com produto interno ⟨, ⟩ : V × V → k. Dado um subconjunto S = {υ1 , . . . , υn } ⊂ V, defina:

ω1 := υ1
ω2 := υ2 − λ21 ω1
ω3 := υ3 − λ32 ω2 + λ31 ω1 ]
.. .
. := ..
ωı := υı − [λıı−1 ωı−1 + · · · + λı1 ω1 ]
.. .
. := ..
ωn := υn − [λnı−1 ωn−1 + · · · + λn1 ω1 ]

em que 1 ≤ ȷ < ı ≤ n e { →
0 se ωȷ = 0
λıȷ := ⟨υı ,ωȷ ⟩ →
||ωȷ ||2
se ωȷ ̸= 0
Nestas condições temos:

1. O conjunto {ω1 , . . . , ωn } é um conjunto ortogonal que gera o mesmo subespaço gerado por S.

2. Eliminando-se os vetores nulos do conjunto {ω1 , . . . , ωn } obtém-se uma base ortogonal para o
subespaço gerado por S.

Demonstração. Em sala de aula.

Observação 0.4.21. O processo de ortogonalização generalizado, funciona como um teste de depen-


dência linear. Basta observar que a quantidade de vetores não nulos obtidos após a aplica ção do
processo a um subconjunto S é sempre menor ou igual a cardinalidade de S, e que a igualdade ocorre
se, e somente se, S é linearmente independente. Além disto, o vetor ωı obtido na ı -ésima etapa é
nulo se, e somente se, o vetor υı é combinação linear dos vetores {υ1 , . . . , υı−1 }.

Exemplo 0.4.22.

0.4.4 Projeção ortogonal


Teorema 0.4.23 (Identidades de Parseval). Seja V um k-espaço vetorial, de dimensão finita, com
produto interno ⟨, ⟩ : V × V → k. Se Γ = {υ1 , . . . , υn } é uma base ortonormal de V, então:

1. υ = ⟨υ, υ1 ⟩υ1 + · · · + ⟨υ, υn ⟩υn ∀υ ∈ V.

2. ⟨υ, ω⟩ = ⟨υ, υ1 ⟩⟨ω, υ1 ⟩ + · · · + ⟨υ, υn ⟩⟨ω, υn ⟩ ∀υ, ω ∈ V.

Demonstração. Em sala de aula.(Colocamos aqui a segunda como exercício.)


A primeira identidade acima é um caso particular do seguinte teorema:

Teorema 0.4.24 (Expansao de Fourier). Seja V um k-espaço vetorial, de dimensão finita, com produto
interno ⟨, ⟩ : V × V → k. Se Γ = {υ1 , . . . , υn } é uma base ortogonall de V, então:

⟨υ, υ1 ⟩ ⟨υ, υn ⟩
υ= υ1 + · · · + υn ∀υ ∈ V.
||υ1 ||2 ||υn ||2
Demonstração. . Em sala de aula.

Definição 0.4.25. Seja V um k-espaço vetorial, de dimensão finita, com produto interno ⟨, ⟩ : V×V →
k. Se Γ = {υ1 , . . . , υn } é uma base ortogonal de V, a expressão:

⟨υ, υ1 ⟩ ⟨υ, υn ⟩
υ= υ1 + · · · + υn
||υ1 ||2 ||υn ||2
⟨υ,υı ⟩
é dita ser a expansão de Fourier de υ com respeito a base ortogonal Γ. Cada escalar ||υı ||2
é dito ser
o coeficiente de Fourier de υ na direção υı .
Teorema 0.4.26. Seja V um k-espaço vetorial, de dimensão finita, com produto interno ⟨, ⟩ : V×V →
k. Dado um subespaço não trivial, W ⊂ V, tem-se:

V=W W⊥ .

Demonstração. Em sala de aula.

Observação 0.4.27. O teorema 0.4.26 não vale em espaços de dimensão infinita. Para espaços de
dimensão infinita, V deve ser completo( Espaço de Banach).

Exemplo 0.4.28.

Definição 0.4.29 (Projeção ortogonal). Seja V um k-espaço vetorial, de dimensão finita, com produto
interno ⟨, ⟩ : V × V → k. dado um subespaço W ⊂ V, a aplicação ProjW : V → V que a cada vetor
υ associa o único vetor υo ∈ W tal que υ − υo ∈ W⊥ é um operador linear ao qual denominamos de
projeção ortogonal sobre W.

Proposição 0.4.30 (Propriedades da Projeção ortogonal).

Expressão algébrica do operador projeção ortogonal


0.4.5 Representação Matricial do Produto Interno
Representação matricial de produto interno em k-espaços vetoriais de dimensão finita.

Proposição 0.4.31. Seja V um k-espaço vetorial de dimensão finita com produto interno ⟨, ⟩ : V×V →
k. Seja Γ = {ω1 , . . . , ωn } uma base de V. Se υ = (x1 , . . . , xn ) e ω = (y1 , . . . , yn ) são as coordenadas
dos vetores υ e ω na base Γ Então:
  
α11 · · · α1n y1
( ) ..   .. 
⟨υ, ω⟩ = x1 . . . xn  ... ..
. .  . 
αn1 · · · αnn yn
em que αıȷ = ⟨ωı , ωȷ ⟩. Em particular, se Γ for uma base ortonormal então


n
⟨υ, ω⟩ = x ı yı .
ı=1

Demonstração. Em sala de aula.

0.4.6 Exercícios
1. Determine, para cada espaço vetorial correspondente, quais das expressões define um produto
interno.

(a) ⟨(x, y), (a, b)⟩ = 6ax − 2yb V = R2 .


(b) ⟨(x, y, z), (a, b, c)⟩ = 2ax + 4by + 6cz − 2xb − 2xc − 2ay − 2az V = R3
(c) ⟨(x, y), (a, b)⟩ = 4ax − bx − ay + by V = R2 .
(d) ⟨(x, y), (a, b)⟩ = x · a + (1 + i)x · b + (1 − i)y · a + 3y · b V = C2 .
Referências Bibliográficas

[1] Anton,Howard.,& Rorres,Chris.,Álgebra Linear com aplicações,Ed. Bookman,2001

[2] Lima,E. Lages.,Álgebra linear, Coleção Matemática Universitária, IMPA,1998

[3] Hoffman, K. & Kunze,R.,Linear Algebra, Prentice Hall mathematics series,1967

[4] Lax,Peter D.,Linear Algebra, Pure and applied Mathematics: A Willey-Interscience Series of
texts, monographs and tracts. Wiley interscience publication,NY, 1996

[5] Noble, B. ,& Daniel, J. W.,Applied Linear Algebra, Prentice Hall, 1998.

[6] Roman, S.,Advanced linear Algebra, Graduate texts in Mathematics, Springer,2002

[7] Santos, J. Plínio de O.,Introdução à Teoria dos Números, Coleção Matemática Universitária,
IMPA- CNPq, 1998

[8] Cláudio,D. Moraes & Marins, Jusara M.,Cálculo numérico computacional,Terceira edição, Ed
Atlas, 1988

Anda mungkin juga menyukai