Instituto de Matemática
Departamento de Matemática
1
Esta apóstila ainda está em construção. Ao longo do curso muitos conceitos e exercícios serão incorporados
ao texto. Sugestões e correções serão bem vindas.
2
Recomendamos o uso do software GAP para conferir e ampliar o entendimento decorrente da feitura dos exercícios.
O G.A.P pode ser obtido gratuitamente em http:\\www.gap-system.org
Sumário
0.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 NOÇÕES GERAIS SOBRE CORPOS, ESPAÇO DOS POLINÔMIOS E DETERMI-
NANTES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2.2 Corpos finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.2.3 O corpo dos números complexos . . . . . . . . . . . . . . . . . . . . . . . . . . 3
0.2.4 Anéis de polinômios em uma variável sobre um corpo . . . . . . . . . . . . . . 4
0.2.5 Propriedades gerais dos polinômios . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.2.6 Teoremas básicos sobre K[t] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
0.2.7 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
0.3 Decomposição em somas diretas de subespaços Invariantes . . . . . . . . . . . . . . 10
0.3.1 Autovalores e Autovetores (valores e vetores característicos) . . . . . . . . . . . 10
0.3.2 O Polinômio mínimo de um operador linear . . . . . . . . . . . . . . . . . . . . 10
0.3.3 Cálculo do Polinômio mínimo por meio de sistemas lineares. . . . . . . . . . . 11
0.3.4 Polinômio característico de um operador linear. . . . . . . . . . . . . . . . . . . 12
0.3.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
0.3.6 Decomposição Primária (Decomposição Espectral genérica) . . . . . . . . . . . 16
0.3.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
0.4 Espaços com Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
0.4.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
0.4.2 Norma e distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
0.4.3 Processo de ortogonalização de Gram- Schmidt . . . . . . . . . . . . . . . . . . 25
0.4.4 Projeção ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
0.4.5 Representação Matricial do Produto Interno . . . . . . . . . . . . . . . . . . . . 28
0.4.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
0.1 INTRODUÇÃO
Esta apostila ainda tem por objetivo complementar as discussões feitas em sala de aula. O primeiro
capítulo compreende as ferramentas necessárias ao entendimento das demonstrações dos principais
resultados em Álgebra linear 2, e outras necessárias para calcular e manipular de forma adequada os
objetos definidos ao longo da Teoria. Para ser mais preciso, os conceitos são necessários para o cálculo
do polinômio mínimo, e da decomposição primária de operadores lineares, cálculo de autovalores e
autovetores.
A decomposição primária de um operador linear pode ser pensada como uma forma mais geral
do teorema espectral, enunciado sem a necessidade do conceito de produto interno. Além disto, se o
objetivo do Teorema espectral é representar um operador T como soma de “múltiplos por escalar”das
projeções ortogonais sobre os autoespaços, ou equivalentemente como soma de composições de T com
as projeç oes ortogonais sobre os autoespaços, podemos pensar o teorema da decomposição primária
como resultado intermediário, no sentido de decompor o espaço em soma diretas de espaços invariantes
pela ação do operador linear e conseqüentemente representação de T como soma de composiç oes de
T com projeções (não necessariamente ortogonal) sobre subespaços invariantes pela ação de T. Neste
sentido a decomposição primária é um resultado eficiente, exceto quanto o polinômio mínimo do
operador tem apenas um fator irredutível, e neste caso a decomposição cíclica é a ferramenta mais
adequada. Infelizmente, ”Decomposição cíclica”não consta no conteúdo programático deste curso.
+ : K × K → K, Soma
e
•:K×K→K multiplicação
satisfazendo as seguintes propriedades:
I - Propriedades da Soma
II - Propriedades da multiplicação
1. Os elementos neutros da soma e da multiplicação são únicos, isto é não existem dois elementos
satisfazendo a propriedade de definição do elemento neutro.
2. Se K tem ao menos dois elementos, então 1 ̸= 0.
R(x) = { fg(x)
(x)
, f (x), g(x) são polinômios com coeficientes em R e g(x) é não nulo}.
são exemplos de corpos com respeito à soma e multiplicação usuais. Alem destes, podemos
ainda mostrar que qualquer Q-espaço vetorial V ⊂ C, de dimensão finita, fechado com respeito à
multiplicação de números complexos, é um corpo. Por exemplo, os Q-espaços vetoriais do exercício
abaixo:
Exercícios
Mostre que as estruturas abaixo,com a soma e multiplicação de números reais ou complexos, são
corpos.
√ √
1. Q[ 2] := {a + b 2; a, b ∈ Q}
√ √
2. Q[ 5] := {a + b 5; a, b ∈ Q}
√ √ √ √ √
3. Q[ 2, 3] := {a + b 2 + c 3 + d 6; a, b, c, d ∈ Q}
√ √
4. Q[ −1] := {a + b −1; a, b ∈ Q}
√ √
5. Q[ −2] := {a + b −2; a, b ∈ Q}
√ √
6. Q[ −3] := {a + b −3; a, b ∈ Q}
Observação 0.2.2. Fique atento a diferença entre R[x] e R(x) pois o primeiro é o conjunto de todos
os polinômios na variável x e coeficientes reais, o segundo é o conjunto das funções reais racionais na
variável x, isto é, o conjunto dos quocientes de polinômios em R[x].
x = {x + mp, m ∈ Z}
Não é dificil ver existem exatamente p conjuntos distintos, disjuntos e definidos como acima, listados
a seguir:
0, 1, 2, . . . , p − 1
De fato, basta observar que para cada número inteiro x ∈ Z existem inteiros m, r ∈ Z tais que
x = mp + r e 0 ≤ r < p (Teorema da divisão Euclideana). Portanto o conjunto x = r com
0 ≤ r < p.
Agora considere o conjunto dado por Zp := {0, 1, 2, . . . , p − 1} e vamos definir em Zp uma operação
de soma e uma de multiplicação .
x + y := x + y
x · y := x · y
−r + mp = (p − r) + (m − 1)p ∀m ∈ Z.
O ponto mais delicado das propriedades é a existência de elemento inverso para cada elemento
diferente do elemento zero. Dado x ̸= 0, como MDC(x, p) = 1 existem n, m ∈ Z tais que xn + pm = 1,
portanto
1 = 1 + 0 = xn + pm = xn + 0 = xn (1)
A propriedade de MDC, utilizada acima, decorre de uma propriedade básica de números inteiros,
chamada de “Teorema de Bezout”.
+ 0 1 2 3 4 • 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
Exercícios
1. Construa as tabelas da soma e do produto em Zp para p = 2, 3, 7, 11
√ √ √
(a + b −1) + (c + d −1) := (a + c) + (b + d) −1
√ √ √
(a + b −1) · (c + d −1) := (ac − bd) + (ad + bc) −1
munido das operações de soma e multiplicação definidas abaixo, é dito ser um anel de polinômios em
uma variável sobre o corpo K.
∑
n ∑
m max
∑{n,m}
r r
ar t + ar t := (ar + br )tr
r=0 r=0 r=0
∑
n ∑
m ∑
n+m ∑
( ar tr ) · ( ar tr ) := cr tr , em que cr := ai bj
r=0 r=0 r=0 i+j=r
Embora a notação deixe claro que podemos associar a cada polinômio uma função polinomial, esta
certamente não é uma caracterização de um polinômio, pois os conceitos de função polinomial e
polinômio são essencialmente distintos. Como veremos na consideração a seguir.
Seja K = Z2 e seja f (t) = t(t − 1) ∈ K[t]. Visto como função de K em K o elemento f (t) é a
função nula pois f (1) = f (0) = 0, por outro lado visto como polinômio f (t) não é o polinômio nulo.
Definição 0.2.7. a seguir introduziremos algumas definições e notações comuns quando tratamos com
polinômios:
• Dado um polinômio não nulo f (t) ∈ K[t], gr f (t) é a notação para o grau de f (t).
• Um polinômio f (t) ∈ K[t], é dito ser mônico se o coeficiente do seu termo líder é igual a 1. Por
termo líder entendemos o termo não nulo de maior grau em f (t).
• Dados f (t), g(t) ∈ K[t], Dizemos que g(t) divide f (t) se existe q(t) ∈ K[t] tal que f (t) = g(t)q(t).
• Dados f (t), g(t) ∈ K[t], não ambos nulos, o Máximo Divisor Comum de f (t) e g(t) é o polinômio
mônico, d(t), de maior grau possível que divide a ambos. Escrevemos,
• Dois polinômios, não nulos, são ditos relativamente primos se o seu MDC é igual a 1.
• Um polinômio, não nulo, é dito ser irredutível se seus únicos divisores são as constantes ou
múltiplos dele próprio. Isto é:
f (t) irredutível se, e somente se, f (t) = g(t)q(t) implica que g(t) ou q(t) é inversível.
• Seja f (t) = atn +an−1 tn−1 +· · ·+a1 t+b ∈ Q[t] um polinômio com coeficientes inteiros, α = c
d ∈Q
com MDC(c, d) = 1. Se f (α) = 0 então c divide b e d divide a.
• Se f (t) = at3 + bt2 + ct + d ∈ R[t], com a ̸= 0, então podemos, usando a mudança de variável
t = y − 3ab
, reduzir a equação at3 + bt2 + ct + d = 0 a uma equação do tipo y 3 + py + q = 0.
Logo α é raiz da última equação se, e somente se, α − 3a b
é raiz de f (t). No entanto, para uma
3
equação do tipo y + py + q = 0, a expressão:
√ √( ) √ √( )
3 q q 2 ( p ) 3 3 q q 2 ( p )3
α= − + + + − − +
2 2 3 2 2 3
fornece uma raiz real. Desta forma podemos dividir por y − α, para reduzir o problema a uma
equação de grau dois e usar a fórmula de Baskara para encontrar as outras raízes.
• Para o caso de uma equação de grau 4, existe um processo semelhante, baseado no completamento
de quadrados.
Se f (t) = at4 + bt3 + ct2 + dt + e ∈ R[t], com a ̸= 0, então podemos, usando a mudança de
variável t = y − 4a b
, reduzir a equação at4 + bt3 + ct2 + dt + e = 0 a uma equação do tipo
y 4 + py 2 + qy + r = 0. Esta equação por sua vez pode ser resolvida determinando α, β ∈ R tais
que y 4 +(p+α)y 2 +(r+β) seja um quadrado perfeito. Desta forma a equação y 4 +py 2 +qy+r = 0
equivale a igualdade
y 4 + (p + α)y 2 + (r + β) = αy 2 − qy + β. (2)
Para que os dois lados da equação sejam quadrados perfeitos, mutatis mutantis, os discriminantes,
de ambas, devem ser iguais a zero. O que nos leva a um sistema:
{
(p + α)2 − 4(r + β) = 0
q 2 − 4αβ = 0
Após resolvermos este sistema, para cada par α, β de soluções encontradas, a equação 2 será
reduzida a uma equação do do tipo:
(y 2 − ω)2 = (y − σ)2
Definição 0.2.8 (Ideal: ). Um subconjunto, não vazio, J ⊆ K[t] é dito ser um ideal se satisfaz as
seguintes propriedades:
c ) Dado uma matriz quadrada com entradas num corpo K, A ∈ Mr (K), o conjunto: {a0 + a1 t +
a2 t2 + · · · + an tn , n ∈ N, tais que a0 I + a1 A + a2 A2 + · · · + an An ≡ 0} em que I é a matriz
identidade, é um ideal de K[t]
m−gr f (t)
f1 (t) := f (t) − c0 b−1
m t g(t)
−1 m−gr f1 (t)
f2 (t) := f1 (t) − c1 bm t g(t)
..
.
f (t) := f (t) − c b−1 tm−gr fr−1 (t) g(t)
r r−1 r−1 m
Exemplo 0.2.11. Vamos aplicar a demonstração do teorema acima para os polinômios f (t) =
4t5 − 2t3 + 5t + 2 e g(t) = 3t2 − 1. em Z7 .
−1 −1
O leitor deve estar atento ao significado da expressão 3 . Neste caso, 3 = 5 pois o inverso de 3
em Z7 é 5 (de fato, 3 · 5 = 15 = 2 · 7 + 1). temos:
Logo
4t5 − 2t3 + 5t + 2 = (6t3 + 6t)(3t2 − 1) + 4t + 2.
Demonstração. Basta aplicar o teorema anterior para obter F (t) = q(t)(t − λ) + c onde c ∈ K, e
consequentemente, f (λ) = q(λ) · 0 + c.
Proposição 0.2.13. Dado um polinômio f (t) = b + a1 t + a2 t2 + · · · + an−1 tn−1 + atn , ∈ Q[t] com
coeficientes inteiros e λ ∈ Q. Se f (λ) = 0 então λ ∈ { dc tal que MDC(c, d) = 1, c|b e d|an }
Teorema 0.2.14 (Todo ideal é principal). Dado um ideal J ⊂ K[t], Se J ̸= {0}, então existe um
único polinômio mônico m(t) ∈ J tal que J = {q(t)m(t), q(t) ∈ K[t]}. Istoé, todo ideal, não nulo, em
K[t] é um conjunto de múltiplos de algum polinômio mônico. Neste caso escrevemos, J = (m(t)) e
dizemos que J é um ideal principal gerado por m(t).
Demonstração. Seja m(t) um polinômio mônico de menor grau possível contido em J. Dado g(t) ∈ J
escreva g(t) = q(t)m(t) + r(t) onde gr r(t) < gr m(t) ou r(t) ≡ 0. Pela definição de ideal, temos que
r(t) = g(t) − q(t)m(t) ∈ J. Logo, devido a escolha do m(t), não podemos ter gr r(t) < gr m(t) e
obrigatoriamente temos r(t) ≡ 0. Isto é, g(t) = q(t)m(t).
Teorema 0.2.15 (Teorema de Bezout). Dados f (t), g(t) ∈ K[t]. Se f (t), g(t) não são ambos nulos,
então existem polinômios h1 (t), h2 (t) ∈ K[t] tais que
Corolário 0.2.16. Se h(t) divide ambos, f (t) e g(t), então h(t) divide MDC(f (t), g(t)). Além disto,
se f (t) = q(t)g(t) + r(t), com g(t) ̸= 0 ou r(t) ̸= 0, então
Corolário 0.2.17. Se f1 (t), . . . , fr (t) ∈ K[t] são relativamente primos então existem h1 (t), . . . , hr (t) ∈
K[t], tais que:
h1 (t)f1 (t) + · · · + hr (t)fr (t) = 1.
Teorema 0.2.18. Todo polinômio, não nulo, de grau maior que zero, é um produtos de polinômios
irredutíveis. Isto é, se f (t) ∈ K[t] não pertence a K então
onde cada pı (t) não pode ser fatorado em produto de dois polinômios de grau maior ou igual a 1.
0.2.7 Determinantes
O conceito de determinante nos é apresentado no ensino fundamental atrav’es de fórmulas pron-
tas e de macetes para calculá-lo. Apresentaremos nesta seç ao a definição formal de determinante,
identificando-o como a única aplicação multilinear alternada cujo valor assumido na matriz identidade
é 1. As propriedades seguirão facilmente da definição. Por motivo de simplicidade trabalharemos
apenas com o espaço de matrizes quadradas com entradas em um corpo no qual 1 + 1 ̸= 0, no entanto
os conceitos a seguir podem ser aplicados em casos mais gerais que corpos, bastando que o conjunto
ao qual pertencem as entradas da matriz possua uma soma e multiplicação compatíveis, a exemplo
das matrizes quadradas com entradas inteiras, ou entradas polinomiais, ou ainda funções numéricas.
Seja K um corpo e V um K-espaço vetorial de dimensão n > 1. Escrevamos Vn para representar o
produto cartesiano, de n-fatores,
Definição 0.2.19. Uma aplicação D : Vn → K é dita ser forma multilinear alternada sobre V se
satisfaz, para todos ϑ1 , . . . , ϑn , υ, ω ∈ V, e ∀λ ∈ K, as seguintes condições :
2. D(ϑ1 , . . . , ϑı−1 , ω, ϑı+1 , . . . , ϑȷ−1 , υ, ϑȷ+1 , . . . , ϑn ) = (−1)D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑȷ−1 , ω, ϑȷ+1 , . . . , ϑn )
• D(ϑ1 , . . . , ϑı−1 , υ + ω, ϑı+1 , . . . , ϑȷ−1 , ω, ϑȷ+1 , . . . , ϑn ) = D(ϑ1 , . . . , ϑı−1 , υ, ϑı+1 , . . . , ϑȷ−1 , ω, ϑȷ+1 , . . . , ϑn )
Sabemos de Álgebra linear I que uma transformação linear T : V → K fica completamente deter-
minada quando conhecemos os valores que T assume para cada elemento em uma base de V. Desta
forma é natural questionar se existe uma condição semelhante para aplicações multilineares. Para
entendermos isto vamos investigar o caso do espaço R2 .
Exemplo 0.2.20. Suponha que D : R2 × R2 → R seja uma aplicação multilinear alternada e seja
{ε1 , ε2 } a base canônica do R2 . Dados vetores ϑ1 = α11 ε1 + α12 ε2 e ϑ2 = α21 ε1 + α22 ε2 calculemos
D(ϑ1 , ϑ2 ).
Temos
Concluimos que toda forma multilinear alternada sobre R2 fica completa e unicamente determinada
pelo valor no par (ε1 , ε2 ).
Um raciocínio análogo mostra que, se fixarmos a base canõnica do R3 , toda forma multilinear
alternada sobre R3 fica completa e unicamente determinada pelo valor no terno (ε1 , ε2 , ε3 ). Em geral
toda forma multilinear alternada sobre Rn fica completa e unicamente determinada pelo valor na n-upla
(ε1 , ε2 , . . . , εn ).
Podemos perceber neste exemplo que o fato de usarmos R como conjunto dos escalares não de-
sempenha nenhum papel fundamental nos cálculos e portanto o resultado pode ser obtido de forma
análoga para qualquer corpo K. No curso de Álgebra linear I, aprendemos que o espaço das matrizes
de ordem n com entradas num corpo K é um K-espaço vetorial de dimensão n2 e portanto é isomorfo
a Kn × · · · × Kn ( cartesiano com n fatores iguais a Kn ). Podemos expressar este isomorfismo pela
transformação que a cada matriz associa o elemento de Kn × · · · × Kn cujas entradas são as linhas
da matriz desta forma, podemos pensar a n-upla (ε1 , ε2 , . . . , εn ). como se fôra a matriz identidade, e
portanto toda forma multilinear alternada fica completa e unicamente determinada pelo valor que ela
assume na matriz identidade.
Definição 0.2.21. Seja K um corpo e seja M\ (K) o espaço das matrizes de ordem n. . Chamamos de
função determinante a única forma multilinear alternada sobre Kn cujo valor na matriz identidade é 1.
Dada uma matriz A ∈ Mn (K), chamamos de determinante de A o valor que a funç ao determinante
assume em A.
exercício
1. Mostre que as seguintes regras definem uma forma multilinear alternada e calcule o seu valor na
identidade.
∑
n
D(A) = [(−1)ı+ȷ aıȷ · det(A[ı|ȷ])].
ı=1
∑
n
D(A) = [(−1)ı+ȷ aıȷ · det(A[ı|ȷ])].
ȷ=1
Na primeira parte do curso, todos os espaços vetoriais considerados serão de dimensão finita, exceto
quando mencionado o contrário.
Corolário 0.3.5. Dado um operador linear T : V → V. Se B é uma representação matricial de T
em relação a qualquer base de V, então mT (B) é a matriz nula. Mais que isto, mT (t) é o polinômio
mônico de menor grau possivel que se anula em B.
De fato, se B é a matriz de T em relação a outra base, então B = C −1 AC, onde C é a matriz de
mudança de base. Neste caso temos
an B n + · · · + a1 B + a0 I = an C −1 An C + · · · + a1 C −1 AC + a0 C −1 IC = C −1 (an An + · · · + a1 A + a0 I)C.
2. Escalone a matriz deste sistema para obter as soluções em função de αn2 , αn2 −1 , . . . , αr para o
menor r possível.
Observação 0.3.6. O método de cálculo descrito acima, embora seja efetivo, é extremamente dispen-
dioso devido obviamente ao tamanho do sistema a ser resolvido. Uma forma de reduzir o tamanho do
sistema consiste em considerar o sistema
α0 I + α1 A + · · · + αn An = O.
O motivo pelo qual se pode fazer isto é o Teorema 0.3.10 de Cayley e Hamilton. Este teorema afirma
que o grau do polinômio mínimo é no máximo igual a dimensão do espaço.
Definição 0.3.7 (Autovalor). Seja V um espaço vetorial de dimensão finita sobre um corpo K. Dado
um operador linear T : V → V. Um escalar λ ∈ K é dito ser um autovalor( ou valor característico )de
T se mT (λ) = 0, ou equivalentemente, se t − λ divide mT (t).
Exemplo 0.3.8. Considere o operador linear T : R3 → R3 dado por T (x, y, z) = (2x, x + 3y − 2z, 2z).
Determine o polinômio mínimo de T.
2 0 0
Considerando a base canônica temos A = T ]c = 1 3 −2 .
0 0 2
Queremos encontrar o polinômio mônico do tipo α3 t3 + α2 t2 + α1 t + α0 que tenha o menor grau
possível e que se “anule” em A. Isto é,
α0 I + α1 A + α2 A2 + α3 A3 = O
Ou seja :
( ) ( ) ( ) ( ) ( )
1 0 0 2 0 0 4 0 0 8 0 0 0 0 0
α0 0 1 0 + α1 1 3 −2 + α2 5 9 −10 + α3 19 27 −38 = 0 0 0
0 0 1 0 0 2 0 0 4 0 0 8 0 0 0
Fazendo α3 = 0 temos
α0 = 6α2 (5)
α1 = −5α2 (6)
Portanto, não podemos fazer α3 = α2 = 0 sem anular todos os coeficientes. Desta forma o
polinômio mínimo deve ter grau 2.
Fazendo α3 = 0 e α2 = 1, obtemos α1 = −5 e α0 = 6. Segue portanto que o polinômio mínimo é
Definição 0.3.9. Seja V um espaço vetorial de dimensão finita sobre um corpo K. Dado um operador
linear T : V → V. Seja A = (aıȷ )1≤ı,ȷ≤n a matriz de T em relação a base canônica. O polinômio
característico de T é o polinômio ℘c (x) ∈ K[x] dado por:
Segue imediatamente da definição acima, e das propriedades de determinantes, que ℘c (x) tem
grau igual a dimensão do espaço V. Além disto, o coeficiente do termo de maior grau (termo líder) é
(−1)dim(V) e o seu termo independente é igual a Det(A).
Teorema 0.3.10 (Cayley-Hamilton). Seja V um espaço vetorial, de dimensão n > 0, sobre um corpo
K. Dado um operador linear T : V → V, seja A = (aıȷ )1≤ı,ȷ≤n a matriz de T em relação a base
canônica e ℘c (x) = (−1)n xn + bn−1 xn−1 + · · · + b1 x + b0 então:
Corolário 0.3.11. O polinômio mínimo de um operador sempre divide o seu polinômio característico.
Teorema 0.3.12 (Cayley). Seja V um espaço vetorial, de dimensão n > 0, sobre um corpo K. Dado
um operador linear T : V → V, seja A = (aıȷ )1≤ı,ȷ≤n a matriz de T em relação a uma base Ω de V.
Dado λ ∈ K, são equivalentes:
i) λ é um autovalor de T.
Como gr(g(x)) < gr(mT (x) temos obrigatoriamente que g(T ) não é o operador nulo, portanto deve
existir um w ∈ V tal que v = g(T )w é um vetor não nulo. Por outro lado devemos ter:
Ou seja, existe ao menos um vetor não nulo v ∈ V tal que T v = λv. Reciprocamente, se existe v ∈ V,
não nulo, tal que T v = λv. Então, aplicando-se o algoritmo de divisão temos:
Segue que :
[0] = mT (T ) = g(T )(T − λI) + hI.
Portanto,
0 = [0]v = mT (T )v = g(T )(T − λI)v + hv = g(T )0 + hv = 0 + hv = hv (8)
Ou seja, 0 = hv com v não nulo. Logo h = 0. Neste caso,
mT (x) = g(x)(x − λ)
e consequentemente λ é raiz de mT (x).
(ii ⇔ iii) Se (x1 , x2 , . . . , xn ) são coordenadas de um vetor v em relação à base Ω, então as
coordenadas de T v são dadas por:
a11 · · · a1n x1
a21 . . . a2n x2
T v = Av = . .. ..
.. · · · . .
an1 · · · ann xn
Portanto,
a11 ··· a1n
x1 λx1
x2 λx2
T v = λv ⇔ a21 . . . a2n .. = ..
.. .. . .
. ··· .
xn λxn
an1 · · · ann
Ou equivalentemente,
( n )
∑ ∑
n
( ) ( )
a1ȷ xȷ , . . . , anȷ xȷ − λx1 , λx2 , . . . , λxn = 0, 0, . . . , 0
ȷ=1 ȷ=1
Isto é, ( )
∑
n ∑
n
( )
a1ȷ xȷ − λx1 , . . . , anȷ xȷ − λxn = 0, 0, . . . , 0
ȷ=1 ȷ=1
( )
∑
n ∑
n−1
( )
(a11 − λ)x1 + a1ȷ xȷ , . . . , (ann − λ)xn + a1ȷ xȷ = 0, 0, . . . , 0
ȷ=2 ȷ=1
Definição 0.3.13 (Autovetor). Seja V um espaço vetorial de dimensão finita sobre um corpo K. Dado
um operador linear T : V → V. Um vetor v ∈ V é dito ser um autovetor de T se existe λ ∈ K tal que
T v = λv.
Se T v = λ e v ̸= 0, dizemos que v é um autovetor associado a λ.
Observação 0.3.14. Observe que de acordo com o Teorema 0.3.12 existe autovetor associado a λ ∈ K
se, e somente se, λ é um autovalor de T. De acordo com este mesmo Teorema e pela definição de
polinômio característico, isto ocorre se, e somente se λ ∈ K é raiz do polinômio característico. Este
mesmo raciocínio nos leva a concluir que o polinômio mínimo e o polinômio característico têm as
mesmas raízes.
Exemplo 0.3.15. Considere o operador linear T : R3 → R3 dado por T (x, y, z) = (2x, x+3y −2z, 2z).
Determine o polinômio característico de T.
2 0 0
Considerando a base canônica temos A = T ]c = 1 3 −2 . Logo:
0 0 2
2−t 0 0
℘c (t) = Det(A − tI) = Det 1 3 − t −2 = (2 − t)2 (3 − t).
0 0 2−t
Resolvendo o sistema temos que as soluções devem satisfazer x = −y. Portanto os autovetores associ-
ados a 2 têm a forma (x, −x). O Leitor não terá dificuldade em ver que o conjunto {(x, −x); x ∈ R} é
um subespaço vetorial de R2 . Geometricamente falando, isto significa que os transformados dos vetores
cujas coordenadas fornecem um ponto da reta y = −x, pertencem a mesma reta, ou seja a imagem da
reta y = −x por T é ela própria.
0.3.5 Exercícios
1. Encontre o polinônio mínimo, o polinômio característico, os autovalores e os autovetores (se
houver) para cada um dos operadores abaixo.
4. Seja T um operador linear cuja representação matricial é uma matriz triagular A = (aıȷ ). Mostre
que os autovalores de T são os elementos aıı .
6. Seja A = (aıȷ ) uma matriz de ordem n, tal que aıȷ = 0 sempre que ı ≤ ȷ. Mostre que existe r ∈ N
tal que Ar = O.
7. Seja V um K-espaço vetorial. Dado um operador linear T : V → V, mostre que o conjunto dos
autovetores associados a um mesmo autovalor λ ∈ K, juntamente com o vetor nulo, Vλ := {v ∈
V; T v = λv}, é um subespaço vetorial de V.
9. Dado um corpo K. Mostre que o conjunto K[x], de todos os polinômios em uma variável e com
coeficientes em K é um K-espaço vetorial.
10. Dados K-espaços vetoriais V e W, mostre que o conjunto L(V, W), de todas as transformações
lineares de V em W é um espaço vetorial.
11. Mostre que dado um polinômio p(t) ∈ K[t] e uma transformação linear T : V → V de um
K-espaço vetorial as seguintes aplicações são transformaç oes lineares de V em V :
13. Encontre as raízes reais dos polinômios abaixo, usando as técnicas descritas em 0.2.5 :
14. Encontre, se houver, as raízes dos polinômios abaixo, considerando o corpo K indicado. (Lembre-
se que existe um número finito de possibilidades !!!)
a primeira forma de decomposição (não necessariamente como soma direta) que podemos imaginar
de maneira a simplificar a representação matricial de um operador T : V → V é fornecida pela
proposição abaixo.
Proposição 0.3.18. Seja V um espaço vetorial, de dimensão finita, sobre um corpo K. Dado um
operador T : V → V cujo núcleo tem dimensão r ≥ 1, existe uma base {v1 , . . . , vr , w1 , . . . , wm } de V,
tal que a matriz de T tem r colunas iguais ao vetor zero.
Demonstração. Escolha uma base {v1 , . . . , vr } do Núcleo (T ) e complete para obter uma base de
V.
Corolário 0.3.19 (Projeção ). Se T : V → V satisfaz T ◦ T = T então:
V = Núcleo (T ) ⊕ Imagem (T )
Em particular existe uma base em relação a qual a matrix A = (aıȷ ) de T satisfaz : aıȷ = 0 ı ̸=
ȷ ou ȷ > r e aıı = 1 ı ≤ r onde r é a dimensão da imagem de T.
Demonstração. Ja sabemos que V = Núcleo (T ) + Imagem (T ). Com a hipotése T 2 = T, temos
que se v ∈ Núcleo (T ) ∩ Imagem (T ) então
Isto é suficiente para garantir que cada vetor se escreve de forma única como soma de um vetor na
imagem com um vetor no núcleo.
Exemplo 0.3.20. Seja T : R3 → R3 , a aplicação dada por
T (x, y, z) = 12 (x − z, 2y, z − x), onde x, y, z são as coordenadas com respeito a base canônica.
O leitor não terá dificuldade em ver que {(1, 0, 1)} é uma base do núcleo de T, enquanto que
{(1, 0, −1), (0, 1, 0)} é uma base da imagem de T.
Como
1 0 1
Det 0 1 0 = 2
−1 0 1
os vetores {(1, 0, −1), (0, 1, 0), (1, 0, 1)} são L.I, e formam, portanto, uma base de R3 .
Construindo a matriz de T em relação a esta base temos:
(c) I = E1 + E2 + · · · + Er .
(d) A imagem de Eı é Wı .
Reciprocamente se existem r operadores lineares E1 , . . . , Er de V satisfazendo os itens (a),(b) e (c),
então V é soma direta das imagens destes operadores.
Demonstração.
Sabemos que cada v ∈ V se escreve de forma única como v = v1 + v2 + · · · + vr onde cada vı ∈ Wı .
Defina o operador linear Eı : V → V por Eı (v) = vı . Os itens (a),(b) e (c) são satisfeitos por estes
operadores.
Reciprocamente, suponha que E1 , . . . , Er sejam operadores lineares de V, satisfazendo os itens
(a),(b) e (c) e que Wı seja a imagem de Eı .
Pela condição (c) temos v = I(v) = (E1 + E2 + · · · + Er )(v) = E1 (v) + E2 (v) + · · · + Er (v). Logo
V = W1 + · · · + Wr vamos mostrar que esta expressão para v é única.
De fato, se v = E1 (v) + E2 (v) + · · · + Er (v) e v = ω1 + ω2 + · · · + ωr , com cada ωı ∈ Wı , então
existem vetores u1 , . . . , ur ∈ V tais que Eı (uı ) = ωı . Pelos itens (a), (b), temos:
∑
r ∑
r
Eȷ (v) = Eȷ (E1 (v) + E2 (v) + · · · + Er (v)) = Eȷ (Eı (v)) = Eȷ (ωı ) = Eȷ2 (uȷ ) = ωȷ .
ı=1 ı=1
Exemplo 0.3.22. Considere o R-espaço vetorial dos polinômios de coeficientes reais e grau menor
ou igual a três, R3 [x] := {ax3 + bx2 + cx + d; a, b, c, d ∈ R}, e os seguintes operadores lineares
F1 , F2 , F3 : R3 [x] → R3 [x] dados por:
W1 = {ax3 + cx; a, c ∈ R}
W2 = {bx2 ; b ∈ R}
W3 = {d; d ∈ R} = R
Conseqüentemente R3 [x] = W3 ⊕ W2 ⊕ W1 .
Observe que, se V tem dimensão n então, toda decomposição de V como soma direta de subespaços
vetoriais tem, no máximo, n somandos. Em particular toda base de V fornece uma decomposição, de
V, como soma direta de subespaços unidimensionais.(verifique!)
O teorema a seguir é uma das ferramentas mais importantes para o estudo de um operador linear
T. Este teorema diz que é possível “quebrar”o operador T em pedaços mais simples, de forma que
possamos estudar seu comportamento, estudando cada um dos pedaços. Pode-se usar o teorema
da decomposição primária para obter uma representação matricial em forma de blocos e, trabalhar,
posteriormente, cada bloco para simplificar ainda mais a representação matricial do operador.
Uma limitação deste teorema é o fato dele não fornecer uma resposta satisfatória para o problema
de encontrar uma representação matricial mais simples, caso o polinômio mínimo seja potência de um
polinômio irredutível. Para este caso recomenda-se o Teorema de decomposição cíclica.
Uma das conseqüencias mais importantes deste teorema, é a caracterização dos operadores dia-
gonalizáveis através do polinômio mínimo: “ Um operador tem uma representação matricial
diagonal se, e somente se, seu polinômio mínimo é um produto de polinômios de grau 1,
dois-a-dois relativamente primos.”
Teorema 0.3.23 (Teorema da Decomposição primária). Dado um K-espaço vetorial V de dimensão
finita, e um operador linear T : V → V. Seja mT (t) = [p1 (t)]n1 [p2 (t)]n2 · · · [pr (t)]nr a decomposição do
polinômio mínimo como produto de polinômios irredutíveis pı (t), com r ≥ 2, e MDC(pı (t), pȷ (t)) = 1
sempre que ı ̸= ȷ. Seja Wı o núcleo do operador [p(T )]nı , ı = 1, 2, . . . , r. Então:
1. V = W1 ⊕ W2 ⊕ · · · ⊕ Wr .
Demonstração.
De acordo com o Teorema 0.3.21, para demonstrar o ítem (1), basta encontrarmos r projeções
E1 , . . . , Er : V → V tais que
(a ) Eı (V) = Wı ∀ı ∈ {1, 2, . . . , r}. Isto é, o conjunto imagem de Eı é Wı .
(b ) E1 + · · · + Er = I.
(c ) Eı ◦ Eȷ = O ∀ı ̸= ȷ.
Conseqüentemente,
g1 (T ) ◦ f1 (T ) + · · · + gr (T ) ◦ fr (T ) = I.
Defina hı (t) = gı (t)fı (t) e considere os r operadores lineares Eı = gı (T ) ◦ fı (T ).
Vamos mostrar que:
• Eı ◦ Eȷ = O sempre que ı ̸= ȷ.
Eı ◦ Eȷ = hı (T ) ◦ hȷ (T ) = gı (T ) ◦ fı (T ) ◦ gȷ (T ) ◦ fȷ (T ) = gı (T ) ◦ gȷ (T ) ◦ fı (T ) ◦ fȷ (T ) = O ∀ı ̸= ȷ.
Eı = Eı ◦ I = Eı ◦ (E1 + E2 + · · · + Er ) = Eı ◦ E1 + · · · + Eı ◦ Er = O + · · · + Eı Eı + O + · · · + O = Eı2 .
Além disto, como mT (t) divide [pı (t)]nı hı (t), temos que [pı (T )]nı ◦ Eı = O. Conseqüentemente a
imagem de Eı está contida no núcleo de [pı (T )]nı . Reciprocamente, se ı ̸= ȷ então fȷ (t) é divisível por
[pı (t)]nı . Isto é, fȷ (t) = sȷ (t)[pı (t)]nı para algum sȷ (t) ∈ K[t]. Portanto se v ∈ V é um vetor do núcleo
de [pı (t)]nı , então Eȷ v = 0. Em outras palavras,
v = Iv = (E1 + E2 + · · · + Er )v = E1 v + E2 v + · · · + Er v = Eı v.
Concluimos que V = W1 ⊕ W2 ⊕ · · · ⊕ Wr .
Para mostrar o ítem (b) basta observar que: T ◦ Eı = Eı ◦ T. Portanto para ω ∈ Wı temos ω = Eı v
para algum v ∈ V. Logo:
Ou seja as coordenadas de T ωıȷ com respeito à base Ω são (0, 0, . . . , 0, αı1 , αı2 , . . . , αısı , 0, . . . , 0). Logo
a matriz T ]Ω é uma matriz diagonal por blocos. .
Observação 0.3.24. O fato do conjunto Ω, construido na demonstração acima, ser uma base é uma
conseqüencia que segue imediatamente da definição de soma direta. Mas especificamente falando, se
V = V1 ⊕ · · · ⊕ Vm então a união das bases de V1 , . . . , Vm forma uma base de V.
Definição 0.3.25. Seja V um espaço de dimensão finita. Dado um operador linear T : V → V, seja
Ω uma base de V fornecida pela aplicação do ítem (3) do teorema 0.3.23. A matriz T ]Ω é dita ser
uma decomposição primária de T.
Hı ω = ωı ,
1. O núcleo de
2 −2 1 −2 1 1
−2 2 1 −2 1 1
0 0 0 0 −4 −2
(A − 3I) =
2
0 0 −2 4 1 1
0 0 0 0 8 −6
0 0 0 0 6 8
tem como base Γ1 = {(0, 0, 2, 1, 0, 0), (1, 1, 0, 0, 0, 0)}.
2. O núcleo de
1 1 1 1 0 0
1 1 1 1 0 0
0 0 2 0 1 1
(A − I) =
0 0 1 0 0 0
0 0 0 0 −1 1
0 0 0 0 −1 −1
tem como base Γ2 = {(−1, 0, 0, 1, 0, 0), (−1, 1, 0, 0, 0, 0)}.
3. O núcleo de
6 4 7 4 1 1
4 6 7 4 1 1
0 0 10 0 2 4
(A + I) =
2
0 0 4 2 1 1
0 0 0 0 0 0
0 0 0 0 0 0
tem como base Γ3 = {(3, 3, −20, 15, 0, 50), (4, 4, −10, −5, 50, 0)}.
Conseqüentemente, em relação à base
Ω = {(0, 0, 2, 1, 0, 0), (1, 1, 0, 0, 0, 0), (−1, 0, 0, 1, 0, 0), (−1, 1, 0, 0, 0, 0), (3, 3, −20, 15, 0, 50), (4, 4, −10, −5, 50, 0)}
Operador diagonalizável
Definição 0.3.29. Um operador linear T : V → V é dito ser diagonalizável se existe uma base de V
em relação a qual a representação matricial de T é dada por uma matriz diagonal. Isto é, uma matriz
cujas entradas aıȷ = 0 sempre que ı ̸= ȷ.
Proposição 0.3.30. Seja V um K-espaço vetorial de dimensão finita. Um operador T : V → V é
diagonalizável se, e somente se, o seu polinômio mínimo tem a forma
Segue-se que f (t) é um polinômio mônico que se anula em T, e portanto é divisível pelo polinômio
mínimo. Por outro lado, como nenhum dos fı (t) se anula em T, nenhum divisor de f (t) se anula em
T. Portanto, f (t) é o polinômio mínimo de T.
Reciprocamente, Se polinômio mínimo de T tem a forma mT (t) = (t − λ1 ) · · · (t − λr ), o teorema
da decomposição primária de T nos fornece uma base de V formada por autovetores de T. Consequen-
temente, em relação a esta base, a representação matricial de T é dada por uma matriz diagonal.
0.3.7 Exercícios
Encontre uma decomposição primária para os operadores abaixo:
3. F(ϑ, ϑ) ≥ 0 ∀ϑ ∈ V
−
→
4. F(ϑ, ϑ) = 0 ⇐⇒ ϑ = 0 .
0.4.1 Exercícios
1. Seja V um k espaço vetorial. Para cada caso abaixo determinar se ⟨_, _⟩ : V × V → k é ou não
produto interno.
1. ||ω|| ≥ 0 ∀ω ∈ V.
2. ||λω|| = |λ|||ω|| ∀ω ∈ V, ∀λ ∈ k,
Proposição 0.4.4 (Fórmulas de polarização). Seja V um k-espaço vetorial com produto interno
⟨, ⟩ : V × V → k. Então:
Definição 0.4.5. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Dados vetores
ω, υ ∈ V a distância entre ω e υ, escrito d(ω, υ), é o número dado por
a aplicação d : V × V → R dada por d(ω, υ) = ||ω − υ|| é dita ser a função distância associada a
norma.
1. d(ω, υ) ≥ 0 ∀ω, υ ∈ V.
Teorema 0.4.7. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V×V → k. Dado um operador
linear T : V → V tem-se:
2. Se k = C e ⟨T ω, ω⟩ = 0 ∀ω ∈ V então T = [0].
Observação 0.4.8. O item (2) do Teorema 0.4.7 não vale se k = R. De fato, considere R2 com
produto interno canônico e T : R2 → R2 dado por T (x, y) = (−y, x). T é uma rotação de ângulo igual
a π2 . Logo ⟨T ω, ω⟩ = 0 ∀ω ∈ R2 e T ̸= [0].
Observação 0.4.11 (Cinco minutos de Loucura). Um conjunto não vazio munido de uma aplicação
que satisfaz as mesmas propriedades que a função distância , é dito ser um espaço métrico. Por-
tanto todo espaço vetorial com produto interno é um espaço métrico. A noção de métrica
em um conjunto traz consigo propriedades e definições que nos permitem falar em conjuntos abertos,
conjuntos fechados, continuidade e convergência. Por exemplo, uma sequência de vetores, {υn } em
um espaço com produto interno é dita convergir para ω se lim d(υn , ω) = 0, ou equivalentemente se,
n→∞
lim ||υn − ω|| = 0. Outros conceitos importantes na teoria de espaços métricos são: Fecho e comple-
n→∞
tude.Em espaços vetoriais de dimensão finita, com produto interno, todos os subespaços
são fechados e todos os operadores lineares são contínuos. Em espaço com dimensão infinita
isto não é verdadeiro.
0.4.3 Processo de ortogonalização de Gram- Schmidt
Definição 0.4.12. Seja V um k-espaço vetorial com produto interno ⟨, ⟩ : V × V → k. Diz-se que dois
vetoresω ⊥ υV são ortogonais, e escrevemos ω ⊥ υ, se
⟨ω, υ⟩ = 0.
Definição 0.4.15 (Complemento Ortogonal). Seja V um k-espaço vetorial com produto interno ⟨, ⟩ :
V × V → k. Dado um subconjunto S ⊂ V, não vazio,o conjunto
S ⊥ := {υ ∈ V; υ ⊥ ω ∀ω ∈ S}
Exercícios
Considere os seguintes espaços vetoriais com seus respectivos produto interno.
Escalar Espaço P. Interno
1. Para cada par ω, υ ∈ Vı ı ∈ {1, . . . , 14}. Calcule ||ω||, ||υ||, e ⟨ω, υ⟩.
2. Para cada item do exercício 1, calcule o subespaço ortogonal ao conjunto {ω, υ}, com respeito
ao produto interno correspondente.
3. Encontre uma base ortogonal, com respeito ao produto interno correspondente, para cada espaço
Vı definido na tabela 0.4.3.
4. Para cada item do exercício 1, calcule a projeção ortogonal de ω sobre υ, com respeito ao produto
interno correspondente.
ω1 := υ1
⟨υ2 , ω1 ⟩
ω2 := υ2 − ω1
||ω1 ||2
⟨υ3 , ω2 ⟩ ⟨υ3 , ω1 ⟩
ω3 := υ3 − [ ω2 + ω1 ]
||ω2 ||2 ||ω1 ||2
.. ..
. := .
⟨υı , ωı−1 ⟩ ⟨υı , ω1 ⟩
ωı := υı − [ ωı−1 + · · · + ω1 ]
||ωı−1 || 2 ||ω1 ||2
.. ..
. := .
⟨υn , ωn−1 ⟩ ⟨υn , ω1 ⟩
ωn := υn − [ ωn−1 + · · · + ω1 ]
||ωn−1 || 2 ||ω1 ||2
Com estas definições temos:
ω1 := υ1
ω2 := υ2 − λ21 ω1
ω3 := υ3 − λ32 ω2 + λ31 ω1 ]
.. .
. := ..
ωı := υı − [λıı−1 ωı−1 + · · · + λı1 ω1 ]
.. .
. := ..
ωn := υn − [λnı−1 ωn−1 + · · · + λn1 ω1 ]
em que 1 ≤ ȷ < ı ≤ n e { →
0 se ωȷ = 0
λıȷ := ⟨υı ,ωȷ ⟩ →
||ωȷ ||2
se ωȷ ̸= 0
Nestas condições temos:
1. O conjunto {ω1 , . . . , ωn } é um conjunto ortogonal que gera o mesmo subespaço gerado por S.
2. Eliminando-se os vetores nulos do conjunto {ω1 , . . . , ωn } obtém-se uma base ortogonal para o
subespaço gerado por S.
Exemplo 0.4.22.
Teorema 0.4.24 (Expansao de Fourier). Seja V um k-espaço vetorial, de dimensão finita, com produto
interno ⟨, ⟩ : V × V → k. Se Γ = {υ1 , . . . , υn } é uma base ortogonall de V, então:
⟨υ, υ1 ⟩ ⟨υ, υn ⟩
υ= υ1 + · · · + υn ∀υ ∈ V.
||υ1 ||2 ||υn ||2
Demonstração. . Em sala de aula.
Definição 0.4.25. Seja V um k-espaço vetorial, de dimensão finita, com produto interno ⟨, ⟩ : V×V →
k. Se Γ = {υ1 , . . . , υn } é uma base ortogonal de V, a expressão:
⟨υ, υ1 ⟩ ⟨υ, υn ⟩
υ= υ1 + · · · + υn
||υ1 ||2 ||υn ||2
⟨υ,υı ⟩
é dita ser a expansão de Fourier de υ com respeito a base ortogonal Γ. Cada escalar ||υı ||2
é dito ser
o coeficiente de Fourier de υ na direção υı .
Teorema 0.4.26. Seja V um k-espaço vetorial, de dimensão finita, com produto interno ⟨, ⟩ : V×V →
k. Dado um subespaço não trivial, W ⊂ V, tem-se:
⊕
V=W W⊥ .
Observação 0.4.27. O teorema 0.4.26 não vale em espaços de dimensão infinita. Para espaços de
dimensão infinita, V deve ser completo( Espaço de Banach).
Exemplo 0.4.28.
Definição 0.4.29 (Projeção ortogonal). Seja V um k-espaço vetorial, de dimensão finita, com produto
interno ⟨, ⟩ : V × V → k. dado um subespaço W ⊂ V, a aplicação ProjW : V → V que a cada vetor
υ associa o único vetor υo ∈ W tal que υ − υo ∈ W⊥ é um operador linear ao qual denominamos de
projeção ortogonal sobre W.
Proposição 0.4.31. Seja V um k-espaço vetorial de dimensão finita com produto interno ⟨, ⟩ : V×V →
k. Seja Γ = {ω1 , . . . , ωn } uma base de V. Se υ = (x1 , . . . , xn ) e ω = (y1 , . . . , yn ) são as coordenadas
dos vetores υ e ω na base Γ Então:
α11 · · · α1n y1
( ) .. ..
⟨υ, ω⟩ = x1 . . . xn ... ..
. . .
αn1 · · · αnn yn
em que αıȷ = ⟨ωı , ωȷ ⟩. Em particular, se Γ for uma base ortonormal então
∑
n
⟨υ, ω⟩ = x ı yı .
ı=1
0.4.6 Exercícios
1. Determine, para cada espaço vetorial correspondente, quais das expressões define um produto
interno.
[4] Lax,Peter D.,Linear Algebra, Pure and applied Mathematics: A Willey-Interscience Series of
texts, monographs and tracts. Wiley interscience publication,NY, 1996
[5] Noble, B. ,& Daniel, J. W.,Applied Linear Algebra, Prentice Hall, 1998.
[7] Santos, J. Plínio de O.,Introdução à Teoria dos Números, Coleção Matemática Universitária,
IMPA- CNPq, 1998
[8] Cláudio,D. Moraes & Marins, Jusara M.,Cálculo numérico computacional,Terceira edição, Ed
Atlas, 1988