Anda di halaman 1dari 42

Álgebra Linear e Geometria Linear

José J. Ramón Marı́


2
Notação e terminologia. Lógica
básica. Bibliografia

FUNÇÕES E NOTAÇÃO Tradicionalmente, quando temos funções entre conjuntos,


f : X → Y, g : Y → Z, chama-se a composição de f com g a função de X em Y que
designa, para cada x ∈ X, o elemento g(f (x)) de Z. Denota-se esta função por g ◦ f , e
assim (g ◦ f )(x) = g(f (x)). Se representarmos os dados acima por diagramas, obtemos o
seguinte:
f g
X → Y → Z,
mas os elementos seguem a trajetória
f g
x 7→ f (x) 7→ g(f (x)).

Aqui a ordem das funções fica ao invés, mas igual do que escrevemos f (x) e não xf ,
escrevemos g(f (x)) = (g ◦ f )(x) em vez de x f g.
Tendo presente esta ordem escolhida, examinamos o convênio seguinte.

Vetores linha ou coluna: costuma-se escrever um vetor na forma de coluna, em relação


a aplicações lineares, etc., i.e. equiparando f (x) com Ax, onde x é um vetor. No entanto,
a comodidade na impressão e a tradição geométrica fazem com que amiúde escrevamos
os vetores na forma de linha. Pedimos a indulgência do leitor nesse ponto – qualquer
exemplo de vetor linha é por estética ou ‘preguiça’.
(Falta papo sobre transpostas, i.e. se quisermos escrever sempre o vetor em forma de
linha, então temos que lidar com y T AT em vez de com Ay, onde y é o vetor coluna
y = xT . Daı́ a preferência por vetores coluna, para não pensar em xAT , já que a ordem
seguida com Ax se parece mais com f (x).)

0.1 Conjuntos e funções


As provas de igualdade de conjuntos, A = B compreendem a prova de A ⊂ B e a de
A ⊃ B.
Exemplo 0.1.1 (De Morgan) Dados A, B, C subconjuntos de um conjunto Ω que os
contém, temos:
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C).

3
A prova faz-se provando ambas as inclusões, i.e. ida e volta. Por exemplo, descrevendo
completamente os elementos:

(x ∈ A oux ∈ B) ex ∈ C ⇔ (x ∈ A ex ∈ C) ou(x ∈ A ex ∈ C) ou(x ∈ B ex ∈ C),

o qual prova a igualdade.


(No caso exposto, pode-se ver a igualdade do diagrama de Venn, mas como estamos
aprendendo a provar rigorosamente, deixamos o tema por enquanto.)

0.1.1 Funções
Uma função f : X → Y entre dois conjuntos é uma regra que manda para todo elemento
x ∈ X um elemento f (x) ∈ Y . A imagem de um subconjunto A ⊂ X, f (A), é definida
como f (A) = {f (x) : x ∈ A}.

0.1.2 (Propriedades básicas) Seja f uma função como acima.


1. Se A, B ⊂ X, então f (A ∪ B) = f (A) ∪ f (B).

2. Se A, B ⊂ X, então f (A ∩ B) ⊂ f (A ∩ B). Dê um exemplo de f para a qual a


inclusão é estrita.

3. Ache uma condição sobre f tal que a inclusão é sempre uma igualdade na parte
anterior.

A pré-imagem ou imagem recı́proca de um subconjunto B ⊂ Y é definida como

f −1 (B) = {x ∈ X : f (x) ∈ B}.

0.1.3 1. f −1 (B ∪ C) = f −1 (B) ∪ f −1 (C), e f −1 (B c ) = f −1 (B)c .

2. f −1 (B ∩ B) = f −1 (B) ∩ f −1 (C).

3. Para todo B ⊂ Y, f (f −1 (B)) ⊂ B. Dê um exemplo de f na qual a inclusão anterior


é estrita para algum B.

4. Na parte anterior, dê uma condição sobre f tal que a inclusão é uma igualdade para
todo B.

Bibliografia comentada
BIBLIOGRAFIA ÁLGEBRA LINEAR:

1) T. Apostol, CALCULUS (A TEORIA, desigual; exercı́cios OK)

2) Hoffman - Kunze, Linear Algebra (mais abstrato; bons exercı́cios)

4
3) Anton - Rorres: para quem tiver dificuldade com a matéria e precisar de explicações
mais extendidas)

4) Paulo Boulos et al (são mais fáceis do que o Anton - Rorres, só usar se tiver muita
dificuldade)

5) Eugenio Hernández, Álgebra Lineal y Geometrı́a (PDF, em espanhol, disponı́vel


online; magnı́fico para um tratamento bem simples da matéria, mas segue uma
ordem inversa à da gente no nosso curso, e por isso só usamos na parte de sistemas
de equações).

6) Tem mais um livro, M. Castellet - I. Llerena, ÁLGEBRA LINEAL Y GEOMETRÍA,


que é excelente, mas eu só aconselharia a compra a quem tivesse previsto um curso
no Impa, já que é demais inclusive para o ano inteiro. Pode-se conseguir uma cópia
gratuita PDF em catalão e espanhol na internet, e no Amazon dá para comprar o
livro em si. PORÉM, além dos exemplos resolvidos carece das soluções às questões
no final de cada capı́tulo.

5
6
Capı́tulo 1

Vetores no plano, espaço e Rn

O teorema de Pitágoras tem mais de 300 provas, e providenciamos duas (faltam figuras).
É o teorema que dá sentido às razões trigonométricas, no sentido que a identidade capital
cos2 θ + sen2 θ = 1 é consequência dele. (Costumam ter raı́zes no conceito de área. Neste
curso adotamos os axiomas da Álgebra Linear, que implicam os axiomas de Euclides e
contêm o conceito de área, que fica bem elaborado só em Cálculo II.)

Definição 1.0.1 O produto escalar de dois vetores em R2 (ou em R3 ) é dado pelas se-
guintes expressões equivalentes:

u • v = ||u||proju v = ||v||projv u = ||u||||v||cos(u, v).

Neste ponto, tomamos ainda a projeção como um número, positivo ou negativo.

(faltam figuras)

1.0.1 Propriedades do produto escalar


Das definições equivalentes acima, vemos gráficamente que o produto escalar satisfaz três
propriedades (acrescentar figuras!):

(ESC1) (simétrico) u • v = v • u;

(ESC2) (definido positivo) u • u √≥ 0, e u • u = 0 ⇒ u = 0. (Por isso a norma de um vetor


está bem definida: ||u|| = u • u);

(ESC3) (bilinear) (λu + λ0 u0 ) • v = λ(u • v) + λ0 (u0 • v), e analogamente u • (µv + µ0 v 0 ) =


µ(u • v) + µ0 (u • v 0 ).

Das propriedades anteriores, segue de maneira lógica a proposição embaixo.

Proposição 1.0.2 Sejam u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) vetores do espaço. Então, a


expressão analı́tica do produto escalar é

u • v = u1 v1 + u2 v2 + u3 v3 .

7
Corolário 1.0.3 As fórmulas seguintes são certas:
• cos(α + β) = cos(α)cos(β) − sen(α)sen(β);
• sen(α + β) = cos(α)sen(β) + sen(α)cos(β).
1.0.4 Prove o Corolário anterior visualmente, desenhando um triângulo retângulo de
ângulo α, e em cima outro de ângulo β, usando as propriedades da projeção ortogonal
(serve quando α, β são ângulos agudos!)
1.0.5 Prove o teorema do cosseno a partir das propriedades do produto escalar:
ku + vk2 = kuk2 + kvk2 + 2u • v.
Prove a Proposição 1.0.2 com isso.
1.0.6 Prove a desigualdade triangular: ku + vk ≤ kuk + kvk, com igualdade se e
somente se u = λv para λ ≥ 0 ou v = µu para µ ≥ 0.

1.0.2 Números complexos e geometria euclidiana no plano


No caso de C e o significado geométrico das operações em C, sejam z = a + bi, w = c + di
números complexos. Escrevendo eles na forma polar z = reiα , w = seiβ temos duas
expressões que coincidem:
zw = (ac + bd) + i(ad − bc),
zw = rsei(β−α) .
Igualando ambas as partes, vemos que
rsei(β−α) = (ac + bd) + i(ad − bc),
onde usamos as propriedades básicas do Corolário 1.0.3. Segue ao tomar normas acima
que:

|zw|2 = |z|2 |w|2 ,


ou em outras palavras:

(ac + bd)2 + (ad − bc)2 = (a2 + b2 )(c2 + d2 ).


1.0.7 (Curiosidade de Teoria dos Números) Dados dois números m, n que podem se
escrever como somas de dois quadrados perfeitos, averigue se o produto mn escreve-se
como soma de dois quadrados perfeitos também.
O seguinte exercı́cio vai ser muito útil quando tratarmos a desigualdade de Cauchy-
Schwarz em espaços hermitianos.
1.0.8 Sejam a um número complexo, b um número real. Prove que se a equação |z|2 +
Re(az) + b = 0 tem soluções, então |a|2 ≥ 4b. (Lembre que Re(.), Im(.) são as partes real
e imaginária de um no complexo.) Desenhe o conjunto solução.

8
1.1 Tarefas para casa, 2016
2) DO APOSTOL:
Os exercı́cios são do cap. 12 do vol. I do Apostol, 2a Edição em inglês.
- Seção 12.4 fiquem à vontade para fazer os que quiserem, e parem quando acharem chato
e monôtono. Acho normal vc’s terem zero dificuldade com a 12.4, e espero q seja jogo de
bola ou entediante sem dificuldade. Caso haja problemas, tragam na semana que vem.
- Seção 12.8 Exs. 19, 20, 22 - 25 (façam os que quiserem da 12.8, eu acho esses os mais
interessantes).

1.1.1 (Minha proposta) Após fazer o 25 da sec. 12.8, faça o seguinte: dados dois vetores
A, B não nulos de Rn , ache o valor de x ∈ R que minimiza a seguinte função:

||A + xB||.

1.1.2 (Essencial para entender o centro de massas de um sistema!) Dados m pontos


−→
A1 , · · · Am no Rn , e dado um ponto qualquer denotamos por P Q o vetor de inı́cio P e
final Q. Se G é o baricentro dos Ai , i.e.
1 1
G= A1 + . . . + Am ,
m m
e P um ponto qualquier, prove:
m m
X −−→ 2 X −−→ −→
||Ai P || = ( ||Ai G||2 ) + m||P G||2 .
i=1 i=1

1.1.3 (Uma de completar o quadrado!) Um extra, tb vai ajudar nas aulas: Dados dois
vetores de Rn , u, v, coloquem a expressão

(u21 + · · · + u2n )(v12 + · · · + vn2 ) − (u1 v1 + · · · + un vn )2


como uma soma de quadrados.

Observação: O exercı́cio anterior dá outro jeito de provar a desigualdade de Cauchy-


Schwarz, e também justifica a afirmação de que a norma do produto vetorial é a área,
i.e.
||u × v|| = ||u|| ||v||sen θ.

1.1.4 (Identidade de Lagrange, generalizada) Para números complexos, escrever como


uma soma de módulos ao quadrado a expressão
n
! n ! n
X X X
2 2
|αi | |βi | − | αi βi |2 .
i=1 i=1 i=1

9
1.1.1 Projeção ortogonal
(Faltam figuras)

Proposição 1.1.5 Seja v 6= 0. A projeção ortogonal de um vetor u na direção de v é


dada pela fórmula
u•v
v,
v•v
e existe um único λ tal que u + λv é ortogonal a v: λ = − u•v
v•v
.
Daı́, existe uma decomposição única de u em duas componentes, uma paralela a v e a
outra ortogonal a v:  u•v  u•v
u= u− v + v.
v•v v•v
Corolário 1.1.6 A função ||u + xv||2 escreve-se como segue:
u•v 2  u • v 2
||u − v|| + || x + v|| .
v•v v•v
E a respeito de um plano? Como é que faria? (Mais para a frente veremos.)

1.1.2 A desigualdade de Cauchy-Schwarz


A desigualdade no Rn foi provada por Cauchy, e seu aluno Schwarz achou uma elegante
prova (para integrais duplas), mas a prova mais conhecida usando o discriminante de uma
função quadrática, já universal, em sua forma atual foi devida a Hermann Weyl.

Teorema 1.1.7 (Desigualdade de Cauchy-Schwarz em Rn ) Sejam u, v ∈ Rn dois


vetores. Então, a seguinte desigualdade se satisfaz

(u • v)2 ≤ (u • u)(v • v),

com igualdade se e somente se u, v sáo proporcionais.

Supomos que v 6= 0, já que o caso v = 0 é tautológico.


Prova n. 1 Seja f (x) = ||u + xv||2 . Sabemos que
u•v 2  u • v 2
||u + xv||2 = ||u − v|| + || x + v|| .
v•v v•v
Então, se x = − u•v
v•v
, a função alcança seu mı́nimo, e é fácil ver que

u • v 2 (u • u)(v • v) − (u • v)2
||u − v|| = ≥ 0,
v•v v•v
que é 0 se e somente se u = u•vv•v
v. Em outras palavras, se v 6= 0, a componente normal de
u na direção de v é zero se e somente se u, v são proporcionais. 
Prova n. 2 A função quadrática seguinte (com v 6= 0), é positiva para todo valor de x:

10
f (x) = ||u + xv||2 ≥ 0, ∀x ∈ R.
Do estudo das parábolas, sabemos que o discriminante é então negativo. Explicitando
f (x) obtém-se
f (x) = ||v||2 x2 + 2(u • v)x + ||u||2 ≥ 0,
e daı́ seu discriminante

∆ = 4 (u • u)(v • v) − (u • v)2 ≤ 0,


e é nulo se e somente se a equação f (x) = 0 tem um zero duplo x0 , quer dizer u + x0 v = 0,


o qual equivale (quando v 6= 0) a dizer que u, v são proporcionais. 
A seguinte proposição permite-nos de providenciar mais outra prova da desigualdade de
Cauchy-Schwarz nos reais:

Proposição 1.1.8 (Identidade de Lagrange) A diferença (u21 +· · · u2n )(v12 +· · ·+vn2 )−


(u1 v1 + · · · + un vn )2 admite uma expressão em soma de quadrados, i.e.
X
(u21 + · · · u2n )(v12 + · · · + vn2 ) − (u1 v1 + · · · + un vn )2 = (ui vj − uj vi )2 .
1≤i<j≤n

Prova: Mais do que comprovar a fórmula acima, vamos obtê-la desde zero.
Os termos a subtrair são
X
(u21 + · · · u2n )(v12 + · · · + vn2 ) = u2i vj2 ,
1≤i,j≤n

e X
(u1 v1 + · · · + un vn )2 = ui vi uj vj ,
e comparando é razoável separar ambos os duplos somatórios em blocos i = j e i 6= j,
se bem que é ainda melhor agrupar os termos (i, j) e (j, i) quando i 6= j. Deste modo
obtemos
n
!
X X
(A) = (u21 + · · · u2n )(v12 + · · · + vn2 ) = u2i vi2 + u2i vj2 + u2j vi2 ,
i=1 1≤i<j≤n
e !
n
X X
(B) = u2i vi2 + 2ui vi uj vj .
i=1 1≤i<j≤n

Aparece agora uma soma de quadrados na diferença:


X X
(A) − (B) = u2i vj2 + u2j vi2 − 2ui vj uj vi = (ui vj − uj vi )2 .
1≤i<j≤n 1≤i<j≤n

11
1.1.9 Vistas a desigualdade de Cauchy-Schwarz, e a identidade de Lagrange, temos o
seguinte enunciado, que pedimos ao leitor resolver.
Prove que, dados dois vetores u, v ∈ Rn , eles são proporcionais (i.e. LD) se e somente se
os seguintes termos são todos nulos:

ui vj − uj vi = 0, para todo i < j.

Prova: Suponha que u 6= 0, e seja i tal que ui 6= 0. Da hipótese segue para todo j (j 6= i,
mas é óbvio se j = i) que
ui vj − uj vi = 0,
e daı́
vi
vj = uj .
ui
Em outras palavras, v = uvii u. O resto é análogo. 
Observe que a prova anterior vale também para o caso de Cn (os escalares são números
complexos nesse caso).

1.2 Dependência e independência linear em Rn


Em capı́tulos posteriores vamos generalizar a seção a espaços vetoriais quaisquer.

Definição 1.2.1 Dada uma coleção (finita) de vetores (ui )i≤r ∈ Rn , λi ∈ R, uma com-
binação linear dos ui (e coeficientes λi é uma expressão
r
X
λi ui .
i=1

Definição 1.2.2 Sejam ui como acima. Diz-se que {u1 , . . . , ur } é um conjunto linear-
mente independente (LI) de vetores se e somente se, dada uma combinação linear
dos ui que é nula, X
λi ui = 0,
os coeficientes são necessariamente nulos, i.e. λ1 = . . . = λr = 0.

Definição 1.2.3 ui como acima. Dizemos que P os ui são linearmente dependentes


(LD) se existe uma combinação linear nula, λi ui = 0, cujos coeficientes não são todos
nulos.

Exemplo 1.2.4 Dois vetores u, v são paralelos (i.e. proporcionais) se e somente se são
LD.

Exemplo 1.2.5 Estude se os vetores (2, 1), (2, 3), (1, 2) ∈ R2 são LI ou LD.

12
Exemplo 1.2.6 Dado um conjunto finito S de vetores de Rn , suponha que S é LI. Prove
que, se S 0 ⊂ S, então S 0 é LI.

Prova: Suponha que S 0 = {u1 , . . . , ur } ⊂ S = {u1 , . . . , us } (e portanto r ≤ s). Então,


tome-se uma combinação linear nula dos ui , com i ≤ r:

α1 u1 + . . . + αr ur = 0.

Pode-se ver como uma combinação linear s1 αi ui = 0, onde αi = 0 para i > r. Então,
P
vemos que αi = 0, ∀i, já que S é LI. 

1.2.7 Q1) (i) Sejam u, v vetores de Rn não paralelos. Considere os vetores A = au +


bv, B = cu + dv. Prove que se (a, b) e (c, d) não proporcionais, então os vetores A, B
formam base do subespaço Span{u, v} de Rn .
(ii) Sejam w1 , w2 , w3 vetores de Span{u, v}. Prove que eles são LD.
Apostol, seção 12.11: 4,6,7,10,11 14 (examine quais das propriedades 1,2,3 do produto
escalar se satisfazem, e veja se Cauchy-Schwarz é certa).
Q2) Seja S um subconjunto finito de Rn . Se 0 ∈ S, veja que S é LD.
Q3) Sejam A1 , ...Ar um sistema (conjunto) ortogonal de vetores de Rn (distintos todos).
Se todos são não nulos, veja que eles são LI.
No caso que um deles for nulo, o que acontece?
Apostol, Seção 12.15 1, 5, 7, 8, 9, 12, 14(b), 15, 19, 20
Apostol, Seção 12.18 - todos.

Proposição 1.2.8 Seja S = {u1 , . . . , ur } uma coleção finita de vetores de Rn . Então, os


ui são LD se e somente se existe um i tal que ui é combinação linear dos uk , para k 6= i.

Definição 1.2.9 Um subespaço vetorial (ou s.e.v.) de Rn é um subconjunto que


satisfaz as propriedades seguintes:

(SEV1) u, v ∈ F ⇒ u + v ∈ F ;

(SEV2) u ∈ F, λ ∈ R ⇒ λu ∈ F.

Ambas as propriedades são equivalentes à seguinte:

(SEV )u, v ∈ F, λ, µ ∈ R ⇒ λu + µv ∈ F.

Exemplo 1.2.10 Prove que a condição (SEV) equivale às condições simultâneas (SEV1),
(SEV2).

Definição 1.2.11 Seja S ⊂ Rn um subconjunto. Chamamos de s.e.v. gerado por S o


subconjunto das combinações lineares formadas por elementos de S,
r
X
hSi = Span(S) = L(S) = { αi si , com αi ∈ R, si ∈ S, r ∈ N}.
i=1

13
1.2.12 Prove que hSi é um s.e.v. de Rn .

Exemplo 1.2.13 Dados F, G ⊂ Rn s.e.v.’s, prove que F ∩ G é também um s.e.v.

Definição 1.2.14 Seja S ⊂ Rn um subconjunto. Dizemos que um s.e.v. F de Rn está


gerado por S se hSi = F.

Definição 1.2.15 Sejam F, G s.e.v.’s de Rn . Chama-se F + G ao s.e.v. F + G =


{u + v|u ∈ F, v ∈ G.}.

1.2.16 Sejam F, G s.e.v.’s de Rn . Então, F + G = hF ∪ Gi.

Definição 1.2.17 Seja F ⊂ Rn um s.e.v. Uma base de F é um subconjunto LI, S ⊂ F ,


que gera F , i.e. hSi = F.

Proposição 1.2.18 Seja S ⊂ Rn um subconjunto finito que gera um s.e.v. F , i.e. F =


hSi. Suponha que S é LD, e seja u ∈ S combinação linear de elementos de S 0 = S \ {u}.
Então, se substituimos S por S 0 obtemos hS 0 i = F . Se continuarmos o processo, acabamos
com um subconjunto Sf inal ⊂ S tal que hSf inal i = F, e Sf inal é LI. Em outras palavras,
Sf inal é uma base de F .

Teorema 1.2.19 Seja F ⊂ Rn um s.e.v. que possui uma base de k vetores. Então, todo
subconjunto de F de cardinal ≥ k + 1 é LD.

Prova: Procedemos por indução sobre k. Se k = 1, é óbvio. Chamemos de ui a base


fixada de F . Sejam v1 , · · · , vk+1 ∈ F vetores. Cada vetor tem uma única expressão
k
X
vi = aji uj .
j=1

Se a1i = 0 para todo i, então vi ∈ hu2 , · · · , uk i, e o Teorema segue da hipótese de indução.


Se para um deles, digamos v1 , a11 6= 0, pode-se assumir por simplicidade que a11 = 1 após
multiplicar v1 por um escalar não nulo, i.e. trocando v1 por a11 v1 . Mas então: v1 , · · · , vk+1
1
geram o mesmo s.e.v. do que v1 , v2 − a21 v1 , · · · , vk+1 − ak+1 1 v1 . Por hipótese de indução,
j
vj − a1 v1 ∈ hu2 , · · · , vk+1 i são LD, i.e. para αi nem todos nulos satisfaz-se
k+1 k+1
! k+1
X j
X X
`
0= αj (vj − a1 v1 ) = − α` a1 u1 + αj vj ,
j=2 `=2 j=2

cujos coeficientes não são todos nulos. 

Corolário 1.2.20 (Invariância da dimensão) Seja F ⊂ Rn um subespaço vetorial.


Então, existe uma base de F , que tem cardinal ≤ n. Duas bases diferentes de F tem o
mesmo cardinal. Esse cardinal é chamado de dimensão de F .

14
Prova: Suponha que existem duas bases (ui )i≤r , (vj )j≤s de F , e que r 6= s. Por simetria,
basta fazer o caso r > s, i.e. r ≥ s + 1. Pelo Teorema 1.2.19, os vetores u1 , . . . ur são LD,
o qual contradiz a hipótese r > s.
Agora falta provar que uma tal base de F existe. Formemos uma cadeia de s.e.v.’s
Fi ⊂ Fi+1 ⊂ F como segue: se F 6= 0, tome-se v1 ∈ F \ {0}. Se Fi 6= F , tome-se
vi+1 ∈ F \ Fi . O processo dá lugar a um sistema LI de vetores, v1 , v2 . . . e pelo Teorema
1.2.19, tem que parar no máximo em n passos. 
É muito recomendável tentar resolver o Corolário seguinte como um exercı́cio antes de ler
a prova.
Corolário 1.2.21 Sejam v1 , . . . , vn ∈ Rn n vetores de Rn . As afirmações seguintes são
equivalentes.
(i) Os vetores v1 , . . . , vn são LI.

(ii) Os vetores v1 , . . . , vn geram Rn , i.e.

hv1 , . . . , vn i = Rn .

(iii) Os vetores v1 , . . . , vn formam base de Rn .


Prova: Basta provar que (i) ⇔ (ii), já que (iii) é equivalente a (i) e (ii).
Suponha (i), i.e. v1 , . . . , vn são LI. Se eles não geram todo Rn , então existe w ∈
/ hv1 , . . . , vn i.
Lema 1.2.22 (Exercı́cio) Suponha que os vetores v1 , . . . , vk ∈ Rn são LI. Então, dado
w ∈ Rn , os vetores v1 , . . . , vk , w são LD se e somente se w ∈ hv1 , . . . , vk i.
Usando o Lema 1.2.22, vemos que se v1 , . . . , vn , w são tais que w não fica no subespaço
gerado pelos vi , i ≤ n, então v1 , . . . , vn , w são LI, o qual contradiz o ‘Teoremão’. Conclui-
se que v1 , . . . vn são base de Rn .
Suponha que v1 , . . . , vn geram Rn . Se eles forem LD, então pela Proposição 1.2.18
existe um subconjunto LI que gera o mesmo subespaço, i.e. um subconjunto Sf inal ⊂
, {v1 , . . . , vn } LI que gera hv1 , . . . , vn h= Rn , e cujo cardinal é r ≤ n−1, por serem v1 , . . . , vn
LD. Mas isso significa que Sf inal é uma base de Rn de cardinal r ≤ n − 1, o qual contradiz
a invariância da dimensão. 

1.2.23 (Exercı́cio resolvido) Prove o Lema 1.2.22.

Solução: Se w ∈ hv1 , . . . , vk i, então claramente v1 , . . . , vk , w são LD (diretamente ou


usando a caracterização). Agora, suponha que v1 , . . . , vk , w são LD: isso significa que
existem coeficientes αi , β nem todos nulos tais que

α1 v1 + · · · + αk vk + βw = 0.

Como os coeficientes não são todos nulos, β 6= 0, já que se for zero, α1 = 0, · · · , αk = 0
por independência linear de v1 , · · · , vk , e portanto β 6= 0. É fácil agora isolar w como
combinação linear de (vi )i≤k , como já foi feito na caracterização de dependência linear. 

15
Corolário 1.2.24 Sejam F ⊂ G dois s.e.v.’s de Rn . Então, toda base de F completa-se a
uma base de G, e dim F ≤ dim G. A desigualdade se torna uma igualdade se e somente
se F = G.

Prova: De fato, se r é a dimensão de F e s é a dimensão de G, temos que, se F 6= G,


uma base de F , u1 , . . . , ur pode-se extender passo a passo a uma de G de modo similar à
prova do Corolário 1.2.20: tome-se ur+1 que não pertença a F, e para i > r, tome ui ∈ G
fora de h{uj }j≤i−1 i. Então, a base de G tem um cardinal s ≥ r + 1 > r. 

1.2.25 Seja S ⊂ Rn o subconjunto definido pelas equações

x1 + x2 + . . . + xn = 0,

x1 + 2x2 + . . . + nxn = 0.
É S um SEV? Se é, calcule sua dimensão.

1.3 Problemas
(Seguem dois exercı́cios de provas passadas do Cel. Jorge. Falta dar as defs. de LI, LD)
n
Pnu1 , . . . ,2un ∈ R vetores, e seja ei a base canônica. Prove que, se ei + ui são
1.3.1 Sejam
LD, então i=1 ||ui || ≥ 1.

1.3.2 2. Sejam v1 , . . . , vn ∈ Rn − {0} vetores não nulos. Supondo certo o enunciado de


1.3.1, prove o seguinte enunciado:
se denotamos o ângulo entre ei e vi por θi , se a seguinte desigualdade se satisfaz:
n
X 1
cos θi > n − ,
i=1
2

então vi é base de Rn .

1.3.3 Calcule a dimensão do subespaço vetorial gerado por u = (a, a2 , a3 ), v = (b, b2 , b3 ), w =


(c, c2 , c3 ) onde a, b, c são três números distintos não nulos. Em particular, determine se
u, v, w são LI ou LD.

1.3.4 Prove com as ferramentas já aprendidas que, se temos um sistema de m equações
lineares homogêneo em n incôgnitas com n > m, então existe uma solução não nula do
sistema.

1.3.5 Seja S = {(x1 , . . . , xn )|x1 + 2x2 + . . . + nxn = 0} ⊂ Rn . Determine se S é um


subespaço vetorial. Se não, diga por que; se sim, dê a dimensão e providencie uma base.

1.3.6 Sejam fk (x) = ekx funções exponenciais, k = 1, 2, 3. São as fk LI ou LD?

16
1.3.1 Fórmula de Grassmann (ou ‘da dimensão’)
A fórmula é parecida com o princı́pio de inclusão-exclusão (para dois conjuntos).

Teorema 1.3.7 (Fórmula de Grassmann) Seja E um e.v., e sejam F, G SEVs. Su-


ponha que F, G têm dimensão finita. Então:

dim(F + G) + dim(F ∩ G) = dim F + dim G.

Prova: Seja ui , i ≤ r uma base de F ∩ G. Complete ela, por um lado, a uma base de F :
então, obtemos ui (i ≤ r), vj (j ≤ h), onde dim F ∩ G = r, dim F = r + h. Faça o mesmo
com G, i.e. complete a base ui de F a uma base ui (i ≤ r), wk (k ≤ `) de G.
AFIRMAÇÃO: ui , vj , wk são base de F + G. De entrada, vemos que F + G está gerado
pela união dos dois conjuntos geradores de F e G já obtidos, e essa união é o conjunto
descrito. Falta provar sua independência linear.
Suponha que X X X
αi ui + βj vj + γk wk = 0.
i j k

Passamos o último somando para o membro direito, e fica:


X X X
A= αi ui + βj vj = − γk wk .
i j k

Chamando o vetor resultante de A, o lado esquerdo (agora no meio) dá A ∈ F. Da


Pque A ∈P
igualdade com o lado direito segue G! Em outras palavras, A ∈ F ∩ G.
Voltamos para a expressão A = i αi ui + j βj vj ∈ F ∩ G. Como a base ui de F ∩ G
 P comvj até uma base de F , vemos que A ∈ F ∩ G se e somente se A =
é completada
P
i λi ui + j 0vj , mas como as coordenadas são únicas por serem ui , vj base de F
temos: αi = λi , βj = 0! Agora, voltando para a igualdade temos
X X
αi ui = − γk wk ,
i k

e como ui , wk são LI, vemos que αi = 0 = γk . Acabamos de provar que o conjunto da


afirmação é LI, e como gera F + G, temos que dim F + G = r + h + `, e basta juntar tudo
para ver que (r + h + `) + ` = (r + h) + (r + `), o qual corresponde à fórmula desejada. 

1.4 Mexendo a origem. Coordenadas baricéntricas e


cartesianas
P Ai no espaço n-dimensional, e dados coeficientes λi ∈ R, o que significa a
Dados pontos
expressão λi Ai ?

17
Se estivermos no Rn , e isso implica também que a origem está fixada, temos um significado
−−→
unı́voco: nos referimos à combinação linear das coordenadas dos vetores de posição OAi ,
que identificamos com Ai .
A pergunta é, será que essas combinações lineares têm significado intrı́nseco, sem depender
da origem escolhida? Vamos ensaiar dois tipos de expressões.

Exemplo 1.4.1 Dados A, B pontos de Rn , comprove se a expressão A+B tem significado


coherente se mudar a origem.
Em outras palavras, pede-se calcular, dadas orı́gens O1 , O2 , como varia o ponto Pi obtido
da seguinte forma:
−−→ −−→ −−→
Oi Pi = Oi A + Oi B.
−−→
Calcule o vetor diferença P1 P2 em função de O1 , O2 .

Exemplo 1.4.2 Dados os pontos A, B, C no plano (que supomos não alinhados por sim-
plicidade), escrevemos a expressão

A + 2B − 3C.

Comprove que tal expressão designa um vetor, que é o mesmo independentemente da


origem escolhida.
−→ −−→
Nesse caso, podemos juntar os pontos e escrever A + 2B − 3C = CA + 2CB, que é
claramente um vetor, que não muda segundo a origem. 
Em geral, temos a seguinte proposição.

Proposição 1.4.3 Sejam P1 , · · · , Pm pontos no espaço n-dimensional, e sejam λi coefi-


cientes reais.
P
1. A expressão λi Pi designa um ponto único e independente da escolha da origem
se e somente se m
X
λi = 1.
i=1
P
2. A expressão λi Pi designa um vetor único e independente da origem se e somente
se m
X
λi = 0.
i=1

Prova: Por um lado, temos que, se Mj são os pontos definidos nas origens Oi para
i = 1, 2, então
−−−→ X −−→
(1.1) O1 M1 = λi O1 Pi ,

−−−→ X −−→
(1.2) O2 M2 = λi O2 Pi ,

18
e portanto os pontos M1 , M2 diferem no vetor
−−−−→ −−−→ −−−→ −−−→ −−−→ −−−→
M1 M2 = O2 M2 − O2 M1 = O2 M2 − O2 O1 − O1 M1 ,
que à sua vez, após usar (1.1) e (1.2) é igual a
X −−−→ −−−→ h X i −−−→
λi O1 O2 − O1 O2 = ( λi ) − 1 O1 O2 .

A prova da segunda parte é praticamente idéntica: cada vez que vemos a expressão B −A,
−→
podemos assumir que é o vetor AB, e de fato se tomar duas origens diferentes Oi é fácil
ver que
−−→ −−→ −−→ −−→ −→
O1 B − O1 A = O2 B − O2 A = AB.
−→ −−→
Igualmente, A −P 3B + 2C = BA + 2BC designa um vetor (independentemente
P da origem
escolhida), e se λi = 0, então igualmente acontece com λi = 0. 
Do visto acima, conclui-se a seguinte expressão para os pontos da reta que passa por dois
pontos distintos do espaço n-dimensional, A, B.
−→
Um ponto arbitrário da reta AB é sempre da forma P = A + λAB, quer dizer,
P = A + λ(B − A) = (1 − λ)A + λB,
e o jeito apresentado, interpretando λ como parâmetro tempo, é o de um movimento
retilı́neo uniforme que começa em A e chega em tempo 1 em B. O segmento propriamente
dito é o seitor 0 ≤ λ ≤ 1. O leitor pode comprovar que pontos correspondem aos valores
λ = 21 , 13 , 23 .

Definição 1.4.4 Sejam A, B, C pontos do plano formando triângulo, i.e. não alinhados.
Para todo ponto do plano existem λ, µ, ν ∈ R únicas e independentes da origem a esco-
lher, tais que λ + µ + ν = 1, e P = λA + µB + νC. Elas chamam-se de coordenadas
baricéntricas associadas ao triângulo, ou aos pontos A, B, C.

Já vimos acima as “coordenadas baricéntricas”associadas a dois pontos de uma linha.


Agora simplesmente generalizamos.

Exemplo 1.4.5 Comprove que λ, µ, ν > 0 corresponde ao interior do triângulo ABC.


Veja quais são os pontos em que λ = 0 (resp. µ = 0, ν = 0).

Vamos fazer uma reflexão quanto aos ‘graus de liberdade’ que providenciam as coorde-
−→ −→ −→
nadas baricéntricas. Se tomarmos uma origem A, temos que AP = µAB + ν AC para
µ, ν únicos (fixe a origem em A e desenhe uma grade com os vetores como padrão, ou
use o próximo tema de dependência linear). Então, na verdade tenemos dois graus de
liberdade, já que λ = 1 − µ − ν é univocamente determinado por µ, ν.

Exemplo 1.4.6 (Existência do baricentro de um triângulo) Sejam A, B, C pontos


não alinhados. Prove que as medianas do triângulo cortam num ponto (que é chamado
de baricentro ou centroide).

19
Solução do exemplo: Seja mA a mediana do lado BC, i.e. cujo ponto genérico é dado
por
1 1
Pλ ≡ (1 − λ)A + λ( B + C).
2 2
Igualmente, mB é dada pelo ponto genérico
1 1
Qµ ≡ (1 − µ)B + µ( A + C).
2 2
Expandindo e intersectando ambas retas dá:
λ λ µ µ
(1 − λ)A + ( B + C) = A + (1 − µ)B + + C.
2 2 2 2
Agora, podemos igualar todos os coeficientes, ou lembrar que quando aA + bB + cC =
−→ −→
a0 A + b0 B + c0 C em coordenadas baricéntricas, tomando origem em A dá bAB + cAC =
−→ −→
b0 AB + c0 AC (use que ambos são LI!). Vemos, então, que λ = µ = 13 , e por simetria, o
ponto mA ∩ mB pertence a mC . 

1.5 Problemas
Apostol, todo o Cap. 13, mais outros.

1.5.1 Considere o subconjunto de Rn dado pelas equações

x1 + x2 + . . . + xn = 0,

x1 + 2x2 + . . . + nxn = 0.
Prove que é um subespaço vetorial, e dê uma base para S.

1.6 O produto escalar em Cn


Todos os conceitos que definimos sobre R: LI, LD, subespaço vetorial gerado por um
conjunto de vetores, etc. valem quando adotamos C como corpo de escalares. Por tanto,
quando dizemos que dois vetores u, v ∈ Cn são proporcionais, dizemos que u = λv para
algum λ ∈ C ou v = µu para algum µ ∈ C. Um exemplo básico na Mecânica Quântica
onde aparece o espaço vetorial C2 é o problema da dupla fenda, veja Penrose, The Road to
Reality. Outro contexto no qual fica clara a utilidade de este tipo de produtos é quando se
opta por escrever combinações lineares de cos kx, sin kx(k ∈ N) em função de exponenciais
imaginárias. Isso é parte do estudo das Séries de Fourier.
Dado que C = R2 , a primeira pergunta é que necessidade há de definir um novo produto
escalar para Cn se já temos o canónico para R2n : basta identificar

Cn = C × . n. . × C = R2 × . n. . × R2 = R2n ,

20
e usar o canônico de Rn . Sejam u, v ∈ Cn e ui , vi suas componentes complexas. Escreva
agora uk = a2k−1 + ia2k , vk = b2k−1 + ib2k ; pela identificação, u corresponde a A =
(a1 , · · · , a2n ). Então, seu produto escalar como vetores de R2n é:

(a1 b1 + a2 b2 ) + (a3 b3 + a4 b4 ) + · · · (a2n−1 b2n−1 + a2n b2n ).

Exemplo 1.6.1 Em C2 , tome os pares de vetores A = (i, −1), B = (−1, −i) e u =


(1, i + 1), v = (1 − i, 2). Então, o produto escalar de A, B em R4 dá zero, embora B = iA.
Vemos que esse produto escalar perde informação como a proporcionalidade! No caso de
Rn vê-se a proporcionalidade de v 0 , v 00 quando |v 0 • v 00 | = kv 0 k· kv 00 k.

Começamos o curso expondo a fórmula do produto de dois números complexos, e exami-


nando nela a informação geométrica que tem na álgebra, no parágrafo 1.0.2.

Definição 1.6.2 Sejam u = (u1 , · · · , un ), v = (v1 , · · · , vn ) ∈ Cn . O produto escalar


hermitiano de u, v define-se como:
n
X
u•v = uk vk .
k=1

Note-se que no caso k = 1, o cálculo resulta uv, e portanto a parte imaginária é menos
a área orientada, o qual difere da nossa exposição no parágrafo 1.0.2. De fato, os fı́sicos
conjugam as componentes do primeiro vetor, e deixam sem conjugar as do segundo – fique
atento, então, quando ler um livro de matemática para fı́sicos ou de fı́sica.
Cabe notar que Re u • v coincide com o produto escalar em R2n , feitas as identificações
oportunas como acima. Na definição dada, acrescenta-se, porém, uma parte imaginária
que contém informação valiosa, resumida na Proposição seguinte.

Proposição 1.6.3 (Propriedades básicas do produto escalar hermitiano) As se-


guintes propriedades se satisfazem:

1. v • u = u • v;

2. (C-linear à esquerda) Se λ0 , λ00 ∈ C, v, u, u0 ∈ Cn , então

(λ0 u0 + λ00 u00 ) • v = λ0 (u0 • v) + λ00 (u00 • v);

3. (C-antilinear/semilinear à direita) Se µ0 , µ00 ∈ C, v 0 , v 00 , u ∈ Cn então

u • (µ0 v 0 + µ00 v 00 ) = µ0 u • v 0 + µ00 u • v 00 ;

4. (definido positivo)
√ u • u ≥ 0, e u • u = 0 ⇒ u = 0. (A norma de u ∈ Cn define-se
como kuk = u • u, e concorda com a norma euclidiana de R2n com a identificação
usual).

21
A segunda e terceira propriedade juntas chamam-se de sesquilinearidade. O prefixo
sesqui significa ‘um e meio’ (i.e. ‘meio linear’ na segunda componente).
Deixamos a prova como exercı́cio ao leitor.
Exemplo 1.6.4 Calcule o produto escalar hermitiano para os pares de vetores do Exemplo
1.6.1. Note que, se bem que A, iA aparecem como ortogonais em R4 , agora A • iA =
(−i)A • A = −2i e a objeção levantada no Exemplo 1.6.1 some (agora aquele 0 do produto
escalar em R4 é só a parte real do nosso produto escalar hermitiano). Por outro lado,
u, v são também proporcionais, e pode-se aplicar a sesquilinearidade para calcular de dois
jeitos o mesmo resultado u • v.
Deixa-se a observação seguinte ao leitor.
1.6.5 Sejam u, v ∈ Cn , tais que u • v 6= 0. Então, existem r > 0 e um número complexo
de módulo 1, eiθ tal que u • v = reiθ , únicos, e podemos escrever de fato u • eiθ v = r ≥ 0.

1.6.1 Ortogonalidade e projeção em Cn


Diz-se que u ∈ Cn é ortogonal a v ∈ Cn se u • v = 0. Dado que v • u = u • v, dizer que u
é ortogonal a v equivale a dizer que v é ortogonal a u, e por isso dizemos que os vetores
u, v são ortogonais (i.e. sem ordem).
Dado v 6= 0, existe um único λ tal que u − λv é ortogonal a v (visto anteriormente no
caso de R, a conta é a mesma). O coeficiente λ é
u•v
λ= .
v•v
Então, a projeção de u na reta (complexa) gerada por v é u•v
v•v
v, e a componente normal
de u a respeito de v é
u•v
u− v.
v•v
A componente normal minimiza a distância, igual do que no caso real: o teorema de
Pitágoras funciona igual do que no caso real (mesma prova), e se tentamos estabelecer
algo parecido ao teorema do cosseno batemos com o seguinte:
(u + v) • (u + v) = u • u + v • v + (u • v + v • u),
e o terceiro termo da esquerda é 2Re u • v. O ângulo entre u e v é o mesmo do que
identificando Cn com R2n (veja a parte real na fórmula; o resto é deixado ao leitor).

1.6.2 A desigualdade de Cauchy-Schwarz hermitiana


Teorema 1.6.6 (Desigualdade de Cauchy-Schwarz hermitiana em Cn ) Sejam u, v ∈
Cn dois vetores. Então, a seguinte desigualdade se satisfaz
|u • v|2 ≤ (u • u)(v • v),
com igualdade se e somente se u, v sáo proporcionais, i.e. v = λu para algum λ ∈ C ou
u = µv para algum µ ∈ C.

22
Prova: Tem tantas provas de esta desigualdade. Vamos escrever primeiro uma baseada
plenamente na versão real para R2n .
Tome u, v ∈ Cn tais que u • v 6= 0 (se for igual a zero, a desigualdade é imediata, bem
como os casos em que a igualdade se dá). Neste caso, podemos utilizar a Obs. 1.6.5, e
temos:

u • eiθ v = r > 0.
Agora, podemos aplicar a desigualdade de Cauchy-Schwarz a Re(u • v), i.e. ao produto
escalar canônico de R2n identificando C com R2 , e temos:

r2 ≤ (u • u)(eiθ v • eiθ v),

e o lado direito coincide com (u • u)(v • v) (propriedades elementares do produto hermi-


tiano). Daı́, temos que a desigualdade é certa, e a igualdade se satisfaz para o produto
escalar em R2n (com vetores u, eiθ v), i.e. r2 = (u • u)(v • v) se e somente se os vetores em
R2n correspondentes a u, eiθ v são proporcionais em R2n , i.e. (dado que são os dois não
nulos) u = λ(eiθ v) para algum λ ∈ R. Mas isso equivale a dizer que u, v são proporcionais
em Cn , considerando o número complexo λeiθ ! Isso conclui esta prova. 

Dica para várias outras provas: O leitor já deveria ser capaz de obter várias outras
por conta própria nessa altura do curso. Para outras provas, pegue os parágrafos de:
kA + zBk2 , componentes normais, etc. e escreva tudo para z ∈ C. Por exemplo, se v 6= 0,
a norma da componente normal de u sobre v é positiva, e abrindo a conta isso já dá mais
uma prova da desigualdade de Cauchy-Schwarz hermitiana. 

23
24
Capı́tulo 2

Aplicações do cálculo vetorial à


geometria analı́tica

2.1 Retas em Rn
Sejam A, B pontos distintos de Rn . Eles geram uma única reta, que corresponde ao sub-
conjunto LA,B = {(1 − λ)A + λB|λ ∈ R}.
Outro jeito equivalente de definir uma reta é a de especificar um ponto e um vetor diretor,
ou um ponto e um subespaço vetorial de dimensão 1 de Rn :

L := p + hui = {p + λu|λ ∈ R}.


Diz-se que duas retas r : p + hui, s : q + hvi são paralelas se os vetores diretores são
paralelos, i.e. hui = hvi.
Utilizando o exercı́cio 1.1.9, obtemos a seguinte caracterização de uma reta.

Proposição 2.1.1 O ponto genérico x de uma reta dada por um ponto fixado p ∈ Rn e
pelo subespaço gerado pelo vetor u ∈ Rn − {0} é dado pelas equações seguintes:

(xi − pi )uj − (xj − pj )ui = 0, para todo i 6= j.

De fato, dado um j0 tq uj0 6= 0, basta considerar as n − 1 equações dadas por i 6= j0 .

Observa-se na proposição anterior que ficam os pontos da reta parametrizados pela coor-
denada xj0 . Daı́, chegamos à equação paramétrica da reta.

Proposição 2.1.2 Duas retas não paralelas do plano R2 cortam exatamente num ponto.
Se forem paralelas, então ou são iguais ou não cortam.

Prova: No primeiro caso, u, v são LI. Isso significa que dimhu, vi = 2, i.e., u, v são base
de R2 . O sistema de equações para a interseção de r, s é então

p + λu = q + µv,

25
o qual equivale a

(2.1) λu − µv = →

pq,

o qual tem uma única solução, sendo u, v base de R2 . No caso de r, s paralelas, a solução
existe se e somente se →

pq ∈ hui = hvi. Se isso acontecer, v = au com a 6= 0, e (2.1)
equivale a:

(2.2) (λ − aµ)u = →

pq,

e em caso de existir solução, λ pode tomar qualquer valor, o qual implica r ⊂ s. Ana-
logamente µ também toma todos os valores no conjunto solução (exercı́cio), e portanto
s ⊂ r. 
2.1.3 Em R3 acontece que duas retas não paralelas podem não cortar. Em termos do
sistema de equações que resulta, isso seria dizer que (2.1) não tem solução, o que equivale
a dizer que →
− / hu, vi. Em outras palavras, os vetores u, v, →
pq ∈ −
pq são LI. Dizemos então que
as duas retas são reversas.
Quando descrevemos uma reta como ` = P + hui, é claro que não temos unicidade do
ponto escolhido (“ponto inicial”’) P e do vetor diretor u.

2.1.4 Podemos caracterizar uma reta ` ⊂ Rn do modo seguinte. ` é não vazio, e existe
um vetor u 6= 0 tal que, para todo ponto p, a reta descreve-se como o conjunto dos pontos
q tais que →−
pqku. Isso equivale a dizer que, dado p ∈ `, q ∈ ` se e somente se q − p = λu,
o qual determina uma reta! Vemos que o ponto inicial pode ser qualquer um. Por outro
lado, se p 6= q estão na reta `, qualquer vetor diretor v deve ser paralelo a →

pq, portanto
um vetor diretor está determinado salvo múltiplos não nulos: se u, v vetores diretores,
eles são 6= 0 e paralelos a →

pq 6= 0, portanto ukv!

2.2 Planos
Definição 2.2.1 Um plano em Rn , n ≥ 2 é o transladado de um subespaço que possui
uma base de dois elementos, i.e. π = P + hu, vi = {P + λu + µv|λ, µ ∈ R}, onde u, v são
LI. Em outras palavras, um plano é um subconjunto da forma P + F , onde F é um SEV
de dimensão 2 e é chamado subespaço diretor.

Proposição 2.2.2 Dado π plano, o subespaço vetorial F caracteriza-se como


−→
F = {P Q|P, Q ∈ π}.

2.2.3 Dado um plano π = p + F e p0 ∈ π, o plano pode-se escrever π = p0 + F .


−−→
2.2.4 Dado um plano π = p + F em R3 , veja que existe um único N ∈ π tal que ON é
perpendicular a F .

26
Proposição 2.2.5 (Equação cartesiana do plano) Dado π = P0 + hu, vi um plano,
pode-se descrever os pontos do plano como os pontos (x, y, z) ∈ R3 tais que

Ax + By + Cz + D = 0,

onde (A, B, C) 6= (0, 0, 0). O vetor normal ao plano é paralelo a (A, B, C).

Prova: Tome-se N = u × v. Seja X = (x, y, z) ∈ π arbitrário. O vetor de deslocamento


−−→ −−→
P0 X está caracterizado por P0 X ∈ hu, vi. Em outras palavras,
−−→
P0 X ⊥ u × v = N.

Escreva N = (A, B, C) (suas coordenadas). Então, temos que os pontos de π são exata-
mente aqueles pontos do espaço X ∈ R3 tais que
−−→
N • P0 X = 0,

em outras palavras aqueles tais que

(A, B, C) • (x − x0 , y − y0 , z − z0 ) = 0.

Denotando D = −(Ax0 + By0 + Cz0 temos que π é caracterizado como o conjunto de


pontos de R3 que satisfaz a equação

Ax + By + Cz + D = 0.

Exemplo 2.2.6 Seja π o plano que passa pelo ponto (1, 2, 0) e de vetores diretores (1, 1, 1)
e (2, 3, 1). Vamos achar a eq. cartesiana de π. Basta aplicar o produto misto (queremos
que o vetor de posição (x − 1, y − 2, z − 0) seja paralelo ao produto vetorial) para obter a
equação:  
1 2 x−1
X = det  1 3 y − 2  = 0.
1 1 z−0
Abrindo a conta, sai o resultado desejado.

2.3 Variedades lineares


Só estou recolhendo os conceitos de maneira apressada!

• Uma variedade linear é um subconjunto de Rn da forma p + F , onde F é um


subespaço vetorial (i.e., é um subespaço vetorial transladado). Retas e planos são
exemplos (são as variedades lineares de dimensão 1 e 2, resp.)

27
• Um subconjunto M de Rn é uma variedade linear se e somente se, para qualquer
ponto p ∈ M , temos que a função

φp : M → Rn dada por q 7→ φp (q) = →



pq

satisfaz que a imagem φp (M ) ⊂ Rn é um subespaço vetorial (é o subespaço diretor,


F ). A volta é clara: se para um ponto p ∈ M e um s.e.v. F , temos que {q − p :
q ∈ M } = F, é que q − p = u ∈ F para todo q ∈ M , e passando para o outro lado
temos que q = p + u, u ∈ F. Todo u em F é de tal jeito, devido à igualdade. A ida
fica como exercı́cio ao leitor.

• Dadas duas variedades lineares, L = p1 + F, M = p2 + G, temos que L ∩ M é vazio,


ou da forma p3 +(F ∩G). A interseção é não vazia exatamente quando −
p−→
1 p2 ∈ F +G.

• Dadas duas variedades lineares L, M como acima, a mı́nima variedade linear L que
contem L, M é N = p + (F + G + Span{→ −
pq}). De fato, tal L contém p e q, portanto
é da forma p + H, com →−
pq ∈ L. Por outra parte, F, G ⊂ H e daı́ F + G ⊂ H.
Juntando tudo, F + G + h→−
pqi ⊂ H. Vemos que a variedade linear p + (F + G + h→ −
pqi
inclui ambas L, M e portanto coincide com L.

2.4 Problemas
2.4.1 Dadas três retas r, s, t em R3 , cujos vetores diretores formam uma base de R3 ,
prove que existe uma única reta t0 paralela a t, que corta r e também corta s.

2.4.2 Dadas duas retas r, s em R3 , reversas, prove que existe uma única reta t que corta
r, s, e perpendicular a r, s. A reta t é chamada de perpendicular comum.

2.4.3 Sejam P, Q ∈ R4 e sejam a, b, c, d vetores LI de R4 . Definimos os planos

π = P + ha, bi,

π 0 = Q + hc, di.
Prove que π ∩ π 0 consta exatamente de um ponto.

Solução: Basta escrever as equações, e perceber que P − Q pertence ao subespaço gerado


por a, b, c, d, que é R4 já que a, b, c, d são quatro vetores LI, e a dimensão de R4 é 4.

Observação: (resp. a pedido da turma A, 2016) Quem quiser uma ‘visão geométrica’
do resultado anterior pode pensar no seguinte. Projetando na direção de um vetor do
subespaço diretor de π 0 , o plano π segue sendo um plano em R3 e o plano π 0 se torna uma
reta.
Projetando em outra direção do subespaço diretor de π 0 , obtemos o mesmo resultado.
Então, se ambos os casos apresentam a interseção como um único ponto, temos que

28
comprovar que a interseção em R4 consta exatamente de um único ponto. A resposta é a
seguinte.
Se p − q = λu, e p − q = µv onde u, v direções distintas do s.e. diretor de π 0 , i.e. se p, q
da interseção coincidem num único ponto ao projetar, então λu = µv, e como u, v são LI,
temos λ = µ = 0, e portanto temos no máximo um ponto de interseção.

2.5 O produto vetorial


Sejam u, v vetores. O produto vetorial u × v está definido pela identidade

(2.3) det(u, v, w) = (u × v) • w.

Em coordenadas, u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v3 ). (A notação i, j, k é devida


a Hamilton, a raı́z da sua descoberta dos quatérnions, e é comum.)

Proposição 2.5.1 A função R3 × R3 → R3 dada por

(u, v) 7→ u × v

tem as propriedades seguintes:

1. é bilinear:

2. é alternada:
u × v = −v × u,
e daı́ u × v = 0 se u, v são LD;

3. sua norma é a área do paralelogramo formado por u, v: de fato, pela identidade de


Lagrange temos que
||u × v||2 = ||u||2 ||v||2 − (u • v)2 .
Daı́, se θ = (u,ˆv) é o ângulo entre u, v, temos que

||u × v|| = ||u||. ||v||sen θ.

Remark O produto vetorial não é associativo, i.e.

u × (v × w) 6= (u × v) × w,

em geral. Basta tomar u = v = i, w = j.

2.5.2 Note que algumas provas desta seção são desnecessariamente elementares. Isto é
devido ao fato que nelas não pressupomos o ‘Teoremão’ de invariância da dimensão, nem
outros resultados desse grau de sofisticação, no momento da leitura deste parágrafo.

29
Proposição 2.5.3 Sejam u, v, w ∈ R. A fórmula seguinte se satisfaz:

u × (v × w) = (u • w)v − (u • v)w.

Prova: (Vamos mostrar com pouca força bruta, motivando a fórmula).


Suponha u × (v × w) 6= 0. Então, os vetores u, v × w são LI. Daı́,

(u • v, u • w) 6= (0, 0).

Vê-se que v, w são LI. O vetor u × (v × w) é ortogonal a u, e também a u × v, e por isso


mesmo é da forma λv + µw. Aplicando o produto escalar com u, e impondo o valor zero
dá:

λ(u • v) + µ(u • w) = 0,
e como os coeficientes da equação não são ambos nulos, a solução é da forma

(λ, µ) = γ(−u • w, v • w)

(basta visualizar o problema no plano, e procurar todos os vetores (λ, µ) perpendiculares


ao vetor (A, B) = (−u • w, v • w), o qual tem a solução pronta (λ, µ) = γ(−B, A).)
Agora temos que calcular γ, e calculando a primeira coordenada dos dois membros vemos
que γ = −1. Alternativamente, como os monômios que aparecem nas coordenadas a
ambos os lados são ui vj wk , pode-se ver que γ é constante, e comparando os coeficientes
de u2 w2 v1 à esquerda e direita vemos γ = −1 (por que γ é constante? Fixando u, e
depois fixando v temos uma função linear em w; complete o argumento, ou senão, cale e
calcule!). 

2.5.4 (Completando a prova) Vamos tratar os casos que faltam. Suponha que u •
w = 0 = u • v (v, w ainda LI). Então, u só pode ser paralelo a v × w, e portanto
u × (v × w) = 0; é fácil ver que o lado direito da equação é zero, já que os coeficientes
de v, w são precisamente u • w e −u • v, resp. Isso fecha todas as possibilidades com
v × w 6= 0.
Finalmente, suponha que v × w = 0, i.e. v, w são proporcionais. Se v ou w forem zero,
ambos os lados da igualdade se anulam; portanto, resta só o caso em que v, w 6= 0 são
proporcionais. O lado esquerdo é zero, e para ver que o lado direito se anula basta escrever
v = αw com α 6= 0. Agora, (u • w)v = α(u • v)v = (u • v)αv = (u • v)w, e portanto o lado
direito = 0.

2.5.5 O produto vetorial resulta ser bilinear, quer dizer, linear a cada argumento. Por
isso basta conhecer i × i, i × j, · · · para conhecer o valor de u × v para todos u, v ∈ R2 . A
mesma lógica translada-se a fórmulas como a do triplo produto vetorial u × (v × w). Em
outras palavras, para comprovar a identidade

u × (v × w) = (u • w)v − (u • v)w,

30
basta fazer isso para u, v, w tomando valores dos vetores da base canônica i, j, k (ou
e1 , e2 , e3 , tanto faz a notação). Quer dizer, basta comprovar que

ea × (eb × ec ) = (ea • ec )eb − (ea • eb )ec ,


P P
para todos a, b, c ∈ {1,P2, 3}. Por quê?
P Por exemplo,
P dado que u = u a e a , v = vb eb ,
temos que u × v = ( ua ea ) × ( ub eb ) = u v
1≤a,b≤3 a b a (e × e b ) por linearidade. Se
expandirmos para todo u, v, w em função das coordenadas, vemos que a expressão u ×
(v × w) é linear nos três argumentos, e portanto:
X
A = u × (v × w) = ua vb wc [ea × (eb × ec )],
1≤a,b,c≤3

e por outro lado


X
B = (u • w)v − (u • v)w = ua vb wc [(ea • ec )eb − (ea • eb )ec )].
1≤a,b,c≤3

Basta, então, comprovar a igualdade no caso dos vetores da base canônica, e fica auto-
maticamente provado para u, v, w ∈ R3 arbitrários. (Trocar v, w não altera a igualdade,
por tanto v, w podem ser tomados da forma v = eb , w = ec onde 1 ≤ b < c ≤ 3. Por outro
lado, se {u, v, w} = {e1 , e2 , e3 }, é fácil ver que ambos os lados são zero. Isso já reduz
bastante os casos a comprovar!)

Lema 2.5.6 Seja w ∈ R3 . Então, o subconjunto S = w⊥ = {X ∈ R3 |w • X = 0} é um


subespaço de R3 gerado por dois vetores LI.

Corolário 2.5.7 Sejam u, v ∈ R3 LI. Então,


(u × v)⊥ = hu, vi.

Proof: Segue do Lema anterior: tal subespaço está gerado por dois vetores A, B LI, e
como u, v são perpendiculares a u × v, temos que u, v ∈ hA, Bi são também uma base de
hA, Bi. 

Proposição 2.5.8 Sejam u, v ∈ R3 vetores LI. Então, u, v, u × v são base de R3 .

Prova: Vamos provar primeiro que os três são LI. Suponha αu + βv + γu × v = 0;


então (de várias maneiras pode fazer isto), vemos que α = β = α: de fato, da igualdade
αu + βv = −γu × v deduz-se que γu × v é ortogonal a u × v, portanto pertence a hu, vi,
mas isso só acontece se γ = 0. Dado que u, v são LI, α = β = 0.
Vamos provar que eles geram (o qual é desnecessário se já tivermos resultados potentes
de dependência linear nessa altura do curso, como o Corolário 1.2.20). Sabemos que o
subespaço ortogonal a u × v está gerado por u, v pelo Corolário 2.5.7. Daı́, dado qualquer
vetor X ∈ R3 , considere sua decomposição em componentes paralela e normal ao vetor
u × v:  
(u × v) • X
X= u × v + N = νu × v + N.
ku × vk2

31
Lembre que N é a componente normal a u × v, e pelo Corolário 2.5.7 sabemos que
N = λu + µv. Reunindo os dados temos que X = λu + µv + νu × v.


2.5.9 Dados v1 , . . . , vk ∈ Rn vetores, e w = vk + a1 v1 + . . . + ak−1 vk−1 , temos que

hv1 , . . . , vk i = hv1 , . . . , vk−1 , wi,

e os vetores v1 , . . . vk são LI se e somente se vP


1 , . . . , vk−1 , w são LI.
Tudo o anterior se mantém se tomamos w = k−1 i=1 ai vi + λvk , onde λ 6= 0.

Proposição 2.5.10 Sejam u, v, w ∈ R3 vetores LI. Então, eles formam base de R3 .

Prova: Dizer que u, v, w são LI equivale a dizer que w ∈ / hu, vi, onde o espaço dado é de
dimensão dois. Em termos da base u, v, u × v, w = au + bv + cu × v, e c 6= 0, por ser
w não coplanar a u, v. Do Exercı́cio 2.5.9 deduz-se que, uma vez que u, v, u × v formam
base pela Proposição 2.5.8, os vetores u, v, w também formam base. 
O teorema seguinte mede com precisão quanto falha o produto vetorial em ser associativo.

Teorema 2.5.11 (Identidade de Jacobi) Sejam u, v, w ∈ R3 vetores. Temos a igual-


dade
u × (v × w) + v × (w × u) + w × (u × v) = 0.
A igualdade pode-se reescrever de cara a estudar a falta de associatividade, como segue:

u × (v × w) − (u × v) × w = v × (u × w),

e portanto a propriedade associativa se satisfaz para uma tripla de vetores u, v, w ∈ R3 se


e somente se o termo v × (u × w) se anula, i.e. se e somente se vku × w.

Prova: Na primera forma do enunciado, sai da fórmula do Triplo Produto Vetorial enun-
ciada e provada acima. Reescreva usando as propriedades básicas do produto vetorial
para obter a segunda igualdade. 

2.5.1 Exercı́cios de produtos vetoriais


2.5.12 Duas retas `, `0 ⊂ R3 não paralelas admitem uma perpendicular comum (aqui
pode usar o produto vetorial e os resultados do parágrafo, mesmo que dê para resolver
num parágrafo anterior).

2.5.13 Dois planos de R3 são paralelos se e somente se seus vetores normais são para-
lelos.

2.5.14 Dado um triângulo ABC em R2 , considere o triângulo T 0 formado pelas medianas


e calcule sua área em função da de ABC.

32
2.5.15 Dados A, B, C pontos de cada um dos eixos de um triedro tri-retângulo e O sua
origem, prove que, se denotamos a área de uma face de um tetraedro por |f ace|, a seguinte
igualdade se cumpre:

|ABC|2 = |OAB|2 + |OBC|2 + |OAC|2 .

Dê provas rigurosas de todos os resultados. (Extra: pode generalizar de alguma forma a
tetraedros mais gerais?)

2.5.16 Dados u, v, w ∈ R3 , prove a identidade

det(u × v, v × w, w × u) = det(u, v, w)2

2.5.17 Seja e um vetor unitário de R3 . Prove que, se u ⊥ e, então

e × (e × u) = −u.

(Pode-se fazer visualmente -com a regra da mão direita-, ou com material já provado.)

33
34
Capı́tulo 3

Matrizes e transformações lineares

Proposição 3.0.1 Seja A uma matriz n × n. Então: A é injetora, i.e. Ker A = 0 se e


somente se A é sobrejetora, i.e. Im A = Rn .

Prova: Supomos que A seja injetora. Então, as colunas A1 , . . . , An são LI, o qual em Rn
equivale a elas formarem base. Igualmente, se A1 , · · · , An geram o espaço Rn , então são
necessariamente LI, pois senão existiria um Ai em função das outras Aj , j 6= i, e sucederia
que hA1 , · · · , Ai−1 , Ai+1 , · · · , An i = Rn , o qual é impossı́vel. 

Corolário 3.0.2 Seja A uma matriz m × n, com n > m. Então, o sistema linear ho-
mogêneo Ax = 0 ∈ Rm tem soluções não triviais.

(Já provado anteriormente nestas notas)

35
36
Capı́tulo 4

Determinantes

(Como vou passar tempo sem mexer nas notas, vão ter que complementar com as notas
manuscritas digitalizadas - JJRM)
Conhecemos como funcionam os determinantes 2×2 e 3×3. Vamos imitar, então, o volume
orientado nestas dimensões para construir uma função similar, que será o determinante.
Primeiro listamos as propriedades essenciais que caracterizam o determinante.
n
Seja V : Rn × · · · × Rn → R uma ‘função volume orientado’. Da experiência 2− e
3−dimensional, obtemos as regras.

DET0) (normalização) V (e1 , e2 , . . . , en ) = 1;

DET1) (multilinear) a função V é multilinear, i.e. linear em cada variável se fixamos os


argumentos nas outras variáveis, quer dizer:

V (λv + µw, u2 , . . . , un ) = λV (v, u2 , . . . , un ) + µV (w, u2 , . . . , un ),

e em geral

V (u1 , . . . , ui−1 , λv + µw, ui+1 , . . . , un ) =


λV (u1 , . . . , ui−1 , v, ui+1 , . . . , un ) + µV (u1 , . . . , ui−1 , w, ui+1 , . . . , un );

DET2) (alternada) a função V é alternada, i.e. se trocarmos dois argumentos de lugar, o


valor muda num sinal. Em outras palavras, se i 6= j, então

V (u1 , . . . uj (lugar i), . . . , ui (lugar j), . . . , un ) = −V (u1 , . . . , ui , . . . , uj , . . . , un ).

Uma consequência óbvia (e reformulação!) é que, se temos o mesmo vetor em dois


argumentos diferentes, então

V (u1 , . . . , v, . . . , v, . . . , un ) = 0.

Vamos recuperar os determinantes 2 × 2 e 3 × 3. Note que as manipulações que faremos


com a base canônica são válidas para qualquer base.

37
Exemplo 4.0.1 Se n = 2, então V (ae1 + be2 , ce1 + de2 ) = aV (e1 , ce1 + de2 ) + bV (e2 , ce1 +
de2 ). Desenvolvendo por completo, a expressão fica

acV (e1 , e1 ) + adV (e1 , e2 ) + bcV (e2 , e1 ) + bdV (e2 , e2 );

à sua vez, V (ei , ei ) = 0 por DET2, e V (e2 , e1 ) = −V (e1 , e2 ), e portanto

V (ae1 + be2 , ce1 + de2 ) = (ad − bc)V (e1 , e2 ).

Exemplo 4.0.2 Para n = 3, vamos calcular

V (A, B, C) = V (a1 e1 + a2 e2 + a3 e3 , b1 e1 + b2 e2 + b3 e3 , c1 e1 + c2 e2 + c3 e3 ).

Por multilinearidade, V (A, B, C) = a1 b2 c3 V (e1 , e2 , e3 ) + a1 b2 c2 V (e1 , e2 , e2 ) + · · · Observe,


porém, que cada vez que repetimos dois argumentos ei na expansão, obtemos um 0, e
portanto, só precisa escrever os termos onde não repete ei , isto é,

V (A, B, C) = a1 b2 c3 V (e1 , e2 , e3 ) + a1 b3 c2 V (e1 , e3 , e2 ) + a2 b1 c3 V (e2 , e1 , e3 ) +


+a2 b3 c1 V (e2 , e3 , e1 ) + a3 b1 c2 V (e3 , e1 , e2 ) + a3 b2 c1 V (e3 , e2 , e1 ).

Para explicitar a conta completamente, vamos dar uma receita que funciona em geral.

RECEITA: Quando temos uma permutação de n elementos, como é o caso, a dica é


trocar elementos a pares, colocando en no último lugar, depois en−1 no penúltimo lugar,
e assim por diante. Por exemplo,V (e2 , e3 , e1 ) = −V (e2 , e1 , e3 ), e daı́ −V (e2 , e1 , e3 ) =
V (e1 , e2 , e3 ).

Utilizando a receita anterior, vemos que

V (A, B, C) = (a1 b2 c3 − a1 b3 c2 − a2 b1 c3 + a2 b3 c1 + a3 b1 c2 − a3 b2 c1 ) V (e1 , e2 , e3 ).

Em outras palavras, V (A, B, C) = det(A, B, C)V (e1 , e2 , e3 ).


Fica claro que as propriedades DET1, DET2 determinam V a menos de constante, e que
a condição V (e1 , . . . , en ) = 1 de normalização é a que acaba fixando o determinante.

Definição 4.0.3 A função determinante de n vetores em Rn (ou Cn !) é dada pelas


condições DET1, DET2, DET0 (e é determinada com isso). Seja A uma matriz qua-
drada n × n. Define-se o determinante da matriz A como det A = det(A1 , . . . , An ).

OBSERVAÇÃO: Seja A uma matriz n × n. Se consideramos det(Au1 , . . . , Aun ) como


uma função de u1 , . . . , un , temos o seguinte: T (u1 , . . . , un ) = det(Au1 , . . . , Aun ) satisfaz
DET1, DET2 e, portanto, T (u1 , . . . , un ) = det(u1 , . . . , un )T (e1 , . . . , en ), o qual dá à sua
vez, substituindo na definição, T (e1 , . . . , en ) = det(Ae1 , . . . , Aen ) = det A. Conclui-se com
a utilı́ssima Proposição seguinte.

38
Proposição 4.0.4 (Fórmula de Binet-Cauchy) Sejam A, B matrizes quadradas n ×
n. Então, det AB = det A det B.
Prova: Defina a função multilinear alternada T (u1 , . . . , un ) = det(Au1 , Au2 , . . . , Aun ).
Da Observação anterior vemos que
T (u1 , . . . , un ) = det(u1 , . . . , un )· T (e1 , . . . , en ) = det(u1 . . . , un ) det A.
No caso em que ui = Bi , ABi é a coluna i-éssima de AB, e dos mesmos argumentos segue
que
T (B1 , . . . , Bn ) = det B det(A1 , . . . , An ) = det B· det A det(e1 , . . . , en ) = det A· det B,
o qual prova a Proposição. 
OBSERVAÇÃO IMPORTANTE: O que prova a Proposição 4.0.4 é que o determi-
nante de uma matriz quadrada A é um fator de escala entre o volume de um paralelepı́pedo
gerado por uma base u1 , . . . , un e o volume do paralelepı́pedo imagem por A, i.e. o gerado
por Au1 , . . . , Aun . Esse fator de escala (no caso dos reais) inclui o sinal, que no caso de
R2 , R3 tem o significado usual, i.e. se A mantém ou troca a orientação.
Teorema 4.0.5 Seja A uma matriz n×n. Então, det A = 0 se e somente se suas colunas
A1 , · · · , An são LI.
Prova: Suponha
Pn que as colunas são LD. Por simplicidade (ou após usar DET2), suponha
que A1 = i=2 λi Ai . Então:
X
det(A1 , . . . , An ) = det( λi Ai , A2 , . . . , An ) = 0,
i≥2

por linearidade na 1a componente. Agora, suponha que A tem posto n; isso significa que
A é inversı́vel, i.e. AB = I, e portanto det A det B = det I = 1, e daı́ det A 6= 0. 
Para explicitar o determinante
P no caso geral, é melhor escrever os vetores (coluna) em
notação matricial: Aj = aij ei . Então, aplicando DET1 temos:
n
X n
X X
V (A1 , . . . , An ) = V ( ak1 1 ek1 , · · · , akn n ekn ) = ak1 1 · · · akn n V (ek1 , . . . , ekn ).
k1 =1 kn =1 k1 ,...,kn

Os termos cujos ı́ndices se repetem, por DET2, são zero, e portanto só consideramos
aqueles em que k1 , . . . , kn são todos distintos, i.e. {k1 , . . . , kn } = {1, . . . , n}. Para estes,
adotamos uma notação mais amigável, que é a das permutações. Uma permutação de n
elementos é um rearranjo σ : {1, . . . , n} → {1, . . . , n}, i.e. é uma bijeção. O conjunto (o
grupo) de permutações de n elementos denota-se como Sn , e chama-se o grupo simétrico
de n elementos.
Voltando para a expressão, temos que
X
V (A1 , . . . , An ) = aσ(1)1 · · · aσ(n)n V (eσ(1) , . . . , eσ(n) ) =
σ∈Sn

e à sua vez, V (eσ(1) , . . . , eσ(n) ) = sgn(σ)V (e1 , . . . , en ), onde sgn(σ) = ±1 (chamado sinal
de σ) tem a ver com as trocas de sinal através de DET2.

39
Definição 4.0.6 Uma permutação τ ∈ Sn se chama transposição (entre dois elemen-
tos i, j (com i 6= j) se τ (i) = j, τ (j) = i e τ (k) = k para todo k 6= i, j. Costuma-se
escrever τ como τ = (i j). (Note que τ −1 = τ para toda transposição τ ).

O próximo Teorema segue da Receita acima.

Teorema 4.0.7 Toda permutação σ ∈ Sn escreve-se como produto de transposições. Se


σ = τ1 · · · τk , então σ −1 = τk · · · τ1 .

Prova: A segunda afirmação é imediata; se σ = τ1 · · · τk , então σ −1 = τk−1 · · · τ1−1 =


τk · · · τ1 , já que τi = τi−1 . Quanto à primeira, verifique por indução. Se n = 1, é óbvio.
Para n arbitrário, se σ(n) = n, reduzimos ao caso n − 1; se no entanto σ(n) 6= n,
componha σ com τ1 = (n σ(n)), e τ1 σ fixa n e permuta 1, · · · , n − 1 entre eles. Aplique o
processo recursivamente (agora τ1 σ ∈ Sn−1 ), e com k ≤ n − 1 obterá τk · · · τ1 σ = Id, i.e.
σ = τ1 · · · τk como desejávamos. 

Corolário 4.0.8 sgn(σ) = (−1)k , onde σ = τ1 · · · τk . A função sgn é bem definida, e


multiplicativa, quer dizer: sgn(ση) = sgn(σ)sgn(η) para σ, η ∈ Sn .

Prova: A primera parte é imediata. A segunda, deixamos para um Apêndice. Finalmente,


se σ = τ1 · · · τk , η = τ10 · · · τ`0 , então στ = τ1 · · · τk τ10 · · · τ`0 é produto de k + ` transposições,
e a terceira parte segue. 
Chega-se assim à fórmula explı́cita do determinante n × n:

X
(4.1) det A = sgn(σ)aσ(1)1 · · · aσ(n)n ,
σ∈Sn

onde sgn é o sinal explicitado no Corolário 4.0.8. Isto dá-nos mais um resultado impor-
tante:

Proposição 4.0.9 det A = det AT .

Prova: De fato, pensemos que aσ(k)k = ATk,σ(k) , e que quando temos o gráfico de uma
função bijetora, o gráfico da inversa obtém-se transpondo (isso vale para funções de R em
R, ou também para permutações de {1, 2, · · · , n}).
Então, para toda σ ∈ Sn , do parágrafo anterior temos que
n
Y n
Y
aσ(k)k = a`σ−1 (`) ,
k=1 `=1

pois basta trocar k por ` = σ(k). Por outro lado, sgn(σ) = sgn(σ −1 ), e portanto det A =
det AT .


40
Apêndice: Sinal de uma permutação
Nesta seção vamos provar, em detalhe, que o sinal de uma permutação está bem definido,
bem como sua relação com o número de inversões.
Dada uma permutação σ, ela não é só uma bijeção no conjunto {1, · · · , n}, mas também
induz uma bijeção no conjunto P2 (n) cujos elementos são os subconjuntos {i, j}. De fato,
ao mandar {i, j} ao subconjunto P2 (σ){σ(i), σ(j)}, e sua inversa P2 (σ −1 ) é a inversa de
P2 (σ). Porém, pode acontecer que i < j mas σ(i) > σ(j). O número de inversões de σ
é o número de pares N (σ) = {(i, j) : i < j, σ(i) > σ(j)}.

Proposição 4.0.10 Seja τ = (a b) uma transposição de Sn . Então, N (τ ) = 2(k − h) − 1


é ı́mpar.

Prova:

• Suponha que os ı́ndices i, j são diferentes de a, b. Temos: σ(i) = i < σ(j) = j.

• Se i < a < b (j = a ou j = b, mesmo argumento), então i, a passam a i, b e não tem


inversão.

• Se a < b < j, (i = a ou = b) então a, j passam a a, b e b, j passam a a, j sem


inversão.

• No caso em que a < i < b (e portanto j = b), a, i passam a b, i e tem inversão: aqui
contamos b − a − 1 inversões; por outro lado, j, b passa a ser j, a, o qual acarreta
mais b − a − 1 inversões.

• Se i = a < b = j, o par i, j passa a ser j, i

A contagem total de inversões é, pois, 2(b − a) − 2 + 1 = 2(b − a) − 1.

Teorema 4.0.11 Seja σ uma permutação. Então, (−1)N (σ1 σ2 ) = (−1)N (σ1 ) (−1)N (σ2 ) .
Portanto, sgn(σ) = (−1)N (σ) , e o sinal não depende da decomposição de σ em trans-
posições.
Q
Prova: Considere o produto σP = 1≤k<h≤n (σ(h) − σ(k)). Então: observamos que
σP
P
= ±1, já que os termos de P estão indexados nos subconjuntos de 2 elementos, e ao
calcular σP só pode variar o sinal.
Precisamos só estabelecer o sinal de σP P
, sendo seu valor absoluto 1. Então, o sinal de
σ(j)−σ(i)
j−i
é negativo quando (i, j) sofre uma inversão, e positivo em outro caso. Isso significa
σP
que P = (−1)N (σ) 1, o qual só depende de σ.
Por outro lado, vemos que
σ1 σ2 P σ1 σ2 P σ2 P
= ,
P σ2 P P

41
e reindexando (tome i0 = o menor de σ2 (i), σ2 (j) e j 0 o maior deles) comprova-se que

σ1 σ2 P σ1 P
= .
σ2 P P

O sinal de uma transposição τ é −1, o qual concorda com (−1)N (τ ) , pela Proposição
4.0.10. Mas então, o sinal definido como (−1)k se σ = τ1 · · · τk coincide com nossa versão
através do número de inversões.


42

Anda mungkin juga menyukai