CAMPUS DE SOBRAL
ENGENHARIA ELÉTRICA
ÁLGEBRA LINEAR – TURMA 01
PROFESSOR: VICENTE JÚLIO CARNEIRO
PRODUTO INTERNO
Sobral / CE
2017.1
ÍNDICE
1 INTRODUÇÃO ------------------------------------------------------------------------------ 3
2 COEFICIENTES DE FOURIER --------------------------------------------------------- 4
3 NORMA --------------------------------------------------------------------------------------- 4
4 PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT --------------- 6
5 COMPLEMENTO ORTOGONAL ------------------------------------------------------ 6
6 ESPAÇOS VETORIAIS COMPLEXOS – PRODUTO INTERNO --------------- 6
7 PRODUTO INTERNO E ESTATÍSTICA ---------------------------------------------- 7
8 O AJUSTE DE CURVAS E O MÉTODO DOS MÍNIMOS QUADRADOS ---- 9
2
1. INTRODUÇÃO:
1.1 Definição: Seja V um espaço vetorial sobre o corpo K. Um produto interno em V é uma
função〈. , . 〉= V * V → R que satisfaz as propriedades abaixo para quaisquer vetores u, v e
w de V e qualquer número real k.
i. 〈v, v〉≥ 0;
ii. 〈v, v〉= 0 se, e somente se, v= 0;
iii. 〈u, v〉=〈v, u〉;
iv. 〈u + v, w〉=〈u, w〉+〈v, w〉;
v. 〈k u, v〉= k〈u, v〉.
1.2 Definição: Seja V um espaço vetorial com produto interno〈. , . 〉. Diz - se que dois
vetores v e w de V são ortogonais (em relação a este produto interno) se 〈v, w〉= 0. Nesse
caso, escrevemos v ⊥ w.
Assim:
i. 0 ⊥ v para todo v ∈ V;
ii. v ⊥ w implica que w ⊥ v;
iii. Se v ⊥ w para todo w ∈ v, então v=0;
iv. Se v1 ⊥ w e v2 ⊥ w, então v1+v2 ⊥ w;
v. Se v ⊥ w e K é um escalar, K v ⊥ w.
Teorema: Seja {v1, v2, ..., vn} um conjunto de vetores não nulos, dois a dois ortogonais, isto é,
〈vi, vj〉= 0 para i≠j. Então {v1, ..., vn} é linearmente independente.
Provando:
Seja a1v1 +a2v2 + ...+anvn = 0.
Fazendo o produto interno dos dois membros da igualdade acima por vi, temos:
〈a1v1 + ... + anvn, vi〉= 〈0, vi〉
E, portanto, a1〈v1, vi〉+ ... + ai〈vi,vi〉+ an〈vn, vi〉= 0.
Como 〈vj, vi〉= 0 para j≠i e 〈vi, vi〉≠ 0, temos ai〈vi, vi〉= 0 e assim ai= 0.
Como isto vale para todo i=1, ..., n, temos a1= 0, ..., an = 0;
Logo {v1, ..., vn} é LI.
Definição 3: Diz-se que uma base {v1, ..., vn} de V é base ortogonal se 〈vi, vj〉= 0 para i ≠ j,
isto é, os vetores da base são dois a dois ortogonais.
3
2. COEFICIENTES DE FOURIER
Bases ortogonais são importantes porque existe um procedimento padrão para se encontrar as
coordenadas de um vetor qualquer em relação a elas. Seja V um espaço vetorial com produto
interno〈 , 〉, β = {v1, ... , vn} uma base ortogonal de V e w um vetor qualquer de V. Vamos
calcular as coordenadas de w em relação a β. Sabemos que w = x 1v1 + x2v2 + ... +xnvn e
queremos determinar a i-ésima coordenada xi. Para isto, façamos o produto interno dos dois
membros da igualdade acima por vi. Então 〈w, vi〉= xi〈vi, vi〉.
Em outras palavras, coeficientes de Fourier é uma maneira mais fácil do que sistemas para
encontrar os coeficientes de bases ortogonais.
3. NORMA
3.1 Definição: Temos que V seja um espaço vetorial com produto interno < , >. Definimos a
norma (ou comprimento) de um vetor v em relação a este produto interno por ||v|| = √< 𝑣, 𝑣 >
. Se ||v|| = 1, ou seja, < v, v> = 1, v será chamado de vetor unitário. Como também, o vetor v
será considerado normalizado. Vemos que todo vetor não nulo v ∊ V pode ser normalizado,
𝑣
tornando 𝑢 = ||𝑣||. Portanto, para cada elemento v ∊ V associa um número real ||v||, que possui
determinadas propriedades.
(a) Positividade: ||u|| > 0 para u ≠ 0v, com ||u|| = 0 ↔ u = 0v.
(b) Homogeneidade: || λu || = |λ | ||u|| para todo u ∊ V, λ ∈ IF.
(c) Desigualdade Triangular: || u+v || ≤ ||u|| + ||v|| para todos u, v ∊ V.
(d) Desigualdade de Schwarz: |< u, v >| ≤ ||u|| ||v||.
Exemplo: Temos que um vetor 𝑎⃗ = (1, 2, -1), a fim de o normalizar. Primeiramente, vamos
calcular a norma do vetor, tendo que:
||a|| = √1 + 4 + 1
||a|| = √6
Assim, continuamos para realizar a normalização do vetor:
𝑣 (1,2,−1) 1 2 −1
𝑢= ||𝑣||
= =( , , )
√1²+2²+(−1)² √6 √6 √6
Exemplo: Agora vamos calcular a força de atração entre dois corpos com 2 e 5 unidades de
massa, nos pontos (1,3,5) e (2,1,0), respectivamente. Sabemos que a intensidade da atração é
𝑚1+𝑚2
dada por: 𝑑²
, onde m1 é a massa do primeiro corpo, m2 é a massa do segundo corpo e d²
é a distância entre eles. Primeiramente, para calcular a distância, devemos subtrair os dois
vetores:
d² = (2,1,0) – (1,3,5) = (1,-2,-5).
4
𝑚1+𝑚2 2∙5 10 1 1
Aplicando em = ||1,−2,−5|| = (1)2 = . Logo, F = 𝑢.
𝑑2 +(−2)2 +(−5)2 3 3
𝑣 1−2−5 1−2−5 1 −2 −5
Substituímos em 𝑢 = = = =( , , ).
||𝑣|| √1²+(−2)2 +(−5)² √30 √30 √30 √30
1 1 1 −2 −5 1 −2 −5
Em F = 3 𝑢, temos que 3( , , ) = (3 √30 , √30 , √30).
√30 √30 √30 3 3
Exemplo: Sejam V = M (2, 2), as matrizes quadradas de ordem 2 reais e o produto interno dado
pela expressão, comprove que realmente é um produto interno.
𝑎 𝑏 〈| 𝑐 𝑓
Temos que: 〈| |〉 , |〉 = ae + 2bf + 3cg + dh.
𝑐 𝑑 𝑔 ℎ
1 −1 2 1
Assim, calculamos o ângulo entre as matrizes 〈[ ],[ ]〉 = 2 -2 + 0 + 1 = 1.
0 1 −1 1
1 −1
Apenas da primeira matriz: ‖[ ] ‖ = 1 + 2 + 0 + 1 = 4. Observe que está em módulo,
0 1
logo √4 = 2.
2 1
Apenas da segunda matriz: ‖[ ]‖ = 4 + 2 + 3 + 1 = 10. Assim, √10.
−1 1
1
Portanto, arccos θ = 2 √10.
3.3 Definição: Seja V um espaço vetorial com o produto interno. Dizemos que uma base 𝛽 =
{v1, ..., vn} de V é ortonormal se for ortogonal e cada vetor for unitário, ou seja,
0 𝑠𝑒 𝑖 ≠ 𝑗
〈𝑣𝑖, 𝑣𝑗〉 = {
1 𝑠𝑒 𝑖 = 𝑗
Observe também que se tivermos uma base ortonormal 𝛽 = {v1, ..., vn}, os coeficientes xi de
um vetor u são dados por:
<𝑢,𝑣𝑖>
xi = <𝑣𝑖,𝑣𝑖> = <u, vi> .
5
4. PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT
Bases ortonormais são úteis, mas como obtê-las? Partindo-se de uma base qualquer de um
subespaço, não é difícil construir uma base ortogonal (ou ortonormal) para o mesmo subespaço.
A partir de uma base 𝛽 = {v₁, v₂}. Logo, v’₁ = v₁. Assim, a partir de v₂ encontramos um novo
<𝑣₂,𝑣′₁>
vetor v₂ ortogonal a v’₁. Tomamos que v’₂ = v₂ – cv’₁. Onde c = <𝑣′₁,𝑣′₁> . Portanto, v’₁ = v₁ e
<𝑣₂,𝑣′₁>
v’₂ = v₂ - <𝑣′₁,𝑣′₁> v’₁ .
Exemplo: 𝛽 ={v₁, v₂}, base de R², onde v₁ = (1, 0) e v₂ = (1, 1). Através do Processo de Gram-
Schmidt iremos obter uma base ortonormal do R².
1º - Base Ortogonal: w₁ = v₁ = (1, 0)
𝑣₂ ∙ 𝑤₁
2º - w₂ = v₂ – (𝑤₁ ∙ 𝑤₁) ∙ 𝑤₁
5. COMPLEMENTO ORTOGONAL
Este tópico tem a função de ressaltar algumas diferenças entre o produto interno de um espaço
vetorial normal e de um espaço vetorial complexo, vejamos:
6
iv) ⟨v,w⟩=⟨w,v⟩ para quaisquer v, w.
Desta forma, é necessária uma definição específica para espaços vetoriais complexos.
Definição: Seja V um espaço vetorial complexo, um produto interno sobre V, é dado pela
seguinte aplicação:
⟨ , ⟩ : VxV → C
(u,v) → ⟨u,v⟩
satisfazendo as condições:
Seja S um fenômeno que possui n possibilidades distintas S1, S2, ..., Sn cada evento possui uma
probabilidade distinta p1, p2, ..., pn. O conjunto S = {S1, ..., Sn}é denominado espaço amostral e
p = (p1, ..., pn) é chamado vetor de probabilidades.
Ex.1:
Ao lançar uma moeda o espaço amostral seria o conjunto de todas as possibilidades que o evento
têm de ocorrer, neste caso S = {cara, coroa} e o vetor de probabilidades seria dado por p = (1/2,
1/2).
Então é possível associar uma um vetor pn a cada elemento Si (i=0; n), teremos entao um vetor
X = (X1, X2, ..., Xn) que será chamado variável aleatória.
Ex. 2:
Se duas pessoas A e B fazem a seguinte aposta: lançam uma moeda e se der cara, A ganhará 10
fichas, se der coroa, B ganhará 10 fichas. Então S = {cara, coroa}, p = (1/2, 1/2) a variavel
aleatoria A = (A1, A2) = (10, -10); Ja B = (B1, B2) = (-10, 10).
𝑋¯ = 𝐸(𝑥) = ∑ 𝑋𝑖 𝑃(𝑋𝑖 )
𝑖=0
e a variância como:
7
𝑛
𝑠 2 = ∑ 𝑃𝑖 (𝑋𝑖 − 𝑋¯)2
𝑖=0
E o desvio padrão:
𝑠 = √∑ 𝑃𝑖 (𝑋𝑖 − 𝑋¯)2 = √𝑠 2
𝑖=0
A ligação destes conceitos com o produto interno é feita através da seguinte equação
𝑋¯ = [𝑋(1, . . . ,1)]
𝑠 = [𝑋 − 𝑋¯(1, . . . ,1)]
Sejam:
𝑋 − 𝑋¯(1, . . . ,1) = (𝑋1 − 𝑋¯, . . . , 𝑋𝑛 − 𝑋¯)e 𝑌 − 𝑌¯(1, . . . ,1) = (𝑌1 − 𝑌¯, . . . , 𝑌𝑛 − 𝑌¯)
Podemos chegar a conclusão que X e Y estão relacionados por λ, falando de vetores, um escalar
mantem os dois vetores na mesma direção, ou seja θ = 0 ou π, portanto 𝑐𝑜𝑠𝜃 = ±1.Então se as
duas retas estão na mesma direção, cos θ = 1 e a relação é diretamente proporcional, caso as
retas estejam em direções opostas cos θ = -1 e a relação é inversamente proporcional, caso os
dois vetores sejam L.I. λ = 0 e portanto os vetores são ortogonais e não possuem correlação. A
este coeficiente λ se dá o nome de coeficiente de correlação linear denotado por r(X,Y)
aplicando a lei dos cossenos entre os dois vetores, temos:
Portanto, quanto mais r(X,Y) se aproxima de ±1, mais X e Y estão linearmente correlacionados
8
Aluno 1 2 3 4 5 6 7 8 9 10
Notas Mat 2 8 5 7 7 5 3 1 9 9
Fis 1 9 7 2 7 4 6 3 9 7
S.
Seja S= {1,2, …, 10}, tomamos uma probabilidade igual de se considerar as notas de qualquer
aluno então p1->10 = (1/10, …, 1/10) então podemos definir X=(2,8,5,8,7,7,5,3,1,9,9) e Y=
(1,9,7,2,7,4,6,3,9,7)𝑋¯ = 5,6e 𝑌¯ = 5,5
𝑟(𝑋, 𝑌) = 0,67
8.1 Introdução: Consideremos uma coleção de pares ordenados obtidos em função de algum
tipo de experimento, como:
x x1 x2 x3 x4 x5 ... xn-1 xn
y y1 y2 y3 y4 y5 ... yn-1 yn
Tabela 8.1
A colocação destes pares ordenados num plano cartesiano, depende dos valores de xi e yi,
(i=1...n) e pode fornecer um gráfico como:
9
Um fato que atrai pesquisadores aplicados das mais diversas áreas é a possibilidade de obter
uma função real que passe nos pontos ou pelo menos passe próximo dos pontos (xi,yi) dados.
Estudando uma Matemática mais aprofundada existe a Teoria de Interpolação que é a área que
estuda tais processos para obter funções que passam exatamente pelos pontos dados, enquanto
que a Teoria de Aproximação estuda processos para obter funções que passem o mais próximo
possível dos pontos dados.
É óbvio que se pudermos obter funções que passem próximas dos pontos dados e que tenham
uma expressão fácil de ser manipulada, teremos obtido algo positivo e de valor científico.
Dentre os processos matemáticos que resolvem tal problema, com certeza, um dos mais
utilizados é o Método dos Mínimos Quadrados, que serve para gerar o que se chama em
Estatística: Regressão Linear ou Ajuste Linear.
8.2 O Método dos Mínimos Quadrados
As curvas mais comuns utilizadas pelos estatísticos são:
Ordem Função Nome
1 y = a0 + a1 x Reta
2 y = a0 + a1 x + a2 x² Parábola
3 y = a0 + a1 x + a2 x² + a3 x³ Cúbica
4 y = a0 + a1 x + a2 x² + a3 x³ + a4 x4 Quártica
Tabela 8.2
A ideia básica para qualquer uma das funções acima citadas é tentar descobrir quais são os
valores dos coeficientes a0, a1, a2 e a3, de tal modo que a soma dos quadrados das distâncias
(tomadas na vertical) da referida curva y = f(x) a cada um dos pontos dados (yi) seja a menor
possível, daí o nome Método dos Mínimos Quadrados.
Observe as funções tabeladas:
x x1 x2 x3 x4 x5 ... xn-1 xn
Se os valores da variável independente x1, x2, x3, ..., xn são sempre os mesmos, cada uma dessas
funções podem ser consideradas como um vetor de um espaço vetorial.
Suponhamos que conhecemos o aspecto analítico de duas funções g1 (x) e g2 (x) e queremos
“aproximar” uma dada função f(x) por uma combinação linear de g1 (x) e g2 (x), isto é, queremos
achar coeficientes c1 e c2 tais que a função
g(x) = c1g1 (x) + c2g2 (x)
seja uma “boa aproximação” para f(x). Por exemplo, se g1 (x) = 1 e g2 (x) = x, estaremos
aproximando f(x) por uma função afim g(x) = c1 + c2 x. E se g1 (x) = sen x e g2 (x) = cos x
estaremos aproximando por g(x) = c1 sen x + c2 cos x.
10
8.3 Exemplo: Ajustar uma função do tipo g(x) = a + bx aos pontos da tabela:
x 0 1 2
f(x) 1,1 0,1 -3,1
Tabela 8.3
11