Anda di halaman 1dari 11

UNIVERSIDADE FEDERAL DO CEARÁ

CAMPUS DE SOBRAL
ENGENHARIA ELÉTRICA
ÁLGEBRA LINEAR – TURMA 01
PROFESSOR: VICENTE JÚLIO CARNEIRO

PRODUTO INTERNO

HÉLIO DANES DE ARAÚJO JÚNIOR


MATRÍCULA: 369117
CLAUDIENE DE SOUSA BATISTA
MATRÍCULA: 392078
GISLANE DA CONCEICAO GOMES ALCANTARA
MATRÍCULA: 385516
BRUNA DOS SANTOS BEZERRA DA SILVA
MATRÍCULA: 363989
RAYON LINDRAZ NUNES
MATRÍCULA: 378592

Sobral / CE
2017.1
ÍNDICE

1 INTRODUÇÃO ------------------------------------------------------------------------------ 3
2 COEFICIENTES DE FOURIER --------------------------------------------------------- 4
3 NORMA --------------------------------------------------------------------------------------- 4
4 PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT --------------- 6
5 COMPLEMENTO ORTOGONAL ------------------------------------------------------ 6
6 ESPAÇOS VETORIAIS COMPLEXOS – PRODUTO INTERNO --------------- 6
7 PRODUTO INTERNO E ESTATÍSTICA ---------------------------------------------- 7
8 O AJUSTE DE CURVAS E O MÉTODO DOS MÍNIMOS QUADRADOS ---- 9

2
1. INTRODUÇÃO:
1.1 Definição: Seja V um espaço vetorial sobre o corpo K. Um produto interno em V é uma
função〈. , . 〉= V * V → R que satisfaz as propriedades abaixo para quaisquer vetores u, v e
w de V e qualquer número real k.

i. 〈v, v〉≥ 0;
ii. 〈v, v〉= 0 se, e somente se, v= 0;
iii. 〈u, v〉=〈v, u〉;
iv. 〈u + v, w〉=〈u, w〉+〈v, w〉;
v. 〈k u, v〉= k〈u, v〉.

Um espaço vetorial com um produto interno é chamado, abreviadamente, de espaço com


produto interno.
O produto interno é usado para caracterizar a noção de perpendicularismo ou ortogonalidade
de vetores.

1.2 Definição: Seja V um espaço vetorial com produto interno〈. , . 〉. Diz - se que dois
vetores v e w de V são ortogonais (em relação a este produto interno) se 〈v, w〉= 0. Nesse
caso, escrevemos v ⊥ w.

Assim:
i. 0 ⊥ v para todo v ∈ V;
ii. v ⊥ w implica que w ⊥ v;
iii. Se v ⊥ w para todo w ∈ v, então v=0;
iv. Se v1 ⊥ w e v2 ⊥ w, então v1+v2 ⊥ w;
v. Se v ⊥ w e K é um escalar, K v ⊥ w.

A noção de ortogonalidade tem uma aplicação interessante na verificação da “honestidade” de


apostas.

1.3 Relação entre ortogonalidade e independência linear

Teorema: Seja {v1, v2, ..., vn} um conjunto de vetores não nulos, dois a dois ortogonais, isto é,

〈vi, vj〉= 0 para i≠j. Então {v1, ..., vn} é linearmente independente.

Provando:
Seja a1v1 +a2v2 + ...+anvn = 0.
Fazendo o produto interno dos dois membros da igualdade acima por vi, temos:
〈a1v1 + ... + anvn, vi〉= 〈0, vi〉
E, portanto, a1〈v1, vi〉+ ... + ai〈vi,vi〉+ an〈vn, vi〉= 0.
Como 〈vj, vi〉= 0 para j≠i e 〈vi, vi〉≠ 0, temos ai〈vi, vi〉= 0 e assim ai= 0.
Como isto vale para todo i=1, ..., n, temos a1= 0, ..., an = 0;
Logo {v1, ..., vn} é LI.

Definição 3: Diz-se que uma base {v1, ..., vn} de V é base ortogonal se 〈vi, vj〉= 0 para i ≠ j,
isto é, os vetores da base são dois a dois ortogonais.

3
2. COEFICIENTES DE FOURIER

Bases ortogonais são importantes porque existe um procedimento padrão para se encontrar as
coordenadas de um vetor qualquer em relação a elas. Seja V um espaço vetorial com produto
interno〈 , 〉, β = {v1, ... , vn} uma base ortogonal de V e w um vetor qualquer de V. Vamos
calcular as coordenadas de w em relação a β. Sabemos que w = x 1v1 + x2v2 + ... +xnvn e
queremos determinar a i-ésima coordenada xi. Para isto, façamos o produto interno dos dois
membros da igualdade acima por vi. Então 〈w, vi〉= xi〈vi, vi〉.

Donde xi = 〈w, vi〉/〈vi, vi〉. Esta coordenada é chamada coeficiente de Fourier de w em


relação a vi.

Em outras palavras, coeficientes de Fourier é uma maneira mais fácil do que sistemas para
encontrar os coeficientes de bases ortogonais.

3. NORMA
3.1 Definição: Temos que V seja um espaço vetorial com produto interno < , >. Definimos a
norma (ou comprimento) de um vetor v em relação a este produto interno por ||v|| = √< 𝑣, 𝑣 >
. Se ||v|| = 1, ou seja, < v, v> = 1, v será chamado de vetor unitário. Como também, o vetor v
será considerado normalizado. Vemos que todo vetor não nulo v ∊ V pode ser normalizado,
𝑣
tornando 𝑢 = ||𝑣||. Portanto, para cada elemento v ∊ V associa um número real ||v||, que possui
determinadas propriedades.
(a) Positividade: ||u|| > 0 para u ≠ 0v, com ||u|| = 0 ↔ u = 0v.
(b) Homogeneidade: || λu || = |λ | ||u|| para todo u ∊ V, λ ∈ IF.
(c) Desigualdade Triangular: || u+v || ≤ ||u|| + ||v|| para todos u, v ∊ V.
(d) Desigualdade de Schwarz: |< u, v >| ≤ ||u|| ||v||.

Exemplo: Temos que um vetor 𝑎⃗ = (1, 2, -1), a fim de o normalizar. Primeiramente, vamos
calcular a norma do vetor, tendo que:

||a|| = √12 + 22 + (−1)2

||a|| = √1 + 4 + 1

||a|| = √6
Assim, continuamos para realizar a normalização do vetor:
𝑣 (1,2,−1) 1 2 −1
𝑢= ||𝑣||
= =( , , )
√1²+2²+(−1)² √6 √6 √6

Exemplo: Agora vamos calcular a força de atração entre dois corpos com 2 e 5 unidades de
massa, nos pontos (1,3,5) e (2,1,0), respectivamente. Sabemos que a intensidade da atração é
𝑚1+𝑚2
dada por: 𝑑²
, onde m1 é a massa do primeiro corpo, m2 é a massa do segundo corpo e d²
é a distância entre eles. Primeiramente, para calcular a distância, devemos subtrair os dois
vetores:
d² = (2,1,0) – (1,3,5) = (1,-2,-5).

4
𝑚1+𝑚2 2∙5 10 1 1
Aplicando em = ||1,−2,−5|| = (1)2 = . Logo, F = 𝑢.
𝑑2 +(−2)2 +(−5)2 3 3

𝑣 1−2−5 1−2−5 1 −2 −5
Substituímos em 𝑢 = = = =( , , ).
||𝑣|| √1²+(−2)2 +(−5)² √30 √30 √30 √30

1 1 1 −2 −5 1 −2 −5
Em F = 3 𝑢, temos que 3( , , ) = (3 √30 , √30 , √30).
√30 √30 √30 3 3

3.2 Ângulo entre dois vetores


Seja V um espaço vetorial real com produto interno < · , · >. O ângulo entre dois elementos
não-nulos u, v ∈ V é definido como sendo o valor θ ∈ [0, π] que satisfaz a equação: cos (θ) =
<𝑢,𝑣 >
||𝑢||2 ||𝑣||2
.

Exemplo: Sejam V = M (2, 2), as matrizes quadradas de ordem 2 reais e o produto interno dado
pela expressão, comprove que realmente é um produto interno.
𝑎 𝑏 〈| 𝑐 𝑓
Temos que: 〈| |〉 , |〉 = ae + 2bf + 3cg + dh.
𝑐 𝑑 𝑔 ℎ
1 −1 2 1
Assim, calculamos o ângulo entre as matrizes 〈[ ],[ ]〉 = 2 -2 + 0 + 1 = 1.
0 1 −1 1
1 −1
Apenas da primeira matriz: ‖[ ] ‖ = 1 + 2 + 0 + 1 = 4. Observe que está em módulo,
0 1
logo √4 = 2.
2 1
Apenas da segunda matriz: ‖[ ]‖ = 4 + 2 + 3 + 1 = 10. Assim, √10.
−1 1
1
Portanto, arccos θ = 2 √10.

3.3 Definição: Seja V um espaço vetorial com o produto interno. Dizemos que uma base 𝛽 =
{v1, ..., vn} de V é ortonormal se for ortogonal e cada vetor for unitário, ou seja,
0 𝑠𝑒 𝑖 ≠ 𝑗
〈𝑣𝑖, 𝑣𝑗〉 = {
1 𝑠𝑒 𝑖 = 𝑗
Observe também que se tivermos uma base ortonormal 𝛽 = {v1, ..., vn}, os coeficientes xi de
um vetor u são dados por:
<𝑢,𝑣𝑖>
xi = <𝑣𝑖,𝑣𝑖> = <u, vi> .

5
4. PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT
Bases ortonormais são úteis, mas como obtê-las? Partindo-se de uma base qualquer de um
subespaço, não é difícil construir uma base ortogonal (ou ortonormal) para o mesmo subespaço.
A partir de uma base 𝛽 = {v₁, v₂}. Logo, v’₁ = v₁. Assim, a partir de v₂ encontramos um novo
<𝑣₂,𝑣′₁>
vetor v₂ ortogonal a v’₁. Tomamos que v’₂ = v₂ – cv’₁. Onde c = <𝑣′₁,𝑣′₁> . Portanto, v’₁ = v₁ e
<𝑣₂,𝑣′₁>
v’₂ = v₂ - <𝑣′₁,𝑣′₁> v’₁ .

Exemplo: 𝛽 ={v₁, v₂}, base de R², onde v₁ = (1, 0) e v₂ = (1, 1). Através do Processo de Gram-
Schmidt iremos obter uma base ortonormal do R².
1º - Base Ortogonal: w₁ = v₁ = (1, 0)
𝑣₂ ∙ 𝑤₁
2º - w₂ = v₂ – (𝑤₁ ∙ 𝑤₁) ∙ 𝑤₁

Mas, v₂ ∙ w₁ = (1, 1) ∙ (1, 0) = 1 e w₁ ∙ w₁ = (1, 0) ∙ (1, 0) = 1.


1 𝑣₁ = (1, 0)
Então, w₂ = (1, 1) – (1) ∙ (1, 0) = (1, 1) − (1, 0) = (0, 1). Logo, { .
𝑣₂ = (1, 1)

5. COMPLEMENTO ORTOGONAL

Definição: Tomemos um espaço vetorial V munido de um produto interno ⟨ , ⟩ e um


subconjunto S (não necessariamente um subespaço) de V. Teremos que S┴ será, em todos os
casos, um subespaço de V. Onde:

S┴= {v e V | ⟨v,w⟩=0 para todo w ∈ S}

Em relação a S, podemos afirmar que:

ⅰ) S┴ é chamado de complemento ortogonal de S e sempre será subespaço de V (mesmo


quando S não o for);

ⅱ) Se S for um subespaço de V, temos que V=S⊕S┴ .

6. ESPAÇOS VETORIAIS COMPLEXOS – PRODUTO INTERNO

Este tópico tem a função de ressaltar algumas diferenças entre o produto interno de um espaço
vetorial normal e de um espaço vetorial complexo, vejamos:

Dado um espaço vetorial V sobre C, munido de um produto interno ⟨ , ⟩. Se tivéssemos um v


não nulo de V, para calcular o produto ⟨w,w⟩ onde w=iv, percebemos que não seriam atendidas
as seguintes condições do tópico 1 da definição de um produto interno sobre um espaço vetorial
real V

i) ⟨v,v⟩≥0 para todo v

6
iv) ⟨v,w⟩=⟨w,v⟩ para quaisquer v, w.

Desta forma, é necessária uma definição específica para espaços vetoriais complexos.

Definição: Seja V um espaço vetorial complexo, um produto interno sobre V, é dado pela
seguinte aplicação:

⟨ , ⟩ : VxV → C

(u,v) → ⟨u,v⟩

satisfazendo as condições:

i)⟨v,v⟩ ≥0 para todo v ∈ V e ⟨v,v⟩=0 se, e somente se, v=0;

ii) ⟨αu,v⟩=α⟨u,v⟩ , para todo a ∈ C e u,v ∈ V;

iii) ⟨u1+u2, v⟩ = ⟨u1,v⟩ + ⟨u2,v⟩ para todo u1,u2 e v ∈ V;

iv) ⟨u,v⟩ = conjulgado de ⟨v,u⟩ para todo u,v ∈ V.

7. PRODUTO INTERNO E ESTATÍSTICA

Seja S um fenômeno que possui n possibilidades distintas S1, S2, ..., Sn cada evento possui uma
probabilidade distinta p1, p2, ..., pn. O conjunto S = {S1, ..., Sn}é denominado espaço amostral e
p = (p1, ..., pn) é chamado vetor de probabilidades.

Ex.1:

Ao lançar uma moeda o espaço amostral seria o conjunto de todas as possibilidades que o evento
têm de ocorrer, neste caso S = {cara, coroa} e o vetor de probabilidades seria dado por p = (1/2,
1/2).

Então é possível associar uma um vetor pn a cada elemento Si (i=0; n), teremos entao um vetor
X = (X1, X2, ..., Xn) que será chamado variável aleatória.

Ex. 2:

Se duas pessoas A e B fazem a seguinte aposta: lançam uma moeda e se der cara, A ganhará 10
fichas, se der coroa, B ganhará 10 fichas. Então S = {cara, coroa}, p = (1/2, 1/2) a variavel
aleatoria A = (A1, A2) = (10, -10); Ja B = (B1, B2) = (-10, 10).

Podemos definir o valor médio a partir do valor esperado de do vetor x como:


𝑛

𝑋¯ = 𝐸(𝑥) = ∑ 𝑋𝑖 𝑃(𝑋𝑖 )
𝑖=0

e a variância como:

7
𝑛

𝑠 2 = ∑ 𝑃𝑖 (𝑋𝑖 − 𝑋¯)2
𝑖=0

E o desvio padrão:

𝑠 = √∑ 𝑃𝑖 (𝑋𝑖 − 𝑋¯)2 = √𝑠 2
𝑖=0

A ligação destes conceitos com o produto interno é feita através da seguinte equação

[(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ), (𝑦1 , 𝑦2 , . . . , 𝑦𝑛 )] = 𝑝1 𝑥1 𝑦1 + 𝑝2 𝑥2 𝑦2 +. . . +𝑝𝑛 𝑥𝑛 𝑦𝑛

Com isso podemos definir as seguintes relações a este produto interno

𝑋¯ = [𝑋(1, . . . ,1)]

𝑠 2 = [𝑋 − 𝑋¯(1, . . . ,1), 𝑋 − 𝑋¯(1, . . . ,1)]

𝑠 = [𝑋 − 𝑋¯(1, . . . ,1)]

Consideremos agora um fenômeno associado a um espaço amostral S e o vetor probabilidade p


e duas observaçoes são feitas por duas variáveis aleatórias diferentes X e Y. Podemos expressar
a relação entre 𝑋¯𝑒𝑌¯com um escalar λ, tal que:

Sejam:

𝑋 − 𝑋¯(1, . . . ,1) = (𝑋1 − 𝑋¯, . . . , 𝑋𝑛 − 𝑋¯)e 𝑌 − 𝑌¯(1, . . . ,1) = (𝑌1 − 𝑌¯, . . . , 𝑌𝑛 − 𝑌¯)

se ∃𝜆 ∈ ℝtal que (𝑌1 − 𝑌¯, . . . , 𝑌𝑛 − 𝑌¯) = 𝜆(𝑋1 − 𝑋¯, . . . , 𝑋𝑛 − 𝑋¯)

Podemos chegar a conclusão que X e Y estão relacionados por λ, falando de vetores, um escalar
mantem os dois vetores na mesma direção, ou seja θ = 0 ou π, portanto 𝑐𝑜𝑠𝜃 = ±1.Então se as
duas retas estão na mesma direção, cos θ = 1 e a relação é diretamente proporcional, caso as
retas estejam em direções opostas cos θ = -1 e a relação é inversamente proporcional, caso os
dois vetores sejam L.I. λ = 0 e portanto os vetores são ortogonais e não possuem correlação. A
este coeficiente λ se dá o nome de coeficiente de correlação linear denotado por r(X,Y)
aplicando a lei dos cossenos entre os dois vetores, temos:

[𝑋 − 𝑋¯(1, . . . ,1), 𝑌 − 𝑌¯(1, . . . ,1)]


𝑟(𝑋, 𝑌) =
‖𝑋 − 𝑋¯(1, . . . ,1)‖ ⋅ ‖𝑌 − 𝑌¯(1, . . . ,1)‖

Portanto, quanto mais r(X,Y) se aproxima de ±1, mais X e Y estão linearmente correlacionados

Ex.3: Um grupo de 10 alunos com as seguintes notas de matemática e física:

8
Aluno 1 2 3 4 5 6 7 8 9 10
Notas Mat 2 8 5 7 7 5 3 1 9 9
Fis 1 9 7 2 7 4 6 3 9 7

Qual a correlação entre os resultados das matérias?

S.

Seja S= {1,2, …, 10}, tomamos uma probabilidade igual de se considerar as notas de qualquer
aluno então p1->10 = (1/10, …, 1/10) então podemos definir X=(2,8,5,8,7,7,5,3,1,9,9) e Y=
(1,9,7,2,7,4,6,3,9,7)𝑋¯ = 5,6e 𝑌¯ = 5,5

𝑋 − 𝑋¯(1, . . . ,1) = (−3,6; 2,4; −0,6; . . . ; −4,6; 3,4; 3,4)

𝑌 − 𝑌¯(1, . . . ,1) = (−4,5; 3,5; 1,5; . . . ; −2,5; 3,5; 1,5)

[𝑋 − 𝑋¯(1, . . . ,1), 𝑌 − 𝑌¯(1, . . . ,1)] = 4,9

‖𝑋 − 𝑋¯(1, . . . ,1)‖ = 7,4; ‖𝑌 − 𝑌¯(1, . . . ,1)‖ = 7,2

Portanto temos o coeficiente de correlação

𝑟(𝑋, 𝑌) = 0,67

8. O AJUSTE DE CURVAS E O MÉTODO DOS MÍNIMOS QUADRADOS

8.1 Introdução: Consideremos uma coleção de pares ordenados obtidos em função de algum
tipo de experimento, como:

x x1 x2 x3 x4 x5 ... xn-1 xn

y y1 y2 y3 y4 y5 ... yn-1 yn

Tabela 8.1

A colocação destes pares ordenados num plano cartesiano, depende dos valores de xi e yi,
(i=1...n) e pode fornecer um gráfico como:

9
Um fato que atrai pesquisadores aplicados das mais diversas áreas é a possibilidade de obter
uma função real que passe nos pontos ou pelo menos passe próximo dos pontos (xi,yi) dados.
Estudando uma Matemática mais aprofundada existe a Teoria de Interpolação que é a área que
estuda tais processos para obter funções que passam exatamente pelos pontos dados, enquanto
que a Teoria de Aproximação estuda processos para obter funções que passem o mais próximo
possível dos pontos dados.
É óbvio que se pudermos obter funções que passem próximas dos pontos dados e que tenham
uma expressão fácil de ser manipulada, teremos obtido algo positivo e de valor científico.
Dentre os processos matemáticos que resolvem tal problema, com certeza, um dos mais
utilizados é o Método dos Mínimos Quadrados, que serve para gerar o que se chama em
Estatística: Regressão Linear ou Ajuste Linear.
8.2 O Método dos Mínimos Quadrados
As curvas mais comuns utilizadas pelos estatísticos são:
Ordem Função Nome
1 y = a0 + a1 x Reta
2 y = a0 + a1 x + a2 x² Parábola
3 y = a0 + a1 x + a2 x² + a3 x³ Cúbica
4 y = a0 + a1 x + a2 x² + a3 x³ + a4 x4 Quártica
Tabela 8.2

A ideia básica para qualquer uma das funções acima citadas é tentar descobrir quais são os
valores dos coeficientes a0, a1, a2 e a3, de tal modo que a soma dos quadrados das distâncias
(tomadas na vertical) da referida curva y = f(x) a cada um dos pontos dados (yi) seja a menor
possível, daí o nome Método dos Mínimos Quadrados.
Observe as funções tabeladas:
x x1 x2 x3 x4 x5 ... xn-1 xn

f(x) f(x1) f(x2) f(x3) f(x4) f(x5) ... f(xn-1) f(xn)

Se os valores da variável independente x1, x2, x3, ..., xn são sempre os mesmos, cada uma dessas
funções podem ser consideradas como um vetor de um espaço vetorial.
Suponhamos que conhecemos o aspecto analítico de duas funções g1 (x) e g2 (x) e queremos
“aproximar” uma dada função f(x) por uma combinação linear de g1 (x) e g2 (x), isto é, queremos
achar coeficientes c1 e c2 tais que a função
g(x) = c1g1 (x) + c2g2 (x)
seja uma “boa aproximação” para f(x). Por exemplo, se g1 (x) = 1 e g2 (x) = x, estaremos
aproximando f(x) por uma função afim g(x) = c1 + c2 x. E se g1 (x) = sen x e g2 (x) = cos x
estaremos aproximando por g(x) = c1 sen x + c2 cos x.

10
8.3 Exemplo: Ajustar uma função do tipo g(x) = a + bx aos pontos da tabela:
x 0 1 2
f(x) 1,1 0,1 -3,1
Tabela 8.3

Temos g(x) = a * 1 + b * x², ou seja, g1(x) = 1 e g2 (x) = x².


Então < g1 , g1 > = 1 * 1 + 1 * 1 + 1 * 1 = 3
< g1 , g2 > = < g2 , g1 > = 1 * 0² + 1 * 1² + 1 * 2² = 5
< g2 , g2 > = 0² * 0² + 1² * 1² + 2² * 2² = 17
< g1 , f > = 1 * 1,1 + 1 * 0,1 + 1 * (-3,1) = -1,9
< g2 , f > = 0² * 1,1 + 1² * 0,1 + 2² * (-3,1) = -12,3
3𝑎 + 5𝑏 = −1,9
Daí, {
5𝑎 + 17𝑏 = −12,3
Resolvendo temos a ≈ 1,12 e b ≈ -1,05. Portanto, entre as funções do tipo a + bx² a que melhor
se ajusta aos dados da tabela é 0,912 – 0,927x².

11

Anda mungkin juga menyukai