Anda di halaman 1dari 28

1. Espacio vectorial eucldeo.

Un conjunto E es un espacio vectorial eucldeo n-dimensional si es un espacio vectorial real de dimensin n en el que se ha definido una operacin:

f : E E
1. f ( x , y ) = f ( y , x ) ,

, verificando las siguientes propiedades:

x , y E
,

2. f ( x + y , z ) = f ( x , z ) + f ( y , z ) , 3. f ( x , y + z ) = f ( x , y ) + f ( x , z ) ,

y x , y , z E y x , y , z E

4. f ( x , x ) > 0, x 0, x E
vamos a utilizar es : f ( x , y ) = x y

viene dada por:


e1 e1 e e A= 2 1 e e n 1 e2 e1 e2 e2 en e2 e1 en e2 en MATRIZ DE GRAM en en

como

el

producto

ww

entonces la matriz asociada al producto escalar respecto a dicha base


w.

escalar

at

Si B = {e1 , e2 ,, en } es una base del espacio vectorial eucldeo E ,

em

1.1 Matriz Asociada al Producto Escalar

at
es

ic a1

Esta operacin recibe el nombre de producto escalar y la notacin que


.c o

conmutativo,

sucede

que

ei e j = e j ei , i, j es decir:

y de ah se obtiene que la matriz A es simtrica,

e1 e1 e e A = At = 1 2 e e 1 n

e2 e1 e2 e2 e2 en

en e1 en e2 en en

2. Ortogonalidad
2.1 Vectores ortogonales.

Sea E un espacio vectorial eucldeo. ortogonales si y slo si u v = 0 .


2.2 Proposicin

Dos vectores u

y v son

El vector 0 es el nico vector ortogonal a todos los vectores del espacio. Un vector u es ortogonal a un subespacio S de E si y slo si, x S ,

ortogonal a todos los vectores de una base de S .


2.5 Subespacios ortogonales.

Dos subespacios V y W de E son ortogonales si x V , y W x y = 0 .


2.6 Proposicin

Para que dos subespacios V

ww

w.

Un vector u es ortogonal a un subespacio S de E si y slo si es

at

2.4 Proposicin

suficiente que los vectores de una base de V sean ortogonales con los vectores de una base de W .
2.7 Propiedades de la relacin de ortogonalidad.

em
y W sean ortogonales es necesario y

u x = 0.

at

ic

a1

2.3 Vector ortogonal a un subespacio.

.c o

Las principales propiedades de la relacin de ortogonalidad son las siguientes: 1. Si S = {u1 , u2 ,


, uk } es un sistema de vectores ortogonales dos a

dos, ui 0 , i = 1, 2,, k , entonces S es un sistema libre. 2. Si V1 , V2 son dos subespacios de E ,tal que V1 V2 , V1 V2 entonces existe un vector no nulo de V2 ortogonal a todo el subespacio V1 . 3. Si V es un subespacio vectorial de E de dimensin k < n , todo sistema libre formado con vectores de V tiene como mximo k vectores ortogonales dos a dos. 4. Si V es un subespacio de E , de dimensin k < n , el conjunto de

3. Longitud, norma o mdulo de un vector.


Se llama longitud, norma o mdulo de un vector u , y se representa por
u u a la raz cuadrada positivo del producto escalar u u , es decir,

u =+ u u
: E -----------+

NOTA: Si u = 1 , se dice entonces que el vector u es unitario.

ww

w.

6. Si V es un subespacio de E entonces V V = E.

u ------------ u = + u u

at

5. Si V es un subespacio de E entonces V V = {0}.

em

at

complemento ortogonal de V y se representa por V .

ic

a1

n k . Dicho subespacio se denomina suplementario ortogonal o

.c o

todos los vectores ortogonales a V es un subespacio de dimensin


m

3.1 Propiedades de la norma.

1. 2. 3.

u > 0, u 0 u = 0 u = 0

u = u , u E, .

4. u E, u 0, u , es un vector unitario en la direccin de u. u

5. Desigualdad de Schwarz, u , v E : u v u v u v 6. Desigualdades triangulares, u , v E : a. b.


u +v u + v
m .c o

u v u v

3.2 Angulo que forman dos vectores.

expresin:
cos ( ) = u v u v
3.3 Proposicin.

Sean u , v

; u,v 0

a) u y v son ortogonales ( u v ) cos ( ) = 0 u t v = 0. b) u y v son paralelos ( u // v ) cos ( ) = 0 u t v = u v .


3.4 Bases ortogonales y ortonormales.

Una base de un espacio vectorial eucldeo es ortogonal si sus vectores

ww

El ngulo que forman dos vectores u y v se define por medio de la

w.

i =1

at

u v = u t v = ui vi

em

at

Sean

u,v

,u v

el

producto

ic

a1
escalar

usual,

es

decir,

son ortogonales dos a dos. Una base ortonormal es una base ortogonal de vectores unitarios.
3.5 Mtodo de ortogonalizacin de Gram-Schmidt.

Este mtodo nos permite construir una base ortonormal a partir de una base cualquiera del espacio. Si B = {e1 , e2 ,, en } es una base de E , los vectores que se obtienen de la forma: c1 = e1 c2 = e2 c1 c3 = e3 c1
c e2 1 c1

c1 c1 c2
c e3 2 c2

c e3 1 c1

c2
.c o m

em

at

cn = en c1

c en 1 c1

c1 c2

c en 2 c2

a1

c2 .... c n1 c n cn 1

ic

n1

n1

base ortonormal.

4. Proyecciones en Espacios Eucldeos.


4.1 Proyeccin ortogonal de un vector sobre otro.

Sea v E, v 0 . Todo vector u E se descompone como:


u=u v
v v

ww

w.

constituyen una base ortogonal. Entonces B =

c c1 c2 , , n , c1 c2 cn

} es una

at

v + w.

siendo el vector w un vector ortogonal a v . El vector


u v v v

v es la proyeccin ortogonal de u sobre v .

4.2 Proyeccin Ortogonal de un vector sobre un subespacio S.

Sea S un subespacio de E. Todo vector u

de E se descompone de

manera nica de la forma u = s + w , siendo s S y w ortogonal a S . El vector s es la proyeccin ortogonal de u sobre S .


4.3 Expresin matricial del vector proyeccin sobre un subespacio.

Sea u E . Sea S = L {a1 , a2 ,

, ak } ( ai , linealmente independientes ) un

subespacio de E , y sea A la matriz cuyas columnas son las coordenadas de los vectores ai en una base B de E . El vector proyeccin, s , del vector u sobre S viene dado por: s = A( At A ) At u
1

NOTAS:

1. La existencia de la matriz

( A A)
t

queda garantizada por ser


m

em

at

2. Obsrvese que en el caso particular de dim( S ) = 1 , S = L {v } , la

ic

a1

linealmente independientes los vectores ai , para i = 1, 2,, k .


.c o

expresin del vector proyeccin


w.

de u

sobre

sera:

s=u v

v v

que corresponde a la forma s = A( At A ) At u tomando A la matriz


ww
1

columna de las coordenadas de v . En este caso v v = At A

v = v (v t v ) 1 (v t u )

at

u v = At u .

4.5 Matriz Proyeccin asociada a un subespacio S.

Sea S un subespacio de E y B = {a1 , a2 ,

, ak } una base de dicho

subespacio. Sea A la matriz cuyas columnas son las coordenadas de los vectores ai en una cierta base de E . La matriz proyeccin para el subespacio S es la matriz:

PS = A( At A) 1 At . El producto PS u para cualquier vector


u E nos proporciona la

proyeccin ortogonal de u sobre el subespacio S .


4.6 Teorema.

Sea S un subespacio vectorial de E y BS = {a1 , a2 ,

, ak } una base del

mismo. Sea B una base de E y A la matriz n k , cuyas columnas son las coordenadas de los vectores ai respecto a la base B . La matriz proyeccin: PS = A( At A) 1 At es la nica matriz con la propiedad de que para todo vector u E , el

7. ( PS ) 2 = PS , es decir, PS es idempotente. 8. ( PS )t = PS , es decir, PS es simtrica.


4.8 Caracterizacin de las matrices proyeccin.

La condicin necesaria y suficiente para que una matriz n n sea una matriz proyeccin es que sea idempotente y simtrica. En este caso, la matriz es la matriz proyeccin para el subespacio generado por sus columnas.
4.9 Matriz proyeccin utilizando bases ortonormales.

Si A es una matriz n k de columnas ortonormales, At A es la matriz

ww

w.

La matriz proyeccin PS satisface:

at

4.7 Propiedades de la matriz proyeccin.

em

independiente de la base elegida en el subespacio.

at

ic

NOTA: El teorema anterior nos dice que la matriz proyeccin es nica,

a1

vector PS u es la proyeccin de u sobre S .

.c o

identidad. En esta propiedad simplifica en gran medida la expresin de la matriz proyeccin. Sea E un subespacio vectorial de dimensin n , S un subespacio y
B = {a1 , a2 , , ak } una base ortonormal del mismo. Si A es la matriz

cuyas columnas son los vectores ai , entonces la matriz proyeccin para el subespacio S , al ser At A = I , es PS = AAt .

5. Mtodo de los Mnimos Cuadrados


5.1 Planteamiento del Problema.

Trataremos de aplicar el estudio realizado sobre las proyecciones a

nmero de ecuaciones que de incgnitas (sistemas sobredeterminados)

solucin exacta en dichos sistemas. Los sistemas incompatibles surgen en


w.

cometemos al suponer que dicho vector es la solucin del sistema.


5.2 Mtodo de los Mnimos Cuadrados.

Sea el sistema Ax = b , siendo A una matriz m n , con m > n , cuyas columnas son linealmente independientes, es decir, rang ( A) = n . Si b no es combinacin lineal de las columnas de A , el sistema lineal anterior Ax = b es incompatible. Se trata entonces de encontrar un vector x * que minimice el vector error Ax b que para nosotros significar minimizar su norma eucldea:

ww

posible. El problema ser encontrar un vector que minimice el error que

situaciones reales y hay que intentar encontrar la mejor solucin

at

em

at

que, normalmente, son incompatibles. A pesar de la no existencia de

ic

a1

.c o

problemas de anlisis de datos, que nos conducen a sistemas con mayor

2 2 Ax b = ( d1 , d 2 ,, d m ) = + d12 + d 2 + + d m .

Pero minimizar su norma es equivalente a minimizar su norma al cuadrado, es decir, Ax b


2 2 = d12 + d 22 + + d m .

Esta es la razn del nombre del mtodo de los mnimos cuadrados. Para todo vector x , el vector Ax pertenece al subespacio S generado por las columnas de A ; adems, el error Ax b es la distancia de b a
Ax . Entonces, buscar la mejor solucin x * del sistema con el mtodo

de los mnimos cuadrados, equivale a encontrar el vector x * , tal que la


.c o m

distancia de Ax * a b sea la menor posible.

Multiplicando la igualdad anterior por At queda: At Ax = ( At A )( At A ) At b = At b = At b ,


1

Es decir x * , es la solucin del sistema lineal compatible y determinado:


At Ax = At b

(Nota: El sistema anterior es compatible y determinado ya que la matriz At A es una matriz cuadrada de orden n, regular). La solucin del sistema anterior, al ser A de rango mximo, es x * = ( At A ) At b , que nos da la solucin ptima del sistema Ax = b ,
1

ww

w.

Ax = A( At A) 1 At b .

at

lo obtendremos de resolver:

em

proyeccin de b sobre S , es decir el vector A( At A) 1 At b , el vector x *

at

ic

a1

De todos los vectores Ax de S , el que minimiza Ax b es el vector

en el sentido de mnimos cuadrados.


NOTA: Si A M mn tiene columnas ortonormales, la solucin del

sistema Ax = b por el mtodo de los mnimos cuadrados es x * = At b , al ser At A = I

6. Ajuste de datos con el mtodo de mnimos cuadrados


6.1 Recta de ajuste de datos en el plano.

Supongamos que partimos de una coleccin de datos

( xi , yi ) ,

i = 1, 2,, m , que nos proporcionan un conjunto de puntos en el plano. El objetivo es hallar una funcin lineal y = f ( x) , que represente lo mejor funcin y = f ( x) debe aproximarse lo ms posible a la coleccin de

a nuestros datos. Sustituyendo ( xi , yi ) en la anterior igualdad se obtiene: yi = a + bxi , i = 1, 2,, m. Salvo en el caso de que los datos estn sobre una recta del plano, se obtiene un sistema sobredeterminado incompatible que se puede expresar matricialmente:

1 x1 1 x2 a y = y = Ax Ax = y b y 1 x4
2 m

y1

ww

w.

y = f ( x) = a + bx , denominada recta de ajuste, se adapte lo mejor posible

at

El problema ser determinar los valores de a y b tales que la recta

em

puntos.

at

ic

a1

.c o

posible dichos valores. Geomtricamente, significa que la grfica de la

La solucin que minimiza el error en trminos de mnimos cuadrados es la solucin del sistema At Ax = At y , que es: x * = ( At A) 1 At y
NOTA: ( At A) es invertible siempre que las columnas de A sean

linealmente independientes, que, en este caso, equivale a decir que los valores xi no sean todos iguales, es decir, que los puntos ( xi , yi ) no estn todos en una recta vertical.
6.2 Ajuste de datos en
n +1

por una funcin lineal.

Cuando los datos tienen ms de dos componentes, se obtienen sistemas con ms de dos incgnitas por lo general sobredeterminados. Supongamos que tenemos los datos:
.c o

( xk1 , xk 2 ,, xkn ; yk ) ,

y1 y y
2 m

1 1 1

x11 x21 xm1

x1n s0 x2 n s1 x
mn n

de forma abreviada y = As As = y . Si rang ( A) = n + 1 , estamos ante un problema que se puede resolver con el mtodo de los mnimos cuadrados, siendo la solucin ptima la solucin del sistema At As = At y , que es s * = ( At A ) At y .
1

6.3 Otras funciones de ajuste.

ww

w.

Matricialmente se expresa como:

at

yk = s0 + s1 xk1 +

+ sn xkn , k = 1, 2,, m.

em

Se obtiene entonces el sistema:

at

ic

y se quieren ajustar por la relacin lineal y = s0 + s1 x1 +

a1

k = 1, 2,, m,

m > n +1

+ sn xn .

En algunas ocasiones hay que recurrir a otras funciones, como las polinmicas o las exponenciales, para que la curva y = f ( x) sea la que mejor se adapte a un conjunto de datos ( xi , yi ) . As, por ejemplo, si el ajuste se realiza por una funcin polinmica y = f ( x) = c0 + c1 x + c2 x 2 +

+ cn x n ,

al sustituir los datos ( xi , yi ) en la igualdad anterior se obtiene el sistema: yi = c0 + c1 xi + c2 xi2 +

+ cn xin ,

k = 1, 2,, m.

Matricialmente se expresa como:


y1 y2 y
m

xm

2 xm

ww

w.

at

solucin del sistema At Ac = At y , que es c = ( At A ) At y .


*
1

em

at

siendo la solucin ptima por el mtodo de mnimos cuadrados la

ic

a1

1 1

x1 x2

x12
2 x2

x1n c0 n x2 c1
n m n

y = Ac Ac = y
.c o m

PROBLEMAS
1. Dado el espacio vectorial V de los polinomios de grado menor o igual que 1 y el producto escalar:

p1 ( x) p2 ( x) = p1 ( x) p2 ( x)dx .
0

Calcular

la

matriz

asociada

al

producto escalar respecto de la base B = {1, x} SOLUCIN:

Un producto escalar es un caso particular de forma bilineal simtrica, por lo tanto existe una matriz simtrica A, asociada al producto escalar, respecto de cualquier base B = {u , v } de V . Dicha matriz vendr dada u u por: u v u v . v v

1 x = 1. xdx = xdx = 1/ 2
0 0

x x = x. xdx = x 2 dx = 1/ 3
0 0

Luego, la matriz asociada al producto escalar en la base {1, x} es: 1 1/ 2 1/ 2 1/ 3


2. De un producto escalar definido en
2

ww

1 1 = 1.1dx = dx = 1

w.

at

Tal y como se ha definido el producto escalar, lo que sabemos es que:

em

En este caso particular tenemos que: u = 1 y que v = x .

at

ic

a1
respecto de la base

.c o

B = {u , v } , se sabe que:

i) u u = 2
ii ) u (3u + v ) = 5 iii ) v v = 5(u u )
a) Calcular la matriz asociada al producto escalar. b) Calcular (2, 3) (1, 4) SOLUCIN:

a) u u A= u v
u u =2

u v v v
.c o m

Tenemos que:

b) 1 2 1 1 (2, 3) (1, 4) = ( 2, 3) A = ( 2, 3) = 113 4 1 10 4


3. Sea E un espacio vectorial eucldeo de dimensin n y U un subespacio vectorial de E , ortogonal de U , calcular: a) dim(U U ) b) dim(U + U ) SOLUCIN:

ww

2 1 La matriz asociada al producto escalar es: A = 1 10


w.

at

em
U , el subespacio complemento

v v = 5(u u ) = 10

at

u (3u + v ) = 5 3(u u ) + u v = 5 6 + u v = 5 u v = 1

ic

a1

a) Sabemos que la suma de U y U es directa, por tanto U U = {0} con lo cual dim(U U ) = 0. b) Adems de ser suma directa se tiene que, U U = V , directamente se obtiene que dim(U + U ) = dim(V ) = n.
4. Sea

F = {( x, y, z )

/ 2 x + y z = 0} , calcular

una

base

ortonormal de F. SOLUCIN:

Primero hallaremos una base de F, si es ortogonal, bastara con normalizar y el problema estara resuelto, sino aplicaremos el mtodo de Gram-Schmidt para transformarla en otra base de F que sea ortonormal.

1 0 Una base para F es B1 = { 0 , 1 } = {u1 , u2 } que sus vectores no son 2 1 0 ortogonales ya que u u2 = (1, 0, 2) 1 = 2 0 1
t 1

Aplicamos el mtodo de Gram-Schmidt


1 v1 = u1 = 0 2

ww

w.

at

em

at

= {( x, y, 2 x + y )

/ x, y

} =< (1, 0, 2), (0,1,1) >

ic

a1

F = {( x, y, z )

.c o

/ 2 x + y z = 0} = {( x, y, z )

/ z = 2 x + y} =

2 0 1 5 u v 2 v2 = u2 1 v1 = 1 5 0 = 1 v v1 1 2 1 5
t 1 t 1

2 1 5 B2 = { 0 , 1 } es una base ortogonal de F y normalizando los 2 1 5

vectores de B2 se obtiene B3

= {

1 5 0 , 2 5

2 30 5 } 30 1 30

que es una base ortonormal

de F.

base, los vectores de B1 son linealmente independientes con los de B2 . Si la dim(V ) = k entonces dim(V ) = n k , luego una base de F unida con una base de F son k + (n k ) = n vectores linealmente independientes de
n

ww

Sabemos que F F = {0}, como el vector nulo no pertenece a ninguna


w.

at

SOLUCIN:

em

ortonormal de

at
n

ic

ortonormal de

F ,

a1
.

demostrar que

, por tanto forman una base de

Por otra parte los vectores de B1 son ortonormales, es decir, todos tienen norma igual a 1 y son ortogonales entre si, lo mismo ocurre con los vectores de B2 y los vectores de B1 respecto de los de B2 tambin son ortogonales ya que los de B1 son vectores de F y los de B2 lo son de

.c o

5. Sea F

, B1 una base ortonormal de F , B2 una base


B = B1 B2 es una base

F .
En definitiva los vectores de B estn normalizados y son todos ortogonales entre si, forman una base ortonormal de
6. Dados los subespacios de
3

F1 = ( x, y, z ) F2 = {( x, y, z )

x y 3z = 0 y y z = 0

/ x + y + z = 0}

Calcular dim( F1 F2 ) SOLUCIN:

F1 = {x
1

BF = {(1, 0, 4), (0,1, 1)} = {u1 , u2 }


Sabemos que

ww

/ x t w1 = 0} = {( x, y, z )
w.

BF2 = {(1,1, 0), (1, 0,1)} = {v1 , v2 }

at

em
3

BF1 = {(4,1,1)} = {w1}

at
/ 4 x + y + z = 0}

ic

dim( F2 ) = 3 rango (1 1 1) = 3 1 = 2;

a1

.c o

1 1 3 dim( F1 ) = 3 rango = 3 2 = 1; 0 1 1

dim( F1 F2 ) = dim( F1 ) + dim( F2 ) dim( F1 + F2 ) = 2 + 2 rango(u1 u2 v1 v2 ) = 1 = 4 rango 0 4 1 = 4 rango 0 0 = 43 =1


7. Un producto escalar
B = {(1, 0,1) , ( 2,1, 0 ) , ( 1, 0,1)}

1 1 1 1 0 = 1 0 1 0 1 1 1 1 0 = 4 3 =1 0 3 3 0
3

en

con por
.c o m

respecto matriz

la

base

tiene

asociada

cannica tiene por coordenadas

base B . Sabemos que la relacin entre las coordenadas de un vector respecto de ambas bases es x = Px Sabemos que la matriz P cambio de base de B ' a la base cannica es:
4 1 2 1 x 1 2 1 P = 0 1 0 , por lo tanto, se cumple que: 1 = 0 1 0 y 1 1 0 1 z 1 0 1

siendo x , y , z las coordenadas de v respecto a la base B ' . Por lo tanto:

ww

Lo primero que tenemos que hacer es expresar el vector v respecto a la

w.

SOLUCIN:

at

em

at

2 1 2 G = 1 3 1 , calcular la norma del vector v que en la base 2 1 4

ic

( 4,1, 1)

a1

x 1 2 1 4 y = 0 1 0 1 = z 1 0 1 1

1 2 0 1 2

1 1 1

4 1 2 0 1 = 1 3 1 2 2 1
1 2

Una vez que tenemos expresado el vector v respecto de la base B , su norma ser:
v = v v = v t Gv =

(1 2

2 1 2 1 2 3 1 2 ) 1 3 1 1 = 2 1 4 3 2

1 2 ( 1 2 4 ) 1 = 3 2 n=5

15 2

8. Si V

es un espacio vectorial de dimensin

W = x V : Ax = 0

es un subespacio vectorial de V . Justificar

a1

cuales de las siguientes afirmaciones son verdaderas y cuales falsas:

.c o

w.

b) dim(W ) coincide con el rango de A .

at

em

f ( x ) = Ax .

at

ic

a) W

es el ncleo de la aplicacin lineal

f : V V definida por

d) Si dim(W ) = 2 , el rango de A es 2. SOLUCIN:

Sabemos que:

i ) Al estar W definido como solucin de un sistema de ecuaciones


homogneo, dim(W ) = dim(V ) rango( A) = n rango( A) = 5 rango( A)

ii ) dim(W ) + dim(W ) = dim(V )


a) Verdadera Para verlo, basta considerar la definicin de ncleo de una aplicacin lineal:

ww

c) Todas las filas de la matriz A pertenecen a W

Si tenemos la aplicacin lineal: f : V V definida por f ( x ) = Ax , por definicin de ncleo se tiene que:

Ker ( f ) = x V / f ( x ) = 0 = x V / Ax = 0 = W .
b) Verdadera Tenemos que:
dim(W ) + dim(W ) = dim(V ) dim(W ) + dim(W ) = n dim(W ) = n dim(W ) = n (n rango( A)) = rango( A)

} {

c) Verdadera Sabemos que para cada w W , entonces:


Aw = 0 , por lo tanto, al

multiplicar cada fila de la matriz A por w , el resultado es 0 . En realidad

multiplicado por el vector w , usando el producto escalar usual, nos da 0,

vectores de W , por lo tanto cada vector fila de la matriz A pertenece a


w.

d) Falsa

El subespacio vectorial W se puede ver como el ncleo de la aplicacin

f : V V definida por f ( x ) = Ax . Por la frmula de las dimensiones


sabemos que:

dim(V ) = dim( Ker ( f )) + dim( Im( f )) .


y tambin sabemos que

ww

Luego, como dim(V ) = 5

W .

dim( Im( f )) = rango( A).


y

at

em

dim( Im( f )) = 5 2 = 3 luego rango( A) = 3.

at

es decir que cada vector fila de la matriz A es ortogonal a todos los

ic

dim(W ) = dim( Ker ( f )) = 2 , entonces

a1

.c o

esto es equivalente a decir que cada vector fila de la matriz A


m

9. Sea V un espacio vectorial eucldeo y U un subespacio vectorial de V , U el subespacio complemento ortogonal de U . Justificar cuales de las siguientes afirmaciones son verdaderas y cuales falsas: a) dim(U ) = dim(U ) b) dim(U U ) = 0 c) dim(U U ) = dim(V ) d) (U ) = 0 SOLUCIN:

{}

a) Falso Veamos el siguiente contraejemplo. Consideramos V = usual,

= {( x, y, z )

: x + y = 0} = {( x, y, z )

ww

w.

U = {( x, y, z )

: ( x, y, z ) (1, 0,1) = 0, con el producto escalar usual} =


3

at

em

U = (1, 0,1) . Veamos cul es su complemento ortogonal:

at

ic

( x1, x2 , x3 ) ( y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3 ,

a1

.c o

, espacio vectorial eucldeo con el producto escalar y el subespacio

: x = y} = (1, 1, 0 ) , ( 0, 0,1)

dim(U ) = 1 y sin embargo dim(U ) = 2 1 b) Verdadera Una de las propiedades del subespacio complemento ortogonal nos dice que:

U U = V

de

donde

se

deduce

inmediatamente

que

U U = 0 , o equivalentemente: dim U U = 0 c) Falsa

{}

Sabemos que U U = 0 , por lo tanto la dimensin de esta interseccin nunca puede ser igual a la dimensin de V porque se parte de la hiptesis de que el espacio vectorial V es no nulo. d) Falsa. (U ) = U , por lo tanto, siempre que U sea distinto del subespacio nulo, (U ) 0 .
10. El vector v = (1,1, 0 ) F , siendo F = ( 0,1,1) , (1, 3, 1) . Calcular el vector de F que mejor se aproxima a v en el sentido de mnimos cuadrados. SOLUCIN:
.c o m

{}

{}

es su proyeccin ortogonal sobre F, dicha proyeccin ortogonal viene

w.

vectores de la base que genera al subespacio F .


NOTA : Una condicin necesaria para que exista la matriz

at

em

dada por w = A( At A ) At v siendo A la matriz cuyas columnas son los


1

at

ic

a1

El vector que mejor se aproxima a v en el sentido de mnimos cuadrados

( A A)
t

ww

es

que los vectores que definen las columnas de la matriz A sean linealmente independientes, es decir, no basta con que generen a F , es necesario que sean base de F . w = A( At A ) At v
1

0 1 0 1 1 0 1 1 0 1 1 = 1 3 1 3 1 = 1 3 1 1 1 1 3 1 0 1 1

0 1 11 = 1 3 181 1 1 9 0 1 1 = 1 3 19 1 1 9

1 1 9 0 1 1 1 = 1 3 1 9 1 0
5 18 2 9

1 1 = 2 9 0
13 18

1 3 0 1 1 6 7 = 1 3 1 = 1 1 3 6 1 6

Otra forma de enfocar y resolver el problema es sabiendo que el vector

es un sistema incompatible. Se plantea y resuelve el sistema

1 1 6 = que son las coordenadas de la A A = A v , obtenindose 1 2 3


t t

ww

0 1 1 0 1 1 1 1 + 2 3 = 1 1 3 1 = 1 1 1 0 1 1 2 0
w.

proyeccin ortogonal de v sobre F, el vector proyeccin de v sobre F es por tanto


A = ( u1 u2 )

1 = 1 2

1 1 1 3 6 7 3 1 = 6 . 3 1 1 1 6
0
3

11. Sea el espacio vectorial

at

em

, y el subespacio W = (1, 0,1) , ( 0,1,1) .

at

que el sistema:

ic

a1

v = (1,1, 0 ) F , siendo F =< ( 0,1,1) , (1, 3, 1) >=< u1 , u2 > , quiere decir


.c o

Si u = ( 4, 3, 0 )

, u W . Calcular el vector de W que mejor se

aproxima a u en el sentido de mnimos cuadrados. SOLUCIN:

El vector de W que mejor se aproxima a u en el sentido de mnimos cuadrados es su proyeccin ortogonal sobre W . Dicha proyeccin ortogonal viene dada por la siguiente expresin: x = A( At A ) At u , siendo
1

la matriz cuyas columnas son las

coordenadas de un sistema generador, linealmente independiente de W . Por lo tanto, se tiene que: 1 0 1 0 4 1 t 1 0 1 1 0 1 t x = A( A A ) A u = 0 1 0 1 3 = 1 1 0 1 1 1 1 0 1 1 0


1 0 4 1 2 1 1 0 1 = 0 1 3 = 1 1 1 2 0 1 1 0
w.
1

at

1 0 2 = 0 1 31 1 1 3
x+ y

= 0 12. Dado el sistema: x + y = 1 , calcular la mejor solucin por 2 x + 3 y = 1

mnimos cuadrados. SOLUCIN:

ww

em

at

5 4 3 1 1 0 1 2 3 3 = 2 1 1 3 3 0 0 7 3

ic

a1

.c o

Si llamamos A a la matriz de los coeficientes y b a la matriz de los trminos independientes del sistema anterior, como las columnas de A son linealmente independientes, sabemos que la mejor solucin por mnimos cuadrados viene dada por: 1 1 0 1 t 1 1 2 1 1 2 t x = ( A A ) A b = 1 1 1 = 1 1 3 2 3 1 1 3 1
0 1 6 6 1 1 2 11 30 = 1 = 1 6 11 1 1 3 5 1 0 1 1 1 2 5 1 = 1 1 1 3 1 5
m
1

13 30 3 5

Luego, la mejor
y= 3. 5

solucin por mnimos cuadrados es:

2 x + y = 3 solucin aproximada del sistema de ecuaciones x 2 y = 0 3 x y = 2

SOLUCIN:

ww

w.

at

em

13. Utilizando el mtodo de los mnimos cuadrados, calcular una

at

ic

a1

.c o

x = 13 30

La matriz de los coeficientes del sistema es rango( A) = 2.


3 La matriz de los trminos independientes es b = 0 . 2

2 1 A = 1 2 , 3 1

El sistema no tiene solucin ya que


3 2 1 rango( A ) = rango( A | b) = rango 1 2 0 = 3 2 = rango( A) 3 1 2

x Tenemos el sistema: Ax = b , siendo x = . y La solucin ptima del sistema en el sentido de los mnimos cuadrados, es la solucin del sistema At Ax = At b como la matriz A es de rango mximo, viene dada por: x * = ( At A ) At b
1

Es decir: 2 1 3 2 1 3 2 1 3 * x = 1 2 0 = 1 2 1 3 1 1 2 1 2
1

em

ww

2 25 1 25

1 25 2 14 1 75

3 1 3 0 = 2 1 2
w.

at

x1 + x2

14. Dado el sistema 3x1 + x2 x1 + x2 mnimos cuadrados. SOLUCIN:

1 1 La matriz de coeficientes del sistema es A = 3 1 , rango( A) = 2. 1 1

at
=

ic

1 5 14 15
0 = 1 calcular la solucin por = 1

a1

.c o

1 1 0 La matriz ampliada es A = 3 1 1 , rango( A ) = 3, 1 1 1

por tanto el sistema es incompatible, luego no tiene solucin exacta. Se plantea el nuevo sistema A Ax = A b, siendo x =
t t
1 2

0 y b = -1 , 1

para encontrar solucin aproximada al sistema por el mtodo de mnimos cuadrados, el nuevo sistema a resolver es:
1 1 0 1 3 1 x1 1 3 1 3 1 x = 1 1 1 1 1 1 1 2 1 1 1

{(2, 2), (1, 0), (0, 1), (1, 4)}


SOLUCIN:
ww

Buscamos la recta, y = mx + n, que mejor se ajuste al conjunto de puntos, primero se intentar encontrar una recta que contenga a los cuatro puntos, si no existe, se buscar la que menor error cuadrtico cometa. (2, 2) 2 (1, 0) 0 (0, 1) 1 (1, 4) 4 = 2m + n 2m + n = 1m + n m + n = 0m + n n = 1m + n m+n = 2 = 0 ; = 1 = 4

w.

cuadrados

al

conjunto

at

15. Calcular la recta que mejor se ajusta en el sentido de mnimos de puntos siguiente

em

at

11x1 3 x2 3 x1 + 3 x2

= 2 1 1 cuya solucin exacta es x1 = , x2 = . 4 4 = 0

ic

a1

.c o

2 1 A = 0 1

1 2 1 0 , si hallamos una forma escalonada equivalente de A 1 1 1 4 1 2 1 1 , directamente se observa que rango( A) = 2 y 0 1 2 0 0

2 0 obtenemos 0 0

rango( A ) = 3 Sistema incompatible, no hay una recta que pase por los cuatro puntos. Se plantea el nuevo sistema At Ax = At b. 2 1 Siendo A = 0 1 1 2 1 0 m , x = y b = y nos queda: 1 1 n 4 1

La recta es por tanto y = 1 x + 3 2 2

ww

6m 2n = 0 3 1 cuya solucin exacta es m = 2 , n = 2 . 2 m + 4 n = 5


w.

at

em

at

ic

a1

.c o

Anda mungkin juga menyukai