Anda di halaman 1dari 31

Algebra Lineal

Grado en Ingeniera Electrica


Dpto. de Matematica Aplicada
Escuela de Ingenieras Industriales de Valladolid
Universidad de Valladolid
Curso 2011-2012
Captulo 1
Matrices, Sistemas y Determinantes.
1.1. Matrices.
1.1.1. Deniciones basicas
Una matriz es una tabla rectangular de n umeros, (es decir, una distribucion ordenada de
n umeros). Los n umeros de la tabla se conocen con el nombre de elementos de la matriz. El
tama no de una matriz se describe especicando el n umero de las y columnas que la forman. Si A
es una matriz de m las y n columnas, A
mn
, se usara a
ij
para denotar el elemento de la la i y la
columna j y en general, se representara por
A =
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
Al conjunto de todas las matrices de tama no mn lo denotaremos por /
mn
Se dice que dos matrices son iguales si tienen el mismo tama no y los elementos correspondientes
en ambas matrices son iguales.
Una matriz A
nn
se denomina matriz cuadrada de orden n y de los elementos de la matriz
a
11
, a
22
, ..., a
nn
se dice que forman la diagonal principal.
Una matriz cuadrada A se dice triangular superior, si todos los elementos por debajo de la
diagonal principal son nulos, es decir: a
ij
= 0, para cualquier i,j tal que i > j. Una matriz cuadrada
A se dice triangular inferior, si todos los elementos por encima de la diagonal principal son nulos,
es decir: a
ij
= 0, para cualquier i,j tal que i < j. Una matriz cuadrada A se dice que es diagonal,
si es triangular superior e inferior.
1.1.2. Operaciones en las matrices
Suma: Si A y B son dos matrices del mismo tama no la suma A + B es otra matriz C del mismo
tama no con c
ij
= a
ij
+ b
ij
, i, j.
El neutro de la suma es la matriz cero, 0, con todos los elementos cero.
Producto por escalares: Si A es una matriz y k IR un escalar, el producto kA es otra matriz
C del mismo tama no y tal que c
ij
= ka
ij
, i, j.
1
1.1 Matrices. ma t
Producto de matrices: Si A
mn
y B
np
el producto AB es otra matriz C de tama no mp y tal
que c
ij
=
n

k=1
a
ik
b
kj
(observese que se trata de sumar los productos de cada elemento de la la i de A
por el elemento correspondiente de la columna j de B).
Esta denicion requiere que el n umero de columnas de la primera matriz, A, sea igual que el
n umero de las de la segunda matriz, B, puesto que para el calculo de c
ij
ha de haber tantos
elementos en la la i (n umero de columnas de A) como en la columna j (n umero de las de B). En
forma sinoptica con los tama nos (mn) (n p) = (mp). La matriz identidad, I
nn
, formada
por ceros excepto en la diagonal principal que tiene unos, verica que para toda A
mn
se tiene que
I
mm
A
mn
= A
mn
y A
mn
I
nn
= A
mn
.
Proposicion 1 (Propiedades de las operaciones).-
1. A+ B = B + A (conmutativa de la suma)
2. A+ (B + C) = (A+ B) + C (asociativa de la suma)
3. A(BC) = (AB)C (asociativa del producto)
4. A(B + C) = AB + AC (distributiva por la izquierda)
5. (A+ B)C = AC + BC (distributiva por la derecha)
6. k(B + C) = kB + kC; k IR
7. (k + )C = kC + C; k, IR
8. k(BC) = (kB)C = B(kC); k IR
En general, NO es cierto que:
AB = BA
AB = AC = B = C
AB = 0 = A = 0 o B = 0
Ejemplo 2.- Con A =
_
0 1
0 2
_
, B =
_
3 7
0 0
_
y C =
_
1 1
0 0
_
obtenemos que AB =
_
0 0
0 0
_
,= BA =
_
0 17
0 0
_
es decir AB ,= BA y AB = 0 con A ,= 0 y B ,= 0. Ademas
AC = 0 = AB y B ,= C.
1.1.3. Matrices elementales
Denicion 3.- Llamamos operacion elemental en las las de las matrices, a alguna de las si-
guientes:
a) Cambiar la posicion de dos las. F
i
F
j
b) Multiplicar una la por una constante k distinta de cero. F
i
kF
j
c) Sumar a una la un m ultiplo de otra la. F
i
F
i
+ F
j
Matematicas I 2
1.2 Lenguaje matricial de los sistemas de ecuaciones ma t
Denicion 4.- Se dice que una matriz n n es una matriz elemental si se obtiene de efectuar
una sola operacion elemental sobre la matriz identidad n n.
Teorema 5.- Si la matriz elemental E
mm
resulta de efectuar cierta operacion elemental sobre las
las de I
mm
y si A
mn
es otra matriz, el producto EA es la matriz m n que resulta de efectuar
la misma operacion elemental sobre las las de A.
1.2. Lenguaje matricial de los sistemas de ecuaciones
1.2.1. Metodo de Gauss
Si consideramos un sistema de m ecuaciones lineales con n incognitas
a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
= b
2
. . . . . . . . . . . . . . .
a
m1
x
1
+ a
m2
x
2
+ . . . + a
mn
x
n
= b
m
_

_
este puede escribirse como AX = B donde A
mn
= (a
ij
), X
n1
= (x
i
), B
m1
= (b
j
).
La matriz A se denomina matriz de los coecientes del sistema y la matriz (A[B) se denomina
matriz ampliada del sistema.
Multiplicando sucesivamente en la igualdad AX = B por matrices elementales adecuadas E
1
AX =
E
1
B, E
2
E
1
AX = E
2
E
1
B, . . . , E
k
. . . E
2
E
1
AX = E
k
. . . E
2
E
1
B se llega a un sistema equivalente
RX = L, que tiene las mismas soluciones que el inicial, pero de mayor simplicidad a la hora de
encontrar las soluciones (por ejemplo si la matriz R conseguida es la identidad tendramos IX = L
es decir X = L que es la solucion buscada).
En general buscaremos una matriz escalonada, con ceros por debajo de la escalera, que
permite una resolucion sencilla (como veremos luego). Esta matriz reducida debe cumplir:
1. Si una la consta unicamente de ceros debe ir en la parte inferior de la matriz.
2. Si dos las seguidas no constan solo de ceros, el primer elemento distinto de cero de la la
inferior debe encontrarse mas a la derecha que el primer elemento distinto de cero de la la
superior.
La b usqueda de estas matrices se conoce con el nombre de metodo de Gauss.
Ejemplo 6.-
5x
3
+ 10x
4
+ 15x
6
= 5
x
1
+ 3x
2
2x
3
+ 2x
5
= 0
2x
1
+ 6x
2
5x
3
2x
4
+ 4x
5
3x
6
= 1
2x
1
+ 6x
2
+ 8x
4
+ 4x
5
+ 18x
6
= 6
_

_
Apliquemos sobre este sistema el metodo de Gauss, es decir hagamos operaciones elementales, sobre
la matriz A de los coecientes y, como vimos, tambien sobre B para que se mantenga la igualdad. Por
comodidad efectuamos las operaciones elementales sobre la matriz ampliada para con ello realizar
las operaciones sobre A y B de una sola vez.
Matematicas I 3
1.2 Lenguaje matricial de los sistemas de ecuaciones ma t
A[B =
_
_
_
_
_
0 0 5 10 0 15 5
1 3 2 0 2 0 0
2 6 5 2 4 3 1
2 6 0 8 4 18 6
_
_
_
_
_
Por la operacion (a) cambiamos la la
1 por la la 2, F
1
F
2
.
_
_
_
_
_
1 3 2 0 2 0 0
0 0 5 10 0 15 5
2 6 5 2 4 3 1
2 6 0 8 4 18 6
_
_
_
_
_
Por (b) hacemos cero el 2 de F
3
y el de
F
4
: F
3
F
3
2F
1
, F
4
F
4
2F
1
.
_
_
_
_
_
1 3 2 0 2 0 0
0 0 5 10 0 15 5
0 0 1 2 0 3 1
0 0 4 8 0 18 6
_
_
_
_
_
Hacemos 0 el 1 de F
3
y el 4 de F
4
:
F
3
F
3
+
1
5
F
2
, F
4
F
4

4
5
F
2
.
_
_
_
_
_
1 3 2 0 2 0 0
0 0 5 10 0 15 5
0 0 0 0 0 0 0
0 0 0 0 0 6 2
_
_
_
_
_
F
3
F
4
.
_
_
_
_
_
1 3 2 0 2 0 0
0 0 5 10 0 15 5
0 0 0 0 0 6 2
0 0 0 0 0 0 0
_
_
_
_
_
Esta matriz es escalonada, y nos pro-
porciona el sistema
x
1
+ 3x
2
2x
3
+ 2x
5
= 0
5x
3
+ 10x
4
+ 15x
6
= 5
6x
6
= 2
0 = 0
_

_
Las soluciones se encuentran facilmente
sustituyendo de abajo hacia arriba,
obteniendose:
x
6
=
1
3
, x
3
= 2x
4
, x
1
= 3x
2
4x
4
2x
5
, donde x
2
, x
4
y x
5
pueden tomar cualquier valor. Las
soluciones son: (3x
2
4x
4
2x
5
, x
2
, 2x
4
, x
4
, x
5
,
1
3
) para todo x
2
, x
4
y x
5
IR.
El primer elemento distinto de cero de las las lo llamaremos elemento principal y las incognitas
correspondientes a estos elementos incognitas principales.
Si en alguna la el elemento principal esta en la columna ampliada, el sistema no tiene solucion
(obviamente una de las ecuaciones equivalentes sera 0x
1
+ . . . + 0x
n
= k(elemento principal ,= 0)
y esta igualdad no puede cumplirse para ning un valor que demos a las incognitas). En este caso,
diremos que se trata de un sistema incompatible.
Si el sistema tiene solucion, es decir, si el sistema es compatible, tenemos dos casos:
Si el n umero de elementos principales es igual que el n umero de incognitas el sistema tiene
solucion unica. Supongamos que la matriz escalonada obtenida es
_
_
_
1 2 0 0
0 5 15 5
0 0 6 2
_
_
_, el sistema
_

_
x
1
= 2x
2
5x
2
= 5 15x
3
6x
3
= 2
y se obtiene
_

_
x
1
= 0
x
2
= 0
x
3
=
1
3
solucion unica. En este caso, diremos que se trata
de un sistema compatible determinado.
Matematicas I 4
1.3 Matriz transpuesta. Inversa de una matriz ma t
Si el n umero de elementos principales es menor que el n umero de incognitas el sistema tiene
innitas soluciones. Basta observar el ejemplo 6 anterior, tenemos una solucion para cada uno
de los posibles valores de x
2
, x
4
y x
5
. En este caso, diremos que se trata de un sistema
compatible indeterminado.
Sistemas homogeneos
Un sistema de ecuaciones lineales se dice que es homogeneo si tiene todos los terminos indepen-
dientes cero; es decir, un sistema de la forma AX = 0.
Un sistema homogeneo siempre tiene solucion (en efecto X = 0 es siempre solucion, a esta
solucion suele llamarse la solucion trivial y de cualquier otra solucion distinta de esta se dice solucion
no trivial).
1.2.2. Metodo de Gauss-Jordan
El metodo de Gauss-Jordan contin ua el metodo de Gauss, haciendo operaciones elementales para
conseguir una matriz escalonada reducida que tiene unos por elementos principales y en las
columnas que contienen a dichos unos todos los demas elementos son cero.
Continuando con el sistema anterior
_
_
_
_
_
1 3 2 0 2 0 0
0 0 5 10 0 15 5
0 0 0 0 0 6 2
0 0 0 0 0 0 0
_
_
_
_
_
Hacemos 1 los elementos principales:
F
2

1
5
F
2
y F
3

1
6
F
3
.
_
_
_
_
_
1 3 2 0 2 0 0
0 0 1 2 0 3 1
0 0 0 0 0 1
1
3
0 0 0 0 0 0 0
_
_
_
_
_
Hay que hacer cero el 3 de F
2
y C
6
(a
26
):
F
2
F
2
3F
3
.
_
_
_
_
_
1 3 2 0 2 0 0
0 0 1 2 0 0 0
0 0 0 0 0 1
1
3
0 0 0 0 0 0 0
_
_
_
_
_
Hay que hacer cero el -2 de F
1
y C
3
(a
13
): F
1
F
1
+ 2F
2
.
_
_
_
_
_
1 3 0 4 2 0 0
0 0 1 2 0 0 0
0 0 0 0 0 1
1
3
0 0 0 0 0 0 0
_
_
_
_
_
Luego
_

_
x
1
= 3x
2
4x
4
2x
5
x
3
= 2x
4
x
6
=
1
3
obteniendose, naturalmente, las mismas soluciones que antes.
1.3. Matriz transpuesta. Inversa de una matriz
1.3.1. Matriz transpuesta
Denicion 7.- Si A es una matriz m n llamamos matriz transpuesta de A a la matriz A
t
de
tama no n m que tiene por las las columnas de A y por columnas las las de A.
Matematicas I 5
1.3 Matriz transpuesta. Inversa de una matriz ma t
Proposicion 8.- Se verican las siguientes propiedades:
1. (A
t
)
t
= A
2. (A+ B)
t
= A
t
+ B
t
3. (kA)
t
= kA
t
4. (AB)
t
= B
t
A
t
(en general (A
1
A
2
A
n
)
t
= A
t
n
A
t
2
A
t
1
)
Denicion 9.- Una matriz cuadrada A se dice simetrica si A = A
t
, es decir, si a
ij
= a
ji
para todo
i,j. Se dice antisimetrica si A = A
t
, es decir, si a
ij
= a
ji
para todo i,j.
1.3.2. Matrices inversibles
Denicion 10.- Si A es una matriz cuadrada de orden n, A
nn
, y existe B
nn
tal que AB = I
o BA = I (en cuyo caso AB = BA = I), se dice que A es inversible y que B es inversa de A.
Si una matriz A tiene inversa, esta es unica y se denotara por A
1
.
Proposicion 11.- Las matrices elementales son inversibles y sus inversas son tambien elementales:
De intercambiar dos las, intercambiarlas de nuevo.
De multiplicar una la por k ,= 0, multiplicar esa la por 1/k.
De sumar a una la un m ultiplo de otra, restar a esa la el m ultiplo sumado.
Teorema 12.- Si A y B son dos matrices inversibles, entonces AB es inversible y
(AB)
1
= B
1
A
1
.
Demostracion:
Basta comprobarlo: (AB)B
1
A
1
= A(BB
1
)A
1
= AA
1
= I.
En general (A
1
A
2
A
k
)
1
= A
1
k
A
1
2
A
1
1
Proposicion 13 (Propiedades).-
1. (A
1
)
1
= A,
2. (A
n
)
1
= (A
1
)
n
,
3. Si k ,= 0 entonces (kA)
1
=
1
k
A
1
.
Denicion 14.- Una matriz cuadrada, A, se dice ortogonal si A
1
= A
t
.
Teorema 15.- Sea A
nn
una matriz. Son equivalentes:
a) A es inversible.
b) El sistema homogeneo asociado AX = 0 tiene solucion unica.
c) Por operaciones elementales en A puedo llegar a la identidad.
Corolario 16 (Calculo de A
1
por el metodo de Gauss).- Si A es inversible ya vimos que
E
k
E
2
E
1
A = I, luego A
1
= E
k
E
2
E
1
. Puede facilmente calcularse la inversa a partir de
las operaciones elementales, sin mas que realizar sobre I las mismas operaciones elementales que
efectuemos sobre A para llegar a la identidad. Es decir,
Tomando (A[I) efectuando las operaciones en A e I se llega a (I[A
1
)
Matematicas I 6
1.3 Matriz transpuesta. Inversa de una matriz ma t
1.3.3. Determinante de una matriz cuadrada
Denicion 17.- Sea A /
nn
, llamaremos menor del elemento a
ij
y lo denotaremos por M
ij
,
al determinante de la submatriz que se forma al suprimir en A la la i y la columna j. Al n umero
(1)
i+j
M
ij
lo llamaremos cofactor del elemento a
ij
y lo denotaremos por C
ij
.
Denicion 18.- Sea A /
nn
. Se dene el determinante de A, que denotaremos por det(A) o det A
o [A[, de la siguiente manera:
Si n = 1, det A = a
11
.
Si n 2, det A = a
11
C
11
+ a
12
C
12
+ + a
1n
C
1n
Ejemplo 19.-

1 2 3
4 5 6
7 8 9

= 1

5 6
8 9

4 6
7 9

+ 3

4 5
7 8

= 1(5 9 6 8) 2(4 9 6 7) + 3(4 8 5 7) = 0


La denicion de determinante que hemos dado utiliza los cofactores de la primera la de la matriz,
pero podramos haber utilizado cualquier otra la o columna, como pone de maniesto el siguiente
resultado
Teorema 20.- Sea A /
nn
entonces
det(A) =
n

k=1
a
ik
C
ik
para cualquier la i = 1, 2, . . . , n y
det(A) =
n

k=1
a
kj
C
kj
para cualquier columna j = 1, 2, . . . , n
Puesto que el resultado anterior permite el calculo del determinante por cualquier la o columna
de la matriz, elegiremos la que tenga mas ceros.
Dos resultados inmediatos:
1. Si A es una matriz que tiene una la o una columna de ceros, entonces [A[ = 0.
2. Si A es una matriz triangular (superior o inferior) entonces [A[ es el producto de los elementos
de la diagonal principal, [A[ = a
11
a
22
a
nn
.
Calculo de determinantes por reduccion a la forma escalonada
Teorema 21 (de las operaciones elementales).- Sea A
nn
una matriz. Se tiene:
a) que si A

es la matriz que resulta de multiplicar una la de A por una constante k, entonces


det(A

) = k det(A).
b) que si A

es la matriz que resulta de intercambiar dos las de A, entonces


det(A

) = det(A).
c) que si A

es la matriz que resulta de sumar a una la k un m ultiplo de la la i, entonces


det(A

) = det(A).
Matematicas I 7
1.4 Rango de una matriz. Teorema de Rouche ma t
Corolario 22.- Una matriz con dos las iguales tiene determinante cero.
Demostracion:
Sea B una matriz cuadrada que tiene la la i y la la k iguales, entonces por la parte b) anterior,
si intercambiamos las las i y k que son iguales se obtiene que det(B) = det(B) es decir que
det(B) = 0.
Lema 23.- Para A
nn
tenemos que: det(A
t
) = det(A) y det(kA) = k
n
det(A).
Teorema 24.- Si A y B son matrices cuadradas de orden n, entonces
det(AB) = det(A) det(B).
Teorema 25.- Para A
nn
se cumple: A es inversible det(A) ,= 0, en cuyo caso det(A
1
) =
1
det(A)
.
Regla de Cramer.
Teorema 26.- Sea AX = B, un sistema de n ecuaciones con n incognitas, tal que A es inversible,
entonces el sistema tiene como unica solucion:
x
1
=

b
1
a
12
a
1n
b
2
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
b
n
a
n2
a
nn

[A[
, x
2
=

a
11
b
1
a
1n
a
21
b
2
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
b
n
a
nn

[A[
, . . . , x
n
=

a
11
a
12
b
1
a
21
a
22
b
2
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
b
n

[A[
.
1.4. Rango de una matriz. Teorema de Rouche
Denicion 27.- Se llama rango de una matriz A
mn
, rang(A) o rg(A), al maximo orden que resulta
de considerar todas las submatrices cuadradas de A, cuyo determinante es distinto de cero.
Resultan evidentes, estos resultados:
- Si A es mn, entonces: rg(A) mn(m, n).
- Si A es mn, entonces: rg(A) = rg(A
t
).
- Si A es n n, entonces: rg(A) = n det(A) ,= 0.
Dado que el rango de una matriz no vara realizando en ella operaciones elementales puede tambien
denirse el rango como:
el n umero de las distintas de cero que aparecen en alguna de las formas escalonadas de
la matriz.
Proposicion 28.- Sea A
mn
una matriz, y M
rr
una submatriz de A con determinante distinto de
cero. Entonces, si el determinante de todas las submatrices de orden r + 1 que se pueden conseguir
en A a nadiendo una la y una columna a M son cero, el rango de A es r.
Matematicas I 8
1.4 Rango de una matriz. Teorema de Rouche ma t
Este resultado permite encontrar el rango de una matriz buscando una submatriz de orden uno
con determinante distinto de cero; si esta existe, buscamos una de orden 2 con determinante no nulo
que orle a la anterior (si esta no existe no sera posible encontrar ninguna otra submatriz de orden
2 de determinante no nulo, por lo que el rango es 1); si existiese, buscaramos ahora una de orden 3
con determinante no nulo que orlase a esta ultima; y as sucesivamente.
Teorema 29 (Teorema de Rouche).- Sea el sistema AX = B, sistema de m ecuaciones con n
incognitas. Entonces: AX = B tiene solucion si, y solo si, rg(A) = rg(A[B). En caso de tener solucion,
si rg(A) = r, toda solucion puede expresarse en la forma: X = V
0
+ t
1
V
1
+ t
2
V
2
+ + t
nr
V
nr
,
siendo V
0
una solucion particular de AX = B y los V
1
, . . . , V
nr
soluciones del sistema homogeneo
asociado AX = 0.
Resumiendo:
Si rg(A) = r, entonces:
rg(A) = rg(A[B) = Sist. Compatible (con sol.)
_
r = n Sist. Comp. Determinado.
r < n Sist. Comp. Indeterminado.
rg(A) ,= rg(A[B) = Sist. Incompatible (no tiene solucion)
Matematicas I 9
Captulo 2
Espacios vectoriales reales.
2.1. Espacios vectoriales.
Denicion 30.- Un espacio vectorial real V es un conjunto de elementos denominados vectores,
junto con dos operaciones, una que recibe el nombre de suma de vectores y otra que recibe el
nombre de producto de vectores por n umeros reales o producto por escalares, que verican las
siguientes propiedades:
1. u +v V ; u, v V .
2. u +v = v +u; u, v V .
3. u + (v +w) = (u +v) +w; u, v, w V .
4. Existe un vector, llamado vector cero y denotado por 0, tal que: 0+u = u+0 = u; u V .
5. Para cada vector u V , existe un vector de V , llamado opuesto de u y denotado por u,
tal que u + (u) = 0.
6. ku V ; k IR y u V .
7. k(u +v) = ku + kv; k IR y u, v V .
8. (k + l)u = ku + lu; k, l IR y u V .
9. (kl)u = k(lu); k, l IR y u V .
10. 1u = u; u V .
Se pueden considerar espacios vectoriales sobre cuerpos distintos de IR, en particular suelen ser
interesantes los espacios vectoriales complejos.
Proposicion 31.- Algunas propiedades que se deducen de las anteriores son:
1. 0u = 0.
2. k0 = 0.
3. (1)u = u.
10
2.2 Subespacios vectoriales. ma t
4. ku = 0 k = 0 o u = 0.
5. El vector cero de un espacio vectorial es unico.
6. El vector opuesto de cada vector del espacio vectorial es unico.
2.2. Subespacios vectoriales.
Denicion 32.- Un subconjunto W de un espacio vectorial V es un subespacio vectorial de V
si, W es por si solo un espacio vectorial con las operaciones denidas en V .
Para ver si un subconjunto W de un espacio vectorial V es subespacio vectorial, es condicion necesaria
y suciente que se veriquen:
a) u +v W; u, v W
b) ku W; u W y k IR
Estas dos propiedades son a su vez equivalentes a que se cumpla la propiedad:
ku + lv W; u, v W y k, l IR.
Denicion 33.- Se dice que un vector v V es combinacion lineal de los vectores v
1
, v
2
, . . . , v
n
si y solo si c
1
, c
2
, . . . , c
n
IR tales que v = c
1
v
1
+ c
2
v
2
+ + c
n
v
n
.
Denicion 34.- Dado un conjunto de vectores S = v
1
, v
2
, . . . , v
k
de un espacio vectorial V ,
podemos considerar el subespacio vectorial, W, mas peque no que contiene a S. Dicho subespacio, es
el conjunto de todas las combinaciones lineales que se pueden formar con los vectores del conjunto
S, y se denota por lin S o linv
1
, v
2
, . . . , v
k
, y se dira que v
1
, v
2
, . . . , v
k
generan W.
Denicion 35 (Independencia lineal).- Dado un conjunto S = v
1
, v
2
, . . . , v
k
de vectores del
espacio vectorial V , la ecuacion vectorial c
1
v
1
+ c
2
v
2
+ + c
k
v
k
= 0 tiene al menos una solucion,
a saber: c
1
= c
2
= = c
k
= 0. Si esta solucion es unica, entonces se dice que S es un conjunto
linealmente independiente, (o que los vectores de S son linealmente independientes). Si existen
otras soluciones, entonces se dice que S es linealmente dependiente, (los vectores son linealmente
dependientes).
Se tiene la siguente caracterizacion para que un conjunto de dos o mas vectores sea linealmente
dependiente:
Un conjunto de dos o mas vectores es linealmente dependiente si, y solo si, al menos uno
de los vectores es una combinacion lineal de los restantes.
2.3. Base y dimension.
Denicion 36.- Si V es un espacio vectorial y S = v
1
, . . . , v
n
es un conjunto nito de vectores
de V , diremos que S es una base de V si:
a) S es linealmente independiente, y
Matematicas I 11
2.4 El espacio vectorial IR
n
ma t
b) S genera a V .
Se podra pensar que dos bases de un mismo espacio vectorial pudieran tener un n umero distinto de
vectores, pero no es as, como nos asegura el teorema siguiente:
Proposicion 37.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces
cualquier conjunto v
1
, v
2
, . . . , v
m
de vectores de V , con m > n, es linealmente dependiente.
Teorema 38 (Teorema de la base).- Cualesquiera dos bases de un espacio vectorial tienen el
mismo n umero de elementos.
Denicion 39.- Un espacio vectorial V se dice de dimension nita si contiene un conjunto nito
de vectores que forman una base.
Si no existe un conjunto de este tipo, se dice que V es de dimension innita.
Al espacio vectorial 0 le consideramos de dimension nita, a un cuando no tiene conjuntos
linealmente independientes.
Si un espacio vectorial V es de dimension nita, teniendo en cuenta el teorema de la base, diremos
que la dimension de V , dimV , es el n umero de vectores de cualquier base de V .
Proposicion 40.- Si V es un espacio vectorial de dimension nita, con dimV = n, entonces:
a) un conjunto de n vectores de V es base de V , si el conjunto es linealmente independiente o si
genera a V .
b) a un conjunto de r vectores de V linealmente independiente, con r < n, se le pueden agregar
n r vectores hasta formar una base de V .
2.4. El espacio vectorial IR
n
Es frecuente representar el conjunto de los n umeros reales, IR, mediante el conjunto de puntos de
una recta en la que se ha denido un sistema de referencia (un origen, un sentido, y una unidad de
medida). Esta representacion nos permite identicar gracamente cada n umero real con un punto de
la recta, y viceversa.
Tambien es conocida la representacion de IR
2
= IR IR mediante el conjunto de los puntos de
un plano en el que se ha denido un sistema de coordenadas cartesianas (dos rectas perpendiculares
entre s en las que se denen dos sistemas de referencia que tienen en com un el punto origen, y la
unidad de medida). En este caso, se identican pares de n umeros reales, (x, y), con puntos del plano.
Analogamente se identican ternas de n umeros reales (x, y, z) con puntos del espacio en el que se
ha denido un sistema de coordenadas cartesianas (tres rectas perpendiculares entre s . . . ). De esta
forma se establece una biyeccion entre el conjunto IR
3
= IRIRIR y el conjunto de los puntos del
espacio tridimensional.
Aunque no sea identicable con una representacion graca, nada impide considerar n- uplas de
n umeros reales (x
1
, x
2
, . . . , x
n
), con n 4. De este modo, llamaremos espacio n-dimensional, IR
n
,
al conjunto
IR
n
= IR IR IR = (x
1
, . . . , x
n
) : x
i
IR; i = 1, . . . , n..
Utilizaremos la notacion x para designar mas brevemente al punto (x
1
, . . . , x
n
) de IR
n
. En este
caso, al n umero real x
i
lo llamaremos coordenada o componente i-esima del punto o vector x.
Matematicas I 12
2.4 El espacio vectorial IR
n
ma t
Esta claro que lo mas frecuente es trabajar con IR
2
o IR
3
, pero tambien es cierto que los casos
en que n > 3 se presentan con suciente frecuencia en la practica como para justicar su estudio.
Nos encontramos con un espacio n-dimensional cada vez que consideremos un objeto cuyo estudio
requiera contemplar n aspectos distintos susceptibles de variacion.
Denicion 41 (Igualdad de puntos).- Diremos que dos puntos x = (x
1
, . . . , x
n
) e
y = (y
1
, . . . , y
n
) de IR
n
son iguales, y escribiremos x = y si y solo si x
i
= y
i
; i = 1, . . . , n.
Denicion 42 (Suma de puntos).- Llamaremos suma de dos puntos x, y IR
n
, y lo repre-
sentaremos por x +y, al punto:
x +y = (x
1
+ y
1
, . . . , x
n
+ y
n
)
Denicion 43 (Producto por escalares).- Llamaremos producto del punto x IR
n
por el
n umero real IR, y lo denotaremos por x, al punto:
x = (x
1
, . . . , x
n
) = (x
1
, . . . , x
n
)
Estas dos operaciones dotan a IR
n
de una estructura de espacio vectorial. Por esta razon, llamare-
mos tambien vectores a los puntos de IR
n
.
El espacio vectorial IR
n
tiene dimension n, y cualquier vector puede escribirse de la forma
(x
1
, x
2
, . . . , x
n
) = x
1
(1, 0, . . . , 0) +x
2
(0, 1, . . . , 0) + + x
n
(0, 0, . . . , 1).
El conjunto de los vectores
B = e
1
= (1, 0, . . . , 0), e
2
= (0, 1, . . . , 0), . . . , e
n
= (0, 0, . . . , 1),
se denomina base canonica de IR
n
, y es la base mas sencilla y comoda, en general.
Evidentemente, existen otras operaciones que pueden dotar a IR
n
de estructura de espacio vecto-
rial, pero las aqu denidas son las mas usuales ya que supone trabajar con ellas a nivel geometrico
en los casos IR
2
y IR
3
.
Otros ejemplos de espacios vectoriales son:
1. El conjunto de todas las matrices de tama no m n con elementos reales, junto con las op-
eraciones de suma de matrices y producto de n umeros reales por matrices, ya indicadas. La
dimension de este espacio /
mn
es mn y una base es
_

_
_
_
_
_
_
_
1 0 . . . 0
0 0 . . . 0
.
.
.
.
.
. . . .
.
.
.
0 0 . . . 0
_
_
_
_
_
_
,
_
_
_
_
_
_
0 1 . . . 0
0 0 . . . 0
.
.
.
.
.
. . . .
.
.
.
0 0 . . . 0
_
_
_
_
_
_
, . . . ,
_
_
_
_
_
_
0 0 . . . 0
0 0 . . . 0
.
.
.
.
.
. . . .
.
.
.
0 0 . . . 1
_
_
_
_
_
_
_

_
2. El conjunto de todos los polinomios de grado menor o igual que n con coecientes reales, junto
con las operaciones de suma y producto de n umeros reales, ya conocidas. La dimension de este
espacio P
n
(IR) es n + 1 y una base es 1, x, x
2
, . . . , x
n

3. El conjunto de las funciones f: IR IR con las operaciones


a) (f + g)(x) = f(x) + g(x); f, g: IR IR
b) (kf)(x) = kf(x); k IR y f: IR IR
Matematicas I 13
2.5 Espacios de las las y las columnas de una matriz. Coordenadas. ma t
2.5. Espacios de las las y las columnas de una matriz. Coor-
denadas.
Denicion 44.- Consideremos la matriz A
mn
,
A =
_
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
. . . .
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
.
Los m vectores r
1
= (a
11
, . . . , a
1n
), r
2
= (a
21
, . . . , a
2n
), . . . , r
m
= (a
m1
, . . . , a
mn
) IR
n
, se denominan
vectores la de A y el subespacio vectorial de IR
n
generado por ellos, E
f
(A) = linr
1
, r
2
, . . . , r
m
,
espacio de las las de A.
Los n vectores c
1
= (a
11
, . . . , a
m1
), c
2
= (a
12
, . . . , a
m2
), . . . , c
n
= (a
1n
, . . . , a
mn
) IR
m
, se de-
nominan vectores columna de A y el subespacio vectorial de IR
m
generado por ellos, E
c
(A) =
linc
1
, c
2
, . . . , c
n
, espacio de las columnas de A.
Proposicion 45.- Si A es una matriz de tama no mn, entonces las operaciones elementales sobre
las las (resp. columnas) de A no cambian el espacio de las las (resp. columnas) de A.
Corolario 46.- Sea A una matriz, entonces:
1. Los vectores no nulos en la forma escalonada de la matriz A, forman una base del espacio de
las las de A.
2. Los vectores no nulos en la forma escalonada de la matriz A
t
, forman una base del espacio de
las columnas de A.
Teorema 47.- Sea A una matriz de tama no mn, entonces:
dim(E
f
(A)) = dim(E
c
(A)).
Resultado inmediato teniendo en cuenta que rg(A) = rg(A
t
), y que el rango de una matriz coincide
con el n umero de vectores no nulos en la forma escalonada, as como el resultado anterior.
Denicion 48.- Dado un espacio vectorial V de dimension nita y B = v
1
, v
2
, . . . , v
n
una base
de V , para cada vector v V existen unos unicos n umeros reales c
1
, c
2
, . . . , c
n
tales que v =
c
1
v
1
+ c
2
v
2
+ + c
n
v
n
. Estos n umeros se denominan coordenadas de v relativas a la base B.
El vector de coordenadas de v relativo a la base B se denota mediante (v)
B
y es el vector de IR
n
:
(v)
B
= (c
1
, c
2
, . . . , c
n
). La matriz de coordenadas de v relativas a la base B se denota por [v]
B
y
es la matriz n 1 denida por: [v]
B
= (v)
t
B
=
_
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
_
.
Matematicas I 14
2.6 Cambios de base. ma t
2.6. Cambios de base.
Denicion 49.- Sean B = u
1
, u
2
, . . . , u
n
y B

= v
1
, v
2
, . . . , v
n
son bases de un espacio vectorial
V . Recibe el nombre de matriz de transicion o matriz de cambio de la base B a la base B

, la
matriz de dimensiones n n, que por columnas es
P =
_
[u
1
]
B
[u
2
]
B
[u
n
]
B

_
= M(B B

),
es decir, la columna i-esima esta constituida por las coordenadas del vector u
i
en la base B

.
Proposicion 50.- Sea P la matriz de paso de una base B a otra base B

para un espacio vectorial


V . Entonces:
1. x V se tiene que [x]
B
= P [x]
B
.
2. P es inversible y su inversa, P
1
, es la matriz de paso de la base B

a la base B.
2.7. Espacios vectoriales con producto interior.
2.7.1. Producto interior. Norma. Distancia
Denicion 51.- Un producto interior en un espacio vectorial real V es una funcion que a cada
par de vectores u, v V le asocia un n umero real, que denotaremos por u, v), de tal manera que
se cumplen las siguientes propiedades:
1. u, v) = v, u); u, v V .
2. u +v, w) = u, w) +v, w); u, v, w V .
3. ku, v) = ku, v); u, v V y k IR.
4. u, u) 0; u V y u, u) = 0 u = 0.
Otra propiedades que se deducen de las anteriores son:
1. 0, u) = 0
2. u, v +w) = u, v) +u, w)
3. u, kv) = ku, v)
A partir de un producto interior sobre un espacio vectorial V se denen los conceptos de norma,
distancia y angulo.
Denicion 52.- Si V es un espacio vectorial con producto interior, entonces la norma o longitud
de un vector v V se denota mediante |v| y se dene como
|v| = +
_
v, v).
La distancia entre dos vectores u y v de V se denota mediante d(u, v) y se dene como
d(u, v) = |u v| = +
_
u v, u v).
Matematicas I 15
2.7 Espacios vectoriales con producto interior. ma t
Teorema 53 (Desigualdad de Cauchy-Schwarz).- Para todo u, v V , espacio con producto
interior, se tiene que
u, v)
2
|u|
2
|v|
2
.
Denicion 54.- Si u y v son vectores, distintos de cero, de un espacio con producto interior, en-
tonces, como consecuencia de la desigualdad de Cauchy-Schwarz se tiene que
1
u, v)
|u| |v|
1
y por tanto existe un unico angulo, , tal que
cos =
u, v)
|u| |v|
, con 0
Denicion 55.- En un espacio vectorial con producto interior, V , dos vectores u y v se dicen
ortogonales si u, v) = 0.
Ademas, si u V es ortogonal a todos los vectores de un conjunto W, se dice que u es ortogonal
a W.
Proposicion 56 (Propiedades basicas de la norma).-
1. |u| 0; u V
2. |u| = 0 u = 0
3. |ku| = [k[ |u|; u V y k IR
4. |u +v| |u| +|v|; u, v V
Proposicion 57 (Propiedades basicas de la distancia).-
1. d(u, v) 0; u, v V
2. d(u, v) = 0 u = v
3. d(u, v) = d(v, u); u, v V
4. d(u, v) d(u, w) + d(w, v); u, v, w V
2.7.2. El espacio eucldeo n-dimensional: IR
n
Sobre el espacio vectorial IR
n
denimos la siguiente funcion
IR
n
IR
n
IR
(x, y) x y = x
1
y
1
+ + x
n
y
n
=
n

i=1
x
i
y
i
siendo x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
n
).
Como puede verse facilmente dicha funcion es un producto interior, el que se conoce como pro-
ducto interior eucldeo. Este producto interior da lugar a las conocidas como norma y distancia
eucldeas.
Se llama espacio eucldeo n-dimensional a IR
n
con las operaciones de suma, producto por
escalares y producto interior denidos.
El producto interior eucldeo, aqu denido, constituye una generalizacion a IR
n
del producto
escalar denido, y bien conocido, en IR
2
y IR
3
.
Matematicas I 16
2.7 Espacios vectoriales con producto interior. ma t
Teorema 58 (Generalizacion del Teorema de Pitagoras).- Si u y v son dos vectores ortogo-
nales de un espacio vectorial con producto interior, entonces
|u +v|
2
= |u|
2
+|v|
2
.
Este resultado de facil demostracion, se reduce en IR
2
con el producto interior eucldeo, al conocido
teorema de Pitagoras.
2.7.3. Bases ortonormales. Proceso de Gram-Schmidt
Denicion 59.- Sean V un espacio vectorial de dimension n con producto interior y
B = v
1
, v
2
, . . . , v
n
una base de V . Se dice que B es una base ortonormal de V si |v
i
| = 1,
i = 1, . . . , n y v
i
, v
j
) = 0; i, j = 1, . . . , n con i ,= j.
La ventaja de trabajar con bases ortonormales es muy grande como ya es conocido en IR
2
o IR
3
.
Teorema 60.- Si B = v
1
, v
2
, . . . , v
n
es una base ortonormal para un espacio, V , con producto
interior, entonces v V se tiene que:
v = v, v
1
)v
1
+v, v
2
)v
2
+ +v, v
n
)v
n
,
es decir, (v)
B
= (v, v
1
), v, v
2
), . . . , v, v
n
)).
Teorema 61.- Si S = v
1
, v
2
, . . . , v
k
un conjunto nito de vectores no nulos, ortogonales dos a
dos, entonces S es linealmente independiente.
Teorema 62.- Si P es la matriz de paso de una base ortonormal B a otra base ortonormal B

,
entonces P es una matriz ortogonal (es decir, P
t
= P
1
).
Teorema 63.- Sean V un espacio vectorial con producto interior y S = v
1
, v
2
, . . . , v
k
un conjunto
nito ortonormal de vectores de V . Sea W = lin S, entonces cualquier v V se puede expresar de
forma unica como v = w
1
+ w
2
, donde w
1
W viene dado por w
1
= v, v
1
)v
1
+ v, v
2
)v
2
+ +
v, v
k
)v
k
y w
2
es ortogonal a W (logicamente w
2
= v w
1
).
A w
1
se le llama proyeccion ortogonal de v sobre W y se le denota por Proy
W
v. Al vector
w
2
se le llama componente ortogonal de v sobre W.
Teorema 64 (Proceso de ortonormalizacion de Gram-Schmidt).- Sean V un espacio vecto-
rial con producto interior de dimension nita y B = v
1
, v
2
, . . . , v
n
una base de V . Vamos a describir
un proceso para conseguir a partir de la base B una base ortonormal B

= u
1
, u
2
, . . . , u
n
. Este
proceso de ortonormalizacion es el de Gram-Schmidt y se basa en el teorema anterior.
Demostracion:
1
a
etapa.- Tomamos u
1
=
v
1
|v
1
|
, que tiene norma 1.
Matematicas I 17
2.7 Espacios vectoriales con producto interior. ma t
2
a
etapa.- Sea W
1
= linu
1
, aplicando el teorema anterior, sabemos que el vector
u
2
=
v
2
Proy
W
1
v
2
|v
2
Proy
W
1
v
2
|
=
v
2
v
2
, u
1
)u
1
|v
2
v
2
, u
1
)u
1
|
es ortogonal a W
1
y en particular a u
1
, y ademas tiene norma 1. El unico problema que se plantea es si
v
2
v
2
, u
1
)u
1
= 0, pero esto no es posible puesto que en ese caso 0 = v
2
v
2
, u
1
)u
1
= v
2
v
2
, u
1
)
v
1
|v
1
|
=

1
v
1
+
2
v
2
; para
1
=
v
2
, v
1
)
|v
1
|
2
,
2
= 1 y v
1
, v
2
sera un conjunto linealmente dependiente, lo
que es absurdo por ser B = v
1
, v
2
, . . . , v
n
una base de V .
3
a
etapa.- Sea W
2
= linu
1
, u
2
, aplicando el teorema anterior, sabemos que el vector
u
3
=
v
3
Proy
W
2
v
3
|v
3
Proy
W
2
v
3
|
=
v
3
v
3
, u
1
)u
1
v
3
, u
2
)u
2
|v
3
v
3
, u
1
)u
1
v
3
, u
2
)u
2
|
es ortogonal a W
2
y en particular a u
1
y u
2
, y ademas tiene norma 1. El unico problema que se
plantea es si v
3
v
3
, u
1
)u
1
v
3
, u
2
)u
2
= 0, pero esto no es posible puesto que en ese caso
0 = v
3
v
3
, u
1
)u
1
v
3
, u
2
)u
2
=
= v
3
v
3
, u
1
)
v
1
|v
1
|
v
3
, u
2
)
v
2
v
2
, u
1
)u
1
|v
2
v
2
, u
1
)u
1
|
=
1
v
1
+
2
v
2
+
3
v
3
;
y como
3
= 1, v
1
, v
2
, v
3
sera un conjunto linealmente dependiente, lo que es absurdo por ser
B = v
1
, v
2
, . . . , v
n
una base de V .
Continuando con el proceso se va construyendo un conjunto ortonormal de n vectores no nulos, B

=
u
1
, u
2
, . . . , u
n
. Dado que dimV = n y que todo conjunto ortonormal es linealmente independiente,
se concluye que B

es una base ortonormal de V .


Matematicas I 18
Captulo 3
Aplicaciones lineales
Denicion 65.- Sea f: V W una aplicacion entre los espacios vectoriales reales V y W. Se dice
que f es una aplicacion lineal si:
1. f(u +v) = f(u) + f(v); u, v V
2. f(ku) = kf(u); u V , k IR
Las dos propiedades se pueden reunir en una sola:
f(ku + lv) = kf(u) + lf(v); u, v V, k, l IR
En general, se tiene que:
f(k
1
u
1
+ k
2
u
2
+ + k
r
u
r
) = k
1
f(u
1
) + k
2
f(u
2
) + + k
r
f(u
r
)
u
1
, u
2
. . . . , u
r
V, k
1
, k
2
, . . . , k
r
IR
Si una aplicacion f: V W es lineal y biyectiva, se dice que f es un isomorsmo entre los
espacios V y W.
Si V = W, entonces la aplicacion lineal f: V V recibe el nombre de operador lineal o
endomorsmo. Y si f es ademas biyectiva se dice que f es un automorsmo.
3.1. Propiedades de las aplicaciones lineales. N ucleo e ima-
gen.
Proposicion 66.- Si f: V W es una aplicacion lineal, entonces:
1. f(0
V
) = 0
W
; 0
V
, 0
W
son los ceros de V y W.
2. f(v) = f(v); v V .
Denicion 67.- Dada una aplicacion lineal f: V W, se dene el n ucleo de f, que se denota
por Ker(f) o Ker f, como el conjunto:
Ker f = v V : f(v) = 0
y se dene la imagen de f, que se denota por Im(f) o Imf, como el conjunto
Imf = w W : v V tal que f(v) = w
19
3.2 Aplicaciones matriciales ma t
Es sencillo probar que Ker f es un subespacio vectorial de V e Imf es subespacio vectorial de W.
Denicion 68.- Si f: V W es una aplicacion lineal, entonces la dimension del n ucleo se denom-
ina la nulidad de f y la dimension de la imagen de f se denomina el rango de f.
Si f: V W es una aplicacion lineal y B = v
1
, v
2
, . . . , v
n
es una base de V , la aplicacion
lineal queda perfectamente determinada si conocemos las imagenes por f de los vectores de la base
B, ya que para todo v V existen k
1
, k
2
, . . . , k
n
IR unicos, tales que v = k
1
v
1
+k
2
v
2
+ +k
n
v
n
,
con lo que
f(v) = f(k
1
v
1
+ k
2
v
2
+ + k
n
v
n
) = k
1
f(v
1
) + k
2
f(v
2
) + + k
n
f(v
n
)
Notese, que de esto se deduce que Imf = linf(v
1
), f(v
2
), . . . , f(v
n
)
Teorema 69 (de la dimension).- Si f: V W es una aplicacion lineal, con V un espacio vec-
torial de dimension n, entonces:
dim(Ker f) + dim(Imf) = n = dim(V )
3.2. Aplicaciones matriciales
Consideremos la aplicacion f: IR
n
IR
m
denida por f(x) = Ax, siendo A una matriz ja
mn y x IR
n
, x = (x
1
, x
2
, . . . , x
n
)
t
.
Como consecuencia de las operaciones sobre las matrices, la aplicacion es lineal. A este tipo de
aplicaciones se les denomina aplicaciones matriciales.
El estudio de estas aplicaciones es fundamental ya que, como veremos, todas las aplicaciones
lineales entre espacios vectoriales de dimension nita acaban siendo aplicaciones matriciales al usar
coordenadas.
El n ucleo de estas aplicaciones sera:
Ker f = x IR
n
: Ax = 0,
es decir, el conjunto de soluciones del sistema homogeneo Ax = 0.
La imagen de f coincide con el espacio de las columnas de la matriz A, E
c
(A), pues
b Im(f) x IR
n
: Ax = b
Matematicas I 20
3.3 Matrices que representan aplicaciones lineales ma t
es decir, si tiene solucion el sistema
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
=
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_

_
_
_
_
_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n

a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
_
_
_
_
_
=
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_

x
1
_
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
_
+ x
2
_
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
_
+ + x
n
_
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
_
=
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_
b E
c
(A)
3.3. Matrices que representan aplicaciones lineales
Veremos que toda transformacion o aplicacion lineal entre espacios vectoriales de dimension nita,
se puede considerar como una aplicacion matricial.
3.3.1. Aplicaciones lineales de IR
n
en IR
m
Proposicion 70.- Si f: IR
n
IR
m
es una aplicacion lineal, entonces f es una aplicacion matricial
(es decir existe una matriz A tal que f(x) = Ax).
Demostracion:
Sea B = e
1
, e
2
, . . . , e
n
la base canonica de IR
n
, y sea A la matriz mn que tiene a los vectores
f(e
1
), f(e
2
), . . . , f(e
n
) de IR
m
como sus vectores columna. Vamos a probar que f(x) = Ax; x IR
n
.
Se tiene que x = (x
1
, x
2
, . . . , x
n
) = x
1
e
1
+ + x
n
e
n
y por la linealidad de f,
f(x) = x
1
f(e
1
) + + x
n
f(e
n
).
Por otra parte
Ax =
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
=
_
_
_
_
_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n

a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
_
_
_
_
_
=
= x
1
_
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
_
+ x
2
_
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
_
+ + x
n
_
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
_
= x
1
f(e
1
) + + x
n
f(e
n
) = f(x)
Luego efectivamente, f(x) = Ax, para A denida como indicamos.
A esta matriz A se la llama matriz estandar de f.
Matematicas I 21
3.3 Matrices que representan aplicaciones lineales ma t
3.3.2. Aplicaciones lineales entre espacios cualesquiera
Vamos ahora a demostrar que a cualquier aplicacion lineal f: V W, con dimV = n y dimW =
m, se le puede asociar una aplicacion matricial.
Sean B = v
1
, v
2
, . . . , v
n
una base del espacio V y B

= w
1
, w
2
, . . . , w
m
una base de W.
Todo v V se escribe de forma unica como combinacion lineal de los vectores de la base,
v = k
1
v
1
+ k
2
v
2
+ + k
n
v
n
, luego f(v) = k
1
f(v
1
) + k
2
f(v
2
) + + k
n
f(v
n
). Supongamos que
conocemos las imagenes de f(v
1
), f(v
2
), . . . , f(v
n
) expresadas en la base B

,
_

_
f(v
1
) = a
11
w
1
+ a
21
w
2
+ + a
m1
w
m
f(v
2
) = a
12
w
1
+ a
22
w
2
+ + a
m2
w
m

f(v
n
) = a
1n
w
1
+ a
2n
w
2
+ + a
mn
w
m
por tanto
f(v) = k
1
(a
11
w
1
+ a
21
w
2
+ + a
m1
w
m
) + k
2
(a
12
w
1
+ a
22
w
2
+ + a
m2
w
m
)
+ + k
n
(a
1n
w
1
+ a
2n
w
2
+ + a
mn
w
m
)
= (k
1
a
11
+ k
2
a
12
+ + k
n
a
1n
)w
1
+ (k
1
a
21
+ k
2
a
22
+ + k
n
a
2n
)w
2
+ + (k
1
a
m1
+ k
2
a
m2
+ + k
n
a
mn
)w
m
que expresado en coordenadas
[f(v)]
B
=
_
_
_
_
_
k
1
a
11
+ k
2
a
12
+ + k
n
a
1n
k
1
a
21
+ k
2
a
22
+ + k
n
a
2n

k
1
a
m1
+ k
2
a
m2
+ + k
n
a
mn
_
_
_
_
_
=
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
_
_
k
1
k
2
.
.
.
k
n
_
_
_
_
_
_
Luego, hemos encontrado que
[f(v)]
B
=
_
[f(v
1
)]
B
[f(v
2
)]
B
[f(v
n
)]
B

_
[v]
B
= A[v]
B
Por tanto jadas las bases B y B

en los espacios V y W, a cada aplicacion lineal f se le puede


asociar una unica matriz, A
mn
, que recibe el nombre de matriz de f respecto de las bases B y
B

, A = M(f; B, B

).
Si tenemos un operador lineal f: V V y consideramos que tenemos la misma base B en el
espacio de partida y en el de llegada, entonces se habla de matriz de f respecto de la base
B,A = M(f; B).
Si nos dicen que la matriz A
mn
es la matriz de la aplicacion lineal f: V W respecto de las
bases B y B

. Como calcularemos Ker f e Imf?


Calculo de Ker f
Ker f = v V : f(v) = 0 = v V : [f(v)]
B
= [0]
B
= v V : A[v]
B
= [0]
B

Luego para calcular Ker f hallaremos las soluciones del sistema homogeneo Ax = 0, y esas
soluciones constituiran las coordenadas de los vectores del Ker f en la base B. El paso de coordenadas
a vectores es inmediato.
Matematicas I 22
3.4 Composicion de aplicaciones lineales ma t
Calculo de Imf
Hemos visto que Imf = linf(v
1
), f(v
2
), . . . , f(v
n
) luego para calcular una base de la imagen
hay que encontrar una base de ese subespacio. Pero un conjunto de vectores de un espacio vectorial
es base si lo es el conjunto formado por los vectores de coordenadas (ejercicio 2.??), luego basta
con encontrar una base para el espacio de las columnas de la matriz A. Por tanto, se verica que
rg(f) = rg(A).
3.4. Composicion de aplicaciones lineales
Denicion 71.- Sean f: V W y g: W U aplicaciones lineales. Llamaremos aplicacion
compuesta de f y g, a la aplicacion g f: V U denida por
(g f)(v) = g(f(v)), v V.
Proposicion 72.- Sean f: V W y g: W U aplicaciones lineales, con dimV = n, dimW = m
y dimU = p, y sean B, B

y B

bases de V , W y U, respectivamente. Entonces:


a) g f es una aplicacion lineal.
b) Si A
mn
es la matriz asociada a f respecto de las bases B y B

, y C
pm
es la matriz asociada
a g respecto de las bases B

y B

, entonces CA es la matriz asociada a g f respecto de las


bases B y B

.
Demostracion:
a) (g f)(ku + lv) = g(f(ku + lv)) = g(kf(u) + lf(v)) = kg(f(u)) + lg(f(v)) = k(g f)(u) +
l(g f)(v).
b) Teniendo en cuenta que [g(w)]
B
= C[w]
B
y [f(v)]
B
= A[v]
B
,
[(g f)(v)]
B
= [g(f(v))]
B
= C[f(v)]
B
= CA[v]
B
; v V
3.5. Teorema de Semejanza
Teorema 73.- Sean f: V V , con dimV = n, un operador lineal, A la matriz de f respecto de
la base B de V y A

la matriz de f respecto de la base B

. Entonces
A

= P
1
AP
siendo P la matriz de paso de la base B

a la base B.
Demostracion:
A

[v]
B
= [f(v)]
B
= P
1
[f(v)]
B
= P
1
A[v]
B
= P
1
AP[v]
B

Como lo verica para todo v V , (ejercicio 1.??) se llega a que A

= P
1
AP.
Este resultado es un caso particular del siguiente mas general:
Matematicas I 23
3.5 Teorema de Semejanza ma t
Teorema 74 (Teorema de semejanza).- Si f: V W es una aplicacion lineal, A la matriz de
la aplicacion f respecto de las bases B
1
de V y B
2
de W y A

es la matriz de f respecto de las bases


B

1
de V y B

2
de W, entonces
A

= QAP
siendo P la matriz de paso de la base B

1
a la base B
1
y Q la matriz de paso de B
2
a B

2
.
Denicion 75.- Dadas dos matrices A y B de orden n se dice que A y B son semejantes si, y solo
si existe una matriz P inversible tal que B = P
1
AP.
Proposicion 76.- Dos matrices A y B son semejantes si y solo si representan al mismo operador
lineal respecto a dos bases.
Demostracion:
=) Es el Teorema de Semejanza.
=) A y B son semejantes P inversible tal que B = P
1
AP.
Consideremos el operador lineal f: IR
n
IR
n
denido por f(x) = Ax, luego A es la matriz de
f respecto de la base canonica. P es inversible luego sus columnas forman una base de IR
n
, y por
tanto P es la matriz de paso de la base formada por las columnas de P a la base canonica. Por el
Teorema de Semejanza B = P
1
AP es la matriz de f respecto a esa base y A y B representan al
mismo operador lineal respecto a bases distintas.
Como consecuencia de este resultado se tiene tambien que si A y B son semejantes, entonces
tienen el mismo rango.
Matematicas I 24
Captulo 4
Diagonalizacion
4.1. Introduccion. Valores y vectores propios.
Planteamiento del problema.
Problema general de diagonalizacion. Dado un operador lineal f sobre un espacio vectorial V
de dimension n, nos planteamos el problema de cuando es posible encontrar una base de V respecto de
la cual la matriz de f sea diagonal. Si A es la matriz del operador f con respecto a una determinada
base entonces el planteamiento anterior es equivalente a preguntarse cuando existe un cambio de
base tal que la matriz del operador en la nueva base sea diagonal. Esa nueva matriz sabemos que
viene dada por P
1
AP, donde P es la matriz de paso de la nueva base a la anterior (Teorema de
Semejanza).
Problema de la diagonalizacion ortogonal. Dado un operador lineal f sobre un espacio vec-
torial V con producto interior y de dimension n, nos planteamos el problema de cuando es posible
encontrar una base ortonormal de V respecto de la cual la matriz de f sea diagonal. Si V es un
espacio con producto interior y las bases son ortonormales entonces se tendra que P sera ortogonal.
Podemos pues formular los dos problemas anteriores en terminos de matrices.
Problema 1. Dada una matriz cuadrada A, existe una matriz P inversible tal que P
1
AP sea
diagonal?
Problema 2. Dada una matriz cuadrada A, existe una matriz ortogonal P tal que P
t
AP sea
diagonal?
Denicion 77.- Se dice que una matriz A cuadrada es diagonalizable si existe una matriz P
inversible tal que P
1
AP es diagonal. En ese caso se dice que P diagonaliza a la matriz A.
Si existe una matriz ortogonal P tal que P
1
AP es diagonal, entonces se dice que A es diago-
nalizable ortogonalmente y que P diagonaliza ortogonalmente a A.
Diagonalizacion
Supongamos que la matriz A
nn
es diagonalizable, es decir que existe P inversible tal que
P
1
AP = D, con D diagonal.
25
4.1 Introduccion. Valores y vectores propios. ma t
Esto es equivalente a que exista P inversible tal que AP = PD para cierta matriz D diagonal,
luego
AP = PD =
_
_
_
_
_
_
p
11
p
12
p
1n
p
21
p
22
p
2n
.
.
.
.
.
.
.
.
.
.
.
.
p
n1
p
n2
p
nn
_
_
_
_
_
_
_
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
=
_
_
_
_
_
_

1
p
11

2
p
12

n
p
1n

1
p
21

2
p
22

n
p
2n
.
.
.
.
.
.
.
.
.
.
.
.

1
p
n1

2
p
n2

n
p
nn
_
_
_
_
_
_
Si llamamos p
1
, p
2
, . . . , p
n
a los vectores columnas de P, como las columnas de la matriz AP y las
correspondientes de la matriz PD han de coincidir, lo anterior puede escribirse de la forma
Ap
1
=
1
p
1
, Ap
2
=
2
p
2
, . . . , Ap
n
=
n
p
n
,
es decir, han de existir n vectores p
i
y n n umeros reales
i
tales que Ap
i
=
i
p
i
, para los i = 1, . . . , n.
Como la matriz P es inversible, los vectores p
i
son distintos del 0 y linealmente independientes.
Denicion 78.- Si A es una matriz cuadrada de orden n, diremos que es un valor propio, valor
caracterstico o autovalor de A si existe un p IR
n
, p ,= 0, tal que Ap = p.
Del vector p diremos que es un vector propio, vector caracterstico o autovector de A
correspondiente al valor propio .
Teorema 79.- Si A es una matriz de orden n, las siguientes proposiciones son equivalentes:
a) es un valor propio de A.
b) El sistema de ecuaciones (AI)x = 0 tiene soluciones distintas de la trivial.
c) det(AI) = 0.
Demostracion:
es un valor propio de A existe un vector x IR
n
diferente de cero, tal que Ax = x
el sistema (AI)x = 0 tiene soluciones distintas de la trivial. [AI[ = 0
Al polinomio en , T() = [AI[, se le denomina polinomio caracterstico de la matriz A,
y a la ecuacion T() = [AI[ = 0 ecuacion caracterstica de A.
Denicion 80.- Sea A una matriz de orden n y un valor propio de A, al espacio de las soluciones
del sistema (A I)x = 0 se le denomina espacio caracterstico de A correspondiente al valor
propio y lo denotaremos por V ().
Observacion:
Si es un valor propio de A, V () = x : (AI)x = 0 , = 0 y por tanto dimV () 1.
En el estudio sobre la diagonalizacion realizado hasta ahora, hemos buscado la diagonalizacion
de matrices, separandolas del operador lineal que aparece en el planteamiento inicial del problema.
Lo que hemos encontrado hasta ahora es reutilizable tambien para el estudio de ese operador? En
efecto:
Denicion 81.- Sea f: V V un operador lineal, diremos que un escalar es un valor propio
de f si existe un vector v V , diferente de cero, tal que f(v) = v.
Al vector v se lo denomina vector propio de f correspondiente a .
Matematicas I 26
4.1 Introduccion. Valores y vectores propios. ma t
Teorema 82.- Los vectores propios de f correspondientes al valor propio son los vectores, distintos
de cero, del n ucleo de la aplicacion f I
d
(denotaremos por I
d
la aplicacion identidad).
Demostracion:
Si v un vector propio correspondiente a , entonces f(v) = v = f(v) v = 0 = v
Ker(f I
d
).
Por otra parte si v ,= 0 pertenece al Ker(f I
d
) se tiene que (f I
d
)v = 0 = f(v) v = 0
= f(v) = v, luego v es un vector propio de f correspondiente a .
Observacion:
Este n ucleo se denominara, espacio caracterstico de f correspondiente al valor propio .
Teorema 83.- Sean V un espacio vectorial de dimension n, f: V V un operador lineal y A la
matriz de f con respecto a una base B = v
1
, v
2
, . . . , v
n
. Entonces:
a) Los valores propios de f son los valores propios de A
b) Un vector v V es un vector propio de f correspondiente al valor propio si y solo si su
matriz de coordenadas [v]
B
es un vector propio de A correspondiente a .
Demostracion:
a) Sea un valor propio de f, es decir, v V , distinto de 0, tal que f(v) = v = [f(v)]
B
=
[v]
B
= A[v]
B
= [v]
B
, luego es un valor propio de A al ser [v]
B
,= 0.
Sea un valor propio de A, entonces x IR
n
, x ,= 0 tal que Ax = x. Si tomamos x

=
x
1
v
1
+ + x
n
v
n
, siendo x = (x
1
, . . . , x
n
), lo anterior quiere decir que A[x

]
B
= [x

]
B

[f(x

)]
B
= [x

]
B
f(x

) = x

y es un valor propio de f ya que x

,= 0
b) v es un vector propio de f correspondiente a si y solo si
f(v) = v [f(v)]
B
= [v]
B
A[v]
B
= [v]
B
si, y solo si, [v]
B
es un vector propio de A correspondiente a .
A la vista de este resultado y siempre que trabajemos en terminos de valores y vectores propios,
el problema de encontrar una base del espacio en la cual la matriz asociada al operador sea diagonal,
se reduce al estudio de la diagonalizacion de las matrices.
Matematicas I 27
4.2 Diagonalizacion ma t
4.2. Diagonalizacion
Teorema 84.- Si A es una matriz de orden n, son equivalentes:
a) A es diagonalizable.
b) A tiene n vectores propios linealmente independientes.
Demostracion:
a) b). Lo hemos probado en los comentarios anteriores.
b) a). Sean los n vectores p
1
, p
2
, . . . , p
n
vectores propios linealmente independientes de A
correspondientes a los valores propios
1
,
2
, . . . ,
n
. Consideremos la matriz
P =
_
_
_
_
_
_
p
11
p
12
p
1n
p
21
p
22
p
2n
.
.
.
.
.
.
.
.
.
.
.
.
p
n1
p
n2
p
nn
_
_
_
_
_
_
que tiene por vectores columna los p
1
, p
2
, . . . , p
n
.
Las columnas de la matriz producto AP son Ap
1
, Ap
2
, . . . , Ap
n
y los p
i
son vectores propios,
luego Ap
1
=
1
p
1
, . . . , Ap
n
=
n
p
n
, por lo que:
AP =
_
_
_
_
_
_

1
p
11

2
p
12

n
p
1n

1
p
21

2
p
22

n
p
2n
.
.
.
.
.
.
.
.
.
.
.
.

1
p
n1

2
p
n2

n
p
nn
_
_
_
_
_
_
=
_
_
_
_
_
_
p
11
p
12
p
1n
p
21
p
22
p
2n
.
.
.
.
.
.
.
.
.
.
.
.
p
n1
p
n2
p
nn
_
_
_
_
_
_
_
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
= PD
donde D es la matriz diagonal que tiene como elementos en la diagonal principal a los valores propios

1
,
2
, . . . ,
n
. Dado que los vectores columnas de P son linealmente independientes, P es inversible
y por tanto se tiene que D = P
1
AP, es decir, A es diagonalizable.
Proposicion 85.- Sea f : V V un operador lineal, siendo V un espacio vectorial de dimension
n. Entonces, existe una base de V con respecto a la cual la matriz de f es diagonal si, y solo si, f
tiene n vectores propios linealmente independientes.
Teorema 86.- Sean v
1
, v
2
, . . . , v
k
vectores propios de una matriz A asociados a los valores propios

1
,
2
, . . . ,
k
respectivamente, siendo
i
,=
j
, i, j = 1, 2, . . . , k, con i ,= j. Entonces el conjunto de
vectores v
1
, v
2
, . . . , v
k
es linealmente independiente.
Corolario 87.- Si una matriz A de orden n tiene n valores propios distintos, entonces A es diago-
nalizable.
Proposicion 88.- Sea A una matriz de orden n y
i
un valor propio de A de multiplicidad n
i
, si
V (
i
) es el espacio caracterstico correspondiente al valor propio
i
. Entonces
1 dimV (
i
) n
i
.
Teorema 89 (fundamental de la diagonalizacion.).- Sea A una matriz de orden n. Entonces A
es diagonalizable si y solo si se cumplen las condiciones:
a) Las n races de la ecuacion caracterstica de A son todas reales. Es decir, [A I[ = (
1

)
n
1
(
m
)
nm
con n
1
+ n
2
+ + n
m
= n.
b) Si V (
i
) es el espacio caracterstico de Acorrespondiente a
i
, 1 i m, y n
i
es la multiplicidad
de
i
en la ecuacion caracterstica de A, entonces dimV (
i
) = n
i
.
Matematicas I 28
4.3 Diagonalizacion ortogonal. ma t
4.3. Diagonalizacion ortogonal.
Teorema 90.- Sea A una matriz de orden n, entonces son equivalentes:
a) A es diagonalizable ortogonalmente.
b) A tiene un conjunto de n vectores propios ortonormales.
Demostracion:
En efecto, A es diagonalizable ortogonalmente existe P ortogonal tal que P
t
AP = D (con
D diagonal) existe P ortogonal tal que AP = PD.
Si llamamos p
1
, p
2
, . . . , p
n
a los vectores columnas de P, estos vectores son ortonormales y lo
anterior es lo mismo que escribir Ap
1
=
1
p
1
, . . . , Ap
n
=
n
p
n
, supuesto que D =
_
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
,
y como al ser P inversible se tiene que p
1
, p
2
, . . . , p
n
son linealmente independientes y por tanto no
nulos A tiene n vectores propios ortonormales.
Teorema 91.- Una matriz A de orden n es diagonalizable ortogonalmente si y solo si A es simetrica.
Teorema 92.- Si A es una matriz simetrica, entonces los vectores propios que pertenecen a valores
propios distintos son ortogonales.
Demostracion:
Sean
1
y
2
valores propios distintos de una matriz simetrica A y sean u y v vectores propios
correspondientes a
1
y
2
respectivamente.
Tenemos que probar que u
t
v = 0. (Notar que u
t
Av es un escalar).
Se tiene que u
t
Av = (u
t
Av)
t
= v
t
Au = v
t

1
u =
1
v
t
u =
1
u
t
v,
y por otra parte que u
t
Av = u
t

2
v =
2
u
t
v,
por tanto
1
u
t
v =
2
u
t
v (
1

2
)u
t
v = 0 y como
1

2
,= 0, entonces u
t
v = 0.
Matematicas I 29

Indice general
1. Matrices, Sistemas y Determinantes. 1
1.1. Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Deniciones basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2. Operaciones en las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Lenguaje matricial de los sistemas de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1. Metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Metodo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Matriz transpuesta. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Matriz transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2. Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3. Determinante de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Rango de una matriz. Teorema de Rouche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Espacios vectoriales reales. 10
2.1. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Base y dimension. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4. El espacio vectorial IR
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5. Espacios de las las y las columnas de una matriz. Coordenadas. . . . . . . . . . . . . . . . . . . . . . 14
2.6. Cambios de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.7. Espacios vectoriales con producto interior. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.7.1. Producto interior. Norma. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.7.2. El espacio eucldeo n-dimensional: IR
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.7.3. Bases ortonormales. Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3. Aplicaciones lineales 19
3.1. Propiedades de las aplicaciones lineales. N ucleo e imagen. . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2. Aplicaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3. Matrices que representan aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.1. Aplicaciones lineales de IR
n
en IR
m
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.2. Aplicaciones lineales entre espacios cualesquiera . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4. Composicion de aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.5. Teorema de Semejanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4. Diagonalizacion 25
4.1. Introduccion. Valores y vectores propios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3. Diagonalizacion ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
30

Anda mungkin juga menyukai