Anda di halaman 1dari 129

Universidade de Vigo

Departamento de Matematica Aplicada II


Notas de

Algebra Lineal
Emilio Faro Rivas
Alberto Mart

n M

endez
2

Indice
1 Los n

umeros complejos 5
1.1 El plano complejo . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Operaciones con n umeros complejos . . . . . . . . . . . . . . . 7
2 Espacios vectoriales 11
2.1 Estructura de espacio vectorial . . . . . . . . . . . . . . . . . . 11
2.2 Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Sistema de generadores . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Subespacio suma . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Dependencia e independencia lineal . . . . . . . . . . . . . . . 20
2.6 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.8 Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 28
3 Matrices y determinantes 31
3.1 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . 31
3.2 Tipos particulares de matrices . . . . . . . . . . . . . . . . . . 34
3.3 Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Submatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Matrices por bloques . . . . . . . . . . . . . . . . . . . . . . . 39
3.6 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.7 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.8 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . 51
3.9 Metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.10 N ucleo e imagen de una matriz . . . . . . . . . . . . . . . . . 59
4 Sistemas de ecuaciones lineales 65
4.1 Sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . 65
4.2 Resolucion de un sistema de ecuaciones lineales . . . . . . . . 66
4.3 Factorizaciones LU y de Cholesky LU . . . . . . . . . . . . . . 70
4.4 Metodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . 80
3
4
5 Autovalores y autovectores 85
5.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 85
5.2 Subespacio propio . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.3 Diagonalizacion por semejanza . . . . . . . . . . . . . . . . . . 92
6 Producto escalar y producto herm

tico 99
6.1 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2 Producto hermtico . . . . . . . . . . . . . . . . . . . . . . . . 100
6.3 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.4 Ortogonalidad y ortonormalidad . . . . . . . . . . . . . . . . . 102
6.5 Diagonalizacion unitaria . . . . . . . . . . . . . . . . . . . . . 106
6.6 Descomposicion en valores singulares . . . . . . . . . . . . . . 113
6.7 Aplicaciones del algebra lineal . . . . . . . . . . . . . . . . . . 118
6.7.1 Mnimos cuadrados y proyeccion ortogonal . . . . . . . 118
6.7.2 Ajuste polinomico . . . . . . . . . . . . . . . . . . . . . 122
6.7.3 Formas cuadraticas . . . . . . . . . . . . . . . . . . . . 125
Bibliograf

a 129
Captulo 1
Los n umeros complejos
1.1 El plano complejo
Denicion 1.1.1 Un cuerpo conmutativo (K, +, ) es un conjunto K dotado
de dos operaciones internas
suma : KK
+
K
(, ) +
producto : KK

K
(, )
tales que:
la suma tiene las propiedades
asociativa: + ( + ) = ( + ) +
conmutativa: + = +
elemento neutro: 0 K ; 0 + = + 0 =
elemento opuesto: K, K ; +() = ()+ = 0
el producto tiene las propiedades
asociativa: () = ()
conmutativa: =
elemento neutro: 1 K ; 1 = 1 =
elemento inverso: K, ,= 0,
1
K ;
1
=
1
= 1
5
6 CAP

ITULO 1. LOS N

UMEROS COMPLEJOS
el producto es distributivo respecto a la suma:
( + ) = + , ( + ) = +
donde , , denotan elementos cualesquiera de K.
Ejemplo:
El conjunto R de los n umeros reales, con la suma y el producto, es un
cuerpo. El neutro para la suma es 0, el neutro para el producto es 1, el
opuesto de R es y el inverso de R, ,= 0, es
1

.
Un n umero complejo (escrito en forma binomica) es un n umero de la
forma = + i, donde , R y donde i es un n umero, llamado unidad
imaginaria, que verica i
2
= 1. El conjunto de todos los n umeros complejos
se dene como
C = = + i ; , R.
Denicion 1.1.2 Sea = + i un n umero complejo. Se denen:
Parte real de : Re() = .
Parte imaginaria de : Im() = .
Conjugado de :

= i.
Observacion 1.1.1 Un n umero complejo con parte imaginaria nula es un
n umero real. un n umero complejo de la forma i (es decir, con parte real
nula), se dice un n umero imaginario puro. Un n umero complejo es real si y
solo si coincide con su conjugado.
Denicion 1.1.3 Sea = + i un n umero complejo.
i) Se dene el modulo de como n umero real [[ =
_

2
+
2
.
ii) Si ,= 0, se dene el argumento (o fase) de como el unico angulo
[0, 2) que verica que cos() =

||
y sen() =

||
. Se denotar a
= arg().
Observacion 1.1.2 Un n umero complejo = + i se puede representar
en el plano RR identicandolo con el par ordenado (, ). As, el conjunto
de los n umeros complejos se puede identicar con el plano R R. Cuando
consideremos esta identicacion, nos referiremos a RR como el plano com-
plejo. En el plano complejo, los n umeros reales estan representados en el eje
de abscisas, mientras que los n umeros imaginarios puros estan representados
en el eje de ordenadas.
1.2. OPERACIONES CON N

UMEROS COMPLEJOS 7
1.2 Operaciones con n umeros complejos
La suma de dos n umeros complejos se dene sumando parte real con parte
real y parte imaginaria con parte imaginaria, es decir, dados dos n umeros
complejos = + i y

i C, entonces su suma se dene como


+

= ( +

) + ( +

)i.
El producto de dos n umeros complejos se realiza efectuando el producto
de los dos binomios correspondientes y teniendo en cuenta que i
2
= 1, es
decir, si = + i,

i C, entonces

= ( + i)(

i) =
=

i +

i +

i
2
= (

) + (

)i.
Con estas operaciones, C es un cuerpo. El neutro para la suma es el
n umero real 0 y el opuesto de = + i es = i. El neutro
para el producto es el n umero real 1 y el inverso de = + i, ,= 0, es

1
=

||
2


||
2
i.
Observacion 1.2.1 Si n N, se verica que
i
n
=
_

_
1 si n = 4k
i si n = 4k + 1
1 si n = 4k + 2
i si n = 4k + 3
para k = 0, 1, 2, . . . .
Proposicion 1.2.1 Para ,

C se verican
1. +

=

+

.
2.

.
3.

= .
4. +

= 2Re().
5.

= 2Im()i.
6.

= (Re())
2
+ (Im())
2
= [[
2
.
Proposicion 1.2.2 Para ,

C se verican
8 CAP

ITULO 1. LOS N

UMEROS COMPLEJOS
1. [[ = 0 = 0.
2. [[ = [ [.
3. [ +

[ [[ +[

[.
4. [

[ = [[ [

[.
Para efectuar una division de n umeros complejos, cuando estos estan
escritos en forma binomica, se multiplican el numerador y el denominador
por el conjugado del denominador. Es decir, si = +i,

i C,
entonces

=
+ i

i
=
( + i)(

i)
(

i)(

i)
=
=
(

) + (

)i

2
+
2
.
Ejemplos:
Sean = 2 + 3i y

= 2 + 4i. Entonces
+

= (2 2) + (3 + 4)i = 7i,

= 4 + 8i 6i + 12i
2
= (4 12) + (8 6)i = 16 + 2i,

=
2 + 3i
2 + 4i
=
(2 + 3i)(2 4i)
(2 + 4i)(2 4i)
=
=
8 14i
20
=
2
5

7
10
i.
A continuacion describiremos otras formas de expresar un n umero com-
plejo.
Sea = + i, ,= 0. Sea = arg(). Entonces cos() =

||
y
sen() =

||
. En consecuencia, = [[cos() y = [[sen() y se puede
escribir como
= + i = [[cos() + i[[sen() = [[(cos() + i sen()).
La formulacion anterior para el n umero complejo se conoce con el nom-
bre de forma trigonometrica. Si = [[(cos() +i sen()) y

= [

[(cos(

) +
i sen(

)) son dos n umeros complejos expresados en forma trigonometrica,


resulta

= [[(cos() + i sen())[

[(cos(

) + i sen(

)) =
1.2. OPERACIONES CON N

UMEROS COMPLEJOS 9
= [[[

[(cos()cos(

) + i cos()sen(

) + i sen()cos(

) sen()sen(

)) =
= [[[

[
_
[cos()cos(

) sen()sen(

] + i[cos()sen(

) + sen()cos(

)]
_
=
= [[[

[(cos( +

) + i sen( +

)).
La forma polar de un n umero complejo es el par ordenado formado por
el modulo de y el argumento de . Si = arg(), entonces la forma polar
de es
= ([[, ).
Si = ([[, ) y

= ([

[,

) son dos n umeros complejos escritos en forma


polar, entonces, del calculo anterior se deduce que

= ([[[

[, +

).
Analogamente, si

,= 0,

= (
[[
[

[
,

).
De lo anterior se deduce tambien que si = ([[, ) es un n umero complejo
escrito en forma polar y n N, entonces la n-esima potencia de esta dada
por

n
=
n)
. . . = ([[
n
, n),
es decir,
n
= [[
n
(cos(n) + isen(n).
Sea ahora = ([[, ), ,= 0, un n umero complejo escrito en forma polar.
Sea n N. El n umero complejo tiene n races n-esimas distintas, que
denotaremos
0
,
1
, . . . ,
n1
(es decir, para k = 0, 1, . . . , n 1,
n
k
= ).
Estas n races n-esimas estan dadas por

k
=
_
n
_
[[,
+ 2k
n
_
. k = 0, 1, . . . , n 1.
Ejemplo:
Vamos a calcular las 8 races octavas de la unidad. En forma polar, la
unidad, es decir, el n umero real 1, se escribe como 1 = (1, 0). El modulo de
cualquiera de las races octavas es
8

1 = 1. Haciendo = 0 en la discusion
anterior, teniendo en cuenta que ahora n = 8 y variando k desde 0 hasta 7
se obtienen dichas races octavas, que son

0
= (1, 0)
1
= (1,

4
)
2
= (1,

2
)
3
= (1,
3
4
)

4
= (1, )
5
= (1,
5
4
)
6
= (1,
3
2
)
7
= (1,
7
4
)
Denotemos ahora e
i
= cos()+isen(). La forma exponencial del n umero
complejo = ([[, ) es
10 CAP

ITULO 1. LOS N

UMEROS COMPLEJOS
= [[e
i
.
Finalmente, la funcion exponencial se calcula como sigue: si = + i,
entonces
e

= e

e
i
= e

(cos() + i sen()).
Proposicion 1.2.3 Para ,

C se verican
1. e

,= 0.
2. Si R, entonces [e
i
[ = 1.
3. e

= 1 = 2ki, k Z.
4. e

= e

+ 2ki, k Z.
5. e

= e
+

.
Ejercicio: Sean = 2 2i,

= (3,

4
) y

= 3e

2
i
.
a) Calcular +

, +

.
b) Calcular

.
c) Calcular +

.
d) Calcular

.
e) Calcular las dos races cuadradas de .
f) Calcular
4
.
Captulo 2
Espacios vectoriales
2.1 Estructura de espacio vectorial
De ahora en adelante, la letra K denotara el cuerpo K = R de los n umeros
reales o el cuerpo K = C de los n umeros complejos.
Denicion 2.1.1 Un espacio vectorial sobre K (o un K-espacio vectorial)
es un conjunto V dotado de dos operaciones, una interna
suma : V V
+
V
(v, w) v + w
y otra externa
producto por escalares : KV

V
(, v) v
tales que
la suma tiene las propiedades
asociativa: u + (v + w) = (u + v) + w
conmutativa: u + v = v + u
elemento neutro: 0 V ; 0 + v = v + 0 = v
elemento opuesto: v V, v V ; v + (v) = (v) +v = 0
el producto por escalares verica que
(v + w) = v + w
( + )v = v + v
11
12 CAP

ITULO 2. ESPACIOS VECTORIALES


()v = (v)
1 v = v, siendo 1 el elemento neutro del producto en K
donde , denotan elementos cualesquiera de K y u, v, w denotan elementos
cualesquiera de V .
Observacion 2.1.1 Si V es un K-espacio vectorial, los elementos de V se
llamaran vectores y se denotaran usualmente por letras latinas, mientras que
los elementos de K se llamaran escalares y se denotaran usualmente por letras
griegas. El elemento neutro para la suma en V se dira vector cero de V .
Ejemplos:
1) Si denimos
R
n
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
;
1
,
2
, . . . ,
n
R
entonces R
n
es un R-espacio vectorial con las operaciones
R
n
R
n
+
R
n
(
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
,
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
)
_
_
_
_
_

1
+
1

2
+
2
.
.
.

n
+
n
_
_
_
_
_
R R
n

R
n
(,
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
)
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
2) Si denimos
C
n
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
;
1
,
2
, . . . ,
n
C
2.2. SUBESPACIO 13
entonces C
n
es un C-espacio vectorial con las operaciones
C
n
C
n
+
C
n
(
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
,
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
)
_
_
_
_
_

1
+
1

2
+
2
.
.
.

n
+
n
_
_
_
_
_
C C
n

C
n
(,
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
)
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
Observacion 2.1.2 Observemos que, haciendo n = 1, se obtiene que R es
un R-espacio vectorial y C es un C-espacio vectorial.
Propiedades 2.1.1 Si V es un K-espacio vectorial se verica que
1. 0 = 0 para todo K.
2. 0 v = 0 para todo v V .
3. v = 0 = 0 o v = 0 ( K, v V ).
4. ()v = (v) = (v) ( K, v V ).
5. v = v

, ,= 0 v = v

( K, v, v

V ).
6. v = v, v ,= 0 = (, K, v V ).
2.2 Subespacio
Sea V un K-espacio vectorial.
Denicion 2.2.1 Un subconjunto no vaco U V es un subespacio vectorial
de V si y s olo si
* U es un K-espacio vectorial con las mismas operaciones que V
o bien si y s olo si
14 CAP

ITULO 2. ESPACIOS VECTORIALES


*
_
u
1
+ u
2
U, u
1
, u
2
U
u U, K, u U
o bien si y s olo si
* u
1
+ u
2
U, , K, u
1
, u
2
U
Ejemplos:
1. U = 0 y U = V son subespacios de V (se llaman subespacios impro-
pios de V ).
2. De los siguientes subconjuntos de R
3
,
U
1
=
_
_

3
_
_
R
3
; 2
1
2
2
= 3
3
,
U
2
=
_
_

3
_
_
R
3
; [
1
[ = [
2
[,
U
3
=
_
_

3
_
_
R
3
; 6
1

2
= 3,
U
4
=
_
_

3
_
_
R
3
;
1

2
3
= 0,
tan solo U
1
es un subespacio vectorial de R
3
.
Proposicion 2.2.1 Si U y W son subespacios vectoriales de V , tambien lo
es U V .
Demostracion:
Sean , K y v, v

U V . Entonces
v U y v W
v

U y v

W
Como U y W son subespacios tenemos que
v + v

U y v + v

W
de donde v + v

U W y U W es un subespacio.

2.3. SISTEMA DE GENERADORES 15


Observacion 2.2.1 Si U
1
, U
2
, . . . , U
n
son subespacios vectoriales de V , tambien
lo es U
1
U
2
U
n
.
Observacion 2.2.2 Todo subespacio vectorial de V contiene al vector cero
de V ; por tanto, la interseccion de dos subespacios vectoriales de V nunca
puede ser el conjunto vaco.
Denicion 2.2.2 Dos subespacios vectoriales de V se dicen disjuntos si su
interseccion es el subespacio formado por el vector cero de V .
Ejemplo:
En R
2
, los subespacios
U =
_

1
0
_
;
1
R y W =
_
0

2
_
;
2
R
son disjuntos.
2.3 Sistema de generadores
Sea V un K-espacio vectorial.
Denicion 2.3.1 Un conjunto cualquiera de vectores en V se dir a un sis-
tema de vectores de V .
Sea S un sistema de vectores de V .
Denicion 2.3.2 Una combinacion lineal de vectores de S es una expresi on
de la forma

1
s
1
+
2
s
2
+ +
p
s
p
,
con
1
,
2
, . . . ,
p
K y s
1
, s
2
, . . . , s
p
S.
Observacion 2.3.1 El vector cero de V es combinacion lineal de cualquier
sistema de vectores de V .
Observacion 2.3.2 Si v V es combinacion lineal de vectores de S y cada
vector de S es combinacion lineal de vectores de otro sistema de vectores T,
entonces v es combinacion lineal de vectores de T.
Denicion 2.3.3 El conjunto de combinaciones lineales de vectores de S se
llama subespacio engendrado por S y se denota por S); se dice tambien que
S es un sistema de generadores de S).
16 CAP

ITULO 2. ESPACIOS VECTORIALES


Proposicion 2.3.1 El subespacio S) engendrado por S es efectivamente un
subespacio de V .
Demostracion:
Sean , K y u, w S). Pongamos
u =
1
s
1
+
2
s
2
+ +
p
s
p
y w =
1
s
1
+
2
s
2
+ . . .
p
s
p
con
1
,
2
, . . . ,
p
,
1
,
2
, . . . ,
p
K y s
1
, s
2
, . . . , s
p
S. Entonces
u + w = (
1
+
1
)s
1
+ (
2
+
2
)s
2
+ + (
p
+
p
)s
p
es una combinacion lineal de vectores de S y u + w S).
Observacion 2.3.3 Por convenio, ) = 0.
Propiedades 2.3.1 Sean S y T sistemas de vectores de V y sean u, v V .
Se verica que:
1. S T S) T).
2. S)) = S).
3. u S v), u / S) v S u).
4. S T) S) T).
Denicion 2.3.4 Dos sistemas de vectores S y T de V se dicen equivalentes
si S) = T).
Observacion 2.3.4 Dos sistemas de vectores S y T de V son equivalentes
si y solo si todo vector de S es combinacion lineal de vectores de T y todo
vector de T es combinacion lineal de vectores de S.
2.4 Subespacio suma
Sea V un K-espacio vectorial.
Denicion 2.4.1 Sean U y W subespacios vectoriales de V . Se dene el
subespacio suma U + W como
U + W = u + w V ; u U, w W.
2.4. SUBESPACIO SUMA 17
Proposicion 2.4.1 El subespacio suma U + W de dos subespacios U y W
de V es efectivamente un subespacio de V .
Demostracion:
Sean , K y v, v

U + W. Pongamos
v = u + w y v

= u

+ w

,
con u, u

U, w, w

W. Entonces
v + v

= u + w + u

+ w

= u + u

+ w + w

.
Como U y W son subespacios resulta que
u + u

U y w + w

W.
As, v + v

U + W y U + W es subespacio.
Ejemplo:
En R
2
, los subespacios
U =
_

1
0
_
;
1
R y W =
_
0

2
_
;
2
R
verican que U + W = R
2
, pues dado
_

1

2
_
R
2
se tiene que
_

1

2
_
=
_

1
0
_
+
_
0

2
_
,
con
_

1
0
_
U y
_
0

2
_
W.
Proposicion 2.4.2 Sean S y T sistemas de vectores de V . Entonces
S) +T) = S T)
Demostracion:
Si u + w S) +T), con u S) y w T), podemos poner
u =
1
s
1
+
2
s
2
+ +
p
s
p
,
w =
1
t
1
+
2
t
2
+ +
q
t
q
,
con
1
,
2
, . . . ,
p
,
1
,
2
, . . . ,
q
K, s
1
, s
2
, . . . , s
p
S y t
1
, t
2
, . . . , t
q
T.
De este modo,
u + w =
1
s
1
+
2
s
2
+ +
p
s
p
+
1
t
1
+
2
t
2
+ +
q
t
q
18 CAP

ITULO 2. ESPACIOS VECTORIALES


es combinacion lineal de vectores de S T y u + w S T).
Si v S T) podemos escribir
v =
1
s
1
+
2
s
2
+ +
p
s
p
+
1
t
1
+
2
t
2
+ +
q
t
q
,
con
1
,
2
, . . . ,
p
,
1
,
2
, . . . ,
q
K, s
1
, s
2
, . . . , s
p
S y t
1
, t
2
, . . . , t
q
T.
As,

1
s
1
+
2
s
2
+ +
p
s
p
S),

1
t
1
+
2
t
2
+ +
q
t
q
T),
y v S) +T).
Observacion 2.4.1 Si U
1
, U
2
, . . . , U
n
son subespacios de V , se dene el
subespacio suma U
1
+ U
2
+ + U
n
, que tambien es un subespacio de V ,
como
U
1
+U
2
+ +U
n
= u
1
+u
2
+ +u
n
V ; u
1
U
1
, u
2
U
2
, . . . , u
n
U
n
.
Observacion 2.4.2 Si S
1
, S
2
, . . . , S
n
son sistemas de vectores de V , en-
tonces
S
1
) +S
2
) + +S
n
) = S
1
S
2
S
n
)
Sea V un K-espacio vectorial.
Denicion 2.4.2 Sean U
1
, U
2
, . . . , U
n
subespacios de V . Se dice que la suma
U
1
+U
2
+ +U
n
es directa si y s olo si para todo v U
1
+U
2
+ +U
n
existen
vectores unicos u
1
U
1
, u
2
U
2
, . . . , u
n
U
n
tales que v = u
1
+u
2
+ +u
n
.
Es ese caso, el subespacio suma se denotara por U
1
U
2
U
n
.
Ejemplos:
1) Ya sabemos que la suma de los subespacios
U =
_

1
0
_
;
1
R y W =
_
0

2
_
;
2
R
es U + W = R
2
. Pues bien, dicha suma es directa porque dado un
vector
_

1

2
_
R
2
= U + W de dicha suma, la unica manera de
escribirlo como suma de un vector de U mas un vector de V es
_

1

2
_
=
_

1
0
_
+
_
0

2
_
.
Escribiremos entonces U W = R
2
.
2.4. SUBESPACIO SUMA 19
2) Consideremos en R
4
los subespacios
U =
_
_
_
_

3
0
_
_
_
_
;
1
,
2
,
3
R y W =
_
_
_
_
0

2
0

4
_
_
_
_
;
2
,
4
R.
Entonces se verica que U + W = R
4
ya que cualquier vector
_
_
_
_

4
_
_
_
_
de R
4
se puede escribir, por ejemplo, como
_
_
_
_

4
_
_
_
_
=
_
_
_
_

3
0
_
_
_
_
+
_
_
_
_
0
0
0

4
_
_
_
_
con
_
_
_
_

3
0
_
_
_
_
U y
_
_
_
_
0
0
0

4
_
_
_
_
W.
Pero como tambien podemos escribir, por ejemplo,
_
_
_
_

4
_
_
_
_
=
_
_
_
_

1
0

3
0
_
_
_
_
+
_
_
_
_
0

2
0

4
_
_
_
_
con
_
_
_
_

1
0

3
0
_
_
_
_
U y
_
_
_
_
0

2
0

4
_
_
_
_
W,
resulta que la suma U + W = R
4
no es directa.
Proposicion 2.4.3 Una suma U
1
+ U
2
+ + U
n
de subespacios de V es
directa si y s olo si el vector cero de V se expresa de modo unico como suma
de ceros, es decir, si y s olo si
u
1
U
1
, u
2
U
2
, . . . , u
n
U
n
, u
1
+u
2
+ +u
n
= 0 u
1
= u
2
= = u
n
= 0.
20 CAP

ITULO 2. ESPACIOS VECTORIALES


Demostracion:
Por denicion de suma directa.
Sea v U
1
+ U
2
+ + U
n
. Supongamos que
v = u
1
+ u
2
+ + u
n
= u

1
+ u

2
+ + u

n
con u
1
, u

1
U
1
, u
2
, u

2
U
2
, . . . , u
n
, u

n
U
n
. Entonces, el vector cero de V
se escribe como
0 = v v = (u
1
u

1
) + (u
2
u

2
) + + (u
n
u

n
),
con u
1
u

1
U
1
, u
2
u

2
U
2
, . . . , u
n
u

n
U
n
. Por hipotesis,
u
1
u

1
= u
2
u

2
= = u
n
u

n
= 0
y u
1
= u

1
, u
2
= u

2
, . . . , u
n
= u

n
.
Proposicion 2.4.4 Sean U y W dos subespacios vectoriales de V . La suma
U + W es directa si y s olo si U y W son disjuntos.
Demostracion:
Si U y W no fuesen disjuntos, es decir, si U W ,= 0, existira
v U W, v ,= 0. As, el vector cero de V se podra escribir como
0 = v + (v),
con v U y v W, con lo cual la suma U + W no sera directa.
Sean u U y w W tales que u +w = 0. Entonces, u = w W.
Por tanto, u U W = 0. As, u = 0 y w = 0.
2.5 Dependencia e independencia lineal
Sean V un K-espacio vectorial y S = s
1
, s
2
, . . . , s
p
un sistema de vectores
de V .
Denicion 2.5.1 Se dice que S es libre o linealmente independiente si

1
s
1
+
2
s
2
+ +
p
s
p
= 0,
1
,
2
, . . . ,
p
K
1
=
2
= =
p
= 0.
En caso contrario, S se dice ligado o linealmente dependiente.
Denicion 2.5.2 Se dice que un vector v V depende linealmente de S si
v es combinacion lineal de vectores de S, es decir, si v S).
2.5. DEPENDENCIA E INDEPENDENCIA LINEAL 21
Proposicion 2.5.1 Son equivalentes:
i) S es ligado.
ii) Existen escalares
1
,
2
, . . . ,
p
K no todos nulos vericando que

1
s
1
+
2
s
2
+ +
p
s
p
= 0.
iii) Existe un vector s
i
S que es combinacion lineal de los dem as vectores
de S, es decir, tal que s
i
S s
i
).
Proposicion 2.5.2 S es libre si y s olo si el subespacio que engendra contiene
propiamente al subespacio engendrado por cualquiera de sus subconjuntos
propios. Equivalentemente, S es libre si y s olo si para todo i = 1, 2, . . . , p es
S s
i
) S).
Propiedades 2.5.1 Se verica que:
1. Si v V , v ,= 0, entonces v es libre.
2. Cualquier sistema de vectores que contenga al vector cero de V es liga-
do.
3. Si S es libre, entonces cualquier subconjunto de S es libre.
4. Si S es ligado, entonces cualquier sistema de vectores de V que contenga
a S es ligado.
Ejemplo:
En R
3
, el sistema de vectores
S =
_
_
1
1
1
_
_
,
_
_
0
2
1
_
_
,
_
_
1
0
3
_
_

es libre, pues si ponemos

_
_
1
1
1
_
_
+
_
_
0
2
1
_
_
+
_
_
1
0
3
_
_
=
_
_
0
0
0
_
_
resulta que
+ = 0
+ 2 = 0
+ 3 = 0
22 CAP

ITULO 2. ESPACIOS VECTORIALES


y, operando, se obtiene = = = 0. En cambio, el sistema
T =
_
_
1
1
1
_
_
,
_
_
0
2
1
_
_
,
_
_
1
5
1
_
_

es ligado pues
_
_
1
5
1
_
_
=
_
_
1
1
1
_
_
+ 2
_
_
0
2
1
_
_
.
Proposicion 2.5.3 Sea v V . Si S es libre y v / S), entonces S v es
libre.
Demostracion:
Si S v no fuese libre, existira una combinacion lineal

1
s
1
+
2
s
2
+ +
p
s
p
+ v = 0,
con ,= 0 (pues S es libre). Luego, existira
1
y podramos obtener
v =
1

1
s
1

2
s
2

1

p
s
p
,
de tal modo que v S), lo cual es una contradiccion.
Teorema 2.5.1 Un subespacio U = S) de V no se modica si en el sistema
de vectores S se efect ua cualquiera de las operaciones siguientes, llamadas
transformaciones elementales:
a) Intercambiar dos vectores.
b) Multiplicar un vector por un escalar no nulo.
c) Sumar a un vector un m ultiplo de otro.
2.6 Base
Sean V un K-espacio vectorial y B = a
1
, a
2
, . . . , a
n
un sistema de vectores
de V .
Denicion 2.6.1 B es base de V si es libre y B) = V .
2.6. BASE 23
Ejemplo:
En el espacio vectorial K
n
, el sistema de vectores
B
K
n =
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
,
_
_
_
_
_
0
1
.
.
.
0
_
_
_
_
_
, . . . ,
_
_
_
_
_
0
0
.
.
.
1
_
_
_
_
_

es una base, llamada base canonica de K


n
.
Si n = 1, obtenemos que B
K
= 1 es una base de K como K-espacio
vectorial.
Proposicion 2.6.1 Son equivalentes:
i) B es base de V .
ii) < B >= V y si a
i
B, entonces B a
i
ya no engendra V .
iii) B es libre y si v V , entonces B v ya no es libre.
Ejemplo:
Consideremos los subespacios de R
4
denidos por
U =
_
_
_
_

1
2
2

1
2
2

2
_
_
_
_
;
1
,
2
R,
W =
_
_
_
_

4
_
_
_
_
R
4
; 2
1

3
+
4
= 0.
Entonces
B
U
=
_
_
_
_
1
1
0
0
_
_
_
_
,
_
_
_
_
2
0
2
1
_
_
_
_
,
B
W
=
_
_
_
_
1
2
0
0
_
_
_
_
,
_
_
_
_
1
0
2
0
_
_
_
_
,
_
_
_
_
1
0
0
2
_
_
_
_
,
son, respectivamente, bases de U y W.
24 CAP

ITULO 2. ESPACIOS VECTORIALES


Proposicion 2.6.2 B es base de V si y s olo si todo vector de V se escribe
de modo unico como combinacion lineal de vectores de B, es decir, si y s olo
si
V = a
1
) a
2
) a
n
)
Demostracion:
Sea v V . Como B) = V , entonces v ya es combinacion lineal de
vectores de B. Ademas, dicha combinacion lineal es unica, pues si
v =
1
a
1
+
2
a
2
+ +
n
a
n
=
1
a
1
+
2
a
2
+ +
n
a
n
con
1
,
2
, . . . ,
n
,
1
,
2
, . . . ,
n
K, entonces
0 = v v = (
1

1
)a
1
+ (
2

2
)a
2
+ + (
n

n
)a
n
y como B es libre, resultan
1

1
=
2

2
= =
n

n
= 0, es decir,

1
=
1
,
2
=
2
, . . . ,
n
=
n
.
Si V = a
1
)a
2
) a
n
), entonces B) = V porque para
todo v V existen
1
,
2
, . . . ,
n
K tales que v =
1
a
1
+
2
a
2
+ +
n
a
n
.
Ademas, B es libre pues

1
a
1
+
2
a
2
+ +
n
a
n
= 0,
1
,
2
, . . . ,
n
K
1
=
2
= =
n
= 0
porque el vector cero de V se expresa de modo unico como suma de ceros.

Denicion 2.6.2 Supongamos que B = a


1
, a
2
, . . . , a
n
es una base de V .
Sea v V . Se llaman coordenadas de v en la base B a los unicos escalares

1
,
2
, . . . ,
n
K para los cuales
v =
1
a
1
+
2
a
2
+ +
n
a
n
.
A los vectores
1
a
1
,
2
a
2
, . . . ,
n
a
n
se les llama componentes de v en la
base B.
Observacion 2.6.1 Si B = a
1
, a
2
, . . . , a
n
es una base de V , la aplicacion
: V K
n
v (v) =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
2.7. DIMENSI

ON 25
donde
1
,
2
, . . . ,
n
K son tales que v =
1
a
1
+
2
a
2
+ +
n
a
n
, es
biyectiva. Diremos que el vector
(v) =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
es el vector de coordenadas de v en la base B.
2.7 Dimension
Observacion 2.7.1 A partir de ahora, salvo cuando se especique lo con-
trario, entenderemos por K-espacio vectorial un K-espacio vectorial que ad-
mita una base formada por un n umero nito de vectores. Este tipo de espa-
cios vectoriales se llaman espacios vectoriales de dimension nita.
Sea V un K-espacio vectorial.
Teorema 2.7.1 Sea B = a
1
, a
2
, . . . , a
n
una base de V . Entonces todo
sistema de vectores de V con mas de n vectores es ligado.
Demostracion:
Bastara probar, seg un la proposicion 2.5.1, apartado 4., que todo sistema
con n + 1 vectores de V es ligado.
Sea entonces S = s
1
, s
2
, . . . , s
n
, s
n+1
V .
Tomemos s
1
.
Si s
1
= 0, entonces S ya es ligado. Si s
1
,= 0, entonces existen escalares
no todos nulos
1
,
2
, . . . ,
n
K tales que
s
1
=
1
a
1
+
2
a
2
+ +
n
a
n
.
Supongamos que es
1
,= 0. Se tiene entonces que
a
1
=
1
1
s
1

1
1

2
a
2

1
1

n
a
n
.
De este modo, si S
1
= s
1
, a
2
, a
3
. . . , a
n
, obtenemos que todo vector de S
1
es combinacion lineal de vectores de B y que todo vector de B es combinacion
lineal de vectores de S
1
. As, por la observacion 2.3.4, S
1
y B son equivalentes
y
S
1
) = B) = V.
26 CAP

ITULO 2. ESPACIOS VECTORIALES


Tomemos ahora s
1
, s
2
.
Si s
1
, s
2
es ligado, entonces S ya es ligado. Si s
1
, s
2
es libre, entonces
existen escalares
1
,
2
,
3
, . . . ,
n
K con alg un
i
no nulo tales que
s
2
=
1
s
1
+
2
a
2
+
3
a
3
+ +
n
a
n
.
Supongamos que es
2
,= 0. Entonces, si S
2
= s
1
, s
2
, a
3
. . . , a
n
, se
obtiene, como antes, que
S
2
) = S
1
) = V.
Procediendo del mismo modo llegaramos, en el caso mas desfavorable, a
que el sistema S
n
= s
1
, s
2
, . . . , s
n
es un sistema de generadores de V . En
ese caso, s
n+1
S
n
) y S sera ligado.

Corolario 2.7.1 Todas las bases de un K-espacio vectorial tienen el mismo


n umero de vectores.
Denicion 2.7.1 Se llama dimensi on de V , y se denota dim(V ), al n umero
de vectores de una base cualquiera de V .
Observacion 2.7.2 Por convenio, dim(0) = 0.
Ejemplo:
dim(K
n
) = n.
Proposicion 2.7.1 Supongamos que dim(V ) = n. Entonces, todo sistema
libre formado por n vectores de V es base de V y todo sistema de generadores
de V formado por n vectores de V es base de V .
Teorema 2.7.2 (Teorema de compleccion) Pongamos n = dim(V ). Sea
S = s
1
, s
2
, . . . , s
p
un sistema libre de vectores de V , con p < n. Entonces,
existen v
p+1
, v
p+2
, . . . , v
n
V tales que
s
1
, s
2
, . . . , s
p
, v
p+1
, v
p+2
, . . . , v
n

es base de V .
Demostracion:
Como S) V , entonces existe v
p+1
V tal que v
p+1
/ S). Por la
proposicion 2.5.3,
S v
p+1

2.7. DIMENSI

ON 27
es libre. Si p + 1 = n, entonces S v
p+1
ya es base de V . Si p + 1 < n,
entonces se repite el proceso y se encuentra un vector v
p+2
V tal que
S v
p+1
, v
p+2

es libre. Si p + 2 = n, entonces S v
p+1
, v
p+2
es base de V . Si p + 2 < n,
el proceso sigue hasta que se alcance la dimension de V .
Propiedades 2.7.1 Sean U y W subespacios de V . Entonces:
1. dim(U) dim(V ).
2. dim(U) = dim(V ) U = V .
3. U W y dim(U) = dim(W) U = W.
Teorema 2.7.3 (Formula de Grassmann o teorema de las dimen-
siones) Sean U y W subespacios de V . Entonces
dim(U + W) + dim(U W) = dim(U) + dim(W).
Demostracion:
Sea B
UW
= e
1
, e
2
, . . . , e
p
una base de UW. Como UW es subespa-
cio de U y de W podemos, seg un el teorema de compleccion (teorema 2.7.2),
tomar bases de U y de W, respectivamente, de la forma
B
U
= e
1
, e
2
, . . . , e
p
, u
p+1
, u
p+2
, . . . , u
r
,
B
W
= e
1
, e
2
, . . . , e
p
, w
p+1
, w
p+2
, . . . , w
s
,
Entonces, se puede demostrar que
B
U+W
= e
1
, e
2
, . . . , e
p
, u
p+1
, u
p+2
, . . . , u
r
, w
p+1
, w
p+2
, . . . , w
s

es base de U + W.
Corolario 2.7.2 Si U y W son subespacios de V y la suma U+W es directa,
entonces
dim(U + W) = dim(U) + dim(W).
28 CAP

ITULO 2. ESPACIOS VECTORIALES


2.8 Aplicaciones lineales
Sean V y W dos K-espacios vectoriales, no necesariamente de dimension
nita.
Denicion 2.8.1 Una aplicaci on f : V W es lineal si verica que
i) f(v + v

) = f(v) + f(v

)
ii) f(v) = f(v)
para cualesquiera v, v

V y K.
Observacion 2.8.1 Una aplicacion f : V W es lineal si y solo si la ima-
gen por f de cualquier combinacion lineal de vectores de V es igual a la
correspondiente combinacion lineal de las imagenes de los vectores de V .
Asimismo, si f : V W es lineal, se verica que f(0) = 0.
Sea f : V W una aplicacion lineal.
Denicion 2.8.2 Se denen el n ucleo y la imagen de f como
ker(f) = x V ; f(x) = 0 V,
Im(f) = f(x) W; x V W,
respectivamente.
Proposicion 2.8.1 ker(f) es un subespacio de V e Im(f) es un subespacio
de W.
Demostracion:
Sean x, y ker(f) (es decir, f(x) = 0 = f(y)) y sean , K. Debemos
ver que x + y ker(f), es decir, que f(x + y) = 0. Y en efecto,
f(x + y) = f(x) + f(y) = 0 + 0 = 0.
Esto prueba que ker(f) es un subespacio de V .
Sean ahora f(x), f(y) Im(f) (con x, y V ) y sean , K. Debemos
ver que f(x) + f(y) Im(f). Y en efecto, esto es cierto porque
f(x) + f(y) = f(x + y)
As, Im(f) es un subespacio de W.
2.8. APLICACIONES LINEALES 29
Proposicion 2.8.2 La aplicaci on f es inyectiva si y s olo si ker(f) = 0.
Demostracion:
Si x ker(f), entonces f(x) = 0. Por tanto, f(x) = 0 = f(0), y
como f es inyectiva, x = 0. As, ker(f) = 0.
Si f(x) = f(y), con x, y V , entonces f(x) f(y) = 0, o lo que es
lo mismo, f(x y) = 0. As,
x y ker(f) = 0,
de donde x y = 0, es decir, x = y.
Observacion 2.8.2 La aplicacion f es sobreyectiva si y solo si Im(f) = W.
Denicion 2.8.3 Una aplicaci on lineal entre K-espacios vectoriales que sea
biyectiva se dice un isomorsmo. Dos K-espacios vectoriales se dicen iso-
morfos si y s olo si existe un isomorsmo entre ellos.
Ejemplo:
Sean V un K-espacio vectorial n-dimensional y B = a
1
, a
2
, . . . , a
n
una
base de V . La aplicacion
: V K
n
v =
1
a
1
+
2
a
2
+ +
n
a
n
(v) =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
,
que asigna a cada vector de V su vector de coordenadas en la base B, es
lineal y biyectiva. Es, por tanto, un isomorsmo.
Observacion 2.8.3 Dos K-espacios vectoriales de dimension nita que ten-
gan la misma dimension son isomorfos.
30 CAP

ITULO 2. ESPACIOS VECTORIALES


Captulo 3
Matrices y determinantes
3.1 Operaciones con matrices
Denicion 3.1.1 Una matriz de tama no mn (u orden mn) es un cuadro
rectangular de m las y n columnas de escalares de la forma
A =
_
_
_
_
_

11

12
. . .
1n

21

22
. . .
2n
.
.
.
.
.
.
.
.
.

m1

m2
. . .
mn
_
_
_
_
_
.
Si m = n, la matriz se dice cuadrada de tama no n o n n (u orden n o
nn). El conjunto de matrices de tama no mn se denotara por /
mn
(K)
y el de matrices cuadradas de tama no n por /
nn
(K).
Los mn escalares
ij
se llaman coecientes de la matriz. La matriz de
/
mn
(K) cuyos coecientes son todos iguales a cero se llama matriz nula y
se denotar a por 0 /
mn
(K).
Abreviadamente, una matriz generica A /
mn
(K) se denotara por
A = (
ij
) /
mn
(K),
donde el primerndice, i, indicara la y el segundondice, j, indicara columna.
Esta notacion abreviada permite denir de un modo comodo las principales
operaciones con matrices.
Denicion 3.1.2 Dos matrices A = (
ij
) y B = (
ij
) se dicen iguales si
son del mismo tama no y
ij
=
ij
para cualesquiera i, j.
31
32 CAP

ITULO 3. MATRICES Y DETERMINANTES


Denicion 3.1.3 La suma de matrices es una operaci on interna en /
mn
(K)
denida como
/
mn
(K) /
mn
(K)
+
/
mn
(K)
(A, B) A + B = (
ij
+
ij
)
donde A = (
ij
) y B = (
ij
).
Denicion 3.1.4 El producto por escalares es una operaci on externa en
/
mn
(K) denida como
K/
mn
(K)

/
mn
(K)
(, A) A = (
ij
)
donde A = (
ij
).
Proposicion 3.1.1 Se verica que /
mn
(K) con la suma y el producto por
escalares es un K-espacio vectorial; por tanto, se verica que
A + (B + C) = (A + B) + C
A + B = B + A
La matriz nula 0 /
mn
(K) es tal que 0 + A = A + 0 = A
Dada A = (
ij
) /
mn
(K) existe A = (
ij
) /
mn
(K), lla-
mada matriz opuesta de A, tal que A + (A) = (A) +A = 0
(A + B) = A + B
( + )A = A + A
()A = (A)
1 A = A
as como
0 = 0
0 A = 0
A = 0 = 0 o A = 0
()A = (A) = (A)
3.1. OPERACIONES CON MATRICES 33
A = B, ,= 0 A = B
A = A, A ,= 0 =
para A, B, C /
mn
(K), , K.
Proposicion 3.1.2 Denotemos por E
ij
/
mn
(K) la matriz cuyo coe-
ciente que ocupa la i-esima la y la j-esima columna es igual a 1, siendo
cero el resto de los coecientes. Una base de /
mn
(K) est a dada por
E
ij
; i = 1, 2, . . . , m , j = 1, 2, . . . , n
y la dimensi on de /
mn
(K) es mn.
Denicion 3.1.5 Sean A = (
ij
) /
mn
(K) y B = (
ij
) /
np
(K). El
producto C = AB es otra matriz
C = AB = (
ij
) /
mp
(K)
dada por

ij
=
i1

1j
+
i2

2j
+ +
in

nj
para i = 1, 2, . . . , m, j = 1, 2, . . . , p.
Observacion 3.1.1 Conviene tener en cuenta lo siguiente:
1. El producto AB de dos matrices A y B solo tiene sentido si el n umero
de columnas de A coincide con el n umero de las de B.
2. El producto de matrices no es, en general, conmutativo; de hecho, un
producto AB de matrices puede estar denido y en cambio el producto
BA no estarlo.
3. En el espacio /
nn
(K) de matrices cuadradas de tama no n el producto
/
nn
(K) /
nn
(K) /
nn
(K)
(A, B) AB
es una operacion interna. Pues bien, ni a un en este caso el producto es
conmutativo.
4. Si un producto de matrices AB es igual a la matriz nula, no tiene por
que ocurrir que A o B sean iguales a la matriz nula; por ejemplo,
_
1 0
0 0
__
0 0
1 0
_
=
_
0 0
0 0
_
.
34 CAP

ITULO 3. MATRICES Y DETERMINANTES


Denicion 3.1.6 Sean A, B /
nn
(K). Si AB = BA, se dice que A y B
conmutan o que son permutables.
Propiedades 3.1.1 Sean A, B, C /
nn
(K) y K. Se verica que:
1. A(BC) = (AB)C.
2. Existe una matriz, llamada matriz identidad de tama no n y denida
por
I = I
n
=
_
_
_
_
_
1
1
.
.
.
1
_
_
_
_
_
/
nn
(K)
tal que IA = AI = A.
3. A(B + C) = AB + AC y (A + B)C = AC + BC.
4. (AB) = (A)B = A(B).
3.2 Tipos particulares de matrices
Denicion 3.2.1 Una matriz de tama no 1 n se llama matriz la.
Denicion 3.2.2 Una matriz de tama no n 1 se llama matriz columna o
vector.
Denicion 3.2.3 Sea A = (
ij
) /
nn
(K) una matriz cuadrada. Se llama
diagonal principal de A al conjunto
11
,
22
, . . . ,
nn
.
Denicion 3.2.4 Una matriz cuadrada A = (
ij
) /
nn
(K) se dice dia-
gonal si todos los coecientes que no est an en la diagonal principal son iguales
a cero, es decir, si
ij
= 0 cuando i ,= j. Si A = (
ij
) /
nn
(K) es
diagonal, se escribira
A = diag(
11
,
22
, . . . ,
nn
).
Denicion 3.2.5 Una matriz cuadrada A /
nn
(K) se dice una matriz
escalar si es una matriz diagonal con todos los coecientes de la diagonal
principal iguales, es decir, si es de la forma A = I para alg un K.
3.2. TIPOS PARTICULARES DE MATRICES 35
Denicion 3.2.6 Una matriz cuadrada A = (
ij
) /
nn
(K) se dice trian-
gular superior si
ij
= 0 cuando i > j y se dice triangular inferior si
ij
= 0
cuando i < j.
Denicion 3.2.7 Sea A = (
ij
) /
mn
(K). Se llama matriz traspuesta
de A, y se denotar a por A
t
, a la matriz A
t
= (
ij
) /
nm
(K) denida por

ij
=
ji
, i = 1, 2, . . . , n , j = 1, 2, . . . , m,
es decir, a la matriz que se obtiene de A convirtiendo sus las en columnas
sin alterar su orden.
Propiedades 3.2.1 Se verica que:
1. Si A, B /
mn
(K), entonces (A + B)
t
= A
t
+ B
t
.
2. Si un producto de matrices AB tiene sentido, entonces (AB)
t
= B
t
A
t
.
Denicion 3.2.8 Sea A = (
ij
) /
mn
(K). Se llama matriz adjunta de
A, y se denotar a por A

, a la matriz A

= (
ij
) /
nm
(K) denida por

ij
=
ji
, i = 1, 2, . . . , n , j = 1, 2, . . . , m,
es decir, es la matriz obtenida de A haciendo su traspuesta y conjugando
todos los coecientes.
Propiedades 3.2.2 Se verica que:
1. Si A, B /
mn
(K), entonces (A + B)

= A

+ B

.
2. Si un producto de matrices AB tiene sentido, entonces (AB)

= B

.
Denicion 3.2.9 Sea A /
nn
(K). Se dene la matriz inversa de A, si
existe, como una matriz A
1
/
nn
(K) vericando que AA
1
= A
1
A = I.
Una matriz cuadrada que admita matriz inversa se dir a inversible, regular o
no singular.
Propiedades 3.2.3 Se verica que:
1. Si una matriz es inversible, su inversa es unica.
2. La inversa de un producto de matrices inversibles es el producto de
inversas en orden cambiado, es decir, (AB)
1
= B
1
A
1
cuando A,
B /
nn
(K) son inversibles.
36 CAP

ITULO 3. MATRICES Y DETERMINANTES


3. Si A /
nn
(K) es inversible, entonces A
t
es inversible y su inversa
est a dada por (A
t
)
1
= (A
1
)
t
.
4. Si A /
nn
(K) es inversible, entonces A

es inversible y su inversa
est a dada por (A

)
1
= (A
1
)

.
Denicion 3.2.10 Una matriz A = (
ij
) /
nn
(R) se dice simetrica si
A = A
t
, es decir, si

ij
=
ji
, i, j = 1, 2, . . . , n.
Denicion 3.2.11 Una matriz A = (
ij
) /
nn
(R) se dice antisimetrica
si A = A
t
, es decir, si

ij
=
ji
, i, j = 1, 2, . . . , n.
Observacion 3.2.1 Observese que los coecientes de la diagonal principal
de una matriz antisimetrica son todos nulos.
Denicion 3.2.12 Una matriz A = (
ij
) /
nn
(K) se dice hermitiana si
A = A

, es decir, si

ij
=
ji
, i, j = 1, 2, . . . , n.
Observacion 3.2.2 Observese que los coecientes de la diagonal principal
de una matriz hermitiana son todos n umeros reales.
Denicion 3.2.13 Sea A /
nn
(R) una matriz simetrica. Se dice que A
es
denida positiva x

Ax > 0, para todo x R


n
, x ,= 0
semidenida positiva x

Ax 0, para todo x R
n
denida negativa x

Ax < 0, para todo x R


n
, x ,= 0
semidenida negativa x

Ax 0, para todo x R
n
Denicion 3.2.14 Sea A /
nn
(C) una matriz hermitiana. Se dice que
A es
denida positiva x

Ax > 0, para todo x C


n
, x ,= 0
semidenida positiva x

Ax 0, para todo x C
n
denida negativa x

Ax < 0, para todo x C


n
, x ,= 0
semidenida negativa x

Ax 0, para todo x C
n
3.3. TRAZA 37
Denicion 3.2.15 Una matriz A /
nn
(R) se dice ortogonal si A
t
A =
AA
t
= I, es decir, si A
1
= A
t
.
Ejemplo:
Para R, la matriz
A =
_
cos() sen()
sen() cos()
_
es ortogonal.
Denicion 3.2.16 Una matriz A /
nn
(K) se dice unitaria si A

A =
AA

= I, es decir, si A
1
= A

.
Denicion 3.2.17 Una matriz A /
nn
(K) se dice normal si A

A =
AA

.
Observacion 3.2.3 Toda matriz unitaria, ortogonal, simetrica, antisimetrica
o hermitiana es normal.
Denicion 3.2.18 Una matriz A /
nn
(K) se dice nilpotente si existe
p N tal que A
p
= AA
p)
. . . A = 0.
3.3 Traza
Denicion 3.3.1 Sea A = (
ij
) /
nn
(K). Se llama traza de A a la
suma de los coecientes de la diagonal principal de A, es decir,
traza(A) =
11
+
22
+ +
nn
.
Propiedades 3.3.1 Sean A, B /
nn
(K) y K. Entonces
1. traza(A + B) = traza(A) + traza(B).
2. traza(A) = traza(A).
3. traza(AB) = traza(BA).
38 CAP

ITULO 3. MATRICES Y DETERMINANTES


3.4 Submatrices
Denicion 3.4.1 Sea A = (
ij
) /
mn
(K). Una submatriz de A de
tama no p q es una matriz de la forma
_
_
_
_
_

i
1
j
1

i
1
j
2
. . .
i
1
j
q

i
2
j
1

i
2
j
2
. . .
i
2
j
q
.
.
.
.
.
.
.
.
.

i
p
j
1

i
p
j
2
. . .
i
p
j
q
_
_
_
_
_
/
pq
(K),
donde 1 i
1
< i
2
< < i
p
m y 1 j
1
< j
2
< < j
q
n.
Ejemplo:
Dada la matriz
A =
_
_
_
_
1 0 1 2 3
1 1 2 3 4
0 2 4 6 8
1 1 0 1 1
_
_
_
_
/
45
(R)
se tiene que las matrices
_
1 0
1 1
_
,
_
1 1 3
0 4 8
_
,
_
_
2 4
4 8
0 1
_
_
son submatrices de A; en cambio, las matrices
_
8 6
1 1
_
,
_
_
1 2 4
2 6 8
1 0 1
_
_
no lo son.
Denicion 3.4.2 Sea A = (
ij
) /
nn
(K). Las n submatrices principales
de A son las n matrices de la forma
_
_
_
_
_

11

12
. . .
1k

21

22
. . .
2k
.
.
.
.
.
.
.
.
.

k1

k2
. . .
kk
_
_
_
_
_
/
kk
(K),
con k = 1, 2, . . . , n.
3.5. MATRICES POR BLOQUES 39
3.5 Matrices por bloques
La division de una matriz en las y columnas es un caso particular de lo que
se llama descomposicion por bloques. En general, podemos partir tanto las
las como las columnas de una matriz A /
mn
(K) para obtener
A =
_
_
_
_
_
A
11
A
12
. . . A
1q
A
21
A
22
. . . A
2q
.
.
.
.
.
.
.
.
.
A
p1
A
p2
. . . A
pq
_
_
_
_
_
m
1
m
2
.
.
.
m
p
n
1
n
2
. . . n
q
es decir, para obtener una division de A en submatrices A
IJ
, donde I =
1, 2, . . . , p y J = 1, 2, . . . , q.
Esta division se llama descomposicion por bloques de la matriz A. Los
n umeros m
1
, m
2
, . . . , m
p
y n
1
, n
2
, . . . , n
q
indican que la submatriz A
IJ
tiene
tama no m
I
n
J
, y por tanto verican que
m
1
+ m
2
+ + m
p
= m y n
1
+ n
2
+ . . . n
q
= n.
En este caso, las submatrices A
IJ
se diran los bloques de la descom-
posicion por bloques de A y escribiremos
A = (A
IJ
).
Las matrices por bloques se combinan de la misma manera que las matri-
ces con coecientes escalares, aunque hay que hacer ciertas precisiones sobre
el tama no de los bloques. Por ejemplo, si B /
mn
(K) y consideramos en
B una descomposicion por bloques de la forma
B = (B
IJ
) =
_
_
_
_
_
B
11
B
12
. . . B
1q
B
21
B
22
. . . B
2q
.
.
.
.
.
.
.
.
.
B
p1
B
p2
. . . B
pq
_
_
_
_
_
m
1
m
2
.
.
.
m
p
n
1
n
2
. . . n
q
entonces, A y B se pueden sumar por bloques obteniendose la matriz suma
C = A + B de tal manera que
C = (C
IJ
) =
_
_
_
_
_
C
11
C
12
. . . C
1q
C
21
C
22
. . . C
2q
.
.
.
.
.
.
.
.
.
C
p1
C
p2
. . . C
pq
_
_
_
_
_
m
1
m
2
.
.
.
m
p
n
1
n
2
. . . n
q
40 CAP

ITULO 3. MATRICES Y DETERMINANTES


con C
IJ
= A
IJ
+ B
IJ
. Diremos en ese caso que la suma de las matrices A y
B se ha efectuado por bloques.
El producto por bloques es mas complicado.
Supongamos que A /
mr
(K) y B /
rn
(K), de tal modo que
C = AB /
mn
(K). Si para A y B consideramos descomposiciones por
bloques de la forma
A =
_
_
_
_
_
A
11
A
12
. . . A
1q
A
21
A
22
. . . A
2q
.
.
.
.
.
.
.
.
.
A
p1
A
p2
. . . A
pq
_
_
_
_
_
m
1
m
2
.
.
.
m
p
r
1
r
2
. . . r
q
B =
_
_
_
_
_
B
11
B
12
. . . B
1t
B
21
B
22
. . . B
2t
.
.
.
.
.
.
.
.
.
B
q1
B
q2
. . . B
qt
_
_
_
_
_
r
1
r
2
.
.
.
r
q
n
1
n
2
. . . n
t
(donde m
1
+m
2
+ +m
p
= m, r
1
+r
2
+ +r
q
= r y n
1
+n
2
+ +n
t
= n),
entonces la matriz producto C = AB admite una descomposicion por bloques
de la forma
C =
_
_
_
_
_
C
11
C
12
. . . C
1t
C
21
C
22
. . . C
2t
.
.
.
.
.
.
.
.
.
C
p1
C
p2
. . . C
pt
_
_
_
_
_
m
1
m
2
.
.
.
m
p
n
1
n
2
. . . n
t
que verica, para I = 1, 2, . . . , p y J = 1, 2, . . . , t, que
C
IJ
= A
I1
B
1J
+ A
I2
B
2J
+ + A
Iq
B
qJ
.
Diremos en ese caso que el producto C = AB se ha efectuado por bloques.
Un caso particular de lo anterior es el producto por bloques de una matriz
por un vector. Si
A =
_
_
_
_
_
A
11
A
12
. . . A
1q
A
21
A
22
. . . A
2q
.
.
.
.
.
.
.
.
.
A
p1
A
p2
. . . A
pq
_
_
_
_
_
m
1
m
2
.
.
.
m
p
n
1
n
2
. . . n
q
3.5. MATRICES POR BLOQUES 41
es una descomposicion por bloques de la matriz A /
mn
(K) y
v =
_
_
_
_
_
v
1
v
2
.
.
.
v
q
_
_
_
_
_
n
1
n
2
.
.
.
n
q
es una descomposicion por bloques del vector v K
n
(observese que aqu
v
1
, v
2
, . . . , v
q
son matrices columna de tama nos n
1
1, n
2
2, . . . , n
q
1,
respectivamente), entonces el producto
w = Av /
m1
(K) = K
m
admite una descomposicion por bloques de la forma
w =
_
_
_
_
_
w
1
w
2
.
.
.
w
p
_
_
_
_
_
m
1
m
2
.
.
.
m
p
tal que, para I = 1, 2, . . . , p, es
w
I
= A
I1
v
1
+ A
I2
v
2
+ + A
Iq
v
q
.
Diremos en ese caso que el producto de la matriz A por el vector v se ha
efectuado por bloques.
Como un primer ejemplo de aplicacion de la teora de matrices por blo-
ques, demostramos el siguiente resultado acerca de matrices simetricas denidas
positivas, que sera usado en la seccion 6.5.
Observacion 3.5.1 Si A /
nn
(C) es hermitiana (o A /
nn
(R) es
simetrica) y denida positiva, entonces la n submatrices principales de A son
denidas positivas. En efecto, pongamos A = (
ij
). Si
A
k
=
_
_
_
_
_

11

12
. . .
1k

21

22
. . .
2k
.
.
.
.
.
.
.
.
.

k1

k2
. . .
kk
_
_
_
_
_
/
kk
(C),
para k = 1, 2, . . . , n, y si x =
_
_
_
_
_

2
.
.
.

k
_
_
_
_
_
C
k
, x ,= 0, entonces, poniendo
42 CAP

ITULO 3. MATRICES Y DETERMINANTES


x =
_
x
0
_
C
n
y efectuando producto por bloques resulta
x

A x =
_
x

0
_
_
A
k


__
x
0
_
= x

A
k
x,
y como x

A x > 0 por ser A denida positiva, se concluye que x

A
k
x > 0.
Ejemplo:
Sea
A =
_
A
1
A
2
A
3
A
4
_
/
2n2n
(R)
una matriz cuadrada de tama no 2n descompuesta en cuatro bloques A
1
, A
2
,
A
3
, A
4
/
nn
(R). Se trata de encontrar una matriz inversible
P =
_
P
1
P
2
P
3
P
4
_
/
2n2n
(R)
con P
1
, P
2
, P
3
, P
4
/
nn
(R), vericando que el producto PA intercambie
la primera y la segunda la de bloques de la matriz A, es decir, tal que
PA =
_
A
3
A
4
A
1
A
2
_
.
Efectuando el producto PA por bloques e igualandolo a
_
A
3
A
4
A
1
A
2
_
llegamos a las ecuaciones
P
1
A
1
+ P
2
A
3
= A
3
P
1
A
2
+ P
2
A
4
= A
4
P
3
A
1
+ P
4
A
3
= A
1
P
3
A
2
+ P
4
A
4
= A
2
que nos dan como solucion P
1
= 0, P
2
= I, P
3
= I y P
4
= 0. Por tanto, la
matriz
P =
_
0 I
I 0
_
verica lo pedido. Para ver que P es inversible podemos tambien utilizar
producto por bloques. Sea
Q =
_
Q
1
Q
2
Q
3
Q
4
_
/
2n2n
(R),
3.6. RANGO 43
con Q
1
, Q
2
, Q
3
, Q
4
/
nn
(R). La igualdad PQ = I escrita por bloques,
_
0 I
I 0
__
Q
1
Q
2
Q
3
Q
4
_
=
_
I 0
0 I
_
,
nos da directamente
Q
3
= I , Q
4
= 0 , Q
1
= 0 , Q
2
= I,
de tal modo que
Q =
_
0 I
I 0
_
verica que PQ = I. Es decir, Q = P
1
y P es inversible. Notese que en
este ejemplo es P
1
= P.
Ejercicio: En las condiciones del ejemplo anterior hallense:
1. Una matriz inversible P tal que PA multiplique por la izquierda la
primera la de bloques de A por una matriz inversible X /
nn
(R).
2. Una matriz inversible P tal que PA le sume a la segunda la de bloques
de A la primera la de bloques multiplicada por la izquierda por una
matriz X /
nn
(R).
3.6 Rango
Denicion 3.6.1 Se llama rango de un sistema de vectores S en un K-
espacio vectorial V al mayor n umero de vectores linealmente independientes
que se pueden obtener en S; equivalentemente
rango(S) = dim(S)).
Sea A /
mn
(K).
Denicion 3.6.2 Si se considera cada columna de A como un vector de K
m
,
se llama rango de A al rango del sistema de n vectores de K
m
que constituyen
las columnas de A.
Observacion 3.6.1 Denotemos por F
1
, F
2
, . . . , F
m
a las m las de A. El
rango de A coincide con el rango del sistema de m vectores de K
n
dado por
F
t
1
, F
t
2
, . . . , F
t
m
.
Observacion 3.6.2 Se verica que rango(A) = 0 A = 0.
44 CAP

ITULO 3. MATRICES Y DETERMINANTES


Proposicion 3.6.1 Una matriz cuadrada A /
nn
(K) tiene rango uno si
y s olo si existen x, y K
n
, x ,= 0, y ,= 0, tales que A = xy
t
.
Demostracion:
Si rango(A) = 1, todas las columnas de A son combinacion lineal,
es decir, m ultiplos, no todos nulos, de un vector no nulo x K
n
. As, existen
escalares
1
,
2
, . . . ,
n
K (no todos nulos pues sino A = 0) tales que
1
x,

2
x, . . . ,
n
x son las columnas de A, hecho que denotaremos por
A = (
1
x[
2
x[ . . . [
n
x).
Si ponemos
x =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
K
n
y tomamos
y =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
K
n
se tiene que
xy
t
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
_

1

2
. . .
n
_
=
=
_
_
_
_
_

1

1

2
. . .
1

1

2

2
. . .
2

n
.
.
.
.
.
.
.
.
.

1

n

2
. . .
n

n
_
_
_
_
_
= (
1
x[
2
x[ . . . [
n
x) = A.
Si ponemos
y =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
K
n
entonces
A = xy
t
= (
1
x[
2
x[ . . . [
n
x),
3.6. RANGO 45
y como x ,= 0 e y ,= 0, se tiene que rango(A) = 1.

Observacion 3.6.3 rango(A) = rango(A


t
) = rango(A

).
Proposicion 3.6.2 Sean P /
mm
(K) y Q /
nn
(K) inversibles. En-
tonces
rango(PA) = rango(A) = rango(AQ).
Demostracion:
Supongamos que rango(A) = r. Denotemos por C
1
, C
2
, . . . , C
n
K
m
a
las columnas de A. Supongamos, por comodidad, que C
1
, C
2
, . . . , C
r
es
libre (y por tanto, para todo j r + 1, r + 2, . . . , n el sistema de vectores
C
1
, C
2
, . . . , C
r
, C
j
es ligado). Las columnas de la matriz producto PA son
PC
1
, PC
2
, . . . , PC
n
.
Se tiene entonces que PC
1
, PC
2
, . . . , PC
r
es libre pues

1
PC
1
+
2
PC
2
+ +
r
PC
r
= 0
P(
1
C
1
+
2
C
2
+ +
r
C
r
) = 0
P
1
P(
1
C
1
+
2
C
2
+ +
r
C
r
) = 0

1
C
1
+
2
C
2
+ +
r
C
r
= 0

1
=
2
= =
r
= 0.
Ademas, para j r + 1, r + 2, . . . , n resulta que el sistema de vectores
PC
1
, PC
2
, . . . , PC
r
, PC
j
es ligado ya que si C
j
=
1
C
1
+
2
C
2
+ +
r
C
r
,
entonces
PC
j
= P(
1
C
1
+
2
C
2
+ +
r
C
r
) =
=
1
PC
1
+
2
PC
2
+ +
r
PC
r
.
As, rango(PA) = r.
Por otra parte, como Q
t
tambien es inversible,
rango(AQ) = rango(AQ)
t
= rango(Q
t
A
t
) = rango(A
t
) = rango(A).

46 CAP

ITULO 3. MATRICES Y DETERMINANTES


3.7 Determinantes
El determinante de una matriz cuadrada A es un escalar, que se denota por
det(A) o por [A[, asociado a la matriz A como se indica a continuacion.
Si A = (
11
) /
11
(K) es una matriz cuadrada de tama no 1, entonces
det(A) =
11
.
Si A =
_

11

12

21

22
_
/
22
(K) es una matriz cuadrada de tama no 2,
entonces det(A) =
11

22

12

21
.
Si A =
_
_

11

12

13

21

22

23

31

32

33
_
_
/
33
(K) es una matriz cuadrada de
tama no 3, entonces
det(A) =
11

22

33
+
12

23

31
+
13

21

32

13

22

31

11

23

32

12

21

33
.
Este ultimo resultado se conoce como regla de Sarrus.
Hasta ahora, hemos denido el determinante para matrices cuadradas de
tama no 1, 2 o 3. Para denir el determinante para matrices cuadradas de
cualquier tama no introducimos otros dos conceptos.
Sea A = (
ij
) /
nn
(K).
Denicion 3.7.1 El determinante de la matriz cuadrada de tama no n 1
obtenida de A omitiendo su i-esima la y su j-esima columna se llama menor
del coeciente
ij
y se denota por M
ij
.
Denicion 3.7.2 El escalar A
ij
= (1)
i+j
M
ij
se llama cofactor del coe-
ciente
ij
de A.
Ahora estamos ya en condiciones de denir el determinante para matrices
cuadradas de cualquier tama no.
Denicion 3.7.3 Se dene el determinante de A como
det(A) =
11
A
11
+
12
A
12
+ +
1n
A
1n
.
Observacion 3.7.1 La denicion que hemos dado de determinante se conoce
como desarrollo del determinante por la primera la. Se puede probar que
el mismo resultado se obtiene si hacemos el desarrollo del determinante por
cualquier otra la o por cualquier columna, es decir, si p = 1, 2, . . . , n indica
3.7. DETERMINANTES 47
una la cualquiera de A = (
ij
) /
nn
(K) y q = 1, 2, . . . , n indica una
columna, se verica que
det(A) =
p1
A
p1
+
p2
A
p2
+ +
pn
A
pn
=
=
1q
A
1q
+
2q
A
2q
+ +
nq
A
nq
.
Ejemplo:
Sea
A =
_
_
_
_
0 1 1 2
1 1 0 2
1 1 0 1
2 2 3 0
_
_
_
_
/
44
(R).
Desarrollando el determinante por la tercera columna obtenemos
[A[ = (1)
1+3
(1)

1 1 2
1 1 1
2 2 0

+ (1)
4+3
3

0 1 2
1 1 2
1 1 1

=
= 8 3 3 = 17.
Observacion 3.7.2 det(A
t
) = det(A) y det(A

) = det(A).
Propiedades 3.7.1 Se verica que
1. Si todos los elementos de una la o una columna de la matriz son cero,
su determinante vale cero.
2. Si multiplicamos por un escalar todos los coecientes de una la o una
columna de la matriz, el valor del determinante queda multiplicado por
el escalar.
3. Si K, entonces
det(A) =
n
det(A).
4. Si la matriz tiene dos las o dos columnas iguales, su determinante es
cero.
5. Si sumamos a una la un m ultiplo de otra la o si sumamos a una
columna un m ultiplo de otra columna, el valor del determinante no
vara.
48 CAP

ITULO 3. MATRICES Y DETERMINANTES


6. Si intercambiamos entre s dos las o si intercambiamos entre s dos
columnas de la matriz, el determinante cambia de signo.
7. Si A, B /
nn
(K), entonces det(AB) = det(A)det(B).
Ejemplos:
1) Sea
A =
_
_
_
_
_
_
_
+
1

2

3
. . .
n

1
+
2

3
. . .
n

1

2
+
3
. . .
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1

2

3
. . . +
n
_
_
_
_
_
_
_
/
nn
(K).
Sumando a la primera columna el resto de columnas obtenemos que
[A[ =

+
1
+
2
+ +
n

2

3
. . .
n
+
1
+
2
+ +
n
+
2

3
. . .
n
+
1
+
2
+ +
n

2
+
3
. . .
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
+
1
+
2
+ +
n

2

3
. . . +
n

Si ahora le restamos la primera la a todas las demas resulta que


[A[ =

+
1
+
2
+ +
n

2

3
. . .
n
0 0 . . . 0
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . .

=
= ( +
1
+
2
+ +
n
)
n1
.
2) Sea
A =
_
_
_
_
_
_
_
_
_
_
1 +
1 1 +
1 1 +
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 +
1 1 +
_
_
_
_
_
_
_
_
_
_
/
nn
(K).
3.7. DETERMINANTES 49
Llamando D
n
al determinante de A y desarrollando D
n
por la primera
la resulta que
D
n
= (1)
1+1
(1 +)

1 +
1 1 +
1 1 +
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 +
1 1 +

(n1)(n1)
+(1)
1+2
()

1
1 +
1 1 +
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 +
1 1 +

(n1)(n1)
=
= (1 +)D
n1
+

1
1 +
1 1 +
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 +
1 1 +

(n1)(n1)
Si ahora desarrollamos el segundo determinante por la primera columna
queda
D
n
= (1 +)D
n1
+
(1)
1+1
(1)

1 +
1 1 +
1 1 +
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 +
1 1 +

(n2)(n2)
=
50 CAP

ITULO 3. MATRICES Y DETERMINANTES


= (1 +)D
n1
D
n2
.
Aqu, los subndices de la parte inferior derecha de los determinantes
indican el tama no de las matrices.
La matriz A se dice una matriz tridiagonal y en el calculo de determi-
nantes de este tipo de matrices, la formula
D
n
= (1 +)D
n1
D
n2
se llama formula de recurrencia.
Se tiene ademas que
D
1
= det(1 +) = 1 +,
D
2
=

1 +
1 1 +

= (1 +)
2
= 1 + +
2
,
D
3
= (1 +)D
2
D
1
= (1 +)(1 + +
2
) (1 + ) =
1 + +
2
+
3
.
Probemos, por induccion, que
D
n
= 1 + +
2
+ +
n
.
El resultado es cierto para n = 1 (y para n = 2 y n = 3). Supongamos
que
D
n1
= 1 + +
2
+ +
n1
,
D
n2
= 1 + +
2
+ +
n2
.
Entonces
D
n
= (1 +)D
n1
D
n2
=
= (1 +)(1 + +
2
+ +
n1
) (1 + +
2
+ +
n2
) =
= 1 + +
2
+ +
n1
+ +
2
+
3
+ +
n1
+
n


2

n1
=
= 1 + +
2
+ +
n
,
lo que demuestra el resultado.
3.8. MATRICES ELEMENTALES 51
3.8 Matrices elementales
Denicion 3.8.1 Se llaman operaciones elementales en las las (columnas)
de una matriz a cualquiera de las operaciones siguientes:
intercambiar dos las (columnas)
multiplicar una la (columna) por un escalar no nulo
sumar a una la (columna) un m ultiplo de otra la (columna)
Denicion 3.8.2 Se llaman matrices elementales a las resultantes de efec-
tuar una operaci on elemental en las las de la matriz identidad, y son, por
tanto, de tres tipos:
V
pq
/
nn
(K) consiste en intercambiar las las p y q de la matriz
identidad,
V
pq
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
0 . . . . . . . . . 1
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
1 . . . . . . . . . 0
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
p
q
V
p
() /
nn
(K) consiste en multiplicar la la p de la matriz identi-
dad por el escalar K, ,= 0,
V
p
() =
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1

1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
p
52 CAP

ITULO 3. MATRICES Y DETERMINANTES


V
pq
() /
nn
(K) consiste en a nadir veces la la q de la matriz
identidad a la la p,
V
pq
() =
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1 . . .
.
.
.
.
.
.
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
p
q
Observacion 3.8.1 Cada operacion elemental en las las (columnas) de una
matriz se realiza multiplicando la matriz por la izquierda (derecha) por la
correspondiente matriz elemental.
Observacion 3.8.2 De la observacion 3.8.1 se deduce que los tres tipos de
matrices elementales son inversibles, siendo
V
1
pq
= V
pq
, V
p
()
1
= V
p
(
1

), V
pq
()
1
= V
pq
().
Por tanto, de la proposicion 3.6.2 se deduce que efectuar operaciones
elementales en las las o en las columnas de una matriz no altera el rango
de la matriz.
Observacion 3.8.3 Sea A /
mn
(K) una matriz de rango r. Haciendo
operaciones elementales en las las y en las columnas de A se puede llegar
siempre a conseguir una matriz de la forma
_
I
r
0
0 0
_
/
mn
(K).
Equivalentemente, existen P /
mm
(K) y Q /
nn
(K) inversibles
tales que
PAQ =
_
I
r
0
0 0
_
/
mn
(K).
En la practica, se parte de un esquema de la forma
I
n
A I
m
3.8. MATRICES ELEMENTALES 53
y se realizan operaciones elementales en las las y las columnas de este es-
quema hasta llegar a otro esquema de la forma
Q
_
I
r
0
0 0
_
P
Ejemplo:
De ahora en adelante, cuando deseemos indicar las operaciones elementa-
les que se realizan en un determinado proceso, utilizaremos como notacion F
i
y C
j
para referirnos, respectivamente, a las las y las columnas de la matriz.
Sea
A =
_
_
1 1 2 3
0 2 2 1
1 1 4 4
_
_
/
34
(R)
El proceso descrito en la observacion 3.8.3 se realiza como sigue:
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
1 1 2 3
0 2 2 1
1 1 4 4
1 0 0
0 1 0
0 0 1
F
3
F
1

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
1 1 2 3
0 2 2 1
0 2 2 1
1 0 0
0 1 0
1 0 1
F
3
F
2

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
1 1 2 3
0 2 2 1
0 0 0 0
1 0 0
0 1 0
1 1 1
C
4
3C
1

1 0 0 3
0 1 0 0
0 0 1 0
0 0 0 1
1 1 2 0
0 2 2 1
0 0 0 0
1 0 0
0 1 0
1 1 1
C
3
2C
1

1 0 2 3
0 1 0 0
0 0 1 0
0 0 0 1
1 1 0 0
0 2 2 1
0 0 0 0
1 0 0
0 1 0
1 1 1
C
2
+C
1

1 1 2 3
0 1 0 0
0 0 1 0
0 0 0 1
1 0 0 0
0 2 2 1
0 0 0 0
1 0 0
0 1 0
1 1 1
C
4

1
2
C
2

1 1 2 7/2
0 1 0 1/2
0 0 1 0
0 0 0 1
1 0 0 0
0 2 2 0
0 0 0 0
1 0 0
0 1 0
1 1 1
C
3
C
2

1 1 3 7/2
0 1 1 1/2
0 0 1 0
0 0 0 1
1 0 0 0
0 2 0 0
0 0 0 0
1 0 0
0 1 0
1 1 1
1
2
C
2

54 CAP

ITULO 3. MATRICES Y DETERMINANTES


1 1/2 3 7/2
0 1/2 1 1/2
0 0 1 0
0 0 0 1
1 0 0 0
0 1 0 0
0 0 0 0
1 0 0
0 1 0
1 1 1
As, rango(A) = 2 y las matrices
P =
_
_
1 0 0
0 1 0
1 1 1
_
_
Q =
_
_
_
_
1 1/2 3 7/2
0 1/2 1 1/2
0 0 1 0
0 0 0 1
_
_
_
_
son inversibles y verican que
PAQ =
_
_
1 0 0 0
0 1 0 0
0 0 0 0
_
_
.
Denicion 3.8.3 Sean A, B /
mn
(K). Se dice que A y B son equi-
valentes si existen P /
mm
(K) y Q /
nn
(K) inversibles tales que
B = PAQ.
Notemos que, en el ejemplo anterior, como P y Q son inversibles, se tiene
que A y
_
_
1 0 0 0
0 1 0 0
0 0 0 0
_
_
son equivalentes. De hecho, se tiene:
Proposicion 3.8.1 Sean A, B /
mn
(K). Entonces rango(A) = rango(B)
si y s olo si A y B son equivalentes.
Teorema 3.8.1 Una matriz cuadrada A /
nn
(K) es inversible si y s olo
si rango(A) = n.
Demostracion:
Si existe A
1
, entonces A
1
A = I, o bien, A
1
AI = I con A
1
e I
inversibles; luego, A e I son equivalentes y
rango(A) = rango(I) = n.
Si rango(A) = n, entonces A es equivalente a I y existen matri-
ces inversibles P, Q /
nn
(K) tales que PAQ = I. Multiplicando esta
igualdad por la izquierda por P
1
y por la derecha por Q
1
llegamos a que
A = P
1
Q
1
= (QP)
1
y A
1
= QP.
3.9. M

ETODO DE GAUSS 55
3.9 Metodo de Gauss
Dada una matriz A /
nn
(K), se trata de encontrar una matriz inversible
M /
nn
(K) tal que MA sea triangular superior. Para ello, se realizan
operaciones elementales en las las de la matriz A, tal y como se indica a
continuacion.
El metodo de Gauss se realiza en n 1 etapas. En la etapa k-esima se
hacen ceros por debajo de la diagonal principal en la columna k-esima.
La explicacion de la etapa k-esima es la siguiente: la matriz de entrada
en la etapa k-esima es de la forma
_
_
_
_
_
_
_
_
_
_
_

11
. . .
1 k1

1k
. . .
1n
.
.
.
.
.
.
.
.
.
.
.
.

k1 k1

k1 k
. . .
k1 n

kk
. . .
kn

k+1 k
. . .
k+1 n
.
.
.
.
.
.

nk
. . .
nn
_
_
_
_
_
_
_
_
_
_
_
Paso I: Se comprueba si el elemento
kk
es distinto de cero. Si es distinto
de cero, se pasa al paso II; si
kk
= 0, se debe intercambiar la k-esima la
con otra la j-esima, con j > k, que verique que
jk
,= 0. Si no existiera
una la en tales condiciones, entonces ya hay ceros por debajo de la diagonal
principal en la columna k-esima y se pasara directamente a la etapa k + 1.
Paso II: La matriz de entrada en este paso II, si ha lugar, despues de
haber efectuado el paso I, es de la forma
_
_
_
_
_
_
_
_
_
_
_

11
. . .
1 k1

1k
. . .
1n
.
.
.
.
.
.
.
.
.
.
.
.

k1 k1

k1 k
. . .
k1 n

kk
. . .
kn

k+1 k
. . .
k+1 n
.
.
.
.
.
.

nk
. . .
nn
_
_
_
_
_
_
_
_
_
_
_
con
kk
,= 0. Para hacer ceros en la columna k-esima por debajo de la
diagonal principal, para cada i = k + 1, k + 2, . . . , n, se le resta a la i-esima
la la k-esima la multiplicada por

ik

kk
.
Ejemplo:
56 CAP

ITULO 3. MATRICES Y DETERMINANTES


El metodo de Gauss en la matriz
A =
_
_
2 1 1
2 1 3
1 3 1
_
_
se realiza como sigue
_
_
2 1 1
2 1 3
1 3 1
_
_
F
2
F
1
, F
3
+
1
2
F
2

_
_
2 1 1
0 0 2
0
7
2
3
2
_
_
intercambio F
2
y F
3

_
_
2 1 1
0
7
2
3
2
0 0 2
_
_
La interpretacion matricial de la etapa k-esima del metodo de Gauss es
la siguiente: supongamos que

A
k
= (
ij
) /
nn
(K) es la matriz de entrada
en la etapa k-esima; el paso I consiste en multiplicar

A
k
por la izquierda por
P
k
=
_

_
I si
kk
,= 0
V
kj
si
kk
= 0 y se quieren intercambiar las las k y j,
con j > k y
jk
,= 0
La matriz de entrada en el paso II es ahora
P
k

A
k
= (
ij
) /
nn
(K)
Cada cero construido en la columna k-esima por debajo de la diagonal
principal se obtiene multiplicando P
k

A
k
por la izquierda por
V
ik
(

ik

kk
) i = k + 1, k + 2, . . . , n.
As, el paso II consiste en multiplicar P
k

A
k
por la izquierda por la matriz
E
k
= V
nk
(

nk

kk
) . . . V
k+2 k
(

k+2 k

kk
) V
k+1 k
(

k+1 k

kk
) =
=
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1

k+1 k

kk
1

k+2 k

kk
1
.
.
.
.
.
.

nk

kk
1
_
_
_
_
_
_
_
_
_
_
_
_
3.9. M

ETODO DE GAUSS 57
Matricialmente, la etapa k-esima completa consiste en efectuar el pro-
ducto
E
k
P
k

A
k
.
De esta manera, tras las n 1 etapas, se obtiene que
U = E
n1
P
n1
. . . E
2
P
2
E
1
P
1
A
es triangular superior, siendo
M = E
n1
P
n1
. . . E
2
P
2
E
1
P
1
inversible por ser producto de matrices elementales, que son inversibles.
Observacion 3.9.1 Sea A /
nn
(K). Sean U /
nn
(K) triangular
superior y M = E
n1
P
n1
. . . E
2
P
2
E
1
P
1
/
nn
(K) las matrices tales que
U = MA obtenidas al aplicar el metodo de Gauss a la matriz A. Se tiene
entonces que
det(E
k
) = 1
det(P
k
) =
_
_
_
1 si P
k
= I
1 si P
k
= V
kj
con lo cual, det(M) = (1)
m
, siendo m el n umero de veces que intercambia-
mos las al aplicar el metodo de Gauss, y
det(U) = (1)
m
det(A).
Teorema 3.9.1 Sea A /
nn
(K). Entonces
rango(A) = n det(A) ,= 0.
Demostracion:
Sean U = (
ij
) y M tales que U = MA las matrices obtenidas al
aplicar el metodo de Gauss a la matriz A. Como M es inversible,
n = rango(A) = rango(MA) = rango(U),
y como U es triangular superior, esto supone que
11
,
22
, . . . ,
nn
son no
nulos. Por tanto,
det(U) =
11

22
. . .
nn
,= 0
y det(A) = det(U) es no nulo.
Supongamos que rango(A) < n. Entonces una columna de A es
combinacion lineal de las demas y, aplicando las propiedades de los determi-
nantes, se sigue que det(A) = 0.

58 CAP

ITULO 3. MATRICES Y DETERMINANTES


Corolario 3.9.1 Sea A /
nn
(K). Entonces A es inversible si y s olo si
det(A) ,= 0.
Corolario 3.9.2 El rango de una matriz A /
mn
(K) es igual al tama no
de la mayor submatriz cuadrada e inversible que se puede obtener de A.
Observacion 3.9.2 Sea A /
nn
(K) inversible. Puesto que A
1
A = I y
det(I) = 1, se sigue que
det(A
1
) =
1
det(A)
.
Observacion 3.9.3 Sea A /
nn
(K) inversible. Para calcular la inversa
de A se hacen operaciones elementales en las las de A hasta obtener la
matriz identidad; haciendo las mismas operaciones en las las de la matriz
identidad obtenemos A
1
. En la practica, dichas operaciones elementales se
realizan simultaneamente en las las de ambas matrices A e I, pasandose de
un esquema de la forma (A[I) a un esquema de la forma (I[A
1
).
Ejemplo:
Sea
A =
_
_
1 0 1
1 1 1
2 0 1
_
_
/
33
(R),
que es inversible pues det(A) = 1 ,= 0. Para calcular A
1
procedemos como
sigue
(A[I) =
_
_
1 0 1 1 0 0
1 1 1 0 1 0
2 0 1 0 0 1
_
_
F
2
F
1
; F
3
2F
1

_
_
1 0 1 1 0 0
0 1 0 1 1 0
0 0 1 2 0 1
_
_
F
1
+F
3

_
_
1 0 0 1 0 1
0 1 0 1 1 0
0 0 1 2 0 1
_
_
F
2

_
_
1 0 0 1 0 1
0 1 0 1 1 0
0 0 1 2 0 1
_
_
= (I[A
1
),
y as,
A
1
=
_
_
1 0 1
1 1 0
2 0 1
_
_
/
33
(R).
3.10. N

UCLEO E IMAGEN 59
3.10 N ucleo e imagen
Sea A = (
ij
) /
mn
(K). La matriz A dene una aplicacion de K
n
en K
m
,
que seguiremos denotando por la letra A y que esta dada por
A: x K
n
Ax K
m
.
Si x =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
K
n
, entonces Ax es el vector
Ax =
_
_
_
_
_

11

1
+
12

2
+ +
1n

21

1
+
22

2
+ +
2n

n
.
.
.

m1

1
+
m2

2
+ +
mn

n
_
_
_
_
_
K
m
.
Observacion 3.10.1 La aplicacion A: x K
n
Ax K
m
es una apli-
cacion lineal, pues verica que
A(x + y) = Ax + Ay y A(x) = Ax
para x, y K
n
y K.
De acuerdo con la denicion 2.8.2 se tiene:
Denicion 3.10.1 Se denen el n ucleo y la imagen de la matriz A como
ker(A) = x K
n
; Ax = 0 K
n
,
Im(A) = Ax K
m
; x K
n
K
m
,
respectivamente.
Proposicion 3.10.1 ker(A) es un subespacio de K
n
e Im(A) es un subespa-
cio de K
m
.
Demostracion:
Es consecuencia de la proposicion 2.8.1
Teorema 3.10.1 Supongamos que B
ker(A)
= a
1
, a
2
, . . . , a
r
es una base de
ker(A). Por el teorema de compleccion (teorema 2.7.2), existe una base de
K
n
de la forma
B
K
n = a
1
, a
2
, . . . , a
r
, v
r+1
, v
r+2
, . . . , v
n

Entonces B
Im(A)
= Av
r+1
, Av
r+2
, . . . , Av
n
es base de Im(A).
60 CAP

ITULO 3. MATRICES Y DETERMINANTES


Demostracion:
Veamos en primer lugar que B
Im(A)
) = Im(A). Sea Ax Im(A), con
x K
n
. Expresando x en coordenadas en la base B
K
n ponemos
x =
1
a
1
+
2
a
2
+ +
r
a
r
+
r+1
v
r+1
+
r+2
v
r+2
+ +
n
v
n
.
Entonces
Ax =
1
Aa
1
+
2
Aa
2
+ +
r
Aa
r
+
r+1
Av
r+1
+
r+2
Av
r+2
+ +
n
Av
n
.
Ahora bien, teniendo en cuenta que a
1
, a
2
, . . . , a
r
ker(A) se sigue que
Aa
1
= Aa
2
= = Aa
r
= 0, y por ello
Ax =
r+1
Av
r+1
+
r+2
Av
r+2
+ +
n
Av
n
B
Im(A)
).
As, B
Im(A)
) = Im(A).
Veamos ahora que B
Im(A)
es libre. Pongamos

r+1
Av
r+1
+
r+2
Av
r+2
+ +
n
Av
n
= 0,
con
r+1
,
r+2
, . . . ,
n
K. Entonces
A(
r+1
v
r+1
+
r+2
v
r+2
+ +
n
v
n
) = 0,
lo que signica que
r+1
v
r+1
+
r+2
v
r+2
+ +
n
v
n
ker(A). Ahora bien,
puesto que B
ker(A)
es base de ker(A), podemos poner

r+1
v
r+1
+
r+2
v
r+2
+ +
n
v
n
=
1
a
1
+
2
a
2
+ +
r
a
r
,
con
1
,
2
, . . . ,
r
K. En consecuencia,

1
a
1
+
2
a
2
+ +
r
a
r

r+1
v
r+1

r+2
v
r+2

n
v
n
= 0
y como B
K
n es base de K
n
y por tanto es libre, todos los escalares que aparecen
en la expresion anterior son nulos. En particular

r+1
=
r+2
= =
n
= 0
y B
Im(A)
es libre.

Corolario 3.10.1 dim(ker(A)) + dim(Im(A)) = dim(K


n
) = n.
3.10. N

UCLEO E IMAGEN 61
Observacion 3.10.2 Denotemos por
e
j
=
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
j K
n
el j-esimo vector de la base canonica de K
n
, para j = 1, 2, . . . , n. Entonces
se verica que Ae
j
es la j-esima columna de A. Ademas, si Ax Im(A) con
x =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
=
1
e
1
+
2
e
2
+ +
n
e
n
K
n
(aqu,
1
,
2
, . . . ,
n
K son las coordenadas de x en la base canonica de K
n
),
entonces
Ax =
1
Ae
1
+
2
Ae
2
+ +
n
Ae
n
Ae
1
, Ae
2
, . . . , Ae
n
).
De este modo, las columnas de A son un sistema de generadores de Im(A)
y se tiene:
Proposicion 3.10.2 dim(Im(A)) = rango(A).
Corolario 3.10.2 dim(ker(A)) + rango(A) = dim(K
n
) = n.
Proposicion 3.10.3 La aplicaci on A es inyectiva si y s olo si ker(A) = 0.
Demostracion:
Se sigue de la proposicion 2.8.2
Corolario 3.10.3 Son equivalentes:
i) La aplicaci on A es inyectiva.
ii) ker(A) = 0.
iii) dim(ker(A)) = 0.
62 CAP

ITULO 3. MATRICES Y DETERMINANTES


iv) rango(A) = n.
v) Ax = 0 x = 0, x K
n
.
Proposicion 3.10.4 Son equivalentes:
i) La aplicaci on A es sobreyectiva.
ii) Im(A) = K
m
.
iii) rango(A) = m.
Ejemplo:
Sea
A =
_
_
_
_
1 1 1
2 2 2
0 1 0
1 1 1
_
_
_
_
/
43
(R).
La aplicacion que dene la matriz A es la aplicacion
x =
_
_

3
_
_
R
3
Ax =
_
_
_
_

2
+
3
2
1
+ 2
2
+ 2
3

1
+
2
+
3
_
_
_
_
R
4
.
Vamos a calcular una base y la dimension del n ucleo y de la imagen de A.
Puesto que rango(A) = 2 (la primera y la ultima columna de A son iguales
y las dos primeras forman un sistema libre), entonces
dim(Im(A)) = 2
y, como Im(A) esta engendrado por el sistema de vectores que forman las
columnas de A, por lo dicho antes una base de Im(A) es
B
Im(A)
=
_
_
_
_
1
2
0
1
_
_
_
_
,
_
_
_
_
1
2
1
1
_
_
_
_
.
Como dim(ker(A)) + dim(Im(A)) = dim(R
3
) = 3, resulta que
dim(ker(A)) = 1.
3.10. N

UCLEO E IMAGEN 63
Ademas,
ker(A) =
_
_

3
_
_
R
3
;

1

2
+
3
= 0
2
1
+ 2
2
+ 2
3
= 0

2
= 0

1
+
2
+
3
= 0

y una base de ker(A) es


B
ker(A)
=
_
_
1
0
1
_
_
.
Finalmente, hagamos una particularizacion para el caso de matrices cua-
dradas.
Sea A /
nn
(K). La aplicacion que dene A es ahora una aplicacion
de K
n
en K
n
. De la formula dim(ker(A)) +dim(Im(A)) = dim(K
n
) = n y de
algunas consideraciones anteriores se sigue que:
Proposicion 3.10.5 Son equivalentes:
i) La aplicaci on A es biyectiva.
ii) La aplicaci on A es inyectiva.
iii) La aplicaci on A es sobreyectiva.
iv) ker(A) = 0.
v) Im(A) = K
n
.
vi) rango(A) = n.
vii) det(A) ,= 0.
viii) A es inversible.
64 CAP

ITULO 3. MATRICES Y DETERMINANTES


Captulo 4
Sistemas de ecuaciones lineales
4.1 Sistema de ecuaciones lineales
Denicion 4.1.1 Un sistema de ecuaciones lineales (abreviadamente, un
SEL) es un conjunto de m ecuaciones con n inc ognitas de la forma

11

1
+
12

2
+ . . . +
1n

n
=
1

21

1
+
22

2
+ . . . +
2n

n
=
2
. . . . . . . . . . . . . . . . . . . . . . . . . . .

m1

1
+
m2

2
+ . . . +
mn

n
=
m
donde los escalares
ij
K y
i
K, i = 1, 2, . . . , m, j = 1, 2, . . . , n, se
llaman coecientes y terminos independientes del SEL, respectivamente, y
donde los valores
1
,
2
, . . . ,
n
, tambien escalares, se llaman inc ognitas del
SEL.
Denicion 4.1.2 Una solucion de un SEL de m ecuaciones con n inc ognitas

1
,
2
, . . . ,
n
es cualquier conjunto de escalares
1
,
2
, . . . ,
n
K que veri-
quen las m ecuaciones del SEL.
Observacion 4.1.1 El SEL de m ecuaciones con n incognitas

11

1
+
12

2
+ . . . +
1n

n
=
1

21

1
+
22

2
+ . . . +
2n

n
=
2
. . . . . . . . . . . . . . . . . . . . . . . . . . .

m1

1
+
m2

2
+ . . . +
mn

n
=
m
se puede representar de forma matricial mediante una expresion de la forma
Ax = b,
65
66 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


donde
A = (
ij
) =
_
_
_
_
_

11

12
. . .
1n

21

22
. . .
2n
.
.
.
.
.
.
.
.
.

m1

m2
. . .
mn
_
_
_
_
_
/
mn
(K),
x =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
K
n
, b =
_
_
_
_
_

2
.
.
.

m
_
_
_
_
_
K
m
.
Denicion 4.1.3 La matriz A de la observacion 4.1.1 se llama matriz del
SEL; el vector b se llama vector de los terminos independientes y el vector x
se llama solucion del SEL.
Denicion 4.1.4 Con las notaciones de la observacion 4.1.1, diremos que
la matriz
_
_
_
_
_

11

12
. . .
1n

1

21

22
. . .
2n

2
.
.
.
.
.
.
.
.
.
.
.
.

m1

m2
. . .
mn

m
_
_
_
_
_
/
m(n+1)
(K),
que se denotar a (A[b), es la matriz ampliada del SEL Ax = b.
4.2 Resolucion de un sistema de ecuaciones
lineales
Los SEL se clasican, atendiendo a su solucion, en sistemas incompatibles,
que son los que no tienen solucion, y sistemas compatibles, que son los que
tienen al menos una solucion. Estos ultimos se dividen en sistemas com-
patibles determinados, que son los que tienen solucion unica, y sistemas
compatibles indeterminados, que son los que tienen mas de una solucion.
Consideremos ahora el SEL
Ax = b,
con A = (
ij
) /
mn
(K), x =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
K
n
y b =
_
_
_
_
_

2
.
.
.

m
_
_
_
_
_
K
m
. Si
denotamos por C
1
, C
2
, . . . , C
n
K
m
a las columnas de A, entonces el SEL
4.2. RESOLUCI

ON DE UN SISTEMA DE ECUACIONES LINEALES 67


Ax = b se puede escribir como

1
C
1
+
2
C
2
+ +
n
C
n
= b,
de tal modo que el SEL tiene solucion (es decir, existen
1
,
2
, . . . ,
n
K
tales que
1
C
1
+
2
C
2
+ +
n
C
n
= b) si y solo si b es combinacion lineal
del sistema de vectores C
1
, C
2
, . . . , C
n
, es decir, si y solo si
b C
1
, C
2
, . . . , C
n
).
Se sigue entonces el siguiente resultado:
Teorema 4.2.1 (Teorema de Rouche-Frobenius) El SEL Ax = b es
compatible si y s olo si rango(A) = rango(A[b).
Supongamos ahora que el SEL Ax = b es compatible. Si se verica que
rango(A) = n, entonces C
1
, C
2
, . . . , C
n
es libre y, por tanto, es base del
subespacio C
1
, C
2
, . . . , C
n
). En consecuencia, b se expresa de modo unico
como combinacion lineal del sistema de vectores C
1
, C
2
, . . . , C
n
, es decir,
existen unicos
1
,
2
, . . . ,
n
K tales que

1
C
1
+
2
C
2
+ +
n
C
n
= b
y el SEL Ax = b tiene solucion unica, o sea, es compatible determinado.
En cambio, si rango(A) < n, la expresion de b como combinacion lineal
del sistema de vectores C
1
, C
2
, . . . , C
n
no es unica, y el SEL Ax = b tiene
mas de una solucion, es decir, es compatible indeterminado.
Denicion 4.2.1 Un SEL se dice homogeneo si el vector de los terminos
independientes es el vector cero. En caso contrario, el SEL se dice no ho-
mogeneo o completo.
Denicion 4.2.2 El SEL homogeneo Ax = 0 se dice sistema homogeneo
asociado al SEL Ax = b.
El conjunto de todas las soluciones del SEL Ax = b se llamara solucion
general de Ax = b mientras que una solucion concreta de Ax = b (es decir,
un vector x K
n
tal que Ax = b) se dira una solucion particular de Ax = b.
Proposicion 4.2.1 La solucion general de Ax = b es igual a una solucion
particular de Ax = b mas la solucion general del SEL homogeneo asociado
Ax = 0; la solucion general del SEL homogeneo asociado est a dada por
x K
n
; Ax = 0 = ker(A).
68 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


Denicion 4.2.3 Dos SEL de m ecuaciones y n inc ognitas se dicen equiva-
lentes si tienen la misma solucion general.
Cuando el n umero de ecuaciones de un SEL coincide con el n umero de
incognitas se tiene lo siguiente:
Teorema 4.2.2 (Teorema de la alternativa) Dado el SEL Ax = b, con
A /
nn
(K), x, b K
n
, se verica una de las dos alternativas siguientes,
mutuamente excluyentes:
i) Ax = b tiene solucion unica para cualquier b K
n
(en ese caso se tiene
que Ax = 0 x = 0).
ii) Ax = 0 tiene soluciones no nulas (en ese caso, si Ax = b tiene solucion,
esta no es unica).
Demostracion:
Existen dos alternativas para rango(A):
i) Si rango(A) = n, entonces A es inversible y
Ax = b x = A
1
b
(es decir, x = A
1
b es la solucion unica de Ax = b).
ii) Si rango(A) < n, entonces
dim(ker(A)) = n rango(A) > 0,
con lo cual, ker(A) ,= 0 y el SEL homogeneo Ax = 0 tiene soluciones
no nulas.

Para resolver un SEL Ax = b utilizaremos el metodo de Gauss, que se


basa en que realizar operaciones elementales en las las de la matriz ampliada
del SEL no altera su solucion general. Es decir, si (

A[

b) /
m(n+1)
(K),
con

A /
mn
(K) y

b K
m
, es una matriz obtenida de (A[b) mediante
operaciones elementales en sus las, entonces el SEL Ax = b y el SEL

Ax =

b
son equivalentes.
Ejemplo:
Vamos a discutir y a resolver el SEL

1
+
2
+
3
= 2

1
+
2
+
3
= 2

1
+
2
+ 2
3
= 2
4.2. RESOLUCI

ON DE UN SISTEMA DE ECUACIONES LINEALES 69


en funcion del parametro real .
La matriz ampliada del SEL es
(A[b) =
_
_
1 1 1 2
1 1 2
1 1 2 2
_
_
/
34
(R).
Si a las las segunda y tercera le restamos la primera la, obtenemos la
matriz
_
_
1 1 1 2
0 1 0 0
0 0 1 0
_
_
,
que nos da las nuevas ecuaciones

1
+
2
+
3
= 2
( 1)
2
= 0

3
= 0
Si ,= 1, resulta que el SEL de partida es compatible determinado con
solucion
_
_

3
_
_
=
_
_
2
0
0
_
_
.
Si = 1, el SEL resultante se reduce a

1
+
2
= 2

3
= 0
que es compatible indeterminado. Una solucion particular del SEL es
_
_

3
_
_
=
_
_
2
0
0
_
_
,
mientras que la solucion general del SEL homogeneo asociado es

_
_
1
1
0
_
_
).
As, la solucion general del SEL, cuando = 1, es
_
_
2
0
0
_
_
+
_
_
1
1
0
_
_
) =
_
_
2 +

0
_
_
; R.
70 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


4.3 Factorizaciones LU y de Cholesky
Teorema 4.3.1 Sea A = (
ij
) /
nn
(K) una matriz tal que sus n sub-
matrices principales
_
_
_
_
_

11

12
. . .
1k

21

22
. . .
2k
.
.
.
.
.
.
.
.
.

k1

k2
. . .
kk
_
_
_
_
_
/
kk
(K),
k = 1, 2, . . . , n, son inversibles. Entonces el metodo de Gauss se puede
aplicar a la matriz A sin necesidad de intercambiar las. En ese caso, exis-
ten una matriz L /
nn
(K) triangular inferior con unos en la diagonal
principal y una matriz U /
nn
(K) triangular superior tales que
A = LU.
Ademas, esta factorizacion, llamada factorizacion LU de la matriz A, es
unica.
Demostracion:
Sea

A
k
=
_
_
_
_
_
_
_
_
_
_
_

11
. . .
1 k1

1k
. . .
1n
.
.
.
.
.
.
.
.
.
.
.
.

k1 k1

k1 k
. . .
k1 n

kk
. . .
kn

k+1 k
. . .
k+1 n
.
.
.
.
.
.

nk
. . .
nn
_
_
_
_
_
_
_
_
_
_
_
/
nn
(K)
la matriz de entrada en la etapa k-esima del metodo de Gauss aplicado a
la matriz A. Debemos probar que
kk
,= 0, pues as no tendremos que
intercambiar la k-esima la con ninguna otra. Por hipotesis, la submatriz
principal
(
11
) /
11
(K)
es inversible. Por tanto,
11
= det(
11
) ,= 0, y por ello

11
=
11
,= 0.
En consecuencia, podemos aplicar el principio de induccion.
4.3. FACTORIZACIONES LU Y DE CHOLESKY 71
Supongamos que el metodo de Gauss aplicado a la matriz A se puede
llevar a cabo, desde la etapa 1 hasta la etapa k 1, sin intercambiar -
las. Recordando las notaciones utilizadas para explicar el metodo de Gauss
(seccion 3.10), esto supone que

A
k
se obtiene de A mediante el producto

A
k
= E
k1
E
k2
. . . E
2
E
1
A,
donde la matriz E
k1
E
k2
. . . E
2
E
1
es triangular inferior con unos en la dia-
gonal principal por serlo E
k1
, E
k2
, . . . , E
2
, E
1
. Consideremos las descom-
posiciones por bloques
A =
_
A
11
A
12
A
21
A
22
_
k
n k
k n k

A
k
=
_

A
11

A
12

A
21

A
22
_
k
n k
k n k
donde
A
11
=
_
_
_
_
_

11

12
. . .
1k

21

22
. . .
2k
.
.
.
.
.
.
.
.
.

k1

k2
. . .
kk
_
_
_
_
_
,

A
11
=
_
_
_
_
_

11
. . .
1 k1

1k
.
.
.
.
.
.
.
.
.

k1 k1

k1 k

kk
_
_
_
_
_
.
Consideremos asimismo una descomposicion por bloques de la matriz
E
k1
E
k2
. . . E
2
E
1
de la forma
E
k1
E
k2
. . . E
2
E
1
=
_
E
11
E
12
E
21
E
22
_
k
n k
k n k
As, la igualdad

A
k
= E
k1
E
k2
. . . E
2
E
1
A se lee como
_

A
11

A
12

A
21

A
22
_
=
_
E
11
E
12
E
21
E
22
__
A
11
A
12
A
21
A
22
_
.
72 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


Como E
k1
E
k2
. . . E
2
E
1
es triangular inferior con unos en la diagonal
principal, entonces E
11
es triangular inferior con unos en la diagonal principal
(lo mismo que E
22
) y E
12
= 0. Efectuando el producto por bloques resulta

A
11
= E
11
A
11
+ E
12
A
21
= E
11
A
11
.
Tomando determinantes nos queda
det(

A
11
) = det(E
11
A
11
) = det(E
11
)det(A
11
) = det(A
11
).
Como por hipotesis A
11
es inversible, entonces det(A
11
) ,= 0 y

11
. . .
k1 k1

kk
= det(

A
11
) ,= 0.
En particular,
kk
,= 0.
En consecuencia, el metodo de Gauss aplicado a la matriz A se puede
llevar a cabo sin intercambiar las y existen una matriz
M = E
n1
E
n2
. . . E
2
E
1
,
que es triangular inferior con unos en la diagonal principal, y una matriz
U = MA triangular superior, que verican
A = M
1
U = LU,
donde L = M
1
tambien es triangular inferior con unos en la diagonal prin-
cipal por serlo M.
Esto prueba la existencia. La unicidad de la factorizacion se deja como
ejercicio.
Observacion 4.3.1 El proceso descrito en la demostracion anterior para
el calculo de la factorizacion LU de una matriz A /
nn
(K) se puede
concretar en lo siguiente: si A /
nn
(K) admite factorizacion LU, para
calcularla se hacen operaciones elementales en las las del esquema (A[I), sin
intercambiar las, hasta llegar al esquema (U[M), con U triangular superior
y M triangular inferior con unos en la diagonal principal, y nalmente se
calcula L = M
1
.
Ejemplo:
Dada la matriz
A =
_
_
_
_
3 0 2 1
3 2 4 3
3 0 1 7
6 2 5 12
_
_
_
_
/
44
(R),
4.3. FACTORIZACIONES LU Y DE CHOLESKY 73
que admite factorizacion LU porque
[3[ = 3 ,= 0 ,

3 0
3 2

= 6 ,= 0,

3 0 2
3 2 4
3 0 1

= 6 ,= 0 , [A[ = 12 ,= 0,
para calcularla partimos del esquema
(A[I) =
_
_
_
_
3 0 2 1 1 0 0 0
3 2 4 3 0 1 0 0
3 0 1 7 0 0 1 0
6 2 5 12 0 0 0 1
_
_
_
_
y procedemos como sigue:
(A[I)
F
2
+F
1
F
3
F
1
F
4
2F
1

_
_
_
_
3 0 2 1 1 0 0 0
0 2 2 2 1 1 0 0
0 0 1 6 1 0 1 0
0 2 1 10 2 0 0 1
_
_
_
_
F
4
+F
2

_
_
_
_
3 0 2 1 1 0 0 0
0 2 2 2 1 1 0 0
0 0 1 6 1 0 1 0
0 0 1 8 1 1 0 1
_
_
_
_
F
4
F
3

_
_
_
_
3 0 2 1 1 0 0 0
0 2 2 2 1 1 0 0
0 0 1 6 1 0 1 0
0 0 0 2 0 1 1 1
_
_
_
_
= (U[M),
de modo que
U =
_
_
_
_
3 0 2 1
0 2 2 2
0 0 1 6
0 0 0 2
_
_
_
_
/
44
(R).
Para calcular L = M
1
hacemos:
(M[I) =
_
_
_
_
1 0 0 0 1 0 0 0
1 1 0 0 0 1 0 0
1 0 1 0 0 0 1 0
0 1 1 1 0 0 0 1
_
_
_
_
F
2
F
1
F
3
+F
1

74 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


_
_
_
_
1 0 0 0 1 0 0 0
0 1 0 0 1 1 0 0
0 0 1 0 1 0 1 0
0 1 1 1 0 0 0 1
_
_
_
_
F
4
F
2

_
_
_
_
1 0 0 0 1 0 0 0
0 1 0 0 1 1 0 0
0 0 1 0 1 0 1 0
0 0 1 1 1 1 0 1
_
_
_
_
F
4
+F
3

_
_
_
_
1 0 0 0 1 0 0 0
0 1 0 0 1 1 0 0
0 0 1 0 1 0 1 0
0 0 0 1 2 1 1 1
_
_
_
_
= (I[M
1
),
resultando
L = M
1
=
_
_
_
_
1 0 0 0
1 1 0 0
1 0 1 0
2 1 1 1
_
_
_
_
/
44
(R).
Observacion 4.3.2 Si A /
nn
(K) admite factorizacion LU, su factori-
zacion LU se puede aplicar tanto a la resolucion de un SEL Ax = b, con x,
b K
n
, como al calculo de A
1
, pues
para obtener x K
n
tal que Ax = b basta resolver sucesivamente los
SEL, con matrices triangulares,
Ly = b y Ux = y,
con y K
n
.
A
1
= (LU)
1
= U
1
L
1
= U
1
M.
Observacion 4.3.3 Sea A /
nn
(K) una matriz que admita factorizacion
LU. Los coecientes de las matrices L y U se pueden calcular tambien
directamente siguiendo el orden que indicamos a continuaci on:
coecientes de la primera la de U,
coecientes de la primera columna de L,
coecientes de la segunda la de U,
4.3. FACTORIZACIONES LU Y DE CHOLESKY 75
coecientes de la segunda columna de L,
etcetera.
Ejemplo:
Sea de nuevo
A =
_
_
_
_
3 0 2 1
3 2 4 3
3 0 1 7
6 2 5 12
_
_
_
_
/
44
(R).
Para calcular la factorizacion LU de A pongamos
L =
_
_
_
_
1 0 0 0

21
1 0 0

31

32
1 0

41

42

43
1
_
_
_
_
, U =
_
_
_
_

11

12

13

14
0
22

23

24
0 0
33

34
0 0 0
44
_
_
_
_
.
Efectuando el producto de L por U e igualando a A se obtienen
i) coecientes de la primera la de U:
3 =
11
, 0 =
12
, 2 =
13
, 1 =
14
,
ii) coecientes de la primera columna de L:
3 =
21

11

21
=
3

11
=
3
3
= 1,
3 =
31

11

31
=
3

11
=
3
3
= 1,
6 =
41

11

41
=
6

11
=
6
3
= 2,
iii) coecientes de la segunda columna de U:
2 =
21

12
+
22

22
= 2
21

12
= 2 (1) 0 = 2,
4 =
21

13
+
23

23
= 4
21

13
= 4 (1)(2) = 2,
3 =
21

14
+
24

24
= 3
21

14
= 3 (1) 1 = 2,
76 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


iv) coecientes de la segunda columna de L:
0 =
31

12
+
32

22

32
=

31

12

22
=
(1) 0
2
= 0,
2 =
41

12
+
42

22

42
=
2
41

12

22
=
2 2 0
2
= 1,
v) coecientes de la tercera la de U:
1 =
31

13
+
32

23
+
33

33
= 1
31

13

32

23
=
= 1 1 (2) 0 2 = 1,
7 =
31

14
+
32

24
+
34

34
= 7
31

14

32

24
=
= 7 1 1 0 (2) = 6,
vi) coecientes de la tercera columna de L:
5 =
41

13
+
42

23
+
43

33

43
=
5
41

13

42

23

33
=
5 2 (2) (1) 2
1
= 1,
vii) coecientes de la cuarta la de U:
12 =
41

14
+
42

24
+
43

34
+
44


44
= 12
41

14

42

24

43

34
= 122 1(1)(2)1 6 = 2.
De este modo resultan
L =
_
_
_
_
1 0 0 0
1 1 0 0
1 0 1 0
2 1 1 1
_
_
_
_
, U =
_
_
_
_
3 0 2 1
0 2 2 2
0 0 1 6
0 0 0 2
_
_
_
_
,
como ya sabamos.
Ejercicio: Averiguar si el SEL

1
+
4
= i
i
1

2
+ 2
3
i
4
= i

1
+ 2
3
+
4
= i
2
1
+
2
+ (1 2i)
3
+
4
= i
4.3. FACTORIZACIONES LU Y DE CHOLESKY 77
se puede resolver utilizando factorizacion LU y resolverlo, en su caso, usando
dicha factorizacion.
Restringiendo la clase de matrices a las que se puede aplicar el teorema
4.3.1 se puede obtener una factorizacion mas sencilla.
Teorema 4.3.2 Sea A = (
ij
) /
nn
(R) una matriz simetrica vericando
que sus n submatrices principales tienen determinante positivo. Entonces
existe al menos una matriz B /
nn
(R) triangular inferior tal que
A = BB
t
.
Si ademas imponemos que los coecientes de la diagonal principal de B
sean estrictamente positivos, entonces la factorizacion A = BB
t
, que se
llama factorazaci on de Cholesky de A, es unica.
Demostracion:
Sea A = LU la factorizacion LU de A, que existe pues las n subma-
trices principales de A son inversibles. Pongamos U = (
ij
) /
nn
(R).
Consideremos las descomposiciones por bloques
A =
_
A
11
A
12
A
21
A
22
_
k
n k
k n k
con
A
11
=
_
_
_
_
_

11

12
. . .
1k

21

22
. . .
2k
.
.
.
.
.
.
.
.
.

k1

k2
. . .
kk
_
_
_
_
_
,
de A,
U =
_
U
11
U
12
U
21
U
22
_
k
n k
k n k
con
U
11
=
_
_
_
_
_

11

12
. . .
1k

22
. . .
2k
.
.
.
.
.
.

kk
_
_
_
_
_
,
78 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


de U, y
L =
_
L
11
L
12
L
21
L
22
_
k
n k
k n k
de L. De este modo, L
11
es triangular inferior con unos en la diagonal
principal (lo mismo que L
22
) y L
12
= 0. As, A = LU se escribe como
_
A
11
A
12
A
21
A
22
_
=
_
L
11
L
12
L
21
L
22
__
U
11
U
12
U
21
U
22
_
.
Efectuando el producto por bloques resulta que
A
11
= L
11
U
11
+ L
12
U
21
= L
11
U
11
,
y tomando determinantes se sigue que
det(A
11
) = det(L
11
)det(U
11
) = det(U
11
).
Hemos probado as que, para todo k = 1, 2, . . . , n, el determinante de la
submatriz principal de A de tama no k k coincide con
det(U
11
) =
11

22
. . .
kk
.
Por hipotesis se sigue que
11

22
. . .
kk
> 0 para todo k = 1, 2, . . . , n.
Es decir, todos los coecientes de la diagonal principal de U son positivos.
Consideremos ahora la matriz diagonal
D = diag(

11
,

22
, . . . ,

nn
) /
nn
(R),
que es tal que
D
1
= diag(
1

11
,
1

22
, . . . ,
1

nn
) /
nn
(R).
Entonces denimos B = LD y C = D
1
U. Se tiene as que A = BC.
Ademas, la simetra de A implica que
BC = A = A
t
= C
t
B
t
,
o bien que
C(B
t
)
1
= B
1
C
t
.
4.3. FACTORIZACIONES LU Y DE CHOLESKY 79
Ahora bien, la inversa de una matriz triangular superior (inferior) es
triangular superior (inferior) y el producto de matrices triangulares superiores
(inferiores) es triangular superior (inferior). De ello se deduce que C(B
t
)
1
es
triangular superior y que B
1
C
t
es triangular inferior. Por tanto, la igualdad
C(B
t
)
1
= B
1
C
t
obliga a que tanto C(B
t
)
1
como B
1
C
t
sean diagonales.
Por otra parte, los coecientes de la diagonal principal de C = D
1
U son

11

11
,

22

22
, . . . ,

nn

nn
y los coecientes de la diagonal principal de (B
t
)
1
son
1

11
,
1

22
, . . . ,
1

nn
. En consecuencia, C(B
t
)
1
es una matriz diagonal con
unos en la diagonal principal, es decir, C(B
t
)
1
= I y C = B
t
.
La unicidad en el caso de que los coecientes de la diagonal principal de
B sean estrictamente positivos se deja como ejercicio.

Observacion 4.3.4 Mas adelante (veanse el corolario 6.5.5 y la observacion


6.5.4) se vera que las matrices simetricas que admiten factorizacion de Cholesky
son las que son denidas positivas.
Observacion 4.3.5 Si A /
nn
(R) es simetrica y admite factorizacion de
Cholesky, la factorizacion de Cholesky A = BB
t
de A se puede aplicar tanto
a la resolucion de un SEL Ax = b, con x, b R
n
, como al calculo de A
1
, ya
que
para obtener x R
n
tal que Ax = b basta resolver sucesivamente los
SEL, con matrices triangulares,
By = b y B
t
x = y,
con y R
n
.
A
1
= (BB
t
)
1
= (B
t
)
1
B
1
= (B
1
)
t
B
1
.
Ejemplo:
La matriz
A =
_
_
1 2 3
2 20 18
3 18 19
_
_
/
33
(R),
que es simetrica, verica tambien que los determinantes de sus submatrices
principales son positivos porque
det(1) = 1 > 0, det
_
1 2
2 20
_
= 16 > 0, det(A) = 16 > 0.
80 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


Por tanto, A admite factorizacion de Cholesky. Para calcularla, obtene-
mos en primer lugar la factorizacion LU de A, que es
L =
_
_
1 0 0
2 1 0
3
3
4
1
_
_
, U =
_
_
1 2 3
0 16 12
0 0 1
_
_
.
Si ahora ponemos
D = diag(

1,

16,

1) = diag(1, 4, 1),
entonces A = BB
t
siendo
B = LD =
_
_
1 0 0
2 4 0
3 3 1
_
_
.
4.4 Metodos iterativos
Dada la inecacia practica de los metodos numericos directos, tales como
la eliminacion gaussiana, para resolver sistemas de ecuaciones lineales de la
forma Ax = b cuando A es una matriz cuadrada de gran tama no, es necesario
introducir los metodos iterativos para abordar su resoluci on. Dentro de los
metodos iterativos, los mas usualues son los llamados metodos lineales, que
responden a la formula
x
k+1
= Bx
k
+ c,
con B /
nn
(R) y c R
n
, y entre ellos cabe destacar los que denen B y
c a partir de una descomposicion A = M N de la matriz A /
nn
(R).
Denicion 4.4.1 Un metodo iterativo lineal para la resolucion de un SEL
Ax = b, con A /
nn
(R) y b R
n
, es aquel que responde al esquema
x
k+1
= Bx
k
+ c, k 0
x
0
R
n
arbitrario,
donde B /
nn
(R) y c R
n
dependen de los datos A y b; es mas, B
solamente depende de A. El metodo se dice convergente si la sucesi on de
vectores x
k
converge a la solucion del SEL Ax = b para cualquier vector
inicial x
0
.
Supongamos entonces que deseamos resolver el SEL Ax = b, con A
/
nn
(R) inversible y b R
n
. Supongamos que se pueden encontrar una
matriz B /
nn
(R) y un vector c R
n
tales que
4.4. M

ETODOS ITERATIVOS 81
i) Existe (I B)
1
,
ii) (I B)x = c Ax = b,
es decir, tales que la matriz I B sea inversible y que el SEL (I B)x = c
tenga la misma solucion que el SEL Ax = b. Se tendra as que x = Bx + c,
que es lo que sugiere el metodo iterativo lineal anteriormente descrito. Dicho
metodo sera convergente si
lim
n
x
k
= x
para todo vector inicial x
0
R
n
.
A la matriz B se le llama matriz del metodo iterativo.
A continuacion, vamos a describir tres metodos iterativos clasicos (metodos
de Jacobi, de Gauss-Seidel y de relajacion). Todos ellos son casos particulares
del metodo que exponemos a continuacion.
Supongamos que la matriz inversible A se puede escribir bajo la ley de
descomposicion A = MN, siendo M inversible (en la practica, M debe ser
facilmente inversible, diagonal, triangular, triangular por bloques, etcetera).
Entonces
Ax = b (M N)x = b Mx = Nx + b x = M
1
Nx + M
1
b,
y si ponemos, como en el caso de un metodo iterativo lineal, x = Bx + c,
resultan c = M
1
b y B = M
1
N = M
1
(M A) = I M
1
A, siendo
I B = M
1
A una matriz inversible. El metodo iterativo que se propone
entonces es
x
k+1
= M
1
Nx
k
+ M
1
b, k 0
x
0
R
n
arbitrario.
En la practica lo que se utiliza es
Mx
k+1
= Nx
k
+ b, k 0.
Metodo de Jacobi:
Sean, en todo lo que resta de seccion, A = (
ij
) /
nn
(R) una matriz
con
ii
,= 0 para cualquier i = 1, 2, . . . , n, y D, E, F /
nn
(R) denidas
por D = diag(
11
,
22
, . . . ,
nn
),
E =
_
_
_
_
_
0 . . . 0 0

21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

n1
. . .
nn1
0
_
_
_
_
_
, F =
_
_
_
_
_
0
12
. . .
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

n1 n
0 . . . 0 0
_
_
_
_
_
,
82 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


de tal forma que
A = D E F = M N,
siendo M = D y N = E +F. La matriz B = M
1
N del metodo iterativo es
B = D
1
(E + F)
y el vector c = M
1
b es
c = D
1
b.
Notese que D es inversible porque
ii
,= 0 para cualquier i = 1, 2, . . . , n.
En consecuencia
Ax = b Dx = (E + F)x + b x = D
1
(E + F)x + D
1
b
y por tanto, el algoritmo de Jacobi sera
x
k+1
= D
1
(E + F)x
k
+ D
1
b.
Poniendo x
k+1
= (
k+1
1
,
k+1
2
, . . . ,
k+1
n
)
t
y x
k
= (
k
1
,
k
2
, . . . ,
k
n
)
t
, la ex-
presion anterior nos da las formulas

k+1
i
=
1

ii
_

i1

j=1

ij

k
j

n

j=i+1

ij

k
j
+ b
i
_
, i = 1, 2, . . . , n, k = 0, 1, . . .
Metodo de Gauss-Seidel:
El metodo de Jacobi se puede mejorar utilizando las cantidades ya cal-
culadas. Usando las notaciones anteriores, en el metodo de Gauss-Seidel,
para calcular el escalar
k+1
i
se utilizan los escalares
k+1
j
, j < i, ya calculados
previamente.
Las formulas

k+1
i
=
1

ii
_

i1

j=1

ij

k+1
j

n

j=i+1

ij

k
j
+ b
i
_
, i = 1, 2, . . . , n, k = 0, 1, . . .
se llaman formulas de Gauss-Seidel. Estas formulas resultan de aplicar el
metodo iterativo A = M N con
M = D E, N = F.
4.4. M

ETODOS ITERATIVOS 83
En efecto, las formulas anteriores corresponden al producto
x
k+1
= D
1
(Ex
k+1
+ Fx
k
+ b),
de donde
Dx
k+1
= (Ex
k+1
+ Fx
k
+ b) (D E)x
k+1
= Fx
k
+ b
x
k+1
= (D E)
1
Fx
k
+ (D E)
1
b, k = 0, 1, . . .
lo que prueba que M = DE y N = F. En este caso, la matriz del metodo
es B = (D E)
1
F y el vector c = M
1
b es c = (D E)
1
b.
Metodo de relajacion:
Se trata de introducir en el algoritmo de Gauss-Seidel un parametro > 0
con el n de mejorar la velocidad de convergencia. Concretamente, denimos
M

=
D

E, N

=
1

D + F,
de tal modo que
M

=
D

E
1

D F =
=
D E (1 )D F

=
D D E + D F

= DEF = A.
Esta eleccion de M

y N

proporciona el metodo iterativo de relajacion,


que responde al esquema
_
D

E
_
x
k+1
=
_
1

D + F
_
x
k
+ b, k 0.
Operando resulta que
D

x
k+1
=
1

Dx
k
+ Fx
k
+ Ex
k+1
+ b,
y, multiplicando por ,
Dx
k+1
= Dx
k

_
Dx
k
Ex
k+1
Fx
k
+ b
_
.
De esta ultima expresion se deducen las formulas

k+1
i
= (1 )
k
i
+

ii
_

i1

j=1

ij

k+1
j

n

j=1

ij

k
j
+ b
i
_
,
para i = 1, 2, . . . , n, k = 0, 1, . . . .
84 CAP

ITULO 4. SISTEMAS DE ECUACIONES LINEALES


La matriz del metodo por tanto es
B

=
_
D

E
_
1
_
1

D + F
_
=
1

(D E)
1
[(1 )D + F],
y el vector c

= M
1

b es
c

=
_
D

E
_
1
b.
Notemos que si = 1 el metodo que se obtiene es el de Gauss-Seidel.
Captulo 5
Autovalores y autovectores
5.1 Autovalores y autovectores
Sea A /
nn
(K) una matriz cuadrada de tama no n.
Denicion 5.1.1 Un escalar C se dice autovalor o valor propio de A si
existe un vector x C
n
, x ,= 0, tal que
Ax = x.
Denicion 5.1.2 Un vector x C
n
, x ,= 0, se dice autovector o vector
propio de A si existe un escalar C tal que
Ax = x.
Observacion 5.1.1 Si Ax = x con C y x C
n
, x ,= 0, se dira que el
autovalor esta asociado al autovector x y viceversa.
Observacion 5.1.2 Si x C
n
, x ,= 0, es un autovector de A, el autovalor
C de A asociado a x es unico. En efecto, si fuese
Ax = x y Ax = x,
con C, se tendra que ( )x = 0, y como x ,= 0, entonces = 0 y
= .
En cambio, si C es un autovalor de A, existen innitos autovectores
de A asociados a . En efecto, si x C
n
, x ,= 0, es un autovector de A
asociado a (es decir, si Ax = x) y si C, ,= 0, se sigue que
A(x) = (Ax) = (x) = (x)
y x es tambien autovector de A asociado a .
85
86 CAP

ITULO 5. AUTOVALORES Y AUTOVECTORES


Denicion 5.1.3 El conjunto de autovalores de A se llama espectro de A y
se denota por Sp(A).
Denicion 5.1.4 El polinomio de grado n en la variable
p
A
() = det(A I)
se llama polinomio caracterstico de A; la ecuaci on det(AI) = 0 se llama
ecuaci on caracterstica de A.
Proposicion 5.1.1 Los autovalores de A son las races de la ecuaci on ca-
racterstica p
A
() = det(A I) = 0.
Demostracion:
Si Sp(A), entonces existe x C
n
, x ,= 0, tal que Ax = x, o bien, tal
que
(A I)x = 0.
As, x ker(AI), con lo cual, dim(ker(AI)) 1, rango(AI) < n
y det(A I) = 0.
Recprocamente, si C es tal que det(A I) = 0, entonces se tiene
que rango(A I) < n y dim(ker(A I)) 1. Por tanto, existe x C
n
,
x ,= 0, tal que
(A I)x = 0,
o sea, tal que Ax = x, y es un autovalor de A asociado al autovector x.

Ejemplo:
Sea
A =
_
_
0 1 2
0 0 2
1 1 1
_
_
/
33
(R).
El polinomio caracterstico de A es
p
A
() = det(A I) =

1 2
0 2
1 1 1

=
= ()()(1 ) 2 2 + 2 =
3
+
2
2.
Como 1 es raz de p
A
() pues p
A
(1) = 0, dividimos p
A
() entre + 1
utilizando la regla de Runi. Se tiene
5.1. AUTOVALORES Y AUTOVECTORES 87
1 1 0 2
1 1 2 2
1 2 2 [ 0
resultando p
A
() = ( + 1)(
2
+ 2 2). Y como

2
+ 2 2 = 0 =
2

4 8
2
=
2 2i
2
=
1 i

1 + i
se obtiene que los autovalores de A son
1, 1 i, 1 + i.
Observacion 5.1.3 El polinomio caracterstico de A es un polinomio de
grado n; por tanto, tiene a lo sumo n races distintas, o bien, tiene exacta-
mente n races no necesariamente distintas. As, la matriz A /
nn
(K)
tiene, a lo sumo, n autovalores distintos, o bien, tiene exactamente n auto-
valores, no necesariamente distintos.
Proposicion 5.1.2 Sean
1
,
2
, . . . ,
n
C los autovalores de A. Entonces
traza(A) =
1
+
2
+ +
n
,
det(A) =
1

2
. . .
n
.
Denicion 5.1.5 Sean
1
,
2
, . . . ,
n
C los autovalores de A. Se llama
radio espectral de A, y se denota (A), al modulo del autovalor de A de
mayor modulo, es decir
(A) = max
i=1,2,...,n
[
i
[.
Observacion 5.1.4 De la proposicion 5.1.2 se sigue que
[traza(A)[ n(A), [det(A)[ ((A))
n
.
Observacion 5.1.5 Si A es diagonal o triangular, los autovalores de A son
los elementos de la diagonal principal de A.
Proposicion 5.1.3 Si A es inversible, todos sus autovalores son no nulos.
Ademas,
Sp(A)
1

Sp(A
1
).
88 CAP

ITULO 5. AUTOVALORES Y AUTOVECTORES


Demostracion:
La primera armacion se sigue de que el determinante de A es el producto
de los autovalores de A. Ademas,
Sp(A) existe x C
n
, x ,= 0, tal que Ax = x
existe x C
n
, x ,= 0, tal que
1

x = A
1
x
1

Sp(A
1
).

5.2 Subespacio propio


Sea A /
nn
(K).
Denicion 5.2.1 Sea Sp(A). El conjunto
E

= x C
n
; Ax = x = ker(A I),
que es un subespacio puesto que es el n ucleo de una matriz, se llama subes-
pacio propio asociado al autovalor .
Observacion 5.2.1 Sea Sp(A). Se tiene:
1. dim(E

) = dim(ker(A I)) = n rango(A I).


2. dim(E

) 1, porque al ser det(A I) = 0 entonces se verica que


rango(A I) < n.
Denicion 5.2.2 Sea Sp(A). Se llama multiplicidad algebraica de ,
y se denota m.a.(), a la multiplicidad de como raz del polinomio carac-
terstico p
A
() = det(A I). Se llama multiplicidad geometrica de , y se
denota m.g.(), a la dimensi on del subespacio propio asociado a , es decir
m.g.() = dim(ker(A I)).
Proposicion 5.2.1 Sea Sp(A). Entonces
m.g.() m.a.().
Observacion 5.2.2 Sea Sp(A). Si m.a.() = 1, entonces m.g.() = 1.
5.2. SUBESPACIO PROPIO 89
Ejemplo:
Sea
A =
_
_
0 1 2
0 0 2
1 1 1
_
_
/
33
(R).
Ya sabemos que
Sp(A) = 1, 1 i, 1 + i
con
m.a.(1) = m.a.(1 i) = m.a.(1 +i) = 1,
y, por tanto, seg un la observacion 5.2.2,
m.g.(1) = m.g.(1 i) = m.g.(1 +i) = 1.
Ademas,
E
1
= ker(A + I) = ker
_
_
1 1 2
0 1 2
1 1 2
_
_
=
_
_
0
2
1
_
_
).
Por otra parte,
E
1i
= ker(A (1 i)I) = ker
_
_
1 + i 1 2
0 1 + i 2
1 1 i
_
_
=

_
_

3
_
_
C
3
;
(1 + i)
1

2
2
3
= 0
(1 + i)
2
+ 2
3
= 0

1
+
2
+ i
3
= 0
.
Ahora bien,
(1 + i)
2
+ 2
3
= 0
2
=
2
1 + i

3


2
=
2(1 i)
(1 + i)(1 i)

3
=
2(1 i)
2

3
= (1 +i)
3
.
Por otra parte,
(1 + i)
1

2
2
3
= 0

1
+
2
+ i
3
= 0
_
i
1
+ (2 +i)
3
= 0
90 CAP

ITULO 5. AUTOVALORES Y AUTOVECTORES

1
=
(2 i)
i

3
=
(2 i)(i)
i(i)

3
= (1 2i)
3
,
de tal modo que
E
1i
=
_
_
1 2i
1 + i
1
_
_
).
Analogamente se ve que
E
1+i
=
_
_
1 + 2i
1 i
1
_
_
).
Proposicion 5.2.2 Sean
1
,
2
, . . . ,
r
r autovalores distintos de A. Sean
x
1
, x
2
, . . . .x
r
C
n
, x
1
,= 0, x
2
,= 0, . . . , x
r
,= 0, tales que
Ax
1
=
1
x
1
, Ax
2
=
2
x
x
, . . . , Ax
r
= x
r
.
Entonces el sistema x
1
, x
2
, . . . , x
r
es libre.
Demostracion:
Haremos la demostracion por induccion en r. Si r = 1, el resultado es
cierto pues, como x
1
,= 0, entonces x
1
es libre.
Supongamos que el sistema x
1
, x
2
, . . . , x
r1
es libre. Probaremos que
el sistema x
1
, x
2
, . . . , x
r1
, x
r
es libre. Pongamos

1
x
1
+
2
x
2
+ +
r1
x
r1
+
r
x
r
= 0.
Entonces
0 = (A
r
I)(
1
x
1
+
2
x
2
+ +
r1
x
r1
+
r
x
r
) =
=
1
(A
r
I)x
1
+
2
(A
r
I)x
2
+ +
r1
(A
r
I)x
r1
+
r
(A
r
I)x
r
,
donde, para j = 1, 2, . . . , r 1, es
(A
r
I)x
j
= Ax
j

r
x
j
=
j
x
j

r
x
j
= (
j

r
)x
j
y donde
(A
r
I)x
r
= Ax
r

r
x
r
=
r
x
r

r
x
r
= 0.
Sustituyendo nos queda
0 =
1
(
1

r
)x
1
+
2
(
2

r
)x
2
+ +
r1
(
r1

r
)x
r1
,
5.2. SUBESPACIO PROPIO 91
y como x
1
, x
2
, . . . , x
r1
es libre, resulta

1
(
1

r
) =
2
(
2

r
) = =
r1
(
r1

r
) = 0.
Ahora bien, los autovalores
1
,
2
, . . . ,
r1
,
r
son distintos, y por ello,

1
=
2
= =
r1
= 0,
resultando nalmente que
r
x
r
= 0, y como x
r
,= 0, tambien es
r
= 0.

Corolario 5.2.1 Sean


1
,
2
, . . . ,
r
r autovalores distintos de A. La suma
E

1
+ E

2
+ + E

r
de los subespacios propios asociados es directa.
Denicion 5.2.3 Sean A, B /
nn
(K). Se dice que A y B son semejantes
si existe P /
nn
(K) inversible tal que B = P
1
AP.
Denicion 5.2.4 Sean A, B /
nn
(K). Se dice que A y B son congruen-
tes si existe Q /
nn
(K) inversible tal que B = Q

AQ.
Observacion 5.2.3 Notese que dos matrices A, B /
nn
(K) semejantes
o congruentes son equivalentes.
Proposicion 5.2.3 Si A, B /
nn
(K) son semejantes, entonces A y B
tienen el mismo polinomio caracterstico (y tienen, por tanto, los mismos
autovalores).
Demostracion:
Supongamos que B = P
1
AP con P /
nn
(K) inversible. Entonces
det(B I) = det(P
1
AP I) = det(P
1
AP P
1
IP) =
= det(P
1
AP P
1
(I)P) = det(P
1
(A I)P) =
= det(P
1
)det(A I)det(P) =
= (det(P))
1
det(A I)det(P) = det(A I).

92 CAP

ITULO 5. AUTOVALORES Y AUTOVECTORES


Observacion 5.2.4 El recproco del resultado anterior no es, en general,
cierto. Por ejemplo, si
I =
_
1 0
0 1
_
, B =
_
1 1
0 1
_
/
22
(R),
entonces = 1 es el unico autovalor, tanto de I como de B, con multiplicidad
algebraica igual a 2. Por tanto, el polinomio caracterstico, tanto de I como
de B, es
det(I I) = det(B I) = (1 )
2
.
Sin embargo, I y B no son semejantes, pues para cualquier matriz in-
versible P /
22
(R) se tiene que P
1
IP = I ,= B; en otras palabras, I y
B no son semejantes ya que I ,= B y la unica matriz semejante a la matriz
identidad es la propia matriz identidad.
5.3 Diagonalizacion por semejanza
Sea A /
nn
(C) una matriz cuadrada de tama no n.
Denicion 5.3.1 Se dice que A es diagonalizable por semejanza (o simple-
mente que A es diagonalizable) si A es semejante a una matriz diagonal, es
decir, si existe P /
nn
(C) inversible tal que P
1
AP es diagonal.
Supongamos que A es diagonalizable y sea P /
nn
(C) inversible tal
que P
1
AP = D es diagonal. Sean
1
,
2
, . . . ,
n
los autovalores de A.
Como A y D son semejantes, por la proposicion 5.2.3 A y D tienen los
mismos autovalores, es decir
D = diag(
1
,
2
, . . . ,
n
).
Mas aun, si x
1
, x
2
, . . . , x
n
C
n
denotan las columnas de P, resulta que
P
1
AP = D AP = PD
A(x
1
[x
2
[ . . . [x
n
) = (x
1
[x
2
[ . . . [x
n
)
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_

(Ax
1
[Ax
2
[ . . . [Ax
n
) = (
1
x
1
[
2
x
2
[ . . . [
n
x
n
)
Ax
1
=
1
x
1
, Ax
2
=
2
x
2
, . . . , Ax
n
=
n
x
n
,
donde x
1
, x
2
, . . . , x
n
son no nulos porque P es inversible. As, las columnas
de P son autovectores de A. Es mas, puesto que las columnas de P deben
formar un sistema libre, se tiene:
5.3. DIAGONALIZACI

ON POR SEMEJANZA 93
Teorema 5.3.1 A es diagonalizable si y s olo si existe una base de C
n
for-
mada por autovectores de A.
Teorema 5.3.2 A es diagonalizable si y s olo si
m.a.() = m.g.()
para todo Sp(A).
Demostracion:
Sean
1
,
2
, . . . ,
r
los autovalores (distintos) de A. El hecho de que
m.a.(
1
) = m.g.(
1
), m.a.(
2
) = m.g.(
2
), . . . , m.a.(
r
) = m.g.(
r
)
equivale a que
m.g.(
1
)+m.g.(
2
)+ +m.g.(
r
) = m.a.(
1
)+m.a.(
2
)+ +m.a.(
r
) = n,
y como la suma E

1
+E

2
+ +E

r
de los subespacios propios asociados es
directa, lo anterior ocurre si y solo si E

1
E

2
E

r
= C
n
, es decir, si y
solo si existe una base de C
n
formada por autovectores de A. Basta entonces
aplicar el teorema 5.3.1.

Corolario 5.3.1 Si A tiene n autovalores distintos, entonces A es diagona-


lizable.
Demostracion:
Es debido a que, en ese caso, 1 = m.a.() = m.g.() para todo Sp(A).

Ejemplo:
La matriz
A =
_
_
0 1 2
0 0 2
1 1 1
_
_
/
33
(R)
es diagonalizable pues sus autovalores, que ya sabamos que eran 1, 1 i y
1 + i, son los tres distintos. Es mas, el sistema

_
_
0
2
1
_
_
,
_
_
1 2i
1 + i
1
_
_
,
_
_
1 + 2i
1 i
1
_
_

es una base de C
3
formada por autovectores de A.
94 CAP

ITULO 5. AUTOVALORES Y AUTOVECTORES


Ejemplo:
Sea
A =
_
_
_
_
2 0 0 0
0 1 1 1
0 1 2 1
0 0 1 2
_
_
_
_
/
44
(R).
El polinomio caracterstico de A es
p
A
() = det(A I) =

2 0 0 0
0 1 1 1
0 1 2 1
0 0 1 2

=
(2 )[(1 )(2 )
2
1 (1 ) + 2 ] = (2 )
3
(1 ).
As,
Sp(A) = 1, 2, m.a.(1) = 1, m.a.(2) = 3.
Sin embargo, en este caso se tiene que
m.g.(2) = 4 rango(A 2I) = 4 rango
_
_
_
_
0 0 0 0
0 1 1 1
0 1 0 1
0 0 1 0
_
_
_
_
=
= 4 2 = 2 < m.a.(2)
y A no es diagonalizable.
Ejemplo:
Sea A = (
ij
) /
nn
(R) la matriz denida por

ij
= 1
para cualesquiera i, j = 1, 2, . . . , n.
Vamos a calcular el polinomio caracterstico y los autovalores de A de dos
maneras diferentes:
1. Calculamos directamente det(A I). De hecho, si a la primera
columna le sumamos las demas queda
p
A
() = det(A I) =

1 1 1 . . . 1
1 1 1 . . . 1
1 1 1 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 . . . 1

=
5.3. DIAGONALIZACI

ON POR SEMEJANZA 95
=

n 1 1 . . . 1
n 1 1 . . . 1
n 1 1 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n 1 1 . . . 1

Y si ahora le restamos la primera la a las demas resulta


p
A
() =

n 1 1 . . . 1
0 0 . . . 0
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . .

= (n )()
n1
,
de tal modo que
Sp(A) = 0, n, m.a.(0) = n 1, m.a.(n) = 1.
2. Puesto que todas las columnas de A son iguales a (1, 1, . . . , 1)
t
R
n
,
entonces rango(A) = 1; por tanto, 0 es autovalor de A con
m.g.(0) = n rango(A) = n 1.
Tenemos entonces al menos n 1 autovalores nulos; como la traza de
A es la suma de los autovalores de A, el autovalor que falta es
traza(A) = n.
As,
Sp(A) = 0, n, m.a.(0) = n 1, m.g.(n) = 1,
y p
A
() = det(A I) = (n )()
n1
.
Por otra parte, ya hemos visto que
m.g.(0) = n 1 = m.a.(0)
y tambien sabemos que
m.a.(n) = 1 m.g.(n) = 1.
De este modo, A es diagonalizable. Es mas, como
96 CAP

ITULO 5. AUTOVALORES Y AUTOVECTORES


E
0
= ker(A) = ker
_
_
_
_
_
_
_
1 1 1 . . . 1
1 1 1 . . . 1
1 1 1 . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 . . . 1
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
1
1
0
0
.
.
.
0
_
_
_
_
_
_
_
_
_
,
_
_
_
_
_
_
_
_
_
1
0
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
, . . . ,
_
_
_
_
_
_
_
_
_
1
0
0
.
.
.
0
1
_
_
_
_
_
_
_
_
_
),
E
n
= ker(AnI) = ker
_
_
_
_
_
_
_
1 n 1 1 . . . 1
1 1 n 1 . . . 1
1 1 1 n . . . 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 . . . 1 n
_
_
_
_
_
_
_
=
_
_
_
_
_
1
1
.
.
.
1
_
_
_
_
_
),
resulta que la matriz
P =
_
_
_
_
_
_
_
_
_
1 1 . . . 1 1
1 0 . . . 0 1
0 1 . . . 0 1
0 0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 1
_
_
_
_
_
_
_
_
_
/
nn
(R)
verica que
P
1
AP = D = diag(0,
n1)
. . . , 0, n).
Sea A /
nn
(K).
Denicion 5.3.2 Sea p() =
0
+
1
+
2

2
+ +
k

k
un polinomio en la
variable , con
0
,
1
,
2
, . . . ,
k
K. Se dene la matriz p(A) /
nn
(K)
como
p(A) =
0
I +
1
A +
2
A
2
+ +
k
A
k
.
Se dice que A es raz del polinomio p si
p(A) = 0.
Teorema 5.3.3 (Teorema de Cayley-Hamilton) Toda matriz cuadrada
es raz de su polinomio caracterstico, es decir, si p
A
() = det(AI) es el
polinomio caracterstico de A, entonces
p
A
(A) = 0.
5.3. DIAGONALIZACI

ON POR SEMEJANZA 97
Ejemplo:
Sea A = (
ij
) /
nn
(R) la matriz dada por

ij
= 1
para cualesquiera i, j = 1, 2, . . . , n. Se trata de calcular
A
n+1
nA
n
.
Ya sabamos que el polinomio caracterstico de A era
p
A
() = det(A I) = (n )()
n1
.
Por el teorema de Cayley-Hamilton,
p
A
(A) = (nI A)(A)
n1
= 0.
Ahora bien,
(nI A)(A)
n1
= 0 (1)
n1
(nI A)A
n1
= 0 (nI A)A
n1
= 0
nA
n1
A
n
= 0 A
n
nA
n1
= 0.
En consecuencia,
A
n+1
nA
n
= A(A
n
nA
n1
) = 0.
98 CAP

ITULO 5. AUTOVALORES Y AUTOVECTORES


Captulo 6
Producto escalar y producto
hermtico
6.1 Producto escalar
El producto escalar (usual) de vectores de R
n
es la aplicacion
< , >: R
n
R
n
R
denida por
< x, y >= y
t
x = x
t
y, x, y R
n
,
es decir, si x = (
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
, y =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
) R
n
, entonces
< x, y >=
_

1

2
. . .
n
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
=
1

1
+
2

2
+ +
n

n
.
Esta aplicacion tiene las propiedades
< x, y >=< y, x >
< x, y + z >=< x, y > + < x, z >
< x, y >= < x, y >
< x, x > 0 y < x, x >= 0 x = 0
99
100 CAP

ITULO 6. PRODUCTO ESCALAR


as como
< x + y, z >=< x, z > + < y, z >
< x, y >= < x, y >
para cualesquiera x, y, z R
n
, R.
6.2 Producto hermtico
El producto hermtico (usual) de vectores de C
n
es la aplicacion
< , >: C
n
C
n
C
denida por
< x, y >= y

x, x, y C
n
,
es decir, si x = (
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
, y =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
) C
n
, entonces
< x, y >=
_

1

2
. . .
n
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
=
1

1
+
2

2
+ +
n

n
.
Esta aplicacion tiene las propiedades
< x, y >= < y, x >
< x, y + z >=< x, y > + < x, z >
< x, y >= < x, y >
< x, x > 0 y < x, x >= 0 x = 0
as como
< x + y, z >=< x, z > + < y, z >
< x, y >= < x, y >
para cualesquiera x, y, z C
n
, C.
Notese que la propiedad < x, x > 0, x C
n
, tiene sentido porque como
< x, x >= < x, x >, entonces < x, x > R.
6.3. NORMA 101
6.3 Norma
Sea < , > el producto escalar de vectores de R
n
o el producto hermtico de
vectores de C
n
.
La norma (o norma usual o norma dos) de un vector x K
n
es el n umero
real
|x| =

< x, x > R.
Si x = (
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
R
n
, entonces
|x| =

x
t
x =
_

2
1
+
2
2
+ +
2
n
,
mientras que si x = (
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
C
n
, entonces
|x| =

x =
_
[
1
[
2
+[
2
[
2
+ +[
n
[
2
.
La aplicacion norma
| |: x K
n
|x| R
verica las propiedades
|x| 0 y |x| = 0 x = 0
|x| = [[ |x|
|x + y| |x| +|y| (desigualdad de Minkowski)
para cualesquiera x, y K
n
, K.
Denicion 6.3.1 Un vector x K
n
se dice unitario si |x| = 1.
Observacion 6.3.1 Sea x K
n
, x ,= 0. Entonces los vectores
x
x
y
x
x
son
unitarios.
Teorema 6.3.1 (Desigualdad de Schwarz) Si x, y K
n
, se verica que
[ < x, y > [ |x| |y|.
Teorema 6.3.2 (Regla del paralelogramo) Si x, y K
n
, se verica que
|x + y|
2
+|x y|
2
= 2(|x|
2
+|y|
2
).
102 CAP

ITULO 6. PRODUCTO ESCALAR


6.4 Ortogonalidad y ortonormalidad
Sea < , > el producto escalar de vectores de R
n
o el producto hermtico de
vectores de C
n
. Sea | | la aplicacion norma en K
n
.
Denicion 6.4.1 Sean x, y K
n
. Se dice que x e y son ortogonales, y se
escribe x y, si
< x, y >= 0.
Denicion 6.4.2 Sea S = s
1
, s
2
, . . . , s
p
un sistema de vectores en K
n
. Se
dice que S es ortogonal si los vectores s
1
, s
2
, . . . , s
p
son ortogonales dos a
dos, es decir, si < s
i
, s
j
>= 0 para i, j = 1, 2, . . . , p, i ,= j. Se dice que S es
ortonormal si S es ortogonal y |s
1
| = |s
2
| = = |s
p
| = 1.
Proposicion 6.4.1 Un sistema S = s
1
, s
2
, . . . , s
p
ortogonal (ortonormal)
de vectores no nulos de K
n
es libre.
Demostracion:
Pongamos
1
s
1
+
2
s
2
+ +
p
s
p
= 0, con
1
,
2
, . . . ,
p
K. Entonces,
para cada i = 1, 2, . . . , p se verica que
0 =<
1
s
1
+
2
s
2
+ +
p
s
p
, s
i
>=
=
1
< s
1
, s
i
> +
2
< s
2
, s
i
> + +
p
< s
p
, s
i
>=
i
< s
i
, s
i
>,
y como < s
i
, s
i
> es no nulo por ser s
i
,= 0, se sigue que
i
= 0.
Observacion 6.4.1 Sea S = s
1
, s
2
, . . . , s
p
un sistema ortogonal de vecto-
res no nulos de K
n
. Entonces el sistema
s
1
s
1

,
s
2
s
2

, . . . ,
s
p
s
p

es ortonormal.
Teorema 6.4.1 (Proceso de ortonormalizacion de Gram-Schmidt)
Sea T = v
1
, v
2
, . . . , v
p
un sistema libre de vectores de K
n
. Entonces existe
un sistema ortonormal S = u
1
, u
2
, . . . , u
p
de vectores de K
n
tal que
S) = T).
Demostracion:
6.4. ORTOGONALIDAD Y ORTONORMALIDAD 103
El sistema S se construye como sigue:
u
1
=
v
1
v
1

h
2
= v
2
< v
2
, u
1
> u
1
u
2
=
h
2
h
2

h
3
= v
3
< v
3
, u
1
> u
1
< v
3
, u
2
> u
2
u
3
=
h
3
h
3

. . . . . . . . . . . .
h
k
= v
k

k1

j=1
< v
k
, u
j
> u
j
u
k
=
h
k
h
k

. . . . . . . . . . . .
h
p
= v
p

p1

j=1
< v
p
, u
j
> u
j
u
p
=
h
p
h
p

Usando el principio de induccion se demuestra que S es ortogonal (y


por tanto ortonormal, pues sus vectores son unitarios). En consecuencia,
por la proposicion 6.4.1, S es libre. Ademas, por construccion, cada u
k
es
combinacion lineal de v
1
, v
2
, . . . , v
k1
, v
k
. As, S) T); y como se verica
que dim(S)) = dim(T)) = p, entonces S) = T).
Ejemplo:
Sea < , > el producto escalar de vectores de R
3
. Sea
T = v
1
=
_
_
1
0
0
_
_
, v
2
=
_
_
1
1
0
_
_
, v
3
=
_
_
1
1
1
_
_
,
que es libre, y por tanto base de R
3
. Aplicando el proceso de ortonormaliza-
cion de Gram-Schmidt a T resulta
u
1
=
v
1
v
1

= v
1
h
2
= v
2
u
1
=
_
_
0
1
0
_
_
u
2
=
h
2
h
2

=
_
_
0
1
0
_
_
h
3
= v
3
u
1
u
2
=
_
_
0
0
1
_
_
u
3
=
h
3
h
3

=
_
_
0
0
1
_
_
de tal modo que en este caso
S = u
1
=
_
_
1
0
0
_
_
, u
2
=
_
_
0
1
0
_
_
, u
3
=
_
_
0
0
1
_
_

es la base canonica de R
3
.
104 CAP

ITULO 6. PRODUCTO ESCALAR


Corolario 6.4.1 Sea S = u
1
, u
2
, . . . , u
p
un sistema ortonormal de vectores
de K
n
, siendo p < n. Entonces existen u
p+1
, u
p+2
, . . . , u
n
K
n
tales que
u
1
, u
2
, . . . , u
p
, u
p+1
, u
p+2
, . . . , u
n

es una base ortonormal de K


n
.
Demostracion:
Es una consecuencia inmediata del teorema de compleccion (teorema
2.7.2) y del proceso de ortonormalizacion de Gram-Schmidt (teorema 6.4.1).

Proposicion 6.4.2 Sea < , > el producto hermtico de vectores de C


n
. Sea
A /
nn
(C). Entonces
< Au, v >=< u, A

v >, u, v C
n
.
Demostracion:
Como < u, v >= v

u para u, v C
n
, entonces
< Au, v >= v

Au = (A

v)

u =< u, A

v > .

Corolario 6.4.2 Sea < , > el producto escalar de vectores de R


n
. Sea
A /
nn
(R). Entonces
< Au, v >=< u, A
t
v >, u, v R
n
.
Proposicion 6.4.3 Se verica que:
i) Los autovalores de una matriz A /
nn
(C) hermitiana o A /
nn
(R)
simetrica son todos reales.
ii) Los autovalores de una matriz A /
nn
(C) hermitiana denida po-
sitiva (negativa) o A /
nn
(R) simetrica denida positiva (negativa)
son positivos (negativos).
iii) Los autovalores de una matriz A /
nn
(C) hermitiana semidenida
positiva (negativa) o A /
nn
(R) simetrica semidenida positiva
(negativa) son no negativos (menores o iguales que 0).
iv) Los autovalores de una matriz A /
nn
(C) unitaria o A /
nn
(R)
ortogonal tienen modulo uno.
6.4. ORTOGONALIDAD Y ORTONORMALIDAD 105
Demostracion:
Haremos la demostracion solamente para el caso complejo, pues el caso
real se deduce de el.
Sea < , > el producto hermtico de vectores de C
n
. Sean Sp(A) y
x C
n
, x ,= 0, un autovector de A asociado a . Se tiene que
i) Como
< x, x >=< x, x >=< Ax, x >=< x, A

x >=
=< x, Ax >=< x, x >=

< x, x >
y como < x, x >,= 0, se sigue que =

y R.
ii) Veamos solo en que A es denida positiva. Como
0 < x

Ax =< Ax, x >=< x, x >= < x, x >


y como < x, x > > 0, entonces > 0.
iii) Sirve la misma demostracion que en el apartado anterior cambiando <
por y > por .
iv) Recordemos que, seg un se vio en la demostracion de la proposicion
5.1.3, si A es inversible,
Ax = x A
1
x =
1

x.
Por tanto, si A es unitaria tenemos que A

x = A
1
x =
1

x. Teniendo
esto en cuenta se sigue que
1

< x, x >=<
1

x, x >=< A

x, x >=< x, (A

x >=
=< x, Ax >=< x, x >=

< x, x >,
y como < x, x >,= 0, nos queda
1

=

, es decir,

= [[
2
= 1 y
[[ = 1.

106 CAP

ITULO 6. PRODUCTO ESCALAR


6.5 Diagonalizacion unitaria
Se trata de estudiar cuando para una matriz A /
nn
(C) (A /
nn
(R))
existe una matriz unitaria (ortogonal) Q tal que Q
1
AQ sea diagonal. La
respuesta la da el siguiente resultado:
Teorema 6.5.1 (Teorema de Schur) Se verica que
i) Dada A /
nn
(C) existe una matriz unitaria Q /
nn
(C) tal que
Q
1
AQ = Q

AQ es triangular superior.
ii) Dada A /
nn
(K), se tiene que A es normal si y s olo si existe una
matriz unitaria Q /
nn
(C) tal que Q
1
AQ = Q

AQ es diagonal.
iii) Dada A /
nn
(R), se tiene que A es simetrica si y s olo si existe una
matriz ortogonal Q /
nn
(R) tal que Q
1
AQ = Q
t
AQ es diagonal.
Observacion 6.5.1 En los tres casos, los elementos de la diagonal principal
de Q
1
AQ son los autovalores de A.
Observacion 6.5.2 En ii) (en iii)) el sistema dado por las columnas de
Q /
nn
(C) (de Q /
nn
(R)) es una base ortonormal de C
n
(de R
n
)
formada por autovectores de A.
Notemos que la primera observacion se sigue de que Q
1
AQ es semejante
a A. La segunda se sigue de que Q
1
AQ es diagonal si y solo si las columnas
de Q son una base de C
n
( o de R
n
) formada por autovectores de A. Pero si
x
1
, x
2
, . . . , x
n
denotan las columnas de Q, entonces se tiene que
Q unitaria Q

Q = I
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
_
x
1
x
2
. . . x
n
_
= I
x

i
x
j
=
_
1 si i = j
0 si i ,= j
< x
j
, x
i
>=
_
1 si i = j
0 si i ,= j

x
1
, x
2
, . . . , x
n
es ortonormal.
El caso real se prueba del mismo modo.
Vamos a continuacion a dar la demostracion del teorema de Schur.
Demostracion:
6.5. DIAGONALIZACI

ON UNITARIA 107
i) Se probara por induccion en n.
Sea A /
22
(C). Sea Sp(A) y sea x
1
=
_

11

21
_
C
2
un
autovector de A asociado a . Podemos suponer que |x
1
| = 1 (sino
tomaramos
x
1
x
1

, que seguira siendo autovector de A asociado a


ya que E

= ker(A I) es un subespacio). Por el corolario 6.4.1


existe x
2
=
_

12

22
_
C
2
vericando que x
1
, x
2
es ortonormal. Sea
Q /
22
(C) la matriz cuyas columnas son x
1
y x
2
, es decir,
Q =
_

11

12

21

22
_
.
Entonces, por la observacion 6.5.2, Q

Q = I y Q es unitaria. Ademas,
la primera columna de Q

AQ es
Q

AQ
_
1
0
_
= Q

Ax
1
= Q

x
1
= Q

x
1
=
=
_
x

1
x

2
_
x
1
=
_
x

1
x
1
x

2
x
1
_
=
_
1
0
_
=
_

0
_
.
As, Q

AQ =
_

0
_
es triangular superior.
Supongamos cierto el resultado para matrices de tama no menor o igual
que n 1. Sea A /
nn
(C). Sea Sp(A) y sea x
1
C
n
un
autovector unitario asociado a . Como x
1
,= 0, entonces x
1
es
libre y ortonormal y, por el corolario 6.4.1, existe x
1
, x
2
, . . . , x
n
base
ortonormal de C
n
. Sea Q
1
/
nn
(C) la matriz cuyas columnas son
x
1
, x
2
, . . . , x
n
. As, Q

1
Q
1
= I porque x
1
, x
2
, . . . , x
n
es ortonormal, y
Q
1
es unitaria. Pongamos B = Q

1
AQ
1
. La primera columna de B es
B
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
= Q

1
AQ
1
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
= Q

1
Ax
1
= Q

1
x
1
=
= Q

1
x
1
=
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
x
1
=
_
_
_
_
_
x

1
x
1
x

2
x
1
.
.
.
x

n
x
1
_
_
_
_
_
=
_
_
_
_
_
1
0
.
.
.
0
_
_
_
_
_
=
_
_
_
_
_

0
.
.
.
0
_
_
_
_
_
.
108 CAP

ITULO 6. PRODUCTO ESCALAR


Escribimos entonces B como
B =
_

0 C
_
/
nn
(C),
con C /
(n1)(n1)
(C). Por hipotesis de induccion, existe una ma-
triz unitaria Q
2
/
(n1)(n1)
(C) tal que Q

2
CQ
2
es triangular supe-
rior. Sea
Q
3
=
_
1 0
0 Q
2
_
/
nn
(C),
que es unitaria por serlo Q
2
:
Q

3
Q
3
=
_
1 0
0 Q

2
__
1 0
0 Q
2
_
=
_
1 0
0 Q

2
Q
2
_
=
_
1 0
0 I
n1
_
= I
n
.
Pongamos Q = Q
1
Q
3
. Entonces Q es unitaria pues
Q

Q = (Q
1
Q
3
)

Q
1
Q
3
= Q

3
Q

1
Q
1
Q
3
=
= Q

3
IQ
3
= Q

3
Q
3
= I.
Finalmente,
Q

AQ = Q

3
Q

1
AQ
1
Q
3
= Q

3
BQ
3
=
=
_
1 0
0 Q

2
__

0 C
__
1 0
0 Q
2
_
=
=
_

0 Q

2
CQ
2
_
,
que es triangular superior por serlo Q

2
CQ
2
.
ii) Si Q es la matriz dada en el apartado i), entonces Q

AQ es triangular
superior, y ademas, es normal por serlo A, ya que
(Q

AQ)

(Q

AQ) = Q

QQ

AQ = Q

AQ,
(Q

AQ)(Q

AQ)

= Q

AQQ

Q = Q

AA

Q,
y si A

A = AA

, entonces tambien es
(Q

AQ)

(Q

AQ) = (Q

AQ)(Q

AQ)

.
El resultado se sigue entonces de que toda matriz normal y triangular
superior es diagonal.
6.5. DIAGONALIZACI

ON UNITARIA 109
iii) Veamos cada una de las implicaciones:
Toda matriz A /
nn
(R) simetrica es normal. Ademas, A
tiene autovalores y autovectores reales. En consecuencia, la matriz Q
del apartado ii) es real (y por tanto ortogonal) y Q
t
AQ es diagonal.
Si Q
t
AQ = D es diagonal, entonces, como Q es ortogonal resulta
A = QDQ
t
, y por tanto
A
t
= (QDQ
t
)
t
= QD
t
Q
t
= QDQ
t
= A,
porque, como D es diagonal, es D = D
t
. As, A es simetrica.

Observacion 6.5.3 Toda matriz A hermitiana, unitaria, ortogonal o an-


tisimetrica es normal, y por tanto, existe Q /
nn
(C) unitaria tal que
Q
1
AQ = Q

AQ es diagonal.
Corolario 6.5.1 A /
nn
(C) normal existe una base ortonormal de
C
n
formada por autovectores de A.
Corolario 6.5.2 A /
nn
(R) simetrica existe una base ortonormal de
R
n
formada por autovectores de A.
Corolario 6.5.3 Sea A /
nn
(C) hermitiana o A /
nn
(R) simetrica.
Entonces A es denida positiva (semidenida positiva) si y s olo si todos los
autovalores de A son positivos (no negativos). An alogamente, A es denida
negativa (semidenida negativa) si y s olo si todos los autovalores de A son
negativos (menores o iguales que 0)
Demostracion:
Veamos solo la primera observacion.
Ya se demostro en la proposicion 6.4.3.
Sean
1
,
2
, . . . ,
n
los autovalores de A. Sea Q /
nn
(C) unitaria
y tal que
Q
1
AQ = Q

AQ = D = diag(
1
,
2
, . . . ,
n
).
Entonces A = QDQ
1
= QDQ

. Sea x C
n
, x ,= 0. Si ponemos
y = Q
1
x = Q

x =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
,
110 CAP

ITULO 6. PRODUCTO ESCALAR


resulta que
x

Ax = x

QDQ

x = (Q

x)

D(Q

x) = y

Dy =

1
[
1
[
2
+
2
[
2
[
2
+ +
n
[
n
[
2
.
Y como todos los autovalores de A son positivos (no negativos) y como
y ,= 0 ya que x ,= 0 y Q
1
es inversible, entonces x

Ax > 0 (x

Ax 0).

Corolario 6.5.4 Si A /
nn
(C) es hermitiana (o A /
nn
(R) es
simetrica) y denida positiva, entonces det(A) > 0.
Corolario 6.5.5 Una matriz simetrica A /
nn
(R) es denida positiva
si y s olo si los determinantes de las n submatrices principales de A son
positivos.
Demostracion:
Es consecuencia inmediata del corolario 6.5.4 y la observacion 3.5.1.
El hecho de que los determinantes de las n submatrices principales
de A sean positivos implica, seg un la demostracion del teorema 4.3.2, que
existe B /
nn
(R) tal que A = BB
t
. Sea x R
n
, x ,= 0. Si [[ [[ denota la
norma en R
n
, se tiene que
x
t
Ax = x
t
BB
t
x = (B
t
x)
t
(B
t
x) = [[B
t
x[[
2
> 0,
porque B ( y por tanto B
t
) es inversible y porque x ,= 0. Por tanto, A es
denida positiva.
Observacion 6.5.4 El corolario 6.5.5 muestra que una matriz simetrica ad-
mite factorizacion de Cholesky si es denida positiva, tal y como se haba
comentado anteriormente en la observacion 4.3.4.
La factorizacion de Cholesky permite tambien evaluar la inversa de una
matriz inversible y resolver, por tanto, sistemas de ecuaciones lineales cuadra-
dos compatibles determinados:
Lema 6.5.1 Si A /
mn
(R), entonces A
t
A es simetrica y semidenida
positiva. Si A /
nn
(R) es inversible, entonces A
t
A es simetrica y denida
positiva.
6.5. DIAGONALIZACI

ON UNITARIA 111
Demostracion:
Si A /
mn
(R), la matriz A
t
A /
nn
(R) es simetrica porque se
verica que (A
t
A)
t
= A
t
(A
t
)
t
= A
t
A. Por otra parte, si x R
n
resulta que
x
t
A
t
Ax = (Ax)
t
Ax 0
y por tanto, A es semidenida positiva. Ademas, si A /
nn
(R) es in-
versible, entonces, para x R
n
, x ,= 0, es Ax ,= 0 y
x
t
A
t
Ax = (Ax)
t
Ax > 0,
con lo cual, si A /
nn
(R) es inversible, A
t
A es denida positiva.

Lema 6.5.2 Si A /
nn
(R) es inversible, entonces
A
1
= (B
1
)
t
B
1
A
t
,
siendo BB
t
la factorizacion de Cholesky de la matriz simetrica y denida
positiva A
t
A.
Demostracion:
Como A
t
A = BB
t
, entonces A = (A
t
)
1
BB
t
y
A
1
= ((A
t
)
1
BB
t
)
1
= (B
1
)
t
B
1
A
t
.

Ejemplo:
Sea la matriz
A =
_
_
_
_
0 0 1 2
0 1 0 0
1 0 0 2
2 0 2 3
_
_
_
_
/
44
(R),
que es simetrica (y por tanto existe una matriz ortogonal Q vericando que
Q
t
AQ = D es diagonal). El espectro de A es
Sp(A) = 1, 5, m.a.(1) = 3, m.a.(5) = 1,
y en consecuencia, D = diag(1, 1, 1, 5). Los subespacios propios asocia-
dos a -1 y 5 son
E
1
= ker(A+I) = ker
_
_
_
_
1 0 1 2
0 0 0 0
1 0 1 2
2 0 2 4
_
_
_
_
=
_
_
_
_
0
1
0
0
_
_
_
_
,
_
_
_
_
1
0
1
0
_
_
_
_
,
_
_
_
_
0
0
2
1
_
_
_
_
,
112 CAP

ITULO 6. PRODUCTO ESCALAR


E
5
= ker(A 5I) = ker
_
_
_
_
5 0 1 2
0 6 0 0
1 0 5 2
2 0 2 2
_
_
_
_
=
_
_
_
_
1
0
1
2
_
_
_
_
.
Para determinar las columnas de Q se aplica el proceso de ortonormali-
zacion de Gram-Schmidt a los vectores de las bases dadas para E
1
y E
5
por
separado.
As, si
T = v
1
=
_
_
_
_
0
1
0
0
_
_
_
_
, v
2
=
_
_
_
_
1
0
1
0
_
_
_
_
, v
3
=
_
_
_
_
0
0
2
1
_
_
_
_

y aplicamos el proceso de ortonormalizacion de Gram-Schmidt a T obtenemos


S = u
1
=
_
_
_
_
0
1
0
0
_
_
_
_
, u
2
=
_
_
_
_
1

2
0
1

2
0
_
_
_
_
, u
3
=
_
_
_
_
_
1

3
0
1

3
1

3
_
_
_
_
_
,
y si
T = v
1
=
_
_
_
_
1
0
1
2
_
_
_
_

y aplicamos el proceso de ortonormalizacion de Gram-Schmidt a T obtenemos


S = u
1
=
_
_
_
_
_
1

6
0
1

6
2

6
_
_
_
_
_
.
Por consiguiente,
Q =
_
_
_
_
_
0
1

2
1

3
1

6
1 0 0 0
0
1

2
1

3
1

6
0 0
1

3
2

6
_
_
_
_
_
,
6.6. DESCOMPOSICI

ON EN VALORES SINGULARES 113


o bien, de modo equivalente,

_
_
_
_
0
1
0
0
_
_
_
_
,
_
_
_
_
1

2
0
1

2
0
_
_
_
_
,
_
_
_
_
_
1

3
0
1

3
1

3
_
_
_
_
_
,
_
_
_
_
_
1

6
0
1

6
2

6
_
_
_
_
_

es una base ortonormal de R


4
formada por autovectores de A.
Ejercicio:
1. Sea U = (
ij
) /
nn
(C) una matriz triangular superior e inversible.
Demostrar que U se puede descomponer en una suma de n matrices,
U = U
1
+ U
2
+ + U
n
,
tales que para todo i = 1, 2, . . . , n es rango(U
i
) = 1 y Sp(U
i
) = 0,
ii
,
con m.a.(0) = n 1 y m.a.(
ii
) = 1.
2. Sea A /
nn
(C) una matriz inversible con autovalores
1
,
2
, . . . ,
n
.
Utilizando el teorema de Schur (teorema 6.5.1), demostrar que A se
puede descomponer en una suma de n matrices,
A = A
1
+ A
2
+ + A
n
,
tales que para todo i = 1, 2, . . . , n es rango(A
i
) = 1 y Sp(A
i
) = 0,
i
,
con m.a.(0) = n 1 y m.a.(
i
) = 1.
6.6 Descomposicion en valores singulares
En lo que sigue, < , > denotara el producto escalar de vectores de R
n
y | |
la aplicacion norma en R
n
.
Sea A /
mn
(R) una matriz de tama no mn.
Proposicion 6.6.1 ker(A) = ker(A
t
A) y rango(A) = rango(A
t
A).
Demostracion:
Si x ker(A), entonces Ax = 0, con lo cual A
t
Ax = 0 y x ker(A
t
A).
Por otra parte, si x ker(A
t
A), se tiene
A
t
Ax = 0 x
t
A
t
Ax = 0 (Ax)
t
Ax = 0 Ax = 0 x ker(A).
Esto prueba que ker(A) = ker(A
t
A). Ademas,
rango(A) = n dim(ker(A)) = n dim(ker(A
t
A)) = rango(A
t
A).

114 CAP

ITULO 6. PRODUCTO ESCALAR


Corolario 6.6.1 rango(A) = rango(AA
t
).
Demostracion:
Es debido a que rango(A) = rango(A
t
) = rango((A
t
)
t
A
t
) = rango(AA
t
).

Denicion 6.6.1 Se llaman valores singulares de A a las races cuadradas


no negativas de los autovalores de la matriz A
t
A /
nn
(R). Es de-
cir, si Sp(A
t
A) =
1
,
2
, . . . ,
n
, los valores singulares de A son

1
,

2
, . . . ,

n
. Se suelen denotar por
1
,
2
, . . . ,
n
, y se representan en
orden decreciente,
1

2

n
0.
Observacion 6.6.1 Si rango(A) = r, entonces rango(A
t
A) = r y los r
primeros valores singulares de A son positivos, mientras que los nr restantes
son cero.
Observacion 6.6.2 A y A
t
tienen los mismos valores singulares no nulos
ya que los autovalores no nulos de A
t
A y de AA
t
coinciden. En efecto, sea
Sp(A
t
A), ,= 0, y sea x R
n
, x ,= 0, tal que A
t
Ax = x. Entonces se
tiene que
(AA
t
)Ax = A(x) = Ax.
Como Ax ,= 0 (si fuese Ax = 0 sera A
t
Ax = x = 0, lo cual es falso),
entonces Ax es un autovector de AA
t
asociado al autovalor . Esto prueba
que
Sp(A
t
A), ,= 0 Sp(AA
t
).
La otra implicacion es analoga.
Obviamente, si m ,= n, una de las matrices A o A
t
tiene mas valores
singulares nulos que la otra, pues A
t
A /
nn
(R) y AA
t
/
mm
(R).
Observacion 6.6.3 Si A /
nn
(R) es una matriz simetrica con autova-
lores
1
,
2
, . . . ,
n
, entonces sus valores singulares son [
1
[, [
2
[, . . . , [
n
[.
Teorema 6.6.1 (Descomposicion en valores singulares) Supongamos
que r = rango(A). Sean

1

2

r
> 0
los valores singulares no nulos de A. Entonces existen P /
mm
(R) y
Q /
nn
(R) ortogonales tales que
P
t
AQ = P
1
AQ =
_
_
_
_
_
_
_

2
.
.
.

r
0
0 0
_
_
_
_
_
_
_
/
mn
(R).
6.6. DESCOMPOSICI

ON EN VALORES SINGULARES 115


Vamos a ver a continuacion el metodo para la construccion de las matrices
P y Q.
En primer lugar, las columnas de Q son una base ortonormal de R
n
formada por autovectores de A
t
A (tal base existe, porque A
t
A es simetrica
y basta aplicar el corolario 6.5.2). Por otra parte, si x
1
, x
2
, . . . , x
n
denotan
las columnas de Q e y
1
, y
2
, . . . , y
m
denotan las columnas de P, entonces y
1
,
y
2
, . . . , y
m
se construyen del siguiente modo:
Para i = 1, 2, . . . , r, es y =
1

i
Ax
i
.
Las columnas y
r+1
, y
r+2
, . . . , y
m
se construyen de tal manera que el
sistema y
1
, y
2
, . . . , y
r
, y
r+1
, y
r+2
, . . . , y
m
sea una base ortonormal de
R
m
. Como norma, y
r+1
, y
r+2
, . . . , y
m
se puede elegir como una base
ortonormal de ker(AA
t
), que es tambien una base ortonormal de ker(A
t
)
(vease la proposicion 6.6.1).
Ejemplo:
Vamos a calcular los valores singulares y la descomposicion en valores
singulares de la matriz
A =
_
_
2 1
2 1
4 2
_
_
/
32
(R).
Puesto que A
t
A =
_
24 12
12 6
_
/
22
(R), se sigue que
p
A
t
A
() = det(A
t
A I) =

24 12
12 6

=
2
30,
resultando Sp(A
t
A) = 30, 0. En consecuencia, los valores singulares de A
son
1
=

30 y
2
= 0. Construimos a continuacion las matrices P y Q. Se
tiene que
E
30
= ker(A
t
A 30I) = ker
_
6 12
12 24
_
=
_
2
1
_
),
E
0
= ker(A
t
A) =
_
1
2
_
),
y como <
_
2
1
_
,
_
1
2
_
>= 0, resulta que una base ortonormal de R
2
formada por autovectores de A
t
A es B
R
2 = x
1
, x
2
, con
x
1
=
_
2/

5
1/

5
_
, x
2
=
_
1/

5
2/

5
_
.
116 CAP

ITULO 6. PRODUCTO ESCALAR


De este modo
Q =
_
2/

5 1/

5
1/

5 2/

5
_
/
22
(R).
Por otra parte, rango(A) = 1 < 3 = m. Entonces, si y
1
, y
2
, y
3
denotan
las columnas de P, resulta que
y
1
=
1

1
Ax
1
=
1

30
_
_
2 1
2 1
4 2
_
_
_
2/

5
1/

5
_
=
_
_
1/

6
1/

6
2/

6
_
_
.
Ademas,
ker(A
t
) = ker
_
2 2 4
1 1 2
_
=<
_
_
1
1
0
_
_
,
_
_
0
2
1
_
_
> .
Aplicando el proceso de ortonormalizacion de Gram-Schmidt a la base
que hemos dado de ker(A
t
A) obtenemos
y
2
=
_
_
1/

2
1/

2
0
_
_
,
h =
_
_
0
2
1
_
_
<
_
_
0
2
1
_
_
,
_
_
1/

2
1/

2
0
_
_
>
_
_
1/

2
1/

2
0
_
_
=
_
_
1
1
1
_
_
,
y
3
=
h
|h|
=
_
_
1/

3
1/

3
1/

3
_
_
.
As,
P =
_
_
_
1

6
1

2
1

3
1

6
1

2
1

3
2

6
0
1

3
_
_
_
/
33
(R),
y P y Q son tales que
P
t
AQ =
_
_

30 0
0 0
0 0
_
_
/
32
(R).
6.6. DESCOMPOSICI

ON EN VALORES SINGULARES 117


Teorema 6.6.2 Sea A /
mn
(R) una matriz de rango r. Sean

1

2

r
> 0
los valores singulares no nulos de A y sean P /
mm
(R) y Q /
nn
(R)
ortogonales tales que
P
t
AQ = P
1
AQ =
_
_
_
_
_
_
_

2
.
.
.

r
0
0 0
_
_
_
_
_
_
_
/
mn
(R).
Sean x
1
, x
2
, . . . , x
r
las r primeras columnas de Q e y
1
, y
2
, . . . , y
r
las r
primeras columnas de P. Entonces
A =
1
y
1
x
t
1
+
2
y
2
x
t
2
+ +
r
y
r
x
t
r
.
Demostracion:
Sea sigue de desarrollar la igualdad
A = P
_
_
_
_
_
_
_

2
.
.
.

r
0
0 0
_
_
_
_
_
_
_
Q
t
.

Denicion 6.6.2 Con las notaciones anteriores, sean A /


mn
(R) con
rango(A) = r y
A =
1
y
1
x
t
1
+
2
y
2
x
t
2
+ +
r
y
r
x
t
r
.
Para k = 1, 2, . . . , r, se llama aproximaci on de rango k de A a la suma de
los k primeros sumandos del miembro de la derecha de la igualdad anterior,
es decir, a la matriz

1
y
1
x
t
1
+
2
y
2
x
t
2
+ +
k
y
k
x
t
k
/
mn
(R).
118 CAP

ITULO 6. PRODUCTO ESCALAR


6.7 Aplicaciones del algebra lineal
6.7.1 Mnimos cuadrados y proyeccion ortogonal
Sean A /
mn
(R) y b R
m
. Consideremos el SEL Ax = b, x R
n
.
Ya sabemos que el SEL es incompatible si b / Im(A) = Ay / y R
n
.
Nos planteamos ahora encontrar una solucion aproximada de Ax = b cuando
Ax = b sea incompatible, es decir, se trata de encontrar un vector z R
n
tal
que v = Az R
m
este lo mas proximo posible a b.
Denicion 6.7.1 Sea U un subespacio de R
m
; diremos que v U es la
mejor aproximaci on de b R
m
por vectores de U en el sentido de los mnimos
cuadrados si
|v b| = min
uU
|u b|.
Observacion 6.7.1 El nombre de mnimos cuadrados se debe a que mini-
mizar |u b| es equivalente a minimizar |u b|
2
, siendo
|u b|
2
=
m

i=1
(
i

i
)
2
,
con u = (
1
,
2
, . . . ,
m
)
t
y b = (
1
,
2
, . . . ,
m
)
t
.
Proposicion 6.7.1 El vector v U es la mejor aproximaci on de b por vec-
tores del subespacio U R
m
en el sentido de los mnimos cuadrados si v b
es ortogonal a todos los vectores de U, es decir, si
< v b, u >= 0 , para todo u U.
Demostracion:
Dado u U, si v b es ortogonal a todos los vectores de U se tiene que
|u b|
2
= |u v + v b|
2
=
=< (uv)+(vb), (uv)+(vb) >= |uv|
2
+|vb|
2
+2 < uv, vb >=
= |u v|
2
+|v b|
2
.
Puesto que |u v|
2
0, resulta entonces que
|v b|
2
|u b|
2
, u U,
o bien,
|v b| |u b| , u U,
y v es la mejor aproximacion de b por vectores de U en el sentido de los
mnimos cuadrados.
6.7. APLICACIONES DEL

ALGEBRA LINEAL 119
Denicion 6.7.2 Diremos que un vector z R
n
es una solucion del pro-
blema de mnimos cuadrados para el SEL Ax = b si Az es la mejor aproxi-
macion de b por vectores del subespacio Im(A) en el sentido de los mnimos
cuadrados.
Teorema 6.7.1 El conjunto de soluciones del problema de los mnimos cuadra-
dos para el SEL Ax = b coincide con el conjunto de soluciones del SEL
A
t
Ax = A
t
b.
Demostracion:
Sea z R
n
una solucion del problema de mnimos cuadrados para el SEL
Ax = b. Entonces, Az b es ortogonal a cualquier vector del subespacio
Im(A) = Ay / y R
n
. Por tanto,
0 =< Az b, Ay >= (Ay)
t
(Az b) = y
t
A
t
(Az b) =
y
t
(A
t
Az A
t
b) =< A
t
Az A
t
b, y >
para todo y R
n
; esto ocurre si y solo si A
t
Az A
t
b = 0, es decir, si y solo
si
A
t
Az = A
t
b.

Observacion 6.7.2 Las ecuaciones derivadas del SEL A


t
Ax = A
t
b se cono-
cen con el nombre de ecuaciones normales del problema.
Observacion 6.7.3 Si A
t
A es inversible, el problema de mnimos cuadrados
para el SEL Ax = b tiene solucion unica igual a
x = (A
t
A)
1
A
t
b.
Si A
t
A no es inversible, el problema de mnimos cuadrados para el SEL
Ax = b tiene innitas soluciones, que estan dadas (vease la proposicion 6.6.1)
por
z + Ker(A
t
A) = z + ker(A),
donde z R
n
es una solucion particular del problema, es decir, una solucion
particular del SEL A
t
Ax = A
t
b.
Observacion 6.7.4 Sea r = rango(A). Sea B
U
= v
1
, v
2
, . . . , v
r
una base
ortonormal de U = Im(A), base que podemos ampliar a una base ortonormal
B
R
m = u
1
, u
2
, . . . , u
r
, u
r+1
, u
r+2
, . . . , u
m
de R
m
. Si escribimos
b =
1
u
1
+
2
u
2
+ +
r
u
r
+
r+1
u
r+1
+
r+2
u
r+2
+ +
m
u
m
,
120 CAP

ITULO 6. PRODUCTO ESCALAR


entonces el vector
w =
1
u
1
+
2
u
2
+ +
r
u
r
U = Im(A)
verica que w b =
r+1
u
r+1

r+2
u
r+2

m
u
m
es ortogonal a
cualquier vector de U = Im(A).
Sea ahora, en general, U un subespacio r-dimensional de R
m
. Sea b R
m
.
Denicion 6.7.3 Se llama proyeccion ortogonal de b sobre U al unico vector
w U que verica que w b es ortogonal a todos los vectores de U.
Observacion 6.7.5 El vector w de la observacion 6.7.4 es la proyeccion
ortogonal de b sobre U = Im(A).
Proposicion 6.7.2 Sea B
U
= u
1
, u
2
, . . . , u
r
una base ortonormal de U.
La proyeccion ortogonal de b sobre U est a dada por
< b, u
1
> u
1
+ < b, u
2
> u
2
+ + < b, u
r
> u
r
.
Demostracion:
Sean x R
m
y B = a
1
, a
2
, . . . , a
m
una base ortonormal de R
m
. En-
tonces, la expresion de x en coordenadas en la base B es
x =< x, a
1
> a
1
+ < x, a
2
> a
2
+ + < x, a
m
> a
m
.
En efecto, si x =
1
a
1
+
1
a
2
+ +
m
a
m
, entonces para cada i =
1, 2, . . . , m se tiene que
< x, a
i
>=<
1
a
1
+
1
a
2
+ +
m
a
m
, a
i
>=
=
1
< a
1
, a
i
> +
2
< a
2
, a
i
> + +
m
< a
m
, a
i
>=
i
,
porque B es ortonormal.
Usando el corolario 6.4.1, sea
B
R
m = u
1
, u
2
, . . . , u
r
, u
r+1
, u
r+2
, . . . , u
m

una base ortonormal de R


m
. Entonces
b =< b, u
1
> u
1
+ < b, u
2
> u
2
+ + < b, u
r
> u
r
+
+ < b, u
r+1
> u
r+1
+ < b, u
r+2
> u
r+2
+ + < b, u
m
> u
m
6.7. APLICACIONES DEL

ALGEBRA LINEAL 121
y se tiene que el vector w =< b, u
1
> u
1
+ < b, u
2
> u
2
+ + < b, u
r
> u
r
verica que
w b = < b, u
r+1
> u
r+1
< b, u
r+2
> u
r+2
< b, u
m
> u
m
.
Es decir, w b < u
r+1
, u
r+2
, . . . , u
m
> y como B
R
m es ortonormal,
entonces w b es ortogonal a todos los vectores de U y w es la proyeccion
ortogonal de b sobre U.
Observacion 6.7.6 El SEL A
t
Ax = A
t
b es siempre compatible, pues la
proyeccion ortogonal w de b sobre Im(A), que siempre existe, es una solucion
del problema de mnimos cuadrados para el SEL Ax = b.
Ejemplo:
Se considera el SEL Ax = b siendo
A =
_
_
_
_
1 2 1
1 2 2
1 2 2
1 2 1
_
_
_
_
/
43
(R), b =
_
_
_
_
4
6
1
2
_
_
_
_
R
4
.
Es facil ver que el SEL es incompatible. Se trata de encontrar el conjunto
de soluciones del problema de mnimos cuadrados para el SEL Ax = b. Se
tiene que
A
t
A =
_
_
4 8 0
8 16 0
0 0 10
_
_
, A
t
b =
_
_
13
26
12
_
_
.
Por tanto, poniendo x = (
1
,
2
,
3
)
t
resulta que
A
t
Ax = A
t
b
_
_
4 8 0
8 16 0
0 0 10
_
_
_
_

3
_
_
=
_
_
13
26
12
_
_

_
4
1
+ 8
2
= 13
10
3
= 12
y el conjunto de soluciones es
_
_
13/4
0
6/5
_
_
+ <
_
_
2
1
0
_
_
>,
122 CAP

ITULO 6. PRODUCTO ESCALAR


donde <
_
_
2
1
0
_
_
>= ker(A
t
A) = ker(A).
Ejemplo:
Se considera el SEL Ax = b siendo
A =
_
_
_
_
3 1 3
1 1 1
1 1 1
3 1 3
_
_
_
_
/
43
(R), b =
_
_
_
_
3
1
5
5
_
_
_
_
R
4
.
Observemos, ante todo, que ahora rango(A) = 3, con lo cual, rango(A
t
A) =
3 y el problema de mnimos cuadrados tiene solucion unica. Se tiene que
A
t
A =
_
_
20 0 16
0 4 0
16 0 20
_
_
, A
t
b =
_
_
20
8
28
_
_
.
Por tanto, si x = (
1
,
2
,
3
)
t
resulta
A
t
Ax = A
t
b
_
_
_
20
1
+ 16
3
= 20
4
2
= 8
16
1
+ 20
3
= 28

_
_
_
5
1
+ 4
3
= 5

2
= 2
4
1
+ 5
3
= 7
x =
_
_

3
_
_
=
_
_
1/3
2
5/3
_
_
.
6.7.2 Ajuste polinomico
El problema de ajuste polinomico consiste en calcular un polinomio que
ajuste a una serie de puntos del plano (
1
,
1
), (
2
,
2
), . . . , (
m
,
m
). Es
decir, se trata de obtener un polinomio q de tal manera que para todo
i = 1, 2, . . . , m, q(
i
) esta lo mas proximo posible a
i
. Si el polinomio
es de grado uno, se hablara de ajuste lineal, y si es de grado dos, se hablara
de ajuste cuadratico o parabolico. En general, si queremos encontrar el poli-
nomio de grado n 1,
q() =
0
+
1
+
2

2
+ +
n1

n1
,
que mejor ajuste los datos (
1
,
1
), (
2
,
2
), . . . , (
m
,
m
), se plantea el SEL

0
+
1

1
+
2

2
1
+ . . . +
n1

n1
1
=
1

0
+
1

2
+
2

2
2
+ . . . +
n1

n1
2
=
2
. . . . . . . . . . . . . . . . . . . . . . . . . . .

0
+
1

m
+
2

2
m
+ . . . +
n1

n1
m
=
m
6.7. APLICACIONES DEL

ALGEBRA LINEAL 123
que, matricialmente, se escribe como
_
_
_
_
_
1
1

2
1
. . .
n1
1
1
2

2
2
. . .
n1
2
.
.
.
.
.
.
.
.
.
.
.
.
1
m

2
m
. . .
n1
m
_
_
_
_
_
_
_
_
_
_
_
_

2
.
.
.

n1
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_

2
.
.
.

m
_
_
_
_
_
_
_
.
El SEL es, en general, incompatible, y por lo tanto, buscaremos la solucion
del problema de mnimos cuadrados asociado.
Ejemplo:
Se desea determinar el ajuste parabolico optimo para la tabla de datos

i
0 1/2 1 3/2 2

i
0 1/2 1 1/2 0
Pongamos q() =
0
+
1
+
2

2
. Si ponemos
A =
_
_
_
_
_
_
1 0 0
1 1/2 1/4
1 1 1
1 3/2 9/4
1 2 4
_
_
_
_
_
_
, b =
_
_
_
_
_
_
0
1/2
1
1/2
0
_
_
_
_
_
_
, x =
_
_

2
_
_
,
resulta que el SEL Ax = b es incompatible. Ademas, rango(A) = 3, de tal
modo que
A
t
A =
_
_
5 5 15/2
5 15/2 25/2
15/2 25/2 177/8
_
_
es inversible. Puesto que
A
t
b =
_
_
2
2
9
4
_
_
se tiene que la solucion del problema de mnimos cuadrados para el SEL
Ax = b es
x = (A
t
A)
1
A
t
b =
_
_
1/35
12/7
6/7
_
_
,
de tal modo que
q() =
1
35
+
12
7

6
7

2
124 CAP

ITULO 6. PRODUCTO ESCALAR


es la parabola que mejor ajusta los datos.
Ejemplo:
Se trata ahora de aproximar por una parabola los puntos (0, 1), (1, 3),
(2, 4) y (3, 4). Para ello, consideremos la tabla

i
0 1 2 3

i
1 3 4 4
y pongamos q() =
0
+
1
+
2

2
. Sean
A =
_
_
_
_
1 0 0
1 1 1
1 2 4
1 3 9
_
_
_
_
, b =
_
_
_
_
1
3
4
4
_
_
_
_
, x =
_
_

2
_
_
.
Ahora bien, en este caso, el SEL Ax = b es compatible determinado, pues
Ax = b
_

0
= 1

0
+
1
+
2
= 3

0
+ 2
1
+ 4
2
= 4

0
+ 3
1
+ 9
2
= 4

0
= 1

1
+
2
= 2
2
1
+ 4
2
= 3
3
1
+ 9
2
= 3

0
= 1,
1
=
5
2
,
2
=
1
2
.
En consecuencia, la parabola buscada es q() = 1 +
5
2

1
2

2
, y pasa por
los cuatro puntos (0, 1), (1, 3), (2, 4) y (3, 4).
Observacion 6.7.7 La aproximacion en el sentido de los mnimos cuadrados
por un polinomio q() de los puntos (
1
,
1
), (
2
,
2
), . . . , (
m
,
m
) minimiza
la suma de los cuadrados de las distancias de q(
i
) a
i
, i = 1, 2, . . . , m.
Observacion 6.7.8 Si
i
,=
j
para i ,= j, i, j = 1, 2, . . . , m, entonces
existe un unico polinomio q() de grado menor o igual que m 1, tal que
q(
i
) =
i
, i = 1, 2, . . . , m. Esto es debido a que en ese caso la matriz del
SEL es cuadrada y su determinante esta dado por

1
1

2
1
. . .
m1
1
1
2

2
2
. . .
m1
2
.
.
.
.
.
.
.
.
.
.
.
.
1
m

2
m
. . .
m1
m

1 1 1 . . . 1

1

2

3
. . .
m

2
1

2
2

2
3
. . .
2
m
.
.
.
.
.
.
.
.
.
.
.
.

m1
1

m1
2

m1
3
. . .
m1
m

i<j
(
j

i
),
que es no nulo. Este determinante se conoce con el nombre de determinante
de Vandermonde.
6.7. APLICACIONES DEL

ALGEBRA LINEAL 125
6.7.3 Formas cuadraticas
Denicion 6.7.4 Una forma cuadratica sobre R
n
es una aplicaci on de la
forma
: x R
n
(x) = x
t
Ax R
donde A /
nn
(R) es una matriz simetrica, que se dir a matrix asociada a
la forma cuadratica, o simplemente, matriz de la forma cuadr atica.
Sean A = (
ij
) /
nn
(R) simetrica y : x R
n
(x) = x
t
Ax R
una forma cuadratica. Si x = (
1
,
2
, . . . ,
n
)
t
R
n
, entonces
(x) =
n

i,j=1

ij

j
=
n

i=1

ii

2
i
+

1i<jn
2
ij

j
.
Si una forma cuadratica sobre R
n
esta dada, para x = (
1
,
2
, . . . ,
n
)
t

R
n
, por (x) =

n
i=1

ii

2
i
+

1i<jn
2
ij

j
, entonces existe una unica
matriz simetrica A /
nn
(R), que es precisamente A = (
ij
), vericando
que (x) = x
t
Ax, x R
n
.
Ejemplo:
La matriz de la forma cuadratica sobre R
3
denida por
: x R
3
(x) = 4
2
1
+ 6
1

2
+ 9
2
2
+
2
3
R
es A =
_
_
4 3 0
3 9 0
0 0 1
_
_
.
Proposicion 6.7.3 Se verica que:
i) (0) = 0.
ii) (x) =
2
(x), para cualquier R.
Denicion 6.7.5 La forma cuadratica se dice no degenerada si se verica
que rango(A) = n, es decir, si det(A) ,= 0; en caso contrario se dice
degenerada.
Las formas cuadraticas se clasican atendiendo a las caractersticas de
las matrices simetricas que se dan en la denicion 3.2.13. En concreto, la
forma cuadratica (x) = x
t
Ax se dice denida positiva, semidenida positiva,
denida negativa o semidenida negativa si la matriz simetrica A es denida
positiva, semidenida positiva, denida negativa o semidenida negativa res-
pectivamente. Si la matriz A no es ni denida positiva, ni semidenida
positiva, ni denida negativa, ni semidenida negativa, la forma cuadratica
se dice indenida.
Del corolario 6.5.3 se sigue:
126 CAP

ITULO 6. PRODUCTO ESCALAR


Proposicion 6.7.4 La forma cuadratica (x) = x
t
Ax es
i) denida positiva si y s olo si todos los autovalores de A son positivos.
ii) semidenida positiva si y s olo si todos los autovalores de A son no
negativos.
iii) denida negativa si y s olo si todos los autovalores de A son negativos.
iv) semidenida negativa si y s olo si todos los autovalores de A son menores
o iguales que 0.
v) indenida en otro caso.
Si una forma cuadratica es denida positiva o denida negativa, entonces
es no degenerada. Si una forma cuadratrica es semidenida positiva y no
es denida positiva, o es semidenida negativa y no es denida negativa,
entonces es degenerada. Si una forma cuadratica es indenida, entonces
puede ser degenerada o no degenerada.
Ejemplo:
La forma cuadratica
: x R
3
(x) = 4
2
1
+ 6
1

2
+ 9
2
2
+
2
3
R
del ejemplo 6.7.3 es denida positiva (y por tanto no degenerada), pues
det(A I) =

4 3 0
3 9 0
0 0 1

= (1 )(36 13 +
2
9) =
= (1 )(
2
13 + 27) = (1 )(
13 +

61
2
)(
13

61
2
),
y sus tres autovalores, 1,
13+

61
2
y
13

61
2
son positivos.
Ejemplo:
Consideremos la forma cuadratica
: x R
3
(x) =
2
1
2
1

2
+
2
2
+ 2
1

3
+
2
3
R,
cuya matriz es
A =
_
_
1 1 1
1 1 0
1 0 1
_
_
.
6.7. APLICACIONES DEL

ALGEBRA LINEAL 127
La forma cuadratica es indenida, pues por ejemplo,
_
_
1
0
0
_
_
= 1 > 0
y
_
_
1/2
1/2
1/2
_
_
=
1
4
< 0. De hecho, A tiene dos autovalores positivos,
que son 1 y 1 +

2, y uno negativo, que es 1

2. Ademas, puesto que


0 / Sp(A), resulta que rango(A) = 3 y A es no degenerada.
128 CAP

ITULO 6. PRODUCTO ESCALAR


REFERENCIAS
[1] P. G. Ciarlet, Introduction `a lanalyse numerique matricielle
et `a loptimisation.
Collection Mathematiques Appliquees pour la Matrise. Paris:
Masson (1998).
[2] G. H. Golub; C. F. Van Loan, Matrix computations.
Johns Hopkins Series in the Mathematical Sciences, 3. Baltimore
etc.: The Johns Hopkins University Press, (1989).
[3] P. Lancaster; M. Tismenetsky The theory of matrices.
Computer Science and Applied Mathematics. Orlando etc.: Aca-
demic Press (Harcourt Brace Jovanovich, Publishers), (1985).
[4] K. Nomizu Fundamentals of linear algebra
Maidenhead, Berkshire: McGraw-Hill Publishing Comp., Ltd,
(1966).
129

Anda mungkin juga menyukai