Anda di halaman 1dari 91

=

=
l gebr a l i neal
numr i c a c on
Mat l ab
=
Mt odos Mat emt i c os de
Espec i al i dad
(Mec ni c a-Mqui nas)
=
Escuela Tcnica Superior de Ingenieros Industriales
Universidad Politcnica de Madrid
Javier Garca de Jaln de la Fuente
Septiembre 2004
=
l gebr a l i neal
numr i c a c on Mat l ab
Mt odos Mat emt i c os de
Espec i al i dad
(Mec ni c a-Mqui nas)
Escuela Tcnica Superior de Ingenieros Industriales
Universidad Politcnica de Madrid
Javier Garca de Jaln de la Fuente
Septiembre 2004
ndice pg. i
LGEBRA LINEAL NUMRICA CON MATLAB
ndice
0. Prefacio....................................................................................................................................... v
1. Introduccin................................................................................................................................ 1
1.1 Tipos de matrices .......................................................................................................................... 1
1.2 Espacios vectoriales eucldeos...................................................................................................... 1
1.2.1 Definicin de producto escalar y de espacio vectorial eucldeo o hermtico............................... 1
1.2.2 Bases ortonormales en espacios eucldeos .................................................................................. 1
1.2.3 Coordenadas de un vector en una base ortonormal ..................................................................... 2
1.2.4 Existencia de bases ortonormales: mtodo de Gram-Schmidt..................................................... 2
1.2.5 Interpretacin grfica del mtodo de Gram-Schmidt .................................................................. 3
1.2.6 Matrices ortogonales ................................................................................................................... 4
1.2.7 Matrices de columnas ortogonales .............................................................................................. 4
1.3 Subespacios de una matriz AR
mn
.............................................................................................. 4
1.4 Matrices de rango 1....................................................................................................................... 5
1.5 Dos formas de interpretar el producto de matrices ....................................................................... 6
1.6 Matrices de rotacin, proyeccin y simetra ................................................................................. 7
1.6.1 Matrices de proyeccin y simetra en R
2
..................................................................................... 7
1.6.2 Matriz de rotacin en 2-D ........................................................................................................... 8
1.6.3 Matrices de rotacin de Givens ................................................................................................... 8
1.7 Aproximacin en norma cuadrtica: Teorema de la proyeccin ortogonal .................................. 9
1.7.1 Teorema de la proyeccin ortogonal ........................................................................................... 9
1.7.2 Matriz de proyeccin ortogonal sobre un subespacio................................................................ 10
1.7.3 Simetra ortogonal respecto de un subespacio........................................................................... 10
1.7.4 Matriz de Householder .............................................................................................................. 11
1.7.5 Aplicacin de las matrices de Householder............................................................................... 11
1.7.6 Almacenamiento de las matrices de Householder:.................................................................... 13
1.8 Normas de vectores y matrices ................................................................................................... 13
1.8.1 Normas vectoriales en R
n
C
n
.................................................................................................. 13
1.8.2 Norma de una matriz................................................................................................................. 15
1.8.3 Norma matricial inducida por una norma vectorial (norma natural): ........................................ 15
1.8.4 Norma-1 matricial ..................................................................................................................... 16
1.8.5 Norma- matricial .................................................................................................................... 16
1.8.6 Norma espectral......................................................................................................................... 17
1.8.7 Teoremas relacionados con las normas matriciales (sin demostracin) .................................... 17
2. Sistemas de ecuaciones lineales ............................................................................................... 19
2.1 Introduccin a los sistemas de ecuaciones lineales..................................................................... 19
2.2 Interpretaciones del sistema Ax=b.............................................................................................. 19
2.3 Algunos casos posibles del sistema Ax=b en 2-D...................................................................... 19
2.4 Sistema de m ecuaciones con n incgnitas.................................................................................. 20
2.5 El mtodo de eliminacin de Gauss bsico................................................................................. 21
2.5.1 Operaciones con filas y matrices elementales ........................................................................... 21
2.5.2 Factorizacin LU equivalente ................................................................................................... 22
2.5.3 Programa de Gauss bsico nn ................................................................................................. 23
2.5.4 Programa para resolver un sistema en la forma LUx=b ............................................................ 24
2.5.5 Programa de Gauss vectorizado ................................................................................................ 25
2.6 Mtodo de eliminacin de Gauss con pivotamiento ................................................................... 25
2.6.1 Necesidad del pivotamiento ...................................................................................................... 25
2.6.2 Mtodo de Gauss con pivotamiento por columnas.................................................................... 26
2.6.3 Mtodo de Gauss con pivotamiento total .................................................................................. 28
2.7 Resumen del mtodo de eliminacin de Gauss........................................................................... 29
2.7.1 Reduccin de una matriz a la forma de escalera........................................................................ 29
2.7.2 Conclusiones de la forma de escalera PA=LU.......................................................................... 29
2.7.3 La eliminacin de Gauss y los cuatro subespacios de la matriz A............................................ 30
2.8 Algunas funciones de Matlab en relacin con el mtodo de Gauss............................................ 30
lgebra lineal numrica con Matlab pg. ii
2.9 Errores en la resolucin de sistemas de ecuaciones lineales....................................................... 31
2.9.1 Nmero de condicin de una matriz.......................................................................................... 31
2.9.2 Casos particulares de propagacin de errores en sistemas de ecuaciones lineales .................... 32
2.9.3 Frmula general de propagacin de errores en sistemas de ecuaciones lineales ....................... 32
2.9.4 Expresin general del nmero de condicin.............................................................................. 33
2.9.5 Nmero de condicin para la norma eucldea ........................................................................... 33
2.9.6 Inversas de matrices perturbadas............................................................................................... 34
2.9.7 Conclusiones sobre errores en sistemas de ecuaciones lineales ................................................ 35
2.10 Sistemas de ecuaciones lineales redundantes (m>n=r) ............................................................... 35
2.10.1 Aplicacin del teorema de la proyeccin ortogonal .................................................................. 35
2.10.2 Sistema de ecuaciones ampliado ............................................................................................... 36
2.10.3 Problema de mnimos cuadrados con matrices de columnas ortogonales ................................. 37
2.11 Sistemas de ecuaciones indeterminados (r=m<n)....................................................................... 38
2.12 Problema general de mnimo error cuadrtico y mnima norma................................................. 38
2.13 Matriz seudoinversa A
+
............................................................................................................... 40
2.13.1 Interpretacin del sistema de ecuaciones general Ax=b............................................................ 42
3. Valores y vectores propios ....................................................................................................... 45
3.1 Definicin del problema de valores y vectores propios.............................................................. 45
3.2 Interpretacin geomtrica de los valores y vectores propios ...................................................... 46
3.3 Propiedades de los valores y vectores propios............................................................................ 46
3.3.1 Subespacios propios .................................................................................................................. 46
3.3.2 Relacin de los valores propios con la traza y el determinante................................................. 46
3.3.3 Propiedad de "desplazamiento" de los valores propios ............................................................. 46
3.3.4 Casos particulares del problema de valores propios.................................................................. 47
3.4 Transformaciones de semejanza ................................................................................................. 47
3.4.1 Matrices semejantes .................................................................................................................. 47
3.4.2 Diagonalizacin mediante transformaciones de semejanza....................................................... 47
3.4.3 Reduccin a forma triangular mediante transformaciones de semejanza.................................. 48
3.4.4 Transformaciones de semejanza unitarias ................................................................................. 48
3.4.5 Lema de Schur........................................................................................................................... 49
3.5 Matrices normales....................................................................................................................... 49
3.5.1 Definicin, casos particulares y propiedades ............................................................................ 49
3.5.2 Teorema espectral para matrices normales................................................................................ 50
3.5.3 Corolarios del teorema espectral ............................................................................................... 51
3.5.4 Descomposicin espectral de matrices normales ...................................................................... 51
3.6 Formas cuadrticas y transformaciones de congruencia............................................................. 52
3.6.1 Definicin y propiedades de las formas cuadrticas.................................................................. 52
3.6.2 Transformaciones de congruencia............................................................................................. 52
3.6.3 Ley de Inercia de Sylvester ....................................................................................................... 52
3.6.4 Matrices definidas-positivas...................................................................................................... 53
3.6.5 Matrices semi-definidas positivas e indefinidas. ....................................................................... 54
3.7 Cociente de Rayleigh .................................................................................................................. 55
3.7.1 Definicin y relacin con los valores y vectores propios .......................................................... 55
3.7.2 Error en los valores propios estimados mediante el cociente de Rayleigh................................ 55
3.7.3 Teorema mini-max y maxi-min (Teoremas de Courant-Fischer).............................................. 56
3.7.4 Interpretacin geomtrica de los teoremas mini-max y maxi-min ............................................ 57
3.7.5 Propiedad de "separacin" de los valores propios..................................................................... 57
3.8 Valores y vectores propios generalizados................................................................................... 58
3.8.1 Introduccin a partir del problema estndar .............................................................................. 58
3.8.2 Planteamiento del problema generalizado de valores y vectores propios.................................. 58
3.8.3 Reduccin del problema generalizado al problema estndar..................................................... 59
3.8.4 Cociente de Rayleigh para Ax=Bx.......................................................................................... 61
3.8.5 Convergencia a otros valores propios. Tcnicas de deflaccin matricial .................................. 61
4. Factorizaciones de una matriz .................................................................................................. 63
4.1 Factorizacin LU ........................................................................................................................ 63
4.1.1 Ejemplo de factorizacin LU directa......................................................................................... 63
4.1.2 Frmulas generales para la factorizacin LU............................................................................ 64
4.1.3 Factorizacin LU con matrices simtricas................................................................................. 64
4.1.4 Factorizacin LU vectorizada ................................................................................................... 66
ndice pg. iii
4.1.5 Factorizacin de Choleski ......................................................................................................... 67
4.2 Factorizacin QR........................................................................................................................ 67
4.2.1 Factorizacin QR por Gram-Schmidt........................................................................................ 67
4.2.2 Factorizacin QR de matrices rectangulares ............................................................................. 68
4.2.3 Factorizacin QR mediante matrices de Householder............................................................... 70
4.2.4 Factorizacin QR mediante rotaciones de Givens..................................................................... 71
4.3 Descomposicin espectral de matrices normales........................................................................ 71
4.4 Descomposicin de valores singulares (DVS)............................................................................ 72
4.4.1 Clculo y existencia de la DVS................................................................................................. 73
4.4.2 Propiedades de las matrices U y V............................................................................................ 74
4.4.3 Clculo de la DVS..................................................................................................................... 74
4.4.4 Aplicaciones de la DVS ............................................................................................................ 75
4.4.5 Valores singulares y perturbaciones en una matriz ................................................................... 76
4.4.6 Problemas de reduccin de la dimensionalidad......................................................................... 77
4.4.7 Aplicacin de la DVS a la solucin del sistema general Ax=b ................................................. 78
Prefacio pg. v
0. Prefacio
Los mtodos numricos para la resolucin de problemas de lgebra Lineal tienen una enorme im-
portancia prctica en la asignatura de Mtodos Matemticos de Especialidad, asignatura troncal que
se imparte en el primer semestre del cuarto curso en la Escuela Tcnica Superior de Ingenieros In-
dustriales de la Universidad Politcnica de Madrid. Los mtodos matriciales se aplican en multitud
de reas de la ingeniera, y adems su resolucin numrica es algo que se les da bastante bien a los
computadores actuales.
La experiencia del curso 2003-04 primero en el que se imparti esta asignatura del Plan 2000 y
de la asignatura Matemticas de Especialidad del Plan 1976, aconseja no dar por supuesto que se
mantienen los conocimientos adquiridos en las asignaturas de lgebra I y II de primer curso. Tam-
poco es posible dedicar un gran nmero de horas de clase a presentar de nuevo los contenidos fun-
damentales de dichas asignaturas.
El objetivo de estos apuntes es facilitar a loa alumnos de cuarto el repaso personal de los temas ms
importantes de clculo vectorial y matricial, que vieron al comienzo de la carrera. La idea no es dar
por sabida el lgebra Lineal numrica en la asignatura de cuarto, sino liberarse de los aspectos ms
tericos y poder dedicar las clases a los aspectos ms algortmicos y a las aplicaciones prcticas.
Por tratarse de unos apuntes de repaso, el orden es diferente del que se utiliz o utilizara en prime-
ro, conteniendo algunas referencias a temas que se tratarn posteriormente.
Algunas demostraciones se han omitido, sobre todo cuando son complicadas y no tienen gran inte-
rs pedaggico. Muchas otras se han incluido, aunque pueden omitirse en una primera lectura. En
muchos casos, se les ha restado importancia utilizando una letra ms pequea. Se han incluido tam-
bin algunos programas de Matlab, con objeto de ilustrar los algoritmos explicados en teora. Estos
algoritmos pueden servir de base para muchos otros, introduciendo en ellos las modificaciones
oportunas.
El autor de estos apuntes asume ntegramente la responsabilidad de sus limitaciones y deficiencias,
pero no puede desaprovechar la oportunidad de agradecer a sus compaeros del Departamento de
Matemtica Aplicada a la Ingeniera Industrial, en particular a los profesores de Mtodos Matemti-
cos de Especialidad y de lgebra II, el apoyo y la ayuda prestadas en estas materias a lo largo de los
ltimos cursos.

Madrid, 24 de septiembre de 2004,


Javier Garca de Jaln de la Fuente

Introduccin pg. 1
1. Introduccin
1.1 Tipos de matrices
Una matriz
mn
A C es un conjunto de escalares reales o complejos dispuestos en m filas y n
columnas. Si m n = la matriz se dice cuadrada y si m n la matriz se dice rectangular. Esta dis-
tincin es importante entre otras razones porque ciertas propiedades slo tienen sentido si la matriz
es cuadrada. Por ejemplo, slo las matrices cuadradas tienen determinante, slo ellas pueden ser
invertibles, slo ellas tienen valores y vectores propios, etc.
Las matrices rectangulares tienen algunas propiedades que se pueden considerar como generaliza-
cin de las anteriores. As, los conceptos de matriz seudoinversa y de valores singulares, pueden ser
considerados como una generalizacin de los conceptos de matriz inversa y de valores propios.
Teniendo en cuenta los elementos distintos de cero, las matrices pueden ser diagonales, bidiagona-
les, triangulares superior o inferior, tridiagonales, de Hessenberg, etc.
1.2 Espacios vectoriales eucldeos
1.2.1 Definicin de producto escalar y de espacio vectorial eucldeo o hermtico
Un espacio vectorial eucldeo es un espacio vectorial real, de dimensin finita, dotado de un pro-
ducto escalar. Anlogamente, un espacio vectorial hermtico es un espacio vectorial complejo, de
dimensin finita, dotado de un producto escalar.
Sea E un espacio vectorial eucldeo o hermtico. Se define el producto escalar en E como una apli-
cacin: , : E E R con las tres propiedades siguientes:

) Simetra: , ,
) Lineal en la 1 variable: + , , ,
) Definida-positiva , 0, si ; , 0, slo si
a
b
c

=
= +
> = =
u v v u
u v w u w v w
u u u 0 u u u 0
(1)
La notacin a indica el complejo conjugado de a . El producto escalar estndar (eucldeo en
n
R
hermtico en
n
C ), se expresa respectivamente de modo matricial en la forma:

1 1 2 2
En : , ...
T T
n n
x y x y x y = = = + + +
n
R x y x y y x (2)

1 1 2 2
En : , ...
H T
n n
x y x y x y = = = + + +
n
C x y x y x y (3)
El considerar el conjugado y transpuesto del primer factor en
n
C es necesario para asegurar la pro-
piedad c) de (1). Los espacios eucldeos son un caso particular de los espacios hermticos en el que
todos los vectores y escalares son reales.
En lo sucesivo se considerarn slo los espacios vectoriales eucldeos, salvo que se indique otra
cosa. Prcticamente todo lo que se diga sobre ellos es vlido para los espacios hermticos cambian-
do la notacin de transpuesta (
T
) por la de conjugada y transpuesta (
H
).
1.2.2 Bases ortonormales en espacios eucldeos
Se dice que un vector
n
u R est normalizado cuando cumple:

2
2
1
T
= = u u u (4)
lgebra lineal numrica con Matlab pg. 2
Se dice que dos vectores ,
n
u v R son ortogonales cuando su producto escalar es nulo:
0
T
= u v (5)
Se dice que una base ( )
1 2
, ,...,
n
q q q en un espacio vectorial de dimensin n es ortonormal cuando
est formada por n vectores de norma unidad y ortogonales entre s:
, 1, 2,...,
T
i j ij
i j n = = q q (6)
1.2.3 Coordenadas de un vector en una base ortonormal
Sea a un vector cualquiera en
n
R y ( )
1 2
, ,...,
n
q q q los vectores de una base ortonormal de
n
R . Se
desean hallar las componentes
i
de a expresado en dicha base ortonormal. El vector a se puede
expresar como combinacin lineal de los vectores q
i
con coeficientes por determinar
i
:

1 1 2 2
...
n n
= + + + a q q q (7)
Para determinar la componente
i
basta realizar el producto escalar por
i
q :

1 1 2 2
... 0 ... ... 0
T T T T T
i i i n i n i i i i
= + + + = + + + + = q a q q q q q q q q (8)
Despejando
i
de esta ecuacin y sustituyendo en (7):

( ) ( ) ( )
1 1 2 2
...
T T T
n n
= + + + a q a q q a q q a q (9)
O bien, utilizando formulacin matricial:
[ ]
1
2 1
1 1 2 2 1 2
... = , ,..., =
n n n
n




= + + + =



a q q q q q q Q Q a

(10)
La matriz [ ]
1 2
, ,...,
n
Q q q q es una matriz cuadrada y ortogonal cuyas columnas son los vectores
de la base. Comparando las expresiones (9) y (10) se concluye que la inversa de Q es su transpuesta,
lo que caracteriza a las matrices ortogonales:

1
1 1
2
2

T
T
T T
T




= = = =



q a
q a
Q a Q a Q Q
q a

(11)
1.2.4 Existencia de bases ortonormales: mtodo de Gram-Schmidt
Se parte de n vectores ( )
1 2
, ,...,
n
a a a linealmente independientes y se trata de hallar a partir de ellos
una base ortogonal ( )
1 2
, ,...,
n
q q q .
El primer vector q
1
se puede obtener normalizando a
1
:

1 1 1 1 1
= b a q b b (12)
Introduccin pg. 3
Los vectores q
2
, q
3
, se obtienen quitando a los vectores a
2
, a
3
, las componentes segn los "q"
anteriores (calculadas segn (9)) y normalizando (siempre existe
i
b 0 , por ser los
i
a linealmente
independientes):

( )
2 2 1 2 1 2 2 2

T
= b a q a q q b b (13)

( ) ( )
3 3 1 3 1 2 3 2 3 3 3

T T
= b a q a q q a q q b b (14)


( ) ( )
1 1

T T
n n n n n n n n n
= b a q a q q a q q b b (15)
Existe otra forma de organizar los clculos (mtodo de Gram-Schmidt modificado) consistente en
eliminar la componente segn q
i
a todos los vectores a
j
(j=i+1,...,n), tan pronto como q
i
ha sido cal-
culado (se obtienen menores errores numricos):

( )
( )
( )
1 1 1 1 1
2 2 2 2 2
2, 3,...,
3, 4,...,
...
1,...,
T
j j j
T
j j j
T
i i i j j i j i
j n
j n
j i n
= = =
= = =
= = = +
q a a a a q a q
q a a a a q a q
q a a a a q a q
(16)
Obsrvese que en la expresin de cada q
i
(a
i
) slo intervienen a
1
,..., a
i
(q
1
,..., q
i
).

Figura 1. Interpretacin grfica del mtodo de Gram-Schmidt.
1.2.5 Interpretacin grfica del mtodo de Gram-Schmidt
Se realizar para el espacio eucldeo tridimensional. Las expresiones (13)-(15) en este caso son:

( )
( ) ( )
1 1 1 1 1
2 2 1 2 1 2 2 2
3 3 1 3 1 2 3 2 3 3 3



T
T T
=
=
=
b a q b b
b a q a q q b b
b a q a q q a q q b b
(17)
Teniendo en cuenta que cada vector
i
a slo tiene proyeccin no nula sobre los vectores ortonorma-
les ( )
1 2
, ,...,
i
q q q , los subespacios generados por ( )
1 2
, ,...,
i
a a a y por ( )
1 2
, ,...,
i
q q q coinciden:
a
2
a
3
q
1
q
2
q
3
( )
2 2 1 2 1
T
= b a q a q
( ) ( )
3 3 1 3 1 2 3 2
T T
= b a q a q q a q
1 1
= b a
lgebra lineal numrica con Matlab pg. 4

[ ] [ ]
[ ] [ ]
[ ] [ ]
1 1
1 2 1 2
1 2 3 1 2 3
, ,
, , , ,
L L
L L
L L
=
=
=
q a
q q a a
q q q a a a
(18)
La relacin entre los vectores ( )
1 2 3
, , a a a , ( )
1 2 3
, , b b b y ( )
1 2 3
, , q q q se muestra en la Figura 1.
1.2.6 Matrices ortogonales
Una matriz Q es ortogonal si es cuadrada y sus columnas
i
q son ortonormales entre s:

( )
, 1; 0,
T T T
i j ij i i i j
i j = = =
nn
Q R q q q q q q (19)
Estas condiciones se expresan de modo grfico y matricial tal como se muestra en la Figura 2 y en
la ecuacin (20).

Figura 2. Ortogonalidad entre las columnas de la matriz Q.

T
= Q Q I (20)
Propiedades de las matrices ortogonales (se pueden demostrar como ejercicio):
Se verifica que la inversa es igual a la traspuesta Q
T
=Q
1
, como se concluye de la ec. (20).
Todos los valores propios de una matriz ortogonal tienen mdulo unidad.
El determinante de una matriz ortogonal es +1 1.
Las matrices ortogonales conservan el producto escalar, y por tanto distancias y ngulos.
Casos particulares de las matrices ortogonales son las matrices de permutacin, las de rota-
cin y las de simetra.
1.2.7 Matrices de columnas ortogonales
Se llama matriz de columnas ortogonales Q a una matriz rectangular ( ) m n m n > , tal que sus
columnas son un conjunto de vectores ortonormales. No son matrices ortogonales porque no son
cuadradas.
Las matrices rectangulares de columnas ortogonales, aunque cumplan Q
T
Q=I, no son ortogonales
pues QQ
T
I . En este caso Q
T
no es la inversa de Q, sino una inversa por la izquierda. Se ver ms
adelante que QQ
T
es una matriz de proyeccin sobre el subespacio de columnas de Q, Im(Q).
1.3 Subespacios de una matriz AR
mn

Un subespacio se puede determinar, entre otras formas, de los dos modos siguientes (representados
respectivamente en la Figura 3 y en la Figura 4):
1 0 0
0 1 0
0 0 1

=
1
T
q
2
T
q
T
n
q

1
q
2
q
n
q

Introduccin pg. 5
1. Por un conjunto de vectores generador (ejemplo, un plano determinado por dos vectores no
colineales). Estos vectores pueden constituir una base, o ser un sistema linealmente depen-
diente del que se puede extraer una base.
2. Por un conjunto de restricciones sobre un espacio vectorial que lo contiene (por ejemplo, un
plano queda determinado por la recta a la que es perpendicular).
Figura 3. Base de un subespacio.

Figura 4. Complemento ortogonal.
En relacin con una matriz rectangular A, de tamao mn y rango r, se pueden considerar los cuatro
subespacios vectoriales fundamentales siguientes:
1. Subespacio de columnas Im(A). Es el subespacio de R
m
generado por las columnas de A.
Tendr dimensin r, pues hay r columnas independientes. Se verifica que AxIm(A), x.
2. Subespacio de filas Im(A
T
). Es el subespacio de R
n
generado por las filas de A. Tambin ten-
dr dimensin r, pues slo hay r filas independientes.
3. Subespacio nulo Ker(A). Es subespacio de R
n
formado por todos los vectores x tales que
Ax=0. Todos los vectores de Ker(A) son ortogonales a las filas de A (y a todas sus combina-
ciones lineales), por lo que Ker(A) e Im(A
T
) son subespacios ortogonales y complementarios
en R
n
. De aqu se concluye que la dimensin de Ker(A) es nr. Se tiene:
( ) ( )
Ker Im
T

= A A (21)
4. Subespacio nulo de la transpuesta Ker(A
T
). Es el subespacio de R
m
formado por todos los
vectores y que satisfacen y
T
A=0, es decir por todos los vectores ortogonales a las columnas de
A (y a sus combinaciones lineales). Los subespacios Ker(A
T
) e Im(A) son ortogonales y com-
plementarios, por lo que la dimensin de Ker(A
T
) es mr. En este caso, se tendr:

( ) ( ) Ker Im
T

= A A (22)
1.4 Matrices de rango 1
Las matrices de rango 1 se pueden obtener como producto de un vector columna por un vector fila:
A=uv
T
. Las columnas de A son mltiplos de u y las filas de A son mltiplos de v
T
, por ejemplo:
{ } [ ]
1 1 1 1 2 1 3 1
2 1 2 3 2 1 2 2 2 3 1 2 3 2
3 3 1 3 2 3 3 3
T
T T
T
u u v u v u v u
u v v v u v u v u v v v v u
u u v u v u v u




= = = = =








v
A uv u u u v
v
(23)
Como slo hay una fila y una columna linealmente independientes, el rango es uno. Como conse-
cuencia de su rango, la matriz A=uv
T
tendr un valor propio 0 con multiplicidad n1, y un nico
valor propio distinto de cero. Es fcil determinar este valor propio y el vector propio asociado. La
ecuacin de valores y vectores propios de la matriz A es:
= Ax x (24)

lgebra lineal numrica con Matlab pg. 6
En la ec. (24) el miembro izquierdo pertenece a Im(A) porque es una combinacin de las columnas
de A, luego para 0 tambin el miembro derecho, esto es x, pertenecer a Im(A). Por ello, en el
caso de la matriz de rango uno A=uv
T
, el vector propio asociado con el nico valor propio distinto
de cero ser u, asociado con el valor propio v
T
u, ya que se cumple:

( ) ( ) ( )

T T T T
= = = = = Au uv u u v u v u u u v u (25)
Tambin se puede decir algo acerca de los n1 vectores propios asociados con el valor propio nulo.
Son todos los vectores del subespacio nulo o ncleo Ker(A), definido por la ecuacin:

( ) ( )
0
T T T
= = = uv x 0 u v x 0 v x (26)
El ncleo es pues el complemento ortogonal del vector v:
( ) [ ] Ker L

= A v (27)
Una matriz de rango uno , con 1
T T
= = P uv v u es una matriz de proyeccin, pues cumple:

( )( ) ( )
2
1
T T T T T
= = = = P uv uv u v u v uv P (28)
Sin embargo, no es una matriz de proyeccin ortogonal, pues no es simtrica. Se podra hablar de
proyeccin oblicua. Si = v u, imponiendo la condicin 1
T T
= = v u u u se obtiene la expresin ge-
neral de la matriz de proyeccin ortogonal sobre un subespacio de dimensin 1, que es:

T
T
T
= =
uu
P uu
u u
(29)
1.5 Dos formas de interpretar el producto de matrices
El producto de matrices = C AB se puede interpretar de varias formas diferentes, dos de las cuales
estn basadas respectivamente en el producto escalar o interior y en el producto exterior de vecto-
res. Denotando respectivamente como
j
a y
T
j
a a la columna j y a la fila j de la matriz A:
[ ]
1 1 1 1 2 1
2 2 1 2 2 2
1 2
1 2
T T T T
n
T T T T
n
n
T T T T
m m m m n



= = =




a a b a b a b
a a b a b a b
C AB b b b
a a b a b a b

(30)
[ ]
1
2
1 2 1 1 2 2
1
...
T
T
l
T T T T
l l l i i
i
T
l
=



= = = + + + =



b
b
C AB a a a a b a b a b a b
b

(31)
En la primera forma, el elemento (i, j) de la matriz producto es el producto escalar de la fila i de A
por la columna j de B.
En la segunda forma, el producto matricial se formula como una suma de l matrices de rango uno,
formadas cada una por el producto de una columna de A por la correspondiente fila de B. Esta se-
gunda forma es muy poco prctica desde el punto de vista del clculo numrico del producto, pero
puede arrojar luz sobre ciertos aspectos del producto de matrices. Por ejemplo, las columnas o las
filas de la matriz producto se pueden expresar en la forma:
Introduccin pg. 7
[ ] [ ]
1 1
2 2
1 2 1 2
, ,..., , ,..., ,
T T
T T
n n
T T
m m



= = = =




c a
c a
c c c AB A b b b AB B
c a

(32)
1.6 Matrices de rotacin, proyeccin y simetra
1.6.1 Matrices de proyeccin y simetra en R
2

Se comenzar considerando la forma de una matriz de proyeccin ortogonal P en 2-D. Se trata de
determinar la proyeccin ortogonal de un punto b sobre el subespacio generado por el vector a.

Figura 5. Proyeccin y simetra sobre una recta en R
2
.
Sea p el vector proyeccin de b sobre a. Se trata de hallar una matriz P tal que Pb=p. Si x es la
magnitud de dicha proyeccin, la matriz de proyeccin P se puede determinar como sigue:

( ) ( ) , =0

T
T T T T
T T T T
x x
x x
=
= = = =
p a b p a a b a
a b a b aa aa
p a a b Pb P
a a a a a a a a
(33)
Esta expresin de P coincide con la ec. (29). Esta expresin de P es general, en el sentido de que
sirve para R
n
cuando se proyecta sobre un subespacio de dimensin 1.
Algunas propiedades de la matriz P son las siguientes:
Es simtrica (slo si la proyeccin es ortogonal).
Se verifica que P
2
=PP=P (idempotente).
La matriz P tiene rango 1 (es singular) y su subespacio Im(A) est generado por el vector a.
El subespacio nulo Ker(A) es el complemento ortogonal a Im(A).
La proyeccin Pb pertenece a Im(A) (todas las columnas de P tienen la direccin de a).
La Figura 5 muestra tambin el vector simtrico de b respecto de la recta a. La matriz de simetra S
se puede determinar en funcin de la matriz de proyeccin P en la forma:
( ) ( ) 2 2 2 = + = = Sb b Pb b P I b S P I (34)
La matriz de simetra es simtrica y ortogonal, es decir, su inversa es ella misma:
( ) ( )
2 2 1
, 2 2 4 4
T T
= = = = + = = S S S S S P I P I P P I I S S (35)
Definiendo el vector a por medio de sus componentes cos c y sen s , la matriz de proyec-
cin P, correspondiente a la Figura 6, se puede calcular a partir de la expresin (33):
a
b
bp
p=Pb
Sb
lgebra lineal numrica con Matlab pg. 8

{ }
{ }
2
2
T
T
c
c s
c cs s
c
sc s
c s
s




= = =





aa
P
a a
(36)
Como era de esperar, la matriz P calculada es simtrica, singular e idempotente.
Sustituyendo el resultado de (36) en (34) se obtiene una expresin para la matriz de simetra en R
2

mostrada en la Figura 7:

2 2 2
2 2 2
1 0 2
2 2
0 1 2
c cs c s cs
sc s sc s c

= = =



S P I (37)
Ms adelante se determinarn expresiones anlogas y ms generales para P y S en espacios R
n
.

Figura 6. Proyeccin 2-D. Figura 7. Simetra 2-D.

Figura 8. Rotacin 2-D.
1.6.2 Matriz de rotacin en 2-D
La Figura 8 muestra el resultado de rotar el vector a un ngulo para convertirse en el vector b. En
este caso, en funcin del coseno y el seno del ngulo girado, la matriz de rotacin A es una matriz
ortogonal dada por (b=Aa; A
T
A= AA
T
=I):
cos , sen
x x
y y
b a c s
c s
b a s c



=



(38)
1.6.3 Matrices de rotacin de Givens
Las matrices de rotacin de Givens son rotaciones planas 2-D que se aplican a matrices nn. Se
utilizan para hacer cero un elemento determinado (i,j) de una matriz A o como transformaciones de
semejanza unitarias (como matrices de rotacin, son ortogonales).
Sea la matriz G
ij
una matriz nn con todos sus elementos iguales a los de la matriz identidad I, ex-
cepto los cuatro elementos siguientes:
cos ; sen
ii jj ji ij
g g c g g s = = = = (39)
Al pre-multiplicar la matriz A por G
ij
se combinan las filas i y j, y al post-multiplicar se combinan
las columnas. En el primer caso se obtiene el siguiente resultado:
a
b

a
y
a
x
b

a
Sb
b

a
Pb
Introduccin pg. 9

11 1 1 1
1 1
1 1
1
1 0 0 0
0 0
0 0
0 0 0 1
i j n
i j ii ji ij jj in jn
ij
i j ii ji ij jj in jn
n ni nj nn
a a a a
ca sa ca sa ca sa ca sa
c s
sa ca sa ca sa ca sa ca
s c
a a a a









= =

+ + + +





G A A













(40)
Los valores de c y s se pueden determinar con la condicin de que el nuevo elemento (j,i) se anule:

2 2 2 2
; 0 ,
ji
ii
ii ji
ii ji ii ji
a
a
sa ca c s
a a a a

+ = = =
+ +
(41)
Las matrices de Givens se pueden utilizar para triangularizar una matriz A de modo semejante a
como se hace en el mtodo de eliminacin de Gauss. Haciendo ceros por columnas, de izquierda a
derecha, los ceros anteriores se conservan y la matriz A se triangulariza con un n finito de opera-
ciones aritmticas.
Como se ha dicho anteriormente y es fcil de comprobar, las matrices de Givens son ortogonales y
su producto, es decir la aplicacin sucesiva de varias rotaciones de este tipo, tambin lo es. Por tan-
to, la factorizacin de A con matrices de Givens ser del tipo A=QR (ver apartado 4.2). La factori-
zacin de Givens es ms costosa en operaciones aritmticas que la descomposicin LU.
1.7 Aproximacin en norma cuadrtica: Teorema de la proyeccin ortogonal
1.7.1 Teorema de la proyeccin ortogonal
Enunciado: Sea E un espacio eucldeo (o hermtico), y F un subespacio de E. Sea E v un vector
cualquiera de E. Las dos condiciones siguientes son equivalentes:

2
2
proyeccin ortogonal de sobre min
F
F

=
w
w b b w b w (42)
La 2 parte de la expresin (42) indica que el vector w
*
F es una aproximacin ptima en F del
vector bE. Adems, dicha aproximacin ptima es nica. La Figura 9 ilustra este teorema.
Demostracin: Si

w es la proyeccin ortogonal de b sobre F, se verificar que F



b w . Si w es un punto cual-
quiera de F, se podr escribir:

( ) ( )
2
2
2 2 2 2 2
=
2 ,


+ =
= + + = +
b w b w w w
b w w w b w w w b w w w b w
(43)
lo que demuestra que

w es la aproximacin ptima, que adems es nica porque para alcanzar la igualdad es necesario
que se cumpla

= w w 0 . Recprocamente, la condicin de aproximacin ptima en (43) implica que w sea la pro-


yeccin ortogonal de b sobre F.
lgebra lineal numrica con Matlab pg. 10

Figura 9. Teorema de la proyeccin ortogonal.
1.7.2 Matriz de proyeccin ortogonal sobre un subespacio
Sea F E un subespacio vectorial determinado por las columnas linealmente independientes de
una matriz
mn
A R , que constituyen una base. Aplicando el teorema de la proyeccin ortogonal se
puede calcular la matriz de proyeccin sobre dicho subespacio.
Sea

= w Ax la mejor aproximacin del vector b en el subespacio Im(A), siendo x un vector de


coeficientes a determinar. Se define el residuo r en la forma:
r v Ax (44)
El teorema de la proyeccin ortogonal establece que r debe ser ortogonal a Im(A). Esta condicin
se puede imponer haciendo que r sea ortogonal a una base de Im(A), es decir, a las columnas de A:
( ) ( )
1

T T T T T T

= = = = A r 0 A v Ax 0 A Ax A v x A A A v (45)
El vector Ax es tambin la proyeccin ortogonal de v sobre el subespacio Im(A). Esta condicin
permite determinar la matriz de proyeccin P:

( ) ( )
1 1

T T T T

= = = Ax Pv A A A A v Pv P A A A A (46)
Obsrvese la analoga entre esta expresin y la de proyeccin sobre un subespacio de dimensin 1
vista en la ecuacin (33), particularmente si sta se transforma ligeramente:

( )
1
T
T T
T

= =
aa
P a a a a
a a
(47)
1.7.3 Simetra ortogonal respecto de un subespacio
Como en el caso 2-D, las matrices de proyeccin y simetra estn estrechamente relacionadas. En
este no se trata de proyectar un punto sobre un subespacio, sino de hallar su simtrico respecto a
dicho subespacio.
Se llamar Sb al punto simtrico de b respecto al subespacio Im(A), determinado por las columnas
de A. La transformacin de simetra puede ponerse en funcin de la proyeccin (ver Figura 9):
( ) ( ) ( ) 2 2 2 2 = = = = Sb b r b b Pb P I b S P I (48)
b
F
w
*
=Pb
w
rF

v

Sb
Introduccin pg. 11
Propiedades de la matriz de simetra S:
1. Es simtrica, pues tanto P como I lo son.
2. Es ortogonal, pues se verifica que su inversa es su transpuesta, es decir, ella misma:
( ) ( )
2 2
2 2 4 4 = = = + = SS S P I P I P P I I (49)
A diferencia de la matriz de proyeccin, la matriz de simetra es invertible, como fcilmente
se comprende a partir de su significado geomtrico. Si se aplica dos veces se vuelve al ori-
gen.
1.7.4 Matriz de Householder
La simetra o reflexin ms importante se define respecto a un hiperplano (subespacio de dimen-
sin n1), determinado, no mediante una base (columnas de una matriz A), sino mediante un vector
v perpendicular a dicho hiperplano, que genera su complemento ortogonal.
Las matrices de simetra de Householder se denotan como H y se definen en la forma:
2 , o bien: 2 1
T
T
T
= = =
vv
H I H I uu u
v v
(50)
donde v es un vector cualquiera. La matriz de Householder define una simetra respecto al hiperpla-
no perpendicular al vector v. La Figura 9 justifica la expresin (50): Sea P
1
la matriz de proyeccin
sobre el subespacio de dimensin 1 generado por v. La matriz de proyeccin P sobre el hiperplano
ortogonal a v y la correspondiente matriz de simetra de acuerdo con la expresin (48), sern:
( )
1 1 1
; 2 2 2 2
T T
T T
= = = = = =
vv vv
P I P I H P I I P I I P I
v v v v
(51)
Es obvio que las matrices de Householder son simtricas, y es fcil demostrar que son ortogonales:

( )( )
2 2 4 4
T T T T T T
= = + = H H I uu I uu I uu uu uu I
Como son matrices ortogonales, conservan ngulos y distancias, y por eso son muy estables en su
aplicacin numrica.
1.7.5 Aplicacin de las matrices de Householder
Las matrices de Householder se utilizan para, al multiplicarlas por un vector cualquiera x, anular
todos los elementos excepto el primero, es decir, para alinear x con el vector e
1
de la base natural.
Supngase un vector cualquiera x. Si el vector v se define en la forma:
{ }
1 1
, 1 0 0
T
= v x x e e (52)
se demostrar que el producto Hx tiene nulos todos los elementos excepto el 1. Como H es ortogo-
nal conserva las magnitudes, luego se deber cumplir:

1
= Hx x e (53)
En efecto, con H definida en la ecuacin (50) y v definido por la ecuacin (52), el producto Hx es:
lgebra lineal numrica con Matlab pg. 12

( )
( )
( ) ( )
( ) ( )
1
1
1 1
1
1 1 1 2
1
2
2 2
2 2
2
T
T T
T T T T
T
T
x
x


= = = =

= = =
+
x x e x
vv vv x
Hx I x x x x x e
v v v v
x x e x x e
x x x
x x x e x x x e x e
x x x x
(54)
En el clculo del vector v segn (52) deben evitarse sustracciones o restas numricas que puedan
disminuir la precisin. As, cuando x
1
>0, el clculo del elemento v
1
se puede hacer mediante una
expresin alternativa en la que todos los trminos son positivos:

( )
2 2 2
2
2
1
1 1
1 1
...
= =
n
x x
x
v x
x x
+ +

=
+ +
x
x
x x
(55)
Las matrices de Householder se pueden utilizar para hacer ceros debajo de la diagonal en una matriz
A, en forma anloga al mtodo de Gauss:

1
1 1 1
1
1
0
2 ;
0
0
T
T


= = =

=

=




vv
U H I v x x e
U A v v
x

(56)
La segunda trasformacin es similar, pero con una matriz H de tamao n1 completada con la pri-
mera fila y columna de la matriz identidad:

1
2
2 2 1
2
1 0 0 0
0 0
, 0 0 0
0 0 0






= =




U U U A
H

(57)
La Figura 10 y la Figura 11 muestran grficamente las transformaciones correspondientes.

Figura 10. Primera transformacin de
Householder.

Figura 11. Segunda transformacin de
Householder.
Cada transformacin conserva los ceros de las anteriores. Esta transformacin es ms estable que la
de Gauss, aunque ms costosa en nmero de operaciones aritmticas.
A continuacin de incluye una funcin de Matlab para calcular el vector v y el factor a partir de
un vector cualquiera x. El vector v se normaliza haciendo v(1)=1, de modo que v se pueda almace-
nar en lugar de los ceros introducidos (el primer elemento vale siempre 1 y no necesita ser almace-
nado). Se utilizan las expresiones siguientes.
x
A
x
A
Introduccin pg. 13

{ }
( )
1
1
2 2
1 2
1 1
1
Si 0
2
; = ; / ...
1 0 0
T
n T
T
x
v x x
v
x

>
=

= + +

=


+

v x x e
H= I vv v v
v v
e
x

(58)
%cl cul o del vect or de Househol der
function [v,beta] = householder(x)
n=l engt h( x) ;
%mdul o de x ( si n pr i mer a component e)
s=x( 2: n) ' *x( 2: n) ;
v=[1,x(2:n)']';
if s==0
%l os el ement os x( 2) , . . . x( n) son cer o
bet a=0
else
%mdul o de x
mx=sqr t ( x( 1) ^2+s) ;
if x(1)<=0
v( 1) =x( 1) - mx;
else
v( 1) =- s/ ( x( 1) +mx) ;
end
bet a=2*v( 1) ^2/ ( s+v( 1) ^2) ;
v=v/ v( 1) ;
end
1.7.6 Almacenamiento de las matrices de Householder:
No hace falta almacenar las matrices de Householder H, sino que basta almacenar el vector v. Si se
hace v
1
=1, el vector v puede almacenarse en las posiciones de los ceros introducidos en la matriz A.
El producto de una matriz de Householder H por una matriz A se puede hacer, sin tener que formar
las matrices H U explcitamente y con menos operaciones aritmticas, de la forma siguiente:

( )
2 ,
T
T
T T T
T
= = = =
vv
H I I vv HA A vv A A v A v
v v
(59)
Con la expresin (59) el producto HA no necesita O(n
3
) operaciones aritmticas como un producto
de matrices estndar, sino que basta un n de operaciones aritmticas de orden O(n
2
).
1.8 Normas de vectores y matrices
Las normas de vectores y matrices proporcionan una forma sencilla de "medir" el tamao de un
vector y/o una matriz por medio de un nmero real positivo, en la misma forma en la que se emplea
el mdulo de un vector en R
n
.
1.8.1 Normas vectoriales en R
n
C
n

Como se ha dicho, el objetivo es disponer de una medida del tamao de los vectores, con objeto de
estudiar convergencias, relaciones de mayor o menor, proximidad a cero, etc.
El producto escalar permite definir de modo natural una norma en C
n
, que coincide con la longitud
de un vector en R
2
y R
3
. Esta norma se llama norma eucldea, y responde a la expresin:

2
2
1
,
n
j
j
x
=
= =

x x x (60)
De un modo ms general (hay otros tipos de normas posibles), la norma de un vector x debe sa-
tisfacer las tres propiedades siguientes:
lgebra lineal numrica con Matlab pg. 14
1. 0, y 0 si y slo si = = x x x 0 (61)
2. , para cualquier ( o ) = x x K R C (62)
3. (desigualdad triangular) + + x y x y (63)
La norma eucldea no es la nica posibilidad. Puede considerarse que es un caso particular de una
norma ms general, la llamada norma-p, que se define en la forma:

1
1
, 1
p p
n
j
p
j
x p
=

=


x (64)
Dependiendo del valor de p, existen varios casos particulares muy utilizados de la norma-p:
1. Norma-1: Se toma p=1,

1 2
1
1
...
n
j n
j
x x x x
=
= = + + +

x (65)
2. Norma-2 norma eucldea: Se toma p=2,

( )
1
2
1
2
2 2 2 2
1 2
2
1
...
n
j n
j
x x x x
=

= = + + +

x (66)
3. Norma- norma mxima: Se toma p=,

1
1
1
lim lim max
p p
n
j j
p
p p j n
j
x x


=

= = =


x x (67)


a) p=1 b) p=2 c) p=
Figura 12. Representacin de los puntos 1 x con tres normas distintas.
En la Figura 12 se muestra el lugar geomtrico de los puntos de R
2
que cumplen la condicin
1 x , con cada una de las tres normas-p consideradas.
Es inmediato ver que las normas-p definidas cumplen las condiciones 1 y 2 (ecs. (62) y (63)) de la
definicin de norma. Tambin se demuestra fcilmente que se cumple la condicin 3; por ejemplo,
para p=1:

1 1 1
1 1 1
n n n
j j j j
j j j
x y x y
= = =
+ = + + = +

x y x y (68)
A continuacin se enuncian dos teoremas (sin demostracin):
1
1
1 x 1
2
1 x
1 1

x
Introduccin pg. 15
Teorema 1: Cada norma vectorial
p
x es una funcin continua de las componentes del vec-
tor x, es decir, de x
1
, x
2
, ..., x
n
,.
Teorema 2: Para cada dos normas vectoriales y
i j
x x , existen dos constantes positivas
m y M tales que:
,
i j i
m M
n
x x x x C (69)
Este teorema establece una equivalencia de normas: por ejemplo, si con una norma una se-
cuencia de vectores tiende a cero, tambin tender a cero con cualquier otra norma.
1.8.2 Norma de una matriz
Una norma de una matriz es un nmero real positivo que "mide" el tamao de una matriz, y permi-
te por ejemplo estudiar cuando una matriz tiende a otra matriz o a la matriz nula.
A la norma de una matriz se le exige las mismas tres condiciones que deba satisfacer la norma de
un vector, y una condicin adicional relacionada con el producto de matrices:
1. 0, y 0 si y slo si = = A A A 0 (70)
2. , para cualquier = A A K (71)
3. (desigualdad triangular) + + A B A B (72)
4. AB A B (73)
Es posible definir normas de matrices directamente. Por ejemplo, en lgebra II se vio que las matri-
ces AR
mn
forman un espacio vectorial eucldeo con un producto escalar definido como:

( )
1 1
, traza
m n
T
ij ij
i j
a b
= =
= =

A B A B (74)
Este producto escalar induce una norma, la norma de Frobenius, que responde a la expresin:

( )
1
2
2
1 1
traza
m n
T
ij
F
i j
a
= =

= =

A A A (75)
Sin embargo, las normas matriciales ms utilizadas se definen por otro camino.
1.8.3 Norma matricial inducida por una norma vectorial (norma natural):
En este caso la norma matricial se va a definir a partir de una norma vectorial en la forma:

( )
1
max , o bien: max 1
=
= =
x 0 u
Ax
A A Au Ay y
x
(76)
donde y es el vector concreto de R
n
que produce el mximo (y la igualdad). El mximo se alcanza
siempre porque el conjunto de vectores u es cerrado y acotado.
De esta definicin de norma matricial se concluye que:
Ax A x (77)
Se cumplen las cuatro condiciones de la definicin de norma matricial:
lgebra lineal numrica con Matlab pg. 16
1. Si 0, 0, y 0 si y slo si = = x A A A 0 (78)
( ) 2. max max , o



= = =
x 0 x 0
Ax Ax
A A K R C
x x
(79)
( ) 3. + = + = + + + A B A B y Ay By Ay By A B (80)
( ) ( ) 4. = = AB AB y A By A By A B (81)
Se van a estudiar a continuacin las normas matriciales inducidas por las normas vectoriales
1
x ,
2
x y

x , que se denotarn con la notacin correspondiente.


1.8.4 Norma-1 matricial
La expresin de la norma-1 de una matriz A es la siguiente:

1 1
max
n
jk
j
k
a
=
=

A (82)
La norma-1 es el mximo de la suma de los valores absolutos de los elementos de cada columna.
Demostracin: Supngase que la igualdad en la definicin de la norma se alcanza para un vector y tal que:

1 1 1
, siendo 1. = = A Ay y
(83)
Desarrollando la expresin de la norma-1 del vector Ay:

( )
1 1 1 1 1 1 1 1
1 1 1 1 1
max max max
n n n n n n
jk k jk k k jk
j k j k k j
n n n n
k jm jm jm
k j j j
m m m
a y a y y a
y a a a
= = = = = =
= = = =
= = =
= =


A Ay
y
(84)
El desarrollo anterior demuestra que el mximo de las sumas de los valores absolutos de cada columna es un lmite
superior de la norma-1, pero para que sta sea verdaderamente la expresin de la norma-1 este lmite debe poder ser
alcanzado, al menos para un cierto vector x.
En efecto, supngase que la columna que da el mximo es la columna K. Tomando como vector x el vector e
K
de la
base natural
( )
1
1
K
= e
:

1 1 1 1 1
n n n
K jk kK jK
j k j
a a
= = =
= = =

Ae A
(85)
1.8.5 Norma- matricial
La expresin de la norma- de una matriz A es la siguiente:

1
max
n
kj
j
k
a
=
=

A (86)
La norma- es el mximo de la suma de los valores absolutos de los elementos de cada fila.
Demostracin: Supngase que la igualdad en la definicin de la norma se alcanza para un vector y tal que:

, siendo 1.

= = A Ay y
(87)
Desarrollando la expresin de la norma- del vector Ay:

1 1
1 1 1
max max
max max max max
n n
jk k jk k
k k
j j
n n n
k jk jk jk
k k k
k j j j
a y a y
y a a a
= =
= = =
= =
= =


A Ay
y
(88)
Introduccin pg. 17
Al igual que en el caso anterior, se ha obtenido un lmite superior para la norma-. Para que la expresin obtenida co-
rresponda a dicha norma, hay que demostrar que dicho lmite se puede realmente alcanzar para un cierto vector x.
En efecto, supngase que la fila que da la mxima suma de valores absolutos es la fila J. Se toma un vector x tal que
, si 0; 0, si 0
k Jk Jk Jk k Jk
x a a a x a = = =
. Sustituyendo en (88):

( )
2
1 1 1 1
max , 1
n n n n
jk k Jk k Jk Jk Jk
k k k k
j
a x a x a a a
= = = =
= = = = =

Ax x
(89)
1.8.6 Norma espectral
La expresin de la norma espectral o norma-2 de una matriz cualquiera A es la siguiente:

( )
2
H
= A A A (90)
donde ( ) M es el radio espectral, esto es, el valor absoluto del mximo valor propio en valor ab-
soluto. La expresin (90) indica que la norma-2 es la raz cuadrada positiva del mximo valor pro-
pio de la matriz A
H
A, que es una matriz hermtica y al menos semidefinida positiva, cuyos valo-
res propios son por tanto reales y no negativos.
Demostracin: La matriz A
H
A tendr una base ortonormal de vectores propios u
1
, u
2
, ..., u
n
:


H H H
j j j j j j
= = A Au u u A Au
(91)
El vector yR
n
que produce la igualdad en la definicin de la norma inducida (76) se puede expresar como combina-
cin lineal de los n vectores propios u
j
:

2
2
2 1 1
; 1
n n
k k k
k k

= =
= = =

y u y
(92)
Introduciendo ahora la definicin de la norma-2 del vector (Ay) y operando:

( ) ( )
( ) ( ) ( ) ( ) ( )
2 2
2 2 1 1
2 2
1 1 1 1
max max
n n
H H H H
j j k k
j k
n n n n
H H
j j k k k k k i k i
j k k k
i i


= =
= = = =
= = = =
= = = =


A Ay y A Ay u A A u
u u A A
(93)
De nuevo ste es solamente un lmite superior, pero dicho lmite se puede alcanzar para x=u
n
:

( )
2
2
H H H H
n n n n n n n
= = = = Au u A Au u u A A
(94)
1.8.7 Teoremas relacionados con las normas matriciales (sin demostracin)
Teorema 1: Cualquier norma matricial A es una funcin continua de los mn elementos
de la matriz AC
mn
.
Teorema 2: Para cada par de normas matriciales y
i j
A A existen unas constantes posi-
tivas m y M tales que:

i j i
m M A A A (95)
Este Teorema permite hablar de "equivalencia de normas matriciales".
Teorema 3: Para cualquier norma natural y cualquier matriz cuadrada AC
nn
se verifica:
( ) A A (96)
pues ( )
1
max
n n n n n n

=
= = = = =
x
A Ax Au u u A
lgebra lineal numrica con Matlab pg. 18
Teorema 4: Para cualquier matriz cuadrada AC
nn
y cualquier valor arbitrariamente pe-
queo, existe alguna norma natural A tal que:
( ) ( ) + A A A (97)
El radio espectral de una matriz cuadrada no es una norma (salvo que la matriz A sea nor-
mal, en cuyo caso ( )
2
= A A ), pero puede ser utilizado como tal dada su "cercana".
Corolario: Para cualquier matriz cuadrada A: ( ) inf

= A A .
Sistemas de ecuaciones lineales pg. 19
2. Sistemas de ecuaciones lineales
2.1 Introduccin a los sistemas de ecuaciones lineales
La resolucin de sistemas de ecuaciones lineales es uno de los problemas matemticos ms impor-
tantes en ingeniera. Hasta la llegada de los computadores digitales (segunda mitad del s. XX) la
capacidad de resolver sistemas de ecuaciones lineales estaba muy limitada, no por la dificultad con-
ceptual del problema, sino por el gran nmero de operaciones aritmticas necesarias. Ahora se pue-
de resolver con un PC un sistema 10001000 en menos de 1 seg. Con programas especiales que
aprovechan la estructura de la matriz se pueden resolver con PCs, de forma rutinaria, sistemas de
decenas cientos de miles de ecuaciones lineales.
Muchos otros mtodos matemticos (clculo de valores y vectores propios, integracin de ecuacio-
nes diferenciales, optimizacin, ...) se reducen a la resolucin repetida de sistemas de ecuaciones
lineales. La resolucin de sistemas de ecuaciones lineales tiene adems un importante valor didcti-
co para los mtodos numricos en general y para la programacin de ordenadores.
2.2 Interpretaciones del sistema Ax=b
El sistema de ecuaciones lineales Ax=b admite al menos las dos interpretaciones siguientes:
1. Interseccin de hiperplanos. La solucin es el punto (o conjunto de puntos) que satisface las
ecuaciones de todos los hiperplanos, es decir, su interseccin. La interseccin puede ser un
punto, un subespacio de dimensin nr, o el conjunto vaco.
2. Combinacin lineal de vectores. El vector trmino independiente b es una combinacin li-
neal de las columnas de A, cuyos coeficientes son los valores de x. Con notacin de Matlab:

1 2
; (:,1) (:, 2) ... (:, )
n
x x n x + + + = Ax = b A A A b (98)

Figura 13. Interseccin de hiperplanos. Figura 14. Combinacin lineal de vectores columna.
La expresin (98) indica que para que el sistema de ecuaciones Ax=b tenga solucin, es necesario y
suficiente que el vector b pertenezca a Im(A), es decir, al subespacio generado por las columnas de
A. La solucin ser nica si hay una nica forma de expresar b como combinacin lineal de las co-
lumnas de A.
2.3 Algunos casos posibles del sistema Ax=b en 2-D
Como ejemplo ilustrativo de lo dicho en el apartado anterior, en la Figura 15 se muestran geomtri-
camente algunos casos posibles de sistemas de ecuaciones en R
2
, teniendo en cuenta los nmeros de
ecuaciones y de incgnitas, el rango de la matriz A y el vector b. La interpretacin es inmediata.
b
A(:,1)
A(:,1)x
1
A(:,2)x
2
A(:,3)
A(:,3)x
3
A(:,2)

lgebra lineal numrica con Matlab pg. 20




Figura 15. Algunos casos posibles del sistema Ax=b en R
2
.
2.4 Sistema de m ecuaciones con n incgnitas
Se parte de un sistema de ecuaciones lineales expresado en forma matricial del siguiente modo:

11 1 12 2 1 1 11 12 1 1 1
21 1 22 2 2 2 21 22 2 2 2
1 2 1 1 2 2
...
...

...
...
n n n
n n n
m m mn n m m m mn n m
a x a x a x b a a a x b
a x a x a x b a a a x b
a a a x b a x a x a x b
+ + + =


+ + + =


=





+ + + =

Ax = b

(99)
Como se ha dicho anteriormente, para que el sistema tenga solucin, el vector b debe ser combina-
cin lineal de las columnas de A (en Matlab, A(:,i) representa la columna i de A):

1 2
(:,1) (:, 2) ... (:, )
n
x x n x + + + = Ax = b A A A b (100)
El mtodo de eliminacin de Gauss est basado en el hecho de que una ecuacin cualquiera puede
sustituirse por una combinacin lineal de esa ecuacin y de las dems, sin que vare la solucin del
sistema. As pues, el mtodo de eliminacin de Gauss:
Combina ecuaciones (filas de la matriz A y elementos del vector b) de forma que el sistema
adopte una forma ms sencilla: forma triangular superior o forma de escalera.
Permite entender mejor las caractersticas del sistema a resolver: si tiene solucin o no, si la
solucin es nica, etc.
Es equivalente a una factorizacin PA=LU, donde P es una matriz de permutacin, L es
una matriz triangular inferior mm con unos en la diagonal, que contiene los factores por los
que se han multiplicado las filas de los pivots y U es una matriz mn que resulta de trans-
formar A a la forma de escalera.
m=2, n=2,
m=3, n=2, r=2
bIm(A)
m=3, n=2, r=2
bIm(A)
m=1, n=2, r=1 m=2, n=2, r=1
bIm(A)
m=2, n=2, r=1
bIm(A)
Sistemas de ecuaciones lineales pg. 21
2.5 El mtodo de eliminacin de Gauss bsico
2.5.1 Operaciones con filas y matrices elementales
A continuacin se describe el mtodo de eliminacin de Gauss con un ejemplo 44. En primer lugar
se hace un cero en la posicin (2,1) multiplicando el sistema por la matriz P
21
:

11 12 13 14 11 12 13 14
21 22 23 24 22 23 24 21
21 21
31 32 33 34 31 32 33 34
41 42 43 44 41 42 43 44
1 0 0 0
0 1 0 0
, ,
0 0 1 0
0 0 0 1
a a a a a a a a
a a a a a a a m
a a a a a a a a
a a a a a a a a




= = =



A P P A (101)
donde:

21 21
21 21 21 21 11 21 11 2 2 21 1
11 11
; 0; , 2,..., 4
j j j
a a
m a a m a a a a a m a j
a a
= = = = = = (102)
Seguidamente se obtienen ceros en los restantes elementos de la 1 columna pre-multiplicando por
las matrices P
31
y P
41
. Se llega a la situacin siguiente:

1
1
11
31 41
31
1 1
41
11 12 13 14
22 23 24
41 31 21 1 41 31
32 33 34
42 43 44
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
, ,
0 0 1 0 0 1 0
0 0 1 0 0 0 1
0
,
0
0
i
i
ij ij i j
a
m
a
m
a a m a
m
a a a a
a a a
a a a
a a a


= =



=






=




P P
P P P A P P P P
21
21
31
41
1 0 0 0
1 0 0
0 1 0
0 0 1
m
m
m


(103)
Obsrvese la forma peculiar en que se multiplican las matrices elementales P
i1
. Si la matriz A es
simtrica, la submatriz de P
1
A en la que hay que seguir haciendo ceros tambin lo es. De forma
anloga se hacen ceros, debajo de la diagonal, en las columnas 2 y 3, pre-multiplicando por unas
matrices P
2
y P
3
:

11 12 13 14
22 23 24
42 32 1 2 42 32
33 34 32
43 44 42
1 0 0 0
0 0 1 0 0
,
0 0 0 1 0
0 0 0 0 1
a a a a
a a a
a a m
a a m




= =




P P PA P P P (104)

11 12 13 14
22 23 24
3 2 1 3 43
33 34
43 44
1 0 0 0
0 1 0 0 0
,
0 0 1 0 0 0
0 0 1 0 0 0
a a a a
a a a
a a
m a




= =




P P PA P P (105)
Para llegar a este resultado se ha supuesto que los elementos que aparecen sobre la diagonal los
pivots:
11 22 33
, y a a a son distintos de cero, pues aparecen en los denominadores de los factores m
ji
.
Finalmente se llega a un sistema de ecuaciones lineales equivalente al original, que tiene la forma:
lgebra lineal numrica con Matlab pg. 22
( )
3 2 1 3 2 1
= P P PA x P P Pb (106)
Este sistema es mucho ms fcil de resolver que el original, por los ceros introducidos en la matriz.
El sistema podra resolverse calculando x
4
de la cuarta ecuacin, x
3
de la tercera, x
2
de la segunda, y
finalmente x
1
de la primera ecuacin.
2.5.2 Factorizacin LU equivalente
Las matrices elementales P
i
introducidas en las expresiones (103), (104) y (105) tienen propiedades
especiales y operan de una forma particular. Por una parte, es fcil comprobar que el producto P
3
P
2

no ofrece ninguna caracterstica especial:

3 2
32 32
43 43 32 42 43 42
1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 1 0 0
0 0 1 0 0 1 0 0 1 0
0 0 1 0 1 0 0 1
m m
m m m m m m



= =




P P (107)
Sin embargo, la inversa de las matrices P
j
tiene una forma muy sencilla, ya que se obtiene simple-
mente cambiando el signo de los factores m
ij
, como se comprueba a continuacin para P
2
:

1
2 2
32 32
42 42
1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 1 0 0
0 1 0 0 1 0 0 0 1 0
0 0 1 0 0 1 0 0 0 1
m m
m m




= =


P P (108)
Ahora se comprobar que el producto de las inversas de P
3
P
2
en orden inverso se realiza me-
diante simple "superposicin":

1 1
2 3
32 32
43 42 43 42
1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 1 0 0
0 0 1 0 0 1 0 0 1 0
0 0 1 0 1 0 0 1
m m
m m m m




= =



P P (109)
Pre-multiplicando la ecuacin (105) por las inversas de las matrices P
i
y teniendo en cuenta la for-
ma (109) que adopta dicho producto de inversas:

11 12 13 14 11 12 13 14
21 22 23 24 22 23 24 1 1 1
1 2 3
31 32 33 34 33 34
41 42 43 44 44
1 0 0 0
1 0 0 0 0
1 0 0 0 0 0
1 0 0 0 0 0 0
a a a a a a a a
m a a a a a a
m m a a a a
m m m a a





= =




A P P P (110)
La conclusin es que el mtodo de eliminacin de Gauss equivale a descomponer la matriz A en el
producto de una matriz triangular inferior L con "unos" en la diagonal, por una matriz triangular
superior U:
= A LU (111)
La factorizacin LU tiene una gran importancia en lgebra lineal numrica y se estudiar con deta-
lle en el apartado 4.1.
Sistemas de ecuaciones lineales pg. 23

Figura 16. Eliminacin de Gauss.

Figura 17. Vuelta atrs.
2.5.3 Programa de Gauss bsico nn
A continuacin se presenta un programa bsico para resolver sistemas de ecuaciones lineales con
Matlab (los programas en C y Fortran seran muy similares). Se realizan dos tares sucesivas: en
primer lugar la triangularizacin, basada hacer cero el elemento (i,k) combinando las filas i y k:
%t r i angul ar i zaci n de l a mat r i z A
%se hacen cer os en l as n- 1 pr i mer as col umnas
f or k=1: n- 1
%se hacen cer os en l a col umna k
f or i =k+1: n
m=A( i , k) / A( k, k) ;
%a l a f i l a i se r est a l a f i l a k mul t i pl i cada por m
f or j =k+1: n
A( i , j ) =A( i , j ) - m*A( k, j ) ;
end
%se t r ansf or ma del mi smo modo el t r mi no i ndependi ent e
b( i ) =b( i ) - m*b( k) ;
end
end
En una segunda fase se calculan las incgnitas mediante la vuelta atrs, con el siguiente proceso:
%se cal cul a x( n) de l a l t i ma ecuaci n
x( n) =b( n) / A( n, n) ;
%se cal cul a x( k) de l a ecuaci n k
f or k=n- 1: - 1: 1
s=0;
f or i =k+1: n
s=s+A( k, i ) *x( i ) ;
end
x( k) =( b( k) - s) / A( k, k) ;
end
El algoritmo bsico puede modificarse si la matriz A es simtrica, haciendo que el nmero de ope-
raciones se reduzca aproximadamente a la mitad (en negrita las dos sentencias modificadas):
%t r i angul ar i zaci n de l a mat r i z A ( si mt r i ca)
%se hacen cer os en l as n- 1 pr i mer as col umnas
f or k=1: n- 1
%se hacen cer os en l a col umna k
f or i =k+1: n
m=A(k,i)/A(k,k); % se tiene en cuenta la simetra
%a l a f i l a i se r est a l a f i l a k mul t i pl i cada por m
%sl o se oper a por enci ma de l a di agonal
for j=i:n
A( i , j ) =A( i , j ) - m*A( k, j ) ;
end
%se t r ansf or ma del mi smo modo el t r mi no i ndependi ent e
b( i ) =b( i ) - m*b( k) ;
end
end
=
k
k
i
k
0
* * *
=
k
k
0 i
j
k
i
lgebra lineal numrica con Matlab pg. 24
2.5.4 Programa para resolver un sistema en la forma LUx=b
Los programas anteriores suponen que las operaciones sobre las filas en el sistema Ax=b se realizan
simultneamente en ambos miembros. En realidad, hay una opcin ms favorable, que permite se-
parar las operaciones sobre la matriz A y sobre el vector b. En una primera fase se realiza la trian-
gularizacin de la matriz A sin operar con el vector b, pero almacenando los factores m que apare-
cen en la ec. (110) en las posiciones de los nuevos ceros de A, con objeto de disponer al final de las
matrices L y U.
Una vez hecha la factorizacin, el sistema LUx=b se transforma definiendo un nuevo vector yUx,
con lo que se tiene el sistema Ly=b, del que se puede despejar fcilmente el vector y porque L es
triangular inferior. Conocido y, se despeja el vector x del sistema Ux=y teniendo en cuenta que U es
triangular superior. A continuacin se dan los programas de Matlab que realizan la triangularizacin
y las dos resoluciones con matrices triangulares (ver Figura 18 y Figura 19). Por brevedad, se han
reducido al mnimo los comentarios en el cdigo.
%f act or i zaci n A=LU
f or k=1: n- 1
f or i =k+1: n
m=A( i , k) / A( k, k) ;
f or j =k+1: n
A( i , j ) =A( i , j ) - m*A( k, j ) ;
end
%se al macena el f act or men l a posi ci n del cer o
A( i , k) =m;
end
end

%Resol uci n del si st ema Ly=b
y=zer os( n, 1) ; y( 1) =b( 1) ;
f or k=2: n
s=0;
f or j =1: k- 1
s=s+A( k, j ) *y( j ) ;
end
y( k) =b( k) - s;
end

%Resol uci n del si st ema Ux=y
x=zer os( n, 1) ; x( n) =y( n) / A( n, n) ;
f or k=n- 1: - 1: 1
s=0;
f or j =k+1: n
s=s+A( k, j ) *x( j ) ;
end
x( k) =( y( k) - s) / A( k, k) ;
end

Figura 18. Resolucin de Ly=b.

Figura 19. Resolucin de Ux=y.
1
=
k
k k
0
*
1
*
=
k
k
i
k
0
* * *
Sistemas de ecuaciones lineales pg. 25
2.5.5 Programa de Gauss vectorizado
Matlab permite realizar una vectorizacin parcial o total del algoritmo: la velocidad de clculo con
Matlab (sobre todo en versiones anteriores a Matlab 6.5) aumenta considerablemente reemplazando
el for ms interno por una nica instruccin que trabaja con dos filas completas:
f or k=1: n- 1
f or i =k+1: n
m=A( i , k) / A( k, k) ;
A(i,k+1:n)=A(i,k+1:n)-m*A(k,k+1:n);
b( i ) =b( i ) - m*b( k) ;
end
end
La vectorizacin puede ser doble realizando las operaciones del mtodo de Gauss en otro orden
diferente, mostrado en la Figura 20. Obsrvese que en vez de hacer ceros por columnas, se hacen
cero los elementos de la fila i que estn delante de la diagonal. Los elementos mostrados en gris han
alcanzado ya su valor definitivo.
Para transformar la fila i (hacer ceros en ella) se crea el vector de factores por los que hay que mul-
tiplicar las filas anteriores a la i:
(1: 1) (1: 1, ) ' . / diag(( (1: 1,1: 1)) ' i i i i i = v A A (112)
La fila i puede sufrir todas las transformaciones a la vez, resultando un mtodo sensiblemente ms
rpido que los anteriores (con versiones antiguas de Matlab):

1
1
( , : ) ( , : ) ( , : ) ( ) ( , : ) (1: 1) (1: 1, : )
( ,1: 1) (1: 1)
i
j
i i n i i n j i n j i i n i i i n
i i i

=
= + = +
=

A A A v A v A
A v
(113)


Figura 20. Vectorizacin doble del mtodo de Gauss.
2.6 Mtodo de eliminacin de Gauss con pivotamiento
2.6.1 Necesidad del pivotamiento
En el proceso de eliminacin de Gauss bsico anteriormente explicado es necesario dividir por los
elementos que aparecen en la diagonal, que se denominan "pivots" o "pivotes". En ocasiones puede
aparecer un cero (o un elemento de valor muy pequeo) en la posicin de un pvot: en ese caso el
proceso no puede continuar si se utiliza el algoritmo previo. Si debajo del pvot hay elementos no
nulos se pueden permutar las filas correspondientes y proseguir la eliminacin (la solucin del sis-
tema no vara). Se considerar un sistema 45, en el que se ha encontrado un elemento nulo en la
posicin (2,2):
Elementos con el
valor inicial
i
i
Elementos ya
transformados
Elementos a
hacer 0
Fila a trans-
formar
Elementos
que ya son 0
lgebra lineal numrica con Matlab pg. 26

11 12 13 14 15
23 24 25
1
32 33 34 35
42 43 44 45
0 0
0
0
a a a a a
a a a
a a a a
a a a a




=




PA (114)
La permutacin de filas puede hacerse pre-multiplicando por una matriz P en la forma:

11 12 13 14 15 11 12 13 14 15
23 24 25 32 33 34 35
1
32 33 34 35 23 24 25
42 43 44 45 42 43 44 45
1 0 0 0
0 0 0 0 0 1 0
0 0 0 0 1 0 0
0 0 0 0 0 1
a a a a a a a a a a
a a a a a a a
a a a a a a a
a a a a a a a a




= =




PPA (115)
La matriz P puede construirse a partir de un vector p que contiene el orden de los pivots [1,3,2,4].
Tambin puede suceder que algunas columnas carezcan de pvot vlido. Por ejemplo, si al hacer
ceros en la columna 2 los elementos correspondientes de la columna 3 se han hecho tambin cero:

11 12 13 14 15
22 23 24 25
44
2 1 44 4 43
34 35 34
44 45 43
1 0 0 0
0 0 1 0 0
, ,
0 0 0 0 0 1 0
0 0 0 0 0 1
a a a a a
a a a a
a
m
a a a
a a m





= = =




P PA P P (116)
el proceso normal falla y hay dos posibilidades:
1. La eliminacin puede proseguir en las columnas posteriores y llegar hasta un ltimo pvot en
la ltima fila (x
3
es una variable libre o independiente, que puede tomar un valor arbitrario).

11 12 13 14 15
22 23 24 25
4 2 1
34 35
45
0
0 0 0
0 0 0 0
a a a a a
a a a a
a a
a




=


P P PA (117)
2. La eliminacin se detiene porque debajo del ltimo pvot encontrado todas las filas restantes
se han hecho cero (una fila dependiente de las dems, y dos variables libres: x
3
y x
5
).

11 12 13 14 15
22 23 24 25
4 2 1
34 35
0
0 0 0
0 0 0 0 0
a a a a a
a a a a
a a




=



P P PA (118)
2.6.2 Mtodo de Gauss con pivotamiento por columnas
Continuando con lo indicado en la seccin anterior, en el caso general el mtodo de Gauss con pivo-
tamiento por columnas procede del siguiente modo, ilustrado con un ejemplo en la Figura 21:
1. Se busca el mayor elemento en valor absoluto de la primera columna. Este elemento servir
como pvot para hacer ceros en dicha columna.
2. El segundo pvot es el mximo elemento en valor absoluto de la 2 columna, sin contar el
elemento de la fila del primer pvot. Con este pvot se hacen ceros en los elementos de la 2
columna que no pertenecen a una fila de un pvot anterior.
Sistemas de ecuaciones lineales pg. 27
3. De modo anlogo se calculan los pivots en las restantes columnas y se hacen cero los ele-
mentos de cada columna, pero slo en las filas en las que no han aparecido pivots.
4. En el sistema final es fcil hallar las incgnitas x
n
, ..., x
1
, partiendo de la fila en la que ha
aparecido el ltimo pvot, luego en la del penltimo pvot, y as hasta la del primero.
5. En la prctica, no es necesario intercambiar filas: basta conocer las filas dnde han ido apa-
reciendo los sucesivos pivots, almacenando en un vector la informacin correspondiente.
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0










Figura 21. Mtodo de eliminacin de Gauss con pivotamiento por columnas.
Posibles dificultades del mtodo de Gauss con el pivotamiento por columnas descrito:
Si una ecuacin del sistema (o una fila de la matriz) se multiplica por un nmero muy gran-
de (por ejemplo, 1e10), la solucin del sistema no vara, pero se puede alterar el orden en el
que se eligen los pivots, y con dicho orden la precisin de la solucin calculada.
Por ello es conveniente que todas las filas de la matriz sean vectores que tengan aproxima-
damente la misma norma, o bien que, al elegir los pivots, se comparen los elementos de la
columna correspondiente, dividiendo cada uno de ellos por la norma de su fila. A este pro-
ceso se le denomina escalamiento o scaling por filas.
A continuacin se presenta un programa de Matlab, llamado pivotcol1.m, que selecciona directa-
mente los pivots en cada columna, sin dividir por la norma de la fila.
%f i cher o pi vot col 1. m
%Gauss y pi vot ami ent o por col umnas. Vect or i zaci n si mpl e

%se gener an al eat or i ament e l a mat r i z y el vect or de un t amao dado
n=5; A=r ound( r and( n, n) *20- 10) ; b=r ound( r and( n, 1) *20- 10) ; x=zer os( n, 1) ;

%se cal cul a l a sol uci n exact a con el oper ador ( \ )
xe=AA\ bb;
%vect or que cont endr el or den de l os pi vot s
p=[ 1: n] ;
for k=1:n-1
%buscar el p vot en col umna k. No i nt er vi enen l as f i l as de pi vot s ant er i or es
[ pk, i k] =max( abs( A( p( k: n) , k) ) ) ;
%se i nt er cambi an l os el ement os en p par a i ndi car el or den de l os pi vot s
t emp=p( k) ;
p( k) =p( i k+k- 1) ;
p( i k+k- 1) =t emp;
%hacer cer os en col umna p vot
for i=p(k+1:n)
m=A( i , k) / A( p( k) , k) ;
A( i , k: n) =A( i , k: n) - . . .
m*A( p( k) , k: n) ;
b( i ) =b( i ) - m*b( p( k) ) ;
%A( i , k) =m;
end
end
%vuel t a at r s: or den i nver so de apar i ci n de pi vot s
x( n) =b( p( n) ) / A( p( n) , n) ;
for i=n-1:-1:1
s=A( p( i ) , i +1: n) *x( i +1: n) ;
x( i ) =( b( p( i ) ) - s) / A( p( i ) , i ) ;
end

lgebra lineal numrica con Matlab pg. 28
di sp( ' Sol uci n de Mat l ab' ) ; di sp( xe) ;
di sp( ' Sol uci n cal cul ada' ) ; di sp( x) ;
di sp( ' Ya he t er mi nado' )
2.6.3 Mtodo de Gauss con pivotamiento total
En muchas aplicaciones prcticas el pivotamiento por columnas descrito anteriormente es suficiente
para obtener una solucin correcta y con pequeos errores numricos. Sin embargo, existen casos
en los cuales es necesario realizar pivotamiento total, eligiendo el pvot no entre los elementos de
una columna, sino entre todos los elementos de la matriz que no estn en una fila y/o columna de
los pivots anteriores. Una posible aplicacin del pivotamiento total es en los sistemas indetermina-
dos, cuando es necesario elegir las variables libres ms adecuadas.
El mtodo de Gauss con pivotamiento total se ilustra en la Figura 22 y procede del siguiente modo:
1. En primer lugar se busca el mayor elemento en valor absoluto de toda la matriz. Este ele-
mento ser el primer pvot: en el caso de la Figura 22 se supone que es la fila 4, columna 2.
2. Se hacen ceros todos los elementos de la columna 2 (menos el pvot).
3. Se busca el mximo elemento en valor absoluto de toda la matriz, excluyendo la fila 4 y la
columna 2. Este elemento ser el 2 pvot (fila 3, columna 4).
4. Se hacen ceros en la columna 4 excepto en las filas de pivots anteriores.
5. Se prosigue de la misma forma hasta que todas las filas y/o columnas tienen un pvot.
6. En la vuelta atrs, las incgnitas se calculan en orden decreciente de columnas en las que
han aparecido los pivots, y cada una de ellas se calcula en el orden decreciente de filas en
las que han aparecido pivots.
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0










Figura 22. Mtodo de eliminacin de Gauss con pivotamiento total.
El pivotamiento total mejora algo la estabilidad del proceso de eliminacin de Gauss, pero en gene-
ral se considera que esta ganancia no merece la pena por el esfuerzo adicional que lleva consigo.
Como ya se ha dicho, se utiliza en ocasiones cuando el objetivo es determinar el rango de la matriz
o una particin ptima entre variables bsicas y variables libres.
Con pivotamiento total puede ser conveniente utilizar escalamiento por filas y por columnas, segn
la siguiente expresin (D
1
y D
2
permutaciones de una matriz diagonal):
, siendo
1 2 1 2
D AD y = D b x = D y (119)
El escalamiento por columnas implica un cambio de unidades en las incgnitas: en algunos casos
puede ser conveniente no mezclar metros con micras, y en otros casos puede ser necesario hacerlo.
Hay que sealar que no hay criterios absolutos para hacer un buen escalamiento por columnas. Un
buen criterio podra ser hacer que el mximo elemento de cada fila y columna tenga una magnitud
parecida, por ejemplo que est entre y 1. Hay que tener en cuenta que si al hacer el scaling se
multiplica y divide siempre por potencias de 2, no se introducen errores de redondeo adicionales.
Sistemas de ecuaciones lineales pg. 29
2.7 Resumen del mtodo de eliminacin de Gauss
2.7.1 Reduccin de una matriz a la forma de escalera
Mediante el mtodo de eliminacin de Gauss con pivotamiento por columnas y permutacin de filas
un sistema Ax=b, de tamao mn, se puede reducir a la forma de "escalera" siguiente:

pivot
0
elemento 0
0 0 0
matriz de permutacin
0 0 0 0 0 0 0 0
matriz triangular inferior
0 0 0 0 0 0 0 0 0
m m
m m







= =





PA LU L
P
L
(120)
Esta forma de escalera es muy interesante, pues arroja mucha ms luz sobre el sistema de ecuacio-
nes a resolver que el sistema original Ax=b. Aparecen r pivots (elementos distintos de cero), con
ceros debajo y a la izquierda. El rango de la matriz A es r. En la prctica las cosas no estarn tan
claras, por ejemplo cuando los elementos (3,3), (4,5), (4,6), (4,7) y (4,8) sean muy pequeos, pero
no exactamente cero: Cundo un nmero pequeo debe pasar a considerarse cero? La mejor solu-
cin a este tipo de preguntas no est en la forma de escalera, sino el la DVS (Descomposicin de
Valores Singulares), que se ver en el apartado 4.2.4.
De momento, se supondr que la forma de escalera no presenta confusin posible entre elementos
cero y elementos muy pequeos.
2.7.2 Conclusiones de la forma de escalera PA=LU
A partir de la forma de escalera dada por la expresin (120) se pueden extraer las conclusiones si-
guientes:
La matriz P indica las posibles permutaciones de filas realizadas para que los pivots aparez-
can siempre ordenadamente en las filas superiores. La factorizacin LU realizada corres-
ponde a la matriz PA, es decir a la matriz A con las filas permutadas.
En el sistema original slo r de las m ecuaciones eran independientes y por tanto slo r de
los m vectores fila (en R
n
) eran independientes. Por eso hay mr filas que se han hecho cero,
correspondientes a las filas que eran linealmente dependientes de las dems.
Las columnas (y las incgnitas) aparecen divididas en dos grupos: las que tienen pivots (va-
riables bsicas o dependientes) y las que no tienen pivots (variables libres o independien-
tes). Si hay variables libres, la solucin, caso de existir, no ser nica.
Dependiendo de lo que haya sucedido con el vector b (que habr debido sufrir las mismas permuta-
ciones y combinaciones de filas que la matriz A), se pueden presentar distintas posibilidades. Re-
curdese que, matricialmente, el sistema se ha transformado en la forma:
( )
1
4 3 2 1

= = = = PAx LUx Pb Ux L Pb P P P P Pb (121)


Existe solucin si las (mr) filas que se han hecho cero en el primer miembro Ux se hacen tambin
cero en el segundo miembro L
1
Pb, es decir cuando los (mr) ltimos elementos de ( )
4 3 2 1
P P P P Pb
se anulan al igual que las correspondientes filas de U. Adems, si el sistema tiene solucin y hay
variables libres, el sistema tiene infinitas soluciones.
lgebra lineal numrica con Matlab pg. 30
2.7.3 La eliminacin de Gauss y los cuatro subespacios de la matriz A
El sistema de ecuaciones lineales Ax=b transformado a forma de escalera segn las ecuaciones
(120) y (121), permite relacionar los cuatro subespacios fundamentales de las matrices A y U.
2.7.3.1 SUBESPACIO DE FILAS IM(A
T
)R
N

Supngase que el rango es rm. El subespacio de filas Im(A
T
) coincide con Im(U
T
) por la forma en
la que se ha construido U mediante combinaciones lineales de las filas de A. Las filas no nulas de U
constituyen una base de Im(A). Si r=m el sistema siempre tiene solucin. Si r<m slo existe solu-
cin si los ltimos elementos de b se hacen cero a la vez que las ltimas filas de A:

1 1
0

0 0 0
0 0 0 0 0 0
?









= = = = =







Ax b PL Ax Ux x PL b (122)
2.7.3.2 SUBESPACIO NULO KER(A)R
N

El ncleo de A, Ker(A), est formado por los vectores xR
n
que satisfacen Ax=0. Por tanto, Ker(A)
es el complemento ortogonal de Im(A
T
) y su rango es nr. Se verifica que ( ) ( ) Ker Ker = U A . Se
puede obtener una base de ambos subespacios resolviendo el sistema de ecuaciones nr veces, dan-
do alternativamente valor unidad a una de las variables libres y cero a las dems.
Los vectores de Ker(A) representan las relaciones de dependencia lineal que existen entre las co-
lumnas de A, como se ve de la ecuacin Ax=0.
2.7.3.3 SUBESPACIO DE COLUMNAS IM(A)R
M

La dimensin de Im(A) es r, rango de A. Si r=m el sistema tiene solucin para todo b. Si r<m slo
existe solucin si bIm(A).
Los subespacios Im(A) e Im(U) son completamente diferentes, pues las operaciones sobre las filas
de A han cambiado sus vectores columna. Slo tienen en comn la dimensin (el rango de A y de
U) y las relaciones de dependencia e independencia lineal (las columnas de U en las que han apare-
cido los pivots son tambin columnas independientes en A).
2.7.3.4 SUBESPACIO NULO DE LA TRANSPUESTA KER(A
T
)R
M

Ker(A
T
) contiene los vectores que cumplen y
T
A=0, y es el complemento ortogonal del subespacio
de columnas Im(A). Su dimensin es pues mr.
Los vectores
( )
Ker
T
y A definen las combinaciones lineales de las filas de A que dan el vector
nulo, y esas mismas combinaciones debern anular los ltimos elementos del vector b, de acuerdo
con (122). Tampoco
( )
Ker
T
A est relacionado con
( )
Ker
T
U .
2.8 Algunas funciones de Matlab en relacin con el mtodo de Gauss
En esta apartado se van a describir brevemente algunas funciones de Matlab en relacin con el m-
todo de eliminacin de Gauss y la resolucin de sistemas de ecuaciones lineales.
1. Operador barra invertida (\)
Por lo general, la operacin A\b produce el mismo resultado que inv(A)*b, con algunas dife-
rencias, entre las que est la forma de realizar los clculos:
Sistemas de ecuaciones lineales pg. 31
Si A es una matriz cuadrada no singular, A\b es la solucin de Ax=b calculada por elimina-
cin de Gauss con pivotamiento por columnas.
Si A y b son tales que el sistema tiene infinitas soluciones o ninguna, A\b da la solucin de
variables libres nulas o la de mnimos cuadrados, respectivamente.
Adems, el operador \ es "inteligente", en el sentido de que es capaz de descubrir y aprove-
char si A es simtrica y definida-positiva, o si tiene forma triangular.
2. Funcin [L,U,P]=lu(A)
Calcula con pivotamiento por columnas la factorizacin LU de la matriz PA, donde P es una
matriz de permutacin que representa el orden de filas en que han aparecido los pivots.
3. Funcin [R,c]=rref(A,tol)
Reduce A a forma de escalera con pivots unidad y ceros tambin encima de cada pvot. El
vector c es un vector de enteros cuyo nmero de elementos indica el rango de la matriz y
cuyos elementos indican las columnas de los pivots (variables bsicas o dependientes).
2.9 Errores en la resolucin de sistemas de ecuaciones lineales
2.9.1 Nmero de condicin de una matriz
A continuacin se incluye un recordatorio de ciertos conceptos estudiados en lgebra, tiles para
este apartado y los siguientes.
Se llama matriz convergente a una matriz que cumple las condiciones:
( ) lim 0 1 lim
m m
m m


= < = A A A 0 (123)
donde ( ) A es el radio espectral de A y la serie
2 3
... + + + + I A A A converge si A es convergen-
te. En efecto, si A es convergente, la matriz (IA) es no singular y se puede expresar como:

( )
( ) ( )
2 3 2 3
1
2 3
... ...
...

+ + + + = + + + + + = +
= = + + + +
S I A A A I A I A A A I AS
S I A I I A I A A A
(124)
Proposicin: Si 1 < A , la matriz ( ) I A es no singular y se verifican las desigualdades:
( )
1
) )
1 1
1 1
a b


+
I A
A A
(125)
Demostracin de la desigualdad a)

( ) ( )
( ) ( ) ( ) ( )
1
1 1 1 1
1 1
1


=
+
+
I I A I A
I A I A A I A I A
A
(126)
Demostracin de la desigualdad b)

( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( )
1 1 1 1 1
1 1 1

1
1
1


= = = +
+

I A I A I I A I A A I I A I I A A
I A A I A I A
A
(127)
lgebra lineal numrica con Matlab pg. 32
2.9.2 Casos particulares de propagacin de errores en sistemas de ecuaciones lineales
Se estudiar en primer lugar el error relativo en la solucin debido exclusivamente a una perturba-
cin o error en el trmino independiente:

( )
1 1




= = =


+ = + = =

b A x
Ax b Ax b Ax b
A x x b b A x b x A b x A b
(128)
Multiplicando miembro a miembro las desigualdades anteriores se puede calcular una acotacin para el error relativo de
la solucin, en funcin del error relativo del trmino independiente:

1 1





x b
b x A A x b A A
x b
(129)
A continuacin se estudiar el error relativo en la solucin debido a una perturbacin o error en la matriz del sistema:

( ) ( )
( ) ( )
1
=0


=
+ + = +

+ + =

Ax b
A x A x x x A A x x
A A x x b
(130)
Tomando normas y operando se llega al siguiente resultado:

1 1 1





+
+ +
x x A
x A A x x A A A A
x x x x A
(131)
Tanto en la expresin (129) como en la (131) el error relativo en los datos se multiplica por un mismo factor:
( ) ( ) ( )
1 1 1
, 1 pues , 1

= = A A A A I A A A A A (132)
Este factor () se llama nmero de condicin o condicin numrica y es un nmero real mayor o
igual a uno que controla la transmisin de errores en los sistemas de ecuaciones lineales. Tal y co-
mo se ha definido, se exige que la matriz A sea no singular. Otra observacin importante es que las
cotas para el error relativo (129) y (131) son ptimas, en el sentido de que la igualdad es alcanzable.
2.9.3 Frmula general de propagacin de errores en sistemas de ecuaciones lineales
Los desarrollos matemticos en este caso general son un poco ms complicados que en los casos
precedentes. Se suponen ahora unas perturbaciones en los datos A y b que producen un error x:
( ) ( ) + + = + A A x x b b (133)
Se supone tambin que las perturbaciones en A son pequeas, de modo que se cumple:

( ) ( )
( )
1 1
1 1
, condicin numrica de




< = =
A A A
A A A
A A A A A A
(134)
La matriz
( )
1

A A
es convergente, pues por la hiptesis (134) se cumple que:

( )
1 1 1
1 no singular

< + A A A A I A A
(135)
Aplicando a la matriz
( )
1

A A
la desigualdad b) de la proposicin (125):

( )
1
1
1 1
1 1
1 1


+

I A A
A A A A
(136)
Desarrollando la expresin (133) y simplificando:

( ) ( ) ( ) ( )( )
1 1 1 1


+ + = + + + = + A A A x x A b b I A A x x x A b
(137)
Despejando x de la ecuacin (137) y tomando normas:
Sistemas de ecuaciones lineales pg. 33

( ) ( ) ( ) ( )
1 1
1 1 1 1



= + + + x I A A A b Ax x I A A A b A x
(138)
Dividiendo por x y teniendo en cuenta la desigualdad (136):

1
1
1 1
1

1 1




+ +



b A x
A
x b x b
A A A A
x x x b A A A A
(139)
En esta expresin se hace aparecer ahora la condicin numrica (), y se llega a:

1 1
1
1
1
1


+ = +

A A A
x b b A
A A
A x b b A A A
A A
A
(140)
Finalmente:

( )
( ) 1

x b A A
A x b A
A
A
(141)
Al igual que en las expresiones (129) y (131), es de nuevo la condicin numrica el factor que con-
trola la amplificacin en el resultado (siempre es ()1) de los errores relativos en los datos.
Hay que sealar que la condicin numrica no depende de la magnitud de los elementos de una
matriz: Si una matriz se multiplica por un escalar la condicin numrica permanece invariable.
2.9.4 Expresin general del nmero de condicin
El nmero de condicin ( ) A definido en la expresin (132) exige que la matriz A sea invertible.
De una forma ms general, vlida para cualquier tipo de matriz, el nmero de condicin se define
en la forma:
( )
1
1
max
min

=
=
=
x
x
Ax
A
Ax
(142)
El resultado (142) es el cociente entre la magnitud de la imagen del vector unitario que ms crece
con la matriz A, dividido por la magnitud de la imagen del vector unitario que menos crece. Ntese
que esta definicin se aplica tambin a una matriz rectangular.
Si el rango de A es menor que n,
n
y R , no nulo, tal que = Ay 0 y, por tanto,
1
min 0
=
=
x
Ax . Si A
no es la matriz nula,
1
max 0
=
>
x
Ax . En esta situacin, como extensin a la definicin de nmero de
condicin, se dice que ( ) = A .
2.9.5 Nmero de condicin para la norma eucldea
El nmero de condicin se ha definido en (132) para una norma cualquiera, aunque suponiendo una
matriz invertible. Ahora dicha expresin se va a particularizar para la norma eucldea o espectral.
La norma eucldea de una matriz AC
nn
es la raz cuadrada positiva del radio espectral de A
H
A:

( )
2
H
= A A A (143)
lgebra lineal numrica con Matlab pg. 34
La matriz A
H
A es hermtica y todos sus valores propios son reales y no negativos, pues dicha ma-
triz es al menos semidefinida positiva. Adems, si la matriz A es normal y sus valores propios
son
j
, los valores propios de la matriz A
H
A son:
,
H H H H H H H H
= = U AU = D U A U = D DD U AUU A U U AA U (144)

( ) ( ) ( ) ( )
2 2 2
1
2
diag ,...,
H H H
n n n
= = = = = = U AA U DD A A A A (145)
Si adems la matriz A es regular, los valores propios de A
1
son los inversos de los valores propios
de A. Por tanto, se verificar que:

( ) ( )
1 1 1
2
2
1 1
1 1
H



= = = = A A A A (146)
De acuerdo con esto y con (132), el nmero de condicin de una matriz normal y regular ser:

( )
( ) ( ) ( )
2 1 1
2
2
1
n


= = = A A A A A (147)
Las matrices ortogonales y unitarias son las nicas que tienen todos sus valores propios de mdulo
unidad, y por tanto son las nicas que tienen nmero de condicin igual a uno. Estas matrices son
ptimas para resolver sistemas de ecuaciones sin errores significativos.
2.9.6 Inversas de matrices perturbadas
Ahora se va a estudiar la variacin en la inversa de una matriz A con una perturbacin A. Sea una matriz regular A en
la que se introduce una pequea perturbacin A, tal que A
1
A es convergente. Se desea acotar la norma del error:

( )
1
1



+ A A A
(148)
Se parte de la siguiente identidad matricial (se puede comprobar multiplicando por B):

( )
1 1 1 1
= B A B B A A
(149)
Sutituyendo B por A+A en la expresin (149):

( ) ( ) ( )
1 1
1 1



+ = + A A A A A A A
(150)
Pasando A
1
al primer miembro y tomando normas:

( ) ( )
1 1
1 1



+ + A A A A A A A
(151)
El primer factor del segundo miembro se puede transformar en un producto de inversas, y luego se le puede aplicar la
desigualdad (136):

( ) ( ) ( ) ( ) ( )
1
1 1 1
1
1 1 1 1 1
1
1

+ = + = + +

A
A A A I A A I A A A A I A A
A A
(152)
Sustituyendo este resultado en la expresin (151) de la norma del error se obtiene:

( )
( )
( )
1 2
1
1
1
1
1 1 1

1 1



+
+

A
A
A A A
A A
A
A A A
A A A A A
(153)
Se ve que tambin en este caso el error relativo en el resultado depende del error en los datos a travs del nmero de
condicin.
Sistemas de ecuaciones lineales pg. 35
2.9.7 Conclusiones sobre errores en sistemas de ecuaciones lineales
La condicin numrica o nmero de condicin (A) indica cmo se amplifican los errores A y b.
Como mnimo, los errores relativos correspondientes son del orden de la precisin de los datos
(eps=10e16, en un PC trabajando con doble precisin). Adems, en el transcurso de los clculos se
introducen errores de redondeo en las operaciones aritmticas. Existen dos formas de estudiar los
efectos de estos errores:
El anlisis directo considera el error en cada operacin y trata de estudiar cmo se propaga
y acumula hasta el resultado final. Conduce a resultados muy pesimistas.
El anlisis inverso (Wilkinson, 1965) considera los errores de redondeo como efectos equi-
valentes a perturbaciones en los datos iniciales, y trata de acotar dichas perturbaciones. Los
resultados son mucho ms precisos.
Seguidamente se incluye un resultado del anlisis inverso de errores suponiendo la factorizacin
exacta de una matriz perturbada + = A A LU

:
( )
( )
1 , ,
2 max
k
ij
ij
i j k n
n a

A (154)
donde n es el nmero de ecuaciones, es la precisin de la mquina (10e16 para los PCs, trabajan-
do en doble precisin) y
( ) k
ij
a son los elementos que van apareciendo en A a lo largo del proceso de
factorizacin. El pivotamiento por columnas basta para evitar que estos elementos crezcan incontro-
ladamente.
Tngase en cuenta que las matrices definidas positivas no necesitan pivotamiento y que por tanto,
en general, no suelen dar problemas de errores de redondeo salvo que el nmero de condicin sea
muy elevado. Si existen dudas al respecto, siempre es conveniente estimar los errores a travs de un
nmero de condicin aproximado. Matlab dispone de las funciones cond(A,p) y condest(A). La
primera de ellas calcula de modo exacto la condicin numrica de A utilizando la norma-p (si se
omite p, se supone p=2). Este clculo puede ser muy laborioso si A es de gran tamao. La funcin
condest(A) calcula de modo econmico un valor aproximado de la condicin numrica.

Figura 23. Sistema de ecuaciones lineales incompatible.
2.10 Sistemas de ecuaciones lineales redundantes (m>n=r)
2.10.1 Aplicacin del teorema de la proyeccin ortogonal
Supngase que se tiene un sistema de m ecuaciones lineales con n incgnitas (m>n), siendo r=n el
rango de la matriz (ver Figura 23):
= Ax b (155)
=
m
n=r
lgebra lineal numrica con Matlab pg. 36
Como el subespacio Im(A) (columnas de A) es un subespacio de R
m
de dimensin r<m, en general
bIm(A), por lo que este sistema no tendr solucin. Sin embargo, cuando bIm(A) la solucin es
nica, pues no hay variables libres (r=n).
Se pretende hallar una solucin aproximada de dicho sistema. Se va a buscar el vector x
0
que haga
el producto (Ax
0
) tan parecido a b como sea posible:
min , o bien: , min


n n
x R x R
b Ax r b Ax r (156)
donde r es el residuo o error con que se satisfacen las ecuaciones.
El teorema de la proyeccin ortogonal (ver apartado 1.7) establece que r debe pertenecer al com-
plemento ortogonal de Im(A), es decir, que es ortogonal a Im(A). Esta condicin se puede imponer
haciendo que r sea ortogonal a una base de Im(A), por ejemplo, a las columnas de A:
( )
0 0

T T T T
= = = A r 0 A b Ax 0 A Ax A b (157)

( )
1
0
T T

= x A A A b (158)
El sistema de ecuaciones obtenido en (157) se conoce como sistema de ecuaciones normales, y es
tpico del mtodo de los mnimos cuadrados.
Es interesante estudiar las propiedades de la matriz A
T
A que aparece en la solucin (158):
La matriz A
T
A es simtrica: (A
T
A)
T
=A
T
(A
T
)
T
= A
T
A
La matriz A
T
A, de tamao nn, es invertible pues tiene rango r=n, por ser las n columnas de
A linealmente independientes.
La matriz A
T
A es definida-positiva ya que:

( ) ( ) ( )
2
0,
T
T T
= = > x A A x Ax Ax Ax x 0 (159)
La matriz A
T
A tiene el mismo ncleo o subespacio nulo que A (tambin aunque r<n):
o Si xKer(A) Ax=0 A
T
Ax=0 xKer(A
T
A)
o Si yKer(A
T
A) A
T
Ay=0 y
T
A
T
Ay=(Ay)
T
(Ay)=0 Ay=0 yKer(A)
En resumen, la solucin de mnimo error cuadrtico del sistema Ax=b, donde el rango de A coinci-
de con el n de columnas m, se puede escribir por medio de las ecuaciones normales en la forma:

( )
1
0
T T

= x A A A b (160)
Grficamente, las ecuaciones normales tienen la forma mostrada en la Figura 24:

Figura 24. Solucin de mnimo error cuadrtico de un sistema incompatible.
2.10.2 Sistema de ecuaciones ampliado
Las ecuaciones del mtodo de los mnimos cuadrados se pueden tambin escribir mediante un sis-
tema de ecuaciones ampliado. El residuo se ha definido en la forma:
= r b Ax (161)
=
= =
A
A
A
T
A
T
A
T
A

Sistemas de ecuaciones lineales pg. 37
Adems, el residuo es ortogonal a Im(A) lo que se puede expresar matemticamente en la forma:

T
= A r 0 (162)
Expresando conjuntamente las ecuaciones (161) y (162) se llega a la siguiente ecuacin matricial:

0
T

=



r I A b
x A 0 0
(163)
que es un sistema de m+n ecuaciones con m+n incgnitas. Este sistema de ecuaciones ampliado
tiene o puede tener algunas ventajas:
La ventaja ms importante es que la condicin numrica de la matriz ampliada es menor
que la de A
T
A, lo que permite alcanzar la solucin con menor error.
Si la matriz A es dispersa o sparse (la mayor parte de sus elementos cero) tambin los tiem-
pos de clculo pueden ser inferiores con la matriz ampliada, al menos para ciertos tipos de
matrices.

Figura 25. Ecuaciones incompatibles con matriz de columnas ortogonales.
2.10.3 Problema de mnimos cuadrados con matrices de columnas ortogonales
La Figura 25 muestra un sistema de ecuaciones lineales incompatible en el que la matriz del sistema
es una matriz de columnas ortogonales Q. Como m>n, Q no es una matriz ortogonal, pues no es
cuadrada. Considrense pues los sistemas de ecuaciones m>n incompatibles:
( ) Im = Qx b b Q (164)
Planteando las ecuaciones normales, la solucin de mnimo error cuadrtico es:

0 0

T T T
= = Q Qx Q b x Q b (165)
pues Q
T
es una inversa por la izquierda de Q (no es una verdadera inversa porque no es cuadrada).
La proyeccin de b sobre el Im(Q) est dada por una matriz P definida en la ecuacin (46):

( ) ( )
1 1
, para
T T T T T

= = = = P A A A A A Q P Q Q Q Q QQ (166)
As como
T
= Q Q I porque Q
T
es una inversa por la izquierda de Q, la ecuacin (166) proporciona
un significado para la matriz QQ
T
, que resulta ser una matriz de proyeccin ortogonal sobre Im(Q).
La Figura 26 y la Figura 27 ilustran los tamaos de ambas matrices y los significados citados:

Figura 26. Producto Q
T
Q=I.

Figura 27. Producto QQ
T
=P.

=
Q
x
b
=
T
= Q Q I
=
T
= QQ P
lgebra lineal numrica con Matlab pg. 38
2.11 Sistemas de ecuaciones indeterminados (r=m<n)
Supngase el siguiente sistema de ecuaciones lineales indeterminado, de rango pleno (r=m<n):
= Ax b (167)
en el que habr infinitas soluciones, pues hay nr variables libres.

Figura 28. Sistema de ecuaciones indeterminado de rango pleno.
Se trata de hallar la solucin de mnima norma eucldea del sistema (167), representado en la
Figura 28. Recurdese que la solucin general de un sistema indeterminado se puede construir su-
mando la solucin general del sistema homogneo a una solucin particular del sistema completo.
Sea N una matriz n(nr) cuyas columnas son una base de Ker(A). Si x
P
es una solucin particular
de Ax=b, la solucin general de dicho sistema viene dada por:

n r
p

= + x x Nu u R (168)
Para hallar la solucin de mnima norma se puede tener en cuenta que la ecuacin (168) representa
todas las soluciones del sistema (167), que dependen de los elementos del vector u, que pueden ser
considerados como parmetros independientes. Cualquier solucin es la suma de una componente
en el ncleo de A y otra componente en su complemento ortogonal, que es Im(A
T
). Esta suma es
directa, lo que implica que los sumandos estn unvocamente determinados. La solucin de mnima
norma ser pues el vector que no tenga componente en Ker(A) y que pertenezca a Im(A
T
).
Sea v el vector de coeficientes de la solucin de mnima norma

x expresada como combinacin


lineal de las filas de A:
,
T r
= x A v v R (169)
Sustituyendo este resultado en el sistema de ecuaciones a resolver:

( )
invertible
T T
= = Ax AA v b AA (170)
Despejando el vector v de la expresin (170) y sustituyendo en la expresin (169) de

x :

( ) ( )
1 1

T T T

= = v AA b x A AA b (171)
que es la expresin de la solucin de mnima norma. Para que la matriz AA
T
sea invertible es nece-
sario que sea de mximo rango (r=m), es decir, que las filas de A sean linealmente independientes.
2.12 Problema general de mnimo error cuadrtico y mnima norma
En los apartados anteriores se han resuelto los casos de solucin de mnimo error cuadrtico de un
sistema de ecuaciones incompatible (m>n) y de solucin de mnima norma de un sistema de ecua-
ciones indeterminado (m<n). En ambos casos se ha supuesto que la matriz A era de rango mximo,
esto es, que las columnas (en el caso m>n) o las filas (en el caso m<n) eran linealmente indepen-
dientes. Ahora se va a considerar el caso ms general.
=
m=r
n
Sistemas de ecuaciones lineales pg. 39
Considrese el sistema de ecuaciones = Ax b , en el que la matriz A no es de rango mximo
(r<min(m,n)). En general, en este caso no hay solucin (r<m) y si existe no es nica (r<n). Se
puede intentar hallar la solucin que es al mismo tiempo de mnimo error y de mnima norma. Un
ejemplo en 2-D de sistema incompatible cuya solucin de mnimo error no es nica se muestra en la
Figura 29. Todos los puntos que equidistan de las dos rectas paralelas (la recta a trazos) tienen el
mismo error. De todos estos puntos se ha sealado el nico que es al mismo tiempo de norma m-
nima.

Figura 29. Sistema incompatible de dos ecuaciones con dos incgnitas, sin solucin de mnimo error nica.

Figura 30. Descomposicin de A en el producto de dos matrices de rango mximo.
Sea cual sea la matriz A (de rango r), siempre se puede descomponer en el producto de dos matrices
de rango mximo de tamaos (mr) y (rn), tal como se muestra en la Figura 30:
= A BC (172)
Las columnas de B son una base de Im(A) y las filas de C lo son de Im(A
T
). Cada columna de C
contiene los coeficientes con los que hay que combinar las columnas de B para obtener cada colum-
na de A; anlogamente, cada fila de B contiene los coeficientes con los que hay que combinar las
filas de C para obtener cada fila de A.
Utilizando la factorizacin (172), el sistema Ax=b se puede escribir en la forma:
= = Ax b BCx b (173)
Introduciendo ahora un nuevo vector y definido en la forma:
y Cx (174)
el sistema de ecuaciones (173) se puede escribir como:
= By b (175)
Hay que tener en cuenta que la solucin de mnimo error cuadrtico de Ax=b se corresponde con
la de By=b, pues:
( ) ( ) ( ) min min min
n n r

= =
x R x R y R
b Ax b BCx b By (176)
Como el rango de la matriz B es mximo (igual al nmero de columnas), se puede aplicar la expre-
sin (171) de la solucin de mnimo error cuadrtico, reemplazando A por B:

( )
1
T T

= y B B B b (177)
Por otra parte, una vez conocido y, la ecuacin (174) constituye un sistema indeterminado con una
matriz C de rango mximo. La solucin de mnima norma viene dada por la expresin (171):
=
A
C
B
m
r m n
r
lgebra lineal numrica con Matlab pg. 40

( )
1
T T

+
= x C CC y (178)
Combinando los resultados de mnimo error (177) y mnima norma (178) se obtiene:

( ) ( ) ( )
1 1 1
T T T T T T

+ +
= = = x C CC y C CC B B B b A b (179)
donde la matriz
+
A es la matriz seudoinversa, que se estudiar en detalle en el siguiente apartado.
2.13 Matriz seudoinversa A
+

La solucin ptima (179) obtenida para el caso general del sistema Ax=b se puede escribir como:

( ) ( )
1 1
,
T T T T

+ + +
= x A b A C CC B B B (180)
La matriz A
+
se conoce con el nombre de matriz seudoinversa, por analoga con la solucin de un
sistema compatible y determinado x=A
1
b. Esta matriz juega un papel muy importante en la teora
de sistemas de ecuaciones lineales.
Caractersticas de la solucin dada por la ecuacin (180):
Si la matriz A es cuadrada e invertible, tambin lo sern los factores B y C. En este caso la
seudoinversa coincide con la inversa:

( ) ( )
1 1
1 1 1 1 1 T T T T T T T T

+ +
= = = = = x A b C CC B B B b C C C B B B b C B b A b (181)
Si el sistema es incompatible y la matriz A es de rango mximo, la solucin viene dada por
las ecuaciones normales. En este caso C es cuadrada e invertible, por lo que se verifica:

( ) ( )
1 1
1

T T T T T T T T T


= = = A A C B BC B B C A AC B B C A A C (182)
Sustituyendo en la expresin (181) de la solucin aproximada x
+
:

( ) ( ) ( )
1 1 1
1 1 T T T T T T T T T T T

+
= = = x C C C B B B b C C C C A A C B b A A A b (183)
que es la solucin dada por las ecuaciones normales para mnimos cuadrados.
Anlogamente se puede demostrar que si el sistema es indeterminado y la matriz A de ran-
go mximo, la solucin (180) se reduce a la expresin (171) hallada anteriormente para la
solucin de mnima norma.
La matriz pseudoinversa A
+
definida en la expresin (180) se puede expresar tambin en la forma:

( ) ( ) ( ) ( )
1 1 1 1
T T T T T T T T T T T T

+
= = A C CC B B B C B BCC B C B AC B (184)
La expresin x
+
=A
+
b representa pues, en cada caso, la solucin ms conveniente para el sistema
general de ecuaciones lineales Ax=b. La matriz inversa A
1
slo existe cuando A es cuadrada y no
singular. Sin embargo, la matriz seudoinversa A
+
existe siempre y tiene algunas propiedades seme-
jantes a las de la matriz inversa A
1
. Algunas de estas propiedades son (sin demostracin):
La matriz A
+
es nica, a pesar de que la factorizacin A=BC no est unvocamente defini-
da.
La seudoinversa de la seudoinversa es la matriz original: (A
+
)
+
=A
Los operadores (
T
) y (
+
) se pueden permutar: (A
T
)
+
=(A
+
)
T

Relaciones entre rangos: r(A)=r(A
+
)=r(AA
+
)=r(A
+
A)
Sistemas de ecuaciones lineales pg. 41
Si las columnas de A son independientes, la seudoinversa es una inversa por la izquierda:
r(A)=n A
+
A=I
n
(185)
Si las filas de A son independientes, la seudoinversa es una inversa por la derecha:
r(A)=m A A
+
=I
m
(186)
Sin embargo, existen tambin diferencias importantes entre la inversa y la seudoinversa. En gene-
ral:

( )
( ) ( )
, ,
p
p
+
+ +
+ + + +
+
+

AB B A
AA I A A I AA A A
A A
(187)
En la prctica, el clculo de la matriz seudoinversa no se hace por medio de la factorizacin A=BC
sino mediante la descomposicin de valores singulares (DVS), que se ver en el apartado 4.2.4. Sin
embargo, en ciertas ocasiones (por ejemplo cuando la matriz A es muy grande y dispersa) el mtodo
expuesto en este apartado para calcular la seudoinversa A
+
puede ser preferible a la DVS.
Propiedades adicionales relacionadas con la matriz seudoinversa:
La matriz P=AA
+
es la matriz de proyeccin ortogonal sobre Im(A). En efecto, se cumple que Ax
+
= Pb, sien-
do x
+
la solucin de mnimo error en norma cuadrtica. Puesto que tambin se cumple que x
+
=A
+
b:

+ + +
= = = Ax AA b Pb P AA (188)
La matriz Q=A
+
A es la matriz de proyeccin ortogonal sobre Im(A
T
). Utilizando A
T
en lugar de A en la pro-
piedad anterior se tendr:

( )
es la matriz de proyeccin sobre Im( );
T T T T
+
+
= = = Q A A A Q Q A A
(189)
Las matrices A y P tienen el mismo espacio de columnas, Im(A)=Im(P):

( )
Im( ) ; Im( )
+ +
= = x P u Pu = x AA u x A A u x x A
(190)
Anlogamente se demuestra que: xIm(A) xIm(P).
La solucin general del sistema Ax=b que minimiza el cuadrado de la norma del residuo (sin minimizar la
norma de la solucin) viene dada por:

( ) ( ) vector arbitrario
+ +
= + x A b I A A w w
(191)
pues (IA
+
A)=(IQ) es la matriz de proyeccin sobre el complemento ortogonal de Im(A
T
), que es Ker(A).
Las cuatro propiedades siguientes caracterizan a la seudoinversa de A (se puede demostrar que A
+
es la nica
matriz que las cumple):
1. AA
+
A=A

( ) ( )
1 1
T T T T

+
= = = AA A BC C CC B B B BC BC A
(192)
2. A
+
AA
+
=A
+


( ) ( ) ( ) ( )
1 1 1 1
T T T T T T T T

+ + +
= = A AA C CC B B B BC C CC B B B A
(193)
3. (AA
+
)
T
=AA
+
(simetra del producto)

( ) ( ) ( ) ( ) ( )
T T T T T
T T T T T T T

+ +
= = = AA A A B B B CC C C B B B B B
(194)

( ) ( ) ( )
1 1 1
T T T T T T

+
= = AA BC C CC B B B B B B B
(195)
lgebra lineal numrica con Matlab pg. 42
4. (A
+
A)
T
=A
+
A (simetra del producto)
(demostracin anloga a la anterior)
Conviene finalmente recordar que la seudoinversa obtenida a partir de las expresiones (184) es nica, aunque
la factorizacin A=BC no lo sea.
2.13.1 Interpretacin del sistema de ecuaciones general Ax=b
En el producto Ax=b la matriz A transforma R
n
en R
m
. Los vectores x y b se pueden descomponer
respectivamente en sus componentes en los subespacios suplementarios Im(A
T
) y Ker(A), e Im(A) y
Ker(A
T
):

( ) ( )
( )
Im , Ker
T
f n f n
= + x x x x A x A (196)
( ) ( ) ( )
Im , Ker
T
c n c n
= + b b b b A b A (197)
Sustituyendo estos valores en el sistema Ax=b y teniendo en cuenta que Ax
n
=0 y que b
n
nunca pue-
de obtenerse como combinacin lineal de las columnas de A:

f n f c
= + = = Ax Ax Ax Ax b (198)
La expresin (198) indica que tanto x como x
f
se transforman a Im(A). Por otra parte, cada vector
b
c
Im(A) proviene de un y slo un vector x
f
Im(A
T
), como se puede demostrar por reduccin al
absurdo. Suponiendo dos vectores distintos en Im(A
T
) que se transforman en b
c
:

( ) ( ) ( )

Ker Absurdo!

f c
f f f f
f c
=
=

=

Ax b
A x x 0 x x A
Ax b
(199)
As pues, cada matriz A transforma el subespacio de filas Im(A
T
) en el subespacio de columnas
Im(A) y esta parte de la transformacin siempre es invertible. Al mismo tiempo, hay una parte del
vector b, el vector b
n
, que es inalcanzable por la transformacin Ax=b.
Qu hace la matriz seudoinversa en un sistema general de estas caractersticas?
De la definicin de la matriz seudoinversa (180) se concluye que:

( ) ( ) ( )
Im Im Im
T T
n
+ +
= = = A C A A b 0 (200)
Si A
1
no existe, la seudoinversa A
+
la sustituye e invierte "lo que es invertible" en el sistema Ax=b,
obteniendo x
f
a partir de b
c
:

( )
( )

f n f f
f c
c n c
+ + +
+
+ + +

= + = =

=

= + =

A Ax A A x x A Ax x
x A b
A b A b b A b
(201)
La Figura 31, inspirada en el libro de G. Strang
1
, representa grficamente los 4 subespacios funda-
mentales de la matriz A e interpreta la transformacin Ax=b en funcin de dichos subespacios, re-
sumiendo grficamente lo establecido en los prrafos precedentes. Obsrvese que la componente de
x en Ker(A) no influye en la imagen Ax, y que la componente de b en Ker(A
T
) tampoco interviene
porque es inalcanzable.

1
G. Strang, "Introduction to LinearAlgebra", 3
rd
edition, Wellesley-Cambridge, ch. 4, p. 188.
Sistemas de ecuaciones lineales pg. 43

Figura 31. Relacin entre el sistema Ax=b y los
cuatro subespacios fundamentales de la matriz A.


x
n
R
n
R
m
n
r
m
m
n
r
nr
mr
Im(A
T
)
Ker(A)
Ker(A
T
)
Im(A)
0
0
x
f
x
Ax=b
c
xAx
x
f
Ax
f
Ax
x
n
Ax
n
0
b

b
n
Valores y vectores propios pg. 45
3. Valores y vectores propios
3.1 Definicin del problema de valores y vectores propios
Los vectores propios de una matriz
nn
A C son los vectores ,
n
x C x 0 que se transforman del
modo:
, = Ax x C (202)
El escalar , que puede ser real o complejo, es el valor propio asociado al vector propio x. La
ecuacin (202) tambin se puede expresar como:
( ) = A I x 0 (203)
El vector nulo no se considera vector propio. Para que exista una solucin x distinta de la trivial
(x=0), el valor propio deber ser raz de la ecuacin caracterstica, que se obtiene igualando a cero
el polinomio caracterstico (de grado n):
( ) det 0 = A I (204)
Caractersticas generales del problema de valores y vectores propios:
Es un problema no lineal en los valores propios y lineal en x.
Dado que un polinomio de grado n siempre tiene n races reales y/o complejas, siempre
existen n valores propios, que pueden ser reales o complejos. Si un valor propio es
complejo, su complejo conjugado tambin es valor propio.
Sin embargo, no siempre existen n vectores propios. Los valores propios de multiplici-
dad algebraica m>1 tienen un subespacio propio asociado de dimensin <=m (multipli-
cidad geomtrica). Todos los vectores en este subespacio propio son vectores propios.
Las matrices que tienen menos de n vectores propios se llaman matrices defectivas.
Los vectores propios pertenecen al subespacio nulo de (AxI) y no estn unvocamente
determinados: Si x es un vector propio, (x) tambin lo es. Si un valor propio es mlti-
ple y su subespacio propio tiene dimensin mayor que uno, hay infinitas posibilidades de
elegir una base ortonormal de dicho subespacio propio.

Figura 32. Interpretacin geomtrica de los valores y vectores propios.
En lo sucesivo, salvo que se indique lo contrario, se considerarn matrices reales. Para las matrices
reales, los vectores propios asociados con valores propios conjugados son tambin vectores comple-
jos conjugados entre s.
2
x
2 2 2
= Ax x
1 1 1
= Ax x
1
x
x
Ax
lgebra lineal numrica con Matlab pg. 46
3.2 Interpretacin geomtrica de los valores y vectores propios
Por lo general, el vector Ax no tiene la misma direccin que x. Los vectores propios son vectores
que se transforman sin cambiar de direccin. El valor propio determina el cambio de longitud.
3.3 Propiedades de los valores y vectores propios
3.3.1 Subespacios propios
Los vectores propios asociados con un mismo valor propio forman un subespacio vectorial de R
n
.
En efecto, si x
1
y x
2
son vectores propios asociados a un mismo valor propio , se verificar:
( ) ( ) + = + = +
1 2 1 2 1 2
A x x Ax Ax x x (205)
lo que demuestra que una combinacin lineal de vectores propios asociados con un mismo valor
propio es tambin vector propio. Estos subespacios vectoriales formados por vectores propios se
conocen como subespacios propios.
Por otra parte, los subespacios propios correspondientes a valores propios distintos slo tienen en
comn el vector nulo. En efecto, si x es un vector propio comn, por reduccin al absurdo:

1
1 2
2
( )

=

= =

=

Ax x
0 x x 0
Ax x
(206)
Como consecuencia, los vectores propios correspondientes a valores propios distintos son lineal-
mente independientes.
3.3.2 Relacin de los valores propios con la traza y el determinante
Igualando coeficientes en las distintas expresiones del determinante det(AI)=0 de la ecuacin
(204) se deducen las propiedades siguientes (frmulas de Vieta):

( ) ( ) ( ) ( ) ( ) ( )
11 12 1
12 22 2
1 2
0
1 2
det 1 1
n
n
j n
n j
n j n
j
n n nn
a a a
a a a
a a a

= = =

A I

(207)
donde
n j


es la suma de los menores principales de orden ( ) n j de la matriz A:

1 1 2
2 1 2 1 3 1
1 2 3
...
...
...
n
n n
n n


= + + +
= + + +
=

(208)
En concreto, igualando los coeficientes de y de
n
se obtiene que:
La suma de los valores propios es igual a la traza de la matriz.
El producto de los valores propios es igual al determinante de la matriz.
3.3.3 Propiedad de "desplazamiento" de los valores propios
Si los valores propios de la matriz A son
i
, los valores propios de la matriz (AI), siendo un
escalar, son (
i
). Los vectores propios x
i
de la matriz A siguen siendo vectores propios de la ma-
triz (AI):
Valores y vectores propios pg. 47
( ) ( ) ; restando
i i i i i i i
= = Ax x x A I x x (209)
Esta propiedad es importante en algunos mtodos numricos de clculo de valores propios.
3.3.4 Casos particulares del problema de valores propios
De la expresin del determinante se deduce que los valores propios de una matriz diagonal, o de
una matriz triangular superior o inferior son los elementos de la diagonal.
Los vectores propios de las potencias de A son los mismos vectores propios de A; los valores pro-
pios de las potencias de A son las correspondientes potencias de los valores propios de A:

2 2
; ; ...
n n
= = = = Ax x A x Ax x A x x (210)
Anlogamente, para las potencias negativas, suponiendo que A sea invertible:

1 1 1 1
; ;

= = = Ax x A Ax A x A x x (211)
3.4 Transformaciones de semejanza
3.4.1 Matrices semejantes
Dos matrices A y B son semejantes si existe una matriz no singular M tal que:

1
= B M AM (212)
Se dice que A y B estn relacionadas mediante una transformacin de semejanza.
Las matrices semejantes tienen los mismos valores propios. Partiendo de la definicin de valor pro-
pio de A:

1

= = Ax MBM x x (213)
Pre-multiplicando por la inversa de la matriz M:

1 1 1
( ) ( )

= = B M x M x M x (214)
de donde se deduce que es un valor propio de B asociado con el vector propio (M
1
x).
Es fcil comprobar que dos matrices semejantes A y B tienen el mismo polinomio caracterstico:

1 1
1 1
det( ) det( )
det( ( ) ) det det( ) det det( )




= =
= = =
B I M AM M M
M A I M M A I M A I
(215)
3.4.2 Diagonalizacin mediante transformaciones de semejanza
Si una matriz
nn
A R tiene n vectores propios linealmente independientes se puede diagonalizar
mediante una transformacin de semejanza. En efecto, expresando la condicin de valor y vector
propio para los n valores y vectores propios simultneamente:

[ ] [ ]
1
2
1 2 1 2
0 0
0 0

0 0
i i i n n
n




= =




Ax x A x x x x x x

(216)
Llamando ahora P a la matriz cuyas columnas son los n vectores propios independientes y D a la
matriz diagonal formada por los valores propios:
lgebra lineal numrica con Matlab pg. 48

[ ] ( )
1 2 1 2
1 1
, diag , ,...,
y
n n


P x x x D
AP = PD P AP = D A = PDP

(217)
Para que una matriz sea diagonalizable, debe tener n vectores propios linealmente independientes.
Para que sea invertible, debe tener los n valores propios distintos de cero.
Las matrices defectivas tienen menos de n vectores propios independientes. No se pueden diagona-
lizar mediante transformaciones de semejanza. Se pueden reducir a la forma cannica de Jordan.
3.4.3 Reduccin a forma triangular mediante transformaciones de semejanza
Teorema: Toda matriz cuadrada
nn
A C se puede reducir mediante una transformacin de seme-
janza S
1
AS a una matriz triangular superior T, cuyos valores propios aparecen en la diagonal.
Demostracin: Siempre es posible encontrar para A un vector propio x
1
asociado con
1

(en general, ambos comple-


jos). Se puede construir una matriz no singular S
1
, con el vector x
1
en la primera columna, tal que al multiplicar S
1
por
el primer vector de la base natural e
1
se tiene:

1
1 1 1 1 1 1

= = S e x S x e
(218)
Aplicando a la matriz A la transformacin de semejanza definida por la matriz S
1
:

[ ] [ ]
1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1
1
, , ,
T




= = = = =



b
B S AS S A x X S x AX e S AX
0 A
(219)
Los valores propios de B
1
son los de A, pues son matrices semejantes; los de A
1
son los de A con la multiplicidad de
1


disminuida en una unidad. Ahora a la matriz A
1
se le puede aplicar idntico razonamiento que a A, pues tambin tendr
al menos un vector propio asociado con
2

. La segunda transformacin de semejanza se deber hacer con una matriz


que respete los ceros introducidos por la primera, es decir mediante una matriz que tenga la forma:

2
2
1
T

=


0
P
0 S
(220)
La matriz
1 1
2 2 1 1 2

= B P S AS P es semejante a A, y tiene ceros debajo de la diagonal en las dos primeras columnas. Conti-
nuando con transformaciones de semejanza de este tipo se llega finalmente a transformar A en una matriz triangular
superior T, cuyos valores propios estn en la diagonal. La forma cannica de Jordan es un caso particular de matriz
triangular superior a la que cualquier matriz es reducible por semejanza.
3.4.4 Transformaciones de semejanza unitarias
Las matrices unitarias son una generalizacin de las matrices ortogonales al campo complejo. Es-
tas matrices UC
nn
cumplen la propiedad de que su inversa es la conjugada y transpuesta:

1

H H H
= = = U U U U UU I (221)
Se llama transformacin de semejanza unitaria a una transformacin de semejanza realizada me-
diante una matriz unitaria:

1
, siendo
H H
= = B U AU U U (222)
Las transformaciones de semejanza unitarias tienen todas las propiedades de las transformaciones
de semejanza (y algunas ms). Las matrices A y B relacionadas por la ecuacin (222) se dicen uni-
tariamente semejantes.
Se llaman matrices unitariamente diagonalizables (triangularizables) a las matrices que se pueden
reducir a forma diagonal (triangular) mediante una transformacin de semejanza unitaria. Hay
matrices diagonalizables que no son unitariamente diagonalizables.
Valores y vectores propios pg. 49
Se cumple que si las matrices A y B son unitariamente semejantes, las matrices A
H
A y B
H
B tam-
bin lo son (con la misma matriz U):

( ) ( )
, ;
H H H H H H H H H H
= = = = B U AU B U A U U A AU U A U U AU B B (223)
Las transformaciones de semejanza conservan el polinomio caracterstico y por tanto la traza, luego
la suma de los cuadrados de los mdulos de los elementos de la matriz se conserva en las trans-
formaciones de semejanza unitarias:

( ) ( )
2 2
, 1 , 1
traza traza
n n
H H
ij ij
i j i j
a b
= =
= = =

A A B B (224)
3.4.5 Lema de Schur
Enunciado: Para cualquier matriz cuadrada AC
nn
existe una matriz unitaria U tal que T=U
H
AU
es triangular superior.
Demostracin: Se demuestra por induccin. La proposicin es cierta para n=1. Supngase que toda matriz (n1)(n1)
es unitariamente semejante a una matriz triangular superior.
Para cualquier matriz nn siempre es posible encontrar un vector propio x
1
asociado con un valor propio
1
(aunque
1

sea mltiple, su subespacio propio tendr al menos un vector propio). Construyendo una matriz unitaria U
1
cuya prime-
ra columna es x
1
y eligiendo las dems columnas de modo que sean ortonormales, se verificar:

1
1 1
1 1 1 1
* * *
* * * *
0 * * 0 * * 0

0
0 * * 0 * * 0
H








= = =






AU U U AU
B




(225)
Pero por hiptesis la matriz B es una matriz (n1)(n1) unitariamente semejante a una matriz triangular superior
H
B B B
= B U T U luego A es unitariamente semejante a una matriz triangular T. La matriz A se podr finalmente expresar
como:

1 1
2 2 1 1 2 2 2
1 0 0 0 * * * * * *
0 0 0

0 0 0
0 0 0
H H H
B B



= = =




U U U AU U U U
U B T
(226)
Desde un punto de vista constructivo, la matriz A se puede reducir a forma triangular determinando un vector propio
para B y construyendo a partir de l la matriz U
B
, y continuando sucesivamente hasta que la matriz se haga triangular.
3.5 Matrices normales
3.5.1 Definicin, casos particulares y propiedades
Una matriz AC
nn
se llama normal cuando el producto por su matriz conjugada transpuesta A
H
es
conmutativo:

H H
= AA A A (227)
Casos particulares de matrices normales:
En C
nn
todas las matrices hermticas, antihermticas y/o unitarias son normales.
En R
nn
todas las matrices simtricas, antisimtricas u ortogonales son normales.
Tambin existen matrices normales que no pertenecen a las categoras precedentes.
Todas las matrices B unitariamente semejantes a una matriz normal A son tambin normales:
lgebra lineal numrica con Matlab pg. 50

( ) ( ) ( )
H H H H H H H H H H H H
= = = = = BB U AU U A U U AA U U A AU U A UU AU B B (228)
Dada una matriz normal A, los vectores propios de A
H
son los mismos que los de A, y los valores
propios de A
H
son los conjugados de los valores propios de A:

H H H H H
= = U AU = D U A = DU A U UD UD (229)
3.5.2 Teorema espectral para matrices normales
Enunciado: Sea AC
nn
una matriz cuyos valores propios son
1
,
2
, ...,
n
. Las siguientes afirma-
ciones son equivalentes entre s (cada una de ellas implica todas las dems):
a) La matriz A es normal.
b) La matriz A es unitariamente diagonalizable.
c) Se verifica la igualdad:
2
2
, 1 1
n n
ij i
i j i
a
= =
=


d) La matriz A tiene n vectores propios ortonormales entre s.
Demostracin. Se demostrar la equivalencia entre a) y b), entre b) y c) y entre b) y d):
a) b): Una matriz es unitariamente diagonalizable si y slo si es normal.
Por el Lema de Schur, toda matriz AC
nn
es unitariamente semejante a una matriz triangular superior T:

H
= U AU T (230)
Si A es normal, tambin lo ser T, pues la condicin de normal es conservada por las transformaciones de semejanza
unitarias.
Se va a demostrar que si una matriz triangular es normal, en realidad es diagonal. La Figura 33 muestra la forma del
producto T
H
T, mientras que la Figura 34 lo hace con el producto TT
H
. Si T es normal, ambos productos deben dar el
mismo resultado.

Figura 33. Forma del producto T
H
T.

Figura 34. Forma del producto TT
H
.
De la igualdad de elementos (1,1) se concluye que en la primera fila de T slo el elemento de la diagonal es distinto de
cero:

( )
( )
2
11 11 11
11
2
2 1 1
2
2
1 1 11 1
11
1 2
0 0, 2, 3,...,
H
n
n n
j j
H
j
j j j
j j
t t t
t t j n
t t t t =
= =

= =

= = =

= = +



T T
TT
(231)
De la igualdad de elementos (2,2) se concluye que en la segunda fila de T slo el elemento de la diagonal es no nulo:

( )
( )
2
12 12 22 22 22
22
2
2 2 2
2
3
2 2 22 2
22
2 3
0 0, 3, 4,...,
H
n
n n
j j
H
j
j j j
j j
t t t t t
t t j n
t t t t =
= =

= + =

= = =

= = +



T T
TT
(232)
Prosiguiendo del mismo modo con los restantes elementos de la diagonal de ambos productos se demuestra que T y T
H

deben ser diagonales. Por tanto, toda matriz A normal es unitariamente diagonalizable.
El recproco, que toda matriz unitariamente diagonalizable es normal, se cumple porque toda matriz diagonal es nor-
mal, y por tanto tambin lo ser A que es unitariamente semejante a ella.
0
0
H
T T
0
0
H
TT
Valores y vectores propios pg. 51
b) c): En una matriz unitariamente diagonalizable se cumple que:
2
2
, 1 1
n n
ij i
i j i
a
= =
=

.
La traza se conserva en las transformaciones de semejanza, pues es el 2 coeficiente del polinomio caracterstico, que es
un invariante. Si A y D son unitariamente semejantes, aplicando la propiedad vista en la expresin (224):

( ) ( )
2
2
, 1 1
traza traza
n n
H H
ij i
i j i
a
= =
= = =

A A D D
(233)
Recprocamente, esta propiedad indica que la matriz triangular
H
= T U AU, unitariamente semejante a A y con los
valores propios en la diagonal, debe ser diagonal, pues si se cumplen simultneamente la condicin c) y la ecuacin
(224), la suma de los cuadrados de los mdulos de los elementos de fuera de la diagonal debe ser nula.
b) d): Toda matriz es unitariamente diagonalizable si y slo si tiene n vectores propios ortonormales entre s.
Si A es diagonalizable mediante una matriz unitaria U:

H
= = U AU D AU UD (234)
Las n columnas de U son vectores propios ortonormales de A y los elementos de D los valores propios.
Recprocamente, si A tiene n vectores propios ortonormales que son las columnas de U, la misma expresin (234) indi-
ca que es unitariamente diagonalizable.
3.5.3 Corolarios del teorema espectral
Si A es una matriz normal (y por tanto unitariamente diagonalizable) se cumple que:
La matriz A es hermtica si y slo si sus valores propios son reales:

, real
H H H H H H
= = = = A A U AU D U A U D D D D
(235)
Como caso particular, las matrices reales y simtricas siempre tienen valores propios reales.
La matriz A es antihermtica si y slo si sus valores propios son imaginarios puros:

, : imaginarios puros
H H H H H
ii
d = = = = A A U AU D U A U D D D
(236)
La matriz A es unitaria si y slo si sus valores propios tienen mdulo unidad:

( )( )

H H H H H H H H
= = = = = A A I A A UD U UDU UD DU I D D I
(237)
La matriz A es normal si y slo si los vectores (Ax) y (A
H
x) tienen la misma norma eucl-
dea (sin demostracin):
3.5.4 Descomposicin espectral de matrices normales
Toda matriz normal por tanto unitariamente diagonalizable admite una descomposicin espectral
mediante la que se expresa como suma de matrices de rango 1, en la forma:
[ ]
1 1
1
H
n
H H
n k k k
k
H
n n

=




= =






1
u
A = UDU u u u u
u
(238)
Esta descomposicin es una forma alternativa de considerar la diagonalizacin unitaria de la matriz
A. Se estudiar con algo ms de detalle en el apartado 4.3.
lgebra lineal numrica con Matlab pg. 52
3.6 Formas cuadrticas y transformaciones de congruencia
3.6.1 Definicin y propiedades de las formas cuadrticas
Una forma cuadrtica en R
n
es un polinomio homogneo de grado dos en n variables, es decir fun-
cin :
n
R R de la forma:
( ) ( )
1 2
, 1
, ,..., , ,
n
T T
n ij i j
i j
x x x a x x
=
= = = =

nn
x x Ax A R A A (239)
Las formas cuadrticas pueden reducirse a forma diagonal mediante cambios de coordenadas en el
vector x. Como A es simtrica, una forma particular de reducir la forma cuadrtica a forma diagonal
es mediante una transformacin de semejanza unitaria que la diagonalice. Sin embargo, como no se
exige que el cambio de coordenadas sea unitario u ortogonal, una misma forma cuadrtica puede
transformarse en muchas formas cuadrticas diagonales diferentes, pero slo en una forma diago-
nal cannica. La forma diagonal cannica es aquella en la que todos los elementos de la diagonal
son "1", "1" "0" (en este orden).
3.6.2 Transformaciones de congruencia
Una transformacin de congruencia se define en la forma:
( ) no singular
T
= B C AC C (240)
Estas transformaciones surgen de realizar un cambio de base en una forma cuadrtica:
; ; ;
T T T T T
= = = = x Ax x = Cy y C ACy y By B C AC (241)
Las transformaciones de semejanza unitaria son tambin transformaciones de congruencia, pero no
cualquier transformacin de congruencia es de semejanza o de semejanza unitaria.
Permutar unas filas y las correspondientes columnas, multiplicar una fila y la correspondiente co-
lumna por un escalar, combinar filas y combinar del mismo modo las correspondientes columnas,
son ejemplos de transformaciones de congruencia en una forma cuadrtica que pueden llevarla a
una forma diagonal o a la forma diagonal cannica.
3.6.3 Ley de Inercia de Sylvester
Enunciado: Todas las formas diagonales de una misma forma cuadrtica tienen el mismo nmero
de coeficientes positivos, negativos y nulos.
Como consecuencia, las transformaciones de congruencia conservan el signo de los valores propios,
es decir, el nmero de valores propios negativos, iguales a cero y positivos.
Demostracin: Supngase dos formas diagonales de una misma forma cuadrtica (una misma forma cuadrtica en dos
bases distintas) en un espacio E de dimensin n. Por la igualdad de rangos ambas tienen el mismo nmero de elementos
no nulos.

( )
2 2 2 2 2 2 2
1 1 1 1
2 2 2 2 2 2 2
1 1 1 1
... ... ...
... ... ...
p p q q q r
p p q q q r
u y y y y y y y
z z z z z z z

+ +
+ +
= + + =
= + + + + + +
(242)
Hay que demostrar que p=q. Se har por reduccin al absurdo. Supngase, por ejemplo, que p<q. Supngase un vector
u0 cuya expresin en las coordenadas y tiene las p primeras coordenadas nulas, y en las coordenadas z dicho vector u
tiene las (nq) ltimas coordenadas nulas.

1 2 1 2
... 0; ... 0
p q q n
y y y z z z
+ +
= = = = = = = =
(243)
Tal vector u existe y es no trivial, pues hay (nq+p)<n condiciones. El vector u deber verificar simultneamente:
Valores y vectores propios pg. 53

( ) ( )
2 2 2 2
1 1
... 0, ... 0
p r q
u y y u z z
+
= < = + + >
(244)
lo cual es absurdo. De forma anloga se puede demostrar que p>q es imposible, luego p=q.
Una consecuencia prctica importante de la ley de inercia de Sylvester es que para cualquier ma-
triz simtrica con una factorizacin A=LDL
T
, los signos de los pivots que aparecen en D coinciden
con los signos de los valores propios de A, pues A y D estn relacionadas por una transformacin
de congruencia.
3.6.4 Matrices definidas-positivas
Una matriz simtrica A es definida-positiva si cumple:
0,
H
> x Ax x 0 (245)
Por otra parte, se dice que A es definida negativa cuando (A) es definida positiva.
La condicin (245) es equivalente a cualquiera de las cuatro condiciones siguientes:
Todos los valores propios de A son estrictamente positivos: 0,
i
i > (246)
Todos los menores principales de A son positivos: det( ) 0,
k
k > A (247)
Todos los pivots en la descomposicin A=LDL
T
son positivos: 0,
ii
d i > (248)
La matriz A se puede descomponer en la forma: ( ) no singular
H
A = R R R (249)
Demostracin:
1) (245) (246). Se pretende demostrar la siguiente equivalencia de propiedades:

0, , 0
T
j j j j
j > = > x Ax x 0 Ax x
(250)
En efecto, si 0,
T
> x Ax x 0, se cumplir:

0
T T
j j j j j j j j j
= = > Ax x x Ax x x
(251)
Recprocamente, si todos los valores propios son positivos y los vectores propios ortonormales, la matriz A es
definida positiva:

2
1
, 0
, 0,
T
ii i
n
T T T T
i i
i
d
y

=
= = = >
= = = = > =

AQ QD Q AQ D
x Qy x Ax y Q AQy y Dy x Qy 0
(252)
2) (245) (247). Ahora se va a demostrar lo siguiente:

( ) 0, det 0, 1
T
k
k n > > x Ax x 0 A
(253)
Si 0,
T
> x Ax x 0 , se verifica que
1 2
det ... 0
n
= > A
. Hay que demostrar que tambin se cumple para k<n.
Todas las matrices A
k
cumplen la condicin (245), y por tanto:

0
k k T T T T
k k k k

= = >



A x
x Ax x 0 x A x
0
(254)
Como consecuencia todos los valores propios de A
k
sern positivos y tambin sern positivos sus determinan-
tes det A
k
, que son el producto de los k valores propios correspondientes.
Recprocamente, si det A
k
>0 "k, la matriz A es definida positiva. Se demostrar por induccin en n. Est claro
que si det A
1
>0, A
1
=a
11
>0
Se supone que A
n1
es definida positiva. Entonces existe una transformacin de congruencia tal que S
T
A
n
1
S=I
n1
. La matriz A se puede escribir como:
lgebra lineal numrica con Matlab pg. 54

1 1 1
, , ;
1 1
T
n n n
T T T T T
a
a a a


= =


n 1
A u A u S 0 I v S 0
A u R R
u u 0 v 0
(255)
que es una matriz congruente con A y "casi" diagonal. Las ltimas fila y columna de esta matriz se pueden
anular mediante transformaciones de congruencia (aadindoles alguna de las n1 primeras filas y columnas,
multiplicadas por el factor adecuado). Estas transformaciones no alteran las n1 primeras filas y columnas, por
lo que se llega finalmente a una matriz diagonal:

1
, det
n
T
d
d


= =


I 0
D D
0
(256)
Este determinante (de una matriz congruente con A) debe tener el mismo signo que det A, que es positivo por
hiptesis. As pues la matriz D es definida positiva, y tambin lo ser la matriz A que es congruente con ella.
Esta propiedad que caracteriza a las matrices definidas positivas se conoce como criterio de Sylvester.
3) (247) (248). Ahora se va a demostrar lo siguiente:

( 1)
det 0, 1 pivots eliminacin Gauss 0
j
k jj
k n a

> > A
(257)
Si det 0
k
> A , los pivots
( 1)
0
j
jj
a

> . La eliminacin de Gauss sin pivotamiento conserva los determinantes de
las matrices A
k
. Despus de triangularizar la matriz A, el pvot k se puede escribir en la forma:

( 1)
1
det det 0
k
kk k k
a

= > A A
(258)
y es positivo si los dos determinantes de A
k
y A
k1
son positivos.
Recprocamente, si todos los pivots son positivos tambin los determinantes debern serlo, pues tanto el pri-
mer pvot como el primer determinante son a
11
.
4) (245) (249). Se demostrar finalmente la equivalencia siguiente:
0 , rango
T T
n > = = x Ax x 0 A R R R (259)
Si A=R
T
R la matriz A es definida positiva:

( )
2
0 , pues Ker =
T T T T
= = = > A R R x Ax x R Rx Rx x 0 R 0
(260)
Recprocamente, si A es simtrica y definida positiva siempre admite la factorizacin de Choleski, como se
puede demostrar a partir de la factorizacin:

1 1
2 2
=
T T T
= = A LDL LD D L R R (261)
pues todos los pivots (elementos de la diagonal de D) son positivos. Es evidente que la matriz R es no singular.
3.6.5 Matrices semi-definidas positivas e indefinidas.
Se dice que una matriz simtrica A es semi-definida positiva cuando cumple la condicin:
, 0 y , tal que 0
T T
=
n
x R x Ax y 0 y Ay (262)
Las matrices semi-definidas positivas tienen valores propios positivos y nulos, pero no pueden tener
ningn valor propio negativo. Siempre son singulares y tienen determinante nulo. Adems, su n-
cleo Ker(A) tiene al menos dimensin 1, como se deduce directamente de su definicin.
Las matrices semi-definidas positivas
nn
A R se pueden factorizar en la forma A=R
T
R, siendo
rango(R)<n.
Se dice que la matriz A es semi-definida negativa cuando (A) es semidefinida positiva.
Finalmente, se dice que una matriz simtrica A es indefinida cuando se cumple que:
, tal que 0 y 0
T T
> < y z 0 y Ay z Az (263)
Valores y vectores propios pg. 55
Las matrices indefinidas tienen necesariamente valores propios positivos y negativos, y tambin
pueden tener valores propios nulos. En este ltimo caso sern singulares, tendrn determinante nulo
y un ncleo no vaco. Estas matrices no admiten factorizacin real en la forma A=R
T
R.
3.7 Cociente de Rayleigh
3.7.1 Definicin y relacin con los valores y vectores propios
Para matrices simtricas se define el cociente de Rayleigh en la forma:
( )
T
T
R =
x Ax
x
x x
(264)
Sustituyendo x por el vector propio x
i
se obtiene el valor propio
i
:
( )
T T
i i i i i
i i T T
i i i i
R

= = =
x Ax x x
x
x x x x
(265)
Si los valores propios se ordenan de modo que
1 2
...
n
< < < , el cociente de Rayleigh es mnimo
para x=x
1
, mximo para x=x
n
y presenta un valor estacionario para cualquier otro vector propio:

2
2 ( ) 2( )
( ) 2 ( ) 2( )
( )
T T
T T
T
R

= = =
Ax x x x Ax x
x 0 Ax x x x Ax x 0
x x
(266)
De aqu se concluye que la condicin de valor estacionario equivale a que el cociente de Rayleigh
cumpla la ecuacin de valores propios:
( )
T
T
R = =
x Ax
Ax x Ax x x 0
x x
(267)
Expresando x en base de vectores propios x=Qy:

( ) ( )
2 2 2
1 1 2 2
2 2 2
1 2
2 2 2 2 2 2 2 2
2 1 2 1 1 2 1 1 2 2
1 1 1 1 2 2 2 2 2 2 2 2 2
1 2 1 2 1 2
...
( )
...
... ... ...
... ... ...
T T T T
n n
T T T
n
n n n n n
n n n
y y y
R
y y y
y y y y y y y y
y y y y y y y y y



+ + +
= = = = =
+ + +
+ + + + + + + +
= + = +
+ + + + + + + + +
x Ax y Q AQy y y
x
x x y y y y
(268)
Si los valores propios se suponen ordenados de menor a mayor:

1 2
...
n
< < < (269)
todos los trminos del numerador de la ltima fraccin son positivos y tambin la fraccin lo ser.
Por tanto el mnimo de R(x) vale
1
y se produce cuando el vector x es x
1
(y
1
=1, y
j
=0, j1).
De forma anloga se puede demostrar que el mximo de R(x) vale
n
y se produce cuando x es el
valor propio x
n
(y
n
=1, y
j
=0, jn)
3.7.2 Error en los valores propios estimados mediante el cociente de Rayleigh
Si en el cociente de Rayleigh la aproximacin en el vector propio es lineal, la aproximacin en el
valor propio es cuadrtica. En efecto, si x=x
i
+v, siendo v el error en x
i
, se cumple que
R(x)=
i
+O(
2
).
lgebra lineal numrica con Matlab pg. 56
Demostracin:

( )
2
2
( ) ( ) 2
( )( ) 2
T T T T T
i i i i i
i T T T T T
i i i i i
R


+ + + +
+ = =
+ + + +
x v A x v x Ax x Av v Av
x v
x v x v x x x v v v
(270)
Como el error v no tiene componente en x
i
, se cumplirn las relaciones:

2
, A , , 0, 0,
T T T T
j j i i i j ij i i j j
j i j i


= = = = = =

v x x x x x x Av v x v Av
(271)
Sustituyendo en la expresin (264) del cociente de Rayleigh:

( )
2 2
1
2 2 2 2
2 2
0
1
1
i j j
j i
i i j j j
j i j i j
j i
R


+ +

+ = = + +

+

x v
(272)
Desarrollando en serie el segundo factor
( )
( )
1
2 3
1 1 ... x x x x

= + +
y agrupando trminos:

( ) ( )
2 2 2 4
...
i i j j i j
j i j i
R


+ = + + +



x v
(273)
3.7.3 Teorema mini-max y maxi-min (Teoremas de Courant-Fischer)
Se comenzar explicando el teorema maxi-min para el 2 valor y vector propio.
El mnimo valor del cociente de Rayleigh se obtiene para
1
= x x y vale
1
. Supngase que ahora se
quiere de nuevo calcular el mnimo de R(x) pero con la condicin de que x sea ortogonal a un vec-
tor dado w. Como hay menos libertad para elegir x que antes, el mnimo que se obtenga ser mayor
que el mnimo obtenido cuando no haba restricciones, que era
1
. Supngase que ahora se toma
otro w distinto y se vuelve a repetir el proceso, y as con todos los w posibles. Todos los mnimos
obtenidos sern mayores o igual que
1
, pero por lo dems cada uno tendr una magnitud diferente.
Para el segundo valor y vector propio, el teorema maxi-min establece que el mximo de los mni-
mos de R(x), sujeto a la restriccin xw, siendo w un vector arbitrario, es
2
y se obtiene cuando
x=x
2
.
En el caso general, para r2, el teorema maxi-min establece que:
max min 1, 2,... siendo 0, 1, 2,..., ( 1)
i
T
T
r i T
r n i r

= = = =


x w
x Ax
x w
x x
(274)
Demostracin: Expresando x en base de vectores propios y sustituyendo en R(x):

2 2 2 2
1 1 1 1
2 2 2 2
1 1
... ...
max min
... ... j i
r r r r n n
r r n
R



+ +
+
+ + + + +
=

+ + + + +

w
(275)
Operando de modo que aparezca el valor propio
r
:

2 2 2 2
1 1 1 1 1 1
2 2 2 2
1 1
( ) ... ( ) ( ) ... ( )
max min
... ... j i
r r r r r r r n r n
r
r r n
R


+ +
+
+ + + + +
=

+ + + + +

w
(276)
Las incgnitas de la minimizacin son ahora los
j
, que estn restringidos por la condicin de que x sea ortogonal a los
vectores w
i
:

0, 1, 2,..., 1
T T
i i j j
i r = = =

w x w x
(277)
Los valores de
i
deben minimizar el parntesis interior de la expresin (276), a la vez que satisfacen las restricciones
(277). La fraccin, que tiene signo negativo (), deber ser lo mayor posible. Para ello,
r+1
=...=
r
=0, pues as se anulan
los trminos negativos (que restan) del numerador de la fraccin. Los (r1) valores de (
1
,
2
, ...,
r1
) se deben elegir
Valores y vectores propios pg. 57
de modo que se cumplan las (r1) restricciones (277). Es evidente que R(x)<
r
pues a
r
se le est restando algo positi-
vo. Sin embargo, para w
i
=x
i
, se cumple que
1
=
2
= ...=
r1
=0 y se alcanza la igualdad R(x)=
r
. Con esto queda demos-
trado el teorema maxi-min.
De forma anloga se puede demostrar en teorema mini-max.
Enunciado conjunto de los teoremas mini-max y maxi-min: El valor propio
r
se puede obtener de
las expresiones siguientes:

min max max min
2,..., 1 siendo 0, 1, 2,..., ( 1)
i i i i
T T
r T T
T
i
r n i r



= =


= = =
w x w x w w
x Ax x Ax
x x x x
x w
(278)
donde los w
i
son conjuntos de r vectores arbitrarios de R
n
.
3.7.4 Interpretacin geomtrica de los teoremas mini-max y maxi-min
La bsqueda de mximos y mnimos del cociente de Rayleigh se puede interpretar como la bsque-
da de los puntos de un elipsoide que estn a una distancia mxima y mnima de su centro (ver
Figura 35). La restriccin de ser perpendicular a un vector w obliga a buscar mnimos en la elipse
que resulta de cortar el elipsoide con un plano perpendicular a dicho vector w. Se corta el elipsoide
con muchos planos diferentes y se calcula el mnimo. El mximo de los mnimos es
2
y se obtiene
cuando w=x
1
.

Figura 35. Elipsoide en R
3
.
3.7.5 Propiedad de "separacin" de los valores propios
Si A
(m)
es la matriz que resulta de suprimir las ltimas m filas y columnas de la matriz A, se cumple
que los (nm1) valores propios de A
(m+1)
separan estn entre los (nm) valores propios de A
(m)
.
Demostracin: Esta propiedad se va a demostrar para A y A
(1)
. La matriz A
(1)
resulta de suprimir la ltima fila y co-
lumna de A. Se trata de demostrar que se cumple la relacin:

(1)
1
1, 2,..., 1
r r r
r n
+
=
(279)
Considrense las tres caracterizaciones maxi-min siguientes:

1
a) max min 0 1, 2,...,
i i
T
T
r i T
i r
+


= = =


x w w
x Ax
x w
x x
(280)
lgebra lineal numrica con Matlab pg. 58

(1)
0 1, 2,...,
b) max min
arbitrario para 1, 2,..., 1 i i
T T
i
r T
i r n
i r
i r


= =
=

= =

x w w
x w x Ax
x x w w e
(281)

c) max min 0 1, 2,..., 1
i i
T
T
r i T
i r


= = =


x w w
x Ax
x w
x x
(282)
A ms libertad para elegir los vectores w
i
se podrn encontrar mayores mximos de los mnimos. La condicin a) deja
ms libertad para elegir los w
i
que b), luego
(1)
1 r r

+
. La condicin b) deja ms libertad para elegir los w
i
que c), lue-
go
(1)
r r
.
3.8 Valores y vectores propios generalizados
3.8.1 Introduccin a partir del problema estndar
El problema generalizado se puede introducir a partir del problema de valores y vectores propios
estndar: Supngase que la matriz AR
nn
es simtrica. Sea el problema de valores y vectores pro-
pios estndar, planteado en la forma:
= Ax x (283)
Sea C una matriz relacionada con A mediante la transformacin de congruencia:

T
= C P AP (284)
donde la matriz P es una matriz cuadrada no singular. La ley de inercia de Sylvester asegura que los
valores propios de C tienen los mismos signos que los de A, aunque en general tendrn diferentes
valores numricos. Sean y y los vectores y valores propios de C:
,
T
= = Cy y P APy y (285)
Haciendo x=Py, la ecuacin (285) se puede poner en la forma:

( ) ( )
1 1
1 1
, ,
T T T



= = = = = x Py y P x Ax P P x P P x B P P Ax Bx (286)
que es el llamado problema generalizado de valores y vectores propios.
Muchas de las propiedades del problema estndar del que se ha partido se conservan en el problema
generalizado. Por ejemplo, si la matriz C es simtrica y semidefinida positiva sus valores propios
sern reales y no negativos. Estas mismas caractersticas tienen los valores propios generalizados de
A y B cuando A es simtrica y semidefinida positiva, y B es simtrica y definida positiva (lo debe
ser por la forma en que ha aparecido a partir de P, segn (286)).
3.8.2 Planteamiento del problema generalizado de valores y vectores propios
Este problema se plantea matricialmente mediante la siguiente ecuacin en x y :
= Ax Bx (287)
donde A y B son ser simtricas y definidas positivas al menos una de ellas, de ordinario B. La
expresin anterior se puede poner en la forma:
( ) = A B x 0 (288)
Para que exista una solucin x distinta de la trivial, el valor propio deber ser raz del polinomio
de grado n que resulta de desarrollar el determinante:
( ) det 0 = A B (289)
Valores y vectores propios pg. 59
Propiedades del problema de valores y vectores propios generalizado:
Es un problema no lineal en los valores propios y lineal en los vectores x.
Siempre existirn n valores propios, que pueden ser reales o complejos segn sean las matri-
ces A y B.
Los valores propios de multiplicidad m>1 tienen un subespacio propio asociado de dimen-
sin m. Todos los vectores en este subespacio propio son vectores propios.
Los vectores propios pertenecen a Ker(AB) y no estn unvocamente determinados: Si x
es un vector propio, x tambin lo es.
Este problema se considerar con menos generalidad que el problema estndar: se suele suponer
que las matrices son reales y casi siempre simtricas y definidas positivas.
La interpretacin geomtrica de este problema generalizado se puede ver en la Figura 36.

Figura 36. Interpretacin geomtrica del problema generalizado de valores y vectores propios.
Se pueden hacer algunos comentarios sobre la Figura 36:
En general, los vectores Ax y Bx no tiene la misma direccin que el vector x.
Los vectores propios generalizados son vectores que se transforman en vectores de la mis-
ma direccin con la matriz A que con la matriz B.
El valor propio generalizado determina la diferencia en el cambio de longitud con una y
otra matriz.
La Figura 36 muestra un ejemplo en el que se observa la diferencia en cmo se transforma
un vector cualquiera x y cmo se transforman dos vectores propios generalizados x
1
y x
2
.
En algunos casos prcticos el problema generalizado surge cuando se alinean fuerzas de distinta
naturaleza, por ejemplo en Mecnica cuando se alinean las fuerzas de inercia y las fuerzas elsticas.
3.8.3 Reduccin del problema generalizado al problema estndar
Supngase el problema generalizado de valores y vectores propios:
= Ax Bx (290)
Se desea transformarlo a la forma estndar. Pre-multiplicando por la inversa de B se obtiene:

1

= B Ax x (291)
2
Bx
2 2 2
= Ax Bx
1 1 1
= Ax Bx
1
x
x
Ax
2
x
1
Bx
Bx
lgebra lineal numrica con Matlab pg. 60
Este mtodo, aunque vlido, no es una forma prctica de resolver el problema porque se pierde la
simetra y se hacen ms complicados los clculos.
De otra forma, si la matriz B es simtrica y definida positiva se puede factorizar como B=R
T
R (R
no singular) y se tiene:

1
1 1
,

T
T T


= =
= =
Ax Bx R Rx y Rx x = R y
AR y R y R AR y y
(292)
Consecuencias:
Si A y B son simtricas, la nueva matriz tambin lo es y los valores propios sern reales.
Los valores propios del problema generalizado tienen los mismos signos que los valores
propios de A (por la ley de inercia de Sylvester)
Si A y B son simtricas, los vectores propios correspondientes a valores propios distintos
son ortogonales respecto a dichas matrices:
( )
1 1 1 2 1 1 2 1 2 1
1 2 2 1
2 2 2 1 2 2 1 2 2 1
0
0
0
T T T
T
T T T



= = =
=

= = =

Ax Bx x Ax x Bx x Bx
x Bx
Ax Bx x Ax x Bx x Ax
(293)
Los vectores propios se suelen normalizar respecto a la matriz B:
1
T
i i
= x Bx (294)
Como consecuencia, la matriz P cuyas columnas son los vectores propios, diagonaliza por
congruencia las matrices A y B simultneamente:
;
T T
= = P AP D P BP I (295)
Introduciendo el cambio de variables x=Py y pre-multiplicando por P
T
la ecuacin de valo-
res y vectores propios se reduce a forma diagonal:
,
T T
= = = Ax Bx x Py P APy P BPy Dy y (296)
Obsrvese que la matriz de vectores propios P no es una matriz ortogonal puesto que P
T
PI.
Para calcular la inversa de la matriz P (que no es P
T
) se puede proceder as:

1 1 1

T T T
= = = P BP I P BPP IP P P B (297)
Desplazamiento de los valores propios. Si se sustituye la matriz A por AB, los valores
propios pasan a ser ():
( ) ( ) ( ) ; ; = = = AP BPD A B P BPD BP A B P BP D I (298)
Los valores propios no cambian ante una transformacin de congruencia aplicada a ambas
matrices A y B. La ecuacin de los valores y vectores propios es:
= Ax Bx (299)
Introduciendo la transformacin x=Cy y premultiplicando por C
T


T T
= C ACy C BCy (300)
de donde se deduce que es un valor propio de las matrices C
T
AC y C
T
BC asociado con el
vector propio y.
Valores y vectores propios pg. 61
Valores propios cuando A tiene rango menor que n. En este caso los vectores de Ker(A) son
vectores propios generalizados asociados con =0. Esto sucede cuando la matriz A es slo
semidefinida positiva.
Si es la matriz B la que tiene rango menor que n, los vectores de Ker(B) son vectores pro-
pios asociados con valor propio infinito: =.
El papel de las matrices A y B puede intercambiarse escribiendo:

1

= = Ax Bx Bx Ax (301)
3.8.4 Cociente de Rayleigh para Ax=Bx
El cociente de Rayleigh para el problema generalizado se define en la forma:
( )
T
T
R =
x Ax
x
x Bx
(302)
Propiedades:
Derivando respecto a x para imponer la condicin de valor estacionario:

( ) ( )
( ) 2
T T T
T T
R

= = =
x Bx Ax x Ax Bx x Ax
x 0 Ax Bx 0
x Bx x Bx
(303)
de donde se deduce que los valores estacionarios se obtienen cuando x es un vector propio,
en cuyo caso el cociente de Rayleigh es el valor propio correspondiente.
Si las matrices A y B son simtricas y definidas-positivas
o Todos los valores propios son reales y mayores que cero.
o El mnimo se obtiene para el valor propio ms pequeo
1
y el mximo para el valor
propio ms grande
n
.
o El caso de las matrices de rango menor que n se deduce fcilmente.
Clculo de valores y vectores propios. Si se conoce:
o el valor propio, el vector propio se calcula resolviendo (A
i
B)x
i
=0 y normalizando.
o el vector propio, el valor propio se puede calcular con el cociente de Rayleigh.
Existen tambin versiones de los teoremas mini-max y maxi-min para este problema.
3.8.5 Convergencia a otros valores propios. Tcnicas de deflaccin matricial
Para calcular el k-simo valor propio se itera con un vector B-ortogonal a los k1 vectores propios
ya calculados (esta condicin se impone en cada paso).

( )
1
1
k
T
k k j k j
j

=
=

z z x Bz x (304)
Tambin puede obtenerse la convergencia a otros valores y vectores propios mediante una trans-
formacin de congruencia. Supngase calculado x
1
y
1
; sea S una matriz tal que:
[ ]
1 2 3
...
n
= S x s s s (305)
donde x
1
es como se ha dicho un vector propio ya calculado, y s
2
, ..., s
n
son vectores linealmente
independientes de x
1
y entre s. Teniendo en cuenta que P
T
AP=D y P
T
BP=I:
lgebra lineal numrica con Matlab pg. 62

1
1 1
0 0 1 0 0
0 0

0 0
T T




= =




S AS S BS
A B


(306)
Resulta que las matrices A
1
y B
1
ampliadas tienen los mismos valores propios que A y B, pues se
relacionan con stas a travs de una transformacin de congruencia. Adems, tienen una fila y co-
lumna menos. Con transformaciones de este tipo se pueden calcular valores propios distintos de los
ya calculados.

Factorizaciones de una matriz pg. 63
4. Factorizaciones de una matriz
4.1 Factorizacin LU
4.1.1 Ejemplo de factorizacin LU directa
Para una matriz cuadrada de rango r=n la eliminacin de Gauss llega al siguiente resultado (ver
apartado 2.5.2):

11 12 13 14 11 12 13 14
21 22 23 24 21 22 23 24
31 32 33 34 31 32 33 34
41 42 43 44 41 42 43 44
1 0 0 0
1 0 0 0
;
1 0 0 0
1 0 0 0
a a a a u u u u
a a a a l u u u
a a a a l l u u
a a a a l l l u



= =



A LU (307)
Exactamente a este mismo resultado se puede llegar por identificacin directa de elementos, con el
mismo n de operaciones aritmticas, pero con una secuencia ms favorable. Considrense los pasos
siguientes:
1. A partir de la primera fila de A:

1 1
1, 2,...,
j j
u a j n = = (308)
2. A partir de la primera columna de A:

1 1 11 1 1 11
; = / 2, 3,...
j j j j
a l u l a u j n = = (309)
3. A partir de la segunda fila de A, los elementos de la segunda fila de U:

12 1
2 21 1 2 2 2 21 1 2
11
1 ; 2,...,
j
j j j j j j j
u u
a l u u u a l u a j n
u
= + = = = (310)
4. A partir de la segunda columna de A, los elementos de la segunda columna de L:

( )
2 1 12 2 22 2 2 1 12
22
1
; 3,...,
j j j j j j
a l u l u l a l u j n
u
= + = = (311)
5. Para la tercera fila y columna de A:
Elemento de la diagonal:

33 31 13 32 23 33 33 33 31 13 32 23
1 a l u l u u u a l u l u = + + = (312)
Resto de los elementos de la 3 fila:

34 31 14 32 24 34 34 34 31 14 32 24
a l u l u u u a l u l u = + + = (313)
Resto de los elementos de la 3 columna:
( )
43 41 13 42 23 43 33 43 43 41 13 42 23
33
1
a l u l u l u l a l u l u
u
= + + = (314)
6. Para el ltimo elemento de la diagonal:

44 41 14 42 24 43 34 44 44 44 41 14 42 24 43 34
1 a l u l u l u u u a l u l u l u = + + + = (315)
lgebra lineal numrica con Matlab pg. 64
4.1.2 Frmulas generales para la factorizacin LU
La Figura 37 muestra esquemticamente la factorizacin directa A=LU en un estado intermedio. Se
supone que, utilizando los elementos de las partes rayadas de A, se han calculado ya las correspon-
dientes partes rayadas de las matrices L y U. En el siguiente paso se van a calcular la columna i de
L y la fila i de U, utilizando las correspondientes fila y columna de la matriz A (marcadas con lnea
gruesa en la Figura). Hay que recordar que los elementos de la diagonal de L son unos.

Figura 37. Estado intermedio de la factorizacin A=LU.
Para calcular los elementos marcados (columna i de L y fila i de U, a partir de la diagonal) se pro-
cede del siguiente modo:
1. A partir de a
ii
se calcula el elemento de la diagonal u
ii
:

1 1
1 1

i i
ii ik ki ii ii ii ik ki
k k
a l u u u a l u

= =
= + =

(316)
2. A partir de a
ij
(j=i+1, , n) se calculan los elementos de la fila i de U:

1 1
1 1
, 1,...,
i i
ij ik kj ij ij ij ik kj
k k
a l u u u a l u j i n

= =
= + = = +

(317)
3. A partir de a
ji
(j=i+1, , n) se calculan los elementos de la columna i de L:

1 1
1 1
1
, 1,...,
i i
ji jk ki ji ii ji ji jk ki
k k
ii
a l u l u l a l u j i n
u

= =

= + = = +



(318)
Las operaciones indicadas por las ecuaciones (316)-(318) presentan las siguientes ventajas respecto
a la eliminacin de Gauss:
1. Estn fundamentalmente basadas en el producto escalar de vectores (fila de L por co-
lumna de U), operacin que se realiza de un modo muy eficiente en un computador.
2. Los elementos de las matrices L y U alcanzan su valor definitivo de una vez, sin resulta-
dos intermedios. De esta forma se minimiza el trasiego de datos entre el procesador y los
distintos niveles de la memoria del ordenador. Tngase en cuenta que en los ordenadores
modernos el acceso a memoria es tan costoso o ms que las propias operaciones aritm-
ticas. En relacin con lo que se acaba de decir, todos los datos que se utilizan a la dere-
cha de la igualdad en las expresiones (316)-(318) tienen ya su valor definitivo, por lo
que pueden ser accedidos con operaciones de slo-lectura y hacer un uso muy eficiente
de las memorias intermedias del procesador (memorias cache).
4.1.3 Factorizacin LU con matrices simtricas
Si la matriz A es simtrica las expresiones de l
ij
y de u
ji
coinciden, excepto en que los elementos l
ij

estn divididos por los u
ii
. Se puede escribir entonces la factorizacin en la forma:
=
0
0
Factorizaciones de una matriz pg. 65

T
= = A LU LDL (319)
Hay dos posibilidades para almacenar los resultados de la factorizacin:
1. Almacenar U en la matriz resultado en su posicin habitual, incluyendo su diagonal. Se
puede recuperar L fcilmente dividiendo las filas de U por el elemento de la diagonal y
trasponiendo.
2. Almacenar D en la diagonal de la matriz resultado y L
T
en la mitad superior. En este ca-
so, las filas de U se guardan ya divididas por el elemento de la diagonal.
Los clculos pueden hacerse por filas o por columnas. A continua-
cin se desarrollar con detalle el clculo por filas, basndose en la
representacin simblica de la matriz de la Figura 38.
En el clculo por filas se supone que la parte rayada est ya calcu-
lada. Se van a calcular los elementos de la fila i de L
T
y el elemento
de la diagonal de D (o de U). Se parte de las expresiones (316)-
(318) y se tiene en cuenta la relacin existente entre los elementos
de U y los de L
T
y D.
En primer lugar se calcula el elemento de la diagonal d
ii
, distin-
guiendo segn las dos formas de almacenar los resultados:

2 1 1 1
1 1 1
i i i
ki ki
ii ii ik ki ii ki ii
k k k
kk kk
u u
d a l u a u a
u u

= = =
= = =

(320)

( )
1 1
2
1 1
i i
T T T
ii ii ki ki kk ii ki kk
k k
d a l l d a l d

= =
= =

(321)
El clculo de los elementos de la fila i (con lnea gruesa en la Figura 38) recuerda al producto esca-
lar de la columna i por la columna j, excepto que cada sumando est dividido (o multiplicado) por el
elemento de la diagonal. Estas divisiones restan eficiencia a los clculos. Calculando U:

1 1
1 1
, 1,...,
i i
ki kj
ij ij ik kj ij
k k kk
u u
u a l u a j i n
u

= =
= = = +

(322)
Si se almacena L
T
, es decir, los elementos de U divididos por el elemento de la diagonal:

1 1
1 1
1 1
, 1,...,
i i
T T T
ij ij ik kj ij ki kj kk
k k
ii ii
l a l u a l l d j i n
d d

= =

= = = +



(323)
El algoritmo puede modificarse para resolver la dificultad de tener que dividir (o multiplicar) por el
elemento de la diagonal, al mismo tiempo que se vectoriza. La clave est en construir un vector
auxiliar v cuyos elementos son los de la columna i de L
T
multiplicados cada uno de ellos por el
correspondiente elemento de la diagonal. Las expresiones (321) y (323) se transforman en:

1 1
1 1
i i
T T T
ii ii ki ki kk ii ki k
k k
d a l l d a l v

= =
= =

(324)

1 1
1 1
1 1
, 1,...,
i i
T T T T
ij ij ki kj kk ij kj k
k k
ii ii
l a l l d a l v j i n
d d

= =

= = = +



(325)
La factorizacin LU, almacenando D y L
T
sobre la propia matriz A y utilizando las ecuaciones
(324) y (325), puede programarse en Matlab como se muestra a continuacin:
Figura 38. Factorizacin LDL
T

de una matriz simtrica.
i j
lgebra lineal numrica con Matlab pg. 66
function [D,Lt]=LUsim(A)
n=si ze( A, 1) ;
%pr i mer a f i l a de L'
for j=2:n
A( 1, j ) =A( 1, j ) / A( 1, 1) ;
end
for i=2:n
%se f or ma el vect or auxi l i ar v
for k=1:i-1;
v( k) =A( k, i ) *A( k, k) ;
end
%cl cul o del el ement o di agonal
for k=1:i-1
A( i , i ) =A( i , i ) - v( k) *A( k, i ) ;
end
%cl cul o del r est o de l a f i l a i
for j=i+1:n
for k=1:i-1
A( i , j ) =A( i , j ) - v( k) *A( k, j ) ;
end
A( i , j ) =A( i , j ) / A( i , i ) ;
end
end
D=di ag( A) ; Lt =eye( n) +t r i u( A, 1) ;
4.1.4 Factorizacin LU vectorizada
Al igual que en el apartado anterior, el resultado contendr la matriz D y la matriz L
T
almacenadas
sobre la matriz A original. Las expresiones utilizadas son las mismas que en el programa anterior.
El programa de factorizacin puede ser como sigue (slo dos bucles for):
function [d,Lt]=LUsimVect1(A)
%se guar dan D y L' ( A=L*D*L' )
n=si ze( A, 1) ;
v=zer os( n, 1) ;
d=zer os( n, 1) ; d( 1) =A( 1, 1) ;
%se di vi de l a f i l a 1 por A( 1, 1)
A( 1, 2: n) =A( 1, 2: n) / A( 1, 1) ;
for i=2:n
%vect or auxi l i ar
v(1:i-1)=A(1:i-1,i).*d(1:i-1);
%el ement o di agonal f i l a i
di i =A( i , i ) ;
dii=dii-v(1:i-1)'*A(1:i-1,i);
d( i ) =di i ;
A( i , i ) =di i ;
%cl cul o del r est o de l a f i l a i
for j=i+1:n
A(i,j)=(A(i,j)-v(1:i-1)'*A(1:i-1,j))/dii;
end
end
Lt =eye( n) +t r i u( A, 1) ;
La vectorizacin del algoritmo de factorizacin directa puede llegar an ms lejos: El siguiente pro-
grama de Matlab calcula la factorizacin LU utilizando doble vectorizacin (con un solo bucle for):
function [d,Lt]=LUsimVect2(A)
%se guar dan D y L' ( A=L*D*L' )
n=si ze( A, 1) ; v=zer os( n, 1) ;
d=zer os( n, 1) ;
d( 1) =A( 1, 1) ;
%pr i mer a f i l a de L'
A( 1, 2: n) =A( 1, 2: n) / A( 1, 1) ;
Factorizaciones de una matriz pg. 67
%r est ant es f i l as
f or i =2: n
%vect or auxi l i ar : col umna i di vi di da di agonal
v( 1: i - 1) =A( 1: i - 1, i ) . *d( 1: i - 1) ;
%el ement o de l a di agonal
di i =A( i , i ) ;
di i =di i - v( 1: i - 1) ' *A( 1: i - 1, i ) ;
A( i , i ) =di i ;
d( i ) =di i ;
%r est o de l a f i l a i
A( i , i +1: n) =( A( i , i +1: n) - v( 1: i - 1) ' *A( 1: i - 1, i +1: n) ) / di i ;
end
Lt =eye( n) +t r i u( A, 1) ;
Para ofrecer una idea de la eficiencia de la vectorizacin y de los propios ficheros *.m de Matlab, se
ha construido y ejecutado una funcin comparativa que llama a las funciones anteriores y a la fun-
cin lu() de Matlab. Los resultados obtenidos con un procesador Intel Pentium 4 a 3 Ghz han sido
los siguientes (tiempo en segundos):
n LUsim LUsimVect1 LUsimVect2 lu()
250 0.2190 0.5470 0.0470 0.0160
500 1.5940 2.4840 0.3280 0.0620
1000 12.2810 11.4380 3.4220 0.4060
Hay que tener en cuenta que se ha utilizado la versin 6.5 de Matlab, que incorpora un JIT (Just-
In-Time) Accelerator. Los resultados de esta tabla muestran que el acelerador JIT consigue que el
cdigo normal sea ms rpido que la vectorizacin simple, aunque no tan rpido como la vectoriza-
cin doble. La funcin lu() de Matlab, escrita en Fortran C y compilada, es en cualquier caso mu-
cho ms rpida que cualquiera de los ficheros *.m.
4.1.5 Factorizacin de Choleski
Esta factorizacin se aplica a matrices simtricas y definidas positivas, pues hace falta que est
garantizado el que todos los pivots sean positivos. Est basada en la siguiente expresin:

1/ 2 1/ 2 T T T
= = = A = LU LDL LD D L LL (326)
Si se trabaja con L y con la parte inferior de A, las expresiones son las siguientes:
Elemento de la diagonal:

1
1 1 2
2 2 2
1 1 1

i i i
T
ii ik ki ik ii ii ii ik
k k k
a l l l l l a l

= = =

= = + =



(327)
Restantes elementos de la columna i:

1 1
1 1 1
1

i i i
T
ji jk ki jk ik ji ii ji ji jk ik
k k k
ii
a l l l l l l l a l l
l

= = =

= = + =



(328)
La factorizacin de Choleski requiere un cdigo muy similar al visto anteriormente.
4.2 Factorizacin QR
4.2.1 Factorizacin QR por Gram-Schmidt
El mtodo de ortogonalizacin de Gram-Schmidt fue ya considerado en el apartado 1.2.4. Ahora se
va a utilizar para pasar de una matriz cuadrada A, de tamao nn, cuyas columnas son independien-
tes, a una matriz ortogonal Q:
lgebra lineal numrica con Matlab pg. 68
[ ] [ ]
1 2 1 2

n n
= = A a a a Q q q q (329)
Recurdese que
[ ] [ ]
1 2 1 2
, ,..., , ,...,
k k
L L = a a a q q q , es decir, que las k primeras columnas de A gene-
ral el mismo subespacio que las k primeras columnas de Q. Segn esto, cada vector a
i
slo tiene
componentes en los i primeros vectores ortonormales q, es decir:

( )
( ) ( )
( ) ( ) ( )
1 1 1 1
2 1 2 1 2 2 2
3 1 3 1 2 3 2 3 3 3
T
T T
T T T
=
= +
= + +
a q a q
a q a q q a q
a q a q q a q q a q
(330)
Las ecuaciones (330) indican que las matrices A y Q se relacionan a travs de una matriz triangular
superior R, que es cuadrada nn e invertible:
[ ] [ ]
1 1 1 2 1
2 2 2
1 2 1 2
0

0 0
T T T
n
T T
n
n n
T
n n



= =




q a q a q a
q a q a
a a a q q q A QR
q a

(331)
La factorizacin QR suele aplicarse de modo que todos los elementos de la diagonal de R sean posi-
tivos (la funcin qr() de Matlab sin embargo, no cumple esta condicin). La fila i de Q representa
las componentes de todas las columnas de A segn el vector q
i
de la base ortonormal. La columna j
de R representa las componentes de a
j
en los vectores de la base ortonormal. Como se ver a conti-
nuacin, esta factorizacin mantiene pleno sentido aunque el nmero de columnas de A sea inferior
al nmero de filas.
El mtodo de Gram-Schmidt se suele aplicar segn el llamado algoritmo modificado, que utiliza
una secuencia de operaciones diferente a la convencional. En el algoritmo modificado, tan pronto
como se halla un vector de la base ortonormal q
i
se hacen ortogonales respecto a l todos los vecto-
res a
j
, j=i+1,...,n. Las expresiones correspondientes son las siguientes:

( )
( )
( )
1 1 1 1 1
2 2 2 2 2
2, 3,...,
3, 4,...,
...
1,...,
T
j j j
T
j j j
T
i i i j j i j i
j n
j n
j i n
= = =
= = =
= = = +
q a a a a q a q
q a a a a q a q
q a a a a q a q
(332)
4.2.2 Factorizacin QR de matrices rectangulares
Considrese una matriz rectangular A, de tamao mn (m>n). Se puede obtener una matriz Q, tam-
bin mn, cuyas columnas son ortonormales y generan el mismo subespacio de R
m
que las de A.
Las frmulas anteriores (330) y (331) se aplican tambin en este caso. La matriz Q es mn, pero la
matriz R es cuadrada nn. A esta factorizacin se le llama factorizacin QR incompleta, porque las
columnas de Q no constituyen una base completa de R
m
(en este caso Q no es una matriz ortogo-
nal, sino lo que se llam matriz de columnas ortogonales).
La factorizacin QR completa obtiene una matriz Q ortonormal (mm) aunque la matriz A sea rec-
tangular, aadiendo a la matriz R tantas filas de ceros como columnas se han aadido a Q (la Figura
39 representa grficamente la factorizacin QR completa de una matriz rectangular):
Factorizaciones de una matriz pg. 69

[ ] [ ]
1 1 1 2 1
2 2 2
1 2 1 2 1
0
0 0
0 0 0
0 0 0
T T T
n
T T
n
T
n n n m n n +





=







q a q a q a
q a q a
a a a q q q q q q a

(333)

Figura 39. Factorizacin QR completa de una matriz rectangular.
La factorizacin QR se puede utilizar para resolver sistemas de ecuaciones lineales. En s es ms
cara que la factorizacin LU, pero es ms estable y es ventajosa siempre que por algn motivo se
disponga ya de ella. Con la factorizacin QR la resolucin de un sistema de ecuaciones lineales se
reduce a un producto por Q
T
y a una vuelta atrs con una matriz triangular superior:

1

T
=
= = = = =

=

Rx y
Ax b A QR QRx b y Q b x R y
Qy b
(334)
En el caso de las ecuaciones normales propias del mtodo de los mnimos cuadrados su aplicacin
es mucho ms ventajosa, porque las ecuaciones normales suelen tener nmeros de condicin altos.
En este caso se llega a:

T T T T T T
= = = = Ax b A Ax A b A QR R Q QRx R Q b (335)
y como Q es ortogonal y R triangular superior e invertible, la ecuacin final es muy fcil de resol-
ver

T T T T
= = R Rx R Q b Rx Q b (336)
A continuacin se incluye una funcin de Matlab para la factorizacin QR incompleta mediante el
mtodo de Gram-Schmidt modificado
function [Q,R]=QRgsmod(A)
%Fact or i zaci n QR ( G. - S. modi f i cado)
[ m, n] =si ze( Q) ;
R=zer os( n, n) ;
for k=1:n
%nor ma de l a col umna k
R( k, k) =nor m( Q( : , k) ) ;
%se nor mal i za l a col umna k
Q( : , k) =Q( : , k) / R( k, k) ;
%Se el i mi na l a col umna k de l as si gui ent es col umnas
for j=k+1:n
R( k, j ) =Q( : , k) ' *Q( : , j ) ;
Q( : , j ) =Q( : , j ) - Q( : , k) *R( k, j ) ;
end
end
A Q
R
0
=
lgebra lineal numrica con Matlab pg. 70
4.2.3 Factorizacin QR mediante matrices de Householder
La factorizacin QR puede hacerse tambin por medio de transformaciones de Householder, de
modo an ms estable que con Gram-Schmidt. Adems este mtodo es ms adecuado cuando se
desea obtener la factorizacin QR completa.
En el apartado 1.7.5 se vio que pre-multiplicando por matrices de Householder se pueden hacer
ceros por debajo de la diagonal principal en todas las columnas de una matriz rectangular A:

1 2 1
...
n
= U U U A R (337)
Cada matriz U
j
tiene las (j1) primeras filas y columnas iguales a las de la matriz identidad I
m
. Los
restantes elementos contienen una matriz de simetra de Householder que responde a la expresin:

1
2 ,
T
T
T
= = =
vv
H I I vv v x x e
v v
(338)
siendo x el vector cuyas componentes 2, 3, ..., n se quiere anular.
Pre-multiplicando la expresin (337) por las inversas de las matrices de simetra U
i
y teniendo en
cuenta que el producto de matrices unitarias es tambin unitaria:

1 1 1
1 2 1 1 2 1 1 2 1
... ... , ...
n n n


= = = A U U U R U U U R QR Q U U U (339)
No es necesario formar explcitamente las matrices U
i
y menos an realizar los productos de matri-
ces que aparecen en las expresiones anteriores. La matriz H
i
se puede calcular mediante la expre-
sin (338) a partir del vector v cuando se necesite, pero para hacer un producto HA basta disponer
del vector v, como se explic en el apartado 1.7.6:

( ) ( )
T
T T T
= = = HA I vv A A vv A A v A v
Por otra parte, el vector v se puede calcular a partir de x mediante la funcin householder.m, expli-
cada en el apartado 1.7.5. Con este mtodo, aunque la matriz A sea rectangular (m>n), se obtiene la
factorizacin QR completa.
A continuacin se muestra un programa de Matlab para hacer la factorizacin QR por Householder.
%QR por el mt odo de Househol der
function [Q,R]=QRhouse(A)
[ m, n] =si ze( A) ;
i f m<n, di sp( ' mno puede ser menor que n' ) , exi t , end
R=zer os( n, n) ; Q=eye( m) ;
bet a=zer os( n, 1) ;
for j=1:n
%cr ear el vect or de Househol der
if j<m
[ v, bet a( j ) ] =househol der ( A( j : m, j ) ) ;
%act ual i zar l a mat r i z H
A( j : m, j : n) =( A( j : m, j : n) - bet a( j ) *v( 1: m- j +1) *( v( 1: m- j +1) ' *A( j : m, j : n) ) ) ;
%al macenar v en l os cer os hechos en l a mat r i z A
A( j +1: m, j ) =v( 2: m- j +1) ;
end
end
%Q y R no se guar dan expl ci t ament e
%Par a obt ener Q se puede mul t i pl i car I ( n, n) por l a secuenci a de t r ansf or maci ones
% Q=H1*H2*. . . *Hn- 1*I
% Q=I ; Q=Hj *Q; j =n- 1: - 1: 1
Factorizaciones de una matriz pg. 71
for j=n:-1:1
%se ext r ae v de H, aadi endo el " 1"
v( j : m) =[ 1; A( j +1: m, j ) ] ;
%se apl i ca l a f r mul a H*Q=Q- v*w' ; %donde w=bet a*Q' *v;
Q( j : m, j : m) =( eye( m- j +1) - bet a( j ) *v( j : m) *v( j : m) ' ) *Q( j : m, j : m) ;
end
%R est en l a par t e super i or de A
R=[ t r i u( A( 1: n, 1: n) ) ; zer os( m- n, n) ] ;
4.2.4 Factorizacin QR mediante rotaciones de Givens
Las matrices de simetra de Householder permiten hacer ceros en una columna, debajo de la diago-
nal, en un solo producto matricial. Las matrices de rotacin de Givens, vistas en el apartado 1.6.3,
slo introducen un cero en cada producto matricial. Las matrices de Givens son tambin ortogona-
les y ms sencillas que las de Householder, pero en general no resultan rentables para hacer en mu-
chos pasos los ceros que las matrices de Householder hacen en uno solo.
Sin embargo, las matrices de Givens se aplican con ventajas respecto a las de Householder en todos
aquellos casos en los que se trata de hacer ceros selectivamente, es decir, en slo unos pocos ele-
mentos debajo de la diagonal. Tal sucede por ejemplo en las matrices tridiagonales o con forma de
Hessenberg, como las que se muestran en la Figura 40. Para anular los elementos de debajo de la
diagonal de estas matrices hay que aplicar (n1) rotaciones de Givens, exactamente el mismo nme-
ro que simetras de Householder.
* * 0 0 0 * * * * *
* * * 0 0 * * * * *
, 0 * * * 0 0 * * * *
0 0 * * * 0 0 * * *
0 0 0 * * 0 0 0 * *










Figura 40. Matrices simtrica y con forma de Hessenberg.
La factorizacin QR se deduce fcilmente a partir de las rotaciones de Givens que convierten A en
una matriz triangular superior R. En general:

, 1 2 32 1 31 21 21 31 1 32 2 , 1
21 31 1 32 2 , 1

T T T T T T
n n n n n n n n
T T T T T T
n n n n

= =

G G G G G G A R A = G G G G G G R QR
Q G G G G G G


(340)
4.3 Descomposicin espectral de matrices normales
Sea
nn
A R una matriz normal. Toda matriz normal por tanto unitariamente diagonalizable
admite una descomposicin espectral en la forma:
[ ]
1 1
1
H
n
H H
n k k k
k
H
n n

=




= =






1
u
A = UDU u u u u
u
(341)
En el caso de que haya valores propios mltiples, es posible agrupar en una matriz P
i
las
i
m matri-
ces de rango 1 asociadas con el valor propio
i
. En este caso, la descomposicin espectral se expre-
sa en la forma:
lgebra lineal numrica con Matlab pg. 72

( )
1 1 2
1
1 2
1 1 1 1
1 1 2 2 1 2
...
... ...
s
m m m n n
T T T T T
k k k k k k k s k k
k k k m k n m
s s s
m m m n


+
= = = + = +
= = + + + =
= + + + + + + =

A = UDU u u u u u u u u
P P P
(342)
Las matrices P
i
son matrices de proyeccin ortogonal sobre los subespacios propios, pues son si-
mtricas e idempotentes. La simetra es evidente, pues cada P
i
es una suma de matrices simtricas.
La idempotencia se demuestra tambin fcilmente:

2
q q q q q q q
T T T T T T
i i i j j i i j j i ij j i i i
i p j p i p j p i p j p i p

= = = = = = =
= = = = =

P u u u u u u u u u u u u P (343)
Se verifican adems las siguientes propiedades:

( ) ( ) 0 siempre
q s q s
T T T T
i j m m k k m m k k
m p k r m p k r
q s q s
T T T
m m k k m mk k
m p k r m p k r
m k
= = = =
= = = =
= = =
= = =


PP u u u u u u u u
u u u u u u
(344)

( )
( )
1 1

s q q q s
T T
j i i i i i i j
j i p i p i p j

= = = = =
= = = = =

P x u u x u u x u x P I (345)
La expresin (345) indica que la suma de todas las matrices P
i
es la matriz identidad I, pues cual-
quier vector x se puede expresar como suma directa de sus componentes en la base u
i
.
4.4 Descomposicin de valores singulares (DVS)
Para todas las matrices normales nn existe una matriz unitaria U tal que A se puede factorizar
mediante la descomposicin espectral (ver apartado 4.3):

H
= A UDU (346)
donde las columnas de U son los vectores propios de A. Si la matriz A no es cuadrada, no tiene vec-
tores propios ni descomposicin espectral. Sin embargo, para toda matriz real mn siempre existe
una factorizacin anloga a la espectral en la forma:

H
= A UV (347)
donde U y V son matrices unitarias (ortogonales, en casi todas las aplicaciones de este curso) de
tamao mm y nn, respectivamente, y es una matriz diagonal de tamao mn cuyos elementos
son tales que
ii
>0 (i=1,2,...,r) y
ii
=0 (i>r), siendo r el rango de la matriz A.
Es habitual considerar los valores singulares ordenados de mayor a menor:
( )
1 2 1
... ... 0, min ,
r r p
p m n
+
> = = = = (348)
en cuyo caso las columnas de U y V deben estar ordenadas de modo acorde.
La forma de estas matrices se puede ver grficamente en la Figura 41, que distingue los casos en
que A tenga ms o menos filas que columnas.

Figura 41. Descomposicin de valores singulares de una matriz con menos y ms filas que columnas.
A U
V
H
=
A U
V
H
=
Factorizaciones de una matriz pg. 73
A esta factorizacin se le llama "Descomposicin de Valores Singulares o DVS" (Singular Value
Decomposition o SVD, en ingls) y tiene aplicaciones muy importantes en ingeniera, tanto tericas
como prcticas. En lo sucesivo se considerarn exclusivamente matrices A reales, por lo que se
har referencia a matrices ortogonales.
4.4.1 Clculo y existencia de la DVS
Sea
mn
A R . La prueba de la existencia de la DVS va a ser de tipo constructivo, es decir, se de-
mostrar que existe definiendo un proceso que permite calcularla.
La matriz A
T
A es simtrica y al menos semi-definida positiva. Por tanto tiene n vectores propios
ortogonales v
i
que pueden formar las columnas de la matriz ortogonal
nn
V R :

( )

T T
i i i n
= = A Av v A A V VD (349)
Los valores propios
i
son no-negativos. Multiplicando la expresin (349) por
T
i
v ,
i
se puede ex-
presar en la forma (cociente de Rayleigh):

2
=
T T T T T
i i i i i i i i i i
= = = v A Av v v v A Av Av (350)
Si A tiene rango r la matriz A
T
A tendr tambin rango r (pues Ker(A)=Ker(A
T
A)). Habr r valores
propios
i
mayores que cero y nr valores propios nulos.
Se definen ahora el valor singular
j
y el vector singular u
j
(u
j
R
m
) en la forma:
, ; 1, 2,...,
j j j j j
j r + = u Av (351)
Los vectores u
j
as formados constituyen un sistema ortonormal en el espacio R
m
. En efecto:

2
1, 1, 2,...,
0,
T T T
j j j j j j j
T T T T
i j i j i j j i j i j
j r
i j


= = = =
= = =
u u v A Av
u u v A Av v v
(352)
Los r vectores ortogonales u
j
se pueden completar por el teorema de la base incompleta (y el mto-
do de Gram-Schmidt) con otros (mr) vectores ortogonales, hasta constituir una base de R
m
. Este
sistema ampliado de m vectores ortogonales u
j
constituyen las columnas de la matriz ortogonal

mm
U R .
Se pretende demostrar la existencia de la DVS (A=UV
T
), pero para ello se estudiar en primer
lugar el producto U
T
AV. El elemento (i,j) de este producto matricial tiene como valor:

( )
= si , por la definicin de
0 si , pues 0
T T T
i j i j j ij j j
ij
j
j r
j r
= =
= > =
U AV u Av u u u
Av
(353)
En definitiva, el producto U
T
AV es igual a una matriz , de tamao mn, que slo tiene distintos de
cero los r primeros elementos de la diagonal. Estos elementos son los valores singulares
j
. Se ha
demostrado pues que existen unas matrices ortogonales U y V que diagonalizan a la matriz A:

T
= U AV (354)
Como las matrices U y V son ortogonales y por tanto invertibles, se puede escribir:

( ) min ,
1
m n
T T
i i i
i

=
= =

A UV u v (355)
lgebra lineal numrica con Matlab pg. 74
que es la expresin de la descomposicin de valores singulares (DVS). Los vectores
j
v y
j
u son,
respectivamente, los vectores singulares por la derecha y por la izquierda de la matriz A:
, 1, 2,...,
H
j j j j j j
j r = = = Av u A u v (356)
Como no se ha presupuesto ninguna condicin para la matriz A, la DVS existe para cualquier ma-
triz rectangular, cualquiera que sea su rango r. La DVS tiene propiedades muy importantes, deri-
vadas de la ortogonalidad de las matrices U y V, y del carcter no negativo de los valores singula-
res
j
.
4.4.2 Propiedades de las matrices U y V
Las matrices ortogonales U y V que aparecen en la descomposicin de valores singulares A=UV
T

tienen entre otras las siguientes propiedades:
1. Las columnas de U son vectores propios de AA
T


T T T T T T T
m
= = = AA UV V U U U UD U (357)
2. Las columnas de V son vectores propios de A
T
A

T T T T T T T
n
= = = A A V U UV V V VD V (358)
3. Tanto AA
T
como A
T
A tienen los mismos valores propios no nulos, lo que deduce de la
relacin de D
m
y D
n
con
T
y
T
, respectivamente.
4. Relacin de las matrices U y V con los subespacios de A:
o Las columnas 1 a r de U son una base ortonormal de Im(A)
o Las columnas r+1 a m de U son una base ortonormal de Ker(A
T
)
o Las columnas 1 a r de V son una base ortonormal de Im(A
T
)
o Las columnas r+1 a n de V son una base ortonormal de Ker(A)
Las propiedades anteriores se deducen de las relaciones siguientes:
o Ker(A
T
A)=Ker(A), pues si Ax=0 tambin se verifica A
T
Ax=0 y si A
T
Ax=0 se verifi-
ca que x
T
A
T
Ax=(Ax)
T
Ax=0, luego Ax=0.
o Im(A
T
A)=Im(A
T
), pues ambos son los espacios ortogonales complementarios de
Ker(A
T
A) y Ker(A) en R
n
.
o Anlogamente, Ker(AA
T
)=Ker(A
T
), Im(A
T
A)=Im(A) y Im(AA
T
)=Im(A)
4.4.3 Clculo de la DVS
Las propiedades 1. y 2. del apartado anterior no son suficientes por s mismas para determinar las
matrices U y V, puesto que los vectores propios de una matriz no estn unvocamente determinados
(por ejemplo, si u
j
es vector propio de AA
T
, el vector u
j
tambin lo es; si hay valores propios ml-
tiples lo que est determinado es el subespacio propio correspondiente, pero no una base ortonor-
mada de dicho subespacio). Las matrices U y V deben calcularse de modo que sean compatibles
entre s, segn la expresin (351), que tambin se puede escribir en la forma:
= AV U (359)
Para calcular las matrices U, V y se puede proceder del siguiente modo:
1. Se calculan las matrices V y resolviendo el problema de valores y vectores propios:
Factorizaciones de una matriz pg. 75
, , 1, 2,...,
T
n i ii
d i r = = = A AV VD (360)
2. Ahora se calcula una matriz U compatible con la V ya calculada por medio de la ecuacin
(359). Esta ecuacin slo permite calcular directamente las r primeras columnas de U, pues
son las que estn multiplicadas por un valor singular distinto de cero. Las mr columnas res-
tantes se calculan simplemente completando una base ortonormal de R
m
.
De forma anloga, es tambin posible calcular en primer lugar las matrices U y resolviendo el
problema de valores y vectores propios
T
m
= AA U UD , y luego calcular V de modo compatible con
la U ya calculada por medio de la ecuacin
T T
= U A V (o bien, trasponiendo:
T T
= A U V ).
La DVS de la matriz A no es nica. Est claro que los valores singulares, ordenados de mayor a
menor, s estn unvocamente determinados. Los vectores singulares por la derecha v
i
, correspon-
dientes a valores singulares simples, no estn unvocamente determinados pues pueden ser multipli-
cados por un factor escalar de mdulo unidad (1, en el caso real). En el caso de valores singulares
mltiples, lo que est unvocamente determinado es un subespacio singular de dimensin igual a la
multiplicidad del valor singular. Sin embargo, dentro de este subespacio se puede tomar cualquier
base ortonormal de vectores singulares.
4.4.4 Aplicaciones de la DVS
Una de las aplicaciones ms importantes de la DVS es el clculo del rango de la matriz A. El pro-
ducto por matrices unitarias conserva el rango, luego se tendr:
( ) ( ) rango rango = A (361)
lo que indica que el rango de una matriz es igual al nmero de valores singulares no nulos. En un
prximo apartado se ver cmo tratar el caso de valores singulares distintos de cero pero muy pe-
queos.
Si la matriz A es cuadrada e invertible, los valores singulares sern todos no nulos y positivos. La
matriz inversa de A se puede expresar como:

1
1
1 n
T T
i i
i
i

=
= =

A V U v u
1
(362)
Anlogamente, la solucin de un sistema de ecuaciones lineales compatible y determinado Ax=b
se puede expresar en la forma:

1
1 1
1

T
n n
T T
i
i i i
i i
i i

= =
= = = = =

u b
Ax b x A b V U b v u b v
1
(363)
La DVS conserva las normas espectral y de Frobenius, como se demuestra a continuacin:

( ) ( ) ( ) ( )
2 2
2
1
2 2
T T T T T T T
= = = = = = A A A V U U V V V (364)

( ) ( ) ( ) ( )
2 2
2
traza traza traza traza
H T H H T H T
i
F F
= = = = = =

A A A V U U V V V (365)
La DVS se puede aplicar tambin al clculo de la condicin numrica de una matriz, que para una
matriz cualquiera se defini como el cociente entre el vector unitario que ms "crece" al multipli-
carse por la matriz A dividido por el vector unitario que menos crece:
( )
1 1
max min
= =
=
u u
A Au Au (366)
lgebra lineal numrica con Matlab pg. 76
Considerando la norma eucldea, hay que tener en cuenta que el producto por una matriz ortogonal
no cambia la norma eucldea, por lo que las normas mxima y mnima de la expresin (366) son
respectivamente el mximo y mnimo valor singular. Por ejemplo, para el mximo de la norma:

2 2 2 2
1 1 1
2 2 2
2 2
1 1 1 1
max max max max
T
T T

=
= = = =
= = = = =
v V u
u u u v
Au UV u V u v e (367)
Por tanto, el nmero de condicin espectral ser:
( ) ( )
2 1
, min ,
p
p m n = = A (368)
La condicin numrica de una matriz unitaria u ortogonal es la unidad, pues sus valores singulares
son los valores propios de U
T
U=UU
T
=I, que son todos la unidad. Operar con estas matrices no am-
plifica los errores en los datos.
4.4.5 Valores singulares y perturbaciones en una matriz
En este apartado se va a considerar la sensibilidad de los valores singulares ante perturbaciones de
la matriz. Evaluar el rango de una matriz puede ser muy difcil, pues el rango es un valor entero,
mientras que los elementos de la matriz pueden varar de modo continuo.
Para resolver esta dificultad se introduce el concepto de rango numrico de una matriz. Sea un
nmero muy pequeo. Se define el rango numrico o rango- de la matriz A como:
( ) ( )
2
rango , min rango

<

A A
A A

(369)
Es importante interpretar correctamente esta definicin: Las matrices A

son todas las posibles ma-


trices que estn a una distancia de A menor que , medida en la norma espectral. El rango numrico
de A se define como el rango de aquella matriz que menor rango tiene y que est a una distancia de
A menor que .
Teorema 1: Sea AR
mn
una matriz cuya DVS es
1
r
T T
i i i
i

=
= =

A U V u v . Se define la matriz A
k

como una matriz de rango k formada por la suma
1
k
T
k i i i
i

=
=

A u v . Se cumple que la matriz de


rango k que mejor aproxima a A en norma espectral es A
k
, es decir:

( )
1
2
2
rango
min
k k
k

+
=
= =
A
A A A A

(370)
y adems el error en la aproximacin es el valor singular
k+1
, que es el mayor valor singular no
incluido en A
k
.
Demostracin: Utilizando la DVS y la definicin de A
k
se tiene que:

( ) ( )
1
diag ,..., , 0,...0 , rango
H
k k k
k = = U A V A
(371)

( ) ( )
1 1
2
diag 0,..., 0, ,..., ,
H
k k p k k

+ +
= = U A A V A A
(372)
Hay que demostrar que A
k
es la matriz de rango k que mejor aproxima a A.
Supngase una matriz BR
mn
tal que rango(B)=k. El ncleo de B tendr dimensin (nk) y podr ser generado por (n
k) vectores independientes:

( ) [ ]
1 2
Ker , ,...,
n k
L

= B x x x
(373)
Considerando el subespacio
[ ]
1 2 1
, ,...,
k
F L
+
= v v v
, la interseccin de F y Ker(B) no podr ser slo el vector nulo, sino
que tendr dimensin 1, pues la suma de dimensiones es (nk)+(k+1)=n+1.
Factorizaciones de una matriz pg. 77
Sea z un vector de
( ) Ker F B
tal que
2
1 = z
. Por pertenecer a ambos subespacios se tendr que:

( )
( )
1
1 1
r k
T T
i i i i i i
i i

+
= =
=
= =

Bz 0
Az u v z v z u
(374)
Estudiando el cuadrado de la norma espectral de (AB) y recordando que
( )
2 1
1
1
k
T
i
i
+
=
=

v z
por ser z un vector unitario,
se tiene:

( ) ( ) ( )
2
2 2 1 1 2 2 2
2 2 2
1 1
2 2 2 1 1 2
k k
T T T
i i i i k i k
i i

+ +
+ +
= =
= =

A B A B z Az Bz v z u u v z
(375)
En esta expresin la igualdad se obtiene cuando B=A
k
. Con esto queda demostrado el teorema.
Observacin: El valor singular ms pequeo de A es la distancia, en norma espectral, entre A y el conjunto de matrices
de rango inferior al de A.
Teorema 2: La perturbacin en los valores singulares de una matriz ante una perturbacin E en la
matriz A est acotada mediante la expresin:
( ) ( )
2
k k
A+E A E (376)
Esto quiere decir que los valores singulares son muy estables ante perturbaciones de la matriz.
Demostracin: En funcin de los valores y vectores singulares de la matriz A se puede escribir:

( )
1
1 1
1 1
, , r 1
r k
T T
j j j k j j j k
j j
k


= =
= = =

A u v A u v A
(377)
donde r(A) es el rango de la matriz A. En virtud del teorema 1 anteriormente demostrado:

( )
( ) ( )
2
r 1
min
k
k


+ = +
B
A E B A E
(378)
Sustituyendo B=A
k1
en la expresin (378), se obtiene:

( ) ( )
1 1
2 2 2 2
k k k k


+ + + = + A E A E A A A E A E
(379)
A partir de este resultado:

( ) ( )
2
k k
+ A E A E
(380)
Esto es slo parte de lo que hay que demostrar segn (376). Mediante un razonamiento similar, si , y
j j j
u v son los
valores y vectores singulares de la matriz perturbada A+E:

( ) ( )
1
1 1 1 1
, , r 1
r k
T T
j j j j j j
k k j j
k

= =
+ = + = + =

A E u v A E u v A E
(381)
Aplicando ahora el teorema 1 y tomando
( )
1 k
= + B A E se obtiene:

( )
( )
2
r 1
min
k
k


=
B
A B A
(382)

( ) ( ) ( ) ( )
1 1 2 2
2 2
k k
k k


+ + + + + = + + A A E E A E A E A E E A E E
(383)
De esta expresin se concluye lo que falta para probar (376), es decir:

( ) ( )
2
k k
+ A A E E
(384)
4.4.6 Problemas de reduccin de la dimensionalidad
La descomposicin de valores singulares permite expresar una matriz cualquiera A de rango r, co-
mo suma de r matrices de rango 1:

1
r
T T
i i i
i

=
= =

A U V u v (385)
lgebra lineal numrica con Matlab pg. 78
En funcin del valor de los valores singulares, la matriz A puede ser aproximada mediante las pri-
meras k matrices de rango 1 (k<r):

1
k
T
k i i i
i

=
=

A A u v (386)
En virtud del teorema 1, el error de esta aproximacin en norma cuadrtica es
1
2
k k

+
= A A .
La aproximacin de la matriz A con reduccin de la dimensionalidad dada por la expresin (386)
tiene importantes ventajas y aplicaciones prcticas, como por ejemplo:
La matriz aproximada requiere mucha menos memoria (2k vectores de m y n elementos) y
tambin es mucho ms fcil operar con ella.
Adems, la DVS proporciona informacin precisa y fiable sobre el error cometido en esta
aproximacin, que viene dado por el primer valor singular no incluido en la aproximacin.
4.4.7 Aplicacin de la DVS a la solucin del sistema general Ax=b
Se considerar en primer lugar la solucin de mnimos cuadrados del sistema Ax=b (m n = r). La
solucin de mnimo error cuadrtico viene dada por las ecuaciones normales (ver apartado 2.10):

( )
1
0
T T

= x A A A b (387)
Utilizando la DVS (A=UV
T
) esta expresin se puede escribir en la forma:

2
, =
T T T T T T T T
n
= = = A U V A V U A A V V V V (388)

( ) ( )
1 1
2 1 1 1
, 0 , ,
,
T T T T T T T T
n n m n m n m


= = = =
nm
A A A V U V U x A A A b V U b R (389)
Desarrollando los sumatorios implicados por esta expresin se llega a:

0
1 1
1
T
n r
T i
i i i
i i
i i

= =
= =

u b
x v u b v (390)
A continuacin se estudiar la solucin de mnima norma para el sistema indeterminado de rango
mximo Ax=b (r = m n), que viene dada por la expresin (171) (ver apartado 2.11):

( )
1
T T

= x A AA b (391)
Introduciendo la DVS de A, tal como se ha hecho en el caso anterior:

( )
1
,
,
T T T T T T T T T T T
m m n m

= = = = AA U V V U U U A AA b V U U U b V U b
2 2 1
(392)
Poniendo este resultado en forma de sumatorio:

1 1
1
T
m r
T i
i i i
i i
i i

= =
= =

u b
x v u b v (393)
Obsrvese las expresiones (390) y (393) son idnticas. Esto induce a aplicar la DVS al caso general
de un sistema de ecuaciones lineales incompatible y sin solucin de mnimo error nica, es decir al
caso ( ) min , r m n < . Este caso fue estudiado en el apartado 2.12 y condujo a la introduccin de la
matriz seudoinversa A
+
. La DVS permite estudiar la pseudoinversa de un modo ms sencillo.
Factorizaciones de una matriz pg. 79
Sea el sistema de ecuaciones lineales Ax=b (AR
mn
y rango(A)<min(m,n)). Para unos vectores
bR
m
este sistema tiene solucin y para otros no (r<m). La solucin de mnimo error cuadrtico
puede no ser nica (r<n).
Introduciendo la DVS, el sistema de ecuaciones Ax=b se puede reformular del modo siguiente:
,
T T
= = = Ax b A U V U V x b (394)
Haciendo el cambio de variable y=V
T
x y pre-multiplicando por U
T
se obtiene:
( )
1 2
, diag , ,..., , 0,..., 0 ,
T
r
= =
mn
y U b c R (395)
El sistema de ecuaciones = y c es incompatible e indeterminado, pero es tambin muy fcil de
tratar porque la matriz del sistema slo tiene elementos no nulos en la diagonal. Este sistema se
muestra grficamente en la Figura 42.

Figura 42. Sistema de ecuaciones y=c.

Figura 43. Solucin de mnimo error
y mnima norma y=
+
c.
Las variables libres , 1 ,
i
y r i n + estn multiplicadas por ceros y no tienen ninguna influencia en
la solucin. Para que la solucin y sea de norma mnima estas variables deben ser nulas:
0, 1 .
i
y r i n = + (396)
Por otra parte, las r primeras ecuaciones se satisfacen exactamente en la forma:
, 1 ,
i i i
y c i r = (397)
mientras que las restantes ecuaciones no se pueden satisfacer en ningn caso, pues son:
0 , .
i i
y c r i m = (398)
Definiendo la matriz pseudoinversa
+
como una matriz nm con los inversos de los valores singu-
lares distintos de cero en la diagonal, la solucin de mnimo error cuadrtico y mnima norma
vendr dada por (ver Figura 43):
= y c
+
(399)
Esta solucin minimiza tambin el residuo y la norma en el sistema de ecuaciones original Ax=b,
pues las matrices ortogonales no cambian la norma eucldea:

2 2 2 2 2
2 2 2
, y
T T T T
= = = = = = r c y U b V x b U V x b Ax V x x (400)
Se concluye que la matriz que conduce a la solucin de mnimo error y mnima en el caso general,
es decir, la matriz pseudoinversa de A, es la matriz:

( )
, , ,
T T T T T T + + +
= = = = = = = y c y V x c U b V x U b x V U b A b A V U
+ + +
(401)
Esta matriz seudoinversa es nica, coincide con la vista anteriormente y tiene todas sus propiedades.
=
= y c
i

= 1
i

lgebra lineal numrica con Matlab pg. 80


La aplicacin convencional del mtodo de los mnimos cuadrados a travs de las ecuaciones norma-
les puede dar problemas numricos, pues la norma espectral de la matriz A
T
A es el cuadrado de la
norma espectral de la matriz A. Como consecuencia la condicin numrica de A
T
A es el cuadrado
de la de A, lo que puede crear dificultades numricas. Anteriormente se ha sugerido la utilizacin de
un sistema de ecuaciones ampliado o de la factorizacin QR como formas de resolver este proble-
ma.
Si existen estas dificultades y adems es posible que el rango de la matriz A sea menor que
min(m,n) el mtodo ms estable de resolver el problema es aplicar la DVS segn las expresiones
(390) (393) vistas anteriormente, que se repiten aqu haciendo intervenir a la matriz seudoinversa:

1 1
1
,
T
r r
T T i
i i i
i i
i i

+ +
= =
= = = = =

u b
Ax b x A b V U b v u b v (402)
La DVS permite determinar el rango con precisin numrica, separando la informacin propia de la
matriz de las componentes que se han podido introducir por errores de distinto tipo.

Aplicaciones en ingeniera mecnica (mquinas) pg. 81

Anda mungkin juga menyukai