Anda di halaman 1dari 42

Facultad de Ingeniera

UNLP

Matematica C
VI. Resolucion Numerica de Sistemas Lineales:
Normas, Numero de Condicion y Metodos Directos

Temario por clase:


Clase 1: Normas de vectores y matrices (norma 1 y norma infinito). Condicionamiento
de sistemas lineales.
Clase 2: Metodos Directos: Metodo LU. Resolucion. Pivoteo Parcial. Condicionamiento.
Clase 3: Norma 2 para matrices. Matrices simetricas definidas positivas. Descomposicion
de Cholesky.
Clase 4: Laboratorio Numerico.

Bibliografa:
1. R.L. Burden, J.Douglas Faires, Analisis Numerico , Grupo Editorial Iberoamericana,
Mexico, 1985.
2. J. Demmel, Applied Numerical Linear Algebra, SIAM, 1997.

1.

Norma de vectores y matrices

Las normas son usadas para medir errores en los calculos con vectores y matrices,
as es importante conocer como calcularlas y manipularlas.
Definici
on: Dado <n , una norma es una funcion k..k: <n <, que satisface las
siguientes propiedades:
1. kxk 0, x <n , y kxk = 0 si y solo si x = 0.
2. kxk = ||kxk para todo escalar , x <n .
3. kx + yk kxk + kyk (desigualdad triangular).
1.0.1.

Ejemplos: Las normas de vectores m


as comunes son:

Si x = [x1 , x2 , x3 , . . . , xn1 , xn ]T <n :


a) La norma-2 o Eucldea se define:
v
u n
uX
kxk2 = t
xi 2
i=1

Ejemplo: (i)la norma-2 de [1, 1, 1, 1] es2.


(ii) la norma-2 de [1, 1, 1, . . . , 1] <n es n
Ejercicio 1:
P
2
2
i) Verificar que el producto escalar xT x = n
i=1 xi = kxk2 .
ii) Verificar que la norma k..k2 es invariante por la multiplicacion por matrices ortogonales. Es decir, si Q es una matriz (n n) ortogonal (sus columnas son ortogonales y
normalizadas (kf ilai k2 = 1, i = 1, . . . , n) entonces
kQxk2 = kxk2 . (Usar: kQxk22 = xT QT Qx = xT x).
(b) La norma infinito de x <n se define:
kxk = max{i=1,...,n} |xi |
Ejemplo:
i)la norma- de [1, 1, 1, 1] es 1.
ii) la norma- de [1, 1, 1, . . . , 1] <n es 1.
iii) la norma- de [1, 0, 0, . . . , 0] <n es 1.
(c) La norma-1 de x <n se define:

kxk1 =

n
X

|xi |

i=1

Ejemplo:
i) la norm-1 de x = [1, 1, 1, 1]T es 4.
ii) la norma-1 de x = [1, 1, 1, . . . , 1]T <n es n
iii) la norma-1 de x = [1, 0, 0, . . . , 0]T <n es 1
d) Si C es una matriz no singular (n n) y k..k es una norma particular,
entonces tambi
en es una norma (pesada):
kxkC = kCxk

Observaci
on Es importante saber elegir la norma apropiada para medir los errores.
Ejemplo: Sean los vectores v = [1, 2, 3]T , y w = [1,01, 2,10, 2,99]T expresados en
metros. Vemos que w es una buena aproximacion al v ya que el error relativo
kv wk
kvk

,0033

En cambio el vector u = [10, 2,01, 2,99]T es una mala aproximaci on pues


kv uk
kvk

=3

Supongamos ahora que la primer componente esta medida en kilometros (en lugar de
metros), as tendramos
v
= [,001, 2, 3]T , y u
= [,01, 2,01, 2,99]T
ahora en la norma-infinito ambos vectores parecen cercanos al calcular
k
vu
k
k
v k

= ,0033

Sin embargo, deberamos haber considerado iguales unidades en cada componente, o


sino considerar la norma (que las conduce a eso) multiplicando por la matriz C

1000

1
1
Se puede demostrar que valen la siguientes relaciones entre las normas definidas:
i) kxk2 kxk1

nkxk2

ii) kxk kxk2

nkxk

iii) kxk kxk1 nkxk


4

Ejercicio 2: Representar en un grafico (plano) si x <2 el conjunto de puntos que


satisfacen:
i) kxk2 1
ii) kxk 1
iii) kxk1 1

Distancia entre dos vectores u y v de <n :


A partir de las normas de vectores podemos definir la distancia entre vectores:
d(u, v) = ku vk.

3
1
Ejemplo: Dado los vectores u =
yv=
. Calcular la d(u, v) relativa
2
1
a (a) la norma-2,(b) norma infinito.

1.1.

Normas de matrices

Tambi
en se necesita definir norma de matrices para medir errores en c
alculos con matrices.
Definici
on 2: k..k es una norma sobre las matrices m n si :
1. kAk 0 A <mn , y kAk = 0 si y solo si A = 0.
2. kAk = ||kAk <.
3. kA + Bk kAk + kBk
Tambien una propiedad u
til, denominada de consistencia, es
4. kABk kAkkBk
Tal propiedad no la cumplen todas las normas de matrices, pero en particular la
satisfacen todas las normas inducidas por las normas de vectores (que veremos).

1.2.

Normas de matrices muy usadas:

La norma
de A: se define
qP Frobenius
m Pn
2
kAkF =
i=1
j=1 (aij )
(es la norma-2 del vector formado con todos los elementos de A) .

Tambi
en existen las normas inducidas por las de los vectores (k..k2 ,k..k1 ,
k..k ), que se definen:

Dada A <mn :
kAkp = m
ax

kAxkp
kxkp

x6=0

x <n

Si se consideran los vectores con kxkp = 1, una definicion equivalente es:


kAkp = m
ax kAxkp , x <n , kxkp = 1
kxkp =1

Intuitivamente, la matriz A tendra una norma grande si su aplicaci


on a un vector x,
dada por Ax, tiene norma grande comparada con la del vector kxk.
Una cota inferior de kAk se obtiene desde la definicion
kAk

kAxk
kxk

Ademas debe existir un vector xmax tal que


kAxmax k

kAk =

kxmax k

Observar que satisfacen la propiedad de compatibilidad:


kAxkp kAkp kxkp
Tal propiedad proviene de considerar que para todo x 6= 0 vale que
kAxkp
kxkp

kAkp

Para obtener la norma subordinada kAk1 , y kAk , si A <mn , se aplica la


definici
on de cada norma y se hacen los calculos directos.
Veamos el caso kAk :
(a) Debe verificarse que
kAk = m
ax kai k1 ,
i=1,m

si ai denota la fila i-esima de A.


Tal resultado se obtiene de considerar, para todo x <n , tal que kxk = 1:
kAk = m
ax kAxk
kxk =1

Como el vector
kAxk = m
ax {|aT1 x|, |aT2 x|, . . . , |aTm x|}
i=1,m

de cada fila de A con x.


siendo |aTi x| el producto
P
|a
Cada |aTi x| n
ij xj |, y cada |xj | 1, entonces ...
j=1
6

P
... cada |aTi x| n
j=1 |aij |.
Entonces, sabemos que kAxk , para todo x esta acotada por:
kAxk

n
X
m
ax {
|aij |}
i=1,m

j=1

Entonces ...
kAk = m
ax kAxk m
ax {
i=1,m

kxk =1

n
X

|aij |}

j=1

Veamos ahora que hay un x para el cual kAxk alcanza la cota superior:
Si
Pnpara A es imax el ndice de la fila tal que la suma:
axima, se puede lograr un
j=1 |aimax j | es m
xmax = [signo(aimax j) 1]n
j=1
con kxmax k = 1, para el cual...
kAxmax k =

|aTimax xmax |

n
X

|aimax j |

j=1

coincide con la cota superior.


Por tanto ...
kAk = m
ax kAxk =
kxk =1

n
X

|aimax j |

j=1

1 2
2

Ejemplo: Si A = 2 3 1
1 2
1
kAk = 6 = |2| + | 3| + | 1|, que es la suma maxima respecto de las filas de
A.
b) En forma similar al caso previo, se puede demostrar que la norma-1, kAk1 coincide
con:
kAk1 = m
ax kaj k1 ,
j=1,...,n

si aj denota la columna j-esima de A.

1 2
2
Ejemplo: Si A = 2 3 1
1 2
1
kAk1 = 7 = |2| + | 3| + |2|, que es la suma maxima respecto de las columnas de
A.
c) El calculo de la norma-2 de A requiere analizar otros elementos de la matriz, que
se veran mas adelante.

Ejercicios

1
2
1. Dado los vectores u = 4 y v = 2 (i) Calcular la norma-2 (Eucldea), la
5
0
norm-1 y la norma infinito de u y v.
(ii) Calcular la distancia de u a v : (a)ku vk2 , (b)en norma infinito.
2. Demostrar que para todo x <n , kxk kxk2 .
3. Calcular lanorma-1 y la norma
infinito de A.
1 3 2
(i)Si A = 4 1 2
5 1
3

0 5 2
1 3
(ii)A = 3
4 4 3

2.

Sistemas Lineales. Resoluci


on

2.1.

N
umero de condici
on. Perturbaci
on

Dado un sistema lineal


Ax = b
donde A <nn no singular(existe A1 ). Sea la solucion exacta (
unica) x = A1 b.
Supongamos que el lado derecho del sistema se perturba por un vector b, mientras A
permanece igual.
Queremos analizar cu
antopuede cambiar la soluci
on del nuevo sistema.

2.2.

N
umero de condici
on de una matriz

Dada la perturbacion b. Si x es la solucion exacta de Ax = b.


Si denotamos x + x a la solucion del sistema perturbado , se tiene:
A(x + x) = b + b

(1)

Nuestro interes es conocer la magnitud de x en relacion a b.


Desde la igualdad 1, como Ax = b, se obtiene simplificando :
A(x) = b
Luego, multiplicando por A1 ambos miembros
x = A1 b
Luego, kxk = kA1 bk kA1 kkbk
Dividiendo por kxk ambos miembros de la desigualdad anterior. Ademas, usando que
kbk = kAxk kAkkxk (pues kAk kAxk/kxk
por definicion de la norma de A), se obtiene
kxk kbk/kAk.
As reemplazando el denominador kxk por kbk/kAk se obtiene:
kxk
kxk

kAkkA1 k

kbk
kbk

(2)

El termino o cantidad de la derecha da el maximo valor que puede alcanzar el el cambio


relativo en la soluci
on exacta. Aunque muchas veces esa cota es grande, sin embargo hay ejemplos
(veremos a continuacion para ciertas A, b y b) donde el error relativo iguala a esa cota maxima.
Planteamos ahora el error relativo en la soluci
on del sistema cuando se perturba la matrizdel sistema, manteniendo fijo el termino independiente b.
As estamos interesados en la solucion exacta x
de A + Ax = b.
Si x es la solucion de Ax = b, la solucion del sistema perturbado sera x
= x + xA .
Entonces satisface:
A + A(x + xA ) = b
donde el subndice A indica la asociacion con la modificacion de A. Asumimos que A es
sufientemente peque
na tal que A + A contin
ua siendo no singular.
Haciendo calculos similares a los previamente realizados,se obtiene aplicando una norma (por
ejemplo, la norma infinito tanto en los vectores como en las matrices).

kxA k
kx + xA k

kAkkA1 k

kAk

(3)

kAk

Observaci
on La cantidad kAkkA1 k aparece en ambas expresiones de los errores. Tal cantidad refleja el maximo cambio relativo posible en la solucion exacta de un sistema causado por
un cambio en los datos (A, o b).
Definici
on: Definimos el n
umero de condici
on de una matriz no singular A (respecto de
la resolucion de Ax = b) mediante:
(A) = condp (A) = kAkp kA1 kp
donde k.kp indica la norma que se aplica a los vectores y matrices.
Considerando que In = A1 A, como kA1 Akp kA1 kp kAkp , se tiene que para toda
A no singular:
condp (A) 1
Por tanto, una matriz bien condicionada es una cuyo n
umero de condici
on sea proximo a
1. Por otro lado, se dice mal condicionada si cond(A) es muy grande, es decir si es mucho mas
grande que 1.
Una matriz es mal condicionada cuando su aplicaci
on a vectores de igual magnitud da como
resultado vectores transformados de magnitud extremadamente diferente.
... Si kAxk es grande para un vector de kxk = 1, y peque
na para otro de igual longitud,
entonces A es mal condicionada(justamente esa diferencia de magnitudes conduce al mal
condicionamiento).
Ejemplo: Sea A tal

A=

sea x =

1
0

y sea x
=

0
1

104
0
0 104

tales que kxk = k


xk = 1. Tenemos que Ax =

104
0

As por ejemplo kAxk = 104 , y kA


xk = 104
Ejemplo : Sea Ax = b, dado por

A=

b=

1
106

1
0
0 106

T
Su solucion exacta es x = [1, 1]
.

1
Si se cambia b por b + b =
2 106

La solucion del sistema perturbado, x + xb = [1, 2]T .

10

, y A
x=

0
104

Usando la norma infinito sabemos kAk = 1, kA1 k = 106 ,


k b k = 106 , kbk = 1. Ademas kx k = 1, y kxb k = 1
Usando la formula (2) sabemos que el cambio relativo en la solucion del sistema es:
kxb k
kx k

kAkkA1 k

kbk
kbk

reemplazando se obtiene
kxb k
kx k

1,106 ,106 /1.

La cota del error relativo de la soluci


on es 1.
Por otra parte, calculando el verdadero error relativo en la soluci
on:
kxb k
kx k

=1

As en este ejemplo hemos visto que el error relativo de x alcanza la cota superior, dada por
la formula (2). Tal error relativo es 106 veces mas grande que el cambio relativo kbk /kbk =
106 del termino independiente del sistema dado.

106

Observaci
on: Verifique que el n
umero de condicion en norma infinito de A es cond(A) =
(mal condicionada).

El n
umero de condici
on de A es una medida de la sensibilidad del sistema lineal involucrando a
A respecto de las perturbaciones en los datos. Informalmente hablando si A es mal condicionada
entonces es una matriz cercana .a ser singular.
Observaci
on Observar que el determinante de una matriz no es una medidadel n
umero de
condici
on.
6n 0, sin embargo
Por ejemplo : Si A = diag(106 )n
i=1 , tiene determinante = 10
es
perfectamente
bien condicionadapues su cond(A) = 1. Por otra parte, la matriz A =
104
0
tiene determinante = 1, y tiene Cond(A) = 108 .
0 104
Ejercicios:
1. Hallar el n
umero de condicion: cond (A) y cond1 (A), si A:

3 1
1 0,99
150 200
(i)A =
(ii)A =
(iii)A =
4 2
1
1
3001 4002

1 1 1
(iv) A = 5 5 6 .
1 0 0

10 10
100
2. Sea A =
,yb=
(a)Calcular cond (A).
10 9
99

100
0
(b)Suponga que b cambia a b =
101
Que tan grande puede ser el cambio relativo que producira ese cambio en la solucion de
Ax = b?. Utilizar la formula (2).
(c) Resuelva en forma directa el sistema Ax = b0 , y compare con la solucion de Ax = b,
y calcule la diferencia relativa entre ambas soluciones.

11

3.

M
etodos directos para resolver sistemas lineales

Un problema fundamental de algebra lineal es la resolucion de Ax = b para una matriz A


de m n y un vector b de conveniente dimension.
Los algoritmos que presentamos aqu son variaciones del metodo de Eliminaci
on de Gauss.
Ellos se llaman metodos directos, porque en ausencia de los errores de redondeo ellos daran la
soluci
on exacta de Ax = b despues de un n
umero finito de pasos. En contraste a estos metodos
veremos mas adelante metodos iterativos, los que calculan una sucesion de {x0 , x1 , . . . , xk , . . .}
de soluciones aproximadas del sistema (que converge hacia la verdadera solucion), que termina
cuando se halla una aproximacion aceptable(de acuerdo a algun criterio). Uno u otro metodo
puede ser mas rapido o mas exacto dependiendo del problema y tipo de metodo. Por ahora,
diremos que un metodo directo se elige cuando el problema no es demasiado grande, cuando no
se conoce la estructura o caractersticas particulares de la matriz, o si se sabe que la solucion
aportada por esa metodologa tiene garanta de estabilidad y un tiempo aceptable de calculo .
Este captulo esta referido a sistemas Ax = b donde A es no singular.
La idea b
asica de los metodos directos es transformar el problema a un sistema f
acil de
resolver.
Caso especial es llevar la matriz del sistema a un producto de matrices triangulares L y U ..
Objetivo Repasar o recordar el u
ltimo tem del m
odulo sobre Algebra de Matrices, donde se
plante
o la factorizaci
on LU a partir de la Eliminaci
on Gaussiana .
Vimos que la transformaci
on de A en una matriz triangular U ( y el sistema Ax = b en
un sistema triangular), puede formalizarse como un producto de transformaciones o matrices
elementales aplicadas al sistema dado originalmente.
Ahora usaremos esa factorizaci
on y ampliaremos ese tema....
Definici
on : Dada A se denominan submatrices principales a las k k submatrices de A
dadas por los elementos aij con i = 1 : k , j = 1 : k.
Se puede demostrar que los siguientes enunciados son equivalentes:
1. Existe una u
nica matriz triangular inferior unitaria L, y una matriz no singular triangular
superior U tal que A = L.U
2. Todas las submatrices principales de A son no singulares.
Justificaci
on: Veamos

que (1) implica


(2): Si A = L.U , puede escribirse tambien
A11 A12
L11
0
U11 U12
A=
=
=
A21 A22
L21 L22
0 U22

L11 U11
L11 U12
=
L21 U11 L21 U12 + L22 U22
donde A11 es una submatriz de j j de A. Lo mismo L11 y U11 de L y U . Q
El determinante
de A11 es igual al det(L11 U11 ) = det(L11 ). det(U11 ) = 1 det(U11 ) = jk=1 ukk 6= 0,
pues L es triangular unitaria y U es triangular no singular. Por tanto vale (2).
Para probar (1) conociendo (2) lo hacemos por induccion.
Si A es 1 1, entonces A = a. Luego A = 1.a. As cumple que es producto de L.U .
Admitiendo, por la hipotesis inductiva, que vale para una A = An1 de n 1 n 1,
para la que existe L y U ( bajo la hipotesis de (2)) tal que An1 = L.U .

12

Necesitamos ver para A de n n que existen matrices u


nicas L y U , dos vectores u
nicos l
y u de n 1 1, y un
nico
u
escalar
tal que
:
An1 b
L 0
U u
A=
=
=
cT

lT 1
0

LU
Lu
=
lT U lT u +
Por induccion existen L y U u
nicas tal que An1 = L.U . Luego, considerando u = L1 b,
lT = cT U 1 , y = b lT u son u
nicos. Las entradas de la diagonal de U son no nulas,
as 6= 0 pues det(A) = det(U ) 6= 0. c.q.d

0 1 0
Ejemplo: La matriz P = 0 0 1 (es no singular, ortogonal, (P ) = 1 ), sin embargo
1 0 0
no se puede factorizar sino se permutan sus filas.
Observar que : Los menores principales 1 1 , y 2 2 son singulares.
Ese ejemplo demuestra la necesidad de hacer permutaciones de filas ( pivoteo parcial).

3.1.

Pivoteo Parcial (intercambio de filas de A)

En cada paso j de la Eliminacion Gaussiana (paso j, cuando se quiere llevar a cerotodos


los elementos de la columna j que estan debajo del respectivo elemento diagonal) se reordenan
las filas de A que van desde la j, . . . , n, eligiendo el elemento de mayor valor absoluto de la
columna j, entre los elementos: ajj , aj+1j , . . . , anj . Es decir , se elige el ndice i de la columna
j tal que
|aij | = maxij |aij |.
Luego se permuta o intercambia la fila i con la fila j. Es decir, se mueve la fila i al
lugar de la j, y la j al lugar donde estaba la i.
Para establecer el algoritmo basico de LU (Eliminacion Gaussiana) comenzamos por definir
la matriz de permutaci
on....
Definici
on: Una matriz P (n n) de permutaci
on es una matriz identidad con las filas
permutadas. Ejemplo:

0 1 0
P = 0 0 1
1 0 0
Estas matrices de permutacion tienen las propiedades siguientes:
1. P 1 = P T
2. Dada una matriz A, P A es la misma matriz A salvo el orden permutado de las filas (de
acuerdo a la permutacion planteada por P )
3. Si P 1 y P 2 son dos matrices de permutaci
on, tambien P 1P 2 es una permutaci
on.

= PA
Teorema Si A es no singular, existe una matriz de permutaci
on P tal que para A
existe una L matriz triangular inferior unitaria, y U triangular superior, no singular, tal que
P A = L.U .

13

(Lo aceptamos sin demostracion. Ver referencia libro de Burden).


Reducci
on a una matriz triangular superior:
Asumimos aqu con el objetivo de simplificar notaciones y presentar mas claramente las
ideas basicas del tema, que no necesitamos permutar filas.
Dado Ax = b, queremos llegar a un sistema transformado U x =
b, con U matriz triangular
superior.
En cada paso j, hay que eliminar el coeficiente de la variable j en todas las ecuaciones
por debajo de la ecuacion j. Eso implica llegar a un sistema equivalente tal que la columna j
tenga todos los elementos nulos por debajo del elemento de la diagonal.
C
omo se consigue tal prop
osito?.
a11
a21
Dada la columna .
..
an1
Si se multiplica el elemento de la primer fila por a21 /a11 y se suma a la 2da. fila, pasa a
0 el segundo elemento de la columna 1. Analogamente, si multiplico por a31 /a11 a la 1ra. fila
y la sumo a la 3ra.fila se lleva a 0 el elemento de la columna 1 de esa fila. As si se multiplica
la primer filapor aj1 /a11 y se suma a la j fila ( para toda j > 1, para el caso de la primer
columna) se lleva a 0.al elemento de la columna 1 en la fila j, y as hasta el u
ltimo elemento
de esa columna.
Pero tal proceso debe ser aplicado a la matriz total para que quede un sistema equivalente.
Eso se puede formalizar diciendo que se multiplica toda la matriz A por una matriz (que
hace las operaciones antes enunciadas). Tal matriz, en el caso de la columna 1(con el proposito
de anular todos
los elementos que estan por

debajo del primero en la columna 1) es :


1
a21 /a11 1

a31 /a11 0 1

M1 =

..
..
..

.
.
.
an1 /a11 0 0 . . . 1
Tal matriz difiere de la identidad por la columna 1 solamente.
Por simplicidad de notacion vamos a denotar con mi1 a los cocientes involucrados en la
primer columna de M1 :
mi1 = ai1 /a11 , para i > 1
Al multiplicar M1 .A= A(2) , A se transforma en una nueva matriz parcialmente reducida.
As la matriz transformada : M1 A = A(2) mantiene la primer fila igual a la de A, y fueron
transformadas todas las filas siguientes mediante los calculos:
(2)

aij = aij mi1 a1j


para cada fila i = 2, . . . , n y para las columnas j = 2, . . . , n ( no es necesario explicitar
la columna 1 ya que se lleva a 0 para toda fila con i > 1). Otra forma de expresar lo anterior (
donde cada ai indica toda la fila i de A ) es :

14

(2)

M1 A = A

a1
a2 m21 a1

= a3 m31 a1

..

.
an mn1 a1

Luego, a partir de A(2) se llevaran a 0los elementos de la 2da. columna, que estan por
debajo de la diagonal, y as se seguira el proceso.
La transformacion M2 para anular los elementos de la 2da. columna ( debajo de la diagonal)
esta dada por
:

1
0

(2)
(2)
0
a
/a
1

M2 =
32
22

..
..
..

.
.
.

(2)

(2)

0 an2 /a22
Denotamos mi2 =

0 ... 1

(2)
(2)
ai2 /a22 ,

para todo i > 2

Se obtendra M2 A(2) = A(3 ) que tiene tambien los elementos de la segunda columna en
0( debajo de la diagonal).
La matriz transformada que se obtiene : M2 A(2) = A(3) , mantiene la 1ra. y 2da. fila iguales
a las de A(2) , y transforma todas las siguientes filas:
(3)

(2)

(2)

aij = aij mi2 a2j

para cada fila i = 3, . . . , n, y para las columnas j = 3, . . . , n.


En general, para llevar a 0 los elementos de una columna j es necesario multiplicar la fila
(j)
(j)
j por el n
umero : aj+1j /ajj , y sumar a la fila (j+1) para anular el termino j + 1 de esa
(j)

(j)

columna j. Luego, por aj+2j /ajj a la fila j, y sumar a la fila (j+2)( que anula el elemento
(j)

(j)

j + 2). Se contin
ua hasta multiplicar por anj /ajj , y sumar a la fila n para anular el u
ltimo
elemento de esa columna j.
As la transformacion Mj es igual a la matriz identidad In salvo por la columna j que tiene
la forma:

0
..

(j)
(j)

columj (Mj ) = aj+1j /ajj

(j)
(j)
aj+2j /ajj

..

.
(j)

(j)

anj /ajj
donde el 1.esta en la fila j.
(j)

(j)

Denotamos con mij = aij /ajj , para toda fila i con i > j.
Luego, del resultado de multiplicar :
Mn1 .Mn2 . . . M3 .M2 .M1 A = U se obtiene la matriz U triangular superior.

15

Ejercicio: Ver que el producto de Mn1 .Mn2 . . . M3 .M2 .M1 es una matriz triangular
inferior unitaria (no singular).
Ejercicio: La inversa de M = Mn1 .Mn2 . . . M3 .M2 .M1 , es :
1
M 1 = M11 .M21 .M31 . . . Mn1
.
Como cada matriz Mj = In vj eTj , donde el vector
vj = {

0 si i = 1, . . . , j
}
(j)
(j)
aij /ajj si i > j

se puede verificar que la inversa de Mj = In vj eTj es :


Mj1 = In + vj eTj ( simplemente multiplicar por Mj y verificar que se obtiene la matriz
identidad In ).

3.2.

Obtenci
on de la descomposici
on de A = L.U

Como M A = U entonces A = M 1 U = L.U , donde L es la matriz triangular inferior


unitaria, cuyas columnas son las columnas de M 1 :

0
..

1
(j)

(j)

columj (L) = aj+1j /ajj


(j)
(j)
aj+2j /ajj

..

.
(j)

(j)

anj /ajj
donde el 1 corresponde a la j-esima componente.
Cuando se hace el procedimiento de eliminaci
on para llegar a U , tambien se obtienen las
(j)
(j)
columnas de L, guardando cada cociente calculado: aij /ajj para cada ndice i > j en cada
paso j(cuando se trata cada columna j)del proceso. As

1
l21 1

l31 l32 1

L=

..

..
..
.

.
.
ln1 ln2 . . .

(j)
(j)
aij /ajj

donde lij =
para los ndices i > j, ljj = 1 para cada j = 1, . . . , n, y los
restantes elementos son 0(triangular inferior unitaria).

3.3.

Algoritmo para hallar L.U

Hemos visto, en un ejemplo previo, que sino se hace pivoteo parcial


(intercambio de filas en cada paso k, que corresponde a cada columna k) en el proceso de eliminacion puede fallar la descomposicion a pesar de ser no singular la matriz A. Luego, asumimos
ahora que en el paso k se calcula:

16

k = maxik kakik k

(4)

Denominamos rk al ndice para el que se da tal maximo, y denominamos elemento de


pivote al ark k . Luego se intercambia la fila rk con la k ( se permuta el orden ). Tal estrategia
se denomina pivoteo parcial.
(k)
(k)
Esa estrategia asegura que los elementos mik = aik /akk (se corresponden con las columnas
de L) usados en cada paso k, k = 1, . . . , n 1 del proceso cumplen:
(k)
(k)
|mik | = |aik |/|akk | 1 , para i = k+1, . . . , n ya que debido a la permutaci
on realizada
ahora el denominador es que cualquier numerador.
Entonces el proceso de Eliminacion, si denominamos Pk a la matriz de permutaci
on que
corresponde a la permutacion realizada en el paso k , se simboliza:
Mn1 .Pn1 .Mn2 .Pn2 . . . . M2 .P2 .M1 .P1 .A = U
pues en cada paso k se tiene : Mk Pk A(k) = A(k+1) , ya que antes de eliminar o anular los
terminos de la columna k se realiza el pivoteo y la permutaci
on necesaria de filas.
Observaci
on: En cada paso k, se halla la columna de Mk1 , y se determina la fila k de la
U (permaneciendo identicas las filas previamente calculadas de U , desde el paso 1, . . . , k 1).
El procedimiento tambien modifica el cuadrado aij para i > k , y j > k.
A partir de A se obtendra la U (triangular superior) y la L(inferior), las que seran guardadas
sobreescribiendo los nuevos elementos calculados sobre los elementos aij . As, al terminar la U
aparecera en la parte triangular superior : aij para j = i, . . . , n. Los terminos de L se rescataran
desde los elementos guardados aij con i = j + 1, . . . , n para cada j = 1, . . . , n 1 (parte
triangular inferior, debajo de la diagonal principal, pues la diagonal de L no se requiere guardar
por ser conocida e igual a 1).
Algoritmo( L.U con pivoteo parcial):
Dada A <nn , no singular.
For k = 1, . . . , n 1
Determina p tal que: |apk | = m
ax{i=k,...,n} {|aik |}.
Define rk := p.
Permuta akj por la fila apj ( j = k, . . . , n ), y
(**)tambien para j = 1, . . . , k 1 .
Define el vector: wj := akj , para j = k, . . . , n.
For i = k + 1, . . . , n
:= aik /akk
aik = (elementos para la k-columna de L)
For j = k + 1, . . . , n
aij = aij wj
End For;
End For;
End For.

17

Algoritmo b
asico para resolver Ax = b utilizando la descomposicion LU obtenida
por eliminacion Gaussiana:
1. Se factoriza A en la forma P A = L U , donde:
P es la matriz de permutacion,
L es la matriz triangular inferior con unos en la diagonal
U es una matriz triangular superior no singular
2. Luego, como el sistema Ax = b es equivalente a P Ax = P b,
se resuelve L U x =
b, con
b=Pb.
Esto u
ltimo se hace en dos pasos: Definiendo y = U x,
I Primero se resuelve el sistema Ly =
b, determinando y mediante sustitucion hacia
adelante, dado que L es triangular inferior.
II Luego se resuelve el sistema U x = y, determinando x mediante sustitucion hacia
atras, dado que U es triangular superior.
Resoluci
on del sistema triangular Ly = b
El sistema

1
0 ...
l21 1
0 ...
l31 l32 1 0
...
... ... ... ...
ln1 ln2 ln3 . . . lnn1 1

y1
y2
y3
..
.

yn

b1
b2
b3
..
.
bn

se resuelve directamente por sustitucion hacia adelante:


Se obtiene
y1 = b1 , y2 = b2 l21 y1 , . . .
y en general,
yi = bi

i1
X

lij yj ,

i = 2, . . . , n

j=1

En forma analoga pero con sustitucion hacia atras se resuelve el sistema U x = y.

18

Ejercicios:
indica para resolver mediante PC con mathlab u otro software apropiado.
1. Encuentre la factorizacion P A = LU de las siguientes matrices:

0 1 1 3
1 2 1
0 1 4
1 1
1 2
A = 3 6 2 , B = 1 2 1 , C =
0
1 1 1
1 1 4
1 3 3
0
0
1 1

2. Resuelva el sistema Ax = b, con b = (1, 1, 1), utilizando la factorizacion hallada.


3. Dadas dos matrices L1 y L2 triangulares inferiores,
(a) Probar que el producto es tambien triangular inferior.
(b) Si los elementos diagonales de ambas son 1, muestrar que el producto conserva
esta propiedad.
c) Probar que la inversa de ellas conserva tambien estas propiedades.
Analogos resultados son validos para triangulares superiores.

6 4
2
1 , halle det(A) y cond(A) para la norma .
4. i) Dada A = 0 3
0 0 106
ii) Si b = (1, 1, 1), determine la solucion de Ax = b .
iii) Si b b + b = (1, 1, 1 + 106 ), calcule la nueva solucion y estime ||x|| /||x|| .
5. i) Muestre que si U es una matriz triangular superior no singular, U 1 tiene en su
diagonal los elementos 1/uii .
ii) Muestre que kU k maxi |uii |, y kU 1 k mni1|uii | .
iii) Muestre que cond(U )

m
axi |uii |
,
mni |uii |

para la norma .

Tal cota es usada como una estimacion del n


umero de condicion de U .
6. Sea A una matriz no singular, y supongamos que se ha calculado P A = LU .
1
Mostrar que kA1 k kU n k .
Este resultado, conjuntamente con el del ejercicio anterior, implica que A debe ser
mal condicionada si los elementos de la diagonal de U en la factorizacion LU varan
mucho en magnitud. Notese que si no hay pivoteo no vale la conclusion anterior.

0,932 0,443 0,417


7. Considerar la matriz A = 0,712 0,915 0,887
0,632 0,514 0,494
a) ( )Calcular la descomposicion LU de A. Observando a U , puede deducir que A
es mal condicionada?.
b)( ) Calcular cond(A), cond(U ) y cond(L) para la norma .
c) Indique cuan acertadamente estima el n
umero de condicion de A la aproximacion
dad en el ejercicio previoe. Comparar con el resultado obtenido en b).
19

4.

Norma-2 de Matrices

4.1.

Matrices sim
etricas

Si A <nn es simetrica (A = AT ), sabemos que existe una base de vectores


reales ortogonales con norma = 1 que son autovectores de A. Es decir, existen vectores {v1 , v2 , . . . , vn } ortonormales, tales que
Avi = i vi
para cada autovector vi .
Observaci
on 1 : A real y simetrica se dice que es definida positiva si xT Ax > 0 para
todo x 6= 0. Se puede demostrar la equivalencia:
A simetrica definida positiva todos los autovalores de A son positivos (i (A) > 0 i)
Denominamos max al autovalor mayor de A (simetrica), y min al menor autovalor.
Observaci
on 2 Justificar que si A es simetrica entonces
min kxk22 xt Ax max kxk22
P
otese que
Sug.: Escribir x = ni=1 yi vP
i , usando la base ortonormal de autovectores de A. N
tambien se obtiene xT x =P ni=1 yi2 .
Ademas resulta Ax = ni=1 yi i vi , ya que Avi = i vi .
Luego, multiplicando
xT con
P Ax, resulta:
P
xT Ax= ni=1 yi2 i kvi k22 = ni=1 yi2 i
Luego, si se reemplaza cada i por el max se obtiene
xT Ax max kxk22
Analogamente, si se sustituye cada i por el min se obtiene:
min kxk22 xT Ax
ya que P
P
xT Ax = ni=1 yi2 i ni=1 yi2 min = min kxk22
Ejercicios de repaso:
a) Verificar que si Au = i u entonces A2 u = (i )2 u (los autovalores de A2 son los
{(i (A))2 }).
1
b) Si A es no singular (existe A1 ) los autovalores de A1 son { i (A)
}. Si Au = u,
1
multiplique por A para ver el resultado.

c) Dada A <nn , no singular. Verificar que los autovalores de At A coinciden con los
de AAT .
20

Observar que si A <mn , con n < m y rango(A) = n, AT A sera de n n no singular.


Pero AAT sera singular de m m, con m n autovalores nulos y los restantes iguales a
los de AT A.
d) Dada A <nn . Verificar que si S es una matriz no singular, entonces
{i (A)} = {i (SAS 1 )}
(e) Verificar que para cualquier norma, si es un autovalor de A entonces || kAk.
Considerar que ||kxk = kAxk kAkkxk para cualquer norma. Ejemplo: Analizar la
norma-, y la norma-1 de una matriz triangular inferior con todos 1 o -1.

4.2.

Norma-2 de una matriz sim


etrica:

Dada A <nn simetrica


kAk2 = maxx kAxk2 , para x 6= 0, tal que kxk2 = 1.
Consideremos,
kAk22 = maxx kAxk22 = maxx xT At Ax = maxx xT A2 x = maxi (i (A))2 .
Por lo tanto,
kAk2 = maxi |i (A)|
Observaci
on 3 Por lo tanto, kA1 k2 = maxi |i (A1 )| = maxi 1/|i (A)| = 1/ mni |i (A)|
y entonces
maxi |i (A)|
cond2 (A) = kAk2 kA1 k2 =
mni |i (A)|
El N de condicion para la norma 2 es pues el cociente entre el autovalor mas grande y
el autovalor mas chico (ambos en valor absoluto) de A.
Observaci
on 4 Si A es simetrica definida positiva entonces
kAk2 = max (A).

1000
, obtenemos max = 1000, min = 106 . As
1
Ejemplo: Dada A =
6
10
1
1
kAk2 = 1000, y kA k2 = min (A) = 106

4.3.

Matrices no sim
etricas: Norma-2

En general, dada una matriz A (no sim


etrica) A <mn , la norma-2 de A,
se puede calcular considerando:
kAk22 = maxx kAxk22 , con kxk2 = 1
As
kAk22 = max xT AT Ax = max (AT A)
x

Luego,
kAk2 =

p
p
max (AT A) = kAt Ak2 .
21

5.

Descomposici
on triangular de Matrices sim
etricas
definidas Positivas

Cuando A es una matriz simetrica, es decir A = AT , es natural pensar que una


factorizacion como la LU debera existir, que retenga la propiedad de simetra de A, y
cuyos calculos requieran la mitad del costo del caso no simetrico.
Para matrices simetricas definidas positivas tal factorizacion se denomina descomposicion de Cholesky. Para el caso indefinido existe otro procedimiento de Bunch y Parlett.
Si A es una matriz n n,simetrica no singular, si suponemos que existe su LU sin
necesidad de hacer intercambios de filas, tendremos:
A = LU = AT = U T LT
La unicidad de la factorizacion LU implica que U = diag(uii )LT ( pues L tiene
diagonal con todos 1), entonces
A = LDLT
donde D = diag(uii ).
Esta representacion se llama la representacion LDLT de A ( estuvo basada sobre el
supuesto que no se necesitaban intercambios de filas para hacer la LU inicial).
Desafortunadamente tal supuesto solo se puede mantener cuando
A es simetrica Definida Positiva.
Ejemplo: Si A simetrica no es definida positiva, tiene tambien autovalores negativos
o cero. Veremos
que

 se necesita en general intercambiar filas y columnas.
0 1
A=
1 0
Si se plantease

la existencia de



0 1
1 0
d11 0
1 l21
T
A=
= LDL =
1 0
l21 1
0 d22
0 1
se llegara a un sistema contradictorio : d11 = 0, y d11 l21 = 1 (incompatible). Por lo
tanto no existe LDLT de tal A, sin permutaciones.
En cambio si A es Definida Positiva, s existe la descomposicion LDLT de A.
Ademas, no solo existe sino que el procedimiento para encontrarla es eficiente y estable.

5.1.

Factorizaci
on de Cholesky

Dada una matriz A simetrica y definida positiva( xT Ax > 0 , x 6= 0).


Tales matrices A tienen las siguientes caractersticas:
(i) aii > 0, i = 1, . . . , n (elementos de la diagonal).
(ii) todos los autovalores son reales y positivos.
(iii) el elemento mayor (en valor absoluto) de A esta en la diagonal.
22

(iv) Toda submatriz seleccionada simetrica desde las filas y columnas de A debe ser
definida positiva. En particular, todos las matrices menores principales( 1 1,2
2,. . .,n n1) son no singulares con determinante positivo.
(v) Si se realiza eliminacion Gaussiana en A sin intercambios, la matriz reducida contin
ua
siendo definida positiva en cada paso.
Las propiedades (i) y (v) implican que si A es definida positiva, la factorizacion A =
LDLT siempre existe, y los elementos de D son positivos.
As como
A = LDLT = LD1/2 D1/2 LT .
Si denominamos
R = D1/2 LT , y RT = LD1/2 ,
entonces
A = RT R.
Esta factorizacion se llama de Cholesky, y R es el factor de Cholesky, la que es una matriz
triangular superior con elementos positivos en la diagonal.
La factorizacion de Cholesky puede obtenerse calculando en forma directa cada fila o
columna de R, escribiendo en forma explcita la representacion de A = RT R:


a11 a12 . . . a1n
r11 0
0
0
r11 r12 . . . r1n

a12 a22 . . . a2n r12 r22 0


0

0 r22 . . . r2n

=

..

.
.
.
..
..
... . .
.
. ..
. 0 0
0
.
.
0
0
0 rnn
r1n r2n . . . rnn
a1n a2n . . . ann
... por igualacion podemos calcular los terminos de R por filas:
El elemento a11 debe ser igual al producto de la primer fila de RT con la primer
columna de R. As debe igualarse

2
a11 = r11
. Luego, se obtiene r11 = a11 ( se elige el signo positivo por convencion).
Ahora continuando con los elementos de la 1er. fila de A (multiplicando la 1er.
fila de RT por las columnas de R), se tendra :
r11 r12 = a12 , . . .,r11 r1n = a1n , despejando se obtiene:
r1j = a1j /r11 , j = 2, . . . , n
Luego, se contin
ua con la 2da. fila de R ...
Para eso, se calcula el elemento de la diagonal : r22 , haciendo el producto de la 2da.
fila de RT con la 2da. columna de R (son iguales) se obtiene a22 . Igualando
2
2
a22 = r12
+ r22

23

2
2
, que es positivo de acuerdo a (v).
= a22 r12
como r12 se conoce,
se despeja r22
p
2
Luego, r22 = a22 r12 .

Para calcular los restantes elemntos de la fila 2 se considera el producto de la


2da. fila de RT con cada columna de R desde la j = 3, . . . , n, resultando
r12 r1j + r22 r2j = a2j ,
donde todos son conocidos salvo r2j . As, despejando r2j se obtiene
r2j = (a2j r12 r1j )/r22 , para j = 3, . . . , n
Luego hay que continuar con la fila 3 de R, y continuar con una fila por vez.
En general, en el paso k, se quiere conocer la fila k de R, conociendo las filas
anteriores de R.
Primero obtener el elemento de la diagonal de R: rkk . Para eso
... se considera el producto de la fila k de RT con la columna k de R (de esta columna
se conocen todos los primeros k-1 elementos):
2
2
2
2
r1k
+ r2k
+ . . . + r(k1)k
+ rkk
= akk

(1)

Se despeja:
rkk =

q
2
2
2
.
akk r1k
r2k
. . . r(k1)k

Para calcular los restantes elementos de la fila k de R, se multiplica la fila k de RT


con cada columna j = k + 1, . . . , n de R:
r1k r1j + r2k r2j + . . . + r(k1)k r(k1)j + rkk rkj = akj
(unicamente estan involucrados los elementos de la columna j por arriba del elemento k, por tanto se conocen, entonces ...
... cada elemento j desde k + 1, . . . , n, se obtiene
rkj = (akj r1k r1j r2k r2j . . . r(k1)k r(k1)j )/rkk
Algoritmo de Cholesky (calculando las filas de R):
For k = 1, . . . , n
q
P
2
rkk = akk k1
i=1 rik (**)
For j = k + 1, . . . , P
n
rkj = (akj k1
i=1 rik rij )/rkk
End For
End For

24

Observaci
on 5 En (**) la sumatoria incluye los elementos anteriores de la columna
k anteriores al k (para k=1, es 0). Esta factorizacion requiere n3 /6 operaciones que es
aproximadamente la mitad de las operaciones requeridas por la LU .
Ejercicio:
a) Verificar que son ciertas las propiedades : i), ii), iii) enunciadas arriba.
b) Operaciones:
n
n
X
X
(2k +
2k) = n3 /3 + O(n2 )
k=1

i=k+1

Observaci
on 1 Como cada fila de RT o columna de R satisface (1):
2
2
2
2
r1k + r2k + . . . + r(k1)k
+ rkk
= akk
se concluye que cada elemento de cada columna de R es menor o igual en magnitud

al elemento de la diagonal de A: |rik | akk . Es decir, cada rik es menor en magnitud


que la raz cuadrada del mayor elemento de A.
Se concluye que en la factorizacion de Cholesky no puede ocurrir crecimiento .en los
terminos de las matrices intermedias debido a los pasosntermedios.
Ejercicio: Factorizar:

A=

2 1
1 2
0 1

0
...
1
0 ...
2
1 0 . . .
.. .. .. ..
.
.
. .
...
0
1 2 1
0 1 2

si n = 2, 8, 20.
Observaci
on 2 El metodo de Cholesky es estable (no requiere pivoteo).

Eso se basa en lo siguiente ....

5.2.

Relaci
on entre la norma-2 de A y la de R

Sea kRk22 = maxx6=0 xT RT Rx, asumiendo que p


kxk = 1.
Entonces kRk22 = kAk2 . Por lo tanto kRk2 = kAk2
Lo mismo para kRT k2 .
1
Para kR1 k22 = maxx6=0 xT (RRT )1 x = max ((RRT )1 ) = min (RR
T ) . Entonces
1
1 2
1
kR k = min (RT R) = kA k2 .
Luego,
p
cond2 (R) = kRk2 kR1 k2 = cond2 (A)

25

5.3.

Resoluci
on de RT Rx = b

Para obtener la solucion x se deben resolver dos sistemas triangulares. Si en RT (Rx) =


b, denominamos y = Rx, entonces...
... primero se plantea RT y = b.
Se resuelve por sustitucion hacia adelante (triangular inferior) para obtener y.
Luego, se resuelve Rx = y, usando que R es una matriz triangular superior, por
sustitucion hacia atras.
Observaci
on 6 Si la descomposicion de Cholesky se interrumpe en alg
un paso k, indicara que la matriz dada no es definida positiva.

6.

Matrices bandas

Una matriz A se llama banda, con ancho de banda


superior bU , si aij = 0 cuando i > j + bL , o si j > i + bU :

a11
...
a1,(bU +1)
..

.
a2,bU +2

a
b +1,1
A=
L
abL +2,2

..

.
0
an,nbL

inferior bL y ancho de banda


0

anbU ,n
..
.

...

...

ann

Este tipo de matrices aparece frecuentemente en la practica y es de utilidad su reconocimiento, ya que en la descomposicion LU los factores L y U son tambien bandas,
resultando mas barato de calcular y almacenar.

Observaci
on 7 Si A es una matriz banda con ancho bL inferior y bU superior.
(i) Si se hace A = LU sin pivoteo, entonces L mantiene la banda inferior bL , y
U la banda superior bU . Cuando bL y bU son peque
nas comparadas con n, el costo de la
descomposicion baja a aprox. 2n.bU .bL de operaciones. El costo de la resolucion de Ax = b
baja a 2n.bU .bL + 2nbU + 2nbL .
Observar haciendo un dibujo de A (con bandas) que en cada paso k de la eliminaci
on
Gaussiana al restar la fila k a las siguientes no cambia la banda bU . Ademas, en la L se
guardan los cocientes que se corresponden con los elementos debajo de la diagonal (con
banda bL ) en la columna k.
(ii) Si se hace pivoteo parcial para hallar P A = LU , como en cada paso k puede ser
necesario permutar la fila k de la matriz reducida A(k) con otra que le sigue, entonces U
sera un matriz con una banda a lo sumo bU + bL (hacer dibujo).
(iii) En la descomposicion de Cholesky como A es simetrica definida Positiva, no se
necesita hacer pivoteo, as que R mantiene la banda bU = bL .
26

Ejemplo: La matriz TN , tridiagonal TN <N N aparece en problemas de ecuaciones


diferenciales discretizados.

2 1
.
.

1 . . . .

TN =

.. ..

.
. 1
0
1 2
Ejercicios
1. Mostrar que si A es real simetrica definida positiva, entonces:
(a) los elementos diagonales son positivos : aii > 0 i.
(b) El mayor elemento de A esta en la diagonal.
2. ().
Si A es simetrica definida positiva, con factorizaci
on de Cholesky LDLT
, L triangular

2 1
.
.

1 . . . .
inferior unitaria, verificar sobre la matriz TN =

.
.
. . . . 1

0
1 2
que cond2 (A) dmax /dmin , que es el cociente entre el mayor y menor elemento de
la diagonal de D de la descomposicion de Cholesky.

3. ( ). Sea la misma matriz del previo ejercicio TN


(i) Para n=8, calcular los autovalores. Calcular n
umero de condicion (en norma-2,
y en norma infinito)
(ii) La descomposicion de Cholesky para n = 8
(iii) Si b = (1, 1, . . . , 1). Resolver usando los dos sistemas triangulares.
(iv) Verificar que el estimado del n
umero de condicion (en norma-2) dado en el
ejercicio previo, es valido, calculando cond2 (TN ), y calculando el cociente propuesto.

27

Resumen
Metodos directos para la resolucion de
sistemas lineales
1

Factorizaci
on LU

Definici
on 1.1 Se dice que una matriz A admite una factorizacion LU si
dicha matriz puede escribirse como el producto de una matriz triangular inferior, L, cuyos elementos en la diagonal sean iguales a la unidad y una matriz
triangular superior U. Es decir A = LU
Definici
on 1.2 Se dice que una matriz A admite una factorizacion LU indirecta si existe una matriz de permutacion P tal que la matriz P A admita
una factorizacion LU . Es decir, P A = LU
Teorema 1.1 Toda matriz A no singular admite una factorizacion de la
forma P A = LU.
Observaci
on 1.1 Se denomina matriz de permutacion a toda matriz cuadrada
tal que cada fila y cada columna de la matriz tiene un y solo un elemento
distinto de cero y este toma ademas el valor 1.
Observaci
on 1.2 Toda matriz de permutacion es no singular y ademas se
verifica: P 1 = P t
Observaci
on 1.3 Toda matriz A no singular admite una factorizacion LU
indirecta (pero no necesariamente una factorizacion LU).

1.1

Algoritmo para la factorizaci


on

LU es basicamente una forma modificada de la eliminacion gaussiana. Transformamos la matriz A en una triangular superior U anulando los elementos
debajo de la diagonal. Es decir
E1 E2 ... En A = U
donde E1 , E2 , ..., En son matrices elementales, que representan los distintos pasos de la eliminacion.
Luego recordando que la inversa de una matriz elemental, es otra matriz
elemental:
1

A = (E1 E2 ... En )1 U = L U
1
... E11 matriz triangular inferior.
con L=En1 En1

Para matrices 3 3,
esto
es:

a11 a12 a13


1 0 0
u11 u12 u13
A = a21 a22 a23 = l21 1 0 0 u21 u23
a31 a32 a33
l31 l32 1
0
0 u33

1.2

C
alculo de factorizacion LU con MATLAB

>> [L, U]=lu(A)


Si la matriz A admite una factorizacion LU , la funcion lu devuelve en L
la matriz triangular inferior y en U la matriz triangular superior.
>> [L, U, P]=lu(A)
Si la matriz A admite una factorizacion LU indirecta, la funcion lu devuelve en L la matriz triangular inferior, en U la matriz triangular superior
y en P la matriz de permutacion.

Factorizaci
on de Cholesky

Definici
on 2.1 Una matriz A nxn simetrica se define definida positiva si
se verifica que xt Ax > 0 x <n ,
x=
6 0.
Definici
on 2.2 Se dice que una matriz A real admite una factorizacion de
Cholesky si dicha matriz puede escribirse como el producto de una matriz
triangular inferior, R, cuyos elementos en la diagonal son positivos, por la
matriz traspuesta de esta, Rt . Es decir: A = RRt .
Observaci
on 2.1 Para factorizar una matriz A como A = RRt , procedemos a factorilzar a A como LU y realizamos los siguientes calculos: extraemos de U la diagonal y escribimos a U como DLt , y llamando a R = LD1/2
resulta entonces que
A = LU = LDLt = (LD1/2 )(D1/2 Lt ) = RRt
Observaci
on 2.2 Una matriz A real y simetrica admite factorizacion de
Cholesky si y solo si es definida positiva (esto es, xt Ax > 0 x 6= 0).
Teorema 2.1 Una matriz A nxn simetrica, es definida positiva si y solo si
todos sus autovalores son reales y positivos. (i < y i > 0, i = 1, .., n.).

2.1

C
alculo de factorizaci
on de Cholesky con Matlab

>> [U]=chol(A)
Si la matriz A admite una factorizacion de Cholesky, la funcion chol
devuelve en U la matriz triangular superior Rt .

3
3.1

Aplicaciones
Resolviendo sistemas lineales

Dada la ecuacion matricial


Ax = b
Los pasos para resolver el sistema lineal usando la factorizacion Ax =
L(U x) = Ly = b son los siguientes:
Primero, resolvemos Ly = b
Segundo, resolvemos U x = y y obtenemos x.
Es decir que resolvemos dos sistemas triangulares. Este metodo es computacionalmente eficiente. Observar que la factorizacion es independiente del
vector b.
En el caso A admita una factorizacion de la forma P A = LU, entonces
para resolver el sistema lineal Ax = b,calculamos primeramente: P Ax = P b.

3.2

C
alculo de la inversa de una matriz

La factorizacion L.U puede ser usada para calcular la matriz inversa de


A. Algunos algoritmos que invierten matrices usan este metodo. Es decir, A1 = (LU )1 = U 1 L1 .Tambien si A es una matriz de nxn y sabiendo
que A.A1 = I si se resuelven n sistemas Avi = ei con ei = (0, ..., 1, 0, ...0),
un 1 en el lugar i-esimo, usando la factorizacion LU se obtiene la matriz
inversa cuyas columnas son los vectores vi .

3.3

C
alculo del determinante de una matriz

Las matrices L y U pueden ser usadas para calcular el determinante de la


matriz A:
det(A) = det(L)det(U ).
3

Recordando que el determinante de una matriz triangular es simplemente


el producto de los elementos de la diagonal, y que en este caso en particular,
L es una matriz triangular donde los elementos de la diagonal son todos unos,
entonces: det(L) = 1,y por lo tanto:
det(A) = det(U ) = u11 u22 .... unn .
Si la factorizacion de A es P 1 LU con P matriz de permutacion, por ser
el determinante de una matriz de permutacion 1 o 1 seg
un sea el n
umero
de permutaciones de filas en la descomposicion, entonces el
det(A) = (1)u11 u22 .... unn .

Ejemplos


2
1 3
1
1. Dada la matriz A = 4 1 3 y el vector b = 0
2 5 5
2
a) Factorizar la matriz A como LU
Realizamos operaciones elementales para llevar a la matriz A a una matriz
triangular
superior U.

2
1 3
2 1
3
f ila2 (2) f ila1
0 3 3
A = 4 1 3
f ila3 (1) f ila1
2 5 5
0 6
8

2 1
3

f ila3 (2) f ila2 0 3 3 = U


0 0
2

2 1
3
1
0 0
1 0
Entonces U = 0 3 3 y L = 2
0 0
2
1 2 1
b) Usando la factorizacion hallar el determinante de A
det(A) = det(LU ) = det(L) det(U ) = (1) (2 (3) 2) = 12
c) Resolver el sistema Ax = b usando la factorizacion LU .
Primero resolvemos el sistema triangular Ly = b. Es decir:



1
0 0
y1
1
2
1 0 . y2 = 0
1 2 1
y3
2

y obtenemos como solucion

1 2 1
2. Factorizar la matriz A = 3 6 2
1 1 4
Hacemos operaciones elementales para reducir A a una matriz triangular
superior:

1 2 1
1 2 1
f ila2 (3) f ila1
0 0
5
A= 3 6 2
f ila3 (1) f ila1
1 1 4
0 3
3
la cual no es una matriz triangular superiror, entonces, podemos hacer
intercambio de filas para que si lo sea. Y obtenemos:

1 2 1
3
U = 0 3
0 0
5
De esta manera, P A =
filas 2 y 3 :

P = 0
0

LU donde P es la matriz de permutacion de las

0 0
0 1
1 0

1 0 0
L = 1 1 0
3 0 1

3. Factorizar A usando la factorizacion de Cholesky, analizando previamente siA es definida positiva.

81 9 0
A = 9 2 2 , autovalores{0.3219, 2.4579, 20.2202}
0
2 20
Son todos reales y positivos, entonces A es definida positiva y se puede
factorizar Cholesky.
Realizamos operaciones elementales para reducir a la matriz a una matriz
triangular
superior:

1 1 0
1 1 0
A = 1 2 2 f ila2 (1)f ila1 0 1 2
0
2 20
0 2 20

1 1 0
f ila3 (2)f ila2 0 1 2
0 0 16
entonces resulta
5

A = 1
0

1 0

= 1 1
0 2
1 0

= 1 1
0 2
1 0

= 1 1
0 2

1 0
1

2 2
= LU = 1
2 20
0
0
1 0 0
1

0 0 1 0
0
1 0 0 16 0
0
1 0 0
1

0 0 1 0 0
1 0 0 4 0
0
1 1 0

0 0 1 2
4
0 0 4

0 0
1 1 0
1 0 0 1 2 = LDLt =
2 1 0 0 16
1 0
1 2 =
0 1

0 0
1 1 0
1 0 0 1 2 =
0 4
0 0 1

Ejercicios

Dados las siguientes sistemas de ecuaciones Ax = b, factorizar la matriz y


resolver usando la factorizacion.




3 1
1
1. A =
,
b=
9 5
3

1 1
1
0
1 ,
b= 1
2. A = 2 3
1 1 2
1

0 1 4
0
3. A = 1 2 1 ,
b= 1
1 3 3
1


 
4 2
1
4. A =
,
b=
(factorizar Cholesky)
2 10
4

Facultad de Ingeniera
UNLP

Matematica C
VII. Resolucion Numerica de Sistemas Lineales:
Metodos iterativos

Temario
Clase : Despues de estudiar Autovalores y Autovectores, se pueden estudiar los metodos iterativos
numericos para resolver sistenmas lineales. Se estudiaran aqu solo los muy basicos: metodo de
Jacobi y Gauss- Seidel. Para ampliar el tema se puede ver la bibliografa recomendada por los
docentes, como por ejemplo [1].
Clase de Laboratorio: Hay un Laboratorio con ejercicios para realizar en el MATLAB.

Referencias
[1] R.L. Burden, J.Douglas Faires, An
alisis Numerico , Grupo Editorial Iberoamericana, Mexico,
1985.

Matematica C .
M
etodos Iterativos para resolver Sistemas Lineales
Introducci
on
Los metodos iterativos se usan en lugar de los metodos directos, como Eliminacion Gaussiana (LU),
cuando estos requieren demasiado tiempo de calculo o demasiado guardado.
Los metodos iterativos, en contraste a los directos, en general (en aritmetica exacta) no hallan una
solucion exacta en un n
umero finito de pasos, sino que hallan en cada iteracion una aproximacion a la
solucion.
La solucion aproximada obtenida en cada iteracion, decrece el error respecto de la de la iteracion
previa en alguna proporcion.
Las iteraciones terminan cuando la aproximacion (solucion aproximada) cumple con un criterio de
cercana aceptable.
Un metodo iterativo es .efectivosi en cada iteracion el error decrece en una magnitud considerable, y
si el costo computacional (operaciones aritmeticas) por cada iteracion es tan bajo como sea posible.
.... Daremos en detalle solo algunos metodos iterativos basicos. Debido a la brevedad del curso nos
limitaremos a describir solamente el metodo de Jacobi y de Gauss-Seidel, aunque hay otras metodologas
mas efectivas (ver la bibliografa, por ejemplo Burden).
Tambien se mostraran lugares de Internet donde se pueden encontrar software y bibliografa muy recomendable para la resolucion de diferentes problemas. En particular en NETLIB/templates hay software
disponible que se puede usar en MATLAB.

1.

M
etodos iterativos b
asicos

Describiremos el metodo de Jacobi y el metodo de Gauss-Seidel, los que son los mas basicos de esta
metodologa.
Sus implementaciones se pueden encontrar en NETLIB/templates
Dado un x0 inicial, estos metodos generan una sucesion xk convergente a la solucion exacta x =
A b, del sistema Ax = b, donde cada vector xk+1 se calcula desde la solucion aproximada previa xk ,
con muy bajo costo computacional.
1

Definici
on Se dice que se tiene una descomposici
on de A denominada splitting o separacion si se
encuentra una matriz M no singular otra K tal que A = M K.
2

Tal separacion (o splitting) de A, conduce a plantear:


Como
Ax = M x Kx = b,
se puede despejar
M x = b + Kx.
Como M es no singular, considerando que M x = Kx + b, se puede despejar:
x = M 1 (Kx + b), resultando
x = M 1 Kx + M 1 b
Reemplazando

(1)

M 1 K = R, y M 1 b = c,

se obtiene:
x = Rx + c, donde R y c son conocidos.

(2)

Un metodo iterativo se desprende de la f


ormula previa considerando:
xk+1 = Rxk + c
Teorema Si kRk < 1 la sucesi
on generada por la f
ormula previa converge al x , cualquiera sea el x0
inicial.
Demostraci
on. Dado xk+1 = Rxk + c, le restamos x = Rx + c, donde x es la solucion de

Ax = b, que satisface la (2).


Se obtiene,
xk+1 x = Rxk Rx ,
luego, usando normas
kxk+1 x k = kRxk Rx k kRkkxk x k.
Luego,
kxk+1 x k kRkkxk x k kRkk+1 kx0 x k,
de donde se deduce que la sucesion {xk } x , cuando kRk < 1, ya que la norma kRkk+1 tiende a
cero, cuando k tiende a .
Definici
on El radio espectral de R, denominado (R), se define mediante:
(R) = m
axi (R) {|i |}
considerando todos los autovalores de R.
Observaci
on Para cualquier norma k..k el radio espectral (R) kRk. Adem
as, para toda R y para
todo > 0 existe una norma k..k tal que kRk (R) + (este resultado no lo demostramos).
Para ver que (R) kRk, consideramos que
kRk = m
ax
x

kRxk
kxk

Sea y el autovector de R tal que se corresponde con el autovalor que define al (R) = m
axi (R) |i | =
||, entonces
kRk = m
axx kRxk
kRyk
= |y|/kyk = || = (R).
kxk
kyk
Teorema La sucesi
on xk generada por esta metodologa converge a la soluci
on de Ax = b, para todo
b, y todo punto inicial x0 , si y s
olo si el radio espectral de R, (R) es menor que 1 (es decir, si y s
olo
si (R) = m
axi (R) {|i |} = || < 1).

Justificaci
on Si fuese el (R) 1, entonces existira un autovector y autovalor tal (R) = || 1.
Entonces, si elegimos un x0 inicial tal que (x0 x ) tenga la direccion de ese autovector, se obtendra :
xk+1 x = R(xk x ) = Rk+1 (x0 x ) = k+1 (x0 x ).
Como supusimos que || 1, entonces kxk+1 x k no tendera a cero, cuando k tiende a .
Entonces, se observa que tal sucesion xk , con tal punto inicial x0 , no converge. Por tanto...,
... para que converja la sucesion xk , para todo punto inicial x0 , es necesario que (R) = || < 1.
Por otro lado, si (R) es menor que 1, desde la Observacion previa, se puede encontrar siempre una
norma k..k tal que kRk < 1, y como consecuencia la sucesion kxk+1 x k tiende a cero, por lo
cual la sucesion xk generada converge.a x .
El objetivo de esta metodologa es elegir una separaci
on de A = M K tal que:
La matriz R = M 1 K y c = M 1 b sean f
aciles de calcular, y
(R) < 1, y peque
no.
Los splitting usados aqu si A no tiene ceros en la diagonal, son del tipo:
U
)
A = D L U = D(I L

(3)

donde D es la diagonal de A, L es la parte triangular estrictamenteinferior de A (sin la diagonal),


= D 1 L, y
U es la parte triangular estrictamentesuperior de A (sin la diagonal). Adem
as L
1
= D U.
U

1.1.

M
etodo de Jacobi

Considerando la notacion y splitting dado en (3), se tiene que


Dx Lx U x = b.
Luego, despejado Dx, y multiplicando por D 1 , se obtiene
+U
x + D 1 b
x = D 1 (b + Lx + U x) = Lx
As

+U
)x + D 1 b
x = (L

Se define el proceso iterativo de Jacobi:


+U
)xk + c, donde c = D 1 b.
xk+1 = (L

(4)

+U
, esta definicion tiene la forma:
Si denotamos RJ = D 1 (L + U ) = L
k+1
k
1
x
= RJ x + cJ , donde cJ = D b.
Observando (4), cada componente xk+1
del vector xk+1 , se obtiene del producto de la fila i de
i
1
k
+U
) = D (L + U ) por el vector x , mas la componente i-esima del vector c:
(L
X
xk+1
= (
ai,j xkj + bi )/ai,i
i
j6=i

Paso iterativo(k) del M


etodo de Jacobi:
For i = 1, .P. . , n
xik+1 =
end for

bi

j6=i

aij xk
j

aii

Ejemplo Ejemplo 1.- Dado el sistema siguiente calcular varias iteraciones de Jacobi,comenzando desde
x0 = (0, 0)T .



7 1
x1
5
=
3 5
x2
7
4

Desde la formula A = D L U , donde D es la diagonal de A, y las restantes L y U , como se


definieron previamente, se sabe que para toda solucion de Ax = b se debe cumplir:
x = D 1 (Lx + U x + b)
se tiene que :
x1 =

5 + x2

, y x2 =

7 + 3x1

7
Luego, aplicando el proceso iterativo de Jacobi:

xk+1 = D 1 (L + U )xk + D 1 b
se tiene que que cada componente de xk+1 , usando las componentes del iterado previo xk , cumple
P
bi j6=i aij xkj
k+1
xi
=
aii
Entonces,
x11 =

5 + x02
7

, y x12 =

7 + 3x01
5

sustituyendo por x0 = (0, 0), se tiene que :


x1 =

5/7
0,714

7/5
1,400

Luego, para calcular el x2 desde el x1 :


x21 =
x21 =

5 + x12
7

5 + 1,4

Resultando:

, y x22 =

, y x22 =

7 + 3x11
5

7 + 3(0,714)
5

0,914
2
x
1,829

As se aplica para calcular x3 desde el iterado x2 ,..., etc, resultando la tabla


x 0
1
2
3
4
5
6
x1 0 0.714 0.914 0.976 0.993 0.998 0.999
x2 0
1.4
1.829 1.949 1.985 1.996 1.999
Se observa que la sucesion xk tiende al vector [1, 2]T que es la solucion exacta del sistema dado.

1.2.

M
etodo de Gauss-Seidel

La motivaci
on para este metodo es considerar que cuando se calcula en el metodo de Jacobi la i-esima
componente (i > 1) xk+1
, ya se han actualizado las componentes de xk+1 desde la 1 a la i 1. Por
i
tanto, pueden usarse para la actualizaci
on de las componentes siguientes xk+1
.
i
El metodo de Gauss-Seidel usa, para definir cada componente i > 1, de xk+1 , las componentes de
x
previamente actualizadas (desde la 1, . . . , i 1).
k+1

Entonces el paso iterativo de este metodo se puede describir:


Paso iterativo(k) del M
etodo de Gauss Seidel:
For i = 1, . . . , n
Pi1
Pn
bi j=1 aij xk+1
j=i+1 aij xkj
j
k+1
xi
=
aii
5

(5)

end for Con el proposito de analizar este algoritmo, queremos escribirlo con el formato:
xk+1 = RGS xk + cGS .
Para eso, vemos que (5) puede escribirse
i
X

aij xk+1
j

n
X

j=1

aij xkj + bi .

(6)

j=i+1

Entonces, usando la notacion de la formula (3), podemos escribir la formula (6):


(D L)xk+1 = U xk + b,
que equivale a
1 U xk + (D(I L))
1 b = (I L)
1 D 1 U xk + (I L)
1 D 1 b
xk+1 = (D(I L))
obteniendose

(7)

1 U
xk + (I L)
1 D 1 b = RGS xk + cGS
xk+1 = (I L)

Entonces

,
1 U
RGS = (D L)1 U = (I L)

= D 1 L, y U
= D 1 U .
donde L
Ejemplo Aplicamos Gauss-Seidel al mismo sistema del Ejemplo 1,comenzando desde x0 = (0, 0)T .



7 1
x1
5
=
3 5
x2
7
Desde la f
ormula A = D L U , donde D es la diagonal de A, y las restantes L y U , como se
definieron previamente, se sabe que para toda soluci
on de Ax = b se debe cumplir:
(D L)x = U x + b
se puede considerar :

(D L)xk+1 = U xk + b

Resultando el c
alculo de cada i- componente de xk+1 :
Pi1
P
k+1
bi
aij x
n

aij xk

j
j=i+1
j=1
j
xik+1 =
aii
usando las componentes ya calculadas del xk+1 . As en nuestro caso de dos componentes se tiene,
comenzando con x0 = [0, 0]T :

x11 =

5 + x02
7

, y x12 =

7 + 3x11
5

sustituyendo se obtiene:
x11 =

5+0
7

0,714, y x12 =

7 + 3(0,714)
5

1,829

0,714
x
1,829
1

Luego, para calcular el x2 desde el x1 :


x21 =
x21 =

5 + 1,829
7

5 + x12
7

, y x22 =

0,976, y x22 =
6

7 + 3(x21 )
5
7 + 3(0,976)
5

1,985

Resultando:

0,976
x
1,985
2

As se aplica para calcular x3 desde el iterado x2 , y usando las componentes ya calculadas de x3 ..., etc,
resultando la tabla
x 0
1
2
3
4
5
x1 0 0.714 0.976 0.998 1.000 1.000 Se observa que el metodo de Gauss-Seidel tiene una
x2 0 1.829 1.985 1.999 2.000 2.000
convergencia m
as r
apida.

1.3.

Criterios de convergencia para Jacobi y Gauss-Seidel

Estos criterios garantizan la convergencia.


Definici
on Matriz estrictamente diagonal dominante Una matriz A es estrictamente diagonal dominante por filas si para cada fila i = 10 . . . , n, satisface
X
|aii | >
|aij |
j6=i

Teorema Si A es estrictamente diagonal dominante por filas, entonces ambos metodos de Jacobi y
Gauss-Seidel son convergentes. Se cumple que kRGS k kRJ k < 1. Un resultado an
alogo existe si
AT es estrictamente diagonal dominante por filas.
Demostraci
on. Como en Jacobi, xk+1 = RJ xk + cJ , donde RJ = D 1 (L + U ),entonces satisface
k+1

kx
x k = kRJ (xk x )k kRJ kkxk x k, si kRJ k < 1 se demuestra que converge cualquiera
sea la norma que se use inducida por la norma de vectores. Nosotros consideraremos la kRJ k , ya que
por hipotesis la matriz A es diagonalmente dominante por filas y en esa definicion estan involucrados los
valores absolutos de los terminos de cada fila, es decir
X
|aij |
|aii | >
j6=i

Entonces, la matriz

0
a2,1 /a2,2

RJ =
..

a1,2 /a1,1
0
..
.

an,1 /an,n

an,2 /an,n

a1,n /a1,1
a2,n /a2,2

..

Como la norma infinito kRJ k de una matriz RJ esta dada por la mayor suma de los valores absolutosde los elementos de una fila de la matriz, en nuestro caso
kRJ k = |

ak,1
ak,k

| + ... + |

ak,k1
ak,k

|+|

ak,k+1
ak,k

| + ... + |

ak,n
ak,k

la que es igual a
kRJ k =

| ak,1 | + . . . + | ak,k1 | + | ak,k+1 | + . . . + | ak,n |


|ak,k |

por ser A estrictamente diagonal dominante.


El caso de Gauss Seidel se hace de forma similar.

< 1,

Ejemplo Calcular para la matriz A = D L U del sistema del Ejemplo 1, la kRJ k .


Verificar que kRJ k = 3/5 < 1.
Usar ese valor para calcular el n
umero de iteraciones que se requieren para aproximar a la soluci
on
[1, 2], con una precisi
on de tres lugares decimales (despues de redondear) si el punto inicial es x0 =
[0, 0]T .
7

La soluci
on xk ser
a precisa a tres (3) lugares decimales si cada componente del vector xk x es
menor que 0,0005 en valor absoluto.
Necesitamos saber para cu
al k, la componente m
axima de xk x es menor que 0,0005. Para conocer
cu
al es el k m
as peque
no para el cual
kxk x k < 0,0005
usamos la f
ormula

xk = RJ xk1 + cJ

observando que

xk x = RJ (xk1 x )

Entonces, considerando que


kxk x k kRJ k k(xk1 x )k
kRJ k2 k(xk2 x )k . . . ,
resultando
kxk x k kRJ kk k(x0 x )k .
Como kRJ k 0,6 < 1, converge el proceso.
Consideramos que k(x0 x )k k(x0 x1 )k + k(x1 x )k
k(x0 x )k k(x0 x1 )k + kRJ kk(x0 x )k .
Por tanto,
k(x0 x )k k(x0 x1 )k + 0,6kk(x0 x )k , entonces
0,4k(x0 x )k k(x0 x1 )k , de tal manera que k(x0 x )k 10/4k(x0 x1 )k
kxk x k kRJ kk 10/4k(x0 x1 )k = (0,6)k 14/4 < 0,0005
Para despejar el k, aplicando log10 a amos lados de la desigualdad previa:
log10 ((0,6)k .(14/4)) < log10 (5,104 ),
lo cual implica
k log10 (0,6) + log10 (3,5) < log10 (5) 4.
Por tanto,
0,222k + 0,544 < 3,301
Entonces k > 17,3. Por tanto, se necesitan 18 iteraciones para obtener el resultado por Jacobi con 3
cifras decimales exactas.
Definici
on Matriz debilmente diagonal dominante Una matriz A es debilmente diagonal dominante por
filas si para cada fila i = 1, . . . , n, satisface
X
|aij |,
|aii |
j6=i

y al menos para una fila esa desigualdad es estricta.


Definici
on Matriz irreducible Una matriz
A es irreducible
si no existe ninguna matriz de permutaciones
A11 | A12
T
P que la reduzca a la forma P AP =
0
| A22
Teorema Si A es debilmente diagonal dominante por filas e irreducible, entonces ambos metodos de
Jacobi y Gauss-Seidel son convergentes. Se cumple que kRGS k < kRJ k < 1.
No lo demostramos, puede encontrarse su justificacion en el libro de Burden.
8

Observar que una A puede no ser diagonal dominante y lo mismo ser convergente la sucesion de
Jacobi y/o Gauss-Seidel, ya que esa condicion es una condicion suficientepara la convergencia, pero no
necesaria. Se se pueden buscar ejemplos que ilustren esa situacion, siendo convergente la xk , como en el
caso :

2 1
A=
1 1
Ejemplo Aplicar al sistema Ax = b, con A dada arriba, el metodo de Jacobi, con b = (1, 1)T , por
ejemplo.
Ejercicios
(I) Resolver el siguiente sistema por Jacobi y Gauss-Seidel, comenzando con x0 = (0, 0)T , redondeando
con 4 dgitos significativos hasta que la diferencia entre dos iterados sucesivos tenga sus componentes
menores a 0.001 :

7 1
x1
5
=
3 5
x2
7
(II) Analizar, y resolver por Gauss-Seidel, comenzando en x0 = (0, 0)T , siendo



1 1
x1
1
=
2
1
x2
5
La soluci
on es x = (2, 1)T . Observar que las iteraciones no se acercan a ese punto(es no convergente).
Analizar los criterios de convergencia, ver si se cumplen, y explicar porque puede ocurrir eso con Jacobi
o Gauss-Seidel.
(III) Resolver los siguientes sistemas por Jacobi, comenzando con x0 = (0, 0)T , redondeando con 4 dgitos
significativos, hasta que la diferencia entre dos iterados sucesivos tenga sus componentes menores a 0.001.
(i)

6
x1
7 1
=
4
x2
1 5
(ii)

(iii)



5
x1
1
=
1
x2
1

2
1

4,5
1

0,5
3,5

x1
x2

1
1

(IV) Resolver los siguientes sistemas Gauss-Seidel, comenzando con x0 = (0, 0)T , redondeando con 4 dgitos
significativos, hasta que la diferencia entre dos iterados sucesivos tenga sus componentes menores a 0.001.
Compare el n
umero de iteraciones de Jacobi y Gauss Seidel para obtener esa aproximaci
on:
(i)

x1
6
7 1
=
x2
4
1 5
(ii)

(iii)



1
x1
5
=
1
x2
1

2
1

4,5
1

0,5
3,5

x1
x2

1
1

(V)En los siguientes sistemas, calcule las primeras cuatro iteraciones por Gauss-Seidel, desde x0 = (0, 0),
y ver que no converge. Sin embargo, es posible reacomodar el sistema de tal manera que sea diagonal
dominante y as convergente. Usar Gauss-Seidel para hallar una soluci
on aproximada que sea precisa
hasta 0,001:
(i)



1 2
x1
3
=
3
2
x2
1
(ii)

1
@0
6

4
2
1

10 1
0 1
2
x1
2
4 A @x2 A = @1A
2
x3
1

Anda mungkin juga menyukai