TRABAJO ENCARGADO
CURSO :
DOCENTE :
ALUMNOS :
Becerra Vilchez
PIURA- PERU
2013
INTRODUCCION
Por otro lado esto nos brinda una oportunidad para su mejor entendimiento y a la vez
impulsar al alumno a la investigacin y a desarrollar la capacidad de ser autodidacta.
MTODO DE GAUSS - JORDAN
Si con Gauss se obtena una matriz triangular, con este mtodo se obtiene una matriz
diagonal.
Un poco de historia:
Este mtodo lleva el nombre del topgrafo alemn Wilhelm Jordan que lo utiliz por
primera vez en 1873 en su libro Handbuch der Vermessungskunde (manual de geodesia).
l lo utiliz para resolver problemas de mnimos cuadrados que necesitaba para sus
trabajos geodsicos.
En la primera (1873) y segunda edicin (1879) de su libro, simplemente dio las frmulas
de su mtodo, en la tercera (1888) aparece la tcnica por completo, pero es en la cuarta
edicin (1895), cuando aparece el algoritmo explcito.
Los pasos a seguir para obtener este sistema equivalente son los siguientes:
5. Ahora con esta ecuacin reducimos la ltima incgnita de las dems ecuaciones. As en
la penltima ecuacin nos tiene que quedar una sola incgnita (la penltima) tambin.
6. Con esta penltima incgnita reducimos las incgnitas de las restantes ecuaciones
(excepto de la ltima).
7. Seguimos con este procedimiento hasta tener en cada ecuacin una nica incgnita.
EJEMPLOS:
Solucin.
a) Escribimos la matriz aumentada del sistema.
Los clculos se reducen, ya que ahora vasta estimar n(n+1) elementos (los l1,10 ), en lugar
de los n2 elementos de una factorizacin nominal (los l1,1 tales que i < j y los u1,1 tales que
i j) . El numero de calculo es prcticamente la mitad.
DEDUCCION DE FORMULAS
DEDUCCION
-AX = B
-Factoriza A
Ejemplos:
Solucin:
i 1
a ki l ij l kj
k 1
l kk a kk l kj2
j 1
l ki y
l ii j 1
Entonces.
a 21 15
l11 a11 6 = 2.4495 l 21 = 6.1237
l11 2.4495
a 31 55
l 21 = 22.454 Ya sabemos que l12 = 0
l11 2.4495
l 22 a 22 l 21
2
55 6.1237 2 = 4.1833
a 32 l 21l 31 55 (6.1237)(22.454)
l 32 = 20.916
l 22 4.1833
De igual forma l13 = l23 = 0 y
l 33 a33 (l 31
2
l 32
2
) 979 (22.454 2 20.916 2 ) = 6.1106
La matriz L es igual a
2.4495 0 0
L 6.1237 4.1833 0
22.454 20.916 6.1106
En el mtodo de Cholesky U = LT
i 1
ci lij d j
j 1
di
lii
n
di u
j i 1
ij xj
xi
u ii
d3 d 2 u 23 x3
x3 =-8.481 x2 = [-23.9045-(20.916)(-8.481)]/4.1833 =
u 33 u 22
36.690
d1 (u12 x2 u13 x3 )
x1 = [40.8246 ((6.1237)(36.69)+(22.454)(-8.481))]/2.4495 = 2.685
u11
Dnde:
, es una matriz diagonal.
, es una matriz triangular inferior.
, es una matriz triangular superior.
Luego:
Si aii 0 para cada i. Por la regla iterativa, la definicin del Mtodo de Jacobi puede ser
expresado de la forma:
En la siguiente seccin se ilustra cmo la convergencia de ste mtodo est dada por:
Convergencia en Jacobi
En el caso del mtodo de Jacobi no existe una condicin exacta para la convergencia. Lo
mejor es una condicin que garantiza la convergencia, pero en caso de no cumplirse
puede o no haberla es la siguiente:
Para determinar si el mtodo de Jacobi converge hacia una solucin. Se evalan las
siguientes condiciones de convergencia (Nota: las siguientes van en un orden de modo
que si se cumple una de las condiciones, comenzando por la primera por supuesto, la
evaluacin de las siguientes no es necesario realizarlas):
1. La matriz sea estrictamente dominante diagonalmente por filas (E.D.D. por filas),
es decir, para todo i desde 1 hasta n que es el tamao de la matriz A:
, k = 1, 2, ...
Esto se puede detectar revisando todos los posibles ordenamientos de las incgnitas y ver
cmo es la matriz resultante. Claro que esto conlleva un bueno nmero de pruebas pues
el nmero posible de ordenamientos en n variables es (n 1)! pero cuando n es reducido
es sencillo
Ejm:
Hallando el error
Una vez obtenidos los resultados se debe calcular el error aproximado porcentual
para cada uno de los resultados, para ello utilizamos la siguiente frmula:
Para el facilitamiento del clculo de ejercicios por este mtodo se puede trabajar
con el siguiente cuadro de resultados.
Nota: Para los clculos utiliza hasta 4 cifras despus del punto decimal.
Solucin
Asumiendo q :
Tenemos el vector:
Para la segunda iteracin reemplazamos los valores anteriores hallados.
Tenemos el vector:
Mtodo de Gauss-Seidel
Este ltimo conjunto de ecuaciones son las que forman las frmulas iterativas. Para
x ,, xn
comenzar el proceso iterativo, le se le asigna el valor de cero a las variables 2 ;
esto dar un primer valor para x1 . Ms precisamente, se tiene que:
Se repite el proceso, pero ahora sustituyendo estos ltimos datos en vez de ceros
como al inicio, se obtendr una segunda lista de valores para cada una de las incgnitas.
Por lo tanto ahora se tiene:
Este criterio no solo se aplica a las ecuaciones lineales que se resuelven con el
mtodo de Gauss-Seidel sino tambin para el mtodo iterativo del punto fijo y el mtodo
de jacobi. Por tanto, al aplicar este criterio sobre las ecuaciones de Gauss-Seidel y
evaluando con respecto a cada una de las incgnitas, obtenemos la expresin siguiente:
a21 a12
1 1
a22 a11
El valor absoluto de las pendientes en la ecuacin, deben ser menor que la unidad
para asegurar la convergencia.
Es decir, el elemento diagonal debe ser mayor que el elemento fuera de la diagonal
para cada regln de ecuaciones. La generalizacin del criterio anterior para un sistema de
n
n ecuaciones es:
aii ai , j
j 1
j i
n
aii aij
i1
ji
EJEMPLO 2
17 2 3 x1 500
5 21 2 x 200
2
5 5 22
x3 30
Las siguientes frmulas las utilizamos para encontrar X 1, X2 y X3 en cada una de las
iteraciones.
b1 a12 x2 a13 x3
x1
a11
b2 a 21 x1 a 23 x3
x2
a 22
b3 a31 x1 a32 x2
x3
a33
Para calcular el primer valor de X1, se asumirn X2 y X3 con valores cero. Entonces para X1,
b1 a12 x2 a13x3
x1
a11
500 2 x2 3 x3
x1
17
500 2 0 3 0
x1
17
x1 29,41176
para calcular el valor de X2, se utilizar el valor encontrado de X1 y el valor de X3 se
asumir como cero.
b2 a 21 x1 a 23 x3
x2
a 22
200 5 x1 2 x3
x2
21
200 5 29,41176 2 0
x2
21
x 2 16,52661
Una vez obtenidos estos resultados, se debe calcular el error aproximado porcentual para
cada uno de los resultados, para ello utilizamos la siguiente frmula:
xr
nuevo anterior
xr
a nuevo
100%
xr
x1
nuevo anterior
x1
ax1 nuevo
100%
x1
33,43916 29,41176
ax1 100%
33,43916
ax1 12,04% 5%
Para X1,
Para X2,
x2
nuevo anterior
x2
ax2 nuevo
100%
x2
18,60972 16,52661
ax2 100%
18,60972
ax2 11,194% 5%
Para X3,
x3
nuevo anterior
x3
ax3 nuevo
100%
x3
13,19293 11,80418
ax3 100%
13,19293
ax3 10,526% 5%
Dado que en las tres incgnitas el error aproximado porcentual es mayor a un 5% se debe
hacer una nueva iteracin. Se contina realizando el mismo procedimiento con los
nuevos valores de X obtenidos hasta que los errores aproximados porcentuales en las tres
incgnitas sean menores que el 5%.
El resultado de estas iteraciones siguiendo el mismo procedimiento, se presenta en la
tabla 6
Iteracin x1 x2 x3 a x1 a x2 a x3
0 0,00000
29,4117 16,5266 11,8041
1 6 1 8
33,4391 18,6097 13,1929
2 6 2 3 12,044% 11,194% 10,526%
33,9293 18,8586 13,3609
3 1 9 1 1,445% 1,320% 1,257%
Se resaltan los datos donde los errores obtenidos son menores que 5%, se logra un error
aproximado porcentual menor en las tres incgnitas en la tercera iteracin. Por lo tanto
los resultados aproximados que cumplen con la condicin establecida son:
x1 33,92931
x 2 18,85869
x3 13,36091
Si sustituimos estos valores en las ecuaciones originales para verificar los resultados
obtenemos que:
17 *(33,92931) 2 *(18,85869) 3 *(13,36091) = 498,99813
-5 *(33,92931) + 21 *(18,85869) 2 *(13,36091) = 199,66404
-5 *(33,92931) 5 *(18,85869) + 22 *(13,36091) = 30,00000
Al calcular los porcentajes de error de estos resultados se obtiene lo siguiente:
500 - 498,99813
ErrorEC1 100% 0,20%
500
200 - 199,66404
ErrorEC2 100% 0,17%
200
30 - 30
ErrorEC3 100% 0,00%
30
CAPTULO 3 Gradiente conjugado con precondicionamiento
Q T AQ H 3.1
convierte a la matriz A en una matriz de Hessenberg superior (H) y para el, caso
de A simtrica H ser una matriz tridiagonal (T) que se expresa como
1 1
Tl 1 , la descomposicin de Cholesky de la matriz Tl
l
l l
T Bl BlT (3.2)
con Bl matriz triangular inferior, no singular y adems bidiagonal por ser T
a1 a1 b1
b
tridiagonal, esto quedara Tl Bl Bl
T 1 ,
bl
bl al al
consecuentemente resolver el sistema w Tl z l es extremadamente simple y de
Se puede aprovechar la simplicidad con que pueden ser resueltos estos sistemas,
lo cual depende de una modificacin en el cmputo de x Ql z l para el caso del
mtodo del gradiente conjugado, esto ser posible teniendo no solo la norma de
los residuos sino los residuos en si. Esta transformacin consiste en diagonalizar
T.Error! No se encuentra el origen de la referencia.
siguiente teorema:
Teorema 3.1
Existe una matriz diagonal Dm diag (d1 , , d m ) con todos los elementos de
m
Para Wm Qm Dm , tendremos
y 1 r0
2
2
Para T m DmTm Dm
se obtiene T m Bm m Bm con
T
1
2 1
1
3
Bm 1 , y m diag (1 ,, m ) .
2
m
1
m 1
ortonormal.
AYm Wm 1
m Bm m (3.4)
y Ym BmT Wm (3.5)
ortogonales. Adems
1
1
1 1
1 2
1 1
m1 B m (3.7)
2 3
1 1
m 1 m
y si Wm (w1 , w2 ,, wm ) entonces
r0
w1 q1 d1 1 r0 (3.8) .
r0 2
Evaluando sucesivamente (3.5) y (3.4) columna por columna junto con (3.3) ,
y1 , y 2 , .
Entonces Tl zl Dl Tl Dl Dl1 zl Dl r0 2 1
e r0T r0 e1 . Como Tm Bm m BmT
Dada la aproximacin
x0
Calcular
r0 b Ax 0
Hacer:
w1 y1 r0
l 1
mientras
wl 0 hacer
wlT wl
l
y lT Ay l
xl xl 1 l y l
Algoritmo 3.1
wl 1 wl l Ay l
l 1 loswmtodos
Como se mencion anteriormente l 1 l 1 y l no estacionarios tambin son
l 1
conocidos como mtodos del minimizacin y esto de debe precisamente al
enfoque de optimizacin que les podemos dar.
fin
CONCLUSIONES
- Se aprendi a utilizar los distintos mtodos mencionados para la
resolucin de sistemas de ecuaciones lineales.