INTRODUCCIÓN:
Los sistemas de ecuaciones lineales sirven para resolver múltiples problemas de todos
los tipos imaginables en procesos naturales, en producción, en redes eléctricas, y en
innumerables campos más. Los problemas varían en sus características y pueden ser
resueltos con la ayuda de un computador de manera más eficiente si se trabaja
explotando las características del problema mismo. El interés por la optimización de los
métodos para la solución de sistemas de ecuaciones lineales ha generado diversos
enfoques en cuanto a los métodos existentes para mejorar los algoritmos actuales.
Aparecen entonces herramientas tan importantes como la computación paralela,
librerías optimizadas con funciones básicas, librerías más avanzadas, tratamiento de la
estructura de la matriz, etc. Todos estos enfoques no son mutuamente excluyentes, y
por el contrario se intentará en este proyecto obtener el máximo provecho de cada uno
de ellos, obteniendo un buen rendimiento global. Las aplicaciones son muchas, incluso
en un enfoque tan específico como el de las matrices simétricas, dispersas e indefinidas.
Entre ellas están los problemas de redes eléctricas, problemas de elementos fi nitos, y
en general muchas aplicaciones de ingeniería, como por ejemplo el resultado de la
discretización de ecuaciones diferenciales parciales en diferentes tipos de simulaciones.
Cualquier optimización que se logre en este campo, será un gran aporte, debido a la
gran cantidad de datos que suelen manejarse en estos casos, y a la necesidad de altos
niveles de eficiencia que se necesitan. [1]
Los métodos para resolver los sistemas lineales se dividen en dos grandes grupos:
directos e iterativos. Los métodos directos encuentran la solución en un número fi nito
de pasos y cada paso en las operaciones intermedias depende de los pasos previos. Los
métodos iterativos generan una sucesión cuyos valores se espera converjan a la solución
del sistema. El error característico en los métodos directos e iterativos es el de
redondeo. A medida que se aumenta la dimensión de los sistemas de ecuaciones, la
principal desventaja de los directos frente a los iterativos es que los errores de redondeo
se acumulan durante el proceso, además de requerir mayor espacio de memoria debido
al efecto de llenado (fi ll-in). Por otro lado, en procesos donde se tienen que resolver
diversos sistemas del mismo tipo, los métodos iterativos pueden aprovechar, como
aproximación inicial, la solución obtenida en el paso de tiempo anterior. Todo ello hace
que actualmente, en general, se opte por la resolución mediante un método iterativo.
Las técnicas de reordenación, aplicadas principalmente en la resolución de sistemas por
métodos directos y que están basadas en la teoría de grafos, proporcionan matrices con
ancho de banda o perfil menor, lo que reduce, en la resolución por métodos directos, el
coste de almacenamiento en la factorización, pero pueden ser utilizadas por los
métodos iterativos para mejorar el efecto del precondicionamiento, que acelera la
convergencia del método. [1]
En este tema veremos la resolución de un sistema de n ecuaciones lineales con n
incógnitas, con el objetivo de encontrar los valores del vector x mediante alguno de los
métodos numéricos que se explicarán más adelante
a11x1 + a12x2 + · · · + a1nxn = b1,
a21x1 + a22x2 + · · · + a2nxn = b2, (1.1)
...
an1x1 + an2x2 + · · · + annxn = bn,
Siendo aij y bi , para 1 ≤ i, j ≤ n, números reales dados, y siendo xj ∈ IR, 1 ≤ j ≤ n, a los aij
se les denominan los coeficientes del sistema (1.1)
Siendo los xi las incógnitas y siendo b el vector de términos independientes conocido.
x1 b1
x2 b2
x= ⋮ , b= ⋮
xn bn
A = (aij) 1≤i,j≤n,
Ax = b
x = A-1.b (1.2)
OBSERVACIÓN:
Las matrices de coeficientes que suelen aparecer en las aplicaciones prácticas son, o
llenas pero no grandes, o matrices huecas. De manera algo imprecisa, por una matriz
llena se entiende una en la que la mayor parte de sus coeficientes son no nulos, y
diremos que no es grande si es de orden menor que 30. Una matriz hueca (sparse en
inglés) es aquella, siendo grande o no, en que la mayor parte de sus coeficientes son
nulos, estando la mayor parte de los no nulos en o por encima de la diagonal principal.
Las matrices llenas pero no grandes aparecen en una gran variedad de problemas de
Estadística, Física, Ingeniería, etc..., mientras que las huecas aparecen generalmente en
la resolución numérica de ecuaciones diferenciales. En general, los métodos directos
suelen estar bien adaptados a ambos tipos de matrices, mientras que los métodos
iterados están mejor adaptados a las matrices huecas.
1- METODOS ITERATIVOS:
BÁSICOS: Los métodos iterativos parten de una solución inicial y van
modificando sus valores hasta alcanzar una convergencia deseada cuando ésta
sea posible. Se dividen en estacionarios y no estacionarios. Los métodos
estacionarios son métodos clásicos como Jacobi, Gauss-Seidel o SOR y tienen una
convergencia más lenta, aunque su programación es mucho más simple y son
más fáciles de entender. Los métodos no estacionarios tienen una mayor
convergencia.
Matriz Diagonal, A = D
Sistemas con solución inmediata Matriz Triangular Superior, A = U
Matriz Triangular Inferior, A = L
Método de Doolittle, A = LU
Método de Crout, A = LU
Métodos de Descomposición Método de Cholesky, A = L.LT
Descomposición generalizada, A=L.D.LT
Método de Thomas (A Tridiagonal)
Métodos de ortogonalización
2.1- METODO DE GAUSS
El método de Gauss consiste en transformar un sistema de ecuaciones en
otro equivalente de forma que éste sea escalonado.
Obtenemos sistemas equivalentes por eliminación de ecuaciones
dependientes. Si:
Todos los coeficientes son ceros.
Dos filas son iguales.
Una fila es proporcional a o tra.
Una fila es combinación lineal de otras.
4- Si en un sistema se sustituye una ecuación por otra que resulte de sumar las dos
ecuaciones del sistema previamente multiplicadas o divididas por números no
nulos, resulta otro sistema equivalente al primero.
[3]
ALGORITMO DE ELIMINACIÓN GAUSSIANA
El Algoritmo de Gauss o de Eliminación gaussiana consta de los siguientes pasos:
1- Determine la primer columna (a la izquierda) no cero.
2- Si el primer elemento de la columna es cero, intercámbielo por un renglón que
no tenga cero.
3- Obtenga ceros abajo del elemento delantero sumando múltiplos adecuados a los
renglones debajo de él.
4- Cubra el renglón y la columna de trabajo y repita el proceso comenzando en el
paso 1. Al termino del ciclo entre el paso 1 al 4 (es decir cuando se han barrido
todos los renglones), la matriz debería tener forma de escalón.
5- Comenzando con el ´ultimo renglón no cero avance hacia arriba para que en cada
renglón tenga un 1 delantero y arriba de él queden solo ceros. Para ello debería
sumar múltiplos adecuados del renglón a los renglones correspondientes.
donde la notación se usa simplemente para denotar que el elemento cambió. Se despejan las
incógnitas comenzando con la última ecuación y hacia arriba. Por esta razón, muchas veces se
dice que el método de eliminación Gaussiana consiste en la eliminación hacia adelante y
sustitución hacia atrás
COMENTARIOS DEL METODO DE GAUSS:
Las fórmulas de Cramer son de importante interés teórico, sin embargo no tienen gran
aplicación en la práctica debido a que requiere mucha labor de cálculo. En cambio, el
método de eliminación para resolver sistemas de ecuaciones lineales, de Gauss - Jordan,
tiene más aplicación, en problemas pequeños y grandes, sobre todo en la solución de
modelos de programación lineal. Para resolver un sistema de ecuaciones con este
método se emplea la eliminación sucesiva de las incógnitas según este esquema:
Considere las siguientes m ecuaciones lineales:
Ahora se arregla una matriz B de este sistema, ampliada con los b(i) (línea vertical).
Así se obtiene una matriz ampliada de un nuevo sistema equivalente al original pues se
reduce la matriz B a la forma más sencilla posible que incluya la solución del sistema. A
continuación se presenta el procedimiento detallado:
Se resta: el renglón (1) del (2) y el (3), el (1)(3) al (4), resultando la matriz:
Se permutan los renglones (2) y (3) para tener el coeficiente 1en renglón 2
El renglón (2) se duplica y se resta al (1) y al (4), el (2) se triplica y se resta al (3)
El (3) se divide entre (-14), el coeficiente 1 resultante se usa para operar con el cálculo
que se indica en la columna izquierda
La columna derecha de la última matriz tiene la solución del sistema propuesto: X1 = -1,
X2 = 0, X3 = 1
Matriz Inversa por el
Método de Gauss-Jordan
Paso 1.
Paso 2.
Ejemplo:
Supongamos que queremos encontrar la inversa de
por =
BIBLIOGRAFIA:
[1]http://handbook.usfx.bo/nueva/vicerrectorado/citas/TECNOLOGICAS_20/Ingenieria%20Sist
emas/6.pdf
[2] http://www.ugr.es/~mpasadas/ftp/Tema3_apuntes.pdf
[3] http://www.ana.iusiani.ulpgc.es/metodos_numericos/document/apuntes/Parte2.pdf
[4]http://www1.eafit.edu.co/cursonumerico/capitulo3/sesion_1/documentos/eliminacion_ga
usiana.pdf
[5]http://www.ana.iusiani.ulpgc.es/metodos_numericos/document/apuntes/Parte2.p
df
http://www.monografias.com/trabajos72/resolucion-sistemas-metodo-gauss-
jordan/resolucion-sistemas-metodo-gauss-jordan.shtml
http://dieumsnh.qfb.umich.mx/matematicas/inversa.htm