Anda di halaman 1dari 16

RESOLUCIÓN DE SISTEMAS LINEALES

INTRODUCCIÓN:
Los sistemas de ecuaciones lineales sirven para resolver múltiples problemas de todos
los tipos imaginables en procesos naturales, en producción, en redes eléctricas, y en
innumerables campos más. Los problemas varían en sus características y pueden ser
resueltos con la ayuda de un computador de manera más eficiente si se trabaja
explotando las características del problema mismo. El interés por la optimización de los
métodos para la solución de sistemas de ecuaciones lineales ha generado diversos
enfoques en cuanto a los métodos existentes para mejorar los algoritmos actuales.
Aparecen entonces herramientas tan importantes como la computación paralela,
librerías optimizadas con funciones básicas, librerías más avanzadas, tratamiento de la
estructura de la matriz, etc. Todos estos enfoques no son mutuamente excluyentes, y
por el contrario se intentará en este proyecto obtener el máximo provecho de cada uno
de ellos, obteniendo un buen rendimiento global. Las aplicaciones son muchas, incluso
en un enfoque tan específico como el de las matrices simétricas, dispersas e indefinidas.
Entre ellas están los problemas de redes eléctricas, problemas de elementos fi nitos, y
en general muchas aplicaciones de ingeniería, como por ejemplo el resultado de la
discretización de ecuaciones diferenciales parciales en diferentes tipos de simulaciones.
Cualquier optimización que se logre en este campo, será un gran aporte, debido a la
gran cantidad de datos que suelen manejarse en estos casos, y a la necesidad de altos
niveles de eficiencia que se necesitan. [1]

Los métodos para resolver los sistemas lineales se dividen en dos grandes grupos:
directos e iterativos. Los métodos directos encuentran la solución en un número fi nito
de pasos y cada paso en las operaciones intermedias depende de los pasos previos. Los
métodos iterativos generan una sucesión cuyos valores se espera converjan a la solución
del sistema. El error característico en los métodos directos e iterativos es el de
redondeo. A medida que se aumenta la dimensión de los sistemas de ecuaciones, la
principal desventaja de los directos frente a los iterativos es que los errores de redondeo
se acumulan durante el proceso, además de requerir mayor espacio de memoria debido
al efecto de llenado (fi ll-in). Por otro lado, en procesos donde se tienen que resolver
diversos sistemas del mismo tipo, los métodos iterativos pueden aprovechar, como
aproximación inicial, la solución obtenida en el paso de tiempo anterior. Todo ello hace
que actualmente, en general, se opte por la resolución mediante un método iterativo.
Las técnicas de reordenación, aplicadas principalmente en la resolución de sistemas por
métodos directos y que están basadas en la teoría de grafos, proporcionan matrices con
ancho de banda o perfil menor, lo que reduce, en la resolución por métodos directos, el
coste de almacenamiento en la factorización, pero pueden ser utilizadas por los
métodos iterativos para mejorar el efecto del precondicionamiento, que acelera la
convergencia del método. [1]
En este tema veremos la resolución de un sistema de n ecuaciones lineales con n
incógnitas, con el objetivo de encontrar los valores del vector x mediante alguno de los
métodos numéricos que se explicarán más adelante
a11x1 + a12x2 + · · · + a1nxn = b1,
a21x1 + a22x2 + · · · + a2nxn = b2, (1.1)
...
an1x1 + an2x2 + · · · + annxn = bn,

Siendo aij y bi , para 1 ≤ i, j ≤ n, números reales dados, y siendo xj ∈ IR, 1 ≤ j ≤ n, a los aij
se les denominan los coeficientes del sistema (1.1)
Siendo los xi las incógnitas y siendo b el vector de términos independientes conocido.

x1 b1
x2 b2
x= ⋮ , b= ⋮
xn bn

y sea A la matriz cuadrada n × n de termino general aij , es decir,

A = (aij) 1≤i,j≤n,

donde A es una matriz conocida de coeficientes del sistema (1.1)

en notación matricial, el sistema (1.1) de ecuaciones lineales se escribe:

Ax = b

Finalmente, xT=(x1......xn) es el vector solución del sistema

Precisamente, el álgebra lineal proporciona una serie de condiciones que permiten


verificar si Ax=b tiene solución y si esta es única.
De estas condiciones resultan particularmente significativas:

1. Si las filas (columnas) son linealmente independientes, entonces el sistema A.x=b


tiene solución única.
2. En este caso existe A-1, matriz inversa de A, tal que AA-1 = A-1A = 1 (1 matriz identidad
de orden n).
3. La verificación de la condición de independencia lineal de filas y columnas también
implica que para cualquier x  Rn si Ax = 0, entonces x = 0.
4. Si el sistema tiene solución única entonces se verifica que det(A) = A 0

A pesar de la indudable importancia de todas estas condiciones, en el ámbito de la


resolución numérica de sistemas de ecuaciones deben ser empleadas con sumo cuidado.
De acuerdo a las condiciones enunciadas, el sistema de ecuaciones (1.1.) tiene solución
única si y sólo si det(A) = A 0.
En este caso, existirá la matriz inversa de A, A-1, que permite escribir la solución del
sistema de ecuaciones como :

x = A-1.b (1.2)

OBSERVACIÓN:
Las matrices de coeficientes que suelen aparecer en las aplicaciones prácticas son, o
llenas pero no grandes, o matrices huecas. De manera algo imprecisa, por una matriz
llena se entiende una en la que la mayor parte de sus coeficientes son no nulos, y
diremos que no es grande si es de orden menor que 30. Una matriz hueca (sparse en
inglés) es aquella, siendo grande o no, en que la mayor parte de sus coeficientes son
nulos, estando la mayor parte de los no nulos en o por encima de la diagonal principal.
Las matrices llenas pero no grandes aparecen en una gran variedad de problemas de
Estadística, Física, Ingeniería, etc..., mientras que las huecas aparecen generalmente en
la resolución numérica de ecuaciones diferenciales. En general, los métodos directos
suelen estar bien adaptados a ambos tipos de matrices, mientras que los métodos
iterados están mejor adaptados a las matrices huecas.

1- METODOS ITERATIVOS:
 BÁSICOS: Los métodos iterativos parten de una solución inicial y van
modificando sus valores hasta alcanzar una convergencia deseada cuando ésta
sea posible. Se dividen en estacionarios y no estacionarios. Los métodos
estacionarios son métodos clásicos como Jacobi, Gauss-Seidel o SOR y tienen una
convergencia más lenta, aunque su programación es mucho más simple y son
más fáciles de entender. Los métodos no estacionarios tienen una mayor
convergencia.

 PROYECCIÓN: La mayoría de aplicaciones reales de métodos iterativos para


la solución de sistemas de ecuaciones utilizan de alguna manera un método de
proyección. Un proceso de proyección representa una forma canónica de
encontrar una aproximación a la solución de un sistema lineal de un subespacio.
Los métodos de proyección buscan una solución aproximada de un subespacio
en Rn. Si K es el subespacio de búsqueda y m la dimensión, se deben imponer m
restricciones para encontrar la aproximación requerida. Los métodos de
proyección pueden ser usados para hallar los valores propios de una matriz,
como en el caso de los métodos de Gram-Schmidt, Arnoldi y Lanczos. Mediante
estos es posible generar igualmente subespacios de Krylov.
2- METODOS DIRECTOS:
Un método se dice que es directo si obtiene la solución exacta (en ausencia de errores de
redondeo) en un número finito de pasos.
Los métodos directos de resolución de sistemas lineales de ecuaciones son aquellos que
permiten obtener la solución después de un número finito de operaciones aritméticas.
Este número de operaciones es, obviamente, función del tamaño de la matriz.
Si los ordenadores pudieran almacenar y operar con todas las cifras de los números
reales, es decir, si emplearan una aritmética exacta, con los métodos directos se
obtendría la solución exacta del sistema en un número finito de pasos.
Puesto que los ordenadores tienen una precisión finita, los errores de redondeo se
propagan y la solución numérica obtenida siempre difiere de la solución exacta.
La cota del error, para una matriz y término independiente dados, se asocia por lo
general al número de operaciones de cada método. Se pretende, por lo tanto, obtener
métodos con el mínimo número de operaciones posible.
Otra particularidad de los métodos directos es que siempre conducen, después de
ciertas operaciones, a la resolución de uno o varios sistemas con solución inmediata. Es
decir, sistemas donde la matriz es diagonal o triangular. Los métodos para sistemas de
resolución inmediata son, de hecho, métodos directos.
Una clasificación habitual de estos procedimientos de resolución es aquella que
considera que los mismos pertenecen a una de las dos categorías siguientes: métodos
de eliminación y métodos de descomposición.
En el cuadro siguiente se presenta un esquema con la clasificación de los procedimientos
de cálculo más característicos.

Clasificación de los métodos directos

 Matriz Diagonal, A = D
 Sistemas con solución inmediata  Matriz Triangular Superior, A = U
 Matriz Triangular Inferior, A = L

 Métodos de Eliminación  Método de Gauss


 Método de Gauss-Jordan

 Método de Doolittle, A = LU
 Método de Crout, A = LU
 Métodos de Descomposición  Método de Cholesky, A = L.LT
 Descomposición generalizada, A=L.D.LT
 Método de Thomas (A Tridiagonal)

 Métodos de ortogonalización
2.1- METODO DE GAUSS
El método de Gauss consiste en transformar un sistema de ecuaciones en
otro equivalente de forma que éste sea escalonado.
Obtenemos sistemas equivalentes por eliminación de ecuaciones
dependientes. Si:
 Todos los coeficientes son ceros.
 Dos filas son iguales.
 Una fila es proporcional a o tra.
 Una fila es combinación lineal de otras.

CRITERIOS DE EQUIVALENCIA DE SISTEMAS DE ECUACIONES


1- Si a ambos miembros de una ecuación de un sistema se les suma o se les resta
una misma expresión, el sistema resultante es equivalente.

2- Si multiplicamos o dividimos ambos miembros de las ecuaciones de un sistema


por un número distinto de cero, el sistema resultante es equivalente.

3- Si sumamos o restamos a una ecuación de un sistema otra ecuación del mismo


sistema, el sistema resultante es equivalente al dado.

4- Si en un sistema se sustituye una ecuación por otra que resulte de sumar las dos
ecuaciones del sistema previamente multiplicadas o divididas por números no
nulos, resulta otro sistema equivalente al primero.

5- Si en un sistema se cambia el orden de las ecuaciones o el orden de las incógnitas,


resulta otro sistema equivalente.

[3]
ALGORITMO DE ELIMINACIÓN GAUSSIANA
El Algoritmo de Gauss o de Eliminación gaussiana consta de los siguientes pasos:
1- Determine la primer columna (a la izquierda) no cero.
2- Si el primer elemento de la columna es cero, intercámbielo por un renglón que
no tenga cero.
3- Obtenga ceros abajo del elemento delantero sumando múltiplos adecuados a los
renglones debajo de él.
4- Cubra el renglón y la columna de trabajo y repita el proceso comenzando en el
paso 1. Al termino del ciclo entre el paso 1 al 4 (es decir cuando se han barrido
todos los renglones), la matriz debería tener forma de escalón.
5- Comenzando con el ´ultimo renglón no cero avance hacia arriba para que en cada
renglón tenga un 1 delantero y arriba de él queden solo ceros. Para ello debería
sumar múltiplos adecuados del renglón a los renglones correspondientes.

Es importante observar que en el método de eliminación Gaussiana:


Los pasos del 1 a 4 aplicados repetidamente escalonan la matriz; el paso 5 aplicado
repetidamente reduce la matriz.
En el paso 2, si el elemento no es cero no se realiza intercambio.
En el paso 3, los elementos que se hacen cero son solo los inferiores al pivote

Este método se aplica para resolver sistemas lineales de la forma:


Ax = b
El método de eliminación Gaussiana (simple), consiste en escalonar la matriz aumentada del
sistema:
(A⋮B)
para obtener un sistema equivalente:

donde la notación se usa simplemente para denotar que el elemento cambió. Se despejan las
incógnitas comenzando con la última ecuación y hacia arriba. Por esta razón, muchas veces se
dice que el método de eliminación Gaussiana consiste en la eliminación hacia adelante y
sustitución hacia atrás
COMENTARIOS DEL METODO DE GAUSS:

APLICACIONES DEL METODO DE GAUSS


 Resolución de sistemas de ecuaciones lineales con solución única (det A ≠ 0)
 Resolución de sistemas de ecuaciones lineales sin saber si det A ≠ 0
 Discusión general de sistemas de ecuaciones lineales
 Resolución simultanea de sistemas de ecuaciones lineales
 Calculo eficiente de determinantes
 Calculo eficiente de inversas

INCONVENIENTES DEL MÉTODO DE GAUSS


 No adecuado para sistemas muy grandes (dispersos)
 Inestable
El Método de Gauss – Jordan o también llamado eliminación de Gauss – Jordan

Es un método por el cual pueden resolverse sistemas de ecuaciones lineales con n


números de variables, encontrar matrices y matrices inversas, en este caso
desarrollaremos la primera aplicación mencionada.

Procedimiento de eliminación de Gauss-Jordan.

Las fórmulas de Cramer son de importante interés teórico, sin embargo no tienen gran
aplicación en la práctica debido a que requiere mucha labor de cálculo. En cambio, el
método de eliminación para resolver sistemas de ecuaciones lineales, de Gauss - Jordan,
tiene más aplicación, en problemas pequeños y grandes, sobre todo en la solución de
modelos de programación lineal. Para resolver un sistema de ecuaciones con este
método se emplea la eliminación sucesiva de las incógnitas según este esquema:
Considere las siguientes m ecuaciones lineales:

Ahora se arregla una matriz B de este sistema, ampliada con los b(i) (línea vertical).

Después se hacen transformaciones elementales con los renglones de la matriz, lo cual


es equivalente a hacerlo con las respectivas ecuaciones:

1. Se permite cambiar el orden de las filas.


2. Se pueden multiplicar los renglones por cualquier número diferente de cero.
3. Sumar a un renglón de la matriz, otra fila multiplicada por cualquier número.

Así se obtiene una matriz ampliada de un nuevo sistema equivalente al original pues se
reduce la matriz B a la forma más sencilla posible que incluya la solución del sistema. A
continuación se presenta el procedimiento detallado:

1. Intercambio de ecuaciones y de la posición de las incógnitas para que a11 0.


2. Multiplicación de la primera ecuación por una constante apropiada diferente de
cero, para lograr a11 = 1.
3. Para toda i > 1, se multiplica la primera ecuación por -ai1 y luego se suma a la i-
ésima ecuación, de tal manera que la primera incógnita queda eliminada.

Considere el siguiente ejemplo con anotaciones del cálculo a la izquierda:


La matriz ampliada de este sistema es:

Se resta: el renglón (1) del (2) y el (3), el (1)(3) al (4), resultando la matriz:

Se permutan los renglones (2) y (3) para tener el coeficiente 1en renglón 2

El renglón (2) se duplica y se resta al (1) y al (4), el (2) se triplica y se resta al (3)

El (3) se divide entre (-14), el coeficiente 1 resultante se usa para operar con el cálculo
que se indica en la columna izquierda

La columna derecha de la última matriz tiene la solución del sistema propuesto: X1 = -1,
X2 = 0, X3 = 1
Matriz Inversa por el

Método de Gauss-Jordan

AX=Y matriz aumentada.


Solo son invertibles para sistemas cuadrados.
Sea A = (a ij) una matriz cuadrada de coeficientes orden n. Para calcular la matriz
inversa de A, que denotaremos como A-1, seguiremos los siguientes pasos:
Paso 1. Construir la matriz n x 2n M = (A I) esto es, A está en la mitad izquierda
de M y la matriz identidad I en la derecha.
Paso 2. Se deja tal y como está la primera fila de M, y debajo del primer término de la
diagonal principal, a11, que llamaremos pivote, ponemos ceros. Luego se opera como
se indica en el siguiente ejemplo.
Ejemplo:
Consideremos una matriz 3 x 3 arbitraria

Paso 1.

Paso 2.

Ejemplo:
Supongamos que queremos encontrar la inversa de

La mitad izquierda de M está en forma triangular, por consiguiente, A es invertible. Si


hubiera quedado toda una fila con ceros en la mitad A de M, la operación habría
terminado (A no es invertible). A continuación, cogemos como pivote a33, ponemos
ceros encima de éste y seguimos operando hasta que nos quede una matriz diagonal.
,

La matriz que ha quedado en la mitad derecha de M es precisamente la matriz inversa


de A:

Para comprobar si el resultado es correcto, se procede a multiplicar AA-1, teniendo que


dar como resultado la matriz identidad I.

por =
BIBLIOGRAFIA:
[1]http://handbook.usfx.bo/nueva/vicerrectorado/citas/TECNOLOGICAS_20/Ingenieria%20Sist
emas/6.pdf

[2] http://www.ugr.es/~mpasadas/ftp/Tema3_apuntes.pdf
[3] http://www.ana.iusiani.ulpgc.es/metodos_numericos/document/apuntes/Parte2.pdf

[4]http://www1.eafit.edu.co/cursonumerico/capitulo3/sesion_1/documentos/eliminacion_ga
usiana.pdf
[5]http://www.ana.iusiani.ulpgc.es/metodos_numericos/document/apuntes/Parte2.p
df

http://www.monografias.com/trabajos72/resolucion-sistemas-metodo-gauss-
jordan/resolucion-sistemas-metodo-gauss-jordan.shtml

http://dieumsnh.qfb.umich.mx/matematicas/inversa.htm

Anda mungkin juga menyukai