: son los coeficientes constantes de las variables donde el subíndice “i” representa el número de fila y “j” el
número de columna.
Existen varios métodos para determinar la solución de sistemas de ecuaciones lineales entre los cuales se
encuentran:
1. Método gráfico
2. Regla de Cramer
Método gráfico
Como su nombre lo indica consiste en graficar las ecuaciones en un sistema cartesiano, cada ecuación representa
una línea recta cuando n = 2 y un plano en el espacio cuando n = 3. (n = número de incógnitas) de tal forma que
la intersección de las rectas o de los planos es la solución del sistema.
+ =
+ =
Despejando x2 de cada ecuación:
= − +
= − +
Las dos ecuaciones están expresadas en la forma:
Las líneas se grafican en coordenadas cartesianas con x2 como ordenada y x1 como abscisa.
Ejemplo:
Aplicando el método gráfico determine la solución del siguiente sistema.
" + = #
− + =
Gráfica de las líneas del sistema.
20
18
16
14
12
10
−5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 8 9 10
−2
−4
−6
−8
− 10
Posibles casos:
1) No hay solución
2) Hay infinitas soluciones
3) Sistema mal condicionado
Regla de Cramer.
Cada incógnita de un sistema de ecuaciones puede expresarse como una fracción de dos determinantes, el
denominador es el determinante de la matriz de coeficientes del sistema y el numerador es el determinante de la
matriz que resulta de sustituir o reemplazar la columna de coeficientes de la incógnita en cuestión por el vector de
las constantes b1, b2, ...,bn.
Métodos de eliminación
Consiste en crear una matriz aumentada del sistema con la matriz de coeficientes y el vector de términos
independientes y sobre esta matriz efectuar operaciones elementales de renglón con el objeto de hacer ceros los
elementos debajo de su diagonal principal obteniéndose un sistema de ecuaciones lineales equivalente a partir del
cual y por sustitución hacia atrás se determinan los valores de las incógnitas.
Las operaciones fundamentales de renglón que se pueden aplicar a un sistema de ecuaciones para obtener otro
sistema equivalente (que tienen las mismas soluciones) son:
)'. '#,+"
" = =)
'. '',+
Es una derivación de la eliminación gaussiana la cual consiste en reducir la matriz aumentada del sistema de tal
forma que los elementos de la diagonal principal de la matriz de coeficientes sean todos unos y el resto de los
elementos tengan valor cero lo cual tiene la ventaja de no ser necesario el proceso de sustitución hacia atrás pues
pueden leerse en forma directa los resultados del sistema.
Eliminación de Gauss-Jordan
•
+ "" = #
División por cero
También se pueden presentar problemas cuando un coeficiente está muy cercano a cero ya que se pueden
introducir errores de redondeo.
“Se determina el coeficiente más grande disponible en la columna debajo del elemento pivote. Los
renglones se pueden intercambiar de manera que el elemento más grande sea el elemento pivote.”
Las computadoras manejan sólo un número limitado de cifras significativas por lo que es posible que ocurran
errores de redondeo los cuales deben considerarse al evaluar los resultados.
Como regla general es posible afirmar que los errores de redondeo son de importancia cuando se trata de
sistemas de 100 o más ecuaciones.
En cualquier caso se deben sustituir los resultados en las ecuaciones y verificar la magnitud del error.
Si efectuamos los cálculos con seis cifras significativas se obtiene de la eliminación gaussiana:
)'. '#,"
" = = ). ''''"
'. '''
= "
La solución exacta es:
= −. *
" = ). '
Son aquellos en los cuales pequeños cambios en los coeficientes generan grandes cambios en la solución
además de que un amplio rango de resultados puede satisfacer las ecuaciones en forma aproximada.
Cuando se generan errores en el redondeo estos pueden provocar cambios pequeños en los coeficientes los
cuales a su vez pueden generar errores grandes en los sistemas mal condicionados.
+ = '
. + = '. ,
' − '. ,
Solución:
= =,
− .
'. , − . '
= ="
− .
' − '. ,
Con el cambio de 1.1 a 1.05:
= =#
− . '*
'. , − . '
= =
− . '*
Si se sustituyen estos valores en las ecuaciones originales se obtiene:
“La sustitución de los valores obtenidos en las ecuaciones originales no permite garantizar que las soluciones
son adecuadas”.
Un sistema mal condicionado se forma cuando las rectas tiene pendientes muy similares de tal forma que
hay cierta dificultad para manifestar en qué punto se intersectan.
Para el sistema:
+ =
+ =
= − +
= − +
Si las pendientes son muy similares:
≅
Sin embargo el determinante de la matriz de coeficientes de un sistema puede cambiar si se multiplica una o
más ecuaciones por un factor determinado de escalonamiento.
23 + 225 = 10
1.123 + 225 = 10.4
D = 1(2)-2(1.1) = -0.2
D = 10(20)-20(11) = -20
La magnitud de los coeficientes interpone un efecto de escalonamiento que complica la relación entre la
condición del sistema y el tamaño del determinante.
La forma de evitar lo expuesto en el párrafo anterior es escalando las ecuaciones en forma tal que el
elemento máximo en cualquier renglón sea igual a 1.
Ejemplo:
" + = #
a) Sistema bien condicionado
− + =
+ '. 00) = 0
−'. * + =
+ = '
. + = '. ,
'. * + = *
'. ** + = *.
Para el sistema en el que se aplica la eliminación gaussiana (dado que se efectúan cambios de renglones) la
expresión para el determinante se obtiene de la siguiente expresión:
• Sistemas singulares.
Son aquellos sistemas que tienen infinitas soluciones o no tienen solución.
Para detectar sistemas singulares basta con calcular su determinante ya que en este tipo de sistemas el
determinante de la matriz de coeficientes es igual a cero.
“Si durante el proceso de eliminación gaussiana un elemento de la diagonal principal se hace cero el cálculo
se puede terminar inmediatamente y en el programa de computadora puede emitirse un mensaje de alerta
al usuario”.
;<=>?@ = >A@
Supongamos que existe una matriz diagonal inferior con números 1 en la diagonal:
' '
H=- '.
" "
;H=;G= = ;<=
;H=>$@ = >C@
A partir de la ecuación ;K=>M@ = >N@ se genera un vector intermedio >M@ mediante sustitución hacia adelante.
2) Paso de sustitución.
El resultado se sustituye en la ecuación ;L=>O@ − >M@ = 0 resolviéndose por sustitución hacia atrás para >O@.
Para descomponer la matriz de coeficientes de un sistema de tres ecuaciones y tres incógnitas, se procede como
se indica a continuación:
Al realizar el proceso de eliminación gaussiana se obtendría una matriz triangular superior de la forma:
El signo de prima y doble prima que tienen algunos de los elementos indica que han sido modificados una o dos
veces respectivamente respecto a los valores iniciales.
El primer paso de la eliminación gaussiana consiste en multiplicar el renglón 1 por el factor:
P =
"
P" =
Finalmente para eliminar ′Q5 es necesario multiplicar el segundo renglón modificado por
′"
P" =
′
' '
;H= = -P '.
P" P"
• Implica menor trabajo que la eliminación gaussiana al no realizar operaciones con el lado derecho de las
ecuaciones (términos constantes).
• Resulta muy eficiente cuando deben resolverse ecuaciones con la misma matriz de coeficientes pero con
diferentes constantes del lado derecho.
Por ejemplo para una matriz de 3X3 los tres vectores >N@ que se utilizarían son:
columnas de una matriz identidad del mismo tamaño que la matriz de la cual se quiere obtener la inversa.
>C@ = E'F
'
'
>C@ = EF
'
'
>C@ = E'F
• La solución para cada vector >N@ representan las columnas de la matriz inversa correspondiendo la solución
obtenida con el vector formado por la primer columna de la matriz identidad a la primer columna de la
matriz inversa y así sucesivamente.
La matriz inversa puede emplearse para determinar si los sistemas están mal condicionados:
Procedimiento 1.
a) Escalar la matriz de coeficientes de forma que el elemento más grande en cada fila o renglón sea 1.
b) Invertir la matriz escalada.
c) Si existen elementos de la matriz inversa que sean varios órdenes de magnitud mayores que 1 es posible que
el sistema esté mal condicionado.
Procedimiento 2.
Procedimiento 3.
a) Invertir la matriz inversa.
b) Si el resultado no es cercano a la matriz de coeficientes original entonces el sistema es mal condicionado.
NORMA MATRICIAL
Una norma es una función que toma valores reales y proporciona una medida del tamaño o longitud de matrices.
Norma de Frobenius:
‖<‖ = ST T ,!
V !V
%á
‖<‖W = TZ! Z
≤≤
!V
Se calcula la suma del valor absoluto de los elementos por cada renglón y la mayor de éstas se toma como la
norma.
Para evaluarla la matriz de coeficientes debe ser escalada de tal forma que el máximo valor en cada renglón sea
1.
Si ^_`a ;b= es considerablemente mayor que la unidad esto sugiere que el sistema está mal condicionado.
DESCOMPOSICIÓN DE CHOLESKY
Una matriz simétrica es aquella en la cual = para toda i, j además se cumple que ;b= = ;b=c .
;<= = ;H=;H=d
e − ∑:
= = , , … . , e −
!V ! e!
e
e:
ee = See − T
e!
!V
6 15 55
15 55 225
55 225 979
>B@d ;<=>B@
1 4 9 16
4 9 16 25
9 16 25 36
16
25 36 49
Al calcular el elemento h55 se obtiene la raíz cuadrada de un número negativo (un número imaginario).
;<=>B@ = >C@
Sea
1. Factorizar la matriz ;b= de coeficientes del sistema en la matriz triangular inferior L y su transpuesta.
2. A partir de la ecuación ;K=>M@ = >N@ se genera un vector >M@ mediante sustitución hacia adelante.
3. Este vector intermedio se sustituye en la ecuación ;Kc =>O@ = >M@ para mediante sustitución hacia atrás obtener
la solución del sistema >O@.
4 1 5
6 x 21
1 11 2 4 y 11
⋅ :=
5 2 13 7 z 9
6
4 7 15 w 13
Este método es iterativo y consiste en despejar, de cada una de las ecuaciones del sistema, una de las variables de
tal forma que se tenga a cada variable en términos de las demás.
' − )
Ejemplo:
-−" −0
. E F = E−0. *F
* " −. *
) − + "
=
'
−. * − −
" =
*
Se eligen valores iniciales de las variables para comenzar el proceso iterativo (generalmente todas iguales a cero).
Se calcula x1 a partir de los valores iniciales de x2 y x3, posteriormente se evalua x2 empleando el valor calculado de
x1 y el valor inicial de x3, después se evalua x3 empleando los valores de x1 y x2 previamente calculados; el proceso
se repite obteniendo siempre cada variable a partir de los valores previos más recientes de las otras variables.
El proceso iterativo se detiene cuando el error relativo absoluto porcentual aproximado en todas las variables es
menor que un error prefijado i.
−
! !:
Zj, Z = & & ''% < i
!
CRITERIO DE CONVERGENCIA
El método siempre converge a la solución si la matriz de coeficientes del sistema es diagonalmente dominante, es
decir, si cada uno de los elementos de la diagonal principal es mayor a la suma de los valores absolutos de resto de
los elementos del renglón correspondiente.
21 4 3 2
5 17 6 1
2 8 25 11
7
9 11 33
7 9 11 33 7 2 3
4
2 8 25 11 5 19 7 8
5 17 6 1 9 10 25 12
21 13
4 3 2 14 15 30
Este criterio de convergencia es suficiente más no necesario, es decir, puede presentarse el caso de un sistema en
el que la matriz no sea diagonalmente dominante sin embargo al aplicar el método este converja a la solución.
7 2 3 4
5 19 7 8
9 10 25 12
13
14 15 30
Después de que se calcula cada nuevo valor de la variable xi este valor se modifica mediante un promedio
ponderado de los resultados de las iteraciones anterior y actual.
Dm
= λDm
+ − λ
Si 0 < λ <1 la modificación se conoce como subrelajación. Hace que un sistema no convergente, converja o
apresure la convergencia al amortiguar sus oscilaciones.
Si 1 < λ < 2 la modificación se conoce como sobrerelajación, permite acelerar la convergencia de un sistema que
ya sea convergente.
La elección de un valor adecuado de λ se determina en forma empírica. Esta técnica se aplica si el sistema de
ecuaciones se va a resolver de manera repetida.
MÉTODO DE JACOBI