Anda di halaman 1dari 7

1 Eliminación Gaussiana

1.1 Introducción y ejemplo


1.1.1 Discusión de la ecuacion lineal escalar
Se considera la ecuación lineal escalar
a · x = b, a, b ∈ R.
Dicha ecuación tiene solución única si, y sólo si, a 6= 0, tiene infinitas soluciones si a = b = 0 y, por último,
carece de solución si a = 0 pero b 6= 0.

1.1.2 Discusión e interpretación geométrica de sistemas lineales 2 × 2


Considérese ahora el sistema lineal de 2 ecuaciones con 2 incógnitas
a11 x + a12 y = b1 ,
a21 x + a22 y = b2 .
Dicho sistema tiene solución única si las rectas representadas por dichas ecuaciones se cortan en un punto
(equivalentemente si a11 a22 − a12 a21 6= 0), tiene infinitas soluciones si las dos rectas son coincidentes (si
a11 = λa21 , a12 = λa22 y b1 = λb2 ) y no tiene solución si las dos rectas son paralelas, es decir, si a11 = λa21 ,
a12 = λa22 y b1 6= λb2 .

1.1.3 Sistemas lineales generales


Sea el sistema de m ecuaciones lineales con n incógnitas
a11 x1 + a12 x2 + · · · + a1n xn = b1 ,
a21 x1 + a22 x2 + · · · + a2n xn = b2 ,
(1) ··· = ···
am1 x1 + am2 x2 + · · · + amn xn = bm .
El tablero m × n
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 
(2) A=
··· ··· ··· ···

am1 am2 · · · amn
recibe el nombre de matriz de coeficientes de (1) y las columnas

b1 x1
  
 b2   x2 
b=
 ...  ,
 x=
 ... 

bm xn
son el término independiente y el vector de incógnitas, respectivamente.
En determinados casos, el sistema lineal que se quiere resolver tiene una estructura tal que permite su
resolución inmediata. Por ejemplo, el sistema lineal
x + 2y − z + 3t = −3,
y + 2z − t = 3,
z − 5t = 2,
15t = 0,
2 Algebra

se puede resolver por sustitución regresiva,


t = 0 (de la última ecuación),
z = 2 + 5t = 2 (de la penúltima ecuación),
y = 3 − 2z + t = 3 − 2 · 2 = −1 (de la segunda ecuación),
x = −3 − 2y + z − 3t = −3 − 2 · (−1) + 2 = 1 (de la primera ecuación).
Si el sistema lineal tiene una forma más general, la idea es construir otro sistema lineal con las mismas
soluciones que el de partida y cuya matriz de coeficientes sea lo suficientemente sencilla como para que se
pueda resolver de manera inmediata. Esto nos lleva al estudio de las matrices y operaciones con matrices,
incluyendo las operaciones elementales sobre las filas de una matriz.

1.2 Notación matricial y propiedades de las matrices


Sección 1.3 de [1]

1.3 Matrices elementales. Eliminación Gaussiana


Sección 1.4 de [1]
Para formalizar el proceso de la eliminación Gaussiana vamos a introducir los conceptos de operaciones
elementales por filas y matrices elementales asociadas.
Comenzamos por introducir una matriz que nos servirá de apoyo y que es aquélla cuyo coeficiente en
la posición r, s vale 1 y tiene el resto de sus coeficientes iguales a cero
Irs = (δri δsj )1≤i≤m,1≤j≤m .
Teorema 1.1 El efecto de multiplicar Irs ∈ Mm,m (R) por una matriz A ∈ Mm,n (R), consiste en poner
como nueva fila r-ésima a la s-ésima de la matriz A, mientras que las restantes se hacen 0.
Demostración. Sean A = (aij )1≤i≤m,1≤j≤n , B = (bij )1≤i≤m,1≤j≤n tales que B = Irs A. Entonces
m
X
bij = δri δsk akj = δri asj ,
k=1

luego si i = r entonces brj = asj mientras que si i 6= r entonces bij = 0, 1 ≤ j ≤ n. 2


Las matrices elementales serán aquéllas que surgen de aplicar una operación elemental por filas a la
matriz identidad. Las operaciones elementales por filas son
1. Permutación de dos filas r y s. La matriz elemental será
E = I − Irr − Iss + Irs + Isr ∈ Mm,m (R).

2. Multiplicación de una fila r por un número λ 6= 0. La matriz elemental será


E = I − Irr + λIrr ∈ Mm,m (R).

3. Suma de la fila s a la fila r. La matriz elemental será


E = I + Irs ∈ Mm,m (R).

En el proceso de eliminación Gaussiana, se efectuará con frecuencia la operación (no elemental) de restar
a la fila r la fila s multiplicada por λ. La matriz que se obtiene al aplicar esta operación por filas a la
matriz identidad es
Ers (λ) = I − λIrs ∈ Mm,m (R).
Algebra 3

Teorema 1.2 Sea Op : Mm,n (R) → Mm,n (R) una transformación definida en términos de operaciones
elementales por filas de la matriz seleccionada. Entonces para A ∈ Mm,n (R)

Op(A) = EA

con E = Op(I) ∈ Mm,m (R).

Demostración. Aplicamos el Teorema 1.1 en cada uno de los casos.

1.

Op(A) = A − Irr A − Iss A + Irs A + Isr A


= (I − Irr − Iss + Irs + Isr )A
= EA

donde E es la matriz elemental adecuada.

2. Multiplicación de una fila r por un número λ 6= 0. La matriz será

Op(A) = A − Irr A + λIrr A


= (I − Irr + λIrr )A
= EA

donde E es la matriz elemental adecuada.

3. Suma de la fila s a la fila r. La matriz será

Op(A) = A + Irs A
= (I + Irs )A
= EA

donde E es la matriz elemental adecuada. 2

Teorema 1.3 Sea A ∈ Mm,n (R). Si restamos a la fila r-ésima de A la fila s-ésima de A multiplicada
por λ la matriz que obtenemos es exactamente

Ers (λ)A.

Demostración. Trivial a partir del resultado anterior. 2

Proposición 1.1 Toda matriz elemental E ∈ Mm,m (R) tiene matriz inversa. Además (Ers (λ))−1 =
Ers (−λ).

Demostración. Si E es la matriz elemental que surge de la primera operación elemental como es obvio
la inversa es ella misma. Si E es la matriz elemental que surge de la segunda operación elemental al
multiplicar la fila por λ 6= 0 la inversa es la matriz asociada con la multiplicación de la misma fila por
λ−1 . Si E es la matriz elemental que surge de la tercera operación elemental, sumar a la fila r la s, r 6= s,
entonces la inversa será BEB donde B es la matriz asociada con la operación elemental “multiplicación
de la fila s por −1”, es decir la inversa es (Ers (1)). La última igualdad es trivial. 2
4 Algebra

1.4 Solución de sistemas de ecuaciones lineales generales


Sección 1.4, 1.5 y 2.2 de [1]
Vamos a centrarnos en la resolución del sistema lineal

(3) Ax = b

donde A ∈ Mm,n (R), x ∈ Rn y b ∈ Rm .


Dicho sistema se dice compatible cuando admite alguna solución e incompatible cuando no admite
solución. Supongamos que (3) es compatible. Se llama solución particular de (3) a una cualquiera de sus
soluciones. Se llama solución general de (3) al conjunto de todas sus soluciones. Conocida una solución
particular del sistema lineal, la solución general se obtiene sumando a dicha solución particular la solución
general del sistema homogéneo asociado Ax = 0.
Si la solución general de (3) se reduce a un único elemento, el sistema se dice que es compatible
determinado; si la solución general consta de más de un elemento, el sistema se dice que es compatible
indeterminado.
Vamos a introducir el concepto de matriz escalonada superior.

Definición 1.1 Se dice que una matriz no nula U ∈ Mm,n (R) está en forma escalonada superior si
se cumplen las propiedades siguientes:
1. Las primeras filas de U corresponden a filas no idénticamente nulas. El primer elemento no nulo de
cada una de las filas se llama pivot.
2. Debajo de cada pivot hay una columna de ceros.
3. Cada pivot está a la derecha del pivot de la fila anterior.

Es fácil comprobar que para sistemas lineales con matriz de coeficientes en forma escalonada superior
se verifica
1. El sistema es compatible si, y sólo si, filas nulas de U corresponden a componentes nulas del término
independiente b.
2. El sistema es determinado si, y sólo si, el número de pivots de U coincide con el número de incógnitas.
3. Si el sistema es compatible indeterminado, la solución general se obtiene dando valores arbitrarios
a las incógnitas asociadas a las columnas sin pivot (variables libres) y hallando el valor de cada
una de las incógnitas asociadas a columnas con pivot (variables básicas) resolviendo por susti-
tución regresiva el sistema triangular superior que se obtiene al pasar al término independiente la
contribución de las variables libres.

Ejemplo 1.1 Estudiar lo que sucede para la matriz


1 3 8 4
 
0 0 3 8
A= .
0 0 d 8
0 a 4 1
Definición 1.2 Se dice que dos sistemas lineales con el mismo número de incógnitas son equivalentes
si, o bien ambos son incompatibles, o bien, ambos son compatibles y comparten las mismas soluciones.

Definición 1.3 Se define la matriz ampliada del sistema lineal (3) como la matriz

A0 = [A, b] ∈ Mm,n+1 (R)


Algebra 5

Proposición 1.2 Los sistemas lineales que se obtienen a partir de un sistema lineal dado mediante op-
eraciones elementales sobre las filas de la matriz ampliada son equivalentes al sistema lineal de partida.

Demostración. Basta ver que si Op es una operación elemental por filas, las soluciones de los sistemas
lineales
Ax = b y Op(A)x = Op(b)
son las mismas.
Sea E = Op(I) la correspondiente matriz elemental. Entonces Op(A) = EA y Op(b) = Eb. Si x es la
solución de Ax = b, premultiplicando por E se obtiene que x también es solución de Op(A)x = Op(b).
Recı́procamente, si x es la solución del sistema transformado, como E tiene inversa premultiplicando por
E −1 se tiene que x es solución del sistema original. 2

Ejemplo 1.2 Discutir la resolubilidad de los siguientes sistemas lineales llevándolos a forma escalonada
superior mediante operaciones elementales por filas:

x + 2y − z + 3t = −3 x + 2y − z + 3t = −3 x + 2y − z + 3t = −3
2x + 4y − z + t = −4 2x + 4y − z + t = −4 2x + 4y − z + t = −4
y + 2z − t = 3 y + 2z − t = 3 y + 2z − t = 3
x+y+z−t = 2 x + y + z − 16t = 2 x + y + z − 16t = 1

Teorema 1.4 Se considera el sistema lineal Ax = b, A ∈ Mm,n (R), x ∈ Rn y b ∈ Rm .


1. Existe una secuencia finita de operaciones elementales por filas (efectuadas sobre la matriz ampliada
A0 ) que llevan dicho sistema a otro equivalente con matriz en forma escalonada superior.
2. Si las operaciones elementales involucradas en la reducción de A a forma escalonada superior no
corresponden a permutación de filas (eliminación Gaussiana sin pivotaje), se puede concluir que ex-
isten matrices L ∈ Mm,m (R) triangular inferior con elementos diagonales no nulos y U ∈ Mm,n (R)
escalonada superior tales que
A = LU.

3. Si alguna de las operaciones elementales involucradas en la reducción de A a forma escalonada supe-


rior corresponde a una permutación de filas (eliminación Gaussiana con pivotaje), se puede concluir
que existen matrices P ∈ Mm,m (R) matriz de permutación (producto de matrices elementales del
primer tipo), L ∈ Mm,m (R) triangular inferior con elementos diagonales no nulos y U ∈ Mm,n (R)
escalonada superior tales que
P A = LU.

4. Si A ∈ Mm,m (R) es cuadrada y los pivots que se generan en la eliminación Gaussiana sin pivotaje
son todos no nulos, existen matrices L ∈ Mm,m (R) triangular inferior con unos en la diagonal y
U ∈ Mm,m (R) triangular superior con elementos diagonales no nulos tales que

A = LU.

Además, las matrices L y U son únicas.

Ejemplo 1.3 Hallar una factorización P · A = L · U de la matriz

1 2 0 −1 −2
 
 2 4 0 −2 −3 
A= .
3 7 2 1 −3
−1 0 4 9 7
6 Algebra

1.4.1 Sistemas con matriz simétrica

Definición 1.4 Sea A ∈ Mm,m (R). Se dice que A es simétrica si A = AT .

Proposición 1.3 Sea A ∈ Mm,m (R). Si A es invertible entonce A−1 también es simétrica.

Demostración. (A−1 )T = (AT )−1 = A−1 . 2

Teorema 1.5 Si A ∈ Mm,m (R) es simétrica y se puede factorizar en la forma A = LDU sin intercambios
de filas (que destruyen la simetrı́a) entonces U = LT . Es decir A tiene una factorización simétrica
A = LDLT .

Demostración. Como A = LDU entonces AT = U T DT LT y como A es simétrica A = U T DT LT .


Ahora por el teorema de unicidad

U T = L, DT = D, U = LT

y hemos concluido. 2

1.4.2 Sistemas homogéneos

Un sistema lineal Ax = b se llama homogéneo si b = 0. Todo sistema lineal homogéneo es compatible


pues siempre admite como solución x = 0. El sistema será determinado si al reducir la matriz A a
forma escalonada superior, el número de pivots coincide con el número de incógnitas, es decir, no hay
variables libres. El sistema será indeterminado si el número de pivots es inferior al número de incógnitas.
La solución general se obtiene dando valores arbitrarios a las variables libres y despejando las variables
básicas en función de las variables libres.
Como consecuencia de lo anterior, todo sistema lineal homogéneo con más incógnitas que ecuaciones
es compatible indeterminado.

1.4.3 Sistemas con varios términos independientes

Supongamos ahora que hay que resolver varios sistemas lineales con la misma matriz de coeficientes

Ax = bi , 1 ≤ i ≤ k.

(a) Si se conocen todos los términos independientes desde el principio, lo más aconsejable es formar la
matriz ampliada
[A, b1 , b2 , . . . , bk ]

y efectuar operaciones elementales por filas sobre esta matriz ampliada hasta llevar A a forma escalonada
superior. Después, resolver por sustitución regresiva los k sistemas lineales con matriz escalonada superior
obtenidos de este modo.
(b) Si no se conocen todos los términos independientes al principio, lo más aconsejable es conservar
las matrices P , L y U de una factorización P A = LU de la matriz de coeficientes. Resolver cada sistema
lineal Ax = bi se reduce a resolver dos sistemas lineales, uno con matriz triangular inferior y otro con
matriz escalonada superior:
Lyi = P bi , U xi = yi .
Algebra 7

1.5 Cálculo de la inversa de una matriz


Para proceder al cálculo de la inversa frecuentemente se utiliza el algoritmo de reducción de Gauss-Jordan,
que se explicará en clase.
Proposición 1.4 Sea A ∈ Mm,m (R). Se cumplen
(1) Si la primera columna de A es nula, entonces A no admite inversa.
(2) Si en el proceso de reducción de Gauss-Jordan encontramos un paso en el cual la columna truncada
por debajo del elemento a la derecha del pivot anterior es nula, entonces la matriz A no admite inversa.
Demostración.
(1) Es claro que si A = [0, Ã], con à ∈ Mm,m−1 (R), entonces para cualquier B ∈ Mm,m (R) se verifica
BA = B[0, Ã] = [0, B Ã],
que, por tener la primera columna nula, nunca puede ser igual a I. Luego A no puede admitir inversa.
(2) Sea à la primera matriz obtenida a partir de A satisfaciendo las hipótesis del apartado (b) de la
proposición y supongamos que la columna truncada nula es la i-ésima.
Razonemos ahora por reducción al absurdo y supongamos que A admite inversa. Como à = Ei−1 · · · E1 ·
A y las matrices Ek son invertibles, Ã admite inversa. Sea B dicha inversa. El producto de la fila i-ésima
de B por à debe ser la fila i-ésima de la matriz identidad I, lo cual es absurdo puesto que de igualar
los primeros i − 1 elementos se deduce que bi,1 = bi,2 = · · · = bi,i−1 = 0 y entonces el elemento (i, i) del
producto B Ã es 0 al ser nulos los primeros i − 1 elementos de la fila i-ésima de B y nulos los últimos
(m − i + 1)elementos de la columna i-ésima de Ã. 2
Teorema 1.6 Sea la matriz cuadrada A ∈ Mm,m (R).
(1) Si existe una secuencia finita de operaciones elementales por filas que llevan A a la matriz identidad,
entonces A es invertible. De hecho la inversa de A viene determinada por
A−1 = Ep Ep−1 · · · E1 ,
siendo E1 , . . ., Ep las matrices asociadas con las operaciones elementales por filas involucradas.
(2) Recı́procamente, si A posee inversa, entonces es posible reducirla a la matriz identidad por medio
de una secuencia finita de operaciones elementales por filas.
Demostración.
(1) Según sabemos, el resultado de una operación elemental por filas actuando en A viene dado por
EA, siendo E = Op(I) siempre regular (visto también anteriormente). La hipótesis que hacemos en (1)
se traduce pues en que
Ep Ep−1 · · · E1 A = I.
La matriz B = Ep Ep−1 · · · E1 será por tanto la inversa de A.
(2) Mediante el proceso de reducción llegaremos con seguridad a una forma diagonal con todos los
elementos diagonales diferentes de cero (en otro caso la matriz no puede poseer inversa, según el lema). A
partir de esta forma diagonal es inmediato transformarla en la matriz I. 2
Es claro que podrı́amos haber realizado un proceso semejante con columnas, en lugar de con filas.
Ejemplo 1.4 Hallar la inversa de la matriz
   
0 1 1 −1 1 0
A = 1 1 1 , A−1 = 1 −2/3 1/3  .
2 2 −1 0 2/3 −1/3

References
[1] G. Strang, Algebra Lineal y sus Aplicaciones, Addison-Wesley Iberoamericana 1986.

Anda mungkin juga menyukai