2.1 Matrices.
2.1.1 Definiciones básicas.
Una matriz es una tabla rectangular de números, es decir, una distribución ordenada de
números. Los números de la tabla se conocen con el nombre de elementos de la matriz.
El tamaño de una matriz se describe especificando el número de filas y columnas que la for-
man. Si A es una matriz de m filas y n columnas, Am×n , se usará aij para denotar el elemento
de la fila i y la columna j y, en general, se representará por
a11 a12 · · · a1n
a21 a22 · · · a2n
A = (aij ) 1≤i≤m = (aij )m×n =
.. .. . .
1≤j≤n . . · · · ..
am1 am2 · · · amn
Se dice que dos matrices son iguales si tienen el mismo tamaño y los elementos correspon-
dientes en ambas matrices son iguales.
Una matriz An×n (ó An ) se denomina matriz cuadrada de orden n y de los elementos de
la matriz a11 , a22 , ..., ann se dice que forman la diagonal principal. De una matriz A1×n se
dice que es una matriz fila y de una matriz Am×1 que es una matriz columna.
(lo denotaremos por cij = FiA ×CjB cuando queramos significar la fila y columna que intervienen).
Preliminares. 16
2.2 Lenguaje matricial de los sistemas de ecuaciones.
1 0 ··· 0
0 1 ··· 0
La matriz cuadrada I = In =
.. .. .. ..
, formada por ceros excepto en la diagonal
. . . .
0 0 ··· 1
principal que tiene unos, de llama matriz identidad y verifica que para toda Am×n se tiene
que Im Am×n = Am×n y Am×n In = Am×n . Es decir, es el neutro del producto de matrices.
Observación:
La definición dada de producto de matrices requiere que el número de columnas de la primera
matriz, A, sea igual que el número de filas de la segunda matriz, B , puesto que para el cálculo
de cij ha de haber tantos elementos en la fila i (número de columnas de A) como en la columna
j (número de filas de B ). En forma sinóptica con los tamaños (m × n) · (n × p) = (m × p).
• AB = BA
En general, NO es cierto que: • Si AB = AC necesariamente sea B = C
• Si AB = 0 necesariamente sea A = 0 ó B = 0
à ! à ! à !
0 1 3 7 −1 −1
Ejemplo 2.2 – Con A = , B = y C = obtenemos que AB =
0 2 0 0 0 0
à ! à !
0 0 0 17
6= BA = es decir AB 6= BA y AB = 0 con A 6= 0 y B 6= 0. Además
0 0 0 0
AC = 0 = AB y B 6= C . 4
éste puede escribirse como AX = B donde A = (aij )m×n , X = (xi )n×1 y B = (bj )m×1 .
La matriz A se denomina matriz de los coeficientes, la matriz columna B se denomina
matriz de los términos independientes y la matriz A|B , añadiendo a A la matriz columna
B , se denomina matriz ampliada del sistema.
Preliminares. 17
2.2 Lenguaje matricial de los sistemas de ecuaciones.
Definición 2.4 – Se dice que una matriz cuadrada En×n es una matriz elemental si se obtiene
de efectuar una sola operación elemental sobre la matriz identidad In×n .
Teorema 2.5 – Si la matriz elemental Em×m resulta de efectuar cierta operación elemental sobre
las filas de Im y si Am×n es otra matriz, el producto EA es la matriz m × n que resulta de
efectuar la misma operación elemental sobre las filas de A.
Observación 2.6 – Es claro, que una vez realizada una operación elemental puede deshacerse
mediante otra operación elemental: ası́, si intercambiamos la fila i con la fila j , la operación
elemental que lo deshace es intercambiar de nuevo la fila i con la fila j ; si multiplicamos la
fila i por k 6= 0 se deshace multiplicándola de nuevo por k1 y si sumamos a la fila i la fila j
multiplicada por k lo deshacemos restando a la fila i la fila j multiplicada por k (sumando la
fila j multiplicada por −k ).
Denotando por E1∗ , E2∗ y E1∗ a las matrices elementales que deshacen las operaciones ele-
mentales dadas por las matrices elementales E1 , E2 y E3 del ejemplo anterior, tenemos que
0 1 0 1 0 0 1 0 0
E1∗ = 1 0 0 = E1 , E2∗ = 0 12 0 y E3∗ = 0 1 0 .
0 0 1 0 0 1 −3 0 1
Teorema 2.7 – Si E es una matriz elemental, los sistemas AX = B y EAX = EB , tienen las
mismas soluciones.
Demostración:
En efecto, si X0 es solución del sistema AX = B se cumple la igualdad AX0 = B , entonces
(EA)X0 = E(AX0 ) = E(B) = EB , luego X0 es también solución del segundo sistema.
Preliminares. 18
2.2 Lenguaje matricial de los sistemas de ecuaciones.
Ejemplo 2.8 –
5x3 + 10x4 + 15x6 = 5
x1 + 3x2 − 2x3 + 2x5 = 0
2x1 + 6x2 − 5x3 − 2x4 + 4x5 − 3x6 = −1
2x1 + 6x2 + 8x4 + 4x5 + 18x6 = 6
Apliquemos sobre este sistema el método de Gauss, es decir hagamos operaciones elementales,
sobre la matriz A de los coeficientes y, como vimos, también sobre B para que se mantenga la
igualdad. Por comodidad efectuamos las operaciones elementales sobre la matriz ampliada para
con ello realizar las operaciones sobre A y B de una sola vez.
0 0 5 10 0 15 5
1 3 −2 0 2 0 0
A|B = Por la operación (a) cambiamos la fila 1
2 6 −5 −2 4 −3 −1
por la fila 2 (F1 ↔ F2 ).
2 6 0 8 4 18 6
1 3 −2 0 2 0 0
0 0 5 10 0 15 5
Por (b) hacemos cero el 2 de F3 (F3 −2F1 )
2 6 −5 −2 4 −3 −1
y el de F4 (F4 − 2F1 ).
2 6 0 8 4 18 6
1 3 −2 0 2 0 0
0 0 5 10 0 15 5
Hacemos 0 el −1 de F3 (F3 + 15 F2 ) y el 4
0 0 −1 −2 0 −3 −1
de F4 (F4 − 45 F2 ).
0 0 4 8 0 18 6
Preliminares. 19
2.2 Lenguaje matricial de los sistemas de ecuaciones.
1 3 −2 0 2 0 0
0 0 5 10 0 15 5
Cambiamos F3 por F4 (F3 ↔ F4 ).
0 0 0 0 0 0 0
0 0 0 0 0 6 2
1 3 −2 0 2 0 0
0 0 5 10 0 15 5
Esta matriz es escalonada, y nos propor-
0 0 0 0 0 6 2
ciona el sistema
0 0 0 0 0 0 0
x1 + 3x2 − 2x3 + 2x5 = 0
5x3 + 10x4 + 15x6 = 5
6x6 = 2
0=0
cuyas soluciones se encuentran fácilmente sustituyendo de abajo hacia arriba, obteniéndose:
x6 = 31 , x3 = −2x4 , x1 = −3x2 − 4x4 − 2x5 , donde x2 , x4 y x5 pueden tomar cualquier valor.
Las soluciones son: (−3x2 − 4x4 − 2x5 , x2 , −2x4 , x4 , x5 , 31 ) para todo x2 , x4 y x5 . 4
El primer elemento distinto de cero de cada fila lo llamaremos elemento principal y las
incógnitas correspondientes a estos elementos incógnitas principales.
Si en alguna fila el elemento principal está en la columna ampliada, el sistema no tiene
solución –claramente una de las ecuaciones equivalentes será 0x1 + · · · + 0xn = k (con k 6= 0
por ser un elemento principal de la ampliada) y esta igualdad no puede cumplirse para ningún
valor que demos a las incógnitas–.
Preliminares. 20
2.3 Matriz transpuesta.
Preliminares. 21
2.4 Matrices cuadradas.
Observación:
Es claro de la definición que también B es inversible y A una inversa de B .
Nota: Por la definición, para que una matriz sea inversible se ha de verificar AB = I y también
BA = I . Sin embargo es suficiente con que se verifique una de ellas para que la otra también se
verifique como veremos en la proposición 2.20.
Proposición 2.13 – Si una matriz cuadrada A tiene inversa, esta es única. Y la denotaremos
por A−1 .
Demostración:
Supongamos que B y C son inversas de A. Al ser B inversa de A es I = AB , multiplicando
a esta igualdad por C y teniendo en cuenta que C es inversa de A obtenemos que C = C(AB) =
(CA)B = IB = B .
Recordando los comentarios hechos en la observación 2.6, es claro el siguiente resultado para
matrices elementales.
Proposición 2.14 – Las matrices elementales son inversibles y sus inversas son también elemen-
tales:
? De intercambiar dos filas, intercambiarlas de nuevo.
? De multiplicar una fila por k 6= 0, multiplicar esa fila por 1/k .
? De sumar a una fila un múltiplo de otra, restar a esa fila el múltiplo sumado.
(AB)−1 = B −1 A−1 .
Demostración: (
(AB)(B −1 A−1 ) = A(BB −1 )A−1 = AA−1 = I
Basta con operar:
(B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 B = I.
La generalización es inmediata.
Propiedades 2.16 –
a) (A−1 )−1 = A.
b) (An )−1 = (A−1 )n .
c) (kA)−1 = k1 A−1 .
Preliminares. 22
2.4 Matrices cuadradas.
Demostración:
a)⇒b) A es inversible, luego existe A−1 . Si se multiplica por A−1 en la igualdad AX = B se
tiene que A−1 AX = A−1 B , luego X = A−1 B es solución del sistema y es la única.
b)⇒c) Es un caso particular.
c)⇒d) Como la solución del sistema AX = 0 es única, al aplicar el método de Gauss-Jordan a
la matriz A la escalonada reducida tiene que ser, necesariamente I .
d)⇒a) Existen matrices elementales de forma que Ek · · · E2 E1 A = I , luego multiplicando
sucesivamente en la igualdad por las inversas de las matrices elementales, se llega a que
A = E1−1 E2−1 · · · Ek−1 , es decir, A es producto de matrices inversibles y, por tanto, es
inversible.
Corolario 2.19 (Cálculo de A−1 por el método de Gauss) – Si A es inversible, hemos visto que
Ek · · · E2 E1 A = I , luego A−1 = Ek · · · E2 E1 . Puede fácilmente calcularse la inversa a partir
de las operaciones elementales, sin más que realizar sobre I las mismas operaciones elementales
que efectuemos sobre A para llegar a la identidad. Es decir,
(A|I) −→ (E1 A|E1 I) −→ (E2 E1 A|E2 E1 I) −→ · · · −→ (Ek · · · E1 A|Ek · · · E1 I) = (I|A−1 ).
Demostración:
a) Consideremos el sistema AX = 0. Multiplicando por B en ambos lados se tiene que
BAX = B0 = 0, pero al ser BA = I , X = 0 es la única solución del sistema y, por tanto,
A es inversible. Multiplicando en I = BA por A−1 , obtenemos que A−1 = BAA−1 = B .
b) Analogo al anterior.
Definición 2.22 – Llamaremos producto elemental con signo al valor (−1)N a1j1 a2j2 · · · anjn
donde el número N , para cada producto elemental, es el número de “inversiones del orden” en
el conjunto de las columnas {j1 , j2 , . . . , jn }, es decir, el número de veces que cada elemento jk
es menor que alguno de los anteriores a él.
Ejemplo 2.23 – {2, 4, 1, 3}. Para calcular las inversiones tenemos que ver cuantas veces 4, 1
y 3 son menores que sus anteriores. Para el 4, hay inversión cuando 4 < 2, no. Para el 1,
cuando 1 < 2, si ; y cuando 1 < 4, si . Y para el 3, cuando 3 < 2, no; 3 < 4, si ; y 3 < 1, no.
El conjunto presenta entonces tres inversiones, N = 3.
Preliminares. 23
2.4 Matrices cuadradas.
Proposición 2.25 –
a) Si A es una matriz que tiene una fila o una columna de ceros, entonces |A| = 0.
b) Si A es una matriz triangular superior o triangular inferior, |A| es el producto de los
elementos de la diagonal principal, es decir, |A| = a11 a22 · · · ann . (En todos los demás
productos elementales aparece al menos un 0.)
Demostración:
X
det(A0 ) = (−1)N a1j1 · · · kaiji · · · anjn
a) X
=k (−1)N a1j1 · · · aiji · · · anjn = k det(A).
b) Previamente necesitamos el siguiente resultado:
Lema 2.27 – Si en el conjunto {j1 , . . . , jn } intercambiamos dos elementos el número
de inversiones de signo cambia de paridad (de par a impar, o viceversa).
Demostración:
Si intercambiamos los elementos consecutivos ji y ji+1 cambia la paridad, pues si
antes era ji < ji+1 ahora es ji+1 > ji , produciéndose una inversión donde antes no la
habı́a, y si era ji > ji+1 ahora ji+1 < ji , con lo que se elimina una inversión que antes
habı́a. Como con el resto de los elementos no se producen modificaciones, si tenı́amos
N inversiones ahora tendremos N + 1 ó N − 1, luego se cambia de paridad.
Si intercambiamos los elementos ji y jk no consecutivos, podemos hacerlo repitiendo
el proceso comentado arriba, yendo paso a paso intercambiando términos consecutivos.
Hacemos por lo tanto k − i intercambios consecutivos para llevar el elemento ji a la
posición k y haremos k − i − 1 intercambios para llevar jk (que ahora está en la
posición k − 1) a la posición i. Luego hay 2(k − i) − 1, un número impar, de cambios
de paridad y, por tanto, cambia la paridad al intercambiar dos elementos cualesquiera.
Preliminares. 24
2.4 Matrices cuadradas.
Con este resultado, para probar b) basta observar que los productos elementales que aparecen en
el det(A0 ) son los mismos que aparecen en el det(A), aunque intercambiadas las posiciones de los
elementos de las filas en cuestión, es decir, los productos elementales a1j1 · · · akjk · · · aiji · · · anjn
de A0 y a1j1 · · · aiji · · · akjk · · · anjn de A son iguales. Pero como los ı́ndices ji y jk aparecen
intercambiando las posiciones, en el desarrollo del los determinantes tendrán signos contrarios,
luego det(A0 ) = − det(A).
Corolario 2.28 – Una matriz con dos filas iguales tiene determinante cero.
Demostración:
Sea B una matriz cuadrada que tiene la fila i y la fila k iguales, entonces por la
parte b) anterior, si intercambiamos las filas i y k que son iguales se obtiene que
det(B) = − det(B) es decir que det(B) = 0.
X
c) det(A0 ) = (−1)N a1j1 · · · aiji · · · (akjk + kaijk ) · · · anjn
X X
= (−1)N a1j1 · · · aiji · · · akjk · · · anjn + (−1)N a1j1 · · · aiji · · · kaijk · · · anjn
X
= det(A) + k (−1)N a1j1 · · · aiji · · · aijk · · · anjn .
Como este último sumatorio, que es el determinante de una matriz que tiene la fila i y la fila k
iguales, vale 0, se tiene que det(A0 ) = det(A).
Corolario 2.29 –
a) Si E es la matriz elemental resulta de multiplicar una fila de I por una constante k ,
entonces det(E) = k .
b) Si E es la matriz elemental que resulta de intercambiar dos filas de I , entonces det(E) =
−1.
c) Si E es la matriz que resulta de sumar a una fila k un múltiplo de la fila i, de I , entonces
det(E) = 1.
El teorema anterior nos ofrece la posibilidad de calcular el determinante de una matriz usando
el método de Gauss. Si tenemos que Ek · · · E2 E1 A = R, donde R es la matriz escalonada que
se obtiene al aplicar el método de Gauss, se tiene que
y como R es una matriz cuadrada escalonada, es una matriz triangular superior (ver nota
siguiente), y det(R) = r11 r22 · · · rnn .
Nota: Es claro que si una matriz cuadrada la llevamos a una matriz escalonada, ésta ha de ser
triangular superior, pues el elemento principal de la fila 1 está en la posición 11 o más a la
derecha, el elemento principal de la fila 2 está en la posición 22 o más a la derecha, y en general
el elemento principal de la fila i está en la posición ii o más a la derecha. Luego para toda fila
i, los elementos aij con i > j son cero, que es la caracterización de matriz triangular superior.
Preliminares. 25
2.4 Matrices cuadradas.
Ası́ pues, una matriz escalonada cuadrada, o tiene elemento principal en cada fila (y en
consecuencia están todos en la diagonal principal de la matriz) o tiene al menos una fila de
ceros.
En particular, si llevamos la matriz cuadrada a la forma de matriz escalonada reducida, esta
escalonada reducida o es la matriz identidad o tiene al menos una fila de ceros.
Demostración:
La demostración se hace en tres pasos. Primero el caso particular en que A sea una matriz
elemental y luego los casos generales, que A sea una matriz inversible o que no lo sea.
1. Si A es una matriz elemental, por el teorema 2.26 y corolario 2.29 anteriores, se tiene que:
a) det(AB) = k det(B) = det(A) det(B)
b) det(AB) = − det(B) = (−1) det(B) = det(A) det(B)
c) det(AB) = det(B) = 1 det(B) = det(A) det(B)
según el tipo de matriz elemental que sea A.
2. Si A es inversible es producto de matrices elementales (teorema 2.18) y por la parte 1,
Demostración:
Si A es inversible I = AA−1 , luego det(I) = det(AA−1 ) = det(A) det(A−1 ), pero al ser
det(I) = 1 6= 0, necesariamente ha de ser det(A) 6= 0.
Como en la parte 3 de la demostración del teorema anterior ya hemos visto que si A no es
inversible entonces det(A) = 0, queda probado el teorema.
Demostración:
Es claro que los productos elementales que aparecen en ambos determinantes son los mismos,
luego basta probar que además tienen el mismo signo.
Preliminares. 26
2.4 Matrices cuadradas.
Si en la matriz A hacemos cero todos los elementos excepto los que intervienen en un
producto elemental dado, obtenemos una matriz B cuyo determinante es precisamente ese pro-
ducto elemental con signo, es decir det(B) = (−1)N a1j1 · · · anjn ; si en At hacemos cero los
elementos que no intervienen en ese mismo producto elemental se obtiene precisamente B t , y
0
det(B t ) = (−1)N a1j1 · · · anjn . Entonces,
¯ ¯
¯ 0 0 a3j3 ··· 0 ¯
¯ ¯
¯ .. .. .. .. ¯¯
¯ 0 · · · 0 · · · a1j1 ··· 0 . . . ··· .
¯ ¯
¯ 0 · · · 0 · · · 0 ··· a2j2 ¯
¯ 0 0 0 · · · anjn ¯
¯ ¯
|BB t | = ¯¯ a ··· 0 ··· 0 ··· 0 .. .. .. . ¯
3j3 . . . · · · ..
¯ .. .. .. .. .. .. ..
¯
¯
¯ . . . . . . . a 0 0 ··· 0 ¯
¯ 1j1 ¯
¯ 0 · · · anjn · · · 0 ··· 0 .. .. .. .. ¯
¯ . . . ··· . ¯
¯ ¯
¯ 0 a2j2 0 ··· 0 ¯
¯ 2 ¯
¯ a1j 0 0 · · · 0 ¯¯
¯ 1
¯ 0 a2 0 · · · 0 ¯¯
¯ 2j2
¯ ¯
= ¯¯ 0 0 a23j3 · · · 0 ¯ = a21j1 a22j2 a23j3 · · · a2njn ≥ 0,
¯
¯ .. .. .. . . .. ¯
¯ .
¯ . . . . ¯¯
¯ 0 0 0 ··· a 2 ¯
njn
y, por tanto, det(B) det(B t ) = det(BB t ) ≥ 0 y ambos factores tienen el mismo signo.
Teorema 2.34 – El determinante de una matriz A se puede calcular multiplicando los elementos
de una fila (o de una columna) por sus cofactores correspondientes y sumando todos los productos
resultantes; es decir, para cada 1 ≤ i ≤ n y para cada 1 ≤ j ≤ n:
det(A) = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin y det(A) = a1j C1j + a2j C2j + · · · + anj Cnj
Demostración:
Sopongamos que desarrollamos por la fila 1. Si en det(A) agrupamos los términos que
involucran a cada a1k , tenemos que
X X
|A| = (−1)N a11 a2j2 · · · anjn + · · · + (−1)N a1n a2j2 · · · anjn
(1,j2 ,...,jn ) (n,j2 ,...,jn )
n
X X n
X X
= (−1)N a1k a2j2 · · · anjn = a1k (−1)N a2j2 · · · anjn
k=1 (k,j2 ,...,jn ) k=1 (k,j2 ,...,jn )
X
Por otra parte como C1k = (−1)1+k M1k = (−1)1+k (−1)Nk a2j2 · · · anjn , basta comprobar
(j2 ,...,jn )
ji 6=k
que este valor coincide con el que aparece entre paréntesis en el sumatorio anterior.
Para cada k , en el conjunto {k, j2 , . . . , jn } aparecen k−1 inversiones más que en {j2 , . . . , jn },
pues están todas aquellas que se producen entre los ji más las que se produzcan con el primer
elemento k . En efecto, como en el conjunto {j2 , . . . , jn } aparecen los valores 1, 2, . . . , k − 1,
Preliminares. 27
2.4 Matrices cuadradas.
Para desarrollar por una fila k cualquiera, basta llevar ésta a la fila 1 y aplicar lo anterior.
En efecto, si vamos intercambiando la fila k con cada una de las anteriores, obtenemos una
matriz A0 que tiene por fila 1 la fila k de A, por fila 2 la fila 1 de A, . . . , por fila k la
fila k − 1 de A, y las demás igual. Luego hemos hecho k − 1 cambios de fila y, por tanto,
|A| = (−1)k−1 |A0 |. Si desarrollamos det(A0 ) por la primera fila, tenemos que
n
X n
X
k−1 0 k−1
|A| = (−1) |A | = (−1) a01j (−1)1+j M1j
0
= (−1) k−1
akj (−1)1+j Mkj
j=1 j=1
n
X n
X n
X
= akj (−1)k−1 (−1)1+j Mkj = akj (−1)k+j Mkj = akj Ckj .
j=1 j=1 j=1
Corolario 2.35 – Si desarrollamos una fila de una matriz A por los cofactores de otra distinta,
el resultado es cero; es decir,
ai1 Cj1 + ai2 Cj2 + · · · + ain Cjn = 0, si i 6= j .
Idéntico resultado para las columnas.
Demostración:
Es claro, pues si en A hacemos la fila j igual a la fila i, la matriz obtenida A0 tiene
determinante cero y
0 = |A0 | = a0j1 Cj1
0
+ a0j2 Cj2
0
+ · · · + a0jn Cjn
0
= ai1 Cj1 + ai2 Cj2 + · · · + ain Cjn
Definición 2.36 – Dada una matriz A cuadrada de orden n, llamaremos matriz de cofactores
de A a la matriz que tiene por elementos los cofactores de A, C = (Cij ), y llamaremos matriz
adjunta de A a la matriz de cofactores traspuesta, Adj(A) = C t .
1
Teorema fundamental 2.37 – Si A es una matriz inversible, entonces A−1 = |A| Adj(A).
Demostración:
Si probamos que A Adj(A) = |A|I entonces, como |A| 6= 0, será A Adj(A) |A| = I y A−1 =
1
|A| Adj(A). En efecto, aplicando el teorema 2.34 y el corolario 2.35 anteriores,
a11 a12 · · · a1n C11 C21 · · · Cn1
t
a21 a22 · · · a2n C12 C22 · · · Cn2
A · Adj(A) = A · C =
.. .. .. ..
.. .. .. .. = |A| · I
. . . . . . . .
an1 an2 · · · ann C1n C2n · · · Cnn
Preliminares. 28
2.5 Rango de una matriz. Teorema de Rouché.
Regla de Cramer 2.38 – Sea AX = B , un sistema de n ecuaciones con n incógnitas, tal que
A es inversible, entonces el sistema tiene como única solución:
¯ ¯ ¯ ¯ ¯ ¯
¯ b1 a12 · · · a1n ¯ ¯ a b1 · · · a1n ¯ ¯ a a12 · · · b1 ¯¯
¯ ¯ ¯ 11 ¯ ¯ 11
¯ ¯ ¯ ¯ ¯
¯ b2 a22 · · · a2n ¯ ¯ a21 b2 · · · a2n ¯ ¯ a21 a22 · · · b2 ¯¯
¯ .. .. .. ¯ ¯ . .. . . .. ¯ ¯ . .. . ¯
¯ .. ¯ ¯ . ¯ ¯ . ..
¯ . . . . ¯ ¯ . . . . ¯ ¯ . . . .. ¯¯
¯ ¯ ¯ ¯ ¯ ¯
¯ bn an2 · · · ann ¯ ¯ an1 bn · · · ann ¯ ¯ an1 an2 · · · bn ¯
x1 = , x2 = , . . . , xn = .
|A| |A| |A|
Demostración:
Si A es inversible la solución única es X = A−1 B =
C11 C21 · · · Cn1 b1 b1 C11 + b2 C21 + · · · + bn Cn1
Adj(A) 1 C12 C22 · · · Cn2 b2
B= .. .. .. .. = 1
b1 C12 + b2 C22 + · · · + bn Cn2
|A| |A| .. |A| ············
. . . . .
a1n a2n · · · ann bn b1 C1n + b2 C2n + · · · + bn Cnn
Dado que el rango de una matriz no varı́a realizando en ella operaciones elementales puede
definirse también
“el rango de una matriz es el número de filas distintas de cero que aparecen en alguna
de las formas escalonadas de la matriz”,
puesto que el menor formado con las filas y columnas que contienen a los elementos principales
de la matriz escalonada es distinto de 0, y cualquier menor de orden mayor es cero.
Demostración:
a) es claro, pues como r es el orden de un menor distinto de cero, el máximo de los órdenes
de los menores distintos de cero es al menos r .
Preliminares. 29
2.5 Rango de una matriz. Teorema de Rouché.
b) Si todos los menores de orden r son cero, como un menor de orden r + 1 –que es un
determinante– puede descomponerse como suma de menores de orden r por constantes,
todos los menores de orden r + 1 son cero y, por tanto, todos los menores de orden mayor
que r son cero. Luego rg(A) < r
En una matriz m × n, el número de menores de orden r que podemos formar puede ser muy
alto, de hecho es µ ¶µ ¶
m n m! n!
= ,
r r r!(m − r)! r!(n − r)!
¡ ¢
es decir, todas las posibles elecciones de r filas de entre las m, m
r , y para cada una de estas
¡n¢
elecciones todas las posibles elecciones de r columnas de entre la n, r . Por tanto, para ver
que una matriz tiene rango menor que r usando los menores, hemos de comprobar que cada
m! n!
uno de los r!(m−r)! r!(n−r)! menores son cero.
Es claro, por tanto, que cuanto mayor sea la matriz resulta menos “costoso” evaluar el rango
de una matriz llevandola a una forma escalonada que usar la definición. Sin embargo, el coste
de la evaluación por menores, puede reducirse usando el siguiente resultado:
Proposición 2.41 – Sea Am×n una matriz, y Mr×r una submatriz de A con determinante
distinto de cero. Entonces, si el determinante de todas las submatrices de orden r + 1 que
se pueden conseguir en A añadiendo una fila y una columna a M son cero, el rango de A es r .
Demostración:
Supongamos, por simplicidad en la notación, que M es el menor formado por las primeras
r filas y columnas. Consideremos la matriz
a11 · · · a1r a1r+1 a1r+2 · · · a1n
.. .. .. .. .. .. ..
. . . . . . .
ar1 · · · arr arr+1 arr+2 · · · arn
ar+11 · · · ar+1r ar+1r+1 ar+1r+2 · · · ar+1n
donde las lı́neas verticales significan respectivamente M y este menor ampliado a la fila r + 1 y
a cada una de las demás columnas de A.
Si hacemos operaciones elementales en las filas, obtenemos
a011 · · · a01r a01r+1 a01r+2 · · · a01n
. .. . .. .. .. ..
.. . .. . . . .
0 · · · a0rr a0rr+1 a0rr+2 · · · a0rn
0 · · · 0 a0r+1r+1 a0r+1r+2 · · · a0r+1n
y los menores que tenemos ahora son o no cero según lo fueran o no antes. Como M es distinto
de cero ha de ser a011 a022 · · · a0rr 6= 0 y como cada uno de los menores ampliados son cero han
de ser a011 a022 · · · a0rr a0r+1r+1 = 0, a011 a022 · · · a0rr a0r+1r+2 = 0, . . . , a011 a022 · · · a0rr a0r+1n = 0. Luego,
a0r+1r+1 = a0r+1r+2 = · · · = a0r+1n = 0 y la matriz escalonada queda
a011 · · · a01r a01r+1 a01r+2 · · · a01n
. .. . .. .. .. ..
.. . .. . . . .
.
0 · · · a0rr a0rr+1 a0rr+2 · · · a0rn
0 ··· 0 0 0 ··· 0
Preliminares. 30
2.5 Rango de una matriz. Teorema de Rouché.
Haciendo el mismo proceso para las filas r + 2 hasta m, tenemos que una forma escalonada de
A serı́a 0
a11 · · · a01r a01r+1 a01r+2 · · · a01n
. .. . .. .. .. ..
.. . .. . . . .
0 · · · a0 a0 a 0 · · · a0rn
rr rr+1 rr+2
0 ··· 0 0 0 ··· 0
.. .. .. .. .. .. ..
. . . . . . .
0 ··· 0 0 0 ··· 0
y el rango de A es por tanto r .
Con este resultado podemos dar un método –que se conoce con el nombre de “orlado de
menores”– para encontrar el rango de una matriz usando los menores:
“Buscamos un menor de orden uno distinto de cero: si no existe rg(A) = 0; si existe
M1 6= 0 entonces rg(A) ≥ 1, y buscamos un menor de orden 2 distinto de cero de
entre los que “orlan” al anterior: si todos ellos son cero, por el resultado anterior, el
rg(A) = 1; si algún M2 6= 0 entonces rg(A) ≥ 2, y buscamos un menor de orden
3 distinto de cero de entre los que orlan a M2 : si no existe rg(A) = 2, y si existe
M3 6= 0 entonces rg(A) ≥ 3, y buscamos . . . .”
Demostración:
Reduciendo la matriz ampliada del sistema por operaciones elementales según el método de
Gauss-Jordan, podemos llegar a un sistema equivalente cuya matriz ampliada sea:
1 0 ··· 0 a1r+1 · · · a1n b1 En forma más escueta indicando los
0 1 ··· 0 a2r+1 · · · a2n b2 tamaños podemos escribirla ası́:
.. .. . . .. .. ..
. . . . ··· . . Ã !
Ir×r Ar×n−r Br×1
0 0 ··· 1 arr+1 · · · arn br
0m−r×r 0m−r×n−r Bm−r×1
0 0 ··· 0 0 · · · 0 br+1
.. .. .. .. ..
. . ··· . ··· . .
0 0 ··· 0 0 ··· 0 bm
Nota: Los coeficientes aij , bk de esta matriz no serán los iniciales sino los resultantes después
de hacer las operaciones elementales. Además, para conseguir que en la matriz aparezcan todos
los elemetos principales en las primeras r columnas puede hacer falta intercambiar columnas,
pero esto únicamente supone cambiar el orden de las incógnitas del sistema. Las soluciones son
las mismas pero en orden distinto.
Obviamente el rango de la matriz de los coeficientes es r y el sistema tendrá solución si y
sólo si br+1 = br+2 = · · · = bm = 0, es decir si el rango de la ampliada también es r .
En este caso la solución será (con posibles cambios en el orden de las incógnitas)
Preliminares. 31
2.6 Ejercicios.
x1 = b1 − t1 a1r+1 − t2 a1r+2 − · · · − tn−r a1n
x2 = b2 − t1 a2r+1 − t2 a2r+2 − · · · − tn−r a2n que también podemos escribir en forma
.. matricial teniendo en cuenta que
.
rx = b − t1 arr+1 − t2 arr+2 − · · · − tn−r arn
r xr+i = 0 + t1 · 0 + · · · + ti · 1 + · · · + tn−r · 0
xr+1 = t1
..
.
xn = tn−r
x1 b1 −a1r+1 −a1n y llamando Vi a las matrices
. . .. .
.. .. . .. columna, podemos escribir
x b −a −a
r r rr+1 rn
= +t1 +· · ·+tn−r X = V0 + t1 V1 + · · ·+ tn−r Vn−r
xr+1 0 1 0
.. .. .. ..
. . . . como enunciábamos.
xn 0 0 1
Fijándonos en las soluciones se observa que haciendo t1 = · · · = tn−r = 0, V0 es una solución
de AX = B .
Si consideramos el sistema homogéneo asociado AX = 0, ha de ser V0 = 0 y como solución
genérica obtendremos X = t1 V1 + · · · + tn−r Vn−r . Luego haciendo ti = 1 y tk = 0, para k 6= i,
vemos que X = Vi es solución del sistema homogéneo AX = 0.
Resumiendo:
Si rg(A) = r , entonces:
(
r = n → Solución única.
? rg(A) = rg(A|B) =⇒ Sist. Compatible (con sol.)
r < n → Infinitas soluciones.
? rg(A) 6= rg(A|B) =⇒ Sist. Incompatible (no tiene solución).
2.6 Ejercicios.
2.1 Sean las matrices
3 0 Ã ! Ã !
4 −1 1 4 2
A = −1 2 B= C=
0 2 3 1 5
1 1
1 5 2 6 1 3
D = −1 0 1 E = −1 1 2
3 2 4 4 1 3
a) Calcular cuando se pueda: 3C − D , (AB)C , A(BC), ED , DE , (4B)C + CA y
CA + B 2 .
b) Calcular, haciendo el menor número de operaciones posible, la fila 1 de CA, la columna
2 de CD y los elementos 23 y 12 de la matriz CDE .
2.2 Sean A y B dos matrices de tamaño m × n. Probar que si AX = BX para todas las
matrices Xn×1 , entonces A = B .
Indicación: usar las matrices Xi = (0, . . . , 1, . . . , 0)t , todo ceros y un 1 en la fila i.
Preliminares. 32
2.6 Ejercicios.
1 2 3
2.3 Encontrar las matrices elementales que llevan la matriz A = 0 1 2 a una matriz
1 0 3
escalonada.
2.4 Demostrar que si la ecuación lineal x+b1 y = c1 tiene las mismas soluciones que la ecuación
x + b2 y = c2 , las dos ecuaciones son idénticas. ¿Ocurre lo mismo si las ecuaciones son
a1 x + b1 y = c1 y a2 x + b2 y = c2 ?
2.5 Hallar una matriz P tal que AP B = C donde
1 4 Ã ! 8 6 −6
2 0 0
A = −2 3 B= C = 6 −1 1 .
0 1 −1
1 −2 −4 0 0
2.7 Estudiar cada uno de los sistemas siguientes, según los valores de los parámentros
x + 2y + 4z = 1
x + y + z=b − 3
a) x + 2y + 2az = 2 b) bx + y = 0
bx + y + bz = 0
ax + 4y + 4az = 4a
2.8 Sean A y B dos matrices cuadradas de orden n, demostrar que T raza(A+B) = T raza(A)+
T raza(B) y que T raza(AB) = T raza(BA). ¿Es posible encontrar matrices A y B tales
que AB − BA = I ?
2.9 Probar que si A es una matriz cuadrada, A+At es simétrica y que A−At es antisimétrica.
Demostrar que toda matriz cuadrada se puede escribir de forma única como suma de una
matriz simétrica y una antisimétrica.
2.10 Probar que en una matriz cuadrada antisimétrica la diagonal principal está formada únicamente
por ceros.
2.11 Encontrar las matrices elementales que llevan la matriz A del ejercicio 2.3 a una matriz
escalonada reducida. ¿Puede escribirse A como producto de matrices elementales?
2.12 Sea A una matriz idempotente (A2 = A). Probar que la matriz B = I − A es idempotente
y que AB = BA = 0. ¿Qué puede decirse de A si es inversible?
2.13 Sean A y B matrices cuadradas tales que AB = 0. Demostrar que A no puede ser
inversible a menos que B sea la matriz nula.
2.14 Demostrar que (At )n = (An )t , y también que (At )−1 = (A−1 )t .
a b c
2.15 Suponiendo que det(A) = 5, siendo A = d e f , calcular
g h i
¯ ¯ ¯ ¯ ¯ ¯
¯ d e f ¯ ¯ −a −b −c ¯ ¯ a+d b+e c+f ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ ¯
(a) ¯ g h i ¯ (b) ¯ 2d 2e 2f ¯ (c) ¯ d e f ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ a b c ¯ ¯ −g −h −i ¯ ¯ g h i ¯
Preliminares. 33
2.6 Ejercicios.
¯ ¯ ¯ ¯ ¯ ¯
¯ a b c ¯ ¯ a g h ¯ ¯ 2a − d d g ¯¯
¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ ¯
(d) ¯ d − 3a e − 3b f − 3c ¯ (e) ¯ b h e ¯ (f) ¯ 2b − e e h ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 2g 2h 2i ¯ ¯ c i f ¯ ¯ 2c − f f i ¯
(g) det(3A) (h) det(2A−1 ) (i) det((2A)−1 )
2.16 Sea A una matriz cuadrada de orden n tal que la suma de los elementos de cada fila es
cero. Demostrar que A no es inversible.
2.17 Sean A y B matrices de orden n tales que A 6= 0, B 6= 0 y AB = 0. Demostrar que
det(A) = det(B) = 0.
2.18 Calcular los posibles valores del determinante de una matriz ortogonal.
2.19 Sea A una matriz antisimétrica de orden n impar. Demostrar que det(A) = 0.
2.20 Si A es una matriz de orden n probar que | Adj(A)| = |A|n−1 .
ax + by + cz = u
2.21 Demostrar que el sistema y + gz = v posee solución única para todo
−y + kz = w
u, v, w ∈ IR si, y sólo si, a(k + g) 6= 0.
Si a(k + g) = 0 y v = w = 0, ¿en qué condiciones el sistema es compatible?
2.22 Estudiar, según los valores de los parámetros, los rangos de las matrices asociadas a cada
uno de los sistemas siguientes:
x + y + z=3
x + 2y − z = a x + ay + a z = 1 2
2x − ay + 3z = 4
a) 2x + y + z = 1−a b) x + ay + abz = a d)
3x − 3y + 4z = 7
3x + (1+a)y + az = 1−a bx + a2 y + a2 bz = ba2
5x − (a+b)y + 7z = 8+b
Indicar en qué casos tienen solución los sistemas y expresarla en la forma descrita en el
teorema de Rouché 2.42.
2.23 Dada la matriz A de orden n ≥ 2, calcular el rango de A según los valores de a y b.
Siendo
a a a a ··· a a
b 0 0 0 ··· 0 a
0 b 0 0 ··· 0 a
0 0 b 0 ··· 0 a
A=
.. .. .. . . .. .. ..
. . . . . . .
..
0 0 0 0 . 0 a
0 0 0 0 ··· b a
Preliminares. 34