Anda di halaman 1dari 298

Capítulo 1

Sistemas de ecuaciones lineales y


matrices

1.1. Introducción
Un problema fundamental que aparece en matemáticas y en otras ciencias
es el análisis y resolución de m ecuaciones algebraicas con n incógnitas. El es-
tudio de un sistema de ecuaciones lineales simultáneas está íntimamente liga-
do al estudio de una matriz rectangular de números definida por los coeficien-
tes de las ecuaciones. Esta relación parece que se ha notado desde el momento
en que aparecieron estos problemas.
El primer análisis registrado de ecuaciones simultáneas lo encontramos en
el libro chino Jiu zhang Suan-shu ( Nueve Capítulos sobre las artes matemáti-
cas), escrito alrededor del 200 a.C. Al comienzo del capítulo VIII, aparece un
problema de la siguiente forma:

Tres gavillas de buen cereal, dos gavillas de cereal mediocre y una gavilla de
cereal malo se venden por 39 dou. Dos gavillas de bueno, tres mediocres y una
mala se venden por 34 dou. Y una buena, dos mediocres y tres malas se venden
por 26 dou. ¿Cuál es el precio recibido por cada gavilla de buen cereal, cada ga-
villa de cereal mediocre, y cada gavilla de cereal malo?

Hoy en día, este problema lo formularíamos como un sistema de tres ecua-


ciones con tres incógnitas:
3x1 + 2x2 + x3 = 39,
2x1 + 3x2 + x3 = 34,
x1 + 2x2 + 3x3 = 26,
donde x1 , x2 y x3 representan el precio de una gavilla de buen, mediocre y mal
cereal, respectivamente. Los chinos vieron el problema esencial. Colocaron los

1
Depto. de Álgebra

coeficientes de este sistema, representados por cañas de bambú de color, como


un cuadrado sobre un tablero de contar (similar a un ábaco), y manipulaban las
filas del cuadrado según ciertas reglas establecidas. Su tablero de contar y sus
reglas encontraron su camino hacia Japón y finalmente aparecieron en Europa,
con las cañas de color sustituidas por números y el tablero reemplazado por
tinta y papel.

Figura 1.1: Numerales chinos con cañas de bambú

En Europa, esta técnica llegó a ser conocida como eliminación gaussiana,


en honor del matemático alemán Carl F. Gauss.

Figura 1.2: C.F. Gauss (1777-1855)

El objetivo de este capítulo es conocer esta técnica de eliminación. Comen-


zamos con una descripción de los sistemas de ecuaciones y la notación que
emplearemos para tratarlos.

1.2. Equivalencia de sistemas


Nota 1.2.1. En lo que sigue consideraremos fijado un cuerpo K de coeficien-
tes. En el texto nos referiremos a los elementos del cuerpo como números o

2 Álgebra Lineal y Geometría


Depto. de Álgebra

escalares. El lector bien puede pensar que K es el cuerpo Q de los números ra-
cionales, R de los reales o incluso C de los complejos. Aunque debe tener en
cuenta que todo lo dicho sobre sistemas de ecuaciones lineales y matrices es
cierto en general para cualquier cuerpo K.

Ecuación lineal

Sea n ≥ 1 un número natural. Una ecuación lineal es una expresión de


la forma
a1 x1 + a2 x2 + · · · + an xn = b,
donde a1 , a2 , . . . , an y b son números conocidos y x1 x2 , . . . , xn son in-
cógnitas. Los números ai se denominan coeficientes de la ecuación,
mientras que b es el término independiente.

Una solución de la ecuación lineal anterior es un conjunto de números


α1 , α2 , . . . , αn ∈ K que la satisfacen, es decir, que verifican

a1 α1 + a2 α2 + · · · + an αn = b.

Diremos también que la solución se escribe como x1 = α1 , x2 = α2 , . . . , xn = αn ,


que también expresaremos como
 
α1
 α2 
.. .
 

 . 
αn

El carácter lineal se aplica porque las incógnitas aparecen con grado igual a 1.

Ejemplo 1.2.1.- La expresión 3x1 +2x2 = −1 es una ecuación lineal y x1 = 1, x2 =


−2 es una solución. La expresión 0 · x1 = 2 es una ecuación lineal, pero no tiene
solución.

Álgebra Lineal y Geometría 3


Depto. de Álgebra

Sistema lineal de ecuaciones

Sean m ≥ 1 y n ≥ 1 números naturales. Un sistema lineal de ecuaciones


es un conjunto de m ecuaciones lineales y n incógnitas de la forma

+ ... + b1 ,


 a11 x1 + a12 x2 a1n xn =
 a21 x1 + a22 x2 + ... + a2n xn = b2

S ≡ ..


 .
am1 x1 + am2 x2 + . . . + amn xn = b m ,

donde las xi son las incógnitas y los ai j , b i son números. Los núme-
ros ai j se denominan coeficientes del sistema, y el conjunto de los b i
términos independientes del sistema.

Una solución del sistema lineal anterior es un conjunto de números α1, α2 , . . . , αn ∈


K que satisface cada ecuación del sistema, es decir, que verifica

ai 1 α1 + ai 2 α2 + · · · + ai n αn = b i , para cada i = 1, . . . , n.

Para abreviar, hablaremos con frecuencia de un sistema de ecuaciones, elimi-


nando la palabra “lineal”, pues serán el objeto de cálculo habitual en el curso.
El problema es determinar si un sistema de ecuaciones tiene solución o no y, si
es posible, calcularlas todas. Ya con una ecuación a1 x1 = b 1 nos encontramos
con diferentes posibilidades.

Si a1 6= 0, entonces la ecuación tiene una única solución x1 = b 1 /a1 .

Si a1 = 0, b 1 6= 0, entonces no hay solución.

Si a1 = 0 = b 1 , entonces cualquier valor de x1 es solución.

En sistemas con más ecuaciones encontramos el mismo fenómeno.

Ejemplo 1.2.2.- Consideremos el sistema lineal planteado por el problema


chino de las gavillas de cereal visto en la página 1:

 3x1 + 2x2 + x3 = 39,


S ≡ 2x1 + 3x2 + x3 = 34, (1.2.1)


x1 + 2x2 + 3x3 = 26.

4 Álgebra Lineal y Geometría


Depto. de Álgebra

Despejando en la tercera ecuación, x1 = 26 − 2x2 − 3x3 , y sustituyendo en las


otras ecuaciones tenemos

−4x2 − 8x3 = −39,


½
(1.2.2)
−x2 − 5x3 = −18.

Ahora, en la segunda ecuación, es x2 = 5x3 − 18. Sustituyendo en la otra ecua-


ción, se obtiene
12x3 = 33.
Luego debe ser x3 = 11/4. De la ecuación x2 = 5x3 − 18 se obtiene x2 = 17/4. Por
último, de x1 = 26 − 2x2 − 3x3 obtenemos x1 = 37/4.
Es decir, el sistema lineal S tiene como única solución

37/4
 
 17/4  .
11/4

Ejemplo 1.2.3.- Consideremos ahora el sistema lineal

 x1 + 2x2 − x3 = −3,

S ≡ x1 + x2 = 1, (1.2.3)
2x1 + x2 + x3 = 0.

Despejando en la segunda ecuación, x1 = 1 − x2 , y sustituyendo en las otras


obtenemos ½
x2 − x3 = −4,
(1.2.4)
−x2 + x3 = −2.
En la primera ecuación despejamos x2 = −4 + x3 . Sustituyendo en la otra ecua-
ción se obtiene

−(−4 + x3 ) + x3 = −2 ⇒ 4 − x3 + x3 = −2 de donde 4 = −2.

Como 4 6= −2, deducimos que no hay soluciones para el sistema lineal S .

Álgebra Lineal y Geometría 5


Depto. de Álgebra

Los anteriores son ejemplos de sistemas de ecuaciones con solución única


o sin solución. El siguiente paso es estudiar qué ocurre con los sistemas lineales
que no están en ninguno de los casos anteriores, es decir, aquellos que tienen
más de una solución.
Veamos el siguiente ejemplo.

Ejemplo 1.2.4.- Vamos a calcular soluciones del sistema

 x1 + x2 + 2x3 = 3,

S ≡ 2x1 + 2x2 + x3 = 3, (1.2.5)


x1 + x2 − 3x3 = −2.

Como en los casos anteriores, resolveremos el sistema por el método de sus-


titución. Despejamos entonces x1 en la última ecuación, x1 = −2 − x2 + 3x3 .
Sustituyendo en las otras ecuaciones se tiene

5x3 = 5,
½
(1.2.6)
7x3 = 7.

Se trata de un sistema lineal con dos ecuaciones y una incógnita, cuya única
solución es x3 = 1. Respecto a x1 y x2 solamente podemos decir que

x1 = 1 − x2 .

Es decir, que para cada valor distinto de x2 se obtiene un valor distinto de x1 . El


conjunto de las soluciones del sistema lineal S es

1 − x2
 
 x2  donde x2 ∈ K.
1

En este caso el sistema lineal tiene tantas soluciones como elementos hay en el
cuerpo de escalares K.

Veremos que en los sistemas de ecuaciones en general se presentan las mis-


mas posibilidades que hemos visto en los ejemplos anteriores.

6 Álgebra Lineal y Geometría


Depto. de Álgebra

Compatibilidad de sistemas lineales

Decimos que un sistema lineal S es

compatible determinado si tiene una única solución.

compatible indeterminado si tiene más de una solución.

incompatible si no tiene soluciones.

Sistema de ecuaciones equivalentes

Dos sistemas lineales con n incógnitas se dicen equivalentes si tienen


los mismos conjuntos de soluciones.

Ejemplo 1.2.5.- Veamos los siguientes casos con coeficientes en R.

1. Sistemas equivalentes con distinto número de ecuaciones. Considere-


mos los sistemas de ecuaciones

 3x1 + x2 = −1,

½
x1 = −1,
S1 : S 2 : 2x1 + x2 = 0,
x2 = 2.
5x1 + 2x2 = −1.

El conjunto de soluciones de ambos sistemas está formado por los valo-


res x1 = −1, x2 = 2.

2. Sistemas no equivalentes. Consideremos los sistemas en dos incógnitas


dados por
x1 = 1,
½
S 1 : {1 · x1 + 0 · x2 = 1, S 2 :
x2 = 0.
El conjunto de soluciones del primer sistema está formado por los va-
lores x1 = 1, x2 = β, para β ∈ R. Este conjunto contiene estrictamente al
conjunto de soluciones de S 2 .

Álgebra Lineal y Geometría 7


Depto. de Álgebra

1.3. Adición y trasposición de matrices


Antes de continuar con el estudio de los sistemas de ecuaciones, introduci-
mos una notación que nos permitirá tratarlos de una manera más compacta.
Más adelante veremos que no es solamente una notación, sino que las opera-
ciones que nos permiten la resolución de un sistema de ecuaciones están muy
ligadas a las operaciones entre matrices.
El conjunto de m-uplas de números de un cuerpo K se notará por Km . Así,
Rm es el conjunto de m-uplas de números reales y Cm el de números complejos.
Análogamente, M (m ×n, K) denotará el conjunto de las matrices de orden m ×
n que contienen escalares en el cuerpo K.
Con respecto a la notación, usaremos letras mayúsculas para las matrices
y minúsculas con subíndice para las entradas individuales de la matriz. Así,
escribiremos
a11 a12 . . . a1n
 
 a21 a22 . . . a2n 
A= . .. .. ..  = (ai j ).
 
 .. . . . 
am1 am2 . . . amn
El primer subíndice de un elemento de la matriz indica la fila, y el segundo
subíndice denota la columna donde se encuentra. Por ejemplo, si

2 1 3 4
 

A =  8 6 5 −9  , entonces a11 = 2, a12 = 1, . . ., a34 = 7. (1.3.1)


−3 8 3 7

Una submatriz de una matriz dada A es una matriz que se obtiene seleccio-
nando un conjunto de filas y columnas de A. Por ejemplo,

2 4
µ ¶
B=
−3 7

es una submatriz de A porque B es el resultado de elegir los elementos de la


matriz A que se encuentran en la primera y tercera filas, junto a la primera y
cuarta columna.
Una matriz A se dice que tiene orden m ×n si A tiene exactamente m filas y
n columnas. La matriz A de (1.3.1) es una matriz 3×4. Por convenio, las matrices
1 × 1 se identifican con escalares, y al revés.
Para enfatizar que una matriz A es de orden m × n, usaremos la notación
A m×n . Cuando m = n, es decir, cuando el número de filas y columnas coincide,
diremos que la matriz es cuadrada. Para hablar de matrices en general, que no
sean necesariamente cuadradas, usaremos la expresión matriz rectangular.

8 Álgebra Lineal y Geometría


Depto. de Álgebra

Las matrices que tienen una sola fila o una sola columna las llamaremos,
respectivamente, vectores fila o vectores columna. Los notaremos como u, v .
El símbolo A i ∗ se usa para denotar la fila i -ésima, y A ∗ j para la j -ésima
columna. Por ejemplo, si A es la matriz de (1.3.1), entonces

1
 

8 6 5 −9 y A ∗2 =  6  .
¡ ¢
A 2∗ =
8

La matriz de orden m × n con todas sus entradas nulas se denomina matriz


nula y la notaremos como Om×n . Cuando el contexto lo permita, eliminaremos
el orden para aliviar la notación.
Haremos uso de dos operaciones que generalizaremos al hablar de espacios
vectoriales. Dados dos vectores columna u, v del mismo orden, consideramos
su suma w = u + v como el vector columna del mismo orden y cuyas com-
ponentes w i son las sumas de las componentes respectivas u i + v i . De igual
forma, definimos w = αu como el vector columna del mismo orden que u y
con componentes w i = αu i . Podemos hacer algo análogo con las filas.
Dados u1 , u2 , . . . , us vectores del mismo orden, llamamos combinación li-
neal de estos vectores a una expresión de la forma

α1 u1 + α2 u2 + · · · + αs us ,

que es un vector formado por las operaciones anteriores.


Dos matrices A = (ai j ) y B = (b i j ) son iguales cuando A y B tienen el mismo
orden y las entradas correspondientes son iguales. Esta definición se aplica a
matrices como

1
 

u= 2  y v= 1 2 3 .
¡ ¢

Aunque podamos pensar que u y v describen el mismo punto en R3 , no pode-


mos decir que sean iguales como matrices, pues sus formas son diferentes.

Álgebra Lineal y Geometría 9


Depto. de Álgebra

Suma de matrices

Si A y B son matrices de orden m × n, la suma de A y B se define como


la matriz de orden m × n notada por A + B, cuyas entradas verifican

A + B = (ai j + b i j ) para cada i , j.

La matriz −A, llamada opuesta de A, se define como

−A = (−ai j ).

La diferencia de A y B es

A − B = A + (−B).

Ejemplo 1.3.1.- Sean

2 −3 4 0 0 3
   
−4 −2
A =  1 −2 1 1  , B =  −3 1 −1 −2  .
0 0 0 0 −1 4 2 −1

Entonces
−2 3 −4 0
 
−2 −5 4 3
 
 
A + B = −2 −1 0 −1
  , −A =  −1 2 −1 −1  ,
 
−1 4 2 −1
0 0 0 0
6 −1 4 −3
 
 
 4
A −B =  −3 2 3 
.
1 −4 −2 1

Si
1
 
−1 −3 −2 −2
 
C =
 −3 −3 0 1 ,
−3 
1 −2 3 2 1
no podemos calcular A +C , pues A es de orden 3 × 4 y C es de orden 3 × 5.

10 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de la suma de matrices

Sean A, B y C matrices de orden m × n. Se verifican las siguientes pro-


piedades:

A + B es una matriz de orden m × n.

(A + B) +C = A + (B +C ).

A + B = B + A.

A + O = O + A = A.

La matriz −A es de orden m × n y verifica A + (−A) = O.

P RUEBA : Las mismas propiedades se satisfacen para las suma de escalares.

El elemento (i , j ) de (A + B) + C es (ai j + b i j ) + ci j = ai j + (b i j + ci j ), que


es el elemento (i , j ) de A + (B +C ).

El elemento (i , j ) de A + B es ai j + b i j = b i j + ai j , que es el elemento (i , j )


de B + A.

Como la suma es conmutativa, sabemos que A + O = O + A. Además, la


entrada (i , j ) de A + O es ai j + 0 = ai j .

El elemento (i , j ) de A + (−A) es ai j + (−ai j ) = 0, por lo que es igual a la


matriz nula.

Multiplicación por un escalar

El producto de un escalar α por una matriz A de orden m × n, notada


por αA, se define como la matriz de orden m × n que verifica

αA = (αai j ).

Análogamente, Aα = (ai j α) = αA.

Álgebra Lineal y Geometría 11


Depto. de Álgebra

Ejemplo 1.3.2.- Si
2 −3 4 0
 
 
A=
 1 −2 1 1 ,

0 0 0 0
entonces

−6 9 −12 0 0 0 0 0
   
   
 −3 6
(−3) · A =  −3 −3  , 0 · A  0 0 0 0 .
  
0 0 0 0 0 0 0 0

Propiedades de la multiplicación por un escalar

Sean A, B matrices de orden m × n, y α, β escalares.

αA es una matriz m × n.

(αβ)A = α(βA).

α(A + B) = αA + αB.

(α + β)A = αA + βA.

1 · A = A, 0 · A = O.

La demostración de estas propiedades se basa en que las mismas se verifi-


can para el producto de escalares del cuerpo K.
P RUEBA :

El elemento (i , j ) de (αβ)A es (αβ)ai j = α(βai j ), que es el elemento (i , j )


de α(βA).

El elemento (i , j ) de α(A + B) es α(ai j + b i j ) = αai j + αb i j , que es el ele-


mento (i , j ) de αA + αB.

12 Álgebra Lineal y Geometría


Depto. de Álgebra

El elemento (i , j ) de (α+β)A es (α+β)ai j = αai j +βai j , que es el elemento


(i , j ) de α + βA.

El elemento (i , j ) de 1 · A es 1 · ai j = ai j , que es elemento (i , j ) de A. El


elemento (i , j ) de 0 · A es 0 · ai j = 0.

Trasposición

La traspuesta de una matriz A m×n es la matriz notada por A t de orden


n × m definida como
A t = (a j i ).
La matriz conjugada de una matriz A m×n es la matriz de orden m × n
notada por A definida como

A = (ai j ).

La matriz conjugada traspuesta de una matriz A m×n es la matriz de


orden n × m notada por A ∗ y definida como

A ∗ = (a j i ).

Ejemplo 1.3.3.- Sea


2 −3 4 0
 
 
A=
 1 −2 1 1 .

0 0 0 0

Entonces
2 1 0 2 1 0
   

 −3 −2 0 
 ∗  −3 −2 0 
   
 
t
A = , A =  .

 4 1 0   4 1 0 
   
0 1 0 0 1 0

Álgebra Lineal y Geometría 13


Depto. de Álgebra

Para que haya alguna diferencia entre A t y A ∗ debemos emplear matrices con
entradas complejas. Por ejemplo, si
 
1
1−i
 
 , entonces u∗ = 1 1 + i 2 .
¡ ¢
u= −i
 
 i 
2

En el caso de matrices reales, A = A y A ∗ = A t .

Propiedades de la matriz traspuesta

Sean A y B matrices de la misma forma y α un escalar. Entonces

(A t )t = A, (A ∗ )∗ = A.

(A + B)t = A t + B t y (A + B)∗ = A ∗ + B ∗ .

(αA)t = αA t y (αA)∗ = αA ∗ .

P RUEBA :

El elemento (i , j ) de A t es a j i , por lo que el elemento (i , j ) de (A t )t es ai j .


Un razonamiento análogo se tiene para A ∗ .

El elemento (i , j ) de A + B es ai j + b i j , por lo que el elemento (i , j ) de


(A + B)t es a j i + b j i , que coincide con el elemento (i , j ) de A t + B t . De
manera similar se tiene la segunda parte.

El elemento (i , j ) de αA es αai j , por lo que el elemento (i , j ) de (αA)t es


αa j i , que coincide con el elemento (i , j ) de αA t . De manera similar se
tiene la segunda parte.

14 Álgebra Lineal y Geometría


Depto. de Álgebra

Simetrías

Sea A = (ai j ) una matriz cuadrada.

Decimos que A es simétrica si A = A t , esto es, ai j = a j i .

Decimos que A es antisimétrica si A = −A t , esto es, ai j = −a j i .

Decimos que A es hermitiana si A = A ∗ , esto es, ai j = a j i .

Decimos que A es antihermitiana si A = −A ∗ , esto es, ai j = −a j i .

Ejemplo 1.3.4.- Sean

1 0 5 1 1 5
   
1 1+i
µ ¶
   
A= 0 −3 2  , B =  0 −3 2  ,C = .
    1−i 3
5 2 −3 5 2 −3

Entonces A es simétrica, B no es simétrica y C es hermitiana.

Un número asociado a una matriz cuadrada es la traza. Si A = (ai j ) es una


matriz cuadrada de orden n, entonces la traza de A es el número traza(A) =
a11 + a22 + · · · + ann = ni=1 ai i , es decir, la suma de sus elementos diagonales.
P

Por ejemplo, si

1 1 5
 
 
 1 −3
A= 2  , entonces traza(A) = 1 + (−3) + (−3) = −5.
5 2 −3

1.4. Multiplicación de matrices


La multiplicación de matrices no está definida para dos matrices cuales-
quiera; exigiremos que se satisfaga alguna condición entre las matrices a mul-
tiplicar.

Álgebra Lineal y Geometría 15


Depto. de Álgebra

Matrices ajustadas para la multiplicación

Dos matrices A y B se dicen ajustadas para multiplicación en el orden


AB cuando el número de columnas de A es igual al número de filas de
B, esto es, si A es de orden m × p y B es de orden p × n.

Obsérvese que puede ocurrir que dos matrices A y B estén ajustadas para
la multiplicación en el orden AB pero no en el orden B A.

Ejemplo 1.4.1.- Las matrices

1 2 5
µ ¶ µ ¶
A= ,B= ,
3 4 6

están ajustadas para la multiplicación en el orden AB pero no en el orden B A.

Multiplicación de matrices

Sean A m×p y B p×n dos matrices ajustadas para multiplicación en el


orden AB. La matriz producto AB, de orden m × n, se define como
C = (ci j ), donde
p
X
ci j = ai 1 b 1j + ai 2 b 2j + . . . + ai p b p j = ai k bk j = A i ∗ B ∗ j .
k=1

El ejemplo anterior nos muestra que existe el producto AB, pero no B A.


Aunque existan ambos productos, estos no tienen por qué ser iguales y ni si-
quiera tienen que ser del mismo orden.
Considere lo que ocurre al tomar

3
µ ¶
1 2 ,B = ,
¡ ¢
A=
4

16 Álgebra Lineal y Geometría


Depto. de Álgebra

y calcular AB y B A. Pero aunque fueran matrices cuadradas el producto no es


conmutativo en general. Por ejemplo, sean las matrices

2 1 1 1
µ ¶ µ ¶
C= ,D= .
0 −1 2 3

Entonces
4 5 2 0
à ! à !
CD = , DC = .
−2 −3 4 −1

Filas y columnas de un producto

Supongamos que A m×p = (ai j ) y B p×n = (b i j ).

[AB]i ∗ = A i ∗ B; esto es, la i -ésima fila de AB es la i -esima fila de


A multiplicada por B.

[AB]∗ j = AB ∗ j ; esto es, la j -ésima columna de AB es A multipli-


cada por la j -ésima columna de B.
Pp
[AB]i ∗ = ai 1 B 1∗ + ai 2 B 2∗ + · · · + ai p B p∗ = k=1 ai k B k∗ .
Pp
[AB]∗ j = A ∗1 b 1j + A ∗2 b 2j + · · · + A ∗p b p j = k=1
A ∗k b k j .

P RUEBA : Las dos primeras propiedades son inmediatas a partir de la defi-


nición. Para la tercera, se tiene

(AB)i ∗ = ci 1 ci 2 . . . ci n
¡ ¢
¡ Pp Pp Pp
...
¢
= a b
k=1 i k k1
a b
k=1 i k k2
a b
k=1 i k kn
p
X p
X
b k1 b k2 . . . b kn ai k B k∗ .
¡ ¢
= ai k =
k=1 k=1

La cuarta propiedad es análoga. 

Las dos primeras igualdades se pueden escribir de manera más visual como
   
A 1∗ A 1∗ B
 A 2∗   A 2∗ B 
 . B =  .. ,
   
.
 .   . 
A m∗ A m∗ B
A B ∗1 B ∗2 . . . B ∗n AB ∗2 . . . AB ∗n .
¡ ¢ ¡ ¢
= AB ∗1

Álgebra Lineal y Geometría 17


Depto. de Álgebra

Las dos últimas ecuaciones indican que las filas de AB son combinación lineal
de las filas de B, y que las columnas de AB son combinación lineal de las co-
lumnas de A.
Otra forma muy usada para el producto de matrices es
 
B 1∗
 B 2∗ 
¢ 
AB = A ∗1 A ∗2 . . . A ∗p  . 
¡
 .. 
B p∗
= A ∗1 B 1∗ + A ∗2 B 2∗ + · · · + A ∗p B p∗ .

Observemos que la última expresión es una suma de matrices de orden m × n,


cada una de rango 1. Se denomina expansión mediante el producto exterior.
Nota 1.4.1. Todo sistema de m ecuaciones y n incógnitas

a11 x1 + a12 x2 + ··· + a1n xn = b1 ,


a21 x1 + a22 x2 + ··· + a2n xn = b2 ,
..
.
am1 x1 + am2 x2 + · · · + amn xn = b m ,

se puede escribir en forma matricial como A x = b, donde

a11 a12 . . . a1n


     
x1 b1
 a21 a22 . . . a2n   x2   b2 
A= . .. .. .. , x = .. , b = .. .
     
 .. .
   
. .   .   . 
am1 am2 . . . amn xn bm

Por otro lado, toda ecuación matricial A m×n xn×1 = bm×1 representa un sistema
lineal de m ecuaciones y n incógnitas.
Si el sistema tiene una solución u = (u i ), entonces podemos escribir

b = u 1 A ∗1 + u 2 A ∗2 + · · · + u n A ∗n ,

es decir, el vector b se expresa como combinación lineal de las columnas de A.

Ejemplo 1.4.2.- El sistema de ecuaciones

1,

 x3 +x4 =
−2x1 −4x2 +x3 = −1,
3x1 +6x2 −x3 +x4 = 2.

18 Álgebra Lineal y Geometría


Depto. de Álgebra

se escribe como A x = b, donde


 
x1
0 0 1 1 1
   
x2
 
A = −2 −4 1 0 ,x =   , b =  −1  .
  
x3
3 6 −1 1 2
 
x4

Una solución del sistema es u = (−1, −1, 1, 0)t , de donde

1 0 0 1 1
         
 −1  = (−1)  −2  + (−1)  −4  + 1  1  + 0  0  .
2 3 6 −1 1

1.5. Propiedades de la multiplicación matricial

Propiedades distributiva y asociativa

Para matrices ajustadas se verifica

A(B +C ) = AB + AC .

(D + E )F = DF + E F .

A(BC ) = (AB)C .

P RUEBA :

Supongamos que A m×p , B p×n ,C p×n . Sea G = B +C y llamamos g i j = b i j +


ci j ; identificamos de forma análoga los elementos de las matrices H =
AG, Y = AB, Z = AC . Entonces
p
X p
X
hi j = ai k g k j = ai k (b k j + ck j )
k=1 k=1
Xp Xp
= ai k bk j + ai k ck j = y i j + zi j ,
k=1 k=1

o bien que H = Y + Z .

Álgebra Lineal y Geometría 19


Depto. de Álgebra

Se prueba de manera similar a la anterior.

Supongamos que A m×p , B p×q ,C q×n y llamemos

D = BC , E = AD, F = AB,G = FC .

Entonces
à !
p
X p
X q
X q
X p
X
ei j = ai k dk j = ai k b kl cl j = ai k b kl cl j
k=1 k=1 l =1 l =1 k=1
Xq
= f i l cl j = g i j ,
l =1

lo que es equivalente a decir que E = G.

Matriz identidad

La matriz de orden n × n con unos en la diagonal y ceros en el resto

1 0 ... 0
 
 0 1 ... 0 
In =  .. .. . . .. 
 
 . . . . 
0 0 ... 1

se denomina matriz identidad de orden n.

Para toda matriz A de orden m × n se verifica

AI n = A y I m A = A.

El subíndice de I n se elimina cuando el tamaño es obvio por el contexto. Las


columnas de I n se representan por los vectores e1 , e2 , . . . , en , es decir, el vector
ei es el vector de n componentes cuya componente i -ésima es igual a 1 y las
restantes iguales a cero. Observemos que la notación tiene la ambigüedad res-
pecto al tamaño del vector, y se deduce por los tamaños de las matrices que
intervengan en la expresión.

20 Álgebra Lineal y Geometría


Depto. de Álgebra

Trasposición y producto

Para matrices ajustadas A m×p y B p×n se verifica que

(AB)t = B t A t , y (AB)∗ = B ∗ A ∗ .

P RUEBA : Probemos la primera propiedad. Sean C = AB = (ci j ), D = B t A t =


Pp Pp
(d i j ). Entonces C t = (c j i ) y c j i = k=1 a j k b ki . Por otro lado, d i j = k=1 b ki a j k ,
de donde C t = D. La segunda propiedad es consecuencia de la anterior y del
hecho, fácil de demostrar, de que AB = A · B . 

Ejemplo 1.5.1.- Para cada matriz A m×n

las matrices A A t y A t A son simétricas, y

las matrices A A ∗ y A ∗ A son hermitianas.

Ejemplo 1.5.2.- Para matrices A m×n y B n×m se verifica

traza(AB) = traza(B A).

De lo anterior se deduce que traza(ABC ) = traza(BC A) = traza(C AB), pero,


en general, traza(ABC ) 6= traza(B AC ).

Álgebra Lineal y Geometría 21


Depto. de Álgebra

Multiplicación por bloques

Supongamos que A y B se particionan en submatrices, también llama-


dos bloques, como sigue:

... . . . B 1t
   
A 11 A 12 A 1r B 11 B 12
 A 21 A 22 ... A 2r   B 21 B 22 . . . B 2t 
A= .. .. .. .. ,B =  .. .. .. .. .
   
 . . . .   . . . . 
A s1 A s2 ... A sr Br 1 Br 2 . . . Br t

Si los pares (A i k , B k j ) son ajustados para el producto, entonces decimos


que A y B tienen una partición ajustada. Para tales matrices, el pro-
ducto AB se forma combinando los bloques exactamente de la misma
forma como se hace con los escalares en la multiplicación ordinaria.
Esto es, el bloque (i , j ) en AB es

A i 1 B 1j + A i 2 B 2j + · · · + A i r B r j .

Ejemplo 1.5.3.- Consideremos las matrices particionadas


   
1 2 1 0 1 0 0 0
 3 4 0 1  µ ¶  0 1 0 0  µ ¶
C I I O
A= = ,B =  = ,
   
 1 0 0 0  I O  1 2 1 2  C C
0 1 0 0 3 4 3 4
donde
1 0 1 2
µ ¶ µ ¶
I= y C= .
0 1 3 4
Mediante la multiplicación por bloques, el producto AB es fácil de obtener:
 
2 4 1 2
2C C  6 8 3 4 
µ ¶µ ¶ µ ¶ 
C I I O
AB = = =

I O C C I O  1 0 0 0 

0 1 0 0

22 Álgebra Lineal y Geometría


Depto. de Álgebra

1.6. Eliminación gaussiana


La eliminación gaussiana es una herramienta que nos permitirá determinar
si un sistema tiene solución y, en tal caso, calcularlas todas. Es un algoritmo que
sistemáticamente transforma un sistema en otro más simple, pero equivalente.
La idea es llegar a un sistema lo más sencillo posible, eliminando variables, y
obtener al final un sistema que sea fácilmente resoluble.

Ejemplo 1.6.1.- El sistema

2x1 + 5x2 = −1,


½
S ≡
2x2 = 3,

se puede resolver fácilmente. La última ecuación nos permite despejar x2 = 3/2


y sustituir este valor en la primera ecuación para obtener

3 1 15 17
2x1 + 5 = −1, de donde x1 = (−1 − ) = − .
2 2 2 4

El proceso de eliminación descansa sobre tres operaciones simples que trans-


forman un sistema en otro equivalente. Para describir estas operaciones, sea E k
la k-ésima ecuación

E k : ak1 x1 + ak2 x2 + . . . + akn xn = b k

y escribamos el sistema como


 

 E1 

 E2
 

S ≡ .. .


 . 


Em
 

Dado un sistema de ecuaciones S , cada una de las siguientes transformacio-


nes elementales produce un sistema equivalente S ′ .

Álgebra Lineal y Geometría 23


Depto. de Álgebra

1. Intercambio de las ecuaciones i -ésima y j -ésima (1 ≤ i ≤ j ≤ m). Esto es,


si    
 E1    E1 
..  .. 

 
 
.  . 

 
 
 

  
 

   
E E
   

 i 
 
 j 

.. .. Ei j
   

S ≡ . , entonces S ≡ . → S ′.
,S −
   
Ej  Ei 

  
 
   
. .

 
 
 

. .
   
. .

 
 
 


 
 
 

   
Em Em

2. Reemplazo de la i -ésima ecuación por un múltiplo no nulo de ella. Esto


es,
 
 E1 
.. 

 
 . 

 

 
αE i
S ′ ≡ αE i , donde α 6= 0.S −→ S ′ .
 ... 

 

 

 

Em
 

3. Reemplazo de la j -ésima ecuación por la suma de ella misma con un


múltiplo de la i -ésima ecuación. Esto es,
 
 E1 
..

 

.

 


 

 
Ei

 

 
.. E j +αE i
 

S ≡ . .S −−−−→ S ′ .
 
E j + αE i

 

 
..

 

 
.

 


 

 
Em

Ejemplo 1.6.2.- Sea el sistema

2x1 − x2 − 2x3 + 3x4 − x5 1



 =
+ 2x2 + 2x5 0

x1 − x3 + x4 =

S ≡ . (1.6.1)

 3x1 + x2 + x3 + x4 + x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

24 Álgebra Lineal y Geometría


Depto. de Álgebra

El intercambio de las ecuaciones (2) y (4) produce el sistema

2x1 − 2x3 + 3x4 1



 − x2 − x5 =
2

−x1 + x2 − x3 + x4 − x5 =

S′≡ (1.6.2)
 3x1
 + x2 + x3 + x4 + x5 = 0
+ 2x2 + 2x5 0

x1 − x3 + x4 =

E 24
→ S ′.
que notamos por S −

Ejemplo 1.6.3.- Sea el sistema

2x1 − x2 − 2x3 + 3x4 − x5 1



 =
+ 2x2 + 2x5 0

x1 − x3 + x4 =

S ≡ . (1.6.3)
 3x1
 + x2 + x3 + x4 + x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

La sustitución de la cuarta ecuación por el doble de ella misma produce el sis-


tema
2x1 − x2 − 2x3 + 3x4 − x5 = 1


+ 2x2 − x3 + x4 + 2x5 = 0

x1

S′≡ , (1.6.4)

 3x1 + x2 + x3 + x4 + x5 = 0
−2x1 + 2x2 − 2x3 + 2x4 − 2x5 = 4

2E 4
notado por S −→ S ′ .

Ejemplo 1.6.4.- Sea el sistema

2x1 − x2 − 2x3 + 3x4 − x5 1



 =
+ 2x2 + 2x5 0

x1 − x3 + x4 =

S ≡ . (1.6.5)

 3x1 + x2 + x3 + x4 + x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

Álgebra Lineal y Geometría 25


Depto. de Álgebra

La sustitución de la tercera ecuación por la suma de ella más tres veces la cuarta
produce el sistema

2x1 − x2 − 2x3 + 3x4 1



 − x5 =
x1 + 2x2 + 2x5 0

− x3 + x4 =

S′≡ (1.6.6)

 4x2 − 2x3 + 4x4 − 2x5 = 0
2

−x1 + x2 − x3 + x4 − x5 =

E 3 +3E 4
expresado como S −−−−→ S ′ .

Sistemas equivalentes por transformaciones elementales

Si el sistema S ′ se obtiene a partir del sistema S por una concate-


nación de transformaciones elementales, entonces S ′ es un sistema
equivalente a S .

P RUEBA : Si S ′ se obtiene a partir de S mediante el intercambio de dos ecua-


ciones, transformación de tipo 1, es evidente que cualquier solución de S sa-
tisface las ecuaciones de S ′ y viceversa. Luego ambos sistemas son equivalen-
tes.
Si S ′ se obtiene de S mediante la sustitución de una ecuación por un múl-
tiplo no nulo de ella, transformación de tipo 2, es decir, si son
   
 E1   E1 
.. ..

 
 
 

 .  .

 
 
 

 
  

S ≡ Ei y S ′ ≡ αE i con α 6= 0,

 .. 
 
 .. 

. .

 
 
 


 
 
 

Em Em
   

entonces, las soluciones de la ecuación E i también lo son de la ecuación αE i .


Aquí no interviene el carácter no nulo de α. Recíprocamente, una solución de
αE i , con α 6= 0, es solución de E i . Por tanto, ambos sistemas son equivalentes.
Si S ′ se obtiene de S mediante la sustitución de una ecuación por la suma
de ella misma más un múltiplo de otra, transformación de tipo 3, es decir, si

26 Álgebra Lineal y Geometría


Depto. de Álgebra

son    
 E1   E1 
.. ..

 
 
 

. .

 
 
 


 
 
 

   
 Ei Ei

 
 
 

   
.. ..
  

S ≡ . , yS ≡ . ,
   
E E j + αE i
   
j

 
 
 

.. ..

 
 
 

   
. .

 
 
 


 
 
 

   
Em Em
entonces una solución de S verifica todas las ecuaciones E i , por lo que tam-
bién verifica la expresión E j +αE i . Recíprocamente, una solución de S ′ verifica
todas sus ecuaciones, por lo que se cumple las expresiones E i y E j +αE i , por lo
que también verifica E j . En tal caso, es solución también de S . 

El problema más común en la práctica es la resolución de un sistema con


n ecuaciones y n incógnitas, lo que se conoce como un sistema cuadrado, con
solución única. En este caso, la eliminación gaussiana es directa, y más tarde
estudiaremos las diferentes posibilidades. Lo que sigue es un ejemplo típico.

Ejemplo 1.6.5.- Consideremos el sistema


2x1 + x2 + x3 = 1,
6x1 + 2x2 + x3 = −1, (1.6.7)
−2x1 + 2x2 + x3 = 7.
En cada paso, la estrategia es centrarse en una posición, llamada posición pivo-
te, y eliminar todos los términos con esa incógnita en las siguientes ecuaciones
usando las tres operaciones elementales. Desde un punto de vista visual, ha-
blaremos de los términos por debajo de la posición pivote. El coeficiente en la
posición pivote se denomina pivote, mientras que la ecuación en donde se en-
cuentra el pivote se llama ecuación pivote. Solamente se permiten números no
nulos como pivotes. Si un coeficiente en una posición pivote es cero, entonces
la ecuación pivote se intercambia con una ecuación posterior para producir un
pivote no nulo. Esto siempre es posible para sistemas cuadrados con solución
única, como veremos más adelante. A menos que sea cero, el primer coeficiente
de la primera ecuación se toma como el primer pivote. Por ejemplo, el elemen-
to 2 del sistema es el pivote del primer paso:

2 x1 + x2 + x3 = 1,
6x1 + 2x2 + x3 = −1,
−2x1 + 2x2 + x3 = 7.

Álgebra Lineal y Geometría 27


Depto. de Álgebra

Paso 1. Elimina todos los términos por debajo del pivote.

Resta tres veces la primera ecuación de la segunda para generar el sistema


equivalente

2 x1 + x2 + x3 = 1,
− x2 − 2x3 = −4, (E 2 − 3E 1)
−2x1 + 2x2 + x3 = 7.

Suma la primera ecuación a la tercera para formar el sistema equivalente

2 x1 + x2 + x3 = 1,
− x2 − 2x3 = −4,
3x2 + 2x3 = 8 (E 3 + E 1 ).

Paso 2. Selecciona un nuevo pivote.

De momento, seleccionamos un nuevo pivote buscando hacia abajo. Si


este coeficiente no es cero, entonces es nuestro pivote. En otro caso, in-
tercambiamos con una ecuación que esté por debajo de esta posición pa-
ra colocar el elemento no nulo en la posición pivote. En nuestro ejemplo,
−1 es el segundo pivote:

2x1 + x2 + x3 = 1,
(-1) x2 − 2x3 = −4,
3x2 + 2x3 = 8.

Paso 3. Elimina todos los términos por debajo del pivote.

Suma tres veces la segunda ecuación a la tercera para llegar al sistema


equivalente:

2x1 + x2 + x3 = 1,
(-1) 2
x − 2x 3 = −4,
− 4x3 = −4 (E 3 + 3E 2 ).

En general, en cada paso nos movemos abajo y consideramos la siguien-


te variable para seleccionar el nuevo pivote, y entonces eliminar todos
los términos por debajo de él hasta que ya no podamos seguir. En este
ejemplo, el tercer pivote es −4, pero como ya no hay nada por debajo que
eliminar, paramos el proceso.

28 Álgebra Lineal y Geometría


Depto. de Álgebra

En este punto, decimos que hemos triangulado el sistema. Un sistema trian-


gular se resuelve muy fácilmente mediante el método de sustitución hacia atrás,
en el que la última ecuación se resuelve para la última incógnita y se sustituye
hacia atrás en la penúltima ecuación, la cual se vuelve a resolver para la penúlti-
ma incógnita, y continuamos así hasta llegar a la primera ecuación. En nuestro
ejemplo, de la última ecuación obtenemos

x3 = 1.

Sustituimos x3 = 1 en la segunda ecuación, y tenemos

x2 = 4 − 2x3 = 4 − 2(1) = 2.

Por último, sustituimos x3 = 1 y x2 = 2 en la primera ecuación para obtener

1 1
x1 = (1 − x2 − x3 ) = (1 − 2 − 1) = −1,
2 2
que completa la solución.

1.7. Notación sobre matrices


No hay razón para escribir los símbolos como x1 , x2 o x3 en cada paso, pues
lo único que manejamos son los coeficientes. Si descartamos los símbolos, en-
tonces el sistema de ecuaciones se reduce a una disposición rectangular de
números en la que cada fila representa una ecuación. Por ejemplo, el sistema
(1.6.7) se puede representar como una disposición de los números en la forma

2 1 1 1
 
 6 2 1 −1  (la barra indica dónde aparece el signo =).
−2 2 1 7

Esta disposición de números en filas y columnas es una matriz. Considere-


mos entonces un sistema de ecuaciones

a11 x1 + a12 x2 + . . . + a1n xn = b 1





 a21 x1 + a22 x2 + . . . + a2n xn = b 2

S ≡ ..


 .
am1 x1 + am2 x2 + . . . + amn xn = b m

Álgebra Lineal y Geometría 29


Depto. de Álgebra

Matrices de un sistema de ecuaciones

Llamamos matriz de coeficientes del sistema lineal S a la matriz

a11 a12 . . . a1n


 
 a21 a22 . . . a2n 
A= . .. . ..  .
 
 . . . . . . 
am1 am2 . . . amn

Si aumentamos la matriz de coeficientes a la derecha con los términos


independientes tenemos la matriz ampliada del sistema:

...
 
a11 a12 a1n b1
 a21 a22 ... a2n b2 
(A|b) =  .. .. .. .. .
 
 . . . . 
am1 am2 . . . amn b m

Ejemplo 1.7.1.- En el sistema anterior, la matriz de coeficientes del sistema es

2 1 1
 

A= 6 2 1 
−2 2 1

y la matriz ampliada es

2 1 1 1
 

=  6 2 1 −1  .
¡ ¢
A b
−2 2 1 7

Recordemos que la multiplicación matricial permite escribir el sistema en


la forma compacta A x = b.

30 Álgebra Lineal y Geometría


Depto. de Álgebra

1.8. Operaciones elementales sobre filas


La eliminación gaussiana se puede realizar sobre la matriz ampliada [A|b]
mediante operaciones elementales sobre las filas de [A|b]. Estas operaciones
elementales de filas se corresponden a las tres operaciones elementales que
hemos visto antes.
Para una matriz de orden m × n de la forma

M1∗
 
 .. 
 . 
 
 Mi ∗ 
 . 
 
M =  ..  ,
 
 Mj∗ 
 . 
 
 .. 
Mm∗

los tres tipos de operaciones elementales de filas sobre M son como sigue.

Operaciones elementales por fila

Tipo I Tipo II Tipo III


Intercambio Multiplicación por α 6= 0 Combinación lineal
M1∗ M1∗
   
 ..  
M1∗
 ..
 .  .
 
 

 Mj∗ 
 .. 
M

.
 
i ∗
   
 ..  ..
     
 .   αMi ∗ 
.
 
 
..
     
 Mi ∗     M j ∗ + αMi ∗ 
 . 
 .  ..
   
 ..  Mm∗
 
 . 
Mm∗ Mm∗
Fi j αFi F j +αFi
M−
→ M −→ M −−−−→

Dos matrices M y M ′ se dicen equivalentes por filas si puede transformarse


una en otra mediante una sucesión finita de operaciones elementales por filas.

Álgebra Lineal y Geometría 31


Depto. de Álgebra

Por ejemplo, las matrices


1 1 −1 0 F12 2 0 1 1
µ ¶ µ ¶


2 0 1 1 1 1 −1 0
1 1 −1 0 F2 −2F1 1 1 −1 0
µ ¶ µ ¶
−−−−→ ,
2 0 1 1 0 −2 3 1
1 1 −1 0 12 F2 1 1 −1 0
µ ¶ µ ¶
−→
2 0 1 1 1 0 1/2 1/2
son equivalentes por filas. Usaremos esta notación para indicar las transforma-
ciones elementales.
Nota 1.8.1. Observemos que la relación entre matrices definida por la equiva-
lencia por filas es una relación de equivalencia. Es de señalar el carácter simé-
trico de la relación para cada una de las transformaciones. Para el tipo I (inter-
cambio), la misma operación transforma M ′ en M. Para el tipo II, la transfor-
1
α Fi
mación M ′ −→, que también es de tipo II, nos devuelve la matriz original. Para
F j −αFi
el tipo III, con M ′ −−−−→, que es de tipo III, retornamos a M.

Ejemplo 1.8.1.- Para resolver el sistema del ejemplo 1.6.5 mediante operacio-
nes elementales por fila, partimos de la matriz ampliada M = (A|b) y triangula-
mos la matriz de coeficientes A realizando la misma secuencia de operaciones
por fila que se corresponden a las operaciones elementales realizadas sobre las
ecuaciones.

 F2 − 3F1 
2 1 1 1 2 1 1 1
 
F3 + F1
 6 2 1 −1  −−−−−−−→  0 -1 −2 −4 
−2 2 1 7 0 3 2 8
2 1 1 1
 
F3 +3F2
−−−−→  0 −1 −2 −4 
0 0 −4 −4
La matriz final representa el sistema triangular
2x1 + x2 + x3 = 1,
− x2 − 2x3 = −4,
− 4x3 = −4.
que se resuelve por sustitución hacia atrás, como explicamos antes (ver ejem-
plo 1.6.5).

32 Álgebra Lineal y Geometría


Depto. de Álgebra

En general, si un sistema cuadrado n × n se triangula a la forma

...
 
t11 t12 t1n c1
 0 t22 ... t2n c2 
.. .. .. .. .. (1.8.1)
 
.
 
 . . . . 
0 0 . . . tnn cn

en donde cada ti i 6= 0 (no hay pivotes nulos), entonces el algoritmo general de


sustitución hacia atrás es como sigue.

Algoritmo de sustitución hacia atrás

La solución del sistema triangular se calcula mediante xn = cn /tnn y


procede de manera recursiva calculando

1
xi = (ci − ti ,i +1 xi +1 − ti ,i +2 xi +2 − . . . − ti n xn )
ti i

para i = n − 1, n − 2, . . ., 2, 1.

1.9. Forma escalonada por filas


Ya estamos preparados para analizar sistemas rectangulares con m ecua-
ciones y n incógnitas

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
..
.
am1 x1 + am2 x2 + . . . + amn xn = b m ,

donde m puede ser diferente de n. Si no sabemos con seguridad que m y n


son iguales, entonces decimos que el sistema es rectangular. El caso m = n
también queda comprendido en lo que digamos.
La primera tarea es extender la eliminación gaussiana de sistemas cuadra-
dos a sistemas rectangulares. Recordemos que un pivote debe ser siempre un
valor no nulo. En el caso de un sistema rectangular general, no siempre es po-
sible tener las posiciones pivote en la diagonal principal de la matriz de coefi-
cientes. Esto significa que el resultado final de la eliminación gaussiana no será

Álgebra Lineal y Geometría 33


Depto. de Álgebra

una forma triangular. Por ejemplo, consideremos el siguiente sistema:

x1 + 2x2 + x3 + 3x4 + 3x5 = 5,


2x1 + 4x2 + 4x4 + 4x5 = 6,
x1 + 2x2 + 3x3 + 5x4 + 5x5 = 9,
2x1 + 4x2 + 4x4 + 7x5 = 9.

Fijemos nuestra atención en la matriz ampliada

 
1 2 1 3 3 5
2 4 0 4 4 6
 
, (1.9.1)
¡ ¢
B= A b =
 
 1 2 3 5 5 9 
2 4 0 4 7 9

Aplicamos eliminación gaussiana a B para obtener el siguiente resultado:

   
1 2 1 3 3 5 1 2 1 3 3 5
2 4 0 4 4 6 0 0 −2 −2 −2 −4
   
→ .
   
1 2 3 5 5 9 0 0 2 2 2 4

   
2 4 0 4 7 9 0 0 −2 −2 1 −1

En el proceso de eliminación básico, nos movemos abajo y a la derecha, a la


siguiente posición pivote. Si encontramos un cero en esta posición, se efectúa
un intercambio con una fila inferior para llevar un número no nulo a la posición
pivote. Sin embargo, en este ejemplo, es imposible llevar un elemento no nulo a
la posición (2, 2) mediante el intercambio de la segunda fila con una fila inferior.

Para manejar esta situación, debemos modificar el procedimiento de la eli-


minación gaussiana.

34 Álgebra Lineal y Geometría


Depto. de Álgebra

Eliminación gaussiana modificada

Sea A m×n una matriz y supongamos que U es la matriz obtenida a par-


tir de A tras haber completado i − 1 pasos de eliminación gaussiana.
Para ejecutar el i -ésimo paso, procedemos como sigue:

De izquierda a derecha en U , localizamos la primera columna


que contiene un valor no nulo en o por debajo de la i -ésima po-
sición. Digamos que es U∗ j .

La posición pivote para el i -ésimo paso es la posición (i , j ).

Si es necesario, intercambiamos la i -ésima fila con una fila infe-


rior para llevar un número no nulo a la posición (i , j ), y entonces
anulamos todas las entradas por debajo de este pivote.

Si la fila Ui ∗ , así como todas las filas de U por debajo de Ui ∗


consisten en filas nulas, entonces el proceso de eliminación es-
tá completo.

Ilustremos lo anterior aplicando la versión modificada de la eliminación


gaussiana a la matriz dada en 1.9.1

Ejemplo 1.9.1.- Aplicamos la eliminación gaussiana modificada a la matriz


 
1 2 1 3 3 5
 2 4 0 4 4 6 
 
B = ,
 1 2 3 5 5 9 
2 4 0 4 7 9

y marcamos los elementos no nulos encontrados:


   
1 2 1 3 3 5 1 2 1 3 3 5
 2 4 0 4 4 6   0 0 -2 −2 −2 −4 
   
→
 1 2 3 5 5 9   0 0 2 2 2 4 
 
2 4 0 4 7 9 0 0 −2 −2 1 −1
   
1 2 1 3 3 5 1 2 1 3 3 5
 0 0 -2 −2 −2 −4   0 0 -2 −2 −2 −4 
   
→ → .
 0 0 0 0 0 0   0 0 0 0 3 3 
0 0 0 0 3 3 0 0 0 0 0 0

Álgebra Lineal y Geometría 35


Depto. de Álgebra

Observemos que el resultado final de aplicar la eliminación gaussiana en el


ejemplo anterior no es una forma triangular exactamente, sino un tipo escalo-
nado de forma triangular. Por su importancia, le damos un nombre especial.

Forma escalonada por filas

Una matriz E de orden m × n con filas E i ∗ y columnas E ∗ j se dice que


está en forma escalonada por filas si verifica:

Si E i ∗ es una fila de ceros, entonces todas las filas por debajo de


E i ∗ son también nulas.

Si la primera entrada no nula de E i ∗ está en la j -ésima posición,


entonces todas las entradas por debajo de la i -ésima posición en
las columnas E ∗1, E ∗2 , . . . , E ∗ j son nulas.

El algoritmo de la eliminación gaussiana modificada nos proporciona el si-


guiente resultado:

Equivalencia con una forma escalonada

Toda matriz es equivalente por filas a una forma escalonada por filas.

Una estructura típica de una forma escalonada por filas, con los pivotes
marcados, es  
* ∗ ∗ ∗ ∗ ∗ ∗ ∗
 0 0 * ∗
 
∗ ∗ ∗ ∗ 
 
 0 0 0 * ∗ ∗ ∗ ∗ 
 
 0 0 0 0 0 0 * ∗
 

 0 0 0 0 0 0 0 0
 

0 0 0 0 0 0 0 0
Los pivotes son las primeras entradas no nulas en cada fila. Podemos tener tam-
bién columnas de ceros a la izquierda de la matriz.

36 Álgebra Lineal y Geometría


Depto. de Álgebra

Como hay flexibilidad para elegir las operaciones por filas que reducen una
matriz A a una forma escalonada E , las entradas de E no están unívocamente
determinadas por A. Sin embargo, probaremos que las posiciones de los pivo-
tes son siempre las mismas.

Nota 1.9.1. Sean A m×n y B m×n matrices tales que B se ha obtenido de A me-
diante transformaciones elementales por filas. Supongamos que existe una re-
lación de la forma
n
X
A ∗k = α j A∗ j ,
j =1

que expresa la columna A ∗k como combinación lineal de otras columnas de la


matriz A. Entonces se tiene la misma relación en la matriz B, es decir,

n
X
B ∗k = α j B∗ j ,
j =1

con los mismos coeficientes. Es una comprobación muy sencilla para cada trans-
formación.
Por aplicación reiterada de este resultado, si E es una forma escalonada por
filas de A, las relaciones entre las columnas de E son las mismas que las rela-
ciones entre las columnas de A.

1.10. Forma escalonada reducida por filas


Se puede avanzar en la simplificación de una forma escalonada por filas.
Por ejemplo, mediante la multiplicación de una fila por un escalar no nulo
(transformación elemental), podemos conseguir que cada pivote sea igual a 1.
Además, se pueden anular las entradas que se encuentran por encima de cada
pivote. El siguiente ejemplo ilustra este proceso.

Ejemplo 1.10.1.- Obtenemos una forma escalonada de la matriz


 
1 2 1 3 3 5
2 4 0 4 4 6
 
 
1 2 3 5 5 9
 
 
2 4 0 4 7 9

Álgebra Lineal y Geometría 37


Depto. de Álgebra

mediante transformaciones elementales y hacemos, en cada paso, los pivotes


iguales a 1, así como anular las entradas superiores a cada pivote.

   
1 2 1 3 3 5 1 2 1 3 3 5
2 4 0 4 4 6 0 0 -2 −2 −2 −4
   
→ →
   
1 2 3 5 5 9 0 0 2 2 2 4

   
2 4 0 4 7 9 0 0 −2 −2 1 −1
   
1 2 1 3 3 5 1 2 0 2 2 3
0 0 1 1 1 2   0 0 1 1 1 2
   
→ →
 
0 0 2 2 2 4   0 0 0 0 0 0

 
0 0 −2 −2 1 −1 0 0 0 0 3 3
   
1 2 0 2 2 3 1 2 0 2 2 3
0 0 1 1 1 2   0 0 1 1 1 2
   
→ →
 
0 0 0 0 3 3   0 0 0 0 1 1

 
0 0 0 0 0 0 0 0 0 0 0 0
 
1 2 0 2 0 1
0 0 1 1 0 1
 
.
 
0 0 0 0 1 1

 
0 0 0 0 0 0

Este proceso es una extensión del conocido como método de Gauss-Jordan.


Comparamos este ejemplo con el resultado del ejemplo 1.9.1 (pág. 35), y vemos
que la forma de la matriz final es la misma en ambos casos, que tiene que ver
con la unicidad de las posiciones de los pivotes que hemos comentado ante-
riormente. La única diferencia es el valor numérico de algunas entradas. Por la
naturaleza de la eliminación, cada pivote es 1 y todas las entradas por encima
y por debajo son nulas. Por tanto, la forma escalonada por filas que produce
esta reducción contiene un número reducido de entradas no nulas. Esto nos
permite dar la siguiente definición.

38 Álgebra Lineal y Geometría


Depto. de Álgebra

Forma escalonada reducida por filas

Una matriz E m×n está en forma escalonada reducida por filas si se ve-
rifican las siguientes condiciones:

E está en forma escalonada por filas.

La primera entrada no nula de cada fila (el pivote) es 1.

Todas las entradas por encima del pivote son cero.

Una estructura típica de una matriz en forma escalonada reducida por filas es

1 0 0 0
 
∗ ∗ ∗ ∗

 0 0 1 0 ∗ ∗ 0 ∗ 

0 0 0 1 ∗ ∗ 0 ∗
 
 
0 0 0 0 0 0 1
 
 ∗ 
0 0 0 0 0 0 0 0
 
 
0 0 0 0 0 0 0 0

Observemos que una columna que contenga un pivote no puede ser combina-
ción lineal de las anteriores. Lo mismo se aplica a una forma escalonada cual-
quiera. Como comentamos antes, si una matriz A se transforma en una for-
ma escalonada por filas mediante operaciones elementales por fila, entonces
la forma está unívocamente determinada por A, pero las entradas individua-
les de la forma no son únicas. Sin embargo, la forma escalonada reducida tiene
una propiedad especial.

Unicidad de la forma escalonada reducida por filas y pivotes

Toda matriz A es equivalente por filas a una única forma escalonada


reducida por filas E A . Además, toda forma escalonada de A tiene los
pivotes en las mismas posiciones.

P RUEBA : Sea A una matriz m × n. Probaremos el teorema por inducción


sobre n. Si la matriz A tiene una columna (caso n = 1), entonces tenemos dos
posibilidades para E A , : la entrada en la primera fila es cero o uno, y las restantes

Álgebra Lineal y Geometría 39


Depto. de Álgebra

componentes son nulas. En otras palabras,


0 1
   
 0   0 
E A =  .  o bien E A =  .. .
   
 ..   . 
0 0
Como toda operación por filas aplicada al primer caso la deja invariante, no
podemos usar estas operaciones para transformar la primera matriz en la se-
gunda, ni podemos cambiar la segunda en la primera, por el carácter reversi-
ble de las operaciones elementales. Esto significa que una matriz con una sola
columna es equivalente por filas a una de las matrices anteriores, pero no a
ambas.
Supongamos ahora que n > 1 y que el teorema es cierto para matrices con
menos de n columnas. Si B y C son dos formas escalonadas reducidas por fi-
las obtenidas a partir de A, sean A ′ , B ′ y C ′ las matrices obtenidas mediante el
borrado de la última columna de A, B y C , respectivamente. Entonces B ′ y C ′
son equivalentes por filas a A ′ . Más aún, B ′ y C ′ están en forma escalonada re-
ducida por filas. Como A ′ tiene n − 1 columnas, la hipótesis de inducción nos
garantiza que B ′ = C ′ . Por tanto, B y C únicamente pueden ser diferentes en la
última columna.
Si B no contiene un pivote en la última columna, ésta es combinación lineal
de las columnas de B ′ . Como en C se mantienen las relaciones entre columnas,
no puede ocurrir que C contenga un pivote en su última columna. Por sime-
tría, no puede darse el caso de que B contenga un pivote en B ∗n y C ∗n no lo
contenga. Por ello, tenemos dos posibilidades.
Si B y C no contienen un pivote en la última columnas, entonces B ∗n es
combinación lineal de las columnas anteriores con pivotes. Con C ∗n ocurre lo
mismo, y con los mismos coeficientes y columnas, pues C y B están relaciona-
das mediante transformaciones elementales. Esto implica que B = C .
Si B y C contienen un pivote en la última columna, entonces B ∗n tiene un 1
en la posición k y ceros en las restantes, y C ∗n tiene un 1 en la posición l y ceros
en las restantes. Como las n − 1 primeras columnas de B y C son iguales, la fila
k en la que aparece el pivote 1 de B ∗n coincide con la fila l en la que aparece
el pivote 1 en C ∗n : es la primera fila nula de la forma escalonada reducida por
filas de A ′ . Por tanto, k = l y B ∗n = C ∗n .
Para la segunda parte, supongamos que U es una forma escalonada por filas
obtenidas a partir de A. Para llegar de U a E A , hacemos los pivotes iguales a 1
y anulamos las entradas por encima de dicho pivote. Entonces las posiciones
pivote de U coinciden con las de E A .


40 Álgebra Lineal y Geometría


Depto. de Álgebra

Nota 1.10.1. Para una matriz A, el símbolo E A denotará la única forma escalo-
nada reducida por filas derivada de A mediante transformaciones elementales
por fila. También escribiremos

rref G-J
→ E A o bien A −
A− → E A,

porque el procedimiento anterior se conoce también como algoritmo de Gauss-


Jordan. El uso de !" responde a que es el comando que se usa en programas
como M ATLAB, O CTAVE o S CILAB para el cálculo de la forma escalonada redu-
cida por filas (reduced row echelon form).

Como las posiciones pivote son únicas, se sigue que el número de pivotes,
que es el mismo que el número de filas no nulas de E , también está unívoca-
mente determinado por A. Este número se denomina rango de A, y es uno de
los conceptos fundamentales del curso.

Rango de una matriz

Supongamos que una matriz A de orden m × n se reduce mediante


operaciones elementales por filas a una forma escalonada E . El rango
de A es el número

rango(A) = número de pivotes


= número de filas no nulas de E
= número de columnas básicas de A,

donde las columnas básicas de A son aquellas columnas de A que con-


tienen las posiciones pivote.

Ejemplo 1.10.2.- Determinemos E A , calculemos rango(A) e identifiquemos


las columnas básicas de
 
1 2 2 3 1
 2 4 4 6 2
 
A= .

 3 6 6 9 6 
1 2 4 5 3

Álgebra Lineal y Geometría 41


Depto. de Álgebra

Identificamos los pivotes en cada paso.


     
1 2 2 3 1 1 2 2 3 1 1 2 2 3 1
 2 4 4 6 2   0 0 0 0 0   0 0 2 2 2 
     
→ →
 3 6 6 9 6   0 0 0 0 3   0 0 0 0 3 
 
1 2 4 5 3 0 0 2 2 2 0 0 0 0 0
   
1 2 2 3 1 1 2 0 1 −1
 0 0 1 1 1   0 0 1 1 1 
   
→ →
 0 0 0 0 3   0 0 0 0 3 

0 0 0 0 0 0 0 0 0 0
   
1 2 0 1 −1 1 2 0 1 0
 0 0 1 1 1   0 0 1 1 0 
   
→ →  = EA
 0 0 0 0 1   0 0 0 0 1 
0 0 0 0 0 0 0 0 0 0
Por tanto, rango(A) = 3, y {A ∗1 , A ∗3 , A ∗5 } son las tres columnas básicas.

Ejemplo 1.10.3.- Determinemos el rango y columnas básicas de la matriz


1 2 1 1
 

A =  2 4 2 2 .
3 6 3 4
Reducimos A a forma escalonada por filas.
    
1 2 1 1 1 2 1 1 1 2 1 1

 2 4 2 2 →  0 0 0 0 → 0 0 0
 
1 =E

3 6 3 4 0 0 0 1 0 0 0 0
Por tanto, rango(A) = 2. Las posiciones pivote están en la primera y cuarta co-
lumna, por lo que las columnas básicas de A son A ∗1 y A ∗4 . Esto es,

 1 1 
   

Columnas básicas =  2  , 2  .

3 4
 

Es importante resaltar que las columnas básicas se extraen de A y no de la for-


ma escalonada E .

42 Álgebra Lineal y Geometría


Depto. de Álgebra

1.11. Compatibilidad de sistemas


Recordemos que un sistema de m ecuaciones y n incógnitas se dice com-
patible si posee al menos una solución. Si no tiene soluciones, decimos que el
sistema es incompatible.
Un sistema lineal compatible se dice determinado si tiene una única solución,
en otro caso se dice indeterminado.
El propósito de esta sección es determinar las condiciones bajo las que un
sistema es compatible. Establecer dichas condiciones para un sistema de dos o
tres incógnitas es fácil. Una ecuación lineal con dos incógnitas representa una
recta en el plano, y una ecuación lineal con tres incógnitas es un plano en el
espacio de tres dimensiones. Por tanto, un sistema lineal de m ecuaciones con
dos incógnitas es compatible si y solamente si las m rectas definidas por las m
ecuaciones tienen al menos un punto común de intersección. Lo mismo ocurre
para m planos en el espacio. Sin embargo, para m grande, estas condiciones
geométricas pueden ser difíciles de verificar visualmente, y cuando n > 3 no es
posible esta representación tan visual.
Mejor que depender de la geometría para establecer la compatibilidad, usa-
remos la eliminación gaussiana. Si la matriz ampliada asociada [A|b] se reduce
mediante operaciones por filas a una forma escalonada por filas [E |c], enton-
ces la compatibilidad o no del sistema es evidente. Supongamos que en un mo-
mento del proceso de reducción de [A|b] a [E |c] llegamos a una situación en la
que la única entrada no nula de una fila aparece en la última columna, como
mostramos a continuación:
 
∗ ∗ ∗ ∗ ∗ ∗ ∗
 0 0 0 ∗ ∗ ∗ ∗ 
 
 0 0 0 0 ∗ ∗ ∗ 
 
Fila i →  0 0 0 0 0 0 α  ← α 6= 0.
 
... ... ... ... ... ... ...

Si esto ocurre en la i -ésima fila, entonces la i -ésima ecuación del sistema aso-
ciado es
0 · x1 + 0 · x2 + . . . + 0 · xn = α.

Para α 6= 0, esta ecuación no tiene solución, y el sistema original es incompa-


tible (recordemos que las operaciones por filas no alteran el conjunto de solu-
ciones). El recíproco también se verifica. Esto es, si el sistema es incompatible,
entonces en algún momento del proceso de eliminación llegamos a una fila de
la forma
0 0 . . . 0 α , α 6= 0. (1.11.1)
¡ ¢

Álgebra Lineal y Geometría 43


Depto. de Álgebra

En otro caso, la sustitución hacia atrás se podría realizar y obtener una solu-
ción. No hay incompatibilidad si se llega a una fila de la forma

0 0 ... 0 0 .
¡ ¢

Esta ecuación dice simplemente 0 = 0, y aunque no ayuda a determinar el valor


de ninguna incógnita, es verdadera.
Existen otras formas de caracterizar la compatibilidad (o incompatibilidad)
de un sistema. Una es observando que si la última columna b de la matriz am-
pliada [A|b] es una columna no básica, entonces no puede haber un pivote en
la última columna, y por tanto el sistema es compatible, porque la situación
1.11.1 no puede ocurrir. Observemos también que si el sistema es compatible,
entonces la situación 1.11.1 no puede ocurrir, y en consecuencia la última co-
lumna no puede ser básica.
Por tanto,

[A|b] es compatible si y solamente si b no es columna básica.

Decir que b no es columna básica en [A|b] es equivalente a decir que todas


las columnas básicas de [A|b] están en la matriz de coeficientes A. Como el nú-
mero de columnas básicas es el rango, la compatibilidad puede ser caracteriza-
da diciendo que un sistema es compatible si y sólo si rango([A|b]) = rango(A).
Este enunciado en función del rango se conoce como teorema de Rouché-
Frobenius, del que más adelante daremos un anunciado algo más ampliado.
Resumimos todas estas condiciones.

Compatibilidad de un sistema

Cada uno de las siguientes enunciados es equivalente a que el sistema


lineal determinado por la matriz [A|b] es compatible.

En la reducción por filas de [A|b], nunca aparece una fila de la


forma
0 0 . . . 0 α , α 6= 0.
¡ ¢

b es una columna no básica de [A|b].

b es combinación lineal de las columnas básicas de A.

rango([A|b]) = rango(A).

44 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 1.11.1.- Determinemos si el sistema

x1 + x2 + 2x3 + 2x4 + x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 3x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 2x5 = 2,
3x1 + 5x2 + 8x3 + 6x4 + 5x5 = 3,

es compatible. Aplicamos eliminación gaussiana a la matriz ampliada [A|b].

   
1 1 2 2 1 1 1 1 2 2 1 1
2 2 4 4 3 1 0 0 0 0 1 −1 
   
 → 
  
2 2 4 4 2 2 0 0 0 0 0 0 
 
  
3 5 8 6 5 3 0 2 2 0 2 0
 
1 1 2 2 1 1
0 2 0 0 2 0
 
→  .
 
 0 0 0 0 1 −1 
0 0 0 0 0 0

Como no hay ninguna fila de la forma 0 0 . . . 0 α , con α 6= 0, el sistema


¡ ¢

es compatible. También observamos que b no es una columna básica en [A|b],


por lo que rango([A|b]) = rango(A).

Luego un sistema es compatible si y solamente si rango([A|b]) = rango(A).


El objetivo ahora es determinar cuándo es compatible determinado o indeter-
minado. Para ello, debemos estudiar antes un tipo especial de sistemas.

Álgebra Lineal y Geometría 45


Depto. de Álgebra

1.12. Sistemas homogéneos

Sistemas homogéneos

Un sistema de m ecuaciones y n incógnitas

a11 x1 + a12 x2 + ... + a1n xn = 0


a21 x1 + a22 x2 + ... + a2n xn = 0
..
.
am1 x1 + am2 x2 + . . . + amn xn = 0,

en el que el lado derecho contiene únicamente ceros se denomina ho-


mogéneo. Si al menos uno de los coeficientes de la derecha es no nulo,
decimos que es no homogéneo.

En esta sección vamos a examinar algunas de las propiedades más elemen-


tales de los sistemas homogéneos.
La compatibilidad nunca es un problema con un sistema homogéneo, pues
x1 = x2 = . . . = xn = 0 siempre es una solución del sistema, independientemen-
te de los coeficientes. Esta solución se denomina solución trivial. La pregunta
es si hay otras soluciones además de la trivial, y cómo podemos describirlas.
Como antes, la eliminación gaussiana nos dará la respuesta.
Mientras reducimos la matriz ampliada [A|0] de un sistema homogéneo a
una forma escalonada mediante la eliminación gaussiana, la columna de ceros
de la derecha no se ve alterada por ninguna de las operaciones elementales.
Así, cualquier forma escalonada derivada de [A|0] tendrá la forma [E |0]. Esto
significa que la columna de ceros puede ser eliminada a la hora de efectuar
los cálculos. Simplemente reducimos la matriz A a una forma escalonada E , y
recordamos que el lado derecho es cero cuando procedamos a la sustitución
hacia atrás. El proceso se comprende mejor con un ejemplo.

Ejemplo 1.12.1.- Vamos a examinar las soluciones del sistema homogéneo

x1 + 2x2 + 2x3 + 3x4 = 0,


2x1 + 4x2 + x3 + 3x4 = 0, (1.12.1)
3x1 + 6x2 + x3 + 4x4 = 0.

46 Álgebra Lineal y Geometría


Depto. de Álgebra

Reducimos la matriz de coeficientes a una forma escalonada por filas:

1 2 2 3 1 2 2 3 1 2 2 3
     

A =  2 4 1 3  →  0 0 −3 −3  →  0 0 −3 −3  = E .
3 6 1 4 0 0 −5 −5 0 0 0 0

Entonces, el sistema homogéneo inicial es equivalente al sistema homogéneo

x1 + 2x2 + 2x3 + 3x4 = 0,


−3x3 − 3x4 = 0.

Como hay cuatro incógnitas, y solamente dos ecuaciones, es imposible extraer


una solución única para cada incógnita. Lo mejor que podemos hacer es elegir
dos incógnitas básicas, que llamaremos variables básicas, y resolver el sistema
en función de las otras dos, que llamaremos variables libres. Aunque hay dis-
tintas posibilidades para escoger las variables básicas, el convenio es resolver
las incógnitas que se encuentran en las posiciones pivote.
En este ejemplo, los pivotes, así como las columnas básicas, están en la pri-
mera y tercera posición, así que la estrategia es aplicar sustitución hacia atrás
en la resolución del sistema y expresar las variables básicas x1 y x3 en función
de las variables libres x2 y x4 .
La segunda ecuación nos da

x3 = −x4

y la sustitución hacia atrás produce

x1 = −2x2 − 2x3 − 3x4


= −2x2 − 2(−x4 ) − 3x4
= −2x2 − x4 .

Las soluciones al sistema homogéneo original pueden ser descritas como

x1 = −2x2 − x4 ,
x2 = libre ,
x3 = −x4 ,
x4 = libre.

Como las variables libres x2 y x4 pueden tomar todos los valores posibles, las
expresiones anteriores describen todas las soluciones.

Álgebra Lineal y Geometría 47


Depto. de Álgebra

Mejor que describir las soluciones de esta forma, es más conveniente ex-
presarlas como
       
x1 −2x2 − x4 −2 −1
 x2   x2  1   0 
       
=  = x2   + x4  ,

 x3   −x4  0   −1 


x4 x4 0 1

entendiendo que x2 y x4 son variables libres que pueden tomar cualquier valor.
Esta representación se denominará solución general del sistema homogéneo
y enfatiza que la solución general del sistema es combinación lineal de las dos
soluciones    
−2 −1
 1   0 
   
h1 =   y h2 =  .
 0   −1 
0 1

Consideremos ahora un sistema homogéneo general [A|0] de m ecuaciones


y n incógnitas. Si la matriz de coeficientes A es de rango r , entonces, por lo que
hemos visto antes, habrá r variables básicas, correspondientes a las posiciones
de las columnas básicas de A, y n − r variables libres, que se corresponden con
las columnas no básicas de A. Mediante la reducción de A a una forma escalo-
nada por filas por eliminación gaussiana y sustitución hacia atrás, expresamos
las variables básicas en función de las variables libres y obtenemos la solución
general, de la forma

x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde x f 1 , x f 2 , . . . , x f n−r son las variables libres, y h1 , h2 , . . . , hn−r son vectores


columna que representan soluciones particulares.
Observemos que el vector h1 tiene un 1 en la posición f 1 , y los restantes
vectores h j tienen un cero en esa posición. Lo mismo se aplica a todos los vec-
tores hi : tienen un valor 1 en la posición f i y los restantes vectores h j tienen
un cero en esa posición. Más adelante necesitaremos esta característica.
Si calculamos la forma escalonada reducida por filas del ejemplo, nos queda

1 2 2 3 1 2 0 1
   

A =  2 4 1 3  →  0 0 1 1  = E A,
3 6 1 4 0 0 0 0

48 Álgebra Lineal y Geometría


Depto. de Álgebra

y el sistema a resolver es

x1 + 2x2 + x4 = 0,
x3 + x4 = 0.

Si resolvemos x1 y x3 en función de x2 y x4 nos queda el mismo resultado que


antes. Por ello, y para evitar la sustitución hacia atrás, puede resultar más con-
veniente usar el procedimiento de Gauss-Jordan para calcular la forma escalo-
nada reducida por filas E A y construir directamente la solución general a partir
de las entradas de E A .
Consideremos ahora un sistema homogéneo general (A|0) de m ecuaciones
y n incógnitas.

Solución general de un sistema homogéneo

Usamos eliminación gaussiana para reducir la matriz ampliada


(A|0) a una forma escalonada por filas (E |0).

Identificamos las variables básicas y libres. Si el rango es r , enton-


ces habrá r variables básicas, correspondientes a las posiciones
de las columnas básicas de (A|0), y n − r variables libres, que se
corresponden con las columnas no básicas de (A|0).

Mediante el procedimiento de sustitución hacia atrás, expresa-


mos las variables básicas en función de las variables libres.

Escribimos el resultado de la forma

x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde x f 1 , x f 2 , . . . , x f n−r son las variables libres, y h1 , h2 , . . . , hn−r


son vectores columna que representan soluciones particulares.
Esta será la solución general del sistema homogéneo.

Ejemplo 1.12.2.- Calculemos la solución general del sistema

x1 + 2x2 + 2x3 = 0,
2x1 + 5x2 + 7x3 = 0,
3x1 + 6x2 + 6x3 = 0.

Álgebra Lineal y Geometría 49


Depto. de Álgebra

Se tiene que
1 2 2 1 2 2
   

A =  2 5 7  →  0 1 3  = E,
3 6 6 0 0 0
de donde rango(A) = 2 < n = 3. Como las columnas básicas están en las posi-
ciones uno y dos, x1 y x2 son las variables básicas, y x3 es libre. Mediante sus-
titución hacia atrás en [E |0], nos queda x2 = −3x3 y x1 = −2x2 − 2x3 = 4x3 , y la
solución general es
4
   
x1
 x2  = x3  −3  , donde x3 es libre.
x3 1

Una última pregunta que nos planteamos es cuándo la solución trivial de


un sistema homogéneo es la única solución. Lo anterior nos muestra la res-
puesta. Si hay al menos una variable libre, entonces el sistema tendrá más de
una solución. Por tanto, la solución trivial será la única solución si y solamente
si no hay variables libres, esto es, n − r = 0. Podemos reformular esto diciendo

Sistemas homogéneos: solución única

Un sistema homogéneo de matriz A tiene únicamente la solución tri-


vial si y solamente si rango(A) = n.

Ejemplo 1.12.3.- El sistema homogéneo


x1 + 2x2 + 2x3 = 0,
2x1 + 5x2 + 7x3 = 0,
3x1 + 6x2 + 8x3 = 0,
tiene solamente la solución trivial porque
1 2 2 1 2 2
   

A= 2 5 7 → 0 1 3 =E


3 6 8 0 0 2
prueba que rango(A) = 3 = n. Se ve fácilmente que la aplicación de la sustitu-
ción hacia atrás desde [E |0] únicamente devuelve la solución trivial.

50 Álgebra Lineal y Geometría


Depto. de Álgebra

1.13. Sistemas no homogéneos


Recordemos que un sistema de m ecuaciones y n incógnitas

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
..
.
am1 x1 + am2 x2 + . . . + amn xn = b m ,

es no homogéneo cuando b i 6= 0 para algún i . A diferencia de los sistemas ho-


mogéneos, los no homogéneos pueden ser incompatibles y ya hemos visto un
método para detectar cuándo no hay solución. Suponemos que los sistemas de
esta sección son compatibles y nuestro objetivo es describir el conjunto de to-
das las posibles soluciones; vamos a construir una solución general de la misma
forma que hicimos para los homogéneos.

Soluciones de un sistema compatible

Sea S un sistema lineal compatible de matriz ampliada (A|b) y sea S h


el sistema lineal homogéneo de matriz ampliada (A|0). Si p es una so-
lución particular de S entonces el conjunto de las soluciones de S es
n o
p + h | h es solución del sistema homogéneo S h .

P RUEBA : Supongamos que el sistema S está representado por la ecuación


matricial A m×n xn×1 = bm×1 , y llamemos S h al sistema homogéneo asociado.
Sea p una solución particular de S , lo que significa que A p = b. Si h es una
solución de S h , entonces

A(p + h) = A p + A h = b + 0 = b,

lo que implica que p + h también es solución de S . Recíprocamente, sea q una


solución del sistema S . Entonces

A(q − p) = A q − A p = b − b = 0,

Álgebra Lineal y Geometría 51


Depto. de Álgebra

por lo que existe h solución del sistema homogéneo S h tal que q − p = h, y


q = p + h. En consecuencia, ambos conjuntos son iguales. 

Nota 1.13.1. Tenemos un método para calcular la forma general del conjunto
de soluciones del sistema homogéneo asociado S h , tal como vimos en la pá-
gina 49. El teorema anterior nos indica que si podemos calcular una solución
particular, tendremos la forma general de las soluciones del sistema compati-
ble A x = b.
Supongamos que [A|b] representa el sistema un sistema de m ecuaciones
y n incógnitas, donde rango(A) = r . La compatibilidad garantiza que b no es
una columna básica de [A|b], por lo que las columnas básicas de (A|b) están
en la misma posición que las columnas básicas de (A|0). Esto significa que el
sistema no homogéneo y el sistema homogéneo asociado tienen exactamente
el mismo conjunto de variables básicas así como de libres. Además, no es difícil
ver que
E (A|0) = (E A |0) y E (A|b) = (E A |c),
donde c es una columna de la forma
 
ξ1

 ξ2 

 .. 

 . 

ξr
 
 
c= .. .
.
 
 
0
 
 
..
 
.
 
 
0

Resolvemos la i -ésima ecuación en el sistema homogéneo E A x = 0 para la i -


ésima variable básica xbi en función de las variables libres x f 1 , x f 2 , . . . , x f n−r para
dar
xbi = αi x f i + αi +1 x f i +1 + · · · + αn−r x f n−r .
Entonces la solución de la i -ésima variable básica en el sistema no homogéneo
reducido E A x = c debe tener la forma

xbi = ξi + αi x f i + αi +1 x f i +1 + · · · + αn−r x f n−r .

Esto es, las dos soluciones se diferencian únicamente en la presencia de la


constante ξi en la última. Si organizamos como columnas las expresiones ante-
riores, podemos decir que si la solución general del sistema homogéneo es de
la forma
h = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

52 Álgebra Lineal y Geometría


Depto. de Álgebra

entonces la solución general del sistema no homogéneo tiene la forma similar

x = p + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde la columna p contiene las constantes ξi junto con ceros. Tenemos así
que p es una solución particular del sistema de partida.
Lo anterior nos proporciona un método para resolver un sistema compati-
ble con matriz ampliada (A|b).

Solución general de un sistema compatible

Usamos eliminación gaussiana para reducir la matriz ampliada


[A|b] a una forma escalonada por filas [E |c].

Identificamos las variables básicas y las libres.

Aplicamos sustitución hacia atrás a [E |c] y despejamos las varia-


bles básicas en función de las libres.

Escribimos el resultado en la forma

x = p + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,

donde

• x f 1 , x f 2 , . . . , x f n−r son las variables libres, y


• p, h1 , h2 , . . . , hn−r son vectores columna de orden n.

Entonces p es una solución particular del sistema de matriz [A|b]


y
x f 1 h1 + x f 2 h2 + . . . + x f n−r hn−r
es la solución general del sistema homogéneo de matriz [A|0].
Esta será la solución general del sistema no homogéneo.

Como las variables libres x f i recorren todos los posibles valores, la solu-
ción general describe todas las posibles soluciones del sistema [A|b]. Como en
el caso homogéneo, podemos reducir completamente [A|b] a E [A|b] mediante
Gauss-Jordan, y evitamos la sustitución hacia atrás.

Álgebra Lineal y Geometría 53


Depto. de Álgebra

Ejemplo 1.13.1.- Consideremos el sistema no homogéneo

x1 + 2x2 + 2x3 + 3x4 = 4,


2x1 + 4x2 + x3 + 3x4 = 5,
3x1 + 6x2 + x3 + 4x4 = 7,

en el que la matriz de coeficientes es la misma que la matriz de coeficientes de


(1.12.1). Si [A|b] se reduce por Gauss-Jordan a E [A|b] , tenemos

1 2 2 3 4 1 2 0 1 2
   
G-J
[A|b] =  2 4 1 3 5  − →  0 0 1 1 1  = E [A|b] .
3 6 1 4 7 0 0 0 0 0

Nos queda el sistema equivalente

x1 + 2x2 + x4 = 2,
x3 + x4 = 1.

Resolvemos las variables básicas, x1 y x3 , en función de las libres, x2 y x4 y te-


nemos la expresión
x1 = 2 − 2x2 − x4 ,
x2 = x2 variable libre,
x3 = 1 − x4 ,
x4 = x4 variable libre.
La solución general la obtenemos escribiendo estas ecuaciones en la forma
         
x1 2 − x2 − x4 2 −2 −1
 x2   x2   0   1   0 
         
=  =   + x2   + x4  (1.13.1)
 x3   1 − x4   1   0   −1 
 
x4 x4 0 0 1
= p + x 2 h1 + x 4 h2 .

La columna  
2
0
 
p=
 
1

 
0
que aparece en (1.13.1) es una solución particular del sistema no homogéneo;
se tiene cuando x2 = 0, x4 = 0.
Además, la solución general del sistema homogéneo

x1 + 2x2 + 2x3 + 3x4 = 0,


2x1 + 4x2 + x3 + 3x4 = 0, (1.13.2)
3x1 + 6x2 + x3 + 4x4 = 0,

54 Álgebra Lineal y Geometría


Depto. de Álgebra

es      
x1 −2 −1
x2 1 0
     
 = x2   + x4  .
     
x3 0 −1

     
x4 0 1

Así, la solución general del sistema homogéneo (1.13.2) es una parte de la solu-
ción general del sistema no homogéneo original (1.13.1).

Ejemplo 1.13.2.- Calculemos la solución general del sistema

x1 + x2 + 2x3 + 2x4 + x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 3x5 = 1,
2x1 + 2x2 + 4x3 + 4x4 + 2x5 = 2,
3x1 + 5x2 + 8x3 + 6x4 + 5x5 = 3,

y la comparamos con la solución general del sistema homogéneo asociado.


En primer lugar, calculamos la forma escalonada reducida por filas de la
matriz ampliada [A|b].
   
1 1 2 2 1 1 1 1 2 2 1 1
2 2 4 4 3 1 0 0 0 0 1 −1 
   
[A|b] = → 
  
2 2 4 4 2 2 0 0 0 0 0 0 
  
  
3 5 8 6 5 3 0 2 2 0 2 0
   
1 1 2 2 1 1 1 1 2 2 1 1
0 2 2 0 2 0 0 1 1 0 1 0 
   
→   → 
  
0 0 0 0 1 −1 0 0 0 0 1 −1 

  
0 0 0 0 0 0 0 0 0 0 0 0
   
1 0 1 2 0 1 1 0 1 2 0 1
0 1 1 0 1 0 0 1 1 0 0 1 
   
→   →   = E [A|b] .
  
 0 0 0 0 1 −1   0 0 0 0 1 −1 
0 0 0 0 0 0 0 0 0 0 0 0

El sistema es compatible, pues la última columna es no básica. Resolvemos el


sistema reducido para las variables básicas x1 , x2 , x5 en función de las variables

Álgebra Lineal y Geometría 55


Depto. de Álgebra

libres x3 , x4 para obtener

x1 = 1 −x3 −2x4 ,
x2 = 1 −x3 ,
x3 = x3 (variable libre),
x4 = x4 (variable libre) ,
x5 = −1.

La solución general del sistema no homogéneo es


   
x1 1 − x3 − 2x4

 x2  
  1 − x3 

x= x3 = x3
   

x4 x4
   
   
x5 −1
     
1 −1 −2

 1 

 −1 
 
 0 
 
= 0  + x 3  1  + x 4  0  = p + x 3 h1 + x 4 h2 .
     
0   0   1 
     

−1 0 0

La solución general del sistema homogéneo asociado es


       
x1 −x3 − 2x4 −1 −2

 x2  
  −x3 


 −1 


 0 

x= x3 = x3  = x3  1  + x4  0 .
       
x4 x4 0 1
       
       
x5 0 0 0

Ahora nos hacemos una pregunta análoga al caso homogéneo: ¿cuándo un


sistema compatible tiene solución única?. Sabemos que la solución general de
un sistema no homogéneo compatible de orden m × n, con rango r , es de la
forma
x = p + x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
donde
x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r
es la solución general del sistema homogéneo asociado. Por tanto,

56 Álgebra Lineal y Geometría


Depto. de Álgebra

Sistemas no homogéneos: solución única

Un sistema compatible de matriz ampliada [A|b] tendrá una única so-


lución si y solamente si no hay variables libres, esto es, si y solamente
si rango(A) = n. Esto es lo mismo que decir que el sistema homogéneo
asociado [A|0] tiene únicamente la solución trivial.

Ejemplo 1.13.3.- Consideremos el siguiente sistema no homogéneo:

2x1 + 4x2 + 6x3 = 2,


x1 + 2x2 + 3x3 = 1,
x1 + x3 = −3,
2x1 + 4x2 = 8.

La forma escalonada reducida por filas de [A|b] es


   
2 4 6 2 1 0 0 −2
1 2 3 1 0 1 0 3 
   
[A|b] =  →  = E [A|b] .
  
 1 0 1 −3   0 0 1 −1 
2 4 0 8 0 0 0 0

El sistema es compatible porque la última columna no es básica, o bien por-


que rango(A) = 3 = número de incógnitas (no hay variables libres). El sistema
homogéneo asociado tiene únicamente la solución trivial, y la solución del sis-
tema original es
 
−2
p =  3 .
−1

Como resumen de todo lo anterior, hemos probado el siguiente teorema:

Álgebra Lineal y Geometría 57


Depto. de Álgebra

Teorema de Rouché-Frobenius

Dado un sistema lineal con m ecuaciones y n incógnitas y matriz am-


pliada [A|b], se tiene:

El sistema es incompatible si y solamente si rango(A) <


rango([A|b]).

El sistema es compatible determinado si y solamente si


rango(A) = rango([A|b]) = n.

El sistema es compatible indeterminado si y solamente si


rango(A) = rango([A|b]) < n.

58 Álgebra Lineal y Geometría


Capítulo 2

Álgebra matricial

2.1. Inversa de una matriz

Inversa de una matriz

Para una matriz cuadrada A n×n , la matriz B n×n que verifica las condi-
ciones
AB = I n y B A = I n
se denomina inversa de A, y la notaremos por B = A −1 . No todas la ma-
trices cuadradas tienen inversa. Una matriz con inversa se denomina
no singular o regular y una matriz cuadrada sin inversa se llama sin-
gular.

Ejemplo 2.1.1.- Consideremos las matrices


1 2 1 2
µ ¶ µ ¶
A1 = , A2 = .
1 3 1 2
¡ 3 −2 ¢
La matriz B 1 = −1 1 verifica que A 1 B 1 = B 1 A 1 = I 2 , por lo que A 1 tiene inver-
sa. ³ ´
Sin embargo, supongamos que existe B = bb11 b12
21 b22
tal que AB 2 = I 2 . Enton-
ces se tiene que verificar las relaciones
b 11 + 2b 21 = 1,


b 12 + 2b 22 = 0,


b + 2b 21 = 0,
 11


b 12 + 2b 22 = 1,

59
Depto. de Álgebra

que es un sistema incompatible en las incógnitas b i j . Por tanto, A 2 no tiene


inversa.

Aunque no todas las matrices tienen inversa, cuando existe, es única. Su-
pongamos que X 1 y X 2 son inversas de una matriz no singular A. Entonces

X 1 = X 1 I = X 1 (AX 2 ) = (X 1 A)X 2 = I X 2 = X 2 .

Ecuaciones matriciales

Si A es una matriz no singular, entonces existe una única solución


para X en la ecuación matricial A n×n X n×p = B n×p , que es X =
A −1 B.

Un sistema de n ecuaciones y n incógnitas se puede escribir co-


mo una ecuación matricial A n×n xn×1 = bn×1 . Por lo anterior, si A
es no singular, el sistema tiene solución única igual a x = A −1 b.

Sin embargo, debemos hacer hincapié en que la representación de la solu-


ción como x = A −1 b es conveniente desde el punto de vista teórico o de no-
tación. En la práctica, un sistema no singular A x = b nunca se resuelve calcu-
lando A −1 y entonces el producto A −1 b. Se realizan más operaciones así que
aplicando las técnicas de eliminación descritas en el tema anterior.
Como no todas las matrices cuadradas tienen inversa, se necesitan métodos
para distinguir entre matrices singulares y no singulares. Los más importantes
son los que siguen.

Existencia de inversa

Sea A una matriz cuadrada de orden n. Son equivalentes:

1. A −1 existe (A es no singular).

2. A x = 0 implica que x = 0.

3. rango(A) = n.
G-J
→ In .
4. A −

60 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : (1) ⇒ (2). Si A x = 0, multiplicamos por la izquierda por A −1 , que


existe por hipótesis, y tenemos que x = 0.
(2) ⇔ (3). Sabemos que el sistema lineal homogéneo A x = 0 tiene solución
única si y solamente si rango(A) = n (pág. 50), dado que no puede haber varia-
bles libres.
(3) ⇔ (4). Si rango(A) = n, la forma escalonada reducida por filas E A es una
matriz diagonal cuadrada de orden n, con n pivotes. La única forma posible es
E A = I n . El recíproco es inmediato.
(4) ⇒ (1). Si rango(A) = n, entonces cada sistema A x = I ∗ j es compatible,
porque rango([A|I ∗ j ]) = n = rango(A). Además, la solución es única, por lo que
la ecuación matricial AX = I tiene una única solución. Nos gustaría decir ya
que X = A −1 , pero nos hace falta primero probar que X A = I . Como

A(X A − I ) = AX A − A = I A − A = O,

se sigue que cada columna de X A − I es una solución del sistema homogéneo


A x = 0. La última condición nos dice que la única solución es la trivial, por lo
que todas las columnas de X A−I son nulas, esto es, X A−I = O, y X A = AX = I .


Nota 2.1.1. A partir del resultado anterior, podemos analizar lo que ocurre cuan-
do tenemos una inversa lateral de una matriz cuadrada. Supongamos que para
una matriz cuadrada A n×n existe una matriz X n×n con X A = I n . Entonces el
sistema A x = 0 lo podemos multiplicar por X a ambos lados, lo que nos da
que X A x = 0, de donde x = 0 es la única solución. Entonces, por el teorema
anterior, A tiene inversa A −1 , de donde

(X A)A −1 = I A −1 , luego X = A −1 .

Supongamos ahora que existe Yn×n tal que AY = I n . Si aplicamos lo anterior a


la matriz Y , tenemos que A = Y −1 , de donde Y A = Y Y −1 = I n y concluimos que
Y = A −1 .
Aunque evitaremos el cálculo de la inversa de una matriz, hay veces que
debemos hacerlo. Para construir un algoritmo que nos devuelva A −1 cuando
A n×n es no singular, recordemos que determinar A −1 es equivalente a resolver
la ecuación matricial AX = I , que es lo mismo que resolver los n sistemas de
ecuaciones definidos por

A x = I ∗ j , j = 1, 2, . . ., n.

En otras palabras, si X ∗1 , X ∗2 , . . . , X ∗n son las respectivas soluciones, entonces

X = X ∗1 X ∗2 . . . X ∗n
¡ ¢

Álgebra Lineal y Geometría 61


Depto. de Álgebra

resuelve la ecuación AX = I y de aquí X = A −1 .


Si A es no singular, el método de Gauss-Jordan reduce la matriz ampliada
[A|I ∗ j ] a [I |X ∗ j ], y sabemos que X ∗ j es la única solución de A x = I ∗ j . En otras
palabras,
Gauss-Jordan
[A|I ∗ j ] −−−−−−−−−−−→[I |[A −1 ]∗ j ].
Pero mejor que resolver cada sistema A x = I ∗ j de forma independiente, po-
demos resolverlos simultáneamente aprovechando que todos tienen la misma
matriz de coeficientes. En otras palabras, si aplicamos Gauss-Jordan a la matriz
ampliada [A|I ∗1 |I ∗2 | . . . |I ∗n ] obtenemos
Gauss-Jordan
[A|I ∗1 |I ∗2 | . . . |I ∗n ] −−−−−−−−−−−→[I |[A −1 ]∗1 |[A −1 ]∗2 | . . . |[A −1 ]∗n ],

o de manera más compacta


Gauss-Jordan
[A|I ] −−−−−−−−−−−→[I |A −1 ].

¿Qué ocurre si intentamos invertir una matriz singular con este procedimiento?
El resultado anterior nos indica que una matriz singular A no puede ser redu-
cida mediante Gauss-Jordan a la matriz I porque una fila de ceros aparecerá
en algún momento en la zona correspondiente a la matriz A. Por ello, no tene-
mos que saber a priori si la matriz que tenemos es o no singular, pues resultará
evidente en el proceso de cálculo.

Cálculo de la inversa

La eliminación de Gauss-Jordan se puede usar para el cálculo de la in-


versa de una matriz A mediante la reducción
Gauss-Jordan
[A|I ] −−−−−−−−→[I |A −1 ].

La única posibilidad de que este método falle es porque aparezca una


fila de ceros en el lado izquierdo de la matriz ampliada, y esto ocurre si
y solamente si la matriz A es singular.

Ejemplo 2.1.2.- Calculemos, si existe, la inversa de la matriz


1 1 1
 

A =  1 2 2 .
1 2 3

62 Álgebra Lineal y Geometría


Depto. de Álgebra

Aplicamos el método de Gauss-Jordan para obtener

1 1 1 1 0 0 1 1 1 1 0 0
   

[A|I ] =  1 2 2 0 1 0  →  0 1 1 −1 1 0 
1 2 3 0 0 1 0 1 2 −1 0 1
1 0 0 2 −1 0 1 0 0 2 0
   
−1
→  0 1 1 −1 1 0  →  0 1 0 −1 2 −1  .
0 0 1 0 −1 1 0 0 1 0 −1 1

Por tanto, la matriz es no singular y

2 −1 0
 

A −1 =  −1 2 −1  .
0 −1 1

Propiedades de la inversión de matrices

Para matrices no singulares A y B, se verifica que

(A −1 )−1 = A.

El producto AB es no singular y (AB)−1 = B −1 A −1 .

(A −1 )t = (A t )−1 y (A −1 )∗ = (A ∗ )−1 .

P RUEBA : La primera es inmediata. Las dos partes de la segunda se prueban


simultáneamente. Sea X = B −1 A −1 . Entonces (AB)X = I , y como son matrices
cuadradas, tenemos que X = (AB)−1 . La última propiedad tiene un tratamiento
similar. Sea X = (A −1 )t , que sabemos que existe (observemos que todavía no
podemos garantizar el carácter no singular de A t ). Entonces

A t X = A t (A −1 )t = (A −1 A)t = I t = I ,

de donde A t es no singular y (A t )−1 = (A −1 )t . La prueba de la segunda parte es


similar. 

Álgebra Lineal y Geometría 63


Depto. de Álgebra

2.2. Matrices elementales y equivalencia


Nota 2.2.1. O PERACIONES ELEMENTALES POR COLUMNAS. Es evidente que las
mismas operaciones elementales por filas descritas en el tema anterior pueden
realizarse por columnas. Tenemos entonces tres tipos de operaciones análogas
a las operaciones elementales por filas:

Tipo I. Intercambiar las columnas i y j .

Tipo II. Reemplazar la columna i por un múltiplo no nulo de ella misma.

Tipo III. Reemplazar la columna j por la suma de ella misma con un múl-
tiplo de la columna j .

Análogamente a lo visto para las filas existen unas matrices especiales llamadas
formas escalonadas por columnas y formas escalonadas reducidas por colum-
nas. La trasposición de matrices nos permite definir rápidamente estos con-
ceptos:

Una matriz se dice que es una forma escalonada por columnas si su tras-
puesta es una forma escalonada por filas.

Una matriz se dice que es una forma escalonada reducida por columnas
si su traspuesta es una forma escalonada reducida por filas.

Igualmente se puede comprobar que toda matriz puede ser transformada. me-
diante operaciones por columnas en una forma escalonada por columnas y en
una forma escalonada reducida por columnas. Por último, dos matrices se di-
cen equivalentes por columnas si puede transformarse una en otra mediante
operaciones elementales por columnas.
Obsérvese que las operaciones elementales por columnas no transforman
la matriz de un sistema lineal en la matriz de otro sistema lineal equivalente.
Si A m×n es una matriz arbitraria, sabemos que la matriz A t es equivalente
por filas a una única forma escalonada reducida por filas, por lo que A es equi-
valente por columnas a una única forma escalonada reducida por columnas.
Nota 2.2.2. Sean los vectores columna ei , de orden m × 1, que tienen todas sus
entradas nulas salvo un 1 en la posición i , con i = 1, . . . , m. Observemos que
la multiplicación de una matriz A m×n por un vector columna e j resulta A e j =
A ∗ j , la columna j -ésima de la matriz A. Análogamente, si ahora ei es de orden
n ×1, la multiplicación del traspuesto de éste con la matriz A resulta eit A = A i ∗ ,
la fila i -ésima de la matriz A.
La matriz identidad tiene por columnas a estos e j y por filas a eit .

64 Álgebra Lineal y Geometría


Depto. de Álgebra

Vamos a ver que las operaciones elementales que usamos para la elimina-
ción gaussiana pueden interpretarse como productos por ciertas matrices de
estructura muy sencilla.

Matriz elemental de tipo I

Decimos que una matriz cuadrada E i j es elemental de tipo I si se obtie-


ne a partir de la matriz identidad I n mediante una operación elemental
por filas de tipo I. Es decir, si E i j se obtiene de I n al intercambiar las
filas i y j .

En este caso todas las entradas de la matriz E i j son nulas, salvo


[E i j ]kk = 1, para k 6= i , j , [E i j ]i j = 1, [E i j ] j i = 1.
Si atendemos a las filas de E observamos que
[E i j ]k∗ = ekt si k 6= i , j , [E i j ]i ∗ = etj , [E i j ] j ∗ = eit .

Ejemplo 2.2.1.- Si n = 3, entonces las matrices


0 0 1 1 0 0
   

E 13 =  0 1 0  , E 23 =  0 0 1 
1 0 0 0 1 0
son matrices elementales de tipo I.

Propiedades de una matriz elemental de tipo I

La multiplicación de una matriz elemental de tipo I a la izquierda


de una matriz produce en ésta una operación elemental por filas
de tipo I.

La multiplicación de una matriz elemental de tipo I a la derecha


de una matriz produce en ésta una operación elemental por co-
lumnas de tipo I.

Si E es una matriz elemental de tipo I entonces E es no singular y


su inversa es ella misma. Es decir, E E = I .

Álgebra Lineal y Geometría 65


Depto. de Álgebra

P RUEBA : Basta probar el primer punto, pues el segundo, además de ser


análogo, se deduce del primero por trasposición de matrices.
Sean entonces A m×n y E m×m la matriz obtenida de la identidad al intercam-
biar las filas i y j . Vamos a describir la multiplicación E A por filas, es decir,

[E A]k∗ = E k∗ A, k = 1, . . . m.

Si k 6= i , j sabemos que E k∗ = ekt , de donde calculamos la fila k−ésima de E A:

[E A]k∗ = E k∗ A = ekt A = A k∗ , con k 6= i , j.

Además E i ∗ = etj y E j ∗ = eit . Luego las filas i −ésima y j −ésima de E A son

[E A]i ∗ = E i ∗ A = etj A = A j ∗ y [E A] j ∗ = E j ∗ A = eit A = A i ∗ .

Es decir, la matriz E A es la que se obtiene de A al intercambiar las filas i y j .


La demostración de la última proposición es consecuencia del resultado an-
terior. Si E es la matriz que se obtiene de la identidad al intercambiar las filas
i y j , el producto a la izquierda de E por ella misma vuelve a intercambiar las
filas i y j , obteniendo E E = I . 

Matriz elemental de tipo II

Decimos que una matriz cuadrada E i (α) es elemental de tipo II si se


obtiene a partir de la matriz identidad I n mediante una operación ele-
mental por filas de tipo II. Es decir, si E i (α) se obtiene de I n al sustituir
la fila i por un múltiplo no nulo de ella (α 6= 0).

En este caso todas las entradas de la matriz E i (α) son nulas, salvo

[E i (α)]kk = 1, k 6= i , [E i (α)]i i = α, con α 6= 0.

Si atendemos a las filas de E observamos que

[E i (α)]k∗ = ekt si k 6= i , [E i (α)]i ∗ = αeit con α 6= 0.

66 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 2.2.2.- Si n = 3, entonces las matrices

−3 0 0 1 0 0
   
1
E 1 (−3) =  0 1 0  , E 3 ( ) =  0 1 0 
2
0 0 1 0 0 12

son matrices elementales de tipo II.

Propiedades de una matriz elemental de tipo II

La multiplicación de una matriz elemental de tipo II a la izquier-


da de una matriz produce en ésta una operación elemental por
filas de tipo II.

La multiplicación de una matriz elemental de tipo II a la derecha


de una matriz produce en ésta una operación elemental por co-
lumnas de tipo II.

Si E es una matriz elemental de tipo II entonces E es no singular


y su inversa es otra matriz elemental tipo II.

P RUEBA : La primera parte es similar a la proposición correspondiente de


las matrices elementales de tipo I. Es fácil comprobar que si E es la matriz que
se obtiene de la identidad al multiplicar la fila i por α 6= 0 entonces E −1 es la
matriz que se obtiene de la identidad al multiplicar por 1/α la fila i . 

Matriz elemental de tipo III

Decimos que una matriz cuadrada E i j (α) es elemental de tipo III si se


obtiene a partir de la matriz identidad I n mediante una operación ele-
mental por filas de tipo III. Es decir, si E i j (α) se obtiene de I n al sustituir
la fila i por la suma de ella misma con un múltiplo de la fila j .

En este caso todas las entradas de la matriz E i j (α) son nulas, salvo

[E i j (α)]i i = 1 para todo i = 1, . . . n, [E i j (α)]i j = α.

Álgebra Lineal y Geometría 67


Depto. de Álgebra

Si atendemos a las filas de E i j (α) observamos que

[E i j (α)]k∗ = ekt si k 6= i , [E i j (α)]i ∗ = eit + αetj .

Ejemplo 2.2.3.- Si n = 3, las matrices

1 −4 0 1 0 0
   

E 12 (−4) =  0 1 0  , E 31 (−7) =  0 1 0 
0 0 1 −7 0 1

son matrices elementales de tipo III.

Propiedades de una matriz elemental de tipo III

La multiplicación de una matriz elemental de tipo III a la izquier-


da de una matriz produce en ésta una operación elemental por
filas de tipo III.

La multiplicación de una matriz elemental de tipo III a la dere-


cha de una matriz produce en ésta una operación elemental por
columnas de tipo III.

Si E es una matriz elemental de tipo III entonces E es no singular


y su inversa es otra matriz elemental tipo III.

P RUEBA : La parte correspondiente a multiplicar a la izquierda es sencilla. Al


multiplicar por la derecha, el resultado es una transformación de tipo III, pero
intercambiando el papel de las columnas correspondientes. Es fácil comprobar
que la inversa de E i j (α) es E i j (−α). 

Aunque no hemos hablado de dimensiones, lo anterior es válido para ma-


trices generales de orden m × n.

68 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 2.2.4.- Consideremos la sucesión de operaciones para reducir

1 2 4
 

A= 2 4 8 
3 6 13

a su forma escalonada reducida por filas E A .

 F2 − 2F1 
1 2 4 1 2 4
 
F3 − 3F1
A = 2 4 8 −−−−−−−→ 0
   0 0 
3 6 13 0 0 1
1 2 4 1 2 0
   
F23 F1 − 4F2
→ 0 0 1 −−−−−−−→ 0
−    0 1  = EA
0 0 0 0 0 0

La reducción se puede ver como una sucesión de multiplicaciones a izquierda


por la matrices elementales correspondientes.

1 −4 0 1 0 0 1 0 0 1 0 0
    
 0 1 0   0 0 1   0 1 0   −2 1 0  A = E A .
0 0 1 0 1 0 −3 0 1 0 0 1

Producto de matrices elementales

Una matriz A es no singular si y solamente si A es el producto de ma-


trices elementales de tipos I, II, o III.

P RUEBA : Si A es no singular, el método de Gauss-Jordan reduce A a la ma-


triz I mediante operaciones por fila. Si G 1 ,G 2 , . . . ,G k son las correspondientes
matrices elementales, entonces

G k · · ·G 2G 1 A = I , o bien A = G 1−1G 2−1 · · ·G k−1 .

Como la inversa de una matriz elemental es una matriz elemental, esto prueba
que A se puede expresar como producto de matrices elementales.
Recíprocamente, si A = E 1 E 2 · · · E k es un producto de matrices elementales,
entonces A es no singular, pues es el producto de matrices no singulares. 

Álgebra Lineal y Geometría 69


Depto. de Álgebra

Ejemplo 2.2.5.- Expresemos

−2 3
µ ¶
A=
1 0

como producto de matrices elementales. Mediante la reducción a su forma es-


calonada reducida por filas, comprobaremos que A es no singular, y la expre-
saremos como dicho producto. En efecto,

1 −3/2 1 −3/2
à ! µ 1 à !
− 21 F1 −2 0

A → A=
1 0 0 1 1 0
1 −3/2 1 −3/2 1 −3/2
à ! à ! à !
1 0
µ ¶
F2 −F1
→ =
0 3/2 −1 1 1 0 0 3/2
1 1 1
à ! à ! à !
2 −3/2 −3/2 −3/2
1 0
µ ¶
3 F 2
→ =
0 1 0 23 0 3/2 0 1
1 0 ¶ Ã 1 −3/2 ! Ã 1 0 !
à !
3 3
1 2
µ
F1 + 2 F2
→ . = .
0 1 0 1 0 1 0 1

Entonces
1 32 1 0 1 0 − 12 0
µ ¶µ ¶µ ¶µ ¶
A = I 2,
0 1 0 23 −1 1 0 1
de donde
−2 0 1 0 1 0 1 − 32
µ ¶µ ¶µ ¶µ ¶
A= .
0 1 1 1 0 32 0 1

Equivalencia de matrices

Cuando una matriz B se obtiene de una matriz A mediante operaciones


elementales de filas y columnas, escribiremos A ∼ B y diremos que A y
B son matrices equivalentes. Otra forma de expresarlo es que

A ∼ B si y solamente si B = P AQ para matrices no singulares P y Q.

70 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 2.2.6.- Las matrices


−1 4 0 4 86 −15 −16 −33
   

A =  −3 2 −4 2  y B =  −6 51 −8 −43 
−2 −2 −2 −4 28 33 −12 −43
son equivalentes porque P AQ = B para las matrices no singulares
 
0 3 2 3
2 3 2
 
 2 3 1 −3 
 
P =  2 −3 −2  ,Q = 
 −3 0 −1 −3 

2 −1 −1
3 0 −2 −1

Equivalencia por filas y columnas

Decimos que dos matrices A, B de la misma dimensión m ×n son


equivalentes por filas si existe una matriz P de orden m no sin-
f
gular tal que P A = B. Lo notamos como A ∼ B.

Decimos que dos matrices A, B de la misma dimensión m ×n son


equivalentes por columnas si existe una matriz Q de orden n no
c
singular tal que AQ = B. Lo notamos como A ∼ B.

Estas relaciones son de equivalencia.

Ejemplo 2.2.7.- Toda matriz A es equivalente por filas a su forma escalonada


reducida por filas E A . La matriz
1 0 0 0
 

B =  0 1 0 0  es equivalente por columnas a la matriz


0 0 0 0
 
0 3 2 3
0 3 2 3
 
2 3 1 −3
 
B ·  = 2 3 1 −3  .
  
 −3 0 −1 −3 
0 0 0 0
3 0 −2 −1

Álgebra Lineal y Geometría 71


Depto. de Álgebra

Relaciones entre filas y columnas

f
Si A ∼ B, entonces las relaciones que existen entre las columnas
de A también se tienen entre las columnas de B. Esto es,
n
X n
X
B ∗k = α j B ∗ j si y solamente si A ∗k = α j A∗ j .
j =1 j =1

c
Si A ∼ B, entonces las relaciones que existen entre las filas de A
también se tienen entre las filas de B.

En particular, las relaciones entre columnas en A y E A deben ser las mismas,


por lo que las columnas no básicas de A son combinación lineal de las básicas.
f
P RUEBA : Si A ∼ B, entonces P A = B, para una matriz P no singular. Tal
como vimos en el producto de matrices,

B ∗ j = (P A)∗ j = P A ∗ j .

Por tanto, si A ∗k = nj=1 α j A ∗ j , la multiplicación a la izquierda por P produce


P

B ∗k = nj=1 α j B ∗ j . El recíproco se obtiene con P −1 .


P

El resultado para las columnas se deduce inmediatamente a partir de lo an-


terior aplicado a A t y B t . 

Nota 2.2.3. Sea A m×n una matriz de rango r y G una matriz elemental de orden
m × m. Por la unicidad de la forma escalonada reducida por filas, la aplicación
de Gauss-Jordan a A y G A nos lleva a la misma matriz, por lo que rango(A) =
rango(G A). Entonces, si P es una matriz no singular de orden m × m, sabemos
que P es producto de matrices elementales, por lo que lo anterior nos dice que
rango(P A) = rango(A).

Podemos extender el resultado anterior para probar la invariancia del rango


por el producto de matrices no singulares.

72 Álgebra Lineal y Geometría


Depto. de Álgebra

Invariancia del rango para matrices equivalentes

Sea A m×n una matriz, y P m×m ,Q n×n matrices no singulares. Entonces

rango(A) = rango(P AQ).

P RUEBA : Por la nota anterior, sabemos que rango(A) = rango(P A) para cual-
quier matriz no singular P m×m . Por tanto,

rango(P AQ) = rango(AQ),

y basta probar que rango(AQ) = rango(A). Podemos transformar la matriz B =


AQ, mediante producto por matrices elementales a la izquierda, a la matriz
E A Q. Sea r = rango(A). Entonces E A tiene r filas no nulas y m − r filas nulas al
final. Esto implica que la matriz E A Q tiene m − r filas nulas al final, de donde
rango(AQ) = rango(E A Q) ≤ r = rango(A). Si aplicamos esta conclusión al pro-
ducto (AQ)Q −1 , obtenemos que

rango(A) = rango(AQQ −1 ) = rango((AQ)Q −1 ) ≤ rango(AQ)

y concluimos que rango(AQ) = rango(A). 

2.3. Forma normal del rango


La forma escalonada reducida por filas E A es lo más lejos que podemos lle-
gar mediante transformaciones por filas. Sin embargo, si permitimos además
el uso de transformaciones por columnas, la reducción es mucho mayor.

Forma normal de rango

Si A es una matriz de orden m × n y rango(A) = r , entonces


µ ¶
O Ir
A ∼ Nr = .
O O

Nr se denomina forma normal de rango de A.

Álgebra Lineal y Geometría 73


Depto. de Álgebra

f
P RUEBA : Como A ∼ E A , existe una matriz no singular P tal que P A = E A . Si
rango(A) = r , entonces las columnas básicas de E A son las r columnas unita-
rias. Mediante intercambio de columnas aplicados a E A , podemos poner estas
r columnas en la parte superior izquierda. Si Q 1 es el producto de las matrices
elementales que hacen estos intercambios, entonces
µ ¶
Ir J
P AQ 1 = E A Q 1 = .
O O

Ahora multiplicamos a la derecha ambos lados de esta expresión por la matriz


no singular
µ ¶
I r −J
Q2 = ,
O I
y nos queda
µ ¶
IrO
P AQ 1Q 2 = .
O O
Entonces A ∼ Nr . 

Ejemplo 2.3.1.- Veamos que


µ ¶
A O
rango = rango(A) + rango(B).
O B

Si rango(A) = r y rango(B) = s, entonces A ∼ Nr y B ∼ N s , y


µ ¶ µ ¶
A O Nr O
∼ ,
O B O Ns

de donde µ ¶
A O
rango = r + s.
O B

f c
Dadas matrices A y B, ¿cómo decidimos si A ∼ B, A ∼ B o A ∼ B?

74 Álgebra Lineal y Geometría


Depto. de Álgebra

Test de equivalencia

Sean A y B matrices de orden m × n. Entonces

A ∼ B si y solamente si rango(A) = rango(B).

f
A ∼ B si y solamente si E A = E B .
c
A ∼ B si y solamente si E A t = E B t .

En consecuencia, el producto por matrices no singulares no altera el


rango.

P RUEBA : Si rango(A) = rango(B), entonces A ∼ Nr y B ∼ Nr , de donde A ∼ Nr ∼


B. Recíprocamente, si A ∼ B, entonces B = P AQ con P y Q no singulares, de
donde rango(B) = rango(A).
f f f
Supongamos ahora que A ∼ B. Como B ∼ E B , entonces A ∼ E B , y dado que
la forma escalonada reducida por filas es única, se sigue que E B = E A . Recípro-
camente, si E A = E B , entonces
f f
A ∼ E A = E B ∼ B.
c f
Para las columnas, basta considerar que A ∼ B si y solamente si A t ∼ B t . 

Rango y trasposición

rango(A) = rango(A t ) y rango(A) = rango(A ∗ ).

P RUEBA : Sea rango(A) = r , y sean P y Q matrices no singulares tales que


µ ¶
Ir Or ×(n−r )
P AQ = Nr = .
O(m−r )×r O(m−r )×(n−r )
Entonces Nrt = Q t A t P t . Como Q t y P t son no singulares, se sigue que A t ∼ Nrt ,
y entonces
µ ¶
t t Ir Or ×(m−r )
rango(A ) = rango(Nr ) = rango = r = rango(A).
O(n−r )×r O(n−r )×(m−r )

Álgebra Lineal y Geometría 75


Depto. de Álgebra

De forma análoga, Nr∗ = Q ∗ A ∗ P ∗ , donde Q ∗ , P ∗ son matrices no singulares.


Como µ ¶
∗ Ir Or ×(m−r )
Nr = ,
O(n−r )×r O(n−r )×(m−r )
se tiene que rango(Nr∗ ) = r , y como rango(A ∗ ) = rango(Nr∗ ) por equivalencia de
matrices, tenemos que rango(A ∗ ) = r = rango(A). 

2.4. * Producto directo de matrices

Producto directo o de Kronecker

Sean A m×n , B p×q matrices. El producto directo o de Kronecker de A y


B es la matriz C mp×nq definida como

C = A ⊗ B = ai j B, i = 1, 2, . . . , m, j = 1, 2, . . ., n.

Ejemplo 2.4.1.- El producto de Kronecker de las matrices

2 1
 
1 2
µ ¶
A= , B =  −1 0 
3 4
3 2

es
2 1 4 2 2 4 1 2
   

−1 0 −2 0   6 8 3 4
   
 
 3 2 6 4  
−1 −2 0 0

A ⊗B =   yB⊗A= .
   
 6 3 8 4   −3 −4 0 0 
0 −4 0 6 2 4
   
 −3   −3 
9 6 12 8 9 12 6 8

76 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades del producto de Kronecker

1. Sean A y B matrices del mismo tamaño. Entonces (A + B) ⊗ C =


A ⊗C + B ⊗C y C ⊗ (A + B) = C ⊗ A +C ⊗ B.

2. Si A,C y B, D son parejas de matrices ajustadas para el producto,


entonces (A ⊗ B)(C ⊗ D) = AC ⊗ BD.

3. Si A y B son matrices no singulares, entonces (A ⊗ B)−1 = A −1 ⊗


B −1 .

4. (A ⊗ B)t = A t ⊗ B t .

Álgebra Lineal y Geometría 77


Depto. de Álgebra

78 Álgebra Lineal y Geometría


Capítulo 3

Determinantes

Al comienzo del curso hacíamos referencia al antiguo tablero chino para


contar, en el que cañas de bambú coloreadas se manipulaban de acuerdo a
ciertas reglas para resolver un sistema de ecuaciones lineales. El tablero chino
parece que se usaba por el 200 a.C., y mantuvo su mecanismo durante un mile-
nio. El tablero y las reglas para usarlo llegaron a Japón, donde Seki Kowa (1642-
1708), un gran matemático japonés, sintetizó las antiguas ideas chinas de ma-
nipulación de rectángulos. Kowa formuló el concepto de lo que hoy llamamos
determinante para facilitar la resolución de sistemas lineales. Se piensa que su
definición data de poco antes de 1683.
Alrededor de los mismos años, entre 1678 y 1693, Gottfried W. Leibniz (1646-
1716), un matemático alemán, desarrollaba su propio concepto de determi-
nante de forma independiente, junto con aplicaciones de manipulación de rec-
tángulos de números para resolver sistemas de ecuaciones lineales. El traba-
jo de Leibniz solamente trata sistemas de tres ecuaciones con tres incógnitas,
mientras que Seki Kowa dio un tratamiento general para sistemas de n ecuacio-
nes con n incógnitas. Parece que tanto Kowa como Leibniz desarrollaron lo que
se llamó posteriormente regla de Cramer, pero no en la misma forma ni nota-
ción. Estos dos hombres tuvieron algo en común: sus ideas sobre la resolución
de sistemas lineales nunca fueron adoptadas por la comunidad matemática de
su tiempo, y sus descubrimientos se desvanecieron rápidamente en el olvido.
Al final, el concepto de determinante se redescubrió, y la materia ha sido inten-
samente tratada en el periodo de 1750 a 1900. Durante el mismo, los determi-
nantes se convirtieron en la mayor herramienta usada para analizar y resolver
sistemas lineales, mientras que la teoría de matrices permanecía relativamente
poco desarrollada. Pero las matemáticas, como un río, están siempre cambian-
do su curso, y grandes afluentes se pueden secar y convertirse en riachuelos,
mientras que pequeños arroyuelos se convierten en poderosos torrentes. Esto
es precisamente lo que ocurrió con las matrices y determinantes. El estudio y

79
Depto. de Álgebra

uso de los determinantes llevó al álgebra matricial de Cayley, y hoy las matri-
ces y el álgebra lineal están en la corriente principal de la matemática aplicada,
mientras que el papel de los determinantes ha sido relegado a una zona de re-
manso, por seguir con la analogía fluvial. Sin embargo, todavía es importante
comprender qué es un determinante y aprender sus propiedades fundamenta-
les. Nuestro objetivo no es aprender determinantes por su propio interés, sino
que exploraremos aquellas propiedades que son útiles en el posterior desarro-
llo de la teoría de matrices y sus aplicaciones.

Existen varias aproximaciones para la definición del determinante de una


matriz, de las que destacamos dos vías. La primera es de tipo inductivo, en
donde el determinante de una matriz de orden n se calcula a partir de los de-
terminantes de matrices de orden n − 1. La segunda se basa en una definición
directa, que precisa el concepto de permutación y de su clasificación en tipo
par o impar. Desarrollaremos ambas, con un teorema de unicidad que garanti-
za la igualdad de ambas definiciones. La elección de una forma u otra depende
del aspecto teórico en el que se quiera insistir.

3.1. Definición inductiva

Sea A una matriz cuadrada de orden n con coeficientes en un cuerpo K.


Más adelante será necesario trabajar con matrices cuyos coeficientes son poli-
nomios, pero los podemos considerar como elementos del cuerpo de fraccio-
nes. Si n = 1, entonces A = (a11 ) y definimos su determinante como det(A) =
a11 . Si n > 1 y A = (ai j ), llamamos cofactor del elemento ai j al número  i j =
(−1)i +j det(Mi j ), donde Mi j es la matriz de orden n − 1 que se obtiene al elimi-
nar la fila i -ésima y la columna j -ésima de la matriz A. Se define entonces la
función determinante como det : M (n × n, K) → K dada por

det(A) = a11 Â 11 + a21 Â 21 + · · · + an1 Â n1 ,

es decir, la suma de los productos de cada elemento de la primera columna por


su cofactor correspondiente.

80 Álgebra Lineal y Geometría


Depto. de Álgebra

Determinante: forma inductiva

Sea A = (ai j ) una matriz cuadrada de orden n.

Si n = 1, entonces det(A) = a11 .

Si n > 1, entonces

det(A) = a11 Â 11 + a21 Â 21 + · · · + an1 Â n1 ,

donde  i j = (−1)i +j det(Mi j ) es el cofactor del elemento ai j .

Ejemplo 3.1.1.-
1. Para una matriz 2 × 2 se tiene
µ ¶
a11 a12
det = a11 Â 11 + a21 Â 21
a21 a22
= a11 a22 − a21 a12 .

2. Para la matriz identidad,

det(I n ) = 1 · det(I n−1 ),

y por inducción det(I n ) = 1.

3. Para una matriz 3 × 3 se tiene


 
a11 a12 a13
det  a21 a22 a23  = a11 Â 11 + a21 Â 21 + a31 Â 31
a31 a32 a33
µ ¶ µ ¶
a22 a23 a12 a13
= a11 det − a21 det
a32 a33 a32 a33
µ ¶
a12 a13
+ a31 det
a22 a23
= a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 )
+ a31 (a12 a23 − a22 a13 )
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31
− a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Álgebra Lineal y Geometría 81


Depto. de Álgebra

+ −

Figura 3.1: Regla de Sarrus

Esta es la que se conoce como regla de Sarrus, que admite la representa-


ción gráfica de la figura para los sumandos positivos y negativos.

4. El determinante de una matriz triangular superior es el producto de sus


elementos diagonales.

Ejemplo 3.1.2.-
 
1 2 3 4    
1 2 4 2 3 4
 0 1 2 4
 
 = 1 · det  3 4 5  − 0 · det  3 4 5 

det 
 2 3 4 5 
0 1 2 0 1 2
2 0 1 2
   
2 3 4 2 3 4
+ 2 · det  1 2 4  − 2 · det  1 2 4 
0 1 2 3 4 5
= 3 − 4 − 2 = −3.

82 Álgebra Lineal y Geometría


Depto. de Álgebra

De los ejemplos anteriores, observamos que esta forma de calcular el valor


de un determinante es muy costosa en cuanto al número de operaciones, pues
una matriz de orden n contiene n! sumandos, cada uno de ellos con un pro-
ducto de n elementos. Por ellos, vamos a estudiar qué propiedades posee esta
función que permita su evaluación de una forma más simple.

3.2. Propiedades

Lineal en las filas

La aplicación determinante es lineal en las filas.

P RUEBA :

Sea A una matriz de orden n, cuya fila A i ∗ se expresa como suma de dos
vectores fila B i ∗ +C i ∗ . Debemos probar que
     
A 1∗ A 1∗ A 1∗
 ..   ..   .. 

 . 

 . 
 
 .



det 
 B i ∗ +C i ∗
 = det  B i ∗  + det  C i ∗
   
.

 ..   ..   .. 
 .   .   . 
A n∗ A n∗ A n∗

La prueba es por inducción sobre n. Para n = 1 no haya nada que probar.


Si n > 1, en la primera propiedad, sea A la matriz inicial, y B y C las ma-
trices que aparecen a la derecha de la igualdad. Llamemos ai j = b i j + ci j
los elementos de la fila i -ésima de la matriz A. Es fácil ver que el cofactor
de ai 1 en la matriz A es igual a los cofactores de los elementos b i 1 y ci 1 en
las matrices B y C , respectivamente: Â i 1 = B̂ i 1 = Ĉ i 1 . Tenemos entonces

det(A) = a11 Â 11 + · · · + (b i 1 + ci 1 ) Â i 1 + · · · + an1 Â n1 .

Cada uno de los cofactores  t1 , con t 6= i es un determinante de orden


n−1 y una fila expresada como suma de otras dos. Entonces, por hipótesis

Álgebra Lineal y Geometría 83


Depto. de Álgebra

de inducción, Â t1 = B̂ t1 + Ĉ t1 para cada t 6= i . Obtenemos así que

det(A) = a11 (B̂ 11 + Ĉ 11 ) + · · · + (b i 1 + ci 1 ) Â i 1 + · · · + an1 (B̂ n1 + Ĉ n1 )


= a11 B̂ 11 + · · · + b i 1 B̂ i 1 + · · · + an1 B̂ n1
+ a11Ĉ 11 + · · · + ci 1Ĉ i 1 + · · · + an1 Ĉ n1
= det(B) + det(C ).

Sea A una matriz cuya fila A i ∗ es el producto de un escalar por un vector


fila, esto es, A i ∗ = αB i ∗ . Hay que probar que
   
A 1∗ A 1∗
 ..   .. 
 .   . 
   
det  αB i ∗  = α det 
 
 Bi ∗
.

 .   .
 ..   ..


A n∗ A n∗

Aplicamos inducción sobre n. Si n = 1, es trivial. Si n > 1, llamemos B a


la matriz que aparece a la derecha de la igualdad. Entonces ai j = αb i j
y el cofactor del elemento ai 1 es igual al cofactor del elemento b i 1 . Para
t 6= i , el cofactor del elemento a t1 es αB̂ t1 , por la hipótesis de inducción.
Entonces

det(A) = a11 Â 11 + · · · + ai 1 Â i 1 + · · · + an1 Â n1


= a11 αB̂ 11 + · · · + αai 1 B̂ i 1 + · · · + an1 αB̂ n1
= α det(B).

Una consecuencia inmediata de lo anterior es que si A tiene una fila de ce-


ros, entonces det(A) = 0; supongamos que la fila A i ∗ contiene únicamente va-
lores nulos. En tal caso, podemos sacar el factor cero y tenemos el resultado.

Alternada

Si A es una matriz con dos filas iguales, entonces det(A) = 0. Si B es la


matriz que resulta de intercambiar dos filas de la matriz A, entonces
det(B) = − det(A).

P RUEBA :

84 Álgebra Lineal y Geometría


Depto. de Álgebra

Caso 1. Las filas iguales de la matriz A son consecutivas. Hacemos la


prueba por inducción. Para n = 2 es una sencilla comprobación. Supon-
gamos entonces n > 2. Si las filas iguales son A i ∗ y A i +1∗ , entonces ai 1 =
ai +1,1 y

det(A) = a11 Â 11 + · · · + ai 1 Â i 1 + ai 1 Â i +1,1 + · · · + an1 Â n1 .

Para t 6= i , i + 1, el cofactor  t1 corresponde a una matriz de orden n − 1


con dos filas iguales, por lo que  t1 = 0 para t 6= i , i + 1. Por otro lado,

 i 1 = (−1)i +1 det(Mi 1 ),  i +1,1 = (−1)i +2 det(Mi +1,1 ),

y las matrices Mi 1 y Mi +1,1 son iguales. En consecuencia, Â i 1 = − Â i +1,1 y


det(A) = 0.

Caso 2. Intercambio de dos filas consecutivas. Por el caso 1, sabemos que


 
A 1∗
 .. 
 . 
 
 A i ∗ + A i +1,∗ 
0 = det 
 A i ∗ + A i +1,∗


 
 .. 
 . 
A n∗
       
A 1∗ A 1∗ A 1∗ A 1∗
 ..   ..   ..   .. 
 .   .   .   . 
       
 Ai ∗   Ai ∗
 + det  A i +1,∗  + det  A i +1,∗
    
= det 
 A i ∗  + det  A i +1,∗
 
  A i +1,∗   Ai ∗


       
 .  .. .. ..
.
     
 .   .   .   . 
A n∗ A n∗ A n∗ A n∗
= 0 + det(A) + 0 + det(B),

donde B es la matriz que se obtiene a partir de A por el intercambio de la


fila i con la fila i + 1. Por tanto, det(B) = − det(A).

Caso 3. Las filas iguales de la matriz A no son necesariamente consecu-


tivas. Supongamos que la matriz A tiene iguales las filas A i ∗ y A t∗ . Por el
caso 2, podemos realizar intercambios de filas hasta que sean consecuti-
vas. Cada intercambio supone una alteración del signo del determinante,
pero el resultado final es una matriz con determinante nulo, por el caso
1.

Álgebra Lineal y Geometría 85


Depto. de Álgebra

Caso 4. Intercambio de dos filas. Se procede de igual manera que en el


caso 2.


Una consecuencia de lo anterior es que el determinante de una matriz A


no cambia si una fila A t∗ es sustituida por A t∗ + αA i ∗ , donde α es un escalar y
t 6= i . En efecto,
 
A 1∗    
 ..  A 1∗ A 1∗
 .   ..   .. 
 
 A t∗ + αA i ∗   .   . 
     
 ..   A t∗   αA i ∗ 
det  .  ..  + det  A i ∗ 
 = det    

 Ai ∗

  .  
 . 

.
   
 ..   Ai ∗   . 
 . 
A n∗ A n∗
A n∗
 
A 1∗
 .. 
 . 
 
 Ai ∗ 
 
 .. 
= det(A) + α det  .  = det(A),
 
 Ai ∗ 
 
 . 
 .. 
A n∗
pues la última matriz tiene dos filas iguales.
Estas propiedades se pueden expresar en términos de las acciones de las
matrices elementales.

Efecto de las transformaciones elementales

Sea A una matriz de orden n. Entonces

det(E i j A) = − det(A) si E i j es una matriz elemental de tipo I.

det(E i (α)A) = α det(A) si α ∈ K − {0}.

det(E i j (α)A) = det(A) si α ∈ K.

P RUEBA : Las tres propiedades son otra forma de expresar el carácter lineal y
alternado del determinante que hemos visto antes. 

86 Álgebra Lineal y Geometría


Depto. de Álgebra

Determinante de las matrices elementales

Para las matrices elementales se tiene que

det(E i j ) = −1 = det(E it j ).

det(E i (α)) = α = det(E i (α)t ).

det(E i j (α)) = 1 = det(E i j (α)t ).

En general, si E 1 , . . . , E s son matrices elementales, entonces

det(E 1 · · · E s A) = det(E 1 ) · · · det(E s ) det(A)

para cualquier matriz A cuadrada.

P RUEBA : Si tomamos A = I n en el resultado anterior, entonces

det(E i j ) = −1, det(E i (α)) = α, det(E i j (α)) = 1.

Por otro lado, es fácil ver que

E it j = E i j , E i (α)t = E i (α), E i j (α)t = E j i (α).

La segunda parte es por inducción sobre s. Para s = 1 es lo que acabamos de


probar. Supuesto probado el resultado para s − 1 matrices, se tiene que

det(E 1 · E 2 · · · E s · A) = det(E 1 ) det(E 2 · · · E s · A) por el primer caso


= det(E 1 )(det(E 2 ) · · · det(E s ) · det(A)) inducción
| {z }
s−1 factores
= det(E 1 ) · · · det(E s ) det(A).

Cuando hablamos del cálculo de la inversa de una matriz, decíamos que


las matrices que la poseen se denominan no singulares. Esta nomenclatura es
clásica y está asociada al valor del determinante de la matriz.

Existencia de inversa y determinante

Sea K un cuerpo y A ∈ M (n × n, K). Entonces A tiene inversa si y sola-


mente si det(A) 6= 0.

Álgebra Lineal y Geometría 87


Depto. de Álgebra

P RUEBA : Supongamos que A tiene inversa. Entonces A es producto de matrices


elementales A = E 1 · · · E k , de donde

det(A) = det(E 1 ) · · · det(E k )

y todos los factores son no nulos. Recíprocamente, supongamos que A no tiene


inversa. En tal caso, su forma escalonada reducida por filas E A tiene una fila de
ceros, y E A = E 1 · · · E k A, con E i matrices elementales. Entonces

0 = det(E A ) = det(E 1 · · · E k ) det(A).

La matriz E 1 · · · E k tiene inversa, por lo que su determinante es no nulo, de don-


de det(A) = 0. 

Las matrices con determinante nulo se denominan singulares. Suponga-


mos que A es una matriz cuadrada de orden n singular. Entonces A no tiene
inversa, por lo que rango(A) < n. Esto implica que una columna de A se expre-
sa como combinación lineal de las restantes.
Otra importante propiedad de la función determinante es su relación con
el producto de matrices cuadradas.

Producto de matrices y determinante

Si A y B son matrices cuadradas, entonces det(AB) =


det(A) det(B).
µ ¶
A B
det = det(A) det(D) si A y D son cuadradas.
O D

P RUEBA :

Supongamos que A es singular. Entonces det(A) = 0, y además sabemos


que A = E 1 · · · E k E A , donde E 1 , . . . , E k son matrices elementales y E A es la
forma escalonada reducida por filas de A, que tiene una fila de ceros (al
menos la última). Pero en este caso la última fila de E A B también es de
ceros, luego det(E A B) = 0. Por tanto

det(AB) = det(E 1 · · · E k E A B) = det(E 1 ) · · · det(E k ) det(E A B) = 0


= det(A) det(B).

88 Álgebra Lineal y Geometría


Depto. de Álgebra

Si A es no singular, entonces A = E 1 E 2 · · · E k es producto de matrices ele-


mentales. Sabemos que la regla del producto es válida para estas matri-
ces, por lo que

det(AB) = det(E 1 E 2 · · · E k B) = det(E 1 ) det(E 2 ) · · · det(E k ) det(B)


= det(E 1 E 2 · · · E k ) det(B) = det(A) det(B).

Veamos ahora la segunda parte. Escribamos


µ ¶
A n×n B
C= ,
O D p×p

y vamos a probar el resultado por inducción sobre n. Para n = 1 se tiene


que
det(C ) = a11Ĉ 11 = a11 det(D).
Supongamos el resultado probado para matrices cuadradas de orden n −
1. Por la definición de determinante,

det(C ) = a11Ĉ 11 + a21Ĉ 21 + · · · + an1Ĉ n1 , Ĉ i 1 = (−1)i +1 det Ni 1 ,

donde Ni 1 es la matriz que resulta de C al eliminar la fila i y la columna


1. Entonces estas matrices tienen la forma
µ ¶
Mi 1 B i′
Ni 1 = ,
O D

donde Mi 1 es la matriz que se obtiene de A al eliminar la fila i y la colum-


na 1. Por la hipótesis de inducción aplicada a Ni 1 , se tiene que

det(Ni 1 ) = det(Mi 1 ) det(D),

y, finalmente,

det(C ) = a11 (−1)i +1 det(Mi 1 ) det(D) + a21 (−1)i +2 det(Mi 2 ) det(D) + · · · +


an1 (−1)n+1 det(Mn1 ) det(D)
= det(A) det(D).

Por último, el tratamiento que hemos hecho por filas se puede hacer por
columnas.

Álgebra Lineal y Geometría 89


Depto. de Álgebra

Matriz traspuesta y determinante

Sea A una matriz cuadrada. Entonces det(A) = det(A t ).

P RUEBA : Si A es singular, entonces A t es singular, de donde det(A) = 0 = det(A t ).


Si A no es singular, entonces podemos expresar A como producto de matrices
elementales A = E 1 · · · E k , de donde A t = E kt · · · E 1t es producto de matrices ele-
mentales. Para cada matriz elemental se tiene que det(E i ) = det(E it ), por lo que
det(A) = det(A t ). 

El resultado anterior permite extender las propiedades anteriores a las co-


lumnas de una matriz.

Extensión de propiedades a las columnas

La aplicación determinante es lineal en las columnas.

Si A es una matriz con dos columnas iguales, entonces det(A) = 0.


Si B es la matriz que resulta de intercambiar dos columnas de la
matriz A, entonces det(B) = − det(A).

det(AE i j ) = − det(A).

det(AE i (α)) = α det(A) si α no nulo.

det(AE i j (α)) = det(A) si α ∈ K.

El determinante de una matriz se puede obtener mediante el


desarrollo por cualquiera de sus filas o columnas:

det(A) = ai 1  i 1 + ai 2  i 2 + · · · + ai n  i n
= a1j  1j + a2j  2j + · · · + an j  n j .

P RUEBA : Solamente hay que hacer un pequeño razonamiento para la última


propiedad. Si A = (ai j ) y B es la matriz que se obtiene al intercambiar la primera
columna con la columna j -ésima, entonces
 
a1j a12 · · · a11 · · · a1n
 a2j a22 · · · a21 · · · a2n 
 
B = . .. .. .. ..  y det(B) = − det(A).
 .. . . . . 
an j an2 · · · an1 · · · ann

90 Álgebra Lineal y Geometría


Depto. de Álgebra

Por la definición,

det(B) = a1j B̂ 11 + a2j B̂ 21 + · · · + an j B̂ n1 ,

y los cofactores de B verifican que B̂ k1 = − Â k j para todo j = 1, . . . , n. Por tanto,

det(B) = −a1j  1j − a2j  2j − · · · − an j  n j ,

y al igualar con − det(A) tenemos el resultado. Para las filas, usamos la igualdad
del determinante con el de la matriz traspuesta. 

Nota 3.2.1. Habíamos visto que si det(A) = 0, entonces una columna de A es


combinación lineal de las restantes. De forma análoga, si det(A) = 0, también
una fila de A es combinación lineal de las restantes.

3.3. * Rango y determinantes


En esta sección veremos cómo el rango de una matriz cualquiera puede cal-
cularse usando determinantes. Para ello necesitamos las siguientes definicio-
nes

Submatrices

Sea A una matriz de orden m × n y elegimos un subconjunto I ⊂


{1, . . . , m}, y un subconjunto J ∈ {1, . . . , n}. Se define la submatriz de A
determinada por I y J como la matriz [A]I ,J cuyas entradas son las en-
tradas [A]i j de A tales que i ∈ I y j ∈ J . En otras palabras, es la matriz
que se obtiene de A al seleccionar las filas que están en I y las columnas
que están en J .

Ejemplo 3.3.1.-

1. En la definición de cofactor asociado al elemento ai j de una matriz cua-


drada A tomábamos la submatriz que se obtenía al eliminar la fila i y la
columna j de la matriz, que se obtiene con I = {1, . . . , n}−{i }, J = {1, . . . , n}−
{ j }.

Álgebra Lineal y Geometría 91


Depto. de Álgebra

2. En la matriz  
1 −1 0 2
A =  2 −1 1 −1  ,
0 0 1 0
la submatriz de A que se obtiene para I = {1, 3}, J = {3, 4} es
µ ¶
0 2
[A]I ,J = .
1 0

Menores

Dada una matriz A, m × n, los menores de A son los determinantes de


las submatrices cuadradas de A. Es decir, los escalares

m I ,J = det([A]I ,J ),

donde I ⊂ {1, . . . , m} y J ⊂ {1, . . . , n} son dos conjuntos con el mismo nú-


mero de elementos.
Diremos que m I ,J es un menor de orden s si la submatriz [A]I ,J tiene
orden s × s, es decir, si I y J tienen s elementos.

Ejemplo 3.3.2.- En la matriz


 
1 −1 0 2
A =  2 −1 1 −1  ,
0 0 1 0

para I = {1, 3}, J = {3, 4} se obtiene el menor de orden 2


µ ¶
0 2
m I ,J = det = −2.
1 0

92 Álgebra Lineal y Geometría


Depto. de Álgebra

Recordemos que el rango de una matriz A es igual al número de columnas


básicas, o al número de filas distintas de cero de cualquier forma escalonada,
en particular de su forma escalonada reducida por filas. Con respecto a las sub-
matrices, el rango se comporta de la siguiente manera:

Rango y submatrices

Si [A]I ,J es una submatriz de A, entonces rango([A]I ,J ) ≤ rango(A).

P RUEBA : Supongamos que A es una matriz de orden m × n y rango r . Sa-


bemos que una serie de operaciones elementales por filas transforman A en
E A , su forma escalonada reducida por filas. Si llamamos M = {1, . . . , m}, pode-
mos considerar la submatriz [A]M,J , que estará formada por algunas colum-
nas de A. Si aplicamos a [A]M,J las mismas operaciones elementales, obten-
dremos las columnas correspondientes de la matriz E , es decir, obtendremos
una matriz que tendrá a lo más r filas no nulas. Esto implica que la forma
escalonada reducida por filas de [A]M,J tiene a lo más r filas no nulas, luego
rango(A M,J ) ≤ r = rango(A).
Hemos probado entonces que, dada una matriz A de rango r , toda sub-
matriz formada por columnas completas de A tiene a lo sumo rango r . Pero
observemos que ([A]I ,J )t es una submatriz de ([A]M,J )t formada por columnas
completas, luego

rango([A]I ,J ) = rango(([A]I ,J )t ) ≤ rango(([A]M,J )t ) = rango([A]M,J ) ≤ rango(A),

como queríamos demostrar. 

Veamos que existe otra definición de rango, a partir de los menores de una
matriz A.

Rango y menores

El rango de A es igual al mayor orden alcanzado por los menores no


nulos de A. Es decir, rango(A) = r si y sólo si:

Existe un menor m I ,J 6= 0 de orden r .

Todos los menores de A de orden mayor que r son nulos.

Álgebra Lineal y Geometría 93


Depto. de Álgebra

P RUEBA : Supongamos que A es una matriz de orden m ×n, que tiene rango
r . Sabemos que hay unas operaciones elementales por filas que transforman A
en su forma escalonada reducida por filas E .
Sean p 1 , . . . , p r las columnas básicas de A, y definamos J = {p 1 , . . . , p r } y M =
{1, . . . , m}. La submatriz [A]M,J está formada por las columnas básicas de A. Si
aplicamos a [A]M,J las mismas operaciones elementales que a A, obtendremos
las columnas básicas de E , es decir, una matriz m × r cuyas primeras r filas
forman la matriz identidad, y las restantes m − r filas son de ceros. Como esta
matriz es una reducida por filas con r pivotes, [A]M,J tiene rango r .
Consideremos ahora ([A]M,J )t . Sabemos que también tiene rango r , luego
el mismo argumento anterior nos dice que tomando sus columnas básicas ob-
tenemos una matriz de rango r . Sean q 1 , . . . , q r sus columnas básicas. Obser-
vemos que tomar las columnas q 1 , . . . , q r de ([A]M,J )t es lo mismo que definir
I = {q 1 , . . . , q r } y considerar la matriz ([A]I ,J )t . Esta matriz tendrá entonces ran-
go r , luego la matriz [A]I ,J también lo tendrá. Pero entonces A I ,J es una subma-
triz de A, de orden r × r y rango r , luego su determinante es distinto de cero. Es
decir, el menor m I ,J , de orden r , es no nulo.
Consideremos ahora un menor m I ′ ,J ′ de orden k > r . Como una submatriz
no puede tener mayor rango que la matriz original, [A]I ′ ,J ′ es una matriz de
orden k × k y rango menor o igual a r < k, luego su determinante debe ser cero.
Es decir, m I ′ ,J ′ = 0.
Hemos demostrado entonces que para todo r , una matriz de rango r admite
un menor no nulo de orden r , y todos sus menores de orden mayor que r son
nulos. Por tanto, el mayor orden alcanzado por los menores no nulos de A es
igual al rango de A, como queríamos demostrar. 

Más adelante veremos que para calcular el rango de una matriz usando me-
nores, no es necesario ver que se anulan todos los menores de un cierto orden.

3.4. * Método del orlado


Recordemos que el rango de una matriz A es r si y sólo si existe un menor
no nulo de orden r , y todos los menores de orden mayor que r son nulos. En
principio, paras demostrar que una matriz tiene rango r habría que encontrar
un menor no nulo de orden r , y calcular todos los menores de orden r + 1 para
ver que se anulan. En esta sección veremos que esto no es necesario. Si encon-
tramos una submatriz cuadrada M de A tal que det(M) 6= 0, y vemos que se
anulan todos los menores de orden r + 1 que corresponden a submatrices de A
que contienen a M, entonces rango(A) = r .

94 Álgebra Lineal y Geometría


Depto. de Álgebra

Teorema principal del método del orlado

Sea A una matriz m × n con un menor no nulo de orden r , es decir, con


una submatriz cuadrada M de orden r tal que det(M) 6= 0. Supongamos
que todas las submatrices cuadradas de orden r + 1 que contienen a M
tienen determinante 0. Entonces rango(A) = r .

P RUEBA : Observemos que intercambiar filas o columnas de una matriz no


cambia su rango, ni el hecho de que sus menores de un cierto orden sean o no
sean todos nulos. Por tanto, podemos suponer que la submatriz M está forma-
da por las primeras r filas y columnas de A. Es decir, podremos escribir A de la
forma: µ ¶
M A1
A= .
A2 A3

Estamos suponiendo que det(M) 6= 0, luego existe su inversa M −1 , y podemos


considerar el siguiente producto:
µ ¶µ ¶ µ ¶
M −1 0 M A1 Ir M −1 A 1
−1 = .
−A 2 M I m−r A2 A3 0 −A 2 M −1 A 1 + A 3

La igualdad anterior es de la forma P A = B, donde P es una matriz cuadrada


m × m tal que det(P ) = det(M −1 ) 6= 0. Por tanto, rango(A) = rango(B), y sólo
tenemos que probar que rango(B) = r . Bastará demostrar que −A 2 M −1 A 1 + A 3
es la matriz nula, es decir, que A 2 M −1 A 1 = A 3 .
La fila i de la matriz A 2 M −1 A 1 es [A 2 M −1 A 1 ]i ∗ = [A 2 ]i ∗ M −1 A 1 , y la columna
j de esta fila, es decir, el elemento (i , j ) de la matriz A 2 M −1 A 1 es

[A 2 M −1 A 1 ]i j = [[A 2 ]i ∗ M −1 A 1 ]∗ j = [A 2 ]i ∗ M −1 [A 1 ]∗ j .

Por tanto, tenemos que demostrar que

[A 2 ]i ∗ M −1 [A 1 ]∗ j = [A 3 ]i j

para todo i = 1, . . . , m − r y para todo j = 1, . . . , n − r .


Ahora consideremos la submatriz de A formada por las filas 1, . . . , r y r +i , y
por las columnas 1, . . . , r y r + j . Es la siguiente:
µ ¶
M [A 1 ]∗ j
.
[A 2 ]i ∗ [A 3 ]i j

Álgebra Lineal y Geometría 95


Depto. de Álgebra

Como esta submatriz es cuadrada de orden r +1 y contiene a M, tiene determi-


nante cero. Observemos que se tiene siguiente producto:
µ ¶µ ¶ µ ¶
M −1 0 M [A 1 ]∗ j Ir M −1 [A 1 ]∗ j
= .
−[A 2 ]i ∗ M −1 1 [A 2 ]i ∗ [A 3 ]i j 0 −[A 2 ]i ∗ M −1 [A 1 ]∗ j + [A 3 ]i j

Llamemos P , Q y R a las matrices que aparecen en esta fórmula. Tenemos en-


tonces PQ = R. Por hipótesis det(Q) = 0, y por otra parte el determinante de
R es claramente −[A 2 ]i ∗ M −1 [A 1 ]∗ j + [A 3 ]i j . Por tanto, −[A 2 ]i ∗ M −1 [A 1 ]∗ j +
[A 3 ]i j = det(R) = det(P ) det(Q) = det(P ) · 0 = 0.
Luego [A 2 ]i ∗ M −1 [A 1 ]∗ j = [A 3 ]i j , como queríamos demostrar. 

A partir de este resultado, el método del orlado para calcular el rango de


una matriz A es el siguiente. Por abuso del lenguaje, diremos que un menor
det(M ′ ) contiene a det(M) si M es una submatriz de M ′ .

Método del orlado

Sea A una matriz m × n. El método del orlado para calcular el rango


de A es como sigue. Si A = O, entonces rango(A) = 0. En caso contra-
rio, tomamos un menor det(M) de orden r no nulo y realizamos los
siguientes pasos:

1. Hallamos, si existe, un menor no nulo de orden r +1 que contenga


a M.

2. Si no lo hay, rango(A) = r .

3. Si lo hay, repetimos el paso 1 aumentando r una unidad, y reem-


plazamos M por el menor encontrado.

Ejemplo 3.4.1.- Consideremos la matriz


 
3 6 5 9
A= 1 1 2 4 .
1 −2 3 7

El menor de A asociado a las dos primeras filas y las dos primeras columnas es
µ ¶
3 6
M = det = −3 6= 0.
1 1

96 Álgebra Lineal y Geometría


Depto. de Álgebra

Realicemos el orlado de esta submatriz con la tercera fila:

 
3 6 5
M1 = det 1
 1 2  = 0,
1 −2 3
 
3 6 9
M2 = det 1
 1 4  = 0.
1 −2 7

Por tanto, rango(A) = 2.

3.5. Regla de Cramer

Figura 3.2: Gabriel Cramer, (1704-1752)

Álgebra Lineal y Geometría 97


Depto. de Álgebra

Regla de Cramer

Sea A n×n x = b un sistema con A matriz no singular y u su solución.


Entonces la i -ésima componente u i del vector u verifica que

det(A i )
ui = ,
det(A)
¡ ¢
donde A i = A ∗1 · · · A ∗i −1 b A ∗i +1 · · · A ∗n . Esto es, A i es la
matriz que se obtiene de A cambiando la columna A ∗i por b.

P RUEBA : Consideremos las matrices I i (u), i = 1, . . . , n, que se obtienen al sus-


tituir la columna i -ésima de la matriz identidad I por el vector u. Si A u = b, la
definición de multiplicación de matrices implica que
¡ ¢
A · I i (u) = A e1 . . . u . . . en
¡ ¢
= A e1 . . . A u . . . A en
¡ ¢
= A ∗1 . . . b . . . A ∗n = A i .

Por la propiedad multiplicativa de los determinantes,

det(A) det(I i (u)) = det(A i ).

Observemos que det(I i (u)) = u i , pues basta realizar el desarrollo del determi-
nante por la i -ésima fila. De aquí, det(A) · u i = det(A i ) y tenemos el resultado
por el carácter no singular de A.


La regla de Cramer tiene únicamente un interés teórico, pues no se aplica en


cálculo numérico.

Ejemplo 3.5.1.- Consideremos el sistema A x = b, con


   
1 4 5 6
A =  4 18 26  , b =  0  .
3 16 30 −6

98 Álgebra Lineal y Geometría


Depto. de Álgebra

Según la regla de Cramer,


¯ ¯
¯ 6 4 5 ¯
¯ ¯
¯ ¯
¯ 0 18 26 ¯
¯ ¯
¯ ¯
det(A 1 ) ¯ −6 16 30 ¯ 660
x1 = = = = 110,
det(A) 6 6
¯ ¯
¯ 1 6 5 ¯
¯ ¯
¯ ¯
¯ 4 0 26 ¯
¯ ¯
¯ ¯
det(A 2 ) ¯ 3 −6 30 ¯ −216
x2 = = = = −36,
det(A) 6 6
¯ ¯
¯ 1 4 6 ¯
¯ ¯
¯ ¯
¯ 4 18 0 ¯
¯ ¯
¯ ¯
det(A 3 ) ¯ 3 16 −6 ¯ 48
x3 = = = = 8.
det(A) 6 6

3.6. Cofactores y matriz inversa


Recordemos que el cofactor de A n×n asociado con la posición (i , j ) se define
como
 i j = (−1)i +j det(Mi j ),

donde Mi j es la submatriz de orden n − 1 que se obtiene borrando la fila i -


ésima y la columna j -ésima de la matriz A. La matriz de cofactores se notará
por  = (  i j ).

Ejemplo 3.6.1.- Los cofactores de la matriz


 
1 4 5
A =  4 18 26 
3 16 30

Álgebra Lineal y Geometría 99


Depto. de Álgebra

son
à !
18 26
 11 = (−1)2 det = 124,
16 30
à !
4 26
 12 = (−1)3 det = −42,
3 30
à !
4 18
4
 13 = (−1) det = 10,
3 16
..
.
à !
1 4
 33 = (−1)6 det = 2.
4 18

La matriz de cofactores es igual entonces a


 
124 −42 10
 
 −40
 =  15 .
−4 
14 −6 2

Inversa y matriz adjunta

Se define la matriz adjunta de A n×n como Adj(A) = Â t , la traspuesta de


la matriz de cofactores. Si A es no singular, entonces

Adj(A)
A −1 = .
det(A)

P RUEBA : El elemento [A −1 ]i j es la i -ésima componente de la solución del sis-


tema A x = e j , donde e j es el j -ésimo vector de la base estándar. Por la regla de
Cramer,
det(A i )
[A −1 ]i j = xi = ,
det(A)

100 Álgebra Lineal y Geometría


Depto. de Álgebra

donde A i es la matriz que se obtiene al cambiar la columna i -ésima de A por


e j , y el desarrollo de det(A i ) por la columna i -ésima implica que
 
a11 · · · 0 ··· a1n
 .. .. .. 
 . . . 
 
det(A i ) = det 
 aj1 ··· 1 ··· ajn  = Â j i .
 .. .. .. 
 . . . 
an1 · · · 0 · · · ann

columna i
vector e j

Ejemplo 3.6.2.- El cálculo de la inversa de la matriz del ejemplo 3.6.1


 
1 4 5
 
 4 18 26 
A= 

3 16 30

mediante la matriz adjunta


 
124 −40 14
 
Adj(A) = Â t = 
 −42 15 −6 

10 −4 2

nos da
   62 
124 −40 14 3 − 20
3 7/3
Adj(A) 1    
A −1 = =  −42 15  =  −7 5/2 −1  .
−6   
det(A) 6 
10 −4 2 5/3 −2/3 1/3

Álgebra Lineal y Geometría 101


Depto. de Álgebra

3.7. * Determinantes y permutaciones


Denotaremos S n al conjunto de las permutaciones de un conjunto de n ele-
mentos, es decir, al conjunto de las aplicaciones biyectivas

σ : {1, . . . , n} −→ {1, . . . , n}.

Dada una permutación σ ∈ S n , una de las características de σ que va a tener


más importancia en este tema será su número de inversiones, ni (σ), que es el
número de pares (i , j ) tales que i < j y σ(i ) > σ( j ). Hay una forma gráfica muy
útil para describir el número de inversiones de σ: Si disponemos dos copias del
conjunto {1, . . . , n}, donde los números están alineados verticalmente como en
el ejemplo de la figura 3.3, la permutación σ viene representada por n segmen-
tos, o líneas, que unen el elemento i de la primera copia al elemento σ(i ) de la
segunda. Es claro que ni (σ) es simplemente el número de cruces (interseccio-
nes) que aparecen en esta representación. (Nota: se debe evitar que más de dos
rectas se corten en el mismo punto, para poder contar los cruces de forma más
clara.)

Figura 3.3: Ejemplo de permutaciones σ, τ ∈ S 5 tales que ni (σ) = 5, ni (τ) = 4 y


ni (τ ◦ σ) = 7.

A partir de ni (σ), se obtiene el signo (o la paridad) de la permutación σ,


dado simplemente por la fórmula:

sg(σ) = (−1)ni (σ) .

Observemos que sg(σ) = 1 si ni (σ) es un número par, y sg(σ) = −1 si ni (σ) es


un número impar. En el primer caso diremos que σ es una permutación par,
mientras que en el segundo diremos que σ es una permutación impar.

102 Álgebra Lineal y Geometría


Depto. de Álgebra

Composición de permutaciones y signo

La composición de dos permutaciones pares, o de dos permutaciones


impares, es una permutación par. La composición de una permutación
par y una impar, es una permutación impar.

P RUEBA : Sean σ, τ ∈ S n dos permutaciones, que representaremos gráfica-


mente de forma consecutiva, como en la figura 3.3. Observemos que la compo-
sición τ ◦ σ se obtiene siguiendo las líneas desde la primera copia de {1, . . . , n} a
la tercera. Un par (i , j ) será una inversión de τ ◦ σ si las líneas correspondientes
se cruzan una sóla vez (o bien en σ o bien en τ). Por el contrario, (i , j ) no será
una inversión de τ◦σ si las líneas correspondientes no se cruzan, o si se cruzan
dos veces (los dos cruces marcados en la figura 3.3). Si llamamos m al número
de pares (i , j ) tales que sus líneas correspondientes se cruzan dos veces, este
argumento nos dice que ni (τ ◦ σ) = ni (σ) + ni (τ) − 2m. De aquí se deduce in-
mediatamente el resultado sobre la paridad de τ ◦ σ. 

Una consecuencia inmediata del resultado anterior es la siguiente propie-


dad:

Permutación inversa y signo

Dada σ ∈ S n , se tiene sg(σ) = sg(σ−1 ).

P RUEBA : Al ser σ−1 ◦ σ = Id una permutación par (la identidad es la única


permutación sin inversiones), el resultado anterior implica que σ y σ−1 tienen
la misma paridad. 

Nota 3.7.1. Si σ está representada por la correspondencia


µ ¶
1 2 ... n
,
i1 i2 . . . in

la permutación inversa se puede obtener efectuando cambios en la parte infe-


rior para llegar a la secuencia 1, 2, . . ., n:
µ ¶
j1 j2 . . . jn
.
1 2 ... n

Más adelante necesitaremos algún que otro resultado sobre permutaciones,


pero ahora ya podemos dar la definición principal de este tema.

Álgebra Lineal y Geometría 103


Depto. de Álgebra

Determinante por permutaciones

Sea A una matriz cuadrada de orden n × n. Se define el determinante


por permutaciones de A, denotado |A|, como:
X
|A| = sg(σ) · [A]1σ(1) [A]2σ(2) · · · [A]nσ(n) .
σ∈S n

Observemos que |A| es una suma de n! términos, puesto que hay un tér-
mino por cada permutación de S n . Cada sumando contiene un producto de la
forma a1σ(1) a2σ(2) · · · anσ(n) . Estos n escalares son n entradas de la matriz A que
están en n filas distintas, y también en n columnas distintas. Por otro lado, si
elegimos n entradas de A que estén en filas distintas y en columnas distintas,
el producto de esos n escalares aparecerá en uno de los sumandos que definen
|A|: la permutación correspondiente será la que asocia, a cada fila, la columna
donde está la entrada elegida. Por tanto, |A| es la suma de todos estos posibles
productos, cada uno de ellos con un signo determinado por la permutación
correspondiente.

Ejemplo 3.7.1.- Si A es una matriz de orden 2 × 2, sólo hay dos permutaciones


posibles en S 2 , la identidad y la que permuta los elementos 1 y 2. La primera es
par, y da lugar al sumando a11 a22 . La segunda es impar, y da lugar al sumando
−a12 a21 . Por tanto, en el caso n = 2, tenemos la conocida fórmula:
¯ ¯
¯a11 a12 ¯
¯a21 a22 ¯ = a11 a22 − a12 a21 .
¯ ¯

104 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 3.7.2.- Sea A una matriz de orden 3 × 3. Como hay 6 permutaciones


en S 3 , la fórmula que define |A| consta de 6 sumandos, tres de ellos correspon-
dientes a permutaciones pares y tres correspondientes a permutaciones impa-
res. Concretamente:
¯ ¯
¯a11 a12 a13 ¯
¯ ¯
¯a21 a22 a23 ¯ = a11 a22 a33 + a12 a23 a31 + a13 a21 a32
¯ ¯
¯a
31 a 32 a 33
¯
−a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Dos resultados inmediatos son los siguientes. No necesitamos dar la de-


mostración, al ser evidentes a partir de la definición del determinante.

Fila o columna de ceros

Si una matriz cuadrada A tiene una fila o una columna de ceros, enton-
ces |A| = 0.

Determinante de la matriz identidad

Si I es la matriz identidad de orden n × n, entonces |I | = 1.

3.7.1. * Efecto por trasposición y operaciones elementales

Invariancia por trasposición

Para toda matriz cuadrada A, se tiene: |A| = |A t |.

P RUEBA : Por definición, tenemos


X
|A t | = t
sg(σ) · [A]1σ(1) t
[A]2σ(2) t
· · · [A]nσ(n)
σ∈S n
X
= sg(σ) · [A]σ(1)1 [A]σ(2)2 · · · [A]σ(n)n
σ∈S n
X
= sg(σ) · [A]σ(1)σ−1 (σ(1)) [A]σ(2)σ−1 (σ(2)) · · · [A]σ(n)σ−1 (σ(n)) .
σ∈S n

Álgebra Lineal y Geometría 105


Depto. de Álgebra

Reordenando los términos en cada producto, para que los primeros índices es-
tén en orden ascendente, se tiene:
X
|A t | = sg(σ) · [A]1σ−1 (1) [A]2σ−1 (2) · · · [A]nσ−1 (n) .
σ∈S n

Finalmente, como sg(σ) = sg(σ−1 ), nos queda:


X
|A t | = sg(σ−1 ) · [A]1σ−1 (1) [A]2σ−1 (2) · · · [A]nσ−1 (n) .
σ∈S n

Pero toda permutación de S n tiene una única inversa, es decir, el conjunto de


las inversas de todas las permutaciones es, de nuevo, S n . Luego en el sumato-
rio anterior σ−1 toma como valor todas las posibles permutaciones, por tanto
dicho sumatorio es igual a |A|, como queríamos demostrar. 

Veamos ahora el efecto que producen las operaciones elementales por filas
en el determinante de una matriz.

Determinante y operaciones elementales de tipo I

Si la matriz cuadrada B se obtiene de A al intercambiar dos filas (o dos


columnas), entonces:
|B| = −|A|.

P RUEBA : Supongamos que B se obtiene de A al intercambiar las filas i y j ,


con i < j . Tendremos:
X
|B| = sg(σ) · [B]1σ(1) · · · [B]i σ(i ) · · · [B] j σ( j ) · · · [B]nσ(n)
σ∈S n
X
= sg(σ) · [A]1σ(1) · · · [A] j σ(i ) · · · [A]i σ( j ) · · · [A]nσ(n)
σ∈S n
X
= sg(σ) · [A]1σ(1) · · · [A]i σ( j ) · · · [A] j σ(i ) · · · [A]nσ(n) .
σ∈S n

Si llamamos τ a la permutación (llamada trasposición) que intercambia los ele-


mentos i y j , dejando invariantes los demás, se tiene:
X
|B| = sg(σ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n)) .
σ∈S n

Ahora observemos que una trasposición siempre es impar, como se puede ver
en su representación gráfica: hay j − i − 1 líneas que empiezan entre i y j , y

106 Álgebra Lineal y Geometría


Depto. de Álgebra

todas ellas se cruzan con las líneas i y j ; además tenemos el cruce de la línea
i con la línea j , y no hay ningún otro cruce. Por tanto, ni (τ) = 2( j − i − 1) + 1,
luego τ es impar. Esto implica que sg(σ) = − sg(σ ◦ τ), y así tenemos:
X
|B| = − sg(σ ◦ τ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n))
σ∈S n
X
= − sg(σ ◦ τ) · [A]1σ(τ(1)) · · · [A]i σ(τ(i )) · · · [A] j σ(τ( j )) · · · [A]nσ(τ(n)) .
σ∈S n

El conjunto de las permutaciones σ ◦ τ cuando σ ∈ S n es, de nuevo, el conjunto


S n de todas las permutaciones. Luego en este sumatorio σ ◦ τ toma como valo-
res todas las posibles permutaciones y la suma da precisamente |A|. Por tanto
se obtiene |B| = −|A|, como queríamos demostrar.
Supongamos ahora que B se obtiene de A al permutar dos columnas. En
este caso B t se obtiene de A t al permutar dos filas, luego |B| = |B t | = −|A t | =
−|A|. 

Un corolario inmediato de este resultado es el siguiente:

Determinante de matrices con filas o columnas iguales

Si A es una matriz cuadrada con dos filas o dos columnas iguales, en-
tonces
|A| = 0.

P RUEBA : En este caso, A se obtiene de sí misma al intercambiar dos filas o


dos columnas (aquellas que son iguales). Por tanto, |A| = −|A|, luego |A| = 0. 

Nota 3.7.2. En la demostración anterior, hemos supuesto que 2 6= 0 en el cuerpo


k. En efecto, |A| = −|A| es equivalente 2|A| = 0, que implica |A| = 0 siempre que
2 6= 0. Hay cuerpos en los que esto no ocurre (por ejemplo Z/Z2), aunque inclu-
so en este caso el resultado sigue siendo cierto. Un buen ejercicio es demostrar
este resultado directamente con la definición de determinante. En concreto,
supongamos que A i ∗ = A j ∗ , con i 6= j . Entonces para 1 ≤ k ≤ n tenemos que
ai k = a j k . Si σ ∈ S n , sea σ′ = σ ◦ (i j ). Vamos a probar que

a1σ(1) · · · anσ(n) = a1σ′ (1) · · · anσ′ (n) .

Esto se verifica porque σ(k) = σ′ (k) si k 6= i , j , de donde akσ(k) = akσ′ (k) , mien-
tras que σ′ (i ) = σ( j ) y σ′ ( j ) = σ(i ), por lo que ai σ′ (i ) = ai σ( j ) = a j σ( j ) y a j σ′ ( j ) =
a j σ(i ) = ai σ(i ) .

Álgebra Lineal y Geometría 107


Depto. de Álgebra

Pero sg(σ′ ) = − sg(σ), luego

sg(σ)a1σ(1) · · · anσ(n) + sg(σ′ )a1σ′ (1) · · · anσ′ (n) = 0.

La aplicación σ 7→ σ′ establece una correspondencia biyectiva entre las permu-


taciones pares e impares de S n , por lo que

X
|A| = sg(σ)a1σ(1) · · · anσ(n)
σ∈S n
X
= (sg(σ)a1σ(1) · · · anσ(n) + sg(σ′ )a1σ′ (1) · · · anσ′ (n) )
sg(σ)=1

= 0.

Observemos que la prueba es válida incluso cuando 2 = 0 en el cuerpo base.

Para estudiar el efecto que una operación elemental de tipo II o III induce en
el determinante de una matriz, veremos un resultado más general, que incluye
a ambos.

Determinante y combinaciones lineales de filas

Sean B, A 1 , . . . , A t matrices n × n tales que:

La fila i de B es una combinación lineal de las filas i de A 1 , . . . , A t ,


es decir, existen unos escalares α1 , . . . , αt tales que

[B]i ∗ = α1 [A 1 ]i ∗ + · · · αt [A t ]i ∗ .

Para todo k 6= i , las filas k de B, A 1 , . . . , A t son todas iguales.

Entonces
|B| = α1 |A 1 | + · · · + αt |A t |.

P RUEBA : Para todo k 6= i , sabemos que la entrada (k, j ) de cualquiera de


las matrices estudiadas es [B]k,j . Para la fila i , denotaremos [A m ]i ,j a la entrada
(i , j ) de la matriz A m , para m = 1, . . . , t . Entonces tenemos [B]i ,j = α1 [A 1 ]i ,j +
· · · + αt [A t ]i ,j , para todo j = 1, . . . , n.

108 Álgebra Lineal y Geometría


Depto. de Álgebra

La fórmula del determinante de A queda:


X
|B| = sg(σ) · [B]1σ(1) · · · [B]i σ(i ) · · · [B]nσ(n)
σ∈S n
X ¡ ¢
= sg(σ) · [B]1σ(1) · · · α1 [A 1 ]i σ(i ) + · · · + αt [A t ]i σ(i ) · · · [B]nσ(n)
σ∈S n
à !
X
= sg(σ) · [B]1σ(1) · · · (α1 [A 1 ]i σ(i ) ) · · · [B]nσ(n) + · · ·
σ∈S n
à !
X
··· + sg(σ) · [B]1σ(1) · · · (αt [A t ]i σ(i ) ) · · · [B]nσ(n)
σ∈S n
à !
X
= α1 sg(σ) · [B]1σ(1) · · · [A 1 ]i σ(i ) · · · [B]nσ(n) + · · ·
σ∈S n
à !
X
· · · + αt sg(σ) · [B]1σ(1) · · · [A t ]i σ(i ) · · · [B]nσ(n)
σ∈S n
= α1 |A 1 | + · · · + αt |A t |,

como queríamos demostrar. 

Ejemplo 3.7.3.- A partir de la combinación lineal (2, 3, −1) = 2(1, 5, 1) +


(−1)(0, 7, 3), se deduce la igualdad:
¯ ¯ ¯ ¯ ¯ ¯
¯ 13 57 36 ¯ ¯ 13 57 36 ¯ ¯ 13 57 36 ¯¯
¯ ¯ ¯ ¯ ¯
¯ 2 3 −1 ¯ = 2 ¯ 1
¯ ¯ 5 1 ¯ + (−1) ¯¯ 0
¯ 7 3 ¯¯ .
¯
¯248 504 311¯ ¯248 504 311¯ ¯248 504 311¯

Determinante y operaciones elementales de tipo II

Si la matriz cuadrada B se obtiene de A al multiplicar una fila (o colum-


na) por un escalar α, entonces:

|B| = α|A|.

Álgebra Lineal y Geometría 109


Depto. de Álgebra

P RUEBA : Inmediato a partir de los resultados anteriores, tomando t = 1,


α1 = α y A 1 = A. 

Determinante y operaciones elementales de tipo III

Si la matriz cuadrada B se obtiene de A al sumar a una fila (o columna)


un múltiplo de otra, entonces:

|B| = |A|.

P RUEBA : Supongamos que B se obtiene de A al sumar, a la fila i , la fila j


multiplicada por α ∈ k. Denotemos A 1 = A, y sea A 2 la matriz que se obtiene de
A al sustituir la fila i for la j , dejando la fila j como está: es decir, las filas i y j
de A 2 son ambas iguales a la fila j de A. En este caso, B, A 1 y A 2 satisfacen las
hipótesis de los resultados anteriores: las filas k con k 6= i son todas iguales, y la
fila i de B es combinación lineal de las filas i de A 1 y A 2 . Concretamente:

[B]i ∗ = [A]i ∗ + α[A] j ∗ = [A 1 ]i ∗ + α[A 2 ]i ∗ ,

por lo que se tiene |B| = |A 1 | + α|A 2 |. Como A 2 es una matriz con dos filas igua-
les, |A 2 | = 0, luego |B| = |A 1 | = |A|.
El caso de las operaciones elementales por columnas se demuestra igual. 

3.8. * Igualdad de ambas definiciones

El objetivo de esta sección es probar que el determinante de una matriz


definido por recurrencia y el definido por permutaciones coinciden. Una forma
es comprobar que el determinante por permutaciones es igual al desarrollo por
cofactores de una columna de la matriz. Vamos a seguir otro método, basado
en la unicidad de las propiedades del determinante que hemos probado para
las dos definiciones. Por ello, necesitamos una definición para estas funciones.

110 Álgebra Lineal y Geometría


Depto. de Álgebra

Función determinante

Sea K un cuerpo y n un entero positivo. Una función δn : M (n ×n, K) →


K es una función determinante si satisface las siguientes propiedades:

1. δn (I ) = 1, donde I es la matriz identidad.

2. δn (A) = 0 si A tiene una fila de ceros.

3. δn (E i j A) = −δn (A), donde E i j es una matriz elemental de tipo I.

4. δn (E i (α)A) = αδn (A), donde E i (α) es una matriz elemental de ti-


po I I .

5. δn (E i j (α)A) = δn (A), donde E i j (α) es una matriz elemental de


tipo I I I .

Ya sabemos que el determinante por recurrencia y el determinante por per-


mutaciones son funciones determinante. Para probar que coinciden, basta ver
que una función determinante está unívocamente determinada.

Unicidad de la función determinante

Sea K un cuerpo. Para cada entero positivo n existe a lo más una única
función determinante δn : M (n ×n, K) → K. En consecuencia, det(A) =
|A|.

P RUEBA : Sean δn , γn dos funciones determinante y llamemos β = δn − γn .


La función β satisface las siguientes condiciones:

β(I ) = 0.

β(A) = 0 si A tiene una fila de ceros.

β(E i j A) = −β(A), donde E i j es una matriz elemental de tipo I .

β(E i (α)A) = αβ(A), donde E i (α) es una matriz elemental de tipo I I .

β(E i j (α)A) = β(A), donde E i j (α) es una matriz elemental de tipo I I I .

Álgebra Lineal y Geometría 111


Depto. de Álgebra

Lo anterior prueba que si E es una matriz elemental, entonces β(A) y β(E A)


son ambos nulos o ambos distintos de cero. Dada una matriz A de orden n,
existen matrices elementales E 1 , . . . , E r tales que E 1 · · · E r A = E A , donde E A es la
forma escalonada reducida por filas de A. Si A tiene rango n, entonces E A = I
y β(E 1 · · · E r A) = 0, de donde β(A) = 0. Si A es de rango inferior, entonces E A
contiene una fila de ceros, por lo que β(E A ) = 0 y β(A) = 0 

Nota 3.8.1. La definición de la función determinante se puede hacer sobre ani-


llos, como Z o K [X 1 , . . . , X n ], donde sigue siendo válida la regla del producto. Si
el anillo es un dominio, podemos trabajar en el cuerpo de fracciones para obte-
ner algunos resultados. Sin embargo, hay algunas propiedades de los vectores
que no se verifican en los anillos. Por ejemplo, el determinante de una matriz
puede ser cero, pero eso no implica que una columna o fila sea combinación
lineal de las restantes. Por ejemplo, la matriz con coeficientes enteros
µ ¶
12 18
A=
−6 −9

es singular, pero ninguna columna es múltiplo entero de la otra, aunque sí son


Z-linealmente independientes.
Cuando se consideran espacios de funciones, hay que tener cuidado con
algunas propiedades relativas a la independencia lineal. Por ejemplo, sea n > 1
y U un intervalo abierto de R. Sea R el conjunto de funciones f : U → R que son
diferenciables n −1 veces al menos. Dada f ∈ R, notaremos por D f su derivada
y D h f su derivada h-ésima. Dadas f 1 , . . . , f n ∈ R, la función
 
f 1 (t ) f 2 (t ) ... f n (t )

 (D f 1 )(t ) (D f 2 )(t ) ... (D f n )(t ) 

W ( f 1 , . . . , f n )(t ) = det  .. .. .. 
 . . . 
(D n−1 f 1 )(t ) (Dn − 1 f 2 )(t ) . . . (D n−1 f n )(t )

se denomina Wronskiano de f 1 , . . . , f n . Se puede probar que si W ( f 1 , . . . , f n )(t ) 6=


0 para algún t ∈ U , entonces el conjunto { f 1 , . . . , f n } es R-linealmente indepen-
diente. El recíproco es falso. Sea U un intervalo que contiene al origen consi-
deremos las funciones f 1 (t ) = t 3 , f 2 (t ) = |t |3 . Entonces { f 1 , f 2 } es un conjunto
R-linealmente independiente, pero W ( f 1 , f 2 )(t ) = 0 para todo t ∈ U .

3.9. * Coste de cálculo del determinante


Con la definición por permutaciones, el determinante de una matriz de or-
den n se calcula mediante n! sumandos, cada uno de ellos con n −1 productos.

112 Álgebra Lineal y Geometría


Depto. de Álgebra

Por tanto, el número de operaciones necesarias son n! − 1 sumas y (n − 1) · n!


productos, lo que hace un total de n(n!)−1 operaciones. Para una matriz de or-
den 25, son necesarias del orden de 3,9 × 1026 operaciones. Un ordenador que
realice 1015 operaciones por segundo (un petaflop) necesitará 3170 años para
completar el cálculo.
Veamos qué ocurre si usamos el desarrollo por cofactores de una fila o co-
lumna. Usemos, Por ejemplo, el desarrollo por la primera columna: tenemos
n
X
det(A) = ai 1 Â i 1 .
i =1

Llamemos p n al número de operaciones necesarias mediante este método. Pa-


ra n = 2 tenemos dos productos y una suma, luego p 2 = 3. Supongamos calcula-
do p n−1 , el coste de un determinante de orden n −1. Entonces el desarrollo por
cofactores necesita el cálculo de n determinantes de orden n − 1, n productos
y n − 1 sumas. Tenemos así la ecuación

p n = np n−1 + n + (n − 1) = np n−1 + 2n − 1, si n > 2.

Los valores de p n crecen de manera proporcional a n!. Por ejemplo, p 15 ≈ 3,55×


1012 , p 25 ≈ 4,21 × 1025. Es ligeramente menos costoso que el desarrollo por per-
mutaciones.
En el caso de un cuerpo, las transformaciones elementales nos permiten
realizar el cálculo del determinante con un coste del orden de 2/3n 3 , tal como
se tiene para la eliminación gaussiana. Esto funciona correctamente cuando se
trabaja en un cuerpo, pero en anillos más generales no se tiene la posibilidad
de dividir por un escalar no nulo, como es el caso de Z o de los anillos de po-
linomios. Existen variantes de la eliminación gaussiana que evitan divisiones y
permiten, con un pequeño coste añadido, tratar estos casos.

Ejemplo 3.9.1.-
El desarrollo de un determinante de orden n por los elementos de una fila
y sus adjuntos es muy costoso, pues el número de términos crece rápidamen-
te y los cálculos son muy complicados. El método óptimo para resolverlo es a
través de la eliminación gaussiana, que alcanza una complejidad de 2/3n 3 ope-
raciones. Para ciertos determinantes no muy grandes, y con entradas números
enteros se puede usar el método de condensación pivotal de Chiò.
Sea A n×n = (ai j ) una matriz, donde a11 6= 0 (se puede hacer análogamente
para cualquier elemento no nulo de la matriz). Multiplicamos cada fila, excepto

Álgebra Lineal y Geometría 113


Depto. de Álgebra

Figura 3.4: F. Chiò (1813-1871)

la primera, por a11 . Entonces


 
a11 a12 ... a1n
n−1 
 a21 a11 a22 a11 . . . a2n a11 

a11 det(A) = det  .. .. .. .
 . . . 
an1 a11 an2 a11 . . . ann a11

Ahora restamos a la segunda fila la primera multiplicada por a21 , a la tercera


la primera multiplicada por a31 , hasta la n-ésima, que le restamos la primera
multiplicada por an1 . Nos queda
 
a11 a12 ... a1n
n−1

 0 a22 a11 − a21 a12 ... a2n a11 − a21 a1n 

a11 det(A) = det  .. .. .. 
 . . . 
0 an2 a11 − a12 an1 . . . ann a11 − a1n an1
 
a11 a12 a13 ... a1n
 ¯ ¯ ¯ ¯ ¯ ¯ 
¯ a11 a12 ¯ ¯ a11 a13 ¯ ¯ a11 a1n ¯
 0 ...
 ¯ ¯ ¯ ¯ ¯ ¯ 

 ¯ a21 a22 ¯ ¯ a21 a23 ¯ ¯ a21 a2n ¯ 
= det 
 .. .. .. .. 
 . . . .

 ¯ ¯ ¯ ¯ ¯ ¯ 
 ¯ a11 a12 ¯ ¯ a11 a13 ¯ ¯ a11 a1n ¯ 
0 ¯ ¯ ¯ ¯ ... ¯ ¯ 
¯ an1 an2 ¯ ¯ an1 an3 ¯ ¯ an1 ann ¯
= a11 det(B).

1
Entonces det(A) = n−2
a 11
det(B). Si el elemento fuera el (i 0 , j 0 ), hay que incluir un
factor (−1)i 0 +j 0 por el último desarrollo. Se suele buscar un elemento que sea

114 Álgebra Lineal y Geometría


Depto. de Álgebra

igual a 1, para simplificar las operaciones. Por ejemplo,


 ¯ ¯ ¯ ¯ ¯ ¯ 
¯ 1 2 ¯ ¯ 1 3 ¯ ¯ 1 4 ¯
  ¯ ¯ ¯ ¯ ¯ ¯
1 2 3 4  ¯ 8 7 ¯ ¯ 8 6 ¯ ¯ 8 5 ¯ 
 ¯ ¯ ¯ ¯ ¯ ¯ 
 8 7 6 5   ¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯ ¯¯ 1 4 ¯¯ 
   ¯ 
det   = 1 · det  ¯ 
 1 8 2 7   1 8 ¯ ¯ 1 2 ¯ ¯ 1 7 ¯ 
 ¯ ¯ ¯ ¯ ¯ ¯ 
3 6 4 5  ¯¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯ ¯¯ 1 4 ¯¯ 
¯ 3 6 ¯ ¯ 3 4 ¯ ¯ 3 5 ¯
   
−9 −18 −27 1 2 3
= det  6 −1 3  = (−9) · det  6 −1 3 
0 −5 −7 0 −5 −7
 ¯ ¯ ¯ ¯ 
¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯
 ¯¯
 6 −1 ¯¯ ¯¯ 6 3 ¯¯ 

= (−9) · det  ¯¯ 
 ¯ 1 2 ¯¯ ¯¯ 1 3 ¯¯ 
¯ 0 −5 ¯ ¯ 0 −7 ¯
µ ¶
−13 −15
= (−9) · det = (−9)(91 − 75) = −144.
−5 −7

Este método consume más operaciones que la eliminación gaussiana. Sin em-
bargo, es uno de los que se utilizan dentro del contexto de eliminación gaussia-
na libre de fracciones, usada en cálculo simbólico o para matrices con entradas
en dominios no cuerpos.

La resolución de un sistema de ecuaciones mediante la regla de Cramer pre-


senta también desventajas con respecto a la eliminación gaussiana. Mediante
la eliminación, sabemos que un sistema de ecuaciones tiene un coste de reso-
lución del orden de 23 n 3 ; como hemos comentado antes, este es el orden del
cálculo de un determinante. La regla de Cramer supone el cálculo de n + 1 de-
terminantes: uno para el determinante de la matriz de coeficientes del sistema,
y n con los determinantes en los que se ha cambiado una columna. Por ello,
la regla de Cramer tiene un coste del orden de 23 n 4 , que es sensiblemente su-
perior. Además, la eliminación gaussiana permite la resolución simultánea de
varios sistemas con la misma matriz de coeficientes, pero diferentes términos
independientes. La regla de Cramer obliga a recalcular n determinantes.

Álgebra Lineal y Geometría 115


Depto. de Álgebra

116 Álgebra Lineal y Geometría


Capítulo 4

Espacios vectoriales

4.1. Estructuras algebraicas.


En temas anteriores hemos definido matrices y vectores, estudiando algu-
nas de sus propiedades. También hemos trabajado con cuerpos de escalares,
suponiendo que se trataba de Q, R o C, pero sin dar más detalles. Ahora vamos
a estudiar con rigor estos conceptos. Definiremos algunas de las principales
estructuras que se utilizan en álgebra, como son: grupos, anillos, cuerpos y es-
pacios vectoriales. A continuación nos centraremos en una de las estructuras
que se estudian en esta asignatura: los espacios vectoriales.
Las estructuras algebraicas son conjuntos donde hay definidas ciertas ope-
raciones, que satisfacen unas determinadas propiedades. Las operaciones pue-
den ser de varios tipos. Por ejemplo, una operación binaria interna, definida
en un conjunto X , es una función que a dos elementos de X (dados en orden),
le hace corresponder otro elemento de X . Es decir, una función

p : X ×X → X.

Por ejemplo, p podría ser la suma, la diferencia o la multiplicación de núme-


ros reales. Observemos que, en ocasiones (la diferencia de números reales, por
ejemplo) el orden en que se den los dos elementos implicados influye en el re-
sultado.
Cuando se trabaja con una operación interna, se suele utilizar un símbolo,
por ejemplo ∗, de manera que el resultado de aplicar la operación a dos ele-
mentos, a y b, se escribe a ∗ b. Un ejemplo típico es el símbolo + para la suma
de números. En ocasiones, ni siquiera se utiliza símbolo alguno, como en el
caso del producto de números, donde ab representa el producto de a y b.
La primera estructura algebraica que estudiaremos, una de las más básicas
y utilizadas, es la de grupo:

117
Depto. de Álgebra

Grupo

Sea G un conjunto no vacío, y sea ∗ una operación binaria interna de-


finida en G. Se dice que (G, ∗) es un grupo si se cumplen las siguientes
propiedades:

1. Asociativa: (a ∗ b) ∗ c = a ∗ (b ∗ c), para todo a, b, c ∈ G.

2. Elemento neutro: existe e ∈ G tal que a ∗ e = e ∗ a = a, para todo


a ∈ G.

3. Elemento opuesto: Para todo a ∈ G, existe a ′ ∈ G tal que a ∗ a ′ =


a ′ ∗ a = e.

En un grupo hay dos resultados sencillos de unicidad:

El elemento neutro es único. Si e, e ′ ∈ G verifican la condición de elemen-


to neutro, entonces e ∗ e ′ = e, por ser e elemento neutro, pero también
e ∗ e ′ = e ′ por la misma razón para e ′ . Por tanto, e = e ′ .

Para todo a ∈ G, el elemento opuesto es único. Si a ′ , a ′′ ∈ G verifican


la condición de elemento opuesto, entonces de la igualdad a ∗ a ′ = e,
deducimos que a ′′ ∗ (a ∗ a ′ ) = a ′′ ∗ e = a ′′ . Por la propiedad asociativa,
a ′′ ∗ (a ∗ a ′ ) = (a ′′ ∗ a) ∗ a ′ = e ∗ a ′ = a ′ , de donde a ′ = a ′′ .

Normalmente, la operación interna ∗ será la suma o el producto de elemen-


tos. En la notación aditiva, el elemento neutro se denota 0, y el elemento opues-
to a a se denota −a. En la notación multiplicativa, el elemento neutro se denota
1, y el elemento opuesto a a, que en este caso se llama el inverso de a, se suele
1
denotar a −1 , o bien .
a
Un grupo es abeliano o conmutativo si la operación es conmutativa, es de-
cir, si para todo a, b ∈ G se verifica a ∗ b = b ∗ a.

Ejemplo 4.1.1.- Algunos ejemplos de grupos son los siguientes:

(Z, +), (Q, +), (R, +) y (C, +) son grupos abelianos aditivos.

(Q\{0}, ·), (R\{0}, ·) y (C\{0}, ·), donde · se refiere al producto, son gru-
pos abelianos multiplicativos.

118 Álgebra Lineal y Geometría


Depto. de Álgebra

El conjunto de matrices m × n con entradas en un cuerpo K (ahora vere-


mos la definición de cuerpo), junto con la suma de matrices, es un grupo
abeliano aditivo.

El conjunto de matrices cuadradas n × n no singulares con entradas en


un cuerpo K, junto con la multiplicación de matrices, forma un grupo
que se llama grupo lineal de orden n sobre K, y se denota Gl(n, K). Este
grupo no es abeliano.

El conjunto de matrices cuadradas n × n con entradas en un cuerpo K,


y con determinante igual a 1, junto con la multiplicación de matrices,
forma un grupo que se llama grupo especial lineal de orden n sobre K, y
se denota SL(n, K). Tampoco es abeliano.

Los vectores de n coordenadas, con la suma de vectores, forman un grupo


abeliano.

En ocasiones, se define más de una operación interna sobre un conjunto.


Existen estructuras que dependen de dos o más operaciones. Por ejemplo, la
más sencilla es la estructura de anillo. Usaremos las notaciones tradicionales,
+ y ·, para las dos operaciones internas, pero debemos recordar que pueden ser
operaciones cualesquiera verificando las condiciones de la definición:

Anillo

Sea A un conjunto no vacío, y sean +, · dos operaciones binarias in-


ternas, que llamaremos suma y producto, definidas en A. Se dice que
(A, +, ·) es un anillo, si se cumplen las siguientes propiedades:

1. (A, +) es un grupo abeliano.

2. Propiedad asociativa del producto: (a ·b)·c = a ·(b ·c), para todo


a, b, c ∈ A.

3. Propiedad distributiva del producto respecto a la suma:



a · (b + c) = a · b + a · c, para todo a, b, c ∈ A,



(a + b) · c = a · c + b · c, para todo a, b, c ∈ A.

Álgebra Lineal y Geometría 119


Depto. de Álgebra

Si se verifica alguna propiedad más, tenemos tipos especiales de anillos:

Un anillo (A, +, ·), se dice que es unitario, o que tiene elemento unidad,
si existe u ∈ A tal que a · u = u · a = a para todo a ∈ A.

Un anillo (A, +, ·), se dice que es conmutativo si a · b = b · a, para todo


a, b ∈ A.

Ejemplo 4.1.2.- Algunos ejemplos de anillo son los siguientes:

(Z, +, ·), (Q, +, ·), (R, +, ·) y (C, +, ·) son anillos conmutativos.

Si Z[x] es el conjunto de los polinomios en la variable x, con coeficien-


tes en Z, y definimos naturalmente la suma (+) y el producto (·) de dos
polinomios, entonces (Z[x], +, ·) es un anillo conmutativo.

De igual modo, (Q[x], +, ·), (R[x], +, ·), y (C[x], +, ·) son anillos conmu-
tativos.

El conjunto de matrices n × n con entradas en un cuerpo K, con la suma


y el producto de matrices, es un anillo no conmutativo.

En resumen, si (A, +, ·) es un anillo, entonces (A, +) es un grupo, y (A, ·) es


casi un grupo: sólo le falta el elemento inverso, y puede que el elemento unidad.
Hay elementos, como el 0 en el caso de los números, que no pueden te-
ner inverso multiplicativo. Pero si cualquier otro elemento puede invertirse, es
decir, si (A\{0}, ·) fuera un grupo, y aún más, un grupo abeliano, entonces esta-
ríamos ante un cuerpo.

120 Álgebra Lineal y Geometría


Depto. de Álgebra

Cuerpo

Sea K un conjunto no vacío, y sean +, · dos operaciones internas, que


llamaremos suma y producto, definidas en K. Se dice que (K, +, ·) es un
cuerpo si se cumplen las siguientes propiedades:

1. (K, +) es un grupo abeliano.

2. (K\{0}, ·) es un grupo abeliano, donde 0 es el elemento neutro de


la suma.

3. Propiedad distributiva del producto respecto a la suma:

a · (b + c) = a · b + a · c, para todo a, b, c ∈ K.

Dicho de otra forma, un cuerpo es un anillo conmutativo, con elemento


unidad, donde todo elemento no nulo tiene inverso.
Observemos que la propiedad distributiva solamente tiene una condición.
Esto es porque el producto es conmutativo, luego la otra condición es conse-
cuencia de la primera.

Ejemplo 4.1.3.- Algunos ejemplos de cuerpo son los siguientes:

(Q, +, ·), (R, +, ·) y (C, +, ·) son cuerpos.

Notaremos por Gl(n, K) al conjunto de matrices no singulares y SL(n, K)


al conjunto de matrices cuyo determ, no son cuerpos, ya que el producto
de matrices no es conmutativo.

Los cuerpos tienen multitud de propiedades, que no se estudiarán en esta


asignatura. Los usaremos para definir estructuras más complejas, que genera-
licen las propiedades de los vectores, que hemos visto en los temas anteriores.
Para ello debemos definir las operaciones externas. Consideremos un con-
junto X , y otro conjunto K que llamaremos conjunto de escalares. Llamaremos
operación binaria externa sobre X , a una función que tome un elemento de

Álgebra Lineal y Geometría 121


Depto. de Álgebra

K y un elemento de X , y dé como resultado un elemento de X . Es decir, una


función:

p : K× X → X.

Normalmente, a una operación externa de este tipo la denotaremos · y la llama-


remos multiplicación por escalar; y al resultado de aplicarla a un escalar α ∈ K y
a un elemento x ∈ X , lo denotaremos α · x, o simplemente αx, y lo llamaremos
producto de α por x.
Por tanto, si tenemos un conjunto X y otro conjunto de escalares K, pode-
mos tener operaciones internas en cada uno de esos conjuntos, y operaciones
externas entre ellos. Usando estas dos posibilidades, se definen los espacios vec-
toriales.

Ejemplo 4.1.4.- Consideremos el conjunto R[X ]4 de polinomios en R[X ] de


grado menor o igual que 4. La operación suma es interna, y dota de estructura
de grupo abeliano a este conjunto. Una operación binaria externa es el produc-
to por elementos de R. Sean p(X ) ∈ R[X ]4 , y α ∈ R. Entonces si

p(X ) = a4 X 4 + a3 X 3 + a2 X 2 + a1 X + a0

definimos

α · p(X ) = (αa4 )X 4 + (αa3 )X 3 + (αa2 )X 2 + (αa1 )X + (αa0 ).

Sean entonces V y K conjuntos no vacíos, con + una operación interna so-


bre V , y · una operación externa sobre V con conjunto de escalares K, que lla-
maremos producto por un escalar.

122 Álgebra Lineal y Geometría


Depto. de Álgebra

Espacio vectorial

Sea K un cuerpo. Diremos que (V, +, ·) es un espacio vectorial sobre K


si se cumplen las siguientes propiedades:

1. (V, +) es un grupo abeliano.

2. El producto por escalar verifica las siguientes propiedades, para


todo α, β ∈ K y para todo v , w ∈ V :

a) (α + β)v = αv + βv .
b) α(v + w ) = αv + αw .
c) α(βv ) = (αβ)v .
d) 1v = v , donde 1 es el elemento neutro de la multiplicación
de K.

A los elementos de un espacio vectorial los llamaremos vectores, y los escri-


biremos en negrita. En un K-espacio vectorial hay, por tanto, cuatro operacio-
nes: la suma y producto de escalares (operaciones en el cuerpo base), la suma
de vectores (operación interna en el espacio vectorial) y el producto de vectores
por escalares.
En las condiciones anteriores, también nos referiremos a V como un K-
espacio vectorial.

Ejemplo 4.1.5.- Algunos ejemplos de espacios vectoriales son los siguientes:


Los vectores columna y fila del producto cartesiano Kn que vimos ante-
riormente forman un espacio vectorial. El espacio vectorial de los vecto-
res de n coordenadas sobre un cuerpo K, se denota Kn . La suma se realiza
coordenada a coordenada, y el producto por escalar también. Ejemplos
de este tipo son R2 o R3 . Podemos tener
  

 x 1 

 
1×n
¡ ¢ n×1
 x
 2 
 
K = { x1 x2 . . . xn , xi ∈ K} y K =  .  , xi ∈ K .

 ..  


 

xn

En el contexto de los espacios vectoriales, no hay diferencia si se trata un


elemento de Kn como fila o como columna. Cuando la distinción entre

Álgebra Lineal y Geometría 123


Depto. de Álgebra

un vector fila o un vector columna sea irrelevante, o el contexto sea claro,


usaremos la notación Kn para designar este espacio vectorial. En otros
casos, cuando hablemos de coordenadas respecto a una base, usaremos
la notación por columnas.

El conjunto M (m ×n, K) de las matrices m ×n con entradas en un cuerpo


K, con la suma de matrices y el producto por escalar, forman un espacio
vectorial. Observemos que el producto de matrices no se utiliza aquí. En
general, no tiene por qué existir una multiplicación de vectores en un
espacio vectorial.

Dado V un K-espacio vectorial, sea W = {0} el subconjunto de V forma-


do únicamente por el elemento neutro de la suma de V . Cualquier opera-
ción donde intervenga algún vector da como resultado el único elemento
0, por lo que las operaciones están bien definidas. Tiene estructura de es-
pacio vectorial, y lo denominamos espacio vectorial trivial.

Los conjuntos de polinomios Q[x], R[x] y C[x] son espacios vectoriales


con cuerpo de escalares, respectivamente, Q, R y C.

Los conjuntos Q[x]n , R[x]n y C[x]n , formados por polinomios de grado


menor o igual a n, son espacios vectoriales con cuerpo de escalares, res-
pectivamente, Q, R y C.

El conjunto de soluciones de un sistema lineal homogéneo con coeficien-


tes en un cuerpo K es un espacio vectorial sobre K. Sea A m×n una matriz,
y llamemos V = {v ∈ Kn | A v = 0}. Vamos a probar que V es un espacio
vectorial. En primer lugar, veamos la estructura de grupo. Es claro que
0 ∈ V . Sean v , w ∈ V . Entonces −v es solución del sistema, y v + w es un
elemento de V , pues

A(v + w ) = A v + A w = 0.

Así, la operación suma es interna, y hereda las propiedades de grupo de


Kn . El producto por un escalar verifica que

A(αv ) = αA v = α0 = 0,

y también se verifican las propiedades de la definición de espacio vecto-


rial.

El cuerpo base es fundamental en la definición del espacio vectorial, por


lo que llamaremos habitualmente a V un K-espacio vectorial. Por ejem-
plo, veremos más adelante que no es lo mismo C2 como C-espacio vecto-
rial que como R-espacio vectorial.

124 Álgebra Lineal y Geometría


Depto. de Álgebra

Terminamos esta sección con algunas consecuencias sencillas de la defini-


ción de espacio vectorial.

Propiedades fundamentales de un espacio vectorial

Si V es un K-espacio vectorial, se tienen las siguientes propiedades, pa-


ra todo α, β ∈ K y todo v , w ∈ V :

1. α0 = 0, donde 0 es el elemento neutro de la suma en V .

2. 0v = 0, donde 0 es el elemento neutro de la suma en K.

3. Si αv = 0 entonces, o bien α = 0 o bien v = 0.

4. (−α)v = α(−v ) = −(αv ).

5. Si αv = βv y v 6= 0, entonces α = β.

6. Si αv = αw y α 6= 0, entonces v = w .

P RUEBA : Probemos en primer lugar la propiedad de cancelación en V como


grupo: si v + u = v + w , entonces u = w . En efecto, queda

(−v ) + v + u = (−v ) + v + w al sumar el opuesto de v ,


(−v + v ) + u = (−v + v ) + w por la propiedad asociativa,
0+u = 0+w por la definición de opuesto,
u=w por la definición de elemento neutro.

1. De la igualdad
α0 = α(0 + 0) = α0 + α0,

tenemos que α0 = 0 por la propiedad de cancelación.

2. Análogamente,

v = 1 · v = (1 + 0)v = 1 · v + 0v = v + 0v .

Por la propiedad de cancelación, 0v = 0.

Álgebra Lineal y Geometría 125


Depto. de Álgebra

3. Supongamos que αv = 0. Si α = 0, ya lo tenemos. Si α 6= 0, existe α−1 ∈ K


y
1)
α−1 (αv ) = α−1 0 = 0.
Como α−1 (αv ) = (α−1 α)v = 1v = v , tenemos el resultado.

4. Veamos en primer lugar que −(αv ) = (−α)v , es decir, el elemento opuesto


de αv es (−α)v . En efecto,

αv + (−α)v = (α + (−α))v = 0v = 0,

de donde tenemos esta parte. Para la segunda,

αv + α(−v ) = α(v + (−v )) = α0 = 0.

Los dos últimos apartados son consecuencias inmediatas de los anteriores. 

4.2. Dependencia lineal


El concepto de combinación lineal ya nos ha aparecido cuando estudiamos
las operaciones elementales entre filas y columnas de una matriz. Ese caso, que
se corresponde con un conjunto Km , lo generalizamos a espacios vectoriales
arbitrarios.

Combinación lineal

Sea V un K-espacio vectorial. Dados r vectores v1 , . . . , vr ∈ V , llamamos


combinación lineal de estos vectores a cualquier expresión de la forma

α1 v1 + α2 v2 + · · · + αr vr ∈ V, donde α1 , . . . , αr ∈ K.

Ejemplo 4.2.1.- En el Q-espacio vectorial V = Q[x], consideremos el conjunto


de vectores {1, 1 + x, 1 + x + x 2 }. Entonces

p(x) = 2 · 1 + (−2) · (1 + x) + 3 · (1 + x + x 2 ) = 3 + x + 3x 2

es una combinación lineal del conjunto dado.

126 Álgebra Lineal y Geometría


Depto. de Álgebra

Nota 4.2.1. Obsérvese que, por definición, las combinaciones lineales de vec-
tores son finitas. Es decir, podemos partir de un conjunto infinito de vectores,
pero en la suma solamente intervienen un número finito de elementos.

Dependencia lineal

Sea V un K-espacio vectorial. Diremos que un vector v depende lineal-


mente de un conjunto de vectores S ⊂ V si se puede escribir como com-
binación lineal de vectores de S.

Ejemplo 4.2.2.- En el ejemplo anterior, vemos que el polinomio 3 + x + 3x 2


depende linealmente del conjunto {1, 1 + x, 1 + x + x 2 }, pero no depende lineal-
mente del conjunto {1, 1 + x}.

Conjunto linealmente (in)dependiente

Sea V un K-espacio vectorial.

Un conjunto finito de vectores {v1 , . . . , vr } es linealmente depen-


diente si la ecuación

x1 v1 + · · · + xr vr = 0

tiene solución no trivial.

Un subconjunto no vacío S ⊂ V es linealmente dependiente si


contiene un conjunto finito de vectores linealmente dependien-
te.

En caso contrario, decimos que S es linealmente independiente o li-


bre.

Álgebra Lineal y Geometría 127


Depto. de Álgebra

Un caso extremo de la definición es S = ;, que lo consideramos linealmente


independiente. Si el conjunto S tiene un número finito de vectores v1 , . . . , vr ,
diremos de forma extendida que los vectores v1 , . . . , vr son linealmente depen-
dientes o independientes en lugar de hablar de la dependencia o independen-
cia del conjunto S.

Ejemplo 4.2.3.- Consideremos el conjunto S = {u1 , u2 , u3 , u4 } de vectores en


R3 dados por
       
4 −4 1 1
       
 3  , u2 =  −5  , u3 = 
u1 =  0 
 , u4 =  0  .
     

−2 −2 −5 −2
Tratemos de determinar si S es un conjunto linealmente dependiente. Plantea-
mos si existen escalares no todos nulos αi , i = 1, 2, 3, 4 tales que
0 = α1 u1 + α2 u2 + α3 u3 + α4 u4 .
Se trata entonces de verificar si el sistema lineal homogéneo

 4α1 −4α2 +α3 +α4 = 0,
3α1 −5α2 = 0,

−2α1 −2α2 −5α3 −2α4 = 0,
tiene alguna solución no trivial. Observemos que la matriz de coeficientes del
sistema es  
4 −4 1 1
 
 3 −5 0 0 
 ,
−2 −2 −5 −2
cuyas columnas son los vectores de partida. El sistema lo resolvemos mediante
eliminación gaussiana:
   
4 −4 1 1 4 −4 1 1
  Gauss  
 3 −5 0 0  −−−−→  0 −8 −3 −3  = E .
 

−2 −2 −5 −2 0 0 24 0
El rango de la matriz de coeficientes es 3, que es menor que el número de in-
cógnitas. Por tanto, tiene solución no trivial. Al resolver el sistema deducimos
una combinación lineal de los vectores de S igual al vector 0:
5 3
· u1 + · u2 + 0 · u3 + (−1)u4 = 0.
8 8

128 Álgebra Lineal y Geometría


Depto. de Álgebra

A partir de los pivotes de la matriz E , deducimos que el conjunto S ′ = {u1 , u2 , u3 }


es linealmente independiente, pues forman las columnas básicas de la matriz
de coeficientes. No puede haber dependencia lineal entre estos vectores, pues
entonces la tendríamos entre
     
1 0 0
e1 =  0  , e2 =  1  , e3 =  0  ,
0 0 1
y es fácil ver que estos vectores forman un conjunto linealmente independien-
te.

Si el espacio vectorial es Kn , podemos usar los cálculos matriciales de los


temas anteriores para saber si un conjunto de vectores S = {v1 , . . . , vr } ⊂ Kn es
linealmente dependiente o independiente.

Dependencia e independencia lineal en Kn

¡ ¢
Sea A S = v1 · · · vr .

Gauss
Calculamos A S −−−−→ E .

Si alguna columna de E no tiene pivote, la columna correspon-


diente de A S es combinación lineal de las anteriores, y el conjun-
to S es linealmente dependiente.

Si todas las columnas de E tienen pivote, entonces S es lineal-


mente independiente.

En resumen,

S es linealmente independiente si y solamente si rango(A S ) = r .

Ejemplo 4.2.4.- El conjunto S = {u1 , u2 , u3 } de R3 dado por


     
1 −1 2
     
 1  , u2 =  0  , u3 =  −1  ,
u1 =      

2 1 2

Álgebra Lineal y Geometría 129


Depto. de Álgebra

es linealmente independiente, pues


   
1 −1 2 1 −1 2
  Gauss  
 1
AS =  0  −−−−→  0
−1  1 .
−3 

2 1 2 0 0 7

Sin embargo, el conjunto T = {u1 , u2 , v3 }, con


 
5
 
 2 
v3 =  

verifica que
   
1 −1 5 1 −1 5
  Gauss  
 1
AT =  0 2 
 −−−−→  0 1 ,
−3 

2 1 1 0 0 0
por lo que T es un conjunto linealmente dependiente.

Relaciones entre dependencia y combinación lineal

1. Un conjunto S de vectores es linealmente dependiente si y so-


lamente si existe un vector v ∈ S que depende linealmente de
S − {v }.

2. Si un vector u depende linealmente del conjunto S y cada vector


de S depende linealmente del conjunto T , entonces u depende
linealmente de T .

3. Sea S ⊂ V un conjunto linealmente independiente. Si v es un vec-


tor que no depende linealmente de los vectores de S, entonces
S ∪ {v } es un conjunto linealmente independiente.

P RUEBA :

130 Álgebra Lineal y Geometría


Depto. de Álgebra

1. Supongamos que el conjunto S es linealmente dependiente. Entonces


existen vectores v1 , . . . , vr ∈ S y escalares α1 , . . . , αr ∈ K, no todos nulos,
tales que
α1 v1 + α2 v2 + · · · + αr vr = 0.
Sabemos que existe al menos un αi 6= 0 por lo que podemos despejar

αi vi = −α1 v1 − · · · − αi −1 vi −1 − αi +1 vi +1 − · · · − αr vr ,

y al ser αi 6= 0, obtenemos
α1 αi −1 αi +1 αr
vi = − v1 − · · · − vi −1 − vi +1 − · · · − vr ,
αi αi αi αi

que es una expresión de vi como combinación lineal de los demás; por


tanto vi depende linealmente de los demás.
Supongamos ahora que existe un vector v que depende linealmente de
S − v . Esto quiere decir que existe una combinación lineal

v = β1 v1 + · · · + βr vr , vk ∈ S − {v }.

De esta igualdad se obtiene

β1 v1 + · · · + βr vr − v = 0,

que es una expresión del vector 0 como combinación lineal de los vecto-
res v1 , . . . , vr , v donde no todos los coeficientes son nulos (el coeficiente
de v es −1). Por tanto, el conjunto {v1 , . . . , vr , v } es linealmente depen-
diente y S también lo es.

2. Por hipótesis, podemos escribir

u = α1 v1 + · · · + αp vp , vi ∈ S y además
vi = βi ,1 wi 1 + · · · + βi ,qi wi qi , para i = 1, . . . , p, wi j ∈ T.

Consideremos el conjunto de todos los vectores wi j que aparecen en las


expresiones anteriores. Los etiquetamos como w1 , . . . , wq , con índice que
no depende de i , y podemos escribir entonces que, para cada i ,
q
X
vi = β′i j w j ,
j =1

con la asignación de escalares nulos en las expresiones correspondientes.

Álgebra Lineal y Geometría 131


Depto. de Álgebra

Ahora sustituimos cada vi por la combinación lineal anterior.


à !
p
X Xp q
X
u = αi vi = α1 β′i j w j
i =1 i =1 j =1
à !
q
X p
X q
X
= αi β′i j w j = γj wj ,
j =1 i =1 j =1
| {z }
γj

lo que implica que u depende linealmente de {w1 , . . . , wq } y, por tanto, de


T.

3. Supongamos que S ∪ {v } es linealmente dependiente. Esto quiere decir


que existe una combinación lineal no trivial de los vectores de S∪{v } igual
a cero, es decir, se puede escribir
α1 u1 + · · · + αr ur + βv = 0, ui ∈ S, i = 1, . . ., r,
donde no todos los coeficientes αi , β son nulos. Si se tiene que β = 0, la
expresión anterior sería una combinación lineal de los vectores de S igual
a 0, donde no todos los coeficientes serían nulos, lo cual no es posible
porque S es un conjunto linealmente independiente. Por tanto, β 6= 0 y
podemos entonces despejar v en la expresión anterior, obteniendo
α1 αr
v = − u1 − · · · − ur .
β β
Así, v depende linealmente de S.


4.3. Conjunto generador y base


En esta sección veremos cómo el concepto de dependencia lineal sirve pa-
ra expresar los elementos de un espacio vectorial utilizando sólo un conjunto
(posiblemente finito) de vectores.

Conjunto o sistema generador

Sea V un K-espacio vectorial. Diremos que un conjunto de vectores S


es un conjunto o sistema generador de V si todo vector de V puede
escribirse como combinación lineal de los vectores de S. En este caso
diremos que V está generado por S, o por los vectores de S.

132 Álgebra Lineal y Geometría


Depto. de Álgebra

Si el espacio V tiene un sistema generador con un número finito de elemen-


tos decimos que es finitamente generado.

Ejemplo 4.3.1.- En el R-espacio vectorial R[x], el conjunto S = {1, x, x 2 , . . .} es


un conjunto generador de V .

Ejemplo 4.3.2.- El conjunto S = {u1 , u2 , u3 , u4 }, con


       
1 −1 2 −1
u1 =  1  , u2 =  0  , u3 =  −1  , u4 =  3  ,
2 1 2 5

es un sistema generador de R3 . Se trata de expresar un vector arbitrario de R3


como combinación lineal de los elementos de S, esto es, de resolver el sistema
de ecuaciones  
α1
 α2  = x1 u1 + x2 u2 + x3 u3 + x4 u4
α3
para cualesquiera α1 , α2 , α3 ∈ R. La matriz de coeficientes del sistema es
 
1 −1 2 −1
 
 1 0 3 
 −1 ,
2 1 2 5

con forma escalonada por filas igual a


 
1 −1 2 −1
 
 0
E = 1 −3 4 .
0 0 7 −5

El rango es entonces igual a tres, por lo que el sistema siempre tendrá solución,
independientemente de los valores de α1 , α2 , α3 .

Álgebra Lineal y Geometría 133


Depto. de Álgebra

Conjunto generador en Kn

Sea G = {v1 , . . . , vs } ⊂ Kn .
¡ ¢
Construimos la matriz AG = v1 · · · vs , que es de orden n×s.

Gauss
Calculamos AG −−−−→ E una forma escalonada.

Si E tiene n pivotes, entonces G es un sistema generador. En caso


contrario, no lo es.

En resumen,

G es sistema generador de Kn si y solamente si rango(AG ) = n.

Justifiquemos el método anterior. Si G es un conjunto generador, entonces todo


vector v ∈ Kn se expresa como combinación lineal de los vectores de G. En
particular, cada uno de los vectores ei , i = 1, . . . , n es combinación lineal de los
vectores de G. Si lo traducimos a sistemas de ecuaciones, esto implica que cada
uno de los sistemas de matriz ampliada (AG |ei ) es compatible, de donde

rango(AG |ei ) = rango(AG ), i = 1, . . . , n.

Sea T = (AG |I n ), que es una matriz n × (s + n). El bloque de la derecha nos dice
que rango(T ) = n y el razonamiento anterior implica que rango(T ) = rango(AG ).
Por tanto, rango(AG ) = n.
Recíprocamente, si rango(AG ) = n y v ∈ Kn , la matriz (AG |v ) es de orden n ×
(s + 1) y tiene rango igual a n, de donde v es combinación lineal de los vectores
de G.
Un espacio vectorial puede tener muchos sistemas de generadores diferen-
tes. Incluso puede haber sistemas de generadores donde algún vector no sea
necesario. En el ejemplo anterior, los tres primeros vectores forman un sistema
generador de R3 . Esto nos va a llevar al concepto de base.

Base

Sea V un K-espacio vectorial. Una base de V es un conjunto S de vec-


tores de V linealmente independiente y generador.

134 Álgebra Lineal y Geometría


Depto. de Álgebra

En otras palabras, una base es un sistema de generadores de un espacio vec-


torial en el que no sobra ningún vector, ya que, al ser linealmente independien-
te, ninguno de ellos puede escribirse como combinación lineal de los demás.

Ejemplo 4.3.3.- En Kn tenemos siempre la base estándar S = {e1 , . . . , en }, don-


de el vector ei es la n-upla que tiene un 1 en la posición i y cero en las restantes.
S es un conjunto linealmente independiente, pues si consideramos una com-
binación lineal
α1 e1 + · · · + αn en = 0,
entonces, al identificar componentes de cada lado, nos queda que α1 = 0, . . . , αn =
0. Además, es un conjunto generador, pues dado v ∈ Kn de componentes v i ,
podemos escribir, de manera inmediata, que v = v 1 e1 + · · · + v n en .

Ejemplo 4.3.4.- El conjunto {1, x, x 2 , . . .} es una base del espacio vectorial R[x].
Observemos que tiene un número infinito de elementos. Además, R[x] no pue-
de ser finitamente generado: supongamos que existe un conjunto finito de po-
linomios g 1 (x), g 2 (x), . . . , g r (x) que sean linealmente independientes y genera-
dores. Existe una potencia k de x que es la mayor que aparece en estos poli-
nomios. Entonces el polinomio x k+1 no se puede expresar como combinación
lineal de g 1 (x), . . . , g r (x).

Ejemplo 4.3.5.- El conjunto S = {u1 , u2 , u3 , u4 }, con


       
1 −1 2 −1
u1 =  1  , u2 =  0  , u3 =  −1  , u4 =  3  ,
2 1 2 5

Álgebra Lineal y Geometría 135


Depto. de Álgebra

es un sistema generador de R3 , pero no es una base, pues el vector u4 se puede


expresar como combinación lineal de los restantes. En concreto,
16 13 5
u4 = u1 + u2 − u3 .
7 7 7
¡ ¢
Sin embargo, el conjunto B = {u1 , u2 , u3 } es base, pues la matriz A B = u1 u2 u3
tiene una forma escalonada con tres pivotes, es decir, su rango es tres. Esto sig-
nifica que es un sistema generador y los vectores son independientes.

Nota 4.3.1. Las bases infinitas no tienen nada que ver con las combinaciones
lineales infinitas. En el ejemplo de R[x], no estamos considerando expresiones
de la forma

X
ci x i ,
i =0
que es una serie formal.
Ahora veamos que un espacio vectorial finitamente generado, que no sea
trivial, siempre tiene una base. Además veremos cómo se construye, a partir de
un sistema de generadores.

Existencia de base

Sea V 6= {0} un espacio vectorial finitamente generado. Dado cualquier


conjunto finito de generadores G ⊂ V , existe una base B de V formada
por vectores de G.

P RUEBA :
Sea G = {v1 , . . . , vp }. Vamos a dividir el conjunto G en dos subconjuntos. Si
v1 6= 0, lo etiquetamos como básico. Si es cero, lo etiquetamos como no básico.
Para cada i ≥ 2, si vi no depende linealmente de los anteriores {v1 , . . . , vi −1 },
etiquetamos a vi como básico y, en otro caso, lo etiquetamos como no básico.
Sea B el conjunto de todos los elementos básicos. Vamos a probar que B es
una base de V . El conjunto B es no vacío, porque no todos los vi son nulos y el
primer vi no nulo será básico.
Todo vector de V depende linealmente de G, porque es un conjunto gene-
rador. Por la construcción, todos los elementos de G dependen linealmente de
B: los básicos porque están en B y los no básicos por la definición. En conse-
cuencia, B es un conjunto generador.

136 Álgebra Lineal y Geometría


Depto. de Álgebra

Basta entonces comprobar que B es un conjunto linealmente indepen-


diente. Sea B = {u1 , . . . , us } y consideremos una expresión de la forma
α1 u1 + α2 u2 + · · · + αs us = 0.
Entonces
α1 u1 + α2 u2 + · · · + αs−1 us−1 = −αs us
Por la definición de elemento básico, el vector vs no depende linealmente de
{u1 , . . . , us−1 }, por lo que αs = 0. Por una repetición de este argumento, llegamos
a que αs−1 = 0 y, en general, que todos los αi = 0, 1 ≤ i ≤ s. Por tanto, B es un
conjunto linealmente independiente.


Extracción de una base en Kn

Sea G = {v1 , . . . , vp } un sistema de generadores del espacio vectorial Kn .


¡ ¢
Formamos la matriz AG = v1 · · · vp .

Gauss
Calculamos AG −−−−→ E .

Las columnas básicas de AG , que se corresponden con las colum-


nas con pivotes de E , forman una base de Kn .

Ejemplo 4.3.6.- En R3 consideremos el sistema


          

 1 −1 5 0 2 

          
G = v1 =  1  , v2 =  0  , v3 =  2  , v4 =  1  , v5 =  −1  . .
         

 

 
2 1 1 1 2
Mediante la forma escalonada por filas, obtenemos
 
1 −1 5 0 2
¡ ¢ Gauss  
v1 v2 v3 v4 v5 −−−−→   0 1 −3 1 −3  .

0 0 0 −2 7

Luego G es un sistema generador de R3 y B = {v1 , v2 , v4 } es una base.

Álgebra Lineal y Geometría 137


Depto. de Álgebra

4.4. Dimensión
En esta sección definiremos un concepto esencial del álgebra lineal: la di-
mensión de un espacio vectorial. Necesitamos primero el siguiente resultado:

Relación entre conjuntos independientes y generadores

Sea V un K-espacio vectorial. Si G = {u1 , . . . , um } es un conjunto gene-


rador de V y S = {v1 , . . . , vn } un conjunto linealmente independiente,
entonces n ≤ m.

P RUEBA : Como G es un conjunto generador, podemos escribir cada vi co-


mo combinación lineal de los elementos de G:

vi = a1i u1 + · · · + ami um , a j i ∈ K.

Vamos a probar que si n > m, entonces el conjunto S es linealmente depen-


diente. Partamos de la ecuación

x1 v1 + · · · + xn vn = 0.

Sustituimos cada vi por su expresión como combinación lineal de los vectores


uj :
x1 (a11 u1 + · · · + am1 um ) + · · · + xn (a1n u1 + · · · + amn um ) = 0,
Tras agrupar en cada ui , se tiene

(a11 x1 + · · · + a1n xn )u1 + · · · + (am1 x1 + · · · + amn xn )um = 0.

Una posible solución para esta ecuación se obtendría si cada coeficiente fuera
cero, es decir, si


 a11 x1 + a12 x2 + · · · + a1n xn = 0

 a21 x1 + a22 x2 + · · · + a2n xn = 0
.. .. .. ..


 . . . .

am1 x1 + am2 x2 + · · · + amn xn = 0.

Este sistema homogéneo tiene, como máximo, rango m, ya que tiene m filas.
Ahora bien, si n > m, el Teorema de Rouché-Frobenius nos dice que es un sis-
tema compatible indeterminado, es decir, existe una solución para x1 , . . . , xn
donde no todos son cero. Esto implica que S es un conjunto linealmente de-
pendiente. 

138 Álgebra Lineal y Geometría


Depto. de Álgebra

Este resultado implica que una base de un espacio vectorial finitamente ge-
nerado tiene que contener un número finito de elementos, pues su cardinal
está acotado por el de cualquier conjunto generador. Identificamos ahora un
invariante de un espacio vectorial finitamente generado.

Teorema de la base

Sea V un K-espacio vectorial finitamente generado. Entonces todas las


bases de V tienen el mismo número de elementos.

P RUEBA : Como V es finitamente generado, existe una base del espacio.


Sean B1 y B2 dos bases de V , de m y n vectores respectivamente. Como B1
es un conjunto generador y B2 es libre, entonces n ≤ m por la relación entre
conjuntos independientes y generadores (pág. 138). Pero como B2 es un con-
junto generador y B1 es libre, se tiene m ≤ n. Por tanto, m = n. 

Dimensión de un espacio vectorial

La dimensión de un K-espacio vectorial V que denotamos dim(V ), se


define como sigue:

Si V = {0}, entonces dim(V ) = 0.

Si V es finitamente generado, su dimensión es el número de ele-


mentos de cualquier base de V .

Si V no es finitamente generado, diremos que tiene dimensión


infinita, y escribiremos dimV = ∞.

Ejemplo 4.4.1.-
El K-espacio vectorial Kn tiene dimensión n, pues la base estándar tiene
n elementos.

El conjunto de polinomios, K[x], es un K-espacio vectorial de dimensión


infinita y una base es {x i | i = 0, 1, 2, . . .}. Si V es un espacio vectorial que
no es de generación finita, no hemos probado la existencia de una base.
Esto requiere otros métodos que hacen uso del axioma de elección.

Álgebra Lineal y Geometría 139


Depto. de Álgebra

El conjunto de matrices M (m ×n, K) es un K-espacio vectorial de dimen-


sión m·n. Una base está formada por las matrices E (i , j ), que tienen ceros
en todas sus posiciones, salvo en el valor 1 en la posición (i , j ).

El cuerpo C es un R-espacio vectorial de dimensión 2.

El cuerpo R es un Q-espacio vectorial de dimensión infinita.

La dimensión de un espacio vectorial nos impone restricciones sobre el ta-


maño que pueden tener los conjuntos libres o generadores.

Acotación de conjuntos generadores e independientes

Sea V un K-espacio vectorial de dimensión finita y S = {v1 , . . . , vm } ⊂ V .

1. Si S es un conjunto generador, entonces m ≥ dimV .

2. Si S es linealmente independiente, entonces m ≤ dimV .

3. Si S es un conjunto generador y m = dimV , entonces S es base


de V .

4. Si S es linealmente independiente, y m = dimV , entonces S es


base de V .

P RUEBA : Sea n = dim(V ). Los dos primeros apartados los conocemos ya. Su-
pongamos entonces que S es un conjunto generador con m = dim(V ). Por el
teorema de existencia de base (pág. 136), podemos extraer una base de S. Como
el número de elementos de S es igual a la dimensión, no es posible conseguir
una base de menor número de elementos, por lo que S es ya una base.
Supongamos ahora que S es un conjunto linealmente independiente, con
m = dim(V ). Si v ∈ V no se puede expresar como combinación lineal de S, en-
tonces S ∪ {v } es linealmente independiente (relación entre combinación y de-
pendencia lineal, pág. 130), lo que implica que m + 1 ≤ dimV , que es una con-
tradicción. 

140 Álgebra Lineal y Geometría


Depto. de Álgebra

Base en Kn

¡ ¢
Sea B = {v1 , . . . , vn } y A B = v1 · · · vn .

Gauss
Calculamos A B −−−−→ E .

Si E tiene tiene n pivotes, entonces B es una base. En caso con-


trario, no lo es.

En resumen,

B es base de Kn si y solamente si rango(A B ) = n.

Al igual que de un conjunto generador podemos extraer una base, un con-


junto linealmente independiente se puede ampliar a una base.

Ampliación a una base

Sea V un K-espacio vectorial de dimensión finita n y S = {v1 , . . . , vm }


un conjunto linealmente independiente, con m < n. Entonces existen
n −m vectores vm+1 , . . . , vn ∈ V tales que el conjunto {v1 , . . . , vn } es base
de V . Además, los vectores vm+1 , . . . , vn pueden tomarse de cualquier
base de V .

P RUEBA : Sea S como en el enunciado, y consideremos B = {u1 , . . . , un } una


base cualquiera de V . Si cada elemento de B dependiera linealmente de los
elementos de S, entonces S sería un conjunto generador y, por tanto, base. Co-
mo m < n, existe un vector de B, supongamos que es u1 , que no depende li-
nealmente de S. Entonces el conjunto S ∪ {u1 } es linealmente independiente.
Aplicamos este razonamiento a S ∪ {u1 }.
Si m + 1 < n, entonces S ∪ {u1 } no es base. Por tanto, existe un vector en
B que no depende linealmente de S ∪ {u1 }. Dicho vector de B no puede ser
{u1 }, porque {u1 } depende linealmente de S ∪ {u1 }. Digamos entonces que es
u2 , de donde S ∪{u1 , u2 } es linealmente independiente. Continuamos este pro-
ceso hasta obtener S ∪ {u1, . . . , un−m }, conjunto linealmente independiente de
n vectores, es decir, base de V . 

Álgebra Lineal y Geometría 141


Depto. de Álgebra

Ampliación a una base de Kn

Sea S = {v1 , . . . , vm } un conjunto linealmente independiente de Kn , con


m ≤ n, y {e1 , . . . , en } la base estándar de Kn .

Formamos la matriz
¡ ¢
A= v1 · · · vm e1 · · · en .

Calculamos una forma escalonada por filas de A, que tiene n pi-


votes.

Las columnas básicas de A constituyen una ampliación de S.

El método anterior es válido, porque los m primeros pivotes están en las m pri-
meras columnas, pues S es un sistema libre, y el resto entre las siguientes co-
lumnas. Por tanto, las columnas básicas de la matriz A contienen a los vectores
de partida v1 , . . . , vm y todas forman una base de Kn que completa a S.

Ejemplo 4.4.2.- En el espacio vectorial R4 consideramos el sistema libre


    

 1 2  

    
 −1   −1 
S = v1 =   , v2 =   .

  2   2  
 
 1 1 

Completaremos S con vectores de la base estándar hasta obtener una base de


R4 :    
1 2 1 0 0 0 1 2 1 0 0 0
−1 0 1 0 0   0 1 1 1 0 0 
   
 −1
   .
 2 2 0 0 1 0   0 0 0 2 1 0 
1 1 0 0 0 1 0 0 0 0 −1/2 1
Luego una base de R4 que completa a S es {v1 , v2 , e2 , e3 }

En el método anterior hemos seleccionado la base estándar de Kn , pero


es posible realizar el mismo procedimiento con cualquier base que tengamos
inicialmente.

142 Álgebra Lineal y Geometría


Depto. de Álgebra

4.5. * Espacio producto


El producto cartesiano de espacios vectoriales sobre un mismo cuerpo K es
un conjunto que admite la estructura de espacio vectorial. Además, en el caso
de dimensión finita, podemos calcular una base de este nuevo espacio.

Espacio producto

Dados dos espacios vectoriales V1 y V2 sobre un mismo cuerpo K, el


producto cartesiano

V1 × V2 = {(v1 , v2 ) | v1 ∈ V1 , v2 ∈ V2 },

tiene estructura de K-espacio vectorial con las operaciones

Suma: (u1 , u2 ) + (v1 , v2 ) = (u1 + v1 , u2 + v2 ).

Producto por escalar: α(v1 , v2 ) = (αv1 , αv2 ).

P RUEBA : Es una sencilla verificación de las propiedades que definen un K-


espacio vectorial. 

Dimensión del espacio producto

Dados dos K-espacios vectoriales V1 y V2 de dimensión finita, el espa-


cio producto V1 ×V2 es un espacio vectorial de dimensión dim(V1 ×V2 ) =
dim(V1 ) + dim(V2 ).

P RUEBA : Tomemos una base B1 = {u1 , . . . , um } de V1 y una base B 2 = {v1 , . . . , vn }


de V2 . Se prueba de forma directa que el conjunto de vectores

B = ((u1 , 0), . . . , (um , 0), (0, v1 ), . . . , (0, vn ))

es base de V1 × V2 . Por tanto, dim(V1 × V2 ) = m + n = dim(V1 ) + dim(V2 ). 

4.6. Coordenadas
La principal ventaja de la existencia de bases, en los espacios vectoriales
de dimensión finita, es que vamos a poder estudiarlos, sea cual sea el espacio

Álgebra Lineal y Geometría 143


Depto. de Álgebra

vectorial, como si fuera Kn . Esto lo vamos a conseguir mediante el uso de coor-


denadas.
Primero necesitamos hacer una precisión. Hasta ahora, cuando hablába-
mos de un conjunto de vectores, o de una base, no nos importaba el orden en
que estuvieran los vectores. Pero para definir las coordenadas de un vector, es
necesario fijar un orden. Por tanto, a partir de ahora, cuando escribamos una
base en la forma B = {u1 , . . . , un } entendemos que hay una ordenación, lo que
nos permite hablar del i -ésimo vector de una base.

Unicidad de la expresión

Sea V un K-espacio vectorial finitamente generado y sea B un conjun-


to de vectores de V . Entonces B es una base si y solamente si todo vec-
tor de V se puede expresar de una única manera como combinación
lineal de los vectores de B.

P RUEBA : Supongamos que B = {u1 , . . . , un } es una base de V . Dado un vec-


tor v ∈ V , como B es conjunto de generadores, podremos escribir v = α1 u1 +
· · · + αn un . Si existiera otra forma de expresar v , digamos v = β1 u1 + · · · + βn un ,
entonces tendríamos

0 = v − v = (α1 − β1 )u1 + · · · + (αn − βn )un .

Pero como B es un conjunto linealmente independiente, los coeficientes de la


expresión anterior deben ser todos nulos. Es decir, αi − βi = 0, o lo que es lo
mismo, αi = βi para todo i = 1, . . . , n. Por tanto, la forma de expresar v como
combinación lineal de los elementos de B es única.
Recíprocamente, sea B = {u1 , . . . , un } un conjunto de vectores tal que todo
vector v ∈ V se puede expresar de forma única como combinación lineal de
los vectores de B. Por un lado, B es sistema de generadores, puesto que todo
vector de V se puede expresar como combinación lineal de B. Por otra parte,
consideremos el vector 0 ∈ V . Sabemos que siempre se tiene la combinación
lineal obvia:
0 = 0 · u1 + · · · + 0 · un .

Por la propiedad que le suponemos a B, esta es la única forma de escribir 0


como combinación lineal de los vectores de B. Por tanto, B es un conjunto
linealmente independiente y es una base. 

144 Álgebra Lineal y Geometría


Depto. de Álgebra

Coordenadas

Sea V un K-espacio vectorial de dimensión n. Dada una base B =


{u1 , . . . , un }, para todo vector v ∈ V , existe una única combinación li-
neal
v = α1 u1 + · · · + αn un .
Los escalares α1 , . . . , αn definen, por tanto, al vector v , y los llamaremos
coordenadas de v respecto a B. Escribiremos:
 
α1
vB =  ...  .
 

αn

Cuando la base B esté clara por el contexto, escribiremos simplemente


 
α1
v =  ...  .
 

αn

Por tanto, no importa cómo sea V como espacio vectorial; si fijamos una
base, vamos a poder representar los elementos de V como elementos del co-
nocido espacio vectorial Kn . Hay que hacer notar unas cuestiones sencillas,
pero muy importantes.

Un vector v ∈ Kn viene dado por una n-upla de números, que coincide


con las coordenadas de v con respecto a la base estándar S de Kn . Esto
es, si    
α1 α1
v =  ...  , entonces vS =  ...  .
   

vn vn

Dada una base B = {u1 , . . . , un } de un espacio vectorial V , se tiene que


   
1 0
 0   .. 
 , . . . , [un ]B =  .  ,
   
[u1 ]B =  ..
 .   0 
0 1

pues ui = 0 · u1 + · · · + 1 · ui + · · · + 0 · un .

Álgebra Lineal y Geometría 145


Depto. de Álgebra

El problema que se plantea ahora es cómo calcular las coordenadas de un


vector con respecto a una base dada. Para ello, tenemos que resolver un sistema
de ecuaciones.

Cálculo de las coordenadas

Sea B = {u1 , . . . , un } una base de Kn , y v un vector, definido por una


n-upla.
¡ ¢
Formamos la matriz A = u1 . . . un v .

G-J ¡ ¢
Calculamos A −→ E = I n w la forma escalonada reducida
por filas de la matriz A.

La última columna de E contiene las coordenadas de v respecto


de la base B.

Ejemplo 4.6.1.- En R4, consideremos el vector v , y la base B = {(u1 , u2 , u3 , u4 )},


dados por
         
1 1 1 1 0
 2   1   1   0   1 
         
v =   , u1 =   , u2 =   , u3 =   , u4 =   .
 3   1   0   1   1 
4 0 1 1 1

Entonces
   
1 1 1 0 1 1 0 0 0 −2/3
1 1 0 1 2  G-J  0 1 0 0 1/3 
¡ ¢    

A= u1 u2 u3 u4 v =   −→  .
 1 0 1 1 3   0 0 1 0 4/3 
0 1 1 1 4 0 0 0 1 7/3

Luego
− 23
 
 1

 
 3 
vB =  4
.
 
 3 
7
3

146 Álgebra Lineal y Geometría


Depto. de Álgebra

Coordenadas y operaciones con vectores

Sea V un K-espacio vectorial de dimensión n y B una base de V . Sea

c B : V → Kn

la aplicación que a cada elemento de V le hace corresponder el vector


de sus coordenadas: cB (v ) = vB . Entonces cB es una aplicación biyec-
tiva que verifica

1. cB (u + v ) = cB (u) + cB (v ),

2. cB (αu) = αcB (u),

para todo α ∈ K y u, v ∈ V .

P RUEBA : La aplicación es biyectiva por el teorema de la unicidad de la ex-


presión (pág. 144). Si B = {u1 , . . . , un } y
   
a1 b1
 a2   b2 
   
vB =  ..  , wB =  ..  ,
 .   . 
an bn

entonces

v = a 1 u1 + a 2 u2 + · · · + a n un , w = b 1 u1 + b 2 u2 + · · · + b n un ,

de donde

v + w = (a1 + b1 )u1 + (a2 + b2 )u2 + · · · + (an + bn )un ,


αv = (αa1 )u1 + (αa2 )u2 + · · · + (αan )un .

Por tanto,    
a1 + b1 αa1

 a2 + b2 


 αa2 

[v + w ]B =  ..  , [αu]B =  .. .
 .   . 
an + bn αan


Álgebra Lineal y Geometría 147


Depto. de Álgebra

Esta aplicación cB recibe el nombre de morfismo de coordenadas respecto


de la base B. La encontraremos más adelante como un caso especialmente
importante de aplicación entre espacios vectoriales.

Nota 4.6.1. La aplicación cB tiene gran importancia para el cálculo efectivo en


espacios vectoriales de dimensión finita. Sea S = {v1 , . . . , vr } un subconjunto
finito de vectores de V y B una base cualquiera de V , con dimV = n. Entonces
es fácil comprobar los siguientes resultados:

S es un conjunto linealmente independiente si y solamente si el conjunto


{[v1 ]B , . . . , [vn ]B } es linealmente independiente en Kn .

S es un conjunto generador si y solamente si {[v1 ]B , . . . , [vn ]B } es un con-


junto generador en Kn .

S es una base de V si y solamente si {[v1 ]B , . . . , [vn ]B } es una base de Kn .

Observemos también que la ampliación de un conjunto linealmente inde-


pendiente a una base de V se puede hacer a través de Kn . En resumen, todos
los procedimientos que hemos visto en Kn pueden ser aplicados a espacios
vectoriales de dimensión finita una vez fijada una base.

4.7. Cambio de base

Observemos que las coordenadas de un vector de V dependen de la base B


que hayamos elegido. Si tuviéramos otra base B ′ , las coordenadas del mismo
vector serían diferentes. Vamos a ver entonces cómo están relacionados estos
dos tipos de coordenadas.
Supongamos que tenemos un espacio vectorial V de dimensión n, y consi-
deremos dos bases de V dadas por B = {u1 , . . . , un } y B ′ = {u′1 , . . . , u′n }. Como B
es base, podremos escribir cada vector de B ′ respecto a B, es decir, tendremos:

148 Álgebra Lineal y Geometría


Depto. de Álgebra

 
a11
 a21 
u′1 = a11 u1 + a21 u2 + · · · + an1 un , [u′1 ]B = 
 
.. ,
 . 
an1
 
a12
 a22 
u′2 = a12 u1 + a22 u2 + · · · + an2 un , [u′2 ]B = 
 
.. ,
 . 
an2
.. ..
. .
 
a1n
 a2n 
u′n [u′n ]B
 
= a1n u1 + a2n u2 + · · · + ann un , = .. .
 . 
ann

Definimos la matriz de cambio de base o matriz de paso de B ′ a B como


¡ ¢
M(B ′ , B) = (ai j ) = [u′1 ]B [u′2 ]B . . . [u′1 ]B ,

es decir, la columna i de M(B ′ , B) contiene las coordenadas del vector u′i de


B ′ respecto de la base B. Con esta notación, se tiene lo siguiente:

Ecuaciones del cambio de base

Si las coordenadas de v ∈ V respecto a B y B ′ son, respectivamente


   
x1 x1′
vB =  ...  y vB ′ =  .. 
  
. ,
xn xn′

entonces se tiene la relación

x1 = a11 x1′ + a12 x2′ + · · · + a1n xn′ ,


x2 = a21 x1′ + a22 x2′ + · · · + a2n xn′ ,
..
.
xn = an1 x1′ + an2 x2′ + · · · + ann xn′ ,

que en forma matricial es vB = M(B ′ , B)vB ′ .

Álgebra Lineal y Geometría 149


Depto. de Álgebra

P RUEBA : En las igualdades

v = x1 u1 + · · · + xn un , v = x1′ u′1 + · · · + xn′ u′n ,

sustituimos cada u′i por a1i u1 + a2i u2 + · · · + ani un y agrupamos coeficientes,


obtendremos:

v = (a11 x1′ + · · · + a1n xn′ )u1 + · · · + (an1 x1′ + · · · + ann xn′ )un .

Como la forma de expresar v como combinación lineal de B es única, los co-


eficientes de esta última combinación lineal han de ser iguales a x1 , . . . , xn , lo
que demuestra el resultado.
Otra forma de probar la igualdad es mediante el uso del morfismo de coor-
denadas cB . Se tiene que

vB = x1′ [u′1 ]B + · · · + xn′ [u′n ]B


 
x1′
¡ ¢ . 
= [u′1 ]B . . . [u′n ]B  .. 
xn′
= M(B ′ , B)vB ′ .

Como es natural, se podían haber invertido los papeles y tendríamos una


matriz de cambio de base M(B, B ′ ), cuyas columnas están formadas por las
coordenadas de los vectores de B respecto a la base B ′ . El siguiente resultado
establece la conexión entre estas dos matrices de cambio de base.

Inversa de la matriz de cambio de base

Dadas dos bases B y B ′ de un espacio vectorial de dimensión n, la ma-


triz de cambio de base M(B ′, B) es invertible, y su inversa es M(B, B ′).

P RUEBA : Consideremos la matriz M(B, B ′ ). Para cualquier vector v ∈ V , se


verifica que
vB = M(B ′ , B)vB ′ , vB ′ = M(B, B ′ )vB ,
de donde

vB = M(B ′ , B)M(B, B ′ )vB para todo vector v ∈ V.

150 Álgebra Lineal y Geometría


Depto. de Álgebra

Si v recorre todos los vectores de la base B, obtenemos las relaciones en Kn


dadas por
e1 = M(B ′ , B)M(B, B ′ )e1 ,
e2 = M(B ′ , B)M(B, B ′ )e2 ,
..
.
en = M(B ′ , B)M(B, B ′ )en .
Por tanto, I n = M(B ′ , B)M(B, B ′ ) y tenemos el resultado. 

Cálculo de la matriz de cambio de base en Kn

Consideremos dos bases B y B ′ del espacio vectorial Kn , respecto de la


base estándar, y sean A B y A B ′ las matrices de coordenadas respectivas
de ambas bases.

Calculamos
¡ ¢la forma escalonada reducida por filas de la matriz
AB AB′ .
¡ ¢ G-J ¡ ¢
A B A B ′ −→ I n P .

Entonces la matriz de cambio de base de B ′ a B es M(B ′ , B) = P .

Ejemplo 4.7.1.- En R3 consideramos las bases B = {u1 , u2 , u3 } y B ′ = {v1 , v2 , v3 },


donde
           
1 1 0 1 1 1
u1 =  1  , u2 =  0  , u3 =  1  , v1 =  −1  , v2 =  0  , v3 =  0  .
0 1 1 0 −1 0
Entonces
   
1 1 0 1 1 1 1 0 0 0 1 1/2
¡ ¢ G-J
AB AB′ =  1 0 1 −1 0 0  −→  0 1 0 1 0 1/2  .
0 1 1 0 −1 0 0 0 1 −1 −1 −1/2
Luego la matriz del cambio de base es
 
0 1 1/2
M(B ′ , B) =  1 0 1/2  .
−1 −1 −1/2

Álgebra Lineal y Geometría 151


Depto. de Álgebra

Usando este tipo de matrices, podremos ver la similitud existente entre los
conceptos definidos para espacios vectoriales y los definidos para matrices.

152 Álgebra Lineal y Geometría


Capítulo 5

Subespacios vectoriales

5.1. Definiciones
Una vez que tenemos la estructura de K-espacio vectorial sobre un con-
junto V , el siguiente paso es estudiar los subconjuntos de V que tienen esas
mismas propiedades. Es análogo a lo que hacemos con grupos y subgrupos. En
esta capítulo veremos cómo estos subconjuntos, que llamaremos variedades li-
neales vectoriales o subespacios vectoriales, también son espacios vectoriales, y
estudiaremos sus propiedades. La definición precisa es la siguiente:

Subespacio vectorial

Sea V un espacio vectorial sobre un cuerpo K, y sea W un subconjunto


de V . Diremos que W es un subespacio vectorial o una variedad lineal
de V si, con las mismas operaciones de suma y producto por escalar, W
es un espacio vectorial sobre K.

Ejemplo 5.1.1.-

1. Dado un espacio vectorial V , los conjuntos {0} y V son subespacios vec-


toriales. Decimos que un subespacio vectorial es propio si es distinto de
estos casos.

2. Dada A m×n con coeficientes en un cuerpo K, el conjunto de soluciones


del sistema homogéneo A x = 0 es un subespacio vectorial de Kn . Se de-
nota como null(A).

153
Depto. de Álgebra

3. El conjunto de polinomios de K[x] de grado menor o igual que n es un


subespacio vectorial de K[x].

4. Sea V un espacio vectorial de dimensión finita n y B una base. Si W ⊂ V


es un subespacio vectorial, entonces cB (W ) es un subespacio vectorial
de Kn .

Observemos que los elementos de W , al ser elementos de V , satisfacen to-


das las propiedades de un espacio vectorial. Pero hay un detalle importante:
tanto la suma de vectores de W , como el producto por escalares, deben dar co-
mo resultado vectores de W . Si no, no estaríamos ante operaciones en W y W
no sería espacio vectorial. Por tanto, lo único que hay que verificar para saber
si W ⊂ V es subespacio vectorial es lo siguiente.

Condición equivalente de subespacio

Dado un K-espacio vectorial V , un subconjunto no vacío W ⊂ V es un


subespacio vectorial de V si y solamente si se cumplen las siguientes
propiedades:

1. Para todo v , w ∈ W , se tiene que v + w ∈ W .

2. Para todo α ∈ K y v ∈ W , se tiene que αv ∈ W .

El ejemplo principal de espacio vectorial que vamos a utilizar es Rn . Recor-


demos que, si tenemos un vector v ∈ R3 no nulo, los vectores que se pueden
escribir como combinación lineal de v forman una recta: la que pasa por el ori-
gen y tiene la dirección de v . Por otra parte, si tenemos dos vectores v , w ∈ R3
linealmente independientes, los vectores que se pueden escribir como combi-
nación lineal de v y w forman un plano: el que pasa por el origen y contiene a
la recta definida por v y a la recta definida por w . Al estudiar sistemas de vecto-
res, lo que de verdad nos interesa es esa recta o ese plano, es decir, el conjunto
de todos los vectores que se pueden escribir como combinación lineal de los
vectores del sistema:

154 Álgebra Lineal y Geometría


Depto. de Álgebra

Subespacio generado por un conjunto

Sea V un K-espacio vectorial y sea S un subconjunto no vacío de V . El


conjunto de combinaciones lineales de los vectores de S, que notare-
mos 〈S〉, se denomina subespacio generado por S y tiene la forma

〈S〉 = {λ1 v1 + · · · + λm vm , | λ1 , . . . λm ∈ K, v1 , . . . , vm ∈ S}.

Si S = ;, decimos que 〈S〉 = {0}. El nombre anterior necesita una justificación.


Vamos a ver que 〈S〉 es un subespacio vectorial. Sean v , w ∈ 〈S〉. Entonces estos
vectores tienen una expresión de la forma

m
X p
X
v= λi vi , w = µ j w j , donde λi , µ j ∈ K, vi , w j ∈ S.
i =1 j =1

La suma se puede escribir

v + w = λ1 v1 + · · · + λm vm + µ1 w1 + · · · + µk wk ,

que es una combinación lineal finita de elementos de S, es decir, pertenece a


〈S〉. Análogamente,
αv = (αλ1 )v1 + · · · + (αλm )vm ,

que también es una combinación lineal finita de elementos de S.

Ejemplo 5.1.2.- Dada una matriz A m×n con coeficientes en un cuerpo K, el


subespacio de Km generado por las columnas de A se denota como Col(A).

Nota 5.1.1. A partir de esta definición, tenemos que v depende linealmente de


un conjunto S si y solamente si v ∈ 〈S〉.

Álgebra Lineal y Geometría 155


Depto. de Álgebra

Propiedades de los conjuntos generadores

Sean S y T subconjuntos de V . Entonces:

1. S ⊂ 〈S〉.

2. S = 〈S〉 si y solamente si S es un subespacio vectorial.

3. Si S ⊂ T entonces 〈S〉 ⊂ 〈T 〉.

P RUEBA :

1. Trivial.

2. Evidente a partir de las definiciones, ya que 〈S〉 es un subespacio vecto-


rial.

3. Si v ∈ 〈S〉, entonces es combinación lineal de los vectores de S. Pero como


S ⊂ T , v es combinación lineal de los vectores de T , es decir, v ∈ 〈T 〉.

Carácter minimal del subespacio generado

Dado un conjunto de vectores S de un espacio vectorial V , el subespa-


cio vectorial 〈S〉 es el menor subespacio que contiene a S. Es decir, si W
es un subespacio vectorial que contiene a S, entonces 〈S〉 ⊆ W .

P RUEBA : Si un subespacio vectorial W contiene a S, es decir, si S ⊂ W , en-


tonces 〈S〉 ⊂ 〈W 〉 = W . 

156 Álgebra Lineal y Geometría


Depto. de Álgebra

5.2. Dimensión de subespacios

Dimensión de subespacios

Sea V un K-espacio vectorial de dimensión finita y W ⊂ V un subespa-


cio vectorial. Entonces

1. W es de dimensión finita y dimW ≤ dimV .

2. Además, dimW = dimV si y solamente si W = V .

P RUEBA : Sea n = dimV .

1. Si W = {0}, el resultado es evidente. Si W es no nulo, existe v 6= 0 ∈ W .


En el paso j -ésimo, si W está generado por el conjunto {v1 , . . . , v j −1 }, he-
mos acabado. En otro caso, existe v j que no depende linealmente de
{v1 , . . . , v j −1 }, por lo que hemos construido el conjunto {v1 , . . . , v j −1 , v j },
que es linealmente independiente.

Esta lista de conjuntos linealmente independientes no puede crecer in-


definidamente, pues una cota superior la tiene en el número de elemen-
tos de un conjunto generador de V . Por tanto, el proceso termina, lo que
significa que W es de dimensión finita. Una base de W está formada por
un conjunto linealmente independiente, por lo que dimW ≤ dimV .

2. Si dimW = dimV , entonces una base de W es un conjunto linealmente


independiente de V , con igual número de elementos que la dimensión,
por lo que es un conjunto generador de V . Por tanto, W = V .

Nota 5.2.1. Sea V un K-espacio vectorial de dimensión finita n, donde toma-


mos una base B y W ⊂ V un subespacio. Por lo anterior, W es de dimensión
finita y existe una base BW , con r ≤ n elementos. si un vector w ∈ W , tenemos
dos formas de etiquetarlo. Por una parte, mediante [w ]B , las coordenadas res-
pecto a B, que es un vector columna de Kn . Por otra, mediante [w ]BW , que es
un vector columna de Kr .

Álgebra Lineal y Geometría 157


Depto. de Álgebra

Cálculo de dimensión de un subespacio

En un K-espacio vectorial V de dimensión finita, sea B una base de V ,


S un conjunto finito de vectores de V , y A S,B la matriz cuyas columnas
son las coordenadas de los vectores de S respecto a B. Entonces

dim〈S〉 = rango(A S,B )

y una base del subespacio 〈S〉 está determinada por las columnas bási-
cas de A S,B .

P RUEBA : Sea S = {w1 , . . . , wp }. Si rango(A S,B ) = r , sean [wi 1 ]B , . . . , [wi r ]B las


columnas básicas de la matriz. Sabemos que estas columnas básicas forman un
conjunto linealmente independiente en Kn . Entonces el conjunto {wi 1 , . . . , wi r }
es linealmente independiente en V , por el morfismo de coordenadas. Por otro
lado, las columnas no básicas de la matriz son combinación lineal de las bási-
cas, por lo que todos los vectores de S dependen linealmente de {wi 1 , . . . , wi r }.
Si w ∈ 〈S〉, entonces w depende linealmente de S. Por el carácter transitivo de
la dependencia, el vector w depende linealmente de {wi 1 , . . . , wi r }, y tenemos
que este conjunto es generador de 〈S〉. 

Dimensión de Col(A)

Sea A m×n una matriz con coeficientes en K. Entonces dim Col(A) =


rango(A) y una base de Col(A) está formada por las columnas básicas.

P RUEBA : Sea V = Km y S su base estándar. Si S es el conjunto de columnas de


A, entonces Col(A) = 〈S〉. Además, la matriz de coordenadas de los vectores de
S respecto a S es la propia matriz A. Por el teorema de cálculo de la dimensión
de un subespacio (pág. 158), tenemos que

dim Col(A) = dim〈S〉 = rango(A).

Además, una base de Col(A) está formada por las columnas básicas de A. 

Nota 5.2.2. Observemos que el rango de la matriz A S,B no depende de la base


B, ya que es igual al rango del conjunto de vectores S, que está definido sin

158 Álgebra Lineal y Geometría


Depto. de Álgebra

tener que recurrir a ninguna base. Entonces, si B y B ′ son dos bases distintas,
cuya matriz de cambio de base es M(B, B ′ ), entonces se tiene

A S,B = M(B ′ , B)A S,B ′

y
rango(A S,B ′ ) = dim(〈S〉) = rango(A S,B ),
de donde rango(M(B ′ , B)A S,B ′ ) = rango(A S,B ′ ). En términos matriciales, se ve-
rifica que rango(A m×n ) = rango(P A m×n ) para cualquier matriz P no singular.

Ejemplo 5.2.1.- Sea S = {1−x, 1+x 2 , 1−2x−x 2 } ⊂ V = R[x]2 , el espacio vectorial


de polinomios reales de grado menor o igual que 3. Fijamos la base estándar
B = {1, x, x 2 } en V y formamos la matriz
 
1 1 1
A S,B =  −1 0 −2  .
0 1 −1

Dado que
 
1 0 2
G-J 
→ 0 1 −1  ,
A S,B −
0 0 0

tenemos que una base del subespacio 〈S〉 está formada por {1 − x, 1 + x 2 } y
dim〈S〉 = rango(A S,B ) = 2.

Damos ahora un resultado de álgebra matricial que relaciona el rango de


una matriz con el de su traspuesta. Este teorema admite una prueba basada
exclusivamente en matrices (corolario del teorema de la forma normal del ran-
go, pág. 74).

Rango por columnas igual a rango por filas

Sea A m×n una matriz con coeficientes en K. Entonces rango(A) =


rango(A t ).

Álgebra Lineal y Geometría 159


Depto. de Álgebra

P RUEBA : Supongamos que Col(A) tiene una base formada por u1 , . . . , ur ∈ Km .


Entonces cada columna de A es una combinación lineal de los vectores ui , por
lo que podemos escribir
 
w 11 . . . w 1n
¡ ¢ . .. 
A = u1 . . . ur  .. .  = U W.
wr 1 . . . wr n

Ahora miramos de forma distinta a A = U W . Cada fila de A es combinación


lineal de las r filas de W , esto es, las columnas de A t son combinación lineal de
las r columnas de W t . Por tanto, el espacio de columnas de A t tiene dimensión,
a lo más, r . Por tanto, rango(A t ) ≤ rango(A) para cualquier matriz A.
Si aplicamos esta desigualdad a A t , tenemos el resultado. 

Nota 5.2.3. En el caso K = C, se tiene que rango(A) = rango(A ∗ ), pues si A indica


la matriz conjugada de A, entonces rango(A) = rango(A), pues los pivotes no
cambian al conjugar los elementos.

Invariancia del rango por matrices no singulares

Sea A m×n una matriz con coeficientes en K. Si P m×m ,Q n×n son matrices
no singulares, entonces

rango(A) = rango(P AQ).

P RUEBA : Sean P,Q matrices no singulares. Entonces

rango(P AQ) = rango(P (AQ)) = rango(AQ) por la nota 5,2,2


t
= rango((AQ) )
= rango(Q t A t ) = rango(A t ) por la nota 5,2,2
= rango(A).

5.3. Ecuaciones paramétricas de un subespacio


Hasta ahora solamente hemos visto una forma de determinar un subespa-
cio vectorial: mediante un sistema de generadores. Esta forma es equivalente a

160 Álgebra Lineal y Geometría


Depto. de Álgebra

dar unas ecuaciones paramétricas, que es una forma de ver el esapcio W como
su imagen en un cierto Kn .
Sea W un subespacio vectorial de un espacio vectorial V de dimensión n,
y sea G = {v1 , . . . , vp } un sistema de generadores de W . Supongamos que las
coordenadas de vi respecto a una base B de V son
 
a1i
 . 
[vi ]B =  ..  , i = 1, . . ., p.
ani

Entonces, como todo vector v ∈ W se escribe como combinación lineal de G,


existirán unos escalares λ1 , . . . , λp tales que

v = λ1 v1 + · · · + λp vp ,
por lo que si llamamos [v ]B = (x1 , . . . , xn )t se tienen las relaciones


 x1 = a11 λ1 + ··· + a1p λp

 x2 = a21 λ1 + ··· + a2p λp
.. .. .. (5.3.1)


 . . .

xn = an1 λ1 + ··· + anp λp

Unas ecuaciones de este tipo, donde los escalares λi son parámetros indeter-
minados, se llaman unas ecuaciones paramétricas de W . En otras palabras,
unas ecuaciones paramétricas nos dicen cómo son las coordenadas de un vec-
tor cualquiera de W , dependiendo de los coeficientes que tomemos en la com-
binación lineal de los generadores. Si cambiamos los generadores, obtenemos
otras ecuaciones paramétricas.
Recíprocamente, unas ecuaciones del tipo (5.3.1) definen un subespacio
vectorial generado por los vectores de coordenadas respecto de la base B que
aparecen como coeficientes de los parámetros λi .

Ejemplo 5.3.1.- En R3 y con respecto a una base B fijada, consideremos el


subespacio vectorial W de ecuaciones paramétricas

 x1 = 2λ1 − 3λ2
x = λ1 + 5λ2
 2
x3 = λ1 − λ2

En este caso se trata del subespacio generado por los vectores con coordenadas
(2, 1, 1)t y (−3, 5, −1)t .

Álgebra Lineal y Geometría 161


Depto. de Álgebra

Las ecuaciones paramétricas, en el fondo, equivalen a definir un subespa-


cio vectorial dando un sistema de generadores. Veamos ahora cómo, a partir
de unas ecuaciones paramétricas de un subespacio vectorial, podemos calcu-
lar la dimensión de la variedad. La idea es sencilla, pues sabemos que a partir
de unas ecuaciones paramétricas podemos calcular un conjunto generador y,
dados unos generadores, podemos obtener la dimensión mediante el cálculo
del rango de una matriz. Formalicemos este razonamiento.
Sea V un espacio vectorial de dimensión n, con base fijada B, donde tene-
mos unas ecuaciones paramétricas


 x1 = a11 λ1 + · · · + a1p λp

 x2 = a21 λ1 + · · · + a2p λp
.. ..


 . .

xn = an1 λ1 + · · · + anp λp

de un subespacio vectorial W . Construimos la matriz


 
a11 a12 ··· a1p
 a21 a22 ··· a2p 
 
AW = . .. ..  ,
 .. . . 
an1 an2 · · · anp

que es la matriz de coordenadas de unos vectores generadores de W respecto


de la base B. Entonces
dimW = rango(A W ).
como ya sabemos del teorema de cálculo de la dimensión de un subespacio
(pág. 158).

5.4. Ecuaciones implícitas de un subespacio


Fijemos una base B en un espacio vectorial V de dimensión n, con respecto
a la cual tomamos coordenadas. Sabemos que el conjunto de soluciones de un
sistema lineal homogéneo de la forma


 a11 x1 + a12 x2 + · · · + a1n xn = 0

 a21 x1 + a22 x2 + · · · + a2n xn = 0
.. .. .. ..


 . . . .

am1 x1 + am2 x2 + · · · + amn xn = 0.

162 Álgebra Lineal y Geometría


Depto. de Álgebra

es un subespacio vectorial. Un sistema de ecuaciones implícitas de un subes-


pacio vectorial W es un sistema lineal homogéneo cuyas soluciones son las
coordenadas de los vectores de W respecto de la base fijada. El objetivo es cal-
cular unas ecuaciones paramétricas de un subespacio vectorial a partir de unas
implícitas.
Recordemos que el conjunto de soluciones del sistema anterior lo podemos
calcular mediante una forma escalonada de la matriz de coeficientes A, despe-
jando las variables básicas en función de las libres, para obtener al final una
expresión
x = x f 1 h1 + x f 2 h2 + · · · + x f n−r hn−r ,
donde x f 1 , x f 2 , . . . , x f n−r son las variables libres, y h1 , h2 , . . . , hn−r son vectores
columna que representan soluciones particulares. También sabemos que el vec-
tor h1 tiene un 1 en la posición f 1 , y los restantes vectores h j tienen un cero en
esa posición. Lo mismo se aplica a todos los vectores hi : tienen un valor 1 en
la posición f i y los restantes vectores h j tienen un cero en esa posición. Hay
que tener en cuenta que todas estas igualdades se refieren a las coordenadas
de los vectores respecto de la base B, pero no lo estamos incorporando en la
notación por claridad. Podemos deducir entonces los siguiente:
El conjunto {h1 , . . . , hn−r } es un conjunto generador de W . Es claro, pues
la expresión anterior nos indica que toda solución del sistema es combi-
nación lineal de estos vectores.

El conjunto {h1 , . . . , hn−r } es linealmente independiente. En efecto, una


combinación lineal de la forma

α1 h1 + α2 h2 + · · · + αn−r hn−r = 0

proporciona un conjunto de igualdades, y nos fijamos en las correspon-


dientes a las componentes f 1 , f 2 , . . . , f n−r . Para la componente f 1 se tiene
la igualdad
α1 · 1 + α2 · 0 + · · · + αn−r · 0 = 0,
pues h1 tiene una componente igual a 1 en esa posición, y los restantes
vectores hi tienen el valor cero. Análogamente, en la componente f 2 ob-
tenemos
α1 · 0 + α2 · 1 + · · · + αn−r · 0 = 0,
por la misma razón. Finalmente, estas igualdades implican que α1 = α2 =
. . . = αn−r = 0.
Por tanto, el conjunto {h1 , . . . , hn−r } es una base de W , de donde dimW =
n−rango(A). Además, hemos dado un procedimiento para pasar de ecuaciones
implícitas a paramétricas. En particular, tenemos que

Álgebra Lineal y Geometría 163


Depto. de Álgebra

Dimensión del espacio nulo

Sea A m×n una matriz con coeficientes en K. Entonces

dim null(A) = n − rango(A).

Ejemplo 5.4.1.- En R4 , y con respecto a la base estándar, consideremos el


subespacio vectorial definido por el sistema de ecuaciones
½
x2 − x3 − x4 = 0,
W:
x2 + x4 = 0.

Si calculamos la forma escalonada reducida por filas de la matriz de coeficien-


tes nos queda
µ ¶ µ ¶
0 1 −1 −1 rref 0 1 0 1
A= −
→ .
0 1 0 1 0 0 1 2
Entonces el rango de la matriz de coeficientes es iguala 2, de donde dimW =
4−2 = 2. Una base de este espacio lo obtenemos al despejar las variables básicas
(x2 , x3 ) en función de las libres (x1 , x4 ) en las ecuaciones paramétricas

 x1 = x1 ,

−x4 ,

x2 =
W:
x = −2x4 ,
 3


x4 = x4 .

Por tanto,    
1 0
0
   
   −1 
W = 〈h 1 =   , h2 =  〉.
 0   −2 
0 1

164 Álgebra Lineal y Geometría


Depto. de Álgebra

5.5. Conversión entre paramétricas e implícitas


Al final de la sección anterior hemos visto un método para transformar un
subespacio vectorial dado por unas ecuaciones implícitas en una base de dicho
subespacio. Podemos resumirlo en el siguiente método.

Paso de implícitas a paramétricas

Sea V un K-espacio vectorial donde se ha fijado una base B. Dado un


subespacio vectorial W definido por un sistema de ecuaciones homo-
géneo A x = 0,

1. Calculamos una forma escalonada (o reducida) por filas de A:

rref
→ E A.
A−

2. Despejamos las variables básicas en función de las libres.

3. Calculamos los vectores hi a partir de los coeficientes de las va-


riables libres.

Ejemplo 5.5.1.- Consideremos en R4 el subespacio W dado por las soluciones


del siguiente sistema lineal homogéneo:

 2x1 +3x2 −2x3 −x4 = 0,
x1 +4x2 −x4 = 0,

2x1 −7x2 −6x3 +x4 = 0.

Tomamos la matriz A de coeficientes del sistema, y calculamos su forma esca-


lonada reducida por filas:
 
1 0 −8/5 −1/5
G-J  
A −→  0 1 2/5 −1/5 .

0 0 0 0

Despejamos las variables pivote en función de las libres:


½ 8
x1 = x + 51 x4 ,
5 3
x2 = − 25 x3 + 51 x4 .

Álgebra Lineal y Geometría 165


Depto. de Álgebra

Cambiamos las variables libres por parámetros:


8 1
x1 = 5 λ1 + 5 λ2 ,


 2
= − 5 λ1 + 15 λ2 ,

x2

 x3 = λ1 ,

 x
4 = λ2 .

Una base de W está formada por los vectores

   
8 1
5 5
− 25 1
   
w1 = 
  
 , w2 =  5 
.
 1   0 
0 1

Observemos que para este cálculo hemos partido de un conjunto de ecuacio-


nes que eran dependientes, pues la tercera ecuación se obtiene tras sumar la
primera multiplicada por 3 y la segunda por (−4).

El problema que nos planteamos ahora es si todo subespacio vectorial ad-


mite unas ecuaciones implícitas. La respuesta es afirmativa y la prueba se ob-
tiene a partir del método para pasar de ecuaciones paramétricas, es decir, a
partir de un conjunto de generadores, a implícitas.

Vamos a explicar dos métodos diferentes para obtenerlas. Uno se basa en el


método del orlado y el segundo utiliza transformaciones elementales por filas.
Partimos de un espacio vectorial V donde se ha fijado una base B y W es un
subespacio vectorial dado por un conjunto finito de generadores S.

166 Álgebra Lineal y Geometría


Depto. de Álgebra

De paramétricas a implícitas: orlado

1. Sea A S,B la matriz cuyas columnas son las coordenadas de los


elementos de S respecto de la base B.

2. Mediante el método del orlado, se identifican el máximo número


posible de columnas independientes, con lo que se obtiene una
base B1 del subespacio W . Digamos que B1 tiene r elementos,
es decir, dim(W ) = r .

3. Se considera la matriz A B1 ,B ∈ M (n × r, K), cuyas columnas son


una base de W , y la matriz M que resulta al añadir a esta matriz
una columna de incógnitas con las variables x1 , . . . , xn :
 
x1
 .. 
M =  A B1 ,B . .
xn

4. Con el método del orlado aplicado a un menor no nulo de orden


r , se calculan n − r determinantes que deben ser iguales a cero y
definen unas ecuaciones implícitas de W .

La justificación del método anterior se basa en que un vector de coordena-


das  
x1
 .. 
 .  pertenece a W
xn
si y solamente si es combinación lineal de las columnas de A B1 ,B , esto es, si y
solamente si la matriz M tiene rango r .

Ejemplo 5.5.2.- En el espacio vectorial R4 , respecto de la base estándar B, sea


W el subespacio vectorial generado por el conjunto
     
1 2 1
 1   0 
     
 −1 
S = {v1 =  ,v =  ,v =  }.
 2  2  1  3  −1 
−1 1 2

Álgebra Lineal y Geometría 167


Depto. de Álgebra

Aplicando el método del orlado averiguamos que rango(S) = 2 y que, de hecho,


el tercer vector es combinación lineal de los otros dos. Entonces

 
1 2 1
 
 1 0 −1 
.
A S,B = 
 
 2 1 −1 
−1 1 2

Luego B1 = {v1 , v2 } es una base de W . La condición a imponer es que un vector


de coordenadas (x1 , x2 , x3 , x4 )t está en W si y solamente si

 ¯ ¯
 ¯ 1 2 x1 ¯
  
 ¯ ¯

 ¯ 1 0 x2 ¯ = 0 ≡ x1 + 3x2 − 2x3 = 0
1 2 x1 


¯
¯ 2 1 x
¯
¯
   3
1 0

 x2 
rango 

=2⇔
 .
 2 1 x3  


¯
¯ 1 2 x1 ¯
¯

−1 1  ¯ ¯
x4 

 ¯ 1 0 x2 ¯ = 0 ≡ x1 − 3x2 − 2x4 = 0

 ¯ ¯
¯ −1 1 x ¯
4

Luego unas ecuaciones implícitas de W son:

½
x1 + 3x2 − 2x3 = 0
W: .
x1 − 3x2 − 2x4 = 0

El método de eliminación
¡ es muy
¢ similar en cuanto al comienzo, aunque se
parte de la matriz M = A S,B x .

168 Álgebra Lineal y Geometría


Depto. de Álgebra

De paramétricas a implícitas: transformaciones elementales

Suponemos fijada una base B del espacio vectorial V , y sea W el subes-


pacio vectorial generado por un conjunto S.

1. Se considera la matriz A S,B , cuyas columnas son las coordenadas


de los elementos de S respecto de la base B. Sea M la matriz que
resulta al añadir a esta matriz una columna de variables x1 , . . . , xn .
 
x1
 .. 
M =  A S,B . .
xn

2. Calculamos E una forma escalonada de la matriz A S,B , efectuan-


do las mismas transformaciones en la última columna de M.

3. Imponemos las condiciones sobre la última columna de E para


que no contenga ningún pivote.

La justificación del método se basa en la misma idea que el método anterior:


un vector  
x1
 .. 
 .  pertenece a W
xn
si y solamente si es combinación lineal de las columnas de A S,B . Es decir, si y
solamente si en cualquier forma escalonada por filas de la matriz M la última
columna no contiene un pivote. Una forma escalonada por filas de M es de la
forma (E |c), donde E es una forma escalonada por filas de A S,B . Supongamos
que rango(A S,B ) = r , es decir que E tiene r pivotes; entonces la forma escalo-
nada por filas de M debe ser del tipo
 
eq1
 .. 
 . 
 

 E eqr 
,

 a11 x1 + · · · a1n xn 

 .. 
 . 
an−r,1 x1 + · · · an−r,n xn

donde eq1 , . . . , eqr son expresiones lineales en x1 , . . . , xn . El que la última no ten-

Álgebra Lineal y Geometría 169


Depto. de Álgebra

ga pivote es equivalente a que se verifiquen las ecuaciones



 a11 x1 + · · · a1n xn = 0

..
. ,


an−r,1 x1 + · · · an−r,n xn = 0

que son unas ecuaciones implícitas de W .

Ejemplo 5.5.3.- En el espacio vectorial R4 , respecto de la base estándar S , sea


W el subespacio vectorial generado por el conjunto
     
1 2 1
 1   0 
     
 −1 
S = {v1 =   , v2 =   , v3 =  }.
 2   1   −1 
−1 1 2

Mediante transformaciones elementales por filas obtenemos


   
1 2 1 x1 1 2 1 x1
1 0 0
   
 −1 x 2   −2 −2 −x 1 + x2 
   .
 2 1 −1 x3   0 0 0 −(1/2)x1 − (3/2)x2 + x3 
−1 1 2 x4 0 0 0 −(1/2)x1 + (3/2)x2 + x4

Luego unas ecuaciones implícitas de W son


½
−(1/2)x1 − (3/2)x2 + x3 = 0
W: .
−(1/2)x1 + (3/2)x2 + x4 = 0

Como consecuencia de los procedimientos anteriores podemos concluir


con el siguiente resultado:

Existencia de ecuaciones paramétricas e implícitas

Sea V un K-espacio vectorial de dimensión finita y B una base. Todo


subespacio vectorial W se puede representar, respecto a B, como unas
ecuaciones paramétricas y unas ecuaciones implícitas.

170 Álgebra Lineal y Geometría


Depto. de Álgebra

Nota 5.5.1. Cuando un subespacio vectorial W está definido por unas ecuacio-
nes implícitas A p×n x = 0, puede ocurrir que la matriz A no sea de rango p, es
decir, que alguna ecuación dependa linealmente de las otras. Los métodos an-
teriores de paso de paramétricas a implícitas proporcionan lo que se denomina
un conjunto independiente de ecuaciones.

Es recomendable hacer una pequeña variación en el método de cálculo de


unas ecuaciones implícitas a partir de las paramétricas, con vistas a aprovechar
la capacidad de cálculo de algunos programas que no tratan variables dentro de
una matriz. Lo que necesitamos es la matriz no singular P tal que P A = E , con
E una forma escalonada. Entonces sabemos que

¡ ¢ ¡ ¢
A Im E P ,

con lo que obtenemos P . Si rango(A) = r , entonces la condición sobre la ausen-


cia de pivotes en la última columna se traduce en que las últimas n − r compo-
nentes de P x sean nulas. Veamos lo que ocurre en el ejemplo anterior.
Formamos la matriz

 
1 2 1 1 0 0 0
 
¡ ¢  0 −2 −2 −1 1 0 0 
 
w1 w2 w3 I 4  .
 0 0 0 −1/2 −3/2 1 0 
 
0 0 0 −1/2 3/2 0 1

Dado que el rango de la matriz de vectores inicial es igual a 2, consideremos las


últimas 4 − 2 = 2 componentes de P x:

 
x1
  ½

 −x1 + x2 
 −(1/2)x1 − (3/2)x2 + x3 = 0
Px =  ⇒W : .
 −1/2x1 − 3/2x2 + x3  −(1/2)x1 + (3/2)x2 + x4 = 0
 
−1/2x1 + 3/2x2 + x4

Álgebra Lineal y Geometría 171


Depto. de Álgebra

De paramétricas a implícitas: transformaciones elementales (2)

Suponemos fijada una base B del espacio vectorial V , y sea W el subes-


pacio vectorial generado por un conjunto S.

1. Se considera la matriz A S,B , de orden m × n, cuyas columnas son


las coordenadas de los elementos de S respecto de la base B.

2. Calculamos E una forma escalonada de la matriz A S,B , y una ma-


triz no singular P tal que P A = E .
¡ ¢ Gauss ¡ ¢
A In −−−→ E P .

3. Si rango(A) = r , esto es, las primeras r filas de E son no nulas, las


ecuaciones implícitas de W son las (n − r ) últimas componentes
de P x.

5.6. Operaciones con subespacios


5.6.1. Intersección y suma de subespacios
Ya hemos visto cómo se puede determinar un subespacio vectorial usando
ecuaciones paramétricas o implícitas y cómo calcular su dimensión. Continua-
remos con las operaciones básicas entre subespacios vectoriales, que permiten
formar nuevos subespacios a partir de unos dados. Dados dos subespacios W1 y
W2 tiene sentido considerar la intersección como conjuntos. Veamos que tiene
una estructura adicional.

Intersección de subespacios vectoriales

Si W1 y W2 son dos subespacios vectoriales de un espacio vectorial V ,


entonces W1 ∩ W2 es un subespacio vectorial.

P RUEBA : Sean v1 , v2 ∈ W1 ∩ W2 . Como pertenecen a W1 , entonces v1 + v2 ∈


W1 , al ser W1 subespacio vectorial. Pero como también pertenecen a W2 , en-
tonces v1 + v2 ∈ W2 . Por tanto, v1 + v2 ∈ W1 ∩ W2 .
Análogamente se demuestra que si α ∈ K y v ∈ W1 ∩W2 , entonces αv ∈ W1 ∩
W2 . Por tanto, W1 ∩ W2 satisface las dos propiedades necesarias y suficientes
para ser un subespacio vectorial. 

172 Álgebra Lineal y Geometría


Depto. de Álgebra

Una forma directa de obtener la expresión de la intersección de dos subes-


pacios vectoriales consiste en tomar como punto de partida unas ecuaciones
implícitas de ambos. El sistema formado por todas las ecuaciones forman unas
ecuaciones implícitas de la intersección.

Intersección de subespacios

Sea V un K-espacio vectorial de dimensión finita y B una base.


Sean W1 ,W2 subespacios dados por sus ecuaciones implícitas A 1 x =
0, A 2 x = 0, respectivamente, respecto de la base B. Entonces unas
ecuaciones implícitas del subespacio W1 ∩ W2 son
½
A 1 x = 0,
W1 ∩ W2 : .
A 2 x = 0.

Ejemplo 5.6.1.- En el espacio vectorial R4 la intersección de los subespacios


½
x1 − x3 = 0
W1 : y W2 : x 1 + x 4 = 0
x2 + x4 = 0

es 
 x1 − x3 = 0
W1 ∩ W2 : x + x4 = 0 .
 2
x1 + x4 = 0

Nota 5.6.1. Una vez que hemos visto que la intersección de subespacios es un
subespacio, y hemos estudiado algunas de sus propiedades, podríamos inten-
tar hacer lo mismo con la unión de subespacios vectoriales. Pero hay que ser
cuidadoso. Aunque la intersección de dos subespacios vectoriales es un subes-
pacio, la unión de dos subespacios no es un subespacio, en general. Por ejemplo,
en R3 , la unión de dos rectas que pasan por el origen no tiene por qué ser una
recta, y por supuesto no es un punto, ni un plano, ni todo el espacio.

Álgebra Lineal y Geometría 173


Depto. de Álgebra

De todas formas, aunque W1 ∪W2 no tenga estructura de subespacio, pode-


mos considerar uno que contenga a W1 y a W2 . Para ello, basta tomar 〈W1 ∪W2 〉.
Tenemos entonces la siguiente definición:

Suma de subespacios

Sean W1 y W2 dos subespacios de un espacio vectorial V . Se llama suma


de W1 y W2 al subespacio

W1 + W2 = 〈W1 ∪ W2 〉.

Por definición, si conocemos W1 y W2 y queremos hallar W1 + W2 , basta


tomar un sistema de generadores S 1 de W1 y un sistema de generadores S 2 de
W2 . La unión de estos dos conjuntos, S 1 ∪ S 2 , será un sistema de generadores
de W1 + W2 .

Ejemplo 5.6.2.- En el espacio vectorial R4 la suma de los subespacios


     
1 0 1
 0   1   0 
     
W1 = 〈v1 =   , v2 =  〉,W2 = 〈w1 =  〉
 −1   0   0 
0 1 1

es el subespacio W1 + W2 = 〈v1 , v2 , w1 〉.

Suma de subespacios

Sean W1 ,W2 subespacios dados por los sistemas de generadores res-


pectivos S 1 y S 2 . Entonces el subespacio suma W1 + W2 tiene como sis-
tema generador el conjunto S 1 ∪ S 2 .

Nota 5.6.2. La suma W1 + W2 es, en realidad, el subespacio más pequeño que


contiene a W1 ∪ W2 .

174 Álgebra Lineal y Geometría


Depto. de Álgebra

5.6.2. Propiedades de la suma de subespacios


Dados dos subespacios W1 y W2 en un espacio vectorial de dimensión finita
V , hemos definido la variedad suma W1 + W2 . La causa de que este subespacio
vectorial se llame suma, se encuentra en el siguiente resultado:

Caracterización de la suma de subespacios

Sean W1 y W2 dos subespacios de un espacio vectorial V . Entonces

W1 + W2 = {v1 + v2 | v1 ∈ W1 , v2 ∈ W2 }.

P RUEBA : Si v ∈ W1 + W2 , entonces es combinación lineal de los vectores


de W1 ∪ W2 . Separemos esta combinación lineal en dos sumandos v = v1 + v2 ,
donde en v1 están todos los términos en que aparece un vector de W1 , y v2
contiene el resto de los términos, que necesariamente consta de vectores de
W2 . Entonces v1 ∈ 〈W1 〉 = W1 , y v2 ∈ 〈W2 〉 = W2 .
La otra inclusión es trivial. 

Se puede definir de manera inductiva la suma de un número finito de subes-


pacios vectoriales a partir del teorema de caracterización:
W1 + W2 + · · · + Wm = 〈W1 ∪ W2 ∪ · · · ∪ Wm 〉.
Y los elementos de esta suma están caracterizados por
W1 + · · · + Wm = {v1 + · · · + vm | vi ∈ Wi , i = 1, . . . , m}.

Ejemplo 5.6.3.- La forma de obtener un conjunto de generadores de la suma


finita de subespacios consiste en unir los conjuntos de generadores de cada
uno de los sumandos. Por ejemplo, en R5 consideremos los subespacios W1 =
〈w11 〉,W2 = 〈w21 , w22 〉,W3 = 〈w31 〉, donde
       
−1 −1 4 0
       
 2   −2   3   −5 
       
       
w11 =  3  , w21 =  1  , w22 =  −2  , w31 =  −4 
      
.
       
 −2   4   −4   −5 
       
−1 0 −3 −2

Álgebra Lineal y Geometría 175


Depto. de Álgebra

Entonces W1 + W2 + W3 = 〈w11 , w21 , w22 , w31 〉. En este caso, los cuatro vectores
son independientes, y forman una base del espacio suma.

5.6.3. Fórmula de la dimensión


Veamos ahora uno de los teoremas más importantes del álgebra lineal, que
relaciona las dimensiones de dos subespacios cualesquiera, su suma y su in-
tersección. Este teorema es muy útil para calcular dimensiones de subespacios
vectoriales.

Fórmula de la dimensión

Sean W1 y W2 dos subespacios vectoriales de un espacio vectorial V de


dimensión finita. Entonces

dimW1 + dimW2 = dim(W1 + W2 ) + dim(W1 ∩ W2 ).

P RUEBA : Sea B0 = {u1 , . . . , ur } una base de W1 ∩ W2 . Por el teorema de la


base incompleta (pág. 141), podemos ampliar B0 hasta una base de W1 , y tam-
bién la podemos ampliar hasta una base de W2 . Es decir, existen dos conjuntos
de vectores, S 1 = {v1 , . . . , vs } y S 2 = {w1 , . . . , wt } tales que B1 = B0 ∪ S 1 es una
base de W1 , y B2 = B0 ∪ S 2 es una base de W2 .
Sea B = B0 ∪S 1 ∪S 2 . Vamos a demostrar que B es base de W1 +W2 , y con eso
habremos probado el teorema, ya que dimW1 = r + s, dimW2 = r + t , dim(W1 ∩
W2 ) = r , y en este caso dim(W1 + W2 ) = r + s + t .
B es un conjunto generador de W1 + W2 , ya que B = B1 ∪ B2 . Por tanto,
basta comprobar que es linealmente independiente. Consideremos una com-
binación lineal de la forma
r
X s
X t
X
αi ui + βj vj + γ k w k = 0.
i =1 j =1 k=1

Hay que demostrar que todos los coeficientes deben ser nulos. Sea
r
X s
X t
X
v= αi ui + βj vj = − γ k wk .
i =1 j =1 k=1

176 Álgebra Lineal y Geometría


Depto. de Álgebra

De la primera forma de escribir v se obtiene que v ∈ W1 , y de la segunda, que


v ∈ W2 . Por tanto, v ∈ W1 ∩W2 , y así v se escribe de forma única como combina-
ción lineal de los vectores de B0 . Como también se escribe de forma única co-
mo combinación lineal de los vectores de B1 (la fórmula anterior), y B0 ⊂ B1 ,
estas dos formas de escribirlo deben ser la misma. Por tanto, β1 = · · · = βs = 0.
Después de esto, nos queda
r
X t
X
αi ui + γ k w k = 0,
i =1 k=1

pero esta es una combinación lineal de los vectores de B2 , que es linealmente


independiente, luego todos los coeficientes son nulos. 

5.6.4. Suma directa


Como vimos en la sección precedente, los subespacios vectoriales se pue-
den intersecar o sumar. En esta sección veremos una suma con una propiedad
especial que permite dividir un espacio vectorial en trozos.

Suma directa

Sean W1 , . . . ,Wr subespacios de un espacio vectorial V . Decimos que


W = W1 + · · · + Wr es suma directa de W1 , . . . ,Wr si todo vector w ∈ W
se expresa de una única forma

w = u1 + · · · + ur , ui ∈ Wi , i = 1, . . . , r.

Lo notaremos como
r
M
W = W1 ⊕ · · · ⊕ Wr = Wi .
i =1

Ejemplo 5.6.4.- En el espacio vectorial R4 consideramos los subespacios vec-


toriales
       
1 1 0 0
 0   0   1   0 
       
W1 = 〈v1 =   , v2 =  〉,W2 = 〈v3 =   , v4 =  〉.
 1   0   0   1 
0 1 1 1

Álgebra Lineal y Geometría 177


Depto. de Álgebra

Entonces W = W1 + W2 = R4 y como {v1 , v2 , v3 , v4 } es base de R4 , tenemos la


unicidad de la expresión de todo vector de W como suma de vectores de W1 y
W2 . Por tanto, R4 = W1 ⊕ W2 .

Existen otras caracterizaciones de la suma directa que nos serán de utilidad


posteriormente.

Propiedades de la suma directa

Sean W1 , . . . ,Wr ⊂ V subespacios vectoriales y W = W1 + · · · + Wr .

1. Si Bi , i = 1, . . . , r son bases respectivas de cada Wi , entonces W es


S
suma directa de W1 , . . . ,Wr si y solamente si B = ri=1 Bi es base
de W .

2. W es suma directa de W1 , . . . ,Wr si y solamente si una expresión


de la forma

0 = u1 + · · · + ur , con cada ui ∈ Wi

implica que u1 = · · · = ur = 0.
Lr
3. Si W es de dimensión finita y W = i =1 Wi , entonces dimW =
Pr
i =1 dimWi .

P RUEBA :

1. Supongamos que W es suma directa de W1 , . . . ,Wr . Es claro, por la defi-


nición de suma, que B es un conjunto generador de W y por el teorema
de coordenadas únicas (pág. 144) es una base de W . El recíproco se sigue
de nuevo por la unicidad de la expresión de un vector de W con respecto
a una base del subespacio.

2. Si W es suma directa de W1 , . . . ,Wr , el vector 0 admite una expresión úni-


ca como suma de vectores de los subespacios Wi . Tal expresión es

0 = |{z}
0 + · · · + |{z}
0
∈W1 ∈Wr

178 Álgebra Lineal y Geometría


Depto. de Álgebra

de donde tenemos la implicación. Recíprocamente, sea w ∈ W y supon-


gamos que tenemos las expresiones

w = u1 + · · · + ur ui ∈ Wi , i = 1, . . . , r
= u′1 + · · · + u′r , u′i ∈ Wi , i = 1, . . . , r.

Entonces
0 = u1 − u′1 + · · · + ur − u′r ,
| {z } | {z }
∈W1 ∈Wr

y por la hipótesis esto implica que ui = u′i , i = 1, . . . , r , es decir, la expre-


sión es única.

3. Es consecuencia de la primera propiedad.

Nota 5.6.3. En el caso de suma de dos subespacios (r = 2), existe una caracteri-
zación clásica de la suma directa: W = W1 ⊕ W2 si y solamente si W = W1 + W2
y W1 ∩ W2 = 0. En efecto, si W = W1 ⊕ W2 y v ∈ W1 ∩ W2 , entonces tenemos las
expresiones
v = |{z}
v + |{z}
0 = |{z} v .
0 + |{z}
∈W1 ∈W2 ∈W1 ∈W2

Entonces v = 0 por la unicidad de la expresión. De manera recíproca, sea w ∈


W1 + W2 que se puede expresar como

w = u1 + u2 = u′1 + u′2 , con u1 , u′1 ∈ W1 , u2 , u′2 ∈ W2′ .

Entonces u1 − u′1 = u′2 − u2 es un vector que pertenece a W1 ∩ W2 . Por tanto,


u1 = u′1 y u2 = u′2 .
Nota 5.6.4. Si V es un espacio vectorial de dimensión finita y W1 Ú V un subes-
pacio propio, existe W2 ⊂ V subespacio vectorial tal que V = W1 ⊕ W2 . Basta
construir una base B1 de W1 y ampliarla a una base de V . Los vectores de di-
cha ampliación generan a W2 .

5.7. * Espacio cociente


Estudiamos ahora una noción que es básica en muchas ramas de las mate-
máticas, en particular en el álgebra lineal: el espacio cociente. Fijaremos a partir
de ahora un espacio vectorial V y un subespacio vectorial W ⊂ V . Básicamente,
se puede pensar en el espacio cociente de V sobre W como si fuera el espacio

Álgebra Lineal y Geometría 179


Depto. de Álgebra

V , pero donde los vectores de W no tienen ningún valor: es decir, cualquier


vector de W representa el vector 0 del espacio cociente; y si sumamos a cual-
quier vector del cociente un vector de W , éste se queda igual. Vamos a definirlo
de forma rigurosa.
Decimos que dos vectores u, v ∈ V son W -equivalentes si u − v ∈ W , y lo
notaremos como u ∼W v . La W -equivalencia define una relación de equiva-
lencia en V . En efecto:

Propiedad reflexiva: todo vector u es W -equivalente a sí mismo, porque


u−u = 0 ∈W .

Propiedad simétrica: si u ∼W v , entonces u−v ∈ W . Como W es subespa-


cio vectorial, el opuesto de este vector también pertenece a W , es decir,
−u + v ∈ W , lo que implica que v ∼W u.

Propiedad transitiva: si u ∼W v y v ∼W w , entonces u−v ∈ W y v −w ∈ W .


Si sumamos estos vectores, obtendremos un nuevo vector de W :

(u − v ) + (v − w ) = u − w ∈ W,

lo que significa que u ∼W w .

Ejemplo 5.7.1.- Consideremos en R3 el subespacio W = 〈u1 , u2 〉, donde


   
3 0
   
 −2  , u2 =  −1  .
u1 =    

−1 2

Entonces    
−2 −11
   
 1  ∼W v =  3  ,
u=   

4 15
porque u − v = 3u1 −4u2 ∈ W . Observemos que para comprobar si dos vectores
son W -equivalentes, basta resolver un sistema de ecuaciones.

180 Álgebra Lineal y Geometría


Depto. de Álgebra

Dado un vector v ∈ V , la clase de equivalencia de v es el conjunto formado


por todos los vectores W -equivalentes con w . Este conjunto tiene la forma {v +
w | w ∈ W } y, por ese motivo, la clase de equivalencia de denota como v + W .
Nota 5.7.1. Si u +W = v +W entonces existe w ∈ W tal que u = v + w , de donde
u − v ∈ W , o lo que es lo mismo, u ∼W v . El recíproco es inmediato. Por tanto,

u+W = v +W es equivalente a u ∼W v , o bien u − v ∈ W.

Una consecuencia de este hecho es que si dos clases de equivalencia u + W y


v + W tienen un elemento en común, entonces definen la misma clase.
Ahora creamos un nuevo conjunto, en donde los elementos son las clases de
equivalencia. Las clases de equivalencia dividen el conjunto V es una serie de
subconjuntos que son disjuntos dos a dos. Formamos así el conjunto cociente.

Espacio cociente

Sea W un subespacio vectorial de un espacio vectorial V . Llamaremos


espacio cociente de V sobre W , y lo denotaremos V /W , al conjunto
formado por las clases de equivalencia definidas por W .

Ejemplo 5.7.2.- En R3 consideremos el subespacio vectorial W = 〈e1 〉. Enton-


ces R3 /W está formado por las clases de equivalencia u +W , en cada una de las
cuales hay un representante de la forma
 
0
 α2  + W.
α3

Nuestro interés en este conjunto es que nos permite crear un nuevo espacio
vectorial.

Álgebra Lineal y Geometría 181


Depto. de Álgebra

Espacio cociente como espacio vectorial

Sea W un subespacio vectorial de un K-espacio vectorial V . El espacio


cociente V /W , con las operaciones

Suma: (u + W ) + (v + W ) = (u + v ) + W ,

Producto por escalar: α(u + W ) = (αu) + W ,

es un espacio vectorial sobre K. Además, si V es de dimensión finita, se


tiene:
dim(V /W ) = dim(V ) − dim(W ).

P RUEBA : Debemos probar, en primer lugar, que las operaciones están bien
definidas. Esto es, que si u +W = u′ +W y además v +W = v ′ +W , entonces las
clases de equivalencia (u + v )+W y (u′ + v ′ )+W son iguales. Pero sabemos que
u ∼W u′ , luego u − u′ ∈ W . Análogamente v − v ′ ∈ W . Por tanto, (u − u′ ) + (v −
v ′ ) = (u + v ) − (u′ + v ′ ) ∈ W . Es decir, (u + v ) ∼W (u′ + v ′ ), luego (u + v ) + W =
(u′ + v ′ ) + W como queríamos demostrar.
Por otro lado, si u +W = u′ +W y α ∈ K, entonces (u − u′ ) ∈ W , luego α(u −
u ) = αu − αu′ ∈ W . Por tanto (αu) + W = (αu′ ) + W , y se obtiene el resultado.

La demostración de que V /W es un espacio vectorial es directa. Observemos


que el elemento neutro de la suma de clases es la clase 0 + W .
Para probar la fórmula que relaciona sus dimensiones, tomemos una base
B1 = {u1 , . . . , ur } de W . Esta base se puede ampliar a una base

B = {u1 , . . . , ur , ur +1 , . . . , un }

de V . Vamos a probar que B2 = {ur +1 + W, . . . , un + W } es una base de V /W , y


esto demostrará el resultado.
Probemos primero que B2 es un conjunto generador. Sea v +W una clase de
equivalencia cualquiera. Como v ∈ V , podremos escribirlo como combinación
lineal de los elementos de B. Es decir, v = α1 u1 + · · · + αn un . Sea u = α1 u1 +
· · · + αr ur . Claramente u ∈ W , luego u′ = v − u ∼W v , donde u′ = αr +1 ur +1 +
· · · + αn un . Pero en ese caso v + W = u′ + W = αr +1 (ur +1 + W ) + · · · + αn (un +
W ). Es decir, cualquier clase de equivalencia, v + W , puede escribirse como
combinación lineal de los elementos de B2 .
La demostración estará completa si probamos que B2 es un conjunto li-
nealmente independiente. Supongamos que tenemos una combinación lineal

αr +1 (ur +1 + W ) + · · · + αn (un + W ) = 0 + W.

182 Álgebra Lineal y Geometría


Depto. de Álgebra

Esto implica que


(αr +1 ur +1 + · · · + αn un ) + W = 0 + W,
es decir, (αr +1 ur +1 + · · · + αn un ) ∈ W . Pero el subespacio vectorial
W1 = 〈ur +1 , . . . , un 〉 verifica que V = W ⊕ W1 ,
ya que B es una base. Luego la única posibilidad es que (αr +1ur +1 +· · ·+αn un ) =
0, por lo que αr +1 = · · · = αn = 0. Esto nos dice que los elementos de B2 son li-
nealmente independientes. 

Sea V un espacio vectorial sobre K, de dimensión finita, en el que hemos


fijado una base respecto de la que tomamos coordenadas.

Base de V /W y coordenadas

Calculamos una base B1 = {u1 , . . . , ur } de W .

Completamos a una base del espacio completo B =


{u1 , . . . , ur , ur +1 , . . . , un } (método de ampliación, p. 141).

Una base de V /W es B2 = {ur +1 + W, . . . , un + W }.

Sea v ∈ V un vector cualquiera.

(1) Expresamos v como combinación lineal de los vectores de la base


B:
v = α1 u1 + · · · + αr ur + αr +1 ur +1 + · · · + αn un .

(2) Entonces v + W = αr +1 (ur +1 + W ) + · · · + αn (un + W ), de donde


 
αr +1
 . 
(v + W )B2 =  ..  .
αn

Ejemplo 5.7.3.- En V = R3 consideremos el subespacio W definido por las


ecuaciones  
½ 1
x1 − 2x2 = 0
W: y el vector v = 1  .

x3 = 0
1

Álgebra Lineal y Geometría 183


Depto. de Álgebra

Vamos a calcular una base de V /W y las coordenadas del vector v +W respecto


a dicha base.
Una base de W es B1 = {u1 }, donde
 
2
u1 = 1  .

0

Ampliamos a una base de V :


   
2 1 0 0 2 1 0 0
 1 0 1 0  Gauss
−−−→  0 −1/2 1 0  .
0 0 0 1 0 0 0 1

Luego B = {u1 , e1 , e3 } es una base de V , y una base de V /W es B2 = {e1 +W, e3 +


W }.
Para hallar las coordenadas de v + W respecto de B2 hacemos lo siguiente
   
2 1 0 1 1 0 0 1
 1 0 0 1  G-J →  0 1 0 −1  .

0 0 1 1 0 0 1 1

Entonces las coordenadas de v respecto de la base B son


 
1 µ ¶
−1
vB =  −1  , y (v + W )B2 = .
1
1

Otra forma es partir de la expresión v +W = α1 (e1 +W )+α2 (e2 +W ), que implica


que
 
1 − α1 ½ ½
x1 − 2x2 = 0 1 − α1 − 2 = 0,
 1  ∈W : de donde
x3 = 0 1 − α3 = 0.
1 − α2
Entonces α1 = −1, α2 = 1 y llegamos a la misma conclusión.

Al igual que podemos construir una base de V /W y las coordenadas de un


vector v + W , también tenemos un criterio para decidir si un conjunto T =
{v1 + W, . . ., vs + W } es linealmente independiente en el espacio cociente V /W .
Supongamos que S W = {w1 , . . . , wr } es un conjunto generador de W (no es ne-
cesario que sea base de W ). Una expresión de la forma

α1 (v1 + W ) + · · · + αs (vs + W ) = 0 + W

184 Álgebra Lineal y Geometría


Depto. de Álgebra

es equivalente a α1 v1 +· · ·+αs vs ∈ W . Tiene solución no trivial (algún αi no nu-


lo) si y solamente si 〈v1 , . . . , vs 〉∩W 6= 0. Tenemos así dos métodos para resolver
el problema:

1. Mediante las ecuaciones implícitas de W y 〈v1 , . . . , vs 〉. Sustituimos la ex-


presión de pertenencia a W en las ecuaciones implícitas de W , lo que
proporciona un sistema lineal homogéneo en las incógnitas αi , 1 ≤ i ≤ s.
El conjunto T es linealmente independiente si y solamente si la única so-
lución es la trivial.

2. Formamos la matriz
¡ ¢
B= w1 . . . wr v1 . . . vs ,
¡ ¢
y calculamos una forma escalonada E B = C 1 C 2 . El conjunto T es
linealmente independiente si y solamente si todas las columnas de C 2
aportan pivote.

Independencia lineal en V /W

Sea T = {v1 + W, . . . , vs + W } ⊂ V /W y S W = {w1 , . . . , wr } un conjunto


generador de W , con dimV = n.

Formamos la matriz
¡ ¢
B= w1 . . . wr v1 . . . vs n×(r +s)
.

Gauss ¡ ¢
Calculamos B −−−→ E B = C 1 C 2 , donde C 1 es una matriz n × r
y C 2 es una matriz n × s.

El conjunto T es linealmente independiente si y solamente si to-


das las columnas de C 2 aportan pivote.

Ejemplo 5.7.4.- En el R-espacio vectorial V = R3 , y fijada la base estándar,


consideramos W el subespacio vectorial definido por
½
x1 − x3 = 0
W≡
x2 − x3 = 0

Álgebra Lineal y Geometría 185


Depto. de Álgebra

Sea T = {v1 + W, v2 + W }, donde v1 = (2, 1, 3)t , v2 = (0, −1, 1)t . De la forma ha-
bitual, calculamos una base de W , que es BW = {w1 = (1, 1, 1)t }. Formamos la
matriz  
¡ ¢ Gauss 1 −1 1
B = w1 v1 v2 −−−→  0 2 −1  .
0 0 0
La tercera columna no aporta pivote, por lo que el conjunto T es linealmente
dependiente en V /W .
Podemos aprovechar la definición de W mediante ecuaciones implícitas
para resolver el problema. La expresión α1 (v1 + W ) + α2 (v2 + W ) = 0 + W nos
lleva a buscar α1 , α2 ∈ R tales que α1 v1 + α2 v2 ∈ W , es decir,
 
2α1 ½
 α1 − α2  ∈ W, que es equivalente a (2α1 ) − (3α1 + α2 ) = 0,
(α1 − α2 ) − (3α1 + α2 ) = 0.
3α1 + α2

Este sistema tiene solución no trivial α1 = α2 , por lo que T es linealmente de-


pendiente.

186 Álgebra Lineal y Geometría


Capítulo 6

Homomorfismos

Hasta ahora la única relación que hemos visto entre espacios vectoriales di-
ferentes es la de inclusión de un subespacio vectorial en otro. En este tema estu-
diaremos una nueva relación: los homomorfismos, que como su propio nom-
bre da a entender son las aplicaciones entre espacios vectoriales que respetan
las operaciones entre un espacio y otro. Desde el punto de vista de estructuras,
es el paso natural tras haber definido una clase de objetos: qué relaciones hay
entre ellos.

6.1. Definición y propiedades


Las aplicaciones que buscamos tienen que respetar las dos operaciones bá-
sicas de los espacios vectoriales: la suma de vectores y el producto de vectores
por escalares.

Homomorfismos

Sean V y V ′ espacios vectoriales sobre un cuerpo K y f : V → V ′ una


aplicación. Diremos que f es un homomorfismo o aplicación lineal si
para todos u, v ∈ V y α ∈ K se cumplen las condiciones siguientes:

f (u + v ) = f (u) + f (v ).

f (αv ) = α f (v ).

187
Depto. de Álgebra

Ejemplo 6.1.1.- Veamos algunos ejemplos de homomorfismos y de aplicacio-


nes que no lo son.

1. Si V es un K-espacio vectorial, la aplicación identidad, idV : V → V , de-


finida por idV (v ) = v para todo v ∈ V , es un homomorfismo.

2. Dados dos espacios vectoriales cualesquiera V y V ′ , la aplicación OV,V ′ : V →


V ′ , definida por OV,V ′ (v ) = 0 para todo v ∈ V , es un homomorfismo de-
nominado homomorfismo trivial.

3. Si V es un K-espacio vectorial de dimensión finita dimV = n con base


B ⊂ V , la aplicación de asignación de coordenadas cB : V → Kn , defini-
da por cB (v ) = vB , es un homomorfismo.

4. Si W ⊂ V es un subespacio vectorial, la inclusión i : W → V , i (w ) = w ,


es un homomorfismo. Es más, la proyección natural sobre el cociente
p : V → V /W , p(v ) = v + W , también es un homomorfismo.

5. Las propiedades elementales de la suma y el producto de matrices de-


muestran que toda matriz A m×n da lugar a un homomorfismo

Kn −→ Km ,
v 7→ A v .

6. La aplicación f : K → K definida por f (x) = x +1 no es un homomorfismo


de K-espacios vectoriales ya que

f (1 + 2) = (1 + 2) + 1 = 4 6= 5 = 2 + 3 = f (1) + f (2) = 2 + 3.

7. Si K = Q, R o C, la aplicación f : K → K, f (x) = x 2 , tampoco es un homo-


morfismo de K espacios vectoriales, puesto que

f (2 + 3) = 25 6= 4 + 9 = f (2) + f (3).

Algunas propiedades básicas de los homomorfismos son las siguientes.

188 Álgebra Lineal y Geometría


Depto. de Álgebra

Propiedades de los homomorfismos

Sea f : V → V ′ un homomorfismo de K-espacios vectoriales.

1. f (0V ) = 0V ′ .

2. f (−v ) = − f (v ) para todo v ∈ V .

3. Dados vectores v1 , . . . , vn ∈ V y escalares α1 , . . . , αn ∈ K cuales-


quiera, se verifica que

f (α1 v1 + · · · + αn vn ) = α1 f (v1 ) + · · · + αn f (vn ).

P RUEBA :

1. Como 0V + 0V = 0V ,

f (0V ) = f (0V + 0V ) = f (0V ) + f (0V ).

Despejando en esta ecuación obtenemos que f (0V ) = 0V ′ .

2. Sabemos que el vector opuesto −v se puede obtener a partir de v multi-


plicando por el escalar −1 ∈ K, es decir −v = (−1)v , por tanto

f (−v ) = f ((−1)v ) = (−1) f (v ) = − f (v ).

3. Por inducción sobre n. Para n = 1 se sigue de la propia definición de ho-


momorfismo que f (α1 v1 ) = α1 f (v1 ). Si suponemos que la ecuación es
cierta para n − 1, aplicando la hipótesis de inducción junto con la defini-
ción de homomorfismo obtenemos lo siguiente:

f (α1 v1 + · · · + αn vn ) = f (α1 v1 + · · · + αn−1 vn−1 + αn vn )


= f (α1 v1 + · · · + αn−1 vn−1 ) + f (αn vn )
= α1 f (v1 ) + · · · + αn−1 f (vn−1 ) + αn f (vn ).

Nota 6.1.1. Los homomorfismos preservan conjuntos linealmente dependien-


tes. Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales. Si

S = {v1 , . . . , vn } ⊂ V es un conjunto linealmente dependiente,

Álgebra Lineal y Geometría 189


Depto. de Álgebra

entonces

f (S) = { f (v1 ), . . . , f (vn )} ⊂ V ′ es también un conjunto linealmente dependiente.

Por ser S linealmente dependiente existen escalares α1 , . . . , αn , no todos nu-


los, tales que
α1 v1 + · · · + αn vn = 0V .
Si aplicamos f a ambos términos de esta ecuación se obtiene

α1 f (v1 ) + · · · + αn f (vn ) = f (α1 v1 + · · · + αn vn ) = f (0) = 0V ′ ,

luego f (S) es linealmente dependiente.


Sin embargo, no todos los homomorfismos preservan los conjuntos lineal-
mente independientes. Sea f : R3 → R2 dada por f (v ) = A v , con
µ ¶
1 0 0
A= .
0 1 0

La base estándar {e1 , e2 , e3 } es un conjunto linealmente independiente, y


µ ¶ µ ¶ µ ¶
1 0 0
f (e1 ) = , f (e2 ) = , f (e3 ) = .
0 1 0

Es claro que { f (e1 ), f (e2 ), f (e3 )} es un conjunto linealmente dependiente, pues


contiene al vector nulo.
Para definir un homomorfismo, basta con dar la imagen de los vectores de
una base del espacio vectorial de partida.

Existencia y unicidad de homomorfismo

Sean V y V ′ dos K-espacios vectoriales. Supongamos que V es de di-


mensión finita n con base B = {v1 , . . . , vn } ⊂ V . Sea S = {v1′ , . . . , vn′ } ⊂ V ′
un conjunto de n vectores cualesquiera de V ′ . Entonces existe un único
homomorfismo f : V → V ′ tal que f (vi ) = vi′ para todo 1 ≤ i ≤ n.

P RUEBA : La aplicación f se define de la siguiente manera. Dado un vector u ∈


V , existen unos únicos escalares a1 , . . . , an ∈ K (sus coordenadas respecto a B)
P
tales que u = ni=1 ai vi . Entonces definimos f (u) mediante la fórmula

u 7→ f (u) = a1 v1′ + · · · + an vn′ .

190 Álgebra Lineal y Geometría


Depto. de Álgebra

Veamos que f es un homomorfismo. Si v ∈ V se expresa en función de la base


B como v = b 1 v1 + · · · + b n vn entonces
u + v = (a1 + b1 )v1 + · · · + (an + bn )vn ,
y la definición de f nos lleva a
f (u + v ) = (a1 + b 1 )v1′ + · · · + (an + b n )vn′
= (a1 v1′ + b 1 v1′ ) + · · · + (an vn′ + b n vn′ )
= (a1 v1′ + · · · + an vn′ ) + (b 1 v1′ + · · · + b n vn′ )
= f (u) + f (v ).
Si α ∈ K, entonces αu = αa1 v1 + · · · + αan vn , luego
f (αu) = (αa1 )v1′ + · · · + (αan )vn′
= α(a1 v1′ ) + · · · + α(an vn′ )
= α(a1 v1′ + · · · + an vn′ )
= α f (u).
Con esto concluye la demostración de que f es un homomorfismo. Para ver la
unicidad de f razonamos del siguiente modo. Sea g : V → V ′ un homomorfis-
mo que también satisface g (vi ) = vi′ para todo 1 ≤ i ≤ n. Como u = a1 v1 + · · · +
an vn , tenemos que
g (u) = a1 g (v1 ) + · · · + an g (vn ) = a1 v1′ + · · · + an vn′ = f (u),
luego la aplicación g es igual a f . 

6.2. Matriz de un homomorfismo

Matriz de un homomorfismo

Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales de di-


mensión finita con bases

B = {v1 , . . . , vn } ⊂ V, B ′ = {v1′ , . . . , vm

} ⊂ V ′.

La matriz de f respecto de B y B ′ es la matriz de orden m ×n dada por


¡ ¢
MB,B ′ ( f ) = f (v1 )B ′ · · · f (vn )B ′ ,

cuyas columnas son las coordenadas de los vectores de f (B) respecto


de B ′ .

Álgebra Lineal y Geometría 191


Depto. de Álgebra

Observemos que si f , g : V → V ′ son homomorfismos de espacios vectoria-


les tales que
MB,B ′ ( f ) = MB,B ′ (g ),
entonces f = g . Esto se tiene porque si B = {v1 , . . . , vn }, entonces las coorde-
nadas de los vectores f (vi ), i = 1, . . . , n, respecto de la base B ′ , coinciden con
las coordenadas de los vectores g (vi ), i = 1, . . ., n. Por la unicidad establecida en
el teorema de existencia y unicidad de homomorfismos (pág. 190), tenemos la
igualdad.

Ejemplo 6.2.1.- Los siguientes ejemplos de matrices asociadas a homomorfis-


mos son ya conocidos:

1. Si V es un espacio vectorial de dimensión finita y B, B ′ ⊂ V son dos ba-


ses de V entonces la matriz del homomorfismo identidad idV : V → V
respecto de B en la partida y de B ′ en la llegada es la matriz de cambio
de base,
MB,B ′ (idV ) = M(B, B ′ ).

2. Sea A m×n una matriz con coeficientes en K y f : Kn → Km el homomor-


fismo definido a partir de A en los ejemplos de la sección anterior, f (v ) =
A v . Entonces, si S ⊂ Kn y S ′ ⊂ Km son las respectivas bases estándar,
tenemos que MS ,S ′ ( f ) = A.

Interpretación matricial de la imagen de un vector

Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales de di-


mensión finita, con bases

B = {v1 , . . . , vn } ⊂ V, B ′ = {v1′ , . . . , vm

} ⊂ V ′.

Para todo v ∈ V se satisface la siguiente ecuación:

f (v )B ′ = MB,B ′ ( f ) · vB .

192 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Si denotamos  
a1
vB =  ...  ,
 

an
tenemos que v = a1 v1 + · · · + an vn . Aplicando f obtenemos

f (v ) = a1 f (v1 ) + · · · + an f (vn ).

Si ahora tomamos coordenadas respecto de B ′ , como esta operación es lineal,


deducimos que

f (v )B ′ = a1 f (v1 )B ′ + · · · + an f (vn )B ′
 
a1
¡ ¢ . 
= f (v1 )B ′ . . . f (vn )B ′  .. 
an
= MB,B ′ ( f ) · vB .

Observemos que si f : V → V ′ es un homomorfismo entre espacios vecto-


riales de dimensión finita, entonces las coordenadas de f (v ) se obtienen como
combinación lineal de las coordenadas de v . Por este motivo, a los homomor-
fismos también los llamamos aplicaciones lineales.

Ejemplo 6.2.2.- Sea f : R3 → R2 definida como


 
x1 µ ¶
x1 + x2 − x3
f x2 =
  .
2x1 + x2 + 3x3
x3

Sea S = {e1 , e2 , e3 } la base estándar en R3 y S ′ = {e′1 , e′2 } la base estándar en R2 .


Entonces
µ ¶ µ ¶
1 1
f (e1 ) = , [ f (e1 )]S ′ = ,
2 2
µ ¶ µ ¶
1 1
f (e2 ) = , [ f (e2 )]S ′ = ,
1 1
µ ¶ µ ¶
−1 −1
f (e3 ) = , [ f (e3 )]S ′ = ,
3 3

Álgebra Lineal y Geometría 193


Depto. de Álgebra

de donde µ ¶
1 1 −1
MS ,S ′ ( f ) = ,
2 1 3
lo que es lógico, pues es fácil ver que se tiene la igualdad
   
x1 µ ¶ x1
1 1 −1 
f  x2  = x2  .
2 1 3
x3 x3

Consideremos ahora las bases respectivas de R3 y R2 dadas por


     
1 1 −4 µ ¶ µ ¶
′ ′ 1 ′ 1
B = {u1 = 1 , u2 = −1 , u3 =
     5 }, B = {u1 =
 , u2 = }.
2 1
1 1 1

Entonces
µ ¶
1
f (u1 ) = ,
6
µ¶
−1
f (u2 ) = ,
4
µ ¶
0
f (u3 ) = .
0

Para calcular la matriz MB,B ′ ( f ) necesitamos obtener las coordenadas de los


vectores f (ui ), 1 ≤ i ≤ 3 respecto de la base B ′ . Para ello, debemos resolver
tres sistemas de ecuaciones con la misma matriz de coeficientes y diferentes
términos independientes. En este caso, se tiene que
µ ¶ µ ¶
1 1 1 −1 0 G-J 1 0 5 5 0

→ .
2 1 6 4 0 1 −4 −6 0

Por tanto,

f (u1 ) = 5u′1 − 4u′2 ,


f (u2 ) = 5u′1 − 6u′2 ,
f (u3 ) = 0u′1 − 0u′2 ,

y µ ¶
5 5 0
MB,B ′ ( f ) = .
−4 −6 0

194 Álgebra Lineal y Geometría


Depto. de Álgebra

La relación entre homomorfismos y matrices es incluso más estrecha, como


vamos a ver a partir de la composición de homomorfismos. Dados dos homo-
morfismos de K-espacios vectoriales

f g
V −→ V ′ −→ V ′′ ,

su composición g ◦ f : V → V ′′ es un homomorfismo. Si u, v ∈ V se tiene que

(g ◦ f )(u + v ) = g ( f (u + v ))
= g ( f (u) + g (v ))
= g ( f (u)) + g ( f (v ))
= (g ◦ f )(u) + (g ◦ f )(v ).

Por otra parte, si α ∈ K,

(g ◦ f )(αv ) = g ( f (αv ))
= g (α f (v ))
= αg ( f (v ))
= α (g ◦ f )(v ),

luego g ◦ f es un homomorfismo.
La fórmula que define la multiplicación de matrices tiene su origen históri-
co (consulte este enlace) en el siguiente resultado:

Composición y multiplicación de matrices

Dados dos homomorfismos de K-espacios vectoriales de dimensión fi-


nita
f g
V −→ V ′ −→ V ′′ ,
con bases B ⊂ V , B ′ ⊂ V ′ y B ′′ ⊂ V ′′ , se satisface la siguiente ecuación:

MB,B ′′ (g ◦ f ) = MB ′ ,B ′′ (g ) · MB,B ′ ( f ).

Álgebra Lineal y Geometría 195


Depto. de Álgebra

P RUEBA : Sea B = {u1 , . . . , un } la base de V . Entonces, aplicando la proposi-


ción anterior,
¡ ¢
MB ′ ,B ′′ (g ) · MB,B ′ ( f ) = MB ′ ,B ′′ (g ) · f (u1 )B ′ · · · f (un )B ′
¡ ¢
= MB ′ ,B ′′ (g ) · f (u1 )B ′ · · · MB ′ ,B ′′ (g ) · f (un )B ′
¡ ¢
= g ( f (u1 ))B ′′ · · · g ( f (un ))B ′′
¡ ¢
= (g ◦ f )(u1 )B ′′ · · · (g ◦ f )(un )B ′′
= MB,B ′′ (g ◦ f ).

6.3. Imagen y núcleo

Imagen, imagen inversa y núcleo

Sea f : V → V ′ un homomorfismo de espacios vectoriales.

La imagen del subespacio W ⊂ V es el conjunto

f (W ) = { f (w ) ∈ V ′ | w ∈ W } ⊂ V ′ .

La imagen del homomorfismo f es el conjunto f (V ), y se notará


por im( f ).

El núcleo de f es el conjunto

ker( f ) = {v ∈ V | f (v ) = 0}.

Ejemplo 6.3.1.- Sean V = R2 ,V ′ = R3 , donde tenemos ciertas bases B = {u1 , u2 }


y B ′ = {u′1 , u′2 , u′3 }, y consideremos el homomorfismo f : V → V ′ dado por

f (u1 ) = 2u′1 − u′2 + 2u′3 ,


f (u2 ) = u′1 + u′3 .

196 Álgebra Lineal y Geometría


Depto. de Álgebra

Entonces la matriz de f respecto de B y B ′ es


 
2 1
MB,B ′ = A =  −1 0  .
2 1

Tomemos W = 〈u1 〉. Entonces

f (W ) = { f (w ) | w ∈ W } = { f (αu1 ) | α ∈ R} = {α(2u′1 −u′2 +2u′3 ) | α ∈ R} = 〈2u′1 −u′2 +2u′3 〉.

Si lo expresamos en coordenadas respecto a la base B ′ , podemos decir que


 
2
f (W ) = 〈 −1 〉.
2

Para obtener un conjunto generador de ker( f ), tenemos que calcular los vecto-
res
v = α1 u1 + α2 u2
tales que

0V ′ = α1 (2u′1 − u′2 + 2u′3 ) + α2 (u′1 + u′3 )


= (2α1 + α2 )u′1 − α1 u′2 + (2α1 + α2 )u′3 .

Como B ′ es una base, tenemos que resolver el sistema lineal homogéneo


  
 2α1 + α2 = 0, µ ¶ 0
α1
−α1 = 0, que se expresa como A = 0 .

 α2
2α1 + α2 = 0, 0

Si calculamos la forma escalonada reducida por filas, nos queda


 
1 0
G-J  
A −→ E A = 
 0 1 ,

0 0

y la solución del sistema es α1 = 0, α2 = 0, es decir, ker( f ) = {0V }.

Álgebra Lineal y Geometría 197


Depto. de Álgebra

Subespacios imagen y núcleo

Sea f : V → V ′ un homomorfismo entres espacios vectoriales, y W ⊂ V


un subespacio vectorial. Entonces

f (W ) es un subespacio vectorial de V ′ .

ker( f ) es un subespacio vectorial de V .

En particular, im( f ) es un subespacio vectorial de V ′ .

P RUEBA :

Dos vectores cualesquiera w1′ , w2′ ∈ f (W ) son siempre de la forma w1′ =


f (w1 ) y w2′ = f (w2 ) para ciertos w1 , w2 ∈ V . Como W es un subespacio
vectorial de V , se tiene que w1 + w2 ∈ W , y si α ∈ K, además αw1 ∈ W ,
luego

w1′ + w2′ = f (w1 ) + f (w2 ) = f (w1 + w2 ) ∈ f (W ),


αw1′ = α f (w1 ) = f (αw1 ) ∈ f (W ).

Dados dos vectores v1, v2 ∈ ker( f ) y un escalar α ∈ K, como f (v1 ) = f (v2 ) =


0, tenemos que

f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0, f (αv1 ) = α f (v1 ) = 0,

de donde v1 + v2 ∈ ker( f ) y αv1 ∈ ker( f ).

Queremos ahora dar un método para el cálculo de los subespacios anterio-


res.

Imagen de generadores

Sea f : V → V ′ un homomorfismo de espacios vectoriales, y W ⊂ V un


subespacio vectorial, con S = {w1 , . . . , wr } ⊂ W un conjunto de genera-
dores de W . Entonces f (S) = { f (w1 ), . . . , f (wr )} ⊂ f (W ) es un conjunto
de generadores de f (W ).

198 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Si w ′ ∈ f (W ) entonces existe w ∈ W tal que w ′ = f (w ). Como S


genera W , podemos expresar w como combinación lineal de los elementos de
S, es decir, existen escalares α1 , . . . , αr ∈ K tales que w = α1 w1 + · · · + αr wr . Por
tanto
w ′ = f (w ) = α1 f (w1 ) + · · · + αr f (wr ).
Esto demuestra que todo vector de f (W ) es combinación lineal de f (S). 

Cálculo de la imagen de un subespacio

Sea f : V → V ′ un homomorfismo definido por una matriz A m×n res-


pecto de bases respectivas B y B ′ de V y V ′ , y W = 〈w1 , . . . , wr 〉 un
subespacio vectorial de V . Entonces f (W ) está generado por los vecto-
res f (wi ), i = 1, . . ., r , cuyas coordenadas respecto de B ′ son

[ f (wi ]B ′ = A · [wi ]B , i = 1, . . . , r.

Ejemplo 6.3.2.- Sea f : R3 → R2 definido por f (v ) = A v , donde


   
à ! 1 −2
1 −1 1    
A=  −1  , w2 =  1 〉.
, y W = 〈 w1 =    
2 3 0
0 5

Entonces à ! à !
2 2
f (W ) = 〈A w1 , A w2 〉 = 〈 , 〉.
−1 −1
Observemos que {w1, w2 } es un conjunto linealmente independiente, pero {A w1, A w2 }
no lo es. Lo único que se garantiza es el carácter de sistema generador.

En un método anterior hemos visto cómo se calcula la imagen de un subes-


pacio vectorial cualquiera. De ahí inferimos el siguiente procedimiento para el
cálculo de la imagen de un homomorfismo.

Álgebra Lineal y Geometría 199


Depto. de Álgebra

Cálculo de la imagen y núcleo de un homomorfismo

Sea f : V → V ′ un homomorfismo definido por una matriz A m×n res-


pecto de bases respectivas B y B ′ de V y V ′ . Entonces

una base de im( f ) se obtiene a partir de una base de Col(A) (co-


lumnas básicas de A) ;

una base de ker( f ) se obtiene a partir de una base de null(A) (so-


luciones hi obtenidas del método (1.12)).

Las coordenadas de los vectores de la base B respecto a ella misma son los
vectores e1 , . . . , en , por lo que la imagen del homomorfismo está generada por
los vectores A ei , i = 1, . . ., n, es decir, las columnas de la matriz A.

Ejemplo 6.3.3.- Consideremos la aplicación lineal f : R3 → R4 definida por


f (v ) = A v , con
 
2 6 −2
 
 1 3 3 
 
A= .
 −3 −9 1 
 
1 3 2
Entonces      
2 6 −2
1 3 3
     
     
im( f ) = 〈 , , 〉.
 −3   −9   1 
1 3 2
Como  
2 6 −2
 
 0 0 8 
Gauss  
A −−−→ E A =  ,
 0 0 0 
 
0 0 0
el conjunto anterior es generador, pero no linealmente independiente. Una ba-
se de im( f ) está formada por {A ∗1 , A ∗3 }. A partir de
 
−3
null(A) = 〈h1 =  1 〉,
0

200 Álgebra Lineal y Geometría


Depto. de Álgebra

una base de ker( f ) es {h1 }.

Fórmula de la dimensión de homomorfismos

Sea f : V → V ′ un homomorfismo entre K-espacios vectoriales, con


dimV finita. Entonces

dimV = dim[ker( f )] + dim[im( f )].

P RUEBA : Sea n = dimV y s = dim[ker( f )]. Como ker( f ) es un subespacio de V ,


es de dimensión finita y s ≤ n. Sea B0 = {v1 , . . . , vs } base de ker( f ) y la exten-
demos a una base {v1 , . . . , vs , vs+1 , . . . , vn } de V . Vamos a probar que el conjunto
{ f (vs+1 ), . . . , f (vn )} es base de im( f ), con lo que tendremos el resultado.
Veamos en primer lugar la independencia lineal. Sean α1 , . . . , αn ∈ K tales
que
αs+1 f (vs+1 ) + · · · + αn f (vn ) = 0.
Esta igualdad se puede escribir como

f (αs+1 vs+1 +· · ·+αn vn ) = 0, que es equivalente a αs+1 vs+1 +· · ·+αn vn ∈ ker( f ).

Por tanto,

αs+1 vs+1 + · · · + αn vn = β1 v1 + · · · + βs vs para ciertos escalares β1 , . . . , βs ∈ K.

Como {v1 , . . . , vn } es una base de V , entonces αs+1 = . . . = αn = 0 (también los


β j ) y hemos probado la independencia lineal.
Ahora probamos que im( f ) = 〈 f (vs+1 ), . . . , f (vn )〉. Sea w ∈ im( f ). Por de-
finición, existe v ∈ V tal que f (v ) = w y podemos, entonces, encontrar unos
escalares λ1 , . . . , λn tales que
s
X n
X
v = λ1 v1 + · · · + λn vn = λi vi + λi vi .
i =1 i =s+1

Aplicamos f a ambos lados de la igualdad, y tenemos en cuenta que f (vi ) = 0


para i = 1, . . . , s. Nos queda
s
X n
X n
X
w = f (v ) = λi f (vi ) + λi f (vi ) = λi f (vi ) ∈ 〈 f (vs+1 ), . . . , f (vn )〉.
i =1 i =s+1 i =s+1
| {z }
=0

Álgebra Lineal y Geometría 201


Depto. de Álgebra

Nota 6.3.1. Sea f : V → V ′ un homomorfismo definido por una matriz A m×n


respecto de bases respectivas B y B ′ de V y V ′ . El número de columnas lineal-
mente independiente en una matriz coincide con su rango. De aquí deducimos
que
dim[im( f )] = rango MB,B ′ ( f ) = rango(A).
Por otro lado, unas ecuaciones implícitas de ker( f ) son A x = 0 y

dim[ker( f )] = dimV − rango(A).

Los dos enunciados se combinan en que dimV = n = r + (n − r ) = dim[im( f )] +


dim[ker( f )], que es el teorema anterior. Sin embargo, aunque el resultado es el
mismo, hay una pequeña diferencia en las hipótesis.

6.4. Homomorfismos inyectivos y sobreyectivos


Los homomorfismos entre espacios vectoriales, en tanto que aplicaciones,
pueden ser inyectivos, sobreyectivos, ambas cosas (es decir, biyectivos) o nin-
guno de ellos. En esta sección veremos la relación entre estos conceptos y los
homomorfismos.

Isomorfismos

Un homomorfismo f : V → V ′ se denomina isomorfismo si la aplica-


ción f es biyectiva.

En algunos textos aparece la siguiente nomenclatura:

Si la aplicación f es inyectiva, decimos que f es un monomorfismo

Si la aplicación f es sobreyectiva, decimos que f es un epimorfismo.

Si existe un isomorfismo entre dos espacios vectoriales V y V ′ decimos que


son isomorfos.

Ejemplo 6.4.1.- Algunos ejemplos conocidos de homomorfismos inyectivos,


sobreyectivos y biyectivos son los siguientes:

202 Álgebra Lineal y Geometría


Depto. de Álgebra

1. Si W ⊂ V es un subespacio vectorial, la inclusión i : W → V , i (v ) = v , es


inyectiva, y la proyección natural p : V → V /W , p(v ) = v + W , es sobre-
yectiva.

2. La identidad idV : V → V , idV (v ) = v , es un isomorfismo.

3. Sea V un espacio vectorial de dimensión n, y B una base. La aplicación


de coordenadas
c B : V → Kn

que a cada vector de V le hace corresponder sus coordenadas respecto


de la base B es un isomorfismo (pág. 147)

Por definición, un homomorfismo f ;V → V ′ es sobreyectivo si y solamente


si la imagen es el espacio destino, esto es, im( f ) = V ′ . El carácter inyectivo de
un homomorfismos está determinado por su núcleo.

Caracterización de homomorfismos inyectivos y sobreyectivos

Sea f : V → V ′ un homomorfismo de espacios vectoriales sobre un mis-


mo cuerpo K.

f es sobreyectivo si y solamente si im( f ) = V ′ .

f es inyectivo si y solamente si ker( f ) = 0.

P RUEBA : La caracterización del carácter sobreyectivo ya la tenemos. Suponga-


mos que f es inyectivo, y tomemos v ∈ ker( f ). Entonces f (v ) = 0V ′ = f (0V ).
Por el carácter inyectivo, v = 0V , y tenemos la implicación. Recíprocamente,
supongamos que ker( f ) = 0V . Sean u, v ∈ V tales que f (u) = f (v ). Entonces
0V ′ = f (u) − f (v ) = f (u − v ), y u − v ∈ ker( f ) = 0V , de donde u = v . 

En espacios vectoriales de dimensión finita podemos relacionar la inyecti-


vidad y sobreyectividad con una matriz.

Álgebra Lineal y Geometría 203


Depto. de Álgebra

Caracterización de homomorfismos inyectivos y sobreyectivos en


dimensión finita

Sea f : V → V ′ un homomorfismo definido por una matriz A m×n res-


pecto de bases respectivas B y B ′ de V y V ′ .

f es inyectivo si y solamente si rango(A) = n.

f es sobreyectivo si y solamente si rango(A) = m.

f es biyectivo si y solamente si m = n y det(A) 6= 0.

Si dimV = dimV ′ , son equivalentes:

1. f es inyectivo.
2. f es sobreyectivo.
3. f es biyectivo.

P RUEBA :

La fórmula de la dimensión nos dice que

dimV = n = dim[im( f )] + dim[ker( f )].

Por el apartado anterior, f es inyectivo si y solamente si dim[ker( f )] = 0,


que es equivalente a dim[im( f )] = n, que es el rango de la matriz A.

f es sobreyectivo si y solamente si el espacio imagen es todo V ′ , es decir,


dim[im( f )] = dimV ′ = m.

Si f es biyectivo, entonces n = dimV = dim[im( f )]+dim[ker( f )] = dimV ′ +


0 = m. La matriz A es cuadrada, y rango(A) = n, por lo que es no singular.
Recíprocamente, si A es cuadrada y con determinante no nulo, entonces
el sistema lineal homogéneo A x = 0 tiene solución única, que es la tri-
vial. Por tanto, f es inyectivo, y entonces dim[im( f )] = n = m, por lo que
es sobreyectivo.

Se aplica la fórmula de la dimensión y los apartados anteriores.

204 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 6.4.2.- Vamos a considerar ejemplos de los diferentes tipos.

1. Sea f : R4 → R3 definida como f (v ) = A v , donde


 
1 0 0 0
A =  0 1 0 0 .
0 0 0 0

Entonces rango(A) = 2, por lo que f no es sobreyectiva. Una aplicación


lineal de R4 en R3 nunca puede ser inyectiva.

2. Sea f : R2 → R4 la aplicación lineal definida como f (v ) = A v , con


 
1 0
2 0
 
 
A= .
 −1 0 
3 0

Ahora rango(A) = 1, y tampoco es inyectiva. Una aplicación lineal de R2


en R4 no puede ser sobreyectiva.

3. Sea f : R3 → R3 la aplicación lineal definida como f (v ) = A v , donde


 
−1 2 0
A =  0 −1 1  .
−1 3 4

Entonces det(A) 6= 0, por lo que f es biyectiva.

Nota 6.4.1. Dado un homomorfismo f : V → V ′ entre espacios vectoriales de


dimensión finita, dimV = n y dimV ′ = m, los resultados de esta sección de-
muestran que:

Si n < m, entonces f nunca es sobreyectivo.

Si n > m, entonces f nunca es inyectivo.

Si n = m, entonces f es inyectivo si y solamente si es sobreyectivo.

Álgebra Lineal y Geometría 205


Depto. de Álgebra

En espacios vectoriales de dimensión infinita lo anterior no es válido. Por ejem-


plo, sean V = R[x] y V ′ el conjunto de sucesiones infinitas {an } de números
reales, con la adición componente a componente y producto por números reales.
Ambos son R-espacios vectoriales de dimensión no finita. La aplicación que a
un polinomio p(x) = a0 +a1 x+· · ·+ar x r le asocia la sucesión {a0, a1 , . . . , ar , 0, 0, . . .}
es un homomorfismo inyectivo, pero no es sobreyectivo.

Endomorfismos y automorfismos

Si f : V → V es un homomorfismo con los mismos espacios vec-


toriales en el dominio y la imagen, decimos que f es un endo-
morfismo.

Si f es un endomorfismo biyectivo, decimos que es un automor-


fismo.

Ejemplo 6.4.3.- La aplicación f : R3 → R3 definida como f (v ) = A v , con


 
1 −2 3
 
 0
A= 3 −3 

0 1 −1

es un endomorfismo, pero no es un automorfismo, porque det(A) = 0. Sin em-


bargo, la aplicación g : R3 → R3 definida por g (v ) = B v , con
 
1 −2 3
 
 0
B = 3 −3 

0 1 0

es un automorfismo.

206 Álgebra Lineal y Geometría


Depto. de Álgebra

Transformación de un conjunto generador o independiente

Sea f : V → V ′ un homomorfismo entre espacios vectoriales,


S = {u1 , . . . , ur } ⊂ V un conjunto linealmente independiente, G =
{v1 , . . . , vs } ⊂ V un sistema generador y B = {w1 , . . . , wn } una base de
V.

Si f es inyectiva (monomorfismo), entonces f (S) =


{ f (u1 ), . . . , f (ur )} ⊂ V ′ es un conjunto linealmente indepen-
diente.

Si f es sobreyectiva (epimorfismo), entonces f (G) =


{ f (v1 ), . . . , f (vs )} ⊂ V ′ es un sistema generador.

Si f es biyectiva (isomorfismo), entonces f (B) =


{ f (w1 ), . . . , f (wn )} es base de V ′ .

P RUEBA :

Sean α1 , . . . , αr ∈ K escalares tales que

α1 f (u1 ) + · · · + αr f (ur ) = 0V ′ .

Hay que demostrar que todos los coeficientes son nulos. Como f es un
homomorfismo, tenemos que

f (α1 u1 + · · · + αr vr ) = α1 f (u1 ) + · · · + αr f (ur ) = 0V ′ = f (0V ).

Al ser f inyectivo, α1 u1 + · · · + αr ur = 0V y, como S es linealmente inde-


pendiente, todos los coeficientes son cero: α1 = · · · = αr = 0.

Ya vimos en la sección anterior que f (G) ⊂ im( f ) es un sistema de gene-


radores. Por ser f sobreyectivo, im( f ) = V ′ , y tenemos el resultado.

Es consecuencia inmediata de los apartados anteriores.

Álgebra Lineal y Geometría 207


Depto. de Álgebra

Composición de isomorfismos

Si f : V → V ′ es un isomorfismo, entonces la aplicación inversa


f −1 : V ′ → V es un isomorfismo.

Si f : V → V ′ , g : V ′ → V ′′ son isomorfismos, entonces la compo-


sición g ◦ f : V → V ′′ es un isomorfismo.

P RUEBA :

Como f −1 es biyectiva, basta probar que f −1 es un homomorfismo. Sean


v1′ , v2′ ∈ V ′ y α ∈ K. Existen v1 , v2 ∈ V tales que f (v1 ) = v1′ , f (v2 ) = v2′ , y

f (v1 ) + f (v2 ) = f (v1 + v2 ) = v1′ + v2′ ,

de donde, por la inyectividad de f ,

f −1 (v1′ + v2′ ) = v1 + v2 = f −1 (v1′ ) + f −1 (v2′ ).

Análogamente, f (αv1 ) = α f (v1 ) = αv1′ , y entonces

f −1 (αv1′ ) = αv1 = α f −1 (v1′ ).

Es conocido que la composición de aplicaciones biyectivas es biyectiva.


En la primera sección vimos que la composición de homomorfismos es
un homomorfismo; por tanto la composición de isomorfismos es un iso-
morfismo.

Función inversa de un isomorfismo

Sea f : V → V ′ un isomorfismo definido por una matriz A n×n respecto


de bases respectivas B y B ′ de V y V ′ . Entonces f −1 : V ′ → V tiene
como matriz a A −1 respecto de las mismas bases, esto es,

MB ′ ,B ( f −1 ) = MB,B ′ ( f )−1 .

208 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Usando la definición y las propiedades elementales de la matriz de un


homomorfismo obtenemos las ecuaciones siguientes, que demuestran la tesis
del enunciado:

MB ′ ,B ( f −1 )MB,B ′ ( f ) = MB,B ( f −1 ◦ f )
= MB,B (idV )
= In ,

MB,B ′ ( f )MB ′ ,B ( f −1 ) = MB ′ ,B ′ ( f ◦ f −1 )
= MB ′ ,B ′ (idV ′ )
= In .

Ejemplo 6.4.4.- Consideremos el homomorfismo f : R3 → R3 definido por


f (v ) = A v , donde
 
−1 2 0
A =  0 −1 1  .
−1 3 4
Vimos antes que es un isomorfismo mediante el cálculo del determinante. Con
la forma escalonada reducida por filas podemos probarlo también, y a la vez
obtener la matriz de f −1 . En efecto
1 0 0 − 75 − 85 52
 
¡ ¢ G-J
A I3 −→  0 1 0 − 15 − 45 51 
0 0 1 − 15 1 1
5 5
¡ ¢
= I 3 A −1 .

De esta forma tenemos probado el carácter no singular de A, y en la parte de-


recha aparece su matriz inversa.

Clasificación de los espacios vectoriales de dimensión finita

Dos espacios vectoriales V y V ′ de dimensión finita son isomorfos si y


solamente si dimV = dimV ′ .

Álgebra Lineal y Geometría 209


Depto. de Álgebra

P RUEBA : Si V y V ′ son isomorfos, sabemos que tienen la misma dimensión.


Veamos el recíproco. Supongamos que dimV = dimV ′ = n y consideremos ba-
ses respectivas

B = {u1 , . . . , un }, B ′ = {u′1 , . . . , u′n },

que, por hipótesis, tienen el mismo número de elementos. Por el teorema de


existencia y unicidad de homomorfismos (pág. 190), existe un único homomor-
fismo f : V → V ′ definido por f (ui ) = u′i , para i = 1, . . . , n. Entonces MB,B ′ ( f ) =
I n , y f es isomorfismo. 

Otra forma de ver lo anterior es a través de la composición de isomorfismos.


Si fijamos bases respectivas B y B ′ en V y V ′ , entonces tenemos las aplicacio-
nes de coordenadas

c B : V → Kn , c B ′ : V ′ → Kn ,

que son isomorfismos.

V ❈
−1
❈ ❈❈ cB ◦cB ′
cB ≃ ❈❈
❈❈
 cB ′ !
Kn o ≃ V′

−1 n ′ −1 ′
Entonces, tanto la inversa cB ′ : K → V como la composición c B ′ ◦ c B : V → V
son isomorfismos, luego V y V ′ son isomorfos.

6.5. El espacio vectorial de los homomorfismos

Con los homomorfismos, aparte de componerlos, podemos realizar otras


dos operaciones, que dotará de estructura de espacio vectorial a un nuevo con-
junto.

210 Álgebra Lineal y Geometría


Depto. de Álgebra

Operaciones con homomorfismos

Sean f , g : V → V ′ homomorfismos de espacios vectoriales, y λ ∈ K.


Definimos

El homomorfismo suma f + g : V → V ′ como

( f + g )(v ) = f (v ) + g (v ).

El producto por un escalar λ · f : V → V ′ como

(λ · f )(v ) = λ f (v ).

Estas operaciones están definidas en el conjunto Hom(V,V ′ ) de los ho-


momorfismos de V en V ′ .

Para que esta definición sea correcta, debemos probar que estas nuevas
aplicaciones son, efectivamente, homomorfismos. Tomemos vectores v1 , v2 ∈
V y un escalar α ∈ K. Entonces

( f + g )(v1 + v2 ) = f (v1 + v2 ) + g (v1 + v2 )


= f (v1 ) + f (v2 ) + g (v1 ) + g (v2 )
= ( f + g )(v1 ) + ( f + g )(v2 ),

( f + g )(αv1 ) = f (αv1 ) + g (αv1 )


= α f (v1 ) + αg (v1 )
= α( f (v1 ) + g (v1 )) = α( f + g )(v1 ).

Por otro lado,

(λ · f )(v1 + v2 ) = λ f (v1 + v2 ) = λ( f (v1 + f (v2 )


= λ f (v1 ) + λ f (v2 ) = (λ · f )(v1 ) + (λ · f )(v2 ),

(λ · f )(αv1 ) = λ f (αv1 ) = λ(α f (v1 )) = α(λ f (v1 )) = α(λ · f )(v1 ).

Álgebra Lineal y Geometría 211


Depto. de Álgebra

Ejemplo 6.5.1.- Consideremos los homomorfismos f , g : R4 → R2 dados por


f (v ) = A v , g (v ) = B v , con
µ ¶ µ ¶
1 −2 0 −3 0 1 1 0
A= ,B = .
2 −1 0 −1 0 0 0 0

Tenemos entonces que


µ ¶ µ ¶ µ ¶
1 0 1
(f + g )(e1 ) = f (e1 ) + g (e1 ) = + = ,
2 0 2
µ ¶ µ ¶ µ ¶
−2 1 −1
(f + g )(e2 ) = f (e2 ) + g (e2 ) = + = ,
−1 0 −1
µ ¶ µ ¶ µ ¶
0 1 1
(f + g )(e3 ) = f (e3 ) + g (e3 ) = + = ,
0 0 0
µ ¶ µ ¶ µ ¶
−3 0 −3
(f + g )(e4 ) = f (e4 ) + g (e4 ) = + = .
−1 0 −1

Por tanto, la matriz de f +g respecto de las bases estándar es A+B. Algo análogo
ocurre con λ · f , para cualquier λ ∈ K.

Hom(V,V ′ ) como espacio vectorial

El conjunto Hom(V,V ′ ), con las operaciones de suma de homomorfis-


mos y producto por un escalar, tiene estructura de espacio vectorial.

P RUEBA : Ya hemos visto que las operaciones son internas. Vamos a repasar
las propiedades que definen esta estructura.

Hom(V,V ′ ) es un grupo abeliano con respecto a la suma. La operación es


conmutativa, asociativa, y el elemento neutro es la aplicación constante
igual a 0V ′ .

El producto por un escalar verifica:

• (λ + µ) · f = (λ · f ) + (µ · f ). Sea v ∈ V . Se tiene que

((λ + µ) · f )(v ) = (λ + µ) f (v ) = λ f (v ) + µ f (v )
= (λ · f )(v ) + (µ · f )(v ) = (λ · f + µ · f )(v ).

212 Álgebra Lineal y Geometría


Depto. de Álgebra

• λ · ( f + g ) = (λ · f ) + (λ · f ). Sea v ∈ V . Entonces

(λ · ( f + g ))(v ) = λ( f + g )(v ) = λ( f (v ) + g (v )) = λ f (v ) + λg (v )
= (λ · f )(v ) + (λ · g )(v ) = (λ · f + λ · g )(v ).

• λ · (µ · f ) = (λµ) · f . Si v ∈ V , entonces

(λ · (µ · f ))(v ) = λ(µ · f )(v ) = λ(µ f (v )) = (λµ) f (v )


= ((λµ) · f )(v ).

• 1 · f = f . Inmediato.

Nota 6.5.1. El conjunto de endomorfismos de V es Hom(V,V ), notado como


End(V ) tiene estructura de espacio vectorial. El conjunto de automorfismos,
notado Aut(V ), no lo es, pues no contiene al homomorfismo nulo.

Interpretación matricial de las operaciones + y ·

Sean f , g : V → V ′ homomorfismos definidos, respectivamente, por las


matrices A m×n , B m×n , con respecto a las bases B de V y B ′ de V ′ . To-
memos un escalar λ ∈ K. Entonces

MB,B ′ ( f + g ) = MB,B ′ ( f ) + MB,B ′ (g ) = A + B,


MB,B ′ (λ · f ) = λMB,B ′ ( f ) = λA.

P RUEBA : Estas ecuaciones son consecuencia inmediata de la definición de


la matriz de un homomorfismo y de la linealidad de la asignación de coorde-
nadas. En efecto, si B = {v1 , . . . , vn } entonces
¡ ¢
MB,B ′ ( f + g ) = ( f + g )(v1 )B ′ · · · ( f + g )(vn )B ′
¡ ¢
= f (v1 )B ′ + g (v1 )B ′ · · · f (vn )B ′ + g (vn )B ′
¡ ¢ ¡ ¢
= f (v1 )B ′ · · · f (vn )B ′ + g (v1 )B ′ · · · g (vn )B ′
= MB,B ′ ( f ) + MB,B ′ (g ),

¡ ¢
MB,B ′ (α · f ) = (α · f )(v1 )B ′ · · · (α · f )(vn )B ′
¡ ¢
= α f (v1 )B ′ · · · α f (vn )B ′
= αMB,B ′ ( f ).

Álgebra Lineal y Geometría 213


Depto. de Álgebra

La siguiente cuestión es determinar la dimensión del espacio vectorial Hom(V,V ′ )


en función de las dimensiones de V y V ′ .

* Dimensión de Hom(V,V ′ )

Sean V y V ′ espacios vectoriales de dimensión finita, con dimV =


n, dimV ′ = m y bases respectivas B ⊂ V, B ′ ⊂ V ′ . La aplicación MB,B ′
que asigna a cada homomorfismo de V en V ′ su matriz respecto de es-
tas bases es un isomorfismo,

MB,B ′ : Hom(V,V ′ ) −→ M (m × n, K)
f 7→ MB,B ′ ( f ).

En particular dim Hom(V,V ′ ) = mn.

P RUEBA : La linealidad de MB,B ′ se ha demostrado en la proposición ante-


rior, así que solamente queda por ver que el homomorfismo MB,B ′ es biyectivo.
Sean B = {v1 , . . . , vn } y B ′ = {v1′ , . . . , vm

} las bases del enunciado. Sabemos
que un homomorfismo está unívocamente determinado por su matriz, por tan-
to MB,B ′ es inyectiva. La aplicación MB,B ′ es sobreyectiva, ya que dada una
matriz A = (ai j ) ∈ M (m × n, K) el único homomorfismo f : V → V ′ que satisfa-
ce f (vi ) = a1i v1′ + · · · + ami vm

para todo 1 ≤ i ≤ n tiene matriz MB,B ′ ( f ) = A.
La conclusión final se deduce de la igualdad dim M (m × n, K) = mn. 

6.6. * Teoremas de isomorfía

El cociente de espacios vectoriales posee la siguiente propiedad universal.

214 Álgebra Lineal y Geometría


Depto. de Álgebra

Primer teorema de isomorfía

Sea f : V → V ′ un homomorfismo de espacios vectoriales. Entonces la


aplicación

f¯ : V / ker( f ) −→ im( f ),
v + ker( f ) 7→ f (v ),

está bien definida y es un isomorfismo. Además, el siguiente diagrama


es conmutativo:
f
V /V′
O
p i
 f¯
V / ker( f ) ≃
/ im( f )

donde p : V → V / ker( f ) es la proyección canónica y i : im( f ) → V ′ es la


inclusión.

P RUEBA : Consideremos la aplicación

f¯ : V / ker( f ) −→ V ′ ,
v + ker( f ) 7→ f (v ).

Veamos que está bien definida. Si v + ker( f ) = v ′ + ker( f ), entonces v − v ′ ∈


ker( f ), de donde f (v − v ′ ) = 0. Como f (v − v ′ ) = f (v ) − f (v ′ ) deducimos que
f (v ) = f (v ′ ), y la definición de f¯(v + ker( f )) dada en el enunciado no depende
de la elección del representante de la clase v + ker( f ).
La prueba de que f¯ preserva la suma de vectores y el producto por escalares
es obvia, ya que f es un homomorfismo y f¯ se define a partir de f .
Sea v + ker( f ) ∈ ker( f¯). Como, por definición, f¯(v + ker( f )) = f (v ), lo ante-
rior equivale a decir que f (v ) = 0, es decir, v ∈ ker( f ). Por tanto v + ker( f ) =
0 + W . Esto demuestra que ker( f¯) = {0 + ker( f )}, esto es, f¯ es inyectivo.
Veamos que f¯ es sobreyectivo. Dado v ′ ∈ im( f ), por definición de imagen
existe v ∈ V tal que f (v ) = v ′ y, por tanto, f¯(v + ker( f )) = v ′ .
Por último, verifiquemos que f = i ◦ f¯ ◦ p. Sea v ∈ V . Entonces

(i ◦ f¯ ◦ p)(v ) = (i ◦ f¯)(v + ker( f )) = i ( f¯(v + ker( f ))


= i ( f (v )) = f (v ).

Álgebra Lineal y Geometría 215


Depto. de Álgebra

Nota 6.6.1. En el caso de dimensión finita, el diagrama anterior nos permite


calcular unas bases especiales de V y V ′ con respecto a las cuales la matriz
de f es muy sencilla. Sean n = dimV, m = dimV ′ y r = dim[im( f )]. Entonces
dim[ker( f )] = n −r . Sea B0 = {ur +1 , . . . , un } una base de ker( f ). Existen (y pode-
mos calcular) vectores u1, . . . , ur tales que el conjunto B = {u1 , . . . , ur , ur +1 , . . . , un }
es base de V . Se trata de una ampliación, pero colocamos los vectores de parti-
da al final de la base. Se tiene entonces que

El conjunto de clases B1 = {u1 + ker( f ), . . . , ur + ker( f )} es una base del


espacio cociente V / ker( f ) (pág. 183).

El conjunto B2 = { f (u1 ), . . . , f (ur )} es base de im( f ) (fórmula de la di-


mensión de homomorfismos, pág. 201).

Ahora construimos una ampliación del conjunto B2 a una base de V ′ , que de-
nominamos B ′ = { f (u1 ), . . . , f (ur ), wr +1 , . . . , wm−r }. Vamos a calcular las matri-
ces de los homomorfismos del diagrama con respecto a estas bases.
La matriz de f respecto a B y B ′ es, por definición,
¡ ¢
MB,B ′ ( f ) = [ f (u1 )]B ′ . . . [ f (ur )]B ′ [ f (ur +1 )]B ′ . . . [ f (un )]B ′
 
1 ... 0 0 ... 0
 .. . . . . . . 
 . . .. .. . . ..  µ ¶
  Ir Or ×(n−r )
=  0 ... 1 0 ... 0  =
  = Nr .
 .. . . .. .. . . ..  O(m−r )×r O(m−r )×(n−r ) m×n
 . . . . . . 
0 ...0 0 0 ... 0

Por tanto, existen bases de V y V ′ respecto de las cuales el homomorfismo f


tiene una matriz de la forma Nr . Construyamos, por completar, las matrices
respecto de estas bases de los restantes homomorfismos que intervienen en el
diagrama.
La matriz de la proyección p respecto a B y B1 es

¡ ¢
MB,B1 (p) = [p(u1 )]B1 . . . [p(ur )]B1 [p(ur +1 )]B1 . . . [p(un )]B1
¡
= [u1 + ker( f )]B1 . . . [ur + ker( f )]B1
¢
[ur +1 + ker( f )]B1 . . . [un + ker( f )]B1
 
1 ... 0 0 ... 0
 . . . .  ¡
=  .. . . . .. .. . . . ..  = I r O(n−r )×(n−r ) (n−r )×n .
¢

0 ... 1 0 ... 0

216 Álgebra Lineal y Geometría


Depto. de Álgebra

La matriz del isomorfismo f¯ respecto a B1 y B2 es


¡ ¢
MB1 ,B2 ( f¯) = [ f¯(u1 + ker( f ))]B2 . . . [ f¯(ur + ker( f ))]B2
¡ ¢
= [ f (u1 )]B2 . . . [ f (ur )]B2 = I r .

La matriz de la inclusión i respecto a B2 y B ′ es


¡ ¢
MB2 ,B ′ (i ) = [i ( f (u1 ))]B ′ . . . [i ( f (ur ))]B ′
¡ ¢
= [ f (u1 )]B ′ . . . [ f (ur )]B ′
 
1 ... 0
 .. . . .. 
 . . . 
  µ ¶
 0 ... 1  Ir
=

 = O(m−r )×r
 .
 0 ... 0  m×r
 . .
 .. . . ... 

0 ... 0

Ejemplo 6.6.1.- Sean V = R4 ,V ′ = R3 y consideremos el homomorfismo f :


V → V ′ definido como f (v ) = A v , donde
 
1 2 3 4
A =  2 4 6 7 .
1 2 3 6

Mediante el procedimiento descrito, vamos a calcular bases de V y V ′ respecto


de las cuales la matriz de f es de la forma Nr , con r = rango(A). Necesitamos,
en primer lugar, una base de ker( f ), que implica el cálculo de null(A):
   
1 2 3 4 1 2 3 0
 2 4 6 7  G-J
   

→  0 0 0 1 .
   
1 2 3 6 0 0 0 0

Entonces    
−2 −3
   
 1   0 
   
null(A) = 〈u3 =  ,u =  〉.
 0  4  1 
   
0 0

Álgebra Lineal y Geometría 217


Depto. de Álgebra

Ampliamos a una base de V con u1 = e1 , u2 = e4 y llamemos B = {u1 , u2 , u3 , u4 }.


Entonces { f (u1 ), f (u2 )} es una base de im( f ) (son las columnas básicas de A) y
la ampliamos a una base de V ′ con w3 = e3 . Si B ′ = { f (u1 ), f (u2 ), w3 }, entonces
 
1 0 0 0
MB,B ′ ( f ) =  0 1 0 0  .
0 0 0 0

Ejemplo 6.6.2.- El primer teorema de isomorfía permite calcular una factori-


zación de rango pleno de una matriz A, esto es, si rango(A m×n ) = r podemos
expresar A en la forma

A m×n = D m×r B r ×n , donde rango(B) = r = rango(D).

Sabemos que si fijamos las bases estándar S en Kn y S ′ en Km , la matriz A


induce una aplicación lineal f : Kn → Km dada por f (u) = A · u y la matriz
de f respecto de estas bases es A. El primer teorema de isomorfía da lugar al
diagrama
f
Kn / Km
O
p i
 f¯
Kn / ker f / im( f )

Sean vi 1 , . . . , vi r las columnas básicas de A, que forman una base B2 de im( f ).


Tomemos los vectores ei 1 , . . . , ei r de la base estándar de Kn tales que A ei j =
vi j , j = 1, . . . , r . Probamos en primer lugar que B1 = {(ei 1 +ker( f ), . . . , ei r +ker( f ))}
forman una base de Kn / ker( f ). Como dim Kn / ker( f ) = r , basta con probar que
forman un conjunto linealmente independiente. Si

α1 (ei 1 + ker( f )) + · · · + αr (ei r + ker( f )) = 0 + ker( f ),


Pr
entonces j =1 α j ei j ∈ ker( f ), de donde

r
X r
X r
X
0= A α j ei j = α j A ei j = α j vi j , porque A ei j es la columna i j .
j =1 j =1 j =1

218 Álgebra Lineal y Geometría


Depto. de Álgebra

Como las columnas básicas de A son independientes, todos los coeficientes α j


son nulos.
Llamemos B a la matriz del homomorfismo p respecto de las bases S de
Kn y B1 de Kn / ker( f ). Es una matriz de orden r × n y como la aplicación p es
sobreyectiva, B es de rango r .
Llamemos D a la matriz del homomorfismo i respecto de las bases B2 de
im( f ) y S ′ de Km . Es una matriz de orden m × r y como la aplicación i es in-
yectiva, D es de rango r .
Por otra parte, por la construcción de las bases B1 y B2 , se tiene que
MB1 ,B2 ( f¯) = I r ×r .
Como f = i ◦ f¯ ◦ p, esta igualdad se traslada a estas matrices como A = D I B =
D · B, que es la factorización buscada.

Segundo teorema de isomorfía

Sean W1 ,W2 subespacios vectoriales de V . Entonces (W1 + W2 )/W2 ≃


W1 /(W1 ∩ W2 ).

P RUEBA : Consideremos la aplicación


f : W1 → (W1 + W2 )/W2
w1 7→ w1 + W2 .
Es fácil ver que f es un homomorfismo de espacios vectoriales. Si w + W2 ∈
(W1 + W2 )/W2 , entonces existen v1 ∈ W1 , v2 ∈ W2 tales que w = v1 + v2 , por
lo que w + W2 = v1 + W2 (su diferencia es v2 , que está en W2 ). Por tanto, f es
sobreyectiva. Su núcleo viene dado por
ker f = {w1 ∈ W1 | w1 ∈ W2 } = W1 ∩ W2 .
Por el primer teorema de isomorfía, nos queda que W1/(W1 ∩W2 ) ≃ (W1 +W2 )/W2 .


Tercer teorema de isomorfía

Sean W1 ,W2 subespacios vectoriales de V , con W1 ⊂ W2 . Entonces


(V /W1 )/(W2 /W1 ) ≃ V /W2 .

Álgebra Lineal y Geometría 219


Depto. de Álgebra

P RUEBA : En primer lugar, observemos que W2 /W1 es subespacio vectorial de


V /W1 , pues las operaciones son internas. Consideremos la aplicación

f : V /W1 → V /W2
v + W1 7→ v + W2 .
Esta aplicación está bien definida, pues si v + W1 = v ′ + W1 , entonces v − v ′ ∈
W1 ⊂ W2 , luego v + W2 = v ′ + W2 . Es fácil ver que es un homomorfismo de es-
pacios vectoriales. Si v + W2 ∈ V /W2 , podemos tomar la clase v + W1 ∈ V /W1 ,
que se aplica mediante f en v +W2 . Por tanto, f es sobreyectiva. Calculemos su
núcleo:

ker f = {v + W1 | v + W2 = 0 + W2 } = {v + W1 | v ∈ W2 } = W2 /W1 .

Por el primer teorema de isomorfía,

(V /W1 )/(W2 /W1 ) ≃ V /W2 .

Teorema de isomorfismo de retículos

Sea W un subespacio vectorial de V . Existe una biyección entre los


subespacios vectoriales de V que contienen a W y los subespacios vec-
toriales de V /W . Además, si U1 ,U2 ⊂ V son subespacios vectoriales que
contienen a W , entonces

U1 /W +U2 /W = (U1 +U2 )/W,U1 /W ∩U2 /W = (U1 ∩U2 )/W.

P RUEBA : Llamemos

A = {U ⊂ V | U es un subespacio vectorial tal que W ⊂ U }

y sea B el conjunto de subespacios vectoriales de V /W . Definimos la aplica-


ción Φ : A → B que asocia a cada U ∈ A el subespacio U /W . Esto tiene sentido
porque W ⊂ U . Vamos a probar que Φ es una aplicación biyectiva.
Φ es inyectiva. Sean U1 ,U2 subespacios vectoriales de V que contienen a
W , tales que U1 /W = U2 /W . Sea u1 ∈ U1 . Entonces existe u2 ∈ U2 tal que
u1 +W = u2 +W , de donde u1 − u2 ∈ W ⊂ U2 . Entonces existe u′2 ∈ U2 con
u1 = u2 + u′2 ∈ U2 , y hemos probado que U1 ⊂ U2 . Por simetría, se tiene
que U2 ⊂ U1 , y hemos probado que U1 = U2 .

220 Álgebra Lineal y Geometría


Depto. de Álgebra

Φ es sobreyectiva. Sea Ũ un subespacio vectorial de V /W . Definimos el


conjunto U = {v ∈ V | v +W ∈ Ũ }. Vamos a probar que U es un subespacio
vectorial de V que contiene a W . Sean v1 , v2 ∈ U , y α ∈ K. Entonces

• v1 + v2 ∈ U , porque (v1 + v2 ) + W = (v1 + W ) + (v2 + W ) ∈ Ũ ,


• αv1 ∈ U , porque (αv1 ) + W = α(v1 + W ) ∈ Ũ .

Por otro lado, si w ∈ W , entonces w + W = 0 + W ∈ Ũ , por lo que W ⊂ U .


Además, es claro que Φ(U ) = Ũ .

Tenemos así la correspondencia biyectiva, y podemos identificar todo subespa-


cio vectorial de V /W como uno de la forma U /W , con U subespacio vectorial
de V que contiene a W . Veamos las igualdades para la suma y la intersección.

U1 /W +U2 /W = (U1 +U2 )/W . Sea u +W ∈ U1 /W +U2 /W . Entonces exis-


ten u1 ∈ U1 , u2 ∈ U2 tales que u+W = (u1 +W )+(u2 +W ) = (u1 +u2 )+W ∈
(U1 +U2 )/W . De igual forma, si u +W ∈ (U1 +U2 )/W , existen u1 ∈ U1 , u2 ∈
U2 con u + W = (u1 + u2 ) + W = (u1 + W ) + (u2 + W ) ∈ U1 /W +U2 /W .

U1 /W ∩U2 /W = (U1 ∩U2 )/W . Sea u +W ∈ U1 /W ∩U2 /W . Entonces exis-


ten u1 ∈ U1 , u2 ∈ U2 tales que u +W = u1 +W = u2 +W , y podemos escri-
bir
u = u1 + w1 = u2 + w2 , con w1 , w2 ∈ W.
Esto significa que u1 = u2 + (w2 − w1 ) ∈ U2 , porque W ⊂ U2 , y llegamos a
que u 1 ∈ U1 ∩U2 . Por tanto, u +W ∈ (U1 ∩U2 )/W . Por otro lado, si u +W ∈
(U1 ∩U2 )/W , entonces existe u′ ∈ U1 ∩U2 tal que u +W = u′ +W . Por ello,
u + W ∈ U1 /W ∩U2 /W .

6.7. Cambio de base y homomorfismos


Cuando asociamos una matriz a un homomorfismo f : V → V ′ , la condición
inicial era el fijar unas bases en los espacios vectoriales. Es natural preguntarse
qué le ocurre a la matriz si se cambian las bases. Sean n = dimV, m = dimV ′ y
consideremos entonces bases B1 , B2 en V , y bases B1′ , B2′ en V ′ . Por un lado,
tenemos la matriz del homomorfismo f respecto de las bases B1 y B1′ , que
notamos por
MB1 ,B ′ ( f ).
1

Álgebra Lineal y Geometría 221


Depto. de Álgebra

Por otro, el homomorfismo f tiene otra matriz asociada respecto de las bases
B2 y B2′ , que es
MB2 ,B ′ ( f ).
2

Partimos del diagrama


f
VO /V′

idV idV ′
f 
V /V′
que simplemente representa la igualdad f = idV ◦ f ◦idV ′ . Recordemos dos cues-
tiones que hemos visto:
La composición de aplicaciones lineales se traduce, al tomar bases en ca-
da espacio, en el producto de matrices.

La matriz de cambio de base en un espacio vectorial es la matriz de la


aplicación identidad respecto de dichas bases:
MB2 ,B1 (idV ) = M(B2 , B1 ), MB ′ ,B ′ (idV ′ ) = M(B1′ , B2′ ).
1 2

Al tomar coordenadas, obtenemos el diagrama


B1 B1′
MB ′ (f )
1 ,B1
KO n / Km

M(B2 ,B1 ) M(B1′ ,B2′ )


MB ′ (f ) 
2 ,B2
Kn / Km
B2 B2′
que se traduce en el resultado

Cambio de base y homomorfismos

MB2 ,B ′ ( f ) = M(B1′ , B2′ ) · MB1 ,B ′ ( f ) · M(B2 , B1 ),


2 1

M B1 ,B1′ (f ) = M(B2′ , B1′ ) · MB2 ,B ′ ( f ) · M(B1 , B2 ).


2

Recordemos que ya habíamos hablado de la equivalencia de matrices (pág.


71): dos matrices A, B de orden m × n son equivalentes si existen matrices no
singulares P m×m ,Q n×n tales que B = P AQ. ¿Qué relación podemos establecer
entre este concepto matricial y los homomorfismos? La respuesta es la siguien-
te proposición.

222 Álgebra Lineal y Geometría


Depto. de Álgebra

Interpretación de la equivalencia de matrices

Sean A, B matrices de orden m × n, con coeficientes en un cuerpo K.


Entonces A y B son matrices equivalentes si y solamente si existen ba-
ses B1 , B2 de V = Kn y bases B1′ , B2′ de V ′ = Km , y un homomorfismo
f : V → V ′ , tales que

A = MB1 ,B ′ ( f ), B = MB2 ,B ′ ( f ).
1 2

P RUEBA :
(⇐) Esta implicación ya la tenemos, sin más que tomar P y Q las matrices de
cambio de base.

(⇒) Fijamos S base estándar en Kn , y S ′ base estándar en Km . Definimos


f : Kn → Km como f (v ) = A v . Sabemos que
A = MS ,S ′ ( f ).
Por hipótesis, existen P m×m ,Q n×n no singulares tales que B = P AQ. En-
tonces se tiene que

• las columnas de la matriz P −1 forman una base B2′ de Km , y


• las columnas de la matriz Q forman una base B2 de Kn .

La matriz del cambio de base M(B2 , S ) es precisamente Q, y la matriz


del cambio de base M(S ′ , B2′ ) es igual a P . Entonces
B = P AQ = M(S ′ , B2′ ) · MS ,S ′ ( f ) · M(B2 , S )
= MB2 ,B ′ ( f ).
2

Ejemplo 6.7.1.- Vamos a considerar de nuevo el ejemplo de la página 217,


donde f : R4 → R3 está definida con respecto a la base estándar de cada espacio
por la matriz  
1 2 3 4
 
 2 4 6 7 .
MS ,S ′ ( f ) = A =  

1 2 3 6

Álgebra Lineal y Geometría 223


Depto. de Álgebra

Allí vimos que con respecto a las bases


       
1 0 −2 −3
 0   0   1   0 
       
B = {u1 =   , u2 =   , u3 =   , u4 =  },
 0   0   0   1 
0 1 0 0
     
1 4 0

B = { f (u1 ) = 2 , f (u2 ) = 7 , w3 = 0 }
    
1 6 1
se tiene que
 
1 0 0 0
MB,B ′ ( f ) =  0 1 0 0  = N .
0 0 0 0
Esto significa que existe una relación de la forma

A = M(B ′ , S ′ )MB,B ′ ( f )M(S , B).

Tenemos que
 
1 0 −2 −3
 
¡ ¢  0 0 1 0 
 
M(B, S ) = [u1 ]S [u2 ]S [u3 ]S [u4 ]S =  = Q1,
 0 0 0 1 
 
0 1 0 0
 
1 4 0
′ ′
¡ ¢  
M(B , S ) = [ f (u1 )]S ′ [ f (u2 )]S ′ [w 3 )]S ′ =
 2 7 0  = P1.

1 6 1

Por tanto, A = P 1 NQ 1−1 o bien N = P 1−1 AQ 1 . En general, vemos así que el cam-
bio de base y el primer teorema de isomorfía permiten probar el teorema de la
forma normal del rango (pág. 74).

6.8. * Espacio dual


6.8.1. * Base dual
Dado V un K-espacio vectorial, podemos considerar el conjunto de aplica-
ciones lineales f : V → K, que se denominan formas lineales. El propio cuerpo

224 Álgebra Lineal y Geometría


Depto. de Álgebra

K tiene estructura de K-espacio vectorial, y el conjunto Hom(V, K) es un K-


espacio vectorial, de dimensión igual a dimV .

Espacio dual

El conjunto de las formas lineales Hom(V, K) se denomina espacio dual


de V , y lo notaremos por V ∗ .

Ejemplo 6.8.1.- Sea V = R2 , y fijemos la base estándar S . Cada forma lineal


f : V → R está determinada por los valores f (e1 ) y f (e2 ). En concreto, tomemos
las formas f i : V → R, i = 1, 2 dadas por

f 1 (e1 ) = 1, f 1 (e2 ) = 0, f 2 (e1 ) = 0, f 2 (e2 ) = 1.

Cualquier otra forma lineal f se puede expresar como

f = f (e1 ) f 1 + f (e2 ) f 2 .

Sabemos que si V es de dimensión finita, entonces V ∗ es isomorfo al espa-


cio de matrices de orden 1 × n (matrices fila). Uno de los elementos de V ∗ es la
aplicación lineal 0∗ : V → K, definida por 0∗ (v ) = 0 para todo v ∈ V .

Base dual

Sea V un K-espacio vectorial de dimensión finita, y B = {u1 , . . . , un }


una base de V . La base dual de B es el conjunto B ∗ = {u∗1 , . . . , u∗n } de
formas lineales definidas por
½
1 si i = j ,
u∗i (u j ) =
0 si i 6= j.

Álgebra Lineal y Geometría 225


Depto. de Álgebra

En el ejemplo anterior hemos calculado la base dual de S en R2 . Hay que


justificar el nombre de base que hemos dado a este conjunto. En efecto, consi-
deremos una combinación lineal
n
X
αi u∗i = 0∗ .
i =1

Para cada j = 1, . . . , n, se tiene que


n
X
0 = 0∗ (u j ) = αi u∗i (u j ) = α j · 1
i =1

de donde los escalares αi = 0 para cada i = 1, . . ., n. Por tanto, B ∗ es un conjunto


linealmente independiente. Por otro lado, sea f ∈ V ∗ , que queda definido por
los valores f (ui ), i = 1, . . . , n. Entonces es claro que
n
X
f = f (ui )u∗i .
i =1

Ejemplo 6.8.2.- Consideremos la base B = {u1 , u2 , u3 } de R3 dada por


     
1 2 0
u1 =  −1  , u2 =  1  , u3 =  −1  .
0 1 1

Queremos calcular cada una de las matrices fila asociadas a las aplicaciones
lineales u∗i , i = 1, 2, 3. Sea
¡ ¢
u∗i = ai 1 ai 2 ai 3 , i = 1, 2, 3.

Entonces para u∗1 nos quedan las relaciones


     
¡ ¢ 1 ¡ ¢ 2 ¡ ¢ 0
ai 1 ai 2 ai 3  −1  = 1, ai 1 ai 2 ai 3  1  = 0, ai 1 ai 2 ai 3  −1  = 0.
0 1 1

En forma matricial es lo mismo que


   
¡ ¢ 1 2 0 1
ai 1 ai 2 ai 3  −1 1 −1  =  0  .
0 1 1 0

226 Álgebra Lineal y Geometría


Depto. de Álgebra

Si procedemos de forma análoga con u∗2 y u∗3 , y lo unificamos con lo anterior,


obtenemos la expresión
      
a11 a12 a13 1 2 0 1 1 0 0
 a21 a22 a23   −1 1 −1  =  0  =  0 1 0  .
a31 a32 a33 0 1 1 0 0 0 1
El cálculo se reduce a obtener la inversa de la matriz cuyas columnas son los
vectores dados. En este caso,
 
   −1 1/2 −1/2 −1/2
a11 a12 a13 1 2 0  
 a21 a22 a23  =  −1 1 −1  =  1/4 1/4 1/4 .
 
a31 a32 a33 0 1 1
−1/4 −1/4 3/4
Por tanto, podemos escribir
1 1 1 1 1 1 1 1 3
u 1∗ (x) = x1 − x2 − x3 , u 2∗ (x) = x1 + x2 + x3 , u∗3 (x) = − x1 − x2 + x3 .
2 2 2 4 4 4 4 4 4

Este ejemplo nos proporciona un método de cálculo de la base dual, fijada


una base.

Cálculo de la base dual

Entrada: B = {u1 , . . . , un } base de V , S base de V respecto a la que to-


mamos coordenadas.
Salida: B ∗ base dual de B.

1. Construimos la matriz A = (ai j ) de las coordenadas de los vecto-


res ui respecto de S .

2. Cálculo de A −1 .

3. La fila i -ésima de A −1 es la matriz fila asociada a u∗i respecto de


la base S .

P RUEBA : La matriz A es no singular, porque B¡ es una base. Si ¢ la matriz


asociada a u∗i respecto de la base S es la matriz fila b i 1 . . . b i n , entonces
 
a1j ½
¡ ¢ .  1 si i = j ,
b i 1 . . . b i n  ..  =
0 si i 6= j.
an j

Álgebra Lineal y Geometría 227


Depto. de Álgebra

Esto significa que la matriz fila asociada a cada u∗i es la fila i -ésima de A −1 . 

Ejemplo 6.8.3.- Consideremos las formas lineales g i : R3 → R.i = 1, 2, 3 dadas


por las matrices fila
¡ ¢ ¡ ¢ ¡ ¢
[g 1 ]S = 1 −1 1 , [g 2 ]S = 1 0 1 , [g 2 ]S = 2 1 3

respecto de la base estándar S . Vamos a probar que C = {g 1 , g 2 , g 3 } es una base


del espacio dual (R3 )∗ . Para ello, bastará comprobar que son linealmente inde-
pendientes, y lo haremos construyendo la matriz de coordenadas respecto de
la base S ∗ de (R3 )∗ . Es inmediato que

g 1 = 1 · e∗1 + (−1) · e∗2 + 1 · e∗3 , g 2 = 1 · e∗1 + 0 · e∗2 + 1 · e∗3 , g 3 = 2 · e∗1 + 1 · e∗2 + 3 · e∗3 ,

y la matriz de coordenadas es no singular. Por tanto, son linealmente indepen-


dientes, y como la dimensión de (R3 )∗ es 3, forman una base.
Una pregunta adicional es calcular la base B de R3 tal que su dual B ∗ es
igual a C . Por el método anterior, la matriz
 
1 −1 1
C = 1 0 1 
2 1 3

es de la forma A −1 , donde A es la matriz de coordenadas respecto a la base


estándar S de la base buscada. Entonces
 
−1 4 −1
 
A = C −1 = 
 −1 1 0 
,
1 −3 1

y esto significa que la base B = {u1 , u2 , u3 } dada por


     
−1 4 −1
     
 −1  , u2 =  1  , u3 =  0 
u1 =      

1 −3 1

cumple que B ∗ = C .

228 Álgebra Lineal y Geometría


Depto. de Álgebra

6.8.2. * Interpretación de la matriz traspuesta


Sea f : V1 → V2 un homomorfismo de K-espacios vectoriales. Para cada for-
ma lineal ϕ : V2 → K podemos construir la forma lineal ϕ ◦ f : V1 → K, y esto
define una aplicación f ∗ : V2∗ → V1∗ .

Aplicación traspuesta

Dado un homomorfismo f : V1 → V2 , la aplicación f ∗ : V2∗ → V1∗ defini-


da por f ∗ (ϕ) = ϕ◦ f es un homomorfismo entre los espacios vectoriales
duales.
Además, si B y C son bases respectivas de V1 y V2 , se verifica que

MB ∗ C ∗ ( f ∗ ) = MBC ( f )t .

Demostración. Sean ϕ1 , ϕ2 ∈ V2∗ , y a1 , a2 ∈ K. Debemos probar que

f ∗ (a1 ϕ1 + a2 ϕ2 ) = a1 f ∗ (ϕ1 ) + a2 f ∗ (ϕ2 ).

Para ello, tomemos v ∈ V1 . Entonces

f ∗ (a1 ϕ1 + a2 ϕ2 )(v ) = (a1 ϕ1 + a2 ϕ2 ) ◦ f (v )


= a1 (ϕ1 ◦ f )(v ) + a2 (ϕ2 ◦ f )(v )
= (a1 f ∗ (ϕ1 ) + a2 f ∗ (ϕ2 ))(v ).

Notemos B = {u1 , . . . , un }, C = {w1 , . . . , wm }. Sabemos que


¡ ¢
MBC = [ f (u1 )]C . . . [ f (un )]C .

Debemos calcular las coordenadas de f ∗ (wi∗ ) respecto de la base B ∗ . El homo-


morfismo f ∗ (wi∗ ) = wi∗ ◦ f tiene asociada en la base B la matriz

(wi∗ ◦ f )B = (wi∗ )C MBC ( f ).

Sabemos que (wi∗ )C = eit , por lo que las coordenadas buscadas la forman la fila
i -ésima de la matriz A. Esta fila es la columna i -ésima de la matriz buscada, de
donde tenemos el resultado.

Álgebra Lineal y Geometría 229


Depto. de Álgebra

230 Álgebra Lineal y Geometría


Capítulo 7

Forma canónica

7.1. Endomorfismos

Supongamos ahora que f : V → V es un endomorfismo de un espacio vec-


torial V de dimensión n. Si fijamos la misma base B1 en origen y destino, la
matriz de f se escribe como MB1 ,B1 ( f ), que abreviaremos como MB1 ( f ). Si
ahora cambiamos a una base B2 , el teorema de cambio de base y homomorfis-
mos (pág. 222) nos dice que

MB2 ( f ) = M(B1 , B2 )MB1 ( f )M(B2 , B1 ),

por el diagrama

B1 B1
MB1 ( f )
KO n / Kn

M(B2 ,B1 ) M(B1 ,B2 )


MB2 ( f ) 
Kn / Kn
B2 B2

Si llamamos

A = MB1 ( f ), B = MB2 ( f ), P = M(B2 , B1 ),

obtenemos la igualdad B = P −1 AP .

231
Depto. de Álgebra

Semejanza de matrices

Sean A, B matrices cuadradas de orden n. Decimos que A y B son se-


mejantes si existe P no singular tal que

B = P −1 AP.

Ejemplo 7.1.1.- Consideremos las matrices

1 1 1 1 0 0
   

A =  0 2 1 ,B =  0 2 0 .
0 0 3 0 0 3

Entonces A y B son semejantes, pues para

1 1 1
 

P =  0 1 1  se tiene que B = P −1 AP.


0 0 1

La matriz P no es única. Por ejemplo, para

1 1 7
 

Q =  0 1 7  también se tiene que B = Q −1 AQ.


0 0 7

La relación de semejanza es de equivalencia:

Reflexiva. Basta considerar P = I .

Simétrica. Si B = P −1 AP , entonces A = P BP −1 = Q −1 BQ, con Q = P −1 .

Transitiva. Si B = P −1 AP y C = Q −1 BQ, entonces

C = Q −1 BQ = Q −1 P −1 APQ = R −1 AR,

para R = PQ, que es no singular.

232 Álgebra Lineal y Geometría


Depto. de Álgebra

Desde el punto de vista de los homomorfismos, dos matrices son semejan-


tes si y solamente si representan el mismo endomorfismo con respecto a dife-
rentes bases, lo que es consecuencia inmediata de la interpretación de la equi-
valencia de matrices (página 222). Buscamos, por ello, invariantes de f que no
dependan de la base elegida. El primero es el siguiente.

Determinante de un endomorfismo

Sea f : V → V un endomorfismo de un K-espacio vectorial de dimen-


sión finita, y A una matriz de f respecto de cualquier base. Definimos
el determinante de f como

det( f ) = det(A).

La definición anterior no depende de la base elegida, pues si B es la matriz de


f respecto de otra base, existe P no singular tal que B = P −1 AP , de donde

det(B) = det(P −1 AP ) = det(P −1 ) det(A) det(P ) = det(A).

Ejemplo 7.1.2.- Las matrices

1 0 1 0
µ ¶ µ ¶
A= ,B =
2 −1 2 2

no son semejantes, pues det(A) 6= det(B). Por tanto, la igualdad de determinan-


te es una condición necesaria de semejanza.

El objetivo de este capítulo es caracterizar las clases de equivalencia que se


tienen en el conjunto de los endomorfismos mediante la semejanza de matri-
ces. La forma de abordar el problema es mediante la construcción de una base
respecto de la cual un endomorfismo dado tenga una matriz lo más sencilla
posible. La primera forma en la que pensamos es la diagonal.

Álgebra Lineal y Geometría 233


Depto. de Álgebra

7.2. Autovalores y autovectores

Subespacio invariante

Sea f : V → V un endomorfismo de un K-espacio vectorial. Un subes-


pacio W ⊂ V se denomina invariante por f si f (W ) ⊂ W .

Ejemplo 7.2.1.- Si f : V → V es un endomorfismo, entonces los subespacios V


y 0 son invariantes, así como im( f ) y ker( f ).

Ejemplo 7.2.2.- Sea V = R3 y f : V → V el endomorfismo definido por f (v ) =


A v , con
2 −2 4
 

A= 1 0 11  .
0 0 3
Entonces el subespacio W = 〈w1 = e1 + e2 , w2 = e1 〉 es invariante, porque

f (W ) = 〈 f (w1 ), f (w2 )〉 = 〈e2 , 2e1 + e2 〉,

y
rango w1 w2 f (w1 ) f (w2 ) = 2.
¡ ¢

234 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 7.2.3.- Sea V = R2 y consideremos el endomorfismo f de V definido


como µ ¶ µ ¶
x1 x2
7→ .
x2 −x1
Sea W un subespacio propio de V invariante por f . Entonces dimW = 1 y existe
w ∈ V tal que W = 〈w 〉. Por el carácter invariante de W , se sigue que existe un
número real c tal que f (w ) = c w . Si
µ ¶ µ ¶ µ ¶
w1 cw 1 w2
w= entonces = .
w2 cw 2 −w 1

De aquí se tiene que w 1 c 2 = −w 1 , por lo que w 1 = w 2 = 0. Por tanto, f no tiene


subespacios propios invariantes.

Nota 7.2.1. En este punto, nos podemos preguntar qué nos aportan los subes-
pacios invariantes de un endomorfismo f : V → V , con V de dimensión finita
n. Supongamos que hemos descompuesto V = W1 ⊕ W2 , con W1 ,W2 subespa-
cios propios de V invariantes. Si

B1 = {u1 , . . . , ur }, B2 = {v1 , . . . , vs }, r + s = n

son bases respectivas de W1 y W2 , entonces B = B1 ∪ B2 es una base de V .


Vamos a ver qué forma tiene la matriz de f respecto de B. Para ello, debemos
calcular las coordenadas respecto de B de las imágenes mediante f de los vec-
tores de B. Observemos que
r
X s
X
f (u j ) = b i j ui , porque f (W1 ) ⊂ W1 , y f (vk ) = ci k vi , porque f (W2 ) ⊂ W2 .
i =1 i =1

Entonces la matriz de f respecto de la base B tiene la forma

0
µ ¶
B r ×r
MB ( f ) = ,
0 C s×s

que es diagonal por cajas. Esta matriz será más sencilla cuando encontremos
subespacios invariantes de la menor dimensión posible.
Comenzamos así examinando las propiedades de los espacios invariantes
de dimensión 1. La definición siguiente es fundamental para todo el desarrollo
del tema.

Álgebra Lineal y Geometría 235


Depto. de Álgebra

Autovalores y autovectores

Sea f : V → V un endomorfismo de K-espacios vectoriales. Se dice que


un vector no nulo v ∈ V es un autovector o vector propio de f si existe
un escalar λ ∈ K tal que f (v ) = λv . En este caso, dicho escalar λ recibe
el nombre de autovalor o valor propio.
Fijado un autovalor λ, denotaremos por

V1 (λ) = {v ∈ V | f (v ) = λv },

que se denomina espacio de autovectores de λ.

Ejemplo 7.2.4.- Sea f : C3 → C3 el endomorfismo definido por f (v ) = A v ,


donde
0 −1 0
 

A= 1 0 0 .
0 0 3
El vector  
i
v =  1  verifica f (v ) = i v ,
0
por lo que v es un autovector, con autovalor asociado λ = i . El vector e3 es
autovector de f , con autovalor asociado µ = 3, pues f (e3 ) = 3e3 . Se tiene que

V1 (λ) = 〈v 〉,V1 (µ) = 〈e3 〉.

Observemos que si consideramos el endomorfismo g : R3 → R3 definido por la


misma matriz, entre R-espacios vectoriales, el vector v no tiene sentido aquí,
pues λ 6∈ R, pero el vector e3 sigue siendo autovector. En este punto profundi-
zaremos más adelante, pero ya vemos que el espacio base (y el cuerpo) tienen
mucho que decir respecto a los autovalores y autovectores.

El conjunto V1 (λ) contiene los autovectores asociados a λ junto al vector


nulo. Por abuso de lenguaje, se habla de V1 (λ) como el espacio de autovectores
asociado a λ, pero hay siempre que recordar que los autovectores son no nulos.
Veamos algunas propiedades de este subespacio y los autovalores.

236 Álgebra Lineal y Geometría


Depto. de Álgebra

Caracterización de autovalores y autovectores

Sea f : V → V un endomorfismo en un espacio K-espacio vectorial de


dimensión n y A su matriz respecto de una base. Dado λ ∈ K, se verifica:

1. V1 (λ) = ker( f − λ idV ) = null(A − λI ).

2. V1 (λ) es un subespacio vectorial invariante por f de dimensión

n − dim[im( f − λ idV )] = n − rango(A − λI n ).

3. λ es autovalor de f si y solamente si det(A − λI ) = 0.

P RUEBA :
1. Un vector v pertenece a V1 (λ) si y solamente si f (v ) = λv . Si llevamos
todos los elementos al primer miembro, esta expresión es equivalente a
( f − λ idV )(v ) = 0, o bien que v ∈ ker( f − λ idV ).

2. Como es el núcleo de un endomorfismo, es un subespacio vectorial. Ade-


más, por la fórmula de la dimensión

dim ker( f − λ idV ) = n − dimim( f − λ idV ) = n − rango(A − λI n ),

porque la matriz del endomorfismo f − λ idV es A − λI n respecto de la


base dada. Además, es invariante, pues si v ∈ V1 (λ), entonces f (v ) = λv ∈
V1 (λ).

3. El escalar λ es autovalor si y solamente si existe un vector no nulo v ∈ V


tal que f (v ) = λv , esto es, el sistema homogéneo (A −λI n )x = 0 tiene una
solución no trivial, que es lo mismo que det(A − λI n ) = 0.


Polinomio característico

Sea f : V → V un endomorfismo de un espacio vectorial de dimensión


finita. El polinomio característico de f es el determinante

p(λ) = det( f − λ idV ).

Álgebra Lineal y Geometría 237


Depto. de Álgebra

Para el cálculo del polinomio característico de un endomorfismo basta tomar


cualquier matriz que lo represente: si A y B representan a f respecto a distintas
bases, entonces son semejantes, es decir B = P −1 AP . Por ello,

det(B − λI ) = det(P −1 AP − λI ) = det(P −1 (A − λI )P ) = det(A − λI ).

El polinomio característico es un polinomio con coeficientes en el cuerpo base,


de grado n = dimV . El teorema anterior nos proporciona un método para cal-
cular los autovalores de un endomorfismo f , y, a partir de ellos, los subespacios
de autovectores.

Cálculo de los autovalores y autovectores de un endomorfismo

Sea f : V → V un endomorfismo, y A su matriz respecto de una base.

Calcule el polinomio característico p(λ) = det(A − λI ).

Obtenga las raíces distintas λ1 , . . . , λs en K. Notaremos σ(A) =


{λ1 , . . . , λs }.

Para cada i = 1, . . . , s, resuelva el sistema lineal homogéneo

(A − λi I )x = 0.

El conjunto de soluciones forman el subespacio se autovectores


asociado al autovalor λi .

Ejemplo 7.2.5.- Consideremos el endomorfismo f : R3 → R3 cuya matriz res-


pecto de la base estándar es

1 −1 4
 
 
A=
 3 2 −1 .

2 1 −1

El polinomio característico es

1 − λ −1 4
 

 = −6 + 5 λ + 2 λ2 − λ3 ,
 
 3
p(λ) = det  2−λ −1 
2 1 −1 − λ

238 Álgebra Lineal y Geometría


Depto. de Álgebra

cuya factorización es p(λ) = (1 − λ)(−2 − λ)(3 − λ). Por tanto, los autovalores de
f son
λ1 = 1, λ2 = 3, λ3 = −2.
Todas las raíces son reales, por lo que obtenemos tres subespacios de autovec-
tores. El cálculo de cada uno de ellos se reduce a la resolución de un sistema
lineal homogéneo.

V1 (λ1 ) = null(A − λ1 I ).

0 −1 4 1 0 1
   
  x1 = −x3 ,

  G-J 
A − λ1 I =  3 1 −1  −→  0 1 −4 
  
 ⇒  x2 = 4x3 ,
x3 = x3 .
2 1 −2 0 0 0

Entonces  
−1
 
 4 〉.
V1 (λ1 ) = 〈v11 =  

V1 (λ2 ) = null(A − λ2 I ).

−2 −1 4 1 0 −1
   
  x1 = x3 ,

  G-J 
A − λ2 I =  3 −1 −1  −→  0 1 −2  ⇒  x2 = 2x3 ,
  
x3 = x3 .
2 1 −4 0 0 0

Por tanto,
1
 
 
 2 〉.
V1 (λ2 ) = 〈v21 =  

V1 (λ3 ) = null(A − λ3 I ).

3 −1 4 1 0 1
   
  x1 = −x3 ,

  G-J 
 3 4 −1  −→  0 1 −1  ⇒  x2 = x3 ,
A − λ3 I =    
x3 = x3 .
2 1 1 0 0 0

Luego  
−1
 
 1 〉.
V1 (λ3 ) = 〈v31 =  

Álgebra Lineal y Geometría 239


Depto. de Álgebra

Nota 7.2.2. A la hora de calcular las raíces del polinomio característico, se pue-
de tomar como punto de partida el polinomio det(λI − A). Cuando la dimen-
sión del espacio es par, obtenemos el polinomio característico, y si es impar,
su opuesto. Las raíces son las mismas, por lo que es indiferente la elección. Lo
mismo podemos decir a la hora de calcular los espacios null(A − λi I ), pues son
iguales a null(λi I − A).
¿Hay alguna relación entre los subespacios de autovectores asociados a au-
tovalores distintos? La respuesta a esta cuestión nos hará falta más adelante.

Suma directa de subespacios de autovectores

Sea f : V → V un endomorfismo con autovalores λ1 , . . . , λs distintos dos


a dos. Entonces la suma

W = V1 (λ1 ) + · · · + V1 (λs )

es directa.

P RUEBA : La prueba es por inducción sobre s. Para s = 1 no hay nada que probar.
Supongamos que es cierto para s −1 y consideremos una expresión de la forma

v1 + · · · + vs−1 + vs = 0, donde vi ∈ V1 (λi ), i = 1, . . ., s. (7.2.1)

Si aplicamos f a ambos miembros de esta igualdad, obtenemos

0 = f (v1 + · · · + vs−1 + vs ) (7.2.2)


= λ1 v1 + · · · + λs−1 vs−1 + λs vs . (7.2.3)

Si multiplicamos la ecuación (7.2.1) por λs , entonces

0 = λs v1 + · · · + λs vs−1 + λs vs , (7.2.4)

y ahora restamos ambas expresiones:

(λs − λ1 )v1 + · · · + (λs − λs−1 )vs−1 = 0.

Hemos llegado a una expresión de vectores de V1 (λ1 ), . . . ,V1 (λs−1 ) igual a 0. Por
la hipótesis de inducción,

(λs − λ1 )v1 = 0, . . . , (λs − λs−1 )vs−1 = 0,

240 Álgebra Lineal y Geometría


Depto. de Álgebra

y como, por hipótesis, los coeficientes λs − λ j 6= 0, j = 1, . . . , s − 1, se sigue que


v1 = · · · = vs−1 = 0. Si volvemos a la ecuación (7.2.1), tenemos finalmente que
v s = 0. 

Nota 7.2.3. Otra forma de interpretar el resultado anterior es que si Bi es base


del subespacio V1 (λi ), entonces el conjunto is=1 Bi es linealmente indepen-
S

diente. Un caso especialmente importante se tiene si esta unión es base del


espacio total.

7.3. Multiplicidad algebraica y geométrica


A partir de ahora consideraremos espacios vectoriales de dimensión finita.

Multiplicidad algebraica y geométrica

Sea f : V → V un endomorfismo, y λ0 un autovalor de f .

La multiplicidad algebraica m 0 de λ0 es la multiplicidad como


raíz del polinomio característico de f .

La multiplicidad geométrica q 0 de λ0 es la dimensión del subes-


pacio de autovectores asociado V1 (λ0 ).

Si fijamos una base en V y A es la matriz asociada a f , es claro que

q 0 = dimV1 (λ0 ) = dim[ker( f −λ0 idV )] = dim[null(A−λ0 I n )] = n−rango(A−λ0 I ).

El valor de la multiplicidad geométrica no depende de la base elegida, porque


si B es semejante a A, entonces B = P −1 AP y B −λ0 I = P −1 (A −λ0 I )P , de donde
los rangos son iguales.

Ejemplo 7.3.1.- Consideremos el endomorfismo f : R3 → R3 definido como


f (v ) = A v , con la matriz

1 −4 −4
 

A =  8 −11 −8  .
−8 8 5

Álgebra Lineal y Geometría 241


Depto. de Álgebra

Su polinomio característico es (1 − λ)(λ + 3)2 . Entonces λ1 = 1 tiene multipli-


cidad algebraica m 1 = 1, y el autovalor λ2 = −3 tiene multiplicidad algebraica
m 2 = 2. Vamos a calcular los espacios V1 (λ1 ),V1 (λ2 ).

0 −4 −4 1 0 1/2
    
 x1 = −1/2x3
A − λ1 I =  8 −12 −8 → 0 1  1 → x2 = −x3

8 4 0 0 0 x3 = x3

−8
 
−1/2
null(A − λ1 I ) = 〈v11 〉, donde v11 =  −1  .
1

Para V1 (λ2 ) tenemos

4 −4 −4 1 −1 −1
    
 x1 = x2 + x3
A − λ2 I =  8 −8 −8 → 0   0 0 → x2 = x2 ,

8 8 0 0 0 x =x

−8
3  3
1 1
 

null(A − λ2 I ) = 〈v21 , v22 〉, donde v21 =  1  , v22 =  0  .


0 1

Entonces q 1 = dimV1 (λ1 ) = 1, q 2 = dimV1 (λ2 ) = 2.

Hay una relación fundamental entre ambas multiplicidades.

Desigualdad entre la multiplicidad geométrica y algebraica

Sea f : V → V un endomorfismo, y λ0 un autovalor de f . Entonces

1 ≤ q0 ≤ m0.

P RUEBA : Como q 0 es la dimensión de un espacio vectorial no nulo, es claro que


q 0 ≥ 1. Consideremos una base B0 de V1 (λ0 ), que tiene q 0 vectores, y la prolon-
gamos a una base B de V . Entonces la matriz de la aplicación lineal respecto a
la nueva base B es de la forma
µ ¶
′ D0 M
A = , (7.3.1)
0 Q

242 Álgebra Lineal y Geometría


Depto. de Álgebra

donde D 0 es una matriz diagonal de orden q 0 con entradas iguales a λ0 . El po-


linomio característico de f es igual entonces a (λ0 −λ)q0 det(Q −λI ), por lo que
la multiplicidad algebraica de λ0 es mayor o igual que q 0 .


7.4. Matrices diagonalizables

Matriz y endomorfismo diagonalizable

Sea A una matriz cuadrada. Decimos que es una matriz diago-


nalizable si existe una matriz P no singular tal que P −1 AP = D,
con D una matriz diagonal. Esto es, A es semejante a una matriz
diagonal.

Sea f : V → V un endomorfismo. Decimos que f es un endomor-


fismo diagonalizable si existe una base B de V tal que la matriz
de f respecto a B sea diagonal.

Nota 7.4.1. Dada una matriz A n×n , con coeficientes en un cuerpo K, podemos
definir el endomorfismo T A : Kn → Kn como T A (u) = A u. Si S es la base están-
dar de Kn , sabemos que MS (T A ) = A. Si A es una matriz diagonalizable, existe
P no singular tal que P −1 AP = D, con D matriz diagonal. Las columnas de la
matriz P forman una base B de Kn , y lo anterior nos dice que MB (T A ) = D,
esto es, el endomorfismo T A es diagonalizable.
Recíprocamente, si T A es diagonalizable, existe una base B respecto de la
cual MB (T A ) es una matriz diagonal. Sea P = M(B, S ) la matriz de paso de la
base B a la base estándar S , que es no singular. Entonces

MB (T A ) = M(S , B)MS (T A )M(B, S ) = P −1 AP,

de donde la matriz A es diagonalizable.


En consecuencia, el carácter diagonalizable de una matriz es equivalente al
carácter diagonalizable de su endomorfismo asociado.

Álgebra Lineal y Geometría 243


Depto. de Álgebra

Ejemplo 7.4.1.- El endomorfismo f : R3 → R3 dado por f (v ) = A v , con

1 −4 −4
 

A =  8 −11 −8 
−8 8 5

es diagonalizable. En el ejemplo de la página 241 calculamos los autovalores


λ1 = 3, λ2 = −3 y los vectores

1 1
     
−1/2
v11 =  −1  , v21 = 1 , v22 = 0  ,
  
1 0 1

que verifican las relaciones

f (v11 ) = λ1 v11 = 1 · v11 , f (v21 ) = λ2 v21 = (−3) · v21 , f (v22 ) = λ2 v22 = (−3) · v22 .

Sabemos que el conjunto B ′ = {v11 , v21 , v22 } es linealmente independiente. Por


tanto, forman una base, y

1
   
λ1
MB ′ ( f ) =  λ2 = −3 .
λ2 −3

Ejemplo 7.4.2.- Existen matrices no diagonalizables. Consideremos la matriz

0 1
µ ¶
A= , con un autovalor doble igual a cero.
0 0
³ ´
Si existe P no singular tal que P −1 AP = D = λ1 λ2 , entonces D tiene los mis-
mos autovalores que A. Por tanto, λ1 = λ2 = 0, de donde P −1 AP = O, lo que
implica que A = O.

El ejemplo anterior muestra el punto fundamental para determinar si una


matriz es o no diagonalizable.

244 Álgebra Lineal y Geometría


Depto. de Álgebra

Condición equivalente de endomorfismo diagonalizable

Un endomorfismo f : V → V es diagonalizable si y solamente si existe


una base de V formada por autovectores de f .

P RUEBA : Supongamos que existe una base B ′ = {v1 , . . . , vn } de V formada por


autovectores de f . Entonces existen escalares λ1, . . . , λn tales que f (vi ) = λi vi , i =
1, . . . , n. Vamos a calcular la matriz de f respecto de la base B ′ . Recordemos que
dicha matriz es igual a

MB ′ ( f ) = f (v1 )B ′ . . . f (vn )B ′ ,
¡ ¢

es decir, la matriz que se forma con la concatenación de las coordenadas de los


vectores f (vi ) respecto de la base B ′ . Es inmediato que

0 0
     
λ1
 0   λ2   0 
f (v1 )B ′ =  .. , f (v2 )B ′ =  .. , ..., f (vn )B ′ =  .. ,
     
 .   .   . 
0 0 λn

de donde
λ1 0 ... 0
 
 0 λ2 ... 0 
MB ′ ( f ) =  .. .. .. ..  = D,
 
 . . . . 
0 0 . . . λn
que es una matriz diagonal.
Recíprocamente, supongamos que f es diagonalizable. Entonces existe una
base B ′ = {v1 , v2 , . . . , vn } tal que

λ1 0 ... 0
 
 0 λ2 ... 0 
M (f ) =  .. .. .. .. .
 
B′
 . . . . 
0 0 . . . λn

Por el mismo razonamiento anterior, tenemos que f (vi ) = λi vi para todo i =


1, 2, . . . , n, esto es, los vectores vi son autovectores de f .


Vamos a relacionar este resultado con las multiplicidades algebraica y geo-


métrica. Sin embargo, antes vamos a reconsiderar un ejemplo.

Álgebra Lineal y Geometría 245


Depto. de Álgebra

Ejemplo 7.4.3.- Sea f : C3 → C3 el endomorfismo definido como f (v ) = A v ,


con
0 −1 0
 

A= 1 0 0 
0 0 3
Sabemos que los autovalores de f son λ1 = 3, λ2 = i , λ3 = −i , todos ellos de
multiplicidad algebraica igual a 1. Los autovectores asociados son
   
i −i
v1 = e3 , v2 =  1  , v3 =  1  ,
0 0

y el conjunto {v1 , v2 , v3 } es una base de C3 formada por autovectores. Por tanto,


f es diagonalizable.
Si consideramos ahora g : R3 → R3 el endomorfismo definido por la misma
matriz A, el único autovalor real es λ1 = 3, con multiplicidad algebraica igual a
1. Sin embargo, g no es diagonalizable.

En otras palabras, hay que tener presente el cuerpo base. Recordemos que
la suma de las multiplicidades algebraicas de los autovalores es menor o igual
que n, el grado del polinomio característico. Si todos los autovalores están en el
cuerpo base, entonces dicha suma es igual a n.

Igualdad de multiplicidades y diagonalización

Sea f : V → V un endomorfismo, y λ1 , . . . , λs sus autovalores distintos


en el cuerpo K. Entonces f es diagonalizable si y solamente si se verifi-
can las siguientes condiciones:

1. m 1 + · · · + m s = n.

2. m i = q i para todo i = 1, . . ., s.

P RUEBA : Si f es diagonalizable, entonces existe una base de V formada por


autovectores, que se obtiene uniendo bases de los espacios V1 (λi ), i = 1, . . . , s.
En consecuencia,
V = V1 (λ1 ) ⊕ · · · ⊕ V1 (λs ),

246 Álgebra Lineal y Geometría


Depto. de Álgebra

de donde

dim(V ) = dimV1 (λ1 ) + · · · + dimV1 (λs ),

que es lo mismo que

n = q1 + · · · + q s .

Además, para cada i se verifica la desigualdad q i ≤ m i , por lo que

n = q 1 + · · · + q s ≤ m 1 + · · · + m s ≤ n.

Entonces es necesario que q i = m i para cada i = 1, . . ., s, y m 1 + · · · + m s = n.


Recíprocamente, supongamos que se verifican ambas condiciones. Como
la suma V1 (λ1 ) + · · · + V1 (λs ) es directa, la unión de las bases de estos espacios
es un conjunto independiente, y las condiciones nos indican que ese conjunto
tiene cardinal igual a la dimensión de V . Por tanto, es base de V , y está formada
por autovectores. En conclusión, f es diagonalizable. 

Una consecuencia inmediata de lo anterior es

n autovalores distintos

Si A n×n es una matriz con n autovalores distintos en el cuerpo K, en-


tonces A es diagonalizable.

P RUEBA : Si A tiene n autovalores distintos en K, entonces todas las raíces del


polinomio característico están en K, pues tiene grado n. Además, cada auto-
valor tiene multiplicidad algebraica m i = 1, y como 1 ≤ q i ≤ m i = 1 llegamos a
q i = m i para todo i . Por el teorema anterior, A es diagonalizable. 

Álgebra Lineal y Geometría 247


Depto. de Álgebra

Carácter diagonalizable de una matriz y matriz de paso

Sea A una matriz de orden n.

1. Cálculo de las raíces del polinomio característico λ1 , . . . , λs , y sus


multiplicidades algebraicas respectivas m 1 , . . . , m s .

2. Si alguna de ellas no pertenece al cuerpo base, la matriz no es dia-


gonalizable. Supongamos que todas las raíces están en el cuerpo
base (esto siempre ocurre en C).

3. Cálculo de la multiplicidad geométrica

q i = n − rango(A − λi I ).

4. Si para algún i se tiene que q i < m i , entonces A no es diagonali-


zable.

5. Si para todo i se verifica q i = m i , A es diagonalizable a una matriz


diagonal con los autovalores en la diagonal, cada uno repetido
tantas veces como indique su multiplicidad.

6. Cálculo de una base de cada espacio V1 (λi ).

7. La matriz de paso P se obtiene concatenando los vectores de las


bases anteriores.

Ejemplo 7.4.4.- Consideremos la matriz

3 1 1
 

A =  1 3 1 .
1 1 3

1. Cálculo de las raíces del polinomio característico. Se tiene que

p(λ) = det(A − λI ) = −λ3 + 9λ2 − 24λ + 20 = (2 − λ)2 (5 − λ).

Entonces
λ1 = 2, m 1 = 2,
λ2 = 5, m 2 = 1.

248 Álgebra Lineal y Geometría


Depto. de Álgebra

2. Todas las raíces son reales, y procedemos a estudiar el carácter diagona-


lizable en R.

3. Las multiplicidades geométricas son

1 1 1
 

q 1 = 3 − rango(A − 2I ) = 3 − rango  1 1 1  = 3 − 1 = 2 = m 1 .
1 1 1

Para λ2 , como m 2 = 1 se deduce de inmediato que q 2 = 1.

4. Como para todos los autovalores coinciden la multiplicidad algebraica


y la geométrica, y m 1 + m 2 = 3 = dimV , la matriz es diagonalizable. La
forma diagonal es

2
   
λ1
D = λ1 = 2 .
λ2 5

5. Cálculo de la matriz de paso.

Base del espacio V1 (λ1 ). El sistema (A −λ1 I )x = 0 lo resolvemos me-


diante
1 1 1 1 1 1
   
 1 1 1  G-J −→  0 0 0  .
1 1 1 0 0 0
Unas ecuaciones paramétricas de V1 (λ1 ) son
    
 x1 = −x2 −x3 −1 −1
x = x2 , ⇒ V1 (λ1 ) = 〈v11 =  1  , v12 =  0 〉.
 2
x3 = x3 0 1

Base del espacio V1 (λ2 ). El sistema (A − λ2 I )x = 0 se resuelve con

1 1 1 0 −1
   
−2
 1 −2 G-J
1  −→  0 1 −1  .
1 1 −2 0 0 0

Unas ecuaciones paramétricas de V1 (λ2 ) son

1
  
 x1 = x3
x = x3 , ⇒ V1 (λ2 ) = 〈v21 = 1 〉.
 2

x3 = x3 1

Álgebra Lineal y Geometría 249


Depto. de Álgebra

La matriz de paso P es

−1 −1 1
 

= 1 0 1 .
¡ ¢
P= v11 v12 v21
0 1 1

Es fácil comprobar que D = P −1 AP .

7.5. Forma canónica de Jordan


7.5.1. Matriz de Jordan
La factorización que consideramos ahora de una matriz cuadrada A intenta
llevar la matriz a una forma lo más parecida a una diagonal.

Figura 7.1: M.E. Camille Jordan (1838-1922)

Un bloque de Jordan de orden k es una matriz cuadrada con k filas y colum-


nas que tiene todos los elementos de la diagonal idénticos, la linea por encima
de la diagonal está formada por unos y los restantes elementos son cero. En
forma simbólica, B(λ) = (b i j ) es un bloque de Jordan de orden k si

λ 1
 

 λ si i = j .. ..

. .
 
 
b i j = 1 si i + 1 = j , B(λ) =  ..
.
. 1 
 
0 en el resto
 
λ

250 Álgebra Lineal y Geometría


Depto. de Álgebra

Un segmento de Jordan J (λ1 ) es una matriz diagonal por bloques


J 1 (λ1 ) 0 ... 0
 
 0 J 2 (λ1 ) . . . 0 
J (λ1 ) =  .. .. .. .. ,
 
 . . . . 
0 0 ... J t1 (λ1 )
donde cada caja J k (λ1 ) es un bloque de Jordan de un cierto orden. En un seg-
mento de Jordan puede haber bloques de Jordan del mismo tamaño. Una ma-
triz de Jordan es una matriz diagonal por bloques de manera que cada bloque
es un segmento de Jordan, esto es, una matriz J es de Jordan si
J (λ1 ) 0 ... 0
 
 0 J (λ2 ) . . . 0 
J = . . . ..  ,
 
 . . .
. . . . 
0 0 ... J (λs )
donde cada J (λi ) es un segmento de Jordan. Desde una perspectiva general,
una matriz de Jordan es una matriz diagonal por bloques, donde cada bloque
es un bloque de Jordan.

Ejemplo 7.5.1.- Un bloque de Jordan de orden 1 es un número. Un bloque de


Jordan de orden 2 es de la forma
λ 1
µ ¶

0 λ
y uno de orden 3
λ 1 0
 
 0 λ 1 .
0 0 λ
Una matriz de Jordan es, por ejemplo,
 
1 1 0 0 0 0 0
 0 1 0 0 0 0 0 
 
 0 0 2 1 0 0 0 
 
 
 0 0 0 2 0 0 0 
 
 0 0 0 0 2 1 0 
 
 0 0 0 0 0 2 0 
 

0 0 0 0 0 0 3

Álgebra Lineal y Geometría 251


Depto. de Álgebra

7.5.2. Espacio de autovectores generalizados


Nuestro objetivo es probar que toda matriz cuadrada de coeficientes com-
plejos es semejante a una matriz de Jordan, es decir, si A n×n tiene entradas
complejas, entonces existe P una matriz no singular tal que P −1 AP = J , con
J una matriz de Jordan. La matriz P representa un cambio de base, y vamos
a ver con un ejemplo qué condiciones tienen que verificar los vectores que la
componen.
Supongamos que A es una matriz de orden 6 × 6 y P es la matriz del cambio
de base tal que
¡ ¢
P= v1 v2 v3 v4 v5 v6 , AP = P J ,
5 1 0
 

 0 5 1 

 0 0 5 
con J =  .
 
 5 1 
0 5
 
 
5

Si efectuamos el producto por columnas, obtenemos las relaciones

A v1 = 5v1 , A v2 = 5v2 + v1 , A v3 = 5v3 + v2 ,


A v4 = 5v4 , A v5 = 5v5 + v4 ,
A v6 = 5v6 .

Reconocemos los vectores v1 , v4 y v6 como autovectores de A. Los vectores


v2 , v3 y v5 serán los autovectores generalizados. Tenemos así tres cadenas, cada
una de ellas encabezada por un autovector. En este caso son

{v1 , v2 , v3 }, {v4 , v5 }, {v6 },

la primera cadena da lugar a un bloque de Jordan de orden 3 asociado al


autovalor 5,

la segunda cadena proporciona un bloque de Jordan de orden 2 asociado


al autovalor 5,

la tercera cadena produce un bloque de Jordan de orden 1 asociado al


autovalor 5.

252 Álgebra Lineal y Geometría


Depto. de Álgebra

El cálculo de la forma de Jordan asociada a una matriz A consiste en la búsque-


da de estas cadenas de vectores, cada una de ellas encabezada por un autovec-
tor. Si {v1 , . . . , vn } es una base formada por estas cadenas, entonces

A vi = λi vi , o bien A vi = λi vi + vi −1 .

Cuando formamos la matriz P = v1 . . . vn , cada cadena produce un blo-


¡ ¢

que de Jordan y tendremos el resultado.


Observemos que si {v1 , . . . , vq } es una cadena encabezada por un autovector
v1 del autovalor λ, se tiene que

A v1 = λv1 , (A − λI )v1 = 0,
A v2 = λv2 + v1 , (A − λI )v2 = v1 ,
..
.
A vq = λvq + vq−1 , (A − λI )vq = vq−1 .

Lo expresamos de forma gráfica como


A−λI A−λI A−λI A−λI
vq −−→ vq−1 −−→ · · · −−→ v1 −−→ 0, (7.5.1)

lo que implica que

(A − λI )v1 = 0, . . . , (A − λI )q−1 vq−1 = 0, (A − λI )q vq = 0. (7.5.2)

En el ejemplo anterior, escribimos las tres cadenas como


A−5I A−5I A−5I
v3 −−→ v2 −−→ v1 −−→ 0,
A−5I A−5I
v5 −−→ v4 −−→ 0,
A−5I
v6 −−→ 0.

La expresión 7.5.2 nos da pie a la siguiente definición, ya sea en términos de


matrices o de endomorfismos.

Espacio de autovectores generalizado

Si f : V → V es un endomorfismo, y λ0 un autovalor, para cada j ≥ 1 se


denomina el j -espacio de autovectores generalizado a

V j (λ0 ) = ker( f − λ0 idV ) j .

Álgebra Lineal y Geometría 253


Depto. de Álgebra

Para j = 1 tenemos el espacio de autovectores V1 (λ0 ). En la cadena


f −λ0 idV f −λ0 idV f −λ0 idV f −λ0 idV
vq −−−−−→ vq−1 −−−−−→ . . . −−−−−→ v1 −−−−−→ 0, (7.5.3)

se tiene que

v j ∈ ker( f − λ0 idV ) j , j = 1, . . . , q,

Ejemplo 7.5.2.- Sea f : R3 → R3 el endomorfismo definido como f (v ) = A v ,


donde
3 4 −7
 

A =  1 2 −3  .
2 3 −5
El único autovalor de A es λ1 = 0. El cálculo de los espacios de autovectores ge-
neralizados se reduce a obtener una base de los esapcios nulos de las matrices
(A − λ1 I ) j . En este caso se tiene que
1 0 −1
 

G-J  
A − λ1 I −
→  0 1 −1 ,

0 0 0
1
 

V1 (λ1 ) = null(A − λ1 I ) = 〈w11 = 1 〉.



1
Para el segundo espacio,
−1 −1 2 1 1 −2
   
 G-J 
(A − λ1 I )2 = 
 
 −1 −1 2  − 0 0 0  ,
 →

−1 −1 2 0 0 0
2
   
−1
2
V2 (λ1 ) = null((A − λ1 I ) ) = 〈w21 = 0
  , w22 =  1 〉.
1 0
Calculamos también el tercero:

(A − λ1 I )3 = O,
V3 (λ1 ) = null((A − λ1 I )3 ) = 〈e1 , e2 , e3 〉.

254 Álgebra Lineal y Geometría


Depto. de Álgebra

Fijado un autovalor λ0 , se tienen las contenciones

V1 (λ0 ) ⊂ V2 (λ0 ) ⊂ . . . ⊂ Vk (λ0 ).

Propiedades de los espacios de autovectores generalizados

1. La cadena creciente de subespacios se estabiliza.

2. Si V j (λ0 ) = V j +1 (λ0 ), entonces V j +r (λ0 ) = V j (λ0 ) para todo r ≥ 0.

3. Todos los subespacios V j (λ0 ) son invariantes.

4. Si {v1 , . . . , vr } ⊂ V j (λ0 ) es un conjunto linealmente independiente


y
〈v1 , . . . , vr 〉 ∩ V j −1 (λ0 ) = {0},
entonces el conjunto

{( f − λ0 idV )(v1 ), . . . , ( f − λ0 idV )(vr )} ⊂ V j −1 (λ0 )

es linealmente independiente y

〈( f − λ0 idV )(v1 ), . . . , ( f − λ0 idV )(vr )〉 ∩ V j −2 (λ0 ) = {0}.

P RUEBA :
1. Como el espacio ambiente V es de dimensión finita, las dimensiones de
los espacios tienen que permanecer constantes a partir de algún valor de
j.

2. Este resultado indica que cuando dos subespacios consecutivos son igua-
les, hemos llegado al nivel de estabilización. Lo probamos por inducción
sobre r . Para r = 1 es la hipótesis de partida. Supongamos que V j +r −1(λ0 ) =
V j +r (λ0 ) y vamos a probar que V j +r (λ0 ) = V j +r +1 (λ0 ). Si v ∈ V j +r +1 (λ0 ),
entonces

0 = ( f − λ0 idV ) j +r +1 (v ) = ( f − λ0 idV ) j +r ( f − λ0 idV )(v ),


luego ( f − λ0 idV )(v ) ∈ V j +r (λ0 ) = V j +r −1 (λ0 ), de donde

0 = ( f − λ0 idV ) j +r −1 (( f − λ0 idV )(v )) = ( f − λ0 idV ) j +r (v ),


por lo que v ∈ V j +r (λ0 ).

Álgebra Lineal y Geometría 255


Depto. de Álgebra

3. Sea v ∈ V j (λ). Entonces


( f − λ0 idV ) j ( f (v )) = ( f − λ0 idV ) j ( f (v ) − λ0 v + λ0 v )
= ( f − λ0 idV ) j (( f − λ0 idV )(v )) + ( f − λ0 idV ) j (λ0 v )
= ( f − λ0 idV ) j +1 (v ) + λ0 ( f − λ0 idV ) j (v )
= 0 + 0, porque v ∈ V j (λ).

4. Es claro que un vector v ∈ V j (λ0 ) si y solamente si ( f −λ0 idV )(v ) ∈ V j −1 (λ0 ).


Entonces tenemos la inclusión
{( f − λ0 idV )(v1 ), . . . , ( f − λ0 idV )(vr )} ⊂ V j −1 (λ0 ).
Veamos en primer lugar que es linealmente independiente. Partimos de
una expresión ri=1 αi ( f − λ0 idV )(vi ) = 0. Entonces
P
à ! à !
r r
αi vi = 0, de donde ( f −λ0 idV ) j −2 ( f − λ0 idV )( αi vi ) = 0.
X X
( f −λ0 idV )
i =1 i =1
Pr
Esto implica que i =1 αi vi ∈ V j −1 , pero es también un vector de 〈v1, . . . , vr 〉.
Por tanto, ri=1 αi vi = 0, y la independencia lineal del conjunto {v1, . . . , vr }
P

implica que αi = 0, 1 ≤ i ≤ r . De forma similar, si un vector


v ∈ 〈( f − λ0 idV )(v1 ), . . . , ( f − λ0 idV )(vr )〉,
existen unos coeficientes βi , 1 ≤ i ≤ r tales que v = ( f −λ0 idV )( ri=1 βi vi ).
P

Si imponemos la condición v ∈ V j −2 (λ0 ), entonces


à !
r
j −2 j −1
X
0 = ( f − λ0 idV ) (v ) = ( f − λ0 idV ) βi vi ,
i =1
Pr
lo que implica que i =1 βi vi ∈ V j −1 (λ0 ). Ese vector pertenece al subes-
pacio 〈v1 , . . . , vr 〉, por lo que ri=1 βi vi = 0. La independencia lineal del
P

conjunto {v1 , . . . , vr } implica el carácter nulo de los coeficientes βi , es de-


cir, v = 0.


Espacio de autovectores maximal

El subespacio Ve (λ0 ) tal que

Ve−1 (λ0 ) Ú Ve (λ0 ) = Ve+1 (λ0 )

se denomina subespacio maximal del autovalor λ0 , y lo notaremos co-


mo M(λ0 ). El número e se denomina índice del autovalor λ0 .

256 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 7.5.3.- Consideremos la matriz

5 0 1 0
 

 1 1 0 0 
 
A= .
 
 −7 1 0 0 
 
0 0 0 1

Sus autovalores son λ1 = 2, con multiplicidad algebraica m 1 = 3, y λ2 = 1, con


multiplicidad algebraica m 2 = 1. Vamos a calcular las sucesiones de subespa-
cios de autovectores generalizados. Para λ1 se tiene que

3 0 1 0 1 0 1/3 0
   

 1 −1 0 0 
 G-J  0 1 1/3 0 
   
 
A − λ1 I =  −→ ,

 −7 1 −2 0   0 0 0 1 
   
0 0 0 −1 0 0 0 0
t
V1 (λ1 ) = 〈u11 = (−1, −1, 3, 0) 〉.

Para el segundo subespacio,

2 1 1 0 1 1/2 1/2 0
   

 2 1 1 0 
 G-J  0 0 0 1 
   

2
(A − λ1 I ) =  −→ ,
 
 −6 −3 −3 0   0 0 0 0 
   
0 0 0 1 0 0 0 0
t t
V2 (λ1 ) = 〈u21 = (−1, 0, 2, 0) , u22 = (−1, 2, 0, 0) 〉.

Álgebra Lineal y Geometría 257


Depto. de Álgebra

Es fácil comprobar que V1 (λ1 ) ⊂ V2 (λ1 ). A continuación,

0 0 0 0 0 0 0 1
   

 0 0 0 0   0 0 0 0 
   
G-J
(A − λ1 I )3 =  −→ ,
   
 0 0 0 0   0 0 0 0 
 
 
0 0 0 −1 0 0 0 0
V3 (λ1 ) = 〈e1 , e2 , e3 〉,
0 0 0 0 0 0 0 1
   

 0 0 0 0   0 0 0 0 
   
4  G-J 
(A − λ1 I ) =  − → ,
 
 0 0 0 0   0 0 0 0 
   
0 0 0 1 0 0 0 0
V4 (λ1 ) = V3 (λ1 ).

Entonces M(λ1 ) = V3 (λ1 ) y el índice es e 1 = 3. Para el autovalor λ2 tenemos

4 0 1 0 1 0 0 0
   

 1 0 0 0   0 1 0 0 
   
G-J
A − λ2 I =  −
→ ,
   
 −7 1 −1 0   0 0 1 0 
   
0 0 0 0 0 0 0 0
V1 (λ2 ) = 〈e4 〉,
9 1 3 0 1 0 0 0
   

 4 0 1 0   G-J  0 1 0 0 
   
 
2
(A − λ2 I ) =  −→ ,

 −20 −1 −6 0   0 0 1 0 
   
0 0 0 0 0 0 0 0
V2 (λ2 ) = V1 (λ1 ).

Entonces M(λ2 ) = V1 (λ2 ) y el índice es e 2 = 1.

Nota 7.5.1. Como el subespacio M(λ0 ) es invariante, tiene sentido considerar la


restricción f |M(λ0 ) : M(λ0 ) → M(λ0 ). Nuestro primer objetivo será calcular una
base especial de este subespacio, para cada autovalor.

258 Álgebra Lineal y Geometría


Depto. de Álgebra

7.5.3. Construcción de la base de M (λ0 )


Vamos a dar un método de construcción de dicha base, de forma similar a
como se hace en [MS06].
Se precisan varios lemas técnicos.

Conjuntos independientes en espacios crecientes

Sea 0 = V0 ⊂ V1 ⊂ V2 ⊂ · · · ⊂ Vk−1 ⊂ Vk una sucesión de subespacios vec-


toriales creciente. Supongamos que en cada Vi tenemos un conjunto
de vectores S i = {v i 1 , . . . , v i r i } linealmente independiente y que verifica

〈S i 〉 ∩ Vi −1 = 0, i = 1, . . . , k.

Entonces el conjunto S = ∪ki=1 S i es linealmente independiente.

P RUEBA : La prueba es por inducción sobre k. Para k = 1 tenemos que S = S 1 .


Suponemos el resultado cierto para k −1 y lo probamos para k. Partimos de una
expresión X
αi j vi j = 0. (7.5.4)
i ,j

Separamos la suma en dos partes


rk k−1 rj
X XX
αk j vk j = αi j vi j .
j =1 i =1 j =1

El lado izquierdo pertenece a 〈S k 〉 y el lado derecho pertenece a Vk−1 , por lo


que
rk
X
αk j vk j = 0.
j =1

Por la independencia lineal del conjunto S k , se tiene que αk j = 0, j = 1, . . . , r k .


Si volvemos a la expresión (7.5.4), eliminamos los términos correspondientes a
S k , y podemos aplicar la hipótesis de inducción. 

Base de M(λ0 )

Sea V un C-espacio vectorial de dimensión n y f : V → V un endomor-


fismo. Existe una base C (λ0 ) de M(λ0 ) de forma que la matriz asociada
respecto de esta base de la restricción f |M(λ0 ) es una matriz de Jordan.

Álgebra Lineal y Geometría 259


Depto. de Álgebra

P RUEBA : Sea M(λ0 ) = Ve (λ0 ), donde e es el índice del autovalor λ0 . Tenemos la


sucesión de espacios

Ve (λ0 ) ⊃ Ve−1 (λ0 ) ⊃ · · · ⊃ V2 (λ0 ) ⊃ V1 (λ0 ) ⊃ V0 (λ0 ) = 0.

Llamamos t j = dim(V j (λ0 ) y B j a una base de V j (λ0 ). Aplicamos el siguiente


procedimiento desde j = e, e − 1, . . ., 1:
Ampliamos una base de V j −1 (λ0 ) a una base de V j (λ0 ) que contenga ciertos
vectores ya disponibles en V j (λ0 ).
Para j = e, no tenemos vectores en Ve (λ0 ) y calculamos una ampliación de
Be−1 a una base de Ve (λ0 ), con r = te − te−1 vectores. Sea

S r = {v1 , . . . , vr }

tal conjunto. Entonces S r es linealmente independiente y

〈S r 〉 ∩ Ve−1 (λ0 ) = {0}.

Para cada i = 1, . . . , r , formamos las cadenas

Ve (λ0 ) ⊃ Ve−1 (λ0 ) ⊃ Ve−2 (λ0 ) ⊃ ... ⊃ V1 (λ0 )


f −λ0 idV f −λ0 idV f −λ0 idV f −λ0 idV
v1 −−−−−→ • −−−−−→ • −−−−−→ . . . −−−−−→ •
.. ..
. .
f −λ0 idV f −λ0 idV f −λ0 idV f −λ0 idV
vr −−−−−→ • −−−−−→ • −−−−−→ . . . −−−−−→ •

En cada V j (λ0 ) tenemos los vectores ( f − λ0 idV )e−j (vi ), 1 ≤ i ≤ r , que son li-
nealmente independientes y

〈( f − λ0 idV )e−j (vi ) | 1 ≤ i ≤ r 〉 ∩ V j −1 (λ0 ) = {0}.

Por el lema de los conjuntos independientes en espacios crecientes (pág. 259),


todos estos vectores forman un conjunto linealmente independiente.
Para j = e − 1, calculamos una ampliación de una base de Be−2 ∪ {( f −
λ0 idV )(vi ) | 1 ≤ i ≤ r } a una base de Ve−1 (λ0 ). Sea

S r −1 = {( f − λ0 idV )(vi ) | 1 ≤ i ≤ r, vr +1 , . . . vs }.

Es posible que s = 0, es decir, que no haya que añadir ningún vector y pasamos
entonces al paso siguiente. Entonces S r −1 es un conjunto linealmente indepen-
diente y
〈S r −1 〉 ∩ Ve−2 (λ0 ) = {0}.

260 Álgebra Lineal y Geometría


Depto. de Álgebra

Para cada i = 1, . . . , s formamos las cadenas

Ve (λ0 ) ⊃ Ve−1 (λ0 ) ⊃ Ve−2 (λ0 ) ⊃ ... ⊃ V1 (λ0 )


f −λ0 idV f −λ0 idV f −λ0 idV f −λidV
v1 −−−−−→ • −−−−−→ • −−−−−→ . . . −−−−→ •
.. ..
. .
f −λ0 idV f −λ0 idV f −λ0 idV f −λidV
vr −−−−−→ • −−−−−→ • −−−−−→ . . . −−−−→ •
f −λ0 idV f −λ0 idV f −λ0 idV
vr +1 −−−−−→ • −−−−−→ . . . −−−−−→ •
.. ..
. .
f −λ0 idV f −λ0 idV f −λ0 idV
vr +s −−−−−→ • −−−−−→ . . . −−−−−→ •

Al igual que en el paso anterior, en cada V j (λ0 ) tenemos vectores que forman un
conjunto linealmente independiente y cortan al espacio V j −1 (λ0 ) solamente en
el vector nulo. Por tanto, todos los vectores que tenemos en las cadenas forman
un conjunto linealmente independiente.
Podemos repetir el proceso hasta llegar a V1 (λ0 ). Todos los vectores son in-
dependientes y su número es igual a la dimensión de Ve (λ), pues en cada paso
los vectores de un subespacio V j (λ0 ) amplían a una base del anterior.
Hemos formado así las cadenas correspondientes a un autovalor. Vamos a
analizar lo que ocurre en una cadena, pues es igual para las restantes. Construi-
mos la base empezando por la primera línea de vectores y enumerando desde
V1 (λ0 ) hasta Ve (λ0 ). Por ejemplo, los primeros vectores en aparecer son

w1 = ( f −λ0 idV )e−1 (v1 ), w2 = ( f −λ0 idV )e−2 (v1 ), . . . , we−1 = ( f −λ0 idV )(v1 ), we = v1 .

Observemos que w j −1 = ( f − λ0 idV )(w j ), 2 ≤ j ≤ e, y tenemos las relaciones

( f − λ0 idV )(w1 ) = 0, f (w1 ) = λ0 w1 ,


( f − λ0 idV )(w j ) = w j −1 , f (w j )) = w j −1 + λ0 w j , 2 ≤ j ≤ e.

Si C (λ0 ) es la base formada, tenemos que las coordenadas de cada uno de los
vectores f (wi ) respecto de dicha base verifican

0
 

λ0
  .. 
 . 
0  1 
   
[ f (w1 )]C (λ0 ) =  ..  , [ f (w j )]C (λ0 ) =  ,
  
.  λ0 
  
 . 
0  .. 
0

Álgebra Lineal y Geometría 261


Depto. de Álgebra

por lo que la matriz de f |M(λ0 ) respecto a la base C (λ0 ) tiene com primer bloque
a
λ0 1 0 . . . 0
 
 0 λ0 1 . . . 0 
 .. .. .. . . ..  .
 
 . . . . . 
0 0 0 . . . λ0

Para las restantes cadenas obtenemos nuevos bloques de Jordan, y la matriz de


la restricción respecto a C (λ0 ) es una matriz de Jordan. 

Nota 7.5.2. 1. A la base calculada en el teorema la llamamos base canónica


de M(λ0 ).

2. Es importante observar que las cajas que aparecen en la matriz de la res-


tricción f M(λ0 ) quedan determinadas por las dimensiones de los espa-
cios de autovectores generalizados. Por ejemplo, el número de bloques
de Jordan es igual al número de cadenas que se forman, que coincide
con dimV1 (λ0 ). De igual forma, el tamaño de cada caja se obtiene tam-
bién con los valores de dimV j (λ0 ).

Construcción de la base C (λ0 )

Para cada j = e, e − 1, . . ., 1 se realizan los siguientes pasos:

1. Ampliamos una base de V j −1 (λ0 ) a una base de V j (λ0 ) que con-


tenga ciertos vectores ya disponibles en V j (λ0 ). Obtenemos unos
vectores {v1 , . . . , vk }.

2. Para cada i = 1, . . . , k, formamos las cadenas

Ve (λ0 ) ⊃ Ve−1 (λ0 ) ⊃ ... ⊃ V1 (λ0 )


f −λ0 idV f −λ0 idV f −λidV
vi −−−−−→ • −−−−−→ . . . −−−−→ •

En cada cadena, empezando por el subespacio V1 (λ0 ), seleccionamos


los vectores para formar la base C (λ0 ).

Antes de calcular algunos ejemplos, damos un resultado que nos ayudará


en ellos.

262 Álgebra Lineal y Geometría


Depto. de Álgebra

Dimensión de M(λ0 )

Si λ0 es un autovalor de f de multiplicidad algebraica m 0 , entonces


dim M(λ0 ) = m 0 .

P RUEBA : Sea e 0 el índice del autovalor λ0 y Ve 0 (λ0 ) = M(λ0 ). Si llamamos


s = dim M(λ0 ), sea {v1 , . . . , vs } una base canónica de M(λ0 ) y ampliamos a B =
{v1 , . . . , vs , vs+1 , . . . , vn } base de V . Definimos el subespacio W = 〈vs+1 , . . . , vn 〉
y sabemos que V = M(λ0 ) ⊕ W . La matriz de f respecto de la base B es de la
forma µ ¶
J B
A= ,
O C
donde J es una matriz de Jordan s × s. El bloque B no nos interesa y C es una
matriz cuadrada (n − s) × (n − s). El polinomio característico de f es

p(λ) = det(A − λI ) = det(J − λI ) det(C − λI ) = (λ − λ0 )s q(λ),

para cierto polinomio q(λ). Por tanto, la multiplicidad algebraica de λ0 es, al


menos, s, esto es, s ≤ m 0 . Vamos a suponer que s < m 0 y llegaremos a una con-
tradicción.
Si s < m 0 , entonces el factor λ − λ0 aparece en q(λ), por lo que λ0 es auto-
valor de la matriz C . Vamos a construir un endomorfismo que tenga a C como
matriz. En primer lugar, consideramos la proyección πW : v → W definida co-
mo πW (v ) = w , donde v = u + w , con u ∈ M(λ0 ) y w ∈ W . Esta aplicación está
bien definida, por la condición de suma directa, y verifica que

ker(πW ) = M(λ0 ),

πW (w ) = w para todo w ∈ W .

Si v = ni=1 αi vi , entonces πW (v ) = ni=s+1 αi vi , es decir, toma las últimas n −


P P

s componentes de las coordenadas de v respecto de B. El conjunto BW =


{vs+1 , . . . , vn } es una base de W y definimos g = πW ◦ f |W : W → W . Se tiene
que
[g (vs+k )]BW = C ∗k , columna k-ésima de la matriz C .
Por tanto, la matriz de g respecto de BW es C . Por lo anterior, existe w 6= 0 en W
tal que g (w ) = λ0 w . Entonces πW ( f (w )) = λ0 w . Como πW (w ) = w , podemos
escribir lo anterior como

πW ( f (w ) − λ0 w ) = 0, lo que implica que f (w ) − λ0 w ∈ M(λ0 ).

Álgebra Lineal y Geometría 263


Depto. de Álgebra

Entonces

( f − λ0 idV )e 0 ( f − λ0 idV )(w ) = 0, o bien, ( f − λ0 idV )e 0 +1 (w ) = 0.

Tenemos así que w ∈ Ve 0 +1 (λ0 ) = M(λ0 ). En resumen, w ∈ W ∩ M(λ0 ) = {0} y


llegamos a que w = 0.
En conclusión, s = m 0 . 

Nota 7.5.3. Hasta ahora, el espacio maximal M(λ0 ) estaba determinado por la
estabilización de la cadena de subespacios. Este teorema nos indica que la pa-
rada se produce cuando la dimensión de M(λ0 ) es igual a la multiplicidad alge-
braica del autovalor.
Con el resultado anterior y el método descrito para la construcción de la
base canónica de un autovalor, vamos a resolver varios ejemplos sencillos.

Ejemplo 7.5.4.- Consideremos la matriz


−2 1 0
 

A =  −1 0 0  ,
−1 1 −1
que tiene un único autovalor λ1 = −1, de multiplicidad algebraica m 1 = 3. Sea
V = R4 y f : V → V el endomorfismo definido por f (u) = A u. Calculamos una
base de cada uno de los subespacios V j (λ1 ):

−1 1 0 1 −1 0
   
0 1
   
  G-J  
A − λ1 I =  −1 1 0  −
  →  0 0 0  ,V1 (λ1 ) = 〈v11 = 0 , v12 = 1 〉,
    
1 0
−1 1 0 0 0 0
(A − λ1 I )2 = O,V2 (λ1 ) = 〈e1 , e2 , e3 〉, dimV2 (λ1 ) = 3 = m 1 .

El esquema de cadenas que obtenemos es de la forma


V2 (λ1 ) ⊃ V1 (λ1 )
f −λ1 idV
w12 −−−−−→ w11
w21 ,
que se corresponde con las relaciones

f (w11 ) = λ1 w11 ,
f (w12 ) = w11 + λ1 w12 ,
f (w21 ) = λ1 w21 .

264 Álgebra Lineal y Geometría


Depto. de Álgebra

Si C = {w11 , w12 , w21 }, entonces

λ1 1 0
 

MC ( f ) = J A =  0 λ1 0  .
0 0 λ1

Aplicamos el procedimiento descrito en la demostración del teorema: para j =


2, 1,
Ampliamos una base de V j −1 (λ1 ) a una base de V j (λ1 ) que contenga ciertos
vectores ya disponibles en V j (λ1 ).
Para j = 2, ampliamos una base de V1 (λ1 ) a una base de V2 (λ1 ). Lo hacemos
con el vector w12 = e1 , y calculamos
 
−1
w11 = ( f − λ1 idV )(w12 ) =  −1  .
−1

Tenemos la cadena
V2 (λ1 ) ⊃ V1 (λ1 )
f −λ1 idV
w12 −−−−−→ w11
Para j = 1, ampliamos una base de V0 (λ1 ) a una base de V1 (λ1 ) que contenga al
vector disponible w11 . Usamos, por ejemplo, w21 = e3 y hemos completado el
proceso:
V2 (λ1 ) ⊃ V1 (λ1 )
f −λ1 idV
w12 −−−−−→ w11
w21 ,
La base canónica está formada por el conjunto {w11 , w12 , w21 }.

Ejemplo 7.5.5.- Consideremos la matriz

7 −2 −1 3
 

 1 3 0 1 
 
A= ,
 
 1 −1 4 1 
 
−2 1 1 2

Álgebra Lineal y Geometría 265


Depto. de Álgebra

cuyo único autovalor es λ1 = 4. Tomamos V = R4 y f : V → V el homomorfismo


dado por f (u) = A u. Entonces
V1 (λ1 ) = 〈v11 , v12 〉,V2 (λ1 ) = 〈e1 , e2 , e3 , e4 〉, dimV2 (λ1 ) = m 1 ,
donde    
1 0
1 1
   
v11 =   , v1 2 =  .
   
 1   1 
0 1
El procedimiento de construcción de la base parte de j = 2 y el cálculo de una
ampliación de una base de V1(λ1 ) a una base de V2(λ1 ), que precisa dos vectores
w12 , w22 . Calculamos las cadenas asociadas
V2 (λ1 ) ⊃ V1 (λ1 )
f −λ1 idV
w12 −−−−−→ w11
f −λ1 idV
w22 −−−−−→ w21 .
Para j = 1 debemos obtener una ampliación de una base de V0 (λ1 ) a una base
de V1 (λ1 ) que contenga los vectores calculados {w11 , w21 }. Como dimV1 (λ1 ) =
2, hemos acabado.
Se verifican las relaciones
f (w11 ) = λ1 w11 ,
f (w12 ) = w11 + λ1 w12 ,
f (w21 ) = λ1 w21 ,
f (w22 ) = w21 + λ1 w22 ,
Si C = {w11 , w12 , w21 , w22 }, entonces tenemos la forma canónica
 
λ1 1 0 0
 0 λ1 0 0 
 
MC ( f ) = J A =  .
 0 0 λ1 1 
0 0 0 λ1
Para la construcción explícita de la base canónica, detallamos a continuación
los cálculos. Para j = 2, ampliamos una base de V1 (λ1 ) a una base de V2 (λ1 ). Por
ejemplo, w12 = e1 , w22 = e2 , de donde
   
3 −2
 1   −1 
   
w11 = (A − λ1 I )w12 =  , w 21 = (A − λ 1 I )w 22 = .
 1   −1 
 
−2 1
La base canónica es {w11 , w12 , w21 , w22 }.

266 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 7.5.6.- Consideremos la matriz

2 3 0 2
 
−1 −2
−1 0 2 1
 

 −1 −2 

1 3 2 0 1 −4 
 

A= ,
 

 5 6 −1 −3 5 −3 
 

 3 3 −1 −2 3 −1 
1 3 2 0 1 −4

cuyo único autovalor es λ1 = 0. Tomemos V = R6 y f : V → V el endomorfismo


f (u) = A u. Se tiene que

{v11 , v12 , v13 } es base de V1 (λ1 ),

{v21 , v22 , v23 , v24 , v25 } es base de V2 (λ1 ),

{e1 , e2 , e3 , e4 , e5 , e6 } es base de V3 (λ1 ), dimV3 (λ1 ) = m 1 ,

donde

1 0 0
     

 0 


 1 


 0 

0 0 1
     
v11 =   , v12 =   , v13 =  ,
     
 0   −3   2 
2
     
 −1   −3   
0 0 1
v21 = e1 , v22 = e2 , v23 = e3 + e6 , v24 = e4 , v25 = e5 .

Dado que dimV1 (λ1 ) = 3, dimV2 (λ1 ) = 5, dimV3 (λ1 ) = 6, la estructura de las ca-
denas es
V3 (λ1 ) ⊃ V2 (λ1 ) ⊃ V1 (λ1 )
f −λ1 idV f −λ1 idV
w13 −−−−−→ w12 −−−−−→ w11
f −λ1 idV
w22 −−−−−→ w21
w31 ,

Álgebra Lineal y Geometría 267


Depto. de Álgebra

y se tienen las relaciones

f (w11 ) = λ1 w11 ,
f (w12 ) = w11 + λ1 w12 ,
f (w13 ) = w12 + λ1 w13 ,
f (w21 ) = λ1 w21 ,
f (w22 ) = w21 + λ1 w22 ,
f (w31 ) = λ1 w31 .

Si C = {w11 , w12 , w13 , w21 , w22 , w31 }, entonces

λ1 1 0 0 0 0
 

 0 λ1 1 0 0 0 

 0 0 λ1 0 0 0 
MC ( f ) = J A =  .
 
 0 0 0 λ1 1 0 
0 0 0 0 λ1 0
 
 
0 0 0 0 0 λ1

Para j = 3, comenzamos seleccionando un vector w13 que amplíe una base de


V2 (λ1 ) a una base de V3 (λ1 ). Por ejemplo, w13 = e3 , y construimos la primera
cadena:

0 1
   

 2 


 0 

2 1
   
w12 = (A − λ1 I )w13 =  , w11 = (A − λ1 I )w12 =  .
   
 −1   2 
1
   
 −1   
2 1

Tenemos el diagrama

V3 (λ1 ) ⊃ V2 (λ1 ) ⊃ V1 (λ1 )


f −λ1 idV f −λ1 idV
w13 −−−−−→ w12 −−−−−→ w11

Para j = 2, ampliamos una base de V1 (λ1 ) a una base de V2 (λ1 ) que contenga al
vector w12 . Nos hace falta un solo vector, que podemos determinar mediante
la reducción de la matriz

w12 v11 v12 v13 v21 v22 v23 v24 v25 .


¡ ¢

268 Álgebra Lineal y Geometría


Depto. de Álgebra

Por ejemplo, w22 = e1 , y completamos la segunda cadena:

2
 

 −1 

1
 
w21 = (A − λ1 I )w22 =  .
 
 5 
3
 
 
1

Ahora ya tenemos el diagrama

V3 (λ1 ) ⊃ V2 (λ1 ) ⊃ V1 (λ1 )


f −λ1 idV f −λ1 idV
w13 −−−−−→ w12 −−−−−→ w11
f −λ1 idV
w22 −−−−−→ w21 .

Para j = 1, ampliamos una base de V0 (λ1 ) a una base de V1 (λ1 ) que contenga a
los vectores {w11 , w21 }. En este caso, asignamos w11 = v11 y tenemos el diagra-
ma completo
V3 (λ1 ) ⊃ V2 (λ1 ) ⊃ V1 (λ1 )
f −λ1 idV f −λ1 idV
w13 −−−−−→ w12 −−−−−→ w11
f −λ1 idV
w22 −−−−−→ w21
w31 ,
La matriz de paso es
¡ ¢
PA = w11 w12 w13 w21 w22 w11 .

7.5.4. Construcción de la base canónica del endomorfismo


Comenzamos con un ejemplo donde tenemos varios autovalores y calcula-
mos las bases C (λi ).

Álgebra Lineal y Geometría 269


Depto. de Álgebra

Ejemplo 7.5.7.- Consideremos la matriz

1 2 2 1
 

 1 0 −2 −1 
 
A= ,
 
 −1 −1 1 1 
 
−1 −1 1 1

de autovalores λ1 = 0, λ2 = −1, λ3 = 2, con multiplicidades algebraicas respec-


tivas m 1 = 1, m 2 = 1, m 3 = 2. Llamamos V = R4 y f : V → V al endomorfismo
dado por f (u) = A u. Con respecto a los dos primeros autovalores, bastará en-
contrar un generador del espacio de autovectores asociado a cada uno.
Para los autovalores λ1 y λ2 obtenemos los espacios de autovectores

V1 (λ1 ) = 〈u1 = (−1, 1, −1, 1)t 〉, V1 (λ2 ) = 〈u2 = (−1, 1, 0, 0)t 〉.

Para λ3 , calculamos una base de cada uno de los subespacios V j (λ3 ) = null(A −
λ3 I ) j , hasta llegar a dimensión m 3 = 2.

2 2 1 1 0 0 −1
   
−1
 1 −2 −2 −1   0 1 0 1 
   
G-J
A − λ3 I =  −
→ ,
   
 −1 −1 −1 1   0 0 1 −1 
   
−1 −1 1 −1 0 0 0 0
t
V1 (λ3 ) = 〈v11 = (1, −1, 1, 1) 〉,
0 −9 −7 −2 0 1 0 1
   

 0 9 7 2   G-J  0 0 1 −1 
   
 
2
(A − λ3 I ) =  −→ ,

 0 0 2 −2    0 0 0 0 
 

0 0 −2 2 0 0 0 0
V2 (λ3 ) = 〈v21 = (0, −1, 1, 1)t , v22 = (1, 0, 0, 0)t 〉.

Como dim(V2 (λ3 )) = 2 = m 3 , paramos el cálculo. Construimos la base canónica


asociada a λ3 y comenzamos con el esquema

V2 (λ3 ) ⊃ V1 (λ3 )

Para j = 2, ampliamos una base de V1 (λ3 ) a una base de V2 (λ3 ). Por ejemplo,
w2 = v22 , y calculamos

w1 = ( f − λ3 idV )(w2 ) = (−1, 1, −1, −1)t .

270 Álgebra Lineal y Geometría


Depto. de Álgebra

Tenemos así la cadena


V2 (λ3 ) ⊃ V1 (λ3 )
f −λ3 idV
w2 −−−−−→ w1 ,

Para j = 1, ampliamos V0 (λ3 ) a una base de V1 (λ1 ) que contenga al vector w1 .


Como dimV1 (λ3 ) = 1, hemos acabado. Esto significa que el autovalor λ3 produ-
ce una caja de orden 2 × 2.
Hemos construido las bases canónicas para cada autovalor. Si las unimos
obtenemos el conjunto C = {u1 , u2 , w1 , w2 }, que resulta que es una base de V .
Además,

f (u1 ) = λ1 u1 ,
f (u2 ) = λ2 u2 ,
f (w1 ) = λ3 w1 ,
f (w2 ) = w1 + λ3 w2 .

Por tanto, la matriz de f respecto de C es


 
0 0 0 0
 0 −1 0 0
 
JA =  ,

 0 0 2 1 
0 0 0 2

que es una matriz de Jordan.

A partir del ejemplo anterior nos preguntamos si, en general, la unión de las
bases canónicas C (λi ) de cada uno de los autovalores proporciona una base del
espacio completo. Ese es el objetivo final que acometemos a continuación, con
un lema técnico que nos hará falta en la prueba.

Relación entre autovectores y otros autovalores

Sea λ0 un autovalor y w ∈ V1 (λ0 ). Si λ j 6= λ0 es otro autovalor de f y


m ≥ 1 es un entero, entonces

( f − λ j idV )m (w ) = (λ0 − λ j )m w .

Álgebra Lineal y Geometría 271


Depto. de Álgebra

P RUEBA : Usamos inducción sobre m. Para m = 1,

( f − λ j idV )(w ) = f (w ) − λ j w = (λ0 − λ j )w .

Supongamos el resultado cierto para m y lo probamos para m + 1. Calculamos

( f − λ j idV )m+1 (w ) = ( f − λ j idV )(( f − λ j idV )m (w ))


= ( f − λ j idV )((λ0 − λ j )m w ) por hipótesis de inducción
= (λ0 − λ j )m ( f − λ j idV )(w ) por ser lineal
= (λ0 − λ j )m (λ0 − λ j )w = (λ0 − λ j )m+1 w .

Suma directa de subespacios generalizados

Sea f : V → V un endomorfismo con autovalores distintos λ1 , . . . , λr .


Entonces se tiene que la suma de subespacios

M(λ1 ) + · · · + M(λr )

es directa.

P RUEBA : Para cada autovalor λi consideramos e i su índice y M(λi ) = Ve i (λi ).


Partimos de una expresión

v1 + v2 + · · · + vr = 0, donde vi ∈ M(λi ).

El objetivo es probar que vi = 0 para todo 1 ≤ i ≤ r . Consideremos el endomor-


fismo
g = ( f − λ2 idV )e 2 ◦ · · · ◦ ( f − λr idV )e r .

Los factores de g se pueden disponer en cualquier orden, porque f −


λi idV conmuta con f − λ j idV .

g (vi ) = 0 para todo 2 ≤ i ≤ r , pues basta colocar ( f − λi idV )e i en la parte


de la derecha.

Entonces g (v1 ) = 0. Sea t el menor índice en el que v1 ∈ Vt (λ1 ). Si t = 0, hemos


acabado. Si t ≥ 1, definimos w = ( f − λ1 idV )t−1 (v1 ), que es un vector no nulo
que pertenece a V1 (λ1 ). Por el teorema anterior,

g (w ) = ( f − λ2 idV )e 2 ◦ · · · ◦ ( f − λr idV )e r (w ) = (λ1 − λ2 )e 2 · · · (λ1 − λr )e r w .

272 Álgebra Lineal y Geometría


Depto. de Álgebra

Por otro lado,

g (w ) = g (( f − λ1 idV )e 1 −1 (v1 )) = ( f − λ1 idV )e 1 −1 (g (v1 )) = 0.

Llegamos así a la conclusión

(λ1 − λ2 )e 2 · · · (λ1 − λr )e r w = 0,

y cada uno de los coeficientes es no nulo. Por tanto, w = 0, lo que no puede ser,
y se sigue que v1 = 0. 

Forma canónica de Jordan

Sea V un K-espacio vectorial de dimensión n y f : V → V un endo-


morfismo, con autovalores distintos λ1 , λ2 , . . . , λr ∈ K y multiplicida-
des algebraicas respectivas m 1 , . . . , m r . Entonces existe una base C de
V tal que la matriz de f respecto de C es de Jordan si y solamente si
Pr
i =1 m i = n.

P RUEBA : Para cada 1 ≤ i ≤ r se tiene que dim M(λi ) = m i y la suma M(λ1 ) ⊕


· · · ⊕ M(λr ) es directa. Entonces
r
X
V = M(λ1 ) ⊕ · · · ⊕ M(λr ) si y solamente si m i = n.
i =1

En este caso, la base C se forma uniendo las bases canónicas C (λi ), 1 ≤ i ≤ r .


Los subespacios M(λi ) son invariantes, por lo que la matriz de f respecto de C
es diagonal por bloques, y cada uno de los bloques es de Jordan. Por tanto, la
matriz es de Jordan. 

´Para el caso de C-espacios vectoriales, la condición de la suma de multipli-


cidades siempre se cumple.

7.5.5. Unicidad
Dada una matriz compleja A, podemos aplicar el proceso de construcción
de la base y la forma canónica asociada. Como es lógico, si permutamos entre sí
las cadenas que determinan la base, la forma canónica cambia, pero solamente
mediante un intercambio de bloques. Por ello, hablamos de la estructura de
la forma canónica de una matriz en el sentido de permitir el intercambio de
bloques. Se tiene el siguiente resultado.

Álgebra Lineal y Geometría 273


Depto. de Álgebra

Unicidad de la forma canónica

Dos matrices A, B cuadradas complejas de orden n son semejantes si y


solamente si A y B tienen la misma estructura de Jordan.

P RUEBA : Si A y B tienen la misma estructura de Jordan, ambas son semejantes


a una matriz de Jordan J , y por la transitividad de la relación, se tiene que A y B
son semejantes. Supongamos ahora que A y B son semejantes. Como represen-
tan al mismo endomorfismo, los autovalores y sus multiplicidades algebraicas
coinciden. Además, para cada autovalor λi , las dimensiones de los espacios de
autovectores generalizados dimV j (λi ) también son iguales. Por ello, producen
la misma estructura de Jordan. 

7.6. * Forma canónica real


Consideremos ahora V un R-espacio vectorial de dimensión finita, y f :
V → V un endomorfismo. Si todos los autovalores de f son reales, podemos lle-
var a cabo la construcción de la forma canónica que hemos visto en la sección
anterior. Sin embargo, sabemos que existen endomorfismos con autovalores
complejos, y esto va a dar lugar a matrices de paso (bases) con componentes
complejas. En esta sección vamos a estudiar qué hay que sacrificar para que
podamos conseguir una matriz de f lo más sencilla posible, pero con gran pa-
recido a la forma de Jordan.
Observemos en primer lugar que si f (x) es un polinomio con coeficientes
reales, y α ∈ C una raíz, Entonces α también es raíz de f (x), de la misma multi-
plicidad que α. En efecto, supongamos que

f (x) = x m + am−1 x m−1 + . . . + a1 x + a0 .

Como
0 = αm + am−1 αm−1 + . . . + a1 α + a0 ,
tomamos conjugados en ambos lados de la igualdad, y nos queda

0 = αm + am−1 αm−1 + . . . + a1 α + a0 ,

ya que los coeficientes ai son todos reales. Entonces α es raíz de f (x). La igual-
dad de las multiplicidades se deduce de la factorización

f (x) = (x − α)r g (x).

274 Álgebra Lineal y Geometría


Depto. de Álgebra

Esto significa que si λ es un autovalor complejo de f , entonces λ también lo es,


y de la misma multiplicidad algebraica.
Sea V un espacio vectorial sobre R, de dimensión n, y f ∈ End(V ). El teo-
rema de la forma canónica de Jordan nos permite obtener una base adecuada
para C-espacios vectoriales, así que lo primero que vamos a hacer es crear tal
espacio. Sea VC = V × V . Entonces VC puede ser dotado de estructura de C es-
pacio vectorial con las siguientes operaciones:

Suma: definimos la operación + como

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ).

Es inmediato que con respecto a esta operación VC es un grupo abeliano.

Producto por un escalar: definimos

(a + bi )(x, y ) = (a x − b y , b x + a y ).

Es rutinario comprobar que estas operaciones dotan a VC de estructura de C-


espacio vectorial. Además, V ×0 es la parte real de VC y 0×V es la parte imagina-
ria. Entonces, un vector (x, y ) ∈ VC se puede escribir como x +i y , diciendo que
x es su parte real y y su parte imaginaria. Si no hay confusión, identificaremos
(x, 0) con x y (0, y ) con i y .

Base de VC

Sea B = {u1 , . . . , un } una base de V . Entonces

BC = {(u1 , 0), . . . , (un , 0)}

es una base de VC como C espacio vectorial.

P RUEBA : Consideremos una combinación lineal

(a1 + i b 1 )(u1 , 0) + · · · + (an + i b n )(un , 0) = (0, 0).

A partir de la definición de las operaciones, nos queda

(a1 u1 + · · · + an un , b 1 u1 + · · · + b n un ) = (0, 0).

Entonces es claro que son linealmente independientes. Si (v , w ) ∈ VC , sea


n
X n
X
v= a i ui , w = b i ui .
i =1 i =1

Álgebra Lineal y Geometría 275


Depto. de Álgebra

Entonces
(a1 + i b 1 )(u1 , 0) + · · · + (an + i b n )(un , 0) = (v , w ).


El endomorfismo f se extiende a un endomorfismo f ′ : VC → VC de manera


única, pues si B = {u1 , . . . , un } es una base de V y f (ui ) = vi para todo i =
1, . . . , n, definimos f ′ (ui , 0) = (vi , 0). Es claro que esta extensión es única.
Sea A la matriz de f respecto de B. Entonces la matriz de f ′ respecto a BC
es también A. Nuestro primer objetivo va a ser el cálculo de la forma canónica
de Jordan de f ′ sobre C, y, a partir de ella, obtener una forma canónica real para
f.
Sea λ un autovalor real de f , que lo es también de f ′ . Entonces la cons-
trucción de la parte de base canónica correspondiente a λ se hace con vectores
reales, pues el cálculo de la cadena {wi } involucra matrices reales. Por tanto, los
bloques de f ′ son reales.
Sea ahora λ autovalor de A complejo no real. La construcción de los bloques
correspondientes a λ en f ′ se realiza mediante el proceso de cálculo de una
cadena de vectores asociada a la matriz λI − A. Observemos que la dimensión
del espacio null(λI − A) es la misma que la de null(λI − A), pues

v ∈ null(λI − A) ⇔ A v = λv
⇔ A v = λv ⇔ v ∈ null(λI − A),

donde v es el vector que se obtiene conjugando las componentes de v . Análo-


gamente, la conjugación estable una biyección entre im(λI − A) y im(λI − A),
de forma que
w ∈ im(λI − A) y A y = λy + w ⇔
w ∈ im(λI − A) y A y = λy + w
Por tanto, la cadena de vectores de la base canónica que se construye para λ
permite construir una cadena equivalente para λ, mediante la conjugación de
los vectores.
Ahora vamos a transformar la base canónica compleja en una base con vec-
tores reales.
Sea λ = λ1 + i λ2 autovalor de f , y v = v1 + i v2 autovector asociado, donde
v1 , v2 son, respectivamente, las componentes real e imaginaria. Entonces
f (v1 ) = λ1 v1 − λ2 v2 ,
f (v2 ) = λ2 v1 + λ1 v2 .

En efecto, a partir de las expresiones


1 1
v1 = (v + v ), v2 = (v − v ),
2 2i

276 Álgebra Lineal y Geometría


Depto. de Álgebra

y f ′ (v ) = λ̄v tenemos el resultado.


Ahora vamos a unificar los restantes vectores de la cadena. Sea v = v1 +
i v2 , w = w1 + i w2 vectores que satisfacen las relaciones

f ′ (w ) = λw + v , f ′ (w) = λw + v

con λ = λ1 + i λ2 autovalor complejo no real de f ′ . Entonces, a partir de las


expresiones de vi , wi , i = 1, 2 en función de v , w y sus vectores conjugados, nos
queda que

f (w1 ) = λ1 w1 − λ2 w2 + v1 , f (w2 ) = λ2 w1 + λ1 w2 + v2 .

Tenemos así probado el siguiente teorema:

Base canónica real

Si la base canónica de Jordan es de la forma

C = {v , w , . . . , v , w , . . .},

con v = v1 + i v2 , w = w1 + i w2 y consideramos la base

C R = {v1 , v2 , w1 , w2 , . . .}

entonces la matriz de f respecto a C R tendrá bloques del tipo

1 0
 
λ1 λ2
 −λ2 λ1
 0 1 


 λ 1 λ2


−λ2 λ1
 
 
 .. 
.

 . 
1 0 
 

0 1 
 

 
 λ1 λ2 
−λ2 λ1

Álgebra Lineal y Geometría 277


Depto. de Álgebra

Ejemplo 7.6.1.- Consideremos la matriz


−1 2 4 2
 

 −2 2 4 3
 

A= ,
 
 2 −2 −5 −4 
 
−2 3 6 4
cuyos autovalores son λ1 = 1, λ2 = −1, λ3 = i , λ4 = −i , todos con multiplicidad
algebraica igual a 1. Entonces A es diagonalizable sobre C, con forma canónica
 
λ1
λ2
 
JC =  ,
 
 λ3 
λ4
y matriz de paso
0 1 4/5 + 2/5 i 4/5 − 2/5 i
 

 1 1 2/5 + 1/5 i 2/5 − 1/5 i 


 
¡ ¢
PC = v11 v21 v31 v41 = .
 
 −1 −1 −3/5 + 1/5 i −3/5 − 1/5 i 
 
1 1 1 1
Tal como hemos visto antes, los vectores v31 y v41 son conjugados entre sí, y la
construcción de la base canónica real se reduce a considerar los vectores
4/5 2/5
   

 2/5   1/5 
   
w31 = Re(v31 ) =   , w = Im(v41 ) =  .
   
 −3/5  32  1/5 
   
1 0
Entonces la forma canónica real es
 
1
−1
 
JR =  ,
 
 0 1 
−1 0
y la matriz de paso
0 1 4/5 2/5
 

 1 1 2/5 1/5 
 
.
¡ ¢
PR = v11 v21 w31 w32 =
 
 −1 −1 −3/5 1/5 
 
1 1 1 0

278 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 7.6.2.- La forma canónica compleja de la matriz


 
−2 3 1 0
−1 1 0 1
 
A=
 
0 1 0 1

 
1 −1 −1 1

es
1 0 0
 
i
 0 i 0 0 
 
JC =  ,
 
 0 0 −i 1 
 
0 0 0 −i
y matriz de paso

−1/2 − 1/2 i 1/2 + 1/2 i −1/2 + 1/2 i 1/2 − 1/2 i


 

1/2 i 1/2 i
 
 −1/2 i −1/2 i 
P = .
 

 −1/2 −1/2 i −1/2 1/2 i 

0 −1/2 i 0 1/2 i

Entonces la forma canónica real es

0 1 1 0 −1/2 −1/2 1/2 1/2


   

 −1 0 0 1   0 0 1/2
   
−1/2 
JR =   , y matriz de paso P R =  .
   
 0 0 0 1   −1/2 0 0 −1/2 
   
0 0 −1 0 0 0 0 −1/2

Álgebra Lineal y Geometría 279


Depto. de Álgebra

7.7. * Aplicaciones de la forma canónica

7.7.1. * Potencias de una matriz


Tal como hemos visto en sistemas dinámicos discretos, el comportamiento
a largo plazo del sistema depende de las potencias de la matriz asociada. Va-
mos a aprovechar la forma canónica de Jordan de la matriz para estudiar ese
comportamiento.
Sea A una matriz cuadrada y J su forma canónica de Jordan. Entonces existe
P no singular tal que J = P −1 AP , o bien A = P J P −1 , y

A m = (P J P −1 )(P J P −1 ) . . . (P J P −1 ) = P J m P −1 .

Así, se reduce el cálculo de la potencia m-ésima de A al de la potencia m-ésima


de J , que, como veremos, es más sencilla de calcular.

Potencia de un bloque de Jordan

Sea B un bloque de Jordan de orden t , con λ su elemento diagonal.


Entonces
 m ¡m ¢ m−1 ¡m ¢ m−2 ¡ m ¢ m−t+1 
λ 1
λ 2¢
λ . . . ¡t−1 λ
 0 m m m−1 m ¢ m−t+2 
. . . ¡t−2¢λ
¡
λ 1 λ
m
 
m
m
B =
 0 0 λ . . . t−3 λm−t+3 
.
 . .. .. .. ..
 .. .

. . . 
0 0 0 ... λm
¡m ¢
con el convenio de r = 0 si m < r .

P RUEBA : Un bloque de Jordan B se puede expresar como B = λI t +N , donde

0 1 ... 0 0
 
..
0 0 . 0 0
 
 
.. .. .. .. .
 
.
N t×t =
 . . . . .. 
 
 0 0 ... 0 1 
0 0 ... 0 0

Como λI t conmuta con cualquier matriz cuadrada de orden t , y N t−1 6= 0 y

280 Álgebra Lineal y Geometría


Depto. de Álgebra

N k = 0, k ≥ t , se tiene que

B m = (λI t + N )m
à ! à ! à !
m m m−1 m m−2 2 m
= λ It + λ N+ λ N +··· + λm−t+1 N t−1 ,
1 2 t −1

de donde se sigue la expresión buscada. 

Por consiguiente, la expresión general de la potencia m-ésima de A es

B 1m 0 ... 0
 

m
 0 B 2m ... 0 
 −1
A =P .. .. .. .. P ,

 . . . . 
0 0 . . . B tm

donde P es la matriz de paso a la forma canónica de Jordan, y cada B m


j
es la
potencia m-ésima de un bloque de Jordan.

Ejemplo 7.7.1.- La matriz


0 −1
µ ¶
A=
1 0

tiene los autovalores λ = i y λ = −i . Su forma canónica compleja es

0 1 1
µ ¶ µ ¶
i
J= , con matriz de paso P = .
0 −i −i i

Entonces

1 1 im 0 1 1
µ ¶µ ¶ µ ¶
m m −1 i
A =PJ P = m
−i i 0 (−i ) 2 1 −i
1 i m + (−i )m m+1
+ (−i )m+1 ¶
µ
i
= .
2 −i m+1 − (−i )m+1 −i m+2
− (−i )m+2

Álgebra Lineal y Geometría 281


Depto. de Álgebra

7.7.2. * Límite de la sucesión de potencias


Para escalares α ∈ C sabemos que αk → 0 si y solamente si |α| < 1, por lo que
es natural preguntarnos si algo parecido ocurre con las matrices.
Lo primero que necesitamos es definir el concepto de límite para sucesio-
nes de matrices cuadradas. Decimos que una sucesión de matrices A k converge
a una matriz A si cada elemento de A k − A converge a cero. Lo escribimos como
lı́mk→∞ A k = A.
La sucesión que vamos a estudiar es la de las potencias de una matriz {A k }.

Radio espectral

Sea A n×n una matriz con entradas complejas. El radio espectral de A


es
ρ(A) = máx{|λ| | λ autovalor de A}.

Ejemplo 7.7.2.- La matriz


0 −1
µ ¶
A=
1 0
tiene autovalores λ1 = i , λ2 = −i , de donde ρ(A) = máx{1, 1} = 1.

El radio espectral es el número asociado a la matriz A que determina el


comportamiento de A k .

Convergencia a cero

Sea A una matriz cuadrada. Son equivalentes:

1. lı́mk→∞ A k = 0.

2. ρ(A) < 1.

282 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Si P −1 AP = J es la forma canónica de Jordan de A, entonces

..
 
.
A k = P J k P −1 = P 
 −1
J ∗k

P ,
..
 
.

donde
1
 
λ
.. .. 
J∗ =  . . 

denota un bloque de Jordan en J . Claramente, A k → 0 si y solamente si J ∗k → 0


para cada bloque de Jordan, por lo que basta probar que ρ(A) < 1 si y solamente
si J ∗k → 0 para todo bloque de Jordan. Si usamos la convención de kj = 0 si
¡ ¢

j > k, tenemos
 ¡ k ¢ k−m+1 
λk k1 λk−1 k2 λk−2 . . . m−1
¡ ¢ ¡ ¢
λ

k k−1 . .. .. 
λk .
¡ ¢

 1 λ 

k
J∗ = 
 . .. . .. ¡ k k−2
¢ ,

(7.7.1)
 2¢
λ 
k k−1
λk
¡
1 λ
 
 
k
λ

con m el tamaño del bloque. Vamos a ver que si |λ| < 1 entonces
à !
k k−j
lı́m λ = 0 para cada valor fijado de j.
k→∞ j

Notemos que à !
k k(k − 1) · · · (k − j + 1) k j
= ≤ .
j j! j!
Entonces ¯Ã ! ¯
¯ k ¯ kj
λk−j ¯ ≤ |λ|k−j .
¯ ¯
¯ j!
¯
¯ j

El término de la derecha tiende a cero cuando k → ∞, porque k j tiende a infi-


nito con velocidad polinomial, mientras que |λ|k−j tiende a cero con velocidad
exponencial. Por tanto, si |λ| < 1 entonces J ∗k → 0.
Recíprocamente, supongamos que para cada λ autovalor de A se tiene que
J ∗k → 0 en cada bloque de Jordan. Como

|λ|k ≤ máximo de los módulos de las entradas de J ∗k ,

Álgebra Lineal y Geometría 283


Depto. de Álgebra

entonces |λ| tiene que ser menor que 1. 

Nos centramos ahora en la posibilidad de que exista el límite lı́m A k pero


que no sea cero. Como ya sabemos, lı́m A k existe si y solamente si existe lı́m J ∗k
para cada bloque de Jordan de A. También es claro que lı́m J ∗k no existe cuando
|λ| > 1, y conocemos el resultado cuando |λ| < 1. Por ello, debemos examinar el
caso |λ| = 1. Si |λ| = 1, con λ 6= 1, es decir, λ = exp(i θ), con 0 < θ < 2π, entonces
los términos diagonales λk oscilan indefinidamente, y esto hace que no exista
lı́m J ∗K . Cuando λ = 1,
¡k ¢ k ¢
1 ...
 ¡ 
1 m−1
.. .. ..
. .
 
k
 . 
J∗ = 
..

¡k ¢
.
 
1
 
1 m×m

tiene un valor límite si y solamente si m = 1, que es equivalente a decir que la


multiplicidad algebraica y geométrica de λ = 1 coinciden, pues el bloque 1 × 1
se repetirá p veces, su multiplicidad. Tenemos probado entonces el siguiente
resultado:

Límite de potencias

Existe lı́m A k si y solamente si la forma canónica de Jordan es de la for-


ma
I p×p 0
µ ¶
−1
J = P AP = , (7.7.2)
0 K
donde p es la multiplicidad algebraica (geométrica) de 1, y ρ(K ) < 1.

Supuesta la existencia de lı́m A k , queremos describir dicho límite. Si p = 0,


ya lo sabemos, dicho límite es la matriz nula. Si p > 0, entonces consideremos
µ ¶
¢ −1 Q1
P = P1 P2 , P = ,
¡
Q2

con P 1 matriz de orden n × p, Q 1 de orden p × n. Entonces

I p×p 0 I p×p 0
µ ¶ µ ¶
k −1
lı́m A = lı́m P P =P P −1
0 Kk 0 0
¢ I p×p 0
µ ¶µ ¶
Q1
= P 1Q 1 .
¡
= P1 P2
0 0 Q2

284 Álgebra Lineal y Geometría


Depto. de Álgebra

Si la multiplicidad algebraica es p = 1, entonces lı́m A k = vw t , donde v es


autovector de A asociado a 1, y w t es la primera fila de P −1 . Observemos que,
en tal caso,
1 1
µ ¶ µ ¶
−1
si P AP = entonces = P t A t (P t )−1 = Q −1 A t Q,
K Kt

donde Q = (P −1 )t . La primera columna de Q es autovector de A t asociado al


autovalor 1, y esa columna es la primera fila traspuesta de P −1 , esto es, w t .
Como P −1 P = I , se sigue que w t v = 1.
En conclusión, lı́m A k = vw t , donde v es autovector de A asociado a 1, y w
es autovector de A t asociado a 1, con w t v = 1.

Ejemplo 7.7.3.- Un modelo de predicción del tiempo en una ciudad durante


el invierno considera tres estados posibles: lluvioso (L), nublado (N) y soleado
(S). Las probabilidades de cambio del tiempo siguen el modelo

L k+1 = 0,8L k +0,7Nk +0,5S k ,


Nk+1 = 0,15L k +0,2Nk +0,3S k ,
S k+1 = 0,05L k +0,1Nk +0,2S k ,

donde L k es la probabilidad de lluvia el día k, y análogo para los otros estados.


Por ejemplo, la probabilidad de pasar de día lluvioso a soleado es 0,05. En forma
matricial podemos escribir pk+1 = A pk , donde

0,80 0,70 0,50


   
Lk
pk =  Nk  , A =  0,15 0,20 0,30  .
Sk 0,05 0,10 0,20

La matriz A es una matriz de probabilidad, esto es, sus columnas suman 1. Sus
autovalores son λ1 = 1, λ2 = 0,2, λ3 = 0. El espacio de autovectores asociado a
λ1 es
122/11
 

V1 (λ1 ) = 〈v1 =  27/11 〉.


1
Para A t , el espacio de autovectores asociado a λ1 está generado por w = (1, 1, 1)t .
Buscamos entonces v = r v1 tal que r ( 122 27
11 + 11 +1) = 1, de donde r = 11/160. Por
tanto,
122/60 122/60 122/60 0,76250 0,76250 0,76250
   

lı́m P k =  27/160 27/160 27/160  =  0,16875 0,16875 0,16875  .


11/160 11/160 11/160 0,06875 0,06875 0,06875

Álgebra Lineal y Geometría 285


Depto. de Álgebra

Según este modelo, las probabilidades en el futuro son, aproximadamente, 0,76, 0,17
y 0,07 de lluvioso, nublado y soleado, respectivamente.

7.7.3. * Relaciones de recurrencia

Ecuaciones de diferencias

Dados a1 , . . . , a p ∈ R, C, con a p 6= 0, llamamos ecuación lineal de dife-


rencias finitas con coeficientes constantes de orden p a una relación
de recurrencia del tipo

xn+p − a1 xn+p−1 − . . . − a p xn = ϕ(n), para todo n ≥ 1,

donde ϕ : N → R es una función.


Si ϕ(n) = 0 para todo n ∈ N, decimos que la ecuación de diferencias es
homogénea.

Una solución de la ecuación de diferencias es una sucesión {xn }n≥1 que la


satisfaga.
Vamos a calcular una expresión explícita de xn en función de n para el caso
homogéneo. Dada la ecuación de diferencias

xn+p − a1 xn+p−1 − · · · − a p xn = 0, n ≥ 1,

podemos escribir el siguiente sistema de ecuaciones lineales

xn+p = a1 xn+p−1 + · · · + a p−1 xn+1 + a p xn ,


xn+p−1 = xn+p−1 ,
..
.
xn+1 = xn+1 ,

cuya matriz de coeficientes es

a1 a2 . . . a p−1 a p
 

 1 0 ... 0 0 

A=
 0 1 ... 0 0 .

.. .. .. .. ..
.
 
 . . . . 
0 0 ... 1 0

286 Álgebra Lineal y Geometría


Depto. de Álgebra

Esta matriz será la matriz asociada a la ecuación de diferencias. Si escribimos


xn = (xn+p , xn+p−1 , . . . , xn+1 )t entonces

xn = A xn−1 = · · · = A n x0 .

Es claro de lo anterior que el término general xn+p de cualquier solución de la


ecuación de diferencias es una combinación lineal de los elementos de la pri-
mera fila de A n . Como sabemos calcular una expresión general de las potencias
de una matriz cuadrada a partir de sus autovalores, podemos decir algo más.

Término general de la ecuación de diferencias

El término general de una ecuación de diferencias

xn+p = a1 xn+p−1 + · · · + a p xn , para todo n ≥ 1,

es una combinación lineal de

λn , nλn , . . . , n s−1 λn ,

para cada autovalor λ de multiplicidad s de la matriz de la ecuación.

P RUEBA : Sea A la matriz de la ecuación, y J = P −1 AP su forma canónica de


Jordan. Entonces A n = P J n P −1 , de donde los elementos de la primera fila de A
son combinación lineal de los elementos de J n . Sabemos que estos elementos
son de la forma
à ! à ! à !
n n n
λn , λn−1 , λn−2 , . . . , λn−s+1 ,
1 2 s −1

para cada autovalor λ de A, con m su multiplicidad. Recordemos que los blo-


ques de Jordan son a lo sumo de orden s.
Ahora, para cada k = 1, 2, . . . , s − 1,
à !
n n−k λ−k λ−k k
λ = (n(n − 1) · · · (n − k + 1))λn = (n + b 1k n s−1 + · · · + b k,k−1 n)λn ,
k k! k!

para ciertos escalares b 1k , . . . , b k−1,k . Concluimos entonces que los elementos


de P J n P −1 son combinaciones lineales de

λn , nλn , n 2 λn , . . . , n s−1 λn ,

Álgebra Lineal y Geometría 287


Depto. de Álgebra

para cada autovalor λ de A, con multiplicidad s.




El caso en que la matriz de la ecuación en diferencias sea diagonalizable es


particularmente sencillo. Si λ1 , . . . , λr son los autovalores distintos de A, enton-
ces el término general de la ecuación es de la forma

xn+p = c1 λn1 + c2 λn2 + · · · + cr λnr ,

donde c1 , c2 , . . . , cr son escalares.


La determinación de las constantes que aparecen en las combinaciones li-
neales se hará a partir de las condiciones iniciales que nos proporcionen. Da-
rán lugar a un sistema de ecuaciones, y sus soluciones serán los coeficientes
buscados.

Ejemplo 7.7.4.- Sucesión de Fibonacci. Este es el ejemplo clásico que se usa


para ilustrar las ecuaciones en diferencias finitas homogéneas. Consideremos
la sucesión definida por la relación de recurrencia

a0 = 1, a1 = 1, an+1 = an + an−1 , n ≥ 2.
p p
La ecuación característica es z 2 = z + 1, de raíces r 1 = 21 (1 + 5), r 2 = 21 (1 − 5).
Entonces la forma general de la solución es

an = c1 r 1n + c2 r 2n ,

y tenemos que calcular los valores de c1 y c2 . Vienen dados por la condiciones


iniciales, por lo que obtenemos el sistema de ecuaciones

n = 0, a0 = 1 = c1 + c2 ,
½

n = 1, a1 = 1 = c1 r 1 + c2 r 2 .

Las soluciones son


1 1
c1 = p r 1 , c2 = − p r 2 ,
5 5
por lo que
1 1 1
an = p r 1 · r 1n − p r 2 · r 2n = p (r 1n+1 − r 2n+1 )
5 5 5
ÃÃ p !n+1 Ã p !n+1 !
1 1+ 5 1− 5
=p − .
5 2 2

288 Álgebra Lineal y Geometría


Depto. de Álgebra

Ejemplo 7.7.5.- En el estudio de la teoría de colas, aparece el modelo

λp 0 = µp 1 , (λ + µ)p n = λp n−1 + µp n+1 , n ≥ 1, λ < µ,

y los p i indican una distribución de probabilidad. La ecuación la podemos es-


cribir como
λ+µ λ
p n+1 = p n − p n−1 , n ≥ 1,
µ µ
y la ecuación característica es

λ+µ λ
z2 − z + = 0,
µ µ

de soluciones ρ = µλ y 1. Entonces la solución general tiene la forma

p n = c1 ρ n + c2 , n ≥ 1.
n
Como = 1, se deduce que c2 = 0, y que p 0 + c1 = 1. Entonces
P P
n≥0 p n n≥1 ρ

ρ 1−ρ
p 0 + c1 = 1, c1 = (1 − p 0 ).
1−ρ ρ
1−ρ n
Por tanto, p n = ρ ρ (1 − p 0 ), y la otra condición es p 1 = ρp 0 . Concluimos que

1−ρ
p1 = ρ(1 − p 0 ) = ρp 0 ,
ρ

de donde p 0 = 1 − ρ. Finalmente,

1−ρ n
pn = ρ ρ = (1 − ρ)ρ n .
ρ

Álgebra Lineal y Geometría 289


Depto. de Álgebra

Ejemplo 7.7.6.- Veamos ahora un problema de probabilidad asociado a una


cadena de Markov. Supongamos que en un juego, el jugador A tiene y monedas
y el jugador B x monedas. El jugador A gana una moneda del jugador B si acier-
ta el resultado del lanzamiento de una moneda, y la pierde en caso contrario.
¿Cuál es la probabilidad de que el jugador A gane las x monedas de B antes de
que el jugador B gane las y monedas de A?
La serie de lanzamientos la gana el jugador A si gana x monedas más que B an-
tes de que B gane y monedas más que A, y es ganada por B en caso contrario.
Sea p n la probabilidad de que A gane la serie en el estado en que ha ganado n
juegos más que B, donde −y ≤ n ≤ x. Esta definición es la adecuada porque las
condiciones para ganar el juego tienen que ver únicamente con la diferencia
entre los juegos ganados por A y B y no con los totales ganados. Vamos a es-
tablecer una ecuación en diferencias para p n . Sea p la probabilidad de que A
gane un juego y q la probabilidad de que lo haga B (p + q = 1). Sea S n el estado
en el que el jugador A tiene n monedas y p n = P (S n ) la probabilidad de ganar
cuando se encuentra en el estado S n . Entonces

P (S n ) = P (S n |W )P (W ) + P (S n |W̄ )P (W̄ ),

donde W es el suceso en el que el jugador A gana. Entonces P (W ) = p, P (W̄ ) = q


y, además,

P (S n |W ) = probabilidad de que A gane con n + 1 monedas,


P (S n |W̄ ) = probabilidad de que A gane con n − 1 monedas.

Es decir, P (S n |W ) = p n+1 y P (S n |W̄ ) = p n−1 , y obtenemos la ecuación en dife-


rencias
p n = pp n+1 + q p n−1 .
Para resolverla,
1 q
0 = pp n+1 − p n + q p n−1 , p n+1 = p n + p n−1 ,
p p
con condiciones iniciales p x = 1, p −y = 0. La ecuación característica es 0 = pz 2 −
z + q. Sus raíces son z = 1, z = q/p. Si p 6= q, tenemos dos raíces distintas, y
entonces
p n = α + β(q/p)n
para ciertos α, β. Si p = q, hay una raíz doble, y en este caso

p n = α + βn.

Apliquemos las condiciones iniciales p x = 1, p −y = 0. En el caso p 6= q obtene-


mos
1 = α + β(q/p)x , 0 = α + β(q/p)−y

290 Álgebra Lineal y Geometría


Depto. de Álgebra

lo que lleva a
1 (q/p) y
α= , β = −
1 − (q/p)x+y (1 − (q/p))x+y
y
1 − (q/p)n+y
pn = , si p 6= q.
1 − (q/p)x+y
En particular,
1−r y q
p0 = , donde r = .
1−r x+y p
Si p = q las ecuaciones para α y β son

1 = α + βx, 0 = α − βy

por lo que
y 1
α= ,β =
x+y x+y
y
y +n
pn = , si p = q.
x+y
y
En este último caso, p 0 = y+x .

7.7.4. * Exponencial de una matriz


Si A n×n = (ai j ) es una matriz con entradas complejas, para cada k defini-
mos la matriz P (k) = (p i(k) 1 h
) como I n + kh=1 h! A . Vamos a probar que para cada
P
j
1 ≤ i , j ≤ n el límite lı́m p i(k)
j
existe.
¯ ¯
Para una matriz B n×n = (b i j ), llamamos kBk0 = máxi ,j ¯b i j ¯. Es fácil ver que

kBk0 = 0 si y solamente si B = O, kαBk0 = |α| kBk0 , kB 1 + B 2 k0 ≤ kB 1 k0 + kB 2 k0 .

Si A h = (ai(h)
j
), entonces
¯ ¯
¯ ¯ ¯ n ¯ n ¯
¯ (2) ¯ ¯ X X
¯ak j ¯ ≤ kAk2 n, de donde ° A 2 ° ≤ n kAk2 .
¯ ° °
¯ai j ¯ = ¯ ai k ak j ¯ ≤ kAk0
¯
¯k=1 0 0 0
k=1
¯

Por inducción, kA s k0 = ° A s−1 A °0 ≤ ° A s−1 °0 kAk0 n ≤ n s−1 kAk0s . En general,


° ° ° °

° 1 s° s−1
1
° °
° A ° ≤n kAk0s ≤ [kAk0 n]s ,
° k! ° s! s!
0

Álgebra Lineal y Geometría 291


Depto. de Álgebra

por lo que kP (k)k0 ≤ ks=0 s!1 [kAk0 n]s ≤ exp(kAk0 n). En consecuencia, el límite
P

existe y da lugar a la siguiente definición:

Exponencial de una matriz

Sea A n×n una matriz con entradas complejas. La exponencial de la ma-


triz A es la matriz
e A = exp(A) = (lı́m p i(k)
j
).
k

Es usual escribir e A = I n + s≥1 s!1 A s . Comenzamos con el cálculo de la expo-


P

nencial de matrices sencillas.

Propiedades de la exponencial de una matriz

1. Sea D n×n = (d i i ) una matriz diagonal. Entonces e D es una matriz


diagonal de entradas e di i .

2. Si A es diagonal por cajas

O ... O e A1 O ... O
   
A1
 O A2 ... O  A
 O e A2 ... O 
A= .. entonces e = .. .
   
. .
 
   
O O ... Am O O . . . e Am

3. Si A y B son matrices semejantes, entonces e A y e B son semejan-


tes.

4. Si A y B son matrices que conmutan, entonces e A e B = e A+B =


eB e A.

P RUEBA :

1 s
1. Como D h es una matriz diagonal de entradas d isi , y e di i =
P∞
s=0 s! d i i , se
tiene el resultado.

292 Álgebra Lineal y Geometría


Depto. de Álgebra

2. Se sigue de forma sencilla a partir de la expresión

A 1s ...
 
O O
s
 O A 2s ... O 
A = .. .
 
 . 
s
O O ... Am

3. Si B = P −1 AP , con P no singular, entonces


à !
k 1 k 1
s
−1
(P −1 AP )s para cada k,
X X
P I+ A P =I+
s=1 s! s=1 s!

−1
de donde P −1 e A P = e P AP = e B (la aplicación M 7→ P −1 MP es continua
con respecto a la topología inducida por la norma).

4. Si A y B conmutan, entonces se tiene la fórmula del binomio de Newton


à !
s s j s−j
(A + B)s =
X
A B ,
j =0 j

de donde
k 1 k 1 X s s!
(A + B)s = I + A j B s−j
X X
I+
s=1 s! s=1 s! j =0 j !(s − j )!
k X s µ1 ¶µ
1

j s−j
X
=I+ A B .
s=1 j =0 j ! (s − j )!

Al tomar límite, obtenemos finalmente que e A+B = e A · e B . La otra igual-


dad se deduce de (A + B)s = (B + A)s .

Ejemplo 7.7.7.- Si A es una matriz para la que existe un entero t > 0 tal que
1 h
A t = O, y k es el menor de dichos enteros, entonces e A = I + kh=1 h! A . Por
P

ejemplo, si
0 1 2
 

A =  0 0 −1  ,
0 0 0

Álgebra Lineal y Geometría 293


Depto. de Álgebra

entonces
1 1 3/2
 
1
e A = I + A + A2 = 
 
2  0 1 .
−1 
0 0 1

Ejemplo 7.7.8.- Si

0 r cos(r ) sin(r )
µ ¶ µ ¶
B
B= entonces e = .
−r 0 − sin(r ) cos(r )

Si la forma canónica de Jordan de una matriz A es J , entonces existe P no


singular tal que

λi 1 . . . 0
 
J1 O . . . O
 
 O J2 . . . O  .. ..
. .
 
−1
 
A = P J P, donde J =  . , Ji =  .
 
.. .

.

. 1 
  

O O . . . Jr 0 λi

Por lo que hemos visto,

e J1 ...
 
O O
 O e J2 ... O 
eJ =  .. ,
 
 . 
O O . . . e Jr

y debemos dar una expresión para e J i . Dado que J i = λi I + Ni , con Ni una ma-
triz nilpotente y las matrices λi I y Ni conmutan, llegamos a
1 2 1
µ ¶
Ji λi I Ni λi Ni λi p−1
e = e e = e I e = e I + Ni + Ni + · · · + N ,
2! (p − 1)! i
donde p es el índice de nilpotencia de Ni , es decir, el menor entero p tal que
p
Ni = O. En consecuencia, la forma canónica de Jordan nos permite calcular
e A.

294 Álgebra Lineal y Geometría


Depto. de Álgebra

7.7.5. * Ecuaciones diferenciales


Consideremos un sistema de ecuaciones diferenciales de la forma
 ′
 y 1 (t ) = a11 y 1 (t ) + · · · + a1n y n (t ),

..
 .
 ′
y n (t ) = an1 y 1 (t ) + · · · + ann y n (t ),
donde los coeficientes ai j ∈ R y las funciones y i : R → R son diferenciables en la
variable t . El sistema admite una expresión matricial
 
y1
d  . 
Y (t ) = AY (t ), donde A = (ai j ) y Y =  ..  .
dt
yn
Vamos a considerar inicialmente el caso más sencillo en el que A es una ma-
triz diagonalizable. Entonces existe P no singular tal que D = P −1 AP es diago-
nal. Hagamos el cambio Z = P −1 Y , que define una nuevas funciones z i (t ), i =
1, . . . , n. Entonces
d d
Z = P −1 Y ,
dt dt
porque P −1 es una matriz de coeficientes constantes (no depende de la variable
t ). Entonces
d d
Z = P −1 Y = P −1 AY = P −1 AP Z = D Z ,
dt dt
que representa un sistema de la forma
 ′
 z 1 (t ) = λ1 z 1 (t ),

..
 .
 ′
z n (t ) = λn z n (t ),

que es fácilmente resoluble con funciones de la forma z i (t ) = C i e λi t , para algu-


nas constantes C i (pueden ser valores complejos).
En general, la matriz A no será diagonalizable y tenemos que usar entonces
la forma canónica de Jordan de A.

Derivada de la exponencial

Sea t ∈ R y A una matriz cuadrada de orden n. Entonces

d tA
e = Ae t A .
dt

Álgebra Lineal y Geometría 295


Depto. de Álgebra

P RUEBA : Por definición,


e (t+h)A − e t A
µ hA ¶
d tA e −I A
e = lı́m = lı́m e .
dt h→0 h h→0 h
hA
Si probamos que lı́mh→0 e h
−I
= A, tendremos el resultado. Como

h 2 A2 h s As
ehA = I + h A + +··· + +··· ,
2 s!
se sigue que
hA h 2 A2 h s As
e −I −hA = +··· + +··· .
2 s!
Si aplicamos k·k0 a ambos lados de la igualdad, nos queda
° ° 1° 1°
°e − I − h A ° ≤ °h 2 A 2 °0 + · · · + °h s A s °0 + · · ·
° hA ° ° °
0 2! s!
Recordemos que para cualquier matriz B de orden n se verifica kB s k0 ≤ n s−1 kBk0s ≤
n s kBk0s . Entonces
° s s°
°h A ° = |h|s ° A s ° ≤ |h|s n s kAks = khn Aks ,
° °
0 0 0 0

y tenemos la acotación
° ° 1 1
°e − I − h A ° ≤ khn Ak20 + · · · + khn Ak0s + · · ·
° hA °
0 2! s!
khn Ak0
=e − 1 − khn Ak0 .

Si dividimos por |h| tenemos finalmente


° hA knh Ak0
−1 e |h|nkAk0 − 1
°
°e − I
° ≤e
°
°
° h − A − kn Ak 0 = − n kAk0 .
°
0 |h| |h|
|h|nkAk0
° hA °
Cuando h → 0, entonces e |h| −1 → n kAk0 , de donde ° e h−I − A ° → 0, y te-
° °
0
nemos el resultado. 

Solución de un sistema diferencial con coeficientes constantes

Sea ddt Y (t ) = AY (t ) un sistema de ecuaciones diferenciales con coefi-


cientes constantes. Entonces la solución que para t = 0 toma el valor y0
es
Y (t ) = e t A y0 .

296 Álgebra Lineal y Geometría


Depto. de Álgebra

P RUEBA : Definimos Y (t ) = e t A y0 . Entonces, por el teorema de la derivada de la


exponencial,

d
Y (t ) = y0 Ae t A = AY (t ), por lo que es solución del sistema.
dt

Además, Y (0) = e O y0 = I y0 = y0 y esta solución verifica la condición inicial. 

Álgebra Lineal y Geometría 297


Depto. de Álgebra

298 Álgebra Lineal y Geometría