Anda di halaman 1dari 353

Álgebra

R.Criado y A.Gallinari

2003
2 Álgebra

Introducción
En sus orígenes, el álgebra clásica era el arte de resolver ecuaciones (la
palabra álgebra proviene de un vocablo árabe que signica reducción). El
álgebra moderna está caracterizada por el estudio de ciertas estructuras abs-
tractas que tienen en común una gran variedad de objetos matemáticos. El
calicativo abstracto se reere al resultado de realizar el proceso de abstrac-
ción sobre las propiedades observables de ciertos objetos matemáticos, es
decir, el proceso consistente en separar la forma del contenido.
La estructura principal objeto de estudio en esta publicación es la de
espacio vectorial. Las aplicaciones de esta estructura incluyen virtualmen-
te todas las áreas de la ciencia. Se incluye una aplicación de los espacios
vectoriales relacionada estrechamente con el mundo de la informática y las
telecomunicaciones, en concreto a la teoría de códigos y se estudian varias
técnicas y herramientas de interés para otras aplicaciones.
Este volumen viene acompañado por un libro de Prácticas y Problemas
con el sistema Maple V, disponible en versión digital, que contiene una am-
pliación y completa la descripción de los conceptos teóricos. Las prácticas
permiten el desarrollo y la experimentación con los aspectos más numéri-
cos y están diseñada para potenciar el empleo de la notable capacidad de
visualización gráca que ofrece el programa Maple V.
A cada tema teórico y práctico hemos añadido ejercicios resueltos y ejer-
cicios propuestos.
Los principales objetivos didácticos que intentamos conseguir son que el
lector:
• aprenda y utilize correctamente técnicas y métodos propios del álgebra
lineal.
• vea la descripción de algunas aplicaciones a la Informática.
• comprenda y aplique algunos métodos numéricos de resolución de sis-
temas de ecuaciones lineales y de aproximación de autovalores y auto-
vectores.
• aprenda a utilizar el programa Maple V (como ejemplo de sistema de
computación simbólica) en sus aplicaciones al álgebra lineal.
Algunos apartados de esta publicación (sobre todo en la parte de ejerci-
cios) son una adaptación del material contenido (unas veces sin modicarlo,
otras proponiendo variaciones de ello) en la bibliografía incluida.
Álgebra 3

Agradecimientos
Queremos agradecer al profesor Luis E. Solá Conde por su participación
en la corrección de estas notas y la elaboración de los enunciados de varios
ejercicios propuestos en este libro.
Gracias también a los profesores Alejandro J. García del Amo Jiménez
y Begoña Jiménez Martín por la elaboración de los enunciados de varios
ejercicios propuestos y a los alumnos que han señalado erratas y errores en
versiones previas de esta publicación.
4 Álgebra
Índice General

1 Sistemas de ecuaciones lineales, matrices y estructuras alge-


braicas 9
1.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussiana 10
1.1.1 Introducción a los sistemas de ecuaciones lineales . . . 10
1.1.2 Sistemas homogéneos . . . . . . . . . . . . . . . . . . . 13
1.1.3 Transformaciones elementales por las.
Introducción al método de Gauss-Jordan . . . . . . . . 14
1.1.4 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . 18
1.1.5 Estrategia para la aplicación del método
de eliminación gaussiana . . . . . . . . . . . . . . . . . 22
1.1.6 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . 24
1.2 Matrices y operaciones con matrices . . . . . . . . . . . . . . . 26
1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . 29
1.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . . 31
1.2.3 Propiedades del producto de matrices . . . . . . . . . . 33
1.2.4 El producto de una matriz por un escalar . . . . . . . . 37
1.2.5 El anillo de matrices cuadradas Mn (K) . . . . . . . . . 39
1.2.6 Matrices invertibles . . . . . . . . . . . . . . . . . . . . 40
1.2.7 Matrices elementales y un método para hallar A−1 . . . 43
1.3 Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 47
1.3.1 El concepto de operación . . . . . . . . . . . . . . . . . 47
1.3.2 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.3.3 Anillos y cuerpos . . . . . . . . . . . . . . . . . . . . . 52
1.3.4 Introducción a los Tipos Abstractos de Datos . . . . . 57
1.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
1.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 60
1.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 64

5
6 Álgebra

2 Espacios vectoriales 71
2.1 Vectores en el plano y en el espacio . . . . . . . . . . . . . . . 73
2.1.1 Producto vectorial y producto mixto . . . . . . . . . . 81
2.1.2 Rectas en le plano . . . . . . . . . . . . . . . . . . . . 83
2.1.3 Planos en el espacio tridimensional . . . . . . . . . . . 85
2.1.4 Rectas en el espacio tridimensional . . . . . . . . . . . 87
2.2 Espacios vectoriales sobre un cuerpo K . . . . . . . . . . . . . 89
2.2.1 Propiedades de vectores . . . . . . . . . . . . . . . . . 92
2.2.2 Producto cartesiano de espacios vectoriales . . . . . . . 93
2.2.3 Funciones con codominio en un espacio vectorial . . . . 96
2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 100
2.4 Dependencia e independencia lineal . . . . . . . . . . . . . . . 104
2.5 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . 112
2.5.1 Sistemas generadores y bases . . . . . . . . . . . . . . 112
2.5.2 Equipotencia de bases . . . . . . . . . . . . . . . . . . 116
2.6 Subespacios vectoriales y dimensión . . . . . . . . . . . . . . . 120
2.7 Rango de un sistema de vectores y de una matriz . . . . . . . 122
2.8 El teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . 123
2.9 Método de Gauss y rango . . . . . . . . . . . . . . . . . . . . 130
2.9.1 Transformaciones elementales por columnas y matrices
elementales . . . . . . . . . . . . . . . . . . . . . . . . 130
2.9.2 Método de Gauss para calcular el rango de una matriz 132
2.9.3 Algoritmo de extensión de una base . . . . . . . . . . . 138
2.9.4 Rango y espacio la de una matriz . . . . . . . . . . . 139
2.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2.10.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 141
2.10.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 146

3 Funciones lineales 153


3.1 Funciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 154
3.2 Propiedades de funciones lineales . . . . . . . . . . . . . . . . 158
3.3 Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.4 Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . 165
3.5 Funciones lineales en espacios vectoriales de dimensión nita . 167
3.5.1 Determinación de funciones lineales en espacios vecto-
riales de dimensión nita . . . . . . . . . . . . . . . . . 167
3.5.2 Dimensiones del núcleo y de la imagen . . . . . . . . . 172
3.5.3 Matriz asociada a una función lineal . . . . . . . . . . 174
Álgebra 7

3.5.4 Algoritmo para hallar una base del núcleo y de la imagen178


3.5.5 Matriz asociada a la composición de funciones lineales . 179
3.5.6 Matrices semejantes y cambios de base . . . . . . . . . 183
3.5.7 Ecuaciones paramétricas e implícitas de un subespacio
vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 185
3.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 190
3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 193

4 Espacios vectoriales euclídeos 197


4.1 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 197
4.2 Longitud o norma euclídea de un vector . . . . . . . . . . . . 200
4.2.1 Propiedades de la norma euclídea . . . . . . . . . . . . 200
4.3 Método de ortogonalización de Gram-Schmidt . . . . . . . . . 204
4.3.1 Descomposición QR de una matriz . . . . . . . . . . . 209
4.4 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . 211
4.4.1 Método para hallar una proyección ortogonal . . . . . . 214
4.4.2 Aproximación óptima de un vector. . . . . . . . . . . . 215
4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
4.5.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 217
4.5.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 217

5 Códigos lineales 219


5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.2 Distancia de Hamming, detección y corrección de errores . . . 222
5.2.1 Código de paridad: detección de errores simples . . . . 223
5.2.2 Código de repetición: corrección de errores simples . . 224
5.3 Códigos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 225
5.3.1 Paso de una matriz de control a una matriz generadora 228
5.3.2 Paso de una matriz generadora a una matriz de control 229
5.3.3 Detección y corrección de errores . . . . . . . . . . . . 232
5.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 235
5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 236

6 Autovalores y autovectores 239


6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
6.2 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 241
8 Álgebra

6.3 Funciones complejas de variable real . . . . . . . . . . . . . . 243


6.3.1 La exponencial compleja . . . . . . . . . . . . . . . . . 244
6.4 Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . 246
6.4.1 La ecuación de primer orden . . . . . . . . . . . . . . . 246
6.4.2 La ecuación de orden n . . . . . . . . . . . . . . . . . . 249
6.4.3 Sistemas de ecuaciones diferenciales . . . . . . . . . . . 251
6.5 La semejanza de matrices y los sistemas de ecuaciones . . . . . 253
6.5.1 Sistemas diagonales . . . . . . . . . . . . . . . . . . . . 255
6.5.2 Sistemas triangulares . . . . . . . . . . . . . . . . . . . 256
6.6 Diagonalización y triangulación de matrices . . . . . . . . . . 259
6.6.1 El polinomio característico de una matriz . . . . . . . . 259
6.6.2 Matrices diagonalizables . . . . . . . . . . . . . . . . . 263
6.6.3 Triangulación de matrices . . . . . . . . . . . . . . . . 268
6.6.4 Resolución de sistemas de ecuaciones diferenciales por
triangulación . . . . . . . . . . . . . . . . . . . . . . . 271
6.7 Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . 279
6.7.1 Relaciones de primer orden . . . . . . . . . . . . . . . . 281
6.7.2 Sistemas de relaciones de recurrencia . . . . . . . . . . 286
6.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
6.8.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 290
6.8.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 291

7 Soluciones de los ejercicios 293


7.1 Soluciones de los ejercicios
del capítulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
7.2 Soluciones de los ejercicios
del capítulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
7.3 Soluciones de los ejercicios
del capítulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
7.4 Soluciones de los ejercicios
del capítulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
7.5 Soluciones de los ejercicios
del capítulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
7.6 Soluciones de los ejercicios
del capítulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 335

A Nuevo método de triangulación por semejanza 343


Capítulo 1
Sistemas de ecuaciones lineales,
matrices y estructuras algebraicas

Este primer capítulo comienza con el estudio de los sistemas de ecuaciones


lineales, de las matrices y de las operaciones con matrices.
Estos conceptos están en la base del álgebra lineal, y se asume que ya se
ha tenido un contacto previo con ellos en cursos anteriores.
Es conveniente señalar que en este nivel no sólo es importante entender
los métodos de cálculo de las soluciones de los problemas que se estudiarán,
sino también el porqué dichos métodos funcionan.
Hablaremos de sistemas de n ecuaciones con m variables, donde n y m
en general no son iguales, y de un algoritmo de cálculo, el método de elimi-
nación gaussiana, que nos permitirá resolver sistemas de ecuaciones lineales
generales.
En la segunda parte del capítulo, una vez establecidas las propiedades
que satisfacen las matrices respecto de la suma y producto, se introducen
las estructuras algebraicas de grupo, anillo y cuerpo con el objeto de reu-
nir, bajo una estructura algebraica abstracta, las propiedades que tienen en
común, por ejemplo, los números enteros, reales y complejos, las matrices y
los polinomios, y destacar aquellas propiedades que no comparten. En ese
sentido, la denición de una estructura algebraica (por ejemplo, la denición
de grupo) responderá a la abstracción de ciertas propiedades comunes a los
objetos anteriores, entendiendo por abstracción el proceso de separar la for-
ma del contenido. Como colofón del capítulo y aplicación de los conceptos
previamente introducidos veremos una introducción a los tipos abstractos de
datos.

9
10 Álgebra

1.1 Sistemas de ecuaciones lineales, matrices y


eliminación gaussiana
Al aplicar la teoría de ecuaciones lineales, entre otras disciplinas, a la infor-
mática, aparecen ecuaciones lineales con coecientes enteros, binarios (0 ó
1), reales o incluso complejos. La denición de la estructura algebraica de
cuerpo se introducirá más tarde. Cómo en la mayor parte de los resultados
referentes a la teoría de ecuaciones lineales no hace falta hacer distinción
entre los casos en los que los coecientes son elementos del cuerpo R de los
números reales o del cuerpo C de los números complejos, a lo largo del ca-
pítulo se considerará que los coecientes de las ecuaciones pertenecen a un
cuerpo genérico K, donde K = R ó C, aunque en algunos casos en los que se
dirá explícitamente, se consideraran también coecientes binarios, es decir,
del cuerpo Z2 = {0, 1} de los números enteros módulo 2.
Se asume que el estudiante ha trabajado en cursos anteriores con elemen-
tos de R2 y R3 , a los que se denominan pares ordenados y ternas. Ambos
conceptos son casos particulares del concepto de n − tupla o elemento del
producto cartesiano de n copias de R, Rn , donde n es un número natural, o
en general de Kn . Así

Kn = {(x1 , ..., xn ) | ∀i ∈ {1, ..., n} xi ∈ K}

De este modo, un par ordenado es una 2 − tupla (un elemento de K2 ) y


una terna es una 3 − tupla (un elemento de K3 ).

1.1.1 Introducción a los sistemas de ecuaciones lineales


Denición 1.1.1 Una ecuación lineal en las variables (o incógnitas) x1 , ..., xn
es una expresión de la forma

a1 x1 + ... + an xn = b

A a1 , ..., an ∈ K se les denomina coecientes de la ecuación, y a b ∈ K


término independiente.

Observación 1 Habitualmente, los coecientes a1 , ..., an y el término inde-


pendiente b serán elementos de un cuerpo K (con K = R ó C). En tal caso
se dice que la ecuación anterior es una ecuación lineal con coecientes en K.
Álgebra 11

Observación 2 Cuando n ≤ 3 es usual utilizar las variables x, y y z en


lugar de x1 , x2 y x3

Ejemplo 1.1.2 Si n = 2 y a1 , a2 ∈ R, la ecuación lineal

a1 x + a2 y = b (I)

representa una recta en el plano R2 , es decir, el conjunto de pares (x, y) que


satisfacen la ecuación (I) constituyen una recta. Por ejemplo, la ecuación
y − 2x = 2 representa la recta

6 ½
½
½
2½½
½ -
½-1 0
½
½

Figura 1.1: La recta y=2x+2

Es importante observar que las operaciones que afectan a las variables


que intervienen en las ecuaciones lineales se reducen a multiplicarlas por los
coecientes y sumarlas. Así por ejemplo,

3x + 4y = 24

x1 − x2 + 5x3 − ( 2)x4 = 1

(e2 )x1 − 3x2 + x3 − x4 = 0


son ecuaciones lineales. Sin embargo NO son ecuaciones lineales

3x2 + 4y = 24

x1 − x2 + 5x3 − 2 x4 = 1

e2x1 − 3x2 + x3 − x4 = 0
12 Álgebra

Denición 1.1.3 Se dice que (α1 , ..., αn ) ∈ Kn es solución de la ecuación


a1 x1 + ... + an xn = b

si
a1 α1 + ... + an αn = b.

Ejemplo 1.1.4 (x, y, z) = (3, 2, −1) es solución de x + y + z = 4. Por otra


parte (x, y, z) = (4, 0, 0) también es solución de dicha ecuación.

Un sistema de ecuaciones lineales es una sucesión nita de ecuaciones


lineales. Es usual representar los sistemas de ecuaciones lineales verticalmen-
te (i.e., colocando la sucesión de ecuaciones lineales en columna). Así, un
sistema de m ecuaciones lineales con n incógnitas se representaría por


 a11 x1 + ... + a1n xn = b1
..
 .
 a x + ... + a x = b
m1 1 mn n m

Ejemplo 1.1.5 El sistema



 x2 + x3 = 1
2x1 − x3 = 2

x2 + x3 = 4
es un sistema de 3 ecuaciones con 3 incógnitas.

Denición 1.1.6 Se dice que (α1 , ..., αn ) ∈ Kn es solución del sistema de


ecuaciones 

 a11 x1 + ... + a1n xn = b1
..
 .
 a x + ... + a x = b
m1 1 mn n m

si
∀i ∈ {1, ..., m} ai1 α1 + ... + ain αn = bi
o, lo que es lo mismo,


 a11 α1 + ... + a1n αn = b1
..
 .
 a α + ... + a α = b
m1 1 mn n m
Álgebra 13

Es importante tener presente que los sistemas de ecuaciones lineales pue-


den no tener soluciones, o tener más de una. Por ejemplo, el sistema de
ecuaciones lineales con coecientes en R
½
x1 − x2 = 1
x1 − x2 = 4
no tiene solución, ya que contiene las ecuaciones de dos rectas distintas y
paralelas.
Los sistemas de ecuaciones lineales que no tienen solución, como el del
ejemplo anterior, se denominan sistemas incompatibles.
Los que tienen al menos una solución, esto es, los sistemas compati-
bles, pueden tener una única solución, en cuyo caso se denominan compati-
bles determinados, o más de una solución, en cuyo caso, si los coecientes
del sistema son números reales o complejos, el sistema tiene innitas solucio-
nes (como se verá por el teorema 1.2.14), y los sistemas correspondientes se
denominan compatibles indeterminados.

Ejercicio 1.1.1 Encontrar tres sistemas de dos ecuaciones lineales con coe-
cientes en R con dos incógnitas, uno compatible determinado, otro compatible
indeterminado y un tercero incompatible y representar el conjunto solución
de cada una de las dos ecuaciones lineales que lo forman en el plano R2 .
Extraer conclusiones.

1.1.2 Sistemas homogéneos


Denición 1.1.7 Se dice que un sistema de ecuaciones lineales es homogé-
neo si los términos independientes de todas las ecuaciones que lo constituyen
son iguales a 0.

Ejemplo 1.1.8 ½
x1 + x3 = 0
2x1 − x2 + x3 = 0
es un sistema homogéneo de 2 ecuaciones con 3 incógnitas.

Observación 3 Cualquier sistema de ecuaciones lineales homogéneo




 a11 x1 + ... + a1n xn = 0
..
 .
 a x + ... + a x = 0
m1 1 mn n
14 Álgebra

es compatible, puesto que (0, ..., 0) ∈ Kn es siempre una solución de dicho


sistema. A esta solución se la conoce como solución trivial. Si un sistema
homogéneo tiene soluciones distintas de la trivial, a cualquiera de dichas
soluciones la denominaremos solución no trivial.

En el capítulo 2 demostraremos que un sistema homogéneo de ecuaciones


lineales con coecientes en R ó C satisface exactamente una de las siguientes
proposiciones:

• El sistema homogéneo sólo tiene la solución trivial.

• El sistema homogéneo tiene innitas soluciones además de la trivial.

En particular, demostraremos que todo sistema homogéneo con coe-


cientes en R ó C que tenga más incógnitas que ecuaciones tiene innitas
soluciones.
Se pueden comprender e interiorizar los resultados anteriores a través
de la resolución de los siguientes ejercicios:

Ejercicio 1.1.2 Comprobar que el sistema homogéneo


½
x1 + x3 = 0
2x1 − x2 + x3 = 0

tiene innitas soluciones en ∈ R3 , despejando las variables x1 y x2 en función


de x3 , y obtener una solución del sistema para cada valor de x3 considerado.

Ejercicio 1.1.3 Vericar que el sistema


½
x1 + x2 = 0
2x1 − x2 = 0

sólo tiene la solución trivial.

1.1.3 Transformaciones elementales por las.


Introducción al método de Gauss-Jordan
En esta sección haremos una primera descripción del método de Gauss-
Jordan para encontrar las soluciones (si es que existen) de un sistema de
ecuaciones lineales. La justicación del método y su descripción precisa se
Álgebra 15

realizará en las dos siguientes secciones. En esta sección también daremos


una primera justicación de la denición del producto de matrices (i.e., de
porqué el producto de matrices se dene tal y como se dene). Al proceso
de cálculo de las soluciones de un sistema de ecuaciones compatible se le
denomina resolución del sistema.
Si consideramos el sistema de ecuaciones lineales:

 x1 − x2 + x3 = 1
2x1 + x2 − x3 = 2

x1 + 2x2 + x3 = 4

podemos resolverlo eliminando sucesívamente una de las incógnitas de dos


de las ecuaciones, después otra de las restantes y así sucesivamente hasta
conocer el valor de una incógnita, y a partir de ella el de las demás. En este
caso, multiplicando la primera ecuación por 2 y restándosela a la segunda, y
restando la primera ecuación a la tercera, obtenemos:

 x1 − x2 + x3 = 1
3x2 − 3x3 = 0

3x2 = 3.
A partir de aquí, de la tercera ecuación se obtiene x2 = 1. Sustituyendo hacia
atrás vamos obteniendo sucesívamente el valor del resto de las incógnitas.
En este caso, de la segunda ecuación obtenemos que x3 = 1, y, conocidos los
valores de x2 y x3 , de la primera ecuación obtenemos que x1 = 1.
El método descrito, consistente en ir eliminando las incógnitas de las
ecuaciones una a una mediante el proceso de sumar a una ecuación otra
multiplicada por un número, para, una vez obtenido el valor de una de las
variables, ir sustituyendo hacia atrás, se conoce como eliminación gaussia-
na.
Si una vez obtenido el valor de una de las variables, en lugar de sustituir
hacia atrás, seguimos sumando a una ecuación otra multiplicada por un nú-
mero, multiplicando ambos miembros de la ecuación por números adecuados e
intercambiando ecuaciones con el objeto de obtener un sistema de ecuaciones
escalonado en el que en cada ecuación aparezca únicamente una incógnita,
estaremos aplicando el método conocido como método de Gauss-Jordan.
Una forma de representar sistemas de ecuaciones lineales consiste en uti-
lizar matrices, esto es, tablas de coecientes ordenadas según un número
determinado de las y columnas. De hecho, el método de Gauss-Jordan se
16 Álgebra

aplica más fácilmente sobre la que se denomina matriz ampliada asociada al


sistema que sobre el propio sistema. La matriz asociada al sistema

 x1 − x2 + x3 = 1
2x1 + x2 − x3 = 2

x1 + 2x2 + x3 = 4

es por denición la matriz


 
1 −1 1
 2 1 −1 
1 2 1

y la matriz ampliada asociada a dicho sistema es


 
1 −1 1 1
 2 1 −1 2 
1 2 1 4

La aplicación del método de Gauss-Jordan sobre dicha matriz para obte-


ner la solución del sistema de ecuaciones que representa nos daría sucesíva-
mente:
   
1 −1 1 1 1 −1 1 1
 2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 ↔ F3 →
F3 = F3 − F1
1 2 1 4 0 3 0 3

   
1 −1 1 1 1 −1 1 1
 0 3 0 3  F2 = 13 F2 →  0 1 0 1  F3 = F3 − 3F2 →
0 3 −3 0 0 3 −3 0

   
1 −1 1 1 1 −1 1 1
 0 1 0 1  F3 = − 13 F3 →  0 1 0 1  F1 = F1 − F3 →
0 0 −3 −3 0 0 1 1
   
1 −1 0 0 1 0 0 1
 0 1 0 1  F1 = F1 + F2 →  0 1 0 1 
0 0 1 1 0 0 1 1
Álgebra 17

La última matriz representa, obviamente, que x1 = 1, x2 = 1 y x3 = 1.


En la resolución del sistema anterior hemos aplicado sobre la matriz am-
pliada del sistema lo que se denominan transformaciones elementales por
las. Estas son las siguientes:
1. Sumar a una la otra multiplicada por un número: Fi = Fi + λFj
2. Multiplicar una la por un número distinto de cero: Fi = λFi
3. Intercambiar dos las: Fi ↔ Fj
En cualquier caso, no todos los sistemas de ecuaciones lineales tienen
solución. Por ejemplo, si consideramos el sistema
½
x1 − x2 = 1
2x1 − 2x2 = 4
la aplicación de las transformaciones elementales correspondientes sobre la
matriz ampliada asociada al sistema nos lleva a
µ ¶ µ ¶
1 −1 1 1 −1 1
F2 = F2 − 2F1 →
2 −2 4 0 0 2
es decir, 0x1 + 0x2 = 2.
Así pues, el sistema anterior es un sistema incompatible.
Un ejemplo de sistema compatible indeterminado sería el siguiente:

 x1 − x2 + x3 = 1
2x1 + x2 − x3 = 2

2x1 − 2x2 + 2x3 = 2
Al resolverlo por el método de Gauss-Jordan obtenemos:
   
1 −1 1 1 1 −1 1 1
 2 1 −1 2  F2 = F2 − 2F1 →  0 3 −3 0  F2 = 13 F2 →
F3 = F3 − 2F1
2 −2 2 2 0 0 0 0
   
1 −1 1 1 1 0 0 1
 0 1 −1 0  F1 = F1 + F2 →  0 1 −1 0 
0 0 0 0 0 0 0 0
es decir, x1 = 1 y x2 − x3 = 0, o lo que es lo mismo, x2 = x3 , con lo que,
si escribimos x3 = t, para cada valor de t tenemos una solución del sistema.
Sería solución del sistema (1, 1, 1), (1, 2, 2), ... en total tendríamos innitas
soluciones, tantas como posibles valores del parámetro t; esto ocurre porque
estamos trabajando sobre el cuerpo de los números reales, luego t toma
valores en R, que es innito.
18 Álgebra

1.1.4 Sistemas equivalentes


La aplicación sucesiva de transformaciones elementales por las sobre un sis-
tema de ecuaciones lineales (o sobre su matriz ampliada) permite pasar de
un sistema de ecuaciones lineales a otro que, teniendo las mismas soluciones
que el planteado, es más sencillo de resolver. En esta sección demostraremos
con todo detalle que esto es efectivamente así. Por otra parte, las transforma-
ciones elementales son reversibles, es decir, si realizando transformaciones
elementales sobre un sistema de ecuaciones lineales S obtenemos un siste-
ma de ecuaciones lineales S 0 , podemos recuperar S a partir de S 0 realizando
las transformaciones elementales “inversas” en el orden adecuado (el orden
inverso del que se ha seguido para pasar de S a S 0 ).

TRASFORMACIÓN TRANSFORMACIÓN INVERSA


Fi = Fi + λFj Fi = Fi − λFj
1
Fi = λFi (λ 6= 0) Fi = Fi
λ
Fi ↔ Fj Fi ↔ Fj

Ejercicio 1.1.4 Realizar las transformaciones F3 = F3 − F1 , F3 ↔ F1 ,


1
F2 = F2 sobre la matriz ampliada asociada al sistema.
2

 x1 − x2 + x3 = 1
2x1 + 2x2 − 2x3 = 2

x1 + 2x2 + x3 = 4
para obtener la matriz A0 . Realizar sobre A0 las transformaciones inversas
de las anteriores en el orden adecuado y comprobar que se obtiene la matriz
ampliada asociada al sistema dado.
Denición 1.1.9 Se dice que dos sistemas de m ecuaciones lineales con n
incógnitas son equivalentes si uno de ellos puede obtenerse a partir del otro
realizando sobre el primero una sucesión nita de transformaciones elemen-
tales por las.
Observación 4 Como ya hemos señalado, habitualmente representaremos a
un sistema de ecuaciones lineales


 α11 x1 + ... + α1n xn = β1
..
 .
 α x + ... + α x = β
m1 1 mn n m
Álgebra 19

por su matriz ampliada:


 
α11 ... α1n β1
Am =  ... .. ..  ∈ M

. .  m×(n+1) (K),
αm1 ... αmn βm

con lo que las transformaciones elementales se realizan sobre las las de esta
matriz.

A la vista de la observación anterior tiene sentido establecer la siguiente


denición:

Denición 1.1.10 Si una matriz A0 se obtiene realizando transformaciones


elementales por las sobre una matriz A, diremos que las matrices A y A0
son equivalentes por las.

Observación 5 A las transformaciones elementales por las, realizadas, bien


directamente sobre las ecuaciones del sistema, bien sobre las las de su matriz
ampliada las denotaremos del mismo modo.

Ejercicio 1.1.5 Vericar que la relación de equivalencia de matrices en


Mm×n (K) es una relación binaria reexiva, simétrica y transitiva (es decir,
es una relación de equivalencia en el sentido general).

Teorema 1.1.11 Si dos sistemas de ecuaciones son equivalentes, entonces


tienen exactamente las mismas soluciones. En otras palabras, si S y S 0 son
equivalentes,

(α1 , ..., αn ) es solución de S ⇔ (α1 , ..., αn ) es solución de S 0 .

Demostración Para demostrar el teorema, es suciente con estudiar el


caso en el que un sistema se obtiene a partir de otro mediante la aplicación
de una única transformación elemental por las. Supongamos que el sistema
considerado es 

 α11 x1 + ... + α1n xn = β1

 α21 x1 + ... + α2n xn = β2
S≡ ..

 .

 α x + ... + α x = β
m1 1 mn n m
20 Álgebra

Es obvio que el intercambio de lugar entre dos ecuaciones del sistema no


altera el conjunto solución del mismo. Por consiguiente la aplicación de una
transformación del tipo Fi ↔ Fj no altera el conjunto solución. Además,
teniendo esto presente, podemos restringir el estudio al caso en el que las
transformaciones elementales se aplican únicamente sobre la primera y la
segunda ecuación, dejando el resto inalteradas. Sea λ 6= 0, y supongamos
que


 λα11 x1 + ... + λα1n xn = λβ1

 α21 x1 + ... + α2n xn = β2
S0 ≡ ..

 .

 α x + ... + α x = β
m1 1 mn n m

Veamos que (s1 , ..., sn ) solución de S ⇒ (s1 , ..., sn ) solución de S 0 .


Si (s1 , ..., sn ) es solución de S, tendremos que


 α11 s1 + ... + α1n sn = β1

 α21 s1 + ... + α2n sn = β2
..

 .

 α s + ... + α s = β
m1 1 mn n m

con lo que, multiplicando ambos miembros de la primera igualdad por λ,


obtenemos que


 λα11 s1 + ... + λα1n sn = λβ1

 α21 s1 + ... + α2n sn = β2
..

 .

 α s + ... + α s = β
m1 1 mn n m

es decir, que (s1 , ..., sn ) es solución de S 0 .


Veamos ahora el recíproco, i.e., que
(s1 , ..., sn ) solución de S 0 ⇒ (s1 , ..., sn ) solución de S.
Si (s1 , ..., sn ) es solución de S 0 , tendremos que


 λα11 s1 + ... + λα1n sn = λβ1

 α21 s1 + ... + α2n sn = β2
..

 .

 α s + ... + α s = β
m1 1 mn n m
Álgebra 21

1
con lo que, multiplicando ambos miembros de la primera igualdad por λ
,
obtenemos que 

 α11 s1 + ... + α1n sn = β1

 α21 s1 + ... + α2n sn = β2
..

 .

 α s + ... + α s = β
m1 1 mn n m

es decir, que (s1 , ..., sn ) es solución de S.


Supongamos ahora que


 α11 x1 + ... + α1n xn = β1

 (α21 + µα11 )x1 + ... + (α2n + µα1n )xn = (β2 + µβ1 )
S0 ≡ ..

 .

 α x + ... + α x = β
m1 1 mn n m

Veamos que (s1 , ..., sn ) solución de S ⇒ (s1 , ..., sn ) solución de S 0 .


Si (s1 , ..., sn ) es solución de S, tendremos que


 α11 s1 + ... + α1n sn = β1

 α21 s1 + ... + α2n sn = β2
..

 .

 α s + ... + α s = β
m1 1 mn n m

con lo que, multiplicando los dos miembros de la primera ecuación por µ, y


sumando miembro a miembro la primera ecuación a la segunda obtendremos


 α11 s1 + ... + α1n sn = β1

 (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 )
..

 .

 α s + ... + α s = β
m1 1 mn n m

Recíprocamente, veamos que (s1 , ..., sn ) solución de S 0 ⇒ (s1 , ..., sn ) solución


de S.
Si (s1 , ..., sn ) es solución de S 0 , tendremos que


 α11 s1 + ... + α1n sn = β1

 (α21 + µα11 )s1 + ... + (α2n + µα1n )sn = (β2 + µβ1 )
..

 .

 α s + ... + α s = β
m1 1 mn n m
22 Álgebra

Multiplicando la primera igualdad por µ y restándosela a la segunda obtene-


mos que


 α11 s1 + ... + α1n sn = β1

 α21 s1 + ... + α2n sn = β2
..

 .

 α s + ... + α s = β
m1 1 mn n m

con lo que (s1 , ..., sn ) es solución de S. Esto completa la demostración del


teorema. 2

1.1.5 Estrategia para la aplicación del método


de eliminación gaussiana
1. Reordenar las ecuaciones para que en la primera ecuación la primera
variable x1 tenga un coeciente no nulo, y multiplicar ambos miembros de
dicha ecuación para que el coeciente de dicha variable sea 1.
2. Restar la primera ecuación multiplicada por un escalar adecuado a las
demás ecuaciones con el objeto de que la primera variable aparezca solamente
en la primera ecuación.
3. En el caso de que sea posible, reordenar las ecuaciones de la segunda
en adelante con el objeto de que la segunda variable x2 aparezca con un
coeciente no nulo y multiplicar ambos miembros de dicha ecuación para
que el coeciente de dicha variable sea 1. Si la variable x2 no aparece más
que en la primera ecuación, hacer la operación anterior con la variable x3 o
con la primera variable que aparezca con un coeciente no nulo en alguna de
las ecuaciones restantes (todas salvo la primera).
4. Restar la segunda ecuación multiplicada por un escalar adecuado a las
ecuaciones situadas bajo la misma con el objeto de que la segunda variable
(o la que corresponda) no aparezca en ninguna ecuación situada por debajo
de la segunda.
5. Operando análogamente con el resto de las ecuaciones, el sistema así
obtenido será un sistema escalonado, es decir, un sistema que se ajusta a la
siguiente denición.

Denición 1.1.12 Se dice que un sistema de ecuaciones es escalonado si


Álgebra 23

La primera variable de cada ecuación tiene 1 como


(E.1) coeciente (a esta variable la denominaremos variable
principal de dicha ecuación).
La variable principal de cualquier ecuación siempre
aparece situada a la derecha de las variables
(E.2)
principales de las ecuaciones previas, y todas las ecuaciones
sin variable principal aparecen colocadas al nal.

La última frase de (E.2) puede parecer algo misteriosa. Sin embargo,


al llevar a cabo la estrategia anterior sobre un sistema concreto, podríamos
obtener una ecuación de la forma

0x1 + ... + 0xn = k

con k = 0 o k 6= 0 (en este último caso el sistema es incompatible). Este tipo


de ecuaciones deberán aparecer siempre en las últimas las del sistema.

Ejemplo 1.1.13 Los siguientes sistemas de ecuaciones son escalonados:



 x1 + x2 + 3x3 = 9
x2 + 6x3 = 24

x3 = −4
½
x1 + x2 + x3 − 5x4 = 4
x3 − 2x4 = 6.
Las matrices ampliadas asociadas a estos sistemas son
 
1 1 3 9
 0 1 6 24 
0 0 1 −4
y
µ ¶
1 1 1 −5 4
0 0 1 −2 6

El conjunto de soluciones de un sistema escalonado es razonablemente


sencillo de obtener. Un sistema de ecuaciones escalonado será compatible en
todos los casos en los que no aparezca una ecuación de la forma

0x1 + ... + 0xn = k, con k 6= 0.


24 Álgebra

Suponiendo que el sistema es compatible, a cualquier variable que no sea


la variable principal de una ecuación la denominaremos variable libre. Si
una variable es variable principal de un sistema de ecuaciones escalonado,
diremos que dicha variable no es libre (o también que está determinada).
El siguiente proceso, conocido como sustitución hacia atrás o remonte,
obtiene todas las soluciones del sistema asignando parámetros a las variables
libres.

Sustitución hacia atrás en el método de eliminación gaussiana


Suponiendo que no aparece ninguna ecuación de la forma

0x1 + ... + 0xn = k

con k 6= 0 en el sistema escalonado obtenido, comenzamos con la última


ecuación del sistema asignado un parámetro diferente a cada variable libre
y expresando la variable determinada por la última ecuación en términos
de estos parámetros. Después, operaremos análogamente con la penúltima
ecuación, asignando diferentes parámetros a cada una de las nuevas variables
libres, y obteniendo el valor de la variable determinada por la penúltima
ecuación. Realizando las mismas operaciones con el resto de las ecuaciones
hasta llegar a la primera, al nal del proceso todas las variables libres tendrán
asignado un parámetro diferente, y todas las variables determinadas estarán
expresadas en términos de estos parámetros.

Ejercicio 1.1.6 Resolver los siguientes sistemas de ecuaciones lineales por


el método de eliminación gaussiana.:

 2x1 + x2 + 3x3 = 9
5x1 + 4x2 + 6x3 = 24

x1 + 3x2 − 2x3 = 4
½
3x1 + x2 + x3 − 5x4 = 4
5x1 + 2x2 + 4x3 − 2x4 = 6

1.1.6 Método de Gauss-Jordan


El método de Gauss-Jordan es una extensión del método de eliminación gaus-
siana, que consiste en eliminar la variable principal de la ecuación correspon-
diente no solamente en las ecuaciones que aparecen situadas por debajo de
Álgebra 25

la misma, sino en todas las ecuaciones del sistema. Por ello, la estrategia es
la misma que la del método de eliminación de Gauss, con la adición de las
siguientes instrucciones en el lugar correspondiente:
4. Sustraer además la segunda ecuación multiplicada por un escalar ade-
cuado de la primera ecuación, con el objeto de eliminar la segunda variable
de la primera ecuación.
5. En cada paso sustraer la ecuación correspondiente multiplicada por
un escalar adecuado tanto de las ecuaciones situadas por debajo de la misma
como de las situadas por encima, con el objeto de que la variable principal
de cada ecuación aparezca únicamente en la ecuación de la que es variable
principal.
Los sistemas de ecuaciones que resultan de la aplicación del método de
Gauss-Jordan se dice que tienen forma escalonada reducida, es decir:
Denición 1.1.14 Se dice que un sistema de ecuaciones está en forma es-
calonada reducida si
La primera variable de cada ecuación tiene 1 como
(E.R.1) coeciente (a esta variable la denominaremos variable
principal de dicha ecuación).
La variable principal de cualquier ecuación siempre
aparece situada a la derecha de las variables
(E.R.2)
principales de las ecuaciones previas, y todas las ecuaciones
sin variable principal aparecen colocadas al nal.
La variable principal de cada ecuación aparece solamente
(E.R.3)
en la ecuación de la que es variable principal.
Ejemplo 1.1.15 Vamos a resolver el siguiente sistema de ecuaciones por el
método de Gauss Jordan, es decir, obteniendo una forma escalonada reducida
de dicho sistema 
 x1 − 4x2 + x3 = 2
−x1 + 3x2 − x3 = 1

x1 + 2x3 = 3

Para ello, trabajamos directamente sobre la matriz ampliada asociada al


sistema, teniendo presente en todo momento qué es lo que representan los
coecientes de dicha matriz:
 
1 −4 1 2
 −1 3 −1 1  F2 = F2 + F1 →
F3 = F3 − F1
1 0 2 3
26 Álgebra
 
1 −4 1 2 F2 = (−1)F2
 0 −1 0 3  F1 = F1 + 4F2 →
0 4 1 1 F3 = F3 − 4F2
   
1 0 1 −10 1 0 0 −23
 0 1 0 −3  F1 = F1 − F3 →  0 1 0 −3  .
0 0 1 13 0 0 1 13
La última matriz ampliada representa el sistema en forma escalonada
reducida. El sistema es, por tanto, compatible determinado y su solución es
(−23, −3, 13).

Ejercicio 1.1.7 Resolver los siguientes sistemas de ecuaciones lineales por


el método de Gauss-Jordan:

 x1 − x2 − x3 + x4 = 5
x2 − x3 + 2x4 = 8

2x1 − x2 − 3x3 + 4x4 = 18

 x1 + 5x2 − 2x3 = 0
x1 − 3x2 + x3 = 0

x1 + 5x2 − x3 = 0

1.2 Matrices y operaciones con matrices


Al realizar una primera lectura de los epígrafes siguientes, hasta completar la
totalidad del capítulo, se puede pensar que K = R ó C aunque los resultados
obtenidos serán válidos para cualquier cuerpo K.
Como hemos visto en la sección anterior, las matrices permiten represen-
tar sistemas de ecuaciones lineales. Veamos una denición precisa de lo que
es una matriz:

Denición 1.2.1 Una matriz de orden m × n con coecientes en un cuerpo


K (por ejemplo K = R ó C) es una función:

A : {1, ..., m} × {1, ..., n} −→ K


(i, j) ; A(i, j)

Se dice entonces que A es una matriz con m las y n columnas. Es


usual representar el coeciente A(i, j) de la matriz A por su correspondiente
Álgebra 27

minúscula con dos subíndices, en este caso aij , y a la matriz completa A por
una tabla en la que en la la `“i” y en la columna “j” aparece el elemento
aij :  
a11 ··· a1n
 
 
A =  ... ..  .

 aij . 

 
am1 ··· anm
Así por ejemplo, la matriz A de dos las y dos columnas determinada por
A(1, 1) = 0, A(1, 2) = 1, A(2, 1) = −1, A(2, 2) = 4
µ ¶
0 1
se representará por .
−1 4
Al conjunto de matrices de m las y n columnas con coecientes en K lo
denotaremos por Mm×n (K).

Es obvio que de la denición anterior se sigue que dos matrices A, B son


iguales si son iguales como funciones, es decir, si son del mismo orden (i.e.,
si tienen el mismo número de las y de columnas, o lo que es lo mismo A, B ∈
Mm×n (K) para algún m y n) y ∀(i, j) ∈ {1, ..., m}×{1, ..., n} A(i, j) = B(i, j).

Ejemplo 1.2.2 Veamos algunos ejemplos de matrices denidas con notación


funcional:
1. A ∈ M3×3 (K) denida por (A(i, i) = 1, ∀i = 1, 2, 3) ∧ (A(i, j) =
0, ∀i, j ∈ {1, 2, 3}, i 6= j) es la matriz:
 
1 0 0
 0 1 0 
0 0 1

2. Podemos utilizar también congruencias módulo un número entero so-


bre i y j para denir la matriz; por ejemplo B ∈ M3×3 (R) dada por
(A(i, j) = 1 ⇔ i + j ≡ 1 mod 2) ∧ (A(i, j) = 0 ⇔ i + j ≡ 0 mod 2)
se representa por  
0 1 0
 1 0 1 
0 1 0
28 Álgebra

3. Otro ejemplo es la matriz C ∈ M3×3 (R) dada por (A(i, j) = 2i−1 3j−1 ),
que es  
1 3 9
 2 6 18 
4 12 36

Recordemos ahora algunas deniciones y veamos otras nuevas:

• Si A ∈ Mm×n (K) se dice que A es una matriz de orden m×n. Si m = n,


en lugar de escribir Mn×n (K), escribiremos Mn (K), y si A ∈ Mn (K)
diremos que A es una matriz cuadrada de orden n.

• Si A ∈ Mm×n (K), utilizaremos indistintamente la notación usual aij o


la funcional A(i, j) para referirnos al elemento de la matriz A situado
en la la i − ésima y en la columna j − ésima. Por ello escribiremos en
ocasiones A = (aij ) ∈ Mm×n (K) para referirnos a una matriz genérica
de orden m × n. (Obsérvese que a es la minúscula de A).

• Si A ∈ Mm×1 (K) se dice que A es una matriz columna (de m las).


• Si A ∈ M1×n (K) se dice que A es una matriz la (de n columnas).

• Si A ∈ Mm×n (K), ∀i ∈ {1, ..., m} llamaremos la i-ésima de A a la


matriz la de n columnas

Ai = (ai1 ... ain ).

Análogamente, llamaremos columna j-ésima de A a la matriz columna


de m las  
a1j
 
Aj =  ...  .
amj

• Una matriz de particular interés es la matriz identidad a la que


denotaremos por In (hay una para cada valor natural de n). Así por
ejemplo,
 
  1 0 0 0
µ ¶ 1 0 0
1 0  0 1 0 0 
I2 = , I3 =  0 1 0  e I4 =   0 0 1 0 .

0 1
0 0 1
0 0 0 1
Álgebra 29

En general la matriz In = (aij ) ∈ Mn (K) se dene por la condición


∀i, j ∈ {1, ...n}, aii = 1 ∧ (i 6= j ⇒ aij = 0). Utilizando la notación
funcional, In ∈ Mn (K) quedaría determinada por las condiciones:
(∀i ∈ {1, ..., n} In (i, i) = 1) ∧ (∀i, j ∈ {1, ..., n} (i 6= j ⇒ In (i, j) = 0)).

• Si A ∈ Mm×n (K) se denomina matriz traspuesta de A a la matriz


t
A ∈ Mn×m (K) tal que ∀(i, j) ∈ {1, ..., n} × {1, ..., m}
t
A(i, j) = A(j, i)

(empleando la notación no funcional, si t A = (bij ), entonces

∀(i, j) ∈ {1, ..., n} × {1, ..., m} bij = aji ).

Así por ejemplo, si


 
1 2
A =  2 0  ∈ M3×2 (R),
3 −1
su traspuesta es
µ ¶
t 1 2 3
A= ∈ M2×3 (R).
2 0 −1

Un método sistemático para obtener la matriz traspuesta de una matriz


dada consiste en ir leyendo los coecientes por las para sistemática-
mente escribirlos por columnas.

1.2.1 Suma de matrices


La denición de suma de matrices es muy natural:

Denición 1.2.3 Si A, B ∈ Mm×n (K), la suma de A y B es la matriz


A + B ∈ Mm×n (K) denida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = A(i, j) + B(i, j)


     
1 −1 1 3 2 2
Ejemplo 1.2.4  3 0  +  2 0  =  5 0 
1 2 0 −2 1 0
30 Álgebra

Observación 6 De la denición anterior se sigue que para que dos matrices


se puedan sumar deben ser del mismo orden.

Se denomina matriz nula de orden m × n a la matriz (0) ∈ Mm×n (K)


denida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n} (0)(i, j) = 0

Así por ejemplo,


µ ¶
0 0 0
(0) ∈ M2×3 (C) es la matriz .
0 0 0

Observación 7 En lo sucesivo también escribiremos (0) ∈ Mm×n (K) para


representar a la matriz nula de orden m × n.

Denición 1.2.5 Si A ∈ Mm×n (K) se denomina matriz opuesta de A a la


matriz (−A) ∈ Mm×n (K) denida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n} (−A)(i, j) = −A(i, j) ∈ K

Así por ejemplo,


   
1 −1 −1 1
−  3 0  =  −3 0 
1 2 −1 −2

y
µ ¶ µ ¶
2 −1 0 −2 1 0
− = .
1 1 3 −1 −1 −3

Proposición 1.2.6 Si A, B, C ∈ Mm×n (K), se verica que:

1. A + B = B + A (propiedad conmutativa de la suma de matrices)


2. A + (B + C) = (A + B) + C (propiedad asociativa)
3. A + (0) = A, (0) + A = A ((0) es el elemento neutro para +)
4. A + (−A) = (0), (−A) + A = (0) ((−A) es la opuesta de A)
Álgebra 31

Demostración Se trata de comprobar, en cada caso, que las matrices si-


tuadas a ambos lados de la igualdad son efectivamente iguales. Demostrare-
mos la primera propiedad y el resto se propone como ejercicio.
Hay que comprobar que
∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = (B + A)(i, j)
Sea (i, j) ∈ {1, ..., m} × {1, ..., n}. (A + B)(i, j)= (por denición)=
=A(i, j) + B(i, j)=(puesto que la suma de números reales o complejos y,
en general, de los elementos de un cuerpo, satisface la propiedad conmutati-
va) =B(i, j) + A(i, j)= (por denición) =(B + A)(i, j). 2

Por satisfacer las 4 propiedades de la proposición anterior se dice que las


matrices de orden m × n con coecientes en K tienen estructura de grupo
abeliano respecto de la suma. De la matriz (0) se dice que es el elemento
neutro del grupo abeliano, y de la matriz (−A) se dice que es la matriz
opuesta de A.

1.2.2 Producto de matrices


En capítulos venideros veremos que la siguiente denición del producto de
matrices permitirá representar la actuación de una función lineal sobre un
elemento como un producto de matrices, hecho que a su vez tendrá como
consecuencia el que la composición de funciones lineales se exprese como un
producto de matrices.
Si consideramos una ecuación lineal, por ejemplo
2x1 + x2 + 6x3 = 3,
es posible considerar la parte izquierda de la igualdad como el producto de
la matriz de coecientes
(2 1 6)
por la matriz de incógnitas  
x1
 x2 
x3
y escribir  
x1
(2 1 6) ·  x2  = (3)
x3
32 Álgebra

Si la ecuación anterior forma parte de un sistema, por ejemplo del sistema



 2x1 + x2 + 6x3 = 3
5x1 + 4x2 + 6x3 = 24

x1 + 3x2 − 2x3 = 4
teniendo en cuenta que de la denición de matriz se sigue que dos matrices
son iguales si tienen el mismo número de las y de columnas y los mismos
coecientes en cada la y columna, resulta que, utilizando la denición de
producto de matrices anterior, podemos representar el sistema de ecuaciones
mediante un producto de matrices, esto es:
     
2 1 6 x1 3
 5 4 6  ·  x2  =  24  .
1 3 −2 x3 4
En general, el sistema de ecuaciones


 a11 x1 + ... + a1n xn = b1
..
 .
 a x + ... + a x = b
m1 1 mn n m

puede representarse mediante el producto denido por la expresión:


   
x1 b1
   
A ·  ...  =  ...  .
xn bm
Claro está que podemos considerar sistemas de ecuaciones con la misma
matriz de coecientes y distinto término independiente. Por ejemplo:
 
 2x1 + x2 + 6x3 = 3  2x1 + x2 + 6x3 = 1
5x1 + 4x2 + 6x3 = 24 y 5x1 + 4x2 + 6x3 = 1 .
 
x1 + 3x2 − 2x3 = 4 x1 + 3x2 − 2x3 = 1
En ese caso, teniendo en cuenta, por una parte, que las soluciones de uno
no tienen porqué coincidir con las del otro, por lo que denotamos por y1 , y2
e y3 a las incógnitas del segundo sistema, y por otra, cuando dos matri-
ces son iguales, podemos representarlos matricialmente de forma simultánea,
mediante la expresión:
     
2 1 6 x1 y 1 3 1
 5 4 6  ·  x2 y2  =  24 1  .
1 3 −2 x3 y 3 4 1
Álgebra 33

Esto nos lleva a la denición de producto de dos matrices. Como observa-


ción previa a la denición, nótese que en los ejemplos anteriores, para poder
multiplicar la matriz de coecientes por la de incógnitas, era preciso que
el número de las de la matriz de coecientes coincidiese con el número de
columnas de la matriz de incógnitas.

Denición 1.2.7 Dadas las matrices A ∈ Mm×n (K) y B ∈ Mn×p (K) se


denomina matriz producto de A y B , y se denota por A · B a la matriz
A · B ∈ Mm×p (K) tal que
n
X
∀(i, j) ∈ {1, ..., m} × {1, ..., p} A · B(i, j) = A(i, k) · B(k, j)
k=1

 
1 2 0  
 1 2  1 −1
−1 
Ejemplo 1.2.8 Dadas las matrices  1 1 ∈ M4×3 (R) y  3 0  ∈
0 
1 2
0 4 3
M3×2 (R), su producto es la matriz
   
1 2 0   7 −1
 1 2 −1  1 −1 
 · 3 0 = 6 −3 
 ∈ M4×2 (R)
 1 1 0   4 −1 
1 2
0 4 3 15 6

1.2.3 Propiedades del producto de matrices


El producto de matrices no es conmutativo, pues por ejemplo
µ ¶ µ ¶ µ ¶
1 1 1 −1 2 −2
· =
1 1 1 −1 2 −2
y sin embargo µ ¶ µ ¶ µ ¶
1 −1 1 1 0 0
· = .
1 −1 1 1 0 0

Proposición 1.2.9 El producto de matrices satisface las siguientes propie-


dades:
34 Álgebra

1. Es asociativo: ∀A ∈ Mm×n (K), B ∈ Mn×p (K) y C ∈ Mp×q (K),

(A · B) · C = A · (B · C)

(y por tanto podemos omitir los paréntesis para denotar cualquiera de


estos productos y escribir A · B · C ).

2. Es distributivo respecto de la suma:

∀A ∈ Mm×n (K), ∀B, C ∈ Mn×p (K) A · (B + C) = A · B + A · C

∀A ∈ Mm×n (K), ∀B, C ∈ Mp×n (K) (B + C) · A = B · A + C · A

3.

∀A ∈ Mm×n (K), A · (0) = A y (0) · A = (0)

Demostración Antes de dar la demostración debemos señalar que es usual


P
n
emplear el símbolo sumatorio ai en lugar de la expresión a1 + ... + an , lo
i=1
que tiene sentido puesto que la suma considerada es asociativa.

1. Sean A ∈ Mm×n (K) ,B ∈ Mn×p (K) y C ∈ Mp×q (K). Las dos matrices
A·(B ·C) y (A·B)·C tienen el mismo orden, ya que ambas pertenecen a
Mm×q (K). Veamos que ∀(i, j) ∈ {1, ..., m}×{1, ..., q} (A·(B ·C))(i, j) =
((A · B) · C)(i, j) :
Álgebra 35

n
X
(A · (B · C))(i, j) = A(i, k) · (B · C) (k, j) =
k=1
n
à p !
X X
= A(i, k) · B(k, s) · C(s, j) =
k=1 s=1
n
à p !
X X
(prop. distributiva en K) = A(i, k) · (B(k, s) · C(s, j)) =
k=1 s=1
n
à p !
X X
(prop. asociativa en K) = (A(i, k) · B(k, s)) · C(s, j) =
s=1
k=1
à n
p
!
X X
(prop. distributiva en K) = A(i, k) · B(k, s) · C(s, j) =
s=1 k=1
p
X
= (A · B) (i, s) · C(s, j) =
s=1
= ((A · B) · C)(i, j)

2. Se demuestra razonando de forma similar al apartado anterior.


3. Ejercicio. 2

Observación 8 Demostraciones como la anterior se incluyen para que


puedan ser consultadas por los alumnos interesados. En cualquier caso, es
conveniente conocer algunos hechos relativos a la notación, y a los resultados
derivados del uso de la misma. Por ejemplo, en la proposición anterior hemos
utilizado la igualdad
n
à p ! p
à n !
X X X X
A(i, k) · B(k, s) · C(s, j) = A(i, k) · B(k, s) · C(s, j)
k=1 s=1 s=1 k=1

que intuitivamente es evidente, puesto que tanto el producto de números


reales como el de números complejos es conmutativo y distributivo respecto
de la suma. La demostración de que esta igualdad es válida es consecuencia
de las siguientes propiedades relacionadas con el símbolo sumatorio, cuya
demostración también se puede hacer por inducción:
36 Álgebra

• Si {ai }i∈{1,...,n} y {bj }j∈{1,...,p} son dos familias de números reales o com-
plejos, se verica que ∀n ∈ N, ∀p ∈ N,
n
à p ! n
à à p !!
X X X X
ai · bj = ai · bj
i=1 j=1 i=1 j=1

Es decir, que
P
n
(ai b1 + · · · + ai bp ) =
i=1
= (a1 b1 + · · · + a1 bp ) + · · · + (an b1 + · · · + an bp ) =
= a1 (b1 + · · · + bp ) + · · · + an (b1 + · · · + bp ) .
Para demostrar la identidad anterior, razonamos por inducción sobre
“n”.
Base de inducción: hay que probar que si n = 1,
1
à p ! 1
à à p !!
X X X X
∀p ∈ N ai · bj = ai · bj
i=1 j=1 i=1 j=1

o lo que es lo mismo, que


à p ! à p !
X X
∀p ∈ N a1 · bj = a1 · bj .
j=1 j=1

Esta propiedad se demuestra


à razonando por inducción
! Ã !sobre “p” : si
Pp P
1
p = 1 es obvio que a1 · bj = a1 · b1 = a1 · bj . Suponiendo
j=1 j=1
à ! à !
Pp P
p
entonces cierto que a1 · bj = a1 · bj , resulta que
j=1 j=1
à p+1 ! à p !
X X
a1 · bj = a 1 · bj + a1 · bp+1 =
j=1 j=1
= (por hipótesis de inducción) =
à p !
X
= a1 · bj + a1 · bp+1 =
j=1
à p+1 !
X
= a1 · bj .
j=1
Álgebra 37

La demostración del paso de inducción sobre “n” se propone como


ejercicio para todo aquel alumno interesado en hacerla.

• Si {aik }(i,k)∈{1,...,n}×{1,...,p}
µ p es
¶ unapfamilia
µ n de¶números reales o complejos,
Pn P P P
se verica que aik = aik o, lo que es lo mismo,
i=1 k=1 k=1 i=1

(a11 + · · · + a1p ) + · · · + (an1 + · · · + anp ) =


(a11 + · · · + a1n ) + · · · + (a1p + · · · + anp ) .

La demostración es similar a la del punto anterior.

Ejercicio 1.2.1 Demostrar que la trasposición de matrices satisface las si-


guientes propiedades:

1. ∀A ∈ Mm×n (K) t t
( A) = A

2. ∀A, B ∈ Mm×n (K) t


(A + B) =t A +t B

3. ∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K), t


(A · B) =t B ·t A

Ejercicio 1.2.2 Demostrar que ∀A ∈ Mm×n (K) y ∀B ∈ Mn×m (K)

A · In = A ∧ In · B = B

(es decir, In deja invariante por el producto a cualquier matriz por la que se
pueda multiplicar, sea o no cuadrada).

1.2.4 El producto de una matriz por un escalar


Denición 1.2.10 Si α ∈ K y A ∈ Mm×n (K) se dene la matriz αA por las
siguientes condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n} (αA)(i, j) = αA(i, j)


   
1 2 −3 −6
Ejemplo 1.2.11 (−3)  2 0  =  −6 0 
3 −1 −9 3
38 Álgebra

Ejemplo 1.2.12 Siendo α ∈ K


 
α 0 0 ··· 0
 0 α 0 ··· 0 
 
 0 0 α ··· 0 
(αIn ) =   ∈ Mn (K)
 .. .. .. . . . 
 . . . . .. 
0 0 0 ··· α

Proposición 1.2.13 ∀α, β ∈ K ∀A ∈ Mm×n (K) se verica que


1.∀B ∈ Mn×p (K) A · (αB) = (αA) · B = α(A · B)
2.∀B ∈ Mm×n (K) α(A + B) = αA + αB
3. (−α)(A) = (α)(−A) = −(αA)
4. (α + β)A = αA + βA
5. (αβ)A = α(βA)

Demostración Ejercicio. 2

Teorema 1.2.14 Todo sistema de ecuaciones lineales con coecientes reales


o complejos o bien no tiene soluciones, o bien tiene exactamente una solución
o bien tiene una innidad de soluciones.

Demostración Necesitamos comprobar que si un sistema tiene más que


una solución, entonces tiene innitas soluciones. Sea AX = B el sistema
dado y s1 , s2 dos soluciones distintas (s1 6= s2 ). Entonces,

As1 = B = As2 y As1 − As2 = A(s1 − s2 ) = (0).

Se sigue que s1 − s2 es solución del sistema homogéneo AX = 0 y que para


todo λ ∈ K, s3 ≡ s1 + λ(s1 − s2 ) es solución de AX = B :

As3 = A(s1 + λ(s1 − s2 )) = As1 + A(λ(s1 − s2 )) =

= As1 + λA(s1 − s2 ) = As1 = B.


Hemos hallado tantas soluciones como elementos en K. Como K es, por hi-
pótesis, R o C (que son innitos), obtenemos innitas soluciones. 2
Álgebra 39

1.2.5 El anillo de matrices cuadradas Mn (K)


Según hemos visto, el conjunto Mm×n (K) de las matrices de m las y n
columnas sobre un cuerpo K tiene estructura de grupo abeliano respecto de
la suma habitual de matrices.
En este apartado vamos a estudiar la estructura algebraica que tiene el
conjunto de las matrices cuadradas, Mn×n (K), respecto de las operaciones
de suma y producto, ya que el producto de matrices es una operación en
Mn×n (K) (el producto de dos matrices cuadradas de dimensión n es una
matriz cuadrada de dimensión n).

Propiedades del producto en Mn (K)


Proposición 1.2.15 Si A, B, C ∈ Mn (K), se verica que:
1. A · (B · C) = (A · B) · C (propiedad asociativa del producto de matrices)
2. A · (B + C) = A · B + A · C (propiedad distributiva de + respecto de ·)
3. A · In = A, In · A = A (la matriz In es elemento neutro para ·).

Demostración La demostración de las propiedades 1 y 2 se ha hecho en un


caso más general. La demostración de la propiedad 3 se deja como ejercicio
(se trata de ver que las matrices A · In y A son iguales y lo mismo con la otra
igualdad). 2

Observación 9 Por tener Mn (K) estructura de grupo conmutativo respecto


de la suma de matrices y satisfacer las propiedades de la proposición ante-
rior se dice que el conjunto de matrices cuadradas de orden n, Mn (K), tiene
estructura de anillo unitario respecto de la suma y producto de matrices ha-
bituales y elemento unidad la matriz In .

La operación de producto en Mn (K) permite denir potencias enteras no


negativas de una matriz cuadrada:

Denición 1.2.16 Si A es una matriz cuadrada, A ∈ Mn (K), se dene


∀m ∈ N
Am = (Am−1 ) · A
donde, por convenio de notación, se asume que A0 = In .
40 Álgebra

Observación 10 No es difícil comprobar que ∀m, r ∈ N ∀A ∈ Mn (K) se


satisfacen las siguientes propiedades:
1. Am+r = Am · Ar
2. (Am )r = Amr

Observación 11 Nótese que como consecuencia de la no conmutatividad del


producto de matrices, si A, B ∈ Mn (K) en general tendremos que

(A + B)2 = A2 + B 2 + A · B + B · A 6= A2 + B 2 + 2A · B

Sin embargo, si A y B conmutan para el producto, es decir, si A·B = B·A,


entonces es obvio que (A + B)2 = A2 + B 2 + 2A · B y, en general, asumiendo
por convenio de notación que A0 = B 0 = In , se verica que ∀m ∈ N
µ ¶ µ ¶ µ ¶
m m m 0 m m−1 m
(A + B) = A ·B + A · B + ... + A0 · B m .
0 1 m
Teniendo ahora en cuenta que, siendo α ∈ K
 
α 0 0 ··· 0
 0 α 0 ··· 0 
 
 α ··· 0 
(αIn ) =  0 0  ∈ Mn (K)
 .. .. .. . . .. 
 . . . . . 
0 0 0 ··· α

y que toda matriz conmuta con la identidad, podemos obtener la siguiente


fórmula, válida ∀A ∈ Mn (K), ∀m ∈ N :
µ ¶ µ ¶ µ ¶
m m m
m
(A + αIn ) = m
A + (αIn ) Am−1
+ ... + (αIn )m
0 1 m

1.2.6 Matrices invertibles


Denición 1.2.17 Se dice que A ∈ Mn (K) es invertible si ∃B ∈ Mn (K) tal
que
A · B = In ∧ B · A = In .

Obviamente, si B y B 0 satisfacen las condiciones de la denición anterior,


es decir, si
A · B = In ∧ B · A = In
Álgebra 41

y
A · B 0 = In ∧ B 0 · A = In
resulta que

B = B · In = B · (A · B 0 ) = (B · A) · B 0 = In · B 0 = B 0

por lo que dada A ∈ Mn (K) a lo sumo hay una matriz B que satisface las
condiciones de la denición anterior.

Denición 1.2.18 Si A ∈ Mn (K) es invertible, y

A · B = In ∧ B · A = In .

se dice que B es la matriz inversa de A y a dicha matriz la denotaremos


por A−1 .

Observación 12 En la denición de matriz invertible, imponemos que el


producto de A por un cierta matriz B , por ambos lados, sea el elemento neu-
tro. Hemos de hacerlo así porque el producto de matrices no es conmutativo.
Sin embargo, veremos en el teorema 1.2.22 que es suciente comprobarlo por
uno sólo de los dos lados.
µ ¶
2 1/2
Ejemplo 1.2.19 La matriz inversa de la matriz A = es la ma-
µ ¶ 2 1
1 −1/2
triz A−1 = .
−2 2

Proposición 1.2.20 Sean A, B, A1 , · · · , Ap ∈ Mn (K). Se verica que :

1. si A, B ∈ Mn (K) son invertibles, entonces A · B es invertible y

(A · B)−1 = B −1 · A−1 ,

2. si A1 , · · · , Ap son invertibles, entonces el producto A1 · A2 · · · · Ap es


invertible y (A1 · A2 · · · · Ap )−1 = Ap −1 · · · A2 −1 A1 −1 ,

3. si A ∈ Mn (K) es invertible, entonces (−A) ∈ Mn (K) es invertible y


(−A)−1 = −(A−1 ),
42 Álgebra

4. si A ∈ Mn (K) es invertible, entonces


t
(A) ∈ Mn (K)
−1
es invertible y t
(A−1 ) = (t A) .
Corolario 1.2.21 Si A ∈ Mn (K) es una matriz invertible, se verica que
−1
1. A−1 es invertible y (A−1 ) = A
2. ∀m ∈ N Am es invertible y (Am )−1 = (A−1 )m
3. ∀α ∈ K, α 6= 0 se verica que αA es invertible, y (αA)−1 = α−1 A−1
El siguiente teorema arma que si una matriz cuadrada tiene una matriz
inversa a la derecha o a la izquierda, entonces es invertible:
Teorema 1.2.22 Si A, B ∈ Mn (K) se verica que:
1. A · B = In ⇒ B = A−1 .
2. B · A = In ⇒ B = A−1 .

Demostración Probemos 2: suponemos que B · A = In , y debemos probar


que A · B = In .
Si B · A = In , todo sistema que tenga como matriz asociada A tiene una
única solución: dado un sistema A · X = C , donde C es una matriz columna,
multiplicando a ambos lados de la igualdad por B se obtiene:
B · (A · X) = B · C
Por la asociatividad del producto de matrices
(B · A) · X = B · C
Y usando nuestra hipótesis inicial

X = In · X = B · C
Es decir, que si X verica la ecuación A · X = C , necesariamente X = B · C .
En concreto, denotando con Inj la columna j -ésima de In , el sistema A ·
X = Inj tiene una única solución B · Inj , que es la columna j -esima de B ,
que denotamos B j , para cada j ∈ {1, . . . , n}. Es decir, hemos obtenido que
A·B j = Inj para cada j ∈ {1, . . . , n}. Entonces también A·B = In y podemos
escribir B = A−1 .
Para probar 1 suponemos que A · B = In . Aplicamos 2 a la matriz B y
obtenemos que B · A = In . 2
Álgebra 43

1.2.7 Matrices elementales y un método para hallar A−1


Denición 1.2.23 Se dice que una matriz A ∈ Mn (K) es una matriz ele-
mental si es el resultado de realizar una única transformación elemental por
las sobre la matriz In .
µ ¶
1 0
Ejemplo 1.2.24 es una matriz elemental, pues
0 −2
µ ¶ µ ¶
1 0 F2 = (−2)F2 1 0
0 1 −→ 0 −2
 
1 0 0 0  
 0 0 0 1  1 0 5
Igualmente  0 0 1 0 y
  0 1 0  son matrices elementales, pues
0 0 1
0 1 0 0
   
1 0 0 0 1 0 0 0
 0 1 0 0  F2 ↔ F4  0 0 0 1 
   
 0 0 1 0  −→  0 0 1 0 
0 0 0 1 0 1 0 0
   
1 0 0 1 0 5
 0 1 0  F1 = F1 + 5F3  0 1 0  .
−→
0 0 1 0 0 1
Es obvio que si A es una matriz elemental de orden n, la matriz In se puede
obtener realizando una única transformación elemental sobre la matriz A (la
transformación elemental inversa).
El siguiente resultado quedará sucientemente vericado tras la realización
de la práctica 2 en el aula informática:
Teorema 1.2.25 Si E es la matriz elemental de orden m que se obtiene al
realizar la transformación elemental t sobre las las de Im , y A ∈ Mm×n (K),
entonces la matriz resultante de realizar la transformación t sobre las las
de A es la matriz producto E · A.
Ejercicio 1.2.3 Vericar el resultado anterior realizando la transformación
elemental F3 = F3 + 3F1 sobre la matriz
 
−1 4 6
 0 2 1 .
0 0 1
44 Álgebra

Teniendo ahora en cuenta que, según hemos visto, cualquier transforma-


ción elemental es reversible, y que la inversa de una transformación elemental
es una transformación elemental, según el cuadro que ya establecimos en su
momento
TRANSFORMACIÓN TRANSFORMACIÓN INVERSA
Fi = Fi + λFj Fi = Fi − λFj
1
Fi = λFi (λ 6= 0) Fi = Fi
λ
Fi ↔ Fj Fi ↔ Fj

resulta que, si denotamos por Pi (λ) a la matriz elemental asociada a la trans-


formación Fi = λFi (λ 6= 0), por Sij (λ) a la matriz elemental asociada a la
transformación Fi = Fi + λFj y por Eij a la matriz elemental asociada a la
transformación Fi ↔ Fj , tenemos el siguiente corolario del teorema anterior:

Corolario 1.2.26 Toda matriz elemental es invertible, y su inversa también


es una matriz elemental. Concretamente,

(Sij (λ))−1 = Sij (−λ)


1
(Pi (λ))−1 = Pi ( )
λ
−1
(Eij ) = Eji

Ejercicio 1.2.4 Verifíquese el resultado recogido en el corolario anterior,


multiplicando las matrices
µ ¶
1 0
P2 (−5) =
0 −5
 
1 0 4
S13 (4) =  0 1 0 
0 0 1
y  
1 0 0 0
 0 0 0 1 
E24 =
 0

0 1 0 
0 1 0 0
por sus correspondientes inversas y observando que en cada caso el resultado
es la matriz identidad del orden correspondiente.
Álgebra 45

Teorema 1.2.27 Si A ∈ Mn (K) las siguientes proposiciones son equivalen-


tes:
1. A es invertible
2. La ecuación A · X = (0) sólo tiene la solución trivial
3. A es equivalente por las a la matriz In , es decir,
su forma escalonada reducida es la matriz identidad In
4. El sistema A · X = b es compatible determinado para toda matriz
columna b ∈ Mn×1 (K) y su única solución es X = A−1 · B.

Ejemplo 1.2.28 Si A ∈ Mn (K) y b ∈ Mn×1 (K), entonces el sistema A ·


X = b es compatible determinado para toda matriz columna si y solo si
A es invertible. Si A no es invertible o si A no es una matriz cuadrada,
podemos todavía determinar condiciones sobre la matriz b tales que el sistema
A·X = b sea consistente. Por ejemplo, aplicando el método de Gauss-Jordan
a lamatriz ampliada del sistema se obtiene que
 x1 + x2 + 2x3 = b1
x1 + x3 = b2

2x1 + x2 + 3x3 = b3
   
1 1 2 b1 F2 = F2 − F1 1 1 2 b1
 1 0 1 b2  F3 = F3 − F1  0 −1 −1 b2 − b1 
2 1 3 b3 → 2 1 3 b3 − 2b1
F1 = F1 + F2  
1 0 1 b2
F3 = F3 − F2 
0 1 1 −b2 + b1  .
F2 = −F2
0 0 0 b3 − b2 − b1

Si b3 − b2 − b1 6= 0 el sistema ½no es compatible y si b3 − b2 − b1 = 0 el
x1 = −x3 + b2
sistema es equivalente al sistema , que tiene innitas
x2 = −x3 − b2 + b1
soluciones de la forma {(−t + b2 , −t − b2 + b1 , t) : t ∈ R} .

Método para determinar la matriz inversa


El teorema anterior permite establecer un método para determinar la inversa
de una matriz invertible. Pues si A es invertible, A es equivalente por las a
la matriz In y existen m matrices elementales E1 , E2 , · · · , Em tales que

Em · Em−1 · ... · E1 · A = In .

Se sigue que, por el teorema 1.2.22,


46 Álgebra

Em · Em−1 · · · · · E1 = A−1 .
es decir, recogiendo las dos igualdades anteriores,

In = Em · Em−1 · ... · E1 · A
−1
A = Em · Em−1 · ... · E1 · In

En otras palabras, la sucesión de transformaciones elementales que transfor-


ma la matriz A en la matriz In , también transforma la matriz In en la matriz
A−1 , con lo que, siendo t1 , ..., tm las transformaciones elementales por las
que permiten obtener In a partir de A, el esquema

A In → t1 , ..., tm → In A−1
nos da un método para la obtención de la inversa de una matriz invertible A
por transformaciones elementales .
 
−1 −1 0
Ejemplo 1.2.29 Para calcular la inversa de la matriz  2 1 0  pro-
2 1 1
cederíamos del siguiente modo

−1 −1 0 1 0 0
F2 = F2 + 2F1
2 1 0 0 1 0 → →
F3 = F3 + 2F1
2 1 1 0 0 1

F1 = F1 − F2
−1 −1 0 1 0 0
F = F3 − F2
0 −1 0 2 1 0 → 3 →
F1 = (−1)F1
0 −1 1 2 0 1
F2 = (−1)F2

1 0 0 1 1 0
0 1 0 −2 −1 0
0 0 1 0 −1 1
 −1  
−1 −1 0 1 1 0
obteniendo, por tanto que  2 1 0  =  −2 −1 0  .
2 1 1 0 −1 1
Álgebra 47

Observación 13 Nótese 
que, teniendo 
en cuenta el resultado obtenido en
−1 −1 0
el teorema 1.2.27, al ser  2 1 0  invertible, el sistema homogéneo
 2 1 1
 −x − y = 0
2x + y = 0 sólo tiene la solución trivial.

2x + y + z = 0

1.3 Estructuras algebraicas


El álgebra moderna está caracterizada por el estudio de ciertas estructuras
abstractas que tienen en común una gran variedad de objetos matemáticos,
entendiendo por abstracción el proceso de separar la forma del contenido.
Lo importante del estudio de estas estructuras es que, una vez establecidas
las propiedades que satisfacen, dichas propiedades son satisfechas por todos
los objetos que comparten dicha estructura. En este apartado estudiaremos
algunas de estas estructuras, en particular las de grupo, anillo y cuerpo, como
paso previo al estudio de la principal estructura sobre la que trabajaremos
este curso, la estructura de espacio vectorial, y echaremos una breve mirada
hacia las algebras multigénero o tipos abstractos de datos. Este tipo de álge-
bras serán objeto de estudio con mayor nivel de profundidad en la asignatura
de segundo curso Estructuras de datos y de la información.

1.3.1 El concepto de operación


Hablando de manera aproximada, se puede decir que el origen del álgebra
se encuentra en el arte de sumar, multiplicar y elevar a potencias números
enteros.
La sustitución de números por letras y de las operaciones aritméticas por
el concepto más general de operación permite operar con reglas análogas
a las vistas para los números enteros en el contexto de objetos matemáticos
más generales, como por ejemplo las matrices.
Bajo la envoltura abstracta de la mayoría de las teorías axiomáticas del ál-
gebra (grupos, anillos, cuerpos, espacios vectoriales, módulos, ...) se ocultan
problemas concretos cuya resolución dió lugar a dichas deniciones abstrac-
tas, y algunas generalizaciones de gran aplicación. Entre estas aplicaciones se
encuentran dos de los pilares básicos de la ingeniería de software: las técnicas
48 Álgebra

de especicación formal y de vericación de programas.

Denición 1.3.1 Siendo A un conjunto no vacío, llamaremos operación o


ley de composición interna sobre A a cualquier función

∗ : A × A −→ A
.
(x, y) ; ∗(x, y)

La imagen ∗(a, b) representa el resultado de operar a con b” en ese orden.


Nótese, pues, que lo que es fundamental en la denición anterior es que a cada
par de objetos de A se le asigna un único elemento de A : dicho elemento es
el resultado que se obtiene al operar dichos objetos.

Observación 14 Para denotar operaciones normalmente se emplean símbo-


los no alfabéticos del estilo de +, ·, ∗, ±, ⊕, ⊗, ¯, 2, ÷,etc..., y se utiliza con
ellos notación inja, es decir:

notacion funcional notacion infija


+(a, b) a+b
·(a, b) a·b
∗(a, b) a∗b

Así, en lugar de escribir, por ejemplo, +(a, +(a, b)) escribiremos a+(a+b).
Es importante insistir de nuevo en que para poder realizar el producto
de matrices A · B, el número de columnas de A debe coincidir con el número
de las de B. Por consiguiente, para poder realizar los dos productos A · B
y B · A, donde A ∈ Mm×n (K) y B ∈ Mq×p (K), el número de columnas de
A debe coincidir con el de las de B y recíprocamente, esto es, para poder
realizar el producto A · B, n = q, y para poder realizar el producto B · A,
p = m, es decir, A ∈ Mm×n (K) y B ∈ Mn×m (K). Si queremos además que
el producto sea una operación en el sentido de la denición anterior, sólo
tendrá sentido hablar del producto de matrices como operación cuando
consideramos matrices en Mn×n (K).

Denición 1.3.2 Siendo ∗ : A × A → A una operación, diremos que:


• ∗ es asociativa si ∀x, y, z ∈ A x ∗ (y ∗ z) = (x ∗ y) ∗ z
Álgebra 49

• ∗ es conmutativa si ∀x, y ∈ A x∗y =y∗x

• e ∈ A es un elemento neutro de la operación ∗ si

∀x ∈ A x ∗ e = x ∧ e ∗ x = x

• a ∈ A es un elemento idempotente de la operación ∗ si a ∗ a = a

Es evidente que si e, e0 ∈ A son elementos neutros de A para la operación


∗, entonces e = e0 (es decir, si una operación tiene elemento neutro,
éste es único), pues: e ∗ e0 = e, por ser e0 elemento neutro y e ∗ e0 = e0 por
ser e un elemento neutro, de donde e = e0 .
Por otra parte también es evidente que si e es el elemento neutro de una
operación ∗, e es idempotente, puesto que e ∗ e = e por ser e elemento neutro
de ∗.

Denición 1.3.3 Si ∗ : A × A → A es una operación con elemento neutro


e, diremos que a0 es un elemento simétrico de a si

a ∗ a0 = e ∧ a0 ∗ a = e

Proposición 1.3.4 Siendo ∗ : A × A → A una operación asociativa y con


elemento neutro e, si a, a0 , a00 ∈ A son tales que a0 y a00 son simétricos de a
entonces a0 = a00 .

Demostración Si a0 y a00 son elementos simétricos de a, entonces se verica


que a0 = e ∗ a0 = (a00 ∗ a) ∗ a0 = a00 ∗ (a ∗ a0 ) = a00 ∗ e = a00 2

Ejemplo 1.3.5 Si X es un conjunto, y P (X) es el conjunto de las partes


de X, es decir, el conjunto cuyos elementos son todos los subconjuntos de X,
las operaciones
∪ : P (X) × P (X) −→ P (X)
(A, B) ; A∪B
y
∩ : P (X) × P (X) −→ P (X)
(A, B) ; A∩B
50 Álgebra

satisfacen las propiedades asociativa y conmutativa. El conjunto vacìo ∅


es el elemento neutro de la operación ∪ , y X es el elemento neutro de la
operación ∩ . Obsérvese que para ninguna de estas dos operaciones existe el
elemento simétrico de un elemento dado.

1.3.2 Grupos
Denición 1.3.6 Sea G 6= ∅ y ∗ : G × G −→ G una operación. Diremos
que G tiene estructura de grupo respecto de ∗, o también que el par (G, ∗) es
un grupo, si se verica que:
1. ∗ es asociativa
2. ∃e ∈ G que es elemento neutro para ∗
3. Todo elemento a ∈ G tiene simétrico respecto de la operación ∗.
Si además ∗ satisface la propiedad conmutativa, entonces se dice que
(G, ∗) es un grupo abeliano.
De G se dice que es el conjunto subyacente del grupo (G, ∗).
Ejemplo 1.3.7 Si consideramos la suma y producto habituales sobre cada
uno de estos conjuntos, los siguientes pares son grupos abelianos:(R, +), (R−
{0}, ·), (C, +), (C − {0}, ·), (R+ , ·), (Z, +), (Q − {0}, ·) y (Q, +) donde R+ =
{x ∈ R |x > 0 }, Z es el conjunto de los números enteros y Q es el conjunto
de los números racionales.
Ejemplo 1.3.8 Otro ejemplo de interés especial para nosotros es el grupo
(Z2 , +), donde Z2 = {0, 1} y la operación + se dene mediante la tabla:
+ 0 1
0 0 1
1 1 0
es decir, 0 + 0 = 0, 1 + 0 = 1, 0 + 1 = 1, 1 + 1 = 0. Es obvio que el elemento
neutro es el 0, y que el opuesto de 1 es el propio 1, y que el grupo es abeliano,
pues 1 + 0 = 1 = 0 + 1.
Ejemplo 1.3.9 El conjunto de matrices invertibles de orden n con coe-
cientes en K tiene estructura de grupo (no abeliano en general) respecto del
producto usual de matrices. A dicho grupo se le denomina grupo lineal de
orden n con coecientes en K.
Álgebra 51

Ejemplo 1.3.10 Los conjuntos (R, ·),(C, ·),(Q, ·), (Z − {0}, ·),(N, +), y
(Mn (K) − {0}, ·) no son grupos.

Propiedades de los grupos.


Si (G, ∗) es un grupo se verica que:

1. Se puede simplicar a derecha e izquierda, es decir:


∀a, x, y ∈ G (x ∗ a = y ∗ a) ⇒ x = y
∀a, x, y ∈ G (a ∗ x = a ∗ y) ⇒ x = y

2. Las ecuaciones de la forma x ∗ a = b y a ∗ x = b tienen solución única.


Concretamente:
∀a, b ∈ G ∃!x ∈ G..a ∗ x = b
∀a, b ∈ G ∃!x ∈ G..x ∗ a = b

3. El único elemento idempotente de (G, ∗) es el elemento neutro e :

∀a ∈ G(a ∗ a = a ⇔ a = e)
¡ 0¢ 0
4. ∀a, b ∈ G a ∗ b = e ⇒ b = a donde a es el elemento simétrico de a
¡ 0 ¢0
5. ∀a ∈ G a = a
0
6. ∀a, b ∈ G (a ∗ b) = b0 ∗ a0

Demostración
1. Siendo a, x, y ∈ G, si x∗a = y∗a, necesariamente (x∗a)∗a0 = (y∗a)∗a0 ,es
decir, x∗(a∗a0 ) = y∗(a∗a0 ) , o lo que es lo mismo, x∗e = y∗e, con lo que
concluimos que x = y. La otra propiedad se demuestra análogamente.

2. Siendo a, b, x ∈ G, a ∗ x = b ⇔ a0 ∗ (a ∗ x) = a0 ∗ b, es decir, (a0 ∗ a) ∗ x =


a0 ∗ b , y esto es equivalente a que e ∗ x = a0 ∗ b, o lo que es lo mismo,
a que x = a0 ∗ b.La otra propiedad se demuestra análogamente.
52 Álgebra

3. Esta equivalencia la probaremos demostrando que la dos implicaciones


son V, es decir, probando que para cualquier elemento a ∈ G,
((a ∗ a = a ⇒ a = e) ∧ (a = e ⇒ a ∗ a = a)) . Sea a ∈ G tal que a ∗ a =
a. En ese caso a0 ∗ (a ∗ a) = a0 ∗ a, es decir, (a0 ∗ a) ∗ a = e con lo que
e ∗ a = e, es decir, a = e. La implicación recíproca es evidente, pues si
a = e, entonces a ∗ a = e ∗ e = e.

4. Siendo a, b ∈ G tales que a ∗ b = e, necesariamente a0 ∗ (a ∗ b) = a0 ∗ e,


es decir, (a0 ∗ a) ∗ b = a0 con lo que e ∗ b = a0 , o lo que es lo mismo,
b = a0 .
¡ 0 ¢0
5. Siendo a ∈ G, de a ∗ a0 = e ∧ a0 ∗ a = e se sigue que a = a.

6. Siendo a, b ∈ G, (a ∗ b) ∗ (b0 ∗ a0 ) = ((a ∗ b) ∗ b0 ) ∗ a0 = (a ∗ (b ∗ b0 )) ∗ a0 =


a ∗ a0 = e, por lo que, teniendo
0
en cuenta la propiedad 4 que acabamos
de ver, b0 ∗ a0 = (a ∗ b) . 2

Observación 15 Nótese que, como caso particular de los resultados ante-


riores, para el caso en que las operaciones + y · sean las operaciones de un
grupo, se tendrá que, siendo x e y dos elementos genéricos:

(x + x = x) ⇔ x = 0
(x · y = 1) ⇔ y = x−1
−1
(x−1 ) = x
−1
(x · y) = y −1 · x−1

es decir,

((∗ = +) ⇒ e = 0 ∧ x0 = (−x))
((∗ = ·) ⇒ e = 1 ∧ x0 = (x−1 )).

1.3.3 Anillos y cuerpos


Denición 1.3.11 Se dice que un conjunto A 6= ∅ tiene estructura de anillo
respecto de las operaciones + y ·, o también que la 3-tupla (A, +, ·) es un
anillo si se verica que:
Álgebra 53

1. (A, +) es un grupo abeliano

2. “ · ” satisface la propiedad asociativa

3. “ · ” es distributiva respecto de “ + ”, es decir:


∀x, y, z ∈ A ((x · (y + z) = x · y + x · z) ∧ ((y + z) · x = y · x + z · x))
Si además “ · ” satisface la propiedad conmutativa, se dice que el anillo
(A, +, ·). es un anillo conmutativo. Finalmente, si “ · ” tiene elemento
neutro 1 ∈ A, y 1 6= 0, se dice que el anillo (A, +, ·) es un anillo
unitario.

Ejemplo 1.3.12 (Z, +, ·) es un anillo conmutativo y unitario, donde + y ·


son la suma y producto habituales de los números enteros.

Ejemplo 1.3.13 Si denotamos por C[x] al conjunto de polinomios con coe-


cientes en C, es decir, al conjunto formado por todas las funciones p : C → C
tales que ∃n ∈ N∪{0} y ∃(a0 , ..., an ) ∈ Cn+1 de manera que ∀x ∈ C se verica
que
p(x) = an xn + ... + a1 x + a0
con la suma + y el producto · de polinomios habituales, resulta que (C[x], +, ·)
es un anillo conmutativo y unitario. Con vistas a recordar las operaciones,
si por ejemplo consideramos los polinomios p, q ∈ C[x] ,tales que ∀x ∈ C
p(x) = 2x2 + x − 5 y q(x) = 3x − 4, tendremos que
¡ ¢
(p + q)(x) = p(x) + q(x) = 2x2 + x − 5 + (3x − 4) = 2x2 + 4x − 9

y
¡ ¢
(p · q)(x) = p(x) · q(x) = 2x2 + x − 5 · (3x − 4) = 6x3 − 5x2 − 19x + 20.

Ejemplo 1.3.14 Según hemos visto, (Mn (K), +, ·) es un anillo no conmu-


tativo y con elemento unidad In , siendo + y · la suma y producto de matrices
habituales.

Denición 1.3.15 Siendo (A, +, ·) un anillo, se dice que a ∈ A − {0} es un


divisor de cero si ∃b ∈ A − {0} tal que a · b = 0 ∨ b · a = 0.
54 Álgebra

Ejemplo 1.3.16 Es fácil comprobar que (Mn (K), +, ·) tiene divisores de ce-
ro. Así por ejemplo
µ ¶ µ ¶ µ ¶
1 1 1 1 0 0
· =
1 1 −1 −1 0 0

Denición 1.3.17 Siendo (A, +, ·) un anillo unitario, se dice que a ∈ A es


invertible (o inversible) si existe un elemento b ∈ A tal que (a · b = 1 ∧ b · a =
1). En tal caso, es obvio que b es el elemento inverso de a, y por tanto
escribiremos b = a−1 .

Propiedades de los anillos


Si (A, +, ·) es un anillo se verica que:

1. ∀a ∈ A (a · 0 = 0 ∧ 0 · a = 0)

2. ∀a, b ∈ A (a · (−b) = −(a · b) ∧ (−a) · b = −(a · b))


Si además (A, +, ·) es unitario, también se verica que:

3. Si a,b ∈ A son inversibles, entonces a·b es inversible y (a · b)−1 = b−1 ·a−1

4. Si a ∈ A es inversible, entonces (−a) es inversible y (−a)−1 = −(a−1 )

5. Si a ∈ A es un divisor de cero, entonces a no es inversible.

Demostración
1. Demostramos la primera de las dos propiedades: dado a ∈ A, a · 0 =
a · (0 + 0) = a · 0 + a · 0, y puesto que al ser (A, +) un grupo, el único
elemento idempotente es el 0, concluímos que a · 0 = 0

2. Demostramos la primera de las dos propiedades: siendo a, b ∈ A,

0 = a · 0 = a · (b + (−b)) = a · b + a · (−b)

y en consecuencia a·(−b) = −(a · b) por la propiedad 4 de los grupos,


aplicada a la operaciòn de suma.
Álgebra 55

3.
(a · b) · (b−1 · a−1 ) = ((a · b) · b−1 ) · a−1 =
= a · (b · b−1 ) · a−1 = a · a−1 = 1 y
(b−1 · a−1 ) · (a · b) = ((b−1 · a−1 ) · a) · b =
= b−1 · (a−1 · a) · b = b−1 · b = 1

4. Por la propiedad 2,
(−a) · (−(a−1 )) = −((−a) · (a−1 )) = −(−(a · a−1 )) = −(−1) = 1
−(a−1 ) · (−a) = −((−(a−1 )) · a) = −(−(a−1 · a)) = −(−1) = 1

5. Razonamos por reducción al absurdo: si a ∈ A es un divisor de ce-


ro, existirá un elemento b 6= 0 tal que a · b = 0 o tal que b · a = 0.
Pero puesto que a tiene inverso, si a · b = 0, entonces por una parte
a−1 · (a · b) = a−1 · 0 = 0, pero también a−1 · (a · b) = (a−1 · a) · b = b, es
decir, b = 0 (contradicción). Si b · a = 0 se razona análogamente. 2

Observación 16 Las matrices invertibles son los elementos invertibles del


anillo Mn (K). Así pues, todas las propiedades vistas para los elementos in-
vertibles de un anillo genérico, son válidas para el anillo considerado
(Mn (K), +, ·). En particular, si A, B ∈ Mn (K) son invertibles, entonces A·B
es invertible y (A · B)−1 = B −1 · A−1 , y si A ∈ Mn (K) es invertible, entonces
(−A) ∈ Mn (K) es invertible y (−A)−1 = −(A−1 ).

Ejercicio 1.3.1 Probar que si (A, +, ·) es un anillo unitario, y a, b, c ∈ A


son tales que a · b = 1 y c · a = 1, entonces necesariamente b = c. (Indicación:
desarróllese la igualdad b = 1 · b = ...)

Proposición 1.3.18 Si (A, +, ·) es un anillo sin divisores de cero se verica


que

∀a, b, c ∈ A ((a · b = a · c ∧ a 6= 0) ⇒ (b = c))

∀a, b, c ∈ A ((b · a = c · a ∧ a 6= 0) ⇒ (b = c))


56 Álgebra

Demostración Si a, b, c ∈ A son tales que a · b = a · c con a 6= 0, tendremos


que a · b + (−(a · c)) = 0, o lo que es lo mismo, a · b + (a · (−c)) = 0, con lo
que, por la propiedad distributiva, a · (b + (−c)) = 0, y puesto que a 6= 0,
necesariamente (b + (−c)) = 0, es decir, b = c. 2

Denición 1.3.19 Se dice que una terna (K, +, ·) es un cuerpo, o también


que K tiene estructura de cuerpo respecto de las operaciones + y · si (K, +, ·)
es un anillo conmutativo y unitario y además todos los elementos de K − {0}
son inversibles.

Ejemplo 1.3.20 (R, +, ·), (C, +, ·) y (Q, +, ·) son cuerpos, siendo en cada
caso las operaciones + y · la suma y el producto habituales considerados sobre
cada uno de esos conjuntos.

Ejemplo 1.3.21 Otro ejemplo de interés especial para nosotros es el cuerpo


(Z2 , +, ·), donde Z2 = {0, 1}, y las operaciones + y · se denen mediante las
siguientes tablas.
+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
Es decir, 0 + 0 = 0, 1 + 0 = 1, 0 + 1 = 1, 1 + 1 = 0, y 0 · 1 = 1 · 0 = 0,
1 · 1 = 1.
Proposición 1.3.22 Si (K, +, ·) es un cuerpo, y a, b ∈ K son tales que
a · b = 0, necesariamente a = 0 ∨ b = 0 (un cuerpo no tiene divisores de lo
cero).

Demostración Si a · b = 0 y a 6= 0, entonces, puesto que a ∈ K − {0}, a


tiene inverso por lo que, por una parte a−1 · (a · b) = a−1 · 0 = 0, y por otra
a−1 · (a · b) = (a−1 · a) · b = 1 · b = b, con lo que b = 0 2

Observación 17 Como consecuencia de la proposición anterior, si (K, +, ·)


es un cuerpo, entonces (K, +, ·) no tiene divisores de cero. El recíproco ob-
viamente no es cierto. (Z, +, ·) es un ejemplo de anillo sin divisores de cero
que no es cuerpo.
Álgebra 57

1.3.4 Introducción a los Tipos Abstractos de Datos


Las estructuras de datos y los tipos de datos son conceptos fundamentales
en el mundo de la programación y de la especicación de sistemas de soft-
ware. El concepto de estructura de datos se usa comúnmente para referirse
a un conjunto de datos organizados de un cierto modo, como por ejemplo,
colocados en una secuencia o en una tabla.
Junto con el conjunto de datos hay que considerar denidas una serie de
operaciones necesarias para obtener la información y actualizarla. Pero estas
operaciones no están necesariamente denidas sobre objetos de la misma
naturaleza; por ejemplo, entendiendo por pila un dispositivo que almacena
datos, caracterizado por el hecho de que el primer dato que se puede extraer
es el último que se ha almacenado, resulta que la operación almacenar un
elemento en una pila está denida del siguiente modo

push : P ila × Dato → P ilas

en el sentido de que el par formado por una pila y un dato (P, d) nos da como
resultado de aplicarle la operación push una nueva pila obtenida añadiendo
el dato d a la pila p.
De forma análoga, la operación extraer el último elemento almacenado
de una pila (operación que habitualmente se denota por pop) es la función

pop : P ila → P ila

tal que pop(P ) es la pila obtenida a partir de P eliminando el último dato


almacenado en P.
En esta sección el concepto de operación no será, pues, equivalente al
de ley de composición interna, pues en principio nos podemos referir a
operaciones entre objetos de distinta naturaleza. Así pues, las operaciones
a las que nos referimos en este apartado serán operaciones generalizadas,
entendidas como funciones de un producto cartesiano de conjuntos a otro
conjunto.
En ciertas ocasiones, por ejemplo, para diseñar un algoritmo o un sistema
de software, resulta más cómodo e interesante trabajar con una representa-
ción abstracta de los datos que sea independiente de la forma en la que están,
o van a ser, implementados en el ordenador.
Una forma de representar las propiedades abstractas de un conjunto de
datos consiste en utilizar ecuaciones a modo de axiomas, de manera que dos
58 Álgebra

tipos de datos diferentes son considerados como iguales (o si se preere, con


la misma estructura) si ambos satisfacen las mismas ecuaciones. Desde ese
punto de vista abstracto, ambos tipos de datos se diferenciarían únicamente
en el nombre de los datos básicos y de las operaciones. La búsqueda de una
representación abstracta común para tipos de datos similares nos lleva a la
denición del concepto de tipo abstracto de datos :

Denición 1.3.23 Un tipo abstracto de datos (TAD) es una cuádrupla

(T ip, Cons, Op, Ec)

en la que Tip es el conjunto de tipos de datos del TAD, Cons es el conjunto


de constantes o datos básicos del TAD, Op es el conjunto de operaciones
(generalizadas) y Ec el conjunto de las ecuaciones.

A los tipos abstractos de datos también se les conoce en la literatura como


álgebras multigénero o álgebras multitipo.

Observación 18 La mayoría de los lenguajes de programación tratan las


variables y las constantes de un programa como instancias de un tipo de
dato.

Ejemplo 1.3.24 Como ya hemos dicho, una pila, en el ámbito de la infor-


mática o las ciencias de la computación es un dispositivo en el que los datos
son almacenados en secuencia, de manera que en cada paso únicamente es
posible acceder al último dato almacenado (top) (este modo de acceso a los
datos que caracteriza al dispositivo de almacenamiento pila es conocido co-
mo lifo, abreviatura de last in-rst out). Este tipo de dispositivo aparece
en muchas ocasiones, por ejemplo, en el almacenamiento de información en
variables que aparecen en programas con bucles anidados, en la evaluación de
expresiones e incluso en la ejecución de procedimientos recursivos. Las ope-
raciones consideradas sobre una pila son la de almacenamiento (push), que
coloca un nuevo dato encima de la pila, la extracción del último dato alma-
cenado (pop) y la visualización del elemento situado en la parte superior de
la pila (top). La constante newstack representa la pila vacía y que es del
tipo PILA, y la constante error del tipo ERROR, nos permitirá representar
la situación (mensaje de error) que se produce cuando miramos cual es el
elemento situado en la parte superior de la pila vacía. Por consiguiente, el
Álgebra 59

modelo PILA queda especicado como tipo abstracto de datos del siguiente
modo:
P ILA =
1. Tipos : ½ P ILA, DAT O, ERROR
error ∈ ERROR,
2. Constantes :
newstack ∈ P ILA 
 push : P ILA × DAT O → P ILA
3. Operaciones : pop : P ILA → P ILA

 top : P ILA → DAT O ∪ ERROR

 ∀p ∈ P ILA, ∀a ∈ DAT O


 pop(push(p, a)) = p
4. Ecuaciones: pop(newstack) = newstack



 top(push(p, a)) = a

top(newstack) = error
Así por ejemplo, la pila
a3
a3
a1
se representaría en este modelo por:
push(push(push(newstack, a1 ), a3 ), a3 ).
Ejemplo 1.3.25 Teniendo en cuenta que un semigrupo es un conjunto do-
tado de una ley de composición interna asociativa, y que un monoide es un
semigrupo con elemento neutro, sus especicaciones como tipos abstractos de
datos serían las siguientes:
SEM IGRU P O =
1. Tipos: ELEM
2. Constantes:
3. Operaciones: ½∗ : ELEM × ELEM → ELEM
∀x, y, z ∈ ELEM
4. Ecuaciones:
x ∗ (y ∗ z) = (x ∗ y) ∗ z
M ON OIDE = SEM IGRU P O +
Constantes: e∈ ELEM
 ∀x ∈ ELEM
Ecuaciones: x∗e=x

e∗x=x
60 Álgebra

Ejercicio 1.3.2 En el ámbito de las ciencias de la computación una cadena


o string es una secuencia de items (datos) de algún conjunto (o dominio)
de datos. En términos matemáticos una cadena es una palabra a1 ...an de
longitud n ≥ 0 formada con letras de un alfabeto dado. Para n = 0 se
trata de la cadena vacía (a la que en su momento denotamos por λ) y para
n ≥ 1 los elementos a1 , ..., an pertenecen al mismo conjunto o alfabeto A. El
ejercicio consiste en construir un modelo de tipo abstracto de datos al que
denominaremos cadena o string, teniendo en cuenta que hay que consi-
derar los datos y las cadenas de datos de un conjunto A = {a1 , ..., ak }, que
las cadenas son elementos del conjunto A∗ (conjunto de todas las cadenas
o palabras denidas sobre el alfabeto A o lenguaje universal sobre A), que
hay que considerar la palabra vacía como una constante. Como operaciones
sobre las cadenas consideramos las siguientes: construye, que a partir de
un elemento de A construye una lista de longitud 1, la operación concat,
denida sobre pares de palabras por concat(a1 ...an , b1 ...bm ) = a1 ...an b1 ...bm , y
las operaciones iañade (iadd) y dañade (dadd) que añaden, respectivamente,
un elemento a la izquierda o a la derecha de una cadena dada.(Nota: Son
sucientes 5 ecuaciones).

1.4 Ejercicios
1.4.1 Ejercicios resueltos
1. Representar por su matriz ampliada y resolver por el método de Gauss-
Jordan cada uno de los siguientes sistemas de ecuaciones lineales :

 2x1 + x2 + 3x3 = 9
5x1 + 4x2 + 6x3 = 24

x1 + 3x2 − 2x3 = 4
, ½
3x1 + x2 + x3 − 5x4 = 4
5x1 + 2x2 + 4x3 − 2x4 = 6


 x1 − x2 + x3 − x4 = 0

2x1 + 3x2 + 4x3 + 5x4 = 0

 x1 − x2 + 2x3 − 2x4 = 0

5x1 + 5x2 + 9x3 + 9x4 = 0
Álgebra 61

2. Considere el sistema de ecuaciones



 x + y + 2z = a
x+z =b

2x + y + 3z = c

Demuestre que para que este sistema sea compatible, a, b y c deben


satisfacer c = a+b.

3. Resuelva cada uno de los sistemas siguientes por eliminación de Gauss-


Jordan:

a) 
 2x1 − 3x2 = −2
2x1 + x2 = 1

3x1 + 2x2 = 1
b)


 3x1 + 2x2 − x3 = −15

5x1 + 3x2 + 2x3 = 0

 3x1 + x2 + 3x3 = 11

11x1 + 7x2 = −30
c) 
 4x1 − 8x2 = 12
3x1 − 6x2 = 9

−2x1 + 4x2 = −6

4. ¾Para qué valores de a el sistema que sigue no tiene soluciones? ¾Tiene


exactamente una solución? ¾ Tiene innidad de soluciones?

 x + 2y − 3z = 4
3x − y + 5z = 2

4x + y + (a2 − 14)z = a + 2

5. Calcular las inversas de la siguientes matrices:


µ ¶ µ ¶ µ ¶
3 1 2 −3 2 0
A= B= C=
5 2 4 4 0 3
62 Álgebra

6. Verique que las matrices A y B del ejercicio 5) satisfacen la relación


(AB)−1 = B −1 A−1 .

µ 7. Sea ¶A una matriz invertible y suponga que la inversa de 7A es


−1 2
. Encuentre la matriz A.
4 −7

8. Sea AX = B un cualquier sistema consistente de ecuaciones lineales


y supóngase que X1 es una solución ja. Demuestre que toda solución para
el sistema se puede escribir en la forma X = X1 + X0 , en donde X0 es una
solución para AX = 0. Demuestre también que toda matriz de esta forma
es una solución.

9. Encontrar la inversa de la matriz dada, si la matriz es invertible:


   
3 4 −1 3 1 5
a) A =  1 0 3  b) B =  2 4 1 
2 5 −4 −4 2 −9
 
1 0 1
c) C =  0 1 1 
1 1 0

10. Efectúe las operaciones sobre las las que siguen sobre
 
3 1 0
A=  −2 1 4 
3 5 5

multiplicando por una matriz elemental apropiada. En cada caso, verique


la respuesta llevando a cabo la operación sobre las las directamente sobre
A.
a)Intercambie la primera y tercera las.
b)Multiplique la segunda la por 1/3.
c)Sume el doble de la segunda la a la primera.

11. Una caja que contiene monedas con las denominaciones de un centavo,
cinco centavos y diez centavos tiene 13 de ellas con un valor total de 83
centavos.
¾ Cuántas monedas de cada tipo hay en la caja ?
Álgebra 63

12. ¾Para cuál valor, o cuáles valores, de a el sistema siguiente tiene cero,
una y una innidad de soluciones?

 x1 + x2 + x3 = 4
x3 = 2
 2
(a − 4)x3 = a − 2

13. Demostrar que la trasposición de matrices satisface las siguientes


propiedades.
a) ∀A ∈ Mm×n (K) t (t A) = A.
b) ∀A, B ∈ Mm×n (K) t (A + B) =t A +t B.
c)∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K), t (A · B) =t B ·t A.

14. Demostrar que si A ∈ Mn (K) es invertible, entonces


t
(A) ∈ Mn (K)
−1
es invertible y t (A−1 ) = (t A) .

15. Si A = (aij ) ∈ Mn (K), se denomina traza de A a la suma de los


elementos de la diagonal principal de A, es decir,
n
X
T r(A) = a11 + ... + ann = aii .
i=1

Demostrar que ∀A, B, C ∈ Mn (K):


a) T r(A + B) = T r(A) + T r(B).
b) T r(AB) = T r(BA).
Poner un contraejemplo que ponga de maniesto que

T r(A.B) 6= T r(A) · T r(B).

c) Siendo C = At A,
n X
X n
T r(At A) = a2ik .
i=1 k=1

16. Se dice que una matriz A ∈ Mn (K) es simétrica si t A = A. Demostrar


que una condición necesaria y suciente para que el producto de dos matrices
64 Álgebra

simétricas A, B ∈ Mn (K) dé como resultado una matriz simétrica es que


AB = BA.
µ ¶
2 1
17. Determinar α ∈ C y β ∈ C para que la matriz A = ∈
1 2
M2 (C) satisfaga la ecuación A2 + αA + βI2 = (0).

18. Se dice que una matriz A ∈ Mn (K) es idempotente si A2 = A.


Demostrar que si A ∈ Mn (K) es idempotente, entonces B = In − A es
idempotente. Demostrar también que AB = (0) y que BA = (0).

19. En una feria de ganado un granjero compró pollos, conejos y terneros.


Los pollos los compró a 50 pts., los conejos a 1000 pts. y los terneros a
5000pts.
Compró 100 animales y gastó 100.000 pts.
Sabiendo que compró animales de las 3 clases, averiguar el número de
animales que compró de cada clase.

20. En el ámbito de las ciencias de la computación una cadena o  string


es una secuencia de items (datos) de algún conjunto (o dominio) de datos
dado. En términos matemáticos una cadena es una palabra a1 ...an de longi-
tud n ≥ 0. Para n = 0 se trata de la cadena vacía (a la que en su momento
denotamos por λ) y para n ≥ 1 los elementos a1 , ..., an pertenecen al mis-
mo conjunto o alfabeto A. El ejercicio consiste en construir un modelo de
tipo abstracto de datos al que denominaremos cadena o  string, teniendo
en cuenta que hay que considerar los datos y las cadenas de datos de un
conjunto A = {a1 , ..., ak }, que las cadenas son elementos del conjunto A∗
(conjunto de todas las cadenas o palabras denidas sobre el alfabeto A o
lenguaje universal sobre A), que hay que considerar la palabra vacía como
una constante, y que como operaciones sobre las cadenas consideramos las
siguientes: construye, que a partir de un elemento de A construye una lis-
ta de longitud 1, la operación concat, denida sobre pares de palabras por
concat(a1 ...an , b1 ...bm ) = a1 ...an b1 ...bm , y las operaciones iañade (iadd) y da-
ñade (dadd) que añaden, respectívamente, un elemento a la izquierda o a la
derecha de una cadena dada.(Nota: Son sucientes 5 ecuaciones).

1.4.2 Ejercicios propuestos


1. Resolver los siguientes sistemas por el método de eliminación gaussiana:
Álgebra 65

  4x − 3y + 2z + u = 3
 2x − 5y + 4z + u − v = 3 

x − 2y + z + 2u = −2
a) x − 2y + z − u + v = 5 , b)
 
 4x − y + z − u − v = 5
x − 4y + 6z + 2u − v = 10 
2x + 3y − z − 4u = 9
 
 4x − 3y + 2z = −2  4x − 3y + 2z = 3
c) −2x + y + 2z = 3 , d) −2x + y + 2z = 1
 
−x + y − 2z = 7 −x + y − 2z = −2
2. Resolver los siguientes sistemas de ecuaciones lineales por el método de
Gauss-Jordan:
 
 3x1 + 4x2 + x3 + 2x4 = 2  7x2 + x3 = 1
2x1 + 2x2 − 6x3 + 2x4 = −4 , 3x1 + 4x2 + 1x3 = 7
 
4x1 + 5x2 − x3 + 3x4 = −3 −9x1 − 5x2 − 2x3 = 2

3. Resolver el siguiente sistema de ecuaciones (no lineales):


 2
 2x − 6y 3 + 3ez = 17
4y 3 − ez = −5

−3x2 − 2y 3 = −10

4. Discutir las distintas soluciones del siguiente sistema según los distintos
valores del parámetro k :

 x + y + 2z = 2
−3x + 2y + 3z = −2

2x + ky − 5z = −4

5. Discutir las distintas soluciones del siguiente sistema según los distintos
valores de los parámetros a y b:

 ax + bz = 2
ax + ay + 4z = 4

ax + 2z = b

6. Vericar que existe un sistema de dos ecuaciones en las variables x, y ,


z , cuyas soluciones sean, en función del parámetro t:

 x = −1 − t
y = 2 + 5t

z =4−t
66 Álgebra

7. Un padre con aciones matemáticas decide hacer su testamento de la


manera siguiente:

• Todo mi capital será dividido entre mis tres hijos: Antonio, Benito
y Carla.
• Del capital menos 10.000 euros Antonio recibe la mitad.
• La cantidad recibida por Carla menos la cantidad que reciba Be-
nito debe ser igual a la cantidad recibida por Benito menos la
cantidad recibida por Antonio.
• La cantidad recibida por Carla menos el 60 por ciento de la reci-
bida por Benito debe ser igual a 4.000 euros.

¾Cuanto dinero recibirá cada uno?

8. Calcular la inversa, si existe, de las siguientes matrices y comprobar la


respuesta por multiplicación:

 
    −2 0 −6 −1
8 −11 −7 −2 3 1  0 −3 0 −3
A = 6 −8 −5 , B = −2 4 2  , C = 
1

0 −3 1 
1 −1 −1 −3 2 −1
0 −3 3 −3

9. Demostrar que la matriz


 
1 −1 3
A= 0 4 −2
−2 6 −8

no es invertible comprobando que existe una solución no trivial del


sistema homogéneo A · X = 0.

10. Sea A la matriz  


3 −3 5
A= 1 4 −3 .
−3 4 −6

• Usando el método de Gauss-Jordan, exprésese la matriz A−1 como


producto de matrices elementales.
Álgebra 67

• Exprésese la matriz A como producto de matrices elementales.

11. El producto de matrices cuadradas n × n no es conmutativo. Sin em-


bargo, dada una matriz A, existen matrices B que conmutan con ella,
es decir, tales que A · B = B · A (por ejemplo, la identidad o la propia
A). El conjunto de tales matrices se llama conmutador de A. Calcúlese
el conmutador de la matriz:
µ ¶
1 0
A=
−2 −1

12. Una matriz cuadrada S se dice simétrica si S = tS y antisimétrica si


S = − tS .

(a) Dar dos ejemplos de matrices simétricas y antisimétricas 3 × 3.


(b) Probar que dada una matriz cuadrada cualquiera B , las matrices
1
2
(B + tB) y 12 (B − tB) son simétrica y antisimétrica, respectiva-
mente, y que su suma es B .
(c) Probar que si una matriz cuadrada B se escribe como suma B =
S +A donde S y A son simétrica y antisimétrica, respectivamente,
entonces S = 12 (B + tB) y A = 21 (B − tB).

De este ejercicio se deduce que toda matriz se descompone de ma-


nera única como suma de una matriz simétrica y una antisimétrica.
Calcúlese la descomposición de la matriz
 
2 3 −1
A = 4 5 7 
0 2 4

13. Calcúlense por inducción las potencias m-ésimas de las matrices:


µ ¶ µ ¶
a 1 0 1
A= , B= .
0 a 1 0

14. Dos matrices cuadradas A y B se dicen semejantes (o congruentes ) si


existe una matriz invertible P tal que A = P · B · P −1 .
Sean A y B semejantes.
68 Álgebra

(a) Probar por inducción que para todo n ∈ N se verica Am = P ·


B m · P −1 .
(b) Si dos matrices invertibles A y B son semejantes, ¾es A−1 seme-
jante con B −1 ? ¾Es tA semejante con tB ?
(c) Con la notación anterior, y siendo
µ ¶ µ ¶
2 0 1 −2
B= , P = ,
0 3 −2 3

calcúlense las potencias A3 , A10 y Am , m ∈ N.

15. Considérense las matrices


µ ¶
cos α sin α
Aα = , α ∈ R.
− sin α cos α

(a) Probar que Aα · Aβ = Aα+β (Ayuda: Úsense las fórmulas del seno
y el coseno de la suma de dos angulos: cos(α + β) = cos α · cos β −
sin α · sin β y sin(α + β) = sin α · cos β + cos α · sin β ).
(b) Probar que A0 = I2 .
(c) Probar que (Aα )−1 = A−α .
(d) Concluir que el conjunto G = {Aα |α ∈ R} es un grupo conmuta-
tivo con el producto usual de matrices.
(e) G se llama usualmente el grupo de rotaciones del plano, ya que
dado un vector v ∈ R2 (cuyas coordenadas escribimos en una
matriz columna), el producto Aα · v es el vector que resulta de
rotar v α grados con respecto al origen en el sentido de las agujas
del reloj. Considérese el triángulo T formado por el origen y los
vectores v = (1, 0) y w = (1, 1); calcular y dibujar los vértices de
los triángulos que resultan de rotar T 30, 45, 60 y 90 grados.

EJERCICIOS COMPLEMENTARIOS.

16. Calcular dos matrices cuadradas X e Y que veriquen:


µ ¶ µ ¶
3 −2 1 5
4X + 3Y = , 3X + 2Y = .
4 0 −3 2
Álgebra 69

17. Probar por inducción que si dos matrices A y B conmutan (es decir
A · B = B · A) entonces se verica la fórmula de Newton:
m µ
X ¶
m m
(A + B) = Ai · B m−i .
i
i=0

Poner un ejemplo de dos matrices 2 × 2 que no conmuten y comprobar


que la fórmula anterior ya no se verica para m = 2.

18. Llamamos matriz de permutación a una matriz cuadrada vericando


que todos sus coecientes son cero excepto un elemento en cada la y
en cada columna. En este ejercicio consideraremos matrices cuadradas
3 × 3. Una matriz de permutación 3 × 3 viene determinada por una
permutación σ del conjunto de indices {1, 2, 3} de tal manera que la
matriz correspondiente Aσ viene dada por (Aσ (i, j) = 0 ⇐⇒ j 6=
σ(i)) ∧ (Aσ (i, j) = 1 ⇐⇒ j = σ(i)).

(a) Dada una matriz 3 × 3 B , vericar que el producto Aσ · B es


una matriz que tiene las mismas las que B pero en el orden
σ(1), σ(2), σ(3).
(b) Escribir todas las permutaciones del conjunto {1, 2, 3} y las corres-
pondientes matrices de permutación.
(c) Probar que el producto de matrices de permutación es una matriz
de permutación.
(d) Probar que el conjunto de matrices de permutación con el produc-
to usual de matrices es un grupo no conmutativo.

19. Sea K el conjunto de números√ reales x tales que existen dos números
racionales a y b con x = a+ 2·b. Llamaremos a a y b, respectivamente,
la parte racional y la parte irracional de x.

(a) Probar que la suma y el producto de dos números reales en K


pertenece a K. Escríbase la expresión de tales operaciones en
función de las partes racional e irracional.
(b) Probar que 0 y 1 pertenecen a K.
(c) Probar que el elemento opuesto de un elemento en K pertenece a
K.
70 Álgebra

(d) Probar que el elemento inverso de un elemento no nulo en K per-


tenece a K.
(e) Concluir que K es un cuerpo conmutativo.
(f) ¾Se te ocurren otros ejemplos de cuerpos construídos de forma
similar?
Capítulo 2
Espacios vectoriales

En este capítulo vamos a estudiar el concepto de espacio vectorial. Esta es la


estructura algebraica sobre la que se desarrolla la parte de las matemáticas
conocida como Algebra Lineal.
Veamos un primer ejemplo en el que aparece la estructura de espacio
vectorial.
Al estudiar el método de Gauss-Jordan para la resolución de un siste-
ma de ecuaciones lineales, establecimos ciertas operaciones sobre las las de
la matriz ampliada asociada al sistema de ecuaciones a las que llamamos
transformaciones elementales. Para denirlas tuvimos que considerar las si-
guientes operaciones sobre las las de dicha matriz:
1. Sumar dos las Fi = Fi + Fj
2. Multiplicar una la por un número: Fi = λFi ,
de manera que si (ai1 · · · ain bi ) y (ak1 · · · akn bk ) son dos las de dicha
matriz, su suma era
(ai1 · · · ain bi ) + (ak1 · · · akn bk ) = (ai1 + ak1 · · · ain + akn bi + bk )
y el producto de una la (ai1 · · · ain bi ) por un número complejo λ era
λ(ai1 · · · ain bi ) = (λai1 · · · λain λbi ).
En general, si (a1 · · · an ) y (b1 · · · bn ) son matrices la y λ es un número
complejo,
(a1 · · · an ) + (b1 · · · bn ) = (a1 + b1 · · · an + bn )
y
λ(a1 · · · an ) = (λa1 · · · λan ).

71
72 Álgebra

Siendo a, b y c matrices la, y λ, µ ∈ C, no es difícil vericar que se satisfacen


las siguientes propiedades:
1. a + b = b + a.
2. (a + b) + c = a + (b + c).
3. a + (0) = (0) + a = (0).
4. a + (−a) = (0) y (−a) + a = (0), siendo además −a = (−1)a.
5. (λµ)a =λ(µa).
6. λ(a + b) =λa+λb.
7. (λ + µ)a =λa + µa.
8. 1 · a = a.
Estas propiedades, como ahora veremos, servirán para establecer los axio-
mas de la denición de espacio vectorial.
La noción de espacio vectorial también está estrechamente relacionada
con la siguiente idea: si alguien quiere comprar 3 Kg. de peras y 2 Kg. de
manzanas, no le pide al tendero 5 Kg. de peras y manzanas, ya que en ese
caso podrían darle, por ejemplo, 1 Kg. de peras y 4 Kg. de manzanas. Por
otra parte, si esa compra representa el postre de la semana de una familia,
y la persona que va a realizarla recibe el encargo de su cuñada de comprar 4
Kg. de peras y 2 Kg. de manzanas, y de su vecina de comprar la mitad de
lo que él mismo vaya a comprar, nuestro amigo deberá comprar
µ 3 Kg. de peras ¶ µ 4 Kg. de peras ¶ µ 3 Kg. de peras ¶
1
2 Kg. de manzanas + 2 Kg. de manzanas + 2 2 Kg. de manzanas =
µ 8.5 Kg. de peras

5 Kg. de manzanas .

Estas listas (o matrices columna) de números que sabemos sumar y multi-


plicar por números constituyen un primer ejemplo de lo que denominaremos
vectores.
El concepto de vector también se emplea en Física para representar mag-
nitudes que no quedan completamente determinadas por un número, y es
tradicional asociar una echa a dichas magnitudes y representarlas por un
segmento orientado. Sin embargo, el asociar el concepto de vector a un
objeto geométrico tiene una limitación importante, pues si trabajamos con
listas de más de tres números, no contamos con sucientes dimensiones en el
espacio físico para situar tal echa.
La descripción axiomática de vector sobre la que vamos a trabajar, es
abstracta por lo que no requiere el uso de objetos geométricos. Además,
Álgebra 73

dicha abstracción conlleva otra ventaja adicional: no requiere la introducción


de nociones como sistema de coordenadas o sistema de direcciones.
Esta visión axiomática permite englobar como ejemplos de vectores a
objetos matemáticos aparentemente tan distintos como los polinomios, las
matrices, las funciones reales de variable real, las sucesiones de números
reales y un largo etcétera.

2.1 Vectores en el plano y en el espacio


Si queremos representar objetos de la Física elemental como fuerza, despla-
zamiento y velocidad, tenemos que utilizar vectores geométricos en el plano
R2 o en el espacio tridimensional R3 . En efecto los vectores geométricos
nos permiten especicar magnitud, dirección y sentido para estas cantidades
físicas. Aquí sólo recordaremos las deniciones básicas.
Dados tres segmentos orientados AB, CD y EF, en el espacio bidimensio-
nal o tridimensional como en la gura 2.1 a), para cada uno de ellos están
determinados un punto de aplicación (respectivamente A, C y E), un ex-
tremo o ajo (respectivamente B, D y F), una magnitud representada por
la longitud del segmento, y una dirección, que es la dirección de la recta
que lo contiene. Si ahora jamos un punto O en nuestro espacio y dibuja-
mos nuestras tres echas a partir del punto O (es decir, si A=C=E=O),
obtenemos la gura 2.1 b), donde CD y EF coinciden y se pueden considerar
equivalentes. Esta sencilla consideración está en la base de la denición de
vector geométrico.
Sobre el conjunto de todos los segmentos orientados del plano (o del
espacio tridimensional) denimos la siguiente relación de equivalencia:
AB ∼ CD ⇔ AB y CD tienen igual magnitud, dirección y sentido.

Ejercicio 2.1.1 Vericar que  ∼ es una relación de equivalencia.

Denición 2.1.1 Si dos segmentos orientados pertenecen a la misma cla-


se de equivalencia de las obtenidas al considerar la relación de equivalencia
anterior, se dice que son equivalentes.

Ahora el conjunto de todos los segmentos orientados se puede pensar


como la unión disjunta de estas clases de equivalencia:
74 Álgebra

a) C
@
@
@
©
*
B @
R E
©© D @
© @
©© @
©© @
R
A F

b) B
©
*
©
©©
©
©©
©
O@
@
@
@
R
D=F

Figura 2.1: Vectores geométricos

Denición 2.1.2 Un vector geométrico v en R2 o en R3 es una clase de


equivalencia de segmentos orientados respecto de la relación de equivalencia
anterior.
Como cada clase está formada por todos los segmentos orientados (en R2
o en R3 ) que tienen igual magnitud, dirección y sentido (es decir, por todos
los segmentos orientados que coinciden una vez que sean aplicados en un
punto prejado O), estos valores comunes de magnitud, dirección y sentido
se llaman magnitud, dirección y sentido del vector v.

Se sigue de esta denición que dos vectores v1 y v2 son iguales si y solo si


tienen igual magnitud, dirección y sentido.
Podemos, por tanto, representar un vector geométrico por cualquiera de
Álgebra 75
1
³
³³ ½ C
³½
>
w ³³ ³ ½
³ ³ ½
a) B ³³ ½
½
¢¢̧ ½
¢ ½
½ v+w
v ¢ ½
¢ ½
¢ ½½
¢½
½
¢
A

b) v-w
Y
H
H
¢¢̧ HH
¢ HH
v ¢ H
H
¢ ³ ³³
1
¢ ³
³³ w
¢ ³³³
¢ ³
³

Figura 2.2: Operaciones con vectores geométricos

los segmentos orientados del conjunto que lo dene. En la gura 2.1 a), CD
y EF representan el mismo vector geométrico v porque dieren solo en sus
puntos de aplicación.
Nota: Abusando de la notación, se escribirá AB = v para denotar que
el segmento orientado AB es un representante del vector v .

Denición 2.1.3 Sean v y w dos vectores geométricos, la suma v+w es


el vector denido por la regla del paralelogramo en la gura 2.2 a). Si AB y
BC representan los vectores v y w, respectivamente, el segmento orientado
AC representa el vector v + w.

Observación 19 Esta denición de suma de vectores no depende de los seg-


mentos orientados elegidos para representar los vectores v y w.
76 Álgebra

Ejercicio 2.1.2 Vericar, realizando el correspondiente dibujo, que para to-


do par de vectores geométricos v y w, v + w = w + v .

El vector de magnitud cero es el vector cero y se denota por 0; para


todo vector v , v + 0 = 0 + v .
El opuesto de un vector v es el vector de igual dirección, magnitud que
v , pero de sentido opuesto.
La sustracción de dos vectores está denida por v − w = v + (−w) y se
puede representar geométricamente como en gura 2.2 b).
El producto de un vector por un escalar k ∈ R es el vector w = kv
que tiene misma dirección que v , magnitud igual a k veces la magnitud de v
y mismo sentido que v si k > 0 o opuesto si k < 0. Si k = 0, kv = 0.

Si ahora introducimos un sistema de coordenadas ortogonales en el


plano (o en el espacio tridimensional), es decir si seleccionamos un punto
O, dos rectas orientadas mutuamente perpendiculares (o tres si se trata del
espacio tridimensional) y una magnitud unitaria, cada punto P admitirá una
representación analítica en términos de coordenadas o componentes (x,y)
en el caso del plano o (x,y,z) en el caso del espacio tridimensional. Como
el segmento orientado OP representará un vector v, diremos también que
el vector v tiene componentes (x,y) (o (x,y,z)). Por tanto, dos segmentos
orientados OP y OQ son equivalentes (es decir, representan el mismo vector
geométrico v ) si y sólo si los puntos P y Q tienen iguales coordenadas.
Las operaciones denidas sobre vectores geométricos se pueden ahora re-
escribir en términos de coordenadas: sean v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 )
dos vectores en R3 y k ∈ R, entonces

v + w = (v1 + w1 , v2 + w2 , v3 + w3 )

kv = (kv1 , kv2 , kv3 )

v − w = (v1 − w1 , v2 − w2 , v3 − w3 )
En le caso de vectores v y w en R2 estas operaciones están denidas de forma
análoga.

Ejercicio 2.1.3 En R3 , sean k = 2, v1 = (−1, 2, 0), v2 = (4, −3, 2) y v3 =


(−1, −1, −1). Hallar v1 − k(v1 + v2 ) + v3 .
Álgebra 77

Nota: Todos los sistemas de coordenadas que consideraremos a lo largo


del capítulo serán ortogonales.
Si P = (x1 , x2 , x3 ) y Q = (y1 , y2 , y3 ) son dos puntos en R3 , el segmento
orientado P Q representa un vector v en R3 de coordenadas:

P Q = v = (y1 − x1 , y2 − x2 , y3 − x3 ) = Q − P.

De forma similar, dos puntos P = (x1 , x2 ) y Q = (y1 , y2 ) en R2 determinan


un vector v = (y1 − x1 , y2 − x2 ), que se puede representar por el segmento
orientado P Q.

Ejercicio 2.1.4 Sean P = (3, −2, 4) y Q = (−1, 4, −5), determinar las coor-
denadas del vector v = P Q.

A veces la elección de un sistema de coordenadas adecuado puede sim-


plicar la solución de un problema. Las ecuaciones de traslación de los
ejes nos permiten de pasar de un sistema S a otro sistema S 0 , cuyos ejes son
paralelos a los ejes de S.
En R2 , sea O0 , x0 , y 0 el origen y los ejes del nuevo sistema de coordenadas
S . Un punto P en el plano tiene coordenadas (x, y) respecto del sistema
0

S y coordenadas (x0 , y 0 ) respecto del sistema S 0 . Si las coordenadas de O0


respecto de S son O0 = (a, b), se verica que

(x, y) = OP = OO0 + O0 P = (a, b) + (x0 , y 0 ),

y, por tanto,
x0 = x − a, y 0 = y − b.
En el espacio tridimensional, si O0 = (a, b, c) respecto de S , las ecuaciones de
traslación son

x0 = x − a, y 0 = y − b, z 0 = z − c.

Ejercicio 2.1.5 En R3 , sean S y S 0 dos sistemas de coordenadas, donde


O0 = (−1, 2, 3) respecto de S . Encontrar las coordenadas en el sistema S 0
del punto P de coordenadas (−1, 0, 1) en S y las coordenadas en el sistema
S del punto Q de coordenadas (3, −1, 4) en S 0 .

Las siguientes propiedades son de fácil demostración:


78 Álgebra

Teorema 2.1.4 Si x e y son vectores en R2 o en R3 , y λ, µ son dos escalares,


entonces
1. x + y = y + x
2. (x + y) + z = x + (y + z)
3. x + (0) = (0) + x = x
4. x + (−x) = (0) y (−x) + x = (0)
5. (λµ)x =λ(µx)
6. λ(x + y) = λx+λy
7. (λ + µ)x = λx + µx
8. 1 · x = x

Utilizando el Teorema de Pitágoras, la magnitud o norma de un vector


en el plano o en el espacio tridimensional
p se puede determinar como sigue:
para v = (x, y), k v k≡ p x2 + y 2
para v = (x, y, z), k v k≡ x2 + y 2 + z 2 .
Un vector de norma 1 se llama unitario .
La distancia euclídea entre dos vectores v = (x1 , x2 ) y w = (y1 , y2 ) en
R2 es el número real
p
d(v, w) ≡k v − w k= (y1 − x1 )2 + (y2 − x2 )2 .

La distancia euclídea entre dos vectores v = (x1 , x2 , x3 ) y w = (y1 , y2 , y3 ) en


R3 es el número real
p
d(v, w) ≡k v − w k= (y1 − x1 )2 + (y2 − x2 )2 + (y3 − x3 )2 .

Si k es un escalar, k kv k= |k| k v k .

Ejercicio 2.1.6 Sean v = (0, 2, 3), w = (2, 0, −4). Hallar k v k, k w k y


d(v, w).

Sean v y w dos vectores de R2 o de R3 representados por dos segmentos


orientados AB y AC (estos dos segmentos tienen el mismo punto de aplica-
ción). Si v 6= 0 y w 6= 0, en el plano que los contiene, AB y AC determinan
dos ángulos θ1 y θ2 = 2π − θ1 .

Observación 20 Los dos ángulos determinados por v y w no dependen de


los segmentos orientados elegidos para representar los vectores v y w.
Álgebra 79

Si v 6= 0 y w 6= 0, el ángulo entre v y w es el ángulo θ determinado


por AB y AC , que satisface la condición: 0 ≤ θ ≤ π .
Denición 2.1.5 Si v 6= 0 y w 6= 0 son dos vectores del plano o del espacio
tridimensional y θ es el ángulo entre v y w, el producto escalar euclídeo
(o producto interior euclídeo) de v y w es el número real:
v · w =k v kk w k cos(θ). (2.1)
Si v = 0 o si w = 0, v · w = 0.
Ejercicio 2.1.7 En R3 , sean v = (2, 0, 0) y w = (3, 3, 0). Hallar v · w.
Proposición 2.1.6 Sean v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 ) dos vectores de
R3 , entonces
v · w = v1 w1 + v2 w2 + v3 w3
Sean v = (v1 , v2 ) y w = (w1 , w2 ) dos vectores de R2 , entonces
v · w = v1 w1 + v2 w2
La demostración de esta proposición se sigue de la ley de los cosenos:
kw − vk2 = kvk2 + kwk2 − 2kvkkwk cos(θ) = kvk2 + kwk2 − 2v · w.
Si v y w son dos vectores no cero, de la ecuación 2.1 se deriva fácilmente
la siguiente fórmula:
v·w
cos(θ) = (2.2)
k v kk w k
Ejercicio 2.1.8 Encontrar el ángulo entre una diagonal de un cubo y uno
de sus lados. (arccos( √13 ) ≈ 54◦ 440 )
Teorema 2.1.7 Sean v y w dos vectores en el plano o en el espacio tridi-
mensional. Entonces
p
a) k v k= (v · v)

b) Si v 6= 0 y w 6= 0, el ángulo θ entre v y w
es agudo ⇔ v · w > 0
es obtuso ⇔ v · w < 0
π
θ = ⇔v·w =0
2
80 Álgebra

La demostración de este teorema es una aplicación de la fórmula 2.2.



Ejercicio 2.1.9 Dados v = ( 3, 0, −2) y w = (4, π, 37), vericar que el
ángulo entre v y w es obtuso.

Hemos visto que si v 6= 0 y w 6= 0 son perpendiculares (es decir, si θ = π2 ),


el producto interior de v y w es cero. Si se admite que v y w puedan ser cero,
la denición de vectores perpendiculares es la siguiente:

Denición 2.1.8 Dos vectores v y w son ortogonales si v · w = 0.


Las siguientes propiedades son de fácil demostración:

Teorema 2.1.9 Sean u, v y w tres vectores en el plano o en el espacio


tridimensional y sea k un número real:
1. u · v = v · u
2. u · (v + w) = u · v + u · w
3. k(u · v) = (ku) · v = u · (kv)
4. v · v ≥ 0 y v · v = 0 ⇔ v = 0

Demostración Ejercicio.
Sea ahora v 6= 0 un vector bidimensional o tridimensional representado
por el segmento orientado OA y sea w 6= 0 otro vector del mismo espacio.
Utilizando el producto interior es posible denir la proyección ortogonal del
vector w sobre v como sigue. Representamos el vector w por un segmento
orientado OP como en la gura 2.3. El segmento orientado OP1 representa
un vector w1 y los segmentos P1 P y OP2 el vector w2 = w − w1 .
Entonces, w = w1 + w2 , donde el vector w1 = pv (w) es la proyección
ortogonal de w sobre v o componente vectorial de w a lo largo de v
y el vector w2 = w − pv (w) es la componente vectorial de w ortogonal
a v.
Teorema 2.1.10 Si v 6= 0 y w son dos vectores de R2 o de R3 ,
µ ¶
w·v
pv (w) = w1 = v
k v k2
µ ¶
w·v
w2 = w − w1 = w − v
k v k2
Álgebra 81

P2 P
6 ­
Á6
­
­
­
­
w2 w­­
w − w1
­
­
­ θ P
­ - 1 -
O w1 A
v

Figura 2.3: Proyección ortogonal de w sobre v

Demostración Existe un escalar k tal que pv (w) = kv (ya que pv (w) es


paralelo a v ). Entonces w = w1 + w2 = kv + w2 y w · v = w1 · v + w2 · v =
kv · v + w2 · v = k k v k2 . 2

Se sigue fácilmente del último teorema y de las propiedades de la norma


que la magnitud del vector pv (w) es:
|w · v|
k pv (w) k= =k w k | cos(θ)|
kvk
Es importante observar que la norma de pv (w) depende de la dirección
de v y no depende de su magnitud.
Ejercicio 2.1.10 Sean v = (1, −4, 8) y w = (−2, 0, −1). Determinar el
vector pv (w) y su magnitud.

2.1.1 Producto vectorial y producto mixto


Denición 2.1.11 Sean u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) y w = (w1 , w2 , w3 )
tres vectores en R3 , donde hemos jado el sistema de coordenadas ortogonales
82 Álgebra

usual (O = (0, 0, 0), (e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1))).

• El producto vectorial es una operación en R3 , que a cada par de


vectores (u, v) asocia el vector

u × v = (u2 v3 − u3 v2 )e1 + (u3 v1 − u1 v3 )e2 + (u1 v2 − u2 v1 )e3 =


µ ¶ µ ¶ µ ¶
u2 u3 u1 u3 u1 u2
= det e − det e + det e.
v2 v3 1 v1 v3 2 v1 v2 3

• El producto mixto es una función del producto cartesiano R3 ×R3 ×R3


en R, que a cada terna de vectores (u, v, w) asocia el número real
que se obtiene calculando el producto escalar del vector u con el vector
v×w :

u · (v × w) = u1 (v2 w3 − v3 w2 ) − u2 (v1 w3 − v3 w1 ) + u3 (v1 w2 − v2 w1 ) =


 
u1 u2 u3
= det  v1 v2 v3  .
w1 w2 w3

Ejemplo 2.1.12 1) El producto vectorial de u = (1, 0, 1) y v = (−1, 2, 0) es


µ ¶ µ ¶ µ ¶
0 1 1 1 1 0
u × v = det e − det e + det e =
2 0 1 −1 0 2 −1 2 3

= −2e1 − e2 + 2e3 = (−2, −1, 2).


2) El producto mixto de a = (1, 1, 0), u = (1, 0, 1) y v = (−1, 2, 0) es
 
1 1 0

a · (u × v) = det 1 0 1 = −2 − 1 = −3.
−1 2 0

Interpretación geométrica y propiedades del producto vectorial y


del producto mixto

• El vector u × v es ortogonal a u y a v y, por tanto, es ortogonal al plano


que contiene a u y v.

• u × v = −v × u y u × v = 0 si y sólo si u y v son paralelos.


Álgebra 83

• ku × vk = kukkvksin(θ), donde θ es el ángulo que forman u y v. Es-


ta norma coincide con el área del paralelogramo determinado por los
vectores u y v. (Para comprobarlo se puede utilizar la identidad de
Lagrange: ku × vk2 = kuk2 kvk2 − (u · v)2 .)
• u × (v + w) = u × v + u × w y (v + w) × u = v × u + w × u.
• El producto mixto u · (v × w) representa, en valor absoluto, el volumen
del paralelepípedo individuado por los tres vectores u, v y w.

• u · (v × w) = 0 si y sólo si los tres vectores u, v y w pertenenecen al


mismo plano.

2.1.2 Rectas en le plano


Sean P0 = (x0 , y0 ) y P1 = (x1 , y1 ) dos puntos en el plano R2 . El vector
P0 P1 = (x1 − x0 , y1 − y0 ) individua la dirección de la recta l que pasa por P0
y1 − y0
y P1 y, por tanto, tiene pendiente igual a m = = tg(α), siendo α el
x1 − x0
ángulo que la recta l forma con el eje de las x. Sea n = (a, b), un vector cuya
dirección es perpendicular a la dirección de la recta l .
Utilizando los elementos que acabamos de denir, es posible representar
una recta l en el plano por medio de distinta ecuaciones:

• Ecuación vectorial
Sean P0 = (x0 , y0 ) un punto jado y P = (x, y) un punto genérico de
una recta l . Siendo n = (a, b) un vector ortogonal a l , se obtiene que
el producto escalar n · P P0 = 0 (esta ecuación se puede llamar forma
punto-normal).
Utilizando los vectores v = OP y v0 = OP0 , se obtiene la forma
vectorial de la ecuación de l :
n · (v − v0 ) = 0.

• Ecuación general implícita


Si desarrollamos la ecuación punto-normal anterior como

0 = n·P P0 = n·(x−x0 , y−y0 ) = a(x−x0 )+b(y−y0 ) = ax+by−(ax0 +by0 ),


84 Álgebra

y llamamos −(ax0 + by0 ) = c, lo que se obtiene el la ecuación general


implícita:
ax + by + c = 0.

• Ecuaciones paramétricas
Sean P0 = (x0 , y0 ) un punto de la recta l , v = (v1 , v2 ) un vector
paralelo a l y P = (x, y) el punto genérico de l . Entonces el vector P0 P
es paralelo a v, es decir, existe un número real k tal que P0 P = kv.
Esta última ecuación, escrita en términos de coordenadas, dene las
ecuaciones paramétricas de la recta l :
(
x = x0 + kv1
k∈R
y = y0 + kv2 .

• Ecuación pendiente-ordenada en el origen


Esta ecuación tiene la forma

y = mx + q,

donde m es al pendiente de la recta l y q es la ordenada del punto de


corte con el eje de las y, (0, q).

Ejercicio 2.1.11 Sea P0 = (x0 , y0 ) un punto del espacio bidimensional. De-


mostrar que la fórmula para calcular la distancia entre el punto P0 y una
recta r de ecuación ax + by + c = 0 es

|ax0 + by0 + c|
d(P0 , r) = √
a 2 + b2

Utilizar el hecho de que en R2 el vector n = (a, b) 6= (0, 0) es ortogonal a la


recta de ecuación ax + by + c = 0.

Ejemplo 2.1.13 La distancia entre el punto P0 = (2, −1) y la recta r de


|2+1+3|
ecuación x − y + 3 = 0 es igual a d(P0 , r) = √ = √6 .
1+1 2
Álgebra 85

2.1.3 Planos en el espacio tridimensional


Para determinar la ecuación de una recta r : ax + by + c = 0 en el espacio
bidimensional es suciente conocer las componentes de un punto P = (x, y)
de r y su coeciente angular. De forma análoga, en el espacio tridimensional
se puede determinar un plano π (y su ecuación) por uno de sus puntos P0 =
(x0 , y0 , z0 ) y un vector n = (a, b, c) ortogonal a π mismo: todo punto P =
(x, y, z) del plano π y distinto de P0 es tal que el segmento orientado P0 P =
(x − x0 , y − y0 , z − z0 ) sea perpendicular al vector n. Esta caracterización
de los puntos de π se puede expresar por la forma punto-normal de la
ecuación del plano π :

n · P P0 = a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0 (2.3)

Utilizando los vectores OP = v = (x, y, z) y OP0 = v0 = (x0 , y0 , z0 ), la


ecuación 2.3 se puede reescribir en la forma vectorial:

n · (v − v0 ) = 0. (2.4)

Ejemplo 2.1.14 Según la fórmula 2.3, la ecuación del plano π que pasa
por el punto P0 = (2, 0, −1) y es perpendicular a la dirección del vector
n = (1, −1, 4) es
(x − 2) − y + 4(z + 1) = x − y + 4z + 2 = 0.
La misma ecuación se obtiene utilizando la fórmula 2.4:
n · (v − v0 ) = (1, −1, 4) · (x − 2, y, z + 1) = x − y + 4z + 2 = 0.

Teorema 2.1.15 Si n = (a, b, c) 6= (0, 0, 0), la forma implícita de la ecua-


ción de un plano π ortogonal al vector n es:

ax + by + cz + d = 0 (2.5)

Demostración Si b 6= 0, ax + by + cz + d = 0 ⇔ ax + b(y + db ) + cz = 0. La
última ecuación es la forma punto-normal de la ecuación de un plano por el
punto P0 = (0, − db , 0) y ortogonal al vector n = (a, b, c). Si a 6= 0 o si c 6= 0,
se obtienen ecuaciones similares. 2
86 Álgebra

Ejercicio 2.1.12 Considerar un sistema de tres ecuaciones lineales en R3



 a11 x + a12 y + a13 z = b1
a21 x + a22 y + a23 z = b2

a31 x + a32 y + a33 z = b3

Ilustrar con ejemplos geométricos los casos en los cuales el sistema dado sea
incompatible, compatible determinado y compatible.

El siguiente ejemplo muestra como se puede determinar la ecuación de


un plano a partir de las componentes de tres de sus puntos:

Ejemplo 2.1.16 Sean P1 = (1, 0, −1), P2 = (2, 1, 0) y P3 = (−2, 3, 1) tres


puntos de R3 . Encontrar la ecuación del plano que los contiene.

Solución: A partir de la ecuación de un plano en forma general 2.5 y susti-


tuyendo los valores de las variables (x, y, z) por las componentes de los tres
puntos dados, se obtiene un sistema en las variables (a, b, c, d) de la forma

 a−c+d=0
2a + b + d = 0

−2a + 3b + c + d = 0

El conjunto solución de este sistema es {(−t, −5t, 6t, 7t) : t ∈ R}.


Sustituyendo los valores encontrados para los coecientes a, b, c y d en la
ecuación 2.5, se obtiene el plano

−tx − 5ty + 6tz + 7t = 0, es decir, x + 5y − 6z + 7 = 0.

Teorema 2.1.17 Sean P0 = (x0 , y0 , z0 ) y π : ax + by + cz + d = 0 un punto y


un plano en el espacio tridimensional, respectivamente. La siguiente fórmula
nos da el valor de la distancia entre P0 y π :

|ax0 + by0 + cz0 + d|


d(P0 , π) = √ (2.6)
a2 + b2 + c2
Álgebra 87

Demostración Ejercicio.
(Sugerencia: Sean n = (a, b, c) el vector normal y Q = (x, y, z) un punto
kP0 Q · nk
del plano π. Entonces kpn (P0 Q)k = .) 2
knk

Ejercicio 2.1.13 a)Encontrar la distancia entre el punto P0 = (1, −2, 3) y


el plano π : x − 2y + z = 1.
b)Encontrar la distancia entre los planos paralelos π : x − 2y + z = 1 y
π 0 : 2x − 4y + 2z = 3.

2.1.4 Rectas en el espacio tridimensional


Sea l una recta en el espacio tridimensional que pasa por el punto P0 =
(x0 , y0 , z0 ) y es paralela al vector u = (a, b, c) 6= (0, 0, 0).
Si P = (x, y, z) es un punto de l distinto de P0 , se verica que P0 P =
(x − x0 , y − y0 , z − z0 ) = ku = (ka, kb, kc) para un escalar k ∈ R. Entonces
la recta l estará determinada por las ecuaciones paramétricas:

 x = x0 + ka
y = y0 + kb , donde k ∈ R. (2.7)

z = z0 + kc

Sean P0 y P dos puntos de una recta l y sean OP0 = v0 y OP = v los


vectores del espacio tridimensional correspondientes. Entonces se verica la
identidad P0 P = (x − x0 , y − y0 , z − z0 ) = v − v0 . Si además u es un vector
paralelo a la recta l, se sigue que v − v0 = ku por un escalar k ∈ R.
Llamaremos forma vectorial de la ecuación de una recta en el es-
pacio tridimensional a la ecuación:

v = v0 + ku (k ∈ R) (2.8)

Si para denir una recta l en el espacio tridimensional utilizamos un


sistema de dos ecuaciones de dos planos cuya intersección es l , lo que se
obtiene son las ecuaciones implícitas de l :
(
a1 x + b1 y + c1 z + d1 = 0
a2 x + b2 y + c2 z + d2 = 0
88 Álgebra

Ejercicio 2.1.14 a)Encontrar las ecuaciones paramétricas de la recta l que


pasa por los puntos P0 = (3, −2, 0) y P = (−5, 13, 4).
b)Encontrar las ecuaciones paramétricas de la recta l intersección de los
planos 3x + 2y − 4z − 6 = 0 y 2x − 6y − 4z − 8 = 0.
c)Encontrar la forma vectorial de la ecuación de la recta l de ecuaciones
paramétricas: 
 x = 2 + 3k
y = −5 − k , donde k ∈ R. (2.9)

z = 7k
Álgebra 89

2.2 Espacios vectoriales sobre un cuerpo K


Según hemos visto, en los espacios R2 y R3 se satisfacen las propiedades
1) a 8) recogidas en el teorema 2.1.4 respecto de la suma y del producto
por escalares (las propiedades 1 a 4 son las que indican que R2 y R3 tienen
estructura de grupo abeliano respecto de la suma). Veremos que, en general,
si (K, +, ·) es un cuerpo, (Kn , +, ·) también satisface dichas propiedades.
Estas propiedades son las que dan lugar a la denición de espacio vectorial
sobre un cuerpo (K, +, ·).

Denición 2.2.1 Sea (K, +, ·) un cuerpo. Llamaremos espacio vectorial


sobre el cuerpo (K, +, ·) a cualquier 3-tupla (E, ⊕, ◦) formada por un con-
junto no vacío E, una operación ⊕ : E × E → E, y una función (producto
por escalares) ◦ : K×E → E de manera que se satisfagan las siguientes
propiedades:

1. (E, ⊕) es un grupo abeliano;

2. ∀u, v ∈ E ∀α ∈ K (α ◦ (u ⊕ v) = α ◦ u ⊕ α ◦ v),

3. ∀u ∈ E ∀α, β ∈ K ((α + β) ◦ u = α ◦ u ⊕ β ◦ u),

4. ∀u ∈ E ∀α, β ∈ K ((α · β) ◦ u = α ◦ (β ◦ u)),

5. siendo 1 ∈ K el elemento neutro de  ·, ∀u ∈ E (1 ◦ u = u).

A los elementos de K, que habitualmente representaremos por letras del


alfabeto griego, se les denomina escalares y a los elementos de E, que habi-
tualmente representaremos por letras del alfabeto latino (y en ocasiones en
negrita), vectores.
En este contexto, el término vector servirá para designar en lo sucesi-
vo a un elemento del espacio vectorial sobre el que se esté trabajando, y
no necesariamente a un vector geométrico determinado por un segmento
orientado.
Es usual, dada la sobrecarga de notación derivada del uso de tres ope-
raciones y un producto por escalares, el adoptar el siguiente convenio de
notación universalmente aceptado.
90 Álgebra

Operacion Nombre de la operación Notación


+:K×K→K suma de escalares +
·:K×K→K producto de escalares ·
⊕:E×E→E suma de vectores +
◦ : K×E → E producto de vectores por escalares ·

Con esta nueva notación los axiomas de espacio vectorial se escribirán:

1. (E, +) es un grupo abeliano;

2. ∀u, v ∈ E ∀α ∈ K (α · (u + v) = α · u + α · v),

3. ∀u ∈ E ∀α, β ∈ K ((α + β) · u = α · u + β · u),

4. ∀u ∈ E ∀α, β ∈ K ((α · β) · u = α · (β · u)),

5. siendo 1 ∈ K el elemento neutro de  ·, ∀u ∈ E (1 · u = u),

donde en cada caso la naturaleza de la operación (es decir, si se trata de la


suma en K o en E y lo mismo con el producto de un escalar por un elemento de
E y el producto en K) quedará normalmente determinada por la naturaleza
de los operandos. Así por ejemplo, si E =Mm×n (R), A, B ∈ Mm×n (R), y
α, β ∈ R, en la expresión
(α + β) · A
es obvio que la suma considerada es la suma de los números reales α y β,
mientras que en la expresión

α · (A + B)

la suma considerada es la denida en Mm×n (R).

También señalaremos que es usual omitir el  ·, escribiendo por ejemplo


α(βu) en lugar de α · (β · u), por lo que habitualmente lo haremos así.
Ejemplos de espacios vectoriales con los que ya hemos trabajado son:

• Las matrices la con coecientes reales ó complejos M1×n (K) con res-
pecto de la suma de las y producto de una la por un número.
Álgebra 91

• Los vectores geométricos del plano y del espacio respecto de la suma


de vectores y producto por escalares denidos en la primera parte del
capítulo.

• Las propiedades que satisfacen las matrices de orden m × n con coe-


cientes en un cuerpo K respecto de la suma y producto por escalares
denidos hacen que Mm×n (K) tenga estructura de espacio vectorial res-
pecto de dichas operaciones.

Observación 21 Si (E, +, ·) es un espacio vectorial sobre el cuerpo (K, +, ·),


y las operaciones + y · son las usuales del cuerpo K, diremos simplemente
que (E, +, ·) es un K-espacio vectorial (abreviadamente: “(E, +, ·) es un K −
e.v.), o simplemente, que E tiene estructura de espacio vectorial con respecto
a las operaciones + : E × E → E y · : K×E → E, y si la suma y el producto
por escalares considerados están predenidos o se sobrentiende cuales son,
diremos de forma abreviada que “E es un K − e.v.00 .

Ejemplo 2.2.2 Sea (K, +, ·) un cuerpo. La terna (K, +, ·) es un (K, +, ·) −


espacio vectorial, puesto que, como consecuencia de la denición de cuerpo,
y en particular, de la propiedad distributiva del producto del cuerpo respecto
de la suma, de la asociatividad del producto y de la existencia de elemento
neutro para el producto, tendremos

1. (K, +) es un grupo abeliano;

2. ∀u, v ∈ K ∀α ∈ K α · (u + v) = α · u + α · v,

3. ∀u ∈ K ∀α, β ∈ K (α + β) · u = α · u + β · u,

4. ∀u ∈ K ∀α, β ∈ K (α · β) · u = α · (β · u),

5. Siendo 1 ∈ K el elemento neutro de  ·00 , ∀u ∈ K (1 · u = u).

Así pues, el cuerpo (R, +, ·) es un R−e.v., el cuerpo (C, +, ·) es un C−e.v.


y el cuerpo (Z2 , +, ·) es un Z2 − e.v.
92 Álgebra

2.2.1 Propiedades de vectores


La siguiente proposición recoge una serie de propiedades que se satisfacen en
todo espacio vectorial, donde, para mayor claridad, a los vectores los hemos
destacado en negrita.

Proposición 2.2.3 Si E es un K − e.v. se verican las siguientes propieda-


des:

1. ∀u ∈ E, 0 · u = 0;
2. ∀α ∈ K, α · 0 = 0;
3. ∀α ∈ K, ∀u ∈ E, ((α · u = 0) ⇒ (α=0 ∨ u = 0)) ;
4. ∀u ∈ E, (−1) · u = −u;
5. ∀α ∈ K − {0}, ∀u, v ∈ E, ((α · u =α · v) ⇒ (u = v)) ;
6. ∀α, β ∈ K, ∀u ∈ E − {0}, ((α · u =β · u) ⇒(α = β)) .

Demostración 1. Dado u ∈ E,
0 · u = (0 + 0) · u =0 · u+0 · u,
y puesto que el único elemento idempotente del grupo (E, +) es el elemento
0 ∈ E, concluímos que
0 · u = 0.
2. Dado α ∈ K,

α · 0 =α · (0 + 0) = α · 0 + α · 0,
por lo que, razonando análogamente a la propiedad anterior, concluímos que
α · 0 = 0.
3. Sean α ∈ K y u ∈ E, y supongamos que α · u = 0. Caben dos posibi-
lidades.
a) Si α = 0, entonces no hay nada que demostrar, puesto que en ese caso
la sentencia (α=0 ∨ u = 0) es verdadera.
b) Si α 6= 0, consideramos el elemento α−1 ∈ K. Multiplicando a ambos
lados de la igualdad por α−1 obtenemos

α−1 · (α · u) = α−1 · 0 = 0;
pero por los axiomas de espacio vectorial
¡ ¢
α−1 · (α · u) = α−1 · α · u =1 · u = u,
Álgebra 93

es decir , u = 0.
4. Sea u ∈ E. Puesto que −1 ∈ K es opuesto de 1 en el grupo (K, +),
tendremos

( − 1) · u + u = ( − 1) · u+1 · u = ( − 1 + 1) · u = 0,

y puesto que (E, +) es un grupo (abeliano), tendremos también

u + ( − 1) · u = 0,

es decir, ( − 1) · u es el elemento opuesto de u en el grupo (E, +), o lo que es


lo mismo, ( − 1) · u = −u.
5. Sean α ∈ K − {0}, u, v ∈ E, y supongamos que α · u =α · v. Multipli-
cando ambos miembros de esta igualdad por α−1 obtenemos

α−1 · (α · u) =α−1 · (α · v) ,

o lo que es lo mismo,
¡ −1 ¢ ¡ ¢
α · α · u = α−1 · α · v,

de donde u = v.
6. Sean α, β ∈ K y u ∈ E − {0}, y supongamos que α · u =β · u. En ese
caso necesariamente
α · u + (−(β · u)) = 0.
Pero de los axiomas de espacio vectorial y de las propiedades anteriores se
sigue que

α · u + (−(β · u)) =α · u + (−β) · u = (α + (−β)) · u;

es decir,
(α + (−β)) · u = 0
siendo u 6= 0, con lo que (α + (−β)) = 0, o lo que es lo mismo, α = β. 2

2.2.2 Producto cartesiano de espacios vectoriales


Vamos ahora a comprobar que el producto cartesiano de espacios vectoriales
es un espacio vectorial, resultado que recogemos en la siguiente proposición:
94 Álgebra

Proposición 2.2.4 Si (E1 , +1 , ·1 ), · · · , (En , +n , ·n ) son n K − e.v. entonces


el conjunto E = E1 × · · · × En tiene estructura de espacio vectorial respecto
de las operaciones

+: E×E −→ E
((u1 , · · · , un ), (v1 , · · · , vn )) ; (u1 +1 v1 , · · · , un +n vn )
y
·: K×E −→ E
(α, (u1 , · · · , un )) ; (α ·1 u1 , · · · , α ·n un )

Para realizar dicha comprobación resulta natural utilizar el símbolo  +


tanto para referirnos a cualquiera de las sumas +1 , · · · , +n como para desig-
nar la suma denida en E1 × · · · × En , y lo mismo haremos con el símbolo
 ·  (que incluso se omite por convenio de notación), de manera que, en ca-
da caso, la operación considerada queda determinada por la naturaleza de
los operandos; en otras palabras, para cada i ∈ {1, · · · , n}, si ui , vi ∈ Ei ,
entonces
ui + vi = ui +i vi y αui = α ·i (ui ) .
Así por ejemplo, puesto que E1 , · · · , En son  n K − e.v., en particular

(E1 , +), · · · , (En , +)

son grupos abelianos y, en esas condiciones no es difícil vericar que

(E1 × · · · × En , +)

es también un grupo abeliano.


Por otra parte veamos que ∀u, v ∈ E y ∀α ∈ K

α · (u + v) = α · u + α · v :

Si u, v ∈ E, u = (u1 , · · · , un ) y v = (v1 , · · · , vn ), por denición

(u + v) = (u1 + v1 , · · · , un + vn )

y, en consecuencia, según se ha denido la ley de composición externa en E,

α · (u1 + v1 , · · · , un + vn ) = (α (u1 + v1 ) , · · · , α(un + vn )),


Álgebra 95

y por la propiedad distributiva que satisface el producto por escalares respec-


to de la suma de vectores en cada uno de los espacios vectoriales (Ei , +i , ·i )
tendremos que, en denitiva,

α · (u + v) = α · (u1 + v1 , · · · , un + vn ) =
= (α (u1 + v1 ) , · · · , α(un + vn )) =
= (αu1 + αv1 , · · · , αun + αvn ) =
= (αu1 , · · · , αun ) + (αv1 , · · · , αvn ) =
= α(u1 , · · · , un ) + α(v1 , · · · , vn ) =
= α·u+α·v

La demostración de que se satisfacen el resto de las propiedades necesarias


para que E1 ×· · ·×En tenga estructura de K−e.v. respecto de las operaciones
consideradas se propone como ejercicio.
En particular, como consecuencia de la proposición anterior tenemos que
si (K, +, ·) es un cuerpo, entonces ∀n ∈ N (Kn , +, ·) es un K − e.v., siendo
las operaciones denidas sobre Kn las denidas en la proposición anterior.
Estas son las operaciones que se deben dar por sobreentendidas siempre que
hagamos alusión al K − e.v. Kn .

Ejemplo 2.2.5 Casos particulares del apartado anterior:

1. (R3 , +, ·) es un R − e.v., donde si (x, y, z), (x0 , y 0 , z 0 ) ∈ R3 y α ∈ R,

(x, y, z) + (x0 , y 0 , z 0 ) = (x + x0 , y + y 0 , z + z 0 )
α(x, y, z) = (αx, αy, αz)

siendo x + x0 , y + y 0 y z + z 0 la suma habitual de estos números reales, y


αx, αy y αz el producto habitual de estos números reales.
2. Del mismo modo que en el ejemplo anterior, (C2 , +, ·) es un C − e.v.,
sobrentendiéndose cuáles son las operaciones denidas sobre C2 .
3. Análogamente, (Z32 2 , +, ·) es un Z2 − e.v..
4. El espacio Mm,n (R) × C[x] es un R−espacio vectorial.
96 Álgebra

2.2.3 Funciones con codominio en un espacio vectorial


Si E es un K − e.v., y denotamos por F(X, E) al conjunto formado por todas
las funciones denidas sobre un conjunto cualquiera X 6= ∅ y tales que su
imagen está contenida en E,

F(X, E) = {f : X −→ E : f es una función} ,

resulta que este conjunto tiene estructura de K − e.v., según se recoge en la


siguiente proposición.

Proposición 2.2.6 Si X 6= ∅ y E es un K − e.v., entonces (F(X, E), +, ·)


es un K − e.v., donde ∀f, g ∈ F (X, E) f + g ∈ F(X, E) es la función denida
∀x ∈ X por la siguiente expresión (f + g)(x) = f (x) + g(x) (nótese que la
suma del lado izquierdo de la igualdad es la suma de funciones, y que la del
lado derecho es la suma de E) y ∀f ∈ F(X, E), ∀α ∈ K , (αf ) ∈ F(X, E) es
la función determinada ∀x ∈ X por la siguiente expresión (αf )(x) = αf (x).

Demostración Siendo f + g la función denida por la condición


∀x ∈ X (f + g)(x) = f (x) + g(x)

resulta que tenemos denida una operación sobre F(X, E):

+ : F(X, E) × F(X, E) −→ F(X, E)


(f, g) ; f +g

Además, se verica que:


1. + es asociativa, pues si f, g, h ∈ F(X, E), y x ∈ X

((f + g) + h) (x) = (f + g)(x) + h(x) = (f (x) + g(x)) + h(x) =


= f (x) + (g(x) + h(x)) = f (x) + (g + h)(x) =
= (f + (g + h)) (x)

con lo que (f + g) + h = f + (g + h).


2. + es conmutativa, pues si f, g ∈ F(X, E), y x ∈ X,

(f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x)

con lo que (f + g) = (g + f ).
Álgebra 97

3. Es inmediato comprobar (verifíquese) que la función constante

0: X −→ E
x ; 0

es el elemento neutro de (F(X, E), +).


4. Del mismo modo, es inmediato comprobar (verifíquese) que ∀f ∈
F(X, E) el elemento simétrico de f respecto de + es la función

(−f ): X −→ E
,
x ; −(f (x))

es decir, ∀x ∈ X (−f )(x) = −(f (x)) donde −(f (x)) es el elemento opuesto
de f (x) en (G, +). Al ser (E, +) un grupo abeliano, (F(X, E), +) también lo
es, donde
f +g : X → E
.
x ; f (x) + g(x)
Veamos ahora que la operación

·: K×F(X, E) −→ F(X, E)
(α, f ) ; αf

donde
αf : X → E
x ; αf (x)
satisface el resto de propiedades:
5. Sean f, g ∈ F(X, E). Hay que demostrar que ∀α ∈ K

α(f + g) = αf + αg.

Sea α ∈ K. Puesto que


(α(f + g)) : X → E
y
(αf + αg) : X → E,
para demostrar que dichas aplicaciones son iguales es suciente con probar
que
∀x ∈ E, (α(f + g))(x) = (αf + αg)(x).
98 Álgebra

Sea x ∈ E. Por denición

(α(f + g))(x) = α ((f + g)(x)) = α (f (x) + g(x)) =


(por la distributividad en E del producto por
escalares respecto de la suma de vectores)
= αf (x) + αg(x) = (αf )(x) + (αg)(x) = ((αf ) + (αg)) (x).

6. Hay que probar que ∀f ∈ F (X, E) ∀α, β ∈ K

(α + β)f = αf + βf.

Se demuestra de forma análoga a la propiedad que acabamos de ver, por lo


que se propone como ejercicio.
7. Sean f ∈ F(X, E) y α, β ∈ K . Hay que demostrar que

(αβ)f = α(βf ).

Puesto que
((αβ)f ) : X → E
y
(α(βf )) : X → E,
para demostrar que dichas aplicaciones son iguales es suciente probar que
∀x ∈ E
((αβ)f )(x) = (α(βf ))(x).
Sea x ∈ E. Por denición

((αβ)f )(x) = (αβ)f (x) = (puesto que α,β ∈ K, f (x) ∈ E


y E es un K-e.v.)
= α(βf (x)) = α((βf )(x)) = (α(βf ))(x).

8. Finalmente, dado 1 ∈ K, ∀f ∈ F(X, E)

(1 · f ) = f,

pues si f ∈ F(X, E) es una función cualquiera de ese conjunto, dado que

(1 · f ) : X → E y f : X → E,
Álgebra 99

y teniendo en cuenta que ∀x ∈ E,


(1 · f )(x) = 1 · f (x) = f (x),
concluímos que (1 · f ) = f. 2

Ejemplos. Como consecuencia de la proposición anterior, los siguientes


conjuntos tienen estructura de espacio vectorial respecto de las operaciones
consideradas en la misma.
1. Si (K, +, ·) es un cuerpo, el conjunto F(K, K). En particular, el con-
junto F(R, R) de las funciones reales de variable real y el conjunto F(C, C)
de las funciones complejas de variable compleja.
2. El conjunto F(R, C) de las funciones complejas de variable real es un
C − e.v.
3. El conjunto F(N, E) de las sucesiones de elementos de un K − e.v.
E. En particular F(N, R), F(N, C), F(N, R3 ) tienen estructura de espacio
vectorial respecto de las operaciones consideradas en la proposición anterior.
(Como ejercicio, escríbase cual es la expresión explícita de dichas operaciones
particularizadas en cada uno de los subespacios de este ejemplo).
4. El conjunto Mm×n (K) = F({1, · · · , m}×{1, · · · , n}, K) de las matrices
de m las y n columnas con coecientes en un cuerpo K y, en particular, el
conjunto de las matrices cuadradas de n las, al que denotamos por Mn (K).
5. Combinando los ejemplos anteriores también son espacios vectoriales,
respecto de la suma y producto por escalares introducidos, el conjunto
F(N, F(R, R))
de las sucesiones de F(R, R), el conjunto
F(N, M2 (C))
de las sucesiones de matrices de M2 (C), el conjunto
F(M3 (C), M3 (C)),
el conjunto
F(N, F(R, R) × F(R, R)),
el conjunto
F(C, C×M5 (C)),
y un largo etcétera.
100 Álgebra

2.3 Subespacios vectoriales


Siendo E un K − e.v. y H ⊂ E, se dice que H es un subespacio vectorial
de E si H tiene estructura de espacio vectorial respecto de las operaciones
inducidas por las de E. Por consiguiente, teniendo en cuenta que si + y
· satisfacen las propiedades necesarias para que E sea un K − e.v. (+ es
asociativa, conmutativa,· · · ), dichas propiedades también se satisfacen en el
caso particular de que los vectores sean de H, y que siendo 0 ∈ K y u ∈ H,
0 · u = 0, lo único que necesitamos para que H sea un subespacio vectorial
de E es que el resultado obtenido al hacer actuar dichas operaciones sobre
elementos de H sea un elemento de H, es decir:

Denición 2.3.1 Si E es un K − e.v. y H ⊂ E, se dice que H es un sub-


espacio vectorial de E si:
1. H 6= ∅.
2. ∀u, v ∈ H u + v ∈ H.
3. ∀α ∈ K, ∀u ∈ H αu ∈ H.

En lo sucesivo utilizaremos la notación H ≺ E para indicar que H es un


subespacio vectorial de E.

Proposición 2.3.2 Sean E un K − e.v. y H ⊂ E. Se verica que H ≺ E si


y sólo si

a) 0 ∈ H

b) ∀u, v ∈ H, ∀α, β ∈ K se verica que (αu + βv) ∈ H.

Demostración Ejercicio. Indicación: vericar que las condiciones 1, 2 y


3 de la denición equivalen a las condiciones a) y b). 2

Observación 22 De la denición de subespacio vectorial se sigue que, sien-


do E un K − e.v. se verica que E ≺ E y que {0} ≺ E.
Álgebra 101

Observación 23 No es difícil demostrar, razonando por inducción sobre n,


que si E es un K − e.v. y H ≺ E , entonces se verica que
à n !
X
∀(u1 , · · · , un ) ∈ H n , ∀(α1 , · · · , αn ) ∈ Kn , αi ui ∈ H.
i=1

(De manera informal: si H ≺ E, u1 , · · · , un son vectores de H, y α1 , · · · , αn


son escalares, necesariamente α1 u1 + · · · + αn un ∈ H.)

EJEMPLOS:
1. Puesto que si H ≺ E, necesariamente 0 ∈ H, no es difícil comprobar
que cualquier plano de R3 que pase por el punto (0, 0, 0) es un subespacio
vectorial de R3 . Igualmente, cualquier recta de R3 que pase por el punto
(0, 0, 0) es un subespacio vectorial de R3 . Cuando introduzcamos el concep-
to de dimensión veremos que los únicos subespacios vectoriales de R3 son:
{0}, R3 , las rectas que pasan por 0 =(0, 0, 0) y los planos que pasan por 0.
(De forma análoga, los únicos subespacios de R2 son: {0}, R2 y las rectas
que pasan por 0).
2. El conjunto formado por todas las soluciones de un sistema homogéneo
de m ecuaciones lineales con n incógnitas y con coecientes en un cuerpo
K es un subespacio vectorial de Kn


 a11 x1 + · · · + a1n xn = 0
.. .
 .
 a x + ··· + a x = 0
m1 1 mn n

Para comprobarlo, sólo hay que vericar que si (α1 , · · · , αn ), (β1 , · · · , βn ) ∈


Kn son soluciones del sistema anterior y α ∈ K, entonces (α1 +β1 , · · · , αn +βn )
también es solución del sistema, y lo mismo sucede con (αα1 , · · · , ααn ).
3. C[x] ≺ F (C, C), pues
a) 0 ∈ C[x];
b) si f, g ∈ C[x] y α, β ∈ K , de la denición de C[x] se sigue que
∃n, m ∈ N ∪ {0}, ∃(a0 , · · · , an ) ∈ Cn+1 , ∃(b0 , · · · , bm ) ∈ Cm+1 tales que
∀x ∈ C se verica que

f (x) = an xn + · · · + a0 ∧ g(x) = bm xm + · · · + b0 ;
102 Álgebra

evidentemente, si n ≥ m, poniendo ∀i ∈ {m + 1, · · · , n} bi = 0, tendremos


que

∀x ∈ C (αf + βg)(x) =
à n ! à n !
X X
i i
= α ai x + β bi x =
i=0 i=0
n
X
= (αai + βbi ) xi ,
i=0

es decir, (αf + βg) ∈ C[x].


4. Siendo Pn (C) el conjunto de polinomios con coecientes en C de grado
≤ n, se verica que Pn (C) ≺ C[x] pues
i) 0 ∈ Pn (C), con lo que Pn (C) 6= ∅.
ii) Dados f, g ∈ Pn (C), teniendo en cuenta que

gr(f + g) ≤ max{gr(f ), gr(g)} ≤ n,

resulta que f + g ∈ Pn (C)


iii) Dados f ∈ Pn (C) y α ∈ K, hay que distinguir dos posibilidades: si
α = 0, entonces αf = 0 ∈ Pn (C); por otra parte si α 6= 0, teniendo en cuenta
que gr(αf ) = gr(f ), se sigue que en cualquier caso αf ∈ Pn (C).
5. Si denotamos por C(R, R) al conjunto de funciones reales de variable
real que son continuas en todos los puntos de R, teniendo en cuenta que
cualquier función constante es continua (con lo que C(R, R) 6= ∅), que si
f, g ∈ C(R, R), entonces f + g ∈ C(R, R), y que si α ∈ R y f ∈ C(R, R),
entonces αf ∈ C(R, R), resulta que

C(R, R) ≺ F (R, R).

Por el mismo motivo, el conjunto de las funciones reales denidas en el con-


junto
[a, b] = {x ∈ R |a ≤ x ≤ b }
y continuas en todos los puntos de este intervalo, conjunto al que denotamos
por C([a, b], R), constituye un subespacio vectorial de F([a, b], R).

Observación 24 Puesto que todo subespacio vectorial de un espacio vecto-


rial dado es a su vez un espacio vectorial, es posible referirnos a cada uno de
Álgebra 103

los ejemplos anteriores como espacios vectoriales; de este modo, hablaremos


del espacio vectorial de las funciones continuas C(R, R), del espacio vectorial
de los polinomios de grado ≤ n, etc..

Ejercicio 2.3.1 Se dice que A ∈ Mn (K) es simétrica si t A = A. Si denota-


mos por Sn (K) al conjunto de las matrices simétricas de orden n, demostrar
que Sn (K) ≺ Mn (K).

Proposición 2.3.3 Si X 6= ∅, E es un K − e.v. y S ⊂ X, el conjunto

H = {f ∈ F (X, E) |f (S) = {0} }

es un subespacio vectorial de F(X, E).

Demostración Ejercicio.

Corolario 2.3.4 Las matrices triangulares superiormente, T n (K), inferior-


mente Tn (K) y diagonales Dn (K) son subespacios vectoriales de Mn (K).

Demostración Es suciente con aplicar la proposición anterior teniendo


en cuenta que, siendo

S T = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i > j },

ST = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i < j }


y
SD = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i 6= j },
se verica © ¯ ª
T n (K) = A ∈ Mn (K) ¯A(S T ) = {0} ,
Tn (K) = {A ∈ Mn (K) |A(ST ) = {0} }
y
Dn (K) = {A ∈ Mn (K) |A(SD ) = {0}} .
2
104 Álgebra

2.4 Dependencia e independencia lineal


Denición 2.4.1 Si E es un K − e.v., un sistema de vectores de E es
cualquier secuencia nita de vectores de E. Así, si u1 , · · · , un ∈ E, la secuen-
cia u1 , · · · , un es un sistema de n vectores de E.

Observación 25 Para mayor claridad, en ocasiones escribiremos {u1 , · · · , un }


para referirnos al sistema u1 , · · · , un .

Denición 2.4.2 Si {u1 , · · · , un } es un sistema de vectores de E, diremos


que v ∈ E es combinación lineal de u1 , · · · , un si ∃(α1 , · · · , αn ) ∈ Kn tal
P
n
que v = αi ui .
i=1

Observación 26 Si v ∈ E es combinación lineal de u1 , · · · , un también di-


remos que v ∈ E depende linealmente de u1 , · · · , un .

Ejemplo 2.4.3 Si consideramos en el R−e.v. R2 con su estructura de espa-


cio vectorial habitual, resulta que (11, 7) depende linealmente de (2, 1), (1, 0),
y (3, 2), puesto que
(11, 7) = (2, 1) + 3 · (3, 2).

Por el mismo motivo, (−3, 0) depende linealmente de (1, 1), (1, 4), pues

(−3, 0) = (−4) · (1, 1) + 1 · (1, 4).

Si E es un K − e.v. y A ⊂ E denotaremos por

L(A) = {v ∈ E |v es combinación lineal de un sistema de vectores de A}.

La siguiente proposición establece que si E es un K − e.v. y A ⊂ E, L(A)


es el subespacio vectorial más pequeño que contiene a A.

Proposición 2.4.4 Sean E un K−e.v. y A ⊂ E. Se verica que: 1) L(A) ≺


E, 2)A ⊂ L(A) y 3)∀H 0 ≺ E (A ⊂ H 0 ⇒ L(A) ⊂ H 0 ).
Álgebra 105

Demostración Sea H = L(A).


1. Es obvio que 0 ∈ H y, por otra parte, dados α, β ∈ K, y u, v ∈ H, de
la denición de H se sigue que existen u1 , · · · , un y v1 , · · · , vm sistemas de
vectores de A y ∃(α1 , · · · , αn ) ∈ Kn , ∃(β1 , · · · , βm ) ∈ Km de manera que
n
X m
X
u= αi ui y v = β i vi ,
i=1 i=1

por lo que
à n ! à m !
X X
αu + βv = α αi ui +β βi vi =
i=1 i=1
n
X m
X
= (ααi ) ui + (ββi )vi =
i=1 i=1
n+m
X
= γi wi ,
i=1

donde hemos puesto ∀i ∈ {1, · · · , n + m},

(i ≤ n ⇒ γi = (ααi ) ∧ wi = ui )

(n < i ≤ n + m ⇒ γi = (ββi ) ∧ wi = vi ) ,
y en consecuencia, puesto que w1 , · · · , wn+m es un sistema de n + m vectores
de A, concluímos que
αu + βv ∈ H.
2. Si v ∈ A, podemos poner, por ejemplo, que v = 1 · v, siendo 1 ∈ K y
{v} el sistema de vectores de A considerado, con lo que v ∈ H.
3. Finalmente, si H 0 ≺ E es tal que A ⊂ H 0 , según vimos en su momento,
cualquier combinación lineal de elementos de H 0 (en particular de elementos
de A ⊂ H 0 ) es un elemento de H 0 , con lo que H ⊂ H 0 . 2

Denición 2.4.5 Si E es un K − e.v. y u1 , · · · , un es un sistema de vecto-


res de E, al subespacio vectorial L({u1 , · · · , un }) se le denomina subespacio
106 Álgebra

vectorial generado por el sistema u1 , · · · , un , y del sistema u1 , · · · , un se


dice que es un sistema generador de H = L({u1 , · · · , un }). A este subes-
pacio también lo denotaremos por L(u1 , · · · , un ).
Observación 27 Nótese que si todo vector de E se puede expresar como una
combinación lineal de u1 , · · · , un , resulta que el subespacio vectorial generado
por u1 , · · · , un es H = L({u1 , · · · , un }) = E, que obviamente es un subespacio
vectorial de E.
Ejemplos:
1. Los vectores (1, 0) y (0, 1) constituyen un sistema generador de R2 , pues
cualquier vector de R2 se puede expresar como combinación lineal del sistema
(1, 0), (0, 1), ya que si (a, b) ∈ R2 , (a, b) = a(1, 0) + b(0, 1). Análogamente
(1, 0, 0), (0, 1, 0), (0, 0, 1)
es un sistema generador de R3 y, en general, el sistema de n vectores de Kn
(1, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, · · · , 0, 1)
es un sistema generador de Kn .
2. Los polinomios 1, x, x2 , · · · , xn constituyen un sistema generador de
Pn (C), pues si f ∈ Pn (C), f es de la forma f = a0 + · · · + an xn (ya que
∀z ∈ C, f (z) = (a0 + · · · + an xn )(z) = a0 + · · · + an z n ).
3. Como hemos visto, los vectores (1, 0) y (0, 1) constituyen un sistema
generador de R2 . Pero el sistema (1, 0), (0, 1), (3, 1) también es un sistema
generador de R2 , pues si (a, b) ∈ R2 ,
(a, b) = a(1, 0) + b(0, 1) + 0(3, 1).
De hecho, cualquier sistema de vectores de R2 que contenga a (1, 0) y
(0, 1) será un sistema generador de R2 .
Nos interesa caracterizar los sistemas generadores con el menor número
posible de elementos. Estos sistemas de vectores serán los sistemas de vectores
que, constituyendo un sistema generador, son linealmente independientes.
Denición 2.4.6 Siendo E un K − e.v., se dice que el sistema u1 , · · · , un de
vectores de E es libre (o también que los vectores u1 , · · · , un son linealmente
independientes) si se verica que ∀(α1 , · · · , αn ) ∈ Kn
à n !
X
αi ui = 0 ⇒(α1 , · · · , αn ) = (0, · · · , 0)
i=1
Álgebra 107

Si el sistema de vectores u1 , · · · , un no es libre, se dice que es ligado (o


también que los vectores u1 , · · · , un son linealmente dependientes). Así
pues,

u1 , · · · , un es ligado ⇔
à n
!
X
∃(α1 , · · · , αn ) ∈ Kn − {(0, · · · , 0)} tales que αi ui = 0 .
i=1

Ejemplo 2.4.7 En el R − e.v. R2 con su estructura de espacio vectorial


habitual el sistema (1, 0), (0, 1) es libre, pues si α(1, 0) + β(0, 1) = (0, 0),
tendremos que (α, β) = (0, 0), de donde α = 0 = β. Un argumento similar se
puede emplear para demostrar que el sistema de n vectores de Kn
(1, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, · · · , 0, 1)
es un sistema libre.

Ejemplo 2.4.8 En el R − e.v. R3 con su estructura de espacio vectorial ha-


bitual el sistema {(2, 1, 1), (1, 1, 0), (1, 0, 0)} es libre, puesto que si (α, β, γ) ∈
R3 es tal que α(2, 1, 1) + β(1, 1, 0) + γ(1,  0, 0) = (0, 0, 0), resulta que (2α +
 2α + β + γ = 0
β + γ, α + β, α) = (0, 0, 0), de donde α+β =0 y, en denitiva,

α=0
(α, β, γ) = (0, 0, 0).

Ejemplo 2.4.9 En el R − e.v. R2 con su estructura de espacio vectorial


habitual el sistema {(2, 1), (1, 0), (3, 2), (11, 7)} es ligado, pues
0(1, 0) + (−1)(2, 1) + (−3)(3, 2) + (11, 7) = (0, 0),
y sin embargo
(0, −1, −3, 1) 6= (0, 0, 0, 0).

Proposición 2.4.10 Si u1 , · · · , un es un sistema de vectores del K − e.v. E,


se verica que u1 , · · · , un es libre si y sólo si ∀v ∈ E
ÃÃ n n
! !
X X
v= α i ui ∧ v = βi ui ⇒ (α1 , · · · , αn ) = (β1 , · · · , βn ) .
i=1 i=1
108 Álgebra

Demostración  ⇒ Si (α1 , · · · , αn ), (β1 , · · · , βn ) ∈ Kn son tales que v =


P
n P
n P
n P
n P
n
α i ui ∧ v = βi ui , resulta que αi ui = βi ui , es decir, (αi −βi )ui =
i=1 i=1 i=1 i=1 i=1
0, y como por hipótesis u1 , · · · , un es libre, concluímos que (α1 −β1 , · · · , αn −
βn ) = (0, · · · , 0), es decir,

∀i ∈ {1, · · · , n} (αi − βi ) = 0,

y por consiguiente ∀i ∈ {1, · · · , n} αi = βi , o lo que es lo mismo,

(α1 , · · · , αn ) = (β1 , · · · , βn ).
P
n
 ⇐ Supongamos que αi ui = 0. Como también se verica que 0u1 +
i=1
· · · + 0un = 0, aplicando la hipótesis resulta que

(α1 , · · · , αn ) = (0, · · · , 0).

Ejercicio 2.4.1 En el anillo de polinomios Pn (C), vericar que el sistema


{1, x, x2 , · · · , xn } es libre. (Indicación: utilizar inducción sobre  n y la
continuidad de los polinomios.)

La siguiente proposición recoge una caracterización de los sistemas liga-


dos.

Proposición 2.4.11 Si u1 , · · · , un es un sistema de vectores del K − e.v. E,


se verica que u1 , · · · , un es ligado si y sólo si ∃i ∈ {1, · · · , n} tal que ui es
combinación lineal de u1 , · · · , ui−1 , ui+1 , · · · , un .

Demostración  ⇒ Si u1 , · · · , un es un sistema ligado tendremos que


P
n
∃(α1 , · · · , αn ) ∈ Kn − {(0, · · · , 0)} tal que αj uj = 0. Ahora bien, puesto
j=1
que (α1 , · · · , αn ) 6= (0, · · · , 0), existe i ∈ {1, · · · , n} tal que αi 6= 0, y puesto
que αi ∈ K, necesariamente αi tiene inverso αi−1 ∈ K, con lo que
à n !
X
αi−1 · αj uj = αi−1 · 0 = 0.
j=1
Álgebra 109

Pero à n !
X n
X ¡ ¢
αi−1 · αj uj = αi−1 αj uj ,
j=1 j=1
n ¡
P ¢
de donde αi−1 αj uj = 0, con lo que, teniendo en cuenta que αi−1 αi = 1,
j=1
resulta que
n
X ¡ ¢
ui = −αi−1 αj uj ,
j=1,j6=i

es decir, ui es combinación lineal de u1 , · · · , ui−1 , ui+1 , · · · , un .


 ⇐ Supongamos que
n
X
ui = αj uj .
j=1,j6=i

En ese caso, pasando ui al segundo miembro y tomando αi = −1, resulta que

(α1 , · · · , αn ) 6= (0, · · · , 0)
P
n
y αj uj = 0, con lo que u1 , · · · , un es un sistema ligado. 2
j=1

Ejemplo: Como consecuencia de la proposición anterior, dos vectores u


y v son linealmente dependientes si y solamente si uno de ellos se obtiene
multiplicando un escalar por el otro. Por consiguiente, en el caso particular
de R2 y R3 , dos vectores serán linealmente dependientes si y sólo si están
sobre la misma recta que pasa por 0.
Asimismo, si u, v y w son vectores de R3 , u, v y w son linealmente depen-
dientes (o lo que es lo mismo, el sistema {u, v, w} es ligado) si y sólo si al
menos uno de los vectores es una combinación lineal de los restantes. Pero
el subespacio vectorial generado por dos vectores cualesquiera de R3 es una
recta que pasa por el origen, un plano que pasa por el origen, o el propio
origen; en cualquier caso, si u, v y w son linealmente dependientes existe un
plano que, pasando por 0, contiene a los tres vectores. De manera general:

Proposición 2.4.12 Si E es un K − e.v. y n, r, m ∈ N, se verica que

1. (u ∈ E ∧ u 6= 0) ⇒ u es libre;
110 Álgebra

2. si u1 , · · · , un es libre y r ≤ n, entonces u1 , · · · , ur es libre;

3. si u1 , · · · , un es tal que ∃i ∈ {1, · · · , n} de manera que ui = 0, entonces


el sistema u1 , · · · , un es ligado;

4. si u1 , · · · , un es ligado entonces ∀v1 , · · · , vm ∈ E el sistema


{u1 , · · · , un , v1 , · · · , vm } es ligado.

Demostración 1. Si u ∈ E − {0} y αu = 0, necesariamente α = 0, con lo


que u es libre.
2. Supongamos que u1 , · · · , un ∈ En es libre, que r ≤ n y que (α1 , · · · , αr ) ∈
P
r
Kr es tal que αj uj = 0. En ese caso, deniendo ∀j ∈ {r + 1, · · · , n}
j=1
P
n
αj = 0, tendremos que αj uj = 0 y, puesto que u1 , · · · , un es libre,
j=1
(α1 , · · · , αn ) = (0, · · · , 0) y en particular (α1 , · · · , αr ) = (0, · · · , 0).
3. Si u1 , · · · , un ∈ En es tal que ui = 0, considerando la n-tupla (α1 , · · · , αn )
∈ Kn denida por la condición

αi = 1 ∧ ∀j ∈ {1, · · · , n}(j 6= i ⇒ αj = 0),

resulta que (α1 , · · · , αn ) 6= (0, · · · , 0) y

n
X
αj uj = 0u1 + · · · + 0ui−1 + 1 · 0 + 0ui+1 + · · · + 0un = 0.
j=1

4. Si u1 , · · · , un es ligado, ∃(α1 , · · · , αn ) 6= (0, · · · , 0) tal que


n
X
αj uj = 0.
j=1

Dado entonces el sistema v1 , · · · , vm de m vectores de E, deniendo ∀j ∈


Pn P
m
{1, · · · , m} βj = 0, tendremos que αj uj + βj vj = 0, y puesto que
j=1 j=1
(α1 , · · · , αn ) 6= (0, · · · , 0), resulta que

(α1 , · · · , αn , β1 , · · · , βm ) 6= (0, · · · , 0),


Álgebra 111

con lo que u1 , · · · , un , v1 , · · · , vm es ligado. 2

Las propiedades 2 y 4 de la proposición anterior podrían enunciarse de


manera poco rigurosa del siguiente modo: todo subsistema de un sistema
libre es libre y todo supersistema de un sistema ligado es ligado .

Proposición 2.4.13 Si u1 , · · · , un es un sistema de vectores del K − e.v. E


libre y v ∈ E no es combinación lineal de u1 , · · · , un , entonces el sistema
u1 , · · · , un , v es libre.

P
n
Demostración Supongamos que αj uj + βv = 0. En ese caso necesa-
j=1
riamente β = 0, puesto que si β 6= 0, tendríamos que
n
X ¡ ¢
v= −β −1 · αj uj
j=1

en contradicción con la hipótesis. Pero si β = 0, entonces


n
X
αj uj = 0,
j=1

y puesto que u1 , · · · , un es libre, resulta que

(α1 , · · · , αn ) = (0, · · · , 0),

con lo que, en denitiva,

(α1 , · · · , αn , β) = (0, · · · , 0, 0).

Corolario 2.4.14 Si u1 , · · · , un es un sistema de vectores del K − e.v. E y


v ∈ E son tales que u1 , · · · , un es libre y u1 , · · · , un , v es ligado, entonces v
es combinación lineal de u1 , · · · , un .
112 Álgebra

2.5 Bases y dimensión


2.5.1 Sistemas generadores y bases
Según vimos, si un vector se expresa como combinación lineal de un siste-
ma libre, la expresión del vector como combinación lineal de ese sistema es
única. Además, si un sistema libre es a la vez generador de un cierto subes-
pacio, entonces no hay un sistema generador de dicho subespacio que tenga
menos vectores que el sistema libre considerado. Las razones anteriores son
sucientes para estudiar los sistemas de vectores que son a la vez sistemas
generadores y libres. Una vez concluido el estudio de la sección, habremos re-
suelto un problema adicional: sabremos cuál es el número máximo de vectores
linealmente independientes que podemos encontrar en un espacio vectorial
dado. (Según sabemos, el número máximo de vectores linealmente indepen-
dientes que podemos encontrar en R2 es 2, y el número máximo de vectores
linealmente independientes que podemos encontrar en R3 es 3. Veremos por
ejemplo, que el número máximo de vectores linealmente independientes que
podemos encontrar en Rn es n).

Denición 2.5.1 Dados un K − e.v. E y H ≺ E, se dice que un sistema


u1 , · · · , un de vectores de H es una base de H si u1 , · · · , un es libre y ∀v ∈ H
se verica que v es combinación lineal de u1 , · · · , un .

En otras palabras, una base de un K − e.v. E es un sistema de vectores


de E que es simultáneamente libre y generador.
En particular, como E ≺ E, una base de E es un sistema de vectores de
E que es libre y tal que todo vector de E se expresa como combinación lineal
de dicho sistema.

Nota: Si u1 , · · · , un es una base de un K − e.v. E, es usual escribir


B =P {u1 , · · · , un } para denotarla. Todo vector v ∈ E se escribe en la forma
v = ni=1 ai ui , donde los coecientes (a1 , · · · , an ) ∈ Kn están unívocamente
determinados, por la proposición 2.4.10, pero dependen en el orden dado a
los vectores u1 , · · · , un . Un cambio en el orden de los vectores u1 , · · · , un da
por resultado un cambio correspondiente en el orden de los coecientes del
vector v. Esta situación justica la denición de base ordenada: una base
ordenada B = (u1 , · · · , un ) de un K − e.v. E es un sistema de vectores libre,
generador y ordenado.
Álgebra 113

Ejemplos
1. El sistema {(1, 0, · · · , 0), · · · , (0, · · · , 0, 1)} de vectores de Kn que he-
mos visto que es un sistema generador de Kn también es libre, puesto que si
(α1 , · · · , αn ) ∈ Kn es tal que

α1 (1, 0, · · · , 0) + · · · + αn (0, · · · , 0, 1) = (0, · · · , 0),

tendremos que (α1 , · · · , αn ) = (0, · · · , 0). Por consiguiente,

Bn = ((1, 0, · · · , 0), · · · , (0, · · · , 0, 1))

es una base ordenada de Kn . A esta base se la conoce con el nombre de base


canónica de Kn y se la denota como Bn . Como caso particular, resulta que
B1 = (1) es una base del K − e.v. K.
2. Como un subcaso del ejemplo anterior, resulta que ((1, 0), (0, 1)) es una
base ordenada de R2 (es la base canónica de R2 ). Por otra parte el sistema
{(2, 1), (−1, 1)} también es una base de R2 , puesto que
a) {(2, 1), (−1, 1)} es libre, ya que si α(2, 1) + β(−1, 1) = (0, 0), resulta
que (2α − β, α + β) = (0, 0), de donde, resolviendo el sistema
½
2α − β = 0
α+β =0

obtenemos que α = β = 0, es decir, (α, β) = (0, 0).


b) Todo vector de R2 se puede expresar como combinación lineal de
{(2, 1), (−1, 1)}, puesto que dado (x, y) ∈ R2 , poniendo

(x, y) = α(2, 1) + β(−1, 1),

resulta que
(x, y) = (2α − β, α + β),
es decir, ½
x = 2α − β
,
y =α+β
de donde x + y = 3α, i.e., α = 13 (x + y) y β = y − 13 (x + y) , es decir,
β = 32 y − 13 x; en otras palabras, el sistema de ecuaciones
½
x = 2α − β
y =α+β
114 Álgebra

tiene solución ∀(x, y) ∈ R2 y podemos escribir


µ ¶ µ ¶
1 1 2 1
(x, y) = x + y (2, 1) + y − x (−1, 1),
3 3 3 3
y en consecuencia {(2, 1), (−1, 1)} es un sistema generador de R2 .
3. Siendo Pn (C) el conjunto de polinomios con coecientes en C de grado
≤ n, se verica que 1, x, · · · , xn es una base de Pn (C) pues
a) {1, x, · · · , xn } es libre (compruébese) y
b) si f ∈ Pn (C), ∃(a0 , a1 , · · · , an ) ∈ Kn+1 tal que ∀x ∈ C
f = a0 +a1 x+· · ·+an xn , con lo que f es combinación lineal de {1, x, · · · , xn }.
4. En el K − e.v. de las matrices columna de n las, Mn×1 (K), siendo
∀i ∈ {1, · · · , n}
ei : {1, · · · , n} × {1} → ½ Mn×1 (K)
1 si j = i ,
(j, 1) ;
0 si j 6= i
es fácil comprobar que {e1 , · · · , en } una base de Mn×1 (K). A esta base
también la denominaremos base canónica de Mn×1 (K) y la denotaremos por
Bc . Es decir, utilizando la notación matricial usual,
     
1 0 0
 0   1   0 
     
Bc = {e1 , · · · , en } = { ..  ,  ..  , · · · ,  .. }.
 .   .   . 
0 0 1

Ejercicio 2.5.1 En el espacio vectorial de la matrices Mm×n (K),


∀i ∈ {1, · · · , m} y ∀j ∈ {1, · · · , n}, sea Eij la matriz que tiene un único
coeciente no nulo: Eij (i, j) = 1. Vericar que las mn matrices Eij forman
una base de Mm×n (K).
Denición 2.5.2 Si B = (u1 , · · · , un ) es una base ordenada del K − e.v. E
P
n
yv= αi ui , a la matriz
i=1
 
α1
 .. 
 .  ∈ Mn×1 (K)
αn
Álgebra 115

la denominaremos matriz de coordenadas del vector v respecto de la base B, o


simplemente coordenadas del vector v respecto de B, y la denotaremos
por (v)B .
Ejemplo 2.5.3 En el espacio vectorial R3 , siendo
B3 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)),
resulta que  
3
((3, −2, 1))B3 =  −2 
1
puesto que
(3, −2, 1) = 3(1, 0, 0) + (−2)(0, 1, 0) + 1(0, 0, 1).
Ejemplo 2.5.4 En el espacio vectorial P3 (C) de los polinomios de grado
≤ 3, siendo B = (1, x, x2 , x3 ), resulta que
 
−5
¡ 3 ¢  1 
2x + x − 5 B =  
 0 ,
2
puesto que 2x3 + x − 5 = (−5) · 1 + x + 0 · x2 + 2x3 .
Ejemplo 2.5.5 En el espacio vectorial R2 , siendo B2 = ((1, 0), (0, 1)) y B =
((2, 1), (−1, 1)), resulta que ∀(x, y) ∈ R2 ,
µ ¶
x
((x, y))B2 =
y
mientras que  
1
3
x + 13 y
((x, y))B =  .
2 1
3
y − 3
x
En particular, µ ¶
1
((1, 0))B2 =
0
mientras que µ ¶
1
((1, 0))B = 3 .
− 13
116 Álgebra

Denición 2.5.6 Se dice que un K − e.v. E es de dimensión nita si


∃n ∈ N, y ∃u1 , · · · , un sistema de vectores de E tal que {u1 , · · · , un } es una
base de E.

Ejemplo 2.5.7 ∀n ∈ N se verica que Kn es un K − e.v. nitamente gene-


rado, puesto que ∀(x1 , · · · , xn ) ∈ Kn

(x1 , · · · , xn ) = x1 (1, 0, · · · , 0) + · · · + xn (0, · · · , 0, 1),

con lo que el sistema de n elementos ((1, 0, · · · , 0), · · · , (0, · · · , 0, 1)) es un


sistema generador de Kn y, puesto que es libre, es una base de Kn .

Ejemplo 2.5.8 El C − e.v. de los polinomios C[x] no es de dimensión -


nita, puesto que, razonando por reducción al absurdo, si suponemos que
{p1 , · · · , pn } es una base de C[x], siendo

r = max{gr(pi ) |i ∈ {1, · · · , n} },

es obvio que el polinomio xr+1 ∈ C[x] no se puede expresar como combinación


lineal del sistema {p1 , · · · , pn }.

2.5.2 Equipotencia de bases


Observación 28 Si {u1 , · · · , un } es un sistema de vectores de un K − e.v.
E, y ∃i ∈ {1, · · · , n} tal que ui es combinación lineal del sistema

{u1 , · · · , ui−1 , ui+1 , · · · , un },

entonces cualquier vector que sea combinación lineal de {u1 , · · · , un } es tam-


bién combinación lineal de

{u1 , · · · , ui−1 , ui+1 , · · · , un },


P
n P
n
puesto que si ui = αj uj y v = βj uj , tendremos que
j=1,j6=i j=1
à n
!
X
v = β1 u1 + · · · + βi−1 ui−1 + βi α j uj + βi+1 ui+1 + · · · + βn un =
j=1,j6=i
n
X
= γ j uj ,
j=1,j6=i
Álgebra 117

donde ∀j ∈ {1, · · · , n} − {i}

γj = (βj + βi αj ) .

Proposición 2.5.9 Sean E un K − e.v., {u1 , · · · , un } una base de E y


{v1 , · · · , vm } un sistema de vectores de E con m > n. En estas condicio-
nes el sistema {v1 , · · · , vm } es ligado.

Demostración Supondremos que ∀i ∈ {1, · · · , m} vi 6= 0, puesto que en


caso contrario, automáticamente el sistema {v1 , · · · , vm } es ligado. Veamos
que aún siendo ∀i ∈ {1, · · · , m} vi 6= 0, el sistema (v1 , · · · , vm ) es ligado.
Puesto que {u1 , · · · , un } es una base de E, ∀j ∈ {1, · · · , m}
n
X
vj = aij ui .
i=1

Por consiguiente, suponiendo que


m
X
βj vj = 0.
j=1

tendremos que
m
X Xn
βj ( aij ui ) = 0.
j=1 i=1

es decir,
n
X Xm
( aij βj )ui = 0.
i=1 j =1

(en este punto es importante que el alumno utilice una notación no contra ida
del sumatorio para entender el paso anterior) con lo que, teniendo en cuenta
que {u1 , · · · , un } es una base de E, obtenemos que todos los coecientes de la
combinación lineal anterior deben ser iguales a cero, es decir, ∀i ∈ {1, · · · , n},
m
X
aij βj = 0.
j =1
118 Álgebra

y, puesto que el sistema de ecuaciones homogéneo




 a11 β1 + · · · + a1n βm = 0
..
 .
 a β + ··· + a β = 0
n1 1 nm m

tiene más incógnitas que ecuaciones (m > n), dicho sistema tiene soluciones
diferentes de la trivial, por lo que {v1 , · · · , vm } es ligado. 2

Observación 29 Cualquier sistema de 4 o más vectores de R3 es ligado.


Corolario 2.5.10 (Equipotencia de bases en un K−e.v. de dimensión nita)
Si E es un K − e.v. nitamente generado y
B = {u1 , · · · , un } y B 0 = {v1 , · · · , vm } (2.10)

son bases de E, se verica necesariamente que n = m.

Demostración Por la proposición anterior, como todo vector del sistema


{v1 , · · · , vm } es combinación lineal de {u1 , · · · , un } (puesto que {u1 , · · · , un }
es base de E) concluímos que m ≤ n (ya que en caso contrario {v1 , · · · , vm }
sería ligado, en contradicción con que sea base).
Por el mismo motivo, como {v1 , · · · , vm } todo vector del sistema {u1 , · · · , un }
es combinación lineal de {v1 , · · · , vm } concluímos que n ≤ m (ya que en caso
contrario {u1 , · · · , un } sería ligado, en contradicción con que sea base), y en
denitiva obtenemos que n = m. 2

Una vez demostrado que si E es un K − e.v. de dimensión nita todas


las bases de E tienen el mismo número de elementos, podemos establecer la
siguiente denición:

Denición 2.5.11 Si E es un K − e.v. de dimensión nita y


(u1 , · · · , un ) ∈ En
es una base de E, diremos que la dimensión de E es n y escribiremos
dim(E) = n.
Álgebra 119

Ejemplos:
1. Cómo 1 ∈ K es una base del K − e.v. K, resulta que
dim(K) = 1.

2. Teniendo en cuenta que la base canónica de Kn tiene  n elementos,


resulta que
dim(Kn ) = n.

3. Puesto que (1, x, · · · , xn ) ∈ (Pn (C))n+1 es una base de Pn (C), tendre-


mos que
dim(Pn (C)) = n + 1.
A esta base la denominaremos base usual de Pn (C).
Además del teorema de equipotencia de bases en un K − e.v. de dimen-
sión nita, de la proposición (2.5.9) también se pueden obtener de manera
inmediata los siguientes resultados.
Proposición 2.5.12 Si E es un K − e.v. y {u1 , · · · , un } es una base de E,
entonces se verica que:
1. ({v1 , · · · , vm } sistema de vectores de E ∧ (m > n)) ⇒ {v1 , · · · , vm } li-
gado;
2. {v1 , · · · , vn } sistema libre de vectores de E ⇒ {v1 , · · · , vn } base;
3. {v1 , · · · , vn } sistema generador de E ⇒ {v1 , · · · , vn } base.

Demostración 1. Evidente a partir de la proposición (2.5.9).


2. Evidente a partir de la proposición (2.4.13) y 1.
3. Si {v1 , · · · , vn } es un sistema generador de E y {v1 , · · · , vn } es li-
gado, entonces (aplicando la proposición (2.4.11) hasta reducir el sistema
{v1 , · · · , vn } a un sistema libre,) existirán r ∈ N, r ≤ n y una base B =
{w1 , · · · , wr } de E, tales que ∀i ∈ {1, · · · r} ∃j ∈ {1, · · · , n} de manera que
wi = vj . Pero puesto que {w1 , · · · , wr } es una base de E, r = n y pues-
to que {w1 , · · · , wn } es libre y la n − tupla {v1 , · · · , vn } no es más que una
reordenación de la n−tupla {w1 , · · · , wn }, resulta que {v1 , · · · , vn } es libre.2

Ejercicio 2.5.2 Vericar que el sistema {1, 1 + x, x2 } es una base de P2 (C).


120 Álgebra

2.6 Subespacios vectoriales y dimensión


Observación 30 Si E es un K−e.v. de dimensión nita y H ≺ E, entonces
H también es de dimensión nita y dim(H) ≤ dim(E), puesto que cualquier
sistema libre de vectores de H también es un sistema libre de vectores de E.
Nótese además que si H es un subespacio vectorial de E tal que dim(H) =
dim(E), se verica necesariamente que H = E, puesto que si (u1 , · · · , un ) ∈
H n es una base de H, entonces (u1 , · · · , un ) también es una base de E, puesto
que es un sistema libre de n vectores de E, y en consecuencia al poder expresar
todo vector de E como combinación lineal de (u1 , · · · , un ), todo vector de E
será también un vector de H, con lo que H = E.

Proposición 2.6.1 (Teorema de extensión de una base) Si E es un K − e.v.


nitamente generado con dim(E) = n, H ≺ E y (u1 , · · · , um ) ∈ H m es una
base de H con m < n entonces existe

(um+1 , · · · , un ) ∈ En−m

tal que (u1 , · · · , um , um+1 , · · · , un ) es una base de E.

Demostración Razonamos por inducción sobre n − m :


Base de inducción. Si n − m = 1, entonces m = n − 1 y (u1 , · · · , um ) =
(u1 , · · · , un−1 ). Ahora bien, como (u1 , · · · , un−1 ) es una base de H,
(u1 , · · · , un−1 ) es un sistema libre, y por otra parte, teniendo en cuenta que
dim(E) = n, resulta que (u1 , · · · , un−1 ) no es una base de E, y por consi-
guiente ∃v ∈ E tal que v no es combinación lineal de (u1 , · · · , un−1 ); pero,
en ese caso, tendremos que (u1 , · · · , un−1 , v) ∈ En es un sistema libre, con lo
que obtenemos que (u1 , · · · , un−1 , v) es una base de E.
Paso de inducción. Supongamos cierto el resultado para n − m = k,
y sea E un K − e.v. tal que dim(E) = n, H ≺ E y (u1 , · · · , um ) ∈ H m una
base de H tal que n − m = k + 1. En ese caso (u1 , · · · , um ) es un sistema
libre de E y, puesto que m < n, (u1 , · · · , um ) no es base de E, por lo que
∃v ∈ E tal que v no es combinación lineal de (u1 , · · · , um ). Por consiguien-
te (u1 , · · · , um , v) es libre. Pero en ese caso, si consideramos el subespacio
vectorial H 0 = L({ui |i ∈ {1, · · · , m}} ∪ {v}), resulta que todo vector de H 0
se expresa como combinación lineal de (u1 , · · · , um , v) y que además este
sistema es libre, con lo que (u1 , · · · , um , v) es una base de H 0 . Ahora bien,
dim(H 0 ) = m + 1, y por lo tanto, teniendo en cuenta que n − m = k + 1,
Álgebra 121

resulta que n − (m + 1) = k, con lo que aplicando la hipótesis de inducción,


∃(um+2 , · · · , un ) ∈ En−(m+1) tal que (u1 , · · · , um , v, um+2 , · · · , un ) es una ba-
se de E; es decir, la demostración está completa. 2

Observación 31 Nótese que el resultado anterior tiene como consecuencia


que si (u1 , · · · , um ) es un sistema libre de vectores de E y
dim(E) = n > m,
entonces ∃(um+1 , · · · , un ) ∈ En−m tal que
(u1 , · · · , um , um+1 , · · · , un )
es una base de E, puesto que si es libre, (u1 , · · · , um ) es un sistema generador
del subespacio vectorial
H = L({ui |i ∈ {1, · · · , m}}).

Nota. Dados un K − e.v. E, y H ≺ E, si dim(H) = 1 se dice que H


es una recta de E, si dim(H) = 2, se dice que H es un plano de E, y si
dim(E) = n y dim(H) = n − 1, se dice que H es un hiperplano de E.
Así por ejemplo, en el C − e.v. P4 (C) = {f ∈ C[x] |gr(f ) ≤ 4}, podemos
armar que
L((1)) = {f ∈ P4 (C) |∃α ∈ C..∀z ∈ C f (z) = (α · 1) (z) = α }
es una recta de P4 (C), que L((x, x2 )), es decir, el conjunto
¯ ¡ ¢
{f ∈ P4 (C) ¯∃(α, β) ∈ C2 ..∀z ∈ C f (z) = αx + βx2 (z) = αz + βz 2 }
es un plano de P4 (C) y que L((1, x, x2 , x3 )) es un hiperplano de P4 (C).

Observación 32 Puesto que dim(R3 ) = 3, si H ≺ R3 , H 6= R3 , resulta


que dim(H) = 0, 1 ó 2. Si dim(H) = 0, H = {(0, 0, 0)}. Si dim(H) = 1,
y u = (x, y, z) ∈ H, u 6= (0, 0, 0), tendremos que H = L({u}) = {v ∈
R3 |∃α ∈ R tal que v = αu }, y es fácil ver que la representación gráca de
H es la recta que pasa por el punto (0, 0, 0) (puesto que 0 = (0, 0, 0) ∈ H al
ser H ≺ R3 ) y el punto (x, y, z). Finalmente, si dim(H) = 2, y (u, v) es una
base de H, resulta que H = {w ∈ R3 |∃(α, β) ∈ R2 tal que w = αu + βv } y
es fácil ver que la representación gráca de H es el plano de R3 que pasa por
(0, 0, 0) y por u y v.
122 Álgebra

2.7 Rango de un sistema de vectores y de una


matriz
Denición 2.7.1 Sean E un K-e.v. y {u1 , · · · , um } un sistema de vecto-
res E. Se denomina rango del sistema {u1 , · · · , um } a la dimensión del
subespacio vectorial L(u1 , · · · , um ). Para indicar que el rango del sistema
{u1 , · · · , um } es r escribiremos

rg(u1 , · · · , um ) = r.

Ejemplo 2.7.2 En el espacio vectorial R3 , rg((1, 0, 0), (0, 1, 0), (0, 0, 1)) = 3.
Por otra parte, rg((1, 0, 0), (0, 1, 0)) = 2, puesto que al ser {(1, 0, 0), (0, 1, 0)}
un sistema libre, constituyen una base del subespacio vectorial que generan.

Ejemplo 2.7.3 En el espacio vectorial P2 (C), rg(1, x2 , 1 + x2 ) = 2.

A tenor de los resultados vistos hasta ahora, resulta evidente que

rg(u1 , · · · , um , v) = rg(u1 , · · · , um ) ⇔ v ∈ L(u1 , · · · , um ).

Denición 2.7.4 Sea A ∈ Mm×n (K). Si {A1 , · · · , An } es el sistema de vec-


tores de Mm×1 (K) formado por las columnas de A, se denomina rango de A
al rango de dicho sistema de vectores, es decir,

rg(A) = rg(A1 , · · · , An ).
 
1 1 1
Ejemplo 2.7.5 Dada la matriz A =  1 1 0  ∈ M3 (R), se verica que
1 0 0
   
1 1 1

rg(A) = rg( 1   1   0 ).
1 0 0

Ahora bien, si
       
1 1 1 0

α 1  +β  1  +γ  0  =  0 ,
1 0 0 0
Álgebra 123

tendremos que 
 α+β+γ =0
α+β =0

α=0
de donde α = 0 = β = γ, es decir, el sistema es libre, de donde
   
1 1 1
rg( 1   1   0 ) = 3
1 0 0

y, en consecuencia, rg(A) = 3.

Denición 2.7.6 Si A ∈ Mm×n (K), al subespacio de Mm×1 (K) generado por


las columnas de A, L(A1 , · · · , An ), se le denomina espacio columna de A.

Tras el estudio de la siguiente sección, veremos un método sistemático y


sencillo para determinar el rango de un sistema de vectores, que obviamente
servirá también para determinar el rango de una matriz.

2.8 El teorema de Rouché-Fröbenius


Es importante observar que dado un sistema de m ecuaciones lineales con n
incógnitas y con coecientes en K de la forma


 a11 x1 + · · · + a1n xn = b1 ,
..
 .
 a x + ··· + a x = b ,
m1 1 mn n m

determinar el conjunto solución de dicho sistema (i.e., resolver dicho sistema


cuando es compatible) signica determinar si existen x1 , · · · , xn de manera
que se satisfaga la siguiente expresión:
     
a11 a1n b1
     
x1 ·  ...  + · · · + xn ·  ...  =  ...  ,
am1 amn bm

que, de forma reducida, expresaremos:

x1 A1 + · · · + xn An = b,
124 Álgebra

donde
  
a1j b1
   
∀j ∈ {1, · · · , n} Aj = ·  ...  ∧ b =  ...  .
amj bm

(Nótese que la expresión anterior es una 


ecuación
 lineal de Mm×1 (K)).
b1
 .. 
Es decir, el sistema será compatible si  .  ∈ Mm×1 (K) se puede
bm
expresar como combinación lineal de los vectores columna de Mm×1 (K)
   
a11 a1n
 ..   . 
 .  , · · · ,  ..  .
am1 amn

Los resultados vistos sobre dependencia e independencia lineal aplicados


a este caso concreto nos llevan al siguiente resultado:

Proposición 2.8.1 Dado el sistema de ecuaciones lineales




 a11 x1 + · · · + a1n xn = b1 ,
..
 .
 a x + ··· + a x = b ,
m1 1 mn n m

o, lo que es lo mismo,
AX = b
con A ∈ Mm×n (K) y b ∈ Mm×1 (K) y siendo S el conjunto formado por las
soluciones del mismo, las siguientes armaciones son equivalentes:

1. El sistema de ecuaciones es compatible (es decir, S 6= ∅);

2. b ∈ L(A1 , · · · , An );

3. L(A1 , · · · , An ) = L(A1 , · · · , An , b).

4. rg(A) = rg(A |b) , donde (A |b) es la matriz ampliada asociada al sis-


tema de ecuaciones considerado.
Álgebra 125

Por otra parte, teniendo en cuenta que si un vector se escribe como com-
binación lineal de un sistema libre, dicha expresión es única, resulta que:

Proposición 2.8.2 Si el sistema de ecuaciones lineales


AX = b

con A ∈ Mn (K) y b ∈ Mn×1 (K) es compatible, son equivalentes las arma-


ciones siguientes:

1. El sistema es compatible determinado.

2. (A1 , · · · , An ) es un sistema libre de Mn×1 (K).

3. (A1 , · · · , An ) es una base de Mn×1 (K).

4. rg(A1 , · · · , An ) = n.

5. rg(A) = rg(A |b) = n.

Al resultado sobre la existencia y unicidad de soluciones de un sistema de


ecuaciones lineales que aparece desglosado en las dos últimas proposiciones
se le conoce con el nombre de Teorema de Rouché-Fröbenius.
Así por ejemplo, el sistema de ecuaciones con coecientes en R
½
x + y = 2,
2x + 2y = 4,

da lugar a la siguiente combinación lineal de M2×1 (R)


µ ¶ µ ¶ µ ¶
1 1 2
x· +y· = .
2 2 4

Así pues el sistema es compatible, puesto que


µ ¶ µ ¶ µ ¶
2 1 1
∈ L( , )
4 2 2

e indeterminado, ya que
µ ¶ µ ¶
1 1
( , ) ∈ (M2×1 (R))2
2 2
126 Álgebra

es un sistema ligado.
Nota importante. Obsérvese que si E es un K − e.v. de dimensión n y
B es una base ordenada de E, siendo v1 , · · · , vm , u ∈ E, resulta que, al estar
caracterizado un vector por sus coordenadas respecto de una base ordenada,
m
X m
X
α i vi = u ⇔ αi (vi )B = (u)B .
i=1 i=1

La expresión situada a la derecha del símbolo  ⇔ es una ecuación lineal de


Mn×1 (K), de modo que puede ser considerada como un sistema de ecuaciones
lineales. Así pues, determinar si un vector u ∈ E depende linealmente o no de
un sistema de vectores dado v1 , · · · , vm y hallar, en su caso, α1 , · · · , αm ∈ K
tales que
Xm
αi vi = u,
i=1

consistirá en jar una base B del espacio vectorial E para estudiar (y, en su
caso, resolver) la ecuación lineal de Mn×1 (K)
m
X
αi (vi )B = (u)B
i=1

o, si se preere, el sistema de ecuaciones lineales equivalente.


Ejemplos.
1. En el espacio vectorial P2 (C) de los polinomios de grado ≤ 2, para
determinar si el vector 3 − 2x + x2 pertenece o no al subespacio vectorial
L(−x2 + x, x − 3), debemos estudiar si existen α, β ∈ C tales que

α(−x2 + x) + β(x − 3) = 3 − 2x + x2 ;

siendo B = (1, x, x2 ), el problema anterior es equivalente a

α(−x2 + x)B + β(x − 3)B = (3 − 2x + x2 )B ;

es decir,      
0 −3 3
α  1  + β  1  =  −2  ,
−1 0 1
Álgebra 127

o, lo que es lo mismo, a resolver el sistema de ecuaciones:



 −3β = 3,
α + β = −2,

−α = 1,
que tiene como solución α = β = −1.
2. Resolver el sistema de ecuaciones lineales
½
x−y =2
3x + y = 0,
µ ¶
2
es equivalente a ver si es posible expresar el vector como combinación
µ ¶ µ ¶ 0
1 −1
lineal de los vectores y de la forma:
3 1
µ ¶ µ ¶ µ ¶
1 −1 2
x +y = .
3 1 0
Este
µ sistema
¶ µ de¶ecuaciones es compatible determinado, puesto que el sistema
1 −1
( , ) es un sistema libre de M2×1 (R) y, puesto que la dimensión
3 1 µ ¶
2
de M2×1 (R) es 2, constituye una base y cualquier vector (en particular )
0
se puede expresar como combinación lineal suya.
Teorema 2.8.3 Dado el sistema de ecuaciones lineales


 a11 x1 + · · · + a1n xn = b1 ,
..
 .
 a x + ··· + a x = b ,
m1 1 mn n m

o, lo que es lo mismo,
AX = b
con A ∈ Mm×n (K) y b ∈ Mm×1 (K) y siendo S el conjunto formado por las
soluciones del mismo, se verica que:
1. El conjunto SH solución de la ecuación homogénea
x1 A1 + · · · + xn An = (0),
es un subespacio vectorial de Kn .
128 Álgebra

2. Si la ecuación lineal (o, si se preere, el sistema de ecuaciones lineales)


x1 A1 + · · · + xn An = b,
es compatible, S es su conjunto solución, y (α1 , · · · , αn ) ∈ S, entonces
∀(β1 , · · · , βn ) ∈ Kn
((β1 , · · · , βn ) ∈ S ⇔ ((β1 , · · · , βn ) − (α1 , · · · , αn )) ∈ SH )

Demostración Ejercicio. 2

Observación 33 Como consecuencia del teorema anterior, el conjunto solu-


ción de un sistema de ecuaciones lineales se obtiene sumando a una solución
cualquiera de dicho sistema todas las soluciones del sistema homogéneo aso-
ciado. Es decir, si (α1 , · · · , αn ) es una solución cualquiera del sistema de
ecuaciones lineales,
x1 A1 + · · · + xn An = b,
siendo S su conjunto solución y SH el conjunto solución del sistema homo-
géneo asociado, se verica que:
½ ¯ ¾
¯
n¯ ∃(β1 , · · · , βn ) ∈ SH ..
S = (γ1 , · · · , γn ) ∈ K ¯
(γ1 , · · · , γn ) = (α1 , · · · , αn ) + (β1 , · · · , βn )
Es usual recalcar esta circunstancia escribiendo
S = (α1 , · · · , αn ) + SH .
Por otra parte, si (α1 , · · · , αn ) es una solución cualquiera de la ecuación
lineal
x1 A1 + · · · + xn An = b,
y (β1 , · · · , βn ) es una solución de la ecuación lineal
x1 A1 + · · · + xn An = c,
resulta que (α1 + β1 , · · · , αn + βn ) es solución de la ecuación lineal
x1 A1 + · · · + xn An = b + c.
Este hecho se conoce con el nombre de principio de superposición de
soluciones.
Álgebra 129

Denición 2.8.4 Dado el sistema de ecuaciones lineales,


x1 A1 + · · · + xn An = b,

con A ∈ Mm×n (K) y b ∈ Mm×1 (K), denominaremos sistema fundamental


de soluciones de dicho sistema a cualquier base del espacio vectorial SH de
soluciones de su ecuación homogénea asociada.

Observación 34 Nótese que si (w1 , · · · , wr ) es un sistema fundamental de


soluciones del sistema de ecuaciones lineales

x1 A1 + · · · + xn An = b,

siendo S su conjunto solución y s ∈ S una solución particular de dicha


ecuación, se verica que

u ∈ S ⇔ ∃λ1 , · · · , λr ∈ K tal que u = s + λ1 w1 + · · · + λr wr .

Ejemplo: Dado el sistema de ecuaciones lineales


½
x + y + z = 2,
2x + 2y + 2z = 4,

la ecuación lineal de M2×1 (R) correspondiente es


µ ¶ µ ¶ µ ¶ µ ¶
1 1 1 2
x +y +z = .
2 2 2 4
µ ¶ µ ¶ µ ¶
1 1 1
El sistema es compatible e indeterminado de hecho ( , , )
µ ¶ µ ¶ µ ¶ µ 2¶ 2µ ¶ 2
2 1 1 1 1
es un sistema ligado y ∈ L( , , ) = L( ).
4 2 2 2 2
El conjunto solución se puede expresar mediante la suma de una solución
particular del sistema a todas las del homogéneo. Resolviendo el sistema
homogéneo asociado por el método de Gauss-Jordan tenemos que la solución
es 
 x = −s − t,
y = s,

z = t,
130 Álgebra

es decir,      
x −1 −1
 y  = s 1  + t 0 
z 0 1
o, si se preere,
(x, y, z) = s(−1, 1, 0) + t(−1, 0, 1).
Los vectores (1, 0, −1) y (1, −1, 0) constituyen una base de SH . Por consi-
guiente
((1, 0, −1), (1, −1, 0))
es un sistema fundamental de soluciones del sistema dado. Como (0, 0, 2) es
una solución particular de dicha ecuación, resulta que:

¯
¯ ∃α, β ∈ R .. (x, y, z) =
S = {(x, y, z) ∈ R ¯¯ 3
}.
= (0, 0, 2) + α(−1, 1, 0) + β(−1, 0, 1)

2.9 Método de Gauss y rango


En esta sección vamos a ver un método sistemático que servirá para deter-
minar el rango de una matriz y de un sistema de vectores.

2.9.1 Transformaciones elementales por columnas y ma-


trices elementales
Al estudiar un método para hallar la inversa de una matriz, vimos en el
capítulo 1 que las transformaciones elementales por las son invertibles, y que
la inversa de una transformación elemental es una transformación elemental,
según el cuadro

TRANSFORMACIÓN TRANSFORMACIÓN INVERSA


Fi = Fi + λFj Fi = Fi − λFj
1
Fi = λFi (λ 6= 0) Fi = Fi
λ
Fi ↔ Fj Fi ↔ Fj
Álgebra 131

Por el mismo motivo, las correspondientes transformaciones elementales por


columnas son invertibles, y la tabla correspondiente será la siguiente:

TRANSFORMACIÓN TRANSFORMACIÓN INVERSA


Ci = Ci + λCj Ci = Ci − λCj
1
Ci = λCi (λ 6= 0) Ci = Ci
λ
Ci ↔ Cj Ci ↔ Cj

Denotamos por S ij (λ) a la matriz elemental asociada a la transformación


Ci = Ci + λCj , por P i (λ) a la matriz elemental asociada a la transformación
Ci = λCi (λ 6= 0) y por E ij a la matriz elemental asociada a la transformación
Ci ↔ Cj .
No es difícil vericar (y lo comprobaremos también al realizar la práctica 2
en el aula informática) que valen las siguientes identidades:

S ij (λ) = Sji (λ)

P i (λ) = Pi (λ)
E ij = Eij
Además vale el siguiente teorema:

Teorema 2.9.1 Si A ∈ Mm×n (K) y E es la matriz elemental de orden n


que se obtiene al realizar la transformación elemental t sobre las columnas
de In , según el esquema
t
In −→ E,

entonces si A0 es la matriz resultante de realizar la transformación t sobre


las columnas de A según el esquema

t
A −→ A0 ,

resulta que
A0 = A · E
132 Álgebra

Es decir, en este caso hay que multiplicar por la matriz elemental corres-
pondiente pero por la derecha en lugar de por la izquierda.

Ejercicio 2.9.1 Verifíquese el resultado anterior para t ≡ C2 = C2 + 3C1


sobre la matriz  
1 0 2
A =  3 1 1 ,
0 1 4
es decir, comprobar que si A0 es la matriz resultante de hacer actuar t sobre
A, entonces
A0 = A · S 21 (3) = A · S12 (3).

2.9.2 Método de Gauss para calcular el rango de una


matriz
Buscamos un método que nos permita determinar de un modo sencillo el
rango de una matriz A ∈ Mm×n (K). Para ello, vamos a comprobar en pri-
mer lugar que al realizar transformaciones elementales sobre las columnas
de una matriz A no se altera su rango. El siguiente lema se aplicará en la
demostración del teorema principal:

Lema 2.9.2 Si E es un K − e.v. y (u1 , · · · , un ) y (v1 , · · · , vm ) son sistemas


de vectores de E, se verica que

 u1 , · · · , un ∈ L(v1 , · · · , vm )
L(u1 , · · · , un ) = L(v1 , · · · , vm ) ⇔ ∧

v1 , · · · , vm ∈ L(u1 , · · · , un )

Demostración Se deja como ejercicio. 2

Teorema 2.9.3 Si A ∈ Mm×n (K), y B ∈ Mm×n (K) es la matriz resultado


de realizar una transformación elemental por columnas t sobre A, se verica
que
rg(A) = rg(B)
Álgebra 133

Demostración Para demostrar el resultado, comprobaremos que si


t
A −→ B,

entonces L(A1 , · · · , An ) = L(B 1 , · · · , B n ), con lo que rg(A) = rg(B). Dis-


tingamos tres posibilidades:
a) t ≡ Ci = Ci + λCj . En ese caso todos los vectores columna de A y
B coinciden, salvo el i − ésimo; pero B i = Ai + λAj y Ai = B i − λAj =
B i − λB j , con lo que, teniendo en cuenta el lema anterior, concluimos que
L(A1 , · · · , An ) = L(B 1 , · · · , B n ).
b) t ≡ Ci = λCi (λ 6= 0). En ese caso todos los vectores columna de A
y B coinciden, salvo el i − ésimo; pero B i = λAi y Ai = (λ−1 )B i , con lo
que, teniendo en cuenta el lema anterior, concluimos que L(A1 , · · · , An ) =
L(B 1 , · · · , B n ).
c) Finalmente si t ≡ Ci ↔ Cj , es obvio que L(A1 , · · · , An ) = L(B 1 , · · · , B n ).
2

Es obvio, a partir de la proposición anterior, que si en lugar de realizar una


transformación elemental, realizamos un número nito de ellas t1 , · · · , tr el
rango se conserva. Es decir, si
t1 tr
A −→, · · · , −→ B,

necesariamente rg(A) = rg(B).


Vamos a considerar ahora un tipo de matrices cuyo rango se calcula de
un modo sencillo:

Denición 2.9.4 Se dice A ∈ Mm×n (K) es una matriz gaussiana si ∀j ∈


{1, · · · , n} la columna Aj de A verica una de las dos siguientes condiciones:

G.1 Aj = (0) ∈ Mm×1 (K),


G.2 ∃i ∈ {1, · · · , m} tal que
Aj (i, 1) = A(i, j) 6= 0 ∧ (∀k ∈ {j + 1, · · · , n} A(i, k) = 0) .
134 Álgebra

Ejemplo
 2.9.5Las
 siguientes
 matrices son gaussianas
3 0 1 0 1  
0 1 1 2  
 1 0 1   1 0  µ ¶ 1 0 0
    0 1  0 1 0 
0  
 2 0 1 , 0 1 , , , 0 1 0 .
    1 0  0 1 1 0 
 0 0 1   0 1  0 0 1
0 1 0 0
1 0 0 0 0
Sin embargo la matriz  
2 0 1
 1 0 1 
 
 2 0 1 
 
 0 0 1 
0 0 0
no es gaussiana, pues el primer vector columna no satisface ni la condición
G.1 ni la condición G.2.

Proposición 2.9.6 Si A ∈ Mm×n (K) es una matriz gaussiana, entonces el


rango de A coincide con el número de vectores columna no nulos de A. En
particular, los vectores columna no nulos de la matriz gaussiana A constitu-
yen una base del espacio columna de dicha matriz,

L(A1 , · · · , An ).

Demostración Sea
¯
I = {i ∈ {1, · · · , n} ¯Ai 6= (0) },

y supongamos que el número de elementos de I es k.


Por el teorema 2.9.3 podemos aplicar transformaciones elementales por
columna y suponer que la columnas nulas de A sean las últimas. Entonces

I = {1, · · · , k} k ≤ n.

Consideremos el sistema

(A1 , · · · , Ak ).

Si demostramos que el sistema (A1 , · · · , Ak ) es libre, habremos concluido


la demostración, pues

∀i ∈ {k + 1, · · · , n}, Ai = (0).
Álgebra 135

Razonamos por reducción al absurdo. Supongamos que


∃(α1 , · · · , αk ) ∈ Kk , (α1 , · · · , αk ) 6= (0, · · · , 0),

tal que
α1 A1 + · · · + αk Ak = (0).
En ese caso, siendo
t = min{i ∈ I |αi 6= 0 },
resulta que At 6= (0) y, como A es una matriz gaussiana, existirá

h ∈ {1, · · · , m} tal que A(h, t) = γ 6= 0

y tal que ∀s ∈ {t + 1, · · · , n}

A(h, s) = 0,

o lo que es lo mismo,
At (h, 1) = γ
y ∀s ∈ {t + 1, · · · , n},
As (h, 1) = 0.
Pero en ese caso tendremos que
¡ ¢
0 = (0)(h, 1) = αt At + · · · + αk Ak (h, 1) =
= αt At (h, 1) + · · · + αk Ak (h, 1) = αt γ,

de donde αt = 0, lo que contradice que t = min{i ∈ I |αi 6= 0 }. 2

A partir de la proposición anterior, está claro en qué consiste el método


de Gauss para determinar el rango de una matriz: se trata de realizar
transformaciones elementales por columna sobre dicha matriz hasta obtener
una matriz gaussiana, cuyo rango se determina de manera inmediata. Esto es
siempre posible aplicando la siguiente estrategia sobre la matriz considerada
A de n columnas:
1. Consideramos la primera columna de A : j = 1.
2. Si Aj = (0) ir al paso 4.
3. Si Aj 6= (0) seleccionar un coeciente no nulo de dicha columna y
hacer ceros (utilizando transformaciones elementales por columnas) todos
los coecientes situados en su misma la a su derecha.
136 Álgebra

4. Hacemos j = j + 1.
5. Si j = n. FIN.
6. Si j < n ir al paso 2.
La nueva matriz obtenida tras el proceso anterior es una matriz gaussiana.
Ejercicio 2.9.2 Determinar el rango de las siguientes matrices:
   
1 2 1 1 1 1 2  
µ ¶ 1 2 1
 1 1 
1  −1 3  0 1 0 
1  
 , , , 0 1 1 
 2 0 1  2 5  1 −1 1 1 
2 0 2
0 1 1 2 1 0 1
.

Observación 35 Si el problema que se intenta resolver consiste en deter-


minar el rango de un sistema de vectores {v1 , · · · , vm } de un K − e.v. E de
dimensión nita, jada una base ordenada B de E, consideraremos la matriz
C ∈ Mn×m (K) tal que ∀i ∈ {1, · · · , m}
C i = (vi )B
y realizaremos transformaciones elementales por columnas sobre C hasta ob-
tener una matriz gaussiana.
Ejemplo 2.9.7 En el R − e.v. R3 con su estructura de espacio vectorial
habitual, para determinar el rango del sistema
{(2, 1, 1), (1, 1, 0), (1, 0, 0)},
consideramos la matriz cuyas columnas son las coordenadas de los vectores
del sistema anterior respecto de la base canónica B3 de R3
 
2 1 1
C= 1 1 0 
1 0 0
y observamos que es una matriz gaussiana, por lo que rg(C) = 3, i.e.,

rg((2, 1, 1), (1, 1, 0), (1, 0, 0)) = rg((2, 1, 1)B3 , (1, 1, 0)B3 , (1, 0, 0)B3 ) =
= rg(C) = 3
es decir {(2, 1, 1), (1, 1, 0), (1, 0, 0)} es libre, y puesto que dim(R3 ) = 3, resulta
que es una base de R3 .
Álgebra 137

Ejemplo 2.9.8 Para hallar el rango del sistema de vectores


{1 + x − 2x2 , 2 − 2x3 , x − 2x2 + x3 }
del C−e.v. P3 (C) consideramos la base B = (1, x, x2 , x3 ), y la matriz A cuyas
columnas son las coordenadas de los vectores del sistemas dado respecto de
B, es decir,  
1 2 0
 1 0 1 
A=  −2 0 −2  .

0 −2 1
El rango del sistema de vectores es el rango de A.
   
1 2 0 1 2 −1 1
 1 0 1  c3 = c3 − c1  1 0 0  c3 = c3 − 2 c2
  −→   −→
 −2 0 −2   −2 0 0 
0 −2 1 0 −2 1
 
1 2 0
 1 0 0 
 
 −2 0 0 
0 −2 0
con lo que
rg(1 + x − 2x2 , 2 − 2x3 , x − 2x2 + x3 ) = rg(A) = 2.
Además hemos obtenido que
       
1 2 0 1 2 0
 1  0  1        
L(   ) = L( 1   0   0 ) =
 −2   0   −2   −2   0   0 
0 −2 1 0 −2 0
  
1 2
 1  0 
= L( 
 −2   0 )

0 −2
con lo que los vectores cuyas coordenadas corresponden a estas dos últimas
matrices columna son linealmente independientes y constituyen una base del
subespacio considerado, es decir, (1 + x − 2x2 , 2 − 2x3 ) es una base de
L(1 + x − 2x2 , 2 − 2x3 , x − 2x2 + x3 ).
138 Álgebra

Una vez obtenido un método sistemático para determinar el rango de


un sistema de vectores, podemos aplicar dicho método de forma análoga al
ejemplo anterior para:
• determinar si un vector u pertenece o no a la variedad lineal generada
por un sistema dado de vectores (v1 , · · · , vm ), estudiando si
rg(v1 , · · · , vm , u) = rg(v1 , · · · , vm ),

• obtener una base de un subespacio vectorial a partir de un sistema


generador del mismo.

2.9.3 Algoritmo de extensión de una base


Sea H un subespacio de dimensión k de un espacio vectorial E de dimensión
nita n. Dada una base BH = {u1 , · · · , uk } de H, queremos determinar un
algoritmo para extender la base BH hasta obtener una base BE del
espacio vectorial E, en el que H está sumergido.
Sea B una base pre-jada del espacio total E. Es suciente con considerar
la matriz U cuyas columnas son las coordenadas de los vectores {u1 , · · · , uk }
(que constituyen la base BH del subespacio vectorial H ) respecto de la base
B , añadir a esa matriz los vectores columna de la matriz identidad de orden
la dimensión del espacio total E (el rango de la nueva matriz (U |In ) es n)
y aplicar el método de Gauss por columnas sin intercambiar el orden de
las columnas. Las n columnas no nulas de la matriz gaussiana G obtenida
son las coordenadas, respecto de la base B, de los n vectores de una base
del espacio total E (rango(G) = rango(U |In )). Ahora, las columnas de la
matriz original (U |In ) correspondientes a las columnas no nulas de G dan las
coordenadas, respecto de la base B, de n vectores que son una extensión de
la base BH .
Ejemplo 2.9.9 Sean E = R4 y B = B4 la base canónica de R4 . Sea H =
L(u1 , u2 ), donde, respecto de la base canónica, u1 = (1, −1, 2, 0) y u2 =
(1, 1, 1, 1).
El sistema libre BH = {u1 , u2 } es una base de H. Aplicando el método de
Gauss
 a la matriz (U |I4 ) se
 obtiene:  
1 1 1 0 0 0 1 0 0 0 0 0
 −1 1 0 1 0 0  c2 = c2 − c1  −1 2 1 1 0 0 
   
 2 1 0 0 1 0  c3 = c3 − c1  2 −1 −2 0 1 0 

0 1 0 0 0 1 0 1 0 0 0 1
Álgebra 139
 
1 0 0 0 0 0
c4 = c4 − c3
c6 = c6 − c2 
 −1 2 1 1 0 −2   c6 = c6 + 2c3
→  2 −1 −2 0 1 1 

0 1 0 0 0 0
   
1 0 0 0 0 0 1 0 0 0 0 0
 −1 2 c5 = c5 − 12 c4 
 1 0 0 0  −1 2 1 0 0 0 
 2 −1 −2 c6 = c6 + 32 c4  .
2 1 −3   2 −1 −2 2 0 0 

0 1 0 0 0 0 0 1 0 0 0 0

Entonces los vectores de coordenadas canónicas


{(1, −1, 2, 0), (1, 1, 1, 1), (1, 0, 0, 0), (0, 1, 0, 0)} forman una extensión de BH
a una base de R4 .

2.9.4 Rango y espacio la de una matriz


Denición 2.9.10 Si A ∈ Mm×n (K) al subespacio de M1×n (K) generado
por las las de A, L(A1 , · · · , Am ), se le denomina espacio la de A.

Vamos a demostrar que la dimensión del espacio la de una matriz coin-
cide con la dimensión de su espacio columna:

Teorema 2.9.11 Si A ∈ Mm×n (K) entonces


rg(A) = dim(L(A1 , · · · , Am )) = dim(L(A1 , · · · , An )).

Demostración Dada A ∈ Mm×n (K), supongamos que (b1 , · · · , bk ) es una


base de L(A1 , · · · , Am ), donde ∀i ∈ {1, · · · , k} bi = (bi1 , · · · , bin ). En ese
caso
A1 = c11 b1 + · · · + c1k bk
..
.
Am = cm1 b1 + · · · + cmk bk .
Ahora bien, esta últimas son igualdades entre vectores de M1×n (K), por lo
que los coecientes correspondientes de las matrices la situadas a ambos
lados de la igualdad deberán coincidir, es decir, ∀j ∈ {1, · · · , n}

a1j = c11 b1j + · · · + c1k bkj


..
.
amj = cm1 b1j + · · · + cmk bkj .
140 Álgebra

Las igualdades anteriores se pueden expresar matricialmente ∀j ∈ {1, · · · , n}


del siguiente modo:
     
a1j c11 c1k
 ..   .   . 
 .  = b1j  ..  + · · · + bkj  .. 
amj cm1 cmk
Pero de estas igualdades se sigue que
   
c11 c1k
   
A1 , · · · , An ∈ L( ...  , · · · ,  ... )
cm1 cmk
con lo que
dim(L(A1 , · · · , An )) ≤ k.
Pero k = dim(L(A1 , · · · , Am )), con lo que hemos probado que
dim(L(A1 , · · · , An )) ≤ dim(L(A1 , · · · , Am )).
Por otra parte, teniendo en cuenta que la matriz considerada A era una
matriz arbitraria, podemos aplicar el razonamiento anterior a la matriz t A
obteniendo:
dim(espacio columna de t A) ≤ dim(espacio la de t A),
pero esta desigualdad es equivalente a la siguiente:
dim(espacio la de A) ≤ dim(espacio columna de A),
con lo que, en denitiva, obtenemos que
dim(L(A1 , · · · , Am )) = dim(L(A1 , · · · , An )).
2

Observación 36 De forma análoga a como se ha visto con las columnas,


se puede demostrar que las operaciones elementales por las no cambian el
rango de una matriz. Como consecuencia del teorema anterior, el rango
de una matriz se puede obtener también operando por las en lugar de por
columnas. De hecho, no es difícil convencerse de que los vectores la distintos
de cero de una matriz en forma escalonada constituyen una base del espacio
la de A, por lo que el método de eliminación gaussiana por las es un método
alternativo al método de Gauss visto para determinar el rango de una matriz.
Álgebra 141

Como colofón, y para nalizar esta parte del capítulo, vamos a recoger
en un teorema varios resultados equivalentes como consecuencia de todo lo
visto:

Teorema 2.9.12 Si A ∈ Mn (K) son equivalentes:


1. A es invertible.
2. El sistema de ecuaciones lineales AX = (0) sólo tiene la solución
trivial.
3. A es equivalente por las a In .
4. El sistema AX = b es compatible determinado para toda matriz co-
lumnas b ∈ Mn×1 (K).
5. rg(A) = n.
6. Los vectores la de A son linealmente independientes.
7. Los vectores columna de A son linealmente independiente.
8. det(A) 6= 0. (Esta última condición quedará establecida más claramen-
te después de realizar la práctica 2 en el aula informática).

2.10 Ejercicios
2.10.1 Ejercicios resueltos
1. Encontrar un vector u diferente de cero cuyo punto inicial es P =
(−1, 3, −5) tal que
a) u tiene la misma dirección que v = (6, 7, −3).
b) u tiene dirección opuesta a la de v = (6, 7, −3).

2. Sean u = (−3, 1, 2), v = (4, 0, −8),y w = (6, −1, −4). Encontrar los
escalares c1 , c2 , c3 tales que c1 u + c2 v + c3 w = (2, 0, 4).

3. Demostrar que no existen los escalares c1 , c2 , c3 tales que c1 (−2, 9, 6)+


c2 (−3, 2, 1) + c3 (1, 7, 5) = (0, 5, 4).

4. Sean P el punto (2, 3, −2) y Q el punto (7, −4, 1).


a) Encontrar el punto medio del segmento de recta que une a P y Q.
b) Encontrar el punto sobre el segmento de recta que une a P y Q y está
3
a 4 de la distancia de P a Q.
142 Álgebra

5. Suponer que la traslación de un sistema de coordenadas xy se hace para


obtener un sistema de coordenadas x0y0 cuyo origen O0 tiene las coordenadas
(2, −3).
a) Encontrar las coordenadas x0y0 del punto P cuyas coordenadas xy son
(7, 5).
b) Encontrar las coordenadas xy del punto Q cuyas coordenadas x0y0 son
(−3, 6).
c) Trazar los ejes de coordenadas xy y x0y0 y localizar los puntos P y
Q.

6. Demostrar geométricamente que si u y v son vectores en el espacio


bidimensional o en el espacio tridimensional, entonces

k u + v k≤k u k + k v k .

7. a) Demostrar que v = (a, b) y w = (−b, a) son vectores ortogonales.


b) Usar el resultado del inciso a) para encontrar dos vectores que sean
ortogonales a v = (2, −3).
c) Encontrar dos vectores unitarios que sean ortogonales a (−3, 4).

8. Explicar por qué cada una de las siguientes expresiones carece de


sentido.
Si u, v, w son vectores en el plano o en el espacio tridimensional y k es un
número real,
a) u · (v · w).
b) (u · v) + w.
c) k u · v k .
d) k · (u + v).

9. Sean vectores i, j y k unitarios a lo largo de los ejes positivos x, y y z


de un sistema de coordenadas rectangulares en el espacio tridimensional. Si
v = (a, b, c) es un vector diferente de cero, entonces los ángulos α, β,y γ entre
v y los vectores i, j y k , respectivamente, se denominan ángulos directores de
v , y los números cos(α), cos(β) y cos(γ) se denominan cosenos directores de
v.
a
a) Demostrar que cos(α) = kvk .
b) Encontrar cos(β) y cos(γ).
v
c) Demostrar que kvk = (cos(α), cos(β),cos(γ)).
Álgebra 143

d) Demostrar que cos2 (α) + cos2 (β) + cos2 (γ) = 1.

10. Demostrar que si v es ortogonal tanto a w1 como a w2 , entonces v es


ortogonal a k1 w1 + k2 w2 para todos los escalares k1 y k2 .

11. Encontrar las ecuaciones paramétricas de la recta que pasa por los
puntos dados.

a) P = (5, −2, 4) y Q = (7, 2, −4).


b) P = (0, 0, 0) y Q = (2, −1, −3).

 x=0
12. Demostrar que la recta r : y=t ∞<t<∞

z=t
a) pertenece al plano π1 : 6x + 4y − 4z = 0,
b) es paralela al plano π2 : 5x − 3y + 3z = 1 y está por abajo de éste,

c) es paralela al plano π3 : 6x + 2y − 2z = 1 y está por arriba de éste.

13. Encontrar la ecuación del plano π1 que pasa por el punto P =


(3, −6, 7) y es paralelo al plano π2 : 5x − 2y + z − 5 = 0.

14. Demostrar que las rectas 


 x − 3 = 4t  x + 1 = 12s
r1 : y−4=t ∞ < t < ∞ y r2 : y − 7 = 6s , ∞<s<∞
 
z−1=0 z − 5 = 3s
se cortan y encontrar el punto de intersección.

15. Hallar la ecuación del plano π que contiene las rectas del ejercicio
15.
v
16. Demostrar que si v es un vector diferente de cero en Rn , entonces kvk
tiene la norma euclídea 1.

17. ¾Para qué valores de k se cumple que u y v son ortogonales?

a) u = (2, 1, 3), v = (1, 7, k).


b) u = (k, k, 1), v = (k, 5, 6).
144 Álgebra

18. Demostrar la identidad ku + vk2 + ku − vk2 = 2kuk2 + 2kvk2 para


vectores en Rn . Interpretar geométricamente este resultado en R2 .

19. Demostrar que si u y v son vectores


√ ortogonales en Rn tales que
kuk = 1 y kvk = 1, entonces d(u, v) = 2. Interpretar geométricamente este
resultado en R2 .

20. Sea (F(R, R), +, ◦) el espacio vectorial de las funciones de R en R.


Determinar si los siguientes conjuntos son o no subespacios vectoriales de
F(R, R) :
a) {f ∈ F(R, R) |∀x ∈ R f (x) = f (−x)} .
b) {f ∈ F(R, R) | f (1) = 0} .
c) {f ∈ F(R, R) | f (2) = f (3)} .

21. Demostrar que el subconjunto H formado por todas las n − tuplas


de números reales tales que los elementos de cada n − tupla forman una
progresión aritmética, es un subespacio vectorial de Rn .

22. Se dice que A ∈ Mn (K) es simétrica si t A = A. Si denotamos por


Sn (K) al conjunto de las matrices simétricas de orden n, demostrar que Sn (K)
es un subespacio vectorial de Mn (K).
Recordemos que una matriz A ∈ Mn (K) es antisimétrica si t A = −A.
¾Constituyen las matrices antisimétricas un subespacio vectorial de Mn (K)?
Justifíquese la respuesta.

23. En R4 se considera el subespacio vectorial H = L(A) generado por el


conjunto A de vectores A = {(1, −1, 0, 0), (0, 1, 1, 0), (2, −1, 1, 0), (3, −3, 0, 0).
¾Pertenece el vector (1, 1, 1, 0) al subespacio vectorial H?

24. En el R − e.v. R3 con su estructura de espacio vectorial habitual


determinar si los sistemas de vectores

(1, 1, 1), (1, 1, 0), (1, 0, 0) y (1, 2, 3), (2, 0, 1), (−1, 2, 2)

son libres o ligados.

25. Consideramos el Z2 −espacio vectorial de los bytes (Z82 , +, ·) con la


suma y producto por escalares ya denidos. Se pide determinar si el sistema
de vectores
(1, 0, 0, 0, 1, 1, 1, 0), (0, 1, 1, 1, 1, 1, 1, 0)
Álgebra 145

es libre o ligado y hallar el subespacio vectorial generado por el conjunto de


esos dos vectores.

26. En el espacio vectorial P4 (C) de los polinomios de grado menor o


igual que 4 con coecientes en C se considera el polinomio p(x) = x4 − x2 + 2.
Demostrar que el sistema p(x), p0 (x), p00 (x), p000 (x) formado por el polinomio
p(x) y sus sucesivas derivadas (hasta la tercera) es un sistema libre.

27. En el espacio vectorial F(N, R) de las sucesiones de números reales,


con la suma y producto habituales, consideramos el conjunto

H = {(xn ) ∈ F (N, R) |∀n ∈ N xn+2 = xn+1 + xn }

a) Demostrar que H es un subespacio vectorial de F(N, R).


b) Comprobar que dim(H) = 2.

28. Hallar el rango de lassiguientes matrices:



  1 3 0 2  
1 3 2  −1 1 2 1  1 0 1 7 1 1
 
A =  2 1 1 , B =  
 2 2 3 0 , C =
 2 1 2 1 3 4 .
0 2 0  1 6 2 2  1 2 1 1 3 1
5 1 1 0

29. Encontrar una base y hallar la dimensión del espacio de matrices


triangulares superiormente T n (K).
T n (K) = { A= (aij )∈ Mn (K) | aij = 0 si j < i }.

30. En el espacio vectorial Z52 , hallar una base del subespacio vectorial
¡ ¢ ¡ ¢
H = L({ 0 1 0 1 1 , 0 1 0 0 1 ,
¡ ¢ ¡ ¢
0 0 0 1 0 , 0 1 1 1 1 }).

31. En el espacio vectorial R3 , hallar una base del subespacio vectorial

H = L({(3, 2, −1), (1, 1, 1), (4, 3, 0)}).


146 Álgebra

2.10.2 Ejercicios propuestos


1. Sea S2 = (O, (e1 , e2 )) el sistema de coordenadas ortogonales canónico
de R2 :
O = (0, 0), e1 = (1, 0), e2 = (0, 1).

a) Dado el vector v = (2, 3), hallar las coordenadas de los vectores


1
v + e1 , v − e1 , v.
2

b) Comprobar geométricamente los resultados obtenidos en el apartado


a).

2. Sea S2 = (O, (e1 , e2 )) el sistema de coordenadas ortogonales canónico


de R2 y sean OP = (1, 2) y OQ = (2, 1) dos vectores de R2 .
a) Determinar las coordenadas del vector P Q en S2 .
b) Determinar las coordenadas del vector P Q en el sistema ortogonal
S 0 2 obtenidos por traslación de O al punto O0 = (−2, 1).
c) Calcular las normas del vector P Q utilizando sus coordenadas en S2
y S 0 2 . ¾Son iguales las distancias entre OP y OQ y entre O0 P y O0 Q?

3. En R3 , con el sistema de coordenadas ortogonales canónico S3 =


(O, (e1 , e2 , e3 )) :

O = (0, 0, 0), e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1),

sean v = (−1, 0, 1), w = (1, −1, 2) y θ el ángulo entre v y w (0 ≤ θ ≤


π).
a) Calcular cos(θ) utilizando la ley de los cosenos:

kw − vk2 = kvk2 + kwk2 − 2kvkkwkcos(θ).

b) Usando las coordenadas de v y w, hallar el producto escalar v · w y


vericar la identidad

v · w = kvkkwkcos(θ).

c) ¾Qué tipo de ángulo forman v y w?


Álgebra 147

4. Demostrar que en R2 el vector n = (a, b) 6= (0, 0) es ortogonal a todas


las rectas de ecuación
ax + by + c = 0, (c ∈ R).

5. Sean v = (−1, 0, 1) y w = (1, −1, 2) los vectores del problema anterior.


a) Calcular la proyección ortogonal de w sobre v, pv (w), y la compo-
nente vectorial de w ortogonal a v.
b) Hallar kpv (w)k y kp2v (w)k.

6. En este problemas trabajamos en R3 con el sistema de coordenadas S3 .


a) Hallar los vectores
e1 × e2 , e2 × e3 , e3 × e1 .

b) Demostrar la identidad de Lagrange:


ku × vk2 = kuk2 kvk2 − (u · v)2
y, usando la identidad
u · v = kukkvkcos(θ) ∀u, v ∈ R3 ,
deducir que
ku × vk = kukkvksen(θ).

c) Sean u = (1, −1, 2) y v = (0, 3, 1). Calcular el área del paralelogramo


determinado por los vectores u y v.
d) Vericar que para todo par de vectores u y v en R3 \{(0, 0, 0)}, u×v
es ortogonal a u y a v.

7. En este problemas seguimos trabajando en R3 con el sistema de coor-


denadas S3 .
a) Sean u, v y w tres vectores en R3 . Vericar que el número real
|u · (v × w)| es el volumen del paralelepípedo P denido por u, v y w.
(Se utilize el hecho de que la altura h del paralelepípedo P se puede
escribir como h = kp(v×w) (u)k.)
b) Calcular el volumen del paralelepípedo determinado por los vectores
u = (1, 0, 2), v = (0, 1, 2), w = (1, 1, 1).
148 Álgebra

8. Sean P0 = (1, 2) y P1 = (−1, 1) dos puntos en R2 .


Hallar las ecuaciones vectorial, general implícita, paramétricas y pendiente-
ordenada en el origen de la recta l que pasa por P0 y P1 .

9. Sean P0 = (x0 , y0 ) ∈ R2 y r la recta de ecuación ax + by + c = 0.


a) Demostrar que la distancia entre P0 y r es

|ax0 + by0 + c|
d(P0 , r) = √ .
a 2 + b2

b) Calcular la distancia entre P0 = (0, 1) y r : 2x − y + 3 = 0.

10. En R3 , encontrar la ecuación del plano π que pasa por el punto P0 =


(1, 0, −1) y es ortogonal al vector n = (2, −1, 5).

11. En R3 , usando la fórmula de la distancia entre un punto P0 = (x0 , y0 , z0 )


y un plano π : ax + by + cz + d = 0 :

|ax0 + by0 + cz0 + d|


d(P0 , π) = √ ,
a2 + b2 + c2

a) calcular la distancia entre el punto P0 de intersección de las rectas


de ecuaciones
 

 x = −3 + 2k 
 x = −1 + t
r : y = 3k y s : y = 2 − 3t (k, t ∈ R)
 
z = 2 − k
 
z =t
3
y el plano π : 2x − y + z = 0.
b) Calcular el coseno del ángulo que forman las rectas r y s.

12. Determinar si existen valores de los parámetros reales s y t tales que


la recta l en R3 de ecuaciones implícitas
(
sx + 3y + z =0
,
−x + ty + 2z + 1 = 0
Álgebra 149

tenga ecuaciones paramétricas




x = 2k

 1
y =− +k (k ∈ R).

 2
z = 3 − 3k

2

13. Describir todos los subespacios vectoriales de R3 que contienen al punto


P = (1, 1, 1).

14. Sea Mm,n (R) el R−espacio vectorial respecto de las operaciones de su-
ma de matrices y multiplicación de una matriz por un escalar usuales.
Sea C[x] el C−espacio vectorial de los polinomios con coecientes nú-
meros complejos y con las operaciones de suma de funciones y multi-
plicación por un escalar usuales.
Escribir explícitamente las operaciones que hacen del producto carte-
siano Mm,n (R) × C[x] un R−espacio vectorial.

15. Sea M el subconjunto de Mm,n (Z2 ) denido por


µ ¶
0 x y
M ={ : x, y, z, u ∈ Z2 }.
z 0 u

a) Escribir M como un conjunto de funciones de N2 × N3 en Z2 que se


anulan sobre un subconjunto S de N2 × N3 .
b) Vericar que M es un Z2 −espacio vectorial respecto de las opera-
ciones usuales de suma de matrices y producto de una matriz por un
escalar.

16. Determinar los valores reales del parámetro λ tales que los siguientes
vectores sean un sistema libre en R3 :
1 1 1 1 1 1
v1 = (λ, − , − ), v2 = (− , λ, − ), v3 = (− , − , λ).
2 2 2 2 2 2

Interpretar geométricamente los resultados obtenidos.


150 Álgebra

17. Vericar si los siguientes subconjuntos del espacio de todas las funciones
reales, F(R, R), son linealmente independientes:

S = {1, sen(x), sen(2x)},

T = {(3 − x)2 , x2 − 6x, 5}.

18. Sean u = (1, 1, 1), v = (1, 1, x) y w = (x, 1, 1) tres vectores en R3 ,


siendo x un parámetro real.
Sea H = L(u, v, w) el subespacio de R3 generado por u, v y w.
Determinar para qué valores de x el subespacio H es una recta, un
plano o todo R3 .

19. a) Vericar que para todo n ∈ N, el sistema Bn = (1, x, x2 , · · · , xn ) es


una base del espacio vectorial de los polinomios de grado menor o igual
que n, Pn (R).
(Utilizar inducción sobre n y la continuidad de los polinomios)
b) Determinar si el sistema B = (1, x − 1, (x − 1)2 , (x − 1)3 ) es una base
de P3 (R).
c) Escribir las coordenadas del vector p(x) = 3x3 − 3 en términos de
las bases B3 y B.

20. Sea µ ¶
a b
H={ : a, b, c ∈ R}.
c −(a + b + c)

a) Vericar que H es un subespacio vectorial de M2 (R).


b) Hallar una base B de H.
c) Completar B a una base de M2 (R).

21. En el R−espacio vectorial F(N, R) de las sucesiones reales sea

H = {(xn )n∈N : ∀n ≥ 2, xn+1 = 2xn − 3xn−1 }.

a) Demostrar que H es un subespacio vectorial de F(N, R).


b) Comprobar que la dimensión de H es 2.
Álgebra 151

22. Aplicar el teorema de Rouché-Fröbenius


a) para vericar si el vector p(x) = x3 − 2x + 1 pertenece al subespacio
L(x3 − 1, x + 2) de P3 (R),
b) para determinar si el sistema (x3 − 1, x + 2, x2 , x − 1) es una base de
P3 (R).

23. Calcular el rango de las matrices


   
1 1 1 0 2 −1 5
A = 2 1 2 0 ∈ M3,4 (Z3 ) B = 0 4 1  ∈ M3 (R).
1 0 0 1 6 1 16

24. Utilizar el método de Gauss para hallar una base del C−subespacio de
C3 :
L((1, 0, i), (i, 0, 0), (0, −i, 4), (1, 1, 1)).
152 Álgebra
Capítulo 3

Funciones lineales

Otra de las características esenciales estrechamente relacionada con el con-


cepto de espacio vectorial tiene que ver con las propiedades de proporcio-
nalidad y aditividad , propiedades éstas que siempre se satisfacen en los
problemas matemáticos denominados problemas lineales. La propiedad
de aditividad consiste en que si los vectores u y v son soluciones del pro-
blema, entonces el vector u + v también es solución de dicho problema y la
proporcionalidad en que si el vector u es una solución del problema, entonces
el vector α · u también lo es, siendo normalmente α un número real o un
número complejo.
Hay que decir que en cualquier caso los problemas lineales son más
sencillos de resolver que los no lineales y en muchas ocasiones resolver un
problema no lineal consiste, al menos en una primera aproximación, en plan-
tear y resolver un problema lineal que aproxime , valga la redundancia, el
problema no lineal planteado.
En este capítulo se denen y estudian las funciones lineales entre espacios
vectoriales. Las funciones lineales son las más naturales en el contexto del
álgebra lineal ya que, por su denición, respectan la estructura de espacio
vectorial.
Veremos que una función lineal se puede representar por medio de una
matriz determinada por la elección de bases en su dominio y codominio.
Este hecho nos permite trabajar desde dos puntos de vista distintos pero
estrechamente relacionados: un primer más analítico, que se basa en el uso
de las propiedades generales de las funciones y un segundo más algebraico,
donde tiene mayor importancia la teoría matricial.

153
154 Álgebra

3.1 Funciones lineales


Como vimos, una estructura de espacio vectorial sobre un cuerpo está carac-
terizada por la existencia de las operaciones de suma de vectores y producto
de un vector por un escalar, con los axiomas de la denición 2.2.1.
Entonces, si tenemos dos espacios vectoriales sobre el mismo cuerpo, es
natural preguntarse si existen funciones entre estos dos espacios tales que
relaciones entre vectores en el primero (el dominio de la función) se puedan
comparar y transformar en relaciones entre vectores del segundo (el codomi-
nio de la función).
La siguiente denición responde a la pregunta anterior: la función buscada
tiene que ser tal que a la suma de dos vectores en su dominio se le corresponda
el vector suma de las imágenes de estos dos vectores en el codominio y que
al producto de un vector por un escalar en el dominio se le corresponda el
producto por el mismo escalar de la imagen del vector en el codominio.
Denición 3.1.1 Sean (E, +, ·) y (E0 , ⊕, ∗) dos espacios vectoriales sobre
el mismo cuerpo K. Diremos que la función f : E → E0 es lineal (o
también, que es un homomorsmo de K − e.v.), si f satisface las siguientes
propiedades:
1. ∀u, v ∈ E, f (u + v) = f (u) ⊕ f (v);
2. ∀u ∈ E, ∀α ∈ K, f (α · u) = α ∗ f (u).

Observación 37 Es usual denotar con los mismos símbolos + y · la suma


y el producto por escalares denidos sobre los espacios E y E0 , puesto que en
casi todos los casos, la naturaleza de la operación viene determinada de forma
unívoca por la naturaleza de los operandos: obviamente, si u ∈ E, entonces
f (u) ∈ E0 . Con este convenio de notación, siendo E y E0 dos K − e.v., una
función f : E → E0 es lineal si satisface las propiedades:
1. ∀u, v ∈ E, f (u + v) = f (u) + f (v)
2. ∀u ∈ E, ∀α ∈ K, f (αu) = αf (u)

Proposición 3.1.2 Siendo E y E0 K − e.v., se verica que la función f :


E → E0 es lineal si y sólo si ∀u, v ∈ E, ∀α, β ∈ K, se verica que
f (αu + βv) = αf (u) + βf (v).
Álgebra 155

Demostración  ⇒ ” Supongamos que f : E → E0 es lineal, o lo que es


lo mismo, que f satisface las condiciones 1 y 2 de la denición 3.1.1. Dados
u, v ∈ E y α, β ∈ K, por la condición 1 resulta que
f (αu + βv) = f (αu) + f (βv) =
= (por la condición 2) =
= αf (u) + βf (v).
 ⇐  Recíprocamente, supongamos que ∀u, v ∈ E ∀α, β ∈ K se verica
que
f (αu + βv) = αf (u) + βf (v).
Hay que demostrar que f satisface las condiciones 1 y 2 de la denición 3.1.1.
Dados u, v ∈ E, tomando α = β = 1, resulta que
f (u + v) = f (1 · u + 1 · v) =
= 1 · f (u) + 1 · f (v) =
= f (u) + f (v),
con lo que se satisface la condición 1. Por otra parte, dados u ∈ E y α ∈ K,
resulta que
f (αu) = f (αu + 0u) = αf (u) + 0f (u) = αf (u),
con lo que se satisface la condición 2. 2

El siguiente ejercicio nos muestra cómo se transforman las combinaciones


lineales al aplicarles una función lineal.

Ejercicio 3.1.1 Demostrar que, siendo E y E0 K − e.v., y f : E → E0 una


función lineal, siendo u1 , ....,
µ nun cualquier
¶ sistema de vectores de E se verica
P Pn
que ∀(α1 , ...., αn ) ∈ Kn , f α i ui = αi f (ui ).
i=1 i=1

Indicación: Razonar por inducción sobre “n”.


Nota: Nótese que un enunciado equivalente al del ejercicio anterior sería:
si f : E → E0 es lineal se verica que
 Ã n !
∀n ∈ N,  X Xn
∀u1 , ...., un ∈ E y f αi ui = αi f (ui ).

∀α1 , ...., αn ∈ K, i=1 i=1
156 Álgebra

Ejemplo 3.1.3 Siendo E un K − e.v., la función identidad, IdE : E → E,


es lineal puesto que
i) dados u, v ∈ E, se tiene

IdE (u + v) = u + v = IdE (u) + IdE (v);

ii) si u ∈ E y α ∈ K, IdE (αu) = αu = αIdE (u).

Ejemplo 3.1.4 Siendo E y E0 dos K − e.v., la función f : E → E0 denida


por f (u) = 0 ∀u ∈ E, es lineal y se llamará transformación cero.

Ejemplo 3.1.5 Si (E1 , +1 , ·1 ),...,(En , +n , ·n ) son n K − e.v., entonces ∀i ∈


{1, ..., n} la función proyección i-ésima

pi : E1 × ... × En −→ Ei
(u1 , ..., un ) ; ui

es lineal, puesto que, siendo i ∈ {1, ..., n} se tiene que


a) dados (u1 , ..., un ), (v1 , ..., vn ) ∈ E1 × ... × En ,

pi ((u1 , ..., un ) + (v1 , ..., vn )) = pi ((u1 + v1 , ..., un + vn )) =


= ui + v i =
= pi ((u1 , ..., un )) + pi ((v1 , ..., vn ));

b) dados (u1 , ..., un ) ∈ E1 × ... × En y α ∈ K,

pi (α(u1 , ..., un )) = pi ((αu1 , ..., αun )) =


= αui = αpi ((u1 , ..., un )).

Ejemplo 3.1.6 Dada A ∈ Mm×n (K), la función multiplicación por A


LA : Mn×1 (K) −→ Mm×1 (K)
,
X ; A·X

donde  · es el producto usual de matrices, es lineal.

Ejercicio 3.1.2 Sea E un K−e.v. de dimensión nita n y B = (v1 , v2 , · · · , vn )


una base ordenada de E. Si u = k1 v1 + k2 v2 + · · · + kn vn ∈ E, sea f : E → Kn
la función que asocia al vector u sus coordenadas respecto de la base B,
denida por f (u) = (k1 , k2 , · · · , kn ). Vericar que f es lineal.
Álgebra 157

Ejemplo 3.1.7 Dados a, b ∈ R, se considera el conjunto C([a, b], R), de las


funciones reales continuas denidas sobre el intervalo cerrado [a, b] = {x ∈
R |a ≤ x ≤ b }. Teniendo en cuenta que ∀f, g ∈ C([a, b], R) y ∀α ∈ R se
verica que
Zb Zb Zb
(f + g) = f + g
a a a
y que
Zb Zb
(αf ) = α f,
a a

resulta que la siguiente función integración sobre [a, b] es lineal

I : C([a, b], R) −→ R
Rb .
f ; f
a

Ejemplo 3.1.8 Siendo (a, b) cualquier intervalo abierto de la recta real am-
pliada (i.e., se contempla la posibilidad de que a = −∞ ó b = ∞, o ambas
cosas simultáneamente, en cuyo caso se tendría que (a, b) = (−∞, ∞) = R),
se considera el conjunto
C 1 ((a, b), R)
de las funciones reales denidas en (a, b), derivables en todo punto de (a, b)
y tales que la función derivada es continua en (a, b). Teniendo en cuenta que
la suma de funciones derivables es derivable y que la función resultante de
multiplicar un número real por una función derivable es una función derivable
(y que lo mismo sucede con las funciones continuas), resulta que

C 1 ((a, b), R) ≺ F ((a, b), R),

o, lo que es lo mismo, que C 1 ((a, b), R) es un R − e.v..


Dada ahora f ∈ C 1 ((a, b), R), sea D(f ) la función derivada de f :

D(f ) : (a, b) −→ R
.
x ; D(f )(x) = f 0 (x)

Ya que ∀f, g ∈ C 1 ((a, b), R) y ∀α ∈ R se verica que

D(f + g) = D(f ) + D(g)


158 Álgebra

y que
D(αf ) = αD(f ),
resulta que la siguiente función derivación es lineal:

D : C 1 ((a, b), R) −→ C((a, b), R)


.
f ; D(f )

Ejemplo 3.1.9 Sea n > 1. La función determinante det : Mn (K) → K no es


lineal ya que det(A+B) 6= det(A)+det(B) y det(kA) = k n det(A) 6= kdet(A).

3.2 Propiedades de funciones lineales


Proposición 3.2.1 Si E y E0 son K − e.v. y f : E → E0 es lineal, entonces
se verica que

1. f (0) = 0;

2. ∀u ∈ E , f (−u) = −f (u).

Demostración 1. ∀u ∈ E , f (0) = f (0 · u) = 0 · f (u) = 0.


2. Dado u ∈ E, se tiene

f (u) + f (−u) = f (u + (−u)) = f (0) = 0,

por lo que podemos concluir que f (−u) es el opuesto de f (u) o, lo que es lo


mismo, que f (−u) = −f (u), puesto que (E0 , +) es un grupo. 2

Ejemplo 3.2.2 Si E es un K − e.v. y u0 un vector jo diferente de cero en


E, la transformación ∀u ∈ E f (u) = u + u0 (la traslación por el vector u0 )
no es lineal, ya que f (0) = u0 6= 0.

El siguiente resultado nos permite asegurar que la función suma de dos


funciones lineales es una función lineal y que, si multiplicamos una función
lineal por un escalar, la función así obtenida es también una función lineal.
Álgebra 159

Proposición 3.2.3 Siendo E y E0 K−e.v., si denotamos por F(E, E0 ) al es-


pacio de todas las funciones denidas entre E y E0 , y por L(E,E0 ) al conjunto
de las funciones lineales denidas entre E y E0 , es decir,

L(E, E0 ) = {f ∈ F(E, E0 ) |f es lineal },

se verica que
L(E, E0 ) ≺ F (E, E0 ),
o lo que es lo mismo, que L(E,E0 ) tiene estructura de espacio vectorial respec-
to de la suma de funciones y producto de una función por un escalar denidos
en F(E, E0 ).

Demostración i) Evidentemente L(E,E0 ) 6= ∅, puesto que 0 ∈ L(E,E0 ),


ya que ∀u, v ∈ E ∀α, β ∈ K se tiene

0(αu + βv) = 0 = 0 + 0 =α0(u) + β0(v).

(Nótese que hemos denotado por el mismo símbolo a 0 ∈L(E,E0 ) y a 0 ∈ E0 ).


ii) Veamos que ∀f, g ∈ L(E,E0 ) se verica que f +g ∈ L(E,E0 ). Si u, v ∈ E
y α, β ∈ K, se verica que

(f + g)(αu + βv) = f (αu + βv) + g(αu + βv) =


= (αf (u) + βf (v)) + (αg(u) + βg(v) =
= (por ser “ + ”asociativa y conmutativa en (E0 , +))
= (αf (u) + αg(u)) + (βf (v) + βg(v)) =
= α(f + g)(u) + β(f + g)(v).

iii) Veamos que ∀f ∈ L(E,E0 ), ∀λ ∈ K se verica que λf ∈ L(E,E0 ).


Si u, v ∈ E y α, β ∈ K, se verica que

(λf ) (αu + βv) = λ · f (αu + βv) = λ (αf (u) + βf (v)) =


= λαf (u) + λβf (v) =
= (por ser “ · ”conmutativo en K) =
= αλf (u) + βλf (v) = α (λf ) (u) + β (λf ) (v).

2
160 Álgebra

Ejemplo 3.2.4 Como consecuencia de la proposición anterior, teniendo en


cuenta que para cualquier K−e.v. E la función IdE : E → E es lineal, IdE ∈
L(E, E), tendremos también que ∀α ∈ K, la función (αIdE ) ∈ L(E, E), es
decir, la función
αIdE : E → E
u ; αu
es lineal.
Ejemplo 3.2.5 Teniendo en cuenta que si E es un K − e.v. entonces ∀n ∈
N y ∀i ∈ {1, ..., n} la función proyección i-ésima es lineal, resulta que la
siguiente función es lineal: ∀(α1 , ..., αn ) ∈ Kn ,
α1 p1 + ... + αn pn : En −→ E
.
(u1 , ..., un ) ; α1 u1 + ... + αn un
En particular, dados por ejemplo α, β, γ ∈ R, es lineal la función
αp1 + βp2 + γp3 : R3 → R
.
(x1 , x2 , x3 ) ; αx1 + βx2 + γx3

Ejemplo 3.2.6 Si f ∈ C 1 ((a, b), R), en particular f ∈ C((a, b), R) y, siendo


i la función inclusión, se verica que la función
3D − 5i : C 1 ((a, b), R) −→ C((a, b), R)
f ; 3D(f ) − 5f
es lineal.

Proposición 3.2.7 Si E, E0 y E00 son K − e.v. y f : E → E0 y g : E0 → E00


son funciones lineales, entonces la función composición de g con f, g ◦ f :
E → E00 , también es una función lineal.

Demostración Sean u, v ∈ E y α, β ∈ K. En ese caso


(g ◦ f )(αu + βv) = g(f (αu + βv)) =
= (por ser f lineal) =
= g(αf (u) + βf (v)) =
= (por ser g lineal) =
= αg(f (u)) + βg(f (v)) =
= α(g ◦ f )(u) + β(g ◦ f )(v).
Álgebra 161

Ejemplo 3.2.8 ∀f ∈ L(E, E), f ◦IdE = IdE ◦f. Entonces IdE es el elemento
neutro de ◦ en L(E, E).
Observación 38 Si E, E0 y E00 son R − e.v. y f : E → E0 , g : E0 → E00 y
h : E00 → E000 son funciones lineales, entonces la función composición h◦g ◦f :
E → E000 también es una función lineal. En general, la composición de un
cualquier número (nito) de funciones lineales, cuando esté denida, será
una función lineal.

3.3 Núcleo e imagen


La siguiente proposición arma que las funciones lineales preservan los sub-
espacios vectoriales:

Proposición 3.3.1 Si E y E0 son K − e.v. y f : E → E0 es lineal, se verica


que
1. ∀H ⊂ E, (H ≺ E ⇒ f (H) ≺ E0 ) y
2. ∀H 0 ⊂ E0 , (H 0 ≺ E0 ⇒ f −1 (H 0 ) ≺ E) ;
en otras palabras: la imagen directa y recíproca de un subespacio
vectorial por una función lineal es un subespacio vectorial.

Demostración 1. Supongamos que H ≺ E. En ese caso 0 ∈ H y, puesto


que
f (0) = 0,
tendremos que 0 ∈ f (H). Por otra parte, si u0 , v 0 ∈ f (H) y α, β ∈ K,
tendremos, por denición de f (H), que existen u, v ∈ H tales que
f (u) = u0 y f (v) = v 0 .
Por consiguiente
αu0 + βv 0 = αf (u) + βf (v) =
= (puesto que f es lineal) =
= f (αu + βv)
162 Álgebra

y, puesto que H ≺ E, αu + βv ∈ H, con lo que

αu0 + βv 0 ∈ f (H)

y en denitiva f (H) ≺ E0 .
2. Supongamos que H 0 ≺ E0 . En ese caso 0 ∈ H 0 y, puesto que

f (0) = 0,

tendremos que
0 ∈ f −1 (H 0 ).
Por otra parte, si u, v ∈ f −1 (H 0 ) y α, β ∈ K, resultará que

f (u), f (v) ∈ H 0

y, puesto que H 0 ≺ E0 , tendremos que

αf (u) + βf (v) ∈ H 0

pero, al ser f lineal,

αf (u) + βf (v) = f (αu + βv),

es decir, f (αu + βv) ∈ H 0 , con lo que

αu + βv ∈ f −1 (H 0 ).

Denición 3.3.2 Sean E y E0 K − e.v. y f : E → E0 una función lineal.


Llamaremos núcleo de f al conjunto

Ker(f ) = f −1 ({0}) = {u ∈ E |f (u) = 0 },

e imagen de f, al conjunto

Im(f ) = {v ∈ E0 |∃u ∈ E tal que f (u) = v }.

o sea, al conjunto f (E).


Álgebra 163

Obsérvese que como consecuencia de la proposición (3.3.1), para cualquier


función lineal f : E → E0 se verica que

Ker(f ) ≺ E

y que
Im(f ) ≺ E0 .

Denición 3.3.3 Sean E y E0 K − e.v. y f : E → E0 una función lineal.


Entonces a la dimensión del imagen de f se denomina rango de f y a la
dimensión del núcleo de f se denomina nulidad de f.

Ejemplo 3.3.4 Sean E y E0 K − e.v.. Entonces, el núcleo de la función


identidad IdE : E → E es el subespacio {0} y su imagen es el espacio E;
el núcleo de la función cero f : E → E0 es el espacio E y su imagen es el
subespacio {0}.

Ejercicio 3.3.1 Sea f : R3 → R3 la proyección ortogonal sobre el plano


z = 0. Determinar núcleo e imagen de f.

Ejercicio 3.3.2 Sea E = C 1 (R, R), y sea E0 = F(R, R). Determinar el nú-
cleo de la función derivación

D : C 1 (R, R) → F (R, R).

Ejemplo 3.3.5 Una manera diferente de la usual de vericar que, dados


α, β, γ ∈ R, el conjunto
© ¯ ª
H = (x1 , x2 , x3 ) ∈ R3 ¯ αx1 + βx2 + γx3 = 0

es un subespacio vectorial de R3 , consiste en tener en cuenta que la función

αp1 + βp2 + γp3 : R3 → R


(x1 , x2 , x3 ) ; αx1 + βx2 + γx3

es lineal y que
H = Ker(αp1 + βp2 + γp3 ).
164 Álgebra

Antes de enunciar el siguiente teorema, recordemos las siguientes deni-


ciones:

Denición 3.3.6 Una función f entre dos conjuntos A y B es inyectiva si


∀a1 , a2 ∈ A, f (a1 ) = f (a2 ) ⇒ a1 = a2 .

Denición 3.3.7 Una función f entre dos conjuntos A y B es sobreyectiva


si ∀b ∈ B existe a ∈ A tal que b = f (a).

Denición 3.3.8 Finalmente, una función f entre dos conjuntos A y B es


biyectiva si f es a la vez inyectiva y sobreyectiva.
Teorema 3.3.9 Sean E y E0 K − e.v. y f : E → E0 una función lineal. Se
verica que

1. f es inyectiva ⇔ Ker(f ) = {0};


2. f es sobreyectiva ⇔ Im(f ) = E0 .

Demostración 1.  ⇒ Puesto que f es lineal, f (0) = 0 y en consecuencia


0 ∈ Ker(f )

o, lo que es lo mismo, {0} ⊂ Ker(f ). Por otra parte si u ∈ E es tal que


u ∈ Ker(f ), resulta que

f (u) = 0 y f (0) = 0,

y, puesto que por hipótesis f es inyectiva, concluímos que u = 0, con lo que


Ker(f ) ⊂ {0}. En denitiva, Ker(f ) = {0}.
 ⇐ Supongamos que Ker(f ) = {0} y que u, v ∈ E son tales que f (u) =
f (v). En ese caso f (u) + (−f (v)) = 0 y, puesto que f es lineal,

f (u) + (−f (v)) = f (u) + f (−v) = f (u + (−v)).

En consecuencia f (u + (−v)) = 0, o lo que es lo mismo,

u + (−v) ∈ Ker(f ) = {0},

es decir, u + (−v) = 0, de donde u = v .


2. Por denición, f es sobreyectiva si y sólo si Im(f ) = E0 . 2
Álgebra 165

Ejemplo 3.3.10 La función derivación D : C 1 (R, R) → F (R, R) no es in-


yectiva, ya que Ker(D) es el conjunto de las funciones constantes sobre R.

Ejemplo 3.3.11 La proyección ortogonal sobre el plano z = 0 en R3 no es


inyectiva, siendo su núcleo igual al eje z.

3.4 Espacios vectoriales isomorfos


Si f : E → E0 es una función lineal y biyectiva, para todo vector u en E
existe un único vector v en E 0 tal que f (u) = v. Además f es invertible y
f −1 (v) = u. Por tanto f establece una particular correspondencia entre los
vectores de E y los vectores de E 0 que, además, reproduce en E 0 las relaciones
de dependencia entre vectores de E. En este caso se podrían identicar los dos
espacios E y E 0 , pero es a menudo necesario distinguir entre distintos tipos
de correspondencias, es decir, nos interesa saber exactamente qué función
lineal biyectiva estamos considerando entre los dos espacios. Por ejemplo, la
función identidad en R2 es lineal y biyectiva, pero también lo es la función
rotación de un ángulo de π4 . La primera función identica trivialmente las
dos copias del espacio R2 mientras que la segunda nos dice que, como espacios
vectoriales, son equivalentes.
Estas consideraciones justican la siguiente denición de espacios isomor-
fos.

Denición 3.4.1 Siendo E y E0 dos K − e.v., se dice que E y E0 son iso-


morfos si existe una función f : E → E0 tal que f es lineal y biyectiva.
Si f : E → E0 es lineal y biyectiva, se dice que f es un isomorsmo (no
singular).
Proposición 3.4.2 Si f : E → E0 es un isomorsmo, f −1 : E0 → E es
también un isomorsmo.

Demostración Si f : E → E0 es biyectiva entonces f −1 : E0 → E es


también biyectiva. Veamos que en las condiciones del enunciado f −1 : E0 →
E es lineal.
1. Sean u0 , v 0 ∈ E0 . Por ser f : E → E0 biyectiva ∃! u, v ∈ E tales que

f (u) = u0 y f (v) = v 0
166 Álgebra

o, lo que es lo mismo, tales que f −1 (u0 ) = u y f −1 (v 0 ) = v. Luego

f −1 (u0 + v 0 ) = f −1 (f (u) + f (v)) =


(por ser f lineal)
= f −1 (f (u + v)) = u + v = f −1 (u0 ) + f −1 (v 0 ).

2. Sean u0 ∈ E0 y α ∈ K. Razonando de igual modo que en el apartado


anterior, si f −1 (u0 ) = u o, lo que es lo mismo, f (u) = u0 , resulta que

f −1 (αu0 ) = f −1 (αf (u)) =


= f −1 (f (αu)) = αu = αf −1 (u0 ).

Observación 39 Si dos K − e.v. E y E0 son isomorfos, desde un punto de


vista algebraico son iguales o indistinguibles, en el sentido de que toda
propiedad relacionada con la estructura de espacio vectorial que posea E se
transere automáticamente al espacio E0 a través del isomorsmo y recípro-
camente.

Ejercicio 3.4.1 Comprobar que si f : E → E0 es un isomorsmo, entonces


{v1 , ...., vm } ⊆ E es libre si y solo si {f (v1 ), ..., f (vm )} es libre.

Ejemplo 3.4.3 Las funciones


IC : Kn → M
n×1 (K)

x1
;  ... 
 
(x1 , ..., xn )
xn
y
IF : Kn → ¡ M1×n (K) ¢
(x1 ...xn ) ; x1 · · · xn
son isomorsmos. A IC le denominaremos isomorsmo columna y a IF
isomorsmo la.
Álgebra 167

3.5 Funciones lineales en espacios vectoriales


de dimensión nita
3.5.1 Determinación de funciones lineales en espacios
vectoriales de dimensión nita
El siguiente teorema fundamental establece un procedimiento para denir
funciones lineales entre espacios vectoriales de dimensión nita, en el sentido
de que, conocidas las imágenes de los elementos de una base del espacio
dominio, la función lineal queda completamente determinada.

Teorema 3.5.1 Sean E y E0 dos K − e.v., {u1 , ...., un } una base de E y


{v1 , ...., vn } un sistema cualquiera de n vectores de E0 . En estas condiciones
existe una única función lineal f : E → E0 tal que

∀i ∈ {1, ..., n} f (ui ) = vi .

Además se verica que

a) f es inyectiva ⇔ {v1 , ...., vn } es libre;

b) f es sobreyectiva ⇔ L({v1 , ...., vn }) = E0 ;

c) f es un isomorsmo ⇔ {v1 , ...., vn } es una base de E0 .

Demostración i) Existencia. Sea u ∈ E; puesto que {u1 , ...., un } es una


P
n
base de E, tendremos que ∃!(α1 , ...., αn ) ∈ Kn tal que u = αi ui . Denimos
i=1
P
n
entonces f (u) = αi vi . Veamos que la función f así denida para cada
i=1
u ∈ E satisface las dos condiciones requeridas.
P
n P
n
1. f es lineal : dados u, v ∈ E y λ, µ ∈ K, si u = αi ui y v = β i ui ,
i=1 i=1
168 Álgebra

resulta que
à n ! à n !
X X
f (λu + µv) = f (λ · α i ui +µ· βi ui ) =
i=1 i=1
à n ! n
X X
= f( (λαi + µβi )ui ) = (λαi + µβi )vi =
à i=1
n
! Ã n i=1
!
X X
= λ αi vi +µ βi ui = λf (u) + µf (v).
i=1 i=1

2. ∀i ∈ {1, ..., n} f (ui ) = vi . Dado i ∈ {1, ..., n}, se tiene


ui = 0 · u1 + ... + 1 · ui + ... + 0 · un
y, por consiguiente,
f (ui ) = 0 · v1 + ... + 1 · vi + ... + 0 · vn = vi .
ii) Unicidad. Si g : E → E0 es una función lineal tal que
∀i ∈ {1, ..., n} g(ui ) = vi ,
resulta que, siendo w un vector cualquiera de E, al ser {u1 , ...., un } una base
de E, ∃(α1 , ...., αn ) ∈ Kn tal que
n
X
w= α i ui .
i=1

Ahora bien,
Xn
g(w) = g( αi ui ) =
i=1
= (por ser g lineal) =
Xn Xn
= αi g(ui ) = αi vi =
i=1 i=1
n
X
= αi f (ui ) = (por ser f lineal) =
i=1
Xn
= f( αi ui ) = f (w),
i=1
Álgebra 169

es decir, ∀w ∈ E g(w) = f (w), con lo que concluímos que f = g.


Finalmente, comprobemos que se verican a), b) y c).
P
n
a)  ⇒ Sea αi vi = 0. Entonces
i=1

n
X n
X Xn
0= αi vi = αi f (ui ) = f ( αi ui ).
i=1 i=1 i=1

P
n
Ya que f es inyectiva, αi ui = 0 y, puesto que {u1 , · · · , un } es libre,
i=1
(α1 , · · · , αn ) = (0, · · · , 0).
P
n
 ⇐ Si w ∈ Ker(f ), siendo w = αi ui resulta que
i=1

Xn n
X n
X
f (w) = 0 = f ( αi ui ) = αi f (ui ) = αi vi ,
i=1 i=1 i=1

y puesto que {v1 , ...., vn } es libre, concluímos que

(α1 , ...., αn ) = (0, ..., 0),

con lo que w = 0.
b) Si vericamos que Im(f ) = L(v1 , · · · , vn ), entonces f es sobreyectiva
⇔ L(v1 , · · · , vn ) = E0 . Ya que L(v1 , · · · , vn ) ≺ Im(f ), hace falta solo com-
Pn
probar que Im(f ) ⊆ L(v1 , · · · , vn ) : si v ∈ Im(f ), existe u = αi ui ∈ E tal
i=1
que
n
X n
X
v = f (u) = αi f (ui ) = αi vi ∈ L(v1 , · · · , vn ).
i=1 i=1

Así que Im(f ) = L(v1 , · · · , vn ) = E . 0

c) Es consecuencia inmediata de los dos apartados anteriores. 2

A la vista del teorema anterior, se verica que:

si E y E0 son K − e.v. y {u1 , ...., un } ∈ En es una base de E, cualquier


función lineal f : E → E0 queda completamente determinada por el
sistema {f (u1 ), ..., f (un )}.
170 Álgebra

Ejercicio 3.5.1 Dada la función lineal f : R2 → R3 determinada por las


condiciones
f (1, 0) = (3, 4, 1), f (0, 1) = (−1, 0, 1),
determinar f (3, 1) y f (2, −1).

Corolario 3.5.2 Si E y E0 son dos K − e.v. nitamente generados (de di-


mensión nita), entonces

E y E0 son isomorfos ⇔ dim(E) = dim(E0 )

Demostración  ⇒ Si E y E0 son isomorfos, f : E → E0 es un isomorsmo,


y {u1 , ...., un } es una base de E, por el apartado c) del teorema anterior,
{f (u1 ), ...., f (un )} es una base de E0 y, en consecuencia, dim(E) = dim(E0 ) =
n.
 ⇐ Si dim(E) = dim(E0 ) = n, {u1 , ...., un } es una base de E y {v1 , ...., vn }
es una base de E0 , considerando la función lineal f : E → E0 tal que ∀i ∈
{1, ..., n} f (ui ) = vi , resulta, por la proposición anterior, que f es un isomor-
smo, y en consecuencia E y E0 son isomorfos. 2

Como vimos en el capítulo 2, al introducir una base ordenada en un


espacio vectorial podemos asociar a cada vector del espacio sus coordenadas
respecto de esta base. También vimos que las coordenadas de un vector son
únicas.
El siguiente corolario arma que la correspondencia entre un vector y sus
coordenadas respecto de una base jada es un isomorsmo.

Corolario 3.5.3 Si E es un K−e.v. y B = (u1 , ...., un ) es una base ordenada


de E, la función que asocia a todo vector la matriz de sus coordenadas respecto
de la base B,
(·)B : E → Mn×1 (K)
,
v ; (v)B
donde  
n
X α1
αi ui ⇒ (v)B =  ...  ,
 
v=
i=1 αn
es un isomorsmo.
Álgebra 171

Demostración Siendo ∀i ∈ {1, ..., n}


ei : {1, ..., n} × {1} → ½ Mn×1 (K)
1 si j = i ,
(j, 1) ;
0 si j 6= i

o, lo que es lo mismo, siendo (e1 , ..., en ) la base canónica de Mn×1 (K), que
empleando la notación habitual de matrices se escribiría
     
1 0 0
 0   1   0 
     
(e1 , ..., en ) =  ..  ,  ..  , · · · ,  ..  ,
 .   .   . 
0 0 1

observando que (·)B es la única función lineal tal que

∀i ∈ {1, ..., n} (ui )B = ei

y teniendo en cuenta que


Bc = (e1 , ..., en )
es una base de Mn×1 (K), es inmediato comprobar que (·)B es un isomorsmo.2

Observación 40 Teniendo en cuenta que si dos K − e.v. E y E0 son iso-


morfos, toda propiedad relacionada con la estructura de espacio vectorial que
posea E se transere automáticamente al espacio E0 a través del isomorsmo
y recíprocamente, si un K − e.v. E tiene dimensión  n y B es una base
de E, considerando el isomorsmo (·)B : E →Mn×1 (K) podemos estudiar las
propiedades de los vectores de E estudiando las que poseen sus coordena-
das respecto de B, es decir, sus imágenes mediante el isomorsmo (·)B . En
particular, si {v1 , ...., vm } es un sistema de vectores de E, resulta que

{v1 , ...., vm } es ligado ⇔ el sistema {(v1 )B , ...., (vm )B } de Mn×1 (K) es ligado;

{v1 , ...., vm } es libre ⇔ el sistema {(v1 )B , ...., (vm )B } de Mn×1 (K) es libre;
{v1 , ...., vn } es una base de E ⇔ {(v1 )B , ...., (vn )B } es una base de Mn×1 (K).
172 Álgebra

Ejemplos.
1. En el R − e.v. R3 con su estructura de espacio vectorial habitual el
sistema {(−1, 1, 1), (1, 1, 1), (1, −1, 0)} es libre (respectivamente ligado) si y
sólo si el sistema de M3×1 (R) formado por sus coordenadas respecto de la
base canónica Bc de R3 ,
     
−1 1 1
{ 1  ,  1  ,  −1 }
1 1 0
es libre (respectivamente ligado).
2. En el C − e.v. P4 (C) = {f ∈ C[x] | gr(f ) ≤ 4}, el sistema
{x + 3x2 , 2 + x, −3 + x3 , 1 + x4 }
es libre (respectivamente ligado) si y sólo si el sistema de M4×1 (C) formado
por sus coordenadas respecto de la base usual de P4 (C), {1, x, x2 , x3 , x4 },
       
0 2 −3 1
 1   1   0   0 
       
{       
 3  ,  0  ,  0  ,  0 }
 0   0   1   0 
0 0 0 1
es libre (respectivamente ligado).

3.5.2 Dimensiones del núcleo y de la imagen


Si, por ejemplo, en el espacio tridimensional R3 consideramos la función pro-
yección ortogonal sobre el plano xy (isomorfo a R2 ), obtenemos una función
lineal sobreyectiva y tal que su núcleo es todo el eje de las z. Por tanto, el
rango de esta proyección es 2, su nulidad es 1 y la suma de estos dos números
coincide con la dimensión del dominio de la función.
El siguiente teorema generaliza este ejemplo a toda función lineal entre
espacios de dimensión nita.
Teorema 3.5.4 (Teorema de la dimensión para funciones lineales)
Si f : E → E0 es una función lineal tal que los subespacios Ker(f ) e Im(f )
son de dimensión nita, entonces E es también de dimensión nita y
dim(E) = dim(Ker(f )) + dim(Im(f )) = nulidad(f ) + rango(f ).
Álgebra 173

Demostración Sean {u1 , ...., ur } una base de Ker(f ) y {v1 , ...., vp } una
base de Im(f ). Sean, por otra parte, {w1 , ..., wp } tales que

∀i ∈ {1, ..., p}, f (wi ) = vi .

El teorema estará demostrado si comprobamos que {u1 , ...., ur , w1 , ..., wp } es


una base de E.
a) {u1 , ...., ur , w1 , ..., wp } es libre. Supongamos que

(α1 , ...., αr , β1 , ..., βp ) ∈ Kr+p

es tal que
r p
X X
αi ui + βj wj = 0. (3.1)
i=1 j=1

En ese caso à !
r p
X X
f α i ui + βj wj = f (0) = 0.
i=1 j=1

Pero, teniendo en cuenta que f es lineal, resulta que


r p
X X
αi f (ui ) + βj f (wj ) = 0,
i=1 j=1

P
p
y puesto que los vectores u1 , ...., ur están en Ker(f ), tendremos que βj vj =
j=1
0, con lo que, al ser {v1 , ...., vp } libre, obtenemos que (β1 , ..., βp ) = (0, ..., 0);
P
r
pero entonces la relación (3.1) queda αi ui = 0, y puesto que {u1 , ...., ur }
i=1
es libre, obtenemos que (α1 , ...., αr ) = (0, ..., 0). En denitiva,
(α1 , ...., αr , β1 , ..., βp ) = (0, ..., 0).
b) {u1 , ...., ur , w1 , ..., wp } es un sistema generador de E. Sea u ∈ E.
Ahora bien, f (u) ∈ Im(f ), y puesto que {v1 , ...., vp } es una base de Im(f ),
P
p
∃(β1 , ..., βp ) ∈ Kp tal que f (u) = βi vi . Pero en ese caso,
i=1

p p p
X X X
f (u) = βi vi = βi f (wi ) = f ( βi wi ),
i=1 i=1 i=1
174 Álgebra

o sea,
p
X
0 = f (u) − f ( βi wi ) =
i=1
= (por ser f lineal) =
p
X
= f (u − βi wi ),
i=1

con lo que à !
p
X
u− βi w i ∈ Ker(f ),
i=1

y como Ker(f ) = L({u1 , ...., ur }),


à p
! r
X X
r
∃(α1 , ...., αr ) ∈ K .. u − βi w i = αj uj ,
i=1 j=1

µ ¶ Ã !
P
p P
r
y resulta que , u = βi wi + αj uj . 2
i=1 j=1

3.5.3 Matriz asociada a una función lineal


Si E y E0 son dos K − e.v. nitamente generados, f : E → E0 es una función
lineal y B = {u1 , ...., un } es una base de E, según hemos visto, la función f
queda completamente determinada por el sistema {f (u1 ), ...., f (un )}.
Así, siendo B 0 = {v1 , ..., vm } una base de E0 y, conocido el sistema de
vectores de Mm×1 (K)
{(f (u1 ))B 0 , ...., (f (un ))B 0 },
vamos a obtener una expresión que nos permita calcular, para todo vector
w ∈ E, las coordenadas de f (w) respecto de B 0 sin más que conocer las
coordenadas de w respecto de B.
Así pues, supongamos que
 
α1j
 
∀j ∈ {1, ..., n} (f (uj ))B 0 =  ...  ∈ Mm×1 (K),
αmj
Álgebra 175

o lo que es lo mismo, que


m
X
∀j ∈ {1, ..., n} (f (uj ))B 0 = αij (vi )B 0 .
i=1

P
n
Sea w ∈ E, y supongamos también que w = xj uj , es decir, que
j=1

 
x1
 
(w)B =  ...  .
xn

P
n P
n
En ese caso, f (w) = f ( x j uj ) = xj f (uj ), con lo que , teniendo en
j=1 j=1
cuenta que
(·)B 0 : E0 → Mm×1 (K)
v ; (v)B 0

es un isomorsmo,
à n ! n
X X
(f (w))B 0 = xj f (uj ) = xj · (f (uj ))B 0 =
j=1 B0 j=1
n
à m ! n X
m
X X X
= xj αij (vi )B 0 = xj (αij (vi )B 0 ) =
j=1 i=1 j=1 i=1
à m à n ! !
X X
= xj αij (vi )B 0 .
i=1 j=1

Es decir,
 Ã ! 
P
n
 xα 
 j=1 j 1j 
 
 .. 
(f (w))B 0 = . ,
 Ã ! 
 P n 
 xj αnj 
j=1
176 Álgebra

con lo que, teniendo en cuenta como está denido el producto de matrices,


resulta que    
α11 · · · α1n x1
 ..  ·  ..  .
(f (w))B 0 =  ... .   . 
αm1 · · · αmn xn
 
α11 · · · α1n
 .. ..  , tendremos que
En denitiva, si A =  . . 
αm1 · · · αmn

(f (w))B 0 = A · (w)B .

A la matriz A la denominaremos matriz asociada a la función lineal f


respecto de las bases B y B 0 y la denotaremos por MBB0 (f ).
Nótase que MBB0 (f ) ∈ Mm×n (K), donde m = dim(E0 ) y n = dim(E).
En resumen:

∀w ∈ E, (f (w))B 0 = MBB0 (f ) · (w)B

Observación 41 Nótese que la matriz MBB0 (f ) está caracterizada por el he-


cho de que ∀j ∈ {1, ..., n} su columna j − ésima es la matriz
 
α1j
(f (uj ))B 0 =  ...  ∈ Mm×1 (K).
 
αmj

Observación 42 Nótese la disposición de las bases B del espacio dominio


E y B 0 de E0 en la expresión:

(f (w))B 0 = MBB0 (f ) · (w)B .


EJEMPLOS:
1. Si consideramos en R3 y R2 sus estructuras habituales de R − e.v. y la
función lineal f : R3 → R2 determinada por

f (1, 0, 0) = (1, 2), f (0, 1, 0) = (0, 1) y f (0, 0, 1) = (3, 2),
Álgebra 177

resulta que, siendo


B3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, B2 = {(1, 0), (0, 1)},
µ ¶
B3 1 0 √3
MB2 (f ) = .
2 1 2
Por otra parte, si consideramos la base de R3
B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}
(verifíquese que efectivamente es una base), tendremos que, puesto que
f es lineal,
f (1, 1, 1) = f ((1, 0, 0) + (0, 1, 0) + (0, 0, 1)) =
= f (1, 0, 0) + f (0, 1, 0) + f (0, 0, 1)) =
√ √
= (1, 2) + (0, 1) + (3, 2) = (4, 3 + 2),
y de forma análoga

f (0, 1, 1) = (3, 1 + 2),
con lo que µ ¶
4√ 3√ √3
MBB2 (f ) = .
3+ 2 1+ 2 2
2. Es evidente que siendo Bn la base canónica de Kn ,
MBBnn (IdKn ) = In ∈ Mn (K).
En general, si B = {u1 , ...., un } es una base cualquiera de un
K − e.v. E,
MBB (IdE ) = In ∈ Mn (K).
Sin embargo, siendo B 6= B 0 ,
0
MBB (IdE ) 6= In .
Así por ejemplo, siendo
B 0 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)},
resulta  
1 0 0
0
MBBn (IdKn ) =  1 1 0  .
1 1 1
178 Álgebra

3. Si consideramos la función proyección i − ésima,

pi : Kn −→ K
,
(x1 , ..., xn ) ; xi

siendo Bn y B1 las bases canónicas de, respectivamente, Kn y K, se


verica que

MBB1n (pi ) = ( 0 · · · 0 1(i) 0 · · · 0 ).

4. Si en el C − e.v.

P3 (C) = {f ∈ C[x] | gr(f ) ≤ 3 },

consideramos la base usual

B = {1, x, x2 , x3 }

y la función lineal f : P3 (C) → P3 (C) tal que

f (1) = x + 3x2 ,
f (x) = 2 + x,
f (x2 ) = −3 + x3
f (x3 ) = 1 + x3 ,

resulta que  
0 2 −3 1
 1 1 0 0 
MBB (f ) = 
 3
.
0 0 0 
0 0 1 1

3.5.4 Algoritmo para hallar una base del núcleo y de la


imagen
Dada una función lineal f : E → E0 entre dos K-espacios vectoriales de
dimensiones nitas n y m, queremos hallar una base del núcleo y una
base de la imagen de f .
Fijadas dos bases B = {u1 , · · · , un } y B 0 de E y E0 , respectivamente, sea
MBB0 (f ) la relativa matriz asociada a f. Nuestro método consiste en el aplicar
Álgebra 179
³ M B (f ) ´
el método de Gauss a la matriz B0
In
hasta obtener una matriz de la forma
¡A¢
P
, donde A es la forma gaussiana de la matriz MBB0 (f ). Las columnas de
la matriz MBB0 (f ) son las coordenadas de los vectores {f (u1 ), · · · , f (un )}
respecto de la base B 0 y las columnas de la matriz In son las coordenadas
de los
P vectores {u1 , · · · , un } respecto
P de la basePB. Ya que f es lineal, si
v = ki=1 αi ui , entonces f (v) = f ( ki=1 αi ui ) = ki=1 αi f (ui ). Se sigue que,
al aplicar ³el método
´ de Gauss sin intercambiar el orden de las columnas a
B (f )
MB
la matriz In
0
, las nuevas columnas obtenidas son todavía de la forma
³ ´
(f (v))B 0
(v)B
(las transformaciones elementales usadas son lineales). Así que las
columnas de P que aparezcan bajo las columnas nulas de A constituyen una
base del núcleo de f y las columna no nulas de A constituyen una base de la
imagen de f .

Ejemplo 3.5.5 Sea f : R3 → R2 denida por f (x, y, z) = (x + 2y − 3z, x −


2y + z). Sean B y B 0 las bases canónicas de R3 y R3 . Entonces
   
 1 2 −3   1 0 0 
µ ¶   c2 = c2 − 2c1  
MBB0 (f )  1 −2 1   1 −4 4 
=
 1 0 0
 c3 = c3 + 3c1




In   →  1 −2 3 

 0 1 0   0 1 0 
0 0 1 0 0 1
 
 1 0 0 
 
c3 = c3 + c2 

1 −4 0 

→  1 −2 1 
 
 0 1 1 
0 0 1
y {(1, 1), (0, −4)} es una base de Im(f ) y {(1, 1, 1)} es una base de Ker(f ).

3.5.5 Matriz asociada a la composición de funciones li-


neales
En esta sección vamos a determinar la matriz asociada a una función h = g◦f
que es la compuesta de dos funciones lineales f y g a partir de las matrices
asociadas a f y a g.
180 Álgebra

Utilizaremos los siguientes resultados para determinar fácilmente la nueva


matriz que queda asociada a una función lineal si cambiamos las bases de su
dominio y codominio.

Lema 3.5.6 Sean A, B ∈ Mm×n (K). En estas condiciones


1. (A = (0) ∈ Mm×n (K)) ⇔ (∀X ∈ Mn×1 (K), A · X = (0) ∈ Mm×1 (K)) ;
2. A = B ⇔ (∀X ∈ Mn×1 (K), A · X = B · X) .

Demostración 1.  ⇒ Es evidente.
1.  ⇐ Siendo Bc = {e1 , ..., en } la base canónica de Mn×1 (K), que em-
pleando la notación habitual de matrices se escribiría
     
1 0 0
 0   1   0 
     
{e1 , ..., en } = { ..  ,  ..  , ...,  .. },
 .   .   . 
0 0 1

resulta que, por hipótesis, ∀i ∈ {1, ..., n}, A · ei = (0) ∈ Mm×1 (K), pero por
otra parte, ∀j ∈ {1, ..., m}
n
X
(A · ei )(j, 1) = (A(j, k) · ei (k, 1)) = A(j, i),
k=1

es decir, A · ei = Ai (i.e., la columna i − ésima de la matriz A), y puesto que

∀i ∈ {1, ..., n} A · ei = (0) = Ai ,


resulta que A = (0).
2. A = B ⇔ A − B = (0) ⇔ ∀X ∈ Mn×1 (K) (A − B) · X = (0) ⇔
∀X ∈ Mn×1 (K) A · X = B · X. 2

Proposición 3.5.7 Si E, E0 y E00 son K − e.v. de dimensión nita, B , B 0


y B 00 son bases de E, E0 y E00 respectivamente, y f : E → E0 y g : E0 → E00
son funciones lineales, entonces se verica que
0
MBB00 (g ◦ f ) = MBB00 (g) · MBB0 (f ),
donde  · es el producto usual de matrices.
Álgebra 181

Las hipótesis de la proposición se pueden representar por medio de la


siguiente tabla, donde se supone que

dim(E) = n, dim(E 0 ) = m, dim(E 00 ) = p.


g◦f
−→
% &
f g
EB −→ EB0 0 −→ EB00 00

(·)B l (·)B 0 l (·)B 00 l

Mn×1 (K) −→ Mm×1 (K) −→


0
Mp×1 (K)
B (f )
MB B (g)
0 MB 00

& %
B (g◦f )
MB 00
−→

La conclusión es que
0
MBB00 (g ◦ f ) = MBB00 (g) · MBB0 (f ).

Demostración Supongamos que dim(E) = n. Puesto que la función (·)B :


E → Mn×1 (K) es un isomorsmo, ∀X ∈ Mn×1 (K) ∃u ∈ E tal que X = (u)B .
Por otra parte, ∀u ∈ E,
³ 0
´ 0 ¡ ¢
MBB00 (g) · MBB0 (f ) · (u)B = MBB00 (g) · MBB0 (f ) · (u)B =
0
= MBB00 (g) · (f (u))B 0 = (g(f (u)))B 00 =
= ((g ◦ f )(u))B 00 .

Además
MBB00 (g ◦ f ) · (u)B = ((g ◦ f )(u))B 00 ,
es decir, ∀u ∈ E,
³ 0
´
MBB00 (g) · MBB0 (f ) · (u)B = MBB00 (g ◦ f ) · (u)B ,

o lo que es lo mismo, ∀X ∈ Mn×1 (K),


³ 0
´
B B
MB 00 (g) · MB 0 (f ) · X = MBB00 (g ◦ f ) · X,
182 Álgebra

con lo que, por el lema anterior,


³ 0
´
MBB00 (g) · MBB0 (f ) = MBB00 (g ◦ f ).

Ejemplo 3.5.8 Si consideramos en R3 y R2 sus estructuras habituales de


R − e.v. y las funciones lineales f : R3 → R2 y g : R2 → R2 tales que
µ ¶
B3 0 1 2
MB2 (f ) =
2 1 1
y µ ¶
−1 0
MBB22 (g) = ,
0 −1
resulta que
µ ¶ µ ¶
−1 0 0 1 2
MBB23 (g ◦ f) = MBB22 (g)= · MBB23 (f ) · =
0 −1 2 1 1
µ ¶
0 −1 −2
= .
−2 −1 −1

Observación 43 Es importante observar, tanto en la proposición como en


el ejemplo anterior, el orden en el que se multiplican las matrices y la coin-
cidencia de la bases que aparecen en la expresión

MBB22 (g) · MBB23 (f )

según la dirección Noroeste-Sureste.

Observación 44 La representación de una función lineal entre espacios vec-


toriales de dimensión nita mediante un producto de matrices así como la
proposición (3.5.7), justican la denición dada en el capítulo 1 del producto
de matrices.
Álgebra 183

3.5.6 Matrices semejantes y cambios de base


Dado un K − e.v. E de dimensión  n, teniendo en cuenta que la función
IdE : E → E es lineal, resulta que, siendo B y B 0 bases de E, tendremos que
∀u ∈ E,
(u)B 0 = MBB0 (IdE ) · (u)B ,
es decir, podemos obtener mediante un producto de matrices las coorde-
nadas de cualquier vector respecto de la base B 0 , sin más que conocer sus
coordenadas respecto de la base B y la matriz de transición de B a B 0
MBB0 (IdE ).
Es más, teniendo en cuenta que
0
MBB (IdE ) = In = MBB0 (IdE ),

y que, como consecuencia de la proposición (3.5.7),


0
In = MBB (IdE ) = MBB (IdE ◦ IdE ) = MBB (IdE ) · MBB0 (IdE )
0 0 0
In = MBB0 (IdE ) = MBB0 (IdE ◦ IdE ) = MBB0 (IdE ) · MBB (IdE ),
0
obtenemos en denitiva que la matriz MBB (IdE ) es invertible y que además
³ 0
´−1
MBB (IdE ) = MBB0 (IdE ).

En consecuencia,
si E es un K − e.v. de dimensión  n y A ∈ Mn (K) es tal que

A = MBB0 (IdE ),

entonces la matriz A es invertible, y además


0
A−1 = MBB (IdE ).

Otra de las aplicaciones de la proposición (3.5.7) consiste en que nos


aporta un método para obtener la matriz MBB0 (f ) de una función lineal f :
E → E0 respecto de otras bases (tanto de E como de E0 ). Así, por ejemplo,
184 Álgebra

si B1 es otra base de E, considerando la función lineal IdE : E → E, resulta


que
MBB01 (f ) = MBB01 (f ◦ IdE ) = MBB0 (f ) · MBB1 (IdE ), (3.2)

y si B 00 es otra base de E0 , considerando la función lineal IdE0 : E0 → E0 ,


resultará que
0
MBB00 (f ) = MBB00 (IdE0 ◦ f ) = MBB00 (IdE0 ) · MBB0 (f ). (3.3)
0
En particular, sean B y B dos bases del mismo K − e.v. E de dimensión
0
nita n y f : E → E una función lineal. Sean MBB (f ) y MBB0 (f ) las matrices
asociadas a f respecto de las bases B y B 0 .
Utilizando las ecuaciones (3.2), (3.3) y la proposición (3.5.7), se obtiene que
0 0 0
MBB0 (f ) = MBB0 (f ◦ IdE ) = MBB0 (f )MBB (IdE ) =
0 0
= MBB0 (IdE ◦ f )MBB (IdE ) = MBB0 (IdE )MBB (f )MBB (IdE ).

Entonces,
0 0 0
MBB0 (f ) = (MBB (IdE ))−1 MBB (f )MBB (IdE ). (3.4)

Esta última ecuación justica la siguiente denición:

Denición 3.5.9 Sean A, B ∈ Mn (K). Se dice que A y B son semejantes


si existe una matriz invertible P ∈ Mn (K) tal que B = P −1 AP.

Observación 45 La relación de semejanza sobre Mn (K) es una relación de


equivalencia.

Ejercicio 3.5.2 Si consideramos en R3 y R2 sus estructuras habituales de


R − e.v. y la función lineal f : R3 → R2 tal que
µ ¶
B3 0 1 2
MB2 (f ) = ,
2 1 1

siendo

B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}, y B 0 = {(1, 1), (0, 1)},

obtener las matrices MBB2 (f ), MBB03 (f ) y MBB0 (f ).


Álgebra 185

Ejemplo 3.5.10 Si consideramos en R2 su estructura habitual de R − e.v.


y las bases B2 (la base canónica) y B = {(0, 2), (1, 1)}, resulta que
µ ¶
B 0 1
MB2 (IdR2 ) = ;
2 1

por otra parte, para hallar MBB2 (IdR2 ) , podemos, o bien calcular por cual-
quier método que se conozca la matriz inversa de MBB2 (IdR2 ), o bien, tener
en cuenta que los vectores columna de MBB2 (IdR2 ) son las coordenadas de
los vectores de la base canónica respecto de B. Si resolvemos el sistema de
ecuaciones en α, β, γ y δ que se obtiene al escribir

(1, 0) = α(0, 2) + β(1, 1) y (0, 1) = γ(0, 2) + δ(1, 1),

llegamos a que
µ ¶ µ ¶
α γ − 12 12
= = MBB2 (IdR2 ).
β δ 1 0

3.5.7 Ecuaciones paramétricas e implícitas de un sub-


espacio vectorial
En esta sección se denen y se muestra como hallar las ecuaciones paramé-
tricas e implícitas de un subespacio cualquiera de un espacio vectorial de
dimensión nita.
En el capítulo 5 veremos como estas ecuaciones se utilizan en el contexto
de los códigos lineales.
En el capítulo 2 vimos que una recta r y un plano π por (0, 0, 0) son
subespacios de R3 .
Sus ecuaciones paramétricas son:


x = λa
r : y = λb λ ∈ R,


z = λc
donde el vector u = (a, b, c), paralelo a r, es una base de r.
Notar que R = Rdim(r) y que la función

g : R −→ R3 ,
186 Álgebra

denida por
g(λ) = (λa, λb, λc),
es lineal, inyectiva y
r = Im(g).
Se sigue que g : R −→ r es un isomorsmo.
Para el plano π las ecuaciones paramétricas son


x = λu1 + µv1
π : y = λu2 + µv2 λ, µ ∈ R,


z = λu3 + µv3

donde los vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ), linealmente indepen-


dientes, forman una base de π.
Notar que, en este caso, R2 = Rdim(π) y que la función

g : R2 −→ R3 ,

denida por
g(λ, µ) = λu + µv,
es lineal, inyectiva y
π = Im(g).
Se sigue que g : R2 −→ π es un isomorsmo.

En general, sean E un K − e.v. tal que dim(E) = n y H ≺ E, H 6= {0},


de manera que dim(H) = r > 0. Según hemos visto, los espacios Kr y H son
isomorfos. Si g : Kr → H es un isomorsmo y u ∈ E, tendremos que

u ∈ H ⇔ u ∈ Im(g) ⇔ ∃(α1 , ..., αr ) ∈ Kr tal que u = f (α1 , ..., αr ).

Siendo B una base cualquiera de E y Br la base canónica de Kr , tendremos


que  
α1
 
u = g(α1 , ..., αr ) ⇔ (u)B = (g(α1 , ..., αr ))B = MBBr (g) ·  ... 
αr
es decir,
Álgebra 187
 
α1
 
u ∈ H ⇔ ∃(α1 , ..., αr ) ∈ Kr ..(u)B = MBBr (f ) ·  ...  .
αr

A la expresión
 
α1
 
(u)B = MBBr (f ) ·  ... 
αr
la denominaremos ecuaciones paramétricas de H respecto de la base B .

Ejemplo 3.5.11 Consideramos el espacio R3 con su base canónica B3 y


sea H el subespacio generado por el sistema {(1, 1, 0), (1, 2, 1)}. Teniendo en
cuenta que este sistema es libre, resulta que dicho sistema es una base de
H y que H es un plano por (0, 0, 0). Dado entonces (x, y, z) ∈ R3 , resulta
que (x, y, z) ∈ H si y solo si ∃(α, β) ∈ R2 tal que (x, y, z) = α(1, 1, 0) +
β(1, 2, 1), es decir, (x, y, z) = (α +β, α 
+ 2β, β). Si g  : R2 → H es el
1 1
isomorsmo denido por g(1, 0) =  1  y g(0, 1) =  2  , entonces
  0 1
1 1
B2
MB3 (g) =  1 2 .
0 1
   
1 1
Teniendo en cuenta que ((1, 1, 0))B3 =  
1 , ((1, 2, 1))B3 =  2 ,
0 1
las ecuaciones paramétricas de H respecto de la base B3 se escribirían:
 
1 1 µ ¶
α
(u)B3 =  1 2  ·
β
0 1
 
x
o, en forma de sistema de ecuaciones, siendo  y  las coordenadas respecto
z
de B3 de un vector genérico de H ,
188 Álgebra

 x=α+β
y = α + 2β .

z=β

Volviendo al caso de una recta r y un plano π por (0, 0, 0) en R3 , vimos


que sus ecuaciones implícitas son
(
h1 (x, y, z) = a1 x + b1 y + c1 z + d1 = 0
r:
h2 (x, y, z) = a2 x + b2 y + c2 z + d2 = 0

y
π : h(x, y, z) = ax + by + cz + d = 0.
En el caso de la recta r, si denimos la función h : R3 −→ R2 como
h(x, y, z) = (h1 (x, y, z), h2 (x, y, z)), resulta que

r = {(x, y, z) : h(x, y, z) = 0} = Ker(h).

Notar que el codominio de h es R2 = R3−dim(r) .


Para el plano π, se puede denir la función h : R3 −→ R como h(x, y, z) =
ax + by + cz + d y resulta que

π = {(x, y, z) : h(x, y, z) = 0} = Ker(h).

Notar que el codominio de h es, en este caso, R = R3−dim(π) .


El caso general es el contenido de la siguiente proposición.

Proposición 3.5.12 Sean E un K − e.v. tal que dim(E) = n y H ≺ E,


H 6= {0}, H 6= E, de manera que 0 < dim(H) = r < n. En estas condiciones
existe una función lineal h : E −→ Kn−r tal que H = ker(h).

Demostración Sea {u1 , ..., ur } ⊆ H una base de H. Por el teorema de


extensión de una base, ∃{ur+1 , ..., un } ⊆ E tal que {u1 , ..., un } es una base
de E. Siendo {e1 , ..., en−r } la base canónica de Kn−r consideramos la función
lineal h : E →Kn−r determinada ½ por las condiciones:
0 si i ≤ r
∀i ∈ {1, ..., n}, h(ui ) = . Evidentemente H ⊆ Ker(h), y
ei−r si i > r
puesto que el conjunto {e1 , ..., en−r } ⊆ Im(h), resulta que dim(Im(h)) = n−
r, con lo que, teniendo en cuenta que dim(E) = n, resulta que dim(Ker(h)) =
Álgebra 189

r = dim(H), es decir, H = Ker(h). 2

Vista la proposición anterior, si B = {u1 , ..., un } es una base de E y


h : E →Kn−r es una función lineal tal que Ker(h) = H, siendo Bn−r la base
canónica de Kn−r resulta que

u ∈ H ⇔ h(u) = 0 ⇔ MBBn−r (h) · (u)B = (0)

en denitiva,

u ∈ H ⇔ MBBn−r (h) · (u)B = (0)

A la expresión
MBBn−r (h) · (u)B = (0)
(o a su versión equivalente como sistema homogéneo de ecuaciones) la deno-
minaremos ecuaciones implícitas de H respecto de B.

Ejemplo 3.5.13 Sea H el subespacio de R3 del ejemplo anterior, i.e., el


subespacio generado por el sistema {(1, 1, 0), (1, 2, 1)}. Teniendo en cuenta
que este sistema es libre, resulta que dicho sistema es una base de H y que
H es un plano. Extendiendo este sistema con el vector (0, 1, 0), resulta que

B = {(1, 1, 0), (1, 2, 1), (0, 1, 0)}

es un sistema libre (verifíquese) y en consecuencia es una base de R3 . Si ahora


consideramos la función lineal h : R3 →R, determinada por las condiciones
h(1, 1, 0) = 0, h(1, 2, 1) = 0 y h(0, 1, 0) = 1, resulta que H = Ker(h), y
en consecuencia, siendo B1 la base canónica de R, u ∈ H ⇔ h(u) = 0 ⇔
MBB1 (h) · (u)B = (0), es decir, las ecuaciones implícitas de H respecto
  de
¡ ¢ x
B son 0 0 1 · (u)B = (0), o lo que es lo mismo, siendo  y  las
  z
¡ ¢ x
coordenadas de un vector genérico de H, 0 0 1 ·  y  = (0), que
z
escritas en forma de sistema de ecuaciones se reducen a z = 0.
190 Álgebra

Si ahora quisiéramos obtener las ecuaciones implícitas de H respecto de


otra base, por ejemplo la base canónica de R3 , B3 , es suciente con cambiar
la matriz considerada, es decir, las ecuaciones implícitas de H respecto de B3
son MBB13 (h) · (u)B = (0) y, puesto que MBB13 (h) = MBB1 (h) · MBB3 (Id), teniendo
 −1  
¡ ¢−1 1 1 0 1 0 −1
en cuenta que MBB3 (Id) = MBB3 (Id) =  1 2 1  =  0 0 1 ,
0 1 0 −1 1 −1
resulta que las ecuaciones implícitas de H respecto de B3 son
   
¡ ¢ 1 0 −1 x
0 0 1 ·  0 0 1  ·  y  = (0),
−1 1 −1 z

es decir, −x + y − z = 0.

3.6 Ejercicios
3.6.1 Ejercicios resueltos
1. Razonar si las siguientes funciones son o no lineales (en cada uno de
los conjuntos considerados se considera su estructura habitual de espacio
vectorial):

a) f : R3 → R b) f : R3 → R
(x, y, z) Ã x + 2y − 3z (x, y, z) Ã xyz

c) f : R2 → R
(x, y) Ã x2 + y

2. Dada la función lineal f : R2 → R3 determinada por las condiciones

f (1, 0) = (3, 4, 1), f (0, 1) = (−1, 0, 1),

determinar f (3, 1) y f (2, −1).

3. Determinar si la función T : M2 (R) → R, donde


Álgebra 191
µ ¶
a b
a) T = 3a − 4b + c − d
µ c d ¶
a b
b) T = a 2 + b2
c d
es una transformación lineal.

4. Sea T : R2 → R2 el operador lineal denido por la expresión T (x, y) =


(2x − y, −8x + 4y). ¾Cuáles de los siguientes vectores están en R(T )?
a) (1,-4) b) (5,0) c) (-3,12)

T (x, y) = (2x − y, −4(2x − 4)).

5. Sea T : P2 → P3 la transformación lineal denida por T (p(x)) = xp(x).


¾Cuáles de los siguientes vectores están en Ker(T )?
a) x3 b) 0 c)1 + x

6. En cada inciso, usando la información proporcionada obtener la nu-


lidad de T.
a) T : R5 → R7 tiene rango 3.
b) T : P4 → P3 tiene rango 1.
c) T (R6 ) = R3 .
d) T : M2 (R) → M2 (R) tiene rango 3.

7. Sea T : R2 → R2 la proyección ortogonal sobre la recta y=x.


a) Encontrar el núcleo de T.
b) ¾Es T uno a uno? Justicar la conclusión.

8. En cada inciso, usando la información dada determinar si (la función


lineal) T es uno a uno.
a) T : Rn → Rm ; nulidad(T) =0.
b) T : Rn → Rn ; rango(T) = n-1.
c) T : Rm → Rn ; n<m.
d) T : Rn → Rn ; R(T) = Rn .

9. Sea T : P2 → P1 la transformación lineal denida por


T (a0 + a1 x + a2 x2 ) = (a0 + a1 ) − (2a1 + 3a2 )x.
a) Encontrar la matriz para T con respecto a las bases B2 = {1,x,x2 } y
B1 = {1,x} para P2 y P1 .
b) Comprobar que la matriz (T)B2 ,B1 = MBB21 (T ) obtenida en el inciso a)
satisface la fórmula : A(p(x))B2 = (T(p(x)))B2 .
192 Álgebra

10. Sea T1 : P1 → P2 la transformación lineal denida por

T1 (c0 + c1 x) = 2c0 − 3c1 x

y sea T2 : P2 → P3 la transformación lineal denida por


T2 (c0 + c1 x + c2 x2 ) = 3x(c0 + c1 x + c2 x2 ).
Sean B1 = {1,x}, B2 = {1,x,x2 } y B3 = {1,x,x2 ,x3 }.
a) Encontrar MBB31 (T2 ◦ T1 ), MBB32 (T2 ), MBB21 (T1 ).
b) Escribir una fórmula que relacione las matrices del inciso a).
c) Comprobar que las matrices del inciso a) satisfacen la fórmula plan-
teada en el inciso b).

11. Sean A y B matrices semejantes. Demostrar lo siguiente:


a) At y Bt son semejantes.
b) Si A y B son invertibles, entonces A−1 y B−1 son semejantes.

12.(Teorema alternativo de Fredholm) Sea T : V → V un operador


lineal sobre un espacio vectorial n dimensional. Demostrar que se cumple
exactamente una de las siguientes proposiciones:
i) La ecuación T(x) =b tiene una solución para todo los vectores b en
V.
ii) Nulidad de T > 0.

13. Sea la función lineal f : R4 → R3 determinada por las condiciones

f (1, 1, 1, 1) = (0, 0, 1), f (1, 0, 1, 0) = (1, 1, −1),


f (1, 1, 1, 0) = (0, 0, −1), f (−1, −2, 0, 0) = (1, 1, 1).

a) Hallar la matriz asociada a f respecto de las bases canónicas de R4 y


R3 .
b) La dimensión y las ecuaciones de Ker(f ) e Im(f ) respecto de las bases
canónicas de R4 y R3 .

14. Sea E un espacio vectorial de dimensión 3 y B = {e1 , e2 , e3 } una base


de E. Consideramos la función lineal f : E → E tal que su matriz asociada
sea  
15 −11 5
MBB (f ) =  20 −15 8  .
8 −7 6
Álgebra 193

Hallar la matriz asociada a f respecto de la base B 0 = {u1 , u2 , u3 }, donde


u1 = 2e1 + 3e2 + e3 ,
u2 = 3e1 + 4e2 + e3 ,
u3 = e1 + 2e2 + 2e3 .

15. Hallar una base del núcleo y una base de la imagen de la siguiente
función lineal:
f : R4 → R3 determinada por las condiciones:
f (1, 0, 0, 0) = (1, 0, 1), f (0, 1, 0, 0) = (2, 1, −1),
f (0, 0, 1, 0) = (3, 0, −1), f (0, 0, 0, 1) = (1, 1, 1).

16. En R2 se considera la base B 0 = {u1 , u2 }, donde


u1 = 2e1 + 3e2 ,
u2 = 3e1 + 4e2 ,
y B2 = {e1 , e2 } = {(1, 0), (0, 1)}. Siendo la función lineal f : R2 → R2 tal
que su matriz asociada respecto de B 0 es
µ ¶
B0 3 15
MB 0 (f ) = ,
2 10
hallar una base de Ker(f ) y una base de Im(f ).

3.6.2 Ejercicios propuestos


1. Razona si las siguientes funciones son o no lineales (en cada uno de los
conjuntos considerados se considera su estructura habitual de espacio
vectorial):
f: R3 −→ R
(x, y, z) 7→ 2x + 1
g: R3 −→ R2
(x, y, z) 7→ (x − y, y 2 )
h: R4 −→ R2
(x, y, z, t) 7→ (2x − 3y + t, z − t)
194 Álgebra

2. Prueba que para toda aplicación R-lineal f : R −→ R existe un número


real a tal que f (x) = ax, ∀x ∈ R.

3. Prueba que dado un Kespacio vectorial E , una aplicación lineal

f : E −→ K

no nula es sobreyectiva.

4. Sea D((a, b), R) el conjunto de funciones derivables reales de variable


real denidas en el intervalo (a, b) ⊂ R.

(a) Demuestra que D((a, b), R) es un subespacio vectorial de F((a, b), R).
(b) Prueba que la aplicación derivada

D : D((a, b), R) −→ F ((a, b), R)


f 7→ D(f ) = f 0

es una aplicación lineal.


(c) ¾Cuál es el núcleo de dicha aplicación?

5. Sea C([a, b], R) el espacio vectorial de funciones reales continuas deni-


das en el intervalo [a, b] ⊂ R. Prueba que la aplicación integral denida

I : C([a, b], R) −→ R
Rb
f 7→ I(f ) = a f (x)dx

es una aplicación lineal.

6. Considera el espacio vectorial P3 (R) de polinomios de grado menor o


igual que 3 y las bases:

B3 = {1, x, x2 , x3 } y B = {1, (x − 1), (x − 1)2 , (x − 1)3 }.

Calcula las matrices de cambio de base: MBB3 (IdP3 (R) ) y MBB3 (IdP3 (R) ).
Halla las coordenadas respecto de B de los polinomios:

2x + 4x2 + x3 , 1 + x3 , 2 + 2x, 2 + x2 − x3 .
Álgebra 195

7. Sea B3 = {e1 , e2 , e3 } la base canónica de R3 . Sea f la única aplicación


lineal de R3 en R4 vericando:

f (e1 ) = (2, 0, −1, 0)


f (e2 ) = (1, 3, −2, 3)
f (e3 ) = (1, 1, −1, 1)

(i) Halla f (x, y, z) para (x, y, z) ∈ R3 .


(ii) Calcula una base de Ker(f ).
(iii) Calcula una base de Im(f ).

8. Considera la aplicación lineal denida por:

3
f : R3 −→ R3 , f (x, y, z) = (x + 2y − 2z, x + 4y − 3z, x + 3y − 2z)
2
Calcula las ecuaciones implícitas de Im(f ). ¾Qué dimensión tiene
Ker(f )?

9. Estudia la inyectividad, sobreyectividad y biyectividad de las aplica-


ciones lineales:

f: R3 −→ R3
(x, y, z) 7→ (2x + y − z, 3x + 2y − 4z, x + 2y − z)

g: R4 −→ R3
(x, y, z, t) 7→ (2y − 3z − 3t, −x + 2z + 4t, −2x + y + z)

h : R2 −→ R4 denida por
e1 7→ h(e1 ) = (2, −1, 0, 3)
e2 7→ h(e2 ) = (1, 0, −1, −7)

10. Siendo f , g y h las aplicaciones lineales del ejercicio anterior, responde


a las siguientes preguntas:

• ¾Pertenecen (3, −1, 0) y (2, 0, −1) a Im(f )?


• ¾Pertenecen (2, −7, 11, 3) y (14, 15, 13, −3) a Ker(g)?
• ¾Pertenecen (1, −1, 1, 10) y (1, 2, −5, −3) a Im(h)?
196 Álgebra

11. Sea f la aplicación lineal de R3 a R3 cuya matriz respecto de la base


canónica B3 = {e1 , e2 , e3 } es:
 
−3 5 0
MBB33 (f ) =  2 4 2
5 −2 5

Sea B = {v1 = (2, 2, −2), v2 = (0, 1, 2), v3 = (1, 2, 2)}.

- Comprueba que B es una base de R3 .


- Calcula las matrices MBB3 (IdR3 ), MBB3 (IdR3 ) y MBB (f )

12. Para cada n ∈ N, sea Pn (R) el espacio vectorial de polinomios en una


variable de grado menor o igual que n con coecientes en R. Sea Bn =
{1, x, . . . , xn } la base canónica de dicho espacio. Sea Dn la restricción
de la aplicación derivada D a Pn (R):

Dn : Pn (R) −→ Pn−1 (R)


p 7→ D(p) = p0

Para n = 3, calcula la matriz de la aplicación D3 respecto a las bases


B3 y B2 . ¾Cuál será la forma general de la matriz de Dn respecto a las
bases Bn y Bn−1 ?
Capítulo 4
Espacios vectoriales euclídeos

En el capítulo 2 hemos recordado la denición de producto escalar de vectores


en R2 y R3 y hemos denido el producto escalar de vectores de Rn . La
longitud de un vector y la√distancia entre dos vectoresp quedaban denidas
por las expresiones kuk = u · u y d(u, v) = ku − vk = (u − v) · (u − v).
Hay situaciones en las que es necesario utilizar otras distancias entre ob-
jetos, por ejemplo, cuando se pretende obtener la mejor aproximación de
una función por medio de funciones que pertenecen a un subespacio vec-
torial determinado. Esto puede conseguirse deniendo un producto escalar
adecuado.
A lo largo del capítulo consideraremos sólo espacios vectoriales sobre R.
La teoría para espacios vectoriales euclídeos complejos es una generalización
de la aquí presentada para espacios reales.

4.1 Producto escalar


Denición 4.1.1 Si E es un R − e.v. se dice que una función
<, >: E × E −→ R
(u, v) Ã < u, v >
es un producto escalar real (o producto interior real) si:
(p.e. 1) ∀u, v, w ∈ E < u + v, w >=< u, w > + < v, w > .
(p.e. 2) ∀u, v ∈ E ∀α ∈ R < αu, v >= α < u, v > .
(p.e. 3) ∀u, v ∈ E < u, v >=< v, u > .
(p.e. 4) ∀u ∈ E < u, u >≥ 0 y < u, u >= 0 ⇔ u = 0.

197
198 Álgebra

Si <, >: E × E −→ R es un producto escalar, al par (E, <, >) le


denominaremos espacio vectorial euclídeo (e.v.e.).

Ejemplo 4.1.2 En R2 la función


<, >: R2 × R2 −→ R

denida para cada par de vectores (x, y),(x0 , y 0 ) ∈ R2 mediante la expresión

h(x1 , x2 ), (y1 , y2 )i = x1 y1 + x2 y2

es un producto escalar. Como vimos, este producto escalar es el producto


escalar usual de R2 .

Ejemplo 4.1.3 En general en el R − e.v. Rn la función


<, >: Rn × Rn −→ R

denida para cada par de vectores

(x1 , ..., xn ), (y1 , ..., yn ) ∈ Rn

mediante la expresión
n
X
h(x1 , ..., xn ), (y1 , ..., yn )i = x1 y1 + ... + xn yn = xi y i
i=1

es un producto escalar (verifíquese). Este producto escalar es el producto


escalar usual de Rn .

Ejemplo 4.1.4 En el R − e.v. de los polinomios con coecientes reales R[x]


consideraremos los productos escalares siguientes (verifíquese):

<, >1 : R[x] × R[x] −→ R


R1
(p(x), q(x)) Ã p(x) · q(x)dx,
−1

<, >0 : R[x] × R[x] −→ R


P
min{n,m}
(p(x), q(x)) Ã ai bi ,
i=0

donde p(x) = an xn + ... + a1 x + a0 y q(x) = bm xm + ... + b1 x + b0 .


Álgebra 199

Es importante señalar que en el ejemplo anterior, los espacios vectoriales


euclídeos (R[x], <, >0 ) y (R[x], <, >1 ), aún teniendo el mismo conjunto base,
son distintos. Por ejemplo,

Z1
< 3, x2 >1 = 3x2 dx = 2 y < 3, x2 >0 = 3 · 0 = 0.
−1

Observación 46 Nótese que si (E, <, >) es un e.v.e., a partir de las pro-
piedades del producto escalar se verica que

∀u, v, w ∈ E < u, w + v >=< w + v, u >=


=< w, u > + < w, v >=< u, w > + < v, w >
y
∀u, v ∈ E ∀α ∈ R < u, αv >=< αv, u >= α < v, u >= α < u, v > .

Además, si α1 , ..., αn ∈ R y u1 , ..., un , v ∈ E,


n
X
hα1 u1 + ... + αn un , vi = α1 < u1 , v > +... + αn < un , v >= αi < ui , v > .
i=1

Ejercicio 4.1.1 Demostrar que si (E, <, >) es un e.v.e., α1 , ..., αn , β1 , ..., βm ∈
R y u1 , ..., un , v1 , ..., vm ∈ E, entonces

hα1 u1 + ... + αn un , β1 v1 + ... + βm vm i =


= α1 β1 < u1 , v1 > +... + α1 βm < u1 , vm > +
+α2 β1 < u2 , v1 > +... + αn βm < un , vm >=
Pn P m
= αi βj < ui , vj > .
i=1 j=1

Se sigue que un producto escalar es lineal en la primera y segunda va-


riables, es decir, es una función bilineal. Además, por valer las propiedades
(p.e. 3) y (p.e. 4), se dice que <, > es una función bilineal, simétrica y
denida positiva.

Ejercicio 4.1.2 Sea E un R − e.v.e. con producto escalar (·, ·) y sea v0


cualquier vector jo de E. Sea f : E → R la función denida por f (u) =
(u, v0 ) ∀u ∈ E. Vericar que f es lineal.
200 Álgebra

4.2 Longitud o norma euclídea de un vector


Siguiendo la línea directriz marcada en la introducción, tomando el concepto
de producto escalar como un concepto primario, vamos a denir a partir de
él las nociones de norma, distancia y ángulo en espacios euclídeos.

Denición 4.2.1 Si (E, <, >) es un e.v. y u ∈ E, una norma (o módulo)


es número real, kuk, tal que
(n. 1) ∀u ∈ E kuk ≥ 0 y kuk = 0 ⇔ u = 0,
(n. 2) ∀u ∈ E ∀k ∈ R kkuk = |k|kuk,
(n. 3) ∀u, v ∈ E ku + vk ≤ kuk + kvk (desigualdad triangular).
Denición 4.2.2 Si (E, <, >) es un e.v.e. y u ∈ E, llamaremos norma
euclídea (o módulo) de u al número real

kuk = < u, u >.
Antes de poder vericar que una norma euclídea verica la denición
general de norma, necesitamos estudiar algunas de sus propiedades.

4.2.1 Propiedades de la norma euclídea


A partir de las propiedades que debe satisfacer la función <, > por ser un
producto escalar, es fácil obtener las propiedades:
(n. 1)∀u ∈ E kuk ≥ 0 y kuk = 0 ⇔< u, u >= 0 ⇔ u = 0.
(n. 2)∀u ∈ E ∀k ∈ R
p p
kkuk = < ku, ku > = k 2 < u, u > = |k| · kuk .
Otras propiedades de la norma euclídea que se pueden obtener fácilmente
a partir de las propiedades del producto escalar son las que aparecen enun-
ciadas en el ejercicio siguiente.

Ejercicio 4.2.1 Sea (E, <, >) un e.v.e.. Demostrar que ∀u, v ∈ E, se veri-
ca que:
¡ ¢
1. ku + vk2 + ku¡ − vk2 = 2 kuk2 + kvk2¢ (ley del paralelogramo)
2. < u, v >= 12 ¡ku + vk2 − kuk2 − kvk
¢
2

3. < u, v >= 14 ku + vk2 − ku − vk2


A las propiedades 2 y 3 se las conoce como identidades de polarización.
Álgebra 201

Además de las propiedades anteriores, vamos a obtener otras propiedades


de la norma que derivan básicamente del siguiente resultado conocido como
desigualdad de Cauchy-Schwarz.
Teorema 4.2.3 Si (E, <, >) es un e.v.e., ∀u, v ∈ E se verica que
|< u, v >| ≤ kuk · kvk .

Además
|< u, v >| = kuk · kvk ⇔ {u, v} es ligado.

Demostración ∀λ ∈ R consideramos el vector u + λv. Por las propiedades


del producto escalar,

∀λ ∈ R < u + λv, u + λv >≥ 0

pero

< u + λv, u + λv >=< u, u > +2λ < u, v > +λ2 < v, v > .

Si denimos a =< v, v >, b =< u, v > y c =< u, u > y consideramos la


función
f: R → R
λ Ã f (λ) = aλ2 + 2bλ + c
según es sabido, el grafo de f es una parábola de R2 y, puesto que si {u, v}
es libre, u + λv 6= 0, ∀λ ∈ R y

∀λ ∈ R < u + λv, u + λv >= aλ2 + 2bλ + c > 0,

tendremos que eso sólo es posible si ∀λ ∈ R la ecuación de segundo grado


anterior no tiene raíces reales, es decir, si su discriminante es negativo:

∆ = 4b2 − 4ac < 0

o, lo que es lo mismo,
b2 − ac < 0,
con lo que ¡ ¢
< u, v >2 − < u, u >< v, v > < 0,
202 Álgebra

es decir,
√ √
|< u, v >| < < u, u > · < v, v > = kuk · kvk .
Además

|< u, v >| = kuk · kvk ⇔ b2 − ac = 0 ⇔


⇔ ∃λ ∈ R tal que < u, u > +2λ < u, v > +λ2 < v, v >= 0
⇔ ∃λ ∈ R tal que < u + λv, u + λv >= 0
⇔ ∃λ ∈ R tal que ku + λvk = 0
⇔ ∃λ ∈ R tal que u + λv = 0
⇔ {u, v} es ligado.

A partir del resultado anterior se obtiene la propiedad (n. 3), la desigual-


dad triangular o desigualdad del triángulo, para norma euclídeas. Por tanto,
una norma euclídea es una norma.

Proposición 4.2.4 Si (E, <, >) es un e.v.e., ∀u, v ∈ E se verica que

ku + vk ≤ kuk + kvk .

Demostración

ku + vk2 = < u + v, u + v >=< u, u > +2 < u, v > + < v, v >=


= kuk2 + kvk2 + 2 < u, v >≤ kuk2 + kvk2 + 2 |< u, v >| ≤
≤ kuk2 + kvk2 + 2 kuk · kvk = (kuk + kvk)2 ,

de donde, extrayendo raíces cuadradas

ku + vk ≤ kuk + kvk .

Ejercicio 4.2.2 Determinar las normas euclídeas asociadas a los productos


escalares denidos en los ejemplos anteriores.
Álgebra 203

Ángulo entre dos vectores


A partir del producto escalar, también podemos recuperar el concepto de
ángulo. Si (E, <, >) es un e.v.e. y u, v ∈ E, u 6= 0, v 6= 0, como consecuencia
de la desigualdad de Cauchy-Schwarz y de las propiedades que satisface el
valor absoluto resulta que

< u, v >
−1 ≤ ≤ 1.
kuk · kvk

Denición 4.2.5 Si (E, <, >) es un e.v.e. y u, v ∈ E, u 6= 0, v 6= 0, se


denomina ángulo entre los vectores u y v al número real u
cv ∈ [0, π] tal que

< u, v >
cos(c
uv) = .
kuk · kvk

Denición 4.2.6 Si (E, <, >) es un e.v.e., y u, v ∈ E, se dice que u y v son


ortogonales (o perpendiculares) si

< u, v >= 0.

Ejercicio 4.2.3 Compruébese que si u, v ∈ (E, <, >), u 6= 0, v 6= 0, entonces


π
u
cv = ⇔ u y v son ortogonales.
2
y
{u, v} es ligado ⇔ u
cv = 0 ó u
cv = π.
Para probar esta última parte, téngase en cuenta que, si por ejemplo u cv = 0,
entonces |< u, v >| = kuk · kvk y que, en tal caso, valen las conclusiones del
teorema (4.2.3).

Ejercicio 4.2.4 En el e.v.e. (R3 , <, >), donde <, > es el producto escalar
usual, determinar el ángulo formado por los vectores (1, 0, 1) y (0, 0, 1).

Ejercicio 4.2.5 Determinar el ángulo que forman los vectores 1 + x, x2 ∈


R[x] en los e.v.e. (R[x], <, >1 ) y (R[x], <, >0 ).
204 Álgebra

Distancia euclídea
Finalmente, a partir del producto escalar, también podemos denir la dis-
tancia entre vectores.
Denición 4.2.7 Si (E, <, >) es un e.v.e. y u, v ∈ E se denomina distan-
cia euclídea de u a v y se denota por d(u, v) al número real

d(u, v) = ku − vk = < u − v, u − v >.
A partir de las propiedades vistas de la norma euclídea, es fácil ver que
se satisfacen las propiedades que debe vericar cualquier función distancia,
a saber:
1. ∀x, y ∈ E d(x, y) ≥ 0.
2. ∀x, y ∈ E d(x, y) = 0 ⇔ x = y
3. ∀x, y, z ∈ E d(x, z) ≤ d(x, y) + d(y, z).
Ejercicio 4.2.6 En el e.v.e (R3 , <, >), donde <, > es el producto escalar
usual, determinar la distancia entre los vectores (1, 0, 1) y (0, 1, 1).
Ejercicio 4.2.7 En el e.v.e (R[x], <, >1 ) determinar d(1 + x, x2 ).
Ejercicio 4.2.8 En el e.v.e (R[x], <, >0 ) determinar d(1+x, x2 ). Compárese
el resultado obtenido con el del ejercicio anterior.

4.3 Método de ortogonalización de Gram-Schmidt


Denición 4.3.1 Sean (E, <, >) un e.v.e. y {u1 , ..., ur } un sistema de vec-
tores de E. Se dice que el sistema {u1 , ..., ur } es ortogonal si se verica:
1. ∀i ∈ {1, ..., r} ui 6= 0
2. ∀i, j ∈ {1, ..., r} (i 6= j ⇒< ui , uj >= 0)
Si además de ser un sistema ortogonal, el sistema {u1 , ..., ur } satisface
3. ∀i ∈ {1, ..., r} kui k = 1
se dice que el sistema {u1 , ..., ur } es ortonormal.
Proposición 4.3.2 Sean (E, <, >) un e.v.e. y {u1 , ..., ur } un sistema de
vectores de E \ {0}. Se verica que
{u1 , ..., ur } ortogonal ⇒ {u1 , ..., ur } libre.
Álgebra 205

Demostración Supongamos que


α1 u1 + ... + αr ur = 0.
En ese caso
∀i ∈ {1, ..., r} hα1 u1 + ... + αr ur , ui i =< 0, ui >= 0.
Pero por otra parte, ∀i ∈ {1, ..., r},
hα1 u1 + ... + αr ur , ui i =
= α1 < u1 , ui > +... + αi < ui , ui > +... + αr < ur , ui >=
= αi kui k2 ,
puesto que si j 6= i < uj , ui >= 0. En denitiva,
∀i ∈ {1, ..., r} αi = 0
y en consecuencia {u1 , ..., ur } es libre. 2

Observación 47 Es importante notar que existen sistemas libres que no son


ortogonales, por ejemplo dos vectores que no son ni paralelos, ni perpendicu-
lares.
Denición 4.3.3 Sean (E, <, >) un e.v.e y B = {u1 , ..., un } una base de E.
Se dice que B es una base ortogonal si el sistema {u1 , ..., un } es ortogonal y,
obviamente, se dice que B es una base ortonormal si el sistema {u1 , ..., un }
es ortonormal.
Obviamente si (E, <, >) un e.v.e. tal que dim(E) = n y {u1 , ..., un } es un
sistema ortogonal, necesariamente {u1 , ..., un } es una base ortogonal, siendo
libre como consecuencia de la proposición anterior.

En el siguiente teorema expondremos un método, conocido como método


de ortogonalización de Gram-Schmidt, que nos va a permitir construir un sis-
tema ortogonal a partir de un sistema dado (en particular una base ortogonal
a partir de una base dada).
La idea consiste en, partiendo del primer vector del sistema dado, que
coincidirá con el primer vector del sistema ortogonal obtenido, ir construyen-
do el sistema de manera que cada vector que añadimos sea ortogonal a los
vectores ya construidos.
206 Álgebra

Teorema 4.3.4 Sean (E, <, >) un e.v.e. y {u1 , ..., ur } un sistema libre de
E. En estas condiciones existe un sistema ortogonal {v1 , ..., vr } tal que

∀i ∈ {1, ..., r} L({v1 , ..., vi }) = L({u1 , ..., ui }).

Demostración Razonamos por inducción sobre r : .


Base de inducción: Si r = 1 no hay nada que probar, puesto que si {u1 }
es libre, u1 6= 0 y obviamente (según la denición) {u1 } es ortogonal.
Paso de inducción: Supongamos cierto el resultado para todo sistema
libre de r vectores. Sea {u1 , ..., ur+1 } un sistema libre. En ese caso, puesto
que {u1 , ..., ur } es un sistema de r vectores, podemos aplicar la hipótesis de
inducción, es decir, existe un sistema ortogonal {v1 , ..., vr } tal que

∀i ∈ {1, ..., r} L({v1 , ..., vi }) = L({u1 , ..., ui }).

Veamos cómo construir vr+1 de manera que satisfaga las condiciones reque-
ridas. Puesto que
L({v1 , ..., vr }) = L({u1 , ..., ur }),
buscamos vr+1 ∈ E de manera que

L({v1 , ..., vr , vr+1 }) = L({u1 , ..., ur , ur+1 }).

Resulta que debe suceder que

vr+1 ∈ L({v1 , ..., vr , vr+1 }) = L({u1 , ..., ur , ur+1 }) = L({v1 , ..., vr , ur+1 }).

Pongamos
vr+1 = ur+1 + λ1 v1 + ... + λr vr
y veamos cómo deben ser los coecientes λ1 , ..., λr ∈ R para que se satisfaga
la condición de ortogonalidad, es decir, que

∀i ∈ {1, ..., r} < vr+1 , vi >= 0.

Dado i ∈ {1, ..., r},

< vr+1 , vi >=< ur+1 + λ1 v1 + ... + λr vr , vi >=


= < ur+1 , vi > +λ1 < v1 , vi > +... + λr < vr , vi >=
= < ur+1 , vi > +λi < vi , vi >
Álgebra 207

puesto que el resto de los términos son nulos, al ser ortogonal el sistema
{v1 , ..., vr } .
Imponiendo entonces la condición

< vr+1 , vi >= 0 =< ur+1 , vi > +λi < vi , vi >

resulta que
< ur+1 , vi >
λi = − .
< vi , v i >
qed

Método de ortogonalización de Gram-Schmidt


De la demostración anterior se deduce que, en denitiva, dado el sistema
libre {u1 , ..., ur } , el método de ortogonalización de Gram-Schmidt consiste
en denir el sistema de vectores

v1 = u1
< u 2 , v1 >
v2 = u2 − · v1
< v 1 , v1 >
< u 3 , v1 > < u3 , v2 >
v3 = u3 − · v1 − · v2
< v 1 , v1 > < v 2 , v2 >
..
.
< ur , v1 > < ur , vr−1 >
vr = ur − · v1 − ... − · vr−1 ,
< v 1 , v1 > < vr−1 , vr−1 >

que es un sistema ortogonal y además satisface la condición

∀i ∈ {1, ...r − 1} L({v1 , ..., vi }) = L({u1 , ..., ui }).

Observación 48 Nótese que si {v1 , ..., vr } es ortogonal, deniendo


vi
∀i ∈ {1, ..., r} wi =
kvi k

el sistema {v1 , ..., vr } es ortonormal, puesto que


° °
° vi °
∀i ∈ {1, ..., r} kwi k = ° ° ° = 1 · kvi k = 1.
kvi k ° |kvi k|
208 Álgebra

Observación 49 Nótese que como consecuencia del teorema y de la ob-


servación anterior, si (E, <, >) es un e.v.e., con E de dimensión nita, y
{u1 , ..., un } es una base de E, utilizando el método de Gram-Schmidt podemos
obtener, a partir de ella, una base ortogonal y, posteriormente, dividiendo ca-
da vector por su norma, obtendremos una base ortonormal de (E, <, >). En
consecuencia, podemos armar que todo e.v.e. de dimensión nita tiene una
base ortonormal.
Ejercicio 4.3.1 A partir de la base
{(1, 1, 1), (1, 1, 0), (1, 0, 0)},
obtener por el método de Gram-Schmidt una base ortonormal de (R3 , <, >),
donde <, > es el producto escalar habitual.

Coordenadas ortonormales
La pregunta que es natural hacerse es ¾porqué nos interesa trabajar con bases
ortonormales? Aunque más adelante veremos otras propiedades que tienen
que ver con la mejor aproximación o aproximación óptima de un vector por
vectores de un subespacio, la primera ventaja, que resulta evidente, es la
siguiente.
Si B = {w1 , ..., wn } es una base ortonormal de (E, <, >), las coordena-
das de cualquier vector u ∈ E respecto de dicha base se pueden obtener en
función del producto escalar de u por los vectores de B, pues si
u = α1 w1 + ... + αn wn
resulta que ∀i ∈ {1, ..., n}
< u, wi > = < α1 w1 + ... + αn wn , wi >=
= α1 < w1 , wi > +... + αn < wn , wi >=
= αi < wi , wi >= αi kwi k2 = αi ,
con lo que
n
X
u =< u, w1 > w1 + ...+ < u, wn > wn = < u, wi > wi .
i=1

El resultado de la siguiente proposición se conoce como identidad de


Parseval y es una generalización del teorema de Pitágoras.
Álgebra 209

Proposición 4.3.5 Si B = {w1 , ..., wn } es una base ortonormal del e.v.e.


(E, <, >), entonces ∀u ∈ E se verica que
n
X
2
kuk = < u, wi >2 .
i=1

Demostración Sea B = {w1 , ..., wn } una base ortonormal de (E, <, >).
En ese caso n
X
u= < u, wi > wi ,
i=1
con lo que
n
X n
X
2
kuk = < u, u >=< < u, wi > wi , < u, wj > wj >=
i=1 j=1
n
X n
X
= < u, wi >< wi , < u, wj > wj >=
i=1 j=1
n
à n !
X X
= < u, wi > < u, wj >< wi , wj > =
i=1 j=1
(teniendo en cuenta que la base es ortonormal)
Xn
= < u, wi > (< u, wi >< wi , wi >) =
i=1
Xn n
X
2 2
= < u, wi > kwi k = < u, wi >2 .
i=1 i=1

4.3.1 Descomposición QR de una matriz


Si A ∈ Mm×n (R) tiene vectores columna (A1 , A2 , · · · , An ) = (u1 , u2 , · · · , un )
linealmente independientes, es decir, si rango(A) = n, el método de ortogona-
lización de Gram-Schmidt nos proporciona una manera de determinar, a par-
tir del sistema libre (u1 , u2 , · · · , un ), un sistema ortonormal (q1 , q2 , · · · , qn ).
Si ahora denotamos con Q ∈ Mm×n (R) a la matriz cuyos vectores columna
son los vectores obtenidos (q1 , q2 , · · · , qn ), ¾cuál es la relación entre A y Q?
210 Álgebra

Siendo (q1 , q2 , · · · , qn ) una base ortonormal del espacio columna de A,


L(u1 , u2 , · · · , un ), se sigue que
n
X
∀j ∈ {1, · · · , n} uj = < uj , qi > q i .
i=1

Sea R = (< qi , uj >) ∈ Mn (R) la matriz cuyas columnas son las coor-
denadas de los vectores (u1 , u2 , · · · , un ) respecto de la base (q1 , q2 , · · · , qn ).
Entonces
 
< u 1 , q1 > < u 2 , q 1 > · · · < u n , q 1 >
 < u 1 , q2 > < u 2 , q 2 > · · · < u n , q 2 > 
 
R= .. .. .. .. ,
 . . . . 
< u 1 , q n > < u2 , q n > · · · < un , qn >

∀j ∈ {1, · · · , n} Aj = (QR)j y A=QR .


Además, siendo qi ortogonal a u1 , u2 , · · · , ui−1 para todo i ≥ 2, la matriz
R es triangular superiormente:
 
< u 1 , q 1 > < u2 , q 1 > ··· < un , q1 >
 0 < u2 , q2 > ··· < un , q2 > 
 
R= .. .. .. .. 
 . . . . 
0 0 ··· < un , qn >
e invertible, ya que < ui , qi >6= 0, para todo i ∈ {1, · · · , n}.
Hemos así obtenido la descomposición QR de la matriz A en el pro-
ducto de una matriz Q con vectores columna ortogonales por una matriz R
invertible y triangular superiormente.
La descomposición QR se utiliza en varios algoritmos numéricos y, en
particular, en el cálculo numérico de autovalores de matrices grandes.

Ejemplo 4.3.6 Sea A ∈ M3×2 (R) denida por


 
1 1
A = 0 1 .
1 1
   
1 1
  
Entonces u1 = 0 y u2 = 1 .
1 1
Álgebra 211

Aplicando el método de Gram-Schmidt se obtiene la base ortogonal


     
1 1 0
< u2 , v1 >   2   
v 1 = u1 , v 2 = u2 − · v1 = 1 − 0 = 1 .
< v1 , v1 > 2
1 1 0
Una base ortonormal del espacio columna de A es
1  
√ 0
v1 2 v2
q1 = =  0 , q2 = = 1 .
kv1 k √1
kv2 k
2
0
Por tanto,
1 

2
0 µ ¶ µ√ √ ¶
< u1 , q1 > < u 2 , q1 > 2 2
Q=0 1 , R= =
√1
0 < u2 , q2 > 0 1
2
0
y A = QR.

4.4 Proyecciones ortogonales


Denición 4.4.1 Sean (E, <, >) un e.v.e. y A ⊆ E. Diremos que v ∈ E es
un vector ortogonal a A si ∀u ∈ A, < v, u >= 0.
Ejemplo 4.4.2 En (R3 , <, >), donde <, > es el producto escalar usual de
R3 , cualquier vector de la recta L((0, 0, 1)) es ortogonal al conjunto A =
{(1, 1, 0), (0, 1, 0)}.
Observación 50 Nótese que el vector 0 ∈ E es ortogonal a cualquier sub-
conjunto A ⊆ E. Pues, siendo A cualquier subconjunto de E, ∀u ∈ A se
verica que
< u, 0 >=< u, u − u >=< u, u > − < u, u >= 0
o, si se preere,
< u, 0 >=< u, 0 · 0 >= 0· < u, 0 >= 0.
Proposición 4.4.3 Sean (E, <, >) un e.v.e. y A ⊆ E. Se verica que el
conjunto
A⊥ = {v ∈ E |∀u ∈ A < v, u >= 0 }
es un subespacio vectorial de E. A este subespacio se le denomina subespacio
ortogonal de A.
212 Álgebra

Demostración Ejercicio.

Observación 51 En el caso particular de que (E, <, >) sea un e.v.e. de


dimensión nita y H ≺ E, al subespacio ortogonal de H se le denomina
complemento ortogonal de H.
Proposición 4.4.4 Sean (E, <, >) un e.v.e. con dim(E) = n y H ≺ E. En
estas condiciones se verica que

dim(H ⊥ ) = n − dim(H).

Demostración Si H = {0} el resultado es evidente. Supongamos, pues,


que dim(H) = r > 0. En ese caso, siendo {u1 , ..., ur } una base de H, por
el teorema de extensión de una base, existen ur+1 , ..., un tales que el sistema
{u1 , ..., ur , ur+1 , ..., un } es una base de E. Utilizando el método de Gram-
Schmidt y posteriormente dividiendo cada vector por su norma, obtenemos
una base ortonormal {w1 , ..., wr , wr+1 , ..., wn } de (E, <, >) tal que

L(w1 , ..., wr ) = L(u1 , ..., ur ) = H.

La proposición estará demostrada si comprobamos que

{wr+1 , ..., wn }

es una base de H ⊥ .
Evidentemente {wr+1 , ..., wn } es un sistema libre, puesto que es un sub-
sistema de un sistema libre. Veamos que es también un sistema generador
de H ⊥ :
si v ∈ H ⊥ , como H ⊥ ⊂ E y {w1 , ..., wr , wr+1 , ..., wn } es una base de E,
existirán α1 , ..., αr , αr+1 , ..., αn ∈ R tales que

v = α1 w1 + ... + αr wr + αr+1 wr+1 + ... + αn wn .

Ahora bien, como ∀u ∈ H < v, u >= 0, en particular

∀i ∈ {1, ..., r} < v, wi >= 0,

y puesto que {w1 , ..., wr , wr+1 , ..., wn } es ortonormal, resulta que

∀i ∈ {1, ..., n} < v, wi >= αi ,


Álgebra 213

con lo que obtenemos que α1 = α2 = · · · = αr = 0 y

v = αr+1 wr+1 + ... + αn wn ∈ L({wr+1 , ..., wn }).

Observación 52 Si {w1 , ..., wr } es una base ortonormal de un subespacio


vectorial H y {w1 , ..., wr , wr+1 , ..., wn } es una base ortonormal del espacio E,
por la proposición anterior {wr+1 , ..., wn } es una base de H ⊥ , con lo que

∀u ∈ E ∃!(α1 , ..., αr , αr+1 , ..., αn ) ∈ Rn tales que


u = α1 w1 + ... + αr wr + αr+1 wr+1 + ... + αn wn .

Si denotamos por
h = α1 w1 + ... + αr wr ∈ H
y por
h⊥ = αr+1 wr+1 + ... + αn wn ∈ H ⊥
resulta que

∀u ∈ E ∃!h ∈ H y ∃!h⊥ ∈ H ⊥ tales que u = h + h⊥ .

Denición 4.4.5 Siendo (E, <, >) un e.v.e. de dimensión nita, H ≺ E y


u ∈ E, si
u = h + h⊥
con h ∈ H y h⊥ ∈ H ⊥ , al vector h se le denomina proyección ortogonal
de u sobre el subespacio H y se le denota por p⊥H (u).

Ejercicio 4.4.1 Sea E un R − e.v.e. con producto escalar < ·, · > y H un


subespacio de dimensión nita r de E. Si B = (w1 , w2 , · · · , wr ) es una base
H : E → H la función proyección ortogonal de E
ortonormal de H , sea p⊥
sobre H, denida por

p⊥
H (u) =< u, w1 > w1 + < u, w2 > w2 + · · · + < u, wr > wr ∀u ∈ E.

Vericar que p⊥
H es lineal.
214 Álgebra

4.4.1 Método para hallar una proyección ortogonal


Para calcular la proyección ortogonal de un vector u sobre un subespacio H
procederemos como sigue: a partir de una base del subespacio H obtenemos
(por el método de Gram-Schmidt) una base ortonormal {w1 , ..., wr } de H.
La proyección de u sobre H será entonces el vector
p⊥
H (u) = h = α1 w1 + ... + αr wr =< u, w1 > w1 + ...+ < u, wr > wr .

En el caso particular de que H = L({v}), puesto que


v
{ }
kvk
es una base ortonormal de H, la proyección ortogonal de u sobre H será el
vector
v v < u, v >
h =< u, >· = · v.
kvk kvk kvk2
Ejemplo 4.4.6 En (R[x], <, >1 ) donde
<, >1 : R[x] × R[x] −→ R
R1
(p, q) Ã < p, q >1 = p(x) · q(x)dx,
−1

obtener la proyección ortogonal del vector x2 sobre el subespacio H = L({x, 1+


x}). Siendo {x, 1 + x} un sistema libre, es también una base de H. Aplicando
el método de Gram-Schmidt, se obtiene la base ortogonal
2
< 1 + x, x >1
u1 = x, u2 = 1 + x − x = 1 + x − 32 x = 1.
< x, x >1 3

Una base ortonormal es


r
u1 x 3 u2 1
w1 = =q = x, w2 = =√ .
ku1 k1 2 2 ku2 k1 2
3

Entonces

1 2
p⊥ 2
H (x )
2 2
=< x , w1 >1 w1 + < x , w2 >1 w2 = 1 = w2 .
3 3
Ejercicio 4.4.2 En (R3 , <, >) donde <, > es el producto escalar usual de
R3 , obtener la proyección ortogonal del vector (1, 2, 1) sobre los subespacios
H = L((1, 0, 1)) y H 0 = L((1, 0, 1), (1, 0, 0)).
Álgebra 215

4.4.2 Aproximación óptima de un vector.


Siendo (E, <, >) un e.v.e. (de dimensión nita o no), u ∈ E y H ≺ E ,
H = L({u1 , ..., um }), buscamos el vector de H que mejor aproxima al vector
u o, lo que es lo mismo, buscamos el vector de H que está a la menor distancia
posible de u. Como veremos, dicho vector es la proyección ortogonal de u
sobre H y, según hemos visto, la forma de obtener dicha proyección ortogonal
es a través de una base ortonormal de H.
Antes de obtener el resultado central de esta sección, veamos un lema
previo.
Lema 4.4.7 Si {w1 , ..., wr } es un sistema ortonormal del e.v.e. (E, <, >) y
u ∈ E, se verica que ∀i ∈ {1, ..., r} el vector
à r !
X
u− < u, wj > wj
j=1

es ortogonal al vector wi .

Demostración Sea i ∈ {1, ..., r}. En ese caso


à r !
X
< u− < u, wj > wj , wi >=
j=1
à r !
X
= < u, wi > − < u, wj >< wj , wi > =
j=1
(puesto que el sistema es ortonormal)
= < u, wi > − < u, wi >< wi , wi >=
= < u, wi > − < u, wi >= 0.
2

Teorema 4.4.8 Sean {w1 , ..., wr } un sistema ortonormal del (E, <, >) y
H = L(w1 , ..., wr ). Entonces, para todo u ∈ E, se verica que
d(u, p⊥
H (u)) ≤ d(u, w) ∀w ∈ H.
Pr
En otras palabras, p⊥
H (u) = < u, wi > wi es el vector de H = L({w1 , ..., wr })
i=1
que está a menor distancia de u (i.e., el que mejor lo aproxima).
216 Álgebra

Demostración Por denición


° Ã r !°
r
X ° X °
° °
d(u, p⊥
H (u)) = d(u, < u, wi > wi ) = °u − < u, wi > wi ° .
° °
i=1 i=1

Según hemos visto en el lema anterior, el vector


à r !
X
u− < u, wi > wi
i=1

es ortogonal a cada uno de los vectores w1 , ..., wr y, en consecuencia, también


será ortogonal a cualquier combinación lineal de dichos vectores. Por otra
Pr
parte, si w = αi wi es un vector de H,
i=1
° Ã r !°2
° X °
° °
d(u, w)2 = °u − αi wi ° =
° °
i=1
° Ã r ! °2
° X °
° ⊥ ⊥ °
= °u − αi wi − pH (u) + pH (u)° =
° °
i=1
° Ã r !°2
° X °
° °
= °(u − p⊥H (u)) + (< u, w i > −αi )wi ° =
° °
i=1
por la identidad de Parseval,
Xr
⊥ ⊥
ya que u − pH (u) ∈ H y (< u, wi > −αi )wi ∈ H,
i=1
°Ã !°2
° ° ° Xr °
2 ° °
= °u − p⊥
H (u)° + ° (< u, w i > −αi )w i °
° °
i=1

con lo que ° °2
°u − p⊥
H (u)
° ≤ d(u, w)2 .
2

Ejercicio 4.4.3 En (R3 , <, >), donde <, > es el producto escalar usual de
R3 , hallar la mejor aproximación del vector (1, 0, 1) por vectores del subespa-
cio H = L((1, 2, 1), (1, 0, 0)).
Álgebra 217

Ejercicio 4.4.4 En (R[x], <, >1 ) donde


<, >1 : R[x] × R[x] −→ R
R1
(p, q) Ã < p, q >1 = p(x) · q(x)dx,
−1

Hallar la mejor aproximación del vector x por vectores del subespacio H =


L({1 + x}).

A lo largo de la práctica 4 veremos como la propiedad de aproximación


de la proyección ortogonal de un vector sobre un subespacio se puede utilizar
para determinar, por mínimos cuadrados, soluciones aproximadas óptimas de
problemas que utilizan datos experimentales y, por tanto, datos que contienen
un error (ruido).

4.5 Ejercicios
4.5.1 Ejercicios resueltos
1. En el espacio vectorial euclídeo R3 con el producto escalar usual se consi-
dera el sistema de vectores

{(1, 2, −1), (0, 1, 1)}.

Se pide obtener, mediante el método de Gram-Schmidt, una base ortonormal


del subespacio
L({(1, 2, −1), (0, 1, 1)})
y la proyección ortogonal del vector (1, 1, 1) sobre dicho subespacio.

4.5.2 Ejercicios propuestos


1. Calcula, mediante el metodo de Gram-Schmidt, una base ortonormal
del subespacio de R3

V = L({(1, 2, −2), (0, −4, 3)})

Completa dicha base a una base ortonormal B de R3 y calcula la pro-


yección ortogonal del vector (2, 1, 3) sobre V . Calcula también las coor-
denadas de los vectores de la base canónica de R3 respecto de B .
218 Álgebra

2. Considera la función proyección ortogonal p⊥ 3


V de R sobre el subespacio
V del ejercicio anterior como aplicación de R3 a R3 . Calcula:
B3 ⊥
MBB (p⊥
V ) y MB3 (pV )

siendo B3 la base canónica de R3 .

3. Calcula la descomposición QR de la matriz


 
−1 0 3
2 −1 0
2 −2 1

4. Calcula las ecuaciones implícitas y paramétricas del complemento or-


togonal de los siguientes subespacios:

V = L({(1, −1, 1, 0), (0, 1, 0, 3)}) ≺ R4 , W = L({1, 2, −3)}) ≺ R3

5. Considera el espacio vectorial P2 (R) de polinomios de grado menor o


igual que dos como espacio vectorial euclídeo con el producto escalar
denido por: Z 1
hp(x), q(x)i1 = p(x) · q(x)dx
−1

• Obtén, mediante el método de Gram-Schmidt, una base ortonor-


mal de (P2 (R), h, i1 ) a partir de la base B3 = {1, x, x2 }.
• Calcula las normas de los vectores de B3 y los ángulos que forman
dos a dos.
Capítulo 5
Códigos lineales

5.1 Introducción
En nuestros días, la generalización en el uso de instrumentos electrónicos
conlleva la necesidad de transmitir una gran cantidad de datos de forma
rápida y segura. Ejemplos de lo anterior son la transmisión de imágenes de
televisión a y desde satélites y la comunicación telefónica. Otros ejemplos, en
los que hay menos distancia entre el emisor y el receptor de la información,
son la transmisión de datos entre ordenadores conectados a una red o entre
distintas unidades de un mismo ordenador.
La teoría de códigos tiene su origen en el artículo de Claude Shanon
The Mathematical Theory of Communication , publicado en la revista Bell
System Technical Journal 27, 1948 y en los trabajos de Marcel Golay (1949)
y Richard Hamming (1950).
Deseamos transmitir información a través de un canal con ruido según el
esquema:
RU IDO
Transmisor >>>>>>>>> Receptor
↑ ↓
Codicador Decodicador
↑ ↓
Mensaje original Mensaje decodicado

Se quieren detectar y, si es posible, corregir los errores de transmisión.


El esquema general es el siguiente:

219
220 Álgebra

• Se utiliza el alfabeto binario Z2 = {0, 1}.


• Se codica el mensaje original utilizando palabras (cadenas) binarias
(un error es una confusión entre un 0 y un 1).
• Se transmite el mensaje, que se corrompe.
• Se corrige el mensaje (si es posible).
• El codicador traduce el mensaje.
Es conveniente utilizar palabras de la misma longitud. Hay 2n palabras
binarias de longitud n ∈ N.
Ejemplo 5.1.1 Si n = 3,
Z32 = {000, 100, 010, 001, 110, 101, 011, 111}
es el conjunto de las palabras binarias de longitud 3.
Cada uno de los símbolos de una palabra es un bit (binary digit).
Un código binario C de longitud n es un cualquier subconjunto de
Zn2 .
Ejemplo 5.1.2 Supongamos que queremos enviar los siguientes mensajes:
ARRIBA, ABAJO, IZQU IERDA, DERECHA.
Vamos a utilizar varios códigos, denidos en la siguiente tabla:
Código Longitud ARRIBA ABAJO IZQUIERDA DERECHA
C1 2 00 10 01 11
C2 3 000 110 011 101
C3 6 000000 111000 001110 110011
Entonces:
C1 no tiene capacidad de detectar errores (alterando un bit se obtiene una
palabra del código).
C2 es capaz de detectar un error individual (alterando un bit se obtiene
una palabra que no puede ser del código) y no puede corregir errores. Por
ejemplo, 111 puede ser el resultado de un único error en las tres palabras del
código 110, 011 o 101.
C3 es capaz de detectar un error individual y corregirlo (dos palabras
distintas del código no pueden transformarse en la misma palabra si hay un
único error).
Álgebra 221

Simplicaremos el modelo suponiendo que:

• El canal es binario (los mensajes que se transmiten son cadenas de


ceros y unos).

• El canal es simétrico (la probabilidad p de cambiar un 0 por un 1


en la transmisión es la misma que la de cambiar un 1 por un 0).

• El canal no tiene memoria (la probabilidad p de cambiar un 0


por un 1 en la transmisión no depende de los símbolos previamente
enviados). La probabilidad p es conocida como probabilidad de error
del canal binario simétrico.

• No hay errores de sincronización (el número de símbolos recibidos


es igual al número de símbolos enviados).

• Enviamos información redundante: para poder detectar y corregir


los errores de transmisión se utiliza un código de tipo (n, k), n > k,
donde un mensaje formado por k símbolos se transforma en una palabra
de n > k símbolos, por tanto hay n − k símbolos redundantes

palabra ∈Z2
k+(n−k)

mensaje ∈Zk
2
z}|{
z}|{ 1
1 0
0 .. transmisión
.. → codicador → . =⇒
. 1
1 ..
.
∈ Z2k+(n−k)
z}|{ mensaje ∈Zk2
? z}|{
? 1
transmisión .. 0
=⇒ . → decodicador → .. .
? .
.. 1
.

Así, para enviar un mensaje formado por k símbolos 0 ó 1 (es decir un


elemento de Zk2 ), en primer lugar construimos una palabra (o secuencia
222 Álgebra

de ceros y unos) del código compuesto por cadenas de longitud k +


(n − k) = n (código de tipo (n, k), es decir, con n − k símbolos de
información redundante). A continuación transmitimos dicha palabra
y, dependiendo de la información recibida, el decodicador detecta si
se ha producido error en la transmisión. En el caso de que sea posible,
reconstruye el mensaje.

Observación 53 Un código de tipo (n, k) es, pues, un subconjunto de Zn2 .

5.2 Distancia de Hamming, detección y correc-


ción de errores
Denición 5.2.1 La distancia de Hamming d(a, b) entre dos palabras a
y b de un código C es el número de bits (símbolos) en que dieren a y b.

Ejemplo 5.2.2

d(1101, 1000) = 2, d(1010101, 1100100) = 3.

Ejercicio 5.2.1 Vericar que la distancia de Hamming d(a, b) ≥ 0 es una


distancia, es decir que, ∀ a, b, c ∈ C :

i) d(a, b) = 0 ⇔ a=b
ii) d(a, b) = d(b, a)
iii) d(a, b) ≤ d(a, c) + d(c, b).

Denición 5.2.3 Dado un código C con distancia de Hamming d(a, b), la


distancia mínima dmin entre pares de palabras distintas de C es el núme-
ro:
dmin = min{d(a, b) : a, b ∈ C, a 6= b}.

Observación 54 Si la distancia mínima de un código C es dmin y no se


producen más que dmin − 1 errores en la transmisión de una palabra, el
receptor será capaz de reconocer que la palabra recibida no es del código. La
justicación de esta armación es la siguiente: introduciendo un número de
errores menor o igual que dmin − 1 en una palabra del código no se obtiene
otra palabra del código.
Álgebra 223

El principio del vecino más próximo (o criterio de la mayoría


gana) nos dice que si recibimos una palabra errónea, deberíamos suponer
que la palabra del código enviada es la más cercana a la recibida (en el sentido
de la distancia de Hamming). Es decir, si r < s es más probable que se hayan
producido r errores que s errores.

Teorema 5.2.4 Aplicando el principio del vecino más cercano, un código C


puede corregir e errores si la distancia mínima cumple la condición

dmin ≥ 2e + 1.

Demostración Sea c ∈ C la palabra original y sea z la palabra recibida,


que contiene e errores. Entonces d(c, z) = e.
Si b ∈ C es otra palabra del código,

2e + 1 ≤ dmin ≤ d(b, c) ≤ d(b, z) + d(z, c) = d(b, z) + e

y por tanto
d(b, z) ≥ e + 1.
Se sigue que c es la única palabra de C a distancia e de z. 2

5.2.1 Código de paridad: detección de errores simples


La tabla ASCII para representar los caracteres alfanuméricos está formada
por 128 = 27 símbolos codicados en palabras binarias de longitud 8: los
primeros 7 bits contienen la información y el octavo el control de paridad,
es decir 0 si el número de unos que aparecen en los 7 primeros bits es par y
1 en caso contrario. Por ejemplo las palabras

10000010 y 01000111
son palabras del código mientras que 01000110 no lo es.
Esta codicación (8, 7) permite detectar algunos errores de transmisión
pero no corregirlos. Más exactamente podemos reconocer aquellas situaciones
en las que se produce un número impar de errores en la transmisión de los 8
bits. Por tanto la probabilidad de error no detectable en la transmisión es:
224 Álgebra

Perr = P2 + P4 + P6 + P8 =
µ ¶
2 6 8
= p (1 − p) +
2
µ ¶
4 4 8
+p (1 − p) +
4
µ ¶
6 2 8
+p (1 − p) +
6
+p8

Por ejemplo si la probabilidad p de error en el canal es 0.01 la probabilidad


de error no detectable con esta codicación es 0.0026368.

5.2.2 Código de repetición: corrección de errores sim-


ples
Si los mensajes son simplemente los símbolos 0 y 1, podemos codicarlos del
siguiente modo:

mensajes código
0 000
1 111

Para decodicar seguimos el criterio de la mayoría gana:

palabra recibida decodicación


000 0
001 0
010 0
011 1
100 0
101 1
110 1
111 1

Ya que dmin = 3, la condición dmin ≥ 2e + 1 implica e ≤ 1. Con


este código (3, 1) detectamos hasta 2 errores, corregimos correctamente las
Álgebra 225

situaciones en las que se produce un único error y fallamos en aquéllas en las


que se produce más de un error. Por ejemplo, si recibimos la palabra 011, la
decodicación 111 es correcta si e = 1 y es incorrecta si e ≥ 2.
La probabilidad de error no detectable en la transmisión es:
µ ¶
2 3
Perr = P2 + P3 = p (1 − p) + p3
2

Por ejemplo si la probabilidad p de error en el canal es 0.01 la probabilidad


de error en la decodicación es menor que 0.0003.

5.3 Códigos lineales


Como veremos, si un código tiene estructura de espacio vectorial sobre el
cuerpo Z2 , podemos estudiar sus propiedades utilizando los resultados obte-
nidos para espacios vectoriales generales.
En particular, estos tipos de códigos se pueden describir en términos de
sus ecuaciones paramétricas e implícitas.

Denición 5.3.1 Diremos que un código C ⊆ Zn2 es lineal si C es un sub-


espacio vectorial de Zn2 .

Ejemplo 5.3.2 No es difícil vericar que, para los códigos denidos en la


tabla del ejemplo 5.1.2, C1 y C2 son lineales y C3 no lo es.

Ejercicio 5.3.1 ¾Es lineal el código de paridad?

Ejercicio 5.3.2 ¾Es lineal el código de repetición?

Sean C ≺ Zn2 un código lineal y {u1 , u2 , · · · , uk } una base de C. Si Bk =


{e1 , e2 , · · · , ek } es la base canónica de Zk2 , la función lineal

g : Zk2 −→ Zn2

denida por
g(ei ) = ui (i = 1, · · · , k),
es inyectiva (siendo {u1 , u2 , · · · , uk } libre) y Im(g) = C. Por tanto la función
g dene las ecuaciones paramétricas del código C.
226 Álgebra

Denición 5.3.3 Si C ≺ Zn2 es un código lineal y {u1 , u2 , . . . , uk } es una


base de C llamaremos matriz generadora del código C a la matriz n ×
k (asociada a la función lineal g denida arriba) cuyas columnas son las
coordenadas de u1 , u2 , . . . , uk respecto de la base canónica de Zn2 :
¡ ¢
G = (u1 )Bn (u2 )Bn · · · (uk )Bn

Si C ≺ Zn2 es lineal y dim(C) = k, entonces C es un código de tipo (n, k)


ya que, por ser C isomorfo a Zk2 , el número de palabras de C coincide con él
de Zk2 . Además si G es una matriz generadora del código obtenida al elegir
las bases canónicas de Zk2 y Zn2 , la aplicación

Zk2 −→  C 
x1
t  .. 
(x1 , . . . , xk ) → G  . 
xk

es un isomorsmo que a cada palabra de Zk2 asocia una palabra de C.


La función anterior describe un procedimiento  de codicación
 que aso-
x1
t  .. 
cia a cada palabra (x1 , . . . , xk ) ∈ Z2 la palabra G  .  ∈ M1×n (Z2 ) ≡
k

xk
Zn2 (implícitamente estamos identicando la matrices la de n columnas con
los elementos de Zn2 , circunstancia que mantendremos en todo el desarrollo
del capítulo para mayor simplicidad).
Teniendo en cuenta que
  
x1
t  . 
G  ..  = (x1 . . . xk ) · (G),
t

xk

nuestra pregunta inmediata es ¾cómo invertir el proceso? o, si se preere,


¾existe alguna matriz que permita invertir el proceso de manera que, en
la hipótesis de que el canal no tuviese ruidos, nos permitiese recuperar el
mensaje original según el esquema siguiente?:

Zk2 −→ C −→
(x1 , . . . , xk ) → (x1 ... xk ) ·t (G) →
Álgebra 227

−→ Zk2
→ (x1 ... xk ) ·t (G) · (t (G))−1 = (x1 , . . . , xk )
La respuesta es obviamente negativa, puesto que la matriz t (G) no es
una matriz cuadrada. Sin embargo, como veremos posteriormente, la idea es
aprovechable empleando el concepto de pseudoinversa de una matriz.

Ejercicio 5.3.3 Obtener la matriz generadora del código de paridad cuyo


producto reproduce el mecanismo de codicación descrito.

Ejercicio 5.3.4 Obtener la matriz generadora del código de repetición cuyo


producto reproduce el mecanismo de codicación descrito.

Pasamos ahora a estudiar las ecuaciones implícitas de un código lineal C.


Si C ≺ Zn2 es tal que 0 < dim(C) = k < n, la proposición 3.5.12 del
capítulo 3 implica que existe una función lineal

h : Zn2 −→ Zn−k
2

tal que C = ker(h). Por tanto la función h determina las ecuaciones im-
plícitas del código C.
Denición 5.3.4 Si C ≺ Zn2 es lineal diremos que una matriz H de orden
s×n es una matriz de control si para cualquier (x1 , . . . , xn ) ∈ Zn2 se verica
que:
 
x1
(x1 , . . . , xn ) ∈ C ⇔ H  ...  = 0.
 
xn

Se sigue que la matriz H que queda asociada a la función lineal h al elegir


(n−k)
las bases canónicas de Zn2 y Z2 es H = MBBn−k
n
(h) ∈ M(n−k)×n y es una
matriz de control para el código C. Siendo C = ker(h), el rango de la matriz
H es n − k. Se sigue que
C ≺ Zn2 es un código lineal de dimensión k, 0 < k < n, si y sólo si existe
una matriz de control de C, H ∈ M(n−k)×n , de rango igual a n − k.

Ejercicio 5.3.5 Encontrar una matriz de control del código de paridad.


Ejercicio 5.3.6 Encontrar una matriz de control del código de repetición.
228 Álgebra

5.3.1 Paso de una matriz de control a una matriz gene-


radora
Pasar de una matriz de control a una matriz generadora de un código li-
neal C es equivalente a pasar de sus ecuaciones implícitas a sus ecuaciones
paramétricas.
Supongamos que H ∈ M(n−k)×n (Z2 ) es una matriz de control de un código
lineal C. Determinar una matriz generadora de C es lo mismo que encontrar
una base del subespacio C, que coincide con el núcleo de la función lineal
denida entre Z2 − e.v. :

n−k
h: Zn2 −→  Z2 
x1
t  . 
(x1 , . . . , xn ) → H·  .. 
xn

y que dene las ecuaciones implícitas del código C.


Por tanto, para denir una matriz generadora de C, podemos emplear
el método visto en el capítulo 3 para obtener una base del núcleo de una
función lineal, cuyo esquema basíco es el siguiente:

H t1 t2 tk A
−→−→ · · · −→ ,
In P

donde t1 , t2 , . . . , tk son transformaciones elementales por columnas (efectua-


das sobre ambas matrices) y A es una matriz gaussiana.
En tal circunstancia sabemos que las columnas de P que aparezcan bajo
las columnas nulas de A constituyen una base (salvo transposición) del núcleo
de h y, por consiguiente, constituyen una matriz generadora de C.

Ejercicio 5.3.7 Determinar una matriz generadora del código cuya matriz
de control es:
µ ¶
1 0 1 0
H=
1 1 1 1
Álgebra 229

5.3.2 Paso de una matriz generadora a una matriz de


control
Pasar una matriz generadora a una matriz de control de un código lineal
C es equivalente a pasar de sus ecuaciones paramétricas a sus ecuaciones
implícitas.
Ahora, supongamos que G ∈ Mn×k (Z2 ),
¡ ¢
G= (u1 )Bn (u2 )Bn · · · (uk )Bn ,

es una matriz generadora de un código lineal C. Entonces C = Im(g), donde

g : Zk2 −→  C 
x1
  . 
(x1 , . . . , xk ) → t
G  ..  .
xk

Determinar una matriz H ∈ M(n−k)×n (Z2 ) de control de C, de rango n−k,


es lo mismo que encontrar (n − k) las

(a11 a12 ··· a1n )


(a21 a22 ··· a2n )
..
.
(a(n−k)1 a(n−k)2 · · · a(n−k)n )

tales que:

1. ∀i ∈ {1, . . . , n − k} , se tenga que


¡ ¢ ¡ ¢
ai1 ai2 · · · ain · (u1 )Bn = 0, · · · , ai1 ai2 · · · ain · (uk )Bn = 0,

o, lo que es lo mismo, que


¡ ¢
∀i ∈ {1, . . . , n − k} , ai1 ai2 · · · ain · G = 0.

2. El sistema formado por dichas las es un sistema libre.

En el supuesto de que tengamos tales las, si denimos la matriz


230 Álgebra
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
H= .. .. .. 
 . . . 
a(n−k)1 a(n−k)2 · · · a(n−k)n

tendremos que:

1. H · G = 0 y en consecuencia el código C está contenido en el núcleo de


la función lineal

h: Zn2 −→  Z2n−k 

x1
  . 
(x1 , . . . , xn ) → t
H·  ..  .
xn

2. La dimensión del núcleo de h es k .

Puesto que la dimensión de C también es k, tendremos que C = Ker(h)


y en consecuencia
 
x1
 
(x1 , . . . , xn ) ∈ C ⇔ H  ...  = 0,
xn

es decir, H es una matriz de control del código C. Ahora bien, buscar (n − k)


las que constituyan un sistema de vectores libre y de manera que
¡ ¢
∀i ∈ {1, . . . , n − k} , ai1 ai2 · · · ain G=0

es lo mismo que buscar (n − k) soluciones linealmente independientes del


sistema de ecuaciones lineales homogéneo
 
x1
 x2 
t  
(G)  ..  = 0.
 . 
xn
Álgebra 231

Pero, ¾existen (n − k) soluciones linealmente independientes de tal siste-


ma?
Por hipótesis las k columnas de G constituyen un sistema libre y por tanto
las k las de t (G) también. Ahora, aplicando el teorema de la dimensión,
sabemos que la dimensión del conjunto de soluciones del sistema t (G)X = 0
es n − k, luego existen (n − k) soluciones linealmente independientes.

Veamos un algoritmo para obtener dicha matriz H :


¡ ¢
1. Construimos la matriz G In (recuérdese que G tiene n las).
2. Mediante transformaciones elementales
µ por las
¶ construimos, a partir
¡ ¢ Ik T
de G In , una matriz de la forma , donde T ∈ Mk×n (Z2 ),
(0) H
H ∈ M(n−k)×n (Z2 ) y (0) ∈ M(n−k)×k (Z2 ).
3. Teniendo en cuenta que aplicar una transformación elemental por las
es equivalente a multiplicar por la izquierda por una matriz invertible, resulta
que si µ ¶
¡ ¢ Ik T
G In tf1 → ...tfk → ,
(0) H
tendremos
µ ¶ que existe una matriz
µ invertible
¶ P ∈ Mnµ (Z2 ), tal
¶ que P · G =
Ik T T
y tal que P · In = , es decir, P = , con lo que el
(0) H H
rango de H es n − k y
µ ¶ µ ¶
T Ik
·G= .
H (0)
Teniendo en cuenta cómo está denido el producto de matrices,

T · G = Ik y H · G = (0) .

Puesto que la matriz T es tal que T ·G = Ik , resulta que t (T ·G) =t (Ik ) =


Ik , es decir, t G ·t T = Ik .
En otras palabras, la matriz t T es la matriz que buscábamos, la pseu-
doinversa de t G, para invertir el proceso de codicación:

Zk2 −→ C −→
(x1 , . . . , xk ) → (x1 ... xk ) ·t (G) →
232 Álgebra

−→ Zk2
→ (x1 ... xk ) · (G) ·t (T) = (x1 , . . . , xk ) .
t

Por otra parte, la matriz H así obtenida es una matriz de control del
código, pues satisface las dos condiciones requeridas.

Ejercicio 5.3.8 Determinar una matriz de control del código cuya matriz
generadora es:
 
1 0 0
 0 1 0 
G =
 1
.
0 1 
1 1 1

5.3.3 Detección y corrección de errores


Podemos detectar errores en la transmisión si y sólo si la palabra recibida no
pertenece al código. Por tanto si C es un código lineal y H es una matriz
de control del mismo, detectaremos error en la transmisión de una palabra
recibida u si y sólo si H · (u)Bn 6= 0. Ahora, la cuestión es ¾Qué podemos
hacer en el caso de que detectemos un error en la transmisión? Si al emitir
la palabra x ∈ C se produce el error de transmisión e, recibiremos la palabra
u = x + e. Al chequear la palabra recibida obtendremos

H· (x + e)Bn = H · (x)Bn +H · (e)Bn = (puesto que x ∈ C ) = H · (e)Bn ,

es decir, obtenemos la actuación de la matriz de control sobre el error de


transmisión e.

Denición 5.3.5 Si H ∈ M(n−k)×n (Z2 ) es una matriz de control de un có-


digo C y u ∈ Zn2 llamaremos síndrome de u al producto H · (u)Bn .

Evidentemente u pertenece al código C si y sólo si su síndrome es 0 y,


según hemos visto, el síndrome de la palabra recibida x + e coincide con el
síndrome del error de transmisión e. Por consiguiente, si para cada palabra no
perteneciente al código hubiese un único error que tuviese su mismo síndrome,
sería sencillísimo corregir el error cometido en la transmisión: bastaría restar
el error que tiene el mismo síndrome que la palabra recibida para corregir
dicho error. Sin embargo, como ahora veremos, puede haber muchas palabras
no pertenecientes al código que tengan el mismo síndrome.
Álgebra 233

Observación 55 Sea H ∈ M(n−k)×n (Z2 ) una matriz de control de un código


lineal C. Si u, v ∈ Zn2 , entonces
H · (u)Bn = H · (v)Bn ⇔ v − u ∈ C,
es decir, dos palabras u y v tienen el mismo síndrome si y sólo si u − v es
una palabra del código.
Veámoslo:
H · (u)Bn = H · (v)Bn ⇔ H · (v)Bn − H · (u)Bn = 0
⇔ H · (v − u)Bn = 0 ⇔ v − u ∈ C
Observación 56 El que dos palabras tengan el mismo síndrome o distintos
síndromes no depende de la matriz de control considerada: si H1 y H2 son
matrices de control de C y u, v ∈ Zn2 tendremos que:
H1 ·(u)Bn = H1 ·(v)Bn ⇔ v − u ∈ C ⇔ H2 ·(u)Bn = H2 ·(v)Bn .
Para identicar las palabras que tienen el mismo síndrome se dene en
Zn2 la siguiente relación de equivalencia: ∀ u, v ∈ Zn2 ,
u ∼ v ⇔ H · (u)Bn = H · (v)Bn ⇔ v − u ∈ C.
Ejercicio 5.3.9 Vericar que la relación  ∼ anterior es una relación de
equivalencia en Zn2 .
Entonces el espacio Zn2 queda dividido entre las clases de equivalencia
determinadas por la relación  ∼, que llamaremos cogrupos:
Denición 5.3.6 Si C ⊆ Zn2 es un código lineal y u ∈Zn2 , se denomina co-
grupo de u módulo C al conjunto {v ∈Zn2 | v − u ∈ C }. Este conjunto es la
clase de equivalencia de u respecto de la relación  ∼ y lo denotaremos por
u + C.
Observación 57 La notación
u + C = {v ∈Zn2 | v − u ∈ C }
se justica del siguiente modo:
v ∈ u + C ⇔ ∃c ∈ C tal que v − u = c ⇔ ∃c ∈ C tal que v = u+c.
Por otra parte, puesto que u − u = 0 ∈ C, tendremos que u ∈ u + C.
Nótese que C = 0 + C.
234 Álgebra

La siguiente proposición se sigue directamente de las propiedades de las


relaciones de equivalencia.

Proposición 5.3.7 Sea C ≺ Zn2 un código lineal y sean u, v ∈Zn2 . Se verica


que:

1. u + C = v + C ⇔ v − u ∈C.
2. Si ( u + C) ∩ (v + C) 6= ∅ entonces u + C = v + C.
3. Card( u + C) =Card( v + C).

Observación 58 Visto lo anterior, tenemos que los síndromes de dos pala-


bras u y v coinciden si y sólo si u y v pertenecen al mismo cogrupo módulo
C, o lo que es lo mismo, si y sólo si

u + C = v + C.

Ejercicio 5.3.10 Construir la tabla de síndromes de la siguiente matriz


µ ¶
1 1 0
H= .
0 1 1

No podemos corregir todos los errores de transmisión pero sí podemos


corregir el error de transmisión más probable. Seleccionemos de cada co-
grupo el error que consideremos más probable según el principio del vecino
más próximo: normalmente es más probable aquel que tiene menos errores
individuales, es decir elegimos uno de entre los que tienen menos unos. Lla-
maremos a dicho elemento representante del cogrupo. Esta elección es
la más razonable ya que, si y ∈ Zn2 y ey es el representante del cogrupo de
y, la corrección de y será la palabra y − ey ∈ C, que es la palabra de C más
cercana, en el sentido de la distancia de Hamming, a la palabra recibida y.

Ejercicio 5.3.11 En la tabla del ejercicio anterior elegir el mejor represen-


tante de cada cogrupo.

Una vez realizada la selección de los representantes de los cogrupos, el


proceso de corrección de errores quedaría denido por
Corrección
y −→ y − ey ,
Álgebra 235

donde ey es el representante del cogrupo de síndrome H · (y)Bn (esto es,


H · (y)Bn = H · (ey )Bn ).
Por tanto, el esquema de codicación, transmisión y decodicación queda
concretado del siguiente modo:

Codicador Transmisión
t
u −→ u · (G) = x ⇒ +e ⇒
Decodicador ½
y ·t (T ) si H · (y)Bn = 0
⇒y =x+e −→
(y − ey ) ·t (T ) si H · (y)Bn 6= 0.
Observación 59 Si elegimos a 0 como representante del cogrupo 0+C = C,
se puede simplicar la actuación del Decodicador:
Decodif icador
y −→(y − ey ) ·t (T )
Ejercicio 5.3.12 Utilizando la elección de representantes del ejercicio ante-
rior completar la siguiente tabla:

¡ y ¢ H · (y)Bn ey y − ey
¡ 0 0 0 ¢
¡ 0 0 1 ¢
¡ 0 1 0 ¢
¡ 0 1 1 ¢
¡ 1 0 0 ¢
¡ 1 0 1 ¢
¡ 1 1 0 ¢
1 1 1

5.4 Ejercicios
5.4.1 Ejercicios resueltos
1. Obtener una matriz generadora y una matriz de control del código de
paridad expuesto en los apuntes de clase.

2. Obtener una matriz generadora y una matriz de control del código de


repetición expuesto en los apuntes de clase.
236 Álgebra

3. Determinar una matriz de control del código cuya matriz generadora


es:
 
1 1 1
 1 0 0 
G =
 1
.
0 1 
1 1 1

4. Determinar una matriz generadora del código cuya matriz de control


es:
µ ¶
1 0 1 0
H=
1 1 1 1

5. Determinar una matriz de control y una matriz que permita realizar


la decodicación del código generado por los vectores cuyas coordenadas
respecto de la base canónica de Z42 son las columnas de la matriz:
 
0 1 1
 1 1 0 
 
 1 0 1 
0 1 1

6. Determinar una matriz de control y una matriz que permita realizar


la decodicación del código cuya matriz generadora es
 
1 1
 1 0 
G = 1 1 

0 1

5.4.2 Ejercicios propuestos


1. Halla la distancia mínima de cada uno de los siguientes códigos:
i) {000, 101, 100, 001} en Z32 ,
ii) {00000, 01110, 11011, 00101} en Z52 ,
iii) {000000, 111000, 000111, 111111} en Z62 .
Álgebra 237

Determina en cada caso el número de errores que se pueden detectar y el


número de errores que se pueden corregir.

2. Para cada código del problema anterior, determinar si es lineal. Si lo


es, obtener una matriz generadora, una matriz de control y una matriz que
permita realizar la decodicación del código.

3. Determinar una matriz de control y una matriz que permita realizar


la decodicación del código lineal C generado por el sistema de vectores S,
cuyas coordenadas respecto de la base canónica de Z52 son

S = {(1, 0, 1, 0, 0), (1, 0, 1, 0, 1), (0, 0, 0, 1, 0), (1, 0, 1, 1, 0)}.

Hallar todos los elementos del código C.

4. Elegir el mejor representante de cada cogrupo del código lineal

C = {000, 101, 100, 001} ≺ Z32

y completar la siguiente tabla:

¡ y ¢ H · (y)B3 ey y − ey
¡ 0 0 0 ¢
¡ 0 0 1 ¢
¡ 0 1 0 ¢
¡ 0 1 1 ¢
¡ 1 0 0 ¢
¡ 1 0 1 ¢
¡ 1 1 0 ¢
1 1 1
238 Álgebra
Capítulo 6
Autovalores y autovectores

6.1 Introducción
El objetivo principal de este tema es desarrollar una técnica que nos permita
obtener las soluciones de las ecuaciones y sistemas de ecuaciones diferenciales
lineales con coecientes constantes y de las relaciones y sistemas de relaciones
de recurrencia lineales con coecientes constantes comprobando, de paso, que
ambos problemas están estrechamente relacionados.
La naturaleza de dicha técnica y de la herramienta matemática que lleva
aparejada (teoría de autovalores y autovectores) hace posible su aplicación a
una gran variedad de problemas.
Veamos unos primeros ejemplos que nos permitan ilustrar y motivar las
siguientes deniciones:

Ejemplo 6.1.1 Supongamos que queremos calcular el número de secuencias


de ceros y unos de longitud n que no poseen dos ceros consecutivos. Si An es
el conjunto formado por dichas secuencias, buscamos obtener el número de
elementos del conjunto An , número al que denotamos por an . Obviamente,
An = Cn ∪ Un
donde Cn es el conjunto formado por las secuencias de longitud n que sa-
tisfaciendo dicha propiedad terminan en 0 y Un es el conjunto formado por
las secuencias de longitud n que, satisfaciendo dicha propiedad, terminan en
1. Pero las secuencias del conjunto Un se pueden obtener añadiendo un 1 a
cada una de las secuencias de longitud n − 1 que no poseen dos ceros conse-
cutivos, por lo que el número de elementos del conjunto Un coincide con el

239
240 Álgebra

número de elementos del conjunto An−1 , es decir, con an−1 . Por otra parte,
las secuencias del conjunto Cn se pueden obtener añadiendo 10 a cada una
de las secuencias de longitud n − 2 que no poseen dos ceros consecutivos, por
lo que el número de elementos de Cn coincide con el número de elementos
del conjunto An−2 , es decir, con an−2 . Teniendo en cuenta, ahora, que Cn y
Un son disjuntos, resulta que

an = an−1 + an−2 .

Por consiguiente, puesto que a0 = 0, a1 = 2 y a2 = 3 (ya que A0 = ∅,


A1 = {1, 0} y A2 = {10, 01, 11}), podemos obtener sucesivamente que a3 =
3+2 = 5, a4 = 5+3 = 8, a5 = 8+5 = 13, .... El problema es que, por ejemplo,
para obtener el valor de a100.000.000 necesitamos tener calculados previamente
los 99.999.999 valores anteriores. A lo largo del capítulo desarrollaremos una
técnica que nos permitirá evitar dicho cálculo previo.

Al poder aplicar la misma técnica a las relaciones de recurrencia (o ecua-


ciones en diferencias) y a las ecuaciones diferenciales, desarrollaremos las
herramientas en el contexto de estas últimas y veremos que dichas herra-
mientas son aplicables también al contexto de las relaciones de recurrencia.

Ejemplo 6.1.2 La determinación de una expresión explícita del término ge-


nérico fn de la bien conocida sucesión de Fibonacci, denida por los siguien-
tes datos iniciales y ecuación en diferencias:


f0 =1
f1 =1


fn+1 = fn + fn−1 (n ≥ 2),

se puede resolver, como veremos, por medio de la misma técnica que se emplea
para hallar una función compleja f (x) de variable real x que sea solución del
problema denido por los siguientes datos iniciales y ecuación diferencial
ordinaria (EDO) lineal con coecientes constantes de orden 2:


f (0) = 1
f (1) = 1

 00
f (x) = f 0 (x) + f (x) (x ∈ R).
Álgebra 241

6.2 Autovalores y autovectores


Según sabemos, el conjunto de sucesiones de números complejos F(N, C), o,
lo que es lo mismo, el conjunto de las funciones de N en C, tiene estructura
de C−espacio vectorial. Por convenio de notación, a la sucesión

a : N −→ C
n à a(n) = an

la denotamos por {an }n∈N .


Si ahora consideramos la función S (de Shif t, desplazamiento),

S : F(N, C) −→ F (N, C)
{an }n∈N Ã S({an }n∈N ) = {an+1 }n∈N
es decir,
S
{an }n∈N S({an }n∈N )
−→
{a0, a1 , a2 , ... Ã {a1, a2 , a3 , ...
resulta sencillo comprobar (verifíquese) que dicha función es lineal. Por con-
venio de notación escribiremos an+1 = S(an ), de manera que la sucesión
S({an }n∈N ) la podremos expresar como

S({an }n∈N ) = {S(an )}n∈N = {S(a0 ), S(a1 ), S(a2 ), ... = {a1, a2 , a3 , ...

Veamos qué relación tiene esta función con el problema que nos ocupa.
Supongamos que dado λ ∈ C, buscamos las sucesiones {an }n∈N que ∀n ∈
N satisfacen la relación
an+1 = λan .
Utilizando la notación introducida, dicha ecuación se transforma en

S(an ) = λan ,

y, puesto que dicha expresión es válida para n ≥ 1, la sucesión {an }n∈N


satisface dicha relación de recurrencia si

S({an }n∈N ) = {λan }n∈N = λ {an }n∈N .

En otras palabras, las sucesiones que satisfacen la relación de recurrencia

an+1 = λan ,
242 Álgebra

son aquellas sucesiones {an }n∈N que mediante la función S se transforman


en vectores proporcionales a sí mismos.
En general se introducen las siguientes nociones de autovector y autovalor
de una función lineal:
Denición 6.2.1 Si E es un K − e.v. y f : E −→ E es una función lineal,
se dice que v ∈ E − {0} es un autovector de f si ∃λ ∈ K tal que f (v) =λv.
Denición 6.2.2 Si E es un K − e.v. y f : E −→ E es una función lineal,
se dice que λ ∈ K es un autovalor de f si ∃v ∈ E − {0} tal que f (v) =λv.
En ese caso se dice v es un autovector asociado al autovalor λ.
Ejemplo 6.2.3 Las sucesiones {an }n∈N que satisfacen la relación de re-
currencia
an+1 = 5an ,
son las sucesiones {an }n∈N que son autovectores de la función lineal S aso-
ciados al autovalor 5. Así por ejemplo, la sucesión {1, 5, 25, ..., 5n , ...} es un
autovector de S asociado al autovalor 5, pues
S({1, 5, 25, ..., 5n , ...}) = {5, 25, ..., 5n+1 , ...} = 5 · {1, 5, 25, ..., 5n , ...}.
Obsérvese que la sucesión {3, 15, 75, ..., 3 · 5n , ...} es otro autovector asociado
al autovalor 5.
Ejemplo 6.2.4 Teniendo en cuenta que, según vimos, la función derivada
D : C ∞ (R, R) −→ C ∞ (R, R)
es una función lineal, las funciones que satisfacen la ecuación diferencial
D(f ) = −f,
son los autovectores de la función D asociados al autovalor −1.
Así por ejemplo, la función
f : R −→ R
x à e−x
es un autovector de D asociado al autovalor −1. Obsérvese que la función
3f : R −→ R
x à 3e−x
es otro autovector de D asociado al autovalor −1 y que en general para
cualquier k ∈ R la función k · f también lo es.
Álgebra 243

Ejercicio 6.2.1 Determinar los autovectores de la función lineal


f : R3 −→ R3
consistente en girar a cada vector de R3 π radianes en torno al eje z (Indi-
cación: determinar la matriz MBB33 (f )).

Ejercicio 6.2.2 Razonar que la función lineal


f : R2 −→ R2
π
consistente en girar a cada vector de R2 un ángulo de 2
radianes en torno al
punto (0, 0) no tiene autovectores.

6.3 Funciones complejas de variable real


En esta sección vamos a recordar la denición de función compleja de variable
real y a establecer algunas propiedades necesarias para el desarrollo del resto
del capítulo.

Denición 6.3.1 Sean a, b ∈ R ∪ {−∞, ∞} (recta real ampliada), con a <


b. Llamaremos función compleja de variable real√ a cualquier función
f : (a, b) −→ C. Siendo i la unidad imaginaria (i = −1), si ∀x ∈ (a, b),
f (x) = u(x) + iv(x) diremos que u : (a, b) −→ R es la parte real de la
función f y que v : (a, b) −→ R es la parte imaginaria de la función f .

Se dice que la función f es continua, diferenciable, dos veces diferenciable,


etc., en un punto c ∈ (a, b) si lo son las funciones u y v. Las derivadas y la
integral de la función f se denen derivando e integrando de la forma habitual
la función f, considerando a la unidad imaginaria i como una constante.
Así, si las funciones u, v son derivables en todo punto x ∈ (a, b), diremos
que la función f es derivable y a la función f 0 : (a, b) −→ C, denida por la
condición
∀x ∈ (a, b), f 0 (x) = u0 (x) + iv 0 (x),
donde ∀x ∈ (a, b), u0 (x) y v 0 (x) son las derivadas de u y v en el punto x
respectivamente, la denominaremos función derivada de f.
En general, si u y v admiten derivadas de orden k en todo punto x ∈ (a, b),
a la función f k : (a, b) −→ C denida por la condición

∀x ∈ (a, b), f k (x) = uk (x) + iv k (x)


244 Álgebra

la denominaremos función derivada de orden k de f .


Y del mismo modo, si las funciones u y v son integrables en [a, b], diremos
que f es integrable en [a, b] y
Zb Zb Zb
f (x)dx = u(x)dx + i v(x)dx.
a a a

Por otra parte, los resultados generales válidos para las funciones reales
de variable real también son válidos aquí. En particular, siempre que tengan
sentido las expresiones del primer miembro de las siguientes igualdades (i.e.,
en los casos a), b) y c) siempre que f y g sean derivables), se verica que:
a) ∀α, β ∈ C , y ∀ f, g ∈ F ((a, b), C), (αf + βg)0 = αf 0 + βg 0
b) ∀ f, g ∈ F((a, b), C) , (f · g)0 = f 0 g + f g 0
c) ∀ f, g ∈ F((a, b), C), ∀t0 ∈ (a, b) tal que g(t0 ) 6= 0,

f 0 f 0g − f g0
( ) (t0 ) = (t0 )
g g2
d) (∀x ∈ (a, b) f 0 (x) = 0) ⇒ f es constante
d
Rx
e) ∀x ∈ (a, b), dx ( f (t)dt) = f (x).
a

Observación 60 En lo sucesivo, C k (a, b), k ≥ 1, denotará al conjunto de


funciones complejas denidas sobre el intervalo (a, b) y que admiten deriva-
da hasta el orden k, siendo la derivada k -ésima continua. C(a, b) será el
conjunto de funciones complejas continuas denidas sobre el intervalo (a, b).

6.3.1 La exponencial compleja


Si dado x ∈ R denimos

eix = (cos x + i · senx),

cualquier número complejo z ∈ C se puede representar de la forma

z =| z | · eiα ,

siendo α ∈ R uno cualquiera de sus argumentos. Esta representación del


número complejo z es denominada forma exponencial del número complejo
z.
Álgebra 245

Si z = x + iy, se dene
ez = ex (cos y + iseny).
Utilizando esta expresión se dene la función exponencial f de constante
λ = α + βi ∈ C y parámetro t ∈ R del siguiente modo:
f : R −→ C
t 7 → eλt ,
donde
f (t) = eλt = e(α+iβ)t = eαt (cos βt + isenβt).

Propiedades de la función exponencial compleja


La función exponencial tiene las siguientes propiedades (análogas a las que
se verican en el caso real):

• ∀λ, µ ∈ C, e(λ+µ)t = eλt · eµt .


d
• ∀λ ∈ C, dt
(eλt ) = λeλt .
Rb (eλb −eλa )
• ∀λ ∈ C − {0}, eλt dt = λ
.
a

Demostración
1. Si λ = α + iβ y µ = δ + iε, tendremos que
eλt · eµt = eαt (cos βt + isenβt) · eδt (cos εt + isenεt) =
= eαt eδt ((cos βt(cos εt) − senβt(senεt)) +
+ i(senβt(cos εt) + senεt(cos βt))) =
= eαt+δt (cos(β + ε)t + isen(β + ε)t = e(λ+µ)t .

2. Si λ = α + iβ,
d λt d αt d d
(e ) = (e (cos βt + isenβt)) = (eαt cos βt) + i (eαt senβt) =
dt dt dt dt
= (αe cos βt − βe senβt) + i(βe cos βt + αeαt senβt) =
αt αt αt

= eαt (α(cos βt + isenβt) + β(i cos βt − senβt)) =


= eαt (α + iβ)((cos βt + isenβt) = λeλt .
246 Álgebra

3. ∀λ ∈ C − {0},

Zb Zb
λt
e dt = eαt (cos βt + isenβt)dt =
a a
Zb Zb
αt
= e cos βtdt + i eαt senβtdt =
a a
¯b ¯b
e (α cos βt + βsenβt) ¯¯
αt
eαt (αsenβt − β cos βt) ¯¯
= ¯ +i ¯ =
α2 + β 2 a α2 + β 2 a
¯b
αt ¯
e (cos βt + isenβt)(α − iβ) ¯
= ¯ =
α2 + β 2 a
1 1
= eαt (cos βt + isenβt) = eλt .
α + iβ λ
2

6.4 Ecuaciones diferenciales


6.4.1 La ecuación de primer orden
Entenderemos por ecuación diferencial ordinaria (EDO) lineal con
coecientes constantes de primer orden cualquier expresión de la forma
f 0 − λf = g (I)

donde g es una función compleja de variable real continua, λ ∈ C, f es la


variable de la ecuación (I) que representa a una función compleja de variable
real con derivada continua y f 0 representa la derivada de f .
Por ejemplo la siguiente expresión es una ecuación diferencial de primer or-
den:
f 0 + f = cos(x)
también se puede escribir esta misma ecuación de los siguientes modos:
df
+ f = cos(x)
dx
Álgebra 247

D(f ) + f = cos(x)
Entenderemos por solución de la ecuación a cualquier función com-
pleja de variable real con derivada continua que, reemplazada en lugar de la
variable f, haga cierta la igualdad.
Por ejemplo la función e−x es una solución de la ecuación f 0 + f = 0.

Veamos cuales son los aspectos esenciales que nos van a permitir resolver
la ecuación (I):

1. Es evidente que el problema de encontrar las soluciones de la ecuación


(I) equivale a encontrar la preimagen de g mediante la función lineal

D − λId : C 1 (a, b) → C(a, b)


f ; f 0 − λf

En lo sucesivo, para no sobrecargar demasiado la notación, escribiremos


C k en lugar de C k (a, b).

2. La ecuación f 0 − λf = 0, conocida como ecuación homogénea aso-


ciada a la ecuación (I), tiene siempre solución y el conjunto de sus
soluciones tiene estructura de subespacio vectorial, puesto que el con-
junto de soluciones es el núcleo del operador D − λId. En particular la
función 0 es solución. Además

dim(Ker(D − λId)) = 1.

Veámoslo: evidentemente la función f (x) = eλx es solución de la ecua-


ción f 0 − λf = 0. Veamos que si f¯ es otra solución de dicha ecuación,
entonces existe un escalar k ∈ C tal que f¯(x) = keλx . Puesto que

∀x ∈ R, eλx 6= 0, tiene sentido considerar la función eλx . Su función
derivada es
f¯ 0 f¯0 eλx − f¯λeλx f¯0 − λf¯ 0
λx
) = 2λx
= λx
= λx = 0
e e e e
, es decir,

= k ∈ C,
eλx
por lo que
∀x ∈ R, f¯(x) = keλx .
248 Álgebra

d
3. Teniendo en cuenta que el operador dx − λId = D − λId es la suma de
dos funciones lineales y que por tanto es lineal, se puede vericar que

si s1 es solución de f 0 − λf = h1
y s2 es solución de f 0 − λf = h2 ,
entonces
s1 + s2 es solución de f 0 − λf = h1 + h2 .

Esta propiedad es conocida como principio de superposición de


soluciones. Como consecuencia de esta propiedad, y de forma análoga
a lo que sucedía con las ecuaciones lineales, la solución general de la
ecuación (I) se obtiene sumando a una solución particular de dicha
ecuación todas las soluciones de la ecuación homogénea asociada.

4. La función lineal D − λId : C 1 → C es sobreyectiva o, lo que es


lo mismo, la ecuación f 0 − λf = g tiene solución cualquiera que sea
g ∈ C . Para comprobarlo, vamos a vericar que la función
Z x
λx g(t)
f (x) = e · dt
0 eλt

es una solución particular de dicha ecuación:


si f 0 − λf = g, entonces

f 0 f 0 eλx − f λeλx f 0 − λf g
( λx
) = 2λx
= λx
= λx ,
e e e e
de donde Z x
λx g(t)
f (x) = e · dt.
0 eλt

5. El núcleo de esta función lineal es de dimensión 1 y está generado por


el vector f (x) = eλx . Este hecho hace que el conjunto de soluciones de
la ecuación sea:
©
f ∈ C 1 (a, b)|∃α ∈ C tal que
Z x ¾
λx g(t) λx
∀x ∈ (a, b), f (x) = e · dt + αe .
0 eλt
Álgebra 249

Ejemplo 6.4.1 Se quieren determinar las soluciones de la EDO


f 0 (x) + f (x) = cos(x) x ∈ R.

para esta ecuación, g(x) = cos(x) y λ = −1.


Las soluciones de la ecuación homogénea asociada f 0 (x) + f (x) = 0 son
todas del tipo f (x) = ke−x , k ∈ R.
Una solución particular de la ecuación no homogénea es:
Z x Z x
λx g(t) −x
fp (x) = e · λt
dt = e · et cos(t)dt.
0 e 0

Integrando por partes dos veces, se obtiene que


Z x Z x
t
£ ¤
t x
e cos(t)dt = − sin(t)e 0 + et sin(t)dt =
0 0
Z x
x
£ ¤x
= − sin(x)e + cos(t)et 0 − et cos(t)dt =
0
Z x
x x
= − sin(x)e + cos(x)e − 1 − et cos(t)dt.
0
Entonces
− sin(x)ex + cos(x)ex − 1
fp (x) = e−x
2
y la solución general de nuestra ecuación es
− sin(x)ex + cos(x)ex − 1
f (x) = e−x + ke−x =
2
− sin(x) + cos(x) − e−x − sin(x) + cos(x)
= + ke−x = + k̄e−x k̄ ∈ C.
2 2

6.4.2 La ecuación de orden n


En la sección anterior estudiamos la forma general de las soluciones de la
ecuación de primer orden f 0 − λf = g . Vimos que este problema admite
una formulación algebraica que permite establecer ciertas analogías con la
resolución de ecuaciones lineales. En esta sección comprobaremos que es
posible asociar a una ecuación diferencial del tipo

f (n) + an−1 f (n−1) + · · · + a1 f 0 + a0 f = h.


250 Álgebra

un sistema de ecuaciones de primer orden, cuya resolución nos permitirá


obtener la solución de la ecuación buscada.
Comenzaremos planteando de un modo preciso el problema que queremos
resolver. Entenderemos por ecuación diferencial ordinaria (EDO) lineal
con coecientes constantes de orden n cualquier expresión de la
forma

f (n) (x) + an−1 f (n−1) (x) + · · · + a1 f 0 (x) + a0 f (x) = h (II)

donde h es una función compleja de variable real continua, an−1 , · · · , a1 , a0


son números complejos, f es la variable de la ecuación (II) que representa
a una función compleja de variable real con derivada n-ésima con-
tinua y f (k) representa la k-ésima derivada de f . Por ejemplo la siguiente
expresión es una ecuación diferencial de orden 2:

f (2) (x) + f (1) (x) + f (x) = cos(x) (aquí a1 = 1 y a0 = 1)

también se puede escribir esta misma ecuación de los siguientes modos:

f 00 (x) + f 0 (x) + f (x) = cos(x)


d2 f (x)
dx2
+ dfdx
(x)
+ f (x) = cos(x)
2
D (f )(x) + D(f )(x) + f (x) = cos(x)

Entenderemos por solución de la ecuación a cualquier función que


reemplazada en lugar de la variable f haga cierta la igualdad. Por ejemplo la
función sin(x) es una solución de la ecuación f 00 (x) + f 0 (x) + f (x) = cos(x).
Nuestro objetivo es encontrar el conjunto de soluciones de una EDO lineal
con coecientes constantes dada.

Tras el planteamiento del problema, vamos a seguir una estrategia que,


además de permitirnos resolver la ecuación diferencial de orden n

f (n) + an−1 f (n−1) + · · · + a1 f 0 + a0 f = h,

nos dotará de herramientas para resolver lo que denominaremos sistemas de


ecuaciones diferenciales de primer orden.
Álgebra 251

6.4.3 Sistemas de ecuaciones diferenciales


Nuestro objetivo es obtener un método sistemático que nos permita resolver
el siguiente tipo de problema: Determinar las funciones y1 , y2 , . . . , yn tales
que para cualquier t ∈ R se verica que


 y10 (t) = a11 y1 (t) + a12 y2 (t) + · · · + a1n yn (t)

 y 0 (t) = a21 y1 (t) + a22 y2 (t) + · · · + a2n yn (t)
2
.. (6.1)

 .

 y 0 (t) = a y (t) + a y (t) + · · · + a y (t)
n n1 1 n2 2 nn n

Normalmente para expresar (6.1) utilizaremos la notación matricial extendi-


da:
    
y10 (t) a11 a12 · · · a1n y1 (t)
 y20 (t)   a21 a22 · · · a2n  y2 (t) 
    
∀t ∈ R ,  .. = .. .. ..  ..  (6.2)
 .   . . .  . 
yn0 (t) an1 an2 · · · ann yn (t)
o la notación matricial compacta:

−0
∀t ∈ R , y (t) = A−

y (t)
El sistema (6.2) se conoce como sistema homogéneo de n ecuaciones
diferenciales lineales ordinarias de primer orden, con coecientes
constantes. Las técnicas para resolver este tipo de problema están encua-
dradas especícamente dentro del álgebra lineal. Consisten básicamente en
realizar una transformación lineal de modo que la resolución de las ecuaciones
resultantes sea más sencilla. Además dicha transformación no debe perder
información, lo que signica que debe ser posible deshacer la transformación,
o lo que es igual, debe ser invertible. Para ilustrar esta idea jémonos en que
resolver un sistema determinado de n ecuaciones lineales con n incógnitas:
   
x1 b1
   
A  ...  =  ... 
xn bn
Consiste básicamente en multiplicar ambos lados de la igualdad por A−1 (esta
es la transformación lineal) de modo que la solución del sistema resultante
resulte ser trivial o evidente:
252 Álgebra
   
x1 b1
   .. 
In  ...  = A−1  . 
xn bn

Para atacar nuestro problema utilizando transformaciones lineales el pri-


mer punto que debemos tratar es el siguiente: ¾Como modican las transfor-
maciones lineales a los sistemas de ecuaciones diferenciales? Antes de abordar
la respuesta a esta pregunta, es conveniente hacer la siguiente observación.

Observación 61 Una vez desarrollada una herramienta que nos permita


resolver sistemas de primer orden, podremos también utilizarla para resolver
la ecuación diferencial de orden n

f (n) + an−1 f (n−1) + · · · + a1 f 0 + a0 f = h.

La idea consiste en denir, a partir de la ecuación anterior, las siguientes


funciones 

 y1 (t) = f (t)

 y2 (t) = f 0 (t) = y10 (t)
.. (6.3)

 .

 y (t) = f (n−1) (t) = y 0 (t)
n n−1

de manera que resolver la ecuación anterior, consiste en resolver el siguiente


sistema de primer orden equivalente:
    
  0 1 0 ··· 0 y1 (t) 0
0
y1 (t)   y2 (t)   
 y 0 (t)   0 0 1 ··· 0  ..   0 
 2   . .. ..    .. 
 ..  =  .. . .  . + . .
 .    ..   
0
 0 0 0 ··· 1  .   0 
yn (t)
−a0 −a1 −a2 · · · −an−1 yn (t) h(t)

Ejemplo 6.4.2 Para hallar las soluciones de la ecuación


f 00 (x) + f 0 (x) + f (x) = cos(x),

podemos denir (
y1 (x) = f (x)
y2 (x) = f 0 (x) = y10 (x),
Álgebra 253

y resolver el problema de determinar las soluciones del sistema


µ ¶ µ ¶µ ¶ µ ¶
y10 (x) 0 1 y1 (x) 0
= + .
y20 (x) −1 −1 y2 (x) cos(x)

6.5 La semejanza de matrices y los sistemas de


ecuaciones
Consideremos el sistema de n ecuaciones diferenciales


→0
∀t ∈ R , y (t) = A→

y (t), (6.4)

donde A es una matriz cuadrada de orden n. Si Q es una matriz cuadrada


cualquier solución de (6.4) también lo es de



∀t ∈ R , Q· y 0 (t) = Q · A−

y (t). (6.5)

Si además Q es invertible el recíproco es cierto, es decir, cualquier solución


de (6.5) también lo es de (6.4).
Por tanto si P es una matriz invertible podemos escribir (6.5) usando P −1 ,
es decir:



∀t ∈ R , P−1 · y 0 (t) = P−1 ·A→

y (t).

Ahora, si suponemos que

   
γ11 · · · γ1n y1 (t)
−1  .. ..   
P = . .  y (t) =  ...  ,
e →

γn1 · · · γnn yn (t)

tendremos que:
254 Álgebra

  
γ11 · · · γ1n y10 (t)

→  ..   ..  =
P−1 · y 0 (t) =  ... .  . 
γn1 · · · γnn yn0 (t)
  0 
z1 (t)
z }| {
 X n  
   
  γ1i yi (t) 
 Pn     
 i=1   
γ y 0 (t)  
 i=1 1i i    z10 (t)
 ..   ..   . 
=
 . 
 = 
  .  =  ..  .
0 
 Pn    zn0 (t)
γni yi0 (t)  
  n  
i=1  X  
  γni yi (t) 
   
  i=1  
| {z }
zn (t)

Luego si introducimos el cambio de variables




z (t) = P−1 ·−

y (t),
tendremos que

→0 −

z (t) = P−1 · y 0 (t)
y en consecuencia el sistema (6.4) equivale a

→0
∀t ∈ R , z (t) = P−1 ·A→

y (t).
Ahora, para conseguir que aparezca el mismo tipo de variable a ambos lados
de la igualdad, podemos hacer las siguientes transformaciones:


−0
z (t) = P−1 ·A−

y (t) = P−1 ·A · (P · P−1 )−

y (t) =
= (P ·A · P)(P · y (t)) = (P ·A · P)−
−1 −1 −
→ −1 →
z (t).
Resumiendo, hemos obtenido que si P es una matriz de orden n invertible
las siguientes condiciones I e II son equivalentes:
I II
(

→0 −

y (t) = P·−

z (t)
∀t ∈ R , y (t) = A→

y (t) ⇐⇒ ∀t ∈ R , −
→0
z (t) = (P ·A · P)−
−1 →
z (t).
Álgebra 255

Observación 62 Vemos que, siendo P una matriz invertible, el efecto de




sustituir en un sistema de ecuaciones diferenciales y 0 (t) = A→ −
y (t) la matriz
de coecientes A por la matriz (P−1 ·A · P), equivale a realizar el cambio de
variable lineal −

y (t) = P·−
→z (t).
Aplicaremos este resultado del siguiente modo: supuesto que nos plantean el
problema I, buscaremos una matriz invertible P de modo que el sistema de
ecuaciones diferenciales del problema II sea más sencillo. Entonces, bastará
multiplicar por P la solución −→z (t) de dicho sistema, para obtener la solución
del problema I.

Observación 63 Vimos que dos matrices cuadradas A y B son semejantes


si existe una matriz invertible P, que llamamos matriz de paso, tal que

P−1 ·A · P = B.

A continuación vamos a discutir qué tipos de sistemas de ecuaciones di-


ferenciales vamos a poder resolver directamente.

6.5.1 Sistemas diagonales


Comenzaremos con los sistemas cuya matriz de coecientes es diagonal:

    
y10 (t) λ1 0 · · · 0 y1 (t)
 y20 (t)   0 λ2 · · · 0  y2 (t) 
    
∀t ∈ R ,  .. = .. .. . . .  .. .
 .   . . . ..  . 
yn0 (t) 0 0 · · · λn yn (t)

Desde luego, como este sistema equivale a




 y10 (t) = λ1 y1 (t)

 y 0 (t) = λ2 y2 (t)
2
.. .. ,

 . .

 y 0 (t) = λ y (t)
n n n

sabemos resolverlo y sus soluciones son

y1 (t) = α1 eλ1 ·t , y2 (t) = α2 eλ2 ·t , . . . , yn (t) = αn eλn ·t .

Si queremos expresarlas matricialmente escribiremos:


256 Álgebra
       
y1 (t) eλ1 ·t 0 0
 y2 (t)   0   eλ2 ·t   0 
       
 ..  = α1  ..  + α2  ..  + · · · + αn  .. .
 .   .   .   . 
yn (t) 0 0 eλn ·t

 
0 0 0
Ejemplo 6.5.1 Si A = 0 2 0 , entonces λ1 = 0, λ2 = 2 y λ3 = 1.
0 0 1
Se sigue que las soluciones del sistema de ecuaciones que tiene A como matriz
asociada son
y1 = c1 , y2 = c2 e2t , y3 = c3 et .

¾Sabiendo resolver sistemas diagonales, podemos resolver cualquier otro


sistema de ecuaciones diferenciales de primer orden con coecientes constan-
tes? Para poder responder armativamente a esta pregunta tendríamos que
ser capaces de transformar por semejanza cualquier matriz en otra que sea
diagonal. Aunque más adelante veremos que en general esto no es po-
sible, el estudio de este problema nos dará unas claves fundamentales para
resolver los sistemas de ecuaciones diferenciales.

Puesto que no toda matriz es diagonalizable, necesitamos buscar otro


tipo de matrices que nos permitan simplicar la resolución de sistemas de
ecuaciones diferenciales.

6.5.2 Sistemas triangulares


Consideremos ahora los sistemas homogéneos cuya matriz de coecientes es
triangular inferiormente:
    
y10 (t) λ1 0 ··· 0 y1 (t)
 y20 (t)   a21 λ2 ··· 0  y2 (t) 
    
∀t ∈ R ,  .. = .. .. .. ..  .. .
 .   . . . .  . 
yn0 (t) an1 an2 · · · λn yn (t)
Álgebra 257

Este caso equivale a:




 y10 (t) − λ1 y1 (t) = 0

 0
 y
 2 (t) − λ y
2 2 (t) = a21 1 (t)
y
.. .
 .

 P
n−1


 yn0 (t) − λn yn (t) = a1i yi (t)
i=1

Aunque laborioso, es fácil resolver este tipo de ecuaciones:


1. Resolvemos la ecuación

y10 (t) − λ1 y1 (t) = 0

y obtenemos que
y1 (t) = α1 eλ1 ·t .
2. A continuación, como ya conocemos y1 , resolvemos la segunda ecuación

y20 (t) − λ2 y2 (t) = a21 α1 eλ1 ·t

y obtenemos que
Z t
λ2 ·t λ2 ·t
y2 (t) = α2 e + α1 e · a21 e(λ1 −λ2 )·x dx.
0

3. Como ya conocemos y1 e y3 , podemos resolver la tercera ecuación y


así sucesivamente hasta la última.
Veamos un ejemplo.

Ejemplo 6.5.2 Encontrar las soluciones del siguiente sistema:


    
y10 (t) 0 0 0 y1 (t)
 y20 (t)  =  1 1 0   y2 (t)  .
y30 (t) −1 3 1 y3 (t)

En primer lugar, dicho sistema equivale a


 0
 y1 (t) − 0 · y1 (t) = 0,
y 0 (t) − 1 · y2 (t) = y1 (t),
 20
y3 (t) − 1 · y3 (t) = −y1 (t) + 3y2 (t).
258 Álgebra

1. La solución general de la primera ecuación es


y1 (t) = α1 e0·t = α1 .
2. La segunda ecuación se trasforma en
y20 (t) − y2 (t) = α1
y su solución general es
Z t
t t
y2 (t) = β2 e + e α1 e−1x dx = (β2 + α1 )et − α1 .
0

Como β2 es arbitrario, podemos llamar α2 a (β2 + α1 ) y escribir


y2 (t) = α2 et − α1 .
3. Por último, como ya conocemos y1 e y2 , la tercera ecuación se trans-
forma en
¡ ¢
y30 (t) − y3 (t) = −α1 + 3 α2 et − α1 = 3α2 et − 4α1 ,
y su solución general viene dada por
1.
Z t
t t
¡ ¢
y3 (t) = β3 e + e 3α2 e(1−1)x − 4α1 e−1x dx =
0
= (β3 − 4α1 ) et + 4α1 + 3α2 tet .
De nuevo, si llamamos α3 a (β3 − 4α1 ), tendremos
y3 (t) = α3 et + 3α2 tet + 4α1 .

Luego, al expresar las soluciones vectorialmente, obtenemos


       
y1 (t) 1 0 0
 y2 (t)  = α1  −1  + α2  et  + α3  0  .
y3 (t) 4 3tet et

De cara a la resolución de sistemas de ecuaciones, ¾es sucientemente


grande el conjunto de matrices triangulares?, dicho de otro modo, ¾cualquier
matriz cuadrada es semejante a alguna triangular? Para contestar a esta
pregunta necesitamos estudiar los autovalores y autovectores de la matriz
del sistema.
Álgebra 259

6.6 Diagonalización y triangulación de matri-


ces
6.6.1 El polinomio característico de una matriz
Observación 64 Si nos jamos en las columnas de una matriz triangular
 
λ1 0 ··· 0
 a21 λ2 ··· 0 
 
T= .. .. .. .. 
 . . . . 
an1 an2 · · · λn

vemos que son linealmente independientes si y sólo si todos los coecientes


de la diagonal principal son distintos de cero; una manera directa de vericar
esta armación es observar que

det(T) = |T| = λ1 λ2 · · · λn .

En consecuencia las columnas de la matriz


 
λ1 − x 0 ··· 0
 a21 λ2 − x · · · 0 
 
T − xIn =  .. .. . . .. 
 . . . . 
an1 an2 · · · λn − x

son linealmente dependientes si y sólo si x coincide con algún elemento de la


diagonal principal. También podemos expresar esta propiedad diciendo que
el determinante de la matriz T − xIn se hace cero si y sólo si x coincide con
algún elemento de la diagonal principal. Si ahora desarrollamos |T − xIn |
¯ ¯
¯ λ1 − x 0 ··· 0 ¯
¯ ¯
¯ a21 λ − x · · · 0 ¯
¯ 2 ¯
¯ .. .. . . .. ¯ = (λ1 − x) (λ2 − x) · · · (λn − x) ,
¯ . . . . ¯
¯ ¯
¯ an1 an2 · · · λn − x ¯

vemos que lo dicho hasta el momento es trivial, ya que obtenemos un poli-


nomio de grado n cuyas raíces son precisamente los elementos de la diagonal
principal de T. ¾Dónde reside el interés de esta observación? Fundamental-
mente en que este determinante es invariante bajo las transformaciones
260 Álgebra

por semejanza: supongamos que las matrices A y T son semejantes, es


decir, T = P−1 AP entonces tenemos
¯ ¯ ¯ ¯
|T − xIn | = ¯P−1 AP − xIn ¯ = ¯P−1 AP − xP−1 P¯ =
¯ ¯ ¯ ¯
= ¯P−1 (A − xIn ) P¯ = ¯P−1 ¯ |A − xIn | |P| =
¡ ¯ ¯ ¢
= puesto que ¯P−1 ¯ = |P|−1 =
= |A − xIn | .
Esto signica que el polinomio, cuyas raíces coinciden con los elementos de
la diagonal principal de T, puede ser obtenido directamente a partir de A.

Ejemplo 6.6.1 Determinar qué elementos pueden aparecer en la diagonal


principal de una matriz triangular T semejante a la siguiente matriz
µ ¶
4 −2
A= .
3 −1

Calculemos |T − xIn | = |A − xIn | :


¯ ¯
¯ 4−x −2 ¯¯
¯ = (4 − x) (−1 − x) + 6 = 2 − 3x + x2 ;
¯ 3 −1 − x ¯
luego, |T − xIn | = 2 − 3x + x2 . Los elementos que pueden aparecer en la
diagonal principal de T son las raíces de 2 − 3x + x
√ ½
2 3± 9−8 2
x − 3x = 2 = 0 ⇒ x = = ;
2 1
en consecuencia,

|T − xIn | = 2 − 3x + x2 = (2 − x) (1 − x)
y en la diagonal principal de T necesariamente aparecen los valores 2 y 1.

Denición 6.6.2 Dada una matriz cuadrada A de orden n, se denomina


polinomio característico de A al polinomio
p(x) = |A − xIn | .
Dada una matriz cuadrada A de orden n, diremos que una matriz columna
X de n las es un vector propio de A (o un autovector de A) si:
Álgebra 261

1. X 6= 0.

2. Existe un escalar λ tal que AX = λX.

Asimismo, diremos que un escalar λ es un valor propio de A (o un auto-


valor de A) si existe un vector propio X de A tal que AX = λX. En tal caso
diremos que λ es el valor propio asociado al vector propio X, o también que
X es un vector propio asociado al valor propio λ.

Propiedades del polinomio característico


• Si A y B son semejantes, sus polinomios característicos coinciden.

• Usando la fórmula de Laplace para el cálculo de determinantes, po-


demos vericar que el polinomio característico es de grado n (si, por
ejemplo, calculamos el determinante de la matriz A − xIn a partir de
la primera la, resulta que el primer término de la suma resultante es
el un único que contiene una potencia n-ésima de x,) y, por el teorema
fundamental del álgebra, tiene n raíces complejas.

• Como acabamos de ver, si T es una matriz triangular semejante a la


matriz objeto de estudio A, los elementos de su diagonal principal son
las raíces del polinomio característico de A (que por otra parte es
el mismo que el de T ). Así, aunque todos los coecientes de la matriz
A sean números reales, los coecientes de la diagonal principal de T
pueden ser números imaginarios. Por ejemplo, la matriz
µ ¶
0 −1
A=
1 0

tiene como polinomio característico


¯ ¯
¯ −x −1 ¯
|A − xIn | = ¯¯ ¯ = x2 + 1,
1 −x ¯

con lo que en la diagonal principal de T necesariamente aparecen los


valores i y −i.

• λ es una raíz del polinomio característico de una matriz cuadrada A si


y sólo si |A − λIn | = p(λ) = 0. La última condición es equivalente a que
262 Álgebra

el rango de la matriz A−λIn sea estrictamente menor que n y, entonces,


a que el sistema de ecuaciones lineales homogéneo (A − λIn )X = (0)
sea compatible indeterminado, es decir, a que exista X 6= (0) tal que
AX = λX. Se deduce que

λ es una raíz de p(x) ⇔ (existe X 6= (0) tal que AX = λX) ⇔


(
λ es un autovalor de A y

X es un autovector de A.

Denición 6.6.3 Si λ es un autovalor de una matriz cuadrada A, al espacio


Ker(A − λIn ) de las soluciones del sistema de ecuaciones lineales homogéneo
(A−λIn )X = (0) se le denomina autoespacio asociado a λ y su dimensión
es la multiplicidad geométrica de λ.
A la multiplicidad de λ como raíz del polinomio característico de la matriz
A se le denomina multiplicidad algebraica de λ.

Proposición 6.6.4 Sean A una matriz cuadrada de orden n y X1 , ..., Xm ,


m ∈ {1, ..., n}, vectores propios de A asociados, respectivamente, a m valores
propios λ1 , ..., λm . En estas condiciones, si ∀i, j ∈ {1, ..., m} λi 6= λj , se
verica que los vectores X1 , ..., Xm son linealmente independientes.

Demostración Por inducción sobre m:

1. Base de inducción: para m = 1 no hay nada que demostrar.

2. Paso de inducción: Sea m > 1 y supongamos que la propiedad es


cierta para cualquier sistema de m − 1 vectores propios. Supongamos
además que
P
m
αi Xi = 0. (1)
i=1

Multiplicando a ambos miembros de la igualdad (1) por λ1 obte-


nemos que
P
m
(λ1 αi )Xi = 0 (2).
i=1
Álgebra 263

P
m P
m
Pero, por una parte, A · ( αi Xi ) = A · 0 = 0 y, por otra, A · ( αi Xi ) =
i=1 i=1
P
m
(λi αi )Xi , puesto que si A · X = λX, entonces A · (αX) = α(A · X) =
i=1
α(λX) = (λα)X. En consecuencia:

P
m
(λi αi )Xi = 0 (3)
i=1

P
m
Restando (2) a (3) obtenemos que αi (λi −λ1 )Xi = 0, con lo que, por hipó-
i=2
tesis de inducción, ∀i ∈ {2, ..., m}, αi (λi − λ1 ) = 0, de donde ∀i ∈ {2, ..., m},
αi = 0, con lo que la igualdad (1) queda α1 X1 = 0 y en consecuencia α1 = 0.
2

6.6.2 Matrices diagonalizables


Denición 6.6.5 Diremos que una matriz cuadrada A de orden n es dia-
gonalizable, si existe una matriz de paso invertible P de orden n tal que la
matriz
D = P−1 AP
es diagonal.

Los resultados anteriores son obviamente aplicables a aquellas matrices


triangulares que en particular sean diagonales. En otras palabras, si A es una
matriz diagonalizable y D es una matriz diagonal semejante a A, los elemen-
tos de la diagonal principal de D son las raíces del polinomio característico
de A (i.e., los valores propios de A).
En el caso de que sea D = P−1 AP sea diagonal, ¾podemos saber algo
acerca de la matriz P? Vamos a ver que sí. Supongamos que
 
λ1 0
 
D =  ... . . . ... 
0 λn

es la matriz P−1 AP. Entonces multiplicando a la izquierda de ambas por la


matriz P tendremos que
264 Álgebra

AP = PD.

Por tanto la j-ésima columna de AP coincide con la j-ésima columna de PD.


Ahora bien, si
 
p11 · · · p1n
 ..  ,
P =  ... . 
pn1 · · · pnn

tendremos que las j-ésimas columna de AP y PD son respectivamente


 
0
     
p1j p11 · · · p1n  ..  p1j
 . 
   .. ..   λ  = λ  .. 
A  ...  y  . .  j  j . 
 . 
pnj pn1 · · · pnn  ..  pnj
0

y en consecuencia obtenemos que:


   
p1j p1j
   .. 
∀j ∈ {1, . . . , n} , A  ...  = λj  .  (6.6)
pnj pnj
Entonces si D = P−1 AP es diagonal necesariamente las columnas de
P son vectores propios de A y los coecientes λ1 , ..., λn son los valores
propios de A.
Podemos completar esta observación con la siguiente propiedad:

Proposición 6.6.6 Una matriz cuadrada A ∈ Mn (K) es diagonalizable si


sólo si existe una base en el espacio Mn×1 (K)de matrices columnas de n las
formada por vectores propios de A.

Demostración Si A es diagonalizable existe una matriz invertible P (de


orden n ) tal que P−1 AP es diagonal. Por tanto tendremos que las n colum-
nas de P son vectores propios de A linealmente independientes (por ser P
invertible) y en consecuencia constituyen una base en el espacio de matrices
columnas de n las formada por vectores propios de A.
Recíprocamente supongamos que
Álgebra 265
   
p11 p1n
 ..   .. 
 .  , . . . ,  . 
pn1 pnn

es una base del espacio de matrices columnas de n las formada por vecto-
res propios de A. Entonces tendremos que por un lado, al constituir estas
matrices columna una base, la matriz
 
p11 · · · p1n
 .. 
P =  ... . 
pn1 pnn

es invertible. Por otro, al ser vectores propios de A, existen n escalares


λ1 , . . . , λn (no necesariamente distintos) tales que:
   
p1j p1j
   
∀j ∈ {1, . . . , n} , A  ...  = λj  ... 
pnj pnj

Pero entonces tendremos que:


    
p11 · · · p1n p11 · · · p1n λ1 0
 ..  =  ..   . 
A  ... .  
..
. . 
.. . .
. . .. 
pn1 pnn pn1 pnn 0 λn

y en consecuencia, multiplicando por la izquierda P−1 obtenemos:


 
λ1 0
 
P−1 AP =  ... . . . ... 
0 λn
2

Tras el resultado anterior, el problema de diagonalización queda reducido


al problema de saber encontrar los vectores propios, siempre y cuando ésto
sea posible, lo cual, según veremos, no sucede siempre.
Teniendo en cuenta que por el teorema 6.6.6 una matriz cuadrada de orden n,
A, es diagonalizable si y solo si existen n vectores propios de A linealmente
266 Álgebra

independientes. Si un valor propio λ de A tiene multiplicidad algebraica


m(λ) > 1 (como raíz del polinomio característico de A), de la observación
64 se sigue que en la matriz de paso P deberán aparecer m(λ) columnas que
sean vectores propios linealmente independientes asociados al valor propio λ.
En resumen: A es diagonalizable si y sólo si para todo autovalor λ de A
se verica que
dim(Ker(A − λIn )) = m(λ),
es decir, si la multiplicidad geométrica de λ es igual a su multiplicidad alge-
braica.
Veamos con el siguiente ejemplo que no toda matriz cuadrada es diago-
nalizable:
µ ¶
3 4
Ejemplo 6.6.7 Sea A = . Su polinomio característico es
−1 −1
¯ ¯
¯ 3−x 4 ¯
|A − xI2 | = ¯¯ ¯ = x2 − 2x + 1,
¯
−1 −1 − x

de donde
½
2 1
x − 2x + 1 = 0 ⇒ x = , por lo que, si A fuese diagonalizable
1 µ ¶
1 0
−1 −1
y P AP fuese una matriz diagonal, necesariamente P AP = ,
0 1
siendo los dos vectores columna de P vectores propios asociados al valor
propio 1 y linealmente independientes. Sin embargo
µ ¶
2 4
dim(Ker(A − 1I2 ) = 2 − rg(A − 1I2 ) = 2 − rg( )=1
−1 −2

con lo que no existen dos vectores propios de A linealmente independientes


asociados al valor propio 1.

Potencias de matrices diagonalizables


El estudio teórico realizado también nos provee de una herramienta para
calcular la potencia n−ésima de una matriz diagonalizable.
Álgebra 267

Si una matriz cuadrada A es diagonalizable y queremos calcular su po-


tencia n−ésima, tendremos que
 −1   
p11 · · · p1n a11 · · · a1n p11 · · · p1n
 .. ..   .. ..   .. ..  =
 . .   . .  . . 
pn1 · · · pnn an1 · · · ann pn1 · · · pnn
 
λ1 0
 
=  ... . . . ... 
0 λn
o, lo que es lo mismo, que
P−1 AP = D.
Resulta que
A = PDP−1 ,
con lo que
¡ ¢n ¡ ¢¡ ¢¡ ¢ ¡ ¢
An = PDP−1 = PDP−1 PDP−1 PDP−1 ... PDP−1 = P · Dn ·P−1 .
Veamos un ejemplo:
Ejemplo 6.6.8 Hallar µ ¶1000
1 1
.
4 −2
Como, según hemos visto en los ejemplos anteriores,
µ ¶−1 µ ¶ µ ¶ µ ¶
1 1 1 1 1 1 2 0
· · = ,
1 −4 4 −2 1 −4 0 −3
resulta que
µ ¶ µ ¶ µ ¶ µ ¶−1
1 1 1 1 2 0 1 1
= · · ,
4 −2 1 −4 0 −3 1 −4
con lo que
µ ¶1000 µ ¶ µ ¶1000 µ ¶−1
1 1 1 1 2 0 1 1
= · · =
4 −2 1 −4 0 −3 1 −4
µ ¶ µ 1000 ¶ µ 4 1 ¶
1 1 2 0
= · · 51 5 1 =
1 −4 0 (−3)1000 5
−5
µ 4 1000 1 1000 1 1000 1 1000

2 + (−3) 2 − (−3)
= 5
4 1000
5 5 5 .
5
2 − 45 (−3)1000 15 21000 + 45 (−3)1000
268 Álgebra

Nótese que, obviamente


µ ¶n µ 4 n

1 1 2 + 15 (−3)n 1 n
2 − 15 (−3)n
= 5
4 n
5 .
4 −2 5
2 − 45 (−3)n 1 n
5
2 + 54 (−3)n

6.6.3 Triangulación de matrices


Volvemos a la pregunta fundamental que nos devuelve al hilo conductor del
desarrollo del capítulo: ¾Es cualquier matriz cuadrada A ∈ Mn (C) semejante
a alguna triangular?
Vamos a ver que sí. Además, la demostración del siguiente teorema consti-
tuye un algoritmo que permite la obtención de la matriz triangular semejante
a una matriz dada A ∈ Mn (C).

Teorema 6.6.9 Si A es una matriz cuadrada de orden n con coecientes


complejos, existe una matriz semejante a ella, T, que es triangular inferior-
mente.

Demostración La demostración consiste en probar que se puede construir


una cadena de matrices

A = T0 → T1 → · · · → Tn = T,

cada una semejante a la anterior (y en consecuencia todas ellas son semejantes


entre sí) y de tal modo que T es triangular inferiormente.
Procedemos por inducción sobre la dimensión n de la matriz A.
Base de inducción: si n = 1 no hay nada que demostrar.
Paso de inducción: sea n ≥ 2 y supongamos que toda matriz cuadrada
de dimensión n − 1 es triangulable.
Sea ahora A un matriz de dimensión n.
Puesto que trabajamos con coecientes complejos, el polinomio caracte-
rístico de A
pA (x) = |A − xI|
tiene al menos una raíz, a la que por conveniencia denotaremos con λ1 . Lla-
mamos v1 a un autovector asociado a λ1 . Si elegimos una base de Cn cuyo
Álgebra 269

último vector sea v1 , la matriz A resultará ser semejante a una matriz A0 de


la forma:  
0
 0
 
0  .. 
A = An−1 . .
 
 0
a0n1 a0n2 · · · a0n(n−1) λ1
Entonces

pA (x) = pA0 (x) = (λ1 − x) |An−1 − xIn−1 |

y el polinomio característico de An−1 tiene n − 1 raíces (los restante autova-


lores de A).
Por la hipótesis de inducción, existe una matriz invertible de paso Pn−1
y una matriz triangular inferiormente Tn−1 tales que
−1
Tn−1 = Pn−1 An−1 Pn−1 .

Si denimos  
0
 0
 
 ..  ,
P = Pn−1 .
 
 0
0 0 ··· 0 1
se verica que
 
0
 0
 
 .. 
P −1 = −1
Pn−1 . y que T = P−1 A0 P.
 
 0
0 0 ··· 0 1

Se sigue que la matriz triangular inferiormente T es semejante a la matriz


A. 2

Ejemplo 6.6.10 Triangular por semejanza y hallar la matriz de paso corres-


pondiente a la matriz
270 Álgebra

 
−2 0 3
A =  3 −2 −9 
−1 2 6
En primer lugar determinamos las raíces del polinomio característico de
la matriz:
¯ ¯
¯ −2 − X 0 3 ¯¯
¯
¯ 3 −2 − X −9 ¯¯ = −X + 2X 2 − X 3 = (1 − X)2 (0 − X).
¯
¯ −1 2 6−X ¯

Luego los autovalores A son 1, 1 y 0. Ya que rango(A − Id3 ) = 2, la multipli-


cidad geométrica de λ1 = 1 es 1 y no coincide con su multiplicidad algebraica.
Por tanto A no es diagonalizable.
Un autovector asociado a λ1 = 1 es v1 = (1, −2, 1) ∈ Ker(A − Id3 ).
Sea ((1, 0, 0), (0, 1, 0), (1, −2, 1)) una base de C3 . La matriz
 
1 0 1
P1 = 0 1 −2
0 0 1

es tal que
   
1 0 −1 −2 0 3 1 0 1
A0 = P1−1 AP1 = 0 1 2   3 −2 −9  0 1 −2 =
0 0 1 −1 2 6 0 0 1
 
−1 −2 0
= 1 2 0 .
−1 2 1
Ahora tenemos que triangular la submatriz
µ ¶
00 −1 −2
A =
1 2

que tiene autovalores 1 y 0.


Utilicemos el primero como λ2 . Un autovector asociado a λ2 = 1 es v2 =
(−1, 1) ∈ Ker(A00 − Id2 ). Sea ((1, 0), (−1, 1)) una base de C2 . La matriz
Álgebra 271

 
1 −1 0
P2 = 0 1 0
0 0 1
es tal que
   
1 1 0 −1 −2 0 1 −1 0
−1 0 
P2 A P2 = 0 1 0   1 2 0   0 1 0 =
0 0 1 −1 2 1 0 0 1
 
0 0 0
=  1 1 0 ,
−1 3 1
que es triangular inferiormente y tiene los autovalores de A en la diagonal.
Entonces
 
0 0 0
P2−1 A0 P2 = P2−1 P1−1 AP1 P2 =  1 1 0 .
−1 3 1
Se sigue que la matriz de paso es
 
1 −1 1
P = P1 P2 =  0 1 −2  ,
0 0 1
ya que
 −1    
1 −1 1 1 −1 1 0 0 0
P −1 AP =  0 1 −2  · A ·  0 1 −2  =  1 1 0  = T.
0 0 1 0 0 1 −1 3 1

6.6.4 Resolución de sistemas de ecuaciones diferenciales


por triangulación
A partir de este momento, sabremos resolver un sistema de ecuaciones dife-
renciales lineales con coecientes constantes, siempre que podamos obtener
las raíces del polinomio característico de la matriz de coecientes.
Si la dimensión de la matriz del sistema es mayor o igual que cinco, no
hay fórmulas cerradas para hallar las raíces del polinomio característico y
hace falta usar métodos numéricos de aproximación de autovalores. Algunos
de estos métodos están ilustrados en la práctica 6.
272 Álgebra

Sistemas homogéneos
Vamos a ilustrar por medio de un ejemplo el método de resolución de sistemas
homogéneos. Sea el siguiente sistema homogéneo de ecuaciones:
 0    
y1 (t) −2 0 3 y1 (t)
 y20 (t)  =  3 −2 −9   y2 (t)  .
y30 (t) −1 2 6 y3 (t)

Paso 1: Hacemos triangular la matriz de coecientes, no olvidando generar


la matriz de paso. Como esto ya ha sido realizado en el ejemplo anterior,
simplemente nos traemos el resultado:
 −1     
1 −1 1 −2 0 3 1 −1 1 0 0 0
 0 1 −2  ·  3 −2 −9  ·  0 1 −2  =  1 1 0  .
0 0 1 −1 2 6 0 0 1 −1 3 1

Paso 2: Resolvemos el sistema triangular


    
z10 (t) 0 0 0 z1 (t)
 z20 (t)  =  1 1 0   z2 (t)  .
z30 (t) −1 3 1 z3 (t)

Como este sistema ha sido resuelto en el ejemplo 6.5.2, nos traemos la solu-
ción:
       
z1 (t) 1 0 0
 z2 (t)  = α1  −1  + α2  et  + α3  0  .
z3 (t) 4 3tet et

Paso 3: Multiplicamos la solución del sistema triangular por la matriz de


paso:

         
y1 (t) 1 −1 1 1 0 0
 y2 (t)  =  0 1 −2  α1  −1  + α2  et  + α3  0  =
y3 (t) 0 0 1 4 3tet et
     
6 −et + 3tet et
= α1  −9  + α2  e − 6te  + α3  −2et  .
t t

4 3tet et
Álgebra 273

Ejemplo 6.6.11 Resolver la siguiente ecuación:


f 00 − 6f 0 + 9f = 0.

Lo primero es plantear el sistema de primer orden equivalente:


µ 0 ¶ µ ¶µ ¶
y1 (t) 0 1 y1 (t)
= ,
y20 (t) −9 6 y2 (t)

donde ½
y1 (t) = f (t)
.
y2 (t) = f 0 (t) = y10 (t)
Ahora hacemos triangular la matriz
µ ¶
0 1
A= ,
−9 6

para lo cual lo primero es determinar las raíces de su polinomio característico:


¯ ¯
¯ −X 1 ¯¯
¯ 2 2
¯ −9 6 − X ¯ = X − 6X + 9 = (3 − X) .

Luego los autovalores A son 3,3. A continuación utilizamos el procedimiento


visto para triangular la matriz y hallar la matriz de paso.
El rango de la matriz A − 3Id2 es 1 y, por tanto, A no es diagonalizable.
Un autovector asociado al autovalor λ1 = 3 es v1 = (1, 3) ∈ Ker(A − 3Id2 ).
Sea ((0, 1), (1, 3)) una base de C2 .
La matriz µ ¶
0 1
P1 =
1 3
es tal que
µ ¶µ ¶µ ¶
0 −3 1 0 1 0 1
A = P1−1 AP1 = =
1 0 −9 6 1 3
µ ¶
3 0
= .
1 3
Entonces
µ ¶ µ ¶−1 µ ¶µ ¶
3 0 0 1 0 1 0 1
= .
1 3 1 3 −9 6 1 3
274 Álgebra

Ahora resolvemos el sistema triangular


µ 0 ¶ µ ¶µ ¶
z1 (t) 3 0 z1 (t)
= .
z20 (t) 1 3 z2 (t)

Dicho sistema equivale a:


½
z10 (t) = 3z1 (t)
.
z20 (t) = z1 (t) + 3z2 (t)

La solución general de la primera ecuación, según sabemos, es z1 (t) = α1 e3t .


La segunda ecuación se transforma en z20 (t) − 3z2 (t) = α1 e3t y su solución
general es:
Z t
3t 3t
z2 (t) = α2 e + e α1 e3x e−3x dx
Z0 t
= α2 e3t + e3t α1 dx =
0
3t 3t
= α2 e + e α1 (t) =
= e3t (α2 + tα1 ),

es decir,
z2 (t) = α1 te3t + α2 e3t .
Expresando las soluciones vectorialmente tenemos que
µ ¶ µ 3t ¶ µ ¶
z1 (t) e 0
= α1 + α2 .
z2 (t) te3t e3t

Finalmente, multiplicamos la solución del sistema triangular por la matriz


de paso:
µ ¶ µ ¶ · µ 3t ¶ µ ¶¸
y1 (t) 0 1 e 0
= α1 + α2 =
y2 (t) 1 3 te3t e3t
µ ¶ µ 3t ¶
te3t e
= α1 + α2
e3t + 3te3t 3e3t

y, puesto que la solución buscada es f (t) = y1 (t), concluimos que

f (t) = α1 te3t + α2 e3t .


Álgebra 275

Sistemas no homogéneos
Si la ecuación diferencial de orden n considerada no fuese homogénea, es
decir, fuese de la forma

f (n) + an−1 f (n−1) + · · · + a1 f 0 + a0 f = h,

se puede aplicar una ligera variación sobre el método visto. Haciendo el


mismo cambio


 y1 (t) = f (t)

 y2 (t) = f 0 (t) = y10 (t)
.. , (6.7)

 .

 y (t) = f (n−1) (t) = y 0 (t)
n n−1

el sistema de primer orden equivalente sería:


    
  0 1 0 ··· 0 y1 (t) 0
y10 (t)   y2 (t)   
 y 0 (t)   0 0 1 ··· 0    0 
 2   .. .. ..  ..   .. 
 .. = . . .  . + . 
 .    ..   
 0 0 0 ··· 1  .   0 
yn0 (t)
−a0 −a1 −a2 · · · −an−1 yn (t) h(t)

con la peculiaridad de que, en este caso, tendríamos el sistema



→0 −

∀t ∈ R , y (t) = A−

y (t) + h (t).

Razonando de forma similar al caso en el que no teníamos término indepen-


diente, si P es una matriz cuadrada invertible, podemos pasar al sistema:

→ −

∀t ∈ R , P−1 · y 0 (t) = P−1 ·A−

y (t) + P−1 · h (t),

con lo que, si llamamos →



z (t) a P−1 ·−

y (t) tendremos que

→0 −

z (t) = P−1 · y 0 (t)

y, en consecuencia, para conseguir que aparezca el mismo tipo de variable a


ambos lados de la igualdad, hacemos las mismas transformaciones que en el
276 Álgebra

caso de un sistema homogéneo:



→0 −

z (t) = P−1 ·A−→
y (t) + P−1 · h (t) =


= P−1 ·A · (P · P−1 )→−y (t) + P−1 · h (t) =


= (P−1 ·A · P)(P−1 ·− →
y (t)) + P−1 · h (t) =


= (P−1 ·A · P)→−z (t) + P−1 · h (t)

y, puesto que este sistema es triangular, sabemos resolverlo. Si −



z (t) es
solución de dicho sistema, deshaciendo el cambio obtendremos que


y (t) = P·−

z (t)

es la solución buscada.

Ejemplo 6.6.12 Para resolver la ecuación


f 00 − 6f 0 + 9f = 32te−t ,

como en el caso homogéneo, el primer paso es plantear el sistema de primer


orden equivalente:
µ 0 ¶ µ ¶µ ¶ µ ¶
y1 (t) 0 1 y1 (t) 0
= + .
y20 (t) −9 6 y2 (t) 32te−t

Ahora hacemos triangular la matriz


µ ¶
0 1
A= ,
−9 6

que coincide con la del ejemplo anterior y, según vimos, se verica que
µ ¶ µ ¶−1 µ ¶µ ¶
3 0 0 1 0 1 0 1
= .
1 3 1 3 −9 6 1 3

Ahora, siendo


z (t) = P−1 ·−

y (t),
es decir, µ ¶ µ ¶−1 µ ¶
z1 (t) 0 1 y1 (t)
= ,
z2 (t) 1 3 y2 (t)
Álgebra 277

tenemos que resolver el sistema triangular

µ ¶ µ ¶µ ¶ µ ¶−1 µ ¶
z10 (t) 3 0 z1 (t) 0 1 0
= +
z20 (t) 1 3 z2 (t) 1 3 32te−t

y, puesto que
µ ¶−1 µ ¶
0 1 −3 1
= ,
1 3 1 0

dicho sistema es equivalente a:

µ ¶ µ ¶µ ¶ µ ¶µ ¶
z10 (t) 3 0 z1 (t) −3 1 0
= + ,
z20 (t) 1 3 z2 (t) 1 0 32te−t

es decir:
½
z10 (t) = 3z1 (t) + 32te−t
z20 (t) = z1 (t) + 3z2 (t)

Y ahora, la solución general de la primera ecuación, según sabemos, es

Z t
3t 3t
z1 (t) = α1 e + e 32xe−x e−3x dx =
Z0 t
= α1 e3t + e3t 32xe−4x dx =
0
à ¸t Z t !
−x 1
(por partes) = α1 e3t + 32e3t e−4x + e−4x dx =
4 0 4 0
µ ¶
3t 3t −4t 1 −4t
= α1 e + 8e −te − (e − 1) =
4
= α1 e − 8te − 2e + 2e3t =
3t −t −t

= k1 e3t − 8te−t − 2e−t ,

donde hemos tomado k1 = α1 + 2, ya que α1 es una constante arbitraria. La


segunda ecuación se transforma en z20 (t) − 3z2 (t) = k1 e3t − 8te−t − 2e−t y su
278 Álgebra

solución general es:


Z t
3t 3t
z2 (t) = α2 e + e (k1 e3x − 8xe−x − 2e−x )e−3x dx
Z0 t
= α2 e3t + e3t (k1 − 8xe−4x − 2e−4x )dx =
Ã0 ¸t !
1 1 1 1
= α2 e3t + e3t k1 x + e−4x − 8e3t (− te−4t − e−4t + ) =
2 0 4 16 16
µ ¶ µ ¶
1 1 1
= α2 e3t + e3t k1 t + e−4t − + 2te−t + e−t − 2e3t =
2 2 2
µ ¶
3t 3t 1 −t 1 3t −t 1 −t 3t
= α2 e + k1 te + e − e + 2te + e − 2e =
2 2 2
µ ¶
3t 1
= e α2 − 2 − + k1 t + e−t (1 + 2t) ,
2
con lo que, renombrando las variables adecuadamente, obtenemos que
z2 (t) = k1 te3t + α2 e3t + e−t (1 + 2t) .
Expresando las soluciones vectorialmente tenemos que (k1 = C1 , α2 = C2 )
µ ¶ µ 3t ¶ µ ¶ µ ¶
z1 (t) e 0 −8te−t − 2e−t
= C1 + C2 + .
z2 (t) te3t e3t e−t (1 + 2t)
Finalmente, multiplicamos la solución del sistema triangular por la matriz
de paso:
µ ¶ µ ¶ · µ 3t ¶ µ ¶
y1 (t) 0 1 e 0
= C1 + C2 +
y2 (t) 1 3 te3t e3t
µ ¶¸
−8te−t − 2e−t
+ =
e−t (1 + 2t)
µ ¶µ ¶
0 1 C1 e3t − 8te−t − 2e−t
= =
1 3 C1 te3t + C2 e3t + e−t (1 + 2t)
µ ¶
C1 te3t + C2 e3t + e−t (1 + 2t)
=
C1 e3t − 8te−t − 2e−t + 3C1 te3t + 3C2 e3t + 3e−t (1 + 2t)
y, puesto que la solución buscada es f (t) = y1 (t), concluimos que
f (t) = C1 te3t + C2 e3t + e−t (1 + 2t) .
Álgebra 279

Ejercicio 6.6.1 Resolver la siguiente ecuación:


D3 f − 5D2 f + 7Df − 3f = 9t − 9.
Solución: f (t) = −4 − 3t + C1 et + C2 e3t + C3 et t.

6.7 Relaciones de recurrencia


Las técnicas desarrolladas en este capítulo también se pueden aplicar para
resolver otro tipo de problemas, entre otros, el problema del primer ejemplo
enunciado al principio del capítulo.
Para el desarrollo que sigue, es importante recordar que

N ∪ {0} = {0, 1, 2, 3, ...}.

Denición 6.7.1 Diremos que la sucesión {an }n∈N∪{0} está denida recur-
sivamente o por recurrencia si
½
1. ∃k ∈ N tal que a1 , ..., ak son conocidos y
2. ∀n ∈ N ∪ {0}, an+k está denido en función de an+k−1 , ..., an .

Las relaciones de recurrencia también se denominan ecuaciones en di-


ferencias.
Denición 6.7.2 Llamaremos relación de recurrencia lineal homogénea
de orden k ∈ N con coecientes constantes a cualquier relación de
recurrencia de la forma

an+k = c1 an+k−1 + ... + ck an

donde c1 , ..., ck ∈ C, ck 6= 0, y n ∈ N ∪ {0}.

Las relaciones del tipo anterior se denominan lineales y homogéneas de-


bido a que la ecuación asociada

an+k − c1 an+k−1 + ... + ck an = 0

de variables an+k , an+k−1 , ..., an es una ecuación lineal y homogénea.

Ejemplo 6.7.3 La ecuación


an+2 = an+1 − 5an
280 Álgebra

es una relación de recurrencia lineal homogénea de grado 2, puesto que su


ecuación asociada
an+2 − an+1 + 5an = 0

es una ecuación lineal y homogénea (similar a la ecuación x − y + 5z = 0). Si


especicamos los valores iniciales a1 y a2 , todos los términos de la sucesión
quedan determinados y, por tanto, hay una única sucesión que satisface dicha
relación de recurrencia y cuyos dos primeros términos sean a1 y a2 .
Dicho de otra forma, el subespacio vectorial de F(N, R)

{{an } : an+2 − an+1 + 5an = 0}

tiene dimensión 2.

Ejemplo 6.7.4 La relación de recurrencia



an+2 = an+1 + 2an

no es lineal, pues la ecuación



x− y − 2z = 0

no es lineal. La relación de recurrencia

an+2 = a2n+1 + 5an

tampoco es lineal.

Volvamos al problema original que tenemos planteado, esto es, encon-


trartodas las soluciones de una relación de recurrencia lineal y homogénea
con coecientes constantes. El discurso va a seguir el mismo camino que el
visto para las ecuaciones diferenciales.
Primero veremos cómo se pueden resolver las relaciones de recurrencia ho-
mogéneas de primer orden y luego las no homogéneas para, a continuación,
utilizar la técnica desarrollada en el capítulo para resolver sistemas de rela-
ciones de recurrencia, nalizando la exposición con la aplicación del método
para resolver ecuaciones de recurrencia de orden k > 1.
Álgebra 281

6.7.1 Relaciones de primer orden


Según vimos, las sucesiones {an }n∈N que satisfacen la relación de recurrencia
lineal homogénea de primer orden

an+1 = λan , (I)

son las sucesiones {an }n∈N que son autovectores de la función lineal S asocia-
dos al autovalor λ, junto con la sucesión nula 0 = {0, 0, 0, ....}. Esto es, el con-
junto Ker(S −λId). Por otra parte, si demostramos que dim(Ker(S −λId)) =
1, localizando una solución no nula, es decir, un elemento no nulo de dicho
subespacio, el resto de soluciones se obtendrá fácilmente. Veamos que, efec-
tivamente,
dim(Ker(S − λId)) = 1.

Evidentemente, la sucesión

{an } = {λn } = {1, λ, λ2 , λ3 , ...},

es una solución de la ecuación (o relación de recurrencia) (I). Por otra parte,


si {bn } es cualquier otra solución de dicha ecuación, vamos a demostrar que
existe una constante K tal que

{bn } = K · {λn } = {K · λn },

con lo que {λn } será una base de Ker(S − λId) y dim(Ker(S − λId)) = 1.
Puesto que {bn } ∈ Ker(S − λId), es decir, S({bn }) = λ · {bn }, tendremos,
por una parte, que

S({bn }) = S({b0 , b1 , b2 , ...}) = λ · {b0 , b1 , b2 , ...} = {λb0 , λb1 , ...}

y, por otra, que

S({bn }) = S({b0 , b1 , b3 , ...}) = {b1 , b2 , ...},

de donde
{λb0 , λb1 , ...} = {b1 , b2 , ...},
282 Álgebra

es decir,

b1 = λb0
b2 = λb1 = λ2 b0
b3 = λb2 = λ3 b0
..
.
bn = λbn−1 = λn b0
..
.

. En otras palabras, {bn } = b0 · {λn }, con lo que las soluciones de la ecuación

an+1 = λan (I)

son las progresiones geométricas de razón λ, progresiones que constituyen


el subespacio vectorial Ker(S − λId), siendo una base de dicho espacio la
sucesión
{λn } = {1, λ, λ2 , λ3 , ...}.

Ejemplo 6.7.5 Las sucesiones {an }n∈N que satisfacen la relación de re-
currencia
an+1 = 5an
son de la forma

K · {5n } = K · {1, 5, 52 , ..., 5n , ...} = {K, 5K, 52 K, ..., 5n K, ...}.

Observación 65 Puesto que para tener completamente determinada una


progresión geométrica sólo es preciso conocer el primer elemento (b0 = K)
y la razón de la progresión (λ), conocido el valor inicial a0 , hay una única
sucesión {an }n∈N que satisface la relación de recurrencia an+1 = λan , (I).

Ejemplo 6.7.6 Existe una única sucesión {an }n∈N que satisface las condi-
ciones ½
a0 = 3
an+1 = 5an .
Dicha sucesión es

a0 · {λn } = 3 · {5n } = {3, 15, 75, ..., 3 · 5n , ...}.


Álgebra 283

Ya sabemos encontrar las soluciones de una ecuación de recurrencia lineal


y homogénea con coecientes constantes de primer orden, e incluso hallar la
única solución de una ecuación del tipo anterior toda vez que se conozca un
valor inicial. Ahora bien, ¾Cómo podemos encontrar las soluciones de un
sistema de ecuaciones de recurrencia de primer orden? ¾Podemos emplear
la misma técnica de resolución vista para los sistemas de ecuaciones dife-
renciales? Veremos que la respuesta a esta pregunta es armativa. Pero,
para poder aplicarla, necesitamos resolver en primer lugar las relaciones de
recurrencia no homogéneas de primer orden con coecientes constantes.
La siguiente proposición tiene como consecuencia que cualquier relación
de recurrencia lineal y homogénea de primer orden con coecientes constantes
tiene solución.

Proposición 6.7.7 ∀λ ∈ C la función lineal

(S − λId) : F(N, C) −→ F (N, C)

es sobreyectiva.

Demostración Dada {an } ∈ F (N, C), hay que probar que ∃{bn } ∈ F (N, C)
tal que
(S − λId)({bn }) = {an }.
Ahora bien, dicha igualdad es equivalente a que S({bn }) − λ({bn }) = {an },
es decir, {bn+1 } − λ({bn }) = {an }. Por consiguiente:

b1 = a0 ,
b2 = a1 + λa0 ,
b3 = a2 + λa1 + λ2 a0 ,
..
.
bn = an−1 + λan−2 + ... + λn−1 a0 ,
..
.

La solución {bn } está determinada por b0 = 0 y, para n ≥ 1,


n
X
bn = λi−1 an−i ,
i=1
284 Álgebra

es decir,

{bn } = {0, a0 , a1 + λa0 , a2 + λa1 + λ2 a0 , ..., an−1 + λan−2 + ... + λn−1 a0 , ...},

es tal que (S − λId)({bn }) = {an }, como puede comprobarse fácilmente


término a término:

S(b0 ) − λb0 = a0 − λ0 = a0
S(b1 ) − λb1 = b2 − λb1 = (a1 + λa0 ) − λa10 = a1
¡ ¢
S(b2 ) − λb2 = b3 − λb2 = a2 + λa1 + λ2 a0 − λ (a1 + λa0 ) = a2
..
.
S(bn ) − λbn = an
..
.

y, en consecuencia (S − λId) es sobreyectiva. 2

La proposición anterior nos proporciona una herramienta para hallar una


solución particular de cualquier relación de recurrencia de primer orden con
coecientes constantes.
Ahora ¾Cómo podemos obtener todas las soluciones de una ecuación
lineal de primer orden no necesariamente homogénea? Razonando de forma
análoga a como hicimos con las ecuaciones diferenciales. El resultado similar
que se tiene en este contexto queda establecido en la siguiente proposición,
cuya demostración se propone como ejercicio.

Proposición 6.7.8 Siendo {bn } una solución particular de la relación de


recurrencia
(S − λId)({xn }) = {an }, (I)
se verica que

{yn } es solución de (I) ⇔ ∃K ∈ C tal que {yn } = {bn } + K · {λn }.

Es decir, vale el principio de superposición de soluciones: la solución


de la ecuación no homogénea se obtiene sumando a una solución particular de
Álgebra 285

dicha ecuación todas las soluciones de la ecuación homogénea asociada. Por


consiguiente, teniendo en cuenta los resultados obtenidos, podemos concluir
que

{yn } es solución de (S − λId)({yn }) = {an }


 ⇔
 y0 = K y µn ¶
∃K ∈ C tal que P i−1
 n ≥ 1, yn = λ an−i + K · {λn }.
i=1

Ejemplo 6.7.9 El conjunto de soluciones de la relación de recurrencia


an+1 = 3an + (−1)n

es el conjunto de sucesiones {an } cuyo término general es de la forma

an = bn + K3n ,

donde K ∈ C y {bn } es la sucesión denida por b0 = 0 y, para n > 1,


n
X
bn = 3i−1 (−1)n−i .
i=1

En otras palabras, {an } es solución de la relación de recurrencia dada si {an }


es de la forma

a1 = K
n−1
X
an = K3n−1 + 3i−1 (−1)n−i .
i=1

En particular, si buscamos la única sucesión determinada por las condiciones


½
a0 = 0
an+1 = 3an + (−1)n

dicha sucesión es

 a0 = 0
P
n
,
 n ≥ 1 ⇒ an = 3i−1 (−1)n−i
i=1
286 Álgebra

es decir,
b0 = 0
b1 = −1,
b2 = 1 + 3 · (−1),
b3 = −1 + 3 + 32 (−1), (6.8)
..
.
bn = (−1)n−1 + 3(−1)n−2 + ... + 3n−1 (−1),
...

Observación 66 Para nalizar este apartado, vamos a hacer una breve re-
exión sobre la forma que tiene la solución particular que encontramos utili-
zando el método expuesto. Según hemos visto, la sucesión {bn } determinada
por b1 = 0 y, para n ≥ 1,
n−1
X
bn = λi−1 an−i
i=1

es una solución particular de la relación de recurrencia


(S − λId)({xn }) = {an }.
La forma de la sucesión {bn } recuerda al producto de polinomios. De hecho,
el término general de esta sucesión (donde n ∈ N, n ≥ 1) se podría expresar
del siguiente modo:
n
X X
bn = λi−1 an−i = λj ak .
i=1 j+k=n−1

6.7.2 Sistemas de relaciones de recurrencia


El planteamiento del problema es similar al visto para ecuaciones diferencia-
les. En este caso, el problema consiste en resolver sistemas de la forma



 x1 (n + 1) = a11 x1 (n) + a12 x2 (n) + · · · + a1m xm (n),

 x2 (n + 1) = a21 x1 (n) + a22 x2 (n) + · · · + a2m xm (n),
..

 .

 x (n + 1) = a x (n) + a x (n) + · · · + a x (n),
m m1 1 n2 2 mm m
Álgebra 287

donde las sucesiones  incógnita son {x1 (n)}, ..., {xm (n)}.
Como en el caso de las ecuaciones diferenciales, podemos emplear la no-
tación matricial
    
x1 (n + 1) a11 a12 · · · a1m x1 (n)
 x2 (n + 1)   a21 a22 · · · a2m   x2 (n) 
    
 ..  =  .. .. ..   .. ,
 .   . . .  . 
xm (n + 1) am1 am2 · · · amm xm (n)

o, inclusive la notación matricial compacta




x (n + 1) = A−

x (n).

A los sistemas del tipo anterior se les conoce como sistemas homo-
géneos de m ecuaciones de recurrencia de primer orden con co-
ecientes constantes. La técnica para resolver este tipo de sistemas es
exactamente la misma que la vista para los sistemas de ecuaciones diferen-
ciales.
Así, dado el sistema de ecuaciones



x (n + 1) = A−

x (n),
donde A es una matriz cuadrada de orden m. Si P es una matriz cuadrada
invertible y consideramos la matriz P−1 , tendremos que

P−1 ·→

x (n) = P−1 · A−

x (n)

y, siendo


z (n) = P−1 ·→

x (n),
podemos hacer las siguientes transformaciones:


z (n + 1) = P−1 ·A−→
x (n) = P−1 ·A · (P · P−1 )→

x (n) =
−1 −1 −

= (P ·A · P)(P · x (n))
= (P−1 ·A · P)−
→z (n).

Por ello, si P−1 ·A · P es triangular, para resolver el sistema original plantea-


do es suciente con resolver dicho sistema triangular y deshacer el cambio
realizado


x (n) = P·−→z (n).
para obtener la solución buscada.
288 Álgebra

Ejemplo 6.7.10 Supongamos que queremos encontrar las sucesiones que sa-
tisfacen el sistema de relaciones de recurrencia lineales y homogéneas de pri-
mer orden con coecientes constantes:
½
x(n + 1) = x(n) + y(n)
y(n + 1) = 4x(n) − 2y(n),

junto con las condiciones iniciales x(0) = 1, y(0) = 6. Si planteamos el


sistema de forma matricial, tendremos:
µ ¶ µ ¶ µ ¶
x(n + 1) 1 1 x(n)
= · .
y(n + 1) 4 −2 y(n)

Operando, obtenemos que los autovalores de la matriz del sistema son 2 y −3


y que la forma triangular (en este caso diagonal) de la matriz asociada es
µ ¶−1 µ ¶ µ ¶ µ ¶
1 1 1 1 1 1 2 0
· · = .
1 −4 4 −2 1 −4 0 −3

Razonando del mismo modo que con los sistemas de ecuaciones diferenciales,
procedemos a resolver el sistema
µ ¶ µ ¶ µ ¶
z(n + 1) 2 0 z(n)
(II) = ·
u(n + 1) 0 −3 u(n)
con µ ¶ µ ¶ µ ¶
x(n) 1 1 z (n)
= · .
y(n) 1 −4 u(n)
El sistema (II) es, obviamente, el sistema
½
z(n + 1) = 2z(n)
,
u(n + 1) = −3u(n)

cuyas soluciones son, según sabemos,


½
{z(n)} = α{2n }
(α, β ∈ C).
{u(n)} = β{(−3)n }

Luego
µ ¶ µ ¶ µ ¶ µ ¶
x(n) 1 1 α2n α2n + β(−3)n
= · = (α, β ∈ C).
y(n) 1 −4 β(−3)n α2n − 4β(−3)n
Álgebra 289

Imponiendo, nalmente, las condiciones iniciales tendremos que


½
x(0) = 1 = α20 + β(−3)0 = α + β
y(0) = 6 = α20 − 4β(−3)0 = α − 4β,

es decir, que
½
α+β =1
α − 4β = 6,
con lo que, resolviendo el sistema
½
−5β = 5 ⇒ β = −1
,
α=2

de donde las sucesiones que satisfacen el sistema planteado con las condicio-
nes iniciales dadas son:
µ ¶ µ ¶ µ n+1 ¶
x(n) 2 · 2n − (−3)n 2 − (−3)n
= = ,
y(n) 2 · 2n + 4(−3)n 2n+1 + 4(−3)n

es decir,
© ª
{x(n)} = 2n+1 − (−3)n

y
© ª
{y(n)} = 2n+1 + 4(−3)n .

Ejercicio 6.7.1 Comprobar que la solución del sistema de ecuaciones dife-


renciales ½
x0 (t) = x(t) + y(t)
,
y 0 (t) = 4x(t) − 2y(t)

sujeto a las condiciones iniciales x(0) = 1, y(0) = 6 es


µ ¶ µ ¶
x1 (t) 2e2t − e−3t
= .
x2 (t) 2e2t + 4e−3t

Compárese con la solución del sistema de relaciones de recurrencia del ejem-


plo anterior.
290 Álgebra

6.8 Ejercicios
6.8.1 Ejercicios resueltos
1. Determinar la sucesión denida recursivamente por las condiciones

 an+2 = 7an+1 − 12an
a1 = 1

a2 = 3.

2. Encontrar las sucesiones que satisfacen la relación de recurrencia


an+3 = 4an+2 − 5an+1 + 2an .

3. Encontrar las soluciones de la ecuación diferencial


D2 (f ) − 7D(f ) + 12f = e−t .

4. Resolver el problema de valor inicial


½
D(f ) − 2f = e2t
f (0) = 1.

5. Resolver el sistema de ecuaciones diferenciales


½ 0
x1 = 5x1 + 4x2
x02 = x1 + 2x2
sujeto a las condiciones iniciales x1 (0) = 2, x2 (0) = 3.
6. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en dife-
rencias) ½
an+1 = 5an + 4bn
bn+1 = an + 2bn
con las condiciones iniciales a1 = 2, b1 = 3.
7. Calcular la potencia n−ésima de la matriz
 
2 1 1
A =  2 3 2 .
3 3 4
Álgebra 291

6.8.2 Ejercicios propuestos


1. Supuesto que t ∈ R, determinar todas las soluciones de los siguientes
sistemas:
 
 y10 (t) = −y1 (t)  y10 (t) = sin(t)
a) y20 (t) = 2y2 (t) b) y20 (t) = t2
 0  0
y3 (t) = y1 (t) + y2 (t) + y3 (t), y3 (t) = y1 (t) + y2 (t) + y3 (t).
 
1 0 2
2. Dada la matriz A =  −1 −1 −1  determinar A100 .
0 0 −1
 
1 4 −12
3. Dada la matriz A =  0 3 −9 , se pide:
0 1 −3
a) hallar una base del subespacio propio asociado a cada valor propio,
b) determinar si la matriz A es diagonalizable.

4. Dada una matriz A ∈ Mn (K), ¾puede ocurrir que A no sea diagona-


lizable y A2 sí sea diagonalizable?

5. Triangularizar por semejanza


 y hallar la matriz
 de paso
3 1 0
correspondiente a la matriz A =  0 2 1 .
−1 −1 1

6. Supuesto
 que t ∈ R, determinar todas las soluciones del siguiente
 y10 (t) = 3y1 (t) + y2 (t)
sistema: y20 (t) = 2y2 (t) + y3 (t)
 0
y3 (t) = −y1 (t) − y2 (t) + y3 (t).

7. Resolver las siguientes ecuaciones:


a) 2f 00 + 3f 0 + f = 0,
b) 2f 00 + 3f 0 + f = t.

8. Determinar la sucesión {an } que, empezando en a0 = 0, verica

an+1 = 2an + 5n
S
para todo n ∈ N {0}.
292 Álgebra

9. Determinar la sucesión denida recursivamente por las condiciones



 an+2 = an+1 + 2an ,
a1 = 3,

a2 = 4.

10. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en


diferencias) ½
an+1 = 2an + 14 bn ,
bn+1 = −an + bn ,
con las condiciones iniciales a1 = 2, b1 = 1.

11. Dada una matriz A ∈ Mn (K), demostrar las siguientes armaciones:


a) los autovalores de A coinciden con los de su traspuesta,
b) si A es inversible, los autovalores de A−1 son los inversos de los
autovalores de A,

12. Dada la matriz µ ¶


2 a
A= ,
3 b
determinar los valores de a, b ∈ R para que (1, 3) sea un autovector asociado
al autovalor λ = 2.

13. Dada una matriz A ∈ Mn (K) idempotente (es decir, tal que A2 = A),
estudiar como son los autovalores de A.
Capítulo 7
Soluciones de los ejercicios

7.1 Soluciones de los ejercicios


del capítulo 1
1. Representar por su matriz ampliada y resolver por el método de Gauss-
Jordan cada uno de los siguientes sistemas de ecuaciones lineales :

 2x1 + x2 + 3x3 = 9
5x1 + 4x2 + 6x3 = 24

x1 + 3x2 − 2x3 = 4

{x3 = 3, x2 = 4, x1 = −2}
     
2 1 3 x1 9
 5 4 6  ·  x2  =  24 
1 3 −2 x3 4

La solución
 del sistema
 por el método
 de Gauss-Jordan
 sería la siguiente:
2 1 3 9 1 3 −2 4 F2 = F2 − 5F1
 5 4 6 F ↔ F3 
24  1 5 4 6 24  F3 = F3 − 2F1 →
−→
1 3 −2 4 2 1 3 9 −→
 
1 3 −2 4
 0 −11 16 4  , ... prosiguiendo con las transformaciones elemen-
0 −5 7 1

293
294 Álgebra
 
1 0 0 −2
tales adecuadas hasta obtener la matriz  0 1 0 4 , es decir,
0 0 1 3
{x1 = −2, x2 = 4, x3 = 3} .
Del mismo modo el sistema
½
3x1 + x2 + x3 − 5x4 = 4
5x1 + 2x2 + 4x3 − 2x4 = 6
se expresaría  
µ ¶ x1 µ ¶
3 1 1 −5  x2  4
· 
 x3  = 6 .
5 2 4 −2
x4
Resolviéndolo por el método de Gauss-Jordan obtendremos:
µ ¶ F1 = 13 F1 µ ¶ F1 = 13 F1
3 1 1 −5 4 1 13 13 −5 4
F2 = F2 − 5F1 3 3 F2 = F2 − 5F1
5 2 4 −2 6 0 13 73 19 −2
−→ 3 3 −→
F2 = 3F2 µ ¶
1 1 0 −2 −8 2
F1 = F1 − 3 F2 , es decir, el sistema es compa-
0 1 7 19 −2
−→
tible indeterminado, y las soluciones son
{x1 = 2 + 2x3 + 8x4 , x2 = −2 − 7x3 − 19x4 , x3 , x4 } .
Razonando análogamente con el sistema


 x1 − x2 + x3 − x4 = 0

2x1 + 3x2 + 4x3 + 5x4 = 0

 x1 − x2 + 2x3 − 2x4 = 0

5x1 + 5x2 + 9x3 + 9x4 = 0
obtenemos que es compatible indeterminado, siendo su solución
½ ¾
9 9
x1 = − x4 , x 2 = − x4 , x 3 = x4 , x 4 = x4 ,
5 5
o , si se preere,
½ ¾
9 9
x1 = − λ, x2 = − λ, x3 = λ, x4 = λ .
5 5 λ∈ R
Álgebra 295

2. Considere el sistema de ecuaciones



 x + y + 2z = a
x+z =b

2x + y + 3z = c

Demuestre que para que este sistema sea compatible, a, b y c deben


satisfacer c = a+b.
 
1 1 2 a
La matriz ampliada de este sistema es A =  1 0 1 b  .
2 1 3 c

   
1 1 2 a 1 0 1 b F2 = F2 − F1
F < − > F2 
A= 1 0 1 b  1 1 1 2 a  F3 = F3 − 2F1

2 1 3 c 2 1 3 c →

   
1 0 1 b 1 0 1 b
 0 1 1 a − b  F3 = F3 − F2  0 1 1 a−b 

0 1 1 c − 2b 0 0 0 c−a−b

Si c 6= a + b, el sistema no es compatible ya que sería equivalente a un


sistema que contiene una ecuación de la forma 0x + 0y + 0z = c − a − b 6= 0.
Si c = a + b, el sistema dado es equivalente al sistema

½
x = −z + b
y = −z + a − b

que es compatible indeterminado y tiene conjunto solución

{(−z + b, −z + a − b, z) : z ∈ R}

.
296 Álgebra

3. Resuelva cada uno de los sistemas siguientes por eliminación de Gauss-


Jordan:

a) 
 2x1 − 3x2 = −2
2x1 + x2 = 1

3x1 + 2x2 = 1
 
2 −3 −2
La matriz ampliada de este sistema es A =  2 1 1 .
3 2 1

   
2 −3 −2 2 −3 −2 F1 = 21 F1
F = F − F
A= 2 1 1  2 2 1 
0 4 3  F2 = 14 F2

3 2 1 3 2 1 →
     
1 −3 −1 F3 = F3 − 3F1 1 0 18 5 1 0 1
3  F3 = F3 + 2 F2 
2 8
 0 1 3  3
F1 = F1 + 2 F2  0 1 4 0 1 3 .
4
13 → 4
−7
3 2 1 → 0 2 4 0 0 8
El sistema es incompatible.
b)

 3x1 + 2x2 − x3 = −15


5x1 + 3x2 + 2x3 = 0
 3x1 + x2 + 3x3 = 11


11x1 + 7x2 = −30
 
3 2 −1 −15
 5 3 2 0 
La matriz ampliada de este sistema es A = 
 3
. La
1 3 11 
11 7 0 −30
sucesión de transformaciones elementales
1
F3 = F3 − F1 , F1 = F1 , F2 = F2 − 5F1 , F4 = F4 − 11F1 , F4 = F4 − F2 ,
3
2 1 7
F1 = F1 + F3 , F2 = −3F2 , F3 = F3 +F2 , F3 = − F3 , F1 = F1 − F3 , F2 = F2 +11F3
3 7 3
transforma A en su forma escalonada reducida
Álgebra 297
 
1 0 0 −4
 0 1 0 2 
 . La única solución del sistema es (−4, 2, 7).
 0 0 1 7 
0 0 0 0

c) 
 4x1 − 8x2 = 12
3x1 − 6x2 = 9

−2x1 + 4x2 = −6
 
4 −8 12
La matriz ampliada de este sistema es A =  3 −6 9 . La suce-
−2 4 −6
sión de transformaciones elementales

1 1 −1
F1 = F1 , F 2 = F2 , F 3 = F3 , F2 = F2 − F1 , F3 = F3 − F1
4 3 2
 
1 −2 3
transforma A en la matriz equivalente  0 0 0 . El conjunto solución
0 0 0
del sistema es {(2t + 3, t) : t ∈ R}.

4. ¾Para qué valores de a el sistema que sigue no tiene soluciones? ¾Tiene


exactamente una solución? ¾ Tiene innidad de soluciones?

 x + 2y − 3z = 4
3x − y + 5z = 2

4x + y + (a2 − 14)z = a + 2
 
1 2 −3 4
La matriz ampliada de este sistema es A =  3 −1 5 2 .
4 1 a2 − 14 a + 2
Aplicando las transformaciones elementales

−1
F2 = F2 − 3F1 , F3 = F3 − 4F1 , F3 = F3 − F2 , F2 = F2 , F1 = F1 − 2F2 ,
7
se obtiene la matriz
298 Álgebra

 8

1 0 1 7
 0 1 −2 10 .
7
2
0 0 a − 16 a − 4

Si a = −4, el sistema es incompatible, ya que la última la sería de la


forma 0 = −8.
Si a = 4, la última la es una la de ceros y el sistema es compatible
indeterminado con conjunto solución
½ ¾
8 10
(−t + , 2t + , t) : t ∈ R .
7 7
1
Si a 6= ±4, aplicando la transformación F3 = a2 −16 F3 , se obtiene la matriz
en forma escalonada
 8

1 0 1 7
 0 1 −2 10  .
7
1
0 0 1 a+4
En este caso el sistema tiene exactamente una solución para cada valor de a.
(Hay tres variables principales)

5. Calcular las inversas de la siguientes matrices:


µ ¶ µ ¶ µ ¶
3 1 2 −3 2 0
A= B= C=
5 2 4 4 0 3
µ ¶ µ ¶ µ ¶
3 1 1 0 F1 = 13 F1 1 13 13 0 F2 = F2 − 5F1 1 13 1
3
0
5 2 0 1 → 5 2 0 1 → 0 13 −5
3
1
µ ¶ µ ¶
F1 = F1 − F2 1 0 2 −1 F2 = 3F2 1 0 2 −1
1 −5 .
→ µ0 3 3 ¶ 1 → 0 1 −5 3
2 −1
−1
Entonces A = .
−5 3
µ ¶ µ ¶
2 −3 1 0 F1 = 21 F1 1 −3
2
1
2
0 F2 = F2 − 4F1
µ 4 −34 0 1 ¶ →
1 1
4 4 0 1
µ −3 1
¶ →
1 2 2
0 F2 = 10 F2 1 2 2
0 F1 = F1 + 32 F1
−1 1
0 10 −2 1 → 0 1 5 10

Álgebra 299
µ 1 3

1 0 5
−1
20
1 .
0 1 5 10 µ 1 3

Entonces B −1
= 5
−1
20
1 .
5 10
µ ¶ µ ¶ µ ¶
2 0 1 0 F1 = 21 F1 1 0 12 0 F2 = 31 F2 1 0 12 0
.
0 3 0 1 → 0 3 0 1 → 0 1 0 13
µ 1 ¶
0
Entonces C −1 = 2 .
0 13

6. Verique que las matrices A y B del ejercicio 5) satisfacen la relación


(AB)−1 = B −1 A−1 .
µ 1 3
¶µ ¶ µ −7 1

2 −1
B −1 A−1 = 5
−1
20
1 = 20
−9
4
1 y
5 10
−5 3 10 2

µ ¶µ ¶ µ ¶
3 1 2 −3 10 −5
AB = = .
5 2 4 4 18 −7
µ ¶ 1
µ ¶
10 −5 1 0 F1 = 10 F1 1 −12
1
10
0 F2 = F2 − 18F1
18 −7 0 1 → 18 −7 0 1 →
µ ¶ µ ¶
1 −1
2
1
10
0 F2 = 21 F2 1 −1
2
1
10
0 F1 = F1 + 12 F2
−9 −9 1
0 2 1 → 0 1 10 2 →
µ −7
5
1

1 0 20
−9
4
1 . Entonces (AB)−1 = B −1 A−1 .
0 1 10 2

µ 7. Sea ¶A una matriz invertible y suponga que la inversa de 7A es


−1 2
. Encuentre la matriz A.
4 −7
µ ¶ µ ¶
−1 2 1 −1 −1 2
= (7A)−1 = A ⇒ A −1
= 7 ⇒ A =
4 −7 7 4 −7
µ ¶−1
1 −1 2
7 4 −7
µ ¶ µ ¶
−1 2 1 0 F2 = F2 + 4F1 −1 2 1 0 F1 = F1 − 2F2
4 −7 0 1 → 0 1 4 1 →
300 Álgebra
µ ¶ µ ¶
−1 0 −7 −2 F1 = −F1 1 0 7 2
0 µ1 4 ¶ 1 µ →
¶ 0 1 4 1
2
7 2 1
A = 17 = 4
7
1 .
4 1 7 7

8. Sea AX = B un cualquier sistema consistente de ecuaciones lineales


y supóngase que X1 es una solución ja. Demuestre que toda solución para
el sistema se puede escribir en la forma X = X1 + X0 , en donde X0 es una
solución para AX = 0. Demuestre también que toda matriz de esta forma
es una solución.

Sea X2 una solución del sistema AX = B. Ya que X2 = X1 + (X2 −


X1 ), será suciente demostrar que (X2 − X1 ) es una solución del sistema
AX = 0 y denir X0 = X2 − X1 .

En efecto, A(X2 − X1 ) = AX2 − AX1 = B − B = 0.


Ahora tenemos que vericar que toda matriz X de la forma X1 +X0 , donde
X1 es una solución particular del sistema AX = B y X0 es una solución del
sistema homogéneo AX = 0, es también una solución del sistema.
En efecto, AX = A(X1 + X0 ) = AX1 + AX0 = B + 0 = B.

9. Encontrar la inversa de la matriz dada, si la matriz es invertible:


   
3 4 −1 3 1 5
a) A =  1 0 3  b) B =  2 4 1 
 2 5 −4  −4 2 −9
1 0 1
c) C =  0 1 1 
1 1 0

a) Aplicando sucesívamente las transformaciones elementales F2 ←→


F3 , F2 = F2 − 3F1 , F3 = F3 − 2F1 , F2 = 14 F2 , F3 = F3 − 5F2 , F3 = 52 F3 , F2 =
F2 + 52 F3 , F1= F1 − 3F3 
3 4 −1 1 0 0
a la matriz  1 0 3 0 1 0 , obtenemos la matriz
 2 5 −4 0 0 1  3 −11 −6 
1 0 0 2 −11 3
10
−6
5 2 10 5
 0 1 0 −1 1 1  . Por lo que A−1 =  −1 1 1 .
0 0 1 −1 2
7
10
2
5
−1
2
7
10
2
5
Álgebra 301

b) Aplicando lastransformaciones elementales


 F3 = F3 + 2F1 y F3 =
3 1 5 1 0 0
F3 − F2 a la matriz  2 4 1 0 1 0  , obtenemos la matriz
−4 2 −9 0 0 1
 
3 1 5 1 0 0
 2 4 1 0 1 0 .
0 0 0 2 −1 1
 
3 1 5
Por lo tanto la matriz B es equivalente a la matriz  2 4 1  , es decir,
0 0 0
el sistema
 de ecuaciones lineales homogéneo asociado a la matriz B ,
 3x + y + 5z = 0
2x + 4y + z = 0 , es equivalente al sistema homogéneo de dos

−4x + 2y + −9z = 0 
 3x + y + 5z = 0
ecuaciones en tres variables 2x + 4y + z = 0 , que tiene una innidad de

0=0
soluciones. Por ello la matriz B no puede ser invertible, ya que, si lo fuera,
el sistema sería compatible determinado.

c) Aplicando las transformaciones elementales F3= F3 − F1 , F3 = F3



1 0 1 1 0 0
F2 , F3 = −1 F F
3, 1 = F 1 −F 3 y F 2 = F 2 −F 3 a la matriz  0 1 1 0 1 0 ,
2

  1 1 0 0 0 1
1 −1 1
1 0 0 2 2 2
se obtiene la matriz  0 1 0 −1 2
1
2
1 
2
.
1 1 −1
0 0 1
 1 −1 1 2 2 2

2 2 2
Entonces C −1 =  −1
2
1
2
1
2
.
1 1 −1
2 2 2

10. Efectúe las operaciones sobre las las que siguen sobre
 
3 1 0
A =  −2 1 4 
3 5 5
302 Álgebra

multiplicando por una matriz elemental apropiada. En cada caso, verique


la respuesta llevando a cabo la operación sobre las las directamente sobre
A.
a)Intercambie la primera y tercera las.
b)Multiplique la segunda la por 1/3.
c)Sume el doble de la segunda la a la primera.
   
0 0 1 3 5 5
a)  0 1 0  A0 =  −2 1 4 
1 0 0 3 1 0
   
1 0 0 3 1 0
b)  0 13 0  A0 =  −2
3
1
3
4 
3
0 0 1 3 5 5
   
1 2 0 −1 3 8
c)  0 1 0  A0 =  −2 1 4 
0 0 1 3 5 5

11. Una caja que contiene monedas con las denominaciones de un centavo,
cinco centavos y diez centavos tiene 13 de ellas con un valor total de 83
centavos.
¾ Cuántas monedas de cada tipo hay en la caja ?
Hay que resolver el sistema de ecuaciones
x + y + z = 13
x + 5y + 10z = 83
El sistema anterior es equivalente al sistema
x + y + z = 13
4y + 9z = 70,
sistema que tiene una innidad de soluciones de la forma ( −18+5z
4
, 70−9z
4
, z).
En el problema dado 0 ≤ z ≤ 13 y, para que x e y no sean negativos,
4 ≤ z ≤ 7. El único valor de z en este intervalo tal que x e y sean números
naturales es 6. Entonces hay 3 monedas de 1 centavo, 4 de cinco centavos y
6 de diez centavos.

12. ¾Para cuál valor, o cuáles valores, de a el sistema siguiente tiene cero,
una y una innidad de soluciones?
Álgebra 303


 x1 + x2 + x3 = 4
x3 = 2
 2
(a − 4)x3 = a − 2

La matriz
 ampliada asociada 
a este sistema es la matriz
1 1 1 4
A =  0 0 1 2  . Si a = −2, la última ecuación es del
2
0 0 a −4 a−2
tipo
 0 = −4 yel sistema es incompatible. Si a = 2, la matriz A es igual a
1 1 1 4
 0 0 1 2  y el sistema tiene una innidad de soluciones:
0 0 0 0
{(−t + 2, t, 2) : t ∈ R} .
1
Si a 6= ±2, podemos aplicar la transformación elemental F3 = F
a2 −4 3
a la
matriz A. El sistema es equivalente al sistema

 x1 + x2 + x3 = 4
x3 = 2
 1
x3 = a+2
que es compatible y tiene una innidad de soluciones {(2 − s, s, 2) : s ∈ R}
1
sólo si a+2 = 2, es decir, sólo si a = − 32 .

13. Demostrar que la trasposición de matrices satisface las siguientes


propiedades.
a) ∀A ∈ Mm×n (K) t (t A) = A.
Dado (i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la denición
t t
( A)(i, j) =t A(j, i) = A(i, j).
Por consiguiente, al ser matrices del mismo orden, t (t A) = A.
b) ∀A, B ∈ Mm×n (K) t (A + B) =t A +t B.
Dado (i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la denición

t
(A + B)(i, j) = (A + B)(j, i) = A(j, i) + B(j, i) =
= (t A)(i, j) + (t B)(i, j) = (t A +t B)(i, j).
c)∀A ∈ Mm×n (K), ∀B ∈ Mn×p (K) A · B ∈ Mm×p (K), con lo que t (A ·
B) ∈ Mp×m (K). Por otra parte t B ∈ Mp×n (K),t A ∈ Mn×m (K), . con lo que
304 Álgebra

(t B ·t A) ∈ Mp×m (K), es decir, son matrices del mismo orden. Dado ahora
(i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la denición

n
X
t
(A · B)(i, j) = (A · B)(j, i) = A(j, k) · B(k, i) =
k=1
n
X n
X
= (t A)(k, j) · (t B)(i, k) = (t B)(i, k) · (t A)(k, j) =
¡k=1 ¢ k=1
= t B ·t A (i, j).

14. Demostrar que si A ∈ Mn (K) es invertible, entonces


t
(A) ∈ Mn (K)
−1
es invertible y t (A−1 ) = (t A) .
Si A · A−1 = In y A−1 · A = In , por las propiedades vistas en el problema
anterior t (A · A−1 ) =t In = In =t (A−1 ) · (t A) y t (A−1 · A) =t In = In =
−1
(t A) ··t (A−1 ) , con lo que t (A−1 ) = (t A) .
15. Si A = (aij ) ∈ Mn (K), se denomina traza de A a la suma de los
elementos de la diagonal principal de A, es decir,
n
X
T r(A) = a11 + ... + ann = aii .
i=1

Demostrar que ∀A, B, C ∈ Mn (K):


a) T r(A + B) = T r(A) + T r(B).
Pn
T r(A+B) = (aii +bii ) = (por las propiedades asociativa y conmutativa
i=1 µn ¶ µn ¶
P P
de +) = (a11 + ... + ann ) + (b11 + ... + bnn ) = aii + bii .
i=1 i=1
b) T r(AB) = T r(BA). µ ¶ µ ¶
P
n P
n P
n
Si AB = C y BA = D, T r(AB) = cii = aik bki =
µ ¶ i=1 i=1 k=1
Pn P n Pn P n
aik bki = (por la propiedad conmutativa de ·) = = bki aik =
µk=1 i=1¶ k=1 i=1
Pn
dii = T r(BA).
i=1
Álgebra 305

Poner un contraejemplo que ponga de maniesto que

T r(A.B) 6= T r(A) · T r(B).


µ ¶ µ ¶ µ ¶
1 1 1 0 1 1
Si A = y B = I2 = , A.B = = A, por lo
1 1 0 1 1 1
que T r(A.B) = T r(A) = 2; sin embargo T r(A) · T r(B) = 2 · 2 = 4.
c) Siendo C = At A,
n
X n X
X n
t
T r(A A) = T r(C) = C(i, i) = ( A(i, k)t A(k, i)) =
i=1 i=1 k=1
n X
X n n X
X n
= ( A(i, k)A(i, k)) = a2ik .
i=1 k=1 i=1 k=1

16. Se dice que una matriz A ∈ Mn (K) es simétrica si t A = A. Demostrar


que una condición necesaria y suciente para que el producto de dos matrices
simétricas A, B ∈ Mn (K) dé como resultado una matriz simétrica es que
AB = BA.
Veamos que es condición necesaria:
Hipótesis: A y B simétricas y AB simétrica. ¾En estas condiciones es
AB = BA?
t
(AB) = al ser AB simétrica = AB;
Pero también t (AB) = (t B)(t A) = ( Al ser A y B simétricas) = AB.
Veamos ahora que es condición suciente:
Hipótesis: A y B simétricas y AB = BA. ¾Es en estas condiciones AB
simétrica? Si AB = BA, tendremos que t (AB) =t (BA) = (t A)(t B) =(Al
ser A y B simétricas)=AB, con lo que AB es simétrica.
µ ¶
2 1
17. Determinar α ∈ C y β ∈ C para que la matriz A = ∈
1 2
M2 (C) satisfaga la ecuación A2 + αA + βI2 = (0).
Utilizando la relación anterior, y sabiendo que A es invertible, calcular
−1
A µ . ¶µ ¶ µ ¶
2 1 2 1 5 4
= , luego hay que resolver la ecuación
1 2 1 2 4 5
µ ¶ µ ¶ µ ¶ µ ¶
5 4 2 1 1 0 0 0
+α +β = ,
4 5 1 2 0 1 0 0
306 Álgebra
µ ¶ µ ¶
5 + 2α + β 4+α 0 0
de donde = , y en consecuencia α =
4+α 5 + 2α + β 0 0
−4 y β = 3.
Por consiguiente A2 −4A+3I2 = (0). Suponiendo que A tiene inversa A−1 ,
multiplicando por dicha matriz a ambos lados de esa ecuación, obtenemos
A−1 (A2 − 4A + 3I2 ) = A −1
¶ de µ
µ (0) = (0), 4I2 + 3A−1 = (0), es decir,
donde A −¶
2 −1
2 −1
A−1 = 31 (4I2 − A) = 31 = 3
−1 2
3 .
−1 2 3 3

18. Se dice que una matriz A ∈ Mn (K) es idempotente si A2 = A.


Demostrar que si A ∈ Mn (K) es idempotente, entonces B = In − A es
idempotente. Demostrar también que AB = (0) y que BA = (0).
B 2 = (I−A)(I−A) = I−A−A+A2 . Al ser A idempotente I−A−A+A2 =
I − A = B, luego B es idempotente. Por otra parte
AB = A(I − A) = A − A2 = A − A = (0)

BA = (I − A)A = A − A2 = A − A = (0).

19. En una feria de ganado un granjero compró pollos, conejos y terneros.


Los pollos los compró a 50 pts., los conejos a 1000 pts. y los terneros a
5000pts.
Compró 100 animales y gastó 100.000 pts.
Sabiendo que compró animales de las 3 clases, averiguar el número de
animales que compró de cada clase.
Hay que resolver el sistema de ecuaciones
x + y + z = 100
50x + 1000y + 5000z = 100000
El sistema anterior es equivalente al sistema
x + y + z = 100
19y + 99z = 1900
Haciendo z = λ, se tiene que y = 100 − 99λ 19
, x = 80λ
19
. De las condiciones
del enunciado se sigue que las soluciones deben ser enteras y positivas, por
lo que λ debe ser múltiplo de 19. Si λ = 0, no compraría terneros. Si λ = 19,
z = 19, y = 1, x = 80. Esta es la única solución posible, pues si λ = 19n y
n > 1, y sería negativo.
20. En el ámbito de las ciencias de la computación una cadena o  string
es una secuencia de items (datos) de algún conjunto (o dominio) de datos
dado. En términos matemáticos una cadena es una palabra a1 ...an de longi-
tud n ≥ 0. Para n = 0 se trata de la cadena vacía (a la que en su momento
Álgebra 307

denotamos por λ) y para n ≥ 1 los elementos a1 , ..., an pertenecen al mis-


mo conjunto o alfabeto A. El ejercicio consiste en construir un modelo de
tipo abstracto de datos al que denominaremos cadena o  string, teniendo
en cuenta que hay que considerar los datos y las cadenas de datos de un
conjunto A = {a1 , ..., ak }, que las cadenas son elementos del conjunto A∗
(conjunto de todas las cadenas o palabras denidas sobre el alfabeto A o
lenguaje universal sobre A), que hay que considerar la palabra vacía como
una constante, y que como operaciones sobre las cadenas consideramos las
siguientes: construye, que a partir de un elemento de A construye una lis-
ta de longitud 1, la operación concat, denida sobre pares de palabras por
concat(a1 ...an , b1 ...bm ) = a1 ...an b1 ...bm , y las operaciones iañade (iadd) y da-
ñade (dadd) que añaden, respectívamente, un elemento a la izquierda o a la
derecha de una cadena dada.(Nota: Son sucientes 5 ecuaciones).

CADEN A =
1. Tipos : CADEN
½ A, ALF ABET O
a1 , ..., an ∈ ALF ABET O,
2. Constantes :
 vacía ∈ CADEN A

 concat : CADEN A × CADEN A → CADEN A

construye : ALF ABET O → CADEN A
3. Operaciones :

 iadd : ALF ABET O × CADEN A → CADEN A

 dadd0 : CADEN A × ALF ABET O → CADEN A

 ∀c, c , c” ∈ CADEN A, ∀a ∈ ALF ABET O



 concat(c, vacía) = c

concat(vacía, c) = c
4. Ecuaciones:
 concat(concat(c, c0 ), c”) = concat(c, concat(c0 , c”))




 iadd(a, c) = concat(construye(a), c)

dadd(c, a) = concat(c, construye(a))

7.2 Soluciones de los ejercicios


del capítulo 2
1. Encontrar un vector u diferente de cero cuyo punto inicial es P =
(−1, 3, −5) tal que
a) u tiene la misma dirección que v = (6, 7, −3).
308 Álgebra

b) u tiene dirección opuesta a la de v = (6, 7, −3).

Sea u = P Q, donde Q = (x, y, z). Entonces u = (x + 1, y − 3, z + 5).


Si u tiene la misma dirección que v , u = kv ⇔ (x + 1, y − 3, z + 5) =
(6k, 7k, −3k)
a) Sea k > 0 y Q = (6k − 1, 7k + 3, −3k − 5).
b) Sea k < 0 y Q = (6k − 1, 7k + 3, −3k − 5).

2. Sean u = (−3, 1, 2), v = (4, 0, −8), y w = (6, −1, −4). Encontrar los
escalares c1 , c2 , c3 tales que c1 u+c2 v+c3 w = (2, 0, 4).
(2, 0, 4) = c1 u + c2 v + c3 w = c1 (−3, 1, 2) + c2 (4, 0, −8) + c3 (6, −1, −4) =
= (−3c1 , c1 , 2c1 ) + (4c2 , 0, −8c2 ) + (6c3 , −c3 , −4c3 ) =
= (−3c1 + 4c2 + 6c3 , c1 − c3 , 2c1 − 8c2 − 4c3 ).

Entonces, tenemos que resolver el sistema



 −3c1 + 4c2 + 6c3 = 2
c1 − c3 = 0

2c1 − 8c2 − 4c3 = 4
La solución del sistema por el método de Gauss-Jordan sería la siguiente:
aplicando la transformaciones elementales F1 ←→ F2 , F3 = 21 F3 , F3 = F3 −
F1 , F2 = F2 + 3F1 , F3 = F3 + F2 , F2 = 14 F2 , F3 = 12 F3 ,
F1 = F1 + F3 , F2 = F2 − 34 F3 a la matriz
   
−3 4 6 2 1 0 0 2
 1 0 −1 0 , se obtiene la matriz  0 1 0 −1 .
2 −8 −4 4 0 0 1 2
La solución del sistema es {c1 = 2, c2 = −1, c3 = 2} .

3. Demostrar que no existen los escalares c1 , c2 , c3 tales que c1 (−2, 9, 6)+


c2 (−3, 2, 1) + c3 (1, 7, 5) = (0, 5, 4).
Como en el ejercicio anterior, tenemos que resolver el sistema

 −2c1 − 3c2 + c3 = 0
9c1 + 2c2 + 7c3 = 5

6c1 + c2 + 5c3 = 4
Aplicando la transformaciones elementales F3 = F3 +3F1 , F1 = − 21 F1 , F3 =
− 81 F3 , F2 ←→ F3 , F3 = F3 − 9F1 , F1 = F1 − 32 F2 ,
Álgebra 309

2
F3 = − 23 F3 , F3 = F3 − F2
a la matriz
   3

−2 −3 1 0 1 0 1 4
 9 2 7 5 , se obtiene la matriz  0 1 −1 − 21  .
3
6 1 5 4 0 0 0 46
El sistema es incompatible.

4. Sean P el punto (2, 3, −2) y Q el punto (7, −4, 1).


a) Encontrar el punto medio del segmento de recta que une a P y Q.
b) Encontrar el punto sobre el segmento de recta que une a P y Q y está
a 43 de la distancia de P a Q.

a) Sean v = OP = (2, 3, −2) y w = OQ = (7, −4, 1) y v + w = OR =


(9, −1, −1). El segmento OR corta el segmento P Q en un punto M , que
es el punto de intersección entre las diagonales del paralelogramo OP RQ.
Entonces M es el punto medio de P Q y M = v+w 2
= ( 92 , −1
2
, −1
2
).
b) El punto sobre el segmento de recta que une a P y Q y que está a 43
de la distancia de P a Q será dado por el punto medio entre M y Q, es decir
por N = 21 ( v+w
2
+ w) = ( 23
4
, −9 , 1 ).
4 4

5. Suponer que la traslación de un sistema de coordenadas xy se hace para


obtener un sistema de coordenadas x0y0 cuyo origen O0 tiene las coordenadas
(2, −3).
a) Encontrar las coordenadas x0y0 del punto P cuyas coordenadas xy son
(7, 5).
b) Encontrar las coordenadas xy del punto Q cuyas coordenadas x0y0 son
(−3, 6).
c) Trazar los ejes de coordenadas xy y x0y0 y localizar los puntos P y
Q.
Las ecuaciones de traslación ½ de S = (O, x, y) a S0 = (O0, x0,
½ y0) y de S0 =
x0 = x − 2 x = x0 + 2
(O0, x0, y0) a S = (O, x, y) son: y .
y0 = y + 3 y = y0 − 3
a) P = (5, 8) en S0 = (O0, x0, y0).
b) Q = (−1, 3) en S = (O, x, y).

6. Demostrar geométricamente que si u y v son vectores en el espacio


bidimensional o en el espacio tridimensional, entonces
k u + v k≤k u k + k v k .
310 Álgebra

Utilizando la regla del paralelogramo para denir u + v, la desigualdad


k u + v k≤k u k + k v k se sigue de que la longitud de uno de los lados de un
triángulo es siempre menor o igual a la suma de las longitudes de los otros
dos lados.

7. a) Demostrar que v = (a, b) y w = (−b, a) son vectores ortogonales.


v · w = −ab + ba = 0.
b) Usar el resultado del inciso a) para encontrar dos vectores que sean
ortogonales a v = (2, −3).
Sea v = (2, −3) = (a, b). Entonces, se sigue de la parte a) que los vectores
w1 = (−b, a) = (3, 2) y w2 = −w1 = (b, −a) = (−3, −2) son ortogonales
a v.
c) Encontrar dos vectores unitarios que sean ortogonales a (−3, 4).
Sea v = (a, b) = (−3, 4). Como en la parte b), los vectores w1 = (−b, a) =
(−4, −3) y w2 = −w1 = (b, −a) = (4, 3) son ortogonales a v. Entonces los
vectores
w1 w2
u1 = kw 1k
= ( −4 , 3 ) y u2 = kw
5 5 2k
= ( 45 , −3
5
) son unitarios y ortogonales a
v.

8. Explicar por qué cada una de las siguientes expresiones carece de


sentido.
Si u, v, w son vectores en el plano o en el espacio tridimensional y k es un
número real,
a) u · (v · w) : el producto escalar está denido entre vectores y (v · w) es
un escalar.
b) (u·v)+w : la suma está denida entre dos vectores o entre dos escalares,
no entre un escalar y un vector.
c) k u · v k: la norma es una función denida sobre un vector, no un
escalar.
d) k · (u + v) : el producto escalar está denido entre vectores y k es un
escalar.

9. Sean vectores i, j y k unitarios a lo largo de los ejes positivos x, y y z


de un sistema de coordenadas rectangulares en el espacio tridimensional. Si
v = (a, b, c) es un vector diferente de cero, entonces los ángulos α, β,y γ entre
v y los vectores i, j y k , respectivamente, se denominan ángulos directores de
v , y los números cos(α), cos(β) y cos(γ) se denominan cosenos directores de
v.
Álgebra 311

a
a) Demostrar que cos(α) = kvk
.
i·v a
cos(α) = kikkvk = kvk . (Ya que k i k= 1)
b) Encontrar cos(β) y cos(γ).
j·v b
cos(β) = kjkkvk = kvk . (Ya que k j k= 1)

k·v c
cos(γ) = kkkkvk
= kvk
. (Ya que k k k= 1)

v
c) Demostrar que kvk
= (cos(α), cos(β),cos(γ)).
v (a,b,c) a b c
kvk
= kvk
= ( kvk , kvk , kvk ) = (cos(α), cos(β),cos(γ)).

d) Demostrar que cos2 (α) + cos2 (β) + cos2 (γ) = 1.


v
cos2 (α) + cos2 (β) + cos2 (γ) =k kvk k2 = ( kvk
kvk
)2 = 1.

10. Demostrar que si v es ortogonal tanto a w1 como a w2 , entonces v es


ortogonal a k1 w1 + k2 w2 para todos los escalares k1 y k2 .

Utilizando las propiedades del producto escalar y que v·w1 = 0 y v·w2 = 0,


se obtiene que v · (k1 w1 + k2 w2 ) = k1 (v · w1 ) + k2 (v · w2 ) = k1 0 + k2 0 = 0.

11. Encontrar las ecuaciones paramétricas de la recta que pasa por los
puntos dados.

a) Sean P = (5, −2, 4) y Q = (7, 2, −4).


La recta que pasa por P y Q es paralela al vector determinado por el
segmento
Q = (2, 4, −8) y sus ecuaciones paramétricas son:
P
 x = 5 + 2k
y = −2 + 4k ∞<k<∞

z = 4 − 8k
b) Sean P = (0, 0, 0) y Q = (2, −1, −3).
La recta que pasa por P y Q es paralela al vector determinado por el
segmento
Q = (2, −1, −3) y sus ecuaciones paramétricas son:
P
 x = 2k
y = −k ∞<k<∞

z = −3k
312 Álgebra

 x=0
12. Demostrar que la recta r : y=t ∞<t<∞

z=t
a) pertenece al plano π1 : 6x + 4y − 4z = 0 :
∀t 6 · 0 + 4t − 4t = 0 ⇒ r ⊂ π1 .
b) es paralela al plano π2 : 5x − 3y + 3z = 1 y está por abajo de éste:

π2 ∩ r = ∅ por qué ∀t 5 · 0 − 3t + 3t = 0 6= 1, entonces r es paralela a


π2 .
Además O = (0, 0, 0) ∈ r y el punto de intersección de π2 con el eje z es
(0, 0, 13 ).
c) es paralela al plano π3 : 6x + 2y − 2z = 1 y está por arriba de éste:

π3 ∩ r = ∅ por qué ∀t 6 · 0 + 2t − 2t = 0 6= 1, entonces r es paralela a π3 .


Además O = (0, 0, 0) ∈ r y el punto de intersección de π3 con el eje z es
(0, 0, −1
2
).

13. Encontrar la ecuación del plano π1 que pasa por el punto P =


(3, −6, 7) y es paralelo al plano π2 : 5x − 2y + z − 5 = 0.
La dirección normal (ortogonal) al plano π1 está dada por el vector n1 =
(5, −2, 1).
La ecuación del plano π2 en forma punto-normal es: 5(x − 3) − 2(y + 6) +
(z − 7) y en forma general: 5x − 2y + z − 34 = 0.

14. Demostrar que las rectas 


 x − 3 = 4t  x + 1 = 12s
r1 : y−4=t ∞ < t < ∞ y r2 : y − 7 = 6s , ∞<s<∞
 
z−1=0 z − 5 = 3s
se cortan y encontrar el punto de intersección.
 
 x = 3 + 4t  x = −1 + 12s
r1 : y =4+t ∞ < t < ∞ y r2 : y = 7 + 6s , ∞ < s < ∞
 
z=1 z = 5 + 3s

 3 + 4t = −1 + 12s
Tenemos que encontrar dos valores de t y s tales que 4 + t = 7 + 6s .

1 = 5 + 3s
Estos valores son s = −4
3
y t = −5. El punto de intersección es P =
(−17, −1, 1).
Álgebra 313

15. Hallar la ecuación del plano π que contiene las rectas del ejercicio
15.

El plano π tiene que pasar por el punto P = (−17, −1, 1) y ser paralelo
a r1 y a r2 .
Si n = (a, b, c) es la dirección ortogonal al plano π, se obtiene que
π : a(x + 17) + b(y + 1) + c(z − 1) = 0, donde n · (4, 1, 0) = n · (12, 6, 3) = 0,
siendo (4, 1, 0) y (12, 6, 3) dos vectores paralelos a las rectas r1 y r2 , respec-
tivamente.
La relaciones n · (4, 1, 0) = n · (12, 6, 3) = 0 implican que 4a + b = 0 y
12a+6b+3c = 0. Todos los vectores n = (a, −4a, 4a), ∞ < a < ∞, a 6= 0,
serán ortogonales a las dos rectas dadas. Entonces, π : (x + 17) − 4(y + 1) +
4(z − 1) = x − 4y + 4z + 9 = 0.
v
16. Demostrar que si v es un vector diferente de cero en Rn , entonces kvk
tiene la norma euclídea 1.

Utilizando una de las propiedades de la norma euclídea:

v 1 kvk
k k=| | k v k= = 1.
kvk kvk kvk

17. ¾Para qué valores de k se cumple que u y v son ortogonales?

a) u = (2, 1, 3), v = (1, 7, k).


u · v = 2 + 7 + 3k = 9 + 3k = 0 ⇐⇒ k = −3.
b) u = (k, k, 1), v = (k, 5, 6).
u · v = k 2 + 5k + 6 = 0 ⇐⇒ k = −2 o k = −3.

18. Demostrar la identidad ku + vk2 + ku − vk2 = 2kuk2 + 2kvk2 para


vectores en Rn . Interpretar geométricamente este resultado en R2 .

El resultado es una consecuencia inmediata de las siguientes relaciones:


ku + vk2 = (u + v) · (u + v) = u · u + u · v + v · u + v · v = kuk2 + kvk2
ku − vk2 = (u − v) · (u − v) = u · u − u · v − v · u + v · v = kuk2 + kvk2

En R2 , utilizando la regla del paralelogramo para determinar el vector


u + v, la identidad ku + vk2 + ku − vk2 = 2kuk2 + 2kvk2 se puede interpretar
como: la suma de los cuadrados de las longitudes de las diagonales de un
314 Álgebra

paralelogramo es igual a la suma de los cuadrados de las longitudes de sus


lados.

19. Demostrar que si u y v son vectores


√ ortogonales en Rn tales que
kuk = 1 y kvk = 1, entonces d(u, v) = 2. Interpretar geométricamente este
resultado en R2 .
d2 (u, v) = ku − vk2 = (u − v) · (u√
− v) = u · u − u · v − v · u + v · v =
= kuk2 + kvk2 = 2 =⇒ d(u, v) = 2.
En R2 este resultado es una aplicación del teorema de Pitágoras al trián-
gulo rectángulo de lados unitarios u y v.
20. Sea (F(R, R), +, ◦) el espacio vectorial de las funciones de R en R.
Determinar si los siguientes conjuntos son o no subespacios vectoriales de
F(R, R) :
a) {f ∈ F(R, R) |∀x ∈ R f (x) = f (−x)} .
b) {f ∈ F(R, R) | f (1) = 0} .
c) {f ∈ F(R, R) | f (2) = f (3)} .
a) H = {f ∈ F(R, R) |∀x ∈ R f (x) = f (−x)} . Sí es subespacio vectorial,
pues obviamente la función nula 0 ∈ H, pues ∀x ∈ R 0(x) = 0 = 0(−x) , y
si f, g∈H y α, β ∈ R, (αf + βg)(x) = αf (x) + βg(x) = (puesto que f, g∈H)
= αf (−x) + βg(−x) = (αf + βg)(−x).
b) H = {f ∈ F(R, R) | f (1) = 0} .Sí es subespacio vectorial, pues ob-
viamente la función nula 0 ∈ H, pues 0(1) = 0 , y si f, g∈H y α, β ∈
R, (αf + βg)(1) = αf (1) + βg(1) = (puesto que f, g∈H) = α0 + β0 = 0.
c) H = {f ∈ F(R, R) | f (2) = f (3)} . Sí es subespacio vectorial, pues ob-
viamente la función nula 0 ∈ H, pues 0(2) = 0 = 0(3) , y si f, g∈H y
α, β ∈ R, (αf + βg)(2) = αf (2) + βg(2) = (puesto que f, g∈H) = αf (3) +
βg(3) = (αf + βg)(3).
21. Demostrar que el subconjunto H formado por todas las n − tuplas
de números reales tales que los elementos de cada n − tupla forman una
progresión aritmética, es un subespacio vectorial de Rn .
Si (a1 , ...., an ) ∈ H, los elementos a1 , ...., an están en progresión aritmética.
Por consiguiente, siendo d la razón de la progresión,

(a1 , a2 , ...., an ) = (a1 , a1 + d, ...., a1 + (n − 1)d)

Obviamente (0, 0, ..., 0) ∈ H (progresión aritmética de razón d = 0, y


cuyo primer elemento es el 0).
Álgebra 315

Sean (a1 , a1 + d, ...., a1 + (n − 1)d), (b1 , b1 + d0 , ...., b1 + (n − 1)d0 ) ∈ H y


α, β ∈ R. En ese caso
α(a1 , a1 + d, ...., a1 + (n − 1)d) + β(b1 , b1 + d0 , ...., b1 + (n − 1)d0 ) =
= (αa1 + βb1 , (αa1 + βb1 ) + αd + βd0 , ...., (αa1 + βb1 ) + α(n − 1)d +
+ β(n − 1)d0 ).
Es decir, es un elemento de H, puesto que es una progresión aritmética de
razón αd + βd0 y cuyo primer elemento es αa1 + βb1 .
22. Se dice que A ∈ Mn (K) es simétrica si t A = A. Si denotamos por
Sn (K) al conjunto de las matrices simétricas de orden n, demostrar que Sn (K)
es un subespacio vectorial de Mn (K).
Veámoslo usando la otra caracterización de los subespacios vectoriales:
Obviamente la matriz (0) es simétrica, pues t (0) = (0), luego (0) ∈ Sn (K).
Por otra parte, si A, B ∈ Sn (K), se verica que t (A) = A y t (B) = B.
Pero t (A + B) =t (A) +t (B) = A + B y, en consecuencia, A + B ∈ Sn (K),
y si A ∈ Sn (K) y α ∈ K, t (αA) = αt (A) = αA.
Recordemos que una matriz A ∈ Mn (K) es antisimétrica si t A = −A.
¾Constituyen las matrices antisimétricas un subespacio vectorialde Mn (K)?
Justifíquese la respuesta.

Veamos que si: (0) es antisimétrica, pues t (0) = (0) = −(0). Si A, B


son antisimétricas t (A) = −A y t (B) = −B, con lo que t (A + B) =t (A) +t
(B) = −A + (−B) = −(A + B), y si A es antisimétrica y α ∈ K, entonces
t
(αA) = αt (A) = α(−A) = −(αA).

23. En R4 se considera el subespacio vectorial H = L(A) generado por el


conjunto A de vectores A = {(1, −1, 0, 0), (0, 1, 1, 0), (2, −1, 1, 0), (3, −3, 0, 0)}.
¾Pertenece el vector (1, 1, 1, 0) al subespacio vectorial H?
Como hemos visto, existen varias formas de resolver este problema. La
más directa es utilizar el método de Gauss:
consideremos la matriz de coordenadas de los 5 vectores anteriores respec-
to de la base canónica, y mediante transformaciones por columna obtenemos
unamatriz gaussiana:   
1 0 2 3 1 1 0 0 0 0
 −1 1 −1 −3 1  c3 = c3 − 2c1  −1 1 1 0 2 
  c4 = c4 − 3c1 →  
 0 1 1 0 1   0 1 1 0 1 
c5 = c5 − c1
0 0 0 0 0 0 0 0 0 0
316 Álgebra
 
1 0 0 0 0
c3 = c3 − c2  −1 1 0 0 0 
→  0 1 0 0 −1 

c5 = c5 − 2c1
0 0 0 0 0
Como puede observarse, la matriz es gaussiana, con lo que su rango es 3.
Sin embargo, el rango correspondiente a la matriz formada por las 4 primeras
las es 2 , con lo que los vectores columna c1, c2 y c5 constituyen un sistema
libre. El vector (1, 1, 1, 0) no pertenece al subespacio H.
24. En el R − e.v. R3 con su estructura de espacio vectorial habitual
determinar si los sistemas de vectores

(1, 1, 1), (1, 1, 0), (1, 0, 0) y (1, 2, 3), (2, 0, 1), (−1, 2, 2)

son libres o ligados.


Como en el problema anterior, hay varias formas de resolverlo. La más
sencilla es utilizar el método de Gauss, pero lo vamos a hacer de dos formas
distintas:
a) Modo 1): Sean α, β, γ ∈ R tales que

α(1, 1, 1) + β(1, 1, 0) + γ(1, 0, 0) = (0, 0, 0).

En ese caso
(α + β + γ, α + β, α) = (0, 0, 0),
de donde, resolviendo el sistema de ecuaciones, α = 0, β = 0, γ = 0. Es decir,
el sistema {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es libre.
Modo 2): Consideramos la matriz cuyas columnas son las coordenadas
de los vectores respecto de una base del espacio vectorial considerado (en
este caso la base canónica de R3 ) y hallamos el rango de esa matriz. Si el
rango de la matríz coincide con el número de vectores, el sistema es libre. Si
al hacer transformaciones elementales por columnas obtenemos una columna
de ceros, el vector correspondiente a esa columna se puede expresar como
combinación
 lineal
 de los anteriores y el sistema es ligado. En nuestro caso:
1 1 1
 1 1 0  es la matriz. Está claro que es una matriz gaussiana. Por
1 0 0
consiguiente el rango es 3, y el sistema de vectores es libre.
b) Lo hacemos del segundo modo:
Álgebra 317
 
1 2 −1
 2 0 2  ; puesto que no es gaussiana, la convertimos en gaussiana
3 1 2
realizando
 transformaciones
 elementales
 por columnas:

1 2 −1 1 2 −2
 2 0 2  c3 = c3 − c1 →  2 0 0  c3 = c3 + c2 →
 3 1 2  3 1 −1
1 2 0
 2 0 0 
3 1 0
Está claro que el rango del sistema de vectores es 2, y que el corres-
pondiente a la última columna se expresa como combinación lineal de los
correspondientes a las dos primeras. Por consiguiente el sistema es ligado.

25. Consideramos el Z2 −espacio vectorial de los bytes (Z82 , +, ·) con la


suma y producto por escalares ya denidos. Se pide determinar si el sistema
de vectores
(1, 0, 0, 0, 1, 1, 1, 0), (0, 1, 1, 1, 1, 1, 1, 0)
es libre o ligado y hallar el subespacio vectorial generado por el conjunto de
esos dos vectores.
Es obvio que el sistema es libre, pues ninguno de los dos vectores que cons-
tituyen el sistema se puede expresar en función del otro (como combinación
lineal del mismo). De otro modo, si α, β ∈ Z2 son tales que

α(1, 0, 0, 0, 1, 1, 1, 0) + β(0, 1, 1, 1, 1, 1, 1, 0) = (0, 0, 0, 0, 0, 0, 0, 0),

tendremos que

(α, 0, 0, 0, α, α, α, 0) + (0, β, β, β, β, β, β, 0) = (0, 0, 0, 0, 0, 0, 0, 0)

de donde α = β = 0.
El subespacio vectorial generado por estos vectores es

H = {(x1 , ..., x8 ) ∈ Z82 |


∃α, β ∈ Z2 ..(x1 , ..., x8 ) = α(1, 0, 0, 0, 1, 1, 1, 0) + β(0, 1, 1, 1, 1, 1, 1, 0)}.

26. En el espacio vectorial P4 (C) de los polinomios de grado menor o


igual que 4 con coecientes en C se considera el polinomio p(x) = x4 − x2 + 2.
318 Álgebra

Demostrar que el sistema p(x), p0 (x), p00 (x), p000 (x) formado por el polinomio
p(x) y sus sucesivas derivadas (hasta la tercera) es un sistema libre.
Lo hacemos por el método de Gauss:
p0 (x) = 4x3 − 2x, p00 (x) = 12x2 − 2, p000 (x) = 24x
Siendo B = {1, x, x2 , x3 , x4 }, la matriz de coordenadas de los vectores del
sistema
 considerado es 
2 0 −2 0
 0 −2 0 24 
 
 −1 0 12 0  ; la matriz es gaussiana, y por consiguiente su
 
 0 4 0 0 
1 0 0 0
rango es igual al número de vectores columna no nulos, es decir, 4. Por tanto
una base del subespacio H = L{p(x), p0 (x), p00 (x), p000 (x)} es

{p(x), p0 (x), p00 (x), p000 (x)},

con lo que el sistema {p(x), p0 (x), p00 (x), p000 (x)} es libre.

27. En el espacio vectorial F(N, R) de las sucesiones de números reales,


con la suma y producto habituales, consideramos el conjunto

H = {(xn ) ∈ F (N, R) |∀n ∈ N xn+2 = xn+1 + xn }

a) Demostrar que H es un subespacio vectorial de F(N, R).


b) Comprobar que dim(H) = 2.
a) i) Evidentemente la sucesión nula (0) ∈ H, pues la relación xn+2 =
xn+1 + xn se traduciría en este caso en que½ 0 = 0 + 0, lo cual es cierto.
xn+2 = xn+1 + xn
ii) Si (xn ), (yn ) ∈ H, tendremos que
yn+2 = yn+1 + yn
con lo que xn+2 + yn+2 = (xn+1 + yn+1 ) + (xn + yn ), es decir, la sucesión
(xn ) + (yn ) ∈ H.
iii) Finalmente, si (xn ) ∈ H y α ∈ R, vamos a ver que α(xn ) ∈ H :
puesto que (xn ) ∈ H, xn+2 = xn+1 + xn y en consecuencia, multiplicando
los dos miembros de la igualdad por α, αxn+2 = αxn+1 + αxn , es decir, la
sucesión (αxn ) = α(xn ) ∈ H.
b) Para resolver este apartado lo que hay que tener en cuenta es : si la
sucesión (xn ) ∈ H, ¾cuántos parámetros me determinan la sucesión?. Es
obvio que si ∀n ∈ N xn+2 = xn+1 + xn , conocidos x1 y x2 , la sucesión queda
completamente determinada, pues x3 = x1 + x2 , ....
Álgebra 319

Luego si ½consideramos ½ las sucesiones de (xn ), (yn ) ∈ H que satisfacen las


x1 = 1 y1 = 0
condiciones ,y , dada cualquier sucesión (zn ) ∈ H , si
½ x2 = 0 ½ y 2 = 1
z1 = α z1 = αx1 + βy1
, resulta que , y, teniendo en cuenta que esos
z2 = β z2 = αx2 + βy2
dos valores determinan la sucesión (zn ) ∈ H, resulta que (zn ) = α(xn ) +
β(yn ). Por tanto {(xn ), (yn )} es un sistema generador de H. Por otra parte,
es inmediato
½ que es libre, pues si α(xn ) ½ + β(yn ) = (0) (sucesión nula), en
αx1 + βy1 = 0 α·1+β·0=0
particular , de donde , es decir, α =
αx2 + βy2 = 0 α·0+β·1=0
β = 0. Por tanto, dim(H) = 2.

28. Hallar el rango de lassiguientes matrices:



  1 3 0 2  
1 3 2  −1 1 2 1  1 0 1 7 1 1
 
A =  2 1 1 , B =  
 2 2 3 0 , C =
 2 1 2 1 3 4 .
0 2 0  1 6 2 2  1 2 1 1 3 1
5 1 1 0

   
1 3 2 1 0 0
c2 = c2 − 3c1 
A= 2 1 1  2 −5 −3  El rango de A es
c3 = c3 − 2c1
0 2 0 0 2 0
3.    
1 3 0 2 1 4 2 3
 −1 1 2 1  c2 = c2 + c1  −1 0 0 0 
    1
B= 2 2 3 0  c3 = c3 + 2c1  2 4 7 2  c3 = c3 − 32 c2
   
 1 6 2 2  c4 = c4 + c1  1 7 4 3  c4 = c4 − 4 c2
5 1 1 0 5 6 11 5
   
1 4 0 0 1 4 0 0
 −1 0 0 0   −1 0 0 0 
   
 2 4 5 −1  c4 = c4 + c3  2 4 5 0  El rango de B
1
  5  
 1 7 1 −9   1 7 1 −43 
2 4 2 20
5 6 8 12 5 6 8 21 10
es 4.    
1 0 1 7 1 1 1 0 1 7 1 1
F = F2 − 2F1 
C= 2 1 2 1 3 4  2 0 1 0 −13 1 2 
F3 = F3 − F1
1 2 1 1 3 1 0 2 0 −6 2 0
320 Álgebra
 
1 0 1 7 1 1
F3 = F3 − 2F1  0 1 0 −13 1 2  El rango de C es 3.
0 0 0 20 0 −4

29. Encontrar una base y hallar la dimensión del espacio de matrices


triangulares superiormente T n (K).
T n (K) = { A= (aij )∈ Mn (K) | aij = 0 si j < i }.
Para todos s =1,...,n y t =i,...,n, sea Est ∈ Mn (K) la matriz
denida por ½
0 si (i, j) 6= (s, t)
Est = .
1 si (i, j) = (s, t)
Sea B = {Est : s = 1, ..., n, t = s, ..., n} . Queremos vericar que B es
una base de T n (K). P P
B es libre ya que si s=1,...,n t=s,...,n ast
P P∈ Mn (K), entonces,
Est = (0)
para todo i=1,...,n y j=i,...,n, se verica que s=1,...,n t=s,...,n ast Est (i, j) =
aij Eij (i, j) = aij = 0. P P
B es generador ya que si A= (ast )∈ Mn (K), A= s=1,...,n t=s,...,n ast Est .
Para todo s=1,...,n, el número de matrices Est con t=s,...,n es (n-s+1),
se sigue que
el número de elementos de B es n+(n-1)+(n-2)+...+2+1=n(n+1)/2.

30. En el espacio vectorial Z52 , hallar una base del subespacio vectorial
¡ ¢ ¡ ¢
H = L({ 0 1 0 1 1 , 0 1 0 0 1 ,
¡ ¢ ¡ ¢
0 0 0 1 0 , 0 1 1 1 1 }).

   
0 0 0 0 0 0 0 0
 1 1 0 1   1 0 0 0 
  c2 = c2 + c1  
 0 0 0 1   0 0 0 1  c3 = c3 + c2
  c4 = c4 + c1  
 1 0 1 1   1 1 1 0 
1 1 0 1 1 0 0 0
 
0 0 0 0
 1 0 0 0 
 
 0 0 0 1 
 
 1 1 0 0 
1 0 0 0
Álgebra 321

La dimensión de H es 3 y una base es


¡ ¢ ¡ ¢ ¡ ¢
B={ 0 1 0 1 1 , 0 1 0 0 1 , 0 1 1 1 1 }

31. En el espacio vectorial R3 , hallar una base del subespacio vectorial

H = L({(3, 2, −1), (1, 1, 1), (4, 3, 0)}).


     
3 1 4 3 1 1 3 1 0
 2 1 3  c3 = c3 − c1  2 1 1  c3 = c3 − c2  2 1 0 
−1 1 0 −1 1 1 −1 1 0
 
3 4 0
c2 = c2 + c1  2 3 0  .
−1 0 0
Entonces la dimensión de H es 2 y una base es B={(3, 2, −1), (1, 1, 1)}.

7.3 Soluciones de los ejercicios


del capítulo 3
1. Razonar si las siguientes funciones son o no lineales (en cada uno de
los conjuntos considerados se considera su estructura habitual de espacio
vectorial):

a) f : R3 → R b) f : R3 → R
(x, y, z) Ã x + 2y − 3z (x, y, z) Ã xyz

c) f : R2 → R
2
(x, y) Ã x + y

Unicamente es lineal la del apartado a). La del apartado b) no puesto


que, por ejemplo, f ((1, 1, 1) + (1, 1, 1)) = f (2, 2, 2) = 2 · 2 · 2 = 8, mientras
que f (1, 1, 1) + f (1, 1, 1) = 1 · 1 · 1 + 1 · 1 · 1 = 2.
La del apartado c) no es lineal pues por ejemplo, f (2·(1, 1, 1)) = f (2, 2, 2) =
6, mientras que 2 · f (1, 1, 1) = 2(12 + 1) = 4.
322 Álgebra

2. Dada la función lineal f : R2 → R3 determinada por las condiciones

f (1, 0) = (3, 4, 1), f (0, 1) = (−1, 0, 1),

determinar f (3, 1) y f (2, −1).


(3, 1) = 3(1, 0) + 1(0, 1), luego, puesto que f es lineal,

f (3, 1) = f (3(1, 0) + 1(0, 1)) =


= 3f (1, 0) + f (0, 1) = 3(3, 4, 1) + (−1, 0, 1) =
= (9, 12, 3) + (−1, 0, 1) = (8, 12, 4).

Análogamente, puesto que (2, −1) = 2(1, 0) + (−1)(0, 1),

f (2, −1) = f (2(1, 0) + (−1)(0, 1)) =


= 2f (1, 0) + (−1)f (0, 1) = 2(3, 4, 1) + (1, 0, −1) =
= (6, 8, 2) + (1, 0, −1) = (7, 8, 1).

3. Determinar
µ ¶ si la función T : M2 (R) → R, donde
a b
a) T = 3a − 4b + c − d
c d
µ ¶
a b
b) T = a 2 + b2
c d
es una transformación lineal.
µ ¶ µ ¶
a1 b1 a 2 b2
a) Sean k, l ∈ R y A = ,B = ∈ M2 (R).
c1 d1 c d
µ µ ¶ µ ¶¶ µµ 2 2 ¶¶
a1 b1 a2 b2 ka1 + la2 kb1 + lb2
T k +l =T =
c1 d1 c2 d2 kc1 + lc2 kd1 + ld2
= 3(ka1 +la2 )−4(kb1 +lb2 )+(kcµ1 +lc2 )−(kd
¶ 1 +ld2µ) = k(3a1 −4b
¶ 1 +c1 −d1 )+
a1 b1 a 2 b2
+l(3a2 − 4b2 + c2 − d2 ) = kT + lT . Entonces T
c1 d1 c2 d2
es lineal. µ ¶ µ ¶
1 1 1 0
b) Sean k, l ∈ R y A = ,B = ∈ M2 (R). Entonces,
0 0 0 0
µµ ¶ µ ¶¶ µ ¶
1 1 1 0 2 1
T + =T =5 y
0 0 0 0 0 0
Álgebra 323
µ ¶ µ ¶
1 1 1 0
T = 2, T = 1. T no es lineal ya que T (A) + T (B) 6=
0 0 0 0
T (A + B).
4. Sea T : R2 → R2 el operador lineal denido por la expresión T (x, y) =
(2x − y, −8x + 4y). ¾Cuáles de los siguientes vectores están en R(T )?
a) (1,-4) b) (5,0) c) (-3,12)

T (x, y) = (2x − y, −4(2x − 4)).


a) T (0, 1) = (1, −4) ∈ R(T ).
b) (5, 0) no puede estar en R(T ) ya que −4(5) 6= 0.
c) T (0, 3) = (−3, 12) ∈ R(T ).

5. Sea T : P2 → P3 la transformación lineal denida por T (p(x)) = xp(x).


¾Cuáles de los siguientes vectores están en Ker(T )?
a) x3 b) 0 c)1 + x

a) T (x3 ) = x4 6= 0 → x3 ∈/ Ker(T )
b) 0 ∈ Ker(T ) ya que T es lineal.
c) T (1 + x) = x + x2 6= 0 → x3 ∈/ Ker(T ).

6. En cada inciso, usando la información proporcionada obtener la nu-


lidad de T.
a) T : R5 → R7 tiene rango 3, entonces la nulidad de T es 5-3=2.
b) T : P4 → P3 tiene rango 1, entonces la nulidad de T es 5-1=4.
c) T (R6 ) = R3 ,entonces la nulidad de T es 6-3=3.
d) T : M2 (R) → M2 (R) tiene rango 3, entonces la nulidad de T es 4-3=1.

7. Sea T : R2 → R2 la proyección ortogonal sobre la recta y=x.


a) Encontrar el núcleo de T.
Ker(T) es el subespacio vectorial de R2 que tiene proyección ortogonal
(0,0) sobre la recta y=x. Entonces es la recta y=-x.
b) ¾Es T uno a uno? Justicar la conclusión.
T es lineal y su núcleo es distinto de {0}, entonces T no es inyectiva.

8. En cada inciso, usando la información dada determinar si (la función


lineal) T es uno a uno.
a) T : Rn → Rm ; nulidad(T) =0.
dim(Ker(T))=0, entonces Ker(T)={0} y T es inyectiva.
324 Álgebra

b) T : Rn → Rn ; rango(T) = n-1.
dim(Ker(T)) = n-(n-1) =1, entonces Ker(T)6={0} y T no es inyectiva.
c) T : Rm → Rn ; n<m.
Ya que rango(T) ≤ n, dim(ker( T)) = m-rango(T) > m-n > 0, entonces
T no es inyectiva.
d) T : Rn → Rn ; R(T) = Rn .
dim(ker( T)) = n-rango(T) = n-n = 0, entonces Ker(T)={0} y T es
inyectiva.

9. Sea T : P2 → P1 la transformación lineal denida por


T (a0 + a1 x + a2 x2 ) = (a0 + a1 ) − (2a1 + 3a2 )x.
a) Encontrar la matriz para T con respecto a las bases B2 = {1,x,x2 } y
B1 = {1,x} para P2 y P1 .
T(1)
µ = 1, T(x) 2
¶ = 1-2x, T(x ) = -3x. La matriz asociada a T es
1 1 0
A= .
0 −2 −3
b) Comprobar que la matriz (T)B2 ,B1 = MBB21 (T ) obtenida en el inciso a)
satisface la fórmula : A(p(x))B2= (T(p(x))) B2 .
µ ¶ a0 µ ¶
1 1 0  a1  = a0 + a1
A(p(x))B2 = = (T(p(x)))B2 .
0 −2 −3 −(2a1 + 3a2 )
a2
10. Sea T1 : P1 → P2 la transformación lineal denida por

T1 (c0 + c1 x) = 2c0 − 3c1 x

y sea T2 : P2 → P3 la transformación lineal denida por


T2 (c0 + c1 x + c2 x2 ) = 3x(c0 + c1 x + c2 x2 ).
Sean B1 = {1,x}, B2 = {1,x,x2 } y B3 = {1,x,x2 ,x3 }.
a) Encontrar MBB31 (T2 ◦ T1 ), MBB32 (T2 ), MBB21 (T1 ).
 
0 0
 6 0 
T2 ◦T1 (1) = 6x, T2 ◦T1 (x) = −9x2 . Entonces MBB31 (T2 ◦T1 ) =   0
.

−9
0 0
 
0 0 0
 3 0 0 
T2 (1) = 3x, T2 (x) = 3x2 , T2 (x2 ) = 3x3 . Entonces MBB32 (T2 ) = 
 0
.
3 0 
0 0 3
Álgebra 325
 
2 0
T1 (1) = 2, T1 (x) = −3x. Entonces MBB21 (T1 ) =  0 −3  .
0 0
b) Escribir una fórmula que relacione las matrices del inciso a).
MBB31 (T2 ◦ T1 ) = MBB32 (T2 )MBB21 (T1 ).

c) Comprobar que las matrices del inciso a) satisfacen la fórmula plan-


teada en el inciso b).    
0 0 0   0 0
 3 0 0  2 0  
MBB32 (T2 )MBB21 (T1 ) =   = 6 0 =
 0 3 0  0 −3  0 −9 
0 0
0 0 3 0 0

= MBB31 (T2 ◦ T1 ).

11. Sean A y B matrices semejantes. Demostrar lo siguiente:


a) At y Bt son semejantes.
b) Si A y B son invertibles, entonces A−1 y B−1 son semejantes.
Por denición de relación de semejanza, existe una matriz invertible P tal
que
B = P−1 A P.
a) Bt = (P−1 A P)t = (A P)t (P−1 )t = Pt At (P−1 )t = Pt At (Pt )−1
(utilizando la propiedades de la tranposición vistas anteriormente ). Ya que
Pt es invertible, At y Bt son semejantes.
b) B−1 = (P−1 A P)−1 = (A P)−1 (P−1 )−1 = P−1 A−1 P . Entonces A−1
y B−1 son semejantes.
12.(Teorema alternativo de Fredholm) Sea T : V → V un operador
lineal sobre un espacio vectorial n dimensional. Demostrar que se cumple
exactamente una de las siguientes proposiciones:
i) La ecuación T(x) =b tiene una solución para todo los vectores b en
V.
ii) Nulidad de T > 0.
Si no se verica i), entonces existe un vector b en V tal que b no apartenece
al imagen de la función lineal T. Entonces el rango de T es estrictamente
menor que n, Rango(T) < n, y Nulidad(T) = n - Rango (T) > n -n =0.
13. Sea la función lineal f : R4 → R3 determinada por las condiciones

f (1, 1, 1, 1) = (0, 0, 1), f (1, 0, 1, 0) = (1, 1, −1),


f (1, 1, 1, 0) = (0, 0, −1), f (−1, −2, 0, 0) = (1, 1, 1).
326 Álgebra

a) Hallar la matriz asociada a f respecto de las bases canónicas de R4 y


R3 .
b) La dimensión y las ecuaciones de Ker(f ) e Im(f ) respecto de las bases
canónicas de R4 y R3 .
a) El primer apartado se puede hacer de varias maneras. La matriz pedi-
da, MBB34 (f ) es la que tiene por columnas las (f (1, 0, 0, 0))B3 , ..., (f (0, 0, 0, 1))B3 .
Por tanto necesitamos hallar f (1, 0, 0, 0), ..., f (0, 0, 0, 1). Para calcular esas
imágenes, podemos escribir los vectores de B4 como combinación lineal de los
vectores que denen f y después hallar f (B4 ), o bien utilizar las matrices
de cambio de base según vimos en la pizarra. Lo hacemos por este segundo
procedimiento.
Siendo B = {(1, 1, 1, 1), (1, 1, 1, 0), (1, 0, 1, 0), (−1. − 2, 0, 0)} una base de
R,4
 
0 0 1 1
MBB3 (f ) =  0 0 1 1 
1 −1 −1 1

Como la matriz que buscamos es MBB34 (f ), dicha matriz se obtiene consi-


derando el esquema:

B4 IdR4 B f B3
R4 −→ R4 −→ R3 ,

con lo que MBB34 (f ) = MBB34 (f ◦ IdR4 ) = MBB3 (f ) · MBB4 (IdR4 ). Necesitamos,


pues, hallar MBB4 (IdR4 ). Para ello, hay que obtener las coordenadas de los
vectores de la base canónica B4 respectode B. 
1 1 1 −1
 1 1 0 −2 
De manera directa, MBB4 (IdR4 ) =  
 1 1 1 0  . Según sabemos,
1 0 0 0
B4
¡ B ¢−1
MB (IdR4 ) = MB4 (IdR4 ) . Por lo tanto hay que calcular la inversa de la
matriz
 anterior.   
1 1 1 −1 1 0 0 0 1 0 0 0 0 0 0 1
 1 1 0 −2 0 1 0 0   1 1 0 −2 0 1 0 0 
  F1 ←→ F4  
 1 1 1 0 0 0 1 0   1 1 1 0 0 0 1 0 
1 0 0 0 0 0 0 1 1 1 1 −1 1 0 0 0
Álgebra 327
 
1 0 0 0 0 0 0 1
F2 = F2 − F1 
0 1 0 −2 0 1 0 -1 
F3 = F3 − F1 
 0 1 1
 F = F3 − F2
0 0 0 1 -1  3
F4 = F4 − F1 F4 = F4 − F2
0 1 1 −1 1 0 0 −1
 
1 0 0 0 0 0 0 1
 0 1 0 −2 0 1 0 -1 
  F = F4 − F3
 0 0 1 2 0 -1 1 0  4
0 0 1 1 1 -1 0 0
 
1 0 0 0 0 0 0 1
 0 1 0 −2 0 1 0 F2 = F2 − 2F4
 -1  F3 = F3 + 2F4
 0 0 1 2 0 -1 1 0 
F4 = −F4
0 0 0 −1 1 0 -1 0
 
1 0 0 0 0 0 0 1
 0 1 0 0 -2 1 2 -1 
 
 0 0 1 0 2 -1 -1 0 
0 0 0 1 -1 0 1 0
 
0 0 0 1
¡ ¢−1  −2 1 2 −1 
Es decir, MBB4 (IdR4 ) = MBB4 (IdR4 ) = 
 2 −1 −1 0  , con lo
−1 0 1 0
B4 B4
que la matriz buscada es MB3 (f ) = MB3 (f ) · MB (IdR4 ) =
B
 
  0 0 0 1  
0 0 1 1   1 −1 0 0
−2 1 2 −1  
= 0 0 1 1   2 −1 −1 0  = 1 −1 0 0  .
1 −1 −1 1 −1 0 0 2
−1 0 1 0

b) Utilizando el algoritmo que vimos en clase:

   
1 -1 0 0 1 -1 0 2
 1 -1 0 0   1 -1 0 2 
   
 −1 0 0 2   −1 0 0 0 
  c4 =   c4 =
 0 0 0   0 0 2 
 1  c4 + 2c1  1  c4 − 2c2
 0 1 0 0   0 1 0 0 
   
 0 0 1 0   0 0 1 0 
0 0 0 1 0 0 0 1
328 Álgebra
 
1 -1 0 0
 1 -1 0 0 
 
 −1 0 0 0 
 
 1 0 0 2 
 
 0 1 0 -2 
 
 0 0 1 0 
0 0 0 1
obtenemos que, respecto de las bases canónicas de R4 y R3 , Ker(f ) =
L({(0, 0, 1, 0), (2, −2, 0, 1)}) e Im(f ) = L({(1, 1, −1), (−1, −1, 0)}), por tanto
la dimensión de Ker(f ) = 2 y la dimensión de Im(f ) = 2.
Entonces, respecto de las bases canónicas de R4 y R3 , las ecuaciones
paramétricas de Ker(f ) son:
u = (u1, u2, u3, u4 ) ∈ Ker(f ) ⇔ ∃ (a, b) ∈ R2 tal que
   
0 2 µ ¶ u1
 0 −2  a  u2 
   
 1 0  b =  u3 
0 1 u3

y las ecuaciones paramétricas de Im(f ) son:


v = (v1, v2, v3 ) ∈ Im(f ) ⇔ ∃ (a, b) ∈ R2 tal que
   
1 −1 µ ¶ v1
 1 −1  a =  v2  .
b
−1 0 v3

14. Sea E un espacio vectorial de dimensión 3 y B = {e1 , e2 , e3 } una base


de E. Consideramos la función lineal f : E → E tal que su matriz asociada
sea  
15 −11 5
MBB (f ) =  20 −15 8  .
8 −7 6
Hallar la matriz asociada a f respecto de la base B 0 = {u1 , u2 , u3 }, donde

u1 = 2e1 + 3e2 + e3 ,
u2 = 3e1 + 4e2 + e3 ,
u3 = e1 + 2e2 + 2e3 .
Álgebra 329

La matriz de f respecto de la base B 0 es la matriz asociada a la siguiente


composición de funciones:

B 0 IdE B f B IdE B 0
E −→ E −→ E −→ E

0 0
MBB0 (f ) = MBB0 (IdE ) · MBB (f ) · MBB (IdE ),
donde  
2 3 1
MBB (IdE ) =  3 4 2  es la matriz de
0
las coordenadas de B 0 respecto
1 1 2
de B y  
−6 5 −2
B B0 −1
MB 0 (IdE ) = (MB (IdE )) =  4 −3 1  . Entonces,
1 −1 1
   
−6 5 −2 15 −11 5 2 3 1
MBB0 (f ) =  4 −3 1   20 −15 8  3 4 2  =
0

1 −1 1 8 −7 6 1 1 2
 
1 0 0
=  0 2 0 .
0 0 3

15. Hallar una base del núcleo y una base de la imagen de la siguiente
función lineal:
f : R4 → R3 determinada por las condiciones:

f (1, 0, 0, 0) = (1, 0, 1), f (0, 1, 0, 0) = (2, 1, −1),


f (0, 0, 1, 0) = (3, 0, −1), f (0, 0, 0, 1) = (1, 1, 1).

De las condiciones enunciadas se sigue que


 
1 2 3 1
MBB34 (f ) =  0 1 0 1 
1 −1 −1 1

Utilizando el método desarrollado en el aula (he incluido todas las trans-


formaciones por columnas en un solo paso) , tendremos que:
330 Álgebra

   
1 2 3 1 1 0 0 0
   
 0 1 0 1  c2 = c2 − 2c1  0 1 0 0 
  c = c − 3c  
 1 −1 −1 1  3 3 1  1 −3 −4 0 
   
 1 c
 4 = c 4 − c 1 →  1 −2 −3 − 45 
   
 1  c4 = c4 − c2  1 −1 
  3  3 
 1  c4 = c4 + 4 c3  1 4 
1 1
de donde
{(1, 0, 1), (0, 1, −3), (0, 0, −4)}
es una base de Im(f ) y ½ ¾
−5 3
( , −1, , 1)
4 4
es una base de Ker(f ).
16. En R2 se considera la base B 0 = {u1 , u2 }, donde
u1 = 2e1 + 3e2 ,
u2 = 3e1 + 4e2 ,
y B2 = {e1 , e2 } = {(1, 0), (0, 1)}. Siendo la función lineal f : R2 → R2 tal
que su matriz asociada respecto de B 0 es
µ ¶
B0 3 15
MB 0 (f ) = ,
2 10
hallar una base de Ker(f ) y una base de Im(f ).
El algoritmo es el mismo que el empleado en el ejercicio 5, pero en este
caso trabajamos con las coordenadas respecto de B 0 :
   
3 15 3 0
   
 2 10   2 0 
  c2 = c2 − 5c1 →  .
 1   1 −5 
1 1
µ ¶ µ ¶
−5 3
Luego, teniendo en cuenta que las coordenadas y están ex-
1 2
presadas respecto de la base B 0 = {u1 , u2 }, tendremos que el vector
w = −5u1 + u2 = −5(2e1 + 3e2 ) + 3e1 + 4e2 =
= −7e1 − 11e2
Álgebra 331

constituye una base de Ker(f ), y


w0 = 3u1 + 2u2 = 3(2e1 + 3e2 ) + 2(3e1 + 4e2 ) =
= 12e1 + 17e2
constituye una base de Im(f ). En otras palabras, respecto de las coordenadas
canónicas de R2 , {(−7, −11)} es una base de Ker(f ) y {(12, 17)} es una base
de Im(f ).

7.4 Soluciones de los ejercicios


del capítulo 4
1. En el espacio vectorial euclídeo R3 con el producto escalar usual se consi-
dera el sistema de vectores
{(1, 2, −1), (0, 1, 1)}.
Se pide obtener, mediante el método de Gram-Schmidt, una base ortonormal
del subespacio
L({(1, 2, −1), (0, 1, 1)})
y la proyección ortogonal del vector (1, 1, 1) sobre dicho subespacio.
√ √
Sea v1 = (1, 2, −1), kv1 k = 1 + 4 + 1 = 6 y sea
h(0, 1, 1), (1, 2, −1)i
v2 = (0, 1, 1) − (1, 2, −1) =
6
1 1 2 7
= (0, 1, 1) − (1, 2, −1) = (− , , ),
6 6 3 6
r r
1 16 49 11
kv2 k = + + = .
36 36 36 6

v1 v2 1 2 −1 −1 4 7
B = {w1 = , w2 = } = {( √ , √ , √ ), ( √ , √ , √ )}
kv1 k kv2 k 6 6 6 66 66 66
es una base ortonormal de H =L({(1, 2, −1), (0, 1, 1)}).
Sea u = (1,1,1). La proyección ortogonal de u sobre H es:
2 10 2 14 59
p⊥ (u) = hu, w1 iw1+ hu, w2 iw2 = √ w1 + √ w2 = ( , , ).
6 66 11 11 11
332 Álgebra

7.5 Soluciones de los ejercicios


del capítulo 5
1. Obtener una matriz generadora y una matriz de control del código de
paridad expuesto en los apuntes de clase.
El código de paridad es lineal ya que pueden ser descrito como el conjunto
de soluciones de la ecuación lineal homogénea

x1 + x2 + x3 + x4 + x5 + x6 + x7 + x8 = 0 con xi ∈ Z2

y en consecuencia dicho conjunto es un subespacio vectorial de Z82 .


Una matriz generadora del código de paridad es la matriz
 
1 0 0 0 0 0 0
 0 1 0 0 0 0 0 
 
 0 0 1 0 0 0 0 
 
 0 0 0 1 0 0 0 
 
 0 0 0 0 1 0 0 
 
 0 0 0 0 0 1 0 
 
 0 0 0 0 0 0 1 
1 1 1 1 1 1 1

Una matriz de control del código de paridad es


¡ ¢
1 1 1 1 1 1 1 1
ya que su dimensión es 1 × 8 y C es el núcleo de la función lineal
f (x1 , x2 , x3 , x4 , x5 , x6, x7 , x8 ) = x1 + x2 + x3 + x4 + x5 + x6 + x7 + x8 .
2. Obtener una matriz generadora y una matriz de control del código de
repetición expuesto en los apuntes de clase.
El código de repetición es lineal ya que pueden ser descrito como el como
el conjunto de soluciones del siguiente sistema de ecuaciones lineales:
½
x1 = x2
con xi ∈ Z2
x2 = x3

que equivale al siguiente sistema de ecuaciones lineales homogéneas:


½
x1 + x2 = 0
con xi ∈ Z2 .
x2 + x3 = 0
Álgebra 333

Una matriz generadora del código de repetición C = {(0,0,0),(1,1,1)} es:


 
1
 1 
1
Una matriz de control del código de repetición es la matriz asociada al
sistema de ecuaciones lineales homogéneas anterior:
µ ¶
1 1 0
.
0 1 1

3. Determinar una matriz de control del código cuya matriz generadora


es:
 
1 1 1
 1 0 0 
G =
 1
.
0 1 
1 1 1

  F2 = F2 + F1  
1 1 1 1 0 0 0 F3 = F3 + F1 1 0 0 0 1 0 0
 1 0 0 0 1 0 0  F4 = F4 + F1  0 1 0 1 0 1 0 
  → 
 1 0 1 0 0 1 0  F1 = F1 + F2  0 0 1 0 1 1 0 
1 1 1 0 0 0 1 F2 = F2 + F3 0 0 0 1 0 0 1
F2 ↔ F3

Luego la matriz de control es la matriz


¡ ¢
H= 1 0 0 1 .

4. Determinar una matriz generadora del código cuya matriz de control


es:
µ ¶
1 0 1 0
H=
1 1 1 1

Una posible solución es:


334 Álgebra

     
1 0 1 0 1 0 0 0 1 0 0 0
 1 1 1 1   1 1 0 1   1 1 0 0 
     
 1 0 0 0   1 0 1 0   1 0 1 0 
  c3 = c3 + c1   c4 = c4 + c2  
 0 1 0 0   0 1 0 0   0 1 0 1 
     
 0 0 1 0   0 0 1 0   0 0 1 0 
0 0 0 1 0 0 0 1 0 0 0 1
luego la siguiente matriz es generadora del código
 
1 0
 0 1 
G =  1 0
,

0 1
ya que sus columnas forman una base del núcleo de la función lineal cuya
matriz asociada es H.
5. Determinar una matriz de control y una matriz que permita realizar
la decodicación del código generado por los vectores cuyas coordenadas
respecto de la base canónica de Z42 son las columnas de la matriz:
 
0 1 1
 1 1 0 
 
 1 0 1 
0 1 1
Obsérvese que, puesto que las columnas de la matriz forman un sistema
ligado, pues c3 = c1 + c2 , y dado que la matriz formada por las dos primeras
columnas de la matriz dada es una matriz gaussiana sin ninguna columna
nula, resulta que una matriz generadora del código es la matriz formada por
las dos primeras columnas, esto es:
 
0 1
 1 1 
G= 
 1 0 .
0 1
Operando ahora con el algoritmo estudiado:
   
0 1 1 0 0 0 F2 = F2 + F1 1 0 1 1 0 0
 1 1 0 1 0 
0  F3 = F3 + F2  0 1 1 0 0 0 
 → 
 1 0 0 0 1 0  F4 = F4 + F1  0 0 1 1 1 0 
0 1 0 0 0 1 F2 ↔ F1 0 0 1 0 0 1
Álgebra 335

Luego la matriz de control es la matriz


µ ¶
1 1 1 0
H=
1 0 0 1
y la matriz que permite realizar la decodicación es la matriz
µ ¶
1 1 0 0
T = .
1 0 0 0

6. Determinar una matriz de control y una matriz que permita realizar


la decodicación del código cuya matriz generadora es
 
1 1
 1 0 
G =  1 1 

0 1
   
1 1 1 0 0 0 F2 = F2 + F1 1 0 0 1 0 0
 1 0 0 1 0 0  F3 = F3 + F1  0 1 1 1 0 0 
   
 1 1 0 0 1 0  F4 = F4 + F2 →  0 0 1 0 1 0 
0 1 0 0 0 1 F1 = F1 + F2 0 0 1 1 0 1

Luego la matriz de control es la matriz


µ ¶
1 0 1 0
H=
1 1 0 1
y la matriz que permite realizar la decodicación es la matriz
µ ¶
0 1 0 0
T = .
1 1 0 0

7.6 Soluciones de los ejercicios


del capítulo 6
1. Determinar la sucesión denida recursivamente por las condiciones

 an+2 = 7an+1 − 12an
a1 = 1

a2 = 3.
336 Álgebra

La ecuación característica de la relación de recurrencia homogénea dada


es

x2 − 7x + 12 = 0
cuyas raíces son x = 3 y x = 4. Por consiguiente, las sucesiones que satisfacen
esa relación de recurrencia son de la forma:

α{3n } + β{4n }.

Imponiendo
½ que se satisfagan½las condiciones iniciales:
α3 + β4 = 1 3α + 4β = 1
de donde , de donde β = 0 y α = 13 ,
α32 + β42 = 3 9α + 16β = 3
con lo que la sucesión buscada es
1 n
{3 } = {3n−1 }.
3

2. Encontrar las sucesiones que satisfacen la relación de recurrencia

an+3 = 4an+2 − 5an+1 + 2an .

La ecuación característica de la relación de recurrencia homogénea dada


es

x3 − 4x2 + 5x − 2 = 0
ecuación que se puede expresar de la forma (x − 2) (x − 1)2 = 0 y que por
tanto tiene una raiz x = 1 de multiplicidad 2 y otra raiz x = 2 de mul-
tiplicidad 1. Por consiguiente, las sucesiones que satisfacen esa relación de
recurrencia son de la forma:

α{1n } + β{n1n } + γ{2n }.

3. Encontrar las soluciones de la ecuación diferencial

D2 (f ) − 7D(f ) + 12f = e−t .


Álgebra 337

La ecuación característica de la ecuación diferencial homogénea asociada


a la ecuación dada es:

x2 − 7x + 12 = 0
ecuación que se puede expresar de la forma (x − 3) (x − 4) = 0. Por consi-
guiente, una base del espacio de soluciones

Ker(D2 − 7D + 12Id) = Ker((D − 3Id) ◦ (D − 4Id))

de dicha ecuación homogénea será

{e3t , e4t }.

Como por otra parte el término independiente es solución de la ecuación

(D + Id)(f ) = 0 ⇔ D(f ) + f = 0

podemos obtener una solución particular por el método de los coecientes


indeterminados: Las soluciones de la ecuación dada lo serán también de la
ecuación
((D + Id) ◦ (D − 3Id) ◦ (D − 4Id))(f ) = 0
Como las soluciones de esta última ecuación son de la forma

αe3t + βe4t + γe−t ,


imponiendo que satisfagan la ecuación original dada tendremos que

((D − 3Id) ◦ (D − 4Id))(αe3t + βe4t + γe−t ) = e−t

de donde
(γe−t + 4γe−t + 3γe−t + 12γe−t ) = e−t
es decir,
(20γ e−t ) = e−t
de donde 20γ = 1, es decir,
1
γ= .
20
En denitiva, la solución general de la ecuación dada, con α y β constantes
arbitrarias es
1
f (t) = e−t + αe3t + βe4t
20
338 Álgebra

4. Resolver el problema de valor inicial


½
D(f ) − 2f = e2t
f (0) = 1.

Buscamos las soluciones de la ecuación no homogénea dada empleando el


método de los coecientes indeterminados:
Puesto que e2t es solución de la ecuación diferencial

(D − 2Id) (f ) = 0,

buscamos nuestras soluciones entre las soluciones de la ecuación

((D − 2Id) ◦ (D − 2Id))(f ) = 0.

Las soluciones de esta última ecuación son de la forma

f (t) = αe2t + βte2t ,

por lo que, imponiendo que

D(f ) − 2f = e2t

obtenemos
2αe2t + 2βte2t + βe2t − 2αe2t − 2βte2t = e2t ,
es decir,
βe2t = e2t ⇒ β = 1
½
f (t) = αe2t + te2t
de donde .
f (0) = α = 1
Por consiguiente la solución es

f (t) = e2t + te2t = (t + 1)e2t .

5. Resolver el sistema de ecuaciones diferenciales


½ 0
x1 = 5x1 + 4x2
x02 = x1 + 2x2
Álgebra 339

sujeto a las condiciones iniciales x1 (0) = 2,


x2 (0) = 3.
Obtenemos las raíces del polinomio característico, los autovectores corres-
pondientes y la inversa de la matriz P de paso, resultando
µ 1 −4 ¶ µ ¶µ ¶ µ ¶
5 4 1 4 1 0
5
1
5
1 = .
5 5
1 2 −1 1 0 6

Ahora resolvemos el sistema,


½
z10 (t) = z1 (t)
z20 (t) = 6z2 (t)

es decir, ½
z1 (t) = αet
z2 (t) = βe6t
siendo µ ¶ µ ¶µ ¶
x1 (t) 1 4 z1 (t)
= ,
x2 (t) −1 1 z2 (t)
es decir,
µ ¶ µ ¶µ ¶ µ ¶
x1 (t) 1 4 αet αet + 4βe6t
= = .
x2 (t) −1 1 βe6t −αet + βe6t

Imponiendo nalmente las condiciones iniciales, tendremos que


µ ¶ µ ¶
2 α + 4β
= ,
3 −α + β

es decir: β = 1, α = −2, con lo que la solución será


µ ¶ µ ¶
x1 (t) −2et + 4e6t
= .
x2 (t) 2et + e6t

6. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en dife-


rencias) ½
an+1 = 5an + 4bn
bn+1 = an + 2bn
con las condiciones iniciales a1 = 2, b1 = 3.
340 Álgebra

El sistema planteado en forma matricial es


µ ¶ µ ¶µ ¶
an+1 5 4 an
=
bn+1 1 2 bn

Utilizando los cálculos hechos en el problema anterior, tendremos que


µ 1 −4 ¶ µ ¶µ ¶ µ ¶
5 4 1 4 1 0
5
1
5
1 =
5 5
1 2 −1 1 0 6

con lo que resolver el sistema de relaciones de recurrencia indicado es equi-


valente a resolver el sistema de relaciones de recurrencia
µ ¶ µ ¶µ ¶
cn+1 1 0 cn
=
dn+1 0 6 dn
con µ ¶ µ ¶µ ¶
an 1 4 cn
= .
bn −1 1 dn
Obviamente µ ¶ µ ¶
{cn } α {1n }
=
{dn } β {6n }
con lo que
µ ¶ µ ¶µ ¶ µ ¶
an 1 4 α α + 4 · 6n β
= = .
bn −1 1 6n β −α + 6n β

Imponiendo ahora las condiciones iniciales:


µ ¶ µ ¶ µ ¶
a1 2 α + 24β
= = .
b1 3 −α + 6β

de donde ½ 1
30β = 5 ⇒ β = 6
α = −2
y, en denitiva, la solución es
µ ¶ µ ¶
an −2 + 4 · 6n−1
= .
bn 2 + 6n−1
Álgebra 341

7. Calcular la potencia n−ésima de la matriz


 
2 1 1
A =  2 3 2 .
3 3 4

Después de hallar los autovalores, los autovectores y la matriz de paso


llegamos a:
 5 1     
6 6
−1 1 0 0 1 −2 1 2 1 1
 −1 1 0   0 7 0   1 1 1  =  2 3 2 
3 3
− 12 21 1 0 0 1 0 − 32 1 3 3 4

con lo que
 n  5 1
  
2 1 1 6 6
−1 1 0 0 1 −2 1
 2 3 2  =  −1 1
0   0 7n 0   1 1 1  ,
3 3
3 3 4 − 12 1
2
1 0 0 1 0 − 32 1

es decir,
 n  5 1   
2 1 1 6 6
−1 1 0 0 1 −2 1
 2 3 2  =  − 1 1 0   0 7n 0   1 1 1  =
3 3
3 3 4 − 21 12 1 0 0 1 0 − 32 1
 5 1 n 
6
+ 67 − 16 + 16 7n − 16 + 16 7n
=  − 31 + 13 7n 23 + 13 7n − 13 + 13 7n  .
− 21 + 12 7n − 12 + 12 7n 12 + 12 7n
342 Álgebra
Apéndice A

Nuevo método de triangulación


por semejanza

Motivado por el hecho de que la relación de semejanza constituye el meca-


nismo básico de transformación de los sistemas de ecuaciones diferenciales,
vamos a establecer otro algoritmo que nos permita construir matrices seme-
jantes.

Como es habitual en álgebra lineal, el procedimiento que vamos a dis-


cutir está basado en el uso de transformaciones elementales, que ya fueron
introducidas en el capítulo 2. Recordemos cuales son:

343
344 Álgebra

Transformación Ejemplo
µ ¶ µ ¶
Sumar a una columna 1 0 −−−−−−−−−→ 1 7
c2 = c2 + 7c1
un múltiplo de otra 0 1 0 1
µ ¶ µ ¶
Multiplicar una columna 1 7 −−−−−→ 5 7
c1 = 5c1
por un número no nulo 0 1 0 1
µ ¶ µ ¶
7 3 −
c1−↔
−−→
c2 3 7
Intercambiar dos columnas
0 1 1 0
µ ¶ µ ¶
Sumar a una la 1 0 −−−−−−−−−→ 1 0
f2 = f2 + 7f1
un múltiplo de otra 0 1 7 1
µ ¶ µ ¶
Multiplicar una la 1 0 −−−−−→ 7 0
f1 = 7f1
por un número no nulo 5 1 5 1
µ ¶ µ ¶
7 0 −−−−−→ 3 1
Intercambiar dos las f1 ↔ f2
3 1 7 0

Según vimos en el capítulo 2 y en la práctica correspondiente, cada tras-


formación elemental se corresponde con la operación de multiplicar por una
cierta matriz invertible, en el sentido de la siguiente proposición.

Proposición A.0.1 Sea A ∈ Mn (K). Si


0
A − tc → A

In −tc → P,
donde tc denota una transformación elemental por columnas, se verica que
A0 = AP y que la matriz P ∈ Mn (K) es invertible. Análogamente, si
0
A − tf → A

In −tf → P,
donde tf denota una transformación elemental por las, se verica que A0 =
PA y que la matriz P ∈ Mn (K) es invertible.
Álgebra 345

Este resultado nos da la clave para establecer un mecanismo para cons-


truir matrices semejantes. Observemos el siguiente esquema, donde tc repre-
senta una transformación elemental por columnas y tf por las:

A − tc → tf → B 
In −tc → P =⇒ B = P0 AP.
0 
In −tf → P
Para conseguir que A y B sean semejantes, basta ajustar las transformaciones
tc y tf para que sus correspondiente matrices, P y P0 , sean la una inversa de
la otra. Ahora bien, para que P0 = P−1 , basta conseguir que

In − t c → t f → In , (A.1)
0
0
ya que esto querría decir que In = P In P = P P. En la siguiente tabla asocia-
mos a cada transformación por columnas su correspondiente transformación
inversa por las:
Columnas: tc Filas: tf
ci = ci + λcj fj = fj − λfi
1
ci = λci fi = fi
λ
ci ↔ cj fi ↔ fj
Para cerciorarse de que esta tabla está bien construida basta comprobar
(A.1).

A partir de este momento, asumiremos el siguiente convenio de notación:


si t denota a una trasformación elemental por columnas o por las, t−1 de-
notará a la correspondiente transformación inversa respectivamente por las
o por columnas. Por ejemplo (ci = ci + λcj )−1 = (fj = fj − λfi ).

Finalmente, utilizado esta notación, podemos concluir que en el supuesto


de que t1 , . . . tr sean transformaciones por columnas:


t t t−1 t−1 
A −→ 1 r
· · · −→ 1
−→ r
· · · −→ A0 

t1


In −→ P1
.. ⇒ A0 = (P1 · . . . · Pr )−1 A (P1 · . . . · Pr ) .
. 



t
r 
In −→ Pr
346 Álgebra

Para verlo basta tener en cuenta lo anterior y que


(P1 · . . . · Pr )−1 = P−1 −1
r · . . . · P1 .

Asímismo, si primero realizamos las transformaciónes por la y luego por


columnas, también obtenemos:


t−1 t−1 t t 
1
A −→ r
· · · −→ 1
−→ r
· · · −→ A00 

t1


In −→ P1
.. ⇒ A00 = (P1 · . . . · Pr )−1 A (P1 · . . . · Pr ) ,
. 



r t 
In −→ Pr
luego, en particular, A0 = A00 .
Ahora ya tenemos un mecanismo que nos permite construir matrices se-
mejantes, que consiste básicamente en compensar cada transformación ele-
mental por columnas con su correspondiente inversa por las o viceversa.
Pero además, a través del siguiente esquema podemos también obtener la
matriz de paso:
t t t−1 t−1
A −→1
· · · −→r
A·P 1
−→ r
· · · −→ P−1 ·A · P
t1 tr
In −→ · · · −→ P P.

Por ejemplo, como:


   
1 3 2 1 0 0
 2 1 1   2 −5 −3 
 0 2 0  c2 = c2 − 3c1
→ 
0 2 0  f1 = f1 + 3f2

1 0 0 c3 = c3 − 2c1 1 −3 −2 f1 = f1 + 2f3
 0 1 0   0 1 0 
0 0 1 0 0 1
 
7 −11 −9
 2 −5 −3 
0 2 0
→ 
1 −3 −2
 0 1 0 ,
0 0 1
tendremos que :
Álgebra 347
 −1      
1 −3 −2 1 3 2 1 −3 −2 7 −11 −9
 0 1 0  · 2 1 1 · 0 1 0  =  2 −5 −3  .
0 0 1 0 2 0 0 0 1 0 2 0

La demostración del siguiente teorema constituye un algoritmo que per-


mite la obtención de la matriz triangular semejante a una matriz dada
A ∈ Mn (C).

Teorema A.0.2 Si A es una matriz cuadrada de orden n con coecientes


complejos, existe una matriz semejante a ella T que es triangular.

Demostración La demostración consiste en probar que se puede construir


una cadena de matrices

A = T0 → T1 → · · · → Tn = T,

cada una semejante a la anterior (y en consecuencia todas ellas son semejantes


entre sí) y de tal modo Ti es de la forma
 
An−i 0
 λi 0 
i 
T = .. .. ,
 Ri×n−i . . 
· ··· λ1

donde An−i es una matriz cuadrada de orden n − i y Ri×n−i es una matriz


rectangular de orden i × (n − i) . Para ello basta ver el procedimiento pa-
ra añadir un nuevo eslabón a la cadena. Así pues supongamos que hemos
construido la cadena hasta Ti , veamos cómo añadir el eslabón Ti+1 .

Puesto que trabajamos con coecientes complejos el polinomio caracte-


rístico

PAn−i (X) = |An−i − XIn−i |

tiene al menos una raíz, a la que por conveniencia denotaremos con λ. Si


ahora restamos λIn a la matriz Ti obtenemos:
348 Álgebra
 
An−i − λIn−i 0
 λi − λ 0 
 
Ti − λIn =  .. .. 
 Ri×n−i . . 
· ··· λ1 − λ

y, puesto que |An−i − λIn−i | = 0, las columnas de la submatriz An−i − λIn−i


son linealmente dependientes. Por tanto, según sabemos, es posible apli-
car una serie de transformaciones elementales por columnas sobre la matriz
An−i − λIn−i de tal modo que en la matriz resultante (una matriz gaussiana)
aparecerá alguna columna nula. Además mediante una permutación, pode-
mos colocar dicha columna al nal. Luego sabemos determinar una serie de
transformaciones elementales por columnas t1 , t2 , . . . , tk (más adelante vere-
mos un ejemplo) que aplicadas sobre An−i − λIn−i genera una matriz del
tipo:
 
α11 · · · 0
 .. ..  .
 . . 
αn−i1 · · · 0

Por tanto, si aplicamos estas mismas transformaciones sobre la matriz Ti −


λn−i In nos queda una matriz cuya forma es:
 
α11 ··· 0
 .. .. 0 
 . . 
 
 αn−i1 · · · 0 
 . (A.2)
 λi − λ 0 
 .. .. 
 R0i×n−i . . 
· ··· λ1 − λ
Las transformaciones t1 , t2 , . . . , tk que hemos empleado, únicamente afec-
tan a las primeras n − i columnas, por tanto las correspondientes transfor-
maciones inversas t−1 −1 −1
1 , t2 , . . . , tk únicamente afectan a las primeras n − i
las ya que, para cualquier j ∈ {1, . . . , k} si:

 cr = cr + λcs
tj = cr = λcr , como 1 ≤ r, s ≤ n − i, ⇒

cr ↔ cs
Álgebra 349

 fs = fs − λfr
⇒ t−1
j = fr = λ1 fr con 1 ≤ r, s ≤ n − i.

fr ↔ fs
Esto quiere decir que si aplicamos las transformaciones t−1 −1 −1
1 , t2 , . . . , tk sobre
0
la matriz (A.2), obtendremos una matriz T cuya forma es:
 0 
α11 ··· 0
 .. .. 0 
 . . 
 0 
 αn−i1 ··· 0 
T0 =  .
 λi − λ 0 
 .. .. 
 R0i×n−i . . 
· ··· λ1 − λ
(Obsérvese que las transformaciones t−1 −1 −1
1 , t2 , . . . , tk no han podido alterar
los ceros que aparecían en la columna n − i de la matriz (A.2)) Ahora bien,
en este momento tenemos que T0 es semejante a Ti − λn−i In , es decir existe
una matriz invertible P tal que

T0 = P−1 · (Ti − λn−i In ) · P.

Pero entonces T0 = (P−1 · Ti · P) − λn−i (P−1 · In · P) = P−1 · Ti · P − λn−i In ,


y en consecuencia P−1 · Ti · P = T0 + λn−i In , es decir

 0 0 
α11 +λ ··· α1n−i−1
 .. .. 
 . . 0 
 
 
 
P−1 · Ti · P =  αn−i1
0
··· 0
αn−i,n−i−1 λ 0 
 0 
 ri,n−i λi 
 .. .. .. 
 R0i×n−i−1 . . . 
0
rn,n−i · ··· λ1

y esta matriz es precisamente Ti+1 .

Observación 67 El método propuesto en la demostración no modica las


la submatriz triangular obtenida hasta el momento. Esto quiere decir que el
350 Álgebra

autovalor de An−i utilizado para aumentar el tamaño de la submatriz trian-


gular permanece hasta el nal, apareciendo en la diagonal principal de la
matriz T. Ahora bien, por ser T y A semejantes sus polinomios caracterís-
ticos coinciden, y por ser T triangular:
 
λn − X 0 ··· 0
 a21 λn−1 − X · · · 0 
 
|T − XIn | =  .. .. . . .. =
 . . . . 
an1 an2 · · · λ1 − X

= (λ1 − X) · · · (λn−1 − X) (λn − X) .


Esto quiere decir que el autovalor de An−i utilizado necesariamente es un
autovalor de A que no ha sido utilizado previamente.

Ejemplo A.0.3 Triangular por semejanza y hallar la matriz de paso corres-


pondiente a la matriz
 
−2 0 3
A =  3 −2 −9 
−1 2 6
En primer lugar determinamos las raíces del polinomio característico de
la matriz:
¯ ¯
¯ −2 − X 0 3 ¯¯
¯
¯ 3 −2 − X −9 ¯¯ = −X + 2X 2 − X 3 = (1 − X)2 (0 − X).
¯
¯ −1 2 6−X ¯

Luego los autovalores A son [1, 1, 0] . A continuación utilizamos el primero


de ellos para construir T1 :
   
−2 0 3 −3 0 3
 3 −2 −9   3 −3 −9 
   
 −1 2 6  −−−→  −1 2 5 
  −I3   c3 = c3 + c1
 1 0 0   1 0 0 
    −−−−−−−−−→
 0 1 0   0 1 0 
0 0 1 0 0 1
Álgebra 351

   
−3 0 0 −3 0 0
 3 −3 −6   3 −3 0 
   
 −1 2 4   −1 2 0 
 c = c − 2c  
 1 0 1  3 3 2  1 0 1 
  −−−−−−−−−−→  
 0 1 0   0 1 −2 
0 0 1 0 0 1
   
−2 −2 0 −1 −2 0
 1 1 0   1 2 0 
−−−−−−−−−−−→    
f1 = f1 − f3  −1 2 0  −−−→  −1 2 1 
  +I3  
f2 = f2 + 2f3 
 1 0 1 


 1 0 1 

 0 1 −2   0 1 −2 
0 0 1 0 0 1

Ahora para construir T2 nos quedan los autovalores [1, 0] . Utilicemos el


primero:
   
−1 −2 0 −2 −2 0
 1 2 0   1 1 0 
   
 −1 2 1  − −−→  −1 2 0 
  −I3   c2 = c2 − c1
 1 0 1   1 0 1 
    −−−−−−−−−→
 0 1 −2   0 1 −2 
0 0 1 0 0 1
   
−2 0 0 −1 0 0
 1 0 0   1 0 0 
   
 −1 3 0  −
− −−−−− −−−→  −1 3 0 
  f1 = f1 + f2  
 1 −1 1   1 −1 1 
   
 0 1 −2   0 1 −2 
0 0 1 0 0 1
 
0 0 0
 1 1 0 
 
−−−→  −1 3 1 
+I3 

.

 1 −1 1 
 0 1 −2 
0 0 1
352 Álgebra

Como T2 ya es triangular, hemos acabado y hemos obtenido que:


 −1    
1 −1 1 1 −1 1 0 0 0
 0 1 −2  · A ·  0 1 −2  =  1 1 0  .
0 0 1 0 0 1 −1 3 1
Bibliografía

[A] Anton, H., Introducción al Álgebra lineal, Ed. Limusa (Noriega


Editores), 1997, Segunda edición.

[Ap] Apostol, T.M., Linear Algebra, A First course with Applications


to Dierential Equations, John Wiley& Sons, 1997.

[B] Bauldry, W.C. et al., Linear Algebra with Maple, John Wiley&
Sons, 1995.

[C] Criado, R. et al, Fundamentos Matemáticos I: Álgebra y ecua-


ciones diferenciales con coecientes constantes, Ed. Centro de
Estudios Ramón Areces S. A., 1998.

[Cu] Cullen, C. G., Linear Algebra with Applications, Addison-


Wesley, 1997.

[D] De la Villa, A., Problemas de Álgebra, Ed. CLAGSA, 1994.

[De] Demmel, J. W., Applied Numerical Linear Algebra, Siam, 1997.

[G] Grossman, S.I., Álgebra lineal, McGraw-Hill, 1996.

[H] Hernandez, E., Álgebra y Geometría, Addison Wesley, 1994.

[J] Jacob, B., Linear Algebra, W. H. Freeman and Company, 1990.

[N] Nobel, B., Daniel, J. W., Algebra lineal aplicada, Prentice-Hall


Hispanoamericana, 1989.

353

Anda mungkin juga menyukai