Anda di halaman 1dari 266

Algebra

Lineal
Por:
Oswaldo Lezama

Ja,y

a
1
..
.
..
.
0

0
a
..
.
..
.
0

..
.
..
.

0
0
..
.

0
0
..
.
. . ..
. .
1 a

ii

Indice general

Indice General
1. Espacios Vectoriales
1.1. Estructuras Algebraicas . . . .
1.2. Espacios Vectoriales y Ejemplos
1.3. Subespacios . . . . . . . . . . .
1.4. Bases . . . . . . . . . . . . . .
1.5. Dimensi
on . . . . . . . . . . . .
1.6. Ejercicios . . . . . . . . . . . .

IV

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

1
. 1
. 3
. 5
. 6
. 8
. 11

2. Transformaciones Lineales
2.1. Definici
on y Ejemplos . . . . . . . . . . . . . . .
2.2. N
ucleo e Imagen . . . . . . . . . . . . . . . . . .
2.3. Operaciones con Transformaciones Lineales . . .
2.4. Tansformaciones Lineales Biyectivas . . . . . . .
2.5. Producto y Suma Directa de Espacios Vectoriales
2.6. Suma Directa Interna de Subespacios . . . . . . .
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

17
17
18
20
22
25
28
30

3. Matrices
3.1. Espacios Vectoriales de Matrices . . .
3.2. Transformaciones Lineales y Matrices
3.3. Rango de una Matriz . . . . . . . . . .
3.4. Cambio de Base . . . . . . . . . . . . .
3.5. Equivalencia y Similaridad . . . . . . .
3.6. Matrices Invertibles . . . . . . . . . .
3.7. Ejercicios . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

33
33
35
37
39
42
45
48

4. Determinantes
4.1. Funciones Multilineales . . . . .
4.2. La Funci
on Determinante . . . .
4.3. Propiedades . . . . . . . . . . . .
4.4. Regla de Cramer . . . . . . . . .
4.5. Sistemas de Ecuaciones Lineales
4.6. Ejercicios . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

51
51
53
54
56
58
63

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

5. Polinomio Caracterstico
67
5.1. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2. Polinomio Caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3. Matrices Diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
iii

INDICE GENERAL

iv

5.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6. Formas Can
onicas
6.1. Polinomio Mnimo . . . . . . . . . . . .
6.2. Forma Can
onica Triangular . . . . . . .
6.3. Diagonalizaci
on en Bloques . . . . . . .
6.4. Teorema de Descomposici
on Irreducible
6.5. El Teorema de Descomposici
on Cclica .
6.6. Forma Can
onica Racional . . . . . . . .
6.7. Forma Can
onica de Jordan . . . . . . .
6.8. Ejercicios . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

81
81
83
87
89
93
98
106
112

7. Espacios Duales
7.1. El Dual de un Espacio Vectorial . . . . . .
7.2. El Subespacio Anulador . . . . . . . . . .
7.3. El Doble Dual . . . . . . . . . . . . . . . .
7.4. Traspuesta de una Transformacion Lineal
7.5. Ejercicios . . . . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

125
125
127
129
130
132

8. Producto Interno
8.1. Espacios Euclidianos . . . . . . . . . . . . .
8.2. Sistemas de Vectores Ortogonales . . . . . .
8.3. Complemento Ortogonal y Proyecciones . .
8.4. Espacios Unitarios . . . . . . . . . . . . . .
8.5. Transformaciones y Matrices Adjuntas . . .
8.6. Transformaciones Hermitianas y Simetricas
8.7. Diagonalizaci
on . . . . . . . . . . . . . . . .
8.8. Transformaciones Unitarias y Ortogonales .
8.9. Transformaciones Normales . . . . . . . . .
8.10. Ejercicios . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

135
135
139
143
144
145
147
150
152
154
157

9. Formas Bilineales
9.1. Formas Bilineales . . . . . . . . .
9.2. Rango . . . . . . . . . . . . . . .
9.3. Formas Bilineales Simetricas . . .
9.4. Formas Bilineales Antisimetricas
9.5. Formas Sesquilineales . . . . . .
9.6. Formas Hermitianas . . . . . . .
9.7. Ejercicios . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

181
181
182
184
187
189
192
194

. . . . . . .
. . . . . . .
Hermticas
. . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

197
197
198
204
208

11.T
opicos Especiales y Aplicaciones
11.1. Formas Cuadr
aticas y Geometra Analtica . . . . . .
11.2. Inversa Generalizada . . . . . . . . . . . . . . . . . . .
11.3. Ecuaciones Diferenciales . . . . . . . . . . . . . . . . .
11.4. Producto Tensorial de Espacios Vectoriales y Matrices
11.5. Matrices y Formas Positivas . . . . . . . . . . . . . . .
11.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

211
211
221
229
239
250
260

10.Formas Cuadr
aticas
10.1. Formas Cuadr
aticas . . . . .
10.2. Suma de Cuadrados . . . . .
10.3. Formas Cuadr
aticas y Formas
10.4. Ejercicios . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

Captulo 1

Espacios Vectoriales
Introducci
on
En las lecciones de este captulo se presenta la nocion de espacio vectorial sobre cuerpos arbitrarios. Se
comienza con las definiciones de las estructuras algebraicas basicas que inducen la definicion de cuerpo
y espacio vectorial. El captulo despues esta dedicado a trabajar los conceptos de base y dimensi
on
que resultan fundamentales en todo el desarrollo del curso.

1.1.

Estructuras Algebraicas

Definici
on 1.1. Sea G un conjunto no vaco. Una operaci
on binaria interna en G es una funci
on
con dominio G G y codominio G:
G G
(a, b) 7

G
ab

Si la operaci
on es asociativa en el sentido que
(a b) c = a (b c)
para cualesquiera elementos a, b, c G, entonces se dice que (G, ) es un semigrupo.
Ejemplo 1.1. El conjunto N = {1, 2, 3, ...} de n
umeros naturales con la operacion usual de adicion es
un semigrupo.
Definici
on 1.2. Si en el semigrupo (G, ) existe un elemento e tal que
ea=a=ae
para cada elemento a G, entonces se dice que (G, ) es un monoide con elemento neutro e.
N
otese que en un monoide el elemento neutro es u
nico.
Ejemplo 1.2. El conjunto Z de n
umeros enteros con la operacion usual de multiplicacion es un
monoide con elemento neutro 1.
Definici
on 1.3. Sea (G, , e) un monoide. Si cada elemento a G tiene un inverso, es decir, existe
un elemento a0 G tal que
a a0 = e = a0 a
1

CAPITULO 1. ESPACIOS VECTORIALES

entonces se dice que (G, , e) es un grupo. N


otese que en un grupo cada elemento tiene un u
nico
inverso. Si el contexto lo permite, un grupo (G, , e) ser
a denotado simplemente por G.
Ejemplo 1.3. El conjunto Z de n
umeros enteros con la operacion usual de adicion conforma un grupo.
Un grupo G se dice conmutativo (=abeliano) si su operacion es conmutativa, es decir,
ab=ba
para cualesquiera elementos a, b G. Observese que el grupo aditivo de n
umeros enteros es conmutativo. Se acostumbra a denotar la operacion de un grupo conmutativo mediante el smbolo +.
Se ha visto que el conjunto Z de n
umeros enteros posee dos operaciones + y tal que respecto
de la primera es un grupo abeliano, mientras que bajo la segunda es un monoide. Conjuntos con tales
condiciones conforman los llamados anillos. Mas exactamente,
Definici
on 1.4. Un anillo es un conjunto A dotado de dos operaciones + y tales que:
(a) A respecto de + es un grupo conmutativo
(b) A respecto de es un monoide
(c) se distribuye sobre +, es decir,
a (b + c) = a b + a c (a + b) c = a c + b c
para cualesquiera elementos a, b, c A. El anillo A es conmutativo si su segunda operaci
on es
conmutativa.
En adelante 0 denotar
a el elemento neutro de la primera operacion en A, a sera el inverso de a
respecto de dicha operaci
on y lo llamaremos el opuesto de a; 1 denotara el elemento neutro de A
respecto de la segunda operaci
on y lo llamaremos el uno de A.
Adem
as, es costumbre omitir el smbolo entre dos elementos, as pues, el producto a b se escribir
a simplemente como ab.
Ejemplo 1.4. El conjunto Z de n
umeros enteros con las operaciones habituales de adicion y multiplicaci
on es un anillo conmutativo.
Ejemplo 1.5. El conjunto R[x] de polinomios reales en la indeterminada x con las operaciones habituales de adici
on y multiplicaci
on de polinomios es un anillo conmutativo.
Ejemplo 1.6. El conjunto M2 [R] de matrices reales 2 2 con las operaciones usuales de adicion y
multiplicaci
on de matrices conforma un anillo.
En un anillo A cada elemento a tiene un opuesto a, sin embargo, no todo elemento tiene un inverso
respecto de la segunda operaci
on. Por ejemplo, en Z el 2 no tiene inverso multiplicativo, es decir, no
existe entero b tal que 2b = 1. En R[x] los u
nicos polinomios invertibles son las constantes no nulas;
en M2 [R] las matrices de determinante no nulo son invertibles.
Si a A es invertible, entonces existe un u
nico a1 A tal que aa1 = 1 = a1 a; la colecci
on
de elementos invertibles de A se denota por A .
Ejemplo 1.7.

(a) Z = {1}.

(b) R[x] = {p(x) | p(x) es una constante no nula}.


(c) M2 [R] = {B | det(B) 6= 0}.

1.2. ESPACIOS VECTORIALES Y EJEMPLOS

Proposici
on 1.1. Si (A, +, , 1) es un anillo, entonces (A , , 1) es un grupo.
Un anillo conmutativo A es uncuerpo si cada elemento no nulo de A tiene inverso multiplicativo. En
otras palabras, A es un cuerpo si A es conmutativo y A = A {0}.
Ejemplo 1.8. El conjunto Q de n
umeros racionales con las operaciones usuales de adicion y multiplicaci
on es un cuerpo. De igual manera, los conjuntos R y C de n
umeros reales y complejos, respectivamente,
con las operaciones usuales de adici
on y multiplicacion son ejemplos de cuerpos.
Esta secci
on se cierra con el concepto de isomorfismo, el cual permite clasificar los diferentes tipos de
estructuras (grupos, anillos, cuerpos, etc...) de acuerdo a que sean igualesdesde el punto de vista
algebraico. La importancia de este concepto se entendera mas adelante; por ahora presentamos la
definici
on.
Definici
on 1.5. Dos grupos (G, ) y (H, ) se dicen isomorfos si existe una funci
on biyectiva
f :G H
tal que
f (a b) = f (a) f (b)
para cualesquiera elementos a, b G. Dos anillos (A, +, , 1) y (B, +, , 1) se dicen isomorfos si existe
una funci
on biyectiva
f :A B
tal que
f (a + b) = f (a) + f (b),
f (ab) = f (a)f (b),
para cualesquiera elementos a, b A. Observese que necesariamente f (1) = 1 y f (a1 ) = f (a)1 para
cada elemento invertible de a de A. Adem
as, la relaci
on ser isomorfo es de equivalencia.

1.2.

Espacios Vectoriales y Ejemplos

Un tipo de estructura m
as compleja que las definidas en la leccion anterior la constituyen los llamados

espacios vectoriales. Los espacios vectoriales son los objetos que estudia el Algebra
Lineal.
Definici
on 1.6. espacio vectorial es una tripla (V, K, ) conformada por:
(1) Un grupo abeliano (V, +, 0), los elementos del cual denominamos vectores.
(2) Un cuerpo (K, +, , 0, 1), los elementos del cual denominamos escalares.
(3) Una operaci
on externa
K V
(a, v)

V
7

a.v

entre escalares y vectores que cumple las siguientes condiciones:


i) a.(v + u) = a.v + a.u
ii) (a + b).v = a.v + b.v
iii) (ab).v = a.(b.v)
iv) 1.v = v

CAPITULO 1. ESPACIOS VECTORIALES


para cualesquiera escalares a, b K y cualesquiera vectores v, u V .

Es costumbre denotar el espacio vectorial (V, K, ) simplemente por V ; tambien se dice que V es un
K-espacio vectorial.
Ejemplo 1.9. El plano cartesiano R2 de puntos de la forma (x, y) con x, y R, es un espacio vectorial
real respecto de las siguientes operaciones:
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
a.(x, y) = (ax, ay)
Ejemplo 1.10. Sea n un n
umero natural 1. El espacio Rn de n-plas ordenadas de n
umeros reales
en la forma (x1 , . . . , xn ) es un espacio vectorial real respecto de las siguientes operaciones:
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
a.(x1 , . . . , xn ) = (ax1 , . . . , axn )
Este ejemplo se generaliza al caso de un cuerpo cualquiera K, obteniendose el K-espacio canonico K n .
Ejemplo 1.11. El conjunto R[x] de polinomios reales en la indeterminada x con las operaciones habituales de adici
on y multiplicaci
on de real por polinomio, es un espacio vectorial real.
Si cambiamos R por un cuerpo cualquiera K obtenemos el K-espacio vectorial K[x] de polinomios
con coeficientes en K.
Ejemplo 1.12. El conjunto M2 [R] de matrices reales 2 2 con las operaciones usuales de adicion y
multiplicaci
on de matriz por escalar, conforma un espacio vectorial sobre los reales.
Ejemplo 1.13. Sea X un conjunto no vaco. El conjunto RX de todas las funciones de X en R es un
espacio vectorial real bajo las siguientes operaciones:

(f + g)(x) = f (x) + g(x)
x X, a R
(a.f )(x) = af (x)
Si X = R entonces se obtiene el espacio de todas las funciones de variable real a valor real. Si X es
un intervalo abierto, por ejemplo (a, b) o R, y C(X) es el conjunto de funciones continuas de X en R,
entonces C(X) es un espacio vectorial real. Si X = N es el conjunto de n
umeros naturales, entonces
resulta el espacio de las sucesiones reales.
Soluci
on: La idea es revisar todas las propiedades (axiomas) que definen un espacio vectorial. En
primer lugar, n
otese que en el ejemplo en cuestion, el cuerpo de escalares son los n
umeros reales,
es decir, no necesitamos demostrar que R sea efectivamente un cuerpo. Esto lo damos por conocido. Mas bien, debemos establecer que el conjunto de vectores RX es un un grupo abeliano y que la
acci
on de los escalares reales por estos vectores satisfacen las propiedades de la definicion de la Lecci
on
2.
La primera observaci
on que debemos hacer es que la suma de dos elementos de RX es nuevamenX
te una funci
on de R : esto es claro a partir de la definicion de suma: f + g actuando en x X es
f (x) + g(x) R, en otras palabras, la operacion de suma en RX es interna.
En segundo lugar, esta operaci
on es asociativa en el sentido que f +(g + h) = (f + g)+h, donde f, g, h
RX : en efecto, esto se debe a que la suma de reales es una operacion asociativa: (f + (g + h)) (x) =
f (x)+(g + h) (x) = f (x)+(g(x) + h(x)) = (f (x) + g(x))+h(x), en esta u
ltima igualdad hemos aplicado la propiedad asociativa de la suma de n
umeros reales. Se concluye entonces que (f + (g + h)) (x) =
((f + g) + h) (x), es decir, f + (g + h) = (f + g) + h.

1.3. SUBESPACIOS

La suma definida tiene elemento neutro, es decir, vector nulo: en efecto, la funcion 0 : X R definida
por 0(x) = 0 para cada x R es tal que 0 + f = f = f + 0 para cada f R.
Cada elemento f R tiene su inverso respecto de esta suma, es decir, su funcion opuesta: esta
funci
on opuesta se denota por f y es definida por (f ) (x) = f (x), para cada x X. Notese que
f + (f ) = 0 = f + f .
La suma definida es claramente conmutativa.
Hemos pues probado que RX es ciertamente un grupo abeliano.
Ahora debemos verificar el cumplimiento de las propiedades relativas al producto de escalar por vector:
la operaci
on a.f est
a bien definida, es decir, es una operacion externa y cumple las siguientes propiedades:
(a. (f + g)) (x) = a. (f + g) (x) = a.f (x) + a.g(x) = (a.f + a.g) (x), es decir, a. (f + g) = a.f + a.g,
donde a es un escalar real.
((a + b) .f ) (x) = (a + b) .f (x) = a.f (x) + b.f (x) = (a.f + b.f ) (x), es decir, (a + b) .f = a.f + b.f .
((ab) .f ) (x) = (ab) .f (x) = a(b.f (x)) = (a(b.f )) (x), es decir, (ab) .f = a(b.f ).
Finalmente, (1.f ) (x) = 1f (x) = f (x), es decir, 1.f = f .
Esto completa la demostraci
on de todas las propiedades requeridas para tener una estructura de
espacio vectorial real.

1.3.

Subespacios

Dado un espacio vectorial V sobre un cuerpo K y un subconjunto no vaco S de V , resulta interesante


preguntarse si S bajo la misma adici
on de vectores y la misma accion de escalares sobre vectores,
conforma un espacio vectorial sobre K. En caso afirmativo, se dice que S es un subespacio del espacio
V . Esta relaci
on se denota por S V . Seg
un esta definicion, si se desea establecer que S V se debera
verificar el cumplimiento de los cuatro axiomas para la adicion de vectores y los cuatro axiomas para
la acci
on de escalares sobre vectores. Sin embargo, solo es necesario verificar el cumplimiento de dos
condiciones, como lo muestra la siguiente proposicion.
Proposici
on 1.2. Sea V un espacio vectorial sobre el cuerpo K y sea S un subconjunto no vaco de
V . Entones, S V si y s
olo si se cumplen las siguientes condiciones:
(1) Si u, v S, entonces u + v S.
(2) Si v S y a K, entones a.v S.
Ejemplo 1.14. En el plano cartesiano R2 el subconjunto S = {(x, y)|y = mx}, donde m R es una
constante, representa una recta que pasa por el origen y conforma un subespacio de R2 .
Ejemplo 1.15. En el espacio R[x] de polinomios reales, el subconjunto Rn [x] de polinomios de grado
n conforma un subespacio.
Ejemplo 1.16. En el espacio RR de funciones de R en R, la coleccion C(R) de funciones continuas de
R en R conforma un subespacio. En C(a, b) se tienen dos subespacios notables: C n (a, b) conformado
por todas las funciones de (a, b) en R cuyas primeras n derivadas son continuas, y C (a, b) constituido por las funciones de (a, b) en R para las cuales las derivadas de cualquier orden son continuas.

CAPITULO 1. ESPACIOS VECTORIALES

Similarmente, se tienen los subespacios C n (R) y C (R) de C(R).


Tambien, en el espacio RN de sucesiones reales la coleccion de sucesiones convergentes es un subespacio.
Una sucesi
on {an } se dice que es polin
omica si existe un entero positivo m tal que an = 0 para cada
n m. Es claro que el conjunto de sucesiones polinomicas es un subespacio del espacio de sucesiones
convergentes.
Ejemplo 1.17. En cada espacio V se tienen dos subespacios triviales: 0 = {0} y V .
Ejemplo 1.18. La intersecci
on de dos subespacios es un subespacio. En realidad, la interseccion de
cualquier familia no vaca de subespacios de un espacio vectorial es un subespacio.
Sea V un espacio vectorial y S un subconjunto no vaco de V ; notese que el subespacio mas peque
no de
V que contiene a S es la intersecci
on de todos los subespacios de V que contienen a S. Este subespacio
se denota por hSi y se conoce como el subespacio generado por S.
A continuaci
on se ver
a que hSi puede describirse en terminos de combinaciones lineales de elementos
de S. Sean v1 , v2 , . . . , vn elementos del espacio V , una combinaci
on lineal de estos elementos es un
vector v V de la forma v = a1 .v1 + + an .vn , donde a1 , . . . , an son escalares del cuerpo K. Se
puede entonces afirmar lo siguiente.
Proposici
on 1.3. Sea V un espacio vectorial sobre el cuerpo K y sea S un subconjunto no vaco de
V . Entonces, hSi coincide con el conjunto de todas las posibles combinaciones lineales realizadas con
elementos de S. M
as exactamente,
( n
)
X
hSi =
ai .vi |ai K, vi S, n 1 .
i=1

Esta presentaci
on permite identificar a hSi como la envolvente lineal de S. Si S = {v1 , . . . , vn } es
finito, entonces
( n
)
X
hSi =
ai .vi | ai K .
i=1

1.4.

Bases

En cada espacio vectorial existen ciertos subconjuntos conocidos como bases; la importancia de estos
subconjuntos radica en que cada elemento del espacio puede ser representado de manera u
nica a traves
de sus elementos. El prop
osito de la presente leccion es explicar en detalle la nocion de base, la cual
es fundamental en
algebra lineal.
Definici
on 1.7. Sea V un espacio vectorial sobre un cuerpo K y S un subconjunto no vaco de V ,
se dice que S es un sistema de generadores para V si la envolvente lineal de S coincide con V , es
decir, hSi = V . El espacio V se dice finitamente generado si existe en V un subconjunto finito S
de generadores.
Por otra parte, sea X = {x1 , . . . , xn } un subconjunto finito de V , se dice que X es un conjunto de vectores linealmente independientes (L.I.) si la u
nica combinaci
on lineal nula con los elementos de
X es a traves de escalares nulos. M
as exactamente, los vectores de X son linealmente independientes
si para cualesquiera escalares a1 , . . . , an K se cumple que
Pn

i=1

ai . xi = 0

ai = 0,

1 i n.

1.4. BASES

Por definici
on, se asume que el conjunto vaco es LI. Un subconjunto cualquiera X de V es LI si cada
subconjunto finito de X es LI. X es linealmente dependiente (LD) si no es LI.
La siguiente proposici
on reune algunas propiedades basicas sobre dependencia e independencia lineal.
Proposici
on 1.4. Sea V un K-espacio y =
6 S V . Entonces
(a) S es LD si y solo si existe x S tal que x hS 0 i, donde S 0 = S {x}.
(b) Si 0 S entonces S es LD.
(c) Si S es LI entonces cada subconjunto de S es LI.
(d) Si S es finito y LI con n 0 elementos, entonces cada conjunto de n + 1 elementos de hSi es
LD.
Demostraci
on: Las afirmaciones (a)-(c) son evidentes. La prueba de la parte (d) se hace por inducci
on
sobre n. Los casos n = 0, 1 son evidentes. Supongase que la afirmacion ha sido demostrada para n
vectores pertenecientes a la envolvente lineal de n 1 vectores LI. Sea S = {v1 , . . . , vn } un conjunto
LI de vectores, y sean u1 , . . . , un+1 vectores de hSi. Supongase que estos vectores son LI, y al expresar
cada uno de ellos como combinaci
on lineal de los n vectores de S se tiene que:
u1
u2
..
.
un+1

=
=
..
.

a11 v1 + + a1n vn
a21 v1 + + a2n vn
..
.

= an+11 v1 + + an+1n vn

Puesto que los vectores u1 , . . . , un+1 son LI, entoces cada uno de ellos es no nulo, en particular u1 es no
nulo, esto hace que sin perder generalidad podamos suponer que a1n es no nulo. Notese que entonces
el siguiente sistema de vectores es LI:
x1
xj

= u1
= uj ajn a1
1n u1 , j 2

Seg
un la parte (c) los vectores x2 , . . . , xn+1 son LI, pero al reemplazar u1 , uj en la expresion que define
a xj se encuentra que estos vectores pertenecen a la envolvente lineal de v1 , . . . , vn1 y por inducci
on
resultaran LD. 
Ejericicio 1.1. Demuestre que en el espacio RR el conjunto X = {enx | n N} es LI.
Soluci
on: Se debe tomar un subconjunto finito arbitrario de X y demostrar que es LI. Sea Y un
subconjunto finito de X. Si Y es vaco, entonces por definicion Y es LI. Sea Y no vaco, Y =
{en1 x , en2 x , . . . , enk x }, y sean a1 , a2 , . . . , ak reales tales que a1 en1 x + a2 en2 x + + ak enk x = 0. Escogemos el mayor de los exponentes naturales, sin perdida de generalidad podemos suponer que dicho exponente es n1 ; multiplicamos a ambos lados de la ecuacion anterior por en1 x , y obtenemos
a1 + a2 e(n2 n1 )x + + ak e(nk n1 )x = 0. En esta funcion al hacer x encontramos que a1 = 0.
Podemos ahora repetir el mismo razonamiento con los otros coeficientes y encontrar que todos resultan
nulos. Esto demuestra la independencia lineal del conjunto Y . 
Ejericicio 1.2. Demuestre que dos vectores de R2 son LD si y solo si pertenecen a la misma recta
que pasa por el origen.
Ya se puede presentar la noci
on de base.
Definici
on 1.8. X V es una base para V si se cumplen dos condiciones:

CAPITULO 1. ESPACIOS VECTORIALES

8
(a) hXi = V
(b) X es LI.
Ejemplo 1.19. En Rn los vectores
ei = (0, . . . , 1, . . . , 0),

1in

constituyen la llamada base can


onica (1 se encuentra en la i-esima entrada de la n-pla). Cambiando
R por cualquier cuerpo K se obtiene la base canonica de K n .
Ejemplo 1.20. En el espacio R [x] el conjunto de polinomios {1, x, x2 , x3 , . . .} constituye su base
can
onica. En el subespacio Rn [x] de polinomios de grado n la base canonica es {1, x, x2 , x3 , . . . , xn }.
Ejemplo 1.21. En el espacio M2 [R] de matrices reales 2 2 se tiene la siguiente base canonica:

 
 
 

1 0
0 1
0 0
0 0
,
,
,
0 0
0 0
1 0
0 1
Ejemplo 1.22. En el espacio RN de sucesiones reales la coleccion de sucesiones
ei = (0, . . . , 1, . . . , 0, . . .),

i1

conforman la base can


onica para el subespacio de sucesiones polinomicas.
Ejemplo 1.23. El conjunto es, por definicion, la u
nica base del espacio nulo 0 = {0}.
Una de las principales caracterizaciones del concepto de base se establece en la siguiente proposici
on.
Proposici
on 1.5. Sea V un K-espacio y X un subconjunto no vaco de V . X es una base de V si y
s
olo si cada elemento v V tiene una representaci
on u
nica (salvo sumandos nulos) como combinaci
on
lineal de elementos de X en la forma:
v = a1 . x1 + + an . xn ,

1.5.

ai K, xi X,

1 i n.

Dimensi
on

En esta lecci
on se discutir
an los siguientes aspectos relativos a las bases: existencia, unicidad y cardinalidad (= cantidad de elementos). El punto de partida sera el teorema sobre existencia de bases
en cualquier espacio vectorial. La prueba de este teorema se apoya en el Lema de Zorn (= axioma de
elecci
on), el cual representa uno de los supuestos basicos de la teora clasica de conjuntos. El lector no
interesado en la prueba puede simplemente asumir el Teorema 1 como un axioma.
Teorema 1.1. Todo espacio vectorial posee al menos una base.
Demostraci
on: La prueba de este teorema se apoya en uno de los supuestos de la teora clasica de
conjuntos: el lema de Zorn. Para los lectores no familiarizados con este axioma se explicaran brevemente
algunos de los terminos de su enunciado. Un conjunto no vaco M es parcialmente ordenado si en M
est
a definida una relaci
on de orden . Un subconjunto no vaco N de M es totalmente ordenado si
cualesquiera dos elementos a, b de N son comparables, es decir, se tiene al menos una de las siguientes
posibilidades: a b, b a. Un elemento x M es una cota superior para el subconjunto N de M si
a x para cada elemento a N . Finalmente, se dice que el elemento x M es maximal si no existe
z en M tal que z 6= x y x z.
Lema 1.1 (de Zorn). Sea (M, ) un conjunto parcialmente ordenado tal que cada subconjunto totalmente ordenado de M tiene cota superior en M . Entonces, M posee al menos un elemento maximal.


1.5. DIMENSION

Ya se puede iniciar la prueba del teorema. Sea V un K-espacio vectorial y sea M la coleccion de
subconjuntos de V que son LI. M 6= ya que M . La relacion de inclusion entre conjuntos define
un orden parcial en M . Sea N un subconjunto de M totalmente ordenado. Sea
[
X=
L
LN

Claramente, X es una cota superior para N ; notese que X M , es decir, X es LI. Sea Z = {x1 , . . . , xn }
un subconjunto finito de X; existen L1 , . . . , Ln N tales que x1 L1 , . . . , xn Ln . Como N es totalmente ordenado se puede suponer que Li L1 para cada 1 i n; por tanto, x1 , . . . , xn L1 , es
decir, Z L1 ; como L1 es LI entonces Z es LI. Esto completa la prueba de que X es LI.
Por el lema de Zorn, M tiene elemento maximal X0 , el cual, por construccion, es LI; notese que
hX0 i = V : obviamente hX0 i V ; sea v V , si v X0 , entonces v hX0 i; supongase que v
/ X0 . Si
v = 0 entonces v hX0 i; sea v 6= 0. Por la maximalidad de X0 , X0 {v} es LD, entonces existen elementos x1 , . . . , xn X0 y escalares no todos nulos a, a1 , . . . , an K tales que a v+a1 x1 + +an xn = 0.
Debido a la independencia lineal de los elementos x1 , . . . , xn se debe tener que a 6= 0, de donde, despejando v, se tiene que v hX0 i. En total, V hX0 i y se ha probado que hX0 i = V . 
Con respecto a la unicidad de las bases se puede decir que, en general, un espacio vectorial tiene infinitas bases. En efecto, si el espacio V es no nulo (si V es nulo su u
nica base es ) y si X es una base
cualquiera de V y x es un elemento de X, entonces cambiando x por a.x en X, con cada a K {0},
se obtienen bases distintas en V . Cuando K es infinito esta coleccion de bases es infinita. En realidad,
el u
nico espacio con base u
nica es el espacio nulo.
Mucho m
as interesante que la pregunta sobre la unicidad de las bases es el problema sobre el tama
no de estas. Las siguientes proposiciones constituyen la prueba del Teorema 2 que se enunciara m
as
adelante.
Proposici
on 1.6. Si un espacio vectorial V posee una base finita, entonces todas sus bases son finitas.
La proposici
on anterior permite clasificar los espacios vectoriales en dos categoras: los de bases finitas
y los de bases infinitas.
Proposici
on 1.7. Sea V un espacio vectorial con bases finitas X = {x1 , . . . , xn } y Z = {z1 , . . . , zm }.
Entonces n = m.
Demostraci
on: Sup
ongase que m > n; seg
un la Proposicion 4, z1 , . . . , zn , zn+1 son LD, lo cual es falso
ya que Z es una base. Por tanto, m n. Simetricamente, n m. 
Proposici
on 1.8. Sea V un espacio vectorial con bases infinitas X, Y . Entonces card (X) = card (Y ).
Demostraci
on: La idea es probar que card(X) card(Y ) y utilizar la simetra del problema para
concluir que card(X) = card(Y ).
Cada elemento s Y es representable mediante una combinacion lineal finita de elementos de X.
Adem
as, dado x X existe s Y tal que x se encuentra en la representacion de s. En efecto, sea
x = a1 s1 + + am sm

(1.1)

la representaci
on de x en terminos de elementos de Y . Cada elemento si , 1 i m, es representable
como combinaci
on lineal de elementos de X; si se supone que x no aparece en la representacion de
ning
un elemento de Y , entonces x no aparece en la representacion de ninguno de los elementos si . Sea

CAPITULO 1. ESPACIOS VECTORIALES

10

Xi el conjunto (finito!) de elementos de X que intervienen en la representacion de si y sea X0 =

m
S

Xi .

i=1

Obviamente X0 es finito y x
/ X0 . De (1.1) se obtiene que U = X0 {x} es LD, pero esto contradice el hecho de que X es una base.
As pues, dado x X existe al menos un s Y tal que x esta en la representacion de s. Usando
el axioma de elecci
on se define la funci
on
X
x

Y
(x) = s

donde s es un elemento de Y tal que x esta en la representacion de s. Sea s (X), entonces 1 (s)
es un conjunto (finito!) y consta de elementos de X que intervienen en la representacion de s. Se
establece, de esta manera, una funci
on entre (X) y el conjunto P F (X) de partes finitas de X:

(X)

s 7

P F (X)
1 (s)

es inyectiva ya que es una funci


on; por tanto card((X)) = card(Im()).
Enseguida se probar
a que Im() es una particion de X. Si s1 6= s2 son dos elementos de (X)
entonces 1 (s1 ) 1 (s2 ) = debido a que es una funcion. Claramente
[

Im() =

s(X)

1 (s) X

Sea x X, entonces (x) = s (X) con lo cual x 1 (s)

Im(), es decir, X

Im().

Puesto que X es infinito Im() tambien es infinito. As, se tiene que Im() es una particion infinita de partes finitas de X, con lo cual card(X) = card(Im()) = card((X)) card(Y ). Esto
completa la prueba de la proposici
on.
Teorema 1.2. Para cada espacio vectorial V se cumple que todas las bases tienen la misma cardinalidad.
El teorema anterior permite definir la nocion de dimension en un espacio vectorial V como el tama
no
de cualquiera de sus bases; se denotar
a este invariante de V por dimK (V ), o simplemente por dim(V ),
si es claro sobre que cuerpo se est
a trabajando. Si V es de bases infinitas se dira que V es de dimensi
on
infinita. Si X es un subconjunto de V , se define el rango de X, rankK (X), como la dimension de la
envolvente lineal de X, es decir, rankK (X) = dimK hXi.
Ejemplo 1.24. dim(Rn ) = n
R [x] es de dimensi
on infinita
dim(Rn [x]) = n + 1
dim(M2 [R]) = 4
dim(0) = 0
Ejericicio 1.3. Demuestre que si un espacio vectorial V posee un subconjunto infinito LI, entonces
V es de dimensi
on infinita.
A continuaci
on se presentar
an algunas propiedades interesantes de los espacios de dimension finita.
Proposici
on 1.9. Sea V un K-espacio vectorial de dimensi
on n 1. Entonces,
(a) Cada conjunto de n elementos LI de V conforman una base.

1.6. EJERCICIOS

11

(b) Cada conjunto de n generadores de V conforman una base de V .


(c) Sea m < n y sean x1 , . . . , xm vectores LI de V . Entonces es posible encontrar vectores xm+1 , . . . , xn
en V tales que {x1 , . . . , xm , xm+1 , . . . , xn } es una base de V .
(d) Sea S un subespacio de V . Entonces, cada base de S puede extenderse hasta una base de V . En
particular, dim(S) dim(V ).
(e) Sean x1 , . . . , xm elementos cualesquiera de V y S su envolvente lineal. Entonces, dim(S) coincide
con el m
aximo n
umero de vectores LI encontrados en la colecci
on x1 , . . . , xm de vectores dados.
Demostraci
on: (a) Sean x1 , . . . , xn vectores LI y sea v un elemento de V . Si x {x1 , . . . , xn }, entonces
x hx1 , . . . , xn i. Si x
/ {x1 , . . . , xn }, entonces se tienen n + 1 elementos en V que resultan LD (ver
la Proposici
on 4 parte (d) con S una base cualquiera de V ). Sean a, a1 , . . . , an escalares no todos
nulos tales que ax + a1 x1 + + an xn = 0. Entonces a es no nulo debido a la independencia lineal
de los vectores x1 , . . . , xn . Despejando x se tiene que x hx1 , . . . , xn i. Con esto se ha probado que
V = hx1 , . . . , xn i.
(b) Sean x1 , . . . , xn vectores de V tales que V = hx1 , . . . , xn i. Supongase que estos vectores son
LD, como se vi
o en la parte (a), uno de ellos se puede expresar como combinacion lineal de los otros,
x1 hx2 , . . . , xn i, con lo cual V = hx2 , . . . , xn i. Esto hace que cualquier base de V resulte LD (vease
la Proposici
on 4 parte (d)).
(c) Seg
un el Teorema 2, los m vectores no pueden ser una base para V . Por tanto,hx1 , . . . , xm i V .
Sea xm+1
/ hx1 , . . . , xm i. El sistema {x1 , . . . , xm+1 } es LI. Si m + 1 = n, entonces de acuerdo a la
parte (a), este conjunto es una base de V . Si m + 1 < n entonces hx1 , . . . , xm+1 i V y se puede
repetir el razonamiento hasta completar la base.
(d) Si S = 0 entonces dim(S) = 0 n. Sea S 6= 0 y x1 , . . . , xk una base de S. Si k > n entonces, seg
un la Proposici
on 4, estos vectores son LD, lo cual es falso. Por tanto, k n.
(e) Si todos los vectores dados son nulos, entonces la afirmacion se cumple trivialmente. Supongase entonces que al menos uno de los vectores es no nulo. Sea L la coleccion de subconjuntos LI de
{x1 , . . . , xm }. L 6= ya que un vector unitario no nulo constituye un conjunto LI. Se puede escoger en
L un conjunto de mayor cardinalidad, por ejemplo, {x1 , . . . , xr }; de esta forma cualquier subconjunto
de r+1 elementos es LD. Sea x S = hx1 , . . . , xm i. Existen escalares a1 , . . . , ar , ar+1 , , am tales que
x = a1 x1 + + ar xr + ar+1 xr+1 + + am xm . Para cada 1 i m r el conjunto {x1 , xr , xr+i } es
entonces LD. Existen escalares no todos nulos b1 , , br , br+1 tales que b1 x1 + +br xr +br+1 xr+1 = 0.
No es posible que br+1 = 0 ya que los vectores x1 , . . . , xr son LI. De esta forma, xr+i hx1 , . . . , xr i,
para cada 1 i m r. Esto implica que S = hx1 , . . . , xr i y {x1 , . . . , xr } es una base de S.


1.6.

Ejercicios

umeros reales positivos se definen las siguientes operaciones:


1. En el conjunto R+ de n
x y = xy (el producto corresponde a la multiplicacion corriente de n
umeros reales positivos)
a.x = xa (a es un n
umero real arbitrario y x R+ )
Investigar si R+ es un espacio vectorial sobre el cuerpo de n
umeros reales.
2. Sea F el conjunto de todas las sucesiones de n
umeros reales (a1 , a2 , a3 , . . .) que satisfacen la
condici
on

CAPITULO 1. ESPACIOS VECTORIALES

12

ak = ak1 + ak2 , para k = 3, 4, 5, . . .


Investigar si F es un subespacio vectorial del espacio vectorial RN de todas las sucesiones reales
(vease la Lecci
on 2 del presente captulo).
3. Sean a, b, c n
umeros reales diferentes fijos. Investigar si los siguientes polinomios son linealmente
independientes:
(x a) (x b) , (x a) (x c) , (x b) (x c) .
4. Sea Rn [x] el espacio de polinomios reales de grado n. Demostrar que cualquier subconjunto X
de Rn [x] que contenga por cada k = 0, 1, 2, 3, . . . , n un u
nico polinomio de grado k, constituye
una base de Rn [x].
5. Sea Rn [x] el espacio de polinomios reales de grado n y sea W el subconjunto de polinomios
p(x) que satisfacen la condici
on p(0) = 0 = p(1). Demostrar que W es un subespacio de Rn [x]
de dimensi
on n 1. Mostrar al menos una base de W.
6. Sea X un sistema no vaco finito de vectores de un espacio vectorial V . Demostrar que la dependencia o independencia lineal de X no se altera si sobre los elementos de X se aplican los
siguientes cambios: intercambiar el orden de dos vectores, multiplicar un vector de X por un
escalar no nulo, agregar a un vector de X otro vector de X que ha sido multiplicado por un escalar. (Estos cambios se conocen con el nombre de operaciones elementales sobre el conjunto
X. Para la demostraci
on considerese cada operacion por separado).
7. Dos conjuntos de vectores X, Y de un espacio vectorial V se dicen equivalentes si sus envolventes
lineales coinciden (vease la Lecci
on 3 del presente captulo). Estudiar la veracidad de la siguiente
afirmaci
on: X es equivalente a Y si y solo si rank(X) = rank(Y ).
8. Utilizando las ideas de los dos problemas anteriores, calcular el rango de los siguientes sistemas
de vectores:
a) {(1, 2, 3) , (4, 5, 6) , (7, 8, 9) , (10, 11, 12)}


b) {(1, 10, 0, 0) , (0, 1, 10, 0) , (0, 0, 1, 10) , 103 , 0, 0, 1 }.

9. Recordando que los polinomios son vectores, calcular el rango de los siguientes sistemas de
polinomios:


a) 3x2 + 2x + 1, 4x2 + 3x + 2, 3x2 + 2x + 3, x2 + x + 1, 4x2 + 3x + 4

 3
x + 2x2 + 3x + 4, 2x3 + 3x2 + 4x + 5,
.
b)
3x3 + 4x2 + 5x + 6, 4x3 + 5x2 + 6x + 7
10. Completar el siguiente sistema de polinomios hasta una base de R5 [x] : x5 + x4 , x5 3x3 , x5 +
2x2 , x5 x.
11. Demostrar que la conmutatividad de la suma de vectores se desprende de las restantes propiedades
que definen un espacio vectorial.
12. Sean x, y, z vectores linealmente independientes en un espacio vectorial. Cuales de los siguientes
sistemas de vectores son tambien linealmente independientes ?
a) x, x + y, x + y + z
b) x + y, y + z, z + x
c) x y, y z, z x

1.6. EJERCICIOS

13

13. Sea R el conjunto de n


umeros
reales considerado como espacio vectorial
sobre los n
umeros racio

nales. Pertenece el real 4 3 a la envolvente lineal de los reales 1 y 3 ?


14. Sea U el subespacio de R3 [x] generado por los polinomios E = {x3 , x3 x2 , x3 + x2 , x3 1}.
Encontrar un subconjunto F de E linealmente independiente tal que < F >= U .
15. Encontrar una base para el subespacio
U de R4 [x] generado por los polinomios f (x) que satisfacen

la condici
on f (x) = x4 f x1 .
16. En el espacio C[0, 1] de funciones reales continuas determinar si los siguientes vectores son LI:

f (x) = 1 x,

g (x) = x (1 x) ,

h (x) = 1 x2 .

17. Sea K un cuerpo finito con q elementos. Cuantas bases ordenadas distintas tiene K n , n 1.


Algebra
Lineal
Captulo 1. Espacios Vectoriales
Ejercicios.
2. Sea F el conjunto de todas las sucesiones de n
umeros reales (a1 , a2 , a3 , . . .) que satisfacen la condici
on
ak = ak1 + ak2 , para k = 3, 4, 5, . . .
Investigar si F es un subespacio vectorial del espacio vectorial RN de todas las sucesiones reales (vease
la Lecci
on 2 del presente captulo).
Soluci
on: Para ver que F es un subespacio de RN basta con verificar que la suma y la multiplicaci
on por escalar son cerradas. En efecto, sean {an } y {bn } sucesiones de F y a R, entonces se
tiene que ak = ak1 + ak2 y bk = bk1 + bk2 , luego ak + bk = (ak1 + bk1 ) + (ak2 + bk2 ) y
por lo tanto {ak + bk } F. De igual manera a.ak = aak1 +aak2 y {a.ak } F. As, F es un subespacio.
3. Sean a, b, c n
umeros reales diferentes fijos. Investigar si los polinomios (x a)(x b), (x a)(x c),
(x b)(x c) son linealmente independientes.
Soluci
on: Consideremos la combinaci
on lineal 1 (xa)(xb)+2 (xa)(xc)+3 (xb)(xc) = 0.
Esta relaci
on dice que el polinomio de la izquierda es nulo, luego en cada valor de x este polinomio es
cero. Entonces, tomando x = c y teniendo en cuenta que los valores a, b, c son diferentes, se tiene que
1 = 0. De igaul forma se prueba que 2 = 0 = 3 .
14. Sea U el subespacio de R3 [x] generado por los polinomios E = {x3 , x3 x2 , x3 + x2 , x3 1}.
Encontrar un subconjunto F de E linealmente independiente tal que hF i = U .


Soluci
on: N
otese que x3 + x2 = 2x3 x3 x2 , luego el elemento x3 + x2 sobra como generador en hEi = U . Los tres elementos x3 , x3 x2 y x3 1 son linealmente
independientes: en efecto, sean

a, b, c escalares reales tales que ax3 + b x3 x2 + c x3 1 = 0, entonces a + b + a = 0, b = 0 y
c = 0, o sea que todos los escalares son nulos.
15. Encontrar una base para el subespacio
U de R4 [x] generado por los polinomios f (x) que sa
tisfacen la condici
on f (x) = x4 f x1 .


Soluci
on: Sea f (x) = a + bx + cx2 + dx3 + ex4 tal que x4 a + b x1 + c x12 + d x13 + e x14 = a + bx +
cx2 + dx3 + ex4 . Entonces, ax4 + bx3 + cx2 + dx + e = a + bx + cx2 + dx3 + ex4 , es decir, a = e, b = d,
2
3
4
es decir, los polinomios
 que2 cumplen la condicion son de la2 forma 3a + bx 4+ cx + bx + ax =
4
3
a 1 + x + b x + x + cx . Esto dice que los polinomios x , x + x , 1 + x generan U . Adem
as,
estos polinomios son LI, luego forman una base de U .
16. En el espacio C[0, 1] de funciones reales continuas determinar si los siguientes vectores son LI:
f (x) = 1 x,

g (x) = x (1 x) ,

h (x) = 1 x2 .


Soluci
on: Sean a, b, c R tales que a (1 x) + b (x (1 x)) + c 1 x2 = 0. Esta funcion nula se debe
entonces anular en cualquier punto del intervalo [0, 1], por tanto, haciendo x = 0 resulta a + c = 0.
Tomando ahora x = 21 encontramos que 12 a + 41 b + 34 c = 0. Y finalmente, tomando x = 13 se tiene que
2
2
8
3 a + 9 b + 9 c = 0. Se tiene entonces el siguiente sistema:

1.6. EJERCICIOS

15

1
2a
2
3a

a+c=0
+ 14 b + 43 c = 0
+ 29 b + 98 c = 0

cuya soluci
on es [a = c, b = c]. Esto nos muestra que las funciones dadas son LD, por ejemplo,
tomando c = 1.
17. Sea K un cuerpo finito con q elementos. Cuantas bases ordenadas distintas tiene K n , n 1.
Soluci
on: Cualquier base de K n consta de n elementos LI. Por tanto, el problema se reduce a construir todos los posibles conjuntos distintos de n elementos LI en el espacio K n . Sea v1 = (a1 , ..., an )
el primer vector de la lista, entonces v1 puede ser cualquier vector no nulo, es decir, el n
umero de
posibilidades para v1 es q n 1. El segundo vector de la lista no puede ser m
ultiplo de v1 , es decir, v2
no puede ser de la forma v2 = a.v1 , donde a K. Por tanto, el n
umero de posibilidades para v2 es
q n q. As pues, el n
umero posible de dos vectores LI en K n es (q n 1) (q n q). Para el tercer vector
se debe tener que no puede ser combinacion lineal de los dos anteriores, es decir, v3 no puede ser de
la forma v3 = a.v1 + b.v2 . Por tanto, el n
umero de posiblidades para v3 es q n q 2 . Continuando el
n1

Q n
razonamiento de esta manera se encuentra que el n
umero total de n vectores LI es
q qi .
i=0

16

CAPITULO 1. ESPACIOS VECTORIALES

Captulo 2

Transformaciones Lineales
Introducci
on
El segundo captulo tiene un doble proposito. Por un lado introduce las funciones que conectan los
espacios vectoriales: las transformaciones lineales, y por otro, presenta la suma directa interna de
subespacios. La representaci
on de un espacio vectorial en suma directa de subespacios es clave para el
tratamiento de las formas can
onicas del captulo 6 y los aspectos geometricos de los espacios euclidianos
del captulo 8.

2.1.

Definici
on y Ejemplos

Definici
on 2.1. Sean V y W dos espacios vectoriales sobre un mismo cuerpo K; una transformaci
on
lineal de V en W es una funci
on
T : V W
que satisface dos condiciones:
(a) T (u + v) = T (u) + T (v)
(b) T (a.v) = a.T (v)
para cualesquiera vectores u, v V y cualquier escalar a K. Se dice tambien que T es un operador
lineal de V en W , o que T es una funci
on K-lineal de V en W .
Ejemplo 2.1. La funci
on T : R3 R2 definida por
T (x, y, z) = (2x, 2y)
es una transformaci
on lineal. En efecto,
Si u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ), entonces
T (u + v) = T (x1 + x2 , y1 + y2 , z1 + z2 ) = (2(x1 + x2 ), 2(y1 + y2 )) =
(2x1 , 2y1 ) + (2x2 , 2y2 ) = T (u) + T (v).
T (a.u) = T (ax1 , ay1 , az1 ) = (2ax1 , 2ay1 ) = a.(2x1 , 2y1 ) = a.T (u).
Ejemplo 2.2. La derivaci
on D puede entenderse como un operador lineal del espacio V de funciones
df
derivables en R en el espacio C(R): D(f ) = dx
17

CAPITULO 2. TRANSFORMACIONES LINEALES

18

Ejemplo 2.3. La integraci


on puede considerarse como un operador lineal S del espacio C(R) en
C 1 (R):
S(f ) =

f (x)dx + C con C = 0

Ejemplo 2.4. Dados dos espacios vectoriales V y W , la funcion nula


O : V
x 7

W
O(x) = 0

es una transformaci
on lineal, denominada la transformaci
on nula. De igual manera, la funci
on
identica
IV : V
x 7

V
IV (x) = x

es tambien una transformaci


on lineal, y se le conoce como la id
entica de V .
Ejemplo 2.5. Sea a R un real fijo y R[x] el espacio de polinomios reales, entonces la funcion
T : R[x]
p(x) 7

R
p(a)

es una transformaci
on lineal.

2.2.

N
ucleo e Imagen

Definici
on 2.2. Sea T : V W una transformaci
on lineal de V en W ; se define el n
ucleo de T
como
N (T ) = {v V |T (v) = 0}.
N
otese que N (T ) es un subespacio de V . Por otro lado, se define la imagen de T como
Im(T ) = {w W |w = T (v) para alg
un v V };
Im(T ) es un subespacio de W . Si A es un subespacio de V y B es un subespacio de W , entonces los
conjuntos
T (A) = {T (a)|a A}
T 1 (B) = {v V |T (v) B}
son subespacios de W y V respectivamente. Observese que N (T ) = T 1 (0), e Im(T ) = T (V ). La
dimensi
on del espacio imagen Im(T ) se conoce como el rango de la transformaci
on T , y se denota
por rank(T ).
Ejemplo 2.6. Considerese la funci
on T definida por
Rn [x]
p(x) = a0 + a1 x + + an xn 7

R2n [x]
a0 + a1 x2 + + an x2n

T es una transformaci
on lineal con n
ucleo 0 y rank (T ) = n + 1.


2.2. NUCLEO
E IMAGEN

19

Ejemplo 2.7. En el espacio V de las sucesiones reales convergentes la funcion T definida por
T ({xn }) = {a xn }, donde a = lm {xn }
n

es una transformaci
on lineal cuyo n
ucleo es el espacio de las sucesiones constantes y cuya imagen es el
espacio de las sucesiones de lmite 0.
Adem
as, la sucesi
on constante 1 es una base de N (T ) y, por otro lado, las sucesiones
s1 = {1, 0, 0, . . .}
s2 = {0, 1, 0, . . .}
s3 = {0, 0, 1, . . .}
..
.
son linealmente independientes, con lo cual Im(T ) y V son espacios de dimension infinita.
Soluci
on: Sea V el espacio de sucesiones reales convergentes y T : V V , T ({an }) = {a an }.Notese
que efectivamente T es una transformacion lineal:
T ({an } + {bn }) = T ({an + bn }) = {a + b (an + bn )} = {a an } + {b bn } = T ({an }) + T ({bn });
T (c.{an }) = T ({can }) = {ca can } = c.{a an } = c.T ({an }).
Vamos ahora a demostrar que su n
ucleo son las sucesiones contantes: sea {an } una sucesion convergente de lmite a de tal forma que T ({an }) = {0} = {a an }, es decir, para cada n se tiene que
a an = 0, es decir, an = a, es decir, la sucesion dada es constante.
Finalmente, veamos que la imagen de T es el subespacio de las sucesiones de lmite cero: sea {bn }
una sucesi
on que pertenece a la imagen de T , entonces {bn } = T ({an }) = {a an },por tanto,
bn = a an ,luego lmn bn = lmn (a an ) = a a = 0. Esto prueba que la sucesion dada
es de lmite cero.
A continuaci
on se presenta y se pueba uno de los teoremas basicos del algebra lineal.
Teorema 2.1. Sea V un espacio de dimensi
on finita n 1 y sea T : V W una tranformaci
on
lineal. Entonces
dim(V ) = dim(N (T )) + dim(Im(T ))
Demostraci
on: Sea X una base de N (T ) y Y un conjunto de vectores de V tal que Y X = y
X Y es una base de V Proposici
on 9, Captulo 1). Si Y es vaco entonces N (T ) = V y el teorema se
cumple trivialmente. Si Y 6= , entonces es facil probar que T (Y ) es una base de Im(T ) con la misma
cardinalidad de Y . Esto completa la prueba del teorema.
Ejericicio 2.1. Demuestre que si en el enunciado del teorema anterior V es un espacio de dimensi
on
infinita, entonces N (T )
o Im(T ) es de dimension infinita, y viceversa.
Ejericicio 2.2. Sea V un espacio vectorial de dimension finita n 1 y sean V1 y V2 subespacios de
V tales que dim(V1 ) + dim(V2 ) = dim(V ). Demuestre que existe una transformacion lineal T : V V
tal que N (T ) = V1 e Im(T ) = V2 .
Soluci
on: Si dim(V1 ) = 0, entonces dim(V2 ) = n y V2 = V, en tal caso la transformacion T : V V
es la identica. Si dim(V1 ) = n, entonces V2 = 0 y en este caso T = 0. Supongase entonces que
0 < dim(V1 ) < n. Sea X = {x1 , . . . , xk } una base de V1 y Z = {z1 , . . . , znk } una base de V2 . Completamos entonces la base X hasta una base Y = {x1 , . . . , xk , y1 , . . . , ynk } de V . La transformaci
on

CAPITULO 2. TRANSFORMACIONES LINEALES

20

T entonces se define por T (xi ) = 0, 1 i k y T (yj ) = zj , 1 j n k. Es claro que N (T ) = V1 e


Im(T ) = V2 .
El siguiente teorema muestra que una transformacion lineal queda completamente determinada por su
acci
on sobre los vectores de una base. En otras palabras, para definir una transformacion lineal basta
conocer las im
agenes de los vectores de una base.
Teorema 2.2. Sean V y W dos K-espacios, X una base de V y t : X W una funci
on. Entonces
existe una u
nica transformaci
on lineal T : V W que extiende a t, es decir, T (x) = t(x), para cada
x X.
Demostraci
on: Sea v un vector de V , entonces v tiene una representacion u
nica en la forma v =
a1 x1 + + an xn , donde ai K y xi X, 1 i n (Proposicion 5, Captulo 1). Se define T por
T (v) = a1 . t (x1 ) + + an . t (xn )
N
otese que T es una transformaci
on lineal: sea u = b1 z1 + + bm zm otro vector de V , bi K
y zi X, 1 i n; si {x1 , . . . , xn } {z1 , . . . , zm } = , entonces la representacion de u + v
en la base X es u + v = b1 z1 + + bm zm + a1 x1 + + an xn , de donde T (u + v) =
b1 cdott(z1 ) + + bm t(zm ) + a1 t(x1 ) + + an t(xn ) = T (u) + T (v).
Sup
ongase que {x1 , . . . , xn } y {z1 , . . . , zm } tienen r elementos en com
un; sin perdida de generalidad se puede suponer que r n m, y entonces se puede expresar a u en la forma u = b1 x1 + +
br xr + br+1 zr+1 + + bm zm , de donde se obtiene que la representacion de u + v en la base X es
u + v = (b1 + a1 ).x1 + + (br + ar ).xr + br+1 . zr+1 + + bm . zm + ar+1 . xr+1 + + an . xn .
Se tiene entonces que
T (u + v) = (b1 + a1 ).t(x1 ) + + (br + ar ).t(xr )+
br+1 . t( zr+1 ) + + bm . t( zm ) + ar+1 . t( xr+1 ) + + an . t(xn ) = T (u) + T (v).
De otra parte, si a K, entonces a.v = aa1 . x1 + + aan . xn , con lo cual T (a.v) = aa1 . t(x1 ) + +
aan .t( xn ) = a.T (v).
Finalmente, es obvio que T es una extension de t, y cualquier transformacion lineal que coincida
con t en la base X es igual a la transformacion T que se definio arriba. Esto completa la prueba del
teorema.

2.3.

Operaciones con Transformaciones Lineales

En esta lecci
on se muestra que el conjunto de todas las transformaciones lineales entre dos K-espacios
V y W es un K-espacio. Se ver
a adem
as que cuando V = W dicho conjunto es una K-algebra.
Definici
on 2.3. Sea LK (V, W ) el conjunto de todas las transformaciones lineales del espacio V en el
espacio W . LK (V, W ) adquiere estructura de espacio vectorial respecto de las siguientes operaciones:
i) Para T1 , T2 LK (V, W ) y v V se define la suma por
(T1 + T2 )(v) = T1 (v) + T2 (v).

2.3. OPERACIONES CON TRANSFORMACIONES LINEALES

21

ii) La acci
on de escalares sobre transformaciones viene dada por
(a T )(v) = a T (v)
donde a K y T LK (V, W ). N
otese que el cero de LK (V, W ) es la transformaci
on nula y la
opuesta de T LK (V, W ) es la transformaci
on T definida por
(T )(v) = T (v).
LK (V, W ) se conoce tambien como el espacio de operadores lineales de V en W .
Adem
as de las dos operaciones definidas anteriormente, se puede considerar la composicion de transformaciones lineales como una tercera operacion.
Definici
on 2.4. Sean T : V W y S : Z U dos transformaciones lineales de tal manera que
se cumpla la condici
on habitual de compatibilidad: Im(T ) Z. Entonces la funci
on compuesta ST
definida para cada v V por
(ST )(v) = S(T (v))
es una transformaci
on lineal.
Las tres operaciones introducidas gozan de las siguientes propiedades algebraicas.
Sean T, T1 , T2 , T3 transformaciones lineales compatibles para las operaciones indicadas. Entonces
(T1 T2 )T3 = T1 (T2 T3 )
T (T1 + T2 ) = T T1 + T T2
(T1 + T2 )T = T1 T + T2 T
a (T1 T2 ) = (a T1 )T2 = T1 (a T2 ), a K
IT = T = T I
donde I es la transformaci
on identica respectiva.
De acuerdo a la discusi
on anterior, el espacio LK (V ) = LK (V, V ) , de transformaciones lineales de V
en si mismo, viene dotado de tres operaciones: suma de vectores, producto de escalares por vectores y
producto entre vectores. Resulta entonces que LK (V ) es un algebra sobre el cuerpo K, en el sentido
de la siguiente definici
on.
Definici
on 2.5. Sea A un espacio vectorial sobre un cuerpo K, se dice que A es un
algebra sobre
K, o tambien que A es una K-
algebra, si en A est
a definido un producto entre vectores que cumple
las siguientes condiciones:
(x1 x2 )x3 = x1 (x2 x3 )
x(x1 + x2 ) = xx1 + xx2
(x1 + x2 )x = x1 x + x2 x
a (x1 x2 ) = (a x1 )x2 = x1 (a x2 ), a K
1x = x = x1
donde x, x1 , x2 , x3 A, a K y 1 es el elemento neutro del producto de vectores.

CAPITULO 2. TRANSFORMACIONES LINEALES

22

2.4.

Tansformaciones Lineales Biyectivas

En el Captulo 1 se present
o el concepto de isomorfismo para grupos y anillos; en esta leccion se
mostrar
a la importancia de esta noci
on para el caso de los espacios vectoriales.
Definici
on 2.6. Una transformaci
on lineal T : V W es inyectiva si para cualesquiera elementos
u, v V se cumple que:
T (u) = T (v)

u = v.

T se dice sobreyectiva si Im(T ) = W .


Proposici
on 2.1. Si T : V W es una transformaci
on lineal, entonces las siguientes condiciones
son equivalentes:
1. T es inyectiva.
2. N (T ) = 0.
3. Si v1 , . . . , vn son vectores LI de V ,entonces T (v1 ), . . . , T (vn ) son vectores LI de Im(T ).
4. Si X es una base de V , entonces T (X) es una base de Im(T ).
En particular, si V y W son espacios de dimensi
on finita n 1, entonces T es inyectiva si y s
olo si
T es sobreyectiva.
Demostraci
on: 1) = 2): Si v N (T ), entonces T (v) = 0 = T (0), con lo cual v = 0.
2) = 3): Sean a1 , . . . , an K tales que a1 T (v1 ) + + an T (vn ) = 0, entonces a1 v1 + + an vn
N (T ), es decir, a1 v1 + + an vn = 0, de donde, a1 , . . . , an = 0.
3) = 4): Es obvio que T (X) es LI; si w Im(T ), entonces existen escalares a1 , . . . , an y vectores v1 , . . . , vn X tales que
w = T (a1 .v1 + + an .vn ) = a1 .T (v1 ) + + an .T (vn ) hT (X)i,
lo cual prueba que T (X) genera a Im(T ), y por lo tanto es una base de Im(T ).
4) = 1): Sean u, v V tales que T (u) = T (v); sin perdida de generalidad podemos suponer que
la expansi
on de u y v a traves de la base X se realiza con los mismos vectores, es decir, existen
v1 , . . . , vn X y a1 , . . . , an , b1 , . . . , bn K tales que
T (u) = T (a1 .v1 + + an .vn ) = T (b1 .v1 + + bn .vn ) = T (v)
a1 .T (v1 ) + + an .T (vn ) = b1 .T (v1 ) + + bn .T (vn ),
pero como T (X) es LI, entonces ai = bi , para cada 1 i n. Esto garantiza que u = v.
Por las equivalencias probadas anteriormente se tiene que T es inyectiva si y solo si dim(T (V )) = n si
y s
olo si T (V ) = W si y s
olo si T es sobreyectiva. 
Se dice que T es biyectiva si T es inyectiva y sobreyectiva. Dos K-espacios V y W se dicen isomorfos
si existe una transformaci
on lineal biyectiva T de V en W . Esta relacion entre V y W se denota por
V
= W.
Siendo T biyectiva, existe la funci
on inversa de T definida por
T 1 : W V

2.4. TANSFORMACIONES LINEALES BIYECTIVAS

T 1 (w) = v
donde w W y v V . Es obvio que T
condiciones:

23

T (v) = w

es tambien una tranformacion lineal y cumple las siguientes

T T 1 = IW

T 1 T = IV

N
otese que T 1 es la u
nica transformacion de W en V que cumple estas identidades, y se le conoce
como la transformaci
on inversa de T . Se ha visto que una transformacion lineal biyectiva tiene
inversa, esta es u
nica y viene caracterizada por las identidades anteriores.
N
otese que la relaci
on ser isomorfo es una relacion de equivalencia en la coleccion de todos los
K-espacios. Es tambien claro que la composicion de dos isomorfismos es nuevamente un isomorfismo.
Un isomorfismo T de un espacio V en si mismo se denomina un automorfismo de V . La coleccion de
todos los automorfismos de un espacio V se denota por AutK (V ). Se tiene entonces inmediatamente
el siguiente resultado.
Proposici
on 2.2. Si V es un K-espacio, entonces AutK (V ) es un grupo respecto de la composici
on
de transformaciones con elemento neutro IV .
Una consecuencia inmediata de la Proposicion 2.1 es el siguiente corolario.
Corolario 2.1. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita n 1.
Entonces las siguientes condiciones son equivalentes:
1. T es inyectiva
2. N (T ) = 0
3. T es sobreyectiva
4. rank(T ) = n
5. T es un automorfismo.
El siguiente teorema pone de manifiesto la importancia del concepto de isomorfismo para el caso de
los espacios vectoriales.
Teorema 2.3. Salvo isomorfismos, el u
nico K-espacio de dimensi
on n 1 es K n . M
as exactamente,
n
si V es un K-espacio de dimensi
on n 1, entonces V
=K .
Demostraci
on: Sea X = {x1 , . . . , xn } una base de V y C = {e1 , . . . , en } la base canonica de K n . Las
funciones
t:X
xi

C
ei

s:C
ei

X
xi

con 1 i n, inducen de manera u


nica transformaciones lineales T : V K n y S : K n V que
coinciden con t en X y s en C, respectivamente (vease el Teorema 2 del presente captulo). Las transformaciones ST y T S son tales que ST (xi ) = xi y T S(ei ) = ei , para cada 1 i n. Nuevamente, por
el Teorema 2, ST = IV y T S = IK n . Esto indica que T es un isomorfismo y la prueba ha terminado.
Corolario 2.2. Dos espacios vectoriales de dimensi
on finita sobre un mismo cuerpo K son isomorfos
si y s
olo si sus dimensiones coinciden.

CAPITULO 2. TRANSFORMACIONES LINEALES

24

Demostraci
on: =) Sean V y W dos K-espacios isomorfos de dimension finita con isomorfismo
T : V W ; si X = {x1 , . . . , xn } es una base de V entonces obviamente T (X) es una base de
W con n elementos. De acuerdo a la Proposicion 7 del Captulo 1, dim(W ) = n = dim(V ).
=) Si dim(W ) = n = dim(V ), entonces por el Teorema 3 V
= Kn
= W , y por transitividad,
V
= W .
Las versiones en dimensi
on infinita del Teorema 2.3 y del Corolario 2.1 seran estudiadas en la proxima
lecci
on. Cerramos esta lecci
on con tres ejercicios.
Ejericicio 2.3. Sean T : V W , S : W U transformaciones lineales, donde V, W y U son espacios
de dimensi
on finita n 1. Demuestre que:
(a) rank (ST ) rank (S) y rank (ST ) rank (T ).
(b) rank (ST ) rank (S) + rank (T ) n.
(c) Si S es biyectiva, entonces rank (ST ) = rank (T ). Si T es biyectiva, entonces rank (ST ) =
rank (S).
(d) Si V = W = U y S es biyectiva, entonces rank (ST ) = rank (T ) = rank (T S). Si T es biyectiva,
entonces rank (ST ) = rank (S) = rank (T S).
Soluci
on: (a) Para la primera parte basta tener en cuenta que Im(ST ) Im(S). Para la segunda, n
otese que N (T ) N (ST ); resulta entonces que dim N (T ) dim N (ST ), y por el Teorema 1,
dim N (T ) + rank(ST ) dim N (ST ) + rank(ST ) = n, y entonces n rank(T ) + rank(ST ) n, es
decir, rank(ST ) rank(T ).
(b) Si se prueba que dim N (ST ) dim N (S) + dim N (T ), entonces rank(ST ) = n dim N (ST )
n dim N (S) dim N (T ) = n n + rank(S) n + rank(T ) = rank(S) + rank(T ) n.
Para probar lo requerido recuerdese que dim N (T ) dim N (ST ). Sea q = dim N (T ) y sea {v1 , . . . , vq }
una base de N (T ). Sea q+p = dim N (ST ), p 0. Podemos completar la base anterior hasta una base de
N (ST ) : {v1 , . . . , vq , vq+1 , . . . , vq+p }. N
otese que los vectores T (vq+1 ), . . . , T (vq+p ) son LI y pertenecen
al n
ucleo de S, por lo tanto, p dim N (S) y se tiene que dim N (ST ) = p + q dim N (S) + dim N (T ).
(c) y (d) son consecuencia inmediata de (a) y (b).
Ejericicio 2.4. Sea R[x] el espacio de los polinomios reales y sea T definida por
T : R[x]
p(x) = a0 + a1 x + + an xn 7

R[x]
a0 + a1 x2 + + an x2n

Probar que T es una transformaci


on lineal inyectiva pero no es sobreyectiva (Este ejemplo ilustra que
el Corolario 1 no es v
alido en dimensi
on infinita).
Ejericicio 2.5. Sean 1 , , m n
umeros reales diferentes y sea T definida por
T : Rn [x]
p(x) 7

Rm
(p(1 ), , p(m ))

Demuestre que T es una transformacion lineal. Calcule dim N (T ) y rank(T ). En que caso T es
inyectiva, en que caso T es sobreyectiva?

2.5. PRODUCTO Y SUMA DIRECTA DE ESPACIOS VECTORIALES

25

Soluci
on: Sean p(x), q(x) Rn [x], entonces:
T [p(x) + q(x)] = T [(p + q)(x)]
= ((p + q)(1 ), (p + q)(2 ), ..., (p + q)(m ))
= (p(1 ) + q(1 ), p(2 ) + q(2 ), ..., p(m ) + q(m ))
= (p(1 ), p(2 ), ..., p(m )) + (q(1 ), q(2 ), ..., q(m ))
= T [p(x)] + T [q(x)]
y sea R, entonces:
T [p(x)] = T [(p)(x)]
= ((p)(1 ), (p)(2 ), ..., (p)(m ))
= (p(1 ), p(2 ), ..., p(m ))
= (p(1 ), p(2 ), ..., p(m ))
= T [p(x)]
Luego T es una transformaci
on lineal.
Para la segunda parte del ejercicio, consideremos dos situaciones por separado.
a) n m: el N (T ) est
a conformado por los polinomios que tienen como races a 1 , 2 , ldots, m .
Si p(x) N (T ), entonces p(x) = (x 1 )(x 2 ) (x m )q(x) donde q(x) Rnm [x]. Notese que
en este caso una base del n
ucleo es {(x 1 )(x 2 )...(x m ), (x 1 )(x 2 )...(x m )x, . . . , (x
1 )(x 2 )...(x m )xnm } y la dim N (T ) = n m + 1 1.
Por el Teorema de la dimensi
on se tiene que:
dim Im(T ) = dim Rn [x] dim N (T )

= n + 1 (n m + 1) = m

es decir, rank(T ) = m. Lo anterior indica que T no es inyectiva pero si sobreyectiva.


b) n < m: en este caso el u
nico polinomio del n
ucleo es el cero y T es inyectiva. En consecuencia, rank(T ) = n + 1. Si m = n + 1 entonces T es sobre y por tanto biyectiva. Si m > n + 1, entonces
T no es sobreyectiva.

2.5.

Producto y Suma Directa de Espacios Vectoriales

La operaci
on producto cartesiano de la teora elemental de conjuntos, aplicada a los espacios vectoriales,
permite construir un espacio vectorial a partir de una familia dada de espacios. Esta leccion esta
dedicada a dicha construcci
on. Como consecuencia de ella, se probara la version del Teorema 3 para
espacios de cualquier dimensi
on.
Definici
on 2.7. Sean V1 , . . . , Vr espacios vectoriales sobre el cuerpo K, y sea V1 Vr el conjunto
producto cartesiano, es decir,
Vr = {(v1 , . . . , vr )|vi Vi ,

1 i r}

CAPITULO 2. TRANSFORMACIONES LINEALES

26

Qr

El conjunto V1 Vr , denotado tambien por


vectorial bajo las siguientes operaciones:

i=i

Vi , tiene una estructura natural de espacio

(v1 , . . . , vr ) + (w1 , . . . , wr ) = (v1 + w1 , . . . , vr + wr )


a (v1 , . . . , vr ) = (a v1 , . . . , a vr )
Qr
Qr
donde (v1 , . . . , vr ), (w1 , . . . , wr ) i=i Vi y a K. i=i Vi se conoce como el espacio producto de
los espacios V1 , . . . , Vr . N
otese que K n es el producto cartesiano de n espacios vectoriales iguales a K.
Asociadas al espacio producto se tienen transformaciones lineales conocidas como las proyecciones
e inyecciones can
onicas. Por cada 1 i r se tiene una proyecci
on can
onica definida por
Qr
i : i=1 Vi Vi
(v1 , . . . , vr ) 7 vi

Es obvio que i es una transformaci


on lineal sobreyectiva. Las inyecciones can
onicas se definen
por:
Qr
i : Vi
i=1 Vi
vi 7 (0, . . . , vi , . . . , 0)

Las inyecciones son transformaciones lineales inyectivas. Las proyecciones e inyecciones satisfacen las
siguientes propiedades interesantes:
Im(i ) = Vi , Im(i )
= Vi ,
j i =
r
X

IVi
0

1ir

si j = i
si j =
6 i

i i = IV1 Vr

i=1

La construcci
on descrita en las lneas anteriores puede ser generalizada al caso de una familia infinita
de espacios vectoriales.
Definici
on 2.8. Sea {Vi }iI una familia de espacios vectoriales sobre un cuerpo K, el producto
S cartesiano de dicha familia se define como el conjunto de todas las funciones de I en la reuni
on iI Vi ,
tales que f (i) Vi , para cada i I, es decir,
(
)

Y
[
Vi = f : I
Vi f (i) Vi para cada i I .
iI

iI

Q
Si se escribe f (i) = fi , Q
entonces cada elemento f
iI Vi se puede representar en la forma
f = (fi )iI . El producto iI Vi adquiere estructura de espacio vectorial respecto de las siguientes
operaciones:
f + g = (fi )iI + (gi )iI = (fi + gi )iI
a f = a (fi )iI = (a fi )iI , a K.

Las proyecciones y las inyecciones can


onicas se definen de manera similar a como se hizo en el caso
finito:
Q
j : iI Vi Vj
(fi ) 7 fj
j : Vj
v

iI Vi
f = (fi )

2.5. PRODUCTO Y SUMA DIRECTA DE ESPACIOS VECTORIALES

27

donde
fi =

v
0

si i = j
si i =
6 j

Q
En el espacio producto iI Vi se destaca como subespacio
L el conjunto de elementos f = (fi ) con
fi = 0 para casi todo i I; este subespacio se denota Q
por iI Vi y puede definirse m
as exactamente
de la siguiente forma: sea f = (fi ) un elemento de iI Vi , el soporte Sf de f se define como el
subconjunto de elementos i I tales que fi 6= 0 (para el elemento 0 el soporte es vaco). As pues,
(
)

M
Y

Vi = f = (fi )
Vi Sf es finito .
L

iI

iI

Q
N
otese que efectivamente
de iI VQ
i , y se conoce como la suma directa
iI Vi es un subespacioL
externa de la familia {Vi }iI . Cuando I es finito, iI Vi = iI Vi .

Un caso particular de las construcciones anteriores se obtiene cuando todos los espaciosQVi de la familia dada coinciden y son iguales a K 1 = K, en tal caso se usa la siguiente notaci
on: iI Vi = K I ,
L
(I)
I
(I)
n
. Si I es finito de tama
no n, entonces claramente K = K = K .
iI Vi = K
Ya se est
a en capacidad de probar el Teorema 3 para espacios de cualquier dimension.
Teorema 2.4. Sea V un K-espacio con base X. Entonces V
= K (X) .
Demostraci
on: En primer lugar se debe observar que K (X) tiene la siguiente base canonica:
C = {ex }xX ,

ex = (fz )zX ,

donde
fz =

1
0

si z = x
si z 6= x.

Las funciones
t : X
x 7

C
ex

s:C
ex

X
x

inducen de manera u
nica transformaciones lineales T : V K (X) y S : K (X) V que coinciden con
t en X y s en C, respectivamente (vease el Teorema 2 del presente captulo). Las transformaciones
ST y T S son tales que ST (x) = x y T S(ex ) = ex , para cada x X. Nuevamente, por el Teorema 2,
ST = IV y T S = IK (X) . Esto indica que T es un isomorfismo y la prueba ha terminado.
Corolario 2.3. Dos espacios vectoriales sobre un mismo cuerpo K son isomorfos si y s
olo si sus
dimensiones coinciden.
Demostraci
on: Sean V y W dos K-espacios isomorfos con isomorfismo T : V W , y sea X una base
de V , entonces T (X) es una base de W que tiene la misma cardinalidad de X. En consecuencia V y
W tienen la misma dimension.
Recprocamente, sup
ongase que dim(V ) = dim(W ). Sean X, Y bases de V y W respectivamente.
Existe una funci
on biyectiva : X Y que induce una transformacion lineal T : V W ; de igual
manera 1 : Y X induce una transformacion lineal S : W V de tal forma que T S = IW y
ST = IV , de donde, T es un isomorfismo y, V
= W .

CAPITULO 2. TRANSFORMACIONES LINEALES

28

2.6.

Suma Directa Interna de Subespacios

En esta lecci
on se estudia la suma de subespacios de un espacio vectorial y se analiza el caso particular
cuando dicha suma sea directa, es decir, cuando la representacion de los vectores del subespacio suma
sea u
nica en terminos de sus sumandos.
En la Lecci
on 3 del Captulo 1 se estudio la interseccion de subespacios de un espacio vectorial V
y se defini
o a partir de ella la envolvente lineal hSi de un subconjunto de vectores S de V . Sean ahora
V1 , . . . , Vn subespacios de V , se define la suma de los subespacios V1 , . . . , Vn por
* n +
[
V1 + + Vn =
Vi
i=1

y coincide, por lo tanto, con el menor subespacio de V que contiene a cada uno de los subespacios
V1 , . . . , Vn . Es obvio que el subespacio suma se puede caracterizar tambien de la siguiente manera:
)
( n
X
V1 + + Vn =
vi vi Vi , 1 i n .
i=1

La suma de una colecci


on arbitraria de subespacios del espacio V se define de forma analoga, pero no
se har
a uso de ella en este curso. Se menciona a continuacion una lista amplia de propiedades de las
operaciones de suma e intersecci
on de subespacios, cuyas demostraciones no son difciles:
V1 (V2 V3 ) = (V1 V2 ) V3 , V1 + (V2 + V3 ) = (V1 + V2 ) + V3
V1 V2 = V2 V1 , V1 + V2 = V2 + V1
V1 V = V1 , V1 + 0 = V1
V1 (V2 + V3 ) = (V1 V2 ) + (V1 V3 ), si V1 V2 o V1 V3 .
Adem
as de lo anterior, se tienen las siguientes relaciones entre las dimensiones de los subespacios suma
e intersecci
on.
Proposici
on 2.3. Sea V un espacio vectorial y V1 , . . . , Vn subespacios de V de dimensi
on finita.
Entonces
i) dim(V1 Vn ) dim(Vi ), para cada 1 i n
ii) dim(V1 + + Vn ) dim(Vi ), para cada 1 i n
iii) dim(V1 + V2 ) = dim(V1 ) + dim(V2 ) dim(V1 V2 )
iv) dim(V1 + + Vn ) dim(V1 ) + + dim(Vn ).
Adem
as, si V es de dimensi
on finita n y U es un subespacio de V , entonces existe un subespacio U 0
tal que
U + U 0 = V,

U 0 U = 0,

dim(U 0 ) + dim(U ) = n.

U 0 se denomina el complemento de U en V .

Ejemplo 2.8. Sean X1 , X2 sunconjuntos de un espacio V , y sean V1 = hX1 i, V2 = hX2 i. Puesto que
V1 + V2 = hV1 V2 i = hhX1 i hX2 ii = hX1 X2 i, entonces una base de hX1 X2 i es una base
para V1 + V2 . Se quiere ahora mostrar como se consigue una base para V1 V2 . Si V1 = 0 o V2 = 0,
entonces V1 V2 = 0 y es una base para la interseccion. Sea entonces X = {x1 , . . . , xk } una base
de V1 y Y = {y1 , . . . , ym } una base de V2 ; si V1 V2 = 0, entonces es una base para la intersecci
on.

2.6. SUMA DIRECTA INTERNA DE SUBESPACIOS

29

Si V1 V2 = V1 , entonces X es una base para la interseccion, V1 V2 = V2 , entonces Y es una base


para la intersecci
on. Descartando entonces los casos triviales anteriores y por lo anotado en la primera
parte del ejemplo, sea X 0 = {x1 , . . . , xk , y1 , . . . , ys } una base de V1 + V2 , 1 s m 1. Los vectores
ys+1 , . . . , ym se pueden expandir a traves de la base X 0 :
yi = ai1 x1 + + aik xk + bi1 y1 + + bis ys ,

s + 1 i m.

Se puede probar facilmente que entonces el conjunto Z = {z1 , . . . , zms } de vectores


zis = ai1 x1 + + aik xk ,

s+1im

conforma una base para V1 V2 .


La suma V1 + + Vn de una colecci
on V1 , . . . , Vn de subespacios de un espacio V puede coincidir con
dicho espacio, de tal forma que cada elemento v V se pueda representar en la forma v = v1 + + vn
con vi Vi , 1 i n. Sin embargo, es posible que dicha representacion para el vector v no sea u
nica.
Por ejemplo, si n = 2 y los subespacios V1 , V2 tienen un vector no nulo u en com
un, entonces el vector
nulo se puede escribir en dos formas diferentes: 0 = 0 + 0 = u + (u). Esta situacion no se presenta
cuando la suma de los subespacios es directa. A continuacion se estudia la suma directa de subespacios.
Definici
on 2.9. Sea V1 , . . . , Vn una colecci
on finita de subespacios de un espacio V , se dice que la
suma V1 + + Vn es directa si cada elemento v V1 + + Vn tiene una representaci
on u
nica en
la forma v = v1 + + vn , donde vi Vi , 1 i n. N
otese que la unicidad de la representaci
on de
cada elemento v V1 + + Vn es equivalente a la unicidad de la representaci
on del vector nulo de
V1 + + Vn a traves de sumandos nulos. La suma directa de subespacios se simboliza por V1 Vn .
Se dice que un espacio V es suma directa de los subespacios V1 , . . . , Vn si V = V1 Vn .
Proposici
on 2.4. Sea V1 , . . . , Vn una colecci
on finita de subespacios de un espacio V . Entonces las
siguientes condiciones son equivalentes:
a) V = V1 Vn
b) V = V1 + + Vn y para cada 1 i n 1 se cumple que
Vi (V1 + + Vi1 + Vi+1 + + Vn ) = 0.
Se probar
a ahora que si V = V1 Vn , entonces reuniendo bases de V1 , . . . , Vn se obtiene una base
de V .
Proposici
on 2.5. Sea V1 , . . . , Vn una colecci
on finita de subespacios de un espacio V con bases
X1 , . . . , Xn , respectivamente. Entonces las siguientes condiciones son equivalentes:
a) V = V1 Vn
Sn
b) i=1 Xi es una base de V y Xi Xj = para cada i 6= j.
P
Demostraci
on: a) b) : Puesto que Vi ( Vj ) = 0, entonces Vi Vj = 0 para cada i 6= j, y en
j6=i

consecuencia, Xi Xj = S
para cada i 6= j. Puesto que V = V1 + + Vn y Xi es una base para
n
Vi , entonces es S
claro que i=1 Xi es un sistema de generadores para V. Sea {z1 , , zm } un subconn
junto finito de i=1 Xi y a1 , , am K tales que a1 .z1 + + am .zm = 0, entonces adicionando
sumandos nulos mediante coeficientes nulos se puede escribir esta ecuacion, sin perdida de generalidad, en grupos de sumandos de tal forma que los primeros sumandos sean de V1 , los siguientes sean
de V2 , etc, y los u
ltimos sean de Vn . Pero de acuerdo con la hipotesis a), el vector nulo solo es representable mediante sumandos nulos, por lo tanto, cada grupo de sumandos es nulo y, puesto que en
cada grupo aparecen combinaciones lineales de vecotres LI, entonces todos los coeficientes ai son nulos.

CAPITULO 2. TRANSFORMACIONES LINEALES

30

b) a) : Puesto que

Sn

i=1

Xi es una base de V , entonces


* n
+ * n +
[
[
V =
Xi =
Vi = V1 + + Vn .
i=1

i=1

Sea ahora 0 = v1 + + vn , con vi Vi , entonces se puede representar cada vi como combinaci


on lineal
Sn
de los vectores de Xi de tal forma que se obtiene una combinacion lineal de vectores de i=1 Xi ; teniendo en cuenta que Xi Xj = para cada i 6= j, entonces
ltima representacion no hay sumandos
Snen esta u
repetidos, lo cual, combinado con la hipotesis de que i=1 Xi es una base para V se obtiene que todos
los sumandos en tal representaci
on son nulos, es decir, cada vi es nulo. Esto completa la prueba de a). 
Ejemplo 2.9. Sea V un espacio de dimension 3 con una base X = {x1 , x2 , x3 }, y sean V1 =
hx1 , x2 i, V2 = hx1 , x3 i subespacios de V . Notese que V = V1 + V2 pero la suma no es directa ya
que {x1 , x2 } {x1 , x3 } =
6 .
Corolario 2.4. Sea V un espacio vectorial de dimensi
on finita n 1 y sean V1 , . . . , Vm subespacios de
V tales que V = V1 + +Vm . Entonces, V = V1 Vm si y s
olo si dim(V ) = dim(V1 )+ +dim(Vm ).
Demostraci
on: ) : Esta parte es consecuencia directa de la Proposicion 5 que se probo atras.
) : dim(V ) = dim(V1 + + Vm ) = dim(V1 ) + + dim(Vi ) + + dim(Vm ) = dim(Vi ) + dim(V1 +
+ Vi1 + Vi+1 + + Vm ) dim(Vi (V1 + + Vi1 + Vi+1 + + Vm )), por lo tanto,
dim(V1 ) + + dim(Vi1 ) + dim(Vi+1 ) + + dim(Vm ) =
dim(V1 + + Vi1 + Vi+1 + + Vm ) dim(Vi (V1 + + Vi1 + Vi+1 + + Vm ))
dim(V1 ) + + dim(Vi1 ) + dim(Vi+1 ) + + dim(Vm ) dim(Vi (V1 + + Vi1 + Vi+1 + + Vm )),
de lo cual se tiene que dim(Vi (V1 + + Vi1 + Vi+1 + + Vm )) 0, es decir, Vi (V1 + +
Vi1 +Vi+1 + +Vm ) = 0, para cada 1 i m1. La Proposicion 4 garantiza que V = V1 Vm .

2.7.

Ejercicios

Esta secci
on contiene una lista de ejercicios de aplicacion a los temas tratados en el presente captulo.
Se sugiere a los estudiantes resolver estos problemas, los cuales ayudaran a reforzar el aprendizaje.
Sea esta la oportunidad para ratificar la disponibilidad de los profesores para resolver cualquier duda
sobre la matem
atica del presente curso. Sus preguntas y comentarios pueden ser enviados via e-mail o
tambien usando la p
agina de visitantes en donde podran usar un formato especialmente dise
nado para
tal efecto.
1. Investigar la veracidad de la siguiente afirmacion: sea T : V W una transformacion lineal
y sean {x1 , . . . , xn }, {y1 , . . . , ym } sistemas equivalentes de vectores (ver el Captulo 1). Entonces
{T (x1 ), . . . , T (xn )}, {T (y1 ), . . . , T (ym )} son sistemas equivalentes de vectores.
2. En relaci
on con el Teorema 2, investigar la veracidad de la siguiente afirmacion: sean V, W dos
K-espacios y sean {x1 , . . . , xn }, {y1 , . . . , yn } sistemas de vectores en V y W , respectivamente.
Existe una transformaci
on lineal de V en W tal que T (xi ) = yi , para cada i = 1, 2, . . . , n.
3. En el espacio real Rn [x] de polinomios de grado n (ver el Ejemplo 15 del Captulo 1) definir dos
transformaciones lineales diferentes que coincidan con el operador de derivacion en el subespacio
Rn1 [x].

2.7. EJERCICIOS

31

4. Sea h un real no nulo y sea Th la funcion definida sobre el espacio Rn [x] de la siguiente manera:
Th (p(x)) =

p(x + h) p(x)
h

Demostrar que Th es una transformacion lineal. Calcular su n


ucleo y su imagen. Calcular la
dimensi
on de estos subespacios.
5. Sean V, W dos K-espacios, x un vector no nulo de V y {y1 , . . . , ym } una base de W . Si Ti son
transformaciones lineales de V en W tales que Ti (x) = yi , entonces {T1 , . . . , Tn } es linealmente
independiente.
6. Sea V un espacio vectorial y T, S dos transformaciones lineales de V . Si T S = 0, entonces siempre
se tiene que ST = 0 ?
7. Sea V un K-espacio vectorial y T una transformacion lineal de V de rango 1. Demostrar que
existe un escalar a K tal que T 2 = a.T .
8. Sea V un K-espacio vectorial y T una transformacion lineal de V de rango 1. Demostrar que al
menos una de las transformaciones I + T o I T es invertible.
9. Sea T, S transformaciones lineales de un espacio V con T invertible. Demostrar que (T +
S)T 1 (T S) = (T S)T 1 (T + S).
10. Sea V un K-espacio vectorial, T una transformacion lineal de V y p(x) un polinomio que se anula
en T , es decir, la transformaci
on lineal polinomica p(T ) es nula. Si el termino independiente p0
de p(x) es no nulo, entonces T es invertible.
11. Mostrar un ejemplo de transformacion lineal que sea inyectiva pero no sobreyectiva. Tambien,
mostrar un ejemplo de transformacion lineal no nula que sea sobreyectiva pero no inyectiva.
12. Sea V un K-espacio vectorial y sea U un subespacio de V . Dado v V denotemos por v el
subconjunto de V definido por v = v + U = {v + u | u U }. Denotemos por V /U la coleccion de
todos estos subconjuntos, es decir, V /U = {v = v + U | v V }. Demostrar que:
(i) v = v 0 v v 0 U

(ii) V /U es un K-espacio vectorial respecto de las siguientes operaciones:


v1 + v2 = v1 + v2
av =av
(iii) Si V es de dimensi
on finita, entonces dim (V /U ) = dim(V ) dim(U ).
13. Demostrar el teorema de homomorfismo para espacios vectoriales: sea T : V W una transformaci
on lineal. Entonces se tiene el siguiente isomorfismo de espacios vectoriales:
V /N (T )
= Im(T ).
14. Sea V un espacio vectorial de dimension finita y V1 , V2 subespacios de V . Demostrar que dim (V1 + V2 ) =
dim (V1 ) + dim (V2 ) dim (V1 V2 ).
15. Encontrar subespacios V1 , V2 , V3 de R3 tales que V1 + V2 + V3 = R3 pero la suma no es directa.
16. Dar un ejemplo de transformaci
on que sea inyectiva pero no sobreyectiva y tambien de una
transformaci
on que sea sobreyectiva pero no inyectiva.

CAPITULO 2. TRANSFORMACIONES LINEALES

32

17. Sea V un K-espacio vectorial. Una involuci


on de V es una transformacion lineal T : V V tal
que T 2 = IV . Si 2 6= 0 en K y T es una involucion, entonces demostrar que V = V1 V2 donde
V1 = {x V | T (x) = x} y V2 = {x V | T (x) = x}.
18. Sea V un espacio vectorial de dimension finita. Demostrar que existe un endomorfismo T : V V
tal que N (T ) = Im(T ) dim(V ) es par.
19. Sea T : V V una transformacion lineal tal que T k = 0 para alg
 un entero positivo k. Si
T k1 (v) 6= 0 para un cierto vector no nulo v V , entonces el conjunto v, T (v) , T 2 (v) , ..., T k1 (v)
es LI.
20. Sea
V1

f1

V2

f2

V3

f2n1

V2n

f2n

V1

una secuencia de transformaciones lineales entre espacios vectoriales de dimension finita tal que la
imagen de cada transformaci
on coincide con el n
ucleo de la siguiente, es decir, Im(fi ) = N (fi+1 ),
1 i 2n 1 y Im(f2n ) = N (f1 ). Demostrar que dim (V1 ) dim (V2 ) + dim (V3 ) dim (V4 ) +
+ dim (V2n1 ) dim (V2n ) = 0.
21. Sea T : V V una transformacion lineal tal que T 2 = T . Demostrar que V = ker(T ) Im(T ).

Captulo 3

Matrices
Introducci
on
Las matrices pueden ser consideradas como un lenguaje algortmico apropiado para estudiar transformaciones lineales entre espacios de dimension finita. El captulo 3 esta dedicado a introducir este
lenguaje. El problema de equivalencia y similaridad de matrices es tambien planteado.

3.1.

Espacios Vectoriales de Matrices

El objetivo central del presente captulo es establecer el isomorfismo entre el algebra de transformaciones lineales de un K-espacio de dimensi
on finita n y el algebra de matrices cuadradas de orden n sobre
K. Este isomorfismo permite un mejor manejo algebraico de las transformaciones lineales en terminos
de matrices. Otro aspecto importante tratado en este captulo es el de la clasificacion de matrices en
terminos de equivalencia y similaridad. En la u
ltima leccion se estudian las matrices invertibles.
Definici
on 3.1. Sea K un cuerpo y m, n enteros 1, una matriz A sobre K de orden (=tama
no)
m n es una tabla de m filas y n columnas cuyas entradas pertenecen a K :

a11 a1n
a21 a2n

A= .
..
..
..
.
.
am1 amn
Los elementos a11 , . . . , amn K, y se conocen como las entradas de la matriz A; el elemento de A
ubicado en la intersecci
on de la i-esima fila y la j-esima columna se denota por aij . La matriz A se
denota brevemente por A = [aij ]. La i-esima fila de A se denota por A(i) = [ai1 , . . . , ain ] y puede
considerarse como un vector de K n , la j-esima columna de A se representa por

a1j

A(j) = ...
amj

no,
y puede considerarse como un vector de K . Dos matrices A = [aij ] y B = [bij ], del mismo tama
son iguales si y s
olo si aij = bij , para cada 1 i m, 1 j n. Una matriz A se dice que es
cuadrada si el n
umero de filas coincide con el n
umero de columnas, es decir, m = n. Una matriz fila
es una matriz de una sola fila, una matriz columna es una matriz con una sola columna. El conjunto
de matrices sobre K de tama
no m n se denota por Mmn (K), para el conjunto de matrices cuadradas
de tama
no n n se utiliza la notaci
on Mn (K).
33

CAPITULO 3. MATRICES

34

Se puede ya enunciar el primer hecho sobresaliente relacionado con los arreglos matriciales definidos
arriba.
Proposici
on 3.1. Sea K un cuerpo y Mmn (K) el conjunto de matrices de tama
no m n sobre
K. Entonces, Mmn (K) es un espacio vectorial sobre K de dimensi
on mn, respecto de las siguientes
operaciones:
A + B = [aij ] + [bij ] = [aij + bij ]
a A = a [aij ] = [aaij ], a K.
La prueba de esta proposici
on es muy sencilla, solo se debe destacar que el vector nulo es la matriz
nula

0 0
0 0

0= .
..
..
..
.
.
0 0
la opuesta de la matriz A = [aij ] es la matriz A = [aij ], y la base can
onica es
{Ers },

Ers

1 r m, 1 s n,

..
0
.
0

..
0
. 0
=
,
1

..
0
. 0

donde Ers es una matriz con una sola entrada no nula, la entrada correspondiente a la interseccion de
la r-esima fila y la s-esima columna, donde aparece el escalar 1.
Esta proposici
on es v
alida para todos los enteros positivos m y n, en particular, se cumple para m = n,
es decir, para las matrices cuadradas. De esta forma se generaliza el Ejemplo 12 del Captulo 1. De otra
parte, de acuerdo al Teorema 3 del captulo anterior, Mmn (K)
= K mn , M1n (K)
= K n , Mm1 (K)
=
K m.
Adem
as de la suma de matrices y el producto de escalar por matriz definidos arriba, es posible realizar
productos entre matrices que cumplan una condici
on de compatibilidad: el n
umero de columnas
del primer factor debe coincidir con el n
umero de filas del segundo factor. De este producto se ocupa
el resto de la presente lecci
on.
Definici
on 3.2. Sean A = [aij ], B = [bij ] matrices de tama
nos m n y n p, respectivamente. Se
define el producto de A y B, en ese orden, como la matriz
C = AB = [cij ] Mmp (K),

cij =

n
X

k=1

aik bkj ,

1 i m,

1 j p.

N
otese que el elemento cij de la matriz producto corresponde a realizar la multiplicaci
on entre la
i-esima fila de A y la j-esima columna de B:

b1j

A(i) B (j) = [ai1 , . . . , ain ] ... = ai1 b1j + + ain bnj .


bnj

3.2. TRANSFORMACIONES LINEALES Y MATRICES

35

Todas las propiedades enunciadas en la siguiente proposicion se demuestran directamente a partir de


las definiciones anteriores.
Proposici
on 3.2. Sean A, B, C matrices sobre el cuerpo K tal que cumplen las condiciones de compatibilidad requeridas para cada una de las operaciones indicadas. Entonces:
1) (AB)C = A(BC).
2) A(B + C) = AB + AC.
3) (B + C)A = BA + CA.
4) (aA)B = a(AB) = A(aB), para cada a K.
5) Para cada n 1 se define la matriz id
entica
n n,

1
0

E= .
..
0

de orden n como la matriz cuadrada E de tama


no
0
1
..
.

..
.

0
0
..
.

es decir, E = [eij ], donde eij = 1 si i = j, y eij = 0 si i 6= j. Entonces, para cada matriz A de


orden m n se tiene que
AE = A, EA = A,
donde en la primera ecuaci
on E denota la identica de orden n y en la segunda E es la identica
de orden m.

Definici
on 3.3. Una matriz cuadrada A de orden n 1 es invertible si existe otra matriz B del
mismo orden tal que
AB = E = BA.
De la discusi
on anterior se obtiene de manera inmediata la siguiente afirmacion.
Proposici
on 3.3. Sea K un cuerpo y Mn (K) el conjunto de matrices de tama
no n n sobre K.
Entonces, Mn (K) es un a
lgebra sobre K.
Ejericicio 3.1. Sea {Ers } la base can
onica de Mn (K). Demuestre que

Ers si i = j
Eri Ejs =
0
si i 6= j.
Se concluye la lecci
on definiendo la transpuesta de una matriz A = [aij ] de tama
no m n: se denota
por AT y es la matriz de tama
no n m obtenida de A convirtiendo las columnas de A en filas, es
decir, (AT )(j) = A(j) , para cada 1 j n. Es facil demostrar que si A y B son matrices compatibles
para el producto, entonces (AB)T = B T AT , ademas, si A es una matriz invertible, entonces AT es
tambien invertible y (AT )1 = (A1 )T .

3.2.

Transformaciones Lineales y Matrices

Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m 1, respectivamente.


El objetivo central de esta lecci
on es demostrar que el espacio LK (V, W ) es isomorfo a Mmn (K). La
prueba se realiza estableciendo una funcion que asigna a cada transformacion lineal T de LK (V, W )
una matriz m(T ) de Mmn (K); se demuestra que esta funcion es una transformacion lineal biyectiva.
Cuando V = W , se demuestra que el
algebra LK (V ) es isomorfa a Mn (K).

CAPITULO 3. MATRICES

36

Teorema 3.1. Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m 1,
respectivamente. Entonces, LK (V, W )
= Mmn (K).
on lineal. La idea es definir una funcion
Demostraci
on: Paso 1: Matriz de una transformaci
mX,Y : LK (V, W ) Mmn (K)
que asocia a cada transformaci
on lineal T : V W una matriz mX,Y (T ) = A = [aij ]; la matriz
A de la transformaci
on T se define de la siguiente manera: Sea X = {v1 , . . . , vn } una base de V y
Y = {w1 , . . . , wm } una base de W , el vector T (vj ) admite una expansion en terminos de la base Y en
la siguiente forma:
T (vj ) = a1j w1 + + amj wm ,

aij K,

1 i m, 1 j n.

Los coeficientes aij de las expansiones anteriores, dispuestos por columnas, determinan la matriz A:

a11 a1j a1n


a21 a2j a2n

A= .
..
..
..
..
..
.
.
.
.
am1 amj amn

Se dice entonces que A = mX,Y (T ) es la matriz de T en las bases X, Y . Es facil probar que mX,Y
es una transformaci
on lineal inyectiva.
on lineal definida por una matriz. Resta probar que mX,Y es sobreyectiPaso 2: Transformaci
va. Para esto se asocia a cada matriz A = [aij ] Mmn (K) una transformacion lineal T LK (V, W )
de tal forma que mX,Y (T ) = A. La transformacion T se define de la siguiente manera: consideremos
la funci
on
t:X
vj

W
a1j w1 + + amj wm

donde 1 j n. Seg
un el Teorema 2 del Captulo 2, la funcion t se extiende de manera u
nica a una
transformaci
on lineal T , definida de la siguiente manera: si v = x1 v1 + + xn vn , entonces
T (v) = x1 t(v1 ) + + xn t(vn ) = c1 w1 + + cm wm
donde
ci = ai1 x1 + + ain xn ,

1 i m.

Es obvio que mX,Y (T ) = A. Esto completa la prueba del teorema.


Una observaci
on final antes de terminar: si se identifica a (x1 , . . . , xn ) como el vector de coordenadas de v en la base X y a (c1 , . . . , cm ) como el vector de coordenadas de T (v) en la base Y ,
entonces la transformaci
on T se puede expresar matricialmente de la siguiente manera:


c1
a11 a1n
x1
.. ..
..
.. .. .
. = .
.
. .
cm

am1

amn

xn

Corolario 3.1. Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m 1,
respectivamente. Entonces, dim(LK (V, W )) = mn.

3.3. RANGO DE UNA MATRIZ

37

De la demostraci
on del Teorema 3.1 se deduce que la matriz asociada a la transformacion lineal nula
es la matriz nula; adem
as, si V = W , entonces la matriz asociada a la transformacion lineal identica
de V es la matriz identica. Otra consecuencia inmediata de la prueba del Teorema 3.1 es la siguiente
proposici
on.
Proposici
on 3.4. Sean V, W y U espacios vectoriales sobre el cuerpo K, de dimensiones n, m y
p, respectivamente. Sean T : V W y S : W U transformaciones lineales, X = {v1 , . . . , vn },
Y = {w1 , . . . , wm }, Z = {u1 , . . . , up } bases de V, W y U , respectivamente. SiA = mX,Y (T ) es
la matriz de T en las bases X, Y y B = mY,Z (S) es la matriz de S en las bases Y, Z, entonces
BA = mY,Z (S)mX,Y (T ) = mX,Z (ST ) es la matriz de ST en las bases X, Z. En otras palabras, la
matriz de una compuesta de transformaciones lineales es el producto de las matrices que representan
dichas transformaciones.
Si V = W = U , entonces se acostumbra a tomar X = Y = Z, y en tal caso se denota por por
mX : LK (V ) Mn (K) el isomorfismo del Teorema 3.1. N
otese que T, S LK (V ) y mX (ST ) =
mX (S)mX (T ).
Ya est
a probado el siguiente teorema.
Teorema 3.2. Si V es un K-espacio vectorial de dimensi
on finita n 1, entonces LK (V ) y Mn (K)
son
algebras isomorfas, en el siguiente sentido: existe una transformaci
on lineal biyectiva mX :
LK (V ) Mn (K) que satisface las siguientes condiciones:
1) mX (ST ) = mX (S)mX (T ), para cualesquiera T, S LK (V ).
2) mX (IV ) = E, donde E es la matriz identica de orden n.
Se debe notar que un
algebra es un espacio vectorial con estructura de anillo, de tal forma que se
pueden considerar los grupos de elementos invertibles de las algebras LK (V ) y Mn (K); estos grupos se
denotan por GLK (V ) y GLn (K), y se conocen como el grupo lineal general de automorfismos del
espacio V y el grupo lineal general de orden n sobre K, respectivamente. Notese que GLK (V )
es el grupo de automorfismos definido en Proposicion 2 del Captulo 2. Se tiene entonces el siguiente
resultado.
Corolario 3.2. Si V es un K-espacio vectorial de dimensi
on finita n 1, entonces GLK (V ) y GLn (K)
son grupos isomorfos, con isomorfismo definido por la restricci
on de la funci
on mX del Teorema 3.2
al grupo GLK (V ). En particular, T GLK (V ) mX (T ) GLn (K), donde X es cualquier base de
V.

3.3.

Rango de una Matriz

El rango de una transformaci


on lineal de un espacio de dimension finita se puede calcular por medio
del rango de la matriz asociada a dicha transformacion. En esta leccion se estudia la nocion de rango
para matrices.
Definici
on 3.4. Sea A = [aij ] una matriz de tama
no m n, cada columna A(j) de A se puede
m
considerar como un vector de K , de tal forma que el rango de A se define como la dimensi
on de la
envolvente lineal de las columnas de A, es decir,
rank(A) = dimhA(1) , . . . , A(n) i.
Proposici
on 3.5. Sean V y W dos K-espacios de dimensiones n 1 y m 1, respectivamente. Sea
T : V W una transformaci
on lineal y A = [aij ] = mX,Y (T ) la matriz de T en las bases X, Y de V
y W , respectivamente. Entonces, rank(T ) = rank(A).

CAPITULO 3. MATRICES

38

Demostraci
on: Sea X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }, puesto que Im(T ) = hT (v1 ), . . . , T (vn )i,
entonces rank(T ) coincide con el m
aximo n
umero de vectores linealmente independientes del conjunto
{T (v1 ), . . . , T (vn )}. Sea p = rank(T ), 0 p min{m, n}, si p = 0 entonces T = 0, y en consecuencia
A = 0, de donde, rank(A) = 0. Sea p 1 y {T (vj1 ), . . . , T (vjp )} una base de Im(T ). La idea es probar
que las columnas A(j1 ) , . . . , A(jp ) son LI y que p es el maximo n
umero de columnas LI de la matriz A.
Sean c1 , . . . , cp K tales que c1 A(j1 ) + + cp A(jp ) = 0, entonces
c1 a1j1 + + cp a1jp = 0
..
.
c1 amj1 + + cp amjp = 0
Por otro lado,
c1 T (vj1 ) + + cp T (vjp ) =
(c1 a1j1 w1 + + c1 amj1 wm ) + + (cp a1jp w1 + + cp amjp wm ) =
(c1 a1j1 + + cp a1jp ) w1 + + (c1 amj1 + + cp amjp ) wm =
0 w1 + + 0 wm = 0
de donde, por la independencia lineal de los vectores T (vj1 ), . . . , T (vjp ), se tiene que c1 = = cp = 0.
Se ha probado que las columnas A(j1 ) , . . . , A(jp ) son LI. Al suponer que A tiene q > p columnas LI,
entonces, realizando la misma prueba anterior en orden inverso, Im(T ) tendra q > p vectores LI, en
contradicci
on con p = rank(T ).
Sea A una matriz cuadrada de orden n 1, seg
un el paso 2 de la demostracion del Teorema 1, se
puede suponer que A es la matriz de una transformacion lineal T LK (K n ) en una cierta base X
de K n , por ejemplo, en la base can
onica de K n . Aplicando la proposicion anterior, el Teorema 2, el
Corolario 2 y Ejercicio 3 del Captulo 2, se obtiene el siguiente corolario.
Corolario 3.3. Se tiene que:
a) Una matriz cuadrada A de orden n 1 es invertible si y s
olo si rank(A) = n.
b) Sean A y B matrices cuadradas de orden n 1, entonces rank(AB) rank(A), rank(AB)
rank(B) y rank(AB) rank(A) + rank(B) n.
Adem
as, si A es invertible, entonces rank(AB) = rank(B) = rank(BA); tambien, si B es invertible,
entonces rank(AB) = rank(A) = rank(BA).
Ejericicio 3.2. Sea {e1 , e2 , e3 } la can
onica de R3 y t : R3 R3 la funcion definida por
t(e3 ) = 2.e1 2.e2
t(e2 + e3 ) = 3.e1 3.e2
t(e1 + e2 + e3 ) = 3.e1 3.e2 + e3
Demuestre que t induce una u
nica transformacion lineal T : R3 R3 . Calcule rank(T ) y la dimensi
on
del n
ucleo de T .
Soluci
on: Si la funci
on t act
ua sobre una base, entonces de acuerdo al Teorema 2 del Captulo 2, t induce
una u
nica transformaci
on lineal T . Pero efectivamente {e1, e2 + e3, e1 + e2 + e3} es una base de R3 ,
lo cual se puede verificar observando que estos tres vectores son LI. Entonces para la transformaci
on
lineal T se tiene que:
T (e3 ) = 2.e1 2.e2
T (e2 + e3 ) = 3.e1 3.e2
T (e1 + e2 + e3 ) = 3.e1 3.e2 + e3

3.4. CAMBIO DE BASE

39

Pero como T es lineal se puede hacer lo siguiente: T (e1 + e2 + e3 ) T (e2 + e3 ) = (3.e1 3.e2 + e3 )
(3.e1 3.e2 ) = e3 , es decir, T (e1 ) = e3 .
Similarmente, T (e2 + e3 ) T (e3 ) = (3.e1 3.e2 ) (2.e1 2.e2 ) = e1 e2 , de donde T (e2 ) = e1 e2 .
La matriz de T en la base can
onica es:

0
A= 0
1

1
2
1 2 ,
0
0

Mediante el SWP se encuentra que rank(A) = 2, luego el rango de T es tambien 2.


Mediante el Teorema 1 del Captulo 2 se encuentra que dim N (T ) = 1.
Ejericicio 3.3. Sea V el espacio de funciones derivables en R y U la envolvente lineal de las funciones
u1 (x) = e2x sen(3x), u2 (x) = e2x cos(3x). Si D : V V es el operador derivacion,
a) Demuestre que D(U ) U .
b) Demuestre que {u1 (x) , u2 (x)} es LI.
c) Calcule las matrices de D y D2 en la base X = {u1 (x) , u2 (x)} de U .
d) Calcule rank(D).
Soluci
on:
d
d
(e2x sin(3x)) = 2e2x sin 3x + 3e2x cos 3x U, dx
(e2x cos(3x)) : 2e2x cos 3x 3e2x sin 3x U ,
a) dx
esto demuestra que D(U ) U .

b) Sean a, b reales tales que ae2x sen(3x) + be2x cos(3x) = 0, entonces haciendo x = 0 resulta b = 0 y
tomando x = 2 resulta a = 0.
c)
mX (D) =

2
3

3
2

mX (D2 ) =

d)
rank(D) = rank
Adem
as,
rank(D2 ) = rank

3.4.

2
3
5
12

2
3
3
2

3
2


12
5

2

5
12

12
5

= 2.


= 2.

Cambio de Base

Sean V y W dos K-espacios de dimensiones n 1 y m 1, respectivamente. En el Teorema 1 se


vi
o como asociar a cada transformaci
on lineal T : V W una matriz A de tama
no m n fijando
un par de bases X en V y Y en W . Es logico pensar que al cambiar de bases la matriz de la transformaci
on T tambien cambie. En esta leccion se estudia la relacion entre las matrices de una misma
transformaci
on calculadas en diferentes bases.
Se tiene el siguiente preliminar.

CAPITULO 3. MATRICES

40

Proposici
on 3.6. Sea V un K-espacio de dimensi
on n 1 y X = {v1 , . . . , vn }, Z = {z1 , . . . , zn }
bases de V . Entonces, cada vector zj se puede representar como una combinaci
on lineal de los vectores
de la base X
zj = c1j .v1 + + cnj .vn ,

1 j n,

(3.1)

dando origen a una matriz cuadrada invertible C = [cij ] de orden n. C se denomina la matriz de
cambio de la base X a la base Z. Adem
as, C 1 es la matriz de cambio de la base Z a la base X.
Demostraci
on: De acuerdo al Corolario 3, basta probar que el rango de C es n, es decir, que las
columnas de C son LI. Sean a1 , . . . , an K tales que a1 .C (1) + + an .C (n) = 0, se tienen entonces
las relaciones
a1 .c11 + + an .c1n = 0
..
.
a1 .cn1 + + an .cnn = 0.
Considerese ahora la combinaci
on lineal
a1 .z1 + + an .zn = a1 .(c11 .v1 + + cn1 .vn ) + + an .(c1n .v1 + + cnn .vn ) =
(a1 .c11 + + an .c1n ).v1 + + (a1 .cn1 + + an .cnn ).vn = 0,
de donde, a1 = = an = 0. De otra parte, sea D = [dij ] la matriz de cambio de Z a X, es decir,
vj = d1j .z1 + + dnj .zn ,

1 j n,

(3.2)

reemplazando (3.2) en (3.1) resulta entonces que


zj = c1j .(d11 .z1 + + dn1 .zn ) + + cnj .(d1n .z1 + + dnn .zn ) =
(d11 c1j + + d1n cnj ).z1 + + (dn1 c1j + + dnn cnj ).zn ,
para cada 1 j n, es decir, (di1 c1j + + din cnj ) = 0 si i 6= j y (di1 c1j + + din cnj ) = 1 si i = j.
En otras palabras, DC = E (vease el producto de matrices definido en la primera leccion del presente
captulo). Remplazando (3.1) en (3.2) se obtiene que CD = E. Esto completa la demostracion de la
proposici
on.
Como cierre de la prueba se debe hacer la siguiente observacion: si (x1 , . . . , xn ) es el vector de coordenadas del vector v V en la base X y (u1 , . . . , un ) es el vector de coordenadas de v en la base Z,
entonces


u1
d11
.. ..
. = .
un
dn1

..
.

d1n
x1
.. ..
. .
dnn
xn

El cambio de base se puede expresar matricialmente de la siguiente manera:


z1
c11
.. ..
Z= . = .
zn
c1n

..
.

cn1
v1
v1
.. .. = C T .. = C T X.
.
. .
cnn
vn
vn

Usando esta notaci


on matricial es f
acil probar la siguiente proposicion.

3.4. CAMBIO DE BASE

41

Proposici
on 3.7. Sea V un K-espacio de dimensi
on n 1 , X = {v1 , . . . , vn } una base de V y F
una matriz invertible de orden n. Entonces {z1 , . . . , zn } es una base de V , donde

v1
z1
.
..
. = F .. .
vn

zn

Ya se puede enunciar el teorema de cambio de base.

Teorema 3.3. Sea T : V W una transformaci


on lineal, donde dim(V ) = n 1 y dim(W ) = m 1.
Sean X1 = {v1 , . . . , vn }, X2 = {x1 , . . . , xn } bases de V y Y1 = {w1 , . . . , wm }, Y2 = {z1 , . . . , zm } bases
de W . Si A = mX1 ,Y1 (T ) es la matriz de T en las bases X1 , Y1 , y B = mX2 ,Y2 (T ) es la matriz de T
en las bases X2 , Y2 , entonces
B = D1 AC,
donde C es la matriz de cambio de la base X1 a la base X2 y D es la matriz de cambio de la base Y1
a la base Y2 .
Demostraci
on: De las definiciones de las matrices A, B, C y D se tienen las siguientes relaciones:

T (vj ) =

m
X

akj .wk

k=1
m
X

T (xj ) =
xj =
zj =

k=1
n
X

bkj .zk
ckj .vk

k=1
m
X

dkj .wk

k=1

Entonces,

T (xj ) =

n
X

ckj .T (vk ) =

k=1

T (xj ) =

n
X

k=1
m
X

k=1

ckj .
bkj .

"

m
X

r=1
"m
X

ark .wr ;
#

drk .wr ,

r=1

de donde,
" n
m
X
X
r=1

ark ckj .wr =

k=1
n
X

k=1

ark ckj =

"m
m
X
X

r=1
m
X

k=1

drk bkj ,

k=1

drk bkj .wr ,

1jn

1 j n, 1 r m,

es decir, AC = DB, con lo cual, B = D1 AC.


En el caso en que V = W , se acostumbra tomar solo un par de bases X, Y en V , es decir, X1 =
X, X2 = Y, Y1 = X, Y2 = Y . El teorema anterior toma entonces la siguiente forma.

CAPITULO 3. MATRICES

42

Corolario 3.4. Sea V un espacio vectorial de dimensi


on finita n 1 y sean X = {v1 , . . . , vn }, Y =
{w1 , . . . , wn } bases de V . Sea T : V V es una transformaci
on lineal , A = mX (T ) y B = mY (T ).
Entonces
B = C 1 AC,
donde donde C es la matriz de cambio de la base X a la base Y .
Si el lector conoce una manera de calcular la inversa de una matriz, entonces puede emprender ya la
soluci
on de los siguientes ejercicios, en caso contrario debe pasar a la Leccion 6.
Ejericicio 3.4. Sea
T : R2 [x] R2 [x]
una transformaci
on lineal definida por la matriz

0 0
0 1
1 0

1
0
0

en la base can
onica X de R2 [x]. Calcular la matriz de T en la base Y = {3x2 + 2x, 5x2 + 3x + 1, 7x2 +
5x + 3}.
Soluci
on: Basta aplicar el Corolario 3. Sea X la base canonica de R2 [x] y sea Y la base dada. Debemos
entonces calcular la matriz de cambio C de la base X a la base Y y tambien calcular su inversa:

1
2 1
0 1 3
3
C= 2 3 5
,
C 1 = 41 94
2
1
3
3 5 7
12
4
4

Ahora basta calcular mY (T ) = C 1 AC, donde A es la matriz dada. Este producto da:

1
0
0
4 5
C 1 AC = 15
4
9
3
4
4

Ejericicio 3.5. En el espacio R3 [x] se definen dos funciones t y s de la siguiente manera:


t(a0 + a1 x + a2 x2 + a3 x3 ) = a0 + a1 x + a2 x2
s(x2 + x3 ) = x + x3
s(x + x3 ) = 1 + x3
s(1 + x3 ) = 1 + x + x2 + x3
s(1 + x + x2 + x3 ) = 0.
a) Calcular las matrices de las transformaciones T y S inducidas por t y s, respectivamente, en las
siguientes bases: X = can
onica y Y = {1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 }.
b) Calcular las matrices de las transformaciones ST y T S en las mismas bases de la parte a).

3.5.

Equivalencia y Similaridad

El Teorema 3 y Corolario 3 de la lecci


on anterior inducen los conceptos de equivalencia y similaridad
de matrices que se estudian en esta leccion. Esto permitira presentar una matriz de rango r 0 en
una forma bastante simple por medio de una matriz equivalente.

3.5. EQUIVALENCIA Y SIMILARIDAD

43

Definici
on 3.5. Sean A y B matrices de tama
no m n, se dice que A es equivalente a B, lo cual
se denota por A B, si existen matrices invertibles D de orden m y C de orden n tales que
B = DAC.
Para las matrices cuadradas, adem
as del concepto de equivalencia, se tiene otro de mayor uso como
es el de similaridad: sean A y B matrices de orden n, se dice que A es similar a B, lo cual se denota
por A B, si existe una matriz invertible C de orden n tal que
B = C 1 AC.
Para las matrices cuadradas similaridad implica equivalencia, pero no necesariamente se da el recproco.
Es claro que define una relaci
on de equivalencia en el espacio Mmn (K) y define una relaci
on de
equivalencia en el a
lgebra Mn (K), por lo tanto, estos conjuntos quedan particionados en clases de
equivalencia.
Proposici
on 3.8. Dos matrices A, B Mmn (K) son equivalentes si y s
olo si representan la misma
transformaci
on lineal.
Demostraci
on. Sea T : V W una transformacion lineal de un espacio V de dimension finita n 1
en un espacio W de dimensi
on finita m 1. Sean X1 , X2 bases de V y Y1 , Y2 bases de W (vease
el Teorema 3 de la lecci
on anterior), entonces siendo A = mX1 ,Y1 (T ) y B = mX2 ,Y2 (T ) se tiene que
A B, es decir, si A y B representan la misma transformacion lineal en diferentes bases, entonces
A B.
Debemos ahora mostrar el recproco. Sean A y B matrices equivalentes de tama
no m n. Entonces existe D invertible de orden m y C invertible de orden n tales que B = D1 AC. Sea X1 una base
de V y Y1 una base de W ; sabemos que C T y DT son matrices invertibles y que X2 = C T X1 es una
base de V y Y2 = DT Y1 es una base de W (vease la Proposicion 7). Seg
un la Proposicion 6, C es la
matriz de cambio de la base de X1 a X2 y D es la matriz de cambio de Y1 a Y2 . Por el paso 2 de la
demostraci
on del Teorema 1, A es la matriz de una transformacion T1 en las bases X1 , Y1 y B es la
matriz de una transformaci
on T2 en las bases X2 , Y2 , es decir, A = mX1 ,Y1 (T1 ) y B = mX2 ,Y2 (T2 ). Se
tiene entonces que
mX2 ,Y2 (T1 ) = D1 mX1 ,Y1 (T1 )C = D1 AC = B = mX2 ,Y2 (T2 ),
pero como mX2 ,Y2 es una funci
on inyectiva (por ser un isomorfismo, Teorema 1), entonces T1 = T2 .
Del Corolario 3 y a partir de que similaridad implica equivalencia, se tiene inmediatamente el siguiente
resultado.
Proposici
on 3.9. Si A, B Mn (K) son similares, entonces A y B representan la misma transformaci
on lineal.
La idea ahora es calcular el n
umero de clases de equivalencia determinados por la relacion en el
espacio Mmn (K).
Proposici
on 3.10. Sea A Mmn (K). rank(A) = r si y s
olo si A es equivalente a una matriz de la
forma


E
0

0
0

(3.3)

donde E es la matriz identica de orden r, 0 r m (el caso r = 0 corresponde a la matriz nula).

44

CAPITULO 3. MATRICES

Demostraci
on: ) Sea T : K n K m la transformacion lineal correspondiente a la matriz A en
un par de bases X de K n y Y de K m (vease el paso 2 del Teorema 1 aplicado al caso V = K n ,
W = K m ). Puesto que rank(A) = rank(T ), entonces la dimension del n
ucleo de T es p = n r (vease
el Teorema 1 del Captulo 2). Sea {v1 , . . . , vp } una base del n
ucleo de T , la cual se completa hasta una
base X0 = {v1 , . . . , vp , vp+1 , . . . , vp+r } de K n . Se sabe que {z1 = T (vp+1 ), . . . , zr = T (vp+r )} es una
base de la imagen de T , la cual se completa hasta una base Z1 = {z1 , . . . , zr , zr+1 , . . . , zm } de K m .
Reordenando X0 se obtiene la base X1 = {vp+1 , . . . , vp+r , v1 , . . . , vp } y es claro que


E 0
mX1 ,Z1 (T ) =
,
0 0
donde E es la matriz identica de orden r. El caso r = 0 corresponde a la transformacion nula, y por
lo tanto, a la matriz nula. Seg
un el Teorema 3, A mX1 ,Z1 (T ).
) Si A es equivalente a una matriz de la forma (3.3), entonces A y (3.3) representan la misma transformaci
on lineal, de donde, rank(A) coincide con el rango de la matriz de (3.3), es decir, rank(A) = r.

Es conveniente anotar que la proposici


on anterior no es valida en general para similaridad. En efecto,
si A es una matriz cuadrada de rango r, entonces A no es necesariamente similar a una matriz de la
forma descrita en la proposici
on. Por ejemplo, la matriz


0 0
A=
1 0
tiene rango 1, sin embargo no existe una matriz invertible C tal que


1 0
1
C AC =
.
0 0
Corolario 3.5. Dos matrices A y B de Mmn (K) son equivalentes si y s
olo si tienen el mismo rango.
En efecto, Si A B, entonces A y B representan una misma transformacion lineal T , y por lo tanto,
rank(A) = rank(T ) = rank(B). De otra parte, la Proposicion 10 y la transitividad de la relacion
demuestran la afirmaci
on recproca.
El corolario anterior no se tiene para la relacion de similaridad, es decir, dos matrices cuadradas
pueden tener el mismo rango y no ser similares. El mismo contraejemplo mostrado arriba sirve en este
caso.
Corolario 3.6. La relaci
on determina una partici
on del espacio Mmn (K) en t = mn{m, n} + 1
clases de equivalencia.
Demostraci
on: El n
umero t de clases de equivalencia esta determinado por los posibles valores para el
rango de una matriz de Mmn (K) (vease el Corolario 4). Estos posibles valores son: {0, 1, 2, . . . , mn{m, n}},
es decir, t = mn{m, n} + 1.
Corolario 3.7. Sea A Mmn (K). Entonces, rank(AT ) = rank(A). En otras palabras, el rango de
una matriz coincide con el m
aximo n
umero de filas LI.
Demostraci
on: Sea rank(A) = r, entonces existen D invertible de orden m y C invertible de orden n
tal que


E 0
DAC =
,
0 0

3.6. MATRICES INVERTIBLES

45

donde E es la identica de orden r. Entonces,


T

(DAC) =

E
0

0
0

T

=C A D =

E
0

0
0

Teniendo en cuenta que C T y DT son matrices invertibles, entonces por la Proposicion 10,
rank(AT ) = r.

3.6.

Matrices Invertibles

El metodo para calcular la inversa de una matriz mediante operaciones sobre las filas y columnas
ser
a completamente explicado y justificado en esta leccion.
Definici
on 3.6. Sea {Ers } la base can
onica del
algebra Mn (K), se definen los siguientes tres tipos de
matrices elementales:
a) Transvecciones: son matrices cuadradas de orden n de la forma

Tij (a) = E + a Eij =

1
0
..
.
..
.
0

..
.
..
.
..
.

a
..
.
..
.

..
.

0
..
.
..
.
1

..

i 6= j,

donde a K est
a ubicado en la intersecci
on de la i-esima fila y la j-esima columna, y E es la
identica de orden n.
b) Permutaciones: son matrices cuadradas de orden n de la forma

Pij = E Eii Ejj

+ Eij + Eji =

1
0
..
.
..
.
0

0
..
.
1

..
.
..
.

1
..
.
0

0
0
..
.
..
.
1

es decir, Pij intercambia las filas i y j de la matriz identica. Los ndices i, j son cualesquiera, el
caso i = j corresponde a la matriz identica.
c) Diagonales: son matrices cuadradas de orden n de la forma

Di (a) = E Eii + a.Eii = E + (a 1)Eii =

1
0
..
.
..
.
0

..
.
..
.
..
.

..
.

0
..
.
..
.
1

a
..
.

..

donde a K {0}, 1 i n, es decir, Di (a) coincide con la matriz identica salvo en la entrada
(i, i) en la cual aparece ubicado el elemento a. Si a = 1, entonces Di (a) = E.

CAPITULO 3. MATRICES

46
Las matrices elementales son invertibles:
Tij (a)1 = Tij (a)
Pij1 = Pij
Di (a)1 = Di (a1 ).

La multiplicaci
on, a izquierda o derecha, de una matriz A Mmn (K) por cada una de las matrices
elementales tiene un efecto interesante sobre sus filas y columnas. Estos efectos se conocen como
operaciones elementales sobre las filas y columnas de una matriz:
a) Tij (a) A implica sumar a la i-esima fila de A su j-esima fila multiplicada por a. De otra parte,
ATij (a) indica sumar a la j-esima columna de A la i-esima multiplicada por a.
b) Pij A intercambia las filas i y j de la martiz A. El intercambio de las columnas i, j de A se obtiene
mediante el producto APij .
c) El producto Di (a)A corresponde a multiplicar la i-esima fila de A por el escalar a. El producto
ADi (a) corresponde a multiplicar la i-esima columna de A por a.
Teorema 3.4. Toda matriz invertible se puede factorizar como un producto finito de matrices elementales.
Demostraci
on: La prueba se realiza por induccion sobre el orden n de las matrices.
n = 1 : En este caso las matrices invertibles son los escalares no nulos del cuerpo K, los cuales pueden
ser considerados como matrices diagonales.
n = 2 : Sea
A=

a11
a21

a12
a22

una matriz invertible. a11 y a12 no pueden ser simultaneamente nulos debido a que el rango de A es
dos (vease el Corolario 3 del Captulo 3). Considerense pues dos casos. Si a11 6= 0, entonces


1 b12
AD1 (a1
)
=
= B,
11
b21 b22
y

T21 (b21 )B =

1
0

c12
c22

= C.

CT12 (c12 ) =

1
0

0
f22

= F.

Tambien,

En total, F = T21 (b21 )AD1 (a1


11 )T12 (c12 ), de donde A se puede despejar como un producto de
transvecciones y diagonales. N
otese que F es invertible ya que es producto de invertibles.
Si a12 6= 0 entonces se puede reducir esta situacion a la anterior multiplicando la matriz A a la derecha
por la permutaci
on P12 , y entonces A nuevamente se puede expresar como un producto de elementales.
La prueba del caso n = 2 est
a completa.
Sup
ongase que el teorema ha sido probado para matrices de tama
no n n y sea A una matriz de
tama
no (n + 1) (n + 1). No es posible que todos los elementos de la primera fila de A sean nulos; al
igual que en el caso n = 2 se puede desde ya asumir que a11 6= 0. La matriz

3.6. MATRICES INVERTIBLES

47

B = AD1 (a1
11 )
es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por transvecciones adecuadas hasta
obtener una matriz invertible C de la forma
C=

1
0

0
A0

donde A0 es una matriz de orden n. Puesto que C es invertible, entonces el rango de A0 es n, es decir,
A0 es invertible. Por inducci
on, A0 se puede factorizar en un producto de matrices elementales de
orden n : A0 = F1 Ft . La matriz C se puede entonces escribir en la forma:
C=

1
0

0
F1 Ft

1
0

0
F1

1
0

0
Ft

Puesto que cada matriz Fi , 1 i t, es elemental de orden n, entonces C queda factorizada en un


producto de matrices elementales de orden n + 1, de donde, A se expresa como un producto finito de
matrices elementales de orden n + 1.

Corolario 3.8. Sean A, B Mmn (K). Entonces, A B si y s


olo si B se obtiene relizando operaciones
elementales sobre las filas y/o columnas de A.
El Teorema 4 justifica plenamente el algoritmo para determinar la inversa de una matriz A mediante
la realizaci
on de operaciones elementales sobre sus filas y columnas. En efecto, sea A1 la inversa de la
matriz A, entonces A1 se puede expresar como un producto de matrices elementales, A1 = F1 Ft .
Entonces, A1 A = E = F1 Ft A, pero cada matriz elemental representa una operacion elemental
sobre las filas de A, entonces, realizando estas mismas operaciones sobre las filas de E obtenemos A1 ,
es decir, F1 Ft E = A1 (La relaci
on AA1 = E indica que el trabajo se puede hacer tambien por
columnas). De acuerdo a lo anterior, se puede construir la matriz ampliada


| E

y realizar operaciones elementales sobre sus filas hasta obtener la identica en la parte izquierda, en la
parte derecha aparecer
a precisamente la inversa de A.
El resultado del Teorema 4 combinado con el Corolario 3 y el Corolario 6 puede tambien ser usado para calcular el rango de una matriz, o lo que es lo mismo, el rango de un sistema finito de vectores
de K m . En efecto, realizando operaciones elementales sobre las filas y o columnas de una matriz es
posible reducirla a otra en la cual se pueda determinar por simple inspeccion cual es su rango.
Ejericicio 3.6. Expresar la matriz A como producto de matrices elementales; calcule ademas la inversa
de A:

2
5
A=
2
3

1
3
3
1

1
1
1
0

1
1
.
0
1

Ejericicio 3.7. Determine el rango del siguiente sistema de vectores: x1 = {1, 1, 1, 1}, x2 = {1, 1, 1, 1}, x3 =
{1, 1, 1, 1}.

CAPITULO 3. MATRICES

48

3.7.

Ejercicios

Esta secci
on contiene una lista de ejercicios de aplicacion a los temas tratados en el presente captulo.
Se sugiere a los estudiantes resolver estos problemas, los cuales ayudaran a reforzar el aprendizaje.
1. Determinar todas las matrices de M3 (K) que conmutan con la matriz

0
A= 0
0

1
0
0

0
1
0

2. Una matriz cuadrada diagonal se dice escalar si todos los elementos de su diagonal son iguales.
Demostrar que si A Mn (K) conmuta con todas las matrices de Mn (K), entonces A es escalar.
3. Sean A, B matrices rectangulares de tama
no m n y p q, respectivamente. El producto
Kronecker de las matrices A y B es una matriz de tama
no mp nq y se define por

a11 B

..
AB =
.
am1 B

..
.

a1n B

..

.
amn B

Demostrar que el producto Kronecker tiene las siguientes propiedades:


a) (aA) B = A (aB) = a(A B)
b) (A + B) C = A C + B C
c) A (B + C) = A B + A C
d) Si los productos AB y CD, tienen sentido, entonces (AB) (CD) = (A C)(B D)
e) Si A, B son matrices cuadradas de orden m y n, respectivamente, entonces tr(A B) =
tr(A)tr(B) (la traza de una matriz cuadrada se define como la suma de los elementos de
su diagonal principal). En el siguiente captulo se repasa el concepto de determinante y sus
propiedades. Demostrar que det(A B) = (det A)n (det B)m .
4. Sea A una matriz cuadrada de tama
no n 2 tal que todas sus entradas son iguales a 1. Demostrar
1
A.
que (E A)1 = E n1
5. Sean P, Q matrices cuaradas invertibles de orden m y n, respectivamente. Sea {Eij } la base
can
onica de Mmn (K). Demostrar que las matrices Fij = P Eij Q con 1 i m, 1 j n
conforman una base de Mmn (K). Calcular la matriz de cambio de la base canonica a esta nueva
base.


R1
6. Sea T : R3 [x] R2 la transformacion lineal definida por T (p(x)) = p(0), 0 p(x)dx . Encontrar
la matriz de T relativa a las bases canonicas de R3 [x] y R2 .

7. Sea A una matriz invertible, se dice que A es una involuci


on si A1 = A. Probar que A es una
involuci
on si y s
olo si (E A) (E + A) = 0.
8. Sean A, B matrices invertibles tales que A + B es invertible. Demostrar que A1 + B 1 es
invertible.

3.7. EJERCICIOS

49

9. Sea A una matriz cuadrada. Demostrar que A = 0 si y solo si AAT = 0.


10. Sean A, B matrices cuadradas de orden n 1 tales que AB = E. Demostrar que BA = E.
11. Sea V = R4 y sea U = h(1, 1, 1, 1) , (3, 2, 0, 3) , (0, 1, 0, 3)i. Encontrar una base para U y extenderla a una base de V . Adem
as, sea V = C4 y sea
U = h(1, 1, 0, 1) , (2i 1, 2i, i, 2i) , (i, 0, 0, 1 + i) , (i, i, 0, 1)i .
Calcular una base para U y completar esta hasta una base de C4 .
12. Sea V el espacio vectorial real de todas las funciones de la forma f (x) = a cos(x) + b sin(x) y
2
consideremos las transformaciones
lineales A : V V y B : V V dadas por A(f ) = ddxf2 5f

y B(f )(x) = f x + 2 . Encontrar la matriz de A y de B en la base {cos(x), sin(x)}.

50

CAPITULO 3. MATRICES

Captulo 4

Determinantes
Introducci
on
El determinante puede ser considerado como una funcion que cumple cuatro propiedades basicas. En
este captulo se ve que cualquier funci
on del algebra de matrices cuadradas en el cuerpo de trabajo
que cumpla estas propiedades b
asicas es la funcion determinante.

4.1.

Funciones Multilineales

Los determinantes de las matrices pueden ser considerados como funciones que cumplen cuatro propiedades b
asicas. En este captulo se vera que cualquier funcion del algebra de matrices cuadradas
Mn (K) en el cuerpo K que cumpla dichas propiedades es necesariamente la funcion determinante. La
primera lecci
on est
a dedicada al estudio de esas propiedades basicas.
Definici
on 4.1. Sea V un espacio vectorial sobre un cuerpo K, una funci
on multilineal de m
argumentos sobre el espacio V es una funci
on
D : V V K
|
{z
}
mveces

que es lineal en cada argumento, es decir, D satisface las siguientes condiciones:


a) Para cada 1 i m,
D(v1 , . . . , vi + ui , . . . , vm ) = D(v1 , . . . , vi , . . . , vm ) + D(v1 , . . . , ui , . . . , vm ),
b) Para cada 1 i m,
D(v1 , . . . , a vi , . . . , vm ) = a D(v1 , . . . , vi , . . . , vm ),
c) D es alternada si D cumple la siguiente condici
on:
D(v1 , . . . , vi , vi , . . . , vm ) = 0
para cada 1 i m 1. Es decir, D es alternada si D se anula cuando dos argumentos consecutivos coinciden.
Sea D una funci
on multilineal alternada de m argumentos sobre un espacio V . Entonces se
puede demostrar f
acilmente que D satisface las siguientes propiedades.
51

CAPITULO 4. DETERMINANTES

52

d) Si se intercambian dos argumentos de D el signo cambia, es decir,


D(v1 , . . . , vi , . . . , vj , . . . , vm ) = D(v1 , . . . , vj , . . . , vi , . . . , vm ),
para cualquier par i 6= j.
e) Si existe un par i 6= j tal que vi = vj , entonces
D(v1 , . . . , vi , . . . , vj , . . . , vm ) = 0
f ) Si a un argumento se le suma otro multiplicado por un escalar, entonces el valor de la funci
on
D no cambia. Es decir,
D(v1 , . . . , vi + a vj , . . . , vm ) = D(v1 , . . . , vi , . . . , vm )
para cada par i 6= j y cada escalar a K.
g) Si un argumento de D es nulo, entonces D se anula, es decir,
D(v1 , . . . , vi , . . . , 0, . . . , vm ) = 0.
Proposici
on 4.1. Sea V un espacio vectorial de dimensi
on finita n 1 y sea X = {x1 , . . . , xn } una
base de V . Sean D1 y D2 dos funciones multilineales alternadas de n argumentos sobre el espacio V .
D1 = D2 si y s
olo si D1 (x1 , . . . , xn ) = D2 (x1 , . . . , xn ).
Demostraci
on: Sean v1 , . . . , vn V , entonces existen escalares aij K, 1 i, j n , tales que
v1 = a11 x1 + + a1n xn
..
.
vn = an1 x1 + + ann xn .
Entonces,
D1 (v1 , . . . , vn ) =
D1 (a11 x1 + + a1n xn , v2 , . . . , vn ) =
a11 D1 (x1 , v2 , . . . , vn )+

a12 D1 (x2 , v2 , . . . , vn )+
..
.
a1n D1 (xn , v2 , . . . , vn ) =
a11 [a21 D1 (x1 , x1 , v3 , . . . , vn ) + + a2n D1 (x1 , xn , v3 , . . . , vn )] +
a12 [a21 D1 (x2 , x1 , v3 , . . . , vn ) + + a2n D1 (x2 , xn , v3 , . . . , vn )] +
..
.
a1n [a21 D1 (xn , x1 , v3 , . . . , vn ) + + a2n D1 (xn , xn , v3 , . . . , vn )] ;
si se continua aplicando la linealidad de D1 en cada uno de sus argumentos, se obtiene una suma de
nn sumandos de la siguiente forma:
X
a1f (1) a2f (2) anf (n) D1 (xf (1) , . . . , xf (n) )
f F

DETERMINANTE
4.2. LA FUNCION

53

donde F es el conjunto de todas las funciones del conjunto {1, 2, . . . , n} en si mismo. Notese que F tiene
nn elementos. Pero como D1 se anula cuando al menos dos de sus argumentos son iguales, entonces la
suma anterior se reduce a una de s
olo n! sumandos, es decir,
X
D1 (v1 , . . . , vn ) =
a1f (1) a2f (2) anf (n) D1 (xf (1) , . . . , xf (n) ),
f S

donde S F est
a conformado por todas las funciones biyectivas de {1, 2, . . . , n} en si mismo. Notese
que este mismo procedimiento se puede aplicar a la funcion D2 , es decir,
X
D2 (v1 , . . . , vn ) =
a1f (1) a2f (2) anf (n) D2 (xf (1) , . . . , xf (n) )
f S

Aplicando ahora la propiedad (d), se puede decir que

D1 (xf (1) , . . . , xf (n) ) = signo(f )D1 (x1 , . . . , xn )


D2 (xf (1) , . . . , xf (n) ) = signo(f )D2 (x1 , . . . , xn ),
donde signo(f ) = 1 en el caso en que se realizara un n
umero par de transposiciones para llevar
(xf (1) , . . . , xf (n) ) a la forma (x1 , . . . , xn ), y signo(f ) = 1 para un n
umero impar de transposiciones
para llevar (xf (1) , . . . , xf (n) ) a la forma (x1 , . . . , xn ). As pues,

D1 (v1 , . . . , vn ) =

D2 (v1 , . . . , vn ) =

f S

f S

signo(f )a1f (1) a2f (2) anf (n) D1 (x1 , . . . , xn )

signo(f )a1f (1) a2f (2) anf (n) D2 (x1 , . . . , xn ).

Con lo supuesto en el enunciado de la proposicion se completa la prueba.

En realidad se ha demostrado que una funcion multilineal alternada de n argumentos sobre un espacio V de dimensi
on finita n queda determinada por su accion sobre los vectores de alguna base X
previamente fijada.

4.2.

La Funci
on Determinante

Cada fila de una matriz cuadrada A Mn (K) puede considerarse como un vector de K n de tal forma
que se pueden definir funciones multilineales de Mn (K) en K. Seg
un la Proposicion 1 de la lecci
on
anterior, cada funci
on multilineal alternada D : Mn (K) K queda completamente determinada por
su acci
on sobre los vectores de una base. Esto permite definir el concepto de funcion determinante de
la siguiente manera.
Definici
on 4.2. Sea Mn (K) el
algebra de matrices cuadradas de tama
no n 1 y sea X = {e1 , . . . , en }
la base can
onica de K n . Se define la funci
on determinante como la u
nica funci
on multilineal alternada
det : Mn (K) K
que satisface la condici
on det(e1 , . . . , en ) = 1, es decir, det(E) = 1, donde E es la matriz identica de
orden n.

CAPITULO 4. DETERMINANTES

54

Si A = [aij ] Mn (K), entonces cada fila A(i) de A puede expresarse en la forma A(i) = ai1 e1 + +
ain en y, de acuerdo a la demostraci
on de la Proposicion 1, necesariamente se tiene que

det(A) =

f S

es decir,

signo(f )a1f (1) a2f (2) anf (n) det(e1 , . . . , en ),

det(A) =

f S

signo(f )a1f (1) a2f (2) anf (n) ,

donde S es el conjunto de funciones biyectivas de {1, 2, . . . , n} en si mismo. El signo de la funcion f


fue definido en al prueba de la Proposicion 1. Cualquier funcion multilineal alternada D de Mn (K) en
K tal que D(E) = 1 coincide con la definicion anterior de la funcion det.
Ejericicio 4.1. Sea

a11
A = a21
a31

a12
a22
a32

a13
a23 M3 (K).
a33

A partir de la definic
on de la funci
on det demuestre que

det(A) = a11 (a22 a33 a32 a23 ) a21 (a12 a33 a32 a13 ) + a31 (a12 a23 a22 a13 )
Soluci
on: Debemos calcular todas las funciones biyectivas del conjunto {1, 2, 3} en si mismo:
f1 =


123
, signo(f1 ) = +1,
123

f3 =


123
, signo(f3 ) = 1,
321

 
123
f5 =
, signo(f5 ) = +1,
231

f2 =


123
, signo(f2 ) = 1,
132

f4 =


123
, signo(f4 ) = 1,
213

f6 =


123
, signo(f6 ) = +1
312

Entonces,
det(A) =signo(f1 )a11 a22 a33 + signo(f2 )a11 a23 a32 + signo(f3 )a13 a22 a31 +
signo(f4 )a12 a21 a33 + signo(f5 )a12 a23 a31 + signo(f6 )a13 a21 a32 =
a11 a22 a33 a11 a23 a32 a13 a22 a31 a12 a21 a33 + a12 a23 a31 + a13 a21 a32 =
a11 (a22 a33 a32 a23 ) a21 (a12 a33 a32 a13 ) + a31 (a12 a23 a22 a13 )

4.3.

Propiedades

Teniendo en cuenta que la funci


on determinante es multilineal y alternada respecto de sus filas, entonces
det tiene las propiedades que se enuncian a continuacion. Sea A una matriz cuadrada de orden n 1.

4.3. PROPIEDADES

55

donde ui K n .

donde a K.

a) det

A(1)
..

A(i) + ui
= det(A) + det ui ,
.

..
..

.
A(n)
A(n)

A(1)
..
.

A(1)
..
.

b) det
a . A(i)

..

.
A(n)

= a det A.

c) Si existe un par i 6= j tal que A(i) = A(j) , entonces det(A) = 0.

A(1)
A(1)
..
..
.
.

A(j)
A(i)

d) det ... = det ... ,

A(i)
A(j)

.
.
..
..
A(n)
A(n)
para cada par i 6= j.

A(1)

..

A(i) + a . A(j)

..
e) det
= det(A),
.

A(j)

..

.
A(n)
para cada par i 6= j.

A(1)
..
.

f) det
0 = 0.
.
..
A(n)
Adem
as de las propiedades anteriores se tienen las siguientes.
g) La matriz A se dice que es triangular superior si aij
siguiente aspecto

a11 ain

..
..
A= 0
.
.
0
0 ann

= 0 para i > j, es decir, A tiene el

CAPITULO 4. DETERMINANTES

56

Si A es una matriz triangular superior, entonces det(A) = a11 ann , es decir, el determinante
de A es el producto de los elementos de la diagonal.
h) det(AB) = det(A) det(B).
i) Si A es una matriz invertible, entonces det(A) 6= 0 , y ademas, det(A1 ) = (det(A))1 .
j) Si A B, entonces det(A) = det(B).
k) Sea T : V V una transformaci
on lineal de un espacio de dimension finita n 1. Entonces el
determinante de T se define como el determinante de la matriz de T en cualquier base (vease
la Proposici
on 9 del Captulo 3).
l) det(AT ) = det(A).
Ejericicio 4.2. (Determinante de Vandermonde) Sean x1 , . . . , xn K, entonces

det

1
x1
x21
..
.

1
x2
x22
..
.

xn1
1

x2n1

1
xn
x2n
..
.
xn1
n

= 1 i< j n (xj xi ).

Ejericicio 4.3. Sea A una matriz de orden n, B una matriz de orden m y C un matriz de orden
n m. Entonces


A C
det
= det(A) det(B).
0 B
Ejericicio 4.4. Sea A, B y C como en el ejercicio anterior. Entonces


C A
det
= (1)nm det(A) det(B).
B 0

4.4.

Regla de Cramer

La teora de determinantes puede ser emprendida por medio de los llamados menores de una matriz.
La definici
on de una nueva funci
on Det en este caso se hace por induccion sobre el tama
no de las
matrices.
Definici
on 4.3. Se define
Det1 : M1 (K)
[a] 7
Det
 2 : M2 (K)

a11 a12
7
a21 a22

K
Det1 (a) = a

K
a11 Det1 [a22 ] a21 Det1 [a12 ] = a11 a22 a21 a12 .

La funci
on Detn1 : Mn1 (K) K se supone definida y se quiere construir la funci
on
Det = Detn : Mn (K) K .
Sea A = [aij ] Mn (K), para el elemento aij se define la matriz Aij Mn1 (K) suprimiendo la
i-esima fila y la j-esima columna de A , es decir,

4.4. REGLA DE CRAMER

57

a11
..
.

ai11
Aij =
ai+11

.
..
an1

..
.

a1j1
..
.

a1j+1
..
.

..
.

a1n
..
.

..
.

ai1j1
ai+1j1
..
.

ai1j+1
ai+1j+1
..
.

..
.

ai1n
ai+1n
..
.

anj1

anj+1

ann

La imagen de Aij a traves de la funci


on Detn1 se conoce como el menor del elemento aij y se denota
por Mij , es decir,
Mij = Detn1 (Aij ).
Det se define entonces por

Det(A) =

n
X

(1)i+1 ai1 Mi1 .

(4.1)

i=1

Proposici
on 4.2. Det es una funci
on multilineal alternada sobre las filas de las matrices de orden n
que cumple adem
as la condici
on Det(E) = 1. En consecuencia, Det = det.

Se dice que la f
ormula (4.1) define la funcion determinante por los menores de la primera columna,
adaptando esta f
ormula a cualquier otra columna se puede probar tambien la proposicion anterior,
adem
as, como det(AT ) = det(A), entonces se tienen las siguientes igualdades:

Det(A) =

n
X

(1)i+j aij Mij =

i=1

n
X

(1)i+j aij Mij

(4.2)

j=1

para cada 1 i, j n. Estas f


ormulas pueden usarse para probar la regla de Crammer que se estudia
enseguida.
Definici
on 4.4. Sea A = [aij ] una matriz de orden n, se define la matriz cofactor de A por
Cof (A) = [(1)i+j Mij ].
La regla de Crammer est
a entonces dada por el siguiente teorema.
Teorema 4.1. Sea A una matriz cuadrada de orden n 1. Entonces,

ACof (A)T =

det(A)
0
0

0
..
.
0

= Cof (A)T A.
0
det(A)

Una consecuencia importante de este u


til teorema es el siguiente corolario.
Corolario 4.1. Sea A una matriz de orden n 1. Entonces, A es invertible si y s
olo si det(A) 6= 0.
En tal caso, A1 = (det(A))1 Cof (A)T .

CAPITULO 4. DETERMINANTES

58

4.5.

Sistemas de Ecuaciones Lineales

En esta lecci
on se presentan los aspectos teoricos involucrados en la solucion de sistemas de ecuaciones
lineales, en particular se estudian los criterios para que un sistema tenga solucion. No se enfatiza en
metodos para encontrar las soluciones debido a que hoy da existen excelentes paquetes computacionales
que permiten resolver con gran rapidez tales sistemas.
Definici
on 4.5. Sea K un cuerpo arbitrario. Se denomina sistema de ecuaciones lineales de n
indeterminadas (inc
ognitas) y m ecuaciones a un conjunto de ecuaciones de la forma
a11 x1 + + a1n xn = b1
a21 x1 + + a2n xn = b2
..
.

(4.3)

am1 x1 + + amn xn = bm
donde a11 , . . . , amn K son los coeficientes del sistema y x1 , . . . , xn representan elementos de K
que hay que determinar y se conocen como las indeterminadas (inc
ognitas) del sistema. Se dice
que el sitema (4.3) es de orden m n. La matriz

a11 a1n

..
..
A = ...
.
.
am1

amn

se conoce como la matriz de coeficientes del sistema (4.3). Los escalares b1 , . . . , bm se conocen como
los t
erminos independientes del sistema (4.3). El sistema (4.3) se puede representar matricialmente
en la forma
AX = B

(4.4)

donde A es la matriz de coeficientes, B = [b1 , . . . , bm ] es la matriz columna de terminos independientes


T
y X = [x1 , . . . , xn ] es la matriz columna de indeterminadas. La matriz ampliada del sistema es
la matriz definida por

a11 a1n b1

..
..
.. =  A | B 
M = ...
.
.
.
am1

amn

bm

El sistema (4.4) se dice homog


eneo si B = 0, en caso contrario se dice no homogeneo. Una soluci
on

 0
0 T
n
del sistema (4.4) es una matrix columna X0 = x1 , . . . , xn
K tal que AX0 = B. El sistema
(4.4) se dice compatible si posee al menos una soluci
on, en caso contrario se dice no compatible. Un
sistema compatible con soluci
on u
nica se dice determinado, si el sistema posee m
as de una soluci
on
se dice indeterminado.
Sea
CX = D

(4.5)

otro sistema de ecuaciones lineales de orden m n, los sistemas (4.4) y (4.5) se dicen equivalentes si
poseen las mismas soluciones. N
otese que la relaci
on ser equivalente es de equivalencia en el conjunto
de todas las ecuaciones lineales de orden m n.
Proposici
on 4.3. Sea AX = 0 un sistema homogeneo de orden m n. Entonces
(a) El conjunto de soluciones S constituye un subespacio de K n .

4.5. SISTEMAS DE ECUACIONES LINEALES

59

(b) A es de rango r 0 si y s
olo si el espacio soluci
on S es de dimensi
on n r.
Demostraci
on: La afirmaci
on (a) es evidente.
(b) La matriz A determina una transformacion lineal T : K n K m en alg
un par de bases. Notese
que S es precisamente el n
ucleo de T . Por lo tanto, dim(S) = n rank(T ) = n rank(A).
Como se anot
o al principio, el c
alculo efectivo del conjunto solucion de un sistema de ecuaciones lineales se realiza hoy mediante alg
un paquete computacional. Sin embargo, es conveniente tener unos
criteros claros que permitan entender algunos de los metodos que usan estos programas y que interpreten adecuadamente las respuestas que producen estos paquetes de computo.
Sea AX = B un sistema de orden m n. Efectuando
 una sucesion finita de operaciones elementales sobre las filas de la matriz ampliada A | B se obtiene un sistema CX = D equivalente al
primero. En efecto, puesto que la realizacion de operaciones elementales sobre las filas de una matriz
corresponde al producto a izquierda por matrices elementales (vesase la Leccion 6 del Captulo 3) y
estas son invertibles, los conjuntos de soluciones de AX = B y CX = D coinciden.
La observaci
on anterior permite sacar la siguiente conclusion.
Proposici
on 4.4. Todo sistema AX = B de ecuaciones lineales de orden m n es equivalente a un
sistema escalonado CX = D en la siguiente forma:
c1j1 xj1

+ c1j2 xj2
c2j2 xj2

+
+

c1j3 xj3
c2j3 xj3

+
+
..
.

+ c1n xn
+ c2n xn

=
=

crjr xjr

=
dr
= dr+1

crn xn
0

d1
d2
(4.6)

..
.
0

dm

donde c1j1 , c2j2 , . . . , crjr son no nulos y 1 j1 < j2 < < jr .


La forma escalonada (4.6) permite determinar las soluciones del sistema original AX = B. Si en (4.6)
existe r + 1 i m tal que di 6= 0, entonces el sistema es no compatible; si tal situacion no se presenta
entonces se pueden dar valores arbitrarios en K a las indeterminadas libres xj , j
/ {j1 , j2 , . . . , jr }, y
obtener para las indeterminadas dependientes xj1 , xj2 , . . . , xjr valores u
nicos mediante reemplazo hacia
atr
as, es decir, desde la r-esima ecuaci
on hasta la primera de (4.6). Si en (4.6) aparecen indeterminadas
libres entonces el sistema tiene m
as de una solucion y por lo tanto es indeterminado. Si no aparecen
indeterminadas libres, es decir, r = n, entonces la solucion es u
nica y el sistema es determinado.
Las observaciones anteriores pueden ser resumidas en la siguiente forma:
Proposici
on 4.5. Sea AX = B un sistema de ecuaciones lineales de orden m n. El sistema es
compatible si y s
olo si despues de reducirlo a la forma escalonada (4.6) no se presentan ecuaciones de
la forma 0 = di con i r y alg
un di no nulo. En tal caso, el sistema es determinado si y s
olo si en
(4.6) no hay indeterminadas libres.
Se pueden considerar situaciones particulares con n = m, n > m .
Proposici
on 4.6. Se tiene que:
(a) Sea AX = B un sistema de ecuaciones lineales de orden n n. El sistema es compatible y
determinado si y s
olo si det(A) 6= 0. En tal caso, la u
nica soluci
on es A1 B.

CAPITULO 4. DETERMINANTES

60

(b) Sea AX = B un sistema compatible de ecuaciones lineales de orden m n. Si n > m entonces


el sistema es indeterminado.
Demostraci
on: (a) =) Seg
un la Proposicion 4 el sistema AX = B es equivalente a un sistema escalonado CX = D; pero las condiciones de compatibilidad y de solucion u
nica implican que r = n y que
det(C) = c11 cnn 6= 0. Puesto que C se obtuvo de A por medio de operaciones elementales, entonces
det(A) 6= 0.
=) Si det(A) 6= 0, entonces A es invertible y necesariamente se tiene que X = A1 B.
(b) Sea r el n
umero de indeterminadas dependientes en (4.6). Entonces claramente r m y en
consecuencia n > r, con lo cual existen indeterminadas libres y el sistema es indeterminado.
El cuadro (4.1) resume los resultados precedentes en relacion con el n
umero de soluciones de un sistema
de ecuaciones lineales:
Homogeneo
No homogeneo

n>m

0,

nm
1,
0, 1,

Cuadro 4.1: Soluciones de un sistema de ecuaciones lineales


Ejemplo resuelto:
(a) Determinar todas las soluciones del sistema
x1 + 2x2 5x3 + 4x4 + x5 = 4
3x1 + 7x2 x3 3x4 + 2x5 = 10
x2 13x3 2x4 + x5 = 14
x3 16x4 + 2x5 = 11
2x4 + 5x5 = 12
En este caso m = n = 5 y se realizan sobre la matriz ampliada la siguiente secuencia de operaciones elementales:

1
3
0
0
0

1
0
0
0
0

2 5
4 1
4
7 1 3 2
10

1 13 2 1 14

0
1 16 2 11
0
0
2 5
12

2 5
4
1
4
1
14 15 1
2

1 13
2
1 14

0
1 16
2 11
0
0
2
5
12
1 2
0 1
0 0
0 0
0 0

5
4
1
4
14 15 1
2

1 17
0 16

1 16
2 11
0
2
5
12

4.5. SISTEMAS DE ECUACIONES LINEALES

1
0
0
0
0

2
1
0
0
0

1 2
0 1
0 0
0 0
0 0

61

5
4
1
4
14 15 1
2

1 17
0 16

0
1
2
5
0
2
5
12

5
4
1
4
14 15 1
2

1 17
0 16

0
1
2
5
0
0
1
2

todas las indeterminadas son dependientes, el sistema es compatible y determinado con soluci
on
dada por: x5 = 2, x4 = 5 2x5 = 1, x3 = 17x4 16 = 1, continuando con esta sustitucion hacia
atr
as se encuentra que x2 = 1 y x1 = 1.
(b) Determinar todas las soluciones del sistema
x1 5x3 + 2x6 = 6
2x2 + x4 + 3x5 = 6
2x1 7x3 + 3x6 = 4
3x2 + 2x4 + 4x5 = 7
2x1 x3 + x6 = 12
4x2 + 3x4 + 5x5 = 9
En este caso m = n = 6 y se realizan sobre la matriz ampliada la siguiente secuencia de operaciones elementales:

0 5
2
0
0 7
3
0
0 1
4
0

1
0
2
0
2
0

1 0
0 2
0 0
0 3
0 0
0 4
1
0
0
0
0
0

0
2
0
1
0
0

0
1
0
2
0
3

0
3
0
4
0
5

2
6
0
6
3
4
0
7
1 12
0
9

5 0 0
2
6
0 1 3
0
6
3 0 0 1 8
0 2 4
0
7
9 0 0 3 24
0 3 5
0
9
5
0
3
0
9
0

0
0
2
6
1
3
0
6
0
0 1 8
1
1
0
1
0
0 3 24
1 1
0 3

CAPITULO 4. DETERMINANTES

62

5
0
0
2
6
0 1
1
0
4
3
0
0 1 8
0
1
1
0
1
9
0
0 3 24
0
1 1
0 3

1
0
0
0
0
0

0
0
0
1
0
0

1
0
0
0
0
0

0
1
0
0
0
0

1
0
0
0
0
0
1
0
0
0
0
0

0
1
0
0
0
0
0
1
0
0
0
0

5
0
0
2
6
0
1
1
0
1

3
0
0 1 8

3
0
0 1 8

0 1
1
0
4
0
1 1
0 3

5
0
0
1
3
0
0
0
0 1
0
0

5
0
0
1
3
0
0 1
0
0
0
0

0
2
6
1
0
1

0 1 8

0
0
0

1
0
4
0
0
1

0
2
6
1
0
1

0 1 8

1
0
4

0
0
0
0
0
1

la u
ltima matriz indica que el sistema es no compatible.


Algebra
Lineal
Captulo 4. Determinantes
Ejercicios.
1. Mediante operaciones elementales sobre la matriz ampliada establecer si los siguientes
sistemas son compatibles y determinados:
(a)
7x1 5x2 2x3 4x4 = 8
3x1 + 2x2 + x3 + 2x4 = 3
2x1 x2 x3 2x4 = 1
x1 + x3 + 2x4 = 1
x2 + x3 + 2x4 = 3
(b)
12x1 18x2 + 102x3 174x4 216x5 = 132
14x1 21x2 + 119x3 203x4 252x5 = 154
x3 + 2x4 + 3x5 = 1
4x3 + 5x4 + 6x5 = 2
7x3 + 8x4 + 9x5 = 3
2. Calcular todas las soluciones de los sistemas lineales del problema anterior (Sugerencia:
hagalo manualmente y tambien utilizando alg
un paquete de computo).
3. Calcule todas las soluciones de los siguientes sistemas homogeneos (usted escoge el
metodo !):
(a)
14x1 + 35x2 7x3 63x4 = 0
10x1 25x2 + 5x3 + 45x4 = 0
26x1 + 65x2 13x3 117x4 = 0
(b)
2x1 x2 x3 x4 x5
x1 + 2x2 x3 x4 x5
4x1 + x2 5x3 5x4 5x5
x1 + x2 + 2x3 + x4 + x5
x1 + x2 + x3 + 2x4 + x5

=0
=0
=0
=0
=0

4. Calcule los determinantes de las siguientes matrices:


(a)

a2 + 1
ab
ac

ab b2 + 1
bc
2
ac
bc c + 1
(b)

1
2

3
d

0
0
c
0

2
b
4
0

a
0

5
0

(c)

1
1
1
..
.

1
2
1
3
2

..
. 
n

n1

..
.

1
3
1
4
2

..
. 
n+1

n1

1
n

1 
n+1

..
. 

2n2
n1



donde ab es el coeficiente binomial. Utilizar la identidad nk =
5. Sea A una matriz cuadrada de orden n n. Demostrar que
(a)
det

A A
A A

= 2n (det A)2

(b)
det

A A
A A

=0

(c)
det

2A 3A
A 2A
2

= (det A)2

n1
k

n1
k1


A A
Soluci
on. (a) Sea B =
, entonces podemos adicionar en forma secuencial las
A A
primeras n filas de B a las siguientes n filas pero con signo negativo. El determinante no
A A
cambia y se obtiene que det (B) = det
. Seg
un el Ejercicio 3 de la Leccion 3,
0 2A
se tiene que det (B) = det(A) det(2A) = det(A)2n det(A) = 2n det (A).


A A
(b) Sea B =
, podemos sumar en forma secuencial las primeras n filas de
A A
B a las siguientes
n filas de B, el determinante no cambia y obtenemos que det(B) =

A A
det
= det(A) det(0) = 0.
0 0


2A 3A
(c) Sea B =
, podemos sumar en forma secuencial las u
ltimas n filas de B a
A 2A
las primeras n filas de B pero
 con signo negativo, el determinante no cambia y obtenemos
A A
que det(B) = det
. Podemos ahora sumar en forma secuencial las primeras n
A 2A
filas de esta nueva matriz a las siguientes n filas pero con signo negativo de tal forma que
el determinante no cambia y as:


A A
det(B) = det
= det (A) det (A) = det(A)2 .
0 A
6. Calcular el determinante de la matriz n n sobre un cuerpo K:

a b b
b a b

A = .. .. .. ..
. . . .
b b a

Soluci
on. Vamos a demostrar que este determiante es (a + (n 1) b) (a b)n1 mediante
la realizacion de operaciones elementales sobre filas y columnas: en primer lugar multiplicamos la primera fila por 1 y se la sumamos a las n 1 restantes, el determinante de la
nueva matriz no cambia:

a
b

b
b a a b
0

..
..
..
..
.
.
.
.
ba
0
a b
Esta matriz tiene un bloque diagonal de tama
no n 1 y el determinante de este bloque
diagonal es (a b)n1 . Ahora multiplicamos las u
ltimas n 1 columnas por 1 y las
vamos sumando a la primera columna, el determinante no cambia y obtenemos:
3

a + (n 1)b
b

b
0
a b
0
..
..
..
..
.
.
.
.
0
0
a b

Podemos finalmente desarrollar el determinate


obtenemos el resultado anunciado.
7. Demuestre que

2 1 0
0
1 2 1 0

0 1 2 1

... ... ...

det
... ...

0
0
0
1

0
0
0

por los menores de la primera columna y

0
0
0

0
0
0

0
0
0

=n+1
...

2 1 0

1 2 1
0 1 2

8. Sea A una matriz cuadrada de orden impar tal que AT = A. Demostrar que det(A) =
0.
9. Sea A Mn (Z), con n par tal que AT = A. Demostrar que det(A) = k 2 , con k Z.

Captulo 5

Polinomio Caracterstico
Introducci
on
El estudio de las transformaciones lineales por medio de matrices usa como una de sus tecnicas el
polinomio caracterstico. El conocimiento de sus races es fundamental para entender el comportamiento
de la transformaci
on lineal. Estas races son los llamados valores propios.

5.1.

Valores y Vectores Propios

En el Captulo 3 se vi
o que cada transformacion lineal T de un espacio de dimension finita n 1 se
puede representar por medio de una matriz A de orden n, la cual permite conocer propiedades de la
transformaci
on T , por ejemplo, es claro que T es invertible si y solo si det(A) 6= 0 (vease el Corolario 1
del captulo anterior). Si la matriz A tiene un aspecto sencillo es muy facil obtener informacion de T a
partir de ella. La forma m
as simple que puede tener una matriz es la forma diagonal. En este captulo
se estudian criterios para diagonalizar matrices.
Definici
on 5.1. Sea T : V V una transformaci
on de un K-espacio V , un escalar a K se dice
que es un valor propio de la transformaci
on T si existe un vector no nulo v V tal que T (v) = a . v.
En tal caso se dice que v es un vector propio de T perteneciente al valor propio a. N
otese que un
vector propio solo puede pertenecer a un solo valor propio.
Ejemplo 5.1. Para la transformaci
on lineal T : R2 R2 definida por T (x, y) = (2x, 3y), a = 2 es un
valor propio con vector propio (6, 0); a = 3 es tambien un valor propio de T con vector propio (0, 2).
Definici
on 5.2. Sea T : V V una transformaci
on lineal y a K , el conjunto
E(a) = {v V | T (v) = a . v}
es un subespacio de V ; n
otese que E(a) 6= 0 si y s
olo si a es un valor propio de T , en tal caso E(a) se
denomina el espacio propio de T correspondiente al valor propio a.
Ejemplo 5.2. Sea D el operador derivacion definido sobre el espacio de funciones reales cuyas derivadas de cualquier orden existen, y sea a R, entonces E(a) = {c eax | c R}.
Ejemplo 5.3. Existen transformaciones lineales sin valores propios, es decir, E(a) = 0 , para cada
a K. En efecto, la transformaci
on T : R2 R2 definida por
T (x, y) = (y, x)
no tiene valores propios.
67

68

CAPITULO 5. POLINOMIO CARACTERISTICO

Proposici
on 5.1. Sea T : V V una transformaci
on lineal de un espacio V . Sean a1 , . . . , ar valores
propios diferentes con vectores propios v1 , . . . , vr , respectivamente. Entonces v1 , . . . , vr son L.I. En
particular, si V es de dimensi
on finita n 1, entonces T tiene a lo sumo n valores propios diferentes.
Si T tiene exactamente n valores propios diferentes, entonces {v1 , . . . , vn } es una base de V .
Demostraci
on: La prueba de la primera afirmacion la se realiza por induccion. Las otras dos afirmaciones son consecuencia directa de la primera.
n = 1 : Si a es un valor propio y v 6= 0 es un vector propio asociado al valor a, entonces {v} es
LI.
Sup
ongase que la afirmaci
on ha sido probada para n 1 valores propios diferentes. Sean a1 , . . . , an
valores propios diferentes para T con vectores propios v1 , . . . , vn . Sean b1 , . . . , bn escalares tales que
b1 .v1 + +bn .vn = 0. Aplicando T y tambien multiplicando por an se pueden restar las dos relaciones
y obtener que
(b1 a1 b1 an ) .v1 + + (bn1 an1 bn1 an ) .vn1 = 0
Aplicando inducci
on resulta entonces que b1 = = bn1 = 0, de donde bn = 0. Esto prueba que los
vectores v1 , . . . , vn son LI. 
El recproco de la proposici
on anterior no es siempre cierto, por ejemplo, si T = IV , cualquier base de V pertenece a 1, que es el u
nico valor propio de IV .
Ejemplo 5.4. Sea K[x] el conjunto de polinomios con coeficientes en el cuerpo K, y sea T : V
V una transformaci
on lineal. Entonces para cada polinomio p(x) K[x] se tiene que p(T ) es una
transformaci
on lineal de V en V , ademas si a K es un valor propio de T con vector propio v,
entonces p(a) es un valor propio de p(T ) con vector propio v. En tal caso, E(a) N (p(T )) si a es raz
de p(x), y E(a) Im(p(T )) si a no es raz de p(x).
Soluci
on: Puesto que ya hemos definido la suma y producto de transformaciones lineales y ademas un
producto de escalar por transformaci
on lineal, entonces es claro que si p(x) = a0 + a1 x + + an xn
es un polinomio, entonces p(T ) es nuevamente una transformacion lineal de V en V . Sea ahora a K
un valor propio de T con vector propio v V , entonces p(T )(v) = a0 .v + a1 T (v) + + an T n (v) =
a0 .v + a1 a.v + a2 a2 .v + + an an .v = p(a).v, es decir, p(a) es valor propio de p(T ) con vector propio
v.
Supongamos que a es raz de p(x), entonces p(T )(v) = 0 y de esta forma v N (p(T ))), es decir,
1
E(a) N (p(T )). Sup
ongase contrariamente que a no es raz de p(x), entonces v = (p(a)) p(T )(v) =
1
p(T )((p(a)) .v), es decir, v Im(p(T )), y as, E(a) Im(p(T )). 

5.2.

Polinomio Caracterstico

En el Captulo 4 se defini
o la teora de determinantes para matrices con entradas en un cuerpo, sin
embargo la invertibilidad de los elementos del cuerpo no fue usada en la construccion. Esto indica que se
puede desarrollar la teora de determinantes para matrices con entradas en un anillo conmutativo, por
ejemplo, con entradas polin
omicas. Esta observacion permite definir un invariante muy importante de
una transformaci
on lineal de un espacio de dimension finita: su polinomio caracterstico. Comencemos
por definir el polinomio caracterstico de una matriz cuadrada.
Definici
on 5.3. Sea A = [aij ] una matriz cuadrada de orden n 1 sobre un cuerpo K. Se define el

5.2. POLINOMIO CARACTERISTICO

69

polinomio caractersticode A por

pA (x) = det(xE A) = det

x a11
a21
..
.

a12
x a22
..
.

..
.

a1n
a2n
..
.

an1

an2

x ann

N
otese que efectivamente pA (x) K[x]. Se puede probar facilmente que para pA (x) se tienen las
siguientes propiedades:
a) pA (x) es un polinomio de grado n.
b) Siendo pA (x) = p0 + p1 x + + pn1 xn1 + pn xn , entonces se tiene que p0 = (1)n det(A),
pn1 = (a11 + + ann ) y pn = 1.
c) Matrices similares tienen el mismo polinomio caracterstico. El recproco de esta afirmacion no
es siempre cierto, como lo ilustran las matrices




1 1
1 0
y
.
0 1
0 1
d) Sea T : V V una transformaci
on lineal de un espacio V de dimension finita n 1. Entonces
se define el polinomio caracterstico de T como el polinomio caracterstico de la matriz de T en
cualquier base, y se denota por pT (x). En otras palabras, el polinomio caracterstico de T es un
invariante de T que no depende de la base elegida en V, y se tiene que pT (x) = pA (x) , donde
A = mX (T ) y X es cualquier base de V .
El polinomio caracterstico es un instrumento para determinar
los valores propios de una transformacion lineal.
Proposici
on 5.2. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita
n 1 y sea a K. Entonces, a es un valor propio de T si y s
olo si a es raz del polinomio caracterstico
de T , es decir, pT (a) = 0.
Demostraci
on: ) Sea v un vector propio de a, entonces, T (v) = a.v, luego (T aI)(v) = 0, es decir,
T aI no es una transformaci
on inyectiva. Esto implica que si X es una base cualquiera que fijamos
en V , entonces mX (T aI) tiene determinante igual a cero, es decir, det(A aE) = 0, donde A es la
matriz de T en la base X. Por tanto, pA (a) = 0, es decir, a es raz del polinomio caracterstico de A,
o sea del polinomio caracterstico de T .
) Si a es raz de pT (x), entonces a es raz de pA (x), donde A es la matriz de T en una base X
que fijamos. Por tanto det(A aE) = 0, luego mX (T aI) no es invertible. Esto garantiza que
T aI no es invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que
(T aI)(v) = 0, es decir, T (v) = a.v. Esto quiere decir que v es vector propio con valor propia a.
Insistimos en que este resultado es v
alido para valores a K. Podra ocurrir que las races del polinomio caracterstico no pertenecieran al cuerpo K, por ejemplo, en el caso en que K sea el cuerpo de
n
umeros reales y todas las races de pT (x) fueran complejas (vease el Ejemplo 3 de la leccion anterior),
entonces no tendramos valores propios.
Un cuerpo K se dice algebraicamente cerrado si todas las races de todos sus polinomios pertenecen a K, por ejemplo, el cuerpo C de n
umeros complejos es algebraicamente cerrado, en cambio, el
cuerpo R de n
umeros reales no lo es.

70

CAPITULO 5. POLINOMIO CARACTERISTICO

Corolario 5.1. Sea K un cuerpo algebraicamente cerrado y sea T : V V una transformaci


on lineal
del K-espacio V de dimensi
on finita n 1. Entonces, T tiene n valores propios (no necesariamente
diferentes) correspondientes a las n races de su polinomio caracterstico.
Sea A una matriz cuadrada de orden n 1, un elemento a K se dice que es un valor propio
de A si existe una matriz columna no nula u = (u1 , . . . , un )T K n tal que Au = a.u . La teora de
valores y vectores propios para matrices est
a relacionada de manera obvia con la correspondiente teora
para transformaciones lineales.
Corolario 5.2. Sea T : V V una transformaci
on lineal de un K-espacio V de dimensi
on finita
n 1. Sea X = {v1 , . . . , vn } una base de V , A = mX (T ) y a K. Entonces, a es un valor propio
de T si y s
olo si a es un valor propio de A. Mas exactamente, v = u1 . v1 + + un . vn es un vector
propio de T perteneciente al valor propio a si y s
olo si u = (u1 , . . . , un )T es un vector propio de A
perteneciente al valor propio a.

5.3.

Matrices Diagonalizables

Definici
on 5.4. Sea A = [aij ] una matriz de orden n 1 sobre el cuerpo K. Se dice que A es una
matriz diagonal si aij = 0 para i 6= j. Sea T : V V una transformaci
on lineal de un espacio V de
dimensi
on finita n 1. Se dice que T es diagonalizable si existe una base X en V tal que mX (T ) es
una matriz diagonal. Una matriz A de orden n 1 se dice que es diagonalizable si A es similar a una
matriz diagonal.
Teniendo en cuenta que matrices que representen la misma transformacion lineal son similares, se tiene
el siguiente resultado.
Proposici
on 5.3. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita n 1
y sea X una base cualquiera de V . Entonces, T es diagonalizable si y s
olo si mX (T ) es diagonalizable.
En terminos de vectores propios se tiene el siguiente criterio obvio de diagonalizacion.
Teorema 5.1. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita n 1.
T es diagonalizable si y s
olo si V tiene una base constituida por vectores propios.
Demostraci
on:) Existe una base X = {x1 , . . . , xn } en V tal que mX (T ) es diagonal, digamos

d1 0
0

mX (T ) = 0 . . . 0
0
0 dn
Esto indica que T (x1 ) = d1 x1 ,...,T (xn ) = dn xn . Puesto que los vectores x1 , . . . , xn son no nulos, entonces estos vectores son propios.
) Sea X = {x1 , . . . , xn } una base de vectores propios. Entonces, existen escalares d1 , . . . , dn en K
tales que T (x1 ) = d1 x1 , . . . , T (xn ) = dn xn . Notese que entonces la matriz de T es la base X es diagonal, y sus elementos diagonales son precisamente d1 , . . . , dn .
Sea A Mn (K) una matriz diagonalizable. Entonces existe una matriz invertible C tal que C 1 AC =
D, donde D es una matriz diagonal. La demostracion del teorema anterior nos da una manera de
encontrar la matriz diagonalizante C. En efecto, sea Y la base canonica de K n , entonces sabemos
que A es la matriz de una transformacion T : K n K n , A = mY (T ). Como A es diagonalizable
entonces por la Proposici
on 3, T es diagonalizable. Seg
un la demostracion del Teorema 1, existe una
base X = {x1 , . . . , xn } en K n de vectores propios de T de tal forma que mX (T ) = D, donde D es una
matriz diagonal. Entonces, D = mX (T ) = C 1 mY (T )C, donde C es la matriz de cambio de la base Y

5.3. MATRICES DIAGONALIZABLES

71

a la base X. Es decir, la i-esima columna de C son los coeficientes de la expansion del i-esimo vector
xi a traves de la base can
onica Y , es decir, las coordenadas del vector columna xi . En otras palabras,
las columnas de C son los vectores columna x1 , . . . , xn (Notese que seg
un el Corolario 2, cada vector
columna xi es un vector propio de A).
Seg
un la Proposici
on 1 y el Corolario 2 se tiene el siguiente corolario.
Corolario 5.3. Sea A una matriz cuadrada de orden n 1. Entonces,
a) A es diagonalizable si y s
olo si A tiene n vectores propios L I.
b) Si A tiene n valores propios diferentes, entonces A es diagonalizable.
El recproco de la parte b) del corolario anterior no siempre se cumple: la matriz identica E es diagonal,
sin embargo sus n valores propios coinciden y son iguales a 1.
Proposici
on 5.4. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita n
1. Sean a1 , . . . , ar los valores propios diferentes para T , 1 r n, y E(a1 ) , . . . , E(ar ) los subespacios
propios correspondientes. Entonces, la suma E(a1 ) + + E(ar ) es directa. En consecuencia,
dim(E(a1 ) E(ar )) = dim(E(a1 ) ) + + dim(E(ar ) ).
Demostraci
on: Sean u1 E(a1 ) , . . . , ur E(ar ) tales que u1 + + ur = 0, supongase que alguno de
estos sumandos es no nulo, y entre ellos sean u1 , . . . , us , 1 s r los no nulos. Como u1 , . . . , us son
vectores propios correspondientes a valores propios diferentes, entonces son L.I., pero esto contradice
la condici
on u1 + + us = 0. Por lo tanto, ui = 0, para cada 1 i r.
Podemos probar ahora un criterio de diagonalizacion en terminos del polinomio caracterstico y de
los espacios propios.
Teorema 5.2. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita n 1.
Sean a1 , . . . , ar los valores propios diferentes para T , 1 r n, y E(a1 ) , . . . , E(ar ) los subespacios
propios correspondientes. Entonces, las siguientes condiciones son equivalentes:
a) T es diagonalizable.
b) El polinomio caracterstico de T es de la forma
pT (x) = (x a1 )d1 . . . (x ar )dr ,
donde di = dim(E(ai )), 1 i r.
c) dim(V ) = dim(E(a1 )) + . . . + dim(E(ar )).
d) V = E(a1 ) . . . E(ar ).
Demostraci
on: a) b) Por el Teorema 1, V tiene una base X = {v1 , . . . , vn } constituida por vectores
propios. Se ordena esta base de tal manera que los primeros d1 vectores correspondan al valor propio
a1 , los siguientes d2 vectores correspondan al valor a2 y as sucesivamente. Entonces claramente la
matriz de T en esta base toma la forma

a1 E
..
mX (T ) = .
0

..
.

0
..
.
ar E

CAPITULO 5. POLINOMIO CARACTERISTICO

72
donde ai E es una matriz diagonal de orden di ,

ai
..
ai E = .
0

..
.

0
.. ,
.
ai

1 i r. Obviamente el polinomio caracterstico de T es pT (x) = (x a1 )d1 (x ar )dr .


Se ver
a ahora que di = dim(E(ai )). Puesto que gr(pT (x)) = n, entonces n = d1 + + dr . Por
la forma como se ha organizado la base X, se tiene que V = hXi E(a1 ) + + E(ar ), es decir,
V = E(a1 ) + + E(ar ), luego, por la Proposicion 4, n = dim(E(a1 )) + + dim(E(ar )). Se sabe que
di dim(E(ai )) para cada 1 i r, supongase que existe i tal que di < dim(E(ai )), entonces
n = d1 + + dr < dim(E(a1 )) + + dim(E(ar )) = n.
Esto indica que di = dim(E(ai )) para cada 1 i r.
b) c) dim(V ) = n = d1 + + dr = dim(E(a1 )) + + dim(E(ar ))
c) d) dim(V ) = dim(E(a1 )) + + dim(E(ar )) =
dim(E(a1 ) + + E(ar )),de donde, V = E(a1 ) + + (E(ar ), ademas, por la Proposicion 4, la suma
es directa, es decir, V = E(a1 ) E(ar )
d) a) Al reunir las bases de E(a1 ), . . . , E(ar ) se obtiene una base de V constituida por vectores propios, lo cual, de acuerdo al Teorema 1, garantiza que T es diagonalizable.

Ejericicio 5.1. Determinar si las siguientes matrices son diagonalizables. En caso afirmativo encontrar
una matriz que diagonalice.

1 1 2
3
0 1 0
0 2 2
4

0 1 ,
A= 0
B=
0 0 1 2 .
1 3 3
0 0 0
2
Ejericicio 5.2. Determinar los valores y vectores propios del operador derivacion sobre el espacio
Rn [x]. Es este operador diagonalizable?
Ejericicio 5.3. Sean A y B matrices cuadradas de orden n 1 y m 1, respectivamente. Demuestre
que el polinomio caracterstico de la matriz


A 0
0 B

es

pA (x)pB (x).
Ejericicio 5.4. Sea A una matriz de orden n 1 y p(x) un polinomio cualquiera. Demuestre que si
A es diagonalizable, entonces p(A) es diagonalizable.
Pn
Ejericicio 5.5. Sea A = [aij ] una matriz de orden n 1 tal que j=1 aij = 1 para cada 1 i n.
Demuestre que 1 es un valor propio de A.

5.3. MATRICES DIAGONALIZABLES

73

Soluci
on: Sea X = [x1 , . . . , xn ]T un vector propio de la matriz A correspondiente al valor propio 1.
Entonces AX = X, se obtiene entonces que para cada 1 i n se cumple ai1 x1 + + ain xn = xi .
N
otese que si todas las entradas del vector X son iguales entonces todas las ecuaciones anteriores se
satisfacen. Entonces, siendo x cualquier elemento no nulo de K se cumple que para X = [x, . . . , x]T se
satisface AX = X, y as X es un vector propio de A con valor propio 1.


Algebra
Lineal
Captulo 5. Polinomio Caracterstico
Ejercicios.
1. Calcular el polinomio caracterstico de la

x1 y1 x1 y2
x2 y1 x2 y2

xn y1 xn y2

siguiente matriz

x1 yn
x2 yn


xn yn

2. Sean A y B matrices rectangulares de dimensiones m n y n m respectivamente. Demostrar que los polinomios caractersticos de las matrices AB y BA satisfacen la relacion
xn pAB (x) = xm pBA (x).
3. Sean A y B matrices cuadradas de orden n. Demostrar que el polinomio caracterstico
de la matriz


A B
B A
es pA+B (x)pAB (x).
4. Sea A una matriz cuadrada y sea B = A E, donde es un escalar y E es la
identica. Demostrar que pB (x) = pA (x + ).
5. Sean A, B matrices diagonalizables. Demostrar que A y B son similares si y solo si
tienen el mismo polinomio caracterstico.
6. Sea P : V V una transformacion lineal no nula tal que P 2 = P (es decir, P es una
proyecci
on). Demostrar que los u
nicos valores propios de P son 0 y 1.
7. Sea T : V V una transformacion lineal invertible. Que relacion existe entre los
valores propios de T y T 1 ?
8. Demostrar que la matriz

1 1 1
1 1 1

A = .. .. .. ..
. . . .
1 1 1
es diagonalizable.
9. Determinar si la siguiente matriz real A se

0
A = 1
3

puede diagonalizar:

0
4
1
2
0 1

En caso afirmativo, calcular una matriz real C tal que C 1 AC sea diagonal.
10. Sea A una matriz cuadrada de tama
no n n con valores propios distintos 1 , ..., n .
Demostrar que tr(A) = 1 + ... + n y det(A) = 1 ...n .
11. Demostrar que la siguiente transformacion lineal es diagonalizable. Calcular una matriz diagonalizante: T : C4 C4 , T (x, y, z, w) = (y, x, w, z).
12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En
caso afirmativo calcular una matriz diagonalizante:

2 2 2
2 2 1
A = 1 3 1 , B = 2 1 2 .
1 1 1
14 25 14

13. Sea A Mn (R) tal que considerada como matriz compleja tiene un valor propio de
la forma a + ib con vector propio de la forma x + iy, donde x, y Rn . Demostrar que
a ib es tambien un valor propio de A con vector propio x iy.
14. Sean S, T : V V transformaciones lineales, dim (V ) = n, probar que ST y T S
tienen los mismos valores propios.
15. Sea T : V V una transformacion lineal tal que cada vector no nulo de V es un
vector propio de T . Demostrar que T = .IV para alg
un escalar K.
16. Sea V un espacio vectorial complejo y sea T : V V una transformacion lineal.
Sea p (x) un polinomio con coeficientes complejos y sea C. Probar que es un valor
propio de p(T ) si y solo si = p(), donde es un valor propio de T . Mostrar ademas
que esta propiedad no es valida en general para R.
17. Dar un ejemplo de transformacion lineal T cuya matriz con respecto a una cierta base
contenga solamente ceros en la diagonal principal pero T sea invertible.
18. Dar un ejemplo de transformacion lineal T cuya matriz con respecto a una cierta base
contenga solamente elementos no nulos en la diagonal principal pero T no sea invertible.
19. Dar un ejemplo de operador T : R4 R4 que no tenga valores propios reales.
20. Sea V un espacio vectorial real de dimension finita y sea T : V V una transformacion lineal que no tiene valores propios reales. Demostrar que si W es un subespacio
de V tal que T (W ) W , entonces la dimension de W es par.


Algebra
Lineal
Captulo 5. Polinomio Caracterstico
Ejercicios.
1. Calcular el polinomio caracterstico de la

x1 y1 x1 y2
x2 y1 x2 y2

xn y1 xn y2
Soluci
on. Sea A = [xi yj ] la

x1
..
A= .
0

matriz dada,

0
.
..
. ..
xn

siguiente matriz

x1 yn
x2 yn


xn yn

notemos entonces que

1 1
y1 0
.. .. .. .. . .
..
.
. . . .
.
1 1
0 yn

Escribamos entonces A = DLD0 , donde D es la matriz diagonal de la izquierda, L es la


matriz de unos y D0 es la matriz diagonal de la derecha. Se tiene que
pA (x) = p(DL)D0 (x) = pD0 (DL) (x) = p(D0 D)L (x) = pB (x)
donde

x1 y1 x1 y1

..
.. .
B = D0 DL = ...
.
.
xn yn xn yn

Pero B es una matriz donde sus columnas coinciden, y entonces el calculo de su polinomio
caracterstico es muy sencillo:

z x1 y1
x1 y1

..
..
..
pB (x) = det

.
.
.
xn yn

z xn yn

restamos la segunda columna de la primera, y luego sumamos la primera fila a la segunda,


el determinante no ha cambiado y obtenemos

z
x1 y1

x1 y1
0 z (x1 y1 + x2 y2 ) (x1 y1 + x2 y2 )

pB (x) = det ..

..
..
.
.
.

.
.
.
0
xn yn
z xn yn
Aplicando induccion y calculando este determinante encontramos que

pB (x) = z z n1 (x1 y1 + x2 y2 + + xn yn ) z n2
1

es decir,
pA (x) = pB (x) = z n (x1 y1 + x2 y2 + + xn yn ) z n1 .
2. Sean A y B matrices rectangulares de dimensiones m n y n m respectivamente. Demostrar que los polinomios caractersticos de las matrices AB y BA satisfacen la relacion
xn pAB (x) = xm pBA (x).
Soluci
on. Se definen la matrices cuadradas C y D de orden m + n de la siguiente forma:




0
En
A Em
C=
, D=
xEm A
xEn B
Entonces,



 

0
En
A Em
xEn
B
CD =
=
xEm A
xEn B
0 xEm AB


 

A Em
0
En
xEm
0
DC =
=
.
xEn B
xEm A
xB xEn BA
Pero det(CD) = det(DC), luego xn pAB (x) = xm pBA (x).
3. Sean A y B matrices cuadradas de orden n. Demostrar que el polinomio caracterstico
de la matriz


A B
B A
es pA+B (x)pAB (x).
Soluci
on. Consideremos la matriz
F =

xE A
B
B xE A

donde E es las matriz identica de orden n. Por medio de transvecciones podemos sumar
las primeras n columnas de F a las siguientes n columnas en forma consecutiva:


xE A xE A B
0
F =
B xE A B
notemos que det (F ) = det (F 0 ). De igual manera, podemos multiplicar por 1 las u
ltimas
0
n filas de F y sumarlas a las primeras n filas en forma consecutiva :


xE A + B
0
00
F =
,
B xE A B

nuevamente det (F 0 ) = det (F 00 ) = det (xE A + B) det (xE A B) = pAB (x)pA+B (x).
2

4. Sea A una matriz cuadrada y sea B = A E, donde es un escalar y E es la


identica. Demostrar que pB (x) = pA (x + ).
Soluci
on. Tenemos que
pB (x) = det (xE B) = det (xE A + E) = det ((x + ) E A) = pA (x + ).
5. Sean A, B matrices diagonalizables. Demostrar que A y B son similares si y solo si
tienen el mismo polinomio caracterstico.
Soluci
on. ) Sean A, B similares, entonces existe una matriz invertible C tal que
C 1 AC = B. Entonces,


pB (x) = det(xE B) = det xE C 1 AC = det C 1 (xE A) C =
det C 1 det (xE A) det C = det (xE A) = pA (x).
) Supongase ahora que A, B tienen el mismo polinomio caracterstico y que son diagonalizables. Existen matrices invertibles C, F tales que C 1 AC = D (a1 , . . . , an ), F 1 BF =
D (b1 , . . . , bn ). Entonces pA (x) = (x a1 ) (x an ) = (x b1 ) (x bn ) = pB (x). Esto implica que {a1 , . . . , an } = {b1 , . . . , bn }, aunque el orden de los elementos no sea el
mismo. Sin embargo, se puede lograr que el orden sea el mismo mediante matrices de permutacion Pij . En efecto, para intercambiar la entrada diagonal ai con la aj se debe realizar
la siguiente operacion: Pij D (a1 , . . . , ai , . . . , aj , . . . , an ) Pij = D (a1 , . . . , aj , . . . , ai , . . . , an ).
Puesto que Pij1 = Pij , entonces se puede asegurar que existe una matriz invertible P
(producto de las permutaciones que sea necesarias para ordenar los elementos diagonales)
tal que P 1 D (a1 , . . . , an ) P = D (b1 , . . . , bn ), es decir, las dos matrices diagonales son
similares, y en consecuencia, A y B son similares.
6. Sea P : V V una transformacion lineal no nula tal que P 2 = P (es decir, P es una
proyecci
on). Demostrar que los u
nicos valores propios de P son 0 y 1.
Soluci
on. Sea a un valor propio de P con vector propio v, entonces P (v) = a.v, luego
P 2 (v) = P (a.v) = a.P (v) = a2 .v = P (v) = a.v. Resulta entonces, (a2 a) .v = 0, y como
v es no nulo, entonces (a2 a) = 0, es decir, a = 0 o a = 1.
7. Sea T : V V una transformacion lineal invertible. Que relacion existe entre los
valores propios de T y T 1 ?
Soluci
on. Sea un valor propio de T con vector propio v, entonces T (v) = .v, aplicamos
ahora T 1 , luego v = .T 1 (v); como v es no nulo entonces 6= 0, con lo cual T 1 (v) =
1 .v, es decir, 1 es valor propio de T 1 . Se tiene pues que es valor propio de T si y
solo si 1 es valor propio de T 1 .
8. Demostrar que la matriz

1 1 1
1 1 1

A = .. .. .. ..
. . . .
1 1 1
3

es diagonalizable.
Soluci
on. Vamos a demostrar que los u
nicos valores propios de A son n y 0, ademas veremos que dim (E (n)) = 1 y que dim (E (0)) = n 1. El resultado es entonces consecuencia
del Teoream 2 de la Leccion 3 del Captulo 5.
Notese que en efecto A (1, ..., 1)T = n. (1, ..., 1)T . Ademas, sea (x1 , ..., xn )T E (n), entonces A (x1 , ..., xn )T = n. (x1 , ..., xn )T , es decir, x1 + +xn = nx1 , ..., x1 + +xn = nxn ,
o sea que, nx1 = = nxn , lo cual implica que x1 = = xn , es decir, (x1 , ..., xn )T es
m
ultiplo de (1, ..., 1)T .
Veamos ahora los vectores propios de 0: notese que 0 es valor propio con vector propio
(0, 0...., 1, 1)T . Sea (x1 , ..., xn )T E (0), entonces A (x1 , ..., xn )T = 0, es decir, se obtiene
la u
nica ecuacion x1 + + xn = 0, la cual evidentemente se satisface por todas las
n-plas de la forma (x1 , ..., xn1 , x1 x2 xn1 )T . La dimension de este espacio es
claramente n 1.
9. Determinar si la siguiente matriz real A se puede diagonalizar:

0 0
4
2
A = 1 1
3 0 1
En caso afirmativo, calcular una matriz real C tal que C 1 AC sea diagonal.
10. Sea A una matriz cuadrada de tama
no n n con valores propios distintos 1 , ..., n .
Demostrar que tr(A) = 1 + ... + n y det(A) = 1 ...n .
Soluci
on. Puesto que A tiene n valores propios distintos, entonces A es diagonalizable,
es decir, existe C invertible tal que

1
0

...
C 1 AC =
= D.
0
n

Entonces, pA (x) = pD (x) = (x 1 ) (x n ), luego el termino independiente de


pD (x) es (1)n det (A) = (1)n 1 n , es decir, det(A) = 1 ...n . De igual manera, el
coeficiente del monomio xn1 es tr (A) = 1 + ... + n .
11. Demostrar que la siguiente transformacion lineal es diagonalizable. Calcular una matriz diagonalizante: T : C4 C4 , T (x, y, z, w) = (y, x, w, z).
12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En
caso afirmativo calcular una matriz diagonalizante:

2 2 2
2 2 1
A = 1 3 1 , B = 2 1 2 .
1 1 1
14 25 14
13. Sea A Mn (R) tal que considerada como matriz compleja tiene un valor propio de
la forma a + ib con vector propio de la forma x + iy, donde x, y Rn . Demostrar que
a ib es tambien un valor propio de A con vector propio x iy.
4

Soluci
on. Tenemos
A (x + iy) = (a + ib) . (x + iy) ,
tomando conjugados resulta
A (x + iy) = (a + ib) . (x + iy)
A (x iy) = (a ib) . (x iy) .
14. Sean S, T : V V transformaciones lineales, dim (V ) = n, probar que ST y T S
tienen los mismos valores propios.
Soluci
on. Sabemos que pST (x) = pT S (x), luego los valores propios de ST y T S coinciden.
15. Sea T : V V una transformacion lineal tal que cada vector no nulo de V es un
vector propio de T . Demostrar que T = .IV para alg
un escalar K.
16. Sea V un espacio vectorial complejo y sea T : V V una transformacion lineal.
Sea p (x) un polinomio con coeficientes complejos y sea C. Probar que es un valor
propio de p(T ) si y solo si = p(), donde es un valor propio de T . Mostrar ademas
que esta propiedad no es valida en general para R.
17. Dar un ejemplo de transformacion lineal T cuya matriz con respecto a una cierta base
contenga solamente ceros en la diagonal principal pero T sea invertible.
Soluci
on. Basta considerar T : R2 R2 definida por T (e1 ) = e2 , T (e2 ) = e1 .
18. Dar un ejemplo de transformacion lineal T cuya matriz con respecto a una cierta base
contenga solamente elementos no nulos en la diagonal principal pero T no sea invertible.
Soluci
on. Basta considerar T : R2 R2 definida por T (e1 ) = e1 + e2 , T (e2 ) = e1 + e2 .
19. Dar un ejemplo de operador T : R4 R4 que no tenga valores propios reales.
Soluci
on. El operador cuya matriz en la base canonica es

0 1 0 0
1 0 0 0

0 0 0 1 .
0 0 1 0

20. Sea V un espacio vectorial real de dimension finita y sea T : V V una transformacion lineal que no tiene valores propios reales. Demostrar que si W es un subespacio
de V tal que T (W ) W , entonces la dimension de W es par.

Captulo 6

Formas Can
onicas
Introducci
on
Las matrices constituyen un lenguaje computacional para estudiar transformaciones lineales. Si el
aspecto de una matriz que representa una cierta transformacion lineal es sencillo, entonces es f
acil
conocer propiedades de la matriz , y por lo tanto, de la transformacion. Las formas sencillas clasicas
a las cuales puede ser reducida una matriz, bajo ciertas condiciones, son estudiadas en el presente
captulo. El problema de similaridad de matrices es resuelto en terminos de las formas canonicas
introducidas.

6.1.

Polinomio Mnimo

El polinomio caracterstico de una matriz, o de una transformacion lineal, es un instrumento para


calcular sus valores propios; en esta leccion se estudia el polinomio mnimo de matrices y transformaciones lineales, el cual resulta muy u
til para establecer criterios sobre la posibilidad de reducir matrices
a formas can
onicas simples.
Definici
on 6.1. Sea V un espacio vectorial de dimensi
on finita n 1 sobre un cuerpo K y sea LK (V )
el
algebra de las transformaciones lineales del espacio V . Sea T LK (V ), se sabe que la dimensi
on
de LK (V ) es n2 (vease la Lecci
on 2 del Captulo 3). Entonces existen escalares no todos iguales a
2
cero a0 , . . . , an2 tales que a0 IV + a1 T + + an2 T n = 0, es decir, T es raz del polinomio no
2
nulo a0 + a1 x + + an2 xn . As pues, se puede asegurar que existe al menos un polinomio no nulo
p(x) tal que p(T ) = 0. Sea S la colecci
on de todos los polinomios que son anulados por T , en S se
puede escoger un polinomio no nulo q(x) que tenga grado mnimo, adem
as se puede suponer que el
coeficiente de q(x) correspondiente al termino de mayor grado es 1, es decir, que q(x) es m
onico. Con
estas condiciones para q(x) se puede demostrar que cualquier otro polinomio p(x) de S es m
ultiplo de
q(x). Esto implica que si en S existiera otro polinomio t(x) m
onico del mismo grado de q(x), es decir
de grado mnimo, entonces t(x) = q(x). Se ha entonces encontrado un polinomio especial asociado a
la transformaci
on T , dicho polinomio se denotar
a por qT (x) y se llamar
a el polinomio mnimo de T .
La discusi
on anterior la podemos realizar tambien para cualquier matriz A de tama
no n 1, de tal
forma que podemos definir el polinomio mnimo de A, el cual denotaremos por qA (x). Como es de
esperarse se tiene el siguiente resultado.
Proposici
on 6.1. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita
n 1 y sea X una base cualquiera de V . Si A es la matriz de T en la base X, entonces qT (x) = qA (x).
Puesto que dos matrices similares representan la misma transformacion lineal, entonces se tiene el
siguiente corolario.
81


CAPITULO 6. FORMAS CANONICAS

82

Corolario 6.1. Matrices similares tienen el mismo polinomio mnimo.


El siguiente teorema establece una importante relacion entre el polinomio caracterstico y el polinomio
mnimo.
Teorema 6.1 (Hamilton - Cayley). Sea T : V V una transformaci
on lineal de un espacio V
de dimensi
on n 1 , pT (x) su polinomio caracterstico y qT (x) su polinomio mnimo. Entonces,
qT (x) | pT (x) . Tambien, si A es una matriz cuadrada de orden n 1, entonces qA (x) | pA (x).
Demosraci
on: Veamos primero la prueba de la version matricial del teorema. Sea B la matriz xE A
con entradas en el anillo conmutativo K[x], seg
un vimos en la Leccion 2 del Captulo 5, podemos
considerar determinantes sobre este anillo y definir la matriz C = Cof (B)T (vease la Leccion 4 del
Captulo 4); n
otese que cada entrada cij de la matriz C es un polinomio en x de grado n 1 el cual
(0)
(1)
(n1) n1
podemos entonces escribir en la forma cij = cij + cij x + + cij
x
. La matriz C es por lo
(k)

tanto representable como C = C (0) + C (1) x + + C (n1) xn1 donde C (k) = [cij ] es de orden n n
con entradas en K. De acuerdo con la Regla de Crammer.
CB = C(xE A) = det(B)E = det(xE A)E = pA (x)E.

Sea pA (x) = p0 +p1 x+ +pn1 xn1 +xn , realizando las operaciones indicadas en la igualdad anterior
y comparando coeficientes concluimos que
C (0) A =
p0 E
C A + C (0) =
p1 E
C (2) A + C (1) =
p2 E
.. ..
..
. .
.
(n1)
(n2)
C
A+C
= pn1 E
C (n1) =
E
(1)

Podemos ahora multiplicar estas igualdades a la derecha por E, A, . . . , An respectivamente y luego sumar de tal forma que todos los terminos del miembro de la izquierda se cancelan por pares y el termino
de la derecha es precisamente pA (A), es decir, pA (A) = 0. Por la condicion que define al polinomio
mnimo se tiene que qA (x) | pA (x).
Sea ahora T : V V una transformacion lineal de un espacio V de dimension n 1 , X una
base de V y A = mX (T ). Acabamos de ver que qA (x) | pA (x), pero qA (x) = qT (x) y pA (x) = pT (x),
de donde qT (x) | pT (x). 
Las races en K del polinomio mnimo y del polinomio caracterstico coinciden.
Proposici
on 6.2. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on n
1 (o tambien, sea A una matriz cuadrada de orden n 1). Sea a K. Entonces,pT (a) = 0 si y
s
olo si qT (a) = 0 (tambien, pA (a) = 0 si y s
olo si qA (a) = 0). En particular, si K es un cuerpo
algebraicamente cerrado (vease la Lecci
on 2 del captulo anterior), entonces las races del polinomio
mnimo y el caracterstico coinciden.
Demostraci
on: Sea a K una raz de pT (x), entonces a es un valor propio de T . Mediante el algoritmo
de la divisi
on se tiene que qT (x) = (x a)s(x) + r, donde r es una constante de K. Reemplazando x
por T se tiene que qT (T ) = (T aI)s(T ) + rI = 0; sea v un vector propio del valor propio a, entonces
ya que (T aI) y s(T )conmutan resulta que 0 = s(T ) (T (v) a.v) + r.v = s(T )(a.v a.v) + r.v = r.v,
como v es no nulo, entonces r = 0, y por tanto qT (x) = (xa)s(x). Esto implica que a es raz de qT (x).
Recprocamente, sea a K una raz de qT (x), entonces podemos aplicar el Teorema de HamiltonCayley y escribir pT (x) = qT (x)m(x), de donde pT (a) = qT (a)m(a) = 0. 


6.2. FORMA CANONICA
TRIANGULAR

83

Ejericicio 6.1. Calcular el polinomio mnimo de las siguientes matrices:

C=

6.2.

A=
2
0
0
0
0

1
1
1

1 1
3
1
1
1

0
3
4
5
2
0
6
7
0 3
0
8
0
0 3
0
0
0
0 3

1
1
0
1 1
0
B=
2 2
2
1
1 1

1 1
0
2 2
0

1
1
1
D=

2 1
0
2 1
0

0
0

1
0

1
0
1
0
0
0
2
0
1 1

Forma Can
onica Triangular

En el captulo anterior consideramos la primera forma canonica que puede tener una matriz (transformaci
on): la forma diagonal. Por los criterios establecidos all se puede observar que no toda matriz
es diagonalizable, a
un en cuerpos algebraicamente cerrados. En esta leccion estudiamos una forma
can
onica menos exigente que la diagonal: la forma canonica triangular.
Definici
on 6.2. Una transformaci
on T de un espacio V de dimensi
on finita n 1 es triangulable
si existe una base X en V tal que la matriz de T en dicha base es triangular superior. Una matriz
cuadrada A = [aij ] de orden n 1 es triangulable si y s
olo si A es similar a una matriz triangular
superior.
Proposici
on 6.3. Sea T una transformaci
on lineal de un espacio V de dimensi
on finita n 1. Sea
X una base de V y A = mX (T ). Entonces, T es triangulable si y s
olo si A es triangulable.
El polinomio mnimo es un buen instrumento para establecer criterios de triangulacion y diagonalizaci
on de matrices y transformaciones. Los Teoremas 2 y 3 que probaremos adelante requieren de algunos
preliminares que enseguida entramos a considerar.
Definici
on 6.3. Sea T una transformaci
on lineal de un espacio V de dimensi
on finita n 1. Un
subespacio W de V se dice que es T -invariante, o invariante respecto de T , o simplemente, invariante,
si T (W ) W . Con cada transformaci
on T hay siempre asociados algunos subespacios invariantes
triviales: 0, V , N (T ), Im(T ) ; adem
as si p(x) es un polinomio y p(T ) es la transformaci
on polinomial
correspondiente, entonces N (p(T )), Im(p(T )) son subespacios invariantes de V.
Si T es una transformaci
on lineal de un espacio V de dimension finita n 1 y W es un subespacio
invariante respecto de T , entonces T induce una transformacion lineal
TW : W W
w TW (w) = T (w),
es decir, TW es la restricci
on de T a W . Los polinomios mnimo y caracterstico de TW
estrecha relaci
on con los correspondientes polinomios de T .

guardan

Proposici
on 6.4. Si T es una transformaci
on lineal de un espacio V de dimension finita n 1 y W
es un subespacio invariante no nulo, entonces el polinomio caracterstico de TW divide al polinomio
caracterstico de T . La misma relaci
on se tiene para los polinomios mnimos.


CAPITULO 6. FORMAS CANONICAS

84

Demostraci
on: Sea Z = {z1 , ..., zr } una base de W y X = {z1 , ..., zr ; v1 , ..., vs } una base de V (de tal
forma que r + s = n). Sea T (zi ) = a1i .z1 + + ari .zr + 0.v1 + + 0.vs , 1 i r (debido a que W
es T -invariante). Esto muestra que la matriz de T en la base X tiene la forma


mZ (TW ) B
mX (T ) =
0
C
donde B y C contienen los coeficientes al aplicar T a los vectores v1 , ..., vs . Entonces, pT (x) =
det (xE mX (T )) = det (xE mZ (TW )) det (xE C) = pTW (x)pC (x). Esto completa la demostraci
on de la primera afirmaci
on.
El polinomio mnimo de T es el polinomio mnimo de mX (T ) y de igual manera qTW es el polinomio mnimo de mZ (TW ). Entonces, sea A = mX (T ) y D = mZ (TW ), se tiene pues que


qA (D)

qA (A) = 0 =
0
qA (C)
luego qA (D) = 0, esto implica que qA (x) es m
ultiplo de qD (x), es decir, qT (x) es m
ultiplo de qTW (x).


Definici
on 6.4. Sea T una transformaci
on lineal de un espacio V de dimensi
on finita n 1 y W un
subespacio invariante. Sea v un vector cualquiera de V , entonces el conjunto
T
IW
(v) = {p(x) K[x] | p(T )(v) W }

se denomina el T -ideal generado por v en W , o simplemente, el ideal generado por v, si por el contexto
es claro que nos referimos a T y W. En tal caso escribiremos simplemente I(v). Este conjunto tiene
las siguientes propiedades:
a) I(v) es no vaco y no nulo.
b) I(v) es un subespacio de K[x] (vease la Lecci
on 2 de Captulo 1).
c) Para cada t(x) K[x] y cada p(x) I(v) se tiene que t(x)p(x) I(v).
d) I(0) = K[x] .
e) Si W = 0, entonces I0T (v) se conoce como el T -anulador del vector v, o simplemente, el anulador
del vector v. N
otese que I0T (v) = K[x] si y s
olo si v = 0.
T
f ) Existe un polinomio m
onico qv (x) de grado mnimo en IW
(v) tal que cualquier otro polinomio de
T
IW (v) es m
ultiplo de el. En particular, qT (x) es m
ultiplo de qv (x). qv (x) se denomina el olinomio
mnimo del vector v relativo a W y a T . Cuando W = 0, qv (x) se conoce tambien con el nombre
de el anulador del vector v.

El u
ltimo preliminar requerido para demostrar los Teoremas 2 y 3 es la siguiente proposicion.
Proposici
on 6.5. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita
n 1. Sup
ongase que el polinomio mnimo de T es de la forma
qT (x) = (x a1 )r1 (x ak )rk ,
donde ai K son valores diferentes, 1 ri n, 1 i k, 1 k n. Si W 6= V es un subespacio
invariante, entonces existe un vector u V tal que u
/ W y (T aIV )(u) W , para alg
un valor
propio a de T.


6.2. FORMA CANONICA
TRIANGULAR

85

Demostraci
on: Sea v un vector cualquiera de de V \ W . Sea qv (x) el polinomio mnimo del vector v
relativo al subespacio W . Entonces, qv (x) divide al polinomio mnimo qT (x) , de donde , qv (x) es de
la forma
qv (x) = (x a1 )s1 (x ak )sk ,
donde 0 si ri , 1 i k. No es posible que que cada si sea nulo, ya que de lo contrario qv (x) = 1
, y entonces qv (T )(v) = IV (v) = v W , en contra de lo supuesto. Supongamos pues que s1 1 ,
entonces qv (x) = (x a1 )h(x) donde h(x) K[x] es de grado inferior al grado de qv (x). Esto implica
que u = h(T )(v)
/ W. Tambien, (T a1 IV )(u) = (T a1 IV )(h(T )(v)) = qv (T )(v) W. Puesto que
a1 K es una raz del polinomio mnimo , entonces a1 es un valor propio de T (vease la Proposici
on
2). 
Teorema 6.2. Sea T una transformaci
on lineal de un espacio V de dimensi
on finita n 1. T es
triangulable si y s
olo si el polinomio mnimo de T es de la forma
qT (x) = (x a1 )r1 (x ak )rk ,
donde ai K son valores diferentes, 1 ri n, 1 i k, 1 k n. La afirmaci
on del teorema
tambien se cumple si A es una matriz cuadrada de orden n 1.
Demostraci
on: ) Existe una base X en V tal que la matriz de T en dicha base es de la forma

mX (T ) =

a11
0 a22
..
.. . .
.
.
.
0
0

a1n
a2n
..
.
ann

N
otese que el polinomio caracterstico de T es pT (x) = (x a11 ) (x ann ) y los valores propios
de T son a11 , . . . , ann K. Sean a1 , . . . , ak K los valores propios diferentes con multiplicidades
d1 , . . . , dk , de tal manera que
pT (x) = (x a1 )d1 (x ak )dk ,
donde 1 k n , 1 di n , 1 i k. Puesto que el polinomio mnimo de T divide a pT (x),
entonces qT (x) = (x a1 )r1 (x ak )rk , 1 ri di n, 1 i k, 1 k n.
) Sea v1 un vector propio de T correspondiente al valor propio a1 , y sea W1 =< v1 > , W1 es
invariante. Si W1 = V , entonces dim(V ) = 1 y T es triangulable. Si W1 6= V , entonces , por la
Proposici
on 5, existe un vector v2
/ W1 tal que (T aIV )(v2 ) W1 , para alg
un valor propio a de T .
Se tiene entonces que T (v2 ) = b . v1 + a . v2 y {v1 , v2 } es L I. Sea W2 = < v1 , v2 >. Si W2 = V , entonces
dim(V2 ) = 2 y la matriz de T en la base {v1 , v2 } es


a1 b
0 a
y T es triangulable. Si W2 6= V entonces podemos repetir este razonamiento hasta conformar una base
de V en la cual la matriz de T es triangular.
Notemos que la escogencia del valor propio a es arbitraria, sin embargo cada valor ai se puede usar
m
aximo ri veces debido a que estos valores van por la diagonal principal de la matriz.


CAPITULO 6. FORMAS CANONICAS

86

Corolario 6.2. En un cuerpo algebraicamente cerrado cada transformaci


on lineal de un espacio de
dimensi
on finita es triangulable. La afirmaci
on tambien se cumple si A es una matriz cuadrada de
orden n 1.
Teorema 6.3. Sea T una transformaci
on lineal de un espacio V de dimensi
on finita n 1. T es
diagonalizable si y s
olo si el polinomio mnimo de T es de la forma
qT (x) = (x a1 ) (x ak ),
donde ai K son valores diferentes, 1 i k, 1 k n. La afirmaci
on del teorema tambien se
cumple si A es una matriz cuadrada de orden n 1.
Demostraci
on: ) Si T es diagonalizable V tiene una base conformada por vectores propios: X =
{v1 , . . . , vn }. Sean a1 , . . . , ak los diferentes valores propios de T , 1 k n. Sea v = b1 . v1 + +
bn . vn un vector cualquiera de V , entonces
(T a1 . IV ) (T ak . IV )(v) = (T a1 . IV ) (T ak . IV )(b1 .v1 + + bn . vn ) = 0,
ya que las transformaciones polinomiales conmutan y cada vi esta asociado a algunos de los valores
propios ai , 1 i k. Esto indica que el polinomio (x a1 ) (x ak ) se anula en T , de donde,
qT (x) divide a dicho polinomio. Pero como ai es raz de qT (x), entonces cada factor (x ai ) divide a
qT (x), por lo tanto (xa1 ) (xak ) divide a qT (x). Se tiene entonces que qT (x) = (xa1 ) (xak ).
=) N
otese que a1 , . . . , ak son los diferentes valores propios de T (vease la Proposicion 2). Sea
W el espacio generado por todos los vectores propios de T ; si W = V , entonces T es diagonalizable.
Sup
ongase que W 6= V . Demostraremos que esta suposicion nos lleva a una contradiccion.
Es claro que W es invariante. Seg
un la Proposicion 5 , existe u V \ W y un valor propio a de
T tales que v = (T a . IV )(u) W . a es alguna de las races de qT (x) , digamos, a = a1 , entonces
v = (T a1 . IV )(u). Por otro lado, qT (T )(u) = 0 = (T a1 . IV )[(T a2 . IV ) (T ak . IV )(u)], es
decir, w = (T a2 . IV ) (T ak . IV )(u) es un vector propio de T con valor propio a1 , con lo cual
w W . Sea h(x) = (x a2 ) (x ak ) , entonces w = h(T )(u). La division con resduo de h(x)
entre (x a1 ) nos da
h(x) = m(x)(x a1 ) + h(a1 ),
con m(x) K[x]. Entonces,
w = h(T )(u) = m(T )(T a1 .IV )(u) + h(a1 ).u = m(T )(v) + h(a1 ).u,
es decir, h(a1 ).u = w m(T )(v) W ya que v W y W es invariante. Si h(a1 ) 6= 0, entonces u W
y esto contradice la escogencia de u. Por lo tanto, a1 es una de las races de h(x), pero contradice que
los valores a1 , . . . , ak son diferentes. 
Ejericicio 6.2. Determinar si la matriz

0
A= 2
2

1 0
2 2
3 2

es triangulable sobre los reales. En caso afirmativo encontrar una matriz real triangular similar a la
matriz A.
Soluci
on: El polinomio caracterstico de A es x3 . Puesto que A2 6= 0, entonces el polinomio mnimo de
A es tambien x3 . Esto garantiza que A es triangulable.

EN BLOQUES
6.3. DIAGONALIZACION

87

Para calcular una matriz triangular similar a la matriz A podemos aplicar la segunda parte de la
demostraci
on del Teorema 2. El u
nico valor propio de A es 0, para calcular un vector propio podemos
resolver el sistema AX = 0, y obtener como vector basico del espacio propio E(0) a X1 = (1, 0, 1).
Definimos W = hX1 i. Debemos escoger X2
/ W tal que AX2 W, para esto debemos encontrar las
T
soluciones de AX2 = (a, 0, a) , a R. El vector X2 = (1, 1, 0) satisface las dos condiciones anteriores. Ahora debemos escoger X3
/ hX1 , X2 i tal que AX3 hX1 , X2 i. El vector X3 = (0, 0, 1) cumple
estas condiciones. La matriz C que permite triangularizar es

1 1 0
C= 0 1 0
1 0 1
y efectivamente

0
C 1 AC = 0
0

1
0
0

2
2
0

Ejericicio 6.3. Sea K un cuerpo algebraicamente cerrado y sea T : V V una transformaci


on
de un espacio V de dimensi
on finita n 1. Demostrar que en V existen subespacios invariantes
V0 = 0 , V1 , . . . , Vn1 , Vn = V de dimensiones 0 , 1 , . . . , n 1, n tales que
V0 V1 Vn1 Vn = V.
Soluci
on: Como K es algebraicamente cerrado podemos aplicar la Proposicion 5. Sea v1 un vector
propio de T . Entonces claramente < v1 > es T invariante de dimension 1. Si < v1 >= V , ya hemos
terminado: 0 V1 =< v1 >= V . Si < v1 >6= V aplicamos la proposicion y existe un vector v2 <
/ v1 >
y tal que (T aI) (v2 ) < v1 >, donde a es un cierto valor propio de T . Entonces, T (v2 ) = b1 .v1 +
a.v2 , de donde V2 =< v1 , v2 > es T -invariante de dimension 2. Si V2 = V hemos terminado. De lo
contrario aplicamos nuevamente la proposicion mencionada y escogemos un vector v3
/ V2 y tal que
(T cI) (v3 ) V2 , para un cierto valor propio c. Entonces, T (v3 ) = b1 .v1 + b2 .v2 + c.v3 , de donde
V3 =< v1 , v2 , v3 > es T -invariante de dimension 3. Si V3 = V hemos terminado. De lo contrario
continuamos de la misma forma. N
otese que el proceso termina ya que V es de dimension finita.

6.3.

Diagonalizaci
on en Bloques

Otra forma relativamente simple que puede tener una matriz o transformacion es la forma diagonal en
bloques. En esta lecci
on hacemos una introduccion a esta forma canonica la cual complementaremos
m
as adelante.
Definici
on 6.5. Sea A = [aij ] una matriz de orden n 1. Se dice que A es una matriz diagonal en
bloques si n = 1 o si para n 2 existen r 2 enteros positivos k1 , . . . , kr tales que A es de la forma

A1
0

..
A = ... . . .
(6.1)
.
0

Ar

donde Ai es una matriz de orden ki . N


otese que 2 r n , 1 ki n 1 , 1 i r. Una
transformaci
on lineal T : V V de un espacio V de dimensi
on finita n 1 es diagonalizable en bloques
si existe una base en V tal que la matriz de T en dicha base es diagonal en bloques. Finalmente, una
matriz cuadrada A de orden n 1 es diagonalizable en bloques si A es similar a una matriz diagonal
en bloques.
Proposici
on 6.6. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita
n 1. Sea X una base cualquiera de V . Entonces, T es diagonalizable en bloques si y s
olo si mX (T )
es diagonalizable en bloques.


CAPITULO 6. FORMAS CANONICAS

88

Si T es una transformaci
on lineal de un espacio de dimension 1, entonces T es trivialmente diagonalizable en bloques. Consideremos el caso n 2 .
Proposici
on 6.7. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita
n 2. Entonces, T es diagonalizable en bloques si y s
olo si V es suma directa de 2 r n subespacios
invariantes no triviales.
Demostraci
on: ) Sea X = {v1 , . . . , vn } una base de V en la cual la matriz de T es de la forma

A1

mX (T ) = ... . . .
0

0
.. ,
.
Ar

donde Ai es una matriz de orden ki , 1 ki n1 , 1 i r , 2 r n. Notese que k1 + +kr = n.


Podemos escribir la base X en la siguiente forma
X = {v11 , . . . , v1k1 , v21 , . . . , v2k2 , . . . , vr1 , . . . , vrkr }.
Para cada 1 i r se tiene que Wi = < vi1 , . . . , viki > es un subespacio invariante no trivial, y
adem
as V = W1 Wr .
) Si V = W1 Wr es suma directa de 2 r n subespacios invariantes
Sr no triviales, entonces podemos elegir en cada subespacio Wi una base Xi de tal forma que X = i=1 Xi es una base
de V . Es obvio que la matriz de T en dicha base es diagonal en bloques. 

Corolario 6.3. Sea T : V V una transformaci


on lineal de un espacio V de dimensi
on finita n 2.
Sup
ongase que T es diagonalizable en bloques y sea V = W1 Wr una descomposici
on de V en
suma de 2 r n subespacios invariantes no triviales. Sea Ti la restricci
on de T a Wi , 1 i r.
Entonces
a) det(T ) = det(T1 ) det(Tr ).
b) pT (x) = pT1 (x) pTr (x).
c) qT (x) = m.c.m{qT1 (x), , qTr (x)}
Estas relaciones se tienen tambien para matrices diagonales en bloques de la forma (1) definida arriba.
Demostraci
on: Teniendo en cuenta que el determinante, el polinomio caracterstico y el polinomio
mnimo de una transformaci
on lineal coinciden con los de su matriz en cualquier base, entonces basta
probar las tres afirmaciones del corolario en el caso matricial. Ademas, seg
un el Ejercicio 3 de la
Lecci
on 3 del Captulo 4 , el determinante de una matriz diagonal en bloques es el producto de los
determinantes de sus bloques, luego las partes a) y b) ya estan probadas. Resta demostrar la parte c).
Sea

A1
0

..
..
A = ...
.
.
0

Ar

y qA (x) el polinomio mnimo de A. Hagamos m.c.m{qA1 (x), . . . , qAr (x)}= m(x). Existen polinomios
mi (x), 1 i r, tales que m(x) = qAi (x)mi (x). Se debe entonces demostrar que qA (x) = m(x).
Teniendo en cuenta que tanto qA (x) como m(x) son monicos, entonces basta demostrar que qA (x) | m(x)
y m(x) | qA (x). Sea m(x) = m0 + m1 x + + ml xl , entonces

IRREDUCIBLE
6.4. TEOREMA DE DESCOMPOSICION

m(A)

= m0 I + m1 A + + ml Al

m0 I + m1 A1 + + ml Al1

..
=
.

m(A1 )
..
..
.
.
0

0
..
.

m(Ar )

qA1 (A1 )m1 (A1 )

..
..
=
.
.
0

..
.

89

0
..
.
m0 I + m1 Ar + + ml Alr

0
..
.

qAr (Ar )mr (Ar )

Esto garantiza que qA (x) | m(x).

= 0.

Para demostrar la segunda parte basta mostrar que qA (x) es m


ultiplo de cada qAi (x). Sea qA (x) =
q0 + q1 x + + qt xt , entonces qA (A) = 0 luego q0 I + q1 A + + qt At = 0 y

q1 A1
..
q0 I + .
0

..
.

qt At1

..
+ + .
q1 Ar
0
0
..
.

..
.

qA (A1 )

..
..
=
.
.
t
qt Ar
0

0
..
.

0
..
.
qA (Ar )

= 0,

luego qA (Ai ) = 0 para cada i, y esto indica que qA (x) es m


ultiplo de cada qAi (x).

6.4.

Teorema de Descomposici
on Irreducible

Como vimos en la Lecci


on 2, la forma del polinomio mnimo de una matriz o transformacion es clave
para decidir si es posible reducirla a una determinada forma canonica. En esta leccion estudiamos un
teorema sobre la descomposici
on del polinomio mnimo, el cual sera muy u
til en lo que resta de este
captulo. Podemos iniciar con la siguiente proposicion.
Proposici
on 6.8. Sea V un espacio vectorial descompuesto en suma directas finita de k 2 subespacios
V = W1 Wk .
Entonces existen transformaciones lineales T1 , . . . , Tk del espacio V que satisfacen las siguientes condiciones:
a) Ti2 = Ti , 1 i k.
b) Ti Tj = 0 para i 6= j.
c) IV = T1 + + Tk .
d) Im(Ti ) = Wi , 1 i k.
Recprocamente, si T1 , . . . , Tk son transformaciones lineales del espacio V que satisfacen las condiciones
a) - c) , entonces
V = Im(T1 ) Im(Tk ).


CAPITULO 6. FORMAS CANONICAS

90

Demostraci
on: La transformaci
on Ti es simplemente la funcion proyecci
on definida por
Ti (w1 + + wi + wk ) = wi . Estas funciones satisfacen claramente las propiedades a)-d) ya que la
suma de los subespacios Wi es directa.
Para la segunda parte, sea v V , entonces usando la propiedad c) se tiene que v = T1 (v) +
+ Tk (v) Im(T1 ) + + Im (Tk ). Esto demuestra que V = Im(T1 ) + + Im (Tk ). Sea ahora
0 = T1 (v1 ) + + Tk (vk ), aplicando Ti a cada lado y teniendo en cuenta a) y b) resulta 0 = Ti (vi ),
es decir, la suma es directa. 
N
otese que la proposici
on anterior se cumple trivialmente para k = 1.
Teorema 6.4 (de descomposici
on irreducible). Sea T : V V una transformaci
on lineal de un Kespacio V de dimensi
on finita n 1. Sup
ongase que el polinomio mnimo de T tiene la siguiente
descomposici
on en producto de polinomios irreducibles:
qT (x) = q1 (x)r1 . . . qk (x)rk ,
donde q1 (x) , . . . , qk (x) K[x] son polinomios m
onicos irreducibles diferentes, 1 grado(qi (x)) n ,
1 ri n , 1 i k , 1 k n . Sea
Wi = N (qi (T )ri ) ,

1 i k.

Entonces,
a) Cada Wi es invariante y no nulo.
b) V = W1 Wk .
c) Sea Ti la restricci
on de T al subespacio Wi . Entonces el polinomio mnimo de Ti es qi (x)ri .
Demostraci
on: N
otese que el teorema se cumple trivialmente para k = 1.
Sea pues k > 1. Consideremos los polinomios
pi (x) =

qT (x)
,
qi (x)ri

1 i k.

Es claro que el m
aximo com
un divisor de estos polinomios es 1,por lo tanto, existen polinomios
s1 (x) , . . . , sk (x) K[x] tales que
1 = s1 (x)p1 (x) + + sk (x)pk (x).
Sea Li = si (T )pi (T ) , 1 i k. Se puede probar facilmente que estas transformaciones cumplen las
condiciones a) - c) de la Proposici
on 8. Entonces V = Im(L1 ) Im(Lk ).
Queremos ahora demostrar que Im(Li ) = N (qi (T )ri ): sea u Im(Li ) , entonces u = Li (v) , donde v V , y se tiene que
qi (T )ri (u) = qi (T )ri si (T )pi (T )(v) = si (T )pi (T )qi (T )ri (v) = si (T )qT (T )(v) = 0,
lo cual indica que u N (qi (T )ri ). Por otro lado, sea u N (qi (T )ri ); como mencionamos arriba,
IV = L1 + + Lk , y en consecuencia ,
u = L1 (u) + + Lk (u) = s1 (T )p1 (T )(u) + + sk (T )pk (T )(u).
Pero n
otese que para j 6= i se tiene que sj (x)pj (x) es m
ultiplo de qi (x)ri , con lo cual sj (T )pj (T )(u) =
0 ,para j 6= i. Se tiene entonces que u = Li (u), es decir, u Im(Li ).

IRREDUCIBLE
6.4. TEOREMA DE DESCOMPOSICION

91

Haciendo Wi = N (qi (T )ri ), se tiene probada la parte b) del teorema.


Seg
un vimos en la Lecci
on 2 , N (qi (T )ri ) es invariante. Puesto que k > 1, grado(qT (x)) > grado(pi (x))
, por lo tanto, pi (T ) 6= 0. Existe entonces v V tal que w = pi (T )(v) 6= 0, y entonces
qi (T )ri (w) = qi (T )ri pi (T )(v) = qT (T )(v) = 0,
es decir, 0 6= w N (qi (T )ri ). Hemos completado la prueba de la parte a).
Resta probar la parte c). Sea Ti la restriccion de T al subespacio Wi = N (qi (T )ri ). Entonces, para cada u Wi se tiene que qi (Ti )ri (u) = qi (T )ri (u) = 0, es decir, qi (Ti )ri = 0, de donde qi (x)ri es
m
ultiplo del polinomio mnimo de Ti , qTi (x). De otra parte, para cada v V = W1 Wk se tiene
que
Y
qTi (T )pi (T )(v) = qTi (T )
qj (T )rj (w1 + + wk ) = 0,
j6=i

donde wi Wi , 1 i k. Esto quiere decir que qTi (T )pi (T ) = 0, por lo tanto, qTi (x)pi (x) es m
ultiplo
de qT (x) = pi (x)qi (x)ri , y en consecuencia, qTi (x) es m
ultiplo de qi (x)ri .
Esto completa la demostraci
on del teorema. 
Aclaraci
on. Para la prueba de las partes a) y b) del teorema anterior no es necesario suponer que
el espacio V sea de dimensi
on finita. Ademas, podemos reemplazar el polinomio mnimo qT (x) por
cualquier polinomio que se anule en T , es decir, por cualquier m
ultiplo de el. Sin embargo, en esta
generalizaci
on no podemos garantizar en la parte a) que cada sumando Wi sea no nulo.
Como consecuencia de este teorema se tiene el siguiente corolario sobre diagonalizacion en bloques.
El caso n = 1 no es considerado en el corolario, ya que toda transformacion lineal de un espacio de
dimensi
on 1 es diagonalizable en bloques.
Corolario 6.4. Sea T : V V una transformaci
on lineal de un K-espacio V de dimensi
on finita
n 2. Sup
ongase que el polinomio mnimo de T tiene la siguiente descomposici
on :
qT (x) = q1 (x)r1 . . . qk (x)rk ,
donde q1 (x) , . . . , qk (x) K[x] son un polinomios m
onicos irreducibles diferentes, 1 grado(qi (x))
n 1 , 1 ri n 1 , 1 i k , 2 k n . Entonces T es diagonalizable en bloques.
Demostraci
on: Para aplicar la Proposicion 7 y el Teorema de descomposicion irreducible solo necesitamos probar que para cada 1 i k, N (qi (T )ri ) 6= V. Pero esta condicion se tiene, ya que si
N (qi (T )ri ) = V para alg
un i, entonces qi (T )ri = 0 y qi (x)ri sera el polinomio mnimo de T , en contradicci
on con la condici
on k 2. 
Teniendo en cuenta que nuestra definicion de diagonalizacion en bloques requiere de al menos dos
bloques, entonces a
un para cuerpos algebraicamente cerrados no toda matriz o transformacion lineal
es diagonalizable en bloques. De otra parte, notese que el recproco del corolario anterior no se tiene:
la matriz identica es diagonalizable en bloques pero su polinomio mnimo es (x 1).
Ejericicio 6.4. Demuestre que el polinomio mnimo de la matriz


11 4
A=
4 3
es (x 7)2 , pero dicha matriz no es diagonalizable en bloques.


CAPITULO 6. FORMAS CANONICAS

92
Ejericicio 6.5. Demuestre que la matriz

1
0
B=
2
3

1 0
1
3 1
0

1 2 1
2 0
4

es diagonalizable en bloques. Calcule una matriz diagonal en bloques que sea similar a la matriz B.
Soluci
on: Seg
un la Proposici
on 7 y el Teorema de descomposicion irreducible debemos factorizar el
polinomio mnimo y calcular las bases de los n
ucleos de las transformaciones polinomiales de sus
factores. Al unir estas bases obtenemos una base en la cual la matriz dada se convirte en diagonal.
Veamos, usando el SWP podemos calcular y factorizar qB (x):

1 1 0
1
0
3 1
0

, minimum polynomial 36 60X + 37X 2 10X 3 + X 4


2
1 2 1
3 2 0
4
2

36 60X + 37X 2 10X 3 + X 4 = (X 2) (X 3) = qB (x)


Debemos entonces calcular ahora las matrices

2
2
2
(B 2E) =
1
3

1
2 1
1
4
2
1 1
2
, (B 3E) =
3
1
1
0
3
3 2
1

ahora calculamos las bases de sus n


ucleos:

1
2 2 1
1

2
2
1
1
, nullspace basis: 0

1
1
1
1
0

1
3 3 2
1

1
2

3
3

0
0 1 1

1 1 1
, nullspace basis: 0
1
1
2
2

1
1 2 2

Definimos la matriz de cambio

1 1
0 1
0
1
0
1
,
C=
1
0
1
0
1
0 1 1
finalmente,

1 1
0 1

1 1
0 0
.

0
0
1
0
1
1

1
0 2
1 1
3

C 1

1 0
1
1
0
3 1
0

1 2 1 1
2 0
4
1

1
0
=
1
0

1
1
1
0

0
2 1
2
2
2

1 1
2
1
4 2

,
0

,
0

0
0
1
1
,
1
0
1 1


1
1
0 1
1
1
0
1
=
0
1
0 0
0
0 1 1

1
3
0
0

0
0
3
1

0
0
.
0
3

CICLICA
6.5. EL TEOREMA DE DESCOMPOSICION

6.5.

93

El Teorema de Descomposici
on Cclica

Otro de los teoremas fuertes del


algebra lineal de las formas canonicas es el teorema de descomposici
on
cclica que estudiaremos en la presente leccion. Para su formulacion necesitamos algunos preliminares
relacionados con el subespacio cclico generado por un vector.
Definici
on 6.6. Sea V un espacio vectorial de dimensi
on finita n 1, T : V V una transformaci
on
lineal y v un vector cualquiera de V . El conjunto
[v]T = {p(T )(v) | p(x) K[x]}
es claramente el menor subespacio invariante de V que contiene al vector v. Este subespacio se conoce
con el nombre de el T -subespacio cclico generado por v. Cuando no haya lugar a confusi
on, diremos
simplemente que [v] es el subespacio cclico generado por el vector v. N
otese que
[v]T = hT k (v)|k 0i
Mas exactamente, [v]T = hT k (v) | 0 k m 1i, donde m es el grado del polinomio mnimo de la
transformaci
on T . El vector v se dice que es un vector cclico de T si [v]T = V . De manera similar se
define el subespacio []A , donde A es una matriz cuadrada de orden n 1 sobre el cuerpo K y es
un vector cualquiera de K n . En este contexto , es un vector cclico de la matriz A si []A = K n .
Proposici
on 6.9. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on finita
n 1 y sea X = {v1 , . . . , vn } una base de V . Entonces, el vector v = c1 .v1 + + cn .vn es un vector
cclico de T si y s
olo si = (c1 , . . . , cn ) es un vector cclico de la matriz de T en la base X.
Demostraci
on: Sea A = mX (T ) la matriz de la transformacion T en la base X; entonces para cada
k 0 se tiene que Ak es la matriz de T k en la base X. Puesto que V es un K-espacio de dimension n,
entonces se tiene el isomorfismo
: V Kn
vi ei

donde {e1 , . . . , en } denota la base canonica de K n (vease el Teorema 3 del Captulo 2). Sea v =
c1 .v1 + + cn .vn V y = (c1 , . . . , cn ) K n . Notese que (v) = . Se tiene entonces el siguiente
diagrama conmutativo para cada k 0 :
V
Tk
V

Kn
Ak
Kn

Debemos demostrar que [v]T = V si y solo si []A = K n . Teniendo en cuenta que [v]T = hT k (v) | 0
k m 1i y que []A = hAk . |0 k m 1i, donde m es el grado del polinomio mnimo de T ( y
tambien de A), entonces basta probar que
hT k (v) | 0 k m 1i = V hAk . |0 k m 1i = K n .
Supongamos que hT k (v) | 0 k m 1i = V y veamos que cada vector canonico ei de K n pertenece
a hAk . |0 k m 1i. Para el vector vi de la base X de V se tiene que vi = b1 .T 0 (v) + +
bm1 .T m1 (v), donde b1 , . . . , bm1 K. Entonces aplicando y la conmutatividad del diagrama de
arriba se tiene que
ei = b1 .(T 0 (v)) + + bm1 .(T m1 (v))
= b1 . A0 (v) + + bm1 . Am1 (v)
= b1 . A0 + + bm1 . Am1
Para la prueba de afirmaci
on recproca partimos de la u
ltima igualdad y aplicamos 1 .
A continuaci
on presentamos algunas propiedades evidentes de [v]:


CAPITULO 6. FORMAS CANONICAS

94
a) [0] = 0
b) dim([v]) = 1 v es un vector propio de T .

c) Sea v 6= 0, y qv (x) su polinomio anulador. Entonces dim([v]) =grado (qv (x)). Mas exactamente,
si grado( qv (x)) = k, entonces {v, T (v), . . . , T k1 (v)} es una base de [v].
d) Sea T [v] la restricci
on de T a [v]. Entonces, el polinomio mnimo de T
qv (x) del vector v.

[v]

coincide con el anulador

e) Si v es un vector cclico de T , entonces qv (x) = qT (x) = pT (x).


Ya estamos en capacidad de enunciar el segundo teorema central del presente captulo.
Teorema 6.5 (de descomposici
on cclica). Sea T : V V una transformaci
on lineal de un espacio V
de dimensi
on finita n 1. Entonces existen r 1 vectores no nulos v1 , . . . , vr en V con polinomios
anuladores qv1 (x) , . . . , qvr (x) tales que
a) V = [v1 ] [vr ]
b) qvi+1 (x) | qvi (x) ,

1 i r 1.

c) qv1 (x) = qT (x).


Adem
as, el entero r y los polinomios anuladores qv1 (x) , . . . , qvr (x) est
an unvocamente determinados
por a) y b), es decir, si existen otros vectores no nulos w1 , . . . , ws con anuladores qw1 (x) , . . . , qws (x)
tales que se cumplen a) y b), entonces r = s y qvi (x) = qwi (x) para cada 1 i r.
Demostraci
on: La prueba de este importante teorema es extensa, razon por la cual la hemos dividido
en varias partes. Primero probaremos lo relativo a la existencia de la descomposicion deseada.
Parte I . Comencemos probando que podemos encontrar r 1 vectores no nulos u1 , . . . , ur en V
tales que cumplen las siguientes condiciones:
i) V = [u1 ] + + [ur ]
ii) Sea Wk = [u1 ] + + [uk ] , 2 k r, entonces el polinomio mnimo quk (x) de uk relativo a
Wk1 y a T es de grado m
aximo, es decir, si v V y qv (x) es el polinomio mnimo de v relativo
a Wk1 y a T , entonces gr(quk (x)) gr(qv (x)) (vease el concepto de polinomio mnimo). Para
k = 1, u1 es un vector no nulo tal que el grado de su polinomio anulador es maximo.
Paso 1. La idea es definir W1 = [u1 ] y W2 , . . . , Wr recursivamente seg
un ii) hasta completar todo el
espacio V . Para ello se requiere que cada Wk tenga dimension mayor que el anterior.
Comencemos la discusi
on para un subespacio propio invariante W cualquiera de V. Sea u V W ,
entonces u 6= 0 y consideremos el polinomio mnimo del vector u relativo a W y a T , qu (x). Sabemos
T
que cada polinomio del T -ideal generado por u en W , IW
(u), es m
ultiplo de qu (x). Aseguramos que
qu (x) no es una constante, es decir, que gr(qu (x)) > 0: en caso contrario, sea qu (x) = a K, entonces
T
a 6= 0 pues pT (x) IW
(u) y entonces pT (x) es m
ultiplo de a. Se tendra entonces que a.u W y, en
1
consecuencia, a a.u = u W , lo cual contradice la escogencia de u. De otra parte, gr(qu (x)) n ya
que pT (x) es m
ultiplo de qu (x).
Entre todos los vectores u V W escogamos uno tal que gr(qu (x)) sea maximo. Sea [u] el subespacio cclico generado por el vector u. Aseguramos que W es un subespacio propio de W + [u] :
si W + [u] = W , entonces [u] W con lo cual u W , y esto es imposible. Se tiene entonces que
dim(W +[u]) > dim(W ) . N
otese adicionalmente que W +[u] es invariante ya que es suma de invariantes.

CICLICA
6.5. EL TEOREMA DE DESCOMPOSICION

95

Hemos demostrado que para cada subespacio propio e invariante W de V existe un vector no nulo u V W tal que W + [u] es invariante, dim(W + [u]) > dim(W ) y el grado del polinomio mnimo
qu (x) de u relativo a W y a T es m
aximo.
Paso 2. Tomando en el paso anterior W = 0 encontramos un vector u1 6= 0 tal que [u1 ] es invariante y gr(qu1 (x)) es m
aximo (en este caso particular qu1 (x) es el polinomio anulador del vector u1 ).
Sea W1 = [u1 ]. Si W1 = V , la prueba de la Parte I ha terminado (en este caso u1 es un vector cclico
y por lo tanto qu1 (x) = qT (x). La prueba de la existencia en este caso ya ha terminado).
Supongamos entonces que W1 es propio. De acuerdo a lo probado en el Paso 1, existe un vector no
nulo u2 V W1 tal que gr(qu2 (x)) es maximo, W1 + [u2 ] es invariante y dim(W1 + [u2 ]) > dim(W1 )
(qu2 (x) es el polinomio mnimo de u2 relativo a W1 y a T ). Sea W2 = W1 + [u2 ]. Si W2 = V la prueba
de la Parte I ha terminado. En otro caso podemos aplicar recursivamente el Paso 1 y puesto que V
es de dimensi
on finita podemos asegurar que existen vectores no nulos u1 , . . . , ur en V tales que se
cumple lo afirmado en la Parte I.
on de r 2 vectores no nulos de V que cumplen las condiciones
Parte II. Sea u1 , . . . , ur una colecci
i) y ii) de la Parte I, y sea v un vector cualquiera de V . Para 2 k r fijo, sea f (x) el polinomio
mnimo de v relativo a Wk1 = [u1 ] + + [uk1 ]. Entonces existen polinomios g1 (x), . . . , gk1 (x) tales
que
f (T )(v) = g1 (T )(u1 ) + + gk1 (T )(uk1 ).
(6.2)
En esta parte de la prueba queremos demostrar que entonces f (x) divide a cada uno de los polinomios
gi (x). Para cada i consideremos la division con residuo.
gi (x) = f (x)ci (x) + ri (x), ri (x) = 0 o, gr(ri (x)) < gr(f (x)).
Se trata de demostrar que todos los residuos ri (x) son nulos.
Paso 1. Comencemos con lo siguiente: sea y el vector definido por
y = v [c1 (T )(u1 ) + + ck1 (T )(uk1 )].
Veamos que f (T )(y) = r1 (T )(u1 ) + + rk1 (T )(uk1 ) : en efecto,
f (T )(y)

=
=
=
=

f (T )(v) f (T )[c1 (T )(u1 ) + + ck1 (T )(uk1 )]

f (T )(v) [g1 (T )(u1 ) + + gk1 (T )(uk1 )] + [r1 (T )(u1 ) + + rk1 (T )(uk1 )]

f (T )(v) f (T )(v) + [r1 (T )(u1 ) + + rk1 (T )(uk1 )]

[r1 (T )(u1 ) + + rk1 (T )(uk1 )].

T
T
Paso 2. IW
(v) = IW
(y) (luego, f (x) es el polinomio mnimo de y relativo a Wk1 ): sea m(x)
k1
k1
T
IWk1 (v), entonces m(T )(v) Wk1 y

m(T )(v) = m(T )(y+[c1 (T )(u1 )+ +ck1 (T )(uk1 )]) = m(T )(y)+m(T )[c1 (T )(u1 )+ +ck1 (T )(uk1 )]
T
de donde m(T )(y) Wk1 , es decir, m(x) IW
(y). La prueba de la otra inclusion es completamente
k1
an
aloga.

Paso 3. Sup
ongase que no todos los resduos ri (x) son nulos, y sea rj (x) 6= 0 con mayor ndice
j. Entonces, f (T )(y) = r1 (T (u1 ) + + rj (T )(uj ); sea p(x) el polinomio mnimo de y relativo a
Wj1 , puesto que Wj1 Wk1 , entonces de p(T )(y) Wj1 se sigue que p(T )(y) Wk1 , luego
T
T
p(x) IW
(y) = IW
(v), es decir, p(x) es m
ultiplo de f (x). Sea p(x) = f (x)g(x). Resulta,
k1
k1
p(T )(y) = g(T )f (T )(y) = g(T )[r1 (T )(u1 ) + + rj (T )(uj )] = g(T )r1 (T )(u1 ) + + g(T )rj (T )(uj );


CAPITULO 6. FORMAS CANONICAS

96

pero por la definici


on de p(x), p(T )(y) Wj1 y como ademas W1 W2 Wj1 son invariantes, entonces g(T )rj (T )(uj ) Wj1 , de donde el polinomio g(x)rj (x) es m
ultiplo del polinomio
mnimo de uj realtivo al subespacio Wj1 . Seg
un la condicion ii) de la Parte I, este polinomio mnimo
tiene grado m
aximo, luego el grado de g(x)rj (x) gr(p(x)). De estas consideraciones se concluye que gr(g(x)) + gr(rj (x)) = gr(g(x)rj (x)) gr(p(x)) = gr(f (x)g(x)) = gr(g(x)) + gr(f (x)), luego
gr(rj (x)) gr(f (x)), obteniendose una contradiccion. Esto indica que efectivamente todos los resduos
ri (x) son nulos.
Parte III. La idea ahora es construir los vectores vi de la parte a) del teorema a partir de los
vectores ui que hemos encontrado en la Parte II de la prueba.
Paso 1. Sea u1 , . . . , ur una colecci
on de r 1 vectores no nulos de V con polinomios mnimos qui (x)
que cumplen las condiciones i) y ii) de la Parte I. Si r = 1, entonces, como anotamos antes, V = [u1 ],
u1 es un vector cclico y por lo tanto qu1 (x) = qT (x). Sea pues r 2 como en la Parte II; para cada
1 i r queremos construir los vectores vi ; definimos
v1 = u1 ,
seg
un el Paso 2 de la prueba de la Parte I, qv1 (x) es el polinomio anulador del vector v1 . Para i 2
definimos
vi = ui [h1 (T )(u1 ) + + hi1 (T )(ui1 )],
(6.3)

donde los polinomios h1 (x), . . . , hi1 (x) se definen de la siguiente manera. En calidad de vector v en el
razonamiento de la Parte II tomamos ui y en calidad de f (x) tomamos qui (x) , el polinomio mnimo
de ui relativo a Wi1 ; seg
un (6.2) existen polinomios g1 (x), . . . , gi1 (x) tales que
qui (T )(ui ) = g1 (T )(u1 ) + + gi1 (T )(ui1 )
y adem
as qui (x) divide a cada uno de los polinomios gj (x), 1 j i1. Los polinomios h1 (x), . . . , hi1 (x)
se definen entonces mediante esta u
ltima condicion , es decir, son tales que gj (x) = qui (x)hj (x), 1
T
T
j i 1. Como en el Paso 2 de la Parte II, IW
(vi ) = IW
(ui ), luego qui (x) es el polinomio mnimo
i1
i1
de vi relativo a Wi1 .
Paso 2. A partir de lo anterior vamos a demostrar que
[vi ] Wi1 = 0,

(6.4)

donde, como siempre, Wi1 = [u1 ] + + [ui1 ]. Sea z [vi ] Wi1 , entonces z = g(T )(vi ) Wi1
T
T
luego g(x) IW
(vi ) = IW
(ui ), de donde, g(x) es m
ultiplo de qui (x). Existe entonces s(x) tal que
i1
i1
g(x) = s(x)qui (x) y
z = g(T )(vi ) = s(T )qui (T )(vi ) =
s(T )qui (T )(ui [h1 (T )(u1 ) + + hi1 (T )(ui1 )]) =
s(T )[qui (T )(ui ) qui (T )(h1 (T )(u1 ) + + hi1 (T )(ui1 ))] =
s(T )[qui (T )(ui ) qui (T )h1 (T )(u1 ) qui (T )hi1 (T )(ui1 )] =
s(T )[qui (T )(ui ) (g1 (T )(u1 ) + + gi1 (T )(ui1 ))] =
s(T )[qui (T )(ui ) qui (T )(ui )] = 0.
Paso 3. Veamos que la suma [v1 ] + + [vr ] es directa.
Para comenzar n
otese que la interseccion de [v1 ] con [v2 ] es nula, es decir que la suma [v1 ] + [v2 ]
es directa: en efecto [v2 ] [v1 ] = [v2 ] [u1 ] = [v2 ] W1 = 0.
Supongamos inductivamente que la suma [v1 ] + + [vi1 ] es directa y probemos que la intersecci
on de [vi ] con dicha suma es nula. Sea z [vi ] ([v1 ] + + [vi1 ]), entonces existen polinomios
m(x), m1 (x), . . . , mi1 (x) tales que

CICLICA
6.5. EL TEOREMA DE DESCOMPOSICION

97

z = m(T )(vi ) = m1 (T )(v1 ) + + mi1 (T )(vi1 ),


pero esto seg
un (6.3) implica que z [vi ] Wi1 = 0.
Paso 4. Para terminar la prueba de la parte a) de teorema notese que V = [v1 ] + + [vr ].
Parte IV. Para la prueba sobre los anuladores se debe demostrar que los polinomios qu1 (x), . . . , qur (x)
encontrados anteriormente son precisamente los anuladores de los elementos v1 , . . . , vr respectivamente.
El caso i = 1 ya lo consideramos en el Paso 1 de la Parte III. Sea i 2, sabemos que el polinomio mnimo de vi relativo a Wi1 coincide con qui (x), luego qui (T )(vi ) Wi1 , pero seg
un (6.4),
qui (T )(vi ) = 0, luego qui (x) es m
ultiplo del polinomio anulador de vi .
Sea qvi (x) el polinomio anulador de vi , entonces qvi (T )(vi ) = 0 Wi1 , luego qvi (x) es m
ultiplo
de el polinomio mnimo de vi relativo a Wi1 , es decir, es m
ultiplo de qui (x). Hemos pues demostrado
que qui (x) = polinomio anulador de vi = qvi (x).
Parte V. Veamos la prueba de la parte b). qvi (T )(vi ) = 0, para cada 1 i r. Luego,
qvi+1 (T )(vi+1 ) = 0 = qv1 (T )(v1 ) + + qvi (T )(vi ) =
qv1 (T )(u1 ) + qv2 (T )(u2 w1 ) + + qvi (T )(ui wi1 ) =
qv1 (T )(u1 ) + + qvi (T )(ui ) + w,
donde w1 W1 , . . . , wi1 Wi1 y w Wi1 Wi . Pero entonces w pertenece a [vi+1 ] Wi = 0. En
total
qvi+1 (T )(vi+1 ) = qv1 (T )(u1 ) + + qvi (T )(ui ),
luego razonando como en la Parte II se tiene que qvi+1 (x) | qvj (x) para cada 1 j i. Esto completa
la prueba de la parte b).
Parte VI. Ahora vamos a demostrar la parte c). Sea qT (x) el polinomio mnimo de T, entonces
sabemos que qT (x) es m
ultiplo de qv1 (x).
De otra parte, seg
un la Parte V, qvi (x) |qv1 (x) para cada 1 i r. Existen entonces polinomios
mi (x) tales que qv1 (x) = mi (x)qvi (x). Sea v un vector cualquiera de V , entonces existen polinomios
si (x) tales que
v = s1 (T )(v1 ) + + sr (T )(vr ),
qv1 (T )(v) = s1 (T )(m1 (T )qv1 (T )(v1 )) + + sr (T )(mr (T )qvr (T )(vr )) = 0,
por lo tanto qv1 (T ) = 0, de donde qv1 (x) es m
ultiplo de qT (x).
Parte VII. Solo resta probar la parte relativa a la unicidad. Sean w1 , . . . , ws vectores no nulos
con anuladores qw1 (x) , . . . , qws (x) tales que se cumplen las condiciones a) y b) del enunciado del
teorema.
Paso 1. qv1 (x) = qw1 (x) : Basta probar que qw1 (x) = qT (x). Pero esta prueba es identica a la
que realizamos en la Parte VI.
Paso 2. Supongamos inductivamente que qvi (x) = qwi (x) para 1 i k 1, donde k r. Puesto
que k 1 < r, entonces [v1 ] [vk1 ] es un subespacio propio de V , con lo cual
dim([v1 ]) + + dim([vk1 ]) < dim(V ),


CAPITULO 6. FORMAS CANONICAS

98

pero como qvi (x) = qwi (x) para 1 i k 1, entonces dim([vi ]) = dim([wi ]) y por lo tanto
dim([w1 ]) + + dim([wk1 ]) < dim(V ) y por lo tanto k 1 < s, es decir, k s. Esto al menos
indica que la pregunta sobre la igualdad de qvk (x) y qwk (x) tiene sentido.
Paso 3. Probemos inicialmente que qwk (x) | qvk (x).
qvk (T )(V ) = qvk (T )([v1 ] [vr ]) =
qvk (T )([v1 ]) qvk (T )([vr ]) =
[qvk (T )(v1 )] [qvk (T )(vr )];
para j k , qvk (x) es m
ultiplo de qvj (T ) luego la suma anterior se reduce a
qvk (T )(V ) = [qvk (T )(v1 )] [qvk (T )(vk1 )].

(6.5)

Por otro lado,


qvk (T )(V ) = qvk (T )([w1 ] [ws ]) =

[qvk (T )(w1 )] [qvk (T )(wk1 )] [qvk (T )(wk )] [qvk (T )(ws )],

(6.6)

pero como qvi (x) = qwi (x) para 1 i k 1, entonces se puede probar facilmente que los polinomios
anuladores de qvk (T )(vi ) y qvk (T )(wi ) tambien son iguales y en consecuencia dim([qvk (T )(vi )]) =
dim([qvk (T )(wi )]). Aplicando esto a (6.5) y (6.6) se obtiene que
0 = [qvk (T )(wk )] [qvk (T )(ws )],
de donde [qvk (T )(wj )] = 0 para k j s, en cosecuencia, qvk (T )(wj ) = 0, de manera que qvk (x) es
m
ultiplo de qwj (x) para cada k j s, en particular qvk (x) es m
ultiplo de qwk (x).
Podemos repetir todo el razonamiento anterior y probar tambien que qwk (x) es m
ultiplo de qvk (x).
Paso 4. Por lo anterior resulta imposible que r 6= s, ya que seg
un vimos k r si y solo si k s.

6.6.

Forma Can
onica Racional

Recordemos que dos matrices rectangulares son equivalentes si y solo si tienen el mismo rango (vease
el Corolario 4 del Captulo 3). Sin embargo, esto no es necesariamente cierto para matrices cuadradas
mediante similaridad. La forma can
onica racional que estudiaremos en la presente leccion permite clasificar las matrices cuadradas por similaridad en terminos de de sus factores invariantes.
Sea p(x) = a0 + a1 x + + an1 xn1
matriz

0
1

..
.
0

+ xn un polinomio monico de grado n 1 de K[x]. La


0
0
1
..
..
.
.
0

0
0
0
..
.

a0
a1
a2
..
.

an1

se conoce con el nombre de matriz compa


nera del polinomio p(x). Si p(x) = a + x es de grado 1,
entonces la matriz compa
nera de p(x) se define como la matriz [a] de tama
no 1 1. La siguiente
proposici
on muestra una conexi
on entre este concepto y el concepto de vector cclico presentado en la
lecci
on inmediatamente anterior.


6.6. FORMA CANONICA
RACIONAL

99

Proposici
on 6.10. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on n 1.
Entonces, T tiene un vector cclico si y s
olo si existe una base X en V tal que mX (T ) es la matriz
compa
nera del polinomio mnimo de T .
Demostraci
on: ) Sea v un vector cclico de T , entonces de acuerdo a las propiedades estudiadas en
la lecci
on anterior, X = {v, T (v), . . . , T n1 (v)} es una base de V y la matriz de T en dicha base es

0 0 0
a0
1 0 0
a1

0 1 0
a2
,

.. ..
.. ..
..
. .
. .
.
0

an1

donde a0 + a1 x + + an1 xn1 + xn = qT (x) = pT (x) = qv (x)

) Sea X = {v1 , . . . , vn } una base de V tal que mX (T ) es la matriz compa


nera del polinomio mnimo
de T , qT (x) = a0 +a1 x+ +ak1 xk1 +xk , se tiene entonces necesariamente que k = n, y ademas, v2 =
T (v1 ), v3 = T (v2 ) = T 2 (v1 ), . . . , vn = T (vn1 ) = T n1 (v1 ), es decir, {v1 , T (v1 ), T 2 (v1 ), . . . , T n1 (v1 )}
es una base de V , con lo cual, V =< v1 , T (v1 ), T 2 (v1 ), . . . , T n1 (v1 ) > [v1 ] y v1 es un vector cclico
de T . 
Corolario 6.5. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on n 1, y sea
v 6= 0 un vector de V. Sea [v]T el subespacio cclico generado por el vector v y T[v] la restricci
on de T
a [v]T . Entonces, v es un vector cclico de T[v] y existe una base X en [v]T tal que la matriz de T[v]
en dicha base es la matriz compa
nera de qv (x).
Demostraci
on: Sabemos que
[v]T[v] = {p(T[v] )(v) | p(x) K[x]} = {p(T )(v) | p(x) K[x]} = [v],
es decir, v es un vector cclico de T[v] . Seg
un la Proposicion 10, existe una base X en [v]T tal que la
matriz de T[v] en dicha base es la compa
nera del polinomio mnimo de T[v] . Pero sabemos que dicho
polinomio coincide con qv (x).
Proposici
on 6.11. Sea A una matriz cuadrada de orden n 1. Si A es la matriz compa
nera de un
polinomio m
onico p(x), entonces p(x) es el polinomio mnimo y caracterstico de la matriz A.
Demostraci
on: Sea

A=

0 0
1 0
0 1
.. ..
. .
0 0

0
a0
0
a1
0
a2
.. ..
..
. .
.
1 an1

la matriz compa
nera del polinomio p(x) = a0 + a1 x + + an1 xn1 + xn . A representa la matriz
de una cierta transformaci
on T de K n en la base canonica X = {e1 , . . . , en }(vease el paso 2 de la
demostraci
on del Teorema 1 del Captulo 3). Entonces,
.
T (e1 ) = e2 , T (e2 ) = e3 = T 2 (e1 ) .. T (en1 ) = en = T n1 (e1 ),
es decir, X = {e1 , T (e1 ), . . . , T n1 (e1 )}, con lo cual, K n =< e1 , T (e1 ), . . . , T n1 (e1 ) > [e1 ], y e1
resulta ser un vector cclico de T . Entonces, por las propiedades de los vectores cclicos estudiadas en la
lecci
on anterior se tiene que qT (x) = pT (x) = qe1 (x). Pero sabemos que qT (x) = qA (x) y pT (x) = pA (x).
Hemos probado que qe1 (x) = qA (x) = pA (x). Ademas,


CAPITULO 6. FORMAS CANONICAS

100

T (en ) = T n (e1 ) = a0 .e1 a1 .e2 an1 .en = a0 .e1 a1 .T (e1 ) an1 .T n1 (e1 ),
es decir, a0 .e1 + a1 .T (e1 ) + + an1 .T n1 (e1 ) + T n (e1 ) = 0, lo cual indica que el polinomio p(x) =
a0 + a1 x + + an1 xn1 + xn es m
ultiplo de qe1 (x), y por razones de grado se tiene la igualdad
p(x) = qe1 (x). 
Ya podemos definir los conceptos de transformacion lineal racionalizable y matriz racionalizable.
Definici
on 6.7. Sea A una matriz cuadrada de orden n 1, se dice que A es una matriz racional o
matriz de Frobenius si existen polinomios m
onicos no constantes p1 (x), . . . , pr (x) K[x], 1 r n,
tales que pi+1 (x) | pi (x) para cada 1 i r 1 y A es de la forma

A1
0
.. . .
.. ,
(6.7)
.
.
.
0

Ar

donde el bloque Ai es la matriz compa


nera del polinomio pi (x) , 1 i r. Los polinomios pi (x) se
conocen como los factores invariantes de la matriz A. N
otese que el orden de Ai es igual al grado del
polinomio pi (x), adem
as, por el Corolario 3 y la Proposici
on 11, se tiene que pA (x) = p1 (x) pr (x),
qA (x) = m.c.m{p1 (x), . . . , pr (x)} = p1 (x). Una matriz B se dice racionalizable si B es similar a una
matriz racional. Finalmente, sea T : V V una transformaci
on lineal de un espacio V de dimensi
on
n 1, se dice que T es racionalizable si existe una base X en V tal que la matriz de T en dicha base
es una matriz racional.
De manera inmediata se tiene el siguiente corolario.
Corolario 6.6. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on n 1 y sea
X una base cualquiera de V . Entonces, T es racionalizable si y s
olo si mX (T ) es racionalizable.
Teorema 6.6. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on n 1.
Entonces, existe una base X en V tal que mX (T ) es racional. En otras palabras, toda transformaci
on
lineal de un espacio V de dimensi
on n 1 es racionalizable. Tambien, toda matriz A de orden n 1
es racionalizable.
Demostraci
on: Seg
un el Teorema de Descomposicion Cclica, existen vectores no nulos v1 , . . . , vr V
con polinomios anuladores qv1 (x), . . . , qvr (x) tales que
V = [v1 ] [vr ]

y qvi+1 (x) | qvi (x) para cada 1 i r 1. Puesto que los vectores vi son no nulos, entonces los polinomios qvi (x) no son constantes. Teniendo en cuenta que los subespacios [vi ] son invariantes, podemos
aplicar el Corolario 5 de la Lecci
on 6 y la Proposicion 7 para completar la prueba del teorema.
N
otese que por el Teorema de Descomposicion Cclica, existe un vector v1 en V tal que qv1 (x) coincide
con el polinomio mnimo de T. Esta observacion y el hecho que dim([v1 ])=grado(qv1 (x)), permite
entonces sacar las siguientes conclusiones.
Corolario 6.7. Sea T : V V una transformaci
on lineal de un espacio V de dimensi
on n 1.
Entonces,
a) Existe un vector v1 en V tal que qv1 (x) coincide con el polinomio mnimo de T.
b) T tiene un vector cclico si y solo si pT (x) = qT (x).
Las mismas afirmaciones son v
alidas para matrices.


6.6. FORMA CANONICA
RACIONAL

101

Ejericicio 6.6. Determine si la matriz

2
A= 0
0

0
2
0

0
0
1

tiene vectores cclicos.


Para terminar queremos considerar el problema de similaridad de matrices en terminos de los factores invariantes.
Proposici
on 6.12. Toda matriz cuadrada B de orden n 1 es similar a una y s
olo una matriz
racional de la forma 6.7 descrita arriba. Los polinomios m
onicos p1 (x), . . . , pr (x) se conocen como los
factores invariantes de la matriz B.
Demostraci
on: Sea Y la base can
onica de K n y T : K n K n una transformacion lineal tal que B es
la matriz de T en la base Y . Sea A una matriz racional de la forma 6.7 similar a la matriz B. Existe
entonces una base X en K n tal que A = mX (T ). Queremos demostrar que entonces K n tiene una
descomposici
on cclica en la forma
K n = [v1 ] [vr ]
En efecto, si la matriz racional A tiene un solo bloque, entonces seg
un la Proposicion 11 y el Corolario
7, T tiene un vector cclico y as K n = [v]. Si el n
umero de bloques de A es r 2, entonces de acuerdo
a la Proposici
on 7, K n se descompone en la forma
K n = W1 Wr ,
de tal manera que si Ti es la restricci
on de T a Wi y Xi es una base de Wi , el bloque Ai de A es
Ai = mXi (Ti ). Aplicando nuevamente la Proposicion 11 y el Corolario 7, se tiene que Wi tiene un
vector cclico no nulo vi , de donde Wi = [vi ], 1 i r. Esto completa la prueba de la descomposici
on
enunciada arriba.
Una consecuencia inmediata de esta afirmacion es el siguiente corolario.
Corolario 6.8. Dos matrices cuadradas son similares si y s
olo si tienen la misma forma can
onica
racional, es decir, si y s
olo si tienen los mismos factores invariantes.
Ejericicio 6.7. Sea p(x) = a0 + a1 x + + an1 xn1 + xn un polinomio monico de grado n 1 y
sea A su matriz compa
nera. Demuestre que xE A es equivalente a la matriz

p(x)
0
..
.

0
1
..
.

..
.

0
0
..
.

(Para este ejercicio considere operaciones elementales en el conjunto de matrices con entradas en
el anillo de polinomios K[x]. La segunda operacion elemental debe entenderse en este caso como
multiplicaci
on por un polinomio constante no nulo).
Ejericicio 6.8. Sea A una matriz de grado n 1 con entradas en un cuerpo K, y sean p1 (x), . . . , pr (x)
sus factores invariantes. Utilizando el Ejercicio 7 demuestre que la matriz xE A es equivalente a la
matriz


CAPITULO 6. FORMAS CANONICAS

102

p1 (x)
0
..
.
..
.
..
.
..
.
0

..
.
..
.
..
.
..
.

0
p2 (x)
..
.
..
.
..
.
..
.
0

..
.

..
.
..
pr (x) .
..
.
1
..
..
.
.

..
.
..
.
..
.
..

0
0
..
.
..
.
..
.
..
.
1

Soluci
on: Sabemos que A es racionalizable, por lo tanto existe una matriz invertible C tal que

A1
.. . .
1
C AC = .
.
0

0
..
.
Ar

donde Ai es la compa
nera de pi (x), 1 i r. Entonces, C 1 (xE A)C = xE C 1 AC, es decir,

xE A1

.. . .
1
C (xE A)C =
.
.
0

Seg
un el ejercicio anterior, xE Ai es equivalente a la matriz

pi (x)

.. . .

.
.
0

por lo tanto la matriz xE A es equivalente a la matriz

p1 (x)
0
..
.
..
.
..
.
..
.
0

..
.
..
.
..
.
..
.

0
p2 (x)
..
.
..
.
..
.
..
.
0

0
..
.
xE Ar

0
..
.
1

..
.

..
.
..
pr (x) .
..
.
1
..
..
.
.

..
.
..
.
..
.
..

0
0
..
.
..
.
..
.
..
.
1

Notemos que el polinomio caracterstico de A es el producto de sus factores invariantes, es decir,


pA (x) = det (xE A) = p1 (x) pr (x).
Ejericicio 6.9. Calcular los factores invariates y la forma canonica racional de la matriz

3
A = 1
2

Adem
as, calcular una matriz racionalizante C.

4 4
3
2
4 3

Soluci
on: Para calcular los factores invariantes, aplicamos el metodo expuesto en el ejercicio anterior,
es decir, realizamos operaciones elementales sobre la matriz caractersitica xE A:


6.6. FORMA CANONICA
RACIONAL

103

x3
4
4
1 x3
2
1 x3
2 x 3
4
4
xE A =
2
4 x+3
2
4 x+3

1
x3
2
0 (x 5) (x 1) 2x 2
0
2x 2 x 1

1
0
0
0 (x 5) (x 1) 2 (x 1)
0
2 (x 1)
x1

1
0
0
1
0
0
2
2
0 (x 1)
0 0 (x 1)
0
0
2 (x 1) x 1
0
0 x1

2
(x 1)
0 0

0 x1 0
0
0 1
2

Por lo tanto, p1 (x) = qA (x) = (x 1) = x2 2x + 1, y p2 (x) = (x 1). La forma racional de A es


entonces

0 1 0
2 0
R= 1
0
0 1

Veamos ahora como calcular la matriz racionalizante C: seg


un el Teorema de Descomposicion Cclica se
tiene que R3 = [v1 ][v2 ], donde v1 es un vector tal que {v1 , Av1 } sean LI pero {v1 , Av1 , A2 v1 } sean LD.
Se puede comprobar que e1 satisface estas dos condiciones de tal forma que {(1, 0, 0) , Ae1 = (3, 1, 2)}
es una base de [v1 ]. Para v2 se debe tener que dim[v2 ] = 1 y v2
/ [v1 ], es decir, v2 es un vector propio
tal que {e1 , Ae1 , v2 } sean LI: los vectores propios son {(2, 1, 0) , (2, 0, 1)}, notemos que

1
rank 0
0

Entonces v2 = (2, 1, 0) y la matriz C es entonces

1
C= 0
0

En efecto,

1
1
3 2
3
0 1 1 1
0
2 0
2

3 2
1 1 = 3
2 0

3 2
1 1
2 0

4 4
1
3
2 0
4 3
0


3 2
0
1 1 = 1
2 0
0

1 0
2 0 =R
0 1

Ejericicio 6.10. En este ejercicio mostramos otro procedimiento para calcular los factores invariantes
de una matriz (la justificaci
on te
orica de este procedimiento se puede consultar en N. Jacobson, Basic
Algebra, Freeman, San Francisco, 1974 o tambien en A. Maltsev, Fundamentos de Algebra Lineal,
Mir, Mosc
u,1978 ):


CAPITULO 6. FORMAS CANONICAS

104

4
1
A=
6
6

1
1
1
2 1 1

1 1
1
1
4
2

Soluci
on:
Paso 1 . Definimos la matriz caracterstica de A, es decir,

z4

Az =
6
6

1
z2
1
1

1
1
z+1
4

1
1

1
z2

Paso 2 . Calculamos siguientes polinomios determinantes:

D1 (z) = m.c.d de los polinomios que resultan de calcular los determinantes de todas las submatrices de Az de tama
no 1 1.

D2 (z) = mcd de de los polinomios que resultan de calcular los determinantes de todas las
submatrices de Az de tama
no 2 2.
..
.

Dn (z) = mcd de de los polinomios que resultan de calcular los determinantes de todas las
submatrices de Az de tama
no n n = pA (z).
Para la matriz Az de nuestro ejemplo se tiene que

D1 (z) = 1

D2 (z) = 1, ya que det

1
1

1
4

=5

D3 (z) = z 3. En efecto, se deben calcular los determinantes de las siguientes 16 submatrices:


6.6. FORMA CANONICA
RACIONAL

z4
1
1
z 4 1 1

1 z2
1 , 1
z 2 1 ,
6
1 z + 1
6
1 1

z 4 1 1
1
1 1
1
1
1 , z 2
1
1 ,
6 z + 1 1
1 z + 1 1

z 4 1 1
z4
1
1
1
z 2 1 ,
1 z2
1 ,
6
1
4
6
1 z2

z 4 1
1
1 1
1

1
1
1 , z 2
1
1 ,
6 4 z 2
1 4 z 2

z 4 1
1
z 4 1
1
6 1 z + 1 , 6 1
1 ,
6
1
4
6
1 z2

z 4 1
1
1 1
1
6 z + 1 1 , 1 z + 1 1 ,
6
4 z 2
1
4 z 2

1 z2
1
1 z2
1
6
1 ,
1 z + 1 , 6 1
6
1
z2
6
1
4

1
1
1
z2
1
1
6 z + 1 1 , 1 z + 1
1 .
6
4 z 2
1
4 z 2

Presentados en orden inverso y calculados con SWP, se tiene que:


determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:
determinant:

z 3 3z 2 4z + 12 = (z 3) (z + 2) (z 2)
z 2 z 6 = (z + 2) (z 3)
6z 2 31z + 39 = (6z 13) (z 3)
6z 2 31z + 39 = (6z 13) (z 3)
z z 2 + 6 = (z + 2) (3 z)
6z 2 31z + 39 = (6z 13) (z 3)
z z 2 + 6 = (z + 2) (3 z)
z z 2 + 6 = (z + 2) (3 z)
z 2 z 6 = (z + 2) (z 3)
z 2 z 6 = (z + 2) (z 3)

26z 8z 2 + z 3 33 = (z 3) z 2 5z + 11
29z 4z 2 51 = (3 z) (4z 17)
z z 2 + 6 = (z + 2) (3 z)
z z 2 + 6 = (z + 2) (3 z)
z z 2 + 6 = (z + 2) (3 z)
z 3 5z 2 2z + 24 = (z 3) (z 4) (z + 2).

Se observa entonces que el m.c.d es (z 3).


D4 (z) = pA (z) = (z + 2) (z 3)

105


CAPITULO 6. FORMAS CANONICAS

106

Paso 3 . Calculamos los factores invariantes de la siguiente manera:


q1 (z) =

D4 (z)
2
= (z + 2) (z 3) = z 3 4z 2 3z + 18 = qA (z)
D3 (z)
q2 (z) =

D3 (z)
= (z 3)
D2 (z)

q3 (z) =

D2 (z)
=1
D1 (z)

q4 (z) = D1 (z) = 1
Ejericicio 6.11. En este ejercicio mostramos la matriz C que racionaliza la matriz del ejercicio
anterior.
Solucion: Seg
un el ejercicio anterior, la forma canonica racional de A es:

0 0 18 0
1 0
3
0

B=
0 1
4
0
0 0
0
3

Veamos como calcular C tal que C 1 AC = B. Aplicamos el Teorema de Descomposicion Cclica:


R4 = [v1 ] [v2 ], donde dim [v1 ] = 3, es decir, buscamos un vector v1 tal que {v1 , Av1 , A2 v1 } sean
L.I. pero {v1 , Av1 , A2 v1 , A3 v1 } sean LD. Se puede comprobar que v1 = e1 = (1, 0, 0, 0) satisface estas
condiciones. Para v2 se puede tomar un vector tal que dim ([v2 ]) = 1 y tal que v2
/ [v1 ], es decir, v2 es
un vector propio correspondiente al valor propio 3 y tal que

rank {v1 , Av1 = (4, 1, 6, 6) , A2 v1 = (15, 6, 11, 11) , v2 } = 4:

1
0
0

1 2
0
,
2,
eigenvectors :
1
0
1

0
1
1
N
otese que

Resulta entonces que

1
4
15
0
0 1 6 1

0
6
11
0
0 6 11
1

6.7.

1
0
rank
0
0
1

4
1

6
6

4
15
0
1 6 1
=4
6
11
0
6 11
1

1
1
1
1
0
2 1 1

1 1
1 0
1
4
2
0


4
15
0
0
1
1 6 1
=
6
11
0 0
6 11
1
0

0
0
1
0

18 0
3 0

4 0
0 3

Forma Can
onica de Jordan

Iniciamos la u
ltima lecci
on del presente captulo con una version completa del teorema de HamiltonCayley, el cual ya habamos considerado antes. Esta nueva version sera usada para la forma canonica de
Jordan que estudiaremos ahora. La forma de Jordan utiliza todo el material estudiado en los captulos
precedentes.


6.7. FORMA CANONICA
DE JORDAN

107

Teorema 6.7. Sea T : V V una transformaci


on lineal de un K-espacio V de dimensi
on finita
n 1. Sean qT (x) y pT (x) los polinomio mnimo y polinomio caracterstico de T , respectivamente.
Entonces, qT (x) | pT (x). M
as exactamente, si
qT (x) = q1 (x)r1 qk (x)rk
es la descomposici
on irreducible de qT (x), 1 ri n, 1 i k, 1 k n, entonces
pT (x) = q1 (x)d1 qk (x)dk
donde
di =

dim N [qi (T )ri ]


,
gr(qi (x))

para cada 1 i k. En otras palabras, qT (x) y pT (x) tienen los mismos factores irreducibles salvo
multiplicidades. Adem
as, si F es un cuerpo que contiene al cuerpo K, entonces
a F es raz de qT (x) si y s
olo si a es raz de pT (x).
Demostraci
on: Seg
un el Teorema de Descomposicion Cclica, existen vectores no nulos v1 , . . . , vr V
con polinomios anuladores qv1 (x), . . . , qvr (x) tales que
V = [v1 ] [vr ]
qv1 (x) = qT (x), qvi+1 (x) | qvi (x) para cada 1 i r 1. Sea Ti la restriccion de T a [vi ]. Sabemos
que para cada i, qTi (x) = pTi (x) = qvi (x) (vease el Corolario 5); ademas, pT (x) = qT1 (x) qTr (x), de
donde qT (x) | pT (x).
Sea ahora s(x) un divisor irreducible de qT (x), entonces s(x) es tambien un factor de pT (x). De
otro lado, sea r(x) un factor irreducible de pT (x) = qT1 (x) qTr (x), entonces existe un i tal que
r(x) | qTi (x), luego r(x) | qT1 (x), es decir, r(x) | qT (x).
Consideremos ahora la descomposici
on irreducible (vease el Teorema 4):
V = W1 Wk ,

Wi = N (qi (T )ri ),

1 i k.

Sea Si la restriccion de T al subespacio Wi ; sabemos entonces que qSi (x) = qi (x)ri , luego pSi (x) =
un di ri . Esto garantiza que pT (x) = q1 (x)d1 . . . qk (x)dk . Se tiene ademas que
qi (x)di con alg
di =

gr(pSi (x))
dim(Wi )
dim N [qi (T )ri ]
gr(qi (x)di )
=
=
=
gr(qi (x))
gr(qi (x))
gr(qi (x))
gr(qi (x))

La u
ltima afirmaci
on del teorema es consecuencia directa de lo que hemos probado.
Definici
on 6.8. Pasamos ahora a definir las celdas, bloques
cualquiera y a un elemento de K, la matriz

a 0
0
1 a
0

.. .. . .
..
.
.
Ja,r =
. .
. .
..
.
.
.
..
. .
.
0 0
1

y matrices de Jordan. Sea K un cuerpo


0
0
..
.
..
.
a

de orden r 1 se denomina celda o bloque elemental de Jordan de orden r correspondiente al elemento


a. El caso r = 1 debe entenderse como la matriz [a] de tama
no 1 1. La matriz Ja con t 1 celdas
de Jordan, Ja,r1 , Ja,r2 , . . . , Ja,rt de
ordenes r1 r2 rt ,


CAPITULO 6. FORMAS CANONICAS

108

..
.

Ja,r1
..
Ja = .
0

se denomina bloque de Jordan correspondiente


pertenecientes al cuerpo K, k 1, la matriz

Ja1
..
.
0

0
..
.
Ja,rt

al elemento a. Sean a1 , . . . , ak elementos diferentes

..
.

0
.. ,
.
Jak

donde Jai es un bloque de Jordan correspondiente al valor ai se denomina matriz de Jordan correspondiente a los elementos a1 , . . . , ak .
Sea T : V V una transformaci
on lineal de un K-espacio V de dimensi
on finita n 1. Se dice
que T es diagonalizable en bloques de Jordan si existe una base X en el espacio V tal que mX (T ) es
una matriz de Jordan. Finalmente, decimos que una matriz cuadrada A de orden n 1 es diagonalizable en bloques de Jordan si A es similar a una matriz de Jordan.
Corolario 6.9. Sea T : V V una transformaci
on lineal de un K-espacio V de dimensi
on finita
n 1 y X una base de V . Entonces, T es diagonalizable en bloques de Jordan si y s
olo si mX (T ) es
diagonalizable en bloques de Jordan.

Nuestro objetivo ahora es demostrar que toda transformacion (matriz) sobre un cuerpo algebraicamente
cerrado es diagonalizable en bloques de Jordan. Podemos comenzar demostrando este resultado para
matrices y transformaciones nilpotentes sobre cualquier cuerpo K. Una transformacion T (matriz A)
es nilpotente si existe un entero positivo m 1 tal que T m = 0 (Am = 0); el menor entero positivo m
con esta condici
on se denomina red ndice de nilpotencia de T (de A).
Proposici
on 6.13. Sea N : W W una transformaci
on lineal nilpotente de un espacio W de
dimensi
on finita d 1. Entonces existe una base X en W tal que

M1
0

.. ,
..
mX (N ) = ...
.
.
0

Mt

donde

Mi =

0 0
1 0
.. ..
. .
0 0
0 0

0 0
0 0

.. .. ..
. . .

0 0
1 0

es un bloque elemental de Jordan de orden si perteneciente al valor 0 de tal manera que se cumplen
las siguientes propiedades: s1 s2 st 1, s1 + + st = d y s1 = ndice de nilpotencia de N .
Demostraci
on: N
otese si s1 es el ndice de nilpotencia de la transformacion N , entonces el polinomio
mnimo de N es xs1 . Podemos aplicar entonces el Teorema de Descomposicion Cclica y encontrar
vectores no nulos w1 , . . . , wt con polinomios anuladores qwi (x) = xsi , 1 i t de tal forma que
s1 s2 st 1 y W tiene la descomposicion
W = [w1 ] [wt ].


6.7. FORMA CANONICA
DE JORDAN

109

La matriz compa
nera de qwi (x) = xsi es un bloque elemental de Jordan Mi de orden sSi perteneciente
t
al valor 0, adem
as si Xi es una base de [wi ], entonces la matriz de N en la base X = i=1 Xi es

M1
..
mX (N ) = .
0

..
.

0
.. .
.
Mt

De acuerdo al Teorema de descomposicion cclica, s1 s2 st 1, s1 + + st = d y s1 =


ndice de nilpotencia de N. Esto completa la prueba de la proposicion.
El Teorema de descomposici
on cclica garantiza que el valor t es
unico para N ; veamos que
t = dim(ker(N )).
La idea es probar que {N s1 1 (w1 ), , N st 1 (wt )} es una base del n
ucleo de N . Si w ker(N ),
entonces w = u1 + + ut donde ui es un elemento de [wi ], 1 i t. Entonces,
w = g1 (N )(w1 ) + + gt (N )(wt )
donde el grado de gi (x) se puede tomar inferior a si . Entonces, N (w) = 0, y por la invariancia de [wi ]
y la suma directa, se concluye que gi (N )N (wi ) = 0. Esto implica que xsi divide a gi (x)x, pero por la
escogencia del grado de gi (x) se tiene que gi (x)x = bi xsi , bi K. Por lo tanto, gi (x) = bi xsi 1 , y en
consecuencia,
w = b1 N s1 1 (w1 ) + + bt N st 1 (wt ).
La independencia lineal es consecuencia de la invariancia de [wi ], de la suma directa y de que xsi es el
polinomio anulador de wi . 
Teorema 6.8. Sea T : V V una transformaci
on lineal de un espacio V de dimension finita n 1
tal que el polinomio caracterstico de T se descompone completamente en K en producto de factores
lineales (este es el caso cuando K es algebraicamente cerrado). Entonces, T es diagonalizable en bloques
de Jordan. Recprocamente, si T es diagonalizable en bloques de Jordan, entonces pT (x) se descompone
completamente en K en producto de factores lineales.
Demostraci
on: Sea
pT (x) = (x a1 )d1 (x ak )dk
la factorizaci
on completa en el cuerpo K del polinomio caracterstico de T , donde a1 , . . . , ak son
elementos diferentes en K, 1 di n, 1 i k, 1 k n. Seg
un el Teorema de Hamilton-Cayley el
polinomio mnimo de T tiene la siguiente descomposicion:
qT (x) = (x a1 )r1 (x ak )rk ,
donde 1 ri di , 1 i k. Por el Teorema de Descomposicion Irreducible se tiene para V la
siguiente descomposici
on:
V = W 1 Wk ,
donde Wi = ker [(T ai I)ri ] , 1 i k. Consideremos las transformaciones lineales inducidas Ti =
T |Wi ; recuerdese que el polinomio mnimo de Ti es (x ai )ri . Para cada 1 i k considerese la
transformaci
on


CAPITULO 6. FORMAS CANONICAS

110

Ni = Ti ai I : Wi Wi .
N
otese que Ni es nilpotente de ndice ri y el polinomio mnimo de Ni es xri . Por el Teorema de
Hamilton-Cayley, dim(Wi ) = di , para cada 1 i k.
Podemos ahora aplicar la Proposici
on 13 y encontrar una
siguiente presentaci
on:

Mi1
..
..
mXi (Ni ) = .
.
0

base Xi en Wi para la cual se tiene la


0
..
.

Miti

donde Mij es un bloque elemental de Jordan de tama


no sij correspondiente al valor 0 y de tal forma
que
si1 si2 siti 1 , si1 + si2 + + siti = di , si1 = ri .
(1)
Sk
La reuni
on X = i=1 Xi es una base de V para la cual se tiene la siguiente representacion de V :

mX1 (T1 )
0

..
..
..
mX (T ) =
.
.
.
.
0

mXk (Tk )

Pero mXi (Ti ) = mXi (Ni ) + mXi (ai I), con lo cual mXi (Ti ) es un bloque de Jordan correspondiente
al valor ai de tama
no di y dividido en ti bloques elementales de Jordan correspondientes al valor ai
con tama
nos que satisfacen la condici
on (1). Esto completa la prueba de la diagonalizacion de T en
bloques de Jordan.
Podemos complementar el resultado del teorema mostrando que el n
umero ti de bloques elementales de Jordan correspondientes al valor ai viene dado por
ti = dim(E(ai )).
En efecto, seg
un la demostraci
on de la Proposicion 13,
ti = dim(ker(Ni )) = dim(ker(Ti ai I)) ,
pero se puede probar facilmente que ker(Ti ai I) = ker(T ai I).
La u
ltima afirmaci
on del teorema es cierta ya que matrices similares tienen el mismo polinomio caracterstico. 
Como consecuencia directa del teorema anterior, del Teorema de Hamilton-Cayley y del Teorema 2, se
obtiene en forma inmediata el siguiente corolario.
Corolario 6.10. Sea T : V V una transformaci
on lineal de un K-espacio V de dimensi
on finita
n 1. Entonces, T es diagonalizable en bloques de Jordan si, y s
olo si, T es triangulable.
Ejemplo 6.1. En este ejemplo mostramos una matriz invertible C tal que C 1 AC es una matriz de
Jordan, donde

4
1
1
1
1
2 1 1

A=
6
1 1
1
6 1
4
2


6.7. FORMA CANONICA
DE JORDAN

111

Soluci
on: Determinemos en primer lugar el polinomio caracterstico y el polinomio mnimo de A :
pA (x) = (x+2)(x3)3 , qA (x) = (x+2)(x3)2 . De acuerdo a la prueba del Teorema 8, el n
umero de bloques de Jordan es 2, uno correspondiente al valor propio 2 y otro correspondiente al valor propio 3. El
n
umero de bloques elementales de Jordan correspondiente a 2 viene dado por dim(E(2)) y el n
umero correspondiente a 3 es dim(E(3)). Pero E(2) = h(0, 0, 1, 1)i y E(3) = h(0, 1, 0, 1) , (1, 2, 1, 0)i,
luego dim(E(2)) = 1 y dim(E(3)) = 2. Para el valor propio 3 se tiene que el tama
no del primer
bloque elemental de Jordan viene dado por la multiplicidad de 3 en el polinomio mnimo, que en este
caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:

2 0 0 0
0 3 0 0

J =
0 1 3 0
0 0 0 3

Queremos ahora calcular la matriz C. Para esto consideramos a la matriz A como una transformaci
L on
lineal de R4 en la base can
onica. De acuerdo a la prueba del Teorema 8 se tiene que R4 = W1 W2 ,
donde W1 = ker(A + 2E) = h(0, 0, 1, 1)i y W2 = ker[(A 3E)2 ] = h(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)i;
debemos encontrar bases X1 en W1 y X2 en W2 de tal forma que C es la matriz de cambio de la base
can
onica de R4 a la base X = X1 X2 . Consideremos las transformaciones N1 = A + 2E : W1 W1
y N2 = A 3E : W2 W2 . N
otese que N1 es nilpotente de ndice 1y N2 es nilpotente de ndice 2.
Seg
un la prueba de la Proposici
on 13 debemos descomponer W1 y W2 en suma directa de subespacios
cclicos. Como W1 = E(2) = h(0, 0, 1, 1)i, entonces la descomposicion de W1 es trivial: W1 = [v1 ]
con v1 = (0, 0, 1, 1), y en consecuencia, X1 = {(0, 0, 1, 1)}. Para W2 se tiene que: existe un vector
v2 W2 tal que su polinomio anulador es x2 y {v2 , N2 (v2 )} es una base de
L [v2 ], tambien debe tenerse
un vector v3 W2 tal que su polinomio anulador divide a x2 y W2 = [v2 ] [v3 ]. Notese que en calidad
de v2 podemos tomar a (0, 0, 0, 1) de tal forma que N2 (v2 ) = (1, 1, 1, 1); puesto que dim[v3 ] = 1,
entonces el polinomio anulador de v3 es x y en consecuencia v3 pertenece al n
ucleo de N2 , luego
v3 E(3). Tomando v3 = (0, 1, 0, 1) se tiene que {(0, 0, 0, 1) , (1, 1, 1, 1) , (0, 1, 0, 1)} es una base
de W2 . La matriz C es entonces

1
0 1 0
0 0
1
0

0 0 1 1
1
1 1
,
, C 1 = 1
C=

1 0
1
0
0 0
1
0
1 1
0 0
1 1 1
1

1
1

1
1

4
0 1 0
1
1
1 1

0
0 0 6
6
1
0 0

0 0
1
1
1
0 0
2 1 1

1 1
1 1 0
1
4
2
1 1


2
1
0
0
1 1
=
1
0 0
0
1
1

0
3
1
0

0
0
3
0

0
0
.
0
3


Algebra
Lineal
Captulo 6. Formas Can
onicas
Ejercicios.
1. Sea T : V V una transformacion lineal de un espacio K-espacio V de dimension
finita n 1. Demostrar que T es invertible si y solo si el termino independiente q0 del
polinomio mnimo qT (x) es no nulo.
2. Determinar la forma canonica de Jordan de la matriz:

0
0 1
0
0
0 0 1

1
0 0
0
0 1 0
0
3. Calcular la forma de Jordan de la matriz

5 10 10 5 1
1
0 0
0 0

1
0
0
0

0
0 1
0 0
0
0 0
1 0

4. Sean T1 , T2 : V V transformaciones diagonalizables de un espacio V de dimension


finita n 1 tales que T1 T2 = T2 T1 . Demostar que existe una base X en V tal que mX (T1 )
y mX (T2 ) son diagonales.
5. Sea T : V V una transformacion lineal de un espacio K-espacio V de dimension
finita n 1 tal que T tiene n valores propios diferentes. Calcular el n
umero de subespacios
invariantes de T .
6. Sea A = [aij ] una matriz cuadrada de orden n 1 tal que su n
umero de entradas nulas
2
es superior a n n. Demostar que el determinante de A es igual a cero.
7. Sea A = [aij ] una matriz cuadrada invertible de orden n 1. Demostrar que
pA1 (x) = (x)n (det(A))1 pA (x1 ),
donde pA (x) denota el polinomio caracterstico de la matriz A.
8. Sea T : V V una transformacion lineal de un K-espacio de dimension finita n.
Supongamos que T es diagonalizable y que 1 , . . . k son los distintos valores propios de
T , 1 k n. Demostrar que existen transformaciones lineales T1 , . . . , Tk de V tales que:
(i) T = 1 T1 + + k Tk
(ii) IV = T1 + + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
1

(v) Ti (V ) = E(i ), 1 i k.
Demostrar tambien el recproco de esta afirmacion, es decir, si existen k escalares distintos
1 , . . . k y k transformaciones lineales T1 , . . . , Tk de V , con k n, que satisfacen (i)-(iii),
entonces T es diagonalizable, 1 , . . . k son los valores propios distintos de T y (iv)-(v)
tambien se cumplen.
9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta AT .
10. Sea A una matriz cuadrada compleja de orden n 1 tal que existe un n
umero natural
m
m para el cual se tiene que A = E . Demostrar que A es diagonalizable (E denota la
matriz identica de tama
no n).
11. Sean S, T : V V transformaciones tales que ST = T S. Demostrar que ker(S) e
Im(S) son subespacios T -invariantes.
12. Sea T : V V una transformacion lineal de un espacio V de dimension finita.
Demostrar que existe un entero k tal que:
(a) Para j k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y ademas V = Im(T k ) N (T k ).
13. Calcular, usando los resultados del presente captulo, una matriz invertible C tal que
C 1 BC sea una matriz de Jordan, donde

7 1
2
2
1 4 1 1

2 1
5 1
1 1
2
8
14. Sea T : C2 C2 una transformacion lineal con un solo valor propio . Demostrar que
T I es nilpotente.
15. Sea T : V V una transformacion lineal invertible en un espacio V complejo de
dimension finita. Demostrar que existe una transformacion S : V V tal que S 2 = T
(sugerencia: use la forma canonica de Jordan). Se dice que S es la raz cuadrada de T .
16. Encontrar la raz cuadrada de la siguiente matriz

2 1
1
1
2 1
1 1
2

17. Determinar si la siguiente matriz es triangulable. En caso afirmativo calcular una


matriz C triangulante:

1
1
0
1 1
0

2 2
2
1
1 1
2

0
0

1
0

18. Calcular la forma canonica racional de la transformacion T : R3 R3 definida por


T (x, y, z) = (4z, y x + 2z, 3x z).
19. Para la matriz real

1 1 0 8
1
1 0
4

A=
0
1 0 5
0
0 1
4

determinar:
(a) A es diagonalizable ?. En caso afirmativo, calcular una matriz diagonalizante.
(b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante.
(c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la convierta en matriz diagonal en bloques.
(d) La forma racional de A y una matriz racionalizante.
(e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz
que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
20. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que la forma racional de A es la compa
nera del polinomio mnimo de A (en
consecuencia, la forma racional de A tiene un solo bloque racional).
21. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que A no es diagonalizable en bloques.


Algebra
Lineal
Captulo 6. Formas Can
onicas
Ejercicios.
1. Sea T : V V una transformacion lineal de un espacio K-espacio V de dimension
finita n 1. Demostrar que T es invertible si y solo si el termino independiente q0 del
polinomio mnimo qT (x) es no nulo.
Soluci
on. Sea pT (x) = p0 + p1 x + + xn el polinomio caracterstico de T , entonces
p0 = (1)n det(T ), luego Si T es invertible entonces p0 es no nulo, pero seg
un el Teorema
de Hamilton-Cayley qT (x) divide a pT (x) y esto implica que p0 = q0 s0 , con s0 K, por
lo tanto q0 es no nulo.
Recprocamente, sea q0 no nulo, esto indica que 0 no es raz de qT (x), y nuevamente por
la version general del Teorema de Hamilton-Cayley, 0 no puede ser raz de pT (x), luego
p0 es no nulo y entonces T es invertible.
2. Calcular la forma de Jordan de la matriz

0
0 1
0
0
0 0 1

1
0 0
0
0 1 0
0
3. Determinar la forma canonica de Jordan de la matriz:

5 10 10 5 1
1
0 0
0 0

1
0
0
0

0
0 1
0 0
0
0 0
1 0

4. Sean T1 , T2 : V V transformaciones diagonalizables de un espacio V de dimension


finita n 1 tales que T1 T2 = T2 T1 . Demostar que existe una base X en V tal que mX (T1 )
y mX (T2 ) son diagonales.
Soluci
on. Realizamos la prueba por induccion sobre n. Para n = 1 no hay nada que
demostrar. Supongamos que la afirmacion es cierta para espacios de dimension < n y sea
V de dimension n. Sean 1 , . . . , s los valores propios distintos de T1 . Podemos suponer
que s 2 ya que si s = 1, entonces el polinomio mnimo de T1 es x 1 , con lo cual
T1 = 1 I, y la matriz de T1 en una base X para la cual T2 es diagonal es tambien
diagonal. Sea Wi = ker(T1 i I), 1 i s, fijemos el ndice i; Wi es T1 -invariante,
veamos que tambien es T2 -invariante: si v Wi y u = T2 (v), entonces (T1 i I)(u) =
T1 T2 (v) i T2 (v) = T2 T1 (v) i T2 (v) = T2 (T1 (v) i v) =T2 (0) = 0, por lo tanto u Wi .
Consideremos las transformaciones inducidas T1i , T2i sobre el subespacio Wi . Puesto que el
polinomio mnimo de T1i divide al polinomio mnimo de T1 , entonces T1i es diagonalizable,
de igual manera, T2i es diagonalizable. Notemos tambien que T1i T2i = T2i T1i , como s 2,
entonces dim(Wi ) < dim(V ), y por induccion, existe una base com
un Xi en Wi tal que
1

mXi (T1i ) y mXi (T2i ) son matrices diagonales. Tenemos entonces que V = W1 Ws y
X = si=1 Xi es una base de V , pero como Wi es T1 , T2 -invariante, entonces

mX1 (T11 )
0

..
mX (T1 ) =

mX (T2 ) =

mXs (T1s )

mX1 (T21 )

0
..

.
mXs (T2s )

5. Sea T : V V una transformacion lineal de un espacio K-espacio V de dimension


finita n 1 tal que T tiene n valores propios diferentes. Calcular el n
umero de subespacios
invariantes de T .
Soluci
on. Sean a1 , . . . , an los valores propios de T . Es claro que cada subespacio propio E(ai ) es invariante y que la suma de subespacios invariantes es invariante. De esta
manera tenemos garantizados al menos 2n subespacios invariantes diferentes: todos los
subconjuntos diferentes de {a1 , . . . , an }.
Veamos ahora que cada subespacio invariante W de V es una suma directa finita de
subespacios propios y por lo tanto determina un subconjunto de {a1 , . . . , an }. Si W =
0 entonces no hay nada que probar: el subconjunto es el vaco. Sea W 6= 0,sabemos
que el polinomio caracterstico de la transformacion inducida TW divide al polinomio
caracterstico de T , es decir,
pTW (x) | pT (x) = (x a1 ) (x an ),
luego pTW (x) = (x ai1 ) (x ais ) , y de esta forma TW determina el conjunto
{ai1 , . . . , ais }, y debido a que TW es diagonalizable, se determina la descomposicion
W = E(ai1 ) E(ais ).
El u
ltimo detalle que falta probar para concluir la demostracion es que subespacios diferentes W1 6= W2 determinan conjuntos diferentes {ai1 , . . . , ais } 6= {aj1 , . . . , ajt } y por lo
tanto descomposiciones diferentes E(ai1 ) E(ais ) 6= E(aj1 ) E(ajt ). Razonamos
por contrarecproca, si {ai1 , . . . , ais } = {aj1 , . . . , ajt }, entonces
W1 = E(ai1 ) E(ais ) = W .
6. Sea A = [aij ] una matriz cuadrada de orden n 1 tal que su n
umero de entradas nulas
2
es superior a n n. Demostar que el determinante de A es igual a cero.
7. Sea A = [aij ] una matriz cuadrada invertible de orden n 1. Demostrar que
pA1 (x) = (x)n (det(A))1 pA (x1 ),
2

donde pA (x) denota el polinomio caracterstico de la matriz A.


8. Sea T : V V una transformacion lineal de un K-espacio de dimension finita n.
Supongamos que T es diagonalizable y que 1 , . . . k son los distintos valores propios de
T , 1 k n. Demostrar que existen transformaciones lineales T1 , . . . , Tk de V tales que:
(i) T = 1 T1 + + k Tk
(ii) IV = T1 + + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
(v) Ti (V ) = E(i ), 1 i k.
Demostrar tambien el recproco de esta afirmacion, es decir, si existen k escalares distintos
1 , . . . k y k transformaciones lineales T1 , . . . , Tk de V , con k n, que satisfacen (i)-(iii),
entonces T es diagonalizable, 1 , . . . k son los valores propios distintos de T y (iv)-(v)
tambien se cumplen.
9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta AT .
10. Sea A una matriz cuadrada compleja de orden n 1 tal que existe un n
umero natural
m
m para el cual se tiene que A = E . Demostrar que A es diagonalizable (E denota la
matriz identica de tama
no n).
Soluci
on. Si m = 1, no hay nada que demostrar. Sea m 1, existe C compleja e
invertible de orden n tal que C 1 AC = J, donde J es la forma de Jordan de A. Entonces,
(C 1 AC)m = J m = C 1 Am C = E, luego para cada celda Ja,r de J tambien se tiene que
m
= Er , donde Er denota la identica de tama
no r. Supongamos que alguna celda es
Ja,r
m
tenemos am = 1 y en la
de orden r > 1, entonces por sobre la diagonal principal de Ja,r
m1
segunda diagonal por debajo de la principal tenemos ma
= 0, lo cual es contradictorio.
Por lo tanto, r = 1 y J es una matriz diagonal, es decir, A es diagonalizable.
11. Sean S, T : V V transformaciones tales que ST = T S. Demostrar que ker(S) e
Im(S) son subespacios T -invariantes.
12. Sea T : V V una transformacion lineal de un espacio V de dimension finita.
Demostrar que existe un entero k tal que:
(a) Para j k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y ademas V = Im(T k ) N (T k ).
Soluci
on. Considerense las siguientes cadenas de subespacios:
V = Im(T 0 ) Im(T 1 ) Im(T m ) 0
0 = ker(T 0 ) ker(T 1 ) ker(T m ) V
Estas cadenas se deben estabilizar ya que V es de dimension finita, esto quiere decir que
existen py qenteros tales que Im(T j ) = Im(T p )si j py ker(T j ) = ker(T q )si j q. Siendo
k = max{p, q}se cumple la parte (a).
3

Seg
un la Leccion 2 del Captulo 6, Im(T k )y ker(T k )son subespacios T -invariantes. Veamos
ahora que V es suma directa de ellos. Sea x Im(T k ) ker(T k ), entonces x =T k (v), y
T k (x) = 0, luego 0 = T k (x) = T 2k (v), es decir, v ker(T 2k ) = ker(T k ), es decir,
T k (v) = 0, o sea que x = 0. Para la transformacion T k : V V se tiene que dim(V ) =
dim N (T k ) + dim(Im(T k )), pero como estos subespacios estan en suma directa, entonces
V = Im(T k ) ker(T k ).
13. Calcular, usando los resultados del presente captulo, una matriz invertible C tal que
C 1 BC sea una matriz de Jordan, donde

7 1
2
2
1 4 1 1

2 1
5 1
1 1
2
8
Soluci
on. El primer paso es calcular el polinomio caracterstico y el polinomio mnimo
de B, para esto usamos el SWP: pB (x) = (x 6)4 , qB (x) = (x 6)3 . Esto indica que la
matriz de Jordan de B tiene un solo bloque de Jordan. El n
umero de bloques elementales
de Jordan correspondientes al valor propio 6 es igual a la dimension de E(6), y el primer
bloque elemental de Jordan es la multiplicidad de 6 en el polinomio mnimo, o sea 3. Con
esta informacion podemos asegurar que dim(E(6)) = 2 y tambien ya tenemos la forma de
Jordan para la matriz B:

6 0 0 0
1 6 0 0

J =
0 1 6 0
0 0 0 6

Debemos ahora calcular la matriz C. Vamos a asumir que B representa una transformacion lineal B : R4 R4 (no necesitamos considerarla sobre C ya que su polinomio
caracterstico se factoriza completamente en R). Se tiene entonces que R4 = ker((B6I)3 ).
Debemos encontrar una base X en ker((B 6I)3 ) de tal forma que la matriz C sera la
matriz de cambio de la canonica de R4 a esta nueva base X. Consideremos para esto la transformacion N = B 6I : R4 R4 ; N es nilpotente de ndice 3 y seg
un la
4
Proposicion 13, R se descompone en suma directa de 2 subespacios cclicos (recuerdese
que 2 = dim(ker(N )) = dim ker(B 6I) = dim(E(6))). Sea pues R4 = [w1 ] [w2 ],
donde w1 tiene como polinomio anulador a x3 y {w1 , N w1 , N 2 w1 } es una base de [w1 ]
y, w2 es tal que su polinomio anulador divide a x3 . Pero como dim([w2 ]) = 1 el polinomio anulador de w2 es x, esto indica que N (w2 ) = 0, es decir, w2 debe pertenecer al
n
ucleo de N y no estar en la envolvente lineal de {w1 , N w1 , N 2 w1 } (debido a que la suma
es directa). Pasemos entonces a encontrar los vectores w1 y w2 con estas condiciones.
En calidad de w1 N ((B 6I)3 ) = R4 tomamos el vector w1 = (0, 0, 0, 1), entonces
N w1 = (2, 1, 1, 2) y N 2 w1 = (3, 3, 6, 3); notese que estos tres vectores son LI. Ahora
4

w2 N (B 6I) = E(6) =< (1, 1, 1, 0), (1, 1, 0, 1) > y {w1 , N w1 , N 2 w1 , w2 } deben


ser LI. En calidad de C entonces tomamos

0
2
3 1
0 1
3 1

0 1 6
1
1
2
3
0

6 0
0
1
1 1
7 1
2
2
0
2
3 1

1 1

3 1 1 6
0 0 1 4 1 1 0 1
3
3
=
y de esta forma:
2 1 1 0 2 1
0 1 6
5
1
1 0 1
9
9
3
1 1
2
8
1
2
3
0
0 0
1 1 1 0
2
2
14. Sea T : C C una transformacion lineal con un solo valor propio . Demostrar que
T I es nilpotente.
15. Sea T : V V una transformacion lineal invertible en un espacio V complejo de
dimension finita. Demostrar que existe una transformacion S : V V tal que S 2 = T
(sugerencia: use la forma canonica de Jordan). Se dice que S es la raz cuadrada de T .
16. Encontrar la raz cuadrada de la siguiente matriz

2 1
1
1
2 1
1 1
2

17. Determinar si la siguiente matriz es triangulable. En caso afirmativo calcular una


matriz C triangulante:

1
1
0
1 1
0

2 2
2
1
1 1

0
0

1
0

18. Calcular la forma canonica racional de la transformacion T : R3 R3 definida por


T (x, y, z) = (4z, y x + 2z, 3x z).
19. Para la matriz real

1 1 0 8
1
1 0
4

A=
0
1 0 5
0
0 1
4

determinar:
(a) A es diagonalizable ?. En caso afirmativo, calcular una matriz diagonalizante.
5

0
0
6
0

0
0

0
6

(b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante.


(c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la convierta en matriz diagonal en bloques.
(d) La forma racional de A y una matriz racionalizante.
(e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz
que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
Soluci
on. (a) Calculamos el polinomio mnimo de A: para esto podemos realizar operaciones elementales sobre la matriz xE A y obtenemos
2

(x + 1)(x 2)2 0 0 0

0
1 0 0

0
0 1 0
0
0 0 1

por lo tanto para la matriz A se encuentra que PA (x) = (x2 + 1)(x 2)2 = qA (x). Se tiene
que A no es una matriz diagonalizable.
(b) A no es una matriz triangulable (considerada como matriz real).
(c) Puesto que qA (x) tiene dos factores, entonces A es diagonalizable en bloques (si qA (x)
tuviera solo un factor irreducible, no podramos todava decidir nada respecto a la diagonalizacion en bloques). Calculamos
ker(A2 + E) =< (8, 4, 1, 0), (28, 12, 0, 1) >
ker[(A 2E)2 ] =< (1, 0, 1, 0), (1, 1, 0, 1) >

La matriz que diagonaliza en loques es

y se puede comprobar que

8
28 1 1
4 12 0
1
,
C=
1
0 1
0
0
1 0
1

4 17 0
0
1
4 0
0
.
C 1 AC =
0
0 0 4
0
0 1
4

(d) La forma racional de A se calcula con los factores invariantes. Seg


un la parte (a), solo
4
3
hay un factor invariante, el polinomio mnimo qA (x) = x 4x + 5x2 4x + 4. Por lo
tanto, la forma racional de A es

0 0 0 4
1 0 0
4

R=
0 1 0 5 .
0 0 1
4
6

Puesto que pA (x) = qA (x), entonces A tiene un vector cclico v, y para el se tiene que
{v, Av, A2 v, A3 v} es una base de R4 de tal forma que R4 = [v]. Se puede verificar que v se
puede tomar como uno cualquiera de los 4 vectores canonicos de R4 . Si tomamos v = e1 ,
entonces la matriz que racionaliza es

1 1 0 0
0
1 0 0
,
C = [v Av A2 v A3 v] =
0
0 1 0
0
0 0 1

y se comprueba que C 1 AC = R.
(e) A no es diagonalizable en bloques de Jordan ya que su polinomio caracterstico no
puede factorizar completamente en factores lineales reales.
(f) Vamos a considerar ahora la matriz A sobre el cuerpo de n
umeros complejos. Entonces,
A no es diagonalizable pero si es triangulable. En efecto, qA (x) = (x i)(x + i)(x 2)2 .
Calculemos una matriz C que triangule a la matriz A. Elegimos un vector propio v1 de A.
Primero calculemos E(i) =< (4 + 8i, 4 4i, 4 + i, 1) >,E(i) =< (4 8i, 4 + 4i, 4
i, 1) > y E(2) =< (3, 1, 2, 1) >. Escogemos v1 = (3, 1, 2, 1) y buscamos ahora un
/ v1 > pero tal que (A E)v2 < v1 >, siendo alg
un valor propio de A.
vector v2 <
Tomemos = 2, debemos entonces resolver el siguiente sistema:

3 1
0 8
a
3
1 1

0
4

b = 1
0
2
1 2 5 c
0
0
1
2
d
1
para alg
un . Tomando = 1, encontramos que a = 1 3d, b = d, c = 1 2d, podemos
entonces elegir d = 0, con lo cual v2 = (1, 0, 1, 0). Necesitamos ahora un vector v3 tal que
v3 <
/ v1 , v2 > pero (AE)v3 < v1 , v2 >, para alg
un valor propio . Ya hemos utilizado
el valor propio 2 en dos ocasiones, por lo tanto, elegimos otro valor propio, digamos = i.
Entonces, debemos resolver el sistema
(1 + i)a b 8d = 3 +
a + (1 i)b + 4d =
b ic 5d = 2 +
c + (4 i)d =
escogemos = 0 y = 1, resulta a = (4 8i)d (1 i), b = (4 4i)d + 1, c = (4 i)d.
Tomando d = 0, encontramos que v3 = (1 + i, 1, 0, 0). El vector v3 satisface las dos
condiciones requeridas ya que el rango de {v1 , v2 , v3 } es 3. Finalmente, buscamos un
cuarto vector v4 tal que v4 <
/ v1 , v2 , v3 > pero (A E)v4 < v1 , v2 , v3 >. Debemos
7

ahora elegir al valor = i, con lo cual debemos resolver el sistema


(1 i)a b 8d = 3 + + (1 + i)
a + (1 + i)b + 4d = +
b + ic 5d = 2 +
c + (4 + i)d =
Escogemos = 0, = 0, = 1 y obtenemos a = 1 (4 + 8i)d, b = (4 + 4i)d, c = (4 + i)d.
Tomando d = 0 encontramos v4 = (1, 0, 0, 0), donde el rango de v1 , v2 , v3 , v4 es 4. La
matriz triangulante es

3 1 1 + i 1
1 0
1 0
,
C=
2 1
0 0
1 0
0 0
y se comprueba que

0
C 1 AC =
0
0

1
2
0
0

0 0
1 0
.
i 1
0 i

La diagonalizacion en bloques real que obtuvimos es valida, pero en el caso complejo


podemos refinar los bloques con la descomposicion qA (x) = (x i)(x + i)(x 2)2 . Obtenemos entonces tres bloques, y podemos usar los calculos ya realizados para determinar
una matriz C que permita esta nueva diagonalizacion en bloques:

4 + 8i 4 8i 1 1
4 4i
4 + 4i 0
1
,
C=
4 + i 4 i 1
0
1
1 0
1
se comprueba que

i 0 0
0
0 i 0
0

C 1 AC =
0 0 0 4 .
0 0 1
4

La forma racional para A es u


nica, y no depende si extendemos el cuerpo de escalares.
En efecto, sea A Mn (K) y sea F K, si R es la forma racional de A relativa a K,
entonces existe una matriz C GLn (K) tal que C 1 AC = R. Teniendo en cuenta que
GLn (K) GLn (F ), entonces R es la forma racional de A considerada como matriz de
Mn (F ). Por lo tanto, la matriz que obtuvimos en el caso real es la misma que en el caso
complejo.
8

Para terminar, notemos que los calculos ya realizados nos permiten obtener en forma
inmediata la forma de Jordan para A: el n
umero de bloques de Jordan es 3, para el valor
i el bloque es de orden 1 1, lo mismo ocurre para el valor i. Para el valor 2 el bloque
es de tama
no 2 2, ademas el n
umero de celdas para este bloque es la dimension de
E(2) = 1, luego la forma es

i 0 0 0
0 i 0 0

J =
0 0 2 0 .
0 0 1 2

Para el calculo de la matriz C se tiene: C4 = ker(A iE) ker(A + iE) ker[(A 2E)2 ].
Ya sabemos que ker(AiE) =< (4+8i, 44i, 4+i, 1) >, ker(A+iE) =< (48i, 4+
4i, 4i, 1) >. Sea W = ker[(A2E)2 ] =< (1, 0, 1, 0), (1, 1, 0, 1) >. Consideremos ahora
la transformacion nilpotente de ndice 2, N = A 2E : W W , debemos encontrar
un vector w W tal que W = [w] =< w, N w >, escogemos el vector w = (1, 0, 1, 0) de
tal forma que N w = (3, 1, 2, 1). Notemos que estos dos vectores son LI, luego son una
base de W . Se comprueba entonces que para la matriz

4 + 8i 4 8i 1 3
4 4i
4 + 4i 0
1

C=
4 + i 4 i 1 2 .
1
1 0
1
se tiene que

i 0 0 0
0 i 0 0

C 1 CJ =
0 0 2 0 .
0 0 1 2

Una observacion final: notemos que la matriz racional de A tiene un solo bloque, pero la
matriz de Jordan tiene tres bloques. Por lo tanto, un solo bloque racional no garantiza
una sola celda de Jordan. Ademas, este ejemplo muestra que la forma de bloques de una
matriz no es u
nica.
20. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que la forma racional de A es la compa
nera del polinomio mnimo de A (en
consecuencia, la forma racional de A tiene un solo bloque racional).
Soluci
on. Sea J la forma canonica de Jordan de A, la cual es una celda de Jordan
correspondiente al valor a . Sabemos que A es similar a J, por lo tanto, la forma racional de
A y J coinciden. Pero una celda de Jordan tiene como vector cclico a e1 , y en consecuencia,
la forma racional de J es la compa
nera de su polinomio mnimo qA (x) = pA (x) = (x a)n .
21. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que A no es diagonalizable en bloques.

Soluci
on. Supongamos que A es diagonalizable en dos bloques A1 , A2 , de tama
nos mi <
n, i = 1, 2. Sabemos que qA (x) = m.c.m(qA1 (x)qA2 (x)), pero esto es contradictorio con los
resultados del problema anterior ya que qA (x) = (x a)n , para un cierto a.

10

Captulo 7

Espacios Duales
Introducci
on
La colecci
on de transformaciones lineales de un K-espacio vectorial V en K constituye un nuevo espacio
vectorial con propiedades similares a las de V, y es muy u
til para el estudio geometrico de los espacios
con producto interno que ser
an abordados en lo que resta del curso.

7.1.

El Dual de un Espacio Vectorial

Sea V un espacio vectorial sobre un cuerpo K. Puesto que K es un K-espacio vectorial, tiene sentido
considerar transformaciones lineales de V en K. El presente captulo estudia tales transformaciones
lineales.
Definici
on 7.1. Una transformaci
on lineal T : V K se dice que es un funcional del espacio V .
Algunos ejemplos de funcionales son los siguientes.
Ejemplo 7.1. Sea Mn (K) el espacio de matrices cuadradas de orden n 1 sobre el cuerpo K. La
funci
on traza definida por
tr : Mn (K)
A = [aij ] 7

K
Pn
tr(A) = k=1 akk

es un funcional sobre el espacio Mn (K). De otra parte, sea K[x] es espacio de los polinomios con
coeficientes en K y sea a un elemento fijo de K. Entonces, la funcion que evalua cada polinomio de
K[x] en el punto a es un funcional. Finalmente, sea C[a, b] el espacio de funciones continuas en el
Rb
intervalo cerrado [a, b], la integral definida a f (x)dx establece un funcional sobre el espacio C[a, b].
En el Captulo 3 estudiamos el espacio LK (V, W ) de transformaciones lineales del espacio V en el
espacio W ; tomando W = K se obtiene el espacio de funcionales de V en K el cual denotamos por V
y se conoce con el nombre de espacio dual del espacio V . Si V es de dimension finita n 1, entonces
seg
un el Corolario1 del Captulo 3 se tiene que dim(V ) = n, y en consecuencia, V
= V. La siguiente
proposici
on muestra de manera explcita una base de V a partir de una base de V .
Proposici
on 7.1. Sea V un espacio de dimensi
on finita n 1 y sea X = {v1 , . . . , vn } una base de
V . Entonces, existe una u
nica base X = { v1 , . . . , vn } en V tal que

1, si j = i
vi (vj ) =
0, si j 6= i
125

CAPITULO 7. ESPACIOS DUALES

126
Adem
as, para cada funcional f V se cumple que
Pn
f = k=1 f (vk ).vk ,

y para cada v = a1 .v1 + + an .vn V se tiene que


Pn
Pn
v = k=1 vk (v).vk ,
f (v) = k=1 f (vk )ak .
X se conoce como la base dual de X.

Ejericicio 7.1. Sea X = {v1 , v2 , v3 } la base de R3 definida por v1 = (1, 0, 1), v2 = (1, 1, 1), v3 =
(2, 2, 0). Si v = (a, b, c) es un vector cualquiera de R3 , demostrar que v1 (v) = a b, v2 (v) = a b + c,
v3 (v) = b 21 (a + c).

Soluci
on: Sabemos que v = v1 (v).v1 + v2 (v).v2 + v3 (v).v3 , luego

de donde

(a, b, c) = v1 (v). (1, 0, 1) + v2 (v). (1, 1, 1) + v3 (v).(2, 2, 0)

v1 (v) + v2 (v) + 2v3 (v) = a


v2 (v) + 2v3 (v)
v1 (v) + v2 (v)

(1)

=b

(2)

=c

(3)

Sumando (1) con el opuesto de (2) se obtiene que v1 (v) = a b. De (3) resulta entonces que
v2 (v) = c + a b. Finalmente, v3 (v) = b 12 (a + c). 
Ejericicio 7.2. Sea V = R2 [x] el espacio de polinomios de grado 2. Probar que los funcionales
Z 1
Z 2
Z 1
f1 (p(x)) =
p(z)dz,
f2 (p(x)) =
p(z)dz,
f3 (p(x)) =
p(z)dz
0

conforman una base del dual de R2 [x].


Soluci
on: La base canonica de R2 [x] es {1, x, x2 }, la cual tiene dimension 3, con lo cual la base del
espacio dual de R2 [x] tambien tiene dimension 3. Por lo tanto, basta determinar si los funcionales
f1 (p(x)), f2 (p(x)) y f3 (p(x)) son linealmente independientes.
Sea af1 + bf2 + cf3 = 0 , aplicamos esta relacion a los vectores dela base canonica {1, x, x2 }:
af1 (1) + bf2 (1) + cf3 (1) = 0 af1 (x) + bf2 (x) + cf3 (x) = 0 af1 (x2 ) + bf2 (x2 ) + cf3 (x2 ) = 0
Para el polinomio 1 tenemos:
f1 (1) =

R1
0

dz = 1 f2 (1) =

Para el polinomio x tenemos:


R1
f1 (x) = 0 zdz =

Para el polinomio x2 tenemos:


R1
f1 (x2 ) = 0 z 2 dz =

1
3

1
2

f2 (x) =

f2 (x2 ) =

R 1

R2

dz = 2 f3 (1) =

R2

zdz = 2 f3 (x) =

R2
0

z 2 dz =

8
3

R 1

f3 (x2 ) =

A partir de lo anterior podemos construir el sistema matricial

1 2 1
a
1
1 2
b =0
2
2
1
8
1
c
3
3
3

dz = 1

zdz =

R 1
0

1
2

z 2 dz = 31

El rango de la matriz de este sistema es igual a 3 con lo cual a = b = c = 0 y entonces los funcionales
f1 , f2 y f3 son linealmente independientes y conforman una base para el espacio dual de R2 [x]. 

7.2. EL SUBESPACIO ANULADOR

7.2.

127

El Subespacio Anulador

En esta lecci
on queremos establecer una relacion entre algunos subespacios del espacio V y ciertos
subespacios del espacio dual V .
Definici
on 7.2. Sea V un espacio vectorial y sea S un subconjunto no vaco de V , se denomina
anulador de S al conjunto
S = {f V | f (x) = 0, para cada x S}.
Proposici
on 7.2. Es muy f
acil probar que S tiene las siguientes propiedades:
a) S es un subespacio de V
b) 0 = V
c) V

=0

d) Si S1 S2 , entonces S1 S2
e) Si V es de dimensi
on finita y W es un subespacio de V , entonces
dim(W ) + dim( W ) = dim(V ) V / W
= W
f ) Si V es de dimensi
on finita y W1 , W2 son subespacios de V , entonces W1 = W2 si y s
olo si
W1 = W2 .
Demostraci
on: Las cuatro primeras propiedades son evidentes. Veamos la prueba de las dos restantes.
e) Sea V de dimensi
on finita n. Si W = 0, entonces W 0 = V y en este caso dim(V ) = dim(W ) +
0
dim(W ).
Sea pues W no nulo y {w1 , ..., wk } una base de W . Entonces, completamos esta base hasta una base
de V : X = {w1 , ..., wk , z1 , ..., zr } de tal forma que k + r = n. Definimos ahora la transformacion lineal
: V W

(f ) = f (w1 ) .w1 + + f (wk ) .wk


N
otese que N () = W 0 . (En forma complementaria podemos demostrar que z1 , ..., zr es una base de
W 0 : la independencia lineal es clara ya que estos funcionales son parte de la base dual X . Sea f
W 0 , entonces el funcional f se puede expresar en la forma f = f (w1 ) w1 + + f (wk ) wk + f (z1 ) z1 +
+ f (zr ) z1 =
0 + f (z1 ) z1 + + f (zr ) z1 = f (z1 ) z1 + + f (zr ) z1 . Esto garantiza que la envolvente lineal de
z1 , ..., zr coincide con W 0 ).
Adem
as, es sobreyectiva. En efecto, sea h W , entonces h = h (w1 ) .w1 + + h (wk ) .wk ,
definimos f V por f (wi ) = h (wi ) , i = 1, 2, ..., k y f (zj ) = 0, j = 1, 2, ..., r. Es claro que
(f ) = h. Podemos ahora aplicar el teorema fundamental de homomorfismo del algebra lineal (ver
el Problema 13 de la Secci
on de Ejercicios
del Captulo 2), de tal manera que V /W 0
= W , pero


dim V /W = dim (V ) dim W = dim (W ). Esto completa la prueba de la parte e).

un la parte e) dim (W1 ) =


f) La condici
on necesaria es evidente. Ahora, si W10 = W20 , entonces seg
dim (W2 ). Basta entonces demostrar que W2 W1 . Supongamos lo contrario, entonces existe un vector
no nulo v W2 pero v
/ W1 . Sea {w1 , ..., wk } una base de W1 , entonces {w1 , ..., wk , v} es LI y podemos completar este conjunto hasta una base de V : {w1 , ..., wk , v, wk+2 , ..., wn }; consideremos la dual
de esta base. Para cada vector x = a1 .w1 + + ak .wk W1 se tiene que v (a1 .w1 + + ak .wk ) = 0
y v (v) = 1, de donde v W10 y v
/ W20 , es decir, W10 6= W20 . 

CAPITULO 7. ESPACIOS DUALES

128

Ejericicio 7.3. Sea W la envolvente lineal de los vectores w1 = (2, 2, 3, 4, 1), w2 = (1, 1, 2, 5, 2),
w3 = (0, 0, 1, 2, 3), w4 = (1, 1, 2, 3, 0). Calcular W .
Soluci
on: Soluci
on. Primero calculemos la dimension de W :

2
1

0
1

2
1
0
1

3
2
1
2

1
0

row echelon form :


0
0

4
5
2
3

1
2

3
0

1
0
0
0

0 1
1 2
0 0
0 0

0
0

1
0

Por tanto, dim (W ) = 3 y X = {v1 =(1, 1, 0, 1, 0) , v2 = (0, 0, 1, 2, 0) , v3 = (0, 0, 0, 0, 1)} es una


base de W . Esto implica que dim W 0 = 2. La base X se puede completar hasta una base de R5 :
Y = X {v4 = (0, 1, 0, 0, 0) , v5 = (0, 0, 0, 1, 0)}. Seg
un se vio en la demostracion de la propiedad e) en la
Lecci
on 2 del Captulo 7, {v4 , v5 } es una base de W 0 . As pues, un elemento f de W 0 es de la forma f =
av4 + bv5 . Queremos ahora calcular en forma explcita la imagen de un vector (x1 , x2 , x3 , x4 , x5 ) R5
a traves de f : f (x1 , x2 , x3 , x4 , x5 ) = av4 (x1 , x2 , x3 , x4 , x5 ) + bv5 (x1 , x2 , x3 , x4 , x5 ). Debemos entonces
expresar (x1 , x2 , x3 , x4 , x5 ) a traves de la base Y , es decir, expresar los vectores canonicos e1 , ..., e5 a
traves de la base Y . Para esto debemos calcular la inversa de la matriz

entonces

1
1
0
1
0

inverse :

0
0
1
2
0
1
0
0
1
1

0
0
0
0
1
0
0
0
1
0

0
1
0
0
0

0
0
0
1
0

0 0 0
1 0 0
0 0 1
0 0 0
2 1 0

e 1 = v1 + v4 + v5
e 2 = v4
e3 = v2 2v5
e 4 = v5

e 5 = v3
Con esto completamos el ejercicio:
f (x1 , x2 , x3 , x4 , x5 ) = av4 (x1 , x2 , x3 , x4 , x5 ) + bv5 (x1 , x2 , x3 , x4 , x5 ) =
ax1 v4 (e1 ) + ax2 v4 (e2 ) + ax3 v4 (e3 ) + ax4 v4 (e4 ) + ax5 v4 (e5 ) +
bx1 v5 (e1 ) + bx2 v5 (e2 ) + bx3 v5 (e3 ) + bx4 v5 (e4 ) + bx5 v5 (e5 ) =
ax1 + ax2 + bx1 2bx3 + bx4 = (a + b) x1 + ax2 2bx3 + bx4 . 

7.3. EL DOBLE DUAL

7.3.

129

El Doble Dual

Dado un espacio V sobre un cuerpo K hemos definido el espacio dual V , al cual a su vez se le define
su dual V ; queremos conocer la relaci
on de V con V . Por otro lado, cada base de V determina una

base en V , deseamos ahora saber si cada base de V es la dual de alguna base de V .


Si V es de dimensi
on finita n 1, entonces vimos en la Proposicion 7.2 que V
=V
= V ; queremos

enseguida presentar de manera directa el isomorfismo entre V y V para identificar cada elemento de
V con un elemento de V . El espacio V se conoce como el doble dual de V .
Proposici
on 7.3. Sea V un espacio de dimensi
on finita n 1. Entonces la funci
on
V
v
donde
V
f
es un isomorfismo.

7
F

V
F (v) = Fv

K
Fv (f ) = f (v)

Corolario 7.1. Sea V un espacio de dimensi


on finita n 1. Entonces

a) Dado t V existe un u
nico vt V tal que t(f ) = f (vt ) para cada f V .
b) Cada base de V es dual de alguna base de V .

Demostraci
on: La parte a) es consecuencia directa de la Proposicion 2. Veamos la prueba de la parte b).
Sea {f1 , . . . , fn } una base de V y sea {t1 = f1 , . . . , tn = fn } su base dual, entonces ti (fj ) = 1
si i = j y ti (fj ) = 0 si i 6= j . Sea v1 , . . . , vn los vectores definidos en la parte a), es decir, tales que
ti (fj ) = fj (vi ). Usando la notaci
on de la Proposicion 2, vi = F 1 (ti ), con lo cual {v1 , . . . , vn } es una
base de V . Resulta entonces que {f1 , . . . , fn } es la base dual de {v1 , . . . , vn }. En efecto, vi = fi para
cada 1 i n, ya que
fi (vi ) = Fvi (fi ) = F (vi )(fi ) = ti (fi ) = fi (fi ) = 1
fi (vj ) = Fvj (fi ) = F (vj )(fi ) = tj (fi ) = fj (fi ) = 0. 
Seg
un lo anterior podemos identificar los funcionales de V con los vectores de V , as: t V
se identifica con el vector vt V tal que t(f ) = f (vt ) para cada f V ; de esta manera podramos
reemplazar t por vt y escribir que vt (f ) = f (vt ) para cada f V .
Corolario 7.2. Sea V un espacio de dimensi
on finita n 1 y sea S 6= un subconjunto de V .
Entonces, S = hSi. En particular, si W es un subespacio de V , entonces W = W.
Demostraci
on: Por definici
on
S = {f V | f (x) = 0 para cada x S}, S = {T V | T (f ) = 0 para cada f S },
pero de acuerdo a la identificaci
on acordada podemos escribir que
S = {v V | f (v) = 0 para cada f S }.
En este orden de ideas, veamos que hSi S : sea v = a1 .x1 + +an .xn hSi, donde ai K y xi S
para cada 1 i n, entonces para cada f S se tiene que f (v) = a1 .f (x1 ) + + an .f (xn ) = 0, es
decir, v S .
De otra parte, n
otese que hSi = S ; por la propiedad e) en Leccion 2 se tiene entonces que

CAPITULO 7. ESPACIOS DUALES

130

dim(hSi ) + dim(hSi) = dim(V ) = dim(V ) = dim(S ) + dim(S ),


con lo cual dim(hSi) = dim(S ) y, por lo probado arriba, hSi = S . 

7.4.

Traspuesta de una Transformaci


on Lineal

Sean V y W dos K-espacios y sea T : V W una transformacion lineal. Entonces T induce una
funci
on T t : W V definida por
Tt : W
f

V
T t (f ) = Tft

donde
Tft : V
v

K
Tft (v) = f (T (v))

Se puede probar muy facilmente que T t es una transformacion lineal la cual se conoce con el nombre
de transpuesta de T . Algunas propiedades de la transpuesta son las siguientes.
Proposici
on 7.4. Sea T : V W una transformaci
on lineal y sea T t : W V la transpuesta de
T . Entonces,
a) N (T t ) = Im(T )
b) Si V y W son de dimensi
on finita, entonces rank(T t ) = rank(T ).
c) Im(T t ) = N (T ) .
Demostraci
on: a) f N (T t ) si y s
olo Tft = 0 si y solo si f (T (v)) = 0 para cada v V si y solo si

f Im(T ) .
b) rank(T t ) = dim(Im(T t )) = dim(W ) dim(N (T t )) = dim(W ) dim(Im(T ) ) = dim(W )
(dim(W ) dim(Im(T ) ) = dim(Im(T )) = rank(T ).
c) dim(Im(T t )) = rank(T t ) = rank(T ) = dim(Im(T )) = dim(V ) dim(N (T )) = dim(N (T ) ). Solo
resta probar que Im(T t ) N (T ) : sea g Im(T t ), entonces g = T t (f ), y por lo tanto, para cada
v N (T ) se tiene que g(v) = Tft (v) = f (T (v)) = 0, es decir, g N (T ) . 
La siguiente proposici
on justifica el nombre que hemos dado a la transformacion T t .
Proposici
on 7.5. Sean V y W dos K-espacios de dimensi
on n y m respectivamente, con bases X =
{v1 , . . . , vn }, Y = {w1 , . . . , wm }. Sean X y Y sus bases duales respectivas. Sea T : V W una
transformaci
on lineal y sea A la matriz de T en las bases X, Y (vease el Teorema 1 del Captulo 3).
Entonces la matriz de T t en las bases Y , X es la transpuesta AT de la matriz A.
Demostraci
on: Sea B = mY ,X (T t ), entonces
Pm
T (vj )
= Pk=1 akj .wk
n

t
T t (wi ) =

k=1 bki .vk = Tw


i
P
m
t

Twi (vj ) = wi (T (vj )) = wi ( k=1 akj .wk ) = aij


P
n
Twt i (vj ) = ( k=1 bki .vk )(vj ) = bji .

jn
im

LINEAL
7.4. TRASPUESTA DE UNA TRANSFORMACION

131

Corolario 7.3. Sean V y W dos K-espacios de dimensi


on n y m respectivamente, sean LK (V, W ) y
LK (W , V ) los respectivos espacios de transformaciones lineales. Entonces
a) (T1 + T2 )t = (T1t + T2t ), para cualesquiera T1 , T2 LK (V, W ).
b) (a.T )t = a.T t , para cada a K y cada T LK (V, W ).
c) LK (V, W )
= LK (W , V ).

d) Sea U un espacio de dimensi


on finita y T : V W , S : W U transformaciones lineales,
entonces (ST )t = T t S t
Ejemplo 7.2. Sea V = R[x] el espacio de polinomios reales y a, b elementos fijos de R. Sea f el
funcional
Rb
f (p(x)) = a p(z)dz.
Si D : V V es el operador derivaci
on, entonces Dft (p(x)) = p(b) p(a).

Soluci
on: Sea p(x) = p0 + p1 x + p2 x2 + + pn xn . La transpuesta del operador derivacion viene dada

Rb
por Dft (p(x)) = f (D(p(x)) = a p1 + 2p2 x + + npn xn1 dx =
p1 x + p2 x2 + + pn xn |ba = p1 b + p2 b2 + + pn bn p1 a p2 a2 pn an =
p(b) p(a). 

Ejemplo 7.3. Sea V = Rn [x] el espacio de polinomios reales de grado n y sea D el operador
derivaci
on sobre V. Entonces (xn ) es una base del n
ucleo de Dt , ademas, (xn ) (a0 +a1 x+ +an xn ) =
an .
Soluci
on: Soluci
on. La imagen del operador derivacion es Im (D) = Rn1 [x] = h1, x, ..., xn1 i. Esta
0

base puede ser completada {1, x, ..., xn1 , xn } y sabemos que una base de Im (D) es (xn ) . Pero
un
 seg
t
n
2
la Proposici
on 3, esta es una base para N (D ) y ademas (x ) a0 + a1 x + a2 x + + an xn = an .



Algebra
Lineal
Captulo 7. Espacios Duales
Ejercicios.
1. Sea X = {v1 = (1, 0, 1) , v2 = (0, 1, 2) , v3 = (1, 1, 0)} una base de R3 . Calcular
vi (a, b, c), para cada i = 1, 2, 3, donde (a, b, c) R3 .
2. Sea V un espacio de dimension finita y sean W1 , W2 subespacios de V . Demostrar que
(W1 + W2 )0 = W10 W20 , (W1 W2 )0 = W10 + W20 .
3. Sea K un cuerpo. Demostrar que cada elemento de (K n ) es de la forma f (x1 , ..., xn ) =
a1 x1 + + an xn , para ciertos escalares fijos ai K, i = 1, 2, ..., n.
4. Sea W =< (1, 2, 1, 0, 0) , (0, 1, 3, 3, 1) , (1, 4, 6, 4, 1) >. Hallar una base de W 0 y calcular
la accion de cada uno de los funcionales de dicha base sobre un vector (a, b, c, d, e).
5. Sean f, g V . Demostrar que g es m
ultiplo escalar de f si y solo si N (f ) N (g).
6. Sean f1 , ..., fr V . Demostrar que el funcional g V es combinacion lineal de
f1 , ..., fr si y solo si N (f1 ) N (fr ) N (g).
7. Sean V y W espacios de dimension finita y sea T : V W una transformacion lineal.
Demostrar que Im(T ) = N (T t )0 , N (T ) = Im(T t )0 .
8. Sea V = W1 Wr . Si Vi = W1 + + Wi1 + Wi+1 + + Wr , demostrar que
V = V10 Vr0 .


Algebra
Lineal
Captulo 7. Espacios Duales
Ejercicios.
1. Sea X = {v1 = (1, 0, 1) , v2 = (0, 1, 2) , v3 = (1, 1, 0)} una base de R3 . Calcular
vi (a, b, c), para cada i = 1, 2, 3, donde (a, b, c) R3 .
2. Sea V un espacio de dimension finita y sean W1 , W2 subespacios de V . Demostrar que
(W1 + W2 )0 = W10 W20 , (W1 W2 )0 = W10 + W20 .
3. Sea K un cuerpo. Demostrar que cada elemento de (K n ) es de la forma f (x1 , ..., xn ) =
a1 x1 + + an xn , para ciertos escalares fijos ai K, i = 1, 2, ..., n.
4. Sea W =< (1, 2, 1, 0, 0) , (0, 1, 3, 3, 1) , (1, 4, 6, 4, 1) >. Hallar una base de W 0 y calcular
la accion de cada uno de los funcionales de dicha base sobre un vector (a, b, c, d, e).
5. Sean f, g V . Demostrar que g es m
ultiplo escalar de f si y solo si N (f ) N (g).
Soluci
on. ) Si N (g) = V , entonces g = 0 y de esta forma g = 0.f . Sea pues N (g) 6= V , y
sea x0
/ N (g), entonces por hipotesis x0
/ N (f ); sea f (x0 ) 6= 0; entonces f (f (x0 )1 .x0 ) =
1, es decir, existe x1
/ N (f ) tal que f (x1 ) = 1; para cada x V se tiene que xf (x) .x1
N (f ), en efecto, f (x f (x) .x1 ) = f (x) f (x)f (x1 ) = 0. Nuevamente por hipotesis, x
f (x) .x1 N (g), luego g (x f (x) .x1 ) = 0, de donde, g(x) = f (x) g (x1 ) = g(x1 ).f (x),
es decir, g = g (x1 ) .f .
) Si g = a.f , entonces claramente N (f ) N (g).
6. Sean f1 , ..., fr V . Demostrar que el funcional g V es combinacion lineal de
f1 , ..., fr si y solo si N (f1 ) N (fr ) N (g).
7. Sean V y W espacios de dimension finita y sea T : V W una transformacion lineal.
Demostrar que Im(T ) = N (T t )0 , N (T ) = Im(T t )0 .
Soluci
on. Veamos la prueba de la primera igualdad. Tenemos el isomorfismo
F : W W
definido por F (w) = Fw W , donde Fw : W K se define a su vez por Fw (f ) =
f (w), para cada funcional f W . En este isomorfismo identificamos los elementos de
W con los de W , de tal forma que dado t W existe un u
nico vector wt W tal que

F (wt ) = t, es decir, t(f ) = f (wt ) para cada f W . La identificacion es entonces t wt .


De otra parte, recordemos que si T : V W es una transformacion lineal entonces su
transpuesta se define por T t : W V , T t (f ) = Tft , y Tft (v) = f (T (v)) para cada v V .
En este orden de ideas, lo que probaremos realmente es la igualdad F (Im(T )) = ker(T t )0 .
Comencemos con la inclusion F (Im(T )) ker(T t )0 . Sea T (v) Im(T ), con v V , y
sea F (T (v)) = FT (v) , la idea es mostrar que FT (v) ker(T t )0 . Sea f ker(T t ), entonces
FT (v) (f ) = f (T (v)), pero como T t (f ) = 0, entonces Tft (v) = 0 = f (T (v)). As pues,
FT (v) (f ) = 0 para cada f ker(T t ). La otra inclusion la probamos por la igualdad
de las dimensiones. Es claro que dim F (Im(T )) = dim Im(T ), pero dim(ker(T t )0 ) =
dim W dim ker(T t ) = dim W dim Im(T )0 = dim Im(T ). Esto completa la prueba de
la primera identidad del problema.

Pasemos a la segunda igualdad. Sea ahora F : V V , probemos que F (ker(T )) =


Im(T t )0 . Mostramos en primer lugar que F (ker(T )) Im(T t )0 : sea v ker(T ), veamos
que Fv Im(T t )0 , sea f Im(T t ), entonces f = T t (h), con h W , y de esta forma
f = Tht . Se tiene, Fv (f ) = Fv (T t (h)) = T t (h)(v) = h(T (v)) = h(0) = 0. Para completar la prueba de la igualdad podemos razonar como en la primera parte en terminos de las dimensiones. Notemos que dim F (ker(T )) = dim ker(T ), y de otra parte,
dim Im(T t )0 = dim V dim Im(T t ) = dim V dim ker(T )0 = dim ker(T ). Esto completa todo el problema.
8. Sea V = W1 Wr . Si Vi = W1 + + Wi1 + Wi+1 + + Wr , demostrar que
V = V10 Vr0 .

Captulo 8

Producto Interno
Introducci
on
El producto interno en espacios reales y complejos permite manejar conceptos geometricos tales como
distancia,
angulo, perpendicularidad, etc. Las transformaciones lineales actuando sobre tales espacios
ocupan un lugar importante en el estudio de la geometra ortogonal y simplectica.

8.1.

Espacios Euclidianos

En el espacio R2 se define un producto interno entre sus vectores a traves del cual se establece la
longitud de cada vector, el
angulo entre dos vectores, la distancia entre vectores, etc. En efecto, en
geometra vectorial se define el producto interno entre dos vectores u p
= (u1 , u2 ), p
v = (v1 , v2 ) en la forma
(u, v) = u1 v1 + u2 v2 , la longitud del vector u de define por kuk = (u, u) = u21 + u22 , la distancia
entre los vectores u, v viene dada por ku vk y el angulo entre dos vectores no nulos u, v se define
(u,v)
por cos = kukkvk
. En el presente captulo estudiamos estos conceptos geometricos y las propiedades
derivadas de ellos en espacios vectoriales reales y complejos de dimension finita. La primera lecci
on
est
a dedicada a repasar el caso real el cual seguramente ya conocen la mayora de nuestros visitantes.
Definici
on 8.1. Sea V un espacio vectorial real, un producto interno en V es una funci
on
( , ) : V V R

que asigna a cada par de vectores u, v V un real denotado por (u, v) y que satisface las siguientes
propiedades:
a) (u, v + w) = (u, v) + (u, w)
b) (a.u, v) = a(u, v)
c) (u, v) = (v, u)
d) Si u 6= 0, entonces (u, u) > 0
para cualesquiera vectores u, v, w V y cualquier escalar a R. Un espacio vectorial real se dice
que es euclidiano si en V est
a definido un producto interno. Veamos algunos ejemplos de espacios
euclidianos.
Ejemplo 8.1. El producto interno de R2 se generaliza a Rn de la siguiente manera: si x = (x1 , . . . , xn ),
y = (y1 , . . . , yn ) Rn , entonces (x, y) = x1 y1 + + xn yn . Este se conoce como el producto interno
can
onico. Existen otros productos internos sobre Rn , por ejemplo, en R2 se puede probar facilmente
que la relaci
on (x, y) = 2x1 y1 + x1 y2 + x2 y1 + 2x2 y2 define un producto interno.
135

CAPITULO 8. PRODUCTO INTERNO

136

Ejemplo 8.2. Sea C[a, b] el espacio de funciones continuas en el intervalo [a, b] y sean f (x), g(x)
Rb
C[a, b], entonces (f, g) = f (x)g(x)dx define un producto interno.
a

Ejemplo 8.3. En el espacio Mn (R) de matrices cuadradas reales de orden n 1 esta definido un
n
P
producto interno can
onico dado por (A, B) =
aij bij donde A, B Mn (R).
i,j=1

Ejemplo 8.4. Sea V un espacio vectorial real y W un espacio euclidiano, sea T : V W una transformaci
on lineal inyectiva. Entonces, V es un espacio euclidiano con el producto (u, v) = (T (u), T (v)),
con u, v V .
Algunas propiedades de un producto interno en un espacio euclidiano son las siguientes:
1) (0, v) = 0, para cada v V.
2) (v, v) = 0 si y s
olo si v = 0.
3) u = 0 si y s
olo si (u, v) = 0 para cada v V.
4) Desigualdad de Cauchy-Schwartz: (u, v)2 (u, u)(v, v) para cualesquiera vectores u, v V.
Adem
as, la igualdad se da si y s
olo si u, v son LD.
Demostraci
on: La prueba se puede realizar para el caso unitario que veremos en la Lecci
on
4 del presente captulo y observar que el conjugado de un n
umero real c coincide con c y que
adem
as | c |2 = c2 , donde | c | denota el modulo del complejo c.
Sea V un espacio unitario, u, v V y sean a, b C. Notese que si v = 0 entonces la desigualdad
(igualdad!) se cumple trivialmente. En este caso se tiene que u, v son LD.

Sea v 6= 0, entonces, (au + bv, au + bv) = aa (u, u) + ab (u, v) + ba (v, u) + bb (v, v) 0. To2
memos a = (v, v) y b = (u, v), entonces (v, v) (u, u) (v, v) (u, v) (u, v) (u, v) (v, v) (v, u) +
2
(u, v) (u, v) (v, v) 0, y entonces (v, v) (u, u) 2 (v, v) | (u, v) |2 + | (u, v) |2 (v, v) 0. Puesto que
a = (v, v) 6= 0, entonces (v, v) (u, u) | (u, v) |2 0, por tanto (v, v) (u, u) | (u, v) |2 .
N
otese que si la igualdad se da entonces al devolvernos se tiene que (au + bv, au + bv) = 0,
es decir, au + bv = 0, o sea que u y v son LD. Supongase recprocamente que u, v son LD. Sea
2
2
u = kv, donde k C, entonces (u, v) =| (kv, v) |2 =| k(v, v) |2 =| k |2 (v, v) ; (u, u) (v, v) =
2
2
(kv, kv) (v, v) =| k | (v, v) . 
Definici
on 8.2. Se dice que el espacio vectorial real V es normado si existe una funci
on norma
k k : V R+ {0}
que satisface las siguientes condiciones:
a) Si u 6= 0 entonces kuk > 0
b) ka uk = |a| kuk
c) Desigualdad triangular: ku + vk kuk + kvk
donde u, v son vectores de V y a R. En un espacio normado V se define la distancia entre dos
vectores u, v por d(u, v) = ku vk.
Proposici
on 8.1. Todo espacio euclidiano V es normado con norma can
onica dada por
p
kuk = (u, u).

8.1. ESPACIOS EUCLIDIANOS

137

p
Ejemplo 8.5. En el espacio euclidiano Rn la norma viene dada por kuk = u21 + + u2n , donde
u = (u1 , . . . , un ). La desigualdad de Cauchy-Schwartz en este caso toma la forma
(u1 v1 + + un vn )2 (u21 + + u2n )(v12 + + vn2 )
y la desigualdad triangular se escribe como
q
q
p
(u1 + v1 )2 + + (un + vn )2 u21 + + u2n + v12 + + vn2 .
Ejemplo 8.6. En el espacio C[a, b] la norma viene dada por kf (x)k =
Cauchy-Schwartz toma la forma

s
Rb

f (x)2 dx, la desigualdad de

b
2 b
b

Z
Z
Z
f (x)g(x)dx f (x)2 dx g(x)2 dx
a

y la desigualdad triangular es

v
v
v
u b
u b
u b
uZ
uZ
uZ
u
u
u
t (f (x) + g(x))2 dx t f (x)2 dx + t g(x)2 dx.
a

Los conceptos de vectores ortogonales y base ortonormal del espacio R2 pueden extenderse a espacios
euclidianos arbitrarios. Sea V un espacio euclidiano con producto interno (, ), dos vectores u, v se dicen
ortogonales si (u, v) = 0. Un subconjunto no vaco S de V se dice que es un conjunto ortogonal de
vectores si (u, v) = 0 para cada par de vectores u 6= v en S. El conjunto S se dice que es ortonormal
si S es ortogonal y adem
as kuk = 1 para cada u S. Por u
ltimo, sean u, v vectores no nulos de V , se
define el
angulo entre u y v como el u
nico n
umero real [0, ] que satisface la ecuacion.
cos =

(u, v)
.
kuk kvk

N
otese que dos vectores no nulos en V son ortogonales si y solo si el angulo entre ellos es /2. Adem
as,
en V se cumple el teorema de Pit
agoras, es decir, si u1 , . . . , un son vectores ortogonales, entonces
2

ku1 + + un k = ku1 k + + kun k

Proposici
on 8.2. Sea V un espacio euclidiano y S un conjunto ortogonal de vectores no nulos.
Entonces, S es LI. En particular, si V es de dimensi
on finita n 1 entonces cada conjunto de n
vectores ortogonales no nulos conforman una base de V .
A cada producto interno en un espacio euclidiano podemos asignar una matriz invertible con ciertas
condiciones de simetra y positividad, como veremos a continuacion.
Proposici
on 8.3. Sea V un espacio euclidiano de dimensi
on finita n 1 y sea X = {x1 , . . . , xn }
una base de V . Entonces la matriz A = [aij ] definida por aij = (xi , xj ) se conoce como la matriz del
producto interno ( , ) y tiene las siguientes propiedades:
a) Si u = b1 x1 + + bn xn , v = c1 x1 + + cn xn , entonces (u, v) =
b) AT = A.

n
P

i,j=1

aij bi cj .

CAPITULO 8. PRODUCTO INTERNO

138

c) Para cada vector no nulo Y = (y1 , . . . , yn ) Rn se cumple que


Y AY T > 0.
d) A es invertible.
e) Si la base X es ortogonal, entonces las coordenadas b1 , . . . , bn del vector u en la base X vienen
dadas por
(u, xi )
bi =
(xi , xi )
f ) Si X es ortonormal, entonces (u, v) =

n
P

bi c j .

i,j=1

Con una matriz real que cumpla b) y c) de la proposicion anterior podemos definir un producto interno
en un espacio real V de dimensi
on finita.
Proposici
on 8.4. Sea V un espacio de dimensi
on finita n 1 y sea X = {x1 , . . . , xn } una base de V .
Sea A = [aij ] una matriz real de tama
no n n que satisface las condiciones b) y c) de la proposici
on
anterior. Entonces V es un espacio euclidiano con producto interno dado por
(u, v) = Y AZ T ,
donde Y = (y1 , . . . , yn ) Rn , Z = (z1 , . . . , zn ) Rn son las coordenadas de los vectores u y v en la
base X, respectivamente.
Ejericicio 8.1. Sea C[1, 1] con producto interno definido como en el Ejemplo 2, calcular el angulo
entre las funciones f (x) = x y g(x) = 1 + x
Ejericicio 8.2. Sea Rn [x] el espacio de polinomios reales de grado n. Se define en este espacio el
producto interno entre dos polinomios f (x) = a0 + a1 x + + an xn , g(x) = b0 + b1 x + + bn xn por
n
P
(f (x), g(x)) =
ak bk . Determinar un polinomio h(x) de grado 2 que este a igual distancia de los
k=0

polinomios f1 (x) = 3x2 + 2x + 1, f2 (x) = x2 + 2x + 1, f3 (x) = 3x2 + 2x + 5 y f4 (x) = 3x2 + 5x + 2


en el espacio R2 [x]

Soluci
on: Sea h(x) = ax2 + bx + c. La distancia entre este polinomio y los polinomios f1 (x), f2 (x),
f3 (x) y f4 (x) es:


d(h(x), f1 (x)) = (a 3)x2 + (b 2)x + (c 1)


d(h(x), f2 (x)) = (a + 1)x2 + (b 2)x + (c 1)


d(h(x), f3 (x)) = (a 3)x2 + (b 2)x + (c 5)


d(h(x), f4 (x)) = (a 3)x2 + (b 5)x + (c 2)

en donde se debe cumplir que d(h(x), f1 (x)) = d(h(x), f2 (x)) = d(h(x), f3 (x)) = d(h(x), f4 (x)).
Estas ecuaciones pueden resolverse de la siguiente forma:
(a 3)2 + (b 2)2 + (c 1)2 = (a + 1)2 + (b 2)2 + (c 1)2
a2 6a + 9 = a2 + 2a + 1
a=1

8.2. SISTEMAS DE VECTORES ORTOGONALES

139

(a + 1)2 + (b 2)2 + (c 1)2 = (a 3)2 + (b 2)2 + (c 5)2


4 + c2 2c + 1 = 4 + c2 10c + 25
c=3

(a 3)2 + (b 2)2 + (c 5)2 = (a 3)2 + (b 5)2 + (c 2)2


b2 4b + 4 + 4 = b2 10b + 25 + 1
b=3

De acuerdo a esto, el polinomio obtenido es h(x) = x2 + 3x + 3 y la distancia com


un es


d(h(x), f1 (x)) = 2x2 + x + 2 = 9 = 3


d(h(x), f2 (x)) = 2x2 + x + 2 = 9 = 3


d(h(x), f3 (x)) = 2x2 + x 2 = 9 = 3


d(h(x), f4 (x)) = 2x2 2x + 1 = 9 = 3

a partir de lo cual se determina que los polinomios f1 (x), f2 (x), f3 (x) y f4 (x) se encuentran a la misma
distancia del polinomio h(x). 

8.2.

Sistemas de Vectores Ortogonales

En la lecci
on anterior definimos las bases ortonormales de un espacio euclidiano V, nos proponemos
ahora demostrar la existencia de dichas bases para espacios de dimension finita. El algoritmo que
permite la construcci
on de tales bases se conoce como el metodo de ortogonalizacion de Gram-Schmidt.
Este metodo se puede sin embargo aplicar para la construccion de conjuntos ortogonales de tama
no
infinito enumerable.
Teorema 8.1. Sea V un espacio euclidiano y sea u1 , u2 , . . . , un , . . . una sucesi
on de elementos de V .
Entonces existe en V una sucesi
on de vectores v1 , v2 , . . . , vn , . . . que satisface las siguientes propiedades:
a) Para cada k 2 el vector vk es ortogonal a cada vector de la envolvente lineal hv1 , . . . , vk1 i.
b) Para cada k 1 hv1 , . . . , vk i = hu1 , . . . , uk i.
c) La sucesi
on v1 , v2 , . . . , vn , . . . es u
nica salvo factores escalares.
Demostraci
on: La construcci
on de la sucesion {v1 , v2 , . . .} se realiza en forma recurrente.
Paso 1 Si la sucesi
on dada tiene un solo vector u1 entonces se toma v1 = u1 y las condiciones
a) c) se cumplen trivialmente.
Paso 2 . Sup
ongase que ya han sido construidos k vectores v1 , . . . , vk que cumplen a) c). Para
construir el vector vk+1 hacemos
(
(uk+1 ,vi )
Pk
si vi 6= 0
(vi ,vi )
vk+1 = uk+1 i=1 ai .vi ,
ai =
0,
si vi = 0
Veamos entonces que a) se cumple: sea j k, entonces

CAPITULO 8. PRODUCTO INTERNO

140

Pk
(vk+1 , vj ) = (uk+1 , vj ) ( i=1 ai .vi , vj ) = (uk+1 , vj ) aj (vj , vj ) = (uk+1 , vj )

(uk+1 ,vj )
(vj ,vj ) (vj , vj )

=0

en el caso en que vj 6= 0, si vj = 0 entonces tambien (vk+1 , vj ) = 0. Hemos probado la condicion a).


Paso 3 Veamos que hv1 , . . . , vk+1 i = hu1 , . . . , uk+1 i. Sea v hv1 , . . . , vk+1 i, existen b1 , . . . , bk+1 R
tales que v = b1 .v1 + + bk .vk + bk+1 .vk+1 , pero por construccion vk+1 huk+1 , v1 , . . . , vk i =
huk+1 , u1 , . . . , uk i.
Sea ahora v hu1 , . . . , uk+1 i, entonces existen c1 , . . . , ck+1 R tales que v = (c1 .u1 + + ck .uk ) +
ck+1 .uk+1 , pero por construcci
on uk+1 hvk+1 , v1 , . . . , vk i, luego v hu1 , . . . , uk , v1 , . . . , vk+1 i =
hv1 , . . . , vk+1 i. Hemos probado b).
Paso 4 Por recurrencia suponemos que los k vectores construidos satisfacen c). Sean w1 , . . . , wk+1
vectores que tambien satisfacen a) y b). Entonces, hw1 , . . . , wk+1 i = hu1 , . . . , uk+1 i = hv1 , . . . , vk+1 i,
luego wk+1 = z + e.vk+1 , donde z hv1 , . . . , vk i = hw1 , . . . , wk i; seg
un a), hwk+1 , zi = 0 = hvk+1 , zi,
luego hwk+1 e.vk+1 , zi = 0 = hz, zi, de donde z = 0 y wk+1 = e.vk+1 . Esto completa la prueba de c)
y del teorema. 

Los vectores v1 , v2 , . . . , vn , . . . se construyen de manera recurrente en la siguiente forma:

v 1 = u1
vk+1 = uk+1

k
X
i=1

ai vi

Donde,
ai =

(uk+1 ,vi )
(vi ,vi )

si vi 6= 0
si vi = 0

Corolario 8.1. Sea V un espacio euclidiano de dimensi


on finita n 1 y sea X = {u1 , . . . , un } una
base de V . Entonces, el conjunto de vectores {v1 , . . . , vn } definido por el teorema anterior conforma
una base ortogonal de V . Una base ortonormal de V se obtiene normalizando esta: definimos wi =
vi
kvi k , 1 i n.
Ejemplo 8.7 (Polonomios de Legendre). Sea R[x] el espacio de polinomios reales y considerese el
producto interno dado por

(p(x), q(x)) =

p(t)q(t)dt.

Sea X = {1, x, x2 , x3 , . . .} la base can


onica de R[x], entonces la sucesion de polinomios {v0 , v1 , v2 , . . .}
construida en el teorema anterior viene dada por

8.2. SISTEMAS DE VECTORES ORTOGONALES

141

v0 (x) = 1
v1 (x) = x
1
3
3
3
v3 (x) = x x
5
6
3
4
v4 (x) = x x2 +
7
35
10
5
v5 (x) = x5 x3 + x
9
21
..
.
n! dn 2
(x 1)n , n 0,
vn (x) =
(2n)! dxn

v2 (x) = x2

La sucesi
on anterior de polinomios se conoce como los polinomios de Legendre, y la formula dada
por
Pn (x) =

n
1 dn
v
(x)
=
x2 1
n
2
n n! dxn
n
2
2 (n!)
(2n)!

se conoce como la f
ormula de Rodrguez.
Ejericicio 8.3. Construir una base ortonormal en el espacio R4 del subespacio hu1 , u2 , u3 , u4 i, donde
u1 = (2, 3, 4, 6), u2 = (1, 8, 2, 16), u3 = (12, 5, 14, 5) y u4 = (3, 11, 4, 7)
Soluci
on: Usamos el metodo de Gram-Schmidt: v1 = u1 = (2, 3, 4, 6),
v1
w1 =
=
k v1 k


3
4
6
2
65,
65,
65,
65 .
65
65
65
65

2 ,v1 )
Ahora, v2 = u2 (u
(v1 ,v1 ) v1 = (1, 8, 2, 16)
decir, v2 = (3, 2, 6, 4); de donde

w2 =

v3

v2
=
k v2 k

(1,8,2,16)(2,3,4,6)
(2,3,4,6)(2,3,4,6)

(2, 3, 4, 6) = (3, 2, 6, 4), es


3
2
6
4
65,
65,
65,
65
65
65
65
65

(u3 , v1 )
(u3 , v2 )
v1
v2
(v1 , v1 )
(v2 , v2 )
(12, 5, 14, 5) (2, 3, 4, 6)
(12, 5, 14, 5) (3, 2, 6, 4)
= (12, 5, 14, 5)
(2, 3, 4, 6)
(3, 2, 6, 4)
(2, 3, 4, 6) (2, 3, 4, 6)
(3, 2, 6, 4) (3, 2, 6, 4)
= (4, 6, 2, 3)
=u3

es decir, v3 = (4, 6, 2, 3). Por tanto


w3 =

v3
=
k v3 k

4
6
2
3
65,
65,
65,
65
65
65
65
65

CAPITULO 8. PRODUCTO INTERNO

142

v4

(u4 , v1 )
(u4 , v2 )
(u4 , v3 )
v1
v2
v3
(v1 , v1 )
(v2 , v2 )
(v3 , v3 )
(3, 11, 4, 7) (2, 3, 4, 6)
(2, 3, 4, 6)
= (3, 11, 4, 7)
(2, 3, 4, 6) (2, 3, 4, 6)
(3, 11, 4, 7) (3, 2, 6, 4)

(3, 2, 6, 4)
(3, 2, 6, 4) (3, 2, 6, 4)
(3, 11, 4, 7) (4, 6, 2, 3)

(4, 6, 2, 3)
(4, 6, 2, 3) (4, 6, 2, 3)
= (0, 0, 0, 0)

=u4

es decir, v4 = (0, 0, 0, 0). En este caso no definimos w4 .


Lo anterior indica que dim(hu1 , u2 , u3 , u4 i) = 3 y {w1 , w2 , w3 } es una base ortonormal de esta envolvente lineal.
De otra parte, y como complemento a este ejercicio, el SWP produce la descomposicion QR de una matriz cuyos vectores columna son los vectores dados de tal forma que la matriz Q tiene en sus columnas
la base ortonormal buscada:
2
1
12
3
65 65
3 65
8
5
11
= 65
4
2 14 4 65
65
6
16
5
7
65 65

3
65
65

2
65
65
6
65
65
4
65 65

2 65
65

65

65
2
65

65

0
65
65
0
0
0


4
3
2
6
N
otese que en la matriz Q aparece un cuarto vector columna 65
65, 65
65, 65
65, 65
65 que
tambien es ortogonal a los otros 3 vectores: las cuatro columnas constituyen una base ortonormal de
R4 . La pregunta que surge es, c
omo se calcula este cuarto vector? En otras palabras, dado un sistema
de m vectores ortogonales en un espacio euclidiano (unitario) V de dimension n > m, como se completa
este sistema hasta una base ortonormal de V ?

2
3

4
6

4
65 65
6
65 65
2
65 65
3
65 65

6
65
65
4
65
65
3
65
65
2
65 65

65
0
0
0

En el presente ejercicio, buscamos un vector w4 = (a, b, c, d) tal que w4 hw1 , w2 , w3 i y k w4 k= 1.


Entonces,



2
3
4
6
2
3
4
6
(a, b, c, d)
65,
65,
65,
65 =
a 65 + b 65 c 65 d 65
65
65
65
65
65
65
65
65



3
2
6
4
2
3
6
4
(a, b, c, d)
65,
65,
65,
65 =
b 65 a 65 + c 65 d 65
65
65
65
65
65
65
65
65



4
6
2
3
4
6
2
3
(a, b, c, d)
65,
65,
65,
65 =
a 65 + b 65 + c 65 + d 65
65
65
65
65
65
65
65
65

=0
=0
=0

(a, b, c, d) (a, b, c, d) = a2 + b2 + c2 + d2 = 1

4
6
65
c65 65
d65 = 0
6
4
+ 65
c65 65
d65 = 0
2
3
+ 65 c 65 + 65
d 65 = 0
a + b + c2 + d2 = 1



6
4
3
2
Con el SWP la soluci
on es: a = 65
65, b = 65
65, c = 65
65, d = 65
65 , que es exactamente la
cuarta columna dada por el SWP en la descomposicion QR. 
2
65 a 65 +
2
65 b 65
4
65 a 65 +

3
65 b65
3
65 a65
6
65 b 65
2
2

8.3. COMPLEMENTO ORTOGONAL Y PROYECCIONES

8.3.

143

Complemento Ortogonal y Proyecciones

Definici
on 8.3. Sea V un espacio euclidiano y S un subconjunto no vaco de V . Se dice que el vector
v V es ortogonal al conjunto S si (v, u) = 0 para cada u S. Se define el ortogonal de S por
S = {v V | (v, u) = 0, para cada u S}.
Proposici
on 8.5. Sea V un espacio euclidiano y S un subconjunto no vaco de V . Entonces
a) S es un subespacio de V . Adem
as, S (S ) .
b) Si W es un subespacio de V de dimensi
on finita con base ortonormal X = {w1 , . . . , wm }, entonces

V = W W , cada vector v V tiene una representaci


on u
nica en la forma
2v = w + w , donde
Pm
2
2



w = i=1 (v, wi ).wi W, w = v w W y tal que kvk = kwk + w
.

Adem
as, W = (W ) . El subespacio W se denomina el complemento ortogonal de W .

La proposici
on anterior permite definir las proyecciones. Sea V un espacio euclidiano y sean u, w V
(u,w)
w se denomina la proyecci
on de u sobre w. Sea W un subespacio de V
con w 6= 0. El vector p = (w,w)
Pm
de dimensi
on finita y sea X = {w1 , . . . , wm } una base ortonormal de W. El vector p = i=1 (u, wi ).wi
se denomina la proyecci
on ortogonal de u sobre W y el vector p = u p W se denomina la
perpendicular de u al subespacio W .
Proposici
on 8.6. Sea V un espacio euclidiano y W un subespacio de V de dimensi
on finita. Sea
u V , entonces el vector m
as pr
oximo de W a u es la proyecci
on ortogonal p de u sobre W. Mas
exactamente, ku pk ku wk para cada w W. Adem
as, ku pk = ku wk si y s
olo si w = p.
Demostraci
on: Sea p la perpendicular de u sobre W de tal forma que u = p + p ; sea w un vector
cualquiera de W , entonces u w = (u p) + (p w) y se tiene que u p = p W y p w W .
De acuerdo a la Proposici
on 5 ku wk2 = ku pk2 + kp wk2 , luego ku pk2 ku wk2 , es decir,
ku pk ku wk. La igualdad se da si y solo si kp wk2 = 0, es decir, si y solo si w = p. 
Ejericicio 8.4. Determinar la funci
on polinomica de primer grado mas proxima a la funcion f (x) = ex
en el intervalo [1, 1].
Soluci
on: Consideremos el producto interno canonico hf (x), g(x)i =
pacio de funciones polin
omicas de grado 1 y X =

1 ,
2

3 x
6

Z1

f (x)g(x)dx, y sea W el subes-

una base ortonormal para W . Seg


un

la Proposici
on 6, la funci
on m
as pr
oxima de W a f (x) es la proyeccion ortogonal p(x) de f (x) sobre
W definida de la siguiente manera:
1
1
3
3
p(x) = (ex , ) + (ex , x) x
2
2
6
6
Z1
Z1
1
1
3
ex dx + x xex dx
=
2
2
2
1


1 2
=
e 1 e1 + 3e1 x.
2

CAPITULO 8. PRODUCTO INTERNO

144

8.4.

Espacios Unitarios

Esta lecci
on est
a dedicada a estudiar los espacios complejos dotados con un producto interno. Las
propiedades de estos espacios son similares a las de los espacios euclidianos que consideramos en las
Lecciones 1,2 y 3. La diferencia m
as importante radica en el cambio de la simetra corriente a la
simetra de Hermite.
Definici
on 8.4. Sea V un espacio vectorial sobre el cuerpo de n
umeros complejos C, se dice que V
es un espacio unitario si existe en V un producto interno ( , ) que asigna a cada par de elementos
u, v V un n
umero complejo (u, v) de tal forma que se cumplen las siguientes propiedades:
a) (u, v + w) = (u, v) + (u, w)
b) (a.u, v) = a(u, v)
c) (u, v) = (v, u) (simetra de Hermite)
d) Si u 6= 0, entonces (u, u) > 0
para cualesquiera vectores u, v V y cada escalar a C.
En los espacios unitarios se tiene que (u, a.v) = a(u, v), donde la barra indica conjugacion compleja.
Ejemplo 8.8. El producto interno can
onico en Cn se define de la siguiente manera: si x = (x1 , . . . , xn ), y =
n
(y1 , . . . , yn ) C , entonces (x, y) = x1 y1 + + xn yn .
Ejemplo 8.9. Sea C [a, b] el espacio de las funciones continuas definidas en el intervalo real [a, b] y
con valores complejos, es decir, cada funcion f (t) C [a, b] es de la forma f (t) = f1 (t) + if2 (t), donde
Rb
f1 (t), f2 (t) C[a, b]. En C [a, b] se define el producto interno canonico por (f, g) = a f (t)g(t)dt.

Ejemplo 8.10. En el espacio Mn (C) de matrices cuadradas complejas de orden n 1 esta definido
n
P
el producto interno can
onico dado por (A, B) =
aij bij donde A, B Mn (C).
i,j=1

La gran mayora de las propiedades de los espacios euclidianos se mantienen para los espacios unitarios.
A continuaci
on presentamos un resumen de las propiedades estudiadas en las lecciones anteriores pero
un su versi
on compleja.
1) (0, v) = 0, para cada v V .
2) (v, v) = 0 si y s
olo si v = 0.
3) u = 0 si y s
olo si (u, v) = 0 para cada v V.
4) Desigualdad de Cauchy-Schwartz: |(u, v)|2 (u, u)(v, v) para cualesquiera vectores u, v V . Las
barras indican el m
odulo de un complejo. Ademas, la igualdad se da si y solo si u, v son LD.
5) Todo espacio unitario es normado.
6) Los conceptos de ortogonalidad y ortonormalidad se definen como en el caso euclidiano.
7) Se cumple el teorema de Pit
agoras.
8) La Proposici
on 2 se cumple.
9) El metodo de Gram-Schmidt para la construccion de bases ortonormales se mantiene.
10) Los conceptos y propiedades de la Leccion anterior se mantienen.

8.5. TRANSFORMACIONES Y MATRICES ADJUNTAS

145

11) Las Proposiciones 3 y 4 toman la siguiente forma:


Definici
on 8.5. Sea V un espacio unitario de dimensi
on finita n 1 y sea X = {x1 , . . . , xn } una
base de V . Entonces la matriz A = [aij ] definida por aij = (xi , xj ) se conoce como la matriz del
producto interno ( , ) y tiene las siguientes propiedades:
a) Si u = b1 .x1 + + bn .xn , v = c1 .x1 + + cn .xn , entonces (u, v) =
b) AT = A.

n
P

aij bi cj .

i,j=1

c) Para cada vector no nulo Y = (y1 , . . . , yn ) Cn se cumple que


Y AY T > 0.
d) A es invertible.
e) Si la base X es ortogonal, entonces las coordenadas b1 , . . . , bn del vector u en la base X vienen
dadas por
(u, xi )
bi =
.
(xi , xi )
f ) Si X es ortonormal, entonces (u, v) =

n
P

bi c j .

i,j=1

Con una matriz compleja A que cumpla b) y c) podemos definir un producto interno en un espacio complejo V de dimensi
on finita mediante (u, v) = Y AZ T , donde Y = (y1 , . . . , yn ) Rn , Z = (z1 , . . . , zn )
Rn son las coordenadas complejas respectivas de los vectores u y v en una base ortonormal X.
Para terminar, veamos como se puede definir el angulo entre dos vectores no nulos u, v de un es= (u,v)+(u,v)
R, luego | (u,v)+(u,v)
| |(u, v)| kuk kvk (por
pacio unitario V : N
otese que (u,v)+(v,u)
2
2
2
|(u,v)+(v,u)|
la desigualdad de Cauchy-Schwartz). Por lo tanto, 2kukkvk 1, es decir, 1 (u,v)+(v,u)
2kukkvk 1. Se
define entonces el
angulo entre u y v como el u
nico real 0 tal que
cos() =

8.5.

(u, v) + (v, u)
.
2 kuk kvk

Transformaciones y Matrices Adjuntas

Para el estudio de los espacios con producto interno, ya sean euclidianos o complejos, es importante
considerar la adjunta de una transformacion lineal. Veremos en esta leccion que en bases ortonormales
la adjunta de una transformaci
on lineal corresponde a la matriz adjunta. Denotaremos por V un
espacio euclidiano o unitario de tal manera que K sera el cuerpo de n
umeros reales o complejos. Nos
referiremos entonces a V como un espacio con producto interno.
Proposici
on 8.7. Sea V un espacio con producto interno y sea v un vector fijo de V . Entonces la
funci
on
fv : V
u 7

K
fv (u) = (u, v)

es un funcional de V , es decir, fv V . Si V es de dimensi


on finita, entonces es v
alido el recproco, es
decir, dado f V existe un u
nico vector v V tal que f = fv , luego f (u) = (u, v) para cada u V .

CAPITULO 8. PRODUCTO INTERNO

146

Demostraci
on: Claramente fv es una transformacionP
lineal. Sea X = {v1 , . . . , vn } una base ortonormal
n
de V , entonces dado f V definimos el vector v = i=1 f (vi ).vi ; se tiene pues que fv (vj ) = (vj , v) =
Pn
(vj , i=1 f (vi ) vi ) = f (vj ) = f (vj ) para cada 1 j n. Esto implica que f = fv . Sea w otro vector
tal que f = fw , entonces fv (u) = f (u) = (u, v) = fw (u) = (u, w) para cada u V , luego v = w. 
Proposici
on 8.8. Sea V un espacio con producto interno de dimensi
on finita n 1. Entonces,
para cada transformaci
on lineal T : V V existe una u
nica transformaci
on T : V V tal que

(T (u), v) = (u, T (v)) para cualesquiera vectores u, v V .


Demostraci
on: Cada vector v V define un funcional hv V dado por hv (u) = (T (u), v) para cada
u V ; seg
un la Proposici
on 7 existe un u
nico vector w V tal que hv (u) = (u, w) para cada u V .
Se define entonces la aplicaci
on
T : V
v

V
w

As pues, T (v) = w (T (u), v) = (u, w) para cada u V . Veamos que T es una transformaci
on
lineal: sean u, v1 , v2 V , entonces
(u, T (v1 + v2 )) = (T (u), v1 + v2 ) = (T (u), v1 ) + (T (u), v2 ) = (u, T (v1 )) + (u, T (v2 )) =
(u, T (v1 ) + T (v2 )).
Seg
un la propiedad 3) de la Lecci
on 1 T (v1 + v2 ) = T (v1 ) + T (v2 ); de manera similar se demuestra

que T (a.v) = a.T (v) para cada a K y cada v V . Sea S otra transformacion lineal de V tal que
(T (u), v) = (u, S(v)) para cada u, v V , entonces (u, T (v)) = (u, S(v)) para cada u, v V , luego
T (v) = S(v), para cada v V , es decir, S = T .
La proposici
on anterior induce la siguiente definicion.
Definici
on 8.6. Sea T : V V una transformaci
on lineal de un espacio V con producto interno de
dimensi
on finita n 1, la u
nica transformaci
on T : V V definida anteriormente se denomina la
adjunta de T . De otra parte, sea A una matriz cuadrada de orden n 1 sobre el cuerpo K, la matriz
on compleja; en el caso real
A = AT se denomina la adjunta de la matriz A (la barra indica conjugaci
la adjunta de A coincide con su transpuesta).
Corolario 8.2. Sea V un espacio con producto interno de dimensi
on finita n 1. Entonces para cada
base ortonormal X de V se tiene que mX (T ) = mX (T ) .
Demostraci
on: Sea B = [bij ] = mX (T ), entonces por la ortonormalidad de X se tiene que aji =
(T (vi ), vj ) = (vi , T (vj )) = bij , luego B = AT . .
La demostraci
on del corolario anterior muestra que si T : V V es una transformacion lineal de un
espacio V con producto interno de dimension finita n 1 y X = {v1 , . . . , vn } es una base ortonormal
de V , entonces para la matriz A = [aij ] = mX (T ) se cumple que aij = (T (vj ), vi ). Otras consecuencias
directas de este corolario son las siguientes propiedades para la adjunta. Sean T, U : V V transformaciones lineales de un espacio V con producto interno de dimension finita n 1 y sea a K,
entonces
1) (T + U ) = T + U
2) (a.T ) = a.T
3) (T U ) = U T
4) (T ) = T .


8.6. TRANSFORMACIONES HERMITIANAS Y SIMETRICAS

147

Ejericicio 8.5. Sea T : C2 C2 la transformacion lineal definida por T (x, y) = (x iy, 2ix) y
considerese en C2 el producto interno canonico. Calcular T . Ademas, sea X = {(1, 1), (2, 2)} una
base ortogonal no ortonormal de C2 . Demostrar que mX (T ) 6= mX (T ) .
Soluci
on: Sea Y la base can
onica de C2 , la cual es obviamente ortonormal. Entonces, T (1, 0) =
(1, 2i) , T (0, 1) = (i, 0) y as


1 i
mY (T ) =
2i
0
Se tiene entonces que

mY (T ) =

i
0

1
2i

1
i

2i
0

x 2iy
ix

= mY (T ).

Esto implica que

T (x, y) =

1
i



2i
0

x
y

= (x i2y, ix) .

De otra parte, sea C la matriz de cambio de Y a X, entonces


mX (T ) = C 1 mY (T ) C =


1
2
1
4

2
2

1
1

+ 12 i
+ 34 i

1 

1 3i
1
1
2 2i

i
0

1
2i




1
1

2
2

1 3i
1
1
2 + 2i

luego

(mX (T )) =

1
2

12 i 14 34 i
1
1
1 + 3i
2 + 2i

De otro lado,
mX (T ) =


1
1

2
2

1 

1
i

2
2

2i
1
0
1

1
1

1

mY (T )

2
2

1
1

1
2
41

2
2
12 i
+ 34 i

Esto muestra que mX (T ) 6= (mX (T )) .

8.6.

Transformaciones Hermitianas y Sim


etricas

Consideraremos en esta lecci


on transformaciones lineales que coinciden con su adjunta, las cuales se
conocen con el nombre de autoadjuntas. En espacios unitarios estas transformaciones se denominan
tambien hermitianas, y en espacios euclidianos se conocen como transformaciones sim
etricas.
Definici
on 8.7. Sea T : V V una transformaci
on lineal de un espacio unitario V , se dice que T
es hermitiana si
hT (u), vi = hu, T (v)i
para cualesquiera vectores u, v V . En otras palabras, T es hermitiana si T = T . La transformaci
on
T se dice antihermitiana si

CAPITULO 8. PRODUCTO INTERNO

148

hT (u), vi = hu, T (v)i

para cualesquiera vectores u, v V . En otras palabras, T es antihermitiana si T = T .


Sea T : V V una transformaci
on lineal de un espacio euclidiano V , se dice que T es sim
etrica si
hT (u), vi = hu, T (v)i

para cualesquiera vectores u, v V . En otras palabras, T es simetrica si T = T. La transformaci


on
T se dice antisim
etrica si
hT (u), vi = hu, T (v)i

para cualesquiera vectores u, v V . En otras palabras, T es antisimetrica si T = T .


Si V es de dimensi
on finita n 1 con base {v1 , . . . , vn }, entonces las condiciones anteriores se pueden
expresar de la siguiente manera:
T es hermitiana (simetrica) hT (vi ), vj i = hvi , T (vj )i

T es antihermitiana (antisimetrica) hT (vi ), vj i = hvi , T (vj )i

para 1 i, j n.
La siguiente proposici
on muestra como se comportan los valores propios de las transformaciones introducidas.
Proposici
on 8.9. Sea V un espacio con producto interno (unitario o euclidiano) y T : V V una
transformaci
on lineal con valor propio . Entonces
a) Si T es hermitiana, entonces R
b) Si T es simetrica, entonces R
c) Si T es antihermitiana, entonces es imaginario puro
d) Si T es antisimetrica, entonces = 0
Demostraci
on: Sea v un vector propio correspondiente al valor propio . Entonces, hT (v), vi = h.v, vi =
hv, vi, de donde
=
Si T es hermitiana, entonces
=

hT (v), v)i
hv, vi

hT (v), v)i
hv, T (v)i
hT (v), v)i
=
=
= ,
hv, vi
hv, vi
hv, vi

con lo cual es un n
umero real. Si T es simetrica, entonces T actua por definicion en un espacio
euclidiano y es un n
umero real. Sup
ongase que T es antihermitiana, entonces
=

hT (v), v)i
hv, T (v)i
hT (v), v)i
=
=
= ,
hv, vi
hv, vi
hv, vi

y en consecuencia la parte real de es nula. Si T es antisimetrica es por definicion real y adem


as
= , es decir, = 0. 


8.6. TRANSFORMACIONES HERMITIANAS Y SIMETRICAS

149

Sabemos que vectores propios correspondientes a valores propios diferentes son LI. Para transformaciones hermitianas, antihermitianas y simetricas los vectores propios son ademas ortogonales.
Proposici
on 8.10. Sea T una transformaci
on lineal hermitiana, antihermitiana o simetrica. Sean
, valores propios de T diferentes con vectores propios u, v respectivamente. Entonces, hu, vi = 0.
Demostraci
on: Se tiene que hT (u), vi = h.u, vi = hu, vi y hu, T (v)i = hu, vi = hu, vi. Si T es
hermitiana o simetrica, entonces hu, vi = hu, vi = hu, vi ya que es real (Proposicion 9). Esto
implica que hu, vi = 0. Si T es antihermitiana, entonces = y entonces hu, vi = (hu, vi) y
nuevamente hu, vi = 0. 
A continuaci
on veremos como son las matrices de las transformaciones definidas en la presente lecci
on
relativas a bases ortonormales arbitrarias.
Proposici
on 8.11. Sea V un espacio con producto interno (unitario o euclidiano) , T : V V una
transformaci
on lineal y X = {v1 , . . . , vn }una base ortonormal de V . Sea A = [aij ] la matriz de T en
la base X. Entonces,
a) T es hermitiana si y s
olo si aij = aji
b) T es antihermitiana si y s
olo si aij = aji
c) T es simetrica si y s
olo si aij = aji
d) T es antisimetrica si y s
olo si aij = aji
para cada 1 i, j n.
Demostraci
on: Se tiene que
hT (vj ), vi i =

n
X

k=1

akj .vk , vi

= aij .

Analogamente, hT (vi ), vj i = aji . Entonces, T es hermitiana si y solo si hT (vj ), vi i = hvj , T (vi )i =


hT (vi ), vj i = aij = aji (para el caso simetrico la conjugacion sobra). Los casos antihermitiano y antisimetrico se demuestran de manera an
aloga. 
La proposici
on anterior define los siguientes tipos de matrices: Sea A = [aij ] una matriz con entradas complejas, se dice que A es hermitiana siA = A, cuando A = A se dice entonces que
A es antihermitiana. Sea A = [aij ] una matriz con entradas reales, se dice que A es sim
etrica si
AT = A, cuando AT = A se dice entonces que A es antisim
etrica. Una consecuencia directa de
estas definiciones y de la proposici
on inmediatamente anterior es el siguiente corolario.
Corolario 8.3. Sea T : V V una transformaci
on de un espacio con producto interno de dimensi
on
finita. Entonces, T es hermitiana (antihermitiana) si y s
olo si la matriz de T en cualquier base ortonormal es hermitiana (antihermitiana). Tambien, T es simetrica (antisimetrica) si y s
olo si la matriz
de T en cualquier base ortonormal es simetrica (antisimetrica).
Ejemplo 8.11. Algunos ejemplos de las matrices definidas anteriormente son los siguientes:

0
i 2
i
0 3
es antihermitiana pero no es hermitiana
2 3 4i

La matriz nula es hermitiana y antihermitiana

CAPITULO 8. PRODUCTO INTERNO

150

0
i
2

2 i
i 4

i 2
0 3
3 0


1 2
2 3

es hermitiana pero no es antihermitiana

no es hermitiana ni tampoco antihermitiana

es simetrica pero no es antisimetrica

La matriz nula es simetrica y antisimetrica




0 1
es antisimetrica pero no es simetrica
1 0


0 2
no es simetrica ni antisimetrica
4 0
En una matriz hermitiana los elementos diagonales son reales, en una antihermitiana son imaginarios
puros y en una antisimetrica son nulos.

8.7.

Diagonalizaci
on

Ahora estudiaremos la diagonalizaci


on de matrices y transformaciones hermitianas y simetricas.
Teorema 8.2. Sea T : V V una transformaci
on lineal hermitiana , antihermitiana (simetrica)
de un espacio unitario (euclideano) V de dimensi
on finita n 1. Entonces, T es diagonalizable. Mas
exactamente, V tiene una base ortonormal de vectores propios de T .
Demostraci
on: La prueba se hace por induccion sobre n. Si n = 1 entonces V = hvi, con v 6= 0. Sea
v
, entonces V = hwi y T (w) = a.w con a C (a R). De esta manera, w es un vector propio
w = kvk
de T y {w} es una base ortonormal de V .
Sup
ongase que el teorema ha sido demostrado para espacios de dimension n, y sea V de dimensi
on n + 1. Si V es unitario, entonces podemos garantizar la existencia de valores y vectores propios
para T . Sea V euclidiano y T simetrica. Sea X una base ortonormal de V , entonces A = mX (T ) es
simetrica (vease el Corolario 3 ). Podemos considerar la matriz A como hermitiana, de donde, A tiene
al menos un valor propio a1 C, sin embargo sabemos que a1 es necesariamente real (proposicion 9).
Sea Z Cn+1 el vector propio asociado al valor a1 de tal forma que (Aa1 .E)Z = 0; el vector Z puede
escribirse en la forma Z = Z1 + iZ2 , donde Z1 , Z2 Rn+1 . Se tiene entonces que (A a1 .E)Zi = 0,
i = 1, 2. Adem
as, Z1 6= 0
o Z2 6= 0. As pues, Z1 o Z2 es un vector propio real de A con valor propio
real a1 .
As pues, en cualquiera de los tres casos T tiene al menos un vector propio u1 con valor propio
a1 . Sea v1 = kuu11 k , entonces T (v1 ) = a1 .v1 , es decir v1 es un vector propio de T de norma 1.
Sea W = hv1 i, sabemos que V = W W (Proposicion 5), de donde dim(W ) = n. Notemos que
W es T -invariante: en efecto, sea x W , entonces (T (x), v1 ) = (x, T (v1 )) = (x, T (v1 )) en el caso
en que T sea Hermitiana o simetrica. En el caso antihermitiano (T (x), v1 ) = (x, T (v1 )). Entonces,
(T (x), v1 ) = (x, a1 .v1 ) = 0, lo cual indica que T (x) W . Podemos entonces definir la restriccion T0
de T al subespacio W . Es obvio que T0 es Hermitiana (antihermitiana, simetrica, respectivamente).
Por inducci
on, existen v2 , . . . , vn+1 vectores propios ortonormales que conforman una base de W .
Resulta entonces que v1 , v2 , . . . , vn+1 es una base ortonormal de vectores propios de T . 


8.7. DIAGONALIZACION

151

El teorema anterior no es v
alido para transformaciones y matrices antisimetricas, ya que en caso
contrario todas estas seran nulas (ver la Proposicion 11).
Las siguientes proposiciones permiten caracterizar las matrices diagonalizantes a que hace referencia el Teorema 2.
Proposici
on 8.12. Sea A una matriz compleja hermitiana (antihermitiana) de orden n. Entonces
existe una matriz compleja invertible C de orden n tal que

a1
0
0

C 1 AC = 0 . . .
0 ,
0

an

donde a1 , . . . , an son los valores propios de A y para C se tiene que C 1 = C .

Demostraci
on: Sea X la base can
onica de Cn , existe una transformacion T : Cn Cn tal que
mX (T ) = A. Puesto que X es ortonormal entonces T es hermitiana (antihermitiana); existe una
base ortonormal Y de vectores propios de T en Cn tal que mY (T ) = diag(a1 , . . . , an ), donde a1 , . . . , an
son los valores propios de T, y en consecuencia, P
los de A. Se tiene entonces que mY (T ) = C 1 AC,
n
donde C es la matriz de cambio de X a Y : yi = k=1 cki .xk . Resta ver que C 1 = C .
hyj , yi i =

n
X

ckj .xk ,

k=1

n
X

cki .xk

k=1

s=1 k=1

Para k 6= s se tiene que hxk , xs i = 0. Por lo tanto,


hyj , yi i =

n
X

cki ckj =

n
X

n
n X
X

cik .ckj =

k=1

k=1

csi ckj hxk , xs i.

1,
0,

i=j
i 6= j

Entonces, C C = E. De manera an
aloga se establece que CC = E.
Proposici
on 8.13. Sea A una matriz real simetrica de orden n. Entonces existe una matriz real
invertible C de orden n tal que

a1
0
0

C 1 AC = 0 . . .
0 ,
0
0 an
donde a1 , . . . , an son los valores propios de A y para C se tiene que C 1 = C T .
Ejericicio 8.6. Para
A=

0
2

2
0

calcular una matriz C tal que C 1 AC sea diagonal.


Soluci
on: A es una matriz antisimetrica no nula, por lo tanto no puede ser diagonalizada por medio
de una matriz real. Si consideramos a la matriz A como una matriz antihermitinana, entonces A
puede ser diagonalizada por medio de una matriz compleja C. Los valores propios de A son 2i y 2i;
E(2i) = {a.(i, 1) | a C {0}}, E(2i) = {a.(i, 1) | a C {0}}. Entonces, los vectores u1 = (i, 1)
y u2 = (i, 1) son vectores propios correspondientes a valores propios diferentes, luego de acuerdo a la
Proposici
on 10 estos vectores son LI y ortogonales. Resulta entonces que {w1 = kuu11 k = 12 (i, 1), w2 =

CAPITULO 8. PRODUCTO INTERNO

152

= 12 (i, 1)} es una base ortonormal de C2 de vectores propios de A. La prueba de la Proposici


on
12 C es la matriz de cambio de base de la canonica a la base {w1 , w2 }, es decir,
"
#
#
"
1 i 1 i
1 i
1

2
2
2
2
,
C =
.
C=
1
1
1 i
1
2
2
2
2
u2
ku2 k

N
otese que efectivamente CC = E y
C 1 AC =

8.8.

2i
0

0
2i

Transformaciones Unitarias y Ortogonales

Estudiaremos es esta lecci


on las transformaciones lineales cuya inversa es su adjunta.
Definici
on 8.8. Sea T : V V una transformaci
on lineal de un espacio unitario (euclidiano), se
dice que T es unitaria (ortogonal) si
hT (u), T (v)i = hu, vi
para cada u, v V.
Proposici
on 8.14. Sea T : V V una transformaci
on lineal de un espacio unitario (euclidiano) de
dimensi
on finita n 1. Entonces las siguientes condiciones son equivalentes:
(a) T es unitaria (ortogonal)
(b) Para cada base X = {v1 , . . . , vn } de V se cumple que hT (vi ), T (vj )i = hvi , vj i , para cada
1 i, j n.
(c) Si {v1 , . . . , vn } es una base de ortonormal de V , entonces {T (v1 ), . . . , T (vn )} es tambien una
base ortonormal de V.
(d) Existe una base ortonormal {v1 , . . . , vn } de V tal que {T (v1 ), . . . , T (vn )} es tambien una base
ortonormal de V .
(e) Para cada v V se cumple que kT (v)k = kvk
(f ) T 1 existe y T 1 = T .
Demostraci
on: (a) (b) es evidente.
(b) (c): Basta observar que {T (v1 ), . . . , T (vn )} es un conjunto ortonormal de vectores no nulos.
(c) (d): Evidente.
(d) (e): Sea v = a1 .v1 + + an .vn , entonces
* n
+
n
n X
n
X
X
X
hT (v), T (v)i =
ak .T (vk ),
al .T (vl ) =
ak al hT (vk ), T (vl )i = hv, vi,
k=1

l=1

k=1 l=1

luego kT (v)k = kvk.


(e) (f ): Basta probar que T es inyectiva para garantizar la existencia de T 1 . Si T (v) = 0, entonces kT (v)k = kvk = 0, luego v = 0.

8.8. TRANSFORMACIONES UNITARIAS Y ORTOGONALES

153

Vamos ahora a probar que T preserva productos, usando las siguientes identidades de polarizaci
on:
1
1
2
2
ku + vk ku vk
(caso real)
4
4
1
i
i
1
2
2
2
2
(caso complejo).
hu, vi = ku + vk ku vk + ku + i.vk ku i.vk
4
4
4
4
Entonces en el caso real se tiene que
hu, vi =

1
1
2
2
kT (u) + T (v)k kT (u) T (v)k
4
4
1
1
2
2
=
kT (u + v)k kT (u v)k
4
4
1
1
2
2
=
ku + vk ku vk
4
4
= hu, vi .

hT (u), T (v)i =

El caso complejo
se demuestra
la segunda
identidad de polarizacion. De lo anterior resulta,

usando


hT (u), vi = T (u), T (T 1 (v)) = u, T 1 (v) , es decir, T = T 1 .
(f ) (a): Sean u, v V , entonces hT (u), T (v)i = hu, T (T (v))i = hu, T 1 (T (v)i = hu, vi.

Algunas de las propiedades expuestas en la proposicion anterior son validas para transformaciones
lineales sobre espacios de dimensi
on infinita. Sea T : V V una transformacion lineal de un espacio
V , entonces
(i) T es unitaria (ortogonal) si y s
olo si T preserva la norma si y solo si T preserva distancias, es
decir, kT (v) T (u)k = kv uk, para cada u, v V .
(ii) Sea T es unitaria (ortogonal), entonces hT (u), T (v)i = 0 si y solo si hu, vi = 0.
(iii) Toda transformaci
on unitaria (ortogonal) es inyectiva. Ademas, T 1 : T (V ) V preserva el
producto interno. En consecuencia, si T es una transformacion unitaria (ortogonal) biyectiva,
entonces T 1 es tambien unitaria (ortogonal).
(iv) La composici
on de transformaciones unitarias (ortogonales) es nuevamente una transformaci
on
unitaria (ortogonal). En consecuencia, el conjunto de transformaciones unitarias (ortogonales)
biyectivas es un grupo.
Una matriz compleja C se dice unitaria si CC = E (es decir, C es invertible y su inversa es igual a
su adjunta). Una matriz real C se dice ortogonal si CC T = E (es decir, C es invertible y su inversa
es su transpuesta).
Corolario 8.4. Sea T : V V una transformaci
on lineal de un espacio unitario (euclidiano) de
dimensi
on finita n 1. Entonces, T es unitaria (ortogonal) si y s
olo si la matriz de T en cada base
ortonormal de V es unitaria (ortogonal).
Demostraci
on: Sea X = {v1 , . . . , vn } una base ortonormal de V y sea C = [cij ] = mX (T ). Entonces,
T (vj ) =

n
X

clj .vl ,

l=1

hT (vj ), T (vi )i =

T (vi ) =

n
X

cki .vk ,

k=1
n
X
l=1

clj .vl ,

n
X

k=1

cki .vk

CAPITULO 8. PRODUCTO INTERNO

154
n
X

k=1

ckj .cki = hvj , vi i =

1,
0,

i=j
i 6= j

Se tiene entonces que CC = E. La prueba en sentido contrario funciona para probar la afirmaci
on
recproca.
La diagonalizaci
on de las transformaciones (matrices) unitarias sera probada en la proxima leccion. El
siguiente ejemplo ilustra que no toda transformacion (matriz) ortogonal es diagonalizable.


0 1
Ejemplo 8.12. La matriz real A =
es ortogonal, sin embargo A no tiene valores propios
1 0
reales, por lo tanto, A no es diagonalizable.
Ejemplo 8.13. Sea T una transformacion unitaria (ortogonal). Sea a un valor propio de T , entonces
|a| = 1. En efecto, T (u) = a.u, con u 6= 0, luego hT (u), T (u)i = hu, ui = ha.u, a.ui = aa hu, ui, por lo
tanto, aa = 1, es decir, |a| = 1.

8.9.

Transformaciones Normales

N
otese que las transformaciones Hermitianas, antihermitianas, simetricas, antisimetricas, unitarias
y ortogonales, tienen la propiedad de conmutar con su adjunta. Estudiaremos en esta leccion las
transformaciones con tal propiedad.
Definici
on 8.9. Sea T : V V una transformaci
on lineal de un espacio unitario (euclidiano). Se
dice que T es normal si T T = T T. Una matriz compleja (real) A se dice normal si AA = A A.
Corolario 8.5. Sea T : V V una transformaci
on lineal de un espacio unitario (euclidiano) de
dimensi
on finita n 1 y X una base ortonormal de V . T es normal si y s
olo si la matriz de T en la
base X es normal.
Corolario 8.6. Los siguientes tipos de transformaciones son normales: hermitianas, antihermitianas,
simetricas, antisimetricas, unitarias y ortogonales.
Proposici
on 8.15. Sea T : V V una transformaci
on normal de un espacio unitario (euclidiano)
de dimensi
on finita n 1. u V es un vector propio de T con valor propio a si y s
olo si u es vector
propio de T con valor propio a.
Demostraci
on: Para cada transformaci
on T normal se tiene que kT (u)k = kT (u)k, para cada u V .
2
En efecto, kT (u)k = hT (u), T (u)i=hu, T (T (u))i = hu, T (T (u))i = hT (T (u)), ui = hT (u), T (u)i =
2
hT (u), T (u)i = kT (u)k .
Sea U = T a.I, entonces U es tambien normal (a es cualquier n
umero real o complejo): U = T aI,

entonces U U = (T a.I) (T a.I) = (T a.I) (T a.I) = U U .


De lo anterior se tiene entonces que k(T a.I) (u)k = k(T a.I) (u)k, luego (T a.I) (u) = 0 si
y s
olo si (T a.I) (u) = 0.
Teorema 8.3. Sea V un espacio unitario de dimensi
on finita n 1 y sea T : V V un operador
normal. Entonces, existe una base ortonormal X = {v1 , . . . , vn } de vectores propios de T tal que
mX (T ) es diagonal.
Demostraci
on: La prueba se realiza por induccion sobre n. Para n = 1 sea V = hvi, entonces normav
lizamos el vector v, y obtenemos w = kvk
. Es claro que V = hwi y {w} es una base ortonormal de V
tal que la matriz de T en esta base es diagonal.

8.9. TRANSFORMACIONES NORMALES

155

Supongamos que el teorema ha sido probado para n y sea V un espacio de dimension n + 1. Como
suponemos que estamos en el caso complejo, podemos asegurar la existencia de al menos un vector
u V y un escalar a C tal que T (u) = a.u. Sea W = hui y W el complemento ortogonal de W .
Veamos que W es T -invariante. En efecto, sea x W , entonces (T (x), u) = (x, T (u)) = (x, a.u),
donde la u
ltima igualdad se tiene por la Proposicion 15. Se tiene entonces que (x, a.u) = 0, y por lo
tanto, T (x) W . Como V = W W y dim(W ) = n, entonces para aplicar induccion debemos
garantizar que la restricci
on T0 de T a W sea nuevamente un operador normal. En W construimos
una base ortonormal, de tal manera que al reunir esta base con {u} obtenemos una base ortonormal
de V y en esta base la matriz de T es normal y tiene dos bloques, uno de tama
no 1 1 y el segundo
B de tama
no n n. Es claro que B es una matriz normal, con lo cual T0 es tambien normal.
Por inducci
on, existe una base ortonormal X0 = {u1 , . . . , un } en W de vectores propios de T0
tal que la matriz de T0 en esta base es diagonal. Notemos que los vectores de X0 son tambien vectores
propios para T . Se tiene en total que X = X0 {u} es una base ortonormal de vectores propios de T
y la matriz de T en esta base es diagonal. 
Corolario 8.7. Toda matriz normal compleja es diagonalizable por medio de una matriz unitaria.
De los resultados del presente captulo se pueden sacar las siguientes conclusiones:
Matrices (transformaciones) diagonalizables por medio de matrices unitarias: Hermitianas, antihermitianas,unitarias.
Matrices (transformaciones) diagonalizables por medio de matrices ortogonales: sim
etricas.
Matrices (transformaciones) no siempre diagonalizables: antisim
etricas, ortogonales.
Cerramos este captulo con un ejemplo y un ejercicio.
Ejemplo 8.14. La siguiente matriz es normal
A=

1
i

i
1

Entonces, seg
un el Teorema 3 existe una matriz unitaria C tal que C 1 AC es diagonal. Vamos a
calcular la matriz C. (Notemos que A no es Hermitiana, ni antihermitiana, ni simetrica, ni unitaria).
Se tiene que pA (x) = x2 2x+2 y sus races son 1i, 1+i. Los espacios propios son E(1i) = h(1, 1)i,
E(1 + i) = h(1, 1)i. Los vectores propios son ortogonales y debemos normalizarlos: v1 = 12 (1, 1),
v2 = 12 (1, 1). Entonces la matriz C es
#
"
12 12
C=
1
1
2

y satisface
C 1 AC =

1i
0
0 1+i


.

Notemos que C es ortogonal, y por lo tanto unitaria.


Ejericicio 8.7. Para cada matriz compleja A existe una matriz unitaria U tal que U 1 AU es triangular
superior.
Soluci
on: Sabemos que toda matriz compleja se puede triangular, es decir, si T : Cn : Cn es la
transformaci
on de A en la base can
onica X, entonces existe una base Y en Cn tal que la matriz de T en
esta base es triangular superior. Podemos aplicar el metodo de Gram-Schmidt a esta base Y y obtener
una nueva base ortonormal Z en la cual la matriz de T es tambien triangular superior. Notemos que

156

CAPITULO 8. PRODUCTO INTERNO


mZ (T ) = U 1 AU ,

donde U es la matriz de cambio de X a Z, por lo tanto, las columnas de U son vectores ortonormales
de Cn , es decir, U es unitaria.

lgebra Lineal
Captulo 8. Espacios con Producto Interno
Ejercicios.
Iniciamos esta seccin de ejercicios repasando algunos conceptos de geometra vectorial.
a. Sean !
u ;!
v vectores no nulos de Rn . Probar que !
u ;!
v son ortogonales si y slo si
k!
u +!
v k2 =k !
u k2 + k !
v k2 :

b. Sean !
u ;!
v vectores de Rn . Probar que
k!
u +!
v k2 + k !
u

!
v k2 = 2(k !
u k2 + k !
v k2 ):

!
!
c. Sean !
u ;!
v vectores no nulos de Rn . Demostrar que pr!
u , donde
u ( v ) = (k v k cos ) :e!
!
!
e u es un vector de norma 1 en la direccin de u .
d. Sean !
u ;!
v vectores no nulos de Rn . Probar que
k!
u

!
v k2 =k !
u k2 + k !
v k2

2k!
u kk !
v k cos ;

donde es el ngulo entre u y v.


e. Sean !
u ;!
v vectores no nulos. Se dice que !
u y!
v son paralelos, lo cual denotamos por
!
!
u k v , si el ngulo entre ellos es 0 . Demostrar que !
u k!
v ,!
u = :!
v , donde
es un escalar de R.
!
!
!
!
!
!
! ! !
f. Sean !
u = u1 i + u2 j + u3 k ; v = v1 i + v2 j + v3 k 2 R3 , donde i ; j ; k son los
vectores cannicos unitarios. Se dene el producto vectorial de !
u con !
v por
2 ! ! ! 3
i
j k
!
!
4
u
v = det u1 u2 u3 5 :
v1 v2 v3

Demostrar que se tienen las siguientes propiedades del producto vectorial:


(!
u !
v ;!
u ) = 0; (!
u !
v ;!
v ) = 0;
!
!
!
!
!
!
u
v = (v
u ); u !
u = 0,
: (!
u !
v ) = ( :!
u) !
v =!
u ( :!
v ),
!
!
!
!
!
!
!
!
(u + v) w = u
w+ v
w , u (!
v +!
w) = !
u !
v +!
u !
w,
! ! ! ! ! ! ! ! !
i
j = k; j
k = i;k
i = j,
2
k!
u !
v k2 =k !
u k2 k !
v k2 (!
u ;!
v) .
g. Sean !
u ;!
v vectores no nulos. Demostrar que k !
u !
v k=k !
u kk !
v k sen , donde
!
!
es el angulo entre u y v . Esto corresponde al rea del paralelogramo determinado por
los vectores !
u y!
v , cuando stos no son paralelos
!
!
h. Sean u ; v dos vectores de R3 no nulos y no paralelos. Demostrar que el rea del
tringulo cuyos lados son estos dos vectores viene dada por
k!
u

2
1

!
v k

i. Demostrar que el volumen de un paraleleppedo conformado por tres vectores no


coplanares !
u ;!
v ;!
w 2 R3 viene dado por (!
u !
v ;!
w ).
j. Lneas rectas en R3 : en este ejercicio repasamos la denicin de recta en R3 y algunas
de sus ms importantes caracterizaciones y propiedades.
j1. Concepto: la recta que pasa por el punto P = (p1 ; p2 ; p3 ) 2 R3 y tiene
!
como vector director !
a = (a1 ; a2 ; a3 ) 6= 0 se dene por
!
L (P; !
a ) = fOP + :!
a j 2 Rg =
f(p1 ; p2 ; p3 ) + : (a1 ; a2 ; a3 ) j 2 Rg =
f(p1 + a1 ; p2 + a2 ; p3 + a3 ) j 2 Rg:
Esta se conoce como la caracterizacin vectorial de la recta. Algunas propiedades
son las siguientes:
!
!
j2. L (P; !
a ) = L P; b , !
a = : b , donde es un cierto escalar no nulo,
!
es decir, si y slo si !
a y b son paralelos.
j3. L (P; !
a ) = L (Q; !
a ) , Q 2 L (P; !
a ) , P 2 L (Q; !
a)
!
!
Decimos que L (P; !
a ) k L Q; b si y slo si !
a y b son paralelos. Demostrar

que dada una recta L (P; !


a ) y un punto P 0 2
= L (P; !
a ), existe una nica recta
!
!
!
0
L Q; b tal que P 2 L Q; b y L Q; b k L (P; !
a ).
j4. Dos puntos distintos determinan una nica recta, es decir, demostrar que
dados dos puntos P 6= Q existe una nica recta que los contiene a ambos. Esta
!
recta es L P; P Q .

j5. Ecuaciones paramtricas de la recta: notemos que un punto (x; y; z) de la


recta L (P; !
a ) satisface
(x; y; z) = (p1 ; p2 ; p3 ) + : (a1 ; a2 ; a3 )
es decir
x = p 1 + a1
y = p 2 + a2
z = p 3 + a3 :
k. Lneas rectas en R2 : una recta en R2 se dene en forma similar a como se hizo en el
espacio, la recta que pasa por el punto P = (p1 ; p2 ) 2 R2 y tiene como vector director
2

!
!
a = (a1 ; a2 ) 6= 0 se dene por

!
L (P; !
a ) = fOP + :!
a j 2 Rg =
f(p1 ; p2 ) + : (a1 ; a2 ) j 2 Rg =
f(p1 + a1 ; p2 + a2 ) j 2 Rg:

De manera particular se tienen las ecuaciones paramtricas:


x = p 1 + a1
y = p 2 + a2 :
Eliminando el parmetro

se obtiene la ecuacin cartesiana de la recta:


a2 x = a2 p 1 + a 1 a2
a1 y = a1 p 2 + a 1 a2

luego
a2 x a2 p1 = a1 y
a1 y = a2 x + a1 p 2

a1 p 2
a2 p 1

Si a1 6= 0, entonces obtenemos la ecuacin explcita de la recta:


y=

a2
a1 p 2 a2 p 1
x+
;
a1
a1

en donde aa21 es la pendiente y a1 p2a1a2 p1 es el corte con el eje y. Si a1 = 0, entonces la


ecuacin en este caso es simplemente x = p1 , es decir, es la recta paralela al eje y que
pasa por el punto (p1 ; p2 ).
Ecuacin normal de la recta: notemos que el vector !
n = (a2 ; a1 ) es ortogonal al vector
director !
a = (a1 ; a2 ) de la recta L (P; !
a ), podemos entonces caracterizar la recta como
el conjunto de puntos !
z = (x; y) tales que
!
!
OP ; !
n = 0
!
(!
z ;!
n ) = OP ; !
n :
!
z

Si utilizamos la notacin del producto punto, entonces la ecuacin normal de la recta es


!
!
z !
n = OP !
n
De aqu resulta a2 x a1 y = a2 p1 a1 p2 , y nuevamente, si a1 6= 0, entonces obtenemos
nuvamente la ecuacin punto-pendiente.
3

Distancia de un punto a una recta L (P; !


a ): sea Q un punto que no pertenece a la recta,
! !
!
entonces la distancia d de Q a L (P; a ) es la norma de la proyeccin del vector OP OQ =
!
QP sobre el vector normal !
n , por lo tanto
! !
QP
;n
!
!
d =k proj n QP k= k
:!
nk =
!
2
k n k
!
!
j QP ; !
n j
QP ; !
n
j ! 2 jk!
n k=
=
k n k
k!
n k
j ((p1 q1 ; p2 q2 ) ; (a2 ; a1 )) j
p
)
a21 + a22
ja2 (p1 q1 ) a1 (p2 q2 ) j
p
d=
a21 + a22
!
l. Sean !
a ; b vectores de Rn . Demostrar que
!
! 2
!
k!
a + b k2 k !
a
b k =4 !
a; b :
m. Demostrar que un paralelogramo es un rectngulo si y slo si las dos diagonales tienen
la misma longitud.
!
n. Sea !
a = (1; 2) ; b = (3; 4) 2 R2 . Calcular vectores !
p = (p1 ; p2 ) y !
q = (q1 ; q2 ) 2 R2
!
!
tales que !
a =!
p+!
q,!
p k b y!
q ? b.
o. Una recta L de R3 contiene al punto P = ( 3; 1; 1) y es paralela al vector !
a =
(1; 2; 3). Cules de los siguientes puntos pertenecen a L?
(i) (0; 0; 0) (ii) (2; 1; 4) (iii) ( 2; 1; 4) (iv) ( 4; 3; 2) (v) (2; 9; 16).
!
p. Sean !
a ; b ;!
c vectores no nulos de R3 tales que el ngulo entre !
a y!
c es igual al
! !
! !
!
!
ngulo entre b y c . Demostrar que c es perpendicular al vector k b k : a k !
a k:b.
!
!
! !
!
! !
k . Encontrar un vector b tal que
q. Sea !
a = 2i
j +2k y !
c = 3i +4j
! !
!
!
a
b = c y !
a ; b = 1.
r. Ecuaciones del plano : en este ejercicio repasamos la denicin de plano en R3 y algunas
de sus ms importantes caracterizaciones y propiedades.
r1. Descripcin vectorial del plano: un plano M en el espacio R3 se dene por
medio de un punto P = (p1 ; p2 ; p3 ) que lo contiene y dos vectores directores
!
u = (u1 ; u2 ; u3 ) y !
v = (v1 ; v2 ; v3 ) linealmente independientes (lo cual implica
que son no nulos), en la siguiente forma
!
M (P; !
u ;!
v ) = fOP + :!
u + :!
v j ; 2 Rg
= f(p1 ; p2 ; p3 ) + ( u1 ; u2 ; u3 ) + ( v1 ; v2 ; v3 ) j ; 2 Rg
= f(p1 + u1 + v1 ; p2 + u2 + v2 ; p3 + u3 + v3 ) j ; 2 Rg:
4

! !
r2. Dos planos M (P; !
u ;!
v ) y M (P; u0 ; v 0 ) que pasan por el mismo punto P
! !
son iguales si y slo si < !
u ;!
v >=< u0 ; v 0 >: en efecto, si M (P; !
u ;!
v) =
!0 !0
!
!
M (P; u ; v ), entonces dados ; 2 R se tiene que OP + : u + :!
v 2
!0 !0
!
!
!
!
!
!
M (P; u ; v ), luego OP + : u + : v 2 M (P; u ; v ), por lo tanto, OP +
!
!
!
:!
u + :!
v = OP + 0 : u0 + 0 : v 0 para ciertos escalares 0 ; 0 2 R, en conse!
!
! !
cuencia :!
u + :!
v = 0 : u0 + 0 : v 0 . Esto muestra que < !
u ;!
v > < u0 ; v 0 >.
! !
Por la simetra del problema, se tiene tambin que < u0 ; v 0 > < !
u ;!
v >.
!0 !0
!
!
Supongamos ahora que < u ; v >=< u ; v >, entonces claramente
!
u + :!
v j ; 2 Rg =
u ;!
v ) = fOP + :!
M (P; !
!0
!0
! !
!
fOP + : u + : v j ; 2 Rg = M (P; u0 ; v 0 ):
r3. M (P; !
u ;!
v ) = M (Q; !
u ;!
v ) , P 2 M (Q; !
u ;!
v ) , Q 2 M (P; !
u ;!
v ).
!
!
r4. Se dice que dos planos M (P; !
u ;!
v ) y M (Q; u0 ; v 0 ) son paralelos si y slo
! !
si < !
u ;!
v >=< u0 ; v 0 >. Se tiene entonces la siguiente propiedad:

r5. Sea M (P; !


u ;!
v ) un plano y Q 2
= M (P; !
u ;!
v ) un punto por fuera de dicho
plano. Entonces, existe un nico plano M que contiene a Q y es paralelo a M .
Este plano es por supuesto M (Q; !
u ;!
v ).
r6. Sean P; Q:R tres puntos distintos de R3 que no estn sobre una misma
recta, es decir, no son colineales. Entonces, existe un nico plano que contiene
!
!
!
!
a estos tres puntos, dicho plano es M P; : OQ OP + : OR OP .
r7. Tres vectores !
u ;!
v y!
w son linealmente dependientes si y slo si estn
en un mismo plano que pasa por el origen. En efecto, supongamos que los tres
vectores son LD, entonces uno de ellos, por ejemplo !
u , est en la envolvente
lineal de !
v y !
w , es decir, !
u 2< !
v ;!
w >. Si !
v y !
w son LI, entonces
tenemos que los tres estn en el plano que pasa por el origen y tiene como
vectores directores a !
v y !
w , es decir, los tres vectores estn en el plano
M (0; !
v ;!
w ). Si por el contrario !
v y!
w son LD, entonces !
v = :!
w , para un
cierto escalar 2 R. Esto hace que los tres vectores estn en la recta L (0; !
w ),
pero esta recta est contenida por ejemplo en el plano M (0; !
w;!
z ), siendo
!
z cualquier vector LI con !
w . Probemos la armacin recproca. Supongamos
!
!
!
que los tres vectores u ; v y !
w estn en el plano M 0; !
a ; b , entonces
!
!
!
u ;!
v ;!
w 2< !
a ; b >, pero sabemos por denicin que !
a y b son LI, luego
!
u ;!
v y!
w son LD.
r8. Ecuaciones paramtricas del plano: un punto cualquiera (x; y; z) del plano
M (P; !
u ;!
v ) satisface las siguientes ecuaciones
5

x = p1 + u1 + v 1
y = p2 + u2 + v 2
z = p3 + u3 + v 3 :
r9. Ecuacin Cartesiana del plano: eliminando los parmetros y de las
ecuaciones parmetricas del plano obtenemos la ecuacin cartesiana, veamos
un ejemplo: consideremos el plano M (P; !
u ;!
v ), donde P = (1; 2; 3), !
u =
(1; 1; 0) y !
v = (0; 1; 1). Entonces, las ecuaciones paramtricas son

x=1+
y =2+
z =3+

luego
y

=z

con lo cual
y

x+1=z

es decir, la ecuacin cartesiana es


x

y + z = 2:

r10. Ecuacin normal del plano: sea M (P; !


u ;!
v ) un plano, un vector !
n 2 R3
!
!
!
se dice perpendicular al plano M (P; u ; v ) si n es perpendicular tanto a !
u
como a !
v . Si adems !
n es no nulo, entonces se dice que !
n es normal a
M (P; !
u ;!
v ). Notemos que !
n es perpendicular a M (P; !
u ;!
v ) si y slo si !
n
!
!
es perpendicular a cada vector de < u ; v >. Se tiene la siguiente propiedad:
!
u !
v es normal al plano M (P; !
u ;!
v ) y el plano se puede describir por la
siguiente ecuacin normal:
!
!
M (P; !
u ;!
v ) = fX = (x; y; z) 2 R3 j OX OP ; !
u !
v = 0g
!
!
M (P; !
u ;!
v ) = fX = (x; y; z) 2 R3 j OX; !
u !
v = OP ; !
u
6

!
v g

usando la notacin de producto punto tambin podemos escribir


!
!
M (P; !
u ;!
v ) = fX = (x; y; z) 2 R3 j OX (!
u !
v ) = OP (!
u !
v )g
!
En efecto, como !
u y!
v son LI, entonces !
u
v es no nulo y sabemos que
!
u !
v es perpendicular tanto a !
u como a !
v.
!
!
!
Sea ahora X 2 M (P; !
u ;!
v ), entonces OX = OP + :!
u + !
v , luego OX
!
!
!
OP 2< !
u ;!
v >, con lo cual OX OP ; !
u !
v = 0. Recprocamente, sea
!
!
X 2 R3 tal que OX OP ; !
u !
v = 0, sabemos que !
u ;!
v y!
u !
v son
! !
LI, luego generan R3 , por lo tanto OX OP = :!
u + :!
v + : (!
u !
v ), luego
el producto interno de este vector con (!
u !
v ) es nulo, y en consecuencia,
!
!
!
!
= 0. Resulta, OX OP = :!
u + :!
v , es decir, OX = OP + :!
u + :!
v,
!
!
de donde X 2 M (P; u ; v ).

1. Sea V un espacio vectorial real tal que V = W1


Wk . Supngase que cada Wi
es euclidiano con producto interno hi i . Denir sobre V un producto interno y demostrar
que V es euclidiano.
2. Pruebe que si los vectores vi = (xi1 ; xi2 ; : : : ; xin ), 1
i
n conforman una base
n
ortogonal de R , donde xij = 0 para i > j, entonces xij 6= 0 para i = j y xij = 0 para
i 6= j:
n
2
3. Denir en el espacio Rn [x] un producto interno tal que f1; x; x2! ; : : : ; xn! g sea una base
ortonormal.
4. Sea V un espacio euclidiano y W1 ; W2 subespacios de V de dimensin nita. Demostrar
que V = W1 W2 si y slo si V = W1? W2? :
5. Sea V un espacio unitario de dimensin nita y sea T : V ! V una transformacin
lineal. Si T es invertible, entonces T es invertible y (T ) 1 = (T 1 ) :
6. Sea V un espacio unitario de dimensin nita y sea T : V ! V una transformacin
lineal hermitiana. Demostrar que la composicin de dos transformaciones hermitianas es
hermitiana si y slo si ellas conmutan para la composicin.
7. Sea V un espacio unitario de dimensin nita y sea T : V ! V una transformacin
lineal tal que T 2 = T: Demostrar que T es hermitiana si y slo si T T = T T:
8. Demuestre que una matriz compleja A de tamao n n es unitaria si y slo si las
columnas de A conforman una base ortonormal de Cn , si y slo si, las las de A conforman
una base ortonormal de Cn :
9. Sea Tn+ (C) el conjunto de matrices cuadradas complejas de orden n tales que los elementos diagonales son nmeros reales positivos y los elementos por encima de la diagonal
son nulos. Demostrar que Tn+ (C) es un grupo respecto al producto.
10. Sea T : V ! V una transformacin lineal de un espacio unitario. Entonces T se
puede descomponer en la forma T = U1 +iU2 , donde U1 ; U2 : V ! V son transformaciones
hermitianas.
7

11. En el espacio R2 [x] de polinomios reales de grado


(f; g) =

R1

2 se dene el producto interno

p(x)q(x)dx

Si D es el operador derivacin denido sobre R2 [x], encontrar matriz del operador D en


la base cannica de R2 [x].
12. En el espacio Rn [x] de polinomios reales de grado n se dene el producto interno
Pn

k=0

p(k)q(k)

Si D es el operador derivacin denido sobre Rn [x], encontrar un subespacio invariante


de dimensin n respecto del operador D .
13. Sea v un vector propio del operador T con valor propio a y sea u un vector propio de
T con valor propio b de tal forma que b 6= a. Demostrar que v y u son ortogonales.
14. Sea T un operador normal sobre un espacio V . Demostrar que V = N (T ) Im(T ).
15. Ilustrar dos operadores normales T y S tales que ST y T S sean normales y distintos.
16. Sea U = h( 1; i; 0; 1) ; (i; 0; 2; 0)i
C4 . Encontrar una base ortonormal de U ? y
extenderla hasta una base ortonormal de C4 .
17. Encontrar una matriz compleja C tal que C 1 AC sea diagonal, donde
2 i
.
i 4

A=

Vericar adems que C 1 = C .


18. Determinar los valores de a; b 2 C tales que
p
2 p
ip 2
(1 + i) 3
1
A = p 4 p8
pb
2 3
2 ( 1 + i) 3

sea una matriz unitaria.


19. Encontrar una matriz ortogonal Q tal que
p
2
25
2
5
p
T 4
Q
2p5
18
5
14
sea diagonal.

3
a
2 5
2

p 3
5
14 5 Q
3


Algebra
Lineal
Captulo 8. Espacios con Producto Interno
Ejercicios.
Iniciamos esta seccion de ejercicios repasando algunos conceptos de geometra vectorial.

a. Sean
u ,
v vectores no nulos de Rn . Probar que
u ,
v son ortogonales si y solo si

k
u +
v k2 =k
u k2 + k
v k2 .

b. Sean
u ,
v vectores de Rn . Probar que

k
u +
v k2 + k
u
v k2 = 2(k
u k2 + k
v k2 ).

c. Sean
u ,
v vectores no nulos de Rn . Demostrar que pr
u , donde
u ( v ) = (k v k cos ) .e

e u es un vector de norma 1 en la direccion de u .

d. Sean
u ,
v vectores no nulos de Rn . Probar que

k
u
v k2 =k
u k2 + k
v k2 2 k
u kk
v k cos ,
donde es el angulo entre u y v.

e. Sean
u ,
v vectores no nulos. Se dice que
u y
v son paralelos, lo cual denotamos por

u k v , si el angulo entre ellos es 0 o . Demostrar que


u k
v
u = .
v , donde
es un escalar de R.

f. Sean
u = u1 i + u2 j + u3 k , v = v1 i + v2 j + v3 k R3 , donde i , j , k son los

vectores canonicos unitarios. Se define el producto vectorial de


u con
v por




i
j k

u
v = det u1 u2 u3 .
v1 v2 v3

Demostrar que se tienen las siguientes propiedades del producto vectorial:

(
u
v ,
u ) = 0, (
u
v ,
v ) = 0,

u v = ( u v ), u
u = 0,

. (
u
v ) = (.
u)
v =
u (.
v ),

( u + v ) w = u w + v w , u (
v +
w) =
u
v +
u
w,

i j = k, j k = i , k i = j ,
2

k
u
v k2 =k
u k2 k
v k2 (
u ,
v) .

g. Sean
u ,
v vectores no nulos. Demostrar que k
u
v k=k
u kk
v k sen, donde

es el angulo entre u y v . Esto corresponde al area del paralelogramo determinado por

los vectores
u y
v , cuando estos no son paralelos

h. Sean u , v dos vectores de R3 no nulos y no paralelos. Demostrar que el area del


triangulo cuyos lados son estos dos vectores viene dada por

k
u
v k
.
2
1

i. Demostrar que el volumen de un paraleleppedo conformado por tres vectores no

coplanares
u ,
v ,
w R3 viene dado por (
u
v ,
w ).
j. Lneas rectas en R3 : en este ejercicio repasamos la definicion de recta en R3 y algunas
de sus mas importantes caracterizaciones y propiedades.
j1. Concepto: la recta que pasa por el punto P = (p1 , p2 , p3 ) R3 y tiene

como vector director


a = (a1 , a2 , a3 ) 6= 0 se define por

L (P,
a ) = {OP + .
a | R} =
{(p1 , p2 , p3 ) + . (a1 , a2 , a3 ) | R} =
{(p1 + a1 , p2 + a2 , p3 + a3 ) | R}.

Esta se conoce como la caracterizacion vectorial de la recta. Algunas propiedades


son las siguientes:



j2. L (P,
a ) = L P, b
a = . b , donde es un cierto escalar no nulo,

es decir, si y solo si
a y b son paralelos.

j3. L (P,
a ) = L (Q,
a ) Q L (P,
a ) P L (Q,
a)



Decimos que L (P,


a ) k L Q, b si y solo si
a y b son paralelos. Demostrar

0
que
una recta L (P,
a ) y un

/L (P,
a ), existe una u
nica recta
 dada

 punto
 P


0
L Q, b tal que P L Q, b y L Q, b k L (P, a ).

j4. Dos puntos distintos determinan una u


nica recta, es decir, demostrar que
dados dos puntos
P
=
6
Q
existe
una
u

nica
recta
que los contiene a ambos. Esta
 
recta es L P, P Q .
j5. Ecuaciones parametricas de la recta: notemos que un punto (x, y, z) de la

recta L (P,
a ) satisface
(x, y, z) = (p1 , p2 , p3 ) + . (a1 , a2 , a3 )
es decir
x = p1 + a1
y = p2 + a2
z = p3 + a3 .
k. Lneas rectas en R2 : una recta en R2 se define en forma similar a como se hizo en el
espacio, la recta que pasa por el punto P = (p1 , p2 ) R2 y tiene como vector director
2

a = (a1 , a2 ) 6= 0 se define por

L (P,
a ) = {OP + .
a | R} =
{(p1 , p2 ) + . (a1 , a2 ) | R} =
{(p1 + a1 , p2 + a2 ) | R}.

De manera particular se tienen las ecuaciones parametricas:


x = p1 + a1
y = p2 + a2 .
Eliminando el parametro se obtiene la ecuacion cartesiana de la recta:
a2 x = a2 p1 + a1 a2
a1 y = a1 p2 + a1 a2
luego
a2 x a2 p1 = a1 y a1 p2
a1 y = a2 x + a1 p 2 a2 p 1
Si a1 6= 0, entonces obtenemos la ecuacion explcita de la recta:
y=

a1 p 2 a2 p 1
a2
x+
,
a1
a1

2 p1
en donde aa12 es la pendiente y a1 p2aa
es el corte con el eje y.
1

Ecuacion normal de la recta: notemos que el vector


n = (a2 , a1 ) es ortogonal al vector

director a = (a1 , a2 ) de la recta L (P, a ), podemos entonces caracterizar la recta como

el conjunto de puntos
z = (x, y) tales que




z OP , n = 0
 

(
z ,
n ) = OP ,
n .

Si utilizamos la notacion del producto punto, entonces la ecuacion normal de la recta es


z
n = OP
n

Distancia de un punto a una recta L (P,


a ): sea T un punto que no pertenece a la recta,

entonces la distancia d de T a L (P, a ) es la norma de la proyeccion del vector OP OT


3


sobre el vector normal
n , por lo tanto
 


 
OP OT ,
n

d =k proj
k= k
.
nk =
n OP OT

k
n k2
 

 


OP OT , n
| OP OT , n |

|
|
k
n
k=

k n k2
k
n k

l. Sean
a , b vectores de Rn . Demostrar que

k
a + b k2 k
a b k2 = 4
a, b .

m. Demostrar que un paralelogramo es un rectangulo si y solo si las dos diagonales tienen


la misma longitud.

n. Sea
a = (1, 2) , b = (3, 4) R2 . Calcular vectores
p = (p1 , p2 ) y
q = (q1 , q2 ) R2

tales que
a =
p+
q,
p k b y
q b.

3
o. Una recta L de R contiene al punto P = (3, 1, 1) y es paralela al vector
a =
(1, 2, 3). Cuales de los siguientes puntos pertenecen a L?
(i) (0, 0, 0) (ii) (2, 1, 4) (iii) (2, 1, 4) (iv) (4, 3, 2) (v) (2, 9, 16).

p. Sean
a , b ,
c vectores no nulos de R3 tales que el angulo entre
a y
c es igual al

angulo entre b y c . Demostrar que c es perpendicular al vector k b k . a k


a k.b.

q. Sea
a = 2 i j + 2 k y
c = 3 i + 4 j k . Encontrar un vector b tal que

a , b = 1.
a b =
c y
r. Ecuaciones del plano : en este ejercicio repasamos la definicion de plano en R3 y algunas
de sus mas importantes caracterizaciones y propiedades.
r1. Descripcion vectorial del plano: un plano M en el espacio R3 se define por
medio de un punto P = (p1 , p2 , p3 ) que lo contiene y dos vectores directores

u = (u1 , u2 , u3 ) y
v = (v1 , v2 , v3 ) linealmente independientes (lo cual implica
que son no nulos), en la siguiente forma

M (P,
u ,
v ) = {OP + .
u + .
v | , R}
= {(p1 , p2 , p3 ) + (u1 , u2 , u3 ) + (v1 , v2 , v3 ) | , R}
= {(p1 + u1 + v1 , p2 + u2 + v2 , p3 + u3 + v3 ) | , R}.

r2. Dos planos M (P,


u ,
v ) y M (P, u0 , v 0 ) que pasan por el mismo punto P

son iguales si y solo si <


u ,
v >=< u0 , v 0 >: en efecto, si M (P,
u ,
v) =
0

M (P, u , v ), entonces dados , R se tiene que OP + . u + .


v
0

M (P, u , v ), luego OP + . u + . v M (P, u , v ), por lo tanto, OP +


4

.
u + .
v = OP + 0 . u0 + 0 . v 0 para ciertos escalares 0 , 0 R, en conse

cuencia .
u + .
v = 0 . u0 + 0 . v 0 . Esto muestra que <
u ,
v >< u0 , v 0 >.

Por la simetra del problema, se tiene tambien que < u0 , v 0 ><


u ,
v >.

0
0
Supongamos ahora que < u , v >=< u , v >, entonces claramente

M (P,
u ,
v ) = {OP + .
u + .
v | , R} =
0

{OP + . u + . v | , R} = M (P, u0 , v 0 ).

r3. M (P,
u ,
v ) = M (Q,
u ,
v ) P M (Q,
u ,
v ) Q M (P,
u ,
v ).

r4. Se dice que dos planos M (P,


u ,
v ) y M (Q, u0 , v 0 ) son paralelos si y solo

si <
u ,
v >=< u0 , v 0 >. Se tiene entonces la siguiente propiedad:

r5. Sea M (P,


u ,
v ) un plano y Q
/ M (P,
u ,
v ) un punto por fuera de dicho
plano. Entonces, existe un u
nico plano M que contiene a Q y es paralelo a M .

Este plano es por supuesto M (Q,


u ,
v ).

r6. Sean P, Q.R tres puntos distintos de R3 que no estan sobre una misma
recta, es decir, no son colineales. Entonces,
existe
u
nico
plano
contiene

 un
que


a estos tres puntos, dicho plano es M P, . OQ OP + . OR OP .

r7. Tres vectores


u ,
v y
w son linealmente dependientes si y solo si estan

en un mismo plano que pasa por el origen. En efecto, supongamos que los tres

vectores son LD, entonces uno de ellos, por ejemplo


u , esta en la envolvente

lineal de v y w , es decir, u < v , w >. Si v y


w son LI, entonces
tenemos que los tres estan en el plano que pasa por el origen y tiene como

vectores directores a
v y
w , es decir, los tres vectores estan en el plano

M (0,
v ,
w ). Si por el contrario
v y
w son LD, entonces
v = .
w , para un

cierto escalar R. Esto hace que los tres vectores esten en la recta L (0,
w ),

pero esta recta esta contenida por ejemplo en el plano M (0, w , z ), siendo

z cualquier vector LI con


w . Probemos la afirmacion rec
Supongamos
proca.


que los tres vectores u , v y w estan en el plano M 0, a , b , entonces

u ,
v ,
w <
a , b >, pero sabemos por definicion que
a y b son LI, luego

u ,
v y
w son LD.
r8. Ecuaciones parametricas del plano: un punto cualquiera (x, y, z) del plano

M (P,
u ,
v ) satisface las siguientes ecuaciones
x = p1 + u1 + v1
y = p2 + u2 + v2
z = p3 + u3 + v3 .
5

r9. Ecuacion Cartesiana del plano: eliminando los parametros y de las


ecuaciones parametricas del plano obtenemos la ecuacion cartesiana, veamos

un ejemplo: consideremos el plano M (P,


u ,
v ), donde P = (1, 2, 3),
u =

(1, 1, 0) y v = (0, 1, 1). Entonces, las ecuaciones parametricas son

x=1+
y =2++
z =3+
luego
y2=z3
con lo cual
y2x+1=z3
es decir, la ecuacion cartesiana es
x y + z = 2.

r10. Ecuacion normal del plano: sea M (P,


u ,
v ) un plano, un vector
n R3

se dice perpendicular al plano M (P,


u ,
v ) si
n es perpendicular tanto a
u

como a v . Si ademas n es no nulo, entonces se dice que n es normal a

M (P,
u ,
v ). Notemos que
n es perpendicular a M (P,
u ,
v ) si y solo si
n

es perpendicular a cada vector de < u , v >. Se tiene la siguiente propiedad:

u
v es normal al plano M (P,
u ,
v ) y el plano se puede describir por la
siguiente ecuacion normal:



3
M (P, u , v ) = {X = (x, y, z) R | OX OP , u v = 0}

 


M (P,
u ,
v ) = {X = (x, y, z) R3 | OX,
u
v = OP ,
u
v }

usando la notacion de producto punto tambien podemos escribir

M (P,
u ,
v ) = {X = (x, y, z) R3 | OX (
u
v ) = OP (
u
v )}
6

En efecto, como
u y
v son LI, entonces
u
v es no nulo y sabemos que

u v es perpendicular tanto a u como a v .


Sea ahora X M (P,


u ,
v ), entonces OX = OP + .
u +
v , luego OX

OP <
u ,
v >, con lo cual OX OP ,
u
v = 0. Recprocamente, sea



X R3 tal que OX OP ,
u
v = 0, sabemos que
u ,
v y
u
v son

LI, luego generan R3 , por lo tanto OX OP = .


u +.
v +. (
u
v ), luego

el producto interno de este vector con ( u v ) es nulo, y en consecuencia,



= 0. Resulta, OX OP = .
u + .
v , es decir, OX = OP + .
u + .
v,

de donde X M (P, u , v ).
1. Sea V un espacio vectorial real tal que V = W1 Wk . Supongase que cada Wi es
euclidiano con producto interno hi i . Definir sobre V un producto interno y demostrar
que V es euclidiano.
2. Pruebe que si los vectores vi = (xi1 , xi2 , . . . , xin ), 1 i n conforman una base
ortogonal de Rn , donde xij = 0 para i > j, entonces xij 6= 0 para i = j y xij = 0 para
i 6= j.
n
2
3. Definir en el espacio Rn [x] un producto interno tal que {1, x, x2! , . . . , xn! } sea una base
ortonormal.
4. Sea V un espacio euclidiano y W1 , W2 subespacios de V de dimension finita. Demostrar
que V = W1 W2 si y solo si V = W1 W2 .
5. Sea V un espacio unitario de dimension finita y sea T : V V una transformacion

lineal. Si T es invertible, entonces T es invertible y (T )1 = (T 1 ) .


6. Sea V un espacio unitario de dimension finita y sea T : V V una transformacion
lineal hermitiana. Demostrar que la composicion de dos transformaciones hermitianas es
hermitiana si y solo si ellas conmutan para la composicion.
7. Sea V un espacio unitario de dimension finita y sea T : V V una transformacion
lineal tal que T 2 = T. Demostrar que T es Hermitiana si y solo si T T = T T.
Soluci
on. Es claro que si T es Hermitiana, entonces T es normal.
De otra parte, existe una base ortonormal X en V tal que la matriz de T en dicha
base es diagonal, mX (T ) = diag(1 , . . . , n ). Tenemos que T 2 = T , luego mX (T )2 =
mX (T 2 ) = mX (T ), es decir, diag(21 , . . . , 2n ) = diag(1 , . . . , n ). Entonces, 2i = i , para
cada 1 i n, con lo cual, i = 1 o i = 0. Esto garantiza que mX (T ) tiene solo entradas
reales en su diagonal, con lo cual, mX (T ) = mX (T ) = mX (T ), es decir, T = T ya que
mX es inyectiva.
8. Demuestre que una matriz compleja A de tama
no n n es unitaria si y solo si las
n
columnas de A conforman una base ortonormal de C , si y solo si, las filas de A conforman
una base ortonormal de Cn .
Soluci
on. Sea A una matriz compleja de tama
no n n:

c11 c1n

..
..
A = ...
.
.
cn1 cnn

Entonces, A es unitaria si y solo si A1 = A , es decir, AA = E = A A, donde E es la


identica. Estas relaciones se pueden expresar en la siguiente forma:

c11 c1n
c11 cn1
1 0
..
..
.. ..
..
.. = .. .. ..
.
.
. .
.
. . . .

cn1 cnn

c1n cnn

c11 cn1
c11 c1n
..
..
.. ..
..
.. =
.
.
. .
.
.
c1n cnn
cn1 cnn

0 1

1 0
.. .. .. .
. . .
0 1

Entonces, A es unitaria si y solo si ((ci1 , . . . , cin ) , (cj1 , . . . , cjn )) = ij , donde ii = 1 y


ij = 0 para i 6= j. Notese entonces que A es unitaria si y solo si las filas de A conforman
un conjuntos ortonormal de n vectores de Cn , es decir, si y solo si las filas de A conforman
una base ortonormal de Cn . Al considerar la segunda igualdad matricial de arriba se
obtiene la afirmacion analoga por columnas.
9. Sea Tn+ (C) el conjunto de matrices cuadradas complejas de orden n tales que los elementos diagonales son n
umeros reales positivos y los elementos por encima de la diagonal
son nulos. Demostrar que Tn+ (C) es un grupo respecto al producto.
10. Sea T : V V una transformacion lineal de un espacio unitario. Entonces T se
puede descomponer en la forma T = U1 +iU2 , donde U1 , U2 : V V son transformaciones
hermitianas.
11. En el espacio R2 [x] de polinomios reales de grado 2 se define el producto interno
R1
(f, g) = 1 p(x)q(x)dx.
Si D es el operador derivacion definido sobre R2 [x], encuentre la matriz del operador D
en la base canonica de R2 [x].
12. En el espacio Rn [x] de polinomios reales de grado n se define el producto interno
Pn
k=0 p(k)q(k)

Si D es el operador derivacion definido sobre Rn [x], encontrar un subespacio invariante


de dimension n respecto del operador D .
13. Sea v un vector propio del operador T con valor propio a y sea u un vector propio de
T con valor propio b de tal forma que b 6= a. Demostrar que v y u son ortogonales.
14. Sea T un operador normal sobre un espacio V . Demostrar que V = ker(T ) Im(T ).
8

15. Ilustrar dos operadores normales T y S tales que ST y T S sean normales y distintos.
16. Sea U = h(1, i, 0, 1) , (i, 0, 2, 0)i C4 . Encontrar una base ortonormal de U y
extenderla hasta una base ortonormal de C4 .
Soluci
on. Inicialmente buscamos vectores (a, b, c, d) , (x, y, z, w) C4 tales que
(a, b, c, d) (1, i, 0, 1) = d ib a = 0
(a, b, c, d) (i, 0, 2, 0) = 2c ia = 0
(x, y, z, w) (1, i, 0, 1) = w x iy = 0
(x, y, z, w) (i, 0, 2, 0) = 2z ix = 0
Resolvemos
d ib a = 0
2c ia = 0
w x iy = 0
2z ix = 0
Con el SWP la solucion es [a = 2ic, b = 2c id, w = iy 2iz, x = 2iz]. Podemos entonces dar valores para que los vectores encontrados sean LI: c = 0, d = 1, z = 1, y = 1,
entonces resultan los vectores (0, i, 0, 1) , (2i, 1, 1, i). Comprobemos que estos vectores
efectivamente pertenecen a U :
(0, i, 0, 1) (1, i, 0, 1) = 0,
(0, i, 0, 1) (i, 0, 2, 0) = 0,
(2i, 1, 1, i) (1, i, 0, 1) = 0,
(2i, 1, 1, i) (i, 0, 2, 0) = 0.
Ahora veamos que los dos vectores encontrados son LI: la matriz


0 i 0 1
2i 1 1 i
es de rango 2. Debemos ahora normalizar esta base de U :
u1 = (0, i, 0, 1) = v1


(0,i,0,1)
= 0, 12 i 2, 0, 12 2
w1 = k(0,i,0,1)k
u2 = (2i, 1, 1, i)

(2i,1,1,i)(0, 21 i 2,0, 12 2)

v2 = (2i, 1, 1, i) 0, 1 i2,0, 1 2 0,
= (2i, 1, 1, i)
( 2
) ( 12 i 2,0, 12 2)
2
luego


(2i,1,1,i)
= 27 i 7, 71 7, 17 7, 17 i 7 .
w2 = k(2i,1,1,i)k
Se tiene pues que {w1 , w2 } es una base ortonormal de U , la cual debemos completar hasta
una base ortonormal de C4 . A partir de los dos vectores dados en U podemos generar los
dos vectores que faltan:
9

z1 = (1, i, 0, 1) = y1


(1,i,0,1)
t1 = k(1,i,0,1)k
= t1 = 13 3, 31 i 3, 0, 13 3
z2 = (i, 0, 2, 0)

(i,0,2,0)(1,i,0,1)
y2 = (i, 0, 2, 0) (1,i,0,1)(1,i,0,1)
(1, i, 0, 1) = 23 i, 13 , 2, 13 i ,




( 2 i, 1 ,2, 1 i)
1
1
1
t2 = 32 i, 31 ,2, 31 i = 21
i 3 14, 42
3 14, 17 3 14, 42
i 3 14 .
k( 3 3 3 )k
Veamos finalmente que los 4 vectores son LI:

1
0
21
i 2
0
2
2

1
1
1
2i 7
i 7
7
7
7
7
7
7

1
1
1 3
i
3
0
3
3
3

3
1
1
1
1
i 3 14 42 3 14 7 3 14 42 i 3 14
21

esta matriz es de rango 4. Estos 4 vectores son la base ortonormal buscada.


17. Encontrar una matriz compleja C tal que C 1 AC sea diagonal, donde


2 i
A=
.
i 4
Verificar ademas que C 1 = C .
Soluci
on. Notese que la matriz A es hermitiana, y por tanto, diagonalizable (Teorema 2
de la Leccion 7 del Captulo 8).
Vamos inicialmente a intentar verificar con el Teorema 3 de la Leccion 2 del Captulo 6
que A es efectivamente diagonalizable:


2 i
i 4
2

minimum polynomial: X 6X + 7, roots:


eigenvectors:


3 2
2+3






i 2i
i 2 i
2 + 3,
3 2
1
1
Los dos valores propios son diferentes y son por supuesto las dos races distintas del
mnimo. Esto garantiza que A es diagonalizable. La diagonalizacion del Captulo 6 se
hace a traves de la base de vectores propios disponiendo estos vectores en las columnas
de una matriz C y calculando C 1 AC:


1 



2 i
i 2 i i 2 i
i 2 i i 2 i
i 4
1
1
1
1
10

Usando el SWP para este calculo se obtiene una matriz F = [fij ] con entradas suficientemente complicadas, sin embargo estas entradas se pueden simplificar con el comando
Simplify y obtenemos lo siguiente :



2
i
+
i 2 + 2i +
f11 = 4
4 2+4 4 2+4
!





2
2
i 2 i
i
+
i 2 + 2i
4 2+4 4 2+4

= 3 2.



i
2
f12 = 4
+
i 2 + 2i +
4 2+4 4 2+4
!





2
2
i 2i
i
+
i 2 + 2i
4 2+4 4 2+4
= 0.

f21

f22



 3
5
1
=
2 + i 2 i
i 2 i + 2 = 0.
4
4
2



 3

1
5
2+ i 2i
i 2 i + 2 = 2 + 3.
=
2
4
4

Con lo cual,
C

AC =


2
0
.
2+3
0

Vamos ahora a aplicar la Proposicion 12 de la Leccion 7 del Captulo 8 mediante la cual


se encuentra tambien una matriz C que diagonaliza a la matriz A, pero esta matriz es
unitaria: las columnas de la matriz C son los vectores propios de A pero normalizados:

11


 p
i 2 i, 1 = 2 2 + 4, 1
i 2 i, 1
2 2+4

 p

i 2 i, 1 = 4 2 2, 1 i 2 i, 1
42 2

2 2+4

2 i
i 4

2 2+4


i 2 i

42 2

42 2

2 2+4


i 2 i

2 2+4

 1
i 2i

1

42 2


i 2i

1
42 2

Al realizar el producto anterior con el SWP obtenemos una matriz cuyas entradas deben
ser simplificadas:
1
2

2+2

+ 12 2
2+2

=3

 p

p
p
p
i
2
2+2+2 2
2 + 2 + 42+4
2i
2 + 2 + 2i 2
2+2
 p

p

p
  1 p
1
2

i 2 i 2 i
2 + 2 2i 2
2 + 2 + 4 2+4 2i
2 + 2 + 2i 2
2+2

2;


= 0;

 p

p
p
i
2+2+2 2
2 + 2 + 42+4
2i
2 + 2 + 2i 2
2+2
 p

p
p
  p
i 12 i
2 + 2 12 i 2
2 + 2 + 422+4 2i
2 + 2 + 2i 2
2+2 =

2
2

2+2

+ 21 2
i 2
2+2
1
2

 p

p
5
2+2+2 2 2+2 +
2+2 2


p
 3 p
1 2
1
i
2

2
+
2

i
2

2
+
2
= 0;

2
2
2
1
2

2+2

2+2

1 2

2
2+2
1
2

2+3

 p

p
5

2
+
2
+
2
2

2
+
2
+
2

p

p

i 2 i 32 i 2 + 2 12 i 2 2 + 2

12

Lo cual coincide con el procedimiento del Captulo 6.


Veamos finalmente que C es unitaria:



1
i 2 i 1 i 2 i
42 2

2 2+4
1
1
42 2

2 2+4

trasponemos esta matriz y la conjugamos, para luego multiplicarla con A:



1 2
1 2
1
1

i
2
+
i
i
2

i
i
2

2
2
42 2

2 2+4
=
2+2

 1 2+2
1
1
2
1 2

i
2
+
i

2
2
2+2

2 2+4

2+2

1 0
0 1

42 2

18. Determinar los valores de a, b C tales que

i 2
(1 + i) 3
a
1
A = 8
2
b
2 3
2 (1 + i) 3 2

sea una matriz unitaria.


Soluci
on. La definicion de unitaria implica que AA = E, luego


i 2
(1 + i) 3
a
i 2
8
2
1
1

8
b
2
(1 i) 3 b (1 i) 3

2
3
2 3
a
2
2
2 (1 + i) 3 2

1
1
1
1
aa + 23
a + 12
+ 12
i b 3 + 13 i
16 a 13i
12
6
1
1
1
1
1
= 16 a + 12
12
i b 3 13 i
bb + 1
12
+ 12
i b 3
12
1
1
1
1
12 12 i b 3
1
6a + 3i

1 0 0

= 0 1 0
0 0 1

Entonces,
1
aa + 23 = 1
12

1
1
1
a + 12
+ 12
i b 3 + 13 i = 0
6
16 a 13 i = 0

13

1
1
1
a + 12
12
i b 3 13 i =
6
1
bb + 1 = 1, luego b = 0
12

1
1
12
+ 12
i b 3=0
16 a + 31 i = 0, luego a = 2i

1
1
12
12
i b 3 = 0.

En total, b = 0 y a = 2i.
19. Encontrar una matriz ortogonal Q tal que

25
2
5

T
Q
25
18
14 Q
5
14
3

sea diagonal.
Soluci
on. Seg
un la Proposicion 13 de la Leccion 7 del Captulo 8 tal matriz existe y sus
columnas son la base ortonormal de vectores propios de la matriz dada.

25
2
5

2 5

18
14

5
14
3

0
5
5

20, 2 30
10,
eigenvectors:
2
2

1
1
1


k 0, 21 , 1 k= 12 5


k
5, 2, 1 k= 10


k 5, 2, 1 k= 10

1
1
0
2

2
25
2
5

5
2
2

1 5 2
2

18
14
25
5
10
10
2
1
1
5
14
3

5
5
10
10

10 0 0
= 0 20 0
0
0 30

0 12 2 12 2

1
2
2
Veamos finalmente que la matriz 5 5 10
10
2
1
1
5
5
10
10

14

1
5 5

2
5
5

1
2


2 12 2
2
2
10
10

1
10

es ortogonal:

1
10

0
1 5
5
2
5
5

1
2

1
2 12 2
2
2
=
10
10

1
10

1
10


1
2
0

5
5
5
5

1
1
1
2 5 10 10 10
2
1
1
2 2 15 10 10
10

0 21 2 12 2

1
2
2
= 5 5 10
10
2
1
1

5
5
10
10

15

180

CAPITULO 8. PRODUCTO INTERNO

Captulo 9

Formas Bilineales
Introducci
on
El producto interno en espacios euclidianos y unitarios constituye un caso particular de un concepto
m
as general como es el de forma bilineal sobre un cuerpo arbitrario. El enfoque generalizado de los
espacios euclidianos que se plantea en el presente captulo permite hacer estudios geometricos sobre
cuerpos arbitrarios.

9.1.

Formas Bilineales

Definici
on 9.1. Sea V un espacio vectorial sobre un cuerpo K cualquiera. Una forma bilineal f
sobre V es una funci
on
f : V V
(u, v) 7

K
f (u, v)

tal que
i) f (u1 + u2 , v) = f (u1 , v) + f (u2 , v)
ii) f (a u, v) = af (u, v)
iii) f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 )
iv) f (u, a v) = af (u, v)
para cualesquiera u1 , u2 , u, v, v1 , v2 V, a K.
El conjunto L(V, V, K) de las formas bilineales sobre el K-espacio vectorial V constituye un espacio
vectorial con las operaciones siguientes:
Adici
on: (f + g)(u, v) = f (u, v) + g(u, v)
Producto: (a.f )(u, v) = af (u, v)
Definici
on 9.2. Sea V un K-espacio de dimensi
on finita y X = {v1 , . . . , vn } una base ordenada de
V . Sea f una forma bilineal sobre V , la matriz de f en la base X se define por:
A = mX (f ) = (aij ),
181

aij = f (vi , vj )

CAPITULO 9. FORMAS BILINEALES

182

Teorema 9.1. Sea V un K-espacio de dimensi


on finita n. Entonces
L(V, V, K)
= Mn (K)
Demostraci
on: Fijemos una base ordenada cualquiera X = {v1 , . . . , vn } en V y consideremos al funci
on
mX : L(V, V, K)
f 7

Mn (K)
mX (f )

mX es K-lineal ya que (f + g)(vi , vj ) = (f )(vi , vj ) + (g)(vi , vj ) y mX (a f ) = a mX (f ).


N
otese que la forma f puede escribirse matricialmente con ayuda de su matriz A = mX (f ). En
efecto, sean Y = [a1 , . . . , an ], Z = [b1 , . . . , bn ], las coordenadas de u, v respectivamente en la base X.
Entonces,

f (u, v) = f (a1 .v1 + + an .vn , b1 .v1 + + bn .vn )


n
n X
X
ai bj f (vi , vj )
=
i=1 j=1

es decir,
f (u, v) = Y AZ T
mX es sobreyectiva: Sea A Mn (K) y f definida como antes. Entonces,
f (u + u0 , v) = (Y + Y 0 )AZ T = Y AZ T + Y 0 AZ T = f (u, v) + f (u0 , v);
T

f (u, v + v 0 ) = Y A(Z + Z 0 )T = Y AZ T + Y AZ 0 = f (u, v) + f (u, v 0 );


f (a.u, v) = (aY )AZ T = a(Y AZ T ) = af (u, v),
f (u, a.v) = Y A(a.Z)T = a(Y AZ T ) = af (u, v)
Adem
as, claramente mX (f ) = A.
mX es inyectiva: Si mX (f ) = 0, entonces f (vi , vj ) = aij = 0 para cada 1 i, j n. Entonces
f (u, v) = 0 para cada u, v V, es decir, f = 0.
Corolario 9.1. Sea V un K-espacio de dimensi
on finita n. Entonces, dim(L(V, V, K)) = n2

9.2.

Rango

En la lecci
on anterior asignamos una matriz a una forma bilineal. Esto permitira en la presente lecci
on
desarrollar una noci
on de rango para formas bilineales.
Proposici
on 9.1. Sea V un K-espacio de dimensi
on finita n y f L(V, V, K). Sean X = {v1 , . . . , vn }, X 0 =
{u1 , . . . , un } bases ordenadas de V . Entonces
mX 0 (f ) = C T mX (f )C,
donde C es la matriz de cambio de X a X 0 .

9.2. RANGO

183

f (ui , uj ) = f

Pn

vi . Entonces,
!
n
n
n X
n
X
X
X
cki vk ,
clj vl =
cki clj f (vk , vl )

Demostraci
on: Sea C = (cij ), con uj =

i=1 cij

k=1

l=1

k=1 l=1

entonces,
bij =

n X
n
X

cki clj akl ,

k=1 l=1

donde B = mX 0 (f ) y A = mX (f ). Resulta bij =

Pn

l=1

Pn

t
k=1 cik akl ) clj ,

es decir, B = C T AC. 

Teniendo en cuenta que las matrices de cambio de base son invertibles, se tiene entonces el siguiente
corolario de la proposici
on anterior.
Corolario 9.2. rank mX 0 (f ) = rank mX (f ).
Notemos sin embargo que mX 0 (f ) y mX (f ) no son necesariamente matrices similares (no podemos asegurar que C 1 = C T )
Definici
on 9.3. Sea f una forma bilineal sobre un espacio V de dimensi
on finita. Se llama rango de
f al rango de su matriz (en cualquier base ordenada).
La siguiente proposici
on permitir
a definir una nocion de forma bilineal no degenerada.
Proposici
on 9.2. Sea f una forma bilineal sobre un espacio V de dimensi
on n. Entonces las siguientes
condiciones son equivalentes:
(i) rank(f ) = n
(ii) f (u, v) = 0 para cada v V si y s
olo si u = 0.
(iii) f (u, v) = 0 para cada u V si y s
olo si v = 0.
Demostraci
on: Sean Lf y Rf las funciones definidas por
Lf : V
u 7

Luf

V
:V
v

K
f (u, v);

Rfv

V
: V
u 7

K
f (u, v)

Rf : V
v

Evidentemente Luf , Rfv V u, v V , y Lf y Rf son transformaciones lineales.


En este lenguaje, n
otese que la parte (ii) del enunciado de la proposicion es equivalente a que N (Lf ) =
0, al igual que la parte (iii) es equivalente a que N (Rf ) = 0. La proposicion estara probada si logramos
establecer que
rank(Lf ) = rank(Rf ) = rank(A) = rank(f )
o lo que es lo mismo,
dimN (Lf ) = dimN (Rf ) = dimN (A).

CAPITULO 9. FORMAS BILINEALES

184

Sea X una base ordenada de V , Z = [a1 , . . . , an ], Y = [b1 , . . . , bn ] las coordenadas de los vectores
u, v V en la base X; y A = mX (f ). Entonces u N (Lf ) f (u, v) = 0, v V ZAY T = 0 para
todo vector Y K n ZA = 0 AT Z T = 0 Z T N (At ), entonces
dimN (Lf ) = dimN (AT ) = dimN (A).
An
alogamente, v N (Rf ) f (u, v) = 0 u V ZAY T = 0 para todo vector z K n AY T = 0
Y T N (A); entonces
dimN (Rf ) = dimN (A).
Definici
on 9.4. Sea f una forma bilineal sobre un espacio V . f se dice no degenerada (o no
singular) si f cumple alguna de las condiciones (ii) o (iii) de la proposici
on anterior. En el caso de
dimensi
on finita esto es equivalente a que la matriz de f en cualquier base ordenada sea invertible, es
decir, que det(A) 6= 0, con A la matriz de f en cualquier base.
Ejemplo 9.1. Sea V un espacio vectorial real con producto interno ( , ). Entonces
f : V V
(u, v)

R
f (u, v) = (u, v)

es claramente una forma bilineal tal que f (u, v) = f (v, u) para todo u, v V y ademas f (u, u) > 0 para
cada u 6= 0. Recprocamente, cada forma bilineal f sobre V que cumpla las dos condiciones anteriores,
define un producto interno.
Ejemplo 9.2. En el espacio V = R2 consideremos la forma bilineal definida por el producto interno
y las bases X = {(1, 0), (0, 1)}, X 0 = {(1, 1), (1, 1)}, X 00 = {(1, 2), (3, 4)}. Entonces se tiene que






1 0
2 0
5 11
mX (f ) =
, mX 0 (f ) =
, mX 00 (f ) =
0 1
0 2
11 25

9.3.

Formas Bilineales Sim


etricas

Definici
on 9.5. Una forma bilineal f sobre un espacio V se dice sim
etrica si f (u, v) = f (v, u) para
cualesquiera u, v V . Una matriz A Mn (K) se dice simetrica si AT = A.
Corolario 9.3. Sea V un K-espacio de dimensi
on finita n y X una base ordenada cualquiera de V .
Sea f una forma sobre sobre V , entonces f es simetrica si y s
olo si mX (f ) es simetrica.
Demostraci
on: Sean u, v V y Y, Z sus coordenadas en la base X (Ver la demostracion del Teorema 9.1). f (u, v) = Y AZ T . As pues, f es simetrica si y solo si Y AZ T = ZAY T para cualesquiera
Y, Z K n . Teniendo en cuenta que Y AZ T es de orden 1 1, entonces (Y AZ T )T = Y AZ T , es decir, ZAT Y T = Y AZ T . Por lo tanto, f es simetrica si y solo si ZAT Y T = ZAY T para cualesquiera
Z, Y K n , lo cual significa que A = AT . .
Presentamos ahora uno de los teoremas centrales del presente captulo acerca de la diagonlizaci
on
de las formas bilineales simetricas en cuerpos de caracterstica diferente de 2.
Teorema 9.2. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una forma bilineal
simetrica sobre V , entonces existe una base X en V tal que mX (f ) es diagonal.
Demostraci
on: Si f = 0
o n = 1 no hay nada que probar. Sea f 6= 0 y n > 1. Si f (u, u) = 0 para cada
u V , entonces f = 0. En efecto, como char(K) 6= 2, 4 = 1 + 1 + 1 + 1 6= 0 en K y por lo tanto existe
41 = 1/4. Se tiene la siguiente identidad de polarizacion:
f (u, v) =

1
1
f (u + v, u + v) f (u v, u v).
4
4


9.3. FORMAS BILINEALES SIMETRICAS

185

De esta identidad se desprende entonces lo afirmado.


Se puede entonces asumir la existencia de u 6= 0 en V tal que f (u, u) 6= 0. Sea W = hui y
W = {v V | f (u, v) = 0} .

Claramente W V . Veamos que V = W W . Sea v V . Hagamos


z=v

f (v, u)
u.
f (u, u)

Entonces

f (v, u)
u
f (u, u)
f (v, u)
= f (u, v)
f (u, u)
f (u, u)
= f (u, v) f (v, u) = 0.

f (u, z) = f (u, v) f

u,

Entonces, z W , luego v W + W , as, V = W + W .


Sea ahora a u W tal que a u W . Entonces f (u, a u) = af (u, u). Pero como f (u, u) 6= 0,
entonces a = 0 y as W W = 0.
f restringida a W es una forma bilineal simetrica. Como dim W = n 1, podemos aplicar inducci
on y suponer que existe una base {u2 , . . . , un } en W tal que f (ui , uj ) = 0 para i 6= j e i, j 2.
Sea X = {u1 = u, u2 , . . . un }, X es pues la base buscada. 
El resultado anterior se puede especificar mas para el caso complejo.
Corolario 9.4. Si dimC V = n y f es una forma bilineal simetrica sobre V con rank(f ) = r, entonces
existe una base ordenada X = {v1 , . . . vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 i r, f (vi , vi ) = 0 para i > r.
Demostraci
on: Seg
un el Teorema 9.2, existe una base X 0 = {u1 , . . . , un } en V tal que mX 0 (f ) es
diagonal. Como rank(f ) = r, entonces rank (mX 0 (f )) = r. Reordenando la base X 0 podemos suponer
que f (uj , uj ) 6= 0 para 1 j r y f (uj , uj ) = 0 para j > r. Resta definir
(
1
uj , 1 j r
f (uj ,uj )
vj =
uj ,
j>r
p
donde f (uj , uj ) es una cualquiera de las races cuadradas de f (uj , uj ). 

La u
ltima parte de la demostraci
on anterior no puede ser aplicada al caso real. Por eso en su lugar tenemos:
Corolario 9.5. Si dimR V = n y f una forma bilineal simetrica sobre V con rank(f ) = r. Entonces,
existe una base ordenada X = {v1 , v2 , ..., vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 i r, y f (vi , vi ) = 0 para i > r.

CAPITULO 9. FORMAS BILINEALES

186

(c) El n
umero de vectores de la base X para los cuales en (b) se da el signo positivo es independiente
de dicha base.
Demostraci
on: Existe una base X 0 = {u1 , u2 , ..., un } en V tal que f (ui , uj ) = 0 para i 6= j. Como
rank(f ) = r, entonces rank(mX 0 (f )) = r y podemos reordenar X 0 de tal manera que f (ui , ui ) 6= 0
para 1 i r y f (ui , ui ) = 0 para i > r.
Sea
vi =

1
.ui
| f (ui ,ui )|

1ir

ui

i > r.

N
otese que entonces X = {v1 , v2 , ..., vn } cumple (a) y (b).
Sea p el n
umero de vectores vi de la base X para los cuales f (vi , vi ) = 1. Se debe probar que p
es independiente de la base X que satisface (a) y (b).
Sean
VX+ = hvi X

| f (vi , vi ) = 1 i ,

VX = hvi X | f (vi , vi ) = 1 i .
As, dim(VX+ ) = p. Sea Y otra base de V que satisface (a) y (b). Queremos probar que dim(VY+ ) =
p = dim(VX+ ).
Si v 6= 0 est
a en VX+ , entonces f (v, v) > 0, es decir, f es definida positivamente sobre VX+ . Analogamente, si v 6= 0 esta en VX entonces f (v, v) < 0 , es decir, f es definida negativamente en VX .
Sea ahora VX = hvi X | f (vi , vi ) = 0i . Notese que si v VX entonces f (v, x) = 0 para cada
x V. Teniendo en cuenta que X es una base de V , entonces
V = VX+ VX VX
Sea W cualquier subespacio de V en el que f es definida positivamente. Entonces la suma
es directa. En efecto, sea u W, v VX y z VX tales que u + v + z = 0. Entonces,

(9.1)
W +VX +VX

0 = f (u, u + v + z) = f (u, u) + f (u, v) + f (u, z),


tambien
0 = f (v, u + v + z) = f (v, u) + f (v, v) + f (v, z).
VX ,

Como z
entonces f (u, z) = f (v, z) = 0. Ademas, en vista de la simetra se tiene que f (u, v) =
f (v, u). Puesto que f (u, u) 0 y f (v, v) 0, entonces f (u, u) = f (v, v) = 0. Como f es positivamente
definida en W y negativamente definida en VX entonces u = v = 0 ; de donde tambien z = 0.
Seg
un lo probado y de acuerdo a (9.1) se tiene dim W dim VX+ . En otras palabras, si W es un
subespacio de V en el cual f est
a definida positivamente, entonces dim W dim VX+ . Sea entonces Y
otra base de V que cumple (a) y (b), y sean VY , VY , VY+ definidos como para la base X. Por lo tanto
dim VY+ dim VX+ , y por simetra, dim VX+ dim VY+ , as se tiene que dim VX+ = dim VY+ . 
De la demostraci
on del corolario anterior se pueden sacar las siguientes conclusiones:


9.4. FORMAS BILINEALES ANTISIMETRICAS

187

(i) dim VX+ es independiente de la base X.


(ii) dim VX es independiente de la base X.
(iii) dim VX+ + dim VX = rank(f )
(iv) VX es unico . M
as a
un, V = {u V | f (u, v) = 0 , v V } = VX . En efecto, u V
u N (Lf ) ,es decir, V = N (Lf ), luego dim V = dim N (Lf ) = dim V rank(f ) = dim V
(dim VX+ + dim VX ) = dim VX , pero como VX V , entonces se tiene la igualdad V = VX .
(v) Se define la signatura de f como sig(f ) = dim VX+ dim VX .

9.4.

Formas Bilineales Antisim


etricas

Definici
on 9.6. Una forma bilineal f sobre un espacio V se dice antisim
etrica si f (u, v) = f (v, u)
para cualesquiera u, v V. Una matriz A Mn (K) se dice antisim
etrica si A = AT .
Adaptando la prueba del Corolario 9.3 se pueden establecer los siguientes resultados para el caso
antisimetrico.
Corolario 9.6. Sea V un K-espacio de dimensi
on finita n y X una base ordenada cualquiera de V.
Sea f una forma sobre V. Entonces, f es antisimetrica mX (f ) es antisimetrica.
Corolario 9.7. Sea f L(V, V, K) una forma bilineal antisimetrica sobre un K-espacio de dimensi
on
finita, donde char(K) 6= 2. Entonces, en cualquier base ordenada X de V, los elementos diagonales de
mX (f ) son nulos.
Proposici
on 9.3. Si char(K) 6= 2 y f L(V, V, K), entonces f es suma de una forma simetrica y
una antisimetrica. Tal representaci
on de f es u
nica.
Demostraci
on: En efecto, para u, v V se define
g(u, v) =

1
[f (u, v) + f (v, u)]
2

1
[f (u, v) f (v, u)]
2
N
otese que g es simetrica, h antisimetrica y ademas f = g + h.
h(u, v) =

Sean g 0 , h0 simetrica y antisimetrica respectivamente, tales que f = g 0 + h0 . Entonces,


f (u, v) = g 0 (u, v) + h0 (u, v)
f (v, u) = g 0 (v, u) + h0 (v, u) = g 0 (u, v) h0 (u, v)

2g 0 (u, v) = f (u, v) + f (v, u)

g 0 (u, v) =

1
[f (u, v) + f (v, u)] = g(u, v).
2

De manera similar resulta h0 = h. 


Ahora presentamos los an
alogos del Teorema 9.2, Corolario 9.4 y Corolario 9.5 del caso simetrico
para el caso antisimetrico.

CAPITULO 9. FORMAS BILINEALES

188

Teorema 9.3. Sea dimV = n y f L(V, V, K) una forma bilineal antisimetrica, donde char(K) 6= 2.
Entonces el rango de f es par, rank(f ) = 2k. Adem
as, existe una base ordenada X en V tal que la
matriz de f es suma directa de la matriz nula de orden (n 2k) y k matrices 22 de la forma


0 1
1 0
Demostraci
on: Si f = 0 el teorema es verdadero. Sea f 6= 0. Existen u1 , v1 V {0} tales que
f (u1 , v1 ) 6= 0. Multiplicando u1 por f (u1 , v1 )1 podemos suponer (s.p.) que f (u1 , v1 ) = 1.
u1 , v1 son L.I: sean , K tales que u1 + v1 = 0. Entonces
0 = f (u1 + v1 , u1 ) = f (u1 , u1 ) + f (v1 , u1 ) =
tambien, 0 = f (u1 + v1 , v1 ) = f (u1 , v1 ) + f (v1 , v1 ) = .
Sea ahora W1 = hu1 , v1 i, por lo probado antes se tiene que la dim (W1 ) = 2.
Sea W1 = {z V | f (z, w) = 0, para cada w W1 } . Veamos que V = W1 W1 : Sean x V ,
w = f (x, v1 ).u1 f (x, u1 ).v1 y z = x w. Claramente w W1 y x = w + z. Veamos que z W1 :
f (z, u1 ) = f (x w, u1 ) = f (x f (x, v1 ).u1 + f (x, u1 ).v1 , u1 )
= f (x, u1 ) f (x, v1 )f (u1 , u1 ) + f (x, u1 )f (v1 , u1 )
= f (x, u1 ) f (x, u1 )f (u1 , v1 ) = 0.
Tambien, f (z, v1 ) = 0. Resulta, z W1 .
Sea z W1 W1 , entonces

z = .u1 + .v1

0 = f (z, v1 ) = f (.u1 + .v1 , v1 ) = f (u1 , v1 ) =


0 = f (z, u1 ) = f (.u1 + .v1 , u1 ) = f (v1 , u1 ) =
luego z = 0.
La restricci
on f1 de f a W1 es una forma bilineal antisimetrica. Si f1 es nula hemos terminado.
Tenemos en este caso que el bloque nulo es de orden n 2, y el rango de f es 2, de tal forma que
tenemos un solo bloque de la forma


0 1
1 0
Si f1 no es nula existen vectores no nulos u2 , v2 en W1 tales que f (u2 , v2 ) = 1. Sea W2 =
hu2 , v2
i W1 . Como vimos antes se genera la descomposicion V = W1 W2 W2 , donde
W2 = z W1 | f (z, u2 ) = 0 = f (z, v2 ) .
Si la restriccion f2 de f1 a W2 es nula hemos terminado. En este caso tendremos dos bloques de
tama
no 2 2 y un bloque nulo de tama
no (n 4 n 4) de tal forma que rank (f ) = 4. Si f2 no es
nula podemos continuar de esta manera y consegir una sucesion finita (dim V es finita ) de pareja de
vectores (u1 , v1 ) ,(u2 , v2 ),..., (uk , vk ) tales que:
(a) f (uj , vj ) = 1 para 1 j k.
(b) f (ui , uj ) = f (vi , vj ) = f (ui , vj ) = 0 para i 6= j.

9.5. FORMAS SESQUILINEALES

189

(c) Si Wj = huj , vj i entonces


V = W1 Wk W0
donde todo vector de W0 es ortogonal a todos los uj , vj y la restriccion de f a W0 es nula.
Sea X0 = {w1 , w2 , ..., ws } una base de W0 .
Entonces, X = {u1 , v1 , u2 , v2 , ..., uk , vk , w1 , w2 , ..., ws } es una base de V .
N
otese que s = n 2k y la matriz de f en X es:

mX (f ) =

m{u1 ,v1 } (f )

0
..

.
..

m{uk ,vk } (f )

0
1

1
0

mX0 (f )

..

0
1

1
0

N
otese finalmente que rank(mX (f )) = 2k. 

k bloques




0 0
0 0

Mediante un simple reordenamiento de la base X de la prueba del Teorema anterior en la forma


X = {u1 , u2 , .....uk , v1 , v2 , .......vk } se obtiene la siguiente conclusion.
Corolario 9.8. Toda forma bilineal antisimetrica f no singular es de grado par. Si dim V = 2k ,
entonces existe una base X en V tal que
mX (f ) =

0 L
L 0

donde L es de orden k de la forma

L=

9.5.

1
0

1
..
.

1
1

0
0

Formas Sesquilineales

Esta lecci
on estudia las formas sesquilineales sobre espacios reales o complejos que posean producto
interno. Se estudia adem
as la relaci
on de estas formas con las transformaciones lineales. En adelante
un espacio con producto interno denotara a un espacio unitario o a un espacio euclidiano.

CAPITULO 9. FORMAS BILINEALES

190

Definici
on 9.7. Sea V un espacio real o complejo. Una forma sesquilineal f sobre V es una funci
on
f : V V
(u, v)

K
(K = C,
o R)
f (u, v)

tal que
f (u1 + u2 , v) = f (u1 , v) + f (u2 , v)
f (a.u, v) = af (u, v)
f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 )
f (u, a.v) = af (u, v).
Para cualesquiera u1 , u2 , u, v1 , v2 , v V, a K.
Observaci
on. N
otese que las formas sesquilineales reales coinciden con las formas bilineales reales
estudiadas en las lecciones anteriores. De otra parte, con las mismas operaciones definidas en la Lecci
on
1, la colecci
on de formas sesquilineales constituyen un espacio vectorial S. Establecemos enseguida el
isomorfismo de este espacio con el de las matrices cuadradas complejas (o reales) para el caso de
espacios de dimensi
on finita.
Definici
on 9.8. Sea V un espacio de dimensi
on finita n y sea X = {v1 , . . . , vn } una base ordenada
cualquiera de V . Sea f una forma sesquilineal sobre V , la matriz de f en la base X se define por
A = mX (f ) = (aij )

, aij = f (vi , vj )

Teorema 9.4. Sea V un espacio real o complejo de dimensi


on finita n y sea S el espacio de formas
sesquilineales sobre V . Entonces,
S
= Mn (K)
con K = C
o R. En consecuencia, dim S = n2 .
Demostraci
on: Fijemos una base ordenada cualquiera X = {v1 , . . . , vn } en V y consideremos la funci
on
mX : S
f

Mn (K)
mX (f ) = A

mX es claramente K-lineal. f puede escribirse matricialmente con ayuda de A, en la siguiente forma:


sean Y = (a1 , ..., an ), Z = (b1 , . . . , bn ) las coordenadas de u y v respectivamente en la base X. Entonces,
f (u, v) =

n X
n
X

ai bj f (vi , vj ),

i=1 j=1

f (u, v) = Y AZ , Z = Z

T

mX es sobreyectiva: sea A Mn (K) y f definida como en (9.2). Entonces,


f (u + u, v) = f (u, v) + f (u, v)
f (u, v + v) = f (u, v) + f (u, v)
f (a.u, v) = af (u, v)
f (u, a.v) = af (u, v)
y adem
as mX (f ) = A.

(9.2)

9.5. FORMAS SESQUILINEALES

191

Finalmente n
otese que mX es inyectiva: si mX (f ) = 0 entonces, seg
un (9.2), f (u, v) = 0
es decir, f = 0. 

u, v V ,

La siguiente propiedad estudia el cambio que sufre la matriz de una forma sesquilineal cuando se
produce un cambio de base (comp
arese con la Proposicion 9.1 para el caso bilineal). Esto permitira
definir los conceptos de rango de una forma sesquilineal y de forma sesquilineal no singular. Sin embargo, en la literatura cl
asica sobre formas sesquilineales estos conceptos no son tratados con suficiente
atenci
on.
Proposici
on 9.4. Sea V un espacio real o complejo de dimensi
on finita n, y sea f una forma sesquilineal sobre V . Sean X = {v1 , . . . , vn } y X 0 = {u1 , ..., un } bases ordenadas de V . Entonces,
mX 0 (f ) = C T mX (f ) C
donde C es la matriz de cambio de la base X a la base X 0 .
Veremos a continuaci
on la manera de asociar a cada forma sesquilineal definida sobre un espacio con
producto interno una cierta transformacion lineal cuya matriz es la transpuesta de la matriz de la
forma.
Proposici
on 9.5. Sea V un espacio de dimensi
on finita n con producto interno, y f una forma
sesquilineal sobre V . Entonces, existe una u
nica transformaci
on lineal S : V V tal que
f (u, v) = hu, S(v)i

u, v V

(9.3)

Demostraci
on: Paso 1 Sea v un elemento fijo de V y sea X = {v1 , , vn } una base ortonormal de
V , definimos
w = f (v1 , v) v1 + + f (vn , v) vn
y sea u = a1 .v1 + + an .vn un elemento cualquiera de V . Entonces, f (u, v) = a1 f (v1 , v) + +
an f (vn , v) y tambien hu, wi = a1 f (v1 , v) + + an f (vn , v), es decir, f (u, v) = hu, wiu V .
Paso 2 De la correspondencia anterior se tiene que la funcion
S:V
v

V
S(v) = w

cumple f (u, v) = hu, wi , u V y ademas S es Klineal y cumple (4).


Paso 3 Sean S1 , S2 que cumplan (9.3), entonces para todo u, v V hu, S1 (v)i = hu, S2 (v)i, es decir,
hu, (S1 S2 )(v)i = 0, entonces (S1 S2 )(v) = 0 v V , es decir, S1 = S2 . 
Corolario 9.9. Sea V un espacio con producto interno de dimensi
on finita n, y sea f una forma
sesquilineal sobre V . Entonces existe una u
nica transformaci
on lineal Tf : V V tal que
f (u, v) = hTf (u), vi,

u, v V

La transformaci
on S de la proposici
on anterior es la adjunta de Tf , es decir, S = Tf .
Demostraci
on: Sea Tf := S , donde S es la transformacion definida en la proposicion anterior. Entonces, f (u, v) = hu, S(v)i = hS(v), ui = hv, S (u)i = hv, Tf (u)i = hTf (u), vi. 
Observaci
on. (a) La transformaci
on Tf del Corolario 9.9 podra denominarse la transformacion de
la forma sesquilineal f . Sea X = {v1 , ..., vn } una base ortonormal de V . Veamos que relacion existe
entre mX (f ) y mX (Tf ): sea A = (aij ) = mX (Tf ), B = mX (f ). Entonces,

CAPITULO 9. FORMAS BILINEALES

192

bij = f (vi , vj ) = hTf (vi ), vj i =


por lo tanto,

n
X

aki vk vj

k=1

= aji

mX (f ) = mX (Tf )T

(9.4)

(b) Sea ahora V un espacio real o complejo (no necesariamente con producto interno) y X una base
de V . Sea f una forma sesquilineal sobre V . f determina una matriz A = mX (f ); A determina una
transformaci
on U : V V as: U (x) = AT Z T , con Z = [a1 , , an ] coordenadas de x en X. Notese
que mX (U ) = AT .
(c) Combinando (a) y (b) para un espacio V con producto interno y X ortonormal se tiene:
mX (Tf ) = mX (f )T = AT = mX (U )
luego,
U = Tf .
En la Lecci
on 3 vimos que las formas bilineales simetricas (ya sean reales o complejas) son diagonalizables. Veremos ahora como las formas sesquilineales definidas sobre espacios unitarios son triangulables.
Teorema 9.5. Sea f una forma sesquilineal sobre un espacio unitario V de dimensi
on finita n 1.
Entonces existe una base ortonormal X en V tal que la matriz de f es triangular superior.
Demostraci
on: Seg
un el Ejercicio 7 de la Leccion 9 del Captulo 8, existe una base ortonormal X =
{v1 , ..., vn } en V tal que la matriz de la transformacion Tf asociada a f es triangular superior. Seg
un
(9.4) mX (f ) es triangular inferior. Siendo Y = {vn , , v1 } entonces se tiene la afirmacion. 

9.6.

Formas Hermitianas

Esta lecci
on estudia las formas sesquilineales hermitianas sobre espacios reales o complejos. Se debe resaltar que las formas sesquilineales hermitianas sobre espacios reales coinciden con las formas bilineales
reales simetricas estudiadas en la Lecci
on 3.
Definici
on 9.9. Una forma sesquilineal f sobre un espacio real o complejo V se dice hermitiana si
f (u, v) = f (v, u)

u, v V

Proposici
on 9.6. Una forma sesquilineal f sobre un espacio V de dimensi
on finita n 1 con producto
interno es hermitiana si, y s
olo si, Tf es autoadjunta, es decir, Tf = Tf . En otras palabras, f es
hermitiana si y s
olo si Tf es hermitiana.
Demostraci
on: Supongamos que Tf es autoadjunta, por lo tanto
f (u, v) = hTf (u), vi = hu, Tf (v)i = hu, Tf (v)i
= hTf (v), ui = f (v, u),

u, v V

as, f es hermitiana.
Recprocamente, si f es hermitiana, entonces f (u, v) = f (v, u), luego hTf (u), vi = hTf (v), ui, por
lo tanto, hTf (u), vi = hu, Tf (v)i u, v V , por consiguiente, Tf = Tf , es decir, Tf es autoadjunta. 

9.6. FORMAS HERMITIANAS

193

Proposici
on 9.7. Una forma sesquilineal f sobre un espacio unitario V es hermitiana si y solo si
f (u, u) es real para cada u V .
Demostraci
on: ) Evidente a partir de la definicion.
) Sean u, v V , entonces
f (u + v, u + v) = f (u, u) + f (u, v) + f (v, u) + f (v, v) R

y como f (u, u), f (v, v) R entonces f (u, v) + f (v, u) R. Analogamente,

f (u + iv, u + iv) = f (u, u) if (u, v) + if (v, u) + f (v, v) R

entonces if (u, v) + if (v, u) R. Resulta,

f (u, v) + f (v, u) = f (u, v) + f (v, u)


if (u, v) + if (v, u) = if (u, v) if (v, u)

Multiplicando la segunda por i y sumando resulta 2f (u, v) = 2f (v, u), entonces f (u, v) = f (v, u). 
Cerramos la lecci
on con el teorema sobre diagonalizacion.
Teorema 9.6. Sea V un espacio con producto interno (real o complejo) de dimensi
on finita n y f una
forma sesquilineal hermitiana sobre V . Entonces existe una base ortonormal X en V tal que mX (f )
es diagonal real.
Demostraci
on: Se
un la Proposici
on 9.6, Tf es hermitiana, entonces existe una base ortonormal X en
V tal que mX (Tf ) es diagonal real, por lo tanto, mX (f ) es diagonal real. 


Algebra
Lineal
Captulo 9. Formas Bilineales
Ejercicios.
1. Demostrar el Corolario 8 de la Leccion 4 del presente captulo.
2. Demostrar la Proposicion 4 de la Leccion 5 del presente captulo.
3. Sea f una forma bilineal simetrica definida por la matriz

4 2 2
0
A= 2 5
2 0
3

Demostrar que existe una base Z en R3 tal que la matriz de f en dicha base es la matriz
identica.
4. Sea f una forma bilineal simetrica definida por la matriz


4 2
A=
2 1
Demostrar que existe una base Z en R2 tal que la matriz de f en dicha base es


1 0
0 0

Cual es el rango de f ?
5. Sea f una forma bilineal simetrica definida por la matriz


0 2
A=
2 0

Demostrar que existe una base Z en R2 tal que la matriz de f en dicha base es


1
0
0 1

Cual es el rango de f ?
6. Sea n un entero positivo y sea V el espacio de todas las matrices n n sobre el cuerpo
C de n
umeros complejos. Demostrar que la relacion
f (A, B) = ntr (AB) tr (A) tr (B)
define una forma bilineal. Esta forma es simetrica? Esta forma es no degenerada?
7. En el problema anterior, sea W el subespacio de V que consta de todas las matrices A
tales que tr (A) = 0 y A es antihermitiana, es decir, A = A. Consideremos la restriccion
f 0 de f al subespacio W . Probar que f 0 (A, A) < 0 para cada matriz A W .
8. Sea V un espacio vectorial sobre un cuerpo K, y sean f1 , f2 V funcionales. Demostrar
que la ecuacion
1

f (u, v) = f1 (u) f2 (v) f2 (u) f1 (v)


define una forma bilineal antisimetrica sobre V. Demostrar que f = 0 si y solo si f1, f2 son
linealmente dependientes.

196

CAPITULO 9. FORMAS BILINEALES

Captulo 10

Formas Cuadr
aticas
Introducci
on
Las ideas y resultados expuestos en los dos captulos anteriores son ahora considerados para el estudio
de las llamadas formas cuadr
aticas que tienen amplias aplicaciones en diferentes areas de matematicas
y estadstica.

10.1.

Formas Cuadr
aticas

En este captulo, salvo que se advierta lo contrario, K denotara un cuerpo arbitrario de caracterstica
diferente de 2, char(K) 6= 2, y V un K-espacio vectorial.
Definici
on 10.1. Sea f una forma bilineal simetrica sobre V . La forma cuadr
atica asociada a f
es la funci
on definida por
q : V
u 7

K
q(u) = f (u, u)

N
otese que q(u) = f (u, u) = 2 f (u, u) = 2 q(u), para K, u V , en particular q(u) = q(u).
De otra parte,
q(u + v) = f (u + v, u + v) = f (u, u + v) + f (v, u + v) = f (u, u) + f (u, v) + f (v, u) + f (v, v)
por la simetra de f tenemos:
q(u + v) = q(u) + 2.f (u, v) + q(v)

(10.1)

(2 denota 1 + 1 en K). La ecuaci


on anterior muestra que si 1 + 1 6= 0 , entonces f queda completamente
determinada por q mediante la relaci
on:
1
[q(u + v) q(u) q(v)]
2
1
f (u, v) = [f (u + v, u + v) f (u, u) f (v, v)]
2
f (u, v) =

(10.2)

Si reemplazamos v por v en (1) obtenemos:


q(u v) = q(u) 2.f (u, v) + q(v)
y de (10.1)-(10.3) se tiene q(u + v) q(u v) = 4f (u, v), es decir,
197

(10.3)


CAPITULO 10. FORMAS CUADRATICAS

198

1
[f (u + v, u + v) f (u v, u v)]
4
Esta es la identidad de polarizaci
on que vimos en Teorema 2 del Captulo 3.
f (u, v) =

(10.4)

Si V es un espacio de dimensi
on finita n y X = {v1 , . . . , vn } es una base de V , entonces se define
la matriz y, consecuentemente, el rango de la forma cuadratica q(u) = f (u, u), como la matriz y el
rango de la respectiva forma bilineal.
Una forma cuadr
atica se dir
a no degenerada, o tambien no singular, si su matriz es invertible.
La forma cuadr
atica f (u, u) puede escribirse tambien en la forma:
f (u, u) =

n
X

aij i j = ZAZ T

(10.5)

i,j=1

donde Z = [1 , . . . , n ] son las coordenadas de u en la base X, y A = [aij ] = mX (f ).

10.2.

Suma de Cuadrados

Definici
on 10.2. Sea f (u, u) una forma cuadr
atica sobre un espacio V de dimensi
on finita n. Se
dice que f (u, u) es reducible a una suma de cuadrados, si existe una base X y escalares d1 , . . . , dn
en K tales que:
n
X

dk k2

(10.6)

k=1

donde 1 , ..., k son la coordenadas de u en la base X. Los coeficientes de f (u, u) en (3) se denominan
can
onicos. Uno de los teoremas centrales sobre formas cuadr
aticas es debido a Lagrange.
Teorema 10.1. (Metodo de Lagrange). Toda forma cuadr
atica sobre un K-espacio V de dimensi
on
finita n es reducible a una suma de cuadrados.
Demostraci
on: Si f (u, u) = 0 para cada u V , entonces en cualquier base X de V se tiene que
1
[q (u + v) q (u) q (v)] = 0,
2
para cualesquiera u, v V . Por lo tanto, la matriz A de la forma cuadratica es nula y de esta manera
q(u) = 0 para cada u V . Es decir, q = 0 es una suma de cuadrados.
f (u, v) =

Supongamos que q 6= 0, y sea Y = {v1 , . . . , vn } una base de V . Se tiene que


q(u) =

k
X

aij i j

(10.7)

i,j=1

Se puede siempre suponer que f (v1 , v1 ) = a11 6= 0. En efecto, consideremos dos casos:
Caso 1. Si a11 = 0 pero aii 6= 0 para alg
un 2 i n , entonces podemos reordenar la base Y
(cambiando v1 por vi ) de tal forma que el coeficiente correspondiente al primer cuadrado sea no nulo.
Caso 2. Si aii = 0 para cada 1 i n, entonces alg
un coeficiente aij =
6 0 y, con un reordenamiento, podemos suponer que dicho coeficiente es a12 (cambiando v1 por vi y v2 por vj ).
Buscamos una nueva base Z = {z1 , . . . , zn } de tal forma que f (z1 , z1 ) 6= 0,

10.2. SUMA DE CUADRADOS

199

Se introduce entonces el siguiente cambio de coordenadas:

11 = 1 + 2

21 = 1 + 2

3in
i1 = i ,

(10.8)

N
otese que este cambio de coordenadas corresponde al siguiente cambio de base: sea Z = {z1 , . . . , zn }
otra base de V y u = 11 z1 + + n1 zn . Recuerdese que las coordenadas de u en estas dos bases est
an
relacionados por
1


c11 c1n
1
1
.. ..
.. .. ,
.
.
=
. .
.
. .

cn1

n1

cnn

donde C = [cij ] es la matriz de cambio de Y a Z. En este caso se tiene

11
..

. = C 1
n1

Hacemos

:=

C=

de donde

1
1

1
1

0
1
..

.
1

1
2
1
2

21

1
2

1
..

.
1

1
11

..
..
=
C
=
.
.

n
n1
z1 = 21 v1 + 12 v2

1
.. .
.
n

1 1
2 1
1 1
2 1

21 21
+ 21 21
31
..
.
n1

z2 = 21 v1 + 12 v2 zi = vi

3in

N
otese que en con el cambio de coordenadas (10.8) el coeficiente de (11 )2 es 21 a12 6= 0.
As pues, en (10.7) podemos suponer que el la base Y = {v1 , . . . , vn }, a11 6= 0. Se tiene entonces
que


CAPITULO 10. FORMAS CUADRATICAS

200
2

f (u, u) = a11 (1 ) + 2a12 1 2 + + 2a1n 1 n +


Pero
2

a11 (1 ) + 2a12 1 2 + ..... + 2a1n 1 n = a11 (1 +


a2

a2

Pn

a12
a11 2

i,j=2

aij i j .

+ +

a1n
2
a11 n )

12
a11
(2 ) a1n
(n )
11
a1n
a12 a13
a1n
2 a11 2 3 2 a12a11
2 n 2 a1n1
n1 n .
a11

Podemos entonces escribir


q(u) = a11 (1 +

a12
a11 2

+ ..... +

a1n
2
a11 n )

donde
(

a0ii = aii
a0ij = aij

(a1i )2
a
a1i11
a1j
a11

Pn

i,j=2

2in
i 6= j, 2 i, j n

a0ij i j

(10.9)

Introducimos entonces el siguiente cambio de coordenadas:




1 = 1 +

a12
a11 2

+ ..... +
i = i

a1n
a11 n

,2in

(10.10)

Como antes, este cambio de coordenadas corresponde a un cambio de base para V cono matriz de
cambio dada por

1
0

C := 0
.
..
0

12
aa11
1
0
..
.

13
aa11
0
1

...
...
..
.

...

aa1n
11
0

0
.
..
.
1

As pues, existe una base Y 0 en V en la cual la forma tiene el aspecto


2

q(u) = a11 (1 ) +

Pn

i,j=2

a0ij i j .

Pn
Seg
un (10.9), i,j=2 a0ij i j es una forma cuadratica (asociada a la matriz simetrica [a0ij ] de orden
n1). Si esta forma es identicamente nula el teorema esta demostrado. De no ser nula podemos repetir
el razonamiento anterior mediante cambio de las coordenadas 2 , . . . , n no cambiando 1 . Esto corresponder
a a cambiar la base Y 0 dejando siempre fijo el vector x1 . Es claro que al cabo de un n
umero
finito de pasos se llega a la forma deseada.
De la prueba que acabamos de efectuar se deben hacer las siguientes aclaraciones:
(a) Si la forma cuadr
atica q viene definida por la forma bilineal simetrica f con matriz simetrica
A en una base X = {v1 , . . . , vn }, entonces
q(u) = ZAZ T
donde Z = [1 . . . n ] son las coordenadas del vector u en la base X. La reduccion a una suma de
cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si
X = {x01 , . . . , x0n } es la nueva base a traves de la cual q es una suma de cuadrados, entonces

10.2. SUMA DE CUADRADOS

201

q(u) = Z 0 DZ 0T

= [10 . . . n0 ]
=

2
d1 (10 )

d1

0
..

.
dn

+ + dn (n0 )

0
0 T
[1 . . . n ]

donde Z 0 = [10 . . . n0 ] son las coordeandas del vector u en la base X 0 . Seg


un la Leccion 2 del Captulo
9, las matrices A y D est
an relacionados por D = C T AC, donde C es la matriz de cambio de la base
X a la base X 0 . Reiteramos que A y D no son necesariamente similares, pero si tienen por supuesto el
mismo rango.
(b) La base a traves de la cual la forma cuadratica se reduce a una suma de cuadrados no esta definida
univocamente, y por lo tanto, los coeficientes d1 , . . . , dn tampoco son u
nicos.
(c) Adem
as, si una forma cuadr
atica esta reducida a la forma canonica (10.6), no necesariamente
todos los coeficientes d1 , . . . , dn son diferentes de cero. Sin embargo, en cualquier base X de V la
cantidad de coeficientes no nulos es la misma, y coincide con el rango de la forma cuadratica,
Ejemplo 10.1. Sea V un espacio vectorial sobre
con respecto a una base X = {v1 , v2 , v3 } es

1
2
3

R, y sea q la forma cuadratica sobre V cuya matriz


2
1
4

3
4
0

Mostramos ahora un algoritmo para reducir q a una suma de cuadrados siguiendo el procedimiento de
la prueba del teorema anterior. La idea es entonces calcular los coeficientes d:
Paso 1. d1 = a11 = 1.
Paso 2. Construimos la matriz A0 en la forma

1
A0 = 0
0

definiendo

0
a022
a032

a023
a033

4
a212
= 1 = 3
a11
1
a213
9
= a33
= 0 = 9
a11
1
a12 a13
6
= a23
=4
= 10 = a032
a11
1

a022 = a22
a033
a023
es decir,

1
A0 = 0
0

0
0
3 10
10 9


CAPITULO 10. FORMAS CUADRATICAS

202
Paso 3. d2 = a022 = 3.
Paso 4. Construimos la matriz A00 en la forma

1
A00 = 0
0

definiendo

0
0
a0033

0
3
0

a0033 = a033
Paso 5. d3 = a0033 =

100
73
(a023 )
= 9
=
0
a22
3
3

73
3 .

Paso 6. Entonces,
73 0 2
(3 ) .
3
Ejemplo 10.2. Reducir a una suma de cuadrados la siguiente forma cuadratica:
2

q (u) = (10 ) 3 (20 ) +

q(u) = 312 22 3 21 2 + 222 + 332


Notemos en primer lugar que la matriz de esta forma cuadratica en la base canonica X = {e1 , e2 , e3 }
de R3 es:

3 1
0
2 1
A = 1
0 1
3
Ejecutamos entonces el algoritmo del ejemplo anterior:
Paso 1. d1 = a11 = 3.
Paso 2. Calculamos la matriz A0 definiendo
a212
5
1
=2 =
a11
3
3
2
a
0
= a33 13 = 3 = 3
a11
3
a12 a13
0
= a23
= 1 = 1 = a032
a11
3

a022 = a22
a033
a023
es decir,

Paso 3. d2 = 53 .

3
A0 = 0
0

Paso 4. Construimos la matriz A00 en la forma

3
A00 = 0
0

0
5
3

0
5
3

0
1
3

0
0
a0033

10.2. SUMA DE CUADRADOS

203

definiendo
2

a0033 = a033
Paso 5. d3 = a0033 =

1
12
(a023 )
=3 5 =
a022
5
3

12
5 .

Paso 6. Entonces,
5 0 2 12 0 2
( ) +
(3 ) .
3 2
5
En este ejemplo vamos a mostrar adicionalmente los cambios de coordenadas y de base que hemos
realizado. Entonces, de acuerdo con la prueba del Teorema 1 se tiene que:
2

q (u) = 3 (10 ) +

10 = 1 +

a12
a13
1
0
1
2 +
3 = 1 +
2 + 3 = 1 2
a11
a11
3
3
3

20 = 2
30 = 3
Matricialmente este cambio de coordenadas es:
0
1
1
20 = 0
30
0

13
1
0

y el correspondiente cambio de base es:

1
0
0 2
3
1

e01 = e1
1
e02 = e1 + e2
3
e03 = e3
con matriz

1
C= 0
0

1
3

1
0

0
0
1

Sabemos que (Proposici


on 1 de la Leccion 2, Captulo 9):

1 0 0
3 1
0
1
2 1 0
mX 0 (q) = C T AC = 13 1 0 1
0 1
3
0 0 1
0

1
3

1
0


3 0
0
0 = 0 53
1
0 1

0
1
3

Debe ser claro que esta nueva matriz para la forma q no es similar a la matriz A. Veamos como es la
forma cuadr
atica asociada esta nueva matriz:

0
3 0
0
1
 0

5
1 20 30 0 53 1 20 = 3(10 )2 220 30 + (20 )2 + 3(30 )2
3
30
0 1 3
lo cual corresponde a la matriz A0 .

Finalmente, el u
ltimo cambio de coordenadas efectuado fue


CAPITULO 10. FORMAS CUADRATICAS

204

100 = 10
200 = 20 +

a023 0
1
3
= 20 + 5 30 = 20 30
a022 3
5
3

300 = 30
lo cual matricialmente se puede expresar como
00
1 0
1
200 = 0 1
300
0 0

0
0
1
35 20
30
1

El correspondiente cambio de base es:

e001 = e01
e002 = e02
3
e003 = e02 + e03
5
con matriz

1
C0 = 0
0

0
1
0

0
3
5

Por lo tanto, la matriz de q en esta nueva base es:


mX 00 (q) = (C 0 )

1
= 0
0

3
= 0
0

C T ACC 0

0 0
3
1 0 0
3
1
0
5

0 0
5
0
3
12
0 5

0
5
3

0
1 0
1 0 1
3
0 0

0
3
5

Nuevamente, no sobra recordar que la matriz inicial A no es similar a esta matriz diagonal.
Veamos como es la forma cuadr
atica asociada esta nueva matriz:

00
3 0 0
1

 00
5
12
1 200 300 0 53 0 200 = 3(100 )2 + (200 )2 + (300 )2
3
5
300
0 0 12
5
lo cual corresponde a la matriz A00 , y por supuesto a la reduccion encontrada.

10.3.

Formas Cuadr
aticas y Formas Hermticas

Sea V un espacio real o complejo y f una forma sesquilineal hermitiana. La forma cuadratica asociada
a f es la funci
on q(u) = f (u, u), para cada u V . Notemos que en este caso se tiene que
q (.u) =| |2 q(u), para cada real o complejo.


10.3. FORMAS CUADRATICAS
Y FORMAS HERMITICAS

205

Sea X una base de V , entonces se define la matriz de q en la base X por mX (q) = mX (f ). Notemos
que esta matriz A es herimitiana y ademas,
q(u) = ZAZ
donde Z = [1 . . . n ] son las coordenadas del vector u en la base X y A = mX (f ).
Si el espacio V viene dotado con un producto interno, entonces la forma q puede ser reducida a una
suma de cuadrados mediante una tecnica mas simple que la de Lagrange y en la cual los coeficientes
son los valores propios de A.
Teorema 10.2. Sea V un espacio con producto interno de dimensi
on finita n y f una forma sesquilineal hermitiana sobre V . Entonces existe una base ortonormal X = {v1 , ..., vn } en V y reales 1 , ..., n
tales que
f (u, u) =

n
X

k=1

k |k |2

donde 1 , ..., n son las coordenadas de u en la baseX.


Demostraci
on: Seg
un el Corolario 9 y la Proposicion 6 del captulo anterior, existe una transformaci
on
lineal hermitiana (simetrica) Tf tal que
f (u, v) = hTf (u), vi ,

u, v V

Seg
un el Teorema 2 del Captulo 8, existe una base ortonormal X = {v1 , ..., vn } en V tal que mX (Tf ) es
diagonal con elementos diagonales 1 , ..., n , de tal forma que v1 , ..., vn son vectores propios y 1 , ..., n
son los valores propios de Tf . En consecuencia, 1 , ..., n R y ademas
Tf (vk ) = k vk ,

1 k n.

Entonces
Tf (u) =

n
X

k k vk

k=1

f (u, u) = hTf (u), ui


* n
+
n
X
X
=
k k vk ,
k vk
k=1

n
X

k=1

k k k =

k=1

n
X

k=1

k |k |2 .

De la prueba que acabamos de efectuar se deben hacer las siguientes aclaraciones:


(a) Si la forma cuadr
atica q viene definida por la forma sesquilineal hermitiana f con matriz hermitiana A en una base X = {v1 , . . . , vn }, entonces
q(u) = ZAZ
donde Z = [1 . . . n ] son las coordenadas del vector u en la base X. La reduccion a una suma de
cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si
X 0 = {x01 , . . . , x0n } es la nueva base a traves de la cual q es una suma de cuadrados, entonces


CAPITULO 10. FORMAS CUADRATICAS

206

q(u) = Z 0 D (Z 0 )

= [10 . . . n0 ]

= 1 |

10 |2

0
..

.
n

iT
h
0
1 . . . n0

+ + n | n0 |2

donde Z 0 = [10 . . . n0 ] son las coordeandas del vector u en la base X 0 . Seg


un Proposicion 4 de la
Lecci
on 5 del Captulo 9, las matrices A y D estan relacionados por D = C T AC, donde C es la
matriz de cambio de la base X a la base X 0 . Pero en la prueba del teorema se vio que la base X 0 es
precisamente la base de vectores propios de Tf , por lo tanto la matriz C de cambio de X a X 0 es,
seg
un la Proposici
on 12 de la Lecci
on 7 del Captulo 8, una matriz unitaria, es decir, C 1 = C . Se
 
1
= (C 1 ) = C T = C T .
tiene pues en este metodo, a diferencia del metodo de Lagrange, que C
Por lo tanto, D y A en este caso si son similares.
Ejemplo 10.3. Consideremos la forma cuadratica definida en el Ejemplo 2 de la Leccion anterior,
q(u) = 312 22 3 21 2 + 222 + 332 . Reducir q a una suma de cuadrados usando el metodo
del teorema anterior. En la demostracion del teorema vimos que la base X 0 a traves de la cual se
diagonaliza la forma cuadr
atica q definida por la matriz

3 1
0
2 1
A = 1
0 1
3
viene dada por la base ortonormalizada de vectores propios de la transformacion lineal Tf , pero saT
bemos que para cualquier base X de R3 se cumple mX (f ) = mX (Tf ) . Sea pues X la base canoni3
T
ca de R , entonces A = mX (f ) y A = mX (Tf ) = A, ya que A es hermitiana (realmente, A es
simetrica). Debemos entonces calcular los valores y vectores propios de A: E(1) = h(1, 2, 1)i , E(3) =
h(1, 0, 1)i , E(4) = h(1, 1, 1)i. La base normalizada es entonces


1
1
1
0
X = (1, 2, 1) , (1, 0, 1) , (1, 1, 1)
6
2
3
Se tiene entonces que
mX 0 (q) = C T AC
1

6
1

2
1
3

1
= 0
0

0
3
0

2
6

0
1

0
0
4

1
6
1
2
1
3

1
0

1
0

2 1
1
3

1
6
2
6
1
6

0
1
2

1
3
1

3
1
3

y la forma cuadr
atica q en esta nueva base es una suma de cuadrados donde los coeficientes son los
valores propios de A:
2

q(u) = (10 ) + 3 (20 ) + (30 ) .


Se contrasta este resultado con el obtenido por el metodo de Lagrange en el Ejemplo 2 de la lecci
on
anterior: como anotamos arriba, en este caso C 1 = C T , es decir, A y la matriz diagonal de valores
propios son similares.


10.3. FORMAS CUADRATICAS
Y FORMAS HERMITICAS

207

Corolario 10.1. Sea V un espacio real o complejo de dimensi


on finita n. Sean f, g formas sesquilineales hermitianas sobre V tales que g(u, u) > 0, u V 0. Entonces existe una base ortonormal
X = {v1 , ..., vn } en V tal que
f (u, u) =

n
X

k=1

k |k |

g(u, u) =

n
X

k=1

|k |2

(10.11)

donde 1 , ..., n R y 1 , ..., n son las coordenadas de u en la base X.


Demostraci
on: En efecto, definimos en V el producto
hu, vi = g(u, v),

u, v V

N
otese que entonces V es un espacio con producto interno. Seg
un la proposicion anterior existe una
base ortonormal X = {v1 , ..., vn } en V y 1 , ..., n R tales que la forma cuadratica asociada a f es
como en (10.11).
Tambien,
hu, ui = g(u, u) =

n
X

k=1

k vk

n
X

k=1

k vk

n
X

k=1

|k |2 . 


Algebra
Lineal
Captulo 10. Formas Cuadr
aticas
Ejercicios.
1. Usar la demostracion de la Proposicion 1 de la Leccion 3 del presente captulo para
expresar la forma cuadratica
q : R3 R
q (x, y, z) = 3x2 + 2y 2 + 3z 2 2xy 2yz
como una suma de cuadrados. Realizar tambien el ejercicio por el metodo de Lagrange y
comparar los resultados.
2. Supongase que q : V R es una forma cuadratica asociada al producto interno ( , )
de V . Probar que para cualesquiera vectores u, v V se tiene que
1
(q (u + v) q (u) q (v))
2
3. Sea q : V R es una forma cuadratica y supongase que
(u, v) =

q (u) = (u, T (u))


q(u) = (u, S(u))
para un par T, S de transformaciones simetricas del espacio V . Demostrar que T = S.
4. Sea q (x, y) = ax2 +bxy+cy 2 la forma cuadratica asociada a una forma bilineal simetrica
f definida sobre R2 . Demostrar que f es no degenerada si y solo si b2 4ac 6= 0.


Algebra
Lineal
Captulo 10. Formas Cuadr
aticas
Ejercicios.
1. Usar la demostracion de la Proposicion 1 de la Leccion 3 del presente captulo para
expresar la forma cuadratica
q : R3 R
q (x, y, z) = 3x2 + 2y 2 + 3z 2 2xy 2yz
como una suma de cuadrados. Realizar tambien el ejercicio por el metodo de Lagrange y
comparar los resultados.
2. Supongase que q : V R es una forma cuadratica asociada al producto interno ( , )
de V . Probar que para cualesquiera vectores u, v V se tiene que
1
(q (u + v) q (u) q (v))
2
3. Sea q : V R es una forma cuadratica y supongase que
(u, v) =

q (u) = (u, T (u))


q(u) = (u, S(u))
para un par T, S de transformaciones simetricas del espacio V . Demostrar que T = S.
Soluci
on. Sean u, v vectores cualesqueira de V , entonces
q(u + v, u + v) =(u + v, T (u + v))
=(u, T (u)) + (u, T (v)) + (v, T (u)) + (v, T (v))
=q(u) + (T (v), u) + (v, T (u)) + q(v)
=q(u) + (v, T (u)) + (v, T (u)) + q(v)
=q(u) + (v, T (u)) + (v, T (u)) + q(v)
=q(u) + q(v) + 2(v, T (u)).
De igual manera q(u+v, u+v) = q(u)+q(v)+2(v, S(u)), igualando se tiene que (v, T (u)) =
(v, S(u)), para cualesquiera vectores u, v V . Por lo tanto, T (u) = S(u), es decir, T = S.
4. Sea q (x, y) = ax2 +bxy+cy 2 la forma cuadratica asociada a una forma bilineal simetrica
f definida sobre R2 . Demostrar que f es no degenerada si y solo si b2 4ac 6= 0.

210

CAPITULO 10. FORMAS CUADRATICAS

Captulo 11

T
opicos Especiales y Aplicaciones

211


Algebra
Lineal
Captulo 11. T
opicos Especiales y Aplicaciones
11.1. Formas cuadr
aticas y geometra analtica
Mostramos en esta leccion una aplicacion de las formas cuadraticas a geometra analtica.
En el captulo anterior vimos que toda forma sesquilineal hermintiana puede ser reducida
a una suma de cuadrados mediante un cambio de base, o lo que es lo mismo, mediante
un cambio de coordenadas. En efecto, sea V es un espacio vectorial real o complejo de
dimension finita n y q una forma cuadratica sobre V definida por una forma sesquilineal
hermitiana f . Sea X = {x1 , . . . , xn } una base cualquiera de V y sea A = mX (f ), entonces
sabemos que
q (u) = ZAZ
donde Z = [1 , . . . , n ] es el vector de coordenadas de u respecto de la base X, es decir,
u = 1 .x1 + + n .xn . Vimos que si X 0 = {x01 , . . . , x0n } es la base de V conformada por
vectores propios ortonormalizados de A, y C es la matriz de cambio de X a X 0 , es decir,
las columnas de C son las coordenadas de los vectores de X 0 es terminos de la base X,
entonces q en la base X 0 es diagonal:

1
0

0
0 2
0 2
..
q (u) = Z 0
(Z ) = 1 |1 | + + n |n |
.
0
n

donde i son los valores propios de A y Z 0 = [10 , . . . , n0 ] es el vector de coordenadas de u


respecto de la base X 0 , es decir, u = 10 .x1 + + n0 .xn . Vimos ademas que C es unitaria
y tal que

1
0

T
...

= C AC
0
n
1
es decir, C
= C T . Notemos que con la matriz C se puede expresar el cambio de
coordenadas:

10
1
..
1 .
. = C ..
n0

Si en particular estamos considerando un caso real, entonces C es una matriz ortogonal


y C 1 = C T .
As pues, mediante un cambio de base, o lo que es lo mismo, mediante un cambio de
coordenadas inducido por la matriz C de vectores propios ortonormalizados de la matriz
A, una forma cuadratica real puede ser reducida a una suma de cuadrados, donde los
coeficientes de la suma son los valores propios de A y C es una matriz ortogonal.
1

a. C
onicas. Usaremos los resultados anteriores para interpretar geometricamente los
puntos (x, y) del plano R2 que satisfacen una ecuacion de orden 2 de la forma
ax2 + bxy + cy 2 + dx + ey + f = 0

(1)

Veremos a continuacion que el conjunto solucion de (1) es alguna de las siguientes curvas:
(a) Una elipse
(b) Una hiperbola
(c) Una parabola
(d) Vaco
(e) Un punto
(f) Una recta
(g) Dos rectas
Consideremos en (1) la parte cuadratica q(x, y) = ax2 + bxy + cy 2 , esta es una forma
cuadratica con matriz simetrica real


a 2b
A= b
c
2
calculada en la base canonica de R2 . Mediante la matriz C de vectores propios ortonormalizados podemos reducir q a una suma de cuadrados con el respectivo cambio de coordenadas, digamos x0 , y 0 . De esta manera, la ecuacion (1) se transforma en otra de la
siguiente forma
2
2
1 (x0 ) + 2 (y 0 ) + d0 x0 + e0 y 0 + f = 0
(2)
donde 1 , 2 son los valores proopios de A y d0 , e0 , f 0 R. Notemos que 1 , 2 determinan
que tipo de curva es la solucion de (1):
(i) si 1 2 > 0, entonces 1 , 2 son del mismo signo y tenemos en este caso una elipse, un
punto o vaco.
(ii) Si 1 2 < 0, entonces 1 2 son de signo contrario y tenemos en este caso una hiperbola,
o dos rectas.
(iii) Si 1 = 0 pero 2 6= 0 o bien 1 6= 0 pero 2 = 0, entonces tenemos una parabola,
una recta, o vaco.
(iv) Si 1 = 0 = 2 entonces A = 0 y tenemos una recta o vaco.
Finalmente, calculemos el polinomio caracterstico de A:


z a 2b
pA (z) =
2b z c

, determinant: ac az cz 14 b2 + z 2 = z 2 (a + c) z + ac 14 b2 = (z 1 ) (z 2 ),
por lo tanto


1 2
1 2 = ac b .
4
2

4ac b2 se conoce como el discriminante de la forma cuadratica q y determina el tipo


de conica que representa la ecuacion (1).
Ejemplo 1. Determinar la conica definida por la ecuacion
19x2 + 4xy + 16y 2 212x + 104y = 356

(3)

Mostrar los cambios de coordenadas realizados.


Solucion. Consideremos la cuadratica asociada a esta curva:
19x2 + 4xy + 16y 2
Su discriminante es 4ac b2 = 4 19 16 16 = 1200 > 0, por lo tanto tenemos una
elipse, un punto o vaco. Su matriz simetrica es


19 2
A=
2 16
Calculemos la matriz diagonalizante conformada por los vectores propios de A normalizados: E(15)
=< (1, 2) > y E(20) =< (2, 1) >, notemos que efectivamente 1 2 =

ac 41 b2 ; normalizamos ahora los vectores propios:

k(1, 2)k = 5

k(2, 1)k = 5
Por lo tanto,



1
1 2
C=
2 1
5
Las nuevas coordenadas (x0 , y 0 ) estan relacionadas con las coordenadas iniciales (x, y) en
la siguiente forma
 0  

1  
1
x
1 2
x
=
0
y
2 1
y
5

Teniendo en cuenta que queremos expresar (3) en forma cartesiana a traves de las nuevas
coordenadas, entonces

  0 
  
1
1 2
x
x
=
2 1
y0
y
5
es decir,
x = 15 (x0 + 2y 0 )
y = 15 (2x0 + y 0 )
Reemplazando en (3) se tiene
2




1
1
1
0
0
0
0
0
0
(2x + y ) +
19 (x + 2y ) + 4 (x + 2y )
5
5
5

2




1
1
1
0
0
0
0
0
0
16 (2x + y ) 212 (x + 2y ) + 104 (2x + y ) = 356
5
5
5
3

15(x0 )2 + 20(y 0 )2 + 84x0 5 64y 0 5 = 356

Podemos ahora completar cuadrados


!
!
5 0
5
64
84
y = 356
15 (x0 )2 +
x0 + 20 (y 0 )2
20
15


2
2
14
8
0
0
15 x +
+ 20 y
= 1200
5
5
Podemos asegurar que tenemos una elipse. Al realizar un nuevo cambio de coordenadas
mediante una traslacion,
14
x00 = x0 +
5
8
y 00 = y 0 ,
5
la ecuacion (3) en este nuevo sistema de coordenadas se transforma en
2

15 (x00 ) + 20 (y 00 ) = 1200.
Notemos que el centro de la elipse en el sistema original de coordenadas es
 


1
1
14
8
0
0
x = (x + 2y ) =
+ 2
=6
5
5
5
5
 


1
1
14
8
0
0
y = (2x + y ) = 2
+
= 4.
5
5
5
5
La grafica es

Ejemplo 2. Determinar la conica definida por la ecuacion


x2 + 4xy 2y 2 12 = 0

(4)

Mostrar los cambios de coordenadas realizados.


Solucion. La forma caudratica asociada es
q(u) = x2 + 4xy 2y 2
Su discriminante es 4ac b2 = 24 < 0, por lo tanto tenemos una hiperbola o dos rectas.
Su matriz simetrica es


1 2
A=
2 2
Los valores y vectores propios son E(2) =< (2, 1) >, E (3) =< (1, 2) >, con norma

k(2, 1)k = 5

k(1, 2)k = 5
luego la matriz de cambio es

1
C=
5
entonces

es decir,

x
y

x=
y=

1
5
1
5

2 1
1 2

2 1
1 2

 

x0
y0

(2x0 y 0 )
(x0 + 2y 0 )

Reemplazando en (4) encontramos




2




2
1
1
1
1
0
0
0
0
0
0
0
0
(2x y ) + 4 (2x y )
(x + 2y ) 2 (x + 2y ) 12 = 0
5
5
5
5
0 2
0 2
2(x ) 3(y ) = 12
Notemos que el centro de la hiperbola en el sistema original de coordenadas es (0, 0). La

grafica es

Ejemplo 3. Determinar la conica definida por la ecuacion


9x2 + 24xy + 16y 2 52x + 14y = 6

(5)

Mostrar los cambios de coordenadas realizados.


Solucion. La cuadratica asociada es
q(u) = 9x2 + 24xy + 16y 2
con discriminante 4ac b2 = 0, por lo tanto tenemos una parabola, una recta o vaco.
La matriz simetrica asociada es


9 12
A=
12 16
con valores y vectores propios E(0) =< (4, 3) >, E (25) =< (3, 4) >; normalizando
k(4, 3)k = 5
k((3, 4))k = 5
por lo tanto la matriz de cambio es
1
C=
5

4 3
3 4

y el cambio correspondiente de coordenadas es



 0 
 
1 4 3
x
x
=
y
3 4
y0
5
6

es decir
1
(4x0 + 3y 0 )
5
1
y = (3x0 + 4y 0 )
5

x=

Reemplazando en (5) se tiene que



2



1
1
1
0
0
0
0
0
0
9
(4x + 3y ) + 24
(4x + 3y )
(3x + 4y ) +
5
5
5

2




1
1
1
0
0
0
0
0
0
16
(3x + 4y ) 52
(4x + 3y ) + 14
(3x + 4y ) = 6
5
5
5
es decir,
25(y 0 )2 20y 0 + 50x0 = 6

Completando cuadrados tenemos

5(y 0 )2 4y 0 + 10x0


4 0
0 2
5 (y ) y + 10x0
5


4 0
0 2
(y ) y + 2x0
5


4 0
4
0 2
(y ) y +
+ 2x0
5
25
2

2
0
y
+ 2x0
5

2
1
2
0
y
+ x0
2
5

6
5
6
=
5
6
=
25
6
4
=
+
25 25
=

2
5

1
5

1
1
x =
5
2
0

Tenemos pues una parabola. Mediante la traslacion


1
5
2
y 00 = y 0
5

x00 = x0

resulta entonces

1
2
x00 = (y 00 )
2
7

2
y
5
0

2

Notemos que el vertice de la parabola original esta en el punto


  
 
1
1
2
2
x=
4
+3
=
5
5
5
25
  
 
1
1
2
11
y=
3
+4
=
5
5
5
25
La grafica de (5) es

El angulo de rotacion de los ejes viene dado por


  
 0 
x
cos sen
x
=
y
sen cos
y0
es decir,
x = x0 cos y 0 sen
y = x0 sen + y 0 cos
En efecto, utilizando coordenadas polares para representar las coordanadas iniciales x, y
tenemos
x = rcos, y = rsen
Entonces para el nuevo sistema de coordenadas x0 , y 0 sus coordenadas polares son
x0 = rcos( + ) = rcoscos sensen = xcos ysen
y 0 = rsen( + ) = rsencos + rcossen = ycos + xsen
8

De otra parte,
tan (2) =

b
ac

(6)

En efecto, reemplazando las identidades anteriores en (1) se tiene que el coeficiente para
el termino x0 y 0 debe ser nulo, pero en el reemplazo este coeficiente es
csen (2) + b cos (2) asen (2) = 0
y de esto resulta (6).
En el Ejemplo 1 se tiene que

4
tan (2) = .
3


Algebra
Lineal
Captulo 11. T
opicos Especiales y Aplicaciones
11.2. Inversa generalizada
Definimos en esta leccion la inversa generalizada de una matriz rectangular real cualquiera,
probamos algunas propiedades, mostramos una manera de calcularla y finalmente mostramos
una aplicacion.
Para definir la inversa generalizada necesitamos algunos preliminares.
Proposici
on 1. (i) Sea B Mmk (R) una matriz real, entonces

rank B T B = rank (B) .

(ii) Sea C Mkn (R) una matriz real, entonces



rank CC T = rank (C) .


Demostraci
on. Basta probar que ker B T B = ker (B). Sea X ker B T B , entonces
B T BX = 0, luego X T B T BX = 0, de donde (BX)T (BX) = 0, por lo tanto, BX = 0, es
decir, X ker(B). Rec
procamente, si X ker(B) entonces BX = 0 y B T BX = 0, es

decir, X ker B T B .
Proposici
on 2. Sea A Mmn (R) una matriz real tal que rank (A) = k 1. Entonces
existen matrices B Mmk (R) y C Mkn (R) tales que
A = BC, y ademas rank (B) = k = rank(C).

Demostraci
on. Por medio de operaciones elementales sobre las filas de A podemos encontrar una matriz invertible T 1 tal que T 1 A es escalonada con k filas no nulas; de
igual forma, por medio de operaciones elementales sobre las columnas de T 1 A podemos
encontrar una matriz Q1 tal que T 1 AQ1 es de la forma

Ek,k
Ok,nk

T 1 AQ1 =
Omk,k
Omk,nk
Se tiene entonces que

A=T

Ek,k

Ok,nk

Omk,k

Omk,nk

luego

A=

Sea

Tk,k

Tk,mk

Tmk,k

Tmk,mk

Tk,k

Ok,nk

Tmk,k

Omk,nk

Tk,k

Ok,nk

Tmk,k

Omk,nk

Ek,k

Ok,nk

Omk,k

Omk,nk

Qk,k

Qk,nk

Qnk,k

Qnk,nk

Tk,k Qk,k

Tk,k Qk,nk

Tmk,k Qk,k

Tmk,k Qk,nk

A11 = Tk,k Qk,k , A12 = Tk,k Qk,nk


A21 = Tmk,k Qk,k , A22 = Tmk,k Qk,nk ,
Salvo permutacion de filas y columnas podemos asumir que A11 es invertible de orden
k k. En efecto, como T es invertible entonces

Tk,k
Tk,mk
Ek,k
Ok,nk

Tmk,k
Tmk,mk
Omk,k
Omk,nk

Tk,k
Ok,nk

=
Tmk,k
Omk,nk

es de rango k, luego podemos intercambiar las filas de esta matriz y suponer que Tk,k es
invertible. De igual manera, salvo permutacion de columnas, Qk,k es invertible, con lo
cual A11 es invertible.
Hemos demostrado que si P y R son productos de matrices de permutacion, entonces
P AR = B 0 C 0
donde
0

B =
Entonces,

A11
A21

, C0 =

Ek,k A1
11 A12

A = BC
2

donde B = P 1 B 0 y C = C 0 R1 cumplen las condiciones de la proposicion.


Definici
on 1. Sea A Mmn (R) una matriz real tal que rank (A) = k 1, y sean B, C
como en la proposicion anterior. Definimos
1 T 1 T
A+ = C T CC T
B B
B

A+ es una matriz real de tama


no n m y tiene las siguientes propiedades basicas, las
cuales se verifican directamente de la definicion.
Proposici
on 3. (i) A+ AA+ = A+
+
(ii) AA A = A
(iii) AA+ es simetrica
(iv) A+ A es simetrica.
Las propiedades anteriores caracterizan la matriz A+ tal como veremos a continuacion.
Proposici
on 4. Si A0 es una matriz real de orden n m tal que
0
0
(i) A AA = A0
(ii) AA0 A = A
(iii) AA0 es simetrica
(iv) A0 A es simetrica
entonces A0 = A+ .
Demostraci
on. Se tiene

AA0 = AA+ A A0
por (ii)

T
= AA+ AA0
por (iii)

T
T
= (AA0 ) AA+
= AA0 AA+
por (iii) y (iii)
+
= AA
por (ii).
De igual manera, usando (ii), (ii),(iv),y (iv) se tiene que

A0 A = A0 AA+ A
T
= A0 AA+ A
T
T
= A+ A (A0 A)
= A+ AA0 A
= A+ A.
De las dos identidades probadas y usando (i) y (i) resulta
A+ = A+ AA+
= A0 AA+
= A0 AA0
= A0 .
3

Definici
on 2. La matriz A+ caracterizada por las 4 propiedades de la proposicion anterior
se denomina la inversa generalizada de A.
Otras propiedades de la inversa generalizada son las siguientes.
Proposici
on 5. (i) rank (A+ ) = rank (A)
+
(ii) (A) = 1 A+ , para 6= 0
+
T
(iii) (A+ ) = AT
+
(iv) (A+ ) = A
(v) A es simetrica si y solo si A+ es simetrica
(vi) Si A es invertible, entonces A+ = A1 .
(vii) 0+ = 0.
Demostraci
on. Todas las propiedades se prueban directamente, veamos por ejemplo
la prueba de (i): rank (A+ ) = rank (A+ AA+ ) rank (A+ A) rank (A), tambien
rank (A) = rank (AA+ A) rank (A+ A) rank (A+ ).
1 T 1 T
(vi) Si A es invertible una descomposicion de A es A = AE, luego A+ = E T EE T
A A
A =

1
A1 AT
AT = A1 .
La descomposicion de la Proposicion 2 da un metodo para calcular la inversa generalizada
de una matriz rectangular A.
Ejemplo 1. Calcular la inversa generalizada de

1
0
1
2
1
1
0 1

0 1
1
3

A=

0
1
1
3

1 1
0
1
1
0 1 2
Soluci
on. En este caso A es de rango 2 y ademas


1 0
A11 =
1 1
es tambien de rango 2, por lo tanto
A = BC
con

B=

C=

1
0
1
1

0 1

0
1

1 1
1
0

1 0 1 2
0 1 1 3
4

Luego
1 T 1 T
A+ = C T CC T
B B
B
11

7
17 
17

6
1
1
7
13 16 16 16
17
17
6
3

= 4
1
1
17
16
13 13 16 16
17
6
4
1
17
17

5
3
1
1
3
5
34 17
34
34
17
34
13
5
5
13
4
4
102
102
51
51
102
102

=
5
1
1
5
7
7
51
102
102
102
102
51
1
1
3
3
1
1
34
34
17
17
34
34

15 18
3 3
18 15
1
8
13 5
5 13 8

=
7
5
2 2 5 7
102
6 3
9 9
3 6

Podemos comprobar resultado:

1
0
1
2
1
1
0 1
0 1
1
3
0
1 1 3
1 1
0
1
1
0 1 2

1
0
1
2
1
1
0 1
0 1
1
3
0
1 1 3
1 1
0
1
1
0 1 2

15 18
3 3
18 15

8
13 5
5 13 8

102
7
5
2 2 5 7

6 3
9 9
3 6

1
0
1
2
1
1
0 1
0 1
1
3
0
1 1 3
1 1
0
1
1
0 1 2

Ejemplo 2. Sea A Mmn (R) y sean P y R permutaciones de orden m y n respectivamente. Si S = P AR, entonces
A+ = RS + P
En efecto, sea A = BC con B Mmk (R) , C Mkn (R) ambas de rango k. Notemos
entonces que S es tambien de rango k y una factorizacion de S es S = (P B) (CR). Se

tiene entonces que


+

S = (CR)

1 

1
(P B) (P B)
(P B)T
1 T T
BT P T P B
B P

CR (CR)
1
= RT C T CRRT C T
1 T 1 T
B B
B P
= RC T CC T
+
= RA P

luego RS + P = RRA+ P P = A+ .
Ejemplo 3. Calcular la inversa generalizada de

1
1
2 3
3
3
4
1
2
15
A=
4
5
1
1
18
2 3
3 5 12

Solucion. Notemos que rank (A) = 3, pero el bloque superior izquierdo de orden 3 tiene
rango 2:

1 1
2
3 4 1
4 5
1

Debemos entonces aplicar el ejemplo anterior y permutar filas y/o columnas para ubicar
el bloque A11 invertible. Calculamos la forma escalonada reducida de la matriz A sin
realizar intercambios de filas ni columnas:

1 0
9 0 3
0 1 7 0
6

0 0
0 1
0
0 0
0 0
0

Esto permite identificar las filas y columnas apropiadas: debemos entonces considerar las
tres primeras filas y las columnas 1, 2 y 4:

1
1 3
2
3
3
4
2 1
15

AR = S =
4
5
1
1
18
2 3 5
3 12
donde R = P34 . Seg
un el Ejemplo 2, debemos calcular S + y luego obtener A+ = RS + .
Entonces,


S11 S12
S=
S21 S22
6

luego
S = MN
donde

M=

N=
Se tiene pues que




S11
S21

E3

1
1

3
4
=
4
5
2 3

1

1

S11 S12 = 0
0

3
2

1
5

0 0
9 3
1 0 7
6
0 1
0
0

1
1 T
S+ = N T N N T
MT M
M
86

81
0
1265
1265
91
14
81

19
3
3
1265 1265 0 23
31

0 1
=
6
6
90

1
1
4

0
2
2
55
55
228
303
0
1265109 1265 757
313
106
1518 7590 2530
3795
133
41
35 257
7590
2530
3795
1518
1
1
1
2
0
=
2
2
16
109
41
29

165
33
55
165
39
243
141
24

506
2530
2530
1265

Debemos ahora intercambiar la 3 y la 4 filas:


109
757
1518 7590
35 257
7590
1518
+
16
109

A =
33
165

1
12
2
39
506

=
7590

243
2530

313
2530
133
2530
41
55
1
2
141
2530

7
11
2

1
2

5
3
43

106
3795
41
3795
29
165

24
1265

545 757
939
212
175 257
399
82
3680 5014 5658 1334
3795 3795 3795
0
585
729 423 144

Finalmente vamos a comprobar la respuesta:

1
1
2
3
4 1

4
5
1
2 3
3

1
1
2
3
4
1

4
5
1
2 3
3
Ejemplo 4. Si

545 757
939
212
175 257
399
82
3680 5014 5658 1334
3795 3795 3795
0
585
729 423 144

3
3

2
15
1
1
18 7590

5 12

3
3
2
15

1
18
5 12
B Mmk (R) y rank (B) = k, entonces
B+ = BT B

1

1
1
2 3
3
3
4 1
2
15
=
4
5
1
1
18
2 3
3 5 12

BT

De igual manera, si C Mkn (R) y rank (C) = k, entonces


C + = C T CC T

1

1 T 1 T
1 T
En efecto, B = BE y por lo tanto B + = E T EE T
B B
B = BT B
B .



1
1
1
Tambien, C = EC, luego C + = C T CC T
ET E
E T = C T CC T
.
De lo anterior se tiene que
A+ = C + B + .


Algebra
Lineal
Captulo 11. T
opicos Especiales y Aplicaciones
11.3. Ecuaciones diferenciales
En esta leccion mostramos algunas aplicaciones del algebra lineal a las ecuaciones diferenciales ordinarias con coeficientes constantes y a los sistemas de ecuaciones diferenciales
lineales de primer orden.
a. Ecuaciones diferenciales ordinarias con coeficientes constantes.
Sea V = C (a, b) el espacio de las funciones de (a, b) en R cuyas derivadas de cualquier
orden son continuas. Consideremos el operador lineal de derivacion
D : V V.
Sea p(x) = a0 + a1 x + + an1 xn1 + xn un polinomio con coeficientes reales el cual se
puede factorizar completamente en R en la forma
p(x) = (x 1 )r1 (x k )rk ,
donde i R, 1 ri n , 1 i k, 1 k n y sea
p(D) = a0 Iv + a1 D + + an1 Dn1 + Dn = (D 1 IV )r1 (D k IV )rk
la transformacion polinomial correspondiente. El n
ucleo de p(D) se conoce como el espacio
solucion de la ecuacion diferencial ordinaria homogenea
a0 y + a1 y (1) + + an1 y (n1) + y (n) = 0,

(1)

donde y (k) denota la derivada de orden k de la funcion y = f (x) V . Puesto que


W = ker(p(D)) es D-invariante, entonces podemos redefinir D como una transformacion
de W en W :
D : W W,

de tal forma que p(x) se anula en este nuevo operador D. Queremos demostrar que la
dimension del espacio W es n. Seg
un anotamos despues de la demostracion del teorema de
descomposicion irreducible, las partes a) y b) de dicho teorema son validas para espacios
de dimension infinita y para polinomios que se anulen en la transformacion. Por lo tanto,
el espacio W se descompone en la forma
W = W1 Wk ,
donde Wi = N [(D i IW )ri ] , 1 i k. Visto de esta manera, cada solucion y = f (x)
de la ecuacion diferencial (1) se puede expresar de manera u
nica en la forma
f (x) = f1 (x) + + fk (x),
1

donde fi (x) Wi , 1 i k. Mejor an, reuniendo bases de W1 , . . . , Wk obtenemos una


base de W.
El problema entonces se reduce a encontrar el espacio solucion de ecuaciones diferenciales
de la forma
(D I)r y = 0
(2).
Mediante induccion sobre r se puede probar fcilmente que
(D I)r y = 0 Dr (ex y) = 0.
En efecto, para r = 1 se tiene que si (D I)y = 0 , entonces
dy
= y
dx
dy
= dx
y
Z
Z
dy
= dx
y
ln (y) = x + c

eln(y) = ex+c
y = bex , b R
d (ex y)
d (b)
=
=0
dx
dx
Es decir, D(ex y) = 0.
Recprocamente, si D(ex y) = 0, entonces
ex Dy yex = 0
Dy y = 0
(D I) y = 0
Supongamos que (2) es cierta para r y sea (DI)r+1 y = 0, entonces (DI)r ((D I) y) =
0; sea z = (D I) y, entonces (D I)r z = 0, y por induccion se tiene que Dr (ex z) =
0. Por lo tanto, Dr (ex ((D I) y)) = 0, es decir, Dr (ex Dy ex y) = 0. Puesto
que Dr es un operador lineal entonces se tiene que Dr (ex Dy) Dr (ex y) = 0. Pero
notemos que





Dr+1 ex y = Dr D ex y = Dr ex Dy yex = Dr ex Dy Dr yex ,
es decir, que Dr+1 (ex y) = 0.
Recprocamente, supongamos que Dr+1 (ex y) = 0, entonces como acabamos de ver se
tiene que Dr (ex Dy) Dr (yex ) = 0, es decir, Dr (ex Dy yex ) = 0, lo cual
2

significa que Dr (ex ((D I) y)) = 0, o sea que Dr (ex z) = 0 con z = (D I) y,


por induccion entonces se tiene que (D I)r z = 0, es decir, (D I)r (D I) y = 0,
por lo tanto, (D I)r+1 y = 0.
Tambien, mediante induccion sobre r se demuestra que
Dr y = 0 y = b0 + b1 x + + br1 xr1 .
En consecuencia, el aspecto general de una solucion de la ecuacion (2) es
y = f (x) = ex (b0 + b1 x + + br1 xr1 ),
es decir, el espacio solucion de (2) es la envolvente lineal del conjunto de vectores
{ex , xex , . . . , xr1 ex },
los cuales son L I.
Aplicando estas conclusiones a los espacios Wi se tiene que dim(Wi ) = ri y
{ei x , xei x , . . . , xri 1 ei x }
es una base para Wi . Por lo tanto, dim(W ) = r1 + + rk = n y ademas
{e1 x , xe1 x , . . . , xr1 1 e1 x , . . . , ek x , xek x , . . . , xrk 1 ek x }
es una base de W .
Ejemplo 1. (a) Calcular la solucion general de la ecuacion diferencial
y 000 2y 00 3y 0 = 0
El polinomio asociado a esta ecuacion es
x3 2x2 3x
cuya factorizacion completa es
x (x + 1) (x 3)

Por lo tanto, la solucion general del la ecuacion diferencial es


y = c1 + c2 ex + c3 e3x .
(b) Calcular la solucion general de la ecuacion diferencial
y 0000 + 4y 000 + 6y 00 + 4y 0 + y = 0
El polinomio asociado a esta ecuacion es
x4 + 4x3 + 6x2 + 4x + 1
3

cuya factorizacion completa es

(x + 1)4

Por lo tanto, la solucion general de la ecuacion diferencial dada es


c1 ex + c2 xex + c3 x2 ex + c4 x3 ex .
b. Sistemas diagonalizables de ecuaciones diferenciales lineales de primer orden.
Consideremos ahora sistemas de ecuaciones diferenciales de tipo especial. Sean y1 , ..., yn
funciones diferenciables en un intervalo real (a, b) , A Mn (R) una matriz real de orden
n 1 y sea B Mn1 (R) una matriz columna real.
El sistema
dY
= AY definido por
dy dx

1
a11 a1n
dx

..


=
.
dyn
an1 ann
dx

y1
..
.
yn

(3)

se denomina sistema homogeneo de ecuaciones diferenciales lineales de primer orden.


Notemos que el conjunto solucion V de (3) es un subespacio vectorial de C(a, b)
C(a, b), en efecto, V no es vaco ya que el arreglo nulo 0 = (0, ..., 0) de funciones nulas
satisface el sistema homogeneo. De otra parte, si Y, U son soluciones del sistema homogeneo, entonces claramente el arreglo suma Y + U es nuevamente una solucion. En la
misma forma si a es un real entonces a.Y V .
Un sistema homogeneo se dice diagonalizable si la matriz A es diagonalizable. Sea
dY
= AY un sistema diagonalizable tal que C 1 AC = D = diag (d1 , ..., dn ). Entonces la
dx
solucion general del sistema homogeneo es

y1
c1 ed1 x

..
Y = ... = C

.
cn edn x

yn

donde c1 , ..., cn son constantes reales.


En efecto, El sistema dY
= AY se puede escribir en la forma C 1 dY
= DC 1 Y =
dx
dx
d
D (C 1 Y ), pero como C 1 tiene entradas constantes entonces C 1 dY
= dx
(C 1 Y ) =
dx
dW
D (C 1 Y ). Hacemos el cambio W = C 1 Y y resulta el sistema dx = DW . Puesto que
D es diagonal se obtiene el sistema

dw

1
w
1
d

0
dx
1
.
..
. = ..
dwn
0 dn
wn
dx
4

el cual tiene solucion

w1
c1 ed1 x

..
..

. =
.
dn x
wn
cn e

Teniendo en cuenta que Y = CW , la afirmacion esta probada.


Ejemplo 2. Resolver el siguiente sistema de ecuaciones diferenciales:
dy1
= y2
dt
dy2
= y3
dt
dy3
= 6y1 11y2 6y3
dt
donde adicionalmente se deben cumplir las condiciones iniciales
y1 (0) = 1, y2 (0) = 0, y3 (0) = 0
Soluci
on. La version matricial de este sistema es
dy1

0
1
0
y1
dt
dY
0
1 y2 = AY
= dydt2 = 0
dt
dy3
6 11 6
y3
dt

Calculamos el polinomio mnimo de A : x3 + 6x2 + 11x + 6 = (x + 3) (x + 2) (x + 1), esto


muestra que A es diagonalizable, y la matriz diagonalizante C es la matriz de vectores
propios:

1
1
1

vectores propios : 1 1, 2 2, 3 3

1
4
9

1
1
1
C = 1 2 3
1
4
9
La solucion general del sistema dado es entonces

y1
1
1
1
c1 et

Y = ... = 1 2 3 c2 e2t
1
4
9
c3 e3t
yn
y1 = c1 et + c2 e2t + c3 e3t
y2 = c1 et 2c2 e2t 3c3 e3t
y3 = c1 et + 4c2 e2t + 9c3 e3t
5

Por las condiciones iniciales adicionales se debe tener que


1 = c1 + c2 + c3
0 = c1 2c2 3c3
0 = c1 + 4c2 + 9c3
cuya solucion es h1 = 3, h2 = 3, h3 = 1. Por lo tanto, la solcuion del sistema de
ecuaciones diferenciales es:
y1 = 3et 3e2t + e3t
y2 = 3et + 6h2 e2t 3e3t
y3 = 3et 12e2t + 9e3t .
d. Sistemas de Jordan de ecuaciones diferenciales lineales de primer orden.
Un sistema homogeneo se dice de Jordan si la matriz A es un bloque elemental de Jordan.
= AY un sistema de Jordan de la forma
Sea dY
dx

a
0 0 0
dy
1
1
a 0 0

dx
...
..
0
. = 1

dyn
.
.. a 0
0
dx
0
0 1 a

y1
..
.
yn

Entonces, la solucion general del sistema es




c1
c2
k1
k2
yk =
x
+
x
+ + ck1 x + ck eax ,
(k 1)!
(k 2)!

(4)

k = 1, 2, ..., n

donde c1 , ..., cn son constantes reales arbitrarias.


1
En efecto, la primera ecuacion en (4) es dy
= ay1 , luego
dx
y1 = ceax .
La segunda ecuacion es

dy2
dx

= y1 + ay2 , pero consideremos

d (eax y2 )
dy2
= ay2 eax + eax
dx
dx
ax
ax
= ay2 e
+e
(y1 + ay2 )
ax
ax
= ay2 e
+e
(ceax + ay2 )
= ay2 eax + c + ay2 eax
= c.
6

(5)

Esto implica que eax y2 es de la forma eax y2 = c1 x + c2 , de donde


y2 = (c1 x + c2 ) eax .
Veamos un paso mas:

dy3
dx

= y2 + ay3 y consideremos la derivada de eax y3 :

ay3 eax + eax

por tanto eax y3 =

c1 2
x
2

dy3
= ay3 eax + eax (y2 + ay3 )
dx
= eax y2 = eax (c1 x + c2 ) eax
= c1 x + c2 ,

+ c2 x + c3 , es decir,
c

1 2
y3 =
x + c2 x + c3 eax .
2

Continuando de esta forma obtenemos la formula (5).


Ejemplo 3. Resolver el siguiente sistema de ecuaciones diferenciales:
dy1
= 2y3
dt
dy2
= y1 + 2y4
dt
dy3
= 4y4
dt
dy4
= y3
dt
donde adicionalmente se deben cumplir las condiciones iniciales
y1 (0) = 1, y2 (0) = 0, y3 (0) = 2, y4 (0) = 1
Soluci
on. La forma matricial del sistema es
dy1
0 0
dt
dy2

dY
dt
1 0
=
dy3 =

0 0
dt
dt
dy4
0 0
dt

2
0
0
1

0
y1

2 y2
4 y3
0
y4

= AY

Calculamos el polinomio mnimo de A: x4 4x2 = x2 (x 2) (x + 2). El sistema de


ecuaciones no es diagonalizable. Calculemos entonces la forma de Jordan de A, se tienen
entonces 3 bloques de Jordan pertenecientes a los valores propios 0, 2, 2. Caculemos los
espacios propios:

0
2
2

1
2
2

vectores propios: 0,
2, 2
0
2
2

0
1
1
7

Cada bloque tiene una sola celda elemental de Jordan, y para el valor 0 la celda es de
tama
no igual a 2. La matriz J de Jordan es entonces

0 0 0 0
1 0 0 0

J =
0 0 2 0
0 0 0 2

Existe entonces una matriz invertible C tal que C 1 AC = J, por lo tanto, A = CJC 1 con
d(C 1 Y )
1
1 dY
1
lo cual dY
=
AY
=
CJC
Y
,
luego
C
=
J
(C
Y
),
es
decir,
= J (C 1 Y ).
dt
dt
dt
Haciendo el cambio
Z = C 1 Y
se tiene que

dZ
= JZ
dt
y para este sistema de ecuaciones diferenciales la solucion se puede calcular usando (5)
en cada celda de Jordan. Una vez se tengan las soluciones Z entonces podemos finalizar
el ejercicio mediante la identidad
Y = CZ.
Por lo tanto, debemos calcular la matriz C: recordemos que
R4 = W 1 W 2 W 3
donde

W1 = ker A2
W2 = ker (A 2E) =< (2, 2, 2, 1) >
W3 = ker (A + 2E) =< (2, 2, 2, 1) >
Para W1 necesitamos la descomposicion

0 0 2 0
1 0 0 2

0 0 0 4
0 0 1 0

cclica:
2

0 0 0

0 0 4
=

0 0 4
0 0 0

1
0

0
1
W1 = ker(A2 ) =<
0 , 0
0
0

8
0

0
4

>

Pero en este caso la descomposion cclica de W1 tiene un solo sumando ya que el operador
N1 = A : W1 W1 es tal que dim (ker(N1 )) = dim (E (0)) = 1. Por lo tanto, en este caso
8

necesitamos un vector w1 W1 tal que [w1 ] = W1 , se puede entonces tomar w1 = e1 y de


esta forma
W1 = [e1 ] =< e1 , Ae1 >=< (1, 0, 0, 0) , (0, 1, 0, 0) >
Se tiene entonces que

Podemos ya calcular la solucion:

1
0
C=
0
0

dZ
= JZ
dt
dz1
dZ
=

dt

dt
dz2
dt
dz3
dt
dz4
dt

z1
z2
z3
z4

0
1
=
0
0

Para cada celda aplicamos (5): zk =




0
1
0
0

2
2
2 2

2 2
1
1

0
0
0
0

c1
tk1
(k1)!

0 0
z1

0 0 z2
2 0 z3
0 2
z4
+

c2
tk2
(k2)!


+ + ck1 t + ck eat


c1
11
t
e0t = c1
=
(1 1)!


c1
c2
21
22
=
t
+
t
e0t = c1 t + c2
(2 1)!
(2 2)!


c1
=
t11 e2t = c3 e2t
(1 1)!


c1
11
=
t
e2t = c4 e2t
(1 1)!

La solucion general viene entonces dada por

y1
1 0 2 2
c1
y2 0 1 2 2 c1 t + c2

y3 = 0 0 2 2 c3 e2t
y4
0 0 1 1
c4 e2t

c1 + 2c3 e2t + 2c4 e2t


c2 + tc1 + 2c3 e2t 2c4 e2t

2c3 e2t 2c4 e2t


2t
2t
c3 e + c4 e

Finalmente, debemos considerar las condiciones iniciales


1 = c1 + 2c3 + 2c4
0 = c2 + 2c3 2c4
2 = 2c3 2c4
1 = c3 + c4
cuya solucion es c1 = 1, c2 = 2, c3 = 1, c4 = 0, por lo tanto
y1
y2
y3
y4

= 1 + 2e2t
= 2 t + 2e2t
= 2e2t
= e2t .

10

lgebra Lineal
Captulo 11. Tpicos Especiales y Aplicaciones
11.4. Producto tensorial de espacios vectoriales y matrices
En esta leccin denimos el producto tensorial de espacios vectoriales, transformaciones
lineales y matrices . Dos preliminares son necesarios para esta denicin.
a. Espacio cociente.
Denicin 1. Sea V un K-espacio y sea W un subespacio de V , se dene en V la relacin
de equivalencia inducida por W en la siguiente forma
v1

v2 , v1

v2 2 W

Esta relacin particiona al conjunto V en clases de equivalencia denotadas por v, es decir,


v = fu 2 V j u

vg = v + W = fv + w j w 2 W g.

El conjunto de estas clases de equivalencia se denota por V =W , es decir,


V =W = fv j v 2 V g:
Notemos que
v1 = v2 , v1 v2 2 W
v = 0 , v 2 W.
Este conjunto cociente tiene estructura de K-espacio vectorial.
Proposicin 1. V =W es un espacio vectorial sobre K respecto de las siguientes operaciones:
v + v 0 = v + v 0 , v; v 0 2 V
a:v = a:v, a 2 K:
Veamos algunas propiedades de esta construccin.
Proposicin 2. (a) La funcin cannica
J : V ! V =W
v 7! v
es una transformacin lineal.
(b) Si V es de dimensin nita, entonces
1

dim (V =W ) = dim(V )

dim(W ):

En forma ms precisa, si X 0 = fx1 ; : : : ; xm g es una base de W y X = fx1 ; : : : ; xm ; xm+1 ; : : : ; xn g


es una base de V , entonces X 00 = fxm+1 ; : : : ; xn g es una base de V =W .
(c) Sea T : V ! V una transformacin lineal y sea W un subespacio invariante de V .
Sean X 00 ; X 0 ; X como en el literal anterior. Entonces, la matriz de T en la base X es de
la forma
mX (T ) =

mX 0 (T 0 )
mX 00 T

donde T 0 es la restriccin de T a W , y T : V =W ! V =W es la transformacin inducida


denida por
T (v) = T (v)
b. Propiedad universal de las bases y K (X)
El Teorema 2 de la Leccin 2 del Captulo 2 establece la propiedad universal de una base
X de un espacio vectorial V en el sentido que cada funcin t de X en un espacio W
se extiende en forma nica a una transformacin lineal T : V ! W , de tal forma que
T (x) = t(x), para cada x 2 X. De otra parte, recordemos que si K es un cuerpo y X
es un conjunto no vaco cualquiera, entonces K (X) denota el espacio vectorial con base
cannica X = fex gx2X , donde ex = (kz )z2X y kz = 0 si z 6= x y kx = 1.
Podemos ya emprender la construccin del producto tensorial de dos espacios vectoriales.
c. Producto tensorial de dos espacios vectoriales.
Sean U; V dos espacios vectoriales sobre un mismo cuerpo K, sea X el producto cartesiano
de los conjuntos U y V , es decir, X = U V . Notemos que en el conjunto X hemos
olvidado las estructuras de K-espacio que tienen U y V , a estos ltimos los estamos
tomando simplemente como conjuntos no vacos. Consideremos entonces el K-espacio
vectorial K (X) con base cannica Z = fex gx2X , donde ex es un arreglo de K (X) denido
por ex = (kz )z2X y kz = 0 si z 6= x y kx = 1. Notemos que los elementos de X son
parejas, es decir, un elemento x 2 X es de la forma x = (u; v). En otras palabras, el
conjunto de ndices X es un producto cartesiano de dos conjuntos, y ex = e(u;v) denota
el arreglo que tiene solamente una entrada no nula, la ubicada en la "posicin (u; v)", en
donde colocamos el escalar 1 2 K. Notemos entonces que un elemento de K (X) es una
combinacin lineal nita en la forma
r1 e(u1 ;v1 ) +

+ rt e(ut ;vt ) :

Observemos que el elemento anterior es un arreglo nito que tiene ubicados en la posicin
(u1 ; v1 ) al escalar r1 , en la posicin (u2 ; v2 ) al escalar r2 ,..., en la posicin (ut ; vt ) al escalar
rt y en todas las dems posiciones al escalar cero.
2

Esta notacin puede ser simplicarla de la siguiente manera: representemos el elemento


e(u;v) de la base cannica Z simplemente por (u; v) de tal forma que veamos a U V como
la base cannica de K (X) y a las parejas (u; v) como los elementos de esta base cannica.
As pues, podemos pensar en K (U V ) y considerar que la base cannica es U V . Con
esta notacin podemos decir que un elemento de K (U V ) es una combinacin lineal nita
de la forma
r1 (u1 ; v1 ) +
donde r1 ; : : : ; rt 2 K.
Sea S el subespacio de K (U

V)

+ rt (ut ; vt )

generado por todos los elementos de la siguiente forma

(u + u0 ; v) (u; v)
(u; v + v 0 ) (u; v)
r (u; v) (ru; v)
r (u; v) (u; rv)
y sea U

(u0 ; v)
(u; v 0 )

(1)

V el K-espacio vectorial cociente correspondiente, es decir,


U

V)

V = K (U

=S

Denotemos por u v a la clase de equivalencia (u; v) del cociente U V = K (U V ) =S.


Entonces en U V se tienen las siguientes propiedades fundamentales.
Proposicin 3. Para cualesquiera elementos u; u0 2 U; v; v 0 2 V y r 2 K se tiene que
(i) (u + u0 ) v = u v + u0 v
(ii) u (v + v 0 ) = u v + u v 0
(iii) r (u v) = ru v
(iv) r (u v) = u rv
Corolario 1. La funcin cannica
t:U V !U
(u; v) 7! u

V
v

es bilineal en cada argumento.


Denicin 2. El espacio vectorial U V se denomina el producto tensorial de U con V .
Observemos como es un elemento cualquiera de U V : sea z un elemento de U V , con
z 2 K (U V ) , entonces z es de la forma z = r1 (u1 ; v1 ) +
+ rt (ut ; vt ), por lo tanto en el
cociente U V = K (U V ) =S se tiene que
z = r1 u 1

v1 +
3

+ rt ut

vt

pero como r1 u1 ; : : : ; rt ut 2 U , entonces podemos siempre asumir que z es de la forma


u1

v1 +

+ ut

vt :

El producto tensorial tiene la siguiente propiedad universal.


Teorema 1. Sea W un K-espacio y sea f : U V ! U V una funcion bilineal.
Entonces, existe una nica transformacin lineal F : U V ! W tal que F t = f :
U

t
!
f&

#F
W

La tranformacin lineal F viene dada por


F (u

v) = f (u; v) .

Demostracin. La funcin f denida sobre la base cannica U V de K (U V ) induce una


nica transformacin lineal F 0 : K (U V ) ! W denida por F 0 (u; v) = f (u; v). Denimos
entonces la funcin F (z) = F 0 (z), donde z 2 K (U V ) . En particular, si z = (u; v) es un
bsico, entonces F (u v) = F 0 (u; v) = f (u; v). Debemos ver que F est bien denida.
Sean z1 ; z2 2 K (U V ) tales que z1 = z2 , entonces z1 z2 2 S y por lo tanto z1 z2 es una Kcombinacin lineal de elementos como en (1). Como F 0 es K-lineal, basta considerar cada
una de las cuatro relaciones de (1) por separado. Si z1 z2 = (u + u0 ; v) (u; v) (u0 ; v),
entonces
F 0 (z1

z2 ) = F 0 [(u + u0 ; v) (u; v) (u0 ; v)]


= f (u + u0 ; v) f (u; v) f (u0 ; v)
= 0, ya que f es bilineal.

De igual manera se consideran los otros tres casos de (1). Esto muestra que F 0 (z1 z2 ) =
0, es decir, F 0 (z1 ) = F 0 (z2 ), y F est bien denida.
De otra parte, como F 0 es K-lineal, entonces F es una transformacin lineal. Adems,
F t (u; v) = F (u v) = f (u; v), esto muestra que F t = f .
Para terminar la prueba, sea G otra transformacin lineal G : U
V ! W tal que
G t = f , entonces como G es una transformacin lineal basta considerar el caso u v.
As pues, G t (u; v) = f (u; v), es decir, G (u v) = f (u; v) = F (u v).
Presentamos a continuacin otras propiedades interesantes del producto tensorial.
Teorema 2. Sean U y V dos espacios vectoriales de dimensin nita n y m con bases
X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g, respectivamente. Entonces, X Y = fxi xj j
1 i n; 1 j mg es una base de U V , y en consecuencia, dimK (U V ) = nm.

Demostracin. Consideremos el K-espacio vectorial cannico K nm de dimensin nm;


notemos que K nm est conformado por arreglos nitos de nm entradas de K pegando
en forma sucesiva m arreglos de tamao n. La base cannica de K nm se puede entonces
representar por Z = fe1;1 ; : : : ; e1;m ; e2;1 ; : : : ; e2;m ; : : : ; en;1 ; : : : ; en;m g, donde el vector ei;j
tiene ubicado al 1 en la entrada (i 1) m + j, y las dems entradas son nulas.
Denimos entonces la transformacin lineal
T : K nm ! K (U V )
ei;j 7! xi yj , 1

n; 1

m.

De otra parte, consideremos la funcin


f : U V ! K nm
f (u; v) = a1 b1 e11 +
+ a1 bm e1m
+ a2 b1 e21 +
+ a2 bm e2m
..
.
+ an b1 en1 +
+ an bm enm
donde u = a1 :x1 +
+ an :xn y v = b1 :y1 +
+ bm :ym . Es facil ver que f es bilineal.
Por el Teorema 1 existe una transformacin lineal F : U
V ! K nm denida por
F (u v) = f (u; v) = a1 b1 e11 + +a1 bm e1m + +an b1 en1 + +an bm enm . Pero notemos
que F T = IK nm y tambin T F = IU V . Esto demuestra que T es un isomorsmo de
espacios vectoriales, con lo cual X Y es una base de U V y dimK (U V ) = nm.
d. Producto tensorial de transformaciones lineales y matrices
Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales donde X = fx1 ; : : : ; xn g es
una base de U , X 0 = fx01 ; : : : ; x0p g es una base de U 0 , Y = fy1 ; : : : ; ym g una base de V y
Y 0 = fy10 ; : : : ; yq0 g una base de V 0 . Entonces la funcin
T

F : U V ! U0 V 0
(u; v) 7! T (u) F (V )

es bilineal y por lo tanto induce una transformacin lineal


T

F : U V ! U0 V 0
u v!
7 T (u) F (V )

La transformacin T F se conoce como el producto tensorial de T con F . Se tiene


entonces la siguiente propiedad.
5

Teorema 3. Con la notacin anterior se tiene que


2
a11 B
6 ..
mX Y;X 0 Y 0 (T F ) = 4 .
ap1 B

3
a1n B
.. 7
. 5
apn B

donde A = [aij ] = mX;X 0 (T ) y B = [bij ] = mY;Y 0 (F ). La matriz de T F se conoce como


el producto tensorial de las matrices A y B y se denota por A B, es decir,
2
3
a11 B
a1n B
6
.. 7
A B = 4 ...
. 5
ap1 B

apn B

Notemos que A B es de orden pq nm.


Demostracin. Basta aplicar T F a los vectores de la base X Y y expresar los resultados
a travs de la base X 0 Y 0 .
Ejemplo 1. Sean T : R3 ! R2 y F : R2 ! R4 las transformaciones lineales denidas por
T (x; y; z) = (2x + 3y; 3x + 4z)
F (x; y) = (x; x + y; y; y x)
Calcular la matriz de T F en las bases cannicas.
Solucin. Basta calcular las matrices A y B de las transformaciones T y F en las bases
cannicas:
A = m (T ) =
2

m (T

m (T

6
B = m (F ) = 6
4

F) = A
2
6
6
6
6
6
F) = 6
6
6
6
6
4

2 3 0
3 0 4
1
1
0
1

3
0
1 7
7
1 5
1

B=

2B 3B 0B
3B 0B 4B

2
2
0
2
3
3
0
3

3
3
0
3
0
0
0
0

0
2
2
2
0
3
3
3
6

0
3
3
3
0
0
0
0

0
0
0
0
4
4
0
4

0
0
0
0
0
4
4
4

3
7
7
7
7
7
7
7
7
7
7
5

e. Otras propiedades del prodcuto tensorial


En adelante consideraremos que los espacios vectoriales son de dimensin nita.
(i) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales sobreyectivas. Entonces,
T F es sobreyectiva. En efecto, si u0 v 0 2 U 0 V 0 , entonces existe u 2 U y v 2 V tales
que T (u) = u0 ; F (v) = v 0 . Por lo tanto, (T F ) (u v) = T (u) F (v) = u0 v 0 .
(ii) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales, entonces ker (T F ) =
ker (T ) V + U ker (F ). Veamos la demostracin: denotemos por W = ker (T ) V +
U ker (F ), este es un subespacio de U V . Es claro que W
ker (T F ), probemos
entonces la inclusin recproca. Para esto consideremos el espacio cociente (U V ) =W ,
y la transfomracin lineal cannica
J :U

Para el producto tensorial Im (T )


Im (T )

V ! (U
z 7! z

V ) =W

Im (F ) consideremos el siguiente diagrama


t0
!

Im (F )

Im (T )

f&

Im (F )

#H
(U

V ) =W

donde f (T (u) ; F (v)) = J (u v). Debemos ver que f est bien denida. Sea T (u1 ) =
T (u) y F (v1 ) = F (v), por lo tanto, u1 u = u2 2 ker (T ) y v1 v = v2 2 ker (F ), luego
u1

donde u

v2 + u2

v1 = (u + u2 ) (v + v2 )
= u v + u v 2 + u2 v + u2 v 2
= u v + (u v2 + u2 v + u2 v2 )

v + u2

v2 2 U
u1

ker (F ) + ker (T )
v1

V = W , esto muestra que

v2W

luego, J (u v) = J (u1 v1 ).
Notemos que f es bilineal, por lo tanto induce la transformacin lineal H dada por
H (T (u) F (v)) = f (T (u) ; F (v)) = J (u
H (T F ) = J
Sea entonces z 2 ker (T
indica que z 2 W .

F ), entonces H

(T

v) )

F ) (z) = H (0) = 0 = J (z) = z, lo cual

(iii) Sean Sean T1 : U1 ! U2 ; T2 : U2 ! U3 y F1 : V1 ! V2 ; F2 : V2 ! V3 transformaciones


lineales, entonces
(T2 T1 )

(F2 F1 ) = (T2

F2 ) (T1

F1 ) .

En forma matricial,
A2 A1

B2 B1 = (A2

B2 ) (A1

B1 )

(iv) Si IU : U ! U es la idntica de U e IV : V ! V , entonces


IU

IV = IU

V:

En

Em = Enm :

En forma matricial,

(v) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales biyectivas, entonces


(T

F)

=T

(A

B)

=A

B 1:

Matricialmente,

(vi) Sean T y F1 ; F2 transformaciones lineales compatibles para las operaciones indicadas,


entonces
T

(F1 + F2 ) = T

F1 + T

F2 :

(B1 + B2 ) = A

B1 + A

B2 :

En forma matricial,

En forma similar se tienen las distributivas por el lado derecho.


(vii) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales y sea
( :T )

F =T

( :F ) = : (T

2 K, entonces

F):

(viii) Sean A 2 Mn (K) y B 2 Mm (K), entonces


tr (A
det (A

B) = tr (A) tr (B) ;
B) = det (A)m det (B)n :

(ix) Sean A; C 2 Mn (K) y B; D 2 Mm (K), tales que A y C son similares y B y D son


similares, entonces
8

B es similar a C

D:

(x) Sean A 2 Mn (K), B 2 Mm (K), un valor propio de A con vector columna propio
u y un valor propio de B con vector columna propio v. Entonces, u v es un vector
propio de A B con valor propio
.
(xi) Sean A 2 Mn (K), B 2 Mm (K) matrices diagonalizables, entonces A B es diagonalizable.
(xii) Sean U y V espacios con bases X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g, respectivamente. Entonces
U

V = (U

V)

Veamos la prueba de este isomorsmo.


Sean 2 U y 2 V , denimos entonces la funcin
f
f
Notemos que f

es bilineal, por lo tanto induce una nica transformacin lineal


F
F

Esto indica que F

:U V !K
(u; v) = (u) (v)

2 (U

;
;

:U V !K
(u v) = (u) (v)

V ) ; se dene entonces la funcin


fe : U

V ! (U
( ; ) 7! F ;

V)

Notemos que fe es bilineal, y por lo tanto induce una transformacin lineal

Fe (

Fe : U
Fe (

) (u

V ! (U
)=F

v) = F

V)
)

(u

v) =

(u) (v)

Sean X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g las bases duales en U y V , respectivamente.


Entonces,

Fe xi

yj (xr

ys ) = xi (xr ) yj (ys )
= 1 si i = r y j = s
= 0, en otro caso

Sabemos que fxi yj j 1 i n; 1 j mg es una base de U


V y por lo anterior,
Fe xi yj = (xi yj ) ; 1 i n; 1 j m . Es decir, Fe es una transformacin lineal
que enva una base en una base, por lo tanto, Fe es biyectiva.
f. Una apliacin del producto tensorial de matrices
Sean A; B y C matrices complejas de tamaos n n; m m y n m respectivamente.
Supngase que para cada valor propio de A y cada valor propio de B se cumple que
+ 6= 0. Demostrar entonces que la ecuacin matricial AX + XB = C tiene solucin
nica.
Solucin. Consideremos el C-espacio de matrices rectangulares Mnm (C), denamos la
funcin T por
T : Mnm (C) ! Mnm (C)
X 7! AX + XB
Notemos que T es una transformacin lineal. Para resolver el problema mostraremos
que T es biyectiva, con esto, dada C 2 Mnm (C) existe una nica X 2 Mnm (C) tal que
AX + XB = C.
La prueba de la biyectividad de T la haremos a travs de su matriz en la base cannica B =
fE11 ; ::::E1m ; :::; En1 ; :::; Enm g de Mnm (C), es decir, probaremos que mB (T ) es invertible.
Notemos entonces que
2
3 2
3
a11 Em
a1n Em
BT
0
6
7 6 ..
..
..
..
.. 7
...
mB (T ) = 4
5+4 .
.
.
.
. 5
an1 Em
ann Em
0
BT
donde Em es la idntica de orden m y B T es la transpuesta de B. Pero,
2

3
a1n Em
7
..
..
5 = A Em
.
.
ann Em
3
BT
0
6 ..
.. 7 = E
..
BT
4 .
.
n
. 5
0
BT

a11 Em
6
..
4
.
an1 Em
2

10

De esta forma
mB (T ) = A

BT

Em + En

Puesto que C es algebraicamente cerrado existen matrices invertibles F y G de tamaos


n n y m m, respectivamente, tales que F 1 AF = S1 y G 1 B T G = S2 son matrices
triangulares superiores. Notemos que en la diagonal de S1 y S2 estn localizados los
valores propios de A y de B T , respectivamente (notemos que los valores propios de
B T son los mismos de B). Ahora notemos que
S1

Em = F

AF

G 1 B T G = En

S2 = E n

En

Em = F

Em (A
G

Em ) (F

En

Em )

B T (En

G)

donde adems
F

En

Em = (F
G

= (En

Em )

G)

De esta forma se tiene que


S1

Em = (F

Em )

G)

S2 = (En

En

(A
En

Em ) (F
B

Em )

(En

G)

Tenemos entonces que mB (T ) = A Em +En B T , de donde (F


(F Em ) 1 (A Em ) (F Em )
+ (F Em ) 1 En B T (F Em ) =
(S1 Em ) + (F 1 Em ) En B T (F Em ) =
(S1 Em ) + En B T .
Ahora, (En G) 1 (F Em ) 1 mB (T ) (F Em ) (En G) =
(En G) 1 (S1 Em ) (En G) + (En G) 1 En B T (En
(S1 Em ) + (En S2 ). En total,
(En

G)

(F

Em )

(F

G)

mB (T ) (F

Em ) (En

G) = (S1

Em )

mB (T ) (F

Em ) =

G) =

Em ) + (En

S2 )

es decir,
1

mB (T ) (F

G) = (S1

Em ) + (En

S2 ) :

Notemos que la matriz (S1 Em ) + (En S2 ) es triangular superior y en su diagonal


estn las sumas de la forma + , las cuales por hiptesis son no nulas, es decir, esta
matriz es invertible, o sea que, mB (T ) es tambin invertible, y la prueba ha terminado.
11


Algebra
Lineal
Captulo 11. T
opicos Especiales y Aplicaciones
11.5. Matrices y formas positivas
En esta seccion estudiamos matrices positivas, formas sesquilineales positivas, y formas
cuadraticas positivas.
a. Matrices complejas positivas.
Definici
on 1. Sea A Mn (C), se dice que A es positiva si
XAX > 0
para cada vector X = [x1 , . . . , xn ] Cn 0, donde X = X T .
Ejemplo 1. La matriz

2
i 0
4 2i
A = i
0 2i 8
es positiva. En efecto,


a1 + ib1 a2 + ib2

2
i
0
a

ib
1
1

a3 + ib3 i
4 2i a2 ib2
0 2i 8
a3 ib3

= 2a1 b2 2a2 b1 + 4a2 b3 4a3 b2 + 2a21 + 4a22 + 2b21 + 8a23 + 4b22 + 8b23

= (a1 + b2 )2 + (a2 b1 )2 + (2a3 b2 )2 + (a2 + 2b3 )2 + a21 + b21 + 2b22 + 2a22 + 4a23 + 4b23 > 0


para cada vector X = a1 + ib1 a2 + ib2 a3 + ib3 C3 0.
Otras caracterizaciones de las matrices complejas positivas son las siguientes.
Proposici
on 1. Sea A Mn (C), entonces las siguientes condiciones son equivalentes:
(a) A es positiva
(b) La relacion
< X, Y >= XAY
define un producto interno en Cn .
(c) A = A y para el producto interno canonico en Cn se tiene que (X, XA) > 0 para
cada vector no nulo X de Cn .
(d) A = A y los menores principales de A son positivos, es decir, todos los determinantes
de la forma

a11 a1k

.. , 1 k n
det ...
.
ak1 akk
son positivos.

Demostraci
on. (a) (b): sean X, Y, Z Cn , entonces

< X, Y + Z >= XA (Y + Z)
= XA (Y + Z )
= XAY + XAZ
=< X, Y > + < X, Z >;
< .X, Y >= (.X) AY = . < X, Y >;
< X, X >= XAX > 0 para cada X no nulo de Cn .

Probemos que < Y, X >= < X, Y >. En efecto, sean X, Y Cn , entonces


< X + Y, X + Y >=< X + Y, X > + < X + Y, Y >
= (X + Y ) AX + (X + Y ) AY
= XAX + Y AX + XAY + Y AY
pero por hipotesis < Z, Z > R para cada Z Cn , por lo tanto < X + Y, X + Y >
, XAX , Y AY R, luego Y AX + XAY =< Y, X > + < X, Y > R. De igual
manera,
< X + iY, X + iY >=< X + iY, X > + < X + iY, iY >
= (X + iY ) AX + (X + iY ) A (iY )
= XAX + iY AX iXAY + Y AY R

luego iY AX iXAY = i < Y, X > i < X, Y > R. Por lo tanto,

< Y, X > + < X, Y >= < Y, X > + < X, Y > = < Y, X > + < X, Y >
i < Y, X > i < X, Y >= i < Y, X > i < X, Y > = i< Y, X > + i< X, Y >.
Podemos multiplicar la segunda igualdad por i
< Y, X > + < X, Y >= < Y, X > < X, Y >
y sumarla a la primera
2 < X, Y >= 2< Y, X >
es decir
< X, Y >= < Y, X >.
Esto completa la prueba de que < X, Y > define un producto interno en Cn .
(b)(c): Veamos primero que A es hermitiana, es decir, A = A . Probemos que aij = aji
para cada 1 i, j n. Consideremos los vectores canonicos ei y ej de Cn , entonces
< ei , ej >= ei Aej = aij

< ej , ei >= ej Aei = aji


aij =< ei , ej >= < ej , ei > = aji .
2

Recordemos que el producto interno canonico en Cn viene dado por (X, Y ) = XY , luego
(X, XA) = X (XA) = XA X = XAX =< X, X > > 0, para X no nulo de Cn .
(c)(d): solo hay que probar lo relativo a los menores principales de la matriz A. Para
comenzar probemos que det (A) > 0. Puesto que A es hermitiana, entonces A es diagonalizable, y los valores propios de A son reales. Sea Y un vector propio correspondiente al
valor propio , entonces AY = .Y , entonces (AY ) = (.Y ) , luego Y A = Y = Y ,
de donde, (Y , Y A ) = (Y , Y ) = (Y , Y ) = (Y , Y ) > 0, y como tambien
(Y , Y ) > 0, entonces > 0. Hemos probado que los valores propios son positivos.
En consecuencia, det (A) > 0. Ahora notemos que siendo A hermitiana, entonces cada
submatriz

a11 a1k

.. , 1 k n
Ak = ...
.
ak1 akk
es tambien hermitiana. Ademas (Xk , Xk Ak ) > 0 para cada vector no nulo Xk de Ck . En
efecto, sea Xk Ck un vector no nulo, completando con ceros construimos un vector no
nulo X de Cn , X = [Xk | 0], puesto que (X, XA) > 0, entonces

a11 a1k a1n


..
..
..
.
.
.


0 0 ak1
akk akn
.
..
..
..
.
.
an1
ank ann

x1 xk

x1 a11 + + xk ak1 x1 a1k + + xk akk

= X0

luego el producto interno canonico de X con X 0 es positivo y coincide con (Xk , Xk Ak ).


Por lo probado antes, det (Ak ) > 0.
(d)(a): Paso 1. Veamos que existe una matriz triangular superior P = [pij ] con pkk =
1, 1 k n, y para la cual se tiene que B =: AP es triangular inferior.
La existencia de P se puede plantear de la siguiente manera:
bik = ai1 p1k + + aik1 pk1k + aik pkk + aik+1 pk+1k + + ain pnk
bik = ai1 p1k + + aik1 pk1k + aik para cada k > 1.
Como se quiere que B sea triangular inferior entonces tambien se debe tener que bik = 0
para k > i, entonces se debe cumplir que
ai1 p1k + + aik1 pk1k + aik = 0 para k > i

es decir se tienen las siguientes relaciones


a11 p1k + + a1k1 pk1k + a1k = 0
a21 p1k + + a2k1 pk1k + a2k = 0
..
.
ak11 p1k + + ak1k1 pk1k + ak1k = 0
es decir el sistema

a11 a1k1
p1k
a1k
..
..

..
..
.
. =

.
.
ak11 ak1k1
pk1k
ak1k

debe tener solucion para cada k > 1. Pero esto esta garantizado ya que det (Ak1 ) > 0.
Luego la matriz P existe y AP es triangular inferior.
Paso 2. P es triangular inferior y P B = P AP es tambien triangular inferior. Sea D =:
P AP , entonces D = P A P = P AP ya que A es hermitiana. Siendo D hermitiana y
triangular inferior, entonces D = P B es necesariamente diagonal,

d1
0

..
D=
.
.
0
dn
Paso 3. Consideremos las columnas B (1) , . . . , B (n) de B y las columnas A(1) , . . . , A(n) de
A; entonces
B (r) = A(1) p1r + + A(r) prr + + A(n) pnr
= A(r) + A(1) p1r + + A(r1) pr1,r

De esto se obtiene que la columna r de la submatriz Bk es igual a la columna r de la


submatriz Ak + una combinacion lineal de las restantes columnas de esta u
ltima matriz.
Para efectos del calculo del determinante se tiene entonces que
det (Bk ) = det (Ak ) , 1 k n.
De igual forma, consideremos las filas de D y de B:
D(r) = pr1 B(1) + + prr B(r) + + prn B(n)
= B(r) + + prr1 B(r1)
4

De esto se obtiene que la fila r de la submatriz Dk es igual a la fila r de la submatriz


Bk + una combinacion lineal de las restantes fila de esta u
ltima matriz. Para efectos del
calculo del determinante se tiene entonces que
det (Dk ) = det (Bk ) , 1 k n.
En total se tiene que
det (Ak ) = det (Dk ) , 1 k n.

Pero det (Dk ) = d1 dk = det (Ak ) > 0 para cada 1 k n, entonces todos los
elementos diagonales de D son positivos.
Se tiene entonces que D = P AP es diagonal con elementos positivos por la diagonal.
Esto implica que
Y DY =| y1 |2 d1 + + | yn |2 dn > 0

para cada vector columna no nulo Y = (y1 , . . . , yn )T con entradas complejas.


Paso 4. Para terminar probemos que A es una matriz positiva. Recordemos que P es una
matriz triangular superior con pkk = 1, 1 k n, por lo tanto P es invertible. Sea X un
vector no nulo de Cn , entonces X es tambien un vector no nulo y existe Y Cn no nulo
tal que P Y = X , luego X = (P Y ) = Y P y de esta forma
Y DY = Y P AP Y > 0
es decir,
XAX > 0.
Otra caracterizacion de las matrices complejas positivas corresponde a la descomposicion
de Cholesky.
Proposici
on 2. Sea A Mn (C). Entonces, A es positiva si y solo si existe una matriz
invertible P Gln (C) tal que A = P P .
Demostraci
on. ) Si A es positiva entonces la relacion
< X, Y >= XAY
define un producto interno en Cn . Con este producto interno se puede construir una base
ortonormal en Cn , los vectores de esta base se pueden disponer en las columnas de una
matriz Q. De otra parte, notemos que A es la matriz de este producto interno en la base
canonica de Cn , por lo tanto las dos matrices estan relacionadas por
QT AQ = E.
1 1
1
Como Q es invertible, entonces A = QT
Q . Definimos entonces P = Q , de
1
tal forma que QT
= P . Es decir, A = P P .
) Supongamos que existe P invertible tal que A = P P , entonces para cada vector no
nulo X de Cn se tiene que P X es no nulo, luego
5

XAX = XP P X = (P X ) (P X ) > 0.


Las pruebas de las proposiciones anteriores muestran ciertas propiedades interesantes de
las matrices complejas positivas.
Proposici
on 3. Sea A Mn (C) una matriz positiva. Entonces,
(1) det (A) > 0
(2) A es invertible
(2) Los valores propios de A son reales positivos
(3) A es hermitinana y por lo tanto diagonalizable por medio de una matriz unitaria.
(4) A1 es tambien positiva
(5) AT es tambien positiva
(6) Para cada 1 k n, Ak es tambien positiva.
b. Matrices reales positivas.
Las matrices reales positivas se definen en forma similar al caso complejo pero con la
siguiente modificacion: en la Proposicion 1 no es posible demostrar (a)(b) ya que no
disponemos de un escalar i tal que su cuadrado sea nulo. Por lo tanto, debemos modificar
la definicion de matriz real positiva de la siguiente manera.
Definici
on 2. Sea A Mn (R), se dice que A es positiva si A = AT y
XAX T > 0
para cada vector X = [x1 , . . . , xn ] Rn 0.
Proposici
on 4. Sea A Mn (R), entonces las siguientes condiciones son equivalentes:
(a) A es positiva
(b) La relacion
< X, Y >= XAY T
define un producto interno en Rn .
(c) A = AT y para el producto interno canonico en Rn se tiene que (X, XA) > 0 para
cada vector no nulo X de Rn .
(d) A = AT y los menores principales de A son positivos, es decir, todos los determinantes
de la forma

a11 a1k

.. , 1 k n
det ...
.
ak1 akk
son positivos.
(e) Existe una matriz invertible P Mn (R) tal que A = P T P .
Proposici
on 5. Sea A Mn (R) una matriz positiva. Entonces,
(1) det (A) > 0
(2) A es invertible
(2) Los valores propios de A son reales positivos
6

(3) A es simetrica y por lo tanto diagonalizable por medio de una matriz ortogonal.
(4) A1 es tambien positiva
(5) AT es tambien positiva
(6) Para cada 1 k n, Ak es tambien positiva.
Ejemplo 1. La matriz

2 1 0
A= 1 4 2
0 2 8
es positiva. Pero la matriz

2
1 0
B = 1 4 2
0
2 8

es simetrica pero no es positiva:


2
1
0
0



0 1 0
1 4 2
1 = 4.
0
2 8
0

De otra parte, la matriz real

C=
es tal que

x1 x2

1 1
1 1

1 1
1 1


x1
x2




= x21 + x22 > 0

para cada vector no nulo (x1 , x2 ) R2 . Pero C no es simetrica. Tambien podemos observar
que la sola condicion de positividad (sin simetra !) en el caso real no garantiza valores
propios positivos, en efecto los valores propios de C son 1 i, 1 + i (notemos que C no es
una matriz positiva compleja ya que con x1 = i y con x2 = 1, se tiene que x21 + x22 = 0).
Por u
ltimo, veamos que en el caso real, la sola condicion de valores propios positivos no
garantiza ser matriz positiva. En efecto, la matriz real

0 1 0
0 1
D= 0
1 3 3
tiene como u
nico valor propio 1, sin embargo


0
1
0
1


1 1 1 0
0 1 1 = 1
1 3 3
1
7

El problema radica en que D no es simetrica.


Ejemplo 2. Calculemos la descomposicion de Cholesky de la matriz A del ejemplo anterior: con el SWP obtenemos

1
2
0
0
2
2
0
2


1 2 1 2 7
0 1 2 7 2 2 7
0
2
2
2
7


2
4
0
2 7 47 3 7
0
0
3 7
7
7

Comprobemos esta respuesta con el metodo descrito en la demostracion de la Proposicion


2. Podemos tomar la base canonica de R3 y con el producto interno inducido por A
construimos una base ortonormal de R3 a traves del metodo de Gram-Schmidt:
v1 = e1 = (1, 0, 0)
< e 2 , v1
v2 = e2
< v 1 , v1
< e 3 , v1
v3 = e3
< v 1 , v1

>
v1
>
>
< e 3 , v2 >
v1
v2
>
< v 2 , v2 >

Entonces,
v1 = e1

v2 = (0, 1, 0)

v3 = (0, 0, 1)






0 1

1 0

0 0

1 0

 2
0 0 1 1
0

 1
 2
2 1 0 1
0


2 4
=
, ,1
7 7



2
1
0
1

0 1 4 2 0


0 2 8
0
1

(1, 0, 0) = , 1, 0
2
2
1
0
1


0
1 4 2
0
0 2 8
0


1
 2 1 0

1
1 4 2
0
0 2 8
0

(1, 0, 0)
1
 2 1 0
0 1 4 2 0
0 2 8
0
1
1 0
2
4 2 1


0
2 8
1
1 , 1, 0
2
1 0
2

4 2
1
2 8
0

Normalizando se tiene


v1
(1, 0, 0)
(1, 0, 0)
1
q1 =
=
=
= , 0, 0
kv1 k
< v 1 , v1 >
2
2

 

1
1
2 , 1, 0
2 , 1, 0
v2
1 1
q
q2 =
=
=
=
2 7,
2 7, 0
kv2 k
< v 2 , v2 >
14
7
7
2

 

2
4
2
, 7, 1
, 47 , 1
v3
1 1
1
7
7
q
3 7
3 7,
q3 =
3 7,
=
=
=
12
21
kv3 k
42
< v3 , v3 >
48
7

Por lo tanto


1
1 1
1
1

0
0
14
2 7 42
3 7
2



1
1
1
1

A = 14 2 7 7 2 7
0
2 7 21 3 7
0
7

1
1
1
1
3 7 21
3 7 12
3 7
0
0
3 7
42
12

1
2
2
0
2
0
2 1 0
2
1
1

= 2 2 2 27 0
0 2 2 7 7 27 .
4
2
4
3 7
0
0
2 7 7 3 7
0
7
7
1
2

c. Formas sesquilineales positivas


Proposici
on 6. Sea f una forma sesquilineal definida sobre un espacio complejo V de
dimension finita n. Si X es una base de V tal que A = mX (f ) es positiva, entonces para
cualquier otra base Y de V se tiene que B = mY (f ) es tambien positiva.
Demostraci
on. Sabemos que si C es la matriz de cambio de X a Y entonces
B = C T AC.
Sea X un vector no nulo de Cn , entonces
XBX = XC T ACX

T
= XC T AC X
 T
T
X
= XC T A C T

T
= XC T A XC T
= Y AY > 0

ya que Y = XC T es no nulo.
Definici
on 3. Sea f una forma sesquilineal definida sobre un espacio complejo V de
dimension finita n. Se dice que f es positiva si existe una base X en V tal que mX (f ) es
positiva.
9

Notemos que la matriz A de una forma sesquilineal compleja positiva f es siempre hermitiana, por lo tanto, para A valen las propiedades presentadas en las Proposiciones 1,2
y 3.
d. Formas bilineales positivas
Proposici
on 7. Sea f una forma bilineal simetrica definida sobre un espacio real V de
dimension finita n. Si X es una base de V tal que A = mX (f ) es positiva, entonces para
cualquier otra base Y de V se tiene que B = mY (f ) es tambien positiva.
Si A es la matriz de una forma bilineal simetrica positiva f , entonces para A valen las
propiedades presentadas en las Proposiciones 4 y 5.
e. Formas cuadr
aticas positivas
Definici
on 4. (a) Sea q una forma cuadratica definida a partir de una forma sequilineal
hermitiana f sobre un espacio V , se dice que q es positiva si existe una base X en V tal
que la matriz de f en la base X es positiva.
(b) Sea q una forma cuadratica definida a partir de una forma bilineal simetrica f sobre
un espacio V , se dice que q es positiva si existe una base X en V tal que la matriz de f
en la base X es positiva.
Corolario 1. La diagonalizacion de una forma cuadratica positiva mediante el metodo
de valores propios expuesto en el Teorema 2 de la Leccion 2 del Captulo 10 tiene solo
coeficientes positivos: los valores propios de la matriz de la forma cuadratica.

10

lgebra Lineal
Captulo 11. Tpicos Especiales y Aplicaciones
11.6. Ejercicios
1. Determinar la cnica denida por la ecuacin dada, indicando el vrtice o el centro,
segn corresponda. Adems, en cada caso indicar los cambios de coordenadas realizados
para expresar la curva en su forma diagonal, es decir, como suma de cuadrados sin trminos
xy:
(a) y 2 2xy + 5x = 0
(b) y 2 2xy + x2 5x = 0
(c) 2x2 + 4xy + 5y 2 2x y 4 = 0
(d) x2 + 4xy + y 2 = 7
(e) 2x2 + 3xy 2y 2 = 10
(f) 16x2 24xy + 9y 2 30x 40y = 0
(g) 11x2 24xy + 4y 2 + 6x + 8y = 15
2. Indicar para qu valores (valor) de c la grca de la ecuacin 2xy 4x + 7y + c = 0
representa un par de rectas. Justique su respuesta.
3. Hallar la solucin general de cada una de las siguientes ecuaciones diferenciales:
(a) y 000 2y 00 3y 0 = 0
(b) y 000 y 0 = 0
(c) y 000 + 4y 00 + 4y 0 = 0
(d) y 000 3y 00 + 3y 0 y = 0
(e) y (4) + 4y 000 + 6y 00 + 4y 0 + y = 0
4. Resolver los siguientes sistemas de ecuaciones diferenciales, justicando su respuesta:
(a)
2
3 2
32
3
2
1
1
y1
y1
d 4
y2 5 = 4 1
2
1 5 4 y2 5
dt
y3
1
1
2
y3
(b)

3 2
y1
7 6
d 6
6 y2 7 = 6
4
dt y3 5 4
y4

4
1
6
6

1
2
1
1

1
1
1
4

32
1
y1
6 y2
1 7
76
1 5 4 y3
2
y4

5. Calcular la inversa generalizada de las siguientes matrices:


(a)
2
3
1
1 1 1
A=4 1 1 1 1 5
1 1 1 1

3
7
7
5

(b)

1
4
A= 1
1

1 1
1 1
1 1

3
1
1 5
1

6. Sea A una matriz cuadrada. Demostrar que (A )+ = (A+ ) .


7. Sea A una matriz normal. Demostrar que A+ es tambin normal.
8. Sea A una matriz hermitiana. Demostrar que A+ es tambin hermitiana.
9. Sean A; C 2 Mn (K) y B; D 2 Mm (K), tales que A y C son similares y B y D son
similares. Demostrar que
A

B es similar a C

D:

10. Sean A 2 Mn (K), B 2 Mm (K) matrices diagonalizables. Demostrar que A


diagonalizable.

B es

P
agina en blanco

Anda mungkin juga menyukai