AUTORES
Omar Saldarriaga
Ph.D., State University of New York at Binghamton
Profesor Asociado
Instituto de Matematicas
Universidad de Antioquia
Hernan Giraldo
Ph.D., Universidad de Sao Paulo
Profesor Asociado
Instituto de Matematicas
Universidad de Antioquia
ii
1. Algebra de matrices 3
1.1. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Operaciones con Matrices y Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3. Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5. Inversas Laterales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2. Espacios Vectoriales 45
2.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.5. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.6. Subespacio generado por un conjunto de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.7. Subespacios fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.8. Subespacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.9. El Teorema de la base incompleta en Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3. Transformaciones Lineales 85
3.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2. Transformaciones Lineales Inyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.3. Transformaciones Lineales Sobreyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.4. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.5. Espacios Vectoriales Arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios. . . . . . . . . . . . . . . . 103
3.6. Propiedades de los Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.7. Suma Directa de Espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
iii
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 1
4. Ortogonalidad en Rn 119
4.1. Producto interno en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.2. Proyeccion Ortogonal sobre un Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.2.1. La matriz proyeccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.3. Proyeccion Ortogonal sobre un Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4.4. Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.5. El Proceso Gramm-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4.6. La Factorizacion QR de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5. Determinantes 157
5.1. Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.2. Determinantes y operaciones elementales de fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
5.3. Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
5.4. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.5. La Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.6. Interpretacion Geometrica del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
7. Aplicaciones 225
7.1. Potencia de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
7.1.1. Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
7.1.2. Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
7.2. Exponencial de una matriz diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
7.2.1. Sistemas Lineales de Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 229
2
Captulo 1
Algebra de matrices
En este captulo veremos ... Las letras m,n, i, j y k denotaran numeros enteros positivos y denotaremos por
R el conjunto de los numeros reales ... mn{m, n} es el menor numero entre m y n... el conjunto de matrices de
tamano m n sera denotado por Mmn (R) y por Mn (R) cuando m = n. El conjunto vaco ??
x + 3y = 4 (1.1)
4x + 6y = 10 (1.2)
Existen varios metodos para resolver este sistema, por la similitud con el metodo que expondremos en esta
seccion destacamos el de eliminacion.
Este metodo usa dos operaciones basicas para llevar a la solucion de un sistema lineal las cuales son:
1. Sumar un multiplo de una ecuacion a otra ecuacion con el objetivo de eliminar una de las variables, por
ejemplo la operacion
-4 Ecuacion(1.1) + Ecuacion(1.2)
2. Multiplicar una ecuacion por una constante no cero con el objetivo de simplicarla, por ejemplo si multi-
plicamos la nueva ecuacion 6y = 6 por 16 obtenemos y = 1.
3
4
2. El metodo de multiplicacion por la matriz inversa, este metodo solo funciona en algunos casos, ver Teorema
1.12 en la Seccion 1.3.
3. El metodo de multiplicacion por la inversa a la izquierda de la matriz, este metodo solo funciona en algunos
casos, ver Seccion 1.5
Retomando las soluciones para un sistema, vale la pena notar que si tenemos un sistema de dos ecuaciones
lineales en dos incognitas, hay tres posibles respuestas y estas son:
2. El sistema no tiene solucion (o solucion vaca), caso en el cual, decimos que es inconsistente.
3. El sistema tiene infinitas soluciones, caso en el cual decimos que el sistema es redundante.
Cuando se tiene una ecuacion lineal en dos variables, esta representa una lnea recta en el plano, las tres
posibles soluciones descritas corresponden a las diferentes posibilidades geometricas las cuales son: las rectas se
intersectan (solucion unica), las rectas son paralelas (solucion vaca) o las rectas coinciden (infinitas soluciones).
Estas se ilustran en la Figura 1.1.
Cuando tratamos de resolver un sistema 33, de tres ecuaciones en tres incognitas, tambien podemos obtener,
al igual que en el caso anterior (caso 22), tres posibles respuestas: solucion unica, solucion vaca o infinitas
soluciones. En este caso, una ecuacion en tres variables representa un plano en el espacio, las posibilidades
geometricas se muestran en las Figuras 1.1 y 1.1. Sin embargo, a diferencia del caso 22, la solucion vaca no
se obtiene exclusivamente en el caso de que los planos sean paralelos como se observa en la Figura 1.1. Tambien
se puede ver en la Figura 1.1 que hay diferentes casos que conducen a infinitas soluciones y no solo cuando los
planos coinciden.
Uno de los objetivos de la seccion es mostrar que aun en dimensiones mayores se presentan exactamente las
mismas tres posibilidades. El caso general lo resolveremos usando matrices, asociaremos a cada sistema lineal
una de estas y aplicaremos operaciones elementales de fila para resolver el sistema. Las operaciones elementales
de fila sobre matrices son simplemente operaciones equivalentes a las mencionadas en el metodo de eliminacion
al principio de la seccion.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 5
Definicion 1.1. Una matriz real es un arreglo rectangular de numeros reales en m filas y n columnas
a11 a1n
.. .. ..
. . . ;
am1 amn
donde aij es un numero real para i = 1, . . . , m y j = 1, . . . , n. A esta matriz se le llama una matriz de tamano
m n.
En esta seccion se esta interesado en operaciondes de fila de una matriz, as en esta seccion se donotara la
i-esima fila de una matriz A por Fi . Ademas, de ahora en adelante el conjunto de matrices de tamano m n
sera denotado por Mmn (R) y por Mn (R) cuando m = n.
1 1
Ejemplo 1.1. (MatLab) A = es una matriz de tamano 22. Esta matriz la definimos en MatLab
2 0
de la siguiente forma:
>> A = [1, 1; 2, 0]
y MatLab guardara la matriz como el arreglo rectangular
A=
1 1
2 0
En general, para definir matrices en MatLab se escriben las entradas entre corchetes, escribiendo las entradas
de las filas separadas con coma y separando las filas con punto y coma.
a11 x1 + + a1n xn = b1
..
.
am1 x1 + + amn xn = bm ,
Definicion 1.2. Sea A una matriz de tamano m n, una operacion elemental de fila sobre A es una de
las siguientes operaciones:
1. Multiplicar una fila por una constante no cero. Se usara la notacion cFi Fi para indicar que se multiplica
la fila i por la constante c.
2. Sumar un multiplo de una fila a otra fila. Se usara la notacion cFi + Fj Fj para indicar que se le suma
c veces la fila i a la fila j.
En estos dos pasos, la fila que aparece despues de la flecha es la fila que se debe modificar o simplemente,
a la que se le debe aplicar la operacion.
3. Intercambiar dos filas. Se usara la notacion Fi Fj para indicar que se debe intecambiar la fila i con la
fila j.
x + 3y = 4
Ejemplo 1.3. Al principio de la seccion resolvimos el sistema de ecuaciones aplicando las opera-
4x + 6y = 10
ciones
1. -4 Ecuacion 1.1 mas Ecuacion 1.2, de la cual obtenemos la ecuacion 6y = 6,
2. multiplicamos esta ultima ecuacion por 61 , obteniendo y = 1,
3. finalmente de, -3 ecuacion (y = 1) mas Ecuacion 1.1, obtenemos x = 1.
Como en la matriz asociada a un sistema lineal las ecuaciones se representan en filas, estas operaciones se
traducen en operaciones de fila, de hecho, la primera operacion se traduce en la operacion de fila 4F1 + F2 , la
1
segunda en 6 F2
y la tercera en 3F2 + F1 . Al aplicar estas operaciones obtenemos
1 3 4 1 3 4 1 3 4 3F2 +F1 F1 1 0 1
4 6 10 4F1 +F2 F2 0 6 6 1 F2 F2 0 1 1 0 1 1
6
De esta ultima matriz obtenemos las ecuaciones x = 1 y y = 1 las cuales nos dan la solucion al sistema.
Este ultimo ejemplo ilustra el metodo de solucion de un sistema lineal con operaciones de fila sobre matrices, el
cual es el objetivo de la seccion. Para ilustrar el caso general debemos mostrar como aplicar operaciones de fila
sobre una matriz de una manera eficiente que garantice una solucion, una manera efectiva es llevar la matriz a
una matriz en forma escalonada reducida, la cual definimos a continuacion.
Definicion 1.3. Sea A una matriz de tamano m n, decimos que A esta en forma escalonada reducida si
A satisface las siguientes condiciones:
1. Todas las filas nulas (filas donde todas las entradas, en esa fila, son ceros) estan en la parte inferior de
la matriz.
2. La primera entrada no cero de una fila no nula es un uno. A esta entrada se le llama pivote.
3. Si dos filas consecutivas son no nulas, entonces el pivote de la fila de arriba esta mas a la izquierda del
pivote de la fila de abajo.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 7
4. Todas las entradas de una columna donde haya un pivote son cero, excepto la entrada donde esta el pivote.
1 0 1 0 0 1
E = 0 0 0 , F = 0 0 0 y G = 0 0 0 ,
0 0 0 0 0 0 0 0 0
donde las entradas * representan un numero real arbitrario. De hecho estas son todas las posibles formas esca-
lonadas reducidas que se obtienen de matrices 3 3 no nulas.
0 1 32 31
0 0 0 0
El comando format rat se usa para que MatLab entregue la respuesta con numeros racionales en cada entrada
de la matriz.
El proceso de aplicar operaciones elementales de fila sobre una matriz hasta llevarla a su forma escalonada
reducida se le conoce como reduccion Gauss-Jordan. Este proceso nos lleva tambien a determinar si el
sistema tiene solucion y a encontrarla en el caso de que exista (ver Teorema 1.2). Primero debemos garantizar
que es posible llevar cualquier matriz a una matriz en forma escalonada reducida por medio de operaciones
elementales.
Teorema 1.1. Aplicando reduccion Gauss-Jordan, toda matriz se puede llevar a una forma escalonada reducida.
Mas que dar una idea de la prueba, lo que presentamos a seguir, es una descripcion de un algoritmo para
calcular la forma escalonada reducida de una matriz.
como esta ultima esta en forma escalonada reducida obtenemos el resultado para matrices con una columna.
Ahora supongamos que el resultado es cierto para matrices con n 1 columnas y sea A una matriz con n
columnas, usando la induccion obtenemos que podemos reducir las primeras n 1 columnas hasta obtener una
matriz en la forma 1
... 0 ... 0 a1n
0 ... 1 ... 0 a2n
. . . .. . . .. ..
.. .. .. .
0 ... 0 ... 1 akn .
0 ... 0 ... 0 ak+1,n
. . . .. . . .. ..
.. .. .. .
0 ... 0 ... 0 amn
Si las entradas ak+1,n , . . . , amn son todas iguales a cero, entonces esta ultima matriz ya esta en forma escalonada
reducida, en caso contrario, suponemos sin perdida de generalidad que ak+1,n 6= 0, ya que si esta es cero haciendo
un intercambio de fila podemos llevar una entrada diferente de cero que este por debajo de esta, como se hizo
1
en (1.3), despues multiplicamos la fila k + 1 por ak+1,n obteniendo
1 ... 0 ... 0 a1n 1 ... 0 ... 0 a1n
0 ... 1 ... 0 a2n 0 ... 1 ... 0 a2n
. . . .. . . .. .. . . . . .. ..
.. .. .. . . .. . ..
0 ... 0 ... 1 akn
. . . .
1
Fk+1 Fk+1 0 ... 0 ... 1 akn
0 ... 0 ... 0 ak+1,n ak+1,n 0 ... 0 ... 0 1
. . . .. . . .. .. . . . . .. ..
.. .. .. . .. . . .. . . . .
0 ... 0 ... 0 amn 0 ... 0 ... 0 amn
Finalmente, usando este 1, empleamos operaciones elementales para anular las demas entradas de esta columna
como se muestra a continuacion
a 1 Fk+1 +F1 F1
1 1n
... 0 ... 0 a1n a 1 Fk+1 +F2 F2 1 ... 0 ... 0 0
0 ... 1 ... 0 a2n 2n
0 ... 1 ... 0 0
. . . . .. .. .. .. . . .. . . .. ..
. .. . .. . . . . . .
. . . . a 1 Fk+1 +Fk Fk
.
0 ... 0 ... 1 akn kn
0 ... 0 ... 1 0 ,
0 ... 0 ... 0 1 1
0 ... 0 ... 0 1
a Fk+1 +Fk+2 Fk+2 .
. . . .
.. . . .. . . .. .. k+2n
.. . . .. . . .. ..
. . .. .. ...
0 ... 0 ... 0 amn . 0 ... 0 ... 0 0
1
amn Fk+1 +Fm Fm
como esta ultima matriz esta en forma escalonada reducida obtenemos por induccion que cualquier matriz se
puede reducir a una matriz en forma escalonada reducida.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 9
1 0 0 1
Ejemplo 1.6. Calcular la forma escalonada de reducida de la matriz A = 2 2 1 4 .
3 3 2 6
Aunque sabemos que podemos usar MatLab para calcular esta reduccion, es importante tambien entender
el algoritmo propuesto en el teorema anterior, el cual basicamente nos dice que la reduccion la podemos hacer
columna por columna.
Como la primera columna no es nula pero su primera entrada es cero, entonces intercambiamos la fila
cuya primera entrada sea no nula, en este caso la segunda fila, como esto se debe hacer usando operaciones
elementales, entonces intercambiamos la primera y la segunda fila
0 0 1 1 2 2 1 4
F F
1 2
2 2 1 4 0 0 1 1
3 3 2 6 3 3 2 6
1
Luego multiplicamos la primera fila por 2 para obtener el pivote en la primera columna y despues usamos
este pivote para anular las demas entradas de esta columna, como se muestra a continuacion
2 2 1 4 21 F1 F1 1 1 12 2 1 1 21 2
0 0 1 1 0 0 1 1 0 0 1 1 .
3 3 2 6 3 3 2 6 3F1 + F3 F3 0 0 12 0
El pivote en la segunda columna, si existiera, debera estar en una fila debajo de la primera y como la segunda
y tercera entrada son ceros, entonces no hay pivote en esta columna, por tanto la tercera entrada en la segunda
fila es el siguiente pivote, usamos esta entrada para anular las demas entradas en la tercera columna, as
1 1 12 2 21 F2 + F1 F1 1 1 0 3
2
0 0 1 1 0 0 1 1 .
0 0 12 0 21 F2 + F3 F3 0 0 0 12
Finalmente, la cuarta entrada en la tercera fila debe ser el siguiente pivote, para convertirlo en un uno,
multiplicamos la tercera fila por -2 y despues usamos el pivote para anular las demas entradas en la cuarta
columna, esto lo hacemos de la siguiente forma
3 3 3
1 1 0 2 1 1 0 2 2 F3
+ F1 F1 1 1 0 0
0 0 1 1 0 0 1 0 1 0 .
1 F3 + F2 F2 0 (1.4)
0 0 0 12 2F3 F3 0 0 0 1 0
0 0 1
1 1 0 0
Por tanto la matriz 0 0 1 0 es la forma escalonada reducida de A.
0 0 0 1
El algoritmo anterior es el que se deduce del bosquejo de la demostracion del teorema anterior, en donde
se calculan los pivotes columna por columna, otra forma de aplicar reduccion Gauss-Jordan es calculando los
pivotes fila por fila en donde se debe aplicar la definicion paso a paso.
10
Por ejemplo, si queremos calcular la forma escalonada reducida de la matriz A de esta forma, notese que el
pivote en cada fila debe ser la primera entrada no nula de la fila, por tanto la tercera entrada de esta fila debe
ser el primer pivote, luego usamos esa entrada para anular las demas entradas en su respectiva columna como
se indica a continuacion
0 0 1 1 0 0 1 1
2 2 1 4 F1 + F2 F2 2 2 0 3 .
3 3 2 6 2F1 + F3 F3 3 3 0 4
0 0 1 1 0 0 1 1
1 3
2 2 0 3 2 F2 F2 1 1 0 .
2
3 3 0 4 3 3 0 4
despues se usa el pivote para anular las demas entradas en su columna, en este caso, la primera columna.
0 0 1 1 0 0 1 1
3 3
1 1 0
2
1 1 0 .
2
3 3 0 4 3F2 + F3 F3 0 0 0 21
Antes de continuar con el siguiente pivote notemos que los pivotes en esta ultima matriz no satisfacen la
condicion 3. de la Definicion 1.3, ya que el pivote de la segunda fila esta a la derecha del primer pivote y no a
la izquierda, para organizarlos, intercambiamos las dos primeras filas:
3
0 0 1 1 F1 F2 1 1 0 2
3
1 1 0 2
0 0 1 1 .
1
0 0 0 2 0 0 0 21
Finalmente observamos que la primera entrada no nula de la tercera fila es la ultima entrada en esta fila, para
convertirla en un uno y anular la otras entradas
de la ultima columna repetimos los pasos que hicimos en (1.4)
1 1 0 0
y obtenemos nuevamente que la matriz 0 0 1 0 es la forma escalonada reducida de A.
0 0 0 1
2 4 2
Ejemplo 1.7. Calcule la forma escalonada reducida de la matriz A = 2 4 2 .
1 2 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 11
Ahora que sabemos que toda matriz se puede llevar, por medio de operaciones elementales, a una matriz en
forma escalonada reducida, debemos tambien saber para que nos sirve este resultado en terminos de soluciones
de sistemas de ecuaciones lineales. El siguiente teorema nos muestra la utilidad de poder reducir matrices a su
forma escalonada reducida ya que de esta ultima podemos determinar si un sistema tiene soluciones y en el caso
afirmativo tambien nos permite saber si la solucion es unica o existen infinitas.
a11 x1 + + a1n xn = b1 a11 b1 a1n
.. . .. ..
..
Teorema 1.2. Considere el sistema de ecuaciones . , sea A = .. . . .
am1 x1 + + amn xn = bm am1 amn bm
la matriz de coeficientes asociada al sistema y sea A la forma escalonada reducida de A. Tenemos los siguientes
casos:
1. Si A tiene pivote en todas las columnas excepto la ultima entonces el sistema tiene solucion unica.
3. Si A no tiene pivote en la ultima columna y hay al menos otra columna sin pivote entonces el sistema
tiene infinitas soluciones.
1 0 c1
. . ..
1. En este caso tenemos que A = .. . . . ..
Demostracion. . y posiblemente algunas filas de ceros
0 1 cn
al final, las cuales omitimos al no aportar ninguna informacion adicional.
2. Como A tiene un pivote en la ultima columna y un pivote es la primera entrada no nula de una fila
h i
entonces tenemos que la matriz A tiene una fila de la forma 0 0 1 y de esta fila se obtiene la
ecuacion 0 = 1, lo cual implica que el sistema es inconsistente.
3. Supongamos sin perdida de generalidad que las dos ultimas columnas de A no tienen pivote y que las
12
y posiblemente algunas filas cero de las cuales precindimos. As obtenemos las ecuaciones x1 + c1 xn =
d1 , . . . , xn1 + cn1 xn = dn1 o equivalentemente
Las cuales corresponden a las soluciones del sistema y por cada valor asignado a la variable xn obtenemos
una solucion, por tanto el sistema tiene infinitas soluciones.
Un razonamiento similar demuestra esta afirmacion cuando la columna sin pivote esta en una columna
diferente y tambien en el caso en donde hay varias columnas sin pivotes.
A las variables correspondientes a columnas sin pivote se les llamara variables libres y a las demas se les
llamara variables basicas o no libres. La siguiente obervacion nos servira mas adelante.
Observacion 1.1. Los recprocos de las tres afirmaciones del teorema anterior tambien son ciertos, en la
Seccion 1.4 veremos que las operaciones elementales de fila son reversibles lo cual permite aplicar operaciones
elementales de fila a A hasta recuperar la matriz A lo que nos lleva de las soluciones al sistema original.
Corolario 1.3. Un sistema lineal con mas variables que ecuaciones (n > m) nunca tiene solucion unica.
Ejemplo 1.8. En este ejemplo se muestra las posibles soluciones para sistemas 2 2 segun sus matricces
escalonadas reducidas.
x + 2y = 3
1. En el Ejemplo 1.3 se obtuvo que al sistema lineal le corresponde la matriz de coeficientes
4x + 5y = 6
1 2 3 1 0 1
y que la matriz escalonada reducida era . Por el Teorema 1.2 el sistema tiene so-
4 5 6 0 1 1
lucion unica y esta dada por x = 1 y y = 1, la cual se muestra en la Figura 1.1.
1 4 1 4
x + y = 1
2. Al sistema lineal 3 3
le corresponde la matriz de coeficientes 3 3
y su matriz escalonada
1 1 1 1
x
3 + y = 3 3 1 3
1 3 0
reducida es . Por el Teorema 1.2 el sistema tiene solucion vaca, lo cual se muestra en la Figura
0 0 1
1.1.
x + 3y = 3 1 3 3
3. Al sistema lineal le corresponde la matriz de coeficientes y su matriz escalonada
2x + 6y = 6 2 6 6
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 13
1 3 3
reducida es . Por el Teorema 1.2 el sistema tiene infinitas soluciones, lo cual se muestra en la
0 0 0
Figura 1.1.
x1 + x2 + x3 + x4 = 4
Ejemplo 1.9. Determine si el sistema tiene soluciones y en el caso afirmativo escribalas
x3 x4 = 3
de forma parametrica.
1 1 1 1 4
Solucion. La matriz de coeficientes es y su forma escalonada reducida esta dada por A =
0 0 1 1 3
1 1 0 2 1
. Por el Teorema 1.2 el sistema tiene infinitas soluciones las cuales se pueden dar en forma
0 0 1 1 3
parametrica leyendo el sistema de ecuaciones de la matriz A , las cuales son x1 + x2 + 2x4 = 1 y x3 x4 = 3,
y escribiendo las variables basicas en terminos de las variables libres obtenemos
x1 = 1 x2 2x4
x3 = 3 + x4 .
De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y por cada par de valores que se le
asignen a estas variables, se tiene una solucion particular, si a estas variables les asignamos valores parametricos
x2 = t y x4 = u obtenemos todas las soluciones parametricas al sistema:
x1 = 1 t 2u
x2 = t
x3 = 3 + u
x4 = u.
x + 2y + 3z = 1
Ejemplo 1.10. Considere el sistema 3y 2z = 1 . La matriz asociada al sistema esta dada por A =
2x y 8z = 1
1 2 3 1
0 3 2 1 cuya forma escalonada reducida R fue calculada en en el Ejemplo 1.5
2 1 8 1
1 0 133
1
3
R = 0 1 32 31 .
0 0 0 0
De aqu tenemos que el sistema tiene infinitas soluciones las cuales estan dadas por
1 13
x= 3 + 3 z
y = 31 + 23 z,
14
asignando el valor parametrico z = t a la variable libre z, obtenemos las soluciones parametricas al sistema:
1 13
x= 3 + 3 t
y = 13 + 32 t
z= t
x + 2y + 3z = 1
Ejemplo 1.11. (MatLab) El sistema 2x 4y 6z = 1 tiene matriz asociada al sistema dada por
2x y 8z = 1
1 2 3 1
A = 2 4 6 1 .
2 1 8 1
Usando MatLab para calcular la forma escalonada reducida de A,
(>>format rat, A = [1, 2, 3, 1; 2, 4, 6, 1; 2, 1, 8, 1]; R = rref (A)), obtenemos la matriz
1 0 13 3 0
2
R = 0 1 3 0 .
0 0 0 1
Como esta ultima matriz tiene un pivote en la ultima columna, entonces por el Teorema 1.2 el sistema no tiene
solucion.
Del Teorema 1.2 tambien se desprende el siguiente corolario, para el cual necesitamos la siguiente definicion.
a11 x1 + + a1n xn = 0
..
. ,
am1 x1 + + amn xn = 0
Definicion 1.5. Sea A una matriz y A su forma escalonada reducida. Definimos el rango de A, denotado por
rango(A), como el numero de pivotes de A .
Ejemplo 1.12. Para las matrices del Ejemplo 1.4 se tiene que
Problemas
x 2y + 3z = 7 2x + 4y 4z = 6 x+yz =7
a. 2x + y z = 7 b. 2x 5y + 4z = 6 c. xy+z =4
2x y z = 7 x + 16y 14z = 3 2x + y + z = 3
x + 2y + 3z + 4w = 1
x + 2y + 3z = 1 x + 2y + 3z + w = 7
x + 2y + 3z + 3w = 2
d. 4x + 5y + 6z = 2 e. 4x + 5y + 6z + 2w = 7 f.
x + 2y + 2z + 2w = 3
7x + 8y + 9z = 4 7x + 8y + 9z + 4w = 7
x+ y+ z+ w =1
1.1.2. Encuentre las soluciones parametricas al sistema y uselas para calcular dos soluciones particulares:
x 2y + 3z + w = 3
y =2
w=1
2x y + 3z =
1.1.3. Demuestre que el sistema 3x + y 5z = es consistente si y solo si = 2 3.
5x 5y + 21z =
1.1.4. Para los sistemas cuyas matrices aumentadas estan dadas en los numerales desde a. hasta c. determine
los valores y para los cuales el sistema tiene:
I. Ninguna solucion.
ax + by = 0
1.1.5. Muestre que el sistema tiene solucion si y solo si ad bc = 0.
cx + dy = 0
1.1.6. Haga una lista de todas las matrices 34 que esten en forma escalonada reducida.
1.1.8. Muestre que si el numero de ecuaciones en un sistema lineal homogeneo es menor que el numero de sus
incognitas, entonces el sistema tiene una solucion no trivial.
16
1.1.9. Muestre que efectuar operaciones elementales en un sistema de ecuaciones produce un sistema ecuaciones
equivalente. Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.
1.1.10. Usando el Problema 1.1.9, muestre que un sistema de ecuaciones es equivalente al sistema de ecuaciones
que se obtiene de la correspondiente matriz escalonada reducida.
ax + by = 0
1.1.12. Demuestre que el sistema homogeneo tiene infinitas soluciones si y solo si ad bc = 0
cx + dy = 0
En esta seccion se expondran las operaciones basicas entre matrices y vectores y se mostraran las propiedades
que estas operaciones satisfacen.
Definicion 1.6. Definimos vector columna (fila) como una matriz con una sola columna (fila).
1
h i
Ejemplo 1.13. v = 2 es un vector columna y w = 0 1 es un vector fila.
1
Notacion 1. Denotaremos por Omn a la matriz de ceros de tamano m n, o simplemente por O si no hay
lugar a confusion y al vector cero lo denotaremos por n o simplemente si no hay lugar a confusion.
Si A es una matriz, denotamos por Ai el vector fila formado por la i-esima fila de A y por Ai el vector
columna formado por la i-esima columna de A.
El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.
1. (A + B) + C = A + (B + C) 2. A + Omn = Omn + A = A
3. A + (1A) = 1A + A = O 4. A+B =B+A
5. (A + B) = A + B 6. ( + )A = A + A
7. ()A = (A) 8. 1A = A
18
De la Propiedad 3. de este teorema se observa que 1A es el inverso aditivo de A y este sera denotado por
A (el inverso aditivo de una matriz es unico, ver Problema 1.2.4 ). En este sentido la diferencia de dos matrices
A y B, A B, se define como: A + (B).
El siguiente teorema establece las propiedades analogas que se cumplen para vectores.
1. (x + y) + z = x + (y + z) 2. x + n = n + x = x
3. x + (1x) = 1x + x = n 4. x+y =y+x
5. (x + y) = x + y 6. ( + )x = x + x
7. ()x = (x) 8. 1x = x
a11 a1n
. .. ..
Definicion 1.9. Sea A = .. . . una matriz de tamano m n, definimos la matriz transpuesta
am1 amn
de A, denotada por At , como la matriz cuyas columnas son las filas de A, esto es:
a11 am1
. .. ..
At = ..
. . .
a1n amn
Ejemplo1.16. (MatLab)El comando en MatLab para calcular la transpuesta de una matriz es transpose.
32 10 78
Sea A = 3 56 89, as para calcular su transpuesta se hace:
45 0 9
>> A = [32, 10, 78; 3, 56, 89; 45, 0, 9]; T = transpose(A)
32 3 45
Obteniedo la matriz T = At = 10
56 0 .
78 89 9
a11 a1n
. .. ..
Definicion 1.10. (Producto de matrices) Sea A = .. . . una matriz de tamano m n y B =
am1 amn
b11 b1q
.. .. ..
. . . de tamano n q. Definimos el producto A B, usualmente denotado por AB, como la matriz
bn1 bnq
c11 c1q
. .. .. Pn
de tamano m q dada por AB = .. . . donde cij = k=1 aik bkj = ai1 b1j + ai2 b2j + + ain bnj ,
cm1 cmq
para i = 1, . . . , m y j = 1, . . . , q.
Notese que la ij-esima entrada de la matriz AB es la suma de los productos de cada entrada en la fila i de A
por la respectiva entrada de la columna j de B, esto es:
a a1n
11
. .. ..
.. .
. b11 b1j b1q
. .. .. .. ..
a ain . . .
.
i1
.
. . .
. .. ..
. . . bn1 bnj bnq
am1 amn
t
Este producto coincide con el producto escalar Ai Bj , donde Ai es la i-esima fila de A y Bj es la j-esima
columna de B.
2 0
1 1 0
Ejemplo 1.17. Calcular el producto AB donde A = yB=
2
1 .
2 2 3
1 0
20
Solucion. Vamos a calcular cada una de las entradas cij de la matriz AB:
2 1 2
h it
1 t
c11 = A B1 = 1 1 0 2 = 1 2 = 2 + 2 + 0 = 4,
1 0 1
0 1 0
h it
1 t
c12 = A B2 = 1 1 0 1 = 1 1 = 0 1 + 0 = 1,
0 0 0
2 2 2
h it
2 t
c21 = A B1 = 2 2 3 2 = 2 2 = 4 4 3 = 3,
1 3 1
0 2 0
h it
2 t
c22 = A B2 = 2 2 3 1 = 2 1 = 0 + 2 + 0 = 2.
0 3 0
Demostracion. Sean aij , bij y cij las entradas de las matrices A, B y C respectivamente, y sean dij y eij las
entradas de las matrices AB y BC respectivamente. Por definicion del producto de matrices tenemos que
n
X p
X
dij = aik bkj y eij = bih chj .
k=1 h=1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 21
Ahora, sean fij y gij las entradas de las matrices A(BC) y (AB)C respectivamente. Entonces
n
X n
X p
X p
n X
X
fij = aik ekj = aik bkh chj = aik bkh chj y (1.5)
k=1 k=1 h=1 k=1 h=1
p
X p X
X n p
n X
X
gij = dih chj = aik bkh chj = aik bkh chj . (1.6)
h=1 h=1 k=1 k=1 h=1
De las ecuaciones (1.5) y (1.6) tenemos que (AB)C = A(BC).
Una matriz con igual numero de filas y columnas, es de decir de tamano n n, se llama matriz cuadrada.
El producto de matrices cuadradas satisface otras propiedades importantes, entre ellas la existencia de una
matriz neutra bajo
el producto, a la cual se le llama la matriz identidad y se denota por In . Esta matriz se
1 0
.. . . .
define por In = . . .. , es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal
0 1
son uno y ceros por fuera esta. Listamos a continuacion mas propiedades de las operaciones con matrices.
2. Okm A = Okn y AOnk = Omk para cualquier k = 1, 2, 3, . En particular si A es una matriz cuadrada de
tamano n n entonces AOnn = Onn A = Onn .
A continuacion listamos tres propiedades, que aunque parecen no tener mucha importancia, seran muy utiles
en muchas demostraciones en el resto del libro.
A1
.
Lema 1.9. Sean A = .. una matriz de tamano m n donde A1 , . . . , Am son las filas de A, B =
Am
x1
h i
..
B1 Bq de tamano n q donde B1 , . . . , Bq son las columnas de B y x = . un vector columna,
xq
entonces
1. Las columnas del producto AB son los vectores columna AB1 , . . . , ABq , es decir
h i
AB = AB1 ABq .
A1 B
.
2. Las filas del producto AB son los vectores fila A1 B, . . . , Am B, esto es, AB = .. .
Am B
22
En el siguiente ejemplo se muestra como puede ser usado el lema anterior para realizar el producto de matrices.
2
1 3 1 0 3
Ejemplo 1.19. Sean A = , B = y x = 3
. El producto AB se puede ver de las
4 1 2 1 1
1
siguientes formas h i
1 3 B
AB = h i y
4 1 B
1 0 3
AB = A A A
2 1 1
1 3 1 3 1 3
= 1 + 2 0 1 3 + 1
4 1 4 1 4 1
5 3 0
= .
2 1 11
El producto de matrices sirve para establecer otra conexion entre matrices y sistemas de ecuaciones lineales. Sea
a11 x1 + + a1n xn = b1
..
. un sistema de ecuaciones lineales, entonces por definicion del producto de matrices
am1 x1 + + amn xn = bm
a11 a1n x1
.. .. .
.. , x = ...
tenemos que este sistema es equivalente a la ecuacion matricial Ax = b donde A = . .
am1 amn xn
b1
.
y b = .. . En lo que sigue del libro usaremos la ecuacion matricial Ax = b en lugar del sistema de ecuaciones.
bm
Terminamos la seccion definiendo matrices triangulares y matriz diagonal, que aparecen muy a menudo en
varias partes del libro.
a11 a1n
.. .. ..
Definicion 1.11. Sea A = . . . una matriz de tamano n n, decimos que
an1 ann
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 23
Problemas
3
1 2
1.2.1. Ejecutar las operaciones indicadas con los vectores v = 1, w = 1 y z = 5 .
3 2 0
a. v+w b. 3v c. 3w d. 3v + 2d 3w.
1 2 2 2
1.2.2. Ejecutar las operaciones indicadas con las matrices A = 1 3 y B = 3 1 .
0 1 1 1
a. A+B b. AB c. 3A d. 3A + 2B.
1.2.3. Es muy posible que los estudiantes que esten tomando algebra lineal por primera vez esten acostumbrados
a que al multiplicar dos cosas distintas de cero su resultado sea distinto de cero. En la multiplicacion de matrices
esto puede no ocurrir. Al resolver este problema encontraran ejemplos de esta situacion y de otras situaciones
a las que posiblemente no esten acostumbrados.
0 1 0
0 1 3 3 1 0 1 0 0 0
Sean A = , B = , C = , D = , E = yF =
0
0 1. Calcule
0 0 52 52 1 0 0 0 0 1
0 0 0
los siguientes productos:
(a) AA, F F F y BC. Puede concluir algo mas general del producto BC?
(b) DD y EE.
(a) (A + B)t = At + B t .
1.2.8. Una matriz cuadrada se llama una matriz de probabilidad si cada componente es no-negativa y la suma
de los elementos de cada fila es 1. Demuestre que si A y B son dos matrices de probabilidad tamanos m n y
n q, entonces AB es una matriz de probabilidad.
1. A + B es simetrica.
2. (AB)t = BA.
1.2.10. Si A es una matriz de tamano m n, demuestre que AAt y At A son matrices simetricas.
1.2.11. Sea A Mn (R), muestre que A+At es simetrica y AAt es antisimetrica y A = 21 (A+At )+ 21 (AAt ).
Es decir, toda matriz cuadrada se puede expresar como la suma de una matriz simetrica y una antisimetrica.
4. En todos los anteriores casos, si las entradas en las diagonales principales de A y de B son, respectivamen-
te, a11 , . . . , ann y b11 , . . . , ann , entonces las entradas en la diagonal principal de AB son a11 b11 , . . . , ann bnn .
" 0 #
1
entonces BA = .. .
.
n Fn
1.2.14. Si A Mmn (R), demuestre que rangoA = 1 si y solo si existen vectores v Rm y w Rn tal que
A = vwt .
1.2.16. Si A y B son matrices cuadradas que conmutan y son nilpotentes entonces A + B es nilpotente.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 25
Definicion 1.12. Sea A una matriz cuadrada de tamano n n, decimos que A es invertible si existe una
matriz B de tamano n n tal que AB = BA = In .
2 1
Ejemplo 1.21. La matriz A = es invertible ya que el producto
1 1
1 1 2 1 1 1 1 0
A = = = I2 .
1 2 1 1 1 2 0 1
1 1
Ejemplo 1.22. No toda matriz tiene inversa, por ejemplo, si la matriz A = tuviera una inversa,
0 0
a c a+b c+d
entonces existira una matriz B = tal que AB = BA = I2 . Sin embargo AB = y
b d 0 0
a+b c+d 1 0
tendramos que = I2 = , por tanto 0=1 lo cual es una contradiccion y A no puede ser
0 0 0 1
invertible.
En general si A es una matriz con una fila de ceros entonces A no es invertible. Esta afirmacion se deja como
ejercicio, Problema 1.3.5.
Las matrices invertibles satisfacen las siguientes propiedades.
Lema 1.10. Sea A una matriz n n una matriz invertible, entonces la inversa es unica.
AB = BA = In y AC = CA = In .
Entonces utilizando una de las propiedades de la matriz identidad del Teorema 1.8 tenemos que:
Notacion 2. Como la inversa de una matriz invertible es unica, entonces de ahora en adelante la denotaremos
por A1 .
1 t
2. A es invertible si y solo si At es invertible y en este caso se tiene que (At ) = A1 .
Demostracion. 1. Utilizando la propiedad asociativa del producto de matrices (Teorema 1.7) se tiene que
(AB)(B 1 A1 ) = A BB 1 1 1 1
| {z } A = AIA = AA = I
=I
2. Supongamos que A es invertible, por el Problema 1.2.6 tenemos que At (A1 )t = (A1 A)t = I t = I y
ademas (A1 )t At = (AA1 )t = I t = I, entonces la matriz (A1 )t es la invera de At , como la inversa es
unica obtenemos que (At )1 = (A1 )t .
1 1 3 1 1 2
Ejemplo 1.23 (MatLab). Sean A = 1 2 2 y B = 0 0 1, de acuerdo al teorema anterior hay
2 0 2 1 2 2
dos maneras de calcular (AB)1 , las cuales son multiplicar A y B y despues calcular su inversa, o calcular B 1
y A1 y multiplicarlas. El comando para calcular la inversa de una matriz es inv, a continuacion exhibimos
estos calculos en MatLab.
>> format rat, A = [1, 1, 3; 1, 2,
2; 2, 0, 2]; B
= [1, 1,
2; 0, 0, 1; 1, 2,2]; C = inv(AB), D = inv(B)inv(A)
8 7 7
8 7 7
3 3 6 3 3 6
5 5
Obteniendo las matrices C = 34 2
3
y D = 34
6
2
3
,
6
las cuales son iguales.
1
3 23 1
6
1
3 23 1
6
El teorema tambien nos dice que hay dos maneras de calcular la inversa de At , una de forma directa y la
otra se obtiene al transponer A1 .
>> format rat, A = [1, 1, 3; 1, 2, 2;
2, 0, 2]; E = transpose(inv(A))
23 1
3
2
3
1
Obteniendo E = 3 23
13 y si se calcula de la siguiente forma,
2 1 1
3 6 6
>> format rat, A = [1, 1, 3; 1, 2, 2; 2, 0, 2]; F = inv(transpose(A))
se obtiene lo mismo.
Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene solucion unica y esta es facl
de calcular como se muestra a continuacion.
x y + 3z = 2
Ejemplo 1.24. (MatLab) Resuelva el sistema lineal x 2y + 2z = 1.
2x + 2z = 0
1 1
3 2
Solucion. El sistema es equivalente a la ecuacion Ax = b con A = 1 2 2 y b = 1 y de acuerdo al
2 0 2 0
teorema anterior la solucion esta dada por x = A1 b la cual calculamos con MatLab
>> A = [1, 1, 3; 1, 2, 2; 2, 0, 2]; b = [2; 1; 0]; x = inv(A) b
1
Obteniendose el vector x = 0 . Entonces la solucion al sistema esta dada por x = 1, y = 0 y z = 1.
1
Problemas
a b
1.3.1. Demuestre que una matriz A = es su propia inversa si y solo si A = I o a = d y bc = 1 a2 .
c d
1.3.3. Sea A una matriz m n y sea B una matriz n m con n < m, demuestre que AB no es invertible.
(Ayuda: Demuestre que existe x 6= 0 tal que ABx = 0.)
1.3.5. Demuestre que si una matriz A tiene una fila o una columna de ceros, entonces A no es invertible (Use
el Lema 1.9.)
Definicion 1.13. Sea E una matriz de tamano n n, decimos que E es una matriz elemental si E se obtiene
de la identidad al aplicar una operacion elemental de fila.
Cada una de estas matrices se obtiene al aplicar una operacion sobre la matriz identidad, como se muestra a
conitunacion:
1 0 0 0 1 0
F F
1 2
0 1 0 1 0 0 = A,
0 0 1 0 0 1
1 0 0 1 2 0
2F + F F
2 1 1
0 1 0 0 1 0 = B,
0 0 1 0 0 1
y
1 0 0 1 0 0
0 1 0 0 3 0 = C.
3F2 F2
0 0 1 0 0 1
Notacion 3. Como hay tres tipos diferentes de operaciones elementales, hay un numero igual de tipos de
matrices elementales, entonces usaremos la siguiente notacion.
Eij denotara la matriz elemental que se obtiene al intercambiar las filas i y j de la matriz identidad.
Eij (c) denotara la matriz que se obtiene al sumar c veces la fila i a la fila j de la matriz identidad.
Ei (c) la matriz que se obtiene al multiplicar por la constante c la fila i de la matriz identidad.
Ejemplo 1.26. En el ejemplo anterior tenemos que A = E12 , B = E21 (2) y C = E2 (3).
La importancia de las matrices elementales reside en el hecho de que estas matrices reemplazan las opera-
ciones elementales ya que aplicar una operacion elemental a una matriz A es equivalente a multiplicar la matriz
elemental correspondiente a la operacion por A. Esto lo expresamos en el siguiente teorema.
Teorema 1.13. Sea A una matriz de tamano m n y E una matriz elemental de tamano m m asociada a
una operacion elemental de fila, el producto EA es la matriz que se obtiene al aplicar la operacion elemental de
fila a la matriz A.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 29
La demostracion de este teorema se hace verificando que al aplicar una operacion elemental se obtiene la
misma matriz que al multiplicar la matriz asociada a la operacion elemental, se debe considerar un caso por cada
operacion elemental. La verificacion es sencilla y preferimos mostrar un ejemplo que compruebe la afirmacion.
2 2 4
1
Ejemplo 1.27. Sea A = 0 1 1. Al aplicar la operacion que multiplica la primera fila por 2 obtenemos
4 5 1
1 1 2
la matriz 0 1 1.
4 5 1
1
0 0
2
Notese que la matriz elemental asociada a esta operacion es la matriz E1 ( 12 ) = 0 1 0 y es facil
0 0 1
1 1 2
verificar que E1 ( 12 )A = 0 1 1.
4 5 1
2 2 4
Si en la matriz A sumamos -2 veces la fila 1 a la fila 3 obtenemos la matriz 0 1 1.
0 1 7
1 0 0
Notese que la matriz elemental asociada a esta operacion esta dada por E13 (2) = 0 1 0 y es facil
2 0 1
2 2 4
verificar que E13 (2)A = 0 1 1.
0 1 7
2 2 4
Finalmente, si en la matriz A intercambiamos las filas 2 y 3 obtenemos la matriz 4 5 1 . La matriz
0 1 1
1 0 0 2 2 4
elemental asociada a esta operacion de fila es E23 = 0 0 1 y facil ver que E23 A = 4 5 1 .
0 1 0 0 1 1
Las operaciones elementales de fila son reversibles, es decir, al aplicar una operacion elemental de fila, siempre
se puede aplicar otra operacion elemental que deshaga la operacion aplicada. Esto se muestra en el siguiente
ejemplo.
Ejemplo 1.28. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =
30
0 1
3
2 0 2, si intercambiamos las filas 1 y 2 de esta matriz y aplicaramos nuevamente la misma operacion,
3 1 0
obtenemos la matriz orginal como se muestra a continuacion
0 1 3 2 0 2 0 1 3
F F F F
1 2 1 2
2 0 2 0 1 3 2 0 2 .
3 1 0 3 1 0 3 1 0
En general, si se intercambian dos filas de una matriz, la operacion se puede revertir al volver a intercambiarlas
una vez mas. Esto a la vez nos dice que la matriz elemental Eij , asociada a esta operacion de intercambio de
1
dos filas, es invertible y es igual a su propia inversa, esto es Eij = Eij .
1
Volviendo a la matriz A, si multiplicamos la fila 2 por 2 y despues multiplicamos la misma fila por 2 obtenemos
la matriz original como se muestra a continuacion
0 1 3 0 1 3 0 1 3
1
2 0 2 2 F2 F2 1 0 1 2F2 F2 2 0 2 .
3 1 0 3 1 0 3 1 0
En general, si se multiplica una fila de una matriz por una constante c 6= 0, la operacion se puede revertir al
1
volver a multiplicar la misma fila de la nueva matriz por la constante c. Esto a la vez nos dice que la matriz
elemental Ei (c), asociada a esta operacion de multiplicar la fila i por una constante c 6= 0, es invertible y su
inversa esta dada por Ei (c)1 = Ei 1c .
1 1
Una vez mas regresamos a la matriz A, si le sumaramos 2 de la fila 2 a la fila 1 y despues le sumaramos 2 de
la fila 2 a la fila 1 obtenemos la matriz original como se muestra a continuacion
1 1
0 1 3 2 F2 + F1 F1 1 1 4 2 F2 + F1 F1 0 1 3
2 0 2 2 0 2 2 0 2 .
3 1 0 3 1 0 3 1 0
Comunmente, si se le suma c veces la fila i de una matriz a la fila j, la operacion se puede revertir al volver
a sumar c veces la fila i a la fila j. Esto una vez mas nos dice que la matriz elemental Eij (c), asociada a
esta operacion de sumar c veces la fila i a la fila j, tambien es invertible y su inversa esta dada por Eij (c)1 =
Eij (c) .
Teorema 1.14. Toda matriz elemental es invertible y las inversas estan dadas por
1 1
Eij = Eij , Eij (c)1 = Eij (c) y Ei (c)1 = Ei .
c
Al aplicar reduccion Gauss-Jordan a una matriz, por cada operacion elemental de fila, hay una matriz
elemental, la matriz que se obtiene al aplicar la operacion de fila a la matriz identidad. Como toda matriz se
puede reducir a una forma escalonada reducida, entonces se tiene el siguiente teorema.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 31
Teorema 1.15. Toda matriz se puede expresar como el producto de un numero finito de matrices elementales
por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tamano m n, existen
matrices elementales E1 , . . . , Ek todas de tamano m m y una matriz escalonada reducida A tal que
A = E1 Ek A .
Demostracion. El resultado se sigue de los Teoremas 1.1 y 1.13 teniendo en cuenta que a cada operacion
elemental tiene asociada una matriz elemental.
1 1 0
Ejemplo 1.29. Expresar la matriz A = 1 1 2 como un producto de matrices elementales por una matriz
2 2 2
en forma escalonada reducida.
Solucion. Necesitamos aplicar reduccion Gauss-Jordan a la matriz A indicando las matrices elementales aso-
ciadas a cada operacion aplicada
1 1 0 1 1 0 1 1 0 1 1 0 1 1 0
1 1 2 F1 +F2 F2 0 0 2 0 0 2 12 F2 F2 0 0 1 0 0 1 .
2 2 2 2 2 2 2F1 +F3 F3 0 0 2 0 0 2 2F2 +F3 F3 0 0 0
| {z } | {z } | {z } | {z }
E12 (1) E13 (2) E2 ( 21 ) E23 (2)
1 1 0
1
E13 (2)E12 (1)A = A con A = 0 0 1. Entonces se
Por el Teorema 1.13 tenemos que E23 (2)E2 2
0 0 0
tiene que
1
1
A = E12 (1)1 E13 (2)1 E2 E23 (2)1 A
2
= E12 (1)E13 (2)E2 (2)E23 (2)A .
Ahora usaremos matrices elementales para dar un criterio de invertibilidad de una matriz. Primero debemos
observar lo siguiente.
Lema 1.16. Sea A una matriz de tamano n n en forma escalonada reducida, entonces A es invertible si y
solo si A = I.
Demostracion. Supongamos que A es una matriz escalonada reducida invertible y razonemos por el
absurdo, supongamos que A 6= I, entonces A tiene al menos una columna sin pivote y al ser de tamano n n,
A debe tener al menos una fila de ceros, entonces por el Problema 1.3.5 A no puede ser invertible, lo cual es un
absurdo. Concluimos que A = I.
Si A = I entonces A es claramente invertible.
Teorema 1.17. Sea A una matriz de tamano n n, entonces A es invertible si y solo si A se puede escribir
como un producto de matrices elementales.
De aqu tenemos que E32 (2)E31 (1)E23 (1)E13 (1)E12 A = I, por tanto
1
A = E12 E13 (1)1 E23 (1)1 E31 (1)1 E32 (2)1
Las matrices elementales tambien nos ayudan a demostrar un algoritmo para calcular la inversa de una matriz,
el cual enunciamos a continuacion.
Notacion 4. Sea A y B matrices con el mismo numero de filas, a la matriz obtenida de juntar ambas matrices
h i
se llamara matriz aumentada y se denotara por A B .
Teorema 1.18. (Algoritmo para calcular la inversa de una matriz) Sea A una matriz invertible de tamano nn,
h i h i
al aplicar reduccion Gauss-Jordan a la matriz aunmentada A I obtenemos la matriz I A1 . Mas
h i
aun, si B es una matriz de tamano n q, al aplicar reduccion Gauss-Jordan a la matriz aumentada A B
h i
obtenemos la matriz I A1 B .
Demostracion. Sean E1 , . . . , Ek las matrices elementales asociadas a las operaciones elementales necesarias
para reducir la matriz A a su forma escalonada reducida A . Como A es invertible entonces A = I y tenemos
h i
que Ek E1 A = I. Al aplicar las operaciones E1 , . . . , Ek a la matriz A | I obtenemos
E1 2 E k E
[A | I] [E1 A | E1 I = E1 ] [E2 E1 A | E2 E1 ] . . . E k E1 A | E k E1 . (1.7)
| {z }
=I
0 1 2
1 calcular A1 .
Ejemplo 1.31. (MatLab) Sea A = 1 1
1 2 2
h i
Solucion. Usando MatLab para calcular la forma escalonada reducida de la matriz A I obtenemos
>> AI = [0, 1, 2, 1, 0, 0; 1, 1, 1, 0, 1, 0; 1, 2, 2, 0,0,1]; rref (AI)
1 0 0 0 2 1
h i
Obteniendo la matriz aumentada I A = 0 1 0 1 2 2 , de lo cual se sigue que la matriz
0 0 1 1 1 1
0 2 1
1
inversa A = 1 2 2.
1 1 1
0 1 2 1 2
1 y B = 2 3, calcular A1 B.
Ejemplo 1.32. (MatLab) Sean A = 1 1
1 2 2 0 1
34
Solucion. De acuerdo al teorema anterior debemos encontrar la forma escalonada reducida de la matriz au-
0 1 2 1 2
h i
mentada C = A B = 1 1 1 2 3 , la cual calculamos usando MatLab
1 2 2 0 1
>> C = [0, 1, 2,
1, 2; 1, 1, 1, 2, 3; 1, 2,
2, 0, 1]; rref (C)
1 0 0 4 7 4 7
y se obtiene 0 1 0 5 10 . De acuerdo al teorema anterior A1 B = 5 10.
0 0 1 3 6 3 6
Observacion 1.2. Del Teorema 1.18 se sigue que al aplicar reduccion Gauss-Jordan a una matriz invertible A
se obtiene I, si se aplican las mismas operaciones elementales que se aplicaron a A para reducirla a I entonces
se obtiene el producto de las correspondientes matrices elementales, producto que a su vez es igual a A1 . Es
decir, si E1 , . . . , Ek son las matrices elementales asociadas a las operaciones elementales que se usaron para
reducir la matriz A, entonces al aplicar las mismas operaciones elementales y en el mismo orden sobre la matriz
I, el resultado final es A1 .
Esto es cierto ya que aplicar una operacion elemental a una matriz es equivalente a multiplicar por la matriz
elemental asociada a la operacion a la izquierda, al comenzar con I obtenemos
E E E
1
I 2
E1 I = E1 k
Ek E1 = A1 .
Observacion 1.3. Si en el Teorema 1.18 las columnas de la matriz B son los vectores B1 , . . . , Bq , entonces al
h i h i
aplicar reduccion Gauss-Jordan a la matriz aumentada A B = A B1 Bq obtenemos la matriz
h i
A1 B = A1 B1 A1 Bq , obteniendo soluciones simultaneas a los sistemas Ax = B1 , . . . , Ax = Bq .
x2 + 2x3 = 1 x2 + 2x3 = 2
x1 + x2 + x3 = 2 y x1 + x2 + x3 = 3
x1 2x2 2x3 = 0 x1 2x2 2x3 = 1.
Solucion. Estos sistemas son equivalentes a las ecuaciones matriciales
0 1 2 1 2
Ax = b1 y Ax = b2 donde, A = 1 1 1 , b1 = 2 y b 1 = 3 .
1 2 2 0 1
Estos se pueden resolver
simultaneamente calculando la forma escalonada
reducida de la
matriz aumentada
0 1 2 1 2 1 0 0 4 7
h i
A b 1 b2 = 1 1 1 2 3 , la cual esta dada por 0 1 0 5 10 (ver ejemplo ante-
1 2 2 0 1 0 0 1 3 6
rior) y por tanto las respectivas soluciones a los sistemas estan dadas por
4 7
x = 10 .
x = 5 y
3 6
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 35
Terminamos la seccion con el siguiente teorema que sera util en el proximo captulo, en este teorema se
explota el hecho de que las operaciones elementales son reversibles.
Teorema 1.19. Sea A una matriz de tamano m n y A su forma escalonada reducida. Entonces Ax = 0 si
y solo si A x = 0, es decir, x es una solucion al sistema homogeneo Ax = 0 si y solo si x es una solucion al
sistema A x = 0.
a11 a1n a11 x1 + + a1n xn = 0
.. .. .. ..
Demostracion. Si A = . . . , entonces el sistema es equivalente a .
am1 amn am1 x1 + + amn xn = 0,
h i
el cual se puede resolver aplicando las operaciones elementales de fila a la matriz aumentada A 0 . Si aplicamos
h i
operaciones hasta llegar a la forma escalonada reducida obtenemos la matriz A 0 , la cual nos da las soluciones
al sistema A x = 0. Ahora como las operaciones elementales son reversibles, comenzando con el sistema A x = 0,
podemos llegar al sistema Ax = 0. Por tanto Ax = 0 si y solo si A x = 0.
Problemas
1.4.1. Determine si las siguientes matrices son invertibles y en caso afirmativo calcule su inversa.
1 1 1 2 0 4 2 0 4
A = 1 2 2 , B = 0 2 2 y C = 0 2 10 .
4 4 1 3 1 1 3 1 1
1.4.2. Escriba las siguientes matrices y sus inversas como producto de matrices elementales.
1 1 1 2 0 4
A = 1 2 2 y B = 0 2 2 .
4 4 1 3 1 1
1.4.3. Escribala matriz A como un producto de matrices elementales por una matriz en forma escalonada
1 1 1 1 1 1
1 1 1 1 1 2
reducida. A =
.
1 1 1 1 2 3
1 1 1 2 3 4
1.4.4. si A y B tienen la misma forma escalonada reducida entonces existen matrices elementales E1 , . . . , Es
tal que A = E1 Es B.
En esta seccion se definira el concepto de inversa lateral, que generaliza el concepto de invertibilidad de
una matriz. Veremos que hay matrices que no son invertibles que tienen inversa a la izquierda o a la derecha y
mostraremos criterios claros que nos permitiran decidir cuando una matriz posee inversas laterales y algoritmos
para calcularlas. Terminaremos el captulo con un teorema que reune todas las propiedades equivalentes a que
una matriz sea invertible.
1. Decimos que A tiene inversa a la izquierda si existe una matriz L de tamano n m tal que LA = In .
2. Decimos que A tiene inversa a la derecha si existe una matriz R de tamano n m tal que AR = Im .
1 0
1 1 0
Ejemplo 1.34. Sean A = yB= 0
0, un facil calculo nos muestra que AB = I2 y por tanto B
0 1 1
0 1
es una inversa a la derecha de A y a la vez, A es una inversa a la izquierda de B. Notese ademas que ni A ni
B son invertibles pues no son matrices cuadradas.
Tenemos el siguiente criterio para caracterizar las matrices que tienen inversa a la derecha. En lo que sigue,
para i = 1, . . . , n denotaremos por ei al vector columna en Rn cuya entrada es uno en la posicion i y cero en
las demas entradas, es decir,
1 0 0
0 1 0
0 0 0
e1 = .. , e2 = .. , ... en = .. .
. . .
0 0 0
0 0 1
Teorema 1.20. Sea A una matriz de tamano m n, entonces las siguientes afirmaciones son equivalentes:
= |{z}
AR b
=I
= b.
2 1Supongamos que la ecuacion Ax = b tiene solucion para cada b, entonces para cada i = 1, . . . , m, la
ecuacion Ax = ei tiene solucion. Sean r1 , . . . , rm las soluciones respectivas dichas ecuaciones. Es decir,
Ar1 = e1 , . . . , Arm = em .
h i
Sea R = r1 rm , entonces se tiene que
" #
h i h i
AR = A r1 Ar1
= |{z} Arm =
rm |{z} e1 em = I m .
=e1 =em
La parte 3. de este teorema nos dice que una matriz tiene inversa a la derecha si y solo si su forma escalonada
reducida tiene un pivote en cada fila. El teorema tambien nos ofrece un metodo calcular la inversa a la derecha, el
38
cual esta casi explcito en la demostracion de 1 2, ya que en ese numeral se prueba que las columnas R1 , . . . , Rm
de la inversa a la derecha R son las respectivas soluciones a las ecuaciones Ax = e1 , Ax = e2 , . . . , Ax = en como
se ilustra en el siguiente ejemplo.
Procedimiento 1.1. Sea A una matriz de tamano m n y A la forma escalonada reducida de A, si A tiene
un pivote en cada fila entonces A tiene una inversa a la derecha, para calcularla hacemos lo siguiente:
1. Para i = 1, , m, calculamos una solucion ri al sistema Ax = ei , es decir, un vector ri tal que Ari = ei .
El siguiente teorema carateriza las matrices con inversa a la izquierda, las propiedades son analogas a las del
teorema anterior para la inversa a derecha.
Teorema 1.21. Sea A una matriz de tamano m n, entonces las siguientes afirmaciones son equivalentes:
Av = L |{z}
v = Iv = L |{z} b = |{z}
LA w = Iw = w.
=b =Aw =I
Este teorema tambien nos da una forma de determinar si una matriz tiene inversa a la izquierda (se calcula el
rango y la matriz tiene inversa a la izquierda si y solo si el rango es igual al numero de columnas). El teorema
tambien provee un algorimo para calcular dicha matriz, el cual se describe a continuacion.
Procedimiento 1.2. Sea A una matriz de tamano m n y sea A la forma escalonada de de A, si A tiene
un pivote en cada columna entonces A tiene una inversa a la izquierda. Si A tiene inversa a la izquierda esta
se puede calcular haciendo lo siguiente:
2. Se calcula el producto de las matrices elementales Ek E1 asociadas a las operaciones elementales usadas
en el paso anterior. Este producto se puede calcular directamente aplicando sucesivamente las operaciones
elementales que se aplicaron en el paso anterior para reducir la matriz A comenzando con la matriz
identidad Im , con m = numero de filas de A.
Ejemplo 1.36. (MatLab) Para cada una de las matrices abajo, determine si tienen inversa a la izquierda y
encuentrela en caso afirmativo.
2 1 1 1
1 1 0
a. A = 4 2 b. B = c. C = 0 1 .
2 1 1
2 1 2 1
Solucion.
que r = 1, as como rango(A) = 1 < numero de columnas, entonces por el Teorema 1.21 la matriz no
tiene inversa a la izquierda.
2. La matriz B tiene 2 filas, de donde rango(B) 2 < 3 =numero de columnas. Por tanto B no tiene
inversa a la izquierda.
3. El rango de esta matriz C es dos, entonces C tiene inversa a la izquierda. Para calcular una inversa a la
izquierda debemos aplicar el procedimiento descrito arriba,
1 1 1 1 F2 +F1 F1 1 0 1 0
0 1 0 1 0 1 0 1 .
2 1 2F1 +F3 F3 0 3 0 3 3F2 +F3 F3 0 0
| {z } | {z } | {z }
E1 E2 E3
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 41
Donde E1 , E2 y E3 son las matrices elementales asociadas a cada una de las operaciones ejecutadas.
Hay otra forma de calcular la inversa a la izquierda de una matriz. Es facil ver que si R es una inversa a la
derecha de At entonces L = Rt es una inversa a la izquierda de A. Esto se ilustra en el siguiente ejemplo.
1 1
Ejemplo 1.37. (MatLab) Calcular una inversa a la izquierda de la matriz C = 0 1 .
2 1
Solucion. Para calcular la inversa a la derecha de C t , necesitamos resolver las ecuaciones C t x = e1 y C t x = e2 .
Estas soluciones las calculamos con MatLab
>> C t =[1,0, 2; 1, 1,
1]; e1 = [1; 0]; e2 = [0; 1]; r1 = A\e1, r2 = A\e2
1
2
3 3
r1 = 0 y r2 = 0 .
1 1
3 3
1
23
3
Entonces una inversa a la derecha de C t es la matriz R = 0
0 , por tanto una inversa a la izquierda de
1 1
3 3
1 1
3 0 3
C es la matriz L = Rt = .
32 0 1
3
Corolario 1.22. (Caracterizacion de una matriz invertible) Sea A una matriz cuadrada de tamano n n,
entonces las siguientes afirmaciones son equivalentes:
1. A es invertible.
11. At es invertible.
Demostracion. Las condiciones 1. y 12. son equivalentes por el Teorema 1.17, las condiciones 1. y 11. son
equivalentes por el Teorema 1.11, las condiciones 2. a 6. son equivalentes por el Teorema 1.21 y las condiciones
6. a 10. son equivalentes por el Teorema 1.20. Es suficiente demostrar que 1 2.
1 2Si A es invertible, entonces A1 A = I y por tanto A1 es inversa a la izquierda de A.
2 1Si A tiene inversa a la izquierda, entonces existe B tal que BA = I y por el Teorema 1.21, rango(A) = n =
numero de columnas. Como A es cuadrada entonces el numero de filas es igual al numero de columnas e igual
al rango(A), entonces por el Teorema 1.20, A tiene una inversa a la derecha C, de donde AC = I, entonces se
tiene que
B = BI = B(AC) = (BA)C = IC = C.
Problemas
1.5.1. Determine cual de las matrices tiene inversa a la izquierda o a la derecha y compute una para las que la
tengan:
1 2 1 1
1 1 1 2 1 5
a. . b. . c. 4 8 . d. 1 2 .
2 2 2 3 4 1
2 4 1 4
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 43
1 3 1
1.5.2. Encuentre soluciones a las ecuaciones Ax = e1 y Ax = e2 con A = y uselas para calcular
4 1 2
una inversa a la derecha de la matriz A.
1 1 1
1 1 2
1.5.3. Calcule una inversa a la izquierda de la matriz A =
.
1 2 3
1 2 4
1 1 1 1 1 1
1 1 1 1 1 2
1.5.4. Calcule una inversa a la derecha de la matriz B =
de dos formas: primero usando
1 1 1 1 2 3
1 1 1 2 3 4
el Procedimiento 1.1 y despues usando el Procedimiento 1.2 para calcular una inversa a la izquierda de B t .
1.5.5. Demuestre que si una matriz A de tamano m n tiene inversa a la izquierda L e inversa a la derecha
R, entonces L = R y m = n.
1.5.9. Muestre que una matriz no cuadrada no puede tener inversa a la izquierda y a la derecha.
1.5.10. Muestre que una matriz no cuadrada no puede ser la inversa a la izquierda y a la derecha de otra
matriz.
1.5.11. Muestre que Ax = b tiene solucion para todo b si y solo si At y = 0 tiene solucion unica.
1.5.12. Muestre que las matrices inversas a izquierda o derecha de una matriz no cuadrada no son unicas, de
hecho, pueden existir infinitas.
El siguiente ejercicio tiene el proposito de mostrar que en la definicion de matrices cuadradas invertibles es
suficiente exigir que existe B tal que AB = I.
1.5.13. Sea A Mn (R) una matriz y suponga que existe B tal que AB = I. Demuestre lo siguiente:
1. rangoA = n.
3. C = B
4. A es invertible.
Captulo 2
Espacios Vectoriales
2. El conjunto de matrices m n es un espacio vectorial, esto por el Teorema 1.5. A este conjunto lo deno-
taremos por Mmn (R) cuando las entradas sean reales y por Mmn (C) cuando las entradas sean complejas.
En el caso en que m = n, usaremos la notacion Mn (R) o Mn (C).
45
46
(a0 + a1 t + + an tn ) = a0 + a1 t + + an tn .
Sean p1 = a0 + a1 t + + an tn , p2 = b1 t + + bn tn y p3 = c0 + c1 t + + cn tn Pn , , R,
1.
(p1 + p2 ) + p3 =(a0 + a1 t + + an tn + b0 + b1 t + + bn tn )
+ c 0 + c 1 t + + c n tn
+ c 0 + c 1 t + + c n tn
(definicion de suma en Pn )
=((a0 + b0 ) + c0 ) + ((a1 + b1 ) + c1 )t + . . .
+ ((an + bn ) + cn )tn
(definicion de suma en Pn )
(asociatividad en R)
+ (bn + cn )tn
(definicion de suma en Pn )
=a0 + a1 t + + an tn
+ (b0 + b1 t + + bn tn + c0 + c1 t + + cn tn )
(definicion de suma en Pn )
=p1 + (p2 + p3 )
p1 + = a 0 + a 1 t + + a n t n + 0 = a 0 + a 1 t + + a n t n = p1
3. Sea w = a0 a1 t + an tn entonces
w + p1 = a0 a1 t + an tn + a0 + a1 t + + an tn +
= 0 = .
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 47
4.
p 1 + p 2 = a 0 + a 1 t + + a n t n + b0 + b1 t + + bn t n
(Definicion de suma en Pn )
(Conmuatitividad en R)
= b0 + b1 t + + bn t n + a 0 + a 1 t + + a n t n
(Definicion de suma en Pn )
= p2 + p1
5.
(p1 + p2 ) = (a0 + a1 t + + an tn + b0 + b1 t + + bn tn )
definicion de suma en Pn
distributividad en R
= a0 + a1 t + + an tn + b0 + b1 t + + bn tn
definicion de suma en Pn
= (a0 + a1 t + + an tn ) + (b0 + b1 t + + bn tn )
= p1 + p2
48
6.
( + ) p1 = ( + ) (a0 + a1 t + + an tn )
ditributividad en R
= a0 + a1 t + + an tn + a0 + a1 t + + an tn
definicion de suma en Pn
= (a0 + a1 t + + an tn ) + (a0 + a1 t + + an tn )
= p1 + p1
7.
() p1 = () (a0 + a1 t + + an tn )
asociatividad en R
= (a0 + a1 t + + an tn )
= ( (a0 + a1 t + + an tn ))
= ( p1 )
8.
1 p1 = 1 (a0 + a1 t + + an tn ) = 1 a0 + 1 a1 t + + 1 an tn
= a 0 + a 1 t + + a n tn
= p1 .
es un espacio vectorial.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 49
es un espacio vectorial sobre R con las operaciones de suma y producto por escalar definidos por:
Los espacios vectoriales satisfacen las siguientes propiedades que se desprenden de la definicion.
3. = , 4. 0 x = ,
5. 1 x = x, 6. Si x = entonces = 0 o x = .
Demostracion. 1. = + = + = .
2. w = w + = w + (x + w ) = (w + x) + w = + w = w .
4. 0x = (0 + 0)x = 0x + 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que = 0x.
Problemas
x y = xy y x = x ,
2.1.3. Determine cuales de los siguientes conjuntos son espacios vectoriales con las operaciones indicadas. Si
no lo son, enuncie las propiedades que no cumplen.
1. El conjunto de matrices simetricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar usual de
matrices. (La suma y producto usual de matrices se dieron en la Definicion ??.)
2. El conjunto de matrices anti-simetricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar
usual de matrices.
x
3. El conjunto R+ R = x, y R, x > 0 bajo la suma y el producto por escalar usual de R2 . (La suma
y
y producto usual de vectores en Rn se dieron en la Definicion ??.)
x
4. El conjunto (R \ R+ ) (R \ R+ ) = x, y R, x, y < 0 bajo la suma y el producto por escalar usual
y
de R2 .
5. El conjunto
R+ R+ R \ R+ R \ R+ = (x, y) R2 | x, y 0 o x, y 0
7. El conjunto {a + at2 + + at2n | a R} bajo las operaciones de suma y producto por escalar usual de
polinomios. (Ver Ejemplo 2.1 tem 3.)
a
1
8. El conjunto a R bajo las operaciones usuales para matrices.
a a
9. El conjunto {a0 + a1 t + + an tn | a0 = 1} bajo las operaciones de suma y producto por escalar usual de
polinomios.
2.1.4. Demuestre que R R \ {0} es un espacio vectorial con las operaciones (a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 b2 )
y (a, b) = (a, b ).
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 51
1 a
2.1.5. Demuestre que el conjunto V = a R es un espacio vectorial bajo la suma definida por
0 1
A B = AB donde AB denota el producto usual de matrices y el producto por escalar definido por
1 a 1 a
= .
0 1 0 1
2.1.7. Generalizando el problema anterior, demuestre que un hiperplano que pasa por el origen,
S = {(x1 , . . . , xn ) Rn | 1 x1 + + n xn = 0, 1 , . . . , n R} ,
2.1.8. Generalizando aun mas el Problema 2.1.6, demuestre que el conjunto de soluciones a un sistema ho-
mogeneo,
11 x1 + + 1n xn = 0
..
S= (x1 , . . . , xn ) Rn . , ij R, para i, j = 1, . . . , n. ,
n1 x1 + + nn xn = 0
2.1.9. Demuestre que los conjuntos dados en los numerales 4. y 5. del Ejemplo 2.1 son espacios vectoriales con
las operaciones indicadas.
2.1.10. Sea V un espacio vectorial y sean x, y V , para cada una de las siguientes ecuaciones, demuestre que
existe un unico z V que la satisface
1. x + z = y. 2. x z = y. 3. z = x. 4. x + z = y.
2.2. Subespacios
En esta seccion se dara un criterio para determinar si un subconjunto de un espacio vectorial es un subespacio
y como construir nuevos subespacios de otros.
52
Ejemplo 2.2. 1. En el Ejemplo 2.1 vimos que Pn es un espacio vectorial para todo n, como Pn1 Pn y
ambos son espacios vectoriales, tenemos que Pn1 es un subespacio de Pn .
2. Tambien tenemos que Pn es un subespacio de R[t] para todo n, al ser un espacio vectorial y subconjunto
de R[t].
En teora para demostrar que un subconjunto no vacio de un espacio vectorial V es un subespacio es necesario
determinar si cumple las ocho condiciones de la definicion, sin embargo, el siguiente teorema nos da un criterio
en el que solo es necesario mostrar que este es cerrado bajo la suma y el producto por escalar.
1. w + w W, 2. w W.
El Teorema 2.2 no solo facilita la verificacion de si un subconjunto es un subespacio, tambien facilita las
demostraciones de los siguientes teoremas.
W1 + W2 = {w1 + w2 | w1 W1 y w2 W2 }
entonces W1 + W2 es un subespacio de V .
Problemas
a
b a b
2.2.1. Sea V = M2 (R), demuestre que H1 = a, b, c R y H2 =
a, b R son subes-
0 c b a
pacios de V y describa el conjunto H1 H2 .
2.2.5. La traza de una matriz A = (aij ) Mn (R) se define como tr(A) = a11 + + ann . Demuestre que
el conjunto de matrices de traza cero es un subespacio de Mn (R), a este subespacio se le denota por sln (R) o
sl(n, R).
54
2. tr(AB) = tr(BA)
3. tr(At ) = tr(A).
1. que sea cerrado bajo el producto por escalar pero no que sea cerrado bajo la suma,
2. que sea cerrado bajo la suma pero que no sea cerrado bajo el producto por escalar.
a11 x1 + + a1n xn = 0
..
.
am1 x1 + + amn xn = 0
n
es un subespacio de R .
a11 a1n x1
. .. .. .
Ayuda: Sea A = .. . . la matriz del sistema, demuestre que x = .. es una solucion al
am1 amn xn
sistema si y solo si Ax = 0 y use el Ejercicio 2.2.4.
Sn = {A Mn (R) | A es simetrica },
es un subespacio de Mn (R).
An = {A Mn (R) | A es antisimetrica },
es un subespacio de Mn (R).
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 55
2.2.13. Una funcion se llama par si f (x) = f (x), para todo x. Demuestre que el conjunto de funciones pares
es un subespacio vectorial de F(R, R).
Demuestre tambien que el subconjuto formado por las funciones impares, funciones tal que f (x) = f (x),
para todo x, tambien es un subespacio de F(R, R).
2.2.14. Sea F = F([0, 1], R), el conjunto de funciones del intervalo [0, 1] en R, demuestre que los siguientes
subconjuntos son subespacios de F:
2.2.15. Sea V un espacio vectorial y sean H1 y H2 subespacios, demuestre que H1 H2 es el subespacio mas
grande contenido en H1 y H2 .
1. L({x}) = {ax : a R}
Definicion 2.3. Sea V un espacio vectorial y sean v1 , . . . , vk V , una combinacion lineal de estos vectores es
una expresion de la forma
1 v 1 + + k v k ,
Definicion 2.4. Sea V un espacio vectorial y sean v1 , . . . , vk V , decimos que el conjunto {v1 , . . . , vk } es
linealmente independiente si la unica combinacion lineal de los vectores v1 , . . . , vk que produce el vector nulo es
la trivial, es decir, si se tiene que 1 v1 + + k vk = 0 entonces 1 = 2 = = k = 0. En este caso tambien
diremos que los vectores v1 , . . . , vk son linealmente independientes o simplemente LI para simplificar.
Si el conjunto {v1 , . . . , vk } no es linealmente independiente, decimos que es linealmente dependiente o simple-
mente LD para simplificar.
Observacion 2.1. De la definicion anterior se deprende que si el conjunto {v1 , . . . , vk } es LD si existe una
combinacion lineal de los vectores v1 , . . . , vk que se anula, es decir, {v1 , . . . , vk } es LD si y solo si existen
constantes 1 , . . . , k , no todas cero, talque
1 v1 + + k vk = 0. (2.1)
Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinacion lineal de los demas,
esto ya que al menos uno de los i 6= 0, por tanto despejando por vi en (2.1) tenemos
1 i1 i+1 k
vi = v1 vi1 vi+1 vk .
i i i i
Es decir, un conjunto es LD si y solo si uno de los vectores es una combinacion lineal de los demas.
1 0 0
Ejemplo 2.4. Los vectores v1 = y v2 = son LI ya que si suponemos que 1 v1 + 2 v2 = tenemos
0 1 0
que
1 0
= 1 v 1 + 2 v 2 =
2 0
De la ultima observacion obtenemos una interpretacion geometrica que podemos usar para conjuntos pequenos
de vectores la cual exhibimos a continuacion.
El conjunto de vectores {v, w} es LD si y solo si w = v, es decir, el conjunto {v, w} es LD si y solo si w
es un multiplo de v. La siguiente figura nos muestra las posibilidades y aunque se usa una grafica en R2 , vale
la pena aclarar que la mismos casos se cumplen para un par de vectores en dimensiones mayores.
w
w
v
v
Vectores LD Vectores LI
Un conjunto formado por tres vectores {v, w, z} es LD si y solo si uno de ellos es combinacion lineal de los
otros. Esta ultima propiedad nos lleva a dos casos:
Caso 1: Dos vectores, digamos w y z, son ambos multiplos de v. En este caso los tres vectores estan contenidos
en una lnea.
Caso 2: Un vector, digamos z, es combinacion lineal de v y w, pero v no es multiplo de w. En este caso
tenemos que z es de la forma z = v + w y como la suma de dos vectores se rige por la ley del paralelogramo,
esta ultima ecuacion implica que z esta contenido en el mismo plano que contiene a v y w.
Concluimos que tres vectores son LD si y solo si estos estan contenidos en una lnea o en un plano.
En consecuencia tenemos que tres o mas vectores en R2 son necesariamente LD. La siguiente figura nos
muestra los posibles casos geometricos de tres vectores
z
z
w
v z
w
b b b
v
Vectores LD Vectores LD Vectores LI
Del Teorema 2.5 se deduce facilmente que cuatro o mas vectores en R3 son LD, por tanto, para exhibir
geometricamente cuatro vectores LI se necesitan al menos 4 dimensiones y por este motivo no podemos exhibir
mas figuras en las que se consideren cuatro o mas vectores LI.
1 2 1
Ejemplo 2.5. 1. El conjunto v1 = 1 , v2 = 3 , v3 = 9 es LD ya que v3 = 3v1 2v2 de donde
2 0 6
3v1 2v2 v3 = 0.
58
1 0 1
2. El conjunto de vectores v1 = 1 , v2 = 1 , v3 = 0 es LI ya que si existieran constantes 1 , 2 , 3
0 1 1
tal que 1 v1 + 2 v2 + 3 v3 = 0 entonces tendramos que
0 1 0 1
0 = 1 v1 + 2 v2 + 3 v3 = 1 1 + 2 1 + 3 0
0 0 1 1
0 + 3
1 3 1
= 1 + 2 + 0 = 1 + 2
0 2 3 2 + 3
1 + 3 = 0
De donde 1 + 2 = 0, el cual es equivalente a la ecuacion matricial
2 + 3 = 0
1 0 1 0
1
1 1 0 2 = 0 . (2.2)
0 1 1 3 0
1 0
1
Al aplicar reduccion Gauss-Jordan a la matriz 1 1 0 obtenemos la matriz identidad, luego la unica solucion
0 1 1
al sistema (2.2) es la trivial, 1 = 0, 2 = 0 y 3 = 0. Por tanto el conjunto {v1 , v2 , v3 } es LI.
En este captulo nos concentraremos en estudiar criterios que aplican solo para vectores en Rm , pero estos
seran generalizados a espacios vectoriales arbitrarios de dimension finita en la Captulo 3 usando los teoremas
de isomorfismo.
Del teorema se deduce el siguiente procedimiento computacional para determinar si un conjunto de vectores
es LI y si no lo son, tambien nos permite encontrar la dependencia lineal entre los vectores, el procedimiento se
enuncia a continuacion.
2. Si la forma escalonada reducida A de A tiene un pivote en cada fila entonces los vectores son LI, si no
entonces los vectores son LD.
1
.
3. Si los vectores son LD, entonces el sistema Ax = 0 o equivalentemente A x = 0 tiene solucion. Si x = ..
k
es una solucion a este sistema, las constantes 1 , . . . , k satisfacen
1 v 1 + + k v k = 0
Ejemplo 2.6. Determine si el conjunto de vectores es LI, si no lo es, encontrar una dependencia lineal entre
ellos.
1 2 1 0
1. v1 = 1 , v2 = 1 , v3 = 1 , v4 = 1
0 1 2 1
1 0 1
2. v1 = 1 , v2 = 1 , v3 = 0
0 1 1
60
Solucion. 1. Necesitamos
aplicar reduccion
Gauss-Jordan a la matriz
1 2 1 0
h i
v 1 v 2 v 3 v 4 = 1 1 1 1, cuya forma escalonada reducida esta dada por
0 1 2 1
1 0 3 2
A = 0 1 2 1 .
0 0 0 0
Como rango(A) = 2 < # de columnas de A entonces los vectores son LD. Para encontrar una dependencia
lineal entre estos vectores resolvemos el sistema A x = 0, el cual nos da las ecuaciones x1 + 3x3 + 2x4 = 0 y
x2 2x3 x4 = 0 o equivalentemente
5v1 + 3v2 + v3 + v4 = 0.
1 0 1
h i
2. En este caso necesitamos escalonar la matriz v1 v2 v3 = 1 1 0, cuya forma escalonada reducida
0 1 1
es A = I y por tanto rango(A) = # de columnas de A y los vectores v1 , v2 y v3 son LI.
Solucion.
"1 0 0 0#
0 1 0 0
1. Al aplicar reduccion a la matriz A = [v1 v2 v3 v4 ] obtenemos la matriz A = 0 0 1 0 , lo que implica que
0 0 0 1
0 0 0 0
rangoA = 4 y por tanto los vectores v1 , v2 , v3 y v4 son LI.
1 0 0 0 1
0 1 0 0 0
2. Al aplicar reduccion a la matriz A = [w1 w2 w3 w4 w5 ] obtenemos la matriz A = 0 0 1 0 0 , se sigue que
0 0 0 1 1
rangoA = 4 < # de columnas de A y por tanto los vectores w1 , w2 , w3 , w4 y w5 son LD.
Para calcular una dependencia lineal entre estos vectores debemos obtener una solucion a la ecuacion
Ax = 0 o equivalentemente a la ecuacion A x = 0. Usando la matriz en forma escalonada reducida se
obtiene que una solucion x = (x1 , x2 , x3 , x4 , x5 ) a la ecuacion Ax = 0 satisface las ecuaciones
x1 + x5 = 0 x2 = 0 x3 = 0 y x4 + x5 = 0
w1 w4 + w5 = 0.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 61
Terminamos la seccion con un corolario que nos sera util mas adelante.
k = rango(A) mn{m, k} m.
Problemas
2.3.1. Determine cuales de los siguientes conjuntos son LI, si no lo son, encuentre una dependencia lineal entre
los vectores:
1 1 1
1 1
1 1 1
1 1 1
2 1 1
a. 2 , 1 b. 2 , 1 , 1 c. 2 , 1 , 1 d. , ,
3 1 3
3 1 3 1 3 3 1 3
4
1 1
2.3.3. Determine la relacion entre y para que los vecores v1 = (1, 0, 0), v2 = (0, 1, 0) y v3 = (, , + )
sean LD y exhiba una dependencia lineal entre los vectores.
2.3.4. Encuentre vectores v1 , v2 y v3 de tal forma que v1 , v2 sean LI y v2 , v3 sean tambien LI pero que v1 , v2 , v3
sean LD.
2.3.5. Sea V un espacio vectorial y sean v, w V , demuestre que {v, w} es LD si y solo si w = cv con c R,
es decir, si w es un multiplo de v.
2.3.8. Sea V un espacio vectorial, sean v1 , v2 , v3 V vectores LI, demuestre que los vectores v1 + v2 , v2 + v3 y
v3 + v1 son LI y los vectores v1 v2 , v2 v3 y v3 v1 son LD.
2.3.9. Demuestre que si el conjunto {v1 , . . . , vn } es LI y k < n entonces el conjunto {v1 , . . . , vk } tambien es LI.
2.3.10. Demuestre que si el conjunto {v1 , . . . , vn } es LD y vn+1 es otro vector entonces el conjunto {v1 , . . . , vn , vn+1 }
tambien es LD.
2.3.11. Sean v, w R3 vectores LI, demuestre que gen{v} + gen{w} es el plano que contiene a los vectores v
y w.
2.3.12. Sean v, w R3 vectores LD, demuestre que gen{v} + gen{w} es la lnea que contiene al vector v.
En general denotamos por Eij a la matriz cuya ij-esima entrada es 1 y ceros en las demas posiciones.
Definicion 2.5. Sea V un espacio vectorial, decimos que los vectores v1 , v2 , . . . , vk generan a V , si para todo
v V existen escalares 1 , 2 , . . . , k tal que
v = 1 v 1 + + k v k .
Tambien diremos que V es generado por el conjunto de vectores {v1 , . . . , vk }, lo cual denotaremos por V =
gen{v1 , . . . , vk }. Al conjunto {v1 , . . . , vk } se le llama conjunto generador de V .
La definicion misma nos permite dar una interpretacion geometrica, para dimensiones 1, 2 y 3, de conjuntos
generadores. Veremos que en general el conjunto generado por unos vectores depende de si estos son LI o LD
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 63
Conjunto generado por un vector {v}: de la definicion, el conjunto generado por un vector, es el conjunto
{v | R}, es decir, el conjunto de multiplos escalares de v. Sabemos de las propiedades de producto de un
escalar por un vector, que este es el conjunto de multiplos de v y por tanto si v 6= 0 este coincide con la lnea
que contiene a v. Si v = 0 entonces gen{v} = {0} el subespacio trivial. De esto se sigue que un vector no nulo
en R genera a R, pero un vector no nulo en Rm , con m 2, no es suficiente para generar este espacio.
v1 + v2 = v1 + v1 = ( + ) v1
|{z}
v1
v2 v1
v1
b b
v2
y por el caso anterior, sabemos que el generado por dos vectores es una lnea o un plano.
Caso 2: los vectores v1 , v2 , v3 son LI. En este caso los vectores generan un espacio 3-dimensional. De esto
se sigue que tres vectores LI en R3 generan el espacio 3-dimensional, pero tres vectores no son suficientes para
generar Rm con m 4.
v3
v3
v2 v1
v1 v3
v1
b b b
v2
v2
Tres vectores LD generan Tres vectores LI generan
una lnea o un plano un espacio 3-dimensional
La siguiente es una caracterizacion que sirve para determinar cuando un conjunto de vectores es un conjunto
generador de Rm .
h i
Teorema 2.7. Sean v1 , v2 , . . . , vk vectores en Rm y sea A = v1 vk la matriz cuyas columnas son los
vectores v1 , v2 , . . . , vk . Entonces el conjunto {v1 , v2 , . . . , vk } es un conjunto generador si y solo si rango(A) =
m = # de filas de A.
Demostracion. Por definicion el conjunto {v1 , v2 , . . . , vk } es un conjunto generador si y solo si para todo
1
h i
m ..
b R , existen escalares 1 , . . . , k tal que b = 1 v1 + + k vk = v1 vk . = Ax donde
| {z }
A k
1
..
x = . , si y solo si la ecuacion Ax = b tiene solucion para todo b Rm y esto, por el Teorema 1.20, es
k
equivalente a que rango(A) = m = # de filas de A.
3. Si A tiene un pivote en cada fila, entonces los vectores v1 , v2 , . . . , vk generan a Rm , de otra forma no
generan.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 65
ans =
1 2 0 1
0 0 1 2
0 0 0 0
Como rango(A) = 2 < 3 = # de filas, entonces los vectores no generan a R3 .
1 2 0
h i
2. En este caso formamos la matriz A = v1 v2 v3 = 2 4 1 . Ahora calculamos la matriz escalonada
5 9 1
reducida de A, usando MatLab obtenemos
>> A = [1 2 0; 2 4 1; 5 10 1]; rref (A)
ans =
1 0 0
0 1 0
0 0 1
Como rango(A) = 3 = # de filas, entonces estos vectores generan a R3 , es decir, gen{v1 , v2 , v3 } = R3 .
Problemas
2.4.4. Sea V un espacio vectorial y sean v1 , . . . , vk V , el conjunto generado por los vectores v1 , . . . , vk se
define como
gen{v1 , . . . , vk } = {1 v1 + + k vk | 1 , . . . , k R }.
2.4.8. Demuestre que S2 (R) = gen{E11 , E22 , E12 + E21 } y A2 (R) = gen{E12 E21 }.
2.5. Bases
Al unir los conceptos de independencia lineal y conjunto generador se consigue uno de los conceptos mas
importantes del algebra lineal: el concepto de base de un espacio vectorial el cual definimos a continuacion.
Definicion 2.6. Sea V un espacio vectorial y sean v1 , . . . , vn V , decimos que el conjunto {v1 , . . . , vn } es una
base para V si
1 2 0
Ejemplo 2.10. En el ejemplo anterior se comprobo que los vectores v1 = 2 , v2 = 4 y v3 = 1 son
5 9 1
linealmente independientes, por tanto generan y forman una base para R3 .
El ultimo teorema garantiza que todas las bases de Rm tienen m vectores, en general para todos los espacios
vectoriales con un numero finito de generadores (tambien llamados finito dimensionales) se cumple que todas las
bases tienen exactamente el mismo numero de elementos. Abajo en el Teorema 2.15 se demostrara este hecho
para subespacios de Rm , el caso general se demostrara en la Seccion 3.4. Por ahora daremos un argumento
computacional que nos permitira determinar si un conjunto de vectores es una base para Rm .
h i
Teorema 2.12. Sean v1 , . . . , vm Rm y A = v1 vm entonces el conjunto {v1 , . . . , vm } es una base
para Rm si y solo si rango(A) = m.
La demostracion de este teorema es una aplicacion inmediata de los Teoremas ?? Tenemos ademas el si-
guiente corolario.
68
h i
Corolario 2.13. an v1 , . . . , vm Rm y A = v1 vm entonces el conjunto {v1 , . . . , vm } es una base para
Rm si y solo si A es invertible.
Nuevamente este teorema da un procedimiento para determinar si un conjunto de vectores es una base, el cual
consiste en formar una matriz con los vectores dados y determinar si el rango de esta matriz es el # de filas e
igual al # de columnas. Como lo mostramos en el siguiente ejemplo.
Ejemplo 2.11. Determine en cada caso si el conjunto de vectores dados forma una base para R3 .
1 2 1
1 1 1
1. v1 = 1 , v2 = 2 , v3 = 1 2. v1 = 1 , v2 = 2 , v3 = 1
3 6 4 3 3 4
Solucion.
1 2 1
1. Al aplicar reduccion Gauss-Jordan a la matriz A = 1 2 1 formada por los vectores v1 , v2 y v3 ,
3 6 3
1 2 0
obtenemos la matriz 0 0 1. Esta matriz tiene rango 2 y por tanto los vectores v1 , v2 y v3 no forman
0 0 0
una base para R3 , ya que no son LI.
1 1 1
2. El aplicar reduccion Gauss-Jordan a la matriz A = 1 2 1, formada por los vectores v1 , v2 y v3 ,
3 3 4
1 0 0
obtenemos la matriz 0 1 0 . Como esta matriz tiene rango 3, entonces los vectores v1 , v2 y v3 forman
0 0 1
una base para R3 , ya que son LI y tres vectores LI generan a R3 .
Problemas
2.5.1. Encuentre una base de R4 que contenga los vectores (1, 2, 2, 1) y (1, 0, 2, 2).
R1
2.5.2. Calcule una base del subespacio {p R4 [t] | 0
p(x)dx = 0} de R4 [t].
2.5.3. Muestre que el conjunto {E12 , E21 , E11 + E22 } es una base de S2 (R).
2.5.4. Muestre que el conjunto {E12 , E21 , E11 E22 } es una base de sl2 (R).
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 69
2.5.5. Demuestre que {Eij + Eji | 1 i < j n} {Eii | 1 i n} es una base de Sn (R).
2.5.7. Demuestre que {Eij | 1 i n} {Ejj Ej+1,j+1 | 1 j < n} es una base para sln (R).
2.5.8. Sea V un espacio vectorial y X Y V tal que X es LI y V = genY entonces existe una base Z tal
que X Z Y . En particular si Y es una base muestre que existe S Y tal que XU S es una base de V .
Definicion 2.7. Sea V un espacio vectorial y sean v1 , . . . , vk V , definimos el conjunto generado por estos
vectores, denotado por gen{v1 . . . , vk }, como el conjunto de combinaciones lineales de los vectores v1 , . . . , vk .
Esto es,
gen{v1 . . . , vk } = {1 v1 + + k vk | 1 , . . . , k R } .
Es facil mostrar que el conjunto generado por los vectores v1 , . . . , vk V es un subespacio de V , ver Problema
2.4.4, por esta razon al conjunto gen{v1 . . . , vk } lo llamaremos el subespacio generado por los vectores v1 , . . . , vk .
A continuacion demostramos que todo subespacio de Rm tiene una base finita y en consecuencia todo subes-
pacio H de Rm es el subespacio generado por un conjunto finito de vectores, es decir, existen vectores v1 ,
. . . , vk Rm tal que H = gen{v1 , . . . , vk }.
Teorema 2.14. Sea H 6= {0} un subespacio de Rm , entonces existen vectores v1 , . . . , vk Rm tal que
{v1 , . . . , vk } es una base de H.
La demostracion de este teorema se puede adaptar para demostrar que todo subespacio de un espacio vectorial
con una base finita tiene una base finita. Existe tambien una demostracion de que todo espacio vectorial tiene
una base usando el Axioma de eleccion.
De este teorema deducimos ademas que todo subespacio de Rm tiene una base con a lo sumo m vectores,
veamos que el numero de vectores en una base es un invariante, al cual llamaremos la dimension del subespacio.
Teorema 2.15. Sea V un subespacio de Rm y sean {v1 , . . . , vk } y {w1 , . . . , wl } bases para V , entonces k = l.
Es decir, todas las bases de V tienen exactamente el mismo numero de vectores.
Demostracion. Primero supongamos que l > k, como los vectores v1 , . . . , vk forman una base para V , entonces
por definicion de base tenemos que V = gen{v1 , . . . , vk } y por tanto para i = 1, . . . , l existen constantes
1i , . . . , ki tal que
1i
h i
.
wi = 1i v1 + + ki vk = v1 vk .. .
ki
11 1l
. .. ..
donde A = .. . . . Como l > k, entonces el sistema Ax = 0 tiene mas variables que ecuaciones y por
k1 kl
tanto este sistema tiene al menos una solucion no trivial, es decir, exiten constantes no todas nulas 1 , . . . , l
tal que
1 0
.. ..
A . = . . (2.5)
l 0
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 71
1
.
Luego, multiplicando la Ecuacion (2.4) a la derecha por .. , obtenemos
l
1 1 0 0
h i h i h i
. . .. ..
w1 wl .. = v1 vk A .. = v1 vk . = . .
l l 0 0
| {z }
=0 por Ec. (2.5)
1 0
h i
.. ..
Es decir w1 wl . = . , este ultimo sistema es equivalentemente, por el Lema 1.9, a la ecuacion
l 0
1 w1 + + l wl = 0, y se sigue que los vectores w1 , . . . , wl son linealmente dependientes lo que contradice el
hecho de que forman una base para V , por tanto k l.
De igual forma se demuestra que l k y por tanto k = l.
Definicion 2.8. Definimos la dimension de un subespacio de H de Rm , la cual denotaremos por dim H, como
el numero de elementos en una base de H.
Problemas
Definicion 2.9. Sea A una matriz de tamano m n definimos los siguientes subespacios:
N ul(A) = {x Rn | Ax = 0.}
72
Col(A) = gen{c1 , . . . , cn },
F il(A) = gen{f1t , . . . , fm
t
},
N uliz(A) = {x Rm | At x = 0.}
De acuerdo al Problema 2.4.4, el espacio columna, Col(A), y el espacio fila, F il(A), de una matriz A son
subespacios de Rm y Rn , respectivamente, y por el Problema 2.2.8 los conjuntos N ul(A) y N uliz(A) tambien
son subespacios de Rn y Rm , respectivamente.
El proposito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales.
Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son solucion a la
ecuacion Ax = 0, o equivalentemente, la ecuacion A x = 0 con A la esaclonada reducida de A. El procedimiento
para calcular una base para el espacio columna se sigue del siguiente teorema.
Teorema 2.16. Sea A una matriz de tamano m n y sea A la forma escalonada reducida de A. Entonces los
vectores para los cuales la columna de A tiene un pivote, forman una base para Col(A) y por tanto dim Col(A) =
rango(A). Ademas se tiene que dim N ul(A) = n rango(A).
Demostracion. Sea k = rango(A), sin perdida de generalidad, supongamos que las primeras k columnas de
A tienen pivote, es decir
1 0 b1,k+1 b1n
.. . . ..
..
.. .. .
. ..
. .
A = 0 1 bk,k+1 bkn (2.6)
0 0 0 0
. . . .. .. . . ..
.. .. . . .
0 0 0 0
Sean c1 , . . . , cn las columnas de A, vamos a demostrar que los vectores c1 , . . . , ck forman una base para Col(A).
Primero notese que los vectores c1 , . . . , ck son linealmente independientes ya que estos forman las primeras
h i
columnas de A y por tanto la forma escalonada reducida de la submatriz c1 ck esta dada por las
primeras k filas de A y de la Ecuacion (2.6), se obtiene que esta tiene un pivote en cada columna, luego por el
Teorema 2.5, los vectores c1 , . . . , ck son linealmente independientes.
Antes de demostrar que estos vectores generan el espacio columna, calculemos una base para el espacio nulo.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 73
x1
.
Para esto tomemos x = .. , de la Ecuacion (2.6) tenemos lo siguiente
xn
x1 x1 +b1,k+1 xk+1 ++b1n xn =0
.. ..
. N ul(A) si y solo si Ax = 0 si y solo si A x = 0 si y solo si .
xk +bk,k+1 xk+1 ++bkn xn =0
xn
x1 =b1,k+1 xk+1 b1n xn
si y solo si ..
.
xk =bk,k+1 xk+1 bkn xn
x1 b1,k+1 xk+1 b1n xn b
1,k+1
b1n
.. .
.. . .
. .
. ..
xk
bk,k+1 xk+1 bkn xn
bk,k+1 bkn
si y solo si xk+1 = xk+1 = xk+1 1 + + xn 0
. (2.7)
.
. . .
.. .. .. ..
xn xn 0 1
b b1n b b1n
1,k+1 1,k+1
. .
. .
..
.. .
. ..
bk,k+1 bkn . Notese ademas que los vectores bk,k+1 , . . . , bkn
Entonces N ul(A) = gen 1 ,..., 0
1 0
. .
..
. .
..
..
..
0 1 0 1
son claramente LI y por tanto forman una base para N ul(A). De esto se sigue que los vectores c1 , , cn
satisfacen las ecuaciones
b b
1,k+1 1,k+1
0 .. h .
.. . ..
i
. = A bk,k+1 bk,k+1
1 = c1 cn 1
. .
0 .. ..
0 0
..
.
b1n b1n
0 . .
.. h i ..
.. bkn bkn
. = A 0 = c1 cn 0
.. ..
0 . .
1 1
Por el Lema 1.9 tenemos que estas ecuaciones matriciales son equivalentes a las ecuaciones
Obtenemos que cada uno de los vectores ck+1 , . . . , cn es una combinacion lineal de los vectores c1 , . . . , ck . Por
74
x =1 c1 + + k ck + k+1 ck+1 + + n cn
=(1 + k+1 b1,k+1 + + n b1n )c1 + + (k + k+1 bk,k+1 + + n bkn )ck gen{c1 , ck }
Concluimos que ColA = gen{c1 , . . . , ck }, entonces los vectores c1 , . . . , ck generan a Col(A) y como son lineal-
mente independientes entonces forman una base para Col(A).
Finalmente, observese que dim Col(A) = k = rango(A) y por la Ecuacion (2.7) tenemos que dim N ul(A) =
n k = n rango(A).
De este resultado se desprende el siguiente corolario el cual sera clave para la demostracion del Teorema
3.20, el cual es uno de los teoremas mas importantes del algebra lineal.
entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna
de A, es decir
1 0
Col(A) = gen 2 , 1 .
3 1
Ahora para el espacio nulo resolvemos el sistema Ax = 0 o equivalentemente A x = 0 y obtenemos lo siguiente
x
1
0
x
2
x1 x2 + x4 = 0 x1 = x2 x4
A = 0
x3 x3 + 2x4 = 0 x3 = 2x4
0
x4
x1 x2 x4 1 1
x2 x2 1 1
=
= x2 + x4 .
x3 2x4 0 2
x4 x4 0 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 75
1 1
1 1
Por tanto N ul(A) = gen , .
0 2
0
1
Para calcular el espacio fila y el nulo a izquierda, calculamos la escalonada reducida de At
1 2 3 1 2 3 1 2 3 2F2 +F1 F1 1 0 1
1 2 3 F1 +F2 F2 0 0 0 0 1 1 0 1 1
F2 F3
0 1 1 0 1 1 0 0 0 0 0 0
1 4 5 F1 +F4 F4 0 2 2 0 2 2 2F2 +F4 F4 0 0 0
1 2
x
1 2 1
x2 satisface la ecuacion At x = 0 si y
Se sigue que F il(A) = gen , , ademas un vector x =
0 1
x 3
1
4
solo si
0
x1 x x 1
0
x + x = 0 x = x 1 3
1 3 1 3
At x2 =
x2 = x3 = 1 .
0
x2 + x3 = 0 x2 = x3
x3 x3 x3 1
0
1
Por tanto N uliz(A) = gen 1 .
1
El siguiente teorema nos permite calcular bases alternativas para el espacio columna y el espacio fila de una
matriz.
Teorema 2.18. Sea A una matriz, entonces tenemos que F ilA = F ilA donde A es la forma escalonada
reducida de A, ademas se tiene que dim F ilA = rango(A). Es decir, el espacio fila de una matriz coincide con
el espacio de su forma escalonada reducida.
Demostracion. Sean f1 , . . . , fm las filas de A y sean f1 , . . . , fk las filas no nulas de A , entonces k = rango(A).
Como A se obtiene de A aplicando operaciones elementales de fila, las cuales envuelven combinaciones lineales
de filas de A, entonces tenemos que fi gen{f1 , . . . , fm }, para i = 1, . . . , k. De esto se deduce que F ilA F ilA.
Ahora, como las operaciones elementales son reversibles y podemos recuperar la matriz A de A por medio
de operaciones elementales, entonces tenemos que fi gen{f1 , . . . , fk }, para i = 1, . . . , m. Deducimos que
F ilA F ilA y por tanto F ilA = F ilA.
Es facil ver que los vectores f1 t , . . . , fk t son LI ya que la matriz A esta en forma escalonada reducida y los
pivotes estan en diferentes columnas, por tanto estos forman una base de A, concluimos que dim F ilA = k =
rango(A).
76
Demostracion. De la definicion de espacio fila y espacio columna tenemos que F il(A) = Col(At ) y por el
teorema anterior dim F il(A) = rango(A) y por el Teorema 2.16 tenemos que dim Col(At ) = rango(At ), por
tanto
rango(A) = dim F il(A) = dim Col(At ) = rango(At ).
1 1 0 1
Ejemplo 2.13. Sea A = 2 2 1 4 la matriz del Ejemplo 2.12. En ese ejemplo se calculo que las matrices
3 3 1 5
1 0 1
1 1 0 1
t
t
0 1 1
escalonadas reducidas de A y A respectivamente son A = 0 0 1 2 y (A ) = y como
0 0 0
0 0 0 0
0 0 0
1 0
Col(A) = F il(At ) = F il(At ) se tiene que Col(A) = gen v1 = 0 , v2 = 1 . Se deja como ejercicio al
1 1
lector verificar que v1 = c1 2c3 y v2 = c3 , donde c1 y c3 son la primera y tercera columna de la matriz A, lo
que verifica que en realidad el espacio generado por v1 y
v2 es igual
al espacio columna
de A.
1 0
1 0
Ademas F il(A) = F il(A ), entonces F il(A) = gen w1 =
, w2 = . Se deja como ejercicio al
0 1
1 2
lector verificar que w1 = f1 y w2 = 2f1 + f2 donde f1 y f2 son la primera y segunda fila de A. Lo que verifica
que el espacio generado por w1 y w2 es igual al espacio fila de A.
Problemas
Ayuda: Escriba el sistema en la forma Ax = 0, por el Ejercicio 2.2.4 tenemos que x es solucion al sistema si y
solo si x N ul(A).
2.7.2. Sean A y B matrices tal que AB = 0, demuestre que Col(B) N ul(A) y F il(B) N uliz(A).
2.7.3. Determine las dimensiones de los cuatro subespacios fundamentales de una matriz que satisface:
2.7.5. muestre que b ColA si y solo si Ax = b tiene solucion. (El espacio columna es el espacio solucion a la
ecuacion Ax = b).
1. rangoA,
2. la forma escalonada A de A,
3. F ilA
1 1 1 0
2.7.9. Si A = 0 0 0 1, cuales de los subespacios N ulA, N ulizA, ColA y F ilA se pueden determinar y
0 0 0 0
que se puede decir de los demas.
2.7.11. Sea A una matriz 4 3, si N ulA = gen{(1, 1, 1), (1, 0, 0)} determine la forma escalonada reducida A
de A y una base para F ilA.
2.7.12. Sea A Mn (R), Nk = N ul(Ak ) y Ck = Col(Ak ), demuestre que para todo k 1 se tiene que
78
1. Nk Nk+1
2. Ck+1 Ck
2.7.16. Sean A, B Mn (R) con B invertible, demuestre que rango(A) = rango(B 1 AB).
1. Si los vectores v1 , . . . , vn no son linealmente independientes, como encontrar una base para H.
h i
Si hacemos A = v1 vn entonces Col(A) = gen{v1 , . . . , vn } = H y aplicando el Teorema 2.16 obtenemos
una base para Col(A) = H.
1 2 0
Ejemplo 2.14. Calcular una base para H = gen{v1 , v2 , v3 } donde v1 = 2 , v2 = 4 y v3 = 1 .
5 10 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 79
1 2 0 1 2 0
5 1 obtenemos A = 0
Solucion. Aplicando reduccion Gauss-Jordan a la matriz A = 2 0 1 .
5 5 1 0 0 0
Entonces los vectores v1 y v3 forman una base para H.
En el siguiente ejemplo se muestra que algunas veces los subespacios de Rn aparecen como el espacio nulo de
una matriz.
Ejemplo 2.16. Calcular una base para cada uno de los siguientes subespacios.
x
1. H = y = mx, m R
y
x
2. H = y x = at, y = bt y z = ct, a, b, c R .
z
80
x
3. H = y ax + by + cz = 0, a, b, c R, c 6= 0
z
x
4. H = y x + y + z = 0, 2x y z = 0 .
z
x x x 1 x 1
1. H si y solo si y = mx si y solo si = = x si y solo si es un multiplo de .
y y mx m y 1
1
Por tanto H = gen .
1
x x at a x
2. y H si y solo si x = at, y = bt y z = bt si y solo si y = bt = t b si y solo si y es un multiplo
z z ct c z
a a
de b . Por tanto H = gen b .
c
c
x x x 1
a b
3. y H si y solo si ax + by + cz = 0 si y solo si z = c x c y si y solo si y = y = x 0 +
z z ac x cb y ac
0 x 1 0
1 0
y 1 si y solo si y es una combinacion lineal de 0 y 1 . Por tanto H = gen 0 , 1 .
b
cb z ac cb a
c c
x x
1 1 1 0
4. y H si y solo si x + y + z = 0 y 2x y z = 0 si y solo si
y = si y solo si
2 1 1 0
z z
x
1 1 1
y N ul(A) con A = . Para calcular el espacio nulo de A aplicamos reduccion Gauss-Jordan
2 1 1
z
1 1 1 1 1 1 1 1 1
2 1 1 2F1 +F2 F2 0 3 3 1 0 1 1
3 F2 F2
F2 +F1 F1 1 0 0
0 1 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 81
x x 0
Entonces y N ul(A) si y solo si x = 0 y y + z = 0 si y solo si x = 0 y y = z si y solo si y = z =
z z z
0
0
z 1. Por tanto H = gen 1 .
1
1
Terminamos el captulo con con un teorema que sera muy util en el proximo captulo.
Problemas
2.8.1. Encuentre una base para cada uno de los siguientes subespacios:
x
x
a. H = y 3x y = 0 b. H = y x = t, y = 2t, z = 3t
z
z
x
x 1
y
..
c. H = x + y + z + w = 0
d. H = . a1 x1 + + an xn = 0, an 6= 0
z
x
w
n
donde ei es el vector con un uno en la i-esima componente y ceros en las demas componentes. Sean E1 , . . . , Es
matrices elementales talque
A = Es E1 A (2.8)
como las columnas de A son los vectores v1 , , vk entonces tenemos que Be1 = v1 , . . . , Bek = vk , luego
h i
B = BI = B e1 ek ek+1 em
" #
Be
= |{z} 1 Be k Be k+1 Be m
|{z}
v1 vk
h i
= v1 vk Bek+1 Bem
Este teorema exhibe un metodo computacional para completar una base, el cual escribimos a continuacion:
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 83
Procedimiento 2.3. (Procedimiento para completar una base en Rm ) Sean v1 , . . . , vk vectores linealmen-
te independientes en Rm con k < m, para calcular vectores wk+1 , . . . , wm talque los vectores v1 , . . . , vk , wk+1 , . . . , wm
forman una base, hacemos lo siguiente
h i
1. Sea A = v1 vk la matriz formada con los vectores v1 , . . . , vk
2. Sea C el producto de las matrices elementales talque A = CA , esta matriz se calcula hallando la forma
h i h i
escalonada reducida de la matriz A I ya que esta esta dada por A C
3. Hacemos B = C 1
Si las columnas de B son linealmente independientes y por tanto forman una base para Rm y por el teorema
anterior, las primeras columnas de B son los vectores v1 , . . . , vk .
0 1
Ejemplo 2.17. (MatLab) Sean v1 = 1 y v2 = 1, calcular un vector v3 talque los vectores v1 , v2 , v3
1 2
3
forman una base para R .
0 1
h i
Solucion. Sea A = v1 v2 = 1 1, entonces hacemos lo siguiente
1 2
h i
1. calculamos la forma escalonada reducida de la matriz A I usando MatLab
>> A = [01; 11; 12]; R=rref([A, eye(3)])
R=
1 0 0 2/3 1/3
0 1 0 1/3 1/3
0 0 1 1/3 1/3
El producto de las matrices elementales es la matriz compuesta por las 3 ultimas columnas de R, la cual
podemos definir usando MatLab como sigue
>> C = [R(:, 3), R(:, 4), R(:, 5)]
C=
0 2/3 1/3
0 1/3 1/3
1 1/3 1/3
2. Ahora calculamos B = C 1 como sigue
B = inv(C)
B=
0 1 1
1 1 0
1 2 0
84
Transformaciones Lineales
Carreta
Definicion 3.1. Sean V y W espacios vectoriales y T : V W una funcion, decimos que T es una trans-
formacion lineal si satisface:
2. T (1 v1 + + n vn ) = 1 T (v1 ) + + n T (vn ).
Ejemplo 3.1. 1. Sean V y W espacios vectoriales sobre R. La funcion nula f : V W definida por f (v) = 0,
para todo v V y la funcion identidad Id : V V definida por Id(v) = v son transformaciones lineales.
Pn
3. Sean a1 , , an R. La funcion T : Rn R definida por T (1 , , n ) = i=1 ai i , es una transfor-
macion lineal tal que T (ei ) = ai , donde los ei denotan los elementos de la base canonica de Rn .
85
86
T ((x, y) + (x , y )) = T (x + x , y + y ) = x + x + y + y = (x + y) + (x + y ) = T (x, y) + T (x y ) .
1. T (0) = 0.
2. T (v) = T (v).
Por ahora nos concentraremos por ahora solo en transformaciones lineales de Rn en Rm , ya que estas,
como se muestra en el siguiente teorema, son de la forma dada en el tem 5 del Ejemplo 3.1, es decir, para
toda transformacion lineal se puede encontrar una matriz A de tamano m n tal que T (x) = Ax. Pasamos a
enunciar el teorema.
Teorema 3.2. Sea T : Rn Rm una transformacion lineal, sea {e1 , . . . , en } la base estandar de Rn y
A = [T (e1 ) T (en )], la matriz cuyas columnas son los vectores T (e1 ), . . . , T (en ), entonces T (x) = Ax,
para todo x Rn . Mas aun, esta matriz es la unica con la propiedad que T (x) = Ax.
1
..
Demostracion. Sea x = . Rn , entonces x = 1 e1 + + 1 en y tenemos lo siguiente
n
Ahora si B es una matriz tal que T (x) = Bx para todo x, entonces en particular los vectores de la base estandar
tenemos que
T (ei ) = Bei = i-esima columna de B, para i = 1, . . . , n.
La matriz A en el teorema anterior depende de los vectores en la base estandar, la siguiente definicion es
para hacer claridad respecto a esto.
= S T (v) + S T (v ) y
Ejemplo 3.4. Sean T y S las transformaciones lineales definidas en los Ejemplos 3.2 y 3.3 entonces la matriz
de la transformacion T S, E (T S)E , esta dada por
i 1 2 h 0 h i
E (T S)E =E TE E SE = 1 1
= 1 3 3 .
0 1 3
1 1
h i
Por tanto T S 2 = 1 3 3 2 = 1 + 32 33 .
3 3
Es facil ver que si T (x) = Ax para todo x entonces A = E TE es la matriz de la transformacion. Por tanto
obtenemos que las matrices de las compuestas T S y S T son las matrices AB y BA, respectivamente. Por
tanto T S(x) = ABx para todo x R4 y S T (y) = BAy para todo y R3 . Usando Matlab obtenemos que
3 10 4 10 h 7 7 4 i
AB = 20 44 13 45 y BA = 1 0 0 .
5 2 3 2 4 5 1
Del Teorema 3.2 obtenemos que el conjunto de transformaciones lineales L(Rn , Rm ) de Rn en Rm esta en
correspondencia uno a uno con el conjunto de matrices Mm,n (R)
proxima seccion) con el espacio nulo de la matriz. En general tendremos que la matriz de una transformacion
se puede usar para conseguir informacion util acerca de la transformacion, por ejemplo, esta se puede usar para
determinar si una transformacion lineal es inyectiva, si es sobre, si es biyectiva. Esto lo veremos en las secciones
3.2-3.4
Problemas
3.1.1. Determine si la funcion dada es una transformacion lineal y en los casos afirmativos, calcule la matriz
de la transformacion lineal correspondiente.
x x y
1. T : R2 R2 definida por T = .
y x
xy
x
2. T : R2 R3 definida por T = x + 1.
y
y2
x
y x y
3. T : R4 R2 definida por T =
.
z zw
w
x xz
4. T : R3 R3 definida por T y = y z .
z xz
x
x z
5. T : R3 R2 definida por T y =
.
yz
z
x1 xn
x
1 x1 + x2 xn
6. T : Rn Rn1 definida por T = ..
.
.
xn
x1 + + xn1 xn
1 2
1 0 1
3.1.2. Sea T : R2 R3 tal que T = 2 y T = 1. Calcule la matriz de T y T .
0 1 1
2 2
3.1.3. Calcule la matriz de la transformacion que rota el plano 90 y luego proyecta sobre el eje y.
3.1.4. Sea V = F([a, b], R el conjunto de las funciones continuas del intervalo [a,b] en R. Demuestre que la
Rb
funcion T : V R definida por T (f ) = a f (x)dx es una transformacion lineal.
90
3.1.5. Muestre que una funcion T : Rn R es una transformacion lineal si y solamente si existen a1 , , an
Pn
R tales que T (x1 , , xn ) = i=1 ai xi .
3.1.6. Considere la funcion D : P3 P2 definida por D(a + bt + ct2 + dt3 ) = b + 2ct + 3dt2 . Demuestre que
D es una transformacion lineal.
En forma mas general demuestre que la funcion D : Pn+1 Pn definida por D(p(t)) = p (t) es una
transformacion lineal.
3.1.7. Considere la funcion I : P2 P3 definida por I(a + bt + ct2 ) = at + 21 bt2 + 13 ct3 . Demuestre que I es
una transformacion lineal.
Rt
En forma mas general demuestre que la funcion I : Pn Pn+1 definida por D(p(t)) = 0
p(x)dx es una
transformacion lineal.
En esta seccion veremos que la inyectividad de una transformacion lineal esta ligada a con la nulidad de la
matriz de la transformacion, y esto a su vez, depende de si kernel de la transformacion es trivial. Comenzamos
con la definicion de kernel de una transformacion.
Definicion 3.3. Sean V y W espacios vectoriales y sea T : V W una transformacion lineal, definimos el
nucleo o kernel de T como el conjunto
1 2 0 F1 2F2 F1 1 0 6
.
0 1 3 0 1 3
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 91
x
x = 6z
Luego tenemos que un vector v = y N ul(A) = N ul(A ) si y solo si se satisfacen las ecuaciones
.
y = 3z
z
x x 6z 6
Entonces tenemos que v = y N ul(A) si y solo si y = 3z = z 3 .
z z z 1
6
Por tanto tenemos que ker(T ) = N ul(A) = gen 3 .
1
El siguiente resultado muestra la relacion entre la inyectividad de una transformacion lineal y la trivialidad
del kernel.
Teorema 3.5. Sea T : V W una transformacion lineal, entonces T es inyectiva si y solo si ker(T ) = {0}.
En el caso particular de transformaciones lineales que van de Rn en Rm , el Teorema 3.5 y el Lema 3.4 nos
dan un algoritmo para calcular el kernel, este se hace evidente con el siguiente resultado.
Demostracion. T es inyectiva si y solo si ker(T ) = {0} (Teorema 3.5) si y solo si N ul(A) = {0} (Lema 3.4) si
y solo si rango(A) = n (Teorema 2.16).
Este teorema nos da una manera de determinar si una transformacion lineal es inyectiva y en caso negativo,
usamos el Lema 3.4 para calcularlo. A continuacion damos los siguientes ejemplos.
x
x + 2y
Ejemplo 3.7. Determine si la transformacion lineal T : R3 R2 definida por T y =
es
y 3z
z
inyectiva.
1 2 0
Solucion. En el Ejemplo 3.6 vimos que la matriz de la transformacion es A = y la forma
0 1 3
1 0 6
escalonada reducida de A es A = . De esto deducimos que rango(A) = 2 < numero de columnas
0 1 3
de A, por tanto A no es inyectiva.
92
1 2 3 4
2 3 4 5
Ejemplo 3.8. (MatLab) Sea A = y sea T : R4 R4 la transformacion lineal definida
3 4 5 6
4 5 6 7
por T (v) = Av. Determine si T es inyectiva y calcular su kernel.
Solucion. Como la matriz de la transformacion es la unica para la cual T (v) = Av, tenemos que A = E TE es
la matriz de la tranformacion, para determinar si T es o no inyectiva, necesitamos calcular el rango de A, lo
cual calculamos como sigue en MatLab:
>> A = [1, 2, 3, 4; 2, 3, 4, 5; 3, 4, 5, 6; 4, 5, 6, 7]; rank(A)
y as se obtiene que rango(A) = 4 = numero de columnas de A y se sigue que T es inyectiva y ker(T ) = {0}.
1 2 1 1 1
1 0 1 3 1
1 1 y sea T : R5 R5 definida por T (x) = Ax,
Ejemplo 3.9. (MatLab) Sea A = 0 1 1
0 1 1 1 1
1 0 1 3 1
determine si T es inyectiva y calcular ker(T ).
Solucion. Primero calculamos el rango de A para determinar si la transformacion es inyectiva,
>> A = [1, 2, 1, 1, 1; 1, 0, 1, 3, 1; 0, 1, 1, 1, 1; 0, 1, 1, 1, 1; 1, 0, 1, 3, 1]; rank(A)
y obtenemos que rango(A) = 3 y por tanto T no inyectiva. Para calcular el kernel, computamos el subespacio
nulo de A.
>> null(A, r )
1 3
1 1
Obtenemos que ker(T ) = N ul(A) = gen 1 , 0 .
0 1
0
0
Problemas
Im(T ) = Col(A).
El teorema anterior nos muestra como la matriz de la transformacion se puede usar para calcular la imagen de
una transformacion, esta tambien sirve para determinar si la transformacion es sobreyectiva, esto lo mostramos
a continuacion.
El Teorema 3.7 nos dice que encontrar la imagen de una transformacion es equivalente a encontrar el
espacio columna de la matriz de la transformacion y el teorema anterior reduce el problema de determinar si la
transformacion es sobre a encontrar el rango de esta matriz. Esto lo ilustramos en los siguientes ejemplos.
Ejemplo 3.12. (MatLab) Sea T la transformacion del Ejemplo 3.9, determine si T es sobre y calcular Im(T ).
Solucion. En el Ejemplo 3.9 se obtuvo que el rango de la matriz A =E TE es 3 y por tanto T no es sobre.
Para calcular Im(T ) necesitamos calcular el espacio columna de A, el cual podemos calcular con la escalonada
reducida de A.
>> A = [1, 2, 1, 1,1; 1, 0, 1, 3, 1; 0, 1,
1, 1, 1; 0, 1, 1, 1, 1; 1, 0,
1,
3,1];A = rref
(A)
1 0 1 3 0 1
2 1
0 1 1 1 0
1 0 1
se obtiene que A 0 0
0 0 1 y por tanto Im(T ) = 0 , 1 , 1 , es decir, ImT es gene-
0 0 0 0 0
0 1 1
0 0 0 0 0 1 0 1
rada por la primera, segunda y quinta columna de A.
Otra forma de calcular la imagen es usando el comando colspace(sym(A)), el cual produce una base de
Col(A) = Im(T ).
>> A = [1, 2, 1, 1, 1; 1, 0, 1, 3, 1; 0, 1, 1, 1, 1;
0,1,
1,1,1; 1,
0,
1, 3, 1]; colspace(sym(A))
1
0 0
0 1 0
y de esta manera obtenemos que el conjunto 0 , 0 , 1 es una base para Im(T ).
0 0 1
0
1 0
Problemas
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 95
3.3.1. Sea T : R2 R2 definida por T (x, y) = (y, 0), muestre que ker T = ImT .
3.3.3. Sean V y W los subespacios de R4 determinados por V = gen {(1, 0, 1, 1), (0, 1, 1, 1)} y W =
(x, y, z, t) R4 : x + y = 0 y t + z = 0 . Determine una transformacion lineal T : R4 R4 tal que ker(T ) =
V y Im(T ) = W .
3.3.4. Encuentre una transformacion lineal T : R4 R4 tal que: ker(T ) = gen {(1, 0, 1, 0), (1, 0, 0, 1)} y
Im(T ) = {(1, 1, 0, 2), (0, 1, 1, 0)}.
3.3.5. Sea V un espacio vectorial y T : V V una transformacion lineal. Demuestre que las siguientes
condiciones son equivalentes:
1. Ck = Col(Ak ).
3.3.16. Sean T, S : V V transformaciones lineales, demuestre que Im(T + S) ImT + ImS, donde
T +S : V V es la transformacion lineal definida por (T +S)(v) = T (v)+S(v), y concluya que rango(A+B)
rangoA + rangoB.
3.4. Isomorfismos
Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorfismos, la palabra iso-
morfismo significa igual forma, en este sentido se usa el termino isomorfismo para las transformaciones que
preservan la estructura de espacio vectorial. En esta seccion veremos como los isomorfismos preservan la es-
tructura de los espacios vectoriales. Comenzamos con la definicion de isomorfismo.
Definicion 3.5. Sean V y W espacios vectoriales y T : V W una transformacion lineal, decimos que
T es un isomorfismo si es una funcion biyectiva. Tambien diremos que V es isomorfo a W si existe un
isomorfismo entre ellos, lo cual denotaremos V
= W.
Corolario 3.10. Rn
= Rm si y solo si m = n.
1 1
Ejemplo 3.13. Sea T : R2 R2 la tranformacion lineal cuya matriz es A = , determinar si T es
1 1
un isomorfismo.
Solucion. La forma escalonada reducida de A es la matriz A = I, por tanto T es un isomorfismo.
Demostracion. Primero veamos que T 1 es lineal. Sean y1 , y2 Rn , como T es sobre, existen x1 , x2 Rn tal
que y1 = T (x1 ) y y2 = T (x2 ), entonces
= T 1 (y1 ) + T 1 (y2 ).
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 97
Por tanto T 1 es lineal. Ahora veamos que A1 es la matriz de transformacion de T . Notese que si y Rn
entonces y = AA1 y = T (A1 y), aplicando T 1 a ambos lados obtenemos
T 1 (y) = A1 y.
2 2
Ejemplo
En el ejemplo anterior vimos que la transformacion lineal T : R
3.14. R cuya matriz es
1 1 1/2 1/2
A= es invertible, entonces T 1 es un isomorfismo y su matriz es A1 = . Es decir, la
1 1 1/2 1/2
1
x (x + y)
transformacion esta dada por T = 2 .
1
y 2 (x y)
Hasta ahora la mayora de los teoremas que hemos visto en el captulo y en el anterior aplican solamente al
espacio vectorial Rn y a transformaciones lineales de Rn en Rm . Vamos a usar la teora de isomorfismos para
generalizar los teoremas vistos, comenzamos con un resultado que nos va a servir de puente para extender estos
teoremas.
Teorema 3.12. Sea V un espacio vectorial y X = {v1 , . . . , vn } una base para V , entonces V
= Rn . Un
isomorfismo entre estos espacios esta dado por la funcion T : V Rn definida por T (1 v1 + + n vn ) =
1
..
. , a esta funcion se le conoce como el isomorfismo canonico.
n
Demostracion. Veamos que T es un isomorfismo.
T es lineal: Sean v, w V y R, como {v1 , . . . , vn } es una base para V , existen 1 , . . . , n , 1 . . . , n R tal
que v = 1 v1 + + n vn y w = 1 v1 + + n vn , luego
T (v + w) = T (1 v1 + + n vn + 1 v1 + + n vn )
= T ((1 + 1 )v1 + + (n + n ))
1 + 1 1 1
.. .. ..
= . = . + .
n + n n n
= T (1 v1 + + n vn ) + T (1 v1 + + n vn )
= T (v) + T (w).
98
T (v) = T ((1 v1 + + n vn ))
= T (1 v1 + + n vn )
1 1
.. ..
= . = .
n n
= T (1 v1 + + n vn )
= T (v).
Observacion 3.3. Notese que en el teorema anterior la transformacion T depende de la base X, mas aun, por
cada base de V tenemos un isomorfismo distinto. Debido a la dependencia de la base, en adelante denotaremos
a esta transformacion por RX .
Ejemplo 3.15. El conjunto X = {1, t, t2 , t3 } es una base del espacio V = P3 , por tanto V es isomorfo a R4 y
el isomorfismo esta dado por
a
0
a1
RX (a0 + a1 t + a2 t2 + a3 t3 ) =
.
a2
a3
El numero de vectores en una base es invariante, este hecho se demostro en el Captulo 2 Teorema 2.15 pero
solo en el caso de subespacios de Rn , a continuacion lo demostramos para espacios vectoriales en general.
Teorema 3.13. Sea V un espacio vectorial y sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases para V, entonces
m = n.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 99
= Rn y V
Demostracion. Por el teorema anterior tenemos que V = Rm , luego Rn
= Rm . Luego por el
Corolario 3.10 tenemos que m = n.
Esto nos permite definir la dimension de espacios vectoriales, al tener que el numero de vectores en una base
es invariante.
Definicion 3.6. Sea V un espacio vectorial, definimos la dimension de V, denotada por dim V , como el numero
de vectores en una base de V. Es decir, si {v1 , . . . , vn } es una base para V entonces dim V = n.
Ejemplo 3.16. 1. Como el conjunto {1, t, . . . , tn } es una base para Pn , tenemos que dim Pn = n + 1.
1 0 0 1 0 0 0 0
2. Una base para M22 (R) esta dada por , , , , por tanto dim M22 (R) = 4.
0 0 0 0 1 0 0 1
3. En general tenemos que dim Mmn (R) = mn. Una base para este espacio esta dada por {eij | i =
1, . . . , n, j = 1, . . . , m}, donde eij es la matriz m n con un 1 en la posicion ij y cero en las demas
posiciones.
El siguiente teorema muestra como los isomorfismo conservan la estructura de los espacios vectoriales, en
otras palabras, el siguiente teorema justifica por que las transformaciones biyectivas son llamadas isomorfismos.
3. El conjunto {v1 , . . . , vn } es una base para V si y solo si el conjunto {T (v1 ), . . . , T (vn )} es una base para
W.
4. dim V = dim W .
2. Como T es un isomorfismo, es en particular inyectivo y sobreyectivo, por tanto ker(T ) = {0} y W = Im(T ).
Entonces tenemos lo siguiente:
{T (v1 ), . . . , T (vn )} genera a W si y solo si {T (v1 ), . . . , T (vn )} genera a Im(T ) si y solo si para todo v V
existen constantes 1 , . . . , n tal que T (v) = 1 T (v1 ) + + n T (vn ) si y solo si para todo v V existen
constantes 1 , . . . , n tal que T (v) = T (1 v1 + + n vn ) si y solo si para todo v V existen constantes
1 , . . . , n tal que 0 = T (1 v1 + + n vn ) T (v) = T (1 v1 + + n vn v) si y solo si para todo
v V existen constantes 1 , . . . , n tal que 1 v1 + + n vn v ker(T ) = {0} si y solo si para todo
v V existen constantes 1 , . . . , n tal que 1 v1 + + n vn v = 0 si y solo si para todo v V existen
constantes 1 , . . . , n tal que v = 1 v1 + + n vn si y solo si {v1 , . . . , vn } genera a V .
3. Es inmediato de 1 y 2.
4. Es inmediato de 3
En la proxima seccion explotaremos toda la potencia de los Teoremas 3.6 y 3.14, lo cual nos permitira estudiar
independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios. Tambien nos ayudara a
estudiar inyectividad, sobreyectividad y biyectividad de transformaciones lineales entre espacios vectoriales ar-
bitrarios.
Problemas
1 a
3.4.1. Sea V = a R el espacio vectorial con suma definida por A B = AB donde AB denota
0 1
1 a 1 a
el producto usual de matrices y el producto por escalar definido por = . Demuestre que
0 1 0 1
V = R exhibiendo un isomorfismo entre estos espacios.
3.4.2. Muestre que las siguientes transformaciones lineales de R3 en R3 son invertibles y determine su trans-
formacion lineal inversa.
3.4.3. Sea T : R2 R2 dada por T (x1 , x2 ) = (x1 + x2 , x1 ) para todo (x1 , x2 ) R2 . Demuestre que T es un
isomorfismo y determine T 1 .
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 101
3.4.6. Sea A Mn (R) y T : Mn (R) Mn (R) la funcion definida por T (X) = AX. Muestre que T es una
transformacion lineal y muestre que T es invertible si y solo si A es invertible.
1. Ck+1 Ck ,
2. T (Ck ) = Ck+1 . (Recuerde que para H V se define T (H) como el conjunto T (H) = {T (h) | h H},)
3. Nk Nk+1 ,
4. T (Nk ) Nk ,
1. Im(S T ) Im(S),
2 1 0 1 0 3 5 1
Ejemplo 3.18. (MatLab) Sean M1 = , M2 = , M3 = y M4 = , determine
0 0 1 1 1 0 5 3
si las matrices son LI en M22 (R) y si no lo son encontrar una dependencia lineal entre ellos.
4
Solucion. El procedimiento es analogo al ejemplo anterior. Por el Teorema 3.6 la funcion T : M22 (R) R
a
a c b
determinada por T = es un isomorfismo. Entonces el conjunto {M1 , M2 , M3 , M4 } es lineal-
b d c
d
mente
independiente
si y solo si
el conjunto
1 0 0 5
0 1 1 5
T (M1 ) =
, T (M2 ) = , T (M3 ) = , T (M4 ) = es linealmente independiente. Al calcular
2 1 3 1
0 1 0 3
1 0 0 5
0 1 0 3
la forma escalonada de la matriz A = [T (M1 ) T (M2 ) T (M3 ) T (M4 )] obtenemos A =
, por
0 0 1 2
0 0 0 0
tanto los vectores no son LI y tenemos que T (M4 ) = 5T (M1 ) 3T (M2 ) 2T (M1 ), como T es un isomorfismo
tenemos que M4 = 5M1 3M2 2M3 , lo que nos da una dependencia lineal entre las matrices M1 , M2 , M3 y
M4 .
Solucion. De acuerdo al ejemplo anterior sabemos que M1 , M2 y M3 son LI y que M4 es una combinacion
lineal de estas, por tanto {M1 , M2 , M3 } es una base para H y dim(H) = 3.
Para determinar si M H, usamos el Teorema 3.14 el cual dice que M H si y solo si T (M ) T (H) si y
solo si existen constantes 1 , 2 , 3 tal que T (M ) = 1 T (M1 ) + 2 T (M2 ) + 3 T (M3 ) si y solo si el conjunto
{T (M1 ), T (M2 ), T (M3 ), T (M )} es LD.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 103
Despues de hacer los respectivos calculos podemos notar que A = I y por tanto los vectores son LI. Concluimos
que T (M )
/ T (H), luego M
/ H.
Problemas
En esta seccion definiremos la matriz de una transformacion con respecto a una base del dominio y otra del
codominio. Esto nos permitira calcular el kernel y la imagen de una transformacion lineal de manera computacio-
nal. La matriz de la transformacion con respecto a dos bases dadas nos permitira ver una transformacion lineal
entre espacios arbitrarios como una transformacion de Rn en Rm . En las siguientes observaciones introducimos
la matriz de una transformacion con respecto a dos bases.
RX (1 v1 + + n vn ) = (1 , . . . , n ) y RY (1 w1 + + m vm ) = (1 , . . . , m ).
T /W
V
RX RY
S
Rn / Rm ,
Teorema 3.15. Usando la notacion de la Observacion 3.4. Sean V y W espacios vectoriales, X = {v1 , . . . , vn }
una base para V , Y = {w1 , . . . , wm } una base para W y T : V W una transformacion lineal. Entonces
tenemos lo siguiente:
104
Demostracion. Por la definicion de S tenemos que T = RY1 S RX , ademas como RX y RY son isomorfismos,
son en particular inyectivos y sobreyectivos.
3. Se sigue de 1. y 2.
Este teorema nos permite asociar a cualquier transformacion lineal entre espacios vectoriales arbitrarios
una transformacion lineal de Rn en Rm que respeta la inyectividad, la sobreyectividad y le biyectividad de la
transformacion, de este se deduce los siguientes resultados que nos dicen como determinar si la transformacion
es inyectiva y/o sobreyectiva, tambien como calcular el kernel y la imagen.
Corolario 3.16. Usando la notacion de la Observacion 3.4. Sean V y W espacios vectoriales, X = {v1 , . . . , vn }
una base para V , Y = {w1 , . . . , wm } una base para W , T : V W una transformacion lineal, S = Rn Rm
y A = E SE la matriz de la transformacion S. Entonces
Demostracion. Esto es una consecuencia inmediata del teorema anterior y los Teoremas 3.6, 3.8 y 3.9.
Corolario 3.17. Sean V y W espacios vectoriales, sea X = {v1 , . . . , vn } una base para V , Y = {w1 , . . . , wm }
una base para W , T : V W una transformacion lineal. RX : V Rn y RY : W Rm los isomorfismos
1
canonicos de V y W , respectivamente, sea S = RY T RX : Rn Rm y sea A = E SE la matriz de la
transformacion S. Entonces tenemos lo siguiente:
1 1
1. ker(T ) = RX (ker(S)) = RX (N ul(A)).
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 105
Demostracion.
1.
2.
A continuacion daremos ejemplos de como usar estos corolarios para calcular la imagen y el kernel de
transformaciones lineales.
1
S(a, b, c, d) = RY D RX (a, b, c, d) = RY D(a + bt + ct2 + dt3 ) = RY (b + 2ct + 3dt2 ) = (b, 2c, 3d)
Ahora pasamos a calcular el kernel y la imagen. Como D es sobre entonces Im(D) = P2 . Para el kernel,
1
usamos el Corolario 3.17, el cual nos dice que si calculamos una base de N ul(A) y aplicamos RX obtenemos
una base de ker(D).
Notese que
1 1 1 1
2 0 0
N ul(A ) = N ul(A) si y solo si 2 = 3 = 4 = 0 si y solo si 2 = = 1 .
3 3 0 0
4 4 0 0
1
0
1
Se sigue que x1 = es una base de N ul(A) = ker(S). Por tanto {RX
(x1 ) = 1} una base para ker(D).
0
0
Es decir
ker(D) = gen{1} = { polinomios constantes }.
De la matriz A obtenemos que una base para Col(A) = Im(I) esta dada por el conjunto
0 0 0
y1 = 0 , y2 = 1/2 , y3 = 00
1 0
,
0 0 1/3
1 1 1
ya que A tiene pivotes en las tres columnas. Por tanto el conjunto {RX (y1 ), RX (y2 ), RX (y3 )} = t, 12 t2 , 13 t3
es una base para Im(I). Es decir
1 2 1 3
Im(I) = gen t, t , t = gen{t, t2 , t3 }.
2 3
1 1
Ejemplo 3.22. Sea M = y sea T : M22 (R) M22 (R) la funcion definida por T (A) = AM .
1 1
Demuestre que T es una transformacion lineal, determine si T es inyectiva y/o sobreyectiva, si es un isomorfismo
y calcular el kernel y la imagen de T .
Solucion. Primero veamos que T es una transformacion lineal. Sean A1 , A2 M22 (R) y R,
Fijemos la base
1 0 0 0 0 1 0 0
X= E11 = , E21 = , E12 = , E22 =
0 0 1 0 0 0 0 2
y consideremos el isomorfismo RX : M22 R4 definido por
a c
R X = RX (aE11 + bE21 + cE12 + dE22 ) = (a, b, c, d).
b d
1
La transformacion S = RX T RX : R4 R4 esta dada por
1
a c a c
S (a, b, c, d) = RX T RX (a, b, c, d) = RX T = R X M
b d b d
ac a + c
= R X = (a c, b d, a + c, b + d).
bd b + d
La matriz de esta transformacion es
1 0 1 0
0 1 0 1
A = E SE = [S(e1 ) S(e2 ) S(e3 ) S(e4 )] =
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
y su forma escalonada reducida es la matriz A =
. Luego S no es inyectiva ni sobreyectiva y
0 0 0 0
0 0 0 0
tampoco un isomorfismo.
108
De lamatriz A tenemos
que una base para Col(A) esta dada por las dos primeras columnas de A, es decir,
1 0
0 1
m1 =
, m2 = es una base para Col(A) = Im(S). Por tanto se tiene que una base para Im(T )
1 0
0 1
esta dada por
1 1 0 0
1 1
{RX (m1 ), RX (m2 )} = , .
0 0 1 1
Ahora para calcular ker(T ) necesitamos una base para N ul(A). Para esto notese que
1 1 31 0
2 = 3 2 4 0 1
N ul(A) = N ul(A ) si y solo si 1 si y solo si
= = 3 + 4 .
3 2 = 4 3 3 1 0
4 4 4 0 1
1 0
0 1
Se sigue que el conjunto x1 = , x2 = es una base para N ul(A) = ker(S). Por tanto el conjunto
1 0
0 1
1 1 0 0
1 1
{RX (x1 ), RX (x2 )} = , ,
0 0 1 1
1
En este caso la transformacion S = RX T RX : R4 R4 esta dada por
1
a c a c
S(a, b, c, d) = RX T RX (a, b, c, d) = RX T = R X M
b d b d
2a + b 2c + d
= RX = (2a + b, a + b, 2c + d, c + d).
a+b c+d
Problemas
d
3.5.2. Calcule la matriz de la tranformacion T : R3 [t] R3 [t] definida por T (p) = dt [(2 + t)p].
3.5.3. Sean V un espacio vectorial de dimension finita y T : V V una transformacion lineal. Suponga que
existe S : V V tal que T S = IdV . Demuestre que T es invertible y S = T 1 . De un ejemplo que muestre
que lo anterior es falso cuando V no es de dimension finita.
3.5.4. Sea T : U V una transformacion lineal inyectiva. Muestre que V tiene un subespacio isomorfo a U .
3.5.5. Sea V un espacio vectorial con dim V 3. Muestre que una funcion T : V V es una transformacion
lineal si y solo la restriccion de T a cada subespacio vectorial de V con dimension 2 es una transformacion
lineal.
3.5.8. Sea T : Mn (R) Mn (R) definida por T (A) = A At . Demuestre que ker T = Sn(R) es el conjunto de
marices simetricas y la imagen Im(T ) = An (R) es el conjunto de matrices antisimetricas.
Teorema 3.18. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V y v V , entonces existen constantes
unicas 1 , . . . , n talque v = 1 v1 + + n vn .
0 = v v = 1 v1 + + n vn (1 v1 + + n vn ) = (1 1 )v1 + + (1 n )vn
Los siguientes resultados son generalizaciones de los Teoremas 2.11 tem 2. y 2.16 que se enunciaron y se
demotraron en el Captulo 2.
Teorema 3.19. Sea V un espacio vectorial y sea {v1 , . . . , vn } un conjunto linealmente independiente. Si
dim(V ) = n entonces {v1 , . . . , vn } es una base para V.
Demostracion. Como dim(V ) = n entonces V tiene una base X con n elementos, aplicando el Teorema 3.12
existe un isomorfismo T = RX : V Rn y por el Teorema 3.14 tem 1 el conjunto {T (v1 ), . . . , T (vn )} es
linealmente independiente en Rn , luego por el Teorema 2.11 tem 2, este conjunto forma una base para Rn .
Aplicando nuevamente el Teorema 3.14 tem 1 tenemos que {v1 , . . . , vn } es una base de V .
Teorema 3.20. Sean V y W espacios vectoriales con dim(V ) = n y sea T : V W una transformacion
lineal. Entonces
dim(ker T ) + dim(ImT ) = n.
Ahora por el Corolario 3.17, se tiene que dim(ImT ) = dim(ImS) = dim(ColA) y dim(KerT ) = dim(KerS) =
dim(N ulA) entonces tenemos
Ahora pasamos a demostrar el teorema de la base incompleta en su version general, para facilitar su demos-
tracion veamos el siguiente lema.
Lema 3.21. Sea V un espacio vectorial, {v1 , . . . , vk } V un conjunto de vectores linealmente independientes
y w V . Si w
/ gen{v1 , . . . , vk } entonces el conjunto {v1 , . . . , vk , w} es linealmente independiente.
Teorema 3.22. (Teorema de la Base Incompleta) Sean V un espacio vectorial con dim(V ) = n, {v1 , . . . , vk }
un conjunto de vectores linealmente independientes con k < n. Entonces existen vectores vk+1 , . . . , vn tal que
{v1 , . . . , vk , vk+1 , . . . , vn } es una base para V .
Demostracion. Sea n = dim(V ), r = dim(W1 ), s = dim(W2 ) y t = dim(W1 W2 ). Sea {w1 , . . . , wt } una base
para W1 W2 , por el Teorema de la Base Incompleta, existen vectores xt+1 , . . . , xr tal que {w1 , . . . , wt , xt+1 , . . . , xr }
es una base para W1 y existen vectores yt+1 , . . . , ys tal que {w1 , . . . , wt , yt+1 , . . . , ys } es una base para W2 .
Afirmacion 1: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente.
Para demostrar esta afirmacion, supongamos que
0 = v v = 1 w1 + + t wt t+1 yt+1 s ys ,
pero como {w1 , . . . , wt , yt+1 , . . . , ys } es linealmente independiente, por ser base de W2 , entonces
0 = 1 = = t = 1 = = s .
0 = 1 = = t = 1 = = s .
Concluimos que {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente, lo que demuestra la Afir-
macion 1.
Afirmacion 2: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } genera a W1 + W2 .
Tomemos w W1 + W2 , entonces existen x W1 y y W2 tal que w = x + y.
Como {w1 , . . . , wt , xt+1 , . . . , xr } es una base para W1 , existen constantes 1 , . . . , r tal que
w =x + y
=1 w1 + + t wt + t+1 xt+1 + + r xr
+ 1 w1 + + t wt + t+1 yt+1 + + s ys
Problemas
1. Si n es impar, demuestre que no existe ninguna transformacion lineal T : V V tal que ker(T ) = Im(T ).
3.6.2. Muestre que si T : V W es una transformacion lineal inyectiva, entonces dim V dim W .
3.6.3. Considere una transformacion lineal T : V W , donde V y W son espacios vectoriales de dimension
finita tales que dim W < dim V .
2. Si X es una base arbitraria de V , existe un vector v X tal que T (v) = 0? Demuestre o de un contra ejemplo.
3.6.4. Sea T : V V una transformacion lineal demuestre que las siguientes afirmaciones son equivalentes
1. T es invertible
2. T es inyectiva
3. T es sobreyectiva
3.6.5. El problema anterior no es cierto en dimension infinta, muestre que la transformacion lineal T : R[t]
Rt
R[t] definida por T (p) = 0 p(x)dx es inyectiva pero no sobre y la transformacion T : R[t] R[t] definida por
T (p) = p es sobre pero no inyectiva.
Los dos siguientes problemas bosquejan otra forma de demostrar el Teorema 3.20
3.6.6. Sean V y W espacios vectoriales, T : V W una transformacion lineal y {v1 , . . . , vt } una base de ker T .
Si vt+1 , . . . , vn son vectores tal que {v1 , . . . , vt , vt+1 , . . . , vn } es una base de V entonces {T (vt+1 ), . . . , T (vn )} es
una base de Im(T ).
3.6.7. Sean V y W espacios vectoriales, T : V W una transformacion lineal y {w1 , . . . , wt } una base de
Im(T ) y sean v1 , . . . , vt vectores tal que wi = T (vi ), para i = 1, . . . , t. Demuestre lo siguiente
2. Si vt+1 , . . . , vn son vectores tal que {v1 , . . . , vt , vt+1 , . . . , vn } es una base de V entonces {vt+1 , . . . , vn } es una
base de ker(T ).
tr : Mn (R) R
3.6.8. Muestre que la funcion es una TL sobreyectiva con ker tr = sln (R) = {A
A 7 tr(A)
Mn (R) | trA = 0}. Use esto y el Teorema de la Dimension para transformaciones lineales para determinar
dim sln (R).
Definicion 3.7. (Suma Directa) Sean V un espacio vectorial y W1 y W2 subespacios de V , decimos que V
es la suma directa de W1 y W2 , lo cual denotamos por V = W1 W2 , si V = W1 + W2 y W1 W2 = {0}.
Los siguientes resultados exhiben condiciones suficientes y necesarias para que un espacio sea suma directa
de dos subespacios.
Concluimos que X Y = {v1 , . . . , vr , w1 , . . . , ws } es LI. Ahora, por el teorema anterior dim V = dim W1 +
dim W2 = r + s entonces X Y es un conjunto LI con r + s = dim V elementos y por tanto es una base de V .
Supongamos que X Y = {v1 , . . . , vr , w1 , . . . , ws } es una base para V .
Afirmacion 1. V = W1 + W2
Demostracion. Sea v V , como {v1 , . . . , vr , w1 , . . . , ws } es una base para V , existen constantes 1 , . . . , r , 1 , . . . , s
tal que
v = 1 v1 + + r vr + 1 w1 + + s ws W1 + W2 .
| {z } | {z }
W1 W2
v = 1 v 1 + + r v r . (3.7)
0 = v v = 1 v 1 + + r v r 1 w1 + + s ws .
Ahora, como {v1 , . . . , vr , w1 , . . . , ws } es linealmente independiente, por ser base para V , tenemos que 0 = 1 =
= r = 1 = = s . Por tanto v = 1 v1 + + r vr = 0 y W1 W2 {0}. La otra inclusion es trivial ya
que 0 W1 + W2 luego {0} W1 W2 . Lo que prueba la afirmacion.
De las afirmaciones 1. y 2. tenemos que V = W1 W2 .
Terminamos la seccion con una ultima caracterizacion de la suma directa de espacios vectoriales.
0 = v v = (w1 w1 ) + (w2 w2 )
Problemas
3.7.1. Demuestre que si T : V V es una transformacion lineal tal que T T = T entonces V = Im(T )
ker(T ).
3.7.2. Exhiba un ejemplo de una transformacion lineal T : V V tal que ker(T ) Im(T ) 6= {0}.
3.7.5. Demuestre que el espacio de matrices n n es la suma directa del subespacio de matrices simetricas y el
subespacio de matrices antisimetricas, es decir, Mn (R)
= Sn (R) An (R). (Ayuda: Use el Ejercicio 1.2.11).
3.7.7. Muestre que todo espacio vectorial finitamente generado es una suma directa de subespacios vectoriales
de dimension 1.
n n
3.7.15. Si V y W son subespacios de Rn con dim V > 2 y dim W > 2 entonces V W 6= .
3.7.18. Sea T : V V una TL, demuestre que existe k > 0 tal que V = Im(T k ) Ker(T k ).
Ortogonalidad en Rn
En este captulo se define el producto interno usual en espacios vectoriales sobre R y se muestra como se
define, a traves de este producto, la norma de un vector y el angulo entre vectores en Rn . Esto a la vez nos
permitira hablar de ortogonalidad y proyeccion ortogonal de un vector sobre un subespacio. Se dara tambien
el metodo de los mnimos cuadrados, el cual es una aplicacion de proyeccion ortogonal. Al final se define el
concepto de base ortogonal, la importancia de estas bases y el proceso de Gramm-Schmidt, el cual es un metodo
para calcular este tipo de bases. Se termina el captulo con la llamada descomposicion QR de una matriz, la
cual se obtiene a partir del proceso Gramm-Schmidt.
119
120
1. (v + w) z = v z + w z
2. v (w + z) = v w + v z
3. (v) w = v (w) = v w
4. v v 0 y v v = 0 si y solo si v = 0.
5. v w = w v.
El producto por escalar induce una geometra en Rn , ya que a partir de este, podemos definir la longitud (o
norma) de un vector y la distancia entre vectores.
1
.
Definicion 4.2. (Norma de un vector) Sea v = .. un vector en Rn , definimos la norma de x, denotada
n
por ||v||, por la formula
q
||v|| = v v = 12 + + n2 .
1
Ejemplo 4.3. De acuerdo a esta formula, la norma del vector v = 1 esta dada por
2
p
||v|| = (1)2 + (1)2 + 22 = 6.
Definicion 4.3. (Distancia entre vectores) Sean v y w vectores en Rn , la distancia entre v y w esta dada
por la formula ||w v||.
1 1
Ejemplo 4.4. Sean v = 2 y w = 1, entonces la distancia entre v y w esta dada por
3 2
p
||w v|| = (1 1)2 + (1 2)2 + (2 3)2 = 14.
vw
v
w
b
La Ecuacion (4.1) se obtiene de la siguiente forma: aplicando la ley de cosenos (en el plano generado por
los vectores v y w ) obtenemos
pero, por la definicion de norma y las propiedades del producto escalar tenemos
v w = ||v|| ||w||cos.
Definicion 4.5. (Espacios ortogonales) Sean V y W subespacios de Rn , decimos que V y W son ortogonales
si v w = 0 para todo v V y w W .
1 0
1
1 1 1
Ejemplo 4.7. Sean V = gen , y W = subespacios de R4 , entonces V y W son
2 1
0
0
1
1
1 0 a
1 1 a + b
ortogonales ya que todo elemento en v V tiene la forma v = a
+ b =
y todo elemento
2 1 2a + b
0 1 b
1 c
1 c
w W tiene la forma w = c = , donde a, b y c son numeros reales, por tanto
0 0
1 c
1. V W = {0},
{v1 , . . . , vr , w1 , . . . , ws }
es linealmente independiente.
Demostracion. 1. Sea v V W , entonces como V y W son ortogonales se tiene que v v = 0 y por las
propiedades del producto interno se tiene que v = 0.
2. Supongamos que 1 v1 + + r vr + 1 w1 + + s ws = 0, entonces
1 v1 + + r vr = 1 w1 s ws V W.
El caso que estudiaremos a fondo en este captulo es cuando los dos subespacios ortogonales son complemen-
tarios, esto lo definimos a continuacion.
V = {w Rn | v w = 0, para todo v V }.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 123
El siguiente teorema nos da un algoritmo para calcular la base para el complemento ortogonal de un subespacio
V de Rn .
1. F il(A) = N ul(A),
2. Col(A) = N uliz(A).
es decir x N ul(A).
F1 x
.
Sea x N ul(A), entonces 0 = Ax = .. , por tanto para i = 1, . . . , m tenemos que 0 = Fi x = Fit x.
Fm x
Ahora si v F il(A), entonces v = a1 F1 + + am Fm y por tanto v x = a1 F1 x + + am Fm x = 0 y por
| {z } | {z }
=0 =0
tanto x F il(A) .
2. Como Col(A) = F il(At ) por el tem 1. se sigue que Col(A) = F il(At ) = N ul(At ) = N uliz(A).
A continuacion describimos el procedimiento para calcular el complemento ortogonal, el cual se deduce del
teorema anterior.
Procedimiento 4.1. (Calculo del complemento ortogonal). Sea {v1 , . . . , vk } una base para V , para cal-
cular una base para V hacemos lo siguiente:
vt
1
.
1. Definimos la matriz A = .. y de esta forma V = F il(A).
vkt
2. Sea W = N ul(A) entonces W = V , esto por el Teorema 4.2, ya que V = F il(A) = N ul(A) = W .
1 0
0 0
Ejemplo 4.8. Calcular V si V = gen
, .
0 1
1
1
124
1 0
0 0 v1t 1 0 0 1
Solucion. Sea v1 = y v2 = , debemos calcular N ul(A) donde A =
= , como A
0 1 v2t 0 0 1 1
1 1
esta en forma escalonada reducida entonces tenemos que
x
1
x2 x = x4
N ul(A) si y solo si 1
x3 x3 = x4
x4
x1 x4 0 1
x2 x2 1 0
=
si y solo si = x2 + x4 .
x3 x4 0 1
x4 x4 0 1
0 1
1 0
Por el procedimiento indicado arriba y el Teorema 2.16 se concluye que , es una base para V .
0 1
0
1
Terminamos le seccion con el siguiente resultado que explica porque a V se le llama el complemento orto-
gonal de V .
dim V + dim V = dim F il(A) + dim N ul(A) = dim Col(A) + dim N ul(A) = n = dim Rn .
Notese ademas que V y V son, por definicion, conjuntos ortogonales y por tanto V V = {0} (Lema 4.1),
se sigue del Problema 3.7.3 que Rn = V V .
Problemas
4.1.2. Determine si el par de vectores dados es ortogonal, si no lo es, determine el angulo formado por ellos.
4.1.3. Encuentre la relacion entre y para que los vectores v = (1, 1, 2, ) y w = (, 2, 3, 4) sean ortogonales.
4.1.4. Calcule una base para V en cada uno de los siguientes casos:
1. V = gen{(1, 3, 1), (1, 1, 2)} 2. V = gen{(2, 1, 1, 0)} 3. V = gen{(1, 0, 0, 0, 1), (1, 2, 3, 4, 5)}
4.1.8. Determine todos los vectores v Rn tal que ||v|| = con un real positivo.
4.1.10. Determine el angulo que forma el vector v = (1, 1, 1, 1) con cada uno de los vectores de la base estandar
de R4 .
4.1.11. Sea A Mn (R) una matriz simestrica, demuestre que N ulA es el complemento ortogonal de ColA.
4.1.14. Sea A Mn (R), demuestre que Rm = F ilA N ulA, deduzca que si V Rn es un subespacio entonces
Rm = V V .
4.1.15. Sea A Mn (R) una matriz, demuestre que v N ulA F ilA si y solo si v = 0.
1. Si V W entonces W V ,
2. (V ) = V ,
3. (V + W ) = V W ,
4. (V W ) = V + W .
4.1.18. Encuentre contraejemplos que muestren que las siguientes afirmaciones son falsas
3.
4.1.19. Calcule una base de V si se sabe que {(1, 2, 1, 0), (0, 2, 1, 3)} es una base de V
4.1.20. Demuestre que para todo v, w Rn se tiene que |v w| ||v||||w||. (Esta desigualdad se conoce como la
desigualdad de Cauchy-Schwartz.)
3. ||v + w||2 + ||v w||2 = 2||v||2 + 2||w||2 . (Esta igualdad es conocida como la Ley del paralelogramo.)
1
4.1.23. Un vector u Rn se llama si ||u|| = 1. Demuestre que si w Rn el vector u = ||w|| w es unitario.
Muestre ademas que si u y w son vectores LD con u unitario (esto es equivalente a decir que u y w estan
en la lnea ) entonces w = ||w||u. (El caso positivo se da cuando los vectores tienen la misma direccion).
En esta seccion se muestra como calcular la proyeccion ortogonal de un vector sobre otro, la formula que
se obtiene se verifica facilmente. Usaremos la formula obtenida para generalizarla obteniendo la formula de la
proyeccion de un vector en un subespacio.
Definicion 4.7. Sean v y w vectores en Rn , la perpendicular desde el extremo del vector v a la lnea que
contiene a w determina un punto sobre esta lnea, el vector que va desde el origen hasta este punto es llamado
la proyeccion ortogonal de v sobre w, denotado por proyw v.
v
v
w
v b
O
w
p = proyw v p = proyw v
b b w
O p = proyw v O
Proposicion 4.4. Sean v y w vectores en Rn , la proyeccion ortogonal del vector v sobre el vector w esta dada
por
vw
proyw v = w.
ww
b
B
w
P
b
b
u p = proyw v
O
1
Se sigue que p = ||p||u y u = ||w|| w (Problema 4.1.23 ) y por tanto
||p||
p= w. (4.5)
||w||
||p||
Como el triangulo OBP en la figura anterior es un triangulo rectangulo, tenemos que cos = ||v|| . Ademas,
vw
de la Observacion 4.2 se sigue que ||w|| = ||v|| cos . Por tanto
vw
||p|| = . (4.6)
||w||
De las Ecuaciones (4.5) y (4.6) se sigue que
vw vw
p= 2
w= w.
||w|| ww
Ejemplo 4.10. Sean v = (1, 0, 1, 1) y w = (2, 2, 1, 0), se sigue que v w = 3 y w w = 9. Por tanto
proyw v = 39 w = 13 w = (2/3, 2/3, 2/3, 0).
Para calcular la proyeccion del vector v sobre w, proyw v, seguimos los comandos en MatLab
>> v = [7; 7; 7; 7; 7]; P v
Se obtiene que proyw v = w.
1. P v = proyw v gen{b},
2. v P v w,
3. P P v = P v, en general P 2 = P ,
4. si v gen{w} entonces P v = v,
5. v w si y solo si P v = 0.
Problemas
4.2.3. Determine el multiplo del vector v = (2, 2, 1) mas cercano al vector w = (1, 1, 1).
130
4.2.7. Sea v = (1, 2, 2, 3), si sabe que la proyeccion proyw v de v sobre un vetor w esta dada por proyw v =
(2, 2, 2, 2) y ||w|| = 2, determine el vector w.
4.2.8. Demuestre que la proyeccion proyw v es independiente del vector escogido en gen{w}. Es decir,
4.2.9. Demuestre que si Pv es la matriz que proyecta sobre un vector v Rn entonces rangoPv = 1. (Este es
un caso particular del Problema 1.2.14).
H
p = proyH v
b
Proyeccion de v sobre H
1
P = vv t = v(v t v)1 v t ,
vt v
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 131
de esta manera se ve que en realidad que (4.8) es simplemente una generalizacion de (4.7).
Ahora vamos a demostrar que la matriz definida en (4.8) determina la proyeccion sobre el subespacio H.
Para esto necesitaremos los siguientes lemas preliminares.
de donde ||Ax|| = 0, pero por las propiedades del producto escalar, esto implica que Ax = 0 y por tanto
x N ul(A).
h i
Lema 4.7. Sea A = v1 vk una matriz donde {v1 , . . . , vk } son las columnas y son linealmente indepen-
dientes entonces
1. At A es invertible.
El siguiente resultado es el caso dual del lema anterior, mas especficamente, el caso en que las filas de la
matriz son LI.
Corolario 4.8. Sea A una matriz cuyas filas son linealmente independientes, entonces se tiene que
1. AAt es invertible,
Demostracion. Como las filas de A son linealmentes entonces las columnas de At son linealmente indepen-
dientes, usando el Lema 4.7 tenemos que (At )t At = AAt es invertible y por tanto (AAt )1 existe y ademas
como AAt (AAt )1 = I, es decir, la matriz At (AAt )1 es una inversa a la derecha de A.
1 1 1
Ejemplo 4.15. Sea A = , calcular una inversa a la derecha de A.
0 1 1
Solucion: Es facil ver que las filas de A son linealmente independientes. Primero calculamos AAt y su inversa
1 0
1 1 1 3 2 1 2 2
AAt = de donde (AAt )1 =
1 1 = .
0 1 1 2 2 2 2 3
1 1
Ahora usamos los resultados obtenidos en esta seccion para construir la matriz proyeccion de un vector sobre
un subespacio dado.
h i
Teorema 4.9. Sean H un subespacio de Rn , {h1 , . . . , hk } una base para H y A = h1 hk . Si definimos
P = A(At A)1 At entonces para todo v Rn se tiene lo siguiente
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 133
1. P v H,
2. v P v H ,
3. P 2 = P ,
4. v H si y solo si P v = v,
5. v H si y solo si P v = 0.
Demostracion. Primero observese que H = Col(A) y que si x Rk , entonces Ax Col(A) = H, esto ya que
x1
..
si x = . entonces
xk
x1
h i
..
Ax = h1 hk . = x1 h1 + + xk hk Col(A) = H. (4.9)
xk
h (v P v) = Ax (v P v) = Ax v Ax P v
= (Ax)t v (Ax)t P v
= xt At v xt At P v
= xt At v xt At A(At A)1 At v
| {z }
I
t t t t
= x A v x A v = 0.
P v = P Ax = A (At A)1 At A x = Ax = v.
| {z }
I
y por tanto
P v = A(At A)1 |{z}
At v = A(At A)1 0 = 0.
=0
t 1
Supongamos que P v = 0, entonces A(A A) A v = 0, multiplicando esta ecuacion a ambos lados por At
t
obtenemos
At 0 = At A(At A)1 Av = IAt v = At v.
|{z} | {z }
=0 =I
ht
1
.
Como At = .. tenemos que 0 = hti v = hi v, para i = 1, . . . , k. Por tanto v H .
htk
Estas propiedades demuestran que P v satisface las condiciones del vector proyeccion de v sobre H.
h i
Definicion 4.8. Sean H un subespacio de Rn , {v1 , . . . , vk } una base para H, A = v1 vk y v Rn .
Definimos la proyeccion de v sobre H, denotada por proyH v, como el vector:
proyH v = P v,
Finalmente tenemos
1 2 1 0 0
1 1 1 0 1
proyH v = A(At A)1 At b = 1
1 = 6 = 2
1 ,
3 0 1 1 3
1 2 3 6 2
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 135
0
entonces proyH v = 2 .
2
1 (MatLab)
Ejemplo 4.17. 2Calcular
la1
matriz que
2proyecta
sobre el subespacio
H de R6 generado por los
11
1 1 2 1 0
vectores v1 = 11 , v2 = 3 ,
1 v3 = 21 y v4 = 21 . Si b = 11e1 = 0
0
calcular proyH b.
1 1 3 2 0
0 1 0 1 0
Solucion. La matriz de la proyeccion esta dada por P = A(At A)1 At , usamos el siguiente comando en MatLab
>> A = [1, 2, 1, 2; 1, 1, 2, 1; 1, 3, 2, 2; 1, 1, 1, 1; 1, 1, 3, 2; 0, 1, 0, 1]; P = A inv(A A) A
obtenemos que la matriz de la proyeccion esta dada por
7/11 1/11 1/11 3/11 1/11 4/11
7 1 1 3 1 4
1/11 8/11 3/11 2/11 3/11 1/11
1/11 3/11 8/11 2/11 3/11 1/11 1 11 3
8 3 2
8 2
3 1
3 1
P = proyH = 3/11 2/11 2/11 6/11 2/11 3/11
= 3 2 2 6 2 3 .
11 1 3 3 2 8 1
1/11 3/11 3/11 2/11 8/11 1/11
4 1 1 3 1 7
4/11 1/11 1/11 3/11 1/11 7/11
La proyeccion del vector b sobre H esta dado por proyH b = P b, as que en MatLab hacemos lo siguiente
>> b = [11; 0; 0; 0; 0; 0]; P b
7
1
1
y obtenemos que proyH b = 3 .
1
4
Observacion 4.3. Por el Corolario 4.3, si H es un subespacio de Rn entonces Rn = H H . Por tanto todo
vector v R se puede descomponer como una suma de un vector en H y un vector en H . Esto se logra de la
siguiente forma.
Sea v Rn y P la matriz que proyecta sobre H, entonces por el Teorema 4.9 se tiene que P v H y vP v H .
Por tanto
v = |{z}
Pv +v Pv
| {z }
H H
Problemas
136
1 1 1
4.3.1. Sea A = 1 1, b = 0 y H = ColA. Calcule la matriz que proyecta sobre H y la proyeccion de
2 4 1
b sobre H.
4.3.2. Sea V = gen{(1, 2, 0, 0), (1, 0, 1, 0)}, calcule la matriz que proyecta sobre V y el vector en V mas cercano
al vector v = (2, 1, 0, 1).
4.3.3. Sea V = gen{(1, 1, 0, 1), (0, 0, 1, 0)}, calcule la matriz que proyecta sobre V y la proyeccion del vector
v = (2, 1, 0, 1) sobre V .
"1 1 1 1# 1 1 1 1 1
1 1 1 2 1 1 0 2 1
4.3.4. Sean A = 1 2 3 4 yB= 1 1 0 3 2 . Use MatLab para calcular lo siguiente
1 0 0 0 1 1 0 4 3
0 1 1 0
4.3.6. Sea W Rn un subespacio y sean P1 , P2 las matrices que proyectan sobre W y sobre W , respectiva-
mente. Demuestre que P1 + P2 = I y que P1 P2 = 0.
4.3.9. Sea H Rn un subespacio y sea P la matriz que proyecta sobre H, demuestre que
H = {v Rn | P v = v}.
4.3.10. Sea H un subespacio vectorial de Rn y P es la matriz que proyecta sobre H. Viendo a P como aplicacion
P : Rn Rn
lineal , demuestre que P/H = IdH donde P/H : H H es la restriccion de P a H.
v 7 P v
Demuestre tambien que P/H 0.
w + H = {w + h | h H}.
Definicion 4.9. Sea A una matriz cuyas columnas son linealmente independientes y b Rn , si el sistema
Ax = b es inconsistente entonces la solucion de los mnimos cuadrados al sistema esta dada por
1 t
x = At A A b.
Esta solucion al sistema Ax = b es la mejor en el sentido que este se reemplaza por el sistema Ax = b donde
b = proyColA b es el vector mas cercano a b para el cual el sistema Ax = b si tiene solucion.
2 1 1
Ejemplo 4.19. Considere el sistema Ax = b donde A = 1 1 y b = 2. Se verifica facilmente que el
1 1 0
sistema es inconsistente (usar el Teorema 1.2). Como las columnas de A son LI, se puede usar el metodo de
1
los mnimos cuadrados para calcular la mejor solucion. Esta esta dada por x = (At A) At b, y la calculamos
a continuacion.
138
2 1
2 1 1 6 2 1
3 2
At A = de donde (At A)1 =
1 1 = entonces la mejor solucion esta da-
14
1 1 1 2 3 2 6
1 1
da por
1
1 t 1 3 2 2 1 1 1 6
x = At A
Ab= 2 = .
14 2 6 1 1 1 14 18
0
Otra aplicacion de los mnimos cuadrados es la de ajustar datos encontrados en observaciones, que se esperan
se ajusten a una linea pero sin embargo los puntos obtenidos experimentalmente no son colineales. Supongamos
que los valores observados son (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) y supongamos que los datos deben satisfacer la
ecuacion y = mx + b, esto es,
y1 = mx1 + b
y2 = mx2 + b
..
.
yn = mxn + b
y1 x1 1
.. m
. .
Esto lo podemos escribir matricialmente en la forma .. = .. . , como los puntos (x1 , y1 ), . . . , (xn , yn )
b
yn xn 1
no todos satisfacen la ecuacion y = mx + b, el sistema es inconsistente. Usando la solucion de los mnimos cua-
drados obtenemos que la mejor solucion al sistema esta dado por
1 t
x = At A A y,
x1 1 y1
.. .. ..
donde A = . . y y = . .
xn 1 yn
Ejemplo 4.20. Supongamos que los valores observados son (2, 0), (1, 0) y (2, 3), es facil ver que estos valores
no pertecen son colineales. Los valores m y b de la linea y = mx
+ b que mejor
se ajusta a los datos estan dados
2 1 0
m 1
en el vector x = donde x = (At A) At y con A = 1 1 y y = 0.
b
2 1 3
2 1
2 1 2 9 1 3 1
Notese que At A =
1 1 = , entonces se tiene que (At A)1 = 1 , y por
26
1 1 1 1 3 1 9
2 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 139
tanto
0
1 3 1 2 1 2 1 15 15
x = (At A)1 At y =
0 = = 26 .
26 1 9 1 1 1 26 21 21
26
3
15 21
De aqu tenemos que m = 26 y b= 26 y por tanto la ecuacion de la linea que mejor se ajusta a los datos es
15 21
y= 26 x + 26 .
Los mnimos cuadrados tambien se pueden usar para calcular ecuaciones polinomicas de cualquier grado (en
general cualquier funcion) que mejor se ajusten a ciertos datos, generalizando el ejemplo anterior que se hizo
para lineas. Esto lo ilustramos a contiuacion.
Ejemplo 4.21. (MatLab) Un experimeto arrojo los puntos (1, 2), (1, 0), (3, 1) y (2, 1), si se espera que
estos puntos esten sobre una parabola y = ax2 + bx + c, calcule la ecuacion de la parabola que mejor se ajuste
a los datos.
Solucion. Como se espera que los puntos satisfagan la ecuacion y = ax2 + bx + c, evaluando esta en los puntos
obtenemos
2=ab+c
0=a+b+c
1 = 9a + 3b + c
1 = 4a + 2b + c
1 1 1 2
a
1 1 1 0
Estas ecuaciones son equivalentes al sistema
b = , el cual es inconsistente (ver Teorema
9 3 1 1
c
4 2 1 1
1.2), por tanto, usando MatLab para calcular la solucion de losmnimos cuadrados
para
obtener los coeficientes
1 1 1 2
1 1 1 0
a, b y c, los cuales estan dados por x = (At A)1 At v con A =
y v = , obtenemos
9 3 1 1
4 2 1 1
>> A = [1,1, 1; 1, 1, 1; 9,
3, 1; 4, 2, 1]; v = [2; 0; 1; 1]; x = inv(A A) A v
21/44
as x = 283/220 . De este resultado obtenemos que la ecuacion que mejor se ajusta a los datos es
7/22
21 2 283 7
y= x x+ 220y = 105x2 283x + 70.
44 220 22
El siguiente ejemplo muestra como este metodo se puede usar en problemas del da a da.
140
Ejemplo 4.22. La demanda d de un artculo en venta depende del precio p del mismo. En un concesionario
de motocicletas se observo lo siguiente:
Si el precio por unidad es $3 millones se venden 5 motos en un da. Si el precio se incrementa a $3.5 millones
se venden 4 motos en da y cuando el precio se incrementa a $4 millones, se venden solo 2 motos en el da.
Asumiendo que la relacion entre precio y demanda es lineal, d = pm + b, determine la ecuacion que mejor
se ajusta a estos datos. Determine cuantas motos se venderan en un da si se fija el precio en $2.7 millones.
Solucion. De acuerdo a los datos tenemos el sistema
5 = 3m + b
4 = 3,5m + b
2 = 4m + b
El siguiente ejemplo muestra que, incluso en algunos casos, se puede hasta encontrar curvas no polinomicas
que se ajusten a un sistema de datos.
Ejemplo 4.23. Encuentre la curva exponencial y = aecx que mejor se ajuste a los puntos (1, 1), (2, 8) y (3, 8).
Solucion. La curva la podemos linearizar aplicando logaritmo a ambos lados
ln y = ln(becx ) = ln b + cx |{z}
ln e = ln b + cx.
=1
Este sistema
es inconsistente yla solucion
de
los mnimos cuadrados esta dada por x = (At A)1 At v donde
1 1 0 0
ln b 4/3 1/3 2/3
A = 1 2, x = y v = ln 8 = ln 2 3. Notese que (At A)1 At =
, por tanto
c 1/2 0 1/2
1 3 ln 8 3
0
4/3 1/3 2/3 1 ln 2 ln(1/2)
x = ln 2
3 = ln 2 = = .
3 ln 2
1/2 0 1/2 3/2 2 1,04
3
Se sigue que ln b = ln(1/2), lo que implica que b = 1/2, y c 1,04. Concluimos que la ecuacion de la mejor
curva esta dada por
1 1,04x
y= e .
2
Problemas
Ejemplo 4.24. Use mnimos cuadrados para calcular la mejor solucion al sistema
1 0 1
3x = 10
a. b. Ax = v si A = 0 1 y v = 1 .
4x = 5
1 1 0
4.4.1. Determine la ecuacion que mejor se ajusta a los puntos (1, 1), (2, 4), (3, 8) y (4, 8) si la relacion es
1. lineal (y = mx + b),
3. exponencial (y = aebx ).
4.4.2. Si en el Ejemplo 4.22 se sabe ademas que por el precio de $4.5 millones no se logro ninguna venta,
determine
2. la ecuacion cuadratica d = ap2 + bp + c que mejor se ajusta a los datos y en este caso determine la maxima
demanda posible.
4.4.3. En una plaza de mercado se ha observado que la demanda de naranja se comporta de acuerdo a la
siguiente tabla
donde el precio esta dado en pesos y la demanda en toneladas. Use MatLab para determinar la ecuacion que
mejor se ajusta a los datos si la relacion entre las variables es
142
1. lineal ( d = mp + b).
4. Exponencial (d = aebp ).
4.4.4. La poblacion P de un pequeno poblado se esta reduciendo de forma exponencial P = aebt , la tabla de
poblacion es como sigue:
1. decimos que {v1 , . . . , vk } es un conjunto ortogonal si los vectores v1 , . . . , vk son ortogonales entre s, es decir,
si vi vj = 0 para 1 i 6= j k,
2. decimos que {v1 , . . . , vk } es una conjunto ortonormal, si es un conjunto ortogonal y ||vi || = 1 para i =
1, . . . , k,
3. si {v1 , . . . , vk } es una base de Rn y si es un conjunto ortogonal (ortonormal), decimos que {v1 , . . . , vk } es una
base ortogonal (ortonormal) de Rn .
1 1 0
Ejemplo 4.25. El conjunto {v1 , v2 , v3 } donde v1 = 1 , v2 = 1 y v3 = 0 es un conjunto ortogonal de
0 0 1
1 1 0
R3 y los vectores w1 = 12 1 , w2 = 12 1 y w3 = 0 forman una conjunto ortonormal de R3 .
0 0 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 143
Observacion 4.4. Si {v1 , . . . , vk } es un conjunto ortogonal, a partir de este podemos formar un conjunto
1
ortonormal. Basta con definir wi = ||vi || vi , para i = 1, . . . , k, de lo cual se sigue que el conjunto {w1 , . . . , wk }
es un conjunto ortonormal. Al vector wi se le llama la normaliazcion del vector vi , esto hace referencia al
hecho que wi es un vector normal o unitario (de norma 1) en la misma lnea que contiene a vi y con la misma
direccion.
1
Esto ya que para i 6= j se tiene que wi wj = ||vi || vi ||v1j || vj = 1
||vi || ||vj || vi vj .
| {z }
=0
1
Ademas wi wi = ||vi || vi ||v1j || vj = 1
||vi ||2 vi vi = 1.
| {z }
=||vi ||2
De hecho, el conjunto ortonormal {w1 , w2 , w3 } del ejemplo anterior se construyo a partir del conjunto orto-
gonal {v1 , v2 , v3 } normalizando cada uno de estos vectores.
En realidad se puede verificar que los conjuntos {v1 , v2 , v3 } y w1 , w2 , w3 } son bases para R3 . Esto no es
casualidad, en general se demuestra que un conjunto orrtogonal es LI.
1 v1 + + k vk = 0. (4.10)
0 = vi 0 = vi (1 v1 + + k vk )
= 1 v i v 1 + + i v i v i + + k v i v k = i v i v i
| {z } | {z } | {z }
=0 6=0 =0
Se sigue que i vi vi 6= 0 y como vi vi 6= 0 se debe dar que i = 0 y esto para i = 1, . . . , n. Por tanto los
vectores v1 , . . . , vk son LI.
De este lema se sigue que si {v1 , . . . , vk } es un conjunto ortogonal (ortonormal), este forma una base del
espacio H = gen{v1 , . . . , vk }.
A continuacion definimos la nocion de matriz ortogonal, este sera util en lo que sigue de la seccion.
h i
Definicion 4.11. Decimos que una matriz A = v1 vk es una matriz ortogonal, si vi vj = ij para
i, j {1, . . . , k. Es decir, las columnas de A forman un conjunto ortonormal.
1 1 0
2 2
1
Ejemplo 4.26. La matriz A = 1 0 es una matriz ortogonal ya que el conjunto de columnas de esta
2 2
0 0 1
1 1 0
2 2
1 1
matriz, , , 0 , es un conjunto ortonormal, lo cual se demostro en el Ejemplo4.25.
2 2
0 0 1
144
Lema 4.11. (Propiedad de las matrices ortogonales) Sea A Mmn (R), entonces A es una matriz orto-
gonal si y solo si At A = I.
Por tanto si A es una matriz cuadrada entonces A es invertible y A1 = At . Si A no es cuadrada entonces At
es una inversa a la izquierdaA.
h i
Demostracion. Si A = v1 vk es una matriz ortogonal, entonces
v1t v1 v1t v2 v1t vk
vt
1 h i t
v2 v1 v2t v2 v2t vk
.
At A = .. v1 vk =
.. .. .. ..
(4.11)
. . . .
vkt
vkt v1 vkt v2 vkt vk
v1 v1 v1 v2 v1 vk
| {z } | {z } | {z }
1 0 0
=1 =0 =0
v2 v1 v2 v2 v2 vk
| {z } | {z }
| {z } 0 1 0
= =0 =1 =0 =
. . .. .. = I.
.. ..
.
.. .. .. .. . .
. . .
0 0 1
v v v v vk vk
| k{z }1 | k{z }2 | {z }
=0 =0 =1
Si At A = I se sigue de la Ecuacion 4.11 que las columnas de A forman un conjunto ortonormal y por
definicion A es ortogonal.
Si A es una matriz cuadrada, por el Corolario 1.22, A es invertible y A1 = At . La otra afirmacion es
inmediata.
Las bases ortogonales (ortonormales) tiene ventajas importantes, estas se reflejan cuando se quiere calcular
la proyeccion de un vector sobre un subespacio. El siguiente teorema provee una formula para determinar la
proyeccion sin usar la matriz de la proyeccion. La formula se obtiene a partir de una base ortogonal u ortonormal.
Teorema 4.12. Sea {v1 . . . , vk } una base ortonormal para un subespacio vectorial H de Rn y sea b Rn ,
entonces
proyH b = (v1 b)v1 + + (vk b)vk .
v1 b vk b
Si la base {v1 . . . , vk } es ortogonal entonces proyH b = v1 v1 v1 + + vk vk vk .
h i
Demostracion. Sea A = v1 vk , entonces proyH b = A(At A)1 At b. Como A es una matriz ortogonal
por el Teorema 4.11 se tiene que At A = I, por tanto
vt
h i 1
.
proyH b = A (At A)1 At b = AAt b = v1 vk .. b
| {z }
=I
vkt
v1t b
h i
. t t
= v1 vk .. = (v1 b)v1 + + (vk b)vk
vkt b
Si la base {v1 , , vk } es ortogonal, entonces por la Observacion 4.4, tenemos que el conjunto {w1 , . . . , wk }
1
es una base ortonormal de H donde wi = ||vi || vi , con i = 1, . . . , k. Entonces para i = 1, . . . , k tenemos que
(wi b)wi = ||v1i || vi b ||v1i || vi = ||vviib||2 vi = vi b
vi vi vi , por tanto
v1 b vk b
proyH b = (w1 b)w1 + + (wk b)wk = v1 + + vk .
v1 v1 vk vk
1
1 1
Ejemplo 4.28. Sea b = 1 y H = gen v1 = 1 , v2 1 . Es facil ver que {v1 , v2 } es una base ortogonal
3 0 2
de H, entonces por el teorema anterior tenemos que
0
v1 b v2 b 2 6
proyH b = v1 + v 2 = v 1 + v 2 = v 1 + v 2 = 2 .
v1 v1 v2 v2 2 6
2
De hecho el este subespacio es el mismo del Ejemplo 4.16 y obtenemos, como debe ser, la misma respuesta.
Simplemente en este caso tenemos una base ortogonal de H, lo cual nos permite usar el teorema anterior sin
tener que calcular la matriz de la proyeccion y la cantidad de calculos se reduce.
146
0
Para ver que los subespacios de este ejemplo y el ejemplo en mencion coinciden, notese que si w = 1
1
entonces
1/2 1/2 0
v1 w v2 w 1 3
proyH w = v1 + v2 = v1 + v2 = v1 + v2 = 1/2 + 1/2 = 1 = w.
v1 v1 v2 v2 2 6
0 1 1
Se tiene que w = proyH w y por tanto w H. Es decir, tanto {v1 , v2 } como {v1 , w} son bases de H.
El siguiente corolario tambien muestra la importancia de tener una base ortonormal, porque provee una
formula para escribir un vector en un subespacio como combinacion lineal de una base ortonormal sin tener que
hacer reduccion Gauss-Jordan.
Corolario 4.13. Sea H Rn un subespacio con base ortonormal {v1 . . . , vk }. Entonces para todo b H se
tiene que
b = (b v1 )v1 + + (b vk )vk .
bv1 bvk
Mas aun, si {v1 . . . , vk } una base ortogonal de H, entonces b = v1 v1 v1 + + vk vk vk .
Demostracion. Si b H por el Teorema 4.9 tenemos que proyH b = b, por tanto el resultado se sigue aplicando
el teorema anterior.
1
1 0
Ejemplo 4.29. De acuerdo al Ejemplo 4.25 Los vectores v1 = 1 , v2 = 1 y v3 = 0 forman una base
0 0 1
1
3
ortogonal para R . Usando el teorema anterior podemos escribir el vector b = 1 de la siguiente forma:
1
b v1 b v2 b v3 0 2 1
b= v1 + v2 + v3 = v1 + v2 + v3 = v2 + v3 .
v1 v1 v2 v2 v3 v3 2 2 1
1
2
0 1
2
Ejemplo 4.30. De acuerdo al Ejemplo 4.25 Los vectores w1 = 1 , w2 = 1 y w3 = 0 forman una
2 2
0 0 1
1
3
base ortonormal para R . Usando el teorema anterior podemos escribir el vector b = 1 de la siguiente forma:
1
2
b = (b w1 )w1 + (b w2 )w2 + (b w3 )w3 = 0w1 + w2 + w3 = 2w2 + w3 .
2
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 147
1
1
2 2
Ejemplo 4.31. El conjunto v1 = 1 , v2 = 1 es una base ortonormal para el plano xy (o z = 0)
2 2
0 0
1
entonces usando el teorema anterior para calcular proyH b con H = plano xy y b = 2 obtenemos:
1
1
3 1
proyH b = (b v1 )v1 + (b v2 )v2 = v1 + v2 = 2 .
2 2
0
El Teorema 4.12 y el Corolario 4.13 muestran la importancia de tener una base ortogonal u ortonormal
para un subespacio, sin embargo hasta ahora no sabemos como se puede calcular tal base. El siguiente teorema
muestra como, a partir de una base arbitraria de un subespacio de Rn , podemos construir una base ortogonal.
Teorema 4.14. (El proceso Gramm-Schmidt) Sea H Rn un subespacio y sea {v1 , . . . , vk } una base de
H si hacemos
w1 = v 1 , W1 = gen{w1 }
w2 = v2 proyW1 v2 W2 = gen{w1 , w2 }
w3 = v3 proyW2 v3 W3 = gen{w1 , w2 , w3 }
.. ..
. .
wk1 = vk1 proyWk2 vk1 Wn1 = gen{w1 , . . . , wn1 }
wk = vn proyWk1 vk
Continuando por induccion supongamos que w1 , . . . , wi1 H. Como el conjunto {w1 , . . . , wi1 } es una base
ortogonal de Wi1 , entonces por el Teorema 4.12 tenemos que
v i w1 vi wi1
proyWi1 vi = w1 wi1 (4.12)
w1 w1 wi1 wi1
por tanto
v i w1 vi wi1
wi = vi proyWi1 vi = vi w1 wi1 H.
w1 w1 wi1 wi1
Concluimos que w1 , . . . , wk H y por tanto el conjunto {w1 , . . . , wk } es una base ortogonal para H.
De la Observacion 4.4 se sigue que el conjunto {q1 , . . . , qk } es una base ortonormal.
Observacion 4.5. Si {v1 , . . . , vk } es una base para un subespacio H de Rn , entonces por la Ecuacion (4.12),
los vectores w1 , . . . , wk de la base ortogonal del proceso Gramm-Schmidt estan dados por
w1 = v 1 ,
v2 w1
w2 = v 2 w1 w1 w1
v2 w1 v2 w2
w3 = v 3 w1 w1 w1 w2 w2 w2
.. (4.13)
.
vk1 w1 vk1 wk1
wk1 = vk1 w1 w1 w1 wk1 wk1 wk1
vk w1 vk wk
wk = v k w1 w1 w1 wk wk wk
1 0 1
Ejemplo 4.32. Sean v1 = 1 , v2 = 1 y v3 = 0 y H = gen{v1 , v2 , v3 }. Calcule lo siguiente
0 1 0
0 0 1
Solucion.
1. Usaremos las ecuaciones dadas en (4.13) para calcular los vectores w1 , w2 y w3 y despues los normalizamos.
" #
1/2
w1 v2
En primer lugar se tiene que w1 = v1 , el vector w2 esta dado por w2 = v2 w1 w1 w1 = v2 21 v1 = 1/2 y
1
" 1/3 # 0
w1 v3 w2 v3 (1/2)
finalmente w3 = v3 w1 w1 w1 w2 w2 w2 = v3 21 w1 3/2 w2 = v3 21 w1 + 13 w2 = 1/3
1/3
.
1
Se verifica facilmente que los vectores w1 , w2 y w3 son ortogonales. Para la base ortonormal, con el fin de agilizar
calculos, se puede trabajar con multiplos de los vectores
1 w 1 , w2 y w3 de tal
forma
que no hayan denominadores.
1
1 1
Para este efecto tomamamos u1 = w1 , u2 = 2w2 = 2 y u3 = 3w3 = 1 .
0 3
Finalmente se tiene que los vectores
1 1
1 1 1 1 1 1 1 1
q1 = u1 = 10 , q2 = u2 = 1
2 y q3 = u3 = 1
||u1 || 2 0 ||u2 || 6 0 ||u2 || 12 3
4 4 4
v = (q1 v)q1 + (q2 v)q2 + (q3 v)q3 = q1 + q2 q3 .
2 6 12
La ultima igualdad se obtiene racionalizando el denominador.
En terminos de la base ortogormal
u1 v u2 v u3 v 2 1
v= u1 + u2 + u3 = 2u1 + u2 u3 .
u1 u1 u2 u2 u3 u3 3 3
u1 v u2 v u3 v 1 1
v= u1 + u2 + u3 = u1 + u2 + u3 .
u1 u1 u2 u2 u3 u3 3 3
O
proyv1 v2 v 1 = w1
w2
v2
W2
proyW2 v3 b
v1 = w1
O
150
Problemas
4.5.1. Verifique que las matrices son ortogonales y que su correspondiente transpuesta es una inversa a la
izquierda
1/ 3 1/ 6 1/ 2
1/2 1/ 6
A = 1/2 1/ 6
B = 1/ 3 1/ 6 1/ 2 .
1/2 2/ 6
1/2 0
1/ 3 2/ 6 0
4.5.2. Sean w1 = (1, 1, 2), w2 = (2, 0, 1) y w3 = (1, 5, 2), H = gen{w1 , w2 } y v = (1, 1, 1), haga lo siguiente
4.5.3. Sea {w1 , . . . , wn } una base ortogonal de Rn y H = gen{w1 , . . . , wk }, muestre que H = gen{wk+1 , . . . , wn }.
Demuestre tambien que si v = 1 w1 + + n wn entonces proyH v = 1 w1 + + k wk .
4.5.4. Aplique el procedo de Gramm-Scdmidt para calcular una base ortonormal del subespacio generado por los
vectores v1 , v2 y v3 si
0 0 1 1 1 0
a. v1 = 1 , v2 = 1 , v3 = 1 . b. v1 = 1 , v2 = 0 , v3 = 1 .
0 1 1 0 1 1
1 0 0
1 1 0
c. v1 =
, v2 = , v3 = .
0 1 1
0 0 1
4.5.5. Calcule una base ortogonal y una base ortonormal para cada uno de los espacios en los problemas 4.3.1,
4.3.2, 4.3.3 y 4.3.4. En cada caso calcule la proyeccion del vector indicado en cada problema sobre el respectivo
subespacio en terminos de la base ortogonal y en terminos de la base ortonormal.
4.5.6. Encuentre los valores de y tal al aplicar el proceso de Gramm-Schmidt a los vectores v1 , v2 y v3 se
obtengan los vectores w1 , w2 y w3 , donde
1 1 1 0 1
v1 = 1 , v2 = 1 , v3 = 1 , w1 = 1 , w2 = 0 y w3 = 1 .
0 0 0 1 0
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 151
4.5.7. Determine los vectores v1 , v2 y v3 tal que al aplicar el proceso Gramm-Schmidt se obtienen los vectores
w1 = (1, 1, 1, 1), w2 = (1, 1, 1, 1) y w3 = (1, 1, 1, 1) si se sabe ademas que v2 w1 = 2, v3 w1 = 8 y
v3 w2 = 2.
4.5.8. Determine todos los posibles vectores v1 y v2 talque al aplicar el proceso Gramm-Schmidt y normalizar
el resultado sean los vectores q1 = (1/2, 1/2, 1/2, 1/2) y q2 = (1/2, 1/2, 1/2, 1/2).
4.5.9. Determine las columnas faltantes de tal forma que cada una de las siguientes matrices sean ortogonales.
1/2 1/2
1/2 1/ 6
1/ 3 1/ 6
1/2 1/2
1/2 1/ 6
a. A = 1/ 3 1/ 6 3 q b. B =
q 3 q
4 c. C = q
1/2 1/2 3 4 5 q q
1/2 2/ 6
1/ 3 2/ 6 1/2 1/2
1/2 0
0 0
Ayuda: En cada caso los vectores qi , i = 3, 4, 5, pertenecen al complemento ortogonal del espacio generado por
las dos primeras columnas de la matriz.
h i
4.5.10. Sea A = [v1 vn ] Mn (R), donde v1 , . . . , vn son las columnas de A, y sea B = 1 1 .
v1 v1 v1 vn vn vn
t
Demuestre que si {v1 , . . . , vn } es un conjunto ortogonal entoncesB es la inversa
de A.
1 1 1
Use lo anterior para determinar la inversa de la matriz A = 1 1 1 .
1 2 0
4.5.11. Si A es de tamno m n con columnas ortonormales, demuestre que P = AAt es una matriz proyeccion,
es decir, P 2 = P .
4.5.13. Una isometra de Rn es un isomorfismo T : Rn Rn tal que T (v)T (w) = v w, para todo v, w Rn .
Muestre que T es una isometra si y solo si la matriz E TE de T es una matriz ortogonal.
4. T enva bases ortonormales en bases ortonormales, es decir, {v1 , . . . , vn } es una base ortonormal de Rn si y
solo si {T (v1 ), . . . , T (vn )} es una base ortonormal de Rn .
152
4.5.15. Sean A, B Mn (R) matrices ortogonales, muestre que AB y A1 son ortogonales. (Esto muestra que
el conjunto de matrices ortogonales es un subgrupo del grupo de matrices invertibles, este subgrupo es conocido
como el grupo ortogonal, denotado
por On (R).)
cos sen cos sin
Demuestre que O2 (R) = 0 2
0 2 .
sin cos sin cos
Estas dos componentes de On (R) consisten de rotaciones en direccion antihoraria del plano y rotaciones en
direccion de las manecillas del reloj del plano. El grupo On (R) tambien se puede ver como el conjunto formado
por composiciones de rotaciones antihorarias y reflecciones con respecto a una lnea por el origen. Los geometras
se refieren a este grupo como el grupo de movimientos rgidos del plano que preservan el origen.
Recordemos que en la demostracion del Teorema 4.14 vimos que gen{v1 , . . . , vi1 } = gen{w1 , . . . , wi1 } =
gen{q1 , . . . , qi1 }, para i = 2, . . . , k, y como qi es ortogonal a gen{q1 , . . . , qi1 }, por ser ortonormal a q1 , . . . , qi1
entonces qi v1 = 0, . . . , qi vi1 = 0. Como esto es para todo i = 1, . . . , k obtenemos que qi vj = 0 para i > j.
Reemplazando esto en la Ecuacion (4.14) obtenemos
v1 = (q1 v1 )q1
q1 v 1 q1 v 2 q1 v 3 q1 v k
0 q2 v 2 q2 v 3 q2 v k
h i h i
v1 v k = q1 qk 0 0 q3 v 3 q3 v k
.. .. .. .. ..
. . . . .
0 0 0 qk v k
q1 v 1 q1 v 2 q1 v 3 q1 v k
0 q2 v 2 q2 v 3 q2 v k
h i
Si hacemos Q = q1 qk y R = 0 0 q3 v 3 q3 vk obtenemos A = QR.
.. .. .. .. ..
. . . . .
0 0 0 qk v k
De este Teorema se desprende el siguiente procedimiento para calcular la factorizacion QR de una matriz.
h i
Procedimiento 4.2. (Procedimiento para calcular las matrices Q y R) Sea A = v1 vk una
matriz cuyas columnas v1 , . . . , vk son linealmente independientes. Calculamos su factorizacion QR con los si-
guientes pasos:
1. Aplicamos el proceso Gramm-Schmidt y la Observacion 4.5 a los vectores v1 , . . . , vk para obtener los vectores
ortogonales w1 , . . . , wk .
h i
2. Se normalizan los vectores w1 , . . . , wk para obtener vectores ortonormales q1 , . . . , qk y hacemos Q = q1 qk .
1 16 1
2 12
1 1 1
1. En el Ejemplo 4.32 usamos el proceso Gramm-Schdmit y obtuvimos q1 = , q2 =
2
6 y q3 = 12 ,
0 2 1
6 12
0 0 3
12
1
16 1
2 12
1 1
112
por tanto Q =
2 6 .
0 2 1
6 12
0 0 3
12
q1 v 1 = 2 q1 v 2 = 1 1
q1 v 3 =
2 2 2
q2 v 2 = 3 1
q2 v 3 =
6 6
q3 v3 = 412 .
2
1
1
2 2 2
Por tanto R = 0 3
1
.
6 6
0 0 4
12
1
16 1
2 12 2 1 1
2 2 2
1 1
112
3. De esta manera obtenemos que A =
2 6 0
3 1
.
6
0 2 1 6
6 12
0 0 4
0 0 1
12
12
En la Seccion 5.6 del proximo captulo veremos una interpretacion geometrica de esta descomposicion.
Problemas
4.6.3. Determine la factorizacion QR de una matriz A = [v1 v2 v3 ] si sabe que al aplicar el proceso Gramm-
Schmidt a los vectores v1 , v2 y v3 se obtienen los vectores w1 = (1, 1, 1, 1), w2 = (1, 1, 1, 1) y w3 =
(1, 1, 1, 1) y se sabe ademas que v2 w1 = 2, v3 w1 = 8 y v3 w2 = 2.
1/2 1/2
1/2 1/2
4.6.4. Determine todas las matrices A tal que Q =
. Determine tambien las posibles R. (Este
1/2 1/2
1/2 1/2
problema esta relacionado con el Problema 4.5.8)
156
Captulo 5
Determinantes
La nocion de determinante es muy importante en matematicas, a partir de este se puede definir volumen
de n-ppedos, los cual exhibimos en la ultima seccion de este captulo. En textos de algebra multilineal se de-
muestra que el determinante, visto como funcion de (Rn )n en Rn , es la unica n-forma n-lineal alternada tal
que det(e1 , . . . , en ) = 1, lo que permite usarla como forma volumen bien definida en Rn . En este captulo, al
no usar las herramientas del algebra multilineal, usamos los cofactores para definir el determinante. A partir de
esta definicion y usando matrices elementales demostramos las propiedades de linealidad del determinante en
cada fila y cada columna, al igual que su propiedad de alternabilidad. En la Seccion 5.3 demostramos la regla
del producto y el determinante de la matriz inversa. Despues se introduce la matriz adjunta y una formula para
la inversa de una matriz a partir de esta. Tambien se demuestra la regla de Cramer y terminamos el captulo
dando la interpretacion geometrica del determinante usandolo para calcular volumenes.
Definicion 5.1. Sea A una matriz de tamano m n, para cada par (i, j) con 1 i m y 1 j n, definimos
el ij-esimo menor de A, al cual denotaremos por Aij , como la matriz obtenida de A al eliminar su i-esima
fila y su j-esima columna.
1 1 0 2
1 1 0
Ejemplo 5.1. Sea A = 1 1 1 0 el 24-esimo menor de A es la matriz A24 = y el 12-esimo
0 2 3
0 2 3 0
1 1 0
menor es la matriz A12 = .
0 3 0
157
158
a11 a1n
. .. ..
Definicion 5.2. (Determinante) Sea A = .. . . una matriz de tamano n n. Definimos el
an1 ann
determinante de A, el cual denotaremos por det(A), recursivamente como sigue:
Si n = 2 entonces det(A) = a11 a22 a12 a21 .
Para n 3,
n
X
det(A) = (1)1+i a1i det (A1i )
i=1
= a11 det (A11 ) a12 det (A12 ) + + (1)1+n a1n det (A1n ) .
2 1 0
Ejemplo 5.2. Sea A = 0 1 0 de acuerdo a esta definicion el determinante de A esta dado por:
1 1 1
3
X
det(A) = (1)1+i a1i det (A1i )
i=1
= 2(1 1 0 1) + (0 1 0 1) + 0(0 1 1 1)
=2
Definicion 5.3. Sea A una matriz n n, para cada par (i, j) con 1 i m y 1 j n, el ij-esimo cofactor
de A, denotado por Cij , se define como
Cij = (1)i+j det Aij ,
Observacion 5.1. Con esta definicion podemos reescribir la formula de del determinante como sigue:
n
X
det(A) = a1i C1i = a11 C11 + a12 C12 + a1n C1n .
i=1
A esta formula se le conoce como la expansion por cofactores de A a lo largo de la primera fila.
1 1 0
Ejemplo 5.3. Sea A = 0 1 1, calcular C11 , C12 y C13 y calcular el determinante de A.
1 2 1
1 1
Solucion: C11 = (1)1+1 det A11 = (1)2 det = 1 1 1 2 = 1,
2 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 159
0 1
C12 = (1)1+2 det A12 = (1)3 det = 1 (0 1 1 (1)) = 1,
1 1
0 1
C13 = (1)1+3 det A13 = (1)4 det = 0 2 1 (1) = 1 y as
1 2
det(A) = a11 C11 + a12 C12 + a13 C13 = 1 (1) + 1 (1) + 0 1 = 0.
Es decir, el determinante de una matriz triangular inferior es el producto de las entradas en la diagonal. En
particular, el determinante de una matriz diagonal es el producto de las entradas en la diagonal.
det(A) = a11 C11 + a12 C12 + + a1n C1n = a11 C11 . (5.1)
|{z} |{z}
=0 =0
En la Observacion 5.1 se dijo que el determinante se obtiene por expansion por coeficientes a lo largo de la
primera fila. Esto porque en la formula se usan los coeficientes en esa fila. El siguiente teorema muestra que
para calcular el determinante de una matriz podemos usar coeficientes en cualquier fila o cualquier columna con
sus correspondientes menores.
160
a11 a1n
.. .. ..
Teorema 5.3. Sea A = . . . entonces el determinante de A se puede calcular usando la expansion
an1 ann
por cofactores en cualquier fila o cualquier columna, es decir, para 1 i, j n tenemos que:
n
X
det(A) = ai1 Ci1 + ai2 Ci2 + + ain Cin = aik Cik o (5.3)
| {z }
Expansion por cofactores en la fila i k=1
Xn
det(A) = a1j C1j + a2j C2j + + anj Cnj = ahj Chj . (5.4)
| {z } h=1
Expansion por cofactores en la columna j
Expansion por cofactores en la segunda fila = a21 a12 + a22 a11 = det(A).
Ahora supongamos que el teorema se cumple para cualquier matriz de tamano (n 1) (n 1) y mostremos
que det(A) = Expansion por cofactores en la fila i.
Por definicion tenemos que
n
X
det(A) = (1)1+j a1j det(A1j ). (5.5)
j=1
Ahora, como la matriz A1j es de tamano (n 1) (n 1), entonces por la hipotesis de induccion tenemos que
su determinante se puede calcular por expansion por cofactores en la fila i, por tanto
det(A1j ) = (1)i+1 ai1 det((A1j )i1 ) + + (1)i+n ain det((A1j )in ) (5.6)
n
X
= (1)i+k aik det((A1j )ik ).
k=1
Se demostrara que la expansion por cofactores en la fila i coincide con esta formula.
Notese que como Cik = (1)i+k det(Aik ), entonces tenemos que:
n
X n
X
Expansion por cofactores en la fila i = aik Cik = (1)i+k aik det(Aik ). (5.8)
k=1 k=1
Finalmente notese que (A1j )ik = (Aik )1j ya que ambas se obtienen al eliminar las filas 1 e i y las columnas j y
k de A. Entonces las Ecuaciones (5.7) y (5.10) son iguales, por tanto
Similarmente se demuestra que el determinante se puede calcular por expansion en cualquier columna.
1 0 1
Ejemplo 5.4. Calcular el determinante de A = 2 0 1 usando expansion por cofactores en la tercera
0 1 0
fila y segunda columna.
Solucion: Usando expansion por cofactores en la tercera fila tenemos:
det(A) = (1)3+1 a31 det(A31 ) + (1)3+2 a32 det(A32 ) + (1)3+3 a33 det(A33 )
0 1 1 1 1 0
= 0 det 1 det + 0 det
0 1 2 1 2 0
= 1(1 + 2) = 1.
det(A) = (1)1+2 a12 det(A12 ) + (1)2+2 a22 det(A22 ) + (1)3+2 a32 det(A32 )
2 1 1 1 1 1
= 0 det + 0 det 1 det
0 0 0 0 2 1
= 1(1 + 2) = 1.
A continuacion presentamos dos propiedades importantes del determinante cuyas demostraciones son inme-
diatas del teorema anterior.
Corolario 5.4. Sea A una matriz de tamano n n, si A tiene una fila o una columna de ceros, entonces
det(A) = 0.
Demostracion. Supongamos que la i-esima fila de A es nula, esto es, para 1 j n se tiene que aij = 0,
entonces:
n
X
det(A) = Expansion por cofactores en la fila i = aij Cij = 0.
j=1
|{z}
=0
En el caso en que haya una columna de ceros se hace una demostracion similar usando expansion por la columna
de ceros.
162
Demostracion. Sea B = At , entonces bij = aji y Bij = Atij = Aji , donde Aij y Bij son los ij-esimos menores
de A y de B respectivamente, entonces:
n
X
det(At ) = det(B) = Expansion por cofactores en la columna 1 = bk1 (1)k+1 det(Bk1 )
k=1
n
X
= a1k (1)k+1 det(A1k ) = det(A).
k=1
a11 a12 a1n
0 a22 a21
Corolario 5.6. Sea A =
.. .. .. .. una matriz triangular superior, entonces
. . . .
0 0 a11
Terminamos la seccion con la siguiente propiedad del determinante que sera util en el Captulo 6.
B C
Teorema 5.7. Sea A Mn (F) una matriz tal que A = con B Mp (F) y D Mnp (F) entonces
0 D
det A = a11 C11 + a21 C21 + + an1 Cn1 = a11 det A11 = det B det D.
|{z} |{z} |{z}
=0 =0 =D
det A = a11 C11 + + ap1 Cp1 + ap+1,1 Cp+1,1 + + an1 Cn1 = a11 det A11 + + (1)p+1 ap1 det Ap1
| {z } |{z}
=0 =0
a22 a2p a12 a1p
.. .. .. .. .. ..
. . . C1 . . . Cp
= a11 det + + (1)1+p ap1 det
ap2 app ap1,2 ap1,p
0 D 0 D
a22 a2p a12 a1p
. .. .. . .. ..
= a11 det .. det D + + (1)1+p ap1 det ..
|{z} . . . . det D
induccion
ap2 app ap1,2 ap1,p
| {z } | {z }
B11 =Bp1
= det B det D
Problemas
5.1.2.
a b 0 0 0
b a b 0 0
0 b a 0 0
5.1.3. Si Tn = det(An ) donde An es de la matriz tridiagonal: An =
... ... ... . . . ... .. entonces Tn = aTn1
.
0 0 0 a b
0 0 0 b a
2
b Tn2
Si a = 2 y b = 1 demuestre que Tn = n + 1. En general demuestre que si a = 2b entonces Tn = (n + 1)bn
Si a = 1 y b = 1 muestre que Tn = Tn1 Tn2 . Muestre que Tn+6 = Tn para todo entero positivo n.
Determine T900 .
a b 0 0 0
b a b 0 0
0 b a 0 0
5.1.4. Si Sn = det(An ) donde An es la matriz tridiagonal An =
... .. .. . . .. .. entonces Sn = aSn1 +
. . . . .
0 0 0 a b
0 0 0 b a
b2 Sn2
164
5.1.7. Sean A, B Mn (R) matrices triangulares superiores, demuestre que det(AB) = det A det B.
Muestre que esto tambien se cumple si A y B son ambas triangulares inferiores o ambas diagonales. (Ayuda:
Use el Problema 1.2.12.)
5.1.8. Sea A, B y C Mn (R), con A triangular superior, B diagonal y C triangular inferior, demuestre lo
siguiente:
5.1.9. Demuestre
la formula del determinante de matrices 2 2 y 3 3.
a b
Si A = , muestre que det(A) = ad bc.
c d
a11 a12 a13
Si A = a21 a22 a23 , muestre que
a31 a32 a33
det(A) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 a31 a22 a13 a11 a32 a23 a21 a12 a23 .
En esta seccion mostraremos que si E es una matriz elmental y A es una matriz arbitraria, ambas de tamano
n n, entonces det(EA) = det E det A. Esto lo haremos considerando tres casos, uno por cada tipo de matriz
elemental. Este resultado sera util para demostrar que el determinante del producto de matrices es el producto
de los determinantes, resultado que veremos en la proxima seccion.
a11 a1n a11 a1n
. .. . ..
. .. . ..
. . . . . .
Teorema 5.8. Sea A = ai1 ain y B = c ai1 c ain la matriz que se obtiene de A al
. .. .. . .. ..
.. . . .. . .
an1 ann an1 ann
multiplicar una fila i por una constante c, entonces
det(B) = c det(A).
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 165
Demostracion. Primero notese que para k = 1, . . . , n se tiene que Bik = Aik , ya que al eliminar la fila i de B
se obtiene la misma matriz que al eliminar la fila i de A. Por tanto,
n
X
det(B) = Expansion por cofactores en la fila i de B = bik (1)i+k det( Bik )
|{z} |{z}
k=1 =ca =Aik
ik
n
X
= c aik (1)i+k det(Aik )
k=1
n
X
=c aik (1)i+k det(Aik ) = c det(A).
k=1
Ejemplo 5.5. El teorema anterior nos dice que si todas las entradas de una fila son multiplos de un real c,
entonces este se puede factorizar de la fila como se muestra a continuacion
1 2 2 1 2 2 1 2 2
det 4 2 6 = det 2 2 2 1 2 (3) = 2 det 2 1 3 .
0 3 2 0 3 2 0 3 2
Corolario 5.9. Sea A una matriz n n y sea E la matriz elemental que se obtiene de In al multiplicar una
fila por una constante c 6= 0 entonces det(E) = c y det(EA) = det(E) det(A).
Demostracion. Por el Lema 5.1 tenemos que det In = 1 y por el teorema anterior se sigue det E = c det In = c.
Ahora, la matriz EA se obtiene de A al multiplicar la fila i por c, Teorema 1.13, se sigue por el teorema
anterior que
det(EA) = c det A = det E det A.
Ahora pasamos a mostrar el efecto que tiene un intercambio de filas en el determinante de una matriz.
a11 a1n a a1n
11
.. . .. .
.. . .. ..
. .. . .
ai1 ain aj1 ajn
. . . . .. ..
Teorema 5.10. Sea A = . . . .
. y sea B = .
. . la matriz que se obtiene de A al
.
.
a a ain
j1 ajn i1
.. .. .. .. .. ..
. . . . . .
an1 ann an1 ann
intercambiar las filas i y j de A, entonces
det(B) = det(A).
166
Demostracion. Primero supongamos que las filas intercambiadas son consecutivas, es decir,
a11 a1n a11 a1n
. .. . ..
. .. . ..
. . . . . .
ai1 ain a a(i+1)n
A= y B = (i+1)1 .
a(i+1)1 a(i+1)n ai1 ain
. .. .. . .. ..
.. . . .. . .
an1 ann an1 ann
Ahora, notese que b(i+1)k = aik y B(i+1)k = Aik ya que la matriz que se obtiene al eliminar la fila i + 1 de B
coincide con la matriz que se obtiene al eliminar la fila i de A. Por tanto si usamos expansion por cofactores en
la fila i + 1 de B obtenemos:
n
X Xn
det(B) = b(i+1)k (1)i+1+k det(B(i+1)k ) = aik (1)i+1+k det(Aik )
k=1
| {z } | {z } k=1
aik Aik
n
X n
X
= aik (1)(1)i+k det(Aik ) = aik (1)i+k det(Aik ) = det(A).
k=1 k=1
En el caso general, para intercambiar las filas i y j de A se necesitan j i cambios consecutivos de la fila i para
llevarla a la fila j y j i 1 cambios consecutivos de la fila j para llevarla a la fila i, por tanto
Corolario 5.11. Sea A una matriz n n y sea E la matriz elemental que se obtiene de In al intercambiar las
filas i y j entonces det(E) = 1 y det(EA) = det(E) det(A).
Demostracion. Si E se obtiene al intercambiar las filas i y j de In , entonces por el teorema anterior tenemos
que det E = det In = 1.
Por el Teorema 1.13 tenemos que EA es la matriz obtenida de A al intercambiar sus filas i y j, se sigue del
teorema anterior
Ahora demostramos un par de lemas necesarios para pasar al tercer tipo de matrices elementales.
Lema 5.12. Si A es una matriz n n con dos filas iguales, entonces det(A) = 0.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 167
Demostracion. Supongamos que las filas i y j de A son iguales y sea B la matriz que se obtiene de A al
intercambiar las filas i y j, entonces B = A. Ahora, por el Teorema 5.10 tenemos que det(B) = det(A), por
tanto det(A) = det(A), o equivalentemente, 2 det(A) = 0, concluimos que
det(A) = 0.
Lema 5.13. Sean A, B y C matrices cuyas filas son iguales excepto la fila i y talque la iesima fila de
a11 a1n a11 a1n
. .. . ..
. .. . ..
. . . . . .
C es la suma de las filas i de A y B, es decir, A = ai1 ain , B = bi1 bin y C =
. .. .. . .. ..
.. . . .. . .
an1 ann an1 ann
a11 a1n
.. ..
..
. . .
ai1 + bi1 ain + bin , entonces det(C) = det(A) + det(B).
.. .. ..
. . .
an1 ann
Demostracion. Primero notese que para j = 1, . . . , n se tiene que Cij = Aij = Bij , ya que al eliminar la fila i
de A se obtiene la misma matriz que al eliminar la fila i de B y la misma matriz al eliminar la fila i de C, por
tanto al usar expansion por cofactores en la fila i de C obtenemos
n
X n
X n
X
det(C) = cik (1)i+k Cik = (aik + bik )(1)i+k Cik = aik (1)i+k Cik + bik (1)i+k Cik
|{z}
k=1 a k=1 k=1
ik +bik
n
X n
X n
X n
X
= aik (1)i+k Cik + bik (1)i+k Cik = aik (1)i+k Aik + bik (1)i+k Bik
|{z} |{z}
k=1 Aik k=1 Bik k=1 k=1
= det(A) + det(B).
Este lema se puede usar para reducir ciertos calculos de determinantes como se muestra en el siguiente
ejemplo.
0 3 2
Ejemplo 5.6. Calcular el determinante de la matriz A = 1 1 2.
2 2 2
Solucion. Escribimos las entradas de la segunda fila como una suma de dos numeros
3 2 0 3 2 0 3 2 0 3 2 0
det(A) = det 1 1 2 = det 0 1 0 + 1 2 + 0 = det 0 0 2 + det 1 1 0 .
2 2 2 2 2 2 2 2 2 2 2 2
168
De esta forma obtenemos dos matrices ambas con una fila o una columna con 2 ceros, cuyos determinantes
calculamos usando expansion por dicha fila o columna y obtenemos:
3 2 0 3 2 0
2+3
3 2 3 2
det(A) = det 0 0
2 + det 1
1 0 = (1) 2 det + (1)3+3 2 det
2 2 1 1
2 2 2 2 2 2
Finalmente a pasamos a mostrar que al sumar un multiplo de una fila a otra fila el determinante se preserva.
a11 a1n a11 a1n
.. . .. .
.. .. .. ..
.
. . .
ai1 ain ai1 ain
. .. . .. .. .
Teorema 5.14. Considere la matriz A = . . .. y sea B = . . la matriz
. . .
a a + ca ajn + cain
j1 ajn j1 i1
.. .. .. .. .. ..
. . . . . .
an1 ann an1 ann
que se obtiene de A al sumar c veces la fila i a la fila j de A, entonces
det(B) = det(A).
Corolario 5.15. Sea A una matriz n n y sea E la matriz elemental que se obtiene de In al sumar c veces la
fila i a la fila j de I entonces det(E) = 1 y det(EA) = det(E) det(A).
Demostracion. Como E se obtiene de sumar un multiplo de una fila a otra fila, tenemos por el teorema
anterior que det E = det In = 1.
Ahora, la matriz EA se obtiene de A al multiplicar la fila i por c, Teorema 1.13, se sigue por el teorema
anterior que
det(EA) = det A = det E det A.
Demostracion. El resultado se sigue por induccion y los corolarios 5.9, 5.11 y 5.15.
Los resultados de esta seccion nos permiten usar operaciones elementales para calcular el determinante de
una matriz. La regla es simple: si intercambiamos dos filas, por el Teorema 5.10, el determinante de la nueva
matriz es menos el determinante de la anterior. Si sumamos un multiplo de una fila a otra fila, por el Teorema
5.14, el determinante no cambia. En teora estas dos operaciones son suficientes para el calculo del determinante
usando operaciones elementales, sin embargo el Teorema 5.8 nos permite factorizar una constante c en una fila
tal como se mostro en el Ejemplo 5.5. Para una mejor ilusatracion presentamos los siguientes ejemplos.
0 3 1
Ejemplo 5.7. Usar operaciones elementales de fila para calcular el determinante de la matriz A = 0 2 3.
2 2 1
Solucion. Para la reduccion lo primero que se hara es intercambiar las filas 1 y 3, entonces por el Teorema
5.10 tenemos que
2 2 1
det A = det 0 2 3 .
0 3 1
Lo siguiente para convertir la matriz en una matriz triangular superior debemos convertir el 3 en la posicion 2, 3
de la matriz en un 0. Para esto podemos sumar 3/2 de la fila 2 a la fila 3. El Teorema 5.14 nos dice que esta
170
2 2 1 2 2 1
operacion no cambia el determinante, por tanto el determinante de las matrices 0 2 3 y 0 2 3
0 3 1 0 0 7/2
(obtenida de la anterior al aplicar la operacion de fila 32 F2 + F3 F3 ) son iguales. Por tanto
2 2 1 2 2 1
det A = det 0 2 3 = det 0 2 3 = 2 2 (7/2) = 14,
0 3 1 0 0 7/2
este ultimo resultado se obtiene del hecho que la matriz a la derecha es triangular superior y por tanto su
determinante es el producto de las entradas en la diagonal. Concluimos que det A = 14.
0 1 2
Ejemplo 5.8. En este ejemplo calculamos el determinante de la matriz A = 2 2 2 de manera rapida,
3 3 2
solo se indica la operacion que se hace, el teorema que se usa y el consecuente resultado.
0 1 2 2 2 2 2 2 2
det A = det 2 2 2 F1 F2 |{z} = det 0 1 =
2 32 F1 +F3 F3 |{z} det 0 1 2 = 10
Tma 5.10 Tma 5.14
3 3 2 3 3 2 0 0 5
Tambien se pudo haber usado el Teorema 5.8 en el segundo paso como se indica a continuacion, sin embargo
como se menciono antes, es suficiente con los Teoremas 5.10 y 5.14 en todos los casos.
0 1 2 2 2 2 1 1 1
det A = det 2 2 2 F1 F2 |{z} = det 0 1 2 = 2 det 0 1 2 3F1 +F3 F3
|{z}
Tma 5.10 Tma 5.8
3 3 2 3 3 2 3 3 2
1 1 1
=
|{z} 2 det 0 1 2 = 2 1 1 5 = 10
Tma 5.14
0 0 5
Problemas
5.2.1. Use operaciones elementales de fila para calcular el determinante de las siguientes matrices
1 2 1 3 0 2 1 4
1 2 3 0 2 1
2 2 2 4 1 1 1 1
A = 4 5 4 , B = 1 3 2 , C=
y D=
3 2 1 0 2 1 3 1
3 2 1 3 4 3
2 3 1 2 1 1 1 2
5.2.2. Sea A una matriz de tamano 33 invertible, si las operaciones elementales que se aplicaron a A para
llevarla a su forma escalonada reducida son 2F1 + F3 F3 , 2F2 F2 , F2 F3 y F3 + F1 F1 , calcule lo
siguiente
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 171
5.2.8. En este problema se propone demostrar que las propiedades del determinante con respecto a operaciones
de fila tambien se cumplen en operaciones columna.
Sean v1 , . . . , vn , w Rn y sea A = [ v1 vn ] la matriz cuyas columnas son los vectores v1 , . . . , vn y R.
Demuestre lo siguiente:
1. det[ v1 vi vn ] = det A.
3. det[ v1 vi vi vn ] = 0.
6. det[ v1 vn ] = n det A.
5.2.9. Sean A, B Mn (R) con B diagonal, demuestre que det(AB) = det A det B.
Muestre tambien que det(BA) = det B det A. (Ayuda: Use el Problema 1.2.13).
De los resultados obtenidos para matrices elementales obtenemos la siguiente caracterizacion de matriz in-
vertible.
invertible, entonces rango(A) = rango(A ) < n y como es una matriz cuadrada se debe dar que A tiene al
menos una fila de ceros y por tanto det(A ) = 0, luego
1
Corolario 5.19. Si A es una matriz invertible de tamano n n entonces det(A1 ) = .
det A
Demostracion. Por el teorema anterior det A det(A1 ) = det(A A1 ) = det(I) = 1. Se sigue que
1
det(A1 ) = .
det A
Problemas
2 3 2
1
3, calcule det A, A1 y verifique que det A1 =
5.3.1. Sea A = 2 2 det A .
5 2 1
5.3.2. Sean A y B matrices cuadradas tal que det A = 1 y det AB = 2. Determine det B, det(B 1 ),
det (AB)1 , det(A3 ) y det(AAt ).
5.3.3. Una matriz A Mn (R) se llama nilpotente si Ak = 0 para algun k Z0 . Muestre que si A es nilpotente
entonces det A = 0.
5.3.5. Demuestre que si P es una matriz proyeccion, es decir P 2 = P , entonces det P = 0 o det P = 1.
5.3.6. Demuestre que si P es una matriz proyeccion entonces P = I si y solo si det P = 1. (Ayuda: Use el
Problema 4.3.9 .)
5.3.7. Sean A, B Mn (R), demuestre que det(AB) = det(BA). Si A es invertible muestre que det(ABA1 ) =
det B.
En esta seccion se define la matriz adjunta de una matriz A cuadrada. La principal motivacion para definir
esta matriz es que la podemos usar para deducir una formula de la inversa de la inversa de A cuando A es
invertible. Si A no es invertible mostraremos que el producto de A por su adjunta es la matriz nula.
Definicion 5.4. Sea A una matriz de tamano nn, definimos la matriz adjunta de A como la matriz definida
por
t
C11 C12 C1n C11 C21 Cn1
C21 C22 C2n C12 C22 Cn2
Adj(A) =
.. .. ..
=
.. .. .. .. .. ,
. . . . . . . .
Cn1 Cn2 Cnn C1n C2n Cnn
1 2
C33 = (1)3+3 det = 2.
1 4
El siguiente lema es crucial para mostrar la formula de la inversa de una matriz invertible en terminos de
la adjunta de A.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 175
a11 a1n
. .. ..
Lema 5.20. Sea A = .. . . entonces ai1 Cj1 + + ain Cjn = 0 si 1 i 6= j n, donde Cik es el
an1 ann
ik-esimo cofactor de A. Es decir, la expansion por cofactores en la fila j con coeficientes en otra fila i (i 6= j)
se anula.
Demostracion.
Sea B una matriz con las mismas filas de A excepto la fila j en donde se repite la fila i, es
a a1n
11
.. .. ..
.
. .
ai1 ain
. . ..
decir B = . . . . . Notese que para k = 1, . . . , n se tiene que Ajk = Bjk ya que al eliminar la j-esima
.
a
i1 ain
.. .. ..
. . .
an1 ann
fila de A se obtiene la misma matriz que al eliminar la j-esima fila de B. Ademas el determinante de B es cero
por tener dos filas iguales. Entonces tenemos que
A continuacion se deduce una formula para la inversa de una matriz invertible usando la adj(A).
A adj(A) = det(A) I.
Por tanto
d11 d12 d1n
|{z} |{z} |{z}
=det(A) =0 =0
det(A) 0 0
d21 d22 d2n
|{z}
|{z} |{z}
0 det(A) 0
A adj(A) = =0 =det(A) =0 =
.. .. .. ..
= det(A) I.
(5.11)
. .. .. .. .
. . . . .
. . .
0 0 det(A)
dn1
|{z} dn2 dnn
|{z} |{z}
=0 =0 =det(A)
1
Ahora, si A es invertible se tiene que det(A) 6= 0 y de la Ecuacion (5.11) se sigue que A adj(A) = I.
det(A)
Por tanto
1
A1 = adj(A).
det(A)
En el caso en que A no es invertible, tenemos que det(A) = 0 y la Ecuacion (5.11) se convierte en A adj(A) =
0.
1 2 3
Ejemplo 5.10. Sea A = 1 4 7 calcule el determinante de A y la inversa de A.
1 6 0
Solucion. Por el ejemplo anterior sabemos que la matriz adjunta de A esta dada por:
C11 C21 C31 42 18 2
adj(A) = C12 C22 C32 = 7 3 4 .
C13 C23 C33 2 4 2
El determinante de A lo calculamos por expansion por cofactores en la tercera fila, usando los cofactores C31 ,
C32 y C33 que se calcularon en el ejemplo anterior, tenemos que
Problemas
Use los calculos para determinar la inversa de las que son invertibles.
1
1. demuestre que B 1 = det A A,
5.4.3. Sea A Mn (R) una matriz invertible. Demuestre que la matriz adj(A) es invertible y que adj(A)1 =
adj(A1 ).
5.4.4. Sea A Mn (R) una matriz no invertible y no nula, demuestre que adj(A) no es invertible y por tanto
det(adj(A)) = 0.
a11 a1n
.. .. ..
5.4.5. Sea A = . . . , demuestre que la expansion por cofactores en la columna j con coeficientes
an1 ann
tomados de la columna i, i 6= j, se anula. Es decir a1i C1j + + ani Cnj = 0.
Use esto para demostrar que adj(A)A = det(A)I.
5.4.6. Si A es simetrica invertible entonces A1 es simetrica. (Ayuda: Muestre que Aij = Atji .)
En esta seccion corta se presenta el resultado conocido como la regla de Cramer. Este metodo da una formula
para calcular la solucion a un sistema con solucion unica, cuando la solucion no es unica no se puede aplicar
este metodo. El metodo es ademas computacionalmente ineficiente, lo que lo hace poco util. Tal vez el metodo
pueda servir en el caso en que no se necesite el valor de todas la incognitas en un sistema, como es el caso en
el Problema 5.5.2. La seccion puede ser obviada y la hacemos solo por mostrar la demostracion del metodo para
los lectores que les resulte interesante.
178
Teorema 5.22. (Regla de Cramer) Sea Ax = b un sistema de ecuaciones con A una matriz n n invertible.
Sea A = [ C1 Cn ] con C1 , . . . , Cn las columnas de A y para i = 1, . . . , n definimos Ai como la matriz que
se obtiene al reemplazar la i-esima columna de A por el vector b. Es decir,
A1 = [ b C2 Cn ], A2 = [ C1 b Cn ], ..., An = [ C1 C2 b ].
=xi det(A).
det(Ai )
Al despejar xi de esta ecuacion obtenemos xi = .
det(A)
3x + 2y z = 0
Ejemplo 5.11. Resolver el sistema x + 3z = 0 usando la regla de Cramer.
x + z=1
3 2 1 0
Solucion. Primero escribimos el sistema en la forma Ax = b con A = 1 0 3 y b = 0 . Despues
1 0 1 1
necesitamos los determinantes de las matrices de A1 , A2 , A3 y A.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 179
0 2 1
2 1
det(A1 ) = det 0 0 3 = 1 det =6
0 3
1 0 1
3 0 1
3 1
det(A2 ) = det 1 0 3 = 1 det = 8
1 3
1 1 1
3 2 0
1 0
det(A3 ) = det 1 0 0 = 2 det =2
1 1
1 0 1
3 2 1
1 3
det(A) = det 1 0 3 = 2 det =8
1 1
1 0 1
Por tanto, por la Regrla de Cramer, la solucion al sistema esta dada por
Problemas
En esta seccion le daremos una interpretacion geometrica al determinante. Veremos como usarlo para calcular
volumenes de paraleleppedos en cualquier dimension. Tambien mostraremos como el proceso de Gramm-Schmidt
puede ser util para el mismo objetivo. Comenzamos con la siguiente definicion.
180
v2
v1
b b
O O v1 + v2
Paralelogramo determinado v1
por v1 y v2 Paraleleppedo determinado por v1 , v2 y v3
En general el n-ppedo determinado por n vectores en Rn es el n-ppedo con vertices en los extremos de
los 2n vectores vi1 + + vik con k entre 1 y n y el origen. Es decir, los vertices del paraleleppedo n-dimensional
son el origen y los extremos de todos los vectores que se son sumas de k de los vectores originales, con k variando
de 1 a n.
El siguiente resultado es el mas importante de la seccion. En este se establece la relacion entre el volumen
del n-ppedo determinado por n vectores en Rn y el determinante de la matriz que estos forman. De esta forma,
el teorema provee una interpretacion geometrica del determinante.
Solucion. Sea V el volumen de este paraleleppedo, de acuerdo al Teorema 5.23 tenemos que
0 2 0
h i
2 2
V = | det v1 v2 v3 | = 2 1 2 = 2 = | 2(4 6)| = 4.
3 2
3 0 2
donde w1 , . . . , wk son los vectores ortogonales que se obtienen al aplicar el proceso Gramm-Schmidt a los vectores
v1 , . . . , vk y q1 , . . . , qk son los correspondientes vectores ortonormales obtenidos de normalizar los wi s.
||w2 ||
v1 = w1
w3 v3
||w3 ||
v2
b
O
v1
182
Entonces tenemos que el volumen V de este paraleleppedo determinado por v1 , v2 y v3 esta dado por
En el caso general se observa que wk es la altura del paraleleppedo (k 1)-dimensional determinado por los
vectores v1 , . . . , vk1 , con volumen ||w1 || ||wk1 || y por tanto el volumen V del paraleleppedo formado por
los k vectores esta dado por
Para terminar la demostracion veamos que para cada i = 1, . . . k se tiene que ||wk || = qi vi . Para esto es
suficiente notar que el angulo formado por wi y vi es el mismo angulo entre qi y vi . Esto ya que qi ||w1i || wi es
multiplo de wi .
wi
vi
qi
adyacente ||wi ||
El triangulo en esta figura es un triangulo rectangulo, entonces se tiene ademas que cos = hipotenusa = ||vi || .
Por tanto
||wi ||
qi vi = ||qi || ||vi ||cos = ||vi ||cos = ||vi || = ||wi ||.
|{z} ||vi ||
=1
Concluimos que el volumen V del paraleleppedo formado por los vectores v1 , . . . , vk esta dado por
2 3 4
V = (q1 v1 )(q2 v2 )(q3 v3 ) = = 2.
2 6 12
Es decir, paraleleppedo tiene un volumen de dos unidades cubicas.
2 1
Ejemplo 5.15. Sean v1 = 3 y v2 = 4 vectores en R3 , determine el area del paralelogramo en R3
3 4
determinado por estos vectores.
Solucion. Necesitamos calcular los vectores ortonormales q1 y q2 que se obtienen al aplicar el proceso Gramm-
Schmidt a los vectores v1 y v2 .
1 2 3
v2 v1 22
Primero hacemos w1 = v1 y w2 = v2 proyv2 v1 = v2 v1 v1 v1 = 4 22 3 = 1 .
4 3 1
2 3
Normalizando los vectores w1 y w2 obtenemos q1 = 122 3 y q2 = 111 1 .
3 1
Tenemos que el area A del paralelogramo es
1 1
A = (q1 v1 )(q2 v2 ) = 22 10 = 10 2 14,1.
22 11
Observacion 5.3. La Proposicion 5.24 tambien se puede usar para calcular areas de triangulos en Rn como
se describe a continuacion. Si A, B y C tres puntos no colineales en Rn , definimos v1 como el vector cuyas
coordenadas son las entradas del punto A C y v2 el vector el vector cuyas coordenadas son las entradas del
a1 c 1
..
punto B C. Es decir, si A = (a1 , . . . , an ), B = (b1 , . . . , bn ) y C = (c1 , . . . , cn ) entonces v1 = . y
an c n
b1 c 1
.
v2 = .. . Para el area del triangulo simplemente notamos que
bn c n
1
area del triangulo ABC = area del paralelogramo determinado por v1 y v2 .
2
b
A
C b
b
B
v1
O b
v2
184
Ejemplo 5.16. Sean A = (1, 2, 3), B = (2, 3, 4) y C = (1, 1, 0) en R3 , calcular el area del triangulo ABC.
Solucion: El vector v1 tiene por coordendas las entradas del punto A menos las entradas del punto C y el
2
vector v2 tiene por coordendas las entradas del punto B menos las entradas del punto C. Es decir, v1 = 3
3
1
y v2 = 4.
4
En el Ejemplo 5.15 se calculo que el area del paralelogramo determinado por estos dos vectores es 10 2
unidades cuadradas, por tanto:
1 1
area del triangulo ABC = area del paralelogramo determinado por v1 y v2 = 10 2 = 5 2 7,0,7
2 2
Similarmente se puede calcular el volumen de una piramide en Rn dados 4 puntos no co-planares. Ver
Problema 5.6.5.
Finalizamos la seccion con la demostracion del Teorema 5.23.
Se deduce que det Q = 1, luego | det Q| = 1. Por la Observacion 5.2 tenemos que el volumen V del parale-
leppedo n dimensional determinado por los vectores v1 , . . . , vn esta dado por V = | det R|. Tenemos entonces
que
| det A| = | det Q det R| = | det Q| | det R| = | det R| = V.
| {z }
=1
Concluimos que dicho volumen esta dado por V = | det A| = | det[ v1 vn ]|.
1 2 1 0
2 1 1 2
Ejemplo 5.17. (Matlab) Sean v1 = , v 2 = , v 3 = y v 4 =
, calcular el volumen del
3 0 2 2
0 2 2 0
paraleleppedo 4-dimensional formado por estos vectores.
h i
Solucion. Para calcular el volumen necesitamos calcular el determinante de la matriz A = v1 v2 v3 v4
el cual calculamos usando Matlab
>> A = [1, 2, 1, 0; 2, 1, 1, 2; 3, 0, 2, 2; 0, 2, 2, 0]; det(A)
el resultado que se obtiene en este caso es que det A = 12. Por tanto el volumen V del paraleleppedo es
V = | 12| = 12.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 185
Problemas
5.6.1. Calcule el area del paralelogramo determinado por el par de vectores dados
3 1 1 4
a. v1 = y v2 = . b. v1 = y v2 = .
2 4 1 1
5.6.2. Calcule el volumen del paraleleppedo determinado por los vectores dados
3 1 1 1 2 4
a. v1 = 1 , v2 = 3 y v3 = 1 . b. v1 = 1 , v2 = 1 y v3 = 1 .
1 1 3 1 0 1
5.6.3. Considere los vectores v1 , v2 , v3 , v4 y v5 en R5 con coordenadas (1, 4, 2, 2, 3), (1, 1, 1, 1, 2), (1, 0, 0, 4, 1),
(1, 3, 1, 5, 0) y (1, 0, 0, 1, 2), respectivamente. Calcule lo siguiente:
5.6.5. Sean A = (2, 1, 3, 4, 1, 0), B = (1, 1, 1, 1, 0, 1), C = (3, 5, 0, 0, 1, 1) D = (1, 2, 3, 4, 5, 6). Calcule el volumen
de la piramide en R6 con vertices en los puntos A, B, C, D. Ayuda: Defina los vectores v1 , v2 y v3 con coordenadas
AD, B D y C D, respectivamente. Calcule al volumen del paraleleppedo determinado por estos tres vectores
y note que el volumen de la piramide es 1/6 del volumen del paraleleppedo.
En este captulo estudiaremos los valores y vectores propios de una matriz. Este topico es uno de los mas
importantes en el algebra lineal y tal vez el que tiene mas aplicaciones conocidas dentro de las matematicas y a
otras areas. El objetivo principal es estudiar la diagonalizacion de matrices y los criterios para que una matriz
sea diagonalizable. Dado que los valores propios de una matriz son las races del polinomio caracterstico, todas
las matrices en este captulo se tomaran con entradas en C, el conjunto de los numeros complejos, debido a que
a cada matriz le asociaremos un polinomio, cuyas races juegan un papel importante en la teora y necesitamos
garantizar que el polinomio de grado n tiene exactamente n races contando multiplicidades.
En esta seccion se introducen los conceptos de polinomio caracterstico, valores propios, vectores propios y
subespacios propios de una matriz. Tambien se definen las multiplicidades algebraica y geometrica de un valor
propio. Veremos que los valores propios son las races del polinomio caracterstico y demostraresmos algunas
propiedades de de los valores propios y vectores propios. Comenzamos con el siguiente lema del cual se sigue la
definicion de polinomio caracterstico.
Lema 6.1. Sea A Mn (C) e I la matriz identidad, entonces det(A xI) es un polinomio en x de grado n. El
coeficiente del monomio xn en este polinomio es (1)n .
det(A xI) = det C = (a11 x) det C11 + + (1)1+n a1n det C1n , (6.1)
187
188
Definicion 6.1. Sea A Mn (C) una matriz, al polinomio det(A xI) se le llama el polinomio caraterstico de
A y este sera denotado por pA (x).
1 1
Ejemplo 6.1. El polinomio caraterstico de la matriz A = es el polinomio:
2 0
1x 1
pA (x) = det(A xI) = det = (1 x)(x) 2 = x2 x 2.
2 x
La razon por la cual en esta seccion estamos considerando matrices con entradas en los complejos, es con el
fin de poder usar el Teorema fundamental de algebra, el cual dice que todo polinomio de grado n con coeficientes
en los complejos, tiene exactamente n races contando multiplicidades. Por lo tanto para toda matriz compleja,
su polinomio caraterstico tiene n races. Estas races juegan un papel importante en la matriz A, ya que estas
coinciden con los valores propios de A. Esto lo mostraremos en el siguiente lema, despues de definir valor propio
de una matriz.
Definicion 6.2. Sea A Mn (C), decimos que C es un valor propio de A si existe un vector v 6= 0 tal que
Av = v. En este caso decimos tambien que v es un vector propio de valor propio .
Lema 6.2. Sea A Mn (C), tenemos las siguientes caracterizaciones de valor propio para A.
C es un valor propio de A si y solo si N ul(A I) 6= 0 si y solo si es una raz de pA (x).
Sea A Mn (C), si es un valor propio de A, los vectores propios de valor propio forman un subespacio
de Cn . Ademas este espacio coincide con N ul(A I).
2. E() = N ul(A I) y se tiene ademas que E() 6= {0} si y solo si es un valor propio.
Del Lema 6.2 se deduce el siguiente procedimiento para calcular los valores y vectores propios de una matriz.
3. Para cada valor propio encontrado en en el paso anterior, se calcula una base para N ul(A I). Los vectores
en dicha base son vectores propios de valor propio .
3 5
Ejemplo 6.2. Sea A = , calcular los valores y vectores propios de A y determine los subespacios
2 4
propios.
Solucion. El polinomio caracteristico de A, esta dado por
3 x 5
pA (x) = det(A xI) = det = x2 x 2 = (x 2)(x + 1).
2 4x
Observacion 6.1. Es importante notar que los subespacios propios son subespacios invariantes bajo una trans-
formacion lineal. En el ejemplo anterior si consideramos la transformacion T definida por T (v) = Av, entonces
los subespacios E(2) y E(1) son invariantes bajo T
+ E(2) + T (E(2) )
T T (v1 )
+ +
+
v1 +
E(1) T (E(1) )
v2
+ + + b + + + + + + b + + +
O O
T (v2 )
+ +
+ +
+ +
Los vectores en la lnea E(1) son enviados por T a la misma lnea. Mas especificamente, para v E(1) ,
T (v) = Av = v, esto por ser un vector de valor propio 1. Similarmente, vectores en la lnea E(2) son
enviados por T a la misma lnea y en este caso para v E(2) se tiene que T (v) = Av = 2v por ser un vector de
valor propio 2. Tambien se sigue del Lema 6.2 que las lneas E(1) y E(2) son las unicas lneas invariantes bajo
multiplicacion por la matriz A.
El hecho de que en general los subespacios propios E() son invariantes bajo multiplicacion por la matriz A es
facil de ver. De hecho si v E() entonces Av = v, y como E() es un subespacio, se sigue que Av = v E() .
Por tanto A(E() ) E() .
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 191
En el ejemplo anterior tambien se puede verificar que los vectores propios encontrados son linealmente
independientes. Esto no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos
son linealmente independientes.
Teorema 6.4. Sea A Mn (C) y sean v1 , . . . , vk vectores propios con valores propios 1 , . . . , k , respectivamen-
te. Si los i son diferentes entre s entonces los vectores v1 , . . . , vk son linealmente independientes.
1 v 1 + 2 v 2 = 0 (6.2)
1 1 v1 + 2 2 v2 = 0. (6.3)
1 1 v1 + 2 1 v2 = 0. (6.4)
Restando la Ecuacion (6.4) de la Ecuacion (6.3) tenemos que 2 (1 2 )v2 = 0. Pero como 1 6= 2 , es decir,
1 2 6= 0 y v2 6= 0 entonces se debe dar que 2 = 0. Reemplazando este valor en la Ecuacion (6.2) tenemos
que 1 v1 = 0 y como v1 6= 0 se debe dar que 1 = 0. Por tanto v1 y v2 son linealmente independientes.
Ahora supongamos por induccion, que k 1 vectores propios correspondientes a k 1 valores propios distintos
son LI y mostremos que v1 , . . . , vk son LI. Para esto supongamos que
1 v1 + + k vk = 0, (6.5)
1 1 v1 + + k k vk = 0. (6.6)
1 k v1 + + k k vk = 0. (6.7)
Por hipotesis los vectores v1 , . . . , vk1 son k 1 vectores propios correspondientes a distintos valores propios y
por tanto son LI. Se sigue entonces que
1 (1 k ) = = k1 (k1 k ) = 0
| {z } | {z }
6=0 6=0
192
El ejemplo anterior exhibe un caso en el que, para un valor propio , dim E() es diferente de 1. En general
este espacio puede tener cualquier dimension entre 1 y n. Los valores propios, por ser races del polinomio
caracterstico tambien tienen una multiplicidad algebraica. Como en el caso anterior la multiplidad algebraica
de = 2 es 2, ya que (x 2)2 es factor de pA (x). Por tanto a un valor propio le podemos asociar dos enteros
positivos: la multiplicidad algebraica como raz del polinomio caracterstico y la dimension del subespacio E() .
Esto motiva la siguiente definicion.
Definicion 6.4. Sea A una matriz de tamano nn y sean 1 , . . . k los valores propios de A,
2. La multiplicidad geometrica de i esta dada por dim Ei . La multiplicidad geometrica de un valor propio
sera denotada por g() .
Ejemplo 6.4. En el ejemplo anterior tenemos que a(1) = 1 = g(2) y a(2) = 2 = g(2) .
Ejemplo 6.5. En el Ejemplo 6.2 tenemos que a(1) = g(1) = 1 y a(2) = g(2) = 1.
3 1 0 0
1 3 0 0
Ejemplo 6.6. (MatLab) Calcular los valores y vectores propios de la matriz A =
.
7 1 4 0
7 1 0 4
Solucion. En MatLab podemos usar un comando diferente al usado en el Ejemplo 6.3 que nos permite calcular
todos los valores y vectores propios con una sola instruccion como sigue.
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4]; [V, D] = eig(A)
V =
0 0 1/2 1/2
0 0 1/2 1/2
1 0 1/2 1/2
0 1 1/2 1/2
D =
4 0 0 0
0 4 0 0
0 0 4 0
0 0 0 2
Con este comando los vectores propios son las columnas de la matrizV y los correpondientes
valores propios
0 0
0 0
en la matriz D. Tenemos entonces que A tiene vectores propios v1 = y v2 = ambos de valor propio
1 0
0 1
194
1/2 1/2
1/2 1/2
= 4, v3 =
de valor propio = 4 y v4 =
de valor propio = 2. Notese que en este ejemplo
1/2 1/2
1/2 1/2
se tiene que cada valor propio tiene multiplicidad geometrica y algebraica iguales. En realidad este comando nos
da mas informacion acerca de la matriz, ver Ejemplo 6.24.
Hasta ahora solo hemos visto ejemplos donde la multiplicidad geometrica y algebraica de cada valor propio
son iguales, pero esto no siempre se cumple. De hecho es posible que la multiplicidad geometrica sea estrictamente
menor que la multiplicidad algebraica, a continuacion damos ejemplos donde se da esto.
Ejemplo
6.7. (MatLab)
Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz
3 2 1
A = 1 6 1 .
1 2 3
Solucion. Primero calculamos el polinomio caracterstico del A.
>> A = [3 2 1; 1 6 1; 1 2 3]; f actor(poly(sym(A)))
ans =
(4 + x)3
Es decir que pA (x) = (4 + x)3 y se sigue que = 4 es el unico valor propio con multiplicidad algebraica 3.
Ahora, necesitamos el subespacio propio para calcular la multiplicidad geometrica.
>> null(A 3 eye(3), r )
ans =
2 1
1 0
0 1
2 1
Esto indica que E(4) = gen 1 , 0 y se sigue que g(4) = 2 < 3 = a(4) .
0
1
Ejemplo
6.8. (MatLab)
Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz
4 1 1
A = 0 5 1 .
1 0 3
Solucion. Calculamos el polinomio caracterstico
>> A = [4 1 1; 0 5 1; 1 0 3]; f actor(poly(sym(A)))
ans =
(4 + x)3
Nuevamente obtenemos que = 4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos
el subespacio propio para calcular la multiplicidad geometrica.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 195
Como los valores propios son las races de el polinomio caracterstico, y sabemos que existen polinomios con
coeficientes reales (incluso enteros) y races complejas, entonces tambien existen matrices con entradas reales
(enteras) y valores propios complejos. A continuacion exhibimos un ejemplo.
1 2 2
Ejemplo 6.9. (MatLab) Calcular los valores y vectores propios de la matriz A = 2 1 2.
4 1 3
Solucion. Usamos MatLab para calcular los valores propios
>> A = [1 2 2; 2 1 2; 4 1 3]; p = poly(sym(A))
x3 x2 + x 1
Depues lo factorizamos:
f actor(p)
ans =
(x 1) (x2 + 1)
De aqui deducimos que los valores propios son 1 = 1, 2 = i y 3 = i. Ahora calculamos los vectores
propios:
>> v1 = null(c eye(3), r )
v1 =
1/3
2/3
1
>> v2 = null(c i eye(3), r )
v2 =
3/5 1/5i
3/5 1/5i
1
>> v2 = null(c + i eye(3), r )
v3 =
3/5 + 1/5i
3/5 + 1/5i
1
196
1/3 3/5 1/5i 3/5 + 1/5i
Por tanto los vectores propios son v1 = 2/3, v2 = 3/5 1/5i y v3 = 3/5 + 1/5i de valores propios
1 1 1
1 = 1, 2 = i y 3 = i, respectivamente.
Problemas
6.1.1. Encuentre los valores, vectores y subespacios propios de la matriz. Determine tambien las multiplicidades
geometricas y algebraicas de cada valor propio.
2 2 2 1 3 2
a. A = , b. B = , c. C = ,
5 1 5 2 0 3
5 4 2 0 1 0 1 2 1
d. D = 4 5 2 e. E = 0 0 1 f. F = 1 4 1 ,
2 2 2 1 3 3 1 2 1
0 0 0 1
4 3 0 5 3 1
1 0 0 0
g. G = 6 6 1 , h. H = 7 7 1 , i. J =
.
0 1 0 0
10 9 1 10 11 2
0 0 1 0
6.1.2. Sea A M3 (C) con dos valores propios distintos 1 y 2 . cuales son los posibles polinomios caracteristicos
de A.
Repita si A M4 (C).
6.1.3. Sean 1 , 2 , . . . , k todos los diferentes valores propios de A Mn (C) con multiplicidades algebraicas
a(1 ) , . . . , a(k ) , respectivamente. Demuestre que lo siguiente.
1. El vector v es un vector propio de A de valor propio si y solo v es un vector propio de A valor propio .
2. Para 6= 0, todos los diferentes valores propios de la matriz A son 1 , 2 , . . . , k . Deduzca que a(i ) es
la multiplicidad algebraica de i como valor propio de A , para i = 1, . . . , k.
3. El vector v es un vector propio de A de valor propio si y solo v es un vector propio de A I valor propio
.
4. Demuestre que todos los diferentes valores propios de A I son 1 , 2 , . . . , k . Deduzca que, para
i = 1, . . . , k, la multiplicidad algebraica de i como valor propio de A I es a(i ) .
5. El vector v es un valor propio de A de valor propio si y solo si v es un vector Am con valor propio m .
6. Demuestre que m m m m
1 , 2 , . . . , k son todos los diferentes valores propios de A . Deduzca que la multiplicidad
algebraica de m
i como valor propio de A
m
es a(i ) , para i = 1, . . . , k.
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 197
7. Sea v es un vector propio de A con valor propio , f (x) = a0 + a1 x + + ak xk un polinomio y f (A) la matriz
definida por f (A) = a0 I + a1 A + + ak Ak , entonces v es un vector propio de f (A) con valor propio de f ().
Deduzca que f (1 ), f (2 ), . . . , f (k ) son valores propios de f (A).
2 2
8. Verifique lo anterior si A = y f (x) = 1 2x + 3x3 .
5 1
a a2 a a2
6.1.4. Encuentre los valores y vectores propios de la matrices A = yB= .
1 0 1 0
6.1.5. Sea A una matriz simetrica 22 con entradas reales. Demuestre que los valores propios de A son reales.
B C
6.1.6. Demuestre que si A = entonces pA (x) = pB (x)pD (x).
0 D
6.1.11. Si P es una matriz proyeccion, es decir, si P 2 = P y P 6= I entonces det P = 0. (Recuerde que P visto
como aplicacion lineal satisface que ImP = ColP = {v | P v = v} y KerP = (ImP ) )
6.1.12. Demuestre que si A es nilpotente, es decir, si Ak = 0 para algun k > 0, entonces = 0 es el unico
valor propio de A.
1 1
6.1.14. Si 1 , . . . , k son todos los valores propios de A entonces 1 , . . . , k son todos los valores propios de
A1 .
6.1.18. Sea A Mn (C), demuestre que A y At tienen el mismo polinomio caracterstico, es decir, pA (x) =
pAt (x). Deduzca que A y At tienen los mismos valores propios.
0 0 0 0 a0
1 0 0 0 a1
0 1 0 0 a2
demuestre que pA (x) = (1)n (xn + an1 xn1 + + a1 x + a0 ).
... ... ... . . . ...
6.1.19. Si A = ..
.
0 0 0 0 an2
0 0 0 1 an1
Exhiba una matriz A cuyo polinomio caracterstico sea pA (x) = x4 x + 1.
198
Definicion 6.5. Sean A y B matrices de tamano nn, decimos que A y B son similares si existe una matriz
invertible C tal que A = CBC 1 . Escribiremos A B para denotar que A y B son similares.
2 1 3 0 1 1
Ejemplo 6.10. Las matrices A = yB= son similares. Ya que si se toma C = , se
1 2 0 1 1 1
tiene que A = CBC 1 .
Teorema 6.5. Matrices similares tienen el mismo polinomio caracterstico. Es decir, si A, BMn (C) son simi-
lares entonces pA (x) = pB (x). Se deduce ademas que matrices similares tienen los mismos valores propios.
Demostracion. Como A y B son similares, existe una matriz invertible C tal que B = CAC 1 , luego
Hay un caso especial de similaridad de matrices que definimos a continuacion y sera tratado mas a fondo
en la Seccion 6.4.
Definicion 6.6. Sea A una matriz de tamano nn, decimos que A es diagonalizable si existe una matriz
diagonal D tal que A D.
2 1
Ejemplo 6.11. La matriz A = es diagonalizable ya que en el Ejemplo 6.10 vimos que A es similar a
1 2
3 0
la matriz diagonal .
0 1
Es importante aclarar que no todas las matrices son diagonalizables. A continuacion exhibimos un ejemplo.
1 1
Ejemplo 6.12. Veamos que la matriz A = no es diagonalizable. Por el absurdo supongamos que existe
0 1
a 0
una matriz D diagonal tal que A D, con D = .
0 b
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 199
Notese que los valores propios de A son = 1 con multiplicidad 2 y los valores propios de D son = a y
= b. Como A D, entonces por el Teorema 6.5 A y D tienen los mismos valores valores propios, por tanto
a = b = 1, entonces D = I.
Finalmente, como A D(= I), existe una matriz invertible C tal que A = CDC 1 por tanto
1 1 1 0
= A = C D C 1 = CIC 1 = I =
|{z}
0 1 =I
0 1
Este
ejemplo
tambien muestra que el recproco del Teorema 6.5 no es cierto. De acuerdo al ejemplo, la matriz
1 1
A = y la matriz identidad tienen los mismos valores propios y en consecuencia el mismo polinomio
0 1
caracterstico, sin embargo no son similares.
La pregunta natural es bajo cuales condiciones una matriz es diagonalizable. La respuesta esta en la Seccion
6.4, mas precisamente los Teoremas 6.13 y 6.15, caracterizan las matrices diagonalizables.
En los ejemplos de la seccion anterior vimos que la multiplicidad geometrica de de los valores propios es
menor o igual a la multiplicidad algebraica, esto es cierto en general.
Teorema 6.6. Sea A una matriz de tamano nn y sea un valor propio de A, entonces g() a() , es decir,
Demostracion. Sea un valor propio de A, Como es un valor propio, entonces existe v 6= 0 tal que Av = v
y por tanto E() 6= 0.
Sea k = dim E() , es decir k = g() , y sean {v1 , . . . , vk } es una base para E() . Tenemos entonces que
Avi = vi para i = 1, . . . , k. Ahora tomemos wk+1 , . . . , wn tal que {v1 , . . . , vk , wk+1 , . . . , wn } es una base para
h i
Cn y sea S = v1 . . . vk wk+1 . . . wn . Como {v1 , . . . , vk , wk+1 , . . . , wn } es una base, entonces por el
Corolario 2.13 tenemos que S es invertible y se tiene que
h i
I = S 1 S = S 1 v1 vk wk+1 wn
h i
= S 1 v1 S 1 vk S 1 wk+1 S 1 wn ,
Ahora definamos B = S 1 AS, de esto se sigue que A y B son similares y por el teorema anterior tenemos
200
Se sigue del Teorema 5.7 que pB (x) = det(B xI) = (1)k ( x)k det(R2 xIk ). En consecuencia, como A
y B son similares, tenemos que
Se sigue que ( x)k es un factor de pA (x) y por tanto la multiplicidad algebraica de como raz de pA (x) es
mayor o igual a k, es decir, k a() . Concluimos que
g() = k a() .
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 201
Problemas
6.2.3. Sea v Cn \ {0} y P = vv t , demuestre que v es un vector propio de P y que E0 = V con V = gen{v}.
2b b2
6.2.4. Muestre que la matriz A = no es diagonalizable, para ningun b C. Muestre que la matriz
1 0
2
2b b
B= tampoco es diagonalizable para ningun b.
1 0
1
6.2.5. Muestre que la matriz A = no es diagonalizable, para ningun C.
0
1 0 1 1
6.2.6. Muestre que las matrices A = yB= son similares si y solo si 1 6= 2 .
0 2 0 2
El objetivo de esta seccion es demostrar que dos matrices son similares si y solo si estan relacionadas por
un cambio de coordenadas (cambio de base), para llegar a esto debemos definir cambio de coordenadas.
202
Definicion 6.7. Sean X = {v1 , . . . , vn } una base de Rn y v Rn , sabemos que existen escalares 1 , . . . , n
talque v = 1 v1 + + n vn y que esta representacion
es unica. Definimos la representacion del vector v en
1
..
terminos de la base X como el vector vX = . .
n
1 1 4
Ejemplo 6.13. Sea X = v1 = , v2 = . Notese que si w = tenemos que v = 3v1 v2 y por
1 2 1
3
tanto wX = .
1
En la siguiente figura se pueden observar los vectores de la base X del ejemplo anterior y el vector w.
2
v2
v1 w
1 e2
b
e1
4 3 2 1 1 2 3 4
1
4
Cuando escribimos que w = estamos en realidad dando la posicion del vector w con respecto a los vectores
1
e1 y e2 , ya que w = 4e1 + e2 . Es decir, las componentes de w no son mas que las coordenadas del vector con
respecto a los vectores de la base estandar. El vector wX en cambio, nos esta dando las coordenadas del vector
w con respecto a la base X, ya que w = 3v1 v2 (como se puede verificar en la grafica).
Esto nos permite decir que las componentes del vector vX son las coordenadas del vector v con respecto a los
vectores v1 y v2 de la base X.
A continuacion definimos la matriz de cambio de base, que nos permitira cambiar las coordenadas de un
vector de una base a otra.
Definicion 6.8. Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } bases para Rn , definimos la matriz del cambio de
base (o cambio de coordenadas) de la base X a la base Y como la matriz.
h i
Y IX = (v1 )Y (vn )Y .
1 0
Ejemplo 6.14. Sean E y X las bases de R2 definidas por E = e1 = , e2 = la base estandar y
0 1
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 203
1 1
X = v1 = , v2 = , de la definicion anterior se tenemos que la matriz E IX esta dada por
1 2
h i h i 1 1
E IX = (v1 )E (v2 )E = v1 v2 = .
1 2
vY = Y IX vX .
v = 1 v 1 + + n v n (6.8)
1
.
de la definicion tenemos que vX = .. , y como Y es una base, para 1 i n, existen constantes 1i , . . . , ni
n
tal que
vi = 1i w1 + + ni wn , (6.9)
1i
.
luego (vi )Y = .. , por tanto
ni
11 1n
h i
.. .. ..
Y IX = (v1 )Y (vn )Y = . . .
n1 nn
v = 1 v 1 + + n v n
= 1 (11 v1 + + n1 vn ) + + n (1n v1 + + nn vn )
= (1 11 + + n 1n )v1 + + (1 n1 + + n nn )vn
luego
1 11 + + n 1n 11 1n 1
.. .. .. .. ..
vY = . = . . . = Y IX vY .
.
1 n1 + + n nn n1 nn n
| {z } | {z }
Y IX vY
204
Para la segunda parte, supongamos que A es tal que vY = AvX para todo v Rn . En particular se tiene que
para i = 1, . . . , n se tiene que (vi )Y = A(vi )X . Como (vi )X = ei se sigue que
Se sigue por tanto que las columnas de A son los vectores (v1 )Y , . . . , (vn )Y , es decir, A = [ (v1 )Y (vn )Y ].
Cada base determina ejes coordenados de Rn . Estos ejes corresponden a las lneas generadas por cada uno de
los vectores de la base. El Teorema anterior muestra que la matriz de cambio de base Y IX sirve para determinar
las coordenadas en terminos de la base Y de un vector escrito en terminos de una base X. Esto se ilustra en el
siguiente ejemplo.
1 1
Ejemplo 6.15. Sean E = {e1 , e2 } la base estandar de Rn y X = v1 = , v2 = . Sea v = 3v1 v2 ,
1 2
3 1 1
se sigue que vX = . Por el Ejemplo 6.14 se tiene que E IX = , entonces
1 1 2
1 1 3 4
v = vE = E IX vX = = .
1 2 1 1
Como se muestra en la siguiente figura, estas dos bases determinan dos sistemas de ejes para R2 , uno
determinado por los vectores de la base X y otro determinado por los vectores de la base estandar y la matriz
E IX permite cambiar las coordenadas de un vector, en terminos de la base X, a las coordenadas en terminos
de la base estandar. Usando la figura tambien se pueden determinar las coordenadas del vector w con respecto
a cada una de estas bases.
v2 v2 2
w
e2 v 1 v1
e2 w
e1 b
4 2 e1 2 4 6
4
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 205
1 2 3 4
Ejemplo 6.16. Considere las bases X = v1 = , v2 = y Y = w1 = , w2 = de R2 y
0 1 1 1
v = 2v1 + 3v2 , expresar a v en terminos de la base Y .
1 2
Solucion. Notese que v1 = w1 w2 y v2 = 2w1 w2 , luego (v1 )Y = y (v2 )Y = , de donde
1 1
1 2 2
Y IX =
. Ahora, como vX = , entonces
1 1 3
1 2 2 8
vY = Y IX vX = = .
1 1 3 5
v1 = 11 w1 + n1 wn
..
. . (6.10)
vn = 1n w1 + nn wn
11 1n 11 1n
. . .. .. ..
Entonces (v1 )Y = .. , . . . , (vn )Y = .. y por tanto Y IX = . . . .
n1 nn n1 nn
De la Ecuacion (6.10) tenemos que
11 1n
h i h i
.. .. ..
v1 v n = w1 wn . . . ,
| {z } | {z }
=A =B n1 nn
| {z }
=Y IX
Y IX = B 1 A.
De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a conti-
nuacion.
Procedimiento 6.2. (Procedimiento para calcular la matriz del cambio de base) Sean X = {v1 , . . . , vn }
h i h i
y Y = {w1 , . . . , wn } bases para Rn y sean A = v1 vn y B = w1 wn entonces
206
h i
1. Aplicar reduccion Gauss-Jordan a la matriz aumentada B A hasta encontrar su forma escalonda reducida.
" #
1
2. Al final del paso 1. obtenemos I B | {z A} . Luego en la parte derecha de la matriz aumentada se obtiene la
Y IX
matriz de cambio de base Y IX .
1 1 2 1
Ejemplo 6.17. Considere las bases X = v1 = , v2 = y Y = w1 = , w2 = de R2 ,
1 1 1 0
1
calcular Y IX y vY si vX = .
1
h i 2 1 1 1
Al reducir la matriz w1 w2 v1 v2 = obtenemos la matriz
1 0 1 1
1 0 1 1 1 1
y por tanto Y IX =
0 1 3 1 3 1
0
Por el Teorema 6.7 tenemos que vY =Y IX vX = .
2
2
1 1
3
Ejemplo 6.18. (MatLab) Sean X y Y las bases de R definidas por X = v1 = 1 , v2 = 2 , v3 = 2
1 2 3
1 1 1
y Y = w1 = 2 , w2 = 1 , w3 = 1 . Calcular la matriz de cambio de base Y IX y calcular vY si v =
3 2 1
2v1 v2 + v3 .
Solucion. Por el procedimiento anterior la matriz de cambio de base es simplemente el producto de las matrices
h i h i
B 1 y A donde A = v1 v2 v3 y B = w1 w2 w3 . En MatLab hacemos lo siguiente:
>> A = [2 1 1; 1 2 2; 1 2 3]; B = [1 1 1; 2 1 1; 3 2 1]; yIx = inv(B) A
yIx =
1 1 3
1 5 8
2 5 4
1 1 3
Se sigue que la matriz de cambio de base esta dada por Y IX = 1 5 8 . Ahora, para el calculo de
2 5 4
2
vY , tenemos que vX = 1 y vY =Y IX vX , esto lo hacemos en MatLab como sigue:
1
>> vx = [2; 1; 1]; vy = yIx vx
vy =
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 207
6
15
5
Obtenemos que v = 6w1 + 15w2 5w3 .
1 1
(X I Y ) = A1 B = B 1 A =Y IX .
h i
2. Sea C = u1 un entonces por el Teorema 6.8 tenemos que Y IX = B 1 A, Z IY = C 1 B y
Z IX = C 1 A, entonces
Z IX = C 1 A = C 1 BB 1 A =Z IY Y IX .
1 1
Ejemplo 6.19. Sean E la base estandar de Rn y X = v1 = , v2 = . En el Ejemplo 6.14 obtuvimos
1 2
1 1
que la matriz de cambio de base E IX esta dado por E IX = . Por el Teorema anterior anterior tenemos
1 2
que la matriz de cambio de base X IE esta dada por
2 1
1 3 3
X IE = ( E IX ) = .
13 1
3
2 1 2 1
Ahora, sea Y = w1 = , w2 = . Se sigue que E IY = [ (w1 )E (w2 )E ] = [ w1 w2 ] = .
1 1 1 1
Por el teorema anterior obtenemos que
2 1
2 1 1 1
X IY = X IE E IY =
3 3 = .
13 31 1 1 1 0
2 2
Ejemplo
Sea T : R R
6.20. la transformacion
lineal
definida por T (x, y) = (2x + 2y, 2y) y sean
1 1 2 0
X = v1 = , v2 = y Y = w1 = , w2 = bases de R2 . Determine la matriz Y TX de T
1 1 1 1
con respecto a la bases X y Y .
Solucion. Notese que T (v1 ) = (4, 2) = 2w1 y T (v2 ) = (0, 2) = 2w2 , se sigue entonces que
2 0
Y TX = [ T (v1 )Y T (v2 )Y ] =
.
0 2
T (v)Y = Y TX v X .
Ademas tenemos que si existe una matriz A tal que V vX = T (v)Y para todo v Rn , entonces A = Y TX .
v = 1 v 1 + + n v n (6.11)
1
.
y se tiene que vX = .. . Como Y tambien es una base, para 1 i m, existen constantes 1i , . . . , mi tal
n
que
T (vi ) = 1i w1 + + mi wm , (6.12)
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 209
1i
.
luego T (vi )Y = .. y por tanto
mi
11 1n
h i
. .. ..
Y TX = T (v1 )Y T (vn )Y = .. . .
m1 mn
De las Ecuaciones (6.11) y (6.12) tenemos que
= 1 (11 w1 + + m1 wn ) + + n (1n w1 + + mn wn )
= (1 11 + + n 1n )w1 + + (1 m1 + + n mn )wn
Se sigue que
1 11 + + n 1n 11 1n 1
.. .. .. .. ..
T (v)Y = . = . . . = Y TX v X .
.
1 n1 + + n nn m1 mn n
| {z } | {z }
Y TX vX
n
Si A satisface que AvX = T (v)Y para todo v R , entonces para i = 1, . . . , n tenemos que T (vi )Y = A(vi )X =
Aei = i-esima columna de A. Se sigue que las columnas de A son T (v1 )Y , . . . , T (vn )Y y por tanto
A = [ T (v1 )Y T (vn )Y ] = Y TX .
mas aun
Y TX = B 1 E TE A.
= B 1 E TE A
210
Procedimiento 6.3. (Procedimiento para calcular Y TX ) Con Las mismas hipotesis del teorema anterior,
h
Despues se calcula la matriz escalonada reducida de la matriz [B | E TE A]. En MatLab lo calculamos como sigue:
>> C = [B, eT e A]; rref (C)
ans =
1 0 0 0 3 11 14
0 1 0 0 5 16 20
0 0 1 0 8 5 1
0 0 0 1 12 7 1
Notese que en la respuesta se tiene la matriz identidad en la parte izquierda y las tres ultimas columnas
coinciden con las columnas de la matriz Y TX calculada arriba.
Concluimos la seccion mostrando que las matrices de tranformaciones de Rn con respecto a bases distintas
son similares. Se muestra en realidad que dos matrices son similares si y solo si las transformaciones lineales
definidas por estas matrices estan relacionados por un cambio de base.
Corolario 6.12. Sea T : Rn Rn una transformacion lineal y sea X = {v1 , . . . , vn } una base para Rn .
Entonces las matrices X TX y E TE son similares. Mas aun si A, B Mn (R) son matrices similares y tomamos
la transformacion T : Rn Rn definida por T (v) = Av, entonces existe una base X de Rn tal que B = X TX .
Es decir, A y B son la matriz de la misma transformacion con respecto a bases diferentes.
h i
Demostracion. Sea A = v1 vn . Por el Teorema 6.11 tenemos que X TX = A1 E TE A, o equivalen-
temente
E TE = A X TX A1 ,
Como A y B son similares, existe una matriz invertible C tal que A = CBC 1 , o equivalentemente B =
C 1 AC. Sean v1 , . . . , vn las columnas de C, como C es invertible, tenemos que X = {v1 , . . . , vn } es LI y por
tanto una base para Rn .
Por el Teorema 6.11 tenemos que X TX = C 1 E TE C = C 1 AC = B. Concluimos que A = E TE y B = X TX
son ambas matrices de T con respecto a diferentes bases.
Problemas
6.3.2. Demuestre que si A y B son similares entonces det A = det B y traza(A) = traza(B). En el segundo
caso use el hecho que traza(AB) = traza(BA).
6.3.3. Sea T : Rn Rn una transformacion lineal y sean X y Y son bases de Rn , demuestre lo siguiente:
1. det X TX = det Y TY .
2. traza(X TX ) = traza(Y TY ).
6.3.6. Sea T : Rn Rn y supongamos que existe v R tal que {v, T (v), . . . , T n1 (v)} es una base de Rn y
0 0 0 0 a0
1 0 0 0 a1
0 1 0 0 a2
T n (v) = a0 v a1 T (v) an1 T n1 (v). Muestre que T =
... ... ... . . . ... ..
.
0 0 0 0 an2
0 0 0 1 an1
6.3.7. Sea T : V V una transformacion lineal y X una base de V , demuestre que T : V V es invertible
si y solo si la matriz X TX es invertible, para toda base X de Rn .
6.4. Diagonalizacion
En esta seccion se daran condiciones equivalentes a que una matriz sea diagonalizable, comenzamos con el
siguiente resultado.
Teorema 6.13. Sea A una matriz de tamano nn, entonces A es diagonalizable si y solo si
A tiene n vectores
1 0 0
0 2 . . . 0
propios linealmente independientes. En este caso A es similar a la matriz diagonal D = .
.. . .
..
.. . . .
0 0 n
donde 1 , . . . , n son los valores propios de A y si los correspondientes vectores propios son v1 , . . . , vn entonces
h i
A = CDC 1 con C = v1 vn .
Demostracion. Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una
matriz invertible C tal que A = CDC 1 . Sean c1 , . . . , cn las columnas de C y 1 , . . . , n las entradas en la
diagonal de D.
Afirmacion: Los vectores c1 , . . . , cn son vectores propios de A con valores propios 1 , . . . , n .
214
1
A=C X TX C . (6.13)
Ahora veamos que T es una matriz diagonal. Como T (vi ) = Avi = i vi = 0v1 + + i vi + + 0vn ,
X X
0
.
.
.
entonces T (vi )X = i , por tanto
.
..
0
1 0 0
h i 0 2 0
X TX = T (v1 ) T (vn ) =
T (v2 ) . (6.14)
.. .. .. ..
. . . .
0 0 n
De la Ecuacion (6.13) tenemos que A y X TX son similares y de la ecuacion (6.14), X TX es diagonal, por tanto
A es diagonalizable.
5 4 5 1
Ejemplo 6.23. La matriz A = tiene vectores propios v1 = y v2 = de valores propios 2 y
2 3 2 1
-1, respectivamente (ver Ejemplo 6.2.)
h i
Si tomamos la base X = {v1 , v2 } de R2 , formada por los valores propios de la matriz A, C = v1 v2 la
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 215
2 0
matriz de vectores propios y D = , entonces de acuerdo al Teorema 6.13 tenemos que
0 1
A = CDC 1 .
Esto lo podemos verificar de la siguiente manera. De acuerdo al Teorema 6.11 la matriz X AX de A con respecto
a la base X esta dada por:
1 1 1 4 5 5 1 2 0
X AX = C 1 AC = = = D,
3 2 5 2 3 2 1 0 1
Corolario 6.14. Si una matriz A de tamano nn tiene n valores propios distintos, entonces A es diagonalizable.
2 2 3
Ejemplo 6.25. (MatLab) La matriz A = 5 1 3 tiene tres valores propios diferentes, = 1, = 3
6 0 5
y = 2. Esto lo podemos verificar en MatLab como se muestra a continuacion
>> A = [2 2 3; 5 1 3; 6 0 5]; f actor(poly(sym(A)))
ans =
-1
216
3
2
1 0 0
Por tanto A es diagonalizable, de hecho A es similar a la matriz D = 0 3 0.
0 0 2
Teorema 6.15. Sea A una matriz de tamano nn, entonces A tiene n vectores propios linealmente indepen-
dientes si y solo si para cada valor propio , se tiene que
En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente
independientes.
Demostracion. Para comenzar la demostracion, supongamos que A tiene k valores propios distintos, 1 , . . . , k ,
con multiplicidades n1 , . . . , nk , respectivamente. Es decir, el polinomio caracterstico de A esta dado por pA () =
( 1 )n1 ( k )nk , con n = n1 + + nk .
Supongamos que A tiene n vectores propios linealmente independientes, sean v11 , . . . , v1m1 , . . . ,
vk1 , . . . , vkmk estos vectores con m1 + + mk = n y agrupados de tal forma que v11 , . . . , v1m1 tienen valor
propio 1 , v21 , . . . , v2m2 tienen valor propio 2 y, de manera inductiva, vk1 , . . . , vkmk tienen valor propio k .
Como para i = 1, . . . , k, multiplicidad geometrica de i multiplicidad algebraica de i , entonces mi ni ,
ahora si mi < ni para algun i = 1, . . . , k entonces tenemos que
n = m1 + + mk < n1 + + nk = n,
lo cual es imposible, por tanto para todo i = 1, . . . , k, mi = ni , es decir, para todo i = 1, . . . , k tenemos que
Supongamos que la multiplicidad geometrica de cada valor propio es igual a la multiplicidad algebraica,
entonces dim(Ej ) = nj , para 1 j k. Sean {v11 , . . . , v1n1 }, {v21 , . . . , v2n2 }, . . . ,
{vk1 , . . . , vknk } bases para E1 , E2 , . . . , Ek , respectivamente.
Veamos que los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , , vk1 , . . . , vknk son linealmente independientes.
Supongamos que
11 v11 + + 1n1 v1n1 + + k1 vk1 + + knk vknk = 0 (6.15)
y sean v1 = 11 v11 + + 1n1 v1n1 , . . . , vk = k1 vk1 + + knk vknk , entonces la ecuacion (6.15) se convierte
en
v1 + v2 + + vk = 0. (6.16)
Afirmacion: v1 = v2 = = vk = 0
Supongamos que algunos de los vj 6= 0, como vij Ei para 1 i k entonces tenemos que v1 E1 ,
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 217
v2 E2 , . . . , vk Ek , entonces los vectores de la lista v1 , . . . , vk que son no nulos, son vectores propios de
valores propios 1 , . . . , k , respectivamente. Como los valores propios 1 , . . . , k son distintos, entonces, por el
Teorema 6.4, los vectores no nulos de la lista v1 , . . . , vk son linealmente independientes, pero de la Ecuacion (6.16)
se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = = vk = 0,
y la afirmacion se cumple.
Luego para 1 j k tenemos que
pero como los vectores {vj1 , . . . , vjnj } son una base para Ej , entonces son linealmente independientes y por
tanto j1 = = jnj = 0. Como esto es para todo j = 1, . . . , k tenemos que
11 = = 1n1 = = k1 = = knk = 0.
Entonces los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1 , . . . , vknk son linealmente independientes y como to-
dos estos son vectores propios de A y n1 + + nk = n, entonces A tiene n vectores propios linealmente
independientes.
Corolario 6.16. Sea A una matriz A de tamano nn, entonces A es diagonalizable si y solo si para todo valor
propio de A se cumple que
Ejemplo
1. En el Ejemplo
6.26. 6.6 vimos que la matriz
3 1 0 0
1 3 0 0
A= tiene valores propios = 4, = 4 y = 2 y que las multiplicidades geometricas y
7 1 4 0
7 1 0 4
algebraicas eran a4 = g4 = 2, a4 = g4 = 1 y a2 = g2 = 1, entonces la matriz es diagonalizable.
3 2 1
2. En el Ejemplo 6.7 vimos que el unico valor propio de la matriz A = 1 6 1 es = 4 con multplicidad
1 2 3
algebraica a4 = 3 y geometrica g4 = 2, entonces por el corolario anterior A no es diagonalizable.
4 1 1
3. En el Ejemplo 6.8 vimos que el unico valor propio de la matriz A = 0 5 1 es = 4 con multiplicidad
1 0 3
algebraica es a4 = 3 y geometrica g4 = 1, por tanto A no es diagonalizable.
6.4.1. Para cada una de las matrices del problema 6.1.1 determine si es diagonalizable. En caso afirmativo,
encuentre las matrices C y D tal que A = CDC 1 .
218
1. Definimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las entradas de
A, estos es
a11 a1n
. .. ..
A = .. . .
am1 amn
t
2. La transpuesta hermitiana de A, denotada por AH , se define como AH = A .
Teorema 6.17. Sea A una matriz hermitiana de tamano nn entonces los valores propios de A son reales.
Esto es, si es un valor propio de A entonces R. En particular, si A una matriz simetrica con entradas
reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales.
t
Demostracion. Como A es hermitiana, entonces A = AH = A de donde At = A, entonces
t
v v = v t v = v t v Av = v t Av = v t AH v = v t A v = (Av)t v
= (Av)t v = (v)t v = v t v = v v.
Teorema 6.18. Sea A una matriz hermitiana de tamano nn y sean x y y vectores propios de valores propios
1 y 2 , respectivamente. Si 1 6= 2 entonces x y = 0, es decir, x y y son ortogonales. El teorema tambien se
cumple si A es una matriz simetrica con entradas reales.
Demostracion.
Teorema 6.19. (Teorema de los ejes principales) Sea F = xt Qx un forma cuadratica en n variables con Q una
matriz simetrica. Como Q es diagonalizable existen vectores propios v1 , . . . , vn de Q linealmente independientes.
Sean 1 , . . . , n los respectivos valores propios correspondientes a v1 , . . . , vn y sea X = {v1 , . . . , vn }, entonces
X es una base de Rn . Entonces bajo la base X, la forma cuadratica tiene la forma:
F = 1 y12 + + n yn2 .
220
Q = B 1 X QX B
t
= BX QX B (6.18)
Definamos y = Bx y sean y1 , . . . , yn las componentes de y, entonces de (6.18) tenemos que la forma cuadratica
tiene la forma
F = xt Qx = xt B t X QX Bx = (Bx)t X QX Bx = yt X QX y. (6.19)
Ademas notese que los ejes de esta forma cuadratica son los vectores de la base X, los cuales son perpendiculares.
Observacion 6.4. Una ecuacion de la forma F = c con F una forma cuadratica y c una constante es una
seccion conica.
El teorema de los ejes principales nos permite identificar la secciones conicas. Sea xt Qx = c una conica con
c > 0 constante y sean 1 , . . . , 2 los valores propios de Q, entonces tenemos lo siguiente:
Si Q es 2x2 y:
4. Si uno de los i es negativo y los otros positivos, entonces xt Qx = c es un hiperboloide de una hoja.
5. Si c = 0 y uno de los i es positivo y los otros negativos o dos positivos y uno negativo entonces xt Qx = c es
un cono.
Ahora consideremos la ecuacion z = xt Qx con z variable y Q de tamanno 2x2 con valores propios 1 y 2 .
Entonces tenemos lo siguiente
ans =
6
3
6
Por tanto la conica corresponde
a un elipsoide. Para calcular
los ejes coordenados,
calculamos los vectores
1 1 1
propios los cuales son v1 = 1 con valor propio 3 y v2 = 1 y v3 = 0 ambos de valor propio 6. Notese
1 0 1
que v2 y v3 no son ortogonales, pero estos forman una base para el subespacio propio E6 , entonces usando
1/2
Gramm-Schmidt, reemplazamos v3 por w3 = v3 proyv2 v3 = 1/2. Obtenemos que los ejes coordenados bajo
1
los cuales la grafica de xt Qx = 5 es un elipsoide son las lineas determinadas por los vectores:
1 1 1/2
v 1 = 1 , v2 = 1 y w3 = 1/2 .
1 0 1
1 5 1
1 1, determinar que tipo de conica corresponde a la ecuacion xt Qx = 5.
Ejemplo 6.34. Sea Q = 5
1 1 5
Solucion. Se puede ver que los valores propios de Q son = 3, 6 y 6. Por tanto la conica corresponde a un
hiperboloide de una hoja.
1 1/2
Es facil ver que los vectores propios de Q son v1 = 1 con valor propio 3, v2 = 1/2 de valor propio
1 1
1
6 y v3 = 1 de valor propio -6. De donde se sigue que la ecuacion de esta conica con respecto a la base
0
{v1 , v2 , v3 } es 3x2 + 6y 2 6z 2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es la
linea generada por el vector v3 .
Ejemplo 6.35. Determine el tipo de conica determinada por la cuadratica 2xy + 2xz + 2yz = 5.
0 1 1
Solucion. La matriz de la forma cuadratica es Q = 1 0 1 cuyos vectores propios ortogonales son v1 =
1 1 0
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 223
1 1/2 1
1 y v2 = 1/2 ambos de valor propio -1 y v3 = 1 de valor propio 2. Por tanto la ecuacion de esta
0 1 1
conica con respecto a la base {v1 , v2 , v3 } es x2 y 2 + 2z 2 = 5 cuya grafica corresponde a un paraboloide de
dos hojas cuyo eje central es la linea generada por el vector v3 .
6.7. Ejercicios
En los problemas 4-8 1 , 2 , . . . , n son los valores propios de una matriz A. Encuentre una matriz ortogonal
Q y una matriz diagonal D tal que A = QDQt si:
3 1 0 1 3 0
3 4 3 2
a. A = b. A = c. A = 1 3 0 d. A = 3 1 0
4 3 2 3
0 0 2 0 0 1
Para cada una de las matrices del problema anterior identifique el tipo de conica representada por la forma
cuadratica xt Ax = 4 y bosquejar su grafica. Para las matrices dadas en los Problemas 1a. y 1b. identifique el
tipo de superficie que que representa la ecuacion z = xt Ax con z variable. Para cada una de las matrices del
Problema
1 encuentre
una baseX de vectores propios
y encuentre
la matrizX
AX . Sean
1 0 1
1 0 1
X = x1 = 1 , x2 = 1 , x3 = 0 y Y = y1 = 1 , y2 = 1 , y3 = 0 bases de R3 .
0 1 2 0 1 1
Encuentre las matrices de cambio y X IY . Sea T : R3 R2 la transformacion lineal cuya matriz
de base Y IX
1 1 1
E TE esta dada por E TE = . Calcular la matriz Z TX de T con respecto a las bases
1 0 2
1 0 1
1 0
X = x1 = 1 , x2 = 1 , x3 = 0 de R3 y Z = z1 = , z2 = de R2 . Sea
1 1
0 1 2
1 1 0
T : R3 R3 la transformacion lineal cuya matriz E TE esta dada por E TE = 0 2 1. Calcular la
1 0 1
1 0 1
matriz X TX de T con respecto a la base X = x1 = 1 , x2 = 1 , x3 = 0 de R3 .
0 1 2
1. Mas Problemas.
7.
6.
5.
4.
3.
2.
1 0 1
8. Sea X = x1 = 1 , x2 = 1 , x3 = 0 una base de R3 , encontrar una base Y = {y1 , y2 , y3 } tal
0 1 2
224
1 0 1
que X IY = 1 1 0.
0 1 1
1 0 1
9. Repetir el problema anterior si en lugar de X IY se nos da Y IX
= 1 1 0 .
0 1 1
1 0
10. Sea T : R3 R2 una transformacion lineal y sea Z = z1 = , z2 = una base para R2 y X =
1 1
1 0 1
1 1 1
x1 = 1 , x2 = 1 , x3 = 0 una base para R3 . Si Z TX =
, calcular la matriz E TE .
0 2 1
0 1 2
x x + 2y 1 0
11. Sea T : R2 R2 definida por T = y sea Y = y1 = , y2 = una base de R2 .
y 2x + y 1 1
1 1
Calcular la base X tal que Y TX = .
0 2
2 1 1 1
12. Sea T : R2 R2 tal que E TE = . Demuestre que no existe una base X tal que X TX = .
1 1 0 1
Captulo 7
Aplicaciones
1
En esta seccion asumiremos
que A es una
matriz diagonalizabe con A = CDC donde C es la matriz de
1 0 0
0 2 0
vectores propios y D = .. .. . . .. con 1 , . . . , n los valores propios de A.
. . . .
0 0 n
Ak = Ak1 A = CDk1 |C 1 1
{z C} DC = CD
k1
DC 1 = CDk C 1 .
=I
k1 0 0
k2
0 0
Tambien se puede ver facilmente por induccion que Dk =
.. .. .. ..
. . . .
0 0 kn
2 1
Ejemplo 7.1. Calcule la k-esima potencia de la matriz A = .
1 2
1 1
Se puede ver que los vectores propios de A son v1 = de valor propio = 1 y v3 = de valor propio
1 1
= 3, entonces tenemos que
1
1 1 3 0 1 1
A=
1 1 0 1 1 1
Por tanto
k 1
1 k 1 k
1 1 3 0 1 1 1 1 3k 0 1 1 1 (3 + 1) 2 (3 1)
Ak = = = 2 .
1 1 0 1 1 1 1 1 0 1 2 1 1 1 k
2 (3 1)
1 k
2 (3 + 1)
225
226
Si se tiene una relacion de recurrencia determinada por una ecuacion de la forma an = an1 + an2 ,
entonces tenemos el sistema de ecuaciones
an = an1 + an2 , an an1
El cual es equivalente al sistema = ,
an1 = an1 , an1 1 0 an2
el cual es cierto para todo n. Si hacemos A = y si continuamos aplicando el sistema a los vectores
1 0
an1 an2
, , . . . , obtenemos
an2 an3
an a
= An1 1 . (7.1)
an1 a0
Si conocemos los valores de a1 y a0 , entonces con la Ecuacion (7.1) obtenemos
una formula para an en terminos
1 0
de los valores propios de A y n. Esto se da porque si A = C C 1 , con C la matriz de vectores propios
0 2
n1
1 0
y 1 y 2 los valores propios de A, entonces An1 = C C 1 .
n1
0 2
Ejemplo 7.2. (Sucecion de Fibonacci) La secuencia de Fibonacci satisface la relacion Fn = Fn1 + Fn2 ,
para n 2, con F0 = 0 y F1 = 1. Encuentre una formula para calcular el n-esimo termino
Fn .
Fn 1 1 Fn1
De acuerdo a las ecuaciones Fn = Fn1 +Fn2 y Fn1 = Fn1 , tenemos el sistema =
Fn1 1 0 Fn2
y por tanto
Fn F1 1 1
= An1 , con A = .
Fn1 F0 1 0
1
1
1 5 1 + 5
Los vectores propios de A son v1 = 2 con valor propio 1 = 1 (1 5) y v2 = 2 con
2
1 1
valor propio 1 = 12 (1 + 5).
1
1
1
1 5 1+ 5 1 5 0
Por tanto A = CDC 1 con C = 2 2 y D = 2 y de estos
1
1 1 0 2 1+ 5
obtenemos que
Fn F1 1
= An1 = CDn1 C 1
Fn1 F0 0
1
n1
1 5 0 1
=C 2 1
1
n1 C
0 2 1 5 0
n n
5
1 1
2 + 2 15 12 25
= 5 n1 n1
1 1 5 1 1 5
5 2
+ 2 5 2
2
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 227
n n
1 1 5 1 1 5
De esto concluimos que Fn = 5 2 + 2 5 2 2
Esta subseccion tambien se trata de una aplicacion de la potencia de matrices y lo expondremos con ejemplos.
Ejemplo 7.3. Dos companias A y B manipulan el mercado de celulares y se calcula que A tiene el 60 % de los
clientes, mientras que B maneja el 40 % del mercado. La compania A prepara una agresiva campana comercial
la cual, de acuerdo a un estudio de mercado, acarreara las siguientes consecuencias:
El 90 % de los clientes de A permanceran con A y el resto se ira a B
El 30 % de los clientes de B se cambiaran a A y el resto permanecera con B.
Determine los porcentajes de clientes de A y B si se aplica la campana 1 vez, 10 veces, k veces e indefinida-
mente.
Si Xk y Yk es el porcentaje de clientes de A y B respectivamente despues de aplicar la campana k veces
entonces tenemos que
Xk = 0,9Xk1 + 0,3Yk1 Xk 0,9 0,3 Xk1
equivalentemente = .
Yk = 0,1Xk1 + 0,7Yk1 Yk 0,1 0,7 Yk1
1
Por tanto el porcentaje de clientes de A despues de aplicar la campana k veces sera el 4 3 0,6k+1 % y el de
B sera 41 1 + 0,6k+1
Esto indica que si se aplica la campana indefinidamente el maximo porcentaje de clientes que obtiene A es
1 1
X = lm 3 0,6k+1 = 0,75 % y el mnimo porcentaje al que B llegara es Y = lm 3 + 0,6k+1 =
k 4 k 4
0,25 %.
Comparando este ultimo resultado con el obtenido al aplicar la campana 10 veces obtenemos que es suficiente
con aplicar esta alrededor de 10 veces para obener un buen beneficio para la compania.
k1 0 0 k1 0 0
k2 k2
X 1 k X 1 0 0
X 1 0 0
eD = D =
. .. ..
=
..
. .. .. ..
k! k! .. . . k=0 k! ..
. . . .
k=0 k=0
0 0 kn 0 0 kn
X 1
k1 0 0
k=0 k!
e 1
0 0
X 1 k
0 2 0
0 e 2 0
= k! =
k=0 .. .. .. ..
.. .. .. .. . . . .
. . . .
X 1 0 0 e n
k
0 0 n
k!
k=0
Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 229
x1 a11 a1n
. . .. ..
el cual tambien, por simplicidad, escribiremos X = AX con X = .. y A = ..
. . .
xn an1 ann
Si A es diagonalizable con A = CDC 1 entonces el sistema tenemos que
donde Y = C 1 X y por tanto Y = C 1 Y . Si denotamos por y1 , . . . , yn las coordenadas del vector Y , entonces
la ecuacion Y = DY produce el sistema de ecuaciones
y1 = 1 y1 , ..., yn = n yn
x1 = c1 e3t + c2 et y x2 = c1 e3t c2 et
con c1 y c2 constantes.