Anda di halaman 1dari 64

TEMA I

ESPACIOS VECTORIALES. MATRICES Y

DIAGONALIZACIN.

1
Leccin 1

SISTEMAS DE ECUACIONES LINEALES: EL MTODO DE

GAUSS.

1.1 Ecuacin lineal


Ecuacin lineal.- (lineal signica proporcional)
8 es una ecuacin del tipo siguiente:
>
> a coecientes
>
< i
a1 x 1 + a2 x 2 + + an xn = b donde: b trmino independiente tal que ai y
>
>
>
: x incgnitas o indeterminadas
i
b son escalares de un cuerpo K.
Los escalares son elementos de un cuerpo, que en nuestro caso sern normalmente
nmeros reales (R) o nmeros complejos (C).
Decimos que los escalares ( 1; 2 ; ::::; n) forman una solucin de la ecuacin si al
sustituir x1 = 1 ; x2 = 2 ; :::; xn = n, la satisfacen.
La expresin de la ecuacin la podemos sustituir por un signo sumatorio:

X
n
ai xi = b; donde i ndice mudo
i=1

Ejemplo: 2x + 3y = 5 es una ecuacin lineal y (1; 1) es una solucin, ya que, si


x = 1 ^ y = 1 =) 2:1 + 3:1 = 5
Si en la ecuacin anterior ocurre que b = 0, entonces se dice que es una ecuacin
homognea.

2
1.2 Sistema de m ecuaciones lineales con n incgnitas
Es de la forma: 9
a11 x1 + a12 x2 + + a1n xn = b1 >
>
>
>
>
>
a21 x1 + a22 x2 + + a2n xn = b2 =
.. tal que
. >
>
>
>
>
>
am1 x1 + am2 x2 + + amn xn = bm ;

8
>
> a coecientes del sistema
>
< ij
bi trmino independiente tal que aij y bj son escalares de un cuerpo K
>
>
>
: x
j incgnitas o indeterminadas

Decimos que el conjunto de escalares ( 1; 2; : : : ; n) es una solucin del sistema si


al sustituir x1 = 1 ; x2 = 2 ; : : : ; xn = n se satisfacen todas y cada una de la ecuaciones.

CLASIFICACIN DE LOS SISTEMAS DE ECUACIONES


COMPATIBLES DETERMINADOS Si tienen solucin nica

COMPATIBLES INDETERMINADOS Si tienen innitas soluciones

INCOMPATIBLES ......... Si no tienen solucin

Como hicimos anteriormente, podemos expresar los sistemas de ecuaciones con un


signo sumatorio:

X
n
aij xj = bi ; i = f1; 2; : : : ; mg
j=1

se dice que j es un ndice mudo y que i es un ndice libre.


Ejemplos.
9
x y= 1 = x=1
1. =) tenemos solucin nica y por tanto un sistema com-
2x + y = 4 ; y=2
patible determinado (S.C.D.)
9
x y= 1 > >
>
=
2. 2x + y = 4 =) no tiene solucin, por tanto sistema incompatible.
>
>
>
x y=3 ;

3
1.3 Expresin matricial de un sistema de ecuaciones
Nosotros conocemos un sistema de ecuaciones si conocemos todos los coecientes y sus
trminos independientes con su posicin relativa, es decir, a23 es coeciente de la incgnita
x3 en la 2a ecuacin y b4 es el trmino independiente de la 4a , as, podemos expresar los
coecientes en la matriz de m las y n columnas siguiente:
0 1
a11 a12 a1n
B C
B C
B a21 a22 a2n C
B
A=B . C
. .. ... .. C
B . . . C
@ A
am1 am2 amn

A esta matriz se le denomina, matriz de los coecientes del sistema. Si a esta matriz
le adjuntamos una columna con los trminos independientes, tenemos lo que se conoce
como matriz ampliada, as:
0 1 0 1 0 1
a a12 a1n b1 x b
B 11 C B 1 C B 1 C
B C B C B C
B a21 a22 a2n b2 C B x2 C B b2 C
A=B
B .. .. .. ..
C B C B C
.. C y si X = B .. C B = B .. C
B . . . . . C B . C B . C
@ A @ A @ A
am1 am2 amn bm xn bm
De esta manera tenemos la ecuacin matricial de un sistema de ecuaciones: AX = B:
Denicin.- Dos sitemas de ecuaciones lineales se dice que son equivalentes, si tiene
las mismas soluciones.

1.4 Sistemas homogneos


Si tenemos un sistema de ecuaciones lineales tal que 8i 2 f1; 2; : : : ; mg se verica que
bi = 0, decimos que tenemos un sistema homogneo. Estos, son siempre compatibles,
pues tienen al menos la solucin (0; 0; : : : ; 0) conocida como solucin trivial.
Si tiene una solucin distinta de la trivial, entonces tenemos un sistema compatible
indeterminado, es decir, con innitas soluciones.
En un sistema homogneo, la combinacin lineal de soluciones (la suma de distintas
soluciones multiplicada cada una por un escalar) es tambin solucin del sistema, as:
Xn
Sea aij xj = 0 ; i = f1; 2; : : : ; mg un sistema homogneo tal que ( 1 ; 2 ; : : : ; n ),
j=1
4
X
n X
n
( 1; 2; : : : ; n) son soluciones , es decir, que aij j = 0; aij j = 0 ; i = f1; 2; : : : ; mg
j=1 j=1
entonces:
( 1; 2; : : : ; n) + ( 1; 2; : : : ; n) =

( 1 + 1; 2 + 2; : : : ; n + n) =( j + j )j=1;:::;n

por lo que sustituyendo en la ecuacin tenemos que:


X
n X
n X
n
aij xj = aij ( j + j) = aij j + aij j =
j=1 j=1 j=1

X
n X
n
aij j + aij j = :0 + :0 = 0
j=1 j=1

con lo que probramos que es solucin del sistema.

1.5 Sistemas equivalentes y operaciones elementales


Dos sistemas de ecuaciones lineales se dice que son equivalentes si tienen las mismas
soluiciones. Llamamos operaciones elementales a las siguientes manipulaciones de un
sistema:
1.- Intercambiar el orden de dos ecuaciones en el sitema.
2.- Multiplicar cualquier ecuacin del sistema por un escalar no nulo.
3.- Sumar a una ecuacin otra multiplicada por un escalar o una comnbinacin lineal
de ellas.
TEOREMA: Si a un sistema de ecuaciones lineales se le aplica una o varias opera-
ciones elementales, el sistema resultante es equivalente al primero.
Por tanto, si tenemos un sistema de ecuaciones, para su resolucin intentaremos, a
travs de operaciones elementales, obtener un sistema equivalente de ms facil obtencin
de la solucin.
Ejemplo. Sea el siguiente sistema:

9 9
x + y + 2z = 9 >
>
> 1a = 1a x + y + 2z = 9 >
>
> 1a = 1a
= =
3x + 6y 5z = 0 2a = 2a 3:1a 3y 11z = 27 2a = 2a
>
> >
>
> >
2x + 4y 3z = 1 ; 3a = 3a 2:1a 2y 7z = 17 ; 3a = 3:3a

5
9 9
x + y + 2z = 9 >
>
> 1a = 1a x + y + 2z = 9 >
>
>
= =
3y 11z = 27 2a = 2a 3y 11z = 27
>
> >
>
> >
6y 21z = 51 ; 3a = 3a 2:2a z=3 ;

Con lo cual ya obtenemos la solucin en la variable z y despus con la 2a ecuacin


obtenemos la y y con la 1a obtenemos la x.
Enfoque matricial: trasladando esto que hemos hecho a la matriz del sistema, obten-
dramos el mismo resultado, es decir:

0 1 0 1 0 1
1 1 2 9 1 1 2 9 1 1 2 9
B C B C B C
B C B C B C
B 3 6 5 0 C B 0 3 11 27 C B 0 3 11 27 C
@ A @ A @ A
2 4 3 1 0 2 7 17 0 6 21 51
0 1
1 1 2 9
B C
B C
B 0 3 11 27 C
@ A
0 0 1 3
as podemos trasladar las deniciones de operaciones elementales en sistemas de ecuaciones
por operaciones elementales en matrices, cambiando la manipulacin de las ecuaciones por
la manipulacin de las las de la matriz que representa al sistema de ecuaciones lineales.

1.6 El mtodo de Gauss


Empezaremos por denir lo que son matrices escalonadas, que son aquellas en las que cada
una de las las a partir de la segunda comienza con una sucesin de ceros (cero elemento
nulo del cuerpo) con al menos un cero ms que la la anterior. Las las formadas slo
por ceros sern las ltimas de la matriz. En aquellas las no totalmente nulas, el primer
elemento no nulo es un 1 (esta condicin no es imprescindible). A este elemento se le
llama cabecera de la.
Si adems en las columnas en las que estan situadas las cabeceras de las, el resto de
los elementos son nulos, entonces se dice que tenemos un matriz escalanoda reducida.
Ejemplos:

6
Matriz Escalonada Matriz Escalonada Reducida
0 1 0 1
1 2 3 4 5 6 1 2 0 0 0 6
B C B C
B C B C
B 0 0 1 3 4 6 C B 0 0 1 0 0 6 C
B C B C
B C B C
B 0 0 0 1 0 1 C B 0 0 0 1 0 1 C
B C B C
B C B C
B 0 0 0 0 1 3 C B 0 0 0 0 1 3 C
@ A @ A
0 0 0 0 0 0 0 0 0 0 0 0
Denicin: Un sistema de ecuaciones lineales se dice que es un sistema escalonado
si su matriz de coecientes es escalonada. (Anlogamente, se didne sistema escalonado
reducido)
Proposicin: Dado un sistema de ecuaciones lineales, siempre existe un sistema escalon-
ado equivalente. De la misma manera existe el escalonado reducido equivalente.
Denicin del mtodo de Gauss: Dado un sistema de ecuaciones lineales, aplicar el
mtodo de Gauss es conseguir a travs de operaciones elementales el sistema escalonado
o escalonado reducido equivalente.

1.6.1 Discusin de los sistemas escalonados

Dado un sistema al que le hemos aplicado el mtodo de Gauss, y por lo tanto hemos
obtenido el escalonado equivalente, este ser de la forma siguiente:

0 1
1 1 b1
B C
B C
2 B 0 1 b2 C m =no de ecuaciones
B C
B C
3 B 0 0 0 1 b3 C n =no de incgnitas
B C
.. B .. .. .. .. .. .. .. .. C
. B . . . . . . . . C r =no de las donde hay
B C
B C
r B 0 0 0 0 0 br C coecientes no nulos
B C
B C
r+1 B 0 0 0 0 0 0 br+1 C m r =no de las donde todos
B C
.. B .. .. .. .. .. . . .. .. C
. B . . . . . . . . C los coecientes son nulos
@ A
m 0 0 0 0 0 0 bm
ENTONCES:
1.- El sistema es compatible () 8i 2 fr + 1; : : : ; mg se verica que bi = 0. Si adems,
se verica:
a.- que r = n =) el sistema es compatible determinado, es decir, solucin
nica.
7
b.- que r < n =) el sistema es compatible indeterminado, es decir, innitas
soluciones.
2.- El sistema es incompatible () 9i 2 fr + 1; : : : ; mg tal que bi 6= 0.
Ejemplo:

9 0 1 2a =2a 1a 0 12 a = 1
2a
3a =3a +2 1a
x+y+z =6 >
2
>
> 1 1 1 6 1 1 1 6
= B C B C
B C B C
x+y z =0 B 1 1 1 0 C B 0 0 2 6 C
>
> @ A @ A
>
2x 2y = 1 ; 2 2 0 1 0 0 2 13

0 13a =3a 2 2a 0 1
1 1 1 6 1 1 1 6 como tenemos la 3a la de
B C B C
B C B C
B 0 0 1 3 C B 0 0 1 3 C coecientes nulosy b3 = 7 6= 0
@ A @ A
0 0 2 13 0 0 0 7 =) el sistema es incompatible

1.6.2 Denicin de rango y grados de libertad

Si tenemos un sistema de ecuaciones lineales compatible, despus de aplicar Gauss obten-


emos un sistema escalonado reducido en el que podemos reordenar sus incgnitas de tal
manera que podemos obtener el sistema equivalente siguiente:
9
x1 = h1 (c1r+1 xr+1 + + c1n xn ) >
>
>
>
>
>
x2 = h2 (c2r+1 xr+1 + + c2n xn ) =
.. r ecuaciones
. >
>
>
>
>
>
xr = hr (crr+1 xr+1 + + crn xn ) ;
9
0=0 > >
>
=
..
. m r ecuaciones
>
>
>
0=0 ;
Es decir, obtenemos la solucin de la incgnitas (x1 ; x2 ; : : : ; xr ) en funcin de las
incgnitas (xr+1 ; xr+2 ; : : : ; xn ), con lo que segn los valores que elijamos para cada una de
las variables (xr+1 ; xr+2 ; : : : ; xn ) obtenemos soluciones distintas de (x1 ; x2 ; : : : ; xr ):
Entonces se dice que el sistema de ecuaciones tiene n r grados de libertad. Y a valor
r, es decir, el no de ecuaciones efectivas, lo denimos como rango del sistema.
Ejemplo:

8
9 0 1
x + 3z v = 2 >
>
> 1 0 3 0 1 2 r = 3 < 5 = n,
= B C
B C
y + 5z = 7 B 0 1 5 0 0 7 C =) compatible indeterminado
>
> @ A
>
u + 2v = 1 ; 0 0 0 1 2 1 con dos grados de libertad
9
x = 2 3z + v > >
>
=
si reordenamos el sistema, obtenemos y = 7 5z , si ahora hacemos, z =
>
>
>
u = 1 2v ;
8
>
> x=2 3 +
>
>
>
>
>
> y=7 5
>
<
y v = obtenemos que: z= , es decir, que para cada valor de y
>
>
>
>
>
> u= 1 2
>
>
>
: v=
obtenemos una solucin distinta del sistema.

9
Leccin 2
RANGO DE VECTORES Y MATRICES

2.1 El espacio vectorial |n


Sea | cuerpo (normalmente | = R o tambin | = C) a cuyos elementos llamaremos
escalares. Entonces llamamos vectores de n componentes del cuerpo | a los sistemas
ordenados de n escalares de |, que los expresaremos como u = (u1 ; u2 ; : : : ; un ), tal que
verican las siguientes propiedades:

u = v, es decir (u1 ; u2 ; : : : ; un ) = (v1 ; v2 ; : : : ; vn ) () ui = vi ; 8i y adems:


u + v = (u1 + v1 ; u2 + v2 ; : : : ; un + vn ) suma de vectores
:u = ( u1 ; u2 ; : : : ; un ) producto por un escalar

2.1.1 Propiedades de las operaciones

Si u; v; w 2 |n y ; 2 |, entonces se verica que:


la suma de vectores cumple las siguientes propiedades:
1.- Asociativa: (u + v) + w = u + (v + w)
2.- Conmutativa: u + v = v + u
3.- Existe elemento neutro: 90 = (0; 0; : : : ; 0) 2 |n tal que u + 0 = u al que llamamos
vector nulo
4.- Existe inverso o opuesto: 8u 2 |n ; 9 u 2 |n , tal que u + ( u) = 0
el producto de un escalar por un vector cumple las siguientes propiedades:
5.- Distributiva 1: :(u + v) = :u + :v
6.- Distributiva 2: ( + ):u = :u + :u
7.- Asociativa de los escalares: :( :u) = ( ):u

10
8.- Elemento neutro: 8u 2 |n , se verica que 1:u = u, donde 1 es el neutro del cuerpo
para la segunda operacin.

Al conjunto |n con las operaciones suma de vectores y producto de un escalar por


un vector y que cumplen las propiedades que acabamos de ver se dice que es un espacio
vectorial sobre el cuerpo |. Y lo expresamos (|n (|); +; :).

2.1.2 Propiedades deducidas

Slo vamos a destacar las que ms nos interesa en estos momentos:


a) 0:u = 0 ^ :0 = 0
b) :u = 0 ) [ = 0 _ u = 0]
c) ( ):u = :( u) = ( :u)

2.2 Combinaciones lineales. Dependencia e indepen-


dencia lineal
Sean v; u1 ; u2 ; : : : ; up 2 |n . Se dice que v depende linealmente de fu1 ; u2 ; : : : ; up g, o bien,
que v es combinacin lineal de fu1 ; u2 ; : : : ; up g () 9x1 ; x2 ; : : : ; xp , escalares del cuepo |,
tal que v = x1 u1 + x2 u2 + + x p up .
Sea S = fu1 ; u2 ; : : : ; up g |n un sistema de vectores, entonces se dice uqe S es un
sitema ligado o linealmente dependiente si y slo si verica una de las dos condiciones
siguientes:
1.- Existe al menos un vector de S que depende linealmente de los dems.
2.- Existe un conjunto de escalares f 1 ; 2; : : : ; pg no todos nulos, es decir, 9 i 6= 0,
tal que 1 u1 + 2 u2 + + p up = 0. Dicho de otra manera, el conjunto de vectores es
linealmente dependiente si podemos poner el vector nulo como combinacin lineal de los
vectores de S sin ser todos los escalares nulos.
Contradiciendo la denicin de dependencia lineal, denimos la independencia lineal,
as, se dice que un conjunto o sistema de vectores es linealmente independiente o libre si
no es linealmente dependiente, o lo que es lo mismo, un sistema de vectores es linealmente
independiente o libre si y slo si para poner el vector nulo como combinacin lineal de ellos,

11
necesitamos que todos los escalares sean nulos. Expresado de otra forma, S es linealmente
independiente (l.i.) () [f8 i tal que 1 u1 + 2 u2 + + p up = 0g =) i = 0; 8i]
Vamos a ver que comprobar la dependencia o independencia lineal de un sistema de
vectores equivale a la resolucin de un sistema de ecuaciones homogneo:
Sea S = fu1 = (u11; u21 ; : : : ; un1 ); u2 = (u12; u22 ; : : : ; un2 ); : : : ; up = (u1p; u2p ; : : : ; unp )g,
ahora hemos de ver si la combinacin lineal con la que generamos el vector nulo necesita
que todos los escalares sean nulos o no, as:
2 3 2 3 2 3 2 3
u u u1p 0
6 11 7 6 12 7 6 7 6 7
6 7 6 7 6 7 6 7
6 u21 7 6 u22 7 6 u2p 7 6 0 7
6 7 6 7 +6 7 xp = 6 7 )
6 .. 7 x1 + 6 .. 7 x2 + 6 .. 7 6 .. 7
6 . 7 6 . 7 6 . 7 6 . 7
4 5 4 5 4 5 4 5
un1 un2 unp 0
9
x1 u11 + x2 u12 + + xp u1p = 0 >
>
>
>
>
>
x1 u21 + x2 u22 + + xp u2p = 0 =
.. >
. >
>
>
>
>
x1 un1 + x2 un2 + + xp unp = 0 ;
en denitiva tenemos un sistema homogneo de n ecuaciones con p incgnitas que
son los escalares. As, si slo tiene la solucin trivial, es decir, todos nulos, el sistema es
linealmente independiente, y si admite soluciones distintas de la trivial, es decir, alguna
incgnita distinta de cero, entonces el sistema es linealmente dependiente.

2.3 Teorema de existencia del rango


Sea S = fu1 ; u2 ; : : : ; up g |n un sistema de p vectores, no todos nulos )
1.- 9S0 S tal que S0 es un sitema linealmente independiente o libre y todo vector
que pertenece a S y no a S0 depende linealmente de S0 , es decir, se puede poner como
combinacin lineal de los vectores de S0 .
2.- Todos los sistemas S0 que verican lo anterior tiene el mismo nmero de vectores.
A este nmero lo llamamos rango del sistema de vectores.
Este nmero lo calculamos, segn vimos, estudiando el rango del sistema homogneo
correspondiente. Por tanto, el rango no se altera si realizamos operaciones elementales
con los vectores del sistema.
Ejemplo: En |5 sean el conjunto de vectores S = fu1 = (1; 3; 2; 1; 4); u2 = (1; 4; 1; 1; 3);
12
u3 = (2; 5; 5; 1; 7); u4 = (2; 4; 5; 1; 8); u5 = (3; 8; 7; 0; 11)g ahora establecemos la ma-
triz del sistema homogneo correspondiente y a continuacin hacemos las operaciones
elementales para obtener es sistema escalonado equivalente y as poder saber el rango del
conjunto de vectores.

2a =2a 3 1a a a 2a
0 13aa =3aa2 1a 0 143a =4
=3 +1
a 2 2a
4 =4 +1 1a 5a =5a +1 2a
1 1 2 2 3 a a
5 =5 4 1a 1 1 2 2 3
B C B C
B C B C
B 3 4 5 4 8 C B 0 1 1 2 1 C
B C B C
B C B C
A=B 2 1 5 5 7 C B 0 1 1 1 1 C
B C B C
B C B C
B 1 1 1 1 0 C B 0 2 3 1 3 C
@ A @ A
4 3 7 8 11 0 1 1 0 1

a 1
5a
0 134a== 2
1 3a
0 15a =5a 5 3a
1 1 2 2 3 5a =4a 1 1 2 2 3
B C B C
B C B C
B 0 1 1 2 1 C B 0 1 1 2 1 C
B C B C
B C B C
B 0 0 0 1 0 C B 0 0 1 1 1 C
B C B C
B C B C
B 0 0 5 5 5 C B 0 0 0 1 0 C
@ A @ A
0 0 2 2 2 0 0 5 5 5
0 1
1 1 2 2 3
B C
B C
B 0 1 1 2 1 C
B C
B C
B 0 0 1 1 1 C
B C
B C
B 0 0 0 1 0 C
@ A
0 0 0 0 0
por lo tanto el rango del sistema es 4, por lo que el rango del sistema de vectores
tambin es 4, y as el sistema de vectores el linealmente dependiente.
Por analoga, se dene el rango de una matriz, como el rango que tiene el sistema de
vectores formados por sus columnas o por sus las, es decir, el rango es el mismo si lo
calculamos por las que por columnas. Por todo esto podemos calcular el rango de una
matriz escalonndola a travs de operaciones elementales.

13
Leccin 3
OPERACIONES CON MATRICES. MATRIZ INVERSA.
DETERMINANTE

3.1 Denicin de matriz


Se llama matriz de orden m n sobre el cuerpo |(R o C) a toda tabla rectangular A
formada por m n escalares del cuepo |, dispuestos en m las y n columnas, es decir:
0 1
a a12 a1n
B 11 C
B C
B a21 a22 a2n C
A=B
B .. .. ... ..
C = (aij )
C m n = [aij ]
B . . . C
@ A
am1 am2 amn
Para ver si dos matrices son iguales, en primer lugar tienen que ser del mismo orden,
as, Am n = Bm n () 8i; j : aij = bij , ahora vamos a denir una serie de matrices
particulares:
Am n es una matriz cuadrada , m = n, adems si:
- Si 8i > j : aij = 0 ) A es una matriz triangular superior
- Si 8i < j : aij = 0 ) A es una matriz triangular inferior
- Si 8i 6= j : aij = 0 ) A es una matriz diagonal, si adems:
a11 = a22 = = ann = ) A es un matriz escalar
a11 = a22 = = ann = 1 ) A es la matriz unitaria o identidad
Am n es una matriz la () m = 1
Am n es una matriz la () n = 1
Am n es una matriz simtrica () Es cuadrada y 8i; j : aij = aji
Am n es una matriz antisimtrica () Es cuadrada y 8i; j : aij = aji
14
Por ltimo vamos a denir la suma de matrices del mismo orden y producto de una
matriz por un escalar:
Si A y B son dos matrices de orden m n, entonces:

A + B = C , 8i; j : cij = aij + bij

Si A es una matriz de orden m ny es un escalar entonces:

A = C , 8i; j : cij = aij

De esta manera el conjunto de la matrices de orden m n con las operacioes suma de


matrices y producto por un escalar es un espacio vectorial, y lo expresamos (Mm n (|); +; ).

3.2 Producto de matrices


Sean Am p = (aij )m p y Bp n = (bij )p n entonces podemos denir el producto de A por
B, de tal forma que Cm n = Am p Bp n () 8i; j : cij = ai1 :b1j + ai2 :b2j + + aip :bpj =
Pp
aik :bkj . Es decir, el elemento ij de la matriz producto se obtiene multiplicando los
k=1
elementos correspondientes de la la i de la matriz A con los elementos de la columna j
de la matriz B.
As podemos destacar que en el producto de una matriz la por una matriz se obtiene
una matriz la, de una matriz por una matriz columna se obtiene una matriz columna y
de una matriz por una matriz escalar se obtiene una matriz donde sus elementos son los
de la primera matriz multiplicado por el escalar.

3.2.1 Propiedades

Asociativa: A:(B:C)
8 = (A:B):C
< (A + B):C = A:C + B:C
Distributiva:
: C:(A + B) = C:A + C:B
0 1
1 0 0 0
B C 8
B .. C < A:I = A
B 0 1 . 0 C
Matriz Unitaria: Si I = B
B . .
C =)
C
B 0 .. .. 0 C : I:B = B
@ A
0 0 0 1

15
En general el producto de matrices no es conmutativo (A:B 6= B:A) y adems tiene
divisores de cero, es decir, que puede ocurrir que A:B = O siendo A 6= O y B 6= O donde
O es la matriz nula.
Ejemplo:
0 1
2 1 3
0 1 B C 0 1
B C
1 0 2 1 B 2 1 7 C 0 0 0
@ A B C=@ A
B C
3 1 0 2 B 1 0 1 C 0 0 0
@ A
4 1 1

3.3 Matriz traspuesta


Sea A una matriz de orden m n, se dice que Atn m es traspuesta de A , 8ij : atij = aji ,
es decir, es la matriz que resulta al intercambiar las las por las columnas de una matriz
dada.

3.3.1 Propiedades

1.- (At )t = A
2.- (A + B)t = At + B t
3.- ( :A)t = :At
4.- Si Am p y Bp n ) (A:B)t = B t :At
5.- A es simtrica , A = At
6.- A es antisimtrica , A = At

3.4 Relacin entre las operaciones elementales y el


producto de matrices
Las matrices elementales son un tipo especial de matrices, las cuales al multiplicar una
matriz dada por la derecha o izquierda (por detrs o por delante), produce una operacin
elemental a sus columnas o las respectivamente. Hay tres tipos de estas metrices que
vamos a procedera describir.

16
3.4.1 Matriz elemental de primer gnero, Di (a)

Es una matriz diagonal en la que todos sus elementos de la diagonal principal son unos,
excepto el del lugar i-simo que es a 2 | f0g, es decir, un elemento del cuerpo distinto
de cero:
0 1
1 0 0
B C
B C
B 0 1 0 0 C
B C
B .. . . ... ... .. C
B . . . C
Di (a) = B
B .. .. . . ..
C
C
B . . a . . C la i
B C
B .. .. .. C
B . . . 0 C
@ A
0 0 1
Su matriz inversa es Di (a 1 ), es decir, es una matriz del mismo tipo.
Cuando a una matriz dada la multiplicamos por la derecha (por detrs) o por la
izquierda (por delante) por una matriz de este tipo, resulta que A:Di (a) es una matriz
con todas las columnas iguales a las de A, salvo la i-sima que es la de A multiplicada por
a. Y Di (a):A resulta una matriz con todas las las iguales a las de A, excepto la i-sima
que es la de A multiplicada por a.

3.4.2 Matriz elemental de segundo gnero, Pij

Consiste en una matriz cuadrada cuyos elementos de la diagonal principal son todos unos,
salvo los de los lugares i-simo y j-simo que son ceros, en cambio los de los lugares ij y
ji son unos, y el resto de los lementos de la matriz son todos nulos.
Su matriz inversa es ella misma.
Cuando a una matriz dada la multiplicamos por la derecha (por detrs) o por la
izquierda (por delante) por una matriz de este tipo, resulta que A:P ij es una matriz
con todas las columnas iguales a las de A, salvo la i-sima y la j-sima que resultan
intercambiadas. Y P ij:A resulta una matriz con todas las las iguales a las de A, excepto
la i-sima y la j-sima que resultan intercambiadas.

17
0 1
1 0 0
B C
B ... .. C
B 0 1 . C
B C
B .. . . C
B . . 0 0 0 1 C la i
B C
B .. C
B 0 1 . 0 C
B C
B .. .. .. .. .. C
Pij = B . . . . . C
B C
B ... C
B 0 1 0 C
B C
B . . . .. C
B 1 0 0 0 . C la j
B C
B .. .. C
B . . 1 0 C
@ A
0 0 1
" "
i j

3.4.3 Matriz elemental de tercer gnero, Sij (a)

Es una matriz cuadrada en la que todos los elementos de la diagonal principalson unos y
el resto son todos ceros excepto el del lugar ij que es a 2 | f0g, es decir, un lemeneto
distinto de cero:
0 1
1 0 0
B C
B . ... .. C
B 0 .. . C
B C
B .. . . C
B . . 1 a C la i
B C
B .. C
Sij (a) = B . C
B C
B . . . .. C
B 1 . C
B C
B .. .. .. C
B . . . 0 C
@ A
0 0 1
"

Su matriz inversa es Sij ( a), es decir, es una matriz del mismo tipo.
Cuando a una matriz dada la multiplicamos por la derecha (por detrs) o por la
izquierda (por delante) por una matriz de este tipo, resulta que A:Sij (a) es una matriz
con todas las columnas iguales a las de A, salvo la j-sima que es el resultado de sumarle
a ella misma la columna i-sima multiplicada por a. Y Sij (a) :A resulta una matriz con
18
todas las las iguales a las de A, excepto la i-sima que es el resultado de sumarle a ella
misma la la j-sima multiplicada por a.

3.5 Matriz inversa

3.5.1 Denicin y propiedades


1
Sea A una matriz cuadrada de orden n. Se dice que A inversible , 9A matriz cuadrada
1
de orden n tal que A:A = A 1 :A = I, matriz unitaria o identidad de orden n. A la
1
matriz A se le llama matriz inversa de A.

Propiedades

1.- La matiz inversa de una dada es nica.


1
2.- Si A y B tienen inversa ) (A:B) = B 1 :A 1

1 t
3.- Si A tiene inversa ) (At ) = (A 1 )

Otras propiedades: Si A tiene una la o columna de ceros ) A no es inversible, ya


que 8B : A:B 6= I.

3.5.2 Inversin de matrices por matrices elementales

Sea A una matriz cuadrada de orden n inversible. La podremos reducir a la matriz unitaria
despus de una serie de productos a la izquierda por matrices elementales (anlogamente
se pueden hacer los productos por la derecha). Sea Ei una de dichas matrices elementales,
entonces estamos suponiendo que E1 :A = A1 , E2 :A1 = A2 , ..., Ek :Ak 1 = In , esto es que:

Ek :Ek 1 : : : : E2 :E1 :A = In

Si multiplicamos ahora por la inversa de A a la derecha, resulta:

1
Ek :Ek 1 : : : : E2 :E1 :In = A

Luego para obtener la inversa de A, basta hacer sobre la matriz unitaria las mismas
operaciones elementales que hayamos efectuado sobre A para transformarla en la matriz
unitaria. A este proceso tambin se le conoce como Algoritmo de Gauss de inversin de
matrices.
19
Veamos la justicacin de lo anterior:
Sea E1 = D1 ( a111 ) con lo que la primera resulta dividida por su primer elemento,
quedando este convertido en 1, al elemento a11 lo llamamos elemento pivote de la primera
la o columna.
Sea E2 = S21 ( a21 ) con lo que el nuevo elemento a21 resultante sera cero. Analoga-
mente llegaramos hasta En = Sn1 ( an1 ) con lo que el nuevo elemento an1 resultante sera
cero. Es decir que la primera columna de la matriz En :En 1 : : : : E2 :E1 :A resultara ser de
la forma (1,0,. . . ,0). Ahora repetiramos el proceso para el resto de la columnas, teniendo
en cuenta que el elemento pivote para la segunda columna ser a22 y as sucesivamente.
En el caso de que el elemento a11 fuera cero, no podramos hacer la primera transfor-
macin, con lo que previamente hemos de multiplicar la matriz por la matriz P1i (hacemos
un intercambio de las), donde se supone que el elemento a1i es distinto de cero, y en-
tonces en la nueva matriz el elemento a11 ya no es cero y as podemos iniciar el proceso.
Hay que hacer notar que siempre se encuentra un elemento distinto de cero, ya que si
todos fueran ceros entonces la matriz no es inversible. Por ltimo, en el caso de que el
elemento nulo nos lo encontrramos en un paso que no fuera el primero, la transformacin
previa la hemos de hacer con los elementos que quedan por debajo de l.

Ejemplo:
0 1
3 2 3
B C
B C
Obtener la inversa de A = B 4 1 3 C
@ A
3 5 4
0 1D1 ( 13 ) 0 1S21 ( 4)
2 1 S31 ( 3)
3 2 3 1 0 0 1 1 0 0
B C B 3 3 C
B C B C
B 4 1 3 0 1 0 C B 4 1 3 0 1 0 C
@ A @ A
3 5 4 0 0 1 3 5 4 0 0 1

2
0 1D2 ( 3
5 ) 0 1S12 ( 3 )
2 1 2 1 S32 ( 3)
1 1 0 0 1 1 0 0
B 3 3 C B 3 3 C
B 5 4 C B C
B 0 1 1 0 C B 0 1 35 4 3
0 C
@ 3 3 A @ 5 5 A
0 3 1 1 0 1 0 3 1 1 0 1

20
3
0 1D3 ( 5
4 ) 0 1S13 ( 5
3
)
3 1 2 3 1 2 S23 ( )
1 0 0 1 0 0 5
B 5 5 5 C B 5 5 5 C
B 3 4 3 C B C
B 0 1 0 C B 0 1 35 4 3
0 C
@ 5 5 5 A @ 5 5 A
4 17 9 17 9 5
0 0 5 5 5
1 0 0 1 4 4 4

0 1
11 7 3
1 0 0
B 4 4 4 C
B 7 3 3 C
B 0 1 0 C
@ 4 4 4 A
17 9 5
0 0 1 4 4 4
0 1
11 7 3
1 1B
B
C
C
Entonces: A = B 7 3 3 C
4@ A
17 9 5
Ya hemos visto lo que tenemos que hacer cuando nos encontramos que algn pivote
es cero. Pero por razones de calculo, para reducir los errores de redondeo, es aconsejable
elegir como elemento pivote el de mayor valor absoluto.
Esto lo podemos hacer de dos formas:
PIVOTACIN PARCIAL
PIVOTACIN TOTAL
En la pivotacin parcial, si estamos operando por las, elegimos el elemento de mayor
valor absoluto de la subcolumna correspondiente. El proceso no vara nada con el an-
terior, salvo que en cada columna tendremos que hacer previamente el cambio de las
correspondiente para llevar dicho elemento al lugar de operacin.

Ejemplo:

Invertir la matriz anterior usando pivotacin parcial

0 1P12 0 1D1 ( 14 )
3 2 3 1 0 0 4 1 3 0 1 0
B C B C
B C B C
B (4) 1 3 0 1 0 C B 3 2 3 1 0 0 C
@ A @ A
3 5 4 0 0 1 3 5 4 0 0 1
En la 1a columna hemos elegido el 4 que es el de mayor valor absoluto, y por tanto
intercanbiamos la 1a la con la 2a , y continuamos con el proceso habitual.

21
0 1S21 ( 3) 0 1P23
1 3 1 S31 ( 3) 1 3 1
1 0 0 1 0 0
B 4 4 4C B 4 4 4 C
B C B 5 3 3 C
B 3 2 3 1 0 0 C B 0 1 0 C
@ A @ 4 4 4 A
17 7 3
3 5 4 0 0 1 0 4 4
0 4
1
17 5
En la 2a columna hemos elegido el 4
que es del mayor valor absoluto desde el 4
hacia
abajo, es decir en la subcolumna partiendo desde el 2o elemento, ahora intercambiamos
las las y continuamos con el proceso.

1
0 1D2 ( 174 ) 0 1S12 ( 4
5
)
1 3 1 1 3 1 S32 ( )
1 0 0 1 0 0 4
B 4 4 4 C B 4 4 4 C
B 17 7 3 C B 7 3 4 C
B 0 0 1 C B 0 1 0 C
@ 4 4 4 A @ 17 17 17 A
5 3 3
0 4 4
1 4
0 0 54 3
4
1 3
4
0

11
0 1D3 ( 174 ) 0 1S13 ( 17
7
)
11 5 1 11 5 1 S23 ( )
1 0 0 1 0 0 17
B 17 17 17 C B 17 17 17 C
B 7 3 4 C B 7 3 4 C
B 0 1 0 C B 0 1 0 C
@ 17 17 17 A @ 17 17 17 A
4 9 5 17 9 5
0 0 17
1 17 17
0 0 1 4 4 4
0 1
11 7 3
1 0 0
B 4 4 4 C
B 7 3 3 C
B 0 1 0 C
@ 4 4 4 A
17 9 5
0 0 1 4 4 4
0 1
11 7 3
1 1B
B
C
C
Entonces: A = B 7 3 3 C
4@ A
17 9 5
En la pivotacin total elegimos el elemento pivote entre todos los elementos de la sun-
matriz que queda por operar, por tanto para llevar dicho elemento al lugar de pivotacin
hemos de hacer cambios de las y columnas, lo cual supone que obtendramos lo siguiente:

En :En 1 : : : E2 :E1 :A:P1 :P2 : : : Pk = In

Operando nos quedar lo siguiente:

1 1
En :En 1 : : : E2 :E1 :In = (A:P1 :P2 : : : Pk ) = Pk : : : P2 :P1 :A
1
Si ahora despejamos A de la igualdad, obtendremos:
22
1
A = P1 :P2 : : : Pk : (En :En 1 : : : E2 :E1 :In )

Lo cual signica que los cambios que hemos hecho por columnas en la matriz A se
transforman al nal del proceso en un cambio de las de la matriz resultante de hacer
slo las transformaciones de las en la matriz identidad que le hemos hecho a la matriz
de partida. As, hemos de guardar en un vector los cambios que hacemos por columnas
para poder aplicarlos al nal en cambios por las.

Ejemplo:

Invertir la matriz anterior usando pivotacin total

h i h i
1 2 3 1 2 3
0 1P13 0 1
3 2 3 1 0 0 3 5 4 0 0 1
B C B C
B C B C
B 4 1 3 0 1 0 C B 4 1 3 0 1 0 C
@ A @ A
3 (5) 4 0 0 1 3 2 3 1 0 0

h i h i
2 1 3 2 1 3
0 1D1 ( 51 ) 0 1S21 ( 1)
3 4 1 S31 ( 2)
5 3 4 0 0 1 1 0 0
B C B 5 5 C 5
B C B C
B 1 4 3 0 1 0 C B 1 4 3 0 1 0 C
@ A @ A
2 3 3 1 0 0 2 3 3 1 0 0

Hemos elegido el 5 como elemento pivote al ser el de mayor valor absoluto de toda
la matriz, ahora lo tenemos que trasladar al lugar a11 para empezar la pivotacin, para
eso hemos de intercambiar primero la 1a la por la 3a (P13 ) y luego la 1a columna por la
segunda que reejado en el vector que esta encima de la primera matriz, y observamos que
este cambio no queda reejado en la segunda matriz. Despus continuamos el proceso:

h i h i
2 1 3 2 1 3
0 1D2 ( 175 ) 0 1S12 (
3
5 )
3 4 1 S32 ( 9
)
1 0 0 1 3 4
0 0 1 5
B 5 5 5 C B 5 5 5 C
B 1 C B C
B 0 17 11
0 1 C B 0 1 11
0 5 1 C
@ 5 5 5 A @ 17 17 17 A
9 7 2
0 5 5
1 0 5 0 95 7
1 0 2
5 5

23
Como quiera que el elemento de mayor valor absoluto de la submatriz coincide con el
lemento pivote, continuamos el proceso sin hacer cambios.

h i h i
2 1 3 2 1 3
0 1D3 ( 174 ) 0 1S13 (
7
17 )
7 3 4 S23 ( 11
)
1 0 0 1 0 7
0 3 4 17
B 17 17 17 C B 17 17 17 C
B 11 5 1 C B C
B 0 1 0 C B 0 1 11
0 5 1 C
@ 17 17 17 A @ 17 17 17 A
4 9 5
0 0 17
1 17 17 0 0 1 17 9 5
4 4 4

h i
2 1 3
0 1 0 1
7 3 3 11 7 3
1 0 0 B C
B 4 4 4 C 4 4 4
B C B 7 3 3 C
B 0 1 0 11 7 3 C B C
@ 4 4 4 A @ 4 4 4 A
17 9 5 17 9 5
0 0 1 4 4 4 4 4 4

Despus de encontrar la matriz identidad hemos de aplicar en las los cambios guarda-
dos de las columnas, que en este caso slo signica intercambiar la 2a la por la primera,
y entonces tenemos el resultado correcto:
0 1
11 7 3
1 1B
B
C
C
A = B 7 3 3 C
4@ A
17 9 5

3.6 Determinantes. Denicin de permutacin


Sean n elementos ordenados, llammosles f1; 2; : : : ; ng, llamamos permutacin a cualquiera
de las ordenaciones posibles de esos n elementos. Por lo que tenemos n! permutaciones
posibles de un conjunto ordenado dado, a la permutacin que est en el orden dado se
lellama permutacin principal.
En una permutacin cualquiera, se dice que dos elementos presentan una sucesin
si estn en el orden que tienen en la permutacin principal, en caso contrario, se dice
que estn en inversin. Asi si partimos de f1; 2; 3; 4g, en la permutacin f1; 3; 2; 4g los
elementos 2 y 3 presentan una inversin.
Adems, se dice que una permutacin es de clase par, o simplemente par, si el nmero
de inversiones que presenta es par, y se dice uqe es impar si ocurre lo contrario.

24
Ejemplo:
8
>
> 3 ! 2 inversiones
>
>
>
>
>
> 4 ! 2 inversiones
>
<
En f1; 2; 3; 4; 5g la permutacin f3; 4; 2; 1; 5g es impar ya que: 2 ! 1 inversiones
>
>
>
>
>
> 1 ! 0 inversiones
>
>
>
: 1 ! 0 inversiones
Por tanto, para cualquier conjunto ordenado tenemos n!2 permutaciones pares y n!
2

impares.
Notacin: expresaremos las permutaciones de la forma siguiente = f (1) ; : : : ; (n)g.
As, si en una permutacin intercambiamos dos elementos, esta cambia de clase, ya
0
que, sean = f (1) ; ::; (i) ; ::; (j) ; ::; (n)g y = f (1) ; ::; (j) ; ::; (i) ; ::; (n)g
0
entonces (j) en presenta j i inversiones respecto a la original y los j i 1
0
elementos que quedan entre el lugar i y j en presentan una inversin respecto a (i),
por tanto el nmero total de inversiones es (j i) + (j i 1) = 2 (j i) 1 que es un
nmero impar.

3.7 Determinante de una matriz cuadrada

3.7.1 Denicin

Sea A = (aij ) una matriz cuadrada de orden n, entonces se dene com determinante de
A, y lo expresamos como jAj, al siguiente sumatorio:

P P
jAj = jaij j = " ( ) :a1 (1) :a2 (2) : : : an (n) = " ( ) :a (1)1 :a (2)2 :::a (n)n

donde " ( ) = 1 si es una permutacin de clase par y " ( ) = 1 si es una permutacin


de clase impar.
Es decir, la suma de todos los productos posibles donde aparezcan un elemento y
slo uno de cada la y de cada columna, que ser positivo si la permutacin de los
subindices columna es par y negativo si dicha permutacin es impar. Lo mismo cabri
decir si ordenamos los productos a travs de la columnas.

25
Ejemplo:

Determinante de la matriz de orden 3

a11 a12 a13


a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31
a31 a32 a33

ya que las permutaciones pares son f1; 2; 3g, f2; 3; 1g y f3; 1; 2g y las impares son f1; 3; 2g,
f2; 1; 3g y f3; 2; 1g

3.7.2 Propiedades

1.- Si en una matriz A se multiplica una la o una columna por un escalar , entonces el
valor del determinente tambin resulta multiplica por .
0 1
a11 a12 a1n
B C
B .. .. .. .. C
B . . . . C
B C
0 B C
Si A = (aij ) y A = B :ai1 :ai2 :ain C entonces:
B C
B .. .. ... .. C
B . . . C
@ A
an1 an2 ann
P
jA0 j = " ( ) :a1 (1) :a2 (2) : : : :ai (i) : : : an (n) =
P
= : " ( ) :a1 (1) :a2 (2) : : : ai (i) : : : an (n) = a: jAj
n
en consecuencia, j :Aj = jAj.
2.- Si en una matriz A intercambiamos dos las o dos columnas entre si, el valor del
determinante de la matriz resultante A0 es igual al de la de partida cambiado de signo,
es decir jA0 j = jAj. Ya que cada sumando de la matriz resultante es uno con el signo
cambiado del determinante de la matriz de partida, porque en cada permutacin hemos
intercambiado dos elementos.
3.Si en una matriz A tenemos dos las o dos columnas iguales su determinante es
nulo.- Ya que, si en A intercambiamos las dos las iguales, tenemos que A0 = A, y por
la propieded anterior tenemos po un lado que jA0 j = jAj y como quiera que A0 = A,
tambin jA0 j = jAj, y por tanto sumando tenemos que 2 jA0 j = 2 jAj = jAj + jAj = 0, es
decir jAj = 0.

26
4.- Si en una matriz A tenemos una la o una columna de elementos nulos, el valor
de su determinante tambin es nulo. Slo tenemos que observar que en el desarrollo de
su determinante, en el producto de cada sumando hay un elemento nulos y por lo tanto
todos sus sumandos son nulos.
5.- Si tenemos las matrices A; B y C tales que:
0 1 0 1
a a a1n a a a1n
B 11 12 C B 11 12 C
B .. .. .. .. C B .. .. .. .. C
B . . . . C B . . . . C
B C B C
B C B C
A = B ai1 ai2 ain C B = B bi1 bi2 bin C
B C B C
B .. .. ... .. C B .. .. ... .. C
B . . . C B . . . C
@ A @ A
an1 an2 ann an1 an2 ann
0 1
a11 a12 a1n
B C
B .. .. .. .. C
B . . . . C
B C
B C
C = B ai1 + bi1 ai2 + bi2 ain + bin C
B C
B .. .. ... .. C
B . . . C
@ A
an1 an2 ann
entonces jAj + jBj = jCj, ya que:

P
jCj = " ( ) :a1 (1) :a2 (2) : : : (ai (i) + bi (i) ) : : : an (n) =

P P
= " ( ) :a1 (1) :a2 (2) : : : ai (i) : : : an (n) + " ( ) :a1 (1) :a2 (2) : : : bi (i) : : : an (n) =

= jAj + jBj

6.- Como consecuencia inmediata de las propiedades 3 y 5, tenemos que:


a.- Si en una matriz A tenemos que una la o una columna es combinacion lineal
de resto, el valor de su determinante es nulo.
b.- Si en una matriz A a una la o columna se le aade una combimacin lineal
del resto, el valor de su determinante no vara.

27
3.8 Desarrollo de un determinante por los elementos
de una la o columna
Adjunto y menor complementario de un elemento

Sea una matriz cuadrada A de orden n y sea aij un elemento cualquiera, entonces, se llama
menor complementario del elemento aij , y los expresamos como ij , al determinante de la
matriz de orden n 1 que resulta de eleminar en la matriz A la la i-sima y la columna
j-sima, es decir:

a11 a1j 1 a1j+1 a1n


.. .. .. .. .. ..
. . . . . .
ai 11 ai 1j 1 ai 1j+1 ai 1n
ij =
ai+11 ai+1j 1 ai+1j+1 ai+1n
.. .. .. .. .. ..
. . . . . .
an1 anj 1 anj+1 ann

Y se dene adjunto de aij , y se denota como Aij , a la expresin siguiente:

Aij = ( 1)i+j ij

Desarrollo por los trminos de una la

Sea una matriz cuadrada A de orden n, entonces tenemos que:

P
jAj = jaij j = " ( ) :a1 (1) :a2 (2) : : : an (n) =

P
n P
= aij " ( ) a1 (1) : : : ai 1 (i 1) :ai+1 (i+1) : : : an (n) =
j=1

P
n P
= aij ( 1)(i 1)+(j 1)
" ( 0 ) a1 0 (1) : : : ai 1 0 (i 1) :ai+1 0 (i+1) : : : an 0 (n) =
j=1 0

P
n P
n
= aij ( 1)i+j ij = aij Aij
j=1 j=1

es decir, el valor de un determinante es igual a la suma de los productos de los elementos


de una la por sus adjuntos correspondientes. Anlogamente, es igual a la suma de los
productos de los lementos de una columna por sus adjunto correspondientes. Veamos como

28
ejemplo el desarrollo de un determinante de una matriz de orden tres por los trminos de
la primera la:

a11 a12 a13


a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31 =
a31 a32 a33

= a11 (a22 :a33 a23 :a32 ) + a12 (a23 :a31 a21 :a33 ) + a13 (a21 :a32 a22 :a31 ) =
P 3
= a11 11 + a12 ( 1) 12 + a13 13 = a11 A11 + a12 A12 + a13 A13 = a1j A1j
j=1

3.9 Desarrollo de Laplace de un determinante


Menor de una matriz

El determinante de cualquier submatriz cuadrada de orden menor que los de la matriz


origen.

Menor complemetario de un menor

Sea una matriz cuadrada A de orden n y sea M un menor de orden r < n de la matriz
f, al
A, entonces se denomina menor complementario del menor M , y lo expresamos M
determinante de la matriz que resulta de eliminar en la matriz A la las y columnas que
contienen elementos de M .

Ejemplo:
0 1
a a12 a13 a14
B 11 C
B C
B a21 a22 a23 a24 C a11 a13 a32 a34
Sea A = B C entonces si M = f=
=) M
B C
B a31 a32 a33 a34 C a21 a23 a42 a44
@ A
a41 a42 a43 a44

Desarrollo de Laplace

Sea una matriz cuadrada A de orden n, para calcular el determinante de A utilizando el


desarrollo de Laplace hemos de seguir los siguientes pasos:
a.- Seleccionamos r < n las o columnas de A.
b.- Se calculan todos los menores M de orden r que se pueden formar con las las
n
(columnas) seleccionadas. Son r
menores distintos.
29
f de todos y cada uno de los menores M
c.- Se hallan los menores complementarios M
anteriores.
f, donde
d.- Se obtiene para todos y cada uno de los menores el producto ( 1)k M M
k es la suma de los subndices de los lementos de la diagonal principal de M .
e.- El valor de jAj es la suma de todos los productos obtenidos en el apartado anterior.

Ejemplo:
0 1
a a12 a13 a14
B 11 C
B C
B a21 a22 a23 a24 C
Sea A = B
B
C , si elegimos las dos primeras las, entonces
C
B a31 a32 a33 a34 C
@ A
a41 a42 a43 a44
4
como dijimos hemos de clcular 2
= 6, menores y sus complementarios correspodientes:

a11 a12 a33 a34


M1 = f1 =
=) ( 1)1+1+2+2 = 1 =) M
a21 a22 a43 a44

a11 a13 a32 a34


M2 = =) ( 1)1+1+2+3 = f2 =
1 =) M
a21 a23 a42 a44

a11 a14 a32 a33


M3 = f3 =
=) ( 1)1+1+2+4 = 1 =) M
a21 a24 a42 a43

a12 a13 a31 a34


M4 = f4 =
=) ( 1)1+2+2+3 = 1 =) M
a22 a23 a41 a44

a12 a14 a31 a33


M5 = =) ( 1)1+2+2+4 = f5 =
1 =) M
a22 a24 a41 a43

a13 a14 a31 a32


M6 = f6 =
=) ( 1)1+3+2+4 = 1 =) M
a23 a24 a41 a42

3.10 Determinante del producto de matrices cuadradas


Sean A y B dos matrices cuadradas de orden n, y construimos la matriz C siguiente:
0 1
A On
C=@ A donde In es la matriz identidad y On la matriz nula.
In B
30
como quiera que el nico menor que puede ser distinto de cero en las n primeras las de
A es jAj, y calculando el determinante de C por el desarrollo de Laplace, tenemos que
jCj = jAj jBj. Si ahora, a la primera la de C le sumamos cada una de sus n ltimas las,
la primera multiplicada por a11 , la segunda por a12 , y as hasta la n-sima, multiplicada
por a1n , a la segunda la de C le sumamos cada una de las n ltimas las, la primera
multiplicada por a21 , la segunda por a22 , y as hasta la n-sima, multiplicada por a2n , y
as, sucesivamente hasta llegar a la n-sima la de C, obtenemos la siguiente matriz C :
0 1
On A:B
C =@ A
In B

por la misma razn de antes, tenemos que jC j = jA:Bj. Adems, como C lo hemos
obtenido aadiendo a cada la de C combinaciones lineales del resto de sus las, sabemos
que jC j = jCj y por tanto deducimos que jC j = jA:Bj = jAj jBj = jCj.
1
Como consecuencia directa de esta propiedad, tenemos que al ser A:A = I, entonces
1
jA:A 1 j = jIj =) jAj jA 1 j = 1 =) jA 1 j = jAj
.

3.11 Clculo de la matriz inversa


Vamos a aplicar las propiedades del clculo de determinantes para obtener la inversa
de una matriz cuadrada regular, regular signica que su determinante no es nulo, y por
tanto las matrices singulares no tienen matriz inversa, o mejor una matriz que tenga
determinante nulo no se puede invertir.
Denimos como matriz adjunta de una matriz cuadrada A dada, y lla expresamos
como A , a la matriz cuyos elementos son los adjuntos de la de partida pero traspuesta,
es decir, los elementos de la la i-sima de la matriz son los adjuntos de la columna i-sima
de la matriz A, asi: 0 1
A11 A21 An1
B C
B C
B A12 A22 An2 C
A =B
B .. .. ... ..
C
C
B . . . C
@ A
A1n A2n Ann

31
si ahora multiplicamos la matriz A por esta, obtenemos lo siguiente:
0 Pn P
n P
n 1
a :A a1k :A2k a1k :Ank
B k=1 1k 1k k=1 k=1 C
B P P P C
B n a :A n
a2k :A2k
n
a2k :Ank C
B 2k 1k C
A:A = B B k=1 k=1 k=1 C
C
B .. .. ... .. C
B . . . C
@ Pn P
n P
n A
ank :A1k ank :A2k ank :Ank
k=1 k=1 k=1

si observamos, los elementos de la diagonal principal son el desarrollo del determinante de


Pn
la matriz A por los elementos de una la y por tanto 8i se verica que aik :Aik = jAj,
k=1
y el resto de los elemento son el producto de los elemento de una la por los adjuntos de
otra distinta, por lo que tenemos el desarrollo de un determinante de una matriz con dos
las iguales, y por tanto son todos nulos, es decir, tenemos que:
0 1
jAj 0 0
B C
B C
B 0 jAj 0 C A
A:A = B B .. .. . .
C
.. C = jAj :I =) A: jAj = I
B . . . . C
@ A
0 o jAj

1 1 A
y si multiplicamos por A obtenemos: A =
jAj

3.12 Clculo de rango de una matriz por menores


Hemos visto que si una la o una columna de una matriz cuadrada es combinacin lineal
del resto, entonces su determinante es nulo. Entonces, si nosotros calculamos todos los
menores de una matriz dada, aquellos que nos dan cero, signica que sus las o columnas
son linealmente dependientes, y como el rango de una matriz es el nmero de las o
columnas que tenemos liealmente independientes. Por todo ello, el rango de una matriz
es igual al orden del mayor menor no nulo que tenga la matriz.

32
Leccin 4
ESPACIOS VECTORIALES. SUBESPACIOS Y
COMBINACIONES LINEALES. COORDENADAS

4.1 Denicin de Espacio Vectorial


Sea | un cuerpo conmutativo. Llamamos espacio vectorial V sobre |, [V(|),+,.], a todo
conjunto V dotado de dos leyes de composicin, una interna (+), suma de vectores, y
otra externa (.), producto de un escalar por un vector, sobre |. Es decir:

+:V V !V ::| V !V
(v; w) v+w ( ; v) :v

que verican las siguientes propiedades:

1. (V,+) es un grupo abeliano o conmutativo.

2. La ley externa cumple:

(a) 8 ; 2 | ^ 8v 2 V : ( + ):v = :v + :v

(b) 8 2 | ^ 8v; w 2 V : :(v + w) = :v + :w

(c) 8 ; 2 | ^ 8v 2 V : :( :v) = ( : ):v

(d) 8v 2 V : 1:v = v, donde 1 es el neutro del producto en |.

As, a los elementos de | los denominamos escalares y los expresamos por letras
griegas minsculas, ; ; ; :::, y a los elementos de V los denominamos vectores y los
expresamos con letras minsculas con el smbolo de vector, es decir, v; w; u; :::.

33
Propiedades deducidas

1. 8v 2 V : 0:v = 0

2. 8 2 | : :0 = 0

3. 8 2 | ^ 8v 2 V : si :v = 0 ) =0_v =0

4. 8 2 | ^ 8v 2 V : ( ):v = :( v) = :v

5. 8 ; 2 | ^ 8v 2 V : :v = :v ^ v 6= 0 ) =

6. 8 2 | ^ 8v; w 2 V : :v = :w ^ 6= 0 ) v = w

Demostracin: como ejemplo vamos a hacer la 1 y la 6:

1.- 0:v = (0 + 0):v = 0:v + 0:v ) 0:v + 0 = 0:v + 0:v ) 0 = 0:v, pues en un grupo
todo elemento es regular, es decir, podemos simplicar.
6.- :v = :w ) :v + ( :w) = :v + :( w) = 0 ^ 6= 0 ) :(v + ( w)) = 0^
^ 6= 0 ) v + ( w) = 0 ) v = w.

4.2 Subespacio vectorial

4.2.1 Denicin

Sea [V(|),+,.] un espacio vectorial y sea ? 6= U V , un subconjunto no vacio, entonces


sedice que U es un subespacio vectorial de [V(|),+,.] si y solo si U es cerrado para las
dos operaciones de V y a su vez tiene estructura de espacio vectorial, es decir, verica las
condiciones de la denicin de espacio vectorial.

4.2.2 Caracterizacin de subespacios

Proposicin

Sea ? 6= U V . Entonces, U es subespacio vectorial() 8 ; 2 | ^ 8v; w 2 U :


:v + :w 2 U .

34
Demostracin

"=)"
8 ; 2 | ^ 8v; w 2 U : :v 2 U ^ :w 2 U , ya que U es cerrado para el producto por
un escalar=) :v + :w 2 U , ya que U es cerrado para la suma de vectores.
"(="
Si hacemos = 1^ = 1 ) 8v; w 2 U : 1:v + ( 1):w 2 U ) v + ( w) 2 U ) U
es esubgrupo de V , por otra parte si hacemos = 1^w = 0 ) 8 2 | ^ 8v 2 U :
:v + 1:0 2 U ) :v 2 U ) el producto por un escalar es cerrada en U . Y adems
verica las propiedades en U por cumplirla en V .

4.2.3 Subespacios interseccin y suma

Sean U y W dos subespacios vectoriales de un espacio vectorial V dado.

Denicin de suma

Llamamos suma de los subespacios U y W , al conjunto formado todos los vecrores de V


que son suma de dos vectores, uno U y otro de W . Es decir:

U + W = fv 2 V 9u 2 U ^ 9w 2 W : v = u + wg

En el caso que se verique que U \ W = f0g, entonces se dice que tenemos suma
directa de subespacios, y se le denota U W . Si adems tenemos que U W = V,
entonces se dice que los subespacios U y W son suplementarios.

Proposicin

Sean U y W dos subespacios vectoriales de un espacio vectorial V dado)

1. U \ W es un subespacio de V .

2. U + W es un subespacio de V .

Demostracin

1. 8 ; 2 | ^ 8v; w 2 U \ W ) v; w 2 U ^ v; w 2 W ) :v + :w 2 U , por ser U


subespacio y :v + :w 2 W por ser W subespacio ) :v + :w 2 U \ W ) U \ W
es subespacio de V .
35
2. 8 ; 2 | ^ 8v; w 2 U + W ) 9v 1 ; v 2 2 U ^ 9w1 ; w2 2 W tal que v = v 1 + w1 y
w = v 2 + w2 ) :v + :w = :(v 1 + w1 ) + :(v 2 + w2 ) y operando tenemos que
:v + :w = ( :v 1 + :v 2 ) + ( :w1 + :w2 ) 2 U + W , por ser la suma de un vector
de U mas otro de W , y por tanto subespacio de V .

4.3 Combinacin lineal. Dependencia e independen-


cia lineal

4.3.1 Denicin de combinacin lineal

Dada un familia o sistema nito de vectores S = fu1 ; u2 ; :::; uk g V en un espacio


vectorial V (|). Decimos que el vector v 2 V es combinacin lineal de S si existen un
conjunto de escalares 1; 2 ; :::; k 2 | tales que v = 1 :u1 + 2 :u2 + + k :uk , es decir
Pk
v= i :ui .
i=1

4.3.2 Dependencia e independencia lineal

Denicin de dependencia lineal

Sea S = fu1 ; u2 ; :::; uk g V un sistema nito de vectores en un espacio vectorial V (|).


Decimos que sus vectores son linealmente dependientes si y solo si alguno de ellos se puede
poner como combinacin lineal del resto.

Proposicin

Dado un sistema nito de vectores S = fu1 ; u2 ; :::; uk g V ,entonces, son linealmente


dependientes si y solo si existen un conjunto de escalares 1; 2 ; :::; k 2 | no todos nulos
tales que 1 :u1 + 2 :u2 + + k :uk = 0, como vemos tenemos al menos un escalar no
nulo y nos da el vector 0.
Demostracin
"=)"
Si fu1 ; u2 ; :::; uk g son linealmente dependientes =) 9uj tal que uj = 1 :u1 + +
j 1 :uj 1 + j+1 :uj+1 + + k :uk =) operando tenemos que 1 :u1 + + j 1 :uj 1 +
( 1) uj + j+1 :uj+1 + + k :uk = 0.

36
"(="
Si 1 :u1 + 2 :u2 + + k :uk = 0 con no todos los escalares nulos =) entonces al
menos uno es distinto de cero, sea j 6= 0 y por tanto podemos multiplicar la expresin
1
por su inverso, es decir, por j y as nos queda que:

1 1 1 1 1
j : 1 :u1 + + j : j 1 :uj 1 + j : j uj + j : j+1 :uj+1 + + j : k :uk =

1
= j :0 = 0

y operando tenemos que:

1 1 1 1
uj = j : 1 :u1 j : j 1 :uj 1 j : j+1 :uj+1 j : k :uk

es decir que uj es combinacin lineal de los dems.

Denicin de independencia lineal

Sea S = fu1 ; u2 ; :::; uk g V un sistema nito de vectores en un espacio vectorial V (|).


Decimos que sus vectores son linealmente independientes si y solo si no son linealmente
dependientes, es decir si 1 :u1 + 2 :u2 + + k :uk = 0 entonces 1 = 2 = = k = 0.

Proposicin

Sea S = fu1 ; u2 ; :::; uk g V un sistema de vectores linealmente independientes y sea


v 2 V un vector cualquiera. Si v es combinacin lineal de S, entonces dicha combinacin
lineal es nica. Es decir, si:

v= 1 :u1 + 2 :u2 + + k :uk = 1 :u1 + 2 :u2 + + k :uk =) i = i ; 8i = 1; 2; :::; k

Demostracin
Si v = 1 :u1 + 2 :u2 + + k :uk = 1 :u1 + 2 :u2 + +k :uk , entonces si pasamos
todos al primer miembro de la igualdad nos queda que:

0=( 1 1 ):u1 +( 2 2 ):u2 + +( k k ):uk

y como los vectores son linealmente independientes, entonces todos los escalares son nulos,
es decir, i i = 0; 8i = 1; 2; :::; k =) i = i ; 8i = 1; 2; :::; k como queramos ver.

37
4.4 Sistema generador

4.4.1 Denicin

Dada la familia de vectores G = fu1 ; u2 ; :::; uk g V de un espacio vectorial, decimos que


es un sistema generador si y slo si todos los vectores del espacio vectorial se pueden
poner como combinacin lineal de los vectores de la familia.
En la materia de este curso slo vamos a estudiar espacio vectoriales con sistema
generador nito, a los que llamaremos espacios vectoriales nitamente generados.

4.4.2 Subespacio vectorial generado

Sea S = fu1 ; u2 ; :::; uk g V un sistema de vectores de un espacio vectorial V , entonces


llamamos subespacio generado por S al menor subespacio de V que contiene a S, y lo
denotamos por < S >=< u1 ; u2 ; :::; uk >, o bien, L (S) = L (fu1 ; u2 ; :::; uk g).

Proposicin

L (S) = L (fu1 ; u2 ; ::; uk g) = fv 2 V 9 1; 2 ; ::; k 2|:v= 1 :u1 + 2 :u2 + + k :uk g

Demostracin:
Si llamamos A = fv 2 V 9 1; 2 ; ::; k 2|:v= 1 :u1 + 2 :u2 + + k :uk g, en-
tonces vamos a ver que A = L (S). Primero veremos que A es subespacio vectorial. Sean
v; w 2 A entonces v = 1 :u1 + 2 :u2 + + k :uk yw= 1 :u1 + 2 :u2 + + k :uk por
lo que :v + :w = ( : 1 + : 1 ) :u1 + +( : k + : k ) :uk y por lo tanto un vector de
A, cumpliendo que A es subespacio.
"L (S) A"
Como 8i : ui = 0:u1 + + 1:ui + + 0:uk =) ui 2 A =) S A y como L (S)
es el menor subespacio que contiene a S, entonces L (S) A que es un subespacio que
contiene a S.
"L (S) A"
Ya que como 8v 2 A se verica que v = 1 :u1 + 2 :u2 + + k :uk entonces v es un
vector generado por S y por tanto v 2 L (S), como queramos ver.

38
Propiedades

Dos sistemas de vectores son equivalentes si y slo generan el mismo subespacio vectorial.
Se denota por el smbolo , es decir, S1 S2 () L (S1 ) = L (S2 )

Proposicin Dados S1 y S2 dos sistemas de vectores, entonces:

S1 S2 () L (S1 ) = L (S2 ) () S1 L(S2 ) () S2 L (S1 ) :

Demostracin

Si S1 L(S2 ) ) L (S1 ) L(S2 )


) L (S2 ) = L (S1 )
Si S2 L (S1 ) ) L (S2 ) L (S1 )

Proposicin Sea S = fu1 ; u2 ; :::; uk g V un sistema de vectores linealmente indepen-


dientes y sea v 2
= L (S) ; entonces el sistema fu1 ; u2 ; :::; uk ; vg es de vectores linealmente
independientes.
Demostracin
1
Sea 1 :u1 + 2 :u2 + + k :uk + :v = 0. Si 6= 0 ) v = : 1 :u1 + +
1
: k :uk 2 L (S), que es una contradiccin. Por tanto si =0) 1 :u1 + 2 :u2 + +
k :uk = 0 ) 8i : i = 0; es decir, fu1 ; u2 ; :::; uk ; vg slo puede generar el vector nulo con
todos los escalares nulos y por tanto son linealmente independientes.

4.5 Base y dimensin

4.5.1 Denicin de base

Llamamos base de un espacio vectorial a todo sistema generador cuyos vectores son lin-
ealmente independientes.

4.5.2 Propiedades

Proposicin

Sea fu1 ; u2 ; ::; uk g V una familia de vectores, entonces, fu1 ; u2 ; ::; uk g es base ()
fu1 ; u2 ; ::; uk g es un sistema generador minimal, es decir, no podemos quitar ningn vector
si que deje de ser generador.
39
Demostracin
"=)"
Supongamos que fu1 ; u2 ; ::; uk g no es sistema generador minimal =) 9 un subcon-
junto de fu1 ; u2 ; ::; uk g que es sitema generador =) los vectores de fu1 ; u2 ; ::; uk g que
no pertenecen al subconjunto se pueden poner como combinacin lineal de estos =)
fu1 ; u2 ; ::; uk g no es conjunto de vectores linealmente independientes, en contradicin con
la denicin de base.
"(="
Supongamos que fu1 ; u2 ; ::; uk g no es base =) no es conjunto de vectores linealmente
independiente =) 9uj que es combinacin lineal del resto, es decir, uj = 1 :u1 + +
j 1 :uj 1 + j+1 :uj+1 + + k :uk =)Como 8v 2 V : v = 1 :u1 + 2 :u2 + + k :uk

entonces v = 1 :u1 + + j : ( 1 :u1 + + j 1 :uj 1 + j+1 :uj+1 + + k :uk ) + +

k :uk =) fu1 ; :::; uj 1 ; uj+1 ::; uk g es un sistema generador en contradiccin con la condi-
cin de que fu1 ; u2 ; ::; uk g es minimal.

Proposicin

Sea fu1 ; u2 ; ::; uk g V una familia de vectores, entonces, fu1 ; u2 ; ::; uk g es base ()
fu1 ; u2 ; ::; uk g es un sistema generador tal que la combinacin lineal que representa a cada
vector es nica.
Demostracin: es evidente ya que al ser base es un conjunto de vectores linealmente
independientes, y entonces cualquie vector generado por ellos es por medio de una com-
binacin linal nica.

Proposicin

Sea fu1 ; u2 ; ::; uk g V una familia de vectores, entonces, fu1 ; u2 ; ::; uk g es base ()
fu1 ; u2 ; ::; uk g es un sistema libre maximal, es decir, no se puede aadir ningn vector si
que deje de ser libre o linealmente independiente.
"=)"
8v 2 V ^ v 2
= fu1 ; u2 ; ::; uk g =) v es combinacin lineal de fu1 ; u2 ; ::; uk g y por tanto
fu1 ; u2 ; ::; uk ; vg es linealmente dependiente, es decir, no es libre =) fu1 ; u2 ; ::; uk g es libre
maximal.
"(="
40
Si L (fu1 ; u2 ; ::; uk g) no es todo el espacio vectorial =) 9v 2 V tal que v 2
= L (fu1 ; u2 ; ::; uk g),
y como vimos anteriormente, fu1 ; u2 ; ::; uk ; vg es linealmente independiente, en contradic-
cin con que fu1 ; u2 ; ::; uk g es libre maximal.

4.5.3 Teorema de la base. Dimensin

Proposicin

Sean S1 = fu1 ; u2 ; ::; un g y S2 = fv 1 ; v 2 ; ::; v k g sistemas de vectores de un espacio vectorial


V , entonces, si S1 es libre y S2 es sitema generador =) n k
Demostracin
Por reduccin al absurdo, supongamos que k < n. Como S2 es generador =) u1 =
1 :v 1 + 2 :v 2 + + k :v k con algn i 6= 0, ya que u1 6= 0, por pertenecer a un sistema
linealmente independiente, podemos suponer que 1 6= 0, en caso contrario podemos
1 1 1
reordenar es sistema de vectores =) v 1 = 1 :u1 1 : 2 :v 2 1 : k :v k =)
S20 = fu1 ; v 2 ; ::; v k g es un sistema generador de V . Si seguimos el mismo proceso con el
resto de los vectores, primero sustituyendo v 2 por u2 y despus los siguientes, llegaremos
a que fu1 ; u2 ; ::; uk g es sistema generador y por tanto fu1 ; u2 ; ::; un g no es linealmente
independiente, en contradiccin con la hipotesis de que es libre, as, no puede ser que
k < n por lo que n k.

Teorema de la base

Todas las bases de un espacio vectorial nitamente generado tiene el mismo nmero de
vectores. A este nmero se le llama dimensin del espacio vectorial, y se le denota por
dim V .
Demostracin
Sean B1 = fu1 ; u2 ; ::; un g y B2 = fv 1 ; v 2 ; ::; v k g dos bases de un espacio vectorial V .
Entonces:

Como B1 es libre y B2 es sistema generador =) n k


=) n = k
Como B2 es libre y B1 es sistema generador =) k n

Consecuencias:

1. El nmero mximo de vectores libres en un sistema de vectores dentro de un espacio


vectorial V tal que dim V = n es n.
41
2. Dado un sistema de vectores libres siempre hay una base que lo contiene.

3. Dado un sistema generador siempre existe un base contenida en el.

4. Todo espacio nitamente generado tiene al menos una base.

4.6 Coordenadas

4.6.1 Denicin de coordenadas de un vector respecto de una


base

Como quiera que cualquier base es un sistema libre de vectores, todo vector generado
por ella tendr un representacin nica. Por otra parte, como es tambin es sistema
generador, genera todos los vectores del espacio vectorial, es decir, todo vector de un
espacio vectorial tiene representacin nica respecto de cada una de sus bases. Entoces,
se dene como coordenadas de un vector respecto de una base a la coleccin de
escalares por los que es generado por dicha base.
Es decir, sea V un espacio vectorial con dim V = n y sea B = fu1 ; u2 ; ::; un g una
base, entonces 8v 2 V existen los escalares 1; 2 ; ::; n nicos tales que v = 1 :u1 +
2 :u2 + + n :un . Entonces decimos que ( 1; 2 ; ::; n) son las cordenadas o componentes
de v respecto de la base B y escribimos que v = ( 1; 2 ; ::; n )B , o simplemente v =
( 1; 2 ; ::; n) si no tenemos dudas respecto de que base estamos hablando.

4.6.2 Ecuaciones de cambio de base

Sean B = fe1 ; e2 ; ::; en g y B 0 = fu1 ; u2 ; ::; un g bases de un espacio vectorial V y sea v un


vector cualquiera, y sean (x1 ; x2 ; :::; xn )B y (x01 ; x02 ; :::; x0n )B 0 las cordenadas de v respecto
de cada una de las bases, veamos cual es la relacin entre ambas coordenadas. Todos los
vectores B 0 tendrn sus coordenadas respecto de la base B. Sean entonces:

u1 = (a11 ; a21 ; :::; an1 )


u2 = (a12 ; a22 ; :::; an2 )
, como tenemos que

u1 = (a1n ; a2n ; :::; ann )

v = x1 :e1 + x2 :e2 + + xn :en = x01 :u1 + x02 :u2 + + x0n :un =


42
= x01 : (a11 :e1 + a21 :e2 + + an1 :en ) + x02 : (a12 :e1 + a22 :e2 + + an2 :en ) + +

x0n : (a1n :e1 + a2n :e2 + + an2 :en ) = (x01 :a11 + x02 :a12 + + x0n :a1n ) :e1 +

+ (x01 :a21 + x02 :a22 + + x0n :a2n ) :e2 + + (x01 :an1 + x02 :an2 + + x0n :ann ) :en

si ahora igualamaos las coordenadas de ambas expresiones obtenemos las ecuaciones


de cambio de base:
x1 = a11 :x01 + a12 :x02 + + a1n :x0n
x2 = a21 :x01 + a22 :x02 + + a2n :x0n

xn = an1 :x01 + an2 :x02 + + ann :x0n


que la podemos pasar a forma matricial, quedando de la forma siguiente:
0 1 0 1 0 1
x1 a11 a12 a1n x01
B C B C B C
B C B C B 0 C
B x2 C B a21 a22 a2n C B x2 C
B C B C B C 0
B .. C = B .. .. .. C B .. C o bien X = C X
B . C B . . . C B . C
@ A @ A @ A
0
xn an1 an2 ann xn

a la matriz C se le llama matriz de cambio de base, donde sus columnas son las
componentes o coordenadas de los vectores de la nueva base respecto a la antigua, como
quiera que son vectores linealmente independientes, quiere decir que esta matriz es regular,
determinante distinto de cero, y portanto tiene matriz inversa. As, despejamdo tenemos
que X 0 = C 1
X, con lo que tendramos las nuevas coordenadas en funcin de las antiguas,
o tambin llamado cambio de base inverso.

4.7 Base, ecuaciones y dimensin de un subespacio

4.7.1 Base de un subespacio

Se dene igual que la base del espacio vectorial, es decir, es un sistema generador formado
por vectores linealmente independientes. Y por tanto la dimensin ser el nmero de
vectores que tiene cualquier base de dicho subespacio.

Proposicin

Sea U un subespacio de un espacio vectorial V =) dim U dim V


Demostracin
43
Es evidente, ya que si fu1 ; u2 ; ::; uk g es una base de U , entonces es un sistema libre y
por tanto existe una base de V que la contiene, por lo que dim U dim V .

4.7.2 Ecuacines de un subespacio

En un espacio vectorial V con dim V = n, la ecuacin de un subespacio U es un sistema


homogneo, pues tiene que tener la solucin nula que corresponde al vector nulo, con n
incgnitas que correspoden a las coordenadas de sus vectores. Como sabemos el nmero
de soluciones linealmente independientes que podemos obtener es igual a los grados de
libertad del sistema de ecuaciones, entonces la dimensin del subespacio coincide con
los grados de libertad, es decir dim U = dim V rang (sistema), y como quiera que
el rango es el nmero de ecuaciones linealmente independientes, tenemos que dim U =
dim V no ec:l:i:. Entonces, para obtener una base slo tenemos que obtener del sistema
tanto vectores linealmente independientes com marca la dimensin del subespacio.
Para obtener la ecuacin del subespacio a partir de una de sus bases, lo nico que
tenemos que hacer es obligar a que cualquier vector del subespacio es combinacin lineal
de la base, es decir, si la base de U es fu1 ; u2 ; ::; uk g y x = (x1; x2 ; :::; xn ) 2 U un vector
cualquiera del subespacio, entonces, el rang (u1 ; u2 ; ::; uk ; x) = k, por lo que tenemos que
obligar que todos los menores de orden k + 1 de la matriz (u1 ; u2 ; ::; uk ; x) sean nulos, con
lo que obtendremos n k ecuaciones linealmente independientes.

4.8 Subespacios suma e interseccin: base, dimen-


sin y ecuacines

4.8.1 Relacin entre la dimensin de los subespacios suma e


interseccin

Proposicin

Sea V un espacio vectorial con dim V = n nita. Sea U ,W dos subespacios de V . En-
tonces, dim (U + W ) = dim U + dim W dim (U \ W )
Demostracion
Sea p = dim U; q = dim W y r = dim (U \ W ), y sea B = fe1 ; e2 ; ::; er g una base de

44
U \W , entonces como U \W U =) 9B1 = fe1 ; e2 ; ::; er ; u1 ; :::; up r g que es una base de
U , de la misma forma, como quiera que U \ W W =) 9B2 = fe1 ; e2 ; ::; er ; w1 ; :::; wq r g
que es una base de W . Vamos a demostrar que el sistema de vectores B1 [ B2 es una base
del subespacio suma U + W , Entonces tenemos que ver que es un sistema generador de
vectores linealmente independientes:

1. Veamos que B1 [ B2 es un sistema generador de U + W :

8v 2 U +W =) 9u 2 U y 9w 2 W tal que v = u+w = (combinacin lineal de B1 )+


(combinacin lineal de B2 ) = combinacin lineal de B1 [ B2 , es decir que B1 [ B2
genera todos los vectores de U + W como queramos ver.

2. Veamos que B1 [ B2 es un sistema libre

Sea 1 e1 + + r er + 1 u1 + + p r up r + 1 w1 + + q r wq r = 0 =)

1 u1 + + p r up r = 1 e1 r er 1 w1 q r wq r 2 U \ W =)

1 u1 + + p r up r = 1 e1 + + r er =) 1 e1 r er + 1 u1 + + p r up r =0

=) 1 = = r = 1 = = p r = 0 ya que B1 es un sistema libre por ser base.

y si sustituimos en la primera expresin, obtenemos:

1 e1 + + r er + 0:u1 + + 0:up r + 1 w1 + + q r wq r = 0 =)

1 e1 + + r er + 1 w 1 + + q r wq r = 0 =) 1 = = r = 1 = = q r = 0,

ya que B2 es base, e implica 1 = = r = 1 = = p r = 1 = = q r =0

y por tanto B1 [ B2 es sistema de vectores linealmente independientes.

Por tanto B1 [ B2 es una base del subespacio suma U + W , por lo que la dimensin
es igual al nmero de vectores que tiene, es decir, dim (U + W ) = r + (p r) + (q r) =
p+q r, como queramos demostrar.

Corolario

Cuando la suma de subespacios es directa, es decir, cuando ocurre que U \ W = 0 ,


entonces la dim (U \ W ) = 0 y por tanto la dim (U W ) = dim U + dim W .
45
4.8.2 Obtencin de los subespacios suma e interseccin

Dados dos subespacios U y W de un espacio vectorial V de los que tenemos sus bases,
dimensin y ecuaciones, podemos obtener:

1. La base del subespacio suma de la siguiente forma:

Sean B1 y B2 unas bases de U y W respectivamente, entonces el sistema de vectores


B1 [ B2 es un istema generador de la suma de los dos, de aqu obtenemos que
la dim (U + W ) = rang (B1 [ B2 ), ya que es el nmero de vectores linealmente
independientes que podemos extraer de ellos, que ser su base. Apartir de la base
ya podemos obtener sus ecuaciones.

2. Las ecuaciones del subespacio interseccin de la siguiente forma:

Sea S1 y S2 los sistemas de ecuaciones que denen U y W respectivamente, entonces


el sistema de ecuaciones S1 [ S2 dene la interseccin de los dos subespacios, ya que
sus vectores tienen que vericar las condiciones de ambos, a partir de aqui sabemos
que la dim (U \ W ) = dim V rang (S1 [ S2 ) y resoviendo obtenemos una base.

Como sabemos la relacin que existe entre las dimensiones de los subespacios suma e
interseccin, la debemos de utilizar para asegurar los resultados obtenidos.

46
Leccin 5
APLICACION LINEAL DE ESPACIOS VECTORIALES.
MATRIZ ASOCIADA

5.1 Denicin de aplicacin lineal


Sean V y U espacios vectoriales sobre el mismo cuerpo | y sea f : V ! U una aplicacin.
Entonces se dice que f es una aplicacin lineal o homomossmo entre espacios vectoriales
si y slo si verica:

1. 8v; w 2 V : f (u + v) = f (u) + f (w)

2. 8v 2 V y 8 2 | : f ( :u) = :f (u)

Como quiera que V y U son grupos para la operacin suma de vectores, entonces hay
tambin homomorsmo de grupos y por tanto se verica que f 0 = 0 y f ( u) = f (u).

5.1.1 Caracterizacin de aplicaciones lineales

Sea f : V ! U una aplicacin. Entonces, f es lineal () 8 ; 2 | y 8v; w 2 V :


f ( :u + :v) = :f (u) + :f (w). Es decir, que la imagen de una combinacin lineal de
vectores es la combinacin lineal de las imgenes de dichos vectores.
Demostracin
"=)"
f ( :u + :v) = f ( :u) + f ( :v) = :f (u) + :f (w) aplicando sucesivamente los pun-
tos 1 y 2 de la denicin.
"(="

47
f (u + v) = f (1:u + 1:v) = 1:f (u) + 1:f (w) = f (u) + f (w) con esto vemos que se
cumple la condicin 1 de la denicin.
f ( :u) = f ( :u + 0:v) = :f (u) + 0:f (v) = :f (u) + 0 = :f (u) y con esto cumple
la condicin 2.

5.1.2 Los subespacios ncleo e imagen

Proposicin

Sea f : V ! U una aplicacin lineal entre espacios vectoriales. Entonces:

1. Si W V es subespacio vectorial =) f (W ) es subespacio vectorial de U .

2. Si W 0 U es subespacio vectorial =) f 1
(W 0 ) es subespacio vectorial de V .

Demostracin

1. Tenemos que ver que 8 ; 2 | y 8v 0 ; w0 2 f (W ) se verica que :v 0 + :w0 2 f (W ).


Como 8v 0 ; w0 2 f (W ) =) 9v; w 2 W f (v) = v 0 y f(w) = w0 y como quiera que
:v + :w 2 W =) f ( :v + :w) = :f (v) + :f (w) = :v 0 + :w0 2 f (W ) como
queramos ver y por tanto f (W ) es un subespacio de U .

1
2. Tenemos que ver que 8 ; 2 | y 8v; w 2 f (W 0 ) se verica que :v + :w 2
1
f (W 0 ). Como 8v; w 2 f 1
(W 0 ) =) f (v) ; f (w) 2 W 0 =) :f (v) + :f (w) =
f ( :v + :w) 2 W 0 =) :v + :w 2 f 1
(W 0 ) como queramos ver y por tanto
1
f (W 0 ) es subespacio de V .

1
As, como el ncleo de f es ker f = f 0 , entonces es subespacio de vectorial de
V . Y si llamamos imagen de f a f (V ), tambin es un subespacio vectorial, en este caso
de U , y lo denotamos por Im f .

Denicin

Sea f : V ! U una aplicacin lineal entre espacios vectoriales. Entonces, llamamos


rango de f a la dimensin de subespacio imagen de la aplicacin lineal, as, rang (f ) =
dim f (V ) :

48
Denicin

Sea f : V ! U una aplicacin lineal entre espacios vectoriales. Entonces, llamamos


nulidad de f a la dimensin del ncleo de la aplicacin lineal, as, N ld (f ) = dim ker f .

5.2 Sistema generador y base de Im f

5.2.1 Sistema generador de Im f

Proposicin

Si B = fe1 ; e2 ; ::; en g es una base de V y f : V ! U una aplicacin lineal. Entonces


f (B) = ff (e1 ) ; f (e2 ) ; : : : ; f (en )g es un sistema generador de f (V ) = Im f .
Demostracin:

8v 0 2 f (V ) ) 9v 2 V tal que f (v) = v 0 y como v = 1 e1 + + n en )

v 0 = f (v) = 1f (e1 ) + + nf (en )

por tanto f (B) es un sistema generador de la imagen de f .

Corolario

Como quiera que f (B) es un sistema generador de la imagen, entonces la dim f (V ) =


dim Im f = rang (f (B)). Y as, sabemos el nmero de vectores l.i. que tenemos que
extraer de f (B) para obtener una base de la imagen.

5.2.2 Relacin entre la dimensiones del ncleo y la imagen

Proposicin

Si f : V ! U una aplicacin lineal y B 0 es una base de ker f , y adems B 0 [ B 00 es una


base de V tal que B 0 \ B 00 = ?. Entonces f (B 00 ) es una base de la imagen de f .
Demostracin:
Veremos primero que f (B 00 ) es sistema generador y despus que est formado por
vectores linealmente independientes.

49
Sean B 0 = fe1 ; e2 ; ::; ep g y B 00 = fu1 ; u2 ; ::; uq g, como B 0 [ B 00 es una base de V )
f (B 0 [ B 00 ) es un sistema generador de f (V ) y por tanto 8v 0 2 f (V ) )

v0 = 1f (e1 ) + + pf (ep ) + 1f (u1 ) + + qf (uq ) y como B 0 ker f )

v0 = 10 + + p0 + 1f (u1 ) + + qf (uq ) = 1f (u1 ) + + qf (uq )

por tanto f (B 00 ) es un sistema generador de f (V ).


Veamos ahora que f (B 00 ) es l.i., as,

Si 1f (u1 ) + + qf (uq ) = 0 ) f 1 u1 + + q uq =0)

1 u1 + + q uq 2 ker f ) 1 u1 + + q uq = 1 e1 + + p ep )

1 e1 p ep + 1 u1 + + q uq = 0 y como B 0 [ B 00 es base )

1 = = p = 1 = = q =0

y por tanto f (B 00 ) es linealmente independiente, entonces como hemos visto que f (B 00 )


es un sistema generador de vectores linealmente independientes quiere decir que es una
base de f (V ).

Corolario

Como tenemos que B 0 [B 00 es una base de V tal que B 0 \B 00 = ?, entonces dim V = p +q.
Adems como B 0 es una base de ker f , tenemos que dim ker f = p. Y por otra parte
tenemos que f (B 00 ) es una base de Im f , y como no de vectores de B 00 es el mismo que
el no de vectores de f (B 00 ), entonces dim Im f = q, en denitiva tenemos el siguiente
resultado importante:
dim V = dim ker f + dim Im f

5.3 Aplicaciones lineales inyectivas y sobreyectivas

5.3.1 Aplicaciones inyectivas

Proposicin

Sea f : V ! U una aplicacin lineal, entonces, f es inyectiva () ker f = 0 .


Demostracin
50
")" Como para toda aplicacin lineal se verica que f 0 = 0. Que f sea inyectiva
quiere decir que todo vector de U es imagen de un nico vector de V , y por tanto el nulo
es nico vector que tiene por imagen el nulo, es decir, ker f = 0 .

"(" 8v 1 ; v 2 2 V tal que f (v 1 ) = f (v 2 ) ) f (v 1 ) f (v 2 ) = f (v 1 v2) = 0 )


v1 v 2 2 ker f y como ker f = 0 ) v 1 v 2 = 0 ) v 1 = v 2 y por tanto f es inyectiva
como queramos ver.

5.3.2 Aplicaciones sobreyectivas

Proposicin

Sea f : V ! U una aplicacin lineal y B una base de V , entonces, f es sobreyectiva


() f (B) es sistema generador de U .
Demostracin
Es evidente, pues f (B) es sistema generador de f (V ), as si f (B) es tambin sistema
generador de U entonces f (V ) = U y por tanto f es sobreyectiva.

5.3.3 Isomorsmo

Sea f : V ! U una aplicacin lineal, entonces f es un isomorsmo de espacios vectoriales


, f es inyectiva y sobreyectiva, es decir, ker f 0 y f (V ) = U .

5.4 Matrices de las aplicaciones lineales

5.4.1 Determinacin de la aplicacin lineal

Sean V; U espacios vectoriales sobre el mismo cuerpo |, sea B = fe1 ; e2 ; ::; en g una base
de V y sea S = fw1 ; w2 ; ::; wn g U ) 9!f : V ! U tal que f (ei ) = wi para i =
f1; 2; : : : ; ng. Lo que quiere decir es que para conocer una aplicacin lineal necesitamos
saber cuales son los vectores imgenes de los vectores de una base del espacio vectorial
origen, y que adems esta aplicacin lineal es nica.

51
5.4.2 Ecuaciones de una aplicacin lineal. Ecuacin matricial

Ecuaciones de una aplicacin lineal

Sean V; U espacios vectoriales sobre el mismo cuerpo | tal que dim V = n y dim U = m,
sean B = fe1 ; e2 ; ::; en g y = fu1 ; u2 ; ::; um g bases de V y U respectivamente y sea la
aplicacin lineal f : V ! U tal que f (ei ) = wi para i = f1; 2; : : : ; ng. Como 8x 2
V; 9!y 2 U tal que f (x) = y y tenemos que x = x1 e1 + + xn en , y = y1 u1 + + y m um
y para i = f1; 2; : : : ; ng : wi = a1i u1 + + ami um , entonces:

y = y 1 u1 + + ym um = f (x) = f (x1 e1 + + xn en ) = x1 f (e1 ) + + xn f (en ) =

= x1 w 1 + + xn wn = x1 (a11 u1 + + am1 um ) + + xn (a1n u1 + + amn um ) =

= (a11 x1 + + a1n xn ) u1 + + (am1 x1 + + amn xn ) um

si igualamos componentes, tenemos las ecuaciones de la aplicacin lineal:

y1 = a11 x1 + + a1n xn
y2 = a21 x1 + + a2n xn

ym = am1 x1 + + amn xn

que la podemos pasar a una ecuacin en forma matricial:


0 1 0 10 1
y a a12 a1n x
B 1 C B 11 CB 1 C
B C B CB C
B y2 C B a21 a22 a2n C B x2 C
B C=B CB C
B .. C B .. .. ... .. C B .. C es decir Y = AX
B . C B . . . CB . C
@ A @ A@ A
ym am1 am2 amn xn

donde A = M (f )B es la matriz asociada a la aplicacin lineal en las bases B y , y es


una matriz de orden m n en la que las columnas son las coordenadas de las imagenes
de los vectores de la base B de V respecto de la base de U .

5.4.3 Ecuacin matricial y el cambio de base

Sea la aplicacin lineal f : V ! U tal que V; U son espacios vectoriales sobre el mismo
cuerpo | tal que dim V = n y dim U = m y sean B = fe1 ; e2 ; ::; en g y = fu1 ; u2 ; ::; um g
bases de V y U respectivamente. Entonces existe la matriz A = M (f )B , matriz asociada
52
a la aplicacin lineal en las bases B y y tal que la ecuacin matricial de la aplicacin es
Y = AX.
0
Sean ahora B 0 y dos nuevas bases de V ,U respectivamente, entonces existir la
0
matriz A0 = M (f )B 0 0 , matriz asociada a la aplicacin lineal en las bases B 0 y y tal
que la nueva ecuacin matricial de la aplicacin ser Y 0 = A0 X 0 , donde X 0 y Y 0 son las
coordenadas de los vectores de V y U respecto de las nuevas bases. Vamos a ver que
relacin hay entre A y A0 .
Sean C y P las matrices de cambio de base de V y U respectivamente, como sabemos
las ecuaciones de cambio de base son X = CX 0 y Y = P Y 0 , entonces sustituyendo en
la ecuacin Y = AX tenemos P Y 0 = ACX 0 , como toda matriz de cambio de base tiene
1
inversa, podemos multiplicar por la izquierda por P y nos queda Y 0 = P 1
ACX 0 y
comparando con Y 0 = A0 X 0 obtenemos la relacin entre las matrices A y A0 , que es:

A0 = P 1
AC

5.5 Composicin de aplicaciones lineales

5.5.1 Denicin de composicin de aplicaciones

Sean V; U y W espacios vectoriales sobre el mismo cuerpo |, sean f : V ! U y g : U ! W


aplicaciones lineales, tales que 8x 2 V se verica que f (x) = y y 8y 2 U se verica que
g (y) = z. Entonces denimos la aplicacin f compuesta con g a g f : V ! W tal que
8x 2 V se verica que (g f ) (x) = g (f (x)) = g (y) = z 2 W , es decir, con f vamos de V
a U y con g vamos de U a W . A continuacin exponemos un esquema de la composicin
de aplicaciones.
g f
!
V ! U !W
f g

Proposicin

La composicin de aplicaciones lineales es una aplicacin lineal


Demostracin
Lo nico que tenemos que comprobar es que la imagen de una combinacin lineal de
vectores es la combinacin lineal de las imgenes, entoces sean x1 ; x2 2 V y 1; 2 2|

53
entonces:

(g f ) ( 1 x1 + 2 x2 ) = g (f ( 1 x1 + 2 x2 )) = como f es aplicacin lineal =

g( 1f (x1 ) + 2f (x2 )) = como g es aplicacin lineal = 1g (f (x1 )) + 2g (f (x2 )) =

= 1 (g f ) (x1 ) + 2 (g f ) (x2 ) como queramos ver

5.5.2 Matriz asociada a la composicin de aplicaciones

Sean f : V ! U y g : U ! W aplicaciones lineales, tales que A = M (f ) y B = M (g)


en unas bases dadas, entoces tenemos las siguientes ecuaciones matriciales Y = AX y
Z = BY , si sustituimos en la segunda ecuacin el valor de Y obtenemos que Z = (BA) X,
es decir que tenemos que M (g f ) = BA, lo que quiere decir que la matriz asociada a la
composicin de aplicaciones es el producto de las matrices asociadas en orden inverso a
como se componen dichas aplicaciones. Lo podemos representar en el siguiente esquema:

A B BA
V ! U ! W =) V !W
f g g f

El cambio de base lo podemos estudiar como una composicin de aplicaciones, si


consideramos que un cambio de base es una aplicacin del espacio vectorial en si mismo
en la que a cada vector le hacemos corresponder el mismo vector con otras coordenadas, es
decir, por ejemplo, c : V ! V tal que 8xB 0 2 V se verica que c (xB 0 ) = xB y si C es la
matriz de cambio de base tenemos la ecuacin X = CX 0 , as si tenemos que f : V !U
es una aplicacin lineal tal que A = M (f )B y sean X = CX 0 y Y = P Y 0 las ecuaciones
de cambio de base en V y U respectivamente, y por tanto Y 0 = P 1
Y el cambio de base
inverso en U , entonces tenemos que:
C A P 1 P 1 AC
V !V !U !U V ! U 1
=) es decir M (f )B 0 0 =P AC = A0
0 0 0 0
X X Y Y X Y

de esta forma podemos generalizar los cambios de base que queramos slo teniendo en
cuenta si la matriz asociada corresponde al cambio de base directo o inverso.

54
Leccin 6

DIAGONALIZACIN Y TRIANGULARIZACIN DE

ENDOMOSFISMOS Y MATRICES

6.1 Endomorsmos y matrices semejantes

6.1.1 Denicin de endomorsmo

A toda aplicacin lineal en la que los espacios vectoriales origen y nal son el mismo se
le denominan endomorsmos, es decir f es un endomorsmo si y slo si f : V ! V y es
aplicacin lineal. Por tanto la matriz asociada a un endomorsmo es una matriz cuadrada
de orden la dim V .
Ahora cuando hacemos un cambio de base en V afecta a los espacios vectoriales origen
y al nal, de esta manera, si tenemos A = M (f )B y pasamos de la base B a la base B 0
con matriz de cambio de base C, entonces la matriz asdociada a f en la nueva base es
A0 = M (f )B 0 = C 1
AC.

6.1.2 Denicin de matrices semejantes

Dadas dos matrices cuadradas A y B de orden n. Se dice que A y B son semejantes


1
(A s B) () 9C matriz cuadrada de orden n tal que jCj =
6 0yB=C AC.
Se verica fcilmente que la semenjanza de matrices es una relacin de equivalencia.
Cada clase de equivalencia representa a un slo endomorsmo, en la que cada matriz de
la clase es la asociada al endomorsmo en cierta base.
El problema que nos planteamos es que dado un endomorsmo podamos encontrar una
55
base donde la matriz asociada sea lo ms sencilla posible, es decir, lograr que la matriz sea
diagonal o triangular. Veremos que no siempre es posible encontrar la matriz diagonal.

6.2 Autovalores y autovectores

6.2.1 Autovalor y autovector de un endomorsmo

Sea V un espacio vectorial de dimensin n sobre un cuerpo | (R o C) y sea f : V ! V


un endomorsmo.

Denicin de autovector

Decimos que v 6= 0 es un autovector o vector propio de f si y slo si 9 2 | tal que


f (v) = v.
Hemos de poner de maniesto que para cada autovector el escalar al que se reere la
denicin anterior es nico. Efectivamente, si f (v) = 1v = 2v =) ( 1 2) v = 0 =)
1 = 2.

Denicin de autovalor

Al escalar de la denicin de autovector se le denomina autovalor o valor propio del


endomorsmo f asociado al autovector v.
Tambin podemos decir que v es autovector asociado al autovalor .

6.2.2 Polinomio caracterstico

Sea f : V ! V un endomorsmo y sea A = M (f )B la matriz asociada en la base B =


fe1 ; e2 ; ::; en g. Entonces 8v 2 V tal que v = (x1 ; x2 ; : : : ; xn ) sabemos que las coordenadas
de f (v) son los elementos de la matriz columna AX donde X son las coordenadas de v
en columna. Ahora si v es un autovector, tenemos tambin que f (v) = v, o lo que es
lo mismo, sus coordenadas en columna son X = IX donde I es la matriz identidad.
E igualando tenemos que AX = IX, donde operando obtenemos la siguiente ecuacin
matricial:
AX IX = O ) (A I) X = O

donde O representa la matriz columna del vector nulo.


56
En denitiva tenemos un sistema de ecuaciones homogneo, cuya condicin necesaria
y suciente para que tenga soluciones distinta de la trivial es que jA Ij = 0. As,
podemos hacer la siguiente denicin:

Denicin de polinomio caracterstico

Dada una matriz cuadrada A de orden n, llamamos polinomio caracteratico o ecuacin


caracterstica de A al polinomio que resulta del siguiente determinante jA Ij = 0. Si
A es la matriz asociada al endomorsmo f en cierta base, tambin podemos decir que
tenemos el polinomio caracterstico de f .

Proposicin

El polinomio caracterstico de un endomorsmo f no depende de la base jada. O lo que


es lo mismo, el polinomio caracterstico es inavariante respecto de los cambios de base.
Demostracin
Sea V un espacio vectorial, B y B 0 dos bases tal que C es la matriz de cambio de
6 0. Sea f un endomorsmo en V , sean A y A0 las
base, que sabemos que verica que jCj =
matrices asociadas a f en las B y B 0 respectivamente, por lo que A0 = C 1
AC. Entonces
el polinomio caracterstico en base B es:
1 1
jA Ij = 0 y como jCj =
6 0 =) jA Ij = C : jA Ij : jCj = C : (A I) :C =
1 1
= C AC C IC = jA0 Ij como queramos ver

Como quiera que los autovalores de un endomorsmo son las raices del polinomio
caracterstico, estos son independientes de la base elegida en el espacio vectorial. Y en
consecuencia, tambin los autovectores son independientes de la base.

6.3 Subespacio engendrado por un autovalor. Propiedades


de los autovectores

6.3.1 Proposicin

El conjunto de los autovectores asociados a un mismo autovalor unido con el vector


nulo, forman un subespacio vectorial. Al que denominamos subespacio asociado a y lo
expresamos por V .
57
Demostracin

8v; w 2 V y 8 ; 2 | =) f ( v + w) = f (v) + f (w) = v+ w=


( v + w) ) v + w 2 V .

6.3.2 Proposicin

Los autovectores asociados a autovalores distintos son linealmente independientes.


Demostracin
Sean v 1 y v 2 autovectores asociados a los autovalores 1 y 2 respectivamente, tales
que 1 6= 2. Y supongamos que v 1 y v 2 son dependientes, es decir, que 9 ; 2 |, no
nulos simultaneamente y v 1 + v 2 = 0 entonces v 1 = v 2 . Por otra parte tenemos
que f ( v 1 + v 2 ) = f 0 = 0 entonces f (v 1 ) + f (v 2 ) = 1v1 + 2v2 = 0 si
despejamos, tenemos que v 1 = 2
1
v 2 e igualando las dos expresiones de v 1 obtenemos
que 2
1
= 1 =) 1 = 2 en contradicin con la hiptesis de partida.

Esta propiedad la podemos traducir por la de que los subespacios asociados a auto-
valores distintos no tiene vectores comunes excepto el nulo, es decir, V i \ V j
= 0 si
i 6= j.

6.3.3 Proposicin

La dimensin del subespacio asociado a un autovalor 0, verica que 1 dim V 0 n0


donde n0 es el orden de multiplicidad de la raz 0 en el polinomio caracterstico.
Demostracin
Sea fe1 ; e2 ; : : : ; ed g una base de V 0 . Completamos ahora esta base hasta obtener
una base de V , as, sea B = fe1 ; e2 ; : : : ; ed ; ed+1 ; : : : ; en g. Hallemos la matriz asociada al
endomorsmo en esta base:

58
9
f (e1 ) = 0 :e1
>
>
>
>
>
>
f (e2 ) = 0 :e2
>
>
>
>
>
>
>
>
>
=
f (ed ) = 0 :ed =)
>
>
>
f (ed+1 ) = a1d+1 :e1 + a2d+1 :e2 + + add+1 :ed + ad+1d+1 :ed+1 + + and+1 :en >
>
>
>
>
>
>
>
>
>
>
>
;
f (en ) = a1n :e1 + a2d+1 :e2 + + adn :ed + ad+1n :ed+1 + + ann :en
0 1
0 0 a1d+1 a1n
B 0 C
B C
B 0 0 0 a 2d+1 a 2n C
B C
B .. .. . . .. .. .. .. C
B . . . . . . . C
B C
B C
A=B 0 0 0 add+1 adn C
B C
B C
B 0 0 0 ad+1d+1 ad+1n C
B C
B .. .. . . .. .. . . .. C
B . . . . . . . C
@ A
0 0 0 and+1 ann
si ahora calculamos el polinomio caracterstico, obtenemos que:

ad+1d+1 ad+1n
.. .. ..
jA Ij = ( 0 )d . . .
and+1 ann

luego el orden de multiplicidad de 0 es igual o mayor que d y por otra parte como
V 0 6= 0 , entonces su dimensin es al menos 1.

6.3.4 Conclusin

Sea f : V ! V un endomorsmo en el espacio vectorial V tal que dim V = n, si des-


ignamos por 1; 2; : : : ; r sus autovalores, por n1 ; n2 ; : : : ; nr sus respectivos rdenes de
multiplicidad y por d1 ; d2 ; : : : ; dr las dimensiones de los subespacios asociados respectivos.
Como acabamos de probar que 1 di ni ; 8i 2 f1; 2; : : : ; rg y que los subespacios
asociados a autovalores distintos su interseccin es el vector nulo, podemos concluir lo
siguiente:

1. El nmero mximo de autovectores linealmente independientes que podemos agru-


par es d1 + d2 + + dr = m, y adems se verica que r m n.
59
2. Para que exista una base de autovectores ha de vericarse que m = n, es decir han
de cumplirse dos condiciones:

(a) n1 + n2 + + nr = n, es decir, el polinomio caracterstico ha de tener exacta-


mente n races en |, teniendo en cuenta que cada raz cuenta tanta veces como
su orden de multiplicidad

(b) 8i 2 f1; 2; : : : ; rg ha de vricarse que dim V i = di = ni , es decir, la dimensin


del subespacio asociado a cada autovalor distinto tiene que ser igual a su orden
de multiplicidad.

3. En el caso de que f tenga todos sus autovalores distintos y en |, V tiene una base
formada con autovectores.

6.4 Matrices (Endomorsmos) diagonalizables

6.4.1 Denicin

Dada un matriz cuadrada A se dice que es diagonalizable si y slo si es semejante a una


1
matriz diagonal D, es decir, que existe una matriz regular C (jCj =
6 0) tal que C AC = D.
As, hay que poner en evidencia que dentro del conjunto de las matrices cuadradas en
cada clase de equivalencia, independientemente de la matriz que elijamos, todas tienen el
mismo polinomio caracterstico, los mismos autovalores y autovectores.

6.4.2 Condicin necesaria y suciente para que una matriz sea


diagonalizable

Proposicin

Una matriz cuadrada A de orden n es diagonalizable si y slo si hay una base de |n


formada por autovectores de A.
Demostracin
"=)"
1
A es diagonalizable=) 9C tal que jCj 6= 0 y C AC = D y sea la diagonal de D
la siguiente ( 1 ; 2; : : : ; n ). Entonces operando obtenemos que AC = CD, si llamamos

60
Cj = (c1j ; c2j ; : : : ; cnj ) a cada una de la columnas de C, y ahora observamos las colum-
nas de los productos AC y CD y las igualamos, tenemos que: AC1 = 1 :C1 ; AC2 =
2 :C2 ; : : : ; ACn = n :Cn , lo que quiere decir que cada una de las columnas de C repre-
senta un autovector y como adems jCj =
6 0 es una matriz de cambio de base y por tanto
forman una base de |n .
"(="
Sea la base de autovectores C 1 ; C 2 ; : : : ; C n entonces 8j 2 f1; 2; : : : ; ng se verica
que ACj = j :Cj = Cj : j siendo j el autovalor asociado correspondiente. Si ahora
construimos una matriz C cuyas columnas son los vectores de la base y una matriz diagonal
D donde los elementos de la diagonal son los autovalores j, como quiera que C es una
matriz de cambio de base cumple que jCj =
6 0, entonces agrupando los productos anteriores
1
tenemos que AC = CD y operando tenemos que D = C AC, lo que quiere decir que A
es diagonalizable.
Observaciones: el orden de los autovalores en la matriz diagonal coinciden con el orden
en el que pongamos los autovectores en la base citada.

Proposicin

Una matriz A es diagonalizable si y slo si la suma de las multiplicidades de los autovalores


es n y para cada autovalor la dimensin del subespacio asociado coincide con su orden de
multiplicidad.
Demostracin
"=)"
Es evidente pues tenemos una base de n autovectores y por tanto linealmente inde-
pendientes y cada una asociado a su correspondiente autovalor.
"(="
P
Si cada autovalor j es tal que dim V j
= nj y nj = n, entonces podemos escoger n
autovectores linealmente independientes y por tanto tenemos una base de autovectores,
que quiere decir que la matriz es diagonalizable.

Proposicin

La dimensin del subespacio asociado a un autovalor de una matriz A es n r, siendo


r el rango de la matriz (A I).
61
Demostracin
Sea A es la matriz asociada al endomorsmo f : V ! V y un autovalor. Entonces,
si v es un autovector asociado a ha de vericar que f (v) = v, es decir, si X es la
matriz columna que representa las coordenadas de v entonces tenemos que AX = X y
operando nos que (A I) X = O, que es la ecuacin de un subespacio, en este caso,
del subespacio asociado a . Y como sabemos del tema anterior, podemos calcular la
dimensin de un subespacio si conocemos sus ecuaciones, dim V = dim V no ec:l:i: =
dim V rang (A I), como queramos ver.

Conclusin

La condicin necesaria y suciente para que una matriz o endomorsmo sea diagonalizable,
adems de que todos los autovalores pertenezcan a cuerpo asociado al espacio vectorial,
es que la suma de las multiplicidades de los autovalores coincidan con la dimensin del
espacio vectorial y que para cada uno de los autovalores la dimensin del subespacio
asociado coincida con su orden de multiplicidad.

6.5 Potencia n-sima de una matriz diagonalizable


1
Sea A una matriz diagonalizable, entonces 9C tal que jCj =
6 0yC AC = D donde D es
una matriz diagonal formada por los autovalores de A. Operando en la igualdad anterior
1
obtenemos que A = CDC , y si ahora elevamos a n nos queda que:

1 n
An = CDC = CDC 1
CDC 1
CDC 1
= CDn C 1

donde Dn consiste nicamente en elevar a n cada uno de los elementos de la diagonal


principal.
1
Si volvemos a despejar en esta ltima igualdad, obtenemos que C An C = Dn , lo que
quiere decir que si A es diagonalizable, entonces An tambin es diagonalizable y que sus
autovalores son los autovalores de A elevados a la n-sima potencia.
1
Por otra parte, si A es regular (tiene inversa) y diagonalizable, entonces A es di-
agonalizable y sus autovalores son los inversos de los autovalores de A. Efectivamente,
1 1 1 1
tenemos que A = CDC =) A = (CDC ) = CD 1 C 1
=) D 1
= CA 1 C 1

1
yD es una matriz diagonal donde los elementos de la diagonal son los inversos de los
elementos de D.
62
6.6 Triangularizacin de endomorsmos

6.6.1 Denicin. Forma cannica de Jordan

Sea f : V ! V un endomorsmo. Se dice que f es triangularizable si existe una base de


V en la que tiene asociada una matriz J triangular.

Condicin necesaria y suciente

f es triangularizable si y slo si tiene n autovalores en el cuerpo asiciado |. En este caso


la diagonal de la matriz J son los autovalores.

Matriz de Jordan

A la matriz J se le denomina matriz de Jordan y es de la forma siguiente:


0 1
"1 0 0
B 1 C
B .. .. C 8
B 0 2 "2 . . C
B C <
B .. . . C i es autovalor de f
B . . ... ...
0 C donde
B C : " = 0 o bien " = 1
B .. .. C i i
B . . n 1 "n 1 C
@ A
0 0 n

el nmero de "i 6= 0 para cada autovalor es igual a su orden de multiplicidad menos la


dimensin de su subespacio asociado.
1
Ahora hemos de calcular la matriz de cambio de base C tal que J = C AC, como
sabemos las columnas de la matriz C son las coordenadas de cada uno de los vectores
de la nueva base, es decir, la matriz es de la forma siguiente C = (C1 C2 : : : Cn ) donde la
1
columna Ci es el vector i-simo de la nueva base. Si operamos en la igualdad J = C AC
obtenemos CJ = AC, es decir, A (C1 C2 : : : Cn ) = (C1 C2 : : : Cn ) J e igualando cada una
de las columnas de esta igualdad de matrices obtenemos un sistema de ecuaciones para
cada uno de los vectores de la base, as:

AC1 = 1 C1 =) (A 1 I) C1 =O

AC2 = "1 C1 + 2 C2 =) (A 2 I) C2 = "1 C1

AC3 = "2 C2 + 3 C3 =) (A 3 I) C3 = "2 C2

ACn = "n 1 Cn 1 + n Cn =) (A n I) Cn = "n 1 Cn 1


63
hemos de observar que la solucin de cada sistema depende de la solucin del anterior,
y tambin la solucin de Ci ha de ser de forma de que el sistema que resuelve Ci+1 sea
compatible, y as sucesivamente. De esta forma las soluciones dependen entre si.

64