Anda di halaman 1dari 33

Brevsima (casi rasca) Introduccion al

Algebra Lineal
Mauricio Godoy Molina
17 de Octubre de 2005
Resumen
Concluyamos de manera estetica el curso MAT-022. El calculo de antiderivadas, la incom-
prension del teorema fundamental del calculo, la falta de rigurosidad a la hora de denir las
series de funciones, la enorme cantidad de formulas aprendidas para calcular propiedades en las
distintas coordenadas . . . han sido un golpe bajo a nuestro intelecto y casi una ofensa a aquellos
que nos gusta aprender bien. Lamentablemente, los conceptos formales y rigurosos que funda-
mentan lo hecho anteriormente, no es algo que realmente necesita saber un ingeniero . . . y como
muchas veces prima la ley del mnimo esfuerzo, simplemente no se ense nan.
Cerremos el captulo obscuro de MAT-022 y veamos la luz al nal del t unel.
1.

Algebra de Matrices
La experiencia ha dicho que no necesariamente en todos los colegios se ense nan ciertos topicos
elementales y b asicos para el inicio de las matematicas serias (de hecho, el autor no vio muchos de
los temas de los cuales ha escrito en su ense nanza media, como es el caso del algebra de matrices);
por esto, no debemos asumir el conocimiento cabal de ciertos temas por parte de los alumnos. Como
dijo cierto losofo: hasta el hombre mas sabio, al tomar el libro que menos represente a sus ojos,
aprendera algo; por esto recomendamos a las personas que conocen y dominan estos topicos el dar
al menos una lectura rapida al siguiente apartado.
1.1. Matrices
Observacion: En lo sucesivo diremos que K es un cuerpo cualquiera (Q, R, C, Z/pZ, etc.)
Denicion 1.1 Diremos que A es una matriz de mn con coecientes en K si es una funcion
A : 1, . . . , m 1, . . . , n K
(i, j) A(i, j) = a
ij
Se deduce de esto que los elementos de la matriz A, en general, se denotaran con la min uscula de la
matriz con el subndice respectivo al lugar que ocupa.
Observacion: La denicion anterior induce inmediatamente una notacion muy practica para una
matriz A de elementos a
ij
, a saber A = (a
ij
).
Denicion 1.2 Diremos que la representacion de una matriz de mn con coecientes en K es un
arreglo rectangular de valores de K, dispuestos en m las y n columnas.
Denicion 1.3 Diremos que la matriz A = (a
ij
) es igual a la matriz B = (b
ij
) si y solo si poseen el
mismo orden (por ejemplo, mn) y cumplen la relacion a
ij
= b
ij
((i, j) 1, . . . , m1, . . . , n).
1
Ejemplos:
1. La matriz A = (i+j) donde (i, j) 1, . . . , m1, . . . , n posee la representacion rectangular:
B =
_
_
_
_
_
2 3 4 . . . 1 + n
3 4 5 . . . 2 + n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m + 1 m + 2 m + 3 . . . m + n
_
_
_
_
_
2. Supongamos la matriz B = (maxi, j), donde (i, j) 1, . . . , n 1, . . . , n. Luego su repre-
sentacion rectangular esta dada por:
B =
_
_
_
_
_
_
_
_
_
1 2 3 4 . . . n
2 2 3 4 . . . n
3 3 3 4 . . . n
4 4 4 4 . . . n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n n n n . . . n
_
_
_
_
_
_
_
_
_
3. La matriz 0
mn
= (0) es conocida como la matriz nula. Su representacion rectangular esta dada
por:
0
mn
=
_
_
_
_
_
0 0 0 n veces 0
0 0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
. m veces
0 0 0 . . . 0
_
_
_
_
_
Observacion: Desde ahora en adelante hablaremos en forma indistinta de la matriz y de su rep-
resentacion rectangular.
Denicion 1.4 Diremos que una matriz de m n es una matriz cuadrada si y solo si m = n. En
este caso simplemente se dira que la matriz es cuadrada de orden n (no de n n).
Denicion 1.5 Si A es una matriz cuadrada de orden n diremos que su diagonal principal es el
conjunto de los elementos a
11
, . . . , a
nn
. Diremos, ademas, que la traza de la matriz es la suma de
los elementos de su diagonal principal. Es decir, si denotamos la traza de A por trA, se tiene que
trA =
n

i=1
a
ii
Denicion 1.6 El conjunto de todas las matrices de orden m n con coecientes en K se de-
notara por /
mn
(K). En el caso de matrices cuadradas de orden n, la notacion del conjunto es
/
n
(K).
Ejemplo Importante: Si A = (a
ij
) es una matriz cuadrada que cumple que a
ij
= 0 cuando i > j
se conocen como matrices triangulares superiores. Por analoga se denen las matrices triangulares
inferiores (a
ij
= 0 cuando i < j).
2
1.2. Multiplicacion por un Escalar
La multiplicacion entre matrices y escalares es una operacion que surge en forma natural del
estudio de las transformaciones lineales pero, por lo pronto, entregaremos este hecho como denicion.
Denicion 1.7 El producto entre una matriz y un escalar es una funcion:
: K/
mn
(K) /
mn
(K)
(, (a
ij
)) (c
ij
) = (a
ij
)
Ejemplos:
1. Supongamos la matriz 0
mn
. Es claro que k K : k 0
mn
= 0
mn
.
2. Claramente se tienen las siguientes dos propiedades heredadas directamente de los n umeros
complejos (en particular para los n umeros reales):
a) Si A /
mn
(C), entonces 0 A = 0
mn
.
b) Si A /
mn
(C), entonces 1 A = A.
3. Si consideramos la matriz
B =
_
_
_
_
_
1 2 3 n
2 3 4 n + 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m m + 1 m + 2 m + n
_
_
_
_
_
/
mn
(R)
Y la multiplicamos por R tendremos la siguiente matriz
B =
_
_
_
_
_
2 3 n
2 3 4 (n + 1)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m (m + 1) (m + 2) (m + n)
_
_
_
_
_
1.3. Suma de Matrices
Al igual que la multiplicacion por un escalar, la suma de matrices aparece de manera evidente en
el estudio de las transformaciones lineales. Al igual que en el apartado anterior, solo se entregara como
denicion.
Denicion 1.8 La suma de matrices es una funcion
+ : /
mn
(K) /
mn
(K) /
mn
(K)
((a
ij
), (b
ij
)) (c
ij
) = (a
ij
+ b
ij
)
En otras palabras la adicion esta denida para matrices del mismo orden y corresponde a la suma de
las dos matrices componente a componente.
3
Ejemplos:
1. Si A /
mn
(R), entonces A + 0
mn
= A.
2. Si A /
mn
(R), entonces existe una unica matriz A /
mn
(R) tal que A+(A) = 0
mn
.
Dicha matriz se conoce como la opuesta de la matriz A y se calcula simplemente como A =
1 A.
3. La suma de n umeros complejos (en particular reales) puede entenderse como un ejemplo muy
reducido de suma de matrices, pues todo n umero complejo puede entenderse como una matriz
de 1 1, es decir, podemos identicar el conjunto /
1
(C) con C; asimismo podemos en general
asumir que /
1
(K) es lo mismoque K. Este concepto de lo mismose conoce con el nombre de
isomorsmo y sera visto de manera formal como un caso especial de transformaciones lineales.
1.4. Multiplicacion de Matrices
La multiplicacion de matrices es una funcion:
: /
mn
(K) /
nr
(K) /
mr
(K)
((a
ij
), (b
ij
)) (c
ij
) =
_
r

k=1
a
ik
b
kj
_
Es muy importante hacer notar el hecho de los ordenes que tienen que tener las matrices para poder
ser multiplicadas. Obviamente todas las matrices cuadradas de un mismo orden se pueden multiplicar
entre s. En forma analoga al caso real o complejo se dene la potenciacion entera de matrices, es
decir
A
n
=
n veces
..
A A . . . A n N A /
n
(K)
Ciertas propiedades de esta operacion seran vistas mas adelante, por lo pronto es una simple curiosi-
dad.
Ejemplos:
1. Deniremos la matriz identidad de orden n de la siguiente manera:
I
n
=
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
_
_
_
_
_
_
_
/
n
(K)
Esta matriz recibe ese nombre debido a la siguiente propiedad :
A I
n
= I
m
A = A A /
mn
(K)
2. Consideremos las siguientes matrices
B =
_
_
2 1 1
1 1 1
1 1 2
_
_
, C =
_
_
1 1 0
1 3 1
0 1 1
_
_
/
3
(R)
4
Luego se tiene que
B C = C B = I
3
=
_
_
1 0 0
0 1 0
0 0 1
_
_
Se dice entonces que C es la matriz inversa de B y viceversa.
3. Importante es hacer notar que no toda matriz cuadrada (no nula) tiene inversa, por ejemplo la
matriz de orden 2
_
1 0
0 0
_
/
2
(R)
No tiene inversa, pues si la tuviese se tendra que
_
1 0
0 0
__
a b
c d
_
=
_
a b
0 0
_
Lo cual nunca es posible igualar a I
2
.
4. La multiplicacion de matrices no es necesariamente una operacion conmutativa, pues obvia-
mente si multiplicamos una matriz D /
mn
(K) por una E /
nm
(K) (m ,= n), entonces
D E /
m
(K), mientras que E D /
n
(K). Otro caso, algo mas patologico, es que si con-
sideramos la matriz D anterior y una matriz F /
n
(K), entonces es posible tener el producto
D F, pero no el producto F D.
5. Algo interesante es que ni siquiera la multiplicacion entre matrices cuadradas respeta la con-
mutatividad, a saber
_
1 1
2 1
__
1 4
2 3
_
=
_
3 7
4 11
_
;
_
1 4
2 3
__
1 1
2 1
_
=
_
9 5
8 5
_
Ejercicio: Sean A y A

dos matrices en /
2
(R) tales que los elementos de su diagonal principal
son diferentes. Determine condiciones para que A A

= A

A. Ademas, verique que el conjunto


C
M
=
_
A /
2
(R) : A =
_
a b
b a
_
, a, b R
_
Est a formado solo por matrices que conmutan.
Partamos por considerar las dos matrices A y A

, es decir, darle valores arbitrarios a sus elementos:


A =
_
a b
c d
_
; A

=
_
a

_
Ahora bien, claramente se tiene que sus productos son
A A

=
_
aa

+ bc

ab

+ bd

c + c

d b

c + dd

_
; A

A =
_
aa

+ b

c a

b + b

d
ac

+ cd

bc

+ dd

_
Luego, para tener conmutatividad, es necesario que A A

= A

A, es decir,
_

_
aa

+ bc

= aa

+ b

c
ab

+ bd

= a

b + b

d
a

c + c

d = ac

+ cd

c + dd

= bc

+ dd

_
_
_
bc

= b

c
b

(a d) = b(a

)
c

(a d) = c(a

)
5
Dada la hipotesis que los elementos de la diagonal principal son diferentes en ambas matrices, tenemos
que a d ,= 0 y que a

,= 0, por lo tanto las ultimas dos condiciones se reducen a que bc

= b

c,
entonces solo basta que se cumpla la primera condicion.
Para el producto denido en el conjunto C
M
podemos usar los calculos hechos anteriormente, es
decir, si consideramos
z =
_
u v
v u
_
; z

=
_
u

_
C
M
Tenemos que las condiciones anteriores se reducen a
_
_
_
vv

= v

v
v

(u u) = v(u

)
v

(u u) = v(u

_
_
_
vv

= v

v
0 = 0
0 = 0
Condiciones evidentemente satisfechas por v, v

R usando la conmutatividad de R.
1.5. Reduccion Gaussiana: Operaciones Elementales
Ahora bien, es de esperarse que los matematicos quisiesemos tratar de comprender como se
comportan ciertas matrices, en otras palabras, tratar de clasicarlas con tal de tener una idea a priori
de ciertas propiedades que veremos mas adelante. Comencemos esta subseccion con la siguiente
Denicion 1.9 (Matrices Elementales Fila) Diremos que A /
n
(R) es una matriz elemental
la si y solo si A posee una de las siguientes formas:
1. A es casi identica a la matriz I
n
, salvo por dos las i
1
, i
2
que han sido permutadas. Esta matriz
se suele denotar por A = F
i
1
i
2
.
2. A es casi identica a la matriz I
n
, salvo por una la i que ha sido multiplicada por un cierto
escalar no nulo k C 0. Esta matriz se suele denotar por A = F
i
(k).
3. A es casi identica a la matriz I
n
, salvo por dos las i
1
, i
2
la segunda de las cuales ha sido
multiplicada por un cierto escalar no nulo k C0 y ha sido sumada a la la i
1
. Esta matriz
se suele denotar por A = F
i
1
i
2
(k).
Observacion: Desde ahora y a menos que se diga lo contrario, K sera reemplazado por R o C para
efectos de matrices. Evidentemente, con tal de ganar generalidad, hablaremos la mayora de las veces
de C por el hecho que este contiene a R.
Ejemplos:
1. Claramente I
n
= F
i
(1), para todo i = 1, . . . , n y para todo n N.
2. Veamos un ejemplo concreto del primer tipo de matriz elemental la. En el caso de /
4
(C)
tenemos:
F
23
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
6
3. Ahora veamos un ejemplo del segundo tipo de matriz elemental la igualmente en el caso de
/
4
(C):
F
3
(2) =
_
_
_
_
1 0 0 0
0 1 0 0
0 0 2 0
0 0 0 1
_
_
_
_
4. Finalmente, en el mismo conjunto /
4
(C) veamos como se ve una matriz elemental la del caso
3:
F
14
(3) =
_
_
_
_
1 0 0 3
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Bueno, ahora la pregunta natural sera cual es la gracia de estas matrices? La respuesta es muy
simple, pero no la dare ahora. Alargando un poco la agona veamos el siguiente
Teorema 1.1 Todas las matrices elementales son invertibles, mas a un:
1. F
i
1
i
2
F
i
1
i
2
= I
n
.
2. F
i
(k)F
i
(
1
k
) = I
n
.
3. F
i
1
i
2
(k)F
i
1
i
2
(k) = I
n
.
Demostracion 1.1 La demostracion de este teorema quedara mas que clara cuando veamos que es
lo que representan estas matrices elementales la.
Observacion: Una construccion identica a la de las matrices elementales la se puede realizar para
matrices elementales columna. Estas se suelen representar por C
i
1
i
2
, C
i
(k) y por C
i
1
i
2
(k) respectiva-
mente.
Una vez denidos estos objetos un poco abstractos, tratemos de interpretar que signican. Esta
pregunta quedara mas que clara despues de la siguiente denicion y el posterior teorema.
Denicion 1.10 (Operaciones Elementales Fila) Se dice que se ha efectuado una operacion el-
emental la sobre la matriz A /
mn
(C) si:
1. Se han permutado dos las. Si las las permutadas han sido i
1
y la la i
2
, entonces dicha
operacion se denota por

F
i
1
i
2
.
2. Una la se ha multiplicado por un escalar no nulo. Si la la modicada ha sido la i-esima y el
escalar por el cual fue multiplicada es k, entonces dicha operacion se denota por

F
i
(k).
3. A una la se le ha sumado otra multiplicada por un escalar no nulo. Si a la la i
1
se le ha
sumado la la i
2
multiplicada por k, entonces dicha operacion se denota por

F
i
1
i
2
(k).
Si se tuvo que hacer una cierta operacion elemental la

F para llegar desde A hasta A

, denotaremos
este hecho por
A

F
A

Y diremos que las matrices A y A

son equivalentes por la.


7
Claramente esta denicion debe venir seguida del siguiente
Teorema 1.2 Las operaciones elementales la se relacionan con las matrices elementales la del
siguiente modo:
A

F
A

= FA
Donde F es la matriz elemental la respectiva a la operacion

F, es decir, I
n

F
F.
Demostracion 1.2 No es difcil, y queda como ejercicio al lector.
Por lo tanto, gracias a este teorema tenemos la siguiente
Denicion 1.11 (Equivalencia por Filas) Diremos que dos matrices A, B /
mn
(C) son equiv-
alentes por la (denotado por A
f
B) si se puede obtener B a partir de A con un n umero nito de
operaciones elementales la.
Observacion: El proceso de aplicar operaciones elementales la (o columna) para obtener matrices
equivalentes por la (o columna) es llamada Reduccion Gaussiana, en honor al llamado Prncipe de
las Matematicas, el insigne Karl Friederich Gauss.
Ejemplos:
1. Claramente la equivalencia por las es una relacion de equivalencia, es decir:
Es reexiva: Claramente A
f
A pues basta considerar la operacion elemental la F
i
(1)
(i 1, . . . , m) que amplica por 1 la i-esima la por 1, es decir, deja la matriz invariante.
Es simetrica: Como vimos anteriormente, las operaciones elementales la son operaciones
invertibles, por lo que si se tiene que:
A

F
1


F
2

F
k
B
Entonces basta considerar la siguiente cadena de operaciones:
B

F
1
k

F
1
2

F
1
1
A
Usando las operaciones inversas, vistas en el Teorema 1.1.
Es Transitiva: Esta propiedad es bastante evidente, pues si A
f
B y B
f
C, entonces se
tienen operaciones elementales la tales que:
A

F
1
1

F
1
2

F
1
k
B B

F
2
1

F
2
2

F
2
l
C
Entonces tenemos que:
A

F
1
1

F
1
2

F
1
k

F
2
1

F
2
2

F
2
l
C
8
2. Veamos un ejemplo concreto de como se aplica la reduccion Gaussiana
_
_
1 2 1
3 1 2
1 3 1
_
_

F
31
(1)

_
_
1 2 1
3 1 2
0 1 0
_
_

F
21
(3)

_
_
1 2 1
0 7 1
0 1 0
_
_

F
23
(7)

_
_
1 2 1
0 0 1
0 1 0
_
_

F
2
(1)

_
_
1 2 1
0 0 1
0 1 0
_
_

F
23

_
_
1 2 1
0 1 0
0 0 1
_
_

F
12
(2)

_
_
1 0 1
0 1 0
0 0 1
_
_

F
13
(1)

_
_
1 0 0
0 1 0
0 0 1
_
_

F
1
(1)

_
_
1 0 0
0 1 0
0 0 1
_
_
3. El Teorema 1.2 asegura que en el ejemplo anterior se tiene
_
_
1 0 0
0 1 0
0 0 1
_
_

_
_
1 0 1
0 1 0
0 0 1
_
_

_
_
1 2 0
0 1 0
0 0 1
_
_

_
_
1 0 0
0 0 1
0 1 0
_
_

_
_
1 0 0
0 1 0
0 0 1
_
_

_
_
1 0 0
0 1 7
0 0 1
_
_

_
_
1 0 0
3 1 0
0 0 1
_
_

_
_
1 0 0
0 1 0
1 0 1
_
_

_
_
1 2 1
3 1 2
1 3 1
_
_
=
=
_
_
7 1 5
1 0 1
10 1 7
_
_

_
_
1 2 1
3 1 2
1 3 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
1.6. Matriz Inversa
Algo muy bueno de la reduccion Gaussiana es que permite con bastante simpleza calcular la matriz
inversa de ciertos elementos del conjunto /
n
(C). Denamos con mas propiedad dicho concepto.
Denicion 1.12 (Matriz Inversa) Dada una matriz A /
n
(C), entonces decimos que es invert-
ible si existe A
1
/
n
(C) tal que
AA
1
= A
1
A = I
n
A la matriz A
1
se le llama inversa de A.
Denicion 1.13 (Grupo Lineal) Decimos que el subconjunto de /
n
(C) de todas las matrices
invertibles se conoce como el grupo lineal GL
n
(C) (multiplicativo). Es bastante directo probar las
propiedades que denen a este conjunto como grupo, es decir:
1. Es cerrado, es decir, dadas A, B GL
n
(C), entonces AB, BA GL
n
(C).
2. Es asociativo, es decir, dadas A, B, C GL
n
(C), entonces A(BC) = (AB)C (propiedad hereda-
da de la multiplicacion de matrices).
3. Tiene un elemento neutro, obviamente es la identidad I
n
, cuya inversa es s misma.
4. Tiene inversos, es decir, para cualquier A GL
n
(C) se cumple que A
1
GL
n
(C). Este hecho
proviene directamente de la denicion.
9
Ejemplos:
1. Es bastante directo ver que la matriz identidad es su propia inversa, a saber:
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
2. De acuerdo a los ejemplos anteriores, se tiene que
_
_
7 1 5
1 0 1
10 1 7
_
_
es la matriz inversa de
_
_
1 2 1
3 1 2
1 3 1
_
_
3. Existen elementos del conjunto /
n
(C) que no estan en GL
n
(C), por ejemplo, la matriz 0
n
.
4. En el caso de /
n
(C), se tiene una formula explcita para el calculo de la matriz inversa:
_
a b
c d
_
1
=
1
ad bc
_
d b
c a
_
suponiendo que ad bc ,= 0. Si ad = bc, entonces la matriz no es invertible, como ejercicio,
puede tratar de probar este interesante fenomeno. El valor det = ad bc es conocido como el
determinante de la matriz en el caso de matrices de 2 2.
1.7. Determinante de una Matriz
Antes de empezar con este concepto trascendental, se entregaran algunas deniciones importantes
Denicion 1.14 (Traza) La traza de una matriz A /
n
(C) es simplemente la suma de los ele-
mentos de su diagonal principal, es decir:
Si A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
= tr(A) =
n

i=1
a
ii
Denicion 1.15 (Permutacion) Si denotamos J
n
= 1, 2, 3, . . . , n entonces decimos que es
una permutacion de J
n
si es una funcion biyectiva : J
n
J
n
. Diremos que la permutacion es
par o impar si se puede reducir a un n umero par o impar de transposiciones respectivamente. Una
transposicion es una permutacion de orden 2, es decir, el cambio de un elemento por otro.
10
Ejemplos:
1. Debiese ser algo mas o menos evidente que tr(I
n
) = n.
2. Si
A =
_
_
7 1 5
1 0 1
10 1 7
_
_
entonces tr(A) = 14.
3. Es un simple ejercicio de conteo vericar que si denotamos por
Perm(n) = : es una permutacion de J
n

entonces #Perm(n) = n!.


4. Una forma menos elegante de entender las permutaciones es como los reordenamientos de un
cierto conjunto, por ejemplo, queremos poner a Pepito, a Juan y a Sebastian en una la,
cuantas maneras posibles hay de hacerlo? Simplemente 3! = 6.
5. La permutacion
1
: 1, 2, 3, 4 1, 2, 3, 4 dada por
1
(1) = 2,
1
(2) = 4,
1
(3) = 1 y

1
(4) = 3, es una permutacion impar, mientras que
2
: 1, 2, 3, 4 1, 2, 3, 4 dada por

2
(1) = 4,
2
(2) = 2,
2
(3) = 1 y
2
(4) = 3 es una permutacion impar.
Denicion 1.16 (Determinante) El determinante de una matriz A /
n
(C) es un valor com-
plejo, denotado por det(A), denido como
det(A) =

Perm(n)
(1)a
1(1)
a
2(2)
. . . a
n(n)
donde el signo positivo o negativo se considera seg un la permutacion sea par o impar respectiva-
mente.
Ejemplos:
1. Cuando n = 1, entonces hay solo una posible permutacion, entonces si A = (a
11
), entonces
det(A) = a
11
.
2. En el caso n = 2 debiesemos llegar a la denicion de determinante dada en el apartado anterior.
La suposicion es correcta, pues
A =
_
a
11
a
12
a
21
a
22
_
= det(A) = a
11
a
22
a
12
a
21
3. En el caso n = 3 se tiene que si
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
= det(A) = a
11
a
22
a
33
+ a
12
a
23
a
31
+ a
13
a
21
a
32
a
13
a
22
a
31
a
12
a
21
a
33
a
11
a
23
a
32
4. Notemos que en el caso anterior el determinante se puede calcular haciendo una extension a la
idea del calculo del determinante de 22 (multiplicar los terminos en las diagonales principales,
sumarlos y despues restar los productos en las antidiagonales), este proceso se conoce como
Regla de Sarrus y no es valida en el caso general de determinantes.
11
Observacion: La funcion
det : GL
n
(C) C
A det(A)
es un caso bastante interesante de una clase particular de homomorsmo de grupos, conocidos como
valuaciones.
1.7.1. Propiedades del Determinante
Enumeraremos algunas propiedades de la funcion determinante, que pueden ser vistos como teo-
remas. Como es usual en la matematica, con la denicion dada no basta para calcular o encontrar
ciertas propiedades del determinante, se recomienda estudiar algunas formas equivalentes de calcu-
larlo. Se dejan las demostraciones de estas proposiciones como ejercicio al lector.
1. det(A) = det(A
T
).
2. Si dos las o dos columnas de A son iguales, entonces det(A) = 0.
3. Si la matriz A resulta a partir de la matriz B al intercambiar dos las o dos columnas entre
s de B, entonces det(A) = det(B).
4. Si una la o una columna de A consiste solo en ceros, entonces det(A) = 0.
5. Si la matriz A resulta a partir de la matriz B al multiplicar una la o una columna por un
escalar c, entonces det(A) = c det(B).
6. Si B = (b
ij
) se obtiene a partir de A = (a
ij
) por medio de sumar a cada elemento de la r-esima
la c veces el elemento correspondiente a la s-esima la (con r ,= s), entonces det(A) = det(B).
7. Si A = (a
ij
) /
n
(C) es una matriz triangular, entonces
det(A) =
n

i=1
a
ii
8. Una matriz tiene inversa si y solo si su determinante es no nulo.
9. Si A, B /
n
(C), entonces det(AB) = det(A) det(B).
Ejemplos:
1. Claramente det(I
n
) = 1.
2. Mas obvio a un es que det(0
n
) = 0.
3. Las propiedades dadas anteriormente muestran que el determinante se puede tratar con bas-
tante similitud usando la resuccion gaussiana. Verique que
det
_
_
1 2 1
3 1 2
1 3 1
_
_
= 1
Usando la reduccion gaussiana aplicada sobre ella anteriormente.
12
4. Si se tiene una matriz diagonal
D =
_
_
_
_
_
_
_
a
11
0 0 0
0 a
22
0 0
0 0 a
33
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
nn
_
_
_
_
_
_
_
se tiene que
det(D) =
n

i=1
a
ii
5. Para calcular el siguiente determinante:
=

n 1 1 1 1
n 2 1 1 1
n 1 3 1 1
n 1 1 4 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n 1 1 1 n

Basta restar a cada la (excepto a la primera) la primera la, teniendo el siguiente determinante
(equivalente al primero):
=

n 1 1 1 1
0 1 0 0 0
0 0 2 0 0
0 0 0 3 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 n 1

Pivoteando en el primer elemento (n), obtenemos que:


= n

1 0 0 0
0 2 0 0
0 0 3 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 n 1

Y dado que el determinante de una matriz diagonal es el producto de los elementos de la


diagonal, se tiene que:
= n 1 2 3 . . . (n 1) = n!
13
2. Espacios Vectoriales
Para comenzar el estudio como tal del algebra lineal, deniremos un concepto trascendental para
las Matematicas
Denicion 2.1 Un espacio vectorial sobre el cuerpo K (abreviado K-EV) es el cuadruple (V, +, K, )
donde V es un conjunto (no vaco) de elementos llamados vectores, K es un cuerpo de escalares (que,
en general, seran Q, R o C), + es una operacion (llamada ley interna)
+ : V V V
(, ) +(, ) = +
y es una operacion (llamada ley externa)
: KV V
(c, ) (c, ) = c
Cuyos elementos cumplen las siguientes propiedades algebraicas:
1. + y son cerradas en V : + V, y c x V , V, c K.
2. + es conmutativa: + = + , , V .
3. + es asociativa: + ( + ) = ( + ) + , , , V .
4. + tiene neutro: ! 0 V tal que + 0 = 0 + = , V .
5. + tiene inverso: Para cada V, !() V tal que + () = () + = 0.
6. tiene neutro: ! 1 K tal que 1 = 1 = , V .
7. es asociativa: (c
1
c
2
) = c
1
(c
2
), c
1
, c
2
K; V .
8. distribuye sobre +: c ( + ) = c + c , c K; , V .
9. la suma en K distribuye sobre : (c
1
+ c
2
) = c
1
+ c
2
, c
1
, c
2
K; V .
Observacion: En general la operacion + sera llamada suma y sera conocido como el producto
por escalar; en general este sera denotado por yuxtaposicion, es decir: si V el producto de por
un escalar c K sera c en lugar de c .
Importante: Como ya fuese visto en la denicion, en V existe un vector denotado por 0 tal que
es el neutro aditivo. Este vector es conocido como vector nulo y sera especicada la diferencia entre
el y el elemento neutro aditivo de K solo en caso de ser necesario, en otro caso se debera deducir a
partir del contexto.
Mas Importante A un: Si consideramos V = 0 se habla del Espacio Vectorial Nulo. Es claro
que V es un K-EV, sin importar el cuerpo que se considere.
14
Ejemplos:
1. Claramente si consideramos V = R
n
con K = R con la suma y el producto escalar componente
a componente se tiene un espacio vectorial. A los espacios vectoriales con K = R se les llama
espacios vectoriales reales o REV. Claramente el vector nulo es (0, 0, . . . , 0) R
n
.
2. As como en el ejemplo anterior, podemos decir que V = C
n
con K = R es un REV con
la suma y la multiplicacion por escalar componente a componente. Algo interesante que notar
es que C
n
es tambien un CEV. Se deja como ejercicio que veriquen que a R
n
no se le
puede denir una estructura de CEV, pero que a cualquier CEV se le puede dotar de una
estructura de REV.
3. Denamos el conjunto

p
=
_
a
i

i=1
sucesion , a
i
C, i N :

i=1
[a
i
[ <
_
Con 1 p < y con la suma y producto por escalar usual de sucesiones. Este conjunto es un
CEV (y por tanto, un REV) como puede vericarse a partir de algunas de las propiedades
vistas en la Subseccion ??. Si no se ve claramente este hecho, pueden considerarse las series
con coecientes en R.
4. Consideremos el conjunto
K
n
[x] = a
0
+ a
1
x + . . . + a
n
x
n
: a
0
, a
1
, . . . , a
n
K
Esto es, el conjunto de todos los polinomios con coecientes en K de grado menor o igual a n.
El conjunto K
n
[x] con la suma y el producto por escalar usual de polinomios es un KEV.
5. Consideremos las siguientes leyes (interna y externa respectivamente) sobre el conjunto R
+
:
+ : R
+
R
+
R
+
(x, y) xy
: R R
+
R
+
(, x) x

Se deja como ejercicio vericar las propiedades anteriores para probar que R
+
con las leyes
anteriores es un REV.
6. El conjunto /
mn
(K) tiene una estructura natural como KEV con la suma y el producto
por escalar usual de matrices.
7. El conjunto de funciones de clase (
n
(R) (n N) forman un REV con la suma y el producto
escalar de funciones n veces diferenciables visto en MAT-021.
2.1. Subespacios Vectoriales
Consideremos un subconjunto W V no vaco, donde V es un K-EV. Se tiene entonces la
siguiente denicion
15
Denicion 2.2 Diremos que W V es un subespacio vectorial de V si y solo si W es un espacio
vectorial con las operaciones denidas en V restringidas a el.
Teorema 2.1 Se dice que W es un subespacio vectorial de V si y solo si W V y todos los elementos
de W cumplen las siguientes propiedades algebraicas:
1. 0 W. Esta propiedad se deduce tanto de 2. (tomando = ) como de 3. (tomando c = 0),
pero se suele escribir por una cuestion de enfasis.
2. Para cada , W, + W. Es decir, + es cerrada en W. Tambien diremos que W es
invariante bajo la suma.
3. Para cada W y c K, c W. Es decir, + es cerrada en W. Tambien diremos que W es
invariante bajo el producto.
Demostracion 2.1 La demostracion es inmediata, pues se necesita vericar solo la clausura de
la suma y del producto por escalar (es decir, que sean operaciones cerradas). Todas las demas
propiedades son heredadas de V .
Observacion: El hecho de que W sea un subespacio vectorial de V se denota por W V . Si
W ,= V , se dice que W es un subespacio vectorial propio de V y se denota por <.
Ejemplos:
1. En todo espacio vectorial V (con al menos 2 elementos) sobre un cuerpo K se tienen al menos 2
subespacios vectoriales triviales: El espacio nulo, es decir, el subespacio vectorial de V formado
solo por el cero y el espacio completo V . Al considerar los subespacios propios solo se tiene
seguro al esapcio nulo. Un ejemplo de un espacio vectorial que tiene solo al espacio nulo como
subespacio propio es R como REV.
2. En R
3
(como REV) hay 4 tipos diferentes de subespacios vectoriales geometricamente hablan-
do, a saber:
a) El espacio nulo.
b) Las rectas que pasan por el origen.
c) Los planos que pasan por el origen.
d) Todo R
3
.
Una demostracion de este interesante hecho se puede obtener como un corolario (colorn coro-
lario) a partir del concepto estudiado en la Subseccion 2.5.
3. Si consideramos el conjunto R
n
[x] como REV, entonces todos los subespacios vectoriales de
el quedan determinados por R
m
[x], con 0 m n, m N.
4. El conjunto de funciones de clase (
n
(R) forma un subespacio vectorial del REV de las fun-
ciones de R en R.
16
2.2. Combinaciones Lineales
Consideremos un subconjunto nito de vectores de V , un K-EV; a saber:
=
1
,
2
, . . . ,
k
V
con k N. Junto a este hecho, podemos considerar un subconjunto nito de escalares de K (con
identica cardinalidad que el subconjunto de vectores), a saber:
c
1
, c
2
, . . . , c
k
K
luego se tiene la siguiente denicion
Denicion 2.3 Un vector V se dice combinacion lineal de los elementos de con coecientes
c
1
, c
2
, . . . , c
k
si se puede escribir de la siguiente forma:
= c
1

1
+ c
2

2
+ . . . c
k

k
Ejemplos:
1. Sean p(x), q(x), r(x) R
4
[x] dados por p(x) = x
4
+ x
2
, q(x) = 1 2x
3
+ 3x
2
y r(x) = 3 + 2x,
entonces
2p(x) + q(x) r(x) = 2x
4
2x
3
+ 5x
2
2x 2 R
4
[x]
2. Si consideramos dos funciones en el espacio (
r
(R), entonces cualquier combinacion lineal entre
ellas sigue siendo una funcion en (
r
(R), lo cual se desprende de inmediato de las propiedades
de lmite.
2.3. Subespacios Generados
Consideremos J V , donde V es un K-EV y J ,= . A partir de esto, se tiene la siguiente
denicion:
Denicion 2.4 Diremos que J ) es el conjunto generado por J si y solo si es el conjunto de todas
las combinaciones lineales de los elementos de J con coecientes en K.
En base a esta denicion se tiene el siguiente
Teorema 2.2 Dadas las mismas hipotesis y notaciones anteriores (V un K-EV, J un subconjunto
de V , etc.) se tiene que J ) V .
Demostracion 2.2 Claramente J ) V , pues J ) esta generado por el conjunto J V y, por
el Teorema 2.1, se deduce la contencion. Una vez asegurada la contencion, debemos vericar las dos
condiciones dadas en el Teorema 2.1, es decir:
1. Sea j J), tomando c = 0 se tiene que 0j = 0 J.
17
2. Sean j
1
, j
2
J ), es decir:
j
1
= a
1

1
+ a
2

2
+ . . . + a
k

k
j
2
= b
1

1
+ b
2

2
+ . . . + b
k

k
Tenemos que
j
1
+ j
2
= (a
1

1
+ a
2

2
+ . . . + a
k

k
) + (b
1

1
+ b
2

2
+ . . . + b
k

k
) =
= (a
1
+ b
1
)
1
+ (a
2
+ b
2
)
2
+ . . . + (a
k
+ b
k
)
k
J )
3. Sea j J ) y c K, se tiene que:
cj = c(a
1

1
+ a
2

2
+ . . . + a
k

k
) =
= (ca
1
)
1
+ (ca
2
)
2
+ . . . + (ca
k
)
k
J )
Finalmente, se hara mencion a un concepto muy importante en lo sucesivo:
Denicion 2.5 Diremos que J es un generador de V (usando las mismas notaciones anteriores) si
J ) = V
Ejemplos:
1. En R
3
, el espacio generado por un solo vector es una recta que pasa por el origen.
2. Para cualquier espacio vectorial V se tiene que el subespacio vectorial generado por 0
V
es
simplemente 0
V
.
3. 1, x, x
2
, x
3
, x
4
) = R
4
[x].
4. 1, sin(x), cos(x), sin(2x), cos(2x), . . .) es el espacio vectorial de todas las funciones periodicas
de perodo 2, seccionalmente continuas (es decir, que en un intervalo de perodo 2 tienen
un n umero nito de discontinuidades). El conjunto 1, sin(x), cos(x), sin(2x), cos(2x), . . . se
conoce como base de Fourier y se veran algunas propiedades mas en MAT-023.
2.4. Dependencia e Independencia Lineal
Consideremos =
1
,
2
, . . . ,
k
V , donde V es un K-EV. Se sigue de esto la siguiente
denicion:
Denicion 2.6 Se dice que es un conjunto linealmente dependiente si y solo si existen escalares
c
1
, c
2
, . . . c
k
no todos nulos tales que
c
1

1
+ c
2

2
+ . . . , c
k

k
= 0
Tambien diremos que J es linealmente dependiente si existe una combinacion lineal no trivial para
0 V .
En base a esta denicion es de suponerse la que correspondera a la independencia lineal, en todo
caso:
18
Denicion 2.7 Se dice que es un conjunto linealmente independiente si no es linealmente de-
pendiente. En otras palabras si la unica combinacion lineal para 0 V es la trivial. En forma mas
explcita a un si:
c
1

1
+ c
2

2
+ . . . + c
k

k
= 0 c
1
= c
2
= . . . = c
k
= 0
Con estas dos denciones en el bolsillo, podemos vericar el siguiente
Teorema 2.3 Un conjunto de vectores J ,= es linealmente independiente si y solo si cada vector
de J ) se puede escribir en forma unica como combinacion lineal de los elementos de J.
Demostracion 2.3 Dado que el Teorema esta enunciado en forma de equivalencia, debemos probar
una doble implicancia:
J es linealmente independiente.
Razonemos por absurdo. Consideremos J ) tal que
= a
1

1
+ . . . + a
k

k
= b
1

1
+ . . . + b
k

k
Y que, al menos, a

,= b

(es decir, consideramos un vector de J ) tal que posee dos repre-


sentaciones diferentes como combinacion lineal de los elementos de J). Luego, se tiene que
0 = (a
1

1
+ . . . + a
k

k
) (b
1

1
+ . . . + b
k

k
) =
= (a
1
b
1
)
1
+ . . . + (a
k
b
k
)
k
J )
Debido a que J es linealmente independiente, necesariamente debe ocurrir que los coecientes
son identicamente nulos y, por lo tanto, a

= b

, obteniendo la contradiccion esperada.


Todo elemento de J ) posee una unica representacion como combinacion lineal de los elementos
de J.
Nuevamente podemos razonar por absurdo. Supongamos c
1
, . . . , c
k
no todos nulos tales que
0 = c
1

1
+ . . . + c
k

k
Pero dado que los elementos de J ) pueden escribirse en forma unica como combinaci on lineal
de los elementos de J, debe ocurrir que
c
1
= . . . = c
k
= 0
Que es, precisamente, la contradiccion que esperabamos encontrar.
A partir del Teorema anterior, podemos deducir el siguiente
Corolario 2.4 Todo conjunto de vectores tal que 0 es linealmente dependiente.
Demostracion 2.4 La demostracion de este Corolario es trivial a partir del Teorema anterior, pues
supongamos
1
, . . . ,
k
tales que ninguno de ellos corresponde al vector nulo, luego si:
=
1
+ . . . +
k
podemos considerar la combinacion lineal
+
1
+ . . . +
k
= 0
que es diferente de la representacion trivial del vector nulo, por lo tanto el conjunto no es lineal-
mente independiente y, en forma equivalente, es linealmente dependiente. Ahora bien, si = 0 la
dependencia lineal es inmediata, pues si c
1
, c
2
K tales que c
1
,= c
2
se tiene que
0 = c
1
0 = c
2
0
19
Ejemplos:
1. El conjunto de vectores de R
3
:
(1, 2, 3), (0, 0, 1), (1, 1, 1), (0, 4, 3) R
3
Es linealmente independiente. Mas a un, como se vera mas adelante, en los ejemplos que traba-
jaremos en este curso existe una cota para la cantidad de vectores linealmente independientes
que pueden haber en cada espacio vectorial (salvo en los casos de espacios vectoriales llamados
de dimension innita). En este caso, la cota es de 3 vectores.
2. Discuta si el conjunto sin x, cos x, x
2
, e
3x
, 1 es o no linealmente independiente en el REV de
funciones continuas de R en R.
3. El conjunto 1 + i, 2 C es linealmente independiente al ver a C como REV, pero es
linealmente dependiente al ver a C como CEV.
4. Geometricamente, por ejemplo, en R
3
se puede pensar la independencia lineal entre dos vectores
como vericar que el subespacio vectorial generado por uno de ellos (es decir, la recta que pasa
por el origen con direccion dada por uno de los vectores) contiene al otro vector. Asimismo
podemos denir la independencia lineal entre subespacios vectoriales, por ejemplo, un vector
es linealmente independiente de un plano que pasa por el origen si y solo si el plano contiene
al vector, es decir, que el vector se pueda escribir como combinacion lineal de los vectores que
generan al plano.
2.5. Bases
Para el estudio apropiado del

Algebra Lineal, el concepto de base no es menos que trascendental,
es por esto, que la denicion siguiente es de vital importancia en este captulo:
Denicion 2.8 Diremos que B V , donde V es un K-EV, es una base de V si y solo si B es un
generador linealmente independiente de V .
Pero las bases no se quedan solo en deniciones, de hecho queremos demostrar un teorema im-
portante, pero para ello necesitamos de un
Lema 2.5 Si B es una base de V , entonces es el mayor conjunto linealmente independiente de V .
Demostracion 2.5 Consideremos v V tal que v no pertenece a B, luego B v es linealmente
dependiente pues dado que B genera a V , existe una combinacion lineal de los elementos de B que
es igual a v.
Este hecho es de vital importancia como veremos en el siguiente
Teorema 2.6 Si una base de V tiene cardinalidad nita n, entonces toda otra base de V tiene
exactamente la misma cardinalidad.
20
Demostracion 2.6 Supongamos B
1
y B
2
bases de V , de las cuales sabemos solo que Card(B
1
) = n.
Usando el Lema anterior, se deduce que no puede ocurrir que Card(B
2
) > n (pues requerimos que
B
2
sea linealmente independiente), es decir, basta vericar que no puede ocurrir que Card(B
2
) < n;
esto se debe a que, de ocurrir que Card(B
2
) < n, B
2
no genera a V .
Usemos reductio ad absurdum. Supongamos que B
2
es base de V , considerando que Card(B
2
) =
r < n, luego ocurre que B
1
es un conjunto linealmente independiente con cardinalidad mayor que la
de la base de V , que se contradice con el Lema anterior.
De este hecho se deduce el siguiente
Corolario 2.7 Si B
1
y B
2
son bases de un K-EV, entonces existe una funcion biyectiva : B
1
B
2
Demostracion 2.7 Esta demostracion es muy trivial, pues basta con jar un orden de los elementos
de ambas bases, luego podemos elegir la funcion que asocia biunvocamente los elementos seg un el
lugar que ocupan en el orden preestablecido. Vericar que es biyectiva es, ahora una mera cuestion
de calculo.
Interesante resulta destacar que dado un subespacio (caracterizado por su base), existe la posi-
bilidad de obtener un sistema generador linealmente independiente del espacio entero por medio de
la inclusion de vectores linealmente independientes a la base del subespacio. Veremos la validez de
este hecho en el caso de dimension nita
Teorema 2.8 (Completacion de Base) Supongamos, como es usual, que V es un K-EV tal que
dim
K
V = n N (es decir, de dimension nita) y W tal que W < V , dim
K
W = m < n. Si
B
W
= w
1
, . . . , w
m
es base del subespacio W, existen vectores linealmente independientes en V (y
que no estan en W) u
m+1
, . . . , u
n
tales que B = B
W
u
m+1
, . . . , u
n
= w
1
, . . . , w
m
, u
m+1
, . . . , u
n

es base de V .
Demostracion 2.8 Dado que W < V , entonces existe al menos un vector u
m+1
V tal que
B
W
u
m+1
es un conjunto linealmente independiente de vectores de V . Si n = m + 1 el proceso
acaba en el primer paso, si no fuese as, entonces es posible encontrar otro vector u
m+2
tal que
B
W
u
m+1
, u
m+2
es linealmente independiente y as sucesivamente. Por el Lema 2.5 este proceso
termina cuando se alcanzan n vectores linealmente independientes.
Teorema 2.9 (Unicidad de Coordenadas) Si B es una base de V , entonces cualquier elemento de V
(excepto el vector nulo) se puede escribir en forma unica como combinacion lineal de los elementos
de B. El conjunto de escalares que acompa nan a los diferentes elementos de la base se conocen como
coordenadas.
Demostracion 2.9 Supongamos B =
1
, . . . ,
n
y V , luego el conjunto B es linealmente
dependiente, es decir, existen escalares
1
, . . . ,
n
, K tales que
n

i=1

i
+ = 0 =
n

i=1


i
Para vericar la unicidad de la descomposicion supongamos que existen escalares

1
, . . . ,

n
K
diferentes de los anteriores, tales que
=
n

i=1


i
21
luego, se deduce que
0 =
n

i=1
(
i

i
)
i
y, producto de la independencia lineal de los vectores
1
, . . . ,
n
, se deduce que
i
=

i
, i = 1, . . . , n,
obteniendo la contradiccion esperada.
Ejemplos:
1. Una base de R
n
(como REV) esta dada por:
v
1
= (1, 0, 0, . . . , 0) ; v
2
= (1, 1, 0, . . . , 0) ; . . . ; v
n
= (1, 1, 1, . . . , 1)
2. Una base para K
n
[x] esta dada por el conjunto linealmente independiente de monomios
p
0
(x) = 1 ; p
1
(x) = x ; p
2
(x) = x
2
; . . . ; p
n
(x) = x
n
3. El espacio vectorial de matrices /
2
(R) (visto como REV) tiene como base al siguiente
conjunto:
_
1 1
0 0
_
;
_
1 0
0 1
_
;
_
1 0
1 0
_
;
_
0 0
1 1
_
4. Toda base de R vista como REV tiene solo 1 elemento. Por comodidad se suele utilizar el
conjunto 1.
5. Todo conjunto que contenga al vector nulo no puede ser una base pues falla la independencia
lineal.
6. Determine cual es la cardinalidad de alguna base (y, por lo tanto, de todas) del espacio vectorial
/
mn
(R) visto como REV. Sugerencia: Pruebe imaginando a /
mn
(R) como otra forma de
escribir R
mn
.
2.6. Dimension
Ya con la maravillosa introduccion del concepto de base y el teorema que nos asegura que todas
ellas poseen una misma cardinalidad, parece natural dar un nombre a este n umero, por esto la
siguiente denicion:
Denicion 2.9 Diremos que un K-EV posee dimension n N (nita) si la cardinalidad de una
base cualquiera B de V es exactamente n. Si B tuviese cardinalidad innita, diremos que K-EV es
de dimension innita.
Observacion: En lo que sigue, supondremos que los espacios vectoriales poseen dimension nita,
excepto cuando la dimension no inuya en el ejercicio o en el concepto en s.
Importante: Si en un ejercicio se tratasen con espacios vectoriales de dimension innita, la idea
es que extiendan los resultados del caso nito al innito, pues la mayora suelen ser analogos.
22
Observacion: Si la dimension de V , un K-EV, es n N, entonces quedara denotada por n =
dim
K
V .
Teorema 2.10 Si W V , entonces dim
K
W dim
K
V . Mas a un, la igualdad solo ocurre cuando
W = V .
Demostracion 2.10 Es evidente que si W = V , necesariamente su dimension es n. Si W < V ,
existe al menos un vector V tal que no esta en W, por lo tanto, si B
W
es base de W, B
W
)
no genera a V . Claramente si no es generado por B
W
, tampoco lo son los vectores c (donde
c K). Por lo tanto, la dimension de W es a lo mas n 1, pues el conjunto de los vectores c es
un subespacio vectorial de dimension 1 de V . Se dice que es a lo mas n 1 pues podra ocurrir que
existiese otro vector V que no este en W y que fuese linealmente independiente del vector
anterior y as sucesivamente, de tal manera que el conjunto de ellos forman un subespacio vectorial
de dimension mayor que 1 y, por tanto, W tendra dimension menor que n 1.
En particular haremos mencion de un espacio vectorial de bastante importancia: el espacio K
n
.
Recordemos que la notacion K
n
representa el producto vectorial de K n veces, es decir,
K
n
= K. . . K
. .
n veces
= (x
1
, . . . , x
n
) tal que x
1
, . . . , x
n
K
Deniremos la suma y el producto por un escalar en K
n
de la siguiente manera:
1. Suma: Sean (x
1
, . . . , x
n
) y (y
1
, . . . , y
n
) dos vectores culesquiera de K
n
, se dene la suma de ellos
como
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+ y
1
, . . . , x
n
+ y
n
)
2. Multiplicacion por Escalar: Sean c K y x = (x
1
, . . . , x
n
) K
n
, se dene la multiplicacion
entre c y x como
cx = c(x
1
, . . . , x
n
) = (cx
1
, . . . , cx
n
)
Claramente con estas operaciones resulta que K
n
es un espacio vectorial. Con el n de determinar
su dimension, busquemosle una base. Por simpleza, deniremos un gran ahorro de notacion:
Denicion 2.10 Se dene el Delta de Kroenecker de la siguiente manera:

ij
=
_
1 si i = j
0 si i ,= j
Teorema 2.11 El conjunto K
n
es un espacio vectorial sobre K con la suma y la multiplicacion por
escalar componente a componente.
Demostracion 2.11 La demostracion de este teorema es bastante inmediata y se deja de ejercicio
para el lector.
Teorema 2.12 El conjunto B
c
= e
1
, . . . , e
n
, donde
e
i
= (
i1
, . . . ,
in
)
forma una base de K
n
.
Demostracion 2.12 Tanto la independencia lineal como la generacion de K
n
son triviales en esta
base. Es por esto que esta base se conoce como Base Canonica.
Corolario 2.13 K
n
cumple con la propiedad dim
K
K
n
= n
Demostracion 2.13 Cuentense los elementos de la base canonica de K
n
.
23
Ejemplos:
1. R visto como QEV tiene dimension innita. Verique esta armacion tomando, por ejemplo,

p : p primo . Cual es la cardinalidad de la base de este espacio vectorial?


2. El espacio K
n
[x] tiene dimension n + 1, pues basta tomar la base canonica presentado en los
ejemplos de la seccion anterior, esto es, tomando la base formada por los monomios
p
0
(x) = 1 ; p
1
(x) = x ; p
2
(x) = x
2
; . . . ; p
n
(x) = x
n
3. Si consideramos el espacio vectorial de las matrices simetricas de n n con coecientes reales,
verique que se tiene que su dimension es
n(n+1)
2
. Cual es la dimension del espacio vectorial
de matrices antisimetricas? Sorprendase de su resultado al sumar ambos valores Tiene logica?
Si no la tuviese, posiblemente tiene malo su resultado.
4. C
n
tiene dimension real (es decir, como REV) 2n, pero dimension compleja n. Claramente
esto se sigue de la construccion de la base de C
n
. Trate de obtener su propia base canonica
(que de seguro coincidira con la base canonica usual) en ambos casos y deduzca el enunciado.
5. Si, por ejemplo tomamos el REV R
n
[x] y consideramos el subespacio vectorial de este R
m
[x]
(evidentemente m n), se tiene de inmediato la desigualdad de las dimensiones.
2.7. Subespacios Especiales
En lo sucesivo, diremos que E y F son subespacios vectoriales de V , un K-EV.
2.7.1. Espacio Interseccion
Es de gran importancia el vericar caractersticas que posee la interseccion de subespacios.
Denicion 2.11 Diremos que EF es el espacio interseccion de los subespacios E y F si y solo si:
E F = [ E F
Teorema 2.14 Dadas las hipotesis y deniciones anteriores, se cumple que E F V .
Demostracion 2.14 Supongamos
1
,
2
E F y K. Dado que E es un K-EV por s solo,

1
+
2
E y
1
. Lo mismo ocurre al analizarlos como elementos de F. Es decir, se cumple que
tanto
1
+
2
como
1
pertenecen a la interseccion.
Corolario 2.15 Con las convenciones anteriores se tiene que dim
K
E F dim
K
V .
Demostracion 2.15 La demostracion se sigue inmediatamente del Teorema 2.10.
Observacion: Es claro que la union de subespacios vectoriales no es un subespacio vectorial.
24
2.7.2. Espacio Suma
As como la interseccion de subespacios presenta propiedades interesantes, lo propio ocurre con
la suma de subespacios.
Denicion 2.12 Diremos que E + F es el espacio suma si y solo si:
E + F = u + v[u E v F
Teorema 2.16 Con las convenciones anteriores se tiene que E + F V .
Demostracion 2.16 Consideremos u
1
+ v
1
E + F, donde u
1
E y v
1
F y, en forma analoga
consideremos u
2
+ v
2
E + F y K. Luego, se sigue de inmediato que, por el hecho que E y F
son espacios vectoriales por s solos, u
1
+ u
2
+ v
1
+ v
2
E + F y u
1
+ v
1
E + F.
Corolario 2.17 Con las convenciones anteriores se tiene que dim
K
(E + F) dim
K
V .
Demostracion 2.17 La demostracion se sigue inmediatamente del Teorema 2.10.
Teorema 2.18 Usando las mismas convenciones anteriores se tiene que
dim
K
(E + F) = dim
K
E + dim
K
F dim
K
(E F)
Demostracion 2.18 Consideremos B
EF
=
1
, . . . ,
m
una base de E F. Dado que E F E
la base B
EF
se puede completar hasta obtener una base de E, a saber:
B
E
=
1
, . . . ,
m
,
1
, . . . ,
n

Del mismo modo, siguiendo el mismo razonamiento, tenemos que


B
F
=
1
, . . . ,
m
,
1
, . . . ,
r

es una base de F. Con estas bases podemos crear el conjunto B = B


E
B
F
, el cual resulta ser base de
E+F. Para vericar esta armacion notemos que al considerar una combinacion lineal de elementos
de B tal que sea igual a cero (considerando
i
,
j
,
k
K):
m

i=1

i
+
n

j=1

j
+
r

k=1

k
= 0
se puede deducir lo siguiente (haciendo un peque no arreglo en la notacion, a saber
v =
m

i=1

i
; v
1
=
n

j=1

j
; v
2
=
r

k=1

k
= 0
_
v
1
E se puede escribir como combinacion lineal de los elementos de F, por lo tanto, v
1
F,
mas a un, v
1
E F. Por este hecho, v
1
debera poder expresarse como combinacion lineal de los
elementos de B
EF
, es decir, v
1
= 0. Identico razonamiento es valido para v
2
= 0, por lo que se
deduce que v = 0. Dada la independencia lineal de los elementos de las bases B
E
, B
F
y B
EF
se
desprende el hecho de que
1
= . . . =
m
=
1
= . . . =
n
=
1
= . . . =
r
= 0.
Para vericar que B =
1
, . . . ,
m
,
1
, . . . ,
n
,
1
, . . . ,
r
genera a E + F basta ver que todo
elemento de E + F se escribe como la suma de elementos de E y F y, dado que las bases de estos
subespacios estan contenidas en B, podemos crear cualquier vector de E+F como combinaci on lineal
de los elementos de B.
25
2.7.3. Espacio Suma Directa
Esta particularizacion del espacio suma es de vital importancia en el estudio venidero del algebra
lineal, por lo tanto, pongan especial atencion.
Denicion 2.13 Diremos que la Suma Directa de dos subespacios E y F de V es el subespacio suma
E + F con la restriccion de que E F = 0. Denotamos la suma directa de E y F por E F.
Ahora bien, es de esperarse que se tenga el siguiente
Teorema 2.19 Usando las notaciones anteriores se tiene que E F V .
Demostracion 2.19 La demostracion es exactamente la misma que en el Teorema 2.16.
Corolario 2.20 Usando las notaciones anteriores, se tiene que
dim
K
E F = dim
K
E + dim
K
F
Demostracion 2.20 Se deduce este corolario al notar que E F = 0, por lo tanto, se tiene que
dim
K
E F = 0. Luego basta utilizar el Teorema 2.18.
Finalmente, un importantsimo
Teorema 2.21 Dado E < V , existe un subespacio vectorial F < V tal que V = EF. Este espacio
se conoce como el complementario de E respecto de V .
Demostracion 2.21 Este teorema se sigue directamente del Teorema 2.8.
Ejemplos:
1. R
n
= R R
n veces
R.
2. R
3
[x] = a + bx : a, b R cx
2
+ dx
3
: c, d R.
3. /
n
(R) = S
n
(R)+A
n
(R), donde S
n
(R) es el espacio vectorial de matrices simetricas (invariantes
bajo transposicion) y A
n
(R) el de las matrices antisimetricas (que tras una transposicion,
cambian de signo). Verique esta armacion.
4. T(R, R) = T(R, R) 1(R, R) donde T(R, R) es el espacio vectorial de funciones de R en R,
T(R, R) es el espacio vectorial de funciones pares y 1(R, R), el de funciones impares. Verique
esta armacion.
26
2.7.4. Espacio Cociente
Finalmente, tratamos con una idea que, en un principio puede parecer rara, pero que si se contin ua
en el estudio de las matematicas, se vera que no es menos que natural. Es una situacion parecida a
medir los angulos en grados (siendo que lo natural es medirlos en radianes) o calcular logaritmos en
base 10 (siendo que para el tratamiento formal de los logaritmos es fundamental el logaritmo natural).
Antes de comenzar con el Espacio Cociente, veamos una denicion sencilla que, perfectamente pudo
haber sido dada en MAT-021.
Denicion 2.14 Diremos que una relacion ' es una relacion de equivalencia si dados x, y, z
Dom':
1. La relacion es reexiva:
x'x
2. La relacion es simetrica:
Si x'y = y'x
3. La relacion es transitiva:
Si x'y y y'z = x'z
Ahora bien, dado un conjunto / en el cual se tiene una relacion de equivalencia, se da en forma
natural una particion del conjunto.
Denicion 2.15 Diremos que un conjunto / esta particionado en una coleccion de subconjuntos de
/: = /
1
, . . . , /
n
si y solo si
n
_
i=1
/
i
=
_
= / donde /
i
/
j
= si i ,= j
No existe ning un impedimento de extener esta deinicion al caso innito.
Si la particion de un conjunto es heredada a partir de una relacion de equivalencia, cada uno de los
subconjuntos que forman son llamados clases de equivalencia. En el caso de Espacios Vectoriales,
la relacion de equivalencia mas simple, con sus respectivas clases, queda dada por
Denicion 2.16 Dados , V diremos que estan en la misma clase de equivalencia respecto del
subespacio E si y solo si:
E
Denotaremos este hecho por [], donde [] denota la clase de equivalencia con como represen-
tante.
Proposicion 2.22 La relacion denida anteriormente es, efectivamente, una relacion de equivalen-
cia.
Demostracion 2.22 La demostracion de esto es trivial, pues solo basta vericar las condiciones
dadas en la Denicion 2.14.
27
La denicion anteriormente dada induce a una notacion muy util para las clases de equivalencia,
a saber:
[] = + E = + [ E
Esta importante denicion permite denir el Espacio Cociente, usando la notacion antes denida.
Denicion 2.17 Dadas las convenciones y notaciones qnteriores, diremos que V/E es el Espacio
Cociente del espacio V respecto de su subespacio E si y solo si:
V/E = [][ V
En otras palabras, lo que estamos haciendo al cocientar un espacio vectorial V con respecto al
subespacio E es parametrizar V de tal manera que el total de elementos de V queda reducido solo a
las clases de equivalencia respecto de E.
Teorema 2.23 El espacio cociente entre V y E cumple: V/E V , con las operaciones inducidas
por la relac ion de equivalencia, dadas por:
V/E V/E V/E
( + E, + E) ( + ) + E
KV/E V/E
(, + E) () + E
Demostracion 2.23 La misma denicion de la aritmetica de equivalencia demuestra este teorema.
El siguiente teorema nos ayuda a encontrar bases del espacio cociente, dadas las bases del espacio
y del subespacio.
Teorema 2.24 Supongamos B
E
=
1
, . . . ,
k
base de E. Al completar la base B
E
a B (una base
de V ), a saber
B =
1
, . . . ,
k
,
1
, . . . ,
n

se tiene que el conjunto B


V/E
= [
1
], . . . , [
n
] es base de V/E.
Demostracion 2.24 Que el conjunto es linealmente independiente se desprende de la denicion de
la aritmetica de equivalencia dada en el Teorema 2.23, pues si
1
, . . . ,
n
K:
n

i=1

i
[
i
] =
n

i=1

i
(
i
+ E) =
_
n

i=1

i
_
+ E = 0
esto quiere decir que
_
n

i=1

i
_
= [0]
por lo tanto,

n
i=1

i
E; pero notemos que este vector debe tambien estar en el complementario
de E ya que es combinacion lineal de los elementos de su base, por lo tanto,
1
, . . . ,
n
= 0.
El hecho de que B
V/E
genera a V/E se desprende inmediatamente, pues si [] = + E V/E,
entonces existen
1
, . . . ,
k
,
1
, . . . ,
n
K tales que:
=
k

i=1

i
+
n

j=1

j
28
debido a que V . Luego, usando la aritmetica de equivalencia dada en el Teorema 2.23 se tiene
que
+ E =
n

j=1

j
+ E =
n

j=1

j
(
j
+ E)
Teorema 2.25 Bajo las convenciones anteriores se tiene que dim
K
V/E = dim
K
V dim
K
E
Demostracion 2.25 Este teorema se sigue inmediatamente del Teorema 2.24.
3. Transformaciones Lineales
Nos interesa estudiar, ademas de conjuntos que posean propiedades especiales, funciones que
conserven propiedades en su conjunto de llegada, es decir, funciones que partan y lleguen a espacios
vectoriales tales que cumplan
f( + ) = f() + f() ; f() = f()
con , V (donde V es un K-EV y K). En esencia utilizaremos las mismas convenciones
que en la seccion anterior, con la salvedad que, debido a que en general vamos a trabajar sobre dos
espacio vectoriales diferentes, utilizaremos el nombre del espacio como subndice en el caso del vector
nulo respectivo. Por ejemplo, en el espacio vectorial E el vector nulo respectivo sera denotado por
0
E
.
Denicion 3.1 Diremos que una funcion L : V W (con V y W K-EV) es una transformacion
lineal (o aplicacion lineal) si preserva la estructura de espacio vectorial, es decir, si , V y K:
L( + ) = L() + L() ; L() = L()
De esto se deduce que L(), L() W y L() W.
Denicion 3.2 Al conjunto de transformaciones lineales que tienen como espacio de partida a E y
de llegada a F lo denotaremos por L(E, F).
En base a las deniciones anteriores se tiene el siguiente
Teorema 3.1 Usando las notaciones y convenciones usuales se tiene que L(E, F) es un espacio
vectorial con las operaciones
+ : L(E, F) L(E, F) L(E, F)
(
1
,
2
) (
1
+
2
)
: KL(E, F) L(E, F)
(, ) ()
Estas operaciones se aplican del siguiente modo: (
1
+
2
)() =
1
() +
2
() y ()() = ().
Demostracion 3.1 Con la denicion de las operaciones entre transformaciones lineales esta de-
mostracion es trivial.
29
Lema 3.2 Si B =
1
, . . . ,
k
es una base de E y L(E, F) tal que (
i
) = 0
F
(i = 1, . . . , k),
entonces, 0.
Demostracion 3.2 Supongamos () ,= 0
F
para alg un E. Dado que se puede escribir
unicamente como combinacion lineal de los elementos de la base, por el Teorema 2.9, se tiene lo
siguiente si =
1

1
+ . . . +
k

k
:
() = (
1

1
+ . . . +
k

k
) =
1
(
1
) + . . . +
k
(
k
) = 0
F
Obteniendo la contradiccion esperada.
Teorema 3.3 Supongamos B =
1
, . . . ,
k
una base de E y =
1
, . . . ,
k
vectores de F,
entonces, existe una unica L(E, F) tal que (
i
) =
i
(i=1,. . . ,k).
Demostracion 3.3 Necesitamos vericar la existencia, lo cual es evidente pues conocemos su accion
sobre una base, a saber, si E entonces =
1

1
+. . . +
k

k
, entonces () =
1

1
+. . . +
k

k
donde
i
son conocidos por la descomposicion de en sus coordenadas (que son unicas por el Teorema
2.9) y
i
son conocidos por ser la accion sobre la base.
La unicidad se verica suponiendo la existencia de

tal que

(
i
) =
i
(i = 1, . . . , k). Luego la
transformacion (

) al actuar sobre la base B entrega valores nulos, por lo tanto, por el Lema
3.2 se deduce la tesis de unicidad.
3.1. N ucleo de una Transformacion Lineal
Denicion 3.3 Diremos que ker E es el n ucleo de L(E, F) si y solo si este corresponde al
conjunto de preimagenes de 0
F
, es decir, si ker : () = 0
F
.
Lema 3.4 Siempre, sin importar la transformacion lineal L(E, F), se cumple que 0
E
ker .
Demostracion 3.4 La demostracion es puramente operatoria y es similar a demostrar que 0 a =
0, a R.
(0
E
) = (0
E
+ 0
E
) = (0
E
) + (0
E
) = (0
E
) = 0
F
Teorema 3.5 El n ucleo de una transformacion lineal es un subespacio vectorial del espacio de partida
de esta, es decir, usando las notaciones usuales: ker E.
Demostracion 3.5 Es claro que ker ,= , debido al Lema 3.4. Ahora bien, supongamos , ker
y K, entonces se tiene:
( + ) = () + () = 0
F
+ 0
F
= 0
F
() = () = 0
F
= 0
F
30
Observacion: Al n ucleo de una transformacion lineal tambien se le llama el kernel de esta. A la
dimension del n ucleo se le conoce como nulidad (Null = dim
K
ker ).
Teorema 3.6 Una transformacion lineal L(E, F) es inyectiva (en el sentido de ??) si y solo si
ker = 0
E
.
Demostracion 3.6 Dado que el teorema esta enunciado en forma de equivalencia, debemos probar
las dos implicancias:
ker = 0
E
.
Supongamos ,

E tales que () ,= (

), por lo tanto, (

) ,= 0
F
, es decir,

no esta en ker y, por lo tanto, ,=

.
es inyectiva.
Supongamos ,

ker , es decir, si () = (

) = 0
F
entonces =

, ,

ker y,
dado que 0
E
ker (por el Lema 3.4), se tiene que ker = 0
E
.
3.2. Imagen de una Transformacion Lineal
Denicion 3.4 Diremos que Im F es la imagen de L(E, F) si y solo si Im,
E : () = .
Teorema 3.7 La imagen de una transformacion lineal es un subespacio vectorial del espacio de
llegada, es decir, usando las notaciones anteriores: Im F.
Demostracion 3.7 Evidentemente Im ,= (Lema 3.4), luego supongamos
1
,
2
Im y K,
entonces, existen
1
,
2
E tales que (
1
) =
1
y (
2
) =
2
, por lo tanto, existen
1
+
2
,
1
E
tales que (
1
+
2
) = (
1
) + (
2
) =
1
+
2
Im y (
1
) = (
1
) =
1
Im.
Observacion: La imagen de una transformacion lineal tambien se le denotara por (E). A la
dimension de la imagen se le conoce como rango (Rg = dim
K
Im).
Teorema 3.8 Si B =
1
, . . . ,
k
es base de E, entonces
(B) = (
1
), . . . , (
k
))
genera a Im.
Demostracion 3.8 Supongamos Im, luego existe un E tal que () = . Dado que
=
1

1
+ . . . +
k

k
en forma unica (por el Teorema 2.9) se tiene lo siguiente:
() = =
1
(
1
) + . . . +
k
(
k
)
Es decir, cualquier elemento de Im se escribe como combinacion lineal de los elementos de (B).
Teorema 3.9 Si L(E, F) se tiene la siguiente relacion
Rg + Null = dim
K
E
31
Demostracion 3.9 Consideremos V un espacio vectorial de dimension n, es decir:
B
V
= v
1
, . . . , v
k
, v
k+1
, . . . , v
n

es una base de V . Ademas, sin perdida de la generalidad, podemos considerar que


B
ker
= v
1
, . . . , v
k

es base de ker . Basta probar que


B(v
k+1
), . . . , (v
n
)
es base de Im. Para esto, consideremos una combinacion lineal de dichos vectores igualada a 0
F
,
esto es:

k+1
(v
k+1
) + . . . +
n
(v
n
) = 0
F
como es transformacion lineal, podemos hacer lo siguiente:

k+1
(v
k+1
) + . . . +
n
(v
n
) = (
k+1
v
k+1
+ . . . +
n
v
n
)
Y, por lo tanto,
k+1
v
k+1
+ . . . +
n
v
n
ker , pero son vectores linealmente independientes de los
vectores que generan al n ucleo de , por lo tanto, necesariamente debe cumplirse que

k+1
= . . . =
n
= 0
Es decir, el conjunto (v
k+1
), . . . , (v
n
) es linealmente independiente. Probar que el conjunto
anterior genera Im es un asunto bastante inmediato y se deja como ejercicio.
3.3. Isomorsmos
Denicion 3.5 Diremos que L(E, F) es un isomorsmo si y solo si es biyectiva (en el sentido
de MAT-021), es decir, si: Rg = dim
K
F y Null = 0.
Denicion 3.6 Si existe un isomorsmo entre dos espacios vectoriales E y F diremos que los es-
pacios son isomorfos.
Teorema 3.10 Si L(E, F) es un isomorsmo,
1
L(F, E) (inversa en el sentido de MAT-
021) es tambien un isomorsmo.
Demostracion 3.10 Si
1
L(F, E) entonces Im
1
E. Tenemos que (E) = F y que

1
(0
F
) = 0
E
. Luego, supongamos que existe E tal que no pertenece a Im
1
; dado
que existe F tal que () = y es isomorsmo se tiene la contradiccion pues =
1
().
En forma analoga se tiene que ker
1
F y que es no vaco (Lema 3.4). Supongamos
ker
1
, ,= 0
F
, entonces
1
() = 0
E
que es equivalente a decir = (0
E
) = 0
F
, obteniendo la
contradiccion esperada.
Corolario 3.11 La relacion E'F, donde ' = los espacios son isomorfos es una relacion de
equivalencia.
Demostracion 3.11 La propiedad reexiva queda inmediatamente vericada usando el isomorsmo
identidad (es decir: Id() = ). La simetra queda vericada por el Teorema 3.10. Finalmente la tran-
sitividad es evidente a partir de la composicion de isomorsmos. Los detalles pueden ser completados
con calma como ejercicio.
32
Teorema 3.12 Todos los espacios vectoriales de la misma dimension (nita) y sobre un mismo
cuerpo K son isomorfos entre s. En particular, todo Kespacio vectorial de dimension n es isomorfo
a K
n
.
Demostracion 3.12 Supongamos B
E
=
1
, . . . ,
n
base de E y B
F
=
1
, . . . ,
n
base de F.
Consideremos la transformacion lineal T L(E, F) tal que T(
i
) =
i
(i = 1, . . . , n), en forma
explcita si =
1

1
+ . . . +
n

n
se tiene que:
T() =
1

1
+ . . . +
n

n
Claramente T es inyectiva debido al Teorema 2.9 y, evidentemente, es epiyectiva, por lo tanto T es
un isomorsmo. Para el caso particular de K
n
basta con considerar, por ejemplo, la base canonica.
Corolario 3.13 Si E y F son espacios isomorfos, entonces se tiene que dim
K
E = dim
K
F.
Demostracion 3.13 Esta demostracion es evidente a partir del Teorema 3.12, pero, haciendo uso
del Teorema 3.9 y la denicion de isomorsmo, se obtiene de inmediato la relacion buscada.
33

Anda mungkin juga menyukai