Anda di halaman 1dari 177

República Bolivariana de Venezuela

Universidad Nacional Experimental Politécnica


“Antonio José de Sucre”
Vice-Rectorado Barquisimeto
Departamento de Estudios Generales y Básicos
Sección de Matemática

Apuntes de Álgebra Lineal

Autores: MSc. Jorge F. Campos S.


Lcda. Dorka M. Chaves E.
Barquisimeto, 2007
Índice general

Índice general I

1. Matrices y Sistemas de Ecuaciones Lineales 1


1.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Suma de Matrices y Multiplicación por Escalar . . . . . . . . . . . . . . . 5
1.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3. Transposición o Trasposición de Matrices . . . . . . . . . . . . . . . . . . . 15
1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.5. Determinantes. Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . 45

2. Espacios Vectoriales 65
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.3. Combinación Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 77
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.5. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 96

3. Matriz de Cambio de Base. Espacios con Producto Interno 106


3.1. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.2. Espacios con producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3.3. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt . . . . . . 119
3.4. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

4. Transformaciones Lineales. Autovalores y Autovectores de una Matriz 136


4.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.2. Representación Matricial de una Transformación Lineal . . . . . . . . . . . . . . . 148
4.3. Núcleo e Imagen de una Transformación Lineal . . . . . . . . . . . . . . . . . . . 154
4.4. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
4.5. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

i
Capı́tulo 1

Matrices y Sistemas de Ecuaciones Lineales

1.1. Operaciones con Matrices


Definición 1.1. Sean m, n ∈ Z+ . Una matriz real A de orden m por n (m × n) es un
arreglo bidimensional de números reales dispuestos en m filas y n columnas como sigue
   
a11 a12 ··· a1n a11 a12 ··· a1n
   
a   
 21 a22 · · · a2n   a21 a22 · · · a2n 
A = (aij )m×n = . .. ..  = 
 .. . .   ... ..
.
..
. 
   
am1 am2 · · · amn am1 am2 · · · amn
donde aij ∈ R para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, el cual es llamado componente
ij-ésima de A.
Para cada i ∈ {1, . . . , m} la i-ésima fila de A la denotaremos por A(i) y está dada por
h i
A(i) = ai1 ai2 · · · ain

Para cada j ∈ {1, . . . , n} la j-ésima columna de A la denotaremos por A(j) y está dada por
 
a1j
 
a 
 2j 
A(j) =  . 
 .. 
 
amj

Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A.
Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
La notación A = (aij )m×n , significa que A es la matriz de orden m × n cuya ij-ésima compo-
nente es aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden m×n lo denotaremos por Mm×n (R).

1
Matrices y Sistemas de Ecuaciones Lineales 2

Observación 1.1. Podemos considerar matrices sobre un campo K (ver apéndice ??), por
ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
elementos de K.

Observación 1.2. Se debe tener cuidado cuando se usa la notación (aij )m×n , el cambio de
ı́ndices no significa que se trata de otra matriz, los ı́ndices son “mudos”, esto es

(aij )m×n = (akr )m×n = (apq )m×n = (aji )m×n

Ejemplo 1.1.
" √ #
−2 0 5
1. A = es una matriz real de orden 2 × 3, la componente 2, 1 de A es a2,1 = 32 ,
2
3
4 1
" √ #
h i 5
la fila 2 de A es A(2) = 2
3
4 1 , la columna 3 de A es A(3) =
1
 
−1 4 0
 
2. B = 
 5 12 −3   es una matriz cuadrada real de orden 3, las componentes de la
0 2 −8
diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8.
(
1 si i = j
3. La matriz In = (δij )n×n , donde δij = , para cada i, j ∈ {1, . . . , n}, es llamada
0 si i 6= j
matriz identidad de orden n, esto es,
 
1 0 ··· 0
 
0 1 . . . ... 
 
In =  . . . 
 .. . . . . 0
 
0 ··· 0 1
n×n

4. La matriz 0/m×n = (ξij )m×n , donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n},
es llamada matriz nula de orden m × n, es decir
 
0 ··· 0
. .. 
0/m×n =  .. .
 
0 ··· 0
m×n
Matrices y Sistemas de Ecuaciones Lineales 3

Cuando m = n, sólo escribiremos 0/n en lugar de 0/m×n , es decir,


 
0 ··· 0
. . .. 
0/n =  . .. .
. 
0 ··· 0
n×n

Definición 1.2. Sea A ∈ Mn×n (R). Diremos que A = (aij )n×n es

1. Triangular superior si aij = 0 para i, j ∈ {1, . . . , n} con i > j.

2. Triangular inferior si aij = 0 para i, j ∈ {1, . . . , n} con i < j.

3. Diagonal si aij = 0 para i, j ∈ {1, . . . , n} con i 6= j, es decir, A es triangular superior e


inferior simultáneamente.

4. Escalar si es diagonal y existe λ ∈ R tal que aii = λ para i ∈ {1, . . . , n}.

Observación 1.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y


sólo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a
cero.

Ejemplo 1.2.

1. Para cada n ∈ Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y consecuente-
mente triangulares superior e inferior.
 
−5 4 0 −7
 
 0 3 12 5 
 
2. A =   es triangular superior.
 0 0 2 1 
 
0 0 0 0
 
−5 0 0 0
 
 0 4 0 0 
 
3. A =   es triangular inferior.
 0 −1 0 0 
 
9 13 −3 8
Matrices y Sistemas de Ecuaciones Lineales 4

 
6 0 0 0
 
 0 −3 0 0 
 
4. A =   es diagonal.
 0 0 −5 0 
 
0 0 0 0
 
8 0 0 0
 
 0 8 0 0 
 
5. A =   es escalar.
 0 0 8 0 
 
0 0 0 8

Definición 1.3. Sean A, B ∈ Mm×n (R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B, si la componente ij-ésima de A es igual a la componente ij-ésima de
B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, es decir, si A = (aij )m×n y B = (bij )m×n ,
diremos que A y B son iguales si

aij = bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

Observación 1.4. Nótese que para que dos matrices sean iguales, en primer lugar deben ser
del mismo orden.
   
" # 5 7 x 7
5 −1 0    
Ejemplo 1.3. Si A = ;B=
 0 y   y C =  0 −3 , entonces A 6= B
 
−6 8 3
−2 4 −2 4
pues ni siquiera son del mismo orden; B = C si y sólo si x = 5 e y = −3. 

El siguiente teorema es una consecuencia directa de la definición de igualdad de matrices, su


demostración la dejamos como ejercicio.

Teorema 1.1. Sean A, B ∈ Mm×n (R). Entonces las siguientes proposiciones son equivalentes

1. A = B.

2. A(i) = B(i) para cada i ∈ {1, . . . , m}.

3. A(j) = B (j) para cada j ∈ {1, . . . , n}.

Demostración. ¡Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 5

1.1.1. Suma de Matrices y Multiplicación por Escalar


En esta sección definiremos dos operaciones con matrices que dotarán al conjunto Mm×n (R)
de una estructura algebraica conocida como espacio vectorial , dicha estructura será tratada
en el capt́ulo 2 del presente trabajo.

Definición 1.4. Sean A, B ∈ Mm×n (R) con A = (aij )m×n y B = (bij )m×n . Definiremos la
matriz suma de A con B, como la matriz A + B ∈ Mm×n (R) cuya ij-ésima componente viene
dada por aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, esto es, si A + B = (cij )m×n ,
entonces cij = aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.

Observación 1.5. Para poder sumar dos matrices estas deben ser del mismo orden.
   
4 −9 0 8 −3 9 5 −4
   
Ejemplo 1.4. Si A = 
 −7 3 5 −12  
 y B =  1 −13 3 9 
, entonces
1 0 −6 2 10 4 7 11
   
4 −9 0 8 −3 9 5 −4
   
A+B = 
 −7 3 5 −12  +  1 −13 3
  9 

1 0 −6 2 10 4 7 11
   
4 + (−3) −9 + 9 0 + 5 8 + (−4) 1 0 5 4
   
= 
 −7 + 1 3 + (−13) 5 + 3 −12 + 9  
 =  −6 −10 8 −3


1 + 10 0 + 4 −6 + 7 2 + 11 11 4 1 13

Definición 1.5. Sean A ∈ Mm×n (R) y α ∈ R (α es llamado escalar), con A = (aij )m×n .
Definiremos la multiplicación de α por A ( multiplicación por escalar) como la matriz
α · A ó simplemente αA cuya ij-ésima componente es αaij para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n}, esto es, si αA = (bij )m×n , entonces bij = αaij para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n}.

Observación 1.6. La notación de multiplicación por escalar es α · A o αA y no A · α ni Aα,


se debe colocar primero el escalar luego la matriz.

Observación 1.7. Toda matriz escalar de orden n es un múltiplo escalar de In , más aún,
A ∈ Mn×n (R) es una matriz escalar, si y sólo si existe λ ∈ R tal que A = λIn .
Matrices y Sistemas de Ecuaciones Lineales 6

Ejemplo 1.5.
 Sea A la matriz del ejemplo
 1.4, entonces 
4 −9 0 8 2 · 4 2(−9) 2·0 2·8
   
2·A=2·  −7 3 5 −12  
 =  2(−7) 2·3 2 · 5 2(−12) 

1 0 −6 2 2·1 2 · 0 2(−6) 2·2
 
8 −18 0 16
 
= −14 6 10 −24  
2 0 −12 4


Teorema 1.2. Sean A, B, C ∈ Mm×n (R) y α, β ∈ R cualesquiera. Entonces

1. A + B = B + A (conmutatividad de la suma).

2. (A + B) + C = A + (B + C) (asociatividad de la suma).

3. A + 0/m×n = A = 0/m×n +A (neutro aditivo).

4. Existe una matriz D ∈ Mm×n (R) tal que A + D = 0/m×n = D + A (opuesto aditivo).

5. α(A + B) = αA + αB (distributividad de la multiplicación por escalar respecto a la suma


matricial).

6. (α + β)A = αA + βA (distributividad de la multiplicación por escalar respecto a la suma


escalar).

7. α(βA) = (αβ)A = β(αA) (asociatividad de la multiplicación por escalar).

8. 1 · A = A (neutro de la multiplicación por escalar).

Demostración. Sean A = (aij )m×n , B = (bij )m×n y C = (cij )m×n .

1. Hagamos A + B = E = (eij )m×n y B + A = F = (fij )m×n . Por definición de suma de


matrices, tenemos que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + bij = bij + aij = fij

Luego A + B = E = F = B + A (definición de igualdad de matrices).


Matrices y Sistemas de Ecuaciones Lineales 7

2. Hagamos A + B = E = (eij )m×n , (A + B) + C = E + C = F = (fij )m×n , B + C = G =


(gij )m×n y A + (B + C) = A + G = H = (hij )m×n . Ası́ que por definición de suma de
matrices

fij = eij + cij = (aij + bij ) + cij = aij + (bij + cij ) = aij + gij = hij

De donde (A + B) + C = F = H = A + (B + C) (definición de igualdad de matrices).

3. Recordemos que 0/m×n = (ξij )m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈
{1, . . . , n}. Ası́ que si A + 0/m×n = E = (eij )m×n , entonces, por definición de suma de
matrices, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + ξij = aij + 0 = aij

Por lo tanto A + 0/m×n = E = A y por conmutatividad

A + 0/m×n = A = 0/m×n +A

4. Definamos D = (dij )m×n con dij = −aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
Hagamos A + D = E = (eij )m×n . Entonces, por definición de suma de matrices, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + dij = aij + (−aij ) = 0

Por lo tanto A + D = E = 0/m×n y por conmutatividad

A + D = 0/m×n = D + A

5. Hagamos A + B = E = (eij )m×n , α(A + B) = αE = F = (fij )m×n , αA = G = (gij )m×n ,


αB = H = (hij )m×n y αA + αB = G + H = P = (pij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} tenemos que

fij = αeij (definición de multiplicación por escalar)


= α(aij + bij ) (definición de suma de matrices)
= αaij + αbij
= gij + hij (definición de multiplicación por escalar)
= pij (definición de suma de matrices)

Luego
α(A + B) = F = P = αA + αB
Matrices y Sistemas de Ecuaciones Lineales 8

6. Hagamos (α + β)A = E = (eij )m×n , αA = F = (fij )m×n , βA = G = (gij )m×n y αA + βA =


F + G = H = (hij )m×n . En consecuencia, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
se tiene que

eij = (α + β)aij (definición de multiplicación por escalar)


= αaij + βaij
= fij + gij (definición de multiplicación por escalar)
= hij (definición de suma de matrices)

De donde
(α + β)A = E = H = αA + βA

7. Hagamos βA = E = (eij )m×n , α(βA) = αE = F = (fij )m×n y (αβ)A = G = (gij )m×n .


Ası́ que, por definición de multiplicación de por escalar, para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n} obtenemos

fij = αeij = α(βaij ) = (αβ)aij = gij

Luego α(βA) = F = G = (αβ)A y en consecuencia

β(αA) = (βα)A = (αβ)A

Por lo tanto
α(βA) = (αβ)A = β(αA)

8. Hagamos 1 · A = E = (eij )m×n . Ası́ que al usar la definición de multiplicación por escalar,
se tiene que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = 1 · aij = aij

En consecuencia
1·A=E =A

Teorema 1.3.

1. La matriz nula 0/m×n es la única matriz real de orden m × n tal que para cada A ∈ Mm×n (R)
se cumple que A + 0/m×n = A = 0/m×n +A.
Matrices y Sistemas de Ecuaciones Lineales 9

2. Para cada matriz A ∈ Mm×n (R), existe una única matriz D ∈ Mm×n (R) tal que A + D =
0/m×n = D + A, tal matriz D es llamada matriz opuesta de A y se denota por −A.

Demostración. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/m×n satisface que para
cada A ∈ Mm×n (R) se cumple que A + 0/m×n = A = 0/m×n +A. Además, la existencia de la matriz
D es garantizada en la parte 4 del mismo teorema. Sólo faltarı́a probar la unicidad de ambas
matrices.

1. Supongamos que P ∈ Mm×n (R) es tal que A + P = A = P + A para cada A ∈ Mm×n (R),
luego

P = P + 0/m×n (por la parte 3 del teorema 1.2)


= 0/m×n (hipótesis)

2. Sea A ∈ Mm×n (R) cualquiera. Supongamos que existen D, E ∈ Mm×n (R) tales que

A + D = 0/m×n = D + A (1.1)
A + E = 0/m×n = E + A (1.2)

En consecuencia

D = D + 0/m×n (teorema 1.2 parte 3)


= D + (A + E) (por la ecuación 1.2)
= (D + A) + E (teorema 1.2 parte 2)
= 0/m×n +E (por la ecuación 1.1)
= E (teorema 1.2 parte 3)

Teorema 1.4. Sean A, B, C ∈ Mm×n (R) tales que A + B = A + C. Entonces B = C.

Demostración. ¡Ejercicio!

Teorema 1.5. Sean A ∈ Mm×n (R) y α ∈ R cualesquiera. Entonces

1. 0 · A = 0/m×n .
Matrices y Sistemas de Ecuaciones Lineales 10

2. α 0/m×n = 0/m×n .

3. (−1)A = −A.

4. Si αA = 0/m×n , entonces α = 0 ó A = 0/m×n .

Demostración.

1. Sabemos que
0 · A + 0/m×n = 0 · A (¿por qué?)

además
0 · A = (0 + 0)A = 0 · A + 0 · A

ası́ que
0 · A + 0 · A = 0 · A + 0/m×n

y por el teorema 1.4, se tiene que 0 · A = 0/m×n

2. Por un lado
α · 0/m×n = α · 0/m×n + 0/m×n (¿por qué?)

por otro lado


α · 0/m×n = α(0/m×n + 0/m×n ) = α · 0/m×n +α · 0/m×n

luego
α · 0/m×n + 0/m×n = α · 0/m×n +α · 0/m×n

y nuevamente, usando el teorema 1.4, tenemos que α 0/m×n = 0/m×n

3. Basta probar que A + (−1)A = 0/m×n , y por unicidad, obtendrı́amos el resultado. Veamos

A + (−1)A = 1 · A + (−1)A (teorema 1.2 parte 8)


= (1 + (−1))A (teorema 1.2 parte 6)
= 0·A
= 0/m×n (por la parte 1)

Luego, por unicidad de la matriz opuesta, (−1)A = −A


Matrices y Sistemas de Ecuaciones Lineales 11

4. Supongamos que αA = 0/m×n . Si α = 0, no hay nada que probar, supongamos entonces que
α 6= 0, ası́ que

A = 1 · A (teorema 1.2 parte 8)


= (α−1 α)A

A = α−1 (αA) (teorema 1.2 parte 7)


= α−1 0/m×n (por hipótesis)
= 0/m×n (por la parte 2)

Con lo cual, se concluye la prueba.

Definición 1.6. Sean A, B ∈ Mm×n (R). Definiremos A − B = A + (−B).


   
4 −12 0 5 −10 −6
   
 −6 5 −3   6 −1 11 
   
Ejemplo 1.6. Si A =  yB= , entonces
 6 −1 2   4 0 5 
   
7 0 1 −2 −6 −1
    
4 −12 0 5 −10 −6
    
 −6 5 −3    
    6 −1 11 
A − B = A + (−B) =   + −  
 6 −1 2    4 0 5 
    
7 0 1 −2 −6 −1
     
4 −12 0 −5 10 6 −1 −2 6
     
 −6  
5 −3   −6 1 −11   −12   6 −14 
 
=  + = 
 6 −1 2     
   −4 0 −5   2 −1 −3 
7 0 1 2 6 1 9 6 2

1.1.2. Producto de Matrices


A diferencia de las dos operaciones definidas en la sección anterior, la multiplicación de matrices
no se define de manera “natural”, como veremos luego, no por ello deja de ser importante dicha
operación.
Matrices y Sistemas de Ecuaciones Lineales 12

Definición 1.7. Sean A = (aij )m×n ∈ Mm×n (R) y B = (bjk )n×p ∈ Mn×p (R). Definiremos el
producto de A por B como la matriz C = (cik )m×p ∈ Mm×p (R), denotada por AB ó A · B, tal
que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} se tiene que
n
X
cik = aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1

Observación 1.8. Nótese que para poder definir el producto AB, la cantidad de columnas de
A debe coincidir con la cantidad de filas de B, además, la matriz resultante, es una matriz cuya
cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la
cantidad de columnas de B.
 
" # 3 1 0
2 −1 0  
Ejemplo 1.7. Sean A = yB=
 2 −1 −2 
. Entonces
0 3 1
−4 −2 3

AB = A · B
" #
2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3
=
0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3
" # " #
6−2+0 2+1+0 0+2+0 4 3 2
= =
0+6−4 0−3−2 0−6+3 2 −5 −3

Observación 1.9. Nótese que en el ejemplo anterior, el producto BA no está definido, esto nos
dice que el producto de matrices no es conmutativo, más aún, a pesar de que ambos productos
están definidos, AB y BA, no necesariamente son ambos del mismo orden, además, siendo ambos
productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo
orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando
AB = BA, se dice que A y B son matrices que conmutan.

A continuación enunciaremos un teorema que expone las principales propiedades del producto
de matrices

Teorema 1.6. Sean A ∈ Mm×n (R); B, C ∈ Mn×p (R); C ∈ Mp×q (R) y α ∈ R. Entonces

1. (AB)D = A(BD) (asociatividad del producto de matrices).

2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).


Matrices y Sistemas de Ecuaciones Lineales 13

3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).

4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicación por


escalar).

5. Im A = A = AIn (neutro del producto de matrices).

6. B 0/p×q = 0/n×q y 0/m×n B = 0/m×p .

Demostración. Sean A = (aij )m×n ; B = (bjk )n×p ; C = (cjk )n×p y D = (dkl )p×q .

1. Hagamos AB = E = (eik )m×p ; (AB)D = ED = F = (fil )m×q ; BD = G = (gjl )n×q y


A(BD) = AG = H = (hil )m×q . Entonces, usando la definición de producto matricial, para
cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
n
X
eik = aij bjk
j=1

para cada j ∈ {1, . . . , n} y cada l ∈ {1, . . . , q}


p
X
gjl = bjk dkl
k=1

y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q}


p n
X X
fil = eik dkl ; hil = aij gjl
k=1 j=1

Luego
p p n
! p n p
n X
X X X X X X
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
n p
! n
X X X
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1

Por lo tanto, usando la definición de igualdad de matrices

(AB)D = F = H = A(BD)
Matrices y Sistemas de Ecuaciones Lineales 14

2. Hagamos B + C = E = (ejk )n×p ; A(B + C) = AE = F = (fik )m×p ; AB = G = (gik )m×p ;


AC = H = (hik )m×p y AB + AC = G + H = R = (rik )m×p . Entonces, para cada i ∈
{1, . . . , m} y cada k ∈ {1, . . . , p}
n
X
fik = aij ejk (definición de producto de matrices)
j=1
n
X
= aij (bjk + cjk ) (definición de suma de matrices)
j=1
n
X n
X n
X
= (aij bjk + aij cjk ) = aij bjk + aij cjk
j=1 j=1 j=1
= gik + hik (definición de producto de matrices)
= rik (definición de suma de matrices)

En consecuencia
A(B + C) = F = R = AB + AC

3. Análogo a la demostración de la parte 2.

4. Sean AB = E = (eik )m×p ; α(AB) = αE = F = (fik )m×p ; αA = G = (gij )m×n y (αA)B =


GB = H = (hik )m×p . Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}

fik = αeik (definición de multiplicación por escalar)


Xn
= α aij bjk (definición de producto de matrices)
j=1
n
X n
X
= α(aij bjk ) = (αaij )bjk
j=1 j=1
Xn
= gij bjk (definición de multiplicación por escalar)
j=1
= hik (definición de producto de matrices)

De donde α(AB) = F = H = (αA)B. De manera análoga se prueba que α(AB) = A(αB),


ası́ que
α(AB) = (αA)B = A(αB)

5. Recordemos que In = (δjk )n×n , donde


(
1 si j = k
δjk = (1.3)
0 si j 6= k
Matrices y Sistemas de Ecuaciones Lineales 15

para cada j, k ∈ {1, . . . , n}.

Hagamos AIn = E = (eik )m×n . Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , n}
n
X
eik = aij δjk (definición de producto de matrices)
j=1
= ai1 δ1k + · · · + ai(k−1) δ(k−1)k + aik δkk + ai(k+1) δ(k+1)k + · · · + ain δnk
= ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3)
= aik

Por lo tanto AIn = E = A, análogamente puede probarse que Im A = A, en consecuencia

AIn = A = Im A

6. ¡Ejercicio!

Ejercicio 1.1. Pruebe que si A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces


h i
1. AB = (1) (2) (p) (desarrollo por columnas del producto AB), es decir,
AB AB · · · AB
la k-ésima columna de AB, que es (AB)(k) , es igual a A por la k-ésima columna de B,
AB (k) , para cada k ∈ {1, . . . , p}.
 
A(1) B
 
 A B 
 (2) 
2. AB =  ..  (desarrollo por filas del producto AB), es decir, la i-ésima fila de AB,
 . 
 
A(m) B
que es (AB)(i) , es igual a la i-ésima fila de A por B, A(i) B, para cada i ∈ {1, . . . , m}.

1.1.3. Transposición o Trasposición de Matrices


Definición 1.8. Sea A = (aij )m×n ∈ Mm×n (R). Definiremos la transpuesta o traspuesta de
A como la matriz AT = (bji )n×m ∈ Mn×m (R) tal que

bji = aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}


Matrices y Sistemas de Ecuaciones Lineales 16

Ejemplo 1.8. Sea  


−2 5 0 7
 
A=
 3 1 −6 
0
−5 12 −2 9
Entonces  
−2 3 −5
 
 5 12 
0
T  
A = 
 0 1 −2 
 
7 −6 9


Observación 1.10. Nótese que las filas de A “pasan” a ser las columnas de AT y las columnas
de A “pasan” a ser las filas de AT , más propiamente
T (i)
A(i) = AT para cada i ∈ {1, . . . , m}
T 
A(j) = AT (j)
para cada j ∈ {1, . . . , n}

Teorema 1.7. Sean A, B ∈ Mm×n (R), C ∈ Mn×p (R) y α ∈ R. Entonces


T
1. AT = A (propiedad de involución de la transposición de matrices)

2. (A + B)T = AT + B T (transpuesta de la suma)

3. (αA)T = αAT (transpuesta de la multiplicación por escalar)

4. (AC)T = C T AT (transpuesta del producto matricial)

5. (In )T = In y (0/m×n )T = 0/n×m

Demostración. Sean A = (aij )m×n ; B = (bij )m×n y C = (cjk )n×p .


T
1. Hagamos AT = D = (dji)n×m y AT = D T = E = (eij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, por definición de transpuesta

eij = dji = aij

Luego
T
AT =E=A
Matrices y Sistemas de Ecuaciones Lineales 17

2. Sean A + B = D = (dij )m×n ; (A + B)T = D T = E = (eji)n×m ; AT = F = (fji )n×m ;


B T = G = (gji)n×m y AT +B T = F +G = H = (hji )n×m . Entonces, para cada i ∈ {1, . . . , m}
y cada j ∈ {1, . . . , n}

eji = dij (definición de transpuesta)


= aij + bij (definición de suma de matrices)
= fji + gji (definición de transpuesta)
= hji (definición de suma de matrices)

Por lo tanto
(A + B)T = E = H = AT + B T

3. Hagamos αA = D = (dij )m×n ; (αA)T = D T = E = (eji )n×m ; AT = F = (fji )n×m ; y


αAT = αF = G = (gji)n×m . Entonces, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eji = dij (definición de transpuesta)


= αaij (definición de multiplicación por escalar)
= αfji (definición de transpuesta)
= gji (definición de multiplicación por escalar)

Ası́ que
(αA)T = E = G = αAT

4. Sean AC = D = (dik )m×p ; (AC)T = D T = E = (eki )p×m ; C T = F = (fkj )p×n ; AT =


G = (gji)n×m y C T AT = F G = H = (hki )p×m . Entonces, para cada i ∈ {1, . . . , m} y cada
k ∈ {1, . . . , p}

eki = dik (definición de transpuesta)


Xn
= aij cjk (definición de producto)
j=1
n
X
= gjifkj (definición de transpuesta)
j=1
n
X
= fkj gji = hki (definición de producto)
j=1

De donde
(AC)T = E = H = C T AT
Matrices y Sistemas de Ecuaciones Lineales 18

5. ¡Ejercicio!

Definición 1.9. Sea A ∈ Mn×n (R). Diremos que

1. A es simétrica si AT = A.

2. A es antisimétrica si AT = −A.

Ejemplo 1.9.

1. In es simétrica para todo n ∈ N.

2. 0/n es simétrica y antisimétrica para todo n ∈ N ¿existe alguna otra matriz que sea simétrica
y antisimétrica simultáneamente?

3. La matriz  
0 5 7 −6
 
 −5 0 −4 8 
 
A= 
 −7 4 0 12 
 
6 −8 −12 0
es antisimétrica pues  
0 −5 −7 6
 
 5 0 −8 
4
 
AT =   = −A
 7 −4 0 −12 
 
−6 8 12 0

4. La matriz  
5 −9 3 0
 
 −9 2 −1 13 
 
A= 
 3 −1 0 7 
 
0 13 7 −3
es simétrica ya que  
5 −9 3 0
 
 −9 2 −1 13 
 
AT =  =A
 3 −1 0 7 
 
0 13 7 −3
Matrices y Sistemas de Ecuaciones Lineales 19

Teorema 1.8. Sea A ∈ Mn×n (R). Entonces

1. A es simétrica si y sólo si aij = aji para cualesquiera i, j ∈ {1, . . . , n}.

2. A es antisimétrica si y sólo si aij = −aji para cualesquiera i, j ∈ {1, . . . , n}.

3. Si A es antisimétrica, entonces aii = 0 para cualquiera i ∈ {1, . . . , n}.

Demostración. ¡Ejercicio!

1.2. Operaciones Elementales por Filas


Las operaciones elementales por filas son herramientas usadas con mucha frecuencia en
la resolución de los sistemas de ecuaciones lineales al igual que en cálculo de la inversa
de una matriz cuadrada, estas aplicaciones las veremos más adelante. Estas operaciones las
usaremos a lo largo de todo el curso, por ello deben ser manejadas con la mayor perfección
posible por parte del estudiante que desee aprender la materia. Comencemos por definir dichas
operaciones.
Denotemos por Fm (R) el conjunto formado por todas las matrices reales con m filas.

Definición 1.10. Una operación elemental por filas (OEF) es una función f : Fm (R) →
Fm (R) la cual es de uno de los siguientes tipos

OEF Tipo 1. Si f (A) = B, entonces existen s ∈ {1, . . . , m} y α 6= 0 tales que B(i) = A(i)
para cada i ∈ {1, . . . , m}, con i 6= s, y además B(s) = αA(s) , esto es, una de las filas
de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales.

   
A(1) A(1)
 ..   .. 
 .   . 
   
   
 A(s−1)   A(s−1) 
   
   
f (A) = f  A(s)  =  αA(s)  = B
   
 A   A(s+1) 
 (s+1)   
 ..   .. 
 .   . 
   
A(m) A(m)
Matrices y Sistemas de Ecuaciones Lineales 20

Fs → αFs
Por comodidad, en lugar de escribir B = f (A), escribiremos A → B.

OEF Tipo 2. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m}, con s 6= t, y α ∈ R tales


que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i 6= s, y además B(s) = A(s) + αA(t) ,
es decir, a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A,
distinta de la primera, dejando el resto de las filas intactas.

   
A(1) A(1)
 ..   .. 
 .   . 
   
   
 A(s−1)   A(s−1) 
   
   
f (A) = f  A(s)  =  A(s) + αA(t) =B
   
 A   A(s+1) 
 (s+1)   
 ..   .. 
 .   . 
   
A(m) A(m)
Fs → Fs + αFt
Al igual que antes, en lugar de escribir B = f (A), escribiremos A → B.

OEF Tipo 3. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m} tales que B(i) = A(i) para
cada i ∈ {1, . . . , m}, con i 6= s e i 6= t y además B(s) = A(t) y B(t) = A(s) , dicho de
otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.

   
A(1) A(1)
 ..   .. 
   
 .   . 
   
 A   A(s−1) 
 (s−1)   
   
 A(s)   A(t) 
   
   
 A(s+1)   A(s+1) 
   
 ..   .. 
f (A) = f  .  =  . =B
   
   
 A(t−1)   A(t−1) 
   
 A   A(s) 
 (t)   
   
 A(t+1)   A(t+1) 
   
 ..   .. 
 .   . 
   
A(m) A(m)
Fs ↔ Ft
Nuevamente, en lugar de escribir B = f (A), escribiremos A → B.
Matrices y Sistemas de Ecuaciones Lineales 21

Observación 1.11. Nótese que si A ∈ Mm×n (R) y f es una OEF, entonces f (A) ∈ Mm×n (R).

Ejercicio 1.2. Pruebe que toda OEF f es una función invertible y que su inversa f −1 : Fm (R) →
Fm (R) es también una OEF del mismo tipo que f .

Ejemplo 1.10. Sea  


−2 4 −5
 
 6 4 
3
 
A= 
 2 −1 8 
 
−6 21 −15
Entonces
     
−2 4 −5 2 −1 8 2 −1 8
     
 4   6 4 
1  6 4 
 6 3  F1 ↔ F3→  3  F4 → 3 F4→  3 
A=     
 2 −1 8   −2 4 −5   −2 4 −5 
  (OEF 3)   (OEF 1)  
−6 21 −15 −6 21 −15 −2 7 −5
 
2 −1 8
 
F3 → F3 + F1  6 3 4 
→ 



(OEF 2)  0 3 3 
 
−2 7 −5


Observación 1.12. Se pueden aplicar más de dos operaciones por filas en un solo paso, lo único
que debemos cuidar es no transformar, en el mismo paso, una fila más de una vez y no
transformar, en el mismo paso, una fila que va ser usada para transformar a otra(s).

Observación 1.13. De manera análoga a como se definieron las operaciones elementales por
filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas
últimas sólo se usarán para el cálculo de determinantes y no para la resolución de sistemas
de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos últimos dos
problemas sólo usaremos las operaciones elementales por filas.

Definición 1.11. Sea A ∈ Mm×n (R). Diremos que A es una matriz

Escalonada

1. Si todas las filas nulas de A, si las hay, están ubicadas en las últimas posiciones.
Matrices y Sistemas de Ecuaciones Lineales 22

2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de
A(i) (contada de izquierda a derecha) está mas a la izquierda de la primera componente
no nula de A(i+1) .

Reducida por Filas (RF)

1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es


igual a 1 (uno), dicha componente es llamada pivote.

2. Si A(j) es una columna de A que “contiene” un pivote, entonces el resto de las com-
ponentes de A(j) son iguales a 0 (cero).

Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simultánea-
mente.

Observación 1.14. Sea A ∈ Mm×n (R).

1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo sumo,


el mı́nimo entre m y n.

2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mı́nimo entre
m y n.

Ejemplo 1.11.

1. Para cualesquiera m, n ∈ Z+ , In y 0/m×n son matrices escalonadas reducidas por filas.


 
2 −1 3 8 3
 
 0 5 1 6 −4 
 
2. E =   es escalonada pero no es reducida por filas.
 0 0 0 8 −7 
 
0 0 0 0 0
 
1 0 0 7
 
 0 0 0 0 
 
 
3. R = 
 0 0 1 −9  es reducida por filas pero no es escalonada.

 
 0 0 0 6 
 
0 1 0 1
Matrices y Sistemas de Ecuaciones Lineales 23

 
1 0 −5 0 8
 
 0 1 3 0 −1 
 
 
4. F = 
 0 0 0 1 −2  es escalonada reducida por filas.

 
 0 0 0 0 0 
 
0 0 0 0 0


Definición 1.12. Sean A, B ∈ Mm×n (R). Diremos que B es equivalente por filas a A si
existen OEF f1 , f2 , . . . , fr tales que B = (f1 ◦ f2 ◦ · · · ◦ fr )(A)

Ejemplo 1.12. Consideremos las matrices A y B del ejemplo 1.10. Entonces B es equivalente
por filas a A (¿por qué?). 

Teorema 1.9. Sean A, B, C ∈ Mm×n (R). Tenemos que

1. A es equivalente por filas a A.

2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.

3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es equivalente


por filas a A.

Demostración. ¡Ejercicio!

Observación 1.15. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por
filas en lugar de B es equivalente por filas a A ó A es equivalente por filas a B.

Teorema 1.10. Toda matriz A ∈ Mm×n (R) es equivalente por filas a

1. Una matriz escalonada.

2. Una matriz reducida por filas.

3. Una única matriz escalonada reducida por filas, la cual llamaremos la forma escalonada
reducida por filas (FERF) de A.

Demostración. Ver apéndice ??


Matrices y Sistemas de Ecuaciones Lineales 24

Observación 1.16. A ∈ Mn×n (R) es equivalente por filas a In si y sólo si In es la FERF de A.

El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.

Ejemplo 1.13. Hallar la FERF de


 
6 −1 −15 2 13
 
 −1 0 2 −1 −3 
 
A= 
 0 −3 −9 0 9 
 
7 1 −11 3 10

Solución.
   
6 −1 −15 2 13 −1 0 2 −1 −3
   
 −1 0 2 −1 −3   6 −1 −15 2 13 
   
A=  F1 ↔ F2→  
 0 −3 −9 0 9   0 −3 −9 0 9 
   
7 1 −11 3 10 7 1 −11 3 10
   
1 0 −2 1 3 1 0 −2 1 3
   
 6 −1 −15 2 13  F → F − 6F  0 −1 −3 −4 −5 
  2 2 1
→  
F1 → −F1 
→  0 −3 −9 0 9  
 F4 → F4 − 7F1  0 −3 −9 0 9


   
7 1 −11 3 10 0 1 3 −4 −11
   
1 0 −2 1 3 1 0 −2 1 3
   
 0 1 3 4 5  F → F + 3F  0 1 3 4 5 
  3 3 2
→  
F2 → −F2    
→  0 −3 −9 0 9  F → F − F  0 0 0 12 24 
  4 4 2  
0 1 3 −4 −11 0 0 0 −8 −16
   
1 0 −2 1 3 1 0 −2 0 1
  F1 → F1 − F3  
 0 1 3 4 5   0 1 3 0 −3 
1    
F3 → 12 F3   F2 → F2 − 4F3  
→ 0 0
 0 1 2  →  0 0 0 1 2 
  F → F + 8F  
4 4 3
0 0 0 −8 −16 0 0 0 0 0

Ası́ que la FERF de A es


 
1 0 −2 0 1
 
 0 1 3 0 −3 
 
C= 
 0 0 0 1 2 
 
0 0 0 0 0
Matrices y Sistemas de Ecuaciones Lineales 25

Definición 1.13. Una matriz E ∈ Mn×n (R) es llamada matriz elemental si existe una OEF
f tal que E = f (In ), es decir, E se obtiene de In por medio de una única OEF.

Ejemplo 1.14.
 
1 0 0 0
 
 0 1 0 0 
 
1. E1 =   es elemental, pues
 −5 0 1 0 
 
0 0 0 1
   
1 0 0 0 1 0 0 0
   
 0 1 0 0   0 1 0 0 
   
I4 =   F3 → F3 − 5F1   = E1
 0 0 1 0  →  −5 0 1 0 
   
0 0 0 1 0 0 0 1
 
1 0 0
 
2. E2 = 
 0 4 0 
 es elemental, ya que
0 0 1
   
1 0 0 1 0 0
   
I3 = 
 0 1 0  F2 → 4F2
 0 4 0  = E2
→ 
0 0 1 0 0 1
 
1 0 0 0 0
 
 0 0 0 0 1 
 
 
3. E3 = 
 0 0 1 0 0   es elemental, dado que
 
 0 0 0 1 0 
 
0 1 0 0 0
   
1 0 0 0 0 1 0 0 0 0
   
 0 1 0 
0 0   0 0 0 0 1 
  
   
I5 = 
 0 0 1 0 0  
 F2 ↔ F5→  0 0 1 0 0 
 = E3
   
 0 0 0 1 0   0 0 0 1 0 
   
0 0 0 0 1 0 1 0 0 0

Teorema 1.11. Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y f : Fm (R) → Fm (R). Entonces
Matrices y Sistemas de Ecuaciones Lineales 26

1. f (AB) = f (A)B.

2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
   
f (A) = f A(1) f A(2) · · · f A(n)

es decir, la fila j-ésima de f (A) es igual a f aplicado a la j-ésima fila de A.

Demostración. Ver apéndice ??.

Como una consecuencia directa de este teorema tenemos el siguiente resultado.

Corolario 1.12. Si A ∈ Mm×n (R), B ∈ Mn×p (R) y f, f1 , f2 , . . . , fr : Fm (R) → Fm (R) son OEF,
entonces

1. f (A) = f (Im )A.

2. (f1 ◦ f2 ◦ · · · ◦ fr )(AB) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)B.



3. ((f1 ◦ f2 ◦ · · · ◦ fr )(A))(j) = (f1 ◦ f2 ◦ · · · ◦ fr ) A(j) para cada j ∈ {1, . . . , m}.

Demostración. ¡Ejercicio!

Otra consecuencia del mismo teorema, en conjunción con el corolario anterior, es la siguiente.

Corolario 1.13. Sean A, B ∈ Mm×n (R) dos matrices equivalentes por filas. Entonces existen
matrices elementales E1 , E2 , . . . , Er ∈ Mm×m (R) tales que B = E1 E2 · · · Er A

Demostración. ¡Ejercicio!

1.3. Sistemas de Ecuaciones Lineales


La presente sección esta muy relacionada con las OEF y las matrices, y es quizás, junto con la
sección anterior, la más importante del presente capı́tulo.
Matrices y Sistemas de Ecuaciones Lineales 27

Definición 1.14. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas es un


conjunto de ecuaciones de la forma


 a11 x1 + a12 x2 + · · · + a1n xn = b1



 a x +a x +···+a x
21 1 22 2 2n n = b2
(1.4)
 ...

..
.
..
.
.. ..
. .



 a x +a x +···+a x = b
m1 1 m2 2 mn n m

donde x1 , x2 , . . . , xn son las incógnitas del sistema 1.4 y toman valores en R; aij ∈ R son
números fijos para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes del
sistema 1.4 y b1 , b2 , . . . , bm ∈ R son fijos y son los términos independientes del sistema 1.4.
Si b1 = b2 = · · · = bm = 0, diremos que el sistema 1.4 es homogéneo, en caso contrario
diremos que es no homogéneo.
Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.
Si hacemos
     
a11 a12 ··· a1n b1 x1
     
 a21 a22 · · · a2n   b2   x2 
     
A = (aij )m×n = . . . ; b= .  y x =  . ,
 .. .. ..   ..   .. 
     
am1 am2 · · · amn bm xn

el sistema 1.4 puede escribirse como la ecuación matricial Ax = b (¡verifı́quelo!), que llamare-
mos representación matricial del sistema 1.4. La matriz A es llamada matriz de coefi-
cientes o matriz del sistema 1.4, la matriz
 
a11 a12 · · · a1n b1
 
 a 
 21 a22 · · · a2n b2 
[A|b] =  . .. .. .. 
 .. . . . 
 
am1 am2 · · · amn bm

es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incógnita
o matriz de incógnitas y b es conocida como matriz de términos independientes.
El sistema 

 a11 x1 + a12 x2 + · · · + a1n xn = 0



 a x +a x +···+a x
21 1 22 2 2n n = 0
. . . .. .. (1.5)

 .. .. .. . .



 a x +a x +···+a x = 0
m1 1 m2 2 mn n
Matrices y Sistemas de Ecuaciones Lineales 28

es llamado sistema homogéneo asociado al sistema 1.4.


Diremos que c1 , c2 , . . . , cn es una solución del sistema 1.4 si al sustituir x1 = c1 , x2 =
c2 , . . . , xn = cn en 1.4, las igualdades son satisfechas.
Se dice que el sistema 1.4 es

Inconsistente si no tiene solución alguna.

Consistente si tiene al menos una solución, cuando tiene una única solución, se dice que
es consistente determinado, si tiene más de una solución, se dice que es consistente
indeterminado.

Observación 1.17. En general, no haremos diferencia al referirnos al sistema y a su repre-


sentación matricial.

Observación 1.18. Todo sistema homogéneo Ax = 0/m×1 es consistente, x = 0/n×1 es solución


de éste, la cual es llamada solución trivial.
 
x1
 
x 
 2
Observación 1.19. Es claro si A ∈ Mm×n (R) y x =  .  ∈ Mn×1 (R), entonces
 .. 
 
xn

Ax = x1 A(1) + x2 A(2) + · · · + xn A(n)

Ejemplo 1.15.
(
3x1 +2x2 −6x3 = 0
1.
−x1 +5x2 −7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incógnitas, es no homogéneo,
su representación matricial es

 
" # x1 " #
3 2 −6   0
 x2  =
 
−1 5 −7 4
x3

La matriz es y la matriz ampliada del sistema son, respectivamente

" # " #
3 2 −6 3 2 −6 0
y
−1 5 −7 −1 5 −7 4
Matrices y Sistemas de Ecuaciones Lineales 29

las matrices incógnitas y de términos independientes son, respectivamente

 
x1 " #
  0
 x2  y
 
4
x3


 6x −2y +9z = 1

2. −5x +12y −3z = −2


 x 6z = 6
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incógnitas, es no
homogéneo y su representación matricial es

    
6 −2 9 x 1
    
 −5 12 −3   y  =  −2 
    
1 0 6 z 6

El sistema homogéneo asociado a este sistema es




 6x −2y +9z = 0

−5x +12y −3z = 0


 x 6z = 0

Una pregunta que surge de manera inmediata es ¿cómo garantizar que un sistema de ecuaciones
lineales es consistente o inconsistente? y en caso de que sea consistente ¿cómo resolver dicho
sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes
daremos las bases teóricas que nos permitan usar dichas herramientas.

Teorema 1.14. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de


ecuaciones lineales con m ecuaciones y n incógnitas. Supongamos que las matrices [A|b] y [C|d]
son equivalentes por filas. Entonces ambos sistemas tienen exactamente las mismas soluciones o
ninguno tiene solución.

Demostración. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen
OEF f1 , f2 , . . . , fr tales que
(f1 ◦ f2 ◦ · · · ◦ fr )([A|b]) = [C|d]
Matrices y Sistemas de Ecuaciones Lineales 30

por la parte 3 del corolario 1.12

(f1 ◦ f2 ◦ · · · ◦ fr )(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d

y por la parte 2 del mismo corolario, tenemos que

(f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x

Ası́ que, si Ax = b, entonces

Cx = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x = (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d

Además, en virtud del ejercicio 1.2, f1 , f2 , . . . , fr son invertibles y f1−1 , f2−1 , . . . , fr−1 son también
OEF sobre Fm (R), luego, si Cx = d, entonces
Ax = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (C)x = (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(C)x
= (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(Cx) = (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(d) = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (d) = b
Por lo tanto Ax = b si y sólo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o
ambos tienen la(s) misma(s) solución(es).

Observación 1.20. Cuando la matriz del sistema es una matriz ERF, es fácil decidir si el
sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solución(es) de este. La
idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver,
de manera sencilla, el sistema dado.

Ejemplo 1.16. Decidir cuál de los siguientes sistemas son consistentes y cuáles no, en caso de
serlo, mostrar su(s) solución(es).


 2x +y −z = 1

1. 2x −y +5z = 5


 −y +3z = 2


 2x +y −z = 2



 x −2y +4z = −3
2.

 5x −4y +8z = −9



 −y +3z = 2

 −2z
 x +y
 +w = 1
3. 4x +2y +2z = −2


 2y −10z +3w = 3
Matrices y Sistemas de Ecuaciones Lineales 31


 −2z
 x
 +y +w = 1
4. 4x +2y +2z = −2


 2y −10z +4w = 3

Solución.

1. La matriz ampliada del sistema es


 
2 1 −1 1
 
 2 −1 5 5 
 
0 −1 3 2

Hallemos su FERF

     
1
2 1 −1 1 1 2
− 12 1
2
1 1
2
− 12 1
2
     
 2 −1 5 5  F → 1
F  2 −1  F2 → F2 − 2F1  6 4 
  1 2 1
→
5 5  →  0 −2 
0 −1 3 2 0 −1 3 2 0 −1 3 2
   
1
1 − 21 1
1 0 1 3
 2 2
 F1 → F1 − 12 F2  2

1 
F1 → − 2 F1  0 1 −3 −2  →  0 1 −3 −2 
→   
F3 → F3 + F2
0 −1 3 2 0 0 0 0
La última fila de esta última matriz equivale a la ecuación 0 · x + 0 · y + 0 · z = 0, que no
aporta nada a la solución. Ası́ que el sistema dado es equivalente al sistema
(
3
x +z = 2
y −3z = −2

que a su vez equivale a (


3
x = −z + 2
y = 3z − 2
Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obtenemos
3
x = −α + ; y = 3α − 2
2
En consecuencia la solución del sistema dado viene dada por
3
x = −α + ; y = 3α − 2; z = α; con α ∈ R
2
Matrices y Sistemas de Ecuaciones Lineales 32

o bien        
x −α + 32 −1 3
2
       
 y  =  3α −2  = α  3  +  −2  ; con α ∈ R
       
z α 1 0

2. En este caso la matriz del sistema es


 
2 1 −1 2
 
 1 −2 4 −3 
 
 
 5 −4 8 −9 
 
0 −1 3 2

Vamos a hallar su FERF

   
2 1 −1 2 1 −2 4 −3
   
 1 −2 4 −3   2 1 −1 2 
   
 F
 1 ↔ F 2  
 5 −4 8 −9   →  8 −9 
  5 −4 
0 −1 3 2 0 −1 3 2
   
1 −2 4 −3 1 −2 4 −3
   
F2 → F2 − 2F1  0 5 −9 8   0 −1 3 2 
→  

 F2 ↔ F4→ 
 

F3 → F3 − 5F1   0 6 −12 6 
 0
 6 −12 6 

0 −1 3 2 0 5 −9 8
   
1 −2 4 −3 1 0 −2 −7
  F1 → F1 + 2F2  
 0 1 −3 −2   
→  0 1 −3 −2 
 
F2 → −F2   F → F − 6F  
→ 0 6 −12 6  3 3 2  0 0 6 18 
   
F4 → F4 − 5F2
0 5 −9 8 0 0 6 18
   
1 0 −2 −7 1 0 0 −1
  F1 → F1 + 2F3  
 0 1 −3 −2  →  0 1 0 7 
   
F3 → 61 F3   F2 → F2 + 3F3  
→ 0 0 1 3   3 
  F → F − 6F  0 0 1 
4 4 3
0 0 6 18 0 0 0 0
Luego, el sistema dado es equivalente al sistema


 = −1
 x

y = 7


 z = 3
Matrices y Sistemas de Ecuaciones Lineales 33

Por lo tanto el sistema es consistente determinado y su solución es

x = −1; y = 7; z=3

o bien    
x −1
   
 y = 7 
   
z 3

3. Hallemos la FERF de la matriz ampliada del sistema que es


 
1 1 −2 1 1
 
 4 2 2 0 −2 
 
0 2 −10 3 3

   
1 1 −2 1 1 1 1 −2 1 1
   
 4 2 2 0 −2  F2 → F2 − 4F1  0 −2 10 −4 −6 
  → 
0 2 −10 3 3 0 2 −10 3 3
   
1 1 −2 1 1 1 0 3 −1 −2
  F1 → F1 − F2  
F2 → − 21 F2  0 1 −5 2 3  →  0 1 −5 2 3 
→ 
F3 → F3 − 2F2
 
0 2 −10 3 3 0 0 0 −1 −3
   
1 0 3 −1 −2 1 0 3 0 1
  F1 → F1 + F3  
F3 → −F3  0 1 −5 2 3  →  0 1 −5 0 −3 
→    
F2 → F2 − 2F3
0 0 0 1 3 0 0 0 1 3
En consecuencia el sistema dado es equivalente al sistema



 x
 +3z = 1
y −5z = −3


 w = 3
o equivalentemente 

 x = −3z + 1

y = 5z − 3


 w = 3
Matrices y Sistemas de Ecuaciones Lineales 34

Por lo tanto el sistema original es consistente indeterminado. Haciendo z = α, con α ∈ R,


tenemos que la solución del sistema es
       
x −3α +1 −3 1
       
 y   5α −3   5   −3 
       
 =  = α + ; con α ∈ R
 z   α   1   0 
       
w 3 0 3

4. Hallemos la FERF de la matriz


 
1 1 −2 1 1
 
 4 2 2 0 −2 
 
0 2 −10 4 3

que es la matriz ampliada del sistema


   
1 1 −2 1 1 1 1 −2 1 1
   
 4 2 2 0 −2  F2 → F2 − 4F1  0 −2 10 −4 −6 
  → 
0 2 −10 4 3 0 2 −10 4 3
 
1 1 −2 1 1
 
F3 → F3 + F2   0 −2 10 −4 −6 


0 0 0 0 −3
Sin necesidad de llegar a la FERF de la matriz, vemos que la última fila de esta última
matriz equivale a la ecuación

0 · x + 0 · y + 0 · z + 0 · w = −3

la cual es contradictoria, en consecuencia, el sistema original es inconsistente.

Teorema 1.15. El sistema homogéneo Ax = 0/m×1 , con A ∈ Mm×n (R), tiene infinitas soluciones
si m < n, esto es, si el sistema homogéneo Ax = 0/m×1 tiene más incógnitas que ecuaciones,
entonces es consistente indeterminado.

Demostración. ¡Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 35

Teorema 1.16. Sea A ∈ Mm×n (R). Supongamos que x1 , x2 ∈ Mn×1 (R) son soluciones del
sistema homogéneo Ax = 0/m×1 . Entonces, para cada α ∈ R, se tiene que x1 + x2 y αx1 son
también soluciones del sistema.

Demostración. ¡Ejercicio!

Teorema 1.17. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Supongamos que xp es una solución del
sistema Ax = b. Entonces, para cada solución xg del sistema Ax = b, existe una solución xh de
Ax = 0/m×1 tal que xg = xh + xp .

Demostración. Dado que xp es solución del sistema Ax = b, tenemos que Axp = b.


Sea xg una solución cualquiera de Ax = b. Entonces Axg = b. Definamos xh = xg − xp . Ası́ que

Axh = A(xg − xp ) = Axg − Axp = b − b = 0/m×1

es decir, xp es solución del sistema homogéneo Ax = 0/m×1 y además xg = xh + xp .

Ejemplo 1.17. Para el sistema de la parte 1 del ejemplo 1.16 tenemos que
   
3
−1
 2   
xp =    
 −2  ; xh = α  3  ; con α ∈ R
0 1
Para el sistema de la parte 2 del mismo ejemplo, se tiene que
   
−1 0
   
xp = 
 7 
; xh =  
 0 
3 0
Nótese que en este caso xg = xp .
Finalmente, para el sistema de la parte 3 del ejemplo en cuestión
   
1 −3
   
 −3   5 
   
xp =   ; xh = α   ; con α ∈ R
 0   1 
   
3 0


Ejercicio 1.3. Sea A ∈ Mm×n (R). Pruebe que si el sistema Ax = b tiene solución para cada
b ∈ Mm×1 (R), entonces m ≤ n.
Matrices y Sistemas de Ecuaciones Lineales 36

1.4. Inversa de una Matriz Cuadrada


En la presente sección, presentaremos un breve estudio sobre las matrices invertibles y
sus aplicaciones en la resolución de los sistemas de ecuaciones, cabe destacar que se pueden
definir inversas laterales de matrices no cuadradas, sin embargo, sólo estudiaremos el caso de
matrices cuadradas.

Definición 1.15. sea A ∈ Mn×n (R). diremos que A es invertible si existe una matriz B ∈
Mn×n (R) tal que
AB = In = BA

Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.


" # " #
2 −2 2 1
Ejemplo 1.18. Si A = , entonces B = es una inversa de A ya que
3
−3 4 2
1
" #" # " # " #
2 −2 2 1 4−3 2−2 1 0
AB = = = = I2
3
−3 4 2
1 3 − 3 −3 + 4 0 1
" #" # " # " #
2 1 2 −2 4 − 3 −4 + 4 1 0
AB = = = = I2
3
2
1 −3 4 3 − 3 −3 + 4 0 1


Teorema 1.18. Si A ∈ Mn×n (R) es invertible, entonces A tiene sólo una inversa, es decir,
existe una única matriz B ∈ Mn×n (R) tal que AB = In = BA, tal matriz es denotada por A−1 .

Demostración. Supongamos que A ∈ Mn×n (R) es invertible y que B, C ∈ Mn×n (R) son inver-
sas de A. Entonces

AB = In = BA (1.6)
AC = In = CA (1.7)

Luego

C = CIn (por la parte 5 del teorema 1.6)


= C(AB) (por la ecuación 1.6)
= (CA)B (por la parte 1 del teorema 1.6)
= In B (por la ecuación 1.7)
= B (por la parte 5 del teorema 1.6)
Matrices y Sistemas de Ecuaciones Lineales 37

Teorema 1.19. Sean A, B ∈ Mn×n (R) dos matrices invertibles y α ∈ R con α 6= 0. Entonces

−1
1. A−1 es invertible y (A−1 ) = A (propiedad involutiva de la inversa)

2. AB es invertible y (AB)−1 = B −1 A−1 (inversa del producto matricial)

3. αA es invertible y (αA)−1 = α−1 A−1 (inversa del múltiplo escalar)


−1 T
4. AT es invertible y AT = (A−1 ) (inversa de la transpuesta)

Demostración.

1. Se deduce directamente de la definición de matriz invertible.

2. En primer lugar

(AB)(B −1 A−1 ) = ABB −1 A−1 (teorema 1.6 parte 1)


= A(BB −1 )A−1 (teorema 1.6 parte 1)
= AIn A−1 (definición de matriz inversa)
= (AIn )A−1 (teorema 1.6 parte 1)
= AA−1 (teorema 1.6 parte 5)
= In (definición de matriz inversa)

Además

(B −1 A−1 )(AB) = B −1 A−1 AB (teorema 1.6 parte 1)


= B −1 (A−1 A)B (teorema 1.6 parte 1)
= B −1 In B (definición de matriz inversa)
= (B −1 In )B (teorema 1.6 parte 1)
= B −1 B (teorema 1.6 parte 5)
= In (definición de matriz inversa)

Luego, por el teorema 1.18, tenemos que AB es invertible y (AB)−1 = B −1 A−1 .


Matrices y Sistemas de Ecuaciones Lineales 38

3. Veamos

(αA)(α−1A−1 ) = (α−1 (αA))A−1 (teorema 1.6 parte 4)


= ((α−1 α)A)A−1 (teorema 1.2 parte 7)
= (1 · A)A−1
= AA−1 (teorema 1.2 parte 8)
= In (definición de matriz inversa)

Análogamente, se prueba que (α−1 A−1 )(αA) = In . Nuevamente, usando el teorema 1.18,
se tiene que αA es invertible y (αA)−1 = α−1 A−1 .

4. Por un lado

AT (A−1 )T = (A−1 A)T (teorema 1.7 parte 4)


= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5)

Por otro lado

(A−1 )T AT = (AA−1 )T (teorema 1.7 parte 4)


= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5)
−1
Por lo tanto, haciendo uso del teorema 1.18, se tiene que AT es invertible y AT =
−1 T
(A ) .

Teorema 1.20. Toda matriz elemental es invertible y su inversa es también una matriz elemen-
tal.

Demostración. Sea E ∈ Mn×n (R) una matriz elemental. Entonces existe una OEF f : Fn (R) →
Fn (R) tal que E = f (In ). El ejercicio 1.2 garantiza que f es invertible y su inversa f −1 es también
una OEF sobre Fn (R), ası́ que F = f −1 (In ) es una matriz elemental, además

EF = f (In )f −1 (In )
= f (f −1(In )) (corolario 1.12 parte 1)
= In
Matrices y Sistemas de Ecuaciones Lineales 39

F E = f −1 (In )f (In )
= f −1 (f (In )) (corolario 1.12 parte 1)
= In

Luego, E es invertible y E −1 = F , es decir, (f (In ))−1 = f −1 (In ).

Ahora bien ¿cómo saber si una matriz cuadrada A es o no invertible? y en caso de que lo
sea ¿cómo hallar A−1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
único. Daremos un ejemplo sencillo que ilustrará tal procedimiento.

Ejemplo 1.19. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
afirmativo, hallar A−1 .
" #
2 −2
1. A =
−3 4
" #
2 −8
2. A =
−3 12

Solución.

1. Supongamos que A es invertible y sea


" #
x y
B=
z w

tal que AB = I2 , ası́ que


" # " # " # " #
x 1 y 0
A = y A =
z 0 w 1

como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera


simultánea considerando la siguiente matriz 2 veces ampliada
" #
2 −2 1 0
[A|I2 ] =
−3 4 0 1
Matrices y Sistemas de Ecuaciones Lineales 40

Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos darán, respectivamente,
las soluciones del primer y segundo sistema, si existen, que a su vez nos darán, respecti-
vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de
esta matriz.
" # " #
1
2 −2 1 0 1 −1 2
0
[A|I2 ] = F1 → 21 F1
−3 4 0 1 → −3 4 0 1
" # " #
1 −1 12 0 1 0 2 1
F2 → F2 + 3F1 F1 → F1 + F2
→ 0 1 32 1 → 0 1 3 1
2

Por lo tanto " #


2 1
B=
3
2
1
El lector puede verificar que BA = I2 , por lo tanto, A es invertible y
" #
2 1
A−1 = B =
3
2
1

Comparar este resultado con el ejemplo 1.19.

2. Como en el caso anterior, supongamos que existe


" #
x y
B=
z w

tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ]


" # " #
1
2 −8 1 0 1 −4 2
0
[A|I2 ] = F1 → 21 F1
−3 12 0 1 → −3 12 0 1
" #
1 −1 12 0
F2 → F2 + 3F1
→ 0 0 3 1 2

La última fila de esta última matriz equivale a las ecuaciones


3
0·x+0·z = 0·y+0·w =1
2
Por lo tanto, no existe matriz B tal que AB = I2 , en consecuencia, A no es invertible.
Matrices y Sistemas de Ecuaciones Lineales 41

Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una
matriz cuadrada A es o no invertible, además, en caso afirmativo, nos permite hallar A−1 .

Algoritmo para decidir si una matriz A ∈ Mn×n (R) es o no invertible, y en caso


afirmativo mostrar la matriz A−1 .

Paso 1. Formar la matriz n veces ampliada [A|In ].

Paso 2. Hallar la FERF de la matriz del Paso 1.

Paso 3. Si la matriz del Paso 2 es [In |B], entonces A es invertible y A−1 = B, sino A no es
invertible.

Ejemplo 1.20. Decidir si la matriz


 
2 0 3 1
 
 −1 1 1 3 
 
A= 
 1 −1 2 −2 
 
0 1 −1 2

es invertible o no, en caso afirmativo, hallar A−1 .

Solución.
   
2 0 3 1 1 0 0 0 1 −1 2 −2 0 0 1 0
   
 −1 1 1 3 0 1 0 0   −1 1 1 3 0 1 0 0 
   
  F1 ↔ F3→  
 1 −1 2 −2 0 0 1 0   2 0 3 1 1 0 0 0 
   
0 1 −1 2 0 0 0 1 0 1 −1 2 0 0 0 1
 
1 −1 2 −2 0 0 1 0
 
F2 → F2 + F1  0 0 3 1 0 1 1 0 
→ 


F3 → F3 − 2F1  0 2 −1 5 1 0 −2 0  
0 1 −1 2 0 0 0 1
 
1 −1 2 −2 0 0 1 0
 
 0 1 −1 2 0 0 0 1 
 
F2 ↔ F4  
→ 0 2 −1 5 1 0 −2 0 
 
0 0 3 1 0 1 1 0
Matrices y Sistemas de Ecuaciones Lineales 42

 
1 0 1 0 0 0 1 1
 
F1 → F1 + F2  0 1 −1 2 0 0 1  0
→ 


F3 → F3 + 2F2  0 0 1 1 1 0 −2 −2 

0 0 3 1 0 1 1 0
 
1 0 0 −1 −1 0 3 3
F1 → F1 − F3  
→  1 0 −2 −1 
 0 1 0 3 
F2 → F2 + F3  
 0 0 1 1 1 0 −2 −2 
F4 → F4 − 3F3  
0 0 0 −2 −3 1 7 6
 
1 0 0 −1 −1 0 3 3
 
 0 1 0 3 1 0 −2 −1 
 
F4 → − 12 F4  
→ 0 0 1 1 1 0 −2 −2 
 
3 1 7
0 0 0 1 2
− 2 − 2 −3
 
1 1 1
1 0 0 0 2
−2 −2 0
F1 → F1 + F4  
→  0 1 0 0 − 27 3 17
8 
 2 2 
F2 → F2 − 3F4  
 0 0 1 0 −2 1 1 3
1 
F3 → F3 − F4  
2 2
3 1 7
0 0 0 1 2
− 2 − 2 −3

Luego A es invertible y
   
1
2
− 21 − 12 0 1 −1 −1 0
   
 − 27 3 17  
8  1  −7 3 17 16 
 2 2 
A−1 = =  
 − 12 1 3
1  2  −1 1 3 2 
 2 2   
3
2
− 21 − 72 −3 3 −1 −7 −6

El siguiente teorema nos será muy útil a la hora de saber si una matriz es o no invertible.

Teorema 1.21. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.

1. A es invertible.

2. El sistema Ax = b tiene una única solución para cada b ∈ Mn×1 (R).

3. El sistema homogéneo Ax = 0/n×1 tiene como única solución la trivial.

4. A es equivalente por filas a In .


Matrices y Sistemas de Ecuaciones Lineales 43

5. Existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) tales que A = E1 E2 · · · Er .

Demostración.

(1. ⇒ 2.) Supongamos que A es invertible. Entonces, por definición de matriz inversa, existe
A−1 ∈ Mn×n (R) tal que AA−1 = In = A−1 A

Sea b ∈ Mn×1 (R) cualquiera y consideremos el sistema Ax = b. Entonces A−1 (Ax) = A−1 b,
pero

A−1 (Ax) = (A−1 A)x (teorema 1.6 parte 1)


= In x (por definición de inversa)
= x (teorema 1.6 parte 5)

Ası́ que el sistema Ax = b tiene como única solución x = A−1 b.

(2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una única solución para cada b ∈ Mn×1 (R).
Entonces el sistema homogéneo Ax = 0/n×1 R tiene una única solución, pero sabemos que
x = 0/n×1 es solución de este sistema (observación 1.18), ası́ que la única solución de dicho
sistema es la solución trivial.

(3. ⇒ 4.) Supongamos que el sistema homogóneo Ax = 0/n×1 tiene como única solución la trivial.

Procederemos por reducción al absurdo. Supongamos que A no es equivalente por filas a


In . Por lo tanto, usando la observación 1.16, si CA es la FERF de A, entonces CA debe
tener alguna fila nula (¿por qué?), la cual debe estar ubicada en la última posición pues
CA es escalonada reducida por filas, esta fila equivale a la ecuación

0 · x1 + 0 · x2 + · · · + 0 · xn = 0

donde  
x1
 
x 
 2
x= . 
 .. 
 
xn
y en consecuencia no aporta ninguna información a la solución del sistema Ax = 0/n×1 .

Definamos DA ∈ M(n−1)×n (R) la matriz que se obtiene al eliminar la última fila de CA .


Luego el sistema homogéneo Ax = 0/n×1 es equivalente al sistema homogéneo DA x = 0/(n−1)×1
Matrices y Sistemas de Ecuaciones Lineales 44

el cual, en virtud del teorema 1.15, tiene infinitas soluciones, de donde, el sistema Ax = 0/n×1
tiene infinitas soluciones, lo cual contradice la hipótesis, por lo tanto A es equivalente por
filas a In .

(4. ⇒ 5.) Supongamos que A es equivalente por filas a In . Entonces existen OEF f1 , f2 , . . . , fr :
Fn (R) → Fn (R) tales que
A = (f1 ◦ f2 ◦ · · · ◦ fr )(In )

Luego, usando recursivamente el corolario 1.12 partes 1 y 2, tenemos que

A = f1 (In )f2 (In ) · · · fr (In )

Ası́ que la matriz Ei = fi (In ) es elemental para cada i ∈ {1, . . . , r} y además

A = E1 E2 · · · Er

(5. ⇒ 1.) Supongamos que A = E1 E2 · · · Er donde E1 , E2 , . . . , Er ∈ Mn×n (R) son matrices ele-
mentales. Dado que toda matriz elemental es invertible (teorema 1.20) y usando recursiva-
mente la parte 2 del teorema 1.19, se tiene que A es invertible.

Lo cual concluye la prueba.

Teorema 1.22. Sean A, B ∈ Mm×n (R). Si AB = In , entonces BA = In ; y en consecuencia


A−1 = B.

Demostración. Supongamos que AB = In . Sea xh una solución del sistema homogéneo Bx =


0/n×1 . Entonces
Bxh = 0/n×1 (1.8)

Luego

xh = In xh (teorema 1.6 parte 5)


= (AB)xh (por hipótesis)
= A(Bxh ) (teorema 1.6 parte 1)
= A 0/n×1 (por ecuación 1.8)
= 0/n×1 (teorema 1.6 parte 6)
Matrices y Sistemas de Ecuaciones Lineales 45

Ası́ que la única solución del sistema homogéneo Bx = 0/n×1 es la trivial, y en virtud del teorema
1.21, B es invertible. Además

A = AIn (teorema 1.6 parte 5)


= A(BB −1 ) (definición de matriz inversa)
= (AB)B −1 (teorema 1.6 parte 1)
= In B −1 (por hipótesis)
= B −1 (teorema 1.6 parte 5)

Por lo tanto BA = In (definición de inversa) y como consecuencia de la parte 1 del teorema 1.19
A−1 = (B −1 )−1 = B.

Observación 1.21. El teorema 1.22 nos permite garantizar que A−1 = B sólo con probar que
AB = In ó BA = In .

1.5. Determinantes. Propiedades de los Determinantes


En esta última sección del presente capı́tulo, trataremos los determinantes y algunas de
sus propiedades, en primer lugar definiremos los determinantes de orden 2, continuando luego
con los determinantes de orden 3 para finalmente definir los determinantes de orden n. Al final
de la sección, y del capı́tulo, enunciaremos la regla de Cramer , que a pesar de no ser una
herramienta muy usada en el presente, es una interesante aplicación de los determinantes.
" #
a11 a12
Definición 1.16. Sea A = ∈ Mm×n (R). Definiremos el determinante de A,
a21 a22
como el número real det(A) = |A|, dado por

a a
11 12
det(A) = |A| = = a11 a22 − a12 a21
a21 a22

este tipo de determinante se suele llamar determinante de orden 2.


" #
−6 5
Ejemplo 1.21. Hallar det(A) para A =
−7 6

−6 5

Solución. det(A) = = (−6)6 − 5(−7) = −36 + 35 = −1
−7 6
Matrices y Sistemas de Ecuaciones Lineales 46

" #
a11 a12
Ejercicio 1.4. Pruebe que A = ∈ M2×2 (R) es invertible si y sólo si det(A) 6= 0.
a21 a22
" #
1 a22 −a12
Además, si A es invertible, entonces A−1 =
det(A) −a21 a11

Definición 1.17. Dada la matriz


 
a11 a12 a13
 
A= 
 a21 a22 a23  ∈ M3×3 (R)
a31 a32 a33

Definiremos el determinante de A, denotado por det(A) ó |A|, como



a
11 a12 a13 a a a
a
22 23 21 a23 21 a22
det(A) = |A| = a21 a22 a23 = a11 − a12 + a13
a32 a33 a31 a33 a31 a32
a31 a32 a33

este tipo de determinante es llamado determinante de orden 3.

Observación 1.22. Nótese que estamos definiendo el determinante de orden 3 en función de


determinantes de orden 2.
 
2 −3 −1
 
Ejemplo 1.22. Hallar det(A) para A = 
 −6 1 5 

−7 0 6

Solución.

2 −3 −1
1 5 −6 5 −6 1


det(A) = |A| = −6 1
5 = 2 − (−3) + (−1)
0 6 −7 6 −7 0
−7 0 6
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2

Observación 1.23. Una forma muy sencilla recordar la fórmula de determinantes de orden 3
Matrices y Sistemas de Ecuaciones Lineales 47

es la siguiente


a11 a12 a13

ւ
ց ւ
ց


a21 a22 a23 = a a a +a a a +a a a
11 22 33 21 32 13 31 12 23

ւ
ց ւ
ց − a13 a22 a31 − a23 a32 a11 − a33 a12 a21


a31 a32 a33

ւ
ց ւ
ց 




 
a11 a12 a13 no es parte del determinante, es sólo

ւ ց 
 para ayudar a recordar la fórmula




a21 a22 a23

Los productos generados por las flechas rojas (ց) se colocan con signo positivo, los que son
generados por las flechas azules (ւ) se colocan con signo negativo.
Puede verificar que la igualdad anterior es cierta. También se puede hacer el cálculo si en lugar
de colocar las dos primeras filas al final, se colocan las dos últimas filas en la parte superior, las
dos primeras columnas a la derecha o las dos últimas columnas a la izquierda.
Este método se conoce como la método de Sarrus para el cálculo de determinantes de orden
3 y sólo es aplicable a determinantes de orden 3.

Ejemplo 1.23. Calculemos el determinante del ejemplo 1.22 usando este método.

Solución.

2 −3 −1


−6 1 5 = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5 − (−1)1(−7) − 5 · 0 · 2 − 6(−3)(−6)


−7 0 6

2 −3 −1
−6 1 5

2 −3 −1


−6 1 5 = 12 + 0 + 105 − 7 − 0 − 108 = 2.


−7 0 6

Compare este resultado con el obtenido en el ejemplo 1.22.


Matrices y Sistemas de Ecuaciones Lineales 48

Antes de definir determinantes de orden n, daremos dos definiciones previas.

Definición 1.18. Sea A =∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definamos la matriz MijA ∈
M(n−1)×(n−1) (R) que se obtiene de A al eliminar su i-ésima fila y su j-ésima columna, dicha
matriz es llamada ij-ésimo menor de A.

Ejemplo 1.24. Consideremos la matriz


 
−9 2 −1 4
 
 0 8 −5 7 
 
A= 
 1 6 3 −6 
 
−4 1 0 3
A A A
Hallar M23 ; M42 y M22 .

Solución.
     
−9 2 4 −9 −1 4 −9 −1 4
     
A
M23 =
 1 6 −6 
;
A
M42 =
 0 −5 7 

A
y M22 =
 1 3 −6 

−4 1 3 1 3 −6 −4 0 3

Definición 1.19. Sean A =∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-ésimo
cofactor de A como el número real CijA dado por

CijA = (−1)i+j det MijA

Ejemplo 1.25. Para la matriz del ejemplo 1.24 se tiene que


−9 2 4


A
C23 = (−1) det M23 = − 1 6 −6 = −(−162 + 4 + 48 + 96 − 54 − 6) = 74
2+3 A

−4 1 3

−9 −1 4


A
C42 = (−1)4+2 det M42
A
= 0 −5 7 = −270 + 0 − 7 + 20 + 189 − 0 = −68

1 3 −6

−9 −1 4


A
C22 = (−1)2+2 det M22
A
= 1 3 −6 = −81 + 0 − 24 + 48 − 0 + 3 = −54

−4 0 3

Matrices y Sistemas de Ecuaciones Lineales 49

Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la fórmula
dada en la definición 1.17 puede ser escrita como

A A A
det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta fórmula para una matriz A de orden n.

Definición 1.20. Sea A ∈ Mn×n (R). Definiremos el determinante de A, determinante de


orden n, como el número real det(A) = |A| dado por


a11 a12 · · · a1n

a21 a22 · · · a2n X n Xn

A 1+j A
det(A) = |A| = . .. . . . = a1j C 1j = a1j (−1) det M1j
.. . . .. j=1
j=1

an1 an2 · · · ann

Ejemplo 1.26. Hallar el determinante de la matriz del ejemplo 1.24

Solución.


−9 2 −1 4

0 8 −5 7

det(A) = |A| =
1 6 3 −6


−4 1 0 3
  
= (−9)(−1)1+1 det M11A
+ 2(−1)1+2 det M12 A
+ (−1)(−1)1+3 det M13
A


+4(−1)1+4 det M14 A

8 −5 0 8 −5
7 0 −5 7 0 8 7

= −9 6 3 −6 − 2 1 3 −6 − 1 6 −6 − 4 1 6 3


1 0 3 −4 0 3 −4 1 3 −4 1 0

det(A) = −9(72 + 0 + 30 − 21 − 0 + 90) − 2(9 + 0 − 120 + 84 − 0 + 15)


−(0 + 7 + 192 + 168 − 0 − 24) − 4(0 − 5 − 96 − 120 − 0 − 0)
= −1539 + 24 − 343 + 884 = −974
Matrices y Sistemas de Ecuaciones Lineales 50

Ejemplo 1.27. Calcular el determinante de la matriz


 
2 0 0 0 0
 
 12 1 0 0 0 
 
 
A=  −3 0 −3 0 0 

 
 5 −8 7 −1 0 
 
−9 6 −7 0 −6

Solución. Notemos primero que A es triangular inferior.




2 0 0 0 0

12 1 0 0 0


det(A) = |A| = −3 0 −3 0 0

5 −8 7 −1 0


−9 6 −7 0 −6
  
= 2(−1)1+1 det M11 A
+ 0(−1)1+2 det M12 A
+ 0(−1)1+3 det A
M13
 
+0(−1)1+4 det M14 A
+ 0(−1)1+5 det M15 A

  
= 2(−1)1+1 det M11 A
+ 0(−1)1+2 det M12 A
+ 0(−1)1+3 det A
M13
 
+0(−1)1+4 det M14 A
+ 0(−1)1+5 det M15 A


1 0 0 0

0 −3 0 0

= 2
−8 7 −1 0


6 −7 0 −6

−3 0 0 0 0 0


= 2 1+1
1(−1) 7 −1 0 + 0(−1)1+2 −8 −1 0


−7 0 −6 6 0 −6

0 −3 0 0 −3 0

1+3

+0(−1) −8 7 1+4
0 + 0(−1) −8 7 −1 


6 −7 −6 6 −7 0
Matrices y Sistemas de Ecuaciones Lineales 51


−3 0 0


det(A) = 2 · 1 7 −1 0


−7 0 −6
!
−1 0 7 0 7 −1

= 2 · 1 (−3)(−1)1+1 + 0(−1)1+2 + 0(−1)1+3
0 −6 −7 −6 −7 0

−1 0

= 2 · 1(−3) = 2 · 1(−3)((−1)(−6) − 0 · 0)
0 −6
= 2 · 1(−3)(−1)(−6) = −36

¡El determinante de A es el producto de las componentes de la diagonal principal! este resultado


se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

La demostración del teorema que enunciaremos a continuación escapa del objetivo del curso,
por lo cual sólo lo enunciaremos, sin embargo, de este se derivan el resto de las propiedades que
serán enunciadas más adelante.

Teorema 1.23. Si A = (aij )n×n ∈ Mm×n (R), entonces


n
X n
X 
1. det(A) = aij CijA = aij (−1)i+j det MijA para cada i ∈ {1, . . . , n} (Desarrollo del
j=1 j=1
det(A) mediante la fila i-ésima de A).
n
X n
X 
2. det(A) = aij CijA = aij (−1)i+j det MijA para cada j ∈ {1, . . . , n} (Desarrollo del
i=1 i=1
det(A) mediante la columna j-ésima de A).

Ejemplo 1.28. Calcular el determinante de la matriz A del ejemplo 1.22 al desarrollar el de-
terminante mediante la tercera fila y mediante la segunda columna.

Solución. En primer lugar hallemos el determinante de A desarrollándolo mediante la tercera


fila.

2 −3 −1


det(A) = |A| = −6 1 5

−7 0 6

−3 −1 2 −1 2 −3

= −7(−1)3+1 + 0(−1)3+2 + 6(−1)3+3
1 5 −6 5 −6 1
= −7(−15 + 1) + 0 + 6(2 − 18) = 2
Matrices y Sistemas de Ecuaciones Lineales 52

Ahora desarrollemos el determinante de A mediante la segunda columna.



2 −3 −1


det(A) = |A| = −6 1 5

−7 0 6

−6 5 2 −1 2 −1

= −3(−1)1+2 + 1(−1)2+2 + 0(−1)3+2
−7 6 −7 6 −6 5
= 3(−36 + 35) + (12 − 7) + 0 = 2

Teorema 1.24. Si A = (aij )n×n ∈ Mn×n (R) una matriz triangular (superior o inferior), en-
tonces det(A) = a11 a22 · · · ann .

Solución. Procedamos por inducción sobre n. Supongamos, sin perder generalidad que A es
una matriz triangular superior.
Verifiquemos que la tesis se cumple para n = 2. Sea
" #
a11 a12
A=
0 a22

Entonces
det(A) = a11 a22 − a12 · 0 = a11 a22

Supongamos ahora que la tesis se cumple para n − 1, esto es, supongamos que para cualquier
matriz triangular superior A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R) se cumple que det(A) =
a11 a22 · · · a(n−1)(n−1) (Hipótesis Inductiva).
Probemos ahora que se cumple para n. Sea
 
a11 a12 · · · a1n
 
 0 a 
 22 · · · a2n 
A= . . .. 
 .. .. ... . 
 
0 · · · 0 ann

Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos

A A A

det(A) = 0 · Cn1 + · · · + 0 · Cn(n−1) + ann Cnn = ann (−1)n+n det(Mnn
A A
) = ann det Mnn
Matrices y Sistemas de Ecuaciones Lineales 53

Pero
 
a11 a12 · · · a1(n−1)
 
 0 a22 · · · a2(n−1) 
A  
Mnn = .. .. .. .. 
 . . . . 
 
0 ··· 0 a(n−1)(n−1)
A
es decir, Mnn es una matriz triangular superior de orden (n−1), por lo tanto, usando la Hipótesis
A

Inductiva, se tiene que det Mnn = a11 a22 · · · a(n−1)(n−1) . Luego

det(A) = ann a11 a22 · · · a(n−1)(n−1) = a11 a22 · · · a(n−1)(n−1) ann

Lo cual concluye la prueba.


Teorema 1.25. Si A ∈ Mn×n (R), entonces det AT = det(A).

Demostración. ¡Ejercicio!
Sugerencia: proceder por inducción sobre n y usar el teorema 1.23

Los teoremas que enunciaremos a continuación, nos presentan las propiedades básicas del
determinante, estas propiedades nos permitirán hallar el determinante de una matriz sin hacer
demasiados cálculos. Los enunciados de estas propiedades se darán sólo para filas, sin embargo,
en virtud del teorema 1.25, se pueden enunciar propiedades análogas para columnas.

Teorema 1.26. Sea A ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.

Demostración. Sea A = (aij )n×n . Como A(s) = 0/1×n , entonces asj = 0 para cada j ∈ {1, . . . , n}.
Ası́ que, al desarrollar el determinante de A por medio de la fila s, se tiene que
n
X n
X
A A
det(A) = asj Csj = 0 · Csj =0
j=1 j=1

Teorema 1.27. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = αA(s)
y B(i) = A(i) para i 6= s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A
por un escalar α, entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por α.
Matrices y Sistemas de Ecuaciones Lineales 54

Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = αA(s) y B(i) = A(i) para i 6= s,
entonces bsj = αasj para cada j ∈ {1, . . . , n} y además, la matriz que se obtiene al eliminar la
A B
fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego Msj = Msj para
cada j ∈ {1, . . . , n} (¿por qué?).
Por lo tanto
B
Csj = (−1)s+j det(Msj
B
) = (−1)s+j det(Msj
A A
) = Csj

para cada j ∈ {1, . . . , n}.


Ası́, al desarrollar el determinante de B por medio de la fila s, obtenemos
n
X n
X n
X
B A A
det(B) = bsj Csj = αasj Csj =α asj Csj = α det(A)
j=1 j=1 j=1

Ejemplo 1.29. Sea  


2 −1 2
 
A=
 12 −16 4 

−2 0 3
Entonces

2 −1 2 2 −1 2 2 −1 2


det(A) = 12 −16 4 = 4 · 3 4(−4) 4 · 1

= 4 3 −4 1


−2 0 3 −2 0 3 −2 0 3
= 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3]
= 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116

Teorema 1.28. Sean A, B, C ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i 6= s, entonces det(C) = det(A) + det(B), dicho de otra manera, si
tenemos tres matrices A, B, C cuyas filas son idénticas excepto la fila s, y que la fila s de C es
igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.

Demostración. Sean A = (aij )n×n , B = (bij )n×n y C = (cij )n×n . Sean A, B, C ∈ Mn×n (R).
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i 6= s, entonces csj = asj + bsj para cada
Matrices y Sistemas de Ecuaciones Lineales 55

j ∈ {1, . . . , n} y además, las matrices que se obtienen al eliminar la fila s de A, B y C son


A B C
iguales, ası́ que Msj = Msj = Msj para cada j ∈ {1, . . . , n}.
Por lo tanto
C B A
Csj = Csj = Csj

para cada j ∈ {1, . . . , n} (¿por qué?).


En consecuencia
n
X n
X n
X n
X
C C C C
det(C) = csj Csj = (asj + bsj )Csj = asj Csj + bsj Csj
j=1 j=1 j=1 j=1
n
X n
X
A B
= asj Csj + bsj Csj = det(A) + det(B)
j=1 j=1

Ejemplo 1.30. Sea A la matriz del ejemplo 1.29. Entonces



2 −1 2 4 + (−2) −1 2 4 −1 2 −2 −1 2


det(A) = 12 −16 4 = 6 + 6 −16 4 = 6 −16 4

+ 6 −16 4




−2 0 3 1 + (−3) 0 3 1 0 3 −3 0 3
= [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] +
[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6]
= [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18]
= −146 + 30 = −116

Teorema 1.29. Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i 6= s y i 6= t, entonces det(B) = − det(A), en otras palabras,
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por −1.

Demostración. Ver Apéndice ??.

Ejemplo 1.31. Sea A la matriz del ejemplo 1.29 y sea


 
2 −1 2
 
B=  4 −16 12 

3 0 −2
Matrices y Sistemas de Ecuaciones Lineales 56

Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las fila 2 de B es igual


a la fila 2 de A. Además

2 −1 2


det(B) = 4 −16 12


3 0 −2
= 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12 − 2(−16)3 − 12 · 0 · 2 − (−2)(−1)4
= 64 + 0 − 36 + 96 − 0 − 8 = 116 = − det(A)

Teorema 1.30. Sea A ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.

Demostración. Sea B ∈ Mn×n (R) la matriz que se obtiene al intercambiar las filas s y t de A.
Como A(s) = A(t) , entonces B = A y ası́ det(B) = det(A).
Por otro lado, dado que s 6= t y según el teorema 1.29, det(B) = − det(A).
Ası́ que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.

Ejemplo 1.32. Sea  


2 −1 −2
 
A=
 4 −16 12 

2 −1 −2
Entonces

2 −1 −2


det(A) = 4 −16 12


2 −1 −2
= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4
= 64 + 8 − 24 − 64 + 24 − 8 = 0

Teorema 1.31. Sean A ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6= t y


A(s) = αA(t) , entonces det(A) = 0, esto es, si una fila de A es un múltiplo escalar de alguna otra
fila de A, su determinante es igual a cero.
Matrices y Sistemas de Ecuaciones Lineales 57

Demostración. Sea B ∈ Mn×n (R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i 6= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.30, se tiene que det(B) = 0.
Por otro lado, como A(s) = αA(t) = αB(t) = αB(s) , entonces, usando el teorema 1.27, se tiene
que det(A) = α det(B) = α0 = 0.

Ejemplo 1.33. Sea  


2 8 2
 
A=
 −4 −16 1 

3 12 −2
Entonces la columna A(2) = 4A(1) , además

2 8 2


det(A) = −4 −16 1

3 12 −2
= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4)
= 64 − 96 + 24 + 96 − 24 − 64 = 0

Teorema 1.32. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6= t,


B(s) = A(s) + αA(t) y B(i) = A(i) para i 6= s, entonces det(B) = det(A), dicho de otra forma, si
a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, el determinante de la
matriz resultante es igual al determinante de A.

Demostración. Sea C ∈ Mn×n (R) tal que C(i) = B(i) = A(i) para i 6= s y C( s) = αA(t) . Por lo
tanto, dado que s 6= t y en virtud del teorema 1.31, det(C) = 0.
Además, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 1.28

det(B) = det(A) + det(C) = det(A) + 0 = det(A)

Ejemplo 1.34. Sea A la matriz del ejemplo 1.29 y sea


 
2 −1 2
 
B=  −2 −9 −10 

−2 0 3
Matrices y Sistemas de Ecuaciones Lineales 58

Ası́ que B(2) = A(2) − 7A(1) (¿verifı́quelo!). Además



2 −1 2


det(B) = −2 −9 −10

−2 0 3
= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2)
= −54 + 0 − 20 − 36 − 0 − 6 = −116 = det(A)

El siguiente ejemplo nos da un método para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el cálculo resulta
mucho más sencillo que al usar la definición.
Como se dijo en la observación 1.13, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el cálculo de determinantes, estas operaciones las indicaremos de manera
análoga a las OEF, salvo que en lugar de usar F usaremos C.

Ejemplo 1.35. Hallar el determinante de la matriz


 
6 −1 2 13 2
 
 −1 0 −1 −3 −1 
 
 

A =  0 −3 0 9 0 

 
 7 1 3 12 3 
 
0 −2 4 1 −3

Solución.


6 −1 2 13 2 6 −1 2 10 2

−1 0 −1 −3 −1 −1 0 −1 −3 −1 !

C4 → C4 + 3C2
det(A) = 0 −3 0 9 0 = 0 −3
0 0 0

por teorema 1.32
7 1 3 12 3 7 1 3 15 3


0 −2 4 1 −3 0 −2 4 −5 −3
Matrices y Sistemas de Ecuaciones Lineales 59



6 2 10 2
!
−1 −1 −3 −1 desarrollando el determinante
3+2
det(A) = −3(−1)
7 3 15 3 mediante la tercera fila


0 4 −5 −3


0 −4 −8 −4  
F1 → F1 + 6F2
−1 −1 −3 −1  

= 3  F3 → F3 + 7F2


0 −4 6 −4

por teorema 1.32
0 4 −5 −3

−4 −8 −4 !

desarrollando el determinante
= 3(−1)(−1)2+1 −4 6 −4
mediante la primera columna
4 −5 −3
 
0 −13 −7 F1 → F1 + F3

 
= 3 0 1 −7   F 2 → F 2 + F 3



4 −5 −3 por teorema 1.32
!
−13 −7 desarrollando el determinante

= 3 · 4(−1)3+2
1 −7 mediante la primera columna
= −12(−13(−7) − (−7)1) = −12 · 98 = −1176

Resuelva este ejercicio usando el desarrollo del determinante por cofactores y compare ambos
métodos ¿cuál de los dos le parece más sencillo?

Consideremos la ecuación matricial Ax = b, donde A ∈ Mn×n (R). Si A es invertible, entonces


la única solución de dicha ecuación está dada por x = A−1 b, ası́ que, una forma de hallar la
solución de la ecuación en cuestión, es calcular la inversa de A y multiplicarla por b, pero quizás
esto es mucho más complicado y costoso (en términos de cálculos) que hallar la FERF de la
matriz [A|b].
En el siguiente teorema presentaremos una herramienta que permite resolver la ecuación an-
terior usando determinantes y sin necesidad de hallar la inversa de A y sin hallar la FERF de
[A|b], dicha herramienta se conoce con el nombre de la regla de Cramer .

Teorema 1.33 (Regla de Cramer). Sea A ∈ Mn×n (R) una matriz invertible y b ∈ Mn×1 (R). Si
Matrices y Sistemas de Ecuaciones Lineales 60

 
x1
 
 x2  det(Abj )
 
x =  .  es la solución de la ecuación Ax = b, entonces, para cada j ∈ {1, . . . , n}, xj = ,
 ..  det(A)
 
xn
donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es,
h i
Abj = A(1) · · · A(j−1) b A(j+1) · · · A(n)

Demostración. Como A = (aij )n×n es invertible, entonces la única solución del sistema Ax
 =b
b1
 
1 1 b 
−1 −1  2
es x = A b, pero A = adj(A), ası́ que x = adj(A)b, por lo tanto, si b =  . ,
det(A) det(A)  .. 
 
bn
X n
1
entonces xj = C A bi para cada j ∈ {1, . . . , n}.
det(A) i=1 ij
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que
 
a11 ··· a1(j−1) b1 a1(j+1) ··· a1n
 .. .. .. .. .. 
 . . . . . 
 
 
 a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n 
 
 
Abj =  ai1 ··· ai(j−1) bi ai(j+1) ··· ain 
 
 a · · · a b a · · · a 
 (i+1)1 (i+1)(j−1) i+1 (i+1)(j+1) (i+1)n 
 .. .. .. .. .. 
 . . . . . 
 
an1 ··· an(j−1) bn an(j+1) ··· ann
Ab
Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que Mij j = MijA y ası́
Ab
 Ab  
Cij j = (−1)i+j det Mij j = (−1)i+j det MijA = CijA

Luego, al desarrollar el determinante de Abj por medio de la j-ésima columna, obtenemos


n
X n
X
Ab
det(Abj ) = Cij j bi = CijA bi
i=1 i=1

En consecuencia, para cada j ∈ {1, . . . , n} tenemos que


det(Abj )
xj =
det(A)
Matrices y Sistemas de Ecuaciones Lineales 61

Ejemplo 1.36. Verificar que la matriz del sistema




 x +2z −w = 3



 x +y +2z +w = 2

 4x +2y +2z −3w = 1



 2y +z +4w = 1
es invertible y usar la regla de Cramer para hallar la solución del sistema.

Solución. La matriz del sistema es


 
1 0 2 −1
 
 1 1 2 1 
 
A= 
 4 2 2 −3 
 
0 2 1 4
hallemos su determinante


1 0 2 −1 1 0 2 −1 1 1

1 1 2





0 2 0 0
1 0 1 0 2
det(A) = = = 2 −6 1 = 2 −6 −3

4 2 2 −3 0 2 −6 1
2 1 4 2 1 0

0 2 1 4 0 2 1 4

−6 −3

= = 3 6= 0.
1 0
Por lo tanto la matriz del sistema es invertible, ası́ que podemos aplicar la regla de Cramer para
resolverlo. En este caso la matriz de términos independientes es
 
3
 
 2 
 
b= 
 1 
 
1
Luego


3 0 2 −1 0 −6 −1 −13 −6 −1 −13

 2 1 2 1 0 −3 0 −7

b
det A1 = = = − −3 0 −7
1 2 2 −3 0 0 1 −7
0 1 −7

1 2 1 4 1 2 1 4

−6 0 −20

−6 −20
= − −3 0 −7 = = 42 − 60 = −18.
−3 −7
0 1 −7
Matrices y Sistemas de Ecuaciones Lineales 62



1 3 2 −1 1 3 2 −1 −1
0 2

 1 2 2 1 0 −1 0 2
b
det A2 = = = −11 −6 1

4 1 2 −3 0 −11 −6 1
1 1 4

0 1 1 4 0 1 1 4

−1 0 0
−6 −21

= −11 −6 −21 = − = −(−36 + 21) = 15.
1 6
1 1 6



1 0 3 −1 1 0 2 −1 1 −1 2 1 −1







2
 1 1 2 1 0 1 −1 2
det Ab3 = = = 2 −11 1 = 0 −9 −3

4 2 1 −3 0 2 −11 1
2 1 4 0 3 0

0 2 1 4 0 2 1 4

−9 −3

= = 9.
3 0



1 0 2 3 1 0 2 3 1 1
0 −1 0 0
 1 1 2 2 0 1 0 −1

b
det A4 = = = 2 −6 −11 = 2 −6 −9
4 2 2 1 0 2 −6 −11
2 1 1 2 1 3

0 2 1 1 0 2 1 1

−6 −9

= = −18 + 9 = −9.
1 3
  
det Ab1 −18 det Ab2 15 det Ab3 9
En consecuencia x = = = −6; y = = = 5; z = = = 3;
 det(A) 3 det(A) 3 det(A) 3
b
det A4 −9
w= = = −3, es decir, la solución del sistema dado es:
det(A) 3
   
x −6
   
 y   5 
   
 = 
 z   3 
   
w −3

Ejemplo 1.37. Una fábrica produce tres tipos de productos, mezclando para ello tres materias
primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de de la
Matrices y Sistemas de Ecuaciones Lineales 63

materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para
fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la
materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades
de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la
fábrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de
la materia prima 2 y seis millones de la materia prima 3 ¿cuántas unidades de cada producto
puede producir la fábrica usando el total de las materias primas?

Solución. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fábrica.
Por lo tanto, la cantidad de unidades (en millones) que se usarán es:

x1 + x2 + 3x3 de la materia 1

3x1 + 3x2 + 3x3 de la materia 2

2x1 + 2x3 de la materia 3


Como se quiere usar el total de las materias primas, entonces


 x1 +x2 +3x3 = 6

3x1 +3x2 +3x3 = 12


 2x +2x = 6
1 3

En este caso, la matriz del sistema, la matriz de incógnitas y la matriz de términos indepen-
dientes son, respectivamente:
     
1 1 3 x1 6
     
A= 
 3 3 3 ; x= 
 x2  y b= 
 12 
2 0 2 x3 6
Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la
matriz del sistema.

1 1 3 1 1 3
0 −6

det(A) = 3 3 3 = 0 0 −6 = −
= −12 6= 0.
2 2
2 0 2 2 0 2
Como la matriz del sistema es invertible, podemos usar la regla de Cramer.

6 1 3 6 1 3
−6 −6

det Ab1 = 12 3 3 = −6 0 −6 = − = −(−12 + 36) = −24.
6 2
6 0 2 6 0 2
Matrices y Sistemas de Ecuaciones Lineales 64


1 6 3 1 6 3

 −6 −6
det A2 = 3 12 3 = 0 −6
b
−6 =
= 24 − 36 = −12.
−6 −4
2 6 2 0 −6 −4

1 1 6 1 1 6
0
 −6
b
det A3 = 3 3 12 = 0 0 −6 = − = −12.
2 6
2 0 6 2 0 6
−24 −12 −12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
−12 −12 −12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millón de
unidades de cada uno de los productos 2 y 3.
Capı́tulo 2

Espacios Vectoriales

Este es, quizás, el capı́tulo más importante de todo el curso, por lo cual pedimos sea leı́do con
mucho detenimiento, la mayor parte de las definiciones y teoremas tratados acá se usarán con
bastante frecuencia en el resto de los capı́tulos.

2.1. Espacios Vectoriales


Definición 2.1. Un espacio vectorial real es una terna (V, +, ·) formada por un conjunto
no vacı́o V, cuyos elementos llamaremos vectores, y dos operaciones binarias + : V × V −→
V, llamada adición vectorial, y · : R × V −→ V, llamada multiplicación por escalar,
satisfaciendo las siguientes condiciones

A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adición vectorial)

A1. u + v = v + u para cualesquiera u, v ∈ V (conmutatividad de la adición vectorial)

A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w ∈ V (asociatividad de la adición


vectorial)

A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento
neutro para la adición vectorial)

A4. Para cada v ∈ V existe v ′ ∈ V tal que v + v ′ = 0/V (existencia de un elemento


opuesto para la adición vectorial)

M0. α · v ∈ V para cualesquiera α ∈ R y v ∈ V(cerradura de la multiplicación por


escalar)

M1. (α + β) · v = α · v + β · v para cualesquiera α, β ∈ R y v ∈ V (distributividad de la


multiplicación por escalar respecto a la adición escalar)

M2. α · (u + v) = α · u + α · v para cualesquiera α ∈ R y u, v ∈ V (distributividad de la


multiplicación por escalar respecto a la adición vectorial)

65
Espacios Vectoriales 66

M3. (αβ) · v = α · (β · v) = β · (α · v) para cualesquiera α, β ∈ R y v ∈ V (asociatividad


de la multiplicación escalar y la multiplicación por escalar)

M4. 1 · v = v para cada v ∈ V (existencia de un elemento neutro para la multipli-


cación por escalar)

Observación 2.1. Es de hacer notar que las expresiones a la izquierda de las igualdades en
M1. y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operación + tiene mayor
jerarquı́a que la operación ·, esto es, (α · u) + v puede ser escrito como α · u + v pero en la
expresión α · (u + v) no pueden suprimirse los paréntesis.

Observación 2.2. La definición 2.1 se puede extender considerando un campo cualquiera K


(ver apéndices ?? y ??) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial
y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este
caso V es llamado espacio vectorial complejo.
En lo que resta del curso, sólo consideraremos espacios vectoriales reales, salvo que se diga
lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios
vectoriales reales, a menos que haya error a confusión.

Observación 2.3. En adelante, siempre que no haya error a confusión, en lugar de escribir
α · v escribiremos αv.

Observación 2.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se
tienda a confusión, en lugar de la terna (V, +, ·), sobrentendiendo las operaciones + y ·

Ejemplo 2.1.

1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R para cada i ∈ {1, . . . , n}} junto con las opera-
ciones + y · dadas como sigue

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )

α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn )

donde α ∈ R y (x1 , x2 , . . . , xn ), (y1 , y2, . . . , yn ) ∈ Rn , es un espacio vectorial (¡verifı́quelo!)


Espacios Vectoriales 67

2. El conjunto Mm×n (R) junto con las operaciones + y ·, dadas en las definiciones 1.4 y 1.5
respectivamente, del capı́tulo 1, es un espacio vectorial (ver el teorema 1.2 en el capı́tulo 1)

3. Consideremos una matriz A ∈ Mm×n (R). Los conjuntos

S = {x ∈ Mn×1 (R) : Ax = 0/m×1 }

R = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}

junto con las operaciones + y · definidas en el capı́tulo 1, son espacios vectoriales (¡pruébe-
lo!)

S es llamado espacio solución del sistema homogéneo Ax = 0/m×1 o espacio nulo de


A, y R es llamado el espacio imagen de A. Estos espacios serán tratados formalmente
y en detalle en la sección 2.6 del presente capı́tulo. 

4. Sea n ∈ N. Definamos

Pn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ R}

Es decir, Pn [x] está formado por todos los polinomios con coeficientes reales en la variable
x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las
operaciones usuales de adición de polinomios y multiplicación de un número real por un
polinomio. Entonces Pn [x] es un espacio vectorial (¡pruébelo!)

En general, si definimos el conjunto

P[x] = {p(x) : p(x) es un polinomio en la variable x}

entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas
(¡pruébelo!)

Es de hacer notar que el polinomio nulo O(x) = 0 ¡no tiene grado! (¿por qué?), además,
para cada n ∈ N se tiene que Pn [x] 6= ∅ (¿por qué?) y Pn [x] ⊂ Pn+1 [x] ⊂ P[x] (¿por qué?)

5. Sean a, b ∈ R con a < b. Definamos el conjunto F [ a , b ] de todas las funciones reales


definidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adición de
funciones y multiplicación de una función por un número real, entonces F [ a , b ] es un
espacio vectorial (¿pruébelo!) 
Espacios Vectoriales 68

6. El conjunto
V = {(x, y) ∈ R2 : y = x + 1}

junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio vectorial
ya que (2, 3), (0, 1) ∈ V (¿por qué?) pero

(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) ∈


/V

pues 4 6= 3 = 2 + 1, es decir, la adición no es cerrada en V o V no es cerrado bajo la


adición.

Sin embargo, si definimos sobre V las operaciones

(x, y) + (z, w) = (x + z, y + w − 1)

α · (x, y) = (αx, α(y − 1) + 1)

entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) ∈ V y α, β ∈ R
cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.

De donde
y + w − 1 = x + 1 + z + 1 − 1 = (x + z) + 1

y por lo tanto
(x, y) + (z, w) = (x + z, y + w − 1) ∈ V

cumpliéndose A0.

(x, y) + (z, w) = (x + z, y + w − 1) = (z + x, w + y − 1) = (z, w) + (x, y)

por lo que A1. es satisfecha.

((x, y) + (z, w)) + (a, b) = (x + z, y + w − 1) + (a, b)


= ((x + z) + a, (y + w − 1) + b − 1)
= (x + (z + a), y + (w + b − 1) − 1)
= (x, y) + (z + a, w + b − 1)
= (x, y) + ((z, w) + (a, b))

ası́ que A2. se cumple.


Espacios Vectoriales 69

Definamos 0/V = (0, 1). Entonces 0/V ∈ V (¿por qué?) y además

(x, y) + (0, 1) = (x + 0, y + 1 − 1) = (x, y)

luego se satisface A3.

Si (x, y) ∈ V, entonces (−x, −y + 2) ∈ V ya que

−y + 2 = −(x + 1) + 2 (¿por qué?)


= −x − 1 + 2 = −x + 1

Además

(x, y) + (−x, −y + 2) = (x + (−x), y + (−y + 2) − 1) = (0, 1) = 0/V

en consecuencia se cumple A4.

Verifique que se cumple el resto de la propiedades en la definición 2.1. ¿Qué podrı́a concluir
a partir de este ejemplo? 

7. Dado un espacio vectorial V. Es fácil probar que el conjunto {0/V }, junto con las operaciones
+ y · definidas sobre V, es un espacio vectorial. 

Teorema 2.1. Los elementos 0/V y v ′ dados en A3. y A4. respectivamente, son los únicos
elementos de V que satisfacen dichas propiedades.

Demostración. Supongamos que existe x ∈ V tal que v + x = v para cada v ∈ V. Luego, para
v = 0/V ∈ V, se tiene que
0/V +x = 0/V (2.1)

Por lo tanto

x = x + 0/V (por A3.)


= 0/V +x (por A1.)
= 0/V (por (2.1))

Lo que prueba la unicidad de 0/V .


Supongamos ahora que para v ∈ V existen v ′ , b
v ∈ V tales que

v + v ′ = 0/V (2.2)
v+b
v = 0/V (2.3)
Espacios Vectoriales 70

Luego

v = b
b v + 0/V (por A3.)
v + (v + v ′ ) (por 2.2)
= b
v + v) + v ′
= (b (por A2.)
v) + v ′
= (v + b (por A1.)
= 0/V +v ′ (por 2.3)
= v ′ + 0/V (por A1.)
= v′ (por A3.)

con lo cual se obtiene la unicidad del opuesto aditivo.

Definición 2.2. Sean V un espacio vectorial y u, v ∈ V cualesquiera. Definiremos el vector


u − v, vector diferencia de u con v, como u − v = u + (−v)

Observación 2.5. Al vector 0/V se le denomina vector nulo y el vector v ′ es llamado opuesto
(aditivo) de v y es denotado por −v.
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como
sigue.

A’3. Existe un único 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia y unicidad
del elemento neutro para la adición vectorial)

A’4. Para cada v ∈ V existe un único −v ∈ V tal que v + (−v) = v − v = 0/V (existencia
y unicidad del elemento opuesto para la adición vectorial)

Ejercicio 2.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v ∈ V y α1 , α2 , . . . , αn α ∈ R cua-


lesquiera. Pruebe que

1. (α1 + α2 + · · · + αn )v = α1 v + α2 v + · · · + αn v

2. α(v1 + v2 + · · · + vn ) = αv1 + αv2 + · · · + αvn

Teorema 2.2. Sea V un espacio vectorial. Entonces

1. α 0/V = 0/V para cada α ∈ R.


Espacios Vectoriales 71

2. 0v = 0/V para cada v ∈ V.

3. Si αv = 0/V , entonces α = 0 ó v = 0/V .

4. (−α)v = α(−v) = −(αv) para cualesquiera α ∈ R y v ∈ V. En consecuencia (−1)v = −v.

Demostración.

1. Sea α ∈ R cualquiera. Entonces

α 0/V = α(0/V + 0/V ) (por A3.)


= α 0/V +α 0/V (por M2.)
α 0/V +(−(α 0/V )) = (α 0/V +α 0/V ) + (−(α 0/V )) (sumando a ambos lados − (α 0/V ))
0/V = α 0/V +(α 0/V +(−(α 0/V ))) (por A4. y A2.)

0/V = α 0/V + 0/V (por A4.)


0/V = α 0/V (por A3.)

2. ¡Ejercicio!

3. Supongamos que αv = 0/V .

Si α = 0, no hay nada que probar, supongamos entonces que α 6= 0 y probemos que v = 0/V .

Por ser α 6= 0, existe α−1 ∈ R tal que α−1 α = 1 = αα−1 . Por lo tanto

v = 1v (por M4.)
= (α−1 α)v
= α−1 (αv) (por M3.)
= α−1 0/V (por hipótesis)
= 0/V (por la parte 1)

Con lo que culmina la prueba de la parte 3.

4. Sean α ∈ R y v ∈ V cualesquiera. Entonces

αv + (−α)v = (α + (−α))v (por M1.)


= 0v
= 0/V (por la parte 2)
Espacios Vectoriales 72

Luego, por A’4. (unicidad del opuesto aditivo), se tiene que (−α)v = −(αv). De manera
análoga se prueba que α(−v) = −(αv).

Observación 2.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir
−αv en lugar de −(αv) sin error a confusión.

2.2. Subespacios Vectoriales


Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, consideran-
do sobre ellos las operaciones + y · de V. En esta sección nos ocuparemos de dichos espacios
vectoriales los cuales son llamados subespacios vectoriales de V.

Definición 2.3. Sea W un subconjunto no vacı́o de un espacio vectorial V. Diremos que W es


un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y
· de V es un espacio vectorial.

Ejemplo 2.2.

1. Dado un espacio vectorial V, entonces W = {0/V } es un subespacio de V, el cual es llamado


espacio vectorial nulo, ası́ como también V (ver ejemplo 2.1 parte 7). Estos subespacios
son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de
estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado
subespacio propio. 

2. Dada una matriz real A ∈ Mm×n (R). Los espacios S y R, dados en la parte 3 del ejemplo
2.1, son subespacios de Mn×1 (R) y Mm×1 (R) respectivamente. 

3. De la parte 4 del ejemplo 2.1 podemos garantizar que para cada n ∈ N se tiene que Pn [x]
es un subespacio de Pn+1 [x] y de P[x]. 

4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].

En efecto, es claro que C [ a , b ] ⊂ F [ a , b ] (¿por qué?) y además, la función nula está en


C [ a , b ] (¿por qué?), por lo tanto C [ a , b ] es un subconjunto no vacı́o de F [ a , b ].
Espacios Vectoriales 73

Si f, g ∈ C [ a , b ] y α ∈ R, entonces, por un resultado de Cálculo, f + g, αf ∈ C [ a , b ],


cumpliéndose A0. y M0.

Finalmente, no es difı́cil probar que el resto de las propiedades en la definición 2.1 son
satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ]. 

Antes de dar algún otro ejemplo de subespacio vectorial, debemos hacer notar que en realidad,
para probar que un subconjunto no vacı́o de un espacio vectorial es un subespacio de este último,
sólo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente
teorema.

Teorema 2.3. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial


de V si y sólo si

1. W 6= ∅.

2. u + v ∈ W para cualesquiera u, v ∈ W, es decir, W es cerrado bajo la adición vectorial


(definida sobre V).

3. αv ∈ W para cualesquiera α ∈ R y v ∈ V, es decir, W es cerrado bajo la multiplicación por


escalar (definida sobre V).

Demostración. Sean V un espacio vectorial y W ⊂ V.


Supongamos que W es un subespacio de V. Entonces por definición 2.3 tenemos que W 6= ∅
y además W es un espacio vectorial con las operaciones + y · definidas sobre V, por lo tanto
u + v, αv ∈ V para cualesquiera α ∈ R y u, v ∈ W.
Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.
Debemos probar que W junto con las operaciones + y · definidas sobre V es un espacio vectorial.
Según las hipótesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W ⊂ V
y las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w ∈ V,
entonces dichas condiciones se cumplen para cualesquiera u, v, w ∈ W. Ası́ que sólo resta probar
que 0/W ∈ W y que −v ∈ W para cada v ∈ W.
Como W 6= ∅, existe v0 ∈ W. Entonces, en virtud de la condición 3, 0v0 ∈ W, pero por la parte
2 del teorema 2.2 se tiene que 0v0 = 0/V , ası́ que 0/V ∈ W y en consecuencia existe 0/V ∈ W tal que
para cada v ∈ W se tiene que v + 0/V = v, es decir, la condición A3. se satisface si sustituimos V
por W. Esto último significa que 0/W = 0/V , es decir, el vector nulo en todos los subespacios de V
es el mismo.
Espacios Vectoriales 74

Finalmente, sea v ∈ W cualquiera. Entonces, por la condición 3, tenemos que (−1)v ∈ W y


dado que (−1)v = −v (por la parte 4 del teorema 2.2), entonces −v ∈ W, en consecuencia para
cada v ∈ W existe −v ∈ W tal que v + (−v) = 0/V , es decir, la condición A4. se satisface si
sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto
aditivo de cualquier vector en un subespacio es también un vector del subespacio.

Observación 2.7. Según la demostración del teorema 2.3, si W es un subespacio vectorial de


un espacio vectorial V, entonces 0/V ∈ W.
Ası́ que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este
último, lo primero que debemos probar es que 0/V ∈ W, esto a su vez garantiza que W 6= ∅. Si
0/V ∈
/ W, entonces W no es un subespacio de V.

El teorema 2.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio


de este sólo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la
misma pruebo con sólo verificar dos condiciones.

Corolario 2.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y


sólo si

1. W 6= ∅.

2. u + αv ∈ W para cualesquiera α ∈ R y u, v ∈ W.

Demostración. Supongamos primero que W es un subespacio vectorial de V y probemos que


las condiciones 1 y 2 se cumplen. En primer lugar W 6= ∅ por definición 2.3. Sean α ∈ R y
u, v ∈ W cualesquiera. Entonces, por la parte 3 del teorema 2.3 tenemos que αv ∈ W, luego, por
la parte 2 del mismo teorema, se tiene que u + αv ∈ W.
Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio
vectorial de V. Como W 6= ∅, sólo debemos probar que se satisfacen las condiciones 2 y 3 del
teorema 2.3.
Sean u, v ∈ W cualesquiera. Entonces u + v = u + 1v ∈ W (tomando α = 1 en la condición 2
de la hipótesis).
Por otro lado, sean α ∈ R y v ∈ W cualesquiera. Entonces 0/V = v + (−v) = v + (−1)v ∈ W
(tomando α = −1 y u = v en la condición 2 de la hipótesis) ası́ que αv = 0/V +αv ∈ W (tomando
u = 0/V en la condición 2 de la hipótesis). Lo cual concluye la prueba.
Espacios Vectoriales 75

Observación 2.8. Según la observación 2.7 la condición 1 en el teorema 2.3 y la condición 1


en el corolario 2.4 pueden ser sustituidas por la siguiente condición.

1. 0/V ∈ W.

Observación 2.9. Recordemos que para probar que los conjuntos S y R, definidos en la parte 3
del ejemplo 2.1, son subespacios de Mn×1 (R) y Mm×1 (R), respectivamente (ver parte 2 del ejemplo
2.2), fue necesario probar que eran espacios vectoriales (se dejá com ejercicio), sin embargo, al
usar el teorema 2.3 o el corolario 2.4, vemos que no es necesario. En la sección 2.6 del presente
capı́tulo se dará una demostración de este hecho usando el corolario 2.4.

Ejercicio 2.2. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y


V es un subespacio de U, entonces W es un subespacio de U.

Ejemplo 2.3. Pruebe que W = {a+bx+cx2 +dx3 ∈ P3 [x] : 2a−b+3c−d = 0; a+b−4c−2d = 0}


es un subespacio de P3 [x].

Solución. Es claro que W ⊂ P3 [x].


Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x]) pertenece
a W ya que (
2 · 0 −0 +3 · 0 −0 = 0
0 +0 −4 · 0 −2 · 0 = 0
Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q(x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera en
W y α ∈ R cualquiera. Entonces
( (
2a1 −b1 +3c1 −d1 = 0 2a2 −b2 +3c2 −d2 = 0
y
a1 +b1 −4c1 −2d1 = 0 a2 +b2 −4c2 −2d2 = 0
Según el corolario 2.4 y la observación 2.8, sólo falta probar que p(x) + αq(x) ∈ W. Pero

p(x) + αq(x) = (a1 + b1 x + c1 x2 + d1 x3 ) + α(a2 + b2 x + c2 x2 + d2 x3 )


= (a1 + αa2 ) + (b1 + αb2 )x + (c1 + αc2 )x2 + (d1 + αd2 )x3

Además

2(a1 + αa2 ) − (b1 + αb2 ) + 3(c1 + αc2 ) − (d1 + αd2 )


= 2a1 + 2αa2 − b1 − αb2 + 3c1 + 3αc2 − d1 − αd2
= (2a1 − b1 + 3c1 − d1 ) + α(2a2 − b2 + 3c2 − d2 ) = 0 (¿por qué?)
Espacios Vectoriales 76

(a1 + αa2 ) + (b1 + αb2 ) − 4(c1 + αc2 ) − 2(d1 + αd2 )


= a1 + αa2 + b1 + αb2 − 4c1 − 4αc2 − 2d1 − 2αd2
= (a1 + b1 − 4c1 − 2d1) + α(a2 + b2 − 4c2 − 2d2 ) = 0 (¿por qué?)

Por lo tanto p(x) + αq(x) ∈ W y en consecuencia, W es un subespacio de P3 [x].

Teorema 2.5. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 ∩ W2 es un


subespacio de V.

Demostración. Dado que W1 , W2 ⊂ V (ya que W1 y W2 son subespacios de V), entonces


W1 ∩ W2 ⊂ V, además, debido a la observación 2.7, se tiene que 0/V ∈ W1 y 0/V ∈ W2 y por lo
tanto 0/V ∈ W1 ∩ W2 .
Sean α ∈ R, u, v ∈ W1 ∩W2 cualesquiera. Entonces u, v ∈ W1 y u, v ∈ W2 y dado que W1 y W2
son subespacios de V, tenemos que u + αv ∈ W1 y u + αv ∈ W2 y por lo tanto u + αv ∈ W1 ∩ W2
Luego, en virtud del corolario 2.4 y la observación 2.8, tenemos que W1 ∩ W2 es un subespacio
de V.

Ejercicio 2.3. Dados dos subconjuntos A y B de un espacio vectorial V, definamos el conjunto

A + B = {a + b : a ∈ A y b ∈ B}

Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.

Ejercicio 2.4. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 ∩W2 = {0/V }
y V = W1 + W2 . Pruebe que para cada v ∈ V existen únicos vectores w1 ∈ W1 y w2 ∈ W2 tales
que v = w1 + w2 .

Ejercicio 2.5. Sean W1 , W2, . . . , Wn subespacios de un espacio vectorial V. Demuestre que


W1 ∩ W2 ∩ · · · Wn es un subespacio de V.
Sugerencia: Proceda por inducción matemática sobre n y use el teorema 2.5.
Espacios Vectoriales 77

2.3. Combinación Lineal y Espacio Generado


Consideremos una matriz real cuadrada de orden 2
" #
a b
c d

Entonces " # " # " # " # " #


a b 1 0 0 1 0 0 0 0
=a +b +c +d
c d 0 0 0 0 1 0 0 1
Esta expresión es llamada combinación lineal , definamos formalmente este concepto.

Definición 2.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v ∈ V. Diremos que v es combi-


nación lineal de v1 , v2 , . . . , vn si existen escalares α1 , α2 , . . . , αn ∈ R tales que

v = α1 v1 + α2 v2 + · · · + αn vn

Observación 2.10. En la definición 2.4, podemos escoger una cantidad infinita de vectores en
V, en lugar de v1 , v2 , . . . , vn ∈ V, para definir combinación lineal (ver apéndice ??)

Ejemplo 2.4.

1. El ejemplo hecho al comienzo de la sección nos dice que cualquier matriz real cuadrada de
orden 2 es combinación lineal de las matrices
" # " # " # " #
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

En general, si para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} definimos la matriz Eij ∈


Mm×n (R) como aquella matriz cuya ij-ésima componente es igual a 1 y el resto es 0,
entonces toda matriz A ∈ Mm×n (R) es combinación lineal de las matrices

E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn

(¡verifı́quelo!) 

2. Cualquier vector p(x) ∈ Pn [x] es combinación lineal de los polinomios 1, x, . . . , xn (¿por


qué?) 
Espacios Vectoriales 78

3. Cualquier vector (x1 , x2 , . . . , xn ) ∈ Rn es combinación lineal de los vectores de Rn

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)

(¿verifı́quelo!) 

Ejemplo 2.5. Determine si el vector v = (9, 5, 6) es combinación lineal o no de los vectores


v1 = (3, −2, 6) y v2 = (−1, −3, 2)

Solución. Supongamos que el vector v es combinación lineal de los vectores v1 y v2 . Entonces


existen α1 , α2 ∈ R tales que v = α1 v1 + α2 v2 , es decir,

(9, 5, 6) = α1 (3, −2, 6) + α2 (−1, −3, 2) = (3α1 − α2 , −2α1 − 3α2 , 6α1 + 2α2 )

de donde 

 3α1 −α2 = 9

−2α1 −3α2 = 5


 6α1 +2α2 = 6
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es
 
3 −1 9
 
 −2 −3 5 
 
6 2 6

Hallemos la FERF de esta matriz


     
3 −1 9 1 −4 14 1 −4 14
    F2 → F2 + 2F1  
 −2 −3 5  F1 → F1 + F2  −2 −3 5  →  0 −11 33 
  →   
F3 → F3 − 6F1
6 2 6 6 2 6 0 26 −78
   
1 −4 14 1 0 2
  F1 → F1 + 4F2  
F2 → − 11 F2 
1
0 1 −3  →  0 1 −3 
→ 
F3 → F3 − 26F2
 
0 26 −78 0 0 0

Obteniedo α1 = 2 y α2 = −3, por lo tanto v = 2v1 − 3v2 , es decir, v es combinación lineal de


v1 y v2 .

Ejemplo 2.6. Consideremos los polinomios p(x) = −5 − 4x + 9x2 , p1 (x) = 2 − x + 2x2 , p2 (x) =
2 − 2x + 6x2 y p3 (x) = x − 4x2 ¿Es p combinación lineal de p1 , p2 y p3 ?
Espacios Vectoriales 79

Solución. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta
es sı́, entonces existen α1 , α2 , α3 ∈ R tales que p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x), esto es,

−5 − 4x + 9x2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )

obteniendo el sistema de ecuaciones



 = −5
 2α1 +2α2

−α1 −2α2 +α3 = −4


 2α +6α −4α = 9
1 2 3

La matriz ampliada de este sistema es equivalente por filas a la matriz


 
1 0 1 −9
 
 0 1 −1 1  (¡verifı́quelo!)
 2 
0 0 0 −12

por lo tanto, el sistema original no tiene solución (¿por qué?), en consecuencia, p no es combi-
nación lineal de p1 , p2 y p3 .
Si consideramos el polinomio p4 (x) = 1 − 2x + 3x2 ¿Es p combinación lineal de p1 , p2 , p3 y p4 ?

Observación 2.11. En términos generales, el problema de decidir si un vector v en un espacio


vectorial V es combinación lineal de algunos vectores v1 , v2 , . . . , vn ∈ V, está relacionado con la
resolución de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 2.5 y 2.6.

Ejercicio 2.6. Pruebe que si A, B ∈ Mm×n (R) son equivalentes por filas, entonces cada fila de
B es combinación lineal de las filas de A y viceversa.

Definición 2.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. El conjunto

gen({v1 , v2 , . . . , vn }) =
{w ∈ V : w = α1 v1 + α2 v2 + · · · + αn vn para algunos escalares α1 , α2 , . . . , αn ∈ R}

es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, gen({v1 , v2 , . . . , vn }) es


el conjunto formado por todas las combinaciones lineales de v1 , v2 , . . . , vn .

Ejemplo 2.7.
Espacios Vectoriales 80

1. Según la parte 1 del ejemplo 2.4 se tiene que

Mm×n (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn })

y según las partes 2 y 3 del mismo ejemplo, tenemos que

Pn [x] = gen({1, x, . . . , xn }) y Rn = gen({e1 , e2 , . . . , en })

2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, −2, 6), (−1, −3, 2)}) (ver ejemplo 2.5)

3. Del ejemplo 2.6 podemos garantizar que

−5 − 4x + 9x2 ∈
/ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 })

Ejemplo 2.8. Hallar gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 })

Solución. Nótese primero que a + bx + cx2 ∈ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) si y sólo
si existen escalares α1 , α2 , α3 ∈ R tales que

a + bx + cx2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )


= (2α1 + 2α2 ) + (−α1 − 2α2 + α3 )x + (2α1 + 6α2 − 4α3 )x2

Lo que equivale a decir que el sistema de ecuaciones




 2α1
 +2α2 = a
−α1 −2α2 +α3 = b


 2α +6α2 −4α3 = c
1

tiene al menos una solución.


Resolvamos este sistema. La matriz ampliada del sistema es
 
2 2 0 a
 
 −1 −2 1 b 
 
2 6 −4 c
Espacios Vectoriales 81

Hallemos la FERF de esta matriz


   
2 2 0 a 1 0 1 a+b
   
 −1 −2 1 b  F1 → F1 + F2  −1 −2 1 b 
  → 
2 6 −4 c 2 6 −4 c
   
1 0 1 a+b 1 0 1 a+b
F2 → F2 + F1    
→  0 −2 2 a + 2b  F2 → − F2  0 1 −1
1
− 21 a − b 
  2
→ 
F3 → F3 − 2F1
0 6 −6 −2a − 2b + c 0 6 −6 −2a − 2b + c
 
1 0 1 a+b
 
F3 → F3 − 6F2  0 1 −1 − 1
a − b 
→ 2 
0 0 0 a + 4b + c

Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solución
si y sólo si a + 4b + c = 0.
En consecuencia

gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) = {a + bx + cx2 ∈ P3 [x] : a + 4b + c = 0}

Es de hacer notar que el conjunto W, hallado en el ejemplo 2.8, es un subespacio de P3 [x]


(¡pruébelo!). Este resultado no es casual, como veremos en el siguiente teorema.

Teorema 2.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Entonces gen({v1 , v2 , . . . , vn })


es un subespacio de V.

Demostración. Definamos S = {v1 , v2 , . . . , vn }. Ası́ que gen({v1 , v2 , . . . , vn }) = gen(S).


Notemos primero que, por definición, gen(S) es un subconjunto de V.
Además, 0/V = 0 · v1 + 0 · v2 + · · · + 0 · vn ∈ gen(S).
Finalmente, sean α ∈ R y u, v ∈ gen(S) cualesquiera. Entonces, por definición de gen(S),
existen β1 , β2 , . . . , βn , α1 , α2 , . . . , αn ∈ R tales que

u = α1 v1 + α2 v2 + · · · + αn vn y v = β1 v1 + β2 v2 + · · · + βn vn

Por lo tanto

u + αv = (α1 v1 + α2 v2 + · · · + αn vn ) + α(β1 v1 + β2 v2 + · · · + βn vn )
= (α1 + αβ1 )v1 + (α2 + αβ2 )v2 + · · · + (αn + αβn )vn
Espacios Vectoriales 82

Ası́ que u + αv ∈ gen(S), en consecuencia gen(S) es un subespacio de V.

Definición 2.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Diremos que v1 , v2 , . . . , vn


generan a V o que el conjunto S = {v1 , v2 , . . . , vn } genera a V o que S es un conjunto
generador de V si V = gen(S) = gen({v1 , v2 , . . . , vn }).

Ejemplo 2.9. Por la parte 1 del ejemplo 2.7 podemos decir que:

1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan
a Mm×n (R). 

2. El conjunto{1, x, . . . , xn } genera a Pn [x]. 

3. {e1 , e2 , . . . , en } es un conjunto generador de Rn . 

Ejemplo 2.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3

Solución. Sabemos que

W = {a + bx + cx2 + dx3 ∈ P3 [x] : 2a − b + 3c − d = 0; a + b − 4c − 2d = 0}

Ası́ que a + bx + cx2 + dx3 si y sólo si


(
2a −b +3c −d = 0
a +b −4c −2d = 0

resolvamos este sistema homogéneo. La matriz del sistema es


" #
2 −1 3 −1
1 1 −4 −2

La FERF de esta matriz es


" #
1 0 − 13 −1
(¡verifı́quelo!)
0 1 − 11
3
−1

Por lo tanto, a + bx + cx2 + dx3 si y sólo si


(
a − 13 c −d = 0
b − 11
3
c −d = 0
Espacios Vectoriales 83

o equivalentemente (
1
a = 3
c +d
11
b = 3
c +d
Haciendo c = 3α y d = β, con α, β ∈ R, obtenemos

a + bx + cx2 + dx3 = (α + β) + (11α + β)x + 3αx2 + βx3 = α(1 + 11x + 3x2 ) + β(1 + x + x3 )

Luego
W = gen({1 + 11x + 3x2 , 1 + x + x3 })
En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W.

Teorema 2.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn , u ∈ V. Si u ∈ gen({v1 , v2 , . . . , vn }),


entonces
gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn })
Demostración. Escojamos un vector v ∈ gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces existen
α1 , α2 , . . . , αn , α ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn + αu.
Pero por hipótesis u ∈ gen({v1 , v2 , . . . , vn }), entonces existen β1 , β2 , . . . , βn ∈ R tales que
u = β1 v1 + β2 v2 + · · · + βn vn .
Luego

v = α1 v1 + α2 v2 + · · · + αn vn + α(β1 v1 + β2 v2 + · · · + βn vn ) = (α1 + αβ1 )v1 + · · · + (αn + αβn )vn

en consecuencia
v ∈ gen({v1 , v2 , . . . , vn })
por lo tanto
gen({v1 , v2 , . . . , vn , u}) ⊂ gen({v1 , v2 , . . . , vn }) (2.4)
Por otro lado, sea v ∈ gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen α1 , α2 , . . . , αn ∈ R
tales que v = α1 v1 + α2 v2 + · · · + αn vn ası́ que

v = α1 v1 + α2 v2 + · · · + αn vn = α1 v1 + α2 v2 + · · · + αn vn + 0/V = α1 v1 + α2 v2 + · · · + αn vn + 0u

es decir, v ∈ gen({v1 , v2 , . . . , vn , u}) de donde

gen({v1 , v2 , . . . , vn }) ⊂ gen({v1 , v2 , . . . , vn , u}) (2.5)

De (2.4) y (2.5) obtenemos que

gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn })


Espacios Vectoriales 84

2.4. Independencia y Dependencia Lineal


Uno de los conceptos más importantes en espacios vectoriales, y en el álgebra lineal en general,
es el de independencia lineal , por lo que pedimos se estudie con mucha detenimiento y cuidado
la presente sección del capı́tulo. Daremos una variedad de ejemplos para tratar de explicar lo
mejor posible dicho concepto.
Dados un espacio vectorial V y vectores v1 , v2 , . . . , vn ∈ V, entonces 0/V = 0v1 +0v2 +· · ·+0vn , es
decir, siempre podemos escribir el vector nulo 0/V como combinación lineal de cualquier cantidad
de vectores en V.
Ahora bien, en M2×3 (R) escojamos los vectores
" # " # " #
1 0 −2 2 −3 −4 −4 9 8
A1 = , A2 = y A3 =
−2 5 −3 −1 1 0 −1 7 −6

entonces
" # " # " # " #
0 0 0 1 0 −2 2 −3 −4 −4 9 8
= 2 · A1 − 3 · A2 − A3 = 2 · −3· −
0 0 0 −2 5 −3 −1 1 0 −1 7 −6

En conclusión, la única manera de escribir al vector nulo, como combinación lineal de una
cantidad de vectores, no necesariamente es única.
Estos dos ejemplos dan pie a la siguiente definición.

Definición 2.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Diremos v1 , v2 , . . . , vn son


linealmente independientes o que {v1 , v2 , . . . , vn } es un conjunto linealmente indepen-
diente si la única manera de escribir el vector nulo 0/V , como combinación lineal de los vec-
tores v1 , v2 , . . . , vn , es aquella en la cual todos los escalares son iguales a cero (0), esto es, si
α1 v1 + α2 v2 + · · · + αn vn = 0/V , entonces α1 = α2 = · · · = αn = 0.
Diremos que v1 , v2 , . . . , vn son linealmente dependientes o que {v1 , v2 , . . . , vn } es un con-
junto linealmente dependiente si v1 , v2 , . . . , vn no son linealmente independientes, es decir,
existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que α1 v1 + α2 v2 + · · · + αn vn = 0/V .

Ejemplo 2.11.

1. Según el ejemplo dado previamente a la definición 2.7, se tiene que A1 , A2 , A3 son lineal-
mente dependientes. 
Espacios Vectoriales 85

2. No es difı́cil probar que los conjuntos

{1, x, . . . , xn }, {e1 , e2 , . . . , en } y

{E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }

son linealmente independientes (en sus correspondientes espacios). 

3. Dados un espacio vectorial V y v1 , v2 , . . . , vn ∈ V, entonces {v1 , v2 , . . . , vn , 0/V } es linealmen-


te dependiente pues
0/V = 0v1 + 0v2 + · · · + 0vn + 1 0/V

es decir, en un espacio vectorial, cualquier conjunto de vectores que contenga al vector nulo,
es linealmente dependiente. 

4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es linealmente


independiente ya que si αv = 0/V y dado que v 6= 0/V , entonces α = 0 (en virtud de la parte
3 del teorema 2.2). 

Antes de dar algún otro ejemplo, debemos hacer notar que para determinar si un conjunto de
vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
debemos plantearnos la ecuación α1 v1 + α2 v2 + · · · + αn vn = 0/V , la cual conduce, en general, a
un sistema de ecuaciones homogéneo con n incógnitas, a saber, α1 , α2 , . . . , αn . Si la solución de
este sistema es única, y en consecuencia α1 = α2 = · · · = αn = 0, entonces {v1 , v2 , . . . , vn } es un
conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente
dependiente.

Ejemplo 2.12. Consideremos los vectores p1 , p2 , p3 , p4 ∈ P2 [x] dados en el ejemplo 2.6. Decidir
si estos vectores son o no linealmente independientes.

Solución. Como se comentó antes del ejemplo, debemos estudiar la ecuación

α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = 0

Pero

α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )


+α4 (1 − 2x + 3x2 )
= (2α1 + 2α2 + α4 ) + (−α1 − 2α2 + α3 − 2α4 )x
+(2α1 + 6α2 − 4α3 + 3α4 )x2
Espacios Vectoriales 86

Obteniendo el siguiente sistema de ecuaciones homogéneo




 2α1 +2α2
 +α4 = 0
−α1 −2α2 +α3 −2α4 = 0


 2α +6α −4α +3α = 0
1 2 3 4

El cual sabemos tiene infinitas soluciones (¿por qué?) y en consecuencia los polinomios p1 , p2 , p3 , p4
son linealmente dependientes.

Ejemplo 2.13. Consideremos los polinomios p1 , p2 , p4 del ejemplo anterior ¿son linealmente
independientes?

Solución. Como en el ejemplo anterior, debemos plantearnos la ecuación

α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = 0 (2.6)

Obteniendo el sistema 

 2α1 +2α2 +α4 = 0

−α1 −2α2 −2α4 = 0


 2α +6α +3α = 0
1 2 4

La matriz de este sistema es  


2 2 1
 
 −1 −2 −2 
 
2 6 3
Hallemos su FERF.
     
2 2 1 1 0 −1 1 0 −1
    F2 → F2 + F1  
 −1 −2 −2  F1 → F1 + F2  −1 −2 −2  →  0 −2 −3 
  →   
F3 → F3 − 2F1
2 6 3 2 6 3 0 6 5
     
1 0 −1 1 0 −1 1 0 −1
     
F2 → − 2 F2 
1
0 1 3  F → F − 6F  3 F → − F 1  0 3 
→ 2  3 3 2
→ 0 1 2  3 4 3
→
1 2 
0 6 5 0 0 −4 0 0 1
 
1 0 0
F1 → F1 + F3  
→  0 1 0 
 
F2 → F2 − 32 F3
0 0 1
Espacios Vectoriales 87

De donde
α1 = α2 = α4 = 0

En consecuencia la ecuación 2.6 tiene como única solución la trivial y por lo tanto p1 , p2 , p4 son
linealmente independientes.

" # " # " #


5 4 3 −1 1 −1
Ejemplo 2.14. Sean A1 = , A2 = y A3 = . ¿Es
2 −1 1 3 −4 5
{A1 , A2 , A3 } un conjunto linealmente independiente?

Solución. Sean α1 , α2 , α3 ∈ R tales que α1 A1 + α2 A2 + α3 A3 = 0/2 . Entonces


" # " #
5α1 + 3α2 + α3 4α1 − α2 − α3 0 0
=
2α1 + α2 − 4α3 −α1 + 3α2 + 5α3 0 0

De donde 

 5α1 +3α2 +α3 = 0



 4α
1 −α2 −α3 = 0

 2α1 +α2 −4α3 = 0



 −α +3α +5α
1 2 3 = 0
Resolvamos este sistema. La matriz del sistema es
 
5 3 1
 
 4 −1 −1 
 
 
 2 1 −4 
 
−1 3 5

Hallemos su FERF.
     
5 3 1 1 4 2 1 4 2
    F2 → F2 − 4F1  
 4 −1 −1   4 −1 −1  →  0 −17 −9 
     
 F
 1 → F1 − F2   F3 → F3 − 2F1  
 2 
1 −4  →  2 1 −4   0 −7 −8 
  F4 → F4 + F1  
−1 3 5 −1 3 5 0 7 7
     
1 4 2 1 4 2 1 0 −2
    F1 → F1 − 4F2  
 0 7 7   0 1 1  →  0 1 1 
  1    
F2 ↔ F4  F
 2 → F
7 2   F3 → F3 + 7F2  
→ 0 −7 −8  →  0 −7 −8   0 0 −1 
    F → F + 17F  
4 4 2
0 −17 −9 0 −17 −9 0 0 8
Espacios Vectoriales 88

   
1 0 −2 1 0 0
  F1 → F1 + 2F3  
 0 1 1  →  0 1 0 
   
F3 → −F3   F 2 → F 2 − F3  
→ 0 0 1   0 0 1 
  F → F − 8F  
4 4 3
0 0 8 0 0 0

Por lo tanto α1 = α2 = α3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente.

Teorema 2.8. Sean V un espacio vectorial y u, v ∈ V. Los vectores u, v son linealmente depen-
dientes si y sólo si existe α ∈ R tal que u = αv ó v = αu.

Demostración. Supongamos que u, v son linealmente dependientes. Entonces existen λ, β ∈ R,


no ambos nulos, tales que λu + βv = 0/V .
β β
Si λ 6= 0, entonces u = − v. Haciendo α = − , obtenemos que u = αv.
λ λ
Si λ = 0, entonces βv = 0/V y además, por hipótesis, β 6= 0 y en consecuencia v = 0/V = 0u.
Haciendo α = 0, obtenemos v = αu.
Supongamos ahora que existe α ∈ R tal que u = αv ó v = αu. En consecuencia 1u+(−α)v = 0/V
ó αu + (−1)v = 0/V , en cualquier caso, concluimos que u, v son linealmente dependientes.

Teorema 2.9. Sea A ∈ Mm×n (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
dependientes en Mm×1 (R) si y sólo si el sistema Ax = 0/m×1 tiene soluciones no triviales.

Demostración. Sea A ∈ Mm×n (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes
si y sólo si existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que

α1 A(1) + α2 A(2) + · · · + αn A(n) = 0/m×1

Por el ejercicio 1.19  


α1
 
α 
 2
α1 A(1) + α2 A(2) + · · · + αn A(n) = A . 
 .. 
 
αn
Ası́ que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y sólo si el sistema Ax = 0/m×1 tiene
soluciones no triviales.
Espacios Vectoriales 89

Como consecuencia del teorema 2.9 obtenemos los siguientes corolarios.

Corolario 2.10. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.

1. det(A) 6= 0.

2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.

3. Las filas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.

Demostración. ¡Ejercicio!

Corolario 2.11. Sea A ∈ Mm×n (R). Si F es la FERF de A, entonces las columnas de F con
los pivotes, representan las filas de A que son linealmente independientes.

Demostración. ¡Ejercicio!

Teorema 2.12. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un espacio


vectorial V y u ∈ V tal que u ∈∈
/ gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es linealmente
independiente.

Demostración. Sean α1 , α2 , . . . , αn , α ∈ R tales que

α1 v1 + α2 v2 + · · · + αn vn + αu = 0/V

Si α 6= 0, entonces
 α   α   α 
1 2 n
u= − v1 + − v2 + · · · + − vn
α α α
lo que contradice la hipótesis de que u ∈
/ gen({v1 , v2 , . . . , vn }). Por lo tanto α = 0, de donde

α1 v1 + α2 v2 + · · · + αn vn = 0/V

y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que α1 = α2 = · · · = αn = 0.


En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.
Espacios Vectoriales 90

2.5. Bases y Dimensión


Según el ejemplo 2.9 y la parte 2 del ejemplo 2.11 tenemos que:

1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y además es linealmente independiente.

2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn .

3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador de
Mm×n (R) y es linealmente independiente.

Conjuntos con estas caracterı́sticas nos son de mucha utilidad en el estudio de los espacios
vectoriales y dan pie a la siguiente definición.

Definición 2.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } ⊂ V es una base de


V si

1. gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.

2. {v1 , v2 , . . . , vn } es linealmente independiente.

Observación 2.12. Si V = {0/V } es el espacio nulo, entonces una base de V, de hecho la única
base de V, es el conjunto vacı́o ∅ = {}

Ejemplo 2.15.

1. {1, x, . . . , xn } es una base de Pn [x]. 

2. {e1 , e2 , . . . , en } es una base de Rn . 

3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mm×n (R). 

Cada una de estas bases es llamada base canónica o estándar del correspondiente espacio.

Ejemplo 2.16. Ningún conjunto finito de polinomios en x es una base de P[x], en efecto, consi-
deremos un conjunto finito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces
para cualesquiera α1 , α2 , . . . , αn ∈ R tenemos que α1 p1 (x)+α2 p2 (x)+· · ·+αn pn (x) es un polinomio
a lo sumo de grado k, donde k es el máximo entre los grados de los polinomios p1 , p2 , . . . , pn ,
es decir, cualquier combinación lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo
Espacios Vectoriales 91

de grado k, en consecuencia p(x) = xk+1 ∈ P[x] pero p(x) ∈


/ gen({p1 (x), p2 (x), . . . , pn (x)}), de
donde gen({p1 (x), p2 (x), . . . , pn (x)}) 6= P[x]. Lo cual prueba lo afirmado al principio.
Lo anterior nos dice que P[x] no tiene una base finita. Aunque en este capı́tulo no trataremos
las bases infinitas (ver apéndice ??), afirmamos que una base para P[x] es

{1, x, x2 , . . . , xn , . . .}

Ejemplo 2.17. Hallar una base del subespacio


(" # )
a b
W= : −5a + 6b + 4c − 2d = 0
c d
" #
a b 5
Solución. ∈ W si y sólo si −5a+ 6b+ 4c −2d = 0 o bien, si y sólo si d = − a+ 3b+ 2c.
c d 2
Ası́" que #
a b
∈ W si y sólo si
c d
" # " # " # " # " #
a b a b 1 0 0 1 0 0
= =a +b +c
c d c − 52 a + 3b + 2c 0 − 52 0 3 1 2

Por lo tanto (" # " # " #)!


1 0 0 1 0 0
W = gen , ,
0 − 52 0 3 1 2
No es difı́cil probar que (" # " # " #)
1 0 0 1 0 0
, ,
0 − 25 0 3 1 2
es linealmente independiente, y en consecuencia es una base de W.

Ejemplo 2.18. Considere los polinomios p1 , p2 , p4 ∈ P2 [x] del ejemplo 2.13. Pruebe que β =
{p1 , p2 , p4 } es una base de P2 [x].

Solución. Sabemos que el conjunto β = {p1 , p2 , p4 } es linealmente independiente, en virtud del


ejemplo 2.13, ası́ que sólo falta probar que dicho conjunto genera a P2 [x]. Sea p(x) = a+bx+cx2 ∈
Espacios Vectoriales 92

P2 [x] cualquiera, queremos probar que la ecuación α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = p(x) tiene
solución para α1 , α2 , α4 ∈ R. Pero dicha ecuación es equivalente al sistema de ecuaciones


 2α1 +2α2 +α4 = a

−α1 −2α2 −2α4 = b (¡verifı́quelo!)


 2α +6α +3α = c
1 2 4

La matriz de este sistema es  


2 2 1
 
 −1 −2 −2 
 
2 6 3
y por el ejemplo 2.13, sabemos que es equivalente por filas a I3 , en consecuencia, el sistema en
cuestión, tiene solución (única), lo cual concluye la prueba.

Ejemplo 2.19. Considere los polinomios p1 , p2 , p3 , p4 del ejemplo 2.12. Entonces {p1 , p2 , p3 , p4 }
no es una base de P2 [x], por ser linealmente dependiente, sin embargo es un conjunto generador
de P2 [x]. El conjunto {p1 , p2 } tampoco es una base de P2 [x], por no ser un conjunto generador de
P2 [x], pero es linealmente independiente. 

La unicidad de los escalares en el ejemplo 2.18 es una regla la cual enunciaremos en el siguiente
teorema.

Teorema 2.13. Sea β = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada
v ∈ V existen únicos escalares α1 , α2 , . . . , αn ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn .

Demostración. Sea v ∈ V un vector cualquiera. Dado que β = {v1 , v2 , . . . , vn } es una base


de V, entonces β genera a V, ası́ que la existencia de los escalares en el enunciado del teorema
está garantizada. Supongamos que existen escalares α1 , α2 , . . . , αn , λ1 , λ2 , . . . , λn ∈ R tales que

v = α1 v1 + α2 v2 + · · · + αn vn y v = λ1 v1 + λ2 v2 + · · · + λn vn

Luego

0/V = v − v
= (α1 v1 + α2 v2 + · · · + αn vn ) − (λ1 v1 + λ2 v2 + · · · + λn vn )
= (α1 − λ1 )v1 + (α2 − λ2 )v2 + · · · + (αn − λn )vn
Espacios Vectoriales 93

Como β = {v1 , v2 , . . . , vn } es una base, entonces β es linealmente independiente, por lo tanto

α1 − λ1 = α2 − λ2 = · · · = αn − λn = 0

es decir,
α1 = λ1 , α2 = λ2 , · · · , αn = λn

con lo cual obtenemos la unicidad de los escalares.

Nótese que hemos hallado dos bases de P2 [x], a saber la base canónica βc = {1, x, x2 } y la base
β = {p1 , p2 , p4 } del ejemplo 2.18, y ambas tienen la misma cantidad de vectores, en este caso 3,
esta situación no es para nada casual, como veremos en el siguiente teorema.

Teorema 2.14. Sean β1 = {u1 , u2 , . . . , un } y β2 = {v1 , v2 , . . . , vm } dos bases de un espacio


vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base finita, entonces
todas sus bases tienen la misma cantidad de elementos.

Demostración. Supongamos que m < n. Dado que β2 es una base de V, entonces, para cada
j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que

uj = α1j v1 + α2j v2 + · · · + αmj vm

Sean λ1 , λ2 , . . . , λn ∈ R tales que

λ1 u1 + λ2 u2 + · · · + λn un = 0/V

Luego

0/V = λ1 (α11 v1 + α21 v2 + · · · + αm1 vm ) + λ2 (α12 v1 + α22 v2 + · · · + αm2 vm ) + · · · +


+λn (α1n v1 + α2n v2 + · · · + αmn vm )
= (α11 λ1 + α12 λ2 + · · · + α1n λn )v1 + (α21 λ1 + α22 λ2 + · · · + α2n λn )v2 + · · · +
+(αm1 λ1 + αm2 λ2 + · · · + αmn λn )vm

Pero β2 = {v1 , v2 , . . . , vm } es linealmente independiente, por ser una base de V, ası́ que


 α11 λ1 + α12 λ2 + · · · + α1n λn = 0



 α λ +α λ +···+α λ
21 1 22 2 2n n = 0
 .
.. .
.. .
.. .. ..

 . .


 α λ +α λ +···+α λ = 0
m1 1 m2 2 mn n
Espacios Vectoriales 94

Este es un sistema de ecuaciones lineales con m ecuaciones y n incógnitas que son λ1 , λ2 , . . . , λn .


Como m < n, al usar el teorema 1.15, concluimos que el sistema anterior tiene soluciones no
triviales, es decir, existen λ1 , λ2 , . . . , λn ∈ R, no todos nulos, tales que

λ1 u1 + λ2 u2 + · · · + λn un = 0/V

es decir, β1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que β1


es una base de V, por lo tanto m ≥ n. Análogamente se prueba que m ≤ n y por lo tanto m = n.

El teorema 2.14 da pie a la siguiente definición.

Definición 2.9. Sea V un espacio vectorial. Diremos que V tiene dimensión cero ó dimen-
sión nula si V = {0/V }, diremos que la dimensión de V es n si V tiene una base con n elementos,
en ambos casos diremos que V tiene dimensión finita. Si V no posee una base finita, diremos
que V tiene dimensión infinita. En todos los casos la dimensión de V se denota por dim(V).

Ejemplo 2.20.

1. Del ejemplo 2.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mm×n (R)) = mn y
dim(Rn ) = n.

2. Si W es el subespacio del ejemplo 2.17, entonces dim(W) = 3.

3. El espacio vectorial P[x] es un espacio de dimensión infinita (ver ejemplo 2.16).

Observación 2.13. El problema de encontrar la dimensión de un espacio vectorial está rela-


cionado con la búsqueda de una base de dicho espacio, como vimos en el ejemplo 2.20.

Teorema 2.15. Sean V un espacio vectorial de dimensión n y v1 , v2 , . . . , vm ∈ V.

1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m ≤ n.

2. Si {v1 , v2 , . . . , vm } genera a V, entonces m ≥ n.

Demostración. Sea β = {u1 , u2 , . . . , un } una base de V.

1. Suponga que m > n y haga una prueba análoga a la del teorema 2.14.

2. ¿Ejercicio!

Sugerencia: Use el ejercicio 1.3.


Espacios Vectoriales 95

Como consecuencia del teorema 2.15 se tiene el siguiente teorema.

Teorema 2.16. Sean V un espacio vectorial de dimensión n y S = {v1 , v2 , . . . , vn } ⊂ V.

1. Si S es linealmente independiente, entonces S es una base de V.

2. Si S genera a V, entonces S es una base de V.

Demostración. ¡Ejercicio!
Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el
teorema 2.7 y para la parte 2 use el teorema 2.12.

Teorema 2.17. Sea W un subespacio de un espacio vectorial de dimensión finita V. Entonces


dim(W) ≤ dim(V). Además, si dim(W) = dim(V), entonces W = V.

Demostración. Sean dim(V) = n y βW una base de W. Entonces βW es linealmente indepen-


diente en W, luego βW es linealmente independiente en V (¿por qué?). Por lo tanto, por la parte
1 el teorema 2.15, βW tiene a lo sumo n elementos, esto es, dim(W) ≤ n = dim(V).
Además, si dim(W) = dim(V), entonces βW es un conjunto linealmente independiente con n
elementos. Por lo tanto βW es una base de V (¿por qué?). En consecuencia W = gen(βW ) = V.

Observación 2.14. Todo espacio vectorial que contenga un subespacio de dimensién infinita,
es también de dimensión infinita.

Ejemplo 2.21. Sean a, b ∈ R cualesquiera. Entonces P[x] puede verse como un subespacio de
C [ a , b ] (¿por qué?) y como P[x] tiene dimensión finita (ver parte 3 de ejemplo 2.20), entonces,
por la observación 2.14, C [ a , b ] de dimensión infinita.

Teorema 2.18. Sea V un espacio vectorial de dimensión n y S = {v1 , v2 , . . . , vm } ⊂ V.

1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β.

2. Si S genera a V, entonces existe una base β de V tal que β ⊂ S.

Demostración.
Espacios Vectoriales 96

1. Dado que S es linealmente independiente, entonces m ≤ n, según la parte 1 del teorema


2.15.

Si S genera a V, entonces S es una base de V, ası́ que β = S es una base de V que contiene
a S. De lo contrario, existe un vector vm+1 ∈ V tal que vm+1 ∈
/ gen({v1 , v2 , . . . , vm }). Luego
{v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 2.12.

Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces β = {v1 , v2 , . . . , vm , vm+1 } es una base de V


tal que S ⊂ β. Sino, podemos escoger vm+2 ∈ V tal que vm+2 ∈
/ gen({v1 , v2 , . . . , vm , vm+1 })
y al igual que antes {v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente.

Continuamos con este proceso hasta completar un conjunto linealmente independiente β =


{v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y además S ⊂ β.

2. ¡Ejercicio!

Sugerencia: Si S es linealmente independiente, entonces β = S es la base buscada, de lo


contrario existe k ∈ {1, . . . , m} tal que vk ∈ gen({v1 , v2 , . . . , vk−1, vk+1 , . . . , vm }). Continuar
este proceso hasta obtener la base β buscada.

2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de


una Matriz
En la observación 2.9 se afirmó que en la presente sección se probarı́a formalmente, usando el
corolario 2.4, que los conjuntos S y R, definidos en la parte 3 del ejemplo 2.1, son subespacios
de Mn×1 (R) y Mm×1 (R), respectivamente. Antes que nada definiremos más formalmente dichos
conjuntos.

Definición 2.10. Consideremos una matriz A ∈ Mm×n (R). El conjunto

N(A) = Ker(A) = {x ∈ Mn×1 (R) : Ax = 0/m×1 }

es llamado espacio nulo, núcleo o kernel de A; y el conjunto

Im(A) = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}

se conoce como imagen o recorrido de A.


Espacios Vectoriales 97

Observación 2.15. Notemos que por definición y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R) tal
que Ax = y.

Antes de dar algún ejemplo enunciaremos el teorema que permite garantizar que N(A) e Im(A)
son subespacios.

Teorema 2.19. Sea A ∈ Mm×n (R) cualquiera. Entonces N(A) es un subespacio de Mn×1 (R) e
Im(A) es un subespacio de Mm×1 (R).

Demostración. Sólo probaremos que Im(A) es un subespacio de Mm×1 (R), se deja como ejer-
cicio probar que N(A) es un subespacio de Mn×1 (R).
Notemos primero que por definición Im(A) ⊂ Mm×1 (R). Por otro lado, como A 0/n×1 = 0/m×1 ,
entonces 0/m×1 ∈ Im(A).
Finalmente, sean α ∈ R y y1 , y2 ∈ Im(A) cualesquiera. Entonces existen x1 , x2 ∈ Mn×1 (R)
tales que Ax1 = y1 y Ax2 = y2 . Queremos probar que y1 + αy2 ∈ Im(A).
Escojamos x = x1 + αx2 . Entonces x ∈ Mn×1 (R) (¿por qué?) y además

Ax = A(x1 + αx2 ) = Ax1 + αAx2 = y1 + αy2

En consecuencia y1 + αy2 ∈ Im(A)


Por lo tanto, en virtud del corolario 2.4 y de la observación 2.8, Im(A) es un subespacio de
Mm×1 (R).

Definición 2.11. Dada una matriz A ∈ Mm×n (R). Definiremos la nulidad de A como el
número natural n(A) = dim(N(A)) y el rango de A como el número natural r(A) = dim(Im(A)).

Ejemplo 2.22. Hallar el núcleo, la nulidad, la imagen y el rango de la matriz


 
2 −3 7 −18
 
A=  −2 0 −4 6 

2 −9 13 −42

Solución. Para hallar el núcleo de A, N(A), necesitamos resolver el sistema Ax = 0/m×1 . Para
ello debemos hallar la FERF de A.
   
2 −3 7 −18 0 −3 3 −12
  F1 → F1 + F2  
A= 6  →  −2 
 −2 0 −4   0 −4 6 
F3 → F3 + F2
2 −9 13 −42 0 −9 9 −36
Espacios Vectoriales 98

   
0 −3 3 −12 0 1 −1 4
F2 → − 21 F2    
→  1 0 2 −3  F1 → − 1
F1
 1 0 2 −3 
  3
→ 
F3 → F3 − 3F1
0 0 0 0 0 0 0 0
 
1 0 2 −3
 
F1 ↔ F2  4 
→  0 1 −1 
0 0 0 0
 
x1
 
 x 
 2 
Ası́ que   ∈ N(A) si y sólo si
 x3 
 
x4
(
x1 +2x3 −3x4 = 0
x2 −x3 +4x4 = 0

o bien (
x1 = −2x3 + 3x4
x2 = x3 − 4x4
De donde        
x1 −2x3 + 3x4 −2 3
       
 x   x − 4x     
 2   3 4   1   −4 
 =  = x3   + x4  
 x3   x3   1   0 
       
x4 x4 0 1
Por lo tanto    

 −2 3 

   

 1   −4 
 
     
N(A) = gen   ,  

  1   0  

    

 

 
0 1 
No es difı́cil probar que el conjunto
   

 −2 3 


    

 1   −4 
 
   
 ,
  

  1   0 

    



 
0 1 

es linealmente independiente (¡pruébelo!) y por lo tanto es una base de N(A). Ası́ que n(A) = 2.
Espacios Vectoriales 99

 
  x1
y1  
   x2 
 
Por otro lado, sea y =  
 y2  ∈ M3×1 (R). Entonces y ∈ Im(A) si y sólo si existe x =  ∈
 x3 
y3  
x4
M4×1 (R) tal que Ax = y, es decir, y ∈ Im(A) si y sólo si el sistema Ax = y tiene solución.
Resolvamos entonces este sistema, la matriz ampliada de este sistema es
 
2 −3 7 −18 y1
 
[A|y] = 
 −2 0 −4 6 y 2


2 −9 13 −42 y3

La cual es equivalente por filas a la matriz (¡verifı́quelo!)


 
1 0 2 −3 − 12 y2
 
 0 1 −1 4 − 31 y1 − 13 y2 
 
0 0 0 0 −3y1 − 2y2 + y3

Por lo tanto y ∈ Im(A) si y sólo si

−3y1 − 2y2 + y3 = 0 (¿por qué?)

o equivalentemente
y3 = 3y1 + 2y2

En consecuencia        
y1 y1 1 0
       
y=  
 y2  =  y2  = y1  0  + y1  1 
    
y3 3y1 + 2y2 3 2
y por lo tanto    

 1 0 
   
Im(A) = gen      
 0  ,  1 

 3 
2 
Al igual que antes, no es difı́cil probar que
   
 
 1   0 
 
 0 , 1 
    

 3 
2 

es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.


Espacios Vectoriales 100

Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A están en las
columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,
   
2 −3
   
 −2  ,  0 
   
2 −9

son linealmente independientes (use el corolario 2.11) y además


   
1   1  
  2 −3 7 −18   2
 0    
    0   
A   =  −2 0 −4 6   = 
 −2 
 0   0   
  2 −9 13 −42   2
0 0
y    
0  0  
  2 −3 7 −18   −3
 1    
    1   
A   =  −2 0 −4 6   = 
 0 
 0   0   
  2 −9 13 −42   −9
0 0
es decir    
2 −3
   
 −2  ,  0  ∈ Im(A)
   
2 −9
y por lo tanto    

 2 −3 

    
 −2  ,  0 
    

 
2 −9 
es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 2.16
tenemos que    

 2 −3 

   
 −2  ,  0 
    

 
2 −9 
es una base para Im(A).
Este procedimiento es válido al momento de hallar una base para Im(A) y es una manera más
sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no
es necesario saber para que valores de y el sistema Ax = y tiene solución.
Espacios Vectoriales 101

Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A).

Algoritmo para hallar bases para N(A) e Im(A)

Paso 1. Hallar la FERF de la matriz A.

Paso 2. La matriz hallada en el paso anterior, nos permite escribir la solución del sistema
Ax = 0/m×1 como combinación lineal de ciertos vectores, dichos vectores forman un
base para N(A).

Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan
las columnas de A que forman una base para Im(A).

Consideremos una matriz A ∈ Mm×n (R). Denotaremos por C(A) al espacio generado por las
columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio
generado por las filas de A, el cual es llamado espacio fila de A, esto es

C(A) = gen({A(1) , A(2) , . . . , A(n) })

y
R(A) = gen({A(1) , A(2) , . . . , A(m) })

Teorema 2.20. Si A, B ∈ Mm×n (R) son tales que A y B son equivalentes por filas, entonces

1. C(A) = Im(A).

2. R(A) = R(B).

3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A).

4. r(A) = r(B) y n(A) = n(B).

5. r(A) + n(A) = n.

Demostración.

1. Por definición de Im(A) sabemos que y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R) tal que
Ax = y.
Espacios Vectoriales 102

 
x1
 
 x2 
 
Si hacemos x =  . , entonces
 .. 
 
xn

y = Ax = x1 A(1) + x2 A(2) + · · · + xn A(n) (ver observación 1.19)

es decir, y ∈ Im(A) si y sólo si y ∈ gen({A(1) , A(2) , . . . , A(n) }) = C(A).

En consecuencia C(A) = Im(A).

2. Como A y B son equivalentes por filas, entonces cada fila de B es combinación lineal de
las filas de A y viceversa (ver ejercicio 2.6), es decir, para cada i ∈ {1, . . . , m} se tiene que
B(i) ∈ gen({A(1) , A(2) , . . . , A(m) }) y A(i) ∈ gen({B(1) , B(2) , . . . , B(m) }). En consecuencia

R(A) = R(B)

3. Sea F ∈ Mm×n (R) la FERF de A. Entonces las filas no nulas de F son linealmente indepen-
dientes (¿por qué?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el
número de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 R(A) = R(F ),
ası́ que dim(R(A)) = dim(R(F )) = k.

Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son
linealmente independientes (en virtud del corolario 2.11) y que en consecuencia forman una
base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) =
k = dim(R(A)) y por la parte 1 tenemos que

dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A)

4. ¡Ejercicio!

5. ¡Ejercicio!

Corolario 2.21. A ∈ Mn×n (R) es invertible si y sólo si r(A) = n.

Demostración. ¡Ejercicio!
Espacios Vectoriales 103

Corolario 2.22. Sea AMm×n (R). Entonces las siguientes condiciones son equivalentes

1. El sistema Ax = b tiene al menos una solución.

2. b ∈ C(A).

3. r([A|b]) = r(A).

Demostración. ¡Ejercicio!

Ejemplo 2.23. Hallar el espacio fila, el espacio columna, el espacio nulo, la imagen, la nulidad
y el rango de la matriz  
2 2 −6 1 8
 
 −4 −1 −3 −2 −19 
 
A= 
 1 1 −3 1 6 
 
2 4 −16 3 14

Solución. Sólo hace falta hallar la FERF de A.


   
2 2 −6 1 8 1 1 −3 1 6
   
 −4 −1 −3 −2 −19   −4 −1 −3 −2 −19 
   
A=  F1 ↔ F3→  
 1 1 −3 1 6   2 2 −6 1 8 
   
2 4 −16 3 14 2 4 −16 3 14
   
1 1 −3 1 6 1 1 −3 1 6
F2 → F2 + 4F1    
→  0 3 −15 2 5   0 1 −5 1 3 
   
F3 → F3 − 2F1   F2 ↔ F2 − F4→  
 0 0 0 −1 −4   0 0 0 −1 −4 
F4 → F4 − 2F1    
0 2 −10 1 2 0 2 −10 1 2
   
1 0 2 0 3 1 0 2 0 3
   
F1 → F1 − F2  0 1 −5 1 3  F2 → F2 + F3  0 1 −5 0 −1 
→   →  
 
F4 → F4 − 2F2   0 0 0 −1 −4  F4 → F4 − F3  0 0
  0 −1 −4 

0 0 0 −1 −4 0 0 0 0 0
 
1 0 2 0 3
 
 0 1 −5 0 −1 
 
F3 → −F3  
→ 0 0 0 1 4 
 
0 0 0 0 0
Espacios Vectoriales 104

 
x
 1 
 x 
 2 
 
Ası́ que 
 x3
 ∈ N(A) si y sólo si

 
 x4 
 
x5


 x1
 +2x3 +3x5 = 0
x2 −5x3 −x5 = 0


 x4 +4x5 = 0

o equivalentemente 

 x1 = −2x3 − 3x5

x2 = 5x3 + x5


 x = −4x5
4

Luego        
x −2x3 − 3x5 −2 −3
 1       
 x   5x + x   
5   
 2   3 5    1 
       
 x3  =   = x3  1   
   x3    + x5  0 
       
 x4   −4x5   0   −4 
       
x5 x5 0 1
Por lo tanto el espacio nulo de A es
   

 −2 −3 



    

 

    
 

  5   1  
     
N(A) = gen      
 1  ,  0 
    


  0   −4 


   

 

 
0 1 

Además, el espacio fila de A viene dado por


nh i h i h io
R(A) = gen 1 0 2 0 3 , 0 1 −5 0 −1 , 0 0 0 1 4

Como los pivotes de la FERF de A están en las columnas 1,2 y 4, entonces las columnas 1,2 y
4 de A forman una base para el espacio imagen o espacio columna de A C(A) = Im(A), es decir,
Espacios Vectoriales 105

     

 2 2 1 

      

 −4   −1   −2 
 
       
C(A) = Im(A) = gen   , ,  
  1   1   1  


      



 

2 4 3
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) =
dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.

Ejercicio 2.7. Pruebe que si A ∈ Mm×n (R), entonces existe k ≤ n tal que para cada r ≥ k se
cumple
 
1. N (Ar ) = N Ak y {0/n×1 } ⊂ N(A) ⊂ N(A2 ) ⊂ · · · ⊂ N Ak .
 
2. Im (Ar ) = Im Ak e Im Ak ⊂ · · · ⊂ Im(A2 ) ⊂ Im(A) ⊂ Mm×1 (R).
Capı́tulo 3

Matriz de Cambio de Base. Espacios con Producto Interno

En este capı́tulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales
reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones y teoremas
expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales
reales.

3.1. Cambio de Base


Sea V un espacio vectorial de dimensión n. Dada una base β = {v1 , v2 , . . . , vn } de V, existen
muchas formas de ordenar los vectores en β, a saber n! formas distintas, haremos una diferencia
entre unas y otras definiendo lo que llamaremos base ordenada.

Definición 3.1. Sea V un espacio vectorial de dimensión n. Una base ordenada de V es una
n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V.

Observación 3.1. Para no recargar mucho la notación escribiremos {v1 , v2 , . . . , vn } en lugar


de (v1 , v2 , . . . , vn ) y para no caer en confusión diremos {v1 , v2 , . . . , vn } es una base ordenada de
V.

Ejemplo 3.1.

1. En R2 dos bases ordenadas distintas son: βc = {(1, 0), (0, 1)} y β = {(0, 1), (1, 0)} la primera
se denomina la base canónica ordenada ó simplemente base canónica de R2 . Nótese
que βc y β son iguales como bases de R2 , pero distintas como bases ordenadas. 

2. En Rn las bases ordenadas βc = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)} y β =


{(0, . . . , 0, 1), (0, . . . , 0, 1, 0), . . . , (1, 0, . . . , 0)} son distintas, pero como bases son iguales. βc
es llamada base canónica ordenada ó simplemente base canónica de Rn . 

3. En Pn [x] las siguientes bases βc = {1, x, . . . , xn } y β = {xn , . . . , x, 1} son bases ordenadas


distintas, pero como bases iguales. βc es llamada base canónica ordenada ó simplemente
base canónica de Pn [x]. 

106
Matriz de Cambio de Base. Espacios con Producto Interno 107

4. En el espacio de las matrices Mm×n (R), para cada i ∈ {1, . . . , n} y j ∈ {1, . . . , m}, con-
sideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0
(cero). La base βc = {E11 , . . . , E1n , . . . , Em1 , . . . , Emn } es llamada la base canónica or-
denada ó simplemente base canónica de Mm×n (R). Las siguientes son bases ordenadas
de Mm×n (R), distintas entre si y distintas de βc :

a) β1 = {E11 , . . . , Em1 , . . . , E1n , . . . , Emn }

b) β2 = {Emn , . . . , Em1 , . . . , E1n , . . . , E11 }

c) β3 = {Emn , . . . , E1n , . . . , Em1 , . . . , E11 }

d) β4 = {E1n , . . . , E11 , . . . , Emn , . . . , E1n }

Todas estas bases son iguales como bases (no ordenadas). 

Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v ∈ V existen únicos escalares
α1 , α2 , . . . , αn R tales que
v = α1 v1 + α2 v2 + · · · + αn vn .

Si {v1 , v2 , . . . , vn } es una base ordenada, entonces los escalares α1 , α2 , . . . , αn ∈ R son únicos y


están ordenados de forma única, lo que da pie a la siguiente definición.

Definición 3.2. Sea β = {v1 , v2 , . . . , vn } una base ordenada de V y sea v ∈ V. Definiremos la


matriz de coordenadas de v en la base β como la única matriz
 
α1
 
α 
 2
[v]β =  . 
 .. 
 
αn

tal que v = α1 v1 + α2 v2 + · · · + αn vn .

Ejemplo 3.2. El conjunto β = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (¡pruébelo!). Para


cualquier p(x) ∈ P2 [x], encuentre [p(x)]β .

Solución. Sea p(x) = a0 + a1 x + a2 x2 con a0 , a1 , a2 ∈ R y sea


 
α1
 
[p(x)]β =  
α2 
α3
Matriz de Cambio de Base. Espacios con Producto Interno 108

Entonces

p(x) = α1 (1 + x) + α2 (x + x2 ) + α3 (1 + x2 )
= (α1 + α3 ) + (α1 + α2 )x + (α2 + α3 )x2

De donde se obtiene el sistema




 α1
 +α3 = a0
α1 +α2 = a1


 α2 +α3 = a2
Resolvemos el sistema
   
1 0 1 a0 1 0 1 a0
   
 1 1 0 a1  F2 → F2 − F1  0 1 −1 −a0 + a1 
  → 
0 1 1 a3 0 1 1 a2
   
1 0 1 a0 1 0 1 a0
   
F3 → F3 − F2  −a0 + a1  1 
 F3 → 2 F3→  0 1 −1

→  0 1 −1 −a0 + a1 
1
0 0 2 a0 − a1 + a2 0 0 1 a
2 0
− 12 a1 + 21 a2
 
1 0 1 12 a0 + 21 a1 − 12 a2
F1 → F1 − F3  
→  0 1 −1 − 1 a0 + 1 a1 + 1 a2 
 2 2 2 
F2 → F2 + F3 1 1 1
0 0 1 2 a0 − 2 a1 + 2 a2
Luego
   
1
a0 + 21 a1 − 12 a2 a0 + a1 − a2
 2  1 
[p(x)]β = [a0 + a1 x + a2 x2 ]β = − 1 a0 + 1 a1 + 1 a2  = −a0 + a1 + a2 
 2 2 2  2 
1 1 1
a − 2 a1 + 2 a2
2 0
a0 − a1 + a2

Teorema 3.1. Sea β una base ordenada de un espacio vectorial V de dimensión n. Para cua-
lesquiera u, v ∈ V y α ∈ R se cumple que

1. [u + v]β = [u]β + [v]β

2. [αu]β = α[u]β

Demostración. ¡Ejercicio!
Matriz de Cambio de Base. Espacios con Producto Interno 109

Teorema 3.2. Sean β1 = {v1 , v2 , . . . , vn } y β2 = {u1 , u2, . . . , un } bases ordenadas de un espacio


vectorial V. Entonces existe una única matriz A ∈ Mn×n (R) tal que

[v]β2 = A[v]β1 para cada v ∈ V (3.1)

Demostración. Para cada j ∈ {1, . . . , n} hagamos


 
α1j
 
α 
 2j 
[vj ]β2 =  . 
 .. 
 
αnj
Entonces
vj = α1j u1 + α2j u2 + · · · + αnj un

Sea v ∈ V cualquiera. Hagamos


   
λ1 α1
   
λ  α 
 2  2
[v]β1 = .  y [v]β2 = . 
 ..   .. 
   
λn αn
Entonces
α1 u1 + α2 u2 + · · · + αn un = v

= λ1 v1 + λ2 v2 + · · · + λn vn
= λ1 (α11 u1 + α21 u2 + · · · + αn1 un ) + · · · + λn (α1n u1 + α2n u2 + · · · + αnn un )
= (α11 λ1 + α12 λ2 + · · · + α1n λn )u1 + · · · + (αn1 λ1 + αn2 λ2 + · · · + αnn λn )un

Por lo tanto
    
α1   α11 α12 · · · α1n λ1
    
 α   α11 λ1 + α12 λ2 + · · · + α1n λn   α α2n   
 2  .. ..  21 α22 · · ·   λ2 
 . = =
 .. 
. .   .. .. ..  
 
 ... 
   . . .  
αn1 λ1 + αn2 λ2 + · · · + αnn λn
αn αn1 αn2 · · · αnn λn
De donde  
α11 α12 · · · α1n
 
α α · · · α 
 21 22 2n 
[v]β2 = . .. ..  [v]β1
 .. . . 
 
αn1 αn2 · · · αnn
Matriz de Cambio de Base. Espacios con Producto Interno 110

Haciendo  
α11 α12 · · · α1n
 
α α · · · α  h i
 21 22 2n 
A = [αij ]n×n = . .. ..  = [v ]
1 β2 · · · [v ]
n β2
 .. . . 

αn1 αn2 · · · αnn
obtenemos la existencia de la matriz A que satisface (3.1)
Para probar la unicidad de A, notemos primero que la j-ésima columna de A está dada por
 
α1j
 
α 
 2j 
A(j) =  .  = [vj ]β2
 .. 
 
αnj

Supongamos que B ∈ Mn×n (R) es tal que

[v]β2 = B[v]β1 para cada v ∈ V

Ası́ que, para cada j ∈ {1, . . . , n}, tenemos que

[vj ]β2 = B[vj ]β1

Pero  
0
.
 .. 
 
 
0
 
 
[vj ]β1 = 1 −→ j-ésima fila
 
0
 
.
 .. 
 
0
Luego
A(j) = [vj ]β2 = B[vj ]β1 = B (j)

Por lo tanto B = A.

Definición 3.3. La matriz A en el teorema anterior es llamada matriz de transición o


matriz de cambio de base de β1 a β2 y se denota por Mβ1 ,β2 .
Matriz de Cambio de Base. Espacios con Producto Interno 111

Como su nombre lo indica, la matriz Mβ1 ,β2 permite hallar la matriz de coordenadas de un
vector v ∈ V en la base β2 conociendo la matriz de coordenadas de v en la base β1 . Nótese
además que por su definición, la columna j-ésima de Mβ1 ,β2 , representa la matriz de coordenadas
del j-ésimo vector de β1 respecto a la base β2 .

Teorema 3.3. Si V es un espacio vectorial de dimensión n y β1 y β2 son dos bases ordenadas


de V, entonces la matriz Mβ1 ,β2 es invertible y su inversa es Mβ2 ,β1 .

Demostración. Sea v ∈ V cualquiera. Entonces

[v]β2 = Mβ1 ,β2 [v]β1 y [v]β1 = Mβ2 ,β1 [v]β2

Por lo tanto, si β2 = {v1 , v2 , . . . , vn }, entonces para cada j ∈ {1, . . . , n} se tiene que


 
0
.
 .. 
 
 
 0
 
 
j-ésima fila ←− 1 = [vj ]β2 = Mβ1 ,β2 [vj ]β1 = Mβ1 ,β2 Mβ2 ,β1 [vj ]β2 = F (j)
 
 0
 
.
 .. 
 
0

donde F (j) es la j-ésima columna de Mβ1 ,β2 Mβ2 ,β1 .


En consecuencia Mβ1 ,β2 Mβ2 ,β1 = In y por lo tanto (Mβ1 ,β2 )−1 = Mβ2 ,β1 .

Ejemplo 3.3. Consideremos las siguientes bases ordenadas de R3

β1 = {(1, −2, 0), (3, −1, 1), (0, 1, 3)}

β2 = {(0, 2, 1), (−1, 0, 1), (3, −1, 2)} y

βc la base canónica.

Hallar Mβ1 ,β2 , Mβc ,β2 y Mβ2 ,β1 .

Solución. Para hallar Mβ1 ,β2 debemos hallar las matrices de coordenadas de cada uno de los
vectores de β1 respecto a la base β2 . Sean
     
α11 α12 α13
     
[(1, −2, 0)]β2 =    
α21  , [(3, −1, 1)]β2 = α22  y [(0, 1, 3)]β2 = 
α23 
α31 α32 α33
Matriz de Cambio de Base. Espacios con Producto Interno 112

Entonces

(1, −2, 0) = α11 (0, 2, 1) + α21 (−1, 0, 1) + α31 (3, −1, 2)


= (−α21 + 3α31 , 2α11 − α31 , α11 + α21 + 2α31 )

(3, −1, 1) = α12 (0, 2, 1) + α22 (−1, 0, 1) + α32 (3, −1, 2)


= (−α22 + 3α32 , 2α12 − α32 , α12 + α22 + 2α32 )

(0, 1, 3) = α13 (0, 2, 1) + α23 (−1, 0, 1) + α33 (3, −1, 2)


= (−α23 + 3α33 , 2α13 − α33 , α13 + α23 + 2α33 )

De donde
 

 −α21 +3α31 = 1 
 −α22 +3α32 = 3
 
2α11 −α31 = −2 , 2α12 −α32 = −1

 

 α  α
11 +α21 +2α31 = 0 12 +α22 +2α32 = 1


 −α23 +3α33 = 0

y 2α13 −α33 = 1


 α
13 +α23 +2α33 = 3

Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
manera simultánea considerando la siguiente matriz tres veces ampliada
 
0 −1 3 1 3 0
 
 2 0 −1 −2 −1 1 
 
1 1 2 0 1 3
Nótese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de
cada uno de los vectores de la base β2 respecto a la base canónica, y las tres últimas colum-
nas, son las matrices de coordenadas de cada uno de los vectores de la base β1 respecto a la base
canónica. Este procedimiento es estándar cada vez que busquemos una matriz de cambio de base.
   
0 −1 3 1 3 0 1 1 2 0 1 3
   
 2  
0 −1 −2 −1 1  F1 ↔ F3→  2 0 −1 −2 −1 1 
 
1 1 2 0 1 3 0 −1 3 1 3 0
Matriz de Cambio de Base. Espacios con Producto Interno 113

   
1 1 2 0 1 3 1 1 2 0 1 3
   
F2 → F2 − 2F1  −2 −5 −2 −3 −5  F ↔ F  0 −1 
→ 0  2 3
→ 3 1 3 0 
0 −1 3 1 3 0 0 −2 −5 −2 −3 −5
   
1 1 2 0 1 3 1 0 5 1 4 3
  F1 → F1 − F2  
F2 → −F2  −3 −1 −3 0  →  0 1 −3 −1 −3 
→ 0 1 
F3 → F3 + 2F2
 0 
0 −2 −5 −2 −3 −5 0 0 −11 −4 −9 −5
   
9 1 8
1 0 5 1 4 3 1 0 0 − 11 − 11 11
  F1 → F1 − 5F3  
F3 → − 11 F3 
1
0 1 −3 −1 −3 0   →  0 1 0 1
− 6 15 
→ F2 → F2 + 3F3
 11 11 11 
4 9 5 4 9 5
0 0 1 11 11 11 0 0 1 11 11 11
Ası́ que    
9 1 8
− 11 − 11 11
−9 −1 8
   
Mβ1 ,β2 =  1 6
− 11 15 = 1  1 −6 15 
 11 11  11  
4 9 5
11 11 11
4 9 5
Hallemos ahora Mβc ,β2 . En este caso la matriz aumentada que obtenemos es
 
0 −1 3 1 0 0
 
 2 0 −1 0 1 0 
 
1 1 2 0 0 1
Vemos que para obtener Mβc ,β2 necesitamos aplicar, en el mismo orden, las mismas OEF que
aplicamos anteriormente (¿por qué?), y obtenemos
 
1 5 1
1 0 0 11 11 11
 
 0 1 0 5
− 11 3
− 11 6 
 11 
2 1 2
0 0 1 11
− 11 11

Por lo tanto
   
1 5 1
11 11 11
1 5 1
   
Mβc ,β2 =  5
− 11 3
− 11 6  = 1  −5 −3 6 
 11  11  
2 1 2
11
− 11 11
2 −1 2
Nótese que la matriz obtenida no es mas que la inversa de
 
0 −1 3
 
Mβ2 ,βc = 
 2 0 −1 

1 1 2
Matriz de Cambio de Base. Espacios con Producto Interno 114

Finalmente (¡verifı́quelo!)
   
15 1 3
− 14 2 14
−15 7 3
   
Mβ2 ,β1 = (Mβ1 ,β2 )−1 =  5 1
−2 13 = 1  5 −7 13 
 14 14  14  
3 1 5
14 2 14
3 7 5

Ejemplo 3.4. Sean β1 , β2 y βc como en el ejemplo anterior. Dado (x, y, z) ∈ R3 , hallar


[(x, y, z)]β2 y [(x, y, z)]β1 .
 
x
 
Solución. Sabemos que [(x, y, z)]βc = 
y  por lo tanto
z
    
1 5 1 x x + 5y + z
1   
 −5 −3 6  y  = 1  
−5x − 3y + 6z 
[(x, y, z)]β2 = Mβc ,β2 [(x, y, z)]βc =      
11 11
2 −1 2 z 2x − y + 2z
   
−15 7 3 x + 5y + z
1 
 1  
[(x, y, z)]β1 = Mβ2 ,β1 [(x, y, z)]β2 = 5 −7 13   −5x − 3y + 6z 
14    11  
3 7 5 2x − y + 2z
 
−4x − 9y + 3z
1  6x + 3y − z 

[(x, y, z)]β1 =  
14
−2x − y + 5z

En este último ejemplo se verifica que


   
−15 7 3 1 5 1
1 
 1  
Mβc ,β1 = Mβ2 ,β1 Mβc ,β2 = 5 −7 13    −5 −3 6 
14    11  
3 7 5 2 −1 2
 
−4 −9 3
1 

Mβc ,β1 = 3 −1 
6
14  
−2 −1 5
Este resultado no es casual, como se puede ver en el siguiente teorema
Matriz de Cambio de Base. Espacios con Producto Interno 115

Teorema 3.4. Sean β1 , β2 y β3 bases ordenadas de un espacio vectorial V de dimensión n.


Entonces
Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2

Demostración. Sea v ∈ V cualquiera. Entonces

[v]β3 = Mβ2 ,β3 [v]β2 y [v]β2 = Mβ1 ,β2 [v]β1

Luego
[v]β3 = Mβ2 ,β3 [v]β2 = Mβ2 ,β3 Mβ1 ,β2 [v]β1

Por unicidad de la matriz Mβ1 ,β3 concluimos que

Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2

Teorema 3.5. Sea β una base ordenada de un espacio vectorial V de dimensión n. Entonces
{v1 , v2 , . . . , vn } es una base de V si y sólo si la matriz cuadrada de orden n, cuya j-ésima columna
es [vj ]β , tiene determinante distinto de cero.

Demostración. Sea A ∈ Mn×n (R) la matriz cuya j-ésima columna es [vj ]β . Sean α1 , α2 , . . . , αn ∈
R tales que
α1 v1 + α2 v2 + · · · + αn vn = 0/V

Ası́ que

0/n×1 = [0/V ]β = [α1 v1 + α2 v2 + · · · + αn vn ]β = α1 [v1 ]β + α2 [v2 ]β + · · · + αn [vn ]β


   
α1 α1
   
α  α 
 2  2
= [[v1 ]β [v2 ]β · · · [vn ]β ]  .  = A  . 
 ..   .. 
   
αn αn
 
α1
 
α 
 2
Pero det(A) 6= 0 si y sólo si el sistema A  .  = 0/n×1 tiene como única solución la trivial, es
 .. 
 
αn
decir, si y sólo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que dim(V) = n,
equivale a que {v1 , v2 , . . . , vn } es una base de V.
Matriz de Cambio de Base. Espacios con Producto Interno 116

El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
en un espacio vectorial de dimensión n, es una base para dicho espacio.

3.2. Espacios con producto Interno


Definición 3.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una función
que asocia, a cada par de vectores u, v ∈ V, un único número real denotado por hu , vi, u · v ó uv
satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w ∈ V y cada α ∈ R

1. hu , vi = hv , ui.

2. hu + v , wi = hu , wi + hv , wi.

3. hαu , vi = α hu , vi.

4. hv , vi ≥ 0 y además hv , vi = 0 si y sólo si v = 0/V .

Un espacio vectorial real, en el cual se define un producto interno, es llamado espacio


(vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a
los productos internos son producto escalar y producto punto.

Ejemplo 3.5. Las siguientes funciones son productos internos sobre Rn


n
X
1. hu , vi = ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).
i=1

En efecto, sean u, v, w ∈ Rn y α ∈ R con u = (u1 , u2, . . . , un ); v = (v1 , v2 , . . . , vn ) y


w = (w1 , w2 , . . . , wn ). Entonces
n
X n
X
hu , vi = ui vi = vi ui = hv , ui
i=1 i=1

u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), ası́ que


n
X n
X n
X n
X
hu + v , wi = (ui + vi )wi = (ui wi + vi wi ) = u i wi + vi wi = hu , wi + hv , wi
i=1 i=1 i=1 i=1

αu = α(u1, u2 , . . . , un ) = (αu1 , αu2, . . . , αun ), luego


n
X n
X
hαu , vi = αuivi = α uivi = α hu , vi
i=1 i=1
Matriz de Cambio de Base. Espacios con Producto Interno 117

Finalmente n n
X X
hu , ui = ui ui = u2i ≥ 0
i=1 i=1

Además, hu , ui = 0 si y sólo si u2i = 0 para cada i ∈ {1, . . . , n} (¿por qué?), esto es, si y
sólo si u = 0/Rn .

Este producto interno es llamado producto interno euclidiano, usual o estándar de


Rn , salvo que se indique lo contrario, este es el producto interno que consideraremos sobre
Rn .
n
X
2. hu , vi = pi ui vi donde p1 , p2 , . . . , pn son números reales positivos fijos, u = (u1 , u2, . . . , un )
i=1
y v = (v1 , v2 , . . . , vn ). Este producto interno es lo que se denomina producto interno
ponderado, si p1 = · · · = pn = 1, este producto interno coincide con el producto interno
euclidiano. Pruebe que esta función es un producto interno. 

Ejemplo 3.6. En Mm×n (R) la siguiente función define un producto interno (¡pruébelo!), el cual
se conoce como producto interno euclidiano, usual o estándar, al igual que en el caso de Rn ,
salvo que se indique otra cosa, este es el producto interno que consideraremos sobre Mm×n (R).
m X
X n
hA , Bi = aij bij
i=1 j=1

donde A = (aij )m×n y B = (bij )m×n . 

Ejemplo 3.7. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C [ a , b ], la


función Z b
hf , gi = f (x)g(x)dx
a
es un producto interno, en efecto, sean f, g, h ∈ C [ a , b ] y α ∈ R. Entonces
Z b Z b
hf , gi = f (x)g(x)dx = g(x)f (x)dx = hg , f i
a a

Z b Z b
hf + g , hi = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
a a
Z b Z b
= f (x)h(x)dx + g(x)h(x)dx = hf , hi + hg , hi
a a

Z b Z b
hαf , gi = αf (x)g(x)dx = α f (x)g(x)dx = α hf , gi
a a
Matriz de Cambio de Base. Espacios con Producto Interno 118

Z b Z b
hf , f i = f (x)f (x)dx = [f (x)]2 dx ≥ 0
a a
Además hf , f i = 0 si y sólo si f (x) = 0 para cada x ∈ [ a , b ] (¿por qué?), es decir, si y sólo
si f = O, donde O es la función nula sobre [ a , b ], esto es, O(x) = 0 para todo x ∈ [ a , b ].
Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
C [ a , b ]. 

Ejemplo 3.8. En Pn [x] las siguientes funciones son productos internos.

1. Como Pn [x] es un subespacio de C [ a , b ], entonces el producto interno definido en el ejemplo


anterior, es un producto interno sobre Pn [x].
n
X
2. hp , qi = p(i)q(i). En Efecto, sean p, q, r ∈ Pn [x] y α ∈ R. Entonces
i=0
Xn n
X
hp , qi = p(i)q(i) = q(i)p(i) = hq , pi.
i=0 i=0
n
X n
X
hp + q , ri = [p(i) + q(i)]r(i) = [p(i)r(i) + q(i)r(i)]
i=0 i=0
n
X n
X
= p(i)r(i) + q(i)r(i) = hp , ri + hq , ri.
i=0 i=0
n
X n
X
hp , pi = p(i)p(i) = [p(i)]2 ≥ 0.
i=0 i=0

Además, hp , pi = 0 si y sólo si p(i) = 0 para cada i ∈ {0, . . . , n}.

Pero el único polinomio en Pn [x], que tiene más de n raı́ces, es el polinomio nulo (¿por
qué?), es decir, hp , pi = 0 si y sólo si p es el polinomio nulo.
n
X
3. hp , qi = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn . (¡pruébe-
i=0
lo!). 

Teorema 3.6. Sea V un espacio con producto interno h , i y sean u, v, w ∈ V y α ∈ R. Entonces

1. hu , v + wi = hu , vi + hu , wi.

2. hu , αvi = α hu , vi.

3. hu − v , wi = hu , wi − hv , wi.
Matriz de Cambio de Base. Espacios con Producto Interno 119

4. hu , v − wi = hu , vi − hu , wi.

5. hu , 0/V i = 0 = h0/V , ui.

6. Si hu , vi = 0 para cada v ∈ V, entonces u = 0/V .

Demostración.

1. hu , v + wi = hv + w , ui = hv , ui + hw , ui = hu , vi + hu , wi.

2. hu , αvi = hαv , ui = α hv , ui = α hu , vi.

3. hu − v , wi = hu + (−v) , wi = hu , wi + h−v , wi = hu , wi + h(−1)v , wi


= hu , wi + (−1) hv , wi = hu , wi − hv , wi.

4. hu , v − wi = hv − w , ui = hv , ui − hw , ui = hu , vi − hu , wi.

5. hu , 0/V i = hu , 0/V + 0/V i = hu , 0/V i + hu , 0/V i.

Ası́ que hu , 0/V i = 0 y además h0/V , ui = hu , 0/V i = 0.

6. Como hu , vi = 0 para cada v ∈ V, entonces hu , ui = 0 (tomando v = u), luego u = 0/V .

3.3. Bases Ortonormales y Proceso de Ortonormalización


de Gram-Schmidt
Definición 3.5. Sea h , i un producto interno sobre un espacio vectorial V y sean u, v ∈ V.
Diremos que u es ortogonal a v si hu , vi = 0, en cuyo caso escribiremos u ⊥ v.

Observación 3.2. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia, podemos


escribir u y v son ortogonales en lugar de u es ortogonal a v.

Ejemplo 3.9.

1. Sean x = (2, −1, −3) e y = (3, 3, 1). Entonces

hx , yi = (2)(3) + (−1)(3) + (−3)(1) = 6 − 3 − 3 = 0

ası́ que x ⊥ y.
Matriz de Cambio de Base. Espacios con Producto Interno 120

2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v ∈ V, además, la parte 6 de este
mismo teorema, nos dice que el único vector que es ortogonal a todo vector v ∈ V, es el
vector nulo.

3. Las funciones f (x) = sen(x) y g(x) = cos(x), en C [ −π , π ], son ortogonales.

4. En P2 [x], los polinomios p(x) = 1+2x2 y q(x) = −2+x2 son ortogonales si consideramos el
producto interno definido en la parte 3 del ejemplo 3.8 (¡verifı́quelo!), pero si consideramos
el producto interno definido en la parte 2 del mismo ejemplo, estos polinomios no son
ortogonales (¡verifı́quelo!).

Definición 3.6. Sea h , i un producto interno sobre el espacio vectorial V. Definiremos la nor-
ma, magnitud, módulo o longitud (inducida por el producto interno) de v ∈ V, como el
número real kvk dado por
p
kvk = hv , vi

Diremos que v ∈ V es unitario si kvk = 1.

Observación 3.3. La norma de un vector no siempre está definida en términos del producto
interno (ver ??), sin embargo, en este capı́tulo nos ocuparemos de las normas inducidas por un
producto interno.
Dado que hv , vi ≥ 0 para cada v ∈ V, entonces la definición anterior está bien fundada.

Ejemplo 3.10. Consideremos sobre R4 el producto interno euclidiano. Entonces


p p √
k(1, 0, −3, 2)k = h(1, 0, −3, 2) , (1, 0, −3, 2)i = 12 + 02 + (−3)2 + 22 = 14

Ejemplo 3.11. En P2 [x] consideremos el polinomio p(x) = 3 − x2 . Hallar kpk considerando:

1. El producto interno definido en la parte 1 del ejemplo 3.8 con a = −1 y b = 1.

2. El producto interno definido en la parte 2 del ejemplo 3.8.

3. El producto interno definido en la parte 3 del ejemplo 3.8.


Matriz de Cambio de Base. Espacios con Producto Interno 121

Solución.
sZ sZ s  1
1 1
x5
1. kpk = (3 − x2 )2 dx
= (9 − +6x2 =x4 )dx
9x − 2x3 +
−1 −1 5 −1
s   r r
1 36 2
= 2 9−2+ = 2 =6
5 5 5
p p √
2. kpk = [p(0)]2 + [p(1)]2 + [p(2)]2 = 32 + 22 + (−1)2 = 14
p √
3. kpk = 32 + 02 + (−1)2 = 10

A continuación enunciaremos un teorema donde se dan a conocer algunas propiedades de la


norma, y que son consecuencia directa las propiedades del producto interno, su demostración se
deja como ejercicio.

Teorema 3.7. Sea V un EPI. Entonces para cada α ∈ R y cualesquiera u, v ∈ V se cumple que:

1. kuk ≥ 0 y kuk = 0 si y sólo si u = 0/V .

2. kαuk = |α| · kuk.

3. ku ± vk2 = kuk2 ± 2 hu , vi + kvk2 .

El siguiente lema nos permitirá demostrar el teorema que le sigue.

Lema 3.1. Sean u y v dos vectores unitarios en un EPI. Entonces | hu , vi | ≤ 1.

Demostración. Usando la parte 3 del teorema 3.7, tenemos que

0 ≤ ku + vk2 = kuk2 + 2 hu , vi + kvk2 = 1 + 2 hu , vi + 1 = 2[1 + hu , vi]

Ası́ que
hu , vi ≥ −1

Nuevamente, por la parte 3 del teorema 3.7, obtenemos

0 ≤ ku − vk2 = kuk2 − 2 hu , vi + kvk2 = 1 − 2 hu , vi + 1 = 2[1 − hu , vi]

luego
hu , vi ≤ 1
Matriz de Cambio de Base. Espacios con Producto Interno 122

En consecuencia
| hu , vi | ≤ 1

En el teorema que enunciaremos a continuación, se dan dos propiedades muy importantes de


la norma.

Teorema 3.8. Sean u y v dos vectores en un EPI. Entonces

1. | hu , vi | ≤ kuk · kvk (Desigualdad de Cauchy-Schwarz).

2. ku + vk ≤ kuk + kvk (Desigualdad Triangular).

Las igualdades se cumplen si y sólo si uno de los vectores es múltiplo escalar del otro (¡pruébelo!)

Demostración.

1. Si u = 0/V o v = 0/V , entonces | hu , vi | = 0 = kuk · kvk.


u v
En caso contrario, u 6= 0/V 6= v y por lo tanto los vectores u
b= yb
v= son unitarios,
kuk kvk
y por el lema 3.1
| hb vi | ≤ 1
u, b

Pero  
u v 1
hb
u , vbi = , = hu , vi
kuk kvk kuk · kvk
1
Por lo tanto hu , vi ≤ 1, es decir, hu , vi ≤ kuk · kvk.
kuk · kvk
2. Por la parte 3 del teorema 3.7 tenemos que

ku + vk2 = kuk2 + 2 hu , vi + kvk2

y por la parte 1 (desigualdad de Cauchy-Schwarz)

hu , vi ≤ | hu , vi | ≤ kuk · kvk

Ası́ que
ku + vk2 ≤ kuk2 + 2kuk · kvk + kvk2 = (kuk + kvk)2

Luego ku + vk ≤ kuk + kvk.


Matriz de Cambio de Base. Espacios con Producto Interno 123

Definición 3.7. Sea V un EPI y sean u, v ∈ V vectores no nulos. Definiremos el ángulo entre
u y v como el número real ∡(u, v) ∈ [ 0 , π ] tal que
hu , vi
cos(∡(u, v)) =
kuk · kvk
es decir,  
hu , vi
∡(u, v) = arc cos
kuk · kvk
Ejemplo 3.12. Hallar el ángulo entre los vectores u = (0, −3, 3) y v = (2, 2, −1)

Solución. hu , vi = 0 · 2 + (−3)2 + 3(−1) = −9


p √ √
kuk = 02 + (−3)2 + 32 = 18 = 3 2
p √
kvk 22 + 22 + (−1)2 = 9 = 3
Ası́ que
    √ !
hu , vi −9 − 2 3π
∡(u, v) = arc cos = arc cos √ = arc cos =
kuk · kvk 3 2·3 2 4

Definición 3.8. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V. Diremos que S es un conjunto


ortogonal si vi ⊥ vj para cualesquiera i, j ∈ {1, . . . , k} con i 6= j. Si adicionalmente vi es
unitario para cada i ∈ {1, . . . , k}, diremos que S es un conjunto ortonormal.

Ejemplo 3.13. Consideremos las siguientes matrices en M2×2 (R)


" # " # " #
1 0 0 2 0 1
A1 = ; A2 = y A3 =
0 0 −2 0 1 3

¿Es S = {A1 , A2 , A3 } un conjunto ortogonal? ¿Es S ortonormal?

Solución.
hA1 , A2 i = 1 · 0 + 0 · 2 + 0(−2) + 0 · 0 = 0

hA1 , A3 i = 1 · 0 + 0 · 1 + 0 · 1 + 0 · 3 = 0

hA2 , A3 i = 0 · 0 + 2 · 1 + (−2)1 + 0 · 3 = 0

Ası́ que S es ortogonal. Pero


p √
kA2 k = 02 + 22 + (−2)2 + 02 = 2 2 6= 1
Matriz de Cambio de Base. Espacios con Producto Interno 124

Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde


1 1 1 1 1
B1 = A1 = A1 , B2 = A2 = √ A2 y B3 = A3 = √ A3
kA1 k kA2 k 2 2 kA3 k 11
sı́ es un conjunto ortonormal (¡verifı́quelo!).

Teorema 3.9. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente
independiente.

Demostración. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V un conjunto ortogonal de vectores


no nulos.
Sean α1 , α2 , . . . , αk ∈ R tales que

α1 v1 + α2 v2 + · · · + αk vk = 0/V

Entonces, para cada j ∈ {1, . . . , k}, se tiene que


k
X k
X
0 = hvj , 0/V i = hvj , α1 v1 + α2 v2 + · · · + αk vk i = hvj , αi vi i = αi hvj , vi i = αj hvj , vj i
i=1 i=1
= αj kvj k2
y dado que vj es no nulo, entonces αj = 0.
Por lo tanto S es linealmente independiente.

Definición 3.9. Sean V un EPI y β = {v1 , v2 , . . . , vn } una base de V. Diremos que β es una
base ortogonal (respectivamente ortonormal) si β es un conjunto ortogonal (respectivamente
ortonormal).

Ejemplo 3.14.

1. Las bases canónicas de Rn y Mm×n (R) son bases ortonormales.

2. Una base ortogonal de M2×2 (R) es


(" # " # " # " #)
1 0 0 2 0 1 0 3
β= ; ; ;
0 0 −2 0 1 3 3 −2

pero no es ortonormal.
Matriz de Cambio de Base. Espacios con Producto Interno 125

3. Una base ortonormal de P2 [x], considerando el producto interno definido en la parte 1 del
ejemplo 3.8 con a = 1 y b = −1, es
( r √ )
1 3 5 
β= √ , x , √ −1 + 3x2 .
2 2 2 2

En efecto,  2 Z
1 2 1 1
√ = √1 2
k1k =
1
dx = 2 = 1
2 2 2 −1 2
r 2 r 2 ! Z 1
3 3 3 1 2 3 x3
2
x = kxk = x dx = =1
2 2 2 −1 2 3 −1

√ 2 √ !2 Z
5  5 5 1 2
2 2 2
√ −1 + 3x = √ −1 + 3x = −1 + 3x2 dx
2 2 2 2 8 −1
Z 1   1
5 2 4
 5 3 9 5
= 1 − 6x + 9x dx = x − 2x + x dx = 1
8 −1 8 5 −1

Además * r + r √ Z 1
1 3 1 3 3
√ , x =√ h1 , xi = xdx = 0
2 2 2 2 2 −1
* √ + √ √ Z 1
1 5 2
 1 5
2
5 
√ , √ −1 + 3x = √ √ 1 , −1 + 3x = −1 + 3x2 dx
2 2 2 22 2 4 −1

5  1
= −x + x3 −1 = 0
4
*r √ + r √ √ Z 1
3 5 2
 3 5
2
15 
x , √ −1 + 3x = √ x , −1 + 3x = x −1 + 3x2 dx = 0
2 2 2 22 2 4 −1

Para finalizar esta sección, nos plantearemos y solucionaremos el problema de hallar una base
ortonormal para un EPI de dimensión finita o para un subespacio de dimensión finita de un EPI,
comenzaremos con un ejemplo el cual ilustrará un procedimiento, conocido como proceso de
ortonormalización de Gram-Schmidt, que nos permite encontrar tal base.

Ejemplo 3.15. En P2 [x] consideremos el producto interno dado en el ejemplo 3.14 y considere-
mos la base de P2 [x] β = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base
β.
Matriz de Cambio de Base. Espacios con Producto Interno 126

Solución. Hagamos
v1 = 1 , v2 = x y v3 = x2

Entonces sZ
1 √
kv1 k = dx = 2
−1

Sea
1 1
u1 = v1 = √
kv1 k 2
Ası́ que ku1 k = 1.
Ahora hagamos
w2 = v2 − hv2 , u1 i u1

Pero   Z 1
1 1 1
hv2 , u1 i = x, √ = √ hx , 1i = √ xdx = 0.
2 2 2 −1
Luego w2 = v2 = x, además
sZ s 1 r
1
x3 2
kw2 k = x2 dx = =
−1 3 −1 3
Si hacemos r
1 3
u2 = w2 = x
kw2k 2
entonces ku2 k = 1 y u1 ⊥ u2 (ver ejemplo 3.14).
Consideremos
w3 = v3 − hv3 , u1 i u1 − hv3 , u2 i u2

Pero   Z 1

3 1
1 1 1 1 x 2
= √
hv3 , u1 i = x2 , √ = √ x2 , 1 = √ x2 dx = √
2 2 2 −1 2 3 −1 3 2
* r + r r Z 1
3 3
2 3
hv3 , u2 i = x2 , x = x ,x = x3 dx = 0
2 2 2 −1
De donde
2 1 1
w3 = x2 − √ √ = − + x2
3 2 2 3
y s sZ  s
Z 1 2 1  
5 1
1 1 2 1 2 x
kw3 k = − + x2 dx = − x2 + x4 dx = x − x3 +
−1 3 −1 9 3 9 9 5 −1
r √
8 2 2
= = √
45 3 5
Matriz de Cambio de Base. Espacios con Producto Interno 127

Finalmente, hagamos
√   √
1 3 5 1 5 
u3 = 2
w3 = √ − + x = √ −1 + 3x2
kw3 k 2 2 3 2 2
Entonces ku3 k = 1 , u3 ⊥ u1 y u3 ⊥ u2 (ver ejemplo 3.14).
Por lo tanto ( r √ )
1 3 5 2

{u1 , u2 , u3} = √ , x , √ −1 + 3x
2 2 2 2
es una base ortonormal de P2 [x], la cual se obtuvo de β.

El teorema siguiente generaliza el procedimiento que se usó en ejemplo anterior.

Teorema 3.10 (Proceso de Ortonormalización de Gram-Schmidt). Sea V un EPI. Si W es un


subespacio de dimensión finita de V, entonces W posee una base ortonormal. En Particular, si
V tiene dimensión finita, entonces V posee una base ortonormal.

Demostración. Sea βW = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base


ortonormal de W a partir de βW .
En primer lugar, notemos que kvi k =
6 0/V para cada i ∈ {1, . . . , m}.
1 v1
Paso 1. Sea u1 = v1 = . Entonces u1 ∈ W y
kv1 k kv1 k

v1

ku1 k = = 1 kv1 k = 1
kv1 k kv1 k

Paso 2. Sea w2 = v2 − hv2 , u1 i u1 . Entonces w2 ∈ W; y w2 6= 0/V , pues de lo contrario


hv2 , u1 i
v2 = hv2 , u1 i u1 = v1
kv1 k
lo cual contradice el hecho de que {v1 , v2 } es linealmente independientes

Además

hw2 , u1 i = hv2 − hv2 , u1 i u1 , u1 i = hv2 , u1 i − hhv2 , u1 i u1 , u1 i


= hv2 , u1 i − hv2 , u1i hu1 , u1 i = hv2 , u1 i − hv2 , u1 i = 0

Con lo que w2 ⊥ u1 .
1 w2
Paso 3. Sea u2 = w2 = . Entonces ku2 k = 1, hu1 , u2 i = 0 y u2 ∈ W.
kw2k kw2 k
Ası́ que {u1 , u2} es un conjunto ortonormal de vectores no nulos en W.
Matriz de Cambio de Base. Espacios con Producto Interno 128

De manera recursiva, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , uk }


en W, con k < m.

Paso 4. Sea

wk+1 = vk+1 − hvk+1 , u1i u1 − hvk+1 , u2 i u2 − · · · − hvk+1 , uk i uk


Xk
= vk+1 − hvk+1 , ui i ui
i=1

Entonces wk+1 ∈ W, wk+1 6= 0/V y para cada j ∈ {1, . . . , k} tenemos que


* k
+
X
hwk+1 , uj i = vk+1 − hvk+1 , ui i ui , uj
i=1
* k
+
X
= hvk+1 , uj i − hvk+1 , uii ui , uj
i=1
k
X
= hvk+1 , uj i − hhvk+1 , ui i ui , uj i
i=1
Xk
= hvk+1 , uj i − hvk+1 , ui i hui , uj i
i=1
= hvk+1 , uj i − hvk+1 , uj i huj , uj i (¿por qué?)
= hvk+1 , uj i − hvk+1 , uj i (¿por qué?)
= 0

es decir, wk+1 ⊥ uj para cada j ∈ {1, . . . , k}.


1 wk+1
Paso 5. Hagamos uk+1 = wk+1 = . Entonces {u1 , u2, . . . , uk , uk+1} es un
kwk+1k kwk+1 k
conjunto ortonormal de vectores no nulos en W.

Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}
en W, y por lo tanto, una base ortonormal de W.

3.4. Complemento Ortogonal


Finalizaremos este capı́tulo definiendo el complemento ortogonal de un subespacio vectorial de
un EPI.
Matriz de Cambio de Base. Espacios con Producto Interno 129

Definición 3.10. Sea W un subespacio de un EPI V y sea {w1 , w2 , . . . , wm } una base ortonormal
de W. Si v ∈ V, definiremos la proyección ortogonal de v sobre W, como el vector
m
X
proyW v = hv , w1 i w1 + hv , w2 i w2 + · · · + hv , wm i wm = hv , wi i wi
i=1

Claramente proyW v ∈ W.

Ejemplo 3.16. Consideremos el EPI P2 [x], con el producto interno usado el el ejemplo 3.15 de
la sección 3.3. Hallar la proyección ortogonal de p(x) = 3 + 2x − x2 sobre el subespacio de P2 [x]

W = {a + bx + cx2 : c = −3a}

Solución. Una base ortonormal de W es


(r √ )
3 5 2

x , √ −1 + 3x (¡verifı́quelo!)
2 2 2

Entonces
* r + r r Z 1
3 3
3 
p(x) , x = 3 + 2x − x2 , x = 3 + 2x − x2 xdx
2 2 2 −1
r Z 1 r Z 1 r
 3 1
3 3 3 x
= 3x + 2x2 − x3 dx = 2 x2 dx = 2
2 −1 2 −1 2 3 −1

4 3
= √
3 2

* √ + √
5  5

p(x) , √ −1 + 3x2 = √ 3 + 2x − x2 , −1 + 3x2
2 2 2 2
√ Z 1
5  
= √ 3 + 2x − x2 −1 + 3x2 dx
2 2 −1
√ Z 1
5 
= √ −3 − 2x + 10x2 + 6x3 − 3x4 dx
2 2 −1
√ Z 1
5 
= √ −3 + 10x2 − 3x4 dx
2 2 −1
√   1
5 10 3 3 5
= √ −3x + x − x
2 2 3 5 −1

4 5
= − √
15 2
Matriz de Cambio de Base. Espacios con Producto Interno 130

Ası́ que
* r +r * √ + √
3 3 5  5 
proyW p(x) = p(x) , x x + p(x) , √ −1 + 3x2 √ −1 + 3x2
2 2 2 2 2 2
√ r √ ! √
4 3 3 4 5 5 
= √ x+ − √ √ −1 + 3x2
3 2 2 15 2 2 2
1 
= 2x − −1 + 3x2
3
1
= + 2x − x2
3

Teorema 3.11. Sea {v1 , v2 , . . . , vn } una base ortonormal de un EPI V. Entonces para cada
v ∈ V se tiene que
n
X
v = hv , v1 i v1 + hv , v2 i v2 + · · · + hv , vn i vn = hv , vi i vi
i=1

Demostración. ¡Ejercicio!

Teorema 3.12. Sea W un subespacio de un EPI de dimensión finita V. Sean {w1 , w2 , . . . , wm }


y {w
b1 , w bm } bases ortonormales de W. Entonces para cada v ∈ V se tiene que
b2 , . . . , w
m
X m
X
hv , wi i wi = hv , w
bi i w
bi
i=1 i=1

Demostración. Por teorema, podemos escoger vectores um+1 , . . . , un tales que

β1 = {w1 , w2 , . . . , wm , um+1 , . . . , un }

sea una base de V. Usando el proceso de ortonormalización de Gram-Schmidt, podemos suponer


que β1 es una base ortonormal de V.
Para cada j ∈ {m + 1, . . . , n}, uj ∈
/ gen ({w1, w2 , . . . , wm }) = W = gen ({w
b1 , w bm }) por
b2 , . . . , w
lo tanto β2 = {w
b1 , w bm , um+1 , . . . , un } también es una base ortonormal de V.
b2 , . . . , w
Entonces, por el teorema 3.11, tenemos que

v = hv , w1 i w1 + · · · + hv , wm i wm + hv , um+1 i um+1 + · · · + hv , un i un
Xm Xn
= hv , wi i wi + hv , uii ui
i=1 i=m+1
Matriz de Cambio de Base. Espacios con Producto Interno 131

v = hv , wb1 i w
b1 + · · · + hv , w
bm i w
bm + hv , um+1 i um+1 + · · · + hv , un i un
Xm Xn
= hv , wbi i w
bi + hv , uii ui
i=1 i=m+1

En consecuencia m m
X X
hv , wi i wi = hv , w
bi i w
bi
i=1 i=1

Definición 3.11. Sea W un subespacio de un EPI V. Definiremos el complemento ortogonal


de W como el conjunto

W⊥ = {v ∈ V : v ⊥ w para cada w ∈ W}
= {v ∈ V : hv , wi = 0 para cada w ∈ W}

Teorema 3.13. Si W es un subespacio de un EPI V, entonces

1. W⊥ es un subespacio de V.

2. W ∩ W⊥ = {0/V }.

3. Si V es de dimensión finita, entonces



dim W⊥ + dim(W) = dim(V).

Demostración.

1. Por definición, W⊥ ⊂ V. Además, por la parte 5 del teorema 3.6, se tiene que 0/V ∈ W⊥ .

Sean u, v ∈ W⊥ y α ∈ R. entonces, para cada w ∈ W, hu , wi = 0 = hv , wi, ası́ que

hu + αv , wi = hu , wi + hαv , wi = hu , wi + α hv , wi = 0

es decir, u + αv ∈ W⊥ , y por lo tanto W⊥ es un subespacio de V.

2. Sea v ∈ W ∩ W⊥ cualquiera. Entonces v ∈ W y v ∈ W⊥ , es decir, v ∈ W y hv , wi = 0 para


cada w ∈ W. Por lo tanto kvk2 = hv , vi = 0, y por la parte 1 del teorema 3.7, se tiene que
v = 0/V . En consecuencia W ∩ W⊥ = {0/V }.
Matriz de Cambio de Base. Espacios con Producto Interno 132

3. Supongamos que dim V = n. Sea {w1 , w2 , . . . , wm } una base ortonormal de W, ası́ que
dim(W) = m.

Consideremos vectores wm+1 , . . . , wn ∈ V tales que β = {w1 , w2 , . . . , wm , wm+1 , . . . , wn } sea


una base de V, sin perdida de generalidad, podemos suponer que β es ortonormal (¿por
qué?).

Probaremos que {wm+1 , . . . , wn } es una base de W⊥ . Dado que {wm+1 , . . . , wn } es ortonor-


mal, entonces es linealmente independientes, ası́ que sólo es necesario probar que {wm+1 , . . . , wn }
genera a W⊥ .

Sea w ∈ W⊥ cualquiera. Entonces, por el teorema 3.11

w = hw , w1 i w1 + · · · + hw , wm i wm + hw , wm+1 i wm+1 + · · · + hw , wn i wn

Pero, por el lema 3.2, hw , wi i = 0 para cada i ∈ {1, . . . , m}. Luego

w = hw , wm+1 i wm+1 + · · · + hw , wn i wn

Ası́ que {wm+1 , . . . , wn } es una base de W⊥ . De donde



dim W⊥ = n − (m + 1) + 1 = n − m = dim(V) − dim(W)

En consecuencia dim W⊥ + dim(W) = dim(V).

Lema 3.2. Sea W un subespacio vectorial de un EPI V. Sea βW = {w1 , w2 , . . . , wn } una base de
W. Entonces v ∈ W⊥ si y sólo si v ⊥ wi para cada i ∈ {1, . . . , n}.

Demostración. Supongamos primero que v ∈ W⊥ . Entonces v ⊥ w para cada w ∈ W, ası́ que


v ⊥ wi para cada i ∈ {1, . . . , n}.
Supongamos ahora que v ⊥ wi para cada i ∈ {1, . . . , n}, es decir, hv , wi i = 0 para cada
i ∈ {1, . . . , n}.
Sea w ∈ W cualquiera. Entonces existen escalares α1 , α2 , . . . , αn ∈ R tales que
n
X
w = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1

Por lo tanto
* n
+ n n n
X X X X
hv , wi = v, αi wi = hv , αi wi i = αi hv , wi i = αi · 0 = 0
i=1 i=1 i=1 i=1
Matriz de Cambio de Base. Espacios con Producto Interno 133

Es decir, v ⊥ w para cada w ∈ W. En consecuencia, v ∈ W⊥ .

Ejemplo 3.17. Sea W el subespacio de P2 [x] dado en el ejemplo 3.16. Hallar W⊥ .

Solución. Recordemos que


(r √ )!
3 5   
W = gen x , √ −1 + 3x2 = gen x , −1 + 3x2
2 2 2

Por lo tanto, según el lema 3.2, a0 +a1 x+a2 x2 ∈ W⊥ si y sólo si (a0 +a1 x+a2 x2 ) ⊥ x y (a0 +a1 x+
a2 x2 ) ⊥ (−1+3x2 ), es decir, si y sólo si ha0 + a1 x + a2 x2 , xi = 0 y ha0 + a1 x + a2 x2 , −1 + 3x2 i =
0, pero
Z 1


a0 + a1 x + a2 x2 , x = (a0 + a1 x + a2 x2 )xdx
−1
Z 1
= (a0 x + a1 x2 + a2 x3 )dx
−1
Z 1 1
2 x3 2
= a1 x dx = a1 = a1
−1 3 −1 3

ası́ que ha0 + a1 x + a2 x2 , xi = 0 si y sólo si a1 = 0.


Luego



a0 + a1 x + a2 x2 , −1 + 3x2 = a0 + a2 x2 , −1 + 3x2
Z 1
= (a0 + a2 x2 )(−1 + 3x2 )dx
−1
Z 1
= (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx
−1

Z 1


a0 + a1 x + a2 x2 , −1 + 3x2 = 2 (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx
0
  1
x3 3 x5
= 2 −a0 x − a2 + a0 x + 3a2
3 5 0
 
1 3
= 2 −a0 − a2 + a0 + a2
3 5
8
= a2
15
De donde ha0 + a1 x + a2 x2 , −1 + 3x2 i = 0 si y sólo si a2 = 0.
En consecuencia, a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si a1 = 0 = a2 .
Matriz de Cambio de Base. Espacios con Producto Interno 134

Por lo tanto
W⊥ = gen({1})

Teorema 3.14. Sean W un subespacio de dimensión finita de un EPI V y v ∈ V. Entonces


existe un único par de vectores w1 ∈ W y w2 ∈ W⊥ tales que

v = w1 + w2

donde w1 = proyW v.
Además, si V es de dimensión finita, entonces w2 = proyW⊥ v.

Demostración. Sean w1 = proyW v y w2 = v − w1 . Claramente v = w1 + w2 , además, por la


definición 3.10, w1 ∈ W. Sólo falta probar que w2 ∈ W⊥ .
Sea {v1 , v2 , . . . , vm } una base ortonormal de W. Entonces, por la definición 3.10, tenemos que
m
X
w1 = hv , v1 i v1 + hv , v2 i v2 + · · · + hv , vm i vm = hv , vi i vi
i=1

ası́ que para cada j ∈ {1, . . . , m}

hw2 , vj i = hv − w1 , vj i = hv , vj i − hw1 , vj i
* m +
X
= hv , vj i − hv , vi i vi , vj
i=1
m
X
= hv , vj i − hhv , vi i vi , vj i
i=1
Xm
= hv , vj i − hv , vi i hvi , vj i
i=1
= hv , vj i − hv , vj i hvj , vj i (¿por qué?)
= hv , vj i − hv , vj i (¿por qué?)
= 0

y por el lema 3.2, tenemos que w2 ∈ W⊥ .


b2 ∈ W⊥ tales que
b1 ∈ W y w
Probemos ahora la unicidad de w1 w2 . Supongamos que existen w
v=w
b1 + w
b2 . Por lo tanto
w1 + w2 = v = w
b1 + w
b2
Matriz de Cambio de Base. Espacios con Producto Interno 135

de donde
w1 − w b2 − w2
b1 = w

Pero w1 − w b2 − w2 ∈ W⊥ .
b1 ∈ W y w
Luego
w1 − w b2 − w2 ∈ W ∩ W⊥ = {0/V }
b1 , w

En consecuencia w
b1 = w1 y w
b2 = w2 .
Se deja como ejercicio probar que si V es de dimensión finita, entonces

w2 = proyW⊥ v
Capı́tulo 4

Transformaciones Lineales. Autovalores y Autovectores de una


Matriz

4.1. Transformaciones Lineales


Definición 4.1. Sean V y W dos espacios vectoriales y T : V −→ W una función. Diremos que
T es una transformación lineal si para cualesquiera u, v ∈ V y α ∈ R se cumple que

1. T (u + v) = T (u) + T (v).

2. T (αu) = αT (u).

Ejemplo 4.1.

1. Sean V y W dos espacios vectoriales. La transformación O : V −→ W, dada por O(v) = 0/W


para cada v ∈ V, es una transformación lineal (¡pruébelo!), llamada transformación nula.


2. Sea V un espacio vectorial. Definamos IV : V −→ V como sigue, IV (v) = v para cada v ∈ V.


Entonces IV es una transformación lineal (¡pruébelo!), la cual es llamada transformación
identidad sobre V. 

3. Sean V un espacio vectorial de dimensión n y β una base ordenada de V. Entonces T :


V −→ Mn×1 (R) dada por T (v) = [v]β es una transformación lineal (ver teorema 3.1 en el
capı́tulo anterior). 

4. T : R3 −→ R2 , dada por T (x, y, z) = (2x + y, x − z), es una transformación lineal, en


efecto, dados (x, y, z), (a, b, c) ∈ R3 y α ∈ R, se tiene que

T ((x, y, z) + (a, b, c)) = T (x + a, y + b, z + c)


= (2(x + a) + (y + b), (x + a) − (z + c))
= (2x + 2a + y + b, x + a − z − c)
= (2x + y, x − z) + (2a + b, a − c)
= T (x, y, z) + T (a, b, c)

136
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 137

T (α(x, y, z)) = T (αx, αy, αz)


= (2(αx) + (αy), (αx) − (αz))
= (α(2x + y), α(x − z))
= α(2x + y, x − z)
= αT (x, y, z)

5. La función T : R2 −→ R3 dada por

T (x, y) = (x2 , x + y, xy)

no es una transformación lineal, en efecto,

T (1, 0) = (12 , 1 + 0, 1 · 0) = (1, 1, 0)

T (2(1, 0)) = T (2, 0) = (22 , 2 + 0, 2 · 0) = (4, 2, 0)

2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) 6= (4, 2, 0) = T (2(1, 0))

6. T : P2 [x] −→ R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b − c) no es una transformación


lineal, en efecto,
T (0) = (2 · 0 + 0 + 3, 0 − 0) = (3, 0)

T (0) + T (0) = (3, 0) + (3, 0) = (6, 0)

T (0 + 0) = T (0) = (3, 0) 6= (6, 0) = T (0) + T (0)

7. Consideremos T : M2×2 (R) −→ P3 [x] dada por


" #!
a b
T = a + bx + cx2 + dx3
c d

Entonces T es lineal (¡pruébelo!). 

8. T : R3 −→ P3 [x] dada por

T (a, b, c) = b + (2a + c)x + (b − 3c)x3


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 138

es lineal. En efecto, sean u, v ∈ R3 y α ∈ R cualesquiera, con u = (a1 , b1 , c1 ) y v =


(a2 , b2 , c2 ). Entonces

T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 ))
= T (a1 + a2 , b1 + b2 , c1 + c2 )
= (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) − 3(c1 + c2 )]x3
= (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 − 3c1 − 3c2 )x3
= [b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 − 3c2 )x3 ]
= T (a1 , b1 , c1 ) + T (a2 , b2 , c2 )
= T (u) + T (v)

T (αu) = T (α(a1 , b1 , c1 ))
= T (αa1 , αb1 , αc1 )
= αb1 + (2αa1 + αc1 )x + (αb1 − 3αc1 )x3
= αb1 + α(2a1 + c1 )x + α(b1 − 3c1 )x3
= α[b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ]
= αT (a1 , b1 , c1 )
= αT (u)

9. Sea A ∈ Mm×n (R). Definamos T : Mn×1 (R) −→ Mm×1 (R) como T (x) = Ax. No es difı́cil
probar que T es una transformación lineal (¡pruébelo!). 

Este último ejemplo nos dice que toda matriz define una transformación lineal, más adelante
veremos que toda transformación lineal, entre espacios vectoriales de dimensión finita, está aso-
ciada con una matriz.

Teorema 4.1. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.


Entonces, para cualesquiera v1 , v2 , . . . , vn ∈ V y α1 , α2 , . . . , αn ∈ R, se cumple que

1. T (0/V ) = 0/W .

2. T (v1 − v2 ) = T (v1 ) − T (v2 ).


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 139

3. T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )

Demostración.

1. Sea v ∈ V cualquiera pero fijo. Entonces

T (0/V ) = T (0 · v) = 0 · T (v) = 0/W

2. T (v1 − v2 ) = T (v1 + (−1)v2 ) = T (v1 ) + T ((−1)v2 ) = T (v1 ) + (−1)T (v2 )


= T (v1 ) − T (v2 )

3. Procederemos por inducción.

a) Veamos que se cumple para n = 2.


T (α1 v1 + α2 v2 ) = T (α1 v1 ) + T (α2 v2 ) = α1 T (v1 ) + α2 T (v2 )

b) (Hipótesis Inductiva) Supongamos que se cumple para n − 1, esto es, supongamos que

T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn−1 T (vn−1 )

c) Probemos que se cumple para n.

T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 + αn vn )


= T ((α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + αn vn )
= T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + T (αn vn )
(Hipótesis Inductiva) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn−1 T (vn−1 ) + αn T (vn )

El siguiente teorema nos será de gran utilidad a la hora de decidir si una función T es una
transformación lineal.

Teorema 4.2. Sean V y W dos espacios vectoriales. Una función T : V −→ W es una trans-
formación lineal si y sólo si para cualesquiera u, v ∈ V y α ∈ R se cumple que T (u + αv) =
T (u) + αT (v).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 140

Demostración. Supongamos que T : V −→ W es una transformación lineal. Sean u, v ∈ V y


α ∈ R cualesquiera. Entonces, por la parte 3 del teorema 4.1, se tiene que

T (u + αv) = T (u) + αT (v)

Supongamos ahora que T : V −→ W es tal que para cualesquiera u, v ∈ V y α ∈ R se cumple


que
T (u + αv) = T (u) + αT (v)

Sean u, v ∈ V y α ∈ R cualesquiera. Entonces

T (u + v) = T (u + 1 · v) = T (u) + 1 · T (v) = T (u) + T (v)

y además
T (0/V ) = T (u + (−1)u) = T (u) + (−1)T (u) = 0/W

luego
T (αv) = T (0/V +αv) = T (0/V ) + αT (v) = 0/W +αT (v) = αT (v)

Por lo tanto T es lineal.

De ahora en adelante, gracias a este último teorema, cuando queramos probar que una fun-
ción T, entre espacios vectoriales, es una transformación lineal, no será necesario probar las dos
condiciones en la definición 4.1, sólo bastaró probar la condición en el teorema anterior.

Teorema 4.3. Sean U, V y W espacios vectoriales y L : U −→ V y T : V −→ W dos transfor-


maciones lineales. Entonces T ◦ L : U −→ W es también una transformación lineal.

Demostración. Sean u1 , u2 ∈ U y α ∈ R cualesquiera. Entonces

(T ◦ L)(u1 + αu2 ) = T (L(u1 + αu2)) (definición de composición de funciones)


= T (L(u1 ) + αL(u2 )) (ya que L es lineal)
= T (L(u1 )) + αT (L(u2)) (ya que T es lineal)
= (T ◦ L)(u1 ) + α(T ◦ L)(u2 ) (definición de composición de funciones)

Por lo tanto T ◦ L es lineal.


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 141

Teorema 4.4. Sean V y W dos espacios vectoriales, T, L : V −→ W dos transformaciones


lineales y λ ∈ R. Entonces T + λL : V −→ W es también una transformación lineal.

Demostración. Sean v1 , v2 ∈ V y α ∈ R cualesquiera. Entonces

(T + λL)(v1 + αv2 ) = T (v1 + αv2 ) + (λL)(v1 + αv2 ) (definición de suma de funciones)


= T (v1 + αv2 ) + λL(v1 + αv2 )
(definición de múltiplo escalar de funciones)
= T (v1 ) + αT (v2 ) + λ(L(v1 ) + αL(v2 )) (pues T y L son lineales)
= T (v1 ) + αT (v2 ) + λL(v1 ) + λαL(v2 )
= T (v1 ) + λL(v1 ) + αT (v2 ) + λαL(v2 )
= T (v1 ) + λL(v1 ) + α(T (v2 ) + λL(v2 ))
= T (v1 ) + (λL)(v1 ) + α(T (v2 ) + (λL)(v2 ))
(definición de múltiplo escalar de funciones)
= (T + λL)(v1 ) + α(T + λL)(v2 ) (definición de suma de funciones)

En consecuencia T + λL es lineal.

Dado dos espacios vectoriales V y W, este último teorema nos dice que el conjunto formado
por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de
funciones y multiplicación por escalar, forman un espacio vectorial.

Teorema 4.5. Sean V y W dos espacios vectoriales y β = {v1 , v2 , . . . , vn } una base de V.


Supongamos que T y L son dos transformaciones lineales de V en W tales que T (vi ) = L(vi )
para cada i ∈ {1, . . . , n}. Entonces T = L, esto es, T (v) = L(v) para cada v ∈ V.

Demostración. Sea v ∈ V cualquiera. Existen (únicos) escalares α1 , α2 , . . . , αn ∈ R tales que

v = α1 v1 + α2 v2 + · · · + αn vn

ası́ que

T (v) = T (α1 v1 + α2 v2 + · · · + αn vn )
= α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) (teorema 4.1 parte 3)
= α1 L(v1 ) + α2 L(v2 ) + · · · + αn L(vn ) (hipótesis)
= L(α1 v1 + α2 v2 + · · · + αn vn ) (teorema 4.1 parte 3)
= L(v)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 142

Luego T = L.

El teorema anterior nos dice que si T : V −→ W es una transformación lineal y V tiene


dimensión finita, basta con conocer como actúa T en una base cualquiera de V, para saber como
actúa T en cualquier v ∈ V.

Ejemplo 4.2. Hallar la transformación lineal T de P2 [x] en R2 tal que

T (1) = (2, −1); T (x) = (3, 4); T (x2 ) = (−1, 5)

Solución.

T (a0 + a1 x + a2 x2 ) = T (a0 · 1 + a1 x + a2 x2 )
= a0 T (1) + a1 T (x) + a2 T (x2 )
= a0 (2, −1) + a1 (3, 4) + a2 (−1, 5)
= (2a0 + 3a1 − a2 , −a0 + 4a1 + 5a2 )

Teorema 4.6 (Existencia y Unicidad de una Transformación Lineal). Sean V y W dos espacios
vectoriales, β = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn ∈ W. Entonces existe una única
transformación lineal T : V −→ W tal que T (vi ) = wi para cada i ∈ {1, . . . , n}.

Demostración. Dado v ∈ V cualquiera, existen únicos escalares, α1 , α2 , . . . , αn ∈ R, tales que


n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi
i=1

Definamos n
X
T (v) = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1

La unicidad de los escalares α1 , α2 , . . . , αn ∈ R, garantiza que T es una función, además, dado


que w1 , w2 , . . . , wn ∈ W y W es un espacio vectorial, se tiene que T (v) ∈ W, por lo tanto T es
una función de V en W. n
X
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que vj = λi vi , donde λi = 0 si i 6= j y
i=1
λj = 1, ası́ que
n
X
T (vj ) = λi w i = λj w j = w j
i=1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 143

Probemos ahora que T es lineal. Sean u, v ∈ V y λ ∈ R cualesquiera, entonces existen únicos


escalares α1 , α2 , . . . , αn , β1 , β2 , . . . , βn ∈ R tales que
n
X
u = α1 v1 + α2 v2 + · · · + αn vn = αi vi
i=1
n
X
v = β1 v1 + β2 v2 + · · · + βn vn = βi vi
i=1
Ası́ que
n
X
T (u) = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1
Xn
T (v) = β1 w1 + β2 w2 + · · · + βn wn = βi wi
i=1
Además n n n
X X X
u + λv = αi vi + λ βi vi = (αi + λβi )vi
i=1 i=1 i=1
Por lo tanto
n
X n
X n
X
T (u + λv) = (αi + λβi )wi = αi wi + λ βi wi = T (u) + λT (v)
i=1 i=1 i=1

En consecuencia T es lineal.
Finalmente, probemos que T es única. Supongamos que existe otra transformación lineal L :
V −→ W tal que L(vi ) = wi para cada i ∈ {1, . . . , n}.
Luego, por el teorema 4.5, se tiene que L = T .

Ejemplo 4.3. Hallar una transformación lineal T : R3 −→ M2×2 (R) (si existe) tal que
" # " #
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;
1 −2 4 3
" # " #
2 1 4 −2
T (−2, 1, 2) = ; T (1, −1, 0) =
−3 −5 1 0
Solución. Veamos cuales de los vectores (−2, 2, −1), (0, 1, −3), (−2, 1, 2), (1, −1, 0) son lineal-
mente independientes, para ello, consideremos la matriz
 
−2 0 −2 1
 
 2 1 1 −1 
 
−1 −3 2 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 144

y hallemos su FERF.
     
−2 0 −2 1 −1 −3 2 0 1 3 −2 0
     
 2 1 1 −1  F1 ↔ F 3
 2 1 1 −1  F1 → −F1  2 1 1 −1 
  →  → 
−1 −3 2 0 −2 0 −2 1 −2 0 −2 1
   
1 3 −2 0 1 3 −2 0
F2 → F2 − 2F1    
→  0 −5 5 −1  F2 → F2 + F3  0 1 −1 0 
  → 
F3 → F3 + 2F1
0 6 −6 1 0 6 −6 1
 
1 0 1 0
F1 → F1 − 3F2  
→  0 1 −1 0 
 
F3 → F3 − 6F2
0 0 0 1
Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores

(−2, 2, −1), (0, 1, −3), (1, −1, 0)

son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema
4.6, concluimos que existe una única transformación lineal tal que
" # " #
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;
1 −2 4 3
" #
4 −2
T (1, −1, 0) =
1 0
Hallemos T . Sea (x, y, z) ∈ R3 cualquiera. Hagamos

β = {(−2, 2, −1), (0, 1, −3), (1, −1, 0)}

debemos hallar [(x, y, z)]β , para ello hallemos la matriz Mβc ,β .


   
−2 0 1 1 0 0 −1 −3 0 0 0 1
   
 1 −1 0 1 0  ↔ F3  1 −1 0 1 0 
 2  F1 → 2 
−1 −3 0 0 0 1 −2 0 1 1 0 0
   
1 3 0 0 0 −1 1 3 0 0 0 −1
  F2 → F2 − 2F1  

F1 → −F1  2 1 −1 0 0  →  
→ 1   0 −5 −1 0 1 2 
F3 → F3 + 2F1
−2 0 1 1 0 0 0 6 1 1 0 −2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 145

   
1 3 0 0 0 −1 1 0 0 −3 −3 −1
  F1 → F1 − 3F2  
F2 → F2 + F3  0 1 0 1 1 0  →  0 1 0 1 1 0 
→ 
F3 → F3 − 6F2
 
0 6 1 1 0 −2 0 0 1 −5 −6 −2
Por lo tanto  
−3 −3 −1
 
Mβc ,β = 
 1 1 0 

−5 −6 −2
En consecuencia
    
−3 −3 −1 x −3x − 3y − z
    
[(x, y, z)]β = Mβc ,β [(x, y, z)]βc = 
 1 1 0   y =
   x + y 

−5 −6 −2 z −5x − 6y − 2z
Es decir

(x, y, z) = (−3x − 3y − z)(−2, 2, −1) + (x + y)(0, 1, 3) + (−5x − 6y − 2z)(1, −1, 0)

De donde

T (x, y, z) = (−3x − 3y − z)T (−2, 2, −1) + (x + y)T (0, 1, 3)


+(−5x − 6y − 2z)T (1, −1, 0)
" # " #
2 0 0 −1
= (−3x − 3y − z) + (x + y)
1 −2 4 3
" #
4 −2
+(−5x − 6y − 2z)
1 0
" #
−26x − 30y − 10z 9x + 11y + 4z
=
−4x − 5y − 3z 9x + 9y + 2z
Por último
" # " #
−26(−2) − 30(1) − 10(2) 9(−2) + 11(1) + 4(2) 2 1
T (−2, 1, 2) = =
−4(−2) − 5(1) − 3(2) 9(−2) + 9(1) + 2(2) −3 −5
Por lo tanto, T es la transformación lineal requerida (además, es única).

Ejemplo 4.4. Hallar una transformación lineal (si existe) T : R4 −→ M3×1 (R) tal que
   
1 0
   
T (1, −2, 1, 1) = 
 2  ; T (2, 1, 3, 0) =  −1 
  
−3 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 146

   
−2 3
   
T (0, 5, 1, −2) = 
 −5 ;
 T (1, −7, 0, 3) = 
 7 

8 −11

Solución. Veamos si el conjunto S = {(1, −2, 1, 1); (2, 1, 3, 0); (0, 5, 1, −2); (1, −7, 0, 3)} es li-
nealmente independiente, para ello consideremos la matriz
 
1 2 0 1
 
 −2 1 5 −7 
 
 
 1 3 1 0 
 
1 0 −2 3

y hallemos su FERF
     
1 2 0 1 1 2 0 1 1 2 0 1
  F2 → F2 + 2F1    
 −2 1 5 −7    5 −5    1 −1 
  0 5  0 1 
  F3 → F3 − F1   F2 ↔ F3→  
 1 3 1 0  →  0 1 1 −1   0 5 5 −5 
  F →F −F    
4 4 1
1 0 −2 3 0 −2 −2 2 0 −2 −2 2
 
1 0 −2 3
F1 → F1 − 2F2   0 1

 1 −1  
F3 → F3 − 5F2  
→  0 0 0 0 
F4 → F4 + 2F2  
0 0 0 0
Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos
proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo
de estos dos vectores (el teorema de completación de bases nos lo permite) ¿cómo hacerlo?,
escojamos estos vectores entre los canónicos, para saber cuál de ellos escoger, consideremos la
siguiente matriz  
1 2 1 0 0 0
 
 −2 1 0 1 0 0 
 
 
 1 3 0 0 1 0 
 
1 0 0 0 0 1
hallemos su FERF.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 147

   
1 2 1 0 0 0 1 2 1 0 0 0
  F2 → F2 + 2F1  
 −2 1 0 1 0 0    2 1 0 0 
  0 5 
  F3 → F3 − F1  
 1 3 0 0 1 0  →  0 1 −1 0 1 0 
  F →F −F  
4 4 1
1 0 0 0 0 1 0 −2 −1 0 0 1
   
1 2 1 0 0 0 1 0 3 0 −2 0
  F1 → F1 − 2F2  
 0 1 −1 0 1 0    1 0 
  0 1 −1 0 
F2 ↔ F3   F 3 → F 3 − 5F2  
→ 0 5 2 1 0 0  →  0 0 7 1 −5 0 
  F → F + 2F  
4 4 2
0 −2 −1 0 0 1 0 0 −3 0 2 1
   
1 0 3 0 −2 0 1 0 0 − 73 1
7
0
  F1 → F1 − 3F3  
 0 1 −1 0 1 0   0 1 0 1 2
0 
1    7 7 
F3 → 7 F3   F2 → F2 + F3  
→ 0 0 1 1
− 5
0  →  0 0 1 1
−7 0 
5
 7 7  F → F + 3F  7 
4 4 3 3 1
0 0 −3 0 2 1 0 0 0 7
−7 1

Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base
de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir,

β = {(1, −2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)}

es una base de R4 , haciendo


 
0
 
T (1, 0, 0, 0) = T (0, 1, 0, 0) =  
 0 
0
garantizamos, según el teorema 4.6, que existe una única transformación lineal

T : R4 −→ M1×3 (R)

que satisface las dos primeras igualdades en el enunciado del ejercicio y


 
0
 
T (1, 0, 0, 0) = T (0, 1, 0, 0) =  
 0 
0
Hallemos T . Al calcular la matriz de coordenadas de (x, y, z, w) ∈ R4 cualquiera, respecto a la
base β, obtenemos (¡verificarlo!)
 
w
 
h i  1z − 1w 
 
(x, y, z, w) = 3 3

β  x − 2z − 1w 
 3 3 
1 7
y − 3z + 3w
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 148

Por lo tanto
  
1 1
T (x, y, z, w) = T w(1, −2, 1, 1) + z − w (2, 1, 3, 0)
3 3
    
2 1 1 7
+ x− z− (1, 0, 0, 0) + y − z + w (0, 1, 0, 0)
3 3 3 3
 
1 1
= wT (1, −2, 1, 1) + z − w T (2, 1, 3, 0)
3 3
   
2 1 1 7
+ x− z− T (1, 0, 0, 0) + y − z + w T (0, 1, 0, 0)
3 3 3 3
     
1   0   0
     
= w 2  + 1 z − 1 w  −1  + 1 z − 1 w  0 
  3 3   3 3  
−3 2 0
 
  0
1 7  
+ y− z+ w   0 

3 3
0

 
w
 
T (x, y, z, w) =  −
 3
1
z + 7
3
w 

2 11
3
z− 3w
Se puede verificar que T satisface las últimas dos igualdades en el enunciado del ejercicio,
ası́ que T es la transformación buscada, pero a diferencia de la transformación hallada en el
ejercicio anterior, esta no es única, depende de la escogencia de los vectores que completan la
base del espacio de partida y la escogencia de las imágenes de estos vectores sus imágenes.

4.2. Representación Matricial de una Transformación Li-


neal
En la sección anterior, vimos que toda matriz A ∈ Mm×n (R), define una transformación lineal
de Mn×1 (R) en Mm×1 (R), además, se comentó que toda transformación lineal, entre espacios
vectoriales de dimensión finita, está asociada con una matriz, a continuación enunciaremos y
demostraremos un teorema que garantiza esta última afirmación.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 149

Teorema 4.7. Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } una base ordenada de
V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación lineal.
Entonces existe un única matriz A ∈ Mm×n (R) tal que para cada v ∈ V

[T (v)]βW = A[v]βV

Demostración. Para cada j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que

T (vj ) = α1j w1 + α2j w2 + · · · + αmj wm

es decir  
α1j
 
 α2j 
 
[T (vj )]βW = . 
 .. 
 
αmj
Dado v ∈ V cualquiera, hagamos  
λ1
 
λ 
 2
[v]βV = . 
 .. 
 
λn
es decir
v = λ1 v1 + λ2 v2 + · · · + λn vn

De donde

T (v) = T (λ1 v1 + λ2 v2 + · · · + λn vn )
= λ1 T (v1 ) + λ2 T (v2 ) + · · · + λn T (vn )
= λ1 (α11 w1 + α21 w2 + · · · + αm1 wm ) + · · · + λn (α1n w1 + α2n w2 + · · · + αmn wm )
= (α11 λ1 + α12 λ2 + · · · + α1n λn )w1 + · · · + (αm1 λ1 + αm2 λ2 + · · · + αmn λn )wm

Por lo tanto
  
  α11 α12 ··· α1n λ1
α11 λ1 + α12 λ2 + · · · + α1n λn   
α α · · · α  
 ..   21 22 2n   λ2 
[T (v)]βW = .  =
  ..    = A[v]βV
  ... ..
. .   ... 
  
αm1 λ1 + αm2 λ2 + · · · + αmn λn
αm1 αm2 · · · αmn λn
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 150

donde  
α11 α12 ··· α1n
 
α α · · · α  h i
 21 22 2n 
A= . .. ..  = [T (v )]
1 βW · · · [T (v )]
n βW
 .. . . 

αm1 αm2 · · · αmn
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos
ahora su unicidad. Supongamos que B ∈ Mm×n (R) es tal que para cada v ∈ V

[T (v)]βW = B[v]βV

Luego, para cada j ∈ {1, . . . , n}, tenemos que

[T (vj )]βW = B[vj ]βV

Pero  
0
.
 .. 
 
 
0
 
 
[vj ]βV = 1 −→ j-ésima fila
 
0
 
.
 .. 
 
0
Luego
A(j) = [T (vj )]βW = B[vj ]βV = B (j)

Por lo tanto B = A.

Definición 4.2. La matriz A en el teorema anterior, se denomina representación matricial


de T respecto a las bases βV y βW , y la denotaremos por [T ]βV ,βW .

Observación 4.1. Cuando W = V y βW = βV = β, escribiremos [T ]β en lugar de [T ]β,β .

Ejemplo 4.5.

1. Si Ves un espacio vectorial de dimensión n, W es un espacio vectorial de dimensión m, βV


y βW son bases ordenadas de V y W respectivamente, entonces [O]βV ,βW = 0/m×n , donde O
es la transformación nula de V en W. 
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 151

2. Si V es un espacio vectorial de dimensión n y β es una base ordenada de V, entonces


[IV ]β = In , donde IV es la transformación identidad sobre V. 

3. Si T es la transformación lineal de ejemplo 4.9, βV es la base canónica de M2×2 (R) y βW


es la base canónica de R3 , entonces
 
0 2 −1 0
 
[T ]βV ,βW = 
 1 −1 0 1 

3 −1 −1 1

Ejemplo 4.6. Consideremos la transformación lineal T del ejemplo 4.10. Sean βV la base
canónica de M2×2 (R), βW la base canónica de P2 [x] y
(" # " # " # " #)
1 2 −1 0 2 3 −2 1
βbV = ; ; ;
−1 0 1 1 1 −1 3 2


βbW = 1 + x, x + x2 , 1 − 2x2

bases de M2×2 (R) y P2 [x], respectivamente. Hallar [T ]βV ,βW ; [T ]βbV ,βbW .

Solución. En primer lugar, hallaremos las imágenes, a través de T , de cada uno de los vectores
de la base canónica βV .
" #! " #!
1 0 0 1
T = 1 + x − x2 ; T = 1 + 2x − 3x2
0 0 0 0
" #! " #!
0 0 0 0
T = −1 + x − 3x2 ; T = x − 2x2
1 0 0 1
Por definición, la matriz [T ]βV ,βW , es la matriz cuyas columnas son las coordenadas de estos
últimos cuatro vectores, respecto a la base canónica βW , esto es
 
1 1 −1 0
 
[T ]βV ,βW = 
 1 1 
 2 1
−1 −3 −3 −2
Notemos que esta matriz es la matriz del sistema (4.3).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 152

Análogamente, para hallar [T ]βbV ,βbW , hallemos primero las imágenes, a través de T , de cada uno
de los vectores de la base βbV .
" #! " #!
1 2 −1 0
T = 4 + 4x − 4x2 ; T = −2 + x − 4x2
−1 0 1 1
" #! " #!
2 3 2 1
T = 4 + 8x − 12x2 ; T = −4 + 5x − 14x2
1 −1 3 2
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base
βbW . Para ello consideremos la siguiente matriz cuatro veces ampliada.
 
1 0 1 4 −2 4 −4
 
 1 1 0 4 1 8 5 
 
0 1 −2 −4 −4 −12 −14

las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base βbW ,
respecto a la base canónica βW , el resto de las columnas, son las coordenadas de los vectores,
hallados previamente, respecto a la base canónica βW . La FERF de esta matriz es
 
1 0 0 0 −9 −12 −27
 
 0 1 0 4 10 20 32 
 
0 0 1 4 7 16 23
Por lo tanto  
0 −9 −12 −27
 
[T ]βbV ,βbW = 
 4 10 20 32 

4 7 16 23

Teorema 4.8. Sean U, V y W espacios vectoriales, L : U −→ V y T : V −→ W dos transfor-


maciones lineales y βU , βV y βW bases ordenadas de U, V y W respectivamente. Entonces

[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 153

Demostración. Sea u ∈ U cualquiera. Entonces

([T ]βV ,βW [L]βU ,βV )[u]βU = [T ]βV ,βW ([L]βU ,βV [u]βU )
= [T ]βV ,βW [L(u)]βV
= [T (L(u))]βW
= [(T ◦ L)(u)]βW .

Luego, por unicidad de la matriz [T ◦ L]βU ,βW , se tiene que

[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV

Teorema 4.9. Sean V y W dos espacios vectoriales de dimensión finita; βV y βbV bases ordenadas
de V; βW y βbW bases ordenadas de W y T : V −→ W una transformación lineal. Entonces

[T ]βbV ,βbW = MβW ,βbW [T ]βV ,βW MβbV ,βV

Demostración. Sea v ∈ V cualquiera. Entonces

[T (v)]βW = [T ]βV ,βW [v]βV

[v]βV = MβbV ,βV [v]βbV

Luego

[T (v)]βbW = MβW ,βbW [T (v)]βW = MβW ,βbW [T ]βV ,βW [v]βV = MβW ,βbW [T ]βV ,βW MβbV ,βV [v]βbV

Por unicidad de la matriz [T ]βbV ,βbW , se tiene que

[T ]βbV ,βbW = MβW ,βbW [T ]βV ,βW MβbV ,βV

Ejemplo 4.7. Consideremos T , βV , βW , βbV y βbW como en el ejemplo 4.6. Verificar el teorema
4.9.

Solución. Sabemos que  


0 −9 −12 −27
 
[T ]βbV ,βbW = 
 4 10 20 32 

4 7 16 23
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 154

 
1 1 −1 0
 
[T ]βV ,βW = 
 1 2 1 
 1
−1 −3 −3 −2
Por otro lado, fácilmente obtenemos que
 
1 −1 2 −2
 
 2 0 3 1 
 
MβbV ,βV = 
 −1 1 1 3 
 
0 1 −1 2

y haciendo algunos cálculos (no muchos ni muy complicados) obtenemos


 
2 −1 1
 
MβW ,βbW , = 
 −2 2 −1 

−1 1 −1

Al sustituir, se obtiene que


[T ]βbV ,βbW = MβW ,βbW [T ]βV ,βW MβbV ,βV

Corolario 4.10. Sea V un espacio vectorial de dimensión finita; βV y βbV dos bases ordenadas
de V y T : V −→ V una transformación lineal. Entonces

[T ]βbV = MβV ,βbV [T ]βV MβbV ,βV

Demostración. ¡Ejercicio!

4.3. Núcleo e Imagen de una Transformación Lineal


Definición 4.3. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.
Definiremos

1. El núcleo o kernel de T como el conjunto

N(T ) = Ker(T ) = {v ∈ V : T (v) = 0/W }


Transformaciones Lineales. Autovalores y Autovectores de una Matriz 155

2. La imagen o recorrido de T como el conjunto

Im(T ) = {w ∈ W : T (v) = w para algún v ∈ V}

Observación 4.2. w ∈ Im(T ) si y sólo si existe v ∈ V tal que T (v) = w.

Teorema 4.11. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.


Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de W.

Demostración. Es claro que N(T ) ⊂ V e Im(T ) ⊂ W.


Por la parte 1 del teorema 4.1, se tiene que T (0/V ) = 0/W , ası́ que 0/V ∈ N(T ) y 0/W ∈ Im(T ), de
donde, N(T ) 6= ∅ e Im(T ) 6= ∅.
Por otro lado, sean v1 , v2 ∈ N(T ) y α ∈ R cualesquiera. Entonces

T (v1 ) = 0/W = T (v2 )

Ası́ que
T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = 0/W +α 0/W = 0/W

Por lo tanto v1 + αv2 ∈ N(T ), en consecuencia, N(T ) es un subespacio de V.


Finalmente, sean w1 , w2 ∈ Im(T ) y α ∈ R cualesquiera. Entonces, existen v1 , v2 ∈ V tales que
T (v1 ) = w1 y T (v2 ) = w2 .
Consideremos v = v1 + αv2 . Ası́ que v ∈ V y

T (v) = T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = w1 + αw2

De donde w1 + αw2 ∈ Im(T ), luego Im(T ) es un subespacio de W.

Definición 4.4. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.


Definiremos

1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )).

2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )).

Ejemplo 4.8.

1. Consideremos la transformación nula O : V −→ W. Entonces N(O) = V e Im(O) = {0/W }


(¡pruébelo!). 
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 156

2. Para la transformación identidad sobre V, IV : V −→ V, se puede probar que Im(IV ) = V


y N(IV ) = {0/V } (¡pruébelo!). 

Ejemplo 4.9. Definamos T : M2×2 (R) −→ R3 como sigue


" #!
x y
T = (2y − z, x − y + w, 3x − y − z + w)
z w

no es difı́cil probar que T es lineal (¡pruébelo!). Hallar n(T ) y r(T ).

Solución. Por definición


(" # " #! )
x y x y
N(T ) = ∈ M2×2 (R) : T = (0, 0, 0)
z w z w
" #!
x y
Pero T = (0, 0, 0) si y sólo si
z w


 2y −z = 0

x −y +w = 0 (4.1)


 3x −y −z +w = 0
" #
x y
Es decir ∈ N(T ) si y sólo si se satisface el sistema (4.1). Resolvamos este sistema.
z w
     
0 2 −1 0 1 −1 0 1 1 −1 0 1
     
 1 −1 0 1  F1 ↔ F2  0 2 −1 0  F3 → F3 − 3F1  0 2 −1 0 
  →  → 
3 −1 −1 1 3 −1 −1 1 0 2 −1 −2
   
1 −1 0 1 1 0 − 12 1
  F1 → F1 + F2  
F2 → 2 F2 
1
0 1 −21
0  →  0 1 − 1
0 
→ 
F3 → F3 − 2F2
 2 
0 2 −1 −2 0 0 0 −2
   
1 0 − 12 1 1 0 − 12 0
   
F3 → − 2 F3 
1
0 1 − 12 0  F 1 → F 1 − F3
 0 1 −1 0 
→  → 2 
0 0 0 1 0 0 0 1
De donde
 

 x
 − 21 z = 0 
 x =

1
2
z
y − 12 z = 0 ; o bien y = 1
2
z

 

 w = 0  w = 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 157

Haciendo z = 2α, con α ∈ R, obtenemos


" # " # " #
x y α α 1 1
= =α
z w 2α 0 2 0
Por lo tanto (" #)!
1 1
N(T ) = gen
2 0
y la nulidad de T es
n(T ) = dim(N(T )) = 1

Por otro lado


( " #! " # )
x y x y
Im(T ) = (a, b, c) ∈ R3 : T = (a, b, c) para algún ∈ M2×2 (R)
z w z w
" #!
x y
Pero T = (a, b, c) si y sólo si
z w


 2y −z = a

x −y +w = b (4.2)


 3x −y −z +w = c

En consecuencia (a, b, c) ∈ Im(T ) si y sólo si el sistema (4.2) tiene solución. Al resolver este
sistema, obtenemos
 

 x
 − 21 z = − 12 b + 1
2
c 
 x =

1
2
z − 12 b + 12 c
y − 21 z = 1
2
a ; o bien y = 1
2
z+ 1
2
a

 

 w = 1
a + 23 b − 1
c  w = 1
a 3
+ 2b − 1
c
2 2 2 2

Por lo tanto, el sistema (4.2) tiene solución para cada (a, b, c) ∈ R3 , en consecuencia Im(T ) = R3
y r(T ) = 3.

Observación 4.3. Nótese que la matriz de los sistemas (4.2) y (4.1) no es otra que la que
la matriz de la transformación T respecto a las bases canónicas de los espacios M2×2 (R) y R3
(verifı́quelo).
Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz
de este sistema nos da toda la información, pero a diferencia del caso matricial, los pivotes de
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 158

esta matriz nos dan las coordenadas, respecto a la base canónica de R3 , de los vectores que forman
una base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo.

Ejemplo 4.10. Hallar el núcleo, la nulidad, la imagen y el rango de la transformación lineal


T : M2×2 (R) −→ P2 [x] dada por
" #!
a b
T = (a + b − c) + (a + 2b + c + d)x + (−a − 3b − 3c − 2d)x2
c d
" #
a b
Solución. ∈ N(T ) si y sólo si
c d


 a +b −c = 0

a +2b +c +d = 0 (4.3)


 −a −3b −3c −2d = 0

La matriz de este sistema es  


1 1 −1 0
 
 1 21  1
 
−1 −3 −3 −2
y su FERF es
 
1 0 −3 −1
 
 0 1 2 1 
 
0 0 0 0
Por lo tanto
( (
a −3c −d = 0 a = 3c + d
; o bien
b +2c +d = 0 b = −2c − d
Ası́ que " # " # " # " #
a b 3c + d −2c − d 3 −2 1 −1
= =c +d
c d c d 1 0 0 1
En consecuencia (" # " #)!
3 −2 1 −1
N(T ) = gen ,
1 0 0 1
y n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, están en las
columnas 1 y 2, ası́ que las columnas 1 y 2 de la matriz original, son las coordenadas, respecto
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 159

a la base canónica de P2 [x], de los vectores que forman una base para Im(T ), por lo tanto
r(T ) = dim(Im(T )) = 2 y además

 
Im(T ) = gen 1 + x − x2 , 1 + 2x − 3x2

y una base para Im(T ) es



1 + x − x2 , 1 + 2x − 3x2

La observación 4.3 puede ser generalizada de la siguiente manera.

Teorema 4.12. Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } una base ordenada
de V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación lineal.
Entonces

1. {u1 , u2 , . . . , uk } es una base para N(T ) si y sólo si {[u1 ]βV , [u2 ]βV , . . . , [uk ]βV } es una base
para N([T ]βV ,βW )

2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y sólo si {[z1 ]βW , [z2 ]βW , . . . , [zr ]βW } es una base
para Im([T ]βV ,βW )

Demostración. Ver Apéndice ??.

Corolario 4.13. Sean V, W, βV , βW y T como en el teorema 4.12. Entonces

1. n(T ) = n ([T ]βV ,βW )

2. r(T ) = r ([T ]βV ,βW )

3. n(T ) + r(T ) = n = dim(V)

Demostración. ¡Ejercicio!
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 160

4.4. Autovalores y Autovectores


Definición 4.5. Sea A ∈ Mn×n (R). Diremos que λ ∈ R es un autovalor (valor propio o
valor caracterı́stico) de A si existe un vector no nulo x ∈ Mn×1 (R) tal que Ax = λx. Cualquier
vector no nulo x ∈ Mn×1 (R), satisfaciendo la igualdad anterior, es llamado autovector (vector
propio o vector caracterı́stico) de A asociado a λ.
" #
2 −3
Ejemplo 4.11. Si A = , entonces λ = 5 es un autovalor de A y
1 6
" # " #
x 1
=
y −1

es un autovector de A asociado a λ = 5, en efecto,


" #" # " # " #
2 −3 1 5 1
= =5
1 6 −1 −5 −1
λ = 3 también es un autovalor de A y un autovector de A asociado a λ = 3 es
" # " #
x −3
=
y 1
(¡verifı́quelo!)

Teorema 4.14. Sea A ∈ Mn×n (R). Entonces λ ∈ R es un autovalor de A si y sólo si pA (λ) =


det(A − λIn ) = 0.

Demostración. Notemos primero que Ax = λx es equivalente a (A − λIn )x = 0/n×1 ya que

(A − λIn )x = Ax − λIn x = Ax − λx

Por definición, λ es un autovalor de A si y sólo si existe x 6= 0/n×1 tal que Ax = λx, es decir,
según el comentario inicial, si y sólo si existe x 6= 0/n×1 tal que (A − λIn )x = 0/n×1 , lo cual, a su
vez, es equivalente a decir que la matriz A − λIn no es invertible, que, finalmente, es equivalente
a det(A − λIn ) = 0.

Corolario 4.15. Si D ∈ Mn×n (R) es triangular (superior o inferior), entonces sus autovalores
son precisamente las componentes de su diagonal principal. En particular, si D es diagonal, sus
autovalores son precisamente las componentes de su diagonal.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 161

Demostración. ¡Ejercicio!

Observación 4.4. Se puede probar que pA (λ) = det(A − λIn ) es un polinomio grado n con
término dominante (−1)n λn .
Según el teorema precedente, λ es un autovalor de A si y sólo si es raı́z del polinomio pA (λ),
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.

Definición 4.6. El polinomio pA (λ) = det(A − λIn ) es llamado polinomio caracterı́stico de


A y la ecuación pA (λ) = det(A − λIn ) = 0 recibe el nombre de ecuación caracterı́stica de A.

Teorema 4.16. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). El conjunto

Eλ = {x ∈ Mn×1 (R) : Ax = λx}

es un subespacio vectorial de Mn×1 (R).

Demostración. Sabemos que Ax = λx es equivalente a (A − λIn )x = 0/n×1 , por lo tanto

Eλ = {x ∈ Mn×1 (R) : (A − λIn )x = 0/n×1 }

es decir, Eλ es el conjunto solución del sistema (A−λIn )x = 0/n×1 , el cual sabemos es un subespacio
de Mn×n (R).

Definición 4.7. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). El subespacio Eλ es llamado au-


toespacio (espacio propio o espacio caracterı́stico) de A correspondiente a λ.
" #
2 −3
Ejemplo 4.12. Hallar el autoespacio de A = correspondiente a los autovalores λ = 5
1 6
y λ = 3.

Solución. Sabemos que E5 es el espacio solución del sistema


" # " #
x 0
(A − 5I2 ) =
y 0

Hallemos la FERF de A − 5I2


" # " # " #
−3 −3 1 1 1 1
A − 5I2 = F1 → − 13 F1 F2 → F2 − F1
1 1 → 1 1 → 0 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 162

Ası́ que x + y = 0, o bien y = −x, por lo tanto


" # " # " #
x x 1
= =x
y −x −1
(" #)!
1
En consecuencia E5 = gen
−1
Para hallar E3 , debemos proceder de manera análoga, obteniendo
(" #)!
3
E3 = gen
−1

¿Cómo hallar los autovalores y autovectores de A? La respuesta a esta pregunta la podemos


encontrar en el procedimiento que se usó en el ejemplo precedente.

Algoritmo para hallar los autovalores y autovalores de una matriz A ∈ Mn×n (R).

Paso 1. Hallar pA (λ) = det(A − λIn ), el polinomio caracterı́stico de A.

Paso 2. Hallar las raı́ces de pA (λ), digamos λ1 , λ2 , . . . , λm , estos son los autovalores de A.

Paso 3. Para cada i ∈ {1, . . . , m}, resolver el sistema (A − λi In )x = 0/n×1 , es decir, hallar
los autoespacios Eλ1 , . . . , Eλm .

Paso 4. Los vectores no nulos pertenecientes a Eλi , son los autovectores de A asociados a
λi .

Observación 4.5. Se dice que x0 es una raı́z del polinomio p(x) de multiplicidad k ∈ Z+ si
existe un polinomio q(x) tal que p(x) = (x − x0 )k q(x) y q(x0 ) 6= 0.

Definición 4.8. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). Definiremos la multiplicidad


geométrica de λ como la dimensión del autoespacio Eλ .

Observación 4.6. Para diferenciar la multiplicidad geométrica de un autovalor λ de A de su


multiplicidad, como raı́z del polinomio caracterı́stico pA , diremos que λ tiene multiplicidad
algebraica k ∈ Z+ cuando la multiplicidad de λ, como raı́z de pA , es k.

Ejemplo 4.13. Para la matriz A del ejemplo anterior, tenemos que cada uno de sus autovalores
tiene multiplicidad algebraica y geométrica igual a 1.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 163

Ejemplo 4.14. Hallar los autovalores y los autovectores de


 
1 1 1
 
A=  1 1 −1  
1 −1 1

Solución.

1−λ 1 1


pA (λ) = det(A − λI3 ) = 1 1 − λ −1 = −(λ − 2)2 (λ + 1)


1 −1 1 − λ

Por lo tanto
pA (λ) = 0 si y sólo si λ = 2 ó λ = −1

Vemos que λ = 2 es un autovalor de A de multiplicidad algebraica 2 y λ = −1 es un autovalor


de A de multiplicidad algebraica 1.
Hallemos los autoespacios E2 y E−1 , para ello debemos resolver los correspondientes sistemas
       
x 0 x 0
       
(A − 2I3 )    
 y = 0  y (A + I3 )    
 y = 0 
z 0 z 0
Hallemos la FERF de cada una de las matrices de estos sistemas.
   
−1 1 1 1 −1 −1
   
A − 2I3 = 
 1 −1 −1   
 F1 → −F1→  1 −1 −1 
1 −1 −1 1 −1 −1
 
1 −1 −1
F2 → F2 − F1  
→  0 0 0 
 
F3 → F3 − F1
0 0 0

De donde, x − y − z = 0, o bien x = y + z, por lo tanto, la solución del primero de los sistemas


es        
x y+z 1 1
       
 y = y  = y  1 +z 0 
       
z z 0 1
Ası́ que
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 164

   

 1 1 
   
E2 = gen      
 1  ,  0 

 0 
1 
Cualquier vector no nulo perteneciente a E2 es un autovector de A asociado a λ = 2.
     
2 1 1 1 2 −1 1 2 −1
    F2 → F2 − 2F1  
A + I3 =  1 2 −1  F1 ↔ F2  2 1 1  →  0 −3 3 
  →   
F3 → F3 − F1
1 −1 2 1 −1 2 0 −3 3
   
1 2 −1 1 0 1
  F1 → F 1 − 2F2  
F2 → − 13 F2  0 1 −1  →  0 1 −1 
→ 
F3 → F3 + 3F2
 
0 −3 3 0 0 0
De donde ( (
x z = 0 x = −z
o bien
y −z = 0 y = z
por lo tanto, la solución del segundo de los sistemas es
     
x −z −1
     
 y  =  z  = z 1 
     
z z 1

Luego
 

 −1 

 
E−1 = gen   1  
  


 

 1 

Cualquier vector no nulo perteneciente a E−1 es un autovector de A asociado a λ = −1.


Además, se tiene que λ = 2 tiene multiplicidad geométrica 2 y λ = −1 tiene multiplicidad
geométrica 1.

Ejemplo 4.15. Idem para  


−1 0 −1
 
B=
 1 −1 1 

0 0 −2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 165

Solución.

−1 − λ 0 −1


pB (λ) = det(B − λI3 ) = 1 −1 − λ 1 = −(λ + 1)2 (λ + 2)


0 0 −2 − λ

Luego
pB (λ) = 0 si y sólo si λ = −1 ó λ = −2

Por lo que λ = −1 es un autovalor de B de multiplicidad algebraica 2 y λ = −2 es un autovalor


de B de multiplicidad algebraica 1    
x 0
   
Hallemos E−1 , esto es, resolvamos el sistema (B + I3 )   
 y = 0


z 0
     
0 0 −1 1 0 1 1 0 1
     
B + I3 = 
 1 0 1   
 F1 ↔ F2→  0 0 −1  F2 → −F2→  0
 0 1 

0 0 −1 0 0 −1 0 0 −1
 
1 0 0
F1 → F1 − F2  
→  0 0 1 
 
F3 → F3 + F2
0 0 0

Con lo que x = z = 0, ası́ que


     
x 0 0
     
 y  =  y  = y 1 
     
z 0 0

y
 
 0 
 
 
E−1 = gen    
 1 
 0 
 

Cualquier vector no nulo perteneciente a E−1 es un autovectorde B   a λ = −1.


 asociado
x 0
   
Ahora hallemos E−2 , esto es, resolvamos el sistema (B + 2I3 ) 
 y
= 0 
  
z 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 166

   
1 0 −1 1 0 −1
   
B + I3 = 
 1 1 1  F → F − F  2 
 2 2 1
→ 0 1 
0 0 0 0 0 0

Luego x = z y y = −2z, es decir


     
x z 1
     
 y  =  −2z  = z  −2 
     
z z 1
y
 

 1 

 
E−2 = gen    
 −2 

 
1 
Cualquier vector no nulo perteneciente a E−2 es un autovector de B asociado a λ = −2.
Vemos que la multiplicidad geométrica de cada uno de los autovalores de B es 1.

Ejemplo 4.16. Idem para  


−1 13 23
 
C=  −1 6 7 

0 −1 −2

−1 − λ 13 23


Solución. pC (λ) = det(C − λI3 ) = −1 6 − λ 7 = −(λ − 1)(λ2 − 2λ + 2)


0 −1 −2 − λ

Como λ2 − 2λ + 2 6= 0 para todo λ ∈ R, entonces el único autovalor de C es λ = 1. Hallemos


el autoespacio E1 de C asociado a λ = 1. Como en el ejemplo precedente, debemos resolver el
sistema    
x 0
   
(C − I3 )    
 y = 0 
z 0
     
−2 13 23 −2 13 23 1 −5 −7
     
C − I3 = 
 −1 5 7     
 F2 → −F2→  1 −5 −7  F1 ↔ F2→  −2 13 23 
0 −1 −3 0 −1 −3 0 −1 −3
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 167

     
1 −5 −7 1 −5 −7 1 0 8
    F1 → F1 + 5F2  
F2 → F2 + 2F1  9  F ↔ F  3  →  0 1 3 
→ 0 3  2 3
→ 0 1 
F3 → F3 − 3F2
 
0 1 3 0 3 9 0 0 0
De donde (
x = −8z
y = −3z
Ası́ que      
x −8z −8
     
 y  =  −3z  = z  −3 
     
z z 1
En consecuencia  

 −8 

 
E1 = gen   −3  
  


 

 1 

y como antes, cualquier vector no nulo en E1 es un autovector de C asociado a λ = 1.


Las multiplicidades algebraica y geométrica de λ = 1 son iguales a 1, coinciden.

Teorema 4.17. Sean λ1 , λ2 , . . . , λm ∈ R distintos autovalores de A ∈ Mn×n (R) y x1 , x2 , . . . , xm


autovectores de A asociados a λ1 , λ2 , . . . , λm , respectivamente. Entonces x1 , x2 , . . . , xm son lineal-
mente independientes.

Demostración. Para cada i ∈ {1, . . . , m}, dado que xi es un autovector de A asociado a λi ,


tenemos que Axi = λi xi y xi 6= 0/n×1 .
Sean α1 , α2 , . . . , αm ∈ R tales que

α1 x1 + α2 x2 + · · · + αm xm = 0/n×1 (4.4)

Para probar que αi = 0 para cada i ∈ {1, . . . , m}, procederemos por inducción sobre m.
Verifiquemos que se cumple para m = 2. En este caso la ecuación (4.4) se convierte en

α1 x1 + α2 x2 = 0/n×1 (4.5)

Luego
A(α1 x1 + α2 x2 ) = A 0/n×1 = 0/n×1

Pero
A(α1 x1 + α2 x2 ) = α1 Ax1 + α2 Ax2 = α1 λ1 x1 + α2 λ2 x2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 168

De donde

α1 λ1 x1 + α2 λ2 x2 = 0/n×1 (4.6)

Al multiplicar a ambos lados de (4.5) por λ2 , obtenemos

α1 λ2 x1 + α2 λ2 x2 = 0/n×1 (4.7)

Restando (4.6) de (4.7) nos queda

α1 (λ2 − λ1 )x1 = α1 λ2 x1 − α1 λ1 x1 = 0/n×1

Como λ1 6= λ2 y x1 6= 0/n×1 , entonces α1 = 0. Sustituyendo este valor en la ecuación (4.5), se tiene


α2 x2 = 0/n×1 , pero x2 6= 0/n×1 , ası́ que α2 = 0, por lo tanto x1 y x2 son linealmente independientes.
Supongamos que x1 , x2 , . . . , xm−1 es linealmente independiente (hipótesis inductiva). Probemos
que x1 , x2 , . . . , xm−1 , xm es linealmente independiente. De (4.4) obtenemos

A(α1 x1 + α2 x2 + · · · + αm−1 xm−1 + αm xm ) = A 0/n×1 = 0/n×1

Pero

A(α1 x1 + α2 x2 + · · · + αm−1 xm−1 + αm xm ) = α1 Ax1 + α2 Ax2 + · · · + αm−1 Axm−1 + αm Axm


= α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1
+αm λm xm

De donde
α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm = 0/n×1 (4.8)

Multiplicando (4.4) por λm obtenemos

α1 λm x1 + α2 λm x2 + · · · + αm−1 λm xm−1 + αm λm xm = 0/n×1 (4.9)

Restando (4.8) de (4.9) nos queda

α1 (λm − λ1 )x1 + α2 (λm − λ2 )x2 + · · · + αm−1 (λm − λm−1 )xm−1 = 0/n×1

Como x1 , x2 , . . . , xm−1 son linealmente independientes (por hipótesis inductiva), entonces, para
cada i ∈ {1, . . . , m − 1}
αi (λm − λi ) = 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 169

Pero λm 6= λi para i ∈ {1, . . . , m − 1} (por hipótesis), luego αi = 0 para cada i ∈ {1, . . . , m − 1}.
Por lo tanto, (4.4) queda expresado por αm xm = 0/n×1 , y dado que xm 6= 0/n×1 , obtenemos αm = 0.
En consecuencia x1 , x2 , . . . , xm son linealmente independientes.

" # " #
1 3
Ejemplo 4.17. Los vectores y , son linealmente independientes, ya que son
−1 −1
autovectores de la matriz
 A del ejemplo 4.13, correspondientes a distintos autovalores.
1 −1
   
Los vectores  1
  
 y  1 , son linealmente independientes, pues son autovectores de la

0 1
matriz A del ejemplo 4.14, correspondientes a distintos autovalores.
   
0 1
   
Un razonamiento análogo, nos garantiza que los vectores  1
  
 y  −2 , los cuales son

0 1
autovectores de la matriz B del ejemplo 4.15, son linealmente independientes. 

Teorema 4.18. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). Entonces la multiplicidad geométrica


de λ es menor o igual al su multiplicidad algebraica.

Demostración. Ver Apéndice ??.

Teorema 4.19. A ∈ Mn×n (R) tiene n autovectores linealmente independientes si y sólo si pA


no tiene raı́ces complejas y la multiplicidad algebraica, de cada uno de los autovalores de A, es
igual a su multiplicidad geométrica. En particular, si A tiene n autovalores distintos, entonces A
tiene n autovectores linealmente independientes.

Demostración. Ver Apéndice ??.

Ejemplo 4.18. El polinomio caracterı́stico de la matriz A del ejemplo 4.14, no tiene raı́ces
complejas, además, cada uno de los autovalores de A tiene multiplicidades algebraica y geométrica
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber
     
1 1 −1
     
 1 , 0  ,  1 
     
0 1 1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 170

Nótese que los dos primeros autovectores corresponden al autovalor λ = 2 y el último corres-
ponde al autovalor λ = −1.
Por el contrario, para la matriz B del ejemplo 4.15, sabemos que el polinomio caracterı́stico de
B tiene sólo raı́ces reales, pero el autovalor λ = −1 tiene multiplicidad algebraica 2 y multiplicidad
geométrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 4.16 tiene sólo un autovalor, λ = 1, y las multiplicidades algebraica y
geométrica de éste son iguales, sin embargo pC (λ) tiene raı́ces complejas, por lo tanto C no tiene
tres autovectores linealmente independientes. 

Teorema 4.20. A ∈ Mn×n (R) es invertible si y sólo si 0 (cero) no es un autovalor de A.

Demostración. A es invertible si y sólo si det(A) 6= 0. Pero

pA (0) = det(A − 0In ) = det(A)

Ası́ que A es invertible si y sólo si 0 no es raı́z del polinomio pA (λ), es decir, A es invertible si y
sólo si 0 no es un autovalor de A.

4.5. Diagonalización
En esta sección del capı́tulo, estudiaremos las matrices similares y las matrices diagonalizables
y haremos uso de los teoremas de la sección anterior para el estudio de las últimas.

Definición 4.9. Sean A, B ∈ Mn×n (R), Diremos que B es similar a A si existe una matriz
invertible P ∈ Mn×n (R) tal que B = P −1AP .

Observación 4.7. Nótese que si B = P −1 AP , entonces A = P BP −1 = (P −1)−1 BP −1. Por lo


tanto, si B es similar a A, entonces A es similar a B. En consecuencia, en lugar de decir B es
similar a A ó A es similar a B, diremos simplemente que A y B son similares.

Teorema 4.21. Sean A, B ∈ Mn×n (R) dos matrices similares. Entonces pA (λ) = pB (λ), es decir,
A y B tienen los mismos polinomios caracterı́sticos, y en consecuencia, los mismos autovalores.

Demostración. Como A y B son similares, existe una matriz invertible P ∈ Mn×n (R) tal que
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 171

A = P −1 BP . De donde

pA (λ) = det(A − λIn ) = det(P −1 BP − P −1 (λIn )P )


= det(P −1 (B − λIn )P ) = det(P −1 ) det(B − λIn ) det(P )
1
= det(B − λIn ) det(P ) = det(B − λIn )
det(P )
= pB (λ)

En consecuencia, A y B tienen los mismos autovalores.

Ejemplo 4.19. Las matrices


   
−6 0 −6 −6 2 −10
   
A=  6 −6 6 
 y B=
 −9 −9 −15 

0 0 −12 3 1 7
son similares, en efecto, la matriz
 
1 1 1
 
P = 
 1 −1 1 
1 0 2
es invertible, basta ver que  
2 2 2
1
 3 −3


P −1 = 0
6 
1 1 −2
y además B = P −1 AP (¡verifı́quelo!). 

Ejemplo 4.20. Los autovalores de


 
−2 0 0
 
D=
 0 −4 0 

0 0 4
son λ1 = −2, λ2 = −4 y λ3 = 4, pues D es diagonal, además,
 
−2 2 −2
 
A=  2 −2 −2 

−2 −2 2
es similar a D, basta escoger la matriz P como en el ejercicio anterior y verificar que D =
P −1AP , por lo tanto los autovalores de A son λ1 = −2, λ2 = −4 y λ3 = 4. 
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 172

Ejemplo 4.21. Las matrices


   
1 1 1 −1 0 0
   
A=
 1 1 −1 
 y D=
 0 2 0 

1 −1 1 0 0 2

son similares, pues  


−1 1 1
 
P =
 1 1 0 

1 0 1
es invertible y D = P −1 AP (¡verifı́quelo!).
Además

−1 − λ 0 0


pD (λ) = det(D − λI3 ) = 0 2−λ 0


0 0 2−λ
= (−1 − λ)(2 − λ)2 = −(λ + 1)(λ − 2)2 = pA (λ)

lo que verifica el teorema 4.21. 

Definición 4.10. Una matriz A ∈ Mn×n (R) es diagonalizable si existe una matriz diagonal
D ∈ Mn×n (R) la cual es similar a A.

Ejemplo 4.22. La matriz A del ejemplo 4.20 es diagonalizable, ası́ como la matriz A del ejemplo
4.21.

En el ejemplo 4.21, nótese que la primera componente de la diagonal principal de D es −1,


que es un autovalor de A con multiplicidad geométrica 1, las veces que aparece en D, la segunda
y la tercera componente de la diagonal principal de D son iguales a 2, que es el otro autovalor
de A y tiene multiplicidad geométrica 2, las veces que aparece en D.
Además, nótese que la primera columna de P es
 
−1
 
 1 
 
1

el cual es un autovector de A asociado a λ = −1, que está ubicado, como dijimos antes, en la
primera componente de la diagonal principal de D. Las segunda y tercera columnas de P son,
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 173

respectivamente    
1 1
   
 1  y  0 
   
0 1
que son autovectores de A asociados a λ = 2, el cual está ubicado, como ya comentamos, en la
segunda y la tercera componente de la diagonal principal de D.
Esta situación no es nada casual, como veremos en el siguiente teorema, más precisamente, en
su demostración.

Teorema 4.22. Una matriz A ∈ Mn×n (R) es diagonalizable si y sólo si tiene n autovectores
linealmente independientes.

Demostración. Supongamos primero que A tiene n autovectores linealmente independientes,


digamos x1 , x2 , . . . , xn , correspondientes a los autovalores λ1 , λ2 , . . . , λn (no necesariamente dis-
tintos) respectivamente, es decir, Axi = λi xi para cada i ∈ {1, . . . , n}.
Sea P ∈ Mn×n (R) la matriz cuya i-ésima columna es xi , para cada i ∈ {1, . . . , n}, es decir
h i
P = x1 · · · xn

Dado que x1 , x2 , . . . , xn son linealmente independientes, entonces P es invertible, además para


cada i ∈ {1, . . . , n}, la i-ésima columna de AP es Axi , pero Axi = λi xi (ver ejercicio 1.1 parte
1), por lo tanto, la i-ésima columna de AP es λi xi .
Por otro lado, sea D ∈ Mn×n (R) la matriz diagonal cuya i-ésima componente en la diagonal
principal es λi , para cada i ∈ {1, . . . , n}. Ası́ que, para cada i ∈ {1, . . . , n}, la i-ésima columna
de P D es
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 174

 
0
.
 .. 
 
 
0
 
 
P D (i) = P λj  −→ i-ésima fila
 
0
 
.
 .. 
 
0
 
0
.
 .. 
 
 
0
 
 
= λi P 1 −→ i-ésima fila
 
0
 
.
 .. 
 
0
= λi P (i) = λi xi

Por lo tanto AP = P D, de donde D = P −1AP , es decir, A es diagonalizable.


Supongamos ahora que A es diagonalizable. Entonces existe una matriz diagonal D ∈ Mn×n (R)
y una matriz invertible P ∈ Mn×n (R) tales que

D = P −1 AP (4.10)

Sean x1 , x2 , . . . , xn las columnas de P . Entonces x1 , x2 , . . . , xn son linealmente independientes,


pues P es invertible. Para cada i ∈ {1, . . . , n}, sea λi la i-ésima componente de la diagonal
principal de D. De (4.10) obtenemos AP = P D, pero para cada i ∈ {1, . . . , n}, la i-ésima
columna de AP es Axi y la i-ésima columna de P D es λi xi (usando nuevamente la parte 1 del
ejercicio 1.1), ası́ que Axi = λi xi .
En consecuencia, x1 , x2 , . . . , xn son autovectores de A linealmente independientes.

Corolario 4.23. A ∈ Mn×n (R) es diagonalizable si y sólo si pA no tiene raı́ces complejas y


la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad
geométrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 175

Demostración. ¡Ejercicio!

Ejemplo 4.23. La matriz B del ejemplo 4.15 no es diagonalizable, pues el polinomio pB (λ) tiene
sólo raı́ces reales pero la multiplicidad algebraica de λ = −1 es 2 y su multiplicidad geométrica
es 1.
La matriz C del ejemplo 4.16 no es diagonalizable, ya que el polinomio pC (λ) tiene raı́ces
complejas.

Anda mungkin juga menyukai