Índice general I
2. Espacios Vectoriales 65
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.3. Combinación Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 77
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.5. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 96
i
Capı́tulo 1
Para cada j ∈ {1, . . . , n} la j-ésima columna de A la denotaremos por A(j) y está dada por
a1j
a
2j
A(j) = .
..
amj
Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A.
Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
La notación A = (aij )m×n , significa que A es la matriz de orden m × n cuya ij-ésima compo-
nente es aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden m×n lo denotaremos por Mm×n (R).
1
Matrices y Sistemas de Ecuaciones Lineales 2
Observación 1.1. Podemos considerar matrices sobre un campo K (ver apéndice ??), por
ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
elementos de K.
Observación 1.2. Se debe tener cuidado cuando se usa la notación (aij )m×n , el cambio de
ı́ndices no significa que se trata de otra matriz, los ı́ndices son “mudos”, esto es
Ejemplo 1.1.
" √ #
−2 0 5
1. A = es una matriz real de orden 2 × 3, la componente 2, 1 de A es a2,1 = 32 ,
2
3
4 1
" √ #
h i 5
la fila 2 de A es A(2) = 2
3
4 1 , la columna 3 de A es A(3) =
1
−1 4 0
2. B =
5 12 −3 es una matriz cuadrada real de orden 3, las componentes de la
0 2 −8
diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8.
(
1 si i = j
3. La matriz In = (δij )n×n , donde δij = , para cada i, j ∈ {1, . . . , n}, es llamada
0 si i 6= j
matriz identidad de orden n, esto es,
1 0 ··· 0
0 1 . . . ...
In = . . .
.. . . . . 0
0 ··· 0 1
n×n
4. La matriz 0/m×n = (ξij )m×n , donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n},
es llamada matriz nula de orden m × n, es decir
0 ··· 0
. ..
0/m×n = .. .
0 ··· 0
m×n
Matrices y Sistemas de Ecuaciones Lineales 3
Ejemplo 1.2.
1. Para cada n ∈ Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y consecuente-
mente triangulares superior e inferior.
−5 4 0 −7
0 3 12 5
2. A = es triangular superior.
0 0 2 1
0 0 0 0
−5 0 0 0
0 4 0 0
3. A = es triangular inferior.
0 −1 0 0
9 13 −3 8
Matrices y Sistemas de Ecuaciones Lineales 4
6 0 0 0
0 −3 0 0
4. A = es diagonal.
0 0 −5 0
0 0 0 0
8 0 0 0
0 8 0 0
5. A = es escalar.
0 0 8 0
0 0 0 8
Definición 1.3. Sean A, B ∈ Mm×n (R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B, si la componente ij-ésima de A es igual a la componente ij-ésima de
B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, es decir, si A = (aij )m×n y B = (bij )m×n ,
diremos que A y B son iguales si
Observación 1.4. Nótese que para que dos matrices sean iguales, en primer lugar deben ser
del mismo orden.
" # 5 7 x 7
5 −1 0
Ejemplo 1.3. Si A = ;B=
0 y y C = 0 −3 , entonces A 6= B
−6 8 3
−2 4 −2 4
pues ni siquiera son del mismo orden; B = C si y sólo si x = 5 e y = −3.
Teorema 1.1. Sean A, B ∈ Mm×n (R). Entonces las siguientes proposiciones son equivalentes
1. A = B.
Demostración. ¡Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 5
Definición 1.4. Sean A, B ∈ Mm×n (R) con A = (aij )m×n y B = (bij )m×n . Definiremos la
matriz suma de A con B, como la matriz A + B ∈ Mm×n (R) cuya ij-ésima componente viene
dada por aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, esto es, si A + B = (cij )m×n ,
entonces cij = aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
Observación 1.5. Para poder sumar dos matrices estas deben ser del mismo orden.
4 −9 0 8 −3 9 5 −4
Ejemplo 1.4. Si A =
−7 3 5 −12
y B = 1 −13 3 9
, entonces
1 0 −6 2 10 4 7 11
4 −9 0 8 −3 9 5 −4
A+B =
−7 3 5 −12 + 1 −13 3
9
1 0 −6 2 10 4 7 11
4 + (−3) −9 + 9 0 + 5 8 + (−4) 1 0 5 4
=
−7 + 1 3 + (−13) 5 + 3 −12 + 9
= −6 −10 8 −3
1 + 10 0 + 4 −6 + 7 2 + 11 11 4 1 13
Definición 1.5. Sean A ∈ Mm×n (R) y α ∈ R (α es llamado escalar), con A = (aij )m×n .
Definiremos la multiplicación de α por A ( multiplicación por escalar) como la matriz
α · A ó simplemente αA cuya ij-ésima componente es αaij para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n}, esto es, si αA = (bij )m×n , entonces bij = αaij para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n}.
Observación 1.7. Toda matriz escalar de orden n es un múltiplo escalar de In , más aún,
A ∈ Mn×n (R) es una matriz escalar, si y sólo si existe λ ∈ R tal que A = λIn .
Matrices y Sistemas de Ecuaciones Lineales 6
Ejemplo 1.5.
Sea A la matriz del ejemplo
1.4, entonces
4 −9 0 8 2 · 4 2(−9) 2·0 2·8
2·A=2· −7 3 5 −12
= 2(−7) 2·3 2 · 5 2(−12)
1 0 −6 2 2·1 2 · 0 2(−6) 2·2
8 −18 0 16
= −14 6 10 −24
2 0 −12 4
1. A + B = B + A (conmutatividad de la suma).
2. (A + B) + C = A + (B + C) (asociatividad de la suma).
4. Existe una matriz D ∈ Mm×n (R) tal que A + D = 0/m×n = D + A (opuesto aditivo).
fij = eij + cij = (aij + bij ) + cij = aij + (bij + cij ) = aij + gij = hij
3. Recordemos que 0/m×n = (ξij )m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈
{1, . . . , n}. Ası́ que si A + 0/m×n = E = (eij )m×n , entonces, por definición de suma de
matrices, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
A + 0/m×n = A = 0/m×n +A
4. Definamos D = (dij )m×n con dij = −aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
Hagamos A + D = E = (eij )m×n . Entonces, por definición de suma de matrices, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
A + D = 0/m×n = D + A
Luego
α(A + B) = F = P = αA + αB
Matrices y Sistemas de Ecuaciones Lineales 8
De donde
(α + β)A = E = H = αA + βA
Por lo tanto
α(βA) = (αβ)A = β(αA)
8. Hagamos 1 · A = E = (eij )m×n . Ası́ que al usar la definición de multiplicación por escalar,
se tiene que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
En consecuencia
1·A=E =A
Teorema 1.3.
1. La matriz nula 0/m×n es la única matriz real de orden m × n tal que para cada A ∈ Mm×n (R)
se cumple que A + 0/m×n = A = 0/m×n +A.
Matrices y Sistemas de Ecuaciones Lineales 9
2. Para cada matriz A ∈ Mm×n (R), existe una única matriz D ∈ Mm×n (R) tal que A + D =
0/m×n = D + A, tal matriz D es llamada matriz opuesta de A y se denota por −A.
Demostración. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/m×n satisface que para
cada A ∈ Mm×n (R) se cumple que A + 0/m×n = A = 0/m×n +A. Además, la existencia de la matriz
D es garantizada en la parte 4 del mismo teorema. Sólo faltarı́a probar la unicidad de ambas
matrices.
1. Supongamos que P ∈ Mm×n (R) es tal que A + P = A = P + A para cada A ∈ Mm×n (R),
luego
2. Sea A ∈ Mm×n (R) cualquiera. Supongamos que existen D, E ∈ Mm×n (R) tales que
A + D = 0/m×n = D + A (1.1)
A + E = 0/m×n = E + A (1.2)
En consecuencia
Demostración. ¡Ejercicio!
1. 0 · A = 0/m×n .
Matrices y Sistemas de Ecuaciones Lineales 10
2. α 0/m×n = 0/m×n .
3. (−1)A = −A.
Demostración.
1. Sabemos que
0 · A + 0/m×n = 0 · A (¿por qué?)
además
0 · A = (0 + 0)A = 0 · A + 0 · A
ası́ que
0 · A + 0 · A = 0 · A + 0/m×n
2. Por un lado
α · 0/m×n = α · 0/m×n + 0/m×n (¿por qué?)
luego
α · 0/m×n + 0/m×n = α · 0/m×n +α · 0/m×n
3. Basta probar que A + (−1)A = 0/m×n , y por unicidad, obtendrı́amos el resultado. Veamos
4. Supongamos que αA = 0/m×n . Si α = 0, no hay nada que probar, supongamos entonces que
α 6= 0, ası́ que
Definición 1.7. Sean A = (aij )m×n ∈ Mm×n (R) y B = (bjk )n×p ∈ Mn×p (R). Definiremos el
producto de A por B como la matriz C = (cik )m×p ∈ Mm×p (R), denotada por AB ó A · B, tal
que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} se tiene que
n
X
cik = aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1
Observación 1.8. Nótese que para poder definir el producto AB, la cantidad de columnas de
A debe coincidir con la cantidad de filas de B, además, la matriz resultante, es una matriz cuya
cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la
cantidad de columnas de B.
" # 3 1 0
2 −1 0
Ejemplo 1.7. Sean A = yB=
2 −1 −2
. Entonces
0 3 1
−4 −2 3
AB = A · B
" #
2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3
=
0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3
" # " #
6−2+0 2+1+0 0+2+0 4 3 2
= =
0+6−4 0−3−2 0−6+3 2 −5 −3
Observación 1.9. Nótese que en el ejemplo anterior, el producto BA no está definido, esto nos
dice que el producto de matrices no es conmutativo, más aún, a pesar de que ambos productos
están definidos, AB y BA, no necesariamente son ambos del mismo orden, además, siendo ambos
productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo
orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando
AB = BA, se dice que A y B son matrices que conmutan.
A continuación enunciaremos un teorema que expone las principales propiedades del producto
de matrices
Teorema 1.6. Sean A ∈ Mm×n (R); B, C ∈ Mn×p (R); C ∈ Mp×q (R) y α ∈ R. Entonces
Demostración. Sean A = (aij )m×n ; B = (bjk )n×p ; C = (cjk )n×p y D = (dkl )p×q .
Luego
p p n
! p n p
n X
X X X X X X
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
n p
! n
X X X
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1
(AB)D = F = H = A(BD)
Matrices y Sistemas de Ecuaciones Lineales 14
En consecuencia
A(B + C) = F = R = AB + AC
Hagamos AIn = E = (eik )m×n . Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , n}
n
X
eik = aij δjk (definición de producto de matrices)
j=1
= ai1 δ1k + · · · + ai(k−1) δ(k−1)k + aik δkk + ai(k+1) δ(k+1)k + · · · + ain δnk
= ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3)
= aik
AIn = A = Im A
6. ¡Ejercicio!
Observación 1.10. Nótese que las filas de A “pasan” a ser las columnas de AT y las columnas
de A “pasan” a ser las filas de AT , más propiamente
T (i)
A(i) = AT para cada i ∈ {1, . . . , m}
T
A(j) = AT (j)
para cada j ∈ {1, . . . , n}
Luego
T
AT =E=A
Matrices y Sistemas de Ecuaciones Lineales 17
Por lo tanto
(A + B)T = E = H = AT + B T
Ası́ que
(αA)T = E = G = αAT
De donde
(AC)T = E = H = C T AT
Matrices y Sistemas de Ecuaciones Lineales 18
5. ¡Ejercicio!
1. A es simétrica si AT = A.
2. A es antisimétrica si AT = −A.
Ejemplo 1.9.
2. 0/n es simétrica y antisimétrica para todo n ∈ N ¿existe alguna otra matriz que sea simétrica
y antisimétrica simultáneamente?
3. La matriz
0 5 7 −6
−5 0 −4 8
A=
−7 4 0 12
6 −8 −12 0
es antisimétrica pues
0 −5 −7 6
5 0 −8
4
AT = = −A
7 −4 0 −12
−6 8 12 0
4. La matriz
5 −9 3 0
−9 2 −1 13
A=
3 −1 0 7
0 13 7 −3
es simétrica ya que
5 −9 3 0
−9 2 −1 13
AT = =A
3 −1 0 7
0 13 7 −3
Matrices y Sistemas de Ecuaciones Lineales 19
Demostración. ¡Ejercicio!
Definición 1.10. Una operación elemental por filas (OEF) es una función f : Fm (R) →
Fm (R) la cual es de uno de los siguientes tipos
OEF Tipo 1. Si f (A) = B, entonces existen s ∈ {1, . . . , m} y α 6= 0 tales que B(i) = A(i)
para cada i ∈ {1, . . . , m}, con i 6= s, y además B(s) = αA(s) , esto es, una de las filas
de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales.
A(1) A(1)
.. ..
. .
A(s−1) A(s−1)
f (A) = f A(s) = αA(s) = B
A A(s+1)
(s+1)
.. ..
. .
A(m) A(m)
Matrices y Sistemas de Ecuaciones Lineales 20
Fs → αFs
Por comodidad, en lugar de escribir B = f (A), escribiremos A → B.
A(1) A(1)
.. ..
. .
A(s−1) A(s−1)
f (A) = f A(s) = A(s) + αA(t) =B
A A(s+1)
(s+1)
.. ..
. .
A(m) A(m)
Fs → Fs + αFt
Al igual que antes, en lugar de escribir B = f (A), escribiremos A → B.
OEF Tipo 3. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m} tales que B(i) = A(i) para
cada i ∈ {1, . . . , m}, con i 6= s e i 6= t y además B(s) = A(t) y B(t) = A(s) , dicho de
otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.
A(1) A(1)
.. ..
. .
A A(s−1)
(s−1)
A(s) A(t)
A(s+1) A(s+1)
.. ..
f (A) = f . = . =B
A(t−1) A(t−1)
A A(s)
(t)
A(t+1) A(t+1)
.. ..
. .
A(m) A(m)
Fs ↔ Ft
Nuevamente, en lugar de escribir B = f (A), escribiremos A → B.
Matrices y Sistemas de Ecuaciones Lineales 21
Observación 1.11. Nótese que si A ∈ Mm×n (R) y f es una OEF, entonces f (A) ∈ Mm×n (R).
Ejercicio 1.2. Pruebe que toda OEF f es una función invertible y que su inversa f −1 : Fm (R) →
Fm (R) es también una OEF del mismo tipo que f .
Observación 1.12. Se pueden aplicar más de dos operaciones por filas en un solo paso, lo único
que debemos cuidar es no transformar, en el mismo paso, una fila más de una vez y no
transformar, en el mismo paso, una fila que va ser usada para transformar a otra(s).
Observación 1.13. De manera análoga a como se definieron las operaciones elementales por
filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas
últimas sólo se usarán para el cálculo de determinantes y no para la resolución de sistemas
de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos últimos dos
problemas sólo usaremos las operaciones elementales por filas.
Escalonada
1. Si todas las filas nulas de A, si las hay, están ubicadas en las últimas posiciones.
Matrices y Sistemas de Ecuaciones Lineales 22
2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de
A(i) (contada de izquierda a derecha) está mas a la izquierda de la primera componente
no nula de A(i+1) .
2. Si A(j) es una columna de A que “contiene” un pivote, entonces el resto de las com-
ponentes de A(j) son iguales a 0 (cero).
Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simultánea-
mente.
2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mı́nimo entre
m y n.
Ejemplo 1.11.
1 0 −5 0 8
0 1 3 0 −1
4. F =
0 0 0 1 −2 es escalonada reducida por filas.
0 0 0 0 0
0 0 0 0 0
Definición 1.12. Sean A, B ∈ Mm×n (R). Diremos que B es equivalente por filas a A si
existen OEF f1 , f2 , . . . , fr tales que B = (f1 ◦ f2 ◦ · · · ◦ fr )(A)
Ejemplo 1.12. Consideremos las matrices A y B del ejemplo 1.10. Entonces B es equivalente
por filas a A (¿por qué?).
Demostración. ¡Ejercicio!
Observación 1.15. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por
filas en lugar de B es equivalente por filas a A ó A es equivalente por filas a B.
3. Una única matriz escalonada reducida por filas, la cual llamaremos la forma escalonada
reducida por filas (FERF) de A.
El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.
Solución.
6 −1 −15 2 13 −1 0 2 −1 −3
−1 0 2 −1 −3 6 −1 −15 2 13
A= F1 ↔ F2→
0 −3 −9 0 9 0 −3 −9 0 9
7 1 −11 3 10 7 1 −11 3 10
1 0 −2 1 3 1 0 −2 1 3
6 −1 −15 2 13 F → F − 6F 0 −1 −3 −4 −5
2 2 1
→
F1 → −F1
→ 0 −3 −9 0 9
F4 → F4 − 7F1 0 −3 −9 0 9
7 1 −11 3 10 0 1 3 −4 −11
1 0 −2 1 3 1 0 −2 1 3
0 1 3 4 5 F → F + 3F 0 1 3 4 5
3 3 2
→
F2 → −F2
→ 0 −3 −9 0 9 F → F − F 0 0 0 12 24
4 4 2
0 1 3 −4 −11 0 0 0 −8 −16
1 0 −2 1 3 1 0 −2 0 1
F1 → F1 − F3
0 1 3 4 5 0 1 3 0 −3
1
F3 → 12 F3 F2 → F2 − 4F3
→ 0 0
0 1 2 → 0 0 0 1 2
F → F + 8F
4 4 3
0 0 0 −8 −16 0 0 0 0 0
Definición 1.13. Una matriz E ∈ Mn×n (R) es llamada matriz elemental si existe una OEF
f tal que E = f (In ), es decir, E se obtiene de In por medio de una única OEF.
Ejemplo 1.14.
1 0 0 0
0 1 0 0
1. E1 = es elemental, pues
−5 0 1 0
0 0 0 1
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
I4 = F3 → F3 − 5F1 = E1
0 0 1 0 → −5 0 1 0
0 0 0 1 0 0 0 1
1 0 0
2. E2 =
0 4 0
es elemental, ya que
0 0 1
1 0 0 1 0 0
I3 =
0 1 0 F2 → 4F2
0 4 0 = E2
→
0 0 1 0 0 1
1 0 0 0 0
0 0 0 0 1
3. E3 =
0 0 1 0 0 es elemental, dado que
0 0 0 1 0
0 1 0 0 0
1 0 0 0 0 1 0 0 0 0
0 1 0
0 0 0 0 0 0 1
I5 =
0 0 1 0 0
F2 ↔ F5→ 0 0 1 0 0
= E3
0 0 0 1 0 0 0 0 1 0
0 0 0 0 1 0 1 0 0 0
Teorema 1.11. Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y f : Fm (R) → Fm (R). Entonces
Matrices y Sistemas de Ecuaciones Lineales 26
1. f (AB) = f (A)B.
2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
f (A) = f A(1) f A(2) · · · f A(n)
Corolario 1.12. Si A ∈ Mm×n (R), B ∈ Mn×p (R) y f, f1 , f2 , . . . , fr : Fm (R) → Fm (R) son OEF,
entonces
Demostración. ¡Ejercicio!
Otra consecuencia del mismo teorema, en conjunción con el corolario anterior, es la siguiente.
Corolario 1.13. Sean A, B ∈ Mm×n (R) dos matrices equivalentes por filas. Entonces existen
matrices elementales E1 , E2 , . . . , Er ∈ Mm×m (R) tales que B = E1 E2 · · · Er A
Demostración. ¡Ejercicio!
donde x1 , x2 , . . . , xn son las incógnitas del sistema 1.4 y toman valores en R; aij ∈ R son
números fijos para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes del
sistema 1.4 y b1 , b2 , . . . , bm ∈ R son fijos y son los términos independientes del sistema 1.4.
Si b1 = b2 = · · · = bm = 0, diremos que el sistema 1.4 es homogéneo, en caso contrario
diremos que es no homogéneo.
Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.
Si hacemos
a11 a12 ··· a1n b1 x1
a21 a22 · · · a2n b2 x2
A = (aij )m×n = . . . ; b= . y x = . ,
.. .. .. .. ..
am1 am2 · · · amn bm xn
el sistema 1.4 puede escribirse como la ecuación matricial Ax = b (¡verifı́quelo!), que llamare-
mos representación matricial del sistema 1.4. La matriz A es llamada matriz de coefi-
cientes o matriz del sistema 1.4, la matriz
a11 a12 · · · a1n b1
a
21 a22 · · · a2n b2
[A|b] = . .. .. ..
.. . . .
am1 am2 · · · amn bm
es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incógnita
o matriz de incógnitas y b es conocida como matriz de términos independientes.
El sistema
a11 x1 + a12 x2 + · · · + a1n xn = 0
a x +a x +···+a x
21 1 22 2 2n n = 0
. . . .. .. (1.5)
.. .. .. . .
a x +a x +···+a x = 0
m1 1 m2 2 mn n
Matrices y Sistemas de Ecuaciones Lineales 28
Consistente si tiene al menos una solución, cuando tiene una única solución, se dice que
es consistente determinado, si tiene más de una solución, se dice que es consistente
indeterminado.
Ejemplo 1.15.
(
3x1 +2x2 −6x3 = 0
1.
−x1 +5x2 −7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incógnitas, es no homogéneo,
su representación matricial es
" # x1 " #
3 2 −6 0
x2 =
−1 5 −7 4
x3
" # " #
3 2 −6 3 2 −6 0
y
−1 5 −7 −1 5 −7 4
Matrices y Sistemas de Ecuaciones Lineales 29
x1 " #
0
x2 y
4
x3
6x −2y +9z = 1
2. −5x +12y −3z = −2
x 6z = 6
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incógnitas, es no
homogéneo y su representación matricial es
6 −2 9 x 1
−5 12 −3 y = −2
1 0 6 z 6
Una pregunta que surge de manera inmediata es ¿cómo garantizar que un sistema de ecuaciones
lineales es consistente o inconsistente? y en caso de que sea consistente ¿cómo resolver dicho
sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes
daremos las bases teóricas que nos permitan usar dichas herramientas.
Demostración. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen
OEF f1 , f2 , . . . , fr tales que
(f1 ◦ f2 ◦ · · · ◦ fr )([A|b]) = [C|d]
Matrices y Sistemas de Ecuaciones Lineales 30
Además, en virtud del ejercicio 1.2, f1 , f2 , . . . , fr son invertibles y f1−1 , f2−1 , . . . , fr−1 son también
OEF sobre Fm (R), luego, si Cx = d, entonces
Ax = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (C)x = (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(C)x
= (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(Cx) = (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(d) = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (d) = b
Por lo tanto Ax = b si y sólo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o
ambos tienen la(s) misma(s) solución(es).
Observación 1.20. Cuando la matriz del sistema es una matriz ERF, es fácil decidir si el
sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solución(es) de este. La
idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver,
de manera sencilla, el sistema dado.
Ejemplo 1.16. Decidir cuál de los siguientes sistemas son consistentes y cuáles no, en caso de
serlo, mostrar su(s) solución(es).
2x +y −z = 1
1. 2x −y +5z = 5
−y +3z = 2
2x +y −z = 2
x −2y +4z = −3
2.
5x −4y +8z = −9
−y +3z = 2
−2z
x +y
+w = 1
3. 4x +2y +2z = −2
2y −10z +3w = 3
Matrices y Sistemas de Ecuaciones Lineales 31
−2z
x
+y +w = 1
4. 4x +2y +2z = −2
2y −10z +4w = 3
Solución.
Hallemos su FERF
1
2 1 −1 1 1 2
− 12 1
2
1 1
2
− 12 1
2
2 −1 5 5 F → 1
F 2 −1 F2 → F2 − 2F1 6 4
1 2 1
→
5 5 → 0 −2
0 −1 3 2 0 −1 3 2 0 −1 3 2
1
1 − 21 1
1 0 1 3
2 2
F1 → F1 − 12 F2 2
1
F1 → − 2 F1 0 1 −3 −2 → 0 1 −3 −2
→
F3 → F3 + F2
0 −1 3 2 0 0 0 0
La última fila de esta última matriz equivale a la ecuación 0 · x + 0 · y + 0 · z = 0, que no
aporta nada a la solución. Ası́ que el sistema dado es equivalente al sistema
(
3
x +z = 2
y −3z = −2
o bien
x −α + 32 −1 3
2
y = 3α −2 = α 3 + −2 ; con α ∈ R
z α 1 0
2 1 −1 2 1 −2 4 −3
1 −2 4 −3 2 1 −1 2
F
1 ↔ F 2
5 −4 8 −9 → 8 −9
5 −4
0 −1 3 2 0 −1 3 2
1 −2 4 −3 1 −2 4 −3
F2 → F2 − 2F1 0 5 −9 8 0 −1 3 2
→
F2 ↔ F4→
F3 → F3 − 5F1 0 6 −12 6
0
6 −12 6
0 −1 3 2 0 5 −9 8
1 −2 4 −3 1 0 −2 −7
F1 → F1 + 2F2
0 1 −3 −2
→ 0 1 −3 −2
F2 → −F2 F → F − 6F
→ 0 6 −12 6 3 3 2 0 0 6 18
F4 → F4 − 5F2
0 5 −9 8 0 0 6 18
1 0 −2 −7 1 0 0 −1
F1 → F1 + 2F3
0 1 −3 −2 → 0 1 0 7
F3 → 61 F3 F2 → F2 + 3F3
→ 0 0 1 3 3
F → F − 6F 0 0 1
4 4 3
0 0 6 18 0 0 0 0
Luego, el sistema dado es equivalente al sistema
= −1
x
y = 7
z = 3
Matrices y Sistemas de Ecuaciones Lineales 33
x = −1; y = 7; z=3
o bien
x −1
y = 7
z 3
1 1 −2 1 1 1 1 −2 1 1
4 2 2 0 −2 F2 → F2 − 4F1 0 −2 10 −4 −6
→
0 2 −10 3 3 0 2 −10 3 3
1 1 −2 1 1 1 0 3 −1 −2
F1 → F1 − F2
F2 → − 21 F2 0 1 −5 2 3 → 0 1 −5 2 3
→
F3 → F3 − 2F2
0 2 −10 3 3 0 0 0 −1 −3
1 0 3 −1 −2 1 0 3 0 1
F1 → F1 + F3
F3 → −F3 0 1 −5 2 3 → 0 1 −5 0 −3
→
F2 → F2 − 2F3
0 0 0 1 3 0 0 0 1 3
En consecuencia el sistema dado es equivalente al sistema
x
+3z = 1
y −5z = −3
w = 3
o equivalentemente
x = −3z + 1
y = 5z − 3
w = 3
Matrices y Sistemas de Ecuaciones Lineales 34
0 · x + 0 · y + 0 · z + 0 · w = −3
Teorema 1.15. El sistema homogéneo Ax = 0/m×1 , con A ∈ Mm×n (R), tiene infinitas soluciones
si m < n, esto es, si el sistema homogéneo Ax = 0/m×1 tiene más incógnitas que ecuaciones,
entonces es consistente indeterminado.
Demostración. ¡Ejercicio!
Matrices y Sistemas de Ecuaciones Lineales 35
Teorema 1.16. Sea A ∈ Mm×n (R). Supongamos que x1 , x2 ∈ Mn×1 (R) son soluciones del
sistema homogéneo Ax = 0/m×1 . Entonces, para cada α ∈ R, se tiene que x1 + x2 y αx1 son
también soluciones del sistema.
Demostración. ¡Ejercicio!
Teorema 1.17. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Supongamos que xp es una solución del
sistema Ax = b. Entonces, para cada solución xg del sistema Ax = b, existe una solución xh de
Ax = 0/m×1 tal que xg = xh + xp .
Ejemplo 1.17. Para el sistema de la parte 1 del ejemplo 1.16 tenemos que
3
−1
2
xp =
−2 ; xh = α 3 ; con α ∈ R
0 1
Para el sistema de la parte 2 del mismo ejemplo, se tiene que
−1 0
xp =
7
; xh =
0
3 0
Nótese que en este caso xg = xp .
Finalmente, para el sistema de la parte 3 del ejemplo en cuestión
1 −3
−3 5
xp = ; xh = α ; con α ∈ R
0 1
3 0
Ejercicio 1.3. Sea A ∈ Mm×n (R). Pruebe que si el sistema Ax = b tiene solución para cada
b ∈ Mm×1 (R), entonces m ≤ n.
Matrices y Sistemas de Ecuaciones Lineales 36
Definición 1.15. sea A ∈ Mn×n (R). diremos que A es invertible si existe una matriz B ∈
Mn×n (R) tal que
AB = In = BA
Teorema 1.18. Si A ∈ Mn×n (R) es invertible, entonces A tiene sólo una inversa, es decir,
existe una única matriz B ∈ Mn×n (R) tal que AB = In = BA, tal matriz es denotada por A−1 .
Demostración. Supongamos que A ∈ Mn×n (R) es invertible y que B, C ∈ Mn×n (R) son inver-
sas de A. Entonces
AB = In = BA (1.6)
AC = In = CA (1.7)
Luego
Teorema 1.19. Sean A, B ∈ Mn×n (R) dos matrices invertibles y α ∈ R con α 6= 0. Entonces
−1
1. A−1 es invertible y (A−1 ) = A (propiedad involutiva de la inversa)
Demostración.
2. En primer lugar
Además
3. Veamos
Análogamente, se prueba que (α−1 A−1 )(αA) = In . Nuevamente, usando el teorema 1.18,
se tiene que αA es invertible y (αA)−1 = α−1 A−1 .
4. Por un lado
Teorema 1.20. Toda matriz elemental es invertible y su inversa es también una matriz elemen-
tal.
Demostración. Sea E ∈ Mn×n (R) una matriz elemental. Entonces existe una OEF f : Fn (R) →
Fn (R) tal que E = f (In ). El ejercicio 1.2 garantiza que f es invertible y su inversa f −1 es también
una OEF sobre Fn (R), ası́ que F = f −1 (In ) es una matriz elemental, además
EF = f (In )f −1 (In )
= f (f −1(In )) (corolario 1.12 parte 1)
= In
Matrices y Sistemas de Ecuaciones Lineales 39
F E = f −1 (In )f (In )
= f −1 (f (In )) (corolario 1.12 parte 1)
= In
Ahora bien ¿cómo saber si una matriz cuadrada A es o no invertible? y en caso de que lo
sea ¿cómo hallar A−1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
único. Daremos un ejemplo sencillo que ilustrará tal procedimiento.
Ejemplo 1.19. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
afirmativo, hallar A−1 .
" #
2 −2
1. A =
−3 4
" #
2 −8
2. A =
−3 12
Solución.
Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos darán, respectivamente,
las soluciones del primer y segundo sistema, si existen, que a su vez nos darán, respecti-
vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de
esta matriz.
" # " #
1
2 −2 1 0 1 −1 2
0
[A|I2 ] = F1 → 21 F1
−3 4 0 1 → −3 4 0 1
" # " #
1 −1 12 0 1 0 2 1
F2 → F2 + 3F1 F1 → F1 + F2
→ 0 1 32 1 → 0 1 3 1
2
Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una
matriz cuadrada A es o no invertible, además, en caso afirmativo, nos permite hallar A−1 .
Paso 3. Si la matriz del Paso 2 es [In |B], entonces A es invertible y A−1 = B, sino A no es
invertible.
Solución.
2 0 3 1 1 0 0 0 1 −1 2 −2 0 0 1 0
−1 1 1 3 0 1 0 0 −1 1 1 3 0 1 0 0
F1 ↔ F3→
1 −1 2 −2 0 0 1 0 2 0 3 1 1 0 0 0
0 1 −1 2 0 0 0 1 0 1 −1 2 0 0 0 1
1 −1 2 −2 0 0 1 0
F2 → F2 + F1 0 0 3 1 0 1 1 0
→
F3 → F3 − 2F1 0 2 −1 5 1 0 −2 0
0 1 −1 2 0 0 0 1
1 −1 2 −2 0 0 1 0
0 1 −1 2 0 0 0 1
F2 ↔ F4
→ 0 2 −1 5 1 0 −2 0
0 0 3 1 0 1 1 0
Matrices y Sistemas de Ecuaciones Lineales 42
1 0 1 0 0 0 1 1
F1 → F1 + F2 0 1 −1 2 0 0 1 0
→
F3 → F3 + 2F2 0 0 1 1 1 0 −2 −2
0 0 3 1 0 1 1 0
1 0 0 −1 −1 0 3 3
F1 → F1 − F3
→ 1 0 −2 −1
0 1 0 3
F2 → F2 + F3
0 0 1 1 1 0 −2 −2
F4 → F4 − 3F3
0 0 0 −2 −3 1 7 6
1 0 0 −1 −1 0 3 3
0 1 0 3 1 0 −2 −1
F4 → − 12 F4
→ 0 0 1 1 1 0 −2 −2
3 1 7
0 0 0 1 2
− 2 − 2 −3
1 1 1
1 0 0 0 2
−2 −2 0
F1 → F1 + F4
→ 0 1 0 0 − 27 3 17
8
2 2
F2 → F2 − 3F4
0 0 1 0 −2 1 1 3
1
F3 → F3 − F4
2 2
3 1 7
0 0 0 1 2
− 2 − 2 −3
Luego A es invertible y
1
2
− 21 − 12 0 1 −1 −1 0
− 27 3 17
8 1 −7 3 17 16
2 2
A−1 = =
− 12 1 3
1 2 −1 1 3 2
2 2
3
2
− 21 − 72 −3 3 −1 −7 −6
El siguiente teorema nos será muy útil a la hora de saber si una matriz es o no invertible.
Teorema 1.21. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
1. A es invertible.
Demostración.
(1. ⇒ 2.) Supongamos que A es invertible. Entonces, por definición de matriz inversa, existe
A−1 ∈ Mn×n (R) tal que AA−1 = In = A−1 A
Sea b ∈ Mn×1 (R) cualquiera y consideremos el sistema Ax = b. Entonces A−1 (Ax) = A−1 b,
pero
(2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una única solución para cada b ∈ Mn×1 (R).
Entonces el sistema homogéneo Ax = 0/n×1 R tiene una única solución, pero sabemos que
x = 0/n×1 es solución de este sistema (observación 1.18), ası́ que la única solución de dicho
sistema es la solución trivial.
(3. ⇒ 4.) Supongamos que el sistema homogóneo Ax = 0/n×1 tiene como única solución la trivial.
0 · x1 + 0 · x2 + · · · + 0 · xn = 0
donde
x1
x
2
x= .
..
xn
y en consecuencia no aporta ninguna información a la solución del sistema Ax = 0/n×1 .
el cual, en virtud del teorema 1.15, tiene infinitas soluciones, de donde, el sistema Ax = 0/n×1
tiene infinitas soluciones, lo cual contradice la hipótesis, por lo tanto A es equivalente por
filas a In .
(4. ⇒ 5.) Supongamos que A es equivalente por filas a In . Entonces existen OEF f1 , f2 , . . . , fr :
Fn (R) → Fn (R) tales que
A = (f1 ◦ f2 ◦ · · · ◦ fr )(In )
A = E1 E2 · · · Er
(5. ⇒ 1.) Supongamos que A = E1 E2 · · · Er donde E1 , E2 , . . . , Er ∈ Mn×n (R) son matrices ele-
mentales. Dado que toda matriz elemental es invertible (teorema 1.20) y usando recursiva-
mente la parte 2 del teorema 1.19, se tiene que A es invertible.
Luego
Ası́ que la única solución del sistema homogéneo Bx = 0/n×1 es la trivial, y en virtud del teorema
1.21, B es invertible. Además
Por lo tanto BA = In (definición de inversa) y como consecuencia de la parte 1 del teorema 1.19
A−1 = (B −1 )−1 = B.
Observación 1.21. El teorema 1.22 nos permite garantizar que A−1 = B sólo con probar que
AB = In ó BA = In .
" #
a11 a12
Ejercicio 1.4. Pruebe que A = ∈ M2×2 (R) es invertible si y sólo si det(A) 6= 0.
a21 a22
" #
1 a22 −a12
Además, si A es invertible, entonces A−1 =
det(A) −a21 a11
Solución.
2 −3 −1
1 5 −6 5 −6 1
det(A) = |A| = −6 1
5 = 2 − (−3) + (−1)
0 6 −7 6 −7 0
−7 0 6
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2
Observación 1.23. Una forma muy sencilla recordar la fórmula de determinantes de orden 3
Matrices y Sistemas de Ecuaciones Lineales 47
es la siguiente
a11 a12 a13
ւ
ց ւ
ց
a21 a22 a23 = a a a +a a a +a a a
11 22 33 21 32 13 31 12 23
ւ
ց ւ
ց − a13 a22 a31 − a23 a32 a11 − a33 a12 a21
a31 a32 a33
ւ
ց ւ
ց
a11 a12 a13 no es parte del determinante, es sólo
←
ւ ց
para ayudar a recordar la fórmula
a21 a22 a23
Los productos generados por las flechas rojas (ց) se colocan con signo positivo, los que son
generados por las flechas azules (ւ) se colocan con signo negativo.
Puede verificar que la igualdad anterior es cierta. También se puede hacer el cálculo si en lugar
de colocar las dos primeras filas al final, se colocan las dos últimas filas en la parte superior, las
dos primeras columnas a la derecha o las dos últimas columnas a la izquierda.
Este método se conoce como la método de Sarrus para el cálculo de determinantes de orden
3 y sólo es aplicable a determinantes de orden 3.
Ejemplo 1.23. Calculemos el determinante del ejemplo 1.22 usando este método.
Solución.
2 −3 −1
−6 1 5 = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5 − (−1)1(−7) − 5 · 0 · 2 − 6(−3)(−6)
−7 0 6
2 −3 −1
−6 1 5
2 −3 −1
−6 1 5 = 12 + 0 + 105 − 7 − 0 − 108 = 2.
−7 0 6
Definición 1.18. Sea A =∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definamos la matriz MijA ∈
M(n−1)×(n−1) (R) que se obtiene de A al eliminar su i-ésima fila y su j-ésima columna, dicha
matriz es llamada ij-ésimo menor de A.
Solución.
−9 2 4 −9 −1 4 −9 −1 4
A
M23 =
1 6 −6
;
A
M42 =
0 −5 7
A
y M22 =
1 3 −6
−4 1 3 1 3 −6 −4 0 3
Definición 1.19. Sean A =∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-ésimo
cofactor de A como el número real CijA dado por
CijA = (−1)i+j det MijA
−9 2 4
A
C23 = (−1) det M23 = − 1 6 −6 = −(−162 + 4 + 48 + 96 − 54 − 6) = 74
2+3 A
−4 1 3
−9 −1 4
A
C42 = (−1)4+2 det M42
A
= 0 −5 7 = −270 + 0 − 7 + 20 + 189 − 0 = −68
1 3 −6
−9 −1 4
A
C22 = (−1)2+2 det M22
A
= 1 3 −6 = −81 + 0 − 24 + 48 − 0 + 3 = −54
−4 0 3
Matrices y Sistemas de Ecuaciones Lineales 49
Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la fórmula
dada en la definición 1.17 puede ser escrita como
A A A
det(A) = |A| = a11 C11 + a12 C12 + a13 C13
Solución.
−9 2 −1 4
0 8 −5 7
det(A) = |A| =
1 6 3 −6
−4 1 0 3
= (−9)(−1)1+1 det M11A
+ 2(−1)1+2 det M12 A
+ (−1)(−1)1+3 det M13
A
+4(−1)1+4 det M14 A
8 −5 0 8 −5
7 0 −5 7 0 8 7
= −9 6 3 −6 − 2 1 3 −6 − 1 6 −6 − 4 1 6 3
1 0 3 −4 0 3 −4 1 3 −4 1 0
= 2(−1)1+1 det M11 A
+ 0(−1)1+2 det M12 A
+ 0(−1)1+3 det A
M13
+0(−1)1+4 det M14 A
+ 0(−1)1+5 det M15 A
1 0 0 0
0 −3 0 0
= 2
−8 7 −1 0
6 −7 0 −6
−3 0 0 0 0 0
= 2 1+1
1(−1) 7 −1 0 + 0(−1)1+2 −8 −1 0
−7 0 −6 6 0 −6
0 −3 0 0 −3 0
1+3
+0(−1) −8 7 1+4
0 + 0(−1) −8 7 −1
6 −7 −6 6 −7 0
Matrices y Sistemas de Ecuaciones Lineales 51
−3 0 0
det(A) = 2 · 1 7 −1 0
−7 0 −6
!
−1 0 7 0 7 −1
= 2 · 1 (−3)(−1)1+1 + 0(−1)1+2 + 0(−1)1+3
0 −6 −7 −6 −7 0
−1 0
= 2 · 1(−3) = 2 · 1(−3)((−1)(−6) − 0 · 0)
0 −6
= 2 · 1(−3)(−1)(−6) = −36
La demostración del teorema que enunciaremos a continuación escapa del objetivo del curso,
por lo cual sólo lo enunciaremos, sin embargo, de este se derivan el resto de las propiedades que
serán enunciadas más adelante.
Ejemplo 1.28. Calcular el determinante de la matriz A del ejemplo 1.22 al desarrollar el de-
terminante mediante la tercera fila y mediante la segunda columna.
Teorema 1.24. Si A = (aij )n×n ∈ Mn×n (R) una matriz triangular (superior o inferior), en-
tonces det(A) = a11 a22 · · · ann .
Solución. Procedamos por inducción sobre n. Supongamos, sin perder generalidad que A es
una matriz triangular superior.
Verifiquemos que la tesis se cumple para n = 2. Sea
" #
a11 a12
A=
0 a22
Entonces
det(A) = a11 a22 − a12 · 0 = a11 a22
Supongamos ahora que la tesis se cumple para n − 1, esto es, supongamos que para cualquier
matriz triangular superior A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R) se cumple que det(A) =
a11 a22 · · · a(n−1)(n−1) (Hipótesis Inductiva).
Probemos ahora que se cumple para n. Sea
a11 a12 · · · a1n
0 a
22 · · · a2n
A= . . ..
.. .. ... .
0 · · · 0 ann
A A A
det(A) = 0 · Cn1 + · · · + 0 · Cn(n−1) + ann Cnn = ann (−1)n+n det(Mnn
A A
) = ann det Mnn
Matrices y Sistemas de Ecuaciones Lineales 53
Pero
a11 a12 · · · a1(n−1)
0 a22 · · · a2(n−1)
A
Mnn = .. .. .. ..
. . . .
0 ··· 0 a(n−1)(n−1)
A
es decir, Mnn es una matriz triangular superior de orden (n−1), por lo tanto, usando la Hipótesis
A
Inductiva, se tiene que det Mnn = a11 a22 · · · a(n−1)(n−1) . Luego
Teorema 1.25. Si A ∈ Mn×n (R), entonces det AT = det(A).
Demostración. ¡Ejercicio!
Sugerencia: proceder por inducción sobre n y usar el teorema 1.23
Los teoremas que enunciaremos a continuación, nos presentan las propiedades básicas del
determinante, estas propiedades nos permitirán hallar el determinante de una matriz sin hacer
demasiados cálculos. Los enunciados de estas propiedades se darán sólo para filas, sin embargo,
en virtud del teorema 1.25, se pueden enunciar propiedades análogas para columnas.
Teorema 1.26. Sea A ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.
Demostración. Sea A = (aij )n×n . Como A(s) = 0/1×n , entonces asj = 0 para cada j ∈ {1, . . . , n}.
Ası́ que, al desarrollar el determinante de A por medio de la fila s, se tiene que
n
X n
X
A A
det(A) = asj Csj = 0 · Csj =0
j=1 j=1
Teorema 1.27. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = αA(s)
y B(i) = A(i) para i 6= s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A
por un escalar α, entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por α.
Matrices y Sistemas de Ecuaciones Lineales 54
Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = αA(s) y B(i) = A(i) para i 6= s,
entonces bsj = αasj para cada j ∈ {1, . . . , n} y además, la matriz que se obtiene al eliminar la
A B
fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego Msj = Msj para
cada j ∈ {1, . . . , n} (¿por qué?).
Por lo tanto
B
Csj = (−1)s+j det(Msj
B
) = (−1)s+j det(Msj
A A
) = Csj
Teorema 1.28. Sean A, B, C ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i 6= s, entonces det(C) = det(A) + det(B), dicho de otra manera, si
tenemos tres matrices A, B, C cuyas filas son idénticas excepto la fila s, y que la fila s de C es
igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.
Demostración. Sean A = (aij )n×n , B = (bij )n×n y C = (cij )n×n . Sean A, B, C ∈ Mn×n (R).
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i 6= s, entonces csj = asj + bsj para cada
Matrices y Sistemas de Ecuaciones Lineales 55
Teorema 1.29. Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i 6= s y i 6= t, entonces det(B) = − det(A), en otras palabras,
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por −1.
Teorema 1.30. Sea A ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.
Demostración. Sea B ∈ Mn×n (R) la matriz que se obtiene al intercambiar las filas s y t de A.
Como A(s) = A(t) , entonces B = A y ası́ det(B) = det(A).
Por otro lado, dado que s 6= t y según el teorema 1.29, det(B) = − det(A).
Ası́ que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.
Demostración. Sea B ∈ Mn×n (R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i 6= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.30, se tiene que det(B) = 0.
Por otro lado, como A(s) = αA(t) = αB(t) = αB(s) , entonces, usando el teorema 1.27, se tiene
que det(A) = α det(B) = α0 = 0.
Demostración. Sea C ∈ Mn×n (R) tal que C(i) = B(i) = A(i) para i 6= s y C( s) = αA(t) . Por lo
tanto, dado que s 6= t y en virtud del teorema 1.31, det(C) = 0.
Además, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 1.28
El siguiente ejemplo nos da un método para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el cálculo resulta
mucho más sencillo que al usar la definición.
Como se dijo en la observación 1.13, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el cálculo de determinantes, estas operaciones las indicaremos de manera
análoga a las OEF, salvo que en lugar de usar F usaremos C.
Solución.
6 −1 2 13 2 6 −1 2 10 2
−1 0 −1 −3 −1 −1 0 −1 −3 −1 !
C4 → C4 + 3C2
det(A) = 0 −3 0 9 0 = 0 −3
0 0 0
por teorema 1.32
7 1 3 12 3 7 1 3 15 3
0 −2 4 1 −3 0 −2 4 −5 −3
Matrices y Sistemas de Ecuaciones Lineales 59
6 2 10 2
!
−1 −1 −3 −1 desarrollando el determinante
3+2
det(A) = −3(−1)
7 3 15 3 mediante la tercera fila
0 4 −5 −3
0 −4 −8 −4
F1 → F1 + 6F2
−1 −1 −3 −1
= 3 F3 → F3 + 7F2
0 −4 6 −4
por teorema 1.32
0 4 −5 −3
−4 −8 −4 !
desarrollando el determinante
= 3(−1)(−1)2+1 −4 6 −4
mediante la primera columna
4 −5 −3
0 −13 −7 F1 → F1 + F3
= 3 0 1 −7 F 2 → F 2 + F 3
4 −5 −3 por teorema 1.32
!
−13 −7 desarrollando el determinante
= 3 · 4(−1)3+2
1 −7 mediante la primera columna
= −12(−13(−7) − (−7)1) = −12 · 98 = −1176
Resuelva este ejercicio usando el desarrollo del determinante por cofactores y compare ambos
métodos ¿cuál de los dos le parece más sencillo?
Teorema 1.33 (Regla de Cramer). Sea A ∈ Mn×n (R) una matriz invertible y b ∈ Mn×1 (R). Si
Matrices y Sistemas de Ecuaciones Lineales 60
x1
x2 det(Abj )
x = . es la solución de la ecuación Ax = b, entonces, para cada j ∈ {1, . . . , n}, xj = ,
.. det(A)
xn
donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es,
h i
Abj = A(1) · · · A(j−1) b A(j+1) · · · A(n)
Demostración. Como A = (aij )n×n es invertible, entonces la única solución del sistema Ax
=b
b1
1 1 b
−1 −1 2
es x = A b, pero A = adj(A), ası́ que x = adj(A)b, por lo tanto, si b = . ,
det(A) det(A) ..
bn
X n
1
entonces xj = C A bi para cada j ∈ {1, . . . , n}.
det(A) i=1 ij
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que
a11 ··· a1(j−1) b1 a1(j+1) ··· a1n
.. .. .. .. ..
. . . . .
a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n
Abj = ai1 ··· ai(j−1) bi ai(j+1) ··· ain
a · · · a b a · · · a
(i+1)1 (i+1)(j−1) i+1 (i+1)(j+1) (i+1)n
.. .. .. .. ..
. . . . .
an1 ··· an(j−1) bn an(j+1) ··· ann
Ab
Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que Mij j = MijA y ası́
Ab
Ab
Cij j = (−1)i+j det Mij j = (−1)i+j det MijA = CijA
1 3 2 −1 1 3 2 −1 −1
0 2
1 2 2 1 0 −1 0 2
b
det A2 = = = −11 −6 1
4 1 2 −3 0 −11 −6 1
1 1 4
0 1 1 4 0 1 1 4
−1 0 0
−6 −21
= −11 −6 −21 = − = −(−36 + 21) = 15.
1 6
1 1 6
1 0 3 −1 1 0 2 −1 1 −1 2 1 −1
2
1 1 2 1 0 1 −1 2
det Ab3 = = = 2 −11 1 = 0 −9 −3
4 2 1 −3 0 2 −11 1
2 1 4 0 3 0
0 2 1 4 0 2 1 4
−9 −3
= = 9.
3 0
1 0 2 3 1 0 2 3 1 1
0 −1 0 0
1 1 2 2 0 1 0 −1
b
det A4 = = = 2 −6 −11 = 2 −6 −9
4 2 2 1 0 2 −6 −11
2 1 1 2 1 3
0 2 1 1 0 2 1 1
−6 −9
= = −18 + 9 = −9.
1 3
det Ab1 −18 det Ab2 15 det Ab3 9
En consecuencia x = = = −6; y = = = 5; z = = = 3;
det(A) 3 det(A) 3 det(A) 3
b
det A4 −9
w= = = −3, es decir, la solución del sistema dado es:
det(A) 3
x −6
y 5
=
z 3
w −3
Ejemplo 1.37. Una fábrica produce tres tipos de productos, mezclando para ello tres materias
primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de de la
Matrices y Sistemas de Ecuaciones Lineales 63
materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para
fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la
materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades
de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la
fábrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de
la materia prima 2 y seis millones de la materia prima 3 ¿cuántas unidades de cada producto
puede producir la fábrica usando el total de las materias primas?
Solución. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fábrica.
Por lo tanto, la cantidad de unidades (en millones) que se usarán es:
x1 + x2 + 3x3 de la materia 1
En este caso, la matriz del sistema, la matriz de incógnitas y la matriz de términos indepen-
dientes son, respectivamente:
1 1 3 x1 6
A=
3 3 3 ; x=
x2 y b=
12
2 0 2 x3 6
Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la
matriz del sistema.
1 1 3 1 1 3
0 −6
det(A) = 3 3 3 = 0 0 −6 = −
= −12 6= 0.
2 2
2 0 2 2 0 2
Como la matriz del sistema es invertible, podemos usar la regla de Cramer.
6 1 3 6 1 3
−6 −6
det Ab1 = 12 3 3 = −6 0 −6 = − = −(−12 + 36) = −24.
6 2
6 0 2 6 0 2
Matrices y Sistemas de Ecuaciones Lineales 64
1 6 3 1 6 3
−6 −6
det A2 = 3 12 3 = 0 −6
b
−6 =
= 24 − 36 = −12.
−6 −4
2 6 2 0 −6 −4
1 1 6 1 1 6
0
−6
b
det A3 = 3 3 12 = 0 0 −6 = − = −12.
2 6
2 0 6 2 0 6
−24 −12 −12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
−12 −12 −12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millón de
unidades de cada uno de los productos 2 y 3.
Capı́tulo 2
Espacios Vectoriales
Este es, quizás, el capı́tulo más importante de todo el curso, por lo cual pedimos sea leı́do con
mucho detenimiento, la mayor parte de las definiciones y teoremas tratados acá se usarán con
bastante frecuencia en el resto de los capı́tulos.
A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento
neutro para la adición vectorial)
65
Espacios Vectoriales 66
Observación 2.1. Es de hacer notar que las expresiones a la izquierda de las igualdades en
M1. y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operación + tiene mayor
jerarquı́a que la operación ·, esto es, (α · u) + v puede ser escrito como α · u + v pero en la
expresión α · (u + v) no pueden suprimirse los paréntesis.
Observación 2.3. En adelante, siempre que no haya error a confusión, en lugar de escribir
α · v escribiremos αv.
Observación 2.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se
tienda a confusión, en lugar de la terna (V, +, ·), sobrentendiendo las operaciones + y ·
Ejemplo 2.1.
1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R para cada i ∈ {1, . . . , n}} junto con las opera-
ciones + y · dadas como sigue
Espacios Vectoriales 67
2. El conjunto Mm×n (R) junto con las operaciones + y ·, dadas en las definiciones 1.4 y 1.5
respectivamente, del capı́tulo 1, es un espacio vectorial (ver el teorema 1.2 en el capı́tulo 1)
junto con las operaciones + y · definidas en el capı́tulo 1, son espacios vectoriales (¡pruébe-
lo!)
4. Sea n ∈ N. Definamos
Pn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ R}
Es decir, Pn [x] está formado por todos los polinomios con coeficientes reales en la variable
x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las
operaciones usuales de adición de polinomios y multiplicación de un número real por un
polinomio. Entonces Pn [x] es un espacio vectorial (¡pruébelo!)
entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas
(¡pruébelo!)
Es de hacer notar que el polinomio nulo O(x) = 0 ¡no tiene grado! (¿por qué?), además,
para cada n ∈ N se tiene que Pn [x] 6= ∅ (¿por qué?) y Pn [x] ⊂ Pn+1 [x] ⊂ P[x] (¿por qué?)
6. El conjunto
V = {(x, y) ∈ R2 : y = x + 1}
junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio vectorial
ya que (2, 3), (0, 1) ∈ V (¿por qué?) pero
(x, y) + (z, w) = (x + z, y + w − 1)
entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) ∈ V y α, β ∈ R
cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.
De donde
y + w − 1 = x + 1 + z + 1 − 1 = (x + z) + 1
y por lo tanto
(x, y) + (z, w) = (x + z, y + w − 1) ∈ V
cumpliéndose A0.
Además
Verifique que se cumple el resto de la propiedades en la definición 2.1. ¿Qué podrı́a concluir
a partir de este ejemplo?
7. Dado un espacio vectorial V. Es fácil probar que el conjunto {0/V }, junto con las operaciones
+ y · definidas sobre V, es un espacio vectorial.
Teorema 2.1. Los elementos 0/V y v ′ dados en A3. y A4. respectivamente, son los únicos
elementos de V que satisfacen dichas propiedades.
Demostración. Supongamos que existe x ∈ V tal que v + x = v para cada v ∈ V. Luego, para
v = 0/V ∈ V, se tiene que
0/V +x = 0/V (2.1)
Por lo tanto
v + v ′ = 0/V (2.2)
v+b
v = 0/V (2.3)
Espacios Vectoriales 70
Luego
v = b
b v + 0/V (por A3.)
v + (v + v ′ ) (por 2.2)
= b
v + v) + v ′
= (b (por A2.)
v) + v ′
= (v + b (por A1.)
= 0/V +v ′ (por 2.3)
= v ′ + 0/V (por A1.)
= v′ (por A3.)
Observación 2.5. Al vector 0/V se le denomina vector nulo y el vector v ′ es llamado opuesto
(aditivo) de v y es denotado por −v.
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como
sigue.
A’3. Existe un único 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia y unicidad
del elemento neutro para la adición vectorial)
A’4. Para cada v ∈ V existe un único −v ∈ V tal que v + (−v) = v − v = 0/V (existencia
y unicidad del elemento opuesto para la adición vectorial)
1. (α1 + α2 + · · · + αn )v = α1 v + α2 v + · · · + αn v
Demostración.
2. ¡Ejercicio!
Si α = 0, no hay nada que probar, supongamos entonces que α 6= 0 y probemos que v = 0/V .
Por ser α 6= 0, existe α−1 ∈ R tal que α−1 α = 1 = αα−1 . Por lo tanto
v = 1v (por M4.)
= (α−1 α)v
= α−1 (αv) (por M3.)
= α−1 0/V (por hipótesis)
= 0/V (por la parte 1)
Luego, por A’4. (unicidad del opuesto aditivo), se tiene que (−α)v = −(αv). De manera
análoga se prueba que α(−v) = −(αv).
Observación 2.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir
−αv en lugar de −(αv) sin error a confusión.
Ejemplo 2.2.
2. Dada una matriz real A ∈ Mm×n (R). Los espacios S y R, dados en la parte 3 del ejemplo
2.1, son subespacios de Mn×1 (R) y Mm×1 (R) respectivamente.
3. De la parte 4 del ejemplo 2.1 podemos garantizar que para cada n ∈ N se tiene que Pn [x]
es un subespacio de Pn+1 [x] y de P[x].
4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].
Finalmente, no es difı́cil probar que el resto de las propiedades en la definición 2.1 son
satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ].
Antes de dar algún otro ejemplo de subespacio vectorial, debemos hacer notar que en realidad,
para probar que un subconjunto no vacı́o de un espacio vectorial es un subespacio de este último,
sólo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente
teorema.
1. W 6= ∅.
1. W 6= ∅.
2. u + αv ∈ W para cualesquiera α ∈ R y u, v ∈ W.
1. 0/V ∈ W.
Observación 2.9. Recordemos que para probar que los conjuntos S y R, definidos en la parte 3
del ejemplo 2.1, son subespacios de Mn×1 (R) y Mm×1 (R), respectivamente (ver parte 2 del ejemplo
2.2), fue necesario probar que eran espacios vectoriales (se dejá com ejercicio), sin embargo, al
usar el teorema 2.3 o el corolario 2.4, vemos que no es necesario. En la sección 2.6 del presente
capı́tulo se dará una demostración de este hecho usando el corolario 2.4.
Además
A + B = {a + b : a ∈ A y b ∈ B}
Ejercicio 2.4. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 ∩W2 = {0/V }
y V = W1 + W2 . Pruebe que para cada v ∈ V existen únicos vectores w1 ∈ W1 y w2 ∈ W2 tales
que v = w1 + w2 .
v = α1 v1 + α2 v2 + · · · + αn vn
Observación 2.10. En la definición 2.4, podemos escoger una cantidad infinita de vectores en
V, en lugar de v1 , v2 , . . . , vn ∈ V, para definir combinación lineal (ver apéndice ??)
Ejemplo 2.4.
1. El ejemplo hecho al comienzo de la sección nos dice que cualquier matriz real cuadrada de
orden 2 es combinación lineal de las matrices
" # " # " # " #
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1
(¡verifı́quelo!)
(¿verifı́quelo!)
(9, 5, 6) = α1 (3, −2, 6) + α2 (−1, −3, 2) = (3α1 − α2 , −2α1 − 3α2 , 6α1 + 2α2 )
de donde
3α1 −α2 = 9
−2α1 −3α2 = 5
6α1 +2α2 = 6
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es
3 −1 9
−2 −3 5
6 2 6
Ejemplo 2.6. Consideremos los polinomios p(x) = −5 − 4x + 9x2 , p1 (x) = 2 − x + 2x2 , p2 (x) =
2 − 2x + 6x2 y p3 (x) = x − 4x2 ¿Es p combinación lineal de p1 , p2 y p3 ?
Espacios Vectoriales 79
Solución. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta
es sı́, entonces existen α1 , α2 , α3 ∈ R tales que p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x), esto es,
por lo tanto, el sistema original no tiene solución (¿por qué?), en consecuencia, p no es combi-
nación lineal de p1 , p2 y p3 .
Si consideramos el polinomio p4 (x) = 1 − 2x + 3x2 ¿Es p combinación lineal de p1 , p2 , p3 y p4 ?
Ejercicio 2.6. Pruebe que si A, B ∈ Mm×n (R) son equivalentes por filas, entonces cada fila de
B es combinación lineal de las filas de A y viceversa.
gen({v1 , v2 , . . . , vn }) =
{w ∈ V : w = α1 v1 + α2 v2 + · · · + αn vn para algunos escalares α1 , α2 , . . . , αn ∈ R}
Ejemplo 2.7.
Espacios Vectoriales 80
Mm×n (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn })
2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, −2, 6), (−1, −3, 2)}) (ver ejemplo 2.5)
−5 − 4x + 9x2 ∈
/ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 })
Solución. Nótese primero que a + bx + cx2 ∈ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) si y sólo
si existen escalares α1 , α2 , α3 ∈ R tales que
Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solución
si y sólo si a + 4b + c = 0.
En consecuencia
u = α1 v1 + α2 v2 + · · · + αn vn y v = β1 v1 + β2 v2 + · · · + βn vn
Por lo tanto
u + αv = (α1 v1 + α2 v2 + · · · + αn vn ) + α(β1 v1 + β2 v2 + · · · + βn vn )
= (α1 + αβ1 )v1 + (α2 + αβ2 )v2 + · · · + (αn + αβn )vn
Espacios Vectoriales 82
Ejemplo 2.9. Por la parte 1 del ejemplo 2.7 podemos decir que:
1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan
a Mm×n (R).
Ejemplo 2.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3
o equivalentemente (
1
a = 3
c +d
11
b = 3
c +d
Haciendo c = 3α y d = β, con α, β ∈ R, obtenemos
a + bx + cx2 + dx3 = (α + β) + (11α + β)x + 3αx2 + βx3 = α(1 + 11x + 3x2 ) + β(1 + x + x3 )
Luego
W = gen({1 + 11x + 3x2 , 1 + x + x3 })
En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W.
en consecuencia
v ∈ gen({v1 , v2 , . . . , vn })
por lo tanto
gen({v1 , v2 , . . . , vn , u}) ⊂ gen({v1 , v2 , . . . , vn }) (2.4)
Por otro lado, sea v ∈ gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen α1 , α2 , . . . , αn ∈ R
tales que v = α1 v1 + α2 v2 + · · · + αn vn ası́ que
v = α1 v1 + α2 v2 + · · · + αn vn = α1 v1 + α2 v2 + · · · + αn vn + 0/V = α1 v1 + α2 v2 + · · · + αn vn + 0u
entonces
" # " # " # " #
0 0 0 1 0 −2 2 −3 −4 −4 9 8
= 2 · A1 − 3 · A2 − A3 = 2 · −3· −
0 0 0 −2 5 −3 −1 1 0 −1 7 −6
En conclusión, la única manera de escribir al vector nulo, como combinación lineal de una
cantidad de vectores, no necesariamente es única.
Estos dos ejemplos dan pie a la siguiente definición.
Ejemplo 2.11.
1. Según el ejemplo dado previamente a la definición 2.7, se tiene que A1 , A2 , A3 son lineal-
mente dependientes.
Espacios Vectoriales 85
{1, x, . . . , xn }, {e1 , e2 , . . . , en } y
es decir, en un espacio vectorial, cualquier conjunto de vectores que contenga al vector nulo,
es linealmente dependiente.
Antes de dar algún otro ejemplo, debemos hacer notar que para determinar si un conjunto de
vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
debemos plantearnos la ecuación α1 v1 + α2 v2 + · · · + αn vn = 0/V , la cual conduce, en general, a
un sistema de ecuaciones homogéneo con n incógnitas, a saber, α1 , α2 , . . . , αn . Si la solución de
este sistema es única, y en consecuencia α1 = α2 = · · · = αn = 0, entonces {v1 , v2 , . . . , vn } es un
conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente
dependiente.
Ejemplo 2.12. Consideremos los vectores p1 , p2 , p3 , p4 ∈ P2 [x] dados en el ejemplo 2.6. Decidir
si estos vectores son o no linealmente independientes.
Pero
El cual sabemos tiene infinitas soluciones (¿por qué?) y en consecuencia los polinomios p1 , p2 , p3 , p4
son linealmente dependientes.
Ejemplo 2.13. Consideremos los polinomios p1 , p2 , p4 del ejemplo anterior ¿son linealmente
independientes?
Obteniendo el sistema
2α1 +2α2 +α4 = 0
−α1 −2α2 −2α4 = 0
2α +6α +3α = 0
1 2 4
De donde
α1 = α2 = α4 = 0
En consecuencia la ecuación 2.6 tiene como única solución la trivial y por lo tanto p1 , p2 , p4 son
linealmente independientes.
De donde
5α1 +3α2 +α3 = 0
4α
1 −α2 −α3 = 0
2α1 +α2 −4α3 = 0
−α +3α +5α
1 2 3 = 0
Resolvamos este sistema. La matriz del sistema es
5 3 1
4 −1 −1
2 1 −4
−1 3 5
Hallemos su FERF.
5 3 1 1 4 2 1 4 2
F2 → F2 − 4F1
4 −1 −1 4 −1 −1 → 0 −17 −9
F
1 → F1 − F2 F3 → F3 − 2F1
2
1 −4 → 2 1 −4 0 −7 −8
F4 → F4 + F1
−1 3 5 −1 3 5 0 7 7
1 4 2 1 4 2 1 0 −2
F1 → F1 − 4F2
0 7 7 0 1 1 → 0 1 1
1
F2 ↔ F4 F
2 → F
7 2 F3 → F3 + 7F2
→ 0 −7 −8 → 0 −7 −8 0 0 −1
F → F + 17F
4 4 2
0 −17 −9 0 −17 −9 0 0 8
Espacios Vectoriales 88
1 0 −2 1 0 0
F1 → F1 + 2F3
0 1 1 → 0 1 0
F3 → −F3 F 2 → F 2 − F3
→ 0 0 1 0 0 1
F → F − 8F
4 4 3
0 0 8 0 0 0
Teorema 2.8. Sean V un espacio vectorial y u, v ∈ V. Los vectores u, v son linealmente depen-
dientes si y sólo si existe α ∈ R tal que u = αv ó v = αu.
Teorema 2.9. Sea A ∈ Mm×n (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
dependientes en Mm×1 (R) si y sólo si el sistema Ax = 0/m×1 tiene soluciones no triviales.
Demostración. Sea A ∈ Mm×n (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes
si y sólo si existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que
Corolario 2.10. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
1. det(A) 6= 0.
Demostración. ¡Ejercicio!
Corolario 2.11. Sea A ∈ Mm×n (R). Si F es la FERF de A, entonces las columnas de F con
los pivotes, representan las filas de A que son linealmente independientes.
Demostración. ¡Ejercicio!
α1 v1 + α2 v2 + · · · + αn vn + αu = 0/V
Si α 6= 0, entonces
α α α
1 2 n
u= − v1 + − v2 + · · · + − vn
α α α
lo que contradice la hipótesis de que u ∈
/ gen({v1 , v2 , . . . , vn }). Por lo tanto α = 0, de donde
α1 v1 + α2 v2 + · · · + αn vn = 0/V
3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador de
Mm×n (R) y es linealmente independiente.
Conjuntos con estas caracterı́sticas nos son de mucha utilidad en el estudio de los espacios
vectoriales y dan pie a la siguiente definición.
Observación 2.12. Si V = {0/V } es el espacio nulo, entonces una base de V, de hecho la única
base de V, es el conjunto vacı́o ∅ = {}
Ejemplo 2.15.
3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mm×n (R).
Cada una de estas bases es llamada base canónica o estándar del correspondiente espacio.
Ejemplo 2.16. Ningún conjunto finito de polinomios en x es una base de P[x], en efecto, consi-
deremos un conjunto finito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces
para cualesquiera α1 , α2 , . . . , αn ∈ R tenemos que α1 p1 (x)+α2 p2 (x)+· · ·+αn pn (x) es un polinomio
a lo sumo de grado k, donde k es el máximo entre los grados de los polinomios p1 , p2 , . . . , pn ,
es decir, cualquier combinación lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo
Espacios Vectoriales 91
{1, x, x2 , . . . , xn , . . .}
Ejemplo 2.18. Considere los polinomios p1 , p2 , p4 ∈ P2 [x] del ejemplo 2.13. Pruebe que β =
{p1 , p2 , p4 } es una base de P2 [x].
P2 [x] cualquiera, queremos probar que la ecuación α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = p(x) tiene
solución para α1 , α2 , α4 ∈ R. Pero dicha ecuación es equivalente al sistema de ecuaciones
2α1 +2α2 +α4 = a
−α1 −2α2 −2α4 = b (¡verifı́quelo!)
2α +6α +3α = c
1 2 4
Ejemplo 2.19. Considere los polinomios p1 , p2 , p3 , p4 del ejemplo 2.12. Entonces {p1 , p2 , p3 , p4 }
no es una base de P2 [x], por ser linealmente dependiente, sin embargo es un conjunto generador
de P2 [x]. El conjunto {p1 , p2 } tampoco es una base de P2 [x], por no ser un conjunto generador de
P2 [x], pero es linealmente independiente.
La unicidad de los escalares en el ejemplo 2.18 es una regla la cual enunciaremos en el siguiente
teorema.
Teorema 2.13. Sea β = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada
v ∈ V existen únicos escalares α1 , α2 , . . . , αn ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn .
v = α1 v1 + α2 v2 + · · · + αn vn y v = λ1 v1 + λ2 v2 + · · · + λn vn
Luego
0/V = v − v
= (α1 v1 + α2 v2 + · · · + αn vn ) − (λ1 v1 + λ2 v2 + · · · + λn vn )
= (α1 − λ1 )v1 + (α2 − λ2 )v2 + · · · + (αn − λn )vn
Espacios Vectoriales 93
α1 − λ1 = α2 − λ2 = · · · = αn − λn = 0
es decir,
α1 = λ1 , α2 = λ2 , · · · , αn = λn
Nótese que hemos hallado dos bases de P2 [x], a saber la base canónica βc = {1, x, x2 } y la base
β = {p1 , p2 , p4 } del ejemplo 2.18, y ambas tienen la misma cantidad de vectores, en este caso 3,
esta situación no es para nada casual, como veremos en el siguiente teorema.
Demostración. Supongamos que m < n. Dado que β2 es una base de V, entonces, para cada
j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que
λ1 u1 + λ2 u2 + · · · + λn un = 0/V
Luego
Pero β2 = {v1 , v2 , . . . , vm } es linealmente independiente, por ser una base de V, ası́ que
α11 λ1 + α12 λ2 + · · · + α1n λn = 0
α λ +α λ +···+α λ
21 1 22 2 2n n = 0
.
.. .
.. .
.. .. ..
. .
α λ +α λ +···+α λ = 0
m1 1 m2 2 mn n
Espacios Vectoriales 94
λ1 u1 + λ2 u2 + · · · + λn un = 0/V
Definición 2.9. Sea V un espacio vectorial. Diremos que V tiene dimensión cero ó dimen-
sión nula si V = {0/V }, diremos que la dimensión de V es n si V tiene una base con n elementos,
en ambos casos diremos que V tiene dimensión finita. Si V no posee una base finita, diremos
que V tiene dimensión infinita. En todos los casos la dimensión de V se denota por dim(V).
Ejemplo 2.20.
1. Del ejemplo 2.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mm×n (R)) = mn y
dim(Rn ) = n.
1. Suponga que m > n y haga una prueba análoga a la del teorema 2.14.
2. ¿Ejercicio!
Demostración. ¡Ejercicio!
Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el
teorema 2.7 y para la parte 2 use el teorema 2.12.
Observación 2.14. Todo espacio vectorial que contenga un subespacio de dimensién infinita,
es también de dimensión infinita.
Ejemplo 2.21. Sean a, b ∈ R cualesquiera. Entonces P[x] puede verse como un subespacio de
C [ a , b ] (¿por qué?) y como P[x] tiene dimensión finita (ver parte 3 de ejemplo 2.20), entonces,
por la observación 2.14, C [ a , b ] de dimensión infinita.
Demostración.
Espacios Vectoriales 96
Si S genera a V, entonces S es una base de V, ası́ que β = S es una base de V que contiene
a S. De lo contrario, existe un vector vm+1 ∈ V tal que vm+1 ∈
/ gen({v1 , v2 , . . . , vm }). Luego
{v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 2.12.
2. ¡Ejercicio!
Observación 2.15. Notemos que por definición y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R) tal
que Ax = y.
Antes de dar algún ejemplo enunciaremos el teorema que permite garantizar que N(A) e Im(A)
son subespacios.
Teorema 2.19. Sea A ∈ Mm×n (R) cualquiera. Entonces N(A) es un subespacio de Mn×1 (R) e
Im(A) es un subespacio de Mm×1 (R).
Demostración. Sólo probaremos que Im(A) es un subespacio de Mm×1 (R), se deja como ejer-
cicio probar que N(A) es un subespacio de Mn×1 (R).
Notemos primero que por definición Im(A) ⊂ Mm×1 (R). Por otro lado, como A 0/n×1 = 0/m×1 ,
entonces 0/m×1 ∈ Im(A).
Finalmente, sean α ∈ R y y1 , y2 ∈ Im(A) cualesquiera. Entonces existen x1 , x2 ∈ Mn×1 (R)
tales que Ax1 = y1 y Ax2 = y2 . Queremos probar que y1 + αy2 ∈ Im(A).
Escojamos x = x1 + αx2 . Entonces x ∈ Mn×1 (R) (¿por qué?) y además
Definición 2.11. Dada una matriz A ∈ Mm×n (R). Definiremos la nulidad de A como el
número natural n(A) = dim(N(A)) y el rango de A como el número natural r(A) = dim(Im(A)).
Solución. Para hallar el núcleo de A, N(A), necesitamos resolver el sistema Ax = 0/m×1 . Para
ello debemos hallar la FERF de A.
2 −3 7 −18 0 −3 3 −12
F1 → F1 + F2
A= 6 → −2
−2 0 −4 0 −4 6
F3 → F3 + F2
2 −9 13 −42 0 −9 9 −36
Espacios Vectoriales 98
0 −3 3 −12 0 1 −1 4
F2 → − 21 F2
→ 1 0 2 −3 F1 → − 1
F1
1 0 2 −3
3
→
F3 → F3 − 3F1
0 0 0 0 0 0 0 0
1 0 2 −3
F1 ↔ F2 4
→ 0 1 −1
0 0 0 0
x1
x
2
Ası́ que ∈ N(A) si y sólo si
x3
x4
(
x1 +2x3 −3x4 = 0
x2 −x3 +4x4 = 0
o bien (
x1 = −2x3 + 3x4
x2 = x3 − 4x4
De donde
x1 −2x3 + 3x4 −2 3
x x − 4x
2 3 4 1 −4
= = x3 + x4
x3 x3 1 0
x4 x4 0 1
Por lo tanto
−2 3
1 −4
N(A) = gen ,
1 0
0 1
No es difı́cil probar que el conjunto
−2 3
1 −4
,
1 0
0 1
es linealmente independiente (¡pruébelo!) y por lo tanto es una base de N(A). Ası́ que n(A) = 2.
Espacios Vectoriales 99
x1
y1
x2
Por otro lado, sea y =
y2 ∈ M3×1 (R). Entonces y ∈ Im(A) si y sólo si existe x = ∈
x3
y3
x4
M4×1 (R) tal que Ax = y, es decir, y ∈ Im(A) si y sólo si el sistema Ax = y tiene solución.
Resolvamos entonces este sistema, la matriz ampliada de este sistema es
2 −3 7 −18 y1
[A|y] =
−2 0 −4 6 y 2
2 −9 13 −42 y3
o equivalentemente
y3 = 3y1 + 2y2
En consecuencia
y1 y1 1 0
y=
y2 = y2 = y1 0 + y1 1
y3 3y1 + 2y2 3 2
y por lo tanto
1 0
Im(A) = gen
0 , 1
3
2
Al igual que antes, no es difı́cil probar que
1 0
0 , 1
3
2
Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A están en las
columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,
2 −3
−2 , 0
2 −9
Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A).
Paso 2. La matriz hallada en el paso anterior, nos permite escribir la solución del sistema
Ax = 0/m×1 como combinación lineal de ciertos vectores, dichos vectores forman un
base para N(A).
Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan
las columnas de A que forman una base para Im(A).
Consideremos una matriz A ∈ Mm×n (R). Denotaremos por C(A) al espacio generado por las
columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio
generado por las filas de A, el cual es llamado espacio fila de A, esto es
y
R(A) = gen({A(1) , A(2) , . . . , A(m) })
Teorema 2.20. Si A, B ∈ Mm×n (R) son tales que A y B son equivalentes por filas, entonces
1. C(A) = Im(A).
2. R(A) = R(B).
5. r(A) + n(A) = n.
Demostración.
1. Por definición de Im(A) sabemos que y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R) tal que
Ax = y.
Espacios Vectoriales 102
x1
x2
Si hacemos x = . , entonces
..
xn
2. Como A y B son equivalentes por filas, entonces cada fila de B es combinación lineal de
las filas de A y viceversa (ver ejercicio 2.6), es decir, para cada i ∈ {1, . . . , m} se tiene que
B(i) ∈ gen({A(1) , A(2) , . . . , A(m) }) y A(i) ∈ gen({B(1) , B(2) , . . . , B(m) }). En consecuencia
R(A) = R(B)
3. Sea F ∈ Mm×n (R) la FERF de A. Entonces las filas no nulas de F son linealmente indepen-
dientes (¿por qué?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el
número de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 R(A) = R(F ),
ası́ que dim(R(A)) = dim(R(F )) = k.
Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son
linealmente independientes (en virtud del corolario 2.11) y que en consecuencia forman una
base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) =
k = dim(R(A)) y por la parte 1 tenemos que
4. ¡Ejercicio!
5. ¡Ejercicio!
Demostración. ¡Ejercicio!
Espacios Vectoriales 103
Corolario 2.22. Sea AMm×n (R). Entonces las siguientes condiciones son equivalentes
2. b ∈ C(A).
3. r([A|b]) = r(A).
Demostración. ¡Ejercicio!
Ejemplo 2.23. Hallar el espacio fila, el espacio columna, el espacio nulo, la imagen, la nulidad
y el rango de la matriz
2 2 −6 1 8
−4 −1 −3 −2 −19
A=
1 1 −3 1 6
2 4 −16 3 14
x
1
x
2
Ası́ que
x3
∈ N(A) si y sólo si
x4
x5
x1
+2x3 +3x5 = 0
x2 −5x3 −x5 = 0
x4 +4x5 = 0
o equivalentemente
x1 = −2x3 − 3x5
x2 = 5x3 + x5
x = −4x5
4
Luego
x −2x3 − 3x5 −2 −3
1
x 5x + x
5
2 3 5 1
x3 = = x3 1
x3 + x5 0
x4 −4x5 0 −4
x5 x5 0 1
Por lo tanto el espacio nulo de A es
−2 −3
5 1
N(A) = gen
1 , 0
0 −4
0 1
Como los pivotes de la FERF de A están en las columnas 1,2 y 4, entonces las columnas 1,2 y
4 de A forman una base para el espacio imagen o espacio columna de A C(A) = Im(A), es decir,
Espacios Vectoriales 105
2 2 1
−4 −1 −2
C(A) = Im(A) = gen , ,
1 1 1
2 4 3
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) =
dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.
Ejercicio 2.7. Pruebe que si A ∈ Mm×n (R), entonces existe k ≤ n tal que para cada r ≥ k se
cumple
1. N (Ar ) = N Ak y {0/n×1 } ⊂ N(A) ⊂ N(A2 ) ⊂ · · · ⊂ N Ak .
2. Im (Ar ) = Im Ak e Im Ak ⊂ · · · ⊂ Im(A2 ) ⊂ Im(A) ⊂ Mm×1 (R).
Capı́tulo 3
En este capı́tulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales
reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones y teoremas
expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales
reales.
Definición 3.1. Sea V un espacio vectorial de dimensión n. Una base ordenada de V es una
n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V.
Ejemplo 3.1.
1. En R2 dos bases ordenadas distintas son: βc = {(1, 0), (0, 1)} y β = {(0, 1), (1, 0)} la primera
se denomina la base canónica ordenada ó simplemente base canónica de R2 . Nótese
que βc y β son iguales como bases de R2 , pero distintas como bases ordenadas.
106
Matriz de Cambio de Base. Espacios con Producto Interno 107
4. En el espacio de las matrices Mm×n (R), para cada i ∈ {1, . . . , n} y j ∈ {1, . . . , m}, con-
sideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0
(cero). La base βc = {E11 , . . . , E1n , . . . , Em1 , . . . , Emn } es llamada la base canónica or-
denada ó simplemente base canónica de Mm×n (R). Las siguientes son bases ordenadas
de Mm×n (R), distintas entre si y distintas de βc :
Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v ∈ V existen únicos escalares
α1 , α2 , . . . , αn R tales que
v = α1 v1 + α2 v2 + · · · + αn vn .
tal que v = α1 v1 + α2 v2 + · · · + αn vn .
Entonces
p(x) = α1 (1 + x) + α2 (x + x2 ) + α3 (1 + x2 )
= (α1 + α3 ) + (α1 + α2 )x + (α2 + α3 )x2
Teorema 3.1. Sea β una base ordenada de un espacio vectorial V de dimensión n. Para cua-
lesquiera u, v ∈ V y α ∈ R se cumple que
2. [αu]β = α[u]β
Demostración. ¡Ejercicio!
Matriz de Cambio de Base. Espacios con Producto Interno 109
= λ1 v1 + λ2 v2 + · · · + λn vn
= λ1 (α11 u1 + α21 u2 + · · · + αn1 un ) + · · · + λn (α1n u1 + α2n u2 + · · · + αnn un )
= (α11 λ1 + α12 λ2 + · · · + α1n λn )u1 + · · · + (αn1 λ1 + αn2 λ2 + · · · + αnn λn )un
Por lo tanto
α1 α11 α12 · · · α1n λ1
α α11 λ1 + α12 λ2 + · · · + α1n λn α α2n
2 .. .. 21 α22 · · · λ2
. = =
..
. . .. .. ..
...
. . .
αn1 λ1 + αn2 λ2 + · · · + αnn λn
αn αn1 αn2 · · · αnn λn
De donde
α11 α12 · · · α1n
α α · · · α
21 22 2n
[v]β2 = . .. .. [v]β1
.. . .
αn1 αn2 · · · αnn
Matriz de Cambio de Base. Espacios con Producto Interno 110
Haciendo
α11 α12 · · · α1n
α α · · · α h i
21 22 2n
A = [αij ]n×n = . .. .. = [v ]
1 β2 · · · [v ]
n β2
.. . .
αn1 αn2 · · · αnn
obtenemos la existencia de la matriz A que satisface (3.1)
Para probar la unicidad de A, notemos primero que la j-ésima columna de A está dada por
α1j
α
2j
A(j) = . = [vj ]β2
..
αnj
Pero
0
.
..
0
[vj ]β1 = 1 −→ j-ésima fila
0
.
..
0
Luego
A(j) = [vj ]β2 = B[vj ]β1 = B (j)
Por lo tanto B = A.
Como su nombre lo indica, la matriz Mβ1 ,β2 permite hallar la matriz de coordenadas de un
vector v ∈ V en la base β2 conociendo la matriz de coordenadas de v en la base β1 . Nótese
además que por su definición, la columna j-ésima de Mβ1 ,β2 , representa la matriz de coordenadas
del j-ésimo vector de β1 respecto a la base β2 .
βc la base canónica.
Solución. Para hallar Mβ1 ,β2 debemos hallar las matrices de coordenadas de cada uno de los
vectores de β1 respecto a la base β2 . Sean
α11 α12 α13
[(1, −2, 0)]β2 =
α21 , [(3, −1, 1)]β2 = α22 y [(0, 1, 3)]β2 =
α23
α31 α32 α33
Matriz de Cambio de Base. Espacios con Producto Interno 112
Entonces
De donde
−α21 +3α31 = 1
−α22 +3α32 = 3
2α11 −α31 = −2 , 2α12 −α32 = −1
α α
11 +α21 +2α31 = 0 12 +α22 +2α32 = 1
−α23 +3α33 = 0
y 2α13 −α33 = 1
α
13 +α23 +2α33 = 3
Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
manera simultánea considerando la siguiente matriz tres veces ampliada
0 −1 3 1 3 0
2 0 −1 −2 −1 1
1 1 2 0 1 3
Nótese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de
cada uno de los vectores de la base β2 respecto a la base canónica, y las tres últimas colum-
nas, son las matrices de coordenadas de cada uno de los vectores de la base β1 respecto a la base
canónica. Este procedimiento es estándar cada vez que busquemos una matriz de cambio de base.
0 −1 3 1 3 0 1 1 2 0 1 3
2
0 −1 −2 −1 1 F1 ↔ F3→ 2 0 −1 −2 −1 1
1 1 2 0 1 3 0 −1 3 1 3 0
Matriz de Cambio de Base. Espacios con Producto Interno 113
1 1 2 0 1 3 1 1 2 0 1 3
F2 → F2 − 2F1 −2 −5 −2 −3 −5 F ↔ F 0 −1
→ 0 2 3
→ 3 1 3 0
0 −1 3 1 3 0 0 −2 −5 −2 −3 −5
1 1 2 0 1 3 1 0 5 1 4 3
F1 → F1 − F2
F2 → −F2 −3 −1 −3 0 → 0 1 −3 −1 −3
→ 0 1
F3 → F3 + 2F2
0
0 −2 −5 −2 −3 −5 0 0 −11 −4 −9 −5
9 1 8
1 0 5 1 4 3 1 0 0 − 11 − 11 11
F1 → F1 − 5F3
F3 → − 11 F3
1
0 1 −3 −1 −3 0 → 0 1 0 1
− 6 15
→ F2 → F2 + 3F3
11 11 11
4 9 5 4 9 5
0 0 1 11 11 11 0 0 1 11 11 11
Ası́ que
9 1 8
− 11 − 11 11
−9 −1 8
Mβ1 ,β2 = 1 6
− 11 15 = 1 1 −6 15
11 11 11
4 9 5
11 11 11
4 9 5
Hallemos ahora Mβc ,β2 . En este caso la matriz aumentada que obtenemos es
0 −1 3 1 0 0
2 0 −1 0 1 0
1 1 2 0 0 1
Vemos que para obtener Mβc ,β2 necesitamos aplicar, en el mismo orden, las mismas OEF que
aplicamos anteriormente (¿por qué?), y obtenemos
1 5 1
1 0 0 11 11 11
0 1 0 5
− 11 3
− 11 6
11
2 1 2
0 0 1 11
− 11 11
Por lo tanto
1 5 1
11 11 11
1 5 1
Mβc ,β2 = 5
− 11 3
− 11 6 = 1 −5 −3 6
11 11
2 1 2
11
− 11 11
2 −1 2
Nótese que la matriz obtenida no es mas que la inversa de
0 −1 3
Mβ2 ,βc =
2 0 −1
1 1 2
Matriz de Cambio de Base. Espacios con Producto Interno 114
Finalmente (¡verifı́quelo!)
15 1 3
− 14 2 14
−15 7 3
Mβ2 ,β1 = (Mβ1 ,β2 )−1 = 5 1
−2 13 = 1 5 −7 13
14 14 14
3 1 5
14 2 14
3 7 5
Luego
[v]β3 = Mβ2 ,β3 [v]β2 = Mβ2 ,β3 Mβ1 ,β2 [v]β1
Teorema 3.5. Sea β una base ordenada de un espacio vectorial V de dimensión n. Entonces
{v1 , v2 , . . . , vn } es una base de V si y sólo si la matriz cuadrada de orden n, cuya j-ésima columna
es [vj ]β , tiene determinante distinto de cero.
Demostración. Sea A ∈ Mn×n (R) la matriz cuya j-ésima columna es [vj ]β . Sean α1 , α2 , . . . , αn ∈
R tales que
α1 v1 + α2 v2 + · · · + αn vn = 0/V
Ası́ que
El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
en un espacio vectorial de dimensión n, es una base para dicho espacio.
1. hu , vi = hv , ui.
2. hu + v , wi = hu , wi + hv , wi.
3. hαu , vi = α hu , vi.
Finalmente n n
X X
hu , ui = ui ui = u2i ≥ 0
i=1 i=1
Además, hu , ui = 0 si y sólo si u2i = 0 para cada i ∈ {1, . . . , n} (¿por qué?), esto es, si y
sólo si u = 0/Rn .
Ejemplo 3.6. En Mm×n (R) la siguiente función define un producto interno (¡pruébelo!), el cual
se conoce como producto interno euclidiano, usual o estándar, al igual que en el caso de Rn ,
salvo que se indique otra cosa, este es el producto interno que consideraremos sobre Mm×n (R).
m X
X n
hA , Bi = aij bij
i=1 j=1
Z b Z b
hf + g , hi = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
a a
Z b Z b
= f (x)h(x)dx + g(x)h(x)dx = hf , hi + hg , hi
a a
Z b Z b
hαf , gi = αf (x)g(x)dx = α f (x)g(x)dx = α hf , gi
a a
Matriz de Cambio de Base. Espacios con Producto Interno 118
Z b Z b
hf , f i = f (x)f (x)dx = [f (x)]2 dx ≥ 0
a a
Además hf , f i = 0 si y sólo si f (x) = 0 para cada x ∈ [ a , b ] (¿por qué?), es decir, si y sólo
si f = O, donde O es la función nula sobre [ a , b ], esto es, O(x) = 0 para todo x ∈ [ a , b ].
Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
C [ a , b ].
Pero el único polinomio en Pn [x], que tiene más de n raı́ces, es el polinomio nulo (¿por
qué?), es decir, hp , pi = 0 si y sólo si p es el polinomio nulo.
n
X
3. hp , qi = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn . (¡pruébe-
i=0
lo!).
1. hu , v + wi = hu , vi + hu , wi.
2. hu , αvi = α hu , vi.
3. hu − v , wi = hu , wi − hv , wi.
Matriz de Cambio de Base. Espacios con Producto Interno 119
4. hu , v − wi = hu , vi − hu , wi.
Demostración.
1. hu , v + wi = hv + w , ui = hv , ui + hw , ui = hu , vi + hu , wi.
4. hu , v − wi = hv − w , ui = hv , ui − hw , ui = hu , vi − hu , wi.
Ejemplo 3.9.
ası́ que x ⊥ y.
Matriz de Cambio de Base. Espacios con Producto Interno 120
2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v ∈ V, además, la parte 6 de este
mismo teorema, nos dice que el único vector que es ortogonal a todo vector v ∈ V, es el
vector nulo.
4. En P2 [x], los polinomios p(x) = 1+2x2 y q(x) = −2+x2 son ortogonales si consideramos el
producto interno definido en la parte 3 del ejemplo 3.8 (¡verifı́quelo!), pero si consideramos
el producto interno definido en la parte 2 del mismo ejemplo, estos polinomios no son
ortogonales (¡verifı́quelo!).
Definición 3.6. Sea h , i un producto interno sobre el espacio vectorial V. Definiremos la nor-
ma, magnitud, módulo o longitud (inducida por el producto interno) de v ∈ V, como el
número real kvk dado por
p
kvk = hv , vi
Observación 3.3. La norma de un vector no siempre está definida en términos del producto
interno (ver ??), sin embargo, en este capı́tulo nos ocuparemos de las normas inducidas por un
producto interno.
Dado que hv , vi ≥ 0 para cada v ∈ V, entonces la definición anterior está bien fundada.
Solución.
sZ sZ s 1
1 1
x5
1. kpk = (3 − x2 )2 dx
= (9 − +6x2 =x4 )dx
9x − 2x3 +
−1 −1 5 −1
s r r
1 36 2
= 2 9−2+ = 2 =6
5 5 5
p p √
2. kpk = [p(0)]2 + [p(1)]2 + [p(2)]2 = 32 + 22 + (−1)2 = 14
p √
3. kpk = 32 + 02 + (−1)2 = 10
Teorema 3.7. Sea V un EPI. Entonces para cada α ∈ R y cualesquiera u, v ∈ V se cumple que:
Ası́ que
hu , vi ≥ −1
luego
hu , vi ≤ 1
Matriz de Cambio de Base. Espacios con Producto Interno 122
En consecuencia
| hu , vi | ≤ 1
Las igualdades se cumplen si y sólo si uno de los vectores es múltiplo escalar del otro (¡pruébelo!)
Demostración.
Pero
u v 1
hb
u , vbi = , = hu , vi
kuk kvk kuk · kvk
1
Por lo tanto hu , vi ≤ 1, es decir, hu , vi ≤ kuk · kvk.
kuk · kvk
2. Por la parte 3 del teorema 3.7 tenemos que
hu , vi ≤ | hu , vi | ≤ kuk · kvk
Ası́ que
ku + vk2 ≤ kuk2 + 2kuk · kvk + kvk2 = (kuk + kvk)2
Definición 3.7. Sea V un EPI y sean u, v ∈ V vectores no nulos. Definiremos el ángulo entre
u y v como el número real ∡(u, v) ∈ [ 0 , π ] tal que
hu , vi
cos(∡(u, v)) =
kuk · kvk
es decir,
hu , vi
∡(u, v) = arc cos
kuk · kvk
Ejemplo 3.12. Hallar el ángulo entre los vectores u = (0, −3, 3) y v = (2, 2, −1)
Solución.
hA1 , A2 i = 1 · 0 + 0 · 2 + 0(−2) + 0 · 0 = 0
hA1 , A3 i = 1 · 0 + 0 · 1 + 0 · 1 + 0 · 3 = 0
hA2 , A3 i = 0 · 0 + 2 · 1 + (−2)1 + 0 · 3 = 0
Teorema 3.9. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente
independiente.
α1 v1 + α2 v2 + · · · + αk vk = 0/V
Definición 3.9. Sean V un EPI y β = {v1 , v2 , . . . , vn } una base de V. Diremos que β es una
base ortogonal (respectivamente ortonormal) si β es un conjunto ortogonal (respectivamente
ortonormal).
Ejemplo 3.14.
pero no es ortonormal.
Matriz de Cambio de Base. Espacios con Producto Interno 125
3. Una base ortonormal de P2 [x], considerando el producto interno definido en la parte 1 del
ejemplo 3.8 con a = 1 y b = −1, es
( r √ )
1 3 5
β= √ , x , √ −1 + 3x2 .
2 2 2 2
En efecto,
2 Z
1
2 1 1
√
= √1 2
k1k =
1
dx = 2 = 1
2
2 2 −1 2
r
2 r 2 ! Z 1
3
3 3 1 2 3 x3
2
x
= kxk = x dx = =1
2
2 2 −1 2 3 −1
√
2 √ !2 Z
5
5
5 1 2
2
2
2
√ −1 + 3x
= √ −1 + 3x = −1 + 3x2 dx
2 2
2 2 8 −1
Z 1 1
5 2 4
5 3 9 5
= 1 − 6x + 9x dx = x − 2x + x dx = 1
8 −1 8 5 −1
Además * r + r √ Z 1
1 3 1 3 3
√ , x =√ h1 , xi = xdx = 0
2 2 2 2 2 −1
* √ + √ √ Z 1
1 5 2
1 5
2
5
√ , √ −1 + 3x = √ √ 1 , −1 + 3x = −1 + 3x2 dx
2 2 2 22 2 4 −1
√
5 1
= −x + x3 −1 = 0
4
*r √ + r √ √ Z 1
3 5 2
3 5
2
15
x , √ −1 + 3x = √ x , −1 + 3x = x −1 + 3x2 dx = 0
2 2 2 22 2 4 −1
Para finalizar esta sección, nos plantearemos y solucionaremos el problema de hallar una base
ortonormal para un EPI de dimensión finita o para un subespacio de dimensión finita de un EPI,
comenzaremos con un ejemplo el cual ilustrará un procedimiento, conocido como proceso de
ortonormalización de Gram-Schmidt, que nos permite encontrar tal base.
Ejemplo 3.15. En P2 [x] consideremos el producto interno dado en el ejemplo 3.14 y considere-
mos la base de P2 [x] β = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base
β.
Matriz de Cambio de Base. Espacios con Producto Interno 126
Solución. Hagamos
v1 = 1 , v2 = x y v3 = x2
Entonces sZ
1 √
kv1 k = dx = 2
−1
Sea
1 1
u1 = v1 = √
kv1 k 2
Ası́ que ku1 k = 1.
Ahora hagamos
w2 = v2 − hv2 , u1 i u1
Pero Z 1
1 1 1
hv2 , u1 i = x, √ = √ hx , 1i = √ xdx = 0.
2 2 2 −1
Luego w2 = v2 = x, además
sZ s 1 r
1
x3 2
kw2 k = x2 dx = =
−1 3 −1 3
Si hacemos r
1 3
u2 = w2 = x
kw2k 2
entonces ku2 k = 1 y u1 ⊥ u2 (ver ejemplo 3.14).
Consideremos
w3 = v3 − hv3 , u1 i u1 − hv3 , u2 i u2
Pero Z 1
3 1
1 1 1 1 x 2
= √
hv3 , u1 i = x2 , √ = √ x2 , 1 = √ x2 dx = √
2 2 2 −1 2 3 −1 3 2
* r + r r Z 1
3 3
2 3
hv3 , u2 i = x2 , x = x ,x = x3 dx = 0
2 2 2 −1
De donde
2 1 1
w3 = x2 − √ √ = − + x2
3 2 2 3
y s sZ s
Z 1 2 1
5 1
1 1 2 1 2 x
kw3 k = − + x2 dx = − x2 + x4 dx = x − x3 +
−1 3 −1 9 3 9 9 5 −1
r √
8 2 2
= = √
45 3 5
Matriz de Cambio de Base. Espacios con Producto Interno 127
Finalmente, hagamos
√ √
1 3 5 1 5
u3 = 2
w3 = √ − + x = √ −1 + 3x2
kw3 k 2 2 3 2 2
Entonces ku3 k = 1 , u3 ⊥ u1 y u3 ⊥ u2 (ver ejemplo 3.14).
Por lo tanto ( r √ )
1 3 5 2
{u1 , u2 , u3} = √ , x , √ −1 + 3x
2 2 2 2
es una base ortonormal de P2 [x], la cual se obtuvo de β.
Además
Con lo que w2 ⊥ u1 .
1 w2
Paso 3. Sea u2 = w2 = . Entonces ku2 k = 1, hu1 , u2 i = 0 y u2 ∈ W.
kw2k kw2 k
Ası́ que {u1 , u2} es un conjunto ortonormal de vectores no nulos en W.
Matriz de Cambio de Base. Espacios con Producto Interno 128
Paso 4. Sea
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}
en W, y por lo tanto, una base ortonormal de W.
Definición 3.10. Sea W un subespacio de un EPI V y sea {w1 , w2 , . . . , wm } una base ortonormal
de W. Si v ∈ V, definiremos la proyección ortogonal de v sobre W, como el vector
m
X
proyW v = hv , w1 i w1 + hv , w2 i w2 + · · · + hv , wm i wm = hv , wi i wi
i=1
Claramente proyW v ∈ W.
Ejemplo 3.16. Consideremos el EPI P2 [x], con el producto interno usado el el ejemplo 3.15 de
la sección 3.3. Hallar la proyección ortogonal de p(x) = 3 + 2x − x2 sobre el subespacio de P2 [x]
W = {a + bx + cx2 : c = −3a}
Entonces
* r + r r Z 1
3 3
3
p(x) , x = 3 + 2x − x2 , x = 3 + 2x − x2 xdx
2 2 2 −1
r Z 1 r Z 1 r
3 1
3 3 3 x
= 3x + 2x2 − x3 dx = 2 x2 dx = 2
2 −1 2 −1 2 3 −1
√
4 3
= √
3 2
* √ + √
5 5
p(x) , √ −1 + 3x2 = √ 3 + 2x − x2 , −1 + 3x2
2 2 2 2
√ Z 1
5
= √ 3 + 2x − x2 −1 + 3x2 dx
2 2 −1
√ Z 1
5
= √ −3 − 2x + 10x2 + 6x3 − 3x4 dx
2 2 −1
√ Z 1
5
= √ −3 + 10x2 − 3x4 dx
2 2 −1
√ 1
5 10 3 3 5
= √ −3x + x − x
2 2 3 5 −1
√
4 5
= − √
15 2
Matriz de Cambio de Base. Espacios con Producto Interno 130
Ası́ que
* r +r * √ + √
3 3 5 5
proyW p(x) = p(x) , x x + p(x) , √ −1 + 3x2 √ −1 + 3x2
2 2 2 2 2 2
√ r √ ! √
4 3 3 4 5 5
= √ x+ − √ √ −1 + 3x2
3 2 2 15 2 2 2
1
= 2x − −1 + 3x2
3
1
= + 2x − x2
3
Teorema 3.11. Sea {v1 , v2 , . . . , vn } una base ortonormal de un EPI V. Entonces para cada
v ∈ V se tiene que
n
X
v = hv , v1 i v1 + hv , v2 i v2 + · · · + hv , vn i vn = hv , vi i vi
i=1
Demostración. ¡Ejercicio!
β1 = {w1 , w2 , . . . , wm , um+1 , . . . , un }
v = hv , w1 i w1 + · · · + hv , wm i wm + hv , um+1 i um+1 + · · · + hv , un i un
Xm Xn
= hv , wi i wi + hv , uii ui
i=1 i=m+1
Matriz de Cambio de Base. Espacios con Producto Interno 131
v = hv , wb1 i w
b1 + · · · + hv , w
bm i w
bm + hv , um+1 i um+1 + · · · + hv , un i un
Xm Xn
= hv , wbi i w
bi + hv , uii ui
i=1 i=m+1
En consecuencia m m
X X
hv , wi i wi = hv , w
bi i w
bi
i=1 i=1
W⊥ = {v ∈ V : v ⊥ w para cada w ∈ W}
= {v ∈ V : hv , wi = 0 para cada w ∈ W}
1. W⊥ es un subespacio de V.
2. W ∩ W⊥ = {0/V }.
Demostración.
1. Por definición, W⊥ ⊂ V. Además, por la parte 5 del teorema 3.6, se tiene que 0/V ∈ W⊥ .
hu + αv , wi = hu , wi + hαv , wi = hu , wi + α hv , wi = 0
3. Supongamos que dim V = n. Sea {w1 , w2 , . . . , wm } una base ortonormal de W, ası́ que
dim(W) = m.
w = hw , w1 i w1 + · · · + hw , wm i wm + hw , wm+1 i wm+1 + · · · + hw , wn i wn
w = hw , wm+1 i wm+1 + · · · + hw , wn i wn
Lema 3.2. Sea W un subespacio vectorial de un EPI V. Sea βW = {w1 , w2 , . . . , wn } una base de
W. Entonces v ∈ W⊥ si y sólo si v ⊥ wi para cada i ∈ {1, . . . , n}.
Por lo tanto
* n
+ n n n
X X X X
hv , wi = v, αi wi = hv , αi wi i = αi hv , wi i = αi · 0 = 0
i=1 i=1 i=1 i=1
Matriz de Cambio de Base. Espacios con Producto Interno 133
Por lo tanto, según el lema 3.2, a0 +a1 x+a2 x2 ∈ W⊥ si y sólo si (a0 +a1 x+a2 x2 ) ⊥ x y (a0 +a1 x+
a2 x2 ) ⊥ (−1+3x2 ), es decir, si y sólo si ha0 + a1 x + a2 x2 , xi = 0 y ha0 + a1 x + a2 x2 , −1 + 3x2 i =
0, pero
Z 1
a0 + a1 x + a2 x2 , x = (a0 + a1 x + a2 x2 )xdx
−1
Z 1
= (a0 x + a1 x2 + a2 x3 )dx
−1
Z 1 1
2 x3 2
= a1 x dx = a1 = a1
−1 3 −1 3
Z 1
a0 + a1 x + a2 x2 , −1 + 3x2 = 2 (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx
0
1
x3 3 x5
= 2 −a0 x − a2 + a0 x + 3a2
3 5 0
1 3
= 2 −a0 − a2 + a0 + a2
3 5
8
= a2
15
De donde ha0 + a1 x + a2 x2 , −1 + 3x2 i = 0 si y sólo si a2 = 0.
En consecuencia, a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si a1 = 0 = a2 .
Matriz de Cambio de Base. Espacios con Producto Interno 134
Por lo tanto
W⊥ = gen({1})
v = w1 + w2
donde w1 = proyW v.
Además, si V es de dimensión finita, entonces w2 = proyW⊥ v.
hw2 , vj i = hv − w1 , vj i = hv , vj i − hw1 , vj i
* m +
X
= hv , vj i − hv , vi i vi , vj
i=1
m
X
= hv , vj i − hhv , vi i vi , vj i
i=1
Xm
= hv , vj i − hv , vi i hvi , vj i
i=1
= hv , vj i − hv , vj i hvj , vj i (¿por qué?)
= hv , vj i − hv , vj i (¿por qué?)
= 0
de donde
w1 − w b2 − w2
b1 = w
Pero w1 − w b2 − w2 ∈ W⊥ .
b1 ∈ W y w
Luego
w1 − w b2 − w2 ∈ W ∩ W⊥ = {0/V }
b1 , w
En consecuencia w
b1 = w1 y w
b2 = w2 .
Se deja como ejercicio probar que si V es de dimensión finita, entonces
w2 = proyW⊥ v
Capı́tulo 4
1. T (u + v) = T (u) + T (v).
2. T (αu) = αT (u).
Ejemplo 4.1.
136
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 137
T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 ))
= T (a1 + a2 , b1 + b2 , c1 + c2 )
= (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) − 3(c1 + c2 )]x3
= (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 − 3c1 − 3c2 )x3
= [b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 − 3c2 )x3 ]
= T (a1 , b1 , c1 ) + T (a2 , b2 , c2 )
= T (u) + T (v)
T (αu) = T (α(a1 , b1 , c1 ))
= T (αa1 , αb1 , αc1 )
= αb1 + (2αa1 + αc1 )x + (αb1 − 3αc1 )x3
= αb1 + α(2a1 + c1 )x + α(b1 − 3c1 )x3
= α[b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ]
= αT (a1 , b1 , c1 )
= αT (u)
9. Sea A ∈ Mm×n (R). Definamos T : Mn×1 (R) −→ Mm×1 (R) como T (x) = Ax. No es difı́cil
probar que T es una transformación lineal (¡pruébelo!).
Este último ejemplo nos dice que toda matriz define una transformación lineal, más adelante
veremos que toda transformación lineal, entre espacios vectoriales de dimensión finita, está aso-
ciada con una matriz.
1. T (0/V ) = 0/W .
Demostración.
b) (Hipótesis Inductiva) Supongamos que se cumple para n − 1, esto es, supongamos que
El siguiente teorema nos será de gran utilidad a la hora de decidir si una función T es una
transformación lineal.
Teorema 4.2. Sean V y W dos espacios vectoriales. Una función T : V −→ W es una trans-
formación lineal si y sólo si para cualesquiera u, v ∈ V y α ∈ R se cumple que T (u + αv) =
T (u) + αT (v).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 140
y además
T (0/V ) = T (u + (−1)u) = T (u) + (−1)T (u) = 0/W
luego
T (αv) = T (0/V +αv) = T (0/V ) + αT (v) = 0/W +αT (v) = αT (v)
De ahora en adelante, gracias a este último teorema, cuando queramos probar que una fun-
ción T, entre espacios vectoriales, es una transformación lineal, no será necesario probar las dos
condiciones en la definición 4.1, sólo bastaró probar la condición en el teorema anterior.
En consecuencia T + λL es lineal.
Dado dos espacios vectoriales V y W, este último teorema nos dice que el conjunto formado
por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de
funciones y multiplicación por escalar, forman un espacio vectorial.
v = α1 v1 + α2 v2 + · · · + αn vn
ası́ que
T (v) = T (α1 v1 + α2 v2 + · · · + αn vn )
= α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) (teorema 4.1 parte 3)
= α1 L(v1 ) + α2 L(v2 ) + · · · + αn L(vn ) (hipótesis)
= L(α1 v1 + α2 v2 + · · · + αn vn ) (teorema 4.1 parte 3)
= L(v)
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 142
Luego T = L.
Solución.
T (a0 + a1 x + a2 x2 ) = T (a0 · 1 + a1 x + a2 x2 )
= a0 T (1) + a1 T (x) + a2 T (x2 )
= a0 (2, −1) + a1 (3, 4) + a2 (−1, 5)
= (2a0 + 3a1 − a2 , −a0 + 4a1 + 5a2 )
Teorema 4.6 (Existencia y Unicidad de una Transformación Lineal). Sean V y W dos espacios
vectoriales, β = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn ∈ W. Entonces existe una única
transformación lineal T : V −→ W tal que T (vi ) = wi para cada i ∈ {1, . . . , n}.
Definamos n
X
T (v) = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1
En consecuencia T es lineal.
Finalmente, probemos que T es única. Supongamos que existe otra transformación lineal L :
V −→ W tal que L(vi ) = wi para cada i ∈ {1, . . . , n}.
Luego, por el teorema 4.5, se tiene que L = T .
Ejemplo 4.3. Hallar una transformación lineal T : R3 −→ M2×2 (R) (si existe) tal que
" # " #
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;
1 −2 4 3
" # " #
2 1 4 −2
T (−2, 1, 2) = ; T (1, −1, 0) =
−3 −5 1 0
Solución. Veamos cuales de los vectores (−2, 2, −1), (0, 1, −3), (−2, 1, 2), (1, −1, 0) son lineal-
mente independientes, para ello, consideremos la matriz
−2 0 −2 1
2 1 1 −1
−1 −3 2 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 144
y hallemos su FERF.
−2 0 −2 1 −1 −3 2 0 1 3 −2 0
2 1 1 −1 F1 ↔ F 3
2 1 1 −1 F1 → −F1 2 1 1 −1
→ →
−1 −3 2 0 −2 0 −2 1 −2 0 −2 1
1 3 −2 0 1 3 −2 0
F2 → F2 − 2F1
→ 0 −5 5 −1 F2 → F2 + F3 0 1 −1 0
→
F3 → F3 + 2F1
0 6 −6 1 0 6 −6 1
1 0 1 0
F1 → F1 − 3F2
→ 0 1 −1 0
F3 → F3 − 6F2
0 0 0 1
Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores
son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema
4.6, concluimos que existe una única transformación lineal tal que
" # " #
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;
1 −2 4 3
" #
4 −2
T (1, −1, 0) =
1 0
Hallemos T . Sea (x, y, z) ∈ R3 cualquiera. Hagamos
1 3 0 0 0 −1 1 0 0 −3 −3 −1
F1 → F1 − 3F2
F2 → F2 + F3 0 1 0 1 1 0 → 0 1 0 1 1 0
→
F3 → F3 − 6F2
0 6 1 1 0 −2 0 0 1 −5 −6 −2
Por lo tanto
−3 −3 −1
Mβc ,β =
1 1 0
−5 −6 −2
En consecuencia
−3 −3 −1 x −3x − 3y − z
[(x, y, z)]β = Mβc ,β [(x, y, z)]βc =
1 1 0 y =
x + y
−5 −6 −2 z −5x − 6y − 2z
Es decir
De donde
Ejemplo 4.4. Hallar una transformación lineal (si existe) T : R4 −→ M3×1 (R) tal que
1 0
T (1, −2, 1, 1) =
2 ; T (2, 1, 3, 0) = −1
−3 2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 146
−2 3
T (0, 5, 1, −2) =
−5 ;
T (1, −7, 0, 3) =
7
8 −11
Solución. Veamos si el conjunto S = {(1, −2, 1, 1); (2, 1, 3, 0); (0, 5, 1, −2); (1, −7, 0, 3)} es li-
nealmente independiente, para ello consideremos la matriz
1 2 0 1
−2 1 5 −7
1 3 1 0
1 0 −2 3
y hallemos su FERF
1 2 0 1 1 2 0 1 1 2 0 1
F2 → F2 + 2F1
−2 1 5 −7 5 −5 1 −1
0 5 0 1
F3 → F3 − F1 F2 ↔ F3→
1 3 1 0 → 0 1 1 −1 0 5 5 −5
F →F −F
4 4 1
1 0 −2 3 0 −2 −2 2 0 −2 −2 2
1 0 −2 3
F1 → F1 − 2F2 0 1
1 −1
F3 → F3 − 5F2
→ 0 0 0 0
F4 → F4 + 2F2
0 0 0 0
Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos
proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo
de estos dos vectores (el teorema de completación de bases nos lo permite) ¿cómo hacerlo?,
escojamos estos vectores entre los canónicos, para saber cuál de ellos escoger, consideremos la
siguiente matriz
1 2 1 0 0 0
−2 1 0 1 0 0
1 3 0 0 1 0
1 0 0 0 0 1
hallemos su FERF.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 147
1 2 1 0 0 0 1 2 1 0 0 0
F2 → F2 + 2F1
−2 1 0 1 0 0 2 1 0 0
0 5
F3 → F3 − F1
1 3 0 0 1 0 → 0 1 −1 0 1 0
F →F −F
4 4 1
1 0 0 0 0 1 0 −2 −1 0 0 1
1 2 1 0 0 0 1 0 3 0 −2 0
F1 → F1 − 2F2
0 1 −1 0 1 0 1 0
0 1 −1 0
F2 ↔ F3 F 3 → F 3 − 5F2
→ 0 5 2 1 0 0 → 0 0 7 1 −5 0
F → F + 2F
4 4 2
0 −2 −1 0 0 1 0 0 −3 0 2 1
1 0 3 0 −2 0 1 0 0 − 73 1
7
0
F1 → F1 − 3F3
0 1 −1 0 1 0 0 1 0 1 2
0
1 7 7
F3 → 7 F3 F2 → F2 + F3
→ 0 0 1 1
− 5
0 → 0 0 1 1
−7 0
5
7 7 F → F + 3F 7
4 4 3 3 1
0 0 −3 0 2 1 0 0 0 7
−7 1
Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base
de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir,
T : R4 −→ M1×3 (R)
Por lo tanto
1 1
T (x, y, z, w) = T w(1, −2, 1, 1) + z − w (2, 1, 3, 0)
3 3
2 1 1 7
+ x− z− (1, 0, 0, 0) + y − z + w (0, 1, 0, 0)
3 3 3 3
1 1
= wT (1, −2, 1, 1) + z − w T (2, 1, 3, 0)
3 3
2 1 1 7
+ x− z− T (1, 0, 0, 0) + y − z + w T (0, 1, 0, 0)
3 3 3 3
1 0 0
= w 2 + 1 z − 1 w −1 + 1 z − 1 w 0
3 3 3 3
−3 2 0
0
1 7
+ y− z+ w 0
3 3
0
w
T (x, y, z, w) = −
3
1
z + 7
3
w
2 11
3
z− 3w
Se puede verificar que T satisface las últimas dos igualdades en el enunciado del ejercicio,
ası́ que T es la transformación buscada, pero a diferencia de la transformación hallada en el
ejercicio anterior, esta no es única, depende de la escogencia de los vectores que completan la
base del espacio de partida y la escogencia de las imágenes de estos vectores sus imágenes.
Teorema 4.7. Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } una base ordenada de
V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación lineal.
Entonces existe un única matriz A ∈ Mm×n (R) tal que para cada v ∈ V
[T (v)]βW = A[v]βV
Demostración. Para cada j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que
es decir
α1j
α2j
[T (vj )]βW = .
..
αmj
Dado v ∈ V cualquiera, hagamos
λ1
λ
2
[v]βV = .
..
λn
es decir
v = λ1 v1 + λ2 v2 + · · · + λn vn
De donde
T (v) = T (λ1 v1 + λ2 v2 + · · · + λn vn )
= λ1 T (v1 ) + λ2 T (v2 ) + · · · + λn T (vn )
= λ1 (α11 w1 + α21 w2 + · · · + αm1 wm ) + · · · + λn (α1n w1 + α2n w2 + · · · + αmn wm )
= (α11 λ1 + α12 λ2 + · · · + α1n λn )w1 + · · · + (αm1 λ1 + αm2 λ2 + · · · + αmn λn )wm
Por lo tanto
α11 α12 ··· α1n λ1
α11 λ1 + α12 λ2 + · · · + α1n λn
α α · · · α
.. 21 22 2n λ2
[T (v)]βW = . =
.. = A[v]βV
... ..
. . ...
αm1 λ1 + αm2 λ2 + · · · + αmn λn
αm1 αm2 · · · αmn λn
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 150
donde
α11 α12 ··· α1n
α α · · · α h i
21 22 2n
A= . .. .. = [T (v )]
1 βW · · · [T (v )]
n βW
.. . .
αm1 αm2 · · · αmn
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos
ahora su unicidad. Supongamos que B ∈ Mm×n (R) es tal que para cada v ∈ V
[T (v)]βW = B[v]βV
Pero
0
.
..
0
[vj ]βV = 1 −→ j-ésima fila
0
.
..
0
Luego
A(j) = [T (vj )]βW = B[vj ]βV = B (j)
Por lo tanto B = A.
Ejemplo 4.5.
Ejemplo 4.6. Consideremos la transformación lineal T del ejemplo 4.10. Sean βV la base
canónica de M2×2 (R), βW la base canónica de P2 [x] y
(" # " # " # " #)
1 2 −1 0 2 3 −2 1
βbV = ; ; ;
−1 0 1 1 1 −1 3 2
βbW = 1 + x, x + x2 , 1 − 2x2
bases de M2×2 (R) y P2 [x], respectivamente. Hallar [T ]βV ,βW ; [T ]βbV ,βbW .
Solución. En primer lugar, hallaremos las imágenes, a través de T , de cada uno de los vectores
de la base canónica βV .
" #! " #!
1 0 0 1
T = 1 + x − x2 ; T = 1 + 2x − 3x2
0 0 0 0
" #! " #!
0 0 0 0
T = −1 + x − 3x2 ; T = x − 2x2
1 0 0 1
Por definición, la matriz [T ]βV ,βW , es la matriz cuyas columnas son las coordenadas de estos
últimos cuatro vectores, respecto a la base canónica βW , esto es
1 1 −1 0
[T ]βV ,βW =
1 1
2 1
−1 −3 −3 −2
Notemos que esta matriz es la matriz del sistema (4.3).
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 152
Análogamente, para hallar [T ]βbV ,βbW , hallemos primero las imágenes, a través de T , de cada uno
de los vectores de la base βbV .
" #! " #!
1 2 −1 0
T = 4 + 4x − 4x2 ; T = −2 + x − 4x2
−1 0 1 1
" #! " #!
2 3 2 1
T = 4 + 8x − 12x2 ; T = −4 + 5x − 14x2
1 −1 3 2
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base
βbW . Para ello consideremos la siguiente matriz cuatro veces ampliada.
1 0 1 4 −2 4 −4
1 1 0 4 1 8 5
0 1 −2 −4 −4 −12 −14
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base βbW ,
respecto a la base canónica βW , el resto de las columnas, son las coordenadas de los vectores,
hallados previamente, respecto a la base canónica βW . La FERF de esta matriz es
1 0 0 0 −9 −12 −27
0 1 0 4 10 20 32
0 0 1 4 7 16 23
Por lo tanto
0 −9 −12 −27
[T ]βbV ,βbW =
4 10 20 32
4 7 16 23
([T ]βV ,βW [L]βU ,βV )[u]βU = [T ]βV ,βW ([L]βU ,βV [u]βU )
= [T ]βV ,βW [L(u)]βV
= [T (L(u))]βW
= [(T ◦ L)(u)]βW .
Teorema 4.9. Sean V y W dos espacios vectoriales de dimensión finita; βV y βbV bases ordenadas
de V; βW y βbW bases ordenadas de W y T : V −→ W una transformación lineal. Entonces
Luego
[T (v)]βbW = MβW ,βbW [T (v)]βW = MβW ,βbW [T ]βV ,βW [v]βV = MβW ,βbW [T ]βV ,βW MβbV ,βV [v]βbV
Ejemplo 4.7. Consideremos T , βV , βW , βbV y βbW como en el ejemplo 4.6. Verificar el teorema
4.9.
1 1 −1 0
[T ]βV ,βW =
1 2 1
1
−1 −3 −3 −2
Por otro lado, fácilmente obtenemos que
1 −1 2 −2
2 0 3 1
MβbV ,βV =
−1 1 1 3
0 1 −1 2
Corolario 4.10. Sea V un espacio vectorial de dimensión finita; βV y βbV dos bases ordenadas
de V y T : V −→ V una transformación lineal. Entonces
Demostración. ¡Ejercicio!
Ası́ que
T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = 0/W +α 0/W = 0/W
Ejemplo 4.8.
En consecuencia (a, b, c) ∈ Im(T ) si y sólo si el sistema (4.2) tiene solución. Al resolver este
sistema, obtenemos
x
− 21 z = − 12 b + 1
2
c
x =
1
2
z − 12 b + 12 c
y − 21 z = 1
2
a ; o bien y = 1
2
z+ 1
2
a
w = 1
a + 23 b − 1
c w = 1
a 3
+ 2b − 1
c
2 2 2 2
Por lo tanto, el sistema (4.2) tiene solución para cada (a, b, c) ∈ R3 , en consecuencia Im(T ) = R3
y r(T ) = 3.
Observación 4.3. Nótese que la matriz de los sistemas (4.2) y (4.1) no es otra que la que
la matriz de la transformación T respecto a las bases canónicas de los espacios M2×2 (R) y R3
(verifı́quelo).
Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz
de este sistema nos da toda la información, pero a diferencia del caso matricial, los pivotes de
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 158
esta matriz nos dan las coordenadas, respecto a la base canónica de R3 , de los vectores que forman
una base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo.
a la base canónica de P2 [x], de los vectores que forman una base para Im(T ), por lo tanto
r(T ) = dim(Im(T )) = 2 y además
Im(T ) = gen 1 + x − x2 , 1 + 2x − 3x2
Teorema 4.12. Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } una base ordenada
de V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación lineal.
Entonces
1. {u1 , u2 , . . . , uk } es una base para N(T ) si y sólo si {[u1 ]βV , [u2 ]βV , . . . , [uk ]βV } es una base
para N([T ]βV ,βW )
2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y sólo si {[z1 ]βW , [z2 ]βW , . . . , [zr ]βW } es una base
para Im([T ]βV ,βW )
Demostración. ¡Ejercicio!
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 160
(A − λIn )x = Ax − λIn x = Ax − λx
Por definición, λ es un autovalor de A si y sólo si existe x 6= 0/n×1 tal que Ax = λx, es decir,
según el comentario inicial, si y sólo si existe x 6= 0/n×1 tal que (A − λIn )x = 0/n×1 , lo cual, a su
vez, es equivalente a decir que la matriz A − λIn no es invertible, que, finalmente, es equivalente
a det(A − λIn ) = 0.
Corolario 4.15. Si D ∈ Mn×n (R) es triangular (superior o inferior), entonces sus autovalores
son precisamente las componentes de su diagonal principal. En particular, si D es diagonal, sus
autovalores son precisamente las componentes de su diagonal.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 161
Demostración. ¡Ejercicio!
Observación 4.4. Se puede probar que pA (λ) = det(A − λIn ) es un polinomio grado n con
término dominante (−1)n λn .
Según el teorema precedente, λ es un autovalor de A si y sólo si es raı́z del polinomio pA (λ),
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.
es decir, Eλ es el conjunto solución del sistema (A−λIn )x = 0/n×1 , el cual sabemos es un subespacio
de Mn×n (R).
Algoritmo para hallar los autovalores y autovalores de una matriz A ∈ Mn×n (R).
Paso 2. Hallar las raı́ces de pA (λ), digamos λ1 , λ2 , . . . , λm , estos son los autovalores de A.
Paso 3. Para cada i ∈ {1, . . . , m}, resolver el sistema (A − λi In )x = 0/n×1 , es decir, hallar
los autoespacios Eλ1 , . . . , Eλm .
Paso 4. Los vectores no nulos pertenecientes a Eλi , son los autovectores de A asociados a
λi .
Observación 4.5. Se dice que x0 es una raı́z del polinomio p(x) de multiplicidad k ∈ Z+ si
existe un polinomio q(x) tal que p(x) = (x − x0 )k q(x) y q(x0 ) 6= 0.
Ejemplo 4.13. Para la matriz A del ejemplo anterior, tenemos que cada uno de sus autovalores
tiene multiplicidad algebraica y geométrica igual a 1.
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 163
Solución.
1−λ 1 1
pA (λ) = det(A − λI3 ) = 1 1 − λ −1 = −(λ − 2)2 (λ + 1)
1 −1 1 − λ
Por lo tanto
pA (λ) = 0 si y sólo si λ = 2 ó λ = −1
1 1
E2 = gen
1 , 0
0
1
Cualquier vector no nulo perteneciente a E2 es un autovector de A asociado a λ = 2.
2 1 1 1 2 −1 1 2 −1
F2 → F2 − 2F1
A + I3 = 1 2 −1 F1 ↔ F2 2 1 1 → 0 −3 3
→
F3 → F3 − F1
1 −1 2 1 −1 2 0 −3 3
1 2 −1 1 0 1
F1 → F 1 − 2F2
F2 → − 13 F2 0 1 −1 → 0 1 −1
→
F3 → F3 + 3F2
0 −3 3 0 0 0
De donde ( (
x z = 0 x = −z
o bien
y −z = 0 y = z
por lo tanto, la solución del segundo de los sistemas es
x −z −1
y = z = z 1
z z 1
Luego
−1
E−1 = gen 1
1
Solución.
−1 − λ 0 −1
pB (λ) = det(B − λI3 ) = 1 −1 − λ 1 = −(λ + 1)2 (λ + 2)
0 0 −2 − λ
Luego
pB (λ) = 0 si y sólo si λ = −1 ó λ = −2
y
0
E−1 = gen
1
0
1 0 −1 1 0 −1
B + I3 =
1 1 1 F → F − F 2
2 2 1
→ 0 1
0 0 0 0 0 0
1 −5 −7 1 −5 −7 1 0 8
F1 → F1 + 5F2
F2 → F2 + 2F1 9 F ↔ F 3 → 0 1 3
→ 0 3 2 3
→ 0 1
F3 → F3 − 3F2
0 1 3 0 3 9 0 0 0
De donde (
x = −8z
y = −3z
Ası́ que
x −8z −8
y = −3z = z −3
z z 1
En consecuencia
−8
E1 = gen −3
1
α1 x1 + α2 x2 + · · · + αm xm = 0/n×1 (4.4)
Para probar que αi = 0 para cada i ∈ {1, . . . , m}, procederemos por inducción sobre m.
Verifiquemos que se cumple para m = 2. En este caso la ecuación (4.4) se convierte en
α1 x1 + α2 x2 = 0/n×1 (4.5)
Luego
A(α1 x1 + α2 x2 ) = A 0/n×1 = 0/n×1
Pero
A(α1 x1 + α2 x2 ) = α1 Ax1 + α2 Ax2 = α1 λ1 x1 + α2 λ2 x2
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 168
De donde
α1 λ1 x1 + α2 λ2 x2 = 0/n×1 (4.6)
α1 λ2 x1 + α2 λ2 x2 = 0/n×1 (4.7)
Pero
De donde
α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm = 0/n×1 (4.8)
Como x1 , x2 , . . . , xm−1 son linealmente independientes (por hipótesis inductiva), entonces, para
cada i ∈ {1, . . . , m − 1}
αi (λm − λi ) = 0
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 169
Pero λm 6= λi para i ∈ {1, . . . , m − 1} (por hipótesis), luego αi = 0 para cada i ∈ {1, . . . , m − 1}.
Por lo tanto, (4.4) queda expresado por αm xm = 0/n×1 , y dado que xm 6= 0/n×1 , obtenemos αm = 0.
En consecuencia x1 , x2 , . . . , xm son linealmente independientes.
" # " #
1 3
Ejemplo 4.17. Los vectores y , son linealmente independientes, ya que son
−1 −1
autovectores de la matriz
A del ejemplo 4.13, correspondientes a distintos autovalores.
1 −1
Los vectores 1
y 1 , son linealmente independientes, pues son autovectores de la
0 1
matriz A del ejemplo 4.14, correspondientes a distintos autovalores.
0 1
Un razonamiento análogo, nos garantiza que los vectores 1
y −2 , los cuales son
0 1
autovectores de la matriz B del ejemplo 4.15, son linealmente independientes.
Ejemplo 4.18. El polinomio caracterı́stico de la matriz A del ejemplo 4.14, no tiene raı́ces
complejas, además, cada uno de los autovalores de A tiene multiplicidades algebraica y geométrica
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber
1 1 −1
1 , 0 , 1
0 1 1
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 170
Nótese que los dos primeros autovectores corresponden al autovalor λ = 2 y el último corres-
ponde al autovalor λ = −1.
Por el contrario, para la matriz B del ejemplo 4.15, sabemos que el polinomio caracterı́stico de
B tiene sólo raı́ces reales, pero el autovalor λ = −1 tiene multiplicidad algebraica 2 y multiplicidad
geométrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 4.16 tiene sólo un autovalor, λ = 1, y las multiplicidades algebraica y
geométrica de éste son iguales, sin embargo pC (λ) tiene raı́ces complejas, por lo tanto C no tiene
tres autovectores linealmente independientes.
Ası́ que A es invertible si y sólo si 0 no es raı́z del polinomio pA (λ), es decir, A es invertible si y
sólo si 0 no es un autovalor de A.
4.5. Diagonalización
En esta sección del capı́tulo, estudiaremos las matrices similares y las matrices diagonalizables
y haremos uso de los teoremas de la sección anterior para el estudio de las últimas.
Definición 4.9. Sean A, B ∈ Mn×n (R), Diremos que B es similar a A si existe una matriz
invertible P ∈ Mn×n (R) tal que B = P −1AP .
Teorema 4.21. Sean A, B ∈ Mn×n (R) dos matrices similares. Entonces pA (λ) = pB (λ), es decir,
A y B tienen los mismos polinomios caracterı́sticos, y en consecuencia, los mismos autovalores.
Demostración. Como A y B son similares, existe una matriz invertible P ∈ Mn×n (R) tal que
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 171
A = P −1 BP . De donde
Definición 4.10. Una matriz A ∈ Mn×n (R) es diagonalizable si existe una matriz diagonal
D ∈ Mn×n (R) la cual es similar a A.
Ejemplo 4.22. La matriz A del ejemplo 4.20 es diagonalizable, ası́ como la matriz A del ejemplo
4.21.
el cual es un autovector de A asociado a λ = −1, que está ubicado, como dijimos antes, en la
primera componente de la diagonal principal de D. Las segunda y tercera columnas de P son,
Transformaciones Lineales. Autovalores y Autovectores de una Matriz 173
respectivamente
1 1
1 y 0
0 1
que son autovectores de A asociados a λ = 2, el cual está ubicado, como ya comentamos, en la
segunda y la tercera componente de la diagonal principal de D.
Esta situación no es nada casual, como veremos en el siguiente teorema, más precisamente, en
su demostración.
Teorema 4.22. Una matriz A ∈ Mn×n (R) es diagonalizable si y sólo si tiene n autovectores
linealmente independientes.
0
.
..
0
P D (i) = P λj −→ i-ésima fila
0
.
..
0
0
.
..
0
= λi P 1 −→ i-ésima fila
0
.
..
0
= λi P (i) = λi xi
D = P −1 AP (4.10)
Demostración. ¡Ejercicio!
Ejemplo 4.23. La matriz B del ejemplo 4.15 no es diagonalizable, pues el polinomio pB (λ) tiene
sólo raı́ces reales pero la multiplicidad algebraica de λ = −1 es 2 y su multiplicidad geométrica
es 1.
La matriz C del ejemplo 4.16 no es diagonalizable, ya que el polinomio pC (λ) tiene raı́ces
complejas.