Primer Curso
ÁLGEBRA LINEAL I
26 de noviembre de 2015
2
Índice General
1 Preliminares 1
1.1 Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Espacios Vectoriales 9
2.1 Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 9
2.2 Teorı́a de la Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3 Aplicaciones Lineales 17
3.1 Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Teorema de Isomorfı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4 Geometrı́a Euclı́dea 23
4.1 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Espacios Vectoriales Euclı́deos . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.3 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Endomorfismos 29
5.1 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.2 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.3 Diagonalización de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 31
3
4 ÍNDICE GENERAL
Capı́tulo 1
Preliminares
1. Reflexiva: x ≡ x, ∀x ∈ X .
2. Simétrica: x, y ∈ X , x ≡ y ⇒ y ≡ x.
3. Transitiva: x, y, z ∈ X , x ≡ y, y ≡ z ⇒ x ≡ z.
Ejemplo: Sea n un número natural, n ≥ 2. Diremos que dos números enteros a, b ∈ Z son
congruentes módulo n cuando b − a es múltiplo de n:
x̄ = [x] = {y ∈ X : x ≡ y } .
1
2 CAPÍTULO 1. PRELIMINARES
[x] = [y] ⇔ x ≡ y ; x, y ∈ X .
[a] = a + nZ = {a + cn : c ∈ Z} ,
excepto la última. Para demostrarla bastará ver que |z + u|2 ≤ (|z | + |u|)2 :
1 z̄ z̄ x y
= 2 = = 2 − 2 i.
z |z | z · z̄ x + y2 x + y2
1.2. NÚMEROS COMPLEJOS 3
Exponencial Compleja
Definicion: Si t ∈ R, pondremos eti = cos t + i sen t, donde el seno y coseno se consideran
en radianes para que dtd (eit ) = ieit . Tenemos la fórmula de Euler (1707-1783)
e2πi = 1
para algún número real θ = arg z que llamamos argumento de z (bien definido salvo la
adicion de un múltiplo entero de 2π).
Cuando z = x + yi; x, y ∈ R, tenemos que
Ejemplos: Si ρ es un número real positivo, arg ρ = 0, arg (ρi) = π/2, arg (−ρ) = π y
arg (−ρi) = 3π/2 porque
Por otra parte, las fórmulas del seno y coseno de una suma expresan que
0 0
eti et i = e(t+t )i
0
eti et i = (cos t + i sen t)(cos t0 + i sen t0 ) =
¡ ¢ ¡ ¢
= (cos t)(cos t0 ) − (sen t)(sen t0 ) + i (cos t)(sen t0 ) + (sen t)(cos t0 )
0
= cos(t + t0 ) + i sen (t + t0 ) = e(t+t )i ;
0 0
y la igualdad (ρeθi )(ρ0 eθ i ) = ρρ0 e(θ+θ )i
muestra que
|u| = |un | = |z | = ρ
n
y vemos que las raı́ces n-ésimas de un número complejo no nulo se obtienen multiplicando
una de ellas por las raı́ces n-ésimas de la unidad.
4 CAPÍTULO 1. PRELIMINARES
= −1, e = −i, e
2π i 4π i 6π i 8π i
n = 4; e 4 = i, e 4 4 4 = 1.
√ √
− 21 = −1,
2π i 1 3 4π i 3 6π i
n = 6; e 6 = 2 + 2 i,
√
e 6 = + 2√ i, e 6
8π 10π 12π
3 3
e 6 i
= − 12 − 2 i, e 6 i
= 12
− 2 i, e 6 i
= 1.
8π
=− − = −i, e =− −
i
e 8 i 1 1
i, e i i 1 1
i, e = 1.
√ √ 8 8 √ √ 8
2 2 2 2
1.3 Permutaciones
Definicion: Sean X e Y dos conjuntos. Dar una aplicación f : X → Y es asignar a cada
elemento x ∈ X un único elemento f (x) ∈ Y , llamado imagen de x por la aplicación f .
Si g : Y → Z es otra aplicación, llamaremos composición de g y f a la aplicación
¡ ¢
g ◦ f : X −→ Z , (g ◦ f )(x) = g f (x) .
σ : {1, . . . , n} −→ {1, . . . , n} .
El conjunto de todas las permutaciones de n elementos se denota Sn , y está claro que su
cardinal es n! = n · (n − 1) · . . . · 2 · 1. El producto de permutaciones es la composición de
1.3. PERMUTACIONES 5
aplicaciones, y como son aplicaciones biyectivas, toda permutación σ tienen una permutación
inversa σ −1 , de modo que σ −1 (j ) = i cuando σ(i) = j. Además, (στ )−1 = τ −1 σ −1 .
Q
Dada una permutacion σ ∈ Sn , los factores de ∆(xσ(1) , . . . , xσ(n) ) = i<j (xσ(j) − xσ(i) )
coinciden, eventualmente salvo el signo, con los de ∆(x1 , . . . , xn ). Luego ambos polinomios
coinciden o difieren en un signo, ∆(xσ(1) , . . . , xσ(n) ) = ±∆(x1 , . . . , xn ), y llamaremos signo
de σ al número entero sgn(σ) = ±1 tal que
1.4 Matrices
En adelante pondremos K = Q, R ó C, y llamemos escalares a los elementos de K .
Dada una matriz A = (aij ) de m filas y n columnas (donde el subı́ndice i indica la fila
y el subı́ndice j la columna), su matriz traspuesta es At = (aji ), que tiene n filas y m
columnas. Si B = (bjk ) es otra matriz de n filas y r columnas, su producto AB es una
matriz m × r cuyo coeficiente cik de la fila i y columna k es
Pn
cik = j=1 aij bjk = ai1 b1k + ai2 b2k + . . . + ain bnk .
Determinantes
Definicion: El determinante de una matriz cuadrada A = (aij ) de n filas y columnas es
P
|A| = (sgn σ)a1σ(1) . . . anσ(n)
σ ∈ Sn
y tiene las siguientes propiedades (que se probarán en el curso de Álgebra Lineal II):
1. |A| = |At |.
2. Es lineal en cada columna (y por tanto en cada fila):
|A1 , . . . , Ai + Bi , . . . , An | = |A1 , . . . , Ai , . . . , An | + |A1 , . . . , Bi , . . . , An | ,
|A1 , . . . , λAi , . . . , An | = λ|A1 , . . . , Ai , . . . , An | .
3. |Aσ(1) , . . . , Aσ(n) | = (sgn σ)|A1 , . . . , An |.
¯ ¯
¯ a1 0 . . . 0 ¯¯
¯
¯ 0 a2 . . . 0 ¯
4. ¯¯ ¯ = a1 . . . an , |I | = 1.
¯
¯ . . . . . . . . . . . .¯
¯0 0 . . . an ¯
5. |AB | = |A| · |B | , |A−1 | = |A|−1 .
Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y
(Notese que el coeficiente de la fila i y columna j es el adjunto Aji , no Aij ). Por tanto, una
matriz cuadrada A es invertible si y sólo si su determinante no es nulo.
Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.
Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A
coincide con su rango por columnas.
|A1 , . . . , B, . . . , An |
xi =
|A1 , . . . , Ai , . . . , An |
donde A1 , . . . , An denotan las columnas de la matriz A.
porque la matriz (A1 , . . . , Aj , . . . , An ) tiene dos columnas iguales (las columnas i y j) cuando
i = j. Luego xi = |A1 , . . . , B, . . . , An |/|A1 , . . . , Ai , . . . , An | es la única solución del sistema.
Espacios Vectoriales
e + v = e0 + v ⇒ e = e0
e+v =v ⇒ e =0
e + v = 0 ⇒ v = −e
0·e =0 , λ·0 =0
λ · (−e) = (−λ)e = −(λe)
λ(e − v) = λe − λv
λe = 0 ⇒ λ = 0 ó e = 0
1. v1 + v2 ∈ V , para todo v1 , v2 ∈ V .
2. λv ∈ V , para todo λ ∈ K y v ∈ V .
3. 0 ∈ V.
9
2.2.
10 TEORÍA DE LA DIMENSIÓN CAPÍTULO 2. ESPACIOS VECTORIALES
10
Ejemplos:
5. Un espacio vectorial E nunca puede ser el conjunto vacı́o, porque el axioma 3 impone
la existencia del vector nulo. El espacio vectorial que tiene un único vector (que
necesariamente ha de ser el vector nulo) se denota 0.
K e1 + . . . + K en = {λ1 e1 + . . . + λn en ; λ1 , . . . , λn ∈ K }
X = p + V = {p + v; v ∈ V } .
En tal caso diremos que V es la dirección de X , y que X es la subvariedad lineal que
pasa por p con dirección V . Diremos que dos subvariedades lineales p + V y q + W
son paralelas si sus direcciones V y W son incidentes (V ⊆ W ó W ⊆ V ).
11. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K -espacio vectorial
E define una relación de equivalencia en E (llamada congruencia módulo V ):
Veamos que estas definiciones no dependen de los vectores elegidos en las clases:
Si [e1 ] = [e01 ] y [e2 ] = [e02 ], entonces e01 − e1 , e02 − e2 ∈ V ; luego e01 + e02 − (e1 + e2 ) ∈ V
y por tanto [e1 + e2 ] = [e01 + e20 ].
Si [e] = [e0 ], entonces e0 − e ∈ V ; luego λe0 − λe = λ(e0 − e) ∈ V y por tanto [λe] = [λe0 ].
Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de
un vector ē ∈ E/V es [−e], y el vector nulo de E/V es precisamente la clase de 0 ∈ E,
de modo que ē = 0 precisamente cuando e ≡ 0 (módulo V ):
[e] = 0 ⇔ e ∈ V (2.1)
K e 1 + . . . + K en = E .
λ1 , . . . , λn ∈ K y λ1 e 1 + . . . + λn e n = 0 ⇒ λ 1 = . . . = λn = 0 .
Ejemplos 2.2.1
3. unidad,
Las matrices × nbase
definenm una que de
tienen
Mm×todos sus coeficientes nulos, excepto uno que es la
n (K ), base que está formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz.
Demostración: Si vr = 0 es obvio: 0 · v1 + 0 · v2 + . . . + 0 · vr −1 + 1 · vr = 0.
Si vr = 0, procedemos por inducción sobre n. Si n = 1, entonces v1 , vr ∈ K e1 , ası́ que
v1 = λ1 e1 , vr = λr e1 y λr = 0 porque vr = 0. Luego v1 , . . . , vr son linealmente dependientes:
λr v 1 − λ1 v r = λr λ1 e 1 − λ1 λr e 1 = 0 .
Pn
Si n > 1, reordenando los vectores e1 , . . . en si es preciso, tendremos vr = i=1 λi ei con
λn = 0. Despejando, obtenemos que en ∈ K e1 + . . . + K en−1 + K vr , y por tanto
v1 , . . . , v r − 1 ∈ K e1 + . . . + K e n ⊆ K e1 + . . . + K e n − 1 + K v r .
Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual número de vectores.
Ejemplos 2.2.3
1. Según los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (K e) = 1; y si
ademas v ∈ / K e, entonces dim K (K e + K v) = 2.
También, dimK K n = n y dimK Mm ×n (K ) = mn .
2. En particular dimC C = 1; aunque dimR C = 2, porque 1, i forman una base de
C = R + Ri como R-espacio vectorial.
Demostración: Para ver que {e1 , . . . , en } contiene una base de E procedemos por inducción
sobre n.
Si n = 1, e1 = 0 porque K e1 = E = 0; luego e1 es ya una base de E = K e1 .
Si n > 1, y los vectores e1 , . . . , en son linealmente independientes, Pn forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relación i=1 λi ei = 0 con algún
Despejando λei nnotenemos
coeficiente que en ∈ K e1los
nulo. Reordenando + .vectores e11,. . Luego
. . + K en − . . , en E
podemos suponer
= K e1 + en−1λ,n y=por
. . . + Kque 0.
hipotesis de inducción {e1 , . . . , en−1 } contiene una base de E.
Proposición 2.2.6 Sea E un espacio vectorial de dimensión finita. Toda familia {e1 , . . . , er }
de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E,
y por tanto r ≤ dim E. Si además r = dim E, entonces los vectores e1 , . . . , er ya forman
una base de E.
Ejemplos:
1. Con las notaciones del corolario anterior, tenemos que
v1 , . . . , vm son linealmente independientes ⇔ rg A = m .
v1 , . . . , vm generan E ⇔ rg A = dim E .
2. Dados n vectores v1 = (a11 , . . . , an1 ), . . . , vn = (a1n , . . . , ann ) en K n , la condición
necesaria y suficiente para que formen una base de K n es que el determinante de la
matriz A = (aij ) no sea nulo.
3. Sean X = p + V , Y = q + W dos subvariedades lineales paralelas de igual dimensión.
Como dim V = dim W , y además V ⊆ W ó W ⊆ V , 2.2.7.1 afirma que V = W : dos
subvariedades lineales paralelas de igual dimensión tienen la misma dirección.
Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones li-
neales AX = B es compatible si y sólo si rgA = rg(A|B) .
Demostración: Sean A1 , . . . , An las columnas de A, de modo que el sistema AX = B puede
escribirse x1 A1 + . . . + xn An = B, y la condición de que sea compatible significa que en K m
tenemos que B ∈ hA1 , . . . , An i; es decir, que hA1 , . . . , An i = hA1 , . . . , An , B i. Ahora bien,
el teorema 2.2.7.1 afirma que
s : V1 × . . . × Vr −→ V1 + . . . + Vr , s(v1 , . . . , vr ) = v1 + . . . + vr ,
Teorema 2.3.1 La condición necesaria y suficiente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V ∩ W = 0.
0 = 0 + 0 = e + (−e) ,
Ejemplos:
E = K e1 ⊕ . . . ⊕ K e n
Aplicaciones Lineales
17
3.2.
18 TEOREMA DE ISOMORFÍA CAPÍTULO 3. APLICACIONES LINEALES
18
dim (Im f ) = rg A
P P
Demostración: Sea e1 , . . . , en una base de E. Como f ( i λ i ei ) = i λi f (ei ), la imagen de
f est generada por los vectores f (e1 ), . . . , f (en ):
Im f = hf (e1 ), . . . , f (en )i ,
y tenemos que dim hf (e1 ), . . . , f (en )i = rg A de acuerdo con 2.2.8 y 3.1.
3.2.
19 TEOREMA DE ISOMORFÍA CAPÍTULO 3. APLICACIONES LINEALES
19
Diremos que dos K -espacios vectoriales E y E 0 son isomorfos si existe algún isomorfismo
K -lineal f : E → E 0 , en cuyo caso pondremos E ' E 0 .
Ejemplos:
s : V1 × . . . × Vn → V1 + . . . + Vn , s(v1 , . . . , vn ) = v1 + . . . + vn ,
f : K n −→ E , f (x1 , . . . , xn ) = x1 e1 + . . . + xn en ,
E/Ker f ' Im f
Demostración: Veamos primero que φ es una aplicación bien definida, que φ(ē) no depende
del representante elegido, que si ē = v̄, entonces f (e) = f (v). Ahora bien, si ē = v̄, entonces
e ≡ v (módulo Ker f ); luego v − e ∈ Ker f , 0 = f (v − e) = f (v) − f (e) y f (e) = f (v).
Veamos ahora que tal aplicación φ es lineal:
Definicion: Fijada una base de un espacio vectorial de dimensión finita E, dar ecuaciones
paramétricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores de V (mejor si forman una base de V ), y dar ecuaciones implı́citas de V es dar
un sistema homogéneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones
sean las coordenadas de los vectores de V .
Dar ecuaciones paramétricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores de la dirección de X , y dar ecuaciones im-
plı́citas de X es dar un sistema de ecuaciones lineales cuyas soluciones sean las coordenadas
de los puntos de X .
cuya dirección V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dim V = 2. Hallemos primero ecuaciones implı́citas de la dirección V .
3.2.
21 TEOREMA DE ISOMORFÍA CAPÍTULO 3. APLICACIONES LINEALES
21
1 4 x1
2 3 x2
2 = rg
3 2 x3
4 1 x4
¯ ¯
¯ 4 x1 ¯¯
¯1
0 = ¯¯2 3 x2 ¯¯ = −5x1 + 10x2 − 5x3
¯3 2 x3 ¯
¯ ¯
¯ 4 x1 ¯¯
¯1
0 = ¯¯2 3 x2 ¯¯ = −10x1 + 15x2 − 5x4
¯4 1 x4 ¯
Vemos ası́ que las coordenadas de los vectores de V son soluciones del sitema de ecuaciones
lineales homogéneo ¾
x1 − 2x2 + x3 = 0
(3.3)
2x1 − 3x2 + x4 = 0
Como ambos subespacios vectoriales de K 4 tienen dimensión 2, coinciden, de modo que unas
ecuaciones implı́citas de V vienen dadas por 3.3. Ahora, como la subvariedad lineal X pasa
por el punto de coordenadas (2, 1, 1, 3), unas ecuaciones implı́citas de X son
¾
x1 − 2x2 + x3 = 1
2x1 − 3x2 + x4 = 4
Las columnas de la matriz de cambio de base B están formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id : E → E cuando en el espacio de salida se considera la nueva base v1 , . . . , vn y en el de
llegada la base antigua e1 , . . . , en .
Por tanto, de acuerdo con 3.2, si X̄ son las coordenadas de un vector e ∈ E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = BX̄ .
Por otra parte, también tenemos una matriz de cambio de base C ∈ Mn×n (K ) cuando
se considera que v1 , . . . , vn es la base inicial de E y que e1 , . . . , en es la nueva base, de
modo que X̄ = C X . Luego X = BC X y X̄ = C BX̄ , y como estas igualdades son válidas
para cualesquiera columnas X, X̄ , se concluye que BC = C B = I . Es decir, la matriz B es
invertible, y su inversa es la matriz C . En resumen, la relación entre las coordenadas X y
X̄ de un mismo vector e ∈ E en las bases e1 , . . . , en y v1 , . . . , vn respectivamente es
X = BX̄ , X̄ = B −1 X (3.5)
Aplicaciones Lineales
Sea f : E → E 0 una aplicación lineal y sea A ∈ Mm×n (K ) la matriz de f en ciertas bases
e1 , . . . , en y e01 , . . . , e0m de E y E 0 respectivamente.
Consideremos nuevas bases v1 , . . . , vn y v 01, . . . , v 0m de E y E 0 respectivamente, las
correspondientes matrices de cambio de base B ∈ Mn×n (K ) y C ∈ Mm×m (K ), y sea
Ā ∈ Mm×n (K ) la matriz de f en estas nuevas bases de E y E 0 . Vamos a determinar la
nueva matriz Ā de f en términos de la matriz A y las matrices de cambio de base B y C
Sean X y X̄ las coordenadas de un vector e ∈ E en las bases e1 , . . . , en y v1 , . . . , vn
respectivamente, y sean X 0 e X̄ 0 las coordenadas de f (e) ∈ E 0 en las bases e01, . . . , e0m y
v10 , . . . , vm
0 respectivamente. De acuerdo con 3.2 tendremos que
X 0 = AX , X̄ 0 = ĀX̄
AX = X 0 = C X̄ 0 = C ĀX̄ = C ĀB −1 X .
Geometrı́a Euclı́dea
Ejemplos:
1. En la geometrı́a euclı́dea, los vectores con origen en un punto prefijado O forman un
espacio vectorial real de dimensión 3. Fijada una unidad de longitud, el módulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
el producto de sus módulos por el coseno del ángulo que forman. Éste es el ejemplo
paradigmatico de producto escalar, que motiva los nombres que introduciremos.
2. El producto escalar usual en Rn es
P
n
(x1 , . . . , xn ) · (y1 , . . . , yn ) = xi yi = x 1 y 1 + . . . + xn y n .
i=1
23
24 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA
luego (e · v)2 ≤ (e · e)(v · v), y tomando raı́z cuadrada vemos que |e · v | ≤ kek · kv k.
En cuanto a la desigualdad triangular, como |e · v | ≤ kek · kv k, tenemos que
ke + v k2 = (e + v) · (e + v) = e · e + v · v + 2(e · v) ≤ e · e + v · v + 2|e · v | ≤
≤ k ek 2 + k v k 2 + 2 k e k · k v k = ( k e k + k v k ) 2
3. En un triángulo (la figura formada por tres puntos no alineados abc) las igualdades
a+b+c a 2b+c b 2a+c c 2a+b
= + = + = +
3 3 3 2 3 3 2 3 3 2
muestran que las tres medianas (rectas que unen un vértice con el punto medio del
lado opuesto) se cortan en el punto g = a+b+c3 , llamado baricentro o centro de
gravedad, que divide a cada mediana en la proporción 2:1.
4. Si h es el punto de corte de las alturas (rectas que pasan por un vértice y son per-
pendiculares al lado opuesto) trazadas por los vértices c y a, tendremos que
(b − a) · (h − c) = 0 (4.1)
(c − b) · (h − a) = 0 (4.2)
0 = 2(b − a) · (f − a+b
2 ) = (b − a) · 2f + a · a − b · b (4.3)
0 = 2(c − b) · (f − b+c
2 ) = (c − b) · 2f + b · b − c · c (4.4)
y sumando obtenemos que 0 = (c − a) · 2f + a · a − c · c = 2(c − a) · (f − a+c
2 ),
de modo
que la mediatriz del lado ab también pasa por f : las tres mediatrices se cortan en un
punto f , llamado circuncentro.
a+b+c
6. Sumando ahora 4.1 con 4.3, y 4.2 con 4.4, y recordando que el baricentro es g = 3 ,
obtenemos también que
(b − a) · (h + 2f − 3g) = 0
(c − b) · (h + 2f − 3g) = 0
f : E −→ Rd , f (e) = (e · v1 , . . . , e · vd ) .
Su núcleo es
Ker f = {e ∈ E : e · v1 = 0, . . . , e · vd = 0} = (Rv1 + . . . + Rvd )⊥ = V ⊥ ,
porque si un vector e ∈ E es ortogonal a ciertos vectores, e · v1 = . . . = e · vd = 0, entonces
también es ortogonal a todas sus combinaciones lineales,
e · (λ1 v1 + . . . + λd vd ) = λ1 (e · v1 ) + . . . + λr (e · vd ) = 0 ,
de modo que e ∈ (Rv1 + . . . + Rvd )⊥ . Luego V ⊥ es un subespacio vectorial de E y
Ejemplos:
1. Se llama distancia de un punto p a una subvariedad lineal X al ı́nfimo de las distancias
de p a los puntos de X :
d(p, X ) = inf d(p, x) .
x∈ X
e · v = (x1 e1 + . . . + xn en ) · (y1 e1 + . . . + yn en ) = x1 y1 + . . . + xn yn .
Endomorfismos
5.1 Polinomios
En este capı́tulo, de nuevo los escalares serán K = Q, R ó C.
0 = p(α) = (α − α)q(α) + r = r ,
y concluimos p(x) = (x − α)q(x).
29
5.3.
30 DIAGONALIZACIÓN DE ENDOMORFISMOSCAPÍTULO 5. ENDOMORFISMOS
30
Si se considera una nueva base en E, y B es la matriz del cambio de base, según 3.6 la
matriz Ā de T en la nueva base es
Ā = B −1 AB . (5.2)
Definicion: Dado un endomorfismo T de un K -espacio vectorial de dimensión finita E,
diremos que un escalar α ∈ K es un valor propio de T si existe algún vector no nulo e ∈ E
tal que T (e) = αe, en cuyo caso diremos que e es un vector propio de T y pondremos
para cierta matriz cuadrada Ā de n − 1 columnas. Luego c(x) = (x − α)c̄(x), donde c̄(x) =
|xI − Ā| y, por hipótesis de inducción, c̄(Ā) = 0. Ahora
µ r ¶
r α ...
A =
0 Ār
µ ¶µ ¶ µ ¶µ ¶
0 ... c̄(α) ... 0 ... c̄(α) ...
c(A) = (A − αI )c̄(A) = = =0.
0 B 0 c̄(Ā) 0 B 0 0
Ahora, para resolver el sistema X̄ 0 = DX̄ , basta observar que la solución general de la
ecuacion diferencial x̄0i = αi x̄i es
Ejemplos:
1. Para resolver la ecuación diferencial x00 = ax0 + bx, a, b ∈ R, planteamos el siguiente
sistema de ecuaciones diferenciales con una nueva función incógnita y(t):
( µ ¶0 µ ¶µ ¶ µ ¶
x0 = y x 0 1 x 0 1
= , A =
,
0 y b a y b a
y = ay + bx
En las soluciones reales c1 y c2 han de ser conjugados, c1 = ρeiθ y c2 = ρe−iθ , ası́ que
¡ ¢
x(t) = eαt ρei(ωt+θ) + ρe−i(ωt+θ)
x(t) = c eαt cos(ωt + θ) c, θ ∈ R .
5.3.
33 DIAGONALIZACIÓN DE ENDOMORFISMOSCAPÍTULO 5. ENDOMORFISMOS
33
5.3.
34 DIAGONALIZACIÓN DE ENDOMORFISMOSCAPÍTULO 5. ENDOMORFISMOS
34
3. Para hallar las sucesiones (xn ) = (x0 , x1 , . . .) tales que xn+2 = axn+1 +bxn , planteamos
el siguiente sistema de ecuaciones con una nueva sucesión incógnita (yn ):
( µ ¶ µ ¶µ ¶
xn+1 = yn xn+1 0 1 xn
, = , Xn+1 = AXn
yn+1 = ayn + bxn yn+1 b a yn
xn = c1 α1n + c2 αn2
4. La sucesión de Fibonacci (1170-1250) es la sucesión 0, 1, 1, 2, 3, 5, 8, 13,... cuyos
términos iniciales son x0 = 0, x1 = 1, y cada término es la suma de los dos anteriores:
n . Como las raı́ces del polinomio u − u − 1 son α1 = φ y α2 = −φ
xn+2 = xn+1 + x√ 2 −1 ,
φn − (− φ)−n
xn = √ .
5
Teorema 5.3.1 Si α1 , . . . , αm son valores propios de un endomorfismo T , distintos entre
sı́, entonces la suma de los subespacios vectoriales Vα1 , . . . , Vαm es directa, y por tanto
dim (Vα1 + . . . + Vαm ) = dim Vα1 + . . . + dim Vαm .
Demostración: Según la definición de suma directa, hemos de probar que es inyectiva la
siguiente aplicación lineal:
s : Vα1 × . . . × Vαm −→ Vα1 + . . . + Vαm , s(v1 , . . . , vm ) = v1 + . . . + vm .
Procedemos por inducción sobre m, y el enunciado es obvio cuando m = 1.
Si m > 1 y v1 + . . . + vm = 0, donde vi ∈ Vαi , tendremos que
0 = T (v1 + . . . + vm ) = α1 v1 + . . . + αm vm
y restando la igualdad 0 = αm (v1 + . . . + vm ) obtenemos que
0 = (α1 − αm )v1 + . . . + (αm−1 − αm )vm−1 .
Por hipótesis de inducción, se sigue que (α1 − αm )v1 = . . . = (αm−1 − αm )vm−1 = 0. Como
αi = αj cuando i = j, concluimos que v1 = . . . = vm− 1 = 0, y por tanto que también
vm = −v1 − . . . − vm−1 = 0.
Por último, dim (Vα1 ⊕ . . . ⊕ Vαm ) = dim Vα1 + . . . + dim Vαm de acuerdo con 3.2.5.
5.3.
35 DIAGONALIZACIÓN DE ENDOMORFISMOSCAPÍTULO 5. ENDOMORFISMOS
35
Demostración: Si α1 , . . . , αn son los valores propios de T , tenemos que 1 ≤ dim Vαi ası́ que
mi = dim Vαi .
α1 0 ... 0
0 α2 ... 0
D =
. .. ... ... ...
0 0 ... αn
m1 + . . . + mr = gr cT (x) = dim E .
35
36 ÍNDICE DE MATERIAS
modulo signo de una permutación, 4
de un número complejo, 2 simetrı́a, 24
de un vector, 21 simple, raı́z, 27
matriz, 5 sistema de generadores, 9
, determinante de una, 5 subespacio vectorial, 7
, menor de una, 6 subvariedad lineal, 8
, rango de una, 6 suma
invertible, 5 de subespacios vectoriales, 8
traspuesta, 5 directa, 14
unidad, 5 suplementario, 14
mediana, 11
mediatriz, 22 trasposición, 4
medio, punto, 11 traspuesta, matriz, 5
menor de una matriz, 6 triángulo, 11
multiplicidad de una raı́z, 27
unidad, matriz, 5
núcleo, 15
valor propio, 28
ortocentro, 22 vector, 7
ortogonal propio, 28
, proyeccion, 24
, subespacio vectorial, 23
ortonormal, base, 25
paralelismo, 8
paralelogramo, 11
paramétricas, ecuaciones, 18
permutacion, 4
impar, 4
par, 4
perpendicularidad, 24
Pitagoras, teorema de, 22
plano, 11
polinomio caracterı́stico, 28
producto
de matrices, 5
de números complejos, 2
escalar, 21
propio
, valor, 28
, vector, 28
proyeccion
canonica, 4
ortogonal, 24
raı́z simple, 27
rango, 6
, teorema del, 6
real, parte, 2
recta, 11
relacion, 1
de equivalencia, 1
Rouché-Frobënius, teorema de, 6, 13
Ruffini, regla de, 27