3 de octubre de 2018
Índice
1. Complemento Ortogonal 2
3. Diagonalización 4
1
1. Complemento Ortogonal
Ya en clases anteriores habı́amos definido el complemento ortogonal de un subespacio vec-
torial, esto es:
Sea V Espacio vectorial de dimensión finita (dimV = n < ∞) y W ≤ V entonces:
W ⊥ = {x ∈ V |hx, wi = 0, ∀w ∈ W }
Es decir, el conjunto de los vectores de V que son ortogonales a todos los vectores que
pertenenceen a W . El complemento ortogonal W ⊥ no es sólo un sunconjunto de V sino
que es un subespacio de V , esto debido a que usando las propiedades del producto interno,
si v es ortogonal a w entonces v es ortogonal a todos los múltiplos de w y que, si si v es
ortogonal a w y z a la vez, entonces v es ortogonal a v + w. En particular, si tenemos un
subespacio S = hv1 , v2 , ..., vk i entonces para buscar el complemento ortogonal alcanza con
encontrar los vectores w que son ortogonales a todos y cada uno de los vi .
Esto es KerA = W ⊥ .
Figura 1: Ejemplo.
2
2. Proceso de Ortonormalización de Gram-Schmdit y
Matrices Ortogonales
El proceso de ortonormalización de Gram–Schmidt es un algoritmo para construir, a
partir de un conjunto de vectores de un espacio vectorial con producto interno, otro conjunto
ortonormal de vectores que genere el mismo subespacio vectorial.
Sea V un espacio vectorial de dimensión finita n y una base de V dada por B = {v1 , v2 , ..., vn }.
Primero recordemos que dados u, v ∈ V y projv u = hu,vikvk2
v se tiene que:
u − projv u ⊥ v
Teorema 3. Si B = {v1 , v2 , ..., vn } es una base de V entonces el conjunto formado por los
vectores:
u1 = v1
n−1
P
un = vn − projuk vn
k=1
uk
es una base ortogonal para V . En particular el conjunto B1 = {wk = kuk k
|k = 1, ..., n} es
una base ortonormal de V
Dada A ∈ Mn (F) se dice que A es una matriz ortogonal si y sólo si A−1 = AT , esto es,
AT A = AAT = I.
A es una matriz ortogonal si y sólo si sus filas y columnas forman bases ortonormales
para Fn .
A es una matriz ortogonal entonces hAx, Ayi = hx, yi, ∀x, y ∈ Fn , es decir, A deja
invariante el producto interno.
3
3. Diagonalización
Dada A ∈ Mn (F) se define el polinomio caracterı́stico de A como PA (λ) = det(λI − A)
y a cada λ ∈ F tal que PA (λ) = 0 se le llama autovalor o valor propio o en algunos casos
eigenvalor. Asociado a cada λ si existe un vector v ∈ Fn no nulo tal que Av = λv, este
vector se llama autovector o vector propio o eigenvector asociado al autovalor λ.
2 1 1
The transformation matrix preserves the direction of vectors parallel to (in
1 2 1
1
blue) and (in violet). The points that lie on the line through the origin, parallel to
−1
an eigenvector, remain on the line after the transformation. These lines are represented as
faint blue and violet lines, matching the associated eigenvectors. The vectors in red are not
eigenvectors, therefore their direction is altered by the transformation. Notice that all blue
vectors are scaled by a factor of 3. This is their associated eigenvalue. The violet vectors are
not scaled, so their eigenvalue is 1.
4
Al valor γA (λk ) = N ull(λk I − A) = dim(Ker(λk I − A)) se le llama multiplicidad
geométrica del autovalor λk .
Se cumple que la multiplicidad geométrica de un autovalor no puede ser menor que 1 y que
ésta tampoco puede exceder a la multiplicicdad algebraica del autovalor la cual no puede
exceder n, por tanto tenemos la siguiiente desigualdad:
1 ≤ γA (λ) ≤ µA (λ) ≤ n
Ahora supongamos que tenemos k ≤ n autovalores distintos λj de la matriz A, la multipli-
cidad geométrica total de A es (y satisface la desigualdad):
k
X
γA = γA (λj )
j=1
k ≤ γA ≤ n
Dado un autovalor λ de A, decimos que es un Autovalor Simple si µA (λ) = 1, y decimos
que es un Autovalor Semisimple si µA (λ) = γA (λ).
Basandonos en las desigualdades anteriores tenemoslos siguientes resultados.
Las siguientes definiciones nos ayudarán a entender los algoritmos para diagonalizar matrices:
Dos matrices cuadradas son congruentes si existe una matriz invertible P tal que
B = P T AP .
Dos matrices cuadradas A y B son semejantes si existe una matriz invertible P tal
que B = P −1 AP .