Anda di halaman 1dari 6

Universidad de los Llanos

Omar Enrique Garcia Caicedo

Notas Algebra Lineal en LATEX

3 de octubre de 2018
Índice
1. Complemento Ortogonal 2

2. Proceso de Ortonormalización de Gram-Schmdit y Matrices Ortogonales 3

3. Diagonalización 4

1
1. Complemento Ortogonal
Ya en clases anteriores habı́amos definido el complemento ortogonal de un subespacio vec-
torial, esto es:
Sea V Espacio vectorial de dimensión finita (dimV = n < ∞) y W ≤ V entonces:

W ⊥ = {x ∈ V |hx, wi = 0, ∀w ∈ W }

Es decir, el conjunto de los vectores de V que son ortogonales a todos los vectores que
pertenenceen a W . El complemento ortogonal W ⊥ no es sólo un sunconjunto de V sino
que es un subespacio de V , esto debido a que usando las propiedades del producto interno,
si v es ortogonal a w entonces v es ortogonal a todos los múltiplos de w y que, si si v es
ortogonal a w y z a la vez, entonces v es ortogonal a v + w. En particular, si tenemos un
subespacio S = hv1 , v2 , ..., vk i entonces para buscar el complemento ortogonal alcanza con
encontrar los vectores w que son ortogonales a todos y cada uno de los vi .

Teorema 1. El complememnto ortogonal de W = hw1 , w2 , ..., wk i es el kernel de la matriz


A cuyas filas son una base de W .
 
− w1T −
 − w2T − 
A=
 
.. 
 . 
T
− wk −

Esto es KerA = W ⊥ .

Teorema 2. Sea W ≤ V con dimV < ∞, entonces (W ⊥ )⊥ = W además, W ⊕ W ⊥ = V


esto implica que dimW + dimW ⊥ = dimV y todo vector v ∈ V puede descomponerse de
forma única como: v = vW + vW ⊥ donde vW ∈ W y vW ⊥ ∈ W ⊥ .

Figura 1: Ejemplo.

2
2. Proceso de Ortonormalización de Gram-Schmdit y
Matrices Ortogonales
El proceso de ortonormalización de Gram–Schmidt es un algoritmo para construir, a
partir de un conjunto de vectores de un espacio vectorial con producto interno, otro conjunto
ortonormal de vectores que genere el mismo subespacio vectorial.
Sea V un espacio vectorial de dimensión finita n y una base de V dada por B = {v1 , v2 , ..., vn }.
Primero recordemos que dados u, v ∈ V y projv u = hu,vikvk2
v se tiene que:

u − projv u ⊥ v

Entonces tomando los vectores de definimos los siguientes vectores:

Teorema 3. Si B = {v1 , v2 , ..., vn } es una base de V entonces el conjunto formado por los
vectores: 
 u1 = v1
n−1
P
 un = vn − projuk vn
k=1
uk
es una base ortogonal para V . En particular el conjunto B1 = {wk = kuk k
|k = 1, ..., n} es
una base ortonormal de V

Figura 2: Las dos primeras iteraciones del Proceso de Gram-Schmidt

Dada A ∈ Mn (F) se dice que A es una matriz ortogonal si y sólo si A−1 = AT , esto es,
AT A = AAT = I.

Teorema 4. Una matriz ortogonal tiene las siguientes propiedades:

A es una matriz ortogonal si y sólo si sus filas y columnas forman bases ortonormales
para Fn .

A es una matriz ortogonal entonces hAx, Ayi = hx, yi, ∀x, y ∈ Fn , es decir, A deja
invariante el producto interno.

3
3. Diagonalización
Dada A ∈ Mn (F) se define el polinomio caracterı́stico de A como PA (λ) = det(λI − A)
y a cada λ ∈ F tal que PA (λ) = 0 se le llama autovalor o valor propio o en algunos casos
eigenvalor. Asociado a cada λ si existe un vector v ∈ Fn no nulo tal que Av = λv, este
vector se llama autovector o vector propio o eigenvector asociado al autovalor λ.

   
2 1 1
The transformation matrix preserves the direction of vectors parallel to (in
  1 2 1
1
blue) and (in violet). The points that lie on the line through the origin, parallel to
−1
an eigenvector, remain on the line after the transformation. These lines are represented as
faint blue and violet lines, matching the associated eigenvectors. The vectors in red are not
eigenvectors, therefore their direction is altered by the transformation. Notice that all blue
vectors are scaled by a factor of 3. This is their associated eigenvalue. The violet vectors are
not scaled, so their eigenvalue is 1.

Figura 3: Ejemplo 2x2

Normalmente se trabajará en el campo de los números complejos C, entonces por el


Teorema Fundamental del Algebra el polinomio caracterı́stico de una matriz se factoriza de
la siguiente manera:

PA (λ) = (λ − λ1 )α1 (λ − λ2 )α2 · · · (λ − λk )αk


Al valor µA (λk ) = αk se le llama la multiplicidad algebraica del autovalor λk (es la
multiplicidad como cero del polinomio PA (λ)).
Dado un autovalor λk se define el Espacio Propio o EigenEspacio de λk :

Eλk = {v ∈ Fn |(λk I − A)v = 0} = Ker(λk I − A)

4
Al valor γA (λk ) = N ull(λk I − A) = dim(Ker(λk I − A)) se le llama multiplicidad
geométrica del autovalor λk .

Se cumple que la multiplicidad geométrica de un autovalor no puede ser menor que 1 y que
ésta tampoco puede exceder a la multiplicicdad algebraica del autovalor la cual no puede
exceder n, por tanto tenemos la siguiiente desigualdad:

1 ≤ γA (λ) ≤ µA (λ) ≤ n
Ahora supongamos que tenemos k ≤ n autovalores distintos λj de la matriz A, la multipli-
cidad geométrica total de A es (y satisface la desigualdad):
k
X
γA = γA (λj )
j=1

k ≤ γA ≤ n
Dado un autovalor λ de A, decimos que es un Autovalor Simple si µA (λ) = 1, y decimos
que es un Autovalor Semisimple si µA (λ) = γA (λ).
Basandonos en las desigualdades anteriores tenemoslos siguientes resultados.

Proposición 5. Si λ es un autovalor simple de A entonces es un autovalor semisimple de


A.

Teorema 6. Sea A ∈ Mn (F), entonces las siguientes afirmaciones son equivalentes:

1. A es similar a una matriz diagonal.

2. A tiene n autovalores linealmente independientes.

3. Todos los autovalores de A son semisimples.

4. Los autovectores de A forman una base de Fn .

Las siguientes definiciones nos ayudarán a entender los algoritmos para diagonalizar matrices:

Dos matrices rectangulares (m × n) A y B son equivalentes si existen matrices inver-


tibles Pn×n y Qm×m tales que B = Q−1 AP .

Dos matrices cuadradas son congruentes si existe una matriz invertible P tal que
B = P T AP .

Dos matrices cuadradas A y B son semejantes si existe una matriz invertible P tal
que B = P −1 AP .

Dada una A una matriz cuadrada simétrica n × n se define la signatura de A


como σA = n+ − n− donde n+ es el número de autovalores positivos y n− es el número
de autovalores negativos de A.

Anda mungkin juga menyukai