Anda di halaman 1dari 7

Unidad 3: Vectores y valores propios

31 Función determinante: Sea K y sea A ∈ Knxn [A1,…Aj,…Ar,…An], llamaremos función determinante a una función
det: Knxn→K, A→det(A) si y solo si, satisface:
 El determinante de una matriz con dos columnas iguales (o una columna nula), es cero. Si Aj=Ar, det[A]=0
 El determinante de la suma de dos columnas, es la suma de los determinantes de cada columna. det[A1+A2]
= det[A1] + det[A2]
 Sacar los escalares adelante. det[kA] = k det[A]
 El determinante de la identidad, es uno. det(I)=1
La función determinante no es lineal.

Propiedades:
 Si cambio dos filas o columnas, el determinante cambia de signo.
 Si combino dos filas o columnas, el determinante no cambia.
 Si multiplico una fila o columna por un escalar, el determinante también se multiplica por ese escalar.
 312 a. det(A) = det(AT), la traspuesta es poner las filas como columnas.
 312 b. det(A.B) = det(A).det(B)

a b
313 Calculo determinante: matriz 2x2 [ ] det = ad - bc
c d
3131 Regla de Sarrus: a una matriz 3x3 agregarle las dos primeras columnas. Al producto de los elementos que están
en las diagonales descendentes de izquierda a derecha, se le resta los ascendentes.
3132 Cofactores: posicionarse en un elemento, eliminar la fila y columna de ese elemento, y calcular el
determinante de la matriz restante, multiplicándolo por el número en esa posición. Si es el elemento está en una
posición impar (los números de la fila y columnas sumados) el determinante cambia de signo.
3134 Reducción: buscar la matriz triangular. El determinante de una matriz triangular es el producto de la diagonal.

32 Aplicaciones algebraicas
 Matriz cofactor: (cA) remplazo cada elemento por su cofactor.
 Matriz adjunta: (adj(A)) es la traspuesta del matriz cofactor, escribo las filas como columnas.
 Matriz inversa: (A-1) es la inversa del determinante (1/det(A)), por la matriz adjunta. Si el determinante es
cero, no tiene inversa.
Aplicación: para buscar la inversa, busco la matriz cofactor, luego la adjunta, y la multiplico por la inversa del
determinante. Para verificar A.A-1 = I

33 Valores y vectores propios: sea A ∈ Rnxn


Valores propios: un escalar λ ∈ R se llama valor propio, si existe un vector X no nulo, tal que: A.X = λ.X
 Determinación de los valores propios:
Teorema: λ es el valor propio de A si y solo si det(λI-A)=0
Demostración: de la definición de valor propio, debe existir algún vector X no nulo, tal que: A.X = λ.X, recordando
que la matriz identidad es el elemento neutro para la multiplicación de matrices se tiene que X=I.X entonces:
A.X = λ.I.X
A.X - λ.I.X = 0
(A - λ.I).X = 0
Para que λ sea un valor propio de la matriz A debe existir un vector no nulo que satisfaga la ecuación. Como se trata
de un sistema de ecuaciones lineales homogéneo de igual número de incógnitas que de ecuaciones, para que exista
una solución distinta de la trivial, es necesario que la matriz de los coeficientes no sea inversible, es decir, que su
determinante sea cero.
ꓱ X≠0 / (A-λ.I).X=0 si y solo si det(A - λ.I)=0
Vectores propios: un vector X no nulo se llama vector propio, si existe algún escalar λ ∈ R, tal que: A.X = λ.X
 Determinación de los vectores propios (X): son las soluciones del sistema de ecuaciones (A-λ.I).X=0
 Determinación de los subespacio propios (Vλ): combinación lineal de los vectores propios, se incluye el nulo.
Aplicación:
1. Calculo los valores propios, det(A-λI)=0. Elijo la primera fila, y aplico el método de cofactor (al único que se le
cambia el signo es a12).
2. Calculo los vectores propios, (A-λI)X=0 con cada λ encontrado. Resuelvo el sistema, si es necesario reduzco
las condiciones. El vector nulo no puede ser vector propio, es decir, si al resolver el sistema las x son todas
iguales a cero significa que el valor propio no corresponde.
3. Presento el subespacio, pongo entre <> los vectores propios que correspondes a cada valor.

34 Diagonalizacion de una matriz: sea A  Rnxn. A es diagonizable si existe P inversible / P-1.A.P = D.


341 Condición necesaria y suficiente: sea A  Rnxn, A es diagonizable si y solo si tiene n vectores propios LI.
Matriz P: formada por los vectores propios que sean LI. Propiedad: vectores de subespacio propios diferentes son LI.
Matriz D: su diagonal está formada por los valores propios correspondientes a los vectores que forman P (en el
mismo orden).
Aplicación: por condición necesaria establezco cuantos vectores propios necesito para que diagonalice, busco los
vectores propios si son los suficientes, armo P y D.

351 Matriz ortogonal: una matriz P inversible, es ortogonal si P-1 = PT, entonces P.PT = PT.P = I
Teorema: si P es ortogonal, sus columnas y filas son ortonormales, es decir son LI, su producto interno da cero, y su
módulo uno.

352 Diagonalizacion ortogonal de una matriz: Sea A  Rnxn, A diagonaliza ortogonalmente si existe una matriz P
ortogonal tal que PT.A.P = D.
Teorema: A diagonaliza ortogonalmente si es simétrica, es decir Aij = Aji para todo i, j.
Aplicación: si es simétrica, busco los vectores propios, controlo que su producto interno de cero, si no ortogonalizo
con Gram Schmidt, armo P y D. Si quiero la matriz ortonormal, divido cada columna de P ortogonal por su módulo.

Unidad 4: Aplicaciones lineales


41 Aplicaciones lineales: Sean V y W EV sobre K. Diremos que F: V→W es una aplicación lineal si y solo si satisface:
 F(u + v) = F(u) + F(v)
 F(kv) = k F(v)
Buscar la regla:
1. Un vector cualquiera igualado a CL del conjunto de partida.
2. Despejo k que me queden en función de x, y las remplazo en la CL.
3. Aplico F y por linealidad saco los escalares adelante.
4. Cambio por sus parejas, distribuyo y resuelvo. Verifico con las parejas

411 Propiedades:
 La imagen del nulo en V, es el vector nulo en W: F(0v) = 0w.
 Un vector negativo tiene una imagen negativa: F(-v)= -F(v).
 Linealidad: F(k1v1 + k2v2 + knvn) = k1 F(v1) + k2 F(v2) + kn F(vn).

412 Teorema: Sean V y W espacios vectoriales sobre K. Si B=(v1, v2,vn) es una base ordenada de V; y w1 w2 wn  W,
entonces existe una única aplicación lineal F: V→W tal que F(v) = w.
Demostración:
 Probaremos existencia: todo vector de V es combinación lineal de la base B, v = k1v1 + k2v2 + knvn. Por otro
lado, el vector w = k1w1 + k2w2 + knwn pertenece a W.
Consideremos la aplicación F: V→W
Los escalares de v se los pongo a w
F(v1) = 1 w1 + 0 w2 + 0 wn = w1
F(v2) = 0 w1 + 1 w2 + 0 wn = w2
F(vn) = wn
 Probaremos linealidad: sean v y v’ vectores de V, queremos verificar:
a. F(k v) = k F(v)
F(k(k1v1 + k2v2 + knvn)) = k F(k1v1 + k2v2 + knvn)
F(kk1v1 + kk2v2 + kknvn) = k(k1w1 + k2w2 + knwn)
kk1w1 + kk2w2 + kknwn = kk1w1 + kk2w2 + kknwn
b. F(v + v’) = F(v) + F(v’)
v = k1v1 + k2v2 + knvn
v’ = k1’v1 + k2’v2 + kn’vn
(v + v’) = (k1+k1’)v1 + (k2+k2’)v2 + (kn+kn’)vn
F(v + v’) = (k1+k1’)F(v1) + (k2+k2’)F(v2) + (kn+kn’)F(vn)
F(v + v’) = (k1+k1’)w1 + (k2+k2’)w2 + (kn+kn’)wn
F(v) = k1w1 + k2w2 + knwn
F(v’) = k1’w1 + k2’w2 + kn’wn
F(v) + F(v’) = (k1+k1’)w1 + (k2+k2’)w2 + (kn+kn’)wn
F(v + v’) = F(v) + F(v’) #
 Probaremos unicidad: considero que existe G: V→W una aplicación lineal, tal que G(v)=w.
G(v) = G(k1v1 + k2v2 + knvn) = k1 G(v1) + k2 G(v2) + kn G(vn)
G(v) = k1w1 + k2w2 + knwn = F(v)
Aplicación: F(v) = w.
1. CL del conjunto de partida = v (dato), despejo k.
2. CL del conjunto de llegada con los k que obtuve = F(v).

42 Sean V y W sobre K, y sea F: V→W…


Núcleo: …se denomina núcleo de F al conjunto: Nf = {v  V/ F(v) = 0w} que todo elemento de la regla sea igual a 0
1. Es subespacio de V.
2. Si dim V = n entonces dim Nf ≤ n.
3. Si w0  If entonces la imagen inversa de w0 es una variedad lineal cuyo subespacio asociado es el Nf.
Demostración: el enunciado afirma que A = v0 + Nf
Por un lado: A  v0 + Nf
Para todo v  A se tiene que v = v0 + (v-v0)
F(v-v0) = F(v) – F(v0) = w0 - w0 = 0w, (v-v0)  Nf
v  v0 + Nf por lo tanto A  v0 + Nf
Por el otro: v0 + Nf  A
Sea v  v0 + Nf luego v = v0 + u con u  Nf
F(v) = F(v0 + u) = F(v0) + F(u) = w0 + 0w = w0
v  A por lo tanto v0 + Nf  A #

Imagen: …se denomina imagen de F al conjunto: If = {w  W/ ꓱ v  V: F(v) = w} la CL de las parejas, si no tengo las
parejas a la base le aplico la regla
1. Es subespacio de W.
2. Si dim V = n entonces dim If ≤ n.
3. Si v1, v2, vn genera a V; entonces F(v1), F(v2), F(vn) generan a If.
Demostración: como encontrar la imagen
Cualquier vector de If es combinación lineal de F(v1), F(v2), F(vn)
Es decir If  <F(v1), F(v2), F(vn)>
Por un lado
Para todo w  If, ∃ v  V / w = F(v)
w = F(k1v1 + k2v2 + knvn) porque v1,v2,vn generan a V
w = k1 F(v1) + k2 F(v2) + kn F(vn) porque es lineal
w  <F(v1), F(v2), F(vn)> como w  If
If  <F(v1), F(v2), F(vn)>
Por el otro
Para todo w  <F(v1), F(v2), F(vn)>
w = k1 F(v1) + k2 F(v2) + kn F(vn)
w = F(k1v1 + k2v2 + knvn) porque es lineal
w = F(v) donde w es imagen de alguien, w  If
<F(v1), F(v2), F(vn)>  If #

423 Teorema de la dimensión: Sean V y W sobre K, y sea F: V→W. Si V es de dimensión finita, entonces:
dim V = dim Nf + dim If (cantidad de vectores de la base).
Demostración:
Por ser V de dimensión finita, existe un subespacio U complementario de Nf, tal que: V es suma directa de Nf y U,
donde dim V = dim Nf + dim U. Supongamos que Nf y U ≠ {0}.
BNf = {v1 v2 vm} dim Nf = m
BU = {u1 u2 ur} dim U = r
Por ser Nf y U subespacios complementarios:
B = BNfBU es una base de V, dim V = m + r.
Por propiedades (3) de la imagen se tiene que:
If = <F(v1) F(v2) F(vm), F(u1) F(u2) F(ur)>
F(v)=0, v  Nf por definición
If = <F(u1), F(u2), F(ur)>
Vamos a mostrar que F(u1), F(u2), F(ur) son LI:
k1 F(u1) + k2 F(u2) + kr F(ur) = 0
F(k1u1 + k2u2 + krur) = 0 por linealidad
F(u)=0, u  Nf, y  U entonces  NfU
NfU = 0 por ser suma directa
k1u1 + k2u2 + krur = 0
u1 u2 ur son LI por formar base entonces k1=k2=kr=0
B’ = {F(u1), F(u2), F(ur)} es una base de If
dim If = r
dim V = dim Nf + dim If. #

Clasificación de aplicaciones lineales:


 Inyectiva: Nf = {0}, mantiene la independencia lineal.
 Suryectiva: dim W = dim If, el mismo tamaño.
 Biyectiva: ambas, tiene inversa. Es un isomorfismo.

4321 Teorema: Sean V y W sobre K, y sea F: V→W. La imagen de todo subconjunto LI de V, es un conjunto LI de W,
F(V) LI = W LI, si y solo si F es inyectiva, Nf = 0.
Demostración:
Por un lado
Si las imágenes son LI con vectores LI, entonces F es inyectiva
Si F(v1) F(v2) F(vn) son LI con v1 v2 vn LI, entonces F es inyectiva
Si v ∈ V LI
v ≠ 0v entonces F(v) ≠ 0w
0w no puede ser imagen de ningún vector LI
Del único que puede ser imagen 0w es del 0v, entonces Nf={0} y F es inyectiva
Por el otro
Si los vectores de V son LI entonces sus imágenes también son LI
Si v1, v2, vn son LI entonces F(v1), F(v2), F(vn) son LI
0w = k1 F(v1) + k2 F(v2) + kn F(vn)
0w = F (k1v1 + k2v2 + knvn) por ser lineal
k1v1 + k2v2 + knvn  Nf
F es inyectiva entonces Nf = {0}
k1v1 + k2v2 + knvn = 0
los vectores son LI, k1=k2=kn=0 #

441 Teorema: Sean V y W sobre K. Si dim V = dim W = n entonces F inyectiva ↔ F suryectiva.


Demostración:
dim Nf + dim If = dim V = n
Si F es inyectiva ↔ Nf = 0 ↔ dim If = n = dim W ↔ F es suryectiva

472 Matriz de una aplicación lineal: la matriz A  Kmxn / A = [ [F(v1)]B’ [F(v2)]B’] [F(vn)]B’ ], donde F: V→W es una
aplicación lineal, B una base V y B’ una base de W, se denomina matriz de la aplicación F con respecto a las bases B y
B’, y se denota A = M(F).
Teorema: sean V y W sobre K, con dim V = n y dim W = m, sea F: V→W, y sean Bv y Bw sus bases, entonces existe
una única matriz A tal que [F(v)]Bw = A[v]Bv.
Aplicación:
1. A = [F(v1)]Bw = [(w)]Bw, encontrar las coordenadas de cada vector de Bv, en Bw.
Armo CL de Bw = w, encuentro k.
2. [F(v)]Bw = A[v]Bv, encontrar F(v).
Armo CL de Bv = v, encuentro los k, las coordenadas de v en Bv ([v]Bv), multiplico con A, obtengo las
coordenadas de la imagen en Bw, armo CL de Bw con esas k, encuentro F(v).
473 Cambio de base de una aplicación lineal: sean V y W sobre K, y F: V→W. Sean Bv y Bv´ bases de V, Bw y Bw´
bases de W. Si A = M(F) es la matriz de F con respecto de Bv y Bw, entonces la matriz que representa a F con respecto
de Bv’ y Bw’ está dada por C = Q-1 A P.
Demostracion:
A = M(F)Bv→Bw
C = M(F)Bv’→Bw’
[F(V)]Bw = A[V]Bv (1)
[F(V)]Bw´ = C[V]Bv’ (a)
[V]Bv = PBv→Bv´ [V]Bv´ (2)
[F(V)]Bw = QBw→Bw´ [F(V)]Bw´ (3)
vuelco 2 y 3 en 1
Q [F(V)]Bw´ = A P [V]Bv´
Q-1 Q [F(V)]Bw´ = Q-1 A P [V]Bv´
de a C[V]Bv’ = Q-1 A P [V]Bv´
C = Q-1 A P #

475 Teorema: la aplicación F → M(F) es un isomorfismo.


Demostración: debemos probar que la función MB-B’ es una aplicación lineal. Sean F y T aplicaciones lineales de V en
W, sean M(F) = A y M(T) = C.
a. M(F+T) = M(F) + M(T)
b. M(k F) = k M(F)
Para todo v  V se tiene (F+T)(v) = F(v) + T(v) por ser lineales
Pasando a vectores de coordenadas: [(F+T)(v)]B’ = [F(v)]B’ + [T(v)]B’
Reemplazando: [F(v)]B’ = A[v]B y [T(v)]B’ = C[v]B
[(F+T)(v)]B’ = A[v]B + C[v]B
[(F+T)(v)]B’ = (A+C)[v]B
(A+C) es la matriz de la aplicación (F+T) es decir M(F+T) = M(F) + M(T) #

4781 Teorema matriz inversible: Sea V sobre K, de dimensión finita, y sea B una base de V. El operador lineal F: V→V
con M(F)B = A, es inversible si y solo si la matriz que lo representa lo es.
Demostración: si F es inversible, existe F-1 tal que F°F-1 = F-1°F = I luego M (F-1) = M-1 (F).

48 Operador lineal: Sea V sobre K. F: V→V es un operador lineal sobre V si es una aplicación lineal de V en V. La
partida y la llegada son iguales.
 Valor propio: λ  K es valor propio si y solo si ꓱ algún vector v≠0, tal que: F(v) = λ v.
 Sub espacio propio: si λ  K es valor propio del operador F, el subespacio asociado es Vλ.
 Vector propio: si λ  K es valor propio del operador F, todo v  V, perteneciente a Vλ es vector propio de F
asociada a λ.
Aplicación: a partir del operador, la regla, y una base. Encuentro A como matriz de una aplicación lineal, de cada
vector de la base [F(v)]B encuentro las coordenadas, y calculo valores y vectores propios.

481 Teorema: sea V sobre K, y sea F: V→V. λ es valor propio, si y solo si el núcleo de (F – λ I) ≠ {0}.
Demostración: como encontrar matrices y vectores propios de un operador: de la definición de valor propio debe
existir un v≠0, tal que: F(v) = λ v.
F (v) = λ v
F (v) = λ I (v)
F (v) - (λ I) (v) = 0
(F - λ I) (v) = 0
v  Nf pero v ≠ 0 entonces el núcleo no está formado solo por el nulo, entonces no es inyectiva, por lo tanto
tampoco biyectiva, no tiene inversa, su matriz tampoco, entonces el determinante es cero
G(v) = 0
G=F-λI
M(G) = M(F) - λ M(I)
M(G) = A - λ I
482 Diagonalizacion del operador: F es diagonizable si y solo si existe una base, tal que la matriz del operador es
diagonal, D = Q-1 A P = P-1 A P (es la diagonalizacion de la matriz A).

Unidad 5: Formas bilineales y cuadráticas


52 Formas bilineales: Sea V sobre R. Una función b: VxV → R, (u, v)→b(u, v), es bilineal si cumple:
 b(u+u’, v) = b(u, v) + b(u’, v)
 b(k u, v) = k b(u, v)

522 Formas bilineales sobre un espacio de dimensión finita:


B = (v1, v2, vn) una base de V
u = x1v1+ x2v2 + xnvn
v = y1v1+ y2v2 + ynvn
b(u, v) = b(x1v1+ x2v2 + xnvn, y1v1+ y2v2 + ynvn)
por las propiedades de b
b(u, v) = x1yn b(v1, vn) + x2yn b(v2, vn) + xnyn b(vn, vn)
haciendo aij = b(vi,vj)
b(u, v) = a11 x1y1 + a12 x1y2 + a1n x1yn + a2n x2yn + ann xnyn
𝑏(𝑢, 𝑣) = ∑ ann xnyn forma polinómica
a11 a1n y1
𝑏(𝑥, 𝑦) = 𝑋 𝑇 𝐴 𝑌 = [x1 xn] [ ] [ ] forma matricial
an1 ann yn

523 Matriz de la forma bilineal: sea V sobre R de dim finita, con B = (v1, v2, vn), y sea b: VxV→R, (u, v)→b(u, v). La
matriz de la forma bilineal b en base B es [b]B = A =[aij] donde aij = b(ui, vj).

524 Cambio de base de formas bilineales: sea V sobre R de dim finita, sea b: VxV→R, (u, v)→b(u, v), si B y B’ son
bases de V entonces: [b]B’ = PT [b]B P.
Demostración:
b(u, v) = [u]BT [b]B [v]B (1)
si P es la matriz de cambio de B a B’
[u]B = P [u]B’, y [v]B = P [v]B’ remplazando en 1
b(u, v) = (P [u]B’)T [b]B (P [v]B’) = [u]B’T (PT [b]B P) [v]B’
[b]B’ = PT [b]B P #
Aplicación: con la matriz, saco la forma polinómica. Saco la imagen de cada elemento de la nueva matriz, usando los
vectores de la base B2 que le corresponden a esa posición, y la forma polinómica.

53 Formas bilineales simétricas: sea V sobre R de dim finita, sea b: VxV→R, (u, v)→b(u, v), b es simétrica si y solo si
b(u, v) = b(v, u).
Teorema: b es una forma bilineal simétrica si y solo si [b]B = A es una matriz simétrica.
Demostración:
Por un lado: sea A = [aij] = b(vi, vj) = b(vj, vi), entonces A=AT, es decir que es una matriz simétrica.
Por el otro: supongamos que A es simétrica.
Sean X, Y los vectores de coordenadas de u, v
b(u, v) = XT.A.Y
puesto que (XT.A.Y) es una matriz 1x1, es igual a su traspuesta, además A=AT
b(u, v) = XT.A.Y = (XT.A.Y)T = YT.A.X = b(v, u) #

54 Formas cuadráticas: sea V sobre R, y b: VxV→R, (u, v)→b(u, v). La función q: V→R, (v)→b(v, v), se denomina
forma cuadrática asociado a la forma bilineal b.

541 Matriz de la forma cuadrática: en la base B, es la matriz que representa a la forma bilineal simétrica, [q]B = [bs]B.

Teorema diagonalizacion de q(x): si bs es una forma bilineal simétrica existe una base ortonormal, en la cual la forma
cuadrática puede ser escrita como q(u)= λnxn2 siendo λ los valores propios de la matriz de la forma cuadrática.
Demostración:
Sea B1 una base cualquiera
[q]B1 = [bs]B1 = A matriz simétrica
ꓱ P ortogonal, tal que:
PT A P = D matriz diagonal
ꓱ B2 ortonormal, tal que:
T
P [b]B1 P = [bs]B2 = D matriz diagonal (de λ)
B2 = (v1 v2 vn)
u = k1v1 + k2v2 + knvn
q(u) = [u]B2T D [u]B2
q(u) = λ1x12 + λnxn2
es suma de múltiplos de cuadrados donde aparecen términos mixtos
Aplicación:
1. A partir de q(x), busco la forma bilineal simétrica.
2. Armo A matriz simétrica, busco valores, vectores propios y subespacios.
3. Armo P matriz con los subespacios,
4. Obtener P ortonormal, divido por los módulos de cada columna. Su determinante debe ser positivo, para
estar orientado positivamente (necesario para su rotación rígida), si es negativo tengo que dar vuelta las
matrices.
5. Obtener B base ortonormal (de P ortonormal), y D matriz diagonal.
6. Obtener q(x) la diagonal de D son sus componentes al cuadrado. Graficar.

551 Secciones cónicas:


𝑥2 𝑦2
 Elipse: 𝑎2
+ 𝑏2 = 1
𝑥2 𝑦2
 Hipérbola: − =1
𝑎2 𝑏2

Anda mungkin juga menyukai