Anda di halaman 1dari 46

UNIVERSIDAD CATÓLICA DE SANTA

MARÍA

PROGRAMA PROFESIONAL DE
INGENIERÍA CIVIL

TRABAJO DE INVESTIGACION DE
CALCULO INTEGRAL
ALGEBRA LINEAL NUMERICA

INTEGRANTES:
 RICARDO ALONSO GAMERO NINA
 DAVID JOSSUE HUARACHE MAMANI

AREQUIPA –
PERÚ 2018
INDICE
1. Introducción
2. Fundamentos
2.1 Multiplicación Matriz-Vector
2.2 Vectores ortogonales y matrices
2.3 Normas
2.4 Descomposición del valor singular
3. Factorización QR y Mínimos Cuadrados
3.1 Proyectores
3.2 Factorización QR
3.3 Ortogonalización Gram-Schmidt
3.4 Triangularización de Householder
3.5 Problemas de Mínimos cuadrados
4. Condicionamiento y Estabilidad
4.1 Condicionamiento y números de condición
4.2 Aritmética de Punto flotante
4.3 Estabilidad
4.4 Estabilidad de la triangulación de Householder
4.5 Estabilidad de la Sustitución hacia atrás
4.6 Condicionamiento de problemas de mínimos cuadrados
4.7 Estabilidad de Algoritmos de Mínimos cuadrados
5. Sistemas de Ecuaciones
5.1 Eliminación Gaussiana
5.2 Pivoteo
5.3 Estabilidad de la eliminación Gaussiana
5.4 Factorización de Cholesky
6. Eigenvalores
6.1 Problemas de Eigenvalores
6.2 Resumen de Algoritmos para eigenvalores
6.3 Reducción a Forma Triangular o de Hessenberg
6.4 Cociente de Rayleigh, Iteración Inversa
6.5 Algoritmo QR sin desplazamiento
6.6 Algoritmo QR con desplazamiento
6.7 Otros algoritmos para Eigenvalores
7. Métodos Iterativos
7.1 Métodos de Jacobi y Gauss-Seidel
7.2 El método de relajación sucesiva
8. Sistemas sobredeterminados
8.1 Mínimos cuadrados, SVD y ecuaciones normales
8.2 La factorización QR
9. Cálculo de Valores y de Vectores Propios
9.1 El método de la potencia y de la potencia inversa
9.2 Matrices no diagonalizables
9.3 El método QR
INTRODUCCION
En este primer tema se presentan diversas aplicaciones que
conducen a la resolución de sistemas de ecuaciones lineales. En
las dos primeras situaciones se llega a un sistema con matriz de
coeficientes con estructura especial: matriz tridiagonal, simétrica y
definida positiva. Este hecho nos llevar· a prestar especial
atención a dichas clases de matrices durante todo el curso. Como
tercer problema aplicado estudiaremos la cuestión de ajustar una
nube de puntos de la mejor manera posible mediante una recta.
Este problema se traducir· en el de encontrar soluciones de un
sistema lineal sobre determinado; es decir, con mas ecuaciones
que incógnitas, que evidentemente puede no tener soluciones en
el sentido clásico o habitual, y se introducir· y analizar· para esta
situación el concepto de solución de mínimos cuadrados. Por
ultimo, comentaremos como influyen en el carácter de las
soluciones de ecuaciones diferenciales lineales los valores propios
de una matriz. En el ultimo capitulo de este manual trataremos la
problemática de aproximar valores y vectores propios de una
matriz.
El Álgebra lineal numérica es el estudio de algoritmos para realizar
cálculos de álgebra lineal, en particular las operaciones
con matrices, en las computadoras. A menudo es una parte
fundamental de la ingeniería y los problemas de ciencias de la
computación, tratamiento de señales, simulaciones en ciencias de
materiales, la biología estructural, la minería de datos, y
la bioinformática, la dinámica de fluidos, y muchas otras áreas.
Este tipo de software depende en gran medida el desarrollo,
análisis y aplicación de estado de los algoritmos de última
generación para la solución de diversos problemas de álgebra
lineal numérica, en gran parte por el papel de las matrices
en diferencias finitas y métodos de elementos finitos.
FUNDAMENTOS
Multiplicación de matrices
Cuando una matriz B multiplica a un vector x, transforma a x en el
vector Bx. Si después este vector se multiplica por una matriz A, el
vector resultante es A(Bx).
Entonces A(Bx) se produce a partir de x gracias a una
composición de funciones —las transformaciones lineales
estudiadas en la sección 1.8. La meta aquí es representar dicha
función compuesta como la multiplicación por una matriz única,
denotada mediante AB, de manera que:
A(Bx) = (AB)x
Si A es de m × n, B es de n × p, y x está en Rp, denote las
columnas de B mediante b1, . . . , bp, y las entradas de x mediante
x1, . . . , xp. Entonces Bx = x1b1 + ··· + xpbp Por la propiedad de
linealidad de la multiplicación por A. A(Bx) = A(x1b1) + ··· +
A(xpbp) = x1Ab1 + ··· + xpAbp El vector A(Bx) es una
combinación lineal de los vectores Ab1, . . . , Abp, usando las
entradas de x como pesos. Al reescribir estos vectores como las
columnas de una matriz, se tiene A(Bx) = [ Ab1 Ab2 ··· Abp ] x
Entonces la multiplicación por [Ab1 Ab2 ∙ ∙ ∙ Abp] transforma a x en
A(Bx). ¡Con lo cuál se llega a la matriz buscada!
Si A es una matriz m × n, y si B es una matriz n × p con columnas
b1, . . . , bp, entonces el producto AB es la matriz m × p cuyas
columnas son Ab1, . . . , Abp. Esto es, AB = A [ b1 b2 ··· bp ] =
[ Ab1 Ab2 ··· Abp ]
Esta definición convierte en verdadera a (1) para toda x en Rp. La
ecuación (1) prueba que la función compuesta de la fi gura 3 es
una transformación lineal y que su matriz estándar es AB. La
multiplicación de matrices corresponde a la composición de
transformaciones lineales.
Propiedades de la multiplicación de matrices El teorema siguiente
enumera las propiedades estándar de la multiplicación de
matrices. Recuerde que Im representa la matriz identidad m × m, y
que Imx = x para toda x en Rm.
Sea A una matriz m × n, y sean B y C matrices con tamaños para
los cuales las sumas y los productos indicados están defi nidos. a.
A(BC) = (AB)C (ley asociativa de la multiplicación) b. A(B + C) =
AB + AC (ley distributiva izquierda) c. (B + C)A = BA + CA (ley
distributiva derecha) d. r(AB) = (rA)B = A(rB) para cualquier
escalar r e. ImA = A = AIn (identidad de la multiplicación de
matrices)
DEMOSTRACIÓN
Las propiedades de la (b) a la (e) se consideran en los ejercicios.
La propiedad (a) es consecuencia de que la multiplicación de
matrices corresponde a la composición de transformaciones
lineales (las cuales son funciones) y es sabido (o fácil de verificar)
que la composición de funciones es asociativa. A continuación se
presenta otra demostración de (a) que se basa en la “definición de
columna” del producto de dos matrices. Sea C = [ c1 ··· cp ] Por la
definición de multiplicación de matrices, BC = [Bc1 ··· Bcp ] A(BC)
= [ A(Bc1) ··· A(Bcp)] Recuerde de la ecuación (1) que la
definición de AB hace que A(Bx) = (AB)x para toda x, de esta
manera A(BC) = [(AB)c1 ··· (AB)cp ] = (AB)C Las leyes asociativa
y distributiva de los teoremas 1 y 2 expresan, en esencia, que es
posible agregar o quitar parejas de paréntesis en expresiones
matriciales de la misma manera que en el álgebra de números
reales. En particular, puede escribirse el producto como ABC y
calcularlo ya sea como A(BC) o (AB)C. 1 De manera similar, se
puede calcular un producto de cuatro matrices ABCD como
A(BCD) o (ABC)D o A(BC)D, y así sucesivamente. No importa
cómo se agrupen las matrices al realizar el cálculo de un producto,
siempre y cuando se conserve el orden de izquierda a derecha de
las matrices. El orden de izquierda a derecha en productos resulta
crítico porque, en general, AB y BA no son iguales. Esto no debe
sorprender, porque las columnas de AB son combinaciones
lineales de las columnas de A, mientras que las columnas de BA
se construyen a partir de las columnas de B. La posición de los
factores en el producto AB se enfatiza al decir que A está
multiplicada a la derecha por B o que B está multiplicada a la
izquierda por A. Si AB = BA, se dice que A y B conmutan una con
la otra.
Que hace una función lineal I�� → I�� con las longitudes de los
vectores. Las “más simples” son:
 las ortogonales, definidas por la igualdad QTQ = I , que
equivale a la afirmación de que Q conserva las distancias:
|Q(x)| = |x| para cada x ∈ I�� y a las que llamaremos giros o
simetrías según sea el signo de su determinante. Prueba de
la equivalencia: llamando x al vector columna x , es
inmediata la implicación QTQ = I ⇒ |Q(x)| 2 = (Qx)TQx = |x|
2 Para ⇐ , basta observar que si Q conserva distancias,
también ángulos, y en consecuencia también productos
escalares, en particular los de cada par de vectores unidad
��, ��.
Normas vectoriales y normas matriciales
En adelante K representar· el cuerpo de los números reales R o el
de los números complejos C. Usaremos la notación de MATLAB,
de tal forma que los vectores de Kn se representaron como x =
[x(1); x(2); : : : ; x(n)]; donde x(i) 2 K, 1 i n, es decir, como
columnas.
También podemos hablar de vector fila x 0 = [x(1); x(2); : : : ; x(n)],
transpuesto del vector columna x. Dados x; y 2 Kn y
2 K podemos realizar las siguientes operaciones habituales de
suma de vectores
x + y = [x(1) + y(1); x(2) + y(2); : : : ; x(n) + y(n)];
y de producto por un escalar
x = [x(1); x(2); …; x(n)];
que confieren a Kn estructura de K espacio vectorial.
Denotaremos la base canónica como
El Problema de Mínimos Cuadrados

El problema de mínimos cuadrados El problema del ajuste de datos;


es decir, descubrir una función matemática que pueda explicar de la
mejor forma posible el comportamiento de algún mecanismo o grupo
de seres u objetos que puede ser medido, y del cual conocemos
algunos datos (con sus posibles errores de medición), es un
problema clásico y ha supuesto un reto para la comunidad
matemática desde su planteamiento por Gauss y Legendre hacia
1800. En lenguaje de ´algebra lineal consiste en encontrar la
solución de un sistema lineal Ax “ b siendo A P C mˆn con m ě n. En
A y b se recogen todos los datos del experimento que se quieren
ajustar. Enseguida veremos algunos ejemplos. Sabemos que el
sistema tiene solución si y solo si b P Im A, condición que
difícilmente se cumple si m es mucho mayor que n. Si m ą n diremos
que el sistema Ax “ b esta 171 172 El Problema de Mínimos
Cuadrados sobre determinado; y si no existe ningún x P C nˆ1 tal
que Ax “ b lo que se puede intentar es buscar un x de forma que el
vector r “ Ax ´ b P C m, que se llama residuo o vector residual, sea lo
“mas pequeño” posible. Lo grande o pequeño que sea r lo
mediremos mediante una norma. El problema de mínimos
cuadrados consiste en encontrar x P C nˆ1 para que el vector
residuo tenga la menor norma euclıdea posible. Su formulación
precisa serıa la siguiente: Problema de mínimos cuadrados: Sea F “
R o C. Dada una matriz A P F mˆn y un vector b P F m,(m ě n)
encontrar x P C nˆ1 para que }Ax ´ b}2 sea mínimo. La elección de la
norma euclıdea se puede justificar desde varios puntos de vista:
histórico, geométrico, estadístico, . . . ; pero sobre todo porque es la
norma habitual, conduce a los algoritmos mas sencillos y así como
todas las normas son funciones continuas de los vectores, la norma
euclidea es, además, diferenciable. Como, por añadidura, la
función }Ax ´ b}2 alcanza su máximo absoluto en un máximo local,
este máximo puede calcularse igualando a cero las derivadas
parciales de dicha función. Este proceso conduce a lo que se llaman
las ecuaciones normales del problema de mínimos cuadrados. Estas
ecuaciones nos las encontraremos mas adelante procedentes de un
contexto completamente diferente.

Ejemplo:

El ejemplo más típico de ajuste de datos por mínimos cuadrados es


el cálculo del polinomio de interpolación: dados m puntos del plano
pxi , yiq, i “ 1, . . . , m, de forma que xi ‰ xj para i ‰ j, se trata de
encontrar un polinomio de grado a lo m´as m ´ 1, ppxq “ a0 ` a1x ` ¨ ¨
¨ ` am´1x m´1 , que pase por los n puntos. Se trata, entonces, de
encontrar los coeficientes a0, a1,. . . , am´1, para que ppxiq “ yi , i “
1, . . . , m. Esto equivale a resolver el sistema lineal a0 ` a1xi ` ¨ ¨ ¨ `
am´1x m´1 i “ yi , i “ 1, . . . , m
cuya matriz de coeficientes es A “ “ x j´1 i ‰ “ » — — — – 1 x1 x 2 1
¨ ¨ ¨ x m´1 1 1 x2 x 2 2 ¨ ¨ ¨ x m´1 2 . . . . . . . . . . . . . . . 1 xm x 2 m ¨ ¨
¨ x m´1 m fi ffi ffi ffi fl Esta es una matriz de Vandermonde cuyo
determinante es det A “ ź iăj pxi ´ xj q.
3.1 Algoritmos para calcular la solución del problema de mínimos cuadrados:

En primer lugar, el sistema A˚Ax “ A˚ b recibe el nombre de ecuaciones normales del


problema de mínimos cuadrados. Es el sistema que aparece al calcular el mínimo local
de la función:

da lugar al sistema A˚Ax “ A˚ b. Como la función f es convexa, alcanza su mínimo


absoluto en un mínimo local. Para resolver el sistema A˚Ax “ A˚ b numéricamente,
tendremos en cuenta la estructura especial de la matriz A˚A: es ermitica (simétrica en
el caso real). Además es definida positiva porque x ˚A˚Ax “ }Ax}2 ą 0 para x ‰ 0. Ahora
bien toda matriz ermitica definida positiva admite una factorización de Cholesky
(variante de la factorización LU cuando la matriz es simétrica o ermitica). En MATLAB
el comando chol(A) devuelve la factorización de Cholesky de A si ´esta es ermitica
definida positiva. Recordemos que una factorización de Cholesky de una matriz
ermitica definida positiva, A, es una factorización de la forma:

A =LL˚

siendo L una matriz triangular inferior. Esta factorización es especialmente apropiada


para resolver sistemas lineales mediante sustitución hacia adelante y hacia atrás.

3.2. El problema de mínimos cuadrados y la inversa Moore Penrose:

La inversa generalizada de Moore-Penrose se puede definir como la matriz que


soluciona el problema de mínimos cuadrados. Es decir, de la misma que la solución del
sistema Ax “ b es x “ A´1 b siempre que A sea invertible, la solución del problema de
mínimos cuadrados es x0 “ A: b. Veremos que esto es, en efecto así, y que este hecho
nos proporciona un algoritmo alternativo para resolver el problema de mínimos
cuadrados. Recordemos que x0 es solución del problema se mínimos cuadrados si y
solo si es solución del sistema Ax “ PAb, siendo PA la proyección ortogonal sobre Im A.
Recordemos también que si r “ rang A y A “ UΣV ˚ es una descomposición completa de
A en valores singulares, entonces las r primeras columnas de U son una base orto
normal de Im A. (Proposición 3.10). Sea Ur la su matriz de U formada por sus r
primeras columnas. Como son una base orto normal de Im A, la matriz UrU ˚ r es la
proyección ortogonal sobre Im A. Es decir, PA “ UrU ˚ r . Así pues, si ponemos

entonces el sistema Ax = PAb es equivalente a

3.3 El condicionamiento del problema de mínimos cuadrados:

El condicionamiento del problema de mínimos cuadrados es un tema importante


porque tiene implicaciones no triviales en el estudio de la estabilidad de los algoritmos
para este problema. Como es habitual analizaremos en detalle el condicionamiento del
problema y estudiaremos la estabilidad de los algoritmos mediante ejemplos
significativos. Recordemos que el problema de mínimos cuadrados consiste en lo
siguiente (supondremos en lo sucesivo que la matriz del sistema tiene rango
completo):

Ya sabemos que, en este caso, la solución del problema es ´única y viene dada por:

donde A: P F nˆn es la pseudoinversa o inversa generalizada de Moore-Penrose de A


(ver 3.6). Además, si y “ Ax es el vector en Im A más próximo a b entonces

siendo P la proyección ortogonal sobre Im A.

4. Condicionamiento de un problema:

En abstracto podemos ver un problema como una función f : X Ñ Y de un espacio


vectorial normado de datos en un espacio vectorial normado de resultados. Por
ejemplo, el problema de calcular la mitad de un número real se puede ver como la
función

Y el problema de calcular las raíces de un polinomio también se puede interpretar de


esta forma aunque los espacios X e Y que intervienen son un poco más complicados.

Esta función es casi siempre no lineal (incluso en Algebra Lineal) pero si continua. Y lo
que se pretende es saber como actúa f sobre un punto concreto x P X. Intuitivamente,
para un valor x P X, se dice que un problema esta bien condicionado (en realidad
debería decirse bien condicionado para el valor dado x, pero se sobreentenderá lo de
que es para un valor concreto que siempre se dar ‘a previamente) si cualquier pequeña
modificación en x produce una pequeña modificación en fax. Un problema mal
condicionado es aquel para el que hay pequeñas modificaciones de x que producen
grandes modificaciones de fpxq. Para hacer preciso este concepto supongamos, de
momento, que X “ F n , Y “ F m y f es diferenciable en x. Podemos aproximar el valor
de fpx ` δxq por fpxq utilizando el primer termino del desarrollo de f en serie de Taylor
alrededor de x:
donde f 1 pxq es la diferencial de f en x (i. e. la aplicación lineal de F n a F m
representada por la matriz jacobiana de f en las bases canónicas). Así

Eligiendo normas en F n y F m y usando para f 1 pxq la correspondiente norma


inducida

de modo que }f 1 pxq} nos da una idea aproximada de la razón de los errores
absolutos de las soluciones del problema y los datos del mismo. Si este número es
muy grande es porque pequeña modificación en el dato del problema produce una
modificación muy grande en la solución. Al número }f 1 pxq}, que es la norma de la
matriz de las derivadas parciales de f en x, se le llama número de condición (absoluto)
del problema f en x respecto de la norma } ¨ }; y se representa por ˆκpxq. Si lo que se
quiere es una idea de la relación entre los errores relativos podemos observar que
4.1 El número de condición para el producto de matrices y vectores

Como viene siendo habitual F representa el cuerpo de los números reales o complejos.
Analizamos con un poco de detalle el número de condición del siguiente problema:
Dada una matriz A P F mˆn , calcular el producto de Ax para x P F nˆ1 . La función
asociada al problema es

donde tomamos como norma de A la norma inducida por las normas de x y Ax.
Debemos tener en cuenta que estos vectores pueden estar en espacios vectoriales de
dimensiones diferentes. Por ser una norma inducida por una norma de vector, es
compatible con ella. Es decir, }Ax} ď }A} }x} y, en consecuencia

4.3 La condición de los sistemas de ecuaciones lineales

En la sección anterior hemos considerado los problemas de calcular Ax y A´1 b para x


y b, respectivamente, y suponiendo que A es una matriz fija. En ambos casos hemos
visto que el número de condición de estos problemas esta acotado inferiormente por 1
y superiormente por κpAq. Hemos visto también que este número es importante para
analizar la independencia lineal de las columnas de la matriz A. Se trata ahora de
mostrar que κpAq es, en efecto, el número de condición de un problema. Es lógico
pensar que dicho problema debe tener relación con la ecuación Ax “ b porque en el
caso particular en que b “ 0 la solución del sistema es, en aritmética exacta, x “ 0. Si el
problema está mal condicionado entonces el error absoluto en el resultado puede ser
grande en comparación con el error absoluto en la perturbación en A. Es decir, si una
ligera perturbación en A produce una solución x, de Ax “ 0, con alguna componente
muy grande respecto de dicha perturbación debe ser debido a que las columnas de A
están cerca de ser linealmente independientes. Esto justifica nuestra intuición sobre el
significado de κpAq en relación a la dependencia lineal de las columnas de A expuesta
en la sección anterior.
Se trata de estudiar el sistema Ax “ b cuando b es un vector dado y A solo se conoce
aproximadamente. Es decir, el problema

con b P F n un vector dado fijo y A invertible. Recordemos que GlnpFq es un


subconjunto abierto de F nˆn .
Nuestro objetivo es demostrar el siguiente resultado.

5. Sistemas de Ecuaciones

5.1 Eliminación Gaussiana.

Este método se aplica para resolver sistemas lineales de la forma:

El método de eliminación Gaussiana (simple), consiste en escalonar la matriz


aumentada del sistema:

para obtener un sistema equivalente:

donde la notación se usa simplemente para denotar que el elemento cambió. Se


despejan las incógnitas comenzando con la última ecuación y hacia arriba. Por esta
razón, muchas veces se dice que el método de eliminación Gaussiana consiste en la
eliminación hacia adelante y sustitución hacia atrás.
Ejemplo:
Resolver el siguiente sistema de ecuaciones:

5.2. Estabilidad de la eliminación Gaussiana

Seria bueno que los algoritmos numéricos proporcionaran respuestas exactas a los
problemas numéricos, pero como los números reales forman un continuo y los
ordenadores solo pueden utilizar un número finito de números racionales, ese objetivo
es, en general, imposible de alcanzar. La noción de estabilidad es la forma estándar de
caracterizar lo que es posible; lo que los analistas numéricos consideran que es la
“respuesta correcta” aunque no sea la exacta. En la Lección anterior definimos un
problema como una función f : X Ñ Y entre dos espacios vectoriales; uno de datos, X, y
otro de soluciones, Y . Un algoritmo también puede verse como una función ˜f : X Ñ Y
entre los mismos espacios vectoriales. Pero la definición es un poco más complicada:
Supongamos que nos dan los siguientes datos:

Dado un dato x P X, sea flpxq el valor redondeado de x en el sistema de punto flotante


de forma que se verifique (5.2), y proporcionemos este valor, flpxq, como entrada al
programa del ordenador. El resultado es una colección de números en punto flotante
que están en Y . El resultado obtenido es ˜fpxq. Realmente esta definición no parece
tener demasiado sentido. Para empezar ˜fpxq estará afectada por errores de redondeo;
y, dependiendo de las situaciones, puede verse afectada por todo tipo de
circunstancias, como tolerancias para que haya convergencia o, incluso, otras tareas
que pueda estar realizando el ordenador cuando se corre el programa. Esta “función”
˜fpxq puede tomar diferentes valores de una a otra ejecución del programa. En fin,
todas estas complicaciones pueden hacernos pensar que no merece la pena intentar
definir un algoritmo como una “función”. Así y todo, hablar de ˜fpxq como una función
es conveniente y sobre ella se pueden establecer unos cuantos resultados que
permiten un mejor análisis de la exactitud de los algoritmos de Algebra Lineal
Numérica; y todo ello basado exclusivamente en ´ los axiomas fundamentales

El símbolo ˜ es una notación que usaremos para expresar la cantidad calculada por el
ordenador. Por ejemplo, la cantidad calculada por un ordenador cuyo sistema de
aritmética en punto flotante cumpla los axiomas (5.2) y (5.4) del sistema lineal Ax “ b
será denotada por ˜x. Lo más importante que podemos pedir a un buen algoritmo es
que nos proporcione una buena aproximación al problema asociado f. Para precisar
esta idea, consideremos el error absoluto del cálculo para un dato dado x, }fpxq ´
˜fpxq}, o el error relativo

que será nuestra mediada habitual del error. Si ˜f es un buen algoritmo, se podría
esperar un error relativo pequeño, del orden del M. Se podría decir que un algoritmo ˜f
para un problema f es preciso, si para cada x P X

5.3. Factorización de Cholesky

Objetivos. Deducir formulas para el algoritmo de factorización de Cholesky.


Requisitos. Multiplicación de matrices, matrices triangulares.

1. Problema. Dada una matriz invertible A ∈ Mn(R), buscamos una matriz L ∈ ltn(R)
tal que LL> = A. Luego vamos a demostrar que L existe si y solo si A es simétrica y
positiva definida. Para garantizar la unicidad de L se pide que las entradas diagonales
de L sean positivas.
2. Ejercicio. Se recomienda considerar el caso n = 4, expresar las entradas de A a
través de ciertas entradas de L y deducir formulas para calcular las entradas de L. Se
recomienda el siguiente esquema:

3. Formulas para calcular L. Primero relacionemos las entradas diagonales de A con


ciertas entradas de L. Aplicamos la definición del producto, la definición de la matriz
transpuesta y la definición de matrices triangulares inferiores:
4. Algoritmo. Las entradas de L se pueden calcular en el siguiente orden: por
renglones de arriba hacia abajo, y en cada renglón de izquierda a derecha:
6.

Eigenvalores

En álgebra lineal, los vectores propios, autovectores o eigenvectores de un operador


lineal son los vectores no nulos que, cuando son transformados por el operador, dan
lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este
escalar ? recibe el nombre valorpropio, autovalor, valor característico o eigenvalor. A
menudo, una transformación queda completamente determinada por sus vectores
propios y valores propios.
Un espacio propio, autoespacio o eigenespacio es el conjunto de vectores propios con
un valor propio común.
La palabra alemana eigen, que se traduce en español como propio, se usó por primera
vez en este contexto por David Hilbert en 1904 (aunque Helmholtz la usó previamente
con un significado parecido). Eigen se ha traducido también
como inherente, característico o el prefijo auto-, donde se aprecia el énfasis en la
importancia de los valores propios para definir la naturaleza única de una determinada
transformación lineal. Las denominaciones vector y valor característicos también se
utilizan habitualmente

Valores propios y vectores propios (eigenvalores y eygenvectores) de matrices


reales y complejas
A continuación se va a desarrollar un tema muy importante dentro del algebra lineal,
llamado valor propio y se plantea de la siguiente manera:

Los términos valor propio y vector propio correspondientes a los términos eigenvalor y
eigenvector derivados del término alemán Eigenwert cuyo significado es "valor propio"

Interpretación geométrica en el plano R2


VALORES PROPIOS Y VECTORES PROPIOS DE UNA MATRIZ
Definición:

A esta ecuación se la denomina ecuación característica de A.


 Ejemplo:

Observaciones:
Si A es una matriz de orden nxn entonces las siguientes afirmaciones son equivalentes:

Solución:
La ecuación característica de A es:
3.1.- PROCESOS PARA DETERMINACIÓN DE VALORES PROPIOS Y VECTORES
PROPIOS.
Sea A una matriz nxn:

Observación:
Todo endomorfismo en V donde V es un espacio vectorial de dimensión finita y mayor
o igual a 1 sobre el cuerpo de los complejos admite vectores propios.
Pero si el cuerpo no es complejo, entonces no existen vectores propios.
 Ejemplo:

El sistema admite solución no trivial si:

Teorema:
Demostración:
La matriz de f respecto de la base [ V ] se obtiene determinando las imágenes de los
vectores de dicha base, y teniendo en cuenta la definición de vector propio

Observación:

POLINOMIO CARACTERISTICO DE UNA MATRIZ


Definición:

PROPIEDADES:

VALORES CARACTERISTICOS PARA MATRICES TRIANGULARES


Si A es una matriz triangular nxn entonces sus valores propios son sus elementos en la
diagonal principal.
3.2.- MATRICES SEMEJANTES:
Sean las matrices A y B de orden nxn se dice que la matriz A es semejante a la matriz
B si existe una matriz P invertible de orden nxn tal que B = P-1AP
Observación:
La definición dada también se puede expresar así:
Las matrices A y B de orden nxn son semejantes si y solo si existe una matriz invertible
P tal que PB = AP

 Ejemplo:
Teorema:
Si A y B son matrices semejantes de orden nxn, entonces A y B tienen elmismo
polinomio característico y por lo tanto, tienen losmismos valores propios.
Demostración:

Esto significa que A y B tienen la misma ecuacióncaracterísticay como los valores


propios son raíces de la ecuación característica tienen los mismos valores propios.
3.3.- EJERCICIOS
2.- Encuentre los autovalores y autovectores correspondientes a las siguientes
transformaciones lineales:
3.- Obtener los eigenvalores y los eigenvectores asociados si existen de la siguiente
matriz:

Por lo tanto
los

eigenvectores de la matriz A son (1,0) (1,1)


Posibles valores: a= 1; d = 1
5.-Determine los valores característicos de la siguiente matriz:

Lo cual implica que los valores característicos de A son -1, 6, -2

6.-Vea si las matrices D y A son semejantes dada la matriz P


7. Métodos Iterativos:
7.1. Métodos de Jacobi y Gauss-Seidel
7.2. El método de relajación sucesiva
8. Sistemas sobredeterminados

8.1. Mínimos cuadrados, SVD y ecuaciones normales


8.2. La factorización QR
9. Cálculo de Valores y de Vectores Propios
9.1. El método de la potencia y de la potencia inversa
9.2. Matrices no diagonalizables
9.3. El método QR
 https://www.uv.es/pastorv/Docencia/MNAL_2014.pdf
 http://www.uam.es/personal_pdi/ciencias/bernardo/CNI_07/
G2.pdf
 http://posgrado.mat.uson.mx/plan-de-
estudios/optativas/algebraln.pdf
 https://nickpgill.github.io/files/2014/07/Algebra-Lineal-y-sus-
Aplicaciones-3ra-Edici%C3%B3n-David-C.-Lay.pdf
 https://es.wikipedia.org/wiki/%C3%81lgebra_lineal_num%C3
%A9rica