Los vectores propios de las transformaciones lineales son vectores que, o no son afectados por la
transformacin o slo resultan multiplicados por un escalar; y, por tanto, no varan su direccin.1
El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.
Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, adems
del vector nulo, que no es un vector propio.
La multiplicidad geomtrica de un valor propio es la dimensin del espacio propio asociado.
El espectro de una transformacin en espacios vectoriales finitos es el conjunto de todos sus valores
propios.
Por ejemplo, un vector propio de una rotacin en tres dimensiones es un vector situado en el eje de rotacin
sobre el cual se realiza la rotacin. El valor propio correspondiente es 1 y el espacio propio es el eje de giro.
Como es un espacio de una dimensin, su multiplicidad geomtrica es uno. Es el nico valor propio del
espectro (de esta rotacin) que es un nmero real.
Definicin
Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Sea A: V V un
operador lineal en un cierto -espacio vectorial V y v un vector no nulo en V. Si existe un escalar c tal que
entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v
es un vector propio con el valor propio c entonces cualquier mltiplo diferente de cero de v es tambin un
vector propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto
con 0, forman un subespacio de V, el espacio propio para el valor propio c. Observe adems que un espacio
propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el vector Aw tambin pertenece a
Z.
Ejemplos
A medida que la Tierra rota, los vectores en el eje de rotacin permanecen invariantes. Si se considera la
transformacin lineal que sufre la Tierra tras una hora de rotacin, una flecha que partiera del centro de la
Tierra al polo Sur geogrfico sera un vector propio de esta transformacin, pero una flecha que partiera del
centro a un punto del ecuador no sera un vector propio. Dado que la flecha que apunta al polo no cambia de
longitud por la rotacin, su valor propio es 1.
Otro ejemplo sera una lmina de metal que se expandiera uniformemente a partir de un punto de tal manera
que las distancias desde cualquier punto al punto fijo se duplicasen. Esta expansin es una transformacin con
valor propio 2. Cada vector desde el punto fijo a cualquier otro es un vector propio, y el espacio propio es el
conjunto de todos esos vectores.
Sin embargo, el espacio geomtrico tridimensional no es el nico espacio vectorial. Por ejemplo, considrese
una cuerda sujeta por sus extremos, como la de un instrumento de cuerda (mostrada a la derecha). La distancia
de los tomos de la cuerda vibrante desde sus posiciones cuando sta est en reposo pueden interpretarse como
componentes de un vector en el espacio con tantas dimensiones
como tomos tenga dicha cuerda.
rotacin: ningn vector propio de valores reales (existen en cambio pares valor propio, vector propio
complejos).
reflexin: los vectores propios son perpendiculares y paralelos al eje de simetra, los valores propios son
-1 y 1, respectivamente.
escalado uniforme: todos los vectores son vectores propios, y el valor propio es el factor de escala.
proyeccin sobre una recta: los vectores propios con el valor propio 1 son paralelos a la lnea, vectores
propios con el valor propio 0 son perpendiculares a la direccin de la proyeccin
Supngase que T es una transformacin lineal (lo que significa que para
todos los escalares a, b, y los vectores v, w). Considrese una base en ese espacio vectorial. Entonces, T y v
pueden representarse en relacin a esa base mediante una matriz AT y un vector columna vun vector vertical
unidimensional. La ecuacin de valor propio en esta representacin matricial se representa de la siguiente
forma:
donde la yuxtaposicin es un producto de matrices. Dado que en esta circunstancia la transformacin T y su
representacin matricial AT son equivalentes, a menudo podemos emplear slo T para la representacin
matricial y la transformacin. Esto es equivalente a un conjunto de n combinaciones lineales, donde n es el
nmero de vectores de la base. En esta ecuacin, tanto el autovalor y las n componentes de v son
desconocidos. Sin embargo, a veces es poco natural o incluso imposible escribir la ecuacin de autovector en
forma matricial. Esto ocurre, por ejemplo, cuando el espacio vectorial es de dimensin infinita, como por
ejemplo en el caso de la cuerda mostrada anteriormente. Dependiendo de la naturaleza de la transformacin T y
el espacio al que se aplica, puede ser ventajoso representar la ecuacin de autovalor como un conjunto de
ecuaciones diferenciales, donde los autovectores reciben a menudo el nombre de autofunciones del operador
diferencial que representa a T. Por ejemplo, la derivacin misma es una transformacin lineal, ya que (si f(t) y
g(t) son funciones derivables y a y b son constantes)
Considrese la diferenciacin con respecto a . Sus autofunciones h(t) obedecen a la ecuacin de autovalor:
donde es el autovalor asociado con la funcin. Una funcin en el tiempo es constante si , crece
proporcionalmente a s misma si es positiva, y decrece proporcionalmente a s misma si es negativa. Por
ejemplo, una poblacin ideal de conejos engendra con ms frecuencia a medida que hay ms conejos, y por
tanto satisface la ecuacin para lambda positivo.
La solucin a la ecuacin de valor propio es , la funcin exponencial; pues esa funcin es una
funcin propia del operador diferencial d/dt con el valor propio . Si es negativa, la evolucin de g se
denomina decaimiento exponencial; si es positiva se denomina crecimiento exponencial. El valor de puede ser
cualquier nmero complejo. El espectro de d/dt es entonces el plano complejo en su totalidad. En este ejemplo
el espacio vectorial en el que acta d/dt es el espacio de las funciones derivables de una variable. Este espacio
tiene una dimensin infinita (pues no es posible expresar cada funcin diferenciable como combinacin lineal
de un nmero finito de funciones base). No obstante, el espacio propio asociado a un valor propio determinado
es unidimensional. Es el conjunto de todas las funciones , donde A es una constante
arbitraria, la poblacin inicial en t=0.
Teorema espectral
El teorema espectral muestra la importancia de los valores propios y vectores propios para caracterizar una
transformacin lineal de forma nica. En su versin ms simple, el teorema espectral establece que, bajo unas
condiciones determinadas, una transformacin lineal puede expresarse como la combinacin lineal de los
vectores propios con coeficientes de valor igual a los valores propios por el producto escalar de los vectores
propios por el vector al que se aplica la transformacin, lo que puede escribirse como:
Si se define la ensima potencia de una transformacin como el resultado de aplicarla n veces sucesivas, se
puede definir tambin el polinomio de las transformaciones. Una versin ms general del teorema es que
cualquier polinomio P de es igual a:
El teorema puede extenderse a otras funciones o transformaciones tales como funciones analticas, siendo el
caso ms general las funciones de Borel.
Clculo simblico
Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio
caracterstico: decir que es un valor propio de A es equivalente a decir que el sistema de ecuaciones lineales A
v = v A v - v = 0 (factorizando por v queda) (A - I) v = 0 (donde I es la matriz identidad) tiene una
solucin no nula v (un vector propio), y de esta forma es equivalente al determinante:
La funcin p() = det(A - I) es un polinomio de pues los determinantes se definen como sumas de productos.
ste es el polinomio caracterstico de A: los valores propios de una matriz son los ceros de su polinomio
caracterstico.
Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuacin .
Si A es una matriz nn, entonces tiene grado n y A tiene como mximo n valores propios.
El teorema fundamental del lgebra dice que esta ecuacin tiene exactamente n races (ceros), teniendo en
cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un nmero real como raz, as que
para n impar toda matriz real tiene al menos valor propio real. En el caso de las matrices reales, para n par e
impar, los valores propios no reales son pares conjugados.
Una vez que se conocen los valores propios , los vectores propios se pueden hallar resolviendo el sistema de
ecuaciones homogneo:
Una forma ms sencilla de obtener vectores propios sin resolver un sistema de ecuaciones lineales se basa en el
teorema de Cayley-Hamilton que establece que cada matriz cuadrada satisface su propio polinomio
caracterstico. As, si son los valores propios de A se cumple que
Un ejemplo de matriz sin valores propios reales es la rotacin de 90 grados en el sentido de las manecillas del
reloj:
cuyo polinomio caracterstico es y sus valores propios son el par de conjugados complejos i, -i. Los
vectores propios asociados tampoco son reales.
Ejemplo
Considrese la matriz
que representa un operador lineal R R. Si se desea computar todos los valores propios de A, se podra
empezar determinando el polinomio caracterstico:
y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-
Hamilton establece que cada matriz cuadrada satisface su propio polinomio caracterstico. Es decir
Clculo numrico
En la prctica, los valores propios de las matrices extensas no se calculan usando el polinomio caracterstico.
Calcular el polinomio resulta muy costoso, y extraer las races exactas de un polinomio de grado alto puede ser
difcil de calcular y expresar: el teorema de Abel-Ruffini implica que las races de los polinomios de grado alto
(5 o superior) no pueden expresarse usndose simplemente races ensimas. Existen algoritmos eficientes para
aproximar races de polinomios, pero pequeos errores en la estimacin de los valores propios pueden dar lugar
a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores
propios y valores propios son iterativos. La manera ms fcil es el mtodo de las potencias: se escoge un vector
aleatorio y se calcula una secuencia de vectores unitarios:
, , ,...
Esta sucesin casi siempre converger a un vector propio correspondiente al mayor valor propio. Este algoritmo
es sencillo, pero no demasiado til aisladamente. Sin embargo, hay mtodos ms populares, como la
descomposicin QR, que se basan en l.
Propiedades
Multiplicidad algebraica
La multiplicidad algebraica de un valor propio de A es el orden de como cero del polinomio caracterstico
de A; en otras palabras, si es una de las races del polinomio, es el nmero de factores (t ) en el polinomio
caracterstico tras la factorizacin. Una matriz nn, con entradas complejas, tiene n valores propios, contados
de acuerdo con su multiplicidad algebraica, ya que su polinomio caracterstico tiene grado n.
Por ejemplo, se pueden encontrar exposiciones como la siguiente en artculos de teora de matrices:
Anteriormente se ha definido la multiplicidad geomtrica de un valor propio como la dimensin del espacio
propio asociado, o el ncleo (espacio propio de los vectores propios del valor propio nulo) de I - A. La
multiplicidad algebraica tambin puede entenderse como una dimensin: es la dimensin del espacio propio
generalizado (1.er sentido) asociado, que es el ncleo de la matriz (I - A)k para k suficientemente grande. Es
decir, es el espacio de los vectores propios generalizados (1.er sentido), donde un vector propio generalizado es
cualquier vector que toma valor 0 s I - A se aplica suficientes veces en sucesin. Cualquier vector propio es
un vector propio generalizado, as que cualquier espacio propio est contenido en el espacio propio
generalizado asociado. Esto proporciona una demostracin simple de que la multiplicidad geomtrica es
siempre menor o igual a la algebraica. El primer sentido no debe de confundirse con el problema de valores
propios generalizados tal y como se muestra ms adelante.
Por ejemplo:
Slo tiene un valor propio = 1. El polinomio caracterstico es , as que este valor propio tiene
multiplicidad algebraica 2. Sin embargo, el espacio propio asociado es el eje, que normalmente recibe el
nombre de eje x, generado por el vector unitario , as que la multiplicidad geomtrica es 1.
Los vectores propios generalizados pueden usarse para calcular la forma normal de Jordan de una matriz
(comentado ms adelante). El hecho de que los bloques de Jordan en general no son diagonales sino nilpotentes
est directamente relacionado con la distincin entre vectores propios y vectores propios generalizados.
El teorema de descomposicin es una versin del teorema espectral en una clase concreta de matrices. Este
teorema se explica normalmente en trminos de transformacin coordinada. Si U es una matriz invertible,
puede verse como una transformacin entre un sistema de coordenadas a otro, donde las columnas de U son las
componentes de la nueva base de vectores expresados en trminos de la base anterior. En este nuevo sistema las
coordenadas del vector se representan por , que puede obtenerse mediante la relacin y, por otra
parte, se tiene . Aplicando sucesivamente , y , a la relacin
proporciona con , la representacin de A en la nueva base. En esta situacin, se dice
que las matrices A y son semejantes.
El teorema de descomposicin declara que, si se eligen como columnas de n vectores propios linealmente
independientes de A, la nueva matriz es diagonal y sus elementos en la diagonal son los valores
propios de A. Si esto es posible, entonces A es una matriz diagonalizable. Un ejemplo de una matriz no
diagonalizable es la matriz A ya mostrada:
Hay muchas generalizaciones de esta descomposicin que pueden tratar con el caso no diagonalizable,
diseadas con diferentes propsitos:
la descomposicin de Schur declara que toda matriz es equivalente a una matriz triangular.
la descomposicin en valores singulares, donde es diagonal con U y V matrices unitarias,
los elementos de la diagonal de no son negativos y reciben el nombre de valores singulares
de A. Esta descomposicin tambin puede hacerse en matrices no cuadradas.
la forma normal de Jordan, donde y no es diagonal sino diagonal por bloques. El
nmero y tamao de los bloques de Jordan estn determinados por las multiplicidades geomtrica y
algebraica de los valores propios. La descomposicin de Jordan es un resultado fundamental. A partir de
ella se puede deducir inmediatamente que una matriz cuadrada est descrita completamente por sus
valores propios, incluyendo la multiplicidad. Esto muestra matemticamente el importante papel que
desempean los valores propios en el estudio de matrices.
como consecuencia inmediata de la descomposicin de Jordan, cualquier matriz A puede escribirse de
forma nica como A=S + N donde S es diagonalizable, N es nilpotente (por ejemplo, tal que Nq=0 para un
cierto q), y S cumple la propiedad conmutativa del producto (SN=NS).
El espectro es invariante bajo transformaciones semejantes: las matrices A y P-1AP tienen los mismos valores
propios para cualquier matriz A y cualquier matriz invertible P. El espectro es tambin invariante a la
trasposicin de las matrices: A y A T tienen los mismos valores propios.
Dado que una transformacin lineal en espacios de dimensiones finitas es biyectiva si y slo si es inyectiva, una
matriz es invertible si y slo si cero no es un valor propio de la matriz.
una matriz es matriz diagonalizable si y slo si las multiplicidades geomtrica y algebraica coinciden
para todos sus valores propios. En particular una matriz nn que tiene n valores propios diferentes es
siempre diagonalizable;
Dado que la traza, o la suma de elementos de la diagonal principal de una matriz se preserva en la
equivalencia unitaria, la forma normal de Jordan constata que es igual a la suma de sus valores propios.
De forma similar, dado que los valores propios de una matriz triangular son las entradas de la diagonal
principal su determinante es igual al producto de los valores propios (contados de acuerdo con su
multiplicidad algebraica).
Algunos ejemplos de la localizacin del espectro de ciertas subclases de matrices normales son:
Todos los valores propios de una matriz hermtica (A = A*) son reales. Adems, todos los valores propios
de una matriz definida positiva son positivos;
Todos los valores propios de una matriz antihermtica (A = A*) son imaginarios puros;
Todos los valores propios de una matriz unitaria (A-1 = A*) tienen valor absoluto uno;
Si A es una matriz mn con m n, y B es una matriz nm, entonces BA tiene los mismos valores propios de AB
ms n m valores propios nulos.
A cada matriz se le puede asociar una norma vectorial, que depende de la norma de su dominio, el operador
norma de una matriz cuadrada es una cota superior del mdulo de sus valores propios, y por tanto de su radio
espectral. Esta norma est directamente relacionada con el mtodo de las potencias para calcular el valor propio
de mayor mdulo. Para matrices normales, el operador norma (la norma eucldea) es el mayor mdulo entre de
sus valores propios.
Por ejemplo, en teora de electromagnetismo disperso, la transformacin lineal A representa la accin efectuada
por el objeto dispersor, y los vectores propios representan los estados de polarizacin de la onda
electromagntica. En ptica, el sistema coordenado se define a partir del punto de vista de la onda, y lleva a una
ecuacin de valor propio regular, mientras que en radar, el sistema coordenado se define desde el punto de vista
del radar, y da lugar a una ecuacin de valor propio conjugado.
donde A y B son matrices. Los valores propios generalizados (2 sentido) pueden obtenerse resolviendo la
ecuacin
que es un problema de valores propios estndar. Sin embargo, en la mayora de situaciones es preferible no
realizar la inversin, y resolver el problema de valor propio generalizado con la configuracin original.
Si A y B son matrices simtricas con entradas reales, entonces los valores propios son reales. Esto se aprecia tan
fcilmente a partir de la segunda formulacin equivalente, pues la matriz no es necesariamente simtrica
si A y B lo son.
Entradas de un anillo
En una matriz cuadrada A con entradas de un anillo, recibe el nombre de valor propio por la derecha si
existe un vector columna x tal que Ax=x, o un valor propio por la izquierda si existe un vector fila no nulo y
tal que yA=y.
Si el anillo es conmutativo, los valores propios por la izquierda son iguales a los valores propios por la derecha
y se les llama simplemente valores propios.
En espacios de dimensin infinita, el espectro de un operador acotado es siempre no vaco, lo que tambin se
cumple para operadores adjuntos propios no acotados. A travs de su medida espectral, el espectro de cualquier
operador adjunto propio, acotado o no, puede descomponerse en sus partes absolutamente continua, discreta, y
singular. El crecimiento exponencial proporciona un ejemplo de un espectro continuo, como en el caso anterior
de la cuerda vibrante. El tomo de hidrgeno es un ejemplo en el que aparecen ambos tipos de espectro. El
estado ligado del tomo de hidrgeno corresponde a la parte discreta del espectro, mientras que el proceso de
ionizacin queda descrito por la parte continua.
Aplicaciones
Ecuacin de Schrdinger
Donde H, el Hamiltoniano, es un operador diferencial de segundo orden y la funcin de onda, es una de las
funciones propias correspondientes al valor propio E, interpretado como la energa.
Sin embargo, en caso de que slo se busquen soluciones para los estados ligados de la ecuacin de Schrdinger,
como suele ser el caso en qumica cuntica, se buscar en el espacio de las funciones de cuadrado
integrable. Dado que este espacio es un espacio de Hilbert, con un producto escalar bien definido, podemos
introducir una base en la que se puede representar y H como un vector unidimensional y una matriz
respectivamente. Esto permite representar la ecuacin de Schrdinger en forma matricial.
La notacin bra-ket, utilizada a menudo en este contexto, pone
nfasis en la diferencia entre el vector o estado y su
representacin, la funcin . En este contexto se escribe la
ecuacin de Schrdinger
Anlisis factorial
En anlisis factorial, los valores propios de la matriz de covarianza corresponden a los factores, y los valores
propios a las cargas. El anlisis factorial es una tcnica estadstica usada en ciencias sociales y mercadotecnia,
gestin de producto, investigacin operativa y otras ciencias aplicadas que tratan con grandes cantidades de
datos. El objetivo es explicar la mayor parte de la variabilidad entre varias variables aleatorias observables en
trminos de un nmero menor de variables aleatorias no observables llamadas factores. Las variables aleatorias
no observables se modelan como combinaciones lineales de los factores ms trminos de errores.
Caras propias
En procesado de imagen, las imgenes procesadas de caras pueden verse como vectores cuyas componentes
son la luminancia de cada pxel. La dimensin de este espacio vectorial es el nmero de pxeles. Los vectores
propios de la matriz de covarianza asociada a un conjunto amplio de imgenes normalizadas de rostros se
llaman caras propias. Son muy tiles para expresar una imagen de un rostro como la combinacin lineal de
otras. Las caras propias proporcionan un medio de aplicar compresin de datos a los rostros, para propsitos de
biometra.
Tensor de inercia
En mecnica, los vectores propios del momento de inercia definen los ejes principales de un cuerpo rgido. El
tensor de inercia es necesario para determinar la rotacin de un cuerpo rgido alrededor de su centro de masa.
Los valores propios definen los momentos mximos y mnimos obtenidos mediante el crculo de Mohr.
Tensor de tensin
Vase tambin
lgebra lineal
Aplicacin lineal
Matriz (matemtica)
Operador lineal
Teorema espectral
Vector
Referencias
1. Dado que ninguna transformacin lineal tiene efecto sobre el vector nulo, ste no se considera un vector propio.
2. Gorczyca, TW: "Auger Decay of the Photoexcited Inner Shell Rydberg Series in Neon, Chlorine, and Argon". Abstracts
of the 18th International Conference on X-ray and Inner-Shell Processes, Chicago, agosto 23-27 (1999).
Bibliografa
Cohen-Tannoudji, Claude. Quantum Mechanics, Wiley (1977). ISBN 0-471-16432-1. Captulo II: The
mathematical tools of quantum mechanics.
De Burgos, Juan. lgebra lineal, Edit. MacGraW-Hill (1993).
Fraleigh, John B. y Beauregard, Raymond A. Linear Algebra (3. edicin), Addison-Wesley Publishing
Company (1995). ISBN 0-201-83999-7 (edicin internacional).
Horn, Roger A. y Johnson, Charles R. Matrix Analysis, Cambridge University Press (1985). ISBN 0-521-
30586-1.
Enlaces externos
Calculador online de autovalores by www.mathstools.com
Autovectores en un "problema" de Internet: Markov y Google, un artculo divulgativo: "el secreto de
Google y el lgebra lineal"
Un artculo de divulgacin sobre la Descomposicin en Valores Singulares (SVD), en La Gaceta de la
RSME
En ingls
Weisstein, Eric W. Eigenvector. En Weisstein, Eric W. MathWorld (en ingls). Wolfram Research.
Earliest Known Uses of Some of the Words of Mathematics: E - ver eigenvector y trminos relacionados
Online Matrix Calculator: Calculadora en lnea de valores propios, vectores propios y otras
descomposiciones de matrices
Obtenido de https://es.wikipedia.org/w/index.php?title=Vector_propio_y_valor_propio&oldid=98999816
Se edit esta pgina por ltima vez el 10 may 2017 a las 01:58.
El texto est disponible bajo la Licencia Creative Commons Atribucin Compartir Igual 3.0; pueden
aplicarse clusulas adicionales. Al usar este sitio, usted acepta nuestros trminos de uso y nuestra poltica
de privacidad.
Wikipedia es una marca registrada de la Fundacin Wikimedia, Inc., una organizacin sin nimo de
lucro.