Operadores Lineales
Matrices, Determinantes,
Autovalores y Autovectores*
L. A. Núñez**
Centro de Fı́sica Fundamental,
Departamento de Fı́sica, Facultad de Ciencias,
Universidad de Los Andes, Mérida 5101, Venezuela y
Centro Nacional de Cálculo Cientı́fico, Universidad de Los Andes,
(CeCalCULA),
Corporación Parque Tecnológico de Mérida, Mérida 5101, Venezuela
Índice
1. Operadores Lineales 1
1.1. Espacio Vectorial de Operadores Lineales . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Composición de Operadores Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Espacio Nulo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5. Operadores Biyectivos e Inversos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6. Operadores Hermı́ticos Conjugados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7. Operadores Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1
Formulario de Métodos Matemáticos 1 Matrices, Determinantes y Autovectores
3. Traza de Operadores 24
3.1. Invariancia de la Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2. Propiedades de la Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Diferenciación de Operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4. Reglas de Diferenciación de Operadores Lineales . . . . . . . . . . . . . . . . . . . . 26
3.5. La Fórmula de Glauber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5. Un Paréntesis Determinante 31
5.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2. Propiedades Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6. Autovectores y Autovalores 34
6.1. Definiciones y Teoremas Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.2. Algunos comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.3. Algunos Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.4. Autovalores, autovectores e independencia lineal . . . . . . . . . . . . . . . . . . . . 37
1. Operadores Lineales
Definiremos como operador lineal (o transformaciones lineales) a una operación que asocia un
vector |vi ∈ V1 un vector |v0 i ∈ V2 y que respeta la linealidad, es decir esta función de V1 →V2
cumple con
0
v = A |vi 3 A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i ∀ |vi , |v1 i y |v2 i ∈ V1
Sencillamente algo que actúe sobre una suma de vectores y que sea equivalente a la suma de sus
actuaciones sobre los vectores suma.
Ejemplos
Cosas tan sencillas como multiplicación por un escalar es una transformación (u operador)
lineal T : V →V tal que
T |vi = v0 = α |vi
Claramente,
T [a |vi + b |wi] = aT |vi + bT |wi = aα |vi + bα |wi
Obviamente, si α = 1 tenemos la transformación identidad que transforma todo vector en
sı́ mismo; si α = 0 tendremos la transformación cero, vale decir que lleva a todo |vi ∈ V a al
elemento cero |0i
La definición de producto interno también puede ser vista como una transformación (opera-
dor) lineal T : V → R
T |vi = α
ha |vi ≡ α
Otra vez:
T [a |vi + b |wi] = ha| [a |vi + b |wi] = a ha |vi + b ha |wi
por lo tanto es lineal. Esto implica que también la proyección de un determinado |vi ∈ V
sobre un subespacio S es un operador lineal, y lo denotaremos como
esta idea se extiende fácil si para un proyector T : Vm → Sn con m > n de tal modo que para
un vector |vi ∈ Vm
con {hui |} base de Sn .Es claro que estamos utilizando la convención de Einstein para la suma
de ı́nidices
Las ecuaciones lineales también pueden verse como transformaciones lineales. Esto es, consi-
dere una transformación lineal T : Vn → Vm Por lo tanto asociaremos
y 1 , y 2 , y 3 , · · · , y m = T x1 , x2 , x3 , · · · , xn
|yi = T |xi →
igualmente podemos asociar un operador diferencial de cualquier orden a una derivada del
mismo orden, esto es
00 d2 d2 y (x)
y = D2 |yi → D2 [y (x)] ≡ [y (x)] ≡ ≡ y 00 (x)
dx2 dx2
000 d3 d3 y (x)
y = D3 |yi → D3 [y (x)] ≡ [y (x)] ≡ ≡ y 000 (x)
dx3 dx3
..
.
(n)
E dn dn y (x)
y = Dn |yi → Dn [y (x)] ≡ [y (x)] ≡ ≡ y (n) (x)
dxn dxn
Igualmente, cualquier ecuación diferencial lineal es un ejemplo de operador lineal, recordamos
el ejemplo del tema de transformadas integrales. Esto es
y 00 − 3 y 0 + 2 y = D2 − 3D + 2 y (x)
↑↓
D − 3D + 2 (αf (x) + g (x)) = D − 3D + 2 αf (x) + D2 − 3D + 2 g (x)
2 2
Ejemplos
Potencias de Operadores: Uno de los ejemplos más útiles en la composición de operadores
lo constituyen las potencias de los operadores, las cuales provienen de la aplicación consecutiva
de un mismo operador,
Es claro que las potencias de operadores cumplen las propiedades estándares de las potencias
de números
An+m = An Am ; (An )m = Anm
Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0, del tipo
An |vi = |0i ∀ |vi ∈ V1 al vector nulo, |0i ∈ V2 . Es decir un operador que lleva cualquier
vector |vi al elemento neutro de V2 . El ejemplo más emblemático es el operador diferencial
dn dn i
Dn Pn−1 = |0i
P n−1 (x) = ai x = 0
dxn dxn
con Pn−1 perteneciente al espacio de polinomios de grado n − 1
d2 dn
d
a0 1 + a1 D + a2 D2 + · · · + an Dn |f i
a0 + a1 + a2 2 + · · · + an n f (x)
dx dx dx
con {a0 , a1 , a2 , · · · an } coeficientes constantes. De este modo
2
d d
2
+ 2 y (x) = y 00 − 3 y 0 + 2 y
D − 3D + 2 y = (D − 1) (D − 2) y =⇒ −3
dx2 dx
con r = 1 y r = 2 las raı́ces del polinomio caracterı́stico
Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn = ai xi =⇒
Pn (A) |vi = a0 1 + a1 A + a22 A + · · · + ann An |vi = ai Ai |vi
∀ |vi ∈ V1
Más aún, lo anterior nos permite extender la idea operadores a funciones de operadores,
es decir si nos saltamos todos los detalles de convergencia de la serie anterior, los cuales
dependerán de los autovalores de A y de su radio de convergencia, de esta manera, al igual
que podemos expresar cualquier función F (z) como una serie de potencias de z en un cierto
dominio, podremos expresar la función de un operador, F (A) , como una serie de potencias
del operador A esto es
En este caso hay que hacer una acotación, dado que, en general, [A, B] 6= 0 =⇒ eA eB 6=
eB eA 6= eA+B esta afirmación se corrobora de manera inmediata al desarrollar las exponen-
ciales
"∞ #" ∞ # "∞ ∞ #
X An X Bm X X A n Bm
eA eB |vi = |vi = |vi
n! m! n! m!
n=0 m=0 n=0 m=0
∞ ∞
" #" # "∞ ∞ #
B A
X Bn X Am X X Bn Am
e e |vi = |vi = |vi
n! m! n! m!
n=0 m=0 n=0 m=0
∞
" #
A+B
X (A + B)n
e |vi = |vi
n!
n=0
1.3. Proyectores
La notación de Dirac se hace particularmente conveniente para representar proyectores. Hasta
ahora, hemos relacionado un funcional lineal, un bra hw| del espacio dual V∗ , con un vector ket
|vi del espacio vectorial V a través de su producto interno hw| vi ∈ C el cual es, en general, un
número complejo. Si ahora escribimos esta relación entre vectores y formas diferenciales de una
manera diferente. Ası́, la relación entre hw|, y |vi un ket |Ψi o un bra hΦ| arbitrarios serán
|vi hw| Ψi
|vi hw| =⇒
hΦ |vi hw|
La primera será la multiplicación del vector |vi por el número complejo hw| Ψi ,mientras que la
segunda relación será la multiplicación de la forma hw| por el complejo hΦ |vi . Es imperioso señalar
que el orden en la escritura de los vectores y formas es crı́tico, sólo los números complejos λ se
pueden mover con impunidad a través de estas relaciones
Por lo tanto, dado un vector |vi , podemos construir un proyector P|vi a lo largo del vector |vi
Ası́ el operador P|vi actuando sobre el vector |Ψi representará la proyección de |Ψi a lo largo de
|vi
P|vi |Ψi = |vi hv| Ψi ≡ hv| Ψi |vi
Es inmediato construir un proyector de un vector sobre un subespacio Sq .
Sea {|e1 i , |e2 i , |e3 i , · · · , |eq i} un conjunto ortonormal de vectores que expande Sq . Por lo tanto
definiremos el proyector Pq al proyector sobre el subespacio Sq de la forma
Pq = |ei i ei q
| {z }
δji
∀ |vi ∈ V
por la misma razón se tiene que el elemento neutro contenido en ℵ (A) ,esto es
= (A) = v0 | v0 ∈ V2 ∧ A |vi = v0
Es claro que si V de dimensión finita, A {V} = n también será de dimensión finita n y tendremos
que
dim [ℵ (A)] + dim [= (A)] = dim [V]
vale decir que la dimensión del núcleo más la dimensión del recorrido o imagen de una transforma-
ción lineal es igual a la dimensión del dominio.
Para demostrar esta afirmación supongamos que dim [V] = n y que
{|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V es una base de ℵ (A) , donde k = dim [ℵ (A)] ≤ n.
Como {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V estos elementos formán base y por lo tanto son linealmente
independientes, necesariamente ellos formarán parte de una base mayor de V.
Esto es {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} ∈ V será una base de V donde
k+r =n
Es esquema de la demostración será:
primero probaremos que {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} forman una
base para A {V}
luego demostraremos que dim [A {V}] = r y como hemos supuesto que k + r = n habremos
demostrado la afirmación anterior.
Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} en-
tonces cualquier elemento
Ahora bien, analicemos con cuidado los lı́mites de la suma implı́cita del ı́ndice i = 1, 2, · · · , k + r
Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} . Ahora bien,
para demostrar que son base, demostraremos que son linealmente independientes, para ello supon-
dremos que
n o
∃ C k+1 , C k+2 , · · · , C k+r 3 C i |Aei i = 0 con i = k + 1, k + 2, · · · , k + r
y como los {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} son una base de V entonces
las C k+1 = C k+2 = · · · = C k+r = 0
Ejemplos
Transformaciones Identidad: Sea 1 : V1 →V2 , la transformación identidad,
∀ |vi ∈ V1 3 1 |vi = |vi . ⇒ ℵ (1) = |0i ⊂ V1 ∧ = (1) ≡ V1
A−1
1 A |vi = |vi
=⇒ A−1 A |vi − A−1 A |vi = |0i = A−1 − A−1 A |vi =⇒ A−1 −1
∧ 1 2 1 2 1 = A2
−1
A2 A |vi = |vi
| {z }
−1 −1
A1 =A2
Ahora bien, un operador lineal A tendrá inverso sı́ y sólo sı́ para cada vector |v0 i ∈ V2 ∃!
|vi ∈ V1 3 A |vi = |v0 i . Es decir cada vector |v0 i está asociado con uno y sólo un vector |vi a través
de la transformación lineal A. Dejaremos sin demostración esta afirmación pero lo importante es
recalcar que para que exista inverso la transformación lineal A,tiene que ser biyectiva y esto implica
que se asocia uno y solo un vector de V1 con otro de V2 .
Todavı́a podemos añadir algunas demostraciones consecuencias de las afirmaciones anteriores.
Sea la transformación lineal T : V1 → V2 supongamos además que T ∈ L (V1 , V2 ) Entonces las
siguientes afirmaciones son válidas y equivalentes
1. T es Biyectiva en V1
3. ∀ |vi ∈ V1 , T {|vi} = |0i =⇒ |vi = |0i esto es, el espacio nulo ℵ (T) únicamente contiene al
elemento neutro de V1 .
Si ahora suponemos que V1 tiene dimensión finita, digamos dim [V1 ] = n, las siguientes afir-
maciones serán válidas y equivalentes
1. T es Biyectiva en V1
2. Si {|u1 i , |u2 i , |u3 i , · · · |un i} ∈ V1 son linealmente independientes entonces, {T {|u1 i} , T {|u2 i} , T {|u3 i}
T {V1 } también serán linealmente independientes.
3. dim [T {V1 }] = n
4. Si {|e1 i , |e2 i , |e3 i · · · |en i} ∈ V1 es una base de V1 , entonces {T {|e1 i} , T {|e2 i} , T {|e3 i} · · · T {|en i}} ∈
T {V1 } es una base de T {V1 }
por lo cual lo que estamos diciendo es que el elemento de matriz para el operador, A, es el mismo,
y no importa donde opere A.De esta manera, dado cada vector en V, tiene asociado un vector en
V∗ podemos demostrar que A operando sobre los bra es lineal. Esto es dado
Siguiendo con esta lógica podemos construir la acción del operador hermı́tico conjugado, A† . Para
ello recordamos que igual que a cada vector (ket) |vi le está asociado una forma lineal (bra) hv| ,a
cada ket transformado A |vi = |v0 i le corresponderá un bra transformado hv0 | = hv| A† . Por lo
tanto
|vi ⇐⇒ hv|
0
0
v = A |vi ⇐⇒ v = hv| A†
ahora bien,si A es lineal, A† también lo será. Dado que a un vector |wi = λ1 |z1 i + λ2 |z2 i
le corresponde un bra hw| = λ∗1 hz1 | + λ∗2 hz2 | (la correspondencia es antilineal). Por lo tanto,
|w0 i = A |wi = λ1 A |z1 i + λ2 A |z2 i , por ser A lineal, entonces
0
w ⇐⇒ w0 ≡ hw| A† = (λ∗1 hz1 | + λ∗2 hz2 |) A† ≡ λ∗1 z01 + λ∗2 z02 = λ∗1 hz1 | A† + λ∗2 hz2 | A†
|v0 i = A |v̄i
A partir de propiedades anteriores se deriva una más útil relacionada con el conmutador de dos
operadores hermı́ticos
†
h i h i
[A, B]† = − A† , B = B† , A†
Cambie los kets por sus bras asociados y viceversa (bras por kets): |vi hv|
De este modo
(|vi hw|)† = |wi hv|
que se deduce fácilmente de la consecuencia de la definición de producto interno
†
hx| |vi hw| |yi = hy| (|vi hw|) |xi∗ = hy| |vi∗ hw| |xi∗ = hx| |wi hv| |yi
1. Si acordamos que los ı́ndices de arriba indican filas podemos representar los vectores como
un arreglo vertical de sus componentes
1
x
x2
|xi → .
..
xn
y las cantidades
A11 A12 ··· A1j ··· A1n
A21 A22 A2j A2n
.. .. ..
α
. . .
Ai →
Aα Aα
1 2 Aαj α
An
. .. ..
..
. .
Am1 A m
2 Am
j
m
An
de tal modo que se cumpla
Nótese que los ı́ndices arriba indican fila y los de abajo columnas. Las cantidades Aαj es la re-
presentación del operador A en las bases {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽm i}
de V y W respectivamente. Es decir una matriz Aij es un arreglo de números
3. Si suponemos {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽm i} bases ortonormales
x̃α = hẽα |x̃i = hẽα | A |xi = hẽα | A xi |ei i =xi hẽα | A |ei i
Definitivamente, las matrices son uno de los objetos más útiles de las Matemáticas. Ellas permi-
ten aterrizar conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por James
Joseph Sylvester1 y su teorı́a desarrollada por Hamilton2 y Cayley3 . Si bien los fı́sicos las conside-
ramos indispensables, no fueron utilizadas de manera intensiva hasta el aparición de la Mecánica
Cuántica alrededor de 1925.
Más aún cambiando el orden en el cual se presenta una base, cambia la representación matricial
del operador. Los siguientes ejemplos tratarán de ilustrar estas situaciones
Si tenemos un matriz 2 × 3, B de la forma
3 1 −2
B=
1 0 4
y supongamos las bases canónicas para V 3 y V 2 : {|e1 i , |e2 i , |e3 i} y {|e1 i , |e2 i} . Entonces la
matriz B representan la transformación B :V 3 → V 2 que lleva un vector genérico |xi = (x1 , x2 , x3 )
en un vector genérico |yi = (y1 , y2 ) tal que
x1
3 1 −2 3 1 −2 y1
B= =⇒ B |xi = |yi =⇒ x2 =
1 0 4 1 0 4 y2
x3
y esto es
y1 = 3x1 + x2 − 2x3
y2 = x1 + 0x2 + 4x3
Para enfatizar que los elementos de matrı́z, no sólo dependen de la base sino del
orden en el
2 2
cual la base se presente. Consideremos que la base de P viene representadas por x , x, 1 . La
representación matricial del operador D (·) = d(·)
dx será
i
i E 0 0 0 3
P D |Pj i = P P̃j = 0 0 2 0
0 1 0 0
aunque
1
0 1 0 0 1
1
0 0 2 0 = 2
1 =⇒1 + 2x + 3x2
0 0 0 3 3
1
equivalentemente
1
0 0 0 3 3
1
0 0 2 0 = 2
1 =⇒1 + 2x + 3x2
0 1 0 0 1
1
¡Es el mismo polinomio!
Recuerde que las componentes del vector multiplican a los vectores bases en el mismo orden.
Si ahora construimos la respresentación para el mismo operador D (·) = d(·)
dx en la siguiente base
1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 y 1, x, x2 de P 3 y P 2 , respectivamente.
d(1)
dx = 0 = 0 · 1 + 0 · x + 0 · x2
d(1+x)
= 1 = 1 · 1 + 0 · x + 0 · x2
E
dx
D |Pj i = P̃j =⇒
d(1+x+x2 )
dx = 1 + 2x = 1 · 1 + 2 · x + 0 · x2
d(1+x+x2 +x3 )
= 1 + 2x + 3x2 = 1 · 1 + 2 · x + 3 · x2
dx
con lo cual
i E 0 1 1 1
P D |Pj i = P i P̃j = 0 0 2 2
0 0 0 3
en forma compacta puede demostrarse Aij + Bji = (A + B)ij con lo cual es directo la demostrar la
igualdad de matrices
1
A1 + B11 A12 + B21 · · · A1n + Bn1
A2 + B 2 A2 + B 2 A2n + Bn2
1 1 2 2
=0
.. .. . .
. . .
An1 + B1n Ann + Bnn
⇓
A11 A12 A1n B11 B21 Bn1
··· ···
A21 A22 A2n B12 B22 Bn2
=
.. .. .. ..
. . . .
An1 An2 Ann B1n B2n n
An
Esta afirmación también es válida para dim (V ) 6= dim (W ) pero por simplicidad seguimos traba-
jando con matrices cuadradas.
En leguaje de ı́ndices estaremos diciendo que
D1 0 0 0
0 D2 0 0
Dji = Dk δlk δjl δki =
0
0 D3 0
0 0 0 D4
por lo tanto tendremos m ecuaciones lineales para n incognitas x1 , x2 , · · · xn . Las Aαi es la matriz
de los coeficientes. Por lo tanto este problema puede ser pensado como un problema de un operador
A en el espacio vectorial de transformaciones lineales L (V, W ) donde dim (V ) = n y dim (W ) = m,
con las cα las componentes del vector transformado
Concretemos en un ejemplo
2x + 3y − z = 5 2 3 −1 x 5
4x + 4y − 3z = 3 =⇒ 4 4 −3 y = 3
−2x + 3y − z = 10 −2 3 −1 z 1
entonces para eliminar x de lala fila c (o la ecuación c) sumamos la fila a con la c, a + c y esta nueva
ecuación será la nueva c
a 2 3 −1 5
b 4 4 −3 3
c0 0 6 −2 6
ahora −2a + b será la nueva b
a 2 3 −1 5
b0 0 −2 −1
−7
c0 0 6 −2 6
finalmente 3b0 + c0
a 2 3 −1 5
b0 0 −2 −1
−7
c00 0 0 −5 −15
Este sistema es equivalente al primer sistema de ecuaciones. La solución emerge rápidamente:
Es bueno recalcar que los sistemas de ecuaciones lineales no necesariamente tienen solución y a
veces tienen más de una solución.
vale decir: el hermı́tico conjugado de una matriz, es su traspuesta conjugada. Si la matriz es Hermı́ti-
ca, i.e.
i
A† = A =⇒ A† = Aij
j
por lo tanto, las matrices hermı́ticas son simétricas respecto a la diagonal y los elementos de la
diagonal son números reales. Un operador hermı́tico estará representado por una matriz hermı́tica.
Aquı́ vale la pena probar algunas de las propiedades que arriba expresamos para operadores
hermı́ticos conjugados, vale decir
† †
A† = A; (λA)† = λ∗ A† ; (A + B)† = A† + B† ; (AB)† = B† A
Es claro que
†
† i † ∗ †
†
A i †
→ e A |ej i = A† = Aji = Aij
j
y
(λA)† → ei λA† |ej i = ej λA |ei i∗ = λ∗ ej A |ei i∗ = λ∗ ei A† |ej i = λ∗ A†
ahora bien, como conocemso la matriz Aik y las suponemos no singular (esto es: det Aik 6= 0) y
Como un ejemplo
2 3 4 1 0 0 2 3 4 1 0 0
2 1 1 0 1 0 → 0 2 3 1 −1 0 →
−1 1 2 0 0 1 −1 1 2 0 0 1
2 3 4 1 0 0
0 2 3 1 −1 0 →
0 5 8 1 0 2
Dadas dos base discretas ortonormales {|ui i} y {|ti i}, entonces un vector cualquiera
con lo cual, una vez más, tendremos que la expresión de transformación de componentes de un
vector
c̃m = Skm ck ⇐⇒ ck = S̃m k m
c̃
k ) será la matriz de transformación, cambio de base o cambio de representación. Ahora
y Skm (o S̃m
bien, por definición de producto interno
D
htm |uk i = uk |tm i∗ =⇒ Skm = Sm k∗
≡ Skm†
D
ck = Sm
k† m
c̃ =⇒ uk |Ψi = Sm
k† m
ht | Ψi
por lo tanto,
Ãij = Ski Akm Sjm†
donde Ãij es la representación del operador A respecto a la base {|tj i} y Akm su representación en
la base {|um i}
3. Traza de Operadores
La traza, Tr (A) , de un operador A es la suma de los elementos diagonales de su representación
matricial. Esto es dado un operador A y una base ortogonal {|ui i} para V n
D
Tr (A) = uk A |uk i = Aii
Ası́
1 2 3
Aij = 4 5 6 =⇒ Tr (A) = Aii = 15
7 8 9
ya que
D D D
Tr (A + λB) = u A + λB |uk i = u A |uk i + λ uk B |uk i = Tr (A) + λ Tr (B)
k k
Tr (AB) = Tr (BA)
y es fácilmente demostrable
D D D
Tr (AB) = uk AB |uk i = uk A|um i hum |B |uk i = uk B|um i hum |A |uk i = Tr (BA)
| {z } | {z }
1 1
Recuerde que uk B |um i y uk A |uk i son números que pueden ser reordenados.
Del mismo modo es fácil demostrar que la traza de un triple producto de matrices respeta la
ciclicidad del orden de la matrices en el producto
D d (A (t) + B (t)) d D k
uk |ui i = u (A (t) + B (t)) |ui i
dt dt
d D k D
= u A (t) |ui i + uk B (t) |ui i
dt
d D k d D k
= u A (t) |ui i + u B (t) |ui i
dt dt
D dA (t) D dB (t) d (A (t)) d (B (t))
= uk |ui i + uk |ui i = +
dt dt dt dt
Del mismo modo se cumplirá que
con la precaución que no se puede modificar el orden de aparición de los operadores. Es fácil ver
que
D d (A (t) B (t)) d D k d D k
uk |ui i = u A (t) B (t) |ui i = u A (t) 1B (t) |ui i
dt dt
D dt
= uk A (t) |um i hum | B (t) |ui i
d uk A (t) |um i m D d hum | B (t) |ui i
= hu | B (t) |ui i + uk A (t) |um i
dt dt
D dA (t) D dB (t)
= uk |um i hum | B (t) |ui i + uk A (t) |um i hum | |ui i
dt dt
Otras propiedades de la derivación de operadores se demuestran a partir de la expansión en
At
series de los operadores. Por ejemplo si queremos conocer la expresión para dedt , con A 6= A (t)si
recordamos que
"∞ # " #
X (At)n (At) 2
(At) n
eAt |vi = |vi = 1 + At + + ··· + · · · |vi
n! 2! n!
n=0
tendremos que
"∞ # "∞ #
deAt d X (At)n X d (At)n
|vi = |vi = |vi
dt dt n! dt n!
n=0 n=0
"∞ # "∞ #
X ntn−1 An X tn−1 An−1
= |vi = A |vi
n! (n − 1)!
n=0 n=0
| {z }
eAt
Nótese que la suma es hasta infinito, por lo tanto al cambiar de ı́ndice p = n − 1, p sigue variando
hasta infinito y la serie es la misma que la anterior. Entonces
deAt
|vi = eAt A |vi ≡ AeAt |vi
dt
también fı́jese que si un solo operador esta siendo derivado el orden de presentación de los operadores
es indiferente. Ahora bien, cuando se presenta la siguiente situación
d eAt eBt
deAt Bt deBt
|vi = e |vi + eAt |vi = AeAt eBt |vi + eAt BeBt |vi
dt dt dt
= eAt AeBt |vi + eAt eBt B |vi
con A 6= A (t) y B 6= B (t) y siempre eBt , B = 0. Con lo cual, sólo para el caso en el cual
d eAt eBt
|vi = (A + B) eAt eBt |vi
dt
Adicionalmente
dF (B)
si [A, [A, B]] = [B, [A, B]] = 0 =⇒ [A, F (B)] = [A, B]
dt
Esta relación es fácilmente demostrable para el caso en el cual [A, B] = 1 el operador indentidad,
en ese caso tenı́amos que ABn − Bn A = nBn−1
para demostrar esta relación “desarrollemos en Serie de Taylor” la funcion F (B) . Esto es
∞ ∞ ∞ ∞
" #
X Bn X [A, Bn ] X nBn−1 X Bn−1
[A, F (B)] = A, fn = fn = [A, B] fn = [A, B] fn
n! n! n! (n − 1)!
n=0 n=0 n=0 n=0
dF (B)
= [A, B]
dt
Para el caso más general se procede del mismo modo
? dF (B)
si [A, C] = [B, C] = 0 con C = [A, B] =⇒ [A, F (B)] = [A, B]
dt
Tendremos que
Para demostrarla, procedemos a considerar un operador F (t) = eAt eBt , por lo tanto
dF (B)
si [A, [A, B]] = [B, [A, B]] = 0 =⇒ [A, F (B)] = [A, B]
dt
entonces
eAt , B = t [A, B] eAt =⇒ eAt B = BeAt + t [A, B] eAt
por lo cual
dF (t)
|vi = A + eAt Be−At F (t) |vi = A + B + t [A, B] eAt F (t) |vi
dt
por tanteo uno puede darse cuenta que
2
n o
(A+B)t+ t2 [A,B]
F (t) = e
cumple con la ecuación anterior, por lo tanto absorbiendo t en los operadores correspondientes
llegamos a la fórmula de Glauber
1
eA eB = eA+B e 2 [A,B]
Aij = a21 a22 a23 y (Ac )ij = (Ac )21 (Ac )22 (Ac )23
a31 a32 a33 (Ac )31 (Ac )32 (Ac )33
donde los (Ac )ij es la matriz de cofactores, y los cofactores son
2 2 2 2 2 2
1+1 a2 a3 1+2 a1 a3
c 1 c 1
a1 a2
(Ac )13 1+3
(A )1 = (−1) a3 a3 (A )2 = (−1) a3 a3 = (−1)
a3 a3
2 3 1 3 1 2
1 1 1 1 1 1
a2 a3 a1 a3 a1 a2
(Ac )21 2+1
= (−1)
a3 a3 (Ac )22 2+2
= (−1)
a3 a3 (Ac )23 2+3
= (−1)
a3 a3
2 3 1 3 1 2
1 1 1 1 1 1
a2 a3 a1 a3 a1 a2
(Ac )31 = (−1) 3+1
a2 a2 (Ac )32 3+2
= (−1)
a2 a2 (Ac )33 3+3
= (−1)
a2 a2
2 3 1 3 1 2
Esto es
1 2 3 −3 6 −3
Aij = 4 5 6
i
=⇒ adj Aj = 6 −12 6
7 8 9 −3 6 −3
Una matriz será autoadjunta si adj [A] = A
5. Un Paréntesis Determinante
5.1. Definición
Antes de continuar es imperioso que refresquemos algunas propiedades del determinante de una
matriz. Ya hemos visto que el det A : Mn×n → <. Es decir, asocia un número real con cada matriz
del espacio vectorial Mn×n de matrices n × n
Ası́, dada una matriz
1
A1 A12 · · · A1n
1
A1 A12 · · · A1n
A2 A2 A 2 A2 A2 A 2
1 2 n 1 2 n
Aij = . =⇒ det A = εijk··· A1i A2j A3k · · · = .
.. ..
.. ..
.
.
n
A1 A2 n Ann n
A1 A2n n
An
con lo cual
det A = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33
= A11 A22 A33 + A13 A21 A32 + A12 A23 A31 − A11 A23 A32 − A13 A22 A31 − A12 A21 A33
det A = εijk··· A1i A2j A3k · · · = εijk··· Ai1 Aj2 Ak3 · · · = det AT
3. Si multiplicamos una fila o una columna por un número, el determinante queda multiplicado
por el número
de aquı́ claramente se desprende que si una fila o una columna es cero (λ = 0) el determinante
se anula. Más aún, si dos filas o dos columnas son proporcionales A1i = λA2j el determinante
se anula, por cuanto se cumple la propiedad anterior
1
A1 λA12 A13 A11 1 1
1
A1 A12 A13
2 A 2 A 3
A λA2 A2 = A2 A22 A23 = λ A21 A22 A23
1 2 3 1
A3 λA3 A3 λA3 λA3 λA3 A3 A3 A3
1 2 3 1 2 3 1 2 3
Obvio que 1
A1 0 A13 A11 A12 A13
2
A 0 A2 = A2 A2 A2 = 0
1 3 1 2 3
A3 0 A3 0 0 0
1 3
al igual que
1
A1 λA11 A13 A11 A12 A13
1
A1 A11 A13
1
A1 A12 A13
2
A λA2 A2 = λA1 λA1 λA1 = λ A2 A2 A2 = λ A1 A1 A1 = 0
1 1 3 1 2 3 1 1 3 1 2 3
A3 λA3 A3 A3 A32 A33 A3 A3 A3 A3 A3 A3
1 1 3 1 1 1 3 1 2 3
det à = − det A
Nótese que una sı́ntesis de las propiedades anteriores nos lleva a reescribir el determinante de
una matriz de la forma
det A = εαβγ··· det A = εijk··· Aiα Ajβ Akγ · · · ⇐⇒ det A = εαβγ··· det A = εijk··· Aαi Aβj Aγk · · ·
con las propiedades de las matrices. Queremos señalar que si A es una matriz m × n y B es
una matriz n × p, entonces tendremos que
(AB)α = Aα B
esto es que la α − esima fila es igual a la multiplicación de la α − esima fila, Aα ,por toda la
matriz B. Veamos
Cji = (AB)ij = Ail Bjl
por lo tanto la α − esima fila
B11 B21 Bn1
···
B12 B22 Bn2
Cjα = Aαl Bjl =⇒ Cjα = (Aα1 , Aα2 , Aα3 , · · · Aαn , )
.. ..
. .
B1n B2n Bnn
det (A) det (B) = det (A) εijk··· B1i B2j B3k · · · = εijk··· Aiα Ajβ Akγ · · · εabc··· B1a B2b B3c · · ·
que siempre puede ser rearreglado a
εijk··· Aαi Aβj Aγk · · · εijk··· B1i B2j B3k · · · = Aαi B1i Aβj B2j Aγk B3k · · · = det (AB)
× ε123 B11 B22 B33 + ε312 B31 B12 B23 + ε231 B21 B32 B13 + ε132 B11 B32 B23 + ε321 B31 B22 B13 + ε213 B21 B12 B33
con lo cual
= A11 A22 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 − B11 B32 B23 − B31 B22 B13 − B21 B12 B33
+ A13 A21 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
+ A12 A23 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
− A11 A23 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
− A13 A22 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
− A12 A21 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
+ A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
+ A12 A23 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
= A11 A22 A33 +B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
+ A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
+ A12 A23 A31 B11 B22 B33 + +B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
A11 B11 A22 A33 B22 B33 + A12 B12 A23 A31 B23 B31
εijk··· Aiα B1α Ajλ B2λ Akµ B2µ · · ·
6. Autovectores y Autovalores
6.1. Definiciones y Teoremas Preliminares
Llamaremos a |ψi un autovector del operador A si se cumple que
A |ψi = λ |ψi
en este caso λ (que, en general será un número complejo) se denomina el autovalor correspondiente
al autovector |ψi . La ecuación A |ψi = λ |ψi en conocida en la literatura como la ecuación de
autovalores y se cumple para algunos valores particulares de los autovalores λ. El conjunto de los
autovalores se denomina el espectro del operador A.
Supongamos que A : V → V y que dim V = n, supongamos además que una base ortogonal para
V es {|e1 i , |e2 i , |e3 i , · · · |en i} . Por lo tanto la repercusión de esta ecuación sobre la representación
matricial es la siguiente
i
e A |ej i ej |ψi = ei λ |ψi = λ ei |ψi =⇒ Aij cj = λci
claramente, si {|e1 i , |e2 i , |e3 i , · · · |en i} genera una representación diagonal de A entonces
Teorema
Dado un operador lineal A :V n → V n si la representación matricial de A es diagonal,
ei A |ej i = Aij ∝ δji entonces existe una base ortonormal {|e1 i , |e2 i , |e3 i , · · · |en i}4 y
un conjunto de cantidades {λ1 , λn , · · · , λn } tales que se cumple
igualmente se cumple que si existe una base ortonormal {|e1 i , |e2 i , |e3 i , · · · |en i}y un con-
junto de cantidades {λ1 , λn , · · · , λn } tales satisfagan
(un vector proporcional a |ψi ,con α un número complejo) también es un autovector para
el mismo autovalor. Esto representa una incómoda ambigüedad: dos autovectores que co-
rresponden al mismo autovalor. Un intento de eliminarla es siempre considerar vectores
|ψi normalizados, i.e. hψ |ψi = 1. Sin embargo no deja de ser un intento que no elimina
la ambigüedad del todo porque siempre queda ángulo de fase arbitrario. Esto es el vector
eiθ |ψi ,con θ un número real arbitrario, tiene la misma norma del vector |ψi . Sin embargo
esta arbitrariedad es inofensiva. En Mecánica Cuántica las predicciones obtenidas con |ψi son
las mismas que con eiθ |ψi
2. Un autovalor λ será no degenerado o simple si está asociado a un único autovector |ψi5 de
lo contrario si denominará degenerado si existen dos o más autovectores de A, linealmente
independientes asociados al mismo autovalor λ. El grado (o el orden) de la degeneración es el
número de vectores linealmente independientes que estén asociados al mencionado autovalor
λ.
3. El orden de degeneración de un autovalor λ expande un espacio vectorial S (λ) ⊂ Vn (denomi-
nado autoespacio) cuya dimensión es el orden de la degeneración. Esto es si λ es g−degenerado,
entonces existen
{|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψg i} =⇒ A |ψi i = λ |ψi i
adicionalmente un autovector correspondiente al autovalor λ puede ser expresado como
con lo cual
A |ψi = ci A |ψi i = λ ci |ψi i = λ |ψi
con |ii , |ji , |ki vectores unitarios cartesianos. Es claro que cualquier vector en el plano xy
será autovector de R con un autovalor λ = 1 mientras que cualquier otro vector |ψi ∈ V3 y
que no esté en el mencionado plano cumple con |ψi = c |ki y también será autovector de R
pero esta vez con un autovalor λ = −1.
a) Se considera el plano como un espacio vectorial real V2 con una base cartesiana canónica:
|ii = (1, 0) , y |ji = (0, 1) , esto es si
es decir necesariamente |ϕi es colineal con |ψi . Más aún si ahora el |ϕi no es tan arbitrario
sino que es ortogonal a |ψi , hψ |ϕi = 0 =⇒ λ = 0. Esto nos lleva a concluir que el espectro
del operador Pψ = |ψi hψ| es 0 y 1,el primer de los cuales es infinitamente degenerado y el
segundo es simple. Esto nos lleva a reflexionar que si existe un autovector de un determinado
operador, entonces su autovalor es distinto de cero, pero pueden existir autovalores nulos que
generan un autoespacio infinitamente degenerado.
Teorema Sean {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} autovectores del operador A :V m → V n y suponemos que
existen k autovalores, {λ1 , λ2 , · · · , λk } , distintos correspondientes a cada uno de los autovec-
tores |ψj i . Entonces los {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψk i} son linealmente independientes.
cj A |ψj i = 0 =⇒ cj λj |ψj i = 0
(nótese que el último ı́ndice es k − 1) pero, dado que los k − 1 vectores |ψj i son linealmen-
te independiente, entonces tendremos k − 1 ecuaciones cj (λj − λk ) = 0 una para cada j =
1, 2, · · · , k−1. Dado que λj 6= λk necesariamente llegamos a que cj = 0 para j = 1, 2, · · · , k−1
y dado que
cj |ψj i = 0 con j = 1, 2, · · · , k =⇒ cj 6= 0
con lo cual si
cj |ψj i = 0 =⇒ cj = 0 con j = 1, 2, · · · , k
y los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} son linealmente independientes. Con lo cual queda demos-
trado el teorema
para con j = 1, 2, · · · , n El conjunto de ecuaciones Aij − λδji cj = 0 puede ser considerado un
sistema (lineal y homogéneo) de ecuaciones con n incógnitas cj .
Esta ecuación se denomina ecuación caracterı́stica (o secular) y a partir de ella emergen todos los
autovalores (el espectro) del operador A. Claramente esta ecuación implica que
1
A12 A1n
A1 − λ ···
A2 A22 − λ A2n
1
= 0 ⇐⇒ det Aij − λδji = 0
.. . .
. .
An A2n n
An − λ
1
y tendrá como resultado un polinomio de grado n (el polinomio caracterı́stico). Las raı́ces de este
polinomio serán los autovalores que estamos buscando. Es claro que estas raı́ces podrán ser reales
y distintas, algunas reales e iguales y otras imaginarias.
Es importante señalar que el polinomio
caracterı́stico será independiente de la base a la cual
esté referida la representación matricial wi A |wj i del operador A.
y es claro que tiene 3 raı́ces distintas. Para proceder a calcular los autovectores correspon-
dientes a cada autovalor resolvemos la ecuación de autovalores para cada autovalor. Esto
es
a) λ1 = 1
1 1
2x1 + x2 + 3x3 = x1
2 1 3 x x
1 2 3 x = x ⇐⇒ x1 + 2x2 + 3x3 = x2
2 2
c) λ3 = 21
1 1
2x1 + x2 + 3x3 = 21x1
2 1 3 x x
1 2 3 x2 = 21 x2 ⇐⇒ x1 + 2x2 + 3x3 = 21x2
3 3 20 x3 x3 3x1 + 3x2 + 20x3 = 21x3
Resolviendo el sistema tendremos que
x1
1
λ3 = 21 ⇐⇒ x2 = α 1
x3 λ 6
3 =21
2. Una matriz 3 × 3 con 2 autovalores reales distintos, es decir una matriz con autovalores
repetidos
i 4 −3 1 i
4−λ −3 1
i
e A |ej i =
4 −1 0 =⇒ det Aj − λδj = 4 −1 − λ 0 =0
1 7 −4 1 7 −4 − λ
con lo cual el polinomio caracterı́stico queda expresado como
λ3 + λ2 − 5λ − 3 = (λ + 3) (λ − 1)2 = 0
y es claro que tiene 2 raı́ces iguales y una distinta. En este caso λ = 1 es un autovalor
degenerado de orden 2. Para proceder a calcular los autovectores correspondientes a cada
autovalor resolvemos la ecuación de autovalores para cada autovalor. Esto es:
a) λ1 = −3
1 1
4x1 − 3x2 + x3 = −3x1
4 −3 1 x x
4 −1 0 x2 = −3 x2 ⇐⇒ 4x1 − x2 = −3x2
1 7 −4 x 3 x 3 x + 7x2 − 4x3 = −3x3
1
3. Otra matriz 3 × 3 con 2 autovalores reales distintos, es decir otra matriz con autovalores
repetidos
2 1 1 2−λ 1 1
i i i
e A |ej i = 2 3 2 =⇒ det Aj − λδj = 2 3−λ 2 =0
3 3 4 3 3 4−λ
a) λ1 = 7
1 1
2x1 + x2 + x3 = 7x1
2 1 1 x x
2 3 2 x2 = 7 x2 ⇐⇒ 2x1 + 3x2 + 3x3 = 7x2
3 3 4 x3 x3 3x1 + 3x2 + 4x3 = 7x3
Resolviendo el sistema tendremos que
x1
1
λ1 = 7 ⇐⇒ x2 = α 2
x3 λ 3
1 =7
λ3 − 3λ2 − 15λ − 18 = (λ − 6) λ2 + 3λ + 3 = 0
y es claro que tiene 2 raı́ces iguales y una distinta. En este caso λ = 6 es un autovalor
real. Adicionalmente
√ existen dos autovalores
√ complejos, uno el complejo conjugado del otro:
λ∗ = − 12 3 + i 3 y λ̄∗ = − 12 3 − i 3 . Para proceder a calcular los autovectores corres-
pondientes a cada autovalor resolvemos la ecuación de autovalores para cada autovalor real.
En este caso existe un único autovalor real λ = 6.
1 1
4x1 − 3x2 + x3 = 6x1
1 2 3 x x
2
3 1 2 x = 6 x ⇐⇒ 2 4x1 − x2 = 6x2
2 3 1 x3 x3 x1 + 7x2 − 4x3 = 6x3
x1
1
λ = 6 ⇐⇒ x2 = α 1
x3 λ=6 1
y
A |wj i = Ãlj |wl i con Ãij = wi A |wj i
ahora bien, cada uno de los vectores base |ej i y |wj i puede ser expresado en las otras bases
{|w1 i , |w2 i , |w3 i , · · · |wn i} y {|e1 i , |e2 i , |e3 i , · · · |en i} , respectivamente como
Las cantidades clj son escalares que pueden ser “arreglados” como una matriz. Esa matriz, adicio-
nalmente es no singular6 por ser una la representación de una transformación lineal que aplica una
base en otra. Entonces además
|wj i = clj |el i =⇒ A |wj i = clj A |el i =⇒ Ãlj |wl i = cm k m k h
j Am |ek i = cj Am c̃k |wh i
| {z }
δjh
Teorema Dadas dos matrices, n × n, Alj y Ãij las cuales corresponden a la representación matricial de
un operador A en las bases ortogonales {|e1 i , |e2 i , |e3 i , · · · |en i} y
{|w1 i , |w2 i , |w3 i , · · · |wn i} , respectivamente. Entonces existe una matriz clj , no singular,
tal que
−1
i −1 D k
à = C AC ⇐⇒ w A |wj i = cik e A |em i cm
j
donde D
m −1
clj = el |wj i y c̃m
l = (cl ) = hwm |el i
Supongamos que
A |ej i = Alj |el i con Aij = ei A |ej i
y
à |wj i = Ãlj |wl i con Ãij = wi à |wj i
6
det cij 6= 0
` ´
Definición Dos matrices, Akl y Ãij , n × n, se denominará similares si existe una matriz no singular cik
tal que
−1
i −1 D k
à = C AC ⇐⇒ w à |wj i = cik w A |wm i cm
j
Teorema Dos matrices, Akl y Ãij , n × n, similares representan la misma transformación lineal.
Teorema Dos matrices, Akl y Ãij , n × n, similares tienen el mismo polinomio caracterı́stico y con ello
el mismo conjunto de autovalores
y dado que
det à − λ1 = det C−1 (A−λ1) C = det C−1 det (A−λ1) det (C) = det (A−λ1)
ambas matrices, Ã y A, tendrán el mismo polinomio caracterı́stico y con ello el mismo con-
junto de autovalores.
Todos los teoremas de esta sección pueden ser resumidos en el siguiente teorema
Teorema Sea un operador lineal A : V → V y que dim V = n, supongamos además que el polinomio
caracterı́stico tiene n raı́ces distintas, {λ1 , λ2 , . . . , λn } . Entonces tendremos que
Los autovectores {|u1 i , |u2 i , · · · , |un i} correspondientes a los a {λ1 , λ2 , . . . , λn } , forman una
base para V.
La representación matricial del operador uk A |um i en la base de autovectores
{|u1 i , |u2 i , · · · , |un i}, será diagonal
D
Ākm = Λkm = uk A |um i = diag (λ1 , λ2 , . . . , λn )
Cualquier otra representación matricial, ek A |em i , del operador A en otra base de V,
estará relacionada con la representación diagonal mediante una transformación de similaridad
−1 D k
Λ = C−1 AC ⇐⇒ diag (λ1 , λ2 , . . . , λn ) = cik e A |em i cm
j
donde cm
j es la matriz, no singular y por lo tanto invertible, de cantidades que relacionan
ambas bases
|uj i = clj |el i
m −1
⇐⇒ c̃m l = (cl ) =⇒ c̃m l m
l cj = δj
|el i = c̃m
l |um i
Esto es: el hermı́tico conjugado de una matriz, es su traspuesta conjugada. Por lo tanto las matrices
Hermı́ticas son simétricas respecto a la diagonal y los elementos de la diagonal son números reales.
Por su parte, llamaremos antihermı́tico a un operador que cumpla con
i ∗
A† = −A A† = ei A† |ej i = − ej A |ei i∗ = − Aji
=⇒
j
Los autovectores {|u1 i , |u2 i , · · · , |un i} , correspondientes a cada uno de los autovalores, serán
ortogonales.
Demostración:
Para demostrar que los autovalores {λ1 , λ2 , . . . , λn } son reales, proyectamos la ecuación de
autovalores en cada uno de los autovectores:
Ahora bien, dado que hψ |ψi es real, si demostramos que hψ| A |ψi estará demostrado que λ
lo será también. Pero como A es Hermı́tico
y por consiguiente los autovalores {λ1 , λ2 , . . . , λn } son reales. Más aún, si A es Hermı́tico, y
como sus autovalores son reales entonces
Para demostrar que los autovectores {|u1 i , |u2 i , · · · , |un i} son ortogonales, consideremos dos
autovectores con sus correspondientes autovalores de tal forma que se cumplen las siguientes
ecuaciones
A |ψi = λ |ψi y A |ϕi = µ |ϕi
pero como A es Hermı́tico entonces se cumple que hϕ| A = µ hϕ| entonces multiplicando a la
izquierda por |ψi y a hψ| A = λ hψ| por hϕ| la derecha.
(hϕ| A = µ hϕ|) |ψi hϕ| A |ψi = µ hϕ |ψi
=⇒ =⇒ (λ − µ) hϕ |ψi = 0
hϕ| (A |ψi = λ |ψi) hϕ| A |ψi = hϕ |ψi
y como hemos supuesto que λ 6= µ con lo cual hϕ |ψi = 0 los autovectores correspondientes a
dos autovalores son ortogonales.
Teorema Sea un operador linealh A : V n i→ V n con una representación matricial n × n tal que su
polinomio P (λ) = det Aij − λδji = 0 tiene al menos una raı́z degenerada λ = λ0 , de orden
k ≤ n. Entonces existen k autovectores, no triviales, que cumplen con
Demostración La demostración también emerge de una variante del Método de Inducción Completa.
Para ello, probamos que se cumple para j = 1. Esta afirmación es obvia. Si existe un λ =
λ0 existe un λ0 existe un |ψj i, tal que cumple con la ecuación anterior el es linealmente
independiente con él mismo.
de donde se concluye que el vector es ortogonal a Sλ0 y por lo tanto está en el complemento
ortogonal, A |φi ∈ N como, por hipótesis |φi ∈ N . Esto implica que N también es un espacio
invariante del operador Hermı́tico A. Entonces el espacio V n puede expresarse como una
suma directa de los dos subespacios invariantes respecto al operador lineal A V n = Sλ0 ⊕ N y
su representación matricial en la base de autovectores tendrá la forma de una matriz diagonal
a bloques:con lo cual
1
Q1 · · · Q1m 0 · · · 0
1 ··· 0 0 ··· 0
.. .. .. .. . . .. . .. ..
. .. .. . ..
. . . . . 0
m
Qm
m 0 ··· 0 0 ··· 1 0 ··· 0
j j Q1
u A |ui i = Ai →
0 · · · 0 Rm+1 · · · Rm+1
0 · · · 0 1 0 0 m+1 n
.. .. .. .. . . .. .. . . .. .. .. ..
. . . . . . . . . . . .
0 ··· 0 0 ··· 1 0 ··· n
0 Rm+1 ··· Rnn
donde Qαβ y Rυµ son matrices m×m y (n − m)×(n − m) , respectivamente. La matriz Qαβ opera
en Sλ0 mientras que Rυµ actúa sobre el complemento ortogonal N . El polinomio caracterı́stico
de A puede expresarse como
P (λ) = det Aij − λδji = 0 =⇒ P (λ) = det Qij − λδji det Rji − λδji = 0
h i
y como λ = λ0 es la raı́z múltiple del polinomio caracterı́stico y que anula el det Qij − λδji
tendremos que
det Qij − λ0 δji = 0 =⇒ P (λ) = (λ − λ0 )m F (λ) con F (λ0 ) 6= 0
donde λ0 no es raı́z del polinomio F (λ) . Ahora bien, para que se cumpla para j = k el
polinomio caracterı́stico es
j=k =⇒ P (λ) = (λ − λ0 )k R (λ) =⇒ (λ − λ0 )m F (λ) = (λ − λ0 )k R (λ)
otra vez λ0 no es raı́z del polinomio R (λ) . La ecuación anterior se cumple para todo λ en
particular para λ = λ0 . Por lo tanto
R (λ)
1 = (λ − λ0 )k−m
F (λ)
son naturales para representar cambios de base dentro de un espacio vectorial. De lo anterior se
deduce que si {|e1 i , |e2 i , |e3 i , · · · |en i}es una base ortonormal, el conjunto de vectores transfor-
mados, |wj i = U |ej i , también son ortonormales:
Teorema La condición necesaria y suficiente para que un operador U : V n → V n sea unitario es que apli-
que vectores de una base ortonormal {|e1 i , |e2 i , |e3 i , · · · |en i} en otra de {|w1 i , |w2 i , |w3 i , · · · |wn i}
también ortonormal.
Demostración Demostremos primero la condición necesaria: Si es unitario aplica una base en otra. Esto
es, supongamos que los vectores {|ej i} forman una base ortonormal para V n . Sean |ψi , y
U† |ψi ∈ V n . Estos vectores pueden ser expresados en términos de la base {|ej i} de V n . Por
lo tanto, si seleccionamos U† |ψi se cumple que
donde hemos aplicado el operador U a la ecuación U† |ψi = cj |ej i y el resultado es que el otro
vector, |ψi, también se pudo expresar como combinación lineal de los vectores transformados
{|wj i} de la base {|ej i} . Y por lo tanto los {|wj i} también constituyen una base. Es decir,
los operadores unitarios aplican una base ortonormal en otra
La condición de suficiencia (Si aplica una base en otra es unitario) se puede demostrar como
sigue. Si {|ej i} y {|wj i} son bases ortonormales de V n y una es la transformada de la otra
implica que
|wj i = U |ej i ; y hwj | = hej | U†
con
i
e |ej i = δji ; |ej i ej = 1 wi |wj i = δji ; |wj i wj = 1
Por lo tanto,
D D
U† U |ej i = U† |wj i = |ek i ek U† |wj i = |ek i wk |wj i = |ek i δjk = |ej i
Matrices unitarias
La representación de una matriz unitaria en una base {|ej i} implica
D D
j ∗
Ujk = ek U |ej i ; hem | U† |ej i = ej U |em i∗ = Um
D D D
j ∗
D
δjk = ek |ej i = ek 1 |ej i = ek UU† |ej i = ek U |em i hem | U† |ej i =
X
k
Um Um
m
D D D D
(Ukm )∗ Ujm
X
δjk = ek |ej i = ek 1 |ej i = ek U† U |ej i = ek U† |em i hem | U |ej i =
m
Una vez más, dado un operador lineal A, la representación matricial del Hermı́tico conjugado de
ese operador A† es la traspuesta conjugada de la matriz que representa al operador A. En el caso
de operadores unitarios.
Con lo cual es fácilmente verificable que una matriz sea unitaria. Basta comprobar que la suma
de los productos de los elementos de una columna (fila) de la matriz con los complejos conjugados
de otra columna (fila). Esa suma de productos será
Ejemplos de matrices unitarias son las llamadas matrices de rotación. Alrededor del eje z ten-
dremos que
cos θ − sen θ 0
R (θ) = sen θ cos θ 0
0 0 1
1
y también la matriz de rotación de una partı́cula de espı́n 2en el espacio de estados
i i
!
e− 2 (α+γ) cos β −e 2 (α−γ) sen β
R(1/2) (α, β, γ) = i i
e− 2 (α−γ) sen β e 2 (α+γ) cos β
con ϕu una función real. Por lo cual podemos concluir que, necesariamente, los autovalores de los
operadores unitarios seránDnúmeros complejos de módulo 1. Cuando los autovalores son diferentes,
0
digamos u0 6= u, entonces ψ u |ψu i = 0. Con lo cual los autovectores de un operador unitarios son
ortogonales.
Definición Dadas dos bases ortonormales {|ej i} y {|wk i} en V n con |wj i = U |ej i, un operador lineal
unitario U : V n → V n .y un operador lineal A : V n → V n . Definiremos al operador transfor-
mado à : V n → V n como
aquel cuya
representación
matricial en la base {|wk i} es la misma
que en la base {|ej i}: wj à |wi i = ej A |ei i
con lo cual
n n−2
à = UAU† · · · UAU† = UAn U† =(A
] n) =⇒ F̃ (A) = F Ã
E E E
con lo cual es claro que φ̃χ es un autovector de à con el mismo autovalor χ : φ̃χ = χ φ̃χ .
Equivalentemente podemos afirmar que los autovectores transformados de A, serán autovectores
del operador transformado, Ã.
Un ejemplo trivial de un observable lo constituyen los proyectores, P|ψi = |ψi hψ| con hψ| ψi = 1.
Claramente, la ecuación de autovalores para un proyector obliga a que tenga dos autovalores 0 y
1. El autovalor nulo es infinitamente degenerado y está asociado a todos los vectores ortogonales
a |ψi, mientras que el autovalor 1 corresponde a un autovalor simple y está asociado a todos los
vectores colineales al mismo vector |ψi. Esto es
Más aún, sea un vector arbitrario |ϕi ∈ V n . Siempre se podrá expresar como
|ϕi = P|ψi |ϕi + 1 − P|ψi |ϕi =⇒ P|ψi |ϕi = P|ψi |ϕi + 1 − P|ψi |ϕi =⇒
P|ψi |ϕi = P|ψi P|ψi |ϕi + P|ψi − P2|ψi |ϕi = P|ψi |ϕi
=⇒ P|ψi P|ψi |ϕi = P|ψi |ϕi
ya que P2|ψi = P|ψi , por definición de proyector. Entonces, se deduce que P|ψi |ϕi es un autovector
de P|ψi con autovalor 1. Igualmente 1 − P|ψi |ϕi es un autovector de P|ψi con autovalor 0, y la
demostración es inmediata
P|ψi 1 − P|ψi |ϕi = P|ψi − P2|ψi |ϕi = 0
Teorema Si dos operadores lineales A y B, operadores Hermı́ticos, conmutan, [A, B] = 0,y |ψi es
autovector de A con autovalor a, entonces B |ψi también será autovector de A con el mismo
autovalor a.
si el autovalor a es no degenerado los autovectores asociados con este autovalor son, por
definición, colineales con |ψi . Por lo tanto B |ψi , será necesariamente colineal con |ψi . La
conclusión a esta afirmación es que NECESARIAMENTE |ψi es autovector de B
kn indica el orden
de la degeneración de un determinado autovalor an . Dado que A es un
observable los ψi (µ) forman base los Claramente,
D
ψ i (µ) ψj (ν) = δji δνµ
y dado que los elementos de matriz ψ i (ν) B ψj (ν) = δji esto quiere decir que los elementos
B ψj (ν) = B i (µ) serán nulos para i 6= j pero no podemos decir nada a priori para
i (µ)
ψ j (ν)
el caso µ 6= υ y i = j. Entonces, al ordenar la base, en general
ψ1 (1) , ψ1 (2) , · · · ψ1 (k ) , ψ2 (1) , ψ2 (2) , · · · , ψ2 (k ) , · · · , ψ3 (1) , · · · ψn−k (1)
1 2 n
que no es otra cosa que los vectores χj (µ) serán autovectores de B
B χj (µ) = bj (µ) χj (µ)
Es importante recalcar que los autovectores ψj (µ) de A asociados con un autovalor dege-
nerado NO son necesariamente autovectores de B. Sólo que como B es Hermı́tico puede ser
diagonalizado dentro del autoespacio.
donde hemos dejado “espacio” para permitir la degeneración la cual será indicada por el ı́ndice µ
La prueba del inverso del teorema anterior es bien simple
Teorema Si existe una base de autovectores uj (µ) comunes a A y B, entonces A y B conmutan,
[A, B] = 0
Definición Diremos que {A, B, C, D · · ·} constituye un conjunto completo de observables que conmuntan
si
Analicemos los siguientes ejemplos. Considere, que el espacio de estados para un determinado
sistema fı́sico viene expandido por una base ortonormal {|u1 i , |u2 i , |u3 i}. Definimos dos operadores
Lz y S de la siguiente manera
En la base ortonormal {|u1 i , |u2 i , |u3 i} las representaciones matriciales para Lz , L2z , S y S2 serán
las siguientes
i 1 0 0
i 2 1 0 0
u Lz |uj i = 0 0 0 , u Lz |uj i = 0 0 0
0 0 −1 0 0 1
i 0 0 1
i 2 1 0 0
u S |uj i = 0 1 0 , u S |uj i = 0 1 0
1 0 0 0 0 1
Es claro que estas matrices son reales y simétricas y, por lo tanto, son Hermı́ticas y, al ser el espacio
de dimensión finita, deben ser diagonalizables y sus autovectores formarán base para ese espacio.
Por lo tanto, Lz , L2z , S y S2 son observables.
¿ Cuál será la forma más general de una representación matricial de un operador que conmunte
con Lz ?
Notamos que los vectores de la base ortonormal {|u1 i , |u2 i , |u3 i} son autovectores para Lz
con autovalores {1, 0, −1} con lo cual su representación matricial tiene que ser diagonal. Recuerde
que si dos observables A y B conmutan, [A, B] = 0,
y si |ψ1 i y |ψ2 i son autovectores de A para
autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0, con lo cual
1
i M 1 0 0
[M, Lz ] = 0 ⇔ u M |uj i = 0 M22 0 ,
0 0 M33
Si nos planteamos la misma pregunta para L2z , vemos que sus autovalores son {1, 0}. Esto es
con lo cual tendremos que la representaci’on matricial para ese operador que conmute con L2z , no
es diagonal. Esto es
1
N1 0 N31
y vale para cualquier elemento N31 (y equivalentemente para N13 ). Adicionalmente, si ordenamos
la base de autovectores de Lz , como {|u1 i , |u3 i , |u2 i} tendremos como representaci’on matricial
diagonal a bloques, correspondiente a un autorvalor degenerado 1,
1
N1 N31 0
i
u Ñ |uj i = N13 N22 0 ,
0 0 N33
Ahora intentaremos construir una base com’un de autovectores para L2z y S. Para ello notamos
que |u2 i es un autovector com’un a L2z y S, por lo tanto existir’a un subespacio expandido por
{|u1 i , |u3 i}. En ese subespacio las respresentaciones matriciales para L2z y S, ser’an
i 2 1 0
i 0 1
u Lz |uj iS13 =
u S |uj iS13 =
0 1 1 0
Es claro que
1 1 1 1
|u1 i = √ (x1 + x2 ) ; y |u2 i = √ (x1 − x2 ) .
2 1 2 −1
son autovectores de P y D
7
Pueden consultar una animación bien interesante y simular en http://qbx6.ltu.edu/s_schneider/physlets/
main/coupledosc.shtml
Referencias
[1] Apostol, T. M. (1972) Calculus Vol 2 (Reverté Madrid ) QA300 A66C3 1972
[2] Arfken, G. B. y Weber, H. (2000) Mathematical Methods for Physicists 5ta Edición (Aca-
demic Press, Nueva York)
[3] Cohen-Tannoudji, C., Diu B. y Laloë (1977) Quantum Mechanics Vol 1 (John Wiley Inters-
cience, Nueva York )
[4] Gelfand, I.M. (1961) Lectures on Linear .Algebra (John Wiley & Sons Interscience, Nueva
York ).
[5] Jordan, T.F. (1969) Linear Operator for Quantum Mechanics (John Wiley & Sons In-
terscience, Nueva York ).