Anda di halaman 1dari 663

Mecanica Cuantica: Notas de Clase

Rodolfo Alexander Diaz Sanchez


Universidad Nacional de Colombia
Departamento de Fsica
Bogota, Colombia

23 de agosto de 2015
Indice general

1. Linear or vector spaces 14


1.1. Definition of a linear vector space . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2. Algebraic properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3. Vector subspaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4. Dimension and bases in vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5. Mappings and transformations in vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6. Linear transformations of a vector space into itself . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.1. Projection operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.7. Normed vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.7.1. Convergent sequences, cauchy sequences and completeness . . . . . . . . . . . . . . . . . . . 23
1.7.2. The importance of completeness in quantum mechanics . . . . . . . . . . . . . . . . . . . . 24
1.7.3. The concept of continuity and its importance in Physics . . . . . . . . . . . . . . . . . . . . 24
1.8. Banach Spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8.1. Continuous linear transformations of a Banach space into scalars . . . . . . . . . . . . . . . 25
1.8.2. Continuous linear transformations of a Banach space into itself . . . . . . . . . . . . . . . . 25
1.9. Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.9.1. Orthonormal sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.9.2. The conjugate space H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9.3. The conjugate and the adjoint of an operator . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.10. Normal operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.11. Self-Adjoint operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.12. Unitary operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.13. Projections on Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.14. Theory of representations in finite-dimensional vector spaces . . . . . . . . . . . . . . . . . . . . . . 37
1.14.1. Representation of vectors and operators in a given basis . . . . . . . . . . . . . . . . . . . . 37
1.14.2. Change of coordinates of vectors under a change of basis . . . . . . . . . . . . . . . . . . . . 40
1.14.3. Change of the matrix representative of linear transformations under a change of basis . . . 41
1.15. Active and passive transformations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.16. Theory of representations on finite dimensional Hilbert spaces . . . . . . . . . . . . . . . . . . . . . 42
1.16.1. Linear operators in finite dimensional Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . 44
1.17. Determinants and traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.18. Rectangular matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.19. The eigenvalue problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.19.1. Matrix representative of the eigenvalue problem . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.19.2. Eigenvectors and the canonical problem of matrices . . . . . . . . . . . . . . . . . . . . . . 50
1.20. Normal operators and the spectral theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.20.1. A qualitative discussion of the spectral theorem in infinite dimensional Hilbert spaces . . . 55
1.21. The concept of hyperbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2
INDICE GENERAL 3

1.22. Definition of an observable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57


1.23. Complete sets of commuting observables (C.S.C.O.) . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.24. Some terminology concerning quantum mechanics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.25. The Hilbert Space L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.25.1. The wave function space . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1.26. Discrete orthonormal basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.26.1. Funcion delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.27. Closure relations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.28. Introduction of hyperbases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.29. Closure relation with hyperbases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.30. Inner product and norm in terms of a hyperbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1.31. Some specific continuous bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.31.1. Plane waves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.31.2. Delta functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
1.32. Tensor products of vector spaces, definition and properties . . . . . . . . . . . . . . . . . . . . . . . 70
1.32.1. Scalar products in tensor product spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.32.2. Tensor product of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1.32.3. The eigenvalue problem in tensor product spaces . . . . . . . . . . . . . . . . . . . . . . . . 72
1.32.4. Complete sets of commuting observables in tensor product spaces . . . . . . . . . . . . . . . 74
1.33. Restrictions of an operator to a subspace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
1.34. Functions of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1.34.1. Some commutators involving functions of operators . . . . . . . . . . . . . . . . . . . . . . . 76
1.35. Differentiation of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
1.35.1. Some useful formulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
1.36. State space and Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1.37. Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
1.37.1. Elements of the dual or conjugate space Er . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
1.37.2. The correspondence between bras and kets with hyperbases . . . . . . . . . . . . . . . . . . 81
1.38. The action of linear operators in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1.38.1. Projectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
1.39. Hermitian conjugation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1.39.1. The adjoint operator A in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1.39.2. Mathematical objects and hermitian conjugation in Dirac notation . . . . . . . . . . . . . . 86
1.40. Theory of representations of E in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
1.40.1. Orthonormalization and closure relation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
1.40.2. Representation of operators in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . 91
1.41. Change of representations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1.41.1. Transformation of the coordinates of a ket . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1.41.2. Transformation of the coordinates of a bra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1.41.3. Transformation of the matrix elements of an operator . . . . . . . . . . . . . . . . . . . . . 95
1.42. Representation of the eigenvalue problem in Dirac notation . . . . . . . . . . . . . . . . . . . . . . 95
1.42.1. C.S.C.O. in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
1.43. The continuous bases |ri and |pi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1.43.1. Orthonormalization and closure relations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1.43.2. Coordinates of kets and bras in {|ri} and {|pi} . . . . . . . . . . . . . . . . . . . . . . . . . 97
1.43.3. Changing from the {|ri} representation to {|pi} representation and vice versa . . . . . . . . 98
1.43.4. The R and P operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
1.43.5. The eigenvalue problem for R and P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
1.43.6. Some properties of Fourier transforms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4 INDICE GENERAL

1.44. General properties of two conjugate observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104


1.44.1. The eigenvalue problem of Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
1.44.2. The action of Q, P and S () in the {|qi} basis . . . . . . . . . . . . . . . . . . . . . . . . . 105
1.44.3. Representation in the {|pi} basis and the symmetrical role of P and Q . . . . . . . . . . . . 106
1.45. Diagonalization of a 2 2 hermitian matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1.45.1. Formulation of the problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1.45.2. Eigenvalues and eigenvectors of K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
1.45.3. Eigenvalues and eigenvectors of H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

2. Construccion fenomenologica de los postulados 111


2.1. La radiacion del cuerpo negro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2.2. El efecto fotoelectrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
2.3. El efecto compton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
2.4. Espectroscopa, estabilidad del atomo y teora de Bohr . . . . . . . . . . . . . . . . . . . . . . . . . 115
2.4.1. La teora de Bohr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
2.4.2. Predicciones de la teora de Bohr para atomos con un electron . . . . . . . . . . . . . . . . 117
2.5. Las reglas de cuantizacion de Wilson y Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
2.5.1. El atomo de Bohr bajo las reglas de Wilson y Sommerfeld . . . . . . . . . . . . . . . . . . . 119
2.5.2. Cuantizacion de Planck con las reglas de Wilson y Sommerfeld . . . . . . . . . . . . . . . . 120
2.5.3. La teora relativista de Sommerfeld y la estructura fina del atomo de Hidrogeno . . . . . . . 121
2.6. Los postulados de De Broglie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
2.6.1. Propiedades de las ondas piloto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2.6.2. Corroboracion experimental de los postulados de De Broglie . . . . . . . . . . . . . . . . . . 125
2.6.3. Las reglas de cuantizacion de Bohr a la luz de los postulados de De Broglie . . . . . . . . . 125
2.7. Sntesis de los resultados experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
2.8. El experimento de Young de la doble rendija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.8.1. Interpretacion mecano-cuantica de la dualidad onda partcula . . . . . . . . . . . . . . . . . 131
2.9. Medicion y preparacion de un sistema: Descomposicion espectral . . . . . . . . . . . . . . . . . . . 132
2.10. Dualidad onda partcula para la materia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
2.11. Aspectos ondulatorios de una partcula material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.11.1. Estados cuanticos arbitrarios como superposicion de ondas planas . . . . . . . . . . . . . . 138
2.11.2. Perfil instantaneo del paquete de onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
2.11.3. El principio de incertidumbre de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
2.12. El principio de complementariedad para la dualidad onda partcula y su relacion con el principio
de incertidumbre de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
2.13. Evolucion temporal de paquetes de ondas libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
2.14. Caracterizacion de paquetes de onda gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2.14.1. Integrales basicas para paquetes gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2.14.2. Perfiles de paquetes de onda gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2.14.3. Relaciones de incertidumbre para paquetes gaussianos . . . . . . . . . . . . . . . . . . . . . 151
2.15. Evolucion temporal de paquetes de onda gaussianos (opcional) . . . . . . . . . . . . . . . . . . . . 151
2.15.1. Dispersion del paquete de onda gaussiano (opcional) . . . . . . . . . . . . . . . . . . . . . . 152

3. Ecuacion de Schrodinger y sus propiedades 155


3.1. Plausibilidad de la ecuacion de Schrodinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
3.2. Ecuacion de Schrodinger con potencial escalar independiente del tiempo . . . . . . . . . . . . . . . 158
3.3. Propiedades generales de la ecuacion de Schrodinger . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3.3.1. Determinismo en las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.3.2. Principio de superposicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
INDICE GENERAL 5

3.3.3. Conservacion de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162


3.3.4. La ecuacion de continuidad para la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 162
3.3.5. Expresion polar de la corriente de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 164
3.4. Aplicacion de la ecuacion de Schrodinger a potenciales discontnuos . . . . . . . . . . . . . . . . . 165
3.5. Potenciales rectangulares, analogo optico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
3.5.1. Estrategia de solucion para potenciales acotados con discontinuidades de salto . . . . . . . 167
3.5.2. Expresion para la corriente en regiones de potencial constante . . . . . . . . . . . . . . . . . 168
3.6. El potencial escalon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
3.6.1. E > V0 , reflexion parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
3.6.2. E < V0 ; reflexion total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3.7. Barrera de potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
3.7.1. E > V0 , resonancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
3.7.2. Caso E < V0 : Efecto tunel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
3.8. Pozo de potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
3.8.1. Partcula con energa V0 < E < 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
3.8.2. Partcula con energa E > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

4. Enunciado matematico de los postulados 192


4.1. Los fenomenos clasicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
4.2. Los fenomenos cuanticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
4.3. Establecimiento de los postulados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.3.1. Descripcion de los estados y las cantidades fsicas . . . . . . . . . . . . . . . . . . . . . . . . 195
4.3.2. El proceso de medicion y la distribucion de probabilidad . . . . . . . . . . . . . . . . . . . . 196
4.3.3. Relevancia fsica de las fases en mecanica cuantica . . . . . . . . . . . . . . . . . . . . . . . 199
4.3.4. El proceso de medida y la reduccion del paquete de onda . . . . . . . . . . . . . . . . . . . 200
4.3.5. Evolucion fsica de los sistemas cuanticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.3.6. Reglas de cuantizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

5. Consecuencias fenomenologicas de los postulados 205


5.1. Consideraciones estadsticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
5.1.1. Valor medio de un observable para un sistema en un estado dado . . . . . . . . . . . . . . . 206
5.1.2. Valor esperado para los observables X, P . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.1.3. Valor esperado para el commutador de dos observables . . . . . . . . . . . . . . . . . . . . . 209
5.1.4. La desviacion media cuadratica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
5.2. Observables compatibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
5.3. Observables no compatibles e incertidumbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
5.4. Desviacion media cuadratica y principio de incertidumbre . . . . . . . . . . . . . . . . . . . . . . . 215
5.4.1. Paquetes de mnima incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
5.5. Preparacion de un estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.6. Propiedades adicionales de la ecuacion de Schrodinger . . . . . . . . . . . . . . . . . . . . . . . . . 220
5.6.1. Aspectos adicionales sobre la conservacion de la probabilidad (opcional) . . . . . . . . . . . 220
5.7. Evolucion temporal del valor esperado de un observable . . . . . . . . . . . . . . . . . . . . . . . . 221
5.7.1. Evolucion temporal de los valores esperados de R, P: Teorema de Ehrenfest . . . . . . . . 222
5.8. Ecuacion de Schrodinger para sistemas conservativos . . . . . . . . . . . . . . . . . . . . . . . . . . 225
5.8.1. Estados estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
5.8.2. Constantes de movimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.8.3. Frecuencias de Bohr de un sistema y reglas de seleccion . . . . . . . . . . . . . . . . . . . . 228
5.8.4. Relacion de incertidumbre entre tiempo y energa para sistemas conservativos . . . . . . . . 229
5.8.5. Cuarta relacion de incertidumbre para un paquete de onda unidimensional . . . . . . . . . 231
6 INDICE GENERAL

5.9. Consecuencias fsicas del principio de superposicion . . . . . . . . . . . . . . . . . . . . . . . . . . . 232


5.9.1. Diferencia entre superposicion lineal y mezcla estadstica . . . . . . . . . . . . . . . . . . . . 232
5.9.2. Efectos de interferencia en fotones polarizados . . . . . . . . . . . . . . . . . . . . . . . . . 234
5.9.3. Suma sobre los estados intermedios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
5.10. Principio de superposicion con varios estados asociados a una medida . . . . . . . . . . . . . . . . 237
5.10.1. El principio de superposicion para valores propios degenerados . . . . . . . . . . . . . . . . 237
5.10.2. Aparatos insuficientemente selectivos en la medida . . . . . . . . . . . . . . . . . . . . . . . 238
5.11. Discusion general sobre el fenomeno de interferencia . . . . . . . . . . . . . . . . . . . . . . . . . . 240
5.12. Medicion insuficiente de espectros contnuos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
5.13. Reduccion del paquete de onda para espectro continuo . . . . . . . . . . . . . . . . . . . . . . . . . 242

6. Aplicacion de los postulados con informacion parcial 244


6.1. Aplicacion de los postulados al medir sobre un subsistema . . . . . . . . . . . . . . . . . . . . . . . 244
6.1.1. Interpretacion fsica de los estados que son productos tensoriales . . . . . . . . . . . . . . . 245
6.1.2. Significado fsico de estados que no son productos tensoriales . . . . . . . . . . . . . . . . . 247
6.2. Operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
6.2.1. El concepto de mezcla estadstica de estados . . . . . . . . . . . . . . . . . . . . . . . . . . 248
6.2.2. Estados puros y operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
6.2.3. Mezcla estadstica de estados: estados no puros . . . . . . . . . . . . . . . . . . . . . . . . . 251
6.2.4. Propiedades generales del operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . 252
6.2.5. Populaciones y coherencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
6.3. Aplicaciones del operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
6.3.1. Sistema en equilibrio termodinamico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
6.3.2. Descripcion de subsistemas con base en observables globales de un sistema: el concepto de
traza parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
6.3.3. Traza parcial y operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257

7. Formulaciones alternativas de la mecanica cuantica 260


7.1. Operador evolucion temporal: definicion y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . 260
7.1.1. Operador evolucion temporal para sistemas conservativos . . . . . . . . . . . . . . . . . . . 262
7.1.2. Observaciones adicionales sobre el operador evolucion temporal (opcional) . . . . . . . . . . 262
7.2. Bras, kets y observables equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
7.2.1. La transformada de un operador y sus propiedades . . . . . . . . . . . . . . . . . . . . . . . 264
7.3. La imagen de Schrodinger y la imagen de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . 265
7.3.1. Algunos sistemas simples en la imagen de Heisenberg . . . . . . . . . . . . . . . . . . . . . . 266
7.4. La imagen de interaccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

8. El oscilador armonico cuantico 270


8.1. Propiedades generales del oscilador armonico cuantico unidimensional . . . . . . . . . . . . . . . . 270
8.2. El problema de valores propios del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
8.3. Determinacion del espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
8.3.1. Interpretacion de los operadores a, a y N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
8.3.2. Estudio de la degeneracion del espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
8.4. Estados propios del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
8.4.1. Construccion de los kets propios con base en el ket del estado base . . . . . . . . . . . . . . 277
8.4.2. Ortonormalidad de los kets propios (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . 278
8.4.3. Accion de los operadores creacion y destruccion sobre los autoestados del Hamiltoniano . . 280
8.5. Funciones propias asociadas a los estados estacionarios en la base {|xi} . . . . . . . . . . . . . . . 281
8.6. Valores esperados y dispersion en un estado estacionario del oscilador . . . . . . . . . . . . . . . . 283
INDICE GENERAL 7

8.7. Propiedades del estado base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286


8.8. Evolucion temporal de los observables del oscilador armonico . . . . . . . . . . . . . . . . . . . . . 287
8.9. Oscilador armonico cargado en un campo electrico uniforme (Opcional) . . . . . . . . . . . . . . . 289
8.9.1. Solucion utilizando el operador traslacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290

9. Estados cuasi-clasicos del oscilador armonico 293


9.1. Parametrizacion del oscilador clasico con parametros cuanticos . . . . . . . . . . . . . . . . . . . . 293
9.2. Construccion de los estados coherentes o cuasi-clasicos . . . . . . . . . . . . . . . . . . . . . . . . . 294
9.3. Propiedades de los estados |i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
9.3.1. Valores permitidos de la energa para un estado coherente |i . . . . . . . . . . . . . . . . . 298
9.3.2. Calculo de los observables X, P en el estado |i . . . . . . . . . . . . . . . . . . . . . . . . . 300
9.4. Generador y funcion de onda de los estados coherentes . . . . . . . . . . . . . . . . . . . . . . . . . 300
9.5. Los estados coherentes son completos pero no ortogonales . . . . . . . . . . . . . . . . . . . . . . . 303
9.6. Evolucion temporal de los estados coherentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
9.7. Tratamiento mecano-cuantico de un oscilador armonico macroscopico . . . . . . . . . . . . . . . . . 307

10.Teora general del momento angular en mecanica cuantica 308


10.1. Definicion de momento angular por sus propiedades de conmutacion . . . . . . . . . . . . . . . . . 309
10.1.1. Cuantizacion del momento angular orbital . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
10.1.2. Definicion de momento angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
10.2. Propiedades algebraicas del momento angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
10.2.1. Algebra de los operadores J2 , J3 , J+ , J . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
10.3. Estructura de valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
10.3.1. Notacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
10.3.2. Caractersticas generales de los valores propios de J2 y J3 . . . . . . . . . . . . . . . . . . . 312
10.3.3. Determinacion de los valores propios de J2 y J3 . . . . . . . . . . . . . . . . . . . . . . . . . 314
10.4. Propiedades de los vectores propios de J2 y J3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
10.4.1. Generacion de autoestados por medio de los operadores J+ y J . . . . . . . . . . . . . . . 317
10.5. Construccion de una base estandar con base en un C.S.C.O . . . . . . . . . . . . . . . . . . . . . . 319
10.5.1. Descomposicion de E en subespacios del tipo E (j, k) . . . . . . . . . . . . . . . . . . . . . . 320
10.6. Representaciones matriciales de los operadores momento angular . . . . . . . . . . . . . . . . . . . 321
10.6.1. Representaciones matriciales del tipo (Ji )(j) en la base estandar para j arbitrario . . . . . . 322
10.6.2. Representaciones matriciales en la base estandar para j = 0 . . . . . . . . . . . . . . . . . . 323
10.6.3. Representaciones matriciales en la base estandar para j = 1/2 . . . . . . . . . . . . . . . . . 323
10.6.4. Representaciones matriciales en la base estandar para j = 1 . . . . . . . . . . . . . . . . . . 325

11.Propiedades de los momentos angulares orbitales 326


11.1. Momentos angulares orbitales como operadores diferenciales . . . . . . . . . . . . . . . . . . . . . . 329
11.2. Valores permitidos de l y m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
11.3. Propiedades fundamentales de los armonicos esfericos . . . . . . . . . . . . . . . . . . . . . . . . . . 331
11.3.1. Ortonormalidad y completez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
11.3.2. Propiedades de paridad y conjugacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
11.3.3. Armonicos esfericos de la forma Yl,0 () y polinomios de Legendre . . . . . . . . . . . . . . . 333
11.3.4. Teorema de adicion de los armonicos esfericos . . . . . . . . . . . . . . . . . . . . . . . . . . 333
11.4. Bases estandar de una funcion de onda sin espn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
11.5. Valores esperados y dispersion para sistemas en un estado |l, m, ki . . . . . . . . . . . . . . . . . . 335
11.6. Probabilidades asociadas a la medida de L2 y L3 en un estado arbitrario . . . . . . . . . . . . . . . 337
11.7. Ejemplos de calculos de probabilidad para L2 y L3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
11.7.1. Funcion de onda parcialmente separable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
8 INDICE GENERAL

11.7.2. Funcion de onda totalmente separable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341


11.7.3. Comportamiento de la probabilidad con y . . . . . . . . . . . . . . . . . . . . . . . . . . 341

12.Interacciones centrales en mecanica cuantica 343


12.1. El problema de dos cuerpos en Mecanica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
12.2. Reduccion del problema de dos cuerpos en mecanica cuantica . . . . . . . . . . . . . . . . . . . . . 346
12.2.1. Autovalores y autofunciones del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . 347
12.3. El problema clasico de una partcula sometida a una fuerza central . . . . . . . . . . . . . . . . . . 348
12.4. Hamiltoniano cuantico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
12.5. Solucion general del problema de valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
12.5.1. La ecuacion radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
12.5.2. Comportamiento de la solucion radial en el origen . . . . . . . . . . . . . . . . . . . . . . . 352
12.6. Estados estacionarios de una partcula en un potencial central . . . . . . . . . . . . . . . . . . . . . 353
12.6.1. Degeneracion de los niveles de energa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354

13. Atomos hidrogenoides 356


13.1. El atomo de Hidrogeno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
13.2. Problema de valores propios del atomo de Hidrogeno . . . . . . . . . . . . . . . . . . . . . . . . . . 357
13.3. Solucion de la ecuacion radial por series de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . 359
13.3.1. Serie de potencias radial y relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . 359
13.3.2. Condicion asintotica y truncamiento de la serie . . . . . . . . . . . . . . . . . . . . . 361
13.3.3. Coeficientes del polinomio radial en terminos de c0 . . . . . . . . . . . . . . . . . . . . . . . 362
13.3.4. Calculo de c0 y de la funcion radial para l = 0, k = 1 . . . . . . . . . . . . . . . . . . . . . 363
13.3.5. Calculo de c0 y de la funcion radial para l = 0, k = 2 . . . . . . . . . . . . . . . . . . . . . 364
13.3.6. Calculo de c0 y de la funcion radial para l = k = 1 . . . . . . . . . . . . . . . . . . . . . . . 365
13.3.7. Estructura de los niveles de energa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
13.4. Parametros atomicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
13.5. Resumen de resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
13.6. Discusion de los resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
13.6.1. Dependencia angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369

14.Corrientes de probabilidad y acoples magneticos en atomos 372


14.1. Corrientes de probabilidad para el atomo de Hidrogeno . . . . . . . . . . . . . . . . . . . . . . . . . 372
14.1.1. Efecto sobre la corriente debido a la introduccion de un campo magnetico . . . . . . . . . . 373
14.2. Atomo de hidrogeno en un campo magnetico uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 375
14.2.1. Hamiltoniano del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
14.2.2. Estimacion numerica de las contribuciones H0 , H1 y H2 . . . . . . . . . . . . . . . . . . . . 377
14.2.3. Termino diamagnetico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
14.2.4. Termino paramagnetico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
14.3. Efecto Zeeman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
14.3.1. Corrimiento de los niveles atomicos con la correccion paramagnetica . . . . . . . . . . . . . 380
14.3.2. Oscilaciones dipolares electricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
14.3.3. Frecuencia y polarizacion de la radiacion emitida . . . . . . . . . . . . . . . . . . . . . . . . 382

15.Momento angular intrnseco 384


15.1. Comportamiento clasico de atomos paramagneticos inmersos en un campo magnetico . . . . . . . . 384
15.2. Experimento de Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
15.3. Resultados del experimento y el momento angular intrnseco . . . . . . . . . . . . . . . . . . . . . . 386
15.4. Evidencia experimental del momento angular intrnseco del electron . . . . . . . . . . . . . . . . . 388
15.4.1. Estructura fina de las lneas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388
INDICE GENERAL 9

15.4.2. Efecto Zeeman anomalo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388


15.5. Momento angular intrnseco en la cuantica no-relativista . . . . . . . . . . . . . . . . . . . . . . . . 389
15.6. Propiedades de un momento angular 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
15.6.1. Resumen de resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
15.6.2. Representacion matricial de los observables de espn . . . . . . . . . . . . . . . . . . . . . . 394
15.7. Descripcion no-relativista de partculas con espn 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . 395
15.7.1. Construccion de los estados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
15.7.2. Construccion de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
15.8. Representacion en la base |p, i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
15.9. Calculos de probabilidad para estados de espn 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 401

16.Adicion de momentos angulares 404


16.1. El problema clasico de la adicion del momento angular . . . . . . . . . . . . . . . . . . . . . . . . . 404
16.2. Momento angular total en mecanica cuantica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
16.2.1. Dos partculas sin espn bajo una interaccion central . . . . . . . . . . . . . . . . . . . . . . 404
16.2.2. Una partcula con espn bajo una interaccion central . . . . . . . . . . . . . . . . . . . . . . 406
16.2.3. Analisis general de dos momentos angulares asociados a una fuerza central . . . . . . . . . 407
16.3. La adicion de dos momentos angulares es otro momento angular . . . . . . . . . . . . . . . . . . . 408
16.4. Adicion de dos momentos angulares con j(1) = j(2) = 1/2 . . . . . . . . . . . . . . . . . . . . . . . . 409
16.4.1. Autovalores de J3 y su degeneracion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
16.4.2. Diagonalizacion de J2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
16.4.3. Autoestados de J2 y J3 : singlete y triplete . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
16.5. Metodo general de adicion de dos momentos angulares arbitrarios . . . . . . . . . . . . . . . . . . . 413
16.5.1. Formacion del sistema a partir de dos subsistemas . . . . . . . . . . . . . . . . . . . . . . . 414
16.5.2. Momento angular total y sus relaciones de conmutacion . . . . . . . . . . . . . . . . . . . . 415
16.5.3. Cambio de base a realizar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
16.5.4. Autovalores de J2 y J3 : Caso de dos espines j1 = j2 = 1/2. . . . . . . . . . . . . . . . . . . 416
16.5.5. Autovalores de J3 y su degeneracion: Caso general . . . . . . . . . . . . . . . . . . . . . . . 417
16.5.6. Autovalores de J2 : caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
16.6. Autovectores comunes de J2 y J3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
16.6.1. Caso especial j1 = j2 = 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
16.7. Autovectores de J2 y J3 : Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
16.7.1. Determinacion de los vectores |JM i del subespacio E (j1 + j2 ) . . . . . . . . . . . . . . . . . 423
16.7.2. Determinacion de los vectores |JM i en los otros subespacios . . . . . . . . . . . . . . . . . 424
16.8. Transformacion de la base desacoplada a la base acoplada . . . . . . . . . . . . . . . . . . . . . . . 425

17.Propiedades generales de los sistemas de dos estados 428


17.1. Formulacion del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
17.2. Efecto del acople sobre la energa y los estados estacionarios . . . . . . . . . . . . . . . . . . . . . . 429
17.2.1. Efecto del acople sobre los estados estacionarios del sistema . . . . . . . . . . . . . . . . . . 429
17.2.2. Efecto de un acople debil sobre los niveles de energa y estados estacionarios . . . . . . . . 431
17.2.3. Efecto de un acople fuerte sobre los niveles de energa y estados estacionarios . . . . . . . . 432
17.3. Evolucion del vector de estado: oscilacion entre dos estados . . . . . . . . . . . . . . . . . . . . . . 432

18.Teora cuantica de la dispersion 436


18.1. Teora clasica de la dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
18.2. Diferentes tipos de colisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
18.3. Ejemplos de dispersion en mecanica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
18.3.1. Dispersion elastica por esfera rgida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
10 INDICE GENERAL

18.3.2. Dispersion de Rutherford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441


18.4. Teora cuantica de la dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
18.5. Estados estacionarios de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
18.5.1. Condiciones fsicas sobre el paquete de ondas . . . . . . . . . . . . . . . . . . . . . . . . . . 445
18.6. Calculo de la seccion eficaz usando corrientes de probabilidad . . . . . . . . . . . . . . . . . . . . . 448
18.7. Ecuacion integral de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
18.7.1. Ecuacion integral y funcion de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
18.7.2. Determinacion de la funcion de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452
18.7.3. Solucion de la ecuacion integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
18.8. Aproximacion de Born . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
18.8.1. Rango de validez de la aproximacion de Born . . . . . . . . . . . . . . . . . . . . . . . . . . 457
18.8.2. Aproximacion de Born para el potencial de Yukawa . . . . . . . . . . . . . . . . . . . . . . 458

19.Teora cuantica de la dispersion II: Ondas parciales 461


19.1. Estados estacionarios de partcula libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462
19.2. Estados estacionarios de partcula libre con momento bien definido: Ondas planas . . . . . . . . . . 462
19.3. Estados estacionarios de partcula libre con momento angular bien definido: Ondas esfericas libres. 463
19.4. Caracterizacion de las ondas esfericas libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
19.4.1. Algebra de generadores de ondas esfericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
19.4.2. Relaciones de recurrencia para las ondas esfericas libres . . . . . . . . . . . . . . . . . . . . 465
19.4.3. Solucion de la ecuacion radial para l = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466
19.4.4. Generacion de ondas esfericas libres con l 6= 0, a traves de P+ y L . . . . . . . . . . . . . . 468
19.4.5. Ondas esfericas libres normalizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469
19.4.6. Ortonormalidad de las funciones esfericas libres . . . . . . . . . . . . . . . . . . . . . . . . . 471
19.4.7. Comportamiento asintotico de las ondas esfericas libres . . . . . . . . . . . . . . . . . . . . 474
19.4.8. Relacion entre las ondas esfericas libres y las planas . . . . . . . . . . . . . . . . . . . . . . 476
19.4.9. Interpretacion fsica de las ondas esferica libres . . . . . . . . . . . . . . . . . . . . . . . . . 479
19.5. Ondas parciales en el potencial V (r) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
19.5.1. Ondas parciales en potenciales de rango finito . . . . . . . . . . . . . . . . . . . . . . . . . . 483
19.5.2. Seccion eficaz en terminos de los corrimientos de fase l . . . . . . . . . . . . . . . . . . . . 484
19.5.3. Dispersion por esfera rgida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 487
19.6. Colisiones con absorcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488
19.6.1. Seccion eficaz en procesos absortivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 489
19.6.2. Teorema optico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493

20.Teora estacionaria de perturbaciones 495


20.1. Descripcion del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495
20.2. Solucion aproximada para los valores propios de H () . . . . . . . . . . . . . . . . . . . . . . . . . 497
20.3. Perturbacion de un nivel no degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 500
20.3.1. Correccion de primer orden para la energa . . . . . . . . . . . . . . . . . . . . . . . . . . . 501
20.3.2. Correccion de primer orden para el autovector . . . . . . . . . . . . . . . . . . . . . . . . . 501
20.3.3. Correccion de segundo orden para la energa . . . . . . . . . . . . . . . . . . . . . . . . . . 502
20.3.4. Correccion de segundo orden para el estado . . . . . . . . . . . . . . . . . . . . . . . . . . . 503
20.3.5. Cota superior para 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503
20.4. Perturbacion de un nivel degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504
20.4.1. Comportamiento de subniveles degenerados a mas alto orden en perturbaciones . . . . . . . 505
20.5. Consideraciones generales sobre teora estacionaria de perturbaciones . . . . . . . . . . . . . . . . . 506
20.6. Perturbaciones estacionarias sobre el oscilador armonico . . . . . . . . . . . . . . . . . . . . . . . . 507
20.6.1. Orden de magnitud de los observables no perturbados . . . . . . . . . . . . . . . . . . . . . 507
INDICE GENERAL 11

20.6.2. Parametrizacion de la perturbacion al oscilador con potencial lineal adicional . . . . . . . . 508


20.6.3. Perturbacion al oscilador armonico con potencial cuadratico . . . . . . . . . . . . . . . . . . 510
20.6.4. Perturbacion del oscilador armonico por un potencial cubico . . . . . . . . . . . . . . . . . 511

21.Metodo variacional 515


21.1. Descripcion del metodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
21.2. Implementacion del metodo variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
21.3. Funciones de prueba restringidas a un subespacio de E . . . . . . . . . . . . . . . . . . . . . . . . . 518
21.4. Espectro del oscilador armonico por metodos variacionales . . . . . . . . . . . . . . . . . . . . . . . 519
21.4.1. Estimacion del estado base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519
21.4.2. Estimacion del primer estado excitado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 520
21.5. Espectro del oscilador armonico con otras funciones de prueba . . . . . . . . . . . . . . . . . . . . 521

22.Teora de perturbaciones dependiente del tiempo 522


22.1. Solucion perturbativa de la ecuacion de Schrodinger dependiente del tiempo . . . . . . . . . . . . . 523
22.1.1. Estado del sistema a primer orden en . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 525
22.1.2. Probabilidad de transicion a segundo orden en . . . . . . . . . . . . . . . . . . . . . . . . 526
22.2. Perturbaciones sinusoidales y constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527
22.3. Perturbacion senoidal entre dos estados discretos: resonancias . . . . . . . . . . . . . . . . . . . . . 528
22.3.1. Ancho de resonancia e incertidumbre energa tiempo . . . . . . . . . . . . . . . . . . . . . . 529
22.3.2. Condiciones para la validez del metodo perturbativo . . . . . . . . . . . . . . . . . . . . . . 530
22.4. Acoplamientos con estados del espectro contnuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533
22.4.1. El caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534
22.4.2. Regla de oro de Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534
22.4.3. Probabilidad de transicion hacia el contnuo para perturbacion senoidal . . . . . . . . . . . 536
22.4.4. Dispersion y regla de oro de Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536

23.Estructura fina e hiperfina del atomo de Hidrogeno 538


23.1. El Hamiltoniano de estructura fina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 538
23.1.1. Orden de Magnitud de H0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539
23.1.2. Termino de correccion cinetica Wmv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540
23.1.3. Acoplamiento espn-orbita WSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540
23.1.4. Termino de Darwin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
23.2. Estructura hiperfina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543
23.2.1. Interpretacion de los terminos en la estructura hiperfina . . . . . . . . . . . . . . . . . . . . 543
23.3. Estructura fina del nivel n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544
23.4. Representacion matricial de la estructura fina para el nivel n = 2 . . . . . . . . . . . . . . . . . . . 545
23.5. Calculo de los terminos cinetico

y de
Darwin
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 546
23.5.1. Calculo de h1/Ri , 1/R2 y 1/R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
23.5.2. Calculo de hWmv i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
23.5.3. El valor medio hWD i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
23.6. Calculo del termino de espn-orbita WSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 551
23.6.1. Calculo del termino espn-angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 551
23.6.2. Calculo del termino radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553
23.6.3. Contribucion espn-orbita completa para la subcapa 2p . . . . . . . . . . . . . . . . . . . . . 553
23.7. Sntesis de resultados sobre la estructura fina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554
23.8. La estructura fina para n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556
23.9. Estructura hiperfina para n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556
23.9.1. Calculo del factor orbital R para Whf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 558
12 INDICE GENERAL

23.9.2. Calculo del factor de espn para Whf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 558


23.9.3. Espectro hiperfino del nivel 1s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559

24.Campos externos sobre el atomo de Hidrogeno 561


24.1. Efecto Zeeman de la estructura hiperfina del estado base 1s . . . . . . . . . . . . . . . . . . . . . . 561
24.1.1. Efecto Zeeman de campo debil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562
24.1.2. El efecto Zeeman para campo fuerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 566
24.1.3. El efecto Zeeman para campo intermedio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 569
24.2. Efecto Stark para el atomo de Hidrogeno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572
24.2.1. El efecto Stark sobre el nivel n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572
24.2.2. Efecto Stark sobre el nivel n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574

25.Moleculas diatomicas 576


25.1. Estados de momento angular cero (l = 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 578
25.2. Estados de momento angular no nulo (l 6= 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579
25.3. Espectro de moleculas diatomicas heteropolares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581
25.3.1. Espectro puramente rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
25.3.2. Espectro vibracional-rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583
25.4. Correcciones a la estructura espectral (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584
25.4.1. Correccion a las funciones de onda y los niveles de energa . . . . . . . . . . . . . . . . . . . 587
25.4.2. Distorsion centrfuga de la molecula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
25.4.3. Acople vibracional-rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
25.5. Espectro de moleculas diatomicas homopolares: efecto Raman . . . . . . . . . . . . . . . . . . . . . 589

26.Sistemas cuanticos de partculas identicas 590


26.1. Partculas identicas en mecanica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 590
26.2. Partculas identicas en mecanica cuantica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591
26.3. Degeneracion de intercambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592
26.3.1. Degeneracion de intercambio para un sistema de dos partculas de espn 1/2 . . . . . . . . . 593
26.3.2. Degeneracion de intercambio para un sistema arbitrario . . . . . . . . . . . . . . . . . . . . 594
26.4. Operadores de permutacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595
26.4.1. Permutaciones en sistemas de dos partculas . . . . . . . . . . . . . . . . . . . . . . . . . . . 595
26.4.2. Simetrizadores y antisimetrizadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596
26.4.3. Transformacion de los observables por medio de las permutaciones . . . . . . . . . . . . . . 597
26.4.4. Permutacion de un conjunto arbitrario de partculas . . . . . . . . . . . . . . . . . . . . . . 598
26.5. Postulado de simetrizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601
26.5.1. Aplicacion del postulado a partculas compuestas . . . . . . . . . . . . . . . . . . . . . . . . 602
26.5.2. Solucion de la degeneracion de intercambio . . . . . . . . . . . . . . . . . . . . . . . . . . . 602
26.6. Aplicacion del postulado de simetrizacion para N = 2 . . . . . . . . . . . . . . . . . . . . . . . . . 603
26.7. Postulado de simetrizacion para N arbitrario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604
26.7.1. Postulado de simetrizacion para bosones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604
26.7.2. Postulado de simetrizacion para fermiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605
26.8. Construccion de una base de estados fsicos de partculas identicas . . . . . . . . . . . . . . . . . . 606
26.8.1. Propiedades de los kets de ocupacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 608
26.9. Consistencia del postulado de simetrizacion con los otros postulados . . . . . . . . . . . . . . . . . 609
26.9.1. Postulado de simetrizacion y el proceso de medida . . . . . . . . . . . . . . . . . . . . . . . 609
26.9.2. Postulado de simetrizacion y evolucion temporal . . . . . . . . . . . . . . . . . . . . . . . . 610
26.10.Consecuencias fenomenologicas del postulado de simetrizacion . . . . . . . . . . . . . . . . . . . . . 611
26.10.1.Diferencias entre fermiones y bosones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 611
INDICE GENERAL 13

26.10.2.Estado base de un sistema de partculas identicas independientes . . . . . . . . . . . . . . . 611


26.11.Predicciones fsicas del postulado de simetrizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 613
26.11.1.Predicciones sobre partculas aparentemente identicas . . . . . . . . . . . . . . . . . . . . . 615
26.11.2.Colision elastica de dos partculas identicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 616
26.12.Situaciones en las cuales se puede ignorar el postulado de simetrizacion . . . . . . . . . . . . . . . 617
26.12.1.Partculas identicas ubicadas en regiones espaciales distintas . . . . . . . . . . . . . . . . . . 617
26.12.2.Identificacion de partculas por su direccion de espn . . . . . . . . . . . . . . . . . . . . . . 619

27. Atomos de muchos electrones y aproximacion de campo central 620


27.1. Aproximacion de campo central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 621
27.2. Configuraciones electronicas de los atomos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624

28.El atomo de Helio 626


28.1. Configuraciones del atomo de Helio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 626
28.1.1. Degeneracion de las configuraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 627
28.2. Efecto de la repulsion electrostatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629
28.2.1. Base de E (n, l; n , l ) adaptada a las simetras de W . . . . . . . . . . . . . . . . . . . . . . 629
28.2.2. Restricciones impuestas por el postulado de simetrizacion . . . . . . . . . . . . . . . . . . . 631
28.2.3. Terminos espectrales generados por la repulsion electrostatica . . . . . . . . . . . . . . . . . 633
28.3. Terminos espectrales que surgen de la configuracion 1s, 2s . . . . . . . . . . . . . . . . . . . . . . . 634
28.3.1. La integral de intercambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 636
28.3.2. Analisis del papel del postulado de simetrizacion . . . . . . . . . . . . . . . . . . . . . . . . 637
28.3.3. Hamiltoniano efectivo dependiente del espn . . . . . . . . . . . . . . . . . . . . . . . . . . . 638
28.4. Terminos espectrales que surgen de otras configuraciones excitadas . . . . . . . . . . . . . . . . . . 640
28.5. Validez del tratamiento perturbativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 640
28.6. Estructura fina del atomo de helio y multipletes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 641

29.Metodo de Hartree-Fock 644


29.1. Producto interno entre determinantes de Slater y un operador simetrico . . . . . . . . . . . . . . . 646
29.1.1. Ejemplo de aplicacion para N = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 648
29.2. Valor esperado de la energa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 649
29.2.1. Valor esperado de H (0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 650
29.2.2. Valor esperado de H (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651
29.2.3. Valor esperado de H = H (0) + H (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653
29.2.4. Interpretacion fsica de los terminos directo y de intercambio . . . . . . . . . . . . . . . . . 653
29.3. Metodo de Hartree-Fock para una capa cerrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654
29.3.1. Minimizacion de E [D] con ligaduras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655
29.3.2. Calculo de F [, ] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 656
29.4. Operadores de Hartree-Fock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
29.5. Interpretacion de la ecuacion de Hartree-Fock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659
29.6. Solucion por iteracion de la ecuacion de HF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659
29.7. Determinacion del valor Fsico de la energa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 660
Captulo 1

Linear or vector spaces

We shall describe the most important properties of linear or vector spaces. This treatment is not rigorous at all,
and only some simple proofs are shown. Our aim limits to provide a framework for our subsequent developments.

1.1. Definition of a linear vector space


Any non-empty set of objects V = {xi } form a linear space (or a vector space) if there is a sum operation
defined between the elements, and a multiplication by scalars (i.e. the system of real or complex numbers) such
that

1. If xi V , and is a scalar, then xi V

2. If xi , xj V , then xi + xj V

3. xi + xj = xj + xi , xi , xj V

4. xi + (xj + xk ) = (xi + xj ) + xk , xi , xj , xk V

5. ( + ) xi = xi + xi ; xi V

6. (xi + xj ) = xi + xj , xi , xj V

7. () xi = (xi ) ; xi V

8. 1xi = xi ; xi V

9. an element 0 V such that xi + 0 = xi , xi V

10. xi V , an element in V denoted by xi such that xi + (xi ) = 0

The element 0 is usually called the null vector or the origin. The element x is called the additive inverse of x.
We should distinguish the symbols 0 (scalar) and 0 (vector). The two operations defined here (sum and product
by scalars) are called linear operations. A linear space is real (complex) if we consider the scalars as the set of real
(complex) numbers.
Let us see some simple examples

Example 1.1 The set of all real (complex) numbers with ordinary addition and multiplication taken as the linear
operations. This is a real (complex) linear space.

14
1.2. ALGEBRAIC PROPERTIES 15

Example 1.2 The set Rn (C n ) of all n-tuples of real (complex) numbers is a real (complex) linear space under
the following linear operations
x (x1 , x2 , . . . , xn ) ; y (y1 , y2 , . . . , yn )
x (x1 , x2 , , xn ) ; x + y (x1 + y1 , x2 + y2 , . . . , xn + yn )

Example 1.3 The set of all bounded continuous real functions defined on a given interval [a, b] of the real line,
with the linear operations defined pointwise as
(f + g) (x) = f (x) + g (x) ; (f ) (x) = f (x) ; x [a, b]

We can see that a linear or vector space forms an abelian group whose elements are the vectors, and with
addition as the law of combination. However, the vector space introduce an additional structure by considering
multiplication by scalars which is not a group property.
Some very important kinds of vector spaces are the ones containing certain sets of functions with some specific
properties. We can consider for example, the set of functions defined on certain interval with some condition of
continuity integrability etc. For instance, in quantum mechanics we use a vector space of functions.

1.2. Algebraic properties


Some algebraic properties arise from the axioms:
The origin or identity 0 must be unique. Assuming another identity 0 we have that x + 0 = 0 + x = x for
all x V. Then 0 = 0 + 0 = 0. Hence 0 = 0.
The additive inverse of any vector x is unique. Assume that x is another inverse of x then

x = x + 0 = x + (x+ (x)) = x + x + (x) = 0 + (x) = x
x = x
xi + xk = xj + xk xi = xj to see it, we simply add xk on both sides. This property is usually called the
rearrangement lemma.
0 = 0 we see it from 0 + x = (0 + x) = x = 0 + x and applying the rearrangement lemma.
0 x = 0 it proceeds from 0 x + x = (0 + ) x = x = 0 + x and using the rearrangement lemma.
(1) x = x we see it from x+ (1) x = 1 x + (1) x = (1 + (1)) x = 0x = 0 = x+ (x) and the
rearrangement lemma.
x = 0 then = 0 or x = 0; for if 6= 0 we can multiply both sides of the equation by 1 to give
(x) = 1 0 1 x = 0 1x = 0 x = 0. If x 6= 0 we prove that = 0 by assuming 6= 0 and
1

finding a contradiction. This is inmediate from the above procedure that shows that starting with 6= 0 we arrive
to x = 0.
It is customary to simplify the notation in x + (y) and write it as x y. The operation is called substraction.

1.3. Vector subspaces


Definition 1.1 A non-empty subset M of V is a vector subspace of V if M is a vector space on its own right
with respect to the linear operations defined in V .

This is equivalent to the condition that M contains all sums, negatives and scalar multiples. The other pro-
perties are derived directly from the superset V . Further, since x = (1) x it reduces to say that M must be
closed under addition and scalar multiplication.
When M is a proper subset of V it is called a proper subspace of V . The zero space {0} and the full space V
itself are trivial subspaces of V .
The following concept is useful to study the structure of vector subspaces of a given vector space,
16 CAPITULO 1. LINEAR OR VECTOR SPACES

Definition 1.2 Let S = {x1 , .., xn } be a non-empty finite subset of V , then the vector
x = 1 x1 + 2 x2 + . . . + n xn (1.1)
is called a linear combination of the vectors in S.

We can redefine a vector subspace by saying that a non-empty subset M of V is a linear subspace if it is closed
under the formation of linear combinations. If S is a subset of V we can see that the set of all linear combinations
of vectors in S is a vector subspace of V , we denote this subspace as [S] and call it the vector subspace spanned by
S. It is clear that [S] is the smallest subspace of V that contains S. Similarly, for a given subspace M a non-empty
subset S of M is said to span M if [S] = M . Note that the closure of a vector space under an arbitrary linear
combination can be proved by induction from the closure property of vector spaces under linear operations. Notice
additionally, that the proof of induction only guarantees the closure under any finite sum of terms, if we have an
infinite sum of terms (e.g. a series) we cannot ensure that the result is an element of the space, this is the reason
to define linear combinations as finite sums. If we want a property of closure under some infinite sums additional
structure should be added as we shall see later.
Suppose now that M and N are subspaces of V . Consider the set M + N of all sums of the form x + y with
x M and y N . Since M and N are subspaces, this sum is the subspace spanned by the union of both subspaces
M + N = [M N ]. It could happen that M + N = V in this case we say that V is the sum of M and N . In turn
it means that every vector in V is expressible as a sum of a vector in M plus a vector in N . Further, in some cases
any element z of V is expressible in a unique way as such a sum, in this case we say that V is the direct sum of
M and N and it is denoted by
V =M N
we shall establish the conditions for a sum to become a direct sum

Theorem 1.1 Let a vector space V be the sum of two of its subspaces V = M + N . Then V = M N M N =
{0}

Proof: Assume first that V = M N , we shall suppose that z 6= 0 with z M N , and deduce a
contradiction from it. We can express z in two different ways z = z + 0 with z M and 0 N or z = 0 + z with
0 M and z N . This contradicts the definition of a direct sum.
Now assume M N = {0}, by hypothesis V = M + N so that any z V can be expressed by z = x1 + y1
with x1 M and y1 N . Suppose that there is another decomposition z = x2 + y2 with x2 M and y2 N .
Hence x1 + y1 = x2 + y2 x1 x2 = y1 y2 ; but x1 x2 M and y1 y2 N . Since they are equal, then both
belong to the intersection so x1 x2 = y1 y2 = 0 then x1 = x2 and y1 = y2 showing that the decomposition
must be unique. QED.
When two vector subspaces of a given space have only the zero vector in common, it is customary to call them
disjoint subspaces. It is understood that it does not correspond to disjointness in the set-theoretical sense, after all
two subspaces of a given space cannot be disjoint as sets, since any subspace must contain 0. Thus no confusion
arises from this practice.
The concept of direct sum can be generalized when more subspaces are involved. We say that V is the direct
sum of a collection of subspaces {M1 , .., Mn } and denote it as
V = M1 M2 . . . Mn
when each z V can be expressed uniquely in the form
z = x1 + x2 + . . . + xn ; xi Mi
In this case if V = M1 + .. + Mn , this sum becomes a direct sum if and only if each Mi is disjoint from the subspace
spanned by the others. To see it, it is enough to realize that
V = M1 + M2 + .. + Mn = M1 + [M2 + .. + Mn ] = M1 + [ni=2 Mi ]
1.4. DIMENSION AND BASES IN VECTOR SPACES 17

then V = M1 [M2 + .. + Mn ] if and only if M1 [ni=2 Mi ] = {0}, proceeding similarly for the other Mi s we
arrive at the condition above. Note that this condition is stronger than the condition that any given Mi is disjoint
from each of the others.
The previous facts can be illustrated by a simple example. The most general non-zero proper subspaces of R3
are lines or planes that passes through the origin. Thus let us define

M1 = {(x1 , 0, 0)} , M2 = {(0, x2 , 0)} , M3 = {(0, 0, x3 )}


M4 = {(0, x2 , x3 )} , M5 = {(x1 , 0, x3 )} , M6 = {(x1 , x2 , 0)}

M1 , M2 , M3 are the coordinate axes of R3 and M4 , M5 , M6 are its coordinate planes. R3 can be expressed by direct
sums of these spaces in several ways

R3 = M1 M2 M3 = M1 M4 = M2 M5 = M3 M6

for the case of R3 = M1 M2 M3 we see that the subspace spanned by M2 and M3 i.e. M2 +M3 = [M2 M3 ] = M4
is disjoint from M1 . Similarly M2 [M1 M3 ] = {0} = M3 [M1 M2 ]. It is because of this, that we have a direct
sum.
Now let us take M3 , M6 and M defined as a line on the plane M4 that passes through the origin making an
angle with the axis x3 such that 0 < < /2, since R3 = M3 + M6 it is clear that

R3 = M3 + M6 + M ; M3 M6 = M3 M = M6 M = {0} (1.2)

however this is not a direct sum because M3 + M6 = R3 so that M (M3 + M6 ) 6= {0}. Despite each subspace
is disjoint from each other, there is at least one subspace that is not disjoint from the subspace spanned by the
others. Let us show that there are many decompositions for a given vector z R3 when we use the sum in (1.2).
Since R3 = M3 + M6 a possible decomposition is z = x + y + 0 with x M3 , y M6 , 0 M . Now let us take an
arbitrary non-zero element w of M ; clearly M3 +M6 = R3 contains M so that w = x +y with x M3 , y M6 .
Now we write z = x + y = (x x ) + (y y ) + x + y then z = (x x ) + (y y ) + w. We see that (x x ) is
in M3 and (y y ) is in M6 . Now, since w M and w 6= 0 this is clearly a different decomposition with respect
to the original one. An infinite number of different decompositions are possible since w is arbitrary.
Finally, it can be proved that for any given subspace M in V it is always possible to find another subspace N in
V such that V = M N . Nevertheless, for a given M the subspace N is not neccesarily unique. A simple example
is the following, in R2 any line crossing the origin is a subspace M and we can define N as any line crossing the
origin as long as it is not collinear with M ; for any N accomplishing this condition we have V = M N .

1.4. Dimension and bases in vector spaces


Definition 1.3 Let V be a vector space and S = {x1 , .., xn } a finite non-empty subset of V . S is defined as
linearly dependent if there is a set of scalars {1 , .., n } not all of them zero such that

1 x1 + 2 x2 + .. + n xn = 0 (1.3)

if S is not linearly dependent we say that it is linearly independent, this means that in Eq. (1.3) all coefficients i
must be zero. Thus linear independence of S means that the only solution for Eq. (1.3) is the trivial one. When
non-trivial solutions exists the set is linearly dependent.

What is the utility of the concept of linear independence of a given set S? to see it, let us examine a given
vector x in [S], each of these vectors arise from linear combinations of vectors in S

x = 1 x1 + 2 x2 + .. + n xn ; xi S (1.4)
18 CAPITULO 1. LINEAR OR VECTOR SPACES

we shall see that for the ordered set S = {x1 , .., xn } the corresponding ordered set {1 , .., n } associated with x
by Eq. (1.4) is unique. Suppose there is another decomposition of x as a linear combination of elements of S

x = 1 x1 + 2 x2 + .. + n xn ; xi S (1.5)

substracting (1.4) and (1.5) we have

0 = (1 1 ) x1 + (2 2 ) x2 + .. + (n n ) xn

but linear independence require that only the trivial solution exists, thus i = i and the ordered set of coefficients
is unique. This is very important for the theory of representations of vector spaces. The discussion above permits
to define linearly independence for an arbitrary (not necessarily finite) non-empty set S

Definition 1.4 An arbitrary non-empty subset S V is linearly independent if every finite non-empty subset of
S is linearly independent in the sense previously established.

As before, an arbitrary non-empty set S is linearly independent if and only if any vector x [S] can be written
in a unique way as a linear combination of vectors in S.
The most important linearly independent sets are those that span the whole space i.e. [S] = V this linearly
independent sets are called bases. It can be checked that S is a basis if and only if it is a maximal linearly
independent set, in the sense that any proper superset of S must be linearly dependent. We shall establish
without proof a very important theorem concerning bases of vector spaces

Theorem 1.2 If S is a linearly independent set of vectors in a vector space V , there exists a basis B in V such
that S B.

In words, given a linearly independent set, it is always possible to add some elements to S for it to become
a basis. A linearly independent set is non-empty by definition and cannot contain the null vector. Hence, we see
that if V = {0} it does not contain any basis, but if V 6= {0} and we can take a non-zero element x of V , the set
{x} is linearly independent and the previous theorem guarantees that V has a basis that contains {x}, it means
that

Theorem 1.3 Every non-zero vector space has a basis

Now, since any set consisting of a single non-zero vector can be enlarged to become a basis it is clear that any
non-zero vector space contains an infinite number of bases. It worths looking for general features shared by all
bases of a given linear space. Tne first theorem in such a direction is the following

Theorem 1.4 Let S = {x1 , x2 , .., xn } be a finite, odered, non-empty subset of the linear space V . If n = 1 then
S is linearly dependent x1 = 0. If n > 1 and x1 6= 0 then S is linearly dependent if and only if some one of the
vectors x2 , ..., xn is a linear combination of the vectors in the ordered set S that precede it.

Proof: The first assertion is trivial. Then we settle n > 1 and x1 6= 0. Assuming that one of the vectors xi in
the set x2 , ..., xn is a linear combination of the preceding ones we have

xi = 1 x1 + ... + i1 xi1 1 x1 + ... + i1 xi1 1 xi = 0

since the coefficient of xi is 1, this is a non-trivial linear combination of elements of S that equals zero. Thus S is
linearly dependent. We now assume that S is linearly dependent hence the equation

1 x1 + ... + n xn = 0
1.4. DIMENSION AND BASES IN VECTOR SPACES 19

has a solution with at least one non-zero coefficcient. Let us define i as the last non zero coefficient, since x1 6= 0
then i > 1 then we have
   
1 i1
1 x1 + ... + i xi + 0 xi+1 + ... + 0 xn = 0 xi = x1 + ... + xi1
i i

and xi is written as a linear combination of the vectors that precede it in the ordered set S. QED
The next theorem provides an important structural feature of the set of bases in certain linear spaces

Theorem 1.5 If a given non-zero linear space V has a finite basis B1 = {e1 , ..., en } with n elements, then any
other basis B2 = {fi } of V must be finite and also with n elements.

The following theorem (that we give without proof) gives a complete structure to this part of the theory of
vector spaces

Theorem 1.6 Let V be a non-zero vector space. If B1 = {ei } and B2 = {uj } are two bases of the vector space,
then B1 and B2 are sets with the same cardinality.

These theorem is valid even for sets with infinite cardinality. This result says that the cardinality of a basis is
a universal attribute of the vector space since it does not depend on the particular basis used. Hence the following
are natural definitions

Definition 1.5 The dimension of a non-zero vector space is the cadinality of any of its basis. If V = {0} the
dimension is defined to be zero.

Definition 1.6 A vector space is finite-dimensional if its dimension is a non negative integer. Otherwise, it is
infinite-dimensional.

As any abstract algebraic system, vector spaces requires a theory of representations in which the most abstract
set is replaced by another set with more tangible objects. However, for the representation to preserve the abstract
properties of the vector space, set equivalence and linear operations must be preserved. This induces the following
definition

Definition 1.7 Let V and V two vector spaces with the same system of scalars. An isomorphism of V onto V
is a one-to-one mapping f of V onto V such that f (x + y) = f (x) + f (y) and f (x) = f (x)

Definition 1.8 Two vector spaces with the same system of scalars are called isomorphic if there exists an iso-
morphism of one onto the other.

To say that two vector spaces are isomorphic means that they are abstractly identical with respect to their
structure as vector spaces.
Now let V be a non zero finite dimensional space. If n is its dimension, there exists a basis B = {e1 , .., en }
whose elements are written in a definite order. Each vector x in V can be written uniquely in the form

x = 1 e1 + .. + n en

so the ntuple (1 , .., n ) is uniquely determined by x. If we define a mapping f by f (x) = (1 , .., n ) we see
that this is an isomorphism of V onto Rn or C n depending on the system of scalars defined for V .

Theorem 1.7 Any real (complex) non-zero finite dimensional vector space of dimension n is isomorphic to Rn
(C n ).
20 CAPITULO 1. LINEAR OR VECTOR SPACES

Indeed, this theorem can be extended to vector spaces of arbitrary dimensions, we shall not discuss this topic
here. By now, it suffices to realize that the isomorphism establishes here is not unique for it depends on the basis
chosen and even on the order of vectors in a given basis. It can be shown also that two vector spaces V and V
are isomorphic if and only if they have the same scalars and the same dimension.
From the results above, we could then be tempted to say that the abstract concept of vector space is no
useful anymore. However, this is not true because on one hand the isomorphism depends on the basis chosen and
most results are desirable to be written in a basis independent way. But even more important, almost all vector
spaces studied in Mathematics and Physics posses some additional structure (topological or algebraic) that are
not neccesarily preserve by the previous isomorphisms.

1.5. Mappings and transformations in vector spaces


For two vector spaces V and V with the same system of scalars we can define a mapping T of V into V that
preserves linear properties
T (x + y) = T (x) + T (y) ; T (x) = T (x)
T is called a linear transformation. We can say that linear transformations are isomorphisms of V into V since
linear operations are preserved. T also preserves the origin and negatives

T (0) = T (0 0) = 0 T (0) = 0 ; T (x) = T ((1) x) = (1) T (x) = T (x)

we shall see later that the states of our physical systems are vectors of a given vector space. Hence, the transfor-
mations of these vectors are also important in Physics because they will represent transformations in the states
of our system. We shall see later that the set of all linear transformations are in turn vector spaces with their own
internal organization.
Let us now define some basic operations with linear transformations, a natural definition of the sum of two
linear transformations is of the form
(T + U ) (x) T (x) + U (x) (1.6)
and a natural definition of multiplication by scalars is

(T ) (x) T (x) (1.7)

finally the zero and negative linear transformations are defined as

0 (x) 0 ; (T ) (x) T (x) (1.8)

with these definitions it is inmediate to establish the following

Theorem 1.8 Let V and V be two vector spaces with the same system of scalars. The set of all linear transfor-
mations of V into V with the linear operations defined by Eqs. (1.6, 1.7, 1.8) is itself a vector space.

The most interesting cases are the linear transformations of V into itself and the linear transformations of V
into the vector space of scalars (real or complex). We shall study now the first case.

1.6. Linear transformations of a vector space into itself


In this case we usually speak of linear transformations on V . The first inmediate consequence is the capability
of defining the composition of operators (or product of operators)

(T U ) (x) T (U (x)) (1.9)


1.6. LINEAR TRANSFORMATIONS OF A VECTOR SPACE INTO ITSELF 21

associativity and distributivity properties can easily be derived

T (U V ) = (T U ) V ; T (U + V ) = T U + T V
(T + U ) V = T V + U V ; (T U ) = (T ) U = T (U )

we prove for instance

[(T + U ) V ] (x) = (T + U ) (V (x)) = T (V (x)) + U (V (x))


= (T V ) (x) + (U V ) (x) = (T V + U V ) (x)

commutativity does not hold in general. It is also possible for the product of two non-zero linear transformations
to be zero. An example of non commutativity is the following: we define on the space P of polynomials p (x) the
linear operators M and D

dp dp
M (p) xp ; D (p) = (M D) (p) = M (D (p)) = xD (p) = x
dx dx
dp
(DM ) (p) = D (M (p)) = D (xp) = x +p
dx

and M D 6= DM. Suppose now the linear transformations on R2 given by

Ta ((x1 , x2 )) = (x1 , 0) ; Tb ((x1 , x2 )) = (0, x2 ) Ta Tb = Tb Ta = 0

thus Ta 6= 0 and Tb 6= 0 but Ta Tb = Tb Ta = 0.


Another natural definition is the identity operator I

I (x) x

we see that I 6= 0 V 6= {0}. Further


IT = T I = T

for every linear operator T on V . For any scalar the operator I is called scalar multiplication since

(I) (x) = I (x) = x

it is well known that for a mapping of V into V to admit an inverse of V into V requires to be one-to-one and
onto. In this context this induces the definition

Definition 1.9 A linear transformation T on V is non-singular if it is one-to-one and onto, and singular other-
wise.

When T is non-singular its inverse can be defined so that

T T 1 = T 1 T = I

it can be shown that when T is non-singular T 1 is also a non-singular linear transformation.


For future purposes the following theorem is highly relevant

Theorem 1.9 If T is a linear transformation on V , then T is non-singular T (B) is a basis for V whenever B
is.
22 CAPITULO 1. LINEAR OR VECTOR SPACES

1.6.1. Projection operators


We shall discuss some very important types of linear transformations. Let V be the direct sum of two subspaces
V = M N it means that any vector z in V can be written in a unique way as z = x + y with x M and y N .
Since x is uniquely determined by z this decomposition induces a natural mapping of V onto M in the form

P (z) = x

it is easy to show that this transformation is linear and is called the projection on M along N . The most important
property of these transformations is that they are idempotent i.e. P 2 = P we can see it taking into account that
the unique decomposition of x is x = x + 0 so that

P 2 (z) = P (P (z)) = P (x) = x = P (z)

The opposite is also true i.e. a given linear idempotent linear transformation induces a decomposition of the space
V in a direct sum of two subspaces

Theorem 1.10 If P is a linear transformation on a vector space V , P is idempotentthere exists subspaces M


and N in V such that V = M N and P is the projection on M along N .

Proof : We already showed that decomposition in a direct sum induces a projection, to prove the opposite let
define M and N in the form
M {P (z) : z V } ; N = {z : P (z) = 0}
M and N are vector subspaces and correspond to the range and the null space (or kernel) of the transformation
P respectively. We show first that M + N = V , this follows from the identity

z = P (z) + (I P ) (z) (1.10)

P (z) belongs to M by definition, now



P ((I P ) (z)) = (P (I P )) (z) = P P 2 (z) = (P P ) (z) = 0 (z) = 0

thus (I P ) (z) belongs to the null space N so M + N = V . To prove that this is a direct sum we must show that
M and N are disjoint (theorem 1.1). For this, assume that we have a given element P (z) in M that is also in N
then
P (P (z)) = 0 P 2 (z) = P (z) = 0
thus the common element P (z) must be the zero element. Hence, M and N are disjoint and V = M N . Further,
from (1.10) P is the projection on M along N .
Of course in z = x + y with x M , y N we can define a projection P (z) = y on N along M . In this case
V = M N = N M but now M is the null space and N is the range. It is easy to see that P = I P .
On the other hand, we have seen that for a given subspace M in V we can always find another subspace N
such that V = M N so for a given M we can find a projector with range M and null space N . However, N is
not unique so that different projections can be defined on M .
Finally, it is easy to see that the range of a projector P corresponds to the set of points fixed under P i.e.
M = {P (z) : z V } = {z : P (z) = z}.

1.7. Normed vector spaces


Inspired in the vectors of Rn in which we define their lengths in a natural way, we can define lengths of vectors
in abstract vector spaces by assuming an additional structure
1.7. NORMED VECTOR SPACES 23

Definition 1.10 A normed vector space N is a vector space in which to each vector x there corresponds a real
number denoted by kxk with the following properties: (1) kxk 0 and kxk = 0 x = 0.(2) kx + yk kxk + kyk
(3) kxk = || kxk

As well as allowing to define a length for vectors, the norm permits to define a distance between two vectors
x and y in the following way
d (x, y) kx yk
it is easy to verify that this definition accomplishes the properties of a metric

d (x, y) 0 and d (x, y) = 0 x = y


d (x, y) = d (y, x) ; d (x, z) d (x, y) + d (y, z)

in turn, the introduction of a metric permits to define two crucial concepts: (a) convergence of sequences, (b)
continuity of functions of N into itself (or into any metric space).
We shall examine both concepts briefly

1.7.1. Convergent sequences, cauchy sequences and completeness


If X is a metric space with metric d a given sequence in X

{xn } = {x1 , .., xn , ...}

is convergent if there exists a point x in X such that for each > 0, there exists a positive integer n0 such that
d (xn , x) < for all n n0 . x is called the limit of the sequence. A very important fact in metric spaces is that
any convergent sequence has a unique limit.
Further, assume that x is the limit of a convergent sequence, it is clear that for each > 0 there exists n0 such
that m, n n0 d (x, xm ) < /2 and d (x, xn ) < /2 using the properties of the metric we have

m, n n0 d (xm , xn ) d (xm , x) + d (x, xn ) < + =
2 2
a sequence with this property is called a cauchy sequence. Thus, any convergent sequence is a cauchy sequence.
The opposite is not necessarily true. As an example let X be the interval (0, 1] the sequence xn = 1/n is a cauchy
sequence but is not convergent since the point 0 (which it wants to converge to) is not in X. Then, convergence
depends not only on the sequence itself, but also on the space in which it lies. Some authors call cauchy sequences
intrinsically convergent sequences.
A complete metric space is a metric space in which any cauchy sequence is convergent. The space (0, 1] is not
complete but it can be made complete by adding the point 0 to form [0, 1]. In fact, any non complete metric space
can be completed by adjoining some appropiate points. It is a fundamental fact that the real line, the complex
plane and Rn , C n are complete metric spaces.
We define an open sphere of radius r centered at x0 as the set of points such that

Sr (x0 ) = {x X : d (x, x0 ) < r}

and an open set is a subset A of the metric space such that for any x A there exists an open sphere Sr (x) such
that Sr (x) A.
For a given subset A of X a point x in X is a limit point of A if each open sphere centered on x contains at
least one point of A different from x.
A subset A is a closed set if it contains all its limit points. There is an important theorem concerning closed
metric subspaces of a complete metric space

Theorem 1.11 Let X be a complete metric space and Y a metric subspace of X. Then Y is completeit is
closed.
24 CAPITULO 1. LINEAR OR VECTOR SPACES

1.7.2. The importance of completeness in quantum mechanics


In quantum mechanics we work in an infinite dimensional vector space of functions in which we shall frequently
encounter series of the form
X
cn n
n=1
with n being functions in our space that describe physical states and cn are some appropiate coefficients. For this
series to have any physical sense, it must be convergent. To analyze convergence we should construct the sequence
of partial sums
( 1 2 3
)
X X X
cn n , cn n , cn n , ...
n=1 n=1 n=1
if this series is intrisically convergent the corresponding sequence of partial sums should be a cauchy sequence.
Any series that defines a cauchy sequence has a bounded norm

X

cn n <

n=1

it would then be desirable that an intrinsically convergent series given by a superposition of physical states n
be another physical state . In other words, the limit of the partial sums should be within the vector space that
describe our physical states. To ensure this property we should demand completeness of the vector space that
describe the physical states of the system.
On the other hand, it would be usual to work with subspaces of the general physical space. If we want to
guarantee for a series in a given subspace to be also convergent, we should require for the subspace to be complete
by itself, and according to theorem 1.11 it is equivalent to require the subspace to be closed with respect to the
total space. Therefore, closed subspaces of the general space of states would be particularly important in quantum
mechanics.

1.7.3. The concept of continuity and its importance in Physics


The concept of continuity arises naturally for mappings of a metric space into another metric space. Let f be
a mapping of (X, d1 ) into (Y, d2 ) we say that f is continuous at x0 X if for each > 0 there exists > 0 such
that d1 (x, x0 ) < d2 (f (x) , f (x0 )) < . This mapping is said to be continuous if it is continuous for each point
in its domain.
Continuity is also an essential property in Physics since for most of physical observables or states we require
some kind of smoothness or well behavior. Continuity is perhaps the weakest condition of well behavior usually
required in Physics.
We have previously defined isomorphisms as mappings that preserve all structure concerning a general vector
space. It is then natural to characterize mappings that preserve the structure of a set as a metric space
Definition 1.11 If X, Y are two metric spaces with metrics d1 and d2 a mapping f of X into Y is an isometry
if d1 (x, x ) = d2 (f (x) , f (x )) x, x X. If there exists an isometry of X onto Y , we say that X is isometric to
Y.
It is clear that an isometry is necessarily one-to-one. If X is isometric to Y then the points of these spaces
can be put in a one to one correspondence in such a way that the distance between pairs of corresponding points
are the same. In that sense, isometric spaces are abstractly identical as metric spaces. For instance, if we endow
a vector space V with a metric then another metric vector space V will be identical to V as metric and vector
space if and only if there is an isometric isomorphism between them. Isometry preserves metric (distances) while
isomorphism preserve vector structure (linear operations). Of course a norm-preserving mapping is an isometry
for the metric induced by such a norm. Thus for our purposes norm preserving mappings will be isometries.
1.8. BANACH SPACES 25

1.8. Banach Spaces


From our experience in classical mechanics we have seen that the concept of a vector space is useful especially
when we associate a length to the vectors, this induces the concept of normed vector spaces, the norm in turn
induces a metric i.e. a natural concept of the distance between vectors. Metric structure in turn lead us to the
concepts of convergent sequences and continuity of functions. In particular, the previous discussion concerning
completeness incline us in favor of spaces that are complete. Then we are directly led to normed and complete
linear spaces

Definition 1.12 A banach space is a normed and complete vector space

As in any vector space, linear transformations are crucial in the characterization of Banach spaces. Since a
notion of continuity is present in these spaces and continuity is associated with well behavior in Physics, it is
natural to concentrate our attention in continuous linear transformations of a banach space B into itself or into
the set of scalars. Transformations of B into itself will be useful when we want to study posible modifications of
the vectors (for instance the time evolution of the vectors describing the state of the system). On the other hand,
transformations of B into the scalars will be useful when we are interested in connecting the state of a system
(represented by a vector) with a measurement (which is a number).
Before considering each specific type of continuous linear transformation, we should clarify what the meaning
of continuity of a linear transformation is. Since continuity depends on the metric induced on the space, we should
define for a given space of linear transformations on a Banach space B, a given metric. We shall do it by first
defining a norm, specifically we shall define the following norm

kT k = sup {|T (x)| : kxk 1} (1.11)

We shall refer to the metric induce by this norm when we talk about the continuity of any linear transformation
of a Banach space into itself or into the scalars. It can be shown that for this norm continuity is equivalent to
boundedness.

1.8.1. Continuous linear transformations of a Banach space into scalars


Let us consider first the continuous linear transformations of B into the scalars. This induces the following

Definition 1.13 A real (or complex) functional is a continuous linear transformation of a real (or complex)
normed linear space into R (or C).

Definition 1.14 The set of all functionals on a normed linear space N is called the conjugate space of N and is
denoted by N .

For the case of general normed spaces (and even for Banach spaces), the structure of their conjugate spaces
is in general very intrincate. However we shall see that conjugate spaces are much simpler when an additional
structure (inner product) is added to Banach spaces.

1.8.2. Continuous linear transformations of a Banach space into itself


Let us discuss now the continuous linear transformations of Banach spaces into themselves.

Definition 1.15 An operator is a continuous linear transformation of a normed space into itself.

A particularly useful result in quantum mechanics is the following

Theorem 1.12 If a one-to-one linear transformation T of a Banach space onto itself is continuous, then its
inverse is automatically continuous
26 CAPITULO 1. LINEAR OR VECTOR SPACES

Though we do not provide a proof, it is important to note that this result requires the explicit use of com-
pleteness (it is not valid for a general normed space). We see then that completeness gives us another desirable
property in Physics: if a given transformation is continuous and its inverse exist, this inverse transformation is
also continuous.
Let us now turn to projectors on Banach spaces. For general vector spaces projectors are defined as idempotent
linear transformations. For Banach spaces we will required an additional structure which is continuity

Definition 1.16 A projector in a Banach space B, is defined as an idempotent operator on B

The consequences of the additional structure of continuity for projectors in Banach spaces are of particular
interest in quantum mechanics

Theorem 1.13 If P is a projection on a Banach space B, and if M and N are its range and null space. Then
M and N are closed subspaces of B such that B = M N

The reciprocal is also true

Theorem 1.14 Let B be a banach space and let M and N be closed subspaces of B such that B = M N . If
z = x + y is the unique representation of a vector z in B with x in M and y in N . Then the mapping P defined
by P (z) = x is a projection on B whose range and null space are M and N respectively.

These properties are interesting in the sense that the subspaces generated by projectors are closed subspaces
of a complete space, and then they are complete by themselves. We have already said that dealing with complete
subspaces is particularly important in quantum mechanics.
There is an important limitation with Banach spaces. If a closed subspace M is given, though we can always
find many subspaces N such that B = M N there is not guarantee that any of them be closed. So there is not
guarantee that M alone generates a projection in our present sense. The solution of this inconvenience is another
motivation to endow B with an additional structure (inner product).
Finally, the definition of the conjugate N of a normed linear space N , induces to associate to each operator
in the normed linear space N and operator on N in the following way. Let us form a complex number c0 with
three objects, an operator T on N , a functional f on N and an element x N , we take this procedure: we map
x in T (x) and then map this new element of N into the scalar c0 through the functional f

x T (x) f (T (x)) = c0

Now we get the same number with other set of three objects an operator T on N , a functional f on N (the
same functional of the previous procedure) and an element x N (the same element stated before), the steps are
now the following, we start with the functional f in N and map it into another functional through T , then we
apply this new functional to the element x and produce the number c0 . Schematically it is

f T (f ) [T (f )] (x) = c0
with this we are defining an apropiate mapping f such that f (x) gives our number. In turn it induces an operator
on N that maps f in f and this is the newly defined operator T on N . In summary this definition reads

[T (f )] (x) f (T (x)) (1.12)

where f is a functional on N i.e. an element in N , T an operator on N and x an element of N . If for a given


T we have that Eq. (1.12) holds for f and x arbitrary, we have induced a new operator T on N from T . It can
be shown that T is also linear and continuous i.e. an operator. When inner product is added to the structure,
this operator becomes much simpler.
1.9. HILBERT SPACES 27

By using the norm (1.11) applied to operators on B we have

kT k = sup {kT (f )k : kf k 1}

it can be proved that


kT k = kT k (1.13)
such that the mapping T T is norm preserving and therefore an isometry, we can also see that

(T1 + T2 ) = T1 + T2 ; I = I ; (T1 T2 ) = T2 T1 (1.14)

since linear operations are preserved the mapping T T is an isometric isomorphism. However, the product
is reversed under the mappping, this shows that the spaces (T ) and (T ) are equivalent as metric and vector
spaces but they are not equivalent as algebras (the spaces are not isomorphic as algebras).

1.9. Hilbert spaces


In R3 it is customary to define a set of three ortonormal vectors ui such that any vector in R3 can be written
as x = i ui sum over repeated indices. The dot product is defined such that

x y kxk kyk cos (1.15)

the dot product is a good mathematical tool for many purposes in solid analytic geometry. If we accept the
statement that the zero vector is orthogonal to every vector we can say that the dot product is null if and only if
both vectors are orthogonal. Let {vi } be a given basis (not necessarily orthonormal) of R3 ; any two vectors in R3
are expressed in the form
x = i vi ; y = j vj (1.16)
the dot product and the norm of these two vectors can be written

x y = (i vi ) (j vj ) = i j vi vj i j mij
x x = kxk2 = (i vi ) (j vj ) = i j vi vj i j mij

These expressions can be in general complicated. Notice that these and other algebraic operations with dot
products become much easier when an orthonormal basis is used since in this case we have mij = ij so that
x y = i i and x x = i i . These facts put orthonormal basis in a privileged position among other bases.
Further, an attempt of extension of these ideas to C 3 permits to define the inner product in this space in the
following way, given the vectors (1.16) where and are complex we define

(x, y) = (i vi ) (j vj ) = i j mij

the conjugate on appears to obtain the norm of a complex vectors with the inner product of such a vector with
itself, as can be seen by using an orthonormal basis in which mij = ij

(x, x) = kxk2 = i i = |i | |i |

the simplification above comes from the extension of the concept of orthogonality to complex vectors, they are
orthogonal if and only if (x, y) = 0.
In both the real and complex cases, the concept of orthogonality was very important not only because of the
geometry but also because of the algebra. We observe for instance, that no angle like the one in (1.15) can be
defined in the complex case, but the algebra of inner products continues being simple and useful. On the same
ground, we were able to talk about orthogonality in the complex case via the inner product and exploit the
advantages of orthonormal sets, although two vectors of the complex plane are not perpendicular.
28 CAPITULO 1. LINEAR OR VECTOR SPACES

In the same way, in abstract vector spaces is not so clear how to use the concept of orthogonality in a
geometrical way, but from the discussion above it is clear that the extension of the concept would represent great
simplifications from the algebraic sense. Notwithstanding, we shall see that the extension of the concept of inner
product will also provide some geometrical interpretations.
As always in mathematics, a natural extension should come from the extrapolation of the essential properties
of the concept in the restricted way, the inner product in the complex and real spaces has the following properties

(x, y + z) = (x, y) + (x, z) ; (x, y) = (y, x) ; (x, x) = kxk2

we are led to the following

Definition 1.17 A Hilbert space is a real or complex Banach space whose norm arises from an inner product,
which in turn is defined as a complex function (x, y) of the vectors x and y with the following properties

(x, y + z) = (x, y) + (x, z)


(x, y) = (y, x)
(x, x) = kxk2

Definition 1.18 Two vectors x, y in a Hilbert space are said to be orthogonal if (x, y) = 0, we denote it as x y.
A vector is said to be normal or unitary if (x, x) = 1.

From the definition the following properties hold

|(x, y)| kxk kyk (1.17)


2 2 2 2
kx + yk + kx yk = 2 kxk + 2 kyk (1.18)
2 2 2 2
4 (x, y) = kx + yk kx yk + i kx + iyk i kx iyk (1.19)
2 2 2 2
x y kx + yk = kx yk = kxk + kyk (1.20)

Eq. (1.17) is known as the Schwarz inequality. Eq. (1.18) is known as the paralelogram law because in plane
geometry it reduces to the theorem which says that the sum of the squares of the sides of a paralelogram equals
the sum of the squares of its diagonals. As well as its geometrical interpretation, this law says that only certain
Banach spaces can be converted into Hilbert spaces, only those normed complete spaces in which the norm obeys
the paralelogram law can become a Hilbert space. Further, if for a given norm, the paralelogram law is satisfied,
then Eq. (1.19), gives us the recipe to define an inner product from such a norm. Finally, for reasons easy to
visualize Eq. (1.20) is called the pithagorean theorem.
As a matter of illustration let us prove the paralelogram law Eq. (1.18)

kx + yk2 + kx yk2 = (x + y, x + y) + (x y, x y) = (x, x + y) + (y, x + y) + (x, x y) (y, x y)


= (x, x) + (x, y) + (y, x) + (y, y) + (x, x) (x, y) (y, x) + (y, y)
= (x, x) + (y, y) + (x, x) + (y, y) = 2 kxk2 + 2 kyk2

A vector x is said to be orthogonal to a non empty set S, if x y for all y S. The orthogonal complement
of S is the set of all vectors orthogonal to S, it is denoted as S . Two non empty sets M and N are orthogonal
if x y for all x M and for all y N ; this is denoted as M N . If M is a closed vector subspace of H then
M is also closed. The following theorems are important for physical purposes

Theorem 1.15 If M and N are closed vector subspaces of a Hilbert space H such that M N , then the linear
subspace M + N is also closed

Theorem 1.16 If M is a closed linear subspace of a Hilbert space H, then H = M M


1.9. HILBERT SPACES 29

Thus we see that the expansion of the union of closed subspaces preserves the closure property and so the
completeness property too. In addition, theorem 1.16 says that given a closed subspace of H we can always find
a closed subspace to generate H by direct sum. Besides, the closed space that makes the work is the orthogonal
complement. It means that for any given closed subspace M we can define a projection with range M and null
space M . Contrast this with the problem arising in Banach spaces in which we cannot guarantee the closure of
the complementary space.

1.9.1. Orthonormal sets


An orthonormal set {ei } in H is a non empty subset of H such that if i 6= j then ei ej and kei k = 1 for
all i. this set could be of any cardinality (non necessarily countable). The zero Hilbert space has no orthonormal
sets. The following theorems are of great practical interest

Theorem 1.17 Let {e1 , .., en } be a finite orthonormal set in H. If x is a vector in H we have
n
X
|(ei , x)|2 kxk2 (1.21)
i=1
n
X
x (ei , x) ei ej ; j = 1, .., n (1.22)
i=1

We can give the following interpretation of this theorem: Eq. (1.21) says that the sum of the components of a
vector in the various orthogonal directions defined by the ortonormal set, cannot exceed the length of the vector.
Similarly, Eq. (1.22) says that if we substract from a vector its components in several perpendicular directions the
resultant has no components left in those directions.
The following theorem shows that the coefficients obtained for a given vector from an orthonormal set are not
arbitrary

Theorem
n 1.18 Ifo {ei } is an orthonormal set in a Hilbert space H, and if x is any vector in H, the set S =
ei : |(ei , x)|2 6= 0 is either empty or countable.

These results permit to extend theorem 1.17 for arbitrary orthonormal sets

Theorem 1.19 Let {ei } be an arbitrary orthonormal set in H. If x is a vector in H we have


X
|(ei , x)|2 kxk2 (1.23)
X
x (ei , x) ei ej ; j = 1, .., n (1.24)
n o
where the symbol of sum means the following, defining the set S = ei : |(ei , x)|2 6= 0 , we define the sum to be
zero (number or vector) when S is empty. If S is finite, the definitions
P in (1.24, 1.23) coincide with the ones in
(1.21, 1.22), if S is countably infinite, the sums become series n=1 for a given order of the set S = {e1 , .., ei , ..},
in this case the limit of the series is independent of the order chosen for S.

Definition 1.19 An orthonormal set in H is said to be complete if it is maximal, that is, if it is impossible to
add an element e to the set while preserving the orthonormality in the new set.

Theorem 1.20 Every orthonormal set in a Hilbert space is contained in a complete orthonormal set

Theorem 1.21 Every non-zero Hilbert space contains a complete orthonormal set
30 CAPITULO 1. LINEAR OR VECTOR SPACES

Theorem 1.22 Every orthonormal set is linearly independent

Theorem 1.23 Let H be a Hilbert space and {ei } an orthonormal set in H. The following conditions are equi-
valent to one another

{ei } is complete (1.25)


x {ei } x = 0 (1.26)
X
x Hx= (ei , x) ei (1.27)
X
x H kxk2 = |(ei , x)|2 (1.28)

This is perhaps the most important theorem in terms of applications in Physics, and in particular quantum
mechanics. It is convenient to discuss some terminology related with it. The numbers (x, ei ) are called the Fourier
coeeficients of x and Eq. (1.27) is its Fourier expansion. Eq. (1.28) is called Parsevals equation. All these equations
refer to a given complete orthonormal set.
This sequence of theorems are similar to the ones explained in the general theory of vector spaces in which
complete orthonormal sets replaced the concept of bases, and fourier expansions replaced linear combinations.
It is clear that for finite dimensional spaces Fourier expansions become linear combinations. On the other
hand, since orthonormal sets are linearly independent (Theorem 1.22), it is easy to see that in the case of finite
dimensional spaces complete orthonormal sets are linearly independent sets that generate any vector by linear
combinations. Hence, complete orthonormal sets are bases.
For infinite dimensional spaces there is a different story. If we remember that linear combinations are finite by
definition, we see that in this case Fourier expansions are not linear combinations. For a given linearly independent
set to be a basis, it is necessary for any vector of the space to be written as a linear combination of such a set,
basis certainly exists for Hilbert spaces according to theorem 1.3 but complete orthonormal sets are NOT bases
in the sense defined for the general theory of vector spaces.
Moreover theorem 1.18 shows that the Fourier expansion given in Eq. (1.27) is always countable, this is a
remarkable result because it means that the fourier expansion for a given complete orthonormal set is always a
series, even if the cardinality of the complete orthonormal set is higher than the aleph (cardinality of the integers).
The informal discussion above can be formally proved to produce the following statement

Theorem 1.24 A Hilbert space is finite dimensional if and only if every complete orthonormal set is a basis.

However, owing to the analogy between bases and complete orthonormal sets the following theorem is quite
expected

Theorem 1.25 Any two complete orthonormal sets of a given Hilbert space have the same cardinality.

And this fact induces a natural definition

Definition 1.20 The orthogonal dimension of a Hilbert space H is the cardinality of any complete orthonormal
set in H.

It is important to keep in mind the difference between the dimension and the orthogonal dimension of a Hilbert
space of infinite dimension.
1.9. HILBERT SPACES 31

1.9.2. The conjugate space H


We have defined the conjugate space of a Banach space B as the set of all functionals in B i.e. of all linear
continuous mappings of B into the scalars. We said however that the structure of the conjugate spaces of an
arbitrary Banach space is very complex. Fortunately, this is not the case for Hilbert spaces in which the inner
product provides a natural association between H and H .
Let y be a fixed vector in H and consider the function fy defined by

fy (x) (y, x) (1.29)

it is easy to prove linearity

fy (x1 + x2 ) = (y, x1 + x2 ) = (y, x1 ) + (y, x2 )


fy (x1 + x2 ) = fy (x1 ) + fy (x2 )

continuity comes from the Schwarz inequality

|fy (x)| = |(x, y)| kxk kyk |fy (x)| kyk

then fy is bounded and so continuous. Indeed it can be shown that |fy (x)| = kyk. We then have found an
algorithm to generate some functionals from the mapping

y fy (1.30)

described above, this is a norm preserving mapping of H into H . However, it can be shown that indeed this is a
mapping of H onto H as stated in this

Theorem 1.26 Let H be a Hilbert space, and f an arbitrary functional in H . Then there exists a unique vector
y H such that
f (x) = (y, x) x H

since the mapping (1.30) is norm preserving, we wonder whether it is linear, this is not the case because

fy1 +y2 (x) = (y1 + y2 , x) = (y1 , x) + (y2 , x) = fy1 (x) + fy2 (x)
fy (x) = (y, x) = (y, x) = fy (x)

such that
fy1 +y2 = fy1 + fy2 ; fy = fy (1.31)

however the mapping (1.30) is an isometry (it preserves metric) since

kfx fy k = kfxy k = kx yk

we can characterize H in the following way

Theorem 1.27 H is a Hilbert space with respect to the inner product defined by (fx , fy ) = (y, x).
32 CAPITULO 1. LINEAR OR VECTOR SPACES

1.9.3. The conjugate and the adjoint of an operator


A really crucial aspect of the theory of Hilbert spaces in Physics is the theory of operators (continuous linear
transformations of H into itself), we shall see later that observables in quantum mechanics appear as eigenvalues
of some of these operators.
We have defined the conjugate of an operator for Banach spaces but they are still too general to get a rich
structural theory of operators. The natural correspondence between H and H will provide a natural relation
between a given operator on H and its corresponding conjugate operator on H .
Let T be an operator on a Banach space B. We defined an operator on B denoted T and called the conjugate
of T by Eq. (1.12)
[T (f )] (x) = f (T (x)) (1.32)

and Eqs. (1.13, 1.14) says that T T is an isometric isomorphism (as vector spaces) between the spaces of linear
operators on H and H . We shall see that the natural correspondence between H and H permits to induce in
turn an operator T in H from the operator T in H . The procedure is the following: starting from a vector y in
H we map it into its corresponding functional fy , then we map fy by the operator T to get another functional
fz then we map this functional into its (unique) corresponding vector z in H the scheme reads

y fy T fy = fz z (1.33)

the whole process is a mapping of y to z i.e. of H into itself. We shall write it as a single mapping of H into itself
in the form
y z T y

the operator T induced in this way from T is called the adjoint operator. Its action can be understood in the
context of H only as we shall see. For every vector x H we use the definition of T Eq. (1.32) to write

[T (fy )] (x) = fy (T (x)) = (y, T x)


 
[T fy ] (x) = fz (x) = (z, x) = T y, x

where we have used Eqs. (1.29, 1.33), so that


 
(y, T x) = T y, x x, y H (1.34)

we can see that Eq. (1.34) defines T uniquely and we can take it as an alternative definition of the adjoint operator
associated with T . It can also be verified that T is indeed an operator, i.e. that it is continuous and linear. We
can also prove the following

Theorem 1.28 The adjoint operation T T is a one-to-one onto mapping with these properties
 
(T1 + T2 ) = T1 + T2 , (T ) = T , T = T


(T1 T2 ) = T2 T1 ; T = kT k ; T T = T T = kT k2
0 = 0 , I = I (1.35)

If T is non-singular then T is also non-singular and


 1 
T = T 1
1.10. NORMAL OPERATORS 33


Notice for instance that T = T implies that
 
(T y, x) = y, T x x, y H (1.36)

We define the commutator of a couple of operators T1 , T2 as

[T1 , T2 ] T1 T2 T2 T1

this operation has the following properties

[T1 , T2 ] = [T2 , T1 ] (1.37)


[T1 + T2 , T3 ] = [T1 , T3 ] + [T2 , T3 ] (1.38)
[T1 , T2 + T3 ] = [T1 , T2 ] + [T1 , T3 ] (1.39)
[T1 T2 , T3 ] = T1 [T2 , T3 ] + [T1 , T3 ] T2 (1.40)
[T1 , T2 T3 ] = T2 [T1 , T3 ] + [T1 , T2 ] T3 (1.41)

[[T1 , T2 ] , T3 ] + [[T3 , T1 ] , T2 ] + [[T2 , T3 ] , T1 ] = 0 (1.42)


such properties can be proved directly from the definition, Eq. (1.37) shows antisymmetry and Eqs. (1.38, 1.39)
proves linearity. Finally, relation (1.42) is called the Jacobi identity.
It can be seen that the space of operators on a Hilbert space H (called (H)) is a Banach space and more
generally a Banach Algebra. This organization permits an elegant theory of the operators on Hilbert spaces.
The theory of quantum mechanics works on a Hilbert space. In addition, the most important operators on
the Hilbert space in quantum mechanics are self-adjoint and unitary operators, which are precisely operators that
have a specific relation with their adjoints.

1.10. Normal operators


 
Definition 1.21 An operator on a Hilbert space H that commutes with its adjoint N, N = 0 is called a normal
operator

There are two reasons to study normal operators (a) From the mathematical point of view they are the most
general type of operators for which a simple structure theory is possible. (b) they contain as special cases the most
important operators in Physics: self-adjoint and unitary operators.
It is clear that if N is normal then N is. Further, the limit N of any convergent sequence of normal operators
{Nk } is also normal


N N N N N N Nk Nk + Nk Nk Nk Nk + Nk Nk N N


= N N Nk Nk + Nk Nk N N 0

then N N N N = 0 and N is normal then we have proved

Theorem 1.29 The set of all normal operators on H is a closed subset of (H) that is closed under scalar
multiplication

It is natural to wonder whether the sum and product of normal operators is normal. They are not, but we can
establish some conditions for these closure relations to occur

Theorem 1.30 If N1 and N2 are normal operators on H with the property that either commutes with the adjoint
of the other, then N1 + N2 and N1 N2 are normal.
34 CAPITULO 1. LINEAR OR VECTOR SPACES

The following are useful properties for the sake of calculations in quantum mechanics

Theorem 1.31 An operator N on H is normal kN xk = N x x H

Theorem 1.32 If N is a normal operator on H then N 2 = kN k2

1.11. Self-Adjoint operators


We have said that the space of operators on a Hilbert space H (called (H)), is a special type of algebra (a
Banach Algebra) which has an algebraic structure similar to the one of the complex numbers, except for the fact
that the former is non-commutative. In particular, both are complex algebras with a natural mapping of the space
into itself of the form T T and z z respectively. The most important subsystem of the complex plane is the
real line defined by the relation z = z , the corresponding subsystem in (H) is therefore defined as T = T , an
operator that accomplishes that condition is called a self-adjoint operator. This is the simplest relation that can
be established between an operator and its adjoint. It is clear that self-adjoint operators are normal. Further, we
already know that 0 = 0 and I = I thus they are self-adjoint. A real linear combination of self-adjoint operators
is also self-adjoint
(T1 + T2 ) = T1 + T2 = T1 + T2
further, if {Tn } is a sequence of self adjoint operators that converges to a given operator T , then T is also
self-adjoint


T T kT Tn k + Tn Tn + Tn T = kT Tn k + kTn Tn k + Tn T


= kT Tn k + (Tn T ) = kT Tn k + k(Tn T )k = 2 kT Tn k 0

shows that T T = 0 so that T = T this shows the following

Theorem 1.33 The self-adjoint operators in (H) are a closed real linear subspace of (H) and therefore a real
Banach space which contains the identity transformation

Unfortunately, the product of self-adjoint operators is not necessarily self-adjoint hence they do not form an
algebra. The only statement in that sense is the following

Theorem 1.34 If T1 , T2 are self-adjoint operators on H, their product is self-adjoint if and only if [T1 , T2 ] = 0

It can be easily proved that T = 0 (x, T y) = 0 x, y H. It can be seen also that

Theorem 1.35 If T is an operator on a complex Hilbert space H then T = 0 (x, T x) = 0 x H.

It should be emphasized that the proof makes explicit use of the fact that the scalars are complex numbers
and not merely the real system.
The following theorem shows that the analogy between self-adjoint operators and real numbers goes beyond
the simple analogy from which the former arise

Theorem 1.36 An operator T on H is self-adjoint (x, T x) is real x H.

An special type of self-adjoint operators are the following ones

Theorem 1.37 A positive operator on H is a self-adjoint operator such that (x, T x) 0, x H. Further, if
(x, T x) 0, and (x, T x) = 0 x = 0 we say that the operator is positive-definite.
1.12. UNITARY OPERATORS 35

It is clear that the following operators are positive: 0, I, T T , T T note also that all the analoguous elements
in the complex plane are non-negative numbers 0, 1, zz = z z = |z|2 .

Theorem 1.38 If A is a positive operator then I + A is non-singular

Continuing the analogy between (H) and the algebra of complex numbers, we can see that a complex number
can be written as its real and imaginary parts in the form

z + z z z
z = a1 + ia2 ; a1 , a2
2 2i
in a similar way we can decompose an arbitrary operator T on H in the form

T + T T T
T = A1 + iA2 ; A1 ; A2 (1.43)
2 2i
it is clear that A1 and A2 are self-adjoint so they can be called the real and imaginary components of the
T operator. If T is self-adjoint its imaginary part is zero as expected. We can see that it is precisely because of
the non commutativity of the self-adjoint operators that non-normal operators exist

Theorem 1.39 If T is an operator on H it is normal its real and imaginary parts commute

1.12. Unitary operators


Perhaps the most important subsystem of the complex plane after the real line is the unit circle characterized
by the equation zz = z z = |z|2 = 1. This leads to a natural definition of an special subset of the normal operators

Definition 1.22 An operator U on H which satisfies the equation U U = U U = I is said to be unitary

Unitary operators are thus the analogues of complex numbers of unitary absolute value. In words, unitary
operators are those non-singular operators whose inverses equal their adjoints, they are thus mappings of H onto
itself. The geometric significance of these operators can be clarified with the following theorem

Theorem 1.40 If T is an operator on H, the following conditions are equivalent to one another

T T = I (1.44)
(T x, T y) = (x, y) x, y H (1.45)
kT (x)k = kxk x H (1.46)

In general an operator T with any of the properties (1.44-1.46), is an isometric isomorphism of H into itself,
since T preserves linear operations, as well as the inner product and the norm (and thus the metric). For finite-
dimensional spaces any of them are necessary and sufficient conditions for T to be unitary. Nevertheless, this is
not the case when we treat with infinite-dimensional spaces, let us see an example: consider the operator T in C
given by
T {x1 , x2 , ...} = {0, x1 , x2 , ...}
which preserves norms but has no inverse. The point is that this is an isometric isomorphism into H but not onto
H (the image does not contain any element of C with a non-null first component). So in the case of infinite
dimension, the condition to be onto must be added to the conditions (1.44-1.45) for an operator to be unitary.

Theorem 1.41 An operator on H is unitaryis an isometric isomorphism of H onto itself.


36 CAPITULO 1. LINEAR OR VECTOR SPACES

In words, unitary operators are those one-to-one and onto operators that preserve all structure relevant for a
Hilbert space: linear operations, inner products, norm and metric.
In practice, unitary operators usually appear in Physics as operations that keep the norm of the vectors
unaltered (like rotations in ordinary space), even this is usually the definition utilized in Physics books.
There is another theorem useful in the theory of representations for Hilbert spaces which is also used sometimes
as the definition

Theorem 1.42 An operator T on H is unitary T {ei } is a complete orthonormal set whenever {ei } is.

Another important characteristic for physical applications is the following

Theorem 1.43 The set of all unitary operators on H forms a group

1.13. Projections on Hilbert spaces


In Banach spaces we defined projections as idempotent continuous linear transformations or equivalently as
idempotent operators. We also saw that a couple of closed subspaces such that B = M N induces a projection
and viceversa. We saw however that for a given closed subspace M of B there is not necessarily another closed
subspace such that B = M N .
In contrast, theorem 1.16 guarantees that for a given closed subspace M of a Hilbert space H there always
exists a decomposition with another closed subspace in the form H = M M . Besides, in this decomposition
the closed complementary space is precisely the orthogonal complement of M . Since orthogonality is a very
important new concept that arises from Hilbert spaces, we shall concentrate on projections induced by this
particular decomposition. It is then natural to look for the new features required by a given projection in order
to have M as its range and M as its null space

Theorem 1.44 If P is a projection (with the definition given for Banach spaces) on H with range M and null
space N then M N P = P and in this case N = M .

A projection in which its range and null space are perpendicular is called an orthogonal projection. Indeed,
orthogonal projections are the only ones that are relevant in the theory of operators on Hilbert spaces, then we
shall redefine the concept of projection once again

Definition 1.23 A projection on a Hilbert space will be defined as an idempotent, continuous, and self-adjoint
linear transformation. If idempotent, continuous, non-self adjoint linear transformations are of some use, we call
them non-orthogonal projections.

The following facts are easy to show, 0 and I are projections and they are distinct if and only if H 6= {0}. P
is the projection on M I P is the projection on M .
We can also see that
x M P x = x kP xk = kxk
it can also be seen that P is a positive operator and kP k 1.
Sometimes occur in Physics that a given operator T on H maps a proper subspace M of H into itself. The
following chain of definitions permits to study this kind of operators

Definition 1.24 Let T be an operator on H, and M a closed vector subspace of H. M is said to be invariant
under T if T (M ) M .

In this case the restriction of T to M can be regarded as an operator of M into itself. A more interesting
situation occurs when M and M are invariant under T
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 37

Definition 1.25 If both M and M are invariant under T , we say that M reduces T or that T is reduced by M .

This situation invites us to study T by restricting its domain to M and M . The projections provide the most
relevant information for these scenarios

Theorem 1.45 A closed vector subspace M is invariant under an operator T M is invariant under T

Theorem 1.46 A closed vector subspace M reduces an operator T M is invariant under both T and T

Theorem 1.47 If P is the projection on a closed vector subspace M of H, M is invariant under an operator
T TP = PTP

Theorem 1.48 If P is the projection on a closed vector subspace M of H, M reduces an operator T T P = P T

Theorem 1.49 If P and Q are projections on closed linear subspaces M and N then M N P Q = 0
QP = 0

We wonder whether the sum of projections in our present sense is also a projection. This is the case only
under certain conditions

Theorem 1.50 If P1 , .., Pn are projections on closed subspaces M1 , .., Mn of a Hilbert space H, then the sum
P = P1 + .. + Pn is a projection the Pi s are pairwise orthogonal i.e. Pi Pj = ij Pi , in that case P is the projection
on M = M1 + .. + Mn .

1.14. Basic theory of representations in a general finite dimensional vector


space
In this section we intend to establish an equivalence between abstract objects such as elements of vector spaces
and linear transformations, in a more tangible language suitable for explicit calculations. This is the gist of the
theory of representations for vector spaces

1.14.1. Representation of vectors and operators in a given basis


If n is the dimension of a finite-dimensional vector space V , a set of n linearly independent vectors in V , forms
a basis for the vector space. Given a certain ordered basis {u1 , .., un } in a vector space V any vector can be
written as a linear combination of such a basis, we shall use the convention of sum over repeated indices

x = xi ui (1.47)

The coefficients xi are called the coordinates of the vector x, relative to the ordered basis {ui }. Linear inde-
pendence ensures that the set of coordinates (x1 , .., xn ) is unique when the basis is ordered in a well-defined way.
Therefore, this set of coordinates provides a representation of the vector x with respect to the ordered basis {ui }.
A mapping T of V into itself, associates each vector x with another vector y in V

y = Tx

if the mapping is one-to-one and onto it admits an inverse1

x = T 1 y
1
If the mapping is only one-to-one but not onto, the inverse still exist but restricted to the vector subspace in which all the vectors
x V are mapped.
38 CAPITULO 1. LINEAR OR VECTOR SPACES

if the transformation is linear we have

T (x+y) = T x + T y x, y V

where and are complex numbers. The definition of T is intrinsic and does not depend on the particular basis
chosen for the vector space. Notwithstanding, for many practical purposes we define a representation of both
the vectors and operators in a basis {ui }. In that case, we can describe the action of T by a transformation of
coordinates (in the same basis)
yi = Ti (x1 , x2 , . . . , xn ) i = 1, . . . , n
if Ti admits an inverse we get
xi = Ti1 (y1 , y2 , . . . , yn ) i = 1, . . . , n
the necessary and sufficient condition for the existence of the inverse is that the jacobian J Ti /xj be different
from zero.
On the other hand, if we assume that T is a linear transformation we can write

y = T x = T (xi ui ) = xi T ui (1.48)

Eq. (1.48) says that y is a linear combination of the vectors T ui , and the coefficients of the combination
(coordinates) coincide with the coordinates of x in the basis ui . The vectors T ui must be linear combinations of
{uj } and we denote the coefficients of these linear combinations as Tji

vi T ui = uj Tji (1.49)

the real or complex coefficients Tji can be organized in a square arrangement of the form

T11 T12 T1n
T21 T22 T2n

T . .. ..
.. . .
Tn1 Tn2 Tnn

this square arrangement symbolized as T is called the matrix representative of the linear transformation T relative
to the ordered basis {ui }. Substituting in Eq. (1.48)

yj uj = uj Tji xi

and since the uj are linearly independent


yj = Tji xi
this operation is represented by the following notation

y1 T11 T12 T1n x1
y2 T21 T22 T2n x2

.. = .. .. .. ..
. . . . .
yn Tn1 Tn2 Tnn xn

y1 T11 x1 + T12 x2 + .. + T1n xn
y2 T21 x1 + T22 x2 + .. + T2n xn

.. = ..
. .
yn Tn1 x1 + Tn2 x2 + .. + Tnn xn

and is usually written in the form


y = Tx
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 39

the last equality appears in matrix notation where T is the matrix representative of the linear operator T in the
ordered basis ui . Similarly, x and y are the coordinate representatives of the intrinsic vectors in the same ordered
basis. Eq. (1.49) shows clearly how to construct the matrix T, i.e. applying the operator to each vector in the
basis, and writing the new vectors as linear combinations of the basis. The coefficient of the i th new vector
associated to the j th element of the basis gives the element Tji in the associated matrix. Observe that for a
matrix representative to be possible, the linearity was fundamental in the procedure.
On the other hand, since we are looking for an isomorphism among linear transformations on V and the set
of matrices (as an algebra), we should define linear operations and product of matrices in such a way that these
operations are preserved in the algebra of linear transformations. In other words, if we denote by [T ] the matrix
representative of T in a given ordered basis we should find operations with matrices such that

[T1 + T2 ] = [T1 ] + [T2 ] ; [T ] = [T ] ; [T1 T2 ] = [T1 ] [T2 ]

we examine first the product by a scalar, according to the definition (1.7) we have

(T ) (ui ) = (T ui ) = (uj Tji ) = uj (Tji )


(T ) (ui ) = uj (Tji ) (uj ) (T )ji = uj (Tji )

using linear independence we obtain the algorithm for scalar multiplication

(T )ji = Tji

Now for the sum we use the definition 1.6

(T + U ) uj = T uj + U uj = ui Tij + ui Uij = ui (Tij + Uij )


(T + U ) uj = ui (Tij + Uij ) ui (T + U )ij = ui (Tij + Uij )

and along with linear independence it leads to

(T + U )ij = (Tij + Uij )

Moreover, for multiplication (composition) we use definition 1.9

(T U ) ui = T (U ui ) = T (uj Uji ) = Uji T (uj ) = Uji (T uj ) = Uji (uk Tkj )


(T U ) ui = (Tkj Uji ) uk uk (T U )ki = uk (Tkj Uji )

linear independence gives


(T U )ki = Tkj Uji (1.50)
It can be easily shown that the matrix representations of the operators 0 and I are unique and equal in any
basis, they correspond to [0]ij = 0 and [I]ij = ij .
Finally, we can check from Eq. (1.49) that the mapping T [T ] is one-to-one and onto. It completes the proof
of the isomorphism between the set of linear transformations and the set of matrices as algebras.
On the other hand, owing to the one-to-one correspondence T [T ] and the preservation of all operations, we
see that non-singular linear transformations (i.e. invertible linear transformations) should correspond to invertible
matrices. We denote T 1 the matrix representative of T 1 , and our goal is to establish the algorithm for this
inverse matrix, the definition of the inverse of the linear transformation is

T T 1 = T 1 T = I

since the representation of the identity is always [I]ij = ij , the corresponding matrix representation of this
equation is    
[T ]ik T 1 kj = T 1 ik [T ]kj = ij (1.51)
this equation can be considered as the definition of the inverse of a matrix if it exists. A natural definition is then
40 CAPITULO 1. LINEAR OR VECTOR SPACES

Definition 1.26 A matrix which does not admit an inverse is called a singular matrix. Otherwise, we call it a
non-singular matrix.

Since T 1 is unique, the corresponding matrix is also unique, so the inverse of a matrix is unique when it exists.
A necessary and sufficient condition for a matrix to have an inverse is that its determinant must be non-zero.
The algebra of matrices of dimension n n is called the total matrix algebra An , the preceding discussion can
be summarized in the following

Theorem 1.51 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, the mapping T [T ]
which assigns to every linear transformation on V its matrix relative to B, is an isomorphism of the algebra of
the set of all linear transformations on V onto the total matrix algebra An .

Theorem 1.52 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, and T a linear
 1  whose matrix relative to B is [aij ]. Then T is non-singular [aij ] is non-singular and in this case
transformation
1
[aij ] = T .

1.14.2. Change of coordinates of vectors under a change of basis


We have already seen that any vector space has an infinite number of bases. Notwithstanding, once a given
basis is obtained, any other one can be found by anlinearo transformation of the original basis.
Let {uj } be our original ordered basis and uj any other ordered basis. Each ui is a linear combination

of the original basis


ui = aij uj i = 1, . . . , n (1.52)
linear independence of {ui } ensures the uniqueness of the coefficients aij . The natural question
n o is whether we
require any condition on the matrix representation aij in Eq. (1.52) to ensure that the set uj be linearly inde-
pendent. If we remember that there is a one-to-one correspondence between matrices and linear transformations
we see that aij must correspond to a (unique) linear transformation A. In this notation Eq. (1.52) becomes

ui = Auj (1.53)
n o
now appealing to theorem 1.9 we see that uj is a basis if and only if A is non-singular, but A is non-singular
if and only if [A]ij = aij is a non-singular matrix. Thus Eq. (1.53) can be written in matrix notation as

u = Au (1.54)

the new set {ui } is a basis if and only if the matrix A is non-singular. Any vector x can be written in both bases

x = xi ui = xi ui = xi aij uj = xj aji ui (1.55)

and owing to the linear independence of ui

xi = xj aji = aij xj ; aij aji

where aij aji indicates the transpose of the matrix A. In matrix form we have

u = Au , x = Ax (1.56)

and using Eq. (1.56) we get

x = A1 x (1.57)
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 41

observe that if the original basis transform to the new one by a non-singular matrix A (Eq. 1.54), the original
coordinates transform to the new ones by the matrix A1 (Eq. 1.57). It is easy to show that A1 = Ag e
1 then A

is non-singular if and only if A is non-singular. Hence Eq. (1.57) makes sense whenever A is non-singular.
Defining the transpose of a column matrix as

x = (x1 , x2 , . . . , xn )

Equation (1.55) can be written as


x = xu = x u
which gives a convenient notation for the coordinate-form of vectors in different basis.
It is important to emphasize that the vector x has an intrinsic meaning while its coordinates depend on the
basis chosen.

1.14.3. Change of the matrix representative of linear transformations under a change of


basis
Let us define an intrinsic equation for a linear transformation T of V into itself

y = Tx (1.58)

y and x denote here intrinsic vectors while y, x are their representation in coordinates under a given ordered basis.
Starting with the ordered basis {ui } we write equation (1.58) in matrix form

y = Tx (1.59)

for any other ordered basis {ui } the matrix and coordinate representatives are different and we write them as

y = T x (1.60)

we remark that Eqs. (1.59) and (1.60) represents the same intrinsic Equation (1.58).
Since we know the relation between the coordinate representatives given by Eq. (1.57), our goal here is to
know the relation between the matrix representatives of T . Using Eq. (1.57) we find
1 1 1
  
y = A1 y = A Tx = A TAA x = A1 TA A1 x
y = T x (1.61)

where we have defined


T A1 TA (1.62)
from Eqs. (1.61, 1.62) we see that T is the representative matrix of the operator T in the new basis ui where
the matrix A1 gives the transformation between coordinates from the old basis to the new one Eq. (1.57). We
remember that A must be non-singular to represent a change of basis.

Definition 1.27 The transform of a matrix A (also called a similarity transformation) by a non singular matrix
S, is defined as A = SAS1 . The matrices A and A are said to be equivalent.

Eq. (1.62) shows that the new matrix representation of T (i.e. T ), is equivalent2 to the old matrix represen-
tation T, and the transform of T by A1 is T .
2
Similarity transformations provides an equivalence relation between two matrices. Thus, the expression equivalent matrices becomes
logical. In addition, we see that T and T describe the same mathematical object (though in different bases), so that the term equivalence
acquires more sense in this context.
42 CAPITULO 1. LINEAR OR VECTOR SPACES

We can also consider a transformation S from a vector space V into another V

x = Sx, x = S 1 x

For S 1 to be linear, it is necessary that V and V be of the same dimensionality. If a linear operator T is defined
in V , then T and S induce a linear operator in V in the following way let map x of V into y of V in the
following way
 
x x = S 1 x y = T x = T S 1 x y = Sy = S T S 1 x

hence the mapping x y has been performed as


 
x y = ST S 1 x

or course, we can define a mapping T of V into itself that makes the work in a single step, thus

T ST S 1 ; y = T x (1.63)

The transformation given by (1.63) is also a similarity transformation. Although the transformations shown in
(1.62) and (1.63) resembles, they have fundamental differences. In (1.62) we are representing the same mathemati-
cal object by taking different bases, and is a matrix equation. By contrast, Eq. (1.63) expresses a relation between
two different mathematical transformations acting on different spaces3 , and the equation is intrinsic, independent
of the basis.

1.15. Active and passive transformations


In Physics, it is important to differentiate between two types of transformations, the passive ones and the
active ones. We can understand passive transformations by examining the transformations y y , x x and
T T to go from Eq. (1.59) to Eq. (1.60), if we remember that both are representatives of the same intrinsic
equation (1.58) we realize that the mappings described above do not change the vectors or the transformation but
only their representatives. These mappings (called passive mappings) thus correspond to a change in the basis
and not to a change on the mathematical objects by themselves.
In contrast, an active mapping or transformation transforms a mathematical object into another one. For
instance, in the first of Eqs. (1.63) we map a linear transformation on V into a different linear transformation
on V , the mathematical object itself has changed. Similarly the mapping x y through T described by the
second of Eqs. (1.63) is an active transformation because x and y are two different vectors.
The difference between a passive and active mappings or transformations should be clear from the context.
For instance Eqs. (1.62) and (1.63) are identical in form from the algebraic point of view, but (1.62) represents a
passive transformation (a change of basis or a change of representation), while (1.63) represents an active one.

1.16. Theory of representations on finite dimensional Hilbert spaces


We shall study ndimensional Hilbert spaces. We remember that an inner product is a mapping that takes an
ordered pair of vectors x, y in a vector space V, and associates to it a scalar denoted by = (x, y) such that

(x, y) = (y, x) ; (x, y) = (x, y) ; (x1 + x2 , y) = (x1 , y) + (x2 , y)


(x, x) 0, and (x, x) = 0 x = 0
3
It could be argued that both spaces are identical since they have the same dimensionality. This is true only for their properties as
general vector spaces, but not necessarily for any additional algebraic or topological structure on them.
1.16. THEORY OF REPRESENTATIONS ON FINITE DIMENSIONAL HILBERT SPACES 43

the definition of the inner product is intrinsic (basis independent). The norm of a vector is defined as kxk2 (x, x).
This in turn allows us to normalized the vectors, i.e. construct vectors with norm or length equal to one by the
rule
xi xi
ui = p = (1.64)
(x, x) kxik

such that (ui , ui ) = 1. Different inner products defined into the same vector space, lead to different Hilbert spaces.
Another important concept that arises from the inner product is that of orthogonality. An orthonormal set is a
set {xi } with xi H such that
(xi , xj ) = ij
The theory of representations of a finite dimensional Hilbert space is particularly simple if we realize that in finite
dimension, the Fourier expansion given by Eq. (1.27) becomes a linear combination, the series in (1.28) to calculate
the norm becomes a finite sum, and finally complete orthonormal sets become bases. These are the main ideas
that lead to the theory of representations in a Hilbert space
Our first goal is to find the way in which the coordinates of a given vector are obtained from the inner product.
We first see the form of the coordinates when the basis consists of a complete orthonormal basis. Rewriting the
Fourier expansion (1.27) in finite dimension and using sum over repeated indices we have

x = (ui , x) ui = xi ui

so the coordinate of a vector x associated with the normal vector ui is given by

xi = (ui , x)

Let us now see how an arbitrary inner product can be calculated using an orthonormal basis

(x, y) = (xi ui , yj uj ) = xi yj (ui , uj ) = xi yj ij = xi yi (1.65)

the norm of a vector is also easily seen as

kxk2 = (x, x) = xi xi = |xi | |xi | (1.66)

if the basis {vi } is not an orthonormal set, we can express the scalar product by determining the numbers

mij (vi , vj ) (1.67)

the properties of the inner product lead to mij = mji . This numbers form a matrix that we shall call the metric
matrix. Defining (Aij ) Aji (the adjoint or hermitian conjugate of the matrix A) we find that m = m , from
the definition of the adjoint matrix we see that (AB) = B A . A matrix that coincides with its adjoint is called
self-adjoint or hermitian. The metric matrix is hermitian. We shall see now that knowing the metric matrix in a
certain basis, we can find any possible inner product

(x, y) = (xi vi , yj vj ) = xi yj (vi , vj ) = xi mij yj


(x, y) = x my

and the norm becomes


(x, x) = xi mij xj = x mx (1.68)
representing x as a one column matrix, x is a one row matrix with the coordinates conjugated. The quantities of
the form x Ay, with A hermitian, are called hermitian forms. If additionally we impose that x Ax 0, we have
a positive definite hermitian form4 .
4
An inner product guarantees that the hermitian form constructed with the metric matrix are positive-definite. However, it is usual
in relativity to define a pseudo-metric that leads to non positive definite hermitian forms. Observe that the metric tensor in relativity
has some negative diagonal elements which would be forbidden if they arose from an authentic inner product.
44 CAPITULO 1. LINEAR OR VECTOR SPACES

Gram-Schmidt process for orthonormalization of linearly independent sets


From the previous discussion, it is very clear that complete orthonormal sets posses many advantages with
respect to other sets of linearly independent vectors. It leads us to study the possibility of finding an orthonormal set
from a given set of linearly independent vectors in a Hilbert space. The so-called Gram-Schmidt orthonormalization
process starts from an arbitrary set of independent vectors {x1 , x2 , .., xn , ...} on H and exhibits a recipe to construct
a corresponding orthonormal set {u1 , u2 , .., un , ...} with the property that for each n the vector subspace spanned
by {u1 , u2 , .., un } is the same as the one spanned by {x1 , x2 , .., xn }.
The gist of the procedure is based on Eqs. (1.24, 1.64). We start by normalizing the vector x1
x1
u1 =
kx1 k

now we substract from x2 its component along u1 to obtain x2 (u1 , x2 ) u1 and normalized it

x2 (u1 , x2 ) u1
u2 =
kx2 (u1 , x2 ) u1 k
it should be emphasized that x2 is not a scalar multiple of x1 so that the denominator above is non-zero. It is
clear that u2 is a linear combination of x1 , x2 and that x2 is a linear combination of u1 , u2 . Therefore, {u1 , u2 }
spans the same subspace as {x1 , x2 }. The next step is to substract from x3 its components in the directions u1
and u2 to get a vector orthogonal to u1 and u2 according with Eq. (1.24). Then we normalize the result and find

x3 (u1 , x3 ) u1 (u2 , x3 ) u2
u3 =
kx3 (u1 , x3 ) u1 (u2 , x3 ) u2 k

once again {u1 , u2 , u3 } spans the same subspace as {x1 , x2 , x3 }. Continuing this way we clearly obtain an ortho-
normal set {u1 , u2 , .., un , ...} with the stated properties.
Many important orthonormal sets arise from sequences of simple functions over which we apply the Gram-
Schmidt process
In the space L2 of square integrable functions associated with the interval [1, 1], the functions xn (n =
0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the orthonormal
set of the Legendre Polynomials.
2
In the space L2 of square integrable functions associated with the entire real line, the functions xn ex /2
(n = 0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the normalized
Hermite functions.
In the space L2 associated with the interval [0, +), the functions xn ex (n = 0, 1, 2, ..) are linearly indepen-
dent. Orthonormalizing it we obtain the normalized Laguerre functions.
Each of these orthonormal sets described above can be shown to be complete in their corresponding Hilbert
spaces.

1.16.1. Linear operators in finite dimensional Hilbert spaces


First of all let us see how to construct the matrix representation of a linear operator by making profit of the
inner product. Eq. (1.49) shows us how to construct the matrix representation of T in a given basis by applying
the operator to each element ui of such a basis

T ui = uj Tji (uk , T ui ) = (uk , uj Tji )


(uk , T ui ) = Tji mkj

if the basis is orthonormal then mkj = kj and

Tki = (uk , T ui ) (1.69)


1.16. THEORY OF REPRESENTATIONS ON FINITE DIMENSIONAL HILBERT SPACES 45

Eq. (1.69) gives the way to construct an element of the matrix representative of an operator T on H through the
inner product and using an orthonormal basis.
Now we turn to the problem of finding a relation between the matrix representative of an operator and the
matrix representative of its adjoint. If we have a linear operator T on a Hilbert space, another operator called its
adjoint and denoted as T exists such that
 
(T x, y) = x, T y x, y V

the matrix representative of T has a rather simple relation with the matrix representative of T when an ortho-
normal basis is used
(T (xi ui ) , yk uk ) = (xi T (ui ) , yk uk ) = xi yk (T ui , uk )
and using (1.49) we find
xi yk (uj Tji , uk ) = xi yk Tji jk = xi yk Tki

= xi Teik

yk
on the other hand we have    
x, T y = xi T yk
ik
and taking into account that x and y are arbitrary, we have
 
T = Teik
e
T = T (1.70)
ik

and so the matrix representative of T is the conjugate transposed of the matrix representative of T . Once again,
it is important to emphasize that it is only valid in an orthonormal basis, it can easily be proved that for an
arbitrary basis described by the metric matrix m, the matrix representation of T is m1 T e m. Remembering
that an operator is hermitian or self-adjoint if it coincides with its adjoint operator (T = T ) i.e. (T x, y) =
(x, T y) , x, y V, we conclude that in an orthonormal basis, hermitian operators are represented by hermitian
matrices.
In particular, the form to calculate the norm described in (1.66), is usually taken for granted and it is easy to
forget that it only applies in orthonormal bases as we can see from (1.68). This is because the coordinates of a
vector with respect to {vi } are not given by Fourier coefficients of the form described in Eq. (1.27)
Now assume that we go from an orthonormal basis ui into another orthonormal basis ui . We know from
theorem 1.42 that a linear operator is unitary if and only if it transforms a complete orthonormal set into another
complete orthonormal set, then if A is a unitary operator we have

ij = (Aui , Auj ) = ui , uj = (uk aki , um amj ) = aki amj (uk , um ) = aki amj km
ij = aki akj = e
aik akj

so the matrix of transformation from ui into ui accomplishes

A A = 1

now, if we demand for the matrix to be non-singular it must have a unique inverse such that

A A = AA = 1

therefore a matrix that transform an orthonormal basis into another orthonormal basis must satisfy

A = A1

by theorem 1.51 these matrices are associated with unitary operators as long as we use an orthonormal basis, thus
it is natural to call them unitary matrices.
46 CAPITULO 1. LINEAR OR VECTOR SPACES

1.17. Determinants and traces


A very important property of any matrix is its determinant denoted by |A| and is a real or complex number
associated with the matrix. Its construction was primarily motivated by the study of simultaneous linear equations.
We assume that the reader is familiarized with the concept and the calculation of this quantity. We have mentioned
that a matrix admits an inverse if and only if its determinant is non-null. This is because the inverse of a matrix
A depends on |A|1 . The determinant of the transpose coincides with the determinant of the matrix

e
A = |A| (1.71)

a for the conjugate matrix (in which we conjugate each of its elements) we get

|A | = |A| (1.72)

Additionally it can be demostrated that the determinant of the product is the product of the determinants

|AB| = |A| |B| (1.73)

and since the determinant of the identity is 1 we get



1 = |1| = AA1 = |A| A1

so that 1
A = |A|1 (1.74)
if any row or column is multiplied by a scalar , the determinant is also multiplied by the scalar. For example in
three dimensions

a11 a12 a13 a11 a12 a13 a11 a12 a13

a21 a22 a23 = a21 a22 a23 = a21 a22 a23 (1.75)

a31 a32 a33 a31 a32 a33 a31 a32 a33

so that if we multiply an n n matrix by a scalar, the determinant is

|A| = n |A| (1.76)

in particular
|A| = (1)n |A| (1.77)
another important property is the trace of the matrix defined as the sum of its diagonal elements

T rA = aii (1.78)

we emphasize the sum over repeated indices. We prove that

T r [AB] = T r [BA] (1.79)

in this way
T r [AB] = (AB)ii = aik bki = bki aik = (BA)kk = T r [BA]
it is important to see that the trace is cyclic invariant, i.e.
h i h i
T r A(1) A(2) . . . A(n2) A(n1) A(n) = T r A(n) A(1) A(2) . . . A(n2) A(n1)
h i
= T r A(n1) A(n) A(1) A(2) . . . A(n2) (1.80)
1.18. RECTANGULAR MATRICES 47

and so on. To prove it, we define


B A(1) A(2) . . . A(n1)
so that
h i h i h i h i
T r A(1) A(2) . . . A(n2) A(n1) A(n) = T r BA(n) = T r A(n) B = T r A(n) A(1) A(2) . . . A(n2) A(n1)

and taking into account that the indices (1) , (2) , ... are dummy, any cyclic change is posible. It worths saying that
property (1.79) does not mean that the matrices can be commuted to calculate the trace, for instance for three
or more matrices the trace is not the same for any order of the matrices, only cyclic changes are possible. In that
sense, we should interpret (1.79) as a cyclic change and not as a commutation.
But the most important properties of the traces and determinants is that they are invariant under a similarity
transformation

A = BAB1 = |B| |A| B1 = |B| |A| |B|1

A = |A|

where we have used (1.73) and (1.74). Now for the invariance of the trace
n

 1
 X  X X X X
T rA = T r BAB = BAB1 ii = bik akl bli = bli bik akl = kl akl = akk = T rA
i=1 ikl ikl kl k

alternatively we can see it by using the cyclic invariance of the trace (see Eq. 1.80), such that
     
T r A = T r BAB1 = T r B1 BA = T rA

the invariance of determinants and traces under similarity transformations are facts of major importance because
all representations of a given linear transformation are related each other by similarity transformations. It means
that determinants and traces are intrinsic quantities that can be attributed to the linear transformations thus

Definition 1.28 We define the trace and the determinant of a given linear transformation of V into itself by
calculating the trace and determinant of the matrix representative of the linear transformation in any basis.

1.18. Rectangular matrices


A rectangular matrix is an arrangement of numbers consisting of m rows and n columns. In that case we say
that the matrix has dimensions m n. The elements of such a matrix will be of the form

(A)ik = aik ; i = 1, . . . , m ; k = 1, . . . , n

the transpose of this matrix would have dimensions n m. A column vector arrangement (from now on, we shall
call it simply a vector, though it is not neccesarily a vector in all the sense of the word) is a rectangular matrix
of dimension m 1, its transpose (a row vector) is a rectangular matrix of dimensions 1 m.
Now, it would be desirable to extrapolate the algorithm of square matrices composition to calculate products
of rectangular matrices
cij aik bkj
It is observed that this extrapolation of the matrix product to the case of rectangular matrices C = AB, can be
defined consistently only if the number of columns of A coincides with the number of rows of B.

AB = C if A Amn and B Bnd Cmd


48 CAPITULO 1. LINEAR OR VECTOR SPACES

In particular, the product of a column vector (m 1 matrix) with a m m matrix in the form xA cannot be
eA
defined. Nevertheless, the product of the transpose of the vector (row vector) and the matrix A in the form x
can be defined. In a similar fashion, the product Aex cannot be defined but Ax can. From these considerations
the quantities Ax and x eA correspond to a new column vector and a new row vector respectively.
From the dimensions of the rectangular matrices we see that

e nm and Bnd B
Amn A e dn

and the product AB is defined. However, their transposes can only be multiplied in the opposite order, i.e. in the
e A.
order B e Indeed, it is easy to prove that, as in the case of square matrices, the transpose of a product is the
product of the transpose of each matrix in the product, but with the product in the opposite order. Applying this
property it can be seen that
] =x
(Ax) eAe ; ]
(e
xA) = Axe

where we have taken into account that the transpose of the transpose is the original matrix.

1.19. The eigenvalue problem


If T is a linear transformation on a vector space of finite dimension n, the simplest thing that the linear
transformation can do to a vector is to produce a dilatation or contraction on it, eventually changing the
sense of the arrow but keeping its direction. In algebraic words, certain vectors can be transformed by
T into a scalar multiple of itself. If x is a vector in H this operation is given by

T x = x (1.81)

a non-zero vector x such that Eq. (1.81) holds, is called an eigenvector of T , and the corresponding scalar is
called an eigenvalue of T . Each eigenvalue has one or more eigenvectors associated with it and to each eigenvector
corresponds a unique eigenvalue.
Let us assume for a moment that the set of eigenvalues for a given T is non-empty. For a given consider the
set M of all its eigenvectors together with the vector 0 (which is not an eigenvector), we denote this vectors as
()
xi . M is a linear subspace of H, we see it by taking an arbitrary linear combination of vectors in M
     
() () () ()
T i xi = i T xi = i xi = i xi
   
() ()
T i xi = i xi

such that a linear combination is also an eigenvector with the same eigenvalue. Indeed, for Hilbert spaces it can
be shown that M is a closed vector subspace of H. As any vector space, M has many basis and if H is finite
dimensional, complete orthonormal sets are basis. The dimension of M is thus the maximum number of linearly
independent eigenvectors associated with . M is called the vector eigenspace generated by the eigenvalue . This
discussion induces the following

Definition 1.29 A given eigenvalue in Eq. (1.81) is called nfold degenerate if n is the dimension of the
eigenspace M of H generated by . In other words, n is the maximum number of linearly independent eigenvectors
of . If n = 1 we say that is non-degenerate.

Even for non-degenerate eigenvalues we always have an infinite number of eigenvectors, for if x() is an eigen-
vector, then x() is also an eigenvector for any scalar . Eq. (1.81) can be written equivalently as

(T I) x = 0 (1.82)
1.19. THE EIGENVALUE PROBLEM 49

we return to the problem of the existence of eigenvalues, the operator T on C given by

T {x1 , x2 , ...} = {0, x1 , x2 , ...}

is an operator on a Hilbert space that has no eigenvalues. We confront then the problem of characterizing the type
of operators that admit eigenvalues. In the finite dimensional case, we shall see that the theory of representations
and the fundamental theorem of algebra ensures the existence of eigenvalues for an arbitrary operator.

1.19.1. Matrix representative of the eigenvalue problem


The one to one correspondence between matrices and operators in the finite dimensional case permits to make
a matrix representation of the eigenvalue equation (1.81). Let T be the n n matrix associated with the operator
T and x the column vector representative of x (an n 1 matrix). Eq. (1.81) is written as

Tx = x (1.83)

which is the eigenvalue equation associated with the matrix. The idea is trying to solve for the eigenvalues and
eigenvectors in a given representation. The values are in general complex. According with our previous discussion
the eigenvalue is the dilatationor contraction factor, if it is a negative real number it inverts the sense of the
arrow. Let us rewrite the eigenvalue equation as

(T 1) x = 0 (1.84)

for simplicity we shall use n = 3 but the arguments are valid for arbitrary finite dimensions. In three dimensions
the explicit form of (1.84) becomes

(T11 ) X1 + T12 X2 + T13 X3 = 0


T21 X1 + (T22 ) X2 + T23 X3 = 0
T31 X1 + T32 X2 + (T33 ) X3 = 0 (1.85)

This set of homogeneous equations for X1 , X2 , X3 has non trivial solution only if the determinant of the system
is null, therefore
T11 T12 T13


|T 1| = T21 T22 T23 = 0 (1.86)
T31 T32 T33
this condition is known as the secular or characteristic equation of the matrix. The variables to be found are
the eigenvalues associated with the matrix. It worths saying that even if non-trivial solutions exist, the set of
homogeneous equations (1.85) do not give us definite values for all the components of the eigenvectors but only
for the quotient among these components. This can be understood either from algebraic or geometric arguments.
From the algebraic point of view, it is related with the fact that the product of the eigenvector x with any
scalar is also an eigenvector, this can be seen inmediately from (1.84)5 . Geometrically, this implies that only the
direction of the eigenvector is determined but not its length neither its sense. This is particularly apparent
in three dimensions. Since T represents a linear transformation, it is clear that if T preserves the direction of x
i.e. Tx = x it also preserves the direction of the vector x for arbitrary.
When the determinant (1.86) is expanded, we observe that the solution of the secular equation reduces to
finding the roots of a polynomial of n degree. Appealing to the fundamental theorem of algebra we always have
exactly n complex roots, some of them could be repeated so that we could have fewer than n distinct roots. In
5
Alternatively, this can be seen form the fact that the secular equation only has non-trivial solution when one or more of the
equations is linearly dependent with the others. In such a case there are more variables than equations and hence an infinite number
of solutions.
50 CAPITULO 1. LINEAR OR VECTOR SPACES

general we can construct no more than n linearly independent vectors xk each one associated with an eigenvalue
k . By now, the set of eigenvalues are associated to a matrix, but in order to associate it to its corresponding
operator, we should be sure that the set of eigenvalues is the same for any representation of the operator i.e. that
all equivalent matrices have the same set of eigenvalues

Theorem 1.53 If two n n matrices are equivalent i.e. T = ST S 1 then both have the same set of eigenvalues.

In summary, the fundamental theorem of Algebra together with the intrinsic meaning of the set of eigenvalues,
solves the problem of the existence of eigenvalues for linear transformations on finite-dimensional vector spaces.

Definition 1.30 The set of eigenvalues of T is called its spectrum and is denoted by (T ).

Theorem 1.54 If T is an arbitrary linear transformation on a finite dimensional complex vector space, the
spectrum of T constitute a non-empty finite subset of the complex plane. The number of elements in this subset
does not exceed the dimension n of the space.

Some other important theorems related with the set of eigenvalues are the following

Theorem 1.55 T is singular 0 (T ).



Theorem 1.56 If T is non-singular, then (T ) 1 T 1

More information about the spectral resolution of some types of operators in a Hilbert space will be given by
means of the spectral theorem. By now, we turn to the problem of the sets of eigenvectors and its relation with
the canonical problem of matrices.

1.19.2. Eigenvectors and the canonical problem of matrices


Since we can have many representations of a given operator by changing basis, many matrix representatives
can be constructed. It is natural to wonder whether it is posible to choose the basis in such a way that the matrix
representative is as simple as possible. In practice, the simplest matrices are diagonal matrices i.e. matrices for
which Tij = 0 for i 6= j. Thus, we are looking for a basis under which the matrix representative of a given operator
T is diagonal. Starting with a given basis {ui } we obtain a matrix representative of T (denoted by T), we wonder
whether there exists another basis {ui } for which the matrix representative T of T is diagonal. From Eqs. (1.54,
1.62) we see that T and T are related by a similarity transformation that also gives us the transformation among
the bases
u = Au ; T = A e 1 TA
e (1.87)
We shall see that for finite dimensional matrices, the canonical problem of matrices is intimately related with
the structure of its eigenvectors. Let us consider the representation Xk of the eigenvectors of T with respect to the
original basis {ui }. We denote the ith coordinate of the kth eigenvector in the form Xik (with respect to the
original basis). We are able to settle an square arrangement with this eigenvectors, putting them aside as column
vectors. In three dimensions, such an arrangement has the form

X11 X12 X13
X (X1 X2 X3 ) = X21 X22 X23 (1.88)
X31 X32 X33

Eqs. (1.84) are written for each eigenvalue k and its corresponding eigenvector Xk in the form

(T k 1) Xk = 0 TXk = k Xk no sum over k (1.89)


1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM 51

writing Eqs. (1.89) in components with respect to the basis {ui } we get (for n dimensions)
n
X
Tij Xjk = k Xik
j=1
Xn n
X
Tij Xjk = Xij jk k (1.90)
j=1 j=1

in the two previous equations there is no sum over the repeated index k. The Xjk element is the jth component
of the Xk vector. Now, the quantity jk k can be associated with a diagonal matrix, in three dimensions this
matrix is written as
1 0 0
0 2 0 (1.91)
0 0 3
in matrix form Eq. (1.90) reads
TX = X
multiplying on left by X1 we find
X1 TX = (1.92)
it corresponds to a similarity transformation acting on T. Note that the matrix X built from the eigenvectors is
the transformation matrix (comparing with 1.87 we have X A). e We see then that matrix T is diagonalized by
X by means of a similarity transformation and the elements of the diagonal correspond to the eigenvalues (k
associated with the column vector Xk of the matrix X in Eq. 1.88). When there are some degenerate eigenvalues
i.e. some of them acquire the same value, it is not always possible to diagonalize the matrix T. It is because in
that case, the eigenvectors that form the matrix X are not necessarily linearly independent. If any given column
vector of the matrix is linearly dependent with the others, the determinant of X is zero and X1 does not exist.
On the other hand, when diagonalization is possible, the determinant and the trace of T can be calculated
taking into account that such quantities are invariant under a similarity transformation, therefore
 
det T = det X1 TX = det = 1 2 . . . n (1.93)
 
T rT = T r X1 TX = T r = 1 + 2 + . . . + n (1.94)

so that the determinant and the trace of a diagonalizable matrix are simply the product and sum of its eigenvalues
respectively.
In summary, a canonical form of a given matrix can be obtained as long as the eigenvectors of the matrix form
a basis, the question is now open for the conditions for the eigenvectors to form a basis, and this is part of the
program of the spectral theorem.

1.20. Normal operators and the spectral theorem


Let T be an operator on a finite-dimensional Hilbert space H. By theorem 1.54 the spectrum (T ) is a non-
empty finite set of complex numbers with cardinality less than or equal to the dimension n of H. Let 1 , .., m
be the set of distinct eigenvalues; let M1 , .., Mm be their corresponding eigenspaces; and let P1 , .., Pm be the
projections on these eigenspaces. The spectral theorem is the assertion that the following three statements are
equivalent to one another
I) The Mi s are pairwise orthogonal and H = M1 ....Mm
P Pm
II) The Pi s are pairwise orthogonal, I = m i=1 Pi , and T = i=1 i Pi .
III) T is normal.
52 CAPITULO 1. LINEAR OR VECTOR SPACES

The assertion I) means that any vector x H can be expressed uniquely in the form
x = x1 + .. + xm ; xi Mi ; (xi , xj ) = 0 f or i 6= j (1.95)
applying T on both sides and using linearity
T x = T x1 + .. + T xm = 1 x1 + .. + m xm (1.96)
this shows the action of T on each element of H in an apparent pattern from the geometrical point of view. It is
convenient to write it in terms of projections on each Mi . Taking into account that Mj Mi for each i and for
every j 6= i we obtain from Eq. (1.95) that
Pi x = xi
from which it follows
Ix = x = x1 + .. + xm = P1 x + .. + Pm x
Ix = (P1 + .. + Pm ) x ; x H
therefore
m
X
I= Pi (1.97)
i=1
and relation (1.96) gives
T x = 1 x1 + .. + m xm = 1 P1 x + .. + m Pm x
T x = (1 P1 + .. + m Pm ) x ; x H
hence
m
X
T = i Pi (1.98)
i=1
Eq. (1.98) is called the spectral resolution of the operator T . In this resolution it is to be understood that all the
i s are distinct and that the Pi s are non-zero projections which are pairwise orthogonal and satisfy condition
(1.97). It can be shown that the spectral resolution is unique when it exists.
Now, we look for the conditions that the operator must satisfies to be decomposed as Eq. (1.98). From Eq.
(1.98) we see that
T = 1 P1 + . . . + m Pm (1.99)
and multiplying (1.98) with (1.99) and using the fact that the Pi s are pairwise orthogonal we have
m
! m ! m X m m X m
X X X X

TT = i Pi k Pk = i k Pi Pk = i k Pi2 ik
i=1 k=1 i=1 k=1 i=1 k=1
m
X
TT = |k |2 Pk (1.100)
k=1

and multiplying in the opposite order we obtain the same result


m
X
T T = |k |2 Pk (1.101)
k=1

from which we see that h i


T, T = 0
and the operator must be normal. We have proved that I)II)III). To complete the proof we should show that
III)I) i.e. that every normal operator T on H satisfies conditions I).
This task is accomplished by the following chain of theorems
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM 53

Theorem 1.57 If T is normal, x is an eigenvector of T with eigenvalue x is an eigenvector of T with


eigenvalue .

Theorem 1.58 If T is normal the Mi s are pairwise orthogonal

Theorem 1.59 If T is normal, each Mi reduces T .

Theorem 1.60 If T is normal, the Mi s span H.

For most of applications theorem 1.58 is rewritten as

Theorem 1.61 If T is normal, two eigenvectors of T corresponding to different eigenvalues are orthogonal. In
particular this is valid for self-adjoint and unitary operators.

Assume that T = T , since for a given eigenvector x there is a unique eigenvalue we see from theorem 1.57
that = so the corresponding eigenvalues are real. Now assume for a normal operator T that (T ) is a subset
of the real line, using the spectral resolution of T Eq. (1.99) we find

T = 1 P1 + . . . + m Pm = 1 P1 + . . . + m Pm = T

we have the following

Theorem 1.62 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{1 , .., m }, then T is self-adjoint each i is real.

It is important to emphasize that the hypothesis of real eigenvalues leads to the self-adjointness of the operator
only if normality is part of the hypothesis (because of the use of the spectral thoerem). It does not discard the
possibility of having non-normal operators with real spectrum, in that case such operators would not be self-
adjoint. In addition, it worths remembering that self-adjoint operators where constructed as the analogous of the
real line subset in the algebra of operators. So the fact that its eigenvalues are all real is a quite expected result.
An special type of self-adjoint operators are the positive operators for which

(x, T x) 0 x H (1.102)

applying the spectral resolution of T on xi Mi with xi 6= 0, we have


m
X m
X
T xi = k Pk xi = k xi ik = i xi
k=1 k=1

and using it in Eq. (1.102) we find

(xi , T xi ) = (xi , i xi ) = i (xi , xi ) 0 no sum over i


i kxi k2 0 i 0

on the other hand, by assuming that a normal operator T has a real non-negative spectrum we obtain
n
! n n
! n X n n X
n
X X X X X
(x, T x) = x, i Pi x = xk , i xi = i (xk , xi ) = i ki kxk k2
i=1 k=1 i=1 k=1 i=1 k=1 i=1
n
X
(x, T x) = k kxk k2 0
k=1

we see then that


54 CAPITULO 1. LINEAR OR VECTOR SPACES

Theorem 1.63 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{1 , .., m }, then T is positive i 0.

Now, for a normal operator T , a necessary and sufficient condition for T to be unitary is that T T = I (in
finite dimension it is not necessary to show that T T = I) using Eqs. (1.97, 1.100) the condition for unitarity is

m
X m
X m
X
T T = I |k |2 Pk = I |k |2 Pk = Pk
k=1 k=1 k=1

multiplying by Pi and using the pairwise orthogonality of projectors

m
X m
X
|k |2 Pk Pi = Pk Pi |i |2 Pi2 = Pi2 |i |2 Pi = Pi
k=1 k=1

so that |i | = 1. This procedure also shows that if T is a normal operator in which |i | = 1 for each i, then
T T = I and T is unitary, then we have

Theorem 1.64 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{1 , .., m }, then T is unitary |i | = 1 for each i.

Now, remembering that unitary operators where constructed as the analogous of the unitary circle subset
in the algebra of operators, the fact that its eigenvalues lie in the unitary circle of the complex plane is pretty
natural.
Now we are prepared to discuss the canonical problem for normal matrices. We denote ni the dimension of
each eigenspace Mi it is clear that
n1 + n2 + ... + nm = n

Mi contains
 i ni ilinearly
independent vectors xi1 , .., xini that can be orthonormalized by a Gram Schmidt process
to say u1 , .., uni . If we do this for each Mi the set form by the union of these orthonormal sets

 i
{u} m i
i=1 u1 , .., uni

is clearly an orthonormal set because all vectors corresponding with different Mi s are orthogonal according to
theorem 1.58. In addition, since the Mi s span H according to theorem 1.60 this orthonormal set is complete and
hence a basis. Therefore, for any normal operator T of H we can always form an orthonormal complete set of
eigenvectors. If we use this orthonormal complete eigenvectors to form the matrix of diagonalization Eq. (1.88) we
see that the matrix obtained is a unitary matrix, it is clear that for this matrices the inverse always exists since
i 6= 0 for each i and therefore the diagonalization can be carried out. Then we have the following

Theorem 1.65 The diagonalization of a normal matrix T can be performed by a similarity transformation of the
form T = U TU1 where U is a unitary matrix.

This is of particular interest because it means that given a matrix representative of T in a basis consisting of
a complete orthonormal set, there exists another complete orthonormal set for which the matrix representative
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM 55

acquires its canonical form. Further, it is easy to see that the canonical form of a normal matrix is given by

1
..
.


1
2

..
.

2

. ..


m

. .
.
m
where the elements out of the diagonal are zero and each i is repeated ni times (i is ni fold degenerate). It is
easily seen that the matrix representation of Pi in this orthonormal basis is

  0n1 n1 0 0  
1n1 n1 0 0 0
P1 = ; P2 = 0 1n2 n2 0 ; Pm =
0 0 0 1nm nm
0 0 0
and the matrix representation of the spectral decomposition becomes clear.

1.20.1. A qualitative discussion of the spectral theorem in infinite dimensional Hilbert


spaces
The rigorous discussion of the infinite dimensional case for the spectral theorem is out of the scope of this
survey. We shall only speak qualitatively about the difficulties that arises when we go to infinite dimension. For
simplicity we assume that A is a self-adjoint operator, the spectral resolution is given by
m
X
A= i Pi
i=1

since the eigenvalues are real we can order them in a natural way in the form 1 < 2 < .. < m and we use the
Pi s to define new projections

P0 = 0
P1 = P1
P2 = P1 + P2
....
Pm = P1 + ... + Pm = I

the spectral decomposition of the self-adjoint operator A can be written as

A = 1 P1 + 2 P2 + ... + m Pm

= 1 (P1 P0 ) + 2 (P2 P1 ) + ... + m Pm Pm1
Xm

A = i Pi Pi1
i=1

if we define
Pi Pi Pi1
56 CAPITULO 1. LINEAR OR VECTOR SPACES

we can rewrite the decomposition of A as


m
X
A= i Pi
i=1

which suggest an integral representation


Z
A= dP (1.103)

in this form, the spectral decomposition of a self-adjoint operator is valid for infinite dimensional Hilbert spaces.
For normal operators we have a similar pattern
Z
N= dP (1.104)

The first problem to carry out this generalization is that an operator on H need not have eigenvalues at all.
In this general case the spectrum of T is defined as

(T ) = { : T I is singular}

when H is finite dimensional, (T ) consists entirely of eigenvalues. In the infinite dimensional case we only can
say that (T ) is non-empty, closed and bounded. Once this difficulty is overcome we should give a precise meaning
to the integrals (1.103, 1.104) and prove the validity of those relations. We shall see later that an extension of the
spectral theorem in its present form to infinite dimensions is obtained by using the concept of observable.
It worths emphasizing that the existence of eigenvalues in the finite dimensional case came from the fundamen-
tal theorem of algebra, which in turn came from the fact that the characteristic equation of a finite dimensional
matrix is a polynomial equation. An extension to infinite dimension clearly does not lead to a polynomial equation.

1.21. The concept of hyperbasis


Suppose that the vector space that concerns us is V , which is a proper subspace of a bigger vector space W .
As any vector space, W has a basis {wi } that generates any vector in W by linear combinations. It is obvious that
any vector of V must be generated through linear combinations of {wi }. However, there are at least two reasons
for which {wi } is not a basis for V (a) at least one element of the set {wi } is not in V , and one of the conditions
for a given set S to be a basis of a given vector space V is that S V . (b) given a basis {vi } of V we have that
{wi } and {vi } does not have in general the same cardinality, and we know that different bases must have the same
cardinality.
Let us see a simple example: let us use an orthonormal basis of R3 given by

1 1 1
u1 (1, 1, 1) ; u2 (4, 1, 3) ; u3 = (2, 7, 5)
3 26 78

to generate all vector of the XY plane. The coordinates of ui are written with respect to the ordinary cartesian
coordinates. Since these vectors generate R3 it is clear that they generate the XY plane which is a proper subset
of R3 . Notwithstanding, none of the vectors ui lies in the XY plane, all the elements of this hyperbasis are
outside of the vector space we pretend to expand. Further, any basis of XY has two elements while our hyperbasis
has three elements. Therefore, the cardinality of the hyperbasis is higher than the dimension of the space that
we shall study. For our purposes however, what really matters is that any vector in XY can be generated as a
linear combination of {u1 , u2 , u3 }. For instance, the vector x of the XY plane represented by (3, 2, 0) in ordinary
1.22. DEFINITION OF AN OBSERVABLE 57

cartesian coordinates, is represented in this hyperbasis as

x = (u1 , x) u1 + (u2 , x) u2 + (u3 , x) u3


   
1 1
= (1, 1, 1) (3, 2, 0) u1 + (4, 1, 3) (3, 2, 0) u2 +
3 26
 
1
+ (2, 7, 5) (3, 2, 0) u3
78
1 14 20
x = u1 + u2 u3
3 26 78

note that in this case an element of the plane is given by a triple with respect to the hyperbasis, in this case
 
1 14 20
x= , ,
3 26 78

in quantum mechanics we shall use a similar strategy but for orthogonal dimensions instead of dimensions. The
Hilbert space L2 that concerns us is of infinite countable orthogonal dimension, but we shall use frequently
orthogonal basis of a bigger space with infinite continuous orthogonal dimension. Therefore, we shall expand the
vectors of L2 in terms of orthogonal hyperbases {vx } with continuous cardinality. In general, the elements vx of
the bigger space will be outside of L2 . However, as before a fourier expansion (instead of a linear combination)
will be possible with this hyperbasis.
Notice that for any cardinality of the orthogonal dimension of a Hilbert space, we see that the Fourier expansion
Eq. (1.27) is always a series. This is by virtue of theorem 1.18 that says that the non-zero fourier coefficients of
any vector are always countable, even if the complete orthonormal set belongs to a higher cardinality. However,
such a theorem is valid for complete orthonormal sets in which all the elements of the set lies in the space under
consideration. If we use a hyper orthonormal complete set the elements of this hyper orthogonal basis do not lie
on the space that we are expanding, thus theorem 1.18 does not necessarily hold. Consequently, when continuous
hyper orthonormal basis are used, we shall obtain integrals instead of series in our Fourier expansions. Does it
make any sense to replace series by integrals? it suffices to observe that it is in general easier to solve integrals in
a closed form than series in a closed form.

1.22. Definition of an observable


Measurements in Physics are always real numbers. In quantum mechanics, such measurements are related with
eigenvalues of some operators on a Hilber space. It is then natural to associate measurements with eigenvalues of
self-adjoint operators since their spectra are always real.
For any finite-dimensional Hilbert space it is always possible to form a complete orthonormal set with the
eigenvectors of a normal operator, and in particular with the eigenvectors of a self-adjoint operator. However, in
infinite dimensional Hilbert spaces this is not necessarily the case. Therefore, we establish the following

Definition 1.31 A given self-adjoint operator A on H is called an observable, if there exists a complete ortho-
normal set of eigenvectors of A.

The following sets of theorems are of central importance in quantum mechanics

Theorem 1.66 If two operators A and B commute and if x is an eigenvector of A, then Bx is also an eigenvector
of A with the same eigenvalue. If is non-degenerate x is also an eigenvector of B. If is nfold degenerate, the
eigensubspace M is invariant under B.
58 CAPITULO 1. LINEAR OR VECTOR SPACES

Since x is an eigenvector of A we have

Ax = x BAx = Bx ABx = Bx

where we have used the fact that A and B commutes, hence

A (Bx) = (Bx)

which proves that Bx is an eigenvector of A with eigenvalue . Observe that if is non-degenerate all its eigen-
vectors are colinear hence Bx must be colinear with x i.e. Bx = cx and x is also an eigenvector of B.
On the other hand, if is nfold degenerate, we can only say that Bx lies in the n dimensional eigensubspace
M of A. In other words, if x M then Bx M
Another way to express the previous theorem is

Theorem 1.67 If two operators A and B commute, every eigensubspace of A is invariant under B.

Of course, the roles of A and B can be interchanged.

Theorem 1.68 If two normal operators A and B commute, and if x1 , x2 are two eigenvectors of A with different
eigenvalues, then (x1 , Bx2 ) = 0.

By hypothesis we have
Ax1 = 1 x1 ; Ax2 = 2 x2
but from theorem 1.66 Bx2 is an eigenvector of A with eigenvalue 2 . Now from theorem 1.61 since 1 6= 2 then
Bx2 is orthogonal to x1 and the theorem is proved.
The previous theorems do not use the concept of observable6 , but the following one does

Theorem 1.69 Let A and B be two observables in a Hilbert space H. Then A and B commuteone can construct
a complete orthonormal set in H with eigenvectors common to A and B.

Assume that A and B commute, we shall define the normalized eigenvectors of A as uin

Auin = n uin ; i = 1, .., gn

where gn is the degree of degeneration of n . For n 6= n the eigenvectors are orthogonal and for n = n and i 6= i
we can always orthonormalized the vectors in each eigensubspace of A, so that
 
uin , ujk = nk ij

let us write H as a decomposition of the eigenspaces of A (taking into account that A is an observable)

H = M1 M2 M3 ...

there are two cases. For each one dimensional Mk (each non-degenerate k ) all vectors in Mk are colinear and
they are also eigenvectors of B.
In the other case, gp > 1 then Mp is gp dimensional. We can only say that Mp is invariant under B. Consider
the restriction of A and B to the subspace Mp . Since the vectors uip in Mp are eigenvectors of A, the restriction
(p)
of A to Mp has a matrix representative Aij of the form

(p)   
Aij = vpi , Avpj = vpi , p vpj = p vpi , vpj = p ij
6
However, we assumed that the operators involved posses eigenvalues, and this fact cannot taken for granted in infinite dimensions.
1.23. COMPLETE SETS OF COMMUTING OBSERVABLES (C.S.C.O.) 59

thus the matrix representation of A(p) is p I for any orthonormal set complete in Mp (not neccesarily the original).
Now let us see the matrix representative of the restriction B (p) of B on Mp , writing this representation in our
original orthonormal set
(p) 
Bij = uip , Bujp
since B is a self-adjoint operator this matrix is self-adjoint, and according to theorem 1.65 they can always
be
diagonalized by a unitary transformation, which in turn means that there exists an orthonormal set vpi in Mp
for which the matrix representative of B (p) is diagonal, hence
(p)  (p)
Bij = vpi , Bvpj = Bi ij

which means that the new orthonormal set complete in Mp consists of eigenvectors of B

(p)
Bvpi = Bi vpi

and since Mp contains only eigenvectors of A, it is clear that vpi is an orthonormal set complete in Mp that
are common eigenvectors of A and B. Proceeding in this way with all eigensubspaces of A with more than one
dimension, we obtain a complete orthonormal set in H in which the elements of the set are common eigenvectors
of A and B.
It is important to emphasize that for a given Mp the orthonormal set chosen a priori does not in general consist
of eigenvectors of B, but it is always possible to obtain another orthonormal set that are eigenvectors of B and
by definition they are also eigenvectors of A.
Now let us prove that if A and B are observables with a complete orthonormal set of common eigenvectors
then they commute. Let us denote the complete orthonormal set of common eigenvectors as uin,p then

ABuin,p = bp Auin,p = an bp uin,p


BAuin,p = an Buin,p = an bp uin,p

therefore
[A, B] uin,p = 0
since uin,p form a complete orthonormal set, then [A, B] = 0.
It is also very simple to show that if A and B are commuting observables with eigenvalues an and bp and with
common eigenvectors uin,p then
C =A+B
is also an observable with eigenvectors uin,p and eigenvalues cn,p = an + bp .

1.23. Complete sets of commuting observables (C.S.C.O.)



Consider an observable A and a complete orthonormal set uin of the Hilbert space that consists of eigenvectors
of A. If none of the eigenvalues of A are degenerate then the eigenvalues determine the eigenvectors in a unique
way (within multiplicative constant factors). All the eigensubspaces Mi are one-dimensional and the complete
orthonormal set is simply denoted by {un }. This means that there is only one complete orthonormal set (except
for multiplicative phase factors) associated with the eigenvectors of the observable A. We say that A constitutes
by itself a C.S.C.O.
On the other hand, if some eigenvalues of A are degenerate, specifying an is not enough to determine a
complete orthonormal set for H because any orthonormal set in the eigensubspace Mn can be part of such a
complete orthonormal set. Thus the complete orthonormal set determined by the eigenvectors of A is not unique
and it is not a C.S.C.O.
60 CAPITULO 1. LINEAR OR VECTOR SPACES

Now we add a second observable B that commutes with A, and construct a complete orthonormal set common
to A and B. By definition, A and B constitutes a C.S.C.O. if the complete orthonormal set common to both is
unique (within constant phase factors for each of the vectors in the complete set). In other words, it means that
any pair of eigenvalues an , bp determines the associated common normalized eigenvector uniquely, except for a
phase factor.
In theorem 1.69 we constructed the complete orthonormal set common to A and B by solving the eigenvalue
equation of B within each eigensubspace defined by A. For A and B to constitute a C.S.C.O. it is necessary and
sufficient that within each Mn the gn eigenvalues of B be distinct7 . In this case, since all eigenvectors vni in each
(n)
Mn have the same eigenvalue an of A, they will be distinguished by the gn distinct eigenvalues bi associated with
these eigenvectors of B. Note that it is not necessary that the eigenvalues of B be non-degenerate, we can have
two (or more) equal eigenvalues of B associated with two (or more) distinct eigensubspaces Mn and Mk of A. We
only require not to have degeneration of the eigenvalues of B within a given eigensubspace Mn of A. Indeed, if B
were non-degenerate it would be a C.S.C.O. by itself.
On the other hand, if for at least one pair {an , bp } there exist two or more linearly independent eigenvectors
common to A and B they are not a C.S.C.O.. Let us add a third observable C that commutes with both A and
B, and proceeds as above. When to the pair {an , bp } corresponds only one eigenvector common to A and B, then
it is automatically an eigenvector of C as well. On the contrary, if the eigensubspace Mn,p is gn,p dimensional,
we can construct within it, an orthonormal set of eigenvectors of C. Proceeding in this way with each Mn,p we
can construct a complete orthonormal set with eigenvectors common to A, B, C. These three observables are a
C.S.C.O. if this complete orthonormal set is unique (except for multiplicative phase factors). Once again, if Mn,p
(n,p)
has the eigenvectors uin,p common to A and B this occurs if and only if all gn,p eigenvalues of C denoted as ck are
distinct. As before, C can be degenerate, but as long as degenerate eigenvalues are not repeated within a single
eigenspace Mn,p of A and B. Therefore, a given triple of eigenvalues {an , bp , ck } of A, B, C has a unique common
eigenvector within a multiplicative factor. If two or more linearly independent eigenvectors common to A, B, C
can be constructed for a given set {an , bp , ck }, we can add a fourth observable D that commute with those three
operators and so on.

Definition 1.32 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.)
if (i) All observables commute pairwise, (ii) specifying the set of eigenvalues {an , bp , ck , ..} of the observables
determines a unique (within phase factors) complete orthonormal set of eigenvectors common to all the observables.

An equivalent form is the following

Definition 1.33 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.)
if there is a unique complete orthonormal set (within phase factors) of common eigenvectors.

It is obvious that if a given set is a C.S.C.O. we can add any observable that commutes with the observables
of the set and the new set is also a C.S.C.O. However, for most of our purposes we shall be interested in minimal
C.S.C.O. in the sense that by removing any observable of the set, the new set is not complete.
If a given set {A1 , .., An } of observables is a C.S.C.O., an eigenvector associated with a set {ak1 , .., akn } determines
a unique common normal eigenvector (within a phase factor) so it is natural to denote the vector as uak1 ,ak2 ,akn .
We shall see later that in quantum mechanics a global phase has no Physical information. Therefore, all normal
vectors associated with {ak1 , .., akn } have the same Physical information, this fact enhance the qualification of
unique for these vectors, although they are not unique from the mathematical point of view.

7
If Mn is one dimensional then an eigenvector of A in Mn is automatically an eigenvector of B and it is clearly uniquely determined,
except for multiplicative factors. Only the case in which Mn has more than one dimension is non-trivial.
1.24. SOME TERMINOLOGY CONCERNING QUANTUM MECHANICS 61

1.24. Some terminology concerning quantum mechanics


We have defined linear combinations as finite sums. A basis in a vector space is thus a set of linearly indepen-
dent vectors for which any vector of the space can be written as a finite sum of elements of the basis (multiplied
by the appropiate scalars). Notably, bases always exist even in an infinite-dimensional vector space. However, in
practice it is not easy to find a basis in an infinite dimensional Hilbert space. In this case, it is more usual to
utilize complete orthonormal sets, they make a work similar to basis in the sense that they generate any vector,
but the difference is that complete orthonormal sets expand a vector in a series (Fourier expansion) while bases
do it in finite sums.
In quantum mechanics we call a basis to mean a complete orthonormal set, and the series expansion
is usually call a linear combination. Since we never use basis in the mathematical sense, there is no confusion
with this terminology. Self-adjoint operators are usually called hermitian operators. The conjugate space H
of H is usually call the dual space of H. The vectors in our Hilbert space are called kets, while the correponding
elements in the dual space (the functionals) are called bras.
In addition the Hilbert space we work with, is a separable space so that its dimension is countable (countably
infinite). We shall resort however to some hyperbases which are of continuous cardinality, the elements of these
hyperbases do not belong to our Hilbert space. Consequently, the elements of the hyperbasis will not be physical
states, but we shall call them continuous basis. Nevertheless, they will be very useful for practical calculations.
In addition there will be a change of notation to facilitate the mathematical calculations, it is called Dirac
notation

1.25. The Hilbert Space L2


We shall see later that the information of a quantum particle is described by a function of the space and time
denoted as (r, t) and called the wave function. The quantity, | (r, t)|2 dx dy dz will be interpreted as the
probability of finding at time t, the particle in a volume dx dy dz. Since the particle must be somewhere in the
space, we must demand that the integral over the whole volume must be equal to unity
Z
dV | (r, t)|2 = 1

the integration extends over all space. However, in certain cases we could assume that the particle is in a given
confined volume and the integral will be restricted to such a volume.
The discussion above leads to the fact that the space of Physical states of one particle should be described by
a square-integrable wave function. The state space is then the Hilbert space L2 of the square-integrable functions
in a given volume. For a system of several particles we will have a space with similar features, but by now we will
concentrate on the space that describes a single particle.
For several reasons we cannot specified in general the state space of a particle. First of all, several physical
considerations can lead us to the fact that the particl is confined to a certain bounded volume. For instance,
in one dimension it is not the same the space of functions that are square integrable in the whole real line, as
(say) the space of functions that are square integrable in a bounded interval. In other words, different regions of
square integrability leads us to different L2 spaces. On the other hand, it is usual to demand as well as square
integrability, that the functions accomplish additional features of regularity. For example, to be defined all along
the interval, or to be continuous, derivable, etc. The specific conditions depend on the particular context, and
they are required to define the state space completely.
For example, it has no physical meaning to have a function that is discontinuous at a given point since no
experiment can measure a real phenomenon at scales below certain threshold. We could then be tempted to say
that we must demand the functions to be continuous. However, this is not necessarily the case since some non-
physical functions could help us to figure out what is happening. Let us take some familiar examples in classical
mechanics, it is usual in electrostatics to assume the presence of a surface charge, which leads to a discontinuity
62 CAPITULO 1. LINEAR OR VECTOR SPACES

in the electric field, in the real world a charge is distributed in a very thin but finite layer and the discontinuity
is replaced by a very slopy curve. Indeed, a surface charge is equivalent to an infinite volume density, but we
have seen that this assumption provides a simple picture of many electrostatic phenomena though it is not a real
physical state. Classical waves represented by a single plane wave in optics are other good examples, since it is
not possible to have a real wave being totally monochromatic (a physical state is always a superposition of several
plane waves), but many of the wave phenomena are easier to study with these non physical states, and indeed
many real physical phenomena such as the laws of geometric optics are predicted by using them.
In summary, depending on our purposes (and attitudes) we could demand to have only physical states or
to decide to study some non-physical ones that are obtain when some physical parameters are settle at extreme
values. Quantum mechanics is not the exception for this strategy, and our assumptions on the functions to work
with, affects the definition of the Hilbert space of states that we should use as a framework.
Hence, given the volume V in which the particle can stay, we say that our space of states is a subspace of the
Hilbert space L2 of the square integrable functions in the volume V . We denote by the subspace of states in
which L2 . For this subspace to be a Hilbert space, it must be closed (for completeness to be maintained).

1.25.1. The wave function space


According to the discussion above, we only can say that our wave function space that describe our physical
states is a closed subspace of L2 for a volume determined by our physical conditions. What really matters is to be
sure whether the additional conditions imposed to our functions keeps as a closed vector space. For instance,
if we assume continuity and/or derivability, it is easy to show that a finite linear combination preserves these
conditions. Less evident is to ensure that a series preserves these conditions (for the subspace to be closed in L2 ),
but we are not be concern with this problem here, neither we shall discuss the aspects concerning the completeness
of L2 . We then limite ourselves to determine the vector space character of L2 . Let 1 , 2 L2 , we show that

(r) = 1 1 (r) + 2 2 (r)

is a square integrable function. For this, we expand | (r)|2

| (r)|2 = |1 |2 |1 (r)|2 + |2 |2 |2 (r)|2 + 1 2 1 (r) 2 (r) + 1 2 1 (r) 2 (r)

now for the last two terms we have


h i
|1 2 1 (r) 2 (r)| = |1 2 1 (r) 2 (r)| |1 | |2 | |1 (r)|2 + |2 (r)|2

hence h i
| (r)|2 |1 |2 |1 (r)|2 + |2 |2 |2 (r)|2 + 2 |1 | |2 | |1 (r)|2 + |2 (r)|2
and the integral of each of the functions on the right-hand side converges. Then the integral
Z
| (r)|2 dV

converges. So is a square integrable function.


The scalar product will be defined as
Z
(, ) = dV (r) (r)

it can be shown that this integral always converges if and belong to L2 . We should check that this definition
accomplishes the properties of an inner product, the properties arise directly from the definition

(, 1 1 + 2 2 ) = 1 (, 1 ) + 2 (, 2 ) ; (1 1 + 2 2 , ) = 1 (1 , ) + 2 (2 , )
(, ) = (, ) ; (, ) kk2 0 and (, ) = 0 = 0
1.26. DISCRETE ORTHONORMAL BASIS 63

let us mention some important linear oprators on functions (r) .


The parity opeartor defined as
(x, y, z) = (x, y, z)
the product operator X defined as
X (x, y, z) = x (x, y, z)
and the differentiation operator with respect to x denoted as Dx

(x, y, z)
Dx (x, y, z) =
x
it is important to notice that the operators X and Dx acting on a function (r) , can transform it into a
function that is not square integrable. Thus it is not an operator of into nor onto . However, the non-physical
states obtained are frequently useful for practical calculations.
The commutator of the product and differentiation operator is of central importance in quantum mechanics
 

[X, Dx ] (r) = x x (r) = x (r) [x (r)]
x x x x

= x (r) x (r) (r)
x x
[X, Dx ] (r) = (r) (r)
therefore
[X, Dx ] = I (1.105)

1.26. Discrete orthonormal basis


The Hilbert space L2 (and thus ) has a countable infinite dimension, so that any authentic basis of must
be infinite but discrete. A discrete orthonormal basis {ui (r)} with ui (r) should follows the rules given in
section 1.9.1. Thus orthonormality is characterized by
Z
(ui , uj ) = d3 r ui (r) uj (r) = ij

the expansion of any wave function (vector) of this space is given by the Fourier expansion described by Eq. (1.27)
X Z
(r) = ci ui (r) ; ci = (ui , ) = d3 r ui (r) (r) (1.106)
i

using the terminology for finite dimensional spaces we call the series a linear combination and ci are the components
or coordinates, which correspond to the Fourier coefficients. Such coordinates provide the representation of (r)
in the basis {ui (r)}. It is very important to emphasize that the expansion of a given (r) must be unique for
{ui } to be a basis, in this case this is guranteen by the form of the Fourier coefficients.
Now if the Fourier expansion of two wave functions are
X X
(r) = bj uj (r) ; (r) = ci ui (r)
j i

The scalar product and the norm can be expressed in terms of the components or coordinates of the vectors
according with Eqs. (1.65, 1.66) X X 2
(, ) = bi ci ; (, ) = |ci | (1.107)
i i
and the matrix representation of an operator T in a given orthonormal basis {ui } is obtained from Eq. (1.69)
Tij (ui , T uj )
64 CAPITULO 1. LINEAR OR VECTOR SPACES

1.26.1. Funcion delta de Dirac


Como veremos a continuacion la funcion delta de Dirac es un excelente instrumento para expresar el hecho
de que un conjunto ortonormal dado sea completo. Tambien es util para convertir densidades puntuales, lineales
y superficiales, en densidades volumetricas equivalentes. Es importante enfatizar que la funcion delta de Dirac
mas que una funcion es una distribucion. En el lenguaje del analisis funcional, es una uno-forma que actua en
espacios vectoriales de funciones, asignandole a cada elemento del espacio, un numero real de la siguiente forma:
Sea V el espacio vectorial de las funciones definidas en el dominio (b, c) con ciertas propiedades de continuidad,
derivabilidad, integrabilidad, etc. La distribucion delta de Dirac es un mapeo que asigna a cada elemento f (x) de
V un numero real con el siguiente algoritmo8
Z c 
f (a) si a (b, c)
f (x) (x a) dx =
b 0 si a / [b, c]

mencionaremos incidentalmente que con esta distribucion es posible escribir una densidad de carga (o masa)
puntual (ubicada en r0 ) como una densidad volumetrica equivalente

(r) = q r r0 (1.108)

esta densidad reproduce adecuadamente tanto la carga total como el potencial y el campo que genera, una vez
que se hagan las integrales apropiadas.
Hay varias sucesiones de distribuciones que convergen a la funcion Delta de Dirac, una de las mas utilizadas
es la sucesion definida por
n 2 2
fn (x a) = en (xa) (1.109)

se puede demostrar que al tomar el lmite cuando n se reproduce la definicion y todas las propiedades basicas
de la distribucion delta de Dirac. Notese que todas las distribuciones gaussianas contenidas en esta sucesion tienen
area unidad y estan centradas en a. De otra parte, a medida que aumenta n las campanas gaussianas se vuelven
mas agudas y mas altas a fin de conservar el area, para valores n suficientemente altos, el area se concentra en
una vecindad cada vez mas pequena alrededor de a. En el lmite cuando n , toda el area se concentra en un
intervalo arbitrariamente pequeno alrededor de a.
Algunas propiedades basicas son las siguientes:
R
1. (x a) dx = 1
R
2. f (x) (r r0 ) dV = f |r=r0
1
3. (ax) = |a| (x)

4. (r r0 ) = (r0 r)

5. x (x) = 0
 1
6. x2 e2 = 2|e| [ (x + e) + (x e)]

Vale enfatizar que debido a su naturaleza de distribucion, la funcion delta de Dirac no tiene sentido por s sola,
1
sino unicamente dentro de una integral. Por ejemplo cuando decimos que (ax) = |a| (x), no estamos hablando

8 si r = 0 R
Es usual definir la funcion delta de Dirac como (r) = y (x) dx = 1. Esta definicion se basa en una
0 si r = 6 0
concepcion erronea de la distribucion delta de Dirac como una funcion. A pesar de ello, hablaremos de ahora en adelante de la funcion
delta de Dirac para estar acorde con la literatura.
1.27. CLOSURE RELATIONS 65

de una coincidencia numerica entre ambos miembros, sino de una identidad que se debe aplicar al espacio vectorial
de funciones en que estemos trabajando, es decir
Z c Z c
1
f (x) (ax) dx = f (x) (x) dx f (x) V y a R
b b |a|
Estrictamente, el mapeo tambien se puede hacer sobre los numeros complejos con propiedades analogas. En este
mismo espritu, es necesario aclarar que la densidad volumetrica equivalente de una carga puntual (y todas las
densidades equivalentes que se pueden formar con la delta) es realmente una distribucion. Por ejemplo, la densidad
descrita por (1.108), solo tiene realmente sentido dentro de integrales que generan la carga total, el potencial o el
campo. Las densidades ordinarias son funciones, pero las densidades equivalentes son distribuciones. En sntesis, lo
que se construye con la densidad volumetrica equivalente es una distribucion que me produzca el mapeo adecuado
para reproducir la carga total, el potencial y el campo.
En masR de una dimension la delta se convierte simplemente en productos de deltas unidimensionales, la
propiedad (n) (x) dn x = 1, aplicada a n dimensiones, nos dice que la delta no es adimensional, sus dimensiones
son de xn .
De momento, el uso que le daremos a la delta estara relacionado con la completez del sistema orthonormal
que usemos. Notese que en dimension finita la completez se comprueba simplemente asegurandonos de tener igual
numero de vectores linealmente independientes que la dimension del espacio. En espacios de dimension infinita
en cambio podramos tener un conjunto infinito contable que no fuera completo y que se vuelve completo al
agregarle otro conjunto finito o infinito contable, pues en tal caso la cardinalidad no cambia. En dimension infinita
un conjunto ortonormal puede tener la cardinalidad de la dimension ortogonal del espacio y sin embargo no ser
completo. Es por esto que la prueba de completez es particularmente importante.

1.27. Closure relations


Naturalmente, para que todo vector arbitrario (r) de sea expandible en los vectores unitarios linealmente
independientes {ui (r)}, es necesario que el conjunto que define la base sea completo, la condicion de completez
puede obtenerse reemplazando los coeficientes de Fourier cn en la expansion de (r)
X X XZ B  
(r) = cn un (r) = (un , ) un (r) = un r r un (r) d3 r
n n n A
Z " #
B  X 
(r) = r un r un (r) d3 r
A n

donde la integral con lmites A y B significa una integral triple de volumen. Por otro lado
Z B
 
(r) = r r r d3 r
A

Igualando las dos ultimas expresiones, y teniendo en cuenta que (r ) es arbitraria se obtiene
X  
un r un (r) = r r (1.110)
n

retrocediendo en nuestros pasos vemos que la relacion anterior nos garantiza que cualquier funcion arbitraria
dentro del espacio se puede expandir en terminos del conjunto {un (r)}. A su vez vemos que la expansion para
una base ordenada dada {un (r)} es unica, lo cual se obtiene gracias a la independencia lineal del conjunto. Por
tanto a la Ec. (1.110), se le conoce como relacion de completez.
We shall study several complete sets that consequently accomplish property (1.110). The proof of completeness
of these sets is however out of the scope of this manuscript.
66 CAPITULO 1. LINEAR OR VECTOR SPACES

1.28. Introduction of hyperbases


In the case of discrete basis each element ui (r) is square integrable and thus belong to L2 and in general to
as well. As explained before, it is sometimes convenient to use some hyperbases in which the elements of the basis
do not belong to either L2 or , but in terms of which a function in can be expanded, the hyperbasis {u (k, r)}
will have in general a continuous cardinality with k denoting the continuous index that labels each vector in the
hyperbasis. According to our previous discussions the Fourier expansions made with this hyperbasis are not series
but integrals, these integrals will be called continuous linear combinations.

1.29. Closure relation with hyperbases


In the hyperbasis {u (k, r)}, k is a continuous index defined in a given interval [c, d]. Such an index makes
the role of the index n in discrete bases. We shall see that a consistent way of expressing orthonormality for this
continuous basis is9
Z B
 
(uk , uk ) = u (k, r) u k , r d3 r = k k (1.111)
A

we show it by reproducing the results obtained with discrete bases. Expanding an arbitrary function (r) of our
Hilbert space as a continuous linear combination of the basis gives
Z d
(r) = c (k) u (k, r) dk
c

then we have
 Z d  Z d
(uk , ) = uk , c (k) u (k, r) dk = c (k) (uk , uk ) dk
c c
Z d  
= c (k) k k dk = c k
c

from which the fourier coefficients of the continuous expansion are evaluated as

c k = (uk , ) (1.112)

when the Fourier coefficients are associated with continuous linear combinations (integrals) they are usually called
Fourier transforms. In this case, a vector is represented as a continuous set of coordinates or components, where
the components or coordinates are precisely the Fourier transforms.
Therefore, in terms of the inner product, the calculation of the Fourier coefficients in a continuous basis
(Fourier transforms) given by Eq. (1.112) coincides with the calculation of them with discrete bases Eq. (1.106).
Eq. (1.112) in turn guarantees that the expansion for a given ordered continuous bases is unique10 . Those facts
in turn depends strongly on our definition of orthonormality in the continuous regime Eq. (1.111) showing the
consistency of such a definition. After all, we should remember that hyperbases are constructed as useful tools
and not as physical states, in that sense we should not expect a truly orthonormality relation between them11 .
9
From now on we shall say continuous bases, on the understanding that they are indeed hyperbases.
10
Remember that for a given set of vectors to constitute a basis, it is important not only to be able to expand any vector with
the elements of the set, it is also necessary for the expansion of each vector to be unique. In normal basis (not hyperbasis) this is
guaranteed by the linear independence, in our continuous set it is guranteed by our definition of orthonormality in such a set.
11
It is clear for example that with r = r the orthonormality relation diverge, so it is not a normalization in the mathematical
sense.
1.30. INNER PRODUCT AND NORM IN TERMS OF A HYPERBASIS 67

Let us see the closure relation


Z d Z d
(r) = c (k) u (k, r) dk = (uk , ) u (k, r) dk
c c
Z d Z B 


 3
(r) = u k, r r d r u (k, r) dk
c A
Z B Z d 
 
(r) = u k, r u (k, r) dk r d3 r

A c

on the other hand Z B  


(r) = r r r d3 r
A
from which we find Z d  
u k, r u (k, r) dk = r r (1.113)
c
which defines us the closure relation for a continuous basis {u (k, r)}.
From the discussion above, the closure relations for discrete or continuous basis can be interpreted as re-
presentations of the Dirac delta function. Similar situation occurs with the orthonormality relation but only for
continuous bases.
It worths emphasizing at this point that a given representation of the delta in a given space cannot be
applied to another space. For example, it is possible
P to have a rdimensional vector space of functions V1 with
a basis {vn (r)}, that defines a closure relation rn=1 vn (r ) vn (r) = 1 (r r ), let us think about another r + k
dimensional vector space denoted by V2 and such that V2 V1 , such P that a basis {um } of V2 includes the previous
basis plus other linearly independent vectors; the closure relation is: r+k
n=1 un (r ) un (r) = 2 (r r ). What is the

difference between 1 (r r ) and 2 (r r )?, the answer lies in the distribution nature of the badly called Dirac
delta function; the fundamental property of this distribution tells us that for all functions (r ) that belongs
to V1 we have that
Z B " # Z B
 X   
3
(r) = r vn r vn (r) d r = r 1 r r d3 r
A n A

however, if the function (r) does not belong to V1 but it belongs to V2 then 1 (r r ) is not an adequate
distribution to represent this function. This is a general property of the distributions, since they are defined solely
by means of the way in which they map the functions of a specific vector space into the scalars. A representation
of the Dirac delta (and in general of any distribution) is linked to a very specific vector space of functions.

1.30. Inner product and norm in terms of the components of a vector in a


hyperbases
Let us take two vectors and that belong to . Both can be expressed as continuous linear combinations
of a continuous basis {uk }
Z d Z d  
(r) = dk u (k, r) c (k) ; (r) = dk u k , r b k
c c
now the idea is to write the scalar product of them in terms of the continuous set of components of each vector
i.e. in terms of their Fourier transforms c (k) and b (k ). The scalar product is
Z B Z d Z d Z B
3
 
(, ) = d r (r) (r) = dk dk b k c (k) d3 r u k , r u (k, r)
A c c A
68 CAPITULO 1. LINEAR OR VECTOR SPACES

now using the orthonormality relation Eq. (1.111) we have


Z B Z d Z d
3
 
(, ) = d r (r) (r) = dk dk b k c (k) k k
A c c
Z d
(, ) = dk b (k) c (k) (1.114)
c

the norm is obtained simply by taking = then


Z d
(, ) = kk2 = dk |c (k)|2 (1.115)
c

Eqs. (1.114, 1.115) are clearly the continuous analogs of Eq. (1.107) for discrete basis.
In summary, the basic relations obtained in discrete bases (inner products, norms, fourier coefficients, ortho-
normality, completeness etc.) possses the same structure in continuous bases but with the following replacements
X Z

i(discrete) k(continuous) , dk , ij k k
i

1.31. Some specific continuous bases


1.31.1. Plane waves
We shall use a continuous basis represented by the set
n o  
ipr/~ 1 3/2
ze ; z
2~
where p is the continuous index that labels the different vectors of the basis. Indeed, p represents three continuous
indices px , py , pz . By now ~ is simply a mathematical constant, but it will become highly relevant in Physics. We
consider the space of square integrable functions over the whole space, all integrals are undestood to be triple
integrals. The continuous linear combination of a given square integrable function is given by
  Z
1 3/2 3
(r) = d p (p) eipr/~
2~

it is clear that (p) provides the continuous set of coordinates of the vector (r) under our continuous basis.
They are thus the Fourier transforms of (r) with respect to the basis of plane waves. It is useful to define

vp (r) zeipr/~ (1.116)

from which the fourier transforms can be calculated by Eq. (1.112)


 3/2 Z
1
c (k) = (uk , ) (p) = (vp , ) = d3 r eipr/~ (r)
2~

the basic relation in Fourier analysis Z


1
d3 k eiku = 3 (u) (1.117)
(2)3

can be used by assigning k zp and u (r r ) to show that


Z Z
 1 p 
d3 p vp r vp (r) = 3 d3 p ei ~ (rr ) = 3 r r (1.118)
(2~)
1.31. SOME SPECIFIC CONTINUOUS BASES 69

by comparing it with Eq. (1.113), we see that (1.118) expresses the completeness relation for the continuous basis
{vp } in the space of functions that are square-integrable in the whole physical space. The orthonormality relation
can also be obtained from the property (1.117) but with the assignments k zr and u p p
Z
 1 r  
vp , vp = 3 d3 r ei ~ (pp ) = 3 p p = 3 p p (1.119)
(2~)
by using p = p in Eq. (1.119) it is clear that kvp k2 = (vp , vp ) is divergent. Thus, the plane waves are not square-
integrable in the whole space. Therefore, the elements of this continuous basis do not belong to the Hilbert space
under study.

1.31.2. Delta functions


We shall use a continuous basis of highly improper functions defined by
r0 (r) (r r0 ) (1.120)
{r0 (r)} represents the set of delta functions centered at each of the points r0 of the whole space. These functions
are not square-integrable so {r0 (r)} / . Nevertheless, the following relations are valid for functions that belong
to
Z
(r) = d3 r0 (r0 ) (r r0 )
Z
(r0 ) = d3 r (r) (r0 r)

rewritten them appropiately we have


Z
(r) = d3 r0 (r0 ) r0 (r) (1.121)
Z
(r0 ) = d3 r r0 (r) (r) = (r0 , ) (1.122)

Eq. (1.121) gives (r) as a continuous linear combination of the set {r0 }, where (r0 ) are the fourier
transforms. On the other hand, (1.122) indicates that the fourier transforms are evaluated as usual.
By using the properties of the Dirac delta function, it is possible to prove that the set {r0 } accomplishes
orthonormality and completeness relations
  Z  
r0 , r0 = d3 r (r r0 ) r r0 = r0 r0

and Z Z
3
  
d r0 r0 r
r0 (r) = d3 r0 r r0 (r r0 ) = r r

note that the non-physical functions that constitute a continuous basis can usually be seen as limits in which one
or more parameters of a physically realizable state are taken at extreme (non-physical) values.
As an example the Dirac function can be taken as the limit of gaussians given by Eq. (1.109)
n 2 2
fn (x a) = en (xa)

for each value of n these functions are square integrable, continuous, and derivable, they could describe a physical
system. Notwithstanding, by taking n , the functions are no longer square-integrable and lose all properties
of well-behavior.
Concerning plane waves, physical states (in both classical and quantum mechanics) consists of a superposition of
plane waves with a finite width spectrum of frecuencies , by taking the limit 0 we obtain a monochromatic
(non-physical) wave, corresponding to a single plane wave.
70 CAPITULO 1. LINEAR OR VECTOR SPACES

1.32. Tensor products of vector spaces, definition and properties


Let V1 and V2 be two vector spaces of dimension n1 and n2 . Vectors and operators on each of them will be
denoted by labels (1) and (2) respectively.

Definition 1.34 The vector space V is called the tensor product of V1 and V2

V V1 V2

if there is associated with each pair of vectors x (1) V1 and y (2) V2 a vector in V denoted by x (1) y (2) and
called the tensor product of x (1) and y (2), and in which this correspondence satisfies the following conditions:
(a) It is linear with respect to multiplication by a scalar

[x (1)] y (2) = [x (1) y (2)] ; x (1) [y (2)] = [x (1) y (2)] (1.123)

(b) It is distributive with respect to addition


 
x (1) + x (1) y (2) = x (1) y (2) + x (1) y (2)
 
x (1) y (2) + y (2) = x (1) y (2) + x (1) y (2) (1.124)

(c) When a basis is chosen in each space, say {ui (1)} in V1 and {vj (2)} in V2 , the set of vectors ui (1) vj (2)
constitutes a basis in V . If n1 and n2 are finite, the dimension of the tensor product space V is n1 n2 .

An arbitrary couple of vectors x (1), y (2) can be written in terms of the bases {ui (1)} and {vj (2)} respectively,
in the form X X
x (1) = ai ui (1) ; y (2) = bj vj (2)
i j

Using Eqs. (1.123, 1.124) we see that the expansion of the tensor product is given by
XX
x (1) y (2) = ai bj ui (1) vj (2)
i j

so that the components of the tensor product of two vectors are the products of the components of the two vectors of
the product. It is clear that the tensor product is commutative i.e. V1 V2 = V2 V1 and x (1)y (2) = y (2)x (1)
On the other hand, it is important to emphasize that there exist in V some vectors that cannot be written
as tensor products of a vector in V1 with a vector in V2 . Nevertheless, since {ui (1) vj (2)} is a basis in V any
vector in V can be expanded in it
XX
= cij ui (1) vj (2) (1.125)
i j

in other words, given a set of n1 n2 coefficients of the form cij it is not always possible to write them as products
of the form ai bj of n1 numbers ai and n2 numbers bj , we cannot find always a couple of vectors in V1 and V2 such
that = x (1) y (2).

1.32.1. Scalar products in tensor product spaces


If there are inner products defined in the spaces V1 and V2 we can define an inner product in the tensor product
space V . For a couple of vectors in V of the form x (1) y (2) the inner product can be written as
  
x (1) y (2) , x (1) y (2) = x (1) , x (1) (1) y (2) , y (2) (2)
1.32. TENSOR PRODUCTS OF VECTOR SPACES, DEFINITION AND PROPERTIES 71

where the symbols (, )(1) and (, )(2) denote the inner product of each of the spaces of the product. From this, we can
see that if the bases {ui (1)} and {vj (2)} are orthonormal in V1 and V2 respectively, then the basis {ui (1) vj (2)}
also is
(ui (1) vj (2) , uk (1) vm (2)) = (ui (1) , uk (1))(1) (vj (2) , vm (2))(2) = ik jm
Now, for an arbitrary vector in V , we use the expansion (1.125) and the basic properties of the inner product

XX XX
(, ) = cij ui (1) vj (2) , bkm uk (1) vm (2)
i j k m
X X X X
= cij bkm (ui (1) vj (2) , uk (1) vm (2)) = cij bkm ik jm
i,j k,m i,j k,m
X
(, ) = cij bij
i,j

it is easy to show that with these definitions the new product accomplishes the axioms of an inner product.

1.32.2. Tensor product of operators


e (1) acting on V
Consider a linear transformation A (1) defined in V1 , we associate with it a linear operator A
e
as follows: when A (1) is applied to a tensor of the type x (1) y (2) we define
e (1) [x (1) y (2)] = [A (1) x (1)] y (2)
A

when the operator is applied to an arbitrary vector in V , this definition is easily extended because of the linearity
of the transformation
XX XX
Ae (1) = A e (1) cij ui (1) vj (2) = e (1) [ui (1) vj (2)]
cij A
i j i j
XX
e (1) =
A cij [A (1) ui (1)] vj (2) (1.126)
i j

e (2) of a linear transformation in V2 is obtained in a similar way


the extension B
XX
Be (2) = cij ui (1) [B (2) vj (2)]
i j

finally, if we consider two operators A (1) , B (2) defined in V1 and V2 respectively, we can define their tensor
product A (1) B (2) as
XX
[A (1) B (2)] = cij [A (1) ui (1)] [B (2) vj (2)] (1.127)
i j

it is easy to show that A (1) B (2) is also a linear operator. From Eqs. (1.126, 1.127) we can realize that the
extension of the operator A (1) on V1 to an operator A e (1) on V can be seen as the tensor product of A (1) with
the identity operator I (2) on V2 . A similar situation occurs with the extension Be (2)

e (1) = A (1) I (2) ; B


A e (2) = I (1) B (2) (1.128)
e (1) B
Now let us put the operators A (1)B (2) and A e (2) to act on an arbitrary element of a basis {ui (1) vj (2)}
of V

[A (1) B (2)] ui (1) vj (2) = [A (1) ui (1)] [B (2) vj (2)]


h i
e (1) B
A e (2) ui (1) vj (2) = Ae (1) {ui (1) [B (2) vj (2)]} = [A (1) ui (1)] [B (2) vj (2)]
72 CAPITULO 1. LINEAR OR VECTOR SPACES

e (1) and B
therefore, the tensor product A (1) B (2) coincides with the ordinary product of two operators A e (2)
on V
e (1) B
A (1) B (2) = A e (2)

additionally, it can be shown that operators of the form A e (1) and Be (2) commute in V . To see it, we put their
products in both orders to act on an arbitrary vector of a basis {ui (1) vj (2)} of V
h i
e (1) B
A e (2) ui (1) vj (2) = A
e (1) {ui (1) [B (2) vj (2)]} = [A (1) ui (1)] [B (2) vj (2)]
h i
e (2) A
B e (1) ui (1) vj (2) = B
e (2) {[A (1) ui (1)] vj (2)} = [A (1) ui (1)] [B (2) vj (2)]

therefore we have h i
e (1) , B
A e (2) = 0 or A (1) B (2) = B (2) A (1)

an important special case of linear operators are the projectors, as any other linear operator, the projector in V is
the tensor product of the projectors in V1 and V2 . Let M1 and N1 be the range and null space of a projector in
V1 and M2 , N2 the range and null space of a projector in V2

V1 = M1 N1 ; x (1) = xM (1) + xN (1) ; xM (1) M1 , xN (1) N1 ; P1 (x (1)) = xM (1)


V2 = M2 N2 ; y (2) = yM (2) + yN (2) ; yM (2) M2 , yN (2) N2 ; P2 (y (2)) = yM (2)

(P1 P2 ) (x (1) y (2)) = [P1 x (1)] [P2 y (2)] = xM (1) yM (2)

for an arbitrary vector we have


XX XX
(P1 P2 ) = (P1 P2 ) cij ui (1) vj (2) = cij [P1 ui (1)] [P2 vj (2)]
i j i j
XX
(P1 P2 ) = cij ui,M (1) vj,M (2)
i j

finally, as in the case of vectors, there exists some operators on V that cannot be written as tensor products of
the form A (1) B (2).

1.32.3. The eigenvalue problem in tensor product spaces


Let us assume that we have solved the eigenvalue problem for an operator A (1) of V1 . We want to seek for
information concerning the eigenvalue problem for the extension of this operator to the tensor product space V .
For simplicity, we shall assume a discrete spectrum

A (1) xin (1) = an xin (1) ; i = 1, 2, . . . , gn ; xin (1) V1

where gn is the degeneration associated with an . We want to solve the eigenvalue problem for the extension of
this operator in V = V1 V2
e (1) = ; V1 V2
A

from the definition of such an extension, we see that a vector of the form xin (1) y (2) for any y (2) V2 is an
e (1) with eigenvalue an
eigenvector of A
   
e (1) xi (1) y (2) = A (1) xi (1) y (2) = an xi (1) y (2)
A n n n
 i   i 
e
A (1) xn (1) y (2) = an xn (1) y (2)
1.32. TENSOR PRODUCTS OF VECTOR SPACES, DEFINITION AND PROPERTIES 73

it is natural to ask whether any eigenvector of A e (1) can be generated in this way. We shall see that it is true if

A (1) is an observable in V1 . Assuming it, the set of orthonormal eigenvectors xin (1) forms a basis in V1 . If we
now take an orthonormal basis {ym (2)} in V2 , then the set of vectors
 i,m  i
n xn (1) ym (2)
n o
forms an orthonormal basis in V . It is clear that the set ni,m consists of eigenvectors of A e (1) with eigenvalues
an , and since they are a basis, a complete orthonormal set of eigenvectors of A e (1) have been generated with the
procedure explained above. This in turn means that if A (1) is an observable in V1 , its extension A e (1) is also an
e
observable in V . Further, the spectrum of A (1) coincides with the spectrum of A (1). Notwithstanding, it worths
to say that if N2 is the dimension of V2 , if an is gn fold degenerate in V1 , it will be gn N2 degenerate in V . This is
because for a given eigenvector xin (1) in V1 , there are N2 eigenvectors ni,m xin (1) ym (2) since m = 1, . . . , N2 .
We know that each eigenvalue an of A (1) in V1 defines an eigensubspace V1,an in V1 with gn dimension. The
corresponding eigensubspace generated by an in V is a N2 gn subspace Van . The projector onto V1,an is written
by

V1 = V1,an V1,an
; x (1) = xan (1) + x
an (1) ; xan (1) V1,an , xan (1) V1,an
P1an (x (1)) = xan (1)

and its extension to V is defined as


   
Pe1an P1an I2 ; Pe1an ni,m Pe1an xin (1) ym (2) = P1an xin (1) ym (2)
Pe1an ni,m = xan (1) ym (2)

Now assume that we have a sum of operators of both spaces


e (1) + B
C=A e (2)

where A (1) and B (2) are observables in their corresponding spaces, with the following eigenvalues and eigenvectors

A (1) xin (1) = an xin (1) ; i = 1, 2, . . . , gn ; xin (1) V1


k k k
B (2) ym (2) = bm ym (2) ; k = 1, 2, . . . , hm ; ym (2) V2

we have seen that A e (1) and B


e (2) commute, so they should have a commom basis of eigenvectors in V . This basis
is precisely, the tensor product of their eigenvectors
h i h i
e (1) xin (1) ym
A k
(2) = an xin (1) ym
k
(2)
h i h i
Be (2) xin (1) ym
k
(2) = bm xin (1) ym
k
(2)

and they are also eigenvectors of C = Ae (1) + Be (2)


h ih i h i
e (1) + B
A e (2) xi (1) yk (2) = (an + bm ) xi (1) yk (2)
n m n m
h i h i
C xin (1) ymk
(2) = cnm xin (1) ym
k
(2) ; cnm = an + bm

e (1) + B
So that if C = A e (2) the eigenvalues of C are the sums of the eigenvalues of A
e (1) and B
e (2). Besides, we
can form a basis of eigenvectors of C by taking the tensor product of the basis of A (1) and B (2).
It is important to emphasize that even if an and bm are non-degenerate, it is posible that cnm be dege-
nerate. Assume that an and bm are non-degenerate, and for a given cnm let us define all the sets of pairs
74 CAPITULO 1. LINEAR OR VECTOR SPACES

{(nj , mj ) : j = 1, . . . , q} such that anj + bmj = cnm . In that case, the eigenvalue cnm is qfold degenerate, and
every eigenvector corresponding to this eigenvalue can be written as
q
X  
cj xnj (1) ymj (2)
j=1

in this case there are eigenvectors of C that are not tensor products.

1.32.4. Complete sets of commuting observables in tensor product spaces


For simplicity assume that A (1) forms a C.S.C.O. by itself in V1 , while {B (2) , C (2)} constitute a C.S.C.O.
in V2 . We shall show that by gathering the operators of the C.S.C.O. in V1 with the operators of C.S.C.O. in V2 ,
we form a C.S.C.O. in V with their corresponding extensions.
Since A (1) is a C.S.C.O. in V1 , all its eigenvalues are non-degenerate in V1

A (1) xn (1) = an x (1)

the ket x (1) is then unique within a constant factor. In V2 the set of two operators {B (2) , C (2)} defines commom
eigenvectors {ymp (2)} that are unique in V2 within constant factors

B (2) ymp (2) = bm ymp (2) ; C (2) ymp (2) = cp ymp (2)

In V , the eigenvalues are N2 fold degenerate. Similarly, there are N1 linearly independent eigenvectors of B (2)
and C (2) associated with two given eigenvalues of the form (bm , cp ). However, the eigenvectors that are common
to the three commuting observables A e (1) , B
e (2) , C
e (2) are unique within constant factors

e (1) [xn (1) ymp (2)] = an [x (1) ymp (2)]


A
e (2) [xn (1) ymp (2)] = bm [x (1) ymp (2)]
B
e (2) [xn (1) ymp (2)] = cp [x (1) ymp (2)]
C

since {xn (1)} and {ymp (2)} were bases in V1 and V2 , we see n
that {xn (1) ymp (2)}
o is a basis in V constituted
e e e
by commom eigenvectors of the three operators. Thus the set A (1) , B (2) , C (2) is a C.S.C.O. in V .

1.33. Restrictions of an operator to a subspace


It is useful in many applications to be able to restrict an operator to a certain subspace Vq of a given vector
space V . Let us assume

V = V1 . . . Vq . . .
x = x1 + . . . + xq + . . . ; xi Vi

Projectors, which are the natural operators to restrict a vector by extracting the components that are ortho-
normal to a given subspace, will be also the natural operators to rectrict operators. Let Pq be the projector onto
a subspace Vq . A priori, we could think in defining a restriction by restricting the vector in which the operator
will act on. This is done by substracting all components orthogonal to the subspace Vq by applying a projection,
and then let the operator A act on this projection so we have

A = APq Ax = APq x = Axq


1.34. FUNCTIONS OF OPERATORS 75

in this case we have restricted the domain of A appropriately, but once the operator A is applied, the image could
be outside of the subspace too. Hence, the projector must be applied again after the application of A in order to
b of the operator A to the subspace Vq as
restrict the image appropriately. We then define the restriction A

bq Pq A = Pq APq
A (1.129)

so that both the domain and the range are restricted to Vq . It can be easily checked that the matrix representation
of Abq is reduced to a submatrix in the Vq space. Let qk be the dimension of Vq . Let us use an ordered basis such
that the first qk terms expand Vq . Using such a basis we have
   
bq
A = bq uj = (ui , Pq APq uj ) = (Pq ui , APq uj )
ui , A
ij

(ui , Auj ) if i, j qk
(Pq ui , APq uj ) =
0 if i > qk and/or j > qk

observe that the submatrix associated with i, j qk (i.e. associated with the Vq subspace), remains the same with
respect to the non-restricted matrix. But the elements outside of such a submatrix are zeros, showing that the
new operator only acts in Vq .
It is important to emphasize that the restriction A bq of an operator A differs from A itself, because we are
changing the mapping. In the special case in which the subspace Vq is invariant under A, the range of A is
automatically restricted into Vq when the domain is restricted to Vq . Thus in that case the restriction can be
defined with only one projector operator
Abq APq
bq is identical to the mapping described by A when
so when Vq is invariant under A the mapping described by A
such mappings are restricted to the domain Vq .

1.34. Functions of operators


Let A be an arbitrary operator. The operator An with n being a non-negative integer is easily defined as

A0 I , An = AA A (n times)

similarly for negative integers a consistent definition is


n
An A1 with AA1 = A1 A = I

it is useful to define functions of operators. Assume that a function F can be expanded in certain domain in the
following way

X
F (z) = fn z n (1.130)
n=0

by definition, the function F (A) of the operator A corresponds to an expansion of the form (1.130) with the same
coefficients fn

X
F (A) = fn An (1.131)
n=0

for instance, the function eA of the operator A reads



X
A An A2 A3
e = =I +A+ + + ...
n=0
n! 2! 3!
76 CAPITULO 1. LINEAR OR VECTOR SPACES

the convergence of series of the type (1.131) depends on the eigenvalues of A and the radius of convergence of the
function (1.130). We shall not treat this topic in detail.
If F (z) is a real function the coefficients fn are real. On the other hand, if A is hermitian then F (A) also is,
as can be seen from (1.131). Owing to the analogy between real numbers and hermitian operators this relation is
quite expected. Now, assume that xi,k is an eigenvector of A with eigenvalue ai we then have

Axi,k = ai xi,k An xi,k = ani xi,k

and applying the eigenvector in Eq. (1.131) we find



X
X
F (A) xi,k = fn ani xi,k = xi,k fn ani
n=0 n=0
F (A) xi,k = F (ai ) xi,k

so that if xi,k is an eigenvector of A with eigenvalue ai , then xi,k is also eigenvector of F (A) with eigenvalue
F (ai ).
On the other hand, if the operator is diagonalizable (this is the case for observables), we can find a basis in
which the matrix representative of A is diagonal with the eigenvalues ai in the diagonal. In such a basis, the
operator F (A) has also a diagonal representation with elements F (ai ) in the diagonal. For example let z be an
operator that in certain basis has the matrix representation
 
1 0
z =
0 1

in the same basis we have    


z e1 0 e 0
e = =
0 e1 0 1/e
if A and B do not commute, we have that in general the operators F (A) and F (B) do not commute either. For
instance

X
An X B m X X An B m
eA eB = = (1.132)
n! m! n! m!
n=0 m=0 n=0 m=0
X
m X X X
B An B m An
eB eA = = (1.133)
m=0
m! n=0
n! m=0 n=0
m! n!

X (A + B)n
eA+B = (1.134)
n!
n=0

these three expressions are in general different from each other unless [A, B] = 0. We see by direct inspection
of Eqs. (1.132, 1.133, 1.134) that if A and B commute, then F (A) and F (B) also do. Notice that when A, B
commute they can be diagonalized simultaneously and so F (A) and F (B), which is another way to see that if
[A, B] = 0 then [F (A) , F (B)] = 0.

1.34.1. Some commutators involving functions of operators


Theorem 1.70 Suppose we have two operators A and B such that B commutes with their commutator, that is

[B, C] = 0 ; C [A, B] (1.135)

if F (B) is a function of the operator B then we have

[A, F (B)] = [A, B] F (B) (1.136)


1.35. DIFFERENTIATION OF OPERATORS 77

where F (B) is the derivative of F (B) with respect to B defined as



X
X
F (B) = fn B n F (B) nfn B n1 (1.137)
n=0 n=0

Proof : The commutator [A, F (B)] is given by


"
#
X X
n
[A, F (B)] = A, fn B = fn [A, B n ] (1.138)
n=0 n=0

we show by induction that


[A, B n ] = [A, B] nB n1 (1.139)
for n = 0 we have B n = I and both sides clearly vanish. Now let us assume that it works for n and show that it
is satisfied by n + 1. Applying Eq. (1.41), and taking into account Eqs. (1.139, 1.135) we have
 
A, B n+1 = [A, BB n ] = [A, B] B n + B [A, B n ] = [A, B] BB n1 + B [A, B] nB n1
= CBB n1 + BCnB n1 = CB n + nCBB n1 = C (n + 1) B n
 
A, B n+1 = [A, B] (n + 1) B n

which shows the validity of Eq. (1.139). Replacing Eq. (1.139) in Eq. (1.138), we find

X
[A, F (B)] = [A, B] fn nB n1 = [A, B] F (B)
n=0

Corollary 1.71 It is straightforward to show that if both operators commute with their commutator we see that
equations
[A, F (B)] = [A, B] F (B) ; [G (A) , B] = [A, B] G (B) (1.140)
are satisfied simultaneously. A very important case in Physics occurs when [A, B] = I. In that case, we have

[A, B] = I [A, F (B)] = F (B) ; [G (A) , B] = G (B) (1.141)

1.35. Differentiation of operators


Let A (z) an operator that depends on the arbitrary variable z. We define the derivative of A (z) with respect
to z as
dA A (z + z) A (z)
= lm (1.142)
dz z0 z
provided that this limit exists. Operating A on an arbitrary vector x and using a basis {ui } independent of z, we
have
A (z) x = A (z) xi ui = xi A (z) ui = xi uj Aji (z) (1.143)
since dA/dz is another operator, it makes sense to talk about its matrix representation
 
dA (z) dA (z) dA (z) dA (z)
x= xi ui = xi ui = xi uj (1.144)
dz dz dz dz ji

Applying the derivative on both extremes of Eq. (1.143), and taking into account that the basis {ui } is independent
of z, we have
d dAji (z)
A (z) x = xi uj (1.145)
dz dz
78 CAPITULO 1. LINEAR OR VECTOR SPACES

comparing Eqs. (1.144, 1.145) we obtain  


dA (z) dAji (z)
=
dz ji dz

so the matrix representative of the derivative of A is obtained by taking the derivative of each of its elements12 .
The differentiation rules are similar to the ones in ordinary calculus

d dF dG d dF dG
(F + G) = + ; (F G) = G+F (1.146)
dz dz dz dz dt dt
except that care must be taken with the order of appearance for the operators involved. Let us examine the second
of this equations, applying F G to an arbitrary vector x and using a basis {ui } we have

(F G) x = xi uj (F G)ji

taking the derivative on both sides we have


     
d (F G) d d d d
= (F G)ji = [Fjk Gki ] = Fjk Gki + Fjk Gki
dz ji dz dz dz dz
"    #
dF dG
= Gki + Fjk
dz jk dz ki

in matrix form we see that


d (FG) dF dG
= G+F
dz dz dz
since there is a one-to-one isomorphism from the operators onto the matrices, we see that this relation is also valid
for the operators.

1.35.1. Some useful formulas


Applying the derivation rules we can develop some identities for functions of operators. Let us calculate the
derivative of the operator eAt . By definition we have

X (At)n
eAt =
n!
n=0

differentiating the series term by term we have

X X X
d At An An (At)n1
e = ntn1 =0+ ntn1 =A
dt n! n! (n 1)!
n=0 n=1 n=1
" # " #
d At X (At)k X (At)k
e = A = A
dt k! k!
k=0 k=0

where we have used the assignment k = n 1. The series in the brackets is eAt once again, so we have

d At
e = AeAt = eAt A (1.147)
dt
12
Care must be taken to distinguish between the derivative in Eq. (1.137) and the derivative in Eq. (1.142). In Eq. (1.137) the
derivative is taken with respect to B as the variable of derivation. On the other hand, in Eq. (1.142) the variable to derive with, is
a parameter z from which our matrix depend on.
1.36. STATE SPACE AND DIRAC NOTATION 79

in this case eAt and A commutes because only one operator is involved. Suppose that we want to differentiate
eAt eBt . Applying Eqs. (1.146, 1.147) we have
 
d  At Bt  d eAt Bt d eBt
e e = e + eAt = AeAt eBt + eAt BeBt
dt dt dt
the operator A can pass over eAt if desired but not over eBt unless that A and B commute. Similarly, B can pass
over eBt but not over eAt .
However, even if a single operator appears we should be careful with the order sometimes. For instance, if A (t)
is an arbitrary function of time then
d A(t) dA A(t)
e 6= e (1.148)
dt dt
it could be checked that A (t) and dA (t) /dt must commute with each other for the equality to be valid.
Consider again two operators that commute with their commutator, we shall show that
1
[A, [A, B]] = [B, [A, B]] = 0 eA eB = eA+B e 2 [A,B] (Glauber s f ormula) (1.149)

let define F (t) with t real as

dF (t)  
F (t) eAt eBt ; = AeAt eBt + eAt BeBt = A eAt eBt + eAt BeAt eAt eBt
dt
dF (t)  At At

= A + e Be F (t) (1.150)
dt
since A, B commute with their commutator, we can apply Eq. (1.140), so that
 At 
e , B = t [A, B] eAt eAt B = BeAt + t [A, B] eAt
eAt BeAt = B + t [A, B]

substituting this expression in Eq. (1.150) we get

dF (t)
= {A + B + t [A, B]} F (t) (1.151)
dt
by hypothesis, A + B commutes with [A, B], so that the differential equation (1.151) can be integrated as if A + B
and [A, B] were numbers
1 2
F (t) = F (0) e(A+B)t+ 2 [A,B]t
setting t = 0 we see that F (0) = I, thus we obtain
1 2
F (t) = e(A+B)t+ 2 [A,B]t

setting t = 1 and taking into account again that A + B commutes with [A, B], we obtain (1.149). It is necessary
to emphasize that this equation is valid only if A and B commutes with [A, B].

1.36. State space and Dirac notation


We have defined the space of Physical states as the one constituted by functions (r) square-integrable
in a given volume. The space with these characteristics is denoted by L2 , but since in general with add some
requirements to these functions, we actually work in a subspace L2 . On the other hand, we have seen that
several bases can be constructed to represent those functions. Therefore, the Physical system will be described
by either the functions (r) or by the sete of its coordinates in a given representation. When the representation
80 CAPITULO 1. LINEAR OR VECTOR SPACES

is discrete we have a numerable set of coordinates (Fourier coefficients) while in the case of continuous bases,
the set of coordinates is continuous as well (Fourier transforms). In particular, the continuous basis denoted as
r0 (r) shows that the function (r) can be considered as a coordiante system as well, because in this basis, each
coordinate is defined as (r0 ) i.e. the value of at each fixed point r0 of the volume13 .
We have now a situation similar to the one obtained in R3 , we can define a vector by a triple of coordinates in
any basis defined by a set of coordinate axes. However, vectors in R3 can be defined geometrically (intrinsically),
and its algebra can be performed in a coordinate-free form.
In the same way, we wish to define our state vector in a coordinate free (or intrinsic) way. The abstract space
of state vectors of a particle is denoted as Er which should be isometrically isomorphic with . We should also
define the notation and algebra on the Er space.
Though we initially start with Er as identical to , we shall see that it permits a generalization of the formalism
when the states in do not contain all the Physical information of the system, as is the case when spin degrees of
freedom are introduced in the formalism. Hence, the algebra that we shall develop now will be valid when these
generalizations are carried out. In developing this algebra we are going to present the Dirac notation which is
useful in practical calculations

1.37. Dirac notation


We are going to establish a one-to-one correspondence between the states of and the states of Er , though
the latter will be extended later. Thus to every square-integrable function (r) in we make to correspond an
abstract vector in Er in the form
(r) |i
an abstract vector in the notation |i will be called a ket. Notice that no rdependence appears in |i. Indeed,
(r) is interpreted in this framework as a representation of |i in which each (r) is a coordinate in the basis
given by r (r ). Therefore, r plays the role of index (three continuous indices) for the particular basis used.
The space of states of a particle in one dimension is denoted as Ex , while in three dimensions is Er .

1.37.1. Elements of the dual or conjugate space Er


In section 1.9.2 we defined a one-to-one correspondence between vectors (kets) of a Hilbert space and functionals
(bras) in the conjugate (dual) space in the following way (see Eqs. 1.29, 1.30)

|i f|i ; f|i (|i) (|i , |i)

Dirac notation designates f|i as h| which is called a bra. The correspondence above and the inner product will
be written as
|i Er h| Er ; h| (|i) (|i , |i)
it induces a natural notation for the inner product

((|i , |i)) h| i

this is also called a bracket (i.e. the union of a bra with a ket). Let us now write the properties developed in
section 1.9.2 Eq. (1.31), with this new notation

f|i+|i = f|i + f|i


|i + |i Er h| + h| Er
13
Notice that this is a simple way of defining an scalar field. A scalar field is completely delimited by defining its value at each point
of the space in which the field is defined (at a given time). In this case the number of coordinates is cleraly the number of points in
our space.
1.37. DIRAC NOTATION 81

which is consistent with the properties of the inner product

( |i + |i , |i) = ( h| + h|) |i
h + | i = h| i + h| i

since the functionals (bras) are linear by definition, a linear combination of kets gives

f|i ( |i + |i) f|i (|i) + f|i (|i)

in Dirac notation it reads


h| + i = h| i + h| i
from these facts it is clear that for any scalar

|i = |i ; h| = h| (1.152)

now since

(|i , |i) = (|i , |i)


h| i = h| i

1.37.2. The correspondence between bras and kets with hyperbases


We have seen that hyperbases are sets of elements from which any element of the space can be expanded despite
those elements do not belong to the space under study. On the other, hand we have seen that the correspondence
between vectors and functionals (kets and bras) is one-to-one and onto. However, when hyperbases are used we
shall see that some linear functionals (bras) can be well-defined while there is not a well-defined corresponding
vector (ket)
()
Assume for example that we have a ket in given by a sufficiently regular function x0 (x) such that
Z
dx x()
0
(x) = 1

E D
() ()
with the form of a peak of height 1/ and width centered at x = x0 . If 6= 0 then x0 Ex . Let x0 Ex
be its associated bra. The idea is to have a function that conveeges to the Dirac delta function when 0. For
each |i Ex we have that
  Z
() ()
hx0 |i = x0 , = dx x()
0
(x) (x) (1.153)

now we let to approach zero, and we find that

lm x()
0
/ x

0

since the square of its norm


D tend to 1/ and diverges. Nevertheless, in the limit 0 the expression (1.153) is
()
still well-defined, so that x0 is still associated with a functional that can be applied to any element of the state
space, we shall denote this bra as hx0 | and this functional associates with each vector |i Ex the value (x0 )
taken on by the associated wave function in x at the point x0
D

lm x()0
= hx0 | Ex if |i Ex hx0 | i = (x0 )
0

then the bra hx0 | Ex exists but there is not a ket associated with it in the hyperbasis.
82 CAPITULO 1. LINEAR OR VECTOR SPACES

This dissymetry is associated with the use of a hyperbasis. The elements of the hyperbasis do not belong
to x and so has no elements associated in Ex either. However, the inner product of it with any element of x
is well-defined and it permits to associate a bra belonging to Ex . Indeed, by the theory of Hilbert spaces the
corresponding ket must exists, what really happens is that we cannot construct it as an element of our hyperbasis,
this is perfectly undestandable since such elements are out of our Hilbert space.
Notice that we have indeed extended the concept of inner product and we have applied it to elements out of
our Hilbert space. For practical reasons it is usual to associate the bras hx0 | Ex to the generalized ket |x0 i
that are not physical states but are advantageous from the practical point of view.
Another example is the continuous basis consisting of plane waves truncated outside an interval of width L
1 L L
vp(L)
0
(x) = eip0 x/~ ; x
2~ 2 2
(L)
with the function vp0 (x) going rapidly
Eto zero outside of that interval, but keeping continuity and differentiability.
(L)
The ket associated is denoted as vp0
E
(L)
vp(L)
0
(x) x vp0 Ex

the square of the norm is L/2~, diverges if L . Therefore


E

lm vp(L)
0

/ Ex
L
D E
(L) (L)
now we consider the limit of the bra vp0 associated with vp0 and applied to an arbitrary vector |i Ex

D   Z L/2
(L) (L) 1
vp0 i = vp0 , dx eip0 x/~
2~ L/2

in the limit L we find (p0 ) i.e. the Fourier transform of (x) evaluated at p = p0 . From which we see that
the inner product converges and is well-defined
D

lm vp(L)
0
hvp0 | Ex
L
E
(L)
but it does not correspond to the ket associated with the limit of kets of the form vp0 .
E
()
We could take the results above with the following point of view, the ket |x0 i means the ket given by x0
with much smaller than any other length involved in the problem, so we are really working in Ex . The results
obtained at theEend depends very little on as long as it is much smaller than any other length in the problem.
()
Certainly, x0 does not form an orthonormal basis, and do not satisfy a closure realtion with 6= 0, but it
aproaches the orthonormality and closure conditions as becomes very small.
The introduction of generalized kets, will ensure that we balance bras and kets in the limits concerned
above. Generalized kets do not have finite norm, but they can acquire a finite inner product with kets of our space
of states.

1.38. The action of linear operators in Dirac notation


Linear operators are characterized easily in Dirac notation

= A |i ; |i , Ex
A ( |i + |i) = A |i + A |i
1.38. THE ACTION OF LINEAR OPERATORS IN DIRAC NOTATION 83

the product of operators writes


AB |i = A (B |i)
it is also important to calculate the inner product between |i and | i = A |i in the form

|i , = (|i , A |i) = h| (A |i)

this is usually denoted simply as


h| (A |i) h| A |i

1.38.1. Projectors
The simplest of all projectors are the ones in which the range are one dimensional subspaces of the Hilbert
space. Let {|i} be the one dimensional space spanned by the single non-zero ket |i. The projector P|i takes
an arbitrary ket |i Ex and maps it into {|i} i.e.

P|i |i = |i ; h| i

in Dirac notation it could be written as

P|i |i h| ; P|i |i = (|i h|) |i = |i h| i = |i (1.154)

the most important property of a projector is the idempotence so that


2
P|i (|i h|) (|i h|) = |i h| i h| = P|i
h| i = 1

so the definition of P|i Eq. (1.154) as a projector is consistent only if |i is normalized.


Now we can write the projector onto a subspace of more than one dimension. If nj is the dimension of the
(n )
subspace Mj j Ex we can define the projector from a complete orthonormal set
 i
uj ; i = 1, .., nj (1.155)

that spans such a subspace

(n1 ) (nj )
Ex = M1 . . . Mj ...
x = x1 + . . . + xj + . . .
n1 nj
X (1) i
X (j)
x = i u1 + . . . + i uij + . . .
i=1 i=1
 
(n)
k ukn , x

nj
X (j)
PMj x = xj = i uij
i=1
nj
X 
PMj x = uij , x uij
i=1

in Dirac notation it is
nj nj
X i X i
i 
PMj |xi = i
huj |xi uj = uj uj |xi
i=1 i=1
84 CAPITULO 1. LINEAR OR VECTOR SPACES

thus a direct notation for the projector is


nj
X i
i
PMj uj uj (1.156)
i=1

(nj )
it is clear that this is a projector as long as Eq. (1.155) defines an orthonormal set that spans Mj of dimension
nj .
! nj !
nj
X i
i X E D nj nj
X X ED
2
PM = uj uj k
uj k
uj = uij huij ukj
ukj
j
i=1 k=1 i=1 k=1
nj nj D X nj
XX i
i
2
PM = uij ik ukj = uj uj = PM
j j
i=1 k=1 i=1

If we have an observable A, its spectrum of eigenvectors forms a basis and we can construct a complete orthonormal
set. In that case, the spectral theorem (assuming it can be extended to infinite dimension for observables) says that
the identity and the observable A itself can be decomposed by means of the projectors built on each eigensubspace
of the observable, if Mi is the eigensubspace generated by the eigenvalue i of A we have that

Ex = M1 . . . Mi . . .
x = x1 + . . . + xi + . . .
Pi x = xi

in Dirac notation we have


ni E D
X j
Pi = ui uji
j=1

the spectral theorem says that



X ni E D
X
X j
Pi = ui uji = I (1.157)
i=1 i=1 j=1

X X X ni ED

i Pi = i uji uji = A (1.158)
i=1 i=1 j=1

n o
these forms will be applied frequently in quantum mechanics. Notice that Eq. (1.157) is valid if and only if uji
is a complete orthonormal set. Thus the decomposition of the identity in projectors is usually taken as the closure
relation for the basis (or hyperbasis) in which we are working.
It is also usual to work with a more general type of projector of the form

P = |i h| (1.159)

applying an arbitrary vector on it we find

|i h| i = |i ; h| i

this is a projector on the one dimensional subspace {|i}. This operator is idempotent only if h| is normal,
however it defines a non-orthogonal projection, since we shall see later that this operator is not self-adjoint or
hermitian.
1.39. HERMITIAN CONJUGATION 85

1.39. Hermitian conjugation


We have defined the action of a linear operator on a ket. We see that it induces a natural action of the operator
on the bra
f|i (A |i) = (|i , A |i) gA|i (|i) |i Ex (1.160)
the definition of the new functional gA|i from a given f|i and a given A is written in Dirac notation as14

A
f|i h| gA|i h| A (1.161)

and Eq. (1.160) is written as


h| (A |i) = (h| A) (|i) (1.162)
so it is written simply as
h| A |i
we should check that g is indeed a functional i.e. that it is a continuous linear mapping of the vectors into the
complex numbers, the basic properties of functionals are reproduced

gA|i+A|i () = gA|i (|i) + gA|i (|i)


gA|i ( |i + |i) = gA|i (|i) + gA|i (|i)

Further, the association (1.161) is linear, to see it, we write a linear combination of bras

h| = 1 h1 | + 2 h2 |

which means that


h| i = 1 h1 | i + 2 h2 | i ; |i Ex
then

(h| A) (|i) = h| (A |i) = (1 h1 | + 2 h2 |) (A |i)


= 1 h1 | (A |i) + 2 h2 | (A |i)
= 1 (h1 | A) |i + 2 (h2 | A) |i

since is arbitrary we find


h| A = 1 h1 | A + 2 h2 | A
notice that is different to start with a linear combination of kets from starting with a linear combination of bras,
because the linear combination of a ket corresponds to a linear combination with conjugate coefficients in the bras
(antilinearity). The order is important, the new bra induced from h| by the operator A is written as h| A and
not in the form A h|. For instance if we apply this relations to a ket the first expression h| A |i is a complex
number, while the second A h| i = A is another operator.

1.39.1. The adjoint operator A in Dirac notation


In Dirac notation we write | i = A |i |Ai. We now want to know what is the corresponding bra
| i h | hA|. In mathematical notation the question is

|i f|i ; = A |i |Ai
?
f| i
14
Notice that gA|i is a new functional induced from f|i and A. Of course gA|i must be associated to some vector i.e. gA|i = f|i
for some |i in our vector space, but it does not concern us. In particular, it is very important to observe that gA|i 6= fA|i .
86 CAPITULO 1. LINEAR OR VECTOR SPACES

to elucidate the answer we apply an arbitrary vector |i to the functional we want to find

fA|i (|i) = f| i (|i) = h |i = hA| i = h| A i

where we have applied property (1.36). Now we apply property (1.162) to get
 E  

f| i (|i) = h| A = h| A (|i)

since this is valid for |i arbitrary we find




f| i = h| A

in Dirac notation we have then



= A |i |Ai


= h| A hA|

notice that as before, the mapping of the dual space into itself is denoted with the operator defined on the right-
hand side and not on the left15 . Further by assigning A = I and taking into account that A = I we have
that


= h| = hI| = h| (I) = h| I
h| = h|

in agreement with Eq. (1.152). On the other hand since




i = h| i

we see that
h| A |i = h| A |i (1.163)
and we remember the most important properties of the adjoint operators (see Eqs. (1.35))
 
A = A , (A + B) = A + B (1.164)
(AB) = B A (1.165)

1.39.2. Mathematical objects and hermitian conjugation in Dirac notation


In general, the order of bras, kets and operators is of major importance, the only objects we can put in any
order are scalars, for instance the mathematical objects

h| B |i ; h| B |i ; h| iB ; |i h| B (1.166)

are all distinct each other, the first and second are complex numbers, while the last two are operators, as can be
verified by applying an arbitrary vector on the right-hand side of these objects. However, expressions like

|i h| B ; |i h| B ; |i h| B ; |i h| B

are all equal, indeed we could think about the multiplication by a scalar as equivalent to the operator I which
commutes with everything.
15
Stricktly speaking, a mapping of the dual (or conjugate) space into itself is carried out by the conjugate operator instead of the
adjoint operator since the latter maps the Hilbert space into itself and not the dual. Notwithstanding, from the practical point of view
this subtlety is irrelevant.
1.39. HERMITIAN CONJUGATION 87

We shall now define a useful operation that we call hermitian conjugation. Our basic objects are kets, bras,
operators and scalars. In general words, hermitian conjugations are mappings induced by the existence of the dual
E of our Hilbert space E.
A ket |i E is naturally mapped into a bra h| E .
A bra h| E is naturally mapped into an element of the conjugate space of E , i.e on E . However, for
Hilbert spaces it can be shown that E = E hence the bra is mapped into its corresponding ket16 .
An operator A in (E) is mapped naturally into the conjugate vector A in (E ) but the inner product
structure permits in turn to define another operator A in (E) from A and from the practical point of view we
regard A and A as identical. Thus the hermitian conjugation in this case will be the mapping A A .
Now finally for scalars. Taking into account that for all practical uses scalars can be considered as operators
in (E) of the form I we see that the natural hermitian conjugation gives I (I) = . Therefore, the
natural conjugation operation is .
We notice now that the hermitian conjugation reverses the order of the objects to which it is applied. We have
seen that (A |i) = h| A , Eq. (1.165) shows that the order of a product of operators is reversed when we apply
the adjointness (or hermitian conjugation) on that product, when scalars are involved the place in which scalars
are located is irrelevant.
By the same token, let us see what is the conjugate of the non orthogonal projection defined in (1.159)

P = |i h| ; P = (|i h|)

applying Eq. (1.163) we find

h| (|i h|) |i = [h| (|i h|) |i] = h| i h| i = h| i h| i


h| (|i h|) |i = h| (|i h|) |i ; |i , |i E

then we have
(|i h|) = |i h| (1.167)
once again, the hermitian conjugation converts each object in its hermitian conjugate and reverse the order of
such objects.
These observations permit to give a rule to obtain the hermitian conjugate of a mathematical object composed
by a juxtaposition of bras, kets, operators and scalars. The rule is (a) replace each object by its hermitian conjugate

|i h| , h| |i , A A ,

and (b) reverse the order of the factors, taking into account that the position of the scalars are not relevant.
The hermitian conjugate of the objects defined in (1.166) are given by

[ h| B |i] = h| B |i = h| B |i = [ h| B |i]
[ h| B |i] = h| B |i = h| B |i = [ h| B |i]
[ h| iB] = B h| i = h| iB = ( h| i) B
[ |i h| B] = B |i h| = B |i h| = B [|i h|]

in the first two expressions the original mathematical objects are scalars and hence the hermitian conjugates
are also scalars (the complex conjugates of the original scalars). In the third expression the original object is
an operator and its hermitian conjugate is also an operator (the adjoint of the original operator). In the fourth
expression, the original object is a product of two operators and a scalar (a scalar times a projection times the
operator B) and the adjoint is the product of the scalar and adjoint of each of the operators in reverse order. In
16
In Banach spaces, the property B = B is called reflexibity and is not in general satisfied. For Hilbert spaces, reflexibity is
automatic from which we can assign the dual element of a dual element to the original vector. This is another satisfying property of
Hilbert spaces, not accomplished by general Banach spaces.
88 CAPITULO 1. LINEAR OR VECTOR SPACES

each case, the scalars are located in the most convenient place since their positions are unimportant. Indeed, we
can put the conjugate of the scalars in any place, for instance in the case
[ |i h| B |i] = [ h| B |i |i] = h| B |i h|
that coincides with the rules when we take into account Eq. (1.163).
It is important to see that according to (1.167) the projectors given by (1.154) are hermitian, thus according
to theorem 1.44, they are orthogonal projectors (i.e. projectors in the sense of a Hilbert space), this in turn says
that the sums in (1.156) are also orthogonal projectors (see theorem 1.50). On the other hand, the projectors
described by (1.159) with |i =6 |i are non-hermitian and consequently they are non-orthogonal projections.

1.40. Theory of representations of E in Dirac notation


For most of our purposes we shall use a representation with respect to orthonormal bases. The particular
problem suggests the particular basis to work with. Most of the developments here are not new but gives us a
very good opportunity of using the Dirac notation and be aware of its great advantages as a tool for calculations.
We are going to describe the representation theory in both discrete and continuous bases.

1.40.1. Orthonormalization and closure relation


In Dirac notation, the orthonormality of a set of discrete {|ui i} or continuous {|w i} orthonormal kets is
expressed by 
hui |uj i = ij ; hw |w i =
we emphasize once again that hw |w i diverges so that |w i does not have a bounded norm and thus it does not
belong to our state space. We call |w i generalized kets because they can be used to expand any ket of our state
space.
A discrete set {ui } or a continuous one {w } constitutes a basis if each ket |i of our state space can be
expanded in a unique way on each of these sets
X Z
|i = ci |ui i ; |i = d c () |w i (1.168)
i

the problem is considerably simplified if we asume that the bases are orthonormal, because in that case we can
extract the coefficients by applying a bra huk | or hw | on both sides of these equations
X Z
huk |i = huk | ci |ui i ; hw |i = hw | d c () |w i
i
X X
huk |i = ci huk | ui i = ci ki = ck
Zi i
Z
 
hw |i =
d c () hw | w i =
d c () = c

from which we obtain the familiar result



ck = huk |i ; c = hw |i (1.169)
replacing the Fourier coefficients (1.169) in the expansions (1.168) we find
!
X X X
|i = hui |i |ui i = |ui i hui |i = |ui i hui | |i
i i i
Z Z Z 
|i = d hw |i |w i = d |w i hw |i = d |w i hw | |i
1.40. THEORY OF REPRESENTATIONS OF E IN DIRAC NOTATION 89

since this is valid for any ket |i E the operators in parenthesis must be the identity operator on E
X Z
P{ui } |ui i hui | = I ; P{w } d |w i hw | = 1 (1.170)
i

we can reverse the steps and show that applying the identity in the form given by Eqs. (1.170) we obtain that any
|i E must be a unique linear combination of {|ui i} or {|w i}
!
X X
|i = I |i = P{ui } |i = |ui i hui | |i = |ui i hui | i
i i
X
|i = ci |ui i ; ci hui | i (1.171)
i

Z  Z
|i = I |i = P{w } |i = d |w i hw | |i = d |w i hw | i
Z
|i = d c () |w i ; c () hw | i

these facts show that Eqs. (1.170) manifest a closure relation in Dirac notation. This is consistent with our
discussion in Sec. 1.38.1 that led to Eq. (1.157), in which we saw that each element of the form |ui i hui | is
a projector operator and Eqs. (1.170) are decompositions of the identity in projectors17 . In other words, the
projector given by the sums in (1.170) has the whole space as its range. In the case of the continuous basis, they
are hyperprojectors but we shall call them projectors from now on.
Hence the representation of a ket |i in a discrete basis is given by the set of its fourier coefficients {hui | i}
it is usually written in matrix form as a column matrix

hu1 | i c1
hu2 | i c2

.
. ..
|i =
. = .

hui | i ci

.. ..
. .

the representation of a ket |i in a continuous basis is given by the set of its fourier transforms {hui | i} it is
usually written in continuous matrix form as a column matrix

.. ..
. .
|i =
hw | i = c ()

.. ..
. .

the representation of a bra can be obtain by the same insertion of the identity as follows
X
h| = h| I = h| P{ui } = h| ui i hui |
i
X
h| = ci hui | ; ci = hui | i
i

17
In Eq. (1.157) the lower index labels the eigenvalue and the upper index indicates the degree of degeneracy of the given eigenvalue.
In Eq. (1.170) the single index runs over all different eigenvectors.
90 CAPITULO 1. LINEAR OR VECTOR SPACES

which can also be obtained by taking the hermitian conjugation of Eq. (1.171) and applying (1.152). For continuous
basis the process is similar
Z
h| = h| I = h| P{w } = d h| w i hw |
Z
h| = d c () hw | ; c () = hw | i

in matrix notation the bra is represented as a one row matrix of the coefficients, in both the discrete and continuous
cases

h| = h| u1 i h| u2 i h| ui i

h| = c1 c2 c3

h| = c ()
by comparing the representation of the corresponding ket |i we see that the representation of the bra is obtained
by transposing the matrix representative of the ket (i.e. converting the column in a row) and taking the conjugate
of each element.
Let us reproduce the inner product expressions (1.107) and (1.114) by insertion of the identity with projectors
X
h| i = h| I |i = h| P{ui } |i = h| ui ihui |i
i
X
h| i = bi ci ; bi = hui | i ; ci = hui |i
i

Z
h| i = h| I |i = h| P{w } |i = d h| w ihw |i
Z
h| i = d b () c () ; b () = hw | i ; c () = hw |i

in matrix form we can see the inner product as the product of a row vector times a column vector

c1
c2

 .. X
h| i = b1 b2 b3

. =
bi ci
ci i

..
.

in continuum form we have




..
. Z

h| i =
b () c () = d b () c ()
..
.

and the norms are obtained with = i.e. bi = ci or b () = c ()

2
X 2 Z
h| i = kk = |ci | = d |c ()|2
i
1.40. THEORY OF REPRESENTATIONS OF E IN DIRAC NOTATION 91

1.40.2. Representation of operators in Dirac notation


Let us see the representation of an operator A under a basis {ui } or {w }. We have seen that a matrix
representative of A under the basis {ui } is

Aij = hui | Auj i = hui | A |uj i

and in a continuous basis



A , = hw | A |w i

they are arranged in a square matrix with infinite countable or continuous numbers of columns and rows

A11 A12 A1j
A21 A22 A2j

.. .. ..
A=
. . .

Ai1 Ai2 Aij

.. .. ..
. . .

..
.
A=
A (, )

..
.
it is interesting to see the matrix representative of a product of operators by insertion of the identity
X
(AB)ij = hui | AB |uj i = hui | AIB |uj i = hui | AP{ui } B |uj i = hui | A |uk i huk | B |uj i
k
X
(AB)ij = Aik Bkj
k

which coincides with the algorithm for matrix multiplication developed in Sec. 1.14.1, Eq. (1.50). We can develop
easily the matrix multiplication algorithm with continuum matrices

(AB) (, ) = hw | AB |w i = hw | AIB |w i = hw | AP{ui } B |w i


Z
(AB) (, ) = d hw | A |w i hw | B |w i
Z
(AB) (, ) = d A (, ) B (, ) (1.172)

now let us see the matrix representative of the ket | i given by



A |i =

from the knowledge of the components of |i and A, in a given representation {ui }. The coordinates of | i in
this basis is
X
ci = hui = hui | A |i = hui | AI |i = hui | AP{ui } |i = hui | A |uk i huk | i
k
X
ci = Aik ck
k
92 CAPITULO 1. LINEAR OR VECTOR SPACES

that explicitly can be illustrated as



c1 A11 A12 A1j c1
c A21 A22 A2j c2
2
.. .. .. .. ..
. = . . . .

c Ai1 Ai2 Aij ci
i
.. .. .. .. ..
. . . . .

with a continuous basis {w } we have


Z

c () = hw | i = hw | A |i = hw | AI |i = hw | AP{w } |i = d hw | A |w i hw |i
Z

c () = d A (, ) c ()

which is the continuous extension of multiplication of a matrix with a column vector.


Let us see the representation of the bra h| A
XX
h| A = h| IAI = h| ui i hui | A |uj i huj |
i j
XX
= ci Aij huj |
i j

Therefore, the bra h| A is represented by the product of the row matrix that represents h| times the square
matrix representing A respecting the order

A11 A12 A1j
A21 A22 A2j

 .. .. ..
h| A = c1 c2 c3

. . .

Ai1 Ai2 Aij

.. .. ..
. . .

observe that the matrix product is not defined in the opposite order, thus we cannot give meaning to A h|.
In many cases, it is also interesting to calculate the element h| A |i in terms of the coordinates of the bra
and the ket and in terms of the components of A. To do it, we insert an expansion of the identity twice
XX
h| A |i = h| IAI |i = h| P{ui } AP{ui } |i = h| ui i hui | A |uj i huj |i
i j
XX
h| A |i = bi Aij cj ; bi = hui | i, Aij = hui | A |uj i , cj = huj |i
i j

which in matrix form is written as a bilinear form



A11 A12 A1j c1
A21 A22 A2j c2

 .. .. .. ..
h| A |i = b1 b2 b3
. . .
.
(1.173)
Ai1 Ai2 Aij ci

.. .. .. ..
. . . .
1.41. CHANGE OF REPRESENTATIONS 93

this is the natural way of superposing the representations of h|, A, and |i respecting the order. The result is of
course a number. The extension for continuous bases is
Z Z
h| A |i = h| P{w } AP{w } |i = d d h| w i hw | A |w i hw |i

and we obtain
Z Z
h| A |i = d d b () A (, ) c ()
b () = hw | i ; A (, ) = hw | A |w i ; c () = hw |i

notice that Eq. (1.162) expresses the associativity of the matrix expressions given by Eq. (1.173).
Finally, the projection operator P = |i h| has matrix representative given by

Pij = hui | P |uj i = hui | ih |uj i = ci cj

in matrix language it is written as



c1 c1 c1 c1 c2 c1 cj
c2 c2 c1 c2 c2 c2 cj

..  .. .. ..
|i h| = .

c1 c2 c3 =
. . .

ci ci c1 ci c2 ci cj


.. .. .. ..
. . . .

this representation is particularly simple when P = |uk i huk | i.e. when the ket that forms the projector is part of
the basis.
The matrix representation of the adjoint operator is obtained by using property (1.163)
 
A = hui | A |uj i = huj | A |ui i = Aji
ij
 
A (, ) = hw | A |w i = hw | A |w i = A (, )

these results coincide with the one obtained in Eq. (1.70). If A is hermitian then A = A and

Aij = Aji ; A (, ) = A (, ) (1.174)

in particular applying these conditions for i = j or = we see that the diagonal elements of an hermitian matrix
are real. These facts are valid only if the basis is orthonormal, otherwise the matrix representative of the adjoint
of the matrix takes another form.

1.41. Change of representations


In a representation characterized by a given orthonormal basis {|ui i} the kets, bras and operators have some
specific matrix representatives. We want to write the matrix representative of these objects in a new orthonormal
basis {|tk i} using the Dirac notation18 . For future purposes we define the matrix S in the form
 
Sik hui | tk i ; S
= Sik = htk | ui i
ki
18
This problem is a bit lees general that the one treated in Sec. (1.14), because in that section the bases involved are non necessarily
orthonormal. However, in this case we are treating the problem in infinite dimension.
94 CAPITULO 1. LINEAR OR VECTOR SPACES

(k)
To give a geometrical meaning to S, let define Vi Sik and V(k) the kth column vector with components Sik .
Then, it is clear that V(k) is the matrix representative (column matrix) of the element |tk i in the basis {|ui i}. We
then construct a square matrix by putting these column vectors side by side

S11 S12 S11 S12

S = V(1) V(2) = S21 S22 = S21 S22
.. .. .. ..
. . . .
We can also see that S is a unitary matrix
  X X
S S = Ski Sim = htk | ui i hui | tm i = htk | P{ui } |tm i = htk | tm i = km
km
i i
  X X

SS = Sik Skj = hui | tk i htk | uj i = hui | P{tk } |uj i = hui | uj i = ij
ij
k k
consequently
S S = SS = I
On the other hand, we will also require the closure and orthonormalization relations with both bases
X
P{ui } = |ui i hui | = I ; hui | uj i = ij
i
X
P{tk } = |tk i htk | = I ; htk | tm i = km
k

1.41.1. Transformation of the coordinates of a ket


The coordinates of a ket |i in the basis {|ui i} are hui | i |i(ui ) . To know the coordinates in the new basis
htk | i, in terms of the old ones, we insert the closure relation for {|uk i} in the element htk | i
X X
htk | i = htk | ui i hui | i = Ski hui | i
i i
(t)
X (u) (t)
ck = Ski ci ; c = S c(u)
i

The inverse relation can be obtained by taking into account that S = S 1


c(t) = S 1 c(u) c(u) = Sc(t)
or alternatively by inserting an identity in the element hui | i
X X
hui | i = hui | tk i htk | i = Sik htk | i
k k
(u)
X (t) (u)
ci = Sik ck ; c = Sc(t)
k

1.41.2. Transformation of the coordinates of a bra


We insert the identity in the element h| tk i
X X
h| tk i = h| ui i hui | tk i = h| ui iSik
i i
(t)
X (u) (t)
ck = ci Sik e
c c(u) S
=e
i
similarly
c(u) = e
e c(t) S
1.42. REPRESENTATION OF THE EIGENVALUE PROBLEM IN DIRAC NOTATION 95

1.41.3. Transformation of the matrix elements of an operator


We start with htk | A |tm i and insert two identities
XX X (u)
htk | A |tm i = htk | IAI |tm i = htk | ui i hui | A |uj i huj |tm i = Ski Aij Sjm
i j i,j
(t)
X (u)
Akm = Ski Aij Sjm ; A(t) = S A(u) S (1.175)
i,j

and the inverse relation is obtained from


X X (t)
huk | A |um i = huk | ti i hti | A |tj i htj |um i = Ski Aij Sjm
i,j i,j
(u)
X (t)
Akm = Ski Aij Sjm ; A(u) = SA(t) S (1.176)
i,j

or taking into account that S = S 1 .

1.42. Representation of the eigenvalue problem in Dirac notation


For a given observable A the eigenvalue problem reads
A |i = |i
we want to construct its matrix representation in a basis {ui }. We first multiply by a bra of the form hui | on both
sides
hui | A |i = hui |i
and insert an identity
X
hui | A |uj i huj |i = hui |i
j
X
Aij cj = ci ; ci hui |i ; Aij hui | A |uj i
j

with ci and Aij the matrix elements of |i and A in the basis {ui }. This expression can be rewritten as
X
[Aij ij ] cj = 0
j

which is the well known expression for the eigenvalue problem in matrix form.

1.42.1. C.S.C.O. in Dirac notation


n o
(1) (m)
Assume that a given set of observables {A1 , ..., Am } forms a C.S.C.O. Then a given set of eigenvalues an1 , ..., anm
defines a unique normalized eigenvector common to all the observables (within a phase factor). We shall see later
that any set of kets that differ in a global phase factor
|i , ei1 |i , ..., eik |i
n o
(1) (m)
have the same physical information. Thus, the normalized ket associated with the set an1 , ..., anm is unique
from the physical pointof view. Therefore, it is usual to denote the corresponding ket in the form |n1 ,...,nm i or
simply as |n1 , n2 , ..., nm i and the set of eigenvalues are called quantum numbers.
Ai |n1 , . . . , ni , ..., nm i = a(i)
ni |n1 , . . . , ni , ..., nm i ; i = 1, .., m
96 CAPITULO 1. LINEAR OR VECTOR SPACES

1.43. The continuous bases |ri and |pi


From the wave functions space we have constructed the abstract space Er such that there is an isometric
isomorphism of onto Er , therefore they are abstractly identical as Hilbert spaces. Consequently, an element
(r) has a unique image |i Er and vice versa. In particular, the inner product must be preserved by this
correspondence

|i (r) ; |i (r) ; h| (r) ; h| (r)


Z
(|i , |i) = (, ) h| i = d3 r (r) (r)

Er will describe the state space of a spinless particle. We have discussed before that (r) can also be interpreted
as a representation of the abstract ket |i in the continuous basis {r (r )} defined in Eq. (1.120). We also saw that
r (r ) are not elements of , but they can be used to expand any element of in a unique way. We call r (r )
generalized wave functions and it is natural to associate with them some generalized kets denoted as |ri that
do not belong to Er but can expand any element of Er in such a way that if (r) |i then the expansion of
(r) under r (r ) has the same coefficients as the expansion of |i under |ri
Z Z
 
(r) = dr c r r (r) ; |i = dr c r r

We denote this association as r |ri. Similarly, for the continuous basis defined in Eq. (1.116) by {vp (r)} which
has plane waves as generalized wave functions, we shall have a continuous basis of Er denoted as |p0 i

r r |ri ; vp (r) |pi

therefore, using the bases {r (r )} and {vp (r)} of we have defined two continuous basis in Er denoted as
{|ri} and {|pi}. Consequently, all bras, kets and operators in Er will have a continuous matrix representation
in these bases. The basis {|ri} is labeled by three continuous indices x, y, z which are the coordinates of a point
in three dimensional space. Similarly, the basis {|pi} is labeled by three continuous indices px , py , pz which are
components of a cartesian vector.

1.43.1. Orthonormalization and closure relations


We shall calculate hr |r i using the definition of the scalar product in Er
Z Z
   

hr r = d r r r r r = d3 r r r r r
3


hr r = r r (1.177)

similarly
Z   Z   Z

3 1 3 3 ipr/~ ip r 1 3
hp p = d r vp (r) vp (r) = d re e = d3 r ei(pp )r/~
2~ 2~


hp p = pp

where we have used property (1.117). The closure relations for {|ri} and {|pi} are written according with the
second of Eqs. (1.170) integrating over three indices instead of one. The orthonormality and closure relations for
these bases are then
 
hr r = r r ; hp p = p p (1.178)
Z Z
d3 r |ri hr| = I ; d3 p |pi hp| = I (1.179)
1.43. THE CONTINUOUS BASES |Ri AND |Pi 97

1.43.2. Coordinates of kets and bras in {|ri} and {|pi}


Consider an arbitrary ket |i corresponding to a wave function (r). The closure relations for {|ri} and {|pi}
permits to expand |i as
Z Z Z Z
|i = d r |ri hr| i = d r c (r) |ri ; |i = d p |pi hp| i = d3 p c (p) |pi
3 3 3
(1.180)

the coefficients c (r) = hr| i and c (p) = hp| i are calculated as follows
Z Z
   
hr| i = d r r r r = d3 r r r r = (r)
3

Z  3/2 Z
3 1
hp| i = d r vp (r) (r) = d3 r eipr/~ (r) = (p)
2~

hence
c (r) = hr| i = (r) ; c (p) = hp| i = (p) (1.181)
the coefficients c (r) of the expansion of |i under {|ri} are the wave functions evaluated at the point r, this fact
reinforces the interpretation of the wave function as the representation of |i under the basis |ri. The coefficients
c (p) are the fourier transforms of the wave function, this coefficients (p) are usually called wave functions in
momentum space, since they represent the same abstract vector |i it is clear that (r) and (p) contain the
same physical information, this can also be seen by taking into account that given (r) then (p) is uniquely
determined and vice versa. On the other hand, by comparing Eqs. (1.180, 1.181) with Eqs. (1.121, 1.122) we see
that if (r) |i then the expansion of (r) under r (r ) has the same coefficients as the expansion of |i under
|ri as we demanded. Similar situation occurs with the basis {vp } in and the basis |pi in Er .
An important particular case arises when |i = |pi which is indeed a generalized ket. Assuming that all the
relations above are also valid for generalized kets, and taking into account that |pi vp (r), then Eq. (1.181)
gives
 
1 3/2 ipr/~
hr| pi = vp (r) = e (1.182)
2~
the same result is obtained by taking into account the equality of the inner product of vectors in and vectors
in Er when this equality is extended to generalized vectors
Z Z
   
hr| pi = (|ri , |pi) = (r , vp ) = d3 r r r vp r = d3 r r r vp r = vp (r)

applying Eq. (1.181) for |i = |r i (r) = r (r) we find



hr| r i = r (r) = r r

which is consistent with the orthonormalization relation. Similar arguments leads to


 3/2
1 
hp| ri = vp (r) = eipr/~ ; hp| p i = p p
2~

Assume that we have an orthonormal basis {ui (r)} in and an orthonormal basis {|ui i} in Er such that
ui (r) |ui i. Starting with the closure relation for {|ui i} in Er
X
|ui i hui | = I
i
98 CAPITULO 1. LINEAR OR VECTOR SPACES

and evaluating the matrix element of it between |ri and |r i we have


X
hr |ui i hui | r i = hr| I r = hr| r i
i

and using Eqs. (1.181, 1.178) we find X  


ui (r) ui r = r r
i
which is the closure relation as it was expressed in Eq. (1.110) for {ui (r)} in , reversing the steps we can obtain
the closure relation for {|ui i} in Er starting from the closure relation for {ui (r)} in 19 .
Notice that the inner product of two kets in terms of their coordinates under the basis {|ri} is a particular
case of Eq. (1.114). Equivalently, we obtain it by insertion of the identity
Z
h |i = d3 r h |ri hr |i

and interpreting the components h |ri and hr |i as in Eq. (1.181)


Z
h |i = d3 r (r) (r)

a similar procedure can be done for the basis {|pi}


Z Z
h |i = d p h |pi hp |i = d3 p (p) (p)
3

from which it is obtained Z Z


d3 r (r) (r) = d3 p (p) (p)

this is a well-known property of the Fourier trasnforms.

1.43.3. Changing from the {|ri} representation to {|pi} representation and vice versa
The procedure is similar to the one in section 1.41 but for continuous basis. If we consider the change from
{|ri} to {|pi}, the unitary matrix S of changing the basis is
 
1 3/2 ipr/~
S (r, p) = hr |pi = e (1.183)
2~
a ket |i is represented as (r) in {|ri} and we know well that in {|pi} it is given by (p). Here we see that it
is consistent with the formalism developed in Sec. 1.41

Z Z
3
hp |i = d r hp |ri hr |i = d3 r S (r, p) hr |i
 3/2 Z
1
(p) = d3 r eipr/~ (r) (1.184)
2~
similarly
Z Z
3
hr |i = d p hr |pi hp |i = d3 p S (r, p) hp |i
 3/2 Z
1
(r) = d3 p eipr/~ (p) (1.185)
2~
19
Notice that I (r, r ) = hr | I |ri = hr | ri = (r r ) shows that the Dirac delta can be seen as the representation of the identity
under the continuous hyperbasis {|ri}.
1.43. THE CONTINUOUS BASES |Ri AND |Pi 99

the representation of bras can be obtained by hermitian conjugation of the relations with kets.
Now for a given operator, the matrix elements in {|pi} read A (p , p) = hp | A |pi inserting two identities we
get
Z Z





p A |pi = 3
d r d3 r p r i r A |ri hr |pi
Z Z

 

p A |pi = 3
d r d3 r S r , p A r , r S (r, p)

which is the continuous generalization of (1.175). Using (1.183) we find


  Z Z

 1 3 
A p ,p = d3 r d3 r eip r /~ A r , r eipr/~
2~
  Z Z

 1 3 
A p ,p = d3 r d3 r ei(p r pr)/~ A r , r
2~
the inverse relation is obtained from
Z Z




r A |ri = 3
d p d3 p r p i p A |pi hp |ri
Z Z

 
r A |ri = d3 p d3 p S r , p A p , p S (r, p)

this is the continuous generalization of (1.176). From (1.183) we find


  Z Z
 1 3 
A r , r = d3 p d3 p eip r /~ A p , p eipr/~
2~
  Z Z
 1 3 
A r , r = d3 p d3 p ei(p r pr)/~ A p , p
2~

1.43.4. The R and P operators


Let |i be an arbitrary ket of Er and (r) = (x, y, z) the corresponding wave function. We define an operator
X in the form20
= X |i

such that in the {|ri} representation the associated wave function (r) = (x, y, z) is given by

(x, y, z) = x (x, y, z) (1.186)

so in the {|ri} representation, it corresponds to the operator that multiplies the wave function by x. We should
emphasize however, that the operator X is defined on the Er state space. Eq. (1.186) can be expressed by

hr| X |i = hr| i = (r) = x (r) = xhr |i

Of course, we can introduce the operators Y and Z in a similar way

hr| X |i = xhr |i , hr| Y |i = yhr |i , hr| Z |i = zhr |i ; |ri = |x, y, zi (1.187)

we can consider X, Y, Z as the components of a vector operator R, by now it only means a condensed notation
inspired in the fact that x, y, z are the components of the ordinary vector r.
20
The operator X does not belong to (Er ), because for some square integrable functions (r), the function (r) defined in Eq.
(1.186) is not square integrable.
100 CAPITULO 1. LINEAR OR VECTOR SPACES

These operators can be easily manipulated in the {|ri} representation. For instance, the element h| X |i can
be calculated as Z Z
h| X |i = d r h| ri hr| X |i = d3 r (r) x (r)
3

similarly, we define the operators Px , Py , Pz that forms the vector operator P, such that their action in the {|pi}
representation is given by

hp| Px |i = px hp |i , hp| Py |i = py hp |i , hp| Pz |i = pz hp |i ; |pi = |px , py , pz i (1.188)

however, when we require to work with both operators simultaneously, we should choose only one basis. Hence,
it is important to know how the operator P acts in the {|ri} representation, and how the operator R acts in the
{|pi} representation.
Let us first look for the way in which the operator P acts in the {|ri} representation. For this, we use Eqs.
(1.181, 1.182, 1.188) to evaluate
Z Z  3/2 Z
3 3 1
hr| Px |i = d p hr| pi hp| Px |i = d p hr| pipx hp| i = d3 p eipr/~ px (p) (1.189)
2~

to evaluate this term we start with the expression of the Fourier transform Eq. (1.185)
 3/2 Z
1
(r) = d3 p eipr/~ (p)
2~
 3/2 Z  
(r) 1  ipr/~  3
= d p e (p)
x 2~
x
  Z  
(r) 1 3/2 3 i
= d p px eipr/~ (p)
x 2~ ~

we have that
 3/2 Z
~ (r) 1
= d3 p px eipr/~ (p) (1.190)
i x 2~

if we continue derivating this expression we find


 3/2 Z  n 
n (r) 1 i
= d3 p px eipr/~ (p)
xn 2~ ~

replacing (1.190) in (1.189) we obtain


~ (r)
hr| Px |i =
i x
and similarly for Py , Pz . In vector form we summarize it as

~
hr| P |i = hr |i (1.191)
i

in the {|ri} representation, the operator P coincides with the differential operator acting on the wave functions.
Let us calculate h| Px |i in the {|ri} representation
Z Z 
3 3 ~

h| Px |i = d r h |ri hr| Px |i = d r (r) (r) (1.192)
i x
1.43. THE CONTINUOUS BASES |Ri AND |Pi 101

of great importance are the commutators among the components Pi , Ri . We shall calculate them in the {|ri}
representation, for instance

hr| [X, Px ] |i = hr| (XPx Px X) |i = hr| (XPx ) |i hr| (Px X) |i


~
= hr| X |Px i hr| Px |Xi = x hr| Px i hr| Xi
i x
~ ~ ~
= x hr| Px |i hr| X |i = x hr| i [x hr| i]
i x i x i x
~ ~ ~
= x hr| i x [hr| i] hr| i
i x i x i
so that
hr| [X, Px ] |i = i~ hr| i
since this is valid for any ket |i and any generalized ket |ri of the basis, we conclude that

[X, Px ] = i~I

it is usual to omit the identity operator since it is not important for practical calculations. In a similar way, we
can calculate the other commutators, to condense notation it is convenient to define

R1 X, R2 Y, R3 Z, P1 Px , P2 Py , P3 Pz

to write
[Ri , Rj ] = [Pi , Pj ] = 0 ; [Ri , Pj ] = i~ij (1.193)
they are called canonical commutation relations. These relations are intrinsic and should not depend on the basis
in which we derive them.
We can show that R and P are hermitian operators. For example let us show that X is hermitian
Z Z Z 
3 3 3
h| X |i = d r h |ri hr| X |i = d r (r) x (r) = d r (r) x (r)

h| X |i = h| X |i

since this is valid for arbitrary kets |i and |i, and taking into account Eq. (1.163) we conclude that X = X .
For Px we see that
Z Z Z 
3 3 3
h| Px |i = d p h |pi hp| Px |i = d p (p) px (p) = d p (p) px (p)

h| Px |i = h| Px |i

and Px = Px . The procedure is the same for the other components of R and P

R = R , P = P

There is an alternative proof of the hermiticity of P by using its action in the {|ri} representation given by
Eq. (1.191). Integrating Eq. (1.192) by parts we have
Z Z  
~
h| Px |i = dy dz dx (r) (r)
i x
Z  Z 
~ x=
= dy dz [ (r) (r)]x= dx (r) (r)
i x
102 CAPITULO 1. LINEAR OR VECTOR SPACES

since the scalar product h| i is convergent, (r) (r) approaches zero when x . Hence the first term
on the right-hand side vanishes and we find
Z  Z 
~ 3 ~ 3
h| Px |i = d r (r) (r) = d r (r) (r)
i x i x
h| Px |i = h| Px |i

two things deserve attention, first the presence of the i factor is essential because i/x is hermitian but /x is
not. Second, we have used explicitly the fact that |i and |i belong to Er by assuming that the scalar product
h| i is convergent, so this proof is not valid for generalized kets.

1.43.5. The eigenvalue problem for R and P


Let us calculate the matrix element X (r , r) of the operator X in the basis {|ri}


 

X r , r = r X |ri = x r ri = x r r = x r r = x r ri



r Xri = x r ri

so the components of the ket X |ri in the {|r i} representation are equal to the ones of the ket |ri = |x, y, zi
multiplied by x
X |ri = x |ri

we proceed in the same way for Y and Z

X |ri = x |ri , Y |ri = y |ri , Z |ri = z |ri ; |ri = |x, y, zi

the kets |ri are eigenkets common to X, Y, Z. The set {|ri} of common eigenvectors of X, Y, Z forms a basis
showing that {X, Y, Z} is a complete set of commuting observables. On the other hand, the specification of the
three eigenvalues x0 , y0 , z0 determines uniquely the normalized eigenvector |r0 i except for a phase ei . In the {|ri}
representation the coordinates of |r0 i are (x x0 ) (y y0 ) (z z0 ). Therefore, the set {X, Y, Z} constitutes a
C.S.C.O. in Er .
Analogous reasoning shows that for the commuting observables {Px , Py , Pz } the eigenvalues and eigenvectors
are
Px |pi = px |pi , Py |pi = py |pi , Pz |pi = pz |pi ; |pi = |px , py , pz i

since {|pi} is a basis the operators Px , Py , Pz are observables. Because the set of eigenvalues (p0x , p0y , p0z ) deter-
mines uniquely the vector |p0 i the set {Px , Py , Pz } constitutes as C.S.C.O. in Er .
It worths pointing out that X is not a C.S.C.O. by itself in the Er state space because when x0 is specified y0
and z0 can take any real values. Therefore, x0 is an infinitely degenerate eigenvalue. Notwithstanding in the state
space Ex of a particle in one dimension, X constitutes a C.S.C.O. since the eigenvalue x0 determines uniquely the
eigenvector |x0 i, and its coordinates in the {|xi} representation are given by (x x0 ).
It can also be shown that the set {X, Py , Pz } constitutes a C.S.C.O. since they commute with each other, and
for a set of eigenvalues {x0 , p0y , p0z } there is a unique eigenvector whose associated wave function is

1 i(p0y y+p0z z)/~


x0 ,p0y ,p0z (x, y, z) = (x x0 ) e
2~
of course, similar C.S.C.O. are built from the sets

{Y, Px , Pz } , {Z, Px , Py }
1.43. THE CONTINUOUS BASES |Ri AND |Pi 103

1.43.6. Some properties of Fourier transforms


We have seen that if a vector |i acquires the value (r) in the {|ri} basis, its value (p) in the {|pi} basis
is connected with (r) through a Fourier transform Eqs. (1.184, 1.185)
  Z
1 3/2
(p) = d3 r eipr/~ (r) (1.194)
2~
  Z
1 3/2
(r) = d3 p eipr/~ (p) (1.195)
2~
It can be seen that if depends only on |r| = r, then depends only on |p| = p and is given by
Z
1 2 pr
(r) = (r) (p) = (p) = r dr sin (r) (1.196)
2~ p 0 ~
to see it, let us apply a rotation R to the vector p
p Rp
and we use such a rotated vector in Eq. (1.194), taking into account that (r) = (|r|) = (r)
  Z

 1 3/2
p = d3 r eip r/~ (r)
2~
now we use a new (rotated) variable r = Rr
 3/2 Z

 1 
p = d3 r eip r /~ r (1.197)
2~
and we take into account that the length r, the volume element, and the dot product are all conserved under a
rotation 
d3 r = d3 r ; p r = p r ; r = (r)
applying these invariances in Eq. (1.197), we see that

p = (p)

since the rotation is arbitrary, it means that only depends on |p| and not on its direction. Therefore, we can
evaluate (p) with Eq. (1.194), by choicing p = puz


 Z   Z Z Z 2
1 3/2 3 ipz/~ 1 3/2 2
(p) = d re (r) = r dr (r) d sin eipr cos /~ d
2~ 2~ 0 0 0
  Z Z
1 3/2 2
(p) = 2 r dr (r) d sin eipr cos /~ (1.198)
2~ 0 0

let us evaluate the integral in


Z Z  
ipr cos /~ 2i pr cos /~2~ ipr 2i pr cos /~
d sin e = d e sin e
0 0 ipr 2~
Z h i i
2~ 2i pr cos /~ d 2 pr cos /~ 2~ 1 ipr cos /~
= d e e = e (1.199)
ipr 0 d ipr 2 0
2~ 1  ipr/~  2~ 2i   2~ h  pr   pr i
= e eipr/~ = Im eipr/~ = Im cos + i sin
ipr 2 ipr 2 pr ~ ~
Z  pr 
2~
d sin eipr cos /~ = sin (1.200)
0 pr ~
104 CAPITULO 1. LINEAR OR VECTOR SPACES

substituting Eq. (1.200) in Eq. (1.198) we have


 3/2 Z  
1 2 2~ pr
(p) = 2 r dr (r) sin
2~ 0 pr ~

thus, Eq. (1.196) is obtained.

1.44. General properties of two conjugate observables


Two arbitrary observables Q and P are called conjugate if they obey the conmutation rule

[Q, P ] = i~ (1.201)

such couples of observables are frequently encountered in quantum mechanics. The position and momentum
observables are good examples. However, in what follows all properties are derived from the commutation rule
(1.201) regardless the specific form of the operators. Let us define the operator S () that depends on a real
parameter as
S () = eiP/~ (1.202)
since P is observable and so hermitian this operator is unitary

S () = eiP/~ = S 1 () = S () (1.203)

since P obviously commute with itself, Eq. (1.149) leads to

S () S () = S ( + ) (1.204)

now we calculate the commutator [Q, S ()]. To do it, we take into account that [Q, P ] = i~ clearly commutes
with Q and P , therefore we can apply theorem 1.70, Eq. (1.136) to obtain
 
i iP/~
[Q, S (P )] = [Q, P ] S (P ) = i~ e = S (P )
~

where we have written S (P ) instead of S () to emphasize that when applying Eq. (1.136) we are considering S
as a function of the operator P (so the derivative is with respect to P ). Rewriting it in the old notation we have

[Q, S ()] = S () QS () S () Q = S ()
QS () = S () [Q + ] (1.205)

1.44.1. The eigenvalue problem of Q


Suppose that Q has a non-zero eigenvector |qi, with eigenvalue q

Q |qi = q |qi (1.206)

applying Eq. (1.205) on the vector |qi we have

QS () |qi = S () [Q + ] |qi = S () [q + ] |qi


Q [S () |qi] = [q + ] [S () |qi] (1.207)

therefore, S () |qi is also an eigenvector of Q with eigenvalue q + . Note that S () |qi is non-zero because S ()
is unitary so the norm of |qi is preserved. On the other hand, since can take any real value, we conclude that by
1.44. GENERAL PROPERTIES OF TWO CONJUGATE OBSERVABLES 105

starting with an eigenvector of Q, we can construct another eigenvector of Q with any real eigenvalue by applying
the appropiate S (). Consequently, the spectrum of Q is continuous and consists of all real values.
Note that this result shows in particular that conjugate operators Q, P cannot exist in finite dimensional vector
spaces since for the latter the spectrum must be finite. Even they do not exist strictly in spaces of denumerable
dimension such as L2 , (for which the spectrum must be at most denumerable), so the eigenvectors |qi will form
hyperbasis in L2 .
Let us now show that if any given q is non-degenerate, then all the other eigenvalues of Q are also non-
degenerate. For this we assume that the eigenvalue q+ is at least two-fold degenerate and arrive to a contradiction.
From this hypothesis, there are at least two orthogonal eigenvectors |q + , i and |q + , i associated with the
eigenvalue q +
hq + , |q + , i = 0 (1.208)
now consider the two vectors S () |q + , i and S () |q + , i from Eq. (1.207) we see that

QS () |q + , i = [q + + ()] S () |q + , i = qS () |q + , i
QS () |q + , i = [q + + ()] S () |q + , i = qS () |q + , i

so S () |q + , i and S () |q + , i are two eigenvectors associated with the eigenvalue q. Calculating the
inner product of them
hq + , | S () S () |q + , i = hq + , |q + , i = 0
where we have used Eq. (1.208) and the fact that S () is unitary. Thus, we arrive to the fact that S () |q + , i
and S () |q + , i are two orthogonal (and so linearly independent) eigenvectors associated with q, contradicting
the hypothesis that q is non-degenerate. This result can be extended to find that the eigenvalues of Q must all
have the same degree of degeneracy.
We now look for the eigenvectors. We fix the relative phses of the diffrent eigenvectors of Q with respect to
the eigenvector |0i associated with the eigenvalue 0, by setting

|qi S (q) |0i (1.209)

applying S () on both sides of (1.209) and using (1.204), we get

S () |qi = S () S (q) |0i = S ( + q) |0i = |q + i

and the corresponding bra gives


hq| S () = hq + |
now using Eq. (1.203) we see that S () = S () from which

hq| S () = hq + | hq| S () = hq |

where we have replaced in the last step. In summary the action of S () on the eigenvectors |qi of Q are
given by
S () |qi = |q + i ; hq| S () = hq | (1.210)
now we can characterize the action of the operators P, Q and S () in either the {|qi} basis or the {|pi} basis.

1.44.2. The action of Q, P and S () in the {|qi} basis


Since Q is an observables the set of eigenvectors {|qi} of Q forms a basis. A given ket |i in our Hilbert space
can be written in the {|qi} basis as
(q) hq |i
106 CAPITULO 1. LINEAR OR VECTOR SPACES

let us calculate the representation of Q |i in this basis

hq| Q |i = qhq |i = q (q)

where we have used (1.206) and the hermiticity of Q. The action of Q on |i reduces to a simple multiplication
with its associated eigenvalue. The action of S () on |i in this basis is also simple

hq| S () |i = hq | i = (q ) ; S () eiP/~ (1.211)

where we have used (1.210). Note that a function f (x a) is the function that at the point x = x0 + a, takes on
the value f (x0 ), so that it is the function obtained from f (x)by a translation of +a. Therefore, Eq. (1.211, shows
that the action of S () on |i in the basis {|qi} , can be described as a translation of the wave function over a
distance + parallel to the qaxis. So S () is usually called the translation operator.
The action of P on |i in the {|qi} basis is a bit longer to obtain. Let be an infinitesimal quantity such that

S () = eiP/~ = I + i P + O 2
~
therefore
h i 
hq| S () |i = hq| I + i P + O 2 |i = hq |i + i hq| P |i + O 2
~ ~
2

hq| S () |i = (q) + i hq| P |i + O (1.212)
~
on the other hand, from Eq. (1.211) we have

hq| S () |i = (q + ) (1.213)

and comparing (1.212) with (1.213) we have



(q + ) = (q) + i hq| P |i + O 2
~

i hq| P |i = (q + ) (q) O 2
~
solving for hq| P |i and taking into account that is infinitesimal we have

~ (q + ) (q)
hq| P |i = lm
i 0
~ d
hq| P |i = (q) (1.214)
i dq
~ d
so the action of P on a ket in the {|qi} basis is that of i dq .

1.44.3. Representation in the {|pi} basis and the symmetrical role of P and Q
From Eq. (1.214), we can obtain the wave function vp (q) associated in the {|qi} basis, with the eigenvector
|pi of P with eigenvalue p
1
vp (q) = hq |pi = eipq/~
2~
we can then write Z
1
|pi = dqeipq/~ |qi
2~
1.45. DIAGONALIZATION OF A 2 2 HERMITIAN MATRIX 107

a wave function in the {|pi} representation is given by


Z Z
(p) = hp |i = hp| |qi hq| i = hp |qi hq| i
Z
1
(p) = dqeipq/~ (q)
2~

which is the Fourier transform of (q).


It can be shown that the action of the P operator in the {|pi} repesentation is associated with multiplication
by p, while the representation of X corresponds to the operations i~d/dp. Therefore, the results are symmetrical
in the {|qi} and {|pi} bases. It comes from the fact that we can interchange Q and P with no more cost than
changing the sign of the conmutator in (1.201). The analogous of the translation operation in the {|pi} basis is
the operator defined by
T () = eiQ/~
which acts as a translation in the momentum space. The arguments developed for the basis {|qi} can be repeated
in the basis {|pi} by interchanging P by Q and i by i everywhere. As a matter of curiosity, in Classical Mechanics,
the Hamilton equations are also symmetrical in the conjugate variables (Q, P ) and we can interchange them with
no more cost that a change in sign.
We emphasize again that the results obtained in this section only depend on the canonica rule of commutation
(1.201) and not on the explicit form of the Q and P operators.

1.45. Diagonalization of a 2 2 hermitian matrix


This example illustrates many concepts introduced in the eigenvalue problem in a quite simple way. Further,
it is useful in many practical calculations involving systems of two states in quantum mechanics. The eigenvalue
problem is very easy but the determination of eigenvectors could lead easily to complicated expressions. We shall
determine the eigenvalues and find the eigenvectors in a way easy to handle.

1.45.1. Formulation of the problem


Consider an hermitian operator R in a two dimensional Hilbert space. Its matrix representation in a given
orthonormal basis {|1 i , |2 i} reads
   
h1 | R |1 i h1 | R |2 i H11 H12
H = (1.215)
h2 | R |1 i h2 | R |2 i H21 H22

an hermitian operator is described by an hermitian matrix when the basis used is orthonormal. Therefore,

H11 = H11 ; H22 = H22 ; H12 = H21

so that diagonal elements are real. Let us express the matrix in Eq. (1.215) in the equivalent form
 1
  1 
(H11 + H22 )
2 0 2 (H11 H22 ) H12
H = 1 +
0 2 (H11 + H22 ) H21 12 (H11 H22 )
 
2H21
!
1 1 0 1 1 (H11 H22 )
H = (H11 + H22 ) + (H11 H22 ) 2H21
2 0 1 2 (H11 H22 ) 1

2H21
!
1 1 1 (H11 H22 )
H = (H11 + H22 ) I + (H11 H22 ) K ; K 2H21 (1.216)
2 2 (H11 H22 ) 1
108 CAPITULO 1. LINEAR OR VECTOR SPACES

and I is the identity matrix. Let | i be two linearly independent eigenvectors of K

K | i = | i (1.217)

applying the ket | i on Eq. (1.216) we have

1 1
H | i = (H11 + H22 ) I | i + (H11 H22 ) K | i
2 2
1
H | i = [(H11 + H22 ) + (H11 H22 ) ] | i
2
therefore | i are also eigenvectors of H with eigenvalues

1
H | i = E | i ; E [(H11 + H22 ) + (H11 H22 ) ] (1.218)
2
note that the problem reduces to find the eigenvectors of K (which coincide with the ones of H) and also its
eigenvalues (which are related with the eigenvalues of H through Eq. 1.218). Solving the problem for K is equivalent
to choose the origin of the eigenvalues in (H11 + H22 ) /2 = (T rH)/2. Note that this shift is independent of the
basis chosen to write H.

1.45.2. Eigenvalues and eigenvectors of K


For simplicity we define the angles , in terms of the matrix elements Hij as follows

2 |H21 |
tan = , 0< (1.219)
H11 H22
H21 = |H21 | ei , 0 < 2 (1.220)

so is the argument of the term H21 . Matrix K in Eq. (1.216) can be written as

2|H21 |ei
!  
1 (H11 H22 ) 1 tan ei
K= 2|H21 |ei
= (1.221)
1 tan ei 1
(H11 H22 )

the characteristic equation of matrix (1.221) yields

det [K I] = 0 = (1 ) (1 ) tan2
1
2 1 tan2 = 0 2 = 1 + tan2 =
cos2
the eigenvalues of K read
1 1
+ = , = (1.222)
cos cos
and they are real as expected. We can express 1/ cos in terms of the matrix elements Hij by using Eqs. (1.219)
and the fact that cos and tan are both of the same sign since 0 < .
s s
1 p 4 |H 21 |2
(H11 H22 )2 + 4 |H21 |2
= 1 + tan2 = 1 + =
cos (H11 H22 )2 (H11 H22 )2
s
1 (H11 H22 )2 + 4 |H21 |2
= = (1.223)
cos (H11 H22 )2
1.45. DIAGONALIZATION OF A 2 2 HERMITIAN MATRIX 109

let us find the eigenvectors of K. We denote as a and b the components of |+ i in the basis {|1 i , |2 i}. From
Eqs. (1.221, 1.222) this eigenvector must satisfy
    
1 tan ei a 1 a
i =
tan e 1 b cos b

of course only one of the two equations is linearly independent since only quotients between the coefficients can
be determined, therefore
 
i a i 1
a + b tan e = b tan e =a 1
cos cos

multiplying by ei/2 and defining 2 this equation yields


 
sin 2 i/2 1 cos 2 i/2
b e = a e
cos 2 cos 2
b sin 2 ei/2 = a (1 cos 2) ei/2
 
b (2 sin cos ) ei/2 = a 1 1 2 sin2 ei/2
2b sin cos ei/2 2
 = 2a sin e
i/2

b cos ei/2 = a sin ei/2

in terms of we get
i/2
e = a sin ei/2
b cos (1.224)
2 2
we demand normalization with the additional requirement of positivity for the coefficient a, so we have

a sin ei/2 2

|a|2 + |b|2 = 1 |a|2 +
2
=1
cos 2 e i/2
2

|a|2 + a tan ei = 1 |a|2 + |a|2 tan2 = 1
2 2
 

|a|2 1 + tan2 = 1 |a|2 = cos2
2 2
so that

a = cos 0 since 0 < (1.225)
2
replacing (1.225) in (1.224) we get
i/2
b cos e = cos sin ei/2 b = sin ei
2 2 2 2
so that the eigenvector |+ i associated with the eigenvalue + reads

|+ i = a |1 i + b |2 i = cos |1 i + sin ei |2 i
2 2
it is clear that |+ i ei/2 |+ i is also an eigenvector of K with the same eigenvalue + and this vector looks
more symmetrical. Thus, we define the eigenvector |+ i as21
i/2
|+ i = cos e |1 i + sin ei/2 |2 i (1.226)
2 2
21
This is equivalent to define the phase of the coefficient a as /2 instead of zero, in the process of normalization.
110 CAPITULO 1. LINEAR OR VECTOR SPACES

an analogous calculation gives the eigenvector of K corresponding to = 1/ cos

i/2
| i = sin e |1 i + cos ei/2 |2 i (1.227)
2 2
the eigenvalues of H are obtained by combining Eqs. (1.218, 1.223)
1
E [(H11 + H22 ) + (H11 H22 ) ]
2 s
" #
1 (H11 H22 )2 + 4 |H21 |2
= (H11 + H22 ) (H11 H22 )
2 (H11 H22 )2
 q 
1 2 2
E (H11 + H22 ) (H11 H22 ) + 4 |H21 |
2

it worths saying that the eigenvalue problem can be solved directly without resorting to the angles and defined
in Eq. (1.219, 1.220). This procedure is advantageous only if we have to calculate the eigenvectors as well.

1.45.3. Eigenvalues and eigenvectors of H


Let us summarize our results. We consider an hermitian operator R in a two dimensional Hilbert space, and
its matrix representation in the orthonormal basis {|1 i , |2 i}
   
h1 | R |1 i h1 | R |2 i H11 H12
H = (1.228)
h2 | R |1 i h2 | R |2 i H21 H22

its eigenvalues and eigenvectors are given by


 q 
1 2 2
E (H11 + H22 ) (H11 H22 ) + 4 |H21 | (1.229)
2

|+ i = cos ei/2 |1 i + sin ei/2 |2 i (1.230)
2 2
i/2
| i = sin e |1 i + cos ei/2 |2 i (1.231)
2 2
2 |H21 |
tan = , H21 = |H21 | ei ; 0 < , 0 < 2 (1.232)
H11 H22
as a matter of consistence we can see that

E+ + E = H11 + H22 = T rH , E+ E = H11 H22 |H12 |2 = det H

in agreement with Eq. (1.93, 1.94). From Eq. (1.229), the spectrum becomes degenerate i.e. E+ = E when
(H11 H22 )2 + 4 |H21 |2 = 0. That is when H11 = H22 and H12 = H21 = 0. So a 2 2 hermitian matrix has a
degenerate spectrum if and only if it is proportional to the identity.
It worths remarking that although functions of are expressed simply in terms of the Hij elements by means of
Eqs. (1.232), it is not the case when functions of /2 appears. Thus, when we do calculations with the eigenvectors
(1.230, 1.231), it is convenient to keep the results in terms of /2 up to the end of the calculation instead of
replacing it in terms of the Hij quantities.
Captulo 2

Construccion fenomenologica de los


postulados de la mecanica cuantica

Nuestro presente entendimiento de la naturaleza requiere reevaluar las leyes de la mecanica clasica, especial-
mente en lo referente a los fenomenos atomicos y subatomicos. No obstante, existen manifestaciones macroscopicas
de los procesos cuanticos. A manera de ejemplo, la existencia misma de los solidos solo se puede explicar en un
contexto cuantico, y los modelos sobre calor especfico de los solidos no se pueden explicar con un modelo clasico.
A finales del siglo diecinueve, se identificaban en la fsica dos tipos de entidades bien diferenciadas: la materia y
la radiacion. Las leyes de Newton permitan explicar los fenomenos relativos a la materia en la escala macroscopica
y las ecuaciones de Maxwell proporcionaban una excelente descripcion de la dinamica de la radiacion1 . Finalmente,
la interaccion de la materia con la radiacion la proporcionaba la ley de fuerza de Lorentz. Es notable el hecho
de que la teora de Maxwell habia logrado la unificacion de fenomenos que antes se consideraban separados: la
electricidad, el magnetismo y la optica.
No obstante, a finales del siglo diecinueve y principios del veinte una serie de experimentos condujeron a
reevaluar la estructura fundamental de la materia y ademas a replantear las leyes que rigen a estas estructuras
fundamentales. La mecanica cuantica es entonces el resultado de estos replanteamientos. Vale decir por supuesto
que al menos en principio, el mundo macroscopico tambien se rige por la leyes de la cuantica, si bien para la
mayora de fenomenos a escala humana, la Fsica clasica representa una descripcion mucho mas simple y al mismo
tiempo bastante adecuada.
A continuacion se realizara una breve descripcion de los experimentos que dieron lugar a las nuevas ideas sobre
el mundo microscopico, con el fin de dejar claros los puntos que es necesario reevaluar en la mecanica clasica. La
descripcion de estos experimentos no pretende ser completa ni exhaustiva, solo pretende mostrar las ideas que
estos nos arrojan sobre el comportamiento de la naturaleza a nivel microscopico (atomico y subatomico). Para un
estudio mas detallado de estos experimentos el lector puede recurrir a los textos estandar sobre Fsica Moderna
(ver por ejemplo Ref. [1]).

2.1. La radiacion del cuerpo negro


Un cuerpo negro tiene la capacidad de absorber toda la radiacion que incide sobre el, a su vez esto lo convierte
en un emisor perfecto. Utilizando argumentos de la termodinamica y la mecanica estadstica, Rayleigh y Jeans
predijeron el espectro del cuerpo negro utilizando la distribucion de Boltzmann. Sin embargo, las predicciones de
Rayleigh y Jeans estaban muy lejos del espectro experimental en el regimen de longitudes de onda corta, fenomeno
conocido como la catastrofe del ultravioleta. Es bien conocido que la energa asociada a una frecuencia particular
de la radiacion del cuerpo negro se relaciona con la energa de una partcula cargada en la pared de una cavidad
del cuerpo negro oscilando sinusoidalmente a la misma frecuencia. Originalmente, Max Planck cuantizo la energa
1
Las ondas mecanicas podan explicarse en ultimo termino con las leyes de Newton.

111
112 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

de la partcula oscilante asumiendo que cada una de estas partculas solo puede tener una energa n que sea
multiplo entero de una energa fundamental 0 = h siendo la frecuencia de oscilacion y siendo h una constante
universal que se ajusta experimentalmente, por lo tanto
n = nh , n = 0, 1, 2, 3, 4, . . . (2.1)
recalculando el espectro con este postulado, Planck pudo reproducir el espectro del cuerpo negro para todas
las longitudes de onda. Posteriormente, Planck observo que esto era equivalente a cuantizar directamente las
ondas electromagneticas estacionarias asociadas a cada frecuencia y que oscilan sinusoidalmente. De hecho, Planck
generaliza su postulado diciendo que la Ec. (2.1) describe la energa total asociada a cualquier entidad fsica cuya
unica coordenada generalizada efectua oscilaciones armonicas simples (variaciones sinusoidales en el tiempo).

2.2. El efecto fotoelectrico


Cuando se hace incidir luz ultravioleta sobre la superficie de un metal, se emiten electrones provenientes de
dicho metal. A principios del siglo XX, Lenard realizo experimentos en donde los electrones extrados con luz
ultravioleta de la superficie metalica (fotocatodo) son acelerados por una diferencia de potencial con respecto a
otro electrodo. Al medir la corriente que llegaba al segundo electrodo como funcion del voltage entre los electrodos,
observo que todava llegaba corriente incluso cuando el potencial era retardante para cargas negativas indicando
que los electrones son emitidos con energa cinetica que no es despreciable. La forma de la curva indico que
no todos los fotoelectrones son emitidos con la misma energa cinetica pero existe un voltaje retardante de
corte V = Vmax luego del cual cesa la fotocorriente. Este voltage de corte sugiere la existencia de una energa
maxima bien definida para los fotoelectrones dada por Emax = eVmax siendo e la magnitud de la carga electronica.
Los fotoelectrones de maxima energa son los que provienen de la superficie del fotocatodo en tanto que los
fotoelectrones de menor energa provienen del interior del fotocatodo y pierden energa cinetica al llegar a la
superficie, esto nos indica que Emax es una buena medida de la energa transmitida a los electrones en el proceso
fotoelectrico. Lenard encontro ademas que la corriente fotoelectrica es directamente proporcional a la intensidad
luminosa incidente para voltages acelerantes. Sin embargo, observo tambien que el potencial de corte retardante
V = Vmax es independiente de la intensidad luminosa. En consecuencia, la energa maxima adquirida por los
electrones es independiente de la intensidad luminosa incidente.
En el marco de la teora clasica, se puede demostrar que la energa cinetica promedio de los electrones sometidos
a la luz ultravioleta es proporcional al campo electrico al cuadrado (asociado a la onda incidente) y por tanto es
proporcional a la intensidad incidente. Esto entra en conflicto directo con el hecho de que la energa adquirida por
los electrones de la superficie del fotocatodo sea independiente de la intensidad luminosa. Un problema mas serio
surge cuando se intenta calcular el tiempo necesario para que los fotoelectrones adquieran la energa suficiente para
llegar al otro electrodo. Este tiempo se estimo en unos 100seg bajo la hipotesis clasica de que la energa luminosa
se distribuye uniformemente sobre frentes de onda esfericos cuyo centro es la fuente. Experimentos posteriores
revelaron que el tiempo de absorcion no superaba los 109 seg.
Lo anterior llevo a Einstein en 1905 a generalizar el postulado de Planck enunciando que el contenido energetico
de una onda electromagnetica de frecuencia en una fuente de radiacion (onda libre) tambien puede tener solo
valores de la forma nh siendo n entero no-negativo y la frecuencia de la onda que se propaga. Esto implica que
al pasar la fuente de un estado de energa nh a otro de energa (n 1) h, la fuente emite un paquete de energa
electromagnetica con energa h. Einstein propuso ademas que este paquete de energa (foton) esta localizado
inicialmente en una pequena region del espacio y permanece localizado cuando se aleja de la fuente luminosa con
velocidad c, en contraste con la expansion caracterstica de un frente de onda clasico. Este paquete o cuanto de
energa denominado foton posee una energa = h. Postulo ademas que en el proceso fotoelectrico un cuanto era
completamente absorbido por el fotoelectron.
En primera instancia, el hecho de que el cuanto permaneciera localizado y fuese completamente absorbido
permita que los fotoelectrones absorbieran la energa necesaria para formar la fotocorriente de manera casi ins-
tantanea, eliminando la incompatibilidad con el tiempo de absorcion que se presentaba con las ondas clasicas.
2.3. EL EFECTO COMPTON 113

Por otro lado, definamos E como la energa necesaria para que un electron pueda llegar al otro electrodo,
esta sera igual a la energa necesaria para llegar a la superficie, mas la energa W necesaria para salir del material
venciendo la fuerzas superficiales atractivas. El mecanismo fotoelectrico imparte una energa h al fotoelectron y
si esta energa es mayor que E el electron puede escapar de la superfice del fotocatodo. Es claro que para los
electrones de la superficie E = W de modo que la maxima energa cinetica con la que llegan los fotoelectrones
al otro electrodo es
Emax = h W
mostrando claramente que tal energa maxima es funcion lineal de la frecuencia de la radiacion incidente, pero es
independiente de su intensidad. Estas predicciones fueron corroboradas por Millikan en 1916.

2.3. El efecto compton


En 1923, Compton realizo un experimento en el cual un haz aproximadamente monocromatico de rayos X de
longitud de onda 0 , incida en una placa metalica. Compton encontro que la radiacion dispersada contena un
pico de intensidad asociado a la longitud de onda 1 > 0 , ademas del pico asociado a 0 . A la presencia de este
pico en 1 se le conoce como efecto Compton. En la discusion subsecuente nos concentraremos en la explicacion
del pico de intensidad en 1 .
La observaciones mostraban que 1 aumentaba a medida que se incrementaba el angulo de dispersion , pero
era independiente del material de la lamina metalica. Puesto que 1 es siempre mayor que 0 , la frecuencia
1 = c/1 de la radiacion dispersada disminuye al aumentar el angulo de dispersion.
Adicionalmente, si asumimos que 1 es proporcional a la energa E1 del cuanto asociado a la radiacion (como
lo sugiere el efecto fotoelectrico), la dependencia de E1 con es cualitativamente similar a la dependencia angular
de la energa de una partcula dispersada por otra partcula. Por supuesto esta dispersion debe ser relativista,
puesto que los fotones son eminentemente relativistas.
El procedimiento de Compton fue en consecuencia, combinar la teora de la dispersion clasica relativista entre
particulas con la relacion frecuencia energa asumida para el cuanto de radiacion (foton) en el efecto fotoelectrico.
Consideremos entonces un cuanto o paquete localizado asociado a la radiacion electromagnetica (rayos X en este
caso), en la cual se cumple la relacion
E = h (2.2)
donde ademas el momento lineal del foton es p. La energa total relativista de una partcula de masa en reposo
m0 es
m0 c2
E=q (2.3)
2
1 vc2
y dado que la velocidad del foton es c, su masa en reposo debe ser nula. Por tanto, su energa E es totalmente
cinetica. Adicionalmente, la relacion entre el momento lineal y la energa de una partcula relativista esta dada
por
2
E 2 = p2 c2 + m0 c2 (2.4)
puesto que m0 = 0 para el foton, esta relacion se convierte en

E h h
p= = = (2.5)
c c
Ahora bien, puesto que la frecuencia 1 donde se obtiene un pico de intensidad (1 < 0 ) de la radiacion
dispersada, es independiente del material de la hoja metalica, es razonable suponer que en la dispersion no participa
el atomo completo. En consecuencia, otra de las suposiciones fundamentales de Compton, fue que los fotones se
dispersaban en virtud de las colisiones entre estos y los electrones libres en la lamina, que estan inicialmente en
reposo. Esta suposicion es razonable si tenemos en cuenta que un cuanto de rayos X tiene una energa mayor
114 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

en varios ordenes de magnitud a la energa de un cuanto de luz ultravioleta, y teniendo en cuenta que a su vez
el efecto fotoelectrico sugiere que la energa de un cuanto de luz ultravioleta, es comparable con la energa de
ligadura del electron en el metal.
Consideraremos entonces una colision entre un foton y un electron libre en reposo. Por simplicidad elegimos el
eje X a lo largo del momento lineal incidente p0 del foton localizado. Denotaremos como (E0 , p0 ) a la energa y la
magnitud del momento lineal del foton incidente, (E1 , p1 ) seran la energa y el momento lineal del foton dispersado
en un angulo (con respecto a X). Finalmente, (T, p) son la energa cinetica y el momento lineal del electron
dispersado en un angulo con respecto al eje X. La conservacion del momento lineal en X nos dice que

p0 = p1 cos + p cos (2.6)

y la conservacion del momento lineal en Y nos dice que

p1 sin = p sin (2.7)

elevando al cuadrado ambas ecuaciones se obtiene

(p0 p1 cos )2 = p2 cos2 ; p21 sin2 = p2 sin2

y sumando estas expresiones, obtenemos

p20 + p21 2p0 p1 cos = p2 (2.8)

por otro lado, aplicando la conservacion de la energa total relativista antes y despues de la dispersion, se tiene
que

E0 + m0 c2 = E1 + T + m0 c2
E0 E1 = T

donde m0 es la masa en reposo del electron. Aplicando la relacion (2.5), que es valida solo para el foton, se
encuentra que
c (p0 p1 ) = T (2.9)
Adicionalmente, aplicando la relacion (2.4), al electron dispersado tenemos que
2 2
T + m0 c2 = p2 c2 + m0 c2 T 2 + 2T m0 c2 = p2 c2
T2
+ 2T m0 = p2 (2.10)
c2
sustituyendo p2 y T de las Ecs. (2.8, 2.9) en la Ec. (2.10) resulta

c2 (p0 p1 )2
+ 2c (p0 p1 ) m0 = p20 + p21 2p0 p1 cos 2p0 p1 + 2m0 c (p0 p1 ) = 2p0 p1 cos
c2
(p0 p1 ) 1
m0 c (p0 p1 ) = p0 p1 (1 cos ) = (1 cos )
p0 p1 m0 c
 
1 1 1
= (1 cos )
p1 p0 m0 c

multiplicando por h y usando la relacion (2.5) para el foton, queda finalmente

h
(1 0 ) = C (1 cos ) ; C 0,02426 108 cm (2.11)
m0 c
2.4. ESPECTROSCOPIA, ESTABILIDAD DEL ATOMO Y TEORIA DE BOHR 115

donde C se denomina la longitud de onda de Compton. La Ec. (2.11) se conoce como ecuacion de Compton.
Esta ecuacion predice que el aumento en la longitud de onda asociada al segundo pico de resonancia con respecto a
la longitud de onda incidente, depende solamente del angulo de dispersion y de la constante universal C , pero es
independiente del material de la hoja metalica y de la longitud de onda incidente. La corroboracion experimental
fue realizada por diversos autores tales como Bothe, Wilson, Geiger, y Bless entre los anos 1923 y 1927.
Este experimento ademas de dar una prueba convincente de la existencia del cuanto de radiacion (foton),
muestra que este puede comportarse como partcula en un experimento de dispersion. Vimos anteriormente que
el efecto fotoelectrico tambien proporciona evidencia de la existencia de los cuantos, que ademas se suponen
localizados como las partculas. A priori pareciera darse un retroceso a una imagen corpuscular de la radiacion. No
obstante, la radiacion electromagnetica tiene ciertas propiedades como la difraccion, que solo puede ser explicada
en terminos de movimiento ondulatorio. Esto nos conduce a considerar que en la radiacion electromagnetica
el comportamiento ondulatorio y corpuscular coexisten, fenomeno que se conoce como dualidad onda-partcula.
Experimentos posteriores nos permitiran profundizar sobre esta naturaleza dual en el mundo microscopico.

2.4. El problema espectroscopico, la estabilidad del atomo y la teora de


Bohr
Con el advenimiento del modelo atomico de Rutherford, en el cual el atomo estaba constitudo por un pequeno
nucleo de carga positiva con la carga negativa (electrones) orbitando en la periferia, surge el problema de la
estabilidad del atomo. Esto debido a que la electrodinamica clasica predice que una carga acelerada rada emitiendo
energa. Por tanto, los electrones al orbitar deberan radiar perdiendo energa y provocando el colapso del electron
hacia el nucleo. El hecho de que la estructura atomica fuese estable constituyo entonces un reto para la Fsica de
principios del siglo XX.
Por otra parte, surga el problema de la discretizacion de los espectros atomicos. No entraremos en detalles sobre
los montajes experimentales para medir estos espectros. Mencionaremos simplemente, que cuando una descarga
electrica atraviesa una region que contiene un gas monoatomico las colisiones de los atomos con los electrones
y con otros atomos hacen que los atomos adquieran una energa mayor que la normal. Al regresar a su estado
normal, los atomos liberan la energa excedente en forma de radiacion electromagnetica, la cual esta compuesta
por ondas de diferente longitud de onda. La observacion de estas longitudes de onda que componen a la radiacion
(lneas espectrales) mostro que la radiacion electromagnetica emitida por un atomo libre consiste solo de ciertas
longitudes de onda, es decir el espectro es discreto2 . Adicionalmente, se observo que cada tipo de atomo tiene
su propio espectro, es decir un conjunto caracterstico de longitudes de onda, hecho que es de gran importancia
practica.
Ahora bien, el espectro del atomo de Hidrogeno es relativamente simple en virtud de la simplicidad de su
estructura atomica. En dicho espectro se observa que la distancia en longitudes de onda de dos lneas contiguas
decrece al disminuir la longitud de onda de las lneas hasta llegar a una lnea lmite de convergencia que denotamos
por = 3645,6 A. La regularidad y simplicidad de este espectro llevo a buscar formulas empricas que revelaran
el patron de longitudes de onda del espectro de emision. Adicionalmente, se observo que la estructura de las lneas
espectrales para atomos alcalinos (con un solo electron en la capa externa), obedece a un patron similar. Despues
de muchos analisis se encontro que en terminos del numero de onda k = 1 la formula emprica
 
1 1
k=R
(m a)2 (n b)2

describa muy bien la distribucion de lneas espectrales de los atomos alcalinos, donde R, a y b son constantes
propias del elemento, en tanto que m y n son enteros positivos. La constante R es conocida como constante de
2
Esto contrasta por ejemplo, con el espectro contnuo de la radiacion electromagnetica emitida por la superficie de los solidos a alta
temperatura.
116 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

Rydberg. Para el atomo de Hidrogeno en particular, se tiene que a = b = 0 y R RH = 109677,576 cm1 y se


escribe  
1 1
k = RH , n>m (2.12)
m2 n 2

las series de numeros de onda fueron clasificadas de acuerdo a valores fijos de m. Hablamos entonces de la serie
de Lyman (m = 1), serie de Balmer (m = 2), Paschen (m = 3), Brackett (m = 4) y Pfund (m = 5).
Hemos descrito el espectro de emision. No obstante, tambien existe el espectro de absorcion, para el cual
se usa una fuente que emite un espectro contnuo cuya radiacion se hace incidir sobre un recipiente de vidrio que
contiene el gas monoatomico que se desea investigar. Al medir el espectro que emite el gas monoatomico despues
de haber absorbido la radiacion contnua, se observa que el espectro es contnuo pero faltan algunas lneas muy
especficas, y que corresponden a las lneas del espectro que han sido suprimidas del espectro contnuo emitido
por la fuente, y que debieron ser absorbidas por los atomos del gas. Se observo que para cada elemento, a cada
lnea del espectro de absorcion le corresponde una lnea en el espectro de emision, pero lo recproco no es cierto:
solo ciertas lneas de emision se manifiestan en el espectro de absorcion. En el espectro de absorcion del atomo de
Hidrogeno, normalmente solo aparecen las lneas correspondientes a la serie de Lyman; pero cuando el gas esta a
muy alta temperatura (por ejemplo en la superficie de una estrella), se observan las lneas de la serie de Balmer
en el espectro de absorcion.

2.4.1. La teora de Bohr


Los postulados que describiremos a continuacion, enunciados por Niels Bohr en 1913, permitieron dar cuenta
razonablemente de los siguientes fenomenos: (a) La estabilidad del atomo, (b) La naturaleza discreta de los
espectros de emision y absorcion, (c) La descripcion especfica del espectro del atomo de Hidrogeno, (d) La
diferencia entre el espectro de absorcion y el de emision. Tales postulados fueron los siguientes:

1. En el atomo, un electron se mueve en una orbita circular alrededor del nucleo, bajo la influencia de la
interaccion coulombiana entre el nucleo y el electron, y obedeciendo a las leyes de la mecanica clasica.

2. De la infinidad de orbitas clasicamente permitidas, el electron solo puede moverse en aquellas para las cuales
el momento angular orbital L es un multiplo entero de la cantidad ~ h/2. Esto es

L = n~ = nh/2 , n = 1, 2, 3, . . . (2.13)

3. A pesar de que el electron esta en permanente aceleracion, se mueve en una orbita permitida sin radiar
energa electromagnetica, de modo que su energa total E, permanece constante.

4. Un electron emite energa electromagnetica, solo cuando se mueve de una orbita permitida (con energa Ei )
a otra orbita permitida (con energa Ef ), de manera discontnua. La frecuencia de la radiacion permitida
esta dada por
Ei Ef
= (2.14)
h

Con estos postulados, Bohr da cuenta de la estabilidad del atomo e introduce la cuantizacion del momento
angular, en contraste con los postulados de cuantizacion antes descritos, los cuales involucran la cuantizacion de
la energa.
Notese que el cuarto postulado Ec. (2.14) esta ntimamente relacionado con el postulado de Einstein, ya que
E = Ei Ef es la energa del cuanto (foton) que se emite, y por tanto E = h.
2.4. ESPECTROSCOPIA, ESTABILIDAD DEL ATOMO Y TEORIA DE BOHR 117

2.4.2. Predicciones de la teora de Bohr para atomos con un electron


Vamos a estudiar el caso de un atomo de masa M y carga +Ze, con un electron de masa m y carga e. Este
es el caso del Hidrogeno (Z = 1), el helio ionizado He+ (Z = 2), el litio doblemente ionizado Li++ (Z = 3), etc.
Supongamos que el electron se mueve en trayectoria circular alrededor del nucleo. Por simplicidad, asumiremos
que el nucleo permanece fijo en un sistema de referencia inercial, lo cual es razonable teniendo en cuenta que la
masa del nucleo es mucho mayor que la del electron. La condicion de estabilidad de esta orbita circular es que la
fuerza coulombiana iguale a la fuerza centrpeta necesaria para mantener la trayectoria circular.
Ze2 v2
= m (2.15)
r2 r
siendo v la rapidez del electron y r el radio del crculo. El momento angular esta dado por

L = mvr

aplicando la condicion de cuantizacion Ec. (2.13), se tiene que


n~
mvr = n~ v = , n = 1, 2, 3, 4, . . . (2.16)
mr
y sustituyendo esta rapidez en la Ec. (2.15) queda
n2 ~2 n2 ~2
Ze2 = mrv 2 = mr =
m2 r 2 mr
despejando r vemos que el radio estara tambien cuantizado
n2 ~2
r= ; n = 1, 2, 3, 4, . . . (2.17)
mZe2
reemplazando (2.17) en (2.16) tenemos
n~ 1 n~ mZe2 Ze2
v= = = ; n = 1, 2, 3, 4, . . . (2.18)
mr m n2 ~2 n~
vemos que tanto la velocidad como el radio estan cuantizados como consecuencia de la cuantizacion del momento
angular. Similarmente es facil ver que los postulados de Bohr tambien conducen a la cuantizacion de la energa.
Para verlo, tendremos en cuenta que la energa potencial coulombiana esta dada por
Ze2
V =
r
donde el menos se debe a la naturaleza atractiva de la interaccion. Por otro lado, la energa cinetica (no-relativista)
se puede calcular empleando la Ec. (2.15)
1 Ze2
T = mv 2 = (2.19)
2 2r
sumando estas dos energas y empleando la Ec. (2.17) la energa total queda
Ze2 Ze2 mZe2
E = T +V = = T =
2r 2 n2 ~2
mZ 2 e4
E = ; n = 1, 2, 3, 4, . . . (2.20)
2n2 ~2
cuando se calcula el radio de la orbita menor (n = 1), empleando los valores numericos apropiados (con Z = 1)
en la Ec. (2.17) se obtiene
~2
r0 = a0 0,53 1010 m (2.21)
me2
118 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

es claro de la Ec. (2.17) que este es el menor radio posible. Adicionalmente, este valor concuerda de forma
razonable con las predicciones para el modelo atomico de Rutherford. As mismo, la Ec. (2.20) nos dice que
cuando n = 1 obtenemos el estado de menor energa, de modo que n = 1 corresponde al estado base o estado
normal del atomo de Hidrogeno. El valor del radio para este estado de menor energa se denomina radio de
Bohr. Finalmente, la velocidad del electron es maxima cuando n = 1 como se aprecia en la Ec. (2.18). Tomando
Z = n = 1 y los valores numericos apropiados en la Ec. (2.18) esta velocidad esta dada por

v 2,2 106 m/seg < 0,01c

como esta velocidad es menos del uno por ciento de la velocidad de la luz, se espera que una descripcion no-
relativista sea adecuada, esto es ademas consistente con la suposicion no-relativista dada en la Ec. (2.19). Sin
embargo, la descripcion no-relativista deja de ser adecuada para valores grandes de Z.
Por otra parte, se observa que al incrementarse el numero cuantico a partir del estado base n = 1, la energa
se hace menos negativa, y por tanto se incrementa. Claramente, E = 0 es una energa lmite (asociada a n ),
y los estados de energa se aproximan arbitrariamente a E = 0 cuando n crece. En consecuencia, los estados
permitidos son todos de energa negativa. Esto se debe a que energas mayores que cero, corresponden a electrones
libres que ya no estan ligados al atomo, y en estado libre la energa de los electrones corresponde a un espectro
contnuo. Es de enfatizar sin embargo, que la teora de Bohr solo nos habla de electrones ligados a un atomo.
Queda entonces por calcular las frecuencias permitidas para la radiacion emitida, para lo cual apelamos al
cuarto postulado Ec. (2.14) que combinado con la Ec. (2.20) conduce a
" #
Ei Ef mZ 2 e4 1 1
= = 2 (2.22)
h 4~3 n2f ni

que en terminos del numero de onda k = 1 = /c nos da


" #
1 1 me4 2
k = RH 2 ; RH Z (2.23)
n2f ni 4c~3

expresion que coincide con la formula emprica (2.12), en donde una evaluacion numerica de la constante RH
en la Ec. (2.23), coincidia razonablemente con el valor numerico que se haba obtenido empricamente RH
109677,576 cm1 . La teora de Bohr nos dice entonces que existe una energa asociada al estado base o de mnima
energa para el electron, que corresponde a n = 1. En una descarga electrica el atomo puede absorber energa y
generar una transicion a un estado de energa mayor o estado excitado con n > 1. Una vez excitado, el atomo
emitira este exceso de energa para regresar al estado base. En general, esta desexcitacion se logra mediante una
serie de transiciones en las que el electron pasa sucesivamente por estados de energa cada vez mas baja hasta llegar
al estado base. En cada transicion se emitira radiacion electromagnetica con frecuencias dadas por la Ec. (2.22).
Por ejemplo, un electron puede ser excitado al estado con n = 6, y pasar sucesivamente por los estados n = 4, 2, 1
emitiendo tres lneas del espectro atomico, con frecuencias dadas por (2.22). En la infinidad de excitaciones y
desexcitaciones de todos los atomos que se efectuan en la medida del espectro de emision, se presentan todas las
transiciones posibles y por tanto se exhibe el espectro completo.
Estas predicciones fueron corroboradas experimentalmente para el hidrogeno (Z = 1) y para el He+ (Z = 2).
As mismo, la teora puede explicar el espectro de absorcion para atomos con un electron. Ya que solo ciertas
transiciones son posibles, el atomo solo absorbera cantidades discretas de energa de la radiacion incidente. La
radiacion incidente consiste de haces de cuantos de todas las frecuencias, en donde solo los fotones con frecuencias
dadas por (2.22) pueden ser absorbidos. No obstante, los atomos en general estan inicialmente en el estado base
n = 1, de manera que solo pueden presentarse procesos de absorcion de n = 1 a n > 1, razon por la cual se
observaran normalmente solo las lneas asociadas a la serie de Lymann en el caso del Hidrogeno. Cuando el gas
esta a una temperatura elevada, es posible que algunos atomos esten inicialmente en el primer estado excitado
n = 2 de modo que tambien seran observables las lneas de la serie de Balmer. La temperatura necesaria para
2.5. LAS REGLAS DE CUANTIZACION DE WILSON Y SOMMERFELD 119

que exista una poblacion razonable de atomos en el estado n = 2 se puede calcular utilizando la estadstica de
Boltzmann, vemos que una fraccion 1/e de los atomos estara en el estado n = 2 para temperaturas del orden
de 105 K, temperatura tpica de algunas superficies estelares. En consecuencia, la teora de Bohr puede tambien
explicar la diferencia entre el espectro de absorcion y el de emision.
Todas las predicciones de la teora de Bohr, se ajustan aun mejor cuando se tiene en cuenta la correccion de
que la masa nuclear es finita y se realiza la reduccion del problema de dos cuerpos al problema de un cuerpo con
masa igual a la masa reducida del sistema (ver seccion 12.1). Posteriormente, la cuantizacion de los estados de
energa de los electrones en el atomo fue corroborada por los experimentos de Franck y Hertz.

2.5. Las reglas de cuantizacion de Wilson y Sommerfeld


En las descripciones anteriores, vemos que las cuantizaciones introducidas hasta el momento obedecen a pro-
blemas fenomenologicos a priori diferentes y cada proceso de cuantizacion se ha introducido para cada fenomeno
especfico. Las reglas de cuantizacion de Wilson y Sommerfeld constituyen un intento de unificar al menos par-
cialmente estos diversos postulados de cuantizacion.
Una primera observacion es el hecho de que la cuantizacion de la energa de Planck esta asociada a oscila-
dores armonicos y la de Bohr esta asociada a orbitas circulares regulares. Es decir, ambas estan asociadas a un
movimiento periodico. En mecanica clasica, los movimientos periodicos son particularmente transparentes en la
formulacion de Hamilton-Jacobi de la mecanica clasica, particularmente en la variante conocida como variables
accion-angulo. Por esta razon, la formulacion que veremos a continuacion esta basada en el formalismo de las
variables accion angulo.
La regla de cuantizacion de Wilson y Sommerfeld se enuncia de la siguiente manera: Sea q una coordenada
generalizada de un sistema fsico que vara periodicamente con el tiempo, y sea pq su momento canonicamente
conjugado. Este par de variables canonicas q y pq obedecen a la siguiente regla de cuantizacion
I
pq dq = nq h (2.24)

siendo nq un numero cuantico entero y la integral cerrada se efectua sobre un periodo de movimiento. Notese
que el producto de una coordenada generalizada por su momento conjugado siempre tiene unidades de momento
angular, y por eso la cuantizacion esta directamente relacionada con la constante de Planck, la cual tiene unidades
de momento angular. Veremos que la cuantizacion de Bohr y de Planck surgen como casos especiales de esta regla
de cuantizacion, y que ademas permite ampliar el dominio de la mecanica cuantica.
Sin embargo, es necesario aclarar que la regla de Wilson y Sommerfeld no puede explicar la cuantizacion de
Einstein o Compton, puesto que en estos casos los cuantos son esencialmente libres y no poseen un movimiento
periodico.

2.5.1. El atomo de Bohr bajo las reglas de Wilson y Sommerfeld


Retomemos el atomo de Bohr con un electron de masa m en una orbita circular de radio r0 con velocidad
constante. Usaremos la coordenada generalizada (la coordenada r no es independiente de modo que no se
incluye como coordenada generalizada), la coordenada es claramente periodica si consideramos que la rapidez
del electron es uniforme. El momento canonicamente conjugado a es el momento angular orbital L = mr02 , y
dado que = cte por ser periodico el movimiento, vemos que el momento angular es una constante de movimiento.
Al aplicar la regla de cuantizacion (2.24) a q = y pq = L tenemos
I
nh
L d = 2L = nq h L = = n~
2

que reproduce la regla de cuantizacion de Bohr.


120 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

2.5.2. Cuantizacion de Planck con las reglas de Wilson y Sommerfeld


Consideremos un oscilador armonico simple de masa m, frecuencia angular = 2 y amplitud x0 . La
coordenada generalizada x es periodica y viene dada por3
x = x0 sin 2t = x0 sin t
el momento canonicamente conjugado a x es p = mx, de modo que
p = mx0 cos t (2.25)
y la regla de cuantizacion (2.24) nos da
I I
p dx = mx0 cos t dx = nh (2.26)

para poder evaluar esta integral debemos expresar cos t en funcion de x


 x20 x2
x2 = x20 sin2 t = x20 1 cos2 t cos2 t =
x20
p
x20 x2
cos t = (2.27)
x0
es claro que el signo de cos t (que es el signo del momento p de acuerdo con la Ec. 2.25), viene dado por el sentido
instantaneo de movimiento. Vamos a expresar el movimiento periodico completo partiendo del origen hacia la
derecha y llegando de nuevo al origen desde la izquierda. En la primera etapa desde cero hasta x0 , la velocidad (y
por tanto cos t) es positiva. Desde x0 hasta cero cos t es negativo, al igual que desde cero hasta x0 . Finalmente
cos t 0 en el intervalo desde x0 hasta cero. Tenemos entonces
I Z x0 Z 0 Z x0 Z 0
cos t dx = |cos t| dx + ( |cos t|) dx + ( |cos t|) dx + |cos t| dx
0 x0 0 x0
Z x0 Z x0 Z x0 Z x0
= |cos t| dx + |cos t| dx |cos t| dx |cos t| dx
0 0 0 0
Z x0 p Z x0 p
x20 x2 x20 x2
= 2 dx 2 dx
0 x0 0 x0
donde hemos usado la Ec. (2.27) en el ultimo paso. Haciendo x = x en la segunda integral se tiene
I Z x0 p 2 Z x0 p 2
x0 x2 x0 x2 
cos t dx = 2 dx 2 dx
0 x0 0 x0
y siendo x variable muda, ambas integrales son identicas de modo que
I Z x0 p 2 " p #x0
x0 x2 4 x x20 x2 x20 x
cos t dx = 4 dx = + arcsin = 2x0 (arcsin 1 arcsin 0) = x0
0 x0 x0 2 2 x0
0
con lo cual la integral en (2.26) queda
I
2 m 2 x20 1 m 2 x20
p dx = mx20 = =
2 2
ahora bien, recordando que la energa total del oscilador armonico es igual a la energa potencial maxima E =
(1/2) m 2 x20 (ya que en la posicion de maxima elongacion no hay energa cinetica), y usando la regla de cuantizacion
(2.26), tenemos que I
E
p dx = = nh E = nh

que es la regla de cuantizacion de Planck.
3
Naturalmente puede haber una fase, pero esto no es relevante para nuestros propositos.
2.5. LAS REGLAS DE CUANTIZACION DE WILSON Y SOMMERFELD 121

2.5.3. La teora relativista de Sommerfeld y la estructura fina del atomo de Hidrogeno


Por medio de espectrometros de gran resolucion, fue posible determinar que los atomos poseen una estructura
fina en su espectro. En particular, la estructura fina del atomo de Hidrogeno posea una separacion en componentes
de una misma lnea espectral, unas 104 veces menor que la separacion entre lneas espectrales (en terminos de
numero de onda). Basado en la cuantizacion de Wilson y Sommerfeld, el ultimo de estos adiciono un postulado
de la siguiente forma: Lo que se supona como un solo estado del atomo de Hidrogeno, consiste en realidad de
varios estados de energas aproximadamente iguales, asociados a orbitas elpticas de diferente excentricidad. Sin
embargo, el movimiento se sigue considerando periodico, de modo que las reglas de cuantizacion de Wilson y
Sommerfeld permanecen validas.
En primer lugar, Sommerfeld evaluo las consecuencias de este postulado adicional en terminos de la regla de
cuantizacion de Wilson y Sommerfeld en el marco de la mecanica clasica no-relativista. Utilizando coordenadas
polares r y , y teniendo en cuenta que r ya no es constante, entonces r y se consideraran coordenadas generali-
zadas con sus momentos canonicamente conjugados. Por tanto, habra dos condiciones de cuantizacion, a diferencia
del caso de orbita circular en el cual hay solo una. Puesto que pr = mr las condiciones de cuantizacion quedan en
la forma I I
L d = n h ; pr dr = nr h

la primera condicion nos provee de la regla de cuantizacion ya conocida del momento angular

L = n ~ , n = 1, 2, 3, . . .

en tanto que la segunda condicion de cuantizacion queda en la forma


a 
L 1 = nr ~ , nr = 0, 1, 2, 3, . . .
b
siendo a y b los semiejes mayor y menor de la elipse respectivamente.. La relacion de estabilidad de la orbita
elptica analoga a la Ec. (2.15) para orbita circular, conduce a las relaciones de cuantizacion para los semiejes y
la energa de los electrones en las orbitas elpticas
n2 ~2 n Z 2 e4
a= 2
, b=a , E= ; n n + nr , n, n = 1, 2, 3, . . . (2.28)
Ze n 2n2 ~2
donde es la masa reducida del electron (es decir ya se tuvo en cuenta el efecto de masa finita del nucleo). El numero
cuantico n se denomina numero cuantico principal, puesto que la energa de los estados (en aproximacion no-
relativista) solo depende de el. Por otro lado, n se conoce como numero cuantico azimutal. Observese que
el semieje mayor coincide con el radio de la orbita circular de Bohr, como se observa al comparar la primera de
las Ecs. (2.28) con la Ec. (2.17). Adicionalmente, la segunda de las Ecs. (2.28) muestra que la forma de la elipse
esta determinada por el cociente n /n. Cuando n = n , las orbitas son crculos de radio a y nos reducimos a las
orbitas de Bohr. Es facil ver que para un n fijo, hay n valores diferentes para el numero cuantico azimutal n . En
consecuencia, hay n orbitas elpticas (una de ellas es circular) asociadas a un mismo valor de la energa (la cual
solo depende de n), se dice entonces que las orbitas posibles para un n dado estan degeneradas.
Por otra parte, el estimativo del orden de magnitud de la velocidad maxima de un electron en una orbita
de Bohr, nos dio que v/c 102 . Esto implicara que la correccion relativista a la energa total, debida a la
variacion relativista de la masa electronica sea del orden de (v/c)2 104 , que a su vez es el orden de magnitud
de separacion entre componentes de la misma lnea espectral (con respecto a la separacion de las lneas). Esto
sugiere que la degeneracion pueda removerse aplicando la corrrecion relativista al modelo. Una vez hechas tales
consideraciones, Sommerfeld encontro la siguiente expresion para la energa total de un electron que se mueve en
una orbita elptica caracterizada por los numeros cuanticos n y n
  
Z 2 e4 2 Z 2 1 3
E = 2 2 1+
2n ~ n n 4n
122 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

donde la constante adimensional se define como


e2 1

~c 137
la dependencia con n de la correccion relativista, introduce la remocion de la degeneracion necesaria para explicar
la estructura fina del atomo de Hidrogeno. No obstante, existan algunas transiciones que no se observaban
experimentalmente. Por ejemplo, una transicion del estado (n, n ) = (3, 2) al estado (1, 1) es posible. Pero la
transicion del estado (3, 3) al estado (1, 1) no se observa en un solo paso. Sin embargo, la ultima transicion (que
nos lleva al estado base) se puede hacer en dos transiciones directas que s estan permitidas: (3, 3) (2, 2) (1, 1).
Las observaciones experimentales nos llevan a la siguiente regla  de seleccion: Una transicion entre dos estados
caracterizados por los numeros cuanticos (ni , ni ) y nf , nf solo es posible si se cumple la condicion

ni nf = 1

esta regla de seleccion debe ser postulada por aparte en la teora relativista de Sommerfeld.

2.6. Los postulados de De Broglie


Los modelos de Einstein y Compton sugeran que la radiacion (fotones) poda tener comportamiento de partcu-
la. Esencialmente, la naturaleza corpuscular de la radiacion se manifiesta en la interaccion radiacion materia (al
menos a nivel microscopico), en tanto que el patron ondulatorio se manifiesta en la forma en que la radiacion se
propaga.
Ahora bien, si la radiacion puede tener comportamiento corpuscular, es natural apelar a un principio de
simetra y preguntarse si las partculas (la materia) pueden exhibir comportamiento ondulatorio. Este principio
de simetra fue el que introdujo de Broglie en 1924. Puesto que el comportamiento ondulatorio de las partculas
no se haba observado, era necesario que las predicciones sobre la longitud de la onda asociada a la partcula (que
De Broglie llamo onda piloto), fuesen mucho menores que todas las dimensiones tpicas de la mayora de objetos
materiales.
Para estimar la longitud de las ondas piloto asociadas a una partcula, De Broglie supuso que la relacion entre
la energa total relativista E y la frecuencia de esta onda, era identica a la relacion de Einstein para la radiacion
electromagnetica
E
= (2.29)
h
y que la longitud de onda se puede calcular con la relacion usual entre , y la velocidad w de propagacion de
la onda
w
= (2.30)

para la radiacion electromagnetica w = c, y por tanto
c hc
= = (2.31)
E
adicionalmente, la Ec. (2.5) nos dice que el momento lineal de un foton es p = E/c, de modo que queda en la
forma
h
= (2.32)
p
En sntesis, De Broglie postulo que las Ecs. (2.32, 2.29), que hasta aqu eran validas solo para fotones, tambien
nos dan la longitud de onda y la frecuencia de las ondas piloto asociadas a una partcula de momento lineal p y
energa relativista E, de modo que
h E
= ; = (2.33)
p h
2.6. LOS POSTULADOS DE DE BROGLIE 123

notese que la derivacion de la Ec. (2.32) provino de hacer w = c en la Ec. (2.30), lo cual no es valido para partculas
con masa diferente de cero, al menos si suponemos que la velocidad de la onda esta relacionada con la velocidad
de la partcula. Sin embargo, la relacion (2.32) es independiente de la velocidad de la onda y fue la relacion que
De Broglie extrapolo para partculas.

2.6.1. Propiedades de las ondas piloto


Es de esperarse que la velocidad de la onda piloto sea la velocidad de la partcula, o al menos que haya una
relacion simple entre las dos. Combinando las Ecs. (2.30, 2.33) vamos a calcular la velocidad de propagacion w de
las ondas piloto asociadas a la partcula
Eh E
w = = = (2.34)
hp p
y utilizando la expresion para la energa total relativista tenemos
q q
2
2 2
c p + (m0 c ) 2 c p2 + (m0 c)2
w = =
p p
s  2
m0 c
w = c 1+ (2.35)
p

observamos que w es mayor que c. No obstante, esto no supone una contradiccion ya que w esta asociado a

Figura 2.1: Apariencia de una onda piloto, asociada a una partcula. Puesto que suponemos que una partcula esta
localizada, su paquete de onda asociado debe estar tambien localizado. El perfil (x, t) del paquete, se dibuja aqu
para una configuracion instantanea evaluada en t = t0 .

la velocidad de fase de las ondas piloto. Es de esperarse que el perfil instantaneo de una onda piloto tenga una
apariencia similar a la mostrada en la Fig. 2.1. Es decir, la onda piloto debe tener un valor distinto de cero solo
en cierta vecindad espacial, ya que es logico que la localizacion de la onda piloto este asociada a la localizacion
de la partcula. Para formar un pulso de ondas como el de la Fig. 2.1 es necesario superponer un numero infinito
de ondas monocromaticas, constituyendo un paquete de ondas. Para dicho paquete, debe distinguirse entre la
velocidad de fase w y la velocidad de grupo wg , del paquete4 . Es posible demostrar que estas velocidades vienen
4
Las caractersticas de un paquete de ondas, su velocidad de fase y de grupo, seran consideradas en detalle en las secciones 2.11 y
2.13.
124 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

dadas por
d
w= ; wg =
k dk
ademas, es la velocidad de grupo la que no debe superar a la velocidad de la luz, es decir la que esta asociada a
los fenomenos de transporte. Calculemos entonces la velocidad de grupo de las ondas piloto de una partcula en
movimiento. Partimos de las Ecs. (2.33)
E 1 p
= ; k =
h h
por tanto

dE dp
d = ; dk =
h h
d dE
wg = = (2.36)
dk dp

utilizando de nuevo la expresion relativista de la energa, tenemos


2
E2 = c2 p2 + m0 c2 2E dE = 2pc2 dp
dE p
= c2 (2.37)
dp E

reemplazando (2.37) en (2.36) se tiene


p
wg = c2 (2.38)
E
y teniendo en cuenta las expresiones relativistas

1
E = m0 c2 , p = m0 vp ; q (2.39)
vp2
1 c2

donde vp es la velocidad de la partcula y m0 su masa en reposo. Sustituyendo (2.39) en (2.38), se obtiene


m0 vp
wg = c2 = vp (2.40)
m0 c2

de modo que la velocidad de grupo, que es la que contiene las propiedades de propagacion de la onda, es igual a la
velocidad de la partcula, mostrando la consistencia de los postulados de De Broglie. Por otro lado, las Ecs. (2.34,
2.38) nos dicen la relacion que hay entre la velocidad de fase y la velocidad de grupo (o velocidad de la partcula)

c2 c2
w= =
wg vp

notese que si usaramos las Ecs. (2.31, 2.29), en lugar de las Ecs. (2.32, 2.29) obtendramos

E hc d dE/h
w= = = =c ; wg = = =c
k h E dk dE/hc

relacion que solo es valida para cuantos que se mueven a la velocidad de la luz. Ya habamos enfatizado que la
Ec. (2.32) se obtena usando w = c en la Ec. (2.30), lo cual solo era valido para la radiacion. Sin embargo, la Ec.
(2.32) era independiente de la velocidad, y por esa razon se poda extrapolar a partculas materiales. En contraste,
la Ec. (2.31) depende explcitamente de la velocidad c, y no puede ser extrapolada directamente.
2.6. LOS POSTULADOS DE DE BROGLIE 125

2.6.2. Corroboracion experimental de los postulados de De Broglie


Para poder medir experimentalmente la longitud de la onda piloto asociada a una partcula, debemos encontrar
un sistema para el cual = h/p sea del orden de magnitud de las dimensiones caractersticas de dicho sistema.
Consideremos primero una partcula de polvo con radio tpico r y densidad que se mueve con una velocidad no
relativista v. Utilizando valores tpicos tomaremos

r = 104 cm , = 10gr/cm3 , v = 1cm/seg , h = 6,62 1027 erg seg

de modo que

4 3
p = mv = r v 4 1011 gr cm seg1
3
h 6,62 1027 gr cm2 seg2 seg
= = 1,6 1016 cm
p 4 1011 gr cm seg1

esta longitud es 108 veces menor que un radio atomico!. Por tanto, no es viable para una exploracion experimental.
Consideremos ahora un electron cuya energa sea del orden de 10eV = 1,6 1011 ergs, esta es aproximada-
mente, la energa cinetica de un electron en el atomo de Hidrogeno. Para esta energa cinetica la velocidad es
mucho menor que c y se puede considerar no relativista. Por tanto, si asumimos un electron libre no relativista
con esta energa, su impulso viene dado por la expresion no-relativista

p= 2mT 3,9 108 cm

esta longitud es casi un orden de magnitud mayor que un radio atomico tpico, y aproximadamente del orden de
magnitud de la distancia interatomica en un cristal5 . Esto sugiere que un electron incidiendo en un cristal puede
presentar fenomenos de difraccion, en donde las rendijas son los intersticios interatomicos. No describiremos
aqu los montajes experimentales que condujeron a la deteccion del patron de difraccion de los electrones. Basta
con decir que los experimentos de Davidson y Germer en 1927 tomaron el patron de difraccion de los electrones
que inciden en un cristal. El patron anular de difraccion de los electrones por cristales, no se puede atribuir a la
interferencia entre dos o mas electrones distintos, sino a las ondas asociadas a un solo electron y que provienen de
distintas partes del cristal. Esto se debe a que en el montaje experimental se empleo un haz de tan baja intensidad,
que los electrones son emitidos uno por uno, eliminando as las posibles interferencias entre electrones distintos.

2.6.3. Las reglas de cuantizacion de Bohr a la luz de los postulados de De Broglie


Hemos visto que la longitud de la onda piloto de un electron es aproximadamente 4 108 cm (asumiendo
que su energa cinetica es aproximadamente la del electron en el estado base del atomo de Hidrogeno). Por otro
lado, el radio de Bohr es la distancia tpica del electron al nucleo en el estado base del atomo de Hidrogeno y esta
dada por r0 0,5 108 cm. En consecuencia, es casi un orden de magnitud mayor al radio de Bohr y por tanto,
es de esperarse que el comportamiento ondulatorio sea esencial en el entendimiento de las orbitas en el atomo
de Hidrogeno. Sin embargo, las consideraciones anteriores se realizaron para electrones libres que no repiten su
orbita periodicamente, razon por la cual su onda piloto asociada deba ser una onda viajera que acompanara a
la partcula en su propagacion. Ahora bien, un electron en una orbita atomica posee un movimiento periodico y
no posee una direccion neta de propagacion6 , con lo cual esperaramos que su onda piloto asociada no tenga una
direccion neta de propagacion. Esto nos conduce de manera natural a considerar que la onda piloto asociada a un
electron en una orbita atomica periodica debe ser una onda estacionaria i.e. con nodos fijos.
5
Ademas, esta longitud de onda es muy grande con respecto a todas las dimensiones esperadas de la partcula asociada (el electron).
6
Por ejemplo, si promediamos el vector r sobre un periodo completo, tomando como origen el nucleo atomico, dicho promedio es
nulo.
126 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

Veremos que la combinacion de la regla de cuantizacion de Bohr junto con los postulados de De Broglie, nos
conducen a ondas piloto estacionarias. La regla de cuantizacion de Bohr Ec. (2.16) se escribe como
nh
mvr = pr = ; n = 1, 2, 3, . . .
2
siendo p el momento lineal del electron en la orbita permitida de radio r. Al sustituir el momento lineal por el
primer postulado de De Broglie de la Ec. (2.33) tenemos
hr nh
= ; n = 1, 2, 3, . . .
2
2r = n ; n = 1, 2, 3, . . . (2.41)

de manera que el permetro de las orbitas permitidas es un multiplo entero de longitudes de onda de De Broglie.
La Ec. (2.41) es precisamente la condicion para que las ondas piloto del electron que se mueve repetidamente sobre
su orbita, se combinen coherentemente con las ondas piloto de recorridos anteriores, de modo que la superposicion
forme una onda estacionaria. De hecho, si se violara la condicion (2.41), entonces cuando se superpongan las ondas
asociadas a un gran numero de recorridos, su interferencia sera destructiva y se cancelara su intensidad promedio.
Puesto que la intensidad de la onda piloto es una medida de la ubicacion de la partcula, lo anterior implica que el
electron no podra estar en esa orbita. La Fig. 2.2 ilustra el patron de intensidad (x, t0 ) de la onda estacionaria
asociada a las tres primeras orbitas de Bohr, para un tiempo fijo t = t0 . Cuando el tiempo evoluciona cambia la
magnitud y el signo de los patrones oscilantes, pero la ubicacion de los nodos es la misma en todo tiempo, ya que
estos son fijos en una onda estacionaria.
Por otra parte, es posible demostrar que la exigencia de ondas piloto estacionarias para partculas en movimien-
to periodico, conduce a que dicha partcula deba satisfacer las reglas de cuantizacion de Wilson y Sommerfeld, Ec.
(2.24). Finalmente, las caractersticas independientes del tiempo de la onda estacionaria permiten explicar porque
el electron en movimiento periodico orbital no emite radiacion electromagnetica.

2.7. Sntesis de los resultados experimentales


Newton considero que la luz era un haz de corpusculos que podan reflejarse en un espejo cuando rebotan.
Sin embargo, los experimentos que mostraron fenomenos como la interferencia y la difraccion, establecieron la
naturaleza ondulatoria de la luz a mediados del siglo XIX, lo cual permitio la fusion de la optica con la electricidad
y el magnetismo. Los fenomenos de polarizacion de la luz pueden interpretarse como una manifestacion del caracter
vectorial del campo electrico.
No obstante, el estudio de la radiacion del cuerpo negro sugirio la hipotesis de la cuantizacion de la energa de
las ondas electromagneticas estacionarias (osciladores armonicos) que se generaban al interior del cuerpo negro. La
energa de estos osciladores es de la forma E = nh con n = 0, 1, 2, ...; siendo la frecuencia de cada oscilador. Esta
cuantizacion permite predecir adecuadamente el espectro de emision del cuerpo negro empleando la estadstica de
Boltzmann. Por otra parte, el estudio del efecto fotoelectrico sugirio que las ondas electromagneticas libres que
se propagaban tambien estaban constitudas por paquetes de energa que indican valores discretos de esta. Cada
paquete denominado foton tendra una energa dada por E = h. Esto permitio a Einstein comprender porque
la energa maxima adquirida por los electrones era independiente de la intensidad de la onda electromagnetica
incidente y porque este energa se adquira en tiempos tan cortos. Para ello era necesario ademas que el paquete
estuviera localizado en una pequena region del espacio y que permaneciera localizado a medida que se aleja de la
fuente, a diferencia de las ondas clasicas que se extienden cuando se alejan de la fuente. Mas adelante, mediante la
irradiacion de una placa metalica con rayos X, compton muestra que estos cuantos pueden dispersarse mediante
la colision con un electron libre estacionario, emulando una colision tipo bolas de billar. De esta forma pudo
predecir el pico en el espectro asociado a una longitud de onda mayor que la incidente.
En sntesis, estos experimentos estan mostrando la naturaleza discreta de la energa que se propaga en una onda
electromagnetica y el hecho de que el cuanto asociado se puede comportar como partcula. Adicionalmente, tanto
2.7. SINTESIS DE LOS RESULTADOS EXPERIMENTALES 127

Figura 2.2: Patrones de onda estacionaria (lineas punteadas) asociados a las tres primeras orbitas de Bohr (lineas
continuas). El perfil se dibuja para una configuracion instantanea evaluada en t = t0 .

la cuantizacion como la colision de fotones con electrones libres pudo explicarse satisfactoriamente relacionando
los parametros de partcula (energa E y momento p del foton) con los parametros de onda (frecuencia y numero
128 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

de onda k del foton) de la radiacion, en la forma


h
E = h ; p = ~k ; ~ ; h 6,62 1034 Joul seg (2.42)
2
De otra parte, los experimentos espectroscopicos nos muestran que la radiacion emitida o absorbida debida
a transiciones electronicas en los atomos, solo nos arroja cuantos con valores discretos de longitud de onda, y
por tanto de energa. Esto implica que los niveles de energa permitidos para un electron ligado a un atomo
tambien estan cuantizados. Lo anterior llevo a Bohr a postular la cuantizacion del momento angular asociado al
electron junto con la hipotesis de ausencia de radiacion, en contraste con las predicciones de la mecanica clasica.
La cuantizacion de los estados de energa atomicos fue corroborada por los experimentos de Franck y Hertz, en
tanto que las reglas de cuantizacion fueron perfeccionadas por Wilson y Sommerfeld.
Una vez caracterizada la dualidad onda partcula de la radiacion, es natural preguntarse si esta dualidad esta
tambien presente en los objetos fsicos que tradicionalmente llamamos materia, por ejemplo en los electrones. Esta
pregunta condujo a De Broglie a postular que el movimiento de una partcula esta gobernado por la propagacion
ondulatoria de ciertas ondas piloto asociadas con la partcula. Asumiendo que la energa E y el momento p de la
partcula tambien cumplen las relaciones (2.42) dadas para el foton, De Broglie estimo la frecuencia y la longitud
de onda de las ondas piloto
= h/p ; = E/h (2.43)
Este postulado fue confirmado por los experimentos de Davidson y Germer sobre difraccion de electrones.
Naturalmente, el momento y la energa totales se deben conservar en cada proceso, en donde los momentos y
energas de la radiacion y la materia estan dados por los postulados anteriores.
Vamos ahora a examinar en mas detalle el experimento de Young de la doble rendija. Veremos que este analisis
aportara ideas adicionales con respecto al comportamiento de la naturaleza a nivel subatomico.

2.8. El experimento de Young de la doble rendija


Hemos visto que es necesario incorporar aspectos corpusculares al comportamiento de la radiacion electro-
magnetica, la pregunta es si debemos abandonar la teora ondulatoria de la radiacion electromagnetica. Veremos
que no es posible con una teora puramente corpuscular explicar todos los fenomenos relacionados con los fotones,
de manera que tendremos que incorporar tanto los aspectos ondulatorios como corpusculares de la radiacion.
El dispositivo utilizado se muestra en la Fig. 2.3, y consiste en una fuente aproximadamente monocromatica
frente a la cual se coloca una placa opaca P con dos rendijas pequenas F1 y F2 (pequenas con respecto a la longitud
de onda emitida), detras de esta placa opaca se ubica una pantalla de observacion O que es usualmente una placa
fotografica. Es importante que las dimensiones de las rendijas sean menores que la longitud de onda, ya que de
lo contrario las intensidades recogidas en la pantalla O seran compatibles con la optica geometrica que puede
explicarse con una teora corpuscular. En contraste, el fenomeno de difraccion que se presenta cuando las rendijas
son pequenas nos muestra la naturaleza ondulatoria del fenomeno.
Cuando obstrumos la rendija F2 obtenemos sobre la pantalla O una distribucion de intensidades I1 (x) que es
el patron de difraccion generado por la rendija F1 . Analogamente, al cerrar F1 obtenemos el patron de intensidades
I2 (x). Si ahora abrimos las dos rendijas simultaneamente obtendremos un nuevo patron de intensidades I (x). La
primera observacion es que la intensidad resultante NO es la suma de las intensidades obtenidas con una sola
rendija
I (x) 6= I1 (x) + I2 (x)
como podran explicarse estos resultados a la luz de una teora corpuscular?. Es bien conocido que el patron
de Difraccion generado por una sola rendija no puede ser explicado con una teora corpuscular cuando la rendija
tiene una dimension menor que la longitud de onda incidente. Sin embargo, veremos que aun cuando pudiesemos
explicar el fenomeno de una rendija con una teora corpuscular, el patron de interferencia que se forma cuando
se abren las dos rendijas entra en conflicto con una teora puramente corpuscular. Asumamos que el patron de
2.8. EL EXPERIMENTO DE YOUNG DE LA DOBLE RENDIJA 129

Figura 2.3: (a) Montaje del experimento de Young con doble rendija. (b) Patron de intensidades asociado a la
exposicion por una sola rendija. La lnea punteada indica la suma de los dos patrones de intensidad. (c) Patron
de intensidades obtenido con la apertura simultanea de las dos rendijas. El contraste con la grafica punteada nos
muestra que la intensidad resultante no es la suma de las intensidades obtenidas con la apertura de una sola
rendija, revelando la existencia de un patron de interferencia.

interferencia que se observa, es generado por la interaccion de tipo corpuscular entre los fotones que pasan por
la rendija F1 con aquellos que pasan por la rendija F2 . De ser as, tendramos que si regulamos la potencia de la
fuente de tal manera que los fotones salgan practicamente uno por uno, se eliminaran estas interacciones y por
tanto debera desaparecer este patron de interferencia, incluso si se espera mucho tiempo para que se depositen
mucho fotones sobre O.
Veamos ahora cual sera la prediccion de una teora puramente ondulatoria. La teora ondulatoria predice que
la intensidad en un punto dado I (x) es proporcional a la amplitud al cuadrado del campo electrico evaluado
en tal punto. Cuando las dos rendijas estan abiertas es claro que el campo total resultante en tal punto es la
superposicion de los dos campos generados por la onda que pasa por cada rendija

E (x) = E1 (x) + E2 (x)


130 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

la intensidad es entonces proporcional a la amplitud del campo electrico total al cuadrado


I (x) |E (x)|2 = |E1 (x) + E2 (x)|2
I1 (x) |E1 (x)|2 ; I2 (x) |E2 (x)|2 I (x) 6= I1 (x) + I2 (x)
si E1 (x) y E2 (x) se escriben en notacion compleja, el termino de interferencia resultante dependera de la diferencia
en las fases complejas asociadas a E1 (x) y E2 (x). Esta interferencia explica el patron de franjas que ocurre en
el fenomeno de difraccion por dos rendijas. Si disminumos la potencia de la fuente, las franjas de interferencia
disminuiran en intensidad pero no desapareceran. De por s este fue uno de los experimentos determinantes en
favor de la teora ondulatoria en el siglo XIX.
Sin embargo, los resultados obtenidos cuando la potencia de la fuente es tal que los fotones se liberan uno a
uno, son realmente sorprendentes y entran en conflicto con la teora puramente corpuscular pero tambien con la
teora puramente ondulatoria.
Por una parte, si hacemos que el tiempo de exposicion sea muy largo de manera que una gran cantidad de
fotones impactan la placa fotografica, vemos que las franjas de interferencia no desaparecen a pesar de haber
eliminado la interaccion entre los fotones. Por tanto, la teora corpuscular no puede predecir este fenomeno. La
teora ondulatoria en cambio ofrece una explicacion satisfactoria al respecto.
De otra parte, si el tiempo de exposicion lo hacemos muy corto de modo que solo unos pocos fotones impacten
la pantalla, vemos que los impactos sobre la placa son muy localizados como se esperara de un comportamiento
corpuscular, y no se observa el patron de interferencia con baja intensidad que predecira la teora ondulatoria.
Mas aun si el experimento para tiempos cortos de exposicion se repite muchas veces para las mismas condiciones
iniciales (el mismo dispositivo con fotones de la misma energa y momento, as como igual tiempo de exposicion),
vemos que los pocos impactos localizados en cada experimento pueden tener una distribucion muy diferente. Esto
indica que el proceso tiene un caracter altamente aleatorio que no es atribuble al desconocimiento o falta de
control en las condiciones iniciales.
Si en cambio repetimos el experimento muchas veces bajo las mismas condiciones iniciales pero para tiempos
de exposicion muy grandes, en los cuales muchos fotones han impactado la placa, vemos que el patron contnuo
de intensidades se forma segun lo indicado en la teora ondulatoria, es decir con los patrones adecuados de
interferencia. Para este caso el fenomeno es altamente reproducible, es decir la distribucion de intensidades es
esencialmente la misma en cada experimento.
Si se hacen experimentos para tiempos de exposicion especficos y estos tiempos de exposicion se van incre-
mentando gradualmente, vemos que a medida que el tiempo de exposicion aumenta el experimento se vuelve mas
reproducible, pasando desde resultados muy aleatorios para tiempos de exposicion cortos (pocos fotones inciden-
tes) hasta resultados altamente reproducibles para tiempos muy largos de exposicion (muchos fotones incidentes).
Esto revela que la ley fundamental que rige al fenomeno debe ser de naturaleza probabilstica, ya que un modelo
probabilstico en general falla en sus predicciones cuando una muestra posee muy pocos elementos o eventos, pero
es altamente predictivo cuando la muestra consta de un enorme numero de elementos o de eventos. En nuestro
caso los eventos son los impactos de los fotones sobre la placa y lo que vemos es que el patron de interferencia se
va construyendo a medida que los fotones van impactando la placa.
Un aspecto que no hemos tocado hasta aqu, es el referente a la determinacion de la rendija por la cual pasa
cada foton. Si queremos determinar por cual rendija pasa cada uno de los fotones que se emiten uno por uno,
podemos colocar dos detectores (digamos dos fotomultiplicadores) sobre cada rendija F1 y F2 , en tal caso podemos
determinar completamente la rendija a traves de la cual pasa cada foton, ya que cuando se emite un foton una
senal es registrada en uno de los detectores pero no en ambos al tiempo. Sin embargo, en este caso todos los
fotones detectados son absorbidos por los detectores y no alcanzan la pantalla. En otras palabras, la completa
determinacion de la rendija por la cual pasa cada foton destruyo completamente la informacion sobre el patron de
difraccion. Por otro lado, si dejamos un detector solo en F1 y dejamos abierto F2 veremos que cuando han pasado
muchos fotones cerca del 50 % han sido detectados (con respecto al experimento anterior). Conclumos que los
demas han pasado por F2 pero entonces el patron de difraccion que se construira gradualmente sobre la pantalla
sera el correspondiente a la difraccion por una rendija, no se observara entonces el fenomeno de interferencia
2.8. EL EXPERIMENTO DE YOUNG DE LA DOBLE RENDIJA 131

inherente al experimento con dos rendijas. Una vez mas el proceso de medicion (determinacion de la rendija de
paso) ha alterado la evolucion posterior del sistema.
En lo referente al caracter probabilstico cuantico, es necesario distinguirlo de los aspectos probabilsticos que
se emplean usualmente en mecanica clasica. En la termodinamica y especialmente en la mecanica estadstica
clasica, se utilizan conceptos de probabilidad y estadstica debido a que en la practica (experimental) no es posible
determinar o controlar las condiciones iniciales de muchas partculas, aunado con la dificultad practica (teorica)
de resolver un gran numero de ecuaciones diferenciales acopladas. Se asume sin embargo en las teoras clasicas
que si conozco todas las condiciones iniciales puedo al menos en principio predecir las trayectorias exactas de
las partculas y por tanto de mi sistema como un todo. En cuantica nos vemos avocados a usar la probabilidad
incluso con el conocimiento y/o control de las condiciones iniciales del sistema, estamos hablando entonces de
un comportamiento probabilstico esencial e inherente a las leyes de la naturaleza, al menos en nuestra presente
interpretacion de los fenomenos.

2.8.1. Interpretacion mecano-cuantica de la dualidad onda partcula


Hemos visto que tanto los aspectos corpusculares como los ondulatorios son indispensables para un correcto
entendimiento de los experimentos de Young con doble rendija. Dado que en mecanica clasica estos aspectos son
mutuamente excluyentes, sera necesario replantearse las ideas de la mecanica clasica, las cuales despues de todo
tuvieron su semilla en los fenomenos macroscopicos. Veamos a la luz de los resultados anteriores que aspectos
deben ser revaluados
De la discusion anterior hemos visto que cuando colocamos un fotomultiplicador (o dos) para detectar por
cual rendija van a pasar los electrones, afectamos de manera fundamental al sistema produciendo un cambio
drastico en el resultado final debido a que los fotones detectados se absorben y no alcanzan la pantalla. Vemos
entonces que el proceso de medicion afecta de forma fundamental al sistema que se mide. En mecanica clasica,
si bien es necesario perturbar al sistema para poder medirlo, esta implcito que esta perturbacion se puede hacer
arbitrariamente pequena al menos en principio. En mecanica cuantica este y otros experimentos nos indicaran
que cuando se realiza un proceso de medicion existe una cierta perturbacion fundamental que no puede ser
minimizada y que altera de manera considerable al sistema que se mide.
Por otro lado, hemos visto que aunque los fotones se enven uno por uno, eliminando de esta forma la interaccion
entre fotones, un foton parece comportarse diferente si estan abiertas las dos rendijas con respecto al caso en que
una sola de ellas esta abierta, de no ser as la intensidad resultante cuando las dos estan abiertas sera la suma de
las intensidades obtenidas cuando se abre cada una. Adicionalmente, ya hemos visto que si intentamos determinar
por cual rendija pasan los fotones, evitamos que estos alcancen la pantalla. Esto se puede replantear diciendo
que es imposible observar el patron de interferencia y al mismo tiempo conocer por cual rendija paso cada foton.
Esta afirmacion sera reforzada mas adelante cuando discutamos el principio de incertidumbre de Heisenberg. Para
resolver esta paradoja es necesario abandonar la idea de que cada foton pasara inevitablemente por una rendija
especfica, lo cual nos lleva a su vez a cuestionar el concepto de trayectoria, tan firmemente establecido en la
mecanica clasica.
Ahora bien, hemos visto que cuando unos pocos fotones han impactado la pantalla, la distribucion de estos
fotones no es reproducible a pesar de que los experimentos se repitan bajo las mismas condiciones iniciales. Esto
implica que para un foton dado no podemos predecir con total certeza en que punto golpeara a la pantalla incluso
si conocemos sus condiciones iniciales. En consecuencia, el conocimiento de las condiciones iniciales de un sistema
no determina completamente el movimiento subsecuente de este. No obstante, el hecho de que el mismo patron
de interferencia se construya cuando el numero de fotones es muy alto, nos indica que las condiciones iniciales nos
pueden determinar una distribucion de probabilidad que s puede ser especificada por alguna ecuacion dinamica.
En este caso especfico, la probabilidad de que un foton golpee la pantalla dentro de un intervalo entre el punto
x y el punto x + dx, es proporcional a I (x) dx calculado con la teora ondulatoria, es decir sera proporcional a
|E (x)|2 dx. Notese que el principio de superposicion que rige el comportamiento de los fenomenos opticos clasicos
esta basado en el hecho de que las ecuaciones de Maxwell sin fuentes son ecuaciones lineales y homogeneas, para
132 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

las cuales vale el principio de superposicion, si E1 y E2 son soluciones de las Ecs. de Maxwell sin fuentes, una
combinacion lineal de ellas tambien lo es.
Los anteriores hechos se pueden entonces postular en la siguiente forma:
Los aspectos corpusculares y ondulatorios de la luz son inseparables. De modo que la luz se comporta si-
multaneamente como onda y como flujo de partculas. Las predicciones sobre el comportamiento del foton son solo
de caracter probabilstico. El comportamiento ondulatorio nos dictamina la distribucion de probabilidad de su
manifestacion como partcula (foton). La informacion fsica sobre el foton en un momento dado esta determinada
por la componente E (r, t) de la onda electromagnetica que es solucion de las ecuaciones de Maxwell. El campo
E (r, t) caracteriza al estado de los fotones en el tiempo t. Dicho campo se interpreta como la amplitud de proba-
bilidad de que un foton aparezca en el punto r en el tiempo t. Esto implica que la correspondiente probabilidad
de que un foton este en el volumen d3 r centrado en r es proporcional a |E (r, t)|2 d3 r.
Mas adelante veremos que la amplitud de probabilidad E (r, t) tendra su analogo para la materia en la deno-
minada funcion de onda (r, t). Si bien existen muchas analogas entre E (r, t) y (r, t) tambien existen algunas
diferencias importantes, por ejemplo E (r, t) no caracteriza completamente al estado de un foton, en tanto que la
funcion de onda caracteriza completamente el estado de una partcula sin espn. La funcion de onda es esencialmen-
te compleja en tanto que E se hace complejo solo por conveniencia. La teora cuantica completa para los fotones
(electrodinamica cuantica) debe tener en cuenta el caracter eminentemente relativista de las ecuaciones de Maxwell
y ademas corresponde a la cuantizacion de un medio que es clasicamente contnuo (campos electromagneticos).
En contraste, la mecanica cuantica para partculas corresponde a la cuantizacion de un medio que clasicamente
se considera discreto (partculas puntuales) y que en muchos casos se puede tratar como no-relativista. Aqu solo
trabajaremos la mecanica cuantica no relativista de medios clasicamente discretos y por tanto no trabajaremos el
problema concerniente al proceso matematico de cuantizacion del foton.

2.9. Proceso de medicion, preparacion de un sistema y el principio de la


descomposicion espectral
Vamos a examinar otro experimento de optica que arrojara muchas luces sobre las ideas relativas al proceso
de medicion en cuantica.
La Fig. 2.4, muestra el montaje que queremos estudiar. Asumamos que hacemos incidir una onda plana
monocromatica de una fuente sobre un polarizador P , elegiremos el eje z como el eje de propagacion de la onda
electromagnetica y asumiremos que el polarizador P se ubica en el plano xy. Paralelo al plano xy colocaremos un
analizador A que transmitira luz polarizada a lo largo de ux y absorbera luz polarizada a lo largo de uy .
Asumiremos que el experimento se realizara en condiciones en donde sea valida la optica clasica, es decir
cuando el haz de luz es muy intenso. En este caso, cuando la onda pasa por P queda polarizada en una direccion
especfica up caracterizada por
up = cos ux + sin uy
la onda plana monocromatica que sale del polarizador P esta caracterizada por el campo electrico

E (r, t) = E0 up ei(kzt) = E0 cos ei(kzt) ux + E0 sin ei(kzt) uy (2.44)

E0 es la amplitud (constante) de la onda polarizada. La intensidad es proporcional a |E0 |2 . Cuando la onda


polarizada pasa por el analizador su campo electrico vendra dado por

E (r, t) = E0 ux ei(kzt) = E0 cos ux ei(kzt)

que surge basicamente de la eliminacion de la componente a lo largo de uy en la Ec. (2.44). La intensidad de la


onda que paso el analizador esta dada por |E0 |2 es decir

I = I cos2
2.9. MEDICION Y PREPARACION DE UN SISTEMA: DESCOMPOSICION ESPECTRAL 133

Figura 2.4: (a) Montaje experimental para medidas de polarizacion. En z < 0 tenemos luz no polarizada que en
z = 0 se polariza en la direccion up . El analizador A suprimira la componente uy del campo electrico polarizado.

resultado conocido como la ley de Malus.


Nos preguntamos ahora por lo que ocurre a nivel cuantico. Es decir, cuando la intensidad de la fuente es
tan baja que los fotones se emiten uno a uno, de manera que la cuantizacion de la radiacion se hace manifiesta.
Podemos colocar un detector de fotones detras del analizador para mirar los resultados. Retomaremos para ello
los resultados de las discusiones anteriores.
En primera instancia, debido a la existencia de un cuanto indivisible (el foton) el detector no registra una
fraccion de foton. O bien el foton cruza el analizador o bien es absorbido completamente por el.
Adicionalmente, no podemos predecir con total certeza si un cierto foton incidente sobre el analizador cruzara
o sera absorbido por este. Solo podremos conocer la probabilidad de que un evento especfico de estos ocurra.
Veremos sin embargo que en ciertos casos especficos, podremos hacer predicciones con total certeza.
Cuando el numero total de fotones es muy grande, es decir cuando ha pasado suficiente tiempo, se construira
un patron reproducible de probabilidad equivalente al que se obtiene para tiempos cortos con un haz de alta
intensidad. En sntesis debe generarse un patron reproducible (y por tanto predecible) que corresponda ademas al
lmite clasico. Es decir, si N es el numero (grande) de fotones entonces un numero dado por N cos2 de fotones
cruzara el analizador.
Notese que el aparato de medida (analizador) solo puede dar algunos resultados especficos que llamaremos
resultados propios o autoresultados. En este experimento solo hay dos resultados posibles: el foton pasa el
analizador o es absorbido por el. Hay entonces una cuantizacion del resultado, lo cual es muy diferente al escenario
clasico en el cual la intensidad puede variar de manera contnua desde 0 hasta I cuando el angulo se vara de
forma contnua.
El experimento muestra ademas el siguiente resultado, si el foton esta polarizado a lo largo de ux dicho foton
pasara con toda certeza el analizador (con probabilidad 1). Analogamente, si el foton esta polarizado a lo largo
de uy hay una certeza total de que este foton sera absorbido (probabilidad cero para pasar). Estas aseveraciones
requieren naturalmente de una repeticion de una gran cantidad de experimentos que muestren la naturaleza
134 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

probabilstica para fotones con estas polarizaciones. Adicionalmente, se observa que estos son los unicos estados
de polarizacion que conducen a una total certeza en la medida. Por esta razon llamaremos a estos estados de
polarizacion estados propios o autoestados. Vemos ademas que a cada resultado propio le corresponde un
estado propio, el resultado propio foton que cruza esta asociado con el estado propio de polarizacion a lo largo
de ux . El resultado propio foton que se absorbe esta asociado a fotones con polarizacion uy . En otras palabras,
para un estado propio tenemos total certeza de obtener su correspondiente resultado propio. Matematicamente
podemos describir nuestros dos estados propios como

u(1) (2)
p = ux ; up = uy

La siguiente pregunta obvia es cual es la probabilidad de obtener un resultado propio dado, cuando el estado
es una superposicion de los estados propios? es decir cuando el estado de polarizacion del foton es arbitrario i.e.

up = cos ux + sin uy = cos u(1) (2)


p + sin up (2.45)

para obtener la distribucion de probabilidad es necesario tener una gran cantidad de eventos para cada estado de
polarizacion. Esto se logra midiendo muchos fotones que poseen las mismas condiciones iniciales7 y se encuentra
experimentalmente que para un numero N (grande) de fotones con polarizacion dada por un angulo en (2.45) un
numero N cos2 de ellos pasara, y N sin2 de ellos sera absorbido. Por tanto, un foton especfico con polarizacion
definida por tiene una probabilidad P (1) = cos2 de ser transmitido y una posibilidad P (2) = sin2 de ser
absorbido. Esto coincide con la ley clasica de Malus como esperabamos cuando el numero de fotones es grande.
Lo anterior junto con la Ec. (2.45), nos indica que la probabilidad de obtener un cierto resultado propio es
proporcional al cuadrado del valor absoluto del coeficiente del estado propio asociado, al coeficiente lo llamamos
la amplitud de probabilidad, las amplitudes de probabilidad A (i) y las probabilidades P (i) para cada resultado
propio son en este caso
D D 2
(1)
A (1) = cos = u(1) u
p p i ; P (1) = cos 2
= u u
p p i
D D 2
(2)
A (2) = sin = u(2) 2
p up i ; P (2) = sin = up up i

P (1) + P (2) = cos2 + sin2 = 1

en algunos casos sera necesario colocar una constante de proporcionalidad para garantizar que la suma de las
probabilidades de todos los resultados propios sea uno.
Esto nos induce a postular que si tenemos un conjunto de autoresultados {Ri } asociados a autoestados {i }
un estado arbitrario se escribira como superposicion de los autoestados
X
= ci i (2.46)
i

y la probabilidad de obtener un autoresultado Rk sera

|ck |2
P (Rk ) = P 2 (2.47)
i |ci |

o equivalentemente
|hk | i|2
P (Rk ) = (2.48)
h| i
donde el denominador me asegura la conservacion de la probabilidad
X
P (Ri ) = 1
i
7
Notese que el polarizador tiene el papel de reproducir las mismas condiciones iniciales en cada conjunto de experimentos.
2.10. DUALIDAD ONDA PARTICULA PARA LA MATERIA 135

puesto que el conjunto de todos los autoresultados es por definicion el conjunto de todos los resultados experimen-
tales que podemos obtener al medir el sistema. Esta afirmacion se denomina el principio de descomposicion
espectral.
El ejemplo de los fotones polarizados nos indica ademas que la descomposicion espectral especfica depende del
tipo de instrumento de medicion dado que hay que utilizar los autoestados que corresponden a este aparato. Por
ejemplo, si el analizador (aparato de medicion) tiene una orientacion diferente, los autoestados estaran definidos
segun esta nueva direccion. Si en vez de un analizador tenemos un medidor de otra variable fsica (por ejemplo el
espn) los autoresultados deben definirse correspondientemente y por lo tanto los autoestados.
Supongamos que dos fotones poseen la misma polarizacion pero se diferencian en otros observables fsicos (mo-
mento, espn, etc.), un aparato que mide polarizacion solo puede dicernir los diferentes valores de este observable,
por tanto si existen otros observables que caracterizan a mi partcula, al autovalor de polarizacion {a}, le corres-
ponde mas de un autoestado ya que todos los autoestados con polarizacion {a} estan asociados a este autovalor
sin importar cuales sean los valores de los otros observables. Decimos que los autoestados estan degenerados con
respecto al observable o autovalor {a} lo cual segun la presente discusion indica que solo tenemos una informacion
parcial sobre el sistema. Volveremos sobre el tema de la degeneracion mas adelante.
La consistencia de estos resultados se puede examinar poniendo un segundo analizador A despues de A y que
permita el paso de fotones con polarizacion en ux . Dado que todos los fotones que pasaron por A quedaron prepa-
rados en el estado de polarizacion ux , todos estos fotones estan en un solo autoestado del nuevo analizador A con
autoresultado el foton pasa. Por tanto, todos los fotones que pasaron por A deben pasar por A . Similarmente,
si A esta orientado segun uy , todos los fotones que vienen de A deben ser absorbidos en A . Estas predicciones
estan confirmadas por los experimentos.
Analicemos ahora un aspecto de la medicion directamente asociado con la naturaleza cuantica de la radiacion.
Al ser el foton un cuanto indivisible solo existe la posibilidad de transmision o absorcion, esto desemboco en el
hecho de que a partir de un estado arbitrario de polarizacion, hay un cambio abrupto luego de la medicion para
los fotones que pasan, pues estos pasan de la polarizacion up a la polarizacion ux que corresponde a un autoestado
de mi aparato. Existe entonces una perturbacion fundamental que altera el estado del sistema y que no puede ser
disminuda. Notese que despues de la medicion (preparacion del foton en un autoestado) tenemos una informacion
adicional el foton ha pasado el analizador.
Lo anterior es entonces una confirmacion de que el proceso de medicion perturba de manera fundamental
el estado del sistema. Podramos en este punto postular que luego del proceso de medicion, el sistema queda
preparado en un estado propio definido por el sistema mismo y por el aparato de medicion.

2.10. Dualidad onda partcula para la materia


Hemos visto que de acuerdo con los postulados de De Broglie, la materia al igual que los fotones exhibe un
comportamiento dual onda partcula. La corroboracion experimental de estos postulados se realizo a traves de los
experimentos de Davidsson y Germer, as como los experimentos de G. P. Thomson (ambos sobre difraccion de
electrones), y los experimentos de Estermann, Frisch y Stern concernientes a la difraccion de atomos de Helio.
Adicionalmente, De Broglie postulo que si bien la onda asociada a una partcula libre era una onda viajera
(nodos en movimiento), para un electron en un atomo que este ligado al nucleo atomico y que recorre su orbita
periodicamente, su onda piloto debe estar asociada a una onda estacionaria (nodos fijos). Esta interpretacion
permitio dar una explicacion a las reglas de cuantizacion de Bohr, demostrando que las orbitas permitidas en
un atomo son aquellas que corresponden a un permetro circular con un numero entero de longitudes de ondas
estacionarias. Ademas para orbitas no circulares la exigencia de ondas estacionarias resulto equivalente a las reglas
de cuantizacion de Wilson y Sommerfeld, en donde los niveles permitidos de energa aparecen como los analogos
de los modos normales de una cuerda vibrante.
Recordemos ademas que dentro de sus postulados De Broglie asume que la energa E y el momento p de una
136 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

partcula material posee la siguiente relacion con sus parametros de onda

E = h = ~ ; p = ~k (2.49)

siendo , , k la frecuencia, frecuencia angular y numero de onda respectivamente. La correspondiente longitud de


onda es
2 h
= = (2.50)
|k| |p|
una estimacion de la longitud de onda de la materia ordinaria nos permite comprender porque no observamos la
naturaleza ondulatoria de la materia ordinaria en el mundo macroscopico.
En virtud de la gran simetra que parece existir entre la radiacion y la materia, vamos a incorporar las ideas
ya recogidas de los experimentos opticos para incorporarlas a la naturaleza de las partculas materiales. Estas
extrapolaciones estan soportadas en el hecho de que experimentos similares a los opticos se pueden realizar con
los electrones y otras partculas materiales, y observar que el comportamiento es muy similar al mostrado por los
fotones.
Comenzaremos entonces por mencionar que el concepto clasico de trayectoria sera sustitudo por el concepto
de una distribucion dinamica (dependiente del tiempo) de probabilidad de que la partcula este en cierta region
del espacio. Para ello sera necesario encontrar una amplitud de probabilidad (r, t) que estara asociada a un
campo escalar. A esta amplitud de probabilidad se le conoce como funcion de onda y me define el estado de una
partcula en un instante dado, es decir contiene toda la informacion posible sobre la partcula. La probabilidad de
encontrar a la partcula en un volumen d3 r esta dada por

dP (r, t) = C | (r, t)|2 d3 r

donde C es una constante de normalizacion. Puesto que los experimentos muestran que esta distribucion de
probabilidad presenta las propiedades ondulatorias, es necesario que la ecuacion de movimiento que la genera
sea lineal y homogenea para que se cumpla el principio de superposicion que se requiere para los fenomenos de
interferencia. Es claro que estos fenomenos de interferencia se veran reflejados en la probabilidad (al igual que en
la intensidad en los fenomenos opticos), al elevar al cuadrado la cantidad (r) (el analogo a E (r, t) en optica).
Dado que la partcula debe estar siempre en algun lugar, es claro que la probabilidad total debe ser igual a la
unidad Z
C | (r, t)|2 d3 r = 1 (2.51)

esto nos indica entonces que los estados fsicos (r, t) deben ser funciones de cuadrado integrable en todas las
regiones accesibles a la partcula (es posible que ciertas condiciones fsicas hagan que algunas regiones no sean
accesibles). En otras palabras, la integral sobre el volumen accesible de la partcula debe ser convergente.
Asumiremos ademas que se cumple el principio de descomposicion espectral aplicado a la medida de una
cantidad fsica arbitraria. Esto significa que (a) El resultado de la medida debe pertenecer a un conjunto de
autoresultados {a}. (b) Con cada autovalor a se asocia un autoestado, es decir una autofuncion a (r). Esta
autofuncion cumple la condicion de que si (r, t0 ) = a (r) siendo t0 el instante en el cual se realiza la medida, el
resultado de tal medida nos dara con toda certeza el autovalor a. (c) Para todo estado (r, t) la probabilidad Pa
de obtener el autovalor a cuando se realiza una medida en el tiempo t0 , se encuentra descomponiendo (r, t) en
los autoestados a (r, t)

X |ca |2 |ha |i|2 X


(r, t0 ) = ca a (r) ; Pa = P 2 = ; Pa = 1
a b |cb |
h |i a

en virtud de la arbitrariedad del estado inicial (r, t0 ), lo anterior implica que los autoestados a (r) deben ser
completos, es decir deben formar una base para el conjunto de todos los estados fsicos posibles, esto nos llevara
de manera natural al concepto de observable. (d) Si la medida nos arroja un autovalor a, la partcula quedara
2.11. ASPECTOS ONDULATORIOS DE UNA PARTICULA MATERIAL 137

en su autoestado asociado a (r). (e) La ecuacion que describe la evolucion del sistema (evolucion temporal de
la amplitud de probabilidad) debe ser lineal y homogenea en . Debe tener soluciones de naturaleza ondulatoria
compatibles con las relaciones de De Broglie, en la siguiente seccion estudiaremos con mas detalle estas propiedades.
Es importante observar que cuando realizamos el paso de suplantar la trayectoria de una partcula (clasicamente
puntual), por una distribucion dinamica de probabilidad (un campo) estamos reemplazando un estado clasico de
partcula puntual de seis parametros en cada tiempo (tres coordenadas de posicion y tres de velocidad), por un
estado cuantico determinado por un numero infinito de parametros: el valor de la funcion de onda en cada punto
del espacio (y en el tiempo dado). El hecho de que la distribucion de probabilidad dependa del tiempo nos llevara
al concepto de propagacion de la onda asociada con la partcula. A manera de ejemplo, en el experimento de la
doble rendija de Young cuando se observa el patron de interferencia no poseemos informacion sobre la rendija por
la cual paso cada foton (tambien vale para electrones u otras partculas materiales), en realidad la onda asociada
cruza por ambas rendijas y solo podemos calcular la probabilidad de que pase por una de ellas.
Es importante mencionar sin embargo, que la simetra materia radiacion exhibida hasta el momento posee
una excepcion importante: los fotones son en general emitidos (creados) o absorbidos (destrudos) durante un
experimento. En contraste, las partculas materiales no se crean ni se destruyen en los experimentos tpicos. Por
ejemplo, un electron emitido por un filamento caliente ya exista previamente en el filamento. De la misma forma
un electron absorbido en un detector no desaparece, simplemente se vuelve parte de un atomo del detector o de
una corriente en este. En realidad la teora de la relatividad predice que es posible la creacion y aniquilacion de
partculas materiales: por ejemplo un foton de alta energa que pasa cerca a un atomo puede crear un par electron
positron (partcula antipartcula). Recprocamente, una colision electron positron aniquila a ambas partculas
emitiendo un foton, esta conversion radiacion materia o viceversa es posible gracias a la equivalencia energetica
de la masa. Sin embargo, en el lmite no relativista la materia no se puede crear ni destrur, lo cual nos lleva
a una ley importante de conservacion del numero de partculas. En particular, para sistemas de una partcula
podemos hacer la afirmacion de que la partcula esta en alguna parte para todo tiempo, lo cual nos indica una
conservacion de la probabilidad (la integral de volumen 2.51 debe ser la unidad para todo tiempo).
Resumamos entonces las diferencias importantes entre materia y radiacion que nos conducen a que la teora
cuantica para la materia es mas sencilla. (a) Los fotones son irremediablemente relativistas, la materia en cambio
puede estar en un regimen no relativista y de hecho para solidos a temperaturas normales los electrones y nucleos
tienen velocidades mucho menores que la de la luz. Por tanto, para la materia tiene sentido una teora cuantica no
relativista pero no para la radiacion. (b) La naturaleza relativista de los fotones (y de la materia a altas energas)
conduce a que el numero de fotones no se conserva en el tiempo, por tanto la distribucion de probabilidad debe
colapsar para tiempos anteriores a la emision y posteriores a la absorcion, la Ec. (2.51) no es valida para todo
tiempo y debe incorporarse una ecuacion o ecuaciones que me den cuenta de la dinamica en el numero de partculas
(dinamica de creacion y destruccion). (c) Desde el punto de vista clasico las partculas suelen modelarse como
medios discretos (partculas puntuales), en tanto que el escenario clasico del foton corresponde a medios contnuos
(campos electromagneticos). La cuantizacion de la materia se asocia entonces a menudo con la cuantizacion de
un medio clasicamente discreto (teora cuantica ordinaria), en tanto que la cuantizacion de la radiacion esta
necesariamente asociada a la cuantizacion de un medio clasicamente contnuo (teora cuantica de campos).

2.11. Aspectos ondulatorios de una partcula material

Hemos visto que la distribucion de probabilidad esta asociada con las propiedades ondulatorias de la materia
(o la radiacion). Por tanto, la generacion de la ecuacion dinamica para esta distribucion de la probabilidad
requerira de estudiar las propiedades ondulatorias que dicha ecuacion debe generar. En general, la mayor parte de
la discusion que se desarrollara en esta seccion es tambien valida para ondas clasicas, los desarrollos matematicos
son basicamente identicos pero la interpretacion difiere en ambos casos. Si seguimos los postulados de De Broglie,
el punto de partida natural sera el estudio de las ondas viajeras libres. Dentro de la ecuacion de onda clasica libre
138 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

(i.e. homogenea) la solucion mas simple (monocromatica) es la solucion tipo onda plana
(r, t) = Aei(krt) (2.52)
es inmediato ver que la onda plana es tal que
| (r, t)|2 = |A|2
de modo que si efectivamente representa a la onda asociada a una partcula libre, nos predice que la distribucion
de probabilidad de una partcula libre es uniforme en el espacio, lo cual es compatible con la homogeneidad e
isotropa del espacio. Podra argumentarse que las ondas planas no son de cuadrado integrable de modo que no
representan estrictamente un estado fsico. Sin embargo, nuestra experiencia con la optica en la cual las ondas
planas tampoco son estados fsicos nos muestra que el estudio de sus propiedades es muy provechoso, por un lado
porque se puede considerar como el lmite de un estado fsico y por otro lado porque los estados fsicos se podran
escribir como superposicion de tales funciones en virtud de su completez (ver seccion 1.31.1).
Tomaremos entonces la solucion (2.52) como el prototipo de una onda piloto. Nuestro objetivo sera realizar
una teora no relativista que sea compatible con los postulados de De Broglie. Partiremos entonces de la relacion
no relativista entre E y p para una partcula
p2
E= (2.53)
2m
y utilizando las relaciones de De Broglie (2.49) llegamos a
~k2
= (2.54)
2m
la relacion de dispersion (2.54) nos dice que la ecuacion de onda NO es la ecuacion dinamica que gobierna a la
teora cuantica no relativista de una partcula, ya que es facil demostrar que insertando (2.52) en la ecuacion de
onda clasica se obtiene la relacion de dispersion
2 = k2 v 2 (2.55)
siendo v la velocidad de la onda. Volveremos sobre este problema mas adelante, de momento asumiremos que la
onda viajera libre (2.52) es solucion de la ecuacion de movimiento para el estado cuantico de una partcula libre
con relacion de dispersion dada por (2.54). Puesto que las ondas piloto deben generar los fenomenos ondulatorios,
es necesario que la combinacion lineal de soluciones sea solucion de la ecuacion dinamica para generar los fenomenos
de interferencia.

2.11.1. Estados cuanticos arbitrarios como superposicion de ondas planas


De acuerdo con lo anterior, y dado que las ondas planas pueden generar cualquier funcion de cuadrado integrable
(completez) cualquier estado cuantico de una partcula (no necesariamente libre) se puede escribir como una
superposicion de la forma Z
1
(r, t) = 3/2
(k, t) ei[krt] d3 k (2.56)
(2)
donde d3 k = dkx dky dkz representa un diferencial de volumen en el espacio de las k s (usualmente denominado
espacio recproco). La transformada de Fourier (k) puede ser compleja pero debe ser bien comportada para
permitir derivar la solucion dentro de la integral. Por supuesto, las transformadas de Fourier especficas dependeran
del problema especfico.
Una funcion de onda que es superposicion de ondas planas como la descrita en (2.56) se denomina un paquete
de ondas tridimensional. Por simplicidad, tomaremos el caso unidimensional
Z
1
(x, t) = (k, t) ei[kxt] dk (2.57)
2
y estudiaremos mas adelante el caso tridimensional. En primer lugar estudiaremos el perfil del paquete de onda
en un instante dado
2.11. ASPECTOS ONDULATORIOS DE UNA PARTICULA MATERIAL 139

2.11.2. Perfil instantaneo del paquete de onda


Por simplicidad elegimos el instante como t = 0. La Ec. (2.57) se simplifica a
Z
1
(x, 0) = (k, 0) eikx dk (2.58)
2
y su inversa es Z
1
(k, 0) = (x, 0) eikx dx (2.59)
2
la forma instantanea del paquete estara dada por la dependencia x de (x, 0) definida en (2.58). Trataremos
de definir el comportamiento cualitativo de (x, 0) por medio de ejemplos sencillos. Supongamos que (x, t)
esta dado por una superposicion de tres ondas planas eikx (en t = 0), caracterizadas por los numeros de onda
k0 , k0 k k
2 , k0 + 2 con amplitudes g (k0 ), g (k0 ) /2 y g (k0 ) /2
 
g (k0 ) ik0 x 1 i(k0 k )x 1 i(k0 + k )x
(x) = e + e 2 + e 2 (2.60)
2 2 2
  
g (k0 ) k
(x) = eik0 x 1 + cos x (2.61)
2 2

Figura 2.5: (a) Partes reales de cada una de


 las tres ondas
 dadas por (2.60). (b) Superposicion de las tres ondas. La
lnea punteada es la envolvente dada por 1 + cos x 2 x , que le da forma al paquete de ondas. La lnea contnua
describe las oscilaciones.

La Fig. 2.5 muestra la forma de cada una de estas tres ondas (sus partes reales) y de la superposicion. La Ec.
(2.61) muestra que | (x)| es maximo cuando x = 0, lo cual se aprecia en la Fig. 2.5 en virtud de que en x = 0
140 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

las tres ondas estan en fase y por lo tanto interfieren constructivamente. A medida que nos movemos desde x = 0
(hacia la izquierda o la derecha) las ondas estan cada vez mas en desfase de modo que | (x)| va disminuyendo,
hasta que la interferencia se vuelve totalmente destructiva en ciertos puntos xn (posiciones de los nodos), cuando
la diferencia de fase entre eik0 x y ei(k0 k/2)x es igual a (2n + 1) , siendo n un entero no negativo. Los nodos
xn mas cercanos a x = 0 estan asociados a una diferencia de fase
 
k k
k0 xn k0 xn xn = xn =
2 2
k 2
xn = xn =
2 k

Dado que el paquete es simetrico y esta centrado en x = 0, el ancho del paquete es x = 2 |xn |

4
x = (x) (k) = 4 (2.62)
k

esto nos muestra que a medida que el ancho k de la funcion (k) decrece, el ancho x de la funcion | (x)|
aumenta, siendo x la distancia entre dos ceros de | (x)|. Similarmente, si el ancho del paquete x disminuye
(paquete mas localizado), el ancho k de (k) debe aumentar a fin de mantener la relacion (2.62).
ik0 x es mucho mayor a la frecuencia del termino
 que k0 k entonces la frecuencia del termino e
Si asumimos
k
1 + cos 2 x . Por lo tanto, la parte oscilante en x para la Ec. (2.61) esta dada por la funcion eik0 x y la envolvente
(modulacion de la amplitud de oscilacion) esta dada por
 
g (k0 ) k
| (x)| = 1 + cos x
2 2

esta amplitud de la envolvente o funcion moduladora de la amplitud se ilustra como lnea punteada en la Fig. 2.5.
En este caso, vemos que la envolvente dada por | (x)| es periodica en x de modo que tenemos un tren infinito
de paquetes de onda con una serie de nodos y maximos. Este hecho se debe a que la superposicion es de un
numero finito de ondas planas. Para una superposicion contnua de un numero infinito de ondas como el dado en
(2.58), este fenomeno no ocurre y tendremos en general un solo maximo para el perfil | (x, 0)|. En realidad, lo que
esperamos de una onda piloto asociada a una partcula es un solo paquete relativamente localizado alrededor
del maximo del paquete (region de mayor probabilidad de localizar a la partcula).
Retornemos ahora al caso general de una superposicion contnua de la forma (2.58), aqu el fenomeno de
interferencia es mas complejo pero de nuevo tendremos un maximo en | (x, 0)| cuando las diferentes ondas
viajeras interfieran constructivamente. Imaginemos que (k, 0) esta dada por una curva cuyo perfil es similar
a una campana de Gauss simetrica centrada en k = k0 con un pico bien pronunciado en k0 y un ancho k.
En realidad, no hay una sola forma de parametrizar este ancho, pero tomaremos por convencion que el ancho lo
definimos a la mitad de la altura
del pico. Bajo esta suposicion, escribamos (k, 0) en notacion polar siendo (k)
el argumento y siendo (k, 0) la longitud del fasor


(k, 0) = (k, 0) ei(k) (2.63)

ahora asumamos
que (k) vara lentamente en el intervalo [k0 k/2, k0 + k/2] donde la longitud del fasor
(k, 0) es apreciable. Cuando k es suficientemente pequeno, podemos expandir a (k) en las vecindades de
k = k0
 
d
(k) (k0 ) + (k k0 ) (2.64)
dk k=k0
2.11. ASPECTOS ONDULATORIOS DE UNA PARTICULA MATERIAL 141

reemplazando esta expansion en (2.58) se obtiene


Z Z
1 1
(x, 0) = ikx
(k) e dk = (k) ei(k) eikx dk (2.65)
2 2
Z k0 + k h i
1 2 d
(k) ei (k0 )+(kk0 )[ dk ]k=k0 +kx dk
2 k0 k 2
Z k0 + k h i
1 2 d
= (k) ei (k0 )+(kk0 )[ dk ]k=k0 +kxk0 x+k0 x dk
2 k0 k 2
Z k0 + k h i
1 2 i (k0 )+(kk0 )[ d ] +(kk0 )x+k0 x
=
(k) e dk k=k0
dk
2 k0 k 2
Z k n  o
ei[(k0 )+k0 x] k0 + 2 i (kk0) [ d ]
+x
= (k) e dk k=k0
dk (2.66)
2 k0 k
2

quedando finalmente
Z k0 + k
ei[k0 x+(k0 )] 2
(x, 0) (k) ei(kk0 )(xx0 ) dk (2.67)
2 k0 k
2
 
d
x0 (2.68)
dk k=k0

La expresion (2.67) es util para un analisis cualitativo de las variaciones de | (x, 0)| con x. Partiendo de k = k0

Figura 2.6: Variaciones con respecto a k, de la parte real del integrando en la Ec. (2.67) (a) cuando x es fijo en
un valor tal que |x x0 | > 1/k, en tal caso la funcion oscila varias veces en el intervalo k. (b) Cuando x
es fijo en un valor tal que |x x0 | < 1/k, en tal caso la funcion oscila muy poco en tal intervalo y la funcion
(x, 0) toma valores grandes. Por tanto, el centro del paquete
de ondas (punto donde | (x, 0)| es maximo) se
ubica en x=x0 . En todo el analisis se ha supuesto que (k) es una funcion simetrica centrada en k 0 , con un
perfil similar a una campana de Gauss.

el siguiente valor kb para el cual se ha ejecutado una oscilacion es


2
(kb k0 ) (x x0 ) = 2 (kb k0 ) =
(x x0 )
142 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

De modo que el valor de |x x0 | nos dice si |kb k0 | es mayor o menor que k/2 o en otras palabras, si en el
intervalo de integracion definido en (2.67) el integrando ha logrado o no completar una oscilacion. Cuando |x x0 |
es grande i.e. cuando |x x0 | 2/k, se tiene que
2
(kb k0 ) = k
(x x0 )
de modo que una oscilacion en el integrando de (2.67) se realiza en un intervalo mucho menor que el ancho de
integracion. En consecuencia, la funcion de k que se integra en (2.67) oscila muchas veces dentro del intervalo k
y las contribuciones de las sucesivas oscilaciones se cancelan entre s (Fig. 2.6a); por tanto, la integral sobre k se
vuelve muy pequena. Es decir que cuando x esta fijo en un valor lejano a x0 las fases de las diversas ondas que
constituyen a (x, 0) varan muy rapidamente en el dominio k, y forman entre ellas una interferencia destructiva.
Por otra parte, cuando x x0 , o en otras palabras cuando

|x x0 | 1/k
se tiene que
|kb k0 | 2k > k
la funcion que se integra sobre k solo realiza una pequena fraccion de la oscilacion a partir de k0 y dado que
|k k0 | < k para un k que este en el intervalo de integracion, se tiene que
 
1 k k
|k k0 | |x x0 | k = 1 , k k0 , k0 +
k 2 2

(k) ei(kk0 )(xx0 ) (k) (2.69)

de modo que la exponencial apenas modifica un poco el perfil de (k) (Fig. 2.6b), y en el proceso de integracion
la fase se mantiene casi constante, por tanto la interferencia es constructiva y | (x, 0)| es maximo.
De otra parte, la Ec. (2.69) se convierte en una igualdad para la posicion xM tal que xM = x0 , en cuyo caso no
hay oscilacion y la interferencia es completamente constructiva. Por tanto, la posicion xM (0) = x0 corresponde al
centro del paquete de onda (maximo del modulo del paquete) que de acuerdo con la Ec. (2.68) viene dada por:
 
d
xM (0) = x0 = (2.70)
dk k=k0

alternativamente, se puede ver que (2.70) nos da la posicion del centro del paquete teniendo en cuenta que la Ec.
(2.58) adquiere su maximo en valor absoluto cuando las ondas de mayor amplitud (aquellas con k cercano a k0 )
interfieren constructivamente. Esto ocurre cuando las fases que dependen de k de estas ondas varan lentamente
alrededor de k0 . Para obtener el centro del paquete se impone que la derivada con respecto a k de la fase sea cero
para k = k0 , esta fase se puede ver en la segunda igualdad de la Ec. (2.65) y se obtiene
 
d d
[kx + (k)]k=k0 = 0 x + =0 (2.71)
dk dk k=k0

vemos entonces que la condicion de fase estacionaria (2.71) se reduce a (2.70).


Cuando x se aleja de x0 , el valor de | (x, 0)| decrece. El proposito ahora es definir un ancho x dependiendo
del decrecimiento de | (x, 0)| alrededor de x0 . Notese que este decrecimiento es apreciable si ei(kk0 )(xx0 ) oscila
una vez o mas cuando k recorre el dominio desde k0 k k
2 hasta k0 + 2 es decir cuando

k |x x0 | & 2

donde hemos definido el umbral para |x x0 | como el valor para el cual se ejecuta una oscilacion. Si definimos
x |x x0 | /2 como el ancho tpico del paquete, tenemos

k x & 1 (2.72)
2.11. ASPECTOS ONDULATORIOS DE UNA PARTICULA MATERIAL 143

lo cual nos da una relacion entre los anchos de dos funciones que son transformadas de Fourier una de otra.
Observemos de nuevo que no hay una unica manera de definir el ancho x, por ejemplo podemos definir este
ancho con dos oscilaciones, con tres etc, entre mayor sea el numero de oscilaciones mayor es el efecto de cancelacion,
el ancho sera mayor y estaremos tomando una mayor porcion del area bajo la curva. De la misma forma, puedo
tomar el ancho k cuando la altura (k) es 1/2, 1/e, 1/3 etc, es decir puedo ensanchar k para tomar una porcion

mas grande del area bajo la curva y tener mejores aproximaciones. En vista de lo anterior, el hecho importante
es que este producto tiene una cota inferior, ya que el valor preciso de esta cota depende de la definicion de los
anchos k y x. Esta es la razon para utilizar el smbolo & en la Ec. (2.72) en lugar de .
La relacion (2.72) nos dice ademas que no es posible construr paquetes cuyo producto de anchos sea mucho
menor que uno, pero en cambio s es posible construr paquetes cuyo producto de anchos sea mucho mayor que
uno.
Notese que este analisis ha sido completamente matematico, k y x pueden ser variables arbitrarias siempre
que (x, 0) y (k) sean transformadas de Fourier la una de la otra. No existe ninguna suposicion fsica en estos
argumentos.
El presente analisis se utiliza en ondas clasicas asignando a k el numero de onda y a x la variable espacial en
una dimension. La Ec. (2.72) demuestra que a medida que un paquete de ondas se hace mas monocromatico (a
medida que se reduce k) el ancho x del paquete de onda espacial se hace mayor. En un paquete estrictamente
monocromatico k 0 y por tanto x , por lo cual las ondas monocromaticas no corresponden a estados
fsicos. Este mismo principio nos muestra que no existe un tren de ondas electromagneticas para el cual se pueda
definir la posicion y la longitud de onda con infinita precision al mismo tiempo.

2.11.3. El principio de incertidumbre de Heisenberg


En nuestro contexto de la mecanica cuantica, el paquete de onda (x, t) dado por (2.57) representa el estado de
una partcula cuya probabilidad en t = 0 de estar fuera del paquete centrado en x0 y de ancho x es practicamente
cero.
El resultado (2.72) posee una interesante interpretacion a la luz de la mecanica cuantica. Por ejemplo, hemos
visto que cuando nuestro estado se describe por una sola onda plana del tipo dado en la Ec. (2.52) (que no es
estrictamente un estado fsico), la probabilidad de estar en cualquier punto del eje x es uniforme, y es la misma para
todos los valores de t, de modo que no hay propagacion de la probabilidad. Por otro lado, el ancho x del paquete
de onda se puede considerar infinito (la amplitud no se modula), lo cual se traduce en la maxima incertidumbre
posible en la posicion de la partcula (igual probabilidad en todas partes). Por otra parte, esta onda tiene solo
una frecuencia angular 0 y un solo numero de onda k0 (onda monocromatica) y de acuerdo con las relaciones de
De Broglie su energa y su momento estan perfectamente definidos E = ~0 , p = ~k0 . Esta onda plana pura se
puede considerar como un caso particular del paquete de ondas (2.57) con

(k) = (k k0 ) ; k 0

donde el hecho de que k 0 se ve claramente si vemos a la delta de Dirac como el lmite de Gaussianas cada
vez mas altas y agudas. La relacion k 0 junto con la Ec. (2.72) nos lleva a que x como ya se dijo.
A la luz del principio de descomposicion espectral este resultado se puede ver de la siguiente forma: A la
partcula en t = 0 le hemos asignado una funcion de onda (x, 0) = Aeikx y hemos visto que posee un momento
bien determinado. Es decir que una medida del momento en t = 0 dara definitivamente el valor p = ~k 8 . De
esto se deduce que Aeikx caracteriza al autoestado correspondiente al autovalor p = ~k. Puesto que existen ondas
planas para todos los valores de k, los autovalores de p que se pueden obtener en una medicion del momento sobre
un estado arbitrario son todos los valores reales. En este caso no hay cuantizacion de los autoresultados, todos los
8
Este punto es quizas el mas adecuado para decir que siempre hemos tratado con medidas ideales. Decir que la medida del momento
esta completamente definida no es experimentalmente cierto. Lo que en realidad se quiere decir es que en este caso no hay una
perturbacion fundamental que cambie drasticamente el sistema y por tanto las demas perturbaciones se puede hacer cada vez mas
pequenas.
144 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

valores del momento son permitidos como en la mecanica clasica. Ahora bien, la total determinacion de p viene
acompanada por una completa incertidumbre en x.
Volvamos ahora al caso de un paquete como el dado por (2.58). Como (x, 0) es una superposicion lineal de
autofunciones del momento eikx con coeficientes (k, 0), el principio de descomposicion espectral nos conduce a
2
interpretar a (k, 0) dk (con un posible factor de normalizacion) como la probabilidad de encontrar un valor
de momento entre p = ~k y p + dp = ~ (k + dk), cuando hacemos una medida en t = 0 del momento de una
partcula cuyo estado es descrito por (x, 0) en (2.58). Esta interpretacion es necesaria cuando el autovalor tiene
un espectro contnuo ya que en este caso la probabilidad de estar en un punto matematico 2 especfico sera cero

y solo es finita la probabilidad de estar en un intervalo dado. En este caso (k, 0) sera una densidad de
probabilidad (probabilidad por unidad de volumen unidimensional), y no una probabilidad como ocurre en el caso
discreto.
Ahora bien, dado que para una partcula es mas usual hacer medidas de momento y energa que de frecuencia
angular y numero de onda, es mas adecuado escribir las expresiones en terminos de E y p usando las relaciones
de De Broglie Ecs. (2.49)9 . En particular, la Ec. (2.58) se reescribe como
Z
1
(x, 0) = (p, 0) eipx/~ dp
2~
dado que las transformadas de Fourier satisfacen la relacion de Bessel parseval (invarianza de la norma)
Z Z

h| i (0) = 2
| (x, 0)| dx = (p, 0) 2 dp C

tendremos entonces que
1 1 2
| (x, 0)|2 dx ; dP (p, 0) = (p, 0) dp
dP (x, 0) =
C C
dP (x, 0) representa la probabilidad de encontrar a la partcula en t = 0 en el intervalo [x, x + dx]. Similarmente,
dP (p, 0) es la probabilidad de obtener una medida del momento de la partcula en t = 0 que este dentro del
intervalo [p, p + dp].
Ahora escribamos la desigualdad (2.72) en terminos de E y p usando la relaciones de De Broglie (2.49)
x p & ~ (2.73)
para dar una interpretacion fsica a (2.73), supongamos que el estado de una partcula esta definido por el paquete
de onda (2.57). En tal caso, la probabilidad de encontrar la partcula en t = 0 dentro del intervalo [x0 x/2,
x0 + x/2] es practicamente uno. Decimos entonces que x es la incertidumbre en la medida de la posicion de
la partcula. Similarmente, si medimos el momento de la partcula en el mismo tiempo (t = 0) tal probabilidad es
casi uno dentro del intervalo [p0 p/2, p0 + p/2]. Es decir que p mide la incertidumbre en la determinacion
del momento de la partcula.
A la luz de lo anterior la Ec. (2.73) expresa que es imposible medir al mismo tiempo la posicion y el momento
de la partcula con grado arbitrario de exactitud. Cuando alcanzamos el lmite inferior en (2.73) una disminucion
en x (es decir un aumento en la exactitud de la medicion de la posicion) conduce a un aumento en p (es decir
un aumento en la incertidumbre de la medida del momento, o equivalentemente una disminucion en la exactitud
de tal medida) y viceversa. Este enunciado se conoce como el principio de incertidumbre de Heisenberg.
Notemos que el valor del termino de la derecha en (2.73) nos expresa mas bien un orden de magnitud que un
lmite inferior preciso.
Es de anotar que si bien hay un analogo clasico del principio de incertidumbre para las ondas, no hay un analogo
clasico para las partculas. En realidad hemos visto que el principio de incertidumbre esta asociado inicialmente a
los parametros de onda, que se conectan a los parametros de partcula por medio de las relaciones de De Broglie,
estas a su vez estan asociadas a la dualidad onda partcula que es una caracterstica cuantica. La pequenez de ~
hace que este principio de incertidumbre no se manifieste en los sistemas macroscopicos.
9
En otras palabras, es mas usual medir parametros de materia que parametros de onda.
2.12. EL PRINCIPIO DE COMPLEMENTARIEDAD PARA LA DUALIDAD ONDA PARTICULA Y SU RELACION CO

2.12. El principio de complementariedad para la dualidad onda partcula y


su relacion con el principio de incertidumbre de Heisenberg

Figura 2.7: Variante del experimento de Young de la doble rendija, para el cual la placa opaca P, puede desplazarse
verticalmente.

La discusion sobre el experimento de la doble rendija nos ha mostrado que si bien la dualidad onda partcula
es necesaria para explicar los resultados, ambas manifestaciones parecen ser mutuamente excluyentes. La perfecta
determinacion de las propiedades ondulatorias (patron de interferencia con doble rendija) nos conduce a una total
ignorancia sobre la rendija por la cual pasa cada foton (propiedad de trayectoria asociada a una partcula). Por
otro lado, la perfecta determinacion de la rendija por la cual pasa cada foton (determinacion de sus propiedades
de partcula) conduce a la completa destruccion del patron de interferencia (i.e. de sus propiedades ondulatorias).
Se dice entonces que los aspectos ondulatorio y material de la partcula son complementarios.
Vamos ahora a reconsiderar el experimento de la doble rendija para demostrar la profunda relacion entre el
principio de complementariedad y el principio de incertidumbre de Heisenberg. Para ello analizaremos una variante
del experimento de la doble rendija ilustrada en la Fig. 2.7.
Asumamos que la placa opaca P sobre la cual se perforan las rendijas esta montada sobre cojinetes que permiten
su desplazamiento vertical. Asumiremos que el foco de los fotones esta muy lejos, de modo que podemos suponer
que todos los fotones inciden perpendicularmente sobre la placa P. Un foton que golpea la placa de observacion O
en el punto M (de coordenada x respecto al origen O), tuvo que sufrir un cambio de momento que fue absorbido
por P a fin de mantener el momento conservado. Notese que si el foton de momento p = h/c pasa por la rendija
F1 , el momento transferido a P es
h
p1 = sin 1 (2.74)
c
146 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

y si pasa por la rendija F2 , tal momento transferido es


h
p2 = sin 2 (2.75)
c
Siendo 1 el angulo de deflexion del foton cuando cruza la rendija F1 e impacta en el punto M . El angulo 2 se
define similarmente con la rendija F2 . Por tanto, el momento transferido a P depende de la trayectoria del foton,
puesto que depende de la rendija por la que pase.
Enviando los fotones uno por uno podemos construir el patron de interferencia gradualmente sobre la pantalla
de observacion. Aparentemente, este dispositivo nos permite construir tal patron de interferencia asociado a la doble
rendija al tiempo que permite determinar la rendija por la cual pasa cada foton. A priori pareciera que podemos
determinar completamente las caractersticas corpusculares y ondulatorias de los fotones en forma simultanea.
Sin embargo, las franjas de interferencia no son visibles con este montaje. El error consiste en asumir que solo
los fotones poseen un caracter cuantico. Sin embargo, la placa P aunque es un objeto macroscopico tambien posee
un caracter cuantico. Si queremos discriminar por cual rendija paso el foton, la incertidumbre p en la medida
del momento vertical de P debe ser suficientemente pequena para determinar la diferencia entre p1 y p2

p |p2 p1 |

aplicando las relaciones de incertidumbre, la posicion de la placa P se puede conocer a lo mas dentro de un intervalo
de incertidumbre dado por
~ h
x & (2.76)
p |p2 p1 |
si denotamos a la distancia entre las rendijas y d la distancia entre la placa P y la pantalla O, y si asumimos que
1 y 2 son pequenos (i.e. a/d 1 y x/d 1) obtenemos

x a/2 x + a/2
1 tan 1 = ; 2 tan 2 =
d d
a
|2 1 |
d
los momentos p1 y p2 dados en las Ecs. (2.74, 2.75) nos dan

h h h a ha
|p2 p1 | = |sin 2 sin 1 | |2 1 | =
c c c d d
siendo la longitud de onda asociada al foton. Sustituyendo esta relacion en (2.76) se obtiene

d
x (2.77)
a
pero (d) /a es precisamente la separacion entre franjas que se espera encontrar en el patron de difraccion sobre
la pantalla O. Ahora bien, si la posicion vertical de las rendijas solo se puede determinar en un intervalo de
incertidumbre mayor a la separacion de las franjas, es imposible observar el patron de interferencia.
La discusion anterior nos muestra que la construccion de una teora cuantica de la radiacion requiere de la
construccion de una teora cuantica de la materia para evitar contradicciones. En el ejemplo anterior, si trabajamos
la placa P como un sistema clasico material, invalidamos el principio de complementariedad de los dos aspectos
corpuscular y ondulatorio de la luz y por tanto, la teora cuantica de la radiacion. Se puede demostrar que dificulta-
des analogas surgen cuando se considera que solo la materia posee caracter cuantico. Por tanto, la consistencia del
principio de complementariedad requiere que tanto la materia como la radiacion tengan caractersticas cuanticas.
Otro aspecto que vale la pena discutir, es que en este ejemplo la naturaleza cuantica de P es esencial para un
adecuado entendimiento del fenomeno, a pesar de ser un sistema macroscopico. La razon estriba en que si bien el
sistema es macroscopico, las incertidumbres combinadas para el momento y la posicion que se requieren en dicho
2.13. EVOLUCION TEMPORAL DE PAQUETES DE ONDAS LIBRE 147

sistema para soslayar el principio de complementariedad, estan en un umbral no permitido por las relaciones de
incertidumbre.
Podemos entonces precisar el principio de complementariedad enunciado por Niels Bohr diciendo que la
naturaleza ondulatoria y corpuscular de la radiacion o de las partculas no pueden exhibirse al mismo tiempo
en la misma medida. Los conceptos clasicos de onda y partcula son mutuamente excluyentes cuando se utilizan
para describir fenomenos cuanticos. Puesto que la existencia de las dos caractersticas de onda y partcula no
puede ser observada simultaneamente, estas no generan conflicto la una con la otra en un mismo experimento. No
obstante, ambas son necesarias para la descripcion de los fenomenos cuanticos. Las dos descripciones dan visiones
complemetarias de la realidad, no visiones contradictorias. Bohr ilustraba este principio con el ejemplo simple
de una moneda que tiene dos caras pero no podemos ver las dos caras simultaneamente, el ver una de las caras
excluye la posibilidad de ver la otra.

2.13. Evolucion temporal de paquetes de ondas libre


Asumamos un paquete de ondas como el descrito por (2.56), la forma especfica del paquete en t = 0 esta
dada por las condiciones iniciales. La evolucion del paquete estara entonces dictaminada por las relaciones de
dispersion que dependen de la interaccion de la partcula con el resto del universo. Puesto que no hemos generado
una ecuacion dinamica para la partcula no podemos en general resolver la evolucion temporal de una partcula
interactuante, sin embargo la relacion de dispersion (2.54) nos permitira resolver el problema de la evolucion
temporal para una partcula libre.
En el caso mas simple, un paquete unidimensional esta constitudo por una sola onda plana

 
(x, t) = Aei(kxt) = Aeik(x k t) = f x t
k
su parte real es h  i
(x, t) = A cos k x t
k
su velocidad de propagacion (velocidad de propagacion del frente de onda i.e. de un punto con fase constante)
esta dada por la velocidad con que se propaga el maximo correspondiente a xM = 0 en t = 0 (que corresponde a
fase total cero). Para cualquier tiempo la posicion de este maximo corresponde a fase total cero

xM (t) t = 0 xM (t) = t
k k
la velocidad de este maximo es entonces
dxM (t)
= Vf (k) = (2.78)
dt k
como esta es la velocidad de un punto que define una fase total constante para todo tiempo (fase cero), llamaremos

a este termino velocidad de fase de la onda plana, la cual solo depende de x y t por medio de x k t .
Es bien sabido que para ondas electromagneticas en el vacio Vf es independiente de k e igual a c. Todas las
ondas que constituyen el paquete viajan a la misma velocidad de modo que el paquete mantiene su forma. Sin
embargo, en un medio dispersivo la velocidad de fase esta dada por
c
Vf (k) =
n (k)

siendo n (k) el ndice de refraccion relativo entre el vaco y el medio. En este caso cada onda componente viaja a
distinta velocidad, lo cual produce un cambio de forma del paquete con el tiempo. A medida que se propaga el
paquete se ensancha, fenomeno conocido como dispersion. Fsicamente, esto se debe a que el material responde de
forma distinta para cada longitud de onda componente.
148 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

Volviendo a nuestro caso de onda monocromatica cuantica, si usamos las Ecs. (2.78, 2.54) vemos que la
velocidad de fase esta dada por
~k2 ~k
Vf (k) = = = (2.79)
k 2mk 2m
de modo que Vf es funcion explcita de k. Notese que si usaramos la relacion de dispersion dada por la ecuacion
de onda, Ec. (2.55) entonces Vf no presentara dispersion (Vf no depende de k) como ocurre efectivamente con
las ondas clasicas libres (como las ondas electromagneticas libres).
Ahora analizaremos el caso de ondas que son superposicion de ondas planas. Veremos a continuacion que
cuando las diferentes ondas tienen diferentes velocidades de fase, la velocidad del maximo xM del paquete de onda
no es la velocidad de fase promedio dada por
0 ~k0
=
k0 2m
como antes, comencemos con el ejemplo simple de la superposicion de tres ondas planas similares a las descritas
en (2.60) pero ahora con variacion temporal
 
g (k0 ) i(k0 x0 t) 1 i[(k0 k )x(0 )t] 1 i[(k0 + k )x(0 + )t]
(x, t) = e + e 2 2 + e 2 2 (2.80)
2 2 2
  
g (k0 ) k
= ei(k0 x0 t) 1 + cos x t
2 2 2
    
g (k0 ) ik0 x k 0 t k
(x, t) = e 0 1 + cos x t (2.81)
2 2 k

puesto que las tres ondas tiene numeros de onda k0 y k0 k, es claro que k0 es el numero de onda promedio.
Similarmente, 0 es la frecuencia angular promedio.
De la Ec. (2.81) se ve claramente que el maximo de | (x, t)| que estaba en x = 0 cuando t = 0 esta ahora en
el punto

xM (t) = t (2.82)
k
y no en el punto x = 0 t/k0 . El origen de este resultado se puede apreciar en la Fig. 2.8, en (a) se representa la

Figura 2.8: Posicion de tres maximos consecutivos (1) (2) (3) para cada una de las tres ondas planas de la super-
posicion en la Ec. (2.81). (a) Configuracion de los maximos en t = 0, para el cual hay interferencia constructiva
en x = 0, que se da con los maximos rotulados por (2). (b) Configuracion en un instante posterior en el cual la
interferencia totalmente constructiva se da a la derecha de x con los maximos (3).

posicion en t = 0 de tres maximos consecutivos de cada una de las partes reales de las tres ondas. Puesto que los
2.13. EVOLUCION TEMPORAL DE PAQUETES DE ONDAS LIBRE 149

maximos denotados con (2) coinciden en x = 0, hay una interferencia constructiva en este punto lo cual nos da
el maximo de | (x, t = 0)|. Puesto que la velocidad de fase aumenta con k segun (2.79), tenemos que el maximo
(3) de la onda k0 + k 2 termina alcanzando al maximo de la onda k0 tambien denotado por tres. Similarmente
el maximo (3) de k0 alcanzara al maximo de k0 k 2 denotado por (3). Un analisis detallado muestra que todos
coinciden en cierto tiempo t, determinando entonces el maximo xM (t) de | (x, t)| por interferencia constructiva.
El calculo detallado del punto donde esto ocurre reproduce la Ec. (2.82).
Analicemos finalmente el caso en el cual el paquete de ondas es arbitrario y consta de una superposicion
contnua de ondas planas como en la Ec. (2.57). El corrimiento del centro del paquete se encuentra aplicando de
nuevo el metodo de fase estacionaria. Comparando la forma de (x, t) con la de (x, 0) Ecs. (2.57, 2.58) vemos
que si la transformada de Fourier en (2.57) no depende explcitamente del tiempo, entonces (x, t) se obtiene
a partir de (x, 0) con la asignacion (k) (k) ei(k)t . Por tanto, el razonamiento dado en la pag. 142 se
mantiene valido reemplazando el argumento (k) de (k) en la Ec. (2.63), por el argumento

(k) (k) (k) t (2.83)

la condicion de fase estacionaria (2.71) se escribe ahora de la forma


 
d d d (k)
[kxM + (k) (k) t]k=k0 = 0 xM + t =0
dk dk dk k=k0

Y la dinamica del centro del paquete estara dada por


   
d d
xM (t) = t
dk k=k0 dk k=k0

que nos reproduce una vez mas el resultado (2.82) solo que en este caso y k tienden a cero ya que hay un
barrido contnuo en estas variables. La velocidad del maximo del paquete de ondas es
 
dxM (t) d
Vg (k0 ) = =
dt dk k=k0

conocida como velocidad de grupo del paquete. Con la relacion de dispersion (2.54) para partcula libre y teniendo
en cuenta (2.79) tenemos que
~k0
Vg (k0 ) = = 2Vf (k0 ) (2.84)
m
Notamos entonces dos diferencias importantes entre la onda asociada a la partcula libre cuantica y la solucion
libre ondulatoria proveniente de la ecuacion de onda. (a) Las ondas electromagneticas clasicas libres no presentan
dispersion en tanto que la solucion cuantica (ondulatoria) de partcula libre si presenta dispersion y (b) para
las ondas electromagneticas libres la velocidad de grupo es menor que la de fase, mientras que para la solucion
ondulatoria de partcla libre cuantica, la velocidad de grupo es mayor que la velocidad de fase10 .
Notese que el resultado (2.84) reproduce adecuadamente el lmite clasico ya que si x y p son ambos
despreciables, podemos hablar de la posicion xM (t) y del momento p0 de la partcula. Pero entonces su velocidad
debe ser p0 /m segun la mecanica clasica, esto es compatible con la Ec. (2.84) obtenida en el marco cuantico con
p0 = ~k0 , siempre que x y p sean ambos despreciables Vg se puede asociar a la velocidad de la partcula, que
es la velocidad del maximo del paquete.
Es posible tambien estudiar la forma en que evoluciona la forma del paquete. Si por ejemplo p es una
constante de movimiento entonces x se incrementa con el tiempo, (dipersion del paquete).
10
Notese que el hecho de que la velocidad de grupo sea mayor a la de fase en la Ec. (2.84), no entra en contradiccion con la relatividad,
puesto que nuestros resultados solo son validos en un regimen no relativista, ya que la relacion de dispersion (2.54) proviene de la
ecuacion (2.53), la cual es no relativista.
150 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

2.14. Caracterizacion de paquetes de onda gaussianos


Estudiaremos perfiles de paquetes de onda (x, 0) para los cuales la transformada de Fourier (k, 0) es
gaussiana. Este ejemplo especfico es de amplio uso en fsica y tiene la ventaja de permitir ilustrar los conceptos
asociados a paquetes de onda con calculos exactos. Estudiaremos ademas la evolucion temporal de estos paquetes.

2.14.1. Integrales basicas para paquetes gaussianos


El calculo del paquete de onda (y muchos otros calculos relativos a paquetes de onda gaussianos) requiere
evaluar una integral del tipo Z
2 2
I (, ) = e (+) d


donde y son numeros complejos. Es necesario que Re 2 > 0 para que la integral converja. El teorema del
residuo nos permite encontrar que
I (, ) = I (, 0)
de modo que la integral no depende de . Si se satisface la condicion |Arg ()| < /4 (lo cual siempre es posible
si Re 2 > 0), esta integral se puede escribir como

1
I (, 0) = I (1, 0)

y solo resta calcular I (1, 0), lo cual se puede hacer como una integral doble en el plano XY usando coordenadas
polares Z
2
I (1, 0) = e d =

de lo cual se obtiene Z

2 (+)2
I (, ) = e d = (2.85)

2.14.2. Perfiles de paquetes de onda gaussianos


Consideremos el modelo unidimensional de una partcula libre cuya funcion de onda en t = 0 tiene el perfil
Z
a 2
a4 (kk0 )2 ikx
(x, 0) = e e dk (2.86)
(2)3/4

el cual resulta de superponer ondas planas eikx con coeficientes de Fourier de la forma

1 a a2 (kk0 )2
(k, 0) = e 4 (2.87)
2 (2)3/4

para calcular (x, 0) es conveniente reescribir la exponencial en (2.86) de modo que los terminos en k queden
como un cuadrado perfecto a fin de compararlos con (2.85)
 
a2 2 a2 2ix 2 x2
(k k0 ) + ikx = k k0 2 + ik0 x 2
4 4 a a

con lo cual la Ec. (2.86) queda


2
Z 2
h i2
a x
ik0 x a2 a4 kk0 2ix
2
(x, 0) = e e e a dk
(2)3/4
2.15. EVOLUCION TEMPORAL DE PAQUETES DE ONDA GAUSSIANOS (OPCIONAL) 151

comparando con (2.85) vemos que = a/2 de modo que



a ik0 x x22 2
(x, 0) = e e a
(2)3/4 a
 1/4
2 x2
ik0 x a2
(x, 0) = e e (2.88)
a2

vemos entonces que la transformada de Fourier de un paquete gaussiano es tambien gaussiana. El modulo al
cuadrado del paquete y de su transformada en t = 0 (que estaran relacionados con las densidades de probabilidad
asociadas a la posicion y momento respectivamente, para una partcula en t = 0) se obtienen de (2.87, 2.88), y
son
(  2 )
kk0
r r  2 2 a exp
2 2x2 2 x a e a2 (kk0 )2 ( 2/a)
| (x, 0)|2 = e 2
a = e a/ 2 ; (k, 0) 2 = = (2.89)
a2 a2 2 2
y la curva asociada a este modulo es una tpica campana de Gauss. El centro del paquete de onda corresponde al
maximo de | (x, 0)|2 y se situa en x = 0. Esto resultado tambien se puede obtener por aplicacion de la Ec. (2.70).

2.14.3. Relaciones de incertidumbre para paquetes gaussianos


2 2
Al igual que para todo paquete que no posee nodos, el ancho de una funcion gaussiana f (x) = ex /b no
puede ser definido en forma unvoca. Sin embargo, es costumbre definir tal ancho de modo que cuando x vara

entre x la funcion f (x) se haya reducido en un factor de 1/ e, esto conduce a un ancho
   
x 2 b
f (x) = exp x = (2.90)
b 2
esta definicion tiene la ventaja de coincidir con la definicion de la raz de la desviacion media cuadratica, como
veremos mas adelante. Con esta convencion podemos 2 definir el ancho11asociado al cuadrado del paquete de onda
| (x, 0)| y de su transformada de Fourier (k, 0) en la Ec. (2.89)
2

a 1 ~
x = ; k = p = (2.91)
2 a a
con lo cual se obtiene
~
(x) (p) = (2.92)
2
relacion que es compatible con el principio de incertidumbre. Notese ademas que el principio de incertidumbre
se escribe en general en la forma (x) (p) & ~/2. Esto implica que el principio de incertidumbre permite en
general, que el producto del ancho de la funcion con el ancho de su transformada de Fourier adquiera un valor
mayor al lmite inferior. Si aceptamos a ~/2 como el lmite inferior, vemos que los paquetes de onda gaussianos
predicen una igualdad, es decir que los productos de las incertidumbres siempre tienen el menor valor posible. En
tal sentido decimos que los paquetes de onda gaussianos son paquetes de mnima incertidumbre.

2.15. Evolucion temporal de paquetes de onda gaussianos (opcional)


La Ec. (2.56) junto con la relacion de dispersion (2.54) nos dan la forma del perfil de un paquete de onda
asociado a partcula libre, donde el paquete inicial tiene forma arbitraria. Aplicando estas ecuaciones al caso
11
Es mas adecuado definir los anchos asociados a las funciones al cuadrado ya que estas son las que tienen interpretacion fsica
directa.
152 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

especfico en que el paquete inicial posee el perfil gaussiano dado por la Ec. (2.87), se tiene que
Z
a 2
a4 (kk0 )2 i[kx(k)t] ~k2
(x, t) = e e dk ; (k) = (2.93)
(2)3/4 2m

veremos que el paquete permanece gaussiano para todo tiempo t. Se puede agrupar la parte dependiente de k de
los exponentes para formar un cuadrado perfecto, con el fin de comparar (2.93) con (2.85) y obtener
h i2
 2 1/4 i x ~k0
t
2a e m
(x, t) =  1/4
eik0 x exp 2 2i~t
2 2 a + m
a4 + 4~m2t
~k02 2~
t ; tan 2 = t
2m ma2
el modulo al cuadrado del paquete (densidad de probabilidad) en el tiempo t esta dado por
 2
r
2 1 2a x m t
2 ~k0
2
| (x, t)| = q exp 2 2 (2.94)
a2 1 + 4~2 t2
a4 + 4~m2t

2
m a4

debemos ahora calcular Z


| (x, t)|2 dx (2.95)

una forma sera empleando (2.85) para integrar (2.94). No obstante, es mas simple observar de la expresion (2.93)
que la transformada de Fourier de (x, t) viene dada por

(k, t) = ei(k)t (k, 0) (2.96)



se ve entonces que (k, t) = (k, 0) . Por otro lado, es bien conocido del analisis de Fourier, que (k, t) =
| (x, t)| (ecuacion de Parseval-Plancherel) para todo tiempo, con lo cual se obtiene

| (x, t)| = (k, t) = (k, 0) = | (x, 0)|

por tanto, la norma del paquete es independiente del tiempo y por tanto tambien la integral (2.95). Este resultado es
importante para la conservacion de la probabilidad y de hecho para la consistencia de la interpretacion de | (x, t)|2
como una densidad de probabilidad. Veremos mas adelante que esto resulta del hecho de que el Hamiltoniano de
la partcula libre es hermtico.
Ahora bien, la Ec. (2.94) nos dice que la densidad de probabilidad es gaussiana centrada en

~k0
xM = V0 t ; V0
m
donde V0 es la velocidad del paquete. Esta expresion es consistente con la velocidad de grupo dada por la Ec.
(2.84).

2.15.1. Dispersion del paquete de onda gaussiano (opcional)


Tomando la expresion (2.90) para el ancho x (t) del paquete de onda, y teniendo en cuenta el perfil del
paquete Ec. (2.94), tenemos que r
a 4~2 t2
x (t) = 1+ 2 4 (2.97)
2 m a
2.15. EVOLUCION TEMPORAL DE PAQUETES DE ONDA GAUSSIANOS (OPCIONAL) 153

Figura 2.9: Dispersion de un paquete de onda Gaussiano libre. El ancho del paquete se reduce a medida que se
propaga desde t = hasta t=0. Posteriormente, el paquete comienza a ensancharce indefinidamente a medida
que se propaga.

esta ecuacion nos muestra que la evolucion del paquete no consiste simplemente en una propagacion con velocidad
V0 . El paquete tambien sufre deformacion. Cuando t se incrementa desde hasta cero, el ancho del paquete
decrece y alcanza su valor mnimo en t = 0, a partir de entonces el paquete se ensancha indefinidamente (dispersion
del paquete de onda). Esta situacion se ilustra en la Fig. 2.9.
Adicionalmente, la Ec. (2.94) para el perfil del paquete nos muestra que la altura tambien vara, pero de forma
opuesta al ancho, de tal manera que la norma de (x, t) permanece constante.
Es natural ahora preguntarse por el comportamiento de la forma del paquete de ondas en el espacio de
los momentos (o espacio recproco) con el tiempo. Las propiedades de la transformada de Fourier (k, t) son
totalmente distintas, vemos por ejemplo que de acuerdo a la Ec. (2.96) se tiene que

(k, t) = (k, 0)

de modo que el momento promedio del paquete ~k0 y la dispersion del momento p = ~k son constantes en
el tiempo. Veremos mas adelante que esto es una consecuencia de que el momento lineal es una constante de
movimiento para la partcula libre. En virtud de la ausencia de interaccion, la distribucion de momentos de una
partcula libre no cambia. Adicionalmente, dado que p es constante y que x crece con el valor absoluto del
tiempo, es claro que estos ya no son paquetes de mnima incertidumbre excepto para t = 0, esto se debe a que
el paquete en el espacio recproco (i.e. la transformada de Fourier del paquete de ondas en el espacio) ya no es
puramente gaussiano en t 6= 0, como se puede ver en la Ec. (2.96).
Cuanticamente, la existencia de una dispersion del momento p = ~k significa que la velocidad de la partcula
solo se conoce en un intervalo v = p/m y usando la ultima de las Ecs. (2.91), vemos que v = ~/ma. Este
hecho posee un interesante analogo clasico: imaginemos un conjunto de partculas clasicas que en t = 0 estan
localizadas en x = 0 y que tienen una dispersion v = ~/ma de sus velocidades. Es claro que en el tiempo t la
dispersion de sus posiciones sera
~ |t|
xcl = |t| v = (2.98)
ma
donde estamos asumiendo que se calcula su dispersion tambien para tiempos negativos anteriores a t = 0. La
dispersion decrece linealmente para la evolucion temporal desde un t < 0 y crece linealmente con t a partir de
t = 0. La Fig. 2.10, muestra una comparacion entre el comportamiento temporal de los anchos clasico xcl y
cuantico x dados por las Ecs. (2.97, 2.98). Vemos que cuando |t| las dos graficas coinciden, dado que las
rectas correspondientes al ancho clasico son las asntotas de la hiperbola cuantica. Por tanto, para |t| muy grande
podemos decir que hay un comportamiento cuasi-clasico del ancho cuantico x. Sin embargo, cuando |t| 0, el
comportamiento cuantico difiere cada vez mas del clasico. Esto se debe a que la partcula cuantica debe siempre
satisfacer el principio de incertidumbre de Heisenberg x p ~/2 y dado que p es fijo, este impone un lmite
inferior para x que el sistema clasico no tiene que obedecer (efectivamente nuestro sistema clasico no posea
154 CAPITULO 2. CONSTRUCCION FENOMENOLOGICA DE LOS POSTULADOS

Figura 2.10: Comparacion entre el comportamiento con el tiempo de un x cuantico (hiperbola) y su analogo
clasico xcl (rectas).

dispersion en la posicion para t = 0 ya que todas las partculas estaban en x = 0). No obstante, este analogo
clasico debe tomarse con cuidado. Por ejemplo, en nuestro sistema clasico la dispersion se genero con un conjunto
de partculas, en tanto que la dispersion cuantica esta asociada a un conjunto de ondas asociadas a UNA SOLA
partcula.
Vale la pena anotar que aunque hemos analizado la dispersion de un paquete de ondas libres cuya condicion
inicial consta de componentes gaussianas, la dispersion se presenta para un paquete libre bajo cualquier forma
inicial del paquete, y la variacion del ancho del paquete con el tiempo tiene la forma mostrada en la Fig. 2.10.
Combinando las Ecs. (2.91, 2.97) vemos que
r r
~ 4~2 t2 1 4~2 t2
x p = 1 + 2 4 x k = 1+ 2 4 (2.99)
2 m a 2 m a
para t = 0 el lmite inferior esta en el mismo orden de magnitud que el dado en la Ec. (2.72)12 Pag. 142. Sin
embargo, para tiempos grandes en valor absoluto, el lmite inferior de (2.99) se aleja mucho de aquel que se
estimo en (2.72). Para entender esta discrepancia, recordemos que de acuerdo con la Ec. (2.64) Pag. 140, nuestro
tratamiento general asumio que la fase (k) de la transformada de Fourier se poda aproximar a una funcion
lineal dentro del rango k. Despreciar los terminos no lineales en la expansion (2.64) equivale a decir que
 2 
2 d (k)
(k) 2 (2.100)
dk2 k=k0

de no ser as la contribucion de segundo orden a (k) no sera mucho menor a 2 dentro del
2
 dominio k0 k. En
nuestro contexto, puesto que k 1/a y de la Ec. (2.93) se tiene que (k) = ~k /2m t, la condicion (2.100)
se escribe como
~t
2 (2.101)
a2 m
esta condicion se cumple en t = 0 y tiempos t 2a2 m/~. En contraste, falla para tiempos suficientemente
grandes para los cuales el lmite inferior en (2.99) difiere sustancialmente de aquel en la Ec. (2.72).
12
Recordemos que para encontrar la Ec. (2.72), se asumio que la transformada de Fourier tena una forma similar (en perfil generico)
a una campana de Gauss. Esto naturalmente coincide con nuestro actual tratamiento. Observemos ademas que la Ec. (2.72) expresa
una desigualdad que muestra la vaguedad del lmite inferior.
Captulo 3

Ecuacion de Schrodinger y sus propiedades

Hemos estudiado la dualidad onda partcula partiendo de los postulados de De Broglie y hemos analizado el
comportamiento de la onda asociada a una partcula libre. Sin embargo, si consideramos un sistema de una o mas
partculas interactuantes sera necesario generar una ecuacion de movimiento que gobierne la dinamica de la onda
asociada. Si bien esta ecuacion de movimiento se postulara, existen ciertos argumentos de plausibilidad para su
construccion.

3.1. Plausibilidad de la ecuacion de Schrodinger


Si aceptamos la validez de los postulados de De Broglie, debemos encontrar una ecuacion de movimiento que
nos describa la propagacion de las ondas piloto y su relacion con la dinamica de la partcula, para el caso en que
la partcula interactue con su entorno. Por simplicidad asumiremos un caso unidimensional en esta seccion.
El punto de partida sera entonces las ecuaciones de De Broglie aplicadas a una partcula material

= h/p ; = E/h (3.1)

ahora bien, a pesar de que las relaciones de De Broglie son consistentes con la teora de la relatividad (de hecho,
fueron inspiradas por las relaciones analogas en los fotones), vamos a plantear una formulacion no relativista, esto
con el fin de evitar el problema del manejo de la probabilidad que surge de la posibilidad de creacion y aniquilacion
de partculas materiales. Tomaremos entonces la relacion no relativista (corpuscular) entre energa y momento

p2
E= +V (3.2)
2m
siendo m = m0 la masa en reposo de la partcula. La Ec. (3.1) nos muestra que un cambio en la definicion de
energa (por ejemplo si tomaramos la relacion relativista) nos cambiara el valor de . Los experimentos descritos
hasta ahora no han explorado la validez de la relacion (3.2), de modo que las predicciones que la ecuacion dinamica
haga sobre una partcula interactuante deben ser corroboradas por los experimentos.
Es claro que para una partcula libre, los resultados deben poder obtenerse con cualquier potencial constante
(no necesariamente cero) aplicado a la Ec. (3.2). Es facil verificar que un potencial constante predice que la
velocidad de grupo de la onda piloto corresponde a p/m y por tanto a la velocidad de la partcula, combinando
(3.1) con (3.2) se tiene que
E p2 V 1 p
= = + ; K =
h 2mh h h
teniendo en cuenta que V es constante, tenemos

2p dp dp
d = , dK =
2mh h

155
156 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

Ahora bien, teniendo en cuenta que


k 2K ; 2
la velocidad de grupo queda
d d p dp h p
Vg = = = = = vpartcula
dk dK mh dp m
y podemos reescribir las relaciones de De Broglie en la forma

p = ~k ; E = ~ (3.3)

si insertamos estas relaciones en (3.2) obtenenemos la siguiente relacion de Dispersion

~2 k2
+ V (x, t) = ~ (3.4)
2m
tomaremos como prototipo la ecuacion para la partcula libre con potencial constante. Las consideraciones ante-
riores nos dicen que la ecuacion de movimiento que genere la funcion de onda (x, t) (i.e. la dinamica de las ondas
piloto), debe cumplir las siguientes propiedades

1. Debe ser consistente con las Ecs. (3.1, 3.2). Es decir debe cumplir los postulados de De Broglie y la relacion
no relativista entre E y p.

2. Debe ser lineal y homogenea en (x, t) con el fin de que sea valido el principio de superposicion que a su vez
nos genera los fenomenos ondulatorios de interferencia. Esto implica que si 1 (x, t) y 2 (x, t) son soluciones
de la ecuacion una combinacion lineal de ellas tambien es solucion.

3. En general, consideraremos potenciales que solo dependen de la posicion y el tiempo V = V (x, t). Cuando
el potencial es constante la partcula es libre y por tanto se deben conservar E y p, lo cual a su vez implica
que se conservan = 2/k y de acuerdo con las relaciones (3.1).

4. Las soluciones para partcula libre son funcionalmente identicas a las soluciones de la ecuacion de onda
homogenea, pero deben cumplir con una relacion de dispersion que sea consistente con la Ec. (3.4) con
V constante, en vez de la relacion de dispersion para ondas libres dada por (2.55), lo cual nos dice que
la ecuacion de onda no es la ecuacion dinamica para la funcion de onda (r, t). Entonces la ecuacion de
movimiento para partcula libre debe tener soluciones en forma de ondas viajeras con numero de onda y
frecuencia constantes.

5. Lo anterior nos lleva a postular que funciones de onda de la forma Aei(kxt) son soluciones para partcula
libre (i.e. con potencial constante), ya que estas funciones son soluciones de la ecuacion de onda homogenea
que corresponden a ondas viajeras con numero de onda y frecuencia constantes, y que gracias a las relaciones
de De Broglie, tambien corresponden a momento y energa conservados.

La linealidad y homogeneidad prohibe terminos del tipo [ (x, t)]2 (no lineales) o terminos independientes de
(x, t) (terminos inhomogeneos o fuentes). Puesto que la mayora de ecuaciones dinamicas de la Fsica son a lo
mas de segundo orden, postularemos que los terminos lineales son a lo mas de segundo orden en el espacio y el
tiempo, y posiblemente un termino lineal en (x, t). Parametrizaremos a la ecuacion en la forma siguiente

(x, t) 2 (x, t) (x, t) 2 (x, t)


a1 + a2 b1 b2 + c (x, t) = 0
x x2 t t2

asumamos que la solucion de partcula libre es (x, t) = Aei(kxt) , ademas se debe cumplir la relacion de
dispersion (3.4) con V constante. Esta relacion de dispersion contiene un termino proporcional a k2 que se obtendra
de una segunda derivada espacial de la onda plana, y un termino lineal en que se puede extraer de una primera
3.1. PLAUSIBILIDAD DE LA ECUACION DE SCHRODINGER 157

derivada temporal de la onda plana. La ausencia de un termino lineal en k y de un termino cuadratico en


sugiere la ausencia de primeras derivadas espaciales y de segundas derivadas temporales. Finalmente, la presencia
del potencial en (3.4) sugiere la presencia de un termino lineal en de la forma V . El ansatz para la solucion se
reduce a
2 (x, t) (x, t)
a2 2
+ V (x, t) = b1 (3.5)
x t
ahora debemos ajustar los parametros a2 y b1 de manera que exista una solucion tipo onda plana que reproduzca
la relacion de dispersion (3.4). Recordemos que en mecanica clasica, el caracter complejo de las soluciones de la
ecuacion de onda se introduce solo por conveniencia y la solucion Fsica es la parte real de la solucion compleja.
Por este motivo si bien podemos insertar una solucion tipo onda plana en (3.5), es razonable intentar primero usar
la solucion real para la ecuacion de onda clasica como prototipo de solucion, insertaremos entonces una funcion
de onda de la forma
(x, t) = cos (kx t) (3.6)
teniendo en cuenta que k, y V son constantes, se tiene que
2 (x, t)
2
= k2 cos (kx t) ; = sin (kx t)
x t
y al insertar estos resultados en (3.5) obtenemos
a2 k2 cos (kx t) + V cos (kx t) = b1 sin (kx t)

V a2 k2 cos (kx t) = b1 sin (kx t)
pero no es posible ajustar los parametros para que esta relacion sea valida para todo x, t, de modo que la solucion
clasica dada por (3.6) no es compatible con la relacion de dispersion de la teora. Aun podemos tratar de encontrar
una solucion real si agregamos una fase adicional en la forma cos (kx t + ) que es equivalente a escribir una
solucion de la forma
(x, t) = cos (kx t) + sin (kx t) (3.7)
lo cual tambien se puede postular observando que en tal caso ambas derivadas tendran senos y cosenos que
permitiran igualar coeficientes adecuadamente
2 (x, t)
= k2 cos (kx t) k2 sin (kx t) ; = sin (kx t) cos (kx t)
x2 t
que al insertarlos en (3.5) nos da
a2 k2 [cos (kx t) + sin (kx t)] + V [cos (kx t) + sin (kx t)]
= b1 [sin (kx t) cos (kx t)]
quedando
 
a2 k2 + V + b1 cos (kx t) + a2 k2 + V b1 sin (kx t) = 0
Los coeficientes de seno y coseno deben anularse para que esta relacion sea valida para todo x, t. Tenemos
entonces dos ecuaciones con tres incognitas (a2 , b1 , ) que junto con la relacion de dispersion (3.4), nos da
~2 k2
a2 k2 + V + b1 = 0 ; a2 k2 + V b1 = 0 ; + V = ~ (3.8)
2m
las dos primeras ecuaciones se pueden reescribir como
b1 b1
a2 k2 + V = b1 ; a2 k2 + V = b1 =

1
= 2 = 1

158 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

tenemos entonces
= 1 = i
sustituyendo en la primera de las Ecs. (3.8)

a2 k2 + V ib1 = 0 a2 k2 + V = ib1

al comparar esta expresion con la tercera de las Ecs. (3.8)

~2
a2 = ; ib1 = ~
2m
tenemos entonces dos soluciones que dependen de la eleccion del signo de , la eleccion mas usual es

~2
= i ; a2 = ; b1 = i~
2m
que al reemplazarlo en (3.5) nos da
~2 2
2
+ V = i~
2m x t
que se ha derivado para un potencial constante V . Ahora postularemos que la relacion se mantiene valida para
un potencial arbitrario de la forma V (x, t). Se obtiene entonces

~2 2
2
+ V (x, t) = i~ (3.9)
2m x t
expresion conocida como la ecuacion de Schrodinger. Por supuesto podemos postular su extension a tres dimen-
siones como
~2 2 (r, t)
(r, t) + V (r, t) (r, t) = i~ (3.10)
2m t
Notese que = i, lo cual indica que la pretendida solucion real (3.7) nos proporciona inevitablemente
una solucion compleja tipo onda plana. Vemos que hay una diferencia con las soluciones de onda clasica que se
toman complejas solo por conveniencia. En contraste, para la ecuacion de Schrodinger no pudimos encontrar una
solucion real consistente con las relaciones de dispersion para partcula libre, el caracter de la solucion es en esencia
complejo. Esto se refleja en el factor imaginario que aparece a la derecha de la ecuacion (3.9) de Schrodinger.

3.2. Ecuacion de Schrodinger para una partcula sometida a un potencial


escalar independiente del tiempo: estados estacionarios
Supongamos que una partcula de masa m esta sometida a un potencial V (r). La ecuacion de Schrodinger
(3.10) se escribe entonces
~2 2 (r, t)
(r, t) + V (r) (r, t) = i~ (3.11)
2m t
plantearemos una separacion de variables para la solucion

(r, t) = (t) (r) (3.12)

al introducirlo en la Ec. (3.11) se obtiene

~2 (t)
(t) 2 (r) + V (r) (t) (r) = i~ (r)
2m t
3.2. ECUACION DE SCHRODINGER CON POTENCIAL ESCALAR INDEPENDIENTE DEL TIEMPO 159

dividiendo a ambos lados por (t) (r) se escribe

~2 2 (r) 1 (t)
+ V (r) = i~
2m (r) (t) t
el miembro izquierdo solo depende de la posicion en tanto que el derecho depende solo del tiempo. Por tanto
ambos miembros deben ser iguales a una constante que por comodidad la tomaremos como ~, de momento es
solo una constante a ajustar, aunque es claro que debe tener dimensiones de frecuencia angular. Tenemos entonces
que
1 (t) (t)
i~ = ~ = i (t)
(t) t t
(t) = Aeit (3.13)

y la ecuacion para la parte espacial es

~2 2 (r)
+ V (r) = ~
2m (r)
~2 2
(r) + V (r) (r) = ~ (r) (3.14)
2m
combinando las Ecs. (3.12, 3.13), la solucion para la ecuacion de Schrodinger (3.11) es

(r, t) = (r) eit (3.15)

donde hemos absorbido el factor A en la solucion (r) de la ecuacion (3.14).


Notese que la solucion (3.15) nos conduce a una densidad de probabilidad independiente del tiempo, aunque
inhomogenea
| (r, t)|2 = | (r)|2
razon por la cual se conoce como solucion estacionaria de la ecuacion de Schrodinger. Ahora bien, la Ec.
(3.15) nos muestra que la constante de integracion corresponde efectivamente a la frecuencia angular asociada
a la funcion de onda estacionaria. Notese que en la solucion estacionaria, solo aparece un valor de frecuencia
angular que a su vez nos conduce a un valor bien definido de la energa de acuerdo con la relacion de Planck
Einstein E = ~. En mecanica clasica un potencial independiente del tiempo nos lleva a la conservacion de la
energa total. En mecanica cuantica, lo que podemos decir es que para potenciales independientes del tiempo
existen estados de energa bien determinada. La Ec. (3.14) se puede escribir entonces como
 
~2 2
+ V (r) (r) = E (r) (3.16)
2m
que se puede reescribir como
~2 2
H (r) = E (r) ; H + V (r) (3.17)
2m
siendo H un operador diferencial que es claramente lineal

H [1 1 (r) + 2 2 (r)] = 1 H1 (r) + 2 H2 (r)

y vemos que (3.17) es una ecuacion de valores propios para el operador H en la cual (r) son las funciones propias
(vectores propios) y las energas E son los valores propios. Las energas permitidas para la partcula son entonces
los valores propios del operador H. Notese que no cualquier solucion (r) de la ecuacion de Schrodinger es una
solucion fsica, debemos imponer que sea de cuadrado integrable, esta imposicion restringira los valores permitidos
de energa y nos llevara a una cuantizacion de esta cantidad.
160 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

A la Ec. (3.17) se le llama usualmente ecuacion de Schrodinger independiente del tiempo, en tanto que a (3.11)
se le denomina ecuacion de Schrodinger dependiente del tiempo. La Ec. (3.11) nos da la evolucion de la funcion
de onda para un estado arbitrario de la partcula, en tanto que la Ec. (3.17) solo nos da los estados estacionarios
de esta.
Dado que tenemos un conjunto de valores permitidos de la energa (autoresultados o autovalores), vamos a
rotular las energas y las autofunciones de la forma

Hn,m (r) = En n,m (r)

donde tanto n como m pueden simbolizar un ndice contnuo o discreto o incluso varios ndices. El ndice m me
indica la posibilidad de degeneracion, es decir de varias autofunciones linealmente independientes que pertenecen
al mismo valor propio En . Los estados estacionarios de la partcula son de la forma

n,m (r, t) = n,m (r) eiEn t/~

n,m (r, t) es una solucion de la ecuacion de Schrodinger Ec. (3.11), y en virtud de la linealidad de esta ecuacion,
una superposicion de las soluciones estacionarias es tambien solucion
XX
(r, t) = cnm n,m (r) eiEn t/~ (3.18)
n m

en realidad es usual que se requiera la superposicion puesto que soluciones arbitrarias no satisfacen en general
las condiciones iniciales y de frontera que pide un problema especfico. La superposicion garantiza que podemos
obtener cualquier estado siempre que las funciones nm (r) sean completas como funciones espaciales (las funciones
temporales son ondas planas y por tanto completas), esto requiere a su vez que el operador H tenga el caracter
de observable.
Para t = 0 la Ec. (3.18) nos da XX
(r, 0) = cnm n,m (r) (3.19)
n m

de modo que si conocemos el estado inicial del sistema (el cual es en principio arbitrario) podemos descomponerlo
en la base de las autofunciones n,m de H (siempre que H sea un observable). Para obtener la evolucion temporal
basta con multiplicar cada termino en (3.19) por eiEn t/~ , debe aclararse que cada termino corresponde a una fase
diferente y por tanto la superposicion ya no corresponde en general a un estado estacionario.
Es esencial tener presente que toda esta discusion solo es valida cuando V (r) no es funcion explcita del tiempo,
de otro modo no es posible en general tener soluciones con separacion de variables.

3.3. Propiedades generales de la ecuacion de Schrodinger


Retornaremos ahora a la forma general de la ecuacion de Schrodinger Ec. (3.10)
 
~2 2 (r, t)
+ V (r, t) (r, t) = i~
2m t
(r, t)
H (r, t) (r, t) = i~ (3.20)
t
en la cual el potencial puede depender del espacio y del tiempo. La primera observacion relevante es que el operador
H es hermtico. Para ver esto, basta con tener en cuenta que desde el punto de vista de los kets, las funciones de
onda son kets escritos en la representacion de coordenadas, y en tal representacion el operador H se puede escribir
como
(i~) (i~) P2
H= + V (r, t) = + V (r, t) (3.21)
2m 2m
3.3. PROPIEDADES GENERALES DE LA ECUACION DE SCHRODINGER 161

siendo P el operador definido por las Ecs. (1.188), que en representacion de la base {|ri} esta dado por la Ec.
(1.191). Ya vimos en la seccion 1.43.4 que este operador es Hermtico, y como V (r, t) es una funcion real, tambien
es hermtica1 . En consecuencia H tambien es hermtico. Notese que esto es indispensable para que el espectro de
este operador (la energa) sea real (ver teorema 1.62).
Ahora bien, recordemos que a cada funcion de onda en el espacio le asociamos un ket en el espacio E en la
forma (r, t) | (t)i es conveniente escribir la ecuacion de Schrodinger como una ecuacion dinamica de los kets
(en lugar de la funcion de onda), debido a que una ecuacion planteada para el vector abstracto se puede tomar
de manera muy sencilla en cualquier representacion. Es facil ver que la Ec. de Schrodinger para kets de la forma
d
i~ | (t)i = H (t) | (t)i (3.22)
dt
conduce a la Ec. de Schrodinger (3.20) cuando usamos la representacion de la base {|ri}, siempre que H (t) sea el
operador (abstracto) que en representacion de la base {|ri} este dado por (3.21). Para verlo aplicamos el bra hr|
a ambos lados de (3.22)
d
i~ hr| | (t)i = hr| H (t) | (t)i
dt
dado que | (t)i no depende de r, la derivada total o parcial en el tiempo coinciden para el ket. Adicionalmente,
cuando el ket se transforma en funcion de onda la cual es un campo, debe tenerse en cuenta que las coordenadas r
en (r, t) son lugares geometricos y no variables dinamicas, por tanto las variables r y t son todas independientes,
de modo que2
d
i~ hr| | (t)i = i~ hr| | (t)i = hr | (t)i
dt t t
d (r, t)
i~ hr| | (t)i =
dt t
y de la condicion establecida para H (t) se tiene que

hr| H (t) | (t)i = H (r, t) hr | (t)i = H (r, t) (r, t)

con lo cual se reproduce la Ec. de Schrodinger (3.20) en representacion de coordenadas. Veamos las principales
propiedades de la ecuacion de Schrodinger.

3.3.1. Determinismo en las soluciones


Puesto que la ecuacion es de primer orden en el tiempo, dado un estado inicial | (t0 )i el estado | (t)i en un
tiempo t subsequente esta determinado, esto se debe a que la ecuacion no es invariante ante t t (como s ocurre
con la ecuacion de onda). No hay indeterminacion en la evolucion del estado del sistema. La indeterminacion se
produce es con el proceso de medida de una cantidad Fsica, en cuyo caso el vector de estado sufre un cambio
abrupto y parcialmente impredecible (ya que se puede evaluar una probabilidad para cada cambio abrupto posible).
Sin embargo, en el tiempo comprendido entre dos medidas, el vector de estado evoluciona en forma perfectamente
determinista segun la Ec. (3.22).

3.3.2. Principio de superposicion


Puesto que la Ec. (3.22) es lineal y homogenea (por construccion), si |1 (t)i y |2 (t)i son soluciones, tambien
lo sera | (t)i = 1 |1 (t)i + 2 |2 (t)i. Esto implica que si el estado inicial es de la forma | (t0 )i = 1 |1 (t0 )i +
1
Visto de otro modo el potencial es un operador del tipo V (r, t) I, siendo I la identidad. Si V (r, t) es real, este operador es hermtico.
2
En una teora clasica de campos, las coordenadas espaciales se convierten en parametros y las coordenadas generalizadas son los
campos. Tenemos entonces cuatro parametros: 3 posiciones y el tiempo, siendo la posiciones lugares geometricos en la grilla del
espacio euclidiano. Los cuatro parametros son totalmente independientes unos de otros.
162 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

2 |2 (t0 )i entonces el estado en un tiempo t posterior sera | (t)i = 1 |1 (t)i + 2 |2 (t)i con lo cual tenemos
una correspondencia lineal entre | (t0 )i y | (t)i. Por tanto, hay un operador lineal conocido como operador
evolucion temporal que conecta a estas dos funciones

| (t)i = U (t, t0 ) | (t0 )i (3.23)

analizaremos este operador mas en detalle en la Sec. 7.1.

3.3.3. Conservacion de la probabilidad


En virtud de la interpretacion de | (r, t)|2 como una densidad de probabilidad es necesario que
Z
h (t)| (t)i = kk = | (r, t)|2 d3 r = 1
2

para todo tiempo, i.e. en cualquier instante la partcula debe encontrarse en algun lugar del espacio (excepto
cuando hay procesos de creacion y destruccion de partculas que no inclumos en el presente formalismo). Esto
significa que la norma de un ket | (t)i debe ser constante en el tiempo. Es necesario por tanto que la ecuacion
de Schrodinger mantenga invariante en el tiempo la norma de los vectores, con el fin de dar una interpretacion
probabilstica coherente.
Para mirar la conservacion de la probabilidad debemos evaluar la derivada total de la norma en el tiempo
   
d d d
h (t)| (t)i = h (t)| | (t)i + h (t)| | (t)i (3.24)
dt dt dt

la derivada temporal del ket se obtiene directamente de la ecuacion de Schrodinger Ec. (3.22)

d 1
| (t)i = H (t) | (t)i (3.25)
dt i~
para obtener la derivada temporal del bra, sacamos el hermtico conjugado de dicha ecuacion
d 1 1
h (t)| = h (t)| H (t) = h (t)| H (t) (3.26)
dt i~ i~
donde hemos usado la hermiticidad de H. Reemplazando (3.25) y (3.26) en (3.24) se obtiene
   
d 1 1
h (t)| (t)i = h (t)| H (t) | (t)i + h (t)| H (t) | (t)i = 0
dt i~ i~

esto implica entonces que si normalizamos el estado inicial, el estado en cualquier tiempo continuara normaliza-
do. Notese la importancia de la hermiticidad de H para lograr la conservacion de la norma y por tanto, de la
probabilidad.

3.3.4. La ecuacion de continuidad para la probabilidad


Por simplicidad trabajaremos el caso de una sola partcula (sin espn). Asumiremos que la funcion de onda
(r, t) esta normalizada, en tal caso | (r, t)|2 representa la densidad de probabilidad de que la partcula este en
la posicion r en el tiempo t
dP (r, t) = (r, t) dV = | (r, t)|2 dV (3.27)
tenemos que la probabilidad total nos da
Z
PT (r, t) dV = 1
3.3. PROPIEDADES GENERALES DE LA ECUACION DE SCHRODINGER 163

para todo tiempo, de modo que PT representa una carga generalizada que se conserva. Por supuesto esto no
significa que la distribucion de esta carga (distribucion de probabilidad), permanezca igual en el tiempo para
cada punto r, las variaciones de (r, t) con el tiempo generan una propagacion de la distribucion de carga. En
general tanto las variaciones espaciales como temporales de (r, t) generan una corriente de probabilidad, si
no es funcion del tiempo se genera una corriente estacionaria. Recordemos que el volumen no es necesariamente
todo el espacio si existen regiones con probabilidad cero. Lo importante es que no cruce corriente de probabilidad
en la superficie que delimita al volumen de integracion, ya que si esto ocurre, habra probabilidad diferente de cero
en regiones que en tiempos anteriores eran inaccesibles. Esta situacion es analoga al caso en que (r, t) simbolizaba
una densidad de carga electrica a la cual le podemos asociar una densidad de corriente J (r, t).
Es bien conocido que la conservacion global de la carga generalizada proviene de una ley de conservacion local
que prohibe la creacion espontanea de carga generalizada neta. Esto implica que si tomamos un volumen por cuya
superficie limitadora cruza corriente de carga generalizada, el flujo neto de carga por la superficie hacia afuera
(adentro) debe estar compensado por una disminucion (aumento) en la carga interior al volumen, el enunciado
preciso de esta ley local de conservacion es


(r, t) + J (r, t) = 0 (3.28)
t
siendo la densidad de carga generalizada y J la densidad de corriente generalizada, esta expresion es conocida
como ecuacion de continuidad. Puesto que hemos encontrado la carga conservada (probabilidad total) y definido
ya la densidad de probabilidad, debemos encontrar una densidad de corriente de probabilidad que nos de una
ecuacion de la forma (3.28), en este caso estamos tratando a la probabilidad como un fludo o medio contnuo.
Volveremos a la ecuacion de Schrodinger en representacion de coordenadas dado por (3.10)

~2 2 (r, t)
(r, t) + V (r, t) (r, t) = i~ (3.29)
2m t
el potencial V (r, t) debe ser real para que H sea hermtico (lo cual es esencial para la conservacion de la proba-
bilidad como ya vimos). La ecuacion compleja conjugada de la Ec. de Schrodinger es

~2 2 (r, t)
(r, t) + V (r, t) (r, t) = i~ (3.30)
2m t
multiplicamos (3.29) por (r, t) y (3.30) por (r, t) y sumamos

~2 (r, t)
(r, t) 2 (r, t) + V (r, t) (r, t) (r, t) = i~ (r, t)
2m t
~2
(r, t)
(r, t) 2 (r, t) V (r, t) (r, t) (r, t) = i~ (r, t)
2m t
quedando
 
~2  2 2

= i~ +
2m t t
~  
2 2 = [ ]
2mi t
sumando y restando un termino a la izquierda

~  2 
+ ( ) () ( ) () 2 = [ ]
2mi t
~
[ ] =
2mi t
164 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

quedando finalmente  
~
+ [ ] = 0 (3.31)
t 2mi
y comparando (3.31) con la ecuacion (3.28) de continuidad se tiene que
~
J= [ ]
2mi
esta ecuacion se puede reescribir definiendo
 
~ 1
J = [Z Z ] ; Z
m 2i
      
1 1 ~Z ~Z 1 ~Z
J = + = Re
m 2 i i m i
de modo que   
~ 1 ~
J (r, t) = [ ] = Re (3.32)
2mi m i
hemos probado entonces la conservacion local de la probabilidad y encontramos la forma explcita de la densidad
de corriente, la cual es real como era de esperarse.
Vale la pena calcular la corriente de probabilidad para el caso especial de estados estacionarios de la forma
(3.15), en tal caso al reemplazar (3.15) en (3.32) resulta
~ ~ n        o
J = [ ] = (r) eit (r) eit (r) eit (r) eit
2mi 2mi
~  it it

J = (r) e e (r) (r) eit eit (r)
2mi
quedando finalmente
 
~ 1 ~
J (r) = { (r) (r) (r) (r)} = Re (r) (r) estados estacionarios (3.33)
2mi m i
comparando, (3.32) con (3.33), vemos que para estados estacionarios, la corriente se puede calcular reemplazando
(r, t) por (r), es decir omitiendo la componente temporal de . Efectivamente, (3.33) corresponde a una
corriente estacionaria tal como se usa en mecanica clasica, i.e. una corriente que depende de la posicion pero que
no depende explcitamente del tiempo.

3.3.5. Expresion polar de la corriente de probabilidad


Consideremos una funcion de onda arbitraria (r), utilizando su descomposicion compleja polar tenemos

(r) = (r) ei(r) ; (r) 0 , 0 (r) < 2

si sustitumos esta expresion polar en la Ec. (3.32) para la densidad de corriente de probabilidad encontramos
que3
~ n h i h io
J (r) = (r) ei(r) (r) ei(r) (r) ei(r) (r) ei(r)
2mi
~ n o
= (r) ei(r) ei(r) [ (r) + i (r) (r)] (r) ei(r) ei(r) [ (r) i (r) (r)]
2mi
~ 2
J (r, t) = (r, t) (r, t) (3.34)
m
3
Por simplicidad hemos omitido la posible dependencia explcita del tiempo pero esto no altera los resultados.
3.4. APLICACION DE LA ECUACION DE SCHRODINGER A POTENCIALES DISCONTINUOS 165

y la densidad de probabilidad esta dada por

(r, t) = | (r, t)|2 = 2 (r, t) (3.35)

vemos que (r, t) solo depende del modulo del complejo (r, t), en tanto que J (r, t) depende del modulo y del
gradiente de la fase. Por ejemplo, si la fase es constante en el espacio, J (r, t) es cero, aunque la densidad no lo
sea4 . Las Ecs. (3.34, 3.35) nos dan a J (r, t) y (r, t) cuando conocemos (r, t), vale preguntarse si inversamente
podemos determinar unvocamente a (r, t) con base en el conocimiento de J (r, t) y (r, t). La Ec. (3.35) nos da
a (r, t) en funcion del modulo de (r, t). Por otro lado, dividiendo las Ecs. (3.34, 3.35) resulta

m J (r, t)
(r, t) =
~ (r, t)

esta ecuacion solo tiene solucion si


J (r, t)
=0 (3.36)
(r, t)
que tiene un conjunto infinito de soluciones que solo diferen en una constante (o en una funcion solo del tiempo),
que correspondera a una fase global irrelevante en (r, t). Por tanto, si conocemos a (r, t) y J (r, t) entonces
(r, t) esta bien especificada siempre y cuando se satisfaga la condicion (3.36). Si dicha condicion no se satisface,
no existe una funcion de onda asociada a (r, t) y J (r, t) incluso si estas cumplen con la ecuacion de continuidad.

3.4. Aplicacion de la ecuacion de Schrodinger a potenciales discontnuos


Hemos visto que los efectos cuanticos no son evidentes cuando se considera a h como muy pequena. En
particular, si la longitud de onda = h/p asociada a la partcula es mucho menor que todas las demas longitudes
involucradas en el problema, la naturaleza ondulatoria de la materia quedara apantallada y el comportamiento
de la partcula sera esencialmente clasico. Esto es analogo a lo que ocurre entre la optica geometrica y la optica
ondulatoria. Cuando la longitud de la onda es mucho menor que las demas longitudes involucradas en el problema,
la optica geometrica nos predice muy bien los fenomenos opticos, el comportamiento de los rayos es esencialmente
corpuscular. Cuando esto no se cumple, los aspectos ondulatorios de la luz se vuelven importantes para una
adecuada descripcion de los fenomenos.
De la misma forma, cuando un potencial actua sobre una partcula, los efectos cuanticos debidos a esta
interaccion solo seran significativos si el potencial vara significativamente sobre una distancia menor a la longitud
de onda de DeBroglie asociada a la partcula. Es por esta razon que estudiaremos potenciales discontnuos en donde
la variacion sera finita para una distancia basicamente cero (es decir menor que cualquier longitud de onda). Es
claro que esto constituye una idealizacion ya que los potenciales fsicos deben ser contnuos si bien pueden exhibir
una enorme pendiente. Este lmite solo correspondera aproximadamente a la realidad si la distancia x en que
ocurre esta fuerte variacion, es mucho menor que la longitud de onda de De Broglie asociada a la partcula y
mucho menor que cualquier otra longitud tpica del problema. Estos potenciales se podran definir adecuadamente
a traves de la funcion paso definida por

0 si x < x0
(x x0 ) =
1 si x > x0

3.5. Potenciales rectangulares, analogo optico


Definamos un potencial de la forma
4
Esto es una consecuencia mas del caracter intrnsecamente complejo de la funcion de onda, pues la fase tiene un claro contenido
fsico.
166 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES


V0 si < x < x0
V (x) = V1 si x0 < x < x1 ; V1 < V2 < V0 (3.37)

V2 si x1 < x <
la fuerza F (x) = dV (x) /dx sera del tipo

F (x) = F0 (x x0 ) F1 (x x1 )

En primer lugar las predicciones de la mecanica clasica son inmediatas, por ejemplo si V (x) es una energa
potencial gravitacional, el perfil del potencial representa el perfil de la superficie sobre la cual se mueve la partcula,
los valores de x para los cuales E < V estaran prohibidos. En las regiones de potencial constante la velocidad
de la partcula es constante ya que es libre, solo en las discontinuidades experimenta una fuerza y si pasa a la
otra region (si E > V ) su energa cinetica se vera aumentada (disminuda) si pasa a una zona de menor (mayor)
potencial.
Como el potencial no depende del tiempo podemos encontrar soluciones estacionarias para la ecuacion de
Schrodinger. En la region de potencial constante V , la ecuacion de Schrodinger independiente del tiempo nos da
 
~2 d2
+ V (x) = E (x)
2m dx2
 2 
d 2m
+ 2 (E V ) (x) = 0 (3.38)
dx2 ~
escrita en esta forma la ecuacion tiene un interesante analogo optico. Consideremos un medio transparente de
ndice de refraccion n independiente de la posicion y el tiempo. En tal medio puede haber ondas electromagneticas
con campo electrico independiente de y y z

E (r, t) = uE (x) eit (3.39)

siendo u un vector unitario perpendicular al eje x, teniendo en cuenta que E satisface la ecuacion de onda y las
ecuaciones de Maxwell, resulta  2 
d n2 2
+ E (x) = 0 (3.40)
dx2 c2
las Ecs. (3.38) y (3.40) son identicas si hacemos la asignacion

2m n2 2
2
(E V ) = 2 (3.41)
~ c
adicionalmente, en los lugares en donde V (y por tanto n) son discontnuos las condiciones de frontera para (x)
y E (x) son las mismas: las soluciones y sus primeras derivadas deben permanecer contnuas (lo veremos mas
adelante para las (x)). Esta analoga permite asociar al problema de una partcula en un potencial del tipo
(3.37) un problema optico asociado a la propagacion de una onda electromagnetica de frecuencia angular en un
medio cuyo ndice de refraccion n tiene discontinuidades del mismo tipo. En la Ec. (3.41) podemos despejar para
n () y obtener
1 p
n () = 2mc2 (E V ) (3.42)
~
notese que para la onda electromagnetica, la region con E > V corresponde a un medio transparente con ndice
de refraccion real y la onda es de la forma eikx . Por otro lado, cuando E < V corresponde a un medio con un
ndice de refraccion imaginario de modo que n2 < 0 y al reemplazar esto en (3.40) se obtiene una solucion de la
forma ex que es del tipo de onda evanescente.
Debe tenerse en cuenta que si bien obtendremos un comportamiento funcional analogo al optico, la interpre-
tacion probabilstica es muy diferente a la interpretacion clasica para onda electromagnetica.
3.5. POTENCIALES RECTANGULARES, ANALOGO OPTICO 167

3.5.1. Estrategia de solucion para potenciales acotados con discontinuidades de salto


Veamos ahora la estrategia especfica de solucion para los estados estacionarios de la partcula sometidas a
potenciales discontnuos. En las regiones de energa potencial constante usamos la Ec. (3.38)
 2 
d 2m
+ (E V ) (x) = 0 (3.43)
dx2 ~2

es util distinguir tres casos


(a) E > V , introduzcamos por conveniencia una constante positiva k definida por

~2 k2
EV (3.44)
2m
al reemplazar en (3.43) queda  
d2 2
+ k (x) = 0 (3.45)
dx2
que es la ecuacion de un oscilador armonico y la solucion de la Ec. (3.45) se puede escribir como

(x) = Aeikx + A eikx (3.46)

donde A y A son complejos constantes.


(b) E < V , esta condicion corresponde a regiones del espacio que estan clasicamente prohibidas. En este caso
introducimos la constante positiva dada por

~2 2
V E (3.47)
2m
y la Ec. (3.43) queda  
d2 2
(x) = 0 (3.48)
dx2
con solucion
(x) = Bex + B ex (3.49)
siendo B y B constantes complejas.
(c) E = V , en este caso
d2 (x)
= 0 (x) = Cx + C
dx2
Ahora veamos el comportamiento de las soluciones en la discontinuidad. La primera tentacion es pensar que
la funcion de onda debe ser discontnua en un punto donde el potencial lo sea, veremos sin embargo que tanto
(x) como d (x) /dx deben ser contnuas y solo es la segunda derivada d2 (x) /dx2 la que es discontnua en el
punto. Para ver esto, recordemos que un potencial con una discontinuidad de salto en x1 representa en fsica el
lmite cuando 0 de un potencial V (x) que es igual a V (x) fuera del intervalo [x1 , x1 + ], pero que vara
de forma contnua en dicho intervalo. Consideremos la ecuacion
d2 2m
2
(x) + 2 [E V (x)] (x) = 0 (3.50)
dx ~
asumimos que V (x) esta acotado en el intervalo [x1 , x1 + ], y que esta cota no depende del parametro .
Esto se cumple en la mayora de los casos, ya que usualmente V estara definido dentro de los valores [V0 , V1 ] que
se tienen en la discontinuidad de salto a la izquierda y la derecha de x1 . Escogemos una solucion (x) que para
x < x1 y para x > x1 + coincida con una solucion dada de la Ec. (3.43). La idea es demostrar que cuando
0 entonces (x) tiende a una funcion (x) contnua y diferenciable a primer orden en x1 . Es posible probar
168 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

a traves de las propiedades de la ecuacion diferencial (3.43) que (x) permanece acotada para cualquier valor
de con una cota independiente de , en la vecindad de x = x1 . Esto fsicamente implica que la densidad de
probabilidad permanece finita. Integrando la Ec. (3.50) en el intervalo [x1 , x1 + ] resulta
Z x1 +    Z
d d 2m x1 +
(x) dx + 2 [E V (x)] (x) dx = 0
x1 dx dx ~ x1
Z x1 +
d (x1 + ) d (x1 ) 2m
= 2 [V (x) E] (x) dx (3.51)
dx dx ~ x1

y dado que V (x) y (x) permanecen acotados con cotas independientes de , la integral a la derecha de la Ec.
(3.51) tiende a cero cuando tiende a cero. Por lo tanto
 
d (x1 + ) d (x1 )
lm =0
0 dx dx

por tanto, en este lmite, d/dx es contnua en x = x1 y por tanto tambien (x) ya que derivabilidad implica
continuidad. Por otro lado, d2 /dx2 es discontnua en x = x1 puesto que en la Ec. (3.43) vemos que
 2 
d (x1 + ) 2m
lm + [E V (x 1 + )] (x 1 + ) = 0
0+ dx2 ~2
 2 
d (x1 + ) 2m
lm 2
= lm 2 {[V (x1 + ) E] (x1 + )}
0+ dx 0+ ~
 2 
d (x1 + ) 2m
lm 2
= 2 {[V1 E] (x1 )}
0 + dx ~

siendo V1 el valor del potencial a la derecha de x1 , similarmente


 2 
d (x1 + ) 2m
lm 2
= 2 {[V0 E] (x1 )}
0 dx ~

siendo V0 el valor del potencial a la izquierda de x1 . Tenemos entonces que en x1 la segunda derivada presenta un
salto dado por  2   2 
d (x1 + ) d (x1 + ) 2m
lm 2
lm 2
= 2 (V1 V0 ) (x1 )
0 + dx 0 dx ~
esto es una discontinuidad de salto para la segunda derivada ya que V1 6= V0 . Notese sin embargo, que la segunda
derivada permanece acotada. Es importante resaltar la importancia de que V (x) permanezca acotado. Por ejem-
plo, si V (x) = a (x) tenemos una funcion cuya integral permanece finita pero que no es acotada. En tal caso,
(x) permanece contnua pero no la primera derivada.
Por tanto, para encontrar la solucion de los estados estacionarios cuando el potencial es contnuo a trozos
con discontinuidades de salto finito, calculamos primero las soluciones para las regiones en donde el potencial es
constante (con E > V o E < V segun el caso), y hacemos el empalme en los puntos donde hay discontinuidades
exigiendo la continuidad de la solucion y de su primera derivada.

3.5.2. Expresion para la corriente en regiones de potencial constante


Por simplicidad consideraremos un problema unidimensional de una partcula colocada en un potencial cons-
tante V0 . Aunque este caso corresponde a partcula libre, resulta interesante obtener la corriente en terminos de
V0 ya que despues consideraremos la posibilidad de regiones con potencial constante pero diferente en cada region.
Como la corriente (3.33) depende de la solucion para la funcion de onda estacionaria debemos considerar varios
casos segun la seccion 3.5.1
3.5. POTENCIALES RECTANGULARES, ANALOGO OPTICO 169

(a) E > V0 , en tal caso la solucion estacionaria viene dada por la Ec. (3.46)

(x) = Aeikx + A eikx (3.52)

donde hemos usado la definicion (3.44)


~2 k2
E V0
2m
y sustituyendo (3.52) en la expresion (3.33) para la corriente

~
Jx = [ x x ]
2mi
~ h ikx       i
Jx = A e + A eikx x Aeikx + A eikx Aeikx + A eikx x A eikx + A eikx
2mi
~ h ikx     i
Jx = A e + A eikx ikAeikx ikA eikx Aeikx + A eikx ikA eikx + ikA eikx
2mi
~k h ikx   
Jx = A e + A eikx Aeikx A eikx + A eikx A eikx
2m    i
+ Aeikx + A eikx A eikx Aeikx + A eikx A eikx
~k h i
Jx = A A + A Ae2ikx A A e2ikx A A + AA + A A e2ikx AA e2ikx A A
2m
~k h 2 i
Jx = 2 |A|2 + A Ae2ikx AA e2ikx A A e2ikx + A A e2ikx 2 A
2m
~k h 2 2 i
Jx = |A| A (3.53)
m
el signo relativo se puede entender teniendo en cuenta que la funcion de onda (3.52) representa dos ondas con
momentos opuestos p = ~k con densidades de probabilidad |A|2 y |A |2 , ademas ~k p
m = m = vg nos dice que Jx es
de la forma vg como era de esperarse.
(b) Cuando E < V0 la solucion esta dada por las Ecs. (3.47, 3.49)

(x) = Bex + B ex (3.54)


~2 2
V0 E (3.55)
2m
sustituyendo (3.54) en (3.33) nos da
~
Jx = [ x x ]
2mi
~  x    
Jx = B e + B ex x Bex + B ex Bex + B ex x B ex + B ex
2mi
~  x    
Jx = B e + B ex Bex B ex Bex + B ex B ex B ex
2mi
~  x  
Jx = B e + B ex Bex B ex + B ex B ex
2mi   
Bex + B ex B ex + Bex + B ex B ex
~  2x 
Jx = B Be + B B B B B B e2x BB e2x B B + BB + B B e2x
2mi
~  2x 
Jx = B Be BB e2x + 2B B 2B B B B e2x + B B e2x
2mi
~  
Jx = 2B B 2B B
2mi
170 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

~   ~  
Jx = BB B B = Im BB (3.56)
2mi m
vemos que es necesario que en la funcion de onda (3.54) ambos coeficientes sean no nulos para que la corriente de
probabilidad sea diferente de cero.

3.6. El potencial escalon

Figura 3.1: Perfil de un potencial escalon con discontinuidad en x = 0 y altura V0 .

Definamos un potencial en la forma



0 si x < 0 (Region I)
V (x) = V0 (x) =
V0 si x > 0 (Region II)

cuyo perfil se ilustra en la Fig. 3.1. Asumiremos que la partcula viene desde x = en t = de modo que
inicialmente solo hay una onda viajera que se propaga hacia la derecha. Distinguiremos dos casos

3.6.1. E > V0 , reflexion parcial


Como la energa es mayor que el potencial en ambas regiones, la Ec. (3.45) y la definicion (3.44) son validas
para las dos regiones I y II
 2  r
d 2 2mE
+ k1 (x) = 0 ; k1 (region I) (3.57)
dx2 ~2
 2  r
d 2 2m (E V0 )
+ k2 (x) = 0 ; k2 (region II) (3.58)
dx2 ~2
as mismo las soluciones en las dos regiones son de la forma (3.46)

I (x) = A1 eik1 x + A1 eik1 x ; II (x) = A2 eik2 x + A2 eik2 x (3.59)


dI (x)   dII (x)  
= ik1 A1 eik1 x A1 eik1 x ; = ik2 A2 eik2 x A2 eik2 x (3.60)
dx dx
y puesto que la ecuacion (3.43) es homogenea, si es solucion tambien lo sera /A, siendo A una constante. Esto
implica que solo podemos determinar los cocientes entre las amplitudes pero no todas las amplitudes. Ahora bien,
3.6. EL POTENCIAL ESCALON 171

puesto que la amplitud de entrada es la de la onda incidente, es decir la de la onda que viaja hacia la derecha
en la region I, tenemos que A1 es el parametro de entrada y todos los demas deben compararse con el. Por tanto
determinaremos los cocientes
A1 A2 A2
, , .
A1 A1 A1
Veamos la informacion que nos dan las condiciones de empalme, la continuidad de la funcion en x = 0 nos da

lm (x) = lm (x) I (x = 0) = II (x = 0)
x0 x0+
A1 + A1 = A2 + A2 (3.61)

y la continuidad de la primera derivada en x = 0 nos da


d (x) d (x) dI (x = 0) dII (x = 0)
lm = lm =
x0 dx x0 + dx dx dx



k1 A1 A1 = k2 A2 A2 (3.62)

como solo tenemos dos ecuaciones (3.61) y (3.62) para los tres cocientes, debemos fijar una amplitud para poder
determinar los cocientes. Para ello tengamos en cuenta que cuando la funcion de onda penetra la region II vuelve
a ser una funcion de onda libre (potencial constante) y ya hemos visto que la funcion de onda libre es una onda
viajera en una sola direccion, de modo que no es de esperarse que surja una onda reflejada en el interior de la
region II (solo en el lmite entre I y II donde s hay interaccion). En consecuencia, no habra onda reflejada en la
region II, por lo cual segun la Ec. (3.59) vemos que

A2 = 0 (3.63)

notese que esto esta relacionado con el hecho de que hayamos tomado el caso de una partcula incidente que
proviene de x = (condiciones iniciales)5 . Las Ecs. (3.61, 3.62) se simplifican a

A1 + A1 = A2 ; k1 A1 A1 = k2 A2 (3.64)
A1 + A1 A2
k1 (A1 A1 ) A2
= ; = k2
A1 A1 A A1
 1 
A1 A2 k1 A1 A2
1+ = ; 1 = (3.65)
A1 A1 k2 A1 A1

igualando las dos Ecs. (3.65)


     
A k1 A1 k1 k1 A1 k2 k1 k2 + k1 A1
1+ 1 = 1 1 = 1+ =
A1 k2 A1 k2 k2 A1 k2 k2 A1
A1 k1 k2
=
A1 k1 + k2
y reemplazando en la primera de las Ecs. (3.65)
k1 k2 A2 2k1 A2
1+ = =
k1 + k2 A1 k1 + k2 A1
tenemos entonces que las condiciones iniciales y de empalme nos llevan a
A1 k1 k2 A2 2k1
A2 = 0 ; = >0 ; = >0 (3.66)
A1 k1 + k2 A1 k1 + k2
5
Si la partcula proviniera de x = + y viajara hacia la izquierda, esperaramos onda incidente y reflejada en la region II y solo
onda transmitida en la region I.
172 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

donde el hecho de que el primer cociente es positivo proviene de las expresiones para k1 y k2 Ecs. (3.57, 3.58).
Ahora bien, para E > V0 , la funcion I (x) en la Ec. (3.59) representa dos ondas con momentos opuestos, es decir
propagandose en direcciones opuestas. La onda proporcional a A1 se propaga de izquierda a derecha de modo que
representa una partcula incidente (p = ~k1 ), la onda proporcional a A1 tiene momento p = ~k1 por lo cual
representa una partcula reflejada. Puesto que A2 = 0 tenemos que II (x) en la Ec. (3.59) representa solo una
onda que corresponde a una partcula transmitida. Es natural entonces preguntarse por la probabilidad de que
una partcula que incide desde x = pase el escalon de potencial o rebote en el (que en terminos cuanticos es la
probabilidad de detectar a la partcula en las regiones II y I respectivamente). A tales cantidades las llamaremos
coeficientes de transmision T y de reflexion R respectivamente. Para calcular estas cantidades debemos calcular
primero la corriente asociada a cada region de potencial constante. Para el caso E > V0 esta corriente viene dada
por las Ecs. (3.52, 3.53), que aplicadas a las soluciones (3.59) y con la condicion A2 = 0 Ec. (3.63) nos da
~k1 h 2 i
JI (x) = |A1 |2 A1 (3.67)
m
~k2
JII (x) = |A2 |2 (3.68)
m
JI es la superposicion entre la corriente incidente y la corriente reflejada, en tanto que JII es la corriente trans-
mitida, por lo tanto
~k1 ~k1 2
JI (x) = Jinc + Jref l ; Jinc = |A1 |2 ; Jref l = A1
m m
~k2
JII (x) = Jtr = |A2 |2
m
Ahora bien, la corriente incidente Jinc se divide en dos terminos cuando incide sobre la discontinuidad: la corriente
reflejada y la transmitida
Jinc = Jtr + Jref l
El coeficiente de reflexion del escalon es entonces el cociente entre la corriente reflejada sobre la corriente incidente

Jref l A1 2
R= = (3.69)
Jinc A1
y el coeficiente de transmision es el cociente entre la corriente transmitida sobre la corriente incidente

Jtr k2 A2 2
T = = (3.70)
Jinc k1 A1
podemos escribir R y T en terminos de k1 y k2 . Para hacerlo con R reemplazamos (3.66) en (3.69)
2
A1 k1 k2 2 (k1 k2 )2 (k1 + k2 )2 4k1 k2

R = = = =
A1 k1 + k2 (k1 + k2 )2 (k1 + k2 )2
4k1 k2
R = 1
(k1 + k2 )2
para el caso de T , reemplazamos (3.66) en (3.70)

k2 A2 2 k2 2k1 2 k2 4k12 4k1 k2
T = = = 2 =
k1 A1 k1 k1 + k2 k1 (k1 + k2 ) (k1 + k2 )2
los coeficientes R y T quedan finalmente
4k1 k2 4k1 k2
R =1 2 , T = (3.71)
(k1 + k2 ) (k1 + k2 )2
3.6. EL POTENCIAL ESCALON 173

ahora bien, en un experimento concreto es claro que la partcula debe reflejarse o transmitirse, y esto se traduce
en que necesariamente
R+T =1
lo cual es consistente con las Ecs. (3.71). Es de enfatizar que contrario a las predicciones de la mecanica clasica,
tenemos una probabilidad diferente de cero de que la partcula se devuelva.
Ahora estamos preparados para la analoga optica: De las Ecs. (3.42) vemos que un escalon de potencial con
V = 0 para x < x1 (region I) y V = V0 < E para x > x1 (region II), corresponde a una onda electromagnetica
que se propaga de izquierda a derecha desde una region I de ndice real n1 dado por
c
n1 = 2mE
~
hacia una region II (separada de la region I por el punto x = x1 ) de ndice de refraccion real n2
c p
n2 = 2m (E V0 )
~
de modo que tenemos una interfase plana en x = x1 con n1 > n2 (la region I podra ser vidrio y la region II podria
ser aire o el vaco). Ambos medios son transparentes. En este caso la onda incidente (con direccion de propagacion
normal a la interfase) se parte en una onda transmitida (o refractada) y una onda reflejada. Ahora bien, las Ecs.
(3.66) muestran que los cocientes A1 /A1 y A2 /A1 son reales positivos, i.e. A1 y A2 tienen la misma fase que A1 6 .
Fsicamente, esto significa que no hay corrimiento de fase en la onda reflejada ni en la transmitida, con respecto
a la onda incidente. Por tanto, la partcula cuantica no es retardada por su reflexion o transmision.
Es interesante ver lo que ocurre en el lmite cuando E V0 . De las definiciones de k1 y k2 en las Ecs. (3.57,
3.58), junto con las Ecs. (3.71) es facil ver que
q  q 
  p 
2mE 2m(EV0 )
4 ~ 2 ~ 2 8m E (E V0 )
4k1 k2
T = = q q 2 =  p 2
(k1 + k2 )2 2mE 2m(EV0 ) 2mE + 2m (E V )
~2
+ ~2
0

hp i hp i h i
4 E(EV0 )
8m E (E V0 ) 4 E (E V0 )
T = h  i 2 = h i2 = E 2
2m E + E V0 E + E V0 [( E+ EV0 )]
E
q  q 
4 1 VE0 4 1 VE0
4
T =  2 =  q 2 =1
( E+ EV0 ) V0 [1 + 1]2
E
1+ 1 E

por tanto si E V0 entonces R =0yT = 1, de modo que para energas suficientemente grandes comparadas con
la altura del potencial, la partcula saltara el escalon practicamente con toda certeza.
La diferencia en la interpretacion en optica y en cuantica se puede apreciar con el proceso de medicion. Si
justo despues de que la onda incidente se parte en dos, colocamos dos detectores en la regiones I y II, en un
experimento optico los dos aparatos detectaran una onda cada una con intensidad menor a la incidente (siendo
la suma de las dos intensidades la intensidad incidente). En un experimento cuantico solo uno de los detectores
detectara una partcula, pero si repetimos el experimento muchas veces, la partcula sera detectada en uno u otro
detector en cada experimento, en una proporcion dada por el patron de probabilidad.
6

Para el cociente de dos amplitudes complejas podemos escribir tales cocientes en forma polar i.e A1 /A2 = |A1 | ei1 / |A2 | ei2 . De
modo que si el cociente es positivo entonces 1 = 2 , si el cociente es negativo hay una diferencia de fase y si el cociente es complejo
hay una diferencia de fase arbitraria diferente a cero y .
174 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

3.6.2. E < V0 ; reflexion total


Asumiendo E 0 se tiene que en la region I son validas la Ec. (3.45) y la definicion (3.44), en tanto que en
la region II son validas la Ec. (3.48) y la definicion (3.47)
 2  r
d 2 2mE
+ k1 (x) = 0 ; k1 (region I) (3.72)
dx2 ~2
 2  r
d 2 2m (V0 E)
2 (x) = 0 ; 2 (region II) (3.73)
dx2 ~2
De modo que la solucion en la region I es del tipo armonico Ec. (3.46) y en la region II es del tipo exponencial
Ec. (3.49)

I = A1 eik1 x + A1 eik1 x ; II (x) = B2 e2 x + B2 e2 x (3.74)


dI   dII 
= ik1 A1 eik1 x A1 eik1 x ; = 2 B2 e2 x B2 e2 x (3.75)
dx dx
para que la solucion se mantenga acotada cuando x + es necesario que7

B2 = 0 (3.76)

y las condiciones de empalme nos dan

d (x) d (x)
lm (x) = lm (x) ; lm
= lm
x0 x0+ dx x0x0 + dx
dI dII
I (x = 0) = II (x = 0) ; (x = 0) = (x = 0) (3.77)
dx dx
y reemplazando (3.74, 3.75, 3.76) en (3.77) resulta

A1 + A1 = B2 ; ik1 A1 A1 = 2 B2 (3.78)

Debido a la nulidad de B2 , podremos encontrar todos los cocientes de la forma A1 /A1 y B2 /A1 sin ninguna
suposicion adicional. Dividiendo las Ecs. (3.78) por A1 queda
 
A B2 A B
1+ 1 = ; ik1 1 1 = 2 2
A1 A1 A1 A1
 
A B2 ik1 A B
1+ 1 = ; 1 1 = 2 (3.79)
A1 A1 2 A1 A1
igualando estas ecuaciones
 
A ik1 A1 A ik1 A1 ik1
1+ 1 = 1 1 = 1
A1 2 A1 A1 2 A1 2
   
ik1 A1 ik1 A
1 = + 1 (2 ik1 ) 1 = ik1 2
2 A1 2 A1
A A1 k1 i2
(i2 + k1 ) 1 = k1 i2 ; =
A1 A1 k1 + i2
y reemplazando este cociente en la primera de las Ecs. (3.79)
k1 i2 B B 2k1
1+ = 2 2 =
k1 + i2 A1 A1 k1 + i2
7
En x la solucion es oscilante ya que estamos en la region I. Por lo tanto, no hay problemas de divergencia.
3.6. EL POTENCIAL ESCALON 175

tenemos que los cocientes estan dados por

A1 k1 i2 B2 2k1
= ; = (3.80)
A1 k1 + i2 A1 k1 + i2

Las expresiones finales para I (x) y II (x) estan dadas por las Ecs. (3.74, 3.75, 3.76)

I = A1 eik1 x + A1 eik1 x ; II (x) = B2 e2 x (3.81)


dI   dII (x)
= ik1 A1 eik1 x A1 eik1 x ; = 2 B2 e2 x (3.82)
dx dx

reemplazando la primera de las Ecs. (3.81) en (3.53)

~k h 2 i
JI = |A1 |2 A1
m

Por otro lado, usando la segunda de las Ecs. (3.81) en la Ec. (3.56) y teniendo en cuenta que en la Ec. (3.56)
los dos coeficientes deben ser no nulos para que exista corriente, se tiene que

JII = 0

de modo que el flujo transmitido es cero.


En el analogo optico, cuando E < V0 el ndice n2 correspondiente a la region II (x > x1 ) se vuelve puramente
imaginario y la onda se refleja completamente. Sin embargo, la onda evanescente para la region II muestra que una
fraccion de la intensidad de la onda cruza la frontera (onda sobreamortiguada i.e. sin oscilacion). Similarmente en
el caso cuantico la partcula es siempre reflejada (reflexion total) pero hay una probabilidad diferente de cero de
que la partcula pase a la region II8 , esto difiere sin embargo del comportamiento clasico de una partcula para
la cual esta region estara estrictamente prohibida. No obstante, en el caso cuantico, esta probabilidad disminuye
con x exponencialmente de modo que se vuelve despreciable cuando x es mayor a la longitud de penetracion
1/2 de la onda evanescente. Adicionalmente, las Ecs. (3.80) nos dicen que el coeficiente A1 /A1 es complejo de
modo que hay cierto corrimiento de fase en la reflexion que fsicamente se debe a que la partcula es retardada
cuando penetra la region II. Este fenomeno es parcialmente analogo al efecto piel de penetracion de una onda en
un metal, aunque en el efecto piel hay una parte oscilante y una de amortiguamiento (subamortiguamiento), en
tanto que en el caso presente solo hay termino amortiguado (sobreamortiguamiento)9 .
Surge una aparente paradoja teniendo en cuenta que en la region II, la corriente de probabilidad es cero
en tanto que la probabilidad de que la partcula este en esta region es no nula. Un analisis mas detallado del
paquete de onda incidente muestra que parte del paquete de onda incidente entra en la region II clasicamente
prohibida para la partcula y se refleja despues de haber penetrado, esta onda reflejada desde la region II interfiere
destructivamente con la onda incidente que esta penetrando de modo que se anula la corriente en la region II.
Vale decir que esta interferencia perfectamente destructiva solo aparece en el caso unidimensional. Un analisis
del caso bidimensional muestra que efectivamente aparece una corriente no nula en la region II cuando la incidencia
es oblcua.
Es interesante analizar el caso en el cual V0 , de la definicion para 2 en (3.73) vemos que 2 de
modo que la segunda de las Ecs. (3.80) nos da B2 0, y usando esto en la primera de las Ecs. (3.80) se obtiene
A1 /A1 1 es decir
A1 A1 ; B2 0 (3.83)
8
Hablamos de reflexion total en el sentido de que solo las funciones de onda incidente y reflejada oscilan. La onda transmitida esta
en cambio sobreamortiguada.
9
Esta diferencia se debe a que en el efecto piel el numero de onda es un complejo cuya parte real da cuenta de la oscilacion y cuya
parte imaginaria da cuenta del amortiguamiento. En nuestro caso en cambio, el numero de onda es imaginario puro.
176 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

y la segunda de las Ecs. (3.81) muestra que en la region II la funcion de onda tiende a cero, as como el rango de
penetracion 1/2 de esta10 . Aplicando los lmites (3.83) a las Ecs. (3.81)

lm (x) = I (0) = A1 + A1 0 , lm (x) = II (0) = B2 0 (3.84)


x0 x0+

la funcion de onda (x) se va para cero en x = x1 de manera que se mantiene contnua en el punto de discontinuidad
del potencial. Veamos ahora los lmites laterales en la derivadas, Ecs. (3.82)

d (x) dI (0) 
lm = = ik1 A1 A1 2ik1 A1
x0 dx dx
d (x) dII (x)
lm = lm = lm 2 B2 e2 x
x0+ dx x0 + dx x0+

usando la segunda de las Ecs. (3.79) se obtiene


 
d (x) ik1
 2 x
lm = lm 2 A1 A1 e = 2ik1 A1 lm e2 x (3.85)
x0+ dx x0+ 2 x0+

el valor de este lmite dependera del crecimiento comparativo entre 2 y x. Por ejemplo si suponemos que el
potencial V0 crece como x3 tenemos que
r r
2m 2m 3/2
2 V0 x kx3/2
~2 ~2

con lo cual la Ec. (3.85) queda

d (x) 1/2
lm = 2ik1 A1 lm e2 x = 2ik1 A1 lm ekx =0
x0+ dx x0 + x0 +

Vemos entonces que la derivada puede cambiar abruptamente del valor 2ikA1 a cero, en cuyo caso no sera
contnua. Esto se debe a que el potencial no es acotado (requisito para la validez del desarrollo en la seccion 3.5.1)
de modo que la integral en la Ec. (3.51) no necesariamente tiende a cero cuando 0.

3.7. Barrera de potencial


La barrera de potencial se describe a traves de la siguiente expresion

0 si x < 0 (region I)
V (x) = V >0 si 0 < x < L (region II)
0
0 si L < x (region III)
Para E > V0 veremos que la transmision es total para ciertos valores del ancho de la barrera, fenomeno conocido
como resonancia en la transmision. Tambien hay ciertos anchos especficos de la barrera para los cuales la reflexion
es maxima, aunque la transmision nunca se anula completamente.
Para E < V0 , una partcula clasica debe rebotar. Si el ancho de la barrera no es mucho mayor que la longitud
de penetracion 1/ de la onda evanescente, veremos que parte de la onda incidente se transmite a la region III.
En consecuencia, incluso para E < V0 la probabilidad de que la partcula cruce la barrera es diferente de cero.
Este hecho se conoce como efecto tunel.
10
En otras palabras, el escalon se vuelve un obstaculo totalmente rgido, como era de esperarse.
3.7. BARRERA DE POTENCIAL 177

Figura 3.2: Perfil de una barrera de potencial de altura V0 , con discontinuidades en x = 0 y x = L.

3.7.1. E > V0 , resonancias


En el analogo optico tenemos una capa transparente de ancho L (en 0 < x < L) con ndice de refraccion real
n2 rodeado de un medio transparente (en x < 0 y x > L) de ndice de refraccion real n1 > n2 . Como la energa es
mayor que el potencial, la Ec. (3.45) y la definicion (3.44) son validas para las tres regiones
 2  r
d 2mE
2
+ k12 (x) = 0 ; k1 (region I) (3.86)
dx ~2
 2  r
d 2 2m (E V0 )
2
+ k2 (x) = 0 ; k2 (region II) (3.87)
dx ~2
 2  r
d 2 2mE
2
+ k3 (x) = 0 ; k3 = k1 (region III) (3.88)
dx ~2
as mismo las soluciones en las tres regiones son de la forma (3.46)
I (x) = A1 eik1 x + A1 eik1 x ; II (x) = A2 eik2 x + A2 eik2 x ; III (x) = A3 eik1 x + A3 eik1 x (3.89)
dI (x)   dII (x)  
= ik1 A1 eik1 x A1 eik1 x ; = ik2 A2 eik2 x A2 eik2 x
dx dx
dIII (x)  
= ik1 A3 eik1 x A3 eik1 x (3.90)
dx
donde hemos usado la segunda de las Ecs. (3.88). Como antes se tiene que
A3 = 0 (3.91)
ya que asumimos una onda incidente desde x y no es de esperarse una onda reflejada desde el interior de
la region III. Usando (3.91), las condiciones de empalme aplicadas a las Ecs. (3.89) en x = 0 y en x = L quedan
lm (x) = lm (x) I (0) = II (0) A1 + A1 = A2 + A2
x0+ x0
lm (x) = lm (x) II (L) = III (L) A2 eik2 L + A2 eik2 L = A3 eik1 L
xL+ xL
d (x) d (x) dI (0) dII (0)  
lm = lm = k1 A1 A1 = k2 A2 A2
x0+ dx x0dx dx dx
d (x) d (x) dII (L) dIII (L)  
lm = lm = k2 A2 eik2 L A2 eik2 L = k1 A3 eik1 L
xL+ dx xL dx dx dx
178 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

una vez mas podemos determinar los cocientes A1 /A1 , A2 /A1 , A2 /A1 , A3 /A1 . Es decir, normalizados con respecto
a la amplitud de la onda incidente. Con respecto a estos cocientes las ecuaciones quedan
A1 A2 A2 A2 ik2 L A2 ik2 L A3 ik1 L
1+ = + ; e + e = e (3.92)
A1 A1 A1 A1 A1 A1
     
A k2 A2 A2 k2 A2 ik2 L A2 ik2 L A3 ik1 L
1 1 = ; e e = e (3.93)
A1 k1 A1 A1 k1 A1 A1 A1
despejando A1 /A1 en la primera de las Ecs. (3.92) y en la primera de las Ecs. (3.93) e igualando resulta
     
A2 A2 k2 A2 A2 A2 k2 A2 k2
+ 1 = 1 1+ + 1 =2
A1 A1 k1 A1 A1 A1 k1 A1 k1
A2 A A2 2k1 A2 (k1 + k2 )
(k1 + k2 ) + 2 (k1 k2 ) = 2k1 = (3.94)
A1 A1 A1 (k1 k2 ) A1 (k1 k2 )
igualando la segunda de las Ecs. (3.92) con la segunda de las Ecs. (3.93), resulta
     
A2 ik2 L A2 ik2 L k2 A2 ik2 L A2 ik2 L A2 ik2 L k2 A2 ik2 L k2
e + e = e e e 1+ = e 1 (3.95)
A1 A1 k1 A1 A1 A1 k1 A1 k1
reemplazando (3.94) en (3.95) queda
     
2k1 A2 (k1 + k2 ) ik2 L k1 + k2 A2 ik2 L k2 k1
e = e
(k1 k2 ) A1 (k1 k2 ) k1 A1 k1
 
A2 A2
2k1 (k1 + k2 ) (k1 + k2 )2 eik2 L = eik2 L (k1 k2 )2
A1 A1
A2 h i
(k1 + k2 )2 eik2 L (k1 k2 )2 eik2 L = 2k1 (k1 + k2 ) eik2 L (3.96)
A1
reescribamos el termino en parentesis cuadrados en la Ec. (3.96)
 
(k1 + k2 )2 eik2 L (k1 k2 )2 eik2 L = k12 + 2k1 k2 + k22 eik2 L k12 2k1 k2 + k22 eik2 L
     
= k12 eik2 L eik2 L + 2k1 k2 eik2 L + eik2 L k22 eik2 L eik2 L
= 2ik12 sin k2 L + 4k1 k2 cos k2 L 2ik22 sin k2 L

(k1 + k2 )2 eik2 L (k1 k2 )2 eik2 L = 2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L
con lo cual la Ec. (3.96) queda
A2   
i k12 + k22 sin k2 L + 2k1 k2 cos k2 L = k1 (k1 + k2 ) eik2 L
A1
A2 k1 (k1 + k2 ) eik2 L
=    (3.97)
A1 i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
reemplazando (3.97) en la Ec. (3.94) resulta
A2 2k1 A2 (k1 + k2 ) 2k1 k1 (k1 + k2 ) eik2 L (k + k2 )
= =  2 2
  1
A1 (k1 k2 ) A1 (k1 k2 ) (k1 k2 ) i k1 + k2 sin k2 L + 2k1 k2 cos k2 L (k1 k2 )
  
2k1 i k1 + k2 sin k2 L + 2k1 k2 cos k2 L k1 (k1 + k2 )2 eik2 L
2 2
=   
i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 k2 )
   
A2 2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L k12 + k22 + 2k1 k2 eik2 L
=    k1
A1 i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 k2 )
Z k1
  
i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 k2 )
3.7. BARRERA DE POTENCIAL 179

la cantidad Z se evalua como


   
Z 2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L k12 + k22 + 2k1 k2 eik2 L
h i h i h i
= k12 2i sin k2 L + eik2 L k22 2i sin k2 L + eik2 L + 2k1 k2 2 cos k2 L eik2 L
h i h  i
= k12 + k22 2i sin k2 L + eik2 L + 2k1 k2 eik2 L + eik2 L eik2 L
 h ik2 L  i
= k12 + k22 e eik2 L + eik2 L + 2k1 k2 eik2 L
  
= k12 + k22 eik2 L + 2k1 k2 eik2 L = k12 + k22 2k1 k2 eik2 L
Z = (k1 k2 )2 eik2 L

con lo cual el cociente A2 /A1 queda finalmente

A2 k1 (k1 k2 ) eik2 L
=    (3.98)
A1 i k12 + k22 sin k2 L + 2k1 k2 cos k2 L

despejando A1 /A1 en la primera de las Ecs. (3.92) y reemplazando las Ecs. (3.97, 3.98) en la ecuacion resultante
se obtiene
A1 A2 A2 k1 (k1 + k2 ) eik2 L k1 (k1 k2 ) eik2 L
= + 1=       1
A1 A1 A1 i k12 + k22 sin k2 L + 2k1 k2 cos k2 L i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
 
k12 eik2 L eik2 L + k1 k2 eik2 L + eik2 L 2ik12 sin k2 L + 2k1 k2 cos k2 L
=    1 =    1
i k12 + k22 sin k2 L + 2k1 k2 cos k2 L i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
  
2ik12 sin k2 L + 2k1 k2 cos k2 L i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
=   
i k12 + k22 sin k2 L + 2k1 k2 cos k2 L


A1 2ik12 sin k2 L + 2k1 k2 cos k2 L + i k12 + k22 sin k2 L 2k1 k2 cos k2 L
=   
A1 i k12 + k22 sin k2 L + 2k1 k2 cos k2 L

A1 i k22 k12 sin k2 L M
=  2 2
  (3.99)
A1 i k1 + k2 sin k2 L + 2k1 k2 cos k2 L N

reemplazando las Ecs. (3.97, 3.98) en la segunda de las Ecs. (3.92) resulta
A3 ik1 L A2 ik2 L A2 ik2 L
e = e + e
A1 A1 A1
A3 ik1 L k1 (k1 + k2 ) eik2 L ik2 L k1 (k1 k2 ) eik2 L
e =    e    eik2 L
A1 i k12 + k22 sin k2 L + 2k1 k2 cos k2 L i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
A3 ik1 L k1 (k1 + k2 ) k1 (k1 k2 ) 2k1 k2
e =  2 2
 = 2 2
 
A1 i k1 + k2 sin k2 L + 2k1 k2 cos k2 L i k1 + k2 sin k2 L + 2k1 k2 cos k2 L

A3 2k1 k2 eik1 L P
= 2 2
  (3.100)
A1 i k1 + k2 sin k2 L + 2k1 k2 cos k2 L N
ahora calculamos los coeficientes de reflexion y transmision por medio de las Ecs. (3.99)
2
Jref l A1 2 M M |M |2 k22 k12 sin2 k2 L
R = = = = = (3.101)
Jinc A1 N N |N |2 |N |2

Jtrans A3 2 2 2 2
T = = = |P | = 4k1 k2 (3.102)
Jinc A1 |N | 2
|N |2
180 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

calculamos ahora la magnitud al cuadrado del denominador N


    
|N |2 = N N = 2k1 k2 cos k2 L i k12 + k22 sin k2 L 2k1 k2 cos k2 L + i k12 + k22 sin k2 L
2  
= 4k12 k22 cos2 k2 L + k12 + k22 sin2 k2 L = 4k12 k22 1 sin2 k2 L + k14 + k24 + 2k12 k22 sin2 k2 L

= 4k12 k22 + k14 + k24 2k12 k22 sin2 k2 L
2
|N |2 = 4k12 k22 + k22 k12 sin2 k2 L (3.103)

reemplazando (3.103) en las Ecs.(3.101, 3.102), los coeficientes de reflexion y transmision quedan
2 
2 k 2 2 sin2 k L
A1 k2 1 2
R = = 2 2 (3.104)
A1 2 2 2 2
4k1 k2 + k2 k1 sin k2 L
2
A3 4k12 k22
T = = 2 (3.105)
A1 4k12 k22 + k22 k12 sin2 k2 L

se ve inmediatamente que R + T = 1. Es mas util escribir a R y T en terminos de cantidades Fsicas mas directas
como E y V0 . Para ello reemplazamos las expresiones (3.86, 3.87) en la Ec. (3.105)

2mE
 h 2m(EV0 ) i
2 2
4k1 k2 4 ~ 2 ~2
T =  = h i h i  
2
4k12 k22 + k22 k12 sin2 k2 L 2mE
 2m(EV0 ) 2mE 2m(EV0 ) 2 2 2m(EV0 )
4 ~2 ~2
+ ~2 ~2
sin ~ L

4E (E V0 )
=  
2 2 2m(EV0 )
4E (E V0 ) + [E (E V0 )] sin ~ L

4E (E V0 )
T =   (3.106)
2 2 2m(EV0 )
4E (E V0 ) + V0 sin ~ L

si hacemos una grafica de T contra L con valores fijos de E, V0 y m (ver Fig 3.3), y tenemos en cuenta que sin2 x
es periodica en x con periodo , entonces T es periodica en L con periodo
~
L = =p (3.107)
k2 2m (E V0 )

El mnimo de T se obtiene cuando el seno al cuadrado adquiere el valor 1 y el maximo se obtiene cuando el seno
al cuadrado adquiere el valor cero. Es claro entonces que
4E (E V0 )
Tmn = > 0 ; Tmax = 1 (3.108)
4E (E V0 ) + V02

vemos que se obtienen valores de L para los cuales la transmision es total (T = 1), lo cual ocurre cuando
Ln = nL = n/k2 o equivalentemente
n n~
Ln = =p (3.109)
k2 2m (E V0 )

decimos entonces que se obtienen resonancias en la transmision para estos valores de Ln , los cuales corresponden
a multiplos enteros de la semilongitud de onda de la partcula en la region II11 . Estos hechos se ilustran en la Fig.
11
El hecho de que sean multiplos enteros de semilongitudes de onda (y no de las longitudes de onda) proviene del hecho de que la
Ec. (3.106), depende de sin2 x cuyo periodo es la mitad del periodo de la funcion sin x.
3.7. BARRERA DE POTENCIAL 181

Figura 3.3: Grafica de T vs L, con E, V0 y m fijos, para una barrera de potencial como la indicada en la Fig. 3.2
con la condicion E > V0 .

3.3. Este es el analogo cuantico de la transmision en un interferometro de Fabry-Perot en optica, en el cual tambien
se observan estas resonancias en la transmision. Cuando E > V0 , se tiene que la reflexion de la partcula en cada
discontinuidad del potencial (i.e. en x = 0, L) ocurre sin corrimiento de fase de la funcion de onda cuando L = Ln .
Por esta razon, la condicion de resonancia k2 L = n coincide con los valores de L para los cuales pueden existir
ondas estacionarias en la region II. Por otro lado, cuando L 6= Ln surge un corrimiento de fase en las reflexiones
que genera interferencia destructiva, la cual se maximiza lejos de la resonancia, es decir cuando L = (n + 1/2) ,
como se aprecia en la Fig. 3.3 esto genera el valor mnimo de T . Notese que en L = (n + 1/2) tendramos una
resonancia en la reflexion, pero la reflexion no es total ya que la transmision nunca es nula12 .
Un estudio del comportamiento del paquete de onda en una barrera de potencial con E > V0 muestra que
cuando se cumple la condicion de resonancia, el paquete de onda pasa un tiempo relativamente grande en la region
II. En mecanica cuantica esto se denomina resonancia en el scattering, ya que en un problema de dispersion
por este tipo de potencial el paquete de onda estara pasando un tiempo relativamente largo en la region de colision
(que sera la region II).

3.7.2. Caso E < V0 : Efecto tunel

En el analogo optico, tenemos una capa de ancho L con ndice de refraccion imaginario (region II) rodeado de
un medio transparente (regiones I y III). En este caso las regiones I y III poseen ondas oscilantes en tanto que la

12
Naturalmente, la condicion de resonancia en la transmision Ec. (3.109) puede interpretarse para L fijo como los valores k2n de
numero de onda que producen dicha resonancia. Si asumimos por ejemplo que L, V0 y m son fijos, lo que estamos obteniendo son las
energas de resonancia En , que implicaran unas frecuencias de resonancia En = hn .
182 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

region II corresponde a ondas evanescentes lo cual se escribe como


 2  r
d 2 2mE
+ k1 (x) = 0 ; k1 (region I) (3.110)
dx2 ~2
 2  r
d 2 2m (V0 E)
2 (x) = 0 ; 2 (region II) (3.111)
dx2 ~2
 2  r
d 2 2mE
+ k3 (x) = 0 ; k3 = k1 (region III) (3.112)
dx2 ~2
comparando las Ecs. (3.110, 3.111, 3.112) con las Ecs. (3.86, 3.87, 3.88), vemos que podemos utilizar las soluciones
anteriores reemplazando k2 por i2 con lo cual se obtiene
2
A3 4E (V0 E)
T = =   ; R=1T (3.113)
A1 2 2 2m(V0 E)
4E (V0 E) + V0 sinh ~ L

para una partcula clasica que en t esta en x , es decir en la region I, las regiones II y III estan
prohibidas. Contrario a las predicciones para una partcula clasica, vemos que en el caso cuantico las probabilidades
en las regiones II y III son distintas de cero. En particular esto implica una probabilidad diferente de cero de que la
partcula cruce la barrera de potencial, fenomeno conocido como efecto tunel. En la region II el comportamiento
es de onda evanescente de rango 1/2 . Cuando L . 1/2 la partcula tiene una probabilidad considerable de
cruzar la barrera por efecto tunel. Este efecto tiene muchas aplicaciones en Fsica tales como el efecto Josephson,
la inversion de la molecula de amonio, el diodo tunel etc.
Es natural entonces comparar la longitud o rango de penetracion 1/2 de la onda evanescente, con el ancho
L de la barrera. Si el ancho de la barrera es mucho mayor que el rango de la onda evanescente tenemos que
L 1/2 de modo que 2 L 1, usando la Ec. (3.111) esta condicion queda
r
2m (V0 E) ex
2 L = L 1 ; sinh x ; x1
~2 2
con estas aproximaciones, la Ec. (3.113) queda
2
A3 4E (V0 E) 4E (V0 E) 16E (V0 E) 22 L
T =  L 2 = e
A1 2
V0 4e 22 L
V02
4E (V0 E) + V02 e 22
 
E E
T 16 1 e22 L 1 (3.114)
V0 V0
en tal caso la atenuacion es muy fuerte y la probabilidad de transmision muy baja.
Para tener una idea de los ordenes de magnitud del efecto, pensemos en un electron con energa E =
o
1eV (electron-voltio) que cruzara una barrera de potencial V0 = 2eV, de ancho L = 1A. Usando V0 = 2E = 2eV as
como los valores de la masa del electron y de la constante de Planck en la Ec. (3.111), vemos que el rango
o
1/2 1,96A, es decir del orden de magnitud de la ancho de la barrera, por lo cual se espera una probabilidad
considerable de que el electron cruce la barrera, evaluando esta probabilidad con la Ec. (3.113) se obtiene T 0,78
un resultado muy diferente al clasico ya que en este caso es de hecho mas probable la transmision que la reflexion.
Si reemplazamos al electron por un proton solo hay que cambiar la masa asociada (unas 1840 veces la del
o
electron), permaneciendo iguales los demas datos. En tal caso el rango es 1/2 4,6 102 A de modo que la
barrera es mucho mas ancha que el rango de la onda evanescente. Usando la Ec. (3.113) o la Ec. (3.114) tenemos
que T 41019 . Esta tremenda diferencia con respecto al electron se debe a la gran sensibilidad de la exponencial
decreciente en la Ec. (3.114) con la masa, o del seno hiperbolico en (3.113) con la masa. Esto tambien explica
porque el efecto tunel no es observable en sistemas macroscopicos.
3.8. POZO DE POTENCIAL 183

3.8. Pozo de potencial


El pozo de potencial se describe con el perfil

0 si x < x1 (region I)
V (x) = V0 < 0 si x1 < x < x2 (region II)

0 si x2 < x (region III)

3.8.1. Partcula con energa V0 < E < 0

Figura 3.4: Perfil de un pozo de potencial de profundidad V0 , con discontinuidades en x = a/2 y x = a/2.

Para esta situacion, definiremos el pozo de potencial en la forma (ver Fig. 3.4)

0 si x < a2 (region I)
V (x) = V0 < 0 si a2 < x < a2 (region II)

0 si a2 < x (region III)
donde hemos elegido colocar el origen de tal modo que V (x) = V (x).
Una partcula clasica en un pozo de potencial como este, y con energa E negativa (pero mayor que V0 )
solo puede oscilar entre a/2 y a/2 con energa cinetica Ek = E + V0 . En el analogo optico, para la situacion
184 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

V0 < E < 0 los ndices de refraccion n1 y n3 en las regiones I y III son imaginarios, en tanto que n2 es real.
Esto es equivalente a una capa de aire de ancho a entre dos medios reflectivos. Las diferentes ondas que se
reflejan sucesivamente en x = a/2 y x = a/2 se destruyen unas a otras excepto para ciertas frecuencias muy
especficas (modos normales) que permiten la formacion de ondas estacionarias. Desde el punto de vista cuantico,
esto significa que las energas negativas de la partcula estan cuantizadas. En contraste, para la partcula clasica
todos los valores de energa entre V0 y cero son posibles. Vale la pena mencionar que los valores permitidos de
la longitud de onda (y por tanto de la energa) no estan dados por la bien conocida condicion a = k2 /2, ya que
existen ondas evanescentes que generan un corrimiento de fase en los puntos de reflexion x = a/2 y x = a/2.
En las regiones I, II y III las soluciones de la ecuacion de Schrodinger independiente del tiempo son
r
2mE
I (x) = B1 ex + B1 ex ; = 2 > 0 (3.115)
~
r
2m (E + V0 )
II (x) = A2 eikx + A2 eikx ; k = 2
>0 (3.116)
r ~
x x 2mE
III (x) = B3 e + B3 e ; = 2 >0 (3.117)
~
asumiremos de nuevo la condicion inicial de que la onda viaja inicialmente desde la region I. A fin de que estas
funciones sean acotadas en la region I (x ) y en la region III (x ) se requiere que

B1 = B3 = 0 (3.118)

con lo cual las ecuaciones se simplifican a

I (x) = B1 ex ; II (x) = A2 eikx + A2 eikx ; III (x) = B3 ex (3.119)

las condiciones de empalme resultan


 a  a  
dI a2 dII a2
I = II ; =
2 2 dx  dx 
a a dII a2 dIII a2
II = III ; =
2 2 dx dx
estas condiciones aplicadas sobre las Ecs. (3.119) nos dan
a a a a
 a a

B1 e 2 = A2 eik 2 + A2 eik 2 ; B1 e 2 = ik A2 eik 2 A2 eik 2
a a a a
 a a

B3 e 2 = A2 eik 2 + A2 eik 2 ; B3 e 2 = ik A2 eik 2 A2 eik 2 (3.120)

en este caso la amplitud incidente es B1 (aunque de una onda evanescente) y por tanto los cocientes se normalizan
con esta cantidad. Las Ecs. (3.120) quedan
 
A2 (ik) a A2 (+ik) a ik A2 (ik) a A2 (+ik) a
1 = e 2 + e 2 ; 1= e 2 e 2 (3.121)
B1 B1 B1 B1
 
B3 A2 (+ik) a A2 (ik) a B3 ik A2 (ik) a A2 (+ik) a
= e 2 + e 2 ; = e 2 e 2 (3.122)
B1 B1 B1 B1 B1 B1

de la primera de las ecuaciones (3.121) tenemos

A2 (+ik) a A2 (ik) a
e 2 = e 2 1 (3.123)
B1 B1
3.8. POZO DE POTENCIAL 185

y reemplazando esta cantidad en la segunda de las ecuaciones (3.121) se obtiene


 
ik A2 (ik) a A2 (ik) a A2 a 1  a A2
1 = e 2 + e 2 1 = 2 e(ik) 2 1 + 1 e(+ik) 2 =
B1 B1 ik B1 2 ik B1
 
A2 + ik a
= e(+ik) 2 (3.124)
B1 2ik
reemplazando (3.124) en (3.123) tenemos
     
A2 (+ik) a + ik (+ik) a a A2 + ik a
e 2 = e 2 e(ik) 2 1 = 1 e(+ik) 2
B1 2ik B1 2ik

 
A2 ik a
= e(+ik) 2 (3.125)
B1 2ik
reemplazando (3.124, 3.125) en la primera Ec. (3.122) tenemos
         
B3 + ik a a ik a a + ik ik
= e(+ik) 2 e(+ik) 2 e(+ik) 2 e(ik) 2 = eika eika
B1 2ik 2ik 2ik 2ik
 ika  1h i
= e eika + eika + eika
2ik 2
B3
= sin ka + cos ka (3.126)
B1 k
igualando las Ecs. (3.122) y usando las expresiones (3.124, 3.125), obtenemos
 
A2 (+ik) a A2 (ik) a ik A2 (ik) a A2 (+ik) a
e 2 + e 2 = e 2 e 2
B1 B1 B1 B1
          
+ ik (+ik) a2 (+ik) a2 ik (+ik) a2 a ik ik (+ik) a2 a
e e + e e(ik) 2 = e e(ik) 2
2ik 2ik 2ik
   
+ ik (+ik) a2 (+ik) a2
e e
2ik
   
+ ik ika ik ik n o
e eika = ( ik) eika + ( + ik) eika
2ik 2ik 2ik
ik n o
( + ik) eika ( ik) eika = ( ik) eika + ( + ik) eika

   
+ ik ika ik ik n o
e eika = ( ik) eika + ( + ik) eika
2ik 2ik 2ik
ik n o
( + ik) eika ( ik) eika = ( ik) eika + ( + ik) eika

dividiendo ambos miembros por + ik resulta
     
ika ( ik) ika ik ( ik) ika ika ika ik ( ik) ika ik
e e = e +e e 1+ = e 1
( + ik) ( + ik) ( + ik)
   
2ika + ik ( ik) ik
e =
( + ik)
( ik)2
e2ika = (3.127)
( + ik)2
186 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

vale la pena discutir la estrategia de solucion antes de seguir adelante. A priori podra pensarse que las Ecs. (3.120)
nos pueden dar solucion para todas las amplitudes B1 , A2 , A2 y B3 , puesto que tenemos cuatro ecuaciones. Sin
embargo, no es logico fsicamente que la amplitud de entrada B1 pueda ser determinada por las condiciones de
empalme ya que esta amplitud tiene relacion con las condiciones iniciales, las cuales puedo acomodar en principio
arbitrariamente. Por esta razon la estrategia de solucion se interpreta diciendo que las cuatro ecuaciones (3.120)
nos brindan soluciones para los tres cocientes A2 /B1 , A2 /B1 , B3 /B1 mas una ligadura entre las cantidades y k
dada por la Ec. (3.127).
Por otro lado, las Ecs. (3.115, 3.116) nos muestran que y k estan relacionadas con la energa E de la partcula.
Esto implica que la ligadura (3.127) solo se satisface para ciertos valores de la energa. Por tanto, al imponer el
acotamiento de (x) hemos llegado a una cuantizacion de la energa. Esto se puede ver teniendo en cuenta que
la ligadura (3.127) provino del hecho de que el sistema de cuatro ecuaciones (3.121, 3.122) esta sobredeterminado
para el conjunto de tres cocientes A2 /B1 , A2 /B1 , B3 /B1 ; pero esto a su vez ocurre debido a la eliminacion de las
amplitudes Ec. (3.118) que se realizo para mantener acotada la solucion.
En resumen, para un pozo de potencial como el de la Fig. 3.4 de profundidad V0 y de ancho a, la funcion de
onda (acotada) en las tres regiones en que el potencial divide al espacio vienen dadas por

I (x) = B1 ex ; II (x) = A2 eikx + A2 eikx ; III (x) = B3 ex (3.128)


r r
2mE 2m (E + V0 )
= 2 >0 ; k= 2
>0 (3.129)
 ~  ~  
A2 + ik a A2 ik a B3
= e(+ik) 2 ; = e(+ik) 2 ; = sin ka + cos ka (3.130)
B1 2ik B1 2ik B1 k
( ik)2
e2ika = (3.131)
( + ik)2

donde hemos supuesto que la partcula incide desde la region I.

Caso 1 para energa negativa

La ligadura (3.131) nos conduce a dos situaciones posibles


I)
ik
= eika (3.132)
+ ik
reescribimos esta relacion en la forma

(/k) i   h i h i
= eika i= + i eika 1 + eika = i 1 eika
(/k) + i k k k
 (e 1) eika/2
ika  
eika 1 i 2 eika/2 eika/2 /2i sin ka
2
= = = ika/2  = 
k i (1 + eika ) (1 + eika ) e
ika/2
e + eika/2 /2 cos ka
2
2

quedando finalmente
 
ka
= tan (3.133)
k 2
definimos la magnitud del complejo + ik en la forma
r
p 2mV0
k0 k2 + 2 = (3.134)
~2
3.8. POZO DE POTENCIAL 187

donde hemos tenido en cuenta las Ecs. (3.129). Usando identidades trigonometricas y las Ecs. (3.133, 3.134),
tenemos que

1 ka 2 k2 + 2
ka
 = 1 + tan2 =1+ 2 =
cos2 2
2 k k2
 2
1 k0
ka
 = (3.135)
cos2 2
k

de modo que la Ec. (3.132) es equivalente a las Ecs. (3.133, 3.135) que se pueden sintentizar en las ecuaciones
   

cos ka = k ; tan
ka
>0 (3.136)
2 k0 2

Donde hemos tenido en cuenta que la Ec. (3.135) proviene de la Ec. (3.133), pero sustituyendo una tangente al

Figura 3.5: Solucion grafica de las Ecs. (3.136, 3.142). La interseccion de la lnea recta con las lneas punteadas
cosenoidales nos dan los puntos denotados por P , correspondientes a soluciones de las Ecs. (3.136) y asociados a
funciones de onda pares. La interseccion de la recta con las lneas punteadas del arco senoidal nos dan los puntos
denotados por I, correspondientes a soluciones de las Ecs. (3.142) y asociados a funciones de onda impares.

cuadrado con lo cual se pierde la informacion del signo de esta tangente al llegar a la Ec. (3.135).

La primera de las Ecs. (3.136) se puede solucionar graficando la parte izquierda y = cos ka 2
y la parte derecha
y = k/k0 y encontrando la interseccion entre las dos graficas. Es decir graficamos los arcos cosenoidales (arcos del
coseno con nodos en (2q + 1) /a de la Fig. 3.5 con q entero no negativo) y la lnea recta de pendiente 1/k0 para
obtener tal interseccion. Ahora bien, las franjas ascendentes del coseno (lneas contnuas del arco cosenoidal en la
Fig. 3.5) violan la condicion dada por la segunda ecuacion (3.136), en tanto que las franjas descendentes (lneas
punteadas del arco cosenoidal en la Fig. 3.5) satisfacen tal condicion13 . Los puntos de interseccion de la recta con
las lneas punteadas del coseno se denotan en la Fig. 3.5 con la letra P , y sus componentes x nos dan los valores
kn que cuantizan al numero de onda y por tanto a la energa, la cual viene dada por la ecuacion (3.129)
r
2m (En + V0 )
kn = (3.137)
~2
13
Por ejemplo en la franja 0 k /a es claro que tan (ka/2) > 0, en tanto que en la franja /a < k < 2/a se tiene que
tan (ka/2) 0, y as sucesivamente.
188 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

Por otro lado, dividiendo las dos primeras Ecs. (3.130) se obtiene
  a
ik
A2 2ik e(+ik) 2 ( ik) eik 2
a
( ik) ika
=   = ik a2
= e
A2 +ik (+ik) a2 ( + ik) e ( + ik)
2ik e

y utilizando la Ec. (3.132) resulta


A2
=1
A2
si reemplazamos la Ec. (3.133) (la cual es equivalente a la Ec. 3.132) en la tercera de las Ecs. (3.130) y definiendo
x ka/2 obtenemos
 
B3 ka
= sin ka + cos ka = tan sin ka + cos ka = tan x sin 2x + cos 2x
B1 k 2
 sin x
= tan x (2 sin x cos x) + 1 2 sin2 x = 2 sin x cos x + 1 2 sin2 x
cos x
B3
= 1
B1
En conclusion la Ec. (3.132) que define el caso 1 de nuestro analisis, conduce a las relaciones
A2 = A2 ; B3 = B1 (3.138)
y al reemplazar estas relaciones en la Ecs. (3.128) esto nos da
I (x) = B1 ex ; II (x) = 2A2 cos kx ; III (x) = B1 ex (3.139)
para a/2 x a/2 (region II), es claro que x tambien pertenece a la region II. Si x pertenece a la region I (x
a/2) entonces x pertenece a la region III (x a/2). Similarmente, si x esta en la region III entonces x esta
en la region I. Vemos ademas que la Ec. (3.139) nos dice que
I (x) = B1 ex = III (x) ; II (x) = II (x)
lo cual nos lleva a la conclusion de que en el caso 1 caracterizado por la Ec. (3.132), la funcion de onda es par en
todas las regiones i.e.
(x) = (x) ; x (, ) (3.140)

Caso 2 para energa negativa


La Ec. (3.131), tiene dos soluciones, la primera corresponde a la Ec. (3.132) y la segunda vendra dada por
ik
= eika (3.141)
+ ik
un calculo analogo nos lleva a que los numeros de onda permitidos estan dados por
   

sin ka = k ; tan ka < 0 (3.142)
2 k0 2
la Fig. 3.5 muestra la interseccion entre la recta de pendiente 1/k0 y los arcos senoidales (arcos del seno con nodos
en k = 2q/a siendo q entero no negativo). La interseccion entre la recta y la parte punteada (descendente) de
los arcos senoidales, nos da los puntos denotados por I en la Fig. 3.5, cuya abcisa nos da el valor cuantizado de
kn , con el cual se encuentra la energa cuantizada usando la Ec. (3.137). Notese que los niveles encontrados se
encuentran entre los niveles hallados para el primer caso. Puede similarmente demostrarse que la funcion de onda
asociada es impar
(x) = (x) ; x (, ) (3.143)
Puede observarse ademas que el hecho de que el potecial sea par V (x) = V (x), es lo que genera la existencia
de soluciones pares e impares en los casos 1 y 2 Ecs. (3.140, 3.143).
3.8. POZO DE POTENCIAL 189

Relacion entre k0 y los estados acotados


Observese que si

0 k0
a
La Fig. 3.5 nos muestra que solo existe un estado acotado para la partcula y dicho estado se asocia con una
funcion de onda par. En otras palabras, la recta tiene una pendiente muy alta de modo que cruza la recta
horizontal (maximo de los sinusoides) antes de llegar al primer nodo de la funcion cosenoidal (de modo que solo
cruza una vez la lnea punteada del coseno) y antes de llegar al primer maximo de la funcion senoidal (de modo
que no cruza la lnea punteada del seno). Un analisis similar nos muestra que cuando tenemos

2
k0
a a
aparecen solo dos estados uno par y otro impar. Generalizando, si se cumple la condicion

2p (2p + 1) 1 3 5
k0 ; p = 0, , 1, , 2, , . . . (3.144)
a a 2 2 2
 
aparecen [p + 1] estados pares y p + 12 estados impares, siendo [p] la funcion parte entera de p que se define como

[p] k tal que : k es entero con k p < k + 1

Para el ejemplo de la figura 3.5 tenemos que 4/a  < k0 < 5/a, de modo que p = 2. El numero de estados pares
es [2 + 1] = 3, el numero de estados impares es 2 + 12 = 2.
Es util escribir la condicion (3.144), en terminos de parametros mas fsicos. De la definicion (3.134) podemos
escribir la condicion (3.144) en la forma
r    
2p 2mV0 (2p + 1) 2p 2 2mV0 (2p + 1) 2

a ~2 a a ~2 a
2
~ 2 2
~ 2
(2p)2 2
V0 (2p + 1)2
2ma 2ma2
2 ~2 1 3 5
(2p)2 V1 V0 (2p + 1)2 V1 ; V1 2
; p = 0, , 1, , 2, , . . . (3.145)
2ma 2 2 2
La Ec. (3.145), nos sugiere definir a V1 como un potencial umbral. Por ejemplo si p = 0 tenemos que 0 V0 V1
conduce a un estado par y ningun estado impar. Si p = 1/2, la condicion queda V1 V0 4V1 que conduce a una
funcion par y otra impar y as sucesivamente.
Si V0 V1 (de modo que p 1) entonces la pendiente de la recta 1/k0 es muy pequena y los primeros numeros
de onda practicamente coinciden con los nodos de los arcos senoidal y cosenoidal. Es decir, para los numeros de
onda mas bajos tenemos que
n
k ; para n entero y n p
a
y aplicando la Ec. (3.137), la energa queda

n2 2 ~2
E V0 ; para n entero y n p (3.146)
2ma2

Pozo de potencial con profundidad infinita


Asumiremos que V (x) es cero fuera del intervalo 0 < x < a, e infinito negativo V0 en dicho intervalo.
Supondremos sin embargo que E + V0 E > 0 en 0 < x < a y que E es finito, a fin de que la partcula
posea energa cinetica finita. La discusion es totalmente analoga a la realizada en la seccion 3.6.2, Pag. 175 para
190 CAPITULO 3. ECUACION DE SCHRODINGER Y SUS PROPIEDADES

escalon de potencial infinito. Segun esta discusion, al penetrar en la barrera la onda es evanescente con longitud de
penetracion que tiende a cero, en el lmite podemos entonces considerar que la funcion decae a cero inmediatamente,
es decir la funcion de onda se anula en las discontinuidades de salto infinito. Esto es consistente con las ecuaciones
que se obtienen en este lmite para el empalme, como se aprecia en las Ecs. (3.83, 3.84). Adicionalmente, la Ec.
(3.84) tambien nos muestra que la funcion de onda debe seguir siendo continua en los empalmes, con lo cual la
funcion de onda en nuestro caso debe ser nula fuera del intervalo [0, a]. No obstante, vimos que en general la
primera derivada ya no es contnua, debido a que tenemos un potencial no acotado.
Como E + V0 E es positivo y finito, la solucion de la ecuacion de onda esta dada por
r
ikx ikx 2m E
(x) = Ae + A e para 0 x a ; k (3.147)
~2
poniendo la condicion de nulidad de la funcion de onda en el extremo x = 0 tenemos que

(0) = 0 = A + A A = A
 
(x) = A eikx eikx = 2iA sin kx (3.148)

usando nulidad de la funcion de onda (3.148) en el extremo x = a tenemos

(a) = 2iA sin ka = 0

con lo cual ka = n o equivalentemente


n
kn = ; n entero positivo (3.149)
a
n es positivo ya que se asume k positivo en la Ec. (3.147)14 . La funcion queda
n
(x) = 2iA sin x
a
la constante 2iA la elegimos como positiva (fase cero) de modo que normalice a la funcion de onda. Con esto se
tiene finalmente r
2  nx 
n (x) = sin
a a
con energas
n2 2 ~2
En = (3.150)
2ma2
en este caso la cuantizacion de la energa es mucho mas simple de demostrar. Notese que la Ec. (3.149), nos dice
que la condicion para el estado estacionario es tal que el ancho a del potencial debe contener un numero entero de
semilongitudes de onda /k. Este es el analogo a la formacion de ondas estacionarias con extremo fijo en optica.
Vemos que la condicion de extremo fijo (nulidad de la funcion de onda en los extremos) solo se da para pozos
infinitamente profundos. Si el pozo tiene profundidad finita, el extremo no es totalmente fijo, lo cual se traduce
en la penetracion de una onda evanescente (pero no nula) en las regiones fuera del pozo.
Si bien no hay pozos infinitos, en la practica pozos muy profundos poseen el comportamiento aqu descrito.
Pero que es un pozo muy profundo?. La respuesta esta en el potencial umbral V1 definido en la Ec. (3.145).
Efectivamente, vimos que cuando V0 V1 los estados mas bajos se comportan como los de un pozo infinito como
se ve al comparar las Ecs. (3.146, 3.150). Debe tenerse en cuenta sin embargo, que aun cuando V0 sea mucho mayor
que V1 siempre habra estados excitados que se desven significativamente del comportamiento aqu descrito, vale
decir cuando la aproximacion n p ya no sea valida, como se ve en la Ec. (3.146).
14
Si tomaramos la raz negativa en la Ec. (3.147) tendramos la misma solucion de la funcion de onda.
3.8. POZO DE POTENCIAL 191

3.8.2. Partcula con energa E > 0


En esta situacion, definiremos el origen de modo que

0 si x < 0 (region I)
V (x) = V0 < 0 si 0 < x < L (region II)

0 si L < x (region III)

con el fin de poder comparar con los resultados de la seccion 3.7.1. Cuando la partcula clasica tiene energa
positiva y viene desde , viaja con energa cinetica constante Ek = E hasta x = 0, donde experimenta un
aumento abrupto en su energa cinetica a Ek = E + V0 , y luego una desaceleracion similar en x = L, continuando
hacia la derecha con energa cinetica constante Ek = E.
Para E > 0, en el analogo optico todos los ndices de refraccion son reales
c 1 c 1p
n1 = n3 = 2mE ; n2 = 2m (E + V0 )
~ ~
y los resultados se pueden extraer de la Sec. 3.7.1, con la asignacion V0 V0 . Puesto que n2 es mayor que n1 y
n3 la situacion optica es analoga a tener una capa de vidrio en medio del aire15 . Para obtener la onda reflejada
para x < 0, o la onda transmitida para x > L, es necesario superponer un numero infinito de ondas que surgen de
la reflexion sucesiva entre x = 0 y x = L (interferometro multiple analogo a un Fabry-Perot). Se encuentra que
para ciertas frecuencias incidentes la onda es completamente transmitida (asumiendo que L, V0 y m son fijos).
En el caso cuantico, la partcula tiene cierta probabilidad de ser reflejada, pero existen ciertos valores llamados
energas resonantes para los cuales la probabilidad de transmision es 1 y por tanto la probabilidad de reflexion
es cero.

15
En la Sec. 3.7.1, la situacion optica era la de una capa de aire rodeada de vidrio.
Captulo 4

Enunciado matematico de los postulados de


la mecanica cuantica

4.1. Los fenomenos clasicos


En mecanica clasica, un sistema discreto de partculas se describe a traves de un conjunto de coordenadas gene-
ralizadas qi (t) y de velocidades generalizadas qi (t), y podemos utilizar por ejemplo el Lagragiano L = L (qi , qi , t)
como el generador de las ecuaciones de movimiento del conjunto {qi (t) , qi (t)}. Las qi s deben ser independientes
en el sentido de que debe ser posible mover una sola de estas coordenadas sin violar las ligaduras impuestas
sobre el sistema. De esta forma, para un pendulo simple con el origen ubicado en el pivote, la unica coordenada
generalizada es puesto que la distancia r de la lenteja es fija, de modo que no es posible mover el valor de r sin
violar la ligadura de distancia constante al origen. Por esta razon el numero de coordenadas generalizadas n del
sistema no es en general igual a 3N , siendo N el numero de partculas. No obstante, las ligaduras son usualmente
manifestaciones macroscopicas de fuerzas microscopicas, por ejemplo la tension de la cuerda del pendulo es el re-
sultado de las fuerzas que generan los enlaces moleculares de la cuerda. Por esta razon, en el mundo microscopico
el concepto de ligadura basicamente desaparece y los sistemas de partculas se tratan en general como sistemas
no ligados por las interacciones. Por tanto, el numero de grados de libertad de posicion sera usualmente n = 3N .
A menudo resulta mas ventajoso utilizar en lugar del conjunto {qi , qi } un nuevo conjunto {qi , pi } donde las
variables pi estan dadas por
L (q, q, t)
pi
qi
y pi se denomina el momento canonicamente conjugado a la variable qi . Si definimos la transformada de Legendre
del Lagrangiano en la forma
X
H pi qi L (qi , qi , t)
i

a esta cantidad cuando se escribe enteramente en terminos del conjunto {qi , pi }, la llamamos el Hamiltoniano del
sistema y actua como generador de ecuaciones de movimiento para el sistema {qi , pi }, a traves de las llamadas
ecuaciones de Hamilton
H H
qi = ; pi = (4.1)
pi qi
La resolucion de estas ecuaciones nos genera el comportamiento de qi y pi como funcion del tiempo y por tanto
toda la informacion fsica del sistema. El Hamiltoniano es una funcion que puede variar tanto funcional como
numericamente cuando se hace un cambio en el sistema coordenado. El uso directo de las ecuaciones de Hamilton
permite demostrar que
dH H
= (4.2)
dt t

192
4.1. LOS FENOMENOS CLASICOS 193

En consecuencia, si para un sistema coordenado dado el Hamiltoniano no es funcion explcita del tiempo, esta
cantidad sera una constante de movimiento. Adicionalmente, la Ec. (4.1) nos dice que si una cierta coordenada
generalizada qi no aparece en el Hamiltoniano, pero s aparece su momento conjugado pi , se tiene que este
momento conjugado sera una constante de movimiento. Por otro lado, para muchos casos de interes el Hamiltoniano
corresponde a la energa total del sistema, para que el Hamiltoniano sea la energa del sistema se deben cumplir
los siguientes requisitos (como condiciones de suficiencia): (a) El lagrangiano asociado debe poder descomponerse
en la forma
L (q, q, t) = L0 (q, t) + L1 (q, q, t) + L2 (q, q, t)
siendo Li con i = 0, 1, 2 una funcion homogenea de grados 0, 1 y 2 en las variables qi . (b) La transformacion que
lleva de las coordenadas cartesianas a las coordenadas generalizadas

ri = ri (q1 , ..., qn )

no debe depender explcitamente del tiempo, y (c) el potencial asociado solo debe ser funcion de las coordenadas y
el tiempo. Para los sistemas microscopicos estas condiciones se cumplen en casi todos los casos de interes. Vale decir
que la condicion (c) es violada por los potenciales asociados a las interacciones electromagneticas para las cuales el
potencial depende tambien de las qi . No obstante, se puede demostrar que aun con la violacion de esta condicion,
el Hamiltoniano sigue siendo la energa del sistema para el caso especial de interacciones electromagneticas. Notese
que esto tiene que ver con el hecho de que estas son condiciones de suficiencia pero no de necesidad.
En virtud de la discusion anterior, asumiremos para nuestros propositos que el Hamiltoniano corresponde
numericamente a la energa total del sistema. De particular importancia sera el Hamiltoniano asociado a una
partcula no relativista, no ligada y sometida a un potencial que no depende de las velocidades generalizadas. En
este caso el Hamiltoniano corresponde a la energa total de la partcula y se podra escribir en la forma

p2
H= + V (r, t)
2m
si usamos como coordenadas generalizadas las coordenadas cartesianas de la partcula, se tendra que el momento
lineal pi sera el momento canonicamente conjugado a la variable xi con i = 1, 2, 3. Si aplicamos las ecuaciones de
Hamilton a este Hamiltoniano, las ecuaciones de movimiento quedan
pi V
xi = ; pi =
m xi
que coinciden con las leyes Newtonianas basicas.
Por otro lado, existen en la mecanica clasica los fenomenos ondulatorios, estos aparecen de manera natural
como excitaciones o perturbaciones colectivas de un sistema de partculas, como es el caso de las cuerdas vibrantes
o las olas en el agua, estos fenomenos colectivos se pueden entender a la luz de las leyes de Newton pero no se
presentan fenomenos ondulatorios clasicos para una sola partcula. Mas bien se trata de una perturbacion que
se transmite de una partcula a otra generando propiedades de propagacion. Por otro lado, existen fenomenos
ondulatorios (electromagneticos) que no estan asociados clasicamente a partculas y que no estan regidos por
las leyes de Newton sino por las denominadas ecuaciones de Maxwell. Podemos entonces por un lado hablar de
materia (regida por la mecanica Newtoniana) que genera los fenomenos corpusculares y las ondas mecanicas, y
la radiacion (regida por las ecuaciones de Maxwell, que genera fenomenos ondulatorios que clasicamente no estan
asociados a la materia). De otra parte, podemos hablar de fenomenos corpusculares generados por las partculas
individuales y fenomenos ondulatorios generados por los campos electromagneticos o por perturbaciones colectivas
en la materia. En todo caso, salvo por la ley de Lorentz que nos da la interaccion de la radiacion con la materia,
estos dos tipos de entes fsicos radiacion y materia son completamente distintos en mecanica clasica y se rigen por
leyes muy distintas. Por otro lado, una partcula individual no puede generar fenomenos ondulatorios de modo
que el comportamiento corpuscular esta bien diferenciado del comportamiento ondulatorio.
De la anterior discusion podemos inferir las principales caractersticas de los sistemas clasicos
194 CAPITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS

(1) El estado de un sistema en un tiempo t queda totalmente especificado por el valor de sus coordenadas y
momentos conjugados en tal tiempo. Esto equivale a conocer sus posiciones, masas y velocidades en dicho instante.
(2) Al especificar el estado del sistema en cierto tiempo, cualquier cantidad fsica tiene un valor unico que se
reflejara en el proceso de medida (con ciertas incertidumbres de ndole experimental).
(3) Las ecuaciones de Hamilton son un posible conjunto de ecuaciones de movimiento. De ellas se observa que
dados los valores de qi (t0 ) , pi (t0 ) para un tiempo inicial t0 , la evolucion de qi , pi es unica de modo que los valores
qi (t) , pi (t), estan completamtne determinados para todo tiempo. En consecuencia el estado del sistema se conoce
completamente para cualquier tiempo t t0 si lo conocemos para t0 . Esto a su vez implica que cualquier cantidad
fsica evoluciona de manera unica y su valor al ser medido sera unico en cualquier instante.
(4) En principio todos valores reales de qi , pi son posibles de obtener en un sistema mecanico (al menos dentro
de ciertos intervalos). Por tanto un observable F (qi , pi ) tambien posee valores en un espectro contnuo al menos
dentro de cierto intervalo. Ademas en el proceso de medicion estos seran tambien los valores accesibles de las
cantidades fsicas.
(5) Las ecuaciones de Maxwell nos dan cuenta de la radiacion a traves de grados de libertad contnuos ca-
racterizados por los campos electricos y magneticos. La evolucion de estas ecuaciones es unica para condiciones
iniciales y de frontera adecuadas, junto con el conocimiento de la distribucion de cargas y corrientes. Al igual que
en la mecanica clasica del discreto la evolucion temporal de los observables es determinista as como el valor de
las medidas que se efectuen. Similarmente, el espectro posible de valores para los observables es contnuo.

4.2. Los fenomenos cuanticos


La exposicion sistematica de los sistemas microscopicos descritos anteriormente nos ha llevado a encontrar
fenomenos que difieren radicalmente de los fenomenos clasicos, veamos los mas importantes
(1) Existen ciertas cantidades fsicas tales como la energa, el momento angular etc. que bajo ciertas condiciones
solo nos arrojan medidas discretas. Este fenomeno de cuantizacion de las medidas accesibles aparece en escenarios
tan diversos como la radiacion del cuerpo negro, el efecto fotoelectrico y la medicion de los espectros atomicos.
(2) Tanto la materia como la radiacion presentan fenomenos de dualidad onda partcula. Pueden dispersarse
como partculas pero tambien interferir y difractarse como las ondas.
(3) La repeticion sistematica de ciertos experimentos bajo las mismas condiciones iniciales, nos lleva a que la
medida de los observables no es reproducible. Sin embargo, cuando muchos experimentos identicos son realizados,
aparece un patron reproducible relativo a la distribucion con que se obtienen las diferentes medidas. Estos nos
lleva a la idea de que existe un patron de probabilidad para obtener cada uno de los resultados accesibles (que en
general pueden o no estar cuantizados).
(4) La distribucion de probabilidad esta asociada con el caracter ondulatorio de los sistemas.
(5) En un proceso de medida se evidencia solo uno de los aspectos (ondulatorio o corpuscular) de la naturaleza
cuantica, como una moneda que posee dos caras pero solo nos muestra una a la vez (principio de complementa-
riedad).
(6) La cuantizacion de los observables nos conduce a pensar que los estados asociados a estos observables
tambien estan cuantizados (autoestados del sistema). El principio de superposicion que poseen las ondas sugiere
pensar que el estado del sistema en un tiempo t es la superposicion de todos los autoestados, en donde cada
autoestado contribuye con cierto peso.
(7) El proceso de medida nos cambia el estado del sistema de manera drastica: justo antes de la medida el
estado del sistema es la superposicion de todos los autoestados, justo despues de la medida el sistema queda
preparado en una superposicion que solo incluye a los autoestados asociados con el autovalor obtenido.
(8) Lo anterior nos induce a pensar que existe una perturbacion fundamental que no puede ser minimizada, y
que es inherente al proceso de medicion e independiente de la resolucion del aparato de medida.
(9) La probabilidad de obtener un autovalor esta relacionada con los coeficientes asociados a sus autoestados.
Lo anterior es confirmado por la repeticion sucesiva de los experimentos. Notese que esto ademas implica que la
forma en que actuara la perturbacion fundamental no se puede predecir con certeza.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 195

(10) Como corolario se obtiene que si vuelvo a hacer una medida del mismo observable justo despues de la
primera medicion, el autovalor se reproduce con total certeza. Lo anterior es confirmado por los hechos experi-
mentales.
(11) La distribucion de probabilidad para la materia evoluciona de manera determinista, siendo la ecuacion de
Schrodinger un buen prospecto como generador de esta evolucion, al menos en el regimen no relativista.
(12) La funcion de onda (solucion de la ecuacion de Schrodinger) que describe la distribucion de probabilidad
debe ser de cuadrado integrable para poder mantener la conservacion de la probabilidad.
(13) Para una partcula el estado clasico en un tiempo t se caracteriza por seis cantidades (3 posiciones y tres
momentos) en tanto que para una partcula cuantica esta caracterizada por un numero infinito de cantidades: los
valores de (r, t) para cada posicion r.
En sntesis, los postulados deben dar cuenta de las caractersticas arriba citadas.

4.3. Establecimiento de los postulados


4.3.1. Descripcion de los estados y las cantidades fsicas
Hemos visto que el estado de una partcula se caracteriza por la funcion de onda (r, t) que es una funcion
de cuadrado integrable. Adicionalmente, vimos que a cada funcion de onda en el espacio le corresponde un ket
|i en el espacio de estados Er . Donde la relacion entre ambos viene dada por | (t)i hr | (t)i = (r, t). Esta
relacion nos muestra a la funcion de onda como una representacion del ket | (t)i en la base {|ri}. Ademas, la
representacion por kets posee la flexibilidad de ser expresada en cualquier base. Generalizaremos este enunciado
de una partcula al caso de un sistema fsico arbitrario
Primer postulado: El estado de un sistema fsico en un tiempo t0 esta especificado por un ket | (t0 )i E.
Siendo E un subespacio de un espacio de Hilbert H, donde H es isomorfo e isometrico al espacio L2 de las
funciones cuadraticamente integrables en un volumen dado.
Al ser E un espacio vectorial, una combinacion lineal de estados es tambien un estado, lo cual implica un
principio de superposicion. Mas adelante veremos las implicaciones fsicas de este principio de superposicion.
De otra parte, observamos que la ecuacion de Schrodinger independiente del tiempo nos lleva a una ecuacion
de valores propios
H |i = E |i
donde el operador H esta definido por
P2
H= + V (r)
2m
siendo P el operador cuyos valores propios corresponden al momento de la partcula. Este operador H tiene como
valores propios los valores accesibles de energa del sistema. En forma similar vimos que al menos para partcula
libre los operadores R y P tiene como valores propios los valores accesibles (contnuos) de posicion y momento.
Vale ademas decir que H, R y P son todos observables. La generalizacion de estos hechos nos lleva al segundo y
tercer postulado
Segundo postulado: Toda cantidad fsica medible A, esta descrita por un operador A que actua sobre el
espacio vectorial E. Dicho operador es un observable, i.e. un operador hermtico cuyo espectro de autoestados es
completo.
Mas adelante veremos que la caracterstica de observable es esencial. Notese que en la mecanica cuantica los
estados estan representados por vectores y las cantidades Fsicas por operadores.
Tercer postulado: El unico resultado posible en una medicion de una cantidad fsica A es uno de los auto-
valores del correspondiente observable A.
Por supuesto, toda medida experimental debe ser un numero real. El caracter hermtico de A nos garantiza
que una medida de A nos dara un valor real, ya que todo valor propio de A es real. Adicionalmente, dado que
el problema de valores propios conduce en muchas circunstancias a valores propios discretos, es de esperarse que
este postulado nos de cuenta de la naturaleza cuantica de algunas cantidades fsicas.
196 CAPITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS

4.3.2. El proceso de medicion y la distribucion de probabilidad


Cuando analizamos el experimento de fotones polarizados (seccion 2.9), nos topamos con el principio de
descomposicion espectral, al cual le daremos un caracter mas general en la presente seccion. Consideremos que un
sistema esta caracterizado en el tiempo t, por el ket | (t)i (de acuerdo con el primer postulado) el cual asumiremos
como normalizado a 1
h |i = 1
sabemos que si queremos medir una cantidad fsica A asociada a un observable A no podemos hacer una prediccion
del resultado con toda certeza sino solo una prediccion de la probabilidad de obtener un valor dado accesible, es
decir un autovalor dado de A.
Asumamos por ahora que el espectro de A es totalmente discreto y no degenerado, en tal caso a cada valor
propio an le corresponde un unico vector propio normalizado |un i (excepto por una fase constante). La ecuacion
de valores propios de A es
A |un i = an |un i
y dado que A es un observable, los vectores propios {|un i} forman una base ortonormal en E. El vector de estado
|i se puede entonces expandir en esta base
X
|i = cn |un i
n

y postularemos siguiendo el principio de descomposicion espectral (seccion 2.9 Ecs. 2.46, 2.47, 2.48), que la
probabilidad de obtener el valor propio ak esta dada por

P (ak ) = |ck |2 = |huk |i|2

Que ocurre si el autovalor es degenerado?, en este caso varios vectores ortonormales corresponden a este valor
propio
A uin = an uin ; i = 1, ..., gn

dado que A es observable, el conjunto uin forma una base de modo que podemos expandir el estado |i en
dicha base
XX gn

|i = cin uin (4.3)
n i=1

en este caso la probabilidad P (ak ) debe involucrar a todos los coeficientes asociados a los estados propios con
valor propio ak
gk
X gk
i 2 X i
P (ak ) =
ck = hu |i 2
k
i=1 i=1

con lo cual estableceremos el cuarto postulado para espectros discretos


Cuarto postulado (caso de espectro discreto): Cuando se mide una cantidad fsica A sobre un sistema que
esta en el estado normalizado |i, la probabilidad P (ak ) de obtener el autovalor ak correspondiente al observable
A es
gk
X i
P (ak ) = hu |i 2 (4.4)
k
i=1

siendo gk el grado de degeneracion de ak y uik i = 1, ..., gk un conjunto ortonormal de vectores que forman
una base en el autosubespacio Ek generado por el valor propio ak del observable A.
Naturalmente, cuando ak no es degenerado, entonces gk = 1 y la suma solo contiene un termino, siendo el
autoespacio Ek de una dimension.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 197

Notese que para que


 ieste
postulado tenga sentido, es necesario que el calculo de la probabilidad no dependa

de la base especfica uk que se use. Esto se puede ver facilmente considerando la descomposicion de E como
suma directa de los autoespacios Ek
E = E1 E2 . . . Ek . . . (4.5)
notese que para poder hacer esta descomposicion, es necesario que el operador sea un observable (extension del
teorema espectral a dimension infinita). Si retomamos la Ec. (4.3) y la reescribimos adecuadamente resulta
g1
X g2
X gk
X

|i = ci1 ui1 + ci2 ui2 + ... + cik uik + . . .
i=1 i=1 i=1

y es claro que
gm
X
|m i cim uim Em (4.6)
i=1

de modo que
|i = |1 i + |2 i + . . . + |k i + . . . ; |m i Em (4.7)
Por otro lado, en virtud de la descomposicion (4.5), existe una unica expansion de |i en vectores de cada
autoespacio. En otras palabras, cada |m i en la expansion es unico. En terminos de proyectores tenemos que

|i = (P1 + P2 + . . . + Pk + . . .) |i = P1 |i + P2 |i + . . . + Pk |i + . . .
Pm |i = |m i Em

en notacion de Dirac el proyector Pm se escribe


gm
X i
i
Pm = um um
i=1

como se puede verificar al operar sobre |i


gm
X gm
X
i
i
Pm |i =
um um i = cim uim = |m i Em
i=1 i=1

la probabilidad es
gk
X gk gk
i 2 X i 2 X
P (ak ) =
ck =
huk |i = h uik huik |i
i=1 i=1 i=1
P (ak ) = h| Pk |i (4.8)

y usando la idempotencia y hermiticidad de Pk se tiene que


 
P (ak ) = h| Pk Pk |i = h| Pk (Pk |i)
P (ak ) = hk | k i = k|k ik2

pero dado que |k i es unico y su norma es independiente de la base en que se calcule, vemos que esta probabilidad
es independiente de la base como se esperaba. La Ec. (4.8) es una forma alternativa de calcular esta probabilidad.
Veamos el caso de un espectro contnuo no degenerado. La ecuacion de valores propios de A es

A |v i = |v i
198 CAPITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS

siendo un ndice contnuo y siendo |v i ortonormal en el sentido extendido. Siendo A un observable (tambien
en el sentido extendido), podemos expandir el ket |i en terminos de los autoestados de A
Z
|i = d c () |v i

puesto que el conjunto de medidas accesibles de A es contnuo, debemos definir una densidad de probabilidad, tal
como lo hicimos con la funcion de onda (r, t) y su transformada de Fourier (p, t). En el caso de estas funciones
la probabilidad de encontrar a la partcula en un volumen d3 r o dentro de un intervalo tridimensional de momento
d3 p estan dados por

dP (r) = | (r, t)|2 d3 r = |hr |i|2 d3 r ; R |ri = r |ri


2
dP (p) = (p, t) d3 p = |hp |i|2 d3 p ; P |pi = p |pi

la extrapolacion natural para un espectro contnuo arbitrario es

dP () = () d ; () = |hv |i|2

siendo dP () la probabilidad de obtener un valor dentro del intervalo entre y + d. Naturalmente, puede
estar indicando varios ndices contnuos.
Cuarto postulado (caso contnuo no degenerado): Cuando se mide la cantidad fsica A sobre un sistema
que esta en el estado normalizado |i, la probabilidad de obtener un valor dentro del intervalo entre y + d
esta dada por
dP () = |hv |i|2 d () d (4.9)
siendo |v i el autovector correspondiente al autovalor del observable A asociado a la cantidad Fsica A. A la
cantidad () la llamamos la densidad de probabilidad asociada al autovalor .
Notese que tanto en el contnuo como en el discreto, la probabilidad de obtener cualquier valor accesible es
igual a la unidad como debe ser
!
X X X
P (ak ) = h| Pk |i = h| Pk |i = h| I |i = h |i = 1
k k k

o alternativamente
X gk
XX i 2
P (ak ) = c = h |i = 1
k
k k i=1
en el caso contnuo
Z b Z b Z b Z b 
2
dP () = |hv |i| d = h |v i hv |i d = h| |v i hv | d |i = h| I |i = 1
a a a a

siendo [a, b] el intervalo en donde se define la variable contnua . Por supuesto, si la funcion es de cuadrado
integrable pero no esta normalizada, estas probabilidades se pueden calcular normalizando a |i

= p 1 |i
h |i
y para el discreto y el contnuo se obtiene
gk
X g
i 2
hu = 1 X k
i
hu |i 2
P (ak ) = k k
h |i
i=1 i=1
1
dP () = () d = |c ()|2 d
h |i
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 199

es importante enfatizar que el caracter de observable de A es vital para la construccion del cuarto postulado, ya
que este depende de que un estado (arbitrario) pueda expandirse en terminos de los autovectores de A.
Si el espectro contnuo es degenerado podemos escribir
E E

A v = v [c, d]

y la densidad de probabilidad asociada a se obtiene sumando sobre todos los vectores propios con valor propio
Z d 
Z d 2 2

() = hv |i d ; dP () = hv |i d d
c c

la extension a casos en donde parte del espectro es contnuo y parte discreto es relativamente simple y sera ilustrada
posteriormente con ejemplos.

4.3.3. Relevancia fsica de las fases en mecanica cuantica


Consideremos dos kets |i y | i relacionados en la forma

= ei |i

siendo un numero real. Es facil ver que los dos vectores poseen la misma norma y que la probabilidad predicha
para una medicion arbitraria es la misma para ambos kets.

h = h| ei ei |i = h |i
i 2 i i i
hu | i e hu |i 2 hu |i 2
k k k
= =
h | i h |i h |i

aun mas, los kets relacionados en la forma



= ei |i

tambien contienen la misma informacion fsica, ya que estrictamente los observables solo se calculan con kets
normalizados. En consecuencia, dos kets linealmente dependientes representan el mismo estado del sistema fsico.
Este resultado debe interpretarse con cuidado. Por ejemplo, sea el estado

|i = 1 |1 i + 2 |2 i

donde 1 y 2 son complejos. De lo anterior, sabemos que ei1 |1 i representa al mismo estado que |1 i y que
ei2 |2 i representa al mismo estado que |2 i, no obstante el estado

|i = 1 ei1 |1 i + 2 ei2 |2 i

no representa el mismo estado fsico que |i, ya que la diferencia de fase 2 1 dara lugar a fenomenos de
interferencia, volveremos sobre esto mas adelante. Por el momento mencionaremos que los dos estados describiran
la misma fsica solo si 1 = 2 + 2n, siendo n un entero. Pues en tal caso ei1 = ei2 y resulta

|i = ei1 [1 |1 i + 2 |2 i] = ei1 |i

de modo que un factor de fase global no afecta las predicciones fsicas, pero las fases relativas de los coeficientes
de una expansion son significativas.
200 CAPITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS

4.3.4. El proceso de medida y la reduccion del paquete de onda


Hasta el momento hemos hablado del valor experimental obtenido en la medicion pero no del estado del sistema
una vez que la medicion se ha efectuado. En el experimento de polarizacion de fotones vimos que justo despues
de que la medida es realizada, el sistema queda preparado en el autoestado asociado al autovalor que se obtuvo
en la medicion. Vamos ahora a generalizar este proceso conocido como reduccion del paquete de onda.
Supongamos que queremos medir una cantidad fsica A asociada a un observable A en un tiempo dado t.
Si |i representa el estado del sistema justo antes de la medicion, el cuarto postulado nos permite obtener la
probabilidad para cada autovalor posible en la medicion. Sin embargo, una vez que la medida es efectuada solo
uno de los posibles autovalores es obtenido. Por tanto, justo despues de la medicion, ya no podemos hablar de
la probabilidad de obtener un autovalor, pues ya sabemos cual de ellos se obtuvo, de manera que poseemos una
informacion adicional y es comprensible que el estado del sistema ya no sea |i ya que justo despues de la medicion
el estado debe incorporar la informacion del autovalor especfico que se obtuvo. Por tanto, es de esperarse que
el estado |k i justo despues de la medida sea la componente de |i asociada con el autoestado ak . Tendremos
entonces que cuando se ejecuta una medida con resultado ak , el estado tendra un cambio abrupto desde |i (justo
antes de la medicion) hasta |k i pero normalizado (justo despues de la medicion).

(a )
k 1 Pk |i
|i p |k i = p
hk |k i h| Pk |i

Es importante decir que la normalizacion es necesaria ya despues de la medicion |k i describe todo el estado del
sistema y no solo una componente de tal estado como antes de la medicion. Recordando las expansiones (4.3, 4.7)
y la expresion (4.6) para la componente |k i de |i sobre el autoespacio Ek , se tiene
gn
XX
|i = cin uin
n i=1
gk
X
(ak ) 1
|i qP 2 cik uik
gk cm
m=1 k i=1

Quinto postulado: Si la medida de la cantidad fsica A sobre el sistema en el estado |i, nos da el valor
propio ak , el estado del sistema inmediatamente despues de la medida esta dado por la proyeccion normalizada
de |i sobre el autoespacio Ek asociado con ak

Xgk
(ak ) Pk |i 1 1
|i p =p |k i = qP cik uik (4.10)
h| Pk |i hk |k i gk m 2 i=1
m=1 ck

el estado del sistema inmediatamente despues de la medicion es entonces un autovector de A con autovalor ak .
Pero no un autovector cualquiera de Ek , sino la componente sobre este autoespacio del estado |i que se tena
antes de la medicion. Cuando hay ausencia de degeneracion gk = 1 y se tiene que el estado despues de la medicion
es
(ak ) 1 1 
|i q ck |uk i = |ck | ei |uk i
|ck |
|ck |2
(ak )
|i ei |uk i

el cual es fsicamente identico a |uk i. Efectivamente en este caso salvo por una constante de proporcionalidad,
el autovector asociado a ak es unico. Este postulado nos da cuenta de los cambios abruptos en el estado, o
perturbaciones fundamentales que se aprecian en diversos experimentos.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 201

Por otra parte, la combinacion del cuarto y el quinto postulado nos dice que si el estado de un sistema fsico
coincide con un autovector |k i de un observable A asociado a un autovalor ak , entonces la medicion del observable
A nos dara con toda certeza el valor propio ak y el estado permanecera intacto. Estas son las caractersticas con
las cuales hemos definido a los autoresultados y a los autoestados del sistema con respecto al observable A, de
modo que los autoresultados y autoestados del sistema asociados con un observable A corresponden a sus valores
propios y kets propios1 .

4.3.5. Evolucion fsica de los sistemas cuanticos


Ya hemos usado argumentos de plausibilidad para suponer que la ecuacion de Schrodinger es la ecuacion
que gobierna la evolucion temporal de los estados correspondientes a un sistema de una partcula cuantica no
relativista. Postularemos que esta misma ecuacion gobierna la evolucion temporal de todos los sistemas cuanticos
no relativistas
Sexto postulado: La evolucion temporal de un vector de estado | (t)i esta regida por la ecuacion de Schrodin-
ger
d
i~ | (t)i = H (t) | (t)i
dt
donde H (t) es el observable asociado con la energa total del sistema. H (t) se conoce como el operador Hamilto-
niano del sistema y se obtiene del Hamiltoniano clasico por medio de ciertas reglas de cuantizacion.
Antes de explicar las reglas de cuantizacion, discutiremos un aspecto importante de la evolucion temporal
que resulta de la combinacion del quinto y sexto postulados. La ecuacion de Schrodinger me dara la evolucion
del estado del sistema desde un tiempo inicial t0 hasta un tiempo final t2 , siempre que en este intervalo no se
realice ninguna medida. Asumamos por el contrario, que se realiza la medida de una cantidad A asociada a un
observable A, en el tiempo t1 con t0 < t1 < t2 , y que el resultado es el valor propio ak . En tal caso, la ecuacion de
Schrodinger me permitira calcular la evolucion del estado desde su valor en t0 dado por | (t0 )i hasta el valor que
adquiere en t1 (justo antes de la medida) dado por | (t1 )i, como en ese instante se realiza una medida el sistema
tendra un cambio discontnuo de estado de modo que en t1 (pero justo despues de la medida) el sistema queda
en el estado |k |1 |k i, por tanto la evolucion temporal del sistema para tiempos posteriores a t1 debera tomar
este valor como condicion inicial | (t1 )i = |k |1 |k i para obtener su evolucion hasta cualquier valor posterior
del tiempo digamos t2 , siempre que no se haga otra medida entre t1 y t2 . En general, cada medida obligara a
una recalibracion de las condiciones iniciales (tomando como tiempo inicial el tiempo en que se realiza cada
medida), para calcular la evolucion temporal del estado.
Volvamos ahora a las condiciones de cuantizacion

4.3.6. Reglas de cuantizacion


Hemos visto que el Hamiltoniano clasico tiene asociado un operador cuyos valores propios son las energas
accesibles del sistema. Conocemos la forma de este operador para la representacion en la base {|ri}, y vemos que
a partir del Hamiltoniano clasico H (r, p, t) el operador Hamiltoniano queda en la forma

p2 P2 ~2 2
+ V (r) + V (R) = + V (r)
2m 2m 2m
H (r, p, t) H (R, P, t)

siendo P y R los operadores de momento y posicion definidos en la seccion 1.43.4. En lo anterior hemos usado
el hecho de que en la representacion de la base {|ri}, el operador P esta representado por el operador diferencial
i~, y el operador R esta representado por la multiplicacion por el valor de posicion R r (ver Ecs. 1.186,
1.191).
1
Notese que si cambiamos de observable los autoestados y autoresultados (kets y valores propios), se redefinen completamente ya
que estos conceptos estan ligados al sistema fsico junto con el aparato de medida.
202 CAPITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS

Nuevamente, extenderemos este algoritmo a la construccion de un operador A asociado a una cantidad fsica
A que esta definida en la mecanica clasica. Consideremos una partcula sin espn sujeta a un potencial escalar,
estableceremos la siguiente regla de cuantizacion
A la posicion r (x, y, z) de la partcula se le asocia el observable R (x, y, z). Al momento p (px , py , pz ) de la
partcula se le asocia el observable P (px , py , pz ).
Recordemos que las componentes de los operadores R y P satisfacen las relaciones canonicas de commutacion

[Ri , Rj ] = [Pi , Pj ] = 0 ; [Ri , Pj ] = [Pj , Ri ] = i~ij (4.11)

por tanto, dado que una cantidad fsica clasica A se puede escribir en terminos de r, p, t i.e. A (r, p, t), el corres-
pondiente observable A se obtendra reemplazando las variables dinamicas r, p en la expresion A (r, p, t) por los
observables R y P
A (t) = A (R, P, t)
sin embargo, este algoritmo puede generar algunas ambiguedades e inconsistencias. Asumamos por ejemplo que
en la cantidad fsica A (r, p, t) aparece un termino de la forma

r p = xpx + ypy + zpz

en mecanica clasica, el producto r p es conmutativo, de modo que tambien podemos escribirlo como

p r = px x + py y + pz z

pero en el proceso de cuantizacion, ambos terminos conducen a operadores diferentes ya que R y P no conmutan

R P 6= P R

adicionalmente, ninguno de estos operadores es Hermtico2

(R P) = (XPx + Y Py + ZPz ) = Px X + Py Y + Pz Z = Px X + Py Y + Pz Z = P R

la segunda de las Ecs. (1.43) nos sugiere la forma de generar un operador hermtico con este producto

R P + (R P) RP+PR P R + (P R)
Z = =
2 2 2
RP+PR
Z
2
esta forma ademas de ser hermtica, es simetrica con respecto a RP y P R es decir con respecto a la cuantizacion
de cualquiera de los dos operadores. De modo que debemos anadir una regla de simetrizacion de los operadores
que incluya operadores mas complejos que R P
Regla de cuantizacion y simetrizacion: El observable A que describe a una cantidad fsica definida clasi-
camente por A (r, p, t), se obtiene reemplazando para A a las variables dinamicas r, p (canonicamente conjugadas)
por los observables R, P, en una forma adecuadamente simetrizada.
Mas adelante veremos sin embargo, que ciertos observables A en mecanica cuantica no provienen de una
cantidad fsica A definida clasicamente, sino que surgen directamente como observables cuanticos, este es el caso
del espn de la partcula.
Es importante enfatizar que las reglas de cuantizacion y las propiedades de commutacion establecidas en
esta seccion solo son validas para las coordenadas cartesianas. Si bien es posible extenderlas a otros tipos de
coordenadas, no adquiriran formas tan simples. Veamos algunos ejemplos del uso de las reglas de cuantizacion.
2
Recordemos que el producto de operadores hermticos no es en general hermtico (ver teorema 1.34).
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 203

(a) El caso mas simple es el de una partcula de masa m, bajo una interaccion que se puede describir por un
potencial que solo depende de la posicion y el tiempo, el Hamiltoniano clasico en coordenadas cartesianas vendra
dado por
p2 dr
H (r, p) = + V (r) ; p = m = mv
2m dt
la regla de cuantizacion no presenta dificultades ya que no es necesaria ninguna simetrizacion puesto que R y P
nunca se acoplan, de modo que no aparecen productos de operadores que no conmutan. El Hamiltoniano como
observable queda
P2
H (R, P) = + V (R)
2m
en este caso particular en virtud del sexto postulado la ecuacion de Schrodinger queda
 2 
d P
i~ | (t)i = + V (R) | (t)i
dt 2m

(b) Veamos ahora el Hamiltoniano de una partcula sometida a una interaccion electromagnetica, en tal caso
el Hamiltoniano clasico se escribe en la forma
1
H (r, p) = [p qA (r, t)]2 + q (r, t) (4.12)
2m
siendo A (r, t) , (r, t) los potenciales vectorial y escalar, p es el momento canonicamente conjugado a r y esta
dado por
dr
p = m + qA (R, t) = mv + qA (R, t)
dt
notese que el momento p canonicamente conjugado a r, no es el momento lineal de la partcula, esto se debe a
que para una partcula en un campo electromagnetico, el potencial generalizado asociado depende de la velocidad
generalizada y no solo de la posicion. De nuevo la cuantizacion es sencilla puesto que no hay operadores para
simetrizar, el Hamiltoniano como observable queda
1
H (R, P) = [P qA (R, t)]2 + V (R, t) ; V (R, t) q (R, t)
2m
y la ecuacion de Schrodinger resulta
 
d 1
i~ | (t)i = [P qA (R, t)]2 + V (R, t) | (t)i
dt 2m
habiamos mencionado antes que a pesar de que el potencial generalizado depende de la velocidad, el Hamiltoniano
continua siendo la energa del sistema, esto se puede ver teniendo en cuenta que el momento lineal de la partcula
que denotaremos por p~ esta relacionado con el momento conjugado a la variable r en la forma

p~ = p qA

de modo que el Hamiltoniano clasico queda

~2
p
H= + V (r, t)
2m
el primer termino es la energa cinetica y el segundo es la componente del potencial que genera trabajo. La clave
esta en el hecho de que el campo magnetico (que es el que introduce el potencial dependiente de la velocidad) no
realiza trabajo.
Este ejemplo tambien nos sirve para realizar una aclaracion importante, en la regla de cuantizacion es el
momento p canonicamente conjugado a r, y no el momento lineal ~ p el que debe reemplazarse por el operador
204 CAPITULO 4. ENUNCIADO MATEMATICO DE LOS POSTULADOS

P. Si recordamos que dos variables xi , pi canonicamente conjugadas clasicamente son tales que sus corchetes de
Poisson cumplen la relacion

[xi , xj ]pois = [pi , pj ]pois = 0 ; [xi , pj ]pois = [pj , xi ]pois = ij (4.13)

diremos que las cantidades que clasicamente cumplen las relaciones canonicas (4.13) con corchetes de Poisson,
pasaran en el proceso de cuantizacion a cumplir las relaciones canonicas (4.11) con conmutadores. Notese ademas
que las propiedades fundamentales de los conmutadores (1.37-1.42) tambien las cumplen los corchetes de Poisson
y con ambas se podra generar un algebra de Lie.
Captulo 5

Consecuencias de los postulados sobre los


observables y sus medidas

Ya hemos estudiado los kets de posicion |ri y los kets de momento |pi as como los operadores de posicion y
momento R y P. Por simplicidad usaremos el caso unidimensional, las ecuaciones de valores propios para X, Px son
X |xi = x |xi ; Px |px i = px |px i
estos operadores tienen un espectro contnuo lo cual coincide con el hecho experimental de que todos los valores
reales son posibles para las posiciones y momentos de la partcula. Si utilizamos el cuarto postulado podemos
calcular la probabilidad de obtener una posicion dentro del intervalo entre x y x + dx o la probabilidad de obtener
un momento en el intervalo entre px y px + dpx .
2
dP (x) = |hx |i|2 dx = | (x)|2 dx ; dP (p) = |hp |i|2 dp = (p) dp
de hecho estas expresiones fueron usadas para establecer el cuarto postulado. No obstante, es de particular interes
la interpretacion a la luz de este postulado del caso en el que el estado del sistema esta descrito justamente por
|x i o |p i, en tal caso estas probabilidades quedan
2  2 2  2
dP (x) = hx x dx = x x dx ; dP (p) = hp p dp = p p dp
si integramos estas probabilidades entre x y x + o entre p y p + respectivamente, tenemos que la
probabilidad da la unidad sin importar el tamano de , si por el contrario calculamos la integral en cualquier
volumen que excluya al punto x o p esta integral da cero. Por tanto |x i describe un estado en donde la partcula
esta en un punto bien definido del espacio y |p i describe una partcula con momento especfico p . Para el estado
|x i la medida de posicion es totalmente predecible y para el estado |p i es totalmente predecible la medida del
momento. Notese que para el estado |x i la densidad de probabilidad asociada a la posicion diverge en el punto
x y se anula en los demas, esto esta relacionado con el hecho de que este no es un estado fsicamente realizable,
ya que no es de cuadrado integrable1 . Similar discusion ocurre para el estado |p i para el cual la densidad de
probabilidad asociada al momento diverge en el punto p y se anula en los demas.
El estado |x i se puede calcular en las bases {|xi} y {|pi}
 eipx /~

x (x) = hx x = x x
; x (p) = hp x =

2~
si calculamos la probabilidad de que al medir el momento lineal de la partcula en el estado |x i se encuentre un
valor entre p y p + dp, obtenemos
2 dp
dP (p) = x (p) dp =
2~
1
En mecanica clasica el fenomeno es similar. Una partcula puntual (localizada en r ) corresponde a un sistema fsico de densidad
infinita de masa (r) = m (r r ). Por tanto, este es un estado clasico impropio.

205
206 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

es decir, una probabilidad uniforme. Nuevamente, la probabilidad diverge por ser un estado impropio. Sin embargo,
es interesante ver que el colapso de la funcion de onda en un punto del espacio (es decir la certeza total de tener
una posicion descrita por el estado |x i) lleva a la incertidumbre total en el momento, como ya se discutio para el
principio de incertidumbre de Heisenberg. Un analisis similar se puede hacer para el estado impropio |p i. Como
X, P tienen como valores propios las posiciones y momentos de estos estados colapsados, tiene sentido que la
regla de cuantizacion reemplace x por X y p por P .
Vale la pena mencionar que para interpretar adecuadamente una funcion de onda, es esencial conocer la base
en la que esta escrita. A manera de ejemplo, observese que el ket |xi corresponde a una partcula perfectamente
localizada en x y con incertidumbre total del momento, en tanto que el ket |pi corresponde a una partcula con
momento perfectamente definido p y con total incertidumbre en la posicion. Ahora veamos como se escribe |xi
en la base {|pi} y como se escribe |pi en la base {|xi}

eipx/~ eipx/~
x (p) = hp |xi = ; p (x) = hx |pi =
2~ 2~
notese que dos estados totalmente distintos pueden ser descritos con la misma forma funcional si ambos estan
escritos en bases diferentes. Una onda plana en la base {|pi} corresponde a una partcula bien localizada, en tanto
que la misma onda plana en la base {|xi} esta asociada a una partcula con momento bien definido.
Como ya se menciono, en algunos casos la ecuacion de valores propios (establecida en el tercer postulado)
conduce a un espectro discreto y en otros casos a un espectro contnuo, lo cual nos generara la discretizacion de
ciertas cantidades fsicas. Lo interesante es que tanto para los casos discretos como para los contnuos hay una
excelente concordancia con los experimentos.
Los postulados cuatro y cinco plantean ciertos problemas fundamentales inherentes al proceso de medida. Por
ejemplo, la existencia de una perturbacion fundamental implica que el sistema no se puede considerar indepen-
dientemente al aparato de medida, en realidad el conjunto sistema fsico-aparato de medida deben considerarse
como un todo. El punto es que el proceso de observacion requiere de una interaccion entre el sistema y el aparato.
Ademas el aparato de medida (para un sistema fsico dado) define tanto los autoresultados como los autoestados
que se pueden obtener en el proceso de medicion, como se discutio en la seccion 2.9, pagina 135 sobre la medicion
de fotones polarizados. Esto conlleva a preguntas delicadas sobre el proceso de medida que no discutiremos aqu.
Notese que de acuerdo con los postulados cuarto y quinto, la indeterminacion en el proceso de medida indica
por un lado la existencia de la perturbacion fundamental pero tambien la no determinacion de su comportamiento
especfico, ya que a partir del estado antes de la medida (que se puede obtener en forma totalmente determinista),
la medida nos lleva a un cambio abrupto que no se puede determinar con certeza. Puesto que la ecuacion de
Schrodinger es totalmente determinista, la generacion de la perturbacion fundamental y de la indeterminacion son
inherentes al proceso de medida.
En lo que sigue consideraremos solo medidas ideales. Esto significa que se asume que el aparato de medida es
perfecto, de modo que solo se generan las perturbaciones e incertidumbres inherentes a las leyes cuanticas. En la
realidad, los aparatos son imperfectos y por tanto presentan una incertidumbre experimental que afecta de manera
adicional a la medida. Por ejemplo, un analizador deja pasar ondas polarizadas no solo en una direccion fija sino
en cierto intervalo alrededor de esta direccion. Sin embargo, a diferencia de las incertidumbres y perturbaciones
cuanticas, estas incertidumbres y perturbaciones experimentales pueden disminurse indefinidamente (al menos en
principio) para acercarse cada vez mas al lmite ideal.

5.1. Consideraciones estadsticas


5.1.1. Valor medio de un observable para un sistema en un estado dado
Para verificar el cuarto postulado, es necesario preparar un sistema en un estado bien definido y repetir
el experimento muchas veces, donde para cada experimento tenemos un sistema identico con el mismo estado
inicial. Estrictamente, las predicciones solo se reproduciran en el lmite cuando N (numero de reproducciones del
5.1. CONSIDERACIONES ESTADISTICAS 207

experimento o numero de eventos) tiende a infinito. En la practica N es finito y por tanto deben usarse tecnicas
estadsticas para interpretar los resultados.
De aqu en adelante denominaremos observable tanto a la cantidad fsica como al operador cuantico asociado.
Definiremos el valor esperado (o valor medio) de un observable, como el promedio de los resultados obtenidos
cuando se realiza un gran numero de mediciones N de dicho observable, para sistemas identicos que se preparan
en un estado especfico |i. Denotaremos al valor esperado del observable A para el sistema en el estado |i en la
forma hAi|i o cuando se sobreentienda cual es el estado, la notacion se simplificara en la forma hAi.
La idea es poder predecir el valor esperado con base en los postulados. Comencemos primero con el caso de
espectro discreto. Si se realizan N experimentos para identicos sistemas cada uno en el estado |i y se obtiene
el autovalor an para el observable A un numero N (an ) de veces, la probabilidad de obtener dicho autovalor se
define como
N (an )
P (an ) lm (5.1)
N N
y es claro que
X
N (an ) = N
n

el valor medio es simplemente la suma de todas las medidas obtenidas dividida por el numero N de medidas. Por
supuesto, cuando un numero N (an ) de medidas han dado el mismo resultado an , la suma con que contribuyen
estos eventos se escribe simplemente como an N (an ) y se suma sobre los resultados diferentes obtenidos

1 X
hAi|i = an N (an )
N n

a N (an ) se le conoce como la frecuencia del evento. Si tomamos el lmite cuando N y usamos la definicion
(5.1) de probabilidad se tiene que
X
hAi|i = an P (an )
n

y usando la Ec. (4.4) que proviene del cuarto postulado, se obtiene

X gn
X gn
i 2 X X
hAi|i = an
h un = an h uin huin |i
n i=1 n i=1

donde uin son los vectores propios (ortonormalizados) de A asociados al valor propio an

A uin = an uin

de modo que
gn
XX gn
XX
i i
hAi|i =
h| an un hun |i = h| A uin huin |i
n i=1 n i=1
" gn
# " #
XX i
i X
hAi|i = h| A un un |i = h| A Pn |i = h| AI |i
n i=1 n

donde hemos usado la relacion de completez para el discreto Ec. (1.170), notese que el uso de la completez requiere
una vez mas que A sea un observable. Finalmente, la expresion para el valor esperado queda

hAi|i = h| A |i (5.2)
208 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

para el caso del espectro contnuo no degenerado, el argumento es similar. Consideremos N experimentos identicos
y denominemos dN () el numero de experimentos cuyo resultado este includo entre y + d, la probabilidad
la definimos similarmente como
dN ()
dP () = lm
N N
el valor medio o esperado se escribe como
Z Z
1
hAi|i = lm dN () = dP ()
N N

usando de nuevo el cuarto postulado (para espectro contnuo), sustitumos dP () por su valor en la Ec. (4.9)
Z Z
2
hAi|i = |h |v i| d = h |v i hv |i d

y dado que
A |v i = |v i
se obtiene
Z Z
hAi|i = h| |v i hv |i d = h| A |v i hv |i d
Z 
hAi|i = h| A |v i hv | d |i = h| AI |i = h| A |i

donde hemos usado la relacion de completez para el contnuo Ec. (1.170). Por tanto, se obtiene de nuevo la Ec.
(5.2). Es importante aclarar que hAi|i es un promedio realizado sobre un conjunto de mediciones identicas, y no
debe confundirse con los promedios temporales que se utilizan con frecuencia en fsica para estados que dependen
del tiempo.
Si el ket no esta normalizado, la Ec. (5.2) se debe convertir en
h| A |i
hAi|i =
h |i

5.1.2. Valor esperado para los observables X, P


Para realizar el calculo del valor esperado de un observable debemos recurrir a una representacion especfica.
Calculemos hXi|i usando la representacion {|ri}
Z Z
hXi|i = h| X |i = d r h |ri hr| X |i = d3 r (r) xhr |i
3

Z
hXi|i = d3 r (r) x (r) (5.3)

calculando hP i|i usando la representacion {|pi} se obtiene


Z
hPx i|i = d3 p (p) px (p) (5.4)

si por ejemplo se calcula hP i|i usando la representacion {|ri} se tiene


Z Z  
3 3 ~
hPx i|i = h| Px |i = d r h |ri hr| Px |i = d r (r) x hr |i
i
Z  
~
hPx i|i = d3 r (r) x (r) (5.5)
i
5.1. CONSIDERACIONES ESTADISTICAS 209

5.1.3. Valor esperado para el commutador de dos observables


Es facil ver que el commutador de dos operadores hermticos es antihermtico

[A, B] = (AB BA) = BA AB = [A, B]

esto significa que podemos escribir el commutador entre dos operadores hermticos como

[A, B] = iC ; C = C

siendo C un operador hermtico, los valores propios de iC son puramente imaginarios al igual que su valor esperado
con respecto a cualquier estado |i. Podemos escribir entonces

h[A, B]i = iM

siendo M un numero real. Vemos que si A y B son observables, su commutador no es un observable ya que no es
hermtico.

5.1.4. La desviacion media cuadratica


Si bien el valor medio o esperado hAi nos da el orden de magnitud de los resultados esperados al medir la
cantidad fsica A, es tambien estadsticamente importante conocer la dispersion que presentan los datos cuando
se realizan una gran cantidad de medidas. Asumamos que el espectro de A es contnuo. Si hacemos una grafica de
() vs , el valor esperado hAi sera la abscisa del centro de gravedad del area bajo la curva, notese ademas que
si esta curva no es simetrica alrededor de hAi entonces el valor m para el cual (m ) adquiere su valor maximo,
no necesariamente coincide con hAi. De hecho, puede existir mas de un maximo local.
La grafica de () vs suele ser asintotica, es decir tiende a cero para , pero usualmente no es igual a
cero para ningun real. Esto implica que estrictamente hay en la mayora de los casos una probabilidad diferente
de cero de encontrar cualquier valor real de . Sin embargo, es usual definir un ancho A centrado en hAi en el
cual este la mayor parte del area bajo la curva, es decir existe una probabilidad cercana a la unidad de que la
medida de arroje un valor entre hAi A/2 y hAi + A/2. La cantidad A caracteriza el ancho de la curva de
modo que a menor A, tenemos que los resultados estaran mas concentrados alrededor de hAi, lo cual indica una
menor dispersion de las medidas.
Veremos ahora como encontrar una cantidad que caracterice la dispersion de las medidas. A priori uno podra
pensar en tomar la diferencia entre cada valor i obtenido y hAi, (a esta diferencia la llamamos la desviacion del
dato i ), para luego promediar estas desviaciones. Este metodo sin embargo, no es adecuado ya que el promedio
de las desviaciones es siempre cero tanto en el contnuo como en el discreto
N N
1 X 1 X
D (i ) hAi i ; hD (A)i = D (i ) = [hAi i ]
N N
i=1 i=1
N
X n
X
1 1 1
hD (A)i = N hAi i = hAi nk k = hAi hAi = 0
N N N
i=1 k=1

donde el promedio de A se reescribio multiplicando k por su frecuencia nk (numero de datos con el mismo
resultado) y sumando sobre los datos diferentes (k = 1, .., n). Similarmente en el contnuo
Z 1
1
hD (A)i = hhAi i = hAi () d
1 0 0
hD (A)i = hAi hAi = 0

donde el () d es la frecuencia diferencial en el contnuo (densidad multiplicada por el diferencial de volumen).


La anulacion de la desviacion promedio tiene que ver con la definicion misma de valor promedio o esperado, en el
210 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

cual las desviaciones negativas se compensan con las positivas. Para evitar este fenomeno de cancelacion, podemos
definir las desviaciones cuadraticas en la forma
D E
(A)2 (A hAi)2

y definimos entonces la raz de la desviacion media cuadratica como


rD E
A = (A hAi)2 (5.6)

y usando la expresion para el valor medio o esperado dada por la Ec. (5.2) obtenemos
q
A = h| (A hAi)2 |i

la desviacion media cuadratica se puede reescribir en la forma


D E Dh iE

(A hAi)2 = A2 2A hAi + hAi2 = A2 2 hAi hAi + hAi2
D E

(A hAi)2 = A2 hAi2

y la raz de la desviacion media cuadratica queda


q
A = hA2 i hAi2 (5.7)

por ejemplo para el espectro contnuo de un observable A, A queda en la forma


Z 1
2
(A) = [ hAi]2 () d
0
Z 1 Z 1 2
2 2
(A) = () d () d
0 0

5.2. Observables compatibles


Consideremos dos observables A y B que conmutan

[A, B] = 0

asumiremos por simplicidad que ambos espectros son discretos. El teorema 1.69 nos dice que existe un conjunto
completo de vectores propios comunes a ambos observables, es usual denotar esta base como {|an , bp , ii}, o aun
mas simple como {|n, p, ii}
A |n, p, ii = an |n, p, ii ; B |n, p, ii = bp |n, p, ii
donde el ndice i indica que a cada par de autovalores (an , bp ) le pueden corresponder varios autovectores lineal-
mente independientes. Por tanto, para cada posible valor del par (an , bp ) existe por lo menos un vector |n, p, ii
para el cual la medida de A siempre sera an y la medida de B siempre sera bp . Veamos las implicaciones fsicas
sobre los observables asociados a operadores que conmutan.
Partamos de un estado inicial normalizado dado |i (que en principio es arbitrario). Este estado se puede
escribir como una combinacion lineal de la base {|n, p, ii} comun a A y B:
X
|i = cn ,u,v n , u, v (5.8)
n ,u,v
5.2. OBSERVABLES COMPATIBLES 211

asumamos que primero hacemos una medida del observable A y se obtiene an y que inmediatamente despues (de
modo que en el tiempo transcurrido se pueda despreciar la evolucion temporal del estado) realizamos una medida
de B de la cual obtenemos el valor bp . Calculemos la probabilidad P (an , bp ) de obtener an en la primera medida y
bp en la segunda. Usando el cuarto postulado Ec. (4.4) y la Ec. (5.8), la probabilidad P (an ) de obtener la primera
medida es
2
X
X X
2

P (an ) = n, p , i i =
n, p , i

cn ,u,v n , u, v


p ,i p ,i n ,u,v
2 2
X X


X X

= c
,u,v n, p , i n , u, vi = c ,u,v n,n p u i v
n n
p ,i n ,u,v p ,i n ,u,v
X
P (an ) = cn,p ,i 2 (5.9)
p ,i

pero segun el quinto postulado Ec. (4.10), el sistema luego de esta primera medicion queda preparado en el estado
normalizado |n i definido por
1 X
|n i = qP cn,p ,i n, p , i (5.10)
2
k,m |cn,k,m | p ,i

este sera entonces el estado en el que estara el sistema justo antes de la medicion de B. Recurriendo de nuevo al
cuarto postulado Ec. (4.4) la probabilidad de que habiendo obtenido en la primera medicion el valor an se obtenga
en la segunda medicion el valor bp estara dada por
2

X
2
X
1 X
cn,p ,i n, p , i

Pan (bp ) = n , p, i n i = n , p, i qP 2
n ,i n ,i k,m |cn,k,m | p ,i

P P 2 P P
2
n ,i p ,i cn,p ,i hn , p, i |n, p , i i n ,i p ,i cn,p ,i n n pp ii
= P 2 = P 2
k,m |cn,k,m | k,m |cn,k,m |
P
|cn,p,i |2
Pan (bp ) = P i 2 (5.11)
k,m |cn,k,m |

ahora bien, la probabilidad P (an , bp ) que buscamos corresponde a una composicion de eventos: para que estos
dos eventos de hecho ocurran, debemos primero encontrar an para lo cual hay una probabilidad P (an ) y entonces
habiendo cumplido la primera condicion, debemos encontrar bp para lo cual hay una probabilidad Pan (bp ) por lo
tanto
P (an , bp ) = P (an ) Pan (bp ) (5.12)
sustituyendo (5.9) y (5.11) en (5.12) se obtiene
" #
X P 2
2 |c |
P (an , bp ) = cn,p ,i P i n,p,i
2
p ,i k,m |cn,k,m |
X
P (an , bp ) = |cn,p,i |2 (5.13)
i

y el estado del sistema despues de la segunda medicion de acuerdo con el quinto postulado Ec. (4.10), sera
Pp |n i
|n,p i = p (5.14)
hn | Pp |n i
212 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

evaluemos el numerador y el denominador de esta expresion, usando la Ec. (5.10).



X 1 X
Pp |n i = |l, p, vi hl, p, v| qP cn,p ,i n, p , i
2
l,v k,m |cn,k,m | p ,i
hP P i hP P i
c |l, p, vi hl, p, v| n, p , i i c |l, p, vi
l,v p ,i n,p ,i l,v p ,i n,p ,i ln pp vi
= qP = qP
2 2
k,m |cn,k,m | k,m |cn,k,m |
P
cn,p,i |n, p, i i
Pp |n i = qiP (5.15)
2
k,m |cn,k,m |

P P
X P


cn,p,i |n, p, i i p ,r i cn,p ,r cn,p,i hn, p , r| n, p, i i
hn | Pp |n i = cn,p ,r n, p , r P
i
2 = P
2
p ,r k ,m cn,k ,m k ,m cn,k ,m
P P P P 2
i cn,p ,r cn,p,i nn p p ri i cn,p,i cn,p,i

p ,r i cn,p,i
hn | Pp |n i = P 2 =P 2 = P

cn,k ,m
cn,k ,m
cn,k ,m 2
k ,m k ,m k ,m
qP 2
q
i cn,p,i
hn | Pp |n i = qP 2 (5.16)


cn,k ,m

k ,m

Reemplazando (5.15, 5.16) en (5.14), el estado justo despues de la segunda medida queda finalmente
1 X
|n,p i = qP cn,p,i |n, p, ii (5.17)
2
|c
k n,p,k | i

es facil verificar que |n,p i es un estado propio de A y B con valores propios an y bp


P P P
cn,p,i [A |n, p, ii]
iq cn,p,i [an |n, p, ii]
iq i cn,p,i [|n, p, ii]
A |n,p i = P = P = an q P
2 2 2
k |cn,p,k | k |cn,p,k | k |cn,p,k |
A |n,p i = an |n,p i
y similarmente para B
B |n,p i = bp |n,p i
Por tanto, si midieramos de nuevo A (nuevamente los tiempos deben ser cortos para que el estado no haya
evolucionado significativamente a partir del estado descrito por la Ec. 5.17) la probabilidad de obtener el resultado
an es 1 y no se altera el estado del sistema. Igualmente si medimos B con el sistema en el estado |n,p i la
probabilidad de obtener bp es 1 y el estado permanece inalterado despues de la medicion.
Volvamos ahora al estado inicial |i del sistema y hagamos las mediciones en el orden contrario (primero
B y luego A). Evaluaremos la probabilidad de obtener el valor bp en la primera medida y el valor an en la
segunda medida que denotamos como P (bp , an ), siguiendo los mismos razonamientos del caso anterior vemos que
la probabilidad de obtener bp en la primera medida es
X
P (bp ) = cn ,p,i 2
n ,i

y si el valor bp es obtenido, el estado despues de la medicion sera


1 X
|p i = qP cn ,p,i n , p, i
2
uv |cu,p,v | n ,i
5.2. OBSERVABLES COMPATIBLES 213

y la probabilidad de que partiendo del estado |p i se obtenga el valor an del observable A en la segunda medida
es X
1
Pbp (an ) = P 2 |cn,p,i |2
uv |cu,p,v | i
adicionalmente la probabilidad de que ocurran ambos eventos en este orden sera
P (bp , an ) = P (bp ) Pbp (an )
X
P (bp , an ) = |cn,p,i |2 (5.18)
i

si de hecho encontramos bp en la primera medida y an en la segunda, el estado del sistema despues de la segunda
medida sera X
1
|p,n i = qP cn,p,i |n, p, ii (5.19)
2
k |cn,p,k | i

comparando la Ec. (5.13) con la Ec. (5.18) vemos que la probabilidad de obtener un par especfico de valores
(an , bp ) de los observables A y B respectivamente, es igual sin importar el orden en que se midan (siempre teniendo
en cuenta que la distancia temporal entre dos medidas debe ser pequena para evitar la evolucion del sistema).
Adicionalmente, al comparar (5.17) con (5.19) vemos que el estado despues de la segunda medida tambien es el
mismo en ambos casos. Finalmente, una medida posterior de A o B nos dara con certeza los valores an o bp .
Notese que estos hechos dependen de que podamos encontrar un conjunto completo comun de vectores propios
para ambos observables, para lo cual es necesario y suficiente que ambos observables conmuten (teorema 1.69).
Por esta razon a los observables conmutantes tambien se les denomina observables compatibles.
Podemos resumir las propiedades de los observables compatibles de la siguiente manera: Cuando dos observables
A y B son compatibles, si medimos primero A entonces la medida posterior de B no causa ninguna perdida de
informacion previamente obtenida en la medida de A y viceversa. Por el contrario, la medida de B se adiciona
como informacion a lo que se obtiene en la primera medida. Ademas la realizacion de las dos medidas ejecutadas
en cualquier orden arroja la misma distribucion de probabilidad para cada par accesible de valores propios. Ahora
supongamos que se realizan dos experimentos ambos con el mismo estado inicial, midiendo en el primero la
secuencia A B y en el segundo la secuencia B A, si en ambos experimentos se obtienen los mismos valores
propios, entonces obtendremos el mismo estado final.
Vale decir que si en un experimento particular en el orden A B se obtuvo (an , bp ), no quiere decir que
en otro experimento especfico con las mismas condiciones iniciales y en el orden B A se obtenga (bp , an ), ya
que lo que se igualan son las probabilidades2 . Adicionalmente, tampoco tenemos que llegar al mismo estado final
en ambos experimentos, solo tenemos garantizado que si en ambos experimentos obtenemos los mismos valores
propios, el estado final sera el mismo.
Ahora bien, puesto que no es relevante el orden en que se ejecutan las medidas de A y B podemos considerar
la medicion simultanea de ambos observables. Notese que para observables compatibles se puede hacer una especie
de extension de los postulados cuarto y quinto como se puede apreciar de las Ecs. (5.13, 5.18) y de las Ecs.
(5.17, 5.19). De estas ecuaciones se observa que podemos considerar a la dupla (an , bp ) como un solo resultado
que corresponde a la superposicion de vectores ortonormales |n, p, ii donde i indica la degeneracion asociada al
unico valor propio cnp (an , bp ).
Un aspecto importante cuando se realizan medidas sucesivas de observables compatibles es que la adicion de
informacion que se obtiene luego de cada medida, conduce a una reduccion acumulativa del paquete de ondas
cuando este paquete se define con respecto a kets propios comunes a todos los observables3 . Esto se puede observar
2
Es decir el patron de distribucion de valores propios en ambos casos debe ser el mismo cuando se hace una gran cantidad de
experimentos de cada tipo.
3
Es esencial comprender que la definicion de paquete de ondas en el presente contexto, depende de una base especfica. Por ejemplo, si
el estado de un sistema en un instante dado es |k i donde este es un ket propio de A, entonces el paquete asociado sera monocromatico
si lo referimos a una base de kets propios de A en donde |k i hace parte de la base. No obstante, si el paquete lo definimos eligiendo
una base asociada a kets propios de otro observable B, entonces |k i sera una superposicion policromatica con respecto a dicha base.
214 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

si comparamos al estado |i en la Ec. (5.8) (antes de la medida de A) con el estado |n i en la Ec. (5.10) (posterior
a la medida de A) y luego con el estado |n,p i en la Ec. (5.17) (despues de la medida de A y B). Es decir, que al
medir sucesivamente observables compatibles A1 , A2 , . . . , Am el paquete de onda despues de medir el observable
Ai es un subconjunto propio del paquete justo antes de dicha medicion. En principio, la reduccion del paquete
sera maxima cuando el conjunto de observables compatibles forme un C.S.C.O. volveremos sobre este punto en la
seccion 5.5.

5.3. Observables no compatibles e incertidumbres


Segun el teorema 1.69 si A y B no conmutan, no existe un conjunto completo de vectores propios comunes
a ambos observables4 . Por tanto, los argumentos anteriores no seran validos. Esto se puede ilustrar de manera
sencilla si reemplazamos el espacio de Hilbert E por el espacio vectorial real de dos dimensiones. Supongamos que
|u1 i , |u2 i son autovectores ortonormales del observable A (que definen a los ejes X,Y ) con autovalores a1 y a2 .
Sean |v1 i , |v2 i autovectores ortonormales de B (que definen ejes X Y en general rotados con respecto a XY ),
con valores propios b1 y b2 . Si definimos el angulo de rotacion (en direccion antihoraria) de los ejes X Y con
respecto a los ejes XY tenemos que las bases correspondientes a los autovectores de A y B estan relacionadas por

|v1 i = cos |u1 i + sin |u2 i


   
|v2 i = cos + |u1 i + sin + |u2 i = sin |u1 i + cos |u2 i
2 2
en resumen estas relaciones y sus inversas quedan

|v1 i = cos |u1 i + sin |u2 i ; |v2 i = sin |u1 i + cos |u2 i
|u1 i = cos |v1 i sin |v2 i ; |u2 i = sin |v1 i + cos |v2 i

ahora pensemos que la condicion inicial esta dada por un vector unitario |i en direccion arbitraria que hace un
angulo con |u1 i. En ambas bases este vector se escribe

|i = cos |u1 i + sin |u2 i ; |i = cos ( ) |v1 i + sin ( ) |v2 i

Primero mediremos A y asumamos que encontramos el valor a1 , el sistema quedara preparado en el estado |u1 i.
Si luego medimos B y encontramos por ejemplo b2 el estado final del sistema sera |v2 i.
(a1 ) (b2 )
|i = |u1 i = |v2 i (5.20)
si por otro lado, realizamos las medidas en el orden opuesto y encontramos los mismos valores propios anteriores
pero en la secuencia b2 a1 el esquema sera
(b2 ) (a1 )
|i = |v2 i = |u1 i (5.21)

el estado final del sistema no es el mismo en ambos casos. Ahora, las probabilidades en ambos casos seran

P (a1 , b2 ) = P (a1 ) Pa1 (b2 ) = |h| u1 i|2 |hu1 | v2 i|2


P (b2 , a1 ) = P (b2 ) Pb2 (a1 ) = |h| v2 i|2 |hv2 | u1 i|2

cada uno de estos productos internos da

h| u1 i = cos ; h| v2 i = sin ( ) ; hu1 | v2 i = hv2 | u1 i = sin


4
Esto no significa que no puedan existir vectores propios comunes a ambos. Pero si estos existen, no seran suficientes para conformar
una base.
5.4. DESVIACION MEDIA CUADRATICA Y PRINCIPIO DE INCERTIDUMBRE 215

por lo tanto
P (a1 , b2 ) = cos2 sin2 ; P (b2 , a1 ) = sin2 ( ) sin2
con lo cual se observa que
P (b2 , a1 ) 6= P (a1 , b2 )
esto significa entonces que dos observables no compatibles no se pueden medir simultaneamente5 . Se puede ver
de las Ecs. (5.20, 5.21) que la segunda medida genera la perdida de la informacion suministrada por la primera.
Si por ejemplo despues de la secuencia A B representada por (5.20) medimos de nuevo A, no podemos tener
certeza del resultado ya que |v2 i no es autovector de A. Toda la informacion que se gano en la primera medida
de A se ha perdido al ejecutar la posterior medicion de B.
Es claro de los postulados que si definimos un paquete de ondas con respecto a una base generada por A
entonces la medida de A conduce a una reduccion de este paquete, algo similar ocurre con el observable B. Sin
embargo, no podemos construr una base fija en donde el paquete se reduzca acumulativamente con respecto a dicha
base cuando se miden sucesivamente A y B. Esto se debe a la ausencia de una base comun, que en terminos mas
fsicos implicara la posibilidad de adicionar informacion en cada medida con respecto a la informacion obtenida
en la medida anterior.

5.4. La desviacion media cuadratica y el principio de incertidumbre para


observables arbitrarios (opcional)
Supongamos que tenemos dos observables A y B arbitrarios, siguiendo los argumentos de la seccion 5.1.3,
definiremos el valor esperado de su conmutador en la forma

iM h[A, B]i (5.22)

donde M es un numero real. Asumamos que el sistema fsico esta en el estado |i. Con base en dicho estado,
construiremos un ket |i y su bra asociado h| en la forma

|i = (A + iB) |i ; h| = h| (A iB) (5.23)

siendo una variable real arbitraria. Estudiaremos las predicciones para el producto de las incertidumbres A, B
donde las incertidumbres se definiran a traves de la raz de la desviacion media cuadratica de cada observable.
La norma al cuadrado de |i se escribe como

h| i = h| (A iB) (A + iB) |i = h| A2 + iAB iBA + 2 B 2 |i





h| i = A2 + i hAB BAi + 2 B 2 = 2 B 2 + i h[A, B]i + A2



h| i = 2 B 2 M + A2 0 (5.24)

donde hemos usado la Ec. (5.22). Ahora bien, por definicion la norma al cuadrado de |i es no negativa para todo
valor de . Por tanto, el polinomio cuadratico en definido por la ecuacion (5.24) debe ser no negativo para todo
, esto solo es posible si tal polinomio no posee races reales en o a lo mas las races reales deben ser degeneradas
y corresponder a un mnimo local (en cuyo caso la norma de |i es cero para un valor dado de , y positiva para
los otros valores). Esto implica que como ecuacion cuadratica para , el discriminante deber ser negativo o cero



M 2 4 A2 B 2 0 (5.25)

2
2 M 2
A B (5.26)
4
5
Supongamos que medimos un observable A en el tiempo t y otro observable B en el tiempo t + t. La medicion simultanea se
puede definir consistentemente solo si los lmites laterales t 0+ (donde se mide en el orden A B) y t 0 (donde se mide
en el orden B A) conducen a las mismas predicciones en terminos de distribucion de probabilidad, y estados. Por esta razon solo se
puede definir adecuadamente la medicion simultanea de observables compatibles.
216 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

recordando que |i describe el estado del sistema, introducimos dos nuevos observables A , B definidos por

A = A hAi I = A h| A |i (5.27)

B = B hBi I = B h| B |i (5.28)

donde hAi y hBi son numeros reales e I es el operador identidad. Es claro que las relaciones de conmutacion de
A , B coinciden con las de A y B
 
A , B = [A, B] = iM (5.29)
con lo cual el resultado (5.26) tambien es valido para A y B



M2
A2
B 2
4
D ED E M2
(A hAi)2 (B hBi)2
4
y teniendo en cuenta la definicion de la raz de la deviacion media cuadratica Ec. (5.6), tenemos que

M2
(A)2 (B)2
4
|M |
(A) (B)
2
y recordando la definicion (5.22) resulta

|h[A, B]i|
(A) (B) (5.30)
2
Si definimos la incertidumbre en los observables como la raz de la desviacion media cuadratica de su distri-
bucion, esto se puede considerar como una extension del principio de incertidumbre. Notese que en este caso el
lmite inferior esta muy bien definido, precisamente porque hemos definido de manera muy clara el ancho de la
distribucion por medio de la raz de la desviacion media cuadratica.
Vale decir ademas que solo tendremos un lmite inferior no nulo, cuando los observables NO son compatibles
(no conmutantes). Para los observables compatibles no hay un principio de incertidumbre, lo que permite sin
ambiguedad su medicion simultanea y la no destruccion de la informacion por efecto de mediciones adicionales.
Un caso especial muy importante es el de dos variable conjugadas. Se dice que dos observables Q, P son
conjugados si
[Q, P ] = i~
esta es una extrapolacion natural del concepto de variables canonicamente conjugadas en mecanica clasica, que
cumplen propiedades similares pero con los corchetes de Poisson en lugar de los conmutadores. Para observables
conjugados, la expresion (5.30) queda en la forma

Q P ~/2

A su vez, un caso especial de variables conjugadas son los pares de posicion y momento (X, Px ), (Y, Py ) y
(Z, Pz ). Se obtiene entonces

X Px ~/2 ; Y Py ~/2 ; Z Pz ~/2

que son las relaciones de incertidumbre de Heisenberg (2.73), pero con lmites inferiores precisos, lo cual surge de
haber definido de manera precisa las incertidumbres.
5.4. DESVIACION MEDIA CUADRATICA Y PRINCIPIO DE INCERTIDUMBRE 217

5.4.1. Paquetes de mnima incertidumbre


Es natural preguntarse por las condiciones que se requieren para obtener un paquete de mnima incertidumbre.
Es decir, bajo que condiciones obtenemos la igualdad en la Ec. (5.30). Esto implica imponer la igualdad en las
desigualdades (5.24-5.30). En particular, esto implica que el polinomio cuadratico en definido por la ecuacion
(5.24) sea nulo y corresponda a un mnimo local para algun valor 0 (raz real degenerada), esto conlleva a la
nulidad de la norma de |i. Lo anterior se obtiene con la anulacion del discriminante Ec. (5.25)


2
2 M 2
M2
A B = A2 = (5.31)
4 4 hB 2 i

usando la Ec. (5.31), llegamos a una solucion unica 0 para la cuadratica (5.24)


M 2 A2
0 = = (5.32)
2 hB 2 i M

Redefiniendo los observables a traves de las Ecs. (5.27, 5.28) y teniendo en cuenta la invarianza del conmutador
Ec. (5.29) vemos que los resultados obtenidos para A y B son tambien validos para A y B (ya que todos ellos
dependen solo de la relacion de conmutacion Ec. 5.22). Por tanto para el ket


= A + iB |i ; = h| A iB

podemos hacer el mismo procedimiento que se realizo para el ket |i de la Ec. (5.23), y llegar a que la norma de
| i es nula cuando = 0 . Pero la norma es cero si y solo si el ket es nulo, por lo tanto

A + iB |i = 0
[A hAi + i0 (B hBi)] |i = 0 (5.33)

as mismo las Ecs. (5.31, 5.32) son aplicables tambien para A , B con lo cual



2
M2 M 2 A2
A = ; 0 = = (5.34)
4 hB 2 i 2 hB 2 i M

y teniendo en cuenta que



D E
D E
A2 (A hAi)2 (A)2 ; B 2 (B hBi)2 (B)2

las Ecs. (5.34) quedan finalmente

M2 M 2 (A)2
(A)2 = ; 0 = = (5.35)
4 (B)2 2 (B)2 M

la Ec. (5.33) junto con las ligaduras (5.35) nos dictaminan la condicion para obtener paquetes de mnima incerti-
dumbre. Su solucion explcita debe realizarse en una base especfica y depende de la naturaleza de los operadores
A y B.
Un caso particular de interes surge para variables conjugadas para lo cual definimos A Q, B P y M ~.
La Ec. (5.33) y las ligaduras (5.35) quedan en la forma

~2 ~ 2 (Q)2
[Q hQi + i0 (P hP i)] |i = 0 ; (Q)2 = ; 0 = = (5.36)
4 (P )2 2 (P )2 ~
218 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

usando la representacion {|qi} y el hecho de que en esta representacion P actua como (~/i)d/dq (ver Ec. 1.214,
Pag. 106) se obtiene6
  
~ d
hq| [Q hQi + i0 (P hP i)] |i = 0 q hQi + i0 hP i hq |i = 0
i dq
 
d
q + ~0 hQi i0 hP i (q) = 0 (5.37)
dq
para resolver la ecuacion diferencial (5.37) es conveniente introducir la funcion h (q) definida por
(q) = eihP iq/~ h (q hQi) (5.38)
insertando la Ec. (5.38) en la Ec. (5.37) resulta
 h i
d
q + ~0 hQi i0 hP i eihP iq/~ h (q hQi) = 0
dq
d h ihP iq/~ i
[q hQi i0 hP i] eihP iq/~ h (q hQi) + ~0 e h (q hQi) = 0
dq
i hP i d
[q hQi i0 hP i] eihP iq/~ h (q hQi) + ~0 h (q hQi) eihP iq/~ + ~0 eihP iq/~ h (q hQi) = 0
~ dq
d
[q hQi] h (q hQi) + ~0 h (q hQi) = 0
dq
sustituyendo
q = q hQi (5.39)
queda  
d 
q + ~0 h q = 0

(5.40)
dq
cuya solucion es
 q
2

h q = Ce 20 ~ (5.41)
siendo C una constante de normalizacion que elegiremos como positiva. Reemplazando las Ecs. (5.36, 5.39) en la
solucion (5.41), tenemos
h i
(qhQi)2 (qhQi) 2

h (q hQi) = Ce 4(Q)2 = Ce 2(Q)
(5.42)
finalmente reemplazando (5.42) en (5.38) y normalizando (con constante positiva) resulta
h i
(qhQi) 2
1
(q) = q eihP iq/~ e 2(Q)
(5.43)
4 2
2 (Q)
para encontrar el paquete de onda recproco, es decir en la base {|pi}, podemos proceder de manera analoga al
desarrollo anterior, o haciendo la transformada de Fourier de la Ec. (5.43). En tal caso se encuentra la funcion de
onda recproca (p) definida por
h i
(qhP i) 2
1 ~i hQip
(p) = q e e 2(P )
(5.44)
4
2 (P )2
En la Sec. 2.14.3, pag. 151, habamos demostrado que los paquetes gaussianos son de mnima incertidumbre
para un par de observables conjugados. En la presente seccion hemos demostrado el recproco: para dos observables
conjugados Q y P , hemos demostrado que si Q P es exactamente ~/2, la funcion de onda asociada con este
estado en la representacion |qi es un paquete gaussiano as como la representacion de la funcion de onda en la
base |pi.
6
Debe tenerse en cuenta que la Ec. (1.214) fue demostrada para cualquier par de observables conjugados y no solo para posiciones
y momentos.
5.5. PREPARACION DE UN ESTADO 219

5.5. Preparacion de un estado


Consideremos un sistema fsico en el estado |i dado por
gn
XX
|i = cik uik
k i=1

siendo uik autoestados del observable A. Asumiremos que todos los observables tienen espectro discreto. Si
medimos el observable A y el valor obtenido an es no degenerado, el autovector normalizado |un i en que se prepara
el sistema es fsicamente unico, por tanto conocemos perfectamente el estado despues de la medida, y ademas dicho
estado es independiente de |i (el estado justo antes de la medida).
Sin embargo, si el autovalor an es degenerado, el estado inmediatamente despues de la medida sera
gn
X
Pn |i 1
n = = qP cin uin
h| Pn |i gn m 2
m=1 |cn | i=1

tanto los valores absolutos de los coeficientes cin como sus fases son relevantes. Y puesto que este estado es
la proyeccion |n i (normalizada) del vector |i sobre el autosubespacio En tendremos que el autoestado final
depende de |i y por lo tanto tambien los coeficientes cin siempre que En sea de mas de una dimension (si En es
de una sola dimension, solo hay un vector normalizado fsicamente relevante).
Ahora bien, dado que vimos que la medicion de otro observable B compatible con A adiciona informacion
sobre el estado, y se puede medir simultaneamente con A, vemos que si el resultado (an , bp ) de las dos medidas
corresponde a un unico autovector |an , bp i |n, pi comun a A y B no tendremos suma sobre i en (5.17) y resulta
cnp
|np i = |n, pi = ei |n, pi
|cnp |

que es fsicamente equivalente a |n, pi. En otras palabras, el autoespacio Enp de autovectores comunes a A y B
con valores propios an y bp es de una dimension y por tanto define fsicamente un unico vector normalizado. Por
tanto, la especificacion de estos dos valores determina el estado final de manera unica e independiente de |i.
Podra ocurrir sin embargo que existan varios vectores |n, p, ii linealmente independientes que conduzcan al
mismo par (an , bp ) de valores propios de A y B, es decir el espacio Enp no es unidimensional y para determinar la
proyeccion de |i sobre Enp se requiere conocer a |i. En este caso podemos ganar mas informacion introduciendo
un tercer observable C compatible con los otros dos y medir su valor propio cq . El proceso debe continuar hasta
que se remueva completamente la degeneracion es decir cuando el autoespacio Enpq... sea unidimensional, en cuyo
caso el estado |npq . . .i es fsicamente unico.
Por otro lado, es posible que la medicion de cierto conjunto de autovalores especficos sea suficiente para
determinar el estado de manera unica, pero cuando el mismo sistema me arroja otros valores propios las medidas
podran resultar insuficientes. Por ejemplo, si medimos el observable A y se obtiene el valor no degenerado a1 , el
estado estara totalmente determinado. Pero si la medida nos arroja el valor a2 (degenerado), necesitaremos medir
otro observable compatible para determinar el estado.
La idea por supuesto es determinar un conjunto de observables A1 , A2 , . . . , Am ; que determine de manera
unica el estado despues de la medida (independiente de |i) sin importar los valores experimentales obtenidos.
Para ello es necesario que todos los autoespacios de la forma En1 ,n2 ,...,nm sean unidimensionales. En otras pala-
bras, el conjunto completo de autovectores {|n1 , n2 , . . . , nm i} comun a los observables A1 , A2 , . . . , Am no debe
presentar degeneracion para ningun conjunto posible de medidas (an1 , . . . , anm ). Esto indica entonces que el con-
junto {A1 , A2 , . . . , Am } forma un C.S.C.O. (ver seccion 1.23). Adicionalmente, es natural pensar que el conjunto
{A1 , A2 , . . . , Am } sea minimal en el sentido de que al remover un observable del conjunto el sistema ya no sea un
C.S.C.O. Usualmente se asume que un C.S.C.O. dado es minimal a menos que se indique lo contrario.
220 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

Los metodos para preparar un sistema cuantico en un estado bien definido son similares en principio a los que
se usan para polarizar luz. Cuando se coloca un polarizador en el camino de un haz de luz, la luz que sale esta
polarizada en una direccion especfica caracterstica del polarizador, e independiente del estado de polarizacion de
la luz incidente. Similarmente se pueden construr dispositivos para preparar un sistema cuantico de manera que
solo permitan el paso de un estado correspondiente a un autovalor especfico. Si queremos preparar completamente
el estado, sera necesario usar m dispositivos que midan a los observables A1 , .., Am que solo permitan el paso de
un conjunto especfico de autovalores (an1 , ..., anm ).
Es claro que puede haber infinidad de C.S.C.O, si cambiamos el conjunto completo de observables compatibles,
obtendremos otros estados del sistema. Para entender mejor esto, recordemos que los autoestados estan definidos
no solo por el sistema a estudiar sino tambien por los aparatos de medicion (ver seccion 2.9, pag 135).

5.6. Propiedades adicionales de la ecuacion de Schrodinger


Hemos establecido formalmente en el sexto postulado, que la ecuacion de Schrodinger es la ecuacion de evolucion
de los estados de sistemas cuanticos no relativistas. Veremos algunas propiedades adicionales de esta ecuacion (ver
seccion 3.3)

5.6.1. Aspectos adicionales sobre la conservacion de la probabilidad (opcional)


Hemos visto que la norma de los estados permanece invariante en el tiempo cuando la ecuacion de Schrodinger
es la ecuacion de evolucion, lo cual es esencial para la conservacion de la probabilidad. Adicionalmente para una
partcula sometida a un potencial que solo depende de la posicion V (r, t) cuyo Hamiltoniano es

P2
H= + V (R, t)
2m
podemos encontrar una ecuacion de continuidad que nos expresa la conservacion local de la probabilidad en la
forma

+ J = 0 ; = | (r, t)|2 (5.45)
t   
~ 1 ~
J [ ] = Re (5.46)
2mi m i
siendo , J la densidad y corriente de probabilidad respectivamente. Escribamos J en la forma
           
1 ~ ~ 1 ~ ~
J =
2m i i 2m i i
     
1 ~ ~
= h| ri hr| i + hr| i hr| i
2m i i
1 1
J = [h| ri hr| P |i + hr| i hr| P |i ] = [h| ri hr| P |i + h| P |ri hr| i]
2m 2m
1
J = {h| [|ri hr| P + P |ri hr|] |i}
2m
donde hemos usado la Ec. (1.191). Finalmente
 
1 P P
J = [h| K (r) |i] ; K (r) |ri hr| + |ri hr| (5.47)
2 m m
para la densidad de corriente es mas facil ver que

= [h| [|ri hr|] |i] = h| (r) |i ; (r) |ri hr| (5.48)


5.7. EVOLUCION TEMPORAL DEL VALOR ESPERADO DE UN OBSERVABLE 221

si comparamos las Ecs. (5.47, 5.48) con la Ec. (5.2), vemos que la densidad de probabilidad y la densidad de
corriente de probabilidad J, se pueden ver como el valor esperado de los operadores K (r) y (r) respectivamente.
Ahora bien, en coordenadas cartesianas los momentos canonicos son los momentos lineales (cuando el potencial
no depende de la velocidad). Por tanto, P/m se puede considerar el operador velocidad V. En consecuencia, el
operador densidad de corriente K (r) esta relacionado con el operador densidad (r) en la forma
1
K (r) {V + V}
2
que corresponde a la cuantizacion de la relacion J =v, pero adecuadamente simetrizada.
Si la partcula se coloca en un campo electromagnetico descrito por los potenciales (r, t) y A (r, t) , el Ha-
miltoniano asociado es (ver Ec. 4.12)

[P qA (R, t)]2
H= + V (R, t) ; V (R, t) q (R, t) + V (R) (5.49)
2m
donde V (R) es un potencial escalar que describe una interaccion adicional a la del campo electromagnetico sobre
la partcula. Con un procedimiento similar al de la seccion 3.3.4, la densidad de corriente resultante es
   
1 ~
JEM = Re qA (5.50)
m i

que tambien se puede obtener de la corriente (5.46) simplemente reemplazando P P qA, o equivalentemente
~ ~
i i qA (R, t).
Un ejemplo sencillo para el calculo de y J es la onda plana. Sea un estado (no estrictamente fsico) descrito
por una onda plana
(r, t) = Aei(krt)
la densidad de probabilidad es claramente
= = |A|2
que es uniforme y constante. El calculo de J (r, t) es inmediato
     
1 ~ 1 i(krt) ~A i(krt)
J = Re = Re A e e
m i m i
   n o
1 i(krt) ~A 1
J = Re A e ikei(krt)
= Re ~ |A|2 k
m i m
~k
J = |A|2 (5.51)
m
y recordando que vg = ~k/m es la velocidad de grupo asociada al momento ~k (seccion 2.13 Ec. 2.84). Vemos
que esta corriente tambien es analoga a la relacion clasica J = v. La corriente generada por una onda plana es
estacionaria (independiente del tiempo) y ademas es uniforme y homogenea.

5.7. Evolucion temporal del valor esperado de un observable y su relacion


con la mecanica clasica
Si A es un observable, su valor esperado cuando el sistema esta en el estado | (t)i se escribe como

hAi (t) = h (t)| A | (t)i

Vale decir que el valor medio o esperado solo depende de t ya que por ejemplo si usamos la representacion de
{|ri} este valor esperado corresponde a una integral sobre todo el espacio para un tiempo fijo. En contraste, el
222 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

observable clasico A (r, p, t) asume un valor para ciertas posiciones y momentos especficos en un tiempo dado (ya
que las partculas estan localizadas y sus momentos se pueden medir simultaneamente junto con las posiciones).
Para estos observables clasicos, la dependencia con el tiempo puede ser tanto explcita como implcita, es decir a
traves de r (t) y p (t).
Cuando cuantizamos el observable asignamos a la cantidad clasica A (r, p, t) el operador hermtico A
A (R, P, t). Observese que ni los autoestados ni los autovalores de los operadores R y P dependen del tiem-
po, por tanto los observables cuanticos R y P no pueden dar cuenta de una dependencia implcita con el tiempo.
En conclusion, los observables cuanticos solo dependen del tiempo de manera explcita. En cuanto al valor esperado
del observable, la variacion temporal de hAi se debe tanto a la variacion temporal del estado | (t)i (dictaminada
por la ecuacion de Schrodinger), como a la variacion temporal del observable mismo A (t). Si usamos por ejemplo
la representacion de coordenadas, el valor esperado de A queda
Z Z  
3 3 ~
hAi = h (t)| A (R, P, t) | (t)i = d r h (t)| ri hr| A (R, P, t) | (t)i = d r (r, t) A r, , t (r, t)
i

de lo cual es claro que esta cantidad solo depende del tiempo, ya que esta integrada sobre las variables espaciales.
Vamos a estudiar la variacion temporal del valor esperado de un observable arbitrario y a relacionarla con la
variacion temporal clasica. Derivando el valor esperado con respecto al tiempo resulta
     
d d A d
h (t)| A | (t)i = h (t)| A | (t)i + h (t)| | (t)i + h (t)| A | (t)i
dt dt t dt

donde hemos usado que dA/dt = A/t ya que un observable cuantico solo puede depender del tiempo de manera
explcita. Usando las Ecs. (3.25, 3.26) tenemos
     
d 1 A 1
h (t)| A | (t)i = h (t)| H (t) A | (t)i + h (t)| | (t)i + h (t)| A H (t) | (t)i
dt i~ t i~
 
d 1 A
h (t)| A | (t)i = h (t)| [AH HA] | (t)i + h (t)| | (t)i
dt i~ t

quedando finalmente  
d 1 A
hAi = h[A, H]i + (5.52)
dt i~ t
vale recordar que en el formalismo clasico Hamiltoniano, un observable Acl que es funcion de las variables del
espacio de fase y del tiempo es decir Acl = Acl (q, p, t), posee una evolucion temporal dada por

dAcl Acl
= [Acl , H]pois + (5.53)
dt t
donde en lugar del conmutador, esta el corchete de Poisson entre el observable y el Hamiltoniano. Volviendo al
problema cuantico, veremos que el valor esperado (y no el operador A r, ~i , t ) es el que debe ser comparado
con el correspondiente observable clasico.

5.7.1. Evolucion temporal de los valores esperados de R, P: Teorema de Ehrenfest


Dado que R, P son todos los observables fundamentales para la cuantizacion de una partcula sin espn,
es necesario explorar la evolucion temporal de sus valores esperados. Si bien estos observables no dependen del
tiempo, sus valores esperados s poseen una dependencia temporal proveniente de la evolucion del estado | (t)i.
Asumiendo un Hamiltoniano de la forma
P2
H= + V (R) (5.54)
2m
5.7. EVOLUCION TEMPORAL DEL VALOR ESPERADO DE UN OBSERVABLE 223

asignando A R en la Ec. (5.52) y usando el Hamiltoniano (5.54) tenemos


     
d 1 P2 R 1 P2 1
hRi = R, + V (R) + = R, + h[R, V (R)]i
dt i~ 2m t i~ 2m i~
y usando las propiedades de los conmutadores (1.37-1.42) as como las relaciones canonicas de conmutacion (4.11)
obtenemos    
d 1 1 i~I i~I
hRi = h[R, P] Pi + hP [R, P]i = P + P
dt 2mi~ 2mi~ 2mi~ 2mi~
quedando finalmente
d 1
hRi = hPi
dt m
similarmente el valor esperado para P es
     
d 1 P2 P 1 P2 1
hPi = P, + V (R) + = P, + h[P, V (R)]i
dt i~ 2m t i~ 2m i~
d 1
hPi = h[P, V (R)]i
dt i~
y usando la Ec. (1.141) pag. 77, se obtiene

[P, V (R)] = i~V (R)

se obtienen entonces la relaciones fundamentales


d 1 d
hRi = hPi ; hPi = hV (R)i (5.55)
dt m dt
estas dos ecuaciones se conocen como teorema de Ehrenfest. Muy semejantes a las relaciones asociadas a sus
correspondientes observables clasicos.
En virtud de la similitud con las relaciones clasicas, es natural buscar el lmite clasico a traves del teorema
de Ehrenfest Ecs. (5.55). La funcion de onda (r, t) que describe el estado de una partcula, es en general un
paquete de ondas. hRi representa tres coordenadas hXi i que en general dependen del tiempo. Al punto definido
por hRi (t) en el instante t, lo llamaremos el centro del paquete de onda en tal instante. Notese que si el paquete
es asimetrico el centro del paquete sera en general diferente del punto en donde la amplitud es maxima. Cuando
movemos el parametro tiempo el punto hRi (t) se mueve en el espacio generando la trayectoria del centro del
paquete. Por supuesto, esta trayectoria no se puede asociar a la partcula cuyo estado esta descrito por el paquete
completo que tiene una extension dada7 . Sin embargo, si la extension del paquete de ondas es mucho menor que
todas las demas longitudes involucradas en el problema, podemos aproximar el paquete de ondas por su centro y
la descripcion clasica resultara una buena aproximacion.
La pregunta natural es entonces si el movimiento del centro del paquete de onda obedece las leyes de la
mecanica clasica. La respuesta yace en el teorema de Ehrenfest, la primera de las Ecs. (5.55) nos dice que la
velocidad del centro del paquete es igual al momento promedio del paquete dividido por m. Por tanto la segunda
de las Ecs. (5.55) se puede escribir como
d2 hRi
m = hV (R)i
dt2
por tanto, el centro del paquete seguira una trayectoria clasica solo si la cantidad hV (R)i coincide con la
fuerza clasica en el punto donde se ubica el centro del paquete

Fcl = [V (r)]r=hRi
7
Notese incluso que cada punto en esta trayectoria no necesariamente coincide con el punto de maxima densidad de probabilidad
en cada instante.
224 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

debemos observar sin embargo que hV (R)i es en realidad el valor promedio de la fuerza sobre el paquete
completo, que no necesariamente debe coincidir con su valor en el centro del paquete

hV (R)i =
6 [V (r)]r=hRi (5.56)

lo cual se puede expresar diciendo que el valor medio de una funcion no es en general igual al valor que toma
cuando se evalua en el valor medio de la variable. Esto se puede ver con facilidad tomando un ejemplo especfico,
sea un potencial de la forma
V (x) = xn (5.57)
siendo una constante real y n un entero positivo. La cuantizacion de este potencial nos lleva a

V (X) = X n (5.58)

el lado izquierdo de (5.56) nos da


   
d d

V (X) = (X n ) = n X n1
dx dx

en tanto que el lado derecho de (5.56) es


   
d d  
V (x) = n
(x ) = nxn1 x=hXi = n hXin1
dx x=hXi dx x=hXi



y en general X n1 6= hXin1 . Por ejemplo, para n = 3 se tiene que X 2 6= hXi2 y la diferencia entre ambas es
proporcional a la raz de la desviacion media cuadratica definida en la Ec. (5.7).
Sin embargo, para n = 0 (partcula libre), n = 1 (partcula en un campo de fuerzas uniforme) y n = 2 (partcula
en un potencial parabolico i.e. un oscilador armonico), la igualdad s se cumple y vemos que el centro del paquete
de onda en estos casos obedece las leyes de la mecanica clasica.
Por otra parte, aunque los dos lados de (5.56) no son en general iguales, ocurre que en algunas circunstancias
(escenarios semiclasicos) la diferencia entre ambos es despreciable, esto ocurre cuando el paquete de onda es lo
suficientemente localizado. Para verlo, escribamos el lado izquierdo de (5.56) en la base {|ri}.
Z Z
hV (R)i = d r (r, t) [V (r)] (r, t) = d3 r | (r, t)|2 V (r)
3
(5.59)

asumir el paquete muy localizado equivale a decir que | (r, t)|2 es una distribucion que toma valores no desprecia-
bles solo en cierto dominio cuyas dimensiones son mucho mas pequenas que las distancias sobre las cuales V (r)
vara apreciablemente. Por tanto, en este dominio centrado alrededor de hRi, la cantidad V (r) es practicamente
constante. En tal caso se puede reemplazar V (r) en (5.59) por su valor en r = hRi y se puede sacar de la in-
tegral en (5.59), y teniendo en cuenta que (r, t) esta normalizada, se obtiene que para paquetes suficientemente
localizados tenemos que
hV (R)i = [V (r)]r=hRi (5.60)
es claro en particular que en el lmite macroscopico en el cual las longitudes de onda de De Broglie son mucho
menores que las distancias sobre las cuales los potenciales y sus gradientes varan, los paquetes de onda pueden
ser lo suficientemente localizados para satisfacer la Ec. (5.60) y al mismo tiempo mantener un momento bien
definido. Este ultimo punto es muy importante, ya que no basta con que hRi se comporte de manera semejante
al valor clasico de posicion para llegar a un escenario clasico, pues un paquete muy localizado en hRi implica que
el paquete de onda en el espacio de los momentos puede ser muy disperso, y tendramos que aunque hPi pueda
tener un comportamiento similar al valor clasico, la dispersion de hPi significara una incertidumbre enorme en
su medida lo cual nos aleja del escenario clasico. Por tanto, es necesario que los valores de r y p compatibles
5.8. ECUACION DE SCHRODINGER PARA SISTEMAS CONSERVATIVOS 225

con el principio de incertidumbre sean mucho menores que todas las distancias y momentos involucrados en el
problema, situacion que en general se cumple en los sistemas macroscopicos.
Bajo las condiciones anteriores, el movimiento del paquete de onda es practicamente el de una partcula clasica
de masa m sometida al potencial V (r). Vemos como era de esperarse que la ecuacion de Schrodinger genera las
soluciones clasicas con ciertas condiciones lmite apropiadas que en particular son satisfechas por los sistemas
macroscopicos.

5.8. Soluciones de la ecuacion de Schrodinger para sistemas conservativos


En mecanica clasica, si el Hamiltoniano no depende explcitamente del tiempo, es una constante de movimiento
en virtud de que su derivada total coincide con su derivada parcial. Si ademas el Hamiltoniano coincide con la
energa del sistema entonces la energa total del sistema es constante en el tiempo y hablamos de un sistema
conservativo. Es natural entonces averiguar por las propiedades de un sistema conservativo cuando cuantizamos
un Hamiltoniano que es clasicamente constante de movimiento y que corresponde a la energa del sistema.
Consideremos en primer lugar la ecuacion de valores propios del Hamiltoniano

H |n, i = En |n, i (5.61)

asumiremos por simplicidad un espectro discreto. El ndice denota la degeneracion de los valores propios que
puede corresponder a varios ndices. Tales ndices nos fijaran los autovalores de observables que constituyen un
C.S.C.O. junto con H. Puesto que H no depende explcitamente del tiempo, los autovalores En y autovectores
|n, i tampoco dependeran del tiempo.
Hemos visto para un caso especfico de sistema conservativo (ver seccion 3.2) que la Ec. de Schrodinger se
puede solucionar a partir de este problema de valores propios. En este caso veremos que la Ec. (5.61) tambien
se puede utilizar para resolver la ecuacion de Schrodinger. Teniendo en cuenta que H es observable, podemos
expandir la solucion de la Ec. de Schrodinger en terminos de la base {|n, i}
X
| (t)i = cn, (t) |n, i ; cn, (t) hn, | (t)i (5.62)
n,

notese que toda la dependencia temporal de | (t)i esta contenida en los cn, (t). Aplicando el bra hn, | sobre la
ecuacion de Schrodinger y teniendo en cuenta que este bra no depende del tiempo

d
i~ hn, | (t)i = hn, | H | (t)i (5.63)
dt
y dada la hermiticidad de H el hermtico conjugado de (5.61) es

hn, | H = En hn, | (5.64)

aplicando (5.64) y la segunda Ec. (5.62) en (5.63) se obtiene

d
i~ cn, (t) = En cn, (t)
dt
la cual se puede integrar directamente para obtener

cn, (t) = cn, (t0 ) eiEn (tt0 )/~ (5.65)

por tanto, si H no depende del tiempo podemos encontrar a | (t)i a partir de su valor inicial | (t0 )i en la
siguiente forma
226 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

(a) Expandimos el valor inicial del estado en la base de autoestados de H


XX
| (t0 )i = cn, (t0 ) |n, i ; cn, (t0 ) hn, | (t0 )i (5.66)
n

(b) En virtud de las Ecs. (5.62) y (5.65), multiplicamos cada sumando en la expansion (5.66) por la fase
eiEn (tt0 )/~ , siendo En el autovalor asociado a los autoestados |n, i
XX
| (t)i = cn, (t0 ) eiEn (tt0 )/~ |n, i (5.67)
n

para el caso de espectro contnuo se realiza un procedimiento analogo para obtener


XZ
| (t)i = dE c (E, t0 ) eiE(tt0 )/~ |E, i (5.68)

o si la degeneracion tambien es contnua tenemos


Z Z
| (t)i = d dE c (, E, t0 ) eiE(tt0 )/~ |E, i

notese finalmente que los sumandos en (5.67) poseen fases diferentes para diferentes valores de n. Por tanto, dichas
fases son fsicamente relevantes y producen fenomenos de interferencia.

5.8.1. Estados estacionarios


Un caso especial importante surge cuando el estado inicial del sistema | (t0 )i coincide con un ket propio de
H. En tal caso la expansion (5.66) viene dada por autoestados de H asociados a un solo valor propio
X
| (t0 )i = cn, (t0 ) |n, i (5.69)

y dado que no hay suma sobre n, la Ec. (5.67) para el estado | (t)i queda
X
| (t)i = eiEn (tt0 )/~ cn, (t0 ) |n, i = eiEn (tt0 )/~ | (t0 )i

de modo que el estado inicial y el estado en cualquier tiempo solo difieren en una fase global fsicamente irrelevante.
Por tanto, todas las propiedades fsicas de sistemas que estan inicialmente preparados en un autoestado de H,
permanecen inalteradas en el tiempo. Por esta razon a los estados propios del Hamiltoniano se les denomina
estados estacionarios.
De aqu surge ademas la manifestacion cuantica de la conservacion de la energa para sistemas conservativos.
Si en el tiempo t0 medimos la energa de un sistema conservativo y encontramos el valor En , el sistema queda
preparado luego de la medicion en un autoestado de H dado por (5.69) con valor propio En . A partir de este
momento se puede aplicar la ecuacion de Schrodinger tomando este autoestado de H como estado inicial, pero
dado que dicho estado es estacionario, no se genera fsicamente evolucion temporal y para todo tiempo el estado
continua siendo autoestado de H con energa En . En consecuencia, una segunda medida de la energa del sistema
en cualquier tiempo posterior nos dara el mismo valor de energa En obtenido en la primera medicion.
Finalmente, vale la pena senalar que lo anterior nos conduce a que solo hay evolucion cuando la energa en
el estado inicial no esta bien definida (de manera que hay varias fases de la forma eiEk (tt0 )/~ ). Esto nos llevara
mas adelante a una relacion de incertidumbre entre el tiempo de evolucion y la energa.
5.8. ECUACION DE SCHRODINGER PARA SISTEMAS CONSERVATIVOS 227

5.8.2. Constantes de movimiento


La Ec. (5.52) nos dice que la cantidad hAi sera constante de movimiento si se cumplen las condiciones

A
= 0 ; [A, H] = 0 (5.70)
t

aplicando estas condiciones en (5.52) se obtiene que

d hAi d
= h (t)| A | (t)i = 0 (5.71)
dt dt

para cualquier estado | (t)i del sistema. Es claro que si se cumplen las condiciones (5.70) el valor medio de A
sera constante de movimiento8 . En consecuencia, definiremos por extension que un observable A es constante
de movimiento si cumplen las condiciones (5.70). En palabras, un observable es constante de movimiento si no
depende explcitamente del tiempo y conmuta con el Hamiltoniano. En particular si H no depende del tiempo
(sistemas conservativos), H como tal es constante de movimiento.
Veremos que si A es constante de movimiento hay algunas consecuencias fsicas adicionales. En primer lugar,
puesto que A y H son observables que conmutan, poseen un conjunto comun completo de kets propios

H |n,p, i = En |n,p, i ; A |n,p, i = ap |n,p, i

de nuevo asumimos espectros discretos por simplicidad9 . El ndice fija los valores propios de observables que
forman un C.S.C.O. con H y A. Ahora bien, los kets |n,p, i son autoestados de H y por tanto son estados
estacionarios (siempre que H no dependa del tiempo). En consecuencia, si |n,p, i define el estado inicial del
sistema, permanecera en este estado indefinidamente (excepto por una fase global irrelevante). No obstante, |n,p, i
tambien es ket propio de A. En consecuencia, cuando A es una constante de movimiento y H no depende del tiempo,
existen estados estacionarios |n,p, i del sistema fsico que permanecen para todo tiempo como autoestados de A
con el mismo autovalor ap . Por esta razon a los autovalores de A se les denomina numeros cuanticos buenos.
Es claro que si |n,p, i es el estado inicial, el valor de la energa y de ap seran siempre el mismo sin importar
el tiempo en que se midan, el orden en que se midan (son observables compatibles), o cuantas veces se midan,
ademas hay una certeza total en sus valores (ambas cantidades estan bien definidas y se conservan).
Ahora supongamos que el estado inicial no es del tipo |n,p, i, sino un ket arbitrario | (t0 )i. Veremos que si
el sistema es conservativo, la probabilidad de encontrar un cierto valor ap es independiente del tiempo cuando se
mide la constante de movimiento A. Expandiendo | (t0 )i en la base {|n,p, i} se tiene
XXX
| (t0 )i = cn,p, (t0 ) |n,p, i
n p

y aplicando el procedimiento descrito por las Ecs. (5.66) y (5.67) se obtiene


XXX
| (t)i = cn,p, (t) |n,p, i ; cn,p, (t) = cn,p, (t0 ) eiEn (tt0 )/~
n p

y usando el postulado de descomposicion espectral, la probabilidad P (ap , t) de obtener ap cuando A se mide sobre
8


Si se pide A
t
= h[A, H]i = 0, entonces la Ec. (5.71) solo sera valida para un estado o estados especficos | (t)i. La idea aqu es
estudiar constantes de movimiento inherentes al sistema y no a condiciones iniciales especficas.
9
Si en lugar de la Ec. (5.70) asumimos la condicion mas debil A
t
+ [A, H] = 0, tenemos que A no conmuta en general con H. Por
tanto, aunque tal condicion conduce a la conservacion de hAi Ec. (5.71), no conduce a la existencia de una base comun para A y H de
modo que las consecuencias fsicas adicionales que discutiremos aqu, no son validas para esta condicion mas debil.
228 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

el sistema en el tiempo t (y por tanto en el estado | (t)i) esta dado por


2
X X X

P (ap , t) = |hn,p, | (t)i| = 2 h | c (t)
n,p, n ,p , n ,p ,
n, n,
np
2 2
X X
X X



=
cn ,p , (t) hn,p, n ,p , = cn ,p , (t) n,n p,p ,

n, n p n, n p
XX X X
= |cn,p, (t)|2 = cn,p, (t) cn,p, (t)
n n
XX
iEn (tt0 )/~
P (ap , t) = cn,p, (t0 ) e cn,p, (t0 ) eiEn (tt0 )/~
n

cada fase se anula y se obtiene XX


P (ap , t) = |cn,p, (t0 )|2 = P (ap , t0 )
n
lo cual prueba la independencia con el tiempo de esta distribucion de probabilidad. En particular, si en t0 el sistema
esta en un autoestado de A con autovalor am , de modo que P (ak , t0 ) = km , esta probabilidad no evoluciona en el
tiempo; por lo tanto, para cualquier instante se obtiene la misma medida am , y el estado del sistema en cualquier
tiempo continua siendo autoestado de A con valor propio am .

5.8.3. Frecuencias de Bohr de un sistema y reglas de seleccion


Sea B un observable del sistema que estamos estudiando y que no necesariamente conmuta con H. La evolucion
temporal de hBi esta dada por la Ec. (5.52)
 
d 1 B
hBi = h[B, H]i +
dt i~ t
para un sistema conservativo el estado en cualquier instante vendra dado por (5.67), con lo cual podemos calcular
el valor esperado de B cuando el sistema esta en el estado | (t)i. Para ello necesitamos el bra asociado a (5.67)
el cual viene dado por XX

h (t)| = cn , (t0 ) eiEn (tt0 )/~ n , (5.72)


n

usando (5.67, 5.72) el valor esperado de B resulta


" # " #
XX
XX
h (t)| B | (t)i = cn , (t0 ) eiEn (tt0 )/~ n , B cn, (t0 ) eiEn (tt0 )/~ |n, i
n n
XXXX

hBi|(t)i = cn , (t0 ) cn, (t0 ) n , B |n, i ei(En En )(tt0 )/~ (5.73)
n n

asumiremos
de aqu en adelante que B no depende explcitamente del tiempo, en tal caso los elementos matriciales

n , B |n, i son constantes. De esto y de la Ec. (5.73) se ve que la evolucion temporal de hBi (t) se debe
exclusivamente a las fases, es decir a terminos oscilantes con frecuencias dadas por
1 |En En | |En En |
n ,n = (5.74)
2 ~ h
tales frecuencias son caractersticas del sistema bajo estudio pero son independientes del observable B considerado
y de las condiciones iniciales del sistema (descritas por los coeficientes cn , (t0 ) cn, (t0 ) ), ya que solo dependen
de los valores propios de H.
5.8. ECUACION DE SCHRODINGER PARA SISTEMAS CONSERVATIVOS 229

Las frecuencias n ,n se denominan las frecuencias de Bohr del sistema. Por ejemplo, para un atomo los valores
esperados de todos los parametros atomicos (tales como momentos dipolares electricos y magneticos), oscilan
a las varias frecuencias de Bohr del atomo. Es razonable imaginar que estas frecuencias pueden ser absorbidas
o emitidas por el atomo, lo cual nos permite entender intuitivamente la relacion de Bohr entre las diferentes
frecuencias absorbidas o emitidas y las diferencias en las energas atomicas.
Puede verse de (5.73) que aunque las frecuencias involucradas en la evolucion temporal de
hBi no dependen

de B, los pesos de cada frecuencia
s dependen de B a traves de los elementos matriciales n , B |n, i. En

particular si hay elementos n , B |n, i que sean nulos, las correspondientes frecuencias vn ,n estaran ausentes
de la expansion de hBi (t) sin importar cual sea el estado inicial del sistema. Este es el origen de las reglas de
seleccion que nos indican
las frecuencias que pueden ser emitidas o absorbidas bajo las condiciones dadas. Los
elementos de matriz n , B |n, i nos dicen la importancia de cada frecuencia de Bohr.

De lo anterior vemos que el estudio de las reglas de seleccion proviene del calculo de los elementos no diagonales
n , B |n, i de los diversos observables atomicos (o de cualquier otro sistema cuantico) tales como los dipolos
electricos y magneticos.
Por otro lado, la Ec. (5.73) muestra que el peso completo de cada frecuencia esta dado por el producto
 XX

W n, n = cn , (t0 ) cn, (t0 ) n , B |n, i

y por tanto tambien depende de las condiciones iniciales por medio de cn , (t0 ) cn, (t0 ). Vale la pena anotar


que si bien la nulidad de los elementos n , B |n, i conduce a la ausencia de una frecuencia de Bohr para
cualquier estado inicial del sistema, tambien se puede dar la ausencia de una frecuencia por la nulidad del producto
cn , (t0 ) cn, (t0 ), es decir por ciertas condiciones iniciales especficas. En particular, si el estado inicial es un
estado estacionario de energa Ek la expansion de | (t0 )i solo contiene un valor de n (n = k) y el producto
cn , (t0 ) cn, (t0 ) solo es no nulo para n = n = k, en este caso hBi no depende del tiempo y no hay frecuencias
de Bohr no triviales, notese que esta regla de seleccion se da por condiciones iniciales y se da para cualquier
observable B.
Es interesante ver que de la Ec. (5.73) tambien podemos verificar que el valor esperado de una constante de
movimiento no depende del tiempo. Al ser B constante de movimiento, no depende explcitamente del tiempo con
lo cual la dependencia temporal de hBi recae exclusivamente en las fases que contienen la energa en la Ec. (5.73).
Ahora bien el teorema 1.68 (pag. 58) nos dice que dado que B conmuta con H (por ser constante

de movimiento),
si |n, i y n , corresponden a autovalores diferentes (En 6= En ) entonces el producto n , B |n, i es cero.

Por tanto para una constante de movimiento solo sobreviven los terminos con n = n para los cuales las fases
ei(En En )(tt0 )/~ seran iguales a la unidad y no habra dependencia temporal.

5.8.4. Relacion de incertidumbre entre tiempo y energa para sistemas conservativos


A continuacion veremos que los sistemas conservativos presentan la propiedad de que entre mayor sea la
incertidumbre en la energa, mas rapida es la evolucion temporal. Para ver esto, definimos t como un intervalo
de tiempo caracterstico al final del cual el sistema ha evolucionado de forma apreciable, y E denotara la
incertidumbre en la energa.
Veamos primero el caso en el cual la energa esta completamente definida, esto ocurre cuando el sistema esta
en un autoestado de H, de modo que E = 0. Hemos visto que este estado es estacionario y que por tanto no
evoluciona, podemos considerar entonces que el tiempo para que el sistema evolucione apreciablemente es infinito,
vemos entonces que cuando E = 0 se tiene que t .
Ahora asumamos que el sistema en el estado inicial se encuentra en el estado | (t0 )i que es una superposicion
de solo dos autoestados de H que denotamos por |1 i , |2 i

| (t0 )i = c1 |1 i + c2 |2 i (5.75)
230 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

el estado en cualquier tiempo sera entonces

| (t)i = c1 eE1 (tt0 )/~ |1 i + c2 eE2 (tt0 )/~ |2 i

si medimos la energa encontramos E1 o E2 . En consecuencia, la incertidumbre en la energa es del orden de

E
= |E2 E1 |

ahora consideremos un observable arbitrario B que no conmuta con H. La probabilidad de encontrar en una
medida de B en el tiempo t el valor propio bm (que asumimos no degenerado por simplicidad) asociado con el
autovector |um i nos da

P (bm , t) = |hum | (t)i|2 = hum | (t)i h (t) |um i


n h io
= hum | c1 eE1 (tt0 )/~ |1 i + c2 eE2 (tt0 )/~ |2 i
nh i o
c1 eE1 (tt0 )/~ h1 | + c2 eE2 (tt0 )/~ h2 | |um i

n o
P (bm , t) = c1 eE1 (tt0 )/~ hum | 1 i + c2 eE2 (tt0 )/~ hum | 2 i
n o
c1 eE1 (tt0 )/~ h1 | um i + c2 eE2 (tt0 )/~ h2 | um i
= c1 c1 hum | 1 i h1 | um i + c2 c2 hum | 2 i h2 | um i
+c1 c2 eE1 (tt0 )/~ eE2 (tt0 )/~ hum | 1 i h2 | um i + c2 c1 eE2 (tt0 )/~ eE1 (tt0 )/~ hum | 2 i h1 | um i

P (bm , t) = |c1 |2 |hum | 1 i|2 + |c2 |2 |hum | 2 i|2 + c1 c2 e(E2 E1 )(tt0 )/~ hum | 1 i h2 | um i
h i
+ c1 c2 e(E2 E1 )(tt0 )/~ hum | 1 i h2 | um i
n o
P (bm , t) = |c1 |2 |hum | 1 i|2 + |c2 |2 |hum | 2 i|2 + 2Re c1 c2 e(E2 E1 )(tt0 )/~ hum | 1 i h2 | um i (5.76)

notese que la interferencia esta dada por la diferencia entre las dos fases. Esta ecuacion muestra que la probabilidad
oscila entre dos valores extremos, con una frecuencia de Bohr dada por

|E2 E1 |
v21 =
h
vale la pena mencionar que el valor de esta frecuencia de Bohr no dependio del observable, sino de los valores
propios del Hamiltoniano. Sin embargo, la Ec. (5.76) nos muestra que el peso con el cual contribuye tal frecuencia
depende de las condiciones iniciales descritas por la Ec. (5.75), y del observable mismo a traves de |um i que es el
vector propio de B asociado al valor propio bm , al cual se le esta calculado la probabilidad. El tiempo caracterstico
de evolucion sera entonces un periodo de oscilacion de la probabilidad
1 h h
t
= =
=
21 |E2 E1 | E

con lo cual se obtiene la relacion


t E
=h (5.77)
Asumamos ahora que el espectro de H es contnuo y no degenerado. El estado inicial | (t0 )i se puede escribir
como Z
| (t0 )i = dE c (E) |E i
5.8. ECUACION DE SCHRODINGER PARA SISTEMAS CONSERVATIVOS 231

siendo |E i el ket propio de H con autovalor E. Asumamos que en una grafica de |c (E)|2 (densidad de probabilidad
para E) vs. E, la densidad de probabilidad solo es apreciable en un intervalo [E0 E/2, E0 + E/2]. La
cantidad E representa entonces la incertidumbre en la energa del sistema (que depende del algoritmo para
elegir el ancho). El estado en un tiempo t se obtiene de (5.68)
Z
| (t)i = dE c (E) eiE(tt0 )/~ |E i

la probabilidad de obtener bm cuando se mide el observable B (de espectro discreto) en el estado | (t)i es
Z 2

2
P (bm , t) = |hum | (t)i| = dE c (E) e iE(tt0 )/~
hum |E i
Z 2
E0 +E/2
iE(tt )/~
P (bm , t) = dE c (E) e 0
hum |E i (5.78)
E0 E/2

en general hum |E i no vara en forma rapida con E cuando E vara alrededor de E0 . Si E es lo suficientemente
pequeno, la variacion de hum |E i en la integral (5.78) se puede despreciar con respecto a la variacion de c (E).
Con lo cual la integral (5.78) se puede aproximar a
Z 2
E0 +E/2

P (bm , t) 2
= |hum |E0 i| dE c (E) eiE(tt0 )/~
E0 E/2

cuando esta aproximacion es valida vemos que P (bm , t) es proporcional al cuadrado del modulo de la transformada
de Fourier de c (E). Aplicando la propiedad de incertidumbre para la transformada de Fourier, vemos que el ancho
en t de P (bm , t), es decir t esta relacionado con el ancho E de |c (E)|2 por medio de la relacion
E t & h
usualmente conocida como la cuarta relacion de incertidumbre de Heisenberg. Sin embargo, esta relacion es
diferente a la mostrada por las componentes de R y P ya que el tiempo es un parametro para el cual no existe
un operador cuantico asociado, y las variables H y t no son canonicamente conjugadas. Adicionalmente, t no es
en realidad una incertidumbre en la medida del tiempo, sino un tiempo que caracteriza la rapidez con que el
sistema fsico evoluciona.
A priori podra pensarse que la presencia de incertidumbre en la energa para un sistema conservativo, entra
en conflicto con la conservacion de la energa. Debemos observar sin embargo, que el concepto de conservacion
(o no conservacion) de una cantidad fsica involucra la comparacion entre dos o mas medidas de dicha cantidad.
Si el estado inicial no es estacionario, entonces hay una incertidumbre en la energa, tal incertidumbre persiste y
puede evolucionar en el tiempo mientras no se realice una medida. No obstante, cuando se realiza una medida de
la energa, el sistema queda preparado en un estado estacionario con energa bien definida En , y ya se discutio que
toda medida posterior de la energa dara el mismo valor En con toda certeza. Lo mismo ocurrira con cualquier
cantidad posterior de medidas de este observable. Tenemos entonces un principio de conservacion puesto que el
experimento revela que para un sistema conservativo, las medidas de esta cantidad fsica en diferentes tiempos
coinciden siempre. Similar discusion se puede dar para la conservacion del momento u otra cantidad fsica.

5.8.5. Cuarta relacion de incertidumbre para un paquete de onda unidimensional


Veamos el caso de un paquete de ondas unidimensional. A la incertidumbre p en el momento del paquete le
podemos asociar una incertidumbre en la energa de la forma
dE
E = p ; E = ~ ; p = ~k
dp
d
E = p = vg p (5.79)
dk
232 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

por otra parte, es razonable definir el tiempo caracterstico de evolucion t de un paquete de ondas viajeras
unidimensional como el tiempo que le toma a este paquete de onda viajando a la velocidad vg para pasar un
punto fijo en el espacio, es decir para que haya recorrido una longitud igual a su extension espacial x. Por tanto
x
t
= (5.80)
vg

y combinando las Ecs. (5.79, 5.80) resulta

E t
= x p & ~

5.9. Consecuencias fsicas del principio de superposicion


El primer postulado nos dice que los estados accesibles de un sistema cuantico forman un espacio vectorial
completo, lo cual implica que la superposicion lineal (incluso infinita) de estados fsicamente realizables tambien
nos da un estado fsicamente realizable. Veremos las consecuencias fsicas de este primer postulado.
Hemos mencionado ya los efectos de interferencia que surgen de este primer postulado cuando se combina con
los demas, estos fueron especialmente importantes en la explicacion de la dualidad onda partcula. Vimos ademas
que la interferencia se da entre las amplitudes de probabilidad por lo cual debemos examinar tales amplitudes en
forma detallada

5.9.1. Diferencia entre superposicion lineal y mezcla estadstica


Sean |1 i y |2 i dos estados normalizados ortogonales

h1 |1 i = h2 |2 i = 1 ; h1 |2 i = 0

estos estados podran ser por ejemplo estados propios de un observable B asociados a valores propios diferentes
b1 y b2 . Si el sistema esta en el estado |1 i podemos calcular todas las probabilidades concernientes a resultados
de medidas de un cierto observable A. Si asumimos por ejemplo que el autovalor an de A es no degenerado y
denotamos |un i a su autovector asociado normalizado, la probabilidad de encontrar el valor an cuando se mide A
sobre el sistema estando este en el estado |1 i esta dado por

P1 (an ) = |hun |1 i|2 (5.81)

analogamente podemos medir esta probabilidad cuando el sistema esta en el estado |2 i

P2 (an ) = |hun |2 i|2 (5.82)

ahora consideremos un estado normalizado |i que se construye como superposicion de los estados |1 i y |2 i

|i = c1 |1 i + c2 |2 i ; |c1 |2 + |c2 |2 = 1 (5.83)

este vector estara normalizado si |1 i y |2 i lo estan. Puesto que |1 i y |2 i son autovectores del observable
B correspondientes a valores propios diferentes b1 y b2 , la probabilidad de medir b1 es |c1 |2 y la de medir b2 es
|c2 |2 . Con frecuencia se dice que cuando el sistema esta en el estado |i descrito por (5.83), entonces |c1 |2 es la
probabilidad de encontrar al sistema en el estado |1 i y |c2 |2 es la probabilidad de encontrarlo en el estado |2 i,
debe decirse sin embargo que esto solo es cierto si se ejecuta una medida del observable B, ya que si se mide
cualquier otro observable C en general |1 i y |2 i no seran autoestados de C y por tanto luego de la medida el
sistema no quedara en ninguno de estos estados. En este caso se tendra que expandir a |i en autoestados de C
(esto es posible dado que es un observable), y obtener los respectivos coeficientes. Esto nos muestra una vez mas
que el aparato de medida y la medida misma juegan un papel muy importante en los postulados.
5.9. CONSECUENCIAS FISICAS DEL PRINCIPIO DE SUPERPOSICION 233

Volviendo a la distribucion de probabilidades para b1 y b2 , lo anterior podra sugerir erroneamente que N


sistemas identicos cada uno en el estado |i descrito por (5.83), equivalen a otro conjunto compuesto por N |c1 |2
sistemas identicos cada uno en el estado |1 i, junto con N |c2 |2 sistemas identicos cada uno en el estado |2 i. A
esto ultimo se le denomina una mezcla estadstica de los estados |1 i y |2 i con pesos |c1 |2 y |c2 |2 .
Para chequear esta hipotesis calcularemos la probabilidad de encontrar el autovalor an cuando medimos A,
sobre el sistema en el estado |i. Si interpretamos este estado como una mezcla estadstica de los estados |1 i y |2 i
con pesos |c1 |2 y |c2 |2 , esta probabilidad se puede calcular como la suma ponderada de probabilidades P1 (an ) y
P2 (an ) 10
?
P (an ) = |c1 |2 P1 (an ) + |c2 |2 P2 (an ) (5.84)
por otro lado, aplicando los postulados de la mecanica cuantica, esta probabilidad se calcula como

P (an ) = |hun | i|2

la probabilidad es el modulo al cuadrado de la amplitud de probabilidad hun | i. Tal amplitud es la suma de


dos terminos
hun | i = hun | {c1 |1 i + c2 |2 i} = c1 hun | 1 i + c2 hun | 2 i
el modulo al cuadrado se calcula con un procedimiento identico al que nos llevo a la Ec. (5.76) (excepto por la
ausencia de las exponenciales de la energa)

P (an , t) = |c1 |2 |hun | 1 i|2 + |c2 |2 |hun | 2 i|2 + 2Re {c1 c2 hun | 1 i h2 | un i}

puesto que las cantidades c1 , c2 , hun | 1 i y h2 | un i son complejas podemos escribirlas en notacion polar

c1 = |c1 | ei1 , c2 = |c2 | ei2 , hun | 1 i = |hun | 1 i| ei1


h2 | un i = hun | 2 i = |hun | 2 i| ei2

con lo cual la probabilidad queda


n o
P (an , t) = |c1 |2 |hun | 1 i|2 + |c2 |2 |hun | 2 i|2 + 2Re |c1 | |c2 | |hun | 1 i| |hun | 2 i| ei(1 +1 2 2 )
n o
P (an , t) = |c1 |2 |hun | 1 i|2 + |c2 |2 |hun | 2 i|2 + 2 |c1 | |c2 | |hun | 1 i| |hun | 2 i| Re ei(1 +1 2 2 )

quedando finalmente

P (an , t) = |c1 |2 |hun | 1 i|2 + |c2 |2 |hun | 2 i|2 + 2 |c1 | |c2 | |hun | 1 i| |hun | 2 i| cos (1 + 1 2 2 )

usando las Ecs. (5.81, 5.82) esta expresion se puede reescribir como

P (an , t) = |c1 |2 P1 (an ) + |c2 |2 P2 (an ) + 2 |c1 | |c2 | |hun | 1 i| |hun | 2 i| cos (1 + 1 2 2 )

este resultado difiere del mostrado en (5.84) en donde se considero a |i como una mezcla estadstica. El punto es
que la mezcla estadstica no considera los efectos de interferencia contenidos en el producto cruzado que se obtiene
cuando se eleva al cuadrado una suma de amplitudes. El resultado muestra que la probabilidad no depende solo
de los modulos de los pesos |c1 | y |c2 | y de las amplitudes |hun | 1 i| y |hun | 2 i| sino tambien de sus fases relativas
1 , 2 , 1 y 2 . Notese sin embargo, que una fase global ei multiplicando al estado |i no afecta esta probabilidad
puesto que se elimina con su conjugado en el termino de interferencia.
10
Puesto que P1 (an ) es la probabilidad de obtener el valor an cuando el sistema esta en el estado |1 i, es claro 2 que en una mezcla
estadstica con N muy grande, el numero de estados | 1 i que arrojara a n cuando se mide A sobre los N c1 estados |1 i, viene
2 2

dada por N c1 P1 (an ). Similarmente, N c2 P2 (an ) es el numero de estados |2 i de la mezcla estadstica que arrojaran el valor an
en la medicion de A. Es claro entonces que la probabilidad de obtener an cuando se mide sobre la mezcla estadstica completa es
N | c2
1 |P1 (an )+N |c2 |P2 (an )
2
lmN N
que coincide con la Ec. (5.84).
234 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

5.9.2. Efectos de interferencia en fotones polarizados


Consideremos fotones polarizados que se propagan en la direccion uz en los cuales el estado de polarizacion
esta representado por el vector unitario
1
u = (ux + uy ) (5.85)
2
este estado es una superposicion de dos estados de polarizacion ortogonales ux y uy . Esto representa luz polarizada
linealmente a un angulo de /4 con respecto a los ejes X e Y .
Si consideraramos u como una mezcla estadstica de los estados ux y uy con identicos pesos, tendramos que
 2
N fotones en el estado u son equivalentes a N 12 = N2 fotones en el estado ux y N2 fotones en el estado uy .
Si colocaramos en la trayectoria del haz de luz un analizador cuyo eje u sea perpendicular a u (y de modo que
u, u generen un plano paralelo a XY), para la mezcla estadstica la mitad de los fotones pasara el analizador.
En contraste, tanto la teora cuantica como los experimentos muestran que ninguno de los N fotones en el estado
u pasa el analizador (ver seccion 2.9).
Este ejemplo muestra que una superposicion lineal de la forma (5.85) es diferente a una mezcla estadstica
de iguales proporciones entre los estados ux y uy . Notese por ejemplo que la superposicion en (5.85) describe un
haz de luz polarizada a /4 de los ejes X e Y . En contraste, una mezcla estadstica esta asociada con un haz
no polarizado puesto que el sistema contiene fotones de diferente polarizacion la mitad en direccion ux y la otra
mitad en la direccion uy .
La importancia de las fases relativas de los coeficientes de la expansion se puede ilustrar con los siguientes
estados de polarizacion
1 1 1 1
u1 = (ux + uy ) ; u1 = (ux uy ) ; u1 = (ux + iuy ) ; u1 = (ux iuy )
2 2 2 2
los cuales difieren solo en las fases relativas de sus coeficientes siendo estas fases 0, , /2 y /2 respectivamen-
te. Estos cuatro estados son fsicamente distintos: los dos primeros representan luz polarizada linealmente pero
en direcciones distintas (el primer estado es ortogonal al segundo). Los dos ultimos representan luz polarizada
circularmente (dextrogira y levogira respectivamente).

5.9.3. Suma sobre los estados intermedios


Para ilustrar el uso adecuado del principio de superposicion, vamos a examinar dos experimentos ilustrativos.
En esta seccion asumiremos que los observables A, B, C tienen un espectro discreto y no degenerado. Asumiremos
tambien que todas las medidas sucesivas se hacen en intervalos de tiempo cortos, de manera que el sistema no ha
tenido tiempo de evolucionar.
Primer experimento: Asumamos que en cierto tiempo, se midio el observable A y se obtuvo el valor propio
a. El estado despues de la medida sera el ket propio |ua i asociado con a. Inmediatamente despues medimos al
observable C que no conmuta con A y obtenemos el valor c, de modo que el sistema quedara en el estado |vc i.
La probabilidad de que habiendo obtenido el valor a en la primera medida, obtengamos en la segunda medida un
valor c esta dada por
Pa (c) = |hvc |ua i|2 (5.86)
Segundo experimento: En este experimento medimos de forma sucesiva los observables A, B, y C que no
conmutan entre s. Si Pa (b, c) es la probabilidad de que habiendo obtenido el resultado a en la primera medida se
obtengan los valores b y c en las otras dos, tenemos que esta probabilidad es el producto

Pa (b, c) = Pa (b) Pb (c)

es decir Pa (b, c) es la probabilidad Pa (b) de que habiendo obtenido el valor a del observable A en la primera
medida, obtengamos b en la segunda, multiplicada por la probabilidad de que habiendo obtenido un valor b del
5.9. CONSECUENCIAS FISICAS DEL PRINCIPIO DE SUPERPOSICION 235

observable B en la segunda medida obtengamos un valor c de C en la tercera. Si denotamos |wb i al ket propio de
B asociado con el valor propio b, la cantidad Pa (b, c) estara dada por

Pa (b, c) = |hvc | wb i|2 |hwb | ua i|2 (5.87)

Veamos ahora las semejanzas y diferencias entre ambos experimentos. Asumiremos que en ambos experimentos
se han obtenido los mismos valores especficos de A y C. En ambos experimentos el estado despues de la medicion
de A es |ua i, de hecho el papel de esta medicion es el de fijar a |ua i como el estado inicial (o preparar el sistema
en el estado inicial |ua i). Despues de la medicion de C en ambos experimentos, el estado sera |vc i que lo tomaremos
como el estado final. Los dos experimentos coinciden entonces en el estado inicial y en el final.
Para ambos experimentos es posible descomponer el estado justo antes de la medida de C en terminos de
autovectores |wb i de B, y decir que entre los estados |ua i y |vc i el sistema puede pasar a traves de diferentes
estados intermedios |wbi i. Cada uno de estos estados intermedios define un posible camino entre el estado
inicial |ua i y el estado final |vc i.
De aqu surge la diferencia fundamental entre los dos experimentos. En el primero el camino que el sistema
ha tomado para ir desde |ua i hasta |vc i no ha sido determinado experimentalmente, ya que solo hemos medido la
probabilidad Pc (a) de que comenzando en el estado |ua i terminemos en el estado |vc i. En el segundo experimento
el camino para ir desde |ua i hasta |vc i ha sido determinado experimentalmente midiendo el observable B, ya que
esta medida nos permite obtener la probabilidad Pa (b, c) de que el sistema comenzando en |ua i, pase a traves de
un estado intermedio dado |wb i y termine en el estado |vc i.
La idea ahora es relacionar a Pa (c) con Pa (b, c). Resulta tentador pensar que en el primer experimento el
sistema es libre de pasar a traves de todos los estados intermedios |wb i, pareciera entonces que la probabilidad
global Pa (c) es la suma de todas las probabilidades Pa (b, c) asociadas con cada uno de los posibles caminos,
esto conducira a X
?
Pa (c) = Pa (b, c) (5.88)
b

veremos que este resultado es incorrecto a la luz de los postulados de la mecanica cuantica. La manera mas simple
para relacionar Pa (c) con Pa (b, c) consiste en tomar la formula de probabilidad Pa (c) Ec. (5.86) y aplicarle la
relacion de completez para la base {|wb i}

2
X

Pa (c) = |hvc |ua i|2 = hvc |wb i hwb |ua i (5.89)

b
" #" #
X X
Pa (c) = hvc |wb i hwb |ua i hvc |wb i hwb |ua i
b b
XX
Pa (c) = hvc |wb i hwb |ua i hvc |wb i hwb |ua i
b b

es conveniente separar los terminos en las componentes diagonales b = b y las no diagonales


X XX
Pa (c) = hvc |wb i hwb |ua i hvc |wb i hwb |ua i + hvc |wb i hwb |ua i hvc |wb i hwb |ua i
b b b 6=b
X XX
Pa (c) = |hvc |wb i|2 |hwb |ua i|2 + hvc |wb i hwb |ua i hvc |wb i hwb |ua i
b b b 6=b

y teniendo en cuenta la Ec. (5.87) tenemos que


X XX
Pa (c) = Pa (b, c) + hvc |wb i hwb |ua i hvc |wb i hwb |ua i (5.90)
b b b 6=b
236 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

comparando (5.90) con (5.88) vemos nuevamente que los terminos cruzados que aparecen en el cuadrado del
modulo de la suma en (5.89) estan ausentes en (5.88), y por tanto todos los efectos de interferencia entre los
diferentes posibles caminos.
Los argumentos anteriores nos muestran que es necesario razonar en terminos de amplitudes de probabilidad
para aplicar adecuadamente el principio de superposicion. Cuando los estados intermedios del sistema no estan
determinados experimentalmente son las amplitudes de probabilidad y no las probabilidades las que se deben
sumar.
Para comprender mejor el error en el razonamiento que nos llevo a la Ec. (5.88), recurrimos al quinto pos-
tulado de reduccion del paquete de onda. En el segundo experimento, la medida del observable B involucra una
perturbacion del sistema bajo estudio y durante la medida su ket de estado experimenta un cambio abrupto que
se manifiesta como la proyeccion sobre uno de los estados |wb i, esta perturbacion inevitable y fundamental es la
responsable de la desaparicion de los efectos de interferencia. En el primer experimento no podemos decir que el
sistema fsico pasa a traves de uno u otro de los estados |wb i, es mas acertado decir que el sistema pasa a traves
de todos los estados |wb i en forma ponderada. Esto se puede ver teniendo en cuenta que el estado antes de la
medida de B del segundo experimento es |ua i y este tambien es el estado del sistema en el primer experimento
antes de la medida de C, en el primer experimento el estado antes de la medida de C es
X
|ua i = cb |wb i
b

vemos entonces que cuando no se realiza la medida de B el sistema esta en todos los estados posibles |wb i
aunque en forma ponderada por los coeficientes cb .
De otra parte si las medidas sucesivas no se hacen en tiempos cortos, es posible realizar razonamientos similares
teniendo en cuenta la evolucion del sistema con la ecuacion de Schrodinger, y en todo caso la diferencia fundamental
entre superposiciones lineales de estados y mezcla estadstica de estados continua existiendo (ver seccion 7.1.2 Pag.
262).
Notese que estos razonamientos son muy similares a los que se describieron en la seccion 2.8 sobre el experimento
de Young de la doble rendija. En el, la densidad de probabilidad de que un foton emitido por la fuente llegue a
un punto dado M en la pantalla se obtiene primero superponiendo linealmente los campos electricos radiados por
cada rendija para luego elevar al cuadrado y obtener la intensidad en M (y por tanto la densidad de probabilidad
deseada). El campo electrico hace las veces de la amplitud de probabilidad y la intensidad hace las veces de la
densidad de probabilidad como tal. Cuando no intentamos determinar por cual rendija pasa el foton (es decir
no determinamos experimentalmente el estado intermedio), son los campos electricos radiados por cada rendija
los que se deben superponer linealmente y no sus intensidades, con el fin de obtener la intensidad (densidad
de probabilidad) resultante. Podemos decir entonces que el campo radiado por una rendija sobre el punto M
representa la amplitud para un foton emitido desde la fuente (estado inicial) de pasar a traves de tal rendija
(estado intermedio) antes de arrivar al punto M sobre la pantalla (estado final), pero sin la medicion del estado
intermedio se considera que el foton pasa por ambas rendijas (todos los estados intermedios accesibles).
De lo anterior podemos obtener las siguientes conclusiones
(a) Las predicciones probabilsticas de la teora cuantica se obtienen siempre elevando al cuadrado el modulo
de una amplitud de probabilidad
(b) Cuando en un experimento particular no se mide un estado intermedio, no se debe razonar en terminos de
las probabilidades de los diversos resultados accesibles que se hubieran obtenido en tales medidas. Se debe razonar
en terminos de las amplitudes de probabilidad. Esto tiene que ver con que las medidas destruyen la interferencia,
dado que se obtienen valores bien definidos de un observable y un estado intermedio dado. En contraste cuando
una medida no se efectua, el sistema esta simultaneamente en todos los estados intermedios posibles y es esta
simultaneidad la que permite la interferencia.
(c) El hecho de que los estados de un sistema fsico se pueden superponer linealmente significa que las am-
plitudes de probabilidad con frecuencia tienen la forma de una suma de amplitudes parciales. La correspondiente
5.10. PRINCIPIO DE SUPERPOSICION CON VARIOS ESTADOS ASOCIADOS A UNA MEDIDA 237

probabilidad es entonces igual al modulo al cuadrado de esta suma de terminos con lo cual las amplitudes parciales
interfieren entre s.

5.10. El principio de superposicion para casos en que varios estados estan


asociados a una medida
En la anterior seccion hemos trabajado el caso de mediciones asociadas a valores propios no degenerados en los
cuales hay un solo estado asociado a cada medida. En este caso la probabilidad de ocurrencia de un evento se ha
escrito como el cuadrado del modulo de una suma de terminos (amplitudes). No obstante, cuando hay presencia
de degeneracion el cuarto postulado Ec. (4.4) nos dice que la probabilidad de obtener un valor propio degenerado
involucra una suma de cuadrados de modulos. Debe tenerse en cuenta sin embargo que cada sumando en (4.4)
puede a su vez ser el modulo al cuadrado de una suma de amplitudes. Esto implicara discutir con cuidado el uso
adecuado del principio de superposicion para obtener la probabilidad asociada a valores propios degenerados.
Por otra parte, existe otro escenario importante en el cual varios estados estan asociados con una medicion:
cuando la resolucion del aparato de medida es insuficiente (como ocurre en la realidad). Hasta el momento
hemos considerado medidas ideales pero es necesario discutir como las limitaciones experimentales deben ser
manejadas para obtener predicciones teoricas sobre los resultados. Esta discusion permitira ademas extender el
quinto postulado de reduccion del paquete de onda a los espectros contnuos.

5.10.1. El principio de superposicion para valores propios degenerados



Cuando un valor propio an es gn degenerado, sus kets propios linealmente independientes uin generan un
autosubespacio En de dimension gn . En este caso, el estado en el cual queda el sistema despues de obtener an en
la medicion no esta unvocamente determinado, ya que depende del estado inicial |i (estado justo antes de la
medicion). Si el estado inicial |i es dado, el estado justo despues de la medicion vendra dado por la proyeccion
normalizada de |i sobre En que denotamos por |n i. Sin embargo, incluso cuando se obtiene la misma medida
an esta proyeccion es diferente cuando cambia el vector inicial, por lo cual podemos decir que hay varios estados
finales asociados a la medida an .
La Ec. (4.4) nos dice como calcular la probabilidad P (an ) de obtener el valor an cuando conocemos el estado
|i del sistema justo antes de la medicion.

gn
X
i 2
P (an ) = u i (5.91)
n
i=1


para calcular esta probabilidad escogemos una base ortonormal uin del autosubespacio En y calculamos los

2
pesos uin i asociados a cada uno de los estados de esta base, la probabilidad P (an ) sera entonces la suma

2
de estos gn pesos. Debemos tener en cuenta que cada probabilidad uin i puede ser el cuadrado del modulo
de una suma de amplitudes que nos generara interferencias. Por ejemplo si el estado inicial normalizado es de la
forma
|i = c1 |1 i + c2 |2 i

cada sumando en (5.91) sera de la forma



i 2
i

u i = c1 u 1 i + c2 ui 2 i 2
n n n

con lo cual se obtienen interferencias al expandir el modulo al cuadrado.


238 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

5.10.2. Aparatos insuficientemente selectivos en la medida


Supongamos que tenemos un dispositivo para medir el observable A de un sistema fsico dado, y que el estado
justo antes de la medicion viene dado por
X
|i = ck,i uik (5.92)
k,i

siendo uik los estados propios de A con valor propio ak . Asumamos que el dispositivo posee las siguientes
caractersticas.
(a) El dispositivo solo puede dar dos respuestas (autoresultados), que por convencion denotaremos como si
y no.
(b) Si el estado inicial del sistema |i esta en una combinacion lineal cuyos valores propios yacen todos en un
intervalo dado del eje real, la respuesta sera definitivamente s. En otras palabras, la respuesta es s con
toda certeza, cuando todos los ck,i no nulos de (5.92) sean tales que ak .
(c) La respuesta es definitivamente no si el estado inicial del sistema |i esta en una combinacion lineal de
estados donde todos los valores propios asociados a los estados de la combinacion lineal yacen fuera del intervalo
.
Vemos que define el poder de resolucion del instrumento. As mismo define los autoestados asociados a
los autoresultados si y no. Si existe un solo valor propio an de A en el intervalo el dispositivo tendra una
resolucion infinita, ya que para el sistema en un estado inicial arbitrario, la probabilidad P (si) sera igual a la
probabilidad de obtener an en la medida de A. La probabilidad de obtener no es naturalmente P (no) = 1P (si).
Por otro lado, si existen varios valores propios an de A en , el dispositivo no tiene suficiente resolucion para
discriminar entre estos diferentes autovalores. En este caso hablamos de un aparato o dispositivo insuficiente-
mente selectivo.
Para estudiar la distribucion de probabilidad de P (no) , P (si) con estos dispositivos insuficientemente selec-
tivos, debemos primero estudiar la perturbacion que estos aparatos crean sobre el sistema cuando realizan una
medida. Para caracterizar esta perturbacion anadiremos la siguiente hipotesis: El dispositivo transmite sin per-
turbar todos los estados propios de A asociados con autovalores includos en el intervalo , as como cualquier
combinacion lineal de estos estados, en cambio el dispositivo bloquea los autoestados de A asociados con valores
propios fuera del intervalo as como todas sus combinaciones lineales. El dispositivo actua entonces como un
filtro perfecto para todos los estados asociados con .
Ilustraremos la plausibilidad de esta hipotesis con un ejemplo. Cuando el espectro de un observable es contnuo,
todo dispositivo experimental para medir este espectro es siempre insuficientemente selectivo. Tomaremos en
consecuencia un ejemplo con espectro contnuo. Supongamos que queremos medir la coordenada x de un electron
que se propaga en la direccion uz . Para ello colocamos sobre el plano XY (en z = 0) una superficie bloqueadora
con una ranura con bordes entre x1 y x2 y de ancho infinito paralelo al eje Y . Un paquete de onda que este
completamente includo entre los planos x = x1 y x = x2 , entrara a la region derecha (viniendo desde la izquierda)
sin ninguna modificacion (esto equivale a un s). Que el paquete de onda este entre los planos x = x1 y x = x2
significa que es una superposicion de autoestados de R con autovalores x, y, z donde los x estan todos includos
en el intervalo [x1 , x2 ]. Por otro lado, cualquier paquete de onda situado por debajo de x = x1 o por encima de
x = x2 sera bloqueado por la superficie y no pasara a la derecha (esto equivale a un no).
Vemos que para un dispositivo insuficientemente selectivo, hay varios estados finales posibles luego de una
medicion que ha dado la respuesta si incluso cuando el espectro de A es no degenerado, ya que los estados
propios de A asociados a los diferentes autovalores ak en son estados posibles finales.
Queremos estudiar cuales son las predicciones que podemos hacer con estos dispositivos cuando un sistema
fsico en un estado arbitrario es medido con uno de ellos. Para el ejemplo anterior cuando el paquete de onda esta
completamente adentro (o afuera) del intervalo [x1 , x2 ], la respuesta es definitivamente si (no). Debemos estudiar
las probabilidades P (si) y P (no) cuando el paquete no esta completamente adentro ni completamente afuera.
Veremos que esto es equivalente a medir un observable cuyo espectro sea degenerado.
5.10. PRINCIPIO DE SUPERPOSICION CON VARIOS ESTADOS ASOCIADOS A UNA MEDIDA 239

 i al caso de un espectro discreto. Consideremos el autosubespacio E generado


Por el momento retornaremos
por todos los autoestados un de A cuyos valores propios yacen en el intervalo . El proyector P sobre este
subespacio es
X X gn
i
i
P = u un (5.93)
n
an i=1

donde hemos tenido en cuenta que las autovalores an pueden ser degenerados. Notese que E esta compuesto
por todos los estados accesibles del sistema despues de que la medida de A ha dado el valor si. En terminos
mas matematicos, podemos decir que la respuesta del dispositivo es definitivamente si cuando el estado inicial
pertenece a E , es decir para cualquier estado propio de P con valor propio +1. Adicionalmente, la respuesta es
definitivamente no cuando el estado inicial pertenece al complemento ortogonal de E es decir cuando el estado
es autoestado de P con valor propio 0. Si denotamos Ee al complemento ortogonal de E podemos escribir

E ]
= E Ee ; |i = | i | ] e
i ; |i E ; | i E ; | i E (5.94)
]
P |i = | i ; P | i = (+1) | i ; P | ]
i = (0) | i (5.95)

donde |i es un estado arbitrario. Vemos entonces que las respuestas si y no que nos da nuestro dispositivo
equivalen a los autovalores +1 y 0 respectivamente del observable P . Podemos decir entonces que el dispositivo
esta realmente midiendo los valores propios de P en lugar de los de A.
Con tal interpretacion podemos calcular las distribuciones de probabilidad P (si) y P (no) aplicando los pos-
tulados al observable P que es el que realmente se esta midiendo. La probabilidad P (si) es la probabilidad de
obtener el valor propio +1 para el observable P . Si el estado inicial normalizado es |i tal probabilidad se puede
escribir aplicando el cuarto postulado (pag. 196) y la Ec. (4.4)
X
P (si) = P (+1) = |hvm | i|2 ; P (no) = 1 P (si)
m

donde {|vm i} es una base ortonormal asociada al subespacio E(+1) generado por el valor propio +1 de P . De
es claro que E(+1) es justamente E ; por tanto una base ortonormal {|vm i} posible es precisamente la base
(5.95)

uin con an , que se construyo para E . Por tanto, las probabilidades quedan en la forma

gn
X X
i 2
P (si) = P (+1) = un i ; P (no) = 1 P (si) (5.96)
an i=1

otra forma es usar las Ecs. (4.8, 5.94) donde en este caso el proyector sobre el autoespacio E(+1) = E del observable
P es justamente P
P (si) = h| P |i = h | i (5.97)

aplicando (5.93) en (5.97) vemos que se reproduce (5.96)

gn
" gn
#
X X i
i X X i
i
| i = P |i = un un i ; h| P |i = h| un un i (5.98)
an i=1 an i=1
gn
X X gn
X X


i 2
h| P |i = h uin uin i = un i (5.99)
an i=1 an i=1

Similarmente, puesto que el dispositivo no perturba los estados que pertenecen a E y bloquea aquellos que
pertenecen a Ee , vemos que el estado del sistema despues de la medicion cuando ha dado un resultado si, es
240 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

decir cuando el autovalor obtenido para P es +1 esta dado por | i pero normalizado, de las Ecs. (5.98, 5.99)
se tiene
| i P |i
= = (5.100)
si h | i h| P |i
P Pgn i
i
an i=1 un un i
= qP (5.101)
si Pg m k 2
am k=1 |hum | i|

similarmente, la probabilidad de obtener el resultado no y el estado del sistema luego de que una medida nos
arroje este resultado es
E
f
P (no) = P (0) = hf = 1 P (si)
E
f P Pgn i
i
f
P |i (I P ) |i an
/ i=1 un un i
= E= = = qP
no h| Pf h| (I P ) |i P
hf f
|i gm
am
/ |huk | i|
k=1 m
2

Cuando contiene solo un autovalor an de A, E y P se reducen a En y Pn y la resolucion del aparato es


infinita, en el sentido de que las incertidumbres y perturbaciones son solo las inherentes a las leyes de la mecanica
cuantica, es decir estamos hablando de medidas ideales en el sentido cuantico. Vemos entonces que las Ecs. (4.8,
4.10) se pueden ver como casos particulares de las Ecs. (5.97, 5.100). Notese que la suma sobre an en las Ecs.
(5.96, 5.101) se puede ver como una degeneracion adicional. Se puede observar que cuando contiene varios
valores propios, el problema se asemeja a un problema con degeneracion incluso si cada an en es no degenerado,
ya que en lo que concierne al calculo de la probabilidad Ec. (5.96), la suma sobre an es tambien una suma de
modulos al cuadrado al igual que la suma sobre i.

5.11. Discusion general sobre el fenomeno de interferencia


Hemos visto que en algunos casos la probabilidad se calcula como el cuadrado del modulo de una suma de
amplitudes y en otros casos como suma de modulos cuadrados (sumas de probabilidades). Es importante dejar
claro cuando se emplea cada algoritmo.
Nuevamente el experimento de Young de la doble rendija resulta ilustrativo. Supongamos que queremos calcular
la probabilidad de que un determinado foton golpee la pantalla en un cierto intervalo [x1 , x2 ]. Esta probabilidad
es proporcional a la intensidad total incidente sobre todo este intervalo
Z x2 Z x2
IT = I (x) dx = |E (x)|2 dx
x1 x1

es decir es una suma de cuadrados (suma de densidades de probabilidad). No obstante, la intensidad en un punto
de la pantalla x [x1 , x2 ] es el cuadrado del campo electrico E (x) el cual es la superposicion lineal de los campos
electricos EA (x) y EB (x) radiados por las dos rendijas A y B sobre el punto x en la pantalla. I (x) es entonces
|EA (x) + EB (x)|2 es decir el cuadrado de una suma. EA (x) y EB (x) son las amplitudes asociadas a los dos
caminos posibles (paso por cada rendija) que terminan en el mismo punto x. Estas amplitudes se adicionan para
obtener la amplitud en x ya que no estamos tratando de determinar por cual rendija pasa el foton. Luego, para
calcular la intensidad total se suman estos modulos al cuadrado (suma de intensidades), es decir se suman las
intensidades sobre los diferentes puntos x, para obtener la intensidad total en el intervalo [x1 , x2 ] (equivalente a
suma de probabilidades para obtener probabilidad total).
La anterior discusion nos muestra que la suma de amplitudes se realiza cuando partiendo desde un estado
inicial dado llegamos por diferentes caminos al mismo estado final (en este caso un punto fijo x en la pantalla).
Tendremos tantas amplitudes como caminos intermedios considerados. Una vez calculado el modulo al cuadrado
5.12. MEDICION INSUFICIENTE DE ESPECTROS CONTINUOS 241

de la suma de estas amplitudes se suman estos cuadrados sobre estados finales diferentes (en este ejemplo
corresponde a sumar las intensidades sobre los diferentes puntos x del intervalo).
Resumimos el algoritmo en la siguiente forma: Se suman las amplitudes correspondientes al mismo estado final,
luego se suman las probabilidades correspondientes a estados finales ortogonales.
El hecho de que se sume sobre estados ortogonales tiene que ver con que usualmente los diferentes estados
que se usan para construr una base son todos ortogonales entre s. En general, debemos decir que se suma sobre
estados linealmente independientes.

5.12. Medicion insuficiente de espectros contnuos


Ya mencionamos que todo dispositivo que mida un observable con espectro contnuo necesariamente debe ser
insuficiente, ya que ningun instrumento de medicion esta exento de la incertidumbre experimental. Por tanto, la
discusion sobre la aplicacion de los postulados para medidas insuficientes resulta apropiado para el estudio de la
medicion de espectros contnuos.
El ejemplo mas simple y directo es la medicion de la posicion de una partcula. Nos preguntamos por la
probabilidad de encontrar a la partcula en una posicion dentro de un intervalo = [x1 , x2 ] con un dispositivo
similar al descrito anteriormente.
Asumamos que la partcula (sin espn) esta en un estado |i. El subespacio E asociado con esta medida es
el expandido por los kets {|ri = |x, y, zi / x1 x x2 }. Puesto que estos kets son ortonormales en el sentido
extendido, la aplicacion de la regla descrita en la seccion 5.11 nos dice que
Z x2 Z Z Z x2 Z Z
2
P (x1 x x2 ) = dx dy dz |hx, y, z |i| = dx dy dz | (r)|2 (5.102)
x1 x1

vemos que la Ec. (5.97) conduce al mismo resultado ya que P viene dado en este caso por
Z x2 Z Z
P = dx dy dz |x, y, zi hx, y, z|
x1

de modo que
Z x2 Z Z 
P (x1 x x2 ) = h| P |i = h| dx dy dz |x, y, zi hx, y, z| |i
x1
Z x2 Z Z
P (x1 x x2 ) = dx dy dz h |x, y, zi hx, y, z| i (5.103)
Zx1x2 Z
Z

P (x1 x x2 ) = dx dy dz | (r)|2 (5.104)
x1

ahora debemos encontrar el estado | i despues de que la medicion arroje un valor si, es decir cuando la posicion
de la partcula este dentro de despues de la medicion. Para ello aplicamos la Ec. (5.100)
Z x2 Z Z
P |i 1

= = dx
dy
dz x , y , z x , y , z i
h| P |i h| P |i x1
Z Z Z
1 x2 
= dx dy dz r r ; N h| P |i
N x1

donde el factor de normalizacion N h| P |i = P (x1 x x2 ), esta dado por la Ec. (5.104). Es inmediato
242 CAPITULO 5. CONSECUENCIAS FENOMENOLOGICAS DE LOS POSTULADOS

encontrar la funcion de onda asociada a | i


Z Z Z
1 x2 
hr = dx dy dz hr r r
N x1
Z x2 Z
Z
1    
(x, y, z) = dx dy dz x x y y z z x , y , z
N x1
Z x2
1  
(x, y, z) = dx x x x , y, z
N x1
y como x puede estar dentro o fuera del intervalo [x1 , x2 ] la funcion de onda sera

(x, y, z) si x1 x x2
(x, y, z) = (5.105)
0 si x / [x1 , x2 ]
vemos entonces que la parte de (r) que corresponde al intervalo asociado al aparato de medicion persiste sin
modificacion, ya que el factor 1/N simplemente asegura que el estado se mantenga normalizado. El resto es
suprimido por la medicion. Podemos decir entonces que el paquete de onda inicial (r) de la partcula esta siendo
truncado por los lmites de la ranura. Podemos entonces entender a partir de estos procesos porque hablamos
de una reduccion del paquete de onda.
Ahora bien, si tenemos un gran numero de partculas todas en el estado |i, entrando sucesivamente en el
aparato, el resultado sera algunas veces si y otras veces no segun la distribucion de probabilidad prescrita
anteriormente. Si la respuesta es si, la partcula sigue su camino a partir de un estado inicial truncado o
reducido dado por | i; si el resultado es no la partcula es absorbida por la placa colocada en el plano XY .
Es claro que cuando el espectro es contnuo, el dispositivo sera siempre insuficientemente selectivo puesto que
el intervalo [x1 , x2 ] siempre contiene infinitos puntos por pequeno que este sea. Vale la pena sin embargo, analizar
el lmite cuando el ancho de este intervalo tiende a cero. Tomemos un intervalo de ancho x centrado en x0 , si
x lo tomamos lo suficientemente pequeno podemos despreciar la variacion de (r) en x y reemplazarla por su
valor en x0 , en cuyo caso se puede integrar en x la probabilidad dada por (5.102)
  Z Z
x x
P x0 , x0 + x dy dz | (x0 , y, z)|2
2 2
dP (x0 ) = (x0 ) dx
donde de acuerdo con el cuarto postulado hemos interpretado a la densidad de probabilidad asociada a x0 como la
integral en y y z de la expresion anterior. La diferencia con la Ec. (4.9) es que en (4.9) el espectro se consideraba
no degenerado en tanto que aqu el espectro de X es infinitamente degenerado en Er , ya que todo vector de la
forma |x, y, zi es vector propio de X. Por esta razon, en esta densidad de probabilidad interviene una integral
doble sobre y y z.

5.13. Postulado de reduccion del paquete de onda (quinto postulado) para


un espectro continuo
En la discusion del quinto postulado dada en la seccion 4.3.4, nos hemos restringido al caso discreto. Sin
embargo, la discusion realizada en la seccion 5.12 sobre dispositivos insuficientemente selectivos nos permite
extender el postulado al caso de espectro contnuo. El cual estableceremos de la siguiente forma
Quinto postulado o postulado de reduccion del paquete de onda (caso contnuo): Si estando
el sistema en un estado |i realizamos una medida sobre el observable A de espectro contnuo no degenerado,
obteniendo como resultado un valor dentro del intervalo [0 , 0 + ], el estado del sistema inmediatamente
despues de la medida esta descrito por
Z 0 +

= P (0 ) |i
2
; P (0 ) d | i h |
h| P (0 ) |i 0 2
5.13. REDUCCION DEL PAQUETE DE ONDA PARA ESPECTRO CONTINUO 243

el proceso de reduccion aparece con claridad en la Ec. (5.105), si la generalizamos a cualquier observable A de
espectro contnuo {} con funcion de onda h |i que representa a |i en la base {| i}. Segun la Ec. (5.105)
adecuadamente generalizada, el sistema queda preparado en un estado cuya funcion de onda es cero fuera del
intervalo de seleccion y dentro de dicho intervalo conserva la forma de la funcion de onda original (excepto por
un factor de normalizacion). Sin importar que tan pequeno sea nunca obtenemos el autoestado |0 i despues
de la medida, el cual en la base {| i} estara representado por h |0 i = ( 0 ). Pues la funcion de onda
truncada siempre tiene un ancho finito . Finalmente, es claro que el factor de normalizacion debe ser mayor
que la unidad.
Captulo 6

Aplicacion de los postulados cuando se


posee informacion parcial de un sistema

Hemos estudiado hasta el momento la aplicacion de los postulados cuando el estado del sistema se conoce
perfectamente. Veremos dos casos en los cuales manejamos informacion parcial del sistema (a) cuando el sistema
esta compuesto de dos o mas subsistemas, y solo realizamos medidas de un subsistema especfico. (b) cuando
desconocemos las condiciones iniciales detalladas y solo poseemos informacion en forma de probabilidad, como
ocurre en la mecanica estadstica. Estudiaremos primero el caso (a).

6.1. Aplicacion de los postulados cuando se mide un observable de un sub-


sistema
Cuando dos subsistemas cuanticos se condensan, podemos formar un unico sistema global a traves del producto
tensorial de los espacios de Hilbert asociados a cada subsistema. Nuestro proposito es estudiar el comportamiento
del sistema global cuando se realiza la medida de un observable asociado a uno de los subsistemas.
Consideremos el sistema fsico como compuesto de dos subsistemas (1) y (2) descritos por los espacios de
Hilbert E (1) y E (2). El espacio de estados asociado al sistema global es

E E (1) E (2)

por ejemplo un sistema de dos electrones (sin espn), esta descrito por una funcion de onda de la forma

(r1 , r2 ) hr1 , r2 |i = (x1 , y1 , z1 ; x2 , y2 , z2 ) ; (r1 , r2 ) Er (1) Er (2)

Estudiaremos el caso en el cual se mide un observable asociado a solo uno de los subsistemas. Asumiremos de
aqu en adelante que las medidas se realizaran sobre el subsistema (1) ya que el analisis del caso en que se hace
una medida sobre el subsistema (2) es totalmente analogo. El observable A e (1) asociado a una medida sobre el
subsistema (1) es la extension tensorial del observable A (1) (ver Ec. 1.128)
e (1) A (1) I (2)
A (6.1)

ya vimos en la seccion 1.32.3 que el espectro de Ae (1) en E (1) E (2) es identico al espectro de A (1) en E (1).
Vimos adicionalmente que la degeneracion de cada valor propio en E (1) E (2) es el producto de su degeneracion
en E (1) por la dimension de E (2). Esto implica que (si E (2) es de dos o mas dimensiones) todo valor propio de
Ae (1) es degenerado. En consecuencia, cuando se realiza una medida sobre el subsistema (1), el estado del sistema
global despues de la medida dependera tanto del resultado de la medida como del estado justo antes de esta.
Fsicamente, esto se debe a que el resultado no da ninguna informacion sobre el subsistema (2), y por tanto el
observable asociado no constituye un C.S.C.O.

244
6.1. APLICACION DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 245

e (1). Para
Vamos a calcular la probabilidad de obtener un valor propio dado an en una medida del observable A
ello apelamos a la Ec. (4.8) pag 197
P (1) (an ) = h| Pen (1) |i (6.2)
siendo |i el estado (normalizado) en el que se encuentra el sistema global antes de la medicion. El proyector
extendido Pen (1) se escribe en terminos del proyector Pn (1) en E (1) en la forma
gn
X i

Pen (1) Pn (1) I (2) ; Pn (1) = un (1) uin (1) (6.3)
i=1

siendo uin (1) una base ortonormal en E (1) y gn la degeneracion de an en E (1). Pen (1) es entonces el proyector
(1)
en E (1) E (2) sobre el autosubespacio generado por an en E (1) E (2), el cual es claramente Ean E (2).
Adicionalmente podemos expresar la identidad de (2) usando una base ortonormal {|vk (2)i} de E (2) con lo cual
Pen (1) queda
" gn # " #
X
i X
Pen (1) Pn (1) I (2) = un (1) un (1)
i
|vk (2)i hvk (2)|
i=1 k
gn X
X  i  

= u (1) |vk (2)i ui (1) hvk (2)|
n n
i=1 k
gn X
X i

e
Pn (1) = un (1) vk (2) uin (1) vk (2) (6.4)
i=1 k

aplicando este proyector en la Ec. (6.2) resulta


gn X
X 

P (1) (an ) = h| Pen (1) |i = h| uin (1) vk (2) uin (1) vk (2) |i
i=1 k
gn X
X

= h| uin (1) vk (2)i uin (1) vk (2) i
i=1 k
gn X
X
i
P (1)
(an ) = h| Pen (1) |i = u (1) vk (2) i 2 (6.5)
n
i=1 k

adicionalmente, el estado | i justo despues de la medicion se puede calcular empleando la Ec. (4.10) pag. 200, y
teniendo en cuenta las Ecs. (6.5, 6.4)
Pgn P i
i
i
en (1) |i
P un (1) vk (2) un (1) vk (2)
= q = i=1
qP k
(6.6)
gn P 2
h| Pen (1) |i m=1
m
p |hun (1) vp (2)| i|

Notese que las Ecs. (6.2, 6.3, 6.6), nos dicen que la base ortonormal {|vk (2)i} en E (2) se puede elegir arbitraria-
mente, en el sentido de que ninguna base ortonormal especfica de E (2) presenta ventajas operativas especiales,
cuando se miden solo observables del subsistema (1). Esto es de esperarse, ya que al no realizarse ninguna medida
en el sistema (2), ningun conjunto de estados en E (2) es preferencial.

6.1.1. Interpretacion fsica de los estados que son productos tensoriales


En la seccion 1.32, vimos que no todos los estados en E (1) E (2) se pueden expresar como producto tensorial
de estados en E (1) y en E (2). Estudiaremos aqu el significado fsico de los estados que s son producto tensorial
de los subespacios anteriores, sea |i E (1) E (2) tal que
|i = | (1)i | (2)i = | (1) (2)i ; | (1)i E (1) , | (2)i E (2) , k| (1)ik = k| (2)ik = 1 (6.7)
246 CAPITULO 6. APLICACION DE LOS POSTULADOS CON INFORMACION PARCIAL

e (1), el estado | i despues de la medicion


supongamos que |i es el estado del sistema antes de la medicion de A
se obtiene aplicando las Ecs. (6.6, 6.7, 6.3)

Pe (1) |i [Pn (1) I (2)] [| (1)i | (2)i]


= q n =p
h| Pen (1) |i [h (1)| h (2)|] [Pn (1) I (2)] [| (1)i | (2)i]
Pn (1) | (1)i I (2) | (2)i Pn (1) | (1)i | (2)i
= p =p
[h (1)| h (2)|] [Pn (1) | (1)i I (2) | (2)i] h (1)| Pn (1) | (1)i h (2)| (2)i

que se puede escribir como


= (1) | (2)i ; (1) p Pn (1) | (1)i
h (1)| Pn (1) | (1)i

vemos que el estado posterior a la medicion tambien es un producto tensorial tal que el estado del subsistema (1)
ha cambiado pero no el estado asociado al subsistema (2). La probabilidad P (an ) queda en la forma

P (1) (an ) = h| Pen (1) |i = h (1) (2)| [Pn (1) I (2)] | (1) (2)i
= h (1)| Pn (1) | (1)i h (2)| I (2) | (2)i
(1)
P (an ) = h (1)| Pn (1) | (1)i

de lo cual se ve que P (1) (an ) no depende de | (2)i solo del estado | (1)i del subsistema (1). Por tanto, cuando el
estado del sistema esta descrito por un producto tensorial como en la Ec. (6.7), las predicciones fsicas asociadas
a solo uno de los dos subsistemas, no dependen del estado del otro subsistema y se obtienen unicamente a partir
del estado del subsistema sobre el que se mide.
En consecuencia, un estado producto | (1)i| (2)i describe una simple yuxtaposicion de los subsistemas (1) y
(2) cada uno de ellos en los estados | (1)i y | (2)i respectivamente. En tal estado, se dice que los dos subsistemas
NO estan correlacionados, esto implica que la medicion de observables que pertenecen a uno u otro subsistema
corresponden a variable aleatorias independientes. Esto ocurre cuando los subsistemas han sido preparados en los
estados | (1)i y | (2)i para luego unirlos sin interaccion.

Example 6.1 Sea H1 el Hamiltoniano que describe al sistema (1) y H2 el Hamiltoniano que describe al sistema
(2). Si la ecuacion de Schrodinger independiente y dependiente del tiempo vienen dadas por

d
H1 |1 i = E1 |1 i ; i~ |1 i = H1 |1 i
dt
d
H2 |2 i = E2 |2 i ; i~ |2 i = H2 |2 i
dt

y si el hamiltoniano del sistema (1) + (2) esta dado por H = H1 + H2 , es facil verificar que

d
H |i = E |i ; i~ |i = H |i
dt
H = H1 + H2 ; E = E1 + E2 ; |i = |1 i |2 i ; |i = |1 i |2 i

dado que en el sistema completo H1 y H2 son operadores sobre E = E (1) E (2) entonces cada Hi se refiere a
su extension sobre E. Efectivamente, esta es la forma del Hamiltoniano cuando simplemente se agregan los dos
sistemas sin interaccion entre ellos, en cuyo caso la energa total es simplemente la suma de las energas asociadas
a cada subsistema.
6.1. APLICACION DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 247

6.1.2. Significado fsico de estados que no son productos tensoriales


Sean {|un (1)i} y {|vk (2)i} bases de E (1) y E (2) respectivamente. Si el estado |i no esta asociado a un
producto tensorial entonces este se escribe como
X
|i = cn,k |un (1)i |vk (2)i
n,k

donde hay por lo menos dos sumandos diferentes de cero. Veamos las predicciones sobre la medicion de un
observable A e (1) asociado solo al subsistema (1). En tal caso, es facil probar que las predicciones fsicas no se
pueden escribir solo en terminos de un estado del subsistema (1). Esto se puede ver aplicando las formulas (6.5,
6.6) en el contexto mas general. Esta situacion corresponde entonces a la existencia de correlaciones entre los dos
subsistemas, los resultados de medidas sobre cada subsistema corresponden a variables aleatorias dependientes y
que pueden ser correlacionadas. Puede demostrarse por ejemplo que si dos subsistemas descritos por un producto
tensorial se conectan entre s por medio de una interaccion, el nuevo estado ya no sera un producto tensorial.
Esto se puede ilustrar re-examinando el ejemplo 6.1, en el caso en el cual el Hamiltoniano del sistema se escriba
como
H = H1 + H2 + Hint
donde Hint es un Hamiltoniano que modela la interaccion entre los dos subsistemas. En este caso las soluciones
de la ecuacion de Schrodinger dependiente e independiente del tiempo para el sistema completo, ya no son los
productos tensoriales de las soluciones para cada subsistema.
Estudiemos primero el caso mas sencillo, asumiendo que el valor propio an obtenido en la medida, es no
degenerado en el subsistema (1). En tal caso desaparece la sumatoria sobre i en la Ec. (6.3) y en todas las demas
ecuaciones. El estado despues de la medida se obtiene de (6.6) suprimiendo la suma sobre i
P P
k |u (1) v (2)i hun (1) vk (2)| i |un (1)i k |vk (2)i hun (1) vk (2)| i
= qnP k = qP
2 2
p |hun (1) vp (2)| i| p |hun (1) vp (2)| i|
P
k |vk (2)i hun (1) vk (2)| i

= |un (1)i (2) ; (2) = q (6.8)
P 2
p |hun (1) vp (2)| i|

en conclusion, sin importar el estado |i previo a la medicion del subsistema (1), el estado global posterior a
la medicion de un observable que no es degenerado en el subsistema (1), es siempre un producto tensorial. Este
resultado se puede extender al caso en que se realiza un conjunto de mediciones asociadas a un C.S.C.O. de E (1),
es decir cuando la medicion es completa con respecto a un subsistema (estas mediciones son naturalmente parciales
con respecto al sistema global).
Cuando el estado del sistema global no es un producto tensorial del tipo | (1)i | (2)i, no podemos asociar
un ket | (1)i , | (2)i a cada subsistema (1) y (2) 1 . Surge entonces la pregunta de como caracterizar cada
sistema parcial en un sistema correlacionado. Esta pregunta es de gran interes si tenemos en cuenta que en general
todo sistema fsico ha interactuado en el pasado con otros sistemas incluso si esta aislado en el momento en que
estudiamos tal sistema. Esto implica que el sistema total (sistema bajo estudio mas el sistema con el que interactuo
en el pasado) no es en general un estado producto y no es posible asociar un vector de estado | (1)i con el sistema
bajo estudio. Este problema se resuelve asociando al subsistema (1) (sistema bajo estudio) un operador (operador
densidad) en lugar de un vector, volveremos sobre este punto en la seccion 6.2.
Por el momento, tomaremos un caso en el cual se puede asociar un vector de estado para el sistema (1). Esto
ocurre cuando se realiza un conjunto completo de medidas del subsistema (1). Hemos visto que en tal situacion,
para cualquier estado del sistema global (1) + (2) antes de la medida, un conjunto completo de medidas en E (1)
1
Por ejemplo, la energa de un sistema compuesto no es en general la suma de las energas individuales ya que la interaccion aporta
a dicha energa, ademas no hay una manera no ambigua de repartir la energa total del sistema asignandole una porcion a cada
sistema.
248 CAPITULO 6. APLICACION DE LOS POSTULADOS CON INFORMACION PARCIAL

coloca al sistema global en un estado que es producto tensorial como se ve en la Ec. (6.8). El vector asociado
con (1) es el que se obtiene de manera unica (salvo por un factor multiplicativo), por medio de los valores del
conjunto completo de medidas sobre (1). En consecuencia, el conjunto completo de medidas sobre (1) borra todas
las correlaciones que surgen de interacciones previas entre los dos sistemas. En particular, si en el momento de la
medida el sistema (2) esta muy lejos y ya no interactua con el sistema (1), el sistema (2) puede ser totalmente
omitido para efectos de estudiar al sistema (1).
Hemos visto que cuando el estado |i es un producto tensorial, el vector de estado asociado al subsistema
(2), no depende de medidas hechas sobre el sistema (1). Ahora bien, cuando el estado del sistema global es |i
antes de las medidas, y realizamos un conjunto completo de medidas sobre (1), la Ec. (6.8) nos muestra el estado
| i en el cual queda preparado el sistema global. Dicha ecuacion nos muestra que cuando |i no es un producto
tensorial, el vector de estado | (2)i asociado al sistema (2) posterior a las medidas, depende del resultado del
conjunto completo de medidas en (1). Esto es a priori sorprendente ya que el estado del sistema (2) despues de
ejecutar un conjunto completo de medidas en (1), dependera del resultado de dichas medidas incluso si el sistema
(2) esta muy lejos del sistema (1) en el momento de realizar las medidas. En otras palabras un conjunto completo
de medidas sobre (1) influira sobre el sistema (2) incluso cuando estos no interactuan. Esta paradoja ha sido
ampliamente estudiada por cientficos como Einstein, Podolsky, Rosen y Bell.

6.2. Operador densidad


Cuando conocemos completamente el estado del sistema en un cierto tiempo, podemos predecir determinsti-
camente el estado en cualquier tiempo posterior en tanto no se realice una medida. Tambien podemos predecir
perfectamente probabilidades de obtener determinados resultados cuando se realizan medidas. Para determinar
completamente el estado en cierto tiempo es suficiente realizar un conjunto de medidas que formen un C.S.C.O.
Este es el caso en el experimento de polarizacion de fotones descrito en la seccion 2.9, en el cual el estado de
polarizacion es conocido perfectamente cuando el haz atravieza el polarizador.
Sin embargo, ocurre con frecuencia que el estado del sistema no esta completamente determinado. Por ejemplo,
los estados de polarizacion de los fotones que emanan de una fuente de luz natural (no polarizada) no estan bien
definidos. Otro ejemplo lo constituyen los atomos de un gas a cierta temperatura, para los cuales el valor de
la energa cinetica de los atomos solo se conoce estadsticamente. La pregunta natural es como incorporar esta
informacion incompleta en el formalismo de modo que se pueda aprovechar de la mejor manera posible. Esto
nos llevara a la introduccion del operador densidad que nos permitira incorporar los resultados parciales en los
postulados de la mecanica cuantica.

6.2.1. El concepto de mezcla estadstica de estados


Ya hemos mencionado el concepto de mezcla estadstica de estados (ver seccion 5.9.1, pag 232). Cuando
tenemos informacion incompleta de un sistema es usual utilizar el concepto de probabilidad para incorporar la
informacion parcial. Como ejemplo, cada estado de polarizacion posible para un foton posee la misma probabilidad
en un haz de luz no polarizada. Un sistema termodinamico en equilibrio a temperatura T posee una probabilidad
proporcional a eEn /kT de estar en el estado de energa En .
En mecanica cuantica es usual que la informacion parcial se presente de la siguiente forma: Un sistema cuantico
dado posee un conjunto de estados accesibles {|n i} siendo pk la probabilidad de obtener un estado especfico |k i
donde obviamente X
pk = 1 ; 0 pk 1
k

decimos entonces que el sistema esta en una mezcla estadstica de estados accesibles {|n i} con probabilidades {pn }.
Queremos ahora hacer predicciones sobre los resultados cuando se realiza un conjunto de medidas sobre el sistema.
Si el sistema estuviera en un estado |k i podramos aplicar los postulados para realizar las correspondientes
predicciones. Sin embargo, dado que no tenemos certeza sobre el estado inicial sino solo una probabilidad pk de
6.2. OPERADOR DENSIDAD 249

que se encuentre en ese estado, los resultados obtenidos deben ser ponderados por el factor pk y luego sumados
sobre todos los estados accesibles en la mezcla estadstica.
Los estados accesibles {|k i} se pueden normalizar y de hecho asumiremos de aqu en adelante que estan
normalizados. Sin embargo, estos estados no son necesariamente ortogonales.
Por otra parte sera necesario distinguir en nuestro estudio dos tipos diferentes de probabilidad: (a) Probabilidad
de obtener un estado |k i en el tiempo inicial. En otras palabras, probabilidad de encontrar al sistema en t0 en
unas condiciones iniciales dadas. Este tipo de probabilidad se utiliza tambien en mecanica estadstica clasica y es
inherente a la informacion incompleta sobre las condiciones iniciales. (b) Probabilidad de obtener ciertos resultados
cuando se realizan medidas en el sistema, esta probabilidad es eminentemente cuantica y proviene de los postulados
de la mecanica cuantica, ademas no desaparece incluso si determinamos perfectamente las condiciones iniciales
(estado {|k i}) del sistema.
Adicionalmente, es necesario diferenciar entre una mezcla estadstica y una superposicion lineal de estados
(ver secciones 5.9.1, 5.9.3). Para una superposicion lineal de estados
X
|i = ck |k i (6.9)
k

es frecuente decir que cuando el vector de estado es |i, el sistema tiene probabilidad |ck |2 de estar en el estado
|k i. Esto en realidad significa que cuando se realiza un conjunto de medidas que corresponden a un C.S.C.O. y
que tienen a |k i como autovector, la probabilidad de encontrar el conjunto de autovalores asociados con |k i es
|ck |2 . Vimos en la seccion 5.9.3 que un estado |i dado por la Ec. (6.9) no equivale simplemente a un sistema que
tiene la probabilidad |ck |2 de estar en el estado |k i para cada estado accesible. Esto se debe a que una combinacion
lineal del conjunto {|k i} genera interferencias entre los estados accesibles debidas a terminos cruzados de la forma
ck cp que surgen cuando los modulos de la amplitud de probabilidad se suman y luego se elevan al cuadrado. En
una mezcla estadstica el sistema esta en un estado especfico |m i de los estados accesibles {|k i}, aunque no
sepamos en cual de ellos esta (esta falta de informacion se parametriza con la distribucion de probabilidad). En
contraste, en una superposicion lineal de los estados {|k i}, el sistema esta simultaneamente en todos los estados
aunque ponderados por los coeficientes ck .
Lo anterior implica que no podemos en general describir una mezcla estadstica a traves de un vector de estado
promedio que sea una superposicion de los estados {|k i}. Como ya mencionamos, cuando tomamos una suma
ponderada de probabilidades no se obtienen terminos de interferencia entre los estados accesibles de la mezcla
estadstica.
Ya hemos sugerido una estrategia para estudiar los estados que son una mezcla estadstica que es calcular
las predicciones fsicas asociadas a cada estado |k i ponderando cada estado con su probabilidad para entonces
sumar sobre los estados accesibles. Aunque este metodo es correcto resulta engorroso en muchos casos. Por otro
lado ante la imposibilidad de describir los estados mezclados por medio de un vector promedio, recurriremos
a utilizar un operador promedio que denominaremos operador densidad. Comenzaremos el tratamiento con el
caso mas sencillo en el cual el estado del sistema es completamente conocido

6.2.2. Estados puros y operador densidad


Cuando el estado inicial es perfectamente conocido solo hay un estado accesible |m i de modo que las proba-
bilidades asociadas a los estados estan dadas por pk = km . En tal caso existe un vector de estado que describe al
sistema en cualquier instante de tiempo X
| (t)i = cn (t) |un i
n
siendo {|un i} una base ortonormal en el espacio de estados, que por simplicidad asumiremos discreta. Si el estado
esta normalizado los coeficientes satisfacen la relacion
X
|cn (t)|2 = 1 (6.10)
n
250 CAPITULO 6. APLICACION DE LOS POSTULADOS CON INFORMACION PARCIAL

si A es un observable, sus elementos de matriz en la base {|un i} y su valor esperado cuando el sistema esta en el
estado | (t)i estan dados por

hun | A |up i = Anp (6.11)


X
hAi (t) = h (t)| A | (t)i = h (t)| un i hun | A |up i hup | (t)i (6.12)
n,p
X
hAi (t) = cn (t) cp (t) Anp ; ck (t) huk | (t)i (6.13)
n,p

y la evolucion de | (t)i se describe con la ecuacion de Schrodinger

d
i~ | (t)i = H (t) | (t)i (6.14)
dt
siendo H (t) el Hamiltoniano del sistema. Notese que el valor esperado de A depende cuadraticamente de los
coeficientes de Fourier como se aprecia en la Ec. (6.13). El producto de coeficientes cn (t) cp (t) que aparece en
dicha ecuacion se puede escribir en la forma

cn (t) cp (t) = hup | (t)i h (t)| un i = hup | [| (t)i h (t)|] |un i

de modo que este producto es claramente un elemento de la representacion matricial del proyector | (t)i h (t)|
en la base {|uk i}. Es natural entonces definir un operador (t) en la forma

(t) | (t)i h (t)| (6.15)

que denominaremos operador densidad. Su representacion matricial en la base {|uk i} es claramente

pn = hup | (t) |un i = cn (t) cp (t) (6.16)

mostraremos a continuacion que el operador densidad (t), posee la misma informacion fsica que el vector de
estado | (t)i. Para verlo reescribiremos las formulas (6.10, 6.13, 6.14) en terminos de (t). Sustituyendo (6.16)
en (6.10) tenemos X X X
|cn |2 = cn cn = 1 nn = 1
n n n

de modo que en virtud de la normalizacion del estado | (t)i en (6.15), la traza del operador densidad es igual a
la unidad
T r (t) = 1 (6.17)
teniendo en cuenta las relaciones (6.11, 6.16), la Ec. (6.13) queda
X X X
hAi (t) = cn (t) cp (t) Anp = hup | (t) |un i hun | A |up i = hup | (t) A |up i
n,p n,p p
hAi (t) = T r { (t) A} (6.18)

ahora calcularemos la evolucion temporal de (t), partiendo de la Ecuacion de Schrodinger y su conjugada


   
d d d d
(t) = [| (t)i h (t)|] = | (t)i h (t)| + | (t)i h (t)|
dt dt dt dt
1 1 1 1
= H (t) | (t)i h (t)| + | (t)i h (t)| H (t) = H (t) (t) (t) H (t)
i~ (i~) i~ i~
d 1
(t) = [H (t) , (t)]
dt i~
6.2. OPERADOR DENSIDAD 251

veamos ahora como se escribe la probabilidad P (an ) de obtener el valor an cuando se mide el observable A, en
terminos del operador densidad. La Ec. (4.8) nos muestra que P (an ) es el valor esperado del proyector Pn sobre
el autoespacio generado por an
P (an ) = h (t)| Pn | (t)i = hPn i (6.19)
y usando (6.18) en (6.19) se obtiene
P (an ) = hPn i = T r {Pn (t)} (6.20)
otras propiedades del operador densidad se siguen directamente de su definicion Ec. (6.15)
(t) = (t) ; 2 (t) = (t) ; T r2 (t) = 1
En resumen, hemos encontrado las siguientes expresiones para el operador densidad y su relacion con los
observables fsicos

hAi (t) = T r { (t) A} ; P (an ) = T r {Pn (t)} (6.21)


d
i~ (t) = [H (t) , (t)] (6.22)
dt
T r = 1, (t) = (t) (6.23)
2 2
(t) = (t) ; T r (t) = 1 (6.24)

la segunda de las Ecs. (6.21) nos expresa la conservacion de la probabilidad en el lenguaje del operador densidad.
Veremos que estas ecuaciones seran tambien validas en el caso de estados mezclados, excepto las Ecs. (6.24), las
cuales provienen del hecho de que para estados puros, el operador densidad es un proyector.
Para el caso de estados puros, el formalismo de operador densidad es totalmente equivalente al de vectores
de estado. No obstante, el formalismo de operador densidad posee algunas ventajas incluso para estudiar estados
puros. Por ejemplo, los estados fsicamente equivalentes | (t)i y ei | (t)i estan asociados a un solo operador
densidad (t) = | (t)i h (t)| de modo que el operador densidad remueve la arbitrariedad introducida por la
fase en el vector de estado. Por otra parte, las Ecs. (6.21, 6.22, 6.23) muestran que las formulas basicas para los
observables son lineales con respecto al operador densidad (t). En contraste, las Ecs. (6.12, 6.19) son cuadraticas
en el vector de estado | (t)i. Veremos que la linealidad simplificara el tratamiento considerablemente.

6.2.3. Mezcla estadstica de estados: estados no puros


Estudiaremos ahora la incorporacion del operador densidad para la caracterizacion de estados mezclados, en
los cuales no es posible una caracterizacion por vectores de estado. Sea pn la probabilidad de encontrar al sistema
en el estado accesible |n i. Estas probabilidades {pk } son numeros reales que satisfacen las condiciones
X
0 pk 1 ; pk = 1 (6.25)
k

veamos como calcular la probabilidad P (an ) de que al medir el observable A se obtenga el valor an . Comenzaremos
por evaluar la probabilidad Pk (an ) de obtener el valor an del observable A, cuando el sistema se encuentra en el
estado |k i, puesto que tal probabilidad sale directamente de los postulados

Pk (an ) = hk | Pn |k i
para obtener P (an ) debemos entonces ponderar esta probabilidad con la probabilidad pk de que el sistema este
en el estado |k i 2 , para luego sumar sobre todos los estados accesibles
X
P (an ) = pk Pk (an ) (6.26)
k
2
Esto nos da la probabilidad de que ocurran simultaneamnte dos hechos: (a) que el estado del sistema sea |k i y (b) que el valor
obtenido en la medida del observable A sea an .
252 CAPITULO 6. APLICACION DE LOS POSTULADOS CON INFORMACION PARCIAL

Pk (an ) es una probabilidad asociada a un estado puro (con vector de estado |k i) de modo que podemos evaluarla
aplicando la Ec. (6.20)
Pk (an ) = T r {k Pn } (6.27)
siendo k = |k i hk | el operador densidad asociado al vector de estado |k i. Para obtener P (an ) en terminos de
los operadores densidad k sustitumos (6.27) en (6.26)
( )
X X
P (an ) = pk T r {k Pn } = T r pk k Pn (6.28)
k k

observese que si definimos X


(t) pk k (t) (6.29)
k
y sustitumos esta definicion en (6.28), obtendremos una expresion para estados mezclados analoga a la Ec. (6.20)
para estados puros
P (an ) = T r {Pn } (6.30)
es natural entonces definir a en la Ec. (6.29), como el operador densidad asociado al sistema en un estado
mezclado. Notese que es el promedio ponderado de los operadores k asociados a estados puros.

6.2.4. Propiedades generales del operador densidad


Derivaremos las propiedades del operador densidad para estados mezclados. Obviamente, tales propiedades
deben contener como caso particular las propiedades del operador densidad para estados puros, para lo cual debe
hacerse pk = km . Calculemos primero la traza de
" #
X X X
T r = T r pk k = pk T rk = pk = 1
k k k

donde hemos usado las Ecs. (6.29, 6.17, 6.25). La expresion para la probabilidad Ec. (6.30) coincide con la expresion
para estados puros, con la extension apropiada del operador densidad Ec. (6.29). Veamos lo que ocurre con el
valor esperado de un observable
(" # )
X X X
hAi = pk hAk i = pk T r {k A} = T r pk k A
k k k
hAi = T r {A}
esto tambien se puede ver usando la Ec. (6.30) en la forma
( )
X X X
hAi = an P (an ) = an T r {Pn } = T r an Pn = T r {A}
n n n

donde hemos usado el teorema espectral Ec. (1.98), Pag. 52. Calculemos ahora la evolucion temporal del operador
densidad para estados mezclados. Para ello asumiremos que a diferencia del estado del sistema, su Hamiltoniano
esta bien definido. En otras palabras, el sistema como tal esta perfectamente definido aunque no lo este su estado.
Puede verse facilmente que si en el tiempo t0 el sistema tiene una probabilidad pk de estar en el estado |k i
entonces en un tiempo posterior t, tiene la misma probabilidad de estar en el estado |k (t)i 3 . Si el sistema esta
3
Esto se puede ver teniendo en cuenta que la probabilidad de que en el tiempo t el sistema este en el estado |k (t)i es la composicion
de dos probabilidades: (i) La probabilidad pk de que en t0 el sistema este en el estado |k (t0 )i y (ii) la probabilidad pt de que estando
el sistema en el estado |k (t0 )i en t0 , quede en el estado |k (t)i en el tiempo posterior t. La probabilidad total es el producto de las
dos probabilidades. Sin embargo, la probabilidad del segundo evento es pt = 1 debido a la naturaleza determinista de la ecuacion de
Schrodinger. Notese que para que el segundo evento sea determinista, es necesario que el Hamiltoniano del sistema este bien definido
(y por tanto la Ec. de Schrodinger), aunque el estado inicial no este bien definido.
6.2. OPERADOR DENSIDAD 253

en el estado |k i (puro) en t0 , la evolucion temporal esta dada por la ecuacion de Schrodinger

d
i~ |k (t)i = H (t) |k (t)i ; |k (t0 )i = |k i
dt
el operador densidad en el tiempo t esta dado por
X
(t) = pk k (t) (6.31)
k

donde hemos usado el hecho ya mencionado de que pk no evoluciona en el tiempo. Usando (6.22, 6.31) encontramos
que
" #
d (t) X dk (t) X 1 1 X 1
= pk = pk [H (t) , k (t)] = H (t) , pk k (t) = [H (t) , ]
dt dt i~ i~ i~
k k k
d (t)
i~ = [H (t) , ]
dt
notese que hemos usado la linealidad de las Ecs. (6.22, 6.31) con respecto a k (t) para obtener la evolucion
temporal de . Vemos entonces que la ecuacion de evolucion temporal es totalmente analoga a la obtenida para
estados puros Ec. (6.22).
Notese sin embargo, que definido por (6.31) no es un proyector (a menos que pk = km , en cuyo caso tenemos
un estado puro). Se puede verificar que cuando el estado es mezclado i.e. pk 6= km tenemos que

2 6= ; T r2 < 1 (6.32)

y que verificando una sola de las ecuaciones (6.24) nos dice que el sistema esta en un estado puro. En conclusion,
utilizando la definicion (6.31) del operador densidad para estados mezclados, se obtienen las Ecs. (6.21-6.23),
pero las Ecs. (6.24) para estados puros son reemplazadas por las Ecs. (6.32) para estados mezclados.
Demostraremos adicionalmente que es un operador positivo, en primer lugar es claro que es hermtico puesto
que pk son numeros reales no negativos y cada k es hermtico. Adicionalmente, si tomamos un ket arbitrario |ui
podemos escribir
X X X
hu| |ui = pk hu| k |ui = pk hu| k ihk |ui = pk |hu| k i|2
k k k
hu| |ui 0 (6.33)

donde hemos usado el hecho de que las probabilidades pk son no negativas. Esto demuestra que es un operador
positivo.
Resumimos estos resultados en la siguiente forma: sea un sistema que esta en una mezcla estadstica de estados
con estados accesibles {|k i}, cada uno de ellos asociado a una probabilidad {pk }, definimos el operador densidad
con las siguientes propiedades
X
(t) pk k (t) ; k (t) |k i hk | (6.34)
k
= ; T r = 1 ; es un operador positivo (6.35)
2 2
(t) = (t) ; T r (t) = 1 para estados puros (i.e. pk = km ) (6.36)
2 (t) 6= (t) ; T r2 (t) < 1 para estados mezclados (i.e. pk 6= km ) (6.37)
hAi (t) = T r { (t) A} ; P (an ) = T r {Pn (t)} (6.38)
d
i~ (t) = [H (t) , (t)] (6.39)
dt
254 CAPITULO 6. APLICACION DE LOS POSTULADOS CON INFORMACION PARCIAL

6.2.5. Populaciones y coherencias


Veremos ahora el significado Fsico de los elementos matriciales np de en una cierta base {|un i} de vectores
propios asociados a un cierto observable A que por simplicidad asumimos no degenerado. Consideremos primero
los elementos diagonales nn . De acuerdo con (6.34) estos elementos estan dados por
X X X X
nn = pk [k ]nn = pk [|k i hk |]nn = pk hun |k i hk | un i = pk |hun |k i|2
k k k k
X 2

nn = pk c(k)
n ; c(k)
n hun |k i (6.40)
k

(k) 2
los factores cn son cantidades positivas que fsicamente se interpretan de la siguiente manera: Si el estado del

(k) 2
sistema es |k i y si se mide el observable A cuyos vectores propios estan dados por la base {|un i}, entonces cn
es la probabilidad de que el sistema quede preparado en el estado |un i despues de la medida de A 4 .
Ahora bien, la Ec. (6.40), nos dice que nn es la suma ponderada (a traves de las probabilidades asociadas a
los estados) de las probabilidades arriba mencionadas. En otras palabras, nn representa la probabilidad promedio
de encontrar al sistema en el estado |un i. Este promedio surge de la indeterminacion que tenemos sobre el estado
inicial del sistema. Por las razones anteriores, nn se conoce como la populacion del estado |un i; puesto que si
realizaramos la misma medida un numero N de veces para sistemas identicos bajo las mismas condiciones iniciales5
con N , entonces un numero N nn de sistemas estaran en el estado |un i. Es claro ademas de la Ec. (6.40),

(k) 2
que nn es un numero real positivo, igual a cero solo si todos los cn son cero.
Con un calculo muy similar se encuentran los elementos no diagonales de en la base {|un i}
X
np = pk c(k)
n cp
(k)
; c(k)
n hun |k i (6.41)
k

(k) (k)
los terminos cruzados cn cp son del mismo tipo que los estudiados en la seccion 5.9.1. Por tanto, ellos expresan
los efectos de interferencia entre los estados |un i y |up i que pueden surgir cuando el estado |k i es una superposicion
lineal coherente de estos estados. La Ec. (6.41) nos dice que np es el promedio de estos terminos cruzados tomados
sobre todos los estados accesibles de la mezcla estadstica. A diferencia de las populaciones, np se puede anular
incluso si los terminos cruzados no son nulos, esto se debe a que estos terminos cruzados son numeros complejos
(y no numeros reales no negativos como ocurre con los nn ). Si un np es cero, significa que hay una cancelacion
estadstica de los efectos de interferencia entre los estados |un i y |up i. Por otro lado, si np no es cero, decimos
que existe cierta coherencia entre estos estados. Por esta razon, a los elementos no diagonales np suele llamarseles
coherencias.
Es importante mencionar que la distincion entre populaciones y coherencias depende de la base {|un i} escogida
en el espacio de estados, o en otras palabras del observable A para el cual construmos la base {|un i} de vectores
propios. Puesto que es hermtico, es posible encontrar una base ortonormal {|l i} donde sea diagonal, se
puede escribir entonces en la forma X
= l |l i hl |
l
P n (k) 2
4
Si existe degeneracion, de modo que A uin = an uin , solo podremos decir que gi=1 cn,i es la probabilidad de que al medir el
observable A el sistema quede en un estado que pertenece al subespacio Ean . En otras palabras, es la probabilidad de que al medir A
el sistema quede en algun estado asociado al valor propio an . Sin embargo, el estado especfico no es unico, ya que depende del estado
del sistema antes de la medida cuando hay degeneracion.
5
En este caso, las mismas condiciones iniciales no significan que el sistema parta siempre del mismo estado |k i. Lo que significa es
que en el momento inicial para cada experimento, el sistema posee los mismo estados accesibles {|k i} con las mismas ponderaciones
{pk } para estos. Podemos decir que el sistema esta en la misma condicion mezclada inicial, ya que para cada experimento, el operador
densidad es el mismo en el tiempo inicial.
6.3. APLICACIONES DEL OPERADOR DENSIDAD 255

siendo l los valores propios de yP|l i sus vectores propios. Dado que es positivo, sus valores propios son reales
no-negativos y puesto que T r = l l = 1 tenemos que
X
0 l 1 ; l = 1
l

por tanto se puede considerar que describe una mezcla estadstica de sus propios autoestados |l i con probabi-
lidades l . Claramente, no hay coherencias entre los estados {|l i}.
Usando la Ec. (6.33) se puede demostrar que

nn pp |np |2

de esto se obtiene en particular, que solo puede tener coherencias entre estados cuya populacion es no nula.
Esto es razonable ya que implica que un estado puede generar una coherencia con otro, solo si forma parte de los
estados accesibles del sistema.
Un caso interesante ocurre cuando la base elegida {|un i} son autovectores del Hamiltoniano, y este ultimo no
depende explcitamente del tiempo. Por simplicidad, asumiremos que el Hamiltoniano es no degenerado. Tenemos
entonces que
H |un i = En |un i
usando la Ec. (6.39) y teniendo en cuenta que |un i y En no dependen del tiempo (ya que el Hamiltoniano no
depende del tiempo) se encuentra que
 
d d
hun | i~ |up i = hun | [H, ] |up i i~ hun | |up i = hun | [H H] |up i
dt dt
dnp dnp
i~ = hun | [En Ep ] |up i i~ = (En Ep ) hun | |up i
dt dt
dnp
i~ = (En Ep ) np
dt
conviene colocar los terminos diagonales y no diagonales por aparte

dnn dnp
i~ = 0 ; i~ = (En Ep ) np
dt dt
de lo cual se deduce
i
nn (t) = constante ; np = e ~ (Ep En )t np (0)
de modo que las populaciones relativas a estados propios del Hamiltoniano son constantes, y sus coherencias
oscilan a las frecuencias de Bohr del sistema.

6.3. Aplicaciones del operador densidad


6.3.1. Sistema en equilibrio termodinamico
Este ejemplo es tomado de la mecanica estadstica cuantica. Consideremos un sistema termodinamico en
equilibrio con un bano termico a temperatura absoluta T . Se puede mostrar que su operador densidad es
n o
= Z 1 eH/kT ; Z T r eH/kT

donde H es el Hamiltoniano del sistema, k la constante de Boltzmann y Z es una funcion de normalizacion


(conocida como funcion de particion) para mantener la traza de igual a la unidad.
256 CAPITULO 6. APLICACION DE LOS POSTULADOS CON INFORMACION PARCIAL

Vamos a calcular las populaciones y coherencias para la base ortonormal {|un i} asociada a los autoestados del
Hamiltoniano. Los elementos matriciales de estaran dados por

np = Z 1 hun | eH/kT |up i = Z 1 hun | eEp /kT |up i = Z 1 eEp /kT hun | up i
np = Z 1 eEp /kT np

vemos entonces que en el equilibrio termodinamico, las populaciones de los estados estacionarios |un i son funciones
exponencialmente decrecientes de la energa, ademas el decrecimiento es mas rapido a medida que disminuye la
temperatura. Por otro lado, las coherencias entre los estados estacionarios son nulas.

6.3.2. Descripcion de subsistemas con base en observables globales de un sistema: el con-


cepto de traza parcial
Volveremos a estudiar sistemas consistentes en dos subsistemas (1) y (2) como se describio en la seccion 6.1.
Sea E (1) [E (2)] el espacio de estados del subsistema (1) [(2)], y sea {|un (1)i} [{|vp (2)i}] una base ortonormal en
el espacio E (1) [E (2)]. El espacio de estados para el sistema global E y una base ortonormal para dicho espacio
se obtienen como

E = E (1) E (2) ; {|un (1)i |vp (2)i} {|un (1)i |vp (2)i} {|un (1) vp (2)i}

Sea un observable A que actua en el espacio E. Ya hemos estudiado como extender un operador que proviene
de uno de los espacios factores. Ahora estudiaremos un proceso inverso: con base en el operador A que actua en
el espacio producto, encontraremos un operador A (1) que actua en el espacio E (1), y que nos permitira hacer
predicciones fsicas sobre el sistema (1). Esta operacion se denominara la traza parcial con respecto al sistema (2).
Naturalmente, se puede inducir analogamente el operador A (2) sobre el sistema (2) usando la traza parcial con
respecto al sistema (1).
Introduciremos el operador A (1) por medio del operador A, definiendo los elementos matriciales de A (1) en
la base {|un (1)i} de E (1)
( )
X X
hun (1)| A (1) |un (1)i hun (1) vp (2)| A |un (1) vp (2)i = hun (1)| [hvp (2)| A |vp (2)i] |un (1)i (6.42)
p p

como esta definicion es valida para cualquier base {|un (1)i} de E (1) tenemos
X
A (1) [hvp (2)| A |vp (2)i] (6.43)
p

si definimos la traza parcial con respecto al sistema (2) de un operador A sobre E en la forma
X
T r2 A hvp (2)| A |vp (2)i (6.44)
p

podemos escribir la definicion de A (1), Ec. (6.43) en la forma

A (1) T r2 A (6.45)

para comprender el concepto de traza parcial, escribamos la traza normal de un operador A en terminos de la
base {|un (1)i |vp (2)i} de E XX
T rA = hun (1) vp (2)| A |un (1) vp (2)i (6.46)
n p

comparando (6.46) con (6.44) vemos que la apariencia de las dos ecuaciones es similar, excepto que en (6.44) solo
se suma sobre la base del sistema (2). Por esta razon, hablamos de la traza parcial de A con respecto al sistema
6.3. APLICACIONES DEL OPERADOR DENSIDAD 257

(2). Notese ademas que la traza parcial con respecto al sistema (2) de un operador A sobre E, es un operador
en E (1). Esta es una gran diferencia con respecto a la traza normal, la cual es un numero complejo. Para ver que
dicha traza parcial es un operador sobre E (1), aplicaremos esta traza parcial sobre un ket | (1)i E (1)
X X
A (1) | (1)i (T r2 A) | (1)i hvm (2)| A |vm (2)i | (1)i = hvm (2)| {A |vm (2) (1)i}
m m

y dado que A |vm (2) (1)i es un ket en el espacio E = E (1) E (2), se puede escribir como una superposicion de
la base {|un (1)i |vp (2)i} de E, por tanto
( ) ( )
X X X X
A (1) | (1)i = hvm (2)| cnp |un (1)i |vp (2)i = hvm (2)| vp (2)i cnp |un (1)i
m n,p m n,p
X
A (1) | (1)i = cnp |un (1)i | (1)i E (1)
n,p

como se quera demostrar. Veamos ahora como se escribe la traza normal de A en terminos de las trazas parciales
sobre los sistemas (1) y (2).
( )
XX X X
T rA = hun (1)| {hvp (2)| A |vp (2)i} |un (1)i = hun (1)| hvp (2)| A |vp (2)i |un (1)i
n p n p
X
= hun (1)| {T r2 A} |un (1)i = T r1 (T r2 A)
n

asumiendo que las sumatorias pueden intercambiarse encontramos que

T rA = T r1 (T r2 A) = T r2 (T r1 A) (6.47)

Es facil ver que la traza parcial con respecto al sistema (1) de un operador sobre E (1) es un numero complejo, e
igualmente cuando tomamos el sistema (2). Por esta razon, si tomamos la traza parcial con respecto a (1) y luego
la traza parcial con respecto a (2) (o viceversa) de un observable A sobre E, el resultado es un numero complejo
como se ve en la Ec. (6.47).
Obtendremos ahora la traza (normal) de A (1) (calculada sobre E (1)). Para ello usamos la Ec. (6.43), con lo
cual se obtiene
" #
X X X XX
T rA (1) = hun | A (1) |un i = hun | hvp (2)| A |vp (2)i |un i = hun vp (2)| A |un vp (2)i
n n p n p
T rA (1) = T rA (6.48)

En conclusion la traza de A (calculada sobre E) coincide con la traza de A (1) (calculada sobre E (1)) y obviamente
tambien coincide con la traza de A (2) (calculada sobre E (2)).
Adicionalmente, es facil ver a partir de la Ec. (6.43), que si A es hermtico entonces A (1) y A (2) tambien lo
son.

6.3.3. Traza parcial y operador densidad


Una de las aplicaciones de mayor interes del concepto de traza parcial se obtiene cuando lo aplicamos al
operador densidad sobre E = E (1) E (2). Puesto que la traza de es igual a la unidad, la traza de (1) y (2)
tambien lo sera, de acuerdo con la Ec. (6.48). As mismo, los operadores (1) y (2) tambien seran hermticos y en
general, puede demostrarse que (1) y (2) satisfacen todas las propiedades de un operador densidad establecidas
en la seccion 6.2.46 .
6
Sin embargo, la evolucion temporal de (1) o (2) no viene en general dada por la Ec. (6.39).
258 CAPITULO 6. APLICACION DE LOS POSTULADOS CON INFORMACION PARCIAL

Sea ademas A (1) un observable definido sobre E (1). La Ec. (6.38) nos dice que el valor esperado del observable
e
A (1) A (1) I2 sobre E esta dado por
D E n o X h i
Ae (1) = T r A e (1) = e (1) |un (1) vp (2)i
hun (1) vp (2)| A
n,p

X X

= hun (1) vp (2)| un (1) vp (2) un (1) vp (2) (A (1) I2 ) |un (1) vp (2)i
n,p

n ,p
XX

= hun (1) vp (2)| un (1) vp (2) hun (1)| A (1) |un (1)i vp (2) I2 |vp (2)i
n,p n ,p
XX
= hun (1) vp (2)| un (1) vp (2) hun (1)| A (1) |un (1)i pp
n,p n ,p

e (1) queda
con lo cual es valor esperado de A
" #
D E X X
e (1)
A = hun (1) vp (2)| |un (1) vp (2)i hun (1)| A (1) |un (1)i
n,n p
" #
D E X X
e (1)
A = hun (1)| hvp (2)| |vp (2)i |un (1)i hun (1)| A (1) |un (1)i
n,n p

pero el factor dentro de parentesis cuadrados es el elemento matricial de (1), como se observa en la definicion
(6.43). Con lo cual tenemos
D E X XX X
Ae (1) = [hun (1)| (1) |un (1)i] hun (1)| A (1) |un (1)i = [ (1)]nn [A (1)]n n = [ (1) A (1)]nn
n,n n n n
D E
Ae (1) = T r [ (1) A (1)] (6.49)

comparando con la expresion


D E (6.38) vemos que la traza parcial (1) nos permite calcular los valores esperados de
e
observables del tipo A (1) como si el sistema (1) estuviera aislado y tuviera a (1) como su operador densidad.
Similarmente, obtenemos una expresion analoga a la segunda de las Ecs. (6.38) para calcular probabilidades
asociadas a observables del tipo A e (1), es decir para resultados de medidas realizadas solo sobre el sistema (1).
En la seccion 6.1.2, vimos que no es posible asignar un vector de estado al sistema (1), si el estado del sistema
global (1) + (2) no esta descrito por un producto tensorial de estados de E (1) y E (2). Esto nos muestra otra
ventaja del operador densidad: independientemente de que el sistema global este o no este en un producto de
estados, o de que el sistema este en un estado puro o mezclado, siempre es posible construr un operador densidad
(1) asociado al subsistema (1), utilizando las trazas parciales. Esto permite el calculo de todas las cantidades
asociadas solo con el sistema (1). En contraste, para que podamos asignar un vector de estado a cada subsistema
del sistema global, se requiere que dicho sistema global este en un estado puro y que el vector de estado que lo
describe sea un producto tensorial de vectores de cada subsistema. 
Por otro lado, se puede demostrar a partir de la Ec. (6.42) que T r 2 (1) no es en general igual a la unidad,
incluso si T r = T r2 = 1. Fsicamente, esto significa que incluso si describe un estado puro, los operadores
densidad (1) y (2) obtenidos por trazas parciales no necesariamente describen estados puros. En otras palabras,
incluso si se puede asignar un vector de estado al sistema global, no es en general posible asignar un vector de
estado al subsistema (1) [o al (2)], excepto en el caso en el cual el sistema global esta en un estado producto.
Lo anterior nos induce a estudiar el caso en el cual el sistema global esta en un estado producto

|i = | (1)i | (2)i = | (1) (2)i (6.50)


6.3. APLICACIONES DEL OPERADOR DENSIDAD 259

puesto que esto implica un estado puro, el operador densidad viene dado por la Ec. (6.15)

= | (1) (2)i h (1) (2)| = [| (1)i h (1)|] [| (2)i h (2)|]

esto se puede escribir en la forma

= (1) (2) (6.51)


(1) | (1)i h (1)| , (2) | (2)i h (2)| (6.52)

Calculando las trazas parciales a partir de (6.44) se tiene que


X X
T r2 { (1) (2)} hvp (2)| [ (1) (2)] |vp (2)i = (1) hvp (2)| (2) |vp (2)i
p p
T r2 { (1) (2)} = (1) T r [ (2)] = (1)

y similarmente para T r1 { (1) (2)}, con lo cual se obtiene

T r2 { (1) (2)} = (1) ; T r1 { (1) (2)} = (2) (6.53)

por tanto si el operador densidad esta descrito por (6.51), tal operador representa una simple yuxtaposicion de un
sistema (1) descrito por el operador densidad (1), y un sistema (2) descrito por (2). No hay correlacion entre
estos dos subsistemas.
Notese que los resultados arriba mencionados dependen de la Ec. (6.51), pero no de las Ecs. (6.50, 6.52). Esto
implica que la validez de (6.53) se extiende a un contexto mas general, ya que es posible encontrar estados del
sistema en los cuales se puede factorizar en la forma (6.51), pero en donde los operadores factor no necesariamente
son de la forma descrita por (6.52), es decir (1) y (2) pueden corresponder a estados puros y/o mezclados. Si
al menos uno de los operadores (1) , (2) corresponde a un estado mezclado, el estado del sistema no estara
descrito por un vector de la forma (6.50). Lo anterior implica la simple yuxtaposicion de dos sistemas cada uno
en un estado mezclado, pero que no estan correlacionados entre s, y el sistema global sera en general mezclado.
Captulo 7

Formulaciones alternativas de la mecanica


cuantica

7.1. Operador evolucion temporal: definicion y propiedades


En la seccion 3.3.2 vimos que la transformacion que nos lleva de un estado inicial | (t0 )i al estado | (t)i del
mismo sistema en un instante posterior t, es una transformacion lineal descrita por la Ec. (3.23)

| (t)i = U (t, t0 ) | (t0 )i (7.1)

por otro lado, vimos en la seccion 3.3.3, que los kets | (t)i poseen la misma norma para todo tiempo, propiedad
fundamental para obtener conservacion de la probabilidad. Esto implica entonces que el operador U (t, t0 ) debe
ser unitario (debe conservar la norma). Caracterizar este operador conocido como operador evolucion temporal,
es en todo sentido equivalente fsicamente a resolver la ecuacion de Schrodinger. Una primera propiedad que se
desprende directamente de la definicion Eq. (7.1) es que

U (t0 , t0 ) = I (7.2)

escribiendo la Ec. de Schrodinger en el lenguaje de los kets y usando la Eq. (7.1) se tiene
d
i~ | (t)i = H (t) | (t)i (7.3)
 dt


i~ U (t, t0 ) | (t0 )i = H (t) U (t, t0 ) | (t0 )i
t
y teniendo en cuenta que el estado inicial es en principio arbitrario, podemos escribir

i~ U (t, t0 ) = H (t) U (t, t0 ) (7.4)
t
vemos que (7.4) es una ecuacion diferencial de primer orden para U (t, t0 ) que debe cumplir la condicion inicial
(7.2). Las Ecs. (7.2, 7.4) se pueden sintetizar en una sola ecuacion integral
Z
i t  
U (t, t0 ) = I H t U t , t0 dt
~ t0
La Ec. (7.1) es valida para todos los valores de t y t0 (de momento no hemos introducido causalidad), por tanto
podemos escribir

| (t1 )i = U (t1 , t0 ) | (t0 )i (7.5)


| (t2 )i = U (t2 , t1 ) | (t1 )i (7.6)

260
7.1. OPERADOR EVOLUCION TEMPORAL: DEFINICION Y PROPIEDADES 261

y sustituyendo (7.5) en (7.6) se tiene


| (t2 )i = U (t2 , t1 ) [U (t1 , t0 ) | (t0 )i]
| (t2 )i = [U (t2 , t1 ) U (t1 , t0 )] | (t0 )i (7.7)
de la misma forma, la accion de U (t2 , t0 ) se puede escribir usando (7.1)
| (t2 )i = U (t2 , t0 ) | (t0 )i (7.8)
y puesto que | (t2 )i y | (t0 )i son arbitrarios, la comparacion de las Ecs. (7.7, 7.8) nos da
U (t2 , t0 ) = U (t2 , t1 ) U (t1 , t0 ) (7.9)
este procedimiento se puede generalizar para escribir
U (tn , t0 ) = U (tn , tn1 ) U (tn1 , tn2 ) . . . U (t2 , t1 ) U (t1 , t0 ) (7.10)
donde t0 , t1 , . . . , tn son arbitrarios. Si asumimos causalidad i.e. t0 < t1 < . . . < tn , la Ec. (7.10) se puede interpretar
diciendo que el sistema evoluciona desde t0 pasando progresivamente por los estados intermedios t1 , t2 , . . .,tn1
hasta llegar a tn . Si usamos t0 = t2 en (7.9) y tenemos en cuenta (7.2) llegamos a
U (t2 , t2 ) = I = U (t2 , t1 ) U (t1 , t2 )
U (t1 , t2 ) = U 1 (t2 , t1 ) (7.11)
es importante insistir en que t1 y t2 son arbitrarios y no se ha asumido causalidad. La relacion (7.11) es sin
embargo muy logica desde el punto de vista causal.
Veremos como es el operador evolucion temporal infinitesimal, es decir el que conecta a un tiempo t con un
tiempo t + dt, para ello escribimos la ecuacion de Schrodinger (7.3) en forma diferencial
i
i~ d | (t)i = H (t) | (t)i dt [| (t + dt)i | (t)i] = H (t) | (t)i dt
  ~
i
| (t + dt)i = I H (t) dt | (t)i (7.12)
~
de la definicion de operador evolucion temporal se tiene
| (t + dt)i = U (t + dt, t) | (t)i (7.13)
comparando (7.12) con (7.13) se tiene que
 
i
U (t + dt, t) = I H (t) dt
~
vemos que el operador infinitesimal de evolucion temporal es unitario a primer orden ya que H es hermtico
 
i
U (t + dt, t) = I + H (t) dt
~
  
i i
U (t + dt, t) U (t + dt, t) = I H (t) dt I + H (t) dt
~ ~
 
U (t + dt, t) U (t + dt, t) = I + O (dt)2

una transformacion unitaria finita se obtiene con sucesivas transformaciones infinitesimales, este proceso de inte-
gracion solo requiere terminos de primer orden ya que los de segundo orden continuan yendo a cero cuando se
toma el lmite. Por tanto, el operador finito de evolucion temporal sera tambien unitario como tena que ser
U (t1 , t2 ) = U 1 (t1 , t2 ) = U (t2 , t1 )
262 CAPITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA

7.1.1. Operador evolucion temporal para sistemas conservativos


Cuando H no es funcion del tiempo, la Ec. (7.4) junto con la condicion inicial (7.2) se pueden integrar para
obtener1
U (t, t0 ) = eiH(tt0 )/~ (7.14)
es facil verificar que este operador es unitario y que U (t0 , t) = U 1 (t, t0 ). La unitariedad de U (t, t0 ) (y por tanto
la conservacion de la probabilidad) esta directamente relacionada con la hermiticidad de H. Una vez mas, vemos el
papel clave de la hermiticidad del Hamiltoniano en la conservacion de la probabilidad. A manera de consistencia,
vamos a encontrar la Ec. (5.67) a partir de la Ec. (5.66) aplicando el operador evolucion temporal para sistemas
conservativos. La Ec. (5.66) es una expansion del estado inicial del sistema en la base |n, i de estados propios
del Hamiltoniano XX
| (t0 )i = cn, (t0 ) |n, i ; cn, (t0 ) hn, | (t0 )i (7.15)
n

al aplicar el operador evolucion temporal a un |n, i queda

X  k X  k
1 i 1 i
U (t, t0 ) |n, i = eiH(tt0 )/~ |n, i = H (t t0 ) |n, i = (t t0 ) H k |n, i
k! ~ k! ~
k=0 k=0

X  k X  k
1 i k 1 i
= (t t0 ) En |n, i = En (t t0 ) |n, i
k! ~ k! ~
k=0 k=0
iEn (tt0 )/~
U (t, t0 ) |n, i = e |n, i (7.16)

aplicando U (t, t0 ) a ambos lados de la Ec. (7.15) y teniendo en cuenta que este operador es lineal tenemos
XX
U (t, t0 ) | (t0 )i = cn, (t0 ) U (t, t0 ) |n, i
n
XX
| (t)i = cn, (t0 ) eiEn (tt0 )/~ |n, i (7.17)
n

donde hemos usado (7.16). Esta ecuacion coincide con (5.67).

7.1.2. Observaciones adicionales sobre el operador evolucion temporal (opcional)


Cuando H depende explcitamente del tiempo podramos pensar en analoga con la ecuacion (7.14), que el
operador evolucion temporal es igual al operador V (t, t0 ) dado por
Rt
~i H(t ) dt
V (t, t0 ) = e t0

sin embargo, esto no es correcto en general, dado que la derivada de un operador de la forma eF (t) no es en general
igual a F (t) eF (t) (ver Eq. 1.148, pag. 79) de modo que en este caso

V (t, t0 )
i~ 6= H (t) V (t, t0 )
t
Consideremos ahora los experimentos descritos en la seccion 5.9.3 en los cuales se llegaba desde el mismo
estado inicial |ua i hasta el mismo estado final |vc i de dos maneras: (1) Efectuando medidas de los observables A
y C obteniendo dichos estados y (2) Efectuando sucesivamente medidas de los observables A, B y C donde para
el estado intermedio se obtiene |wb i. En la discusion de la seccion 5.9.3 se asumio que las medidas se hacan en
intervalos muy cortos de modo que el sistema no tena tiempo de evolucionar. Ahora asumiremos que las medidas
1
Aplicando la Ec. (1.147) Pag. 78, al operador en (7.14), podemos verificar que se cumple la Ec. (7.4).
7.2. BRAS, KETS Y OBSERVABLES EQUIVALENTES 263

se hacen en intervalos en los cuales la evolucion temporal es apreciable. Para el primer caso asumimos que el
sistema esta en el estado |ua i en t0 , y |vc i en t2 . Para el segundo caso asumimos que el sistema esta en el estado
|ua i en t0 , en el estado |wb i en t1 y finalmente en el estado |vc i en t2 . Es decir t0 , t1 y t2 definen los tiempos en
que se realizan las medidas.
En tal situacion, la Ec. (5.86) se convierte en
 2
Pa (c) = hvc | t
2 i = |hvc | U (t2 , t0 ) |ua i|
2
(7.18)

donde t 2 es el estado del sistema que evoluciona
 desde |ua i en t0 hasta el instante justo antes de la medida
+
de C, por eso la notacion t2 , es claro que t2 = |vc i (estado justo despues de la medida de C). La Ec. (5.87)
queda  2 
Pa (b, c) = hvc | t hwb | t i 2 = |hvc | U (t2 , t1 ) |wb i|2 |hwb | U (t1 , t0 ) |ua i|2
2 i 1 (7.19)

siendo t 2 el estado del sistema justo antes de la medida de C, cuando el sistema evoluciona a partir del
estado |wb i en t1 . El estado t 1 describe al sistema justo antes de la medida de B cuando evoluciona desde
|ua i en t0 .
Ahora usando la Ec. (7.9) se tiene

hvc | U (t2 , t0 ) |ua i = hvc | U (t2 , t1 ) U (t1 , t0 ) |ua i


X
hvc | U (t2 , t0 ) |ua i = hvc | U (t2 , t1 ) |wb i hwb | U (t1 , t0 ) |ua i (7.20)
b

sustituyendo (7.20) en la Ec. (7.18), y comparando el resultado con la Ec. (7.19), se puede verificar que al igual
que en la ecuacion (5.90) se tiene que X
Pa (c) 6= Pa (b, c)
b

7.2. Bras, kets y observables equivalentes


A traves de la discusion de los postulados de la mecanica cuantica y sus consecuencias, hemos observado que
las predicciones de la mecanica cuantica tales como valores accesibles de un observable, probabilidades, valores
esperados del observable etc. estan expresados en terminos de ecuaciones de valores propios y productos escalares,
es decir expresiones de la forma
A |i = a |i ; m = h| A |i (7.21)
donde |i , |i , |i se refiere a estados arbitrarios del sistema y A es un observable (operador hermtico completo).
Desde este punto de vista los bras, kets y observables (entendidos estos ultimos como operadores hermticos
completos) no son cantidades medibles sino solo herramientas para calcular los verdaderos observables fsicos
(valores propios y productos escalares). Esto es analogo a lo que ocurre con los potenciales escalar y vectorial en
electrodinamica los cuales son excelentes herramientas pero no corresponden a observables fsicos.
Esto indica que si los kets, bras y observables se redefinen de manera que no se alteran los valores propios ni
los productos escalares, tendremos una imagen diferente pero totalmente equivalente fsicamente desde el punto
de vista de los postulados. La alternativa mas evidente para hacer este cambio de imagen es el uso de operadores
unitarios ya que estos no alteran el valor del producto interno. Vamos a reexpresar el producto interno en (7.21)
insertando operadores identidad a traves de un operador unitario I = O O = OO
    h i 
h| A |i = h| O O A O O |i = h| O OAO [O |i]
 

h| A |i = hO| OAO |Oi (7.22)

ahora redefinimos los operadores, kets y bras en la forma




A OAO ; |Oi = O |i ; hO| = h| O (7.23)
264 CAPITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA

y combinando las Ecs. (7.22, 7.23) es claro que




h| A |i = A (7.24)

adicionalmente puede verificarse que el espectro de valores propios de A coincide con el de A, y los vectores
propios de A estan dados por | i O |i , siendo |i los kets propios de A
 
A |i = a |i OA |i = aO |i OA O O |i = aO |i
 
OAO [O |i] = a [O |i]

se deduce entonces que



A |i = a |i A = a ; A OAO , O |i

En conclusion, los nuevos bras, kets y operadores mantienen intactos los valores propios y productos internos
asociados con los observables fsicos y por tanto describen la misma Fsica que los bras, kets y operadores originales.

7.2.1. La transformada de un operador y sus propiedades


Si tomamos la igualdad expresada en (7.24) para los elementos de una base del espacio


hui | A |uj i = ui A uj
E

tal igualdad se puede interpretar diciendo que el elemento matricial Aij de A en la base uj coincide con el
elemento matricial Aij de A en la base |uj i; siendo ambas bases ortonormales (conectadas por una transformacion
unitaria). En este contexto se dice que A es la transformada del operador A. La transformada A posee propiedades
muy utiles, ya vimos que el espectro de ambos operadores es identico y sus vectores propios estan conectados por
una transformacion unitaria. Las siguientes propiedades se obtienen de la definicion
    
A = OAO = OA O = A

en particular, se obtiene que



A = A A = A
de modo que la hermiticidad se preserva con esta relacion. Vemos ademas que la transformada de A esta conectada
con A por una transformacion de similaridad, con el requerimiento de que el operador que realiza la transformacion
sea unitario. Como las transformaciones de similaridad preservan el producto, es claro que
n
A = (An )

y usando la definicion para una funcion F (A) del operador A, Ec. (1.131) se obtiene

F (A) = F A (7.25)

donde en este caso F (A) significa la transformada de la funcion F (A) con respecto al operador O, y no la
derivada de F (A) con respecto a A (ver notacion en la seccion 1.34.1 Eq. 1.137). Para los conmutadores de las
transformadas de dos operadores A y B tenemos
  h i      
A ,B = OAO , OBO = OAO OBO OBO OAO
   
= OA O O BO OB O O AO = OABO OBAO = O (AB BA) O
 
A ,B = O [A, B] O = [A, B] (7.26)
7.3. LA IMAGEN DE SCHRODINGER Y LA IMAGEN DE HEISENBERG 265

de modo que el conmutador de las transformadas es la transformada del conmutador. Si el conmutador es propor-
cional a la identidad (observables conjugados) tenemos

 
[Q, P ] = I Q , P = O [Q, P ] O = OIO = I
 
[Q, P ] = I Q , P = [Q, P ] (7.27)

el caso mas importante son los observables X, P para los cuales vemos que el conmutador de sus transformadas
X , P , es identico al de los operadores originales.

7.3. La imagen de Schrodinger y la imagen de Heisenberg

Denotaremos a los kets, bras y observables originalmente utilizados en la mecanica cuantica como |S i , hS | ,
AS ; indicando que estan en la imagen de Schrodinger. En esta imagen, los observables basicos X, P no dependen
del tiempo y los observables que se construyen con ellos solo pueden tener dependencia explcita con el tiempo
(excluiremos el espn por ahora) de modo que AS = AS (X, P, t), simplificaremos la notacion a AS = AS (t). La
evolucion temporal del estado en la imagen de Schrodinger se obtiene a traves de la ecuacion de Schrodinger (de
all el nombre de la imagen) o equivalentemente, a traves del operador evolucion temporal Ec. (7.1)

|S (t)i = U (t, t0 ) |S (t0 )i |S (t0 )i = U (t, t0 ) |S (t)i (7.28)

donde hemos tenido en cuenta que U (t, t0 ) es unitario, y por tanto tambien lo es U (t, t0 ). Notese que definiendo
a O U (t, t0 ) como el operador unitario para transformar bras, kets y observables, segun la Ec. (7.23), vemos
que la Ec. (7.28) nos conduce a que los nuevos bras y kets seran independientes del tiempo. Denotaremos a los
nuevos bras, kets y operadores con el subndice H para indicar la imagen de Heisenberg. Usando O U (t, t0 )
en las Ecs. (7.23) y aplicando la Ec. (7.28) se obtiene

|H i U (t, t0 ) |S (t)i = |S (t0 )i ; hH | hS (t)| U (t, t0 ) = hS (t0 )| (7.29)



AH U (t, t0 ) AS (t) U (t, t0 ) (7.30)

la Ec. (7.29) nos muestra que en la imagen de Heisenberg, los kets y bras no poseen evolucion temporal y su
valor coincide con el del estado en la imagen de Schrodinger en t0 . Por otro lado, incluso los observables A que en
la imagen de Schrodinger no dependen del tiempo, adquieren dependencia temporal en la imagen de Heisenberg
como se aprecia en la Ec. (7.30). Se tiene entonces que la evolucion temporal en la imagen de Heisenberg recae
completamente en los operadores.
Calculemos la evolucion temporal del operador AH (t) para un operador arbitrario AS (t). Derivando la Ec.
(7.30) y usando la Ec. (7.4) as como su adjunta, se tiene que

dAH (t) dU (t, t0 ) dAS (t) dU (t, t0 )


= AS (t) U (t, t0 ) + U (t, t0 ) U (t, t0 ) + U (t, t0 ) AS (t)
dt dt dt dt
dAH (t) 1 dA S (t)
= U (t, t0 ) HS (t) AS (t) U (t, t0 ) + U (t, t0 ) U (t, t0 )
dt i~ dt
1
+ U (t, t0 ) AS (t) HS (t) U (t, t0 )
i~
266 CAPITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA

insertando un operador identidad apropiadamente tenemos


dAH (t) 1 h i dAS (t)
= U (t, t0 ) HS (t) U (t, t0 ) U (t, t0 ) AS (t) U (t, t0 ) + U (t, t0 ) U (t, t0 )
dt i~ dt
1 h i
+ U (t, t0 ) AS (t) U (t, t0 ) U (t, t0 ) HS (t) U (t, t0 )
i~
dAH (t) 1 h ih i dAS (t)
= U (t, t0 ) HS (t) U (t, t0 ) U (t, t0 ) AS (t) U (t, t0 ) + U (t, t0 ) U (t, t0 )
dt i~ dt
1 h ih i
+ U (t, t0 ) AS (t) U (t, t0 ) U (t, t0 ) HS (t) U (t, t0 )
i~  
dAH (t) 1 dAS (t) 1
= HH (t) AH (t) + U (t, t0 ) U (t, t0 ) + AH (t) HH (t)
dt i~ dt i~
 
dAH (t) dAS (t)
i~ = [AH (t) , HH (t)] + i~ (7.31)
dt dt H
una ecuacion muy similar a la ecuacion para un observable clasico u (q, p) que es funcion del espacio de fase q, p,
en donde tenemos corchete de Poisson en lugar de conmutador (ver Ec. 5.53, Pag. 222). A manera de consistencia,
veremos que es facil reproducir la Ec. (5.52) teniendo en cuenta que por construccion

hAi (t) = hS (t)| AS (t) |S (t)i = hH | AH (t) |H i

teniendo en cuenta la Ec. (7.31) y el hecho de que en la imagen de Heisenberg los estados no dependen del tiempo
se tiene
   
d hAi (t) dAH (t) 1 dAS (t)
= hH | |H i = hH | [AH (t) , HH (t)] + |H i
dt dt i~ dt H
  
d hAi (t) 1 dAS (t)
= h[AH (t) , HH (t)]iH + (7.32)
dt i~ dt H H

una vez mas, por construccion estas cantidades son iguales al caso en que todo lo evaluamos en la imagen de
Schrodinger, de modo que sustituyendo el subndice H por S en la Ec. (7.32), se reproduce la Ec. (5.52). Notese
sin embargo, que la expresion (7.31) es mas general que la Ec. (5.52) ya que la ultima es valida solo para valores
esperados en tanto que (7.31) es valida para los operadores como tal.

7.3.1. Algunos sistemas simples en la imagen de Heisenberg


Tomemos el caso de una partcula no-relativista unidimensional de masa m sometida a un potencial del tipo
V (XS , t). Usando la Ec. (7.25), tenemos que

PS2 P2
HS (t) = + V (XS , t) ; HH (t) = H + V (XH , t) (7.33)
2m 2m
la Ec. (7.27) nos dice que
[XH , PH ] = [XS , PS ] = i~ (7.34)
sustituyendo (7.33, 7.34) en (7.31) se obtiene la evolucion temporal de los operadores XH , PH
   
dXH (t) dXS PH2
i~ = [XH (t) , HH (t)] + i~ = XH (t) , + V (XH , t)
dt dt H 2m
 
PH2 PH PH PH
= XH (t) , = [XH (t) , PH ] + [XH (t) , PH ] = i~
2m 2m 2m m
dXH (t) PH
=
dt m
7.4. LA IMAGEN DE INTERACCION 267

  
dPH (t) dPS PH2
i~ = [PH (t) , HH (t)] + i~ = PH (t) , + V (XH , t)
dt dt H 2m
= [PH (t) , V (XH , t)] = i~XH V (XH , t)
dPH (t) V (XH , t)
=
dt XH

donde se ha usado la Ec. (1.141) pag. 77. Hemos obtenido entonces la evolucion temporal de los observables basicos
en la imagen de Heisenberg
dXH (t) PH dPH (t) V (XH , t)
= ; = (7.35)
dt m dt XH
estas ecuaciones son una generalizacion del teorema de Ehrenfest Ec. (5.55) Pag. 223, ya que estas ecuaciones son
validas para los operadores como tal y no solo para sus valores esperados.
Vemos que la analoga con las ecuaciones clasicas es mas fuerte en la imagen de Heisenberg. En la imagen de
Schrodinger, la analoga aparece solo cuando se toman los valores esperados de los observables. En contraste, en
la imagen de Heisenberg la analoga aparece directamente en la ecuaciones de movimiento para los observables.
Un sistema simple de amplio interes ocurre cuando el sistema es conservativo (HS es independiente del tiempo),
y el observable AS conmuta con el Hamiltoniano HS . Para sistemas conservativos, el operador evolucion temporal
esta dado por (7.14)
i
U (t, t0 ) = e ~ HS (tt0 )
si AS conmuta con HS tambien conmuta con eHS de modo que conmuta con U (t, t0 ). El observable asociado en
la imagen de Heisenberg queda entonces

AH (t) = U (t, t0 ) AS (t) U (t, t0 ) = U (t, t0 ) U (t, t0 ) AS (t) = AS (t)

En conclusion, si el sistema es conservativo y AS conmuta con HS , los observables en las imagenes de Schrodinger y
de Heisenberg coinciden. Como caso particular, HS = HH para sistemas conservativos. Notese que no es necesario
que AS sea constante de movimiento, ya que en general hemos permitido que AS (t) sea funcion explcita del
tiempo.

7.4. La imagen de interaccion


Consideremos un sistema fsico descrito por un Hamiltoniano H0S en la imagen de Schrodinger. Denotaremos
el operador evolucion temporal asociado a H0S como U0 (t, t0 ) de modo que se cumplen las Ecs. (7.4)

U0 (t, t0 )
i~ = H0S (t) U0 (t, t0 ) ; U0 (t0 , t0 ) = I (7.36)
t
asumimos ahora que el sistema es perturbado por cierta interaccion adicional, de modo que el Hamiltoniano se
modifica en la forma
HS (t) = H0S (t) + WS (t) (7.37)
definiremos una transformacion unitaria para kets, bras y observables a traves del operador evolucion temporal
del Hamiltoniano no perturbado H0S . Por tanto, los nuevos kets, bras y observables se definiran como

|I (t)i U0 (t, t0 ) |S (t)i ; hI (t)| hS (t)| U0 (t, t0 ) ; AI U0 (t, t0 ) AS U0 (t, t0 ) (7.38)

notese que en ausencia de perturbacion i.e. cuando WS (t) = 0, el ket |I (t)i es independiente del tiempo (y
todo coincide con la imagen de Heisenberg). No obstante, la presencia de WS (t) hace que |I (t)i tenga aun
dependencia temporal. Coloquialmente, podemos decir que el operador unitario elegido, absorbe la dependencia
temporal del ket debida a H0S dejandonos solo con la dependencia temporal causada por WS (t). Ya veremos que
268 CAPITULO 7. FORMULACIONES ALTERNATIVAS DE LA MECANICA CUANTICA

las ecuaciones de movimiento apoyan esta vision cualitativa de la situacion. Las Ecs. (7.36, 7.37, 7.38), describen
lo que se denomina la imagen de interaccion.
Primero describiremos la dinamica de los kets |I (t)i en la imagen de interaccion. Derivando la primera de
las Ecs. (7.38) resulta
d |I (t)i dU (t, t0 ) d |S (t)i
i~ i~ 0 |S (t)i + i~U0 (t, t0 )
dt dt dt
y usando las Ecs. (7.36, 7.3) tenemos

d |I (t)i
i~ U0 (t, t0 ) H0S (t) |S (t)i + U0 (t, t0 ) HS (t) |S (t)i
dt h i
= U0 (t, t0 ) H0S (t) U0 (t, t0 ) U0 (t, t0 ) |S (t)i
h i
+U0 (t, t0 ) HS (t) U0 (t, t0 ) U0 (t, t0 ) |S (t)i

d |I (t)i h ih i

i~ = U0 (t, t0 ) H0S (t) U0 (t, t0 ) U0 (t, t0 ) |S (t)i
dt h ih i

+ U0 (t, t0 ) HS (t) U0 (t, t0 ) U0 (t, t0 ) |S (t)i
d |I (t)i n oh i
i~ = U0 (t, t0 ) [HS (t) H0S (t)] U0 (t, t0 ) U0 (t, t0 ) |S (t)i
dt h ih i
= U0 (t, t0 ) WS (t) U0 (t, t0 ) U0 (t, t0 ) |S (t)i

quedando finalmente
d |I (t)i
i~ = WI (t) |I (t)i (7.39)
dt
de modo que la evolucion temporal del ket |I (t)i en la imagen de interaccion esta regida solo por el termino de
perturbacion como se haba anticipado. Es facil demostrar que la ecuacion diferencial (7.39) es equivalente a la
ecuacion integral dada por Z
1 t  
|I (t)i = |I (t0 )i + dt WI t I t (7.40)
i~ t0
Teniendo en cuenta la Ec. (7.38) y el hecho de que U0 (t0 , t0 ) = I, obtenemos la condicion

|I (t0 )i = |S (t0 )i

la ecuacion integral (7.40) se puede resolver por iteracion de manera que |I (t)i queda escrita como una expansion
en series de potencias integrales de WI (t)
( Z  2 Z t Z t1 )
1 t 1
|I (t)i = I + dt1 WI (t1 ) + dt1 WI (t1 ) dt2 WI (t2 ) + . . . |I (t0 )i (7.41)
i~ t0 i~ t0 t0

Estudiemos ahora la evolucion temporal de los observables en esta imagen. Para esto se deriva en el tiempo la
tercera de las ecuaciones (7.38), el procedimiento es muy similar al realizado para obtener la Ec. (7.31), el unico
detalle a tener en cuenta es que aqu se usa U0 (t, t0 ) que esta asociado a H0S , de modo que el analogo a la Ec.
(7.31) queda  
dAI (t) dAS (t)
i~ = [AI (t) , H0I (t)] + i~ (7.42)
dt dt I
las ecuaciones de evolucion (7.39) y (7.42) muestran que los kets de estado tienen solo a WI (t) como fuente
de cambio, en tanto que los operadores tiene solo a H0I como fuente de cambio. Cada parte del Hamiltoniano
7.4. LA IMAGEN DE INTERACCION 269

contribuye a uno u otro cambio, a diferencia de la imagen de Schrodinger en donde la dinamica de los kets esta
regida por el Hamiltoniano completo, o la de Heisenberg en la cual la dinamica de los operadores se rige por el
Hamiltoniano completo.
Es notable que la Ec. (7.39) para los kets, se asemeja a la ecuacion de Schrodinger en la imagen del mismo
nombre, aunque en la Ec. (7.39) solo aparece la perturbacion. Analogamente, la Ec. (7.42) para los operadores se
asemeja a la Ec. (7.31) en la imagen de Heisenberg, aunque en (7.42) solo aparece el Hamiltoniano no perturbado.
Si por ejemplo, WS (t) es mucho menor2 que H0S (t), la dinamica del vector |I (t)i es mucho mas suave
que la dinamica de |S (t)i. Este hecho facilita el uso de diversos metodos de aproximacion. En la practica, esta
imagen resulta util cuando H0S es un Hamiltoniano suficientemente simple para conocer su solucion analtica,
de modo que WS (t) se considera una perturbacion que se puede evaluar por diferentes metodos. Dado que los
operadores toman sus valores no perturbados (que en principio se asumen conocidos), podemos concentrarnos
solo en la evolucion de los kets |I i que en general tienen una evolucion suave. Por ejemplo H0S puede ser la
energa cinetica (solucion de partcula libre como caso no perturbado) y WS (t) puede ser la energa potencial, o
H0S puede ser la energa cinetica mas una parte de la energa potencial que sea suficientemente simple, y WS (t)
contiene interacciones externas adicionales mas complejas.

2
Naturalmente, la comparacion entre dos observables se refiere en realidad a la comparacion entre sus valores propios.
Captulo 8

El oscilador armonico cuantico

El oscilador armonico es un sistema de gran importancia en la fsica clasica. Tal importancia radica en el
hecho de que todo movimiento acotado alrededor de un punto de equilibrio estable puede ser aproximado a
un movimiento armonico simple, siempre que las oscilaciones sean suficientemente pequenas. La cuantizacion
del oscilador armonico aparece en el nacimiento mismo de la mecanica cuantica, ya que la hipotesis de Planck
consistio en cuantizar los modos normales que estan asociados a osciladores armonicos en el interior de un cuerpo
negro. Adicionalmente, las pequenas oscilaciones alrededor del equilibrio tambien estan presentes en el mundo
microscopico, como es el caso de las vibraciones de moleculas diatomicas o de los atomos alrededor del punto
de equilibrio en un red cristalina, etc. Puesto que en estos casos las elongaciones alrededor del equilibrio son
comparables a la longitud de onda de De Broglie de los objetos que vibran, es claro que las correcciones cuanticas
seran importantes para estos sistemas que se comportan como osciladores armonicos.

8.1. Propiedades generales del oscilador armonico cuantico unidimensional


El Hamiltoniano cuantizado del oscilador armonico sera de la forma
P2 1
H= + m 2 X 2 (8.1)
2m 2
puesto que H no es funcion del tiempo, el oscilador armonico cuantico define un sistema conservativo. En conse-
cuencia, el estudio mecanico cuantico de dicho sistema se reduce al estudio de su ecuacion de valores propios

H |i = E |i

que en la base {|xi} se escribe como


 
~2 d2 1 2 2
+ m x (x) = E (x) (8.2)
2m dx2 2

antes de resolver en detalle la ecuacion de valores propios vale la pena mencionar que la forma del potencial
1 1
V (x) = kx2 = m 2 x2
2 2
nos permite obtener algunas propiedades generales de las soluciones. En primer lugar, los autovalores del Hamil-
toniano son positivos, ya que se puede mostrar que en general si la funcion potencial tiene una cota inferior, los
autovalores E de un Hamiltoniano de la forma
P2
H= + V (X)
2m

270
8.2. EL PROBLEMA DE VALORES PROPIOS DEL HAMILTONIANO 271

son mayores que el mnimo de V (x) de modo que si V (x) Vm E > Vm . Para nuestro caso Vm = 0 y por
tanto E > 0.
Por otro lado, debido a que el potencial es una funcion par en el argumento x

V (x) = V (x)

existen autofunciones (x) de H en la base {|xi} con paridad definida (pares o impares en x). Veremos que esto
combinado con el hecho de que el espectro no es degenerado, nos conduce a que las funciones de onda asociadas
con los estados estacionarios son necesariamente pares o impares.
Adicionalmente, es bien sabido que el movimiento clasico esta limitado a un intervalo acotado para cualquier
valor de la energa total del oscilador. Con base en este hecho, se puede demostrar que todos los autovalores de
energa son discretos.
Veremos ahora el problema de valores propios en detalle.

8.2. El problema de valores propios del Hamiltoniano


Veremos que el espectro de energas de la ecuacion de valores propios

H |i = E |i

se puede resolver con base en las relaciones canonicas de conmutacion

[X, P ] = i~

por conveniencia utilizaremos los siguientes operadores adimensionales


r
Xb m X ; Pb
P
(8.3)
~ m~
con los cuales, las relaciones canonicas de conmutacion quedan
h i
b Pb = i
X, (8.4)

y el Hamiltoniano se puede escribir en la forma


 
b
H = ~ H ; b 1 X
H b 2 + Pb2 (8.5)
2
podemos entonces simplificar la ecuacion de valores propios en la forma

b i = i
H

donde tanto el operador H b como los valores propios son adimensionales. Los ndices , i pueden ser (por el
momento) contnuos o discretos y el ndice i nos indica el grado de degeneracion.   
b y Pb fueran numeros, podramos escribir Hb en (8.5) de la forma H b Pb
b = X+i b Pb
Xi
Notese que si X
2

2
, es decir
como el producto de dos funciones lineales. Sin embargo, dado que X b y Pb son operadores no conmutantes, esta
factorizacion no es correcta. Sin embargo, veremos que la redefinicion de estos operadores lineales nos simplifica
considerablemente el problema de valores propios, definiremos entonces
1 b  1 b 
a X + iPb ; a X iPb (8.6)
2 2
r  r 
m P m P
a = X + i ; a = X i (8.7)
2~ 2m~ 2~ 2m~
272 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

cuya inversa se escribe como

b = 1   i  
X a + a ; Pb = a a (8.8)
2 2
r   r
~ m~  
X = a +a ; P =i a a (8.9)
2m 2

el conmutador de a y a se calcula con las reglas canonicas de conmutacion


h i 1hb i h i h i
a, a = X + iPb, Xb iPb = 1 X b i X
b + iPb, X b + iPb, Pb
2 2 2
1 h b b i i h b b i i h b bi i h b bi
= X, X + P, X X, P iP , P
2 2 2 2
i h b bi i h b bi h i
= P, X + P , X = i Pb , X b
2 2
y usando la Ec. (8.4) queda h i
a, a = I (8.10)

esta relacion es entonces equivalente a las reglas canonicas de conmutacion. Ahora queremos escribir el Hamilto-
niano en terminos de los operadores a, a , para ello calculamos primero el producto a a 1
1b  
b + iPb = 1 X
 
a a = X iPb X b 2 + Pb 2 + iX
b Pb iPbX
b
2 2
1  b 2 b2 h
b Pb
i
aa = X + P + i X,
2
1  b 2 b2 
a a = X +P I (8.11)
2
de aqu en adelante reemplazamos la identidad I por el numero 1 lo cual no es causa de ambiguedad. Notese que
la presencia del termino adicional I/2 es debido a la no conmutatividad de Xb y Pb. Comparando (8.5) con (8.11)
vemos que el Hamiltoniano adimensional sera

b =N+1
H ; N a a (8.12)
2
es claro que el nuevo operador N es Hermtico
   
N = a a = (a) a = a a = N

por otro lado el Hamiltoniano adimensional tambien se puede escribir como

b = aa 1
H
2
b y N solo difieren en un operador que es multiplo de la identidad. En
ahora bien, de acuerdo con la Ec. (8.12), H
consecuencia, los autovectores de Hb son autovectores de N y viceversa.
Ahora calcularemos los conmutadores de N con a y a por medio de la Ec. (8.10)
h i h i
[N, a] = a a, a = a [a, a] + a , a a = a
h i h i h i h i
N, a = a a, a = a a, a + a , a a = a

1
De acuerdo con la discusion anterior este producto sera el Hamiltoniano si los operadores Pb , X
b fueran conmutantes.
8.3. DETERMINACION DEL ESPECTRO 273

en resumen, el algebra de conmutadores entre a, a y N se escribe


h i h i
a, a = 1 ; [N, a] = a ; N, a = a (8.13)

donde tambien hemos tenido en cuenta la Ec. (8.10). Veremos que la ecuacion de valores propios se resolvera en
terminos de las propiedades de los operadores a, a y N . De momento, hemos reducido el problema a encontrar
los vectores y valores propios del operador N

N i = i
i
y teniendo en cuenta las Ecs. (8.5, 8.12) los autovectores seran tambien autovectores del Hamiltoniano H
1

con autovalores E = + 2 ~  
i 1

H = + ~ i (8.14)
2

8.3. Determinacion del espectro



En todo lo que sigue, asumiremos que los i estan normalizados. Calculemos la norma del vector a i .
Dicha norma es obviamente no negativa
i 2


a = i a a i = i N i
i 2

a = i i i = 0 (8.15)

lo cual nos indica que

Lemma 1 Los valores propios del operador N son no negativos



La Ec. (8.15) nos muestra que a i = 0 = 0 pero dado que a i = 0 a i = 0 se tiene que
a i = 0 = 0. i
De acuerdo
i a lo anterior, si > 0 entonces a no es cero. Apliquemos ahora el conmutador [N, a] sobre el
autovector usando las reglas de conmutacion (8.13)

[N, a] i = a i N a i = aN i a i = a i a i
   
N a i = ( 1) a i

esta expresion nos indica que cuando > 0 el vector a i es vector propio de N con autovalor 1. Esto indica
ademas que 1 cuando > 0, ya que de lo contrario 1 sera un autovalor negativo de N contradiciendo el
lema anterior. Estos resultados los podemos resumir en la siguiente forma
i
Lemma 2 Sea un autovector no nulo de N con autovalor . Tenemos que (a) a i = 0 = 0. (b) Si

> 0 a i es un autovector no nulo de N con autovalor 1.

El anterior lema nos caracteriza
las propiedades de los vectores a i , es natural entonces preguntarse por las
propiedades de los vectores a i . Con un proceso similar al anterior se tiene que
2

n o
nh i o
i
a = i aa i = i aa a a + a a i = i a, a + N i
2


i
a = i (1 + N ) i = ( + 1) i i i
2
i
a = + 1
274 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO


donde hemos usado la Ec. (8.10). Puesto que 0 el vector a i es siempre no nulo. Ahora usando la Ec.
(8.13) calculemos
h i
N, a i = a i N a i = a N i + a i = a i + a i
h i h i
N a i = ( + 1) a i

vemos que a i es un autovector de N con autovalor + 1. Lo anterior podemos resumirlo en la forma

Lemma 3 Sea i un autovector no nulo de N con autovalor . Tenemos que (a) a i es siempre no nulo.
(b) a i es un autovector de N con autovalor + 1.

Por ahora sabemos que el espectro de N es no negativo. Asumamos que no es entero y mostraremos que
esta hipotesis contradice al lema 1 y por tanto debe ser rechazada. Si no es entero podemos encontrar un entero
n tal que
n < < n+1 (8.16)
consideremos la sucesion de kets
i
, a i , a2 i , . . . , ap i , . . . , an i (8.17)

aplicaremos iterativamente el lema 2. i = a0 i es por hipotesis un autovector no nulo de N con valor
propio 0 = 0. Ahora a i de acuerdo con el lema i es un autovector
no nulo (ya que > 0) de N con
valor propio 1 = 1, podemos i
entonces a 1 . Otra aplicacion del lema lleva a que si
denotar
2 i = a i

v 1 > 0 entonces a
 p1 i  i 1 es un autovector no nulo de N con valor propio 2 = 2. En general
p i
a = a a
= a p+1 es autovector no nulo de N con valor propio p, siempre y cuando se
cumpla que p + 1 > 0. Adicionalmente, puesto que no es entero, p es no nulo, con lo cual el lema 1, nos
dice que p > 0. A su vez, de la Ec. (8.16) vemos que la condicion p > 0 solo se cumple en el intervalo
0 p n.
En sntesis, de acuerdo con el lema 2, un vector ap i de la sucesion (8.17) con 0 p n, es un autovector
no nulo de N con valor propio p > 0.
Veamos ahora que pasa con un vector fuera de la sucesion para lo cual calculamos
 
an+1 i = a an i

an i es un autovector no nulo de N con valor propio v n > 0 (de acuerdo con la Ec. 8.16). Por tanto podemos
aplicar el lema 2 para decir que an+1 i es autovector de N con autovalor n 1 pero este valor propio es
estrictamente negativo de acuerdo con la Ec. (8.16). Esto contradice el lema 1 por lo cual debemos rechazar la
hipotesis de que es no entero.
Lo anterior se puede describir de otra forma diciendo que ap i con 0 p n es autovector de N donde los
valores propios p tienen la siguiente caracterstica: 0 = (n, n + 1); 1 (n 1, n); v2 (n 2, n 1) ; . . . ;
n1 (1, 2); n (0, 1). Al aplicar de nuevo el operador a, el valor propio correspondiente quedara en el intervalo
(1, 0) que esta prohibido por el lema 1.
Veremos ahora que la hipotesis de que es entero es perfectamente consistente con los lemas anteriores, en tal
caso la Ec. (8.16) se cambia por
n = < n+1

y el ket an i es un autovector no nulo de N con valor propio v n = 0. Como su valor propio es cero, el lema
2 nos dice que2
an+1 in = 0 (8.18)
2
Estrictamente, debemos escribir |0i a la derecha de la Ec. (8.18), ya que este es un elemento del espacio de Hilbert (vector nulo).
Sin embargo, no se presenta confusion al usar el smbolo 0.
8.3. DETERMINACION DEL ESPECTRO 275


por tanto el conjunto de vectores diferentes obtenida por aplicacion reiterada de a sobre i esta
limitada cuando
m i
= n es entero, ya que el lema 2 predice que para todo entero m n + 1 tenemos que a = 0, y se obtiene
el vector cero para cualquier aplicacion adicional del operador a. De esta manera se evita la contradiccion con el
lema 1 evitando valores propios negativos.
Veremos ahora que el espectro de N consta
de todos los enteros no negativos. Ya hemos construdo un auto-
vector de N con valor propio nulo: an in i0 . Ahora bien, el lema 3 nos dice que la aplicacion sucesiva de a
k
sobre i0 nos genera autoestados a i0 , con valor propio k, barriendo claramente todos los valores enteros
no negativos.
Utilizando la Ec. (8.14) decimos que los autovalores de H tienen la forma
 
1
En = n + ~ ; n = 0, 1, 2, . . . (8.19)
2
vemos entonces que la energa del oscilador armonico cuantico esta cuantizada, ya que no puede adquirir cualquier
valor. El espaciamiento entre los valores accesibles es ademas uniforme, es decir cada estado excitado consiste
en agregar un cuanto ~ al estado anterior. Adicionalmente, el estado base (estado de menor energa) no posee
energa cero sino ~/2. Notese que el espaciamiento uniforme de los niveles de energa del oscilador armonico
cuantico con valor de espaciamiento ~, coincide con la hipotesis de Planck para el estudio de la radiacion del
cuerpo negro.

8.3.1. Interpretacion de los operadores a, a y N



Si comenzamos
con un estado in de H con valor propio En = n + 12 ~, la aplicacion de los operadores
a y a sobre in nos da
 
i i i 1

a n = n1 n1 ; n1 En1 = (n 1) + ~ = En ~
2
 

i
i i 1

a n = n+1 n+1 ; n+1 En+1 = (n + 1) + ~ = En + ~
2

N = a a in = n in ; n = 0, 1, 2, 3, . . .
i
vemos que la accion de a sobre n equivale a extraer un cuanto de energa ~ del valor de energa En del
estado original. En otras palabras, su accion sobre un autovector de N (o de H) consiste en hacer desaparecer un
cuanto de energa. Por esta razon se denomina
i operador de destruccion o de aniquilacion.
Similarmente, la accion de a sobre n equivale a anadir un cuanto de energa ~ al valor original de

energa En . Su accion sobre un autovector de N (o de H) consiste en hacer aparecer un cuanto de energa. Por
esta razon se denomina operador de construccion o creacion.

Finalmente, vemos que el operador N aplicado sobre in nos da el valor n de cuantos que estan asociados
con el nivel de energa (hay n cuantos agregados al valor del mnimo de la energa). Por esta razon N se conoce
como operador numero.

8.3.2. Estudio de la degeneracion del espectro


Mostraremos que el espectro del oscilador armonico es no degenerado. Comenzaremos estudiando el estado
base. Todos los autoestados de H asociados a E0 = ~/2, o equivalentemente todos los autoestados de N asociados
con n = 0, deben satisfacer segun el lema 2 la siguiente condicion

a i0 = 0 (8.20)

debemos ver entonces cuantos kets linealmente independientes satisfacen esta condicion. Usando las Ecs. (8.7), la
Ec. (8.20) queda en la forma
276 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

r  r r r 
1 m i i m m m i
X+
P 0 = 0 X+ P i0 = 0
2 ~ m~ ~ ~ ~ m~
 
m i i
X + P 0 = 0
~ ~

que en la base {|xi} se escribe


 
m d
x+ i0 (x) = 0 ; i0 (x) = hx i0 (8.21)
~ dx

debemos entonces resolver la ecuacion diferencial de primer orden (8.21). Su solucion mas general es de la forma
1 m 2
i0 (x) = ce 2 ~
x
(8.22)

siendo c una constante de integracion (solo hay una en virtud de que la ecuacion es de primer orden). Por tanto
todas las soluciones no nulas posibles de (8.21) son linealmente dependientes. Existe por tanto un unico ket dentro
de factores multiplicativos asociado a E0 = ~/2. Por tanto, el estado base es no degenerado3 .
La demostracion de que los demas estados no son degenerados la haremos por induccion para lo cual ya tenemos
el primer paso al demostrar que el estado base no es degenerado.
El segundo paso en la induccion es probar que si En = (n + 1/2) ~ no es degenerado entonces el nivel
En+1 = (n + 1 + 1/2) ~ tampoco lo es. Nuestra hipotesis es entonces que dentro de factores multiplicativos, solo
hay un vector |n i tal que
N |n i = n |n i (8.23)
i
ahora consideramos un autovector n+1 correspondiente al autovalor n + 1, donde el ndice i indica una posible
degeneracion
N in+1 = (n + 1) in+1 (8.24)
i
el lema 2 nos dice que a n+1 es un
autovector no nulo de N con autovalor n. Dado que este ket no es degenerado
i
por hipotesis, tenemos que a n+1 es linealmente dependiente con |n i

a in+1 = ci |n i

si aplicamos a a ambos lados se tiene



a a in+1 = ci a |n i

N in+1 = ci a |n i (8.25)

donde hemos usado la definicion de N Ec. (8.12). Combinando (8.24) con (8.25) se tiene

(n + 1) in+1 = ci a |n i
i ci h i
n+1 = a |n i (8.26)
(n + 1)

a |n i es autovector de N con autovalor (n + 1). La expresion (8.26) nos muestra que
el lema 3 nos dice que
todos los kets n+1 asociados al valor propio (n + 1) son linealmente dependientes con a |n i. Por tanto el valor
i

propio n + 1 es no degenerado y la demostracion esta completa. Todos los valores propios del Hamiltoniano son
no degenerados.
3
Aunque aqu usamos la base {|xi}, es claro que el grado de degeneracion es independiente de la base utilizada.
8.4. ESTADOS PROPIOS DEL HAMILTONIANO 277

8.4. Estados propios del Hamiltoniano


Ya que hemos resuelto el problema de valores propios, procederemos ahora a estudiar el problema de los kets
propios del Hamiltoniano del oscilador armonico unidimensional. Tomaremos como hipotesis de trabajo que N y
H son observables, de modo que sus kets propios {|n i} constituyen una base ortonormal4 de Ex , y se cumplen
por lo tanto, relaciones de ortonormalidad y completez
X
hn |n i = n n ; |n i hn | = 1
n

la completez sera probada mas adelante utilizando la representacion {|xi}, es decir calculando las funciones de onda
n (x) y mostrando que estas funciones son completas en el espacio de las funciones cuadraticamente integrables
en x.
Por otro lado N y H tienen un espectro no degenerado. Por tanto cada uno de estos observables constituye
por s solo un C.S.C.O. en Ex .

8.4.1. Construccion de los kets propios con base en el ket del estado base
El ket |0 i asociado al estado base i.e. a n = 0 en N y a E0 = ~/2 en H, es el vector en Ex que satisface la
condicion
a |0 i = 0
y es unico salvo constantes de proporcionalidad. Si lo asumimos normalizado, la ambiguedad se reduce a solo un
factor de fase global arbitraria ei , con real. Aplicando el lema 3 pag 274, el vector |1 i asociado a n = 1 es
proporcional a a |0 i
|1 i = c1 a |0 i (8.27)
determinaremos c1 requiriendo que |1 i este normalizado y que tal coeficiente sea real y positivo (es decir c1 se
fija con fase cero). Para esto se calcula la norma de |1 i
    n o
h1 |1 i = h0 | a c1 c1 a |0 i = |c1 |2 h0 | aa |0 i

y usando la regla de conmutacion (8.10) se obtiene


 
h1 |1 i = |c1 |2 h0 | a a + 1 |0 i = |c1 |2 h0 | (N + 1) |0 i = |c1 |2 h0 | (0 + 1) |0 i
h1 |1 i = |c1 |2 h0 | 0 i c1 = 1

la Ec. (8.27) queda entonces


|1 i = a |0 i
De manera similar construmos a |2 i aplicando el operador creacion a sobre |1 i

|2 i = c2 a |1 i (8.28)

nuevamente requeriremos que c2 sea una constante real positiva que normalice a |2 i. De aqu en adelante este
sera el requerimiento para todas las constantes con que se construyen los siguientes estados.

h2 |2 i = |c2 |2 h1 | aa |1 i = |c2 |2 h1 | (N + 1) |1 i = |c2 |2 h1 | (1 + 1) |1 i


1
h2 |2 i = 2 |c2 |2 = 1 c2 =
2
4
La ortonormalidad esta garantizada automaticamente, debido a la ausencia de degeneracion.
278 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

con lo cual la Ec. (8.28) queda


1 1  2
|2 i = a |1 i = a |0 i
2 2
este proceso se puede generalizar para construr al estado |n i con base en el estado |n1 i

|n i = cn a |n1 i (8.29)

hn |n i = |cn |2 hn1 | aa |n1 i = |cn |2 hn1 | (N + 1) |n1 i = |cn |2 hn1 | [(n 1) + 1] |n1 i
1
hn |n i = n |cn |2 cn =
n

con lo cual la Ec. (8.29) queda


1
|n i = a |n1 i ; n = 1, 2, 3, . . . (8.30)
n
usando la Ec. (8.30) iterativamente, podemos conectar a |n i con el estado base

1 1 1  2 1 1 1  3
|n i = a |n1 i = a |n2 i = a |n3 i
n n n1 n n1 n2
1 1 1 1 1  n
|n i = . . . a |0 i
n n1 n2 2 1

quedando finalmente
1  n
|n i = a |0 i ; n = 0, 1, 2, 3, . . . (8.31)
n!
En sntesis, todos los autoestados de N y H se pueden construr con base en el autoestado base |0 i por
aplicacion sucesiva del operador creacion. El factor 1/ n! garantiza la normalizacion de cada nuevo estado creado,
bajo la convencion de que los coeficientes de normalizacion tengan fase cero, es decir que sean reales y positivos.

8.4.2. Ortonormalidad de los kets propios (opcional)


Es interesante ver a manera de consistencia, que la expresion (8.31) conduce a que los kets |n i son ortonormales

1
 n
hn |n i = h0 | an a |0 i (8.32)
n! n !

veamos como actuan los operadores sobre el ket


 n    n1   
n1
n n 1 n 1
a a |0 i = a aa a |0 i = a (N + 1) a |0 i

  n
h p i
hp i
an a |0 i = an 1 (N + 1) (n 1)! |n1 i = an 1 [(n 1) + 1] (n 1)! |n1 i
" #

 n p 1  n1
an a |0 i = nan 1 (n 1)! p a |0 i
(n 1)!


 n
 n1
an a |0 i = nan 1 a |0 i (8.33)

donde hemos usado la Ec. (8.31). Utilizaremos el resultado (8.33) iterativamente, para ello analizamos tres casos
8.4. ESTADOS PROPIOS DEL HAMILTONIANO 279

1) n < n . En este caso usamos la propiedad (8.33) nveces de forma iterativa


 n   n1    n2 
n n 1 n 2
a a |0 i = n a a |0 i = n (n 1) a a |0 i
 n   n3 

an a |0 i = n (n 1) (n 2) an 3 a |0 i
 n   nn 
n n n
a a |0 i = n [n 1] [n 2] . . . [n (n 1)] a a |0 i (8.34)
 n   0 

an a |0 i = n [n 1] . . . 1 a|n n| a |0 i (8.35)

finalmente  n

an a |0 i = n!a|n n| |0 i (8.36)

pero por hipotesis |n n| es un entero mayor o igual que 1, por tanto a|n n| |0 i = 0 ya que a |0 i = 0. Usando
(8.32) y (8.36) resulta que

1
 n 1 n
o
hn |n i = h0 | an a |0 i = h0 | n!a|n n| |0 i = 0
n! n ! n! n !

2) si n = n podemos usar (8.34) para obtener


 n  0
an a |0 i = n!a0 a |0 i = n! |0 i (8.37)

Usando (8.32) y (8.37) resulta que si n = n

1  n 1
hn |n i = h0 | an a |0 i = h0 | {n! |0 i} = 1
n! n! n!

3) n > n . En este caso podemos conjugar el producto interno hn |n i = hn |n i y probar la ortogonalidad


del miembro derecho con lo cual quedamos nuevamente en el primer caso. Alternativamente, podemos usar la
propiedad (8.33) n veces de forma iterativa, aplicando la Ec. (8.31). En tal caso el analogo de la Ec. (8.34) es
 n  
n

 n n  nn
a a |0 i = n [n 1] [n 2] . . . n n 1 a a |0 i (8.38)
 n    
  |nn |
an a |0 i = n [n 1] [n 2] . . . n n + 1 a0 a |0 i (8.39)

 n   hp i
an a |0 i = n [n 1] [n 2] . . . n n + 1 (n n )! |nn i (8.40)

y el producto interno (8.32) queda

1
 n
hn |n i = h0 | an a |0 i
n! n !
p
n [n 1] [n 2] . . . [n n + 1] (n n )!
= h0 |nn i = 0
n! n !

donde hemos usado el hecho de que n n es un entero mayor o igual que uno, de modo que h0 |nn i = 0.
280 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

8.4.3. Accion de los operadores creacion y destruccion sobre los autoestados del Hamilto-
niano
Las Ecs. (8.9) nos muestran que los observables X, P se pueden escribir en terminos de a y a , por lo tanto
cualquier observable fsico (sin espn) se puede escribir en terminos de a y a . Por otro lado, como los autoestados
{|n i} del Hamiltoniano del oscilador armonico, constituyen una base en Ex , recurriremos con frecuencia a esta
base para construr representaciones matriciales. Por lo anterior, resulta de especial importancia estudiar la accion
de los operadores a y a sobre los estados {|n i}.
La accion de a sobre |n i se puede obtener reemplazando n por n + 1 en la Ec. (8.30)

a |n i = n + 1 |n+1 i ; n = 0, 1, 2, . . .

para obtener a |n i multiplicamos la Ec. (8.30) por a.

1 1 1
a |n i = aa |n1 i = (N + 1) |n1 i = [(n 1) + 1] |n1 i
n n n

a |n i = n |n1 i ; n = 0, 1, 2, . . .

tenemos entonces que la accion de los operadores mas relevantes sobre los autoestados |n i son

a |n i = n + 1 |n+1 i ; a |n i = n |n1 i ; n = 0, 1, 2, . . . (8.41)
 
1
N |n i = n |n i ; H |n i = n + ~ |n i ; n = 0, 1, 2, . . . (8.42)
2

Se puede ver que la segunda de las Ecs. (8.41) contiene automaticamente el hecho de que a |0 i = 0. Notese que
el adjunto de las Ecs. (8.41) es

hn | a = n + 1 hn+1 | ; hn | a = n hn1 | (8.43)

podemos expresar el significado de las Ecs. (8.41, 8.43) en palabras diciendo que a es un operador destruccion
(construccion) para kets (bras), en tanto que a es un operador construccion (destruccion) para kets (bras).
La accion de los observables basicos X y P sobre los autoestados |n i se obtiene usando las Ecs. (8.9)
r r
~   ~  
X |n i = a + a |n i = n + 1 |n+1 i + n |n1 i
2m 2m
r r
m~   m~  
P |n i = i a a |n i = i n + 1 |n+1 i n |n1 i
2 2
con estas relaciones es facil encontrar la representacion matricial de los operadores a, a , X y P en la base {|n i}

hm | a |n i = nhm |n1 i = nm,n1 (8.44)

hm | a |n i = n + 1hm |n+1 i = n + 1m,n+1 (8.45)
r
~  
hm | X |n i = n + 1m,n+1 + nm,n1 (8.46)
2m
r
m~  
hm | P |n i = i n + 1m,n+1 nm,n1 (8.47)
2

se puede ver que las matrices representativas de a y a son hermticas conjugadas una de otra como era de
esperarse, pues en este caso las matrices son reales y la una es la traspuesta de la otra. En forma explcita estas
matrices vienen dadas por
8.5. FUNCIONES PROPIAS ASOCIADAS A LOS ESTADOS ESTACIONARIOS EN LA BASE {|Xi} 281


0 1 0 0 0 0 0 0
0 0 2 0 1 0 0 0

3 0 2 0 0
a= 0 0 0 ; a =
0 0 0 0 0 0 3 0

.. .. .. .. . . .. .. .. .. ..
. . . . . . . . . .
notese que las matrices de X y P son proporcionales a la suma y la diferencia de las matrices anteriores. Finalmente,
las matrices asociadas a X y P son hermticas como se esperaba.

8.5. Funciones propias asociadas a los estados estacionarios en la base {|xi}


Los resultados obtenidos hasta el momento se han extrado a partir de los kets abstractos |n i y el algebra
abstracta de los operadores a, a y N . En otras palabras, todos los resultados anteriores son independientes de la
base5 . El unico resultado que no ha sido demostrado es el hecho de que los estados {|n i} forman una base, lo cual
hasta el momento es solo una hipotesis de trabajo que debe ser examinada. Con el fin de verificar la completez
de los kets propios de H y con el fin de poder hacer calculos concretos de probabilidades vamos a encontrar estos
kets propios de H en la base {|xi} es decir las funciones de onda asociadas.
Ya hemos determinado la funcion de onda asociada al estado base 0 (x) la cual esta dada por la Ec. (8.22)
 m 1/4 1 m 2
0 (x) = hx |0 i = e 2 ~
x
(8.48)
~

donde (m/~)1/4 es un factor de normalizacion. Dado que los demas estados se obtienen de la Ec. (8.31)

1  n
|n i = a |0 i (8.49)
n!

debemos obtener la representacion del vector |n i en la base {|xi} para ello multiplicamos la Ec. (8.49) por el bra
hx|
 n  n
1 1 1 b b
hx |n i = hx| a |0 i = hx| X iP |0 i
n! n! 2
 r n
1 1 m i
n (x) = hx| X P |0 i
n! 2 ~ m~
 r n
1 1 m i ~ d
n (x) = x hx| 0 i
n! 2n ~ m~ i dx

"r r #n
1m ~ d
n (x) = x hx| 0 i
~
2n n! m dx
"r  #n
1 ~ m d
n (x) = x hx| 0 i
2n n! m ~ dx
  n  1  n
1 ~ 2 m d
n (x) = x 0 (x)
n! 2m ~ dx
5
La ausencia de degeneracion del estado base se demostro utilizando la base especfica {|xi}, pero el resultado debe ser independiente
de la base.
282 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

ahora usando en forma explcita la funcion de onda del estado base Ec. (8.48) se tiene que
  n  1   n
1 ~ 2 m  14 m d 1 m 2
n (x) = x e 2 ~ x (8.50)
n! 2m ~ ~ dx
1 m 2
de lo anterior se puede ver facilmente que n (x) es el producto de e 2 ~ x por un polinomio de grado n y paridad
(1)n . Los polinomios que surgen se denominan polinomios de Hermite.
Las dos primeras funciones asociadas a estados excitados (con energa mayor al estado base) son
  
4 m 3 1/4 1 m x2
1 (x) = xe 2 ~ (8.51)
~
 m 1/4 h m i 1 m 2
2 (x) = 2 x2 1 e 2 ~ x (8.52)
4~ ~
si se grafica la funcion de onda y la densidad de probabilidad para n = 0, 1, 2 (ver Figs. 8.1, 8.2) y para valores

Figura 8.1: Funciones de onda asociadas a n = 0, 1, 2 para el oscilador armonico.

Figura 8.2: Densidades de probabilidad asociadas a n = 0, 1, 2 para el oscilador armonico.

grandes de n (Figs. 8.3), se pueden observar las siguientes caractersticas: cuando n aumenta, la region en x
en la cual la densidad de probabilidad toma valores no despreciables se vuelve mayor. Esto corresponde a la
caracterstica clasica de que la amplitud de movimiento (y por tanto la region accesible) aumenta con la energa.
Tambien veremos que el valor promedio o esperado de la energa potencial se incrementa con la energa (y por
tanto con n). Aunque esto se puede ver de un calculo directo, se puede explicar cualitativamente teniendo en
cuenta que para n grandes, n (x) toma valores no despreciables en regiones donde x es grande y por tanto donde
V (x) es grande. Las graficas tambien muestran que el numero de ceros de n (x) es igual a n, lo cual se puede
demostrar formalmente con las propiedades de los polinomios de Hermite. Un analisis de estos polinomios muestra
8.6. VALORES ESPERADOS Y DISPERSION EN UN ESTADO ESTACIONARIO DEL OSCILADOR 283

Figura 8.3: Funcion de onda (izquierda) y densidad de probabilidad (derecha) asociadas a n = 10, para el oscilador
armonico.

tambien que el valor promedio de la energa cinetica se incrementa con n, puesto que tal valor promedio viene
dado por Z
1
2 ~2 d2 n
P = n (x) dx (8.53)
2m 2m dx2
y cuando el numero de ceros de n (x) aumenta, tambien se incrementa la curvatura de la funcion de onda y en
la Ec. (8.53) la segunda derivada de n se incrementa a su vez.
Otra caracterstica sobresaliente para grandes valores de n es que la densidad de probabilidad es grande
para x = xM siendo xM la amplitud clasica de movimiento cuando la energa es En . Esto se relaciona con la
caracterstica clasica de que en xM la partcula esta en reposo instantaneo y por tanto, en promedio se mantiene
mas tiempo en las vecindades de xM que por ejemplo en las vecindades de x = 0 donde la rapidez es maxima.

8.6. Valores esperados y dispersion para los observables cuando el sistema


esta en un estado estacionario del oscilador armonico
Dado que ninguno de los observables X y P conmuta con H, los autoestados |n i del Hamiltoniano no son
autoestados de X ni P . Por tanto, si el oscilador armonico esta en un estado estacionario |n i la medida de X o
P dara en principio cualquier valor ya que el espectro de estos observables incluye a todos los numeros reales.
Calcularemos los valores esperados de X y P y las races de la desviacion media cuadratica X y P , cuando
el sistema esta en un estado estacionario |n i. Los valores esperados se calculan directamente de las Ecs. (8.46,
8.47)
hXi = hn | X |n i = hP i = hn | P |n i = 0 (8.54)
estos valores son validos para todo tiempo. Notese que el comportamiento del centro del paquete de onda difiere
profundamente del caso clasico en el cual las variables x y p son oscilantes en el tiempo (excepto cuando la energa
es cero)6 . Para calcular X, P deben calcularse los valores esperados de X 2 y P 2

(X)2 = hn | X 2 |n i [hn | X |n i]2 = hn | X 2 |n i (8.55)


2 2 2 2
(P ) = hn | P |n i [hn | P |n i] = hn | P |n i (8.56)
6
Puede verse que clasicamente los valores promedio de x y p tomados sobre un periodo completo de movimiento, s son nulos
como en el caso cuantico. Sin embargo, debemos recordar que en el caso cuantico los promedios no son tomados sobre un periodo de
movimiento.
284 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

y usando (8.9) tenemos que


     
2 ~ ~
2
2
X = a +a a +a = a + aa + a a + a
2m 2m
  
~ 2
X2 = a + (1 + N ) + N + a2
2m
  
~ 2
X2 = a 2
+ a + 2N + 1 (8.57)
2m

    
2 m~ m~  2 2
P = a a a a = a aa a a + a
2 2
  
m~ 2
P2 = a + a2 2N 1 (8.58)
2

reemplazando (8.57, 8.58) en (8.55, 8.56) es claro que


  
2 ~
2
2
(X) = hn | a + a + 2N + 1 |n i (8.59)
2m
  
2 m~
2
2
(P ) = hn | a + a 2N 1 |n i (8.60)
2
calculando cada elemento matricial se tiene
p
hn | a2 |n i = n (n 1)hn |n2 i = 0 (8.61)
 2 p
hn | a |n i = (n + 1) (n + 2)hn |n+2 i = 0 (8.62)
hn | (2N + 1) |n i = (2n + 1) hn |n i = (2n + 1) (8.63)

reemplazando (8.61, 8.62, 8.63) en (8.59, 8.60), resulta

(2n + 1) ~ (2n + 1) m~
(X)2 = ; (P )2 =
2m 2
Finalmente    
2 1 ~ En 1
(X) = n+ = ; (P )2 = n+ m~ = mEn (8.64)
2 m m 2 2
notese que a medida que aumenta el nivel de energa, se ensanchan ambos paquetes. Esto es perfectamente
permitido por el principio de incertidumbre el cual solo prohibe un angostamiento indefinido de ambos paquetes.
El producto de estas desviaciones que se puede tomar como la definicion de incertidumbre, es
 
1 ~
X P = n + ~
2 2
La cota inferior para el producto X P depende de la forma del potencial, y en el caso del oscilador armonico
adquiere el mnimo valor posible ~/2 cuando n = 0, es decir cuando el sistema esta en el estado base. Esto esta
relacionado con el hecho de que en el estado base, la funcion de onda es una gaussiana y las gaussianas son
distribuciones de mnima incertidumbre (ver Sec. 2.14.3).
Por otro lado, es bien sabido que si xM es la amplitud del oscilador armonico clasico con energa En =
(n + 1/2) ~, la relacion entre la energa y la amplitud es
1
En = m 2 x2M
2
8.6. VALORES ESPERADOS Y DISPERSION EN UN ESTADO ESTACIONARIO DEL OSCILADOR 285

usando (8.64) se tiene que


En 1 m 2 x2M 1
(X)2 = 2
= 2
= x2M
m 2 m 2
1
X = xM (8.65)
2
analogamente, si pM es la amplitud de oscilacion del momento clasico se tiene que
pM = mxM
1
P = pM (8.66)
2
vemos que el ancho X es del orden del ancho del intervalo [xM , xM ], esto es de esperarse ya que esta es la
region clasicamente accesible y ya vimos en la seccion 8.5 que es aproximadamente en esta region en donde n (x)
adquiere valores no despreciables. Un resultado similar se sigue para el intervalo [pM , pM ].
Lo anterior permite tambien entender porque X se incrementa con n: la densidad |n (x)|2 posee dos picos
simetricos situados aproximadamente en x = xM . La desviacion media cuadratica no puede ser mucho menor
que la distancias entre picos incluso si estos son muy agudos. Un argumento similar se sigue para P .
Ahora bien, el valor esperado de la energa potencial en el estado |n i, se puede calcular teniendo en cuenta
la Ec. (8.55), y esta dado por
1
1
hV (X)i = m 2 X 2 hV (X)i = m 2 (X)2 (8.67)
2 2
similarmente, el valor esperado de la energa cinetica es
 2
P 1
= (P )2 (8.68)
2m 2m
y reemplazando (8.64) en (8.67, 8.68) resulta
 
1 1 En
hV (X)i = n+ ~ =
2 2 2
 2  
P 1 1 En
= n+ ~ =
2m 2 2 2
el valor esperado de las energas cinetica y potencial es igual. Esto es consistente con el teorema del virial. No
obstante, debe tenerse en cuenta que en el teorema del virial el promedio es sacado sobre un periodo de movimiento,
en tanto que el promedio cuantico no esta asociado a una evolucion temporal.
Es notable ademas la simetra entre los resultados sobre las variables X y P , esto se debe a que el Hamiltoniano
es muy simetrico en ambos ya que la energa cinetica es proporcional a P 2 y la energa potencial es proporcional
X 2 . Tal simetra se ve de forma manifiesta en la Ec. (8.5).
Los estados estacionarios |n i no tienen equivalente en la mecanica clasica ya que tienen energa no nula a
pesar de que hXi y hP i s son nulos. Sin embargo, podemos establecer cierta analoga entre el estado estacionario
|n i y el estado de una partcula clasica cuya posicion esta descrita por
x = xM cos (t )
y para el cual la fase inicial es escogida arbitrariamente, es decir puede tomar cualquier valor entre 0 y 2 con
la misma probabilidad. Los valores esperados de x y p son entonces nulos ya que
 Z 2 
1
xcl = xM cos (t ) d = 0
2 0
 Z 2 
1
pcl = pM sin (t ) d = 0
2 0
286 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

ahora, calculando el valor esperado de x2cl y p2cl

 Z 2 
1 x2
x2cl = xM cos2 (t ) d = M
2 0 2
 Z 2  2
1 p
p2cl = pM sin2 (t ) d = M
2 0 2
la desviacion media cuadratica clasica de x y p queda
q q
xM pM
xcl = x2cl (xcl )2 = ; pcl = p2cl (pcl )2 =
2 2
y vemos que coincide con sus valores cuanticos Ecs. (8.65, 8.66). Este promedio clasico se esta realizando sobre
los posible valores de la fase y no sobre un periodo de movimiento. Es decir, al igual que el promedio cuantico, no
involucra evolucion temporal.

8.7. Propiedades del estado base


En la mecanica clasica, el estado de mas baja energa del oscilador armonico se obtiene cuando la partcula
esta en reposo en el origen (condiciones iniciales x = p = 0) y la energa total es cero. En contraste, el sistema
cuantico posee un estado de mnima energa |0 i con energa no nula y lapfuncion de onda asociada posee una
extension espacial caracterizada por la desviacion media cuadratica X = ~/2m.
La diferencia entre las dos descripciones tiene su origen en el principio de incertidumbre, que impide la mini-
mizacion simultanea de la energa cinetica y la potencial, ya que los operadores energa cinetica y potencial no
conmutan entre s. El estado base es entonces el resultado de la minimizacion de la suma de las dos energas.
Notese que el resultado clasico x = p = 0 para obtener energa mnima cero, requerira una determinacion total
simultanea de posicion y momento, que cuanticamente no es posible.
Podemos realizar un argumento semicuantitativo para estimar el orden de magnitud de la energa base y la
extension espacial de su funcion de onda. Pensemos que la distancia caracteriza la extension espacial de la
funcion de onda, es decir X. Entonces, de acuerdo con (8.67) el potencial promedio sera del orden de
1
V
= m 2 2
2
pero
X P
= ~ P
=~ (8.69)
por tanto
~ p2 (P )2 ~2
P = T = = =
2m 2m 2m 2
con lo cual el orden de magnitud de la energa total es
~2 1
E =T +V
= 2
+ m 2 2 (8.70)
2m 2

para valores pequenos de , T domina sobre V y para valores grandes de ocurre lo contrario. El estado base se
calcula de manera aproximada con el mnimo de la funcion E en la Ec. (8.70)
 
dE ~2
= 0 3 + m 2 m = 0
d =m mm
~2 ~2
+ m 2 m
4 4
= 0 m = 2 2
m m
8.8. EVOLUCION TEMPORAL DE LOS OBSERVABLES DEL OSCILADOR ARMONICO 287

por tanto el valor mmimo aproximado del promedio de la energa total es


 
~2 1 ~2 1 ~ ~ ~
E
= 2
+ m 2 m
2
= ~
 + m 2 = +
2mm 2 2m m 2 m 2 2
E
= ~

notese que la Ec. (8.69) implica tomar un principio de mnima incertidumbre ya que implica que el producto de
las incertidumbres se acerca al lmite inferior. Vemos entonces que la combinacion de mnima incertidumbre con
la minimizacion del promedio de la suma de las energas cinetica y potencial, nos predice correctamente el orden
de magnitud de la energa del estado base.
Finalmente, podra argumentarse que el aumento en la energa base con respecto al caso clasico es irrelevante
ya que es una cantidad constante ~/2. Al fin y al cabo, el verdadero observable fsico esta en las transiciones
o diferencias de energa y no en la energa misma. Sin embargo, esto no es en general cierto, puesto que hay
procesos en los cuales interviene mas de una frecuencia caracterstica , en los cuales pueden haber diferencias en
la energa base de varios osciladores. Adicionalmente, la diferencia entre la energa clasica y cuantica del oscilador
es intrnseca y no depende de la calibracion que se defina en el caso clasico. Por ejemplo, si defino la energa
mnima clasica como E0 = ~/2, entonces el estado de menor energa cuantica sera E0 = 0. Una vez mas esta
redefinicion de la energa base debe tomarse con cuidado, puesto que si hay mas de una frecuencia involucrada,
solo puedo redefinir E0 = ~i /2 para i fijo, y solo ese oscilador quedara con energa cuantica cero.

8.8. Evolucion temporal de los observables del oscilador armonico


Consideremos un oscilador armonico cuyo estado en t = 0 esta descrito por el estado normalizado

X
| (0)i = cn (0) |n i (8.71)
n=0

como el sistema es conservativo, el estado en cualquier tiempo se obtiene empleando las Ecs. (5.66, 5.67).

X 1
| (t)i = cn (0) ei(n+ 2 )t |n i
n=0

el valor esperado de cualquier observable estara dado por


" # " #
X 1 X 1
h (t)| A | (t)i = cm (0) ei(m+ 2 )t hm | A cn (0) ei(n+ 2 )t |n i
m=0 n=0
X
X
h (t)| A | (t)i = cm (0) cn (0) ei(mn)t hm | A |n i
m=0 n=0

el valor esperado de A es entonces


X
X
h (t)| A | (t)i = cm (0) cn (0) Amn ei(mn)t ; Amn hm | A |n i (8.72)
m=0 n=0

puesto que m y n son enteros, la evolucion temporal de los valores esperados solo involucra frecuencias de la forma
k/2 con k entero. Por tanto las frecuencias de Bohr estan constitudas por armonicos que son multiplos enteros
del armonico fundamental /2. Para el caso particular de los observables X y P estos valores esperados se
288 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

obtienen de (8.46, 8.72)


X
X
hXi = cm (0) cn (0) Xmn ei(mn)t
m=0 n=0
r
~ XX  
hXi = cm (0) cn (0) n + 1m,n+1 + nm,n1 ei(mn)t
2m m=0 n=0
r (
)
~ X   X  
hXi = cn+1 (0) cn (0) n + 1 ei[(n+1)n]t + cm (0) cm+1 (0) m + 1 ei[m(m+1)]t
2m
n=0 m=0

r (
)
~ X X
hXi = n + 1cn+1 (0) cn (0) eit + n + 1cn (0) cn+1 (0) eit
2m
n=0 n=0

donde hemos tenido en cuenta que los ndices m y n son mudos


r
2~ X  
hXi = n + 1Re cn+1 (0) cn (0) eit (8.73)
m n=0

Vemos entonces que solo se incluyen ondas sinusoidales de frecuencia angular . Esto esta relacionado con la
solucion clasica del oscilador armonico la cual es monocromatica para la variable x. Para hP i se obtiene un
resultado similar.
Por otro lado, en la discusion del teorema de Ehrenfest de la seccion 5.7.1 vimos que la condicion de igualdad
de los dos miembros en la Ec. (5.56) necesaria para obtener el lmite clasico adecuado, se cumple para todo estado
|i, cuando se usa el potencial del oscilador armonico que corresponde a n = 2 en la Ec. (5.58). Por tanto, de
acuerdo con las Ecs. (5.55, 5.52) se tiene que

d hXi 1 hP i
= h[X, H]i =
dt i~ m
d hP i 1
= h[P, H]i = m 2 hXi
dt i~
integrando estas ecuaciones se obtiene

1
hXi (t) = hXi (0) cos t + hP i (0) sin t (8.74)
m
hP i (t) = hP i (0) cos t m hXi (0) sin t (8.75)

que es la forma sinusoidal que se obtuvo en (8.73), aunque escrita en terminos de otras condiciones iniciales, puesto
que (8.73) esta escrita en terminos de los pesos iniciales del paquete de onda Ec. (8.71). En contraste, las Ecs.
(8.74, 8.75) estan escritas en terminos de condiciones iniciales concernientes al valor esperado del momento y la
posicion.
Es importante mencionar que este analogo clasico solo es valido si el estado | (0)i descrito por (8.71) es una
superposicion con al menos dos coeficientes no nulos, ya que si solo uno de ellos es no nulo el sistema estara
inicialmente en un estado estacionario y los valores esperados no evolucionaran en el tiempo7 . En consecuencia,
cuando el oscilador esta en un estado estacionario el comportamiento cuantico sera muy diferente al clasico incluso
si n es muy grande. Si queremos un paquete de onda cuya posicion promedio oscile en el tiempo, deben superponerse
varios estados estacionarios.
7
Cuando solo uno de los coeficientes en (8.71) es no nulo, entonces al menos uno de los coeficientes cn (0) o cn+1 (0) es nulo para
cada n en la Ec. (8.73), con lo cual hXi = 0. Similarmente hP i = 0. Como en particular hXi (0) = hP i (0) = 0, tambien se obtiene que
hXi (t) = hP i (t) = 0 de las Ecs. (8.74, 8.75).
8.9. OSCILADOR ARMONICO CARGADO EN UN CAMPO ELECTRICO UNIFORME (OPCIONAL) 289

8.9. Oscilador armonico cargado en un campo electrico uniforme (Opcional)

Asumamos que un oscilador armonico unidimensional posee carga q y esta inmerso en un campo electrico
uniforme E en la direccion ux . Veremos como cambian los valores y vectores propios del oscilador armonico cuantico
cuando se le anade al Hamiltoniano la energa potencial asociada a esta nueva interaccion, la cual clasicamente
viene descrita por
w (E) = qEx (8.76)
con lo cual el Hamiltoniano cuantico completo sera
P2 1
H (E) = + m 2 X 2 qEX (8.77)
2m 2
la ecuacion de valores propios sera

H (E) = E
 
~2 d2 1
+ m x qEx (x) = E (x)
2 2
(8.78)
2m dx2 2
completando el cuadrado con respecto a x al lado izquierdo de la ecuacion (8.78) queda
"  2 #
~2 d2 1 qE q 2 E2
+ m 2 x (x) = E (x) (8.79)
2m dx2 2 m 2 2m 2

realizando el cambio de variable


qE
u=x ; du = dx (8.80)
m 2
la ecuacion (8.79) queda
   
~2 d2 1 2 2 q 2 E2
+ m u (u) = E + (u)
2m du2 2 2m 2
 
~2 d2 1 2 2 q 2 E2
+ m u (u) = E (u) ; E E + (8.81)
2m du2 2 2m 2
la ecuacion (8.81) coincide exactamente con la ecuacion (8.2) asociada a los estados estacionarios del oscilador
armonico simple (sin campo electrico). Por tanto los valores propios E viene dados por la Ec. (8.19)
 
1
E = n+ ~ ; n = 0, 1, 2, 3, . . .
2
De la definicion de E en (8.81) obtenemos los valores propios de nuestra ecuacion (8.78)
 
1 q 2 E2
En = n + ~ ; n = 0, 1, 2, 3, . . . (8.82)
2 2m 2
as mismo las funciones propias de (8.81) coincidiran con los estados estacionarios del oscilador armonico dados
por la Ec. (8.50)
  n  1   n
1 ~ 2 m  14 m d 1 m 2
n (u) = u e 2 ~ u
n! 2m ~ ~ du
y teniendo en cuenta el cambio de variable (8.80), la funcion propia de la Ec. (8.78) sera
 
qE
n (x) = n x (8.83)
m 2
290 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

Las ecuaciones (8.82) muestran que el efecto del campo electrico uniforme E sobre el espectro del oscilador
armonico consiste en un corrimiento constante del espectro por un cantidad q 2 E2 / 2m 2 . Por otro lado, la Ec.
(8.83) muestra que el efecto sobre el estado,  es una traslacion de la funcion de onda estacionaria del oscilador
armonico simple en una cantidad qE/ m 2 . Esta traslacion se debe a que el campo electrico ejerce una fuerza
constante sobre la partcula, cuyo efecto neto es redefinir el punto de equilibrio del oscilador. Ya que usualmente
definimos el origen en el punto de equilibrio, podemos decir que el unico efecto del campo electrico uniforme es el
de cambiar el origen de x y de la energa. Por ejemplo, si qE > 0, la traslacion en la funcion de onda se realiza en
la direccion positiva de las x, que es la direccion de la fuerza ejercida por E. El caso qE < 0, es analogo.
Otra forma de ver el fenomeno es analizando la estructura del potencial con y sin campo electrico. El potencial
clasico del oscilador armonico con campo electrico uniforme viene dado por
 
1 2 2 1 2 qE 2 q 2 E2
V = m x qEx = m x
2 2 m 2 2m 2
1 q 2 E2 qE
V = V0 + m 2 (x x0 )2 ; V0 = 2
, x0 = (8.84)
2 2m m 2
el potencial V sin campo electrico es una parabola centrada en cero y con mnimo V = 0 en x = 0. La Ec. (8.84)
muestra que el potencial con la contribucion del campo es tambien una parabola asociada al mismo valor de ,
pero centrada en x0 y con mnimo en V = V0 . La Ec. (8.82) con n = 0, muestra que el proceso de cuantizacion
incrementa el mnimo de la energa en una cantidad ~/2, en virtud del principio de incertidumbre como ya se
discutio en la seccion 8.7.

8.9.1. Solucion utilizando el operador traslacion


El hecho de que la funcion de onda que se obtiene cuando se aplica el campo uniforme corresponde a una
traslacion de la funcion de onda sin campo, sugiere emplear el operador traslacion definido en la Ec. (1.211) Pag.
106
hq| S () |i = hq | i = (q ) ; S () eiP/~ (8.85)
puesto que conocemos mejor la accion de los operadores creacion y destruccion sobre los estados del oscilador
armonico, sera conveniente escribir el operador traslacion S () en terminos de ellos usando la Ec. (8.9)
(" "r # #)  r
m~   m  
S () exp [iP/~] = exp i i a a /~ = exp a a
2 2~
h  i r
m
S () exp [iP/~] exp a a ; (8.86)
2~

desarrollaremos algunas expresiones algebraicas relativas a S (), a y a para propositos futuros. Dado que P es
hermtico es claro de (8.85) que S () es unitario

S () = e(aa ) S () = S 1 () = e(aa )

;

de la Ec. (8.10) es claro que tanto a como a conmutan con el conmutador entre ambos. Por tanto, es aplicable la
formula de Glauber (1.149) Pag. 79
1 1 2 1 2
S () = e(aa ) = ea+a = ea ea e 2 [a,a ] = ea ea e 2 [a,a ] = ea ea e 2

el adjunto se calcula similarmente y se obtiene


1 2 1 2
S () = e 2 ea ea ; S () = e 2 ea ea (8.87)
8.9. OSCILADOR ARMONICO CARGADO EN UN CAMPO ELECTRICO UNIFORME (OPCIONAL) 291

la misma condicion de que a y a conmutan con su conmutador nos permite utilizar la primera de las Ecs. (1.140)
Pag. 77, con a = A y a = B, para calcular
h i h i h i  h i 
ea , a = a , ea = a , a ea = a, a ea = ea


de manera similar se obtiene el conmutador entre ea y a, obteniendose
h i h i
ea , a = ea ; ea , a = ea (8.88)

a partir de las Ecs. (8.88) se obtiene


  nh i o n o
ea a ea = ea a ea = ea , a + a ea ea = ea + a ea ea = a

 
nh i
o
n
o
ea aea = ea a ea = ea , a + aea ea = ea + aea ea = a

quedando entonces

ea a ea = a ; ea aea = a (8.89)
Partiremos de la ecuacion de valores propios sin campo electrico

H |i = E |i (8.90)

y haremos una transformacion pasiva8 asociada al operador unitario S (). Para ello multiplicamos la ecuacion
por S () e insertamos un operador identidad en la forma
h i h i
S () H S () S () |i = ES () |i S () HS () [S () |i] = E [S () |i]
e |i
H e = E |i
e ; e S () HS ()
H , |i
e S () |i (8.91)

calcularemos la transformacion pasiva del Hamiltoniano del oscilador armonico sin campo Ec. (8.12)
   
e 1 1
H S () HS () = ~ S () + a a S () = + S () a aS () ~
2 2
h i h ih i
e = ~ + ~ S () a S () S () aS () = ~ + ~ S () a S () S () aS ()
H
2  2
e = 1
H ae
+e a ~ ; e a S () aS () ; e
a S () a S () (8.92)
2

utilizando las Ecs. (8.87) y (8.89), podemos calcular los operadores transformados e a en terminos de los
a y e
operadores originales
h 1 2
i h 1 2
i 

a S () aS () = e 2 ea ea a e 2 ea ea = ea ea aea ea
e
a = ea (a ) ea = a
e

a , se obtiene entonces
y similarmente para e

a =a
e a = a
; e (8.93)
8
Sin embargo, esta transformacion no sera un cambio de base, ya que el operador unitario en cuestion produce una traslacion (y
no una rotacion) que conserva norma. Desde el punto de vista pasivo, sera mas bien un cambio de origen.
292 CAPITULO 8. EL OSCILADOR ARMONICO CUANTICO

sustituyendo (8.93) en (8.92) resulta


     
e 1 1   1



2
H = +eae a ~ = ~ + a (a ) = ~ +a a a+a +
2 2 2
  r
e 2 2m
H = H ~ a + a + ~ = H ~ X + 2 ~
~
donde hemos usado las Ecs. (8.9). El Hamiltoniano transformado queda finalmente

He () = H 2m~X + 2 ~ (8.94)

teniendo en cuenta que H es el Hamiltoniano del oscilador armonico (sin trasladar) y comparando los Hamilto-
e y H (E) Ecs. (8.77, 8.94), vemos que H
nianos H e coincide con H (E) (excepto por una constante) si definimos el
parametro en la forma r
qE 1
E = (8.95)
2m~
en cuyo caso obtenemos
2 2 2 2
e (E ) = H qEX + q E = H (E) + q E
H
2m 2 2m 2
2 2
e (E ) = H (E) + 1 ; q E
H (8.96)
2m 2

puesto que He (E ) y H (E) solo difieren en un operador proporcional a la identidad, tendran los mismos auto-
vectores y sus valores propios difieren por la constante de proporcionalidad . Adicionalmente, de las Ecs. (8.90,
e estan dados por
8.91) vemos que si los autovectores de H son los kets |n i, los autovectores de H

|
en i = S () |n i (8.97)

y que los autovalores de H y H e coinciden. Los estados estacionarios | i del oscilador armonico en presencia del
n
campo uniforme E, estaran dados entonces por los estados | en i dados por la Ec. (8.97). De acuerdo con la Ec.
(8.96) los autovalores de H (E) estan dados por
 
1 q 2 E2
En (E) = n + ~
2 2m 2

que coincide con la Ec. (8.82) obtenida por metodos directos. La expresion (8.97) para el autovector, viene dada
por
  " r #
i i 2~
(E) = | en (E )i = S (E ) |n i = exp E P |n i = exp E P |n i
n
~ ~ m
" r !r #
i qE 1 2~
= exp P |n i
~ 2m~ m
 

n (E) = exp i qE P |n i (8.98)
~ m 2

donde hemos usado (8.86, 8.95). La ecuacion (8.85), nos dice que S () exp [iP/~] es precisamente el operador
traslacion sobre una distancia a lo largo de x, vemos de la Ec. (8.98) que |n (E)i se obtiene por una traslacion
de |n i en la cantidad qE/ m 2 , en consistencia con la funcion de onda (8.83) calculada con los metodos
tradicionales.
Captulo 9

Estados coherentes cuasi-clasicos del


oscilador armonico (opcional)

Ya hemos estudiado las propiedades de los estados estacionarios del oscilador armonico y hemos observado que
su comportamiento difiere significativamente del oscilador armonico clasico. Por ejemplo, los valores esperados de
X y P son cero y no oscilantes como ocurre en el caso clasico (excepto en el caso en que la energa clasica es
cero). Vimos tambien que para emular razonablemente el caso clasico, se necesita la superposicion de al menos dos
estados estacionarios. Por otro lado, es de esperarse que en el lmite de energas mucho mayores que ~ (numeros
cuanticos n muy grandes), las predicciones clasicas y cuanticas sean casi identicas, ya que al tener una enorme
cantidad de cuantos se enmascara su caracter discreto.
Hemos visto que muchos sistemas clasicos y cuanticos se pueden describir con el oscilador armonico al menos
en primera aproximacion. Por esta razon es importante saber como pasar gradualmente de una descripcion clasica
a una descripcion cuantica o vice versa. En otras palabras es importante caracterizar ciertos parametros que nos
indiquen como dicernir cuando los resultados clasicos o cuanticos sean adecuados para describir cierto sistema fsico.
Un caso importante es la radiacion electromagnetica, hemos visto que para altas intensidades la descripcion clasica
es adecuada, en tanto que para bajas intensidades el caracter discreto de la radiacion se manifiesta claramente.
Lo anterior nos induce a indagar por la existencia de estados cuanticos que conduzcan a predicciones fsicas muy
similares a las clasicas, al menos para el oscilador armonico macroscopico. Veremos que los estados que cumplen
esta condicion son superposiciones coherentes de los estados estacionarios |n i del oscilador armonico. Por tal
razon a dichos estados se les denomina como estados coherentes del oscilador armonico o tambien estados
cuasi-clasicos. Los estados coherentes de la radiacion electromagnetica permiten dicernir cuantitativamente la
importancia de los efectos cuanticos en la radiacion para cada sistema radiativo.
La idea es entonces encontrar estados para los cuales los valores de hXi , hP i , y hHi sean semejantes a los
valores clasicos para todo tiempo. Adicionalmente, puesto que estos observables no son compatibles (no conmutan
entre s) no es posible construr un estado cuantico en donde las tres cantidades esten bien definidas. Los estados
coherentes deben entonces lidiar inevitablemente con el principio de incertidumbre, de modo que tambien deben
lograr que las desviaciones medias cuadraticas X, P, H sean despreciables en el lmite macroscopico.

9.1. Parametrizacion del oscilador clasico con parametros cuanticos


Tomemos como punto de partida las ecuaciones clasicas del oscilador armonico
dx (t) p (t) dp (t)
= ; = m 2 x (t) (9.1)
dt m dt
reescribiremos por conveniencia estas ecuaciones en variables adimensionales x b y pb definidas por
r
1 m
b (t) = x (t) , pb (t) =
x p (t) ; = (9.2)
~ ~

293
294 CAPITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO

reemplazando (9.2) en (9.1) tenemos

db
x (t) db
p (t)
= b
p (t) ; = b
x (t) (9.3)
dt dt
notese que la normalizacion de las variables x y p se realizo con constantes que dependen de ~, de modo que
facilite la comparacion del oscilador clasico con el oscilador cuantico. El estado clasico esta determinado para todo
tiempo por las variables x (t) , p (t) o equivalentemente, por las variables x b (t) y pb (t). Estas a su vez se pueden
sintetizar en un numero complejo adimensional (t) en la forma
1
(t) = [bx (t) + ib
p (t)] (9.4)
2
y las ecuaciones (9.3) se pueden escribir como una unica ecuacion compleja en la forma

d (t)
= i (t) (9.5)
dt
cuya solucion es
1
(t) = 0 eit ; 0 = (0) = [b p (0)] |0 | ei
x (0) + ib (9.6)
2
siendo 0 un numero complejo que se puede escribir como 0 = |0 | ei , claramente la solucion representa un fasor
de magnitud |0 | y cuya fase esta dada por t. Es decir, el fasor rota con velocidad angular (de modo que
si > 0 el giro es en direccion horaria alrededor de O).
Es claro
ademas que las componentes cartesianas del fasor (t) en cualquier instante, corresponden a x b (t) / 2
y pb (t) / 2. Vemos entonces que la descripcion completa del movimiento se obtiene a traves de la condicion inicial
descrita por 0 , en la Ec. (9.6). Esta condicion inicial se expresa bien sea como posicion y momento inicial
(componentes cartesianas adimensionales) o bien sea como |0 | y (parametros polares correspondientes a la
amplitud adimensional de la oscilacion y fase inicial respectivamente). De las Ecs. (9.4, 9.6) se obtiene
1     i    
b (t) = 0 eit + 0 eit = 2Re 0 eit ; pb (t) = 0 eit 0 eit = 2Im 0 eit
x (9.7)
2 2
ahora escribiremos la energa del sistema clasico H la cual es una constante de movimiento y por tanto coincide
con su valor inicial para todo tiempo
1 1
H = [p (0)]2 + m 2 [x (0)]2
2m 2
~ n o
H = x (0)]2 + [b
[b p (0)]2 (9.8)
2
teniendo en cuenta la segunda de las Ecs. (9.6), la energa queda en la forma

H = ~ |0 |2 (9.9)

para un oscilador macroscopico es claro que la energa es mucho mayor a la energa del cuanto fundamental de
modo que
|0 | 1 (9.10)

9.2. Construccion de los estados coherentes o cuasi-clasicos


Buscaremos estados mecano-cuanticos para los cuales los valores esperados hXi , hP i y hHi sean muy simi-
lares a los valores clasicos x, p, H. Para ello compararemos a X, P con las variables adimensionales x
b, pb para lo
9.2. CONSTRUCCION DE LOS ESTADOS COHERENTES O CUASI-CLASICOS 295

cual definiremos los correspondientes observables adimensionales. Adicionalmente, escribiremos los observables en
terminos de los operadores creacion y destruccion. De las Ecs. (8.8, 8.12) se obtiene
     
1
b = X = a + a 1 i 1
X
; Pb = P = a a
; H = ~ a a + (9.11)
2 ~ 2 2

si comparamos las Ecs. (9.11) con las Ecs. (9.7, 9.6) vemos que el operador a es el analogo de la cantidad clasica
(t) y a posee el papel de (t). Clasicamente hemos visto que la cantidad compleja 0 (condiciones iniciales)
nos dictamina la evolucion temporal de los observables clasicos que se describen con (t) en la Ec. (9.6), y dado
que a es el analogo cuantico de , es natural continuar la analoga calculando la evolucion temporal de hai para
el sistema en un estado arbitrario | (t)i. Tal evolucion se obtiene de la Ec. (5.52)

d
i~ hai (t) = h[a, H]i (t) (9.12)
dt
donde hemos tenido en cuenta que a es solo funcion de X y P y por tanto no depende explcitamente del tiempo.
El miembro derecho de (9.12) se escribe como
  Dh iE Dh i E
I
h[a, H]i (t) = ~ a, a a + (t) = ~ a, a a (t) = ~ a, a a (t)
2
h[a, H]i (t) = ~ hai (t)

donde hemos usado la Ec. (8.10) Pag. 272. Con lo anterior, la Ec. (9.12) queda

d
i hai (t) = hai (t) (9.13)
dt
cuya solucion es
hai (t) = hai (0) eit (9.14)


la solucion para a (t) es la compleja conjugada de (9.14)
D E D E
a (t) = a (0) eit = hai (0) eit (9.15)

notese que las soluciones cuanticas (9.14, 9.15) son los analogos de la solucion clasica (9.6), como era de esperarse
en virtud de la analoga a, a , . Sustituyendo (9.14) y (9.15) en (9.11) se obtiene
D E 1  
b (t) =
X hai (0) eit + hai (0) eit
2
D E i  
Pb (t) = hai (0) eit hai (0) eit (9.16)
2
el lmite clasico se obtiene igualando los valores esperados con las variables clasicas
D E D E
Xb (t) = xb (t) ; Pb (t) = pb (t) (9.17)

esta igualacion se realiza comparando las Ecs. (9.16) con las Ecs. (9.7). De esto se ve que la condicion necesaria y
suficiente para obtener el lmite clasico (9.17) es que en t = 0 se cumpla la condicion

hai (0) = 0 (9.18)

siendo 0 el parametro complejo que caracteriza al movimiento clasico que pretendemos emular cuanticamente, y
viene dado por la segunda de las Ecs. (9.6). Debemos ahora obtener la condicion para la igualacion de las energas
296 CAPITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO

clasica y cuantica, para ello calculamos el valor esperado del Hamiltoniano cuantico, como este es constante de
movimiento, se puede evaluar en cero
D E ~
hHi = ~ a a (0) +
2
debemos igualar esta energa con su valor clasico H y obtener la condicion que se genera con tal igualacion. Para
ello podemos despreciar el termino ~/2, ya que el lmite clasico corresponde a energas mucho mayores

que ~.
Recordemos que el termino ~/2 es puramente cuantico en su origen. La igualacion de hHi ~ a a (0) con el
valor clasico dado por la Ec. (9.9) nos lleva a la condicion
D E
a a (0) = |0 |2 (9.19)

recordando que hemos asumido un estado | (t)i para el sistema, las condiciones (9.18, 9.19) se escriben como

h (0)| a | (0)i = 0 ; h (0)| a a | (0)i = |0 |2 (9.20)

veremos que las condiciones (9.20) son suficientes para determinar el estado normalizado | (0)i excepto por un
factor de fase constante. Para verlo introducimos el operador b (0 ) definido por

b (0 ) a 0

notese que este operador mide la desviacion entre el comportamiento del operador cuantico a y el de su analogo
clasico 0 en el tiempo inicial, tenemos que
 
b (0 ) b (0 ) = a 0 (a 0 ) = a a a 0 0 a + |0 |2

con lo cual
n o
kb (0 ) | (0)ik2 = h (0)| b (0 ) b (0 ) | (0)i = h (0)| a a a 0 0 a + |0 |2 | (0)i
kb (0 ) | (0)ik2 = h (0)| a a | (0)i 0 h (0)| a | (0)i 0 h (0)| a | (0)i + |0 |2

y usando las condiciones (9.20) tenemos que

kb () | (0)ik2 = |0 |2 0 0 0 0 + |0 |2 = 0

como la norma del ket b () | (0)i es nula entonces el ket como tal es nulo, por tanto

b () | (0)i = 0 (a 0 ) | (0)i = 0
a | (0)i = 0 | (0)i (9.21)

recprocamente, si el ket normalizado | (0)i satisface esta relacion, podemos devolvernos en los pasos y ver que
las condiciones (9.20) se satisfacen. Notese que el resultado b () | (0)i = 0 es el esperado, ya que cuando el estado
| (0)i es cuasi-clasico, es razonable que la desviacion entre el comportamiento clasico y el cuantico se anule.
Lo anterior nos lleva a la conclusion de que el estado cuasi-clasico asociado con un movimiento clasico ca-
racterizado por el parametro 0 , es tal que el vector de estado | (0)i en t = 0 es un autovector del operador
destruccion a con autovalor 0 . Escribiremos los autovectores de a y su autovalores en la forma

a |i = |i (9.22)

veremos ademas que la solucion de (9.22) es unica salvo constantes.


9.3. PROPIEDADES DE LOS ESTADOS |i 297

9.3. Propiedades de los estados |i


Vamos a determinar las soluciones para el ket |i de la Ec. (9.22). Para ello expandiremos el ket |i en la base
de estados estacionarios del oscilador armonico

X
|i = cn () |n i (9.23)
n=0

aplicando el operador destruccion a ambos lados de la expansion y usando la Ec. (8.41), se obtiene

X
X  
a |i = cn () [a |n i] a |i = cn () n |n1 i (9.24)
n=0 n=0

sustituyendo la Ec. (9.24) en la Ec. (9.22) y usando (9.23) resulta



X
X

ncn () |n1 i = ck () |k i
n=0 k=0

reemplazando n k + 1 en el miembro izquierdo, se tiene



X
X

k + 1ck+1 () |k i = ck () |k i
k=0 k=0

notese que aunque la suma de la izquierda debe ir desde k = 1, este primer termino es nulo. Apelando a la
independencia lineal de los |k i se obtiene

ck+1 () = ck () (9.25)
k+1
utilizando esta relacion iterativamente tenemos
 
2
ck () = ck1 () = ck2 () = p ck2 ()
k k k1 k (k 1)
 
2 3
ck () = p ck3 () = p ck3 ()
k (k 1) k2 k (k 1) (k 2)
k
ck () = p ckk ()
k (k 1) (k 2) . . . 2 1

de modo que todos los coeficientes de la expansion de |i se pueden generar a partir de c0 ()

k
ck () = c0 () (9.26)
k!
Escogeremos a c0 () como real y positivo (fase cero). Adicionalmente, escogeremos c0 () de modo que |i quede
adecuadamente normalizado. De acuerdo con (9.23), la normalizacion de |i nos lleva a

X
X X
X
1 = h |i = ck () cn () hk |n i = ck () cn () kn
k=0 n=0 k=0 n=0

X
|ck ()|2 = 1 (9.27)
k=0
298 CAPITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO

reemplazando (9.26) en (9.27) se tiene



X ||2k 2
|c0 ()|2 = 1 |c0 ()|2 e|| = 1
k!
k=0
||2
c0 () = e 2 (9.28)

reemplazando (9.26) y (9.28) en (9.23) queda finalmente



X X X
n n ||2
|i = cn () |n i = c0 () |n i = e 2 |n i
n=0 n=0 n! n=0 n!
X
||2 n
|i = e 2 |n i (9.29)
n=0 n!

9.3.1. Valores permitidos de la energa para un estado coherente |i


Los estados coherentes son autoestados de un operador que no es observable (el operador a no es hermtico). Por
tanto sus valores propios pueden ser complejos y no corresponden a observables fsicos. Sin embargo, estos estados
son de cuadrado integrable y por tanto pertenecen al espacio de estados fsicos posibles. Asumamos entonces un
oscilador en el estado |i descrito por la Ec. (9.29). La probabilidad de obtener el valor Em = (m + 1/2) ~ para
el sistema en el estado |i se puede calcular de (9.29)
2
||2 X
n
2 2
Pm () = |hm |i| = e hm |n i
n!
n=0
2 ||2m
Pm () = e||
m!
es facil ver que la probabilidad anterior cumple con la condicion
!
||2 ||2 ||
2(m1)
Pm () = e
m (m 1)!
||2
Pm () = Pm1 ()
m
de modo que la distribucion de la probabilidad es del tipo Poisson. Se puede verificar que el maximo de esta
probabilidad se obtiene cuando
m = la parte entera de ||2 (9.30)
calcularemos ahora el valor esperado de la energa el cual debe ser comparado con la energa clasica. Para ello
notemos primero que de la Ec. (9.22), se tiene que

ka |ik2 = k |ik2 h| a a |i = h| |i
h| a a |i = ||2 (9.31)

con lo cual
 
1
hHi = ~ h| a a + |i
2
 
1
hHi = ~ ||2 + (9.32)
2
9.3. PROPIEDADES DE LOS ESTADOS |i 299

teniendo en cuenta el resultado (9.30), vemos que si || 1 (como corresponde al lmite clasico), la cantidad
hHi es muy similar en valor

relativo
a la energa En que corresponde al maximo de Pn (). Con el fin de calcular
el ancho H calcularemos H 2
      

2 2 2 1 2 2 2 1
H = ~ h| a a + |i = ~ h| a a a a + a a + |i
2 4
   
2 2 2 2 1 2 2 2 2 2 1
= ~ h| N N |i + ~ h| a a + |i = ~ hN |N i + ~ || +
4 4
 

2 1
H = ~2 2 k|N ik2 + ~2 2 ||2 + (9.33)
4
donde hemos usado la Ec. (9.31) y el hecho de que N = a a es hermtico. Multiplicando (9.22) por a se tiene que
2

a a |i = a |i N |i = a |i kN |ik2 = ||2 a |i
 
kN |ik2 = ||2 h| aa |i kN |ik2 = ||2 h| a a + 1 |i
 
kN |ik2 = ||2 ||2 + 1 (9.34)

donde hemos usado nuevamente (9.31). Reemplazando (9.34) en (9.33) se obtiene


   

2 2 2 2 2 2 2 2 1
H = ~ || || + 1 + ~ || +
4
 

2 1
H = ~2 2 ||4 + 2 ||2 + (9.35)
4
y el ancho se obtiene usando (9.32) y (9.35)
    
2
1 1 2
(H ) = H 2
hHi2 4 2 2 2
= ~ || + 2 || + ~ || + 2
4 2
 
1 1
(H )2 = ~2 2 ||4 + 2 ||2 + ||4 ||2 = ~2 2 ||2
4 4
(H ) = ~ || (9.36)
en el lmite cuasi-clasico el ancho relativo debe ser mucho menor que uno, con el fin de poder afirmar que la energa
esta bien definida. El ancho relativo se puede calcular de (9.32) y (9.36)
H ||
=  (9.37)
hHi ||2 + 12

para el lmite cuasi-clasico || 1, se tiene que


H || 1
2 = 1 (9.38)
hH i || ||
de modo que se puede considerar que la energa esta bien definida en el lmite cuasi-clasico. Es inmediato ver que
hN i = ||2 ; N = ||
lo cual nos dice que para obtener un estado cuasi-clasico || 1, se debe suporponer un enorme numero de
estados |n i ya que N 1. Sin embargo, el valor relativo de la dispersion sobre N tambien es muy pequeno
N 1
1
hN i ||
300 CAPITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO

9.3.2. Calculo de los observables X, P en el estado |i


Con el fin de realizar la comparacion con los valores clasicos, calcularemos hXi , hP i , X, P . Para ello se
usan las expresiones de X y P en terminos de a y a (ver Ecs. 8.9), junto con la Ec. (9.22)
r   r h i r ~ r
~ ~ 2~
hXi = h| a + a |i = h| a |i + h| a |i = ( + ) = Re ()
2m 2m 2m m
r   r r
m~ m~ m~ ( )
hP i = i h| a a |i = i ( ) = (2i) i = 2m~Im ()
2 2 2 2i   

2 ~  2 ~  2 ~ 2
X = h| a + a |i = h| a + a2 + a a + aa |i = h| a + a2 + 2N + 1 |i
2m 2m 2m
~ h i ~ h i
= 2 + 2 + 2 ||2 + 1 = ( + )2 + 1
2m 2m  

2 m~  2 m~  2 m~ h 2 i
P =
h| a a |i = h| a 2
+ a 2N 1 |i = 2 + 2 ||2 + 1
2 2 2
m~ h i
= ( )2 + 1
2


~ h i ~ ~
(X )2 = X2
( + )2 + 1
hXi2 = ( + )2 =
2m 2m 2m
"r #2

2 m~ h i m~
(P )2 2
= P hP i = 2
( ) + 1 i ( )
2 2
m~ h i m~ m~
= ( )2 + 1 + ( )2 =
2 2 2
resumiendo los anteriores resultados tenemos que
r
2~
hXi = h| X |i = Re () ; hP i = h| P |i = 2m~Im () (9.39)
m

2 ~ h i
m~ h i
X = ( + )2 + 1 ; P 2 = 1 ( )2 (9.40)
2m
r r 2
~ m~
X = ; P = (9.41)
2m 2
se observa que los anchos X y P no dependen de y el producto de los anchos toma su valor mnimo
~
X P = (9.42)
2
lo cual es muy deseable para un lmite cuasi-clasico.

9.4. Generador y funcion de onda de los estados coherentes


Teniendo en cuenta la Ec. (8.31) vemos que el estado coherente de la Ec. (9.29) se puede escribir en terminos
del operador construccion a partir del estado base del oscilador armonico
n "  #

||2 X n

||2 X n a

||2 X a
n
2 2 2
|i = e |n i = e |0 i = e |0 i
n! n! n! n!
n=0 n=0 n=0
 
||2
|i = e 2 ea |0 i D () |0 i (9.43)
9.4. GENERADOR Y FUNCION DE ONDA DE LOS ESTADOS COHERENTES 301

podemos generar a |i a partir de |0 i con un operador mas simetrico, para ello tenemos en cuenta que el operador
destruccion a aniquila el estado base, con lo cual tenemos que
 
a 2 2
e |0 i = 1 a + a + . . . |0 i = |0 i (9.44)
2!
de la Ec. (9.44) podemos reescribir la Ec. (9.43) en la forma
 
||2
2 a a
|i = e e e |0 i

con lo cual se obtiene

|i = D () |0 i (9.45)
2
|| a a
D () e 2 e e (9.46)

teniendo en cuenta que h i h i


a , a = a , a = ||2 I
y usando la relacion (1.149), las Ecs. (9.45, 9.46) quedan
a
D () = ea ; |i = D () |0 i (9.47)

este operador (conocido como operador de Weyl) es unitario


aa
D () = e D () D () = D () D () = I

La Ec. (9.47) nos muestra que podemos ver al operador unitario D () como un operador creacion del estado
coherente |i a partir del estado base del oscilador armonico. La Ec. (9.47) nos permite encontrar la funcion de
onda asociada a los estados coherentes

(x) = hx| i = hx| D () |0 i (9.48)

para calcular la funcion de onda, primero escribimos el operador a a en terminos de X y P usando las Ecs.
(8.7) r    
m i +
a a = X P
~ 2 m~ 2
teniendo en cuenta que
r      r
m i + i m
X, P = ( ) ( + ) [X, P ]
~ 2 m~ 2 2 m~ ~
1 2 
= 2
2
y usando de nuevo la relacion (1.149), el operador D () queda
r     2 
a a m i + 2
D () = e = exp X exp P exp
~ 2 m~ 2 4
sustituyendo este resultado en (9.48) se obtiene
 2  r   
2 m i +
(x) = exp hx| exp X exp P |0 i
4 ~ 2 m~ 2
 2  r  ( "r # )
2 m i ~
(x) = exp exp x hx| exp ( + ) P |0 i (9.49)
4 ~ 2 ~ 2m
302 CAPITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO

ahora bien, el operador eiP/~ es el operador traslacion de a lo largo de x (siendo P la componente x del
momento) ver seccion 1.44.2 Ec. (1.211), pag 106, de modo que
( "r # ) * r
i ~ ~

hx| exp ( + ) P = x ( + )
~ 2m 2m

con lo cual la Ec. (9.49) queda


  r  r !
2 2 m ~
(x) = exp exp x 0 x ( + ) (9.50)
4 ~ 2 2m

si escribimos y en terminos de hXi y hP i segun las Ecs. (9.39), tenemos que


r
hP i m
= 2i Im() = 2i ; + = 2Re () = 2 hXi (9.51)
2m~ 2~
hXi hP i
2 2 = ( ) ( + ) = 2i (9.52)
~

reemplazando las Ecs. (9.51, 9.52) en la funcion de onda (9.50) tenemos que
  r  r  r !
hXi hP i m 2i hP i ~ m
(x) = exp i exp x 0 x 2 hXi
2~ ~ 2 2m~ 2m 2~
hXi hP i
(x) = ei eihP i x/~ 0 (x hXi ) ; (9.53)
2~

la ecuacion (9.53) nos muestra que (x) se puede obtener a partir de la funcion de onda 0 (x) del estado base
del oscilador armonico en la siguiente forma: Se traslada esta funcion a lo largo de x en una cantidad hXi y
se multiplica por la exponencial oscilante eihP i x/~ . El factor eia es irrelevante y puede ser omitido, notese sin
embargo que el termino eihP i x no es una fase global sino local ya que depende de x, y por tanto es relevante. Esta
exponencial nos asegura que el valor promedio de P en el estado (x) sea hP i .
Si reemplazamos la forma explcita de 0 (x) (Ec. 8.48, Pag. 281), en la Ec. (9.53) obtenemos
 m  1  
4 1 m
i ihP i x/~ 2
(x) = e e exp (x hXi )
~ 2 ~
" r #2
 m  1 1 2m
4 i ihP i x/~
(x) = e e exp (x hXi )
~ 2 ~
(   )
 1 x hXi 2
i m 4 x
(x) = e exp + i hP i (9.54)
~ 2X ~

donde hemos usado tambien la Ec. (9.41). La forma del paquete de onda asociada con el estado |i esta dada por
r (   )
2 m 1 x hXi 2
| (x)| = exp (9.55)
~ 2 X

con lo cual para cualquier estado coherente |i obtenemos un paquete Gaussiano. Esto a su vez esta relacionado
con la propiedad de mnima incertidumbre que obtuvimos en la Ec. (9.42).
9.5. LOS ESTADOS COHERENTES SON COMPLETOS PERO NO ORTOGONALES 303

9.5. Los estados coherentes son completos pero no ortogonales


Los estados coherentes o cuasi-clasicos |i son autovectores del operador a, el cual no es hermtico1 . Por tanto,
no es claro si estos estados satisfacen relaciones de completez y ortogonalidad. Veremos que el conjunto de los
estados coherentes {|i} es completo pero no es ortogonal.
Consideremos primero el producto interno de dos estados cuasi-clasicos. Aplicando (9.29) tenemos
"
#"
#
||2 X m | |2 X n
h = e 2
hm | e 2
|n i
m=0 m! n=0 n!
" #
||2 | |2 X X n m
= e 2 e 2 hm | n i
m=0 n=0 n! m!
" # " #
||2 | |2 X n n ||2 | |2 X ( )n
= e 2 e 2 = e 2 e 2
n=0 n! n! n=0
n!
||
2 | |2

h = e 2 e 2
e

con lo cual resulta 2 2


h = e| | (9.56)
de modo que este producto escalar nunca es cero. Los estados coherentes no son ortogonales.
Veremos no obstante que los estados |i poseen una relacion de completez de la forma
Z Z
1
I |i h| d2 = 1 (9.57)

comenzaremos reemplazando |i al lado izquierdo de (9.57) por su expresion en (9.29)
Z Z Z Z " 2 X
#"
#
1 1 n ||2 X m
2 ||
I |i h| d = e 2 |n i e 2 hm | d2
n! m!
n=0 m=0
Z Z " X
#
1 X n m
||2
I = e |n i hm | d2 (9.58)
n! m!
n=0 m=0

el complejo lo podemos escribir como

= ei = x + iy ; d2 = d d = dx dy = d {Re ()} d {Im ()} (9.59)

donde hemos tenido en cuenta la expresion del diferencial de area en coordenadas polares2 . Sustituyendo la
parametrizacion polar de la Ec. (9.59) en la integral (9.58), esta ultima queda como
Z Z "   #
1 2 X X ei n ei m
e|e |
i
I = |n i hm | d d
n=0 m=0 n! m!
Z Z " #
1 2 X X n+m ei(nm)
I = e|| |n i hm | d d
n!m!
n=0 m=0
Z Z 2
1 X X 2 n+m 1
I = e d |n i hm | d ei(nm) (9.60)
n!m!
n=0 m=0 0 0

1
De hecho el operador destruccion a no es ni siquiera normal, de modo que no es valido en general el teorema espectral para este
operador.
2
Combinando las Ecs. (9.39, 9.59), podemos ver que d2 = d {Re ()} d {Im ()} = 2~ 1
d hXi d hP i , con lo cual la Ec. (9.57) que
expresa la completez de los estados coherentes, se puede interpretar como una integral sobre el espacio de fase clasico.
304 CAPITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO

la integral sobre es inmediata Z 2


ei(nm) d = 2nm
0
de modo que la Ec. (9.60) queda en la forma
X X Z X Z
2 n+m 1 2 1
I = 2 e d |n i hm | mn = 2 e n+n d |n i hn |
n=0 m=0 0 n!m! n=0 0 n!n!
X Z 
2 2n 1
I = 2 e d |n i hn |
n=0 0 n!

haciendo el cambio de variable u = 2 , du = 2 d tenemos


X 1 Z Z
2 2n
In |n i hn | ; In = 2 d e = du eu un (9.61)
n
n! 0 0

haciendo dV = du eu y U = un integramos In por partes


Z Z

n u u n1

In = u e 0 e nu du = n du eu un1
0

con lo cual encontramos una relacion de recurrencia para In

In = nIn1

cuya solucion es

In = nIn1 = n (n 1) In2 = n (n 1) (n 2) In3 = . . . = [n (n 1) (n 2) 2 1] Inn


In = n!I0

de la Ec. (9.61) tenemos que


Z
I0 = du eu = eu 0 = 1
0
In = n!I0 = n!

que al sustiturlo en (9.61) nos da X


I= |n i hn | = 1
n
donde hemos usado la completez de las autofunciones del oscilador armonico. Con esto se demuestra la Ec. (9.57),
que nos expresa la completez de los estados coherentes |i.

9.6. Evolucion temporal de los estados coherentes


Consideremos un oscilador armonico que en t = 0 esta en un estado coherente dado | (0)i = |0 i. Veremos
la evolucion temporal de este estado y de los observables mas importantes. Ya hemos visto que hXi (t) y hP i (t)
permanecen iguales a sus valores clasicos para todo tiempo. De hecho, esta caracterstica fue la motivacion para
la construccion de estos estados.
Para calcular la evolucion temporal del estado del sistema, expandimos el estado inicial en autoestados del
Hamiltoniano del oscilador armonico usando (9.29)
X |0 |2 n
| (0)i = |0 i = cn (0) |n i ; cn (0) e 2 0 (9.62)
n n!
9.6. EVOLUCION TEMPORAL DE LOS ESTADOS COHERENTES 305

Como el Hamiltoniano del oscilador armonico es independiente del tiempo, la evolucion temporal del estado
se puede calcular con la Ec. (5.67)
X |0 |2 X n 1
| (t)i = cn (0) eiEn t/~ |n i = e 2 0 ei(n+ 2 )t |n i
n n n!
2 n
|0 |2 X n |0 eit | X 0 eit
i t t
| (t)i = e 2 e 2 0 eint |n i = ei 2 e 2 |n i (9.63)
n n! n n!

comparando (9.63) con (9.62), vemos que el ket | (t)i se obtiene del ket inicial | (0)i = |0 i cambiando 0 por
t
0 eit y multiplicando el ket resultante por la fase global (irrelevante) ei 2 , con lo cual | (t)i se puede reescribir
como
| (t)i = eit/2 = 0 eit ; | (0)i = |0 i (9.64)
por tanto el estado cuasi-clasico continua siendo autovector del operador a, para todo tiempo t. Su autovalor es
0 eit que es el parametro (t) descrito por las ecuaciones (9.4, 9.6) y que geometricamente es un fasor que rota
en el plano complejo con velocidad angular . Recordemos que este fasor caracteriza en todo tiempo al oscilador
armonico clasico cuya evolucion pretendemos reproducir a traves del estado | (t)i. Los valores esperados de hXi
y hP i para todo tiempo se obtienen a partir de (9.64) y (9.39)
r
2~    
hXi(t) (t) = Re 0 eit ; hP i(t) (t) = 2m~Im 0 eit (9.65)
m
y tal como se predijo, estas ecuaciones son similares a la evolucion clasica Ecs. (9.7).
Por otro lado, la energa promedio es independiente del tiempo
   
2 1 1
hHi(t) (t) = ~ 0 eit + = ~ |0 |2 + (9.66)
2 2

finalmente, las races de las desviaciones medias cuadraticas H(t) , X(t) y P(t) calculadas con las Ecs. (9.36,
9.41) nos dan r r
~ m~
H = ~ |0 | ; X = ; P = (9.67)
2m 2
vemos que los anchos no dependen del tiempo. En particular X y P permanecen siendo paquetes de mnima
incertidumbre para todo tiempo. No hay dispersion de los paquetes de onda. Veamos un poco mas en detalle la
evolucion del paquete de onda, la funcion de onda (x, t) para todo tiempo se puede calcular con las Ecs. (9.54,
9.64)
 m 1/4 h i2
xhP i(t) xhXi(t)
(x, t) = ei eit/2 ei ~ e 2X
~
vemos que la forma del paquete es Gaussiana para todo tiempo t. Su forma no vara en el tiempo puesto que

| (t)|2 = |0 (x hXi (t))|2

vemos que los estados cuasi-clasicos son tales que los anchos X y P permanecen como paquetes de mnima
incertidumbre y la forma del paquete permanece intacta cuando este se propaga. Esta ausencia de dispersion y
de cambio del perfil del paquete es la que le da el nombre de estados coherentes a los estados cuasi-clasicos del
oscilador armonico.
La Fig. 9.1 muestra el movimiento de un paquete de onda de un estado coherente. De acuerdo con la Ec.
(9.65), el valor esperado de X oscila alrededor de x = 0 con periodo T = 2/, y dado que el paquete de onda
no se distorsiona, este sera tambien el movimiento del paquete como un todo. En contraste, vimos en la seccion
2.15.1 que un paquete Gaussiano libre se distorsiona cuando se propaga, ya que su ancho aumenta a medida que se
306 CAPITULO 9. ESTADOS CUASI-CLASICOS DEL OSCILADOR ARMONICO

Figura 9.1: Propagacion de un paquete de onda Gaussiano sometido a un potencial parabolico y asociado a un estado
cuasi-clasico. El paquete oscila alrededor del punto de equilibrio. La forma y el ancho del paquete Permanecen
intactos en el tiempo.

propaga (dispersion del paquete de onda). Vemos en contraste que un paquete Gaussiano sometido a un potencial
parabolico (oscilador armonico) no posee dispersion. Esto se debe a que la tendencia del paquete a dispersarse
es compensada por el potencial, cuyo efecto es empujar al paquete hacia el origen desde regiones donde x (y por
tanto V (x)) es grande.

Adicionalmente, ya hemos visto en las secciones (9.3.1, 9.3.2) que cuando || 1, las races de las desviaciones
medias cuadraticas de X, P y H son mucho menores que sus valores esperados asociados, y ademas dichos valores
esperados emulan en todo tiempo la evolucion clasica. De modo que escogiendo un valor de || lo suficientemente
alto, obtenemos una evolucion temporal cuantica para la cual la posicion y momento de los osciladores son en valor
relativo, tan definidos como es posible, ya que los paquetes son de mnima incertidumbre, y su valor caracterstico
tiene un comportamiento similar al clasico. Por tanto, en este lmite el estado |i emula muy bien las propiedades
de un oscilador macroscopico (clasico) para el cual la posicion, momento y energa estan bien definidos.
9.7. TRATAMIENTO MECANO-CUANTICO DE UN OSCILADOR ARMONICO MACROSCOPICO 307

9.7. Tratamiento mecano-cuantico de un oscilador armonico macroscopico


Consideraremos un ejemplo macroscopico que nos permita una apreciacion numerica de la discusion anterior.
Sea un cuerpo de masa m = 1kg, suspendido de una cuerda de longitud l = 0,1m colocado en un campo
gravitacional g 10m/seg2 . Sabemos que para pequenas oscilaciones el periodo de movimiento es
s
l
T = 2 0,63seg ; = 10Rad/seg
g

asumamos que este oscilador realiza movimiento periodico de amplitud xM = 1cm. Nos preguntamos ahora por
el estado mecano-cuantico que mejor representa esta oscilacion.
De acuerdo con la discusion anterior, dicho estado es del tipo |i. Combinando la relacion clasica entre energa
y amplitud con la Ec. (9.32) (despreciando el factor 1/2 en esta ultima) se obtiene
1
E = m 2 x2M = ~ ||2
2
r
m
|| = xM
2~

en donde el argumento de depende de la fase inicial de movimiento. Para nuestro caso tenemos las siguientes
estimaciones numericas

|| 5 1015 1
r
~
X = 2,2 1018 m xM
2m
r
m~
P = 2,2 1017 kg m/s
2
la raz de la desviacion media cuadratica para la velocidad esta dada por

V 2,2 1017 m/s

el valor maximo de la velocidad del oscilador es 0,1m/s y la raz del valor medio cuadratico es de este mismo
orden de magnitud. Por tanto, las incertidumbres en la posicion y velocidad son completamente despreciables con
respecto a las cantidades involucradas en el problema. Por ejemplo X es menor que un fermi (1015 m) que
es el tamano aproximado de un nucleo atomico. Es claro que esta cantidad es despreciable para una longitud
macroscopica.
Finalmente, la energa del oscilador se conoce con una excelente precision relativa, usando la Ec. (9.38) resulta

H 1
0,4 1015 1
hHi ||

todo esto nos muestra porque la mecanica clasica provee una adecuada descripcion del oscilador armonico ma-
croscopico.
Captulo 10

Teora general del momento angular en


mecanica cuantica

Es bien conocida la gran importancia que tiene el momento angular en mecanica clasica. En primer lugar es
una constante de movimiento cuando el sistema es aislado constituyendo uno de los principios de conservacion
mas fundamentales en la teora clasica. Ademas, tambien es una cantidad conservada para una partcula sometida
a una fuerza central, y trae como consecuencia el hecho de que el movimiento sea en un plano y que se conserve
la velocidad aerolar (segunda ley de Kepler).

Veremos que estas propiedades tienen su contrapartida cuantica. Por ejemplo, veremos mas adelante que para
una partcula sometida a una interaccion central, los operadores L1 , L2 , L3 que surgen de cuantizar las cantidades
clasicas, son constantes de movimiento en el sentido cuantico, es decir no dependen explcitamente del tiempo
y conmutan con el Hamiltoniano. Veremos ademas que existe otro tipo de momento angular que no depende
de R ni P ni de ninguna otra variable geometrica clasica. Estos momentos angulares que surgen directamente
como observables cuanticos y no como la cuantizacion de observables clasicos se denominan momentos angulares
intrnsecos. Este momento angular intrnseco (tambien conocido como espn), esta cuantizado desde el principio
y es esencial para entender el mundo microscopico como veremos mas adelante.

De aqu en adelante denotaremos como momento angular orbital L a cualquier momento angular que provenga
de la cuantizacion de un momento angular clasico. Llamaremos momento angular de espn S o simplemente espn, a
cualquier momento angular intrnseco de una partcula. Finalmente, en sistemas complejos como nucleos, atomos,
moleculas, etc. los momentos angulares orbitales de sus constituyentes se combinan y tambien se combinan con
los espines de sus constituyentes para formar el momento angular total J. La notacion J representara entonces la
resultante entre la suma de momentos orbitales e intrnsecos, pero tambien se usara para denotar un momento
angular generico cuando no hagamos distincion entre el momento angular intrnseco y orbital. Las reglas de adicion
de los momentos angulares se estudiaran en captulos subsecuentes.

Existen una serie de propiedades de los momentos angulares que solo dependen de sus relaciones de conmutacion
y que seran validas para cualquier momento angular sin importar su naturaleza. Veremos en particular, que toda
componente de un momento angular posee un espectro discreto, propiedad denominada cuantizacion espacial.
Desarrollaremos en captulos posteriores, las aplicaciones concernientes tanto al momento angular orbital como al
intrnseco.

308
10.1. DEFINICION DE MOMENTO ANGULAR POR SUS PROPIEDADES DE CONMUTACION 309

10.1. Definicion de momento angular por sus propiedades de conmutacion


10.1.1. Cuantizacion del momento angular orbital
Para obtener los tres observables L1 , L2 , L3 asociados a un momento angular orbital clasico de componentes
L1 , L2 , L3 , donde


L = rp (10.1)
Li = ijk xj pk ; i, j, k = 1, 2, 3 (10.2)
simplemente reemplazamos cada componente xj , pk por los correspondientes operadores Xj , Pk . La cantidad ijk
es el tensor de Levi Civita. Notese que aunque aparece un producto de estos operadores, no es necesaria una
simetrizacion puesto que en (10.2) solo sobreviven los terminos con j 6= k de modo que los operadores en el
producto conmutan segun las reglas canonicas de conmutacion (4.11). Por esta razon, no hay ambiguedad en
el orden y el operador que se obtiene es automaticamente hermtico. Visto de otra manera, la simetrizacion del
producto coincide con el producto original cuando los operadores conmutan. Los observables cuanticos son entonces
Li = ijk Xj Pk ; i, j, k = 1, 2, 3 (10.3)
L = RP (10.4)
calculemos entonces los conmutadores entre los Li con base en las relaciones canonicas de conmutacion (4.11)
[L1 , L2 ] = [X2 P3 X3 P2 , X3 P1 X1 P3 ] = [X2 P3 , X3 P1 X1 P3 ] [X3 P2 , X3 P1 X1 P3 ]
= [X2 P3 , X3 P1 ] [X2 P3 , X1 P3 ] [X3 P2 , X3 P1 ] + [X3 P2 , X1 P3 ]
= X2 [P3 , X3 P1 ] + [X2 , X3 P1 ] P3 X2 [P3 , X1 P3 ] [X2 , X1 P3 ] P3
X3 [P2 , X3 P1 ] [X3 , X3 P1 ] P2 + X3 [P2 , X1 P3 ] + [X3 , X1 P3 ] P2

[L1 , L2 ] = X2 [P3 , X3 ] P1 + X3 [X2 , P1 ] P3 X2 [P3 , X1 ] P3 X1 [X2 , P3 ] P3


X3 [P2 , X3 ] P1 X3 [X3 , P1 ] P2 + X3 [P2 , X1 ] P3 + X1 [X3 , P3 ] P2

[L1 , L2 ] = i~X2 P1 + i~X1 P2 = i~ (R P)3


[L1 , L2 ] = i~L3
procediendo de forma similar con los demas conmutadores se obtiene
[L1 , L2 ] = i~L3 ; [L1 , L3 ] = i~L2 ; [L2 , L3 ] = i~L1
o mas sinteticamente
[Li , Lj ] = i~ijk Lk (10.5)
este resultado se puede generalizar cuando tenemos N partculas sin espn. El momento angular total del sistema
en mecanica cuantica es
XN
L= L(i) ; L(i) R(i) P(i)
i=1

y cada momento angular individual L(i)


satisface relaciones de conmutacion del tipo (10.5) y conmuta con L(j)
para i 6= j, ya que son operadores actuando en el espacio de estados de partculas diferentes. Por tanto para N
partculas tendramos h i
(m) (n) (m)
Li , Lj = i~ijk mn Lk
Se puede demostrar adicionalmente que el origen de las reglas de conmutacion (10.5) yace en las propiedades
geometricas de las rotaciones en tres dimensiones. Esto esta relacionado con el hecho de que en mecanica clasica,
el momento angular junto con el torque forman las variables fundamentales de la dinamica rotacional.
310 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

10.1.2. Definicion de momento angular


De nuestro trabajo con el oscilador armonico hemos aprendido que muchas propiedades se pueden extraer de las
reglas de conmutacion entre los operadores sin utilizar una representacion especfica. Esto nos induce a generalizar
los resultados anteriores para definir un operador momento angular como cualquier tripla de observables J =
(J1 , J2 , J3 ), que satisface las relaciones
[Ji , Jj ] = i~ijk Jk (10.6)

sera de gran utilidad el operador


J2 = J12 + J22 + J32

este operador es Hermtico ya que cada componente es hermtica. Vale la pena enfatizar que el caracter de
observable de los Ji forma parte esencial de la definicion de momento angular1 . Calculemos primero el conmutador
de J2 con J, para lo cual calculamos para cada componente
   2     
J2 , J1 = J1 + J22 + J32 , J1 = J22 , J1 + J32 , J1
= J2 [J2 , J1 ] + [J2 , J1 ] J2 + J3 [J3 , J1 ] + [J3 , J1 ] J3
= i~J2 J3 i~J3 J2 + i~J3 J2 + i~J2 J3
 2

J , J1 = 0

y similarmente con las otras componentes de modo que


 
J2 , J = 0 (10.7)

toda la teora del momento angular en cuantica se basara completamente en las reglas de conmutacion (10.6,
10.7). En particular, estas relaciones muestran que no es posible medir simultaneamente las tres componentes
del momento angular, pero s es posible medir simultaneamente una sola componente y la cantidad J2 . Es decir
cualquier componente de J es una variable compatible con J2 . Esto implicara que si asumimos que J2 y Ji son
observables, podemos encontrar una base comun de vectores propios para J2 y uno de los Ji . Es usual elegir la
componente de J3 , y decimos que tomamos a X3 como eje de cuantizacion de modo que construmos una base
que diagonalice simultaneamente a J2 y a J3 .

10.2. Propiedades algebraicas del momento angular


Estudiaremos la estructura del espectro de J2 y J3 as como la estructura de sus vectores propios comunes.
Veremos que muchos de los argumentos se asemejan a los que se utilizaron para el oscilador armonico.
En primer lugar, inspirados por la definicion de los operadores a y a en las Ecs. (8.6) introduciremos los
siguientes operadores

J+ J1 + iJ2 ; J J1 iJ2 (10.8)


1 1
J1 = (J+ + J ) ; J2 = (J+ J ) (10.9)
2 2i

y al igual que los operadores a y a , los operadores J no son hermticos y son conjugados el uno del otro. En todo
el estudio del momento angular trabajaremos con los operadores J2 , J3 , J+ , J por lo cual sera necesario encontrar
todas las relaciones de conmutacion entre ellos
1
Para un conjunto concreto de tres operadores, el caracter de observable solo podra verificarse cuando se sepa sobre que espacio
actuan los operadores momento angular. Las reglas de conmutacion no especifican sobre que espacio actuan los momentos angulares.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 311

10.2.1. Algebra de los operadores J2 , J3 , J+ , J


Usando las Ecs. (10.6, 10.7, 10.8) podemos encontrar las relaciones de conmutacion requeridas

[J3 , J ] = [J3 , J1 iJ2 ] = [J3 , J1 ] i [J3 , J2 ] = i~J2 i (i~J1 ) = ~ {iJ2 J1 }


[J3 , J+ ] = ~J+ ; [J3 , J ] = ~J

[J+ , J ] = [J1 + iJ2 , J1 iJ2 ] = [J1 , J1 iJ2 ] + i [J2 , J1 iJ2 ]


= [J1 , J1 ] i [J1 , J2 ] + i [J2 , J1 ] + [J2 , J2 ] = 2i [J2 , J1 ] = 2i (i~J3 )
[J+ , J ] = 2~J3 (10.10)

       
J2 , J = J2 , J1 iJ2 = J2 , J1 i J2 , J2
 
J2 , J = 0

tambien seran utiles los siguientes productos

J+ J = (J1 + iJ2 ) (J1 iJ2 ) = J12 + J22 + iJ2 J1 iJ1 J2


= J12 + J22 + J32 J32 + i [J2 , J1 ] = J2 J32 + i (i~J3 )
J+ J = J2 J32 + ~J3 (10.11)

el producto J J+ se puede obtener explcitamente o usando las Ecs. (10.10, 10.11)

J J+ = J+ J [J+ , J ] = J2 J32 + ~J3 2~J3


J J+ = J2 J32 ~J3

resumiremos el algebra encontrada hasta ahora. Tenemos las definiciones

J (J1 , J2 , J3 ) ; J2 J12 + J22 + J32 (10.12)


J+ (J1 + iJ2 ) ; J (J1 iJ2 ) (10.13)

donde los Ji son observables con las siguientes propiedades algebraicas


 2 
[Ji , Jj ] = i~ijk Jk ; J ,J = 0 (10.14)
[J3 , J+ ] = ~J+ ; [J3 , J ] = ~J (10.15)
 2 
[J+ , J ] = 2~J3 ; J , J = 0 (10.16)
2
J+ J = J J32 + ~J3 ; J J+ = J 2
J32 ~J3 (10.17)

10.3. Estructura de valores y vectores propios


10.3.1. Notacion
Dado que J2 es la suma de cuadrados de tres operadores hermticos, tal operador es positivo

h| J2 |i = h| J12 |i + h| J22 |i + h| J32 |i = h| J1 J1 |i + h| J2 J2 |i + h| J3 J3 |i


= kJ1 |ik2 + kJ2 |ik2 + kJ3 |ik2 0

este resultado era de esperarse ya que la variable clasica es el modulo al cuadrado de un vector el cual es no
negativo. En particular eligiendo a |i como un autovector de J2 vemos que

h| J2 |i = h| a |i = a h| i = a k|ik2 0 a 0
312 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

los autovalores deben ser no negativos (en analoga con los autovectores de N en el oscilador armonico). Dado
que J tiene dimensiones de momento angular, el valor propio de J2 se puede parametrizar como a = ~2 siendo
una cantidad adimensional no negativa. Adicionalmente, se puede demostrar que para todo 0 la ecuacion

j (j + 1) = (10.18)

tiene una y solo una raz no negativa2 . Por tanto la especificacion de determina completamente a j y viceversa.
Por tanto, sin perdida de generalidad podemos denotar a los valores propios de J2 en la forma

J2 |i = j (j + 1) ~2 |i ; j 0

si consideramos que {|i} es la base de vectores propios comunes a J2 y J3 denotaremos a los valores propios de
J3 en la forma
J3 |i = m~ |i
siendo m una cantidad adimensional.
Puesto que J2 y J3 son observables conmutantes, ellos hacen parte de un C.S.C.O pero no necesariamente
lo constituyen por s solos. Por esa razon denotaremos a los kets propios comunes a los dos con tres numeros
cuanticos: j para rotular los valores propios de J2 , m para rotular los valores propios de J3 y k asociado a la
degeneracion. Naturalmente, estos ndices pueden ser de momento contnuos o discretos y k podra simbolizar
varios ndices (los necesarios para completar un C.S.C.O.).
En sntesis escribiremos la ecuacion de valores propios en la forma

J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki (10.19)

10.3.2. Caractersticas generales de los valores propios de J2 y J3


Asumiremos que los estados propios estan normalizados y que J2 y J3 son observables. En analoga con el
oscilador armonico, vamos a caracterizar primero a los vectores J+ |j, m, ki y J |j, m, ki, por medio de sus normas
al cuadrado

kJ+ |j, m, kik2 = hj, m, k| J J+ |j, m, ki 0 (10.20)


2
kJ |j, m, kik = hj, m, k| J+ J |j, m, ki 0 (10.21)

y usando las Ecs. (10.17, 10.19) resulta



kJ |j, m, kik2 = hj, m, k| J2 J32 ~J3 |j, m, ki

= hj, m, k| j (j + 1) ~2 m2 ~2 m~2 |j, m, ki
= j (j + 1) ~2 m2 ~2 m~2
kJ |j, m, kik2 = ~2 {j (j + 1) m (m 1)} (10.22)

reemplazando (10.22) en (10.20, 10.21) se tiene que

j (j + 1) m (m + 1) = (j m) (j + m + 1) 0 (10.23)
j (j + 1) m (m 1) = (j m + 1) (j + m) 0 (10.24)

asumamos que j m < 0, dado que j 0 entonces m > 0 y j + m + 1 > 0. Por tanto, (j m) (j + m + 1) < 0,
contradiciendo la Ec. (10.23). Debemos rechazar la hipotesis de que j m < 0.
Es necesario entonces que j m 0, de esta hipotesis se obtiene que j m + 1 > 0, y para satisfacer la Ec.
(10.24) se requiere que (j + m) 0, tenemos entonces que las condiciones

jm0 y j+m0 (10.25)


2 
La Ec. (10.18) tiene como solucion j = 1 1 + 4 /2. Si 0, la unica solucion no negativa para j es j+ .
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 313

por construccion satisfacen (10.24). Solo falta ver que estas condiciones tambien cumplen con la desigualdad
(10.23). Usando la segunda condicion j + m 0 vemos que implica j + m + 1 > 0, y esto junto con la primera
condicion en (10.25) nos satisface la Ec. (10.23). Vemos entonces que las condiciones (10.25) son necesarias y
suficientes para que se cumplan las desigualdades (10.23) y (10.24). Finalmente, y teniendo en cuenta que j es no
negativo, estas condiciones se pueden reescribir como

jm 0 y j+m0 j m y j m
j |m| j m j

con lo cual obtenemos el siguiente lema

Lemma 4 Si j (j + 1) ~2 y m~ son valores propios de J2 y J3 asociados al ket propio comun |j, m, ki entonces j
y m satisfacen la desigualdad
j m j (10.26)

Ahora veremos con base en la Ec. (10.26), las caractersticas de los kets J |j, m, ki y J+ |j, m, ki, siendo
|j, m, ki autovector comun de J2 y J3 .
En primer lugar, veremos las condiciones necesarias y suficientes para la nulidad del vector J |j, m, ki. Esto
se puede hacer con base en la Ec. (10.22)

J |j, m, ki = 0 kJ |j, m, kik2 = 0 ~2 {j (j + 1) m (m 1)} = 0


(j m + 1) (j + m) = 0

cuyas soluciones son m = j (su mnimo valor posible) y m = j + 1. Pero la segunda solucion contradice al lema
4 Ec. (10.26). Por tanto
m = j J |j, m, ki = 0 (10.27)
por tanto si m > j el vector J |j, m, ki sera no nulo siempre que se cumpla la Ec. (10.26). Esto se puede
corroborar reemplazando m > j en la Ec. (10.22) verificando que la norma de J |j, m, ki no es nula. Ahora
demostraremos que J |j, m, ki es un ket propio de J2 y J3 . Puesto que J2 y J conmutan segun la Ec. (10.16),
podemos escribir

 
J2 , J |j, m, ki = 0 J2 J |j, m, ki = J J2 |j, m, ki J2 J |j, m, ki = J j (j + 1) ~2 |j, m, ki
J2 [J |j, m, ki] = j (j + 1) ~2 [J |j, m, ki]

por tanto J |j, m, ki es ket propio de J2 con valor propio j (j + 1) ~2 . Este resultado esta relacionado con el hecho
de que J2 y J conmutan, como se aprecia en el teorema 1.66, pag. 57. Ahora veremos que J |j, m, ki es tambien
ket propio de J3 , para lo cual empleamos la Ec. (10.15)

[J3 , J ] |j, m, ki = ~J |j, m, ki J3 J |j, m, ki = (J J3 ~J ) |j, m, ki


J3 J |j, m, ki = (J m J ) ~ |j, m, ki
J3 [J |j, m, ki] = (m 1) ~ [J |j, m, ki]

de modo que J |j, m, ki es autovector de J3 con autovalor (m 1) ~. Los anteriores resultados se pueden resumir
en el siguiente lema

Lemma 5 Sea |j, m, ki un vector propio comun a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a)
6 0 y es autovector de J2 y J3 con
m = j si y solo si J |j, m, ki = 0. (b) Si m > j entonces J |j, m, ki =
2
valores propios j (j + 1) ~ y (m 1) ~.
314 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

El siguiente paso natural es estudiar al vector J+ |j, m, ki. De la Ec. (10.22) podemos ver las condiciones
necesarias y suficientes para que J+ |j, m, ki sea nulo.

J+ |j, m, ki = 0 kJ+ |j, m, kik2 = 0 ~2 {j (j + 1) m (m + 1)} = 0


(j + m + 1) (j m) = 0

las soluciones son m = j y m = (j + 1) pero la segunda solucion es incompatible con el lema 4 Ec. (10.26). Por
tanto
m = j J+ |j, m, ki = 0 (10.28)
si m < j, y usando (10.16, 10.15) obtenemos
 2 
J , J+ |j, m, ki = 0 J2 J+ |j, m, ki = J+ J2 |j, m, ki
J2 [J+ |j, m, ki] = j (j + 1) ~2 [J+ |j, m, ki]

[J3 , J+ ] |j, m, ki = ~J+ |j, m, ki J3 J+ |j, m, ki = J+ J3 |j, m, ki + ~J+ |j, m, ki


J3 J+ |j, m, ki = m~J+ |j, m, ki + ~J+ |j, m, ki
J3 [J+ |j, m, ki] = (m + 1) ~ [J+ |j, m, ki]

por tanto J+ |j, m, ki es vector propio de J2 y de J3 con valores propios j (j + 1) ~2 y (m + 1) ~. Tenemos entonces
el siguiente lema

Lemma 6 Sea |j, m, ki un vector propio comun a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a)
6 0 y es autovector de J2 y J3 con valores
m = j si y solo si J+ |j, m, ki = 0. (b) Si m < j entonces J+ |j, m, ki =
2
propios j (j + 1) ~ y (m + 1) ~.

Veremos que estos lemas permiten encontrar el espectro de J2 y J3 .

10.3.3. Determinacion de los valores propios de J2 y J3


Asumamos que |j, m, ki es un autovector de J2 y J3 con valores propios j (j + 1) ~2 y m~. El lema 4 nos dice
que
j m j
como el ket es fijo los valores de j y m son fijos. Es claro que existe un numero entero no negativo p, tal que

j m p < j + 1 (10.29)

formamos ahora una sucesion de vectores


n o
|j, m, ki , J |j, m, ki , (J )2 |j, m, ki , . . . , (J )p |j, m, ki (10.30)

demostraremos que estos son vectores propios no nulos de J2 y J3 y que para potencias mas altas de J , se
obtienen vectores nulos. Esto se realiza aplicando iterativamente el lema 5
Comenzamos aplicando el lema 5 a |j, m, ki. Por hipotesis |j, m, ki es vector propio no nulo de J2 y J3 con valores
propios j (j + 1) ~2 y m~. Si m > j podemos aplicar el lema 5 con lo cual J |j, m, ki |j, m 1, ki es vector
propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m 1) ~. Si m 1 > j podemos aplicar de nuevo
el lema y J |j, m 1, ki = (J )2 |j, m, ki |j, m 2, ki es vector propio
h no nulo de iJ2 y J3 con valores propios
n1
j (j + 1) ~2 y (m 2) ~. En general si m (n 1) > j entonces J (J ) |j, m, ki = J |j, m (n 1) , ki =
(J )n |j, m, ki |j, m n, ki es vector propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m n) ~.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 315

Veremos que estas condiciones se satisfacen solo para n = 0, 1, . . . , p. Si asumimos que 0 n p entonces

m (n 1) = m n + 1 m p + 1 j + 1

donde hemos usado la primera de las desigualdades (10.29) en el ultimo paso. Por tanto

m (n 1) j + 1 > j

de modo que la condicion m (n 1) > j necesaria para aplicar el lema 5 se cumple cuando n = 0, 1, . . . , p.
Ahora veamos lo que ocurre con el vector (J )p+1 |j, m, ki = J [(J )p |j, m, ki]. Puesto que (J )p |j, m, ki es
autovector de J2 y J3 con valores propios j (j + 1) ~2 y (m p) ~, el lema 4 Ec. (10.26) nos dice que (m p) j.
Asumamos de momento que
(m p) > j
una aplicacion adicional del lema 5 nos dice que J [(J )p |j, m, ki] es autovector no nulo de J2 y J3 con valores
propios j (j + 1) ~2 y (m p 1) ~. Ahora aplicando la segunda de las desigualdades en la expresion (10.29), se
tiene que
m p 1 < j
lo cual contradice al lema 4 Ec. (10.26). Por tanto debemos rechazar la hipotesis m p > j. Solo nos queda
entonces que m p = j y al aplicar el lema 5 se obtiene

(J )p+1 |j, m, ki = J |j, m p, ki = 0

y todas las potencias mayores tambien se anulan. Esta anulacion evita el conflicto con el lema 4.
De lo anterior se deduce que existe un entero no negativo p tal que

m p = j (10.31)

Por un razonamiento similar, existe un entero no negativo q, tal que

j1<m+q j

y se puede demostrar que para este entero no negativo q, la sucesion


n o
|j, m, ki , J+ |j, m, ki , (J+ )2 |j, m, ki , . . . , (J+ )q |j, m, ki (10.32)

consiste de vectores no nulos, pero potencias mayores de J+ producen vectores nulos con lo cual se evita una
contradiccion con el lema 4. Esto implica a su vez que existe un entero no negativo q tal que

m+q =j (10.33)

aqu aparece una diferencia con respecto al oscilador armonico, ya que ambos operadores J+ y J tienen una
sucesion limitada de potencias que generan vectores no nulos. En el oscilador armonico, la sucesion de a no esta
limitada. Esto tiene que ver con el hecho de que J+ ( J ) es un operador que incrementa (decrementa) el valor
de m dejando j sin cambiar. Pero para un j dado, m tiene lmite superior e inferior, por tanto hay lmites tanto
para el decremento como para el incremento. Otra diferencia importante es la degeneracion y el hecho de que el
conjunto J2 , J3 no forma en general un C.S.C.O.3
3
La cuestion es que la teora del momento angular no parte de un Hamiltoniano definido ni tampoco de un espacio de Hilbert
definido, a diferencia de la teora del oscilador armonico en donde el espacio de estados y el Hamiltoniano son bien especficos. Por esta
razon, la teora general del momento angular no nos puede decir a priori cual es el grado de degeneracion de los estados propios de J2
y J3 .
316 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

Combinando las Ecs. (10.31, 10.33) se tiene que

p+q
p + q = 2j j =
2

pero p + q es un entero no negativo. Por tanto, j solo puede adquirir valores enteros o semienteros no negativo

1 3 5
j = 0, , 1, , 2, , . . .
2 2 2

Estos son los valores posibles pero no hemos demostrado que tenga que tomarlos todos (de hecho no es as en
general4 ). Adicionalmente, si existe un autovector no nulo |j, m, ki de J2 y J3 , las sucesiones (10.30, 10.32) constan
de autovectores no nulos de J2 con valores propios j (j + 1) ~2 y tambien de J3 con autovalores dados por

mj = j~, (j + 1) ~, (j + 2) ~, . . . , (j 2) ~, (j 1) ~, j~ (10.34)

es decir tenemos 2j + 1 valores posibles de m para un j dado. Puesto que estos valores se obtienen de las sucesiones
ya mencionadas, todos los 2j + 1 valores de m posibles bajo la restriccion (10.26) son valores propios accesibles
para un valor dado de j. Adicionalmente, puesto que p y q son enteros no negativos, las Ecs. (10.31, 10.33) nos
dicen que m es entero (semi-entero) si y solo si j es entero (semi-entero). Lo anterior nos dice que para un j dado,
todos los valores de m expresados en la Ec. (10.34) estan asociados a un vector |j, m, ki y son ademas los unicos
valores accesibles de m para dicho valor de j.
Podemos sintetizar estos resultados en la siguiente forma: Sea J un momento angular arbitrario que obedece
las reglas de conmutacion (10.6). Si j (j + 1) ~2 y m~ denotan los autovalores de J2 y J3 asociados al ket comun
|j, m, ki. Tenemos que

Los unicos valores posibles de j son enteros o semienteros no negativos: 0, 12 , 1, 32 , 2, 52 , . . .. No necesariamente


j debe tomar todos estos valores.

Para un valor dado de j existen 2j + 1 valores posibles de m: j, j + 1, j + 2, . . . , j 2, j 1, j. La


cantidad m es entera si y solo si j es entera. As mismo, m es semi-entero si y solo si j es entero. Todos los
valores de m son permitidos si uno de ellos lo es.

10.4. Propiedades de los vectores propios de J2 y J3


Veremos que las propiedades algebraicas de los operadores J2 , J3 , J+ , J , nos permiten extraer informacion
sobre los estados propios de J2 y J3 incluso sin especificar el espacio de Hilbert E sobre el cual actuan los operadores.
Para ello solo requerimos dos hipotesis de trabajo: (1) Que J2 y J3 son observables con respecto al espacio E sobre
el cual actuan, y (2) Que conocemos por algun medio experimental y/o teorico, los valores de j que son permitidos
en nuestro sistema fsico (recordemos que j debe ser entero o semientero no negativo, pero no necesariamente debe
cubrir todos los valores enteros y semienteros no negativos).
Debemos recordar que para un j dado que este permitido, todos los valores de m permitidos por la Ec. (10.26)
deben aparecer. En el oscilador armonico aprendimos que con un solo estado (el estado base) podemos generar
todos los estados propios por medio del operador construccion. En esta seccion desarrollaremos un metodo para
generar los autoestados de J2 y J3 a partir de un subconjunto de estos estados y de los operadores J+ y J .

4
Esto tambien esta relacionado con el hecho de que el Hamiltoniano y el espacio vectorial sobre el cual operan los Ji no estan
definidos.
10.4. PROPIEDADES DE LOS VECTORES PROPIOS DE J2 Y J3 317

10.4.1. Generacion de autoestados por medio de los operadores J+ y J


Consideremos un operador momento angular J que actua sobre un espacio de estados E, y mostraremos un
algoritmo para construir una base ortonormal en E de vectores propios comunes a J2 y J3 .
Tomemos un par de valores propios j (j + 1) ~2 y m~ que sean realizables fsicamente para nuestro sistema
fsico. Los autovectores asociados |j, m, ki pueden ser degenerados en j, m lo cual se indica con el ndice k. Los
vectores propios asociados al par (j, m) forman un autosubespacio E (j, m) de dimension g (j, m). Si g (j, m) > 1
para al menos un par (j, m), entonces el conjunto J2 , J3 no forma un C.S.C.O. Escogeremos en E (j, m) una base
ortonormal de vectores {|j, m, ki} con k = 1, . . . , g (j, m).
Si m 6= j existe un subespacio E (j, m + 1) de E compuesto por autovectores de J2 , J3 con valores propios
j (j + 1) ~2 y (m + 1) ~. Analogamente, si m 6= j existe un subespacio E (j, m 1) con autovectores de J2 , J3
y valores propios j (j + 1) ~2 , (m 1) ~. Si m 6= j construiremos una base ortonormal en E (j, m + 1) a partir de
la base ya construda para E (j, m). Similarmente, si m 6= j generaremos una base ortonormal en E (j, m 1)
partiendo de la base en E (j, m).
En primer lugar mostraremos que si |j, m, k1 i y |j, m, k2 i son ortogonales para k1 6= k2 , entonces los vectores
J+ |j, m, k1 i y J+ |j, m, k2 i tambien son ortogonales. De igual forma se vera que J |j, m, k1 i y J |j, m, k2 i tambien
son ortogonales. Para ello calculamos el producto interno entre los kets en cuestion utilizando las formulas (10.17)

(J |j, m, k2 i , J |j, m, k1 i) = hj, m, k2 | J J |j, m, k1 i = hj, m, k2 | J2 J32 ~J3 |j, m, k1 i
 
= j (j + 1) m2 m ~2 hj, m, k2 | j, m, k1 i
(J |j, m, k2 i , J |j, m, k1 i) = [j (j + 1) m (m 1)] ~2 hj, m, k2 | j, m, k1 i (10.35)

y puesto que los vectores {|j, m, ki i} asociados a E (j, m) son ortonormales por hipotesis, se tiene

Theorem 10.1 Sean |j, m, k1 i y |j, m, k2 i dos autovectores ortogonales de J2 y J3 con valores propios j (j + 1) ~2 ,
m~, y k1 6= k2 . Entonces J |j, m, k2 i es ortogonal a J |j, m, k1 i.

Si k1 = k2 k, la Ec. (10.35) nos permite calcular la norma de J |j, m, ki. Asumiendo que |j, m, ki esta
normalizado se tiene
kJ |j, m, kik2 = [j (j + 1) m (m 1)] ~2
por tanto podemos construr vectores ortonormales asociados a |j, m 1, ki para lo cual simplemente debemos
normalizar los vectores J |j, m, ki.
Comencemos con J+ |j, m, ki, normalizando los vectores J+ |j, m, ki obtenemos un conjunto ortonormal en
E (j, m + 1) dado por
J+ |j, m, ki
|j, m + 1, ki p (10.36)
~ j (j + 1) m (m + 1)
multipliquemos (10.36) por J usando (10.17)

J J+ |j, m, ki J2 J32 ~J3 |j, m, ki
J |j, m + 1, ki = p = p
~ j (j + 1) m (m + 1) ~ j (j + 1) m (m + 1)
[j (j + 1) m (m + 1)] ~ |j, m, ki
= p
j (j + 1) m (m + 1)
p
J |j, m + 1, ki = ~ j (j + 1) m (m + 1) |j, m, ki (10.37)

Vamos a demostrar que el conjunto ortonormal {|j, m + 1, ki} en E (j, m + 1) generado por todos los elementos
de la base {|j, m, ki} de E (j, m) a traves de (10.36), constituye una base para E (j, m + 1). La demostracion se
hara por contradiccion, es decir asumiendo que {|j, m + 1, ki} no es una base, segun el teorema 1.23, Pag. 30, esta
negacion equivale a decir que existe un vector no nulo |j, m + 1, i en E (j, m + 1) ortogonal a todos los vectores
del conjunto.
318 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

Asumamos que existe un vector no nulo |j, m + 1, i en E (j, m + 1) ortogonal a todos los elementos del conjunto
ortonormal {|j, m + 1, ki}. Por tanto, 6= k para todos los k s del conjunto anterior. Dado que m + 1 6= j, el
vector J |j, m + 1, i es no nulo en virtud del lema 5, y dicho vector yace en E (j, m). Ahora bien, puesto que
6= k, el teorema 10.1 dice que J |j, m + 1, i sera ortogonal a todos los vectores J |j, m + 1, ki. Por otro
lado, la Ec. (10.37) nos dice que J |j, m + 1, ki es colineal con |j, m, ki. En consecuencia, al barrer toda la
base {|j, m, ki} obtenemos que el conjunto {J |j, m + 1, ki} generado de esta manera tambien es una base para
E (j, m). De lo anterior vemos que J |j, m + 1, i es un vector no nulo de E (j, m), ortogonal a todos los vectores
de la base {|j, m, ki}, pero esto es imposible en virtud del teorema 1.23. Por tanto, el conjunto de vectores
{|j, m + 1, ki} generado por la base {|j, m, ki} de E (j, m) por medio de (10.36) es completo.
De una forma similar se puede demostrar que cuando m 6= j podemos definir vectores |j, m 1i en la forma
J |j, m, ki
|j, m 1, ki p (10.38)
~ j (j + 1) m (m 1)
para formar una base ortonormal en E (j, m 1). Notese que (10.38) se obtiene de (10.37) reemplazando m m1.
Las Ecs. (10.36, 10.38) implican una escogencia de fase cero entre |j, m 1, ki y el vector J |j, m, ki, de modo que
la constante de proporcionalidad entre ambos es real y positiva. Esta convencion de fase cero es conocida como
convencion de Cordon-Shortley.
En particular vemos que las Ecs. (10.36) establecen relaciones uno a uno y sobreyectivas entre las bases de
E (j, m) y E (j, m + 1). Igualmente las Ecs. (10.38) nos dan una relacion uno a uno y sobreyectiva entre las bases
de E (j, m) y E (j, m 1). En consecuencia, los espacios E (j, m) y E (j, m 1) son de la misma dimensionalidad.
Por induccion se obtiene entonces que la dimensionalidad de cualquier E (j, m) solo depende de j
g (j, m) = g (j)
describamos un procedimiento sistematico para generar una base ortonormal para el espacio completo E. Para
un valor accesible de j encontramos un subespacio de la forma E (j, m) digamos E (j, j), y encontramos una base
ortonormal de dicho espacio {|j, j, ki ; k = 1, . . . , g (j)}. Ahora usando (10.38) contrumos iterativamente las bases
para E (j, j 1) , E (j, j 2) , . . . , E (j, j). La union de las bases de los 2j + 1 subespacios asociados a j nos da
una base ortonormal para el subespacio E (j) dado por
E (j) = E (j, j) E (j, j 1) E (j, j 2) . . . E (j, j) (10.39)
es claro que el espacio E (j) es de dimensionalidad (2j + 1) g (j). Una vez generada la base para un E (j), cambiamos
a otro valor accesible de j y repetimos el procedimiento, barriendo todos los valores accesibles de j. La base
ortonormal para E se obtiene de la union de las bases asociadas a cada valor de j puesto que
E = E (j1 ) E (j2 ) E (j3 ) . . . (10.40)
siendo {j1 , j2 , j3 , . . .} los valores accesibles de j en el sistema fsico considerado5 . Insistimos que este debe ser un
subconjunto del conjunto de todos los enteros y semienteros no negativos. La tabla 10.1 describe esquematicamente
el algoritmo para generar una base para E (j) a partir de la base para E (j, j).
La base generada con este algoritmo se conoce como la base estandar del espacio de estados E, para la cual
existen relaciones de completez y ortonormalidad
g(j)
+j X
X X

hj, m, k j , m , k = jj mm kk ; |j, m, ki hj, m, k| = I (10.41)
j m=j k=1

Por supuesto podemos empezar por E (j, j) y construr con base en J+ . Finalmente, podemos empezar por
un E (j, m) con j < m < j, en tal caso habra que generar con J+ hacia arriba hasta j y con J hacia abajo
hasta j.
5
Notese que la Ec. (10.40) es cierta bajo la hipotesis de que los operadores Ji sean observables. Es decir, que los valores permitidos
de j nos den una base para E .
10.5. CONSTRUCCION DE UNA BASE ESTANDAR CON BASE EN UN C.S.C.O 319

k=1 k=2 ... k = g (j)


E (j, j) |j, j, 1i |j, j, 2i ... |j, j, g (j)i
J J J ... J
E (j, j 1) |j, j 1, 1i |j, j 1, 2i ... |j, j 1, g (j)i
J J J ... J
.. .. .. ..
. . . .
E (j, m) |j, j m, 1i |j, j m, 2i ... |j, j m, g (j)i
J J J ... J
.. .. .. ..
. . . .
E (j, j) |j, j, 1i |j, j, 2i ... |j, j, g (j)i
E (j, k = 1) E (j, k = 2) E (j, k = g (j))
Cuadro 10.1: Construccion de la base estandar para E (j) de dimension (2j + 1) g (j). Comenzando con cada
uno de los g (j) vectores |j, j, ki de la primera fila, usamos el operador J para construr los 2j + 1 vectores de
cada columna. Los g (j) vectores de la mesima fila, expanden al subespacio E (j, m). Los 2j + 1 vectores de la
kesima columna expanden al subespacio E (j, k). Hay un total de 2j + 1 subespacios de la forma E (j, m) y un
total de g (j) subespacios de la forma E (j, k). El espacio total se puede obtener por suma directa de los E (j, m),
o alternativamente por suma directa de los E (j, k).

10.5. Construccion de una base estandar con base en un C.S.C.O


Un metodo muy utilizado para generar una base estandar consiste en usar un conjunto de observables

{A1 , A2 , . . . , An }

que junto con J2 y J3 formen un C.S.C.O. y que ademas conmuten con todas las componentes de J

[Ai , J] = 0 ; i = 1, . . . , n

un observable que conmute con las componentes de J se denomina un escalar. Por simplicidad asumiremos que un
solo escalar A es suficiente para formar un C.S.C.O con J2 y J3 . Veamos la accion de A sobre un estado arbitrario
|j, m, ki de E (j, m), definiendo |i A |j, m, ki tenemos que

J2 |i = J2 A |j, m, ki = AJ2 |j, m, ki = j (j + 1) ~2 A |j, m, ki = j (j + 1) ~2 |i


J3 |i = J3 A |j, m, ki = AJ3 |j, m, ki = m~A |j, m, ki = m~ |i

donde hemos usado el hecho de que A conmuta con J2 y J3 . Tenemos entonces que |i A |j, m, ki es autovector
de J2 y J3 con autovalores j (j + 1) ~2 y m~, y por lo tanto pertenece a E (j, m). En consecuencia, cada subespacio
E (j, m) es globalmente invariante bajo la accion de un operador A que conmute con J2 y J3 . Si ahora escogemos
un valor de j, el subespacio E (j, j) sera en particular invariante bajo A y podemos diagonalizar la restriccion de
A sobre E (j, j), con cierta base ortonormal {|j, j, ki} de E (j, j),6 de modo que

A |j, j, ki = ajk |j, j, ki (10.42)

el conjunto {|j, j, ki ; j f ijo; k = 1, . . . , g (j)} es una base ortonormal de E (j, j), a partir de la cual se puede
construr la base ortonormal para E (j). Aplicando este procedimiento para cada valor accesible de j obtenemos
la base ortonormal {|j, m, ki} para el espacio completo E.
Los resultados anteriores no requieren que A sea escalar, solo requieren que conmute con J2 y J3 . Sea {|j, m, ki}
la base de vectores de E (j, m) obtenida por la aplicacion sucesiva de J sobre la base {|j, j, ki}. Veremos que si
6
Recordemos que A es hermtico y por tanto normal. Para todo operador normal existe una representacion ortonormal que lo
diagonaliza.
320 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

A es escalar y los elementos de la base {|j, j, ki} son autovectores de A, entonces los kets {|j, m, ki} (obtenidos
por aplicacion sucesiva de J ) ademas de ser vectores propios de J2 y J3 tambien seran automaticamente vectores
propios de A. Para ver esto observemos que para un escalar A se tiene

[A, J ] = [A, J1 iJ2 ] = [A, J1 ] i [A, J2 ] = 0 (10.43)

al asumir que los elementos de la base {|j, j, ki} son autovectores de A, podemos usar la Ec. (10.42), la cual
combinada con la Ec. (10.43) nos da

A [J |j, j, ki] = J A |j, j, ki = ajk [J |j, j, ki]

de modo que J |j, j, ki es autovector de A con el mismo autovalor que |j, j, ki (teorema 1.66). Equivalentemente,
|j, j 1, ki es autovector de A con el mismo autovalor que |j, j, ki. Aplicando sucesivamente este proceso vemos
que los kets dados por
|j, j, ki , |j, j 1, ki , . . . , |j, j, ki
son vectores propios de A con valor propio ajk por tanto podemos escribir

A |j, m, ki = ajk |j, m, ki ; m = j, j 1, . . . , j + 1, j (10.44)

el espectro de A es entonces el mismo para todos los subespacios E (j, m) con j fijo, pero depende en general tanto
de j como de k, de modo que un conjunto de numeros cuanticos (j, m, k) define unvocamente a un vector |j, m, ki
de E, como corresponde a un C.S.C.O.
Notese que un observable que conmute con J2 y J3 no necesariamente conmuta con J1 y J2 . En particular, el
conjunto (J2 , J3 , A) podra formar un C.S.C.O. sin que A conmute con J1 y/o J2 . En tal caso sin embargo, J
no conmuta con A y por tanto J |j, m, ki no necesariamente es autovector de A con el mismo valor propio de
|j, m, ki, incluso si |j, j, ki es autovector de A. Por tanto, cuando A conmuta con J2 y J3 pero no es escalar, la
base {|j, m, ki} obtenida por aplicacion sucesiva de J sobre {|j, j, ki} debe ser rotada a otra base {|j, m, i} cada
vez que se aplica J , con el fin de diagonalizar a la restriccion de A sobre cada E (j, m). En cambio, cuando A
es escalar solo es necesaria la rotacion de los elementos |j, j, k i para obtener autovectores de A como en la Ec.
(10.42), y la aplicacion sucesiva de J genera automaticamente autovectores de A.

10.5.1. Descomposicion de E en subespacios del tipo E (j, k)


En los procedimientos anteriores hemos descompuesto el espacio completo E en la forma dada por la combi-
nacion de las Ecs. (10.39, 10.40)

E = E (j1 , j1 ) E (j1 , j1 1) E (j1 , j1 2) . . . E (j1 , j1 )


E (j2 , j2 ) E (j2 , j2 1) E (j2 , j2 2) . . . E (j2 , j2 )
E (j3 , j3 ) E (j3 , j3 1) E (j3 , j3 2) . . . E (j3 , j3 ) . . .

siendo j1 , j2 , j3 , . . . los valores permitidos de j para el sistema en estudio. Esta es una descomposicion en subespacios
del tipo E (j, m). Sin embargo los subespacios E (j, m) tienen ciertas desventajas, por un lado su dimension g (j)
depende del sistema fsico especfico ya que esta dimension nos da cuenta de la degeneracion asociada al par (j, m),
por tanto g (j) es desconocido al menos en el caso general. Adicionalmente un subespacio del tipo E (j, m) no es
invariante ante J, por ejemplo
1 1 1
J1 |j, m, ki = (J+ + J ) |j, m, ki = c+ |j, m + 1, ki + c |j, m 1, ki (10.45)
2 2 2
de acuerdo con (10.41) este estado es ortonormal a |j, m, ki y no es nulo ya que por lo menos uno de los estados
|j, m + 1, ki , |j, m 1, ki tiene que ser no nulo y ambos son ortogonales entre s.
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 321

Examinando la tabla (10.1) vemos que cada subespacio del tipo E (j, m) es generado por la expansion de los
g (j) vectores de la mesima fila de la tabla (los g (j) valores posibles de k). Vemos sin embargo que hay otra
manera de agrupar los vectores: podemos generar un subespacio con los (2j + 1) vectores de una columna fija
de la tabla, con lo cual obtenemos un subespacio del tipo E (j, k) puesto que en este caso es el par (j, k) el que
permanece fijo en la expansion.
La descomposicion de E quedara en la forma

E = E (j1 , k = 1) E (j1 , k = 2) . . . E (j1 , k = g (j1 ))


E (j2 , k = 1) E (j2 , k = 2) . . . E (j2 , k = g (j2 ))
E (j3 , k = 1) E (j3 , k = 2) . . . E (j3 , k = g (j3 )) . . . (10.46)

los subespacios E (j, k) poseen las propiedades siguientes: (a) la dimension de E (j, k) es 2j + 1 de modo que para
un j dado su dimension se conoce sin importar el sistema fsico que se este trabajando. (b) E (j, k) es globalmente
invariante bajo J. Incluso se puede demostrar que E (j, k) es irreducible como subespacio invariante de J, es decir
no hay un subespacio propio no nulo de E (j, k) que sea invariante bajo J.
Nos limitaremos a demostrar la invarianza de E (j, k) bajo J. Una base para este espacio es de la forma
{|j, m, ki ; m = j, j + 1, . . . , j 1, j}. Para J3 es inmediato, para J1 tomamos el resultado de la Ec. (10.45)
notando que los dos kets son estados con el mismo valor de j, k y solo difieren en m. Por tanto J1 |j, m, ki pertenece
a E (j, k). Para J2 el argumento es similar. En general E (j, k) sera invariante bajo cualquier funcion del tipo F (J),
lo cual se puede ver simplemente de la expansion de Taylor de F (J) y de que E (j, k) es invariante ante cualquier
potencia de J.

10.6. Representaciones matriciales de los operadores momento angular


Los elementos matriciales de los Ji en la base estandar {|j, m, ki}, se pueden calcular a traves de la accion de
los operadores J3 , J sobre los kets propios |j, m, ki de J2 y J3 descritos por las Ecs. (10.19, 10.36, 10.38)
p
J3 |j, m, ki = m~ |j, m, ki ; J |j, m, ki = ~ j (j + 1) m (m 1) |j, m 1, ki (10.47)

combinando las Ecs. (10.9, 10.47) encontramos la accion de J1 y J2 sobre los kets de la base
1 ~ hp
J1 j , m , k = (J+ + J ) j , m , k = j (j + 1) m (m + 1) j , m + 1, k
2 2
p i
+ j (j + 1) m (m 1) j , m 1, k
(10.48)

1 ~ hp
J2 j , m , k = (J+ J ) j , m , k = j (j + 1) m (m + 1) j , m + 1, k
2i 2i
p i
j (j + 1) m (m 1) j , m 1, k
(10.49)

de las Ecs. (10.47, 10.48, 10.49) y la ortonormalidad de la base, los elementos matriciales de Ji y J quedan

hj, m, k| J3 j , m , k = m~kk jj mm (10.50)
p
hj, m, k| J j , m , k = ~ j (j + 1) m (m 1)kk jj m,m 1 (10.51)

1 ~ hp
hj, m, k| J1 j , m , k = hj, m, k| (J+ + J ) j , m , k = kk jj j (j + 1) m (m + 1)m,m +1
2 2i
p
+ j (j + 1) m (m 1)m,m 1 (10.52)
322 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

1 ~ hp
hj, m, k| J2 j , m , k = hj, m, k| (J+ J ) j , m , k = kk jj j (j + 1) m (m + 1)m,m +1
2i 2i
i
p
j (j + 1) m (m 1)m,m 1 (10.53)

lo cual muestra que los elementos matriciales de J solo dependen de j y m pero no de k. Este hecho implica que la
representacion matricial de las componentes de J en la base estandar {|j, m, ki} tiene una forma particularmente
simple cuando descomponemos E en subespacios del tipo E (j, k). Las Ecs. (10.50, 10.51, 10.52, 10.53) muestran
que un operador Ji (o una funcion de la forma F (J)) tiene elementos matriciales nulos cuando el elemento enlaza
dos kets base asociados a espacios E (j1 , k1 ) y E (j2 , k2 ) con j1 6= j2 y/o con k1 6= k2 . Por tanto la matriz sera
diagonal por bloques donde los bloques son todos de dimension 2j + 1 (que es la dimension de un espacio E (j, k))
en la forma

E (j, k) E (j, k ) E (j , k )
matriz
E (j, k) 0 0 0
(2j + 1) (2j + 1)
matriz
E (j, k ) 0 0 0
(2j + 1) (2j + 1)
(10.54)
..
.
matriz
E (j , k ) 0 0 0
(2j + 1) (2j + 1)
..
. 0 0 0 0

comenzando por el valor de j1 mas bajo permitido construmos las matrices asociadas a E (j1 , k1 ) para el k = k1 mas
bajo permitido, luego manteniendo j1 fijo recorremos los posibles valores de k, una vez terminado este recorrido,
continuamos con el siguiente valor permitido j2 de j, recorriendo el ndice k nuevamente y as sucesivamente. Las
matrices asociadas a estos subespacios son de dimension 2ji + 1.
Por tanto, lo que debemos hacer es calcular las matrices de dimension finita (2j + 1) (2j + 1) que representan
a cada operador en cada subespacio E (j, k). Adicionalmente, estas matrices no dependen de k y por tanto no
dependen del sistema fsico bajo estudio. Solo dependen de j y del operador que se quiere representar.
En sntesis, la representacion matricial de una componente Ji del momento angular en la base estandar, se puede
calcular dentro de un subespacio de la forma E (j, k) sin alusion alguna al sistema fsico que se esta trabajando.
La matrices del tipo (Ji )(j) son en consecuencia de caracter universal y representan al operador Ji dentro del
subespacio E (j, k) para todos los posibles valores de j es decir j = 0, 12 , 1, . . .. Cuando tenemos un sistema fsico
especfico, debemos determinar cuales de estos valores de j son permitidos y el numero de subespacios E (j, k)
asociados con cada j, es decir el grado de degeneracion (2j + 1) g (j). La matriz representativa de Ji sera entonces
diagonal por bloques con la estructura descrita en la Ec. (10.54), y se puede construr a partir de las matrices
universales definidas para cada subespacio E (j, k). Para cada valor de j, tendremos g (j) bloques identicos de
(Ji )(j) , es decir todos los valores posibles de k, una vez que para un j dado se barren los valores posibles de k, se

cambia al siguiente valor accesible j y se construyen g (j ) bloques identicos de (Ji )(j ) y as sucesivamente.

10.6.1. Representaciones matriciales del tipo (Ji )(j) en la base estandar para j arbitrario
De lo anterior, los elementos matriciales para j arbitrario de un operador (Ji )(j) dentro de un subespacio
E (j, k) estan dados por

hj, m, k| J3 j , m , k = m~kk jj mm (10.55)

2
2
hj, m, k| J j , m , k = j (j + 1) ~ kk jj mm (10.56)
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 323

p
hj, m, k| J j , m , k = ~ j (j + 1) m (m 1)kk jj m,m 1 (10.57)

~ hp
hj, m, k| J1 j , m , k = kk jj j (j + 1) m (m + 1)m,m +1
2 i
p
+ j (j + 1) m (m 1)m,m 1 (10.58)

~ hp
hj, m, k| J2 j , m , k = kk jj j (j + 1) m (m + 1)m,m +1
2i i
p
j (j + 1) m (m 1)m,m 1 (10.59)

vemos que la matriz de (J3 )(j) es diagonal, esto se debe a que se eligio a X3 como el eje de cuantizacion (la
base estandar consta de vectores propios de J2 y J3 ), sus elementos son los 2j + 1 valores de m~. Para las
matrices (J1,2 )(j) los unicos elementos no nulos son los que estan por encima y por debajo de la diagonal. (J1 )(j)
(j)
es una matriz simetrica y real en tanto que (J2 )(j) es antisimetrica y puramente imaginaria. La matriz J2 es
naturalmente diagonal ya que esta es una base de vectores propios de J2 , y ademas sus elementos diagonales son
(j)
identicos, de modo que J2 es j (j + 1) ~2 I, siendo I la matriz identidad de dimension (2j + 1) (2j + 1). La
matriz (J+ )(j) solo tiene elementos no nulos por encima de la diagonal, en tanto que la matriz (J )(j) solo tiene
elementos no nulos por debajo de la diagonal.
Puesto que todas las direcciones del espacio son equivalentes, es claro que la eleccion del eje de cuantizacion
es arbitraria. De esto se desprende que todos los Ji deben tener los mismos valores propios. Los vectores propios
seran sin embargo diferentes ya que los Ji no conmutan entre s. En consecuencia, dentro de un subespacio dado
E (j, k) los autovalores de J1 , J2 , J3 son j~, (j 1) ~, . . . , (j + 1) ~, j~. Estos tambien seran los valores propios de
cualquier componente de la forma Jn = J n siendo n un vector unitario de direccion arbitraria. Los autovectores
comunes de J2 y J1 son combinaciones lineales de los |j, m, ki con j y k fijos. Lo mismo ocurre con los vectores
propios comunes a J2 y J2 .
En conclusion una base ortonormal {|j, m, ki} del espacio de estados compuesta por vectores comunes a J2 y
J3
J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki

se denomina un base estandar si la accion de J sobre estos vectores esta dada por
p
J |j, m, ki = ~ j (j + 1) m (m 1) |j, m 1, ki

10.6.2. Representaciones matriciales en la base estandar para j = 0


Los subespacios E (j = 0, k) son de dimension 2 (0) + 1 = 1. Y el unico valor posible de m es cero. Las matrices
(Ji )(j) son numeros y de acuerdo con las Ecs. (10.58, 10.59, 10.55) estos numeros son cero.

10.6.3. Representaciones matriciales en la base estandar para j = 1/2


Los subespacios E (j = 1/2, k) son de dimension 2 (1/2) + 1 = 2. Las matrices dentro de un subespacio
E (j = 1/2, k) son de dimension 2 2 y los vectores base los elegiremos en el orden m1 = 1/2, m2 = 1/2.
Las representaciones matriciales se obtienen usando las Ecs. (10.58, 10.59, 10.55, 10.56), teniendo en cuenta que
estamos interesados en las representaciones dentro de un subespacio E (j = 1/2, k) de modo que k = k . Con estas
324 CAPITULO 10. TEORIA GENERAL DEL MOMENTO ANGULAR EN MECANICA CUANTICA

consideraciones calcularemos la representacion matricial de J1 usando (10.58)


  "s  
1 1 ~ 1 1
(J1 )pq , mp , k J1 , mq , k = kk 1 , 1 + 1 mq (mq + 1) mp ,mq +1
2 2 2 2 2 2 2
s   #
1 1
+ + 1 mq (mq 1) mp ,mq 1
2 2
"r r #
~ 3 3
(J1 )pq = mq (mq + 1) mp ,mq +1 + mq (mq 1) mp ,mq 1
2 4 4

de aqu en adelante se omite el ndice k ya que las representaciones matriciales no dependen de tal ndice. Estas
expresiones muestran que los elementos diagonales son cero, por tanto
 
(1/2) 1 1 1 1
(J1 )11 , J1 , =0
2 2 2 2
 
(1/2) 1 1 1 1
(J1 )22 , J1 , =0
2 2 2 2

y los terminos no diagonales son


  "s   
(1/2) 1 1 1 1 ~ 3 1 1
(J1 )12 , J1 , = + 1 1 , 1 +1
2 2 2 2 2 4 2 2 2 2

s    #
3 1 1
+ 1 1 , 1 1
4 2 2 2 2

r
(1/2) ~ 3 1 ~
(J1 )12 = + 1,1 =
2 4 4 2 2 2

  "s  
(1/2) 1 1 1 1 ~ 3 1 1
(J1 )21 , J1 , = + 1 1 , 1 +1
2 2 2 2 2 4 2 2 2 2

s   #
3 1 1
+ 1 1 , 1 1
4 2 2 2 2

(1/2) ~
(J1 )21 =
2
este elemento se poda tambien calcular teniendo en cuenta que la matriz de J1 es simetrica real. La matriz
representativa queda entonces
 
(1/2) ~ 0 1
(J1 ) =
2 1 0
de manera similar se calculan los elementos matriciales de los otros operadores, el resultado es
     
(1/2) ~ 0 1 (1/2) ~ 0 i (1/2) ~ 1 0
(J1 ) = ; (J2 ) = ; (J3 ) = (10.60)
2 1 0 2 i 0 2 0 1
     
(1/2) 3 2 1 0 0 1 0 0
J2 = ~ ; (J+ )(1/2) =~ ; (J )(1/2) = ~ (10.61)
4 0 1 0 0 1 0
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 325

10.6.4. Representaciones matriciales en la base estandar para j = 1


Los subespacios E (j = 1, k) son de dimension 2 (1) + 1 = 3. Las matrices son de dimension 3 3. Ordenaremos
los vectores base con m1 = 1, m2 = 0, m3 = 1.
Calculemos por ejemplo la representacion de J2 usando (10.59), esta ecuacion muestra que los terminos de la
diagonal son cero as como aquellos en donde los ndices difieren en mas de una unidad, por tanto
(1) (1) (1) (1) (1)
(J2 )11 = (J2 )22 = (J2 )33 = (J2 )13 = (J2 )31 = 0
para los otros elementos usamos (10.59) con j = 1, k = k , y omitimos k
q q 
~
h1, mp | J2 |1, mq i = 1 (1 + 1) mq (mq + 1) mp ,mq +1 1 (1 + 1) mq (mq 1) mp ,mq 1
2i
q q 
~
h1, mp | J2 |1, mq i = 2 mq (mq + 1) mp ,mq +1 2 mq (mq 1) mp ,mq 1
2i
teniendo en cuenta ademas que la matriz asociada a J2 es antisimetrica, solo tendremos que calcular dos terminos
(1) ~ h i ~ ~
(J2 )12 = h1, m1 | J2 |1, m2 i = h1, 1| J2 |1, 0i = 2 1,0+1 2 1,01 = [1,1 1,1 ] =
2i 2i 2i
(1) i~ (1)
(J2 )12 = = (J2 )21
2

(1) ~ hp
(J2 )23 = h1, m2 | J2 |1, m3 i = h1, 0| J2 |1, 1i = 2 (1) [(1) + 1] 0,1+1
p 2i
2 (1) [(1) 1] 0,11
(1) ~
(J2 )23 = 2
2i
(1) i~ (1)
(J2 )23 = = (J2 )23
2
la matriz queda entonces
0 i 0
~
(J2 )(1) = i 0 i
2 0 i 0
de manera similar se obtienen las otras matrices resultando

0 1 0 0 i 0
~ ~
(J1 )(1) = 1 0 1 ; (J2 )(1) = i 0 i
2 0 1 0 2 0 i 0

1 0 0  1 0 0
(1)
(J3 )(1) = ~ 0 0 0 ; J2 = 2~2 0 1 0
0 0 1 0 0 1

0 2 0 0 0 0
(J+ )(1) = ~ 0 0 2 ; (J )(1) = ~ 2 0 0
0 0 0 0 2 0
se puede verificar que las representaciones matriciales construdas obedecen las reglas de conmutacion (10.6).
Se puede verificar que los autovalores de las matrices (Ji )(1/2) son todos iguales y estan dados por ~/2. Si-
milarmente, los valores propios de las matrices (Ji )(1) son todos iguales y corresponden a +~, 0, ~. En sntesis
todas las caractersticas generales discutidas al final de la seccion 10.6.1 se cumplen para las matrices calculadas
explcitamente.
Captulo 11

Propiedades de los momentos angulares


orbitales

Aplicaremos la teora general desarrollada en el captulo 10 al caso del momento angular orbital que sirvio
originalmente para encontrar el algebra con la cual se definio un momento angular generalizado. Utilizaremos
la base {|ri} para mostrar que los valores propios de L2 son de la forma l (l + 1) ~2 con l entero no negativo.
Es decir las consideraciones fsicas excluiran a los valores semienteros en tanto que todos los valores enteros no
negativos aparecen en el espectro. Encontraremos tambien las funciones propias en la base {|ri} y sus principales
propiedades.
En la representacion {|ri} los observables R y P corresponden a multiplicacion por r y al operador diferencial
i~ respectivamente. La cuantizacion de las tres componentes del momento angular en la base {|ri} se representa
como

L = R P = i~r     
~ ~ ~
L1 = x2 x3 ; L2 = x3 x1 ; L3 = x1 x2 (11.1)
i x3 x2 i x1 x3 i x2 x1
L L1 iL2 (11.2)

sera mas conveniente trabajar en coordenadas polares esfericas, ya que mas adelante veremos que el operador
momento angular solo operara sobre los angulos , y no sobre la variable r.

x1 = r sin cos ; x2 = r sin sin ; x3 = r cos


r 0 ; 0 ; 0 < 2 (11.3)

un elemento de volumen d3 r = dx dy dz en coordenadas esfericas esta dado por

d3 r = r 2 dr d ; d = sin d d (11.4)

donde d es un elemento diferencial de angulo solido en la direccion de los angulos y .


A partir de (11.3) calculamos las derivadas parciales

x1 x1 x1
= sin cos ; = r cos cos ; = r sin sin
r
x2 x2 x2
= sin sin ; = r cos sin ; = r sin cos
r
x3 x3 x3
= cos ; = r sin ; =0
r

326
327

y las relaciones entre derivadas parciales esfericas y cartesianas nos dan

x1 x2 x3
= + + = sin cos + sin sin + cos
r r x1 r x2 r x3 x1 x2 x3
x1 x2 x3
= + + = r cos cos + r cos sin r sin
x1 x2 x3 x1 x2 x3
x1 x2 x3
= + + = r sin sin + r sin cos
x1 x2 x3 x1 x2

en forma matricial

r sin cos sin sin cos 1
= r cos cos r cos sin r sin 2
r sin sin r sin cos 0 3

calculando la inversa de esta matriz se obtiene


cos cos
1 cos sin r rsin
sin r
2 = sin sin cos sin cos (11.5)
r r sin
3 cos sinr 0

reemplazando (11.3, 11.5) en (11.1) obtenemos


   
i sin cos sin cos
L1 = x2 3 x3 2 = r sin sin cos r r cos sin sin r + +
~ r r r sin
cos cos
= sin2 sin cos2 sin
sin
i cos
L1 = sin (11.6)
~ tan

y se proceden de forma similar con las otras componentes


   
i cos cos sin sin
L2 = x3 1 x1 3 = r cos cos sin r + r sin cos cos r
~ r r sin r
sin
= cos2 cos cos + sin2 cos
sin
i sin
L2 = cos (11.7)
~ tan

 
i cos sin cos
L3 = x1 2 x2 1 = r sin cos sin sin r + +
~ r r sin
 
cos cos sin
r sin sin cos sin r +
r r sin
= sin cos cos sin + cos2 sin cos sin cos + sin2
i
L3 = (11.8)
~

con las Ecs. (11.6, 11.7, 11.8), se puede evaluar L2 = L21 + L22 + L23 , lo cual es mas sencillo si lo ponemos actuar
sobre una funcion arbitraria (r, , )
328 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

  2   2  
2 cos sin 2
L = i~ sin + + i~ cos + + i~
tan tan
  
cos cos
= ~2 sin + sin +
tan tan
  
2 sin sin 2
~ cos + cos + ~2 2
tan tan
   
cos cos cos
= ~2 sin sin + ~2 sin +
tan tan tan
   
2 sin 2 sin sin 2
+~ cos cos + ~ cos + ~2 2
tan tan tan
 
1 cos
= ~2 sin sin + cos +
tan tan
 
2 cos 1 cos
~ sin + sin + cos +
tan tan tan
 
1 sin
+~2 cos cos + sin +
tan tan
 
2 sin 1 sin 2
~ cos cos + sin + ~2 2
tan tan tan
 
2 2 2 2 1 sin cos
L = ~ sin 2 + sin cos +
tan tan
 2 
2 cos cos sin cos sin cos2 2
~ + +
tan tan tan2 tan2 2
 2

2 2 1 cos sin
+~ cos 2 + cos sin +
tan tan
 2 
2 sin sin cos sin cos sin2 2 2
2
~ + + ~
tan tan tan2 tan2 2 2
agrupando derivadas se tiene
L2 2 2
2 cos2 2 sin2 2 2
= sin2 + cos + + +
~2 2 2 tan2 2 tan2 2 2
sin cos sin cos cos sin cos sin
+ +
tan tan tan tan
1 1 cos sin2
2
+ sin cos cos sin + +
tan tan tan tan
cos sin sin cos
+
tan2 tan2

L2 2 1 2 2 1
= + 2 + +
~2 2 tan 2 2 tan
 2   2 
1 1
= + +1 +
2 tan2 2 tan
 2 
L2 1 2 1
= + + (11.9)
~2 2 sin2 2 tan
11.1. MOMENTOS ANGULARES ORBITALES COMO OPERADORES DIFERENCIALES 329

11.1. Momentos angulares orbitales como operadores diferenciales en coor-


denadas esfericas
Las Ecs. (11.6, 11.7, 11.8) nos dicen que las componentes del momento angular en coordenadas esfericas se
escriben en la forma

 
cos
L1 = i~ sin + (11.10)
tan
 
sin
L2 = i~ cos + (11.11)
tan
~
L3 = (11.12)
i

y las Ecs. (11.9, 11.2) nos dicen que los operadores L2 , L quedan
 2 
2 2 1 1 2
L = ~ + + (11.13)
2 tan sin2 2
 
i
L+ = ~e + i cot (11.14)

 
i
L = ~e + i cot (11.15)

en la representacion {|ri} las funciones propias asociadas a los valores propios l (l + 1) ~2 de L2 y m~ de L3


cumplen
L2 (r, , ) = l (l + 1) ~2 (r, , ) ; L3 (r, , ) = m~ (r, , ) (11.16)
y al reemplazar (11.13, 11.12) en las Ecs. (11.16) estas ultimas se convierten en ecuaciones diferenciales parciales
cuya solucion son las funciones propias
 2 
1 1 2
+ + (r, , ) = l (l + 1) (r, , ) (11.17)
2 tan sin2 2

i (r, , ) = m~ (r, , ) (11.18)

donde l es en general entero o semientero no negativo y m toma solo los valores l, l + 1, . . . , l 1, l.


Notese que en las ecuaciones (11.17, 11.18) no hay operador derivada asociado a r. Por tanto r se puede
considerar un parametro y asumir una separacion de variables de la forma

lmk (r, , ) = f (r) Ylm (, ) (11.19)

insertando (11.19) en las ecuaciones diferenciales (11.17, 11.18) queda


 2 
1 1 2
+ + Ylm (, ) = l (l + 1) Ylm (, ) (11.20)
2 tan sin2 2

i~ Ylm (, ) = m~Ylm (, ) (11.21)

que estan expresando la ecuacion de valores propios

L2 Ylm (, ) = l (l + 1) Ylm (, ) ; L3 Ylm (, ) = m~Ylm (, )


330 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

f (r) es una funcion de r que aparece como constante de integracion para las ecuaciones diferenciales (11.17,
11.18). Es importante tener en cuenta que f (r) debe ser tal que l,m,k (r, , ) = f (r) Ylm (, ) sea de cuadrado
integrable. El hecho de que f (r) sea arbitrario nos indica que L2 y L3 no forman un C.S.C.O. en el espacio Er
de funciones de r es decir de funciones en r, , . En virtud de esto deberamos introducir un ndice adicional en
las Ecs. (11.20, 11.21) para las soluciones indicando la posible degeneracion de estas. Sin embargo, veremos que
estas soluciones seran unicas para l y m dados salvo por un factor constante. Esto indica que toda la degeneracion
estara en el factor f (r) en la Ec. (11.19).
Para normalizar la funcion completa lmk (r, , ) es conveniente normalizar la parte angular Ylm (, ) y la
parte radial f (r) separadamente. Estas relaciones de normalizacion se manifestaran en ecuaciones de la forma
Z 2 Z
d sin |Ylm (, )|2 d = 1
0
Z
r 2 |f (r)|2 dr = 1
0

11.2. Valores permitidos de l y m


La Ec. (11.21) para Ylm (, ) muestra que Ylm (, ) es igual a

Ylm (, ) = Flm () eim (11.22)

podemos cubrir todo el espacio barriendo entre 0 y 2. Notese que si Ylm (, ) no fuera contnua en algun valor
de , , no sera diferenciable y no podra ser funcion propia de los operadores diferenciales L3 y L2 . En particular
la continuidad en = 0 nos lleva a
Ylm (, = 0) = Ylm (, = 2)
que implica ademas
e2im = 1 (11.23)
m solo puede ser entero o semientero. Si m es semientero se puede parametrizar como m = (n + 1/2) con n =
0, 1, 2, . . ., en este caso se tiene
1
e2im = e2(n+ 2 )i = e2ni ei = 1
de modo que si m es semientero viola la condicion (11.23). Por otro lado, sabemos que l y m son ambos enteros o
ambos semienteros. En consecuencia, tanto m como l solo pueden tomar valores enteros.
La siguiente pregunta natural es si l puede tomar todos los valores enteros no negativos. Para ello tendremos
en cuenta que segun la teora general (lema 6, Pag. 314) se debe satisfacer

L+ Yll (, ) = 0 (11.24)

ahora reemplazando (11.14) y (11.22), en la Ec. (11.24) tenemos


 
i h i
~e + i cot Fll () eil = 0

 
Fll ()
+ i (il) cot Fll () eil = 0

finalmente  
d
l cot Fll () = 0 (11.25)
d
teniendo en cuenta que
d (sin )
cot d = (11.26)
sin
11.3. PROPIEDADES FUNDAMENTALES DE LOS ARMONICOS ESFERICOS 331

la solucion general de la ecuacion es


Fll () = cl (sin )l (11.27)
siendo cl una constante de normalizacion. Se puede demostrar inversamente que esta funcion es funcion propia de
L2 y L3 con autovalores l (l + 1) ~2 y l~. Usando (11.12) y (11.22) vemos que

~ h i il~
L3 Yll (, ) = Fll () eil = Fll () eil
i i

L3 Yll (, ) = l~Yll (, ) (11.28)


multiplicando (11.24) por L y usando (10.17) resulta

L L+ Yll (, ) = 0 L2 L23 ~L3 Yll (, ) = 0

L2 Yll (, ) = L23 + ~L3 Yll (, ) = (L3 + ~) L3 Yll (, )

y usando (11.28) mostramos que

L2 Yll (, ) = (L3 + ~) (l~) Yll (, ) = (l~ + ~) (l~) Yll (, )


L2 Yll (, ) = l (l + 1) ~2 Yll (, )

por tanto para cada valor entero no negativo de l, existe una funcion Yll unica dentro de factores constantes de la
forma
Yll (, ) = cl (sin )l eil
adicionalmente, el factor cl se determina por normalizacion. Es usual ademas elegir una fase 0 para l par y para
l impar, de modo que r
1 (2l + 1)!
|cl | = l ; cl = (1)l |cl |
2 l! 4
quedando finalmente r
l 1 (2l + 1)!
Yll (, ) = (1) l (sin )l eil (11.29)
2 l! 4
y a traves de la accion iterativa de L podemos construr Yl,l1 , . . . , Yl,m , . . . , Yl,l . En sntesis, para cada par (l, m)
con l entero no negativo y m entero con la condicion l m l; existe una y solo una funcion Ylm (, ) (dentro
de factores constantes), que se puede calcular de (11.29) y que es funcion propia de L2 y L3 con valores propios
l (l + 1) ~2 y m~. A estas autofunciones se les denomina armonicos esfericos. La forma general de estas funciones
viene dada por
s
2l + 1 (l m)! m
Ylm (, ) = P (cos ) eim (11.30)
4 (l + m)! l
(1)m 
2 m/2 d
l+m l
Plm (x) = l
1 x l+m
x2 1 (11.31)
2 l! dx
donde las funciones Plm (x) se conocen como polinomios asociados de Legendre.

11.3. Propiedades fundamentales de los armonicos esfericos


Algunas de las propiedades de los armonicos esfericos se pueden extraer de la teora general. Por ejemplo, de
la Ec. (10.47) tenemos que
p
L Ylm (, ) = ~ l (l + 1) m (m 1)Yl,m1 (, ) (11.32)
332 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

utilizando las expresiones diferenciales de L Ecs. (11.14, 11.15) junto con (11.22), expresamos esta propiedad en
forma diferencial
 
i p
e m cot Ylm (, ) = l (l + 1) m (m + 1)Yl,m+1 (, )

 
p
ei m cot Ylm (, ) = l (l + 1) m (m 1)Yl,m1 (, )

11.3.1. Ortonormalidad y completez


Las Ecuaciones (11.20, 11.21) determinan a los armonicos esfericos salvo por un factor multiplicativo. Podemos
escoger este factor de manera que se normalicen estas autofunciones. La condicion de ortonormalidad se escribe
como1 Z
Yl m (, ) Ylm (, ) d = ll mm

teniendo en cuenta la expresion del angulo solido (11.4) esta se escribe como
Z 2 Z
d sin d Yl m (, ) Ylm (, ) = ll mm (11.33)
0 0

es un hecho ademas que cualquier funcion de y que sea de cuadrado integrable, se puede expandir en terminos
de los armonicos esfericos
X
X +l Z 2 Z

f (, ) = clm Ylm (, ) ; clm = hlm| f i = d sin d Ylm (, ) f (, )
l=0 m=l 0 0

por tanto los armonicos esfericos son una base ortonormal en el espacio E de funciones de y . Esto se expresa
con relaciones de completez que aplican en este espacio
X
X +l

   ( ) ( )
Ylm (, ) Ylm , = cos cos =
sin
l=0 m=l

la inclusion de (cos cos ) en la relacion de completez se debe a que el elemento diferencial de angulo solido
se escribe como d = sin d d = d (cos ) d. Notese que la completez no esta garantizada por la teora
general cuando el espacio vectorial es de dimension infinita, es de hecho una hipotesis de trabajo que debe ser
demostrada explcitamente.

11.3.2. Propiedades de paridad y conjugacion


El cambio r r en coordenadas cartesianas se expresa como (x1 , x2 , x3 ) (x1 , x2 , x3 ). En coordenadas
esfericas esta transformacion de paridad se expresa en la forma

r r , , +

se puede demostrar que


Ylm ( , + ) = (1)l Ylm (, ) (11.34)
1
La constante de normalizacion para Ylm (, ) arbitrario se puede calcular determinando la constante de normalizacion para
Yll (, ) en la Ec. (11.29) y usando la Ec. (10.38) de la Pag. 318, que garantiza la normalizacion de cada Ylm (, ) generado a traves
de L a partir de Yll (, ). La ortogonalidad en l y m esta garantizada por el hecho de que si l 6= l tenemos dos vectores propios
asociados a valores propios diferentes del operador hermtico L2 , y si m 6= m tenemos dos vectores propios asociados a dos valores
propios diferentes del operador hermtico L3 .
11.3. PROPIEDADES FUNDAMENTALES DE LOS ARMONICOS ESFERICOS 333

de modo que los armonicos esfericos tienen paridad definida, la cual es independiente de m. Si l es par (impar) todos
sus 2l + 1 armonicos esfericos asociados son pares (impares). Tambien se puede demostrar que bajo conjugacion
los armonicos esfericos tienen la propiedad

Ylm (, ) = (1)m Yl,m (, ) (11.35)

11.3.3. Armonicos esfericos de la forma Yl,0 () y polinomios de Legendre


Para m = 0, los armonicos esfericos se vuelven independientes de , y adquieren la forma
r
(1)l 2l + 1 dl
Yl,0 () = (sin )2l (11.36)
2l l! 4 d (cos )l
r
2l + 1 (1)l dl 
2 l
Yl,0 () = Pl (cos ) ; Pl (u) l 1 u (11.37)
4 2 l! dul
Pl (u) se denomina el polinomio de Legendre de grado l. Estos polinomios son ortogonales
Z +1 Z
2
du Pl (u) Pl (u) = sin d Pl (cos ) Pl (cos ) = ll (11.38)
1 0 2l + 1

y generan una base para generar cualquier funcion de de cuadrado integrable



X Z
2l + 1
f () = cl Pl (cos ) ; cl = sin d Pl (cos ) f () (11.39)
2 0
l=0

por tanto, cuando el problema tiene simetra azimutal i.e. es independiente de , es usual utilizar polinomios de
Legendre o armonicos esfericos del tipo Yl,0 (). De hecho, en una expansion de una funcion f () en armonicos
esfericos Yl,m (, ), solo contribuiran los armonicos con m = 0. Otras propiedades de los polinomios de Legendre
son
Pl (1) = 1 ; Pl (u) = (1)l Pl (u) (11.40)
notese que la paridad esta definida con respecto a la variable u. Al hacer u = cos esta propiedad de paridad se
manifiesta en la variable espacial en la forma

Yl,0 ( ) = (1)l Yl,0 ()

que es un caso especial de (11.34). La Ec. (11.38) nos muestra que los polinomios de Legendre son ortogonales
pero no estan normalizados. En contraste, las funciones Yl,0 () son ortonormales.

11.3.4. Teorema de adicion de los armonicos esfericos


Consideremos dos direcciones arbitrarias en el espacio cuyas orientaciones estan especificadas por los angulos
(1 , 1 ) y (2 , 2 ), as como por los vectores unitarios u1 (1 , 1 ) y u2 (2 , 2 ). El angulo entre los vectores u1 y
u2 lo denotamos por . Para esta situacion hay una relacion especfica entre los armonicos esfericos asociados a
(1 , 1 ) y (2 , 2 ) y los polinomios de Legendre asociados a
l
X l
X
2l + 1 m
Pl (cos ) = (1) Ylm (1 , 1 ) Yl,m (2 , 2 ) = Ylm (1 , 1 ) Yl,m (2 , 2 ) (11.41)
4
m=l m=l

donde hemos utilizado tambien la propiedad (11.35). Esta relacion se conoce como teorema de adicion de los
armonicos esfericos.
334 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

11.4. Construccion de bases estandar de la funcion de onda espacial de una


partcula sin espn
En general L2 y L3 no forman un C.S.C.O. de modo que los subespacios Er (l, m) no son en general unidimen-
sionales. Por tanto aplicaremos el algoritmo descrito en la seccion 10.4.1 para construir una base estandar para
Er .
Comenzamos entonces por el subespacio Er (l, l) que sera el espacio de las autofunciones de L2 y L3 con valores
propios l (l + 1) ~2 y l~. El punto de partida es construr una base ortonormal en Er (l, l) que denotaremos por
{l,l,k (r)} donde k es el ndice que recorre la base cuando L2 y L3 no forman un C.S.C.O.
El siguiente paso consiste en aplicar iterativamente el operador L sobre todos los elementos {l,l,k (r)} de
Er (l, l) para generar una base ortonormal sobre los subespacios

Er (l, l 1) , Er (l, l 2) , . . . , Er (l, m) , . . . , Er (l, l + 1) , Er (l, l)

Todos los elementos de estas bases cumplen con las Ecs. (10.19, 10.47), que en este contexto se escriben como

L2 l,m,k (r) = l (l + 1) ~2 l,m,k (r) ; L3 l,m,k (r) = m~l,m,k (r) (11.42)


p
L l,m,k (r) = ~ l (l + 1) m (m 1)l,m1,k (r) (11.43)

pero ya hemos visto que todas las funciones propias de L2 y L3 correspondientes a un par especfico (l, m) poseen
la misma dependencia angular denotada por Ylm (, ). Es decir la variacion de k para l, m fijos, solo hace que vare
la dependencia radial de l,m,k (r). De las Ecuaciones (11.19) ya dedujimos que las funciones propias l,m,k (r)
tienen la forma
l,m,k (r) = Rl,m,k (r) Ylm (, ) (11.44)
apliquemos el operador L sobre la Ec. (11.44) teniendo en cuenta que tales operadores solo actuan sobre la
componente angular
p
L l,m,k (r) = Rl,m,k (r) L Ylm (, ) = ~ l (l + 1) m (m 1)Rl,m,k (r) Yl,m1 (r)

comparando con la Ec. (11.43) vemos que la funcion radial debe satisfacer para todo r la condicion

Rl,m1,k (r) = Rl,m,k (r)

la aplicacion sucesiva de L nos lleva a que R (r) no puede depender de m. Este resultado se puede enunciar de la
siguiente manera: Si {l,m,k (r)} constituye una base estandar de Er , su funcion radial asociada no puede depender
de m de modo que estas funciones se escriben como

l,m,k (r) = Rl,k (r) Ylm (, ) (11.45)

Podramos estar tentados a pensar que la funcion radial solo depende de la degeneracion k. Sin embargo, la
funcion radial tambien depende en general de l por la siguiente razon: una funcion de la forma f (r) g (, ) solo
puede ser contnua en el origen (r = 0, y arbitrarios) si g (, ) se reduce a una constante o si f (r) tiende
a cero cuando r 0 con f (0) = 0. Para ver esto, basta con observar que si g (, ) es no trivial, entonces el
lmite de f (r) g (, ) cuando r 0 dependera de la direccion por la cual nos aproximemos al origen si f (r) no
tiende a cero cuando r 0. De lo anterior vemos que si requerimos que l,m,k (r) sea contnuo, entonces solo las
funciones radiales con l = 0 pueden ser no nulas en el origen (puesto que Y00 es constante). Si ademas requerimos
diferenciabilidad hasta cierto orden en el origen obtendremos condiciones sobre Rl,k (r) que dependen de l.
Las relaciones de ortonormalidad de estas funciones se escriben en la forma
Z Z
d3 r l,m,k

(r) l ,m ,k (r) = r 2 dr Rl,k

(r) Rl ,k (r)
0
Z 2 Z

d sin d Ylm (, ) Yl m (, ) = kk ll mm
0 0
11.5. VALORES ESPERADOS Y DISPERSION PARA SISTEMAS EN UN ESTADO |L, M, Ki 335

y dado que los armonicos esfericos son ortonormales Ec. (11.33) tenemos que
Z Z 2 Z 
2
r dr Rl,k (r) Rl ,k (r) d sin d Ylm (, ) Yl m (, ) = kk ll mm
0 0 0
Z
ll mm r 2 dr Rl,k

(r) Rl ,k (r) = kk ll mm (11.46)
0

Z
r 2 dr Rl,k

(r) Rl,k (r) = kk (11.47)
0

de modo que las funciones radiales Rl,k (r) estan normalizadas con respecto a r y dos funciones radiales asociadas
al mismo valor de l pero con diferente valor de k son ortogonales.
Notese que la relacion (11.47) proviene del hecho de que las funciones l,l,k (r) = Rl,k (r) Yll (, ) que se
escogieron como base en el subespacio Er (l, l) son ortonormales. Por tal razon, es esencial que el ndice l sea
el mismo en ambas funciones radiales de la ecuacion (11.47). Si l 6= l entonces l,m,k y l ,m ,k deben ser
ortogonales puesto que corresponden a funciones propias de L2 con diferente valor propio, pero la ortogonalidad
de los armonicos esfericos ya garantiza la ortogonalidad de las s cuando l 6= l , de modo que en general la integral
a la izquierda de (11.47) toma cualquier valor, esto se puede apreciar haciendo l 6= l en (11.46).

11.5. Valores esperados y desviaciones medias cuadraticas de observables


cuando el sistema esta en un estado |l, m, ki
Supongamos que una partcula sin espn esta en el estado |l, m, ki que es autoestado de L2 y L3 con valores
propios l (l + 1) ~2 y m~. Por tanto, el cuadrado de su momento angular y su proyeccion a lo largo de X3 estan
bien definidos. Supongamos ahora que queremos medir las proyecciones a lo largo de los otros dos ejes L1 y L2 ;
puesto que estos observables no conmutan con L3 , los estados |l, m, ki no son en general autoestados de L1 ni de
L2 , por tanto las predicciones sobre sus autovalores seran solo probabilsticas.
Calculemos entonces los valores esperados y las races de las desviaciones medias cuadraticas de L1 y L2 . Para
ello expresamos estos observables en terminos de los operadores escalera L invirtiendo las Ecs. (11.45)

1 1
L1 = (L+ + L ) ; L2 = (L+ L )
2 2i

por tanto L1 |l, m, ki es una combinacion lineal de los estados |l, m + 1, ki y |l, m 1, ki, similarmente ocurre con
L2 |l, m, ki, esto nos lleva por tanto a que

hl, m, k| L1 |l, m, ki = hl, m, k| L2 |l, m, ki = 0 (11.48)

para calcular las desviaciones medias cuadraticas debemos calcular los valores esperados de L21 , L22

1
hl, m, k| L21 |l, m, ki = hl, m, k| (L+ + L ) (L+ + L ) |l, m, ki
4
1  
= hl, m, k| L2+ + L2 + L+ L + L L+ |l, m, ki
4

1
hl, m, k| L22 |l, m, ki = hl, m, k| (L+ L ) (L+ L ) |l, m, ki
4
1  
= hl, m, k| L2+ + L2 L+ L L L+ |l, m, ki
4
336 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

los terminos con L2 no contribuyen puesto que L2+ |l, m, ki = c |l, m 2, ki. Por tanto ambos valores esperados
son identicos. Usando la Ec. (10.17) se obtiene

1
hl, m, k| L21 |l, m, ki = hl, m, k| L22 |l, m, ki = hl, m, k| [L+ L + L L+ ] |l, m, ki
4
1   ~2  
= hl, m, k| 2L2 2L23 |l, m, ki = l (l + 1) m2 (11.49)
4 2
las desviaciones medias cuadraticas son
~2  
(L1 )2 = (L2 )2 = hl, m, k| L21 |l, m, ki [hl, m, k| L1 |l, m, ki]2 = l (l + 1) m2
2
en resumen cuando la partcula esta en el estado |l, m, ki, los valores esperados y races de las desviaciones medias
cuadraticas de L1 y L2 son

hl, m, k| L1 |l, m, ki = hl, m, k| L2 |l, m, ki = 0 (11.50)


r
1
L1 = L2 = ~ [l (l + 1) m2 ] (11.51)
2

p resultado posee el siguiente analogo clasico: asumamos un momento angular clasico de modulo |L| = L =
Este
~ l (l + 1) y cuya tercera componente L3 es igual a m~. Si graficamos a L en un espacio de configuracion con ejes
L1 , L2 , L3 colocando el vector L con la cola en el origen, podemos describir tal vector en coordenadas esfericas
con angulo polar y angulo azimutal

L1 = L sin cos ; L2 = L sin sin ; L3 = L cos


L21 + L22 = L2 sin2

de acuerdo con nuestras hipotesis p


L = ~ l (l + 1) ; L3 = m~
por tanto
 
L21 + L22 = L2 L23 = l (l + 1) ~2 m2 ~2 = l (l + 1) m2 ~2
q p
L21 + L22 = L sin = ~ [l (l + 1) m2 ]

y las componentes del momento angular son


p
L1 = L sin cos = ~ [l (l + 1) m2 ] cos
p
L2 = L sin sin = ~ [l (l + 1) m2 ] sin
p
L3 = L cos = ~ l (l + 1) cos

asumamos ahora que los valores de L y son conocidos y que el angulo azimutal es una variable aleatoria que
puede tomar cualquier valor en el intervalo [0, 2) con igual probabilidad en todo el rango. Si promediamos sobre
tenemos
Z 2
~p
L1 = [l (l + 1) m2 ] cos d = 0
2 0
Z 2
~p 2
L2 = [l (l + 1) m ] sin d = 0
2 0
L1 = L2 = 0 (11.52)
11.6. PROBABILIDADES ASOCIADAS A LA MEDIDA DE L2 Y L3 EN UN ESTADO ARBITRARIO 337

adicionalmente
Z 2
~2   ~2  
L21 = l (l + 1) m2 cos2 d =
l (l + 1) m2
2 0 2
Z 2
~2  ~2  
L22 = l (l + 1) m2 sin2 d = l (l + 1) m2
2 0 2
~ 
2 
L21 = L22 = l (l + 1) m2 (11.53)
2

vemos que los promedios clasicos de L1 , L2 , L21 , L22 dados por las Ecs. (11.52, 11.53) son identicos a los valores
esperados cuanticos dados en las Ecs. (11.50,
para una partcula en el estado |l, m, ki. Por tanto, en lo

11.51)
que concierne a los valores de hL1 i, hL2 i , L21 , L22 , una partcula cuantica en el estado |l, m, ki se comporta
p
de manera similar a una particula clasica con momento angular de magnitud L = ~ l (l + 1) y con tercera
componente L3 = m~ para el cual es una variable aleatoria con distribucion uniforme de probabilidad sobre el
intervalo [0, 2).
No obstante, este analogo clasico tambien tiene sus limitaciones. Por ejemplo en este modelo clasico puesto
que es aleatoria
p y puede tomar cualquier
p valor en el contnuo nos lleva a que L1 y L2 puede tomar cualquier
valor entre ~ [l (l + 1) m2 ] y ~ [l (l + 1) m2 ]. En contraste, para el caso cuantico los valores accesibles
de todas las componentes para una medida individual de la partcula en el estado |l, m, ki estan cuantizados.
Especficamente, hemos visto que los valores accesibles de L1 y L2 coinciden con los de L3 , puesto que l es fijo
hay 2l + 1 valores accesibles que son l~, (l 1) ~, . . . , (l + 1) ~, l~.

11.6. Probabilidades asociadas a la medida de L2 y L3 en un estado arbitrario


Consideremos una partcula cuyo estado esta descrito por la funcion de onda normalizada dada por

hr |i = (r) = (r, , )

calcularemos ahora la probabilidad de obtener un valor especfico l (l + 1) ~2 de L2 y/o un valor especfico m~ de


L3 .
Puesto que L2 y L3 son variables compatibles, podemos hacer una medicion simultanea de estas cantidades.
Denotaremos PL2 ,L3 (l, m) la probabilidad de obtener los valores l (l + 1) ~2 y m~ en una medicion simultanea
de dichas cantidades. Para ello expandimos (r) en autoestados de L2 y L3 , para lo cual escogeremos una base
estandar de la forma (11.45)
l,m,k (r) = Rl,k (r) Ylm (, )
esta expansion es entonces XXX
(r) = cl,m,k Rl,k (r) Ylm (, ) (11.54)
k l m

donde los coeficientes de Fourier de la expansion son los usuales


Z
cl,m,k = hl, m, k |i = d3 r l,m,k
(r) (r)
Z Z 2 Z
= r 2 dr Rl,k

(r) d
sin d Ylm (, ) (r, , ) (11.55)
0 0 0

de acuerdo con los postulados, la probabilidad PL2 ,L3 (l, m) esta dada por
X
PL2 ,L3 (l, m) = |cl,m,k |2 (11.56)
k
338 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

si medimos L2 solamente, la probabilidad PL2 (l) de obtener l (l + 1) ~2 es


l
X l
X X
PL2 (l) = PL2 ,L3 (l, m) = |cl,m,k |2 (11.57)
m=l k m=l

ahora, si medimos L3 unicamente, la probabilidad de obtener m~ es


X X X
PL3 (m) = PL2 ,L3 (l, m) = |cl,m,k |2 (11.58)
l|m| k l|m|

estrictamente la condicion l |m| se satisface automaticamente ya que no hay coeficientes cl,k,m con l < |m|.
Adicionalmente, si tenemos en cuenta que L2 , Li , L son operadores diferenciales que solo actuan sobre las
variables angulares, solo la dependencia angular en (r) sera relevante para calcular estas probabilidades. En
consecuencia, r se puede ver como un parametro para estos calculos (cantidad arbitraria pero fija). Si consideramos
que (r, , ) es funcion de las variables , y que r es un parametro, entonces puesto que toda funcion de y
se podra expandir en armonicos esfericos con coeficientes que dependen del parametro r, tendremos
XX
(r, , ) = al,m (r) Ylm (, ) (11.59)
l m
Z 2 Z

alm (r) = hlm| i = d sin d Ylm (, ) (r, , ) (11.60)
0 0

si comparamos las expansiones (11.54, 11.59) vemos que los cl,m,k son los coeficientes de la expansion de al,m (r)
en las funciones Rl,k (r) X
al,m (r) = cl,m,k Rl,k (r) (11.61)
k
usando (11.55) y (11.60) se obtiene
Z Z 2 Z 
cl,m,k = r 2 dr Rl,k

(r) d
sin d Ylm (, ) (r, , )
Z0 0 0

cl,m,k = r 2 dr Rl,k

(r) al,m (r) (11.62)
0

la Ec. (11.62) es la inversa de (11.61). De hecho la Ec. (11.62) se puede obtener multiplicando (11.61) por r 2 Rl,k
(r),

integrando en r y utilizando la relacion de ortonormalidad (11.47). Usando las Ecs. (11.47, 11.61) se obtiene
Z Z " #" #
2
X X
r 2 dr |al,m (r)| = r 2 dr cl,m,k Rl,k

(r) cl,m,k Rl,k (r)
0 0 k k
Z XX Z X
r 2 dr |al,m (r)|2 = cl,m,k cl,m,k r 2 dr Rl,k

(r) Rl,k (r) = cl,m,k cl,m,k kk
0 k k 0 k,k
Z X
r 2 dr |al,m (r)|2 = |cl,m,k |2
0 k

por lo tanto, la probabilidad PL2 ,L3 (l, m) descrita por la Ec. (11.56) se puede reescribir como
Z
PL2 ,L3 (l, m) = r 2 dr |al,m (r)|2 (11.63)
0

de lo cual se puede deducir las probabilidades PL2 (l) y PL3 (m)


l
X Z X Z
2
PL2 (l) = 2
r dr |al,m (r)| ; PL3 (m) = r 2 dr |al,m (r)|2 (11.64)
m=l 0 l|m| 0
11.6. PROBABILIDADES ASOCIADAS A LA MEDIDA DE L2 Y L3 EN UN ESTADO ARBITRARIO 339

en sntesis, para calcular las probabilidades asociadas a las medidas de los observables L2 y L3 podemos considerar
a la funcion de onda solo como funcion de las variables , y expandir dicha funcion en armonicos esfericos como
se ve en la Ec. (11.59). Los coeficientes de esta expansion se usan entonces para calcular las probabilidades como
se ve en las Ecs. (11.63, 11.64).
Ahora bien, la Ec. (11.12) nos muestra que el operador L3 solo depende del angulo azimutal . Por tanto,
para el calculo de PL3 (m) podemos considerar a como la unica variable en (r) siendo r y parametros en la
funcion de onda. Para ver esto basta con observar que los armonicos esfericos son el producto de una funcion de
solo por una funcion de solo
eim
Ylm (, ) = Zlm () (11.65)
2
con esta parametrizacion cada una de las funciones del producto esta normalizada, esto se ve teniendo en cuenta
que
Z 2
eim eim
d = mm
0 2 2
si sustitumos esto en la relacion de ortonormalidad para los armonicos esfericos Ec. (11.33) encontramos que
Z 2 Z
d sin d Yl m (, ) Ylm (, ) = ll mm
0
Z 2 Z " 0 #  
e im eim

d sin d Zl m () Zlm () = ll mm
0 0 2 2
"Z #Z
2 im im
e e
d sin d Zl m () Zlm () = ll mm
0 2 2 0
Z
mm sin d Zl m () Zlm () = ll mm (11.66)
0
Z

sin d Zl,m () Zl ,m () = ll (11.67)
0
notese que en esta relacion solo aparece un numero cuantico m ya que si m 6= m ambos miembros en (11.66) se
anulan para cualquier valor de la integral que aparece a la izquierda de (11.66), de modo que a priori esta integral
puede tomar cualquier valor.
Tomaremos entonces para el calculo de PL3 a la funcion de onda (r) como una funcion que solo depende de
como variable y que depende solo parametricamente de y r. Su expansion de Fourier sera
X Z 2
eim 1
(r, , ) = bm (r, ) ; bm (r, ) = d eim (r, , ) (11.68)
m 2 2 0

si reescribimos las Ecs. (11.59, 11.60) con la parametrizacion (11.65) obtenemos


XX eim
(r, , ) = al,m (r) Zlm () (11.69)
l m 2
Z 2 Z
eim
alm (r) = hlm| i = d sin d Zlm () (r, , ) (11.70)
0 0 2
si comparamos las Ecs. (11.68) con las Ecs. (11.69, 11.70) vemos que los alm con m fijo son los coeficientes de la
expansion de bm (r, ) sobre las funciones Zlm () para tal valor de m
X Z

bm (r, ) = al,m (r) Zlm () ; alm (r) = sin d Zlm () bm (r, ) (11.71)
l 0
340 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

multiplicando a ambos lados de (11.71) por sin d y por el conjugado de cada miembro e integrando resulta
" #" #
X X

bm (r, ) bm (r, ) sin d = al,m (r) Zlm () al ,m (r) Zl m () sin d
l l
Z XX Z
2
|bm (r, )| sin d = al,m (r) al ,m (r) Zlm () Zl m () sin d
0 l l 0

y usando (11.67) resulta


Z XX
|bm (r, )|2 sin d = al,m (r) al ,m (r) ll
0 l l
Z X
|bm (r, )|2 sin d = |al,m (r)|2 (11.72)
0 l

y sustituyendo (11.72) en la segunda de las ecuaciones (11.64), la probabilidad PL3 (m) queda en la forma
Z Z
PL3 (m) = 2
r dr sin d |bm (r, )|2 (11.73)
0 0

Por lo tanto, en lo que respecta al calculo de PL3 (m) se puede considerar que para la funcion de onda, las
cantidades r y son parametros y la unica variable es . Con esta consideracion, la expansion de Fourier se hace
en la forma indicada en (11.68) y los coeficientes de la expansion se utilizan para calcular PL3 (m) como se observa
en la Ec. (11.73).
Por otro lado, vemos que para calcular PL2 los dos angulos y son relevantes ya que el operador diferencial
asociado (11.13) depende de ambos angulos. Por tanto la unica cantidad que se puede considerar como parametro
para este calculo es r y debemos emplear la formula (11.64).

11.7. Ejemplos de calculos de probabilidad para L2 y L3


11.7.1. Funcion de onda parcialmente separable
Supongamos que la funcion de onda (r) de una partcula tiene la forma

(r, , ) = f (r) g (, ) (11.74)

siempre es posible normalizar cada funcion por separado de modo que


Z Z 2 Z
2
2
r dr |f (r)| = 1 ; d sin d |g (, )|2 = 1 (11.75)
0 0 0

la expansion (11.59, 11.60) se escribe entonces en la forma


XX Z 2 Z

f (r) g (, ) = al,m (r) Ylm (, ) ; alm (r) = f (r) d sin d Ylm (, ) g (, )
l m 0 0
XX
f (r) g (, ) = f (r) dl,m Ylm (, ) ; alm (r) f (r) dlm (11.76)
l m

quedando entonces
XX Z 2 Z

g (, ) = dl,m Ylm (, ) ; dlm d sin d Ylm (, ) g (, )
l m 0 0
11.7. EJEMPLOS DE CALCULOS DE PROBABILIDAD PARA L2 Y L3 341

usando la segunda Ec. (11.76), la probabilidad PL2 ,L3 dada en (11.63) queda en la forma
Z Z
2 2
PL2 ,L3 (l, m) = 2
r dr |al,m (r)| = |dl,m | r 2 dr |f (r)|2
0 0
Z 2 Z
PL2 ,L3 (l, m) = |dl,m |2 ; dlm d sin d Ylm
(, ) g (, ) (11.77)
0 0

donde hemos usado la condicion de normalizacion radial (11.75). Esta probabilidad es totalmente independiente
de la parte radial de la funcion de onda f (r).

11.7.2. Funcion de onda totalmente separable


Consideremos ahora el caso en el cual la funcion de onda admite una separacion total

(r, , ) = f (r) h () k () (11.78)

de nuevo asumimos que cada funcion esta normalizada por aparte


Z Z Z 2
2 2
2
r dr |f (r)| = sin d |h ()| = d |k ()|2 = 1 (11.79)
0 0 0

Por supuesto la Ec. (11.78) es un caso especial de (11.74) de modo que los resultados precedentes son validos aqu.
Pero la separacion adicional nos permite simplificar el calculo de PL3 , pues la expansion (11.68) queda en este
caso en la forma
X Z 2
eim 1
f (r) h () k () = bm (r, ) ; bm (r, ) = f (r) h () d eim k ()
m 2 2 0
X eim
f (r) h () k () = f (r) h () cm ; bm (r, ) cm f (r) h () (11.80)
m 2

quedando finalmente Z
X eim 1 2
k () = cm ; cm d eim k () (11.81)
m 2 2 0

ahora aplicando (11.80 y 11.81) a la Ec. (11.73) para el calculo de PL3 se obtiene
Z Z Z Z
2
PL3 (m) = 2
r dr sin d |bm (r, )| = 2
r dr sin d |cm f (r) h ()|2
0
Z 0 Z 0 0

= |cm |2 r 2 dr |f (r)|2 sin d |h ()|2


0 0

y usando las condiciones de normalizacion (11.79) se tiene


Z 2
1
PL3 (m) = |cm |2 ; cm d eim k () (11.82)
2 0

11.7.3. Comportamiento de la probabilidad con y


Hasta ahora solo se ha considerado una estructura especfica de separacion de variables en la funcion de onda en
forma de las Ecs. (11.74, 11.78). Tomaremos ahora ejemplos concretos que cumplan con alguna de estas ecuaciones,
por ejemplo asumamos que la funcion de onda es de la forma (11.78) pero totalmente independiente de y
1 1
h () = ; k () = (11.83)
2 2
342 CAPITULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

con lo cual la Ec. (11.78) se convierte en


1
(r) = f (r) = f (r) Y00 (, )
4

de modo que una medida de L2 y/o L3 da el valor cero con total certeza.
Ahora modifiquemos solo la dependencia con
r
3 1
h () = cos ; k () =
2 2
r
3
(r) = f (r) cos = Y10 (, )
4

de nuevo tenemos certeza total sobre los valores de L2 y L3 en una medida (l = 1, m = 0). Para L2 obtenemos
2~2 y para L3 tendremos cero. Vemos que la modificacion de la dependencia de no modifica las predicciones
concernientes a L3 puesto que tales predicciones solo dependen del angulo .
Ahora modificamos la dependencia de (con respecto al primer problema) de modo que

1 ei
h () = ; k () =
2 2
ei
(r) = f (r) (11.84)
4
la dependencia angular ya no esta dada por un solo armonico esferico. Aplicando (11.82) vemos que PL3 (m) nos
da
Z 2 Z 2
2 1 im 1
PL3 (m) = |cm | ; cm d e k () = d eim ei = m1
2 0 2 0
PL3 (m) = m1

por tanto m solo puede tomar el valor m = 1, vemos entonces que las predicciones sobre L3 han cambiado por
la introduccion de la dependencia azimutal. Las predicciones
sobre L2 cambian tambien con respecto a las dadas
por (11.83). Para calcular PL2 es necesario expandir ei / 4 en armonicos esfericos. Se puede verificar que todos
los armonicos con l impar y m = 1 aparecen en dicha expansion. Por tanto, ya no hay certeza en la medida de L2
sino una distribucion de probabilidad. Tal como ya se discutio, la dependencia de entra en las predicciones sobre
L2 . Notese que la Ec. (11.84) nos describe una autofuncion de L3 que no es autofuncion de L2 . Esto no supone
ninguna contradiccion, ya que esta garantizado que existe una base comun para ambos, pero esto no significa que
no pueda existir una base (o en particular un vector) que consista de autovectores de solo uno de los operadores.
Captulo 12

Interacciones centrales en mecanica


cuantica

En mecanica cuantica es frecuente encontrarse con el problema de dos partculas interactuantes como es el
caso de la interaccion electron nucleo en un atomo hidrogenoide (sistema consistente en un nucleo y un electron).
Cuando la interaccion entre las dos partculas se puede describir por un potencial que solo depende de la posicion
relativa entre ambas, es posible demostrar al igual que en mecanica clasica, que el problema se puede reducir
al estudio de una sola partcula ficticia. Ademas cuando la interaccion entre las partculas depende solo de la
distancia entre ellas, el sistema equivalente es la partcula ficticia sujeta a un potencial central.
Una vez que el problema se reduce al problema equivalente de una partcula, se consideraran las propiedades
mecano cuanticas de una partcula sujeta a un potencial central V (r). Este problema esta ntimamente relacionado
con el problema del momento angular, ya que el hecho de que V (r) sea invariante ante rotaciones alrededor del
origen significara que el Hamiltoniano H conmuta con todas las componentes del momento angular orbital L,
es decir es un escalar. Esto simplificara considerablemente el problema de valores propios ya que sera posible
construr una base comun de funciones propias de H, L2 y L3 . Esto a su vez permitira que la dependencia angular
de la ecuacion de valores propios se convierta en el problema de valores propios del momento angular orbital que
ya se ha estudiado en detalle. Por tanto, el problema se reducira a encontrar la dependencia radial.

12.1. El problema de dos cuerpos y su reduccion al problema equivalente de


una partcula en Mecanica Clasica
Consideremos un sistema de dos masas puntuales m1 y m2 como lo indica la Fig. 12.1, donde las unicas fuerzas
que actuan sobre ellas son las debidas al potencial mutuo U . La isotropa del espacio nos sugiere que si las masas
no poseen alguna propiedad vectorial, la interaccion entre ellas debe ir dirigida a lo largo de la lnea que las
une, esto indica que el potencial debe ser funcion del valor absoluto de la coordenada relativa1 r2 r1 r. Este
sistema tiene seis grados de libertad y por tanto requiere de seis coordenadas generalizadas. Quizas el sistema
de coordenadas generalizadas mas conveniente lo constituye las coordenadas de posicion del centro de masa R,
y las coordenadas que determinan al vector relativo r. Estas coordenadas se pueden escribir en terminos de las
coordenadas de posicion de las partculas r1 y r2

m1 r1 + m2 r2
r r2 r1 ; R (12.1)
m1 + m2

1
Esto adicionalmente es compatible con la homogeneidad del espacio ya que un cambio de origen no debe cambiar la naturaleza de
la interaccion. Efectivamente, el vector r = r2 r1 es invariante ante un cambio de origen.

343
344 CAPITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA

Figura 12.1: Variables de posicion fundamentales en el problema de dos cuerpos.

estas ecuaciones se pueden invertir para obtener


m2
r1 = R r
m1 + m2
m1
r2 = R+ r (12.2)
m1 + m2
tambien son utiles las coordenadas de posicion de las partculas relativas al centro de masa r1 y r2

r1 = R + r1 ; r2 = R + r2 (12.3)

con lo cual
m2
r1 = r
m1 + m2
m1
r2 = r (12.4)
m1 + m2
En esta seccion consideraremos una situacion algo mas general en donde el potencial puede depender tambien de
las derivadas temporales del vector relativo r. El Lagrangiano del sistema se puede escribir como
 
L = T R, r U (r, r, ..)

es bien sabido que la energa cinetica de un sistema clasico de partculas se puede escribir como la energa cinetica
del centro de masa mas la energa cinetica con respecto al centro de masa
  1 1 1 1 1
T R, r = m1 r21 + m2 r22 = m1 r2 2
1 + m2 r2 + M R
2
(12.5)
2 2 2 2 2
donde M m1 + m2 . Usando (12.4) se puede escribir la energa cinetica en terminos de las coordenadas genera-
lizadas elegidas i.e. las componentes de R y r
1 m1 m2 2 1
T = r + M R2
2 M 2
el Lagrangiano queda de la forma
1 1 m1 m2 2
L= M R2 + r U (r, r, ..) (12.6)
2 2 M
12.1. EL PROBLEMA DE DOS CUERPOS EN MECANICA CLASICA 345

se puede ver que las coordenadas de R son todas cclicas, es decir no aparecen en el Lagrangiano pero s aparecen
las coordenadas R. Si elegimos como coordenadas generalizadas las tres componentes cartesianas de R, vemos
que los tres momentos lineales (que seran los momentos canonicos) son constantes y por tanto, R = cte, de modo
que el centro de masa esta en reposo o movimiento rectilneo uniforme2

R = R0 + Rt (12.7)

si nuestro sistema original de referencia es inercial, entonces el sistema con origen en el centro de masa tambien
lo es. Podemos entonces ver el movimiento a partir del centro de masa en cuyo caso el Lagrangiano queda
1 2
L= r U (r, r, ..) (12.8)
2
donde hemos definido
m1 m2
(12.9)
M
como la masa reducida del sistema. El Lagrangiano (12.8) es el equivalente al Lagrangiano que se obtendra
si tuvieramos una partcula de masa sometida a una fuerza que apunta siempre hacia un punto fijo (fuerza
central), y a una distancia r del centro de fuerza. Por lo tanto el problema de dos cuerpos sometidos a fuerzas
centrales mutuas, se puede reducir a un problema de una sola partcula que interactua con un centro de fuerzas.
No debemos olvidar sin embargo, que la partcula equivalente a la cual esta asociada el Lagrangiano (12.8),
NO existe, no hay ninguna partcula de masa y las trayectorias que se encuentran son para esta partcula
imaginaria. Para encontrar la trayectoria de las partculas originales con respecto al sistema inercial original, es
necesario devolverse tomando las Ecs. (12.2, 12.7) junto con las soluciones que encontremos para r. No obstante,
si ocurre que m1 m2 entonces tanto la trayectoria como la masa imaginarias van a ser muy semejantes a la
trayectoria y masa real de m1 .
Ahora queremos construr un Hamiltoniano equivalente para cuantizar mas adelante. Usando (12.6) suponiendo
que U solo depende de r, podemos calcular los momentos conjugados asociados a las componentes de R y de r,
los cuales estan dados por
 
L 1 1 1 1
Pi = = M Xk Xk + xk xk V (r) = M ik Xk + M Xk ik = M Xi
Xi Xi 2 2 2 2
 
L 1 1
pi = = M Xk Xk + xk xk V (r) = xi
xi xi 2 2
tenemos entonces que

P = M R = m1 r1 + m2 r2 = p1 + p2 (12.10)
m1 m2 m1 m2 r2 m2 m1 r1 m1 p2 m2 p1
p = r = (r2 r1 ) = = (12.11)
m1 + m2 m1 + m2 m1 + m2
p p2 p1
= (12.12)
m2 m1
P es el momento total y p es el momento relativo de las dos partculas. El Hamiltoniano clasico se escribe como
P2 p2
H (R, P, r, p) = + + V (r) (12.13)
2M 2
empleando las ecuaciones de Hamilton encontramos que

P = 0 ; p = V (r) (12.14)
2
Desde el punto de vista Newtoniano esto se puede ver por el hecho de que el sistema esta aislado, de modo que el centro de masa
no puede estar acelerado. En terminos de simetras, se dice que el sistema tiene invarianza traslacional que conduce a la conservacion
del momento lineal.
346 CAPITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA

la primera ecuacion nos dice que el centro de masa tiene movimiento rectilneo uniforme como ya se habia obser-
vado. La segunda ecuacion es la segunda ley de Newton aplicada a la partcula imaginaria de masa . Puesto que
el centro de masa es tambien inercial, podemos ubicarnos all para ver las ecuaciones de movimiento, en cuyo caso
el Hamiltoniano queda
p2
H (r, p) = + V (r) (12.15)
2
que es el equivalente al Lagrangiano (12.8) para la partcula con posicion r y momento p (excepto que ya
asumimos que el potencial solo depende de r). Notese que el primer termino a la derecha de las Ecs. (12.6, 12.13)
junto con la primera de las Ecs. (12.14) nos permite interpretar al par R, P como variables conjugadas a una
segunda partcula imaginaria de masa M y que viaja a la velocidad constante del centro de masa ocupando para
todo tiempo la posicion del centro de masa3 .
Tambien se observa que la Ec. (12.12) nos dice que la velocidad p/ de la partcula imaginaria es igual a la
diferencia entre la velocidades de las dos partculas es decir su velocidad relativa, lo cual es consistente con derivar
la primera de las Ecs. (12.1) con respecto al tiempo.

12.2. Reduccion del problema de dos cuerpos en mecanica cuantica


Cuando se realiza un proceso de cuantizacion no es obvio a priori que el problema de dos cuerpos se reduzca
al problema de un solo cuerpo. La razon estriba en que debemos cuantizar las variables asociadas a las partculas
reales, es decir debemos cuantizar (R1 , P1 ) y (R2 , P2 ), despues de esto podemos pasar a las coordenadas de centro
de masa que denotamos por (RC , PC ) y las coordenadas relativas (Rr , Pr ). Sin embargo, para poder interpretar
consistentemente estas nuevas coordenadas como equivalentes a dos partculas imaginarias, es necesario que dichas
nuevas coordenadas sean canonicas (es decir que obedezcan las reglas canonicas de conmutacion). Adicionalmente,
para que el movimiento de estas dos partculas imaginarias se pueda desacoplar, es necesario que las variables
(RC , PC ) conmuten con las variables (Rr , Pr ). Veremos sin embargo, que estas condiciones s se satisfacen para el
problema cuantico de dos cuerpos que interactuan con una fuerza central, de modo que la reduccion al problema
de dos cuerpos desacoplados tambien es posible en mecanica cuantica.
Asociaremos los operadores R1 , P1 y R2 , P2 que describen la posicion y el momento de las dos partculas y
que satisfacen las relaciones canonicas
h i h i h i
(i) (k) (i) (k) (i) (k)
Pj , Pm = Xj , Xm = 0 ; Xj , Pm = jm ik i~ ; i, k = 1, 2 ; j, m = 1, 2, 3 (12.16)

donde i, k rotulan partculas en tanto que j, m rotulan componentes. Definimos ahora los observables RC y Rr en
forma analoga a las Ecs. (12.1)
m1 R1 + m2 R2
RC = ; Rr = R2 R1 (12.17)
m1 + m2
y los momentos tienen expresiones de la forma (12.10, 12.11)

m1 P2 m2 P1
PC = P1 + P2 ; Pr = (12.18)
m1 + m2

los conmutadores entre las componentes de RC , Rr , PC , Pr se pueden calcular con base en las definiciones (12.17,
12.18) y las reglas de conmutacion (12.16) y se obtiene
h i h i h i
e (i) , X
X em(k)
= e(i) , Pem
P (k)
= 0 ; e (i) , Pem
X (k)
= jm ik i~ ; i, k = 1, 2 ; j, m = 1, 2, 3
j j j

e (1) (RC ) ; X
X e (2) (Rr ) ; Pe(1) (PC ) ; Pe(2) (Pr )
j j j j j j j j
3
En sntesis hemos cambiado el problema de dos cuerpos (reales) acoplados por el problema de dos cuerpos (imaginarios) totalmente
desacoplados.
12.2. REDUCCION DEL PROBLEMA DE DOS CUERPOS EN MECANICA CUANTICA 347

es decir tanto el par RC , PC , como el par Rr , Pr obedecen reglas canonicas de conmutacion. Ademas todo
observable del conjunto {RC , PC } conmuta con todo observable del conjunto {Rr , Pr }.
Lo anterior nos permite interpretar al par RC , PC , y al par Rr , Pr como los observables posicion y momento
de dos partculas ficticias distintas y desacopladas, al igual que en el caso clasico.

12.2.1. Autovalores y autofunciones del Hamiltoniano


Usando las reglas de cuantizacion, el Hamiltoniano para dos cuerpos sometidos a una fuerza central esta dado
por
P21 P2
H= + 2 + V (R2 R1 )
2m1 2m2
teniendo en cuenta que este Hamiltoniano no acopla observables de momento con observables de posicion, el calculo
para llegar del conjunto (R1 , P1 , R2 , P2 ) al conjunto (RC , PC , Rr , Pr ) es identico al del caso clasico puesto que
todos los productos que aparecen conmutan. El resultado es entonces totalmente analogo a (12.13)
P2C P2
H= + r + V (Rr )
2M 2
este Hamiltoniano se puede separar en la forma
P2C P2
H = HC + Hr ; HC ; Hr r + V (Rr )
2M 2
[HC , Hr ] = 0 [HC , H] = 0 ; [Hr , H] = 0

Asumiendo que H, HC , Hr son observables, tal conjunto tendra entonces una base comun de kets propios.

HC |i = EC |i ; Hr |i = Er |i ; H |i = E |i
H = HC + Hr E = EC + Er (12.19)

consideremos la base {|rC , rr i}, donde los elementos de esta base son vectores propios comunes a los observables
RC y Rr . En esta base, un estado se representa por la funcion de onda (rC , rr ) que es funcion de seis variables.
Los operadores RC y Rr se representan por multiplicacion de las funciones de onda por las variables rC y rr
respectivamente, en tanto que PC y Pr se representan por los gradientes
 

PC i~C i~ , ,
xC,1 xC,2 xC,3
 

Pr i~r i~ , ,
xr,1 xr,2 xr,3
el espacio de estados E puede ser considerado como el producto tensorial

E = Er C Er r

donde los espacios ErC , Err estan asociados a RC y Rr respectivamente. HC y Hr son entonces extensiones a E
de Hamiltonianos originalmente definidos en ErC y Err respectivamente. Podemos entonces encontrar una base |i
que cumple las Ecs. (12.19) en la forma siguiente4

|i = |C i |r i ; |C i ErC ; |r i Err (12.20)


HC |C i = EC |C i ; Hr |r i = Er |r i ; H |i = (EC + Er ) |i (12.21)
4
El hecho de que |i sea el producto tensorial de un vector en EC por otro vector en Er , es consecuencia de que el estado resultante
es una simple yuxtaposicion de los estados factor, debido a que las dos partculas (ficticias) asociadas a cada estado |C i y |r i estan
desacopladas, es decir no son interactuantes (ver seccion 6.1.1, pag. 245).
348 CAPITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA

las dos primeras ecuaciones se pueden escribir en la base {|rC i} y {|rr i} respectivamente y se obtiene
~2 2
C (rC ) = EC C (rC ) (12.22)
 2M C
~2 2
+ V (rr ) r (rr ) = Er r (rr ) (12.23)
2 r
la Ec. (12.22) muestra que la partcula equivalente para la descripcion del centro de masa es libre como en la
mecanica clasica. Sus soluciones son del tipo onda plana
1 i p2C
C (rC ) = 3/2
e ~ pC rC ; EC = 0
(2~) 2M

el espectro de energa es no negativo y contnuo y corresponde a la energa cinetica del movimiento del sistema
como un todo.
La Ec. (12.23) describe la dinamica de la partcula imaginaria de masa con posicion equivalente a la posicion
relativa entre las dos partculas. Describe entonces el comportamiento del sistema de dos partculas en el sistema
de referencia del centro de masa. Si el potencial solo depende de |r2 r1 | y no de la direccion de este vector
relativo, la partcula estara sujeta a un potencial central V (r). El problema se reduce entonces a resolver la
dinamica de la partcula .
El momento angular del sistema es

J = L1 + L2 ; L1 = R1 P1 ; L2 = R2 P2

se puede demostrar que este momento angular total tambien se puede escribir como
J = LC + Lr ; LC = RC PC ; Lr = Rr Pr

Adicionalmente, se puede demostrar que LC y Lr satisfacen las reglas de conmutacion de un momento angular.
Naturalmente, las componentes de LC conmutan con las de Lr . Una vez mas, estas propiedades nos permiten
interpretar consistentemente a LC y a Lr como momentos angulares de dos partculas cuanticas imaginarias
desacopladas.

12.3. El problema clasico de una partcula sometida a una fuerza central


Asumamos una partcula clasica sometida a una fuerza de la forma5
dV
F = V (r) = ur
dr
dado que la fuerza es paralela al vector posicion (siempre que el origen se elija en el centro de fuerza) tenemos
que ~ = r F = 0 y puesto que ~ = dL/dt, se tiene que L = cte. El momento angular clasico es entonces una
constante de movimiento para una partcula clasica sometida a una fuerza central. La trayectoria esta contenida
entonces en un plano que pasa por el centro de fuerzas y que es perpendicular al momento angular. La velocidad
se puede descomponer en una componente radial (paralela a r) y una transversal (perpendicular a r). La velocidad
radial tiene como magnitud
dr
vr =
dt
y la magnitud de la velocidad tangencial esta dada por
1
|v | = |v sin | = |ur v| = |r v|
r
5
De aqu en adelante simplificaremos la notacion y usaremos r, p en lugar de rr y pr para las variables dinamicas fundamentales
del problema de una partcula.
12.3. EL PROBLEMA CLASICO DE UNA PARTICULA SOMETIDA A UNA FUERZA CENTRAL 349

siendo el angulo entre ur y v. El modulo del momento angular es

|L| = |r v| = r |v |
|L|
|v | =
r
la energa total (cinetica mas potencial) es
1 2 1 1
E = v + V (r) = vr2 + v2 + V (r)
2 2 2
 2
1 2 1 |L|
E = v + + V (r)
2 r 2 r
1 2 L2
E = vr + + V (r) (12.24)
2 2r 2
El Hamiltoniano clasico en coordenadas esfericas se escribe como
!
p2r 1 p2
H = + + p2 + V (r)
2 2r 2 sin2
p2
L2 = + p2
sin2
La energa cinetica en (12.24) se dividio en dos terminos: la energa cinetica radial y la transversal. Notese que la
dependencia angular del Hamiltoniano se puede absorber en L2 teniendo en cuenta que esta es una constante de
movimiento
p2 L2
H= r + + V (r) (12.25)
2 2r 2
la absorcion de los angulos y sus momentos conjugados en L2 esta relacionada con el hecho de que V (r) no depende
de los angulos. El Hamiltoniano es la energa del sistema en este caso como se aprecia al comparar (12.24) con
(12.25). Podemos entonces tratar al Hamiltoniano como funcion solo de r y pr tomando a L2 como parametro.
Tenemos entonces solo dos ecuaciones de Hamilton
H H
r = ; pr =
pr r
tomando el Hamiltoniano (12.25) estas ecuaciones quedan

dr pr dpr L2 dV
= ; = 3
dt dt r dr
d2 r 1 dpr 2
d r L 2 dV
= ; 2 = 3 (12.26)
dt2 dt dt r dr
si definimos el potencial efectivo
L2
Vef f (r) = V (r) +
2r 2
el Hamiltoniano (12.25) y las ecuaciones de movimiento (12.26) quedan

p2r d2 r dVef f
H= + Vef f (r) ; 2 =
2 dt dr
que es equivalente a un problema unidimensional sujeto a la interaccion descrita por el potencial efectivo (teniendo
en cuenta que r va entre 0 e ). Veremos como se traducen estas caractersticas en la mecanica cuantica.
350 CAPITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA

12.4. Hamiltoniano cuantico


De aqu en adelante nos concentraremos en la ecuacion (12.23) de valores propios para el Hamiltoniano en la
representacion de la coordenada relativa {|rr i}. Por tanto simplificamos su notacion en la forma
 2 
~ 2
+ V (r) (r) = E (r) (12.27)
2
puesto que el potencial V solo depende de la distancia r de la partcula al origen, las coordenadas esfericas son
mas adecuadas para el problema. El Laplaciano en coordenadas esfericas se escribe
 2 
2 1 2 1 1 1 2
= r+ 2 + + (12.28)
r r 2 r 2 tan sin2 2
esta expresion da el Laplaciano solo para r 6= 0 y no esta definida para r = 0, lo cual se debe a la posicion
privilegiada del origen en coordenadas esfericas (el origen corresponde a r = 0 para cualquier valor de , ), mas
adelante impondremos condiciones sobre la funcion de onda en el origen. De la Ec. (11.13) vemos que el Laplaciano
(12.28) se puede escribir en terminos de L2

1 2 L2
2 = r (12.29)
r r 2 ~2 r 2
de modo que el Hamiltoniano cuantico se puede escribir
 
~2 2 ~2 1 2 L2
H = + V (r) = r 2 2 + V (r)
2 2 r r 2 ~ r
2
~ 2 L 2
H = 2
r+ + V (r) (12.30)
2r r 2r 2

que es el analogo del Hamiltoniano clasico (12.25). El operador diferencial L2 contiene toda la dependencia angular.
El problema de valores propios del Hamiltoniano queda escrito en la forma
 
~2 2 L2
r+ + V (r) (r, , ) = E (r, , ) (12.31)
2r r 2 2r 2

12.5. Solucion general del problema de valores propios


Puesto que las componentes de L solo actuan en la variables angulares, conmutan con todos los operadores
que solo dependan de r. Ademas, sabemos que Li conmuta con L2 . Por tanto de acuerdo con (12.30), las tres
componentes de L conmutan con el Hamiltoniano y como no dependen explcitamente del tiempo, son todas
constantes de movimiento en el sentido cuantico (seccion 5.8.2)

L d hLi
[H, L] = 0 ; = =0
t dt
por tanto H es un operador escalar con respecto a las rotaciones alrededor del origen, lo cual proviene de la
invarianza del potencial bajo rotaciones alrededor del origen. Por supuesto H tambien conmuta con L2 . Sin
embargo, aunque tenemos a nuestra disposicion cinco constantes de movimiento (L, L2 , H), no podemos usarlas
todas para solucionar el problema de valores propios (12.31) ya que no todos estos operadores conmutan entre
s. Solo podremos usar L2 , L3 (u otra componente) y H. Si asumimos que H, L2 , L3 son observables, existira
una base comun de funciones propias en el espacio Er de una partcula. Por lo tanto podemos sin retringir la
generalidad del problema requerir que la funciones de onda en (12.31) tambien sean funciones de onda de L2 y L3

H (r) = E (r) ; L2 (r) = l (l + 1) ~2 (r) ; L3 (r) = m~ (r) (12.32)


12.5. SOLUCION GENERAL DEL PROBLEMA DE VALORES PROPIOS 351

pero ya conocemos la forma de la parte angular de las autofunciones comunes de L2 y L3 (seccion 11.4). La Ec.
(11.45) nos indica que estas funciones son de la forma

(r) = Rlk (r) Ylm (, ) (12.33)

donde este (r) es solucion de las dos ultimas ecuaciones (12.32) sin importar la forma de la parte radial. Por
tanto, solo queda resolver el problema de determinar R (r) a fin de que (r) sea autofuncion del Hamiltoniano.

12.5.1. La ecuacion radial


Si sustitumos (12.33) en la Ec. (12.31) de valores propios del Hamiltoniano
 
~2 2 L2
r+ + V (r) Rlk (r) Ylm (, ) = E Rlk (r) Ylm (, )
2r r 2 2r 2
 
~2 2 L2 Ylm (, )
Ylm (, ) r + V (r) R lk (r) + Rlk (r) = E Rlk (r) Ylm (, )
2r r 2 2r 2

y teniendo en cuenta que los armonicos esfericos son autofunciones de L2 con valor propio l (l + 1) ~2 se tiene
 
~2 2 l (l + 1) ~2 Ylm (, )
Ylm (, ) r + V (r) R lk (r) + Rlk (r) = E Rlk (r) Ylm (, )
2r r 2 2r 2
la ecuacion radial toma finalmente la forma
 
~2 d2 l (l + 1) ~2
r+ + V (r) Rlk (r) = El,k Rlk (r) (12.34)
2r dr 2 2r 2
en realidad una solucion de (12.34), sustituda en (12.33) no necesariamente representa una solucion de la ecuacion
de valores propios (12.27) del Hamiltoniano. Esto se debe a que la expresion (12.28) para el Laplaciano no es nece-
sariamente valida en r = 0. Debemos por tanto asegurarnos que la solucion R (r) de (12.34) sea lo suficientemente
regular en el origen para que (12.33) sea en realidad solucion de (12.27). Notese ademas que aunque la Ec. (12.34)
no depende de los angulos, s depende de l, en realidad para cada valor de l tenemos un operador diferente en
(12.34).
De las Ecs. (12.32), podemos decir que el problema de valores propios de L2 , L3 , H lo resolvemos para cada par
de valores fijos de l y m. Esto implica que en el espacio de estados Er resolvemos el problema para cada subespacio
E (l, m) asociado a valores fijos de l y m. La Ec. (12.34) nos muestra que cuando estudiamos la parte radial (que es
la unica desconocida) de las funciones propias del Hamiltoniano, la ecuacion asociada depende de l pero no de m,
es decir la ecuacion (12.34) es identica para todos los 2l + 1 subespacios E (l, m) con l fijo. Denotaremos por El,k
los autovalores del operador Hl definido por (12.34) y que correspondera a los autovalores del Hamiltoniano dentro
de un subespacio dado E (l, m). El ndice k (discreto o contnuo) indica los diferentes valores propios asociados
al mismo numero cuantico l, los valores posibles de k indican la dimensionalidad de cada subespacio E (l, m). En
(12.34) hemos denotado las funciones propias de Hl con los ndices Rl,k (r). Debe notarse sin embargo que los
ndices de la funcion radial no tienen que ser los mismos de los valores propios El,k puesto que podramos tener
varias funciones radiales propias de Hl para un valor propio dado El,k en cuyo caso la funcion radial requerira
un ndice adicional. Sin embargo, demostraremos mas adelante que para cada l, k solo existe una funcion radial
linealmente independiente.
Por otra parte, para la Ec. (12.34)
 
~2 d2 l (l + 1) ~2
r+ + V (r) Rlk (r) = El,k Rlk (r) (12.35)
2r dr 2 2r 2
Definimos el cambio de variable
1
Rl,k (r) = ul,k (r) (12.36)
r
352 CAPITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA

y multiplicamos a ambos lados por r


  
~2 d2 l (l + 1) ~2 1 1
r 2
r+ 2
+ V (r) ul,k (r) = rEl,k ul,k (r)
2r dr 2r r r
 2 2
  2
  
~ d 1 l (l + 1) ~ 1 1
r r ul,k (r) + ul,k (r) + V (r) ul,k (r) = El,k ul,k (r)
2r dr 2 r 2r 2 r r
 2 2 
~ d l (l + 1) ~2
ul,k (r) + ul,k (r) + V (r) ul,k (r) = El,k ul,k (r)
2 dr 2 2r 2
quedando finalmente  2 2 
~ d l (l + 1) ~2
+ + V (r) ul,k (r) = El,k ul,k (r) (12.37)
2 dr 2 2r 2
de nuevo la Ec. (12.37) es analoga a un problema unidimensional de un partcula de masa sometida al potencial
efectivo Vef f definido por
l (l + 1) ~2
Vef f = V (r) + (12.38)
2r 2

teniendo en cuenta que r solo puede tomar valores no negativos. El termino l (l + 1) ~2 / 2r 2 es siempre positivo
de modo que si correspondiera a una interaccion real correspondera a una fuerza repulsiva, por este motivo se
conoce como potencial centrfugo. Debe tenerse en cuenta sin embargo, que el termino centrfugo no corresponde a
una verdadera interaccion sino a una porcion de la energa cinetica (energa cinetica transversal). Cuando l = 0 el
termino centrfugo esta ausente. Para una interaccion Coulombiana V (r) = e2 /r, si l 6= 0 el termino centrfugo
domina para valores pequenos de r de modo que el potencial efectivo es repulsivo a cortas distancias.

12.5.2. Comportamiento de la solucion radial en el origen


Ya hemos mencionado que debemos examinar las soluciones R (r) de la ecuacion radial (12.34) en el origen
para garantizar que estas tambien sean soluciones de la Ec. (12.27) puesto que en el paso de (12.27) a (12.34) se
ha usado el Laplaciano en coordenadas esfericas (12.28) que no esta definido en el origen.
Asumiremos que el potencial V (r) es tal que

lm r 2 V (r) = 0 (12.39)
r0

es decir, permanece finito o diverge menos rapido que 1/r 2 . Esta hipotesis es valida en la mayora de los casos
y en particular para el potencial de Coulomb. Consideremos una solucion de la Ec. (12.34) asumamos que en el
origen se comporta en la forma
lm Rl,k (r) Cr s (12.40)
r0

sustituyendo (12.40) en (12.34) tenemos


 
~2 d2 l (l + 1) ~2
r+ + V (r) Cr s = El,k Cr s
2r dr 2 2r 2
~2 d2 s+1 l (l + 1) ~2 s
r + r + V (r) r s = El,k r s
2r dr 2 2r 2
~2 s1 l (l + 1) ~2 s
s (s + 1) r + r + V (r) r s = El,k r s
2r 2r 2
~2 l (l + 1) ~2 s2
s (s + 1) r s2 + r + [V (r) El,k ] r s = 0
2 2
 
s2 ~2 l (l + 1) ~2 2
r s (s + 1) + + [V (r) El,k ] r = 0
2 2
12.6. ESTADOS ESTACIONARIOS DE UNA PARTICULA EN UN POTENCIAL CENTRAL 353

asumimos que r 6= 0 de modo que


~2 l (l + 1) ~2
s (s + 1) + + [V (r) El,k ] r 2 = 0
2 2
tomando el lmite cuando r 0 y teniendo en cuenta la condicion (12.39)

s (s + 1) + l (l + 1) = 0
(l s) (s + l + 1) = 0 (12.41)

por tanto tenemos dos soluciones posibles

s=l o s = (l + 1) (12.42)

es decir que para un valor propio dado El,k hay dos soluciones linealmente independientes de la ecuacion de
segundo orden (12.34), que se comportan como r l y como 1/r l+1 en la vecindad del origen respectivamente. La
solucion 1/r l+1 claramente diverge en el origen para todos los valores de l. Adicionalmente, se puede demostrar
que la funcion Ylm (, ) /r l+1 no es una solucion de la ecuacion de valores propios (12.27) para r = 0, esto se debe
a que el laplaciano de Ylm (, ) /r l+1 involucra la lesima derivada de (r). Por tales razones, la solucion 1/r l+1
debe ser descartada.
De lo anterior las soluciones aceptables para (12.37) deben ir a cero en el origen para todo l ya que

lm ul,k (r) = lm [rRl,k (r)] Cr l+1 (12.43)


r0 r0

de modo que a la Ec. (12.37) se le debe agregar la condicion

ul,k (0) = 0 (12.44)

en la Ec. (12.37) r va entre 0 e infinito. Sin embargo, es posible asumir el problema como un problema unidi-
mensional equivalente en donde r tome todos los valores reales pero con potencial efectivo infinito para valores
negativos de r. En tal caso, la funcion de onda toma valores identicamente ceros en la parte negativa de r y la
condicion (12.44) asegura la continuidad de la funcion de onda en r = 0.

12.6. Estados estacionarios de una partcula en un potencial central


Hemos visto que cuando el potencial V (r) es independiente de y podemos requerir que las autofunciones
del Hamiltoniano sean tambien autofunciones de L2 y L3 . Esto permite aseverar que la dependencia angular viene
dada por las autofunciones de L2 y L3 es decir los armonicos esfericos
1
l,m,k (r) = Rl,k (r) Ylm (, ) = ul,k (r) Ylm (, ) (12.45)
r
por tanto, la ecuacion de valores propios del Hamiltoniano que involucra a r, , puede ser reemplazada por una
ecuacion diferencial que solo involucra a r y que depende del parametro l, Ec. (12.37), dicha ecuacion junto con
la condicion (12.44) nos dictamina la dependencia radial de la funcion de onda. Notese que estas caractersticas
emulan el comportamiento clasico.
Las funciones l,m,k (r, , ) deben ser de cuadrado integrable
Z
|l,m,k (r, , )|2 r 2 dr d = 1

la estructura de la funcion de onda Ec. (12.45) permite separar la parte radial y la angular
Z Z Z
2 2 2
|l,m,k (r, , )| r dr d = 2
r dr |Rl,m,k (r)| |Ylm (, )|2 d = 1
0
354 CAPITULO 12. INTERACCIONES CENTRALES EN MECANICA CUANTICA

y puesto que los armonicos esfericos estan normalizados entonces la funcion radial esta normalizada por aparte
Z Z
r 2 dr |Rl,m,k (r)|2 = dr |ul,m,k (r)|2 = 1 (12.46)
0 0

en realidad es conveniente aceptar en algunos casos autofunciones que no sean de cuadrado integrable. Esto ocurre
cuando al menos parte del espectro de H es contnuo, en cuyo caso requerimos que las funciones de onda sean
ortonormales en el sentido extendido es decir
Z Z
2

r dr Rl,k (r) Rl,k (r) = dr ul,k (r) ul,k (r) = k k (12.47)
0 0

siendo k un ndice contnuo.


En las Ecs. (12.46, 12.47), los integrandos convergen en su lmite inferior r = 0 debido a la condicion (12.44).
Esto es fsicamente necesario ya que la probabilidad de encontrar a la partcula en cualquier volumen de dimension
finita permanece finita (en particular para un volumen que contiene al origen)6 . Por tanto, es solo debido al
comportamiento de la funcion de onda en r que la integral (12.47) diverge en k = k cuando el espectro es
contnuo.
Las Ecs. (12.45) nos dicen que las funciones propias del Hamiltoniano de una partcula inmersa en un poten-
cial central V (r) dependen de por lo menos tres ndices l, m, k (k podra representar varios ndices contnuos o
discretos). La funcion l,m,k (r) en (12.45) es autofuncion simultanea de H, L2 , L3 con autovalores El,k , l (l + 1) ~2
y m~. A k se le conoce como numero cuantico radial, l se denomina numero cuantico azimutal y m el numero
cuantico magnetico. La parte radial Rl,k (r) = ul,k /r de la autofuncion as como el autovalor El,k no dependen del
numero cuantico magnetico m y estan dadas por la ecuacion radial (12.37) junto con la condicion (12.44). Por
otro lado, la parte angular de la funcion de onda (armonicos esfericos) depende de l y m pero no de k, dicha parte
angular es independiente de la forma del potencial V (r).

12.6.1. Degeneracion de los niveles de energa


Consideraremos ahora el problema de la degeneracion de los niveles de energa. Las 2l+1 funciones l,m,k (r, , )
con l y k fijos y m variando entre l y l son autofunciones de H con el mismo valor propio El,k , dado que estas
2l +1 funciones corresponden a valores propios diferentes de L3 seran claramente ortogonales. En consecuencia hay
por lo menos un degeneracion de orden 2l + 1 del valor propio El,k , tal degeneracion es independiente de la forma
del potencial y por esta razon se denomina una degeneracion esencial. La degeneracion esencial se debe al hecho
de que H contiene a L2 pero no a L3 y a que el Hamiltoniano es siempre invariante rotacional (escalar). Puesto
que H contiene a L2 pero no a L3 , se tiene que m no aparece en la ecuacion radial que proviene del problema de
valores propios del Hamiltoniano pero s aparece l.
No obstante, es posible que El,k correspondiente a la ecuacion radial con operador Hl coincida con El ,k de otra
ecuacion radial (l 6= l ). Esto ocurre para ciertos potenciales, y se conoce como degeneraciones accidentales. En
particular, el potencial de Coulomb que describe a los atomos hidrogenoides exhibe degeneraciones accidentales.
La ecuacion radial (12.37) para un l fijo, al ser una ecuacion de segundo orden posee a priori dos soluciones
linealmente independientes. Sin embargo, la condicion (12.44) ha surgido de eliminar una de ellas puesto que se
descarto el comportamiento del tipo lmr0 Rl,k (r) = 1/r l+1 . Por tanto solo tenemos una solucion linealmente
independiente para cada El,k . Debemos tambien considerar el comportamiento de las soluciones para r . Si
V (r) 0 cuando r los valores de El,k para los cuales la solucion clasica es acotada ( y que cuanticamente
cumplen la condicion 12.44) forman un conjunto discreto, como veremos mas adelante para el atomo de Hidrogeno.
Si asumimos que los operadores H, L2 y L3 son observables, la discusion anterior nos muestra que constituyen
un C.S.C.O. ya que para valores fijos de El,k solo hay una funcion radial linealmente independiente, y para
l y m fijos la funcion angular (armonico esferico) es unica. Por tanto, para un conjunto dado de autovalores
6
Notese que si no se hubiera descartado la posibilidad de que lmr0 Rl,k (r) 1/r l+1 , hubiesemos tenido comportamiento divergente
en el origen.
12.6. ESTADOS ESTACIONARIOS DE UNA PARTICULA EN UN POTENCIAL CENTRAL 355

El,k , l (l + 1) ~2 , m~ existe una unica funcion normalizada (dentro de factores de fase) del tipo l,m,k (r). El
autovalor de L2 dictamina la forma especfica de la ecuacion radial, el autovalor de H nos determina la funcion
radial Rl,k (r) de forma unica y m determina junto con l el armonico esferico (solucion angular).
Captulo 13

Atomos hidrogenoides

El problema de mayor interes de la interaccion central entre dos cuerpos microscopicos lo constituyen los atomos
Hidrogenoides consistentes en un nucleo y un electron. Tal es el caso del atomo de Hidrogeno y sus isotopos el
deuterio y el tritio. As mismo tambien son atomos hidrogenoides los iones con un solo electron como el He+ , Li++
etc. Veremos mas adelante que los atomos alcalinos (con un solo electron en el ultimo nivel de energa) se pueden
tratar tambien como Hidrogenoides si consideramos que los electrones internos actuan como un apantallamiento
del nucleo y que el sistema nucleo-electrones internos actua como un nucleo efectivo para el electron externo.
De momento trabajaremos con el caso mas simple.

13.1. El atomo de Hidrogeno


El atomo de Hidrogeno consiste en un electron y un proton que interactuan de manera esencialmente elec-
trostatica, es decir bajo un potencial de la forma

q2 e2 q2
V (r) = = ; e2
40 r r 40
siendo r la distancia entre el proton y el electron, q corresponde a la carga electronica en unidades SI en tanto
que e es el valor en unidades cgs. Numericamente tenemos los siguientes valores aproximados para la masa mp del
proton, me del electron y la carga q del proton

mp = 1,7 1027 kg ; me = 0,91 1030 kg ; q = 1,6 1019 Coulombs

puesto que se trata de dos partculas sujetas a una interaccion central, podemos reducirlo al problema de una
partcula libre con masa mp + me y con la dinamica del centro de masa, junto con una partcula de masa
sometida a una fuerza central y donde el vector posicion de la partcula , es el vector posicion relativo entre las
dos partculas reales (las partculas imaginarias estan desacopladas). Usaremos un Hamiltoniano del tipo (12.15)

p2 e2
H (r, p) = (13.1)
2 r
puesto que mp me la masa reducida del sistema sera practicamente la masa del electron
 
me mp me me
= me = me 1 = me
mp + me 1+ m p
mp

y el centro de masa del sistema esta practicamente en la posicion del proton. Por tanto la partcula imaginaria
asociada al centro de masa, tiene practicamente las caractersticas del proton (la masa del proton es casi la masa
total del sistema y el centro de masa esta practicamente en la posicion del proton). La partcula imaginaria de

356
13.2. PROBLEMA DE VALORES PROPIOS DEL ATOMO DE HIDROGENO 357

masa reducida tiene practicamente las caractersticas del electron, ya que la masa reducida del sistema es casi
la masa del electron y la posicion del electron con respecto al centro de masa es practicamente su posicion con
respecto al proton. Adoptaremos la posicion de que el proton esta en el centro de masa y que el electron es la
partcula relativa.
Con el fin de fijar el valor de ciertos parametros, usaremos el modelo semi-clasico de Bohr que si bien no es
compatible con nuestros postulados, permitira definir conceptos y parametros utiles para el estudio de los espectros
atomicos. Dentro de este modelo el electron viaja en una orbita circular de radio r alrededor del proton, la energa
total es la energa cinetica mas la potencial electrostatica y obedece la segunda ley de Newton. Adicionalmente,
el momento angular del electron esta cuantizado en unidades de ~, estas suposiciones se condensan en

1 2 v2 e2
E = v + V (r) ; = V (r) ; l = n~ ; V (r) =
2 r r
1 2 e2 v2 e2
E = v ; = 2 ; vr = n~ ; n entero positivo
2 r r r
las orbitas posibles son solo aquellas que cumplen la regla de cuantizacion del momento angular. Con este postulado
Bohr explico la existencia de niveles discretos de energa. Calculemos los valores cuantizados de En , rn y vn . Para
ello primero se calcula la energa de ionizacion EI que es la energa que se le debe dar al atomo de Hidrogeno en
su estado base para remover su electron. Tambien se pueden estimar con base en el modelo, el radio del atomo
para el estado base (radio de Bohr a0 ) y la velocidad del electron v0 en el estado base, tales cantidades dan

e4 ~2 e2
EI = ; a0 = ; v0 = (13.2)
2~2 e2 ~
con estos parametros de entrada los valores cuantizados de En , rn y vn son
1 1
En = 2
EI ; rn = n2 a0 ; vn = v0 (13.3)
n n
los valores experimentales de EI y de los niveles de energa En estuvieron en concordancia con la teora de Bohr.
Un estimativo de la energa de ionizacion y del radio que caracteriza las dimensiones atomicas es

EI
= 13,6eV , a0
= 0,52 A

puede verse que el principio de incertidumbre explica la existencia de un estado base estable y permite ademas la
estimacion del orden de magnitud de la energa base y de la extension espacial de su funcion de onda.

13.2. Problema de valores propios del atomo de Hidrogeno


Dado que el potencial es central, podemos aplicar los resultados del captulo 12. En la representacion {|ri}, el
Hamiltoniano (13.1) cuantizado esta dado por

~2 2 e2
H = (13.4)
2m r
y la ecuacion de valores propios del Hamiltoniano es
 
~2 2 e2
(r) = E (r)
2m r

la funcion propia (r) admite la forma


1
l,m,k (r) = ul,k (r) Ylm (, )
r
358 CAPITULO 13. ATOMOS HIDROGENOIDES

donde ul,k (r) esta dado por la ecuacion (12.37)


 
~2 d2 l (l + 1) ~2 e2
+ ul,k (r) = El,k ul,k (r) (13.5)
2 dr 2 2r 2 r

a la cual le debemos agregar la condicion (12.44)

ul,k (0) = 0 (13.6)

El espectro de H posee una parte discreta (energas negativas) y una parte contnua (energas positivas). El
espectro contnuo esta asociado con el hecho de que para E > 0 la region accesible clasica no esta acotada, en
este caso las autofunciones asociadas no seran de cuadrado integrable. En contraste, para E < 0, la naturaleza
discreta del espectro esta asociada con el hecho de que la region accesible clasicamente es acotada, en tal caso las
funciones propias son de cuadrado integrable.
Es comodo trabajar de modo que a0 y EI sean las unidades de longitud y energa, lo cual se logra introduciendo
los parametros adimensionales s
r El,k
= ; l,k = (13.7)
a0 EI
Vamos a examinar los estados acotados de energa negativa por lo cual el signo negativo dentro del radical es de
hecho necesario. Usando la primera de las Ecs. (13.7) en la ecuacion radial (13.5), esta se escribe como
 2 
~ d2 l (l + 1) ~2 e2
+ ul,k () = El,k ul,k ()
2 d (a0 )2 2 (a0 )2 a0
 
~2 d2 l (l + 1) ~2 1 e2
+ E l,k ul,k () = 0
2a20 d2 2a20 2 a0

multiplicando la ecuacion por 2a20 /~2 se obtiene


 2 
d l (l + 1) 2a0 e2 2a20
+ 2 + 2 El,k ul,k () = 0
d2 2 ~ ~

y usando las Ecs. (13.2)


(    2 )
d2 l (l + 1) 2 ~2 e2 2 ~2
+ 2 + 2 El,k ul,k () = 0
d2 2 ~ e2 ~ e2
 
d2 l (l + 1) 2 2~2
+ + 4 El,k ul,k () = 0
d2 2 e
 2  
d l (l + 1) 2 El,k
+ ul,k () = 0
d2 2 EI

finalmente usando la segunda de las Ecs. (13.7) la ecuacion radial queda


 2 
d l (l + 1) 2 2
+ l,k ul,k () = 0 (13.8)
d2 2

Un analisis asintotico cualitativo del comportamiento de ul,k () nos permitira simplificar la forma de la Ec.
(13.8). Cuando , los terminos proporcionales a 1/ y 1/2 se vuelven despreciables y la Ec. (13.8) se
convierte en  2 
d 2
l,k ul,k () = 0
d2
13.3. SOLUCION DE LA ECUACION RADIAL POR SERIES DE POTENCIAS 359

cuyas soluciones son el,k . Sin embargo, mas adelante veremos que incluso en este lmite no se puede despreciar
completamente a los terminos 1/ y 1/2 lo cual nos llevara a soluciones del tipo n el,k .
No obstante, este analisis asintotico cualitativo permite encontrar una forma aproximada de la solucion espe-
rada en la asntota. Notese que la solucion el,k es divergente en lo cual nos permite predecir que este
tipo de solucion sera descartada. Todo lo anterior nos induce a realizar el siguiente cambio de variable

ul,k () = el,k yl,k () (13.9)

naturalmente este cambio de variable no significa ninguna perdida de generalidad, ni descarta ningun tipo de
solucion. Simplemente, parece simplificar a priori la forma funcional de la solucion que de antemano consideramos
como aceptable. Realizando el cambio de variable (13.9) en la Ec. (13.8) nos queda

d2 h l,k i  l (l + 1) 2 
e yl,k () + + l,k el,k yl,k () = 0
2
(13.10)
d2 2
calculamos la derivada
 
d2 h l,k i d l,k l,k dyl,k ()
e y l,k () = l,k e yl,k () + e
d2 d d

dyl,k ()
= (l,k )2 el,k yl,k () l,k el,k
d
2 
l,k dyl,k () l,k d yl,k ()
l,k e +e
d d2
 
d d2
= el,k 2l,k 2l,k + 2 yl,k ()
d d

reemplazando esta derivada en (13.10) se obtiene


 
d d2 l (l + 1) 2
el,k 2l,k 2l,k + 2 + 2
l,k yl,k () = 0
d d 2

simplificando y reorganizando queda finalmente


 2  
d d 2 l (l + 1)
2l,k + yl,k () = 0 (13.11)
d2 d 2

y la condicion (13.6) queda


yl,k (0) = 0 (13.12)

13.3. Solucion de la ecuacion radial por series de potencias


13.3.1. Serie de potencias radial y relaciones de recurrencia
Consideraremos la expansion de yl,k () en series de potencias

X
s
yl,k () = cq q (13.13)
q=0

donde por definicion c0 es el primer coeficiente no nulo en la expansion

c0 6= 0
360 CAPITULO 13. ATOMOS HIDROGENOIDES

La condicion (13.12) implica que s es estrictamente positivo. De modo que s es la mmima potencia de que
aparece en la expansion (13.13). Calculemos la primera y segunda derivada de la expansion (13.13)


dyl,k () d X X
= cq q+s = (q + s) cq q+s1 (13.14)
d d
q=0 q=0

2 X X
d yl,k () d q+s1
= (q + s) cq = (q + s) (q + s 1) cq q+s2 (13.15)
d2 d q=0 q=0

reemplazando (13.13, 13.14, 13.15) en (13.11) resulta


 
d2 yl,k () dyl,k () 2 l (l + 1)
2l,k + yl,k () = 0
d2 d 2

X
X  
2 l (l + 1) X
(q + s) (q + s 1) cq q+s2 2l,k (q + s) cq q+s1 + cq q+s = 0
2
q=0 q=0 q=0


X
X
X
X
(q + s) (q + s 1) cq q+s2 2l,k (q + s) cq q+s1 + 2cq q+s1 l (l + 1) cq q+s2 = 0
q=0 q=0 q=0 q=0

X
X
[(q + s) (q + s 1) l (l + 1)] cq q+s2 + [2 2l,k (q + s)] cq q+s1 = 0
q=0 q=0

escribiendo separadamente el primer termino de la primera sumatoria



X
s2
0 = [s (s 1) l (l + 1)] c0 + [(q + s) (q + s 1) l (l + 1)] cq q+s2
q=1

X
+ [2 2l,k (q + s)] cq q+s1 (13.16)
q=0

para la primera sumatoria hacemos q = q 1 de modo que



X
X    
[(q + s) (q + s 1) l (l + 1)] cq q+s2 = q + s + 1 q + s l (l + 1) cq +1 q +s1 (13.17)
q=1 q =0

reemplazando (13.17) en (13.16) y teniendo en cuenta que los ndices son mudos resulta

X
0 = [s (s 1) l (l + 1)] c0 s2 + [(q + s + 1) (q + s) l (l + 1)] cq+1 q+s1
q=0

X
+ 2 [1 l,k (q + s)] cq q+s1
q=0

X
[s (s 1) l (l + 1)] c0 s2 + {[(q + s + 1) (q + s) l (l + 1)] cq+1 + 2 [1 l,k (q + s)] cq } q+s1 = 0
q=0

para que la serie sea cero para todo , es necesario y suficiente que cada coeficiente de la expansion sea cero lo
cual nos conduce a
[s (s 1) l (l + 1)] c0 = 0
[(q + s + 1) (q + s) l (l + 1)] cq+1 + 2 [1 l,k (q + s)] cq = 0 ; q = 0, 1, . . . ,
13.3. SOLUCION DE LA ECUACION RADIAL POR SERIES DE POTENCIAS 361

que se pueden reescribir como

(s l 1) (s + l) c0 = 0 (13.18)
[(q + s + 1) (q + s) l (l + 1)] cq+1 = 2 [l,k (q + s) 1] cq ; q = 0, 1, . . . , (13.19)

y teniendo en cuenta que c0 6= 0 por definicion, la Ec. (13.18) nos dice que s solo puede tomar dos valores

s = l + 1 o s = l

pero recordando que s debe ser estrictamente positivo para garantizar un comportamiento aceptable en el origen
(condicion 13.12), el unico valor aceptable como solucion es

s=l+1 (13.20)

Esto es consistente con la discusion de la seccion 12.5.2, Eq. (12.43). Reemplazando s = l + 1 en (13.19) se obtiene

[(q + l + 2) (q + l + 1) l (l + 1)] cq+1 = 2 [l,k (q + l + 1) 1] cq ; q = 0, 1, . . . ,

haciendo q = q + 1 esta relacion se convierte en


      
q + l + 1 q + l l (l + 1) cq = 2 l,k q + l 1 cq 1 ; q = 1, 2, . . . ,

teniendo en cuenta que q es ndice mudo y reorganizando terminos se obtiene

q (q + 2l + 1) cq = 2 [(q + l) l,k 1] cq1 ; q = 1, 2, . . . , (13.21)

la Ec. (13.21) define una relacion de recurrencia para los coeficientes de la expansion (13.13). Si fijamos c0 podemos
calcular todos los demas coeficientes con esta recurrencia. Por otro lado, de la Ec. (13.21) se obtiene

cq 2 [(q + l) l,k 1]
= (13.22)
cq1 q (q + 2l + 1)

que claramente tiende a cero cuando q 0, por tanto la serie converge para todo (criterio del cociente para
series). En consecuencia, hemos determinado para todo l,k una solucion de (13.11) que satisface la condicion
(13.12).

13.3.2. Condicion asintotica y truncamiento de la serie


Ya hemos mirado la condicion en el origen pero no en . Si el termino entre parentesis a la derecha de
(13.21) no es cero para ningun valor entero q, la expansion (13.13) sera una verdadera serie ya que la relacion de
recurrencia generara infinitos coeficientes cq , para q grande podemos ver de (13.22) que

cq 2ql,k 2l,k
lm = 2
(13.23)
q cq1 q q

ahora la expansion en series de potencias de la funcion e2l,k es



X (2l,k )q dq 2l,k
e2l,k = dq q ; dq = = (13.24)
q! dq1 q
q=0

comparando (13.23) con (13.24) se puede demostrar que para valores grandes de , la serie se comporta en la
forma e2l,k . De la Ec. (13.9), la funcion radial ul,k (r) se comporta como

ul,k () el,k
362 CAPITULO 13. ATOMOS HIDROGENOIDES

la cual no es fsicamente aceptable1 . Por tanto, no es aceptable una solucion en serie (cantidad infinita de terminos
no nulos). En consecuencia, es necesario que la expansion (13.13) sea truncada y se convierta en una sumatoria
(polinomio). En tal caso la Ec. (13.9) nos dice que el comportamiento asintotico de ul,k (r) es el producto de un
polinomio por una funcion el,k el cual es aceptable.
Definiremos ck como el primer coeficiente nulo de la expansion. Esto equivale a decir que existe un valor
entero positivo k tal que ck1 6= 0, pero el termino entre parentesis a la derecha de (13.21) es cero para q = k. En
tal caso, la relacion de recurrencia (13.21), nos indica que el coeficiente ck sera nulo y que los terminos subsecuentes
tambien seran nulos. La expansion (13.13) sera un polinomio ya que la relacion de recurrencia generara un numero
finito de coeficientes cq . Para un valor fijo de l, rotulamos el correspondiente valor de l,k con este entero k. Es
claro que k 1, puesto que c0 6= 0. Igualando a cero el termino entre parentesis a la derecha de (13.21) cuando
q = k se obtiene
1
l,k = ; k = 1, 2, 3, . . . (13.25)
l+k
reemplazando estos valores permitidos de l,k en la Ec. (13.7) para la energa se obtiene
s
1 El,k
=
l+k EI
EI
El,k = ; k = 1, 2, 3, . . . (13.26)
(l + k)2

Tomando en cuenta (13.13, 13.20), y el hecho de que cq = 0 para q k, la funcion yl,k () queda en la forma

k1
X
l+1
yl,k () = cq q (13.27)
q=0

tenemos entonces que yl,k () es un polinomio donde la menor potencia es l+1 y la maxima potencia es l+k .

13.3.3. Coeficientes del polinomio radial en terminos de c0


La relacion de recurrencia (13.21) permite encontrar los coeficientes del polinomio a partir de c0 , reemplazando
(13.25) en (13.21) la relacion de recurrencia queda
 
1 2 (q + l) 2 (l + k)
q (q + 2l + 1) cq = 2 (q + l) 1 cq1 = cq1
l+k (l + k)
2q + 2l 2l 2k
q (q + 2l + 1) cq = cq1
(l + k)
2 (k q)
cq = cq1 (13.28)
q (q + 2l + 1) (l + k)

demostraremos por induccion que


 q
2 (k 1)! (2l + 1)!
cq = (1)q c0 (13.29)
l+k (k q 1)! q! (q + 2l + 1)!
1
Esta funcion radial diverge cuando . Ademas no es de cuadrado integrable, en tanto que para soluciones de energa negativa
(acotadas clasicamente), se esperan funciones de cuadrado integrable. Ademas, estas funciones ni siquiera son ortonormales en el sentido
extendido.
13.3. SOLUCION DE LA ECUACION RADIAL POR SERIES DE POTENCIAS 363

primero para q = 1, la relacion (13.28) nos dice que2


 
2 (k 1) 2 1
c1 = c0 = (k 1) c0
1 (1 + 2l + 1) (l + k) l+k 1 (1 + 2l + 1)
 1
1 2 (k 1)! (2l + 1)!
c1 = (1) c0
l+k (k 2)! 1! (1 + 2l + 1)!
 1
1 2 (k 1)! (2l + 1)!
c1 = (1) c0 (13.30)
l+k (k 1 1)! 1! (1 + 2l + 1)!

comparando (13.30) con (13.29) vemos que (13.29) se cumple para q = 1. Ahora asumimos que se cumple para q
y demostraremos que se cumple para q + 1. Usando (13.28) con q q + 1 se obtiene

2 (k q 1)
cq+1 = cq
(q + 1) (q + 2l + 2) (l + k)
(q + 1) (q + 2l + 2) (l + k)
cq = cq+1 (13.31)
2 (k q 1)

reemplazando (13.31) en (13.29) tenemos

 q
q 2 (k 1)! (2l + 1)!
cq = (1) c0
l+k (k q 1)! q! (q + 2l + 1)!
 q
(q + 1) (q + 2l + 2) (l + k) 2 (k 1)! (2l + 1)!
cq+1 = (1)q c0
2 (k q 1) l+k (k q 1)! q! (q + 2l + 1)!

 q
2 2 (k 1)! (k q 1) (2l + 1)!
cq+1 = (1) (1)q c0
(l + k) l + k (k q 1)! q! (q + 1) (q + 2l + 1)! (q + 2l + 2)
 q+1
2 (k 1)! (2l + 1)!
cq+1 = (1)q+1 c0
l+k (k q 2)! (q + 1)! (q + 2l + 2)!
 q+1
2 (k 1)! (2l + 1)!
cq+1 = (1)q+1 c0 (13.32)
l+k [k (q + 1) 1]! (q + 1)! [(q + 1) + 2l + 1]!

comparando (13.32) con (13.29) vemos que si la relacion (13.29) se cumple para q entonces se cumple para q + 1,
lo cual demuestra la validez de (13.29).

13.3.4. Calculo de c0 y de la funcion radial para l = 0, k = 1


Ahora falta evaluar a c0 , lo cual se logra con la ecuacion de normalizacion (12.46). Notese que la Ec. (13.25)
nos dice que l = k = 0 esta prohibido, ya que k 1. Por tanto, calcularemos explcitamente la funcion radial mas
simple que es ul=0,k=1 (r). Comenzaremos empleando las ecuaciones (13.27) con l = 0, k = 1
k1
X 0
X
yl,k () = l+1 cq q y0,1 () = 0+1 cq q = c0
q=0 q=0

verifiquemos explcitamente que ck = c1 = 0. Usando (13.28) para l = 0 y q = k = 1 se obtiene

2 (k q) 2 (1 1)
cq = cq1 c1 = c0 = 0
q (q + 2l + 1) (l + k) 1 [1 + 2 (0) + 1] (0 + 1)
2
Tambien podemos ver que para q = 0, la Ec. (13.29) conduce a c0 = c0 . Por tanto podemos comenzar la induccion con q = 0.
364 CAPITULO 13. ATOMOS HIDROGENOIDES

ahora usando (13.9, 13.25) y la relacion entre y r Ec. (13.7)


1
u0,1 () = e0,1 y0,1 () ; 0,1 = = 1 u0,1 () = c0 e
0+1
c0 r/a0
u0,1 (r) = re
a0
finalmente usamos la ecuacion de normalizacion (12.46) y elegimos c0 con fase cero (constante real positiva)
Z Z Z
2 2 c20 2 2r/a0
|ul,k (r)| dr = 1 |u0,1 (r)| dr = 1 2 r e dr = 1
0 0 a0 0
Z
1 2 r  1
r 2 e2r/a0 dr = a0 e a0 a20 + 2a0 r + 2r 2 = a30
0 4 0 4
c20 a30 c20 a0
= 1 =1
4a20 4
(0,1) 2
c0 = (13.33)
a0

donde hemos tenido en cuenta que c0 en general depende de los valores de l y k. Finalmente la funcion radial
Rl,k (r) esta dada por (12.36), para el caso de l = 0, k = 1 se tiene que
(0,1)
1 1 c0 2 1 r/a0
R0,1 (r) = u0,1 (r) = rer/a0 = e
r r a0 a0 a0
2 r/a0
R0,1 (r) = 3/2
e
a0

13.3.5. Calculo de c0 y de la funcion radial para l = 0, k = 2


Calculemos ahora Rl,k (r) con l = 0, k = 2. Usando las Ecs. (13.27) con l = 0, k = 2
k1
X 1
X
l+1 q 0+1
yl,k () = cq y0,2 () = cq q = (c0 + c1 )
q=0 q=0

usando (13.28) para l = 0, k = 2, q = 1, 2 se obtiene

2 (k q) 2 (2 1) 1
cq = cq1 c1 = c0 = c0
q (q + 2l + 1) (l + k) (1 + 1) (0 + 2) 2
2 (2 2)
c2 = c1 = 0
2 (2 + 1) (0 + 2)

verificando una vez mas que ck = c2 = 0. Con estos coeficientes y0,2 () queda
   
1 1
y0,2 () = c0 c0 = c0 1
2 2

y usando (13.9, 13.25, 13.7)


 
0,2 1 1 1 1
u0,2 () = e y0,2 () ; 0,2 = = u0,2 () = c0 1 e 2
0+2 2 2
 
r r r
u0,2 (r) = c0 1 e 2a0 (13.34)
a0 2a0
13.3. SOLUCION DE LA ECUACION RADIAL POR SERIES DE POTENCIAS 365

ahora debemos calcular el c0 que normaliza a u0,2 (r) de acuerdo con las Ecs. (13.34, 12.46) eligiendo fase cero
para c0
Z Z  2  
2 2 r r 2 ar
|u0,2 (r)| dr = 1 c0 1 e 0 dr = 1
0 0 a0 2a0
evaluando la integral
Z  2  2
r r ar 1 a1 r 
1 e 0 dr = 3 e 0 8a0 + 8a0 r + 4a0 r + r = 2a0
4 3 2 2 4
0 a0 2a0 4a0 0

por tanto
(0,2) 1
c20 (2a0 ) = 1 c0 =
2a0
reemplazando en (13.34) queda
   
1 r r 2ar 2r r 2ar
u0,2 (r) = 1 e 0 = 1 e 0
2a0 a0 2a0 (2a0 )3/2 2a0
 
2 r 2ar
R0,2 (r) = 1 e 0
(2a0 )3/2 2a0

13.3.6. Calculo de c0 y de la funcion radial para l = k = 1


Como ultimo ejemplo evaluamos Rl,k (r) para l = k = 1. Usando (13.27) con l = k = 1

k1
X 0
X
l+1 q 1+1
yl,k () = cq ; y1,1 () = cq q
q=0 q=0
2
y1,1 () = c0

usando (13.9, 13.25, 13.7)


1 1 r2 r
u1,1 () = e1,1 y1,1 () ; 1,1 = = u1,1 (r) = c0 2 e 2a0 (13.35)
1+1 2 a0
normalizando u1,1 (r) con las Ecs. (13.35, 12.46) con c0 positivo
Z Z 4
2 2 r ar
|u1,1 (r)| dr = 1 c0 e 0 dr = 1
0 0 a40
evaluando la integral
Z  
r 4 ar 1 ar 4 
e 0 dr = 3 e 0 r + 4r a0 + 12r a0 + 24ra0 + 24a0 = 24a0
3 2 2 3 4
0 a40 a0 0

con lo cual resulta


(1,1) 1 1 1
c20 (24a0 ) = 1 c0 = =
24a0 2 6a0
quedando
1 1 r 2 2ar 1 r 2 2ar 1 r 2 2ar
u1,1 (r) = e 0 = e 0 = e 0
2 6a0 a20 2 2 3 a5/2 (2a0 ) 3/2
3 a 0
0
quedando finalmente
1 1 r 2ar
R1,1 (r) = 3/2
e 0
(2a0 ) 3 a0
366 CAPITULO 13. ATOMOS HIDROGENOIDES

13.3.7. Estructura de los niveles de energa


La Ec. (13.26) nos muestra que en el atomo de Hidrogeno, l y k no definen un nivel de energa por separado,
es conveniente introducir un numero cuantico de la forma

nl+k (13.36)

de modo que n determina unvocamente el valor de la energa segun se observa en (13.26) ya que en tal caso
tenemos
EI
En = 2 ; n = 1, 2, 3, . . .
n
Puesto que determinar n y l es equivalente a determinar k y l, sera mas conveniente reemplazar a k por n. En
consecuencia, utilizaremos los numeros cuanticos n, l, m en lugar de k, l, m de aqu en adelante. En virtud de que
n define la energa, se denomina el numero cuantico principal, de aqu en adelante citaremos los numeros
cuanticos usando primero el numero cuantico principal, luego el numero cuantico azimutal y finalmente el numero
cuantico magnetico i.e. n, l, m.

13.4. Parametros atomicos


Las formulas para la funcion de onda han sido escritas tomando a a0 (radio de Bohr) como unidad de longitud
que nos dara una idea de la extension espacial de las funciones de onda de los estados acotados del atomo de
Hidrogeno. Similarmente, la energa de ionizacion EI se utilizara para obtener el orden de magnitud de los niveles
de energa. Las ecuaciones (13.2) se pueden reescribir como
 2  
e4 e4 c2 1 e2 ~2 ~2 c ~c ~
EI = 2
= 2 2 = c2 ; a0 = 2
= 2 = 2
2~ 2~ c 2 ~c e e c e c

que se pueden reescribir como

1 1 e2 q2 ~
EI = 2 c2 , a0 = el ; = ; el (13.37)
2 ~c 40 ~c c
la constante adimensional se conoce como constante de estructura fina. Por otro lado puesto que me se
tiene que el esta relacionada con la longitud de onda de compton del electron C [ver Ec. (2.11) Pag. 114].
Numericamente
1 C ~
; el 3,8 103 A (13.38)
137 2 me c
la segunda de las Ecs. (13.37) nos dice que el radio de Bohr (radio atomico tpico) es unas dos ordenes de magnitud
mayor que la longitud de onda de Compton del electron. La primera de las Ecs. (13.37) se escribe numericamente
como
 
1 2 2 1 1 2
EI me c me c2 EI 2. 7 105 me c2
2 2 137
me c2 0,5 106 eV

de modo que la energa de enlace tpica de un atomo es unas 105 veces menor que la energa en reposo del
electron me c2 .
EI me c2
esta relacion es indispensable para poder justificar una aproximacion no relativista al problema. Los efectos
relativistas son pequenos pero observables. Debido a que los efectos relativistas son pequenos pueden calcularse a
traves de la teora de perturbaciones.
13.5. RESUMEN DE RESULTADOS 367

13.5. Resumen de resultados


Para el atomo de Hidrogeno, que es un problema de dos cuerpos (un proton y un electron) reducimos el problema
al de una partcula equivalente de masa aproximadamente igual a la masa me del electron (masa reducida del
sistema) y en donde el centro de masa esta aproximadamente en la posicion del proton. Es conveniente expresar los
resultados en terminos del radio de Bohr a0 y la energa de ionizacion EI los cuales en terminos de las constantes
fsicas universales vienen dados por
 
e4 1 2 2 ~2 1 ~ 1
EI = 2
= c ; a0 = 2 = el (13.39)
2~ 2 e c
e2 q2 ~
= ; el (13.40)
~c 40 ~c me c
Siendo la constante de estructura fina y el la longitud de onda de Compton del electron. Teniendo en cuenta
la Ec. (13.36)
nl+k
enunciaremos los resultados en terminos de los numeros cuanticos n, l, m. Un estado sera rotulado usando el orden
|n, l, mi, es decir usando primero el numero cuantico principal n, luego el numero cuantico azimutal l y finalmente
el numero cuantico magnetico m.
La funcion de onda asociada es de la forma
un,l (r)
n,l,m (r, , ) = Rn,l (r) Ylm (, ) = Ylm (, ) (13.41)
r r
n r En 1 eim
un,l () = e yn,l () ; ; n = ; Ylm (, ) = Zl,m () (13.42)
a0 EI n 2
y los valores de energa son
EI
En = ; n = 1, 2, 3, . . . (13.43)
n2
siendo Ylm (, ) los armonicos esfericos. La solucion de la funcion radial yn,l () es un polinomio dado por
nl1
X
yn,l () = l+1 cq q (13.44)
q=0

donde los coeficientes cq se pueden encontrar a partir de c0 , con la siguiente formula de recurrencia
2 (n l q)
cq = cq1 (13.45)
q (q + 2l + 1) n
 q
q 2 (n l 1)! (2l + 1)!
cq = (1) c0 (13.46)
n (n l q 1)! q! (q + 2l + 1)!
finalmente la constante c0 (que en general depende de los valores de n y l) se determina como constante de
normalizacion para la funcion radial un,l (r)
Z
|un,l (r)|2 dr = 1 (13.47)
0

a manera de ejemplo escribimos explcitamente algunas funciones radiales


 
3/2 r/a0 3/2 r 2ar
Rn=1,l=0 (r) = 2 (a0 ) e ; R2,0 (r) = 2 (2a0 ) 1 e 0 (13.48)
2a0
1 r 2ar
R2,1 (r) = (2a0 )3/2 e 0 (13.49)
3 a0
368 CAPITULO 13. ATOMOS HIDROGENOIDES

13.6. Discusion de los resultados


La Ec. (13.43) nos da el espectro de energas del atomo de Hidrogeno

EI
El,k = ; k = 1, 2, 3, ... (13.50)
(l + k)2

y nos muestra que para un l fijo existen infinitos valores de energa asociados a k = 1, 2, 3, .... Adicionalmente,
para cada par l, k la energa posee al menos una degeneracion de orden 2l + 1 debido a los diferentes valores
de m asociados a l fijo, esta degeneracion debida a la ausencia del numero cuantico m en la ecuacion radial, se
denomina degeneracion esencial puesto que es propia de cualquier interaccion central. No obstante, tambien estan
presentes degeneraciones accidentales propias de la interaccion especfica, ya que la Ec. (13.50) nos dice que dos
autovalores El,k y El ,k asociados a ecuaciones radiales distintas (l 6= l ) seran iguales si l + k = l + k.
Usando ahora los numeros cuanticos n, l, m, la Ec. (13.50) queda

EI
En = ; n = 1, 2, 3, . . . (13.51)
n2

utilizando la terminologa espectroscopica un valor de n especifica una capa o nivel electronico.


Puesto que k es un entero positivo, hay un numero finito de valores de l asociados a un valor dado de n. De
la definicion de n Ec. (13.36) y los valores permitidos de k (1, 2, 3, ...) es claro que

l = 0, 1, 2, ..., n 1 ; n = 1, 2, 3, ...

Cada combinacion especfica n, l se denomina una subcapa o subnivel electronico. Puesto que hay n valores de l
para un n dado se dice que cada capa o nivel n contiene n subcapas o subniveles. Ahora bien, puesto que L2 , L3 y
H forman un C.S.C.O. se tiene que un estado esta definido unvocamente por una tripla (n, l, m). En consecuencia,
cada subnivel (n, l) contiene 2l + 1 estados diferentes asociados a los diferentes valores de m para l fijo.
Dado que n especifica unvocamente a la energa y (n, l, m) especifica completamente al estado, la degeneracion
de la energa para un n dado es el numero total de valores de l, m para dicho valor de n

n1 n1
!
X X 2n (n 1)
gn = (2l + 1) = 2 l +n= +n
2
l=0 l=0
gn = n2

veremos mas adelante que la presencia del momento angular intrnseco del electron nos duplica este valor. Si
tenemos en cuenta adicionalmente el espn del proton, tendramos un factor de dos adicional.
Usando una vez mas la notacion espectroscopica, los valores de l se denotan con una letra del alfabeto en la
siguiente forma
l=0s , l=1p , l=2d , l=3f , l=4g

la notacion espectroscopica rotula un subnivel por el numero n seguido por la letra que caracteriza al valor de l.
Por ejemplo, para el nivel base n = 1 (que no es degenerado segun la Ec. (13.51) y que se conoce como nivel
K) solo l = 0 es posible, de modo que solo tiene el subnivel 1s. El primer estado excitado n = 2 (conocido como
nivel L) permite l = 0, 1 de modo que contiene los subniveles 2s y 2p. El segundo estado excitado (nivel M )
posee los subniveles 3s, 3p, 3d.
Hemos visto que un estado se especifica con los numeros cuanticos n, l, m. Donde n, l especifica la dependencia
radial y l, m la dependencia angular. Veamos ahora las caractersticas de la dependencia angular.
13.6. DISCUSION DE LOS RESULTADOS 369

13.6.1. Dependencia angular


Si bien la funcion de onda
eim
(r, , ) = Rn,l (r) Ylm (, ) = Rn,l (r) Zl,m ()
2
depende de ambos angulos, puesto que la mayora de observables dependen del modulo al cuadrado de la funcion
de onda, debemos calcular la dependencia angular de |Ylm (, )|2 este modulo nos da
2
eim 1
2
|Ylm (, )| = Zl,m () = |Zl,m ()|2 (13.52)
2 2

vemos entonces que este modulo al cuadrado tiene simetra azimutal. Por tanto se obtiene una superficie de
revolucion alrededor del eje X3 de cuantizacion. En particular, |Y00 |2 es constante y por tanto esfericamente
2
simetrico. |Y1m (, )|2 es proporcional a cos2 ; |Y2m (, )|2 es proporcional a 3 cos2 1 etc.
La funcion radial Rn,l (r) caracteriza a cada subnivel y se puede calcular con los resultados de la seccion 13.5
introduciendo nuestro cambio de notacion de Rl,m,k (r) a Rn,l,m (r) .
El comportamiento de Rn,l (r) en la vecindad del origen es del tipo r l , de modo que solo los estados que
pertenecen a un subnivel s (l = 0) tienen una densidad de probabilidad diferente de cero en el origen. A medida
que l aumenta, es mayor la region alrededor del proton para la cual la probabilidad de encontrar el electron es
despreciable, es de esperarse que esto aumente el valor esperado del radio atomico3 . Esto tiene consecuencias en
procesos fsicos tales como la captura de electrones por nucleos y la estructura hiperfina de las lneas espectrales.
Vale la pena recordar que el concepto de subnivel aparece en el modelo semiclasico de Sommerfeld que asigna
a cada valor de n (numero cuantico de Bohr) un numero n de orbitas elpticas de la misma energa y diferente
momento angular. La orbita asociada al maximo momento angular para un n dado es circular. Puesto que el
modelo semiclasico de Sommerfeld fue exitoso para predecir la degeneracion de los niveles de energa, es logico
pensar que el modelo de Bohr se reproduce para los estados con l = n 1 (maximo valor del momento angular
para n dado). En particular vamos a mostrar que para l = n 1 se obtiene la segunda expresion (13.3) para
los radios de Bohr. La probabilidad de encontrar al electron en un volumen dV que en coordenadas esfericas se
caracteriza por
dV = r 2 dr sin d d = r 2 dr d
estara dada por

dPn,l,m (r, , ) = |n,l,m (r, , )|2 r 2 dr d = |Rn,l (r)|2 r 2 dr |Yl,m (, )|2 d

si queremos calcular la probabilidad de encontrar al electron entre r y r + dr dentro de un cierto angulo solido,
tenemos que esta probabilidad se obtiene usando (13.52)
Z 2 Z 2
1
2 2
dPn,l,m (r) = |Rn,l (r)| r dr d |Zl,m ()|2 sin d
2 1 1
Z 2
2 2 2 1
dPn,l,m (r) = Ml,m |Rn,l (r)| r dr ; Ml,m |Zl,m ()|2 sin d (13.53)
2 1

donde [1 , 2 ] y [1 , 2 ] definen el intervalo de los angulos que generan el angulo solido dentro del cual se quiere
evaluar la probabilidad.
3
Esto se asemeja al comportamiento clasico en el cual el aumento de la magnitud del momento angular produce un aumento en el
radio promedio de una orbita cerrada. En particular, clasicamente un momento angular nulo significa que la velocidad inicial apunta
hacia el centro de interaccion, lo cual indica que la trayectoria de la partcula es una lnea recta que pasa en principio por este punto
(el origen), pero si el momento angular es no nulo, la trayectoria no pasa por el origen o centro de fuerzas. La contrapartida cuantica
es el hecho de que solo para l = 0 tenemos una probabilidad no nula de que el electron se encuentre en el origen.
370 CAPITULO 13. ATOMOS HIDROGENOIDES

Ahora evaluaremos esta probabilidad para l = n 1. Aplicando l = n 1 en (13.44)


0
X
(n1)+1
yn,n1 () = cq q = c0 n
q=0

Con esto y usando la primera y la tercera de las Ecs. (13.42) se calcula la funcion radial
1
un,n1 () = en c0 n ; n =
n n
r r
un,n1 () = c0 e n n = c0 e a0 n
a0
 n  
a nr 1 r c0 a rn a0 r n
Rn,n1 (r) = c0 e 0 = e 0
r a0 a0 r a0
 n1
c0 r r
Rn,n1 (r) = e a0 n (13.54)
a0 a0

finalmente la probabilidad se obtiene de (13.53) y (13.54)


Z 2
2 1
dPn,n1,m (r) = Mn1,m |Rn,n1 (r)|2 r 2 dr ; Mn1,m |Zn1,m ()|2 sin d
2 1
"  n1 #2 " n1 #2  2
c0 r a rn 2 r a rn r
dPn,n1,m (r) = Mn1,m e 0 r dr = c20 Mn1,m e 0 dr
a0 a0 a0 a0
 2n
a2rn r
dPn,n1,m (r) = c20 Mn1,m e 0 dr
a0

la densidad de probabilidad radial para l = n 1 es


 2n
dPn,n1,m (r) r a2rn
n,n1 (r) = c20 Mn1,m e 0
dr a0

esta densidad de probabilidad tiene un maximo en

r = rn = n2 a0

que es el radio de Bohr para una orbita de energa En .


La tabla 13.1, ilustra los niveles de energa y la degeneracion de algunos estados. La tabla 13.2 muestra las
expresiones de la funcion de onda para los primeros niveles de energa.
13.6. DISCUSION DE LOS RESULTADOS 371

n E=0 E=0 E=0 E=0


n=4 4s 4p 4d 4f
n=3 3s 3p 3d

n=2 2s 2p

n = 1 (E = EI ) 1s
l = 0 (s) l = 1 (p) l = 2 (d) l = 3 (f )
Cuadro 13.1: Niveles de energa (negativos) para estados acotados del atomo de hidrogeno. Los niveles sobre una
fila poseen la misma energa (mismo numero cuantico principal n). En n = 1 la energa corresponde en valor
absoluto a la energa de ionizacion, y para n muy grande la energa tiende a cero por la izquierda. A medida que
se incrementa n disminuye la brecha entre los valores de energa permitidos.

nivel 1s 1,0,0 (r) = 1 3 er/a0


 a0 
nivel 2s 2,0,0 (r) = 3 1 2ar 0 er/2a0
1
8a0
2,1,1 (r) = 1 r r/2a0
e sin ei
8 a30 a0
nivel 2p 2,1,0 (r) = 1 3 ar0 er/2a0 cos
4 2a0
2,1,1 (r) = 1 3 ar0 er/2a0 sin ei
8 a0
Cuadro 13.2: Funciones de onda asociadas al estado base ( n = 1) y al primer estado excitado ( n = 2).
Captulo 14

Corrientes de probabilidad en atomos


hidrogenoides, acoples con campos
magneticos

14.1. Corrientes de probabilidad para las soluciones estacionarias del atomo


de Hidrogeno
Siguiendo los resultados de la seccion 3.3.5, expresamos la funcion de onda estacionaria en forma polar

(r) = (r) ei(r) ; (r) 0, 0 (r) < 2 (14.1)

de modo que la densidad de probabilidad (r) y la densidad de corriente de probabilidad J (r) estan dadas por
las Ecs. (3.34, 3.35)
~
(r) = 2 (r) ; J (r) = 2 (r) (r) (14.2)

Teniendo en cuenta la estructura de las soluciones estacionarias Ecs. (13.41, 13.42) el modulo (r) y la fase (r)
para las soluciones hidrogenoides estacionarias estan dadas por

1
n,l,m (r) = |Rn,l (r)| |Ylm (, )| = |Rn,l (r)| |Zlm ()| ; (r) = m (14.3)
2

es importante tener en cuenta que denota la masa y m denota el autovalor m~ de L3 . Aplicando las Ecs. (14.2)
y usando la expresion para el gradiente en coordenadas esfericas tenemos que:
 
~ 2 ~ 1 1
Jn,l,m (r) = (r) (r) = n,l,m (r) ur + u + u (m)
r r r sin
~ m
Jn,l,m (r) = n,l,m (r) u (14.4)
r sin

donde u es el vector unitario ortogonal al plano formado por r y u3 en el sentido en el cual se incrementa el
angulo azimutal . La Ec. (14.4) nos dice que el sentido de rotacion de la corriente esta dictaminado por el signo
de m y de sin ya que las demas cantidades son todas positivas. La Ec. (14.4) nos dice que la corriente en cada
punto M definida por el vector posicion r, es perpendicular al plano definido por r y u3 . El fludo de probabilidad
rota alrededor del eje X3 . Puesto que |J| no es proporcional a r sin (r) el sistema no rota como un todo. Es
decir, la velocidad angular de la corriente es diferente en cada punto. Si queremos ver la estructura de la corriente
asociada a un estado estacionario para un plano perpendicular a u3 (es decir para fijo) vemos que si sin > 0,

372
14.1. CORRIENTES DE PROBABILIDAD PARA EL ATOMO DE HIDROGENO 373

tenemos rotacion del fludo de probabilidad alrededor de u3 en el sentido antihorario (horario) si m > 0, (m < 0).
Si m = 0 no hay corriente de probabilidad en ningun punto del espacio.
Tomemos un elemento de volumen d3 r situado en el punto r, su contribucion al momento angular con respecto
al origen (en el centro del nucleo) es:
dL = r dP = r (d) v
donde d es la fraccion de masa equivalente que ocupara el volumen dV si la distribucion de probabilidad fuese
una distribucion de masa1 . En consecuencia, d = dV con lo cual
dL = r n,l,mv dV = r Jn,l,m (r) d3 r (14.5)
el momento angular total se obtiene por integracion de la Ec. (14.5). Por simetra todas las componentes en X1 y
X2 se anulan y solo sobrevive la componente sobre X3 la cual vendra dada por
Z Z Z
n,l,m (r) n,l,m (r)
L3 = d3 r u3 [r Jn,l,m (r)] = m~ d3 r u3 [r u ] = m~ d3 r u [u3 r]
r sin r sin
Z Z Z
3 n,l,m (r)
= m~ d r u [r sin u ] = m~ d r n,l,m (r) = m~ d3 r | (r)|2
3
r sin
L3 = m~
donde hemos usado la Ec. (14.4), la identidad a (b c) = c (a b), y la Ec. (3.27) para la densidad de
probabilidad. De lo anterior se concluye que el autovalor m~ de L3 puede interpretarse como el momento angular
clasico asociado al movimiento rotacional del fludo de probabilidad.

14.1.1. Efecto sobre la corriente debido a la introduccion de un campo magnetico


Asumamos ahora que al atomo de Hidrogeno se le aplica un campo magnetico constante B. Tal campo puede
ser descrito por el siguiente potencial vectorial
1
A (r) = r B (14.6)
2
estudiaremos la corriente de probabilidad asociada al estado base. Por simplicidad asumiremos que el campo
magnetico no modifica al estado base. Puesto que el Hamiltoniano H depende de B, esto no es del todo correcto,
pero puede demostrarse que para B = Bu3 en el gauge descrito por la Ec. (14.6), las funciones n,l,m (r) son
auto funciones de H dentro de terminos de segundo orden en B, los cuales son despreciables para campos tpicos
de laboratorio. Aplicaremos entonces la expresion de la densidad de corriente para una partcula inmersa en un
campo electromagnetico descrita por las Ecs. (5.49, 5.50) donde hacemos (R, t) = 0, aplicaremos ademas las
Ecs. (14.1, 14.2)
       
1 ~ 1 i(r) ~ i(r)
Jn,l,m = Re n,l,m (r) qA (r) n,l,m (r) = Re (r) e qA (r) (r) e
i i
 h i 
1 i(r) ~ i(r) i(r) i(r)
= Re (r) e (r) e q (r) e A (r) (r) e
i
 
1 i(r) i(r) ~ 2 i(r) ~ i(r) 2
= Re (r) e e (r) + (r) e e q (r) A (r)
i i
 
1 ~ 2 i(r) i(r) i~ 2
= Re (r) (r) + (r) e e (r) q (r) A (r)
i i
1 
= Re i~ (r) (r) + ~2 (r) (r) q2 (r) A (r)

1
Debe tenerse en cuenta sin embargo, que la nube electronica en cuantica no es una distribucion de masa que ocupa todo el espacio,
sino una distribucion de probabilidad de que la masa se encuentra en cierta region del espacio. No obstante, esta distribucion de masa
equivalente reproduce adecuadamente los valores de las cantidades globales (como las densidades volumetricas equivalentes).
374 CAPITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS

y teniendo en cuenta que (r) , (r) y A (r) son cantidades reales, se obtiene que

2 (r)
Jn,l,m = {~ (r) qA (r)}

n,l,m
Jn,l,m = [~ n,l,m (r) qA (r)] (14.7)

sustituyendo (14.6) en la Ec. (14.7) con B = Bu3 , el estado base tendra una corriente dada por
    
1,0,0 qB 1,0,0 (m) 1 (m) 1 (m)
J1,0,0 = ~ 1,0,0 (r) + r u3 = ~ ur + u + u
2 r r r sin m=0

qB
+ r u3
2
     
~ [m]m=0 qB 1,0,0 qB
= 1,0,0 +r u3 = u3 r
2 2
1,0,0 qB
J1,0,0 = c r) ; ~
(~ c u3 (14.8)
2
donde hemos usado la Ec. (14.3). El vector ~ c es la frecuencia angular de ciclotron2 . La velocidad equivalente del
fludo esta dada por J1,0,0 = 1,0,0 v1,0,0 con lo cual la velocidad equivalente nos da
~c

v1,0,0 = r
~f r (14.9)
2
La Ec. (14.8) nos muestra que la corriente de probabilidad en el estado base no es cero en presencia de un campo
magnetico, es claro que esta corriente se anula al hacer B = 0. Las Ecs. (14.8, 14.9) nos muestran que el fludo de
probabilidad, gira como un todo3 alrededor de B (o de u3 ) con un frecuencia angular4 ~ f = ~c /2. Fsicamente,
este resultado se debe a la presencia del campo electrico E (r) transiente que se induce cuando se enciende el
campo magnetico. Bajo la influencia de este campo electrico transitorio el electron permanece aproximadamente
en su estado base y comienza a rotar alrededor del proton, con una velocidad angular que depende solo del valor
de B y no de la forma precisa en que se enciende el campo magnetico. Por supuesto, una vez que la corriente se
genera (y desaparece el campo electrico transitorio), el campo magnetico permanente puede sostenerla via fuerza
de Lorentz, ya que la carga ahora esta en movimiento.
Es importante mencionar que si usamos un gauge diferente al dado por la Ec. (14.6) las funciones de onda
seran diferentes, y en la Ec. (14.7) existiran otras contribuciones a primer orden en B. Sin embargo, en cualquier
gauge se debe reproducir la Ec. (14.8) a primer orden en B, puesto que los resultados fsicos no pueden depender
del gauge.
La Ec. (14.8), tambien se puede escribir en terminos de los parametros atomicos usando la funcion de onda
explcita del estado base del atomo de Hidrogeno que aparace en la tabla 13.2 pagina 371
 
|1,0,0 |2 e2r/a0 qB qB e2r/a0
J1,0,0 = c r) =
(~ u3 r = (r sin u )
2 2a30 2a30
qBe2r/a0
J1,0,0 = r sin u (14.10)
2a30
aqu vemos ademas que la densidad de corriente es proporcional a (r) r sin , lo cual nos ratifica que el fludo de
probabilidad gira como un todo.
2
La frecuencia angular de ciclotron es la que tendra una carga q clasica que se mueve en una trayectoria circular debido a su
interaccion con un campo magnetico constante, cuando la velocidad inicial de dicha carga es perpendicular al campo magnetico.
3
Es claro de las Ecs. (14.8, 14.9), que la velocidad angular ~
f del fludo no depende de la posicion en este caso.
4
El hecho de que la corriente de la nube electronica tenga la mitad de la frecuencia de ciclotron, se debe al efecto adicional del
campo electrico generado por el nucleo.
14.2. ATOMO DE HIDROGENO EN UN CAMPO MAGNETICO UNIFORME 375

14.2. Atomo de hidrogeno en un campo magnetico uniforme: paramagnetis-


mo, diamagnetismo y efecto Zeeman
Estudiaremos ahora los efectos que surgen cuando el atomo de hidrogeno esta inmerso en un campo magnetico.
Para los campos magneticos tpicos de laboratorio, el gradiente de dichos campos es tal que B no vara aprecia-
blemente en distancias comparables a la escala atomica. Por tanto, para muchos casos tomar este campo como
uniforme sera una buena aproximacion, y as lo haremos de aqu en adelante. Estudiaremos entonces el espectro
de un electron sujeto a la interaccion electrica interna debida al nucleo y a un campo magnetico externo. Si bien
la solucion exacta de la ecuacion de Schrodinger es muy compleja en este caso, esta sera soluble bajo ciertas
aproximaciones.
Una aproximacion importante es la de ignorar los efectos debidos a la masa finita del nucleo, esta aproximacion
esta justificada dado que el proton es mucho mas pesado que el electron. Es importante observar que bajo la
influencia de un campo magnetico no es rigurosamente posible reducir el problema de dos cuerpos acoplados al
problema de dos cuerpos desacoplados uno en el centro de masa con la masa del sistema y otro con la masa
reducida del sistema y la dinamica del vector relativo5 . Por tanto, al tener en cuenta los efectos de masa finita del
nucleo no es suficiente con reemplazar la masa del electron por la masa reducida del sistema.
Usaremos ademas el hecho de que para campos magneticos tpicos de laboratorio el corrimiento del espectro
atomico debido al campo magnetico externo es mucho menor al causado por el campo electrico interno. Los
corrimientos de los niveles atomicos son mucho menores que las separaciones entre niveles del atomo libre.
El estudio de los efectos de introducir un campo magnetico nos permitira comprender como surge el paramag-
netismo y el diamagnetismo en la mecanica cuantica

14.2.1. Hamiltoniano del sistema


Consideremos un electron sin espn de masa me y carga q sujeto a un potencial central V (r) y a un potencial
vectorial magnetico A (r). Su Hamiltoniano es

1
H= [P qA (R)]2 + V (R) (14.11)
2me
si el campo magnetico B es uniforme, el potencial vectorial se puede escribir como
1
A (r) = r B (14.12)
2
para introducir esta cantidad en el Hamiltoniano (14.11) calcularemos el siguiente factor
h q i2 q2 q
[P qA (R)]2 = P + R B = P2 + (R B)2 + [P (R B) + (R B) P] (14.13)
2 4 2
ahora bien, B es un vector constante y no un operador, por tanto conmuta con todos los operadores. Adicional-
mente, tenemos que

P (R B) = Pi ijk Rj Bk ; (R B) P = ijk Rj Bk Pi ; (R P)i = ijk Rj Pk

suma sobre ndices repetidos. Los unicos terminos no nulos de esta sumatoria corresponden a aquellos en donde
todos los ndices son diferentes, por tanto Rj conmuta con Pi para los terminos no nulos, de modo que

P (R B) = (R B) P ; R P = R P
5
Debe tenerse en cuenta que la reduccion del problema de dos cuerpos acoplados al de dos cuerpos desacoplados, solo es en general
posible cuando la interaccion neta es central. Cuando superponemos el potencial Coulombiano debido al nucleo con la fuerza de Lorentz
generada por el campo magnetico, la interaccion resultante deja de ser central.
376 CAPITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS

En consecuencia, a las expresiones anteriores se les puede aplicar las identidades vectoriales usuales. Utilizando

a (b c) = c (a b)
(a b) (c d) = (a c) (b d) (a d) (b c)

en la Ec. (14.13) queda

q2 q
[P qA (R)]2 = P2 + (R B) (R B) + [2P (R B)]
4 2
q 2
= P2 + [(R R) (B B) (R B) (B R)] + q [B (P R)]
4
q 2 h i
[P qA (R)]2 = P2 + R2 B2 (R B)2 qB (R P) (14.14)
4

Ahora bien, la proyeccion r de un vector arbitrario r sobre un plano perpendicular a B se escribe

 r2 B2 cos2
|r | = |r| sin r2 = r2 sin2 = r2 1 cos2 = r2
B2
(r B)2
r2 = r2
B2

donde es el angulo entre r y B. Con base en esto definimos el operador vectorial R como la proyeccion de R
sobre un plano perpendicular a B
(R B)2
R2 R2 (14.15)
B2
en particular si B = Bu3 tenemos que
R2 = X12 + X22

reemplazando (14.15) en (14.14) y recordando que R P es el momento angular orbital cuantico, tenemos

q2B 2 2
[P qA (R)]2 = P2 + R qL B (14.16)
4

reemplazando (14.16) en el Hamiltoniano (14.11) tenemos


 
1 2 q2B 2 2
H = P + R qL B + V (R)
2me 4
P2 B q2B 2 2
H H0 + H1 + H2 ; H0 + V (R) , H1 [L B] , H2 R (14.17)
2me ~ 8me
q~ (R B)2
B ; R2 R2 (14.18)
2me B2

donde H0 es el Hamiltoniano no perturbado asociado al atomo de Hidrogeno libre. Notese que cuando B 6= 0 el
momento mecanico ya no es P sino [P qA (R)], por tanto la energa cinetica sera [P qA (R)]2 /2me . Aun mas,
el termino P2 /2me depende del gauge escogido. Puede demostrarse que en el gauge definido por la Ec. (14.12)
~ R es el momento mecanico de la partcula con respecto
P2 /2me es la energa cinetica relativa 2R /2me donde
a un sistema rotante de Larmor que rota alrededor de B con velocidad angular L = qB/2me . As mismo, se
puede demostrar que el termino H2 corresponde a la energa cinetica 2E /2me relativa a la velocidad de arrastre
de este marco de referencia, en tanto que el termino H1 esta asociado al termino cruzado ~R
~ E /me .
14.2. ATOMO DE HIDROGENO EN UN CAMPO MAGNETICO UNIFORME 377

14.2.2. Estimacion numerica de las contribuciones H0 , H1 y H2


Haremos un estimativo numerico de las diferencias de energa E (y las frecuencias correspondientes E/h),
asociadas a cada Hamiltoniano. Hemos visto que las diferencias de energa E0 asociadas a H0 (atomo de
Hidrogeno libre) son del orden de magnitud de la energa de ionizacion EI como se aprecia en la Ec. (13.43).
Utilizando las Ecs. (13.39) se tiene que
 2 2
me 4 me ~
E0 EI = 2 e = 2
2~ 2~ me a0
~2 E0
E0 ; 1014 Hz
2me a20 h

ahora usando las Ecs. (14.17) para H1 y teniendo en cuenta que los momentos angulares son del orden de la
constante de Planck, se obtiene

E1 B [~B] B q~ B qB 1 qB
= B = = =
h ~ h h 2me h 4me 2 2me
E1 L qB
; L
h 2 2me
donde hemos tenido en cuenta (14.18). La cantidad L se refiere a la velocidad angular de Larmor. Podemos ver
que L /2 es la mitad de la frecuencia de ciclotron. Para campos tpicos de laboratorio asumiremos B . 105 gauss,
con lo cual se obtiene
E1 L
. 1011 Hz
h 2
E1 E0

ahora evaluaremos el orden de magnitud de E2 asociado a H2 . Los elementos matriciales del operador R2 =
X12 + X22 son de dimensiones atomicas y por tanto del orden de magnitud de a0 (radio de Bohr). Por tanto, de la
Ec. (14.17) se obtiene

q2B 2 2 E2 q 2 B 2 2 2 q 2 B 2 2 2 2me
E2 a0 a0 = a
8me E1 8me hL 8me 0 h qB
E2 qBa20

E1 2h
por otro lado
E1 h qB 2me a20 qBa20 2qBa20 E2
= = =4
E0 2 2me ~2 ~ h E1
vemos que
E2 1 E1

E1 4 E0
de modo que las diferencias de energa presentan una clara jerarqua

E2 E1 E0

los efectos del campo magnetico son en la practica mucho menores que los del campo electrico interno, ademas
sera en general suficiente tener en cuenta solo el termino H1 y el termino H2 solo se tendra en cuenta cuando H1
se anule.
Aunque el termino H1 es mas importante, analizaremos primero el termino H2 ya que esto permitira justificar
algunas aproximaciones que se usan cuando solo se considera H1
378 CAPITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS

14.2.3. Termino diamagnetico


Hemos dicho que solo consideraremos el efecto de H2 cuando se anule el efecto de H1 . Tal es el caso cuando
tenemos un estado de momento angular cero en el atomo de Hidrogeno. En la seccion 14.1.1 vimos que la presencia
de un campo magnetico uniforme modifica la corriente de probabilidad asociada al electron. Esta corriente tiene
simetra axial con respecto al eje B. La corriente gira como un todo alrededor de B en la direccion horaria
(antihoraria) cuando q > 0 (q < 0). La corriente electrica que se genera tiene asociado un momento magnetico
hM2 i que como veremos es antiparalelo a B y por tanto esta asociado a una energa de acople positiva que explica
el origen del termino H2 .
Para ver esto recurrimos a calcular clasicamente el momento magnetico M2 asociado a una carga q en movi-
miento circular de radio r. Si la velocidad de la carga es v su movimiento equivale a una corriente de la forma
v
i=q
2r

la superficie definida por el circuito es S = r 2 de modo que el momento magnetico esta dado por
qrv
|M| = |i S| = (14.19)
2

ahora bien el momento angular ~ viene dado por

~ = r me v = r (P qA (r)) = L
~ qr A (r)

~ es el momento angular canonico. Puesto que la velocidad es tangencial, la magnitud de ~ esta dada por
donde L

~
|| = L qr A (r) = me rv

podemos escribir la Ec. (14.19) en la forma

~ = q ~ q h~ i
M = L qr A (r) (14.20)
2me 2me

puesto que estamos estudiando el caso L = 0, usando el gauge (14.12) el momento magnetico queda6
2 2 2  
~ 2 = q r A (r) = q r (r B) = q
M (r B) r r2 B
2me 4me 4me

vemos que M ~ 2 es proporcional a B. Por otro lado, si bien M ~ 2 no es colineal con B, es facil ver que en el estado
~
base del atomo de hidrogeno (en el cual L = 0), el valor esperado de M2 (donde M2 es la cuantizacion de M ~ 2 ) es
antiparalelo a B. En consecuencia, M ~ 2 representa el momento magnetico inducido por B en el atomo . Su energa
7

de acople con B viene dada por


Z B 2 
 
W2 = M~ 2 B dB = 1 M ~ 2 (B) B = 1 q (r B) r r2 B B
0 2 2 4me
" #
q 2 h i q 2 B 2 (r B) 2
W2 = r2 B2 (r B)2 = r2
8me 8me B2
6
Debe tenerse en cuenta que cuando m = 0, el momento angular que se anula es el canonico y no el mecanico. Esto tiene que ver
con el hecho de que es el momento angular canonico el que se cuantiza.
7
Vale recordar que la modificacion de la corriente (con respecto a la que se genera para el atomo libre) se forma gracias al campo
electrico transiente que se induce cuando se conecta el campo magnetico. Ademas, en el estado base no hay corriente ni momento
dipolar magnetico permanente.
14.2. ATOMO DE HIDROGENO EN UN CAMPO MAGNETICO UNIFORME 379

y usando la Ec. (14.18) tenemos


q2 2 2
W2 = r B
8me
cuya cuantizacion conduce al Hamiltoniano H2 descrito en la Ec. (14.17). Vemos entonces que H2 describe el
~ 2 inducido por B en el atomo. Puesto que de acuerdo con la
acople entre el campo B y el momento magnetico M
ley de Lenz el momento inducido se opone al campo aplicado8 , la energa de acople es positiva. H2 se denomina
el termino diamagnetico del Hamiltoniano.

14.2.4. Termino paramagnetico


Asumiremos ahora que L ~ =
6 0 de modo que el Hamiltoniano H1 es el dominante (con respecto a H2 ). La
~
relacion (14.20) nos indica la relacion general entre el momento angular canonico y el momento magnetico M.
~ ~
Por otro lado, hemos demostrado que la contribucion de H2 sobre M esta dada por la Ec. (14.20) con L = 0. Por
tanto para L ~=6 0 tal ecuacion se puede escribir como

q ~ 2
~ =M
M ~2
~ 1 +M ; ~1
M L , ~ 2 q r A (r)
M
2me 2me
pero el analisis numerico indica que para el atomo de hidrogeno, la contribucion del Hamiltoniano H1 domina
sobre la contribucion de H2 siempre que la primera sea no nula (i.e. L ~ 6= 0). Por lo tanto, si L
~ =
6 0 podemos
aproximar el momento magnetico en la forma

~ M
~1= q ~
M L (14.21)
2me

de modo que L ~ es practicamente paralelo a M


~ y ambos son perpendiculares al plano de la orbita clasica. La
energa de acople con B esta dada por
~1B
W1 = M (14.22)
Al cuantizar las relaciones (14.21, 14.22) se obtiene
q q
M1 = L ; H1 = M1 B = LB (14.23)
2me 2me
que coincide con la Ec. (14.17), de modo que el Hamiltoniano H1 corresponde al acople entre el campo magnetico
B y el momento magnetico atomico permanente puesto que M1 es independiente de B, es decir M1 existe aunque
no exista campo magnetico. En consecuencia, M1 se genera a traves de la corriente asociada al atomo de Hidrogeno
libre (ver seccion 14.1).
De acuerdo con la Ec. (14.23), los autovalores del operador M1 vienen dados por
 
q
m~ mB (14.24)
2me

de modo que B es el cuanto fundamental de momento magnetico como lo es ~ del momento angular. Es este
hecho lo que le da relevancia al magneton de Bohr B . Mas adelante veremos que ademas del momento angular
orbital L, el electron posee un momento angular intrnseco o espn S, que tambien posee un momento magnetico
asociado MS proporcional a S en la forma
B
MS = 2 S
~
de hecho la necesidad de introducir este momento magnetico adicional para explicar la estructura fina del atomo
de Hidrogeno, es una de las evidencias experimentales de la existencia del espn del electron (ver seccion 15.4.2).
8
En realidad se opone al cambio de flujo, pero cuando el campo se conecta aumenta desde cero hacia B de modo que el aumento
de flujo va en la direccion del campo.
380 CAPITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS

Finalmente, es importante mencionar que el dominio de los efectos paramagneticos sobre los diamagneticos
(cuando los primeros son no nulos) se debe al pequeno tamano del radio atomico, que a su vez genera una superficie
y un flujo muy pequenos. Por ejemplo, para un electron libre sometido a un campo magnetico, las contribuciones
paramagnetica y diamagnetica tienen la misma importancia relativa.

14.3. Efecto Zeeman


Hemos visto los nuevos terminos que aparecen en el Hamiltoniano del atomo de Hidrogeno cuando se introduce
un campo magnetico uniforme. A continuacion veremos como estos nuevos terminos modifican el espectro del atomo
de Hidrogeno. En particular, examinaremos la forma en que se modifica la emision de la lnea optica conocida
o
como la lnea de resonancia ( 1200A) con la inclusion del campo magnetico. Veremos que no solo se cambia
la frecuencia sino tambien la polarizacion de las lneas atomicas. Esto se conoce como efecto Zeeman.
Sin embargo, es necesario aclarar que para predecir el espectro real es necesario inclur el momento angular
intrnseco o espn del electron (e incluso del proton) del cual surge la estructura fina e hiperfina del espectro y
modifica sustancialmente las componentes de la lnea de resonancia. A esto se le conoce usualmente como efecto
Zeeman anomalo. No obstante, la discusion que realizaremos aqu sera valida cualitativamente.

14.3.1. Corrimiento de los niveles atomicos con la correccion paramagnetica


Estudiaremos la transicion entre el estado base y el estado mas bajo con momento angular no nulo es decir
entre los niveles 1s (n = 1, l = m = 0) y 2p (n = 2, l = 1, m = 1, 0, 1)9 . Esta transicion corresponde a la lnea de
resonancia del atomo de hidrogeno. Aunque el momento angular en el estado base es cero, no lo es en el estado
2p, por tanto despreciaremos la respuesta diamagnetica cuando se coloca un campo magnetico B, incluyendo solo
las correcciones de H1 . Si denotamos |n,l,m i los estados comunes de H0 , L2 y L3 , se puede ver de inmediato que
si B = Bu3 entonces |n,l,mi tambien es autoestado del Hamiltoniano perturbado H0 + H1
 B   B 
(H0 + H1 ) |n,l,m i = H0 L B |n,l,m i = H0 BL3 |n,l,m i
~ ~
(H0 + H1 ) |n,l,m i = (En mB B) |n,l,m i
por tanto si ignoramos el termino diamagnetico, los |n,l,m i son aun estados estacionarios de H0 + H1 , y solo se
modifican los valores de energa. Adicionalmente, vemos que el espectro se modifica de tal forma que depende
ahora de dos numeros cuanticos n y m, removiendo parcialmente la degeneracion (aun existe degeneracion en l).
El hecho de que el corrimiento de la energa (con respecto a la energa en ausencia de campo magnetico) dependa
del numero cuantico m y del campo B, es la razon para denominar a m como numero cuantico magnetico.
Calculemos el espectro de los estados involucrados en la lnea de resonancia
(H0 + H1 ) |1,0,0 i = E1 |1,0,0 i = EI |1,0,0 i
 
EI
(H0 + H1 ) |2,1,m i = (E2 mB B) |2,1,m i = mB B |2,1,m i
4
el nivel de energa 2p en presencia de B suele escribirse en la forma
 
B EI 3 q~ 3EI qB
E2p = mB B = EI + EI m B = EI + ~ + m~
4 4 2me 4~ 2me
B 3E I E2 E1
E2p = EI + ~ ( + mL ) ; =
4~ ~
donde es claramente la frecuencia de la lnea de resonancia en ausencia de B. En tanto que en presencia de B
tal frecuencia de resonancia es ( + mL ).
9
La transicion mas baja corresponde al paso de 1s a 2s, pero en este caso la respuesta diamagnetica es dominante, ya que el momento
angular es cero en ambos estados.
14.3. EFECTO ZEEMAN 381

14.3.2. Oscilaciones dipolares electricas


El momento dipolar electrico cuantizado del atomo esta dado por
D = qR
para calcular el valor esperado hDi calculamos los elementos matriciales de D. Bajo paridad el operador D se
transforma a D (ya que bajo paridad R R y q q). El momento dipolar es por tanto un operador impar.
Adicionalmente los estados n,l,m (r) tiene paridad bien definida en la base |ri, esto se debe a que los armonicos
esfericos tiene paridad definida teniendo paridad +1 (1) para l par (impar). En particular se tiene que


h1,0,0 | D |1,0,0 i = 2,1,m D |2,1,m i = 0 ; m, m (14.25)
los elementos de matriz no nulos asociados a la lnea de resonancia son entonces no-diagonales. Para calcular los
elementos de matrix h2,1,m | D |1,0,0 i = q h2,1,m | R |1,0,0 i escribiremos a x1 , x2 , x3 en terminos de armonicos
esfericos
r
2
x1 = r sin cos = r [Y1,1 (, ) Y1,1, (, )] (14.26)
3
r
2
x2 = r sin sin = ir [Y1,1 (, ) + Y1,1 (, )] (14.27)
3
r
4
x3 = r cos = r Y1,0 (, ) (14.28)
3
el calculo de los elementos matriciales involucra una integral radial y una angular, en virtud de la separabilidad
de las funciones de onda estacionarias. La integral radial la definimos como una cantidad
Z
R2,1 (r) R1,0 (r) r 3 dr (14.29)
0
la parte angular consiste en productos escalares de armonicos esfericos que se pueden calcular facilmente debido
a sus propiedades de ortogonalidad. Por ejemplo, calculemos el elemento matricial h2,1,1 | Dx1 |1,0,0 i en la base
{|ri}, para lo cual aplicamos la Ec. (5.3)
Z
h2,1,1 | Dx1 |1,0,0 i = q h2,1,1 | X1 |1,0,0 i = q 2,1,1 (r) x1 1,0,0 (r) d3 r
Z ( r )

 2
= q R2,1 (r) Y1,1 (, ) r [Y1,1 (, ) Y1,1, (, )] [R1,0 (r) Y0,0 (, )] r 2 dr d
3
r Z  Z 

2 3
= q R2,1 (r) R1,0 (r) r dr d Y1,1 (, ) [Y1,1 (, ) Y1,1, (, )] Y0,0 (, )
3 0
r Z 
2 
 1
= q d Y1,1 (, ) Y1,1 (, ) Y1,1 (, ) Y1,1, (, )
3 4
q
= {1,1 1,1 1,1 1,1 }
6
q
h2,1,1 | Dx1 |1,0,0 i =
6
donde hemos usado las Ecs. (14.26, 14.29) y la ortonormalidad de los armonicos esfericos. Procediendo de manera
similar con los otros elementos matriciales se obtiene
q
h2,1,1 | Dx1 |1,0,0 i = h2,1,1 | Dx1 |1,0,0 i = ; h2,1,0 | Dx1 |1,0,0 i = 0 (14.30)
6
iq
h2,1,1 | Dx2 |1,0,0 i = h2,1,1 | Dx2 |1,0,0 i = ; h2,1,0 | Dx2 |1,0,0 i = 0 (14.31)
6
q
h2,1,1 | Dx3 |1,0,0 i = h2,1,1 | Dx3 |1,0,0 i = 0 ; h2,1,0 | Dx3 |1,0,0 i = (14.32)
3
382 CAPITULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNETICOS EN ATOMOS

se concluye que si el sistema esta en un estado estacionario, la cantidad hDi es cero ya que los elementos diagonales
se anulan. Supondremos entonces que el sistema esta inicialmente en una superposicion del estado base 1s y uno
de los estados 2p.
(0) = cos |1,0,0 i + sin |2,1,m i
donde m asume uno de sus valores permitidos 1, 0, 1. Consideraremos a como un parametro real, aplicando la
evolucion temporal de un sistema conservativo calculamos la evolucion temporal de este estado

|m (t)i = eiEI t/~


cos |1,0,0 i + ei[EI ~(+mL )] t/~ sin |2,1,m i
n o
= eiEI t/~
cos |1,0,0 i + ei(+mL ) t sin |2,1,m i
|m (t)i = cos |1,0,0 i + ei(+mL ) t sin |2,1,m i (14.33)

donde hemos omitido la fase global irrelevante en el ultimo paso. Calcularemos hDi cuando el sistema esta en el
estado |m (t)i en el tiempo t. Usando las Ecs. (14.25, 14.30, 14.31, 14.32, 14.33), obtendremos el valor esperado
de D para los casos m = 1, 0, 1. Para m = 1 obtenemos
h i
hm=1 (t)| Dx1 |m=1 (t)i = cos h1,0,0 | + ei(+L ) t sin h2,1,1 | Dx1
h i
cos |1,0,0 i + ei(+L ) t sin |2,1,1 i
= cos2 h1,0,0 | Dx1 |1,0,0 i + ei(+L ) t cos sin h1,0,0 | Dx1 |2,1,1 i
+ei(+L ) t sin cos h2,1,1 | Dx1 |1,0,0 i + sin2 h2,1,1 | Dx1 |2,1,1 i
q q
= ei(+L ) t sin 2 ei(+L ) t sin 2
2 6 2 6
" #
q ei(+ L ) t + ei(+L ) t
= sin 2
6 2
q
hm=1 (t)| Dx1 |m=1 (t)i = sin 2 cos [( + L ) t]
6
y se procede de manera similar com m = 0, 1. Los resultados son:
q q
hDx1 im=1 = sin 2 cos [( + L ) t] ; hDx2 im=1 = sin 2 sin [( + L ) t] ; hDx3 i1 = 0 (14.34)
6 6
q
hDx1 im=0 = hDx2 im=0 = 0 ; hDx3 im=0 = sin 2 cos t (14.35)
3
q q
hDx1 im=1 = sin 2 cos [( L ) t] ; hDx2 im=1 = sin 2 sin [( L ) t] ; hDx3 im=1 = (14.36)
0
6 6

estas ecuaciones muestran que: (a) El vector hDim=1 (t) rota en el plano X1 X2 alrededor de X3 , en direccion
antihoraria con velocidad angular + L .(b) El vector hDim=0 (t) oscila a lo largo de X3 con frecuencia angular
. (c) El vector hDim=1 (t) rota en el plano X1 X2 alrededor de X3 pero en direccion horaria con velocidad
angular L .

14.3.3. Frecuencia y polarizacion de la radiacion emitida


En los tres casos m = 1, 0, 1; el valor medio del dipolo electrico es una funcion oscilante del tiempo. Por lo
tanto, dicho dipolo debe radiar.
Puesto que las dimensiones atomicas son mucho menores que la longitud de onda optica, la radiacion de los
atomos a grandes distancias se puede tratar como la de un dipolo puntual. Asumiremos que la radiacion emi-
tida o absorbida por el atomo durante la transicion entre el estado |2,1,m i y el estado base, se puede predecir
14.3. EFECTO ZEEMAN 383

correctamente utilizando la teora clasica de la radiacion. Un tratamiento riguroso del problema requiere la cuan-
tizacion del campo electromagnetico (electrodinamica cuantica), que predice el comportamiento de los fotones y
la forma en que estos se emiten en la radiacion. Sin embargo, los resultados obtenidos por el metodo semi-clasico
que abordaremos (en donde la materia se trata cuanticamente y la radiacion se trata clasicamente), predicen la
distribucion de la radiacion en muy buena aproximacion.
Supondremos que tenemos una muestra que contiene un gran numero de atomos de hidrogeno y que los
excitamos de alguna manera10 al estado 2p. En la mayora de experimentos la excitacion de los atomos es isotropica
y los tres estados |2,1,m i ocurren con la misma probabilidad. En primer lugar, estudiaremos la distribucion angular
de la radiacion y de la polarizacion para cada m fijo, y posteriormente se superponen los resultados para encontrar
el espectro que se observa.
Cuando m = 1, la frecuencia angular de la radiacion emitida es + L segun la Ec. (14.34). De modo que
el campo magnetico corre ligeramente la frecuencia de la lnea optica (recordemos que es la frecuencia de la
lnea optica en ausencia de B). De acuerdo con la teora electromagnetica clasica, un dipolo rotante como hDi1 (t)
emite radiacion en la direccion u3 con polarizacion circular de helicidad positiva + . Por otro lado, la radiacion
emitida en el plano X1 X2 esta linealmente polarizada (paralela a este plano) en otras direcciones la polarizacion
es elptica.
Para m = 0, el dipolo oscila linealmente en la direccion u3 . Las Ecs. (14.35) muestran que la frecuencia angular
es , es decir igual a la asociada a la ausencia de B, esto se debe a que el corrimiento de la frecuencia debida
al campo es proporcional a m. En este caso la electrodinamica clasica predice que su polarizacion es lineal en
todas las direcciones. En particular, para una direccion de propagacion sobre el plano X1 X2 , esta polarizacion
es paralela a u3 (polarizacion ). Ademas no se emite radiacion en la direccion u3 , ya que un dipolo que oscila
linealmente no rada en la direccion de su eje de oscilacion.
En el caso m = 1, las Ecs. (14.36) muestran que la frecuencia angular de la radiacion emitida es L . La
distribucion angular de la radiacion es similar al caso m = 1. Sin embargo, puesto que el dipolo hDim=1 gira en
la direccion opuesta a hDim=1 , la polarizacion elptica y circular tiene helicidad opuesta a la correspondiente a
m = 1.
Si ahora asumimos que hay un numero igual de atomos con m = 1, 0, 1, tenemos que se emiten tres frecuencias
bien definidas en todas direcciones (+mL con m = 1, 0, 1). La polarizacion asociada a m = 0 es lineal y la de las
otras dos es en general elptica. Notese que en la direccion de propagacion perpendicular a B las tres polarizaciones
son lineales, la de m = 0 esta polarizada en la direccion de B y las otras dos en direccion perpendicular a B.
Las Ecs. (14.34, 14.35, 14.36) nos muestran ademas que la intensidad de la lnea central m = 0 es dos veces la de
cada una de las lneas corridas. En la direccion paralela a B solo hay radiacion debida a m = 1 con frecuencias
( L ) /2, ambas asociadas a polarizacion circular pero de helicidad opuesta .
Hemos visto que un campo magnetico constante remueve parcialmente la degeneracion asociada a la energa
de un atomo de hidrogeno, ya que la energa ahora depende de los numeros cuanticos n y m. Es este efecto el que
le da el nombre de numero cuantico magnetico al valor propio de L3 (y de cualquier momento angular J3 ).

10
Por ejemplo, haciendo incidir un haz de luz muy monocromatica cuyos fotones tengan una energa igual a la necesaria para realizar
la transicion 1s 2p.
Captulo 15

Momento angular intrnseco

15.1. Comportamiento clasico de atomos paramagneticos inmersos en un


campo magnetico
Asumamos que el atomo bajo estudio es neutro de modo que no esta sujeto a la fuerza de Lorentz cuando se
le aplica un campo magnetico B. Para una gran cantidad de atomos neutros inmersos en un campo magnetico
B, es posible demostrar que cuando domina el termino paramagnetico, el momento dipolar magnetico electronico
(primer termino en la expansion multipolar magnetica de la distribucion) es proporcional al momento angular
electronico para un nivel atomico dado1
M ~ = L (15.1)
la constante de proporcionalidad se denomina factor giromagnetico del nivel bajo consideracion2 . La fuerza re-
sultante F sobre el atomo neutro paramagnetico, se puede obtener de la energa potencial W dada en la Ec.
(14.22)  
W = M ~ B ; F= M ~ B

El torque asociado (tomando el origen en la posicion del centro del atomo) es


~ B
~ = M

y puesto que el teorema del momento angular nos dice que


dL
= ~
dt
se tiene que
dL ~ B = L B
=M
dt
esto nos muestra que L es perpendicular a su razon de cambio y adicionalmente, la razon de cambio es perpendicular
al campo magnetico B. Si B es constante en el tiempo en el punto donde se evalua, esto indica que L no cambia
de magnitud y precesa alrededor del eje definido por el campo magnetico, el angulo entre B y L permanece
constante y la velocidad angular de precesion es = |B|. Ahora bien, puesto que M ~ es paralelo a L y sus
magnitudes estan relacionadas por una constante, conclumos que tambien M ~ conserva su magnitud y precesa
con el mismo angulo y la misma velocidad angular alrededor de B.
Si definimos al eje X3 a lo largo de B, para calcular la fuerza F podremos en buena aproximacion despreciar
en W los terminos proporcionales a M1 y M2 tomando a M3 como constante. Esto se debe a la tendencia natural
1
Hemos visto esta caracterstica para atomos de Hidrogeno en la seccion 14.2.4. Sin embargo, esto se puede extrapolar para atomos
de varios electrones.
2
Antes del advenimiento de la teora cuantica, la espectroscopa permita distinguir entre diferentes estados de un atomo.

384
15.2. EXPERIMENTO DE STERN-GERLACH 385

de los atomos a alinear su momento magnetico con el campo magnetico, si bien existen componentes laterales
M1 y M2 estas tienden a cancelarse cuando se toma un promedio temporal que comprenda muchos periodos de
precesion y dado que las frecuencias de precesion son tan altas, solo estos promedios temporales de M1 y M2
juegan un papel en W y estos promedios son cero, ya que todas las direcciones ocurren en la precesion con igual
magnitud. Adicionalmente, cuando se tiene en cuenta el efecto sobre muchas partculas, la cancelacion estadstica
funciona aun mejor. La fuerza sera entonces aproximadamente

F = (M3 B3 ) = M3 B3

notese que la fuerza resultante sera cero si el campo es uniforme independientemente de su intensidad. Por tanto,
una fuerza significativa requiere un alto gradiente del campo. Si asumimos por simplicidad que B3 solo vara a lo
largo de X3 , es decir si B3 /x1 = B3 /x2 = 0 la fuerza sobre el atomo sera paralela al eje X3 y proporcional
a M3 . Si asumimos que tenemos una gran cantidad de atomos, se espera que los momentos magneticos de estos
esten orientados aleatoriamente antes de la aplicacion del campo, pues tales orientaciones estaran dictaminadas
por fluctuaciones termicas que son de naturaleza aleatoria3 . Por tanto, antes de la aplicacion del campo todos
los valores de M3 entre |M| y |M| estan presentes, en otras palabras, el angulo entre B y M ~ puede tomar
cualquier valor entre 0 y .

15.2. Experimento de Stern-Gerlach

Figura 15.1: (a) En el experimento de Stern-Gerlach, los atomos de plata que se emiten a alta temperatura del horno
E son colimados en F para luego ser deflectados por el gradiente de campo magnetico creado por el electroiman A.
Finalmente, el atomo es registrado en el punto N de la pantalla P. (b) Vista frontal del electroiman. El haz incide
sobre el eje X2 perpendicular al papel.
3
Esto implica despreciar posibles correlaciones entre los diferentes momentos magneticos de los atomos.
386 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

Stern y Gerlach realizaron un experimento en 1922 para estudiar la deflexion de un haz de atomos neutros
paramagneticos en un campo magnetico de alto gradiente.
El montaje se muestra en la Fig. 15.1a. En un horno E se colocan atomos neutros de plata (que son para-
magneticos) y se calientan a alta temperatura, luego se dejan escapar por un pequeno agujero y se propagan en
lnea recta en el alto vaco del montaje. El agujero colimador permite solo el paso de atomos en cierta direccion
que elegimos como eje X2 . El haz colimado en esta forma entra entonces a un electroiman A para ser deflectado
antes de impactar la pantalla P .
De acuerdo con la teora clasica, si queremos producir una deflexion apreciable, el electroiman debe producir
un campo B de alto gradiente. Una forma de lograrlo es a traves de un iman configurado como se ilustra en la
Fig. 15.1b. El campo magnetico generado tiene un plano de simetra (el plano X2 X3 ) que contiene la direccion
inicial del haz colimado. Si despreciamos efectos de borde el campo magnetico no tiene componente en la direccion
X2 , por tanto el efecto sobre el haz es el mismo en cualquier punto sobre el eje X2 dentro del electroiman. La
componente mas grande de B es en la direccion de X3 , ademas la variacion del campo a lo largo de X3 es muy
fuerte, esto ocurre gracias a la configuracion angulosa del polo norte que produce una gran acumulacion de lneas
de campo en la vecindad del angulo, en tanto que en el polo sur la densidad de lneas es mucho menor. Puesto que
el campo magnetico es solenoidal ( B = 0), este debe adquirir una componente en la direccion X1 que vara
con la distancia x1 al plano de simetra X2 X3 .
La simetra del electroiman muestra claramente que B3 /x2 = 0 ya que el campo magnetico no depende de
x2 . Ademas B3 /x1 = 0 en todos los puntos del plano de simetra X2 X3 .
En virtud de que el experimento reune todas las condiciones descritas en la seccion 15.1, conclumos que la
deflexion HN de un atomo que golpea la pantalla es proporcional a M3 y por tanto a L3 . En consecuencia,
medir HN es equivalente a medir M3 o L3 . Puesto que los momentos magneticos de los atomos de plata estaban
distribudos isotropicamente antes de entrar en el electroiman, los valores de M3 toman todos los valores posibles
(para una gran cantidad de atomos) entre |M| y |M|. Por tanto, esperamos que se forme sobre la pantalla
un patron contnuo simetrico con respecto a H, sobre la pantalla P . En otras palabras, se espera que haya
impactos sobre todos los puntos en el intervalo N1 , N2 de manera mas o menos uniforme, donde N1 (cota maxima)
corresponde al caso en que M3 toma el valor maximo M3 = |M| y N2 corresponde al caso en el cual M3 toma el
valor mnimo M3 = |M|. Desde el punto de vista experimental efectos tales como la dispersion de las velocidades
y el tamano finito del colimador ocasionaran que atomos con el mismo valor de M3 no golpeen en el mismo punto,
sino en una vecindad de un punto que corresponde a la velocidad promedio de una partcula que pasa por el centro
del colimador. Por tanto el resultado clasico predice una distribucion como la lnea punteada de la Fig. 15.2, que
va un poco mas alla de N1 y N2 por aspectos experimentales.

15.3. Resultados del experimento y el momento angular intrnseco


En el experimento no se observo una distribucion homogenea a lo largo de [N1 , N2 ] como predeca el modelo
clasico. Lo que se observo fueron dos manchas bien definidas centradas en N1 y N2 simetricas con respecto a H,
como lo muestran las lneas contnuas de la Fig. 15.2. Puesto que el ancho de estas manchas era mucho menor que
el ancho de N1 y N2 ; esto haca sospechar que la deflexion estaba cuantizada en dos haces bien definidos. Este
hecho se puede confirmar disminuyendo el tamano del colimador y/o disminuyendo la dispersion de velocidades
del haz (con un filtro de velocidades colocado antes del electroiman). Si la cuantizacion existe, lo anterior debe
disminuir el ancho de las manchas alrededor de N1 y N2 . La formacion de dos zonas de impacto cuantizadas
esta en franca contradiccion con la teora clasica.
Podra pensarse por ejemplo que esta cuantizacion proviene de la cuantizacion del momento angular clasico
(que a su vez conducira a la cuantizacion de M si asumimos que se mantiene la relacion 15.1) hay varias razones
para rechazar este hipotesis como veremos a continuacion.
En primer lugar, mostraremos que bajo las condiciones de este experimento no es necesario tratar los grados de
libertad de posicion y momento cuanticamente. Para esto debemos verificar que para describir el movimiento de los
atomos de plata, es posible construr paquetes de onda cuyo ancho x3 y cuya dispersion p3 sean completamente
15.3. RESULTADOS DEL EXPERIMENTO Y EL MOMENTO ANGULAR INTRINSECO 387

Figura 15.2: La lnea contnua nos muestra las dos manchas bien localizadas alrededor de los puntos N1 y N2 , que
se obtuvieron en el experimento de Stern-Gerlach. La lnea punteada nos muestra la prediccion clasica.

despreciables con respecto a la escala de longitudes y momentos que se manejan en el experimento. Estos anchos
deben cumplir el principio de incertidumbre
x3 p3 & ~
la masa M de un atomo de plata es de 1,8 1025 kg. Los anchos x3 y v3 = p3 /M deben ser tales que

~
x3 v3 & 109 M.K.S.A. (15.2)
M
ahora veamos cuales son las longitudes y velocidades tpicas en el experimento. El ancho del colimador F es de
unos 104 m, la separacion entre N1 y N2 entre las manchas es de varios milmetros. La distancia sobre la cual
el campo magnetico vara apreciablemente se puede deducir de los valores del campo en medio del electroiman
(B 104 gauss) y su gradiente (B/x3 105 gauss/cm), que nos da

B
103 mt
B/x3

ahora la velocidad de un atomo de plata que abandona el horno a una temperatura de 103 K es del orden de
500m/s. Para haces bien colimados, la dispersion de las velocidades a lo largo de X3 no es mucho menor a varios
metros por segundo. De lo anterior, es posible encontrar valores de x3 y v3 que satisfagan la relacion (15.2)
388 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

que proviene de la relacion de incertidumbre, y que al mismo tiempo sean mucho menores que todas las escalas de
longitud y velocidad del experimento. Por tanto, los observables r y p se pueden tratar como clasicos y podemos
pensar en paquetes casi puntuales que se mueven sobre trayectorias clasicas. La cuantizacion de estos observables
(o de otros que dependan de estos como el momento angular) dara una enorme cantidad de valores propios que
simularan un contnuo, esto estara muy lejos de explicar una cuantizacion tan drastica en tan solo dos estados.
Una segunda razon es que los momentos angulares orbitales cuanticos l (l + 1) ~2 solo pueden tener valores de
l enteros. Esto implica que el numero de proyecciones posibles a lo largo de X3 para un l dado, es siempre un
numero impar (2l + 1) como se observa en la Ec. (14.24) Pag. 379. Lo anterior entrara en conflicto con la idea de
tener un numero par de auto resultados que en este caso son dos.
Si asumimos que la deflexion aun se da por el acople del campo con un momento angular (es decir que aun
hay un momento angular que cumpla la Ec. 15.1) este momento angular debe tener solo dos proyecciones posibles
a lo largo de X3 , es decir
2j + 1 = 2
lo cual nos lleva a j = 1/2. De esto se concluye que si el observable asociado a la deflexion observada es aun
un momento angular, no puede ser un momento angular orbital, ya que para estos los valores semienteros estan
excludos por razones de periodicidad. El observable asociado no proviene entonces de la cuantizacion de un
momento angular clasico y se conoce como momento angular intrnseco o espn.

15.4. Evidencia experimental del momento angular intrnseco del electron


Existen numerosas evidencias experimentales de la existencia del espn en los electrones. En particular, las
propiedades magneticas de muchas sustancias requieren tener en cuenta esta propiedad. A manera de ejemplo, la
explicacion del ferromagnetismo requiere el espn del electron como componente esencial.
En esta seccion solo citaremos dos propiedades a nivel atomico que evidencian la existencia de un momento
angular intrnseco del electron: La estructura fina de las lneas espectrales atomicas y el efecto Zeeman anomalo

15.4.1. Estructura fina de las lneas espectrales


La teora del atomo de Hidrogeno desarrollada en el captulo 13 considero al electron como una partcula
puntual cuyo estado se puede describir con una funcion de onda espacial (x, y, z). Los resultados obtenidos en
el captulo 13 describen el espectro de emision y absorcion del atomo de Hidrogeno con buena precision, as como
los niveles de energa y las reglas de seleccion que nos indican las frecuencias de Bohr permitidas en el espectro.
Sin embargo, un estudio de alta resolucion del espectro nos revela ciertas diferencias que aunque pequenas son
observables. Estas diferencias se deben principalmente a dos aspectos: las correcciones relativistas y los efectos de
introducir un campo magnetico que interactue con el atomo.
En lo que respecta a la estructura fina del espectro del atomo de hidrogeno, se observo que cada lnea posee
varias componentes, es decir para un nivel de energa dado n hay realmente varias energas muy cercanas entre s.
Por supuesto, las diferencias entre energas de un mismo nivel son mucho menores que las diferencias entre energas
de niveles distintos, razon por la cual la concordancia con los experimentos de baja resolucion era buena. Por lo
tanto, debe introducirse alguna correccion a la teora desarrollada en el captulo 13 para explicar el desdoblamiento
de las lneas espectrales all predichas.

15.4.2. Efecto Zeeman anomalo


En la seccion 14.3, vimos que cuando un atomo se coloca en un campo magnetico uniforme, cada una de las
lneas (es decir, cada componente de la estructura fina) se desdobla en ciertas lneas equidistantes, donde la brecha
es proporcional al campo magnetico y al numero cuantico magnetico, esto se conoce como efecto Zeeman. Los
desarrollos en la seccion 14.3, muestran que este efecto se puede explicar usando el formalismo cuantico hasta
15.5. MOMENTO ANGULAR INTRINSECO EN LA CUANTICA NO-RELATIVISTA 389

ahora descrito. La explicacion teorica se basa en la relacion del momento dipolar magnetico M con el momento
angular orbital del electron
B q~
M= L ; B = (15.3)
~ 2me
donde B se conoce como el magneton de Bohr. Sin embargo, la teora presentada en el captulo 14 solo esta
en concordancia con el experimento en algunos casos que llamaremos efecto Zeeman normal. En otros casos,
sin embargo aparece un efecto Zeeman anomalo que resulta particularmente sustancial en atomos con numero
atomico impar (en particular, el atomo de Hidrogeno), ya que sus niveles se dividen en un numero par de subniveles
en tanto que la teora predice que el numero de subniveles debe ser impar ya que es igual a 2l + 1 con l entero. Si
asumimos que en el efecto Zeeman anomalo el desdoblamiento continua siendo generado por un momento angular
J2 , es necesario que el valor propio j (j + 1) ~2 de este momento angular corresponda a j semi-entero para poder
explicar que el numero de subniveles 2j + 1 sea par.
Notese que un experimento del tipo Stern-Gerlach no sera practico para la medicion del momento angular
electronico debido a que el electron tiene carga neta (monopolo electrico), y la interaccion del momento dipolar
magnetico del electron con el campo es mucho mas debil que la interaccion de Lorentz descrita por qv B.

15.5. Introduccion del momento angular intrnseco en el formalismo de la


mecanica cuantica no relativista
Para poder introducir el momento angular intrnseco en el formalismo no relativista de la mecanica cuantica
sera necesario introducir algunos postulados adicionales. La teora no relativista para incorporar al espn fue
desarrollada por Pauli. Mas adelante, Dirac desarrollo una teora relativista que desemboco en la llamada ecuacion
de Dirac, en la cual el espn aparece en forma natural debido a la covarianza de la ecuacion con el grupo de
transformaciones de Lorentz. Si bien, el espn tambien se puede deducir de las transformaciones no relativistas del
grupo de Galileo, la aparicion del espn es mucho mas natural en las teoras relativistas.
Sin embargo, dado que la teora de Pauli es mas simple que la de Dirac y que estamos desarrollando una teora
no relativista, introduciremos el espn con los postulados de Pauli.
Antes de Pauli, Uhlenbeck y Goudsmit en 1925 propusieron que el electron posea un efecto de rotacion
que generaba un momento angular intrnseco que llamaron espn (del ingles spin que significa rotacion o giro).
Se postula entonces que existe un momento dipolar magnetico MS que esta asociado con el momento angular
intrnseco o espn (denotado por S) en la forma
B
MS = 2 S (15.4)
~
que tiene la misma estructura que la relacion (15.3) para el momento angular orbital, pero con un factor de
dos, que nos dice que el factor giromagnetico de espn es dos veces mayor que el factor giromagnetico orbital.
Esta relacion se impuso por razones estrictamente fenomenologicas, con el fin de ajustar la concordancia teora
experimento.
Mas adelante, Pauli establecio una forma de incorporar este momento angular intrnseco en el formalismo de
la mecanica cuantica no relativista agregando unos postulados sobre estos observables.
Hasta el momento, hemos cuantizado solo observables que dependen de los observables basicos R y P y que
denominaremos observables orbitales, los cuales actuan en el espacio de estados Er que es isometrico e isomorfo
con el espacio F de las funciones de onda. Similarmente denominamos espacio orbital de estados a Er .
Dentro de los postulados de Pauli, anadiremos a estos observables orbitales un conjunto de observables de
espn en la siguiente forma
(I) El operador de espn S (S1 , S2 , S3 ) es un momento angular, es decir cumple con las reglas de conmutacion
(10.6)
[Si , Sj ] = i~ijk Sk
390 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

(II) Estos operadores de espn actuan en un espacio de estados de espn Es , en el cual los observables S2
y S3 constituyen un C.S.C.O. Por tanto, Es es expandido por los estados propios comunes de S2 y S3

S2 |s, ms i = s (s + 1) ~2 |s, ms i ; S3 |s, ms i = ms ~ |s, ms i

de acuerdo con la teora general del momento angular, sabemos que s debe ser entero o semientero y que ms toma
todos los valores includos entre s y s en saltos de unidad. Sabemos tambien que ms es entero (semi-entero) si
y solo si s es entero (semi-entero).
III) Una partcula dada esta caracterizada por un valor unico de espn s y diremos que esta partcula tiene
espn s.
Puesto que {|s, ms i} con s fijo es una base para el espacio de estados de espn Es , dicho espacio es de dimension
finita 2s + 1. Notese ademas que todos los elementos de Es son estados propios de S2 con el mismo valor propio
s (s + 1) ~2 .
IV) El espacio de estados E de una partcula es el producto tensorial4 de Er con Es

E = Er Es

consecuentemente, todos los observables de espn conmutan con todos los observables orbitales. Ademas excepto
para s = 0, esto implica que para la caracterizacion del estado de una partcula no sera suficiente especificar un
ket de Er . Por ejemplo, los observables X1 , X2 , X3 constituyen un C.S.C.O. en Er pero no en E, para formar un
C.S.C.O. en E debemos agregar un C.S.C.O. del espacio Es , por ejemplo S2 y algun Si (usualmente S3 ).
Adicionalmente, de las propiedades del producto tensorial, el producto tensorial de los elementos de una base
{|n i} en Er con los elementos de una base {i } en Es sera una base de E = Er Es

{|n , i i} {|n i |i i}

Esto implica que todo estado de una partcula es una combinacion lineal de estos productos tensoriales
XX XX
|i = cn,i |n , i i = cn,i |n i |i i ; cn,i = hn , i |i
n i n i

debemos recordar sin embargo, que no todo estado |i E proviene del producto tensorial de un estado |i Er
con un estado |i Es . Es decir que la relacion

|i = |i |i ; |i Er ; |i Es ; |i E (15.5)

no es valida en general. Sin embargo, cuando la relacion (15.5) es valida para un cierto |i es claro que
XX
|i = cn,i |n , i i ; cn,i = hn |i hi |i
n i

Estos postulados conciernen a una teora general de espn. El siguiente postulado esta dirigido mas especifica-
mente al espn del electron
(V) El electron es una partcula de espn 1/2 (s = 1/2) y su momento dipolar magnetico intrnseco esta dado
por
B B
MS = (2s + 1) S=2 S
~ ~
que coincide con (15.4).
Adicionalmente, los constituyentes nucleares (protones y neutrones) tambien son partculas de espn 1/2 aunque
su factor giromagnetico es diferente al del electron. Tambien existen partculas de espn 0, 1/2, 1, 3/2, 2, ...
A priori podramos estar tentados a pensar que el espn es un efecto del tamano del electron que genera la
posibilidad de que esta partcula produzca rotaciones. En tal caso, ademas de los observables de posicion (del
4
Para detalles sobre productos tensoriales ver seccion 1.32, page 70.
15.6. PROPIEDADES DE UN MOMENTO ANGULAR 1/2 391

centro de masa del electron), sera necesario anadir tres observables asociados a la rotacion (por ejemplo una
cuantizacion adecuada de los angulos de Euler). Sin embargo, las rotaciones espaciales deben cumplir relaciones
de periodicidad similares a las que se imponen para los armonicos esfericos, lo cual nos exige que s sea entero.
La presencia de espn semientero indica que este observable no tiene un origen rotacional, ni puede provenir de la
cuantizacion de un momento angular clasico que sea funcion exclusiva de R y P. En el presente tratamiento, el
electron continua siendo una partcula puntual y el espn no tiene analogo clasico.

15.6. Propiedades de un momento angular 1/2


Puesto que los electrones as como los nucleones son partcula de espn 1/2, el espacio de estados Es=1/2 merece
especial atencion. En esta seccion nos ocuparemos de estudiar solo el espacio E1/2 y en el siguiente nos ocuparemos
de caracterizar el espacio de estados completo E = E 1/2 Er
El espacio de estados E1/2 es de dimension dos. Los autoestados comunes de S2 y S3 , que conforman una base
ortonormal en E1/2 estan dados por
     
1 1 1
s = 1 , ms = 1 , s = 1 , ms = 1
,
, ,
1
2 2 2 2 2 2 2 2

Simplificaremos la notacion para estos autoestados comunes de S2 y S3 en la forma


 
1 1 1 1
,
2 2 |+i ; 2 , 2 |i

es comun referirse a los autoestados |i, como estado con espn arriba y abajo respectivamente5 . Es claro que
 
1 1 1
S2 |i = + 1 ~2 |i ; S3 |i = ~ |i
2 2 2
3 2 1
S2 |i = ~ |i ; S3 |i = ~ |i (15.6)
4 2
con relaciones de ortonormalidad y completez

h+ |+i = h |i = 1 ; h+ |i = 0 ; |+i h+| + |i h| = Is (15.7)

el estado mas general de espn es entonces una combinacion lineal de esta base

|i = c+ |+i + c |i (15.8)

siendo c numeros complejos. Dado que ambos estados |i son autoestados de S2 con el mismo autovalor, cualquier
combinacion lineal de ellos tambien lo es. Por tanto, todos los estados de Es son autoestados de S2 con el mismo
valor propio (3/4) ~2 , esto implica que S2 es proporcional al operador identidad de Es
3
S2 = ~2 Is (15.9)
4
definiendo los operadores escalera Ec. (10.13), tenemos

S = S1 iS2 (15.10)

Invirtiendo la relaciones (15.10) escribimos


S+ + S S+ S
S1 = ; S2 = (15.11)
2 2i
5
Este es por supuesto un abuso del lenguaje, ya que ambos estados poseen el mismo espn y se diferencian solo en su momento
magnetico intrnseco.
392 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

La accion de los operadores S sobre los vectores base esta dada por las Ecs. (10.47) con j = s = 1/2

S+ |+i = S |i = 0 ; S+ |i = ~ |+i ; S |+i = ~ |i (15.12)

Los operadores Si , S2 , S poseen el algebra de cualquier momento angular Ecs. (10.14-10.17). Sin embargo,
hay algunas propiedades algebraicas adicionales propias de j = s = 1/2. En lo que sigue tomaremos j = s = 1/2.
Las expresiones (15.11) junto con (15.12) nos permiten demostrar ciertas propiedades de los Si y de S .
Calculemos primero S12 , S22 , S1 S2 , S2 S1
1 2  1 2 
S12 = S+ + S 2
+ S+ S + S S+ ; S22 = S+ + S 2
S+ S S S+ (15.13)
4 4
1 2 2
 1 2 2

S1 S2 = S+ S+ S + S S+ S ; S2 S1 = S+ + S+ S S S+ S
4i 4i
S+2 [S , S ] S 2 S 2 + [S , S ] S 2
+ +
S1 S2 = ; S2 S1 = +
4i 4i
S+2 2~S S 2 S 2 + 2~S3 S 2
3
S1 S2 = ; S2 S1 = + (15.14)
4i 4i
donde hemos usado (10.16). Similarmente podemos calcular los otros productos
1 1
S1 S3 = (S+ S3 + S S3 ) ; S3 S1 = (S3 S+ + S3 S ) (15.15)
2 2
1 1
S2 S3 = (S+ S3 S S3 ) ; S3 S1 = (S3 S+ S3 S ) (15.16)
2i 2i
un estado arbitrario de Es esta dado por (15.8). Por tanto la accion de los operadores S sobre un estado arbitrario
de Es se obtiene combinando (15.12) con (15.8)
2 2 2
S+ |i = S+ [c+ |+i + c |i] = c S+ |i = ~c S+ |+i = 0
2 2 2
S |i = S [c+ |+i + c |i] = c+ S |+i = ~c+ S |i = 0
S+ S |i = S+ S [c+ |+i + c |i] = c+ S+ S |+i = ~c+ S+ |i = ~2 c+ |+i = ~2 P+ |i
S S+ |i = S S+ [c+ |+i + c |i] = c S S+ |i = ~c S |+i = ~2 c |i = ~2 P |i
(S+ S + S S+ ) |i = ~2 [P+ + P ] |i = ~2 |i

y como |i es arbitrario, se obtiene


2 2
S+ = S = 0 ; S+ S = ~2 P+ ; S S+ = ~2 P ; (S+ S + S S+ ) = ~2 Is (15.17)

donde hemos definido los proyectores P de modo que

Es = E+ E ; |i = |i+ + |i ; |i E , |i Es
P |i = |i = c |i

usando (15.17) en (15.13) se obtiene


1 2  1
S12 = S+ + S2
+ S+ S + S S+ = ~2 Is
4 4
1 2  1 2
S22 2
= S + + S S + S S S + = ~ Is
4 4
3 1 1 1
S32 = S2 S12 S22 = ~2 Is ~2 Is ~2 Is = ~2 Is
4 4 4 4
2 2 2 1 2
S 1 = S 2 = S 3 = ~ Is (15.18)
4
15.6. PROPIEDADES DE UN MOMENTO ANGULAR 1/2 393

Ahora utilizando (15.17) en (15.14) se obtiene


i 2 2
 ~ i 2 2
 ~
S1 S2 = S+ 2~S3 S = i S3 ; S2 S1 = S+ + 2~S3 S = i S3
4 2 4 2
i~
S1 S2 + S2 S1 = 0 ; S1 S2 = S3 (15.19)
2
empleando (15.12) en (15.15) tenemos
1 1
S1 S3 |i = (S+ S3 + S S3 ) [c+ |+i + c |i] = (S+ + S ) [c+ S3 |+i + c S3 |i]
2 2
~ ~c+ ~c
= (S+ + S ) [c+ |+i c |i] = (S+ + S ) |+i (S+ + S ) |i
4 4 4
~2 c+ ~2 c
= |i |+i
4 4
~2
S1 S3 |i = [c+ |i c |+i] (15.20)
4
1 c+ c
S3 S1 |i = (S3 S+ + S3 S ) [c+ |+i + c |i] = (S3 S+ + S3 S ) |+i + (S3 S+ + S3 S ) |i
2 2 2
~c+ ~c ~2 c+ ~2 c ~2
= S3 |i + S3 |+i = |i + |+i = [c+ |i c |+i]
2 2 4 4 4
~2
S3 S1 |i = [c+ |i c |+i] (15.21)
4
comparando (15.20) con (15.21) teniendo en cuenta que |i es arbitrario se obtiene
S1 S3 + S3 S1 = 0
ahora miremos la accion de S2 sobre |i
S+ S S+ S S+ S ~ ~
S2 |i = [c+ |+i + c |i] = c+ |+i + c |i = c+ |i + c |+i
2i 2i 2i 2i 2i
i~
S2 |i = [c+ |i c |+i] (15.22)
2
comparando (15.22) con (15.21) resulta
i~
S3 S1 = S2 (15.23)
2
similarmente se puede demostrar que
i~
S2 S3 + S3 S2 = 0 ; S2 S3 = S1 (15.24)
2

15.6.1. Resumen de resultados


Los observables Si , S2 , S poseen el algebra de un momento angular Ecs. (10.14-10.17). Pero hay algunas
propiedades algebraicas adicionales especficas de j = s = 1/2. Definiendo el anticonmutador de dos operadores
como
{A, B} AB + BA
Este algebra especfica esta dada por
2 2
S+ = S = 0 ; S+ S = ~2 P+ ; S S+ = ~2 P ; {S+ , S } = ~2 Is (15.25)
1 i~
S12 = S22 = S32 = ~2 Is ; Si Sj = ijk Sk ; {Si , Sj } = 0 ; i 6= j (15.26)
4 2
vale la pena enfatizar que la ultima de las relaciones (15.26) nos dice que para s = 1/2, los operadores de espn Si
son anticonmutantes.
394 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

15.6.2. Representacion matricial de los observables de espn


Un operador que actua en Es se puede representar en la base {|+i , |i} con una matriz 2 2. En particular,
usando (15.6, 15.10, 15.12) se puede construr la representacion matricial de los S , Si y S2 (ver tambien las Ecs.
10.60, 10.61 Pag. 324). Esta representacion matricial se puede resumir en la forma
     
~ 0 1 0 i 1 0
(S) = ; 1 = ; 2 = ; 3 =
2 1 0 i 0 0 1
   
2
 3 2 3 2 0 1 0 0
S = ~ Is ~ 0 ; (S+ ) = ~ ~+ ; (S ) = ~ ~
4 4 0 0 1 0

puesto que las matrices (~/2) i y las matrices ~ son representaciones de los operadores Si y S deben cumplir
el algebra de estos operadores Ecs. (15.25, 15.26)

[i , j ] = 2iijk k ; 12 = 22 = 32 = 122
{i , j } = 0 ; i j = iijk k f or i 6= j
2 2
+ = = 0 ; + = P+ ; + = P ; + + + = Is (15.27)

estas relaciones se pueden verificar explcitamente. Tambien se puede verificar explcitamente que

T ri = 0 ; det (i ) = 1 ; i = 1, 2, 3 (15.28)

Las Ecs. (15.28) son independientes de la base ya que la traza y el determinante son invariantes ante transforma-
ciones de similaridad. Podemos verificar tambien la siguiente identidad

(~ A) (~ B) = 122 (A B) + i~ (A B) ; ~ (1 , 2 , 3 ) (15.29)

donde A y B son vectores arbitrarios u operadores vectoriales cuyas tres componentes conmutan con las compo-
nentes de S. No es necesario que A y B conmuten, pero si no conmutan, el orden de aparicion de los operadores
en (15.29) debe ser estricto. La Ec. (15.29) se puede demostrar usando las propiedades (15.27) y la hipotesis de
que las componentes de A y B conmutan con las i . Usaremos smbolos explcitos de sumatoria para efectos de
claridad
XX X XX
(~ A) (~ B) = (m Am ) (n Bn ) = (m Am ) (m Bm ) + (m Am ) (n Bn )
m n m m n6=m
" #
X XX X XX X
2
= m Am Bm + m n Am Bn = 122 Am Bm + imnk k Am Bn
m m n6=m m m n6=m k
X X XX X
= 122 Am Bm + i k mnk Am Bn = 122 (A B) + i k (A B)k
m k m n6=m k
(~ A) (~ B) = 122 (A B) + i~ (A B)

Finalmente, si definimos el conjunto de matrices

(0 , ~ ) = (I, 1 , 2 , 3 ) (15.30)

cualquier matriz compleja 2 2 se puede escribir como una combinacion lineal compleja de estas cuatro matrices

M22 = c ; = 0, 1, 2, 3

sumando sobre ndices repetidos. Esto se debe a que las cuatro matrices son linealmente independientes y
se necesitan cuatro elementos (complejos) para determinar una matriz compleja 2 2. Por lo tanto, las cuatro
15.7. DESCRIPCION NO-RELATIVISTA DE PARTICULAS CON ESPIN 1/2 395

matrices forman una base para el espacio vectorial complejo de todas las matrices complejas 2 2. Para ver
la independencia lineal de las matrices, basta con escribir cada matriz compleja 2 2 como si fuera un vector
complejo de cuatro componentes

  1   0
1 0 0 0 1 1
0 =
0 ; 1 = 1 0 1

0 1
1 0

  0   1
0 i i 0
2 = ; 3 = 1 0
i 0 i 0 1 0
0 1

y calculando el determinante de la matriz compleja 4 4 que se forma con los vectores comlumna

1 0 0 1
0 1 i 0
det
0 1
= 4i 6= 0
i 0
1 0 0 1

de modo que los vectores columna (y por tanto las matrices complejas equivalentes) son linealmente independientes,
de hecho son ortogonales, aunque no estan normalizados.

15.7. Descripcion no relativista completa de operadores y estados de partcu-


las con espn 1/2
Hemos visto como se describen los estados y operadores de Er y de Es por aparte. Pero la descripcion completa
del sistema cuantico requiere construr un unico espacio de estados para el formalismo. El espacio de estados
completo E para una partcula de espn 1/2, se construye como el producto tensorial de Er y Es

E = Er Es

15.7.1. Construccion de los estados


Si tenemos un operador definido en Er podemos extenderlo al espacio E mediante el producto tensorial con la
identidad de Es . Si A es un operador que transforma sobre Er podemos extenderlo a un operador A que transforma
sobre E en la forma
A A Is
similarmente un operador B de Es se puede extender a un operador sobre E con la prescripcion

B = Ir B

Sin embargo, no cambiaremos la notacion para estas extensiones y las seguiremos llamando A y B. En particular,
podemos obtener un C.S.C.O. en E como la yuxtaposicion de un C.S.C.O. en Er con un C.S.C.O. en Es . Por
ejemplo, en Es el conjunto S2 , S3 forma un C.S.C.O. a esto le podemos anadir un C.S.C.O. de Er para obtener un
C.S.C.O. de E. Como ejemplos tenemos
  
X1 , X2 , X3 , S2 , S3 ; P1 , P2 , P3 , S2 , S3 ; L2 , L3 , H, S2 , S3 (15.31)

puesto que todos los kets de E son kets propios de S2 , este operador podra ser omitido y aun tendramos un
C.S.C.O. en E. Esto se debe a que estrictamente S3 por s solo ya forma un C.S.C.O. en Es . Sin embargo, es usual
396 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

dejar S2 dentro del C.S.C.O. ya que si bien es deseable que este contenga el mnimo de operadores posible, no es
obligatorio que as sea.
Vamos a escribir las relaciones con el primero de los C.S.C.O. en la Ec. (15.31). Una base en E se obtiene como
el producto tensorial de las bases en cada espacio

|r, i |x1 , x2 , x3 , i = |ri |i , |i Es

las componentes xi varan entre e y toma los valores +1 o 1 (ndice


 discreto que realmente significa
ms = 1/2). Por definicion {|r, i} es una base de autovectores comunes a X1 , X2 , X3 , S2 , S3 en E

3 ~
Xi |r, i = xi |r, i ; S2 |r, i = ~2 |r, i ; S3 |r, i = |r, i ; 1
4 2
puesto que esto es un C.S.C.O. cada |r, i es unico salvo factores constantes. Dado que {|ri} es ortonormal en
Er en el sentido extendido, y {|i} es ortonormal en Es (ver Ecs. 15.7) entonces {|r, i} es ortonormal en E en el
sentido extendido



hr |r, i = r (|ri |i) = hr |ri h |i

hr |r, i = r r

la relacion de completez que nos dice que {|r, i} es una base en E es


XZ Z Z
d3 r |r, i hr, | = d3 r |r, +i hr, +| + d3 r |r, i hr, | = IE

por tanto, todo estado |i E se puede expandir en {|r, i}


XZ
|i = IE |i = d3 r |r, i hr, | i

XZ
|i = d3 r (r) |r, i , (r) hr, | i (15.32)

donde (r) son las coordenadas o componentes (transformadas de Fourier) en la base {|r, i}. Estas coordenadas
o componentes, dependen de tres ndices contnuos r y del ndice discreto . Por tanto, una funcion de onda en E
se especifica a traves de dos funciones de onda espaciales correspondientes a los dos estados de espn

(r) = + (r) + (r) (15.33)


(r) hr, |i (15.34)

como + (r) y (r) son estados ortogonales, es usual escribirlos en forma de un arreglo de dos componentes
conocido como espinor  
+ (r)
[] (r) = (15.35)
(r)
el bra h| asociado al espacio dual E se obtiene con el hermtico conjugado de la Ec. (15.32)
XZ
h| = d3 r (r) hr, |

conjugando las Ecs. (15.33, 15.34) vemos que

(r) = +

(r) + (r)
; (r) h |r, i
15.7. DESCRIPCION NO-RELATIVISTA DE PARTICULAS CON ESPIN 1/2 397

(r) que se pueden escribir en forma de espinor como


nos dice que el bra h| esta representado por dos funciones
el adjunto de (15.35) 
[] (r) = + (r) (r)
(15.36)
el producto escalar entre dos estados |i y |i, se puede escribir como
" #
XZ Z X
3 3
h |i = h| IE |i = d r h |r, i hr, | i = d r h |r, i hr, | i

Z
h |i = d3 r [h |r, +i hr, +| i + h |r, i hr, | i]
Z
 
h |i = d3 r +
(r) + (r) + (r) (r)

esto tambien se puede escribir en la forma


Z   
3
 + (r)
h |i = d r + (r) (r)
(r)
Z
h |i = d3 r [] (r) [] (r)

donde hemos usado (15.35, 15.36). Esta expresion se asemeja a la que se obtiene para el producto interno de dos kets
en Er , pero teniendo en cuenta que en vez de funciones de onda escalares tenemos espinores de dos componentes, de
modo que se debe realizar la multiplicacion matricial antes de integrar en el espacio. En particular la normalizacion
queda en la forma
Z Z h i
h |i = ||2 = d3 r [] (r) [] (r) = d3 r |+ (r)|2 + | (r)|2 = 1 (15.37)

hemos visto que un vector de E no necesariamente es el producto tensorial de un vector en Er por otro en Es . Sin
embargo, esto es valido para algunos vectores (en particular los vectores base |r, i), si el vector |i en cuestion
es de este tipo
|i = |i |i ; |i Er , |i Es
el espinor asociado tendra una forma simple ya que
Z
|i = d3 r (r) |ri ; |i = c+ |+i + c |i

usando las Ecs. (15.33, 15.34) se tiene que


(r) hr, |i = [hr| h|] [|i |i] = hr |i h |i = (r) h| [c+ |+i + c |i]
(r) = c (r)
y los espinores dados en (15.35, 15.36) quedan
   
c+ (r) c+
[] (r) = = (r)
c (r) c

[] (r) = (r) c+ c
si en particular |i = |+i entonces c+ = 1, c = 0. Resultando
|i = |i |+i + (r) hr |i h+ |+i = (r) ; (r) hr |i h |+i = 0
 
1 
[] (r) = (r) ; [] (r) = (r) 1 0
0
similarmente, si |i = |i  
0 
[] (r) = (r) ; [] (r) = (r) 0 1
1
398 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

15.7.2. Construccion de operadores


Veremos como se puede caracterizar la accion de los operadores en E. Para ello trabajaremos primero operadores
originalmente definidos en Es , despues operadores definidos en Er y finalmente operadores mixtos.

Operadores espinoriales
Asumamos que el operador As esta definido originalmente solo por su accion sobre Es

As |i = ; |i , Es
Su extension como operador sobre E se escribe
As As Ir
definimos la accion del operador extendido en la forma

As |i = ; |i , E
expandiendo |i en la base |r, i
XZ
|i = d3 r (r) |r, i

XZ  
As |i = d3 r (r) As |r, i

la accion de As sobre |r, i es muy clara, ya que



As |r, i = (As Ir ) [|ri |i] = (Ir |ri) [As |i] = |ri

As |r, i = r,
XZ

As |i = d3 r (r) r,

la extension del operador solo afectara a la parte espinorial de |r, i y la transformara de la misma forma que lo
hace el operador original, en tanto que la parte espacial permanece intacta. Estos operadores se pueden representar
como matrices 22 y de aqu en adelante usamos A para denotar al operador extendido6 . Tomemos como ejemplo
a S+ , este operador actuando sobre un estado arbitrario |i de E nos da
XZ Z
S+ |i = d r (r) [S+ |r,i] = d3 r {+ (r) [S+ |r,+i] + (r) [S+ |r,i]}
3

Z
S+ |i = d3 r (r) [S+ |r,i]

donde hemos usado que S+ |+i = 0 y por tanto S+ |r,+i = 0. Y como S+ |i = ~ |+i se tiene finalmente
Z

S+ |i = ~ d3 r (r) |r,+i

las componentes espinoriales de | i son entonces


Z Z Z
  
+ (r) hr, + = hr, +| ~ d r r r ,+ = ~ d r r hr, + r ,+ = ~ d3 r r hr r h+ |+i
3 3
Z
 
= ~ d3 r r r r = ~ (r)

6
Por supuesto la representacion matricial de As es estrictamente de dimension infinita, pero dado que As = As 1r , se tiene que
la parte no trivial de la matriz es de dimension finita.
15.7. DESCRIPCION NO-RELATIVISTA DE PARTICULAS CON ESPIN 1/2 399

(r), con lo cual resulta


de manera similar podemos obtener

+
(r) hr, + = ~ (r) ;
(r) hr, = 0
 
  (r)
(r) = ~
0
pero esto tambien se puede escribir como
  
  0 1 + (r)
(r) = ~
0 0 (r)
 
(r) = ~+ [] (r)
es decir la misma representacion matricial sirve para definir a S+ tanto en Es como en E. Cual es la diferencia?.
Formalmente, en Es cada elemento de la matriz es un numero. En cambio en E cada elemento matricial representa a
un operador que actua sobre Er , por ejemplo, la matriz + como representacion extendida, rigurosamente significa
lo siguiente  
0r Ir
+ =
0r 0r
es decir cada elemento matricial representa a los operadores nulo e identidad del espacio Er . No obstante, desde
el punto de vista practico, esta notacion es innecesaria.

Operadores orbitales
El procedimiento es similar. Asumamos Ax que actua sobre Er , definiendo su extension y su accion sobre un
ket |i de E obtenemos

Ax |ri = r ; |ri , r Er

Ax Ax Is ; Ax |r, i = r ,

XZ
|i = d3 r (r) |r, i

X Z XZ
 
Ax |i = 3
d r (r) Ax |r, i = d3 r (r) r ,
Z
    
Ax |i = d3 r + (r) Ax |r, +i + (r) Ax |r, i

como Ax |r, +i actua sobre un espacio identico a |ri (ya que actua sobre un subespacio unidimensional de Es ),
podemos escribir Ax |r, +i. Igual ocurre para Ax |r, i
XZ XZ

+ (r) hr, + = hr, +| Ax |i = hr, +| Ax d3 x (x) |x, i = d3 x hr, +| Ax (x) |x, i

XZ Z
= 3bx (r) { (x) hr, +| x, i} =
d xA bx (r) {+ (x) hr, +| x, +i + (x) hr, +| x, i}
d xA 3

Z
= bx (r) + (x) (r x) = A
d3 x A bx (r) + (r)

bx (r) denota la forma del operador Ax en la base {|ri}, con un procedimiento similar se obtiene
donde A (r) de

modo que


+ (r) hr, + = A bx (r) + (r)


(r) hr, = A bx (r) (r)
400 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

! 
  bx (r)
A 0 + (r) h i
(r) = = Abx (r) Is [] (r)
0 bx (r)
A (r)
que nos muestra la forma correcta para la extension del operador Ax
Por tanto, la representacion matricial 2 2 del operador es proporcional a la identidad, puesto que no hay
cambio en los estados espinoriales. Los operadores actuan sobre la parte espacial tal como lo hace el operador
original. Tomemos como ejemplo a los operadores X1 , P1

(r) = hr, | X1 |i = x1 (r)


~
(r) = hr, | P1 |i = (r)
i x1
sus representaciones matriciales son
  !

x1 0 ~ x1 0
[X1 ] = ; [P1 ] =
0 x1 i 0 x1

de nuevo cada elemento de la matriz es un operador sobre Er aunque esta vez es un operador no trivial. En este
caso el operador trivial es sobre los espinores y por eso la matriz es proporcional a la identidad7 .

Operadores mixtos
Si un operador es de caracter mixto, sera una matriz 2 2 no trivial que actua sobre Es y en donde cada
elemento matricial es un operador no trivial sobre Er . Algunos ejemplos de operadores mixtos que aparecen en
cuantica son L3 S3 , S P. De acuerdo con la teora de representaciones, las representaciones matriciales deben
manifestar la preservacion del producto
  
~ ~
[L3 S3 ] = [L3 ] [S3 ] = Is Ir 3
i 2
" !#   

~ 0 ~ 1 0
=
i 0 2 0 1
!

~2 0
[L3 S3 ] =
2i 0

[S P] = [S1 P1 ] + [S2 P2 ] + [S3 P3 ] = [S1 ] [P1 ] + [S2 ] [P2 ] + [S3 ] [P3 ]


        
~ ~ ~ ~ ~ ~
= 1 + 2 + 3
2 i x1 2 i x2 2 i x3
2
 
~
= 1 + 2 + 3
2i x1 x2 x3

      
~2 0 1 0 i 1 0
[S P] = + +
2i 1 0 x1 i 0 x2 0 1 x3
" ! ! !#

~2 0 x1 0 i x 2
x 0
[S P] = + + 3
2i x1 0 i x 2 0 0 x 3
!

~2 x3 x1 i x 2
[S P] =
2i x1 + i x 2 x 3
7
Para los operadores espinoriales, son los elementos de la matriz 2 2 los que son proporcionales a la identidad.
15.8. REPRESENTACION EN LA BASE |P, i 401

vale enfatizar que por construccion, operadores de espacios distintos conmutan.


En sntesis, para un operador arbitrario A de E tal que

A |i =

podemos asociarle una matriz 2 2 en la forma


 
(r) = [A] [] (r)

donde la estructura de la matriz representa la transformacion sobre el espacio de espines y cada elemento de la
matriz representa un operador en el espacio de coordenadas. Un elemento matricial h| A |i estara dado por
Z
h| A |i = d3 r [] (r) [A] [] (r)

expresion similar a la que se encuentra para el espacio de coordenadas, pero teniendo en cuenta que en vez de
funciones de onda escalares aqu tenemos espinores de dos componentes. Los productos matriciales deben hacerse
para entonces evaluar la integral. Esta representacion solo se usara cuando sea particularmente simple. En general
al igual que en Er suele ser mejor trabajar con los operadores y estados en abstracto hasta donde sea posible.

15.8. Representacion en la base |p, i


Un tratamiento similar se puede desarrollar si escojemos los C.S.C.O como P1 , P2 , P3 , S2 , S3 . En tal caso la
base es {|p, i} el producto escalar con la base {|r, i} nos da
pr
ei ~
hr, p, = hr |pi h = (15.38)
(2~)3/2

a cada vector |i se le asocia un espinor de dos componentes


 
  + (p)
(p) ; (p) = hp, |i
(p)

de acuerdo con (15.38) (p) es la transformada de Fourier de (r).


XZ

(p) = hp, |i = d3 r hp, r, r, i

XZ ei pr
~
(p) = d3 r (r)
(2~)3/2
Z
1 pr
(p) = 3/2
d3 r ei ~ (r)
(2~)

los operadores tambien se representan por matrices 22. Cuando el operador original es espinorial la representacion
matricial es identica a la que se encontro para la base {|r, i}.

15.9. Calculos de probabilidad para estados de espn 1/2


Aplicaremos los postulados de la mecanica cuantica para los observables sobre el espacio de estados E. Imagi-
nemos que queremos medir simultaneamente la posicion y la componente del espn de un partcula de espn 1/2 a
lo largo de X3 . Puesto que R, S3 constituyen un C.S.C.O., hay un unico estado asociado a cada medida de estos
402 CAPITULO 15. MOMENTO ANGULAR INTRINSECO

observables, x1 , x2 , x3 , ~2 . La probabilidad dP (r, +) de que la partcula se encuentre dentro de un volumen d3 r


alrededor del punto r con su espn arriba (que es una forma de designar el caso en el cual la componente del
espn a lo largo de X3 es +~/2), esta dada por

dP (r, +) = |hr, +| i|2 d3 r = |+ (r)|2 d3 r

donde hemos asumido que la funcion de onda esta normalizada en la forma (15.37). Similarmente la probabilidad de
que la partcula se encuentre dentro de un volumen d3 r centrado en r con su espn abajo (es decir con la
componente del espn a lo largo de X3 igual a ~/2), esta dada por

dP (r, ) = |hr, | i|2 d3 r = | (r)|2 d3 r

Si lo que queremos es medir la componente del espn a lo largo de X1 , debemos tener en cuenta que los autoestados
(normalizados) de S1 vienen dados por
1
|iS1 = [|r, +i |r, i] (15.39)
2
siendo |i los autoestados de S3 . Podemos verificar que estos son autoestados de S1 en la siguiente forma
1 1 1
S1 |iS1 = S1 [|r, +i |r, i] = (S+ + S ) [|r, +i |r, i] = [S |r, +i S+ |r, i]
2 2 2 2 2
~ ~ ~
S1 |iS1 = [|r, i |r, +i] = [|r, +i |r, i] = |iS1
2 2 2 2 2

La probabilidad de encontrar al electron en el volumen d3 r centrado en r y con componente positiva de espn a lo


largo de X1 es
2
1 1
dPS1 (r, +) = |S1 hr, +| i| d r = [hr, +| + hr, |] |i = |[hr, +| i + hr, | i]|2
2 3
2 2
1
dPS1 (r, +) = |+ (r) + (r)|2 d3 r (15.40)
2
Por supuesto, podemos estar interesados en calcular la probabilidad de que la partcula posea un momento
centrado en p en un volumen (de momento) d3 p y con componente de espn a lo largo de X3 de ~/2. Para ello
usamos las componentes del estado |i en la base {|p, i}, que nos da las transformadas de Fourier de (r)

(p) hp, |i

la probabilidad ya mencionada sera entonces


2
dP (p, ) = |hp, |i|2 d3 p = (p) d3 p

Por otro lado, podemos estar interesados en hacer mediciones incompletas en el sentido de que los observables
asociados a las medidas no formen un C.S.C.O. es decir que las medidas no conducen a determinar el estado de
manera unica. Cuando las medidas son incompletas hay varios estados ortogonales asociados al mismo resultado
y debe sumarse los cuadrados de los modulos de las amplitudes correspondientes.
Como ejemplo, si no nos interesa conocer el espn, la probabilidad dP (r) de encontrar a la partcula en el
volumen d3 r centrado en r es igual a
n o n o
dP (r) = |hr, +| i|2 + |hr, | i|2 d3 r = |+ (r)|2 + | (r)|2 d3 r

dado que los dos estados ortogonales |r, +i y |r, i estan asociados al mismo resultado r donde sus amplitudes de
probabilidad son + (r) y (r).
15.9. CALCULOS DE PROBABILIDAD PARA ESTADOS DE ESPIN 1/2 403

Ahora supongamos que queremos saber la probabilidad de que la partcula tenga componente S3 igual a +~/2,
pero sin importar su ubicacion ni el valor de las demas variables orbitales. Hay un conjunto infinito de estados
ortogonales {|r, +i} asociados a este resultado, cuyas probabilidades deben ser sumadas
Z Z
P+ = d3 r |hr, +| i|2 = d3 r |+ (r)|2

si por ejemplo queremos encontrar la probabilidad de obtener un espn +~/2 a lo largo de X1 , debemos integrar
la Ec. (15.40) en todo el espacio.
Captulo 16

Adicion de momentos angulares

16.1. El problema clasico de la adicion del momento angular


Cuando tenemos un sistema de partculas el momento angular total del sistema es la suma de los momentos
angulares individuales
Xn
L= ri pi (16.1)
i=1
cuando no hay fuerzas externas, el torque externo sobre el sistema es cero, y el momento angular total es constante
de movimiento. Algo similar ocurre cuando el torque neto con respecto a un origen dado es cero, ya que el momento
angular alrededor del mismo origen sera constante de movimiento. En el ultimo caso sin embargo, hay que tener
en cuenta que en general al cambiar el origen, el torque puede ser diferente de cero y el momento angular ya no
sera constante de movimiento.
Cuando el sistema este aislado, el momento angular total se conserva, sin embargo no necesariamente se
conservara el momento angular de cada partcula, si hay fuerzas internas ellas causaran un cambio en los momentos
angulares individuales, de forma que la suma total sea constante. Solo cuando las partculas no son interactuantes
podemos garantizar la conservacion de los momentos angulares individuales, ya que en este caso cada partcula
forma un sistema aislado.
Otro escenario en donde se conserva el momento angular, es en fuerzas centrales. Si tenemos dos partculas no
interactuantes cada una interactuando con el mismo centro de fuerzas (originada por una tercera partcula mucho
mas masiva que las otras), el momento angular de cada partcula se conserva puesto que cada una esta sometida
a una fuerza central. Pero si hay una interacciona entre las dos partculas, la fuerza neta sobre la partcula 1
ya no es en general central, por tanto su momento angular ya no necesariamente es constante de movimiento,
similarmente ocurre para la partcula 2. No obstante, si se cumple el principio de accion y reaccion en su forma
fuerte, el momento angular total de las dos partculas se conserva por la cancelacion de los torques internos. En
conclusion, en un sistema aislado de partculas interactuantes solo el momento angular total se conserva pero no
los momentos individuales. Veremos que este fenomeno tiene su contrapartida cuantica.

16.2. Momento angular total en mecanica cuantica


16.2.1. Dos partculas sin espn bajo una interaccion central
Trabajaremos el sistema de dos partculas sin espn en mecanica cuantica. Primero asumiremos que no son
interactuantes. El Hamiltoniano en la base de {|r1 , r2 i} esta dado por

H0 = H1 + H2
~2 2 ~2 2
H1 = 1 + V (r1 ) ; H2 = + V (r2 ) (16.2)
21 22 2

404
16.2. MOMENTO ANGULAR TOTAL EN MECANICA CUANTICA 405

donde i son las masas, V (r) el potencial central al cual estan sometidas, y 2i indica el Laplaciano tomado con
las coordenadas de la partcula i. Del captulo 12 sabemos que L(1) conmuta con H1 , y teniendo en cuenta que
todos los observables relacionados con una partcula conmutan con todos los observables relacionados con la otra,
se obtiene h i h i
L(1) , H1 = L(1) , H2 = 0 (16.3)

argumento similar se tiene para L(2) . Estos nos indica que


h i h i
L(1) , H0 = L(2) , H0 = 0

y como L() no depende explcitamente del tiempo, se tiene que cada momento angular es constante de movimiento
por aparte, tal como en el caso clasico. Ahora asumimos que las dos partculas interactuan por medio de un
potencial W (|r2 r1 |) que solo depende de la distancia entre las partculas, esto implica por supuesto asumir la
validez de la ley de accion y reaccion. La distancia |r2 r1 | se escribe
r  
(1) (2) (1) (2)
|r2 r1 | = xi xi xi xi (16.4)

suma sobre ndices repetidos, el Hamiltoniano se escribe como

H = H1 + H2 + W (|r2 r1 |) (16.5)

con Hi dados por (16.2). Las relaciones (16.3) nos dan


h i h i h i
L(1) , H = L(1) , H1 + H2 + W (|r2 r1 |) = L(1) , W (|r2 r1 |)

(1)
analicemos por ejemplo la componente L3 , para calcular el conmutador con W debemos aplicar el conmutador
a una funcion de onda arbitraria (r)
! !
h i ~ ~
(1) (1) (1) (1) (1)
L3 , W (r) = x1 (1)
x2 (1)
(W ) W x1 (1)
x2 (1)

i x2 x1 i x2 x1
! !
~ (1) W (1) W ~ (1) (1)
= x1 (1)
x2 (1)
+ x1 (1)
x2 W
i x2 x1 i x2 x1
!
~ (1) (1)
W x1 (1)
x2 (1)
i x2 x1
!
~ (1) W (1) W
= x1 (1)
x2 (1)
(r)
i x x
2 1

y como (r) es arbitraria se concluye que


!
h i ~ W W
(1) (1) (1)
L3 , W (|r2 r1 |) = x1 (1)
x2 (1)
i x2 x1

esta expresion no es necesariamente cero, de modo que L(1) no es en general constante de movimiento. Ahora bien,
si definimos el momento angular total L con una expresion analoga al caso clasico Ec. (16.1) tenemos

L = L(1) + L(2)
406 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

obtenemos un operador cuyas tres componentes son constantes de movimiento. Por ejemplo, se ve que
h i
(1) (2)
[L3 , H] = L3 + L3 , H
!
~ (1) W (1) W (2) W (2) W
[L3 , H] = x1 (1)
x2 (1)
+ x1 (2)
x2 (2)
(16.6)
i x x x x
2 1 2 1

y puesto que W solo depende de |r2 r1 | dada por (16.4) tenemos que
r  
(1) (2) (1) (2)
xk xk xk xk
W W |r2 r1 | W
(1)
= =
xi |r2 r1 | x(1) |r2 r1 | xi
(1)
 i     
(1) (2) (1) (2) (1) (2)
2 xk xk (1) x k x k x x ik
W xi W k k
= r   = r
|r2 r1 | (1) (2) (1) (2) |r2 r1 |  (1) (2)

(1) (2)

2 xm xm xm xm xm xm xm xm
(1) (2)
W W xi xi
(1)
=
xi |r2 r1 | |r2 r1 |

(2)
similarmente se calcula W/xi se obtiene entonces
(1) (2)
W W |r2 r1 | W xi xi
(1)
= =
xi |r2 r1 | x(1) |r2 r1 | |r2 r1 |
i
(2) (1)
W W |r2 r1 | W xi xi
(2)
= (2)
= (16.7)
xi |r2 r1 | x |r2 r1 | |r2 r1 |
i

reemplazando (16.7) en (16.6), resulta

~ 1 W h    
(1) (1) (2) (1) (1) (2)
[L3 , H] = x1 x2 x2 x2 x1 x1
i |r2 r1 | |r2 r1 |
   i
(2) (2) (1) (2) (2) (1)
+x1 x2 x2 x2 x1 x1

por tanto tenemos que


[L3 , H] = 0
y similarmente para las otras componentes. En consecuencia podemos escribir

[L, H] = 0 ; L L(1) + L(2) (16.8)

De modo que aunque L(1) y L(2) no son individualmente constantes de movimiento, s lo es su suma L(1) + L(2)
definida como el momento total del sistema, al igual que en el caso clasico.

16.2.2. Una partcula con espn bajo una interaccion central


En lo anterior asumimos que las partculas no tienen espn. Vamos a tomar como segundo ejemplo a una
partcula con espn sujeta a una interaccion de tipo central. El Hamiltoniano para una partcula sin espn sometida
a una fuerza central Ec. (12.27), conmuta con el momento angular orbital L de la partcula, y como todos los
operadores de espn conmutan con todos los operadores orbitales, entonces S tambien conmuta con el Hamiltoniano.
Por tanto, L y S son cada una constantes de movimiento, cuando el Hamiltoniano de una partcula bajo una fuerza
16.2. MOMENTO ANGULAR TOTAL EN MECANICA CUANTICA 407

central es puramente orbital. Sin embargo, puede demostrarse que las correcciones relativistas introducen en el
Hamiltoniano un acoplamiento espn-orbita que es un termino de la forma

HSO = (r) L S

siendo (r) una funcion conocida de la variable r. Por el momento no analizaremos la procedencia fsica de este
termino, pero s sus consecuencias. El Hamiltoniano ahora es

H = H + (r) L S

Y se puede ver que ni L ni S conmutan con el nuevo Hamiltoniano


 
L3 , H = [L3 , H + HSO ] = [L3 , HSO ] = (r) [L3 , L1 S1 + L2 S2 + L3 S3 ]
 
L3 , H = (r) [L3 , L1 S1 + L2 S2 ] = (r) [L3 , L1 ] S1 + (r) [L3 , L2 ] S2
 
L3 , H = i~ (r) {L2 S1 L1 S2 }

similarmente
 
S3 , H = [S3 , HSO ] = (r) [S3 , L1 S1 + L2 S2 + L3 S3 ]


S3 , H = (r) [S3 , L1 S1 + L2 S2 ] = (r) L1 [S3 , S1 ] + (r) L2 [S3 , S2 ]

  
S3 , H = i~ (r) {L1 S2 L2 S1 } = L3 , H

vemos entonces que  


S 3 + L3 , H = 0
e igualmente para las otras componentes. De esto se deduce que

JL+S

es una constante de movimiento a pesar de que L y S no lo son. Llamaremos a J el momento angular total del
sistema.

16.2.3. Analisis general de dos momentos angulares asociados a una fuerza central
Hay varias semejanzas entre los dos ejemplos realizados. En ambos tenemos dos momentos angulares parciales
J(1) y J(2) que conmutan entre s. En ambos casos conocemos una base {|j1 , j2 ; m1 , m2 i} de autovectores de
(1) (2)
J2(1) , J3 , J2(2) , J3 . Tambien ocurre en los dos ejemplos que cada momento angular no es constante de movimiento
(cuando los subsistemas uno y dos se acoplan) pero su suma s lo es, definiendo

J J(1) + J(2)
(1) (2)
J conmuta con el Hamiltoniano del sistema. Notese que la base de autovectores (conocida) de J2(1) , J3 , J2(2) , J3
(1) (2)
no diagonaliza al Hamiltoniano puesto que este no conmuta con J3 ni con J3 . En contraste J2 y J3 s conmutan
con el Hamiltoniano, por tanto una base comun de J2 y J3 hara que la matriz del Hamiltoniano sea diagonal por
bloques1 , tantos bloques como autosubespacios asociados a los conjuntos de autovalores de J2 y J3 . Por tanto,
la estructura de la matriz sera mas simple en la base de vectores propios comunes a J2 y J3 que en la base de
(1) (2)
vectores comunes a J2(1) , J3 , J2(2) , J3 .
(1) (2)
Puesto que el punto de partida es la base conocida de vectores propios comunes de J2(1) , J3 , J2(2) , J3 nuestra
tarea sera entonces construr a partir de esta, una nueva base de vectores comunes a J2 y J3 , esto nos enfrentara
con el problema de las reglas de adicion o composicion de los momentos angulares J(1) y J(2) . Comenzaremos por
analizar algunas propiedades generales de la adicion de dos momentos angulares.
1
De hecho existira una base que diagonaliza a los tres operadores simultaneamente.
408 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

16.3. La adicion de dos momentos angulares es otro momento angular


Si tenemos dos momentos angulares arbitrarios J(1) y J(2) ambos sobre espacios diferentes, la suma (de los
operadores extendidos) es tambien un momento angular. Como cada J() es un momento angular, se tiene que
h i h i
(1) (1) (1) (2) (2) (2)
Ji , Jj = iijk Jk ; Ji , Jj = iijk Jk

ahora se tiene que


h i h i h i
(1)
(2) (1) (2) (1) (1) (2) (2) (1) (2)
[Ji , Jj ] = Ji
+ Ji , Jj + Jj = Ji , Jj + Jj + Ji , Jj + Jj
h i h i h i h i
(1) (1) (1) (2) (2) (1) (2) (2)
[Ji , Jj ] = Ji , Jj + Ji , Jj + Ji , Jj + Ji , Jj

dado que los momentos angulares J(1) y J(2) conmutan por ser de espacios diferentes, se tiene que
h i h i h i
(1) (1) (2) (2) (1) (2) (1) (2)
[Ji , Jj ] = Ji , Jj + Ji , Jj = iijk Jk + iijk Jk = iijk Jk + Jk
[Ji , Jj ] = iijk Jk

lo cual muestra que si J(1) y J(2) son dos momentos angulares arbitrarios que conmutan entre s, entonces el
operador
J J(1) + J(2)
tambien es un momento angular. Todas las propiedades generales de un momento angular seran validas entonces
para J. Tendremos ademas otras propiedades para conmutadores mixtos (que involucren por ejemplo un momento
angular total y un momento angular parcial). En particular, veamos las propiedades de conmutacion de J2
 2
J2 = J(1) + J(2) = J2(1) + J2(2) + 2J(1) J(2) (16.9)

donde hemos tenido en cuenta que J(1) y J(2) conmutan. El producto escalar se puede expresar en terminos de los
(1) (2) (1) (2)
operadores escalera J , J y los operadores J3 y J3 .
(1) (2) (1) (2) (1) (2)
J(1) J(2) = J1 J1 + J2 J2 + J3 J3 (16.10)
1  (1) (1)

(2) (2)
 1  (1) (1)

(2) (2)

(1) (2)
= J+ + J J+ + J + 2 J+ J J+ J + J3 J3
4 4i
1 h (1) (2) (1) (2) (1) (2) (1) (2) (1) (2) (1) (2)
= J J + J+ J + J J+ + J J J+ J+ + J+ J
4 + + i
(1) (2) (1) (2) (1) (2)
+J J+ J J + J3 J3
1  (1) (2) (1) (2)

(1) (2)
J(1) J(2) = J+ J + J J+ + J3 J3 (16.11)
2
La idea ahora es comparar los conjuntos conmutantes
n o 
(1) (2)
J2(1) , J3 , J2(2) , J3 ; J2 , J3 (16.12)

con el fin de averiguar si al conjunto J2 , J3 de variables conmutantes, le podemos agregar algunos momentos
angulares parciales de modo que aun formen un conjunto conmutante. Es claro que el primer conjunto de operadores
en (16.12) consiste de momentos angulares parciales y el segundo de momentos angulares totales. Puesto que J(1)
y J(2) conmutan con J2(1) y J2(2) , tambien conmuta J
h i h i
J, J2(1) = J, J2(2) = 0
16.4. ADICION DE DOS MOMENTOS ANGULARES CON J(1) = J(2) = 1/2 409

en particular J2 y J3 conmutan con J2(1) y J2(2)


h i i h
J3 , J2(1) J3 , J2(2) = 0
= (16.13)
h i h i
J2 , J2(1) = J2 , J2(2) = 0 (16.14)

(1) (2)
por otro lado, es obvio que J3 conmuta con J3 y J3
h i h i
(1) (2)
J3 , J3 = J3 , J3 =0 (16.15)

(1) (2)
pero J2 no conmuta ni con J3 ni con J3 , lo cual vemos usando (16.9, 16.10)
h i h i h i
(1) (1) (1)
J2 , J3 = J2(1) + J2(2) + 2J(1) J(2) , J3 = 2 J(1) J(2) , J3
h i h i h i h i
(1) (1) (2) (1) (2) (1) (1) (2) (1) (1) (2) (1)
J2 , J3 = 2 J1 J1 + J2 J2 , J3 = 2 J1 J1 , J3 + 2 J2 J2 , J3
h i h i h i h i
(1) (2) (1) (1) (1) (2) (1) (2) (1) (1) (1) (2)
= 2J1 J1 , J3 + 2 J1 , J3 J1 + 2J2 J2 , J3 + 2 J2 , J3 J2
h i
(1) (1) (2) (1) (2)
J2 , J3 = 2i~J2 J1 + 2i~J1 J2

quedando finalmente h i h i
(1) (1) (2) (1) (2)
J2 , J3 = 2i~ J1 J2 J2 J1 (16.16)
y puesto que J es un momento angular, se cumple que
 2 
J ,J = 0

y por tanto h i h i h i
(1) (2) (1) (2)
J2 , J3 + J3 =0 J2 , J3 = J2 , J3

el analisis anterior nos muestra que el siguiente conjunto de operadores conmuta entre s
n o
J2 , J3 , J2(1) , J2(2)

Abordaremos inicialmente el problema de la adicion de dos momentos angulares con j(1) = j(2) = 1/2.

16.4. Adicion de dos momentos angulares con j(1) = j(2) = 1/2


(k)
Cada espacio E1/2 asociado a j(k) fijo, es un espacio de dos dimensiones. Por tanto, su producto tenso-
(1) (2)
rial E = E 1/2 E1/2 sera de 4 dimensiones. Denotaremos a la base ortonormal natural en este espacio por
{|1 i |2 i} {|1 , 2 i} y en forma explcita escribimos

{|1 , 2 i} = {|+, +i , |+, i , |, +i , |, i} (16.17)


(1) (2)
estos vectores son autoestados de los observables J2(1) , J3 , J2(2) , J3 . Estrictamente estos operadores deben ser las
extensiones tensoriales de los operadores originales.
3 2
J2(1) |1 , 2 i = J2(2) |1 , 2 i = ~ |1 , 2 i (16.18)
4
(1) ~ (2) ~
J3 |1 , 2 i = 1 |1 , 2 i ; J3 |1 , 2 i = 2 |1 , 2 i (16.19)
2 2
410 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

el conjunto
(1) (2)
J2(1) , J3 , J2(2) , J3 (16.20)
(1) (2)
forma para el espacio E = E 1/2 E1/2 , un C.S.C.O. natural, en el sentido de que este es el C.S.C.O. que
n natural de E. oEn otras palabras, la base (16.17) esta compuesta por vectores propios
se desprende de la base
(1) (2)
comunes al C.S.C.O. J2(1) , J3 , J2(2) , J3 . Estrictamente J2(1) , J2(2) pueden ser excludos ya que son proporcionales
a la identidad2 .
Tambien hemos visto que los 4 observables

J2(1) , J2(2) , J2 , J3 (16.21)

(1) (2)
conmutan entre s. Veremos ahora que este conjunto tambien es un C.S.C.O. en E = E 1/2 E1/2 . Adicionar dos
momentos angulares implica construr el sistema ortonormal de autovectores comunes al conjunto (16.21). Este
(1) (2)
conjunto diferira de (16.17) ya que J2 no conmuta con J3 , J3 . Denotaremos los vectores de la nueva base en
la forma |J, M i donde los autovalores de J2(1) , J2(2) (que permanecen iguales) estan implcitos3 . Estos vectores
satisfacen las relaciones
3
J2(1) |J, M i = J2(2) |J, M i = ~2 |J, M i (16.22)
4
J2 |J, M i = J (J + 1) ~2 |J, M i (16.23)
J3 |J, M i = M ~ |J, M i (16.24)

ya que J es un momento angular, entonces J debe ser entero o semientero no negativo, M debe estar entre J y
J variando en saltos unidad. El problema es entonces encontrar los valores que J y M pueden tomar con base en
los valores de j1 , j2 y m1 , m2 , as como expresar la base {|J, M i} en terminos de la base conocida (16.17).
A continuacion resolveremos el problema diagonalizando las matrices 44 que representan a J2 y a J3 en la
base {|1 , 2 i}. Mas adelante se empleara un metodo mas general que se puede usar en espacios vectoriales de
dimension arbitraria.

16.4.1. Autovalores de J3 y su degeneracion


(1) (2)
Notese que para los observables J2(1,2) todos los vectores en el espacio E = E 1/2 E1/2 son autovectores, por
tanto |J, M i ya son autovectores de estos observables.
Por otro lado, las Ecs. (16.13, 16.15) nos dicen que J3 conmuta con los cuatro observables del C.S.C.O. dados
por la Ec. (16.20). Por tanto, esperamos que los vectores base {|1 , 2 i} sean automaticamente autovectores de
J3 . Usando (16.19) se encuentra que
  ~
(1) (2)
J3 |1 , 2 i = J3 + J3 |1 , 2 i = (1 + 2 ) |1 , 2 i
2
vemos entonces que |1 , 2 i es autovector de J3 con autovalor
1
M~ = (1 + 2 ) ~ (16.25)
2
puesto que 1 y 2 toman los valores 1, vemos que M toma los valores +1, 0, 1.
2
Notese que la ecuacion (16.18) nos dice que J2(1) = J2(2) , entendidos como extensiones sobre el espacio tensorial, ya que actuan de
manera identica sobre todos los elementos de la base. Esto tambien se puede ver teniendo en cuenta que ambos son proporcionales
a la identidad
 en sus respectivos espacios, y con la misma constante de proporcionalidad. En consecuencia, sus extensiones son
2 2 (1)
J(1) = 3/4~ E E (2) y J2(2) = E (1) 3/4~2 E (2) de modo que J2(1) = J2(2) = 3/4~2 E (12) .

3
La notacion completa sera J, M j(1) , j(2) = |J, M (1/2, 1/2)i.
16.4. ADICION DE DOS MOMENTOS ANGULARES CON J(1) = J(2) = 1/2 411

Los valores M = 1 son no degenerados. Solo un autovector corresponde a cada uno de ellos: |+, +i corresponde
a +1 y |, i corresponde a 1. En otras palabras para que M = +1 solo hay una posibilidad 1 = 2 = +1, el
caso M = 1 solo es posible si 1 = 2 = 1. En contraste, M = 0 tiene degeneracion dos, a el corresponden los
estados |+, i y |, +i. Esto se traduce en que hay dos soluciones para M = 0, 1 = 2 = 1 y 1 = 2 = 1.
Cualquier combinacion lineal de los vectores |+, i y |, +i es un autoestado de J3 con autovalor M = 0.
Estos resultados se ven claramente en la representacion matricial de J3 en la base {|1 , 2 i}. Ordenando los
vectores en la forma de la Ec. (16.17) esta matriz es

1 0 0 0
0 0 0 0
(J3 ) = ~
0

0 0 0
0 0 0 1

16.4.2. Diagonalizacion de J2
Aplicaremos J2 a los vectores de la base (16.17), para lo cual usaremos las Ecs. (16.9, 16.11)
 2
(1) (2) (1) (2) (1) (2)
J2 = J(1) + J(2) = J2(1) + J2(2) + J+ J + J J+ + 2J3 J3

(1) (2)
los 4 vectores |1 , 2 i son autovectores de J2(1) , J2(2) , J3 y J3 como se ve en la Ecs. (16.18, 16.19), y la accion
de los operadores escalera viene dada por la Ecs. (15.12), por tanto podemos evaluar J2 |1 , 2 i para todos los
elementos de la base {|1 , 2 i}
 
2 3 2 3 2 1
J |+, +i = ~ + ~ |+, +i + ~2 |+, +i
4 4 2
= 2~2 |+, +i (16.26)
 
2 3 2 3 2 1
J |+, i = ~ + ~ |+, i ~2 |+, i + ~2 |, +i
4 4 2
= ~2 [|+, i + |, +i] (16.27)
 
2 3 2 3 2 1
J |, +i = ~ + ~ |, +i ~2 |, +i + ~2 |+, i
4 4 2
= ~2 [|+, i + |, +i] (16.28)
 
3 2 3 2 1
J2 |, i = ~ + ~ |, i + ~2 |, i
4 4 2
= 2~2 |, i (16.29)

la matriz representativa de J2 en la base {|1 , 2 i} en el orden dado por (16.17) esta dada por

2 0 0 0
 0 1 1 0
J2 = ~2
0

1 1 0
0 0 0 2

puesto que J2 conmuta con J3 , la matriz tendra elementos no cero solo entre autovectores de J3 asociados con
el mismo autovalor, lo cual explica los ceros de la matriz. De acuerdo con los resultados de la seccion 16.4.1,
los unicos elementos no diagonales de J2 que son diferentes de cero, son aquellos que relacionan a los vectores
{|+, i , |, +i}, los cuales estan asociados al mismo valor de M (M = 0).
412 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

Ahora para diagonalizar esta matriz podemos tener en cuenta que es diagonal por bloques partiendose en tres
submatrices
A11 0 0
0 B22 0
0 0 C11
La matrices unidimensionales son las asociadas a los vectores |, i que son autovectores de J2 , como se ve en
las Ecs. (16.26, 16.29). Los autovalores asociados son 2~2 . Ahora debemos diagonalizar la submatriz
 
1 1
B22 = ~2
1 1

que representa a J2 dentro del subespacio dos dimensional generado por {|+, i , |, +i}, es decir el autosubespacio
de J3 que corresponde a M = 0. Los autovalores ~2 = J (J + 1) ~2 de esta matriz se encuentran con la ecuacion
caracterstica
(1 )2 1 = 0
cuyas races son = 0 y = 2. Esto nos da los ultimos autovalores de J2 : 0 y 2~2 , es decir J = 0 y 1. Los
autovectores nos dan
1
|J = 1, M = 0i = [|+, i + |, +i] (16.30)
2
1
|J = 0, M = 0i = [|+, i |, +i] (16.31)
2
como siempre, se puede colocar una fase global si se desea.
Vemos entonces que J2 tiene dos autovalores diferentes: 0 y 2~2 . El autovalor nulo es no degenerado y tiene
como unico vector asociado a (16.31). Por otro lado, el valor propio 2~2 tiene degeneracion triple, ya que esta
asociado a los vectores |+, +i , |i y a la combinacion lineal (16.30).

16.4.3. Autoestados de J2 y J3 : singlete y triplete


Hemos obtenido entonces los autovalores de J2 y J3 as como un conjunto completo de autovectores comunes
de J2 y J3 (que automaticamente son autoestados de J2(1) y J2(2) ). Expresaremos los autoestados en la notacion
(16.22-16.24).
El numero cuantico J de (16.23) puede tomar dos valores: 0 y 1. El primero esta asociado con un unico vector,
que es tambien autovector de J3 con autovalor cero, el cual denotamos por
1
|0, 0i = [|+, i |, +i] (16.32)
2
en tanto que para J = 1 hay tres vectores asociados con tres valores distintos de M
1
|1, 1i = |+, +i ; |1, 0i = [|+, i + |, +i] ; |1, 1i = |i (16.33)
2
se puede chequear facilmente que los cuatro vectores dados en (16.32, 16.33) son ortonormales. La especificacion
de J y M determina a un vector de esta base unvocamente, de modo que J2 y J3 forman un C.S.C.O.. Aunque
no es necesario, a este C.S.C.O se le pueden agregar los operadores J2(1) y J2(2) .
Por tanto cuando adicionamos dos momentos angulares con j1 = j2 = 1/2 (por ejemplo dos espnes), el numero
J que caracteriza al autovalor J (J + 1) ~2 del operador J2 puede ser igual a cero o igual a uno. Con cada uno
de estos valores se asocia una familia de (2J + 1) vectores ortogonales (tres para J = 1, uno para J = 0) que
corresponden a los 2J + 1 valores de M para J fijo.
16.5. METODO GENERAL DE ADICION DE DOS MOMENTOS ANGULARES ARBITRARIOS 413

A la familia (16.33) de tres vectores asociados a J = 1 se le denomina un triplete. Al vector |0, 0i asociado
a J = 0 se le denomina un singlete. La Ec. (16.33) nos muestra que los estados del triplete son simetricos
con respecto al intercambio de dos momentos angulares (por ejemplo espnes), en tanto que el estado singlete Ec.
(16.32) es antisimetrico. Es decir si cada vector |1 , 2 i se reemplaza por |2 , 1 i, las expresiones (16.33) permanecen
invariantes en tanto que (16.32) cambia de signo. Esto tendra gran importancia cuando las partculas cuyos espines
se adicionan sean identicas. Ademas esto nos indica la combinacion lineal de |+, i con |, +i que se requiere
para completar el triplete (debe ser simetrica). La parte singlete sera entonces la combinacion lineal antisimetrica
de |+, i con |, +i la cual es ortogonal a la parte simetrica y por supuesto a los demas estados del triplete.

16.5. Metodo general de adicion de dos momentos angulares arbitrarios


Consideraremos un sistema fsico descrito por el espacio E, y J un momento angular relativo a este sistema.
J puede ser un momento angular parcial o el momento angular total del sistema. Vimos en la seccion 10.4.1, que
siempre es posible construr una base estandar {|j, m, ki} compuesta de autovectores comunes a J2 y J3

J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki (16.34)

de modo que la accion de los operadores escalera sobre esta base estandar esta dada por las Ecs. (10.47)
p
J |j, m, ki = ~ j (j + 1) m (m 1) |j, m 1, ki (16.35)

denotamos como E (j, k) al autosubespacio expandido por vectores de la base estandar con j, k fijos. Este espacio
es de dimension 2j + 1 correspondiente a los valores de m para un j dado. La dimension no depende de k. Las
Ecs. (16.34, 16.35) nos dicen que los 2j + 1 vectores de la base para E (j, k) se transforman entre s por medio
de los operadores J2 , J3 , J+ , J . Es decir, el autosubespacio E (j, k) es globalmente invariante bajo estos cuatro
operadores y mas en general es globalmente invariante bajo la accion de una funcion F (J). El espacio completo
E se puede escribir como una suma directa de subespacios ortogonales E (j, k) como se ve en la Ec. (10.46)

E = E (j1 , k = 1) E (j1 , k = 2) . . . E (j1 , k = g (j1 ))


E (j2 , k = 1) E (j2 , k = 2) . . . E (j2 , k = g (j2 ))
E (j3 , k = 1) E (j3 , k = 2) . . . E (j3 , k = g (j3 )) . . . (16.36)

debido a la invariancia de estos subespacios bajo los operadores J2 , J3 , J+ , J , F (J) estos operadores tendran
una representacion matricial en la base estandar donde los elementos matriciales no nulos estan dentro de cada
subespacio E (j, k). Ademas dentro de cada subespacio E (j, k) los elementos de matriz de una funcion del tipo
F (J) son independientes de k.
Recordemos ademas que si a J2 y J3 le agregamos los operadores necesarios para formar un C.S.C.O. podemos
dar un significado fsico a k construyendo los vectores propios comunes a todo el C.S.C.O. si por ejemplo solo se
requiere un operador A para formar el C.S.C.O. y asumimos que A conmuta con J (escalar), podemos requerir
que los autovectores |j, m, ki tambien sean autovectores de A

A |j, m, ki = aj,k |j, m, ki (16.37)

de modo que la base estandar {|j, m, ki} estara determinada por las Ecs. (16.34, 16.35, 16.37). Cada E (j, k) es
tambien autosubespacio de A y el ndice k discrimina entre los diferentes autovalores aj,k asociados a cada valor
de k. Cuando se requiere mas de un operador para formar el C.S.C.O. el ndice k corresponde realmente a varios
ndices.
414 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

16.5.1. Formacion del sistema a partir de dos subsistemas


Asumamos que nuestro sistema fsico se forma por la union de dos subsistemas (por ejemplo un sistema de
dos partculas o la union del sistema orbital con el de espn para una sola partcula). Usaremos los ndices (1) y
(2) para denotar cantidades relativas a cada subsistema.
Asumiremos que para el espacio de estados E1 del subsistema (1) conocemos una base estandar {|j1 , m1 , k1 i}
(1)
de vectores propios comunes a J2(1) y J3 siendo J(1) el momento angular asociado al subsistema (1) por tanto las
Ecs. (16.34, 16.35) nos dan
(1)
J2(1) |j1 , m1 , k1 i = j1 (j1 + 1) ~2 |j1 , m1 , k1 i ; J3 |j1 , m1 , k1 i = m1 ~ |j1 , m1 , k1 i
(1)
p
J |j1 , m1 , k1 i = ~ j1 (j1 + 1) m1 (m1 1) |j1 , m1 1, k1 i

y similarmente para la base estandar {|j2 , m2 , k2 i} del espacio E2 asociado al subsistema (2)
(2)
J2(2) |j2 , m2 , k2 i = j2 (j2 + 1) ~2 |j2 , m2 , k2 i ; J3 |j2 , m2 , k2 i = m2 ~ |j2 , m2 , k2 i
(2)
p
J |j2 , m2 , k2 i = ~ j2 (j2 + 1) m2 (m2 1) |j2 , m2 1, k2 i

el espacio de estados del sistema completo es el producto tensorial de los espacios E1 y E2

E = E1 E2

y sabemos que el producto tensorial de las bases de E1 y E2 formara una base en E. Denotamos esta base como

|j1 , m1 , k1 i |j2 , m2 , k2 i |j1 , j2 ; m1 , m2 ; k1 , k2 i (16.38)

los espacios E1 y E2 son sumas directas de subespacios del tipo E1 (j1 , k1 ) y E2 (j2 , k2 ) respectivamente. Estas sumas
estan descritas por la Ec. (16.36)
      
(1) (1) (1) (1)
E1 = E1 j1 , k(1) = 1 E1 j1 , k(1) = 2 . . . E1 j1 , k(1) = g j1
      
(1) (1) (1) (1)
E1 j2 , k(1) = 1 E1 j2 , k(1) = 2 . . . E1 j2 , k(1) = g j2
      
(1) (1) (1) (1)
E1 j3 , k(1) = 1 E1 j3 , k(1) = 2 . . . E1 j3 , k(1) = g j3 ... (16.39)

(m)
y similarmente para el sistema (2). En este caso la notacion ji representa diversos valores de j para el subsistema
m. No obstante, esta notacion no sera necesaria de aqu en adelante y usaremos jm para denotar el valor de j
asociado al subsistema m. Estas sumas las resumimos en la forma
X X
E1 = E1 (j1 , k1 ) ; E2 = E2 (j2 , k2 )

por lo tanto E sera la suma directa de subespacios E (j1 , j2 ; k1 , k2 ) obtenido por el producto tensorial de los
subespacios E1 (j1 , k1 ) y E2 (j2 , k2 )
X
E= E (j1 , j2 ; k1 , k2 ) ; E (j1 , j2 ; k1 , k2 ) = E1 (j1 , k1 ) E2 (j2 , k2 ) (16.40)

la dimension del subespacio E (j1 , j2 ; k1 , k2 ) es (2j1 + 1) (2j2 + 1). Este subespacio sera globalmente invariante ante
cualquier funcion de F (J1 ) y F (J2 ), donde naturalmente J1 y J2 son las extensiones de los operadores definidos
originalmente en cada subsistema.
16.5. METODO GENERAL DE ADICION DE DOS MOMENTOS ANGULARES ARBITRARIOS 415

16.5.2. Momento angular total y sus relaciones de conmutacion


Vimos en la seccion 16.3 que la suma de los momentos angulares

J = J(1) + J(2)

es tambien un momento angular siendo J(1) y J(2) las extensiones adecuadas. Por tanto J al igual que J(1) y J(2)
satisface las propiedades algebraicas de un momento angular. No obstante, tambien hay algunas relaciones de
conmutacion entre momentos angulares totales y parciales que son de importancia en nuestra discusion (ver
seccion 16.3). Vimos que J(1) y J(2) conmutan con J2(1) y J2(2) y por tanto tambien con J. En particular J2 y J3
(1) (2)
conmutan con J2(1) y J2(2) . Ademas es inmediato que J3 y J3 conmutan con J3 , por tanto
h i h i h i h i h i h i
(1) (2)
J3 , J2(1) = J3 , J2(2) = J2 , J2(1) = J2 , J2(2) = J3 , J3 = J3 , J3 = 0 (16.41)

(1) (2)
sin embargo, J3 y J3 no conmutan con J2 lo cual se pudo ver partiendo de las Ecs. (16.9, 16.11)

J2 = J2(1) + J2(2) + 2J(1) J(2) (16.42)


(1) (2) (1) (2) (1) (2)
J2 = J2(1) + J2(2) + 2J3 J3 + J+ J + J J+ (16.43)

con lo cual se llega a la Ec. (16.16)


h i h i h i
(1) (2) (1) (2) (1) (2)
J2 , J3 = J2 , J3 = 2i~ J1 J2 J2 J1 (16.44)

16.5.3. Cambio de base a realizar


Un vector de la base
{|j1 , m1 , k1 i |j2 , m2 , k2 i} {|j1 , j2 ; m1 , m2 ; k1 , k2 i} (16.45)
es autoestado simultaneo de los observables
(1) (2)
J2(1) , J2(2) , J3 , J3

con autovalores j1 (j1 + 1) ~2 , j2 (j2 + 1) ~2 , m1 ~, m2 ~. Se observa entonces que la base (16.45) es adecuada para
el estudio de los momentos angulares individuales J(1) y J(2) de cada subsistema. Ahora bien, las Ecs. (16.41) nos
dicen que el conjunto de observables
J2(1) , J2(2) , J2 , J3
tambien conmutan entre s. Observese que si construmos una base comun a estos observables, sera mas adecuada
para el estudio del momento angular total del sistema ya que un vector de esta base permitira extraer los valores
propios de J2 y J3 . Esta base debe ser diferente a la anterior puesto que segun la Ec. (16.44), J2 no conmuta con
(1) (2)
J3 ni con J3 . Una motivacion adicional para encontrar una base comun a J2 y J3 , es el hecho de que para
un sistema sujeto a una interaccion central que posee dos momentos angulares acoplados, se tiene que J total es
constante de movimiento aunque los momentos angulares parciales no lo son (ver secciones 16.2.1, 16.2.2, 16.2.3).
Ademas los nndices k1 y ko2 tienen un significado fsico que es extension natural del procedimiento para cada
(1)
subsistema. Si A1 , J2(1) , J3 forma un C.S.C.O. en E1 donde A1 conmuta con J(1) entonces podemos escoger
una base estandar {|j1 , m1 , k1 i} consistente en los vectores
n ortonormales
o completos comunes a estos observables.
2 (2)
Si algo similar ocurre con un conjunto de observables A2 , J(2) , J3 en E2 entonces el conjunto

(1) (2)
A1 , A2 ; J2(1) , J2(2) ; J3 , J3
416 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

forma un C.S.C.O. en E cuyos autovectores estan dados por la Ec. (16.45). Por otro lado, puesto que A1 conmuta
con J(1) y con J(2) entonces conmutara con J. Esto a su vez implica que A1 conmuta con J2 y J3 . Lo mismo ocurre
para el observable A2 , por tanto los observables en el conjunto
A1 , A2 ; J2(1) , J2(2) ; J2 , J3
conmutan entre ellos. Puede demostrarse que ademas forman un C.S.C.O. y la nueva base que buscaremos es un
sistema ortonormal de vectores propios comunes de este C.S.C.O.
Ahora bien, el subespacio E (j1 , j2 ; k1 , k2 ) definido en (16.40) es globalmente invariante bajo la accion de un
operador que sea funcion de J(1) o que sea funcion de J(2) . Por tanto, es globalmente invariante ante la accion
de un F (J). Esto implica que los observables J2 y J3 que pretendemos diagonalizar, tienen elementos matriciales
no nulos solo dentro de cada espacio E (j1 , j2 ; k1 , k2 ). Las matrices de dimension infinita que representan a J2 y
J3 en la base (16.45) son diagonales por bloques y se pueden escribir como suma directa de submatrices cada
una asociado a un subespacio de la forma E (j1 , j2 ; k1 , k2 ). Por tanto, el problema se reduce a diagonalizar las
submatrices asociadas a cada subespacio E (j1 , j2 ; k1 , k2 ) cuya dimension es (2j1 + 1) (2j2 + 1).  
Por otro lado, los elementos matriciales en la base (16.45) para cualquier funcion F J(1) o F J(2) son
independientes de k1 y k2 (solo los elementos matriciales de A1 dependen de k1 y los de A2 dependen de k2 ).
Por tanto, esto tambien vale para J2 y J3 . En consecuencia, la diagonalizacion de estos dos operadores dentro de
todos los subespacios E (j1 , j2 ; k1 , k2 ) con el mismo valor de j1 y j2 , se realiza de forma identica. Por esta razon
hablamos de adicion de los momentos angulares sin hacer referencia a los otros numeros cuanticos. Simplificaremos
la notacion omitiendo los ndices k1 y k2 escribiendo entonces
E (j1 , j2 ) E (j1 , j2 ; k1 , k2 ) ; |j1 , j2 ; m1 , m2 i |j1 , j2 ; m1 , m2 ; k1 , k2 i
puesto que J es un momento angular y E (j1 , j2 ) es invariante ante F (J) entonces E (j1 , j2 ) es una suma directa
de subespacios ortogonales E (J, k) cada uno de los cuales es invariante ante la accion de J2 , J3 , J
X
E (j1 , j2 ) = E (J, k) (16.46)

de aqu surgen las siguientes preguntas, dado un par j1 y j2 Cuales son los valores de J que contribuyen en la
suma directa (16.46)? y Cuantos subespacios E (J, k) estan asociados con un J dado?.
Dado que tenemos una base conocida (16.45) esta sera nuestro punto de partida para llegar a la base asociada
a J2 y J3 . Surge entonces el problema de expandir los autovectores de la base buscada asociados a E (j1 , j2 ) en
terminos de los autovectores de la base conocida (16.45).
Es importante mencionar que si tenemos mas momentos angulares podemos adicionar los dos primeros y al
resultado le adicionamos un tercero y as sucesivamente. Esto solo es posible puesto que el algoritmo de suma es
conmutativo y asociativo como veremos mas adelante.

16.5.4. Autovalores de J2 y J3 : Caso de dos espines j1 = j2 = 1/2.


En este caso cada espacio E1 y E2 contiene solo un subespacio invariante ya que estan asociados cada uno a un
valor fijo de j. El producto tensorial E = E1 E2 esta asociado a un solo subespacio E (j1 , j2 ) con j1 = j2 = 1/2.
De acuerdo con la descomposicion (16.46), el espacio E (1/2, 1/2) es la suma directa de subespacios del tipo
E (J, k) de dimension 2J + 1. Cada uno de estos subespacios contiene uno y solo un autovector de J3 asociado
a cada uno de los valores de M tal que |M | J. Hemos visto en la seccion 16.4.1 que M solo toma los valores
1, 0, 1; donde el primero y el tercero no son degenerados en tanto que M = 0 es doblemente degenerado. De esto
se concluye que:

1. Valores de J > 1 estan excludos. Por ejemplo para que J = 2 fuera posible tendra que existir al menos un
autovector de J3 con M = 2. Esto se debe a que la teora del momento angular nos dice que para un j dado
los valores permitidos de m consisten en todos los valores enteros o semienteros que cubren el intervalo
j m j en saltos unidad.
16.5. METODO GENERAL DE ADICION DE DOS MOMENTOS ANGULARES ARBITRARIOS 417

2. E (J = 1, k) aparece solo una vez (es decir k es unico), puesto que M = 1 solo aparece una vez, es decir
M = 1 es no degenerado.

3. E (J = 0, k) aparece una sola vez. Esto se debe a que M = 0 es dos veces degenerado pero uno de los
autovectores con M = 0 esta en el subespacio con J = 1, de modo que solo un autovector con M = 0 esta
asociado a un subespacio con J = 0.

Por tanto, el espacio 4-dimensional E (1/2, 1/2) se descompone en subespacios del tipo E (J, k) segun la Ec.
(16.46) en la forma  
1 1
E , = E (J = 1) E (J = 0)
2 2
que son de dimension 3 y 1 respectivamente. Veremos ahora como extender estas conclusiones al caso general.

16.5.5. Autovalores de J3 y su degeneracion: Caso general

Figura 16.1: (a) Ilustracion de las reglas de adicion para momentos angulares en el caso general. (b) Pares de
posibles valores de (m, m ) = (m1 , m2 ) para el caso especfico j = j1 = 2, j = j2 = 1. En ambos casos, los puntos
asociados con un valor dado de M = m + m = m1 + m2 estan localizados sobre una lnea recta de pendiente 1
pintada como lnea punteada. Hemos supuesto que j = j1 j = j2 , con lo cual el ancho del rectangulo es mayor
o igual a su altura.

Consideremos un subespacio de la forma E (j1 , j2 ) de dimension (2j1 + 1) (2j2 + 1). Asumiremos que j1 y j2
estan rotulados de modo que
j1 j2 (16.47)
los vectores base {|j1 , j2 ; m1 , m2 i} de este subespacio (que se construyen con el producto tensorial de las bases de
los espacios factor) ya son autovectores de J3
 
(1) (2)
J3 |j1 , j2 ; m1 , m2 i = J3 + J3 |j1 , j2 ; m1 , m2 i = (m1 + m2 ) ~ |j1 , j2 ; m1 , m2 i
M ~ |j1 , j2 ; m1 , m2 i

de modo que el correspondiente autovalor de M ~ es tal que

M = m1 + m2 (16.48)

de lo cual, M toma los valores

M = j1 + j2 , j1 + j2 1, j1 + j2 2, . . . , (j1 + j2 ) (16.49)
418 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

Denotaremos el grado de degeneracion de cada M en el subespacio E (j1 , j2 ), en la forma gj1 ,j2 (M ). Para encontrar
esta degeneracion usaremos el siguiente procedimiento geometrico: realizamos un diagrama en dos dimensiones
asociando a cada vector |j1 , j2 ; m1 , m2 i un par ordenado donde el eje de abcisas se asocia con m1 y el eje de
ordenadas con m2
|j1 , j2 ; m1 , m2 i (m1 , m2 )
todos los puntos asociados a estos vectores estan ubicados en el borde o interior de un rectangulo cuyos vertices
estan en (j1 , j2 ) , (j1 , j2 ) , (j1 , j2 ) y (j1 , j2 ). La Fig. 16.1 representa los puntos asociados a una configuracion
arbitraria (izquierda) y una configuracion con j1 = 2, j2 = 1 (derecha). Si partimos de un punto dado (vector)
del tipo P = (m1 , m2 ) es claro que estados vecinos del tipo P (m1 1, m2 1) poseen el mismo valor de
M = m1 + m2 siempre y cuando existan los valores incrementados y decrementados de m1 y m2 . Cuando alguno
de los valores incrementados o decrementados no exista, es por que el estado (m1 , m2 ) se encuentra en alguno de
los bordes del rectangulo (o en una esquina). Para estados P en el interior del rectangulo, existe tanto P+ como
P . Dos puntos vecinos definidos con esta relacion estan unidos por una recta de pendiente 1

(m2 1) m2
pendiente = = 1
(m1 1) m1

En conclusion, los puntos situados a lo largo de las lneas punteadas de las Figs. 16.1a, y 16.1b, de pendiente 1,
corresponden a los vectores con el mismo valor de M = m1 + m2 . El numero de puntos (vectores) unidos por una
lnea define el grado de degeneracion gj1 ,j2 (M ) del valor de M asociado.
Consideremos ahora los diferentes valores de M en orden descendente Ec. (16.49). Observaremos el patron de
las lneas punteadas a medida que disminuye M . Empezando por el maximo M = j1 + j2 vemos que este valor es
no-degenerado, ya que la lnea que lo cruza pasa solo por la esquina superior derecha (es en realidad un punto),
cuyas coordenadas son (j1 , j2 ). Vemos entonces que

gj1 ,j2 (j1 + j2 ) = 1 (16.50)

para el siguiente M = j1 + j2 1 la degeneracion es doble (a menos que j1 y/o j2 sean nulos), ya que la lnea
correspondiente contiene los puntos (j1 , j2 1) y (j1 1, j2 ). Entonces

gj1 ,j2 (j1 + j2 1) = 2 , si j1 6= 0 y j2 6= 0 (16.51)

La degeneracion aumenta una unidad por cada decremento de M en una unidad, hasta que se alcanza la esquina
inferior derecha (j1 , j2 ) del rectangulo4 , que corresponde al valor M = j1 j2 0 ya que suponemos siempre
que j1 j2 . El numero de puntos llega entonces a su maximo (que es el numero de puntos que miden la altura
del rectangulo) y es igual a
gj1 ,j2 (j1 j2 ) = 2j2 + 1 (16.52)
si continuamos decrementando M , el numero de puntos permanece constante en 2j2 + 1 siempre que la lnea
asociada a M cruce al rectangulo tocando sus lados superior (m2 = j2 ) e inferior (m2 = j2 ). Esto ocurre hasta
que la lnea asociada alcanza la esquina superior izquierda (j1 , j2 ) del rectangulo, para el cual M = j1 + j2 0.
Por tanto, el numero maximo de puntos 2j2 + 1 se mantiene en un intervalo para M dado por

gj1 ,j2 (M ) = 2j2 + 1 para (j1 j2 ) M j1 j2 (16.53)

finalmente, para valores de M menores que (j1 j2 ), la lnea asociada a cada M ya no intersecta la lnea superior
del rectangulo (m2 = j2 ) y gj1 ,j2 (M ) decrece monotonamente en la unidad por cada decremento unidad de M ,
4
Como estamos asumiendo que j1 j2 , siempre se alcanza la esquina inferior derecha (j1 , j2 ) antes que la esquina superior
izquierda (j1 , j2 ) en esta secuencia. A lo mas ocurre que las dos esquinas se alcanzan al mismo tiempo cuando j1 = j2 , en cuyo caso
tenemos un cuadrado.
16.5. METODO GENERAL DE ADICION DE DOS MOMENTOS ANGULARES ARBITRARIOS 419

alcanzando el valor 1 nuevamente cuando M = (j1 + j2 ), correspondiente a la esquina inferior izquierda del
rectangulo. Por lo tanto
gj1 ,j2 (M ) = gj1 ,j2 (M ) (16.54)

estos resultados se resumen en la figura 16.2 para el caso j1 = 2 y j2 = 1, esta figura muestra g2,1 (M ) como
funcion de M .

Figura 16.2: Grafica del grado de degeneracion gj1 ,j2 (M ) versus M , para el caso j1 = 2, j2 = 1 ilustrado en
la Fig. 16.1b. El grado de degeneracion se obtiene por simple conteo del numero de puntos que toca cada lnea
punteada en la Fig. 16.1b. Adicionalmente, esta figura muestra la simetra expresada por la Ec. (16.54).

16.5.6. Autovalores de J2 : caso general


De la Ec. (16.49) vemos que los valores de M son enteros si j1 y j2 son ambos enteros o ambos semi-enteros.
As mismo, los valores M son semi-enteros si uno de los ji es entero y el otro semientero. Por otro lado, la teora
general del momento angular nos dice que J es entero (semi-entero) si y solo si M es entero (semi-entero). Podemos
entonces distinguir dos situaciones (1) j1 y j2 son ambos enteros o semi-enteros, (2) Uno de los ji es entero y el
otro semientero. El primer caso conduce a pares (J, M ) enteros y el segundo caso a pares (J, M ) semi-enteros.
Puesto que el maximo valor de M es j1 + j2 , tenemos que J > j1 + j2 no aparece en E (j1 , j2 ) y por tanto
no aparece en la suma directa (16.46). Esto se debe a que para este valor J > j1 + j2 tendra que existir el
correspondiente valor de M = J segun la teora general del momento angular. Para J = j1 + j2 hay un subespacio
invariante asociado E (J = j1 + j2 ), puesto que M = j1 +j2 existe, pero este subespacio es unico ya que M = j1 +j2
es no-degenerado. En este subespacio hay uno y solo un vector asociado a M = j1 +j2 1, y dado que M = j1 +j2 1
es doblemente degenerado en E (j1 , j2 ), tenemos que J = j1 + j2 1 tambien esta presente y a el corresponde un
unico subespacio invariante E (J = j1 + j2 1).
En un contexto general denotaremos como pj1 ,j2 (J) el numero de subespacios E (J, k) de E (j1 , j2 ) asociados a
un J dado. En otras palabras, este es el numero de diferentes valores de k para el valor dado de J (siendo j1 y j2
fijos desde el principio).
Veremos que pj1 ,j2 (J) y gj1 ,j2 (M ) estan asociados de manera sencilla. Consideremos un valor particular de
M , a este valor de M esta asociado uno y solo un vector en cada subespacio E (J, k) siempre que J |M |. Su
grado de degeneracion esta dado entonces por

gj1 ,j2 (M ) = pj1,j2 (J = |M |) + pj1 ,j2 (J = |M | + 1) + pj1 ,j2 (J = |M | + 2) + . . . + pj1 ,j2 (J = j1 + j2 )


420 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

Invirtiendo esta relacion, se obtiene a pj1 ,j2 (J) en terminos de gj1 ,j2 (M )

pj1 ,j2 (J) = gj1 ,j2 (M = J) gj1 ,j2 (M = J + 1)


= gj1 ,j2 (M = J) gj1 ,j2 (M = J 1) (16.55)

es de resaltar que en la Ec. (16.55), J es fijo y los valores de M no estan asociados al valor fijo de J, sino a todos
los valores permitidos de M en E (j1 , j2 ). Por esta razon, los valores de gj1 ,j2 (M = J + 1) y gj1 ,j2 (M = J 1)
pueden ser no nulos.
Teniendo en cuenta la degeneracion de los valores de M estudiada en la seccion 16.5.5, podemos determinar los
valores del numero cuantico J que ocurren en E (j1 , j2 ) y el numero de subespacios invariantes E (J, k) asociados
con cada uno de ellos. En primer lugar tenemos que

pj1 ,j2 (J) = 0 para J > j1 + j2

ya que gj1 ,j2 (M ) = 0 para |M | > j1 + j2 . Si ahora aplicamos las Ecs. (16.50, 16.51) tenemos que

pj1 ,j2 (J = j1 + j2 ) = gj1 ,j2 (M = j1 + j2 ) gj1 ,j2 (M = j1 + j2 + 1)


pj1 ,j2 (J = j1 + j2 ) = gj1 ,j2 (M = j1 + j2 ) = 1

pj1 ,j2 (J = j1 + j2 1) = gj1 ,j2 (M = j1 + j2 1) gj1 ,j2 (M = j1 + j2 ) = 2 1


pj1 ,j2 (J = j1 + j2 1) = 1

por tanto todos los valores de pj1 ,j2 (J) se pueden encontrar por iteracion

pj1,j2 (J = j1 + j2 2) = 1, . . . , pj1 ,j2 (J = j1 j2 ) = 1

finalmente, aplicando la Ec. (16.53) tenemos

pj1 ,j2 (J) = 0 para J < j1 j2 = |j1 j2 |

la ultima igualdad se obtiene recordando que hemos mantenido la suposicion j1 j2 en todo el tratamiento. Para
el caso j2 j1 solo hay que invertir los ndices 1 y 2.
En conclusion, para valores fijos de j1 y j2 , es decir dentro de un subespacio E (j1 , j2 ) de dimension (2j1 + 1) (2j2 + 1),
los autovalores de J2 son tales que

J = j1 + j2 , j1 + j2 1, j1 + j2 2, . . . , |j1 j2 | (16.56)

y cada valor de J esta asociado a un unico subespacio invariante E (J, k) en la suma directa dada por la Ec.
(16.46), la cual se reduce a
jX
1 +j2

E (j1 , j2 ) = E (J) (16.57)


J=|j1 j2 |

de modo que el ndice k es realmente innecesario. Esto implica en particular que si tomamos un valor fijo de J y un
valor fijo de M compatible con J (|M | J), existe un unico vector |J, M i (salvo constantes) en E (j1 , j2 ) asociado
a estos numeros cuanticos. La especificacion de J es suficiente para determinar el subespacio invariante, y la
especificacion de M me lleva a un unico vector (excepto por una constante) en dicho subespacio. En consecuencia
J2 y J3 forman un C.S.C.O. en E (j1 , j2 ).
A manera de consistencia, podemos mostrar que el numero N de pares (J, M ) encontrados para E (j1 , j2 )
coincide con la dimension (2j1 + 1) (2j2 + 1) de E (j1 , j2 ), puesto que el conjunto {|J, M i} constituye una base
16.6. AUTOVECTORES COMUNES DE J2 Y J3 421

para E (j1 , j2 ). Asumiremos por simplicidad que j1 j2 . Puesto que cada subespacio E (J) es de dimension 2J + 1
(es decir tiene 2J + 1 valores diferentes de M ), la suma directa (16.57) nos dice que

jX
1 +j2

N= (2J + 1) (16.58)
J=j1 j2

si reemplazamos
J = j1 j2 + i
podemos calcular (16.58)

jX
1 +j2 2j2
X 2j2
X 2j2
X
N = (2J + 1) = [2 (j1 j2 + i) + 1] = [2 (j1 j2 ) + 1] 1+2 i
J=j1 j2 i=0 i=0 i=0
2j2 (2j2 + 1)
= [2 (j1 j2 ) + 1] (2j2 + 1) + 2 = (2j1 2j2 + 1) (2j2 + 1) + 2j2 (2j2 + 1)
2
= [(2j1 2j2 + 1) + 2j2 ] (2j2 + 1) = (2j1 + 1) (2j2 + 1)

16.6. Autovectores comunes de J2 y J3


La base natural de E (j1 , j2 ) es la base de los productos tensoriales entre las bases de E (j1 ) y E (j2 ) denotada
(1) (2)
por {|j1 , j2 , m1 , m2 i}. Esta es la base de vectores propios comunes a J2(1) , J3 , J2(2) , J3 . Ahora bien, los vectores
propios comunes a J2 , J3 , J2(1) , J2(2) seran denotados por |JM i. Estrictamente la notacion debera incluir los valores
j1 y j2 de donde proviene el producto tensorial. Sin embargo, esta notacion se omitira ya que j1 y j2 son fijos en
todo el proceso. Por la misma razon, se simplificara la notacion de la base natural escribiendola simplemente como
{|m1 , m2 i}. Cuando sea necesario se distinguiran ambas bases por un subndice en la forma |JM iJ y |m1 , m2 ij . La
transformacion de la base {|m1 , m2 i} a la base {|JM i}, se debe realizar con una transformacion unitaria, puesto
que ambas bases son ortonormales. Como los {|JM i} son autovectores comunes de J2 , J3 , J2(1) , J2(2) tenemos que

J2 |JM i = J (J + 1) ~2 |JM i ; J3 |JM i = M ~ |JM i


J2(1) |JM i = j1 (j1 + 1) ~ |JM i ; J2(2) |JM i = j2 (j2 + 1) ~2 |JM i
2

16.6.1. Caso especial j1 = j2 = 1/2


En la seccion 16.4, hemos encontrado los vectores propios |J, M i en E (1/2, 1/2) a traves de la diagonalizacion
de las representaciones matriciales. En este caso recurriremos a la generacion de los diferentes vectores por medio
de operadores escalera J . La ventaja de este metodo es que es mas facil de generalizar y de manejar cuando
tenemos valores altos de los momentos angulares.
En primer lugar el ket |1/2, 1/2i |++i es el unico vector propio de J3 en E (1/2, 1/2) que corresponde a
M = 1. Puesto que J2 y J3 conmutan, y el valor M = 1 es no degenerado, el teorema 1.66 pagina 57 nos dice que
|++i tambien tiene que ser autovector de J2 . Siguiendo los razonamientos de la seccion 16.5.4 el valor propio para
J2 tiene que ser J = 1. Por tanto, podemos escoger la fase del vector |J = 1, M = 1i para que coincida con |++i

|1, 1i = |++i (16.59)

los otros estados del triplete J = 1 se obtienen por aplicacion sucesiva del operador J tal como se describio en
la seccion 10.4.1. Usando la Ec. (10.47), tenemos entonces
p
J |1, 1i = ~ 1 (1 + 1) 1 (1 1) |1, 0i = ~ 2 |1, 0i
422 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

con lo cual se tiene


1 1
|1, 0i = J |1, 1i = J |++i
~ 2 ~ 2
para calcular |1, 0i en terminos de la base original {|m1 , m2 i} basta recordar que

(1) (2)
J = J + J

con lo cual
1  (1) (2)
 1
|1, 0i = J + J |++i = (~ |+i + ~ |+i)
~ 2 ~ 2
1
|1, 0i = (|+i + |+i) (16.60)
2

ahora aplicamos J a |1, 0i para obtener el ultimo elemento |1, 1i del triplete.

J |1, 0i = ~ 2 |1, 1i (16.61)

combinando las Ecs. (16.60, 16.61) tenemos

1 1  (1)  1 
(2)
|1, 1i = J |1, 0i = J + J (|+i + |+i)
~ 2 ~ 2 2
1 h    i 1 h (2) i
(1) (2) (1) (2) (1)
= J + J |+i + J + J |+i = J |+i + J |+i
2~ 2~
1
= [~ |i + ~ |i]
2~
|1, 1i = |i

notese que el estado |i se pudo haber extrado con un argumento similar al usado para encontrar |++i, ya que
el estado con M = 1 al igual que el asociado a M = 1 es no degenerado. El procedimiento anterior tiene sin
embargo la ventaja de mostrar el algoritmo general y ademas nos permite ajustar las convenciones de fases que
podran aparecer en |1, 0i y |1, 1i. Existen dos lugares en el procedimiento en donde se fijan las fases, en la Ec.
(16.59) se puede colocar una fase arbitraria, y en las Ecs. (10.47) para J se pueden colocar fases que dependan
de m.
Finalmente, encontraremos el estado singlete |J = 0, M = 0i , que es el unico vector del subespacio unidi-
mensional E (J = 0). Este se puede encontrar dentro de fases constantes, con la condicion de ser ortonormal al
triplete.
Al ser ortonormal a |1, 1i = |++i y a |1, 1i = |i, se tiene que |0, 0i debe ser una combinacion lineal de
|+i y |+i

|0, 0i = |+i + |+i (16.62)


2 2
h0, 0 |0, 0i = || + || = 1 (16.63)

en donde hemos agregado la condicion de normalizacion. Teniendo en cuenta que |0, 0i tambien debe ser ortogonal
a |1, 0i, las Ecs. (16.60, 16.62) nos dan

1
h1, 0 |0, 0i = [h+| + h+|] [ |+i + |+i] = 0
2
h+| + i + h+| +i + h+| + i + h+| +i = 0
+ = 0 (16.64)
16.7. AUTOVECTORES DE J2 Y J3 : CASO GENERAL 423

combinando las Ecs. (16.63, 16.64) tenemos

1
= ||2 = ||2 2 ||2 = 1 || =
2

con lo cual
1
= = ei
2
siendo cualquier numero real. Eligiendo = 0, tenemos

1
|0, 0i = [|+i |+i] (16.65)
2

es importante observar que con este metodo no fue necesario recurrir a las representaciones matriciales de los
operadores, en particular de J2 (que fue la que se tuvo que diagonalizar).

16.7. Autovectores de J2 y J3 : Caso general


Hemos visto en la seccion 16.5.6, Ec. (16.57) que la descomposicion de E (j1 , j2 ) como suma directa de subes-
pacios invariantes E (J) esta dada por

E (j1 , j2 ) = E (j1 + j2 ) E (j1 + j2 1) . . . E (|j1 j2 |) (16.66)

determinaremos los vectores |J, M i para cada uno de estos subespacios

16.7.1. Determinacion de los vectores |JMi del subespacio E (j1 + j2 )


El ket |m1 = j1 , m2 = j2 i es el unico autovector de J3 en E (j1 , j2 ) con M = j1 + j2 . Puesto que J2 y J3
conmutan y M = j1 + j2 es no-degenerado, el teorema 1.66 pagina 57 nos dice que |m1 = j1 , m2 = j2 i tambien
tiene que ser autovector de J2 . De acuerdo con (16.66) el valor asociado de J solo puede ser J = j1 + j2 . Podemos
escoger el factor de fase de manera que

|J = j1 + j2 , M = j1 + j2 i = |m1 = j1 , m2 = j2 i

que tambien denotaremos por


|j1 + j2 , j1 + j2 iJ = |j1 , j2 ij (16.67)
la aplicacion reiterada de J permitira encontrar todos los vectores del tipo |J, M i asociados a J = j1 + j2 .
Aplicando las Ecs. (10.47), tenemos
p
J |j1 + j2 , j1 + j2 iJ = ~ 2 (j1 + j2 ) |j1 + j2 , j1 + j2 1iJ
1
|j1 + j2 , j1 + j2 1iJ = p J |j1 + j2 , j1 + j2 iJ (16.68)
~ 2 (j1 + j2 )

para escribir el vector |j1 + j2 , j1 + j2 1iJ en terminos de la base original |m1 , m2 ij , debemos escribir el termino
(1) (2)
de la derecha en la Ec. (16.68) en la base original, para lo cual tenemos en cuenta que J = J + J y que
|j1 + j2 , j1 + j2 iJ = |j1 , j2 ij ; con lo cual la Ec. (16.68) queda
 
(1) (2)
J + J |j1 , j2 ij ~ 2j1 |j1 1, j2 ij + ~ 2j2 |j1 , j2 1ij
|j1 + j2 , j1 + j2 1iJ = p = p
~ 2 (j1 + j2 ) ~ 2 (j1 + j2 )
424 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

obteniendo finalmente
s s
j1 j2
|j1 + j2 , j1 + j2 1iJ = |j1 1, j2 ij + |j1 , j2 1ij (16.69)
j1 + j2 j1 + j2

notese ademas que la combinacion lineal de vectores originales que me forma a |j1 + j2 , j1 + j2 1iJ esta au-
tomaticamente normalizada.
Para obtener |j1 + j2 , j1 + j2 2iJ , aplicamos J a ambos lados de la Ec. (16.69) escribiendo tal operador
(1) (2)
como J = J + J a la derecha de dicha ecuacion. Podemos repetir este procedimiento sistematicamente, hasta
llegar al estado |j1 + j2 , (j1 + j2 )iJ , el cual se puede ver que es igual a |j1 , j2 ij por un argumento similar
al que nos llevo a la Ec. (16.67), puesto que M = j1 j2 tambien es no-degenerado.
Al finalizar este proceso hemos encontrado todos los 2 (j1 + j2 ) + 1 vectores de la forma |J = j1 + j2 , M i, los
cuales expanden el subespacio E (J = j1 + j2 ) de E (j1 , j2 ).

16.7.2. Determinacion de los vectores |JMi en los otros subespacios


Definiremos ahora a G (j1 + j2 ) como el suplemento o complemento ortogonal de E (j1 + j2 ) en E (j1 , j2 ). De
acuerdo con la Ec. (16.66), tal complemento ortogonal estara dado por

G (j1 + j2 ) = E (j1 + j2 1) E (j1 + j2 2) . . . E (|j1 j2 |)

y aplicamos a G (j1 + j2 ) un analisis analogo al realizado en la seccion 16.7.1 para E (j1 + j2 ).


En G (j1 + j2 ) el grado de degeneracion gj 1 ,j2 (M ) de un valor dado de M es menor en la unidad que la
degeneracion en el espacio completo E (j1 , j2 )

gj 1 ,j2 (M ) = gj1 ,j2 (M ) 1 (16.70)

esto se debe a que E (j1 + j2 ) posee uno, y solo un vector asociado a cada valor accesible de M en E (j1 , j2 ). Es
decir, para cada M en el intervalo (j1 + j2 ) M j1 + j2 hay uno y solo un vector en E (j1 + j2 ). En particular,
M = j1 + j2 ya no existe en G (j1 + j2 ), y por tanto el valor maximo de M en G (j1 + j2 ) es M = j1 + j2 1,
como este era doblemente degenerado en E (j1 , j2 ), sera no-degenerado en G (j1 + j2 ). Por argumentos similares
a los de la seccion 16.7.1, el vector asociado a M = j1 + j2 1 en este subespacio, debe ser proporcional a
|J = j1 + j2 1, M = j1 + j2 1i. Queremos ahora encontrar su expansion en terminos de la base {|m1 , m2 i}. En
virtud del valor de M = j1 + j2 1, la expansion debe ser de la forma

|j1 + j2 1, j1 + j2 1iJ = |j1 , j2 1ij + |j1 1, j2 ij ; ||2 + ||2 = 1 (16.71)

donde ademas requerimos la normalizacion. Adicionalmente, este estado debe ser ortogonal a |j1 + j2 , j1 + j2 1iJ
E (j1 + j2 ), i.e. al estado del complemento ortogonal de G (j1 + j2 ) con el mismo valor de M = j1 + j2 1. Usando
las expresiones (16.69, 16.71) para este vector, dicha ortogonalidad se escribe como

J hj1 + j2 , j1 + j2 1 |j1 + j2 1, j1 + j2 1iJ = 0


"s s #
j1 j2 h i
j hj1 1, j2 | + hj ,
j 1 2 j 1| |j ,
1 2j 1ij + |j1 1, j i
2 j = 0
j1 + j2 j1 + j2
s s
j1 j2
j hj1 1, j2 | j1 1, j2 ij + j hj1 , j2 1| j1 , j2 1ij = 0
j1 + j2 j1 + j2
s s
j1 j2
+ = 0 (16.72)
j1 + j2 j1 + j2
16.8. TRANSFORMACION DE LA BASE DESACOPLADA A LA BASE ACOPLADA 425

la condicion de normalizacion (16.71) junto con la Ec. (16.72) nos permiten encontrar y dentro de un factor
de fase. Escogiendo real y positivo, la Ec. (16.72) nos dice que es real y toma el valor
s    
j2 j2 j1 + j2
= 2 + 2 = 2 1 + = 1 2 =1
j1 j1 j1
s s s
j1 j2 j2
= ; = =
j1 + j2 j1 j1 + j2

Con lo cual la Ec. (16.71) queda


s s
j1 j2
|j1 + j2 1, j1 + j2 1iJ = |j1 , j2 1ij |j1 1, j2 ij (16.73)
j1 + j2 j1 + j2

este es el primer vector de una nueva familia caracterizada por J = j1 +j2 1, de forma similar al vector asociado a
J = j1 + j2 en la seccion 16.7.1. Los otros vectores de esta nueva familia se pueden generar por aplicacion sucesiva
del operador J . De esta forma, obtenemos [2 (j1 + j2 1) + 1] vectores del tipo |J = j1 + j2 1, M i donde J y
M toman los valores

J = j1 + j2 1 ; M = j1 + j2 1, j1 + j2 2, . . . , (j1 + j2 1)

estos vectores nos permiten expandir al subespacio E (j1 + j2 1).


Ahora bien, si j1 +j2 2 |j1 j2 | podemos formar el suplemento de la suma directa E (j1 + j2 )E (j1 + j2 1)
en el espacio E (j1 , j2 )

G (j1 + j2 , j1 + j2 1) = E (j1 + j2 2) E (j1 + j2 3) . . . E (|j1 j2 |)

en el suplemento G (j1 + j2 , j1 + j2 1), la degeneracion de cada valor de M decrece en una unidad con respecto a
la degeneracion en el suplemento anterior G (j1 + j2 ). En particular, el maximo valor de M es ahora M = j1 +j2 2
y es no-degenerado. El vector asociado en G (j1 + j2 , j1 + j2 1) sera |J = j1 + j2 2, M = j1 + j2 2i.
Para calcular al vector |j1 + j2 2, j1 + j2 2iJ en terminos de la base |m1 , m2 i, basta notar que este debe
ser una combinacion lineal de tres vectores

|j1 + j2 2, j1 + j2 2iJ = 1 |j1 , j2 2ij + 2 |j1 1, j2 1ij + 3 |j1 2, j2 ij (16.74)

los tres coeficientes se fijan dentro de un factor de fase por la condicion de normalizacion y de ortogonalidad con
los vectores (ya conocidos) dados por: |j1 + j2 , j1 + j2 2i , |j1 + j2 1, j1 + j2 2i. Es decir, los vectores en el
complemento ortogonal de G (j1 + j2 , j1 + j2 1), con el mismo valor de M = j1 + j2 2. Una vez determinados
los coeficientes en (16.74), podemos encontrar los demas vectores de esta tercera familia, por aplicacion sucesiva
de J . Estos vectores nos permiten expandir a E (j1 + j2 2).
El procedimiento se puede repetir hasta abarcar todos los valores de M mayores o iguales a |j1 j2 |, y en
virtud de la Ec. (16.54) tambien todos los valores correspondientes a M menores o iguales a |j1 j2 |. De esta
forma determinamos todos los vectores {|J, M i} en terminos de la base original {|m1 , m2 i}.

16.8. Transformacion de la base desacoplada a la base acoplada y coeficientes


de Clebsch-Gordan
(1) (2)
En el espacio E (j1 , j2 ), los autovectores comunes a J2(1) , J3 , J2(2) , J3 , y que denotamos (en notacion completa)
por {|j1 , j2 ; m1 , m2 i} forman una base ortonormal conocida como la base desacoplada en el sentido de que esta
base nos da informacion directa de los numeros cuanticos individuales de cada partcula (o de cada grado de
426 CAPITULO 16. ADICION DE MOMENTOS ANGULARES

libertad). Por otra parte, los autovectores comunes a J2 , J3 , J2(1) , J2(2) , y que denotamos (en notacion completa)
por {|j1 , j2 ; J, M i} forman una base ortonormal conocida como la base acoplada ya que esta base nos da
informacion directa de los numeros cuanticos asociados al sistema como un todo.
La transformacion que nos lleva desde la base desacoplada hasta la base acoplada es unitaria puesto que es una
transformacion de una base ortonormal a otra base tambien ortonormal. Esta transformacion unitaria se escribe
facilmente usando la completez en E (j1 , j2 ) de la base desacoplada
j1
X j2
X
|j1 , j2 ; J, M i = |j1 , j2 ; m1 , m2 i hj1 , j2 ; m1 , m2 | J, M i (16.75)
m1 =j1 m=j2

cambiaremos ligeramente la notacion para los coeficientes de esta expansion en la forma


hj1 , j2 ; m1 , m2 | J, M i hm1 , m2 (j1 , j2 ) J, M i (16.76)
con lo cual la expansion (16.75) se escribe como
j1
X j2
X
|j1 , j2 ; J, M i = |j1 , j2 ; m1 , m2 i hm1 , m2 (j1 , j2 ) J, M i (16.77)
m1 =j1 m=j2

los coeficientes hm1 , m2 (j1 , j2 ) J, M i de la expansion, que son elementos de la matriz unitaria de transformacion,
se conocen como coeficientes de Clebsch-Gordan. Los numeros cuanticos de la izquierda indican un ket de la
base desacoplada, los de la derecha indica un ket de la base acoplada y los numeros cuanticos (j1 , j2 ) del centro,
indican los momentos angulares j1 y j2 que se estan acoplando. Un aspecto importante es que la notacion original
|j1 , j2 ; m1 , m2 ; k1 , k2 i , |j1 , j2 ; J, M ; k1 , k2 i para las bases no es necesaria dado que los productos internos son
independientes de k1 y k2 , y dentro del espacio E (j1 , j2 ) los k s toman un solo valor, de modo que dentro de este
subespacio este numero cuantico no discrimina diferentes estados.
No es posible dar expresiones generales para los coeficientes de Clebsch-Gordan. Estos coeficientes se pueden
generar con el algoritmo explicado en las secciones anteriores. Adicionalmente, existen tablas numericas de estos
coeficientes. Por ejemplo, las Ecs. (16.67, 16.69, 16.73) nos permiten encontrar algunos coeficientes de Clebsch-
Gordan
hj1 , j2 (j1 , j2 ) j1 + j2 , j1 + j2 i = 1
s
j1
hj1 1, j2 (j1 , j2 ) j1 + j2 , j1 + j2 1i =
j1 + j2
s
j2
hj1 , j2 1 (j1 , j2 ) j1 + j2 , j1 + j2 1i =
j1 + j2
s
j1
hj1 , j2 1 (j1 , j2 ) j1 + j2 1, j1 + j2 1i =
j1 + j2
s
j2
hj1 1, j2 (j1 , j2 ) j1 + j2 1, j1 + j2 1i =
j1 + j2

Es importante mencionar que para determinar estos coeficientes en forma unica, deben escogerse ciertas con-
venciones de fases. Lo usual es definir estos coeficientes como reales. Sin embargo, la escogencia de ciertas fases
dictamina el signo de algunos coeficientes. Por supuesto, los signos relativos de los coeficientes que aparecen en la
expansion del mismo vector |J, M i estan fijos, solo se puede escoger en forma arbitraria el signo global.
Adicionalmente, la reglas de adicion que hemos obtenido muestran que estos coeficientes tienen unas reglas de
seleccion: el coeficiente hj1 , j2 ; m1 , m2 | J, M i hm1 , m2 (j1 , j2 ) J, M i es diferente de cero solo si
M = m1 + m2 ; |j1 j2 | J j1 + j2 (16.78)
16.8. TRANSFORMACION DE LA BASE DESACOPLADA A LA BASE ACOPLADA 427

donde J debe ser del mismo tipo (entero o semi-entero) que los valores j1 + j2 y |j1 j2 |. La segunda condicion en
(16.78) se conoce usualmente como regla del triangulo ya que expresa el hecho de que si la condicion se satisface,
debe poderse formar un triangulo con tres segmentos de longitud j1 , j2 y J. En otras palabras, la segunda ecuacion
(16.78) expresa el conocido teorema que nos dice que un lado J de un triangulo es menor que la suma de los otros
dos lados y mayor que su diferencia.
Naturalmente la relacion inversa de la expresada en (16.77) se puede obtener usando la completez de la base
acoplada
jX
1 +j2 J
X jX
1 +j2 J
X
|j1 , j2 ; m1 , m2 i = |J, M i hJ, M |j1 , j2 ; m1 , m2 i |J, M i hJ, M (j1 , j2 ) m1 , m2 i
J=j1 j2 M =J J=j1 j2 M =J
(16.79)
dado que los coeficientes de C-G son elementos de una matriz unitaria y se eligen como reales, la matriz sera
ortogonal real, por tanto se cumple la condicion

hm1 , m2 (j1 , j2 ) J, M i = hJ, M (j1 , j2 ) m1 , m2 i (16.80)

En sntesis, los coeficientes de Clebsch-Gordan determinan la transformacion de la base desacoplada a la base


acoplada y viceversa.
Captulo 17

Propiedades generales de los sistemas de


dos estados

Si por ejemplo consideramos los estados propios de los operadores de espn S2 y S3 para una partcula de espn
s = 1/2, tenemos que hay solo dos autoestados de S2 y S3 que usualmente denotamos |i. Si estamos interesados
en informacion concerniente solo a variables de espn, por ejemplo la probabilidad de que el momento magnetico
de espn sea +1/2 en una medida de espn (sin importar los valores que tomen las variables espaciales), entonces
podemos por simplicidad considerar un espacio vectorial (espinorial) de solo dos dimensiones para realizar los
calculos, tal que los dos estados |i formaran una base para dicho espacio.
Existen otros escenarios en los cuales los sistemas de dos estados resultan relevantes en mecanica cuantica.
Consideremos un sistema para el cual existen dos estados con energas muy cercanas entre s, y que son muy
diferentes a las energas de los otros autoestados de energa del sistema. Asumamos que queremos evaluar el
efecto de una perturbacion externa o de una perturbacion interna previamente ignorada. Si la intensidad de la
perturbacion es suficientemente pequena, se puede demostrar que su efecto sobre los dos estados cercanos, se
puede calcular en primera aproximacion ignorando los otros niveles de energa. De modo que todos los calculos
involucran un espacio de dos dimensiones.

17.1. Formulacion del problema


Consideremos un sistema fsico cuyo espacio de estados es de dos dimensiones. Como ya se menciono esto
es usualmente solo una aproximacion, en la cual asumimos que hay un subespacio dos dimensional del espacio
completo de estados que esta casi desacoplado de su complemento ortogonal. Es decir, la probabilidad de obtener
valores de energa diferentes a las de los dos estados en una medicion es mucho menor que la probabilidad de
obtener alguna de las dos energas de los dos estados en cuestion. De acuerdo con el quinto postulado, esto implica
que la probabilidad de que el sistema este en una combinacion lineal que involucra solo a los dos estados es casi
uno.
Definamos un Hamiltoniano H0 que denominaremos Hamiltoniano no perturbado, y usaremos la base de sus
vectores propios |1 i , |2 i para realizar los calculos. Sus niveles de energa seran E1 y E2 de modo que
H0 |1 i = E1 |1 i ; H0 |2 i = E2 |2 i , hi |j i = ij , i, j = 1, 2 (17.1)
ahora queremos tener en cuenta una perturbacion externa o interaccion interna previamente ignorada. Tal per-
turbacion (tambien llamado acople) sera simbolizada como W , y el Hamiltoniano perturbado H viene dado por
H = H0 + W (17.2)
denotaremos a los autoestados y autovalores de H como | i y E respectivamente
H |+ i = E+ |+ i ; H | i = E | i (17.3)

428
17.2. EFECTO DEL ACOPLE SOBRE LA ENERGIA Y LOS ESTADOS ESTACIONARIOS 429

asumiremos que W es independiente del tiempo. Expresaremos matricialmente a la perturbacion W usando la


base no perturbada |1 i , |2 i (i.e. la base de vectores propios del Hamiltoniano no perturbado H0 )
   
h1 | W |1 i h1 | W |2 i W11 W12
W = = , Wij = Wji (17.4)
h2 | W |1 i h2 | W |2 i W21 W22

de modo que W11 y W22 son reales y W12 = W21 . En ausencia del acople o perturbacion W , las energas accesibles

del sistema son E1 y E2 , siendo |1 i , |2 i los estados estacionarios del sistema, de modo que si en t = 0 el sistema
esta en uno de estos dos estados, permanecera en el indefinidamente. Veremos entonces como se modifican las
energas y estados estacionarios cuando se introduce el acople W .

17.2. Consecuencias de la introduccion del acople sobre los niveles de energa


y los estados estacionarios
Al introducir el acople, el Hamiltoniano del sistema sera el descrito en la Ec. (17.2). Por tanto, de acuerdo con
los postulados, los niveles de energa y estados estacionarios seran ahora los descritos en la Ec. (17.3). Una medida
de la energa solo podra dar alguno de los valores E+ o E y los estados estacionarios seran sus autoestados
asociados |+ i y | i. Esto implica en particular que E1 y E2 ya no son energas permitidas en el sistema y los
estados |1 i y |2 i ya no seran estados estacionarios (pues estos no son en general autovalores ni autoestados del
Hamiltoniano perturbado H). Esto implica que si el sistema esta inicialmente en el estado |1 i la introduccion de
la perturbacion genera una evolucion temporal y por tanto hay cierta probabilidad P12 (t) de encontrar al sistema
en el estado |2 i en el tiempo t. Decimos entonces que W induce transiciones entre los estados no perturbados.
Por esta razon decimos que W actua como un acople entre |1 i y |2 i.

17.2.1. Efecto del acople sobre los estados estacionarios del sistema
La representacion matricial del Hamiltoniano perturbado en la base |1 i, |2 i sera


E1 + W11 W21
H=
W21 E2 + W22

los valores y vectores propios de esta matriz se realizaron en detalle en la seccion 1.45.3. Las Ecs. (1.229, 1.230,
1.231) nos muestran tales autovalores y autovectores
q
1 1
E = (E1 + W11 + E2 + W22 ) (E1 + W11 E2 W22 )2 + 4 |W12 |2 (17.5)
2 2

|+ i = cos ei/2 |1 i + sin ei/2 |2 i (17.6)
2 2
i/2
| i = sin e |1 i + cos ei/2 |2 i (17.7)
2 2

donde los angulos y estan dados por la Ecs. (1.232)

2 |W21 |
tan = , W21 = |W21 | ei ; 0 < , 0 < 2 (17.8)
E1 + W11 E2 W22

Es facil ver que si W12 = 0, los autoestados de H son los autoestados de H0 y los nuevos niveles de energa
son simplemente E1 + W11 y E2 + W22 . Por tanto, los efectos interesantes surgen cuando W posee elementos
no-diagonales W12 = W21 . Para simplificar la discusion asumimos que la matriz de W en la base {| i , | i} es
1 2
430 CAPITULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS

puramente no-diagonal1 . Haciendo W11 = W22 = 0 en las Ecs. (17.5, 17.8) obtenemos
q
1 1
E = (E1 + E2 ) (E1 E2 )2 + 4 |W12 |2 (17.9)
2 2
2 |W21 |
tan = , 0 < ; W21 = |W21 | ei (17.10)
E1 E2
es conveniente definir las siguientes variables
1 1
Em (E1 + E2 ) ; (E1 E2 ) (17.11)
2 2
que corresponden al promedio y el desdoblamiento de los niveles no perturbados. Sustituyendo (17.11) en las Ecs.
(17.9, 17.10) tenemos que
q q
|W21 |
E+ = Em + + |W21 | ; E = Em 2 + |W21 |2 ; tan =
2 2
(17.12)

Las Ecs. (17.12) muestran que cuando Em cambia, la variacion de E es equivalente a correr el origen a lo

Figura 17.1: Variacion de las energas E con respecto al desdoblamiento (E1 E2 ) /2. Hemos definido el
cero del eje de energa en Em . En ausencia de acoplamiento los niveles se cruzan en el origen como lo muestran
las lneas rectas punteadas. Al introducir el acople W no-diagonal, los dos niveles perturbados se repelen uno a
otro y se obtienen curvas de E+ y E que no se cruzan. Tales curvas son ramas hiperbolicas (lneas solidas en la
figura) cuyas asntotas son los niveles no perturbados.

largo del eje de energa. Adicionalmente, las Ecs. (17.6, 17.7, 17.10, 17.12) muestran que los autovectores | i no
dependen de Em sino solo del desdoblamiento . Es interesante mostrar el comportamiento de las energas E1,2 y
1
Si W11 y W22 son no nulos, podemos definir E e1 = E1 + W11 y E
e2 = E2 + W22 . Todos los resultados que se obtendran en esta
e1 y E2 E
seccion seran validos en este caso, haciendo los reemplazos E1 E e2 .
17.2. EFECTO DEL ACOPLE SOBRE LA ENERGIA Y LOS ESTADOS ESTACIONARIOS 431

E en un diagrama de versus energa. La Fig. 17.1 muestra que tal diagrama para las energas E corresponde
a ramas hiperbolicas simetricas con respecto a los ejes coordenados (en donde el zero del eje vertical se ubico
en Em ), y cuyas asntotas son las lneas rectas punteadas que describen el comportamiento de las energas E1 y
E2 . La Fig. 17.1 tambien muestra que la separacion mnima entre las ramas hiperbolicas es 2 |W21 |. Puede verse
entonces que en ausencia de acople, los niveles de energa E1 y E2 se cruzan en = 0 (como se ve tambien en
las Ecs. 17.11). Con la introduccion del acople, los niveles de energa se repelen es decir tienden a alejarse. Por
esta razon se suele hablar de diagramas anti-cruzantes, para curvas del tipo mostrado por E . Se observa ademas
que cuando W 0 tenemos que E E1,2 si E1 > E2 en tanto que E E2,1 si E2 > E1 . De las Ecs. (17.11,
17.12) vemos que
q
|E+ E | = 2 2 + |W21 |2 > 2 ; |E1 E2 | 2 (17.13)
|E+ E | > |E1 E2 | (17.14)

donde el aumento en el desdoblamiento es mayor a medida que crece el acople. Vemos entonces que el acople
separa la frecuencias normales, situacion que aparece en muchos escenarios fsicos.
Es necesario poder discriminar cuando podemos hablar de un acople fuerte o debil. Para ello vemos que
las Ecs. (17.12) se pueden reescribir como
p
W21
E = Em 1 + K 2 ; K , 6= 0 (17.15)

de modo que la intensidad del acople se puede medir en terminos de K



W21
K 1 acople debil


W21
K 1 acople f uerte

17.2.2. Efecto de un acople debil sobre los niveles de energa y estados estacionarios
El acople debil esta caracterizado por || |W21 |. La Fig. 17.1 nos muestra que en este lmite todas las energas
se comportan aproximadamente como las asntotas. Puesto que K 1, las Ecs. (17.15) se pueden expandir en
series de potencias de K !

1 W21 2
E = Em 1 + + ... (17.16)
2
adicionalmente, la Ec. (17.12) nos dice que 0 en este lmite. Por tanto tan sin , de modo que a primer
orden obtenemos
tan |W21 |
cos 1 ; sin =
2 2 2 2 2
reemplazando estas aproximaciones en las Ecs. (17.6, 17.7), los autoestados en el lmite de acople debil quedan

|W21 | i/2 |W21 | i/2


|+ i ei/2 |1 i + e |2 i ; | i e |1 i + ei/2 |2 i (17.17)
 2   2 
|W21 | i |W21 | i
|+ i ei/2 |1 i + e |2 i ; | i e |1 i + |2 i ei/2 (17.18)
2 2

puesto que las fases globales son irrelevantes, vemos que un acople debil genera estados perturbados muy similares
a los estados no perturbados como era de esperarse. Por ejemplo, el estado |+ i se puede ver como el estado |1 i
ligeramente contaminado por una pequena contribucion del estado |2 i. Similarmente, | i es casi el estado
|2 i con una pequena contribucion de |1 i.
432 CAPITULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS

17.2.3. Efecto de un acople fuerte sobre los niveles de energa y estados estacionarios
El acople fuerte se caracteriza por || |W21 |. La Fig. 17.1 nos muestra que este lmite corresponde al
comportamiento de las energas alrededor de = 0. En particular, si tomamos = 0 el acople se considera fuerte
para cualquier valor no nulo de W21 . En el lmite E1 = E2 i.e. = 0, las Ecs. (17.12) quedan en la forma

E = Em |W21 | (17.19)

y vemos entonces que el efecto del acople es mas mucho mas importante cuando los dos niveles no perturbados
tienen la misma energa (por ejemplo por degeneracion). Las Ecs. (17.19) muestran que este efecto es de primer
orden, en tanto que en el lmite de acople debil el efecto es de segundo orden como se aprecia en la Ec. (17.16).
Cuando = 0 vemos de (17.12) que = /2 y los autoestados (17.6, 17.7) quedan
i/2
|+ i = cos e |1 i + sin ei/2 |2 i ; | i = sin ei/2 |1 i + cos ei/2 |2 i (17.20)
4 4 4 4
1 h i/2 i 1 h i
|+ i = e |1 i + ei/2 |2 i ; | i = ei/2 |1 i + ei/2 |2 i (17.21)
2 2

de modo que en el lmite de acople fuerte, los estados | i difieren radicalmente de |1,2 i como se esperaba. Vemos
que | i son superposiciones de |1 i y |2 i con coeficientes del mismo modulo. Podemos decir que | i son estados
de maxima mezcla de los estados |1 i y |2 i.

17.3. Evolucion temporal del vector de estado: oscilacion del sistema entre
dos estados sin perturbar
La evolucion del estado | (t)i del sistema de dos estados esta governada por la ecuacion de Schrodinger

d
i~ | (t)i = (H0 + W ) | (t)i (17.22)
dt
y dado que | (t)i es una superposicion de los estados |1 i y |2 i para todo tiempo tenemos que

| (t)i = a1 (t) |1 i + a2 (t) |2 i (17.23)

insertando la expansion (17.23) en la ecuacion de Schrodinger (17.22), aplicando el bra h1 | y usando la Ec. (17.4)
con W11 = W22 = 0, resulta

d
i~ h1 | [a1 (t) |1 i + a2 (t) |2 i] = h1 | (H0 + W ) [a1 (t) |1 i + a2 (t) |2 i]
dt
d
i~ [a1 (t) h1 |1 i + a2 (t) h1 |2 i] = a1 (t) h1 | (H0 + W ) |1 i + a2 (t) h1 | (H0 + W ) |2 i
dt
d
i~ a1 (t) = a1 (t) (E1 + W11 ) + a2 (t) [E2 h1 |2 i + W12 ]
dt
d
i~ a1 (t) = E1 a1 (t) + W12 a2 (t)
dt
donde hemos asumido que H0 es conservativo y por tanto |1 i es independiente del tiempo. Un procedimiento
similar aplicando el bra h2 | nos lleva a las ecuaciones

d
i~ a1 (t) = E1 a1 (t) + W12 a2 (t) (17.24)
dt
d
i~ a2 (t) = W21 a1 (t) + E2 a2 (t) (17.25)
dt
17.3. EVOLUCION DEL VECTOR DE ESTADO: OSCILACION ENTRE DOS ESTADOS 433

si W12 6= 0, tenemos una sistema de dos ecuaciones diferenciales homogeneas acopladas.


La evolucion temporal de | (t)i se puede obtener utilizando el metodo descrito en la seccion 5.8. Esto es, se
escribe la expansion de | (0)i en terminos de los autoestados | i del Hamiltoniano H
| (0)i = |+ i + | i (17.26)
de modo que la evolucion temporal vendra dada por
| (t)i = eiE+ t/~ |+ i + eiE t/~ | i (17.27)
lo cual nos permite obtener a1 (t) y a2 (t) aplicando los bras h1 | y h2 | a ambos lados de la Ec. (17.27).
Dado que los estados |1 i y |2 i ya no son estacionarios, es de esperarse que incluso si el estado inicial es por
ejemplo |1 i el sistema evolucione temporalmente. Veremos de hecho que si el estado del sistema esta descrito por
la Ec. (17.27), el sistema oscila entre los estados no perturbados |1 i y |2 i. Para verlo asumiremos que en t = 0
el sistema esta en el estado |1 i
| (0)i = |1 i
ahora debemos expandir este estado inicial en terminos de | i como en la Ec. (17.26). Para ello invertimos las
Ecs. (17.6, 17.7). Esto se realiza multiplicando la Ec. (17.6) por cos (/2) y la Ec. (17.7) por sin (/2) y sumando

cos |+ i sin | i = cos2 ei/2 |1 i + sin2 ei/2 |1 i = ei/2 |1 i
2 2 2  2 
i/2
|1 i = | (0)i = e cos |+ i sin | i (17.28)
2 2
comparando la Ec. (17.28) con la Ec. (17.26) vemos que = ei/2 cos (/2) y = ei/2 sin (/2), con lo cual la
Ec. (17.27) queda  
i/2 iE+ t/~ iE t/~
| (t)i = e cos e |+ i sin e | i (17.29)
2 2
si el sistema evoluciona bajo el Hamiltoniano perturbado hasta el tiempo t, el sistema estara en este tiempo en el
estado | (t)i descrito por la Ec. (17.29). Asumamos ahora que la perturbacion W se desconecta en el tiempo t.
Si justo despues de desconectar la perturbacion medimos la energa, obtendremos E1 o E2 (ya que estos vuelven
a ser los valores de energa accesibles del sistema), y la probabilidad de obtener cada uno de estos valores viene
dada por
PEi = |hi | (t)i|2 ; i = 1, 2 (17.30)
pero esto es equivalente a decir que esta es la probabilidad de que el sistema quede preparado en el estado |i i.
Por esta razon, suele decirse que |hi | (t)i|2 es la probabilidad de encontrar al sistema en el tiempo t en |i i.
No obstante, vale la pena mencionar que esta afirmacion solo es valida si: (a) Se desconecta la perturbacion en el
tiempo t y (b) Justo despues de desconectar la perturbacion, se hace la medida del observable H (si se mide otro
observable, el sistema queda preparado en un autoestado de ese otro observable). Notese que si la perturbacion no
se desconecta en t, una medicion del observable H solo puede dar E+ o E lo cual a su vez implica que el sistema
quedara preparado en el estado |+ i o en el estado | i y no hay posibilidad de que quede en el estado |i i. De
otra parte, si no se realiza ninguna medicion, el sistema evoluciona de acuerdo con la ecuacion de Schrodinger y
no podemos hablar de la probabilidad de obtener un estado (ya que la ecuacion de Schrodinger es determinista).
La anterior discusion nos muestra que si no se realiza ninguna medida en el tiempo t, la cantidad hi | (t)i ai
es simplemente el coeficiente de Fourier de la expansion de | (t)i en terminos de |1 i y |2 i. En otras palabras,
el coeficiente ai nos dice el peso con el cual contribuye cada estado |i i al estado | (t)i con la restriccion de
que |a1 |2 + |a2 |2 = 1.
Con estas aclaraciones interpretaremos de aqu en adelante a |h2 | (t)i|2 como la probabilidad de encontrar
al sistema en el tiempo t en |2 i. La amplitud de probabilidad asociada esta dada por
 
i/2 iE+ t/~ iE t/~
h2 | (t)i = e cos e h2 |+ i sin e h2 | i (17.31)
2 2
434 CAPITULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS

de las Ecs. (17.6, 17.7) tenemos que


h2 |+ i = cos ei/2 h2 |1 i + sin ei/2 h2 |2 i ; h2 | i = sin ei/2 h2 |1 i + cos ei/2 h2 |2 i
2 2 2 2
i/2 i/2
h2 |+ i = sin e ; h2 | i = cos e (17.32)
2 2
reemplazando (17.32) en (17.31), la probabilidad de encontrar al sistema en el tiempo t en |2 i queda
 
2
i/2
iE+ t/~ i/2 iE t/~ i/2 2
P12 (t) = |h2 | (t)i| = e cos e sin e sin e cos e
2 2 2 2
i h
i 2 1 2
e 2 iE+ t/~ iE t/~
= sin eiE+ t/~
sin eiE t/~
= sin e e
2 4
1    1 h i
P12 (t) = sin2 eiE+ t/~ eiE t/~ eiE+ t/~ eiE t/~ = sin2 1 ei(E+ E )t/~ ei(E+ E )t/~ + 1
4 4   
1 n h io 1 (E+ E ) t
2 i(E+ E )t/~ i(E+ E )t/~ 2
= sin 2 e +e = sin 2 2 cos
4 4 ~

teniendo en cuenta que 1 cos = 2 sin2 (/2), tenemos finalmente


  
1 2 (E+ E ) t
P12 (t) = sin 1 cos
2 ~
 
(E+ E ) t
P12 (t) = sin2 sin2 (17.33)
2~

usando la Ec. (1.223), Pag. 108, tenemos que

(H11 H22 )2 (E1 E2 )2


sin2 = 1 cos2 = 1 = 1
(H11 H22 )2 + 4 |H21 |2 (E1 E2 )2 + 4 |W21 |2
4 |W21 |2
sin2 = (17.34)
(E1 E2 )2 + 4 |W21 |2

reemplazando las Ecs. (17.34, 17.9) en la Ec. (17.33) podemos escribir P12 en terminos de los elementos matriciales
Wij y de las energas no perturbadas E1 y E2
q
4 |W21 | 2 4 |W12 |2 + (E1 E2 )2
P12 (t) = sin2 t (17.35)
(E1 E2 )2 + 4 |W21 |2 2~

la Ec. (17.35) es conocida como Formula de Rabi.


La Ec. (17.33) nos muestra que P12 (t) oscila en el tiempo con una frecuencia (E+ E ) /h, que corresponde
a la unica frecuencia de Bohr del sistema. P12 (t) vara desde cero hasta sin2 , este valor maximo se alcanza para
tiempos
(2k + 1) ~
tk = , k = 0, 1, 2, . . .
E+ E
la frecuencia de oscilacion y el maximo sin2 de la probabilidad dependen de |W21 | y de E1 E2 . Usando
(17.12), con = 0 tenemos que

E+ E 2 |W21 |
=0 = , sin2 = 1
h h
17.3. EVOLUCION DEL VECTOR DE ESTADO: OSCILACION ENTRE DOS ESTADOS 435

de modo que en un tiempo tk = (2k+1)~ 2|W21 | el sistema (cuyo estado inicial es |1 i) estara en el estado |2 i . En
consecuencia, todo acople entre dos estados de igual energa hace que el sistema oscile completamente de un
estado a otro con una frecuencia proporcional al acople.
Notese que este fenomeno es analogo al que ocurre con dos pendulos acoplados de la misma frecuencia natural.
Si el pendulo 1 se desplaza dejando fijo al pendulo 2, el primero comienza a oscilar pero su oscilacion disminuye
en tanto que va aumentando la del pendulo 2 hasta que se llega a la condicion opuesta para un cierto tiempo, en
el cual el pendulo 2 oscila y el pendulo 1 esta instantaneamente en reposo. Luego comienza la transferencia de
energa al pendulo 1 de nuevo y as sucesivamente. Similarmente, cuando aumenta el acople (constante del resorte
que acopla a los pendulos), disminuye el tiempo de transferencia.
Por otro lado, cuando E1 E2 aumenta, la frecuencia (E+ E ) /h tambien aumenta (ver Ecs. 17.13,
17.14) en tanto que sin2 disminuye como se aprecia en la Ec. (17.34). Para un acople debil || = |E1 E2 |
|W21 |, se observa de las Ecs. (17.13, 17.14) que el desdoblamiento E+ E de los niveles perturbados solo difiere
ligeramente del desdoblamiento de los estados no perturbados. Se puede ver tambien de la Ec. (17.34) que la
cantidad sin2 es muy pequena en tal lmite. Esto es de esperarse ya que en el lmite de acople debil |+ i es muy
similar a |1 i, con lo cual el sistema estara en t = 0 en un estado cuasi-estacionario.
Captulo 18

Teora cuantica de la dispersion

Un experimento tpico de dispersion (scattering) consiste en un haz de partculas que se utilizan como proyecti-
les (usualmente en un acelerador) y se proyectan sobre un blanco (otro conjunto de partculas) que con frecuencia
esta en reposo en el sistema de referencia de laboratorio1 . Este tipo de experimentos se realizan usualmente con
alguno de estos objetivos: (a) Caracterizar la interaccion que hay entre los proyectiles y el blanco, o (b) Conociendo
el tipo de interaccion entre el proyectil y el blanco, obtener informacion sobre la distribucion de masa del blan-
co. Cualquiera de estos objetivos se realiza midiendo la desviacion del haz de proyectiles despues de interactuar
con el blanco. Primero describiremos brevemente el escenario clasico de la teora de la dispersion, puesto que los
conceptos basicos son mas faciles de construr y asimilar en un escenario clasico. Para posteriormente mostrar la
imagen cuantica del fenomeno.

18.1. Teora clasica de la dispersion


Imaginemos una partcula incidente (proyectil) sobre un centro dispersor (blanco) que viene desde una distancia
considerable (r , t ). Es decir la partcula incidente es esencialmente libre en este regimen asintotico
con r , t , y por tanto se mueve en lnea recta. Definiremos el origen O, sobre el blanco o centro
dispersor, y el eje Z sera una lnea paralela a la lnea de propagacion de la partcula incidente, que pasa por el
origen O. El parametro de impacto de la partcula se define como la distancia entre la lnea de propagacion
asintotica incidente de la partcula y el eje Z. En el regimen asintotico incidente, la partcula viene con una energa
y momento lineal E y p, bien definidos, y con un parametro de impacto b. A medida que la partcula se acerca
al blanco, la interaccion con este se vuelve considerable de modo que su trayectoria ya no es una lnea recta, a
la region donde esta interaccion es considerable se le denomina la region de colision o region de dispersion.
Por convencion, se asume que t 0 cuando el proyectil esta dentro de la region de colision. Cuando el proyectil
se aleja bastante del blanco, este vuelve a ser libre y su trayectoria sera nuevamente una lnea recta, la region
asintotica saliente esta entonces caracterizada por r y t . Sin embargo, la direccion saliente sera
en general diferente a la direccion incidente de la partcula, ya que la interaccion con el blanco en la region de
colision se manifiesta en una deflexion de la trayectoria del proyectil. El angulo entre la direccion entrante (o
incidente) y la direccion saliente se denomina angulo de dispersion de la partcula. Este angulo es el que
contiene informacion sobre la dispersion y que nos puede arrojar luces sobre la interaccion entre el proyectil y el
blanco, o la distribucion de masa del blanco. La Fig. 18.1 muestra la dispersion de un proyectil por un blanco fijo.

En un experimento real no utilizamos un solo proyectil ni un solo blanco, sino un haz de partculas incidentes
sobre una serie de blancos. A manera de ejemplo, en el experimento de Rutherford se utilizaron como proyectiles
1
En muchos experimentos reales con aceleradores de partculas, no hay un blanco fijo con respecto al laboratorio, sino que se ponen
a colisionar dos haces que se aproximan frontalmente. Esto se hace con el fin de aumentar la energa cinetica total de la colision. Sin
embargo, si los haces no presentan mucha dispersion en sus velocidades, siempre es posible pasar a un sistema de referencia en el cual
las partculas de uno de los haces estan en reposo.

436
18.1. TEORIA CLASICA DE LA DISPERSION 437

Figura 18.1: Ilustracion del parametro de impacto b y del angulo de dispersion , en el problema clasico de la
dispersion.

un haz de partculas (nucleos de He4 ) emitidos en un decaimiento radiactivo. Por otro lado, los blancos eran
atomos de oro en forma de una delgada lamina de dicho elemento. La distribucion angular de las partculas
, dio una evidencia clara de que la carga positiva del atomo de oro estaba concentrada en un nucleo donde
se encontraba casi toda la masa de dicho atomo. En el caso del experimento de Rutherford, el objetivo era
caracterizar la distribucion de masa de los blancos asumiendo conocida la interaccion entre los proyectiles y los
blancos (interaccion de Coulomb).
Es claro que la deflexion de la partcula va a depender tanto de la energa E como del parametro de impacto
b. Adicionalmente, puesto que no tenemos un solo proyectil, es importante caracterizar la intensidad (tambien
denominada luminosidad o flujo) del haz incidente i.e. la cantidad de partculas por unidad de area por unidad de
tiempo que cruzan un area perpendicular a la direccion de propagacion del haz. Recordemos que por convencion,
la direccion de propagacion incidente es uz . Puesto que el haz posee un tamano o ancho, tendremos proyectiles con
diferentes parametros de impacto (incluso si todos se preparan con la misma energa) y por tanto no tendremos
un angulo especfico de dispersion, sino mas bien una distribucion angular que se debe medir con algun detector.
El detector de las partculas salientes debe estar ubicado a una distancia suficientemente lejana para que se pueda
considerar que esta en la region asintotica saliente (lejos de la region de colision).
Notese que un haz muy intenso producira dispersion debida a la interaccion entre los proyectiles, incluso en
las regiones asintoticas incidente y saliente. Esto es indeseable para la mayoria de experimentos en donde se
pretende caracterizar solo la interaccion proyectil-blanco. Por otro lado, haces de muy baja intensidad produciran
una estadstica muy pobre debido al bajo numero de eventos detectados. Esto puede compensarse usando haces
de baja intensidad enviando una serie de haces en tiempos prolongados, a fin de mantener baja la interaccion
entre los proyectiles y al mismo tiempo acumular la estadstica suficiente. Esto implica retos experimentales que
no trataremos aqu.
La Fig. 18.2, muestra que las partculas incidentes dentro de un parche infinitesimal de area transversal d,
se dispersaran en un angulo solido infinitesimal asociado d centrado alrededor de cierta direccion (, ).
438 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

Figura 18.2: Las partculas que inciden en el area d, se dispersan dentro del angulo solido d centrado en la
direccion (, ).

A mayor d le correspondera un mayor angulo solido d, al factor de proporcionalidad entre ambos D () se le


conoce como la seccion eficaz diferencial2 en la direccion (, )
d
d D () d ; D () (18.1)
d
Adicionalmente, si dn es el numero de partculas que cruza el area d por unidad de tiempo, por definicion de
intensidad se tiene que
dn
I dn = I d
d
por lo tanto, la seccion eficaz diferencial se puede definir como el factor de proporcionalidad que conecta a dn con
la intensidad del haz y el angulo solido d (centrado en la direccion (, )) asociado a dn y d
dn
dn = I d = I D () d D () d (18.2)
I
en palabras decimos que

numero de partculas dispersadas por unidad de tiempo en


un angulo solido d centrado en la direccion (, )
D () d (18.3)
Intensidad incidente
dn tiene dimensiones de tiempo1 , d es adimensional, e I tiene dimensiones de area1 tiempo1 . Por tanto,
D () tiene dimensiones de area. Para experimentos de dispersion a escala atomica es usual tomar la unidad basica
barn como medida de la seccion eficaz diferencial

1barn = 1024 cm2

La definicion (18.3) implica que se tiene en cuenta solo las partculas que se deflectan. El flujo de estas partculas
al alcanzar el detector D es inversamente proporcional al cuadrado de la distancia entre el detector y el centro
dispersor, ya que el detector (centrado en una direccion dada (, )) tiene una superficie fija y por tanto el angulo
solido que subtendiende con respecto a O, disminuye con la distancia al blanco como r 2 . En la practica, el
ancho del haz esta acotado lateralmente, pero este ancho suele extenderse mas alla de la region de influencia de
2
El termino seccion eficaz diferencial no es muy apropiado, puesto que D () definido en (18.3) no es una cantidad diferencial
(infinitesimal) sino finita. Es una derivada mas no un diferencial.
18.2. DIFERENTES TIPOS DE COLISIONES 439

la interaccion, es decir que en los bordes exteriores del haz, no hay una interaccion considerable con el blanco y
no hay deflexion de los proyectiles. Sin embargo, el detector suele estar fuera de la trayectoria de estas partculas
que no se deflectan, de modo que solo recibe partculas deflectadas. Con este arreglo experimental, no es posible
medir la seccion eficaz en la direccion frontal ( = 0) ya que a ella contribuyen las partculas con parametro de
impacto cero o muy grande (al menos para potenciales con simetra esferica). Usualmente la seccion eficaz frontal,
se obtiene por extrapolacion de los valores de D (, ) para valores pequenos de .
Por otro lado, de la Fig. 18.2 vemos que el diferencial de area d viene dado por

d = b |db| d

siendo el angulo azimutal (ya explicaremos la razon para introducir el valor absoluto de db), y puesto que el
diferencial del angulo solido es d = sin d d, la Ec. (18.1) nos da3

b db
D () = (18.4)
sin d
notese que D () puede depender de y si el parametro de impacto es funcion de y . En la expresion (18.4) se
ha colocado un valor absoluto debido a que b es tpicamente una funcion decreciente de y por tanto, la derivada
es tpicamente negativa.
Definiremos ademas la seccion eficaz total en la forma
Z
D () d

dicho en terminos muy generales, corresponde al area total del haz incidente que es dispersada por el blanco.

18.2. Diferentes tipos de colisiones


En algunos experimentos de colision es posible que no se conserve el numero y/o la identidad de las partculas.
Por ejemplo, en la colision algunas partculas se pueden fusionar o fragmentar, de modo que cambia la identidad
y tal vez el numero de partculas salientes. Esto ocurre en particular cuando las partculas que forman el proyectil
y/o el blanco no son elementales, sino que estan compuestas de otras partculas mas pequenas. En este tipo
de colisiones, la energa interna de las partculas involucradas cambia de modo que la energa cinetica inicial es
diferente a la energa cinetica total final (colisiones inelasticas).
De otra parte, en un regimen relativista, es posible que se creen o aniquilen partculas a expensas de la
energa de las partculas entrantes gracias a la equivalencia masa-energa. Por ejemplo, en Fsica de partculas un
electron y un positron (la antipartcula del electron) colisionando a altas energas se pueden convertir en un par
muon-antimuon. El muon es una partcula con caractersticas similares al electron pero con masa en reposo unas
doscientas veces mayor, este proceso se simboliza como

e e+ + (18.5)

en esta colision cambia la naturaleza de las partculas salientes. Notese que el producto final es de partculas mucho
mas masivas, que se pueden crear a expensas de la energa cinetica de las partculas incidentes. Tambien existen
en Fsica de partculas los decaimientos, en los cuales una partcula se fragmenta en dos o mas. Por ejemplo, un
muon puede decaer en dos electrones y un positron

e e e+ (18.6)

en particular es posible que se de el proceso (18.5) y el muon resultante decaiga como en (18.6) resultando

e e+ + e e e+ +
3
Para construr d, los diferenciales d y d se definen positivos.
440 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

que en forma efectiva se puede ver como


e e+ e e e+ +

en esta colision cambio tanto el numero de partculas como su naturaleza. Este tipo de colisiones las llamamos
genericamente reacciones. En la dispersion o scattering el estado final y el inicial estan compuestos de las mismas
partculas en numero y en identidad. Nos limitaremos a este tipo de reacciones. Sin embargo, el concepto de
seccion eficaz puede extrapolarse a reacciones generales.
Normalmente denominamos dispersion o scattering a aquellas colisiones en las cuales el numero y la identidad
de las partculas se conserva. Si ademas se conserva la energa cinetica total, es decir si no hay cambios en la
energa interna de las partculas, decimos que la dispersion es elastica. En el presente contexto nos limitaremos a
estudiar el fenomeno de la dispersion elastica.

18.3. Ejemplos de dispersion en mecanica clasica


18.3.1. Dispersion elastica por esfera rgida

Figura 18.3: Dispersion de una masa puntual por una esfera rgida. El angulo de incidencia , coincide con el
angulo de reflexion.

Esta dispersion puede simular la colision elastica de una esfera rgida de masa m y radio r como proyectil,
que choca con otra esfera rgida en reposo de masa M m y de radio R r. Podemos por simplicidad tratar
el proyectil como puntual, y considerar que el blanco no recula en el choque. Si la colision es elastica el angulo
de incidencia es igual al angulo de reflexion (medidos con respecto a la normal a la superficie del blanco) como
se ve en la Fig. 18.3. Siendo el angulo de dispersion y b el parametro de impacto, de la Fig. 18.3 son claras las
relaciones

b = R sin ; = 2 siempre que b R


= 0 siempre que b > R

Tendremos entonces que


 

b = R sin = R cos (18.7)
2 2 2
18.3. EJEMPLOS DE DISPERSION EN MECANICA CLASICA 441

notese que para definir b como funcion de asignamos unicamente el valor b = R para = 0. Tenemos entonces
que  
db 1
= R sin (18.8)
d 2 2
puesto que esta entre cero y , la derivada (18.8) es negativa como se anticipo. Sustituyendo (18.7) y (18.8) en
la Ec. (18.4) nos queda
 

R cos 2 1 2
R sin = R cos 2 sin 2 R2 sin2
D () = 2 =
sin 2 2 sin 2 sin
R2
D () =
4
en este caso la seccion eficaz diferencial es independiente de . La seccion eficaz total estara dada por
Z Z
R2
= D () d = d = R2 (18.9)
4

habamos dicho que en terminos muy generales, corresponde al area total del haz incidente que es dispersada
por el blanco. Efectivamente, en este caso es el area transversal del blanco y solo proyectiles que incidan dentro
de este area golpearan el blanco y se dispersaran, los que vengan fuera de este area (b > R) no se dispersan en lo
absoluto.
El lector puede verificar que si consideramos el tamano del proyectil, definiendo R1 y R2 como los radios del
blanco y el proyectil respectivamente, la seccion eficaz diferencial toma la forma

(R1 + R2 )2
D () = ; = (R1 + R2 )2
4
donde vemos que la expresion para D () es simetrica con respecto a los radios del proyectil y el blanco (ver por
ejemplo la Ref. [6], Sec. 9.9).

18.3.2. Dispersion de Rutherford


Si un proyectil muy liviano de carga q1 y energa cinetica E, se dispersa por un blanco fijo muy pesado de
carga q2 , podemos utilizar la ley de Coulomb como ley de interaccion4 . El parametro de impacto en terminos del
angulo de dispersion y de la energa E esta dado por

q1 q2
b= cot (18.10)
80 E 2

y la seccion eficaz diferencial viene dada por


" #2
q1 q2
D () =
 (18.11)
160 E sin2 2

al integrar sobre el angulo solido, puede verse que la seccion eficaz total es infinita. Esto se debe a que la interaccion
coulombiana es de alcance infinito, de modo que para un haz de cualquier area transversal todas sus partculas
son dispersadas.
El calculo de las ecuaciones (18.10, 18.11) es extenso y el lector lo puede consultar en cualquier texto de
mecanica clasica (ver por ejemplo la Ref. [6], Sec. 9.10).
4
Esta es la situacion por ejemplo, cuando los proyectiles son electrones y los blancos son nucleos.
442 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

18.4. Teora cuantica de la dispersion


En escala atomica, nuclear o subnuclear, los efectos cuanticos son considerables y de hecho resulta inapropiado
utilizar la teora clasica. En los modelos clasicos las partculas poseen posicion y momento bien definidos, confi-
gurando trayectorias bien definidas. En el escenario cuantico, las partculas y sus trayectorias son reemplazadas
por funciones de onda que se propagan (usualmente en forma de paquetes de onda) y que ademas obedecen a un
principio de incertidumbre que prohibe localizar el paquete y definir su momento simultaneamente, con precision
indefinida. Notese que a pesar de que ya no tenemos trayectorias asociadas a las partculas, s tenemos direcciones
de propagacion de las ondas asociadas, lo cual nos permite definir aun un angulo de dispersion , de manera
coherente. Un aspecto sobresaliente que surge de la cuantizacion, es la posibilidad de que las ondas asociadas a las
partculas incidentes interfieran con las ondas asociadas a las partculas salientes. Tal fenomeno de interferencia
puede generar diferencias significativas con respecto a las predicciones clasicas.
Asumiremos el escenario mas simple de dispersion elastica de partculas incidentes que rotulamos con (1)
debidas a la interaccion con partculas blanco que denotamos por (2). Supondremos ademas que el blanco es
mucho mas masivo que los proyectiles de modo que no recula. Es decir que asumiremos blanco fijo a lo largo de
todo el proceso. Tambien haremos las siguientes aproximaciones adicionales.

1. Supondremos que las partculas (1) y (2) no poseen espn. Esto simplificara considerablemente el problema.
Sin embargo, en un escenario cuantico realista el espn juega un papel muy importante en la dispersion.
2. Asumiremos que el blanco es lo suficientemente delgado para que no ocurra dispersion multiple. Es decir
procesos en los que una partcula incidente se dispersa varias veces antes de abandonar la region de colision.
Por ejemplo, en el experimento de Rutherford (estrictamente, de Geiger y Marsden 1909), la lamina de oro
posea un espesor de unos 104 cm. El numero promedio de atomos atravesados por la partcula , esta
aproximadamente dado por el espesor de la lamina dividido por el diametro de un atomo ( 108 cm). Es
decir que el proyectil atraviesa unos 104 atomos de oro, de modo que es de esperarse que existan dispersiones
multiples. Estas dispersiones multiples requieren un tratamiento estadstico que no estudiaremos aqu.
3. Ignoraremos la posibilidad de coherencia entre las ondas dispersadas por las diferentes partculas que cons-
tituyen el blanco. Esta aproximacion se justifica si el ancho del paquete asociado a las partculas (1) es
pequeno comparado con la distancia promedio entre las partculas (2). De modo que solo tendremos en
cuenta procesos de dispersion de una partcula (1) del haz por una partcula (2) del blanco. Cuando estas
coherencias son despreciadas, el flujo de partculas detectadas es la suma de los flujos dispersados por cada
una de las N partculas del blanco. Es decir N veces el flujo dispersado por cualquiera de las partculas del
blanco. Notese que la posicion del proyectil dentro del blanco no es relevante siempre y cuando las dimensio-
nes del blanco y de la region de colision sean mucho menores que la distancia entre el blanco y el detector.
Esta condicion asintotica de hecho es fundamental en los experimentos de dispersion. Esta aproximacion
excluye por ejemplo el scattering coherente de electrones en un cristal (que forma los patrones de difraccion
de Bragg)5 .
4. Supondremos que la interaccion entre proyectiles (1) y blancos (2) se describe mediante un potencial
V (r) V (r1 r2 ) que depende solo de la posicion relativa r entre las partculas proyectil y blanco. No
consideraremos la interaccion entre proyectiles o entre blancos. Como se vio en las secciones 12.1, 12.2, en
el sistema de referencia centro de masa, este problema se reduce al estudio de la dispersion de una partcula
sometida a un potencial V (r) de masa
m1 m2
=
(m1 + m2 )
si asumimos que el blanco no recula, podemos asumir que el sistema de referencia del laboratorio y el del
centro de masa son aproximadamente iguales.
5
En la difraccion de Bragg, las dimensiones tpicas de la onda (longitud de onda), son comparables a la distancia promedio entre
los blancos (distancias interatomicas en el cristal), de lo cual surge el fenomeno de la difraccion.
18.5. ESTADOS ESTACIONARIOS DE DISPERSION 443

18.5. Estados estacionarios de dispersion


Asumiremos que se conoce la estructura del paquete de onda incidente, esto es para r y t ,
ya que estas son las condiciones iniciales en las que se prepara el experimento. La interaccion de los proyectiles
con el blanco se modelara por medio de un potencial central V (r), y colocamos por conveniencia el origen en
el centro dispersor. La idea es describir el scattering calculando la evolucion temporal del paquete de onda del
proyectil. Puesto que todo paquete de onda se puede escribir como una superposicion de estados estacionarios, la
determinacion de dichos estados sera un buen punto de partida. Comenzaremos por tanto, estudiando la ecuacion
de valores propios del Hamiltoniano asociado al proyectil

P2
H = H0 + V (r) = + V (r)
2
estrictamente, basaremos nuestros razonamientos en el comportamiento de las soluciones estacionarias en lugar de
los paquetes de ondas. Esta forma de razonamiento fue la que se utilizo en las secciones 3.4-3.8, para potenciales
rectangulares en una dimension, y consistio en considerar el flujo estacionario de probabilidad asociado al estado
estacionario, para estudiar las corrientes de probabilidad que genera. Aunque este tratamiento no es riguroso,
es posible probar que se obtienen los mismo resultados que en el caso mas realista en el cual se estudia el
comportamiento del paquete de onda completo6 .
Puesto que el potencial V (r) no depende explcitamente del tiempo, existe un conjunto de soluciones (r, t)
de la ecuacion de Schrodinger, que admite separacion de variables [ver seccion 3.2, Ecs. (3.15, 3.16) Pag. 159], en
la forma
(r, t) = (r) eiEt/~ (18.12)
donde (r) es la solucion de la ecuacion de valores propios
 
~ 2
+ V (r) (r) = E (r) (18.13)
2

ademas los estados estacionarios (18.12) describen un autoestado de energa E. Asumiremos que el potencial
decrece mas rapido que 1/r. Por tanto, la interaccion tipo Coulomb debe tratarse por aparte. Puesto que la colision
es elastica y los estados que consideraremos son de energa bien definida, tenemos que la energa se conserva y es
igual a la energa de la partcula incidente, la cual es puramente cinetica. En consecuencia, estaremos interesados
solo en las soluciones de energa positiva de (18.13), asociadas a partcula libre

~2 k2
E= (18.14)
2
redefiniendo el potencial en la forma
~2
V (r) = U (r) (18.15)
2
podemos reescribir la Ec. (18.13) en terminos del numero de onda k
 2 
+ k2 U (r) (r) = 0 (18.16)

Para un valor fijo de k (i.e. de la energa), hay infinitas soluciones linealmente independientes para la Ec. (18.16), es
decir cada valor positivo de la energa esta infinitamente degenerado7 . Debemos entonces seleccionar las soluciones
que satisfagan las condiciones fsicas del problema en cuestion. Este fue el procedimiento que se siguio en las
secciones 3.4-3.8. A manera de ejemplo, en la seccion 3.6 se supone que la onda reflejada solo surge en la interfase
6
Una demostracion de este hecho para el scattering de una partcula en un potencial unidimensional particular, se puede encontrar
en el complemento JI del Volumen 1 de la Ref. [4].
7
Adicionalmente, puesto que el problema es no acotado, el espectro es a priori contnuo.
444 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

entre las dos regiones y por tanto, la solucion estacionaria en la region II consta solo de una onda transmitida,
esto nos lleva a su vez a la condicion descrita por la Ec. (3.63), Pag. 171. En el presente contexto la determinacion
de las soluciones fsicas sera mas compleja debido a que es un problema tridimensional y ademas el potencial
es en principio arbitrario. A pesar de que usaremos soluciones estacionarias, utilizaremos algunas condiciones
asociadas a las propiedades de los paquetes de onda. Los estados estacionarios que surjan cuando se impongan
estas condiciones en las soluciones de la Ec. (18.16) se denominaran estados estacionarios de dispersion, y su
funcion de onda espacial se denotara por k (r).
Para valores negativos grandes de t, el paquete de onda esta en sus condiciones iniciales. Lo usual es preparar
el proyectil en un estado bien definido de momento, es decir una onda plana. Por tanto, en t , el estado
estacionario (r) que buscamos debe contener una onda incidente con momento bien definido que se propaga en
direccion Z, i.e. eikz . Cuando el paquete se aproxima a la region de dispersion, se deforma de una manera en
general compleja y que depende de la forma especfica del potencial. Sin embargo, para t , el paquete se ha
alejado bastante de la region de dispersion y por tanto su perfil se simplifica de nuevo. El paquete saliente debe
poseer una onda eikz que continua propagandose en la direccion positiva de Z (como si no existiera potencial), y un
paquete dispersado por el potencial. Por tanto, el paquete de onda completo (al menos en las regiones asintoticas)
que representa a la solucion estacionaria de dispersion para una energa dada E = ~2 k2 /2, sera la superposicion
de una onda plana y una onda dispersada
(k) (k)
lm k (r) inc (r) + sc (r) = Ceikz + sc
(k)
(r) (18.17)
r

(k) (k)
donde inc (r), sc (r) representan la onda incidente y dispersada respectivamente. Puesto que esta solucion es
(k)
valida solo en las regiones asintoticas en donde el proyectil es libre, entonces sc (r) es solucion de la ecuacion
(18.13)8 pero con V (r) = 0. Realizaremos un ansatz de separacion de variables similar al de las Ecs. (12.33, 12.36),
Pag. 351
(k) uk (r)
sc (r) = fk (, ) Rk (r) fk (, ) (18.18)
r
la Ec. (18.13) en coordenadas esfericas esta dada por la Ec. (12.31) Pag. 350
 
~2 2 L2
r+ + V (r) (r, , ) = E (r, , ) (18.19)
2r r 2 2r 2
insertando el ansatz (18.18) en (18.19), se obtiene
 
~2 2 L2
r+ + V (r) fk (, ) Rk (r) = E fk (, ) Rk (r)
2r r 2 2r 2
 
~2 2 L2 fk (, )
fk (, ) r + V (r) R k (r) + Rk (r) = E fk (, ) Rk (r)
2r r 2 2r 2
 
~2 2 Rk (r) L2 fk (, )
r + V (r) Rk (r) + = E Rk (r) (18.20)
2r r 2 2r 2 fk (, )
y teniendo en cuenta que L2 es un operador diferencial que solo involucra a los angulos, podemos definir una
funcion angular
L2 fk (, )
Hk (, ) (18.21)
fk (, )
con lo cual la Ec. (18.20) queda
 
~2 2 Hk (, )
r + V (r) + Rk (r) = E Rk (r)
2r r 2 2r 2
8
Naturalmente, la solucion completa de la ecuacion (18.13) con V (r) = 0, debe ser (18.17). Pero dado que Ceikz ya es solucion y
puesto que esta ecuacion es lineal, se deduce que cada sumando en (18.17) es solucion de la Ec. (18.13) con V (r) = 0.
18.5. ESTADOS ESTACIONARIOS DE DISPERSION 445

haciendo V (r) = 0 (ya que estamos buscando la solucion en la region asintotica), y escribiendo Rk (r) = uk (r) /r,
con un procedimiento similar al usado para llegar de la Ec. (12.35) a la Ec. (12.37) obtenemos9
 2 2 
~ d Hk (, )
+ uk (r) = Ek uk (r) (18.22)
2 dr 2 2r 2
ahora, puesto que las soluciones que buscamos son para r , despreciaremos el termino proporcional a 1/r 2 ,
de modo que buscaremos la solucion de la ecuacion

~2 d2 uk (r)
= Ek uk (r) (18.23)
2 dr 2

La solucion de la Ec. (18.23) tiene la forma


r
ikr ikr 2E
uk (r) = Ae + Be ; k (18.24)
~2

de la Ec. (18.14) vemos que esta k corresponde efectivamente al numero de onda asociado a partcula libre. Teniendo
en cuenta que la solucion completa debe tener el termino temporal eiEt/~ , dicha solucion es una superposicion
Et
de los dos terminos ei(kr ~ ) . Ahora bien, el estado asintotico saliente debe mantener fase constante, por tanto
el termino kr Et/~ debe permanecer acotado para r + y t + (es claro que cuando el tiempo crece la
distancia r al origen tambien crece), pero esto solo es posible eligiendo el termino con signo positivo (el termino
con signo negativo claramente tiende a cuando el tiempo crece). En consecuencia, solo la parte con eikr
corresponde a la onda dispersada. Las condiciones fsicas nos llevan entonces a
r
2E
uk (r) = Aeikr ; k (18.25)
~2

sustituyendo (18.25) en (18.18) y esta a su vez en (18.17) tenemos que

(k) (k) eikr


lm k (r) inc (r) + sc (r) = Ceikz + fk (, ) (18.26)
r r

donde el factor A de la Ec. (18.25) se absorbio en la funcion angular fk (, ). Notese que a pesar de la simetra
esferica del potencial puede aparecer una dependencia angular en la funcion de onda estacionaria de dispersion,
debido a que la direccion del haz rompe la simetra esferica del potencial, reduciendola a una simetra cilndrica.
No obstante, de la simetra cilndrica remanente se espera que la dependencia angular sea solo en , pero no en el
angulo azimutal . Si adicionalmente el potencial no es central, tambien se rompe la simetra cilndrica y esperamos
que haya dependencia con el angulo azimutal . De hecho la funcion fk (, ) conocida como la amplitud de
dispersion es la unica en la Ec. (18.26) que depende de la forma especfica del potencial. La Fig. 18.4 muestra
las ondas planas incidentes, as como las ondas esfericas salientes o dispersadas.

18.5.1. Condiciones fsicas sobre el paquete de ondas


A pesar de que utilizaremos estados estacionarios, es necesario verificar que la solucion real (paquete de ondas)
satisface ciertas condiciones fsicas que analizaremos en forma semi-cuantitativa. Consideremos el paquete real
9
El procedimiento es similar al que nos llevo a la Ec. (12.37) Pag. 352, con V (r) = 0. Sin embargo, si se compara la ecuacion
(18.22) con la Ec. (12.37), vemos que en (18.22) no desaparece la dependencia angular en contraste con (12.37). Esto se debe a que en
la separacion de variables (18.18), las fk (, ) no son funciones propias del operador momento angular, como s ocurre en la separacion
de variables de las Ecs. (12.33, 12.36). De hecho para llegar a las ecuaciones (12.33, 12.36) se exigio que las funciones en cuestion fueran
funciones propias simultaneas de H, L2 y L3 .
446 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

Figura 18.4: Dispersion elastica de ondas planas incidentes por un potencial central. La figura ilustra las ondas
planas incidentes y las ondas esfericas dispersadas o salientes.

(r, t) escrito en terminos de las soluciones estacionarias fsicas k (r, t) (autoestados del Hamiltoniano total H)10

Z Z
lm (r, t) dk g (k) k (r, t) = dk g (k) k (r) eiEk t/~ (18.27)
r 0 0
Z Z
eikr iEk t/~ ~2 k2
lm (r, t) dk g (k) eikz eiEk t/~
+ dk g (k) fk (, ) e ; Ek = (18.28)
r 0 0 r 2

para que estas sean soluciones validas en ambos regmenes asintoticos (t y t ) es necesario probar que
la onda dispersada tiende a cero para valores grandes de t, ya que en el regimen incidente la onda todava no se ha
dispersado con el potencial11 . Tomaremos como hipotesis que la funcion g (k) es real, con un pico muy pronunciado
alrededor de k = k0 y simetrica alrededor de este punto. Es decir que la mayor parte de la contribucion esta en una
region muy cercana a k = k0 . La posicion del maximo de cada paquete se puede calcular utilizando la condicion
de fase estacionaria discutida en las secciones 2.11.2, 2.1312 . Para el paquete de ondas planas la condicion de fase
estacionaria nos dice que el maximo del paquete esta ubicado en

~k0
zM (t) = vG t ; vG = (18.29)

10
Notese que en este caso, hemos escrito el paquete en terminos de autoestados de H en lugar de ondas planas. Con respecto a tales
estados, incluso la onda plana pura incidente es policromatica.
11
Aqu hemos despreciado una posible dispersion en la orientacion del vector de onda k. Es decir, hemos supuesto que la onda
incidente va en direccion uz perfectamente definida, y toda la dispersion se la endilgamos al modulo de k, o equivalentemente a la
energa incidente.
12
Ver en particular las discusiones alrededor de las Ecs. (2.64, 2.83) Pags. 140, 149 respectivamente.
18.5. ESTADOS ESTACIONARIOS DE DISPERSION 447

en tanto que para el paquete de ondas dispersadas, dicho maximo en la direccion (, ) se ubica a una distancia
del origen dada por

dk (, )
rM (, , t) = + vG t ; fk (, ) = |fk (, )| eik (,) (18.30)
dk k=k0

es importante tener presente que las Ecs. (18.29, 18.30) solo son validas para valores grandes de |t|. De la Ec.
(18.30) se observa que para valores grandes de t, necesariamente estamos muy lejos de la condicion de maximo
para r, ya que tal ecuacion muestra que para lograr una interferencia constructiva que nos conduzca a un maximo
del paquete de ondas dispersadas en t , requeriramos valores negativos de r los cuales estan fuera del
dominio de la coordenada r. Por tanto, el paquete de onda (18.28) es tal que para t solo contribuyen las
ondas planas incidentes, y de acuerdo con la Ec. (18.29), el maximo del paquete esta ubicado en zM como
debe ser. En cambio, para valores grandes positivos de t podemos encontrar maximos tanto en el paquete de ondas
planas como en el paquete de ondas dispersadas (naturalmente, ambos maximos no necesariamente coinciden en
el tiempo, y por tanto el maximo de la suma podra estar a su vez en otro tiempo), mostrando que en el regimen
asintotico saliente ambas ondas son relevantes como esperabamos.
Asumiendo que g (k) es aproximadamente gaussiano, podemos suponer (aproximadamente) paquetes de mnima
incertidumbre. Por tanto, la extension espacial z del paquete de ondas (18.27) esta relacionada con la dispersion
del momento p = ~k en la forma
1
z p ~ z
k
hemos hecho la hipotesis de que g (k) es una distribucion muy aguda i.e. k muy pequeno. De hecho asumiremos
que k es lo suficientemente pequeno13 para que z sea mucho mayor que las dimensiones lineales de la region de
dispersion14 . Bajo estas condiciones, el paquete de onda que se mueve a una velocidad vG hacia el origen, cruzara
la region de dispersion en un tiempo
z 1
T (18.31)
vG vG k
es razonable tomar este como un tiempo caracterstico de dispersion15 . Si definimos t = 0 cuando el paquete
de ondas cruza el origen, podemos decir que existe onda dispersada para t & T /2 que es cuando el extremo
frontal del paquete incidente ha llegado a la region de influencia del potencial. Para t = 0, la parte mas distante
al origen del paquete dispersado esta a una distancia del orden de z/2.
Cualitativamente, este problema se asemeja al siguiente: supongamos un potencial de la forma V (r) f (t), en
el cual f (t) se incrementa lentamente desde 0 hasta 1 en el intervalo [T /2, 0], y el potencial es cero para
t < T /2. Supongamos que la partcula esta descrita por una onda plana en todo el espacio. La onda plana se
empieza a modificar para t & T /2, y se puede demostrar que la dispersion en t = 0 se asemeja a la de nuestro
problema.
En nuestro problema tenemos dispersion por un potencial constante en el tiempo y la amplitud del paquete se
incrementa gradualmente entre T /2 y cero. En el problema analogo, la onda plana es de amplitud constante
y lo que se aumenta gradualmente en el intervalo [T /2, 0] es el modulo del potencial.
Esta analoga es particularmente interesante cuando examinamos el lmite con k 0, de manera que g (k)
(k k0 ). En este lmite, la descripcion de nuestro problema por estados estacionarios se vuelve exacta. Por otro
lado, la Ec. (18.31) nos dice que en este lmite T , y el comportamiento analogo del potencial dependiente
del tiempo correspondera a que el encendido del potencial sea infinitamente lento i.e. adiabatico. Por esta
13
Puesto que las condiciones iniciales experimentales suelen ser preparar casi un autoestado de momento, esta suposicion es muy
razonable si los coeficientes g (k) no cambian mucho en el tiempo.
14
Esto no necesariamente entra en contradiccion con nuestra suposicion de que el ancho del paquete incidente es pequeno comparado
con la separacion promedio entre las partculas del blanco (ver Pag. 442). Es plausible que la distancia promedio d entre partculas
del blanco sea mucho mayor que la mayor longitud L asociada a la region de dispersion. El ancho z del paquete debe ser tal que
L << z << d, para que nuestros argumentos sean validos.
15
Esto nos permite definir tiempo grandes y pequenos, el comportamiento asintotico se da entonces para |t| >> T .
448 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

razon, podemos decir que la descripcion de la dispersion por medio de estados estacionarios es muy semejante a
la que se obtiene imponiendo un potencial que se modula adiabaticamente sobre una onda plana libre.

18.6. Calculo de la seccion eficaz usando corrientes de probabilidad


Ya hemos dicho que la dispersion del paquete de ondas la simularemos como una dispersion de estados esta-
cionarios. Para calcular la seccion eficaz, debemos suplantar las trayectorias clasicas que describen las propiedades
de propagacion de las partculas, por alguna propiedad de propagacion asociada a la ecuacion de Schrodinger.
Clasicamente, la intensidad era el numero de partculas por unidad de area por unidad de tiempo que cruza un
area perpendicular a la direccion de propagacion, y se le puede asignar la direccion de propagacion de las partcu-
las incidentes. El analogo cuantico, es la densidad de corriente de probabilidad que va en la direccion incidente y
describe la propagacion de la distribucion de probabilidad. No obstante, debe tenerse en cuenta que los detectores
no registran probabilidades sino partculas, por lo cual debemos enlazar la densidad de corriente de probabilidad
con una densidad de corriente (flujo) asociada a las partculas.
En virtud de lo anterior, consideraremos que los estados estacionarios describen un flujo de probabilidad
estacionario, con lo cual calculamos la seccion eficaz para las corrientes incidente y dispersada. Este metodo es
analogo al que utilizamos en los problemas unidimensionales con potenciales rectangulares, en los cuales calculamos
las corrientes incidentes, reflejadas y transmitidas para obtener los coeficientes de reflexion y transmision. Ya hemos
obtenido la expresion para la densidad de corriente de probabilidad asociada a estados estacionarios Ec. (3.33),
Pag. 164  
1 ~
J (r) = Re (r) (r) (18.32)
i
(k)
para la onda incidente tenemos que inc (r) = Ceikz con lo cual la densidad de corriente de probabilidad incidente
Jinc vendra dada por
    h i
|C|2 ikz ~ ikz |C|2 ikz ~ eikz |C|2
Jinc (r) = Re e e = Re e uz = uz Re eikz ~keikz
i i z
~k
Jinc (r) = |C|2 uz (18.33)

puesto que |C|2 es la densidad de probabilidad de la onda incidente y p = ~k, esta corriente tiene la forma v, en
(k)
la direccion uz de propagacion. Para la onda dispersada tenemos sc (r) = fk (, ) eikr /r, de modo que debemos
expresar el gradiente en (18.32) en coordenadas esfericas
  
1 eikr ~ eikr
Jsc = Re fk (, ) fk (, )
r i r
  
1 ikr ~ eikr
Jsc = Re fk (, ) e fk (, ) (18.34)
r i r

calcularemos cada componente de la densidad de corriente dispersada (18.34) por aparte


     ikr 
1 ~ eikr 1 ~ e ik eikr
(Jsc )r = Re fk (, ) eikr fk (, ) = Re |fk (, )|2 eikr 2 +
r i r r r i r r
   ( )
1 1 1 ~ |fk (, )|2
= 2
Re |fk (, )|2 ~ + k = Re i + |fk (, )|2 ~k
r ir r 2 r
~k 1
(Jsc )r = |fk (, )|2 (18.35)
r2
18.6. CALCULO DE LA SECCION EFICAZ USANDO CORRIENTES DE PROBABILIDAD 449

    
1 ikr ~ 1 eikr 1 ikr ~ e
ikr f (, )
k
(Jsc ) = Re fk (, ) e fk (, ) = Re fk (, ) e
r i r r r i r2
 
~ 1 1 fk (, )
(Jsc ) = Re f (, ) (18.36)
r3 i k

    
1 ikr ~ 1 eikr 1 ~ 1 fk (, )
(Jsc ) = Re fk (, ) e fk (, ) = Re fk (, )
r i r sin r r i r 2 sin
 
~ 1 1 fk (, )
(Jsc ) = Re f (, ) (18.37)
r 3 sin i k
A partir de las Ecs. (18.35, 18.36, 18.37), la densidad de corriente dispersada queda
~k 1
Jsc = (Jsc )r ur + (Jsc ) u + (Jsc ) u ; (Jsc )r = |fk (, )|2 (18.38)
r2
   
~ 1 1 fk (, ) ~ 1 1 fk (, )
(Jsc ) = Re f (, ) ; (Jsc ) = Re f (, ) (18.39)
r3 i k r 3 sin i k
para valores muy grandes de r las componentes angulares son mucho menores que la radial ya que las primeras van
como r 3 y la radial como r 2 . Por tanto en el regimen asintotico saliente, la corriente dispersada es practicamente
radial
~k 1
lm J
r sc 2
|fk (, )|2 ur (18.40)
t
r
Ahora bien, el haz incidente consta de partculas independientes ya que hemos despreciado la interaccion entre
proyectiles. Puesto que asumimos que todos los proyectiles se preparan en el mismo estado inicial, enviar si-
multaneamente un gran numero de estos proyectiles es equivalente a repetir el mismo experimento con una sola
partcula un gran numero de veces bajo las mismas condiciones iniciales. Si el estado estacionario en el que se
preparan las partculas es k (r), el flujo de partculas incidente kFinc k (numero de partculas del haz incidente que
cruzan una superficie unidad perpendicular a uz por unidad de tiempo) debe ser proporcional al flujo de probabi-
lidad incidente kJinc k (probabilidad por unidad de area por unidad de tiempo que se propaga en la direccion uz ).
Por supuesto ambos vectores son paralelos (en la direccion de propagacion uz de las partculas y la probabilidad).
Usando la Ec. (18.33) tenemos
~k
kFinc k = K kJinc k = K |C|2

~k
Finc = K |C|2 uz (18.41)

ahora bien, si tenemos un detector ubicado a una distancia r del origen, un parche de superficie dS del detector
normal a la direccion ur , subtiende un angulo solido d dado por
dS
d =
r2
por otro lado, el numero de partculas dn que golpeara la superficie dS del detector por unidad de tiempo, es igual
al flujo de partculas que atravieza dicha superficie

dn = Fsc dS = K Jsc dS

donde hemos usado el hecho de que la constante de proporcionalidad entre flujo de probabilidad y flujo de partculas
es universal e independiente del valor de tales flujos. Si suponemos que el detector tiene superficie esferica con
centro en el origen entonces
dS = dS ur = r 2 d ur (18.42)
450 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

y por tanto  
~k 1 ~k
dn = K (Jsc )r dS = K |fk (, )|2 r 2 d = K |fk (, )|2 d (18.43)
r2
donde hemos usado (18.38, 18.42). Vale decir que incluso si el parche no es un sector esferico, para valores
suficientemente grandes de r podemos usar la aproximacion (18.40) y dn sera independiente de r. Esta condicion
de hecho se debe cumplir en los experimentos. Insertando las Ecs. (18.41, 18.43) en la definicion de la seccion
eficaz diferencial Ec. (18.2) resulta
~k ~k
dn = kFinc k D () d K |fk (, )|2 d = K |C|2 D () d

de lo cual resulta 2
1

D () = fk (, ) (18.44)
C
de modo que la seccion eficaz diferencial es esencialmente el cuadrado del modulo de la amplitud de dispersion.
Notese que hemos omitido la contribucion a la corriente asociada al estado estacionario k (r) que proviene
de la interferencia entre la onda plana y la onda dispersada. De hecho la expresion correcta para la densidad de
corriente (18.32) involucra al termino estacionario completo y debe escribirse en la forma
   
1 ~ 1 ~
J (r) = Re (r) (r) = Re [inc (r) + sc (r)] [inc (r) + sc (r)] (18.45)
i i
de modo que en los calculos hemos omitido los terminos de interferencia de la forma
 
1 ~ ~
J (r) = Re inc (r) sc (r) + sc (r) inc (r)
i i
sin embargo, veremos que esta interferencia solo contribuye en la direccion frontal de dispersion ( = 0). La
Fig. 18.5 muestra la colision en terminos de paquetes de onda. En esta figura se observa que en la practica, el
paquete incidente tiene un ancho lateral finito. Inicialmente, el paquete se mueve hacia la region de dispersion (Fig.
18.5.a), despues de la colision tenemos dos paquetes: el paquete de ondas planas que resulta de la propagacion
de la onda incidente como si no hubiese potencial dispersor, y el dispersado que se propaga desde el origen en
todas direcciones. En consecuencia, la onda transmitida se forma con la interferencia entre el paquete plano y el
dispersado. Sin embargo como ya se discutio, el detector se coloca fuera de la seccion transversal del haz incidente
de modo que no es golpeado por partculas transmitidas, por tanto el detector solo observa el paquete de onda
dispersado, por lo cual no se requiere considerar los terminos de interferencia entre la onda plana y la dispersada.
La Fig. 18.5b. nos muestra que en la direccion frontal debe tenerse en cuenta tal interferencia, ya que en este caso
ambos paquetes ocupan la misma region del espacio, y la onda transmitida es el resultado de esta interferencia.
Adicionalmente, la amplitud de la onda transmitida debe ser menor que la de la onda incidente por conservacion
de la probabilidad total (que se manifiesta en conservacion del numero de partculas). Esto se puede ver teniendo
en cuenta que las partculas dispersadas abandonan el haz y por tanto el haz transmitido debe atenuarse con
respecto al incidente. Tambien puede verse como que el flujo de probabilidad incidente se debe repartir en un
flujo transmitido y otro dispersado, de modo que el flujo transmitido debe ser menor al incidente. Debe existir
entonces una interferencia destructiva entre los paquetes plano y dispersado frontalmente, para dar cuenta de la
conservacion de la probabilidad i.e. del numero total de partculas.

18.7. Ecuacion integral de dispersion


18.7.1. Ecuacion integral y funcion de Green
La ecuacion (18.16) de valores propios de H

2 + k2 (r) = U (r) (r) (18.46)
18.7. ECUACION INTEGRAL DE DISPERSION 451

Figura 18.5: (a) El frente de onda plano incidente se acerca a la region de dispersion. Se observa que el ancho
lateral del paquete es en la practica finito. (b) La onda transmitida se forma con la interferencia entre la onda
plana que no se dispersa y la onda dispersada en la direccion frontal. Se observa que tpicamente el detector se
coloca fuera de la region de la onda transmitida, en una region en la cual solo contribuye la onda dispersada.

se puede resolver alternativamente utilizando la funcion de Green G (r) asociada a dicha ecuacion

2 + k2 G (r) = (r) (18.47)

en terminos eursticos la funcion de Green asociada al operador 2 +k2 , puede verse como una especie de inverso
de dicho operador, puesto que la funcion delta de Dirac actua como una identidad en el contnuo. Sea 0 (r) una
solucion de la ecuacion homogenea asociada a (18.46)

2 + k2 0 (r) = 0 (18.48)

Es posible demostrar que si una funcion (r) satisface la identidad


Z
  
(r) = 0 (r) + d3 r G r r U r r (18.49)

entonces esta funcion es solucion de la Ec. (18.46). Recprocamente, puede demostrarse que toda solucion de la
Ec. (18.46) debe satisfacer (18.49).
Para ver que la funcion definida en (18.49) es solucion de la Ec. (18.46) aplicaremos el operador 2 + k2 a
ambos lados de (18.49) asumiendo que dicho operador puede entrar en la integral. Debe tenerse en cuenta que 2
es una derivada con respecto a r pero no con respecto a r
Z
     
+ k (r) = + k 0 (r) + d3 r 2 + k2 G r r U r r
2 2 2 2

Z Z
  2     
= d r U r r + k G r r = d3 r U r r r r
3 2


2 + k2 (r) = U (r) (r)

donde hemos usado (18.47, 18.48). No probaremos rigurosamente que toda solucion de (18.46) es de la forma
(18.49). Sin embargo, vale la pena observar que la solucion (18.49) consiste en la suma de la solucion de la
452 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

ecuacion homogenea asociada (18.48), mas una solucion particular de la ecuacion inhomogenea (18.46), como
corresponde en la teora de ecuaciones diferenciales. Por tanto la ecuacion diferencial (18.46) es equivalente a la
ecuacion integral (18.49).
Por supuesto, ni la solucion de 0 (r) de la ecuacion homogenea, ni la funcion de Green son unicas, ya que no
hemos fijado condiciones de frontera. En realidad, no determinaremos nuestra solucion por condiciones de frontera
sino por condiciones asintoticas. De hecho, la ventaja del uso de la formulacion integral consiste en la facilidad
de escoger valores adecuados de 0 (r) y de G (r) para que la solucion (r) posea el comportamiento asintotico
deseado. Adicionalmente, la funcion de Green no depende de la parte inhomogenea de la Ec. (18.46) como se ve
de su definicion Ec. (18.47).

18.7.2. Determinacion de la funcion de Green


En lo que sigue utilizaremos la identidad
 
2 1 
= 4 r r (18.50)
|r r |

y la forma del laplaciano en coordenadas esfericas para una funcion que solo depende de r
 
2 1 2 f (r)
f (r) = 2 r (18.51)
r r r

observese que la ecuacion de Green (18.47) nos dice que 2 + k2 G (r) debe ser cero en toda region que no
incluya al origen. Por otro lado, el hecho de que f (, ) eikr /r, se encontro como solucion de la Ec. (18.16) con
U (r) = 0 16 , nos muestra que
 eikr
2 + k 2 =0 ; para r 6= 0
r
y nos sugiere que dicha funcion puede ser la funcion de Green adecuada. Utilizando las identidades (18.50, 18.51),
vemos que
 ikr    ikr      
2 e 1 2 e 1 2 ikr 1 1 ikr
= r = 2 r e + e
r r 2 r r r r r r r r r
        
1 2 ikr 1 ikr 1 ikr 2 1  ikr
= r e +r e = 2 e r ikre
r 2 r r r r r r r r r
       i
1 ikr 2 1 2 1 h ikr i h ikr 2 ikr
= e r +r e ike (ik) re
r2 r r r r r r
      h i eikr 
ikr 1 2 1 1 ikr 2

= e r + ike ik k r
r 2 r r r r r r2

aplicando (18.51) a la funcion 1/r, y usando nuevamente (18.50), se tiene


 ikr     
2 e ikr 2 1 1 h i ikeikr k2 eikr
= e + 2 ikeikr
r r r r2 r
 ikr  ikr
e e
2 = 4eikr (r) k2
r r

teniendo en cuenta que (r) = 0 para r 6= 0 y que eikr = 1 en r = 0, se deduce que

eikr (r) = (r) (18.52)


16
Ver comentarios arriba de la Ec. (18.18).
18.7. ECUACION INTEGRAL DE DISPERSION 453

Por tanto17

eikr
2 eikr
= 4 (r) k2
r r
 2  eikr
+ k2 = 4 (r) (18.53)
r
Las Ecs. (18.47, 18.53) nos sugieren dos funciones de Green dadas por

 1 eikr
2 + k2 G (r) = (r) ; G (r) (18.54)
4 r
Por razones que veremos mas adelante, G+ y G se denominan funcion de Green saliente y funcion de
Green entrante respectivamente.

18.7.3. Solucion de la ecuacion integral


El comportamiento asintotico que buscamos Ec. (18.26), nos sugiere usar la onda plana Ceikz como la solucion
0 (r) de la ecuacion homogenea18 , y la funcion de Green saliente G+ (r) en la Ec. (18.54) como la funcion de
Green para nuestra ecuacion integral. Con estas asignaciones la ecuacion integral (18.49) queda en la forma
Z Z
   1 eik|rr |  
k (r) = Ceikz + d3 r G+ r r U r k r = Ceikz d3 r
U r k r (18.55)
4 |r r |

veremos que esta solucion nos reproduce el comportamiento asintotico esperado Ec. (18.26).
Por construccion esta ya es una solucion de la ecuacion diferencial (18.46). Probaremos ahora que cumple con
el comportamiento asintotico requerido Ecs. (18.26). Para verlo definamos un punto M de posicion r en la region
asintotica, de modo que su distancia al origen O, es mucho mayor que todas las dimensiones lineales de la region
de dispersion (ver Fig. 18.6). Sea P un punto de posicion r dentro de la region de dispersion. Si definimos a L
como el orden de magnitud de la longitud lineal maxima de la region de dispersion, tendremos que se cumplen las
relaciones
r L, r . L, r r

si es el angulo entre M O y M P , es claro que 1. Si M Q define la proyeccion de M P sobre M O, tenemos


que

|M Q| = |M P | cos |M P | = r r

ahora bien si es el angulo entre OP y OQ (i.e. entre r y r ), tenemos por otro lado

|M Q| = |M O| |QO| = r r cos = r ur r

combinando estas dos expresiones resulta



r r r ur r ; r r
17
Estrictamente, por el caracter de distribucion de la delta de Dirac tenemos que
Z Z
lm eikr (r) f (r) dr = lm (r) f (r) dr
0+ 0+

de lo cual se deduce (18.52).


18
Se puede verificar que esta onda plana es solucion de la Ec. homogenea (18.48). De hecho, la onda plana es una solucion de partcula
libre, i.e. con U (r) = 0.
454 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

Figura 18.6: M define un punto en la region asintotica, en tanto que P define un punto dentro de la region de dis-
persion. Con respecto al origen O, la posicion de los puntos M y P se define por los vectores r y r respectivamente.

por tanto para un punto de posicion r en la region asintotica y un punto r dentro de la region de dispersion, se
puede hacer la siguiente aproximacion para la funcion de Green saliente:

 1 eik|rr | 1 eik[rur r ] 1 eikr
G+ r r = = eik(ur r )
4 |r r | r 4 |r ur r | 4 r 1 rr cos
 1 eik|rr | 1 eikr ik(ur r )
G+ r r = e (18.56)
4 |r r | r 4 r
insertando la aproximacion (18.56) en la solucion integral (18.55) resulta
Z
1 eikr  
k (r) Ceikz d3 r eik(ur r ) U r k r (18.57)
r 4 r
notese que la integral solo es funcion de r a traves del vector unitario ur . Precisamente el caracter unitario de ur
me dice que este vector solo depende de la orientacion de r i.e. ur = ur (, ). Es claro entonces que la integral
solo depende de y por tanto podemos escribir la Ec. (18.57) en la forma
Z
ikz eikr 1  
k (r) Ce + fk (, ) ; fk (, ) d3 r eik(ur r ) U r k r (18.58)
r r 4
18.8. APROXIMACION DE BORN 455

que claramente cumple las condiciones asintoticas (18.26).

18.8. Aproximacion de Born


La aproximacion de Born es una estrategia para encontrar una solucion aproximada a la ecuacion integral
de dispersion. Definimos al vector de onda incidente ki como un vector en la direccion del haz incidente de
modulo k tal que la energa de una partcula incidente es E = ~2 k2 /2m

ki kuz eikz = eiki r (18.59)

puesto que la colision es elastica, el vector de onda dispersado ks posee el mismo modulo, pero su direccion
ur esta caracterizada por los angulos , , siendo el angulo de dispersion y el angulo azimuthal

ks = kur ; ur ur (, ) (18.60)

finalmente, se puede definir el vector de onda de dispersion o vector de onda transferido en la direccion
(, ) como el vector diferencia entre los anteriores

K = ks ki (18.61)

a partir de la Ec. (18.59), podemos escribir la ecuacion integral de dispersion (18.55) en la forma
Z
k (r) = Ceiki r + d3 r1 G+ (r r1 ) U (r1 ) k (r1 ) (18.62)

la idea es resolver la ecuacion por iteracion. Para ello hacemos el cambio de variables r r1 , r1 r2 en la Ec.
(18.62) para escribir Z
iki r1
k (r1 ) = Ce + d3 r2 G+ (r1 r2 ) U (r2 ) k (r2 ) (18.63)

Al reemplazar (18.63) en (18.62) resulta


Z  Z 
iki r 3 iki r1 3
k (r) = Ce + d r1 G+ (r r1 ) U (r1 ) Ce + d r2 G+ (r1 r2 ) U (r2 ) k (r2 )
Z
k (r) = Ceiki r + C d3 r1 G+ (r r1 ) U (r1 ) eiki r1
Z Z
+ d3 r1 d3 r2 G+ (r r1 ) U (r1 ) G+ (r1 r2 ) U (r2 ) k (r2 ) (18.64)

notese que los dos primeros terminos a la derecha de (18.64) son conocidos, y solo el tercero contiene a la cantidad
desconocida k (r2 ). Por supuesto, la iteracion puede continuar hasta el orden deseado. Usando el cambio de
variables r1 r2 , r2 r3 en la Ec. (18.63) y reemplazando en (18.64) obtenemos
Z
iki r
k (r) = Ce + C d3 r1 G+ (r r1 ) U (r1 ) eiki r1 +
Z Z  Z 
3 3 iki r2 3
+ d r1 d r2 G+ (r r1 ) U (r1 ) G+ (r1 r2 ) U (r2 ) Ce + d r3 G+ (r2 r3 ) U (r3 ) k (r3 )

Z
iki r
k (r) = Ce + C d3 r1 G+ (r r1 ) U (r1 ) eiki r1 +
Z Z
3
+C d r1 d3 r2 G+ (r r1 ) U (r1 ) G+ (r1 r2 ) U (r2 ) eiki r2
Z Z Z
3 3
+ d r1 d r2 d3 r3 G+ (r r1 ) U (r1 ) G+ (r1 r2 ) U (r2 ) G+ (r2 r3 ) U (r3 ) k (r3 ) (18.65)
456 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

en esta expresion los tres primeros terminos de la derecha son conocidos y el termino desconocido k (r3 ) solo
aparece en el cuarto termino de la derecha. Estas iteraciones constituyen la expansion de Born del estado
estacionario de dispersion. Comparando las Ecs. (18.62, 18.64, 18.65), vemos que el termino que posee la cantidad
desconocida k , es proporcional a una potencia de U (r) mas alta en cada iteracion19 . Si el potencial es debil, cada
potencia mas alta sera menor que la anterior, de modo que para un numero suficientemente grande de iteraciones,
podemos despreciar el ultimo termino que contiene la cantidad desconocida, y calcular k (r) en terminos de
cantidades conocidas.
Ahora bien, si sustitumos la expansion de k (r) (hasta cierto orden de iteracion), en la expresion (18.58)
para fk (, ), obtendremos la expansion de Born de la amplitud de dispersion. En particular, si reemplazamos la
iteracion a orden cero Ec. (18.62) al lado derecho de (18.58) tenemos que
Z  Z 
1 3 ik(ur r1 ) iki r1 3
fk (, ) d r1 e U (r1 ) Ce + d r2 G+ (r1 r2 ) U (r2 ) k (r2 )
4

si queremos calcular solo a primer orden en U (r), esta expresion queda


Z
(B) C
fk (, ) = d3 r1 eik(ur r1 ) U (r1 ) eiki r1 (18.66)
4

que equivale a reemplazar k (r ) por Ceiki r al lado derecho de (18.58). Usando las definiciones (18.60, 18.61) de
numero de onda dispersado y transferido tenemos que
Z Z
(B) C 3 iks r1 iki r1 C
fk (, ) = d r1 e U (r1 ) e = d3 r1 ei(ks ki )r1 U (r1 )
4 4
Z
(B) C
fk (, ) = d3 r1 eiKr1 U (r1 ) (18.67)
4
Esta es la aproximacion de Born para fk (, ). De las Ecs. (18.44, 18.67) podemos escribir la seccion eficaz
diferencial en dicha aproximacion
2 Z 2 Z 2
(B) 1 1 1 2 iKr1 ~
2

Dk () = fk (, ) = 3
d r1 e iKr1
U (r1 ) = 3
d r1 e U (r1 )
C 4 4 ~2 2
Z 2
(B)
2
Dk () = 2 4 d3 r1 eiKr1 V (r1 ) ; K ks ki (18.68)
4 ~

donde hemos usado la Ec. (18.15), para escribir D () en terminos del potencial V (r). Vemos que en aproximacion
de Born, la seccion eficaz diferencial es directamente proporcional a la norma al cuadrado de la transformada de
Fourier del potencial. Las Ecs. (18.59, 18.60, 18.61) muestran que el vector de onda transferido K es funcion del
modulo k de los vectores ki y ks , as como de la direccion (, ) de ks . Por tanto, para un valor fijo de k (y por
(B)
tanto, de la energa) Dk () vara con la orientacion (, ). Similarmente, para una orientacion fija (, ), la
seccion eficaz diferencial cambia con k y por tanto con la energa. En consecuencia, la Ec. (18.68) nos dice que en
(B)
la aproximacion de Born, el estudio de la dependencia de Dk () con la orientacion y con la energa, nos puede
dar informacion sobre el potencial V (r).
A la formula (18.64), podemos darle una interpretacion fsica que nos brinda una vez mas una fuerte analoga
entre la mecanica cuantica y la optica ondulatoria. Vamos a considerar a la region de influencia del potencial
como un medio dispersivo cuya densidad es proporcional a U (r). La funcion de Green G+ (r r1 ) dada por la
Ec. (18.54), representa la amplitud en el punto r de la onda radiada desde el punto fuente en la posicion r1 .
De esta forma, los dos primeros terminos a la derecha de (18.64) describen la onda total en el punto r que
resulta de superponer la onda incidente eiki r con una infinidad de ondas provenientes de fuentes secundarias
19
Si definimos las Ecs. (18.62, 18.64) como las iteraciones de orden cero y uno respectivamente, entonces el termino desconocido en
la nesima iteracion contiene U (r) a la potencia n + 1.
18.8. APROXIMACION DE BORN 457

inducidas en el medio dispersivo por la onda incidente. Esto se ve del hecho de que hay una integral sobre r1 , de
modo que contribuyen las ondas secundarias que provienen de cada punto en la region de dispersion. Sin embargo,
en esta integral cada onda secundaria tiene un peso diferente, de hecho la amplitud de la onda secundaria generada
en cada punto r1 es proporcional a la onda incidente en ese punto eiki r1 y la densidad del material dispersor U (r1 )
en dicho punto. Esta interpretacion esta ilustrada en la Fig. 18.7a y nos evoca el principio de Huygens.

Figura 18.7: Interpretacion Fsica de la Ec. (18.64). (a) Los dos primeros terminos a la derecha en (18.64)
corresponden a la onda incidente llegando directamente al punto r, mas la contribucion de las ondas dispersadas
desde algun punto r1 interior a la region de dispersion. En el segundo termino de la Ec. (18.64) se integra sobre
r1 de modo que se toman todas las fuentes secundarias en la region de dispersion. (b) Representacion esquematica
del tercer termino en la Ec. (18.64) y que es de segundo orden en U (r) en la expansion de Born. En tal termino
se consideran ondas que se dispersan dos veces en la region de dispersion. Se integra sobre r1 y r2 es decir sobre
todas las fuentes secundarias posibles que contribuyen a la doble dispersion.

Adicionalmente, hay un tercer termino en (18.64). Puesto que el medio de dispersion se extiende sobre cierta
region, en la superposicion de la ondas sobre el punto r pueden contribuir ondas secundarias que han sido dis-
persadas dos veces por el potencial: la onda incidente es dispersada en el punto r2 y luego en el punto r1 (ambos
dentro de la region de dispersion) para finalmente llegar a r, como se ilustra en la Fig. 18.7b. Cada fuente r1 y r2
contribuye con su peso proporcional a eiki r y U (r) evaluados en cada punto. Si realizamos mas iteraciones, los
terminos sucesivos de la expansion de Born implicaran mas dispersiones dentro de la region del potencial. Si la
densidad del medio dispersivo es baja [U (r) pequeno] entonces podemos despreciar la contribucion de las ondas
secundarias, o considerarlas solo en sus primeros ordenes.
Es importante no confundir esta interpretacion de los terminos de alto orden en la expansion de Born, con los
procesos de dispersion multiple que ocurren cuando el blanco es grueso. En nuestro contexto estamos considerando
procesos de dispersion de una partcula del haz con una sola partcula del blanco. La dispersion multiple implica
interacciones sucesivas de la misma partcula incidente con varias (diferentes) partculas del blanco.

18.8.1. Rango de validez de la aproximacion de Born


Un estimativo aproximado del rango de validez de la aproximacion de Born (18.67) se puede obtener teniendo
en cuenta que en (18.67) hemos reemplazado el estado asintotico completo k (r) por solo la parte incidente
(k)
inc (r) = Ceiki r [ver comentario despues de la ecuacion (18.66)]. Por tanto, requerimos que se cumpla la condicion

(k) (r)
sc
(k) 1
(r)
inc
458 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

dentro de la region de dispersion, ya que la integral sobre r1 en (18.67) solo es significativa dentro de dicha region.
Por definicion, la region de dispersion esta alrededor de r = 0. Esta condicion sera entonces aproximadamente
equivalente a
(k) (0)
sc
(k) 1 (18.69)
(0)
inc
si asumimos que el potencial es central, en el regimen de altas energas (k ), la Ec. (18.69) nos lleva a la
condicion
V0
1 (18.70)
E
es decir que la energa del haz incidente debe ser mucho mayor a la magnitud del potencial. As mismo, para bajas
energas (k 0), la Ec. (18.69) conduce a
V0 L2
1 (18.71)
~2
donde L es el rango o alcance del potencial. Sin embargo, en la practica la condicion (18.71) es mucho mas
restrictiva que (18.70), razon por la cual la aproximacion de Born se utiliza principalmente en el regimen de altas
energas. Para detalles sobre este analisis el lector puede consultar la Ref. [8], seccion 13.2

18.8.2. Aproximacion de Born para el potencial de Yukawa


En 1935, Hideki Yukawa propuso un modelo para la interaccion entre los constituyentes del nucleo atomico o
nucleones. Segun este modelo, la interaccion entre nucleones se da a traves de un cuanto (que hace el rol del foton
en la interaccion electromagnetica), que se denomina el pion o meson (descubierto en 1947 por C. Powell y sus
colaboradores). Sin embargo, a diferencia de la interaccion electromagnetica, esta interaccion es de corto alcance
y la partcula intermediaria tiene masa en reposo no nula. No entraremos en detalles sobre la construccion del
modelo de Yukawa, el lector interesado puede consultar la bibliografa asociada (por ejemplo las Refs. [1, 10]). De
momento solo mencionaremos que las consideraciones fenomenologicas hechas por Yukawa, lo llevaron a modelar
la interaccion entre nucleones con un potencial de la forma
er 2 er
V (r) = V0 ; U (r) = V0 (18.72)
r ~2 r
donde V0 y son constantes reales. El potencial puede ser atractivo o repulsivo de acuerdo con el signo de V0 .
La intensidad del potencial esta determinada por |V0 | y el alcance esta regulado por la constante positiva . Para
definir un alcance caracterstico (y por tanto un orden de magnitud para las dimensiones lineales de la region de
dispersion), es usual tomar un r0 definido por
1
r0 = (18.73)

puede verse que el potencial ha decrecido sustancialmente y se hace practicamente cero para r & 2r0 . El alcance
de las fuerzas que el potencial de Yukawa describe esta en el orden de los fermis (1f m = 1015 m). Observese
que para = 0 se reproduce el potencial de Coulomb, que en este contexto se denomina el potencial de Yukawa
de rango infinito. La presencia de > 0, hace que el potencial de Yukawa decrezca mucho mas rapido que el de
Coulomb.

Calculo de la amplitud de dispersion y la seccion eficaz con el potencial de Yukawa


Asumiremos que la intensidad |V0 | caracterstica del potencial es suficientemente pequena para utilizar la
aproximacion de Born. Sustituyendo (18.72) en (18.67), obtenemos la amplitud de dispersion para el potencial de
Yukawa en aproximacion de Born.
Z Z r1
(B) C 3 iKr1 CV0 3 iKr1 e
fk (, ) = d r1 e U (r1 ) = d r1 e (18.74)
4 2~2 r1
18.8. APROXIMACION DE BORN 459

donde K es el numero de onda transferido en la direccion (, ). La expresion (18.74) es basicamente la transfor-


mada de Fourier del potencial de Yukawa. Como este potencial solo depende de |r| = r, podemos aplicar la Ec.
(1.196), Pag. 103. Para ello escribimos la Ec. (18.74) con P = ~K
Z  1/2 "  Z #
(B) CV0 3 i P r er 2 1 3/2 3 i P
r er
fk (, ) = d re ~ = CV0 d re ~
2~2 r ~ 2~ r
 1/2  Z  
2 1 2 er Pr
= CV0 r dr sin
~ 2~ P 0 r ~
 Z r

12 e
= CV0 r dr sin Kr
~P 0 r
Z  r 
(B) 2CV0 r 2CV0 e
fk (, ) = 2 dr e sin Kr = 2 (K cos Kr + sin Kr)
~ K 0 ~ K K 2 + 2
 r
   0
(B) 2CV 0 e 2CV 0 K
fk (, ) = 2 (K cos Kr + sin Kr) = 2
~2 K K + 2 r=0 ~ K K 2 + 2
obteniendose finalmente
(B) 2CV0
fk (, ) = (18.75)
~2 (K 2 + 2 )
ahora bien teniendo en cuenta que K + ki = ks , y que kki k = kks k = k, los vectores K, ki , ks forman un triangulo
isosceles, donde el angulo de dispersion , es el angulo entre los dos lados iguales. La Fig 18.8 nos muestra que

Figura 18.8: Los vectores K, ki y ks forman un triangulo isosceles en donde el angulo de dispersion , es el angulo
entre los dos lados de igual longitud. Esta figura ilustra la validez geometrica de (18.76).

K/2
sin = K = 2k sin (18.76)
2 k 2
(B)
por tanto, podemos escribir fk (, ) de la Ec. (18.75) en terminos de k y que son los parametros que se miden
en un experimento.
(B) 2CV0
fk () = 
~2 2 + 4k2 sin2 2
y la seccion eficaz diferencial Ec. (18.44), Pag. 450, en aproximacion de Born queda
42 V02
D (B) () =   (18.77)
2
~4 2 + 4k2 sin2 2
460 CAPITULO 18. TEORIA CUANTICA DE LA DISPERSION

esta seccion eficaz tiene simetra azimutal como se previo para potenciales esfericamente simetricos. Ahora bien,
para una energa dada (valor fijo de k), la seccion eficaz depende de . En particular la seccion eficaz frontal
( = 0) es mayor que la seccion eficaz de retroceso ( = ). Por otro lado, para un valor fijo de , la seccion eficaz
es una funcion decreciente de la energa. Finalmente, puede verse que D () no es sensible al signo de V0 i.e. no es
sensible al caracter repulsivo o atractivo de la interaccion, al menos en la aproximacion de Born.
Podemos calcular la seccion eficaz total
Z Z 2 Z Z
42 V02 sin d
(B) = D (B) () d = d d sin D (B) () = 2 4  2
0 0 ~ 0 + 4k2 sin2 2
2
Z
(B) 82 V02 sin d 82 V02 2
= 4 h i 2 = 4
~ 0 4 1 + 4k 2 sin2 ~ ( + 4k2 )
2 2
2 2

162 V02
(B) = (18.78)
~4 2 (2 + 4k2 )

vemos que en este caso la seccion eficaz total no diverge (en contraste con el caso de la interaccion coulombiana),
debido a que este potencial decae mucho mas rapido que el coulombiano. En virtud de la convergencia de la seccion
eficaz total, se suele decir que este potencial es de alcance finito, si bien estrictamente hablando no es exactamente
cero para ningun valor de r.

Lmite de Coulomb, o de rango infinito


Hemos visto que con = 0, el potencial tipo Yukawa se convierte en un potencial tipo Coulomb. Para obtener
el potencial tipo Coulomb entre dos partculas de cargas Z1 q y Z2 q (siendo q la carga del electron), debemos hacer
las asignaciones
q2
= 0 ; V0 = Z1 Z2 e2 ; e2 =
40
con lo cual la Ec. (18.77) se convierte en
 2  2
(B) 42 Z12 Z22 e4 Z12 Z22 e4 2 Z 2 Z 2 e4 p2
DC () = = = 1 24
~4 16k4 sin4 2 16 sin4 2 ~2 k2 16 sin 2 2
(B) Z12 Z22 e4
DC () =
(18.79)
16E 2 sin4 2

la expresion (18.79) coincide con la formula de Rutherford Ec. (18.11) Pag. 441, que nos da la seccion eficaz
asociada al potencial de Coulomb. Este es un resultado un tanto sorprendente ya que por un lado, la formulacion
aqu presentada solo vale para potenciales que decrecen mas rapido que r 1 , de modo que la interaccion de
Coulomb queda excluda de la formulacion, y por otro lado el resultado para la interaccion de Yukawa esta en un
contexto aproximado (aproximacion de Born).
La seccion eficaz total diverge cuando = 0, como ocurre con el caso clasico, tambien debido al alcance infinito
de la interaccion. Sin embargo, en la realidad nunca se observa el potencial de Coulomb puro, ya que el potencial
creado por una carga esta siempre modificado por la presencia de otras cargas alrededor, que usualmente son
de carga opuesta de modo que generan un apantallamiento. En consecuencia, aun para una interaccion de tipo
electrico esperamos que para el potencial resultante (potencial efectivo), el apantallamiento decaiga mas rapido
que 1/r y/o presente una carga efectiva menor que la del blanco.
Captulo 19

Teora cuantica de la dispersion II:


Descomposicion en ondas parciales para la
dispersion por un potencial central

Hemos visto que la aproximacion de Born funciona primordialmente a altas energas (ver seccion 18.8.1). La
expansion por ondas parciales es un acercamiento alternativo que funciona mejor a bajas energas, por lo cual en
cierto modo es complementario a la aproximacion de Born.
En la seccion 12.5 vimos que en el caso de un potencial central, el momento angular orbital es constante de
movimiento ya que conmuta con el Hamiltoniano y no depende explcitamente del tiempo. Esto indica que existen
autoestados comunes para los observables H, L2 y L3 . Fsicamente, indica que existen estados estacionarios (de
energa bien definida) en los cuales el momento angular tambien esta bien definido. Las funciones de onda asociadas
a los estados estacionarios de momento angular bien definido, se denominan ondas parciales y las denotaremos
por k,l,m (r). Recordando que los resultados de la seccion 12.5 solo dependan del caracter central del potencial,
vemos que la dependencia angular de las ondas parciales estara dada siempre por los armonicos esfericos Ylm (, ),
y el potencial V (r) solo modifica la componente radial de tales estados.
Es de esperarse que para valores grandes de r, el comportamiento de las ondas parciales sea similar al de
los autoestados comunes a H0 , L2 y L3 , siendo H0 el hamiltoniano de partcula libre. Comenzaremos entonces
(0)
estudiando las ondas parciales asociadas a partcula libre k,l,m (r), que denominaremos ondas libres esfericas.
Su dependencia angular continua siendo descrita por los armonicos esfericos ya que el potencial no afecta la
dependencia angular. En cuanto a su dependencia radial, veremos que para valores grandes de r las ondas esfericas
estaran constitudas por la superposicion de una onda entrante eikr /r y una onda saliente eikr /r con una diferencia
de fase bien definida entre ambas.
Por otro lado, las ondas parciales k,l,m (r) asociadas al potencial V (r), tambien seran la superposicion de una
onda entrante y una saliente, pero la diferencia de fase entre estas dos ondas es diferente de la que se obtiene para
las ondas esfericas libres. El potencial V (r) introduce un corrimiento de fase adicional l . Veremos ademas que
(0)
este corrimiento extra l es la unica diferencia entre los estados asintoticos obtenidos con k,l,m (r) y con k,l,m (r).
Ahora bien, con el fin de calcular la seccion eficaz expresaremos los estados estacionarios de dispersion k (r),
como una combinacion lineal de ondas parciales con la misma energa pero diferentes momentos angulares. Veremos
por argumentos fsicos y con un calculo explcito que tales coeficientes coinciden con los de la expansion de la
onda plana eikz en terminos de ondas esfericas libres. El uso de ondas parciales permitira escribir la amplitud de
dispersion y la seccion eficaz en terminos de los corrimientos de fase l . Veremos que el metodo es particularmente
util cuando el rango del potencial no es mucho mayor a la longitud de onda de la partcula en movimiento, ya que
en estos casos la seccion eficaz dependera de unos pocos corrimientos de fase l .

461
462 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

19.1. Estados estacionarios de partcula libre


En mecanica clasica, las partculas libres se propagan en lnea recta con velocidad constante. Su energa,
momento lineal y momento angular estan bien definidos y son constantes de movimiento.
En mecanica cuantica los operadores P y L RP, no conmutan y por tanto no pueden estar simultaneamente
bien definidos. El Hamiltoniano de partcula libre esta dado por
P2
H0
2
sin embargo, H0 no constituye un C.S.C.O. en el espacio Er , sus valores estan infinitamente degenerados1 . Por
otra parte, para el caso de partcula libre, los observables

H0 , P1 , P2 , P3 (19.1)

forman un C.S.C.O. y los estados estacionarios comunes a estos observables poseen momento bien definido. Por
otro lado, si aplicamos los resultados de la seccion 12.5 para potencial cero, deducimos que para una partcula
libre los observables
H 0 , L2 , L3 (19.2)
tambien forman un C.S.C.O. En este caso los estados estacionarios poseeran momento angular bien definido.
Vale decir que momento angular bien definido significa que los valores de L2 y de una de las componentes de L
(usualmente L3 ) estaran bien definidos. Recordemos que las componentes del momento angular son incompatibles
(ver Ec. 10.5, Pag. 309) y por tanto no pueden estar simultaneamente bien definidas.
Es claro sin embargo que los estados estacionarios definidos por los C.S.C.O de las Ecs. (19.1) y (19.2) seran
diferentes puesto que los observables P y L son incompatibles2 . Vamos a estudiar estas bases y la manera de pasar
de la una a la otra.

19.2. Estados estacionarios de partcula libre con momento bien definido:


Ondas planas
Ya hemos visto que los observables P1 , P2 , P3 forman un C.S.C.O. en el espacio orbital de estados. Sus estados
propios comunes {|pi} forman una hiperbase del espacio orbital

P |pi = p |pi

y puesto que H0 conmuta con estos observables, se puede agregar al C.S.C.O. y los estados |pi tambien son
autoestados de H0
P2 p2
H0 |pi = |pi = |pi (19.3)
2 2
el espectro de H0 es entonces contnuo e incluye todos los valores no-negativos de energa. Cada autovalor es
infinitamente degenerado, puesto que a un valor dado de energa le corresponden infinitos kets |pi linealmente
independientes. Esto puede verse teniendo en cuenta que un valor dado de energa E solo impone la ligadura
2E = p21 + p22 + p23 lo cual deja
aun un numero infinito contnuo de grados de libertad, i.e. todos los puntos de
una superficie esferica de radio 2E. Por tanto un valor dado de la energa nos deja con el conjunto de todos los
kets |pi cuyo modulo es p
|p| = 2E
1
En este captulo, cuando hablemos de un C.S.C.O. sera con respecto al espacio orbital Er , puesto que no hemos includo al espn
en la formulacion.
2
Desde el punto de vista experimental, es importante saber como se preparo el sistema (cuales son las condiciones iniciales).
Cuanticamente, podemos preparar un estado de partcula libre con momento lineal bien definido, o con momento angular bien definido,
pero no ambos al tiempo.
19.3. ESTADOS ESTACIONARIOS DE PARTICULA LIBRE CON MOMENTO ANGULAR BIEN DEFINIDO: ONDAS

las funciones de onda asociadas a estos estados |pi son las ondas planas (ver Ec. 1.182, Pag. 97)
 
1 3/2 ipr/~
hr| pi = e
2~
tambien podemos caracterizar estos estados estacionarios a traves del vector de onda k
p
k= ; |ki = ~3/2 |pi
~
estos estados poseen el mismo contenido fsico que los estados |pi, ya que para partcula libre un vector de onda
bien definido es equivalente a un momento bien definido
~2 k2
H0 |ki = |ki ; P |ki = ~k |ki
2
los estados {|ki} son ortonormales y completos en el sentido extendido
Z


hk| k i = k k ; d3 k |ki hk| = I

19.3. Estados estacionarios de partcula libre con momento angular bien


definido: Ondas esfericas libres.
En la seccion 12.5, ya caracterizamos los estados estacionarios comunes a H, L2 y L3 para un potencial central
V (r). Podemos entonces retomar los resultados de dicha seccion para V (r) = 0 i.e. para H = H0 . Por tanto, los
estados propios comunes a H0 , L2 y L3 (ondas esfericas libres) tienen la forma de la Ec. (12.33), Pag. 351
(0) (0)
k,l,m (r) = Rk,l (r) Ylm (, ) (19.4)

donde la funcion radial es una solucion de la Ec. (12.35), Pag. 351 con V (r) = 0
 2 
~ 1 d2 l (l + 1) ~2 (0) (0)
r + Rk,l (r) = Ek,l Rk,l (r) (19.5)
2 r dr 2 2r 2
(0)
siendo Ek,l el valor propio de H0 asociado a k,l,m (r). Si hacemos un cambio de variable similar a la Ec. (12.36),
Pag. 351
(0) 1 (0)
Rk,l (r) = uk,l (r) (19.6)
r
(0)
la funcion uk,l (r) esta dada por la Ec. (12.37) Pag. 352 con V (r) = 0
 2 
d l (l + 1) 2Ek,l (0)
+ uk,l (r) = 0 (19.7)
dr 2 r2 ~2
y se debe cumplir la relacion asintotica en el origen dada por la Ec. (12.44), Pag. 353
(0)
uk,l (0) = 0 (19.8)

La combinacion de las Ecs. (19.7, 19.8) nos permite encontrar el espectro de H0 que como veremos coincide con
el que se obtiene con las ondas planas Ec. (19.3). Dado que el mnimo de nuestro potencial es cero (de hecho el
potencial es nulo), entonces no habra estados estacionarios de energa negativa. Consideraremos entonces valores
no-negativos de Ek,l en la Ec. (19.7), e introducimos el parametro real k en la forma
1p
k= 2Ek,l (19.9)
~
464 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

en la region asintotica con r muy grande, el termino centrfugo l (l + 1) /r 2 se puede despreciar en la Ec. (19.7)
para obtener  2 
d 2 (0)
+ k uk,l (r) 0 (19.10)
dr 2 r

donde hemos tenido en cuenta la definicion (19.9). Ya examinamos la solucion general de esta ecuacion [Ver Ecs.
(18.23, 18.24), Pag. 445] obteniendose
(0)
uk,l (r) Aeikr + Beikr (19.11)
r

en la seccion 12.6 tambien se concluyo que la ecuacion (19.7) junto con la condicion asintotica en el origen (19.8)
nos lleva a una unica solucion. Por tanto, las Ecs. (19.7, 19.8) nos llevaran a una unica solucion del tipo (19.11).
Vemos por otro lado, que la energa no depende de l, y por tanto omitiremos este ndice en los valores de la
energa. Ahora bien, las soluciones aceptables del tipo (19.11) incluyen todos los valores positivos de k y por tanto
de acuerdo con la Ec. (19.9), la energa toma todos los valores no negativos.

~2 k2
Ek = ; k0
2
cada energa dada es infinitamente degenerada. Para un valor fijo de k, existen soluciones fsicamente aceptables
(0)
uk,l (r) de la ecuacion radial para todos los valores permitidos (enteros no-negativos) de l. Adicionalmente, la
solucion completa k,l,m (r) en la Ec. (19.4) anade una degeneracion (2l + 1) veces mayor, para una funcion
(0)
radial uk,l (r) dada. Al igual que en la seccion 12.6, vemos que en este caso los observables H0 , L2 y L3 forman un
C.S.C.O. en Er , de modo que la especificacion de los ndices k, l, m nos da la informacion suficiente para determinar
de manera unica el estado estacionario normalizado asociado (excepto por una fase irrelevante).

19.4. Caracterizacion de las ondas esfericas libres


En la presente seccion construiremos las funciones propias de H0 , L2 y L3 , definiendo unos generadores que
(0)
permiten encontrar dichas funciones con base en la funcion esferica libre mas simple k,0,0 (r). Una vez determi-
nadas las ondas esfericas libres debidamente ortonormalizadas, se estudiara su comportamiento asintotico (para
r 0 y para r ), su relacion con las ondas planas, y finalmente su interpretacion fsica.

19.4.1. Algebra de generadores de ondas esfericas


Con una estrategia similar a la utilizada para construir los operadores escalera de momento angular [ver seccion
10.2, Ecs. (10.8), Pag. 310], construiremos una serie de operadores que permitiran generar las funciones propias
comunes de H0 , L2 , L3 , a partir de las autofunciones asociadas al autovalor con l = 0 de L2 . Tendremos en cuenta
que H0 conmuta con L y P
[H0 , L] = 0 ; [H0 , P] = 0 (19.12)
Comenzaremos definiendo el operador
P+ P1 + iP2 (19.13)
queremos encontrar las relaciones de conmutacion de este operador con los observables H0 , L2 , L3 , cuyas funciones
propias comunes queremos encontrar. A partir de las relaciones canonicas de conmutacion entre observables de
posicion y momento [Ecs. (1.193), Pag. 101] podemos obtener las relaciones de conmutacion entre Li y Pi

[Li , Pj ] = [imn Rm Pn , Pj ] = imn [Rm Pn , Pj ] = imn (Rm [Pn , Pj ] + [Rm , Pj ] Pn )


= imn [Rm , Pj ] Pn = i~mj imn Pn
[Li , Pj ] = i~ijn Pn (19.14)
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 465

Con estas relaciones, se pueden obtener los conmutadores de L3 y L2 con P+

[Li , P+ ] = [Li , P1 + iP2 ] = [Li , P1 ] + i [Li , P2 ] = i~i1n Pn + i (i~i2k Pk )


[Li , P+ ] = ~ (ii1n Pn i2k Pk )

para cada componente i = 1, 2, 3 se tiene

[L1 , P+ ] = ~123 P3 = ~P3 ; [L2 , P+ ] = i~213 P3 = i~P3


[L3 , P+ ] = ~ (i312 P2 321 P1 ) = ~ (iP2 + P1 ) = ~P+
[L1 , P+ ] = ~P3 ; [L2 , P+ ] = i~P3 ; [L3 , P+ ] = ~P+ (19.15)

tambien necesitaremos el conmutador de L+ con P3 para lo cual usamos las Ecs. (19.14)

[L+ , P3 ] = [L1 + iL2 , P3 ] = [L1 , P3 ] + i [L2 , P3 ] = i~132 P2 + i (i~231 P1 )


= i~P2 ~P1 = ~ (iP2 + P1 )
[L+ , P3 ] = ~P+ (19.16)

finalmente calculamos el conmutador de L2 con P+


 2 
L , P+ = [Li Li , P+ ] = Li [Li , P+ ] + [Li , P+ ] Li
= L1 [L1 , P+ ] + L2 [L2 , P+ ] + L3 [L3 , P+ ] + [L1 , P+ ] L1 + [L2 , P+ ] L2 + [L3 , P+ ] L3
= ~L1 P3 i~L2 P3 + ~L3 P+ ~P3 L1 i~P3 L2 + ~P+ L3
= ~ (L1 + iL2 ) P3 + ~L3 P+ ~P3 (L1 + iL2 ) + ~P+ L3
= ~L+ P3 ~P3 L+ + ~L3 P+ + ~P+ L3

sumando y restando terminos adecuadamente y aplicando las Ecs. (19.15, 19.16), se obtiene
 2 
L , P+ = ~L+ P3 + (~P3 L+ ~P3 L+ ) ~P3 L+ + ~L3 P+ + (~P+ L3 + ~P+ L3 ) + ~P+ L3
= ~L+ P3 + ~P3 L+ 2~P3 L+ + ~L3 P+ ~P+ L3 + 2~P+ L3
= ~ [L+ , P3 ] 2~P3 L+ + ~ [L3 , P+ ] + 2~P+ L3
= ~2 P+ 2~P3 L+ + ~2 P+ + 2~P+ L3
 
L2 , P+ = 2~ (P+ L3 P3 L+ ) + 2~2 P+ (19.17)

Por comodidad, condensaremos las relaciones algebraicas anteriores

[H0 , L] = [H0 , P] = 0 ; [Li , Pj ] = i~ijn Pn ; P+ P1 + iP2 (19.18)


[L1 , P+ ] = ~P3 ; [L2 , P+ ] = i~P3 ; [L3 , P+ ] = ~P+ ; [L+ , P3 ] = ~P+ (19.19)
 2 
L , P+ = 2~ (P+ L3 P3 L+ ) + 2~2 P+ (19.20)

19.4.2. Relaciones de recurrencia para las ondas esfericas libres


(0)
Teniendo en cuenta que k,l,m (r) tiene la estructura dada en las Ecs. (19.4, 19.6) y que los operadores momento
angular solo actuan sobre variables angulares, tenemos que
(0)
p
L+ k,l,m (r) = Rk,l (r) L+ Ylm (, ) = ~ l (l + 1) m (m + 1)Rk,l (r) Yl,m+1 (, )
(0)
p (0)
L+ k,l,m (r) = ~ l (l + 1) m (m + 1)k,l,m+1 (r)

donde hemos usado la forma en que L+ actua sobre los autoestados de L2 y L3 Ec. (10.47), Pag. 321. Esta
(0) (0)
ecuacion muestra que L+ k,l,m = 0 si m = l. Para m 6= l, tenemos que L+ k,l,m (r) es tambien autoestado de H0
466 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

y L2 con el mismo valor de energa Ek y de l (esto tambien se puede ver del hecho de que L+ conmuta con H0
(0)
y con L2 usando el teorema 1.66, Pag. 57). As mismo, L+ k,l,m (r) es autoestado de L3 con autovalor (m + 1) ~.
(0)
Similarmente es facil ver la accion de L , L3 y L2 sobre k,l,m (r)
(0) (0) (0) (0)
L3 k,l,m (r) = m~k,l,m (r) ; L2 k,l,m (r) = l (l + 1) ~2 k,l,m (r) (19.21)
(0)
p (0)
L k,l,m (r) = ~ l (l + 1) m (m 1)k,l,m1 (r) (19.22)
(0)
Ahora aplicamos el operador P+ sobre k,l,m (r). Teniendo en cuenta que P+ conmuta con H0 , tenemos que
(0)
P+ k,l,m (r) es funcion propia de H0 con la misma energa Ek . Con respecto al operador L3 , el comportamiento
de este estado, se obtiene aplicando la Ec. (19.19)
(0) (0) (0) (0) (0)
[L3 , P+ ] k,l,m (r) = ~P+ k,l,m (r) L3 P+ k,l,m (r) = P+ L3 k,l,m (r) + ~P+ k,l,m (r)
(0) (0) (0)
L3 P+ k,l,m (r) = m~P+ k,l,m (r) + ~P+ k,l,m (r)
h i h i
(0) (0)
L3 P+ k,l,m (r) = (m + 1) ~ P+ k,l,m (r)
(0)
de modo que P+ k,l,m (r) es autofuncion de L3 con valor propio (m + 1) ~. El siguiente paso natural es caracterizar
(0)
al estado P+ k,l,m (r) con respecto a L2 . La presencia del termino P3 L+ en el conmutador de L2 con P+ Ec. (19.20),
(0) (0)
nos dice que P+ k,l,m (r) no es en general funcion propia de L2 . Sin embargo, debido a que L+ k,l,l (r) = 0, el
termino P3 L+ se anula cuando m = l
 2  (0) (0) (0)
L , P+ k,l,l (r) = 2~ (P+ L3 P3 L+ ) k,l,l (r) + 2~2 P+ k,l,l (r)
h i h i h i
(0) (0) (0) (0) (0)
L2 P+ k,l,l (r) = P+ L2 k,l,l (r) + 2~P+ L3 k,l,l (r) 2~P3 L+ k,l,l (r) + 2~2 P+ k,l,l (r)
(0) (0) (0) (0) (0)
L2 P+ k,l,l (r) = l (l + 1) ~2 P+ k,l,l (r) + 2l~2 P+ k,l,l (r) + 2~2 P+ k,l,l (r) = [l (l + 1) + 2l + 2] ~2 P+ k,l,l (r)
(0) (0)
L2 P+ k,l,l (r) = (l + 1) (l + 2) ~2 P+ k,l,l (r)
(0)
por tanto, P+ k,l,l (r) es funcion propia comun de H0 , L3 y L2 con valores propios Ek , (l + 1) ~ y (l + 1) (l + 2) ~2
respectivamente. Puesto que estos tres observables forman un C.S.C.O. en el espacio orbital, existe una unica
autofuncion espacial normalizada (excepto por una fase) asociada a estos tres valores propios
(0) (0)
P+ k,l,l (r) = Mk,l k,l+1,l+1 (r) (19.23)
n o
(0)
usaremos las relaciones de recurrencia (19.22, 19.23) para construir la base k,l,m (r) de ondas esfericas a partir
(0)
de las funciones k,0,0 (r), ya que el operador P+ permite incrementar el numero cuantico l, en tanto que los
operadores L permiten generar las funciones para todos los valores posibles de m con k y l fijos. Para ello
(0)
primero tenemos que encontrar las funciones k,0,0 (r) .
Un comentario final, a priori podra pensarse que el operador P P1 iP2 , permite bajar el numero cuantico
l hasta cero. Sin embargo, este no es el caso, puede mostrarse con un procedimiento similar al aqu mostrado que
la accion de P esta dada por
(0) (0)
P k,l,l (r) = Mkl k,l+1,(l+1) (r) (19.24)

19.4.3. Solucion de la ecuacion radial para l = 0


(0)
La funcion k,0,0 (r) viene dada por

(0) 1 (0) 1 1 (0)


k,0,0 (r) = uk,0 (r) Y00 (, ) = u (r)
r 4 r k,0
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 467

(0)
por tanto, debemos determinar la funcion radial uk,0 (r). Usando las Ecs. (19.7, 19.8) y (19.9) con l = 0 tenemos
que  2 
d 2 (0) (0)
+ k uk,0 (r) = 0 ; uk,0 (0) = 0 (19.25)
dr 2
la solucion del tipo (19.11) que se anula en el origen esta dada por
(0)
uk,0 (r) = ak sin kr (19.26)

(0)
de modo que la funcion de onda k,0,0 (r) viene dada por

(0) 1 (0) ak sin kr


k,0,0 (r) = uk,0 (r) Y00 (, ) = (19.27)
r 4 r

la constante ak se escoge real positiva y de modo que la funcion de onda completa sea ortonormal en el sentido
extendido, puesto que k es un ndice contnuo
Z
(0) (0) 
hk, 0, 0| k , 0, 0i = d3 r k,0,0 (r) k ,0,0 (r) = k k

(19.28)

reemplazando la Ec. (19.27) en la integral de la Ec. (19.28) tenemos que


Z Z Z Z
(0) (0) a2 2 sin kr sin k r
I d3 r k,0,0 (r) k ,0,0 (r) = k r dr d = a2k dr sin kr sin k r
4 0 r r 0
 
Z  ik r ik r
Z  
eikr eikr e e a2
I = a2k dr = k dr ei(k+k )r + ei(k+k )r ei(kk )r ei(kk )r
0 2i 2i 4 0
Z Z Z Z
ak2
a 2
a 2
a2
I = dr ei(kk )r + k dr ei(kk )r k dr ei(k+k )r k dr ei(k+k )r
4 0 4 0 4 0 4 0

haciendo el cambio de variable r r en la segunda y cuarta integral, tenemos que


Z Z Z Z
a2k i(kk )r a2k i(kk )r a2k i(k+k )r a2k
I = dr e dr e dr e + dr ei(k+k )r
4 0 4 0 4 0 4 0
Z Z 0 Z Z
ak2
i(kk )r ak2
i(kk )r ak2
i(k+k )r ak 0
2

= dr e + dr e dr e dr ei(k+k )r
4 0 4 4 0 4
2  Z h i 
a 1
= 2 k dr ei(kk )r ei(k+k )r
4 2
  
I = a2k k k k + k
2
donde hemos usado el equivalente unidimensional de la delta de Dirac de la Ec. (1.117), Pag. 68. Ahora bien,
puesto que k y k son ambos positivos, k + k es siempre diferente de cero y por tanto (k + k ) no contribuye en
la integral, quedando Z
(0) (0) 
d3 r k,0,0 (r) k ,0,0 (r) = a2k k k
2
p (0)
y exigiendo la ortonormalidad extendida (19.28) tenemos que ak = 2/, por tanto la funcion k,0,0 (r) de la Ec.
(19.27) queda finalmente
(0) 1 sin kr
k,0,0 (r) = (19.29)
2 r
468 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

19.4.4. Generacion de ondas esfericas libres con l 6= 0, a traves de P+ y L


(0) (0)
La Ec. (19.23) nos permite generar k,1,1 (r) a partir de k,0,0 (r)
(0) (0) (0) (0)
P+ k,0,0 (r) = Mk,1 k,1,1 (r) ; (P1 + iP2 ) k,0,0 (r) = Mk,1 k,1,1 (r)
escribiremos los operadores P1 y P2 en la base de las {|ri}
   
~
P+ = +i = i~ +~
i x1 x2 x1 x2
y lo expresamos en coordenadas esfericas, para ello utilizamos la Ec. (11.5) Pag. 327

1 cos sin cos rcos rsin
sin r
2 = sin sin cos sin cos (19.30)
r r sin
3 sin
cos r 0
con lo cual P+ en coordenadas esfericas queda
cos cos sin cos sin cos
P+ = i~ cos sin i~ + i~ + ~ sin sin +~ +~
r r r sin r r r sin
~ cos ~
P+ = ~ sin (sin i cos ) + (sin i cos ) + (cos + i sin )
r r r sin
~ cos ~ei
P+ = i~ sin (i sin + cos ) i (i sin + cos ) +
r r r sin
i~ cos i ~ei
P+ = i~ sin ei e + (19.31)
r r r sin
de las Ecs. (19.31) y (19.29) se obtiene
     
(0) 1 sin kr i 1 sin kr i~ sin i k cos kr sin kr
P+ k,0,0 (r) = P+ = i~ sin e = e
2 r r 2 r 2 r r2
 
(0) i~k2 cos kr sin kr
P+ k,0,0 (r) = sin ei
2 kr (kr)2
es conveniente escribir el operador diferencial radial en coordenadas cartesianas
f (r) f (r)
P+ f (r) = i~ sin ei = i~ sin (cos + i sin )
 r  r
r sin cos r sin sin f (r)  x1 x2  f (r)
P+ f (r) = ~ i + = ~ i +
r r r r r r
i~ f (r)
P+ f (r) = (x1 + ix2 ) (19.32)
r r
(0) (0)
la expresion (19.32) permite calcular P+2 k,0,0 (r) de una manera muy simple, teniendo en cuenta que k,0,0 (r)
solo depende de r, y que P+ cumple la relacion de conmutacion
[P+ , X1 + iX2 ] = [P1 + iP2 , X1 + iX2 ] = 0 (19.33)
en particular la relacion (19.33) se cumple en la base {|ri}, de modo que
     
(0) 2 sin kr (x1 + ix2 ) sin kr 1 sin kr
k,2,2 (r) P+ P+ = (x1 + ix2 ) P+
kr r r kr r r kr
    2  
1 1 sin kr 1 sin kr
(x1 + ix2 )2 = (x1 + ix2 )2
r r r r kr r r kr
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 469

donde hemos omitido las constantes de proporcionalidad, debido a que estas se pueden absorber en la constante
de normalizacion. Aplicando sucesivamente P+ con este procedimiento, es facil ver que
 l  
(0) l 1 sin kr
k,l,l (r) (x1 + ix2 ) (19.34)
r r kr
(0)
la dependencia angular de k,l,l (r) esta contenida en el factor cartesiano

(x1 + ix2 )l = (r sin cos + ir sin sin )l = r l (sin )l (cos + i sin )l


r
l l l Y ll (, ) 1 (2l + 1)!
(x1 + ix2 ) = r l (sin ) eil = (1) r l ; |cl | = l (19.35)
|cl | 2 l! 4
donde hemos usado la Ec. (11.29) Pag. 331. Vemos que el factor angular es proporcional a Yl,l (, ) como es-
perabamos. Sustituyendo (19.35) en (19.34) tendremos entonces que
    l  
(0) Yl,l (, ) l1 l sin kr kl 1 sin kr
k,l,l (r) (1)l r = (1)l Yl,l (, ) (kr)l
|cl | r r kr |cl | kr (kr) kr
 l  
(0) 1 sin kr
k,l,l (r) (1)l Yl,l (, ) (kr)l (19.36)
kr (kr) kr

Donde el factor kl / |cl | lo hemos absorbido en el factor de normalizacion. Definiremos la funcion esferica de
Bessel de orden l, en la forma
 l
l l 1 d sin
jl () (1) (19.37)
d
es claro que para k, l dados, se pueden generar todas las autofunciones asociadas a todos los valores permitidos
de m por medio de los operadores L . Sin embargo, estos valores solo generan la dependencia angular que ya
conocemos previamente (armonicos esfericos). Por tanto, combinando las ecuaciones (19.36, 19.37), vemos que las
ondas esfericas libres se escriben en la forma
(0)
k,l,m (r) = Ck,l jl (kr) Ylm (, ) (19.38)

donde la constante de normalizacion no depende de m, puesto que los armonicos esfericos ya estan adecuadamente
normalizados. Solo queda encontrar la constante de normalizacion en terminos de k y l asociada a las funciones
de Bessel esfericas.

19.4.5. Ondas esfericas libres normalizadas


Definiremos a las Ck,l como constantes positivas. La constante de proporcionalidad la elegimos para que se
cumpla la relacion de ortonormalidad
Z
(0) (0) 
d3 r k,l,m (r) k ,l ,m (r) = k k ll mm (19.39)

y la relacion de completez
Z X
X l
(0) (0)  
dk k,l,m (r) k,l,m r = r r (19.40)
0 l=0 m=l

La constante de normalizacion da cuenta de la normalizacion de las funciones esfericas de Bessel, puesto que los
armonicos esfericos ya estan normalizados. Para encontrar esta constante de normalizacion, comenzaremos por
calcular el factor exacto en la Ec. (19.23), para ello necesitaremos calcular las derivadas de jl (kr) y de Yl,l (, ),
y algunas de sus propiedades
470 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

"  l #  " #
d d d h i  1 d l sin 
1 d l sin
l l 1 d sin l l l l d
jl () = (1) = (1) + (1)
d d d d d d d
   "
   #
1 d l sin 1 d 1 d l sin
= (1)l ll1 (1)l+1 l+1
d d d
   
l 1 d l sin 1 d l+1 sin l
= (1)l l (1)l+1 l+1 = jl () jl+1 ()
d d

r r
Yll (, ) (1)l (2l + 1)! il h l
i l (1)l (2l + 1)!
= e (sin ) = cos eil (sin )l1
2l l! r 4 2l l! 4
Yll (, ) l (1)l (2l + 1)! cos il cos
= l
e (sin )l = l Yl,l (, )
2 l! 4 sin sin

r r
Yll (, ) (1)l (2l + 1)! il (1)l (2l + 1)!
= (sin )l e = il l (sin )l eil
2l l! 4 2 l! 4
Yll (, )
= ilYl,l (, )

r
(1)l+1 [2 (l + 1) + 1]!
Yl+1,l+1 (, ) = (sin )l+1 ei(l+1)
2l+1 (l + 1)! 4
p " r #
(1) sin ei (2l + 2) (2l + 3) (1)l [2l + 1]! l il
= (sin ) e
2 (l + 1) 2l l! 4
p s
(1) sin ei (2l + 2) (2l + 3) (2l + 3)
Yl+1,l+1 (, ) = Yl,l (, ) = (1) sin ei Yl,l (, )
(2l + 2) (2l + 2)

condensaremos estas propiedades en la forma

s
d l i (2l + 3)
jl () = jl () jl+1 () ; Yl+1,l+1 (, ) = (1) sin e Yl,l (, ) (19.41)
d (2l + 2)
Yll (, ) cos Yll (, )
= l Yl,l (, ) ; = ilYl,l (, ) (19.42)
sin

Tomaremos como hipotesis que la constante de normalizacion Ck,l en la Ec. (19.38) solo depende de k, i.e. Ck,l Ck ,
y demostraremos por induccion que si k,l,l (r) esta normalizado con este Ck , entonces k,l+1,l+1 (r) tambien
(0)
lo estara y puesto que para k,0,0 (r) la constante de normalizacion solo dependa de k, esta misma constante
(0)
normaliza a todos los k,l,l (r). Usando la forma explcita de P+ y de k,l,l (r), Ecs. (19.31, 19.38) junto con las
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 471

propiedades (19.41, 19.42), se obtiene


 
(0) i i~ cos i ~ei
P+ k,l,l (r) = Ck i~ sin e e + jl (kr) Yll (, )
r r r sin
 
i i~ cos i Yll (, ) ~ei Yll (, )
= Ck i~Yll (, ) sin e k jl (kr) e jl (kr) + jl (kr)
(kr) r r sin
    
l i~ cos i cos
= Ck i~Yll (, ) sin ei k jl (kr) jl+1 (kr) e jl (kr) l Yl,l (, )
kr r sin

~ei
+jl (kr) ilYl,l (, )
r sin

  Yll (, ) i  
= Ck i~k sin ei Yll (, ) jl+1 (kr) i~ e jl (kr) l sin2
r sin

Yl,l (, ) i  2
 Y l,l (, ) i
i~ e jl (kr) l cos + i~ e jl (kr) l
r sin r sin
( " s # )
(2l + 2) Yll (, ) i  
= Ck i~k (1) Yl+1,l+1 (, ) jl+1 (kr) i~ e jl (kr) l sin2 + l cos2 l
(2l + 3) r sin
s
(0) (2l + 2)
P+ k,l,l (r) = i~k Ck Yl+1,l+1 (, ) jl+1 (kr)
(2l + 3)

quedando finalmente r
(0) 2l + 2 (0)
P+ k,l,l (r) = i~k (r) (19.43)
2l + 3 k,l+1,l+1
con lo cual hemos encontrado el factor de proporcionalidad Mk,l de la Ec. (19.23).

19.4.6. Ortonormalidad de las funciones esfericas libres


En la relacion de ortonormalidad (19.39) los factores ll mm provienen de la ortonormalidad de las funciones
(0)
angulares (armonicos esfericos) la cual ya esta garantizada. Como consecuencia, podemos ver que si k,l,l (r) esta
(0)
normalizada, entonces k,l,m (r) tambien lo esta para todo m
D E Z Z
(0) (0) (0) (0) 
k,l,m k ,l,m d3 r k,l,m (r) k ,l,m (r) = Ck2 r 2 dr d jl (kr) Yl,m
(, ) jl k r Yl,m (, )
Z Z
2 2

= Ck r dr jl (kr) jl k r Yl,m (, ) Yl,m (, ) d
D E Z 
(0) (0) 
k,l,m k ,l,m = Ck2 r 2 dr jl (kr) jl k r (19.44)

La Ec. (19.44) nos muestra que este producto interno no depende de m. Como caso particular, se tiene que
D E D E Z 
(0) (0) (0) (0) 2 2

k,l,l k ,l,l = k,l,m k ,l,m = Ck r dr jl (kr) jl k r (19.45)

y puesto que los armonicos esfericos ya garantizan la ortogonalidad en los numeros cuanticos l, m, sera suficiente
(0)
mostrar la ortonormalizacion en el sentido extendido sobre la variable k, para las funciones del tipo k,l,l
Z D E

 (0) (0) (0) (0)
Il k, k d3 r k,l,l (r) k ,l,l (r) = k,l,l k ,l,l (19.46)
472 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

demostraremos que si Il (k, k ) esta ortonormalizada entonces Il+1 (k, k ) tambien lo esta. Partimos entonces de la
hipotesis
 D (0) (0) E 
Il k, k = k,l,l k ,l,l = k k

(19.47)

utilizando (19.43) en la integral (19.46) para l + 1, tenemos que


 D E 1 2l + 3 D E
(0) (0) (0) (0)
Il+1 k, k = k,l+1,l+1 k ,l+1,l+1 = 2 P+ k,l,l P+ k ,l,l
~ kk 2l + 2
 D E 2l + 3
(0) (0)
Il+1 k, k = Al,k,k k,l,l P P+ k ,l,l ; Al,k,k 2 (19.48)
~ kk (2l + 2)

donde P+ P = P1 iP2 , vemos que

P P+ = P12 + P22 = P2 P32 (19.49)


(0)
puesto que las ondas esfericas libres k,l,l (r), son autoestados de H0 = P2 /2, son tambien autoestados de P2 ,
con valor propio 2Ek = ~2 k2 . Adicionalmente, puesto que P3 es hermtico, podemos escribir
 D  (0) E D  (0) E
(0) (0)
Il+1 k, k = Al,k,k k,l,l P2 P32 k ,l,l = Al,k,k k,l,l ~2 k2 P32 k ,l,l
D E D E
(0) (0) (0) (0)
= Al,k,k ~2 k2 k,l,l k ,l,l Al,k,k k,l,l P3 P3 k ,l,l
  D E
(0) (0)
Il+1 k, k = Al,k,k ~2 k2 Il k, k Al,k,k P3 k,l,l P3 k ,l,l (19.50)

ahora debemos calcular la accion de P3 sobre las funciones esfericas libres, para lo cual usamos las ecuaciones
(19.30, 19.41, 19.42)
(0)  
(0) k,l,l (r) sin (0)
P3 k,l,l (r) = i~ = i~ cos k,l,l (r)
x3 r r
 
jl (kr) sin Yl,l (, )
= i~Ck k cos Yl,l (, ) jl (kr)
(kr) r
    
l sin cos
= i~Ck k cos Yl,l (, ) jl (kr) jl+1 (kr) jl (kr) l Yl,l (, )
kr r sin
 
l l
= i~Ck cos Yl,l (, ) jl (kr) k cos Yl,l (, ) jl+1 (kr) cos Yl,l (, ) jl (kr)
r r
(0)
P3 k,l,l (r) = i~k cos Ck Yl,l (, ) jl+1 (kr) (19.51)
(0)
Para propositos de la demostracion es conveniente escribir el miembro derecho de (19.51) en terminos de k,l+1,l (r).
Para hacerlo debemos escribir el miembro derecho de (19.51) en terminos de Yl+1,l (, ). De la Ec. (11.32), Pag.
331 con m = l se tiene
p
L Yl,l (, ) = ~ l (l + 1) l (l 1) Yl,l1 (, ) = ~ 2l Yl,l1 (, )

usando la forma explcita de L en la base de las {|ri}, Ec. (11.15) Pag. 329, nos queda
 
1 1 Y (, ) cos Yl,l (, )
Yl,l1 (, ) = L Yl,l (, ) = ~ei l,l +i
~ 2l ~ 2l sin
i
  i
e cos cos e cos
= l Yl,l (, ) + i (ilYl,l (, )) = 2l Yl,l (, )
2l sin sin 2l sin
cos
Yl,l1 (, ) = 2l ei Yl,l (, ) (19.52)
sin
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 473

con la sustitucion l l + 1 en la ecuacion (19.52) y usando la Ec. (19.41) tenemos


" s #
p i cos
i cos i (2l + 3)
Yl+1,l (, ) = 2 (l + 1) e Yl+1,l+1 (, ) = 2l + 2 e (1) sin e Yl,l (, )
sin sin (2l + 2)
p
Yl+1,l (, ) = cos (2l + 3)Yl,l (, ) (19.53)

sustituyendo (19.53) en (19.51) se obtiene


" #
(0) Yl+1,l (, ) i~k
P3 k,l,l (r) = i~k cos Ck p jl+1 (kr) = p Ck Yl+1,l (, ) jl+1 (kr)
cos (2l + 3) (2l + 3)
(0) i~k (0)
P3 k,l,l (r) = p k,l+1,l (r) (19.54)
(2l + 3)
y ahora sustituyendo (19.54) en (19.50) tenemos que
* +
  i~k i~k
(0) (0)
Il+1 k, k = Al,k,k ~2 k2 Il k, k Al,k,k

p k,l+1,l p
(2l + 3) (2l + 3) k ,l+1,l
!
 i~k i~k D E
(0) (0)
= Al,k,k ~2 k2 Il k, k Al,k,k p p k,l+1,l k ,l+1,l
(2l + 3) (2l + 3)

usando la forma explcita de Al,k,k , ecuacion (19.48), as como la Ec. (19.45) tenemos que
 2 D E

 2l + 3 2 2
 2l + 3 ~ kk (0) (0)
Il+1 k, k = ~ k I l k, k k,l+1,l+1 k ,l+1,l+1
~2 kk (2l + 2) ~2 kk (2l + 2) (2l + 3)

k (2l + 3)  1 
Il+1 k, k = Il k, k Il+1 k, k
k (2l + 2) (2l + 2)
aplicando la hipotesis (19.47) resulta
 k (2l + 3)  1 
Il+1 k, k = k k Il+1 k, k
k (2l + 2) (2l + 2)
 
1  k (2l + 3) 
1+ Il+1 k, k = k k
(2l + 2) k (2l + 2)
 
(2l + 2) + 1  k (2l + 3) 
Il+1 k, k = k k
(2l + 2) k (2l + 2)
la anterior expresion muestra que Il+1 (k, k ) es cero si k 6= k por tanto
 
2l + 3  k (2l + 3) 
Il+1 k, k = k k
(2l + 2) k (2l + 2)

 
Il+1 k, k = k k

por tanto hemos demostrado que si Il (k, k ) esta ortonormalizado con el factor Ck , entonces Il+1 (k, k ) tambien lo
(0)
esta. Por ultimo, hallamos el factor Ck por medio de la funcion esferica libre mas simple k,0,0 (r). Comenzamos
reescribiendo la Ec. (19.29) (que ya esta debidamente normalizada) en la forma
r r
(0) k sin kr 2 sin kr 1 2
k,0,0 (r) = =k =k j0 (kr) Y00 (, )
2 kr kr 4
r
(0) 2
k,0,0 (r) = Ck j0 (kr) Y00 (, ) ; Ck k

474 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

la expresion final para las ondas esfericas libres Ec. (19.38), sera entonces
r
(0) 2
k,l,m (r) = k jl (kr) Ylm (, ) (19.55)

19.4.7. Comportamiento asintotico de las ondas esfericas libres


Estudiaremos el comportamiento de jl () cerca al origen y para r muy grande. Utilizando la expansion de
sin / en serie de potencias

sin X 2p
= (1)p (19.56)
(2p + 1)!
p=0
l
y aplicando el operador (1)l l 1 obtenemos jl () segun la definicion (19.37)
 l
X  
l l 1 d sin l l (1)p 1 d l 2p
jl () = (1) = (1) (19.57)
d (2p + 1)! d
p=0

podemos ver que


        
1 d l 2p 1 d l1 1 d 2p 1 d l1 2(p1)
= = 2p
d d d d
         
1 d l2 1 d 2(p1) 1 d l3 1 d 2(p2)
= 2p = 2p [2 (p 1)]
d d d d
   
1 d l 2p 1 d l3 2(p3)
= 2p [2 (p 1)] [2 (p 2)]
d d
de lo cual ya podemos ver la secuencia
 
1 d l 2p
= 2p [2 (p 1)] [2 (p 2)] {2 [p (l 1)]} 2(pl)
d
 
1 d l 2p
= 2p (2p 2) (2p 4) [2p 2 (l 1)] 2(pl) (19.58)
d
sustituyendo (19.58) en (19.57) tenemos

X
l 2p (2p 2) (2p 4) [2p 2 (l 1)] 2(pl)
jl () = (1) l
(1)p (19.59)
(2p + 1)!
p=0

es claro que el factor


2p (2p 2) (2p 4) [2p 2 (l 1)]
(2p + 1)!
es nulo para p = 0, 1, 2, . . . , l 1. Por tanto la Ec. (19.59) queda en la forma

X 2p (2p 2) (2p 4) [2p 2 (l 1)] 2p2l
jl () = (1)l l (1)p (19.60)
(2p + 1)!
p=l

en el lmite cuando 0, podemos quedarnos solo con el primer termino de la expansion (19.60)
2l (2l 2) (2l 4) 4 2 2l (2l 2) (2l 4) 4 2
jl () (1)l l (1)l = l
0 (2l + 1)! (2l + 1) (2l) (2l 1) (2l 2) 3 2 1
l
=
(2l + 1) (2l 1) (2l 3) 3 1
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 475

l
jl () (19.61)
0 (2l + 1)!!

con lo cual k,l,m (r) es proporcional a r l en el lmite de = kr muy pequeno. Sustituyendo (19.61) en (19.55)
resulta r
(0) 2 (kr)l
k,l,m (r) k Ylm (, ) (19.62)
r0 (2l + 1)!!
veamos ahora el lmite para muy grande. De la definicion de jl () se tiene
 l  l1     l1  
l 1 d sin 1 d 1 d sin l l 1 d cos sin
jl () = (1) l
= (1)l l = (1) 3
d d d d 2

el segundo termino en parentesis cuadrados es mucho menor que el primero cuando . Tenemos entonces
que
 l1  l1  
l l 1 d cos l l 1 d 1 d
jl () (1) = (1) sin
d 2 d 2 d

Adicionalmente, al aplicar de nuevo el operador 1 , tenemos


  l2 
  l2  
l l 1 d
1 d cos l l 1 d sin 2 cos
jl () (1) = (1) 3
d d2 d 4
 l2    l2  
1 d sin 1 d 1 d2
jl () (1)l l 3 = (1)l l sin
d d 3 d2

el termino dominante continua siendo el termino proveniente de la derivada de la funcion sin . Por tanto, jl ()
se comporta en la forma
 l
l l 1 d
jl () (1) sin
l+1 d
 l
1 d
jl () (1)l sin
d

y teniendo en cuenta que


 l 
d 
sin = (1)l sin l
d 2
obtenemos finalmente 
1 
jl () sin l (19.63)
2
en este punto recalcamos la importancia de la condicion uk,l (0) = 0. Por ejemplo, si hacemos kr = en la ecuacion
radial (19.5) obtenemos
 
~2 k2 d2 k2 l (l + 1) ~2 (0) ~2 k2 (0)
(kr) + Rk,l () = R ()
2 kr d (kr)2 2 (kr)2 2 k,l
 
~2 k2 1 d2 l (l + 1) (0)
+ 1 Rk,l () = 0
2 d2 2
 
1 d2 l (l + 1) (0)
2
+1 2
Rl () = 0 (19.64)
d
476 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

en el ultimo paso hemos suprimido la dependencia de k como numero cuantico en Rk,l (), puesto que dicho
numero cuantico se factorizo por completo del operador (por supuesto Rl () depende de k a traves del factor de
normalizacion Ck y de la relacion kr). Por otro lado
   
1 d2 h (0) i 1 d (0) d (0) 1 d (0) d (0) d2 (0)
Rl () = Rl () + Rl () = R () + Rl () + 2 Rl ()
d2 d d d l d d
2 h i  2 
1 d (0) 2 d (0) d (0)
2
Rl () = Rl () + 2 Rl () (19.65)
d d d
sustituyendo (19.65) en (19.64) queda finalmente
 2  
d 2 d l (l + 1) (0)
2
+ + 1 2
Rl () = 0 (19.66)
d d
esta es la ecuacion de Bessel esferica de orden l. Dicha ecuacion posee dos soluciones linealmente independientes,
que se pueden distinguir en particular por su comportamiento en el origen. Una de ellas es la funcion de Bessel
esferica jl () que satisface las condiciones asintoticas (19.61, 19.63). Para la otra solucion linealmente indepen-
diente se pueden elegir las funciones esfericas de Neumann de orden l, denotadas por l (), que poseen el
siguiente comportamiento asintotico
(2l 1)!! 1  
l () ; l () cos l (19.67)
0 l+1 2
para ver si la solucion es fsicamente aceptable, examinamos el lmite de r pequeno para uk,l () para el cual
tendramos
(0) (0) (0) (2l 1)!!
lm uk,l () = lm rRk,l () = lm l () =
0 0 0 k kl
este lmite no es nulo para ningun l, y de hecho diverge para l 6= 0. Por tanto, no se cumple la condicion (19.8)
con lo cual la solucion es fsicamente descartable.

19.4.8. Relacion entre las ondas esfericas libres y las planas


n o n o
(0) (0)
Tanto las ondas esfericas libres k,l,m (r) como las ondas planas k (r) son bases para el espacio orbital
Er . Por tanto, cada base se puede expresar en terminos de la otra. Comenzaremos por expresar las ondas planas en
(0)
terminos de las ondas esfericas libres. Puesto que la onda plana k (r), es funcion propia de H0 con valor propio
~2 k2 /2, su expansion solo incluira a las ondas k,l,m (r) que corresponden a esta energa, es decir aquellas que
cumplen la condicion
2E
|k| =
~
de manera que la expansion tendra la forma
X
X l
(0) ikr (0)
k (r) =e = cl,m (k) k,l,m (r) (19.68)
l=0 m=l

comenzaremos por simplicidad con el caso en el cual k = ku3 . Definiendo como el angulo entre r y el eje Z,
vamos a expandir la funcion
eikz = eikr cos (19.69)
puesto que esta funcion es independiente de , solo contribuyen los armonicos esfericos con m = 0. Por tanto la
Ec. (19.68) quedara en la forma

X
X
ikz ikr cos (0)
e =e = cl,0 (k) k,l,0 (r) = cl (k) jl (kr) Yl,0 () (19.70)
l=0 l=0
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 477

si consideramos a eikr cos como funcion de , asumiendo a r como un parametro, podemos considerar a cl (k) jl (kr)
como un coeficiente y expandirlo en la base ortonormal de los armonicos esfericos3 . Multiplicando la Ec. (19.70)
() d, integrando en el angulo solido y utilizando la ortonormalidad de los armonicos esfericos, tenemos
por Yl,0
Z
X Z
X
eikr cos Yl,0

() d = cl (k) jl (kr)
Yl ,0 () Yl,0 () d = cl (k) jl (kr) ll = cl (k) jl (kr)
l =0 l =0
Z
cl (k) jl (kr) = eikr cos Yl,0

() d (19.71)

por otro lado, Yl,0 () se puede escribir en terminos de Yl,l (, ) aplicando lveces el operador escalera L. . De la
Ec. (11.32), Pag. 331 vemos que
p
L Yl,m (, ) = ~ l (l + 1) m (m 1)Yl,m1 (, )

que reescribiremos en la forma


p p
L Yl,lk (, ) = ~ l (l + 1) (l k) (l k 1) Yl,lk1 (, ) = ~ (2l k) (k + 1) Yl,lk1 (, )
p p
L Yl,lk (, ) = ~ (k + 1) (2l k) Yl,lk1 (, ) ; 0 k 2l (19.72)

si aplicamos l veces el operador L al armonico Yl,l (, ) entonces k pasara por los valores

k = 0, 1, 2, . . . , (l 3) , (l 2) , (l 1) (19.73)

y combinando la Ec. (19.72) con (19.73) vemos que


p p
(L )l Yl,l (, ) = ~l 1 2 . . . (l 1) l (2l) (2l 1) (2l 2) . . . (l + 2) (l + 1) Yl,0 (, )
p
(L )l Yl,l (, ) = ~l (2l)! Yl,0 (, ) (19.74)

sustituyendo (19.74) en (19.71) se obtiene


Z Z "  #
1 L l
cl (k) jl (kr) = Yl,0 () eikr cos
d = p Yl,l (, ) eikr cos d
(2l)! ~
* l "  #
1 L 1 L l
= p (l, l) |ki = p hl, l| |ki (19.75)
(2l)! ~ (2l)! ~
Z " l #
1 L
= p Yl,l (, ) eikr cos d
(2l)! ~
Z " l #
1 L +
cl (k) jl (kr) = p Yl,l (, ) eikr cos d (19.76)
(2l)! ~

donde hemos usado el hecho de que L+ es el adjunto de L . Por otro lado, de la forma explcita de L Ecs. (11.14,
11.15), Pag. 329 se puede probar que
  d  
L ein F () = ~ei(n1) (sin )1n (sin )n F () (19.77)
d (cos )
a partir de lo cual se puede demostrar por recurrencia que
  dp  
(L )p ein F () = (~)p ei(np) (sin )pn p (sin )
n
F () (19.78)
d (cos )
3
De hecho, los armonicos esfericos de la forma Yl,0 () son una base ortonormal para funciones de la variable .
478 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

aplicando (19.78) con p = l y con n = 0, tenemos que


 
L+ l ikr cos dl
e = (1)l eil (sin )l l
eikr cos
~ d (cos )
= (1)l eil (sin )l (ikr)l eikr cos
 l s
L+ l 4
eikr cos = (ikr) 2l l! Yl,l (, ) eikr cos (19.79)
~ (2l + 1)!
donde hemos utilizado la expresion (11.29) Pag. 331 para Yl,l (, ). Aplicando la Ec. (19.79) en (19.76) resulta
s Z
l 4 2l l!
cl (k) jl (kr) = (ikr) p |Yl,l (, )|2 eikr cos d (19.80)
(2l + 1)! (2l)!
ahora bien, puesto que cl (k) es independiente de r podemos tomar cualquier valor dado de r para evaluar cl (k) en
la expresion (19.80). Tomaremos r 0, con lo cual la funcion esferica de Bessel jl (kr) adquiere el valor asintotico
(19.61). En este lmite, la Ec. (19.80) queda en la forma
s Z
(kr)l l 4 2l l!
cl (k) = (ikr) p |Yl,l (, )|2 d
(2l + 1)!! (2l + 1)! (2l)!
s
4 2l l!
cl (k) = il (2l + 1)!! p
(2l + 1)! (2l)!
donde hemos tenido en cuenta que los armonicos esfericos estan normalizados. El coeficiente cl es entonces inde-
pendiente de k y viene dado por
s s
l 4 2l + 1 l (2l + 1)!! p
cl = i (2l + 1)!! 2 l! = il 4 (2l + 1) 2l l!
(2l + 1)! (2l + 1)! (2l + 1)!
p 2l l!
cl = il 4 (2l + 1) (19.81)
(2l)!!
es facil ver que
(2l)!! = [2l] [2l 2] [2l 4] [2l 6] ... [2l 2 (l 1)] = [2l] [2 (l 1)] [2 (l 2)] [2 (l 3)] ... [2 (l (l 1))]
= 2l l (l 1) (l 2) (l 3) ... (l (l 1))
(2l)!! = 2l l!
con lo cual (19.81) se reduce a p
cl = il 4 (2l + 1) (19.82)
por tanto, la expansion de eikz Ec. (19.70) queda en la forma

X p
X
eikz = il 4 (2l + 1) jl (kr) Yl,0 () = il (2l + 1) jl (kr) Pl (cos ) (19.83)
l=0 l=0

donde Pl (cos ) es el polinomio de Legendre de grado l. Es bien sabido que los polinomios de Legendre son una
base para cualquier funcion del angulo polar . Por otro lado, podemos escribir la expansion (19.83) en terminos
de las ondas esfericas libres (19.55)
r " r #
1 X p 2
eikz = il 4 (2l + 1) k jl (kr) Yl,0 ()
k 2
l=0
r
ikz 1 X lp (0)
e = i 4 (2l + 1) k,l,0 (r) (19.84)
k 2
l=0
19.4. CARACTERIZACION DE LAS ONDAS ESFERICAS LIBRES 479

Ahora bien, podemos sin perdida de generalidad definir al vector k en la direccion u3 . Por otro lado, es el
angulo entre u3 y r o equivalentemente el angulo entre k y r. Adicionalmente, la expresion (19.83) depende unica-
mente del angulo entre k y r sin importar la direccion de los vectores individuales. Por conveniencia, redefinimos
como al angulo entre k y r, de modo que la expresion (19.83) para direcciones arbitrarias de k y r se escribe en
la forma

X
eikr = il (2l + 1) jl (kr) Pl (cos ) (19.85)
l=0
La direccion (arbitraria) de k la definimos con los angulos (k , k ), y la direccion arbitraria de r con los angulos
(, ). Ahora bien, puesto que es el angulo entre k y r, podemos utilizar el teorema de adicion de los armonicos
esfericos Ec. (11.41), Pag. 333 para obtener
X
l r l
X 4 X X l (0)
ikr l
e = 4 i jl (kr) Ylm (k , k ) Yl,m (, ) = i Ylm (k , k ) k,l,m (r) (19.86)
k 2
l=0 m=l l=0 m=l

donde hemos utilizado la expresion (19.55) para las ondas esfericas libres. Por supuesto, es posible invertir la Ec.
(19.86), con el fin de obtener las ondas esfericas libres k,l,m (r) en terminos de ondas planas. Multiplicando la Ec.
(19.86) por Ylm (k , k ) dk , integrando y usando la ortonormalidad de los armonicos esfericos, se tiene que
Z
X l
X
Z
ikr l
e Ylm (k , k ) dk = 4 i j (kr) Y
l l ,m (, ) Yl m (k , k ) Ylm (k , k ) dk
l =0 m =l
l
X X
= 4 il jl (kr) Yl ,m (, ) ll mm = 4il jl (kr) Ylm (, )
l =0 m =l
Z r " r # r
ikr 4il 2 4 (0)
e Ylm (k , k ) dk = k jl (kr) Ylm (, ) = l
k,l,m (r)
k 2 (i) k 2
quedando finalmente r Z
(0) (1)l il k 2
k,l,m (r) = eikr Ylm (k , k ) dk (19.87)
4
La Ec. (19.86) nos dice que un estado con momento lineal bien definido, involucra todos los valores posibles del
momento angular orbital. Recprocamente, la Ec. (19.87) nos dice que un estado con momento angular orbital
bien definido,
involucra todas las ondas planas con la misma energa. Esto es, todas las ondas planas tales que
~ |k| = 2E, incluyendo todas las direcciones posibles (k , k ).

19.4.9. Interpretacion fsica de las ondas esferica libres


Hemos visto que la dependencia angular de la onda esferica esta dada por los armonicos esfericos. Por lo
tanto, la dependencia angular esta completamente fijada por los autovalores de L2 y L3 , pero es completamente
independiente de k, y por tanto de la energa. Por ejemplo, una onda esferica libre tipo s (i.e. con l = 0) es
isotropica sin importar su energa.
Consideremos un angulo solido infinitesimal d0 centrado en cierta direccion 0 (0 , 0 ). Cuando la partcula
(0)
esta en el estado k,l,m (r) descrito por la Ec. (19.55), la probabilidad de encontrar a la partcula en un intervalo
radial entre r y r + dr y un intervalo angular d0 esta dada por
2 2k2 2 2 d (kr)
(0)
dP = k,l,m (r) r 2 dr d0 = j (kr) |Yl,m (0 , 0 )|2 r 2 dr d0 = (kr)2 jl2 (kr) |Yl,m (0 , 0 )|2 d0
l k
2 2 2
dP = j () |Yl,m (0 , 0 )|2 d d0 ; kr (19.88)
k l
480 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

De la forma explcita de los armonicos esfericos Eq. (11.30) pag. 331, vemos que esta probabilidad es independiente
de , de modo que tiene simetra azimutal. Adicionalmente, en virtud del comportamiento asintotico de jl () cerca
al origen Ec. (19.61), vemos que la probabilidad (19.88) en la vecindad del origen se comporta en la forma

2 2 2l
dP |Yl,m (0 , 0 )|2 d d0
r0 k [(2l + 1)!!]2
 
21 2l+2
dP d |Yl,m (0 , 0 )|2 d0
r0 k [(2l + 1)!!]2

por tanto al incrementar l, disminuye mas rapidamente la probabilidad a medida que nos acercamos al origen. De
la Ec. (19.88), es claro que el comportamiento radial de la probabilidad esta regulado por la funcion 2 jl2 (). El
comportamiento de esta funcion se grafica en la Fig. 19.1. Tal figura muestra que esta funcion permanece pequena
en el intervalo p
< l (l + 1)
podemos entonces asumir que la probabilidad es practicamente cero para

Figura 19.1: Comportamiento de 2 jl2 () con respecto a . Aqu se grafica para l = 4.

1p
r< l (l + 1) (19.89)
k
lo anterior implica que una partcula en el estado k,l,m (r) practicamente no se afecta por lo que ocurra en el
interior de la esfera centrada en el origen O y de radio
1p
bl (k) = l (l + 1) (19.90)
k
lo anterior posee un interesante analogo semi-clasico. En mecanica clasica una partcula libre de momento p y
momento angular L, se mueve en lnea recta con parametro de impacto
|L|
b= (19.91)
|p|

y el parametro de impactopcrece con el modulo de L y decrece con el modulo de p (y por tanto con la energa).
Si reemplazamos |L| por ~ l (l + 1) y |p| por ~k, la Ec. (19.91) se convierte en (19.90). Puesto que clasicamente
el parametro de impacto es la distancia de maximo acercamiento al origen, vemos que tambien clasicamente, la
esfera de exclusion de la partcula aumenta con el aumento del modulo del momento angular y disminuye con
el aumento de la energa (i.e. del modulo de p).
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 481

A priori parece extrano que exista una esfera de exclusion alrededor del origen. Despues de todo, si las partculas
son libres el origen no es un punto privilegiado, ya que no hay un centro dispersor. Sin embargo, debe tenerse en
cuenta que el momento angular es una cantidad que se mide con respecto a cierto origen. En el analogo clasico,
un alto valor del momento angular (con respecto a un origen dado) significa un alto parametro de impacto, es
decir la distancia de mayor aproximacion al origen es grande. Cuanticamente, esto se manifiesta en el crecimiento
de la esfera de exclusion cuando aumenta el momento angular.
Como en cualquier experimento de dispersion, el lmite mas importante es el lmite asintotico con r .
(0)
Usando tal lmite en la funcion esferica de Bessel Ec. (19.63), vemos que el comportamiento de k,l,m (r) en este
regimen asintotico, vendra dado por
r r  
(0) 2 21
k,l,m (r) = k jl (kr) Ylm (, ) k sin l Ylm (, )
r 2
r r
2 1 ei( 2 l) ei( 2 l) 2 ei( 2 lkr) ei( 2 lkr)
= k Ylm (, ) = k Ylm (, )
2i 2ikr
quedando finalmente
r
(0) 2 eikr eil 2 eikr eil 2
k,l,m (r) k Ylm (, )
r 2ikr
r  ikr il 
(0) 2 e e eikr il
k,l,m (r) k Ylm (, ) e 2 (19.92)
r 2ikr

con lo cual en el infinito vemos que la funcion de onda esferica libre puede verse como la superposicion de una
onda entrante r 1 eikr y una onda saliente r 1 eikr , cuyas amplitudes difieren por una diferencia de fase de l.
Si se construye un paquete de ondas esfericas libres, todas correspondientes al mismo valor de l y m (es decir
barriendo valores de k), podemos realizar una analisis similar al de la seccion 18.5.1, y se concluye que para
t , solo existe un paquete de ondas entrante y para t solo existe un paquete de ondas saliente.
De esta manera podemos pensar en la evolucion temporal de una onda esferica libre en la siguiente forma: En
t tenemos una onda entrante que converje hacia el origen O. A medida que se aproxima al origen comienza
a distorsionarse4 y vuelve sobre sus pasos cuando esta a una distancia del orden de bl (k) dada por (19.90), de lo
cual surge una onda saliente con corrimiento de fase l con respecto a la onda entrante.

19.5. Ondas parciales en el potencial V (r)


A continuacion estudiaremos los estados propios simultaneos de H (el Hamiltoniano total con interaccion) L2
y L3 . Tales estados se denominan ondas parciales y se denotan por k,l,m (r). Ya vimos que para un potencial
central V (r) las ondas parciales tienen la forma
1
k,l,m (r) = Rk,l (r) Ylm (, ) = uk,l (r) Ylm (, ) (19.93)
r
siendo uk,l (r) la solucion de la ecuacion radial
 2 2 
~ d l (l + 1) ~2 ~2 k2
+ + V (r) uk,l (r) = uk,l (r) (19.94)
2 dr 2 2r 2 2
uk,l (0) = 0 (19.95)

este problema es analogo al de un problema unidimensional de una partcula de masa , bajo la influencia de un
potencial efectivo. Es claro que la variable r es no negativa en coordenadas esfericas. Sin embargo, en el problema
4
Debemos tener en cuenta que esta distorsion se debe a una barrera centrfuga y no a un potencial real.
482 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

unidimensional equivalente, es conveniente ver a r como una variable que puede tomar valores negativos pero
tal que hay una barrera de potencial de altura infinita para r < 0, que excluye esta region (tanto clasica como
cuanticamente). El potencial efectivo se escribira entonces en la forma
( 2
V (r) + l(l+1)~
2 para r > 0
Vef f (r) = 2r
para r < 0

para valores grandes de r, la Ec. (19.94) se reduce a


 2 
d 2
+ k uk,l (r) 0 (19.96)
dr 2 r

cuya solucion general tiene la forma


uk,l (r) Aeikr + Beikr (19.97)
r
pero como uk,l (r) debe satisfacer la condicion (19.95) A y B no son independientes. En el problema unidimensional
equivalente, la condicion (19.95) esta asociada al hecho de que al aproximarnos al origen nos aproximamos a la
barrera infinita de potencial y la Ec. (19.97) representa en este problema equivalente la superposicion de una onda
incidente plana eikr viniendo de la derecha (a lo largo del eje en el cual se mueve la partcula unidimensional
fictisia equivalente)5 , y una onda plana reflejada eikr que se propaga de izquierda a derecha. Puesto que no puede
haber una onda transmitida (en r < 0) debido a la barrera infinita de potencial, la intensidad de la corriente
reflejada debe ser igual a la incidente. En consecuencia, la condicion (19.95) implica que en la expresion
asintotica (19.97) tenemos que
|A| = |B| (19.98)
aunque puede haber en general, una diferencia de fase entre ambas amplitudes
A = |A| eiA ; B = |A| eiB (19.99)
con lo cual la Ec. (19.97) queda h i
uk,l (r) |A| eiA eikr + eiB eikr
r
que se puede reescribir en la forma
uk,l (r) C0 sin (kr l ) (19.100)
r
donde la fase l se puede determinar completamente imponiendo continuidad entre la solucion asintotica (19.100)
y la solucion completa de (19.94) que se anula en el origen. En la seccion 19.4.9 vimos que para potencial nulo, l
era l/2. En consecuencia, es conveniente utilizar este valor como punto de referencia y reescribir la Ec. (19.100)
en la forma  

uk,l (r) C0 sin kr l + l (19.101)
r 2
a la cantidad l definida as, se le denomina el corrimiento de fase de la onda parcial k,l,m (r) con respecto a la
(0)
onda esferica libre k,l,m (r). Este corrimiento de fase depende obviamente de k y l i.e. de la energa y el momento
angular.
De las Ecs. (19.93, 19.101) podemos escribir el comportamiento asintotico de la onda parcial en la forma
1 1  
k,l,m (r) = uk,l (r) Ylm (, ) C0 sin kr l + l Ylm (, )
r r r 2
i(krl 2 +l ) i(krl 2 +l )
C0 e e ei(krl 2 +l ) ei(krl 2 +l )
= Ylm (, ) = C0 Ylm (, )
r 2i 2ir
5
En mecanica clasica ocurre un fenomeno similar. En el problema unidimensional equivalente al problema de Kepler podemos pensar
en una partcula fictisia que se mueve en una dimension en la coordenada r con puntos de retorno en r. Sin embargo, la partcula
real se mueve en dos dimensiones y los puntos de retorno son puntos en donde se invierte el crecimiento de la coordenada r, pero no
implican un retorno en la trayectoria.
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 483


eikr ei(l 2 l ) eikr ei(l 2 l )
k,l,m (r) kC0 Ylm (, ) (19.102)
r 2ikr
la onda parcial al igual que la onda esferica libre esta constituda por la superposicion de una onda entrante y una
saliente. Para facilitar la comparacion entre las ondas parciales y las ondas esfericas libres, podemos modificar la
onda entrante de (19.102) para que quede casi identica a la dada por la Ec. (19.92). Para ello definimos una nueva
onda parcial ek,l,m (r) multiplicando k,l,m (r) por una fase global eil que claramente no altera el contenido fsico
del estado, y redefiniendo la constante C0 de modo que

eikr eil 2 eikr ei(l 2 2l )

il
ek,l,m (r) e k,l,m (r) kC0 Ylm (, )

"r #
r 2ikr
ikr il 2 ikr i(l 2 2l )
2 e e e e
= k C0 Ylm (, )
2ikr
p
ahora bien, el factor k 2/ garantiza la normalizacion de la funcion [ya que la funcion (19.55) esta debidamente
normalizada]. En consecuencia, C0 tiene modulo unidad y por tanto es una fase global constante que se puede
remover. Tenemos finalmente
r  ikr il 
2 e e eikr e2il il
ek,l,m (r) k
Ylm (, ) e 2 (19.103)
r 2ikr
comparando las Ecs. (19.92, 19.103), podemos entonces interpretar esta expresion en la siguiente forma: Comen-
zamos con la misma onda entrante que en el caso de las ondas esfericas libres. A medida que se acerca al origen
(region de dispersion) esta onda entrante es cada vez mas perturbada por el potencial. Despues de reflejarse trans-
formada en una onda saliente, ha acumulado un corrimiento de fase de 2l , con respecto a la onda saliente libre
que hubiera resultado en ausencia del potencial. Por tanto, el factor e2il (que vara con l y k) sintetiza el efecto
total del potencial sobre la partcula de momento angular l y energa ~2 k2 /2.
La anterior discusion es valida cuando tenemos un paquete de ondas compuesto por la superposicion de ondas
parciales k,l,m (r) todas con los mimos valores de l,m en las cuales la distribucion de las k esta muy concentrada
alrededor de cierto valor k0 . El analisis de este tipo de paquete muestra que para t , solo tenemos un paquete
de onda entrante que posteriormente interactua con el potencial para dar paso al paquete saliente. Tambien se
puede hacer una analoga semejante a la realizada en la seccion 18.5.1. El fenomeno antes descrito es similar al
que se obtendra si ponemos a interactuar a las ondas esfericas libres con un potencial dependiente del tiempo que
se enciende lentamente (adiabaticamente), tal potencial generara las ondas parciales k,l,m (r).

19.5.1. Ondas parciales en potenciales de rango finito


Supongamos que tenemos un potencial de rango finito r0 definido por

V (r) = 0 para r > r0 (19.104)


(0)
ya hemos concludo que las ondas esfericas libres k,l,m (r) casi no penetran la zona interior a la esfera de radio
bl (k) dada por la Ec. (19.90). Esto implica que el potencial definido por (19.104) practicamente no influye sobre
los estados para los cuales
bl (k) r0 (19.105)
debido a que las ondas entrantes asociadas, retroceden antes de alcanzar la zona de influencia de V (r). Por tanto,
para cada valor de la energa existe un momento angular crtico lM que de acuerdo con (19.90, 19.105) viene dado
por p
lM (lM + 1) kr0 (19.106)
de modo que los corrimientos de fase l solo son apreciables para valores de l del orden de lM o menores. Es
claro que para potenciales de menor alcance, el valor de lM para una energa incidente dada es menor. As mismo,
484 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

para un potencial dado, lM decrece a medida que decrece la energa incidente. Por tanto, puede ocurrir que los
corrimientos de fase significativos sean solo aquellos que esten asociados a las primeras ondas parciales. Para muy
bajas energas puede ser razonable inclur solo la onda s (i.e. l = 0), para energas un poco mayores se incluiran
las ondas parciales s y p (l = 0, 1) etc. Por esta razon, el metodo de ondas parciales adquiere su importancia
practica en un regimen de bajas energas, que conduzca a un valor de lM no mucho mayor a la unidad. Cuando
esta condicion se cumple, pueden tomarse pocas ondas parciales en buena aproximacion, y el metodo es manejable.
Por otro lado, puesto que lM kr0 = 2r0 /, vemos que lM es del orden del cociente entre el rango r0 del
potencial y la longitud de onda de la partcula incidente.
Finalmente, el argumento aqu presentado se puede extender al caso de potenciales de rango infinito si existe
alguna longitud caracterstica luego de la cual el potencial se pueda considerar despreciable. Tal longitud carac-
terstica hara las veces del rango r0 , y la discusion anterior sera valida aunque solo en forma aproximada. Este
es el caso de la longitud r0 definida en la Ec. (18.73) Pag. 458, para el potencial de Yukawa.

19.5.2. Seccion eficaz en terminos de los corrimientos de fase l


La informacion de la interaccion con el potencial de estados con momento angular bien definido esta guardada
en las fases l . Ahora bien, si expresamos los estados estacionarios de dispersion k (r) en terminos de ondas
parciales, podemos calcular la amplitud de scattering y la seccion eficaz con tal expansion. Como resultado, la
interaccion con el potencial se vera reflejada en la superposicion de los corrimientos de fase l , presentes en la
expansion. Es importante mencionar que si existen estados acotados para la partcula bajo el potencial V (r)
(estados estacionarios de energa negativa como en el atomo de hidrogeno), el conjunto de las ondas parciales
no constituira una base para expandir estos estados, ya que las ondas parciales solo abarcan estados de energa
positiva6 . En tal caso, sera necesario anadir a las ondas parciales, funciones de onda de estados acotados.
Ya que los estados estacionarios de dispersion deben cumplir la condicion asintotica (18.26) Pag. 445, sera
necesario verificar que la superposicion de ondas parciales que los genera cumple dicha condicion. Puesto que los
estados estacionarios de dispersion k (r), son autoestados del Hamiltoniano, la expansion de k (r) solo involucra
ondas parciales con la misma energa ~2 k2 /2, de modo que no hay suma sobre k. Por otro lado, si el potencial es
central el problema tiene simetra azimutal ya que es simetrico con respecto a la rotacion alrededor del eje OZ.
Por tanto, solo contribuiran ondas parciales con m = 0. Con estas consideraciones, tal expansion toma la forma

X
k (r) = ek,l,0 (r)
cl (19.107)
l=0

ahora debemos encontrar los coeficientes cl . Comencemos considerando el caso en que V (r) = 0, de modo que
(0)
k (r) se reduce a la onda plana eikz , y las ondas parciales se reducen a ondas esfericas libres k,l,m (r), en tal caso
la expansion (19.107) se convierte en la expansion (19.84)
r
(0) C X lp (0)
k (r) = Ceikz = i 4 (2l + 1) k,l,0 (r) (19.108)
k 2
l=0

para el potencial no nulo V (r), se debe incluir la onda esferica dispersada ademas de la onda plana. Por otro
lado, hemos visto que en su comportamiento asintotico, la onda parcial ek,l,0 (r) descrita por (19.103), difiere de
(0)
la onda esferica libre k,l,m (r) descrita por (19.92) solo por la presencia de una onda esferica saliente, que tiene
la misma dependencia radial que la onda dispersada. En consecuencia, es de esperarse que los coeficientes cl de la
expansion (19.107) sean identicos a los de la expansion (19.108) esto es
r
C X lp
k (r) = i 4 (2l + 1) ek,l,0 (r) (19.109)
k 2
l=0
6
En tal sentido las ondas parciales no son una base de Er .
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 485

esto tambien se puede ver con un argumento similar a los de las secciones 19.5, 18.5.1. Si tenemos una onda
plana cuya expansion viene dada por (19.108) y encendemos el potencial V (r) adiabaticamente, la onda plana
(0)
se transforma en la onda estacionaria de dispersion k (r). Similarmente, cada onda esferica libre k,l,0 (r) se
transforma en la onda parcial ek,l,0 (r) cuando el potencial se activa, y teniendo en cuenta la linealidad de la
ecuacion de Schrodinger, se tiene que cuando el potencial se activa la expresion (19.108) se mantiene en la misma
(0) (0)
forma reemplazando k (r) Aeikz por k (r) y cada onda esferica libre k,l,m (r) por la onda parcial ek,l,0 (r).
De esta forma obtenemos la expresion (19.109).
Ahora debemos verificar que (19.109) cumpla con los requisitos de un estado estacionario de dispersion. En
primer lugar, puesto que cada onda parcial en la suma corresponde a un estado de energa bien definida y
todos corresponden a la misma energa ~2 k2 /2, tenemos que la superposicion continua siendo un autoestado del
Hamiltoniano i.e. un estado estacionario. Adicionalmente, debemos verificar que la expansion (19.109) cumple con
las condiciones asintoticas (18.26) Pag. 445, para estados estacionarios de dispersion. Para verlo, utilizaremos la
Ec. (19.103)

r
C X lp X
l
p eikr eil 2 eikr eil 2 e2il
k (r) = ek,l,0 (r) C
i 4 (2l + 1) i 4 (2l + 1) Yl,0 () (19.110)
k 2 r 2ikr
l=0 l=0

para examinar este lmite asintotico usaremos la identidad

e2il = 1 + 2ieil sin l (19.111)

y separando los terminos que son independientes de l se obtiene


" #
X p eikr eil 2 eikr eil 2 1 + 2ieil sin
l
k (r) C il 4 (2l + 1) Yl,0 ()
r 2ikr
l=0

" #
X p eikr eil 2 eikr eil 2

2ieikr eil 2 eil sin
l
k (r) C il 4 (2l + 1) Yl,0 ()
r 2ikr 2ikr
l=0

"
#
X p eikr eil 2 eikr eil 2 1 eikr il il
l
k (r) C i 4 (2l + 1) Yl,0 () e 2 e sin l (19.112)
r 2ikr k r
l=0

teniendo en cuenta las Ecs. (19.92, 19.84) la expresion (19.112) queda


r
C X lp (0)
X p 1 eikr il il
k (r) i 4 (2l + 1) k,l,0 (r) + C il 4 (2l + 1) Yl,0 () e 2 e sin l
r k 2 k r
l=0 l=0
r  
C X lp (0)
X l p 1 eikr il il
k (r) i 4 (2l + 1) k,l,0 (r) + C ei 2 4 (2l + 1) Yl,0 () e 2 e sin l
r k 2 k r
l=0 l=0

ikz C X il p eikr
k (r) Ce + e 2 4 (2l + 1) Yl,0 () eil 2 eil sin l
r r k
l=0

quedando finalmente

eikr C Xp
k (r) Ceikz + fk () ; fk () 4 (2l + 1) Yl,0 () eil sin l (19.113)
r r k
l=0

con lo cual demostramos que la expansion (19.109) cumple con la condicion asintotica (18.26). Adicionalmente, la
Ec. (19.113) nos brinda la forma explcita de la amplitud de dispersion fk () en terminos de los corrimientos de
486 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

fase l . Con la amplitud de dispersion podemos proceder a calcular la seccion eficaz diferencial a traves de la Ec.
(18.44), Pag. 450
2 2
1 1 X p

D () = fk () = 2 i
4 (2l + 1) Yl,0 () e l sin l
C k
l=0

1 XX p
D () = 4 (2l + 1) (2l + 1) Yl ,0 () Yl,0 () ei(l l ) sin l sin l (19.114)
k2
l=0 l =0

y la seccion eficaz total la obtenemos integrando D () sobre todo el angulo solido


Z Z
1 XX p + 1) ei(l l ) sin sin
= d D () = 4 (2l + 1) (2l l l d Yl ,0 () Yl,0 ()
k2
l=0 l =0

1 XX p
= 4 (2l + 1) (2l + 1) ei(l l ) sin l sin l ll
k2
l=0 l =0
X
4
= (2l + 1) sin2 l (19.115)
k2
l=0

notese que en virtud de la ortonormalidad de los armonicos esfericos, los terminos de interferencia asociados a
diferentes momentos angulares y que estan presentes en la seccion eficaz diferencial (19.114), estan ausentes en la
seccion eficaz total (19.115). Vemos ademas que para cualquier potencial central V (r), la contribucion asociada a
cada l a la seccion eficaz total es positiva
4
(2l + 1) sin2 l 0
k2
y tiene una cota superior para una energa dada (k dado):
4 4
2
(2l + 1) sin2 l 2 (2l + 1) (19.116)
k k
Vemos que las expresiones (19.114, 19.115) requieren conocer en principio todos los corrimientos de fase l . En la
seccion 19.5 vimos que si el potencial V (r) es conocido, estos corrimientos de fase se calculan de la ecuacion radial
asociada (19.94). La ecuacion radial (19.94) debe ser solucionada para cada l por aparte. Por lo anterior, el metodo
de ondas parciales es atractivo en la practica cuando hay un numero suficientemente pequeno de corrimientos de
fase l que adquieren un valor considerable y los demas son despreciables. En la seccion 19.5.1, vimos que para
el caso de potenciales de rango finito, los corrimientos de fase l son despreciables cuando l > lM , siendo lM un
momento angular crtico dado por la formula (19.106), y que los argumentos all discutidos se pueden extender
para potenciales de rango infinito, siempre y cuando podamos definir un rango o alcance caracterstico para la
interaccion.
Sin embargo, en muchos experimentos de dispersion, el potencial es desconocido y de hecho muchos experimen-
tos se disenan para modelarlo. En tal caso, usualmente se procura reproducir las curvas experimentales de seccion
eficaz diferencial a una energa fija introduciendo un pequeno numero de corrimientos de fase l . Con frecuencia
la dependencia con de D () sugiere el mnimo numero de fases a utilizar. Por ejemplo, si la seccion eficaz es
aproximadamente isotropica, esto sugiere que solo la onda s (l = 0) contribuye significativamente, ya que Y00 es
constante. Una vez que determinamos las fases l que contribuyen a diferentes valores de energa, podemos buscar
modelos de potenciales que reproduzcan las fases para cada energa dada. Es decir, las fases y su dependencia con
la energa.
La dependencia de la seccion eficaz con la energa es tan importante como su dependencia angular. En algunos
casos se observa una rapida variacion de la seccion eficaz total cuando nos movemos en cierta vecindad del rango
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 487

de energa. Por ejemplo, si una de las fases l toma el valor /2 para E = E0 , la contribucion asociada a adquiere
su cota superior (ver Ec. 19.116), y la seccion eficaz puede mostrar un pico agudo en E = E0 . Este fenomeno
se conoce como resonancia en la dispersion. Este fenomeno es similar a la resonancia en la transmision que
ocurre en una barrera de potencial unidimensional, como se discutio en la seccion 3.7.1, Pag. 177.

19.5.3. Dispersion por esfera rgida


Ya vimos la dispersion clasica por esfera rgida en la seccion 18.3.1, Pag. 440. Cuanticamente, la esfera rgida
de radio r0 la simulamos con el potencial

0 si r > r0
V (r) =
si r r0

este es un caso tpico de potencial de rango finito (con rango r0 ) como se discutio en la seccion 19.5.1. Asumiremos
que la energa de la partcula incidente es suficientemente pequena de modo que se cumple la condicion

kr0 1 (19.117)

Combinando la condicion (19.117) con (19.106) vemos que lM 1, y debido al caracter discreto de l, se concluye
que lM = 0. Como consecuencia, podemos despreciar todos los corrimientos de fase l , excepto el asociado a la
onda s con l = 0. En tal caso, la amplitud de dispersion (19.113) viene dada por
C
fk () = 4 Y0,0 () ei0 sin 0
k
C i0 (k)
fk () = e sin 0 (k)
k
y la seccion eficaz diferencial resulta isotropica
2
1 1
D () = fk () = 2 sin2 0 (k)
C k

por otro lado, la seccion eficaz total (19.115) queda en la forma


4
= sin2 0 (k) (19.118)
k2
solo nos queda calcular el corrimiento de fase 0 (k), resolviendo la ecuacion radial (19.94) para l = 0
 2 
d 2
+ k uk,0 (r) = 0 para r > r0 (19.119)
dr 2
ademas debe cumplirse la condicion
uk,0 (r) = 0 para r r0 (19.120)
dado que el potencial es infinito para r r0 y por tanto la esfera de radio r0 centrada en el origen, es una esfera
de exclusion total [en particular se cumple la condicion uk,0 (0) = 0, requerida en la Ec. (19.95)]. Solo hay una
solucion linealmente independiente de las Ecs. (19.119, 19.120)

A sin (kr kr0 ) para r > r0
uk,0 (r) = (19.121)
0 para r r0

por definicion, el corrimiento de fase 0 esta dado por la forma asintotica de uk,0 (r), Ec. (19.101), Pag. 482

uk,0 (r) A sin (kr + 0 ) (19.122)


r
488 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

comparando (19.122) con la solucion (19.121) vemos que

0 (k) = kr0 (19.123)

insertando (19.123) en (19.118) y teniendo en cuenta que kr0 1, la seccion eficaz total queda

4 4
= 2
sin2 kr0 2 (kr0 )2
k k
4r02 (19.124)

vemos que es independiente de la energa, aunque debe mantenerse la condicion (19.117). Y es igual a cuatro
veces la seccion transversal que ven las partculas del haz (i.e. cuatro veces el resultado clasico Ec. 18.9). La
desviacion con respecto al resultado clasico se debe a que en el caso cuantico estudiamos la evolucion de la onda
asociada a las partculas incidentes, y el cambio abrupto de V (r) en r = r0 , produce un fenomeno analogo a la
difraccion de una onda de luz. De hecho, el lmite (19.117) nos dice que la longitud de onda de las partculas
incidentes es mucho mayor que r0 de modo que en tal lmite el fenomeno es notoriamente ondulatorio, por lo cual
es de esperarse una fuerte desviacion con respecto al resultado de partcula clasica.
Se puede demostrar que en el lmite
kr0 1 (19.125)
la seccion eficaz total toma el valor
2r02 (19.126)
k

puesto que este lmite corresponde al caso en el cual la longitud de onda de las partculas incidentes es despreciable
con respecto a r0 , podra pensarse a priori que debe emularse el comportamiento corpuscular clasico. Sin embargo,
la comparacion entre los resultados clasico (18.9) y cuantico (19.126) muestra que no es as. Esto se debe al hecho
de que el potencial es discontnuo en r = r0 y por tanto vara apreciablemente dentro de un intervalo mas pequeno
que la longitud de onda de las partculas (ver discusion en la seccion 3.4, Pag. 165), de modo que tambien se
manifiesta fuertemente el caracter cuantico de la interaccion.

19.6. Colisiones con absorcion


Hasta ahora hemos trabajado colisiones elasticas en las cuales no cambia ni el numero ni la naturaleza de las
partculas que se dispersan. Sin embargo, en la seccion 18.2 vimos que existe una amplia variedad de reacciones
que pueden ocurrir para que se genere creacion y/o destruccion de partculas durante la dispersion. Con frecuencia
ocurre que en los experimentos solo podemos detectar las partculas dispersadas elasticamente. En tal caso, si la
dispersion no es elastica observaremos que algunas partculas del haz incidente desaparecen, de modo que no se
encuentran ni en el haz transmitido ni entre las partculas elasticamente dispersadas. Se dice que estas partculas
han sido absorbidas durante la colision. En esta seccion estudiaremos el proceso de absorcion en el contexto mas
simple posible, en el cual no nos enfocamos en las reacciones detalladas que ocurren, sino que nos concentramos
en la absorcion global, vista como la diferencia entre las partculas incidentes y las detectadas. Veremos que el
metodo de ondas parciales es muy conveniente para esta descripcion.
Supondremos que la interaccion responsable de la desaparicion de las partculas incidentes, es invariante bajo
rotaciones con respecto al origen O. Por tanto, la amplitud de dispersion podra siempre descomponerse en ondas
parciales cada una de ellas asociada a un momento angular bien definido7 .
En la seccion 19.5, interpretamos las ondas parciales diciendo que una onda entrante libre penetra la region de
dispersion en la cual se ve perturbada por el potencial. Posteriormente, se genera la onda saliente que naturalmente
debe estar modificada con respecto a la que se obtendra en ausencia de potencial. El efecto neto del potencial
sobre la onda saliente es un corrimiento de fase 2l con respecto al caso de ondas esfericas libres. Vemos que al
7
Si el potencial no es central, no hay una base comun de vectores propios de H, L2 y L3 .
19.6. COLISIONES CON ABSORCION 489

multiplicar la onda saliente libre por e2il (que es como se obtiene la onda saliente con potencial), no se altera
la amplitud de esta y por tanto la onda saliente tiene la amplitud de la entrante, ya que tal factor tiene modulo
unidad (ver Ec. 19.98, Pag. 482). Esto implica que el flujo total de la onda entrante es igual al de la onda saliente,
con lo cual la probabilidad se conserva durante la dispersion y por tanto el numero de partculas es constante.
La discusion anterior sugiere que los procesos de absorcion se pueden inclur introduciendo un factor de la forma
e2il de modulo menor que la unidad, para lo cual sera necesario que l ya no sea una fase real sino compleja

l = l + il e2il = e2i(l +il ) = e2l e2il



siendo l y l numeros reales. Para que e2il < 1 es necesario que l (la parte imaginaria de l ) sea positiva.
Con esto la amplitud de la onda saliente con momento angular l, es mas pequena que la de la onda entrante de
la cual se origina. Esto se traduce en una disminucion del flujo de probabilidad saliente con respecto al flujo de
probabilidad entrante que expresa la desaparicion de algunas de las partcula incidentes.
Con base en las anteriores consideraciones calcularemos las secciones eficaces de dispersion y absorcion. Sin
embargo, este es un acercamiento puramente fenomenologico, y los parametros con los cuales describimos la
absorcion (modulo de e2il para cada onda parcial l) solo nos dan cuenta del fenomeno de absorcion en forma
global. Si por ejemplo se pueden detectar las partculas de naturaleza distinta a las incidentes, es posible obtener
informacion sobre las reacciones especficas que ocurren en el proceso de colision. En este ultimo caso, el presente
formalismo no es adecuado. De hecho, el formalismo cuantico seguido a lo largo de todo el texto, no es el mas
adecuado para tratar problemas en donde la probabilidad no se conserva. Para tales problemas es mucho mas
adecuado el uso de la teora cuantica de campos.

19.6.1. Seccion eficaz en procesos absortivos


Para dar cuenta de las posibles reacciones diferentes a la dispersion elastica, retornaremos a los calculos
realizados en la seccion 19.5.2, en donde definiremos

l e2il ; |l | 1 (19.127)

donde la condicion sobre el modulo nos dara cuenta del fenomeno absortivo. En el lmite elastico este modulo sera
igual a la unidad. Tomando la forma asintotica del estado estacionario de dispersion k (r), bajo el potencial V (r)
ecuacion (19.110) Pag. 485, en terminos de l tenemos

X p
eikr eil 2 l eikr eil 2
k (r) C il 4 (2l + 1) Yl,0 () (19.128)
r 2ikr
l=0

la identidad (19.111) continua siendo valida para l complejo, y por tanto la amplitud de dispersion fk () continua
siendo la indicada en (19.113) que en terminos de l se escribe

C Xp C Xp e2il 1
fk () 4 (2l + 1) Yl,0 () eil sin l = 4 (2l + 1) Yl,0 ()
k k 2i
l=0 l=0

C Xp l 1
fk () = 4 (2l + 1) Yl,0 () (19.129)
k 2i
l=0

con lo cual se obtiene la seccion eficaz diferencial para la parte elastica del proceso, la cual viene dada por
2
fk () 2 X p

Del () = = 1


4 (2l + 1) Yl,0 () (l 1) (19.130)
C 4k2
l=0
490 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

y la seccion eficaz total elastica sera

Z Z
1 XXp p
el = Del () d = 2
4 (2l + 1) 4 (2l + 1) (l 1) (l 1) Yl,0 () Yl ,0 () d
4k
l=0 l =0

XXp
= (2l + 1) (2l + 1) (l 1) (l 1) ll
k2 l=0 l =0

quedando finalmente

X
el = (2l + 1) |1 l |2 (19.131)
k2
l=0

de acuerdo con nuestra discusion, la absorcion de la onda l, alcanza su maximo cuando l = 0. Sin embargo, la
Ec. (19.131) nos indica que aun en este lmite, la onda l contribuye a la seccion eficaz elastica. Es decir, incluso
si la region de interaccion es perfectamente absorbente, produce dispersion elastica. Este fenomeno es analogo al
comportamiento de una onda luminosa que incide en un medio absorbente. Incluso si la absorcion es total (por
ejemplo una esfera o disco perfectamente negros) se observa una onda difractada concentrada en un angulo solido
que disminuye a medida que la superficie del disco aumenta. Este fenomeno no tiene analogo en la dispersion
clasica de partculas ya que depende del comportamiento ondulatorio de estas. La dispersion elastica producida
por una interaccion totalmente absorbente se denomina dispersion de sombra.
Ahora bien, as como se definio la seccion eficaz de dispersion como un cociente entre numero de partculas
dispersadas por unidad de tiempo y flujo incidente, definiremos la seccion eficaz de absorcion como el cociente
entre el numero de partculas absorbidas por unidad de tiempo y el flujo incidente.
Para calcular esta seccion eficaz calcularemos la cantidad total de probabilidad P que desaparece por
unidad de tiempo, la cual es proporcional a la cantidad total de partculas incidentes que desaparecen por
unidad de tiempo. Esta probabilidad se puede obtener a traves de la densidad de corriente J asociada con la
funcion de onda (19.128). La cantidad P corresponde a la diferencia entre el flujo de la onda entrante atraves
de una esfera S de radio muy grande R0 y la de la onda saliente sobre la misma superficie. Por tanto, P es igual
a menos el flujo neto del vector J que sale de la esfera8

Z  
~
P = J dS ; J = Re k (r) k (r)
i

puesto que para la esfera de radio muy grande R0 se tiene que dS = R02 d ur , entonces solo la componente radial
de la corriente Jr contribuye a la integral. Tendremos entonces que

Z  
2 ~
P = Jr r d ; Jr = Re k (r) k (r)
r=R0 i r

teniendo en cuenta que R0 corresponde a radio muy grande, podemos usar el lmite asintotico (19.128) y tenemos

8
El signo menos se debe a que el diferencial de superficie se define hacia afuera de la esfera y nos interesa medir el flujo neto hacia
adentro.
19.6. COLISIONES CON ABSORCION 491

que
p
X p
Jr = 4 |C|2 (2l + 1)
(2l + 1) Yl,0 () Yl ,0 ()
l,l =0

 !
eikr eil 2 l eikr eil 2 ~ eikr eil

2 l eikr eil

2
Re
(2ikr) i r 2ikr

~ |C|2 X p
Jr = (2l + 1) (2l + 1)Yl,0 () Yl ,0 () Ml,l (r)
k2
l,l =0
" !#
1  ikr il ikr il
 eikr eil 2 eikr eil 2
l
Ml,l (r) Re e e 2 l e e 2 (19.132)
r r ir
al realizar la integral sobre el angulo solido y usar la ortonormalidad de los armonicos esfericos queda
Z Z
~ |C|2 X p
P = Jr r 2 d = 2 (2l + 1) (2l + 1) R02 Ml,l (R0 ) Yl,0

() Yl ,0 () d
r=R0 k
l,l =0

2 X
~ |C|
P = (2l + 1) R02 Ml,l (R0 ) (19.133)
k2
l=0

de modo que solo tenemos que calcular Ml,l (r) de la Ec. (19.132)
Ml,l (r) = Re Hl,l (r)
!
1  ikr il 
eikr eil 2 l eikr eil 2
Hl,l (r) = e e 2 l eikr eil 2
r r ir
!
1  ikr il
 eikr eil 2 + eikr eil 2
l eikr eil 2 eikr eil 2
l
= e e 2 l eikr eil 2 ik
r ir ir 2
 
    e ikr eil 2 eikr eil 2
1 l
= 2 eikr eil 2 l eikr eil 2 k eikr eil 2 + l eikr eil 2 + i
r r
k 


= 2 l eikr eil 2 eikr eil 2 eikr eil 2 + l eikr eil 2
r
i 


+ 3 eikr eil 2 l eikr eil 2 eikr eil 2 l eikr eil 2
r
k h 2ikr il i i h i
= 2 l e e + |l |2 1 l e2ikr eil + 3 1 l e2ikr eil l e2ikr eil + |l |2
r r
k h   i i h  i
Hl,l (r) = 2 2i Im l e2ikr eil + |l |2 1 + 3 1 + |l |2 2Re l e2ikr eil
r r
tomando la parte real de Hl,l (r) queda
k h i
Ml,l (r) = Re Hl,l (r) = 2 |l |2 1 (19.134)
r
sustituyendo (19.134) en (19.133) resulta
k h i

~ |C|2 X
P = 2 (2l + 1) R02 2 |l |2 1
k R0
l=0
2
~k |C| X h i
P = (2l + 1) 1 |l |2 (19.135)
k2
l=0
492 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

la seccion eficaz total de absorcion abs es por tanto la probabilidad por unidad de tiempo P, dividida por la
corriente incidente ~k |C|2 /
X
h i
abs = 2 (2l + 1) 1 |l |2 (19.136)
k
l=0
vemos que si |l | = 1 para cada l, la seccion eficaz total de absorcion es cero. De acuerdo con (19.127), esto
corresponde al caso en el cual todos los corrimientos de fase l son reales y por tanto la dispersion es completamente
elastica, en cuyo caso el flujo neto de probabilidad que sale de la esfera de radio R0 es cero. La probabilidad total
transportada por la onda entrante es totalmente transferida a la onda saliente (no hay perdida de probabilidad,
y por tanto la probabilidad se conserva).
Notese que si l = 0, la contribucion de la onda parcial (l) a la seccion eficaz de absorcion es maxima. En este
caso, el calculo de (19.135) nos muestra que la expresion

~k |C|2
Pl (2l + 1)
k2
es la cantidad de probabilidad entrante por unidad de tiempo, que surge de la onda parcial (l). Si dividimos esta
cantidad por la corriente incidente ~k |C|2 /, obtenemos una superficie denominada seccion eficaz entrante
para la onda parcial (l).

l = 2 (2l + 1) (19.137)
k
la expresion (19.137) posee un analogo semi-clasico interesante. Podemos considerar que la onda incidente plana
describe un haz de partculas de densidad uniformep 9 , con momento ~ku . Que proporcion de estas partculas al-
3
canzan el potencial dispersor con momento angular l (l + 1)~?. Para verlo usaremos la relacion entre el momento
angular y el parametro de impacto en mecanica clasica Ec. (19.91)

kLk = b kpk = ~kb

si pintamos un anillo circular centrado en O y perpendicular al eje OZ,pde radio interior bl bl /2 y radio exterior
bl + bl /2, podemos ver que una partcula con momento angular ~ l (l + 1) tendra parametro de impacto bl
dado por p
~ l (l + 1) = ~kbl (19.138)
el anillo tiene radio promedio bl y ancho bl correspondiente a l = 1 (debido a la cuantizacion del numero
cuantico l) en la expresion (19.138). Todas
p las partculas que cruzan esta superficie alcanzan el potencial dispersor
con un momento angular dado por ~ l (l + 1) dentro de ~ [es decir dentro del intervalo (l 1, l + 1)]. De la Ec.
(19.138) podemos ver que10  
1p 1 1
bl = l (l + 1) l+ si l 1 (19.139)
k k 2
y por tanto
    
bl+1 bl1 1 1 1 1 1
bl = = (l + 1) + (l 1) +
2 2 k 2 k 2
1
bl =
k
9
Sin embargo debe tenerse cuidado con la analoga, ya que cuanticamente la onda plana representa una sola partcula, cuyo estado
se describe como la superposicion de muchas ondas parciales.
10
Si hacemos x = l1 y usamos la expansion
s  
1 1 1 1 1 1 2
+1 = + x+ x + ...
x x x 2 8 16

para x << 1, obtenemos (19.139).


19.6. COLISIONES CON ABSORCION 493

el area del anillo circular es por tanto


 
1 1 1
A 2bl bl 2 l+
k 2 k

A (2l + 1)
k2
con lo cual encontramos de nuevo l en forma simple.

19.6.2. Teorema optico


Cuando una colision da lugar a diversas reacciones o fenomenos de dispersion, la seccion eficaz total tot se
define como la suma de las secciones eficaces (integradas sobre todas las direcciones del espacio) correspondientes
a todos estos procesos. La seccion eficaz total es entonces el numero de partculas por unidad de tiempo que
participan en una u otra de las posibles reacciones, dividida por el flujo incidente. En el presente contexto, hemos
tratado todas las reacciones en forma global de modo que la seccion eficaz total es la suma de la seccion eficaz
elastica mas la absortiva
tot = el + abs
de las Ecs. (19.131, 19.136) se obtiene

X n h io
tot = 2 (2l + 1) |1 l |2 + 1 |l |2
k
l=0

teniendo en cuenta que


h i
|1 l |2 + 1 |l |2 = (1 l ) (1 l ) + 1 |l |2 = 1 l l + |l |2 + 1 |l |2
h i
|1 l |2 + 1 |l |2 = 2 2Re l

se obtiene

2 X 2 X
tot = (2l + 1) (1 Re l ) = (2l + 1) Re (1 l ) (19.140)
k2 k2
l=0 l=0
Por otro lado, teniendo en cuenta que r
2l + 1
Yl,0 (0) = (19.141)
4
podemos calcular la amplitud de dispersion elastica Ec. (19.129), en la direccion frontal ( = 0).
r
C Xp l 1 C Xp 2l + 1 Rel + i Iml 1
fk (0) = 4 (2l + 1) Yl,0 (0) = 4 (2l + 1)
k 2i k 4 2i
l=0 l=0

CX iRe l + Iml + i CX Iml + i (1 Re l )
fk (0) = (2l + 1) = (2l + 1)
k 2 k 2
l=0 l=0

la parte imaginaria de la amplitud de dispersion elastica en la direccion frontal, estara dada por

CX 1 Re l
Imfk (0) = (2l + 1) (19.142)
k 2
l=0

al comparar (19.142) con la Ec. (19.140) nos da


4
tot = Imfk (0)
Ck
494 CAPITULO 19. TEORIA CUANTICA DE LA DISPERSION II: ONDAS PARCIALES

esta relacion entre la seccion eficaz total y la parte imaginaria de la amplitud de dispersion elastica en la direccion
frontal es valida en un contexto muy general y se conoce como teorema optico.
Es claro que el teorema optico es valido en el caso especial de dispersion puramente elastica en el cual abs = 0
y tot = el . En este caso el hecho de que fk (0) (y por tanto la onda dispersada en la direccion frontal) este
relacionada con la seccion eficaz total se puede deducir de los argumentos de la seccion 18.6. En la direccion
frontal, tenemos una interferencia entre la onda plana incidente y la onda dispersada, tal interferencia nos da
cuenta de la atenuacion del haz transmitido, debido a la dispersion de partculas en todas las direcciones del
espacio.
Captulo 20

Teora estacionaria de perturbaciones

La ecuacion de Schrodinger para sistemas conservativos se resuelve por medio de la ecuacion de valores propios
del Hamiltoniano. Existen algunos problemas que involucran Hamiltonianos independientes del tiempo que se
pueden resolver analticamente en forma exacta, como ocurre con el oscilador armonico y el atomo de Hidrogeno.
Sin embargo, son pocos los problemas que en la practica se pueden resolver analticamente en forma exacta. Por
ejemplo, el atomo de Helio que consta de dos electrones no tiene solucion analtica exacta, y menos aun los atomos
de mas electrones. Cuando al atomo de Hidrogeno se le agregan las correcciones relativistas, tampoco se puede
resolver el problema en forma exacta.
Por esta razon, suele recurrirse a los metodos numericos computacionales. No obstante, existen algunos metodos
analticos para resolver el problema de valores propios. En este captulo estudiaremos uno de estos metodos
conocido como teora estacionaria de perturbaciones.
Este metodo se basa en una estrategia segun la cual comenzamos estudiando los efectos principales o dominantes
sobre el sistema fsico. Una vez que entendemos estos efectos, procedemos a enfocarnos en efectos mas pequenos
que fueron despreciados en la primera aproximacion. Es en el tratamiento de estos efectos secundarios en el
que la teora de perturbaciones entra en accion. En captulos subsecuentes veremos aplicaciones de la teora de
perturbaciones en fsica atomica y molecular.

20.1. Descripcion del problema


La teora de perturbaciones es aplicable cuando el Hamiltoniano H del sistema bajo estudio tiene la forma

H = H0 + W (20.1)

en donde H0 es el Hamiltoniano no perturbado que da cuenta de los efectos principales y cuyos valores y vectores
propios son conocidos. El termino W conocido como la perturbacion se asume mucho mas pequeno que H0 ,
lo cual significa que en la base de autoestados de H0 , los elementos matriciales de W son mucho mas pequenos
que los de H0 . De hecho, veremos mas adelante que se requiere una condicion mas fuerte, y es que los elementos
de matriz de W deben ser mucho menores que las diferencias entre los autovalores de H0 correspondientes. Para
hacer mas explcita esta pequenez escribiremos

c
W = W ; 1. (20.2)

siendo un parametro adimensional mucho menor que 1, y el operador W c tiene elementos matriciales comparables
a los de H0 . En nuestra presente formulacion asumiremos que tanto H0 como W son independientes del tiempo,
razon por la cual hablamos de teora estacionaria de perturbaciones. La idea es encontrar la forma en que W
cambia los niveles de energa y los estados estacionarios del sistema. La teora de perturbaciones consistira en
expandir estas cantidades en potencias de , conservando solo las primeras potencias. Consideraremos que los

495
496 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES


niveles de energa Ep0 asociados a H0 son conocidos y discretos, as como los estados estacionarios ip

H0 ip = Ep0 ip

y los estados estacionarios de H0 son ortonormales y completos


XX

hip jn = pn ij ; ip ip = 1
p i

sustituyendo (20.2) en (20.1) podemos considerar al Hamiltoniano H de perturbacion como una funcion contnua
del parametro , el cual regula la intensidad de la perturbacion
c
H () = H0 + W (20.3)

es obvio que H ( = 0) = H0 . Los autovalores perturbados E dependen de , y es claro que para = 0, el valor
propio E () debe coincidir con algun valor propio de H0 , digamos En0 . El valor propio perturbado E () puede
comportarse de diversas formas con respecto 0
i a . Por ejemplo, supongamos que un valor propio En de H0 es
degenerado, y esta asociado a los estados n . Si prendemos de forma contnua la perturbacion aumentando
contnuamente el parametro desde cero, es posible que la degeneracion se levante total o parcialmente, de manera
que varios niveles distintos de energa E () surgen a partir de En0 cuando se incrementa desde cero (ver Fig.
20.1). En la Fig. 20.1 se muestra que tambien es posible que la degeneracion se mantenga de modo que no se
separan varias curvas a partir de En0 cuando se incrementa . Adicionalmente, la Fig. 20.1 muestra que puede
ocurrir que las curvas que parten desde distintos niveles de energa no perturbados En0 y Ep0 se corten en algun
punto fijo 1 , en cuyo caso es la perturbacion la que esta generando una degeneracion.

Figura 20.1: Comportamiento de E () con respecto a para diferentes valores del nivel no perturbado. Las curvas
que parten de los niveles E10 y E20 corresponden a estados no degenerados. La curva de E30 , corresponde a un nivel
no perturbado doblemente degenerado, cuya degeneracion se levanta para 6= 0 por efecto de la perturbacion. El
nivel asociado a E40 es doblemente degenerado y la perturbacion conserva la degeneracion. Vemos ademas que dos
curvas asociadas a E20 y E30 se cruzan en = 1 produciendo una degeneracion accidental.

Dado que H () es un observable, el conjunto de todos sus kets propios linealmente independientes sera una
base para el espacio de estados. Cuando 0 todas las cantidades tienden a sus valores no perturbados.
20.2. SOLUCION APROXIMADA PARA LOS VALORES PROPIOS DE H () 497

20.2. Solucion aproximada para los valores propios de H ()


La ecuacion de valores propios perturbada es

H () | ()i = E () | ()i (20.4)

asumiremos que E () y | ()i se pueden expandir en potencias de , de la forma

E () = 0 + 1 + 2 2 + . . . + q q + . . . (20.5)
2 q
| ()i = |0i + |1i + |2i + . . . + |qi + . . . (20.6)

por supuesto es necesario garantizar la convergencia de estas series. En la practica, estas series convergen rapida-
mente para una gran cantidad de problemas fsicos siempre que 1. Si sustitumos estas expansiones al igual
que la definicion (20.3) en la ecuacion de valores propios perturbada (20.4) tenemos que
" #
  X X X
H0 + W c q |qi = m m q |qi (20.7)
q=0 m=0 q=0

ahora bien, esta ecuacion debe ser valida para pequeno pero por lo demas arbitrario. Por tanto, debemos igualar
coeficientes asociados a la misma potencia en la Ec. (20.7). En la practica, nos interesa simplificar el problema
tomando solo algunos terminos en las series dadas en la Ec. (20.7). Puesto que se deben igualar coeficientes
asociados a potencias iguales de en ambos miembros de la Ec. (20.7), es necesario asegurarse de incluir todas
las contribuciones que se generan para cada potencia de . Si nos interesa incluir los terminos hasta un potencia
p , entonces debemos convertir cada serie de (20.7) en una sumatoria desde q = 0 hasta q = p, y al realizar las
multiplicaciones no se consideraran los terminos con potencias mayores a p.
De las anteriores consideraciones, si queremos calcular las contribuciones a orden cero (para potencias hasta
) debemos reemplazar las series en (20.7) por las sumatorias1
0

" 0 # 0
X0 X X
H0 q |qi = m m q |qi
q=0 m=0 q=0

H0 |0i = 0 |0i a orden cero en (20.8)

a primer orden en , la Ec. (20.7) queda en la forma


" 1 # 1
  X 1 X X
H0 + Wc q |qi = m m q |qi
q=0 m=0 q=0
 
H0 + W c [|0i + |1i] = [0 + 1 ] [|0i + |1i]
 
c |0i + O 2 = 0 |0i + 1 |0i + 0 |1i + O 2
H0 |0i + H0 |1i + W

donde O 2 denota terminos de orden cuadratico en o mayor. A primer orden en tenemos entonces

H0 |0i 0 |0i + H0 |1i 0 |1i + Wc |0i 1 |0i = 0 , a primer orden en


H0 |1i 0 |1i + Wc |0i 1 |0i = 0 , a primer orden en
 
(H0 0 ) |1i + Wc 1 |0i = 0 , a primer orden en (20.9)

1 c a orden cero es simplemente H0 , ya que el otro termino es de primer orden en .


As mismo, el Hamiltoniano H0 + W
498 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

donde hemos usado la expresion (20.8) a orden cero. En el metodo perturbativo, es importante que las condiciones
que impongamos sean validas en cada orden, por esta razon asumimos que la condicion (20.8) obtenida a orden
cero, sigue siendo valida a primer orden. Para la aproximacion de segundo orden la Ec. (20.7) queda
" 2 # 2
  X 2 X X
H0 + Wc q |qi = m m q |qi
q=0 m=0 q=0
     
c
|0i + |1i + 2 |2i = 0 + 1 + 2 2 |0i + |1i + 2 |2i
H0 + W

c |0i + 2 W
H0 |0i + H0 |1i + 2 H0 |2i + W c |1i + O 3 = 0 |0i + 1 |0i + 2 2 |0i + 0 |1i

+2 1 |1i + 2 0 |2i + O 3

a segundo orden en resulta entonces


h   i n   o
[(H0 0 ) |0i] + (H0 0 ) |1i + Wc 1 |0i + 2 (H0 0 ) |2i + Wc 1 |1i 2 |0i = 0 (20.10)

una vez mas tenemos en cuenta que las expresiones obtenidas a orden cero y uno, tambien deben ser validas a
segundo orden2 . Por tanto, los terminos entre parentesis cuadrados se anulan en virtud de las ecuaciones (20.8,
20.9), quedando  
(H0 0 ) |2i + W c 1 |1i 2 |0i = 0 ; a segundo orden en (20.11)
el lector puede comprobar que a un orden arbitrario q en se obtiene la ecuacion
 
(H0 0 ) |qi + Wc 1 |q 1i 2 |q 2i . . . q |0i = 0 ; q esimo orden en (20.12)

En este contexto estudiaremos las contribuciones hasta de segundo orden en . Puesto que la ecuacion (20.4)
solo define a los kets | ()i dentro de un factor constante, fijaremos su valor exigiendo que todos los | ()i esten
normalizados. Adicionalmente, escogeremos su fase de tal modo que se cumpla la condicion

h0 | ()i R (20.13)

es decir elegimos que | ()i este en fase con |0i para todo . De nuevo la relacion (20.13) as como la condicion
de normalizacion, deben ser validas a todos los ordenes en teora de perturbaciones. En particular, a orden cero la
Ec. (20.6) implica que | ()i |0i, de modo que la condicion de normalizacion de | ()i a orden cero requiere
que el ket |0i este normalizado
k|0ik2 = h0 |0i = 1 (20.14)
sin embargo, la fase de |0i aun permanece arbitraria. Mas adelante veremos como fijar la fase de este ket. De
acuerdo con la Ec. (20.6), a primer orden la norma al cuadrado de | ()i esta dada por

k| ()ik2 = h () | ()i = [h0| + h1|] [|0i + |1i] + O 2

= h0 |0i + [h0 |1i + h1 |0i] + O 2

usando (20.14) vemos que | ()i estara normalizado a primer orden si

h0 |1i + h1 |0i = 0 (20.15)

Ahora aplicamos la convencion de fases (20.13) a primer orden

h0| [|0i + |1i] = h0 |0i + h0| 1i = 1 + h0| 1i R


2
Alternativamente podemos decir que un serie de potencias en solo puede ser cero para arbitrario, si los coeficientes de cada
potencia de son cero. Por tanto los coeficientes asociados a 0 , y 2 en la Ec. (20.10) deben ser cada uno igual a cero.
20.2. SOLUCION APROXIMADA PARA LOS VALORES PROPIOS DE H () 499

y puesto que es real, h0 |1i es real de modo que h0 |1i = h1 |0i. Este hecho junto con la Ec. (20.15) nos da

h0 |1i = h1 |0i = 0 (20.16)

para segundo orden podemos hacer un procedimiento similar


   
k| ()ik2 = h () | ()i = h0| + h1| + 2 h2| |0i + |1i + 2 |2i + O 3

= h0 |0i + [h0 |1i + h1 |0i] + 2 [h2 |0i + h0 |2i + h1 |1i] + O 3

aplicando las Ecs. (20.14, 20.16) (que son producto de la exigencia de normalizacion de | ()i y convencion de
fase a orden cero y uno) nos da

k| ()ik2 = 1 + 2 [h2 |0i + h0 |2i + h1 |1i] + O 3

la convencion de fase (20.13) a segundo orden junto con la Ec. (20.16) nos llevan a
 
h0| |0i + |1i + 2 |2i = h0 |0i + h0| 1i + 2 h0| 2i = 1 + 2 h0| 2i R

y puesto que es real, se tiene que h0| 2i es real. Esto junto con la exigencia de normalizacion para | ()i a
segundo orden, nos da

h2 |0i = h0 |2i h2 |0i + h0 |2i + h1 |1i = 0


;
1
h2 |0i = h0 |2i = h1 |1i (20.17)
2
y a orden q se obtiene la condicion
1
h0 |qi = hq |0i = [hq 1 |1i + hq 2 |2i + . . . + h2 |q 2i + h1 |q 1i] (20.18)
2
En resumen, si tenemos un Hamiltoniano dado por
c
H = H0 + W H0 + W (20.19)

La ecuacion de valores propios perturbada es

H () | ()i = E () | ()i (20.20)

y si asumimos que el espectro E () y los kets propios | ()i de H se pueden expandir como una serie de potencias
en

X
E () = 0 + 1 + 2 2 + . . . + q q + . . . = q q (20.21)
q=0

X
2 q
| ()i = |0i + |1i + |2i + . . . + |qi + . . . = q |qi (20.22)
q=0

las ecuaciones perturbativas a diversos ordenes en viene dadas por

H0 |0i = 0 |0i , orden cero en (20.23)


 
(H0 0 ) |1i + W c 1 |0i = 0 , primer orden en (20.24)
 
(H0 0 ) |2i + Wc 1 |1i 2 |0i = 0 , segundo orden en (20.25)
 
(H0 0 ) |qi + Wc 1 |q 1i 2 |q 2i . . . q |0i = 0 ; q esimo orden en (20.26)
500 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

as mismo se exige que | ()i este normalizado y que cumpla la convencion de fase

h0 | ()i R (20.27)

la exigencia de que tanto la normalizacion como la convencion de fase deben cumplirse a cada orden en teora de
perturbaciones, nos lleva a las siguientes condiciones

k|0ik2 = h0 |0i = 1 (20.28)


h0 |1i = h1 |0i = 0 (20.29)
1
h2 |0i = h0 |2i = h1 |1i (20.30)
2
1
h0 |qi = hq |0i = [hq 1 |1i + hq 2 |2i + . . . + h2 |q 2i + h1 |q 1i] (20.31)
2
Las ecuaciones de perturbacion hasta segundo orden son por tanto (20.23, 20.24, 20.25) y con nuestra conven-
cion de normalizacion y de fases deben agregarse las Ecs. (20.28, 20.29, 20.30). La ecuacion (20.23) nos dice que
|0i es un autovector de H0 con valor propio 0 . Por tanto, 0 es parte del espectro de H0 , esto era de esperarse
ya que cuando 0 cada autovalor de H () se convierte en un autovalor de H (0) = H0 . En consecuencia,
escogiendo un 0 particular, es decir un cierto autovalor En0 de H0 , podemos calcular E ().
Como ya mencionamos, es posible que diferentes valores de E () converjan en el mismo valor 0 = En0 . Consi-
deremos el conjunto de autoestados linealmente independientes de H () correspondientes a los varios autovalores
que converjen en un mismo valor propio En0 de H0 cuando 0. Estos autoestados expanden un subespacio
vectorial cuya dimension no puede cambiar discontnuamente cuando se barre de manera contnua en la vecindad
derecha de cero. Por tanto, esta dimension debe ser independiente de y en particular se puede calcular en = 0.
De esto se concluye que la dimension de este espacio es el grado de degeneracion gn de En0 . En particular, si En0 es
no degenerado, solo generara un autovalor E () de H (), de modo que esta energa tampoco estara degenerada.
Estudiaremos primero el caso en el cual el nivel asociado de H0 es no degenerado.

20.3. Perturbacion de un nivel no degenerado


Consideremos un nivel no degenerado En0 correspondiente a un autoestado |n i que es unico salvo un factor
constante. La idea es determinar la modificacion que la perturbacion W hace sobre el nivel En0 y el autoestado
|n i. Para calcularlo utilizamos las ecuaciones (20.23, 20.24, 20.25), junto con las convenciones de normalizacion
y fase (20.28, 20.29, 20.30). Para el autovalor de H () cuando 0 es claro que

0 = En0 (20.32)

esta ecuacion junto con (20.23) implican que |0i debe ser proporcional a |n i 3 . Puesto que ambos vectores estan
normalizados es natural escoger
|0i = |n i (20.33)
de modo que cuando 0 encontraremos el autoestado sin perturbar |n i (con la misma norma y la misma
fase)4 .
Denominamos E () al valor propio de H () que toma el valor de En0 cuando 0. Asumiremos que es
suficientemente pequeno para que permanezca no degenerado para todo , recordemos que es posible que las curvas
de E () vs asociadas a dos estados no perturbados distintos En0 y Ep0 se crucen en algun punto 1 produciendo
una degeneracion accidental (ver Fig. 20.1, Pag 496). En tal caso debemos imponer que < 1 . Comenzaremos
con la correccion de la energa a primer orden.
3
Notese que esta afirmacion depende del caracter no degenerado de En0 , ya que de lo contrario el ket asociado a tal valor propio no
es unico.
4
Recordemos que la fase del ket |0i estaba aun sin determinar. La Ec. (20.33), nos determina dicha fase.
20.3. PERTURBACION DE UN NIVEL NO DEGENERADO 501

20.3.1. Correccion de primer orden para la energa


Calculando la proyeccion de la Ec. (20.24) sobre el autoestado |n i, se obtiene
 
hn | (H0 0 ) |1i + hn | Wc 1 |0i = 0
  
hn | En0 En0 |1i + hn | W c 1 |n i = 0
 
hn | Wc 1 |n i = 0

donde hemos usado las Ecs. (20.32, 20.33), as como el hecho de que H0 puede actuar sobre el bra debido a su
caracter hermtico. Esta ecuacion se puede reescribir como

c |n i
1 = hn | W (20.34)

Sustituyendo (20.32) y (20.34) en (20.21) resulta

c |n i = En0 + hn | W |n i
En () = En0 + hn | W (20.35)

con lo cual cuando el estado no perturbado En0 es no degenerado, el autovalor E () de H asociado a En0 puede
escribirse a primer orden en la perturbacion W = Wc en la forma (20.35). Vemos que la correccion a primer
0
orden de un nivel no degenerado En es igual al valor esperado del termino de perturbacion W en el estado no
perturbado |n i.

20.3.2. Correccion de primer orden para el autovector


Para obtener la informacion completa contenida en la ecuacion
de perturbacion, tenemos que realizar las
proyecciones de la i
Ec. (20.24) sobre todos los autoestados p de H0 . Realizando estas proyecciones sobre todos
los vectores ip diferentes a |n i se obtiene


 
c 1 |0i = 0 ;
ip (H0 0 ) |1i + ip W (p 6= n)

i 0 


p Ep En0 |1i + ip W c |n i 1 ip n i = 0 ; (p 6= n) (20.36)

donde hemos usado las Ecs. (20.32, 20.33). El ndice i indica que otros valores propios pueden
ser degenerados.
Puesto que vectores propios asociados a valores propios distintos son ortogonales, se tiene que ip n i = 0. Por
tanto, la Ec. (20.36) queda



Ep0 En0 ip 1i + ip W
c |n i = 0 ; (p 6= n)

esto nos da los coeficientes de Fourier de la expansion de |1i sobre toda la base no perturbada excepto |n i



ip W
c |n i
ip 1i =  ; (p 6= n)
En0 Ep0

el coeficiente hn | 1i es cero en virtud de la condicion (20.29) y de la Ec. (20.33)

h0| 1i = hn | 1i = 0 (20.37)

puesto que conocemos la expansion de |1i en la base ip el vector se puede escribir en esta base en la forma


XX
X X ip W c |n i
|1i = p p 1i =
i i p
i  (20.38)
E 0 E0
p i p6=n i n p
502 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

y aplicando (20.22) vemos que el autovector |n ()i de H asociado a el estado no perturbado |n i, se escribe a
c en la forma
primer orden en la perturbacion W = W


X X ip Wc |n i 
|n ()i = |n i + i
p  + O 2 (20.39)
0
En Ep0
p6=n i

la correccion a primer orden del vector de estado es una superposicion de todos los estados no perturbados
excepto su autoestado no perturbado asociado. Se dice entonces que la perturbacion
W produce una mezcla del
estado |n i con los otros autoestados de H0 . La contribucion de un estado ip sera nula si el elemento matricial

i

c |n i es cero. En general la mezcla con el estado i aumenta con el aumento del acople i W
p W c |n i entre
i p p
0 0
los estados |n i y p , y tambien aumenta al disminuir el desdoblamiento En Ep entre los niveles asociados.
De la discusion anterior y la Ec. (20.39) se desprende que no es suficiente que los elementos matriciales de W
sean mucho menores que los de H0 , para que la contribucion de W sea pequena. Para que la correccion de primer
orden al vector de estado sea pequena, es necesario ademas que los elementos no diagonales de la matriz W sean
mucho mas pequenos que el desdoblamiento de los niveles de energa asociados.

20.3.3. Correccion de segundo orden para la energa


Para calcular 2 se proyecta la ecuacion (20.25) asociada al segundo orden con el ket |n i, aplicando ademas
las Ecs. (20.32, 20.33, 20.37)
 
hn | (H0 0 ) |2i + hn | Wc 1 |1i 2 hn |0i = 0

hn | En0 En0 |2i + hn | Wc |1i 1 hn | 1i 2 hn |n i = 0
c |1i = 2
hn | W (20.40)

Sustituyendo (20.38) en (20.40) se obtiene





X X ip W c ip ip W
c |n i X X hn | W c |n i
2 c |1i = hn | W
= hn | W c ip  = 
p6=n i
En0 Ep0 p6=n i
En0 Ep0

2
c |n i
X X ip W
2 =  (20.41)
E 0 E0
p6=n i n p

reemplazando (20.32, 20.34, 20.41) en (20.21) tenemos a segundo orden



2
i c
 XX p W | i
n 
2 3 0
En () = 0 + 1 + 2 + O = En + hn | W c |n i + 2  + O 3
0
En Ep0
p6=n i


X X ip W |n i 2 
0  + O 3
En () = En + hn | W |n i + 0 0
(20.42)
p6=n i
En Ep

notese que la correccion a segundo orden de la energa


i (no degenerada) asociada al estado
no perturbado |n i,
contiene contribuciones de todos los otros estados . La contribucion del estado i tiene el signo del desdo-
 p
p
blamiento En0 Ep0 . Ademas tal contribucion crece con el tamano del acople ip W |n i y con la disminucion
del desdoblamiento En0 Ep0 .
20.3. PERTURBACION DE UN NIVEL NO DEGENERADO 503

20.3.4. Correccion de segundo orden para el estado


La expresion a segundo orden
i para el autovector de H () se puede obtener proyectando la Ec. (20.25) sobre
el autoestado no perturbado p y utilizando las condiciones (20.30). De esta manera se obtiene el ket |2i con el
cual se calcula | ()i a segundo orden por medio de la ecuacion (20.22). Se deja este procedimiento como ejercicio
para el lector.
Por otro lado, puede verse de la Ec. (20.35), que la correccion a primer orden de la energa depende de la
correccion a orden cero del autoestado (es decir del autoestado no perturbado). Similarmente, la Ec. (20.42)
muestra que la correccion a segundo orden de la energa depende de la correccion a primer orden al autoestado,
por esta razon las Ecs. (20.38, 20.41) son muy similares. Este hecho se puede generalizar: si se proyecta la Ec.
(20.26) sobre |n i, el primer termino se anula, con lo cual q estara en terminos de las correcciones de orden q 1,
q 2,. . . del autovector. Por esta razon, es usual que se haga la correccion hasta orden q de la energa y hasta
orden q 1 en el autovector. En esta tonica, nosotros calcularemos en el presente texto correcciones hasta de
primer orden en el autoestado y hasta de segundo orden en la energa.

20.3.5. Cota superior para 2


Cuando se calcula la correccion perturbativa de la energa a primer orden, podemos encontrar una cota superior
para la correccion de segundo orden que nos da una idea aproximada del error cometido. Definiremos E como el
valor absoluto de la diferencia entre el nivel En0 que se pretende corregir, con el nivel no perturbado mas cercano.
Por definicion tenemos entonces que 0
En Ep0 E ; p 6= n (20.43)
de las Ecs. (20.41, 20.43) obtenemos entonces una cota superior para 2
1 X X
i c 2
1 XX

c i i W
c |n i
|2 |
p W | i
n = hn | W p p
E E
p6=n i p6=n i

1 XX

|2 | c
hn | W ip ip W
c |n i (20.44)
E
p6=n i

en virtud de la completez de ip tenemos
XX

|n i hn | + i i = 1 (20.45)
p p
p6=n i

sustituyendo (20.45) en (20.44) queda


1 h i
|2 | c [1 |n i hn |] W
hn | W c |n i = 1 hn | W c 2 |n i hn | W
c |n i hn | W
c |n i
E  E
1 2   2
|2 | hn | W c |n i = 1 W
c 2 |n i hn | W c
E E n
2 1
2 (W )2n (20.46)
E
donde (W )2n es la desviacion media cuadratica del observable W evaluada en el estado |n i asociada al nivel (no
degenerado) de energa En0 cuya correccion se esta evaluando. La Ec. (20.46) nos da una idea del orden de magnitud
de la correccion de segundo orden y por tanto del error cometido al considerar solo la correccion de primer orden.
Debe advertirse sin embargo, que esta desigualdad solo nos da informacion sobre el orden de magnitud de la
correccion a segundo orden y no de los ordenes superiores. Solo si el comportamiento perturbativo es bueno (de
modo que los ordenes superiores son mucho menores) podemos decir que este orden de magnitud corresponde a
un estimado aproximado del error total.
504 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

20.4. Perturbacion de un nivel degenerado


Asumamos 0
 i que el nivel En tiene degeneracion de grado gn de modo que hay gn vectores linealmente indepen-

dientes n que son vectores propios asociados a En y que expanden un subespacio En0 del espacio orbital y de
0

dimension gn . En este caso la escogencia


0 = En0
no es suficiente para determinar al ket |0i, ya que la Ec. (20.23) se satisface para cualquier combinacion lineal de
autovectores de En0 . Por el momento solo podemos decir que |0i es un ket del autosubespacio En0 . Veremos que bajo
la perturbacion W , el nivel En0 genera varios subniveles, siendo el numero de subniveles menor o igual a gn . Si el
numero fn de subniveles es menor que gn , algunos de estos niveles deben estar degenerados puesto que el numero
total de vectores ortogonales de H asociados con los fn subniveles debe ser siempre igual a gn . Nos limitaremos
en esta discusion al calculo del autoestado a orden cero y de la energa a primer orden. 
Para determinar 1 y |0i comenzamos proyectando la ecuacion (20.24) sobre los gn autovectores in , de lo
cual se obtienen las relaciones

i
 
n (H0 0 ) |1i + in W
c 1 |0i = 0

i 0 


n En En0 |1i + in W c |0i 1 i 0i = 0
n

i

n W |0i = 1 in 0i
c

al
insertar
E un operador identidad y teniendo en cuenta que |0i debe ser ortogonal a cualquier vector de la forma
j
p con p 6= n (ya que |0i En0 y por tanto es ortogonal a Ep0 con p 6= n), nos queda
gp
XX
j j

in W
c h |0i = 1 i 0i
p p n
p j=1
gn
X
j j

in W
c n hn |0i = 1 in 0i (20.47)
j=1


j E
c n como elementos de una matriz gn gn con ndice de fila i e ndice
ahora consideramos las cantidades in W

j E
de columna j. Las cantidades in W
c p son los elementos de la representacion matricial del operador W c en

j E
la base ip del espacio Er . Por tanto, los elementos in Wc n corresponden a la restriccion (o submatriz)

correspondiente al subespacio En0 de Er . Denotaremos esta submatriz como W c (n) . Notese entonces que la Ec.
(n)
k
(20.47) nos dice que el vector columna definido por k = n 0i que pertenece a En0 , es autovector de W
c (n) con
(n) 
autovalor 1 . Por supuesto k es la representacion del vector |0i en la base ip 5 . La Ec. (20.47) se puede
escribir entonces
c (n) (n) = 1 (n)
W (20.48)
ij j i

En vista de lo anterior, si definimos W c (n) como la restriccion del operador W


c al subespacio En0 (ver seccion
1.33, Pag. 74 y Ec. 1.129), podemos ver la Ec. (20.47) como una ecuacion de valores propios para dicho operador
restringido en el espacio En0 . La Ec. (20.47) puede escribirse tambien en la forma
c (n) |0i = 1 |0i
W (20.49)

debe enfatizarse sin embargo, que la restriccion W c (n) del operador Wc al subespacio E 0 es diferente del operador
n
0
en s, y que la ecuacion (20.49) esta definida en En y no en el espacio orbital completo Er .

5
Notese que el vector |0i pertenece a En0 de modo que las componentes asociadas a cada ip con p 6= n, son nulas. En este sentido,
la restriccion del vector |0i al subespacio En0 , coincide con el vector en s.
20.4. PERTURBACION DE UN NIVEL DEGENERADO 505

Por tanto, para calcular los autovalores a primer orden y los autoestados a orden cero del Hamiltoniano asociado
a un estado no perturbado degenerado En0 , debemos diagonalizar la matriz W c (n) que representa la restriccion del
operador de perturbacion W c al subespacio En de dimension gn generado por el autovalor En0 . La Ec.(20.49) o
0

equivalentemente la Ec. (20.48) nos generan un polinomio caracterstico de grado gn , con gn races reales (ya que
(1)
la restriccion de un operador hermtico tambien es un operador hermtico6 ). Definamos j1 con j = 1, 2, . . . , fn
(1) c (n) . De acuerdo con el teorema fundamental
como las fn races distintas de la ecuacion caracterstica para W
del algebra, la suma de las degeneraciones de estas races debe ser gn . En otras palabras, si el valor propio j1 tiene
degeneracion bj tenemos que
(1)
fn
X
bj = gn ; fn(1) gn (20.50)
j=1

cada autovalor j1 para j dado introduce una correccion diferente al nivel de energa. Usando la Ec. (20.21) vemos
que
En,j () = En0 + j1 ; j = 1, 2, . . . , fn(1) gn (20.51)
que nos muestra que bajo la influencia de la perturbacion W = W c , el nivel degenerado se desdobla a primer orden
(1)
en fn subniveles distintos dados por la Ec. (20.51). Cada subnivel En,j () tendra una degeneracion bj y se debe
(1)
cumplir la relacion (20.50). En particular, si fn = gn , se dice que a primer orden, la perturbacion W remueve
por completo la degeneracion de En0 , ya que en este caso bj = 1 para todo j y los subniveles seran no degenerados.
(1)
Si fn < gn , habra por lo menos un bj tal que bj > 1, de modo que la degeneracion solo se remueve parcialmente.
(1)
Finalmente, sin fn = 1, el grado de degeneracion no cambia en lo absoluto, y solo aparece correccion a En0 pero
no hay subniveles distintos asociados a el.
Ahora nos ocuparemos de la determinacion del vector |0i. Para ello, nos enfocamos en un j1 fijo. Si este
autovalor es no degenerado, el autovector |0i asociado por medio de (20.49) es unico salvo un factor constante.
Existe entonces un unico autovalor E () de H () dado por (20.51), de modo que En,j () es no degenerado. Por
otro lado, si el autovalor j1 es bj degenerado (con bj > 1), entonces la Ec. (20.49) solo nos dice que el autovector
(1)
asociado |0i, pertenece al subespacio En,j En0 , de dimension bj gn .
Es notable la simplificacion del problema de calcular las energas degeneradas por metodo perturbativo es-
tacionario a primer orden. Para verlo, notese que para una energa no perturbada dada En0 , hemos cambiado
el problema de diagonalizar el Hamiltoniano de perturbacion W en un espacio de dimension infinita Er , por el
problema de diagonalizar la restriccion de este operador en el autoespacio En0 de dimension finita gn , generado por
En0 . En particular, si el nivel no es degenerado el autosubespacio asociado es de dimension 1, y no es necesaria
ninguna diagonalizacion.

20.4.1. Comportamiento de subniveles degenerados a mas alto orden en perturbaciones


Cuando un determinado autovalor j1 tiene degeneracion de grado bj > 1 en un calculo perturbativo a primer
orden, es natural preguntarse si esta degeneracion es esencial, o si solo es caracterstica de la aproximacion de
primer orden en . Para verlo, debemos examinar el calculo a mas altos ordenes en . Pueden ocurrir dos casos.

1. Supongamos que hay una sola energa exacta E (), que es igual a primer orden a En0 + j1 y que esta
energa es bj degenerada (en la Fig. 20.1 correspondera a la energa E () que parte desde E40 , la cual tiene
degeneracion doble para todo ). Por tanto, para todo valor de tenemos un autosubespacio de dimension
bj generado por E (), de modo que la degeneracion que aparece a primer orden no se removera a ningun
orden en y es una degeneracion esencial. En tal caso, el vector a orden cero |0i no puede especificarse
completamente, puesto que la unica condicion impuesta sobre tal vector es que pertenezca a un subespacio
que es el lmite cuando 0, del autoespacio bj dimensional de H () asociado a E (). Este sera el
6
Esto se puede ver de la definicion (1.129) Pag. 75, y del caracter hermtico de los operadores proyeccion.
506 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

(1) c (n) asociado al autovalor j escogido. Este caso surge usualmente cuando H0 y W
autoespacio En,j de W 1
poseen propiedades de simetra comunes, que implican una degeneracion esencial en H (), que por tanto
debe prevalecer a todos los ordenes de perturbacion en .

2. Para un valor fijo de n y j, puede ocurrir que varias energas distintas En,j,k () coincidan entre s, en una
aproximacion de primer orden. Por tanto, la diferencia entre estas energas solo aparece en un calculo a
(1)
segundo orden o mas alto. En tal caso, el subespacio En,j obtenido a primer orden es solo la suma directa
de los lmites cuando 0 de varios autosubespacios asociados a estas energas distintas En,j,k ()

(1) (1) (1) (1)


En,j = En,j,1 En,j,2 . . . En,j,knj

Donde knj denota el numero de energas distintas que surgen a mas alto orden en teora de perturbaciones
(1)
para valores dados de n y j. Por supuesto, es posible que uno o mas de los autoespacios En,j,p sea de mas de
(1)
una dimension (es decir que knj sea menor que la dimension del subespacio En,j ), en cuyo caso la degeneracion
se ha reducido pero no se ha removido completamente a ningun orden en teora de perturbaciones. En vista
de lo anterior, todos los autovectores de H () asociados a estas energas En,j,k () (con n y j fijos) seran
(1) (1)
kets de En,j , pero no necesariamente un ket de En,j correspondera a el lmite |0i de un autoestado de H ().
Cuando este es el caso, las correcciones de segundo o mas orden no solo aumentan la precision con que se
calculan las energas, sino que permiten determinar los kets de orden cero7 |0i. En la practica sin embargo,
se suele utilizar solo la informacion parcial contenida en (20.49) a primer orden.

20.5. Consideraciones generales sobre teora estacionaria de perturbaciones


La diagonalizacion
 del problema de valores propios (20.49) restringida al autosubespacio En0 requiere encontrar
ED 

una base canonica jn en donde el operador W (n) adquiera forma diagonal. Con este proposito, es conve-
niente tomar como punto de partida una base que simplifique al maximo la forma matricial del operador W (n) .
Para este fin, es usual emplear observables que conmuten tanto con H0 como con W (aunque en general H0 y W
no conmutan  entre
s). 0Supongamos que tenemos un observable A que conmuta con H0 y W . Es posible encontrar
una base in de En de autoestados comunes a H0 y A. Por otro lado, debido a que A conmuta con W , el
teorema 1.68, Pag. 58 nos dice que los elementos matriciales de W son cero entre autovectores de A asociados a
autovalores distintos. En tal caso, la matriz W (n) contendra bastantes ceros, lo cual facilita la diagonalizacion. En
particular si H0 y W conmutan, se puede buscar una base de vectores propios comunes a ambos para diagonalizar
a W y no sera necesario el uso de un observable extra.
Para el caso de niveles degenerados al igual que para el caso no degenerado, el estudio de las correcciones
perturbativas a mas alto orden, revela que este metodo es valido solo si los elementos matriciales de W son mucho
menores que las diferencias entre las energas del nivel bajo estudio y aquellas asociadas a los otros niveles. No
obstante, es posible extender este metodo al caso en el cual hay un grupo de niveles no perturbados muy cercanos
entre s (pero diferentes) y que esta lejos de los demas niveles del sistema. Esto significa que los elementos
matriciales de W son del mismo orden de magnitud que las diferencias de energa dentro del grupo, pero son en
general mucho menores que las diferencias entre un nivel fuera del grupo y un nivel dentro del grupo. En esta
situacion, podemos determinar la influencia de W , diagonalizando la matriz que representa a H = H0 + W dentro
del grupo de niveles cercanos. Esta fue la linea de razonamientos utilizada en el captulo 17 para estudiar sistemas
de dos estados.

7 (1)
Por supuesto la determinacion unvoca de estos kets |0i solo es posible para los autosubespacios En,j,p que son unidimensionales.
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO 507

20.6. Perturbaciones estacionarias sobre el oscilador armonico


Ilustraremos la teora de perturbaciones estacionaria considerando el efecto de potenciales proporcionales a x,
x2 y x3 , sobre el oscilador armonico unidimensional. Este es un caso de perturbaciones sobre estados no degenerados
(mas adelante veremos aplicaciones en Fsica Atomica para el caso degenerado). Los primeros dos casos se pueden
solucionar de manera exacta y nos serviran mas para probar la consistencia del metodo. El caso de potencial
proporcional a x3 es muy importante, dado que si hacemos la expansion de Taylor de un potencial V (x) alrededor
de un mnimo local de dicho potencial, el primer termino no trivial es el termino armonico (proporcional a x2 ) y el
siguiente termino no trivial es proporcional a x3 , razon por la cual lo denominamos primer termino anarmonico. Por
tanto, este suele ser el termino dominante cuando queremos estudiar las desviaciones de los fenomenos vibratorios
(clasicos o cuanticos) con respecto al comportamiento armonico.

20.6.1. Orden de magnitud de los observables no perturbados


Antes de introducir la perturbacion, conviene determinar el orden de magnitud de algunos observables asociados
al problema no perturbado, con el fin de parametrizar la perturbacion adecuadamente. Nuestro Hamiltoniano no
perturbado sera el asociado al oscilador armonico simple unidimensional
P2 1
H0 = + m 2 X 2
2m 2
las energas no perturbadas seran entonces
 
1
En0 = n+ ~ ; n = 0, 1, 2, 3, . . .
2
b es del orden de uno.
teniendo en cuenta las Ecs. (8.3, 8.5) Pag. 271, veremos que el operador adimensional X
Puesto que el Hamiltoniano no perturbado H0 claramente es del orden de ~ (orden de magnitud de sus valores
propios), la Ec. (8.5) nos dice que
H 1
b 0 b b 2 b2
H0 = 1 ; H 0 X + P 1 (20.52)
~ 2
b 2 y Pb2 podemos sustituir estos operadores adimensionales por sus valores
para estimar el orden de magnitudDde EX D E
esperados teniendo en cuenta que X b = Pb = 0 segun la Ec. (8.54). Por tanto
D E  2 D E  2
b 2 = X
X b ; Pb2 = Pb

utilizando las definiciones (8.3) y las Ecs. (8.64) resulta


D E m   D E (P )2 
b 2 2 m 1 ~ b 2 n + 12 m~
X = (X) = n+ ; P = =
~ ~ 2 m m~ m~
para valores no muy grandes de n (i.e. estados no muy excitados), podemos escribir
D E   D E 1
b m 1 ~ 1 m~ 1
X 2
= ; Pb2 2 =
~ 2 m 2 m~ 2
D E D E 1
b2
X Pb2 (20.53)
2
D E D E
sustituyendo X b 2 Pb2 en (20.52) resulta
1 D E D E D E
b b 2 + Pb2 b2 1
H0 X X (20.54)
2
508 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

esta aproximacion es consistente con la obtenida en la Ec. (20.53) si tenemos en cuenta que solo es una estimacion
del orden de magnitud. Tomaremos entonces la aproximacion8
rD E
b b2 1 ; O b X,
b Pb, H b0
O O

20.6.2. Parametrizacion de la perturbacion al oscilador con potencial lineal adicional


En virtud de las estimaciones anteriores, parametrizaremos la perturbacion lineal en la forma

W = ~ X b = m~ X (20.55)

esta forma de parametrizar la perturbacion es muy logica ya que el operador X b es del orden de uno y ~ es del
orden de H0 , de modo que W c ~ X b es del orden de H0 , que es lo que se busca para el operador W
c . Por tanto,
c
la expansion perturbativa con W = W funciona solo si 1 para asegurar que W H0 . El Hamiltoniano
completo es entonces
2
H = H0 + W = H0 + W c = P + 1 m 2 X 2 + ~ X b
2m 2
sin embargo, debemos tener presente que las estimaciones en orden de magnitud que se hicieron solo son validas
si el numero cuantico n no es mucho mayor que uno. Por tanto, para estados altamente excitados es posible que
las predicciones de la expansion perturbativa fallen.

Solucion exacta del oscilador con potencial lineal adicional


Para encontrar la solucion exacta, podemos utilizar los resultados de la seccion 8.9, en la cual se estudio el
oscilador armonico simple unidimensional sometido a un campo electrico uniforme E, cuyo potencial asociado es
de la forma W = qEX. Comparando tal potencial con la Ec. (20.55) vemos que la solucion se obtiene con el
reemplazo
qE
qE m~ (20.56)
m~
empleando la definicion (20.56) en la ecuacion (8.82) el espectro del oscilador con potencial lineal adicional queda
 2
  m~
1
En () = ~
n+
2 2m 2
 
1 ~
En () = n+ ~ 2 (20.57)
2 2

Por otro lado, la Ec. (8.98), Pag. 292, se puede reescribir en terminos de operadores creacion y destruccion
usando las Ecs. (8.9), Pag. 272
  ( "r #) 
i qE i qE m~   qE h i

|n ()i = exp P |n i = exp i a a |n i = exp a a |n i
~ m 2 ~ m 2 2 2 m~

y usando nuestra asignacion de ecuacion (20.56) se obtiene


 

|n ()i = exp a a |n i (20.58)
2
8
Es mejor tomar el orden de magnitud del operador como la raz cuadrada del promedio cuadratico, ya que lo que nos interesa es
b y Pb es nulo.
un promedio de su magnitud y no de su valor. De hecho, el promedio lineal de los operadores X
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO 509

Expandiendo la Ec. (20.58) a primer orden en , y utilizando las Ecs. (8.41) Pag. 280, tenemos
 
 
2
 
|n ()i = 1 a a + O |n i = |n i a |n i + a |n i + O 2
2 2 2
r r
n+1 n 
|n ()i = |n i |n+1 i + |n1 i + O 2 (20.59)
2 2

Expansion perturbativa con potencial lineal

Escribiendo el Hamiltoniano de perturbacion W en terminos de operadores creacion y destruccion, tenemos

~ 
b =

W = ~ X a + a
2

Por tanto W mezcla al estado |n i solo con los estados |n1 i, de modo que los unicos elements de matriz no
nulos son

 
~ ~ ~ n + 1 ~ n + 1
hn+1 | W |n i = hn+1 | a + a |n i = hn+1 | a |n i = hn+1 | n+1 i =
2 2 2 2
 
~ ~ ~ n ~ n
hn1 | W |n i = hn1 | a + a |n i = hn1 | a |n i = hn1 | n1 i =
2 2 2 2

quedando finalmente
r r
n+1 n
hn+1 | W |n i = ~ ; hn1 | W |n i = ~ (20.60)
2 2

utilizando la expresion (20.42) para la correccion de E () a segundo orden se tiene

X |hm | W |n i|2 
En () = En0 + hn | W |n i + + O 3
En0 Em0
m6=n

|hn+1 | W |n i|2 |hn1 | W |n i|2 


= En0 + 0 + 0 0 + 0 0 + O 3
En En+1 En En1
q 2
  pn 2
n+1 2 ~
2 ~
1 
En () = n+ ~ + + + O 3
2 [n (n + 1)] ~ [n (n 1)] ~
 
1 2 (n + 1) ~ 2 n~ 
= n+ ~ + + O 3
2 2 2

quedando finalmente
 
1 ~ 
En () = n+ ~ 2 + O 3
2 2

vemos que la expansion perturbativa del autovalor a segundo orden en , coincide con el resultado exacto Ec.
(20.57). De hecho, puede demostrarse que todos los terminos de orden superior a dos se anulan en la expansion
perturbativa. Adicionalmente, se observa que no hay contribucion de primer orden, en virtud de que los elementos
diagonales hn | W |n i son nulos.
510 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

Por otra parte, la expansion del autoestado a primer orden lo da la Ec. (20.39)
X hm | W |n i 
|n ()i = |n i + 0 0
|m i + O 2
En Em
m6=n
hn+1 | W |n i hn1 | W |n i 
= |n i + 0 0 |n+1 i + 0 0 |n1 i + O 2
En En+1 En En1
q
p
n+12 ~ n2 ~ 
= |n i + |n+1 i + |n1 i + O 2
~ ~
r r
n+1 n 
|n ()i = |n i |n+1 i + |n1 i + O 2
2 2

que coincide con la expansion a primer orden de la solucion exacta Ec. (20.59).

20.6.3. Perturbacion al oscilador armonico con potencial cuadratico


En este caso la perturbacion se escribira como

1 b 2 = 1 m 2 X 2
W = ~ X (20.61)
2 2
siendo el parametro perturbativo que debe ser mucho menor que 1. El Hamiltoniano perturbado queda

P2 1
H = H0 + W = + m 2 (1 + ) X 2
2m 2
P2 1
H = + m 2 X 2 ; 2 = 2 (1 + ) (20.62)
2m 2
por tanto, el Hamiltoniano sigue estando asociado a un oscilador armonico simple, y el efecto de la perturbacion
es simplemente un cambio en la frecuencia angular al valor definido en (20.62). Estudiaremos solo el cambio en
los autovalores. El espectro del Hamiltoniano perturbado es claramente
   
1 1
En = n + ~ = n + ~ 1 +
2 2

expandiendo el radical se obtiene


   
1 1 1 
En = n+ ~ 1 + 2 + O 3 (20.63)
2 2 8

ahora reproduciremos el espectro (20.63) utilizando teora de perturbaciones estacionaria. El Hamiltoniano de


perturbacion (20.61) se puede escribir como
 2
1 b 2 = 1 ~ a + a
W = ~ X
2 2 2
2
primero calculamos a + a
 2 h i
a + a = a2 + a2 + a a + aa = a2 + a2 + a a + a, a + a a
 2
a + a = a2 + a2 + 2a a + 1 (20.64)
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO 511

con lo cual queda n o


1
W = ~ a2 + a2 + 2a a + 1
4
en consecuencia, los unicos elementos matriciales no nulos de W con respecto a |n i son
 n o  
1 2 2 1 1
hn | W |n i = hn | ~ a + a + 2a a + 1 |n i = ~ hn | 2a a + 1 |n i = ~ (2n + 1)
4 4 4
 
1 1
hn | W |n i = ~ n +
2 2
1   1 1
hn+2 | W |n i = ~ hn+2 | a2 |n i = ~ n + 1 hn+2 | a |n+1 i = ~ n + 1 n + 2 hn+2 | n+2 i
4 4 4
1 p
hn+2 | W |n i = ~ (n + 1) (n + 2)
4
1 1 1
hn2 | W |n i = ~ hn2 | a2 |n i = ~ n hn2 | a |n1 i = ~ n n 1 hn2 | n2 i
4 4 4
1 p
hn2 | W |n i = ~ n (n 1)
4
Evaluando la contribucion de segundo orden para la energa a traves de la Ec. (20.42), obtenemos
X |hp | W |n i|2 
En = En0 + hn | W |n i + 0 0
+ O 3
En Ep
p6=n
   
1 1 1 |hn+2 | W |n i|2 |hn2 | W |n i|2 3

= n+ ~ + ~ n + + 0 + 0 + O
2 2 2 En0 En+2 En0 En2
    1 2 2 2 1 2 2 2
1 1 ~ (n + 1) (n + 2) ~ n (n 1) 
= n+ ~ 1 + + 16 + 16 + O 3
2 2 2~ 2~
    2 2
1 1 ~ ~ 
= n+ ~ 1 + (n + 1) (n + 2) + n (n 1) + O 3
2 2 32 32
    2
1 1 ~ 
En = n+ ~ 1 + + [n (n 1) (n + 1) (n + 2)] + O 3
2 2 32
    2
1 1 ~ 
= n+ ~ 1 + [4n + 2] + O 3
2 2 32
     
1 1 42 1 
= n+ ~ 1 + ~ n + + O 3
2 2 32 2
   2

1 1 
En = n+ ~ 1 + + O 3
2 2 8

que coincide con la expansion (20.63).

20.6.4. Perturbacion del oscilador armonico por un potencial cubico


Tomaremos un potencial de la forma
b3
W = ~ X
En mecanica clasica, la partcula con energa total E sometida al potencial V = m 2 x2 /2 + Cx3 oscila entre dos
puntos de retorno xa y xb que no estan ubicados simetricamente con respecto al origen, ya que el potencial total
no tiene paridad definida. El movimiento sigue siendo periodico pero ya no es sinusoidal (i.e. no es armonico). De
hecho, en la expansion de Fourier de x (t), aparecen una serie de armonicos de la frecuencia fundamental. Por tal
razon a este sistema se le denomina oscilador anarmonico. Adicionalmente, el periodo del movimiento ya no es
512 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

independiente de la energa (y por tanto no es independiente de la amplitud), decimos entonces que el oscilador
anarmonico ya no es isocrono.

Expansion perturbativa

Nuevamente escribimos el potencial de perturbacion en terminos de operadores creacion y destruccion. Primero


3
calculamos a + a teniendo en cuenta (20.64)

 3  2        
a + a = a + a a + a = a2 + a2 + 2a a + 1 a + a = a2 + a2 + 2N + 1 a + a
= a2a + a3 + 2N a + a + a3 + a2 a +2N a + a
= a a a + a3 + 2N a + a + a3 + a aa + 2N a + a
h i 
= a N + a3 + 2N a + a + a3 + a a, a + a a + 2N a + a
= a N + a3 + 2N a + a + a3 + a (1 + N ) + 2N a + a
= a3 + a3 + a
h N +i2N a + aN + 2N a + 2a + a

= a3 + a3 + a , N + N a + 2N a + [a, N ] + N a + 2N a + 2a + a
= a3 + a3 a + N a + 2N a + a + N a + 2N a + 2a + a
 3
a + a = a3 + a3 + 3N a + 3N a + 3a

donde hemos usado las Ecs. (8.13). Pag. 273. Con esto el potencial de perturbacion queda

 3
b 3 = ~ a + a
W = ~ X
2
~ h 3 3
i
W = a + a + 3N a + 3 (N + 1) a
23/2

Los unicos elementos de matriz de W no nulos asociados con |n i son

~ h i ~
3 3
hn+3 | W |n i = 3/2
h n+3 | a + a + 3N a + 3 (N + 1) a |n i = 3/2 hn+3 | a3 |n i
2 2
~ ~
= n + 1 hn+3 | a |n+1 i = 3/2 n + 1 n + 2 hn+3 | a |n+2 i
2
23/2 2
~ p
hn+3 | W |n i = (n + 1) (n + 2) (n + 3)
23/2
~ 3 ~ 2 ~ p
hn3 | W |n i = h n3 | a | n i = n hn3 | a | n1 i = n (n 1) hn3 | a |n2 i
23/2 23/2 23/2
~ p
hn3 | W |n i = n (n 1) (n 2)
23/2
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMONICO 513

~ h i ~ h i
3 3
hn+1 | W |n i = h n+1 | a + a + 3N a + 3 (N + 1) a |n i = hn+1 | 3N a |n i
23/2 23/2
~ ~
= 3 3/2 n + 1 hn+1 | N |n+1 i = 3 3/2 n + 1 (n + 1) hn+1 | n+1 i
2 2
3~ 3/2
hn+1 | W |n i = (n + 1)
23/2
~ h i ~
3 3
hn1 | W |n i = h n1 | a + a + 3N a + 3 (N + 1) a |n i = 3/2 hn1 | [3 (N + 1) a] |n i
23/2 2
3~ ~
= 3/2
n hn1 | [(N + 1)] |n1 i = 3 3/2 [(n 1) + 1] n hn1 | n1 i
2 2
3~ 3/2
hn1 | W |n i = n
23/2
quedando finalmente
r r
(n + 1) (n + 2) (n + 3) n (n 1) (n 2)
hn+3 | W |n i = ~ ; hn3 | W |n i = ~
8 8
 3/2  
n+1 n 3/2
hn+1 | W |n i = 3~ ; hn1 | W |n i = 3~ (20.65)
2 2
la energa se calcula por medio de (20.42)
X |hp | W |n i|2 
En = En0 + hn | W |n i + 0 0
+ O 3
En Ep
p6=n
2
|hn+3 | W |n i| |hn3 | W |n i|2 |hn+1 | W |n i|2 |hn1 | W |n i|2 
En = En0 + 0 + 0 + 0 + 0 + O 3
En0 En+3 En0 En3 En0 En+1 En0 En1
 
1 2 ~2 2 (n+1)(n+2)(n+3)
8 2 ~2 2 n(n1)(n2)
8
En = n+ ~ + +
2 3~ 3~
3 2 ~2 2 n 3

92 ~2 2 n+1 9 
+ 2
+ 2
+ O 3
~ ~
 
1 (n + 1) (n + 2) (n + 3) 2 n (n 1) (n 2) 2
En = n+ ~ ~ + ~
2 24 24
9 (n + 1)3 2 9n3 2 
~ + ~ + O 3
8 " 8 #
 
1 n (n 1) (n 2) (n + 1) (n + 2) (n + 3) 9n3 9 (n + 1)3 2
En = n+ ~ + + ~
2 24 24 8 8

+O 3
calcularemos la cantidad entre parentesis cuadrados
1 h i 1  
kn = 9n2 9n 6 + 27n3 27 (n + 1)3 = 9n2 9n 6 81n2 81n 27
24  24
  
1  2
 90 2 33 15 2 11
= 90n + 90n + 33 = n +n+ = n +n+
24 24 90 4 30
" 2 # " 2 #
15 1 1 11 15 1 7
= n+ + = n+ +
4 2 4 30 4 2 60
 2
15 1 7
kn = n+
4 2 16
514 CAPITULO 20. TEORIA ESTACIONARIA DE PERTURBACIONES

con lo cual el espectro a segundo orden queda


   2
1 15 1 7 2 
En = n+ ~ n+ 2 ~ ~ + O 3
2 4 2 16

notese que no hay contribucion de primer orden de modo que la correccion debida a W requiere como mnimo
calcular el espectro a segundo orden. Por efecto de W , los niveles decrecen sin importar el signo de . Ademas el
corrimiento se incrementa con n. La diferencia entre dos niveles adyacentes a segundo orden es
 
15 2
En En1 = ~ 1 n
2

de nuevo valores de n muy grandes (tales que 152 n/2 & 1), invalidaran este calculo perturbativo. Notese que la
distancia entre niveles adyacentes depende ahora de n. Los niveles de energa consecutivos ya no son equidistantes,
y estan mas cerca a medida que crece n.
De las Ecs. (20.39, 20.65), el estado perturbado a primer orden nos da


X X ip W |n i 
|n ()i = |n i + i
p  + O 2
0
En Ep0
p6=n i
hn+1 | W |n i h | W | i
= |n i + |n+1 i 0
 + |n1 i n1 0 n
0
En En+1 0
En En1
hn+3 | W |n i h | W | i 
+ |n+3 i 0
 + |n3 i n3 0 n + O 2
0
En En+3 0
En En3

 3/2  n 3/2
n+1
|n ()i = |n i 3 |n+1 i + 3 |n1 i
2 2
r r
(n + 1) (n + 2) (n + 3) n (n 1) (n 2) 
|n+3 i + |n3 i + O 2
3 8 3 8
Captulo 21

Metodo variacional

21.1. Descripcion del metodo


Supongamos que tenemos un Hamiltoniano independiente del tiempo H, con espectro discreto

H |pn i = En |pn i

Si el Hamiltoniano no puede resolverse analticamente en forma exacta, el metodo variacional es otra alternativa de
solucion aproximada. El metodo consiste en escoger una familia de kets, asociados con un conjunto de parametros

| ()i = | (1 , 2 , . . . , n )i
conocidas como funciones de prueba. Aunque estas funciones se pueden elegir en forma arbitraria, una aproxima-
cion razonablemente buena solo se obtendra si las funciones de prueba se eligen con algun criterio Fsico. La idea
es entonces calcular el valor esperado del Hamiltoniano hHi () en estos estados y minimizar tal valor esperado
con respecto a los parametros . El valor mnimo obtenido de esta forma constituye una aproximacion para el
valor del estado base E0 del sistema. Este metodo de minimizacion es una variante del calculo funcional cono-
cida como metodo de variacion de parametros. De all que el metodo de aproximacion se conozca como metodo
variacional. Veremos que ademas es posible obtener con el metodo variacional una aproximacion a los estados
excitados, aunque en la practica solo es viable para los primeros estados excitados.

21.2. Implementacion del metodo variacional


El metodo variacional se basa en los siguientes resultados

Theorem 21.1 Dado un ket arbitrario |i del espacio de estados del sistema, el valor medio del Hamiltoniano
con respecto a dicho estado cumple la condicion

h| H |i
hHi = E0 (21.1)
h| i

siendo E0 el autovalor mas pequeno de H (estado base de H)1 . La igualdad se obtiene si y solo si el ket |i es un
autoestado de H con autovalor E0 .

Por simplicidad asumiremos que la base {|pn i} de vectores propios de H es ortonormal, es decir que tambien
es ortonormal la base de cada subespacio En generado por cada valor propio En . Puesto que los resultados finales
1
La expresion (21.1) tiene en cuenta que en general el estado |i no esta normalizado.

515
516 CAPITULO 21. METODO VARIACIONAL

son independientes de la base, esto no le quita generalidad al teorema. Para probarlo expandimos al estado |i en
la base de los estados propios {|pn i} de H
gn
X
X
|i = cpn |pn i (21.2)
n=0 p=1

con lo cual
X gm X
X gn
X XX
h| H |i = cq p q p
m cn hm | H |n i = En cq p
m cn mn qp
m=0 q=1 n=0 p=1 m,n q,p
X X gn gn
X
X
h| H |i = |cpn |2 En E0 |cpn |2 (21.3)
n=0 p=1 n=0 p=1

por otro lado, de la Ec. (21.2) la norma al cuadrado de |i nos da


gn
X
X
h| i = |cpn |2 (21.4)
n=0 p=1

y la combinacion de las Ecs. (21.3, 21.4) nos da la Ec. (21.1). De la expresion (21.2) vemos que el estado |i
pertenece al subespacio E0 generado por el estado base E0 , si y solo si cpn = n0 cp0 , y al utilizar esta condicion en
(21.3) se obtiene la igualdad en dicha expresion. Recprocamente, si asumimos la igualdad en la expresion (21.3),
dicha igualdad se puede escribir como

X gn
X gn
X
X
|cpn |2 (En E0 ) = 0 |cpn |2 |En E0 | = 0
n=0 p=1 n=1 p=1

donde hemos tenido en cuenta que En E0 > 0 para n 1. Por tanto, la igualdad es posible si y solo si cpn = n0 cp0
o equivalentemente si el estado |i pertenece a E0 . En conclusion, la igualdad en (21.3) ocurre si y solo si |i es
autoestado de H con autovalor E0 .
Por simplicidad escribiremos los gn vectores linealmente independientes asociados a un valor propio En en una
notacion condensada de la siguiente manera

{|gnn i} 1n , 2n , . . . , |gnn i

De los resultados anteriores se deriva un teorema que permite acotar los estados excitados

Theorem 21.2 Sea g0 0 , g1 1 , g2 2 , . . . la secuencia ordenada de los estados propios (discretos) del Ha-
miltoniano H, asociados a valores g1 {E0 , Eg1k ,
 g0 propios E2 , . . .} colocados en orden ascendente En < En+1 . Si |i es

un ket ortogonal a los kets 0 , 1 , . . . , k , el valor esperado de H asociado a dicho estado cumple la
condicion
h| H |i
hHi = Ek+1 (21.5)
h| i
y la igualdad se obtiene si y solo si |i es autoestado de H con valor propio Ek+1 .

Para probarlo, basta observar que la ortogonalidad de |i con los estados asociados a los primeros k valores
propios Ei , nos lleva a que los terminos de la expansion asociados a los k primeros valores propios en (21.2) deben
ser nulos
X X gn
|i = cpn |pn i (21.6)
n=k+1 p=1
21.2. IMPLEMENTACION DEL METODO VARIACIONAL 517

con el mismo procedimiento que nos lleva a las Ecs. (21.3, 21.4), obtenemos

X gn
X gn
X
X gn
X
X
h| H |i = |cpn |2 En Ek+1 |cpn |2 ; h| i = |cpn |2
n=k+1 p=1 n=k+1 p=1 n=k+1 p=1

combinando estas dos ecuaciones obtenemos (21.5). De nuevo la igualdad se obtiene si y solo si cpn = n,k+1 cpk+1 ,
con lo cual la Ec. (21.6) nos dice que |i Ek+1 , o equivalentemente que |i es autoestado de H con valor propio
Ek+1 .
Otro resultado fundamental es el siguiente

Theorem 21.3 (Ritz) El valor medio del Hamiltoniano hHi|i es estacionario si y solo si el vector de estado |i
en el cual se evalua, es autovector de H. Ademas los valores estacionarios de hHi son los valores propios de H,
esto es
H |i = hHi |i (21.7)
se dice tambien que el valor esperado de H solo es estacionario en la vecindad de sus estados propios discretos.

Para verlo tenemos en cuenta que el valor esperado del Hamiltoniano es


h| H |i
hHi = (21.8)
h| i

es claro entonces que este valor esperado es un funcional del estado |i. Vamos a calcular el incremento hHi
cuando el estado |i sufre el cambio infinitesimal al estado |i + |i. Para calcular el variacional de hHi debido
al cambio infinitesimal en el estado, escribimos la Ec. (21.8) en la forma

hHi h| i = h| H |i

y calculando el variacional a ambos lados tenemos

h| ihHi + hHi [h| i + h| i] = h| H |i + h| H |i

y teniendo en cuenta que hHi es un numero

h| ihHi = h| [H hHi] |i + h| [H hHi] |i (21.9)

buscaremos las condiciones para que hHi se anule, es decir las condiciones para que se anule el lado derecho de
la ecuacion (21.9)
h| [H hHi] |i + h| [H hHi] |i = 0 (21.10)
definiendo
|i [H hHi] |i (21.11)
la relacion (21.10) se escribe como
h| i + h| i = 0 (21.12)
la condicion (21.12) se debe cumplir para cualquier ket infinitesimal |i, ya que la condicion de estacionaridad
requiere que hHi = 0, sin importar la forma de la variacion de |i, con la unica condicion de que esta variacion
sea infinitesimal. En particular, la expresion (21.12) se debe cumplir para la variacion infinitesimal dada por

|i = () |i

siendo un numero real infinitesimal, para este ket la Ec. (21.12) queda en la forma

2 h| i = 0
518 CAPITULO 21. METODO VARIACIONAL

de modo que la norma del ket (y por lo tanto el ket) debe ser nulo i.e. |i = 0. Aplicando esta condicion en la
definicion (21.11) resulta
H |i = hHi |i (21.13)
mostrando que la Ec. (21.13) es una condicion de necesidad para la anulacion de hHi. La demostracion de la
suficiencia se obtiene simplemente reemplazando la condicion (21.13) en la Ec. (21.9).
El anterior teorema implica que el metodo variacional se puede generalizar para aplicarlo a la determinacion
aproximada de algunos valores propios de H. Si la funcion hHi () obtenida por medio de los kets de prueba
| ()i tiene varios extremos, estos nos daran un valor aproximado de algunos de los autovalores En .
Notese que en los anteriores teoremas no es estrictamente necesario que el observable sea el Hamiltoniano.
Un repaso cuidadoso le muestra al lector que las demostraciones anteriores quedan intactas si en lugar del Ha-
miltoniano utilizamos cualquier observable (operador hermtico completo) cuyo espectro sea discreto y acotado
inferiormente (es decir que exista un valor propio que sea menor que todos los demas valores propios del espectro).
En consecuencia, los teoremas anteriores se pueden generalizar para cualquier observable con espectro discreto
acotado inferiormente.

21.3. Funciones de prueba restringidas a un subespacio de E


Si elegimos los kets de prueba como el conjunto de kets en un subespacio F E, entonces el metodo variacional
se reduce a la resolucion de la ecuacion de valores propios del Hamiltoniano H dentro del subespacio F y no en
el espacio vectorial E. Esto se puede ver aplicando los argumentos de la seccion 21.2, pero restringidos a vectores
|i que pertenecen a F. Los maximos y mnimos que encontramos con la condicion de estacionaridad hHi = 0,
se obtienen cuando |i es un autovector de H que pertenece a F. Los autovalores as obtenidos constituyen una
aproximacion variacional para los autovalores de H en E que son los que estamos buscando.
Cuando se utiliza la restriccion del problema de valores propios de H a un subespacio F E, el problema se
simplifica considerablemente. Sin embargo, es importante mencionar que incluso la solucion exacta del problema
de valores propios restringido a F, constituye solo una aproximacion al problema de valores propios en E. Esto se
debe a que la restriccion de un operador a un subespacio cambia la naturaleza del operador como tal (ver seccion
1.33, Pag. 74), de modo que la restriccion H b del Hamiltoniano es un operador diferente al Hamiltoniano en s.
Esta aproximacion de cambiar el problema de valores propios del Hamiltoniano H sobre E, por el problema
de valores propios de su restriccion H b a un subespacio F E , es razonable solo si los elementos matriciales de la
forma h| H |i con |i y |i dentro de F son mucho mayores (en valor absoluto) que los elementos matriciales
de la forma h| H |i con |i F y con |i / F. Esta hipotesis fue la que se supuso para asumir que existen
sistemas cuanticos que pueden tratarse como sistemas de dos estados (ver Cap. 17). En algunos casos es posible
asumir que el sistema se puede tratar aproximadamente como un sistema de n estados con n finito. Es en estos
escenarios en los cuales el metodo variacional restringido a un subespacio de E, adquiere importancia practica.
Por tanto, para que el problema de valores propios de H restringido a un subespacio F de E, nos de una
buena aproximacion de los valores propios del Hamiltoniano considerado como operador de E, es necesario que
el subespacio F se escoja adecuadamente. En fsica molecular, utilizaremos el metodo de combinacion lineal
de orbitales atomicos (L.C.A.O por sus siglas en ingles) que consiste en determinar la funcion de onda de los
electrones en una molecula en forma de combinaciones lineales de autofunciones asociadas a cada uno de los
atomos que constituyen la molecula, tratados como si fueran aislados. Los coeficientes de la combinacion lineal
seran los parametros variacionales y el conjunto de todos los orbitales linealmente independientes solo expande
un subespacio de E. Observese que la teora de perturbaciones a primer orden se ajusta a este metodo variacional
particular, siendo F un autosubespacio del Hamiltoniano sin perturbar H0 .
Ahora bien, lo usual en el metodo variacional es tomar un conjunto de funciones de prueba de la forma
(1 , . . . , n ) con el fin de encontrar los valores de los parametros k que minimicen la distancia entre la funcion
de prueba y la solucion de la funcion de onda. Es tambien usual que estas funciones cumplan ciertas ligaduras
(por ejemplo ser de cuadrado integrable, tener norma unidad, paridad definida etc.). Cuando barremos todos
21.4. ESPECTRO DEL OSCILADOR ARMONICO POR METODOS VARIACIONALES 519

los valores posibles del conjunto de n parametros (compatibles con las ligaduras) se generan un conjunto de
funciones linealmente independientes que usualmente no forman una base del espacio de Hilbert completo sino de
un subespacio propio de este2 . Por esta razon aun la solucion exacta del problema variacional no es una solucion
exacta del problema de valores propios en el espacio de Hilbert completo. De hecho en la practica es muy difcil
determinar cual subespacio es el mas pequeno que contiene a esta familia de soluciones.

21.4. Espectro del oscilador armonico por metodos variacionales


21.4.1. Estimacion del estado base
Utilizaremos el oscilador armonico unidimensional para ilustrar las ideas inherentes al metodo variacional.
Partimos entonces del Hamiltoniano
~2 d2 1
H= + m 2 x2
2m dx2 2
puesto que este Hamiltoniano es par, puede demostrarse que el estado base debe estar representado por una funcion
de onda par. Por tanto, debemos elegir funciones de prueba pares. Tomaremos entonces la familia uniparametrica
de funciones
2
(x) = ex ; > 0 (21.14)
esta funcion es par, y la condicion > 0 se requiere para que (x) sea de cuadrado integrable. El cuadrado de
la norma del ket viene dado por Z r
2x2
h | i = e dx = (21.15)
2
y el elemento matricial h | H | i queda

Z  
~2 d2
x2 1 2
I h | H | i = dx e 2
+ m x ex
2 2
2m dx 2
Z  2 h i 
x2 ~ d x2 1 2 2 x2
= dx e 2xe + m x e
2m dx 2
Z  2 2  Z  2   
~ 2 2 ~ 1 2 2 2x2 ~ 1 2 22 ~2 2 2x2
= dx 4 x + m x e = dx + m x e
m 2m 2 m 2 m
Z  Z
~2 2x2 1 2 22 ~2 2
I = dx e + m dx x2 e2x (21.16)
m 2 m
2
por otro lado, integrando x2 e2x por partes resulta
2 1 2
u = x , dv = xe2x dx ; du = dx , v = e2x
Z Z 4
2 x 2x2 1 2x2
x2 e2x dx = e + e dx
4 4
Z Z
2 1 2
x2 e2x dx = e2x dx (21.17)
4
sustituyendo (21.17) en (21.16), la integral I queda
 2 Z
~ m 2 ~2 2
I= + e2x dx
m 8 2m
2
De hecho el conjunto de todas las funciones que se obtienen al barrer los parametros, no necesariamente forma un espacio vec-
torial. Podra ser solo un subconjunto propio del espacio vectorial generado por todas las funciones linealmente independientes antes
mencionadas.
520 CAPITULO 21. METODO VARIACIONAL

con lo cual el elemento matricial h | H | i queda finalmente


 2 Z  2 
~ m 2 2x2 ~ m 2
h | H | i = + dx e = + h | i
2m 8 2m 8

donde hemos usado (21.15). Aplicando la Ec. (21.8) tenemos


 2 
h | H | i ~ m 2
hHi () = = + (21.18)
h | i 2m 8

calculamos el valor (o valores) de para el cual hHi () se convierte en un extremo

hHi () ~2 m 2
= =0
2m 82
~2 2 m 2
=0
2m 8
las soluciones son 1,2 = m/2~, pero recordemos que debe ser positivo para que la funcion de prueba (21.14)
sea de cuadrado integrable. Por tanto, el valor de 0 para el cual hHi () es estacionario esta dado por
m
0 = (21.19)
2~
sustituyendo (21.19) en (21.18) obtenemos el valor estacionario de hHi (0 )

~2 m 2 ~2 m 2~m 2 ~ ~
hHi (0 ) = 0 + = + = +
2m 80 2m 2~ 8m 4 4
~
hHi (0 ) =
2
en este caso, el valor mnimo de hHi () coincide exactamente con la energa base del problema ya conocido
del oscilador armonico unidimensional. Esto se debe a que la funcion de onda exacta (sin normalizar) coincide
exactamente con la funcion de onda de prueba para un valor especfico del parametro , como se puede ver al
comparar la Ec. (8.48), Pag. 281 con la Ec. (21.14). El hecho de que la condicion de estacionaridad de hHi ()
nos lleve al valor de que iguala las ecuaciones (8.48, 21.14) se debe precisamente al teorema 21.1.

21.4.2. Estimacion del primer estado excitado


Si queremos calcular en forma aproximada el valor del primer estado excitado E1 , debemos buscar funciones
de prueba que sean ortogonales a la funcion de onda del estado base. En tal caso segun el teorema 21.2, el valor
esperado hHi nos provee de una cota superior para el estado E1 . Utilizaremos entonces una funcion de prueba
impar y que sea ortogonal al estado base
2
(x) = xex (21.20)
en cuyo caso tenemos Z
2
h | i = x2 e2x dx

y el elemento matricial h | H | i queda


Z     3~2 Z
x2 ~2 d2 1 2 2 x2 3m 2 2
h | H | i = dx xe 2
+ m x xe = + dx x2 e2x
2m dx 2 2m 8
 2 2

3~ 3m
h | H | i = + h | i
2m 8
21.5. ESPECTRO DEL OSCILADOR ARMONICO CON OTRAS FUNCIONES DE PRUEBA 521

el valor esperado de H queda entonces

h | H | i 3~2 3m 2
hHi () = = + (21.21)
h | i 2m 8

la condicion estacionaria nos da


hHi 3~2 3m 2 3~2 2 3m 2
= =0 =
0 2m 820 2m 0 8
m
0 =
2~
por tanto hHi () presenta un mnimo en el mismo valor 0 que para el caso del estado base como se ve en la Ec.
(21.19). Con este valor de 0 , la Ec. (21.21) queda

3~2 3m 2 3~2 m 6~m 2


hHi (0 ) = 0 + = +
2m 80 2m 2~ 8m
3~
hHi (0 ) =
2
una vez mas se obtiene el valor exacto de E1 para el oscilador armonico unidimensional, debido a que la familia
de funciones de prueba (21.20) incluye a la solucion exacta (sin normalizar) dada en la Ec. (8.51), Pag. 282.

21.5. Espectro del oscilador armonico con otras funciones de prueba


Aunque los calculos de la seccion 21.4 nos permiten familiarizarnos con el metodo variacional, no nos permiten
tener una idea de la efectividad de la aproximacion, puesto que las funciones de prueba propuestas incluyen la
solucion exacta. Usaremos entonces funciones de prueba diferentes, aunque mantendremos la idea de que sean
funciones pares de cuadrado integrable para el estado base. Otra familia de funciones que cumple con dichas
propiedades es la siguiente
1
(x) = 2 ; >0
x +
la norma de estas funciones de prueba esta dada por
Z
dx
h | i = 2 =
(x2 + ) 2

el valor esperado queda finalmente


~2 1 1
hHi () = + m 2
2m 2
esta funcion adquiere su valor mnimo en = 0 dado por
1 ~ ~
0 = hHi (0 ) =
2 m 2
el error porcentual cometido en este caso se puede evaluar dado que conocemos el valor exacto de E0

hHi (0 ) 12 ~ 21
= 20 %
~ 2
????????????????????????
Captulo 22

Teora de perturbaciones dependiente del


tiempo

Al igual que en la teora de perturbaciones estacionaria, vamos a suponer que tenemos un Hamiltoniano H0
no perturbado cuya solucion conocemos. Por simplicidad asumiremos que el espectro de H0 es discreto y no
degenerado
H0 |n i = En |n i
sera facil generalizar las formulas obtenidas para el caso degenerado. Asumiremos que el Hamiltoniano no pertur-
bado es independiente del tiempo, con lo cual los autoestados |n i tampoco dependen del tiempo. En consecuencia,
los estados |n i son estacionarios1 . En el tiempo t = 0, se aplica una perturbacion al sistema parametrizada en la
forma
H = H0 + W (t) H0 + W c (t)

donde es un parametro adimensional mucho menor que la unidad y W c (t) es un observable que puede depender
explcitamente del tiempo y que es del mismo orden de magnitud de H0 en el intervalo de tiempo involucrado. Se
asume que W c (t) = 0 para t < 0.
Se asume ademas que el sistema esta inicialmente en el estado estacionario |k i de H0 asociado a la energa
Ek . Si no existiera la perturbacion este estado no evolucionara en el tiempo, pero al introducir la perturbacion
en t = 0, el estado |k i no sera en general autoestado de H de modo que deja de ser un estado estacionario,
y comenzara a evolucionar en el tiempo. Nuestro objetivo sera calcular la probabilidad de transicion Pif (t) de
encontrar al sistema en otro autoestado |f i de H0 en el tiempo t. Es decir queremos estudiar las transiciones
que se inducen a traves de W (t) entre los estados estacionarios de H0 . Debemos recordar que la probabilidad de
transicion entre |k i y |f i realmente significa la probabilidad de obtener la medida Ef de la energa cuando la
perturbacion W (t) se activa en t = 0 y se desactiva en t (es decir en el tiempo en el cual se ejecuta la medicion
de la energa), teniendo a |k i como estado inicial [ver discusion en la seccion 17.3, particularmente despues de la
Ec. (17.30), Pag. 4332 ].
Entre los tiempos 0 y t, el sistema evoluciona de acuerdo con la ecuacion de Schrodinger

d h i
i~ c (t) | (t)i
| (t)i = H0 + W (22.1)
dt
con la condicion inicial
| (t = 0)i = |i i (22.2)
1
Cuando el Hamiltoniano es dependiente del tiempo sus autoestados ya no son estacionarios. Esto es una manifestacion de la no
conservacion de la energa, cuando el Hamiltoniano depende explcitamente del tiempo (ver seccion 3.2 Pag. 158 y seccion 5.8 Pag.
225).
2
De hecho la discusion en el presente captulo constituye una generalizacion de los resultados obtenidos para sistemas de dos estados,
en el captulo 17.

522
22.1. SOLUCION PERTURBATIVA DE LA ECUACION DE SCHRODINGER DEPENDIENTE DEL TIEMPO523

la solucion de la ecuacion de Schrodinger (22.1) con la condicion inicial (22.2) es unica de modo que la evolucion
del estado es determinista en tanto no se realice una medida. La probabilidad Pif (t) que buscamos esta dada por

Pif (t) = |hf | (t)i|2 (22.3)

por tanto el problema se reduce a encontrar la solucion | (t)i de la ecuacion de Schrodinger (22.1) con la condicion
inicial (22.1). No obstante, para la mayora de problemas reales esta solucion no se puede encontrar en forma
exacta, por lo cual recurriremos a una solucion aproximada utilizando series de potencias en de forma similar
a la teora de perturbaciones estacionaria. Como antes, la solucion es aproximadamente correcta cuando 1.
Encontraremos | (t)i y Pif (t) a primer orden en . Estudiaremos un caso de particular importancia en el cual la
perturbacion es una funcion sinusoidal del tiempo, del cual surgiran fenomenos de resonancia. Se estudiara el caso
en el cual el espectro de H0 es discreto y aquel en el cual el estado inicial esta acoplado a un contnuo de estados
finales. En el ultimo caso probaremos una importante relacion conocida como la regla de oro de Fermi.

22.1. Solucion perturbativa de la ecuacion de Schrodinger dependiente del


tiempo
Para resolver la ecuacion de Schrodinger es necesario utilizar una base. Puesto que esperamos que las soluciones
no sean muy diferentes a los estados estacionarios, es razonable utilizar estos ultimos como base para resolver la
ecuacion de Schrodinger. Comenzamos entonces expandiendo el estado a resolver en terminos de los autoestados
de H0 X
| (t)i = cm (t) |m i ; cm (t) = hm | (t)i (22.4)
m

para escribir la ecuacion de Schrodinger en la base {|n i}, multiplicamos la ecuacion (22.1) por el bra hn |,
insertando una identidad asociada a la completez de los estados estacionarios
!
d X
i~ hn | (t)i = hn | H0 | (t)i + hn | Wc (t) |k i hk | | (t)i
dt
k
d X
i~ hn | (t)i = En hn | (t)i + c (t) |k i hk | (t)i
hn | W
dt
k

notese que hemos usado el hecho de que hn | no depende del tiempo (lo cual a su vez proviene de que H0 no
dependa del tiempo). Utilizando la Ec. (22.4), la ecuacion queda finalmente

d X
i~ cn (t) = En cn (t) + cnk (t) ck (t)
W ; cnk (t) hn | W
W c (t) |k i (22.5)
dt
k

el conjunto de ecuaciones (22.5) para todo n es un conjunto de ecuaciones diferenciales lineales acopladas de primer
orden en t, que nos determinan las componentes cn (t) de la expansion (22.4) del estado que buscamos. Notese
que el acople surge debido a la presencia de los elementos matriciales no diagonales W cnk (t) de la perturbacion
c c
W (t) en la base de los estados estacionarios. El elemento Wnk (t) acopla la evolucion de la componente cn (t) con
c es nulo, o si solo son no nulos los elementos diagonales W
la evolucion de ck (t). Vemos entonces que si W cnn (t),
3
las ecuaciones (22.5) se desacoplan . Esto es de esperarse ya que en este caso los estados |n i continuan siendo
estacionarios despues de la introduccion de la perturbacion, produciendo solo un corrimiento del espectro. En
particular cuando W (t) = 0, las ecuaciones (22.5) se desacoplan generando la solucion

cn (t) = bn eiEn t/~ (22.6)


3
Recordemos que W es diagonal en la base de autovectores de H0 si y solo si H0 conmuta con W .
524 CAPITULO 22. TEORIA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

siendo bn constantes que dependen de las condiciones iniciales. Si asumimos que W c (t) es muy pequeno, las
soluciones para cn (t) no deben diferir mucho de aquellas dadas por (22.6). En consecuencia, si parametrizamos
las soluciones de cn (t) en presencia de la perturbacion en la forma

cn (t) = bn (t) eiEn t/~ (22.7)

es de esperarse que la evolucion temporal de bn (t) sea suave. Si sustitumos las Ecs. (22.7) en las ecuaciones (22.5)
obtenemos un conjunto de ecuaciones diferenciales acopladas para los bn (t)

d h i X
cnk (t) bk (t) eiEk t/~
i~ bn (t) eiEn t/~ = En bn (t) eiEn t/~ + W
dt
k
dbn (t) X
i~eiEn t/~ + En bn (t) eiEn t/~ = En bn (t) eiEn t/~ + cnk (t) bk (t) eiEk t/~
W
dt
k
dbn (t) X
i~eiEn t/~ = cnk (t) bk (t) eiEk t/~
W (22.8)
dt
k

multiplicando a ambos lados de (22.8) por eiEn t/~ , y recordando la definicion de la frecuencias de Bohr Ec. (5.74),
Pag. 228, usamos las frecuencias angulares de Bohr (aunque sin valor absoluto)

En Ek
nk = (22.9)
~

y la Ec. (22.8) se convierte en


dbn (t) X
i~ = cnk (t) bk (t) eink t
W (22.10)
dt
k

debemos enfatizar que hasta el momento no se han realizado aproximaciones. La Ec. (22.10) es totalmente equiva-
lente a la ecuacion de Schrodinger, al igual que la ecuacion (22.5). Sin embargo, la Ec. (22.10) tiene la ventaja con
respecto a (22.5) de que para los bn (t) esperamos un comportamiento suave. En consecuencia, se obtendra una
mejor aproximacion si tratamos los bn (t) perturbativamente (en lugar de los cn (t)). Por lo tanto, realizaremos
una expansion en potencias de de los bn (t)

X
bn (t) = b(0)
n (t) + b(1)
n (t) + 2 b(2)
n (t) + ... = q b(q)
n (t) (22.11)
q=0

sustituyendo la expansion (22.11) en (22.10) tenemos




d X q (q) X
cnk (t)
X (p)
i~ bn (t) = W p bk (t) eink t
dt
q=0 k p=0

X (q)
XX
dbn (t) cnk (t) p+1 b(p) (t) eink t
i~ q = W k
dt
q=0 k p=0

donde hemos usado el hecho de que no depende del tiempo. Reasignando q p + 1 en el lado derecho de esta
ecuacion se obtiene

X (q) XX
q dbn (t) cnk (t) q b(q1) (t) eink t
i~ = W k
dt
q=0 k q=1
22.1. SOLUCION PERTURBATIVA DE LA ECUACION DE SCHRODINGER DEPENDIENTE DEL TIEMPO525

e igualando potencias de encontramos


(0)
dbn (t)
i~ = 0 (22.12)
dt
(q) X
dbn (t) cnk (t) b (q1)
i~ = eink t W k (t) ; q1 (22.13)
dt
k

vemos entonces que a partir de la solucion a orden cero Ec. (22.12) y las condiciones iniciales, la relacion de
recurrencia (22.13) nos permite obtener la solucion a primer orden, luego de lo cual la recurrencia (22.13) nos
permite obtener la solucion de segundo orden con base en la solucion de primer orden. En general, la recurrencia
(22.13) nos permite obtener la solucion de orden q con base en la solucion de orden q 1.

22.1.1. Estado del sistema a primer orden en


Asumiremos que el estado es |i i para todo t < 0. En tal caso, la solucion (22.6) es valida para t < 0, por
tanto se tiene que
bn (t) = ni para t < 0
en t = 0 se enciende la perturbacion W c de modo que el potencial es discontnuo en t = 0. No obstante, puesto
c
que W permanece acotado (y por tanto el potencial total), la solucion de la ecuacion de Schrodinger es contnua
en t = 0 (ver discusion en la seccion 3.5.1, Pag. 167), de lo cual se sigue que
bn (t = 0) = ni
y puesto que esta relacion es valida para todo , los coeficientes de la expansion (22.11) deben cumplir la relacion
b(0)
n (t = 0) = ni , b(q)
n (t = 0) = 0 ; q1 (22.14)
(0)
La ecuacion (22.12) nos dice que bn (t) es constante, por tanto
b(0)
n (t) = ni

que determina completamente la solucion a orden cero. Como era de esperarse, esto nos indica que la solucion a
orden cero coincide con |i i. Ahora utilizamos la recurrencia (22.13) para evaluar la contribucion a primer orden
(1) X
dbn (t) cnk (t) b (t) (0)
i~ = eink t W k
dt
k
(1) X
dbn (t) cnk (t) ki
i~ = eink t W (22.15)
dt
k
(1)
dbn (t) cni (t)
i~ = eini t W (22.16)
dt
que junto con las condiciones iniciales (22.14) nos da
Z
(1) 1 t ini t c 
bn (t) = e Wni t dt (22.17)
i~ 0
y sustituyendo (22.17) en (22.7) obtenemos
Z t
eiEn t/~ 
cni t dt
c(1)
n (t) = b(1)
n (t)
iEn t/~
e = eini t W (22.18)
i~ 0
finalmente, sustituyendo (22.18) en (22.4) encontramos el estado | (t)i a primer orden en
E X  Z t 
(1) (1) 1 X iEn t/~ ini t c

(t) = cn (t) |n i = e |n i e Wni t dt (22.19)
n
i~ n 0
526 CAPITULO 22. TEORIA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

22.1.2. Probabilidad de transicion a segundo orden en


De acuerdo con la expresion (22.3) y la definicion (22.4) de los coeficientes de Fourier cn (t) tenemos que

Pif (t) = |cf (t)|2

por otro lado la Ec. (22.7) nos dice que bn (t) y cn (t) tienen el mismo modulo. En consecuencia
2
(0) (1) (2)
Pif (t) = |bf (t)|2 = bf (t) + bf (t) + 2 bf (t) + . . . (22.20)

donde hemos usado la expansion (22.11). De aqu en adelante asumiremos que los estados inicial |i i y final
|f i son diferentes. Por tanto nos enfocaremos solo en las transiciones inducidas por W c (t) entre dos estados
(0)
estacionarios distintos de H0 . En este caso la Ec. (22.14) nos dice que bf (t) = 0, con lo cual la probabilidad de
transicion (22.20) a segundo orden en nos da
2
(2) 2 (1)
Pif (t) = bf (t) ; i 6= f (22.21)

vemos que la primera contribucion no trivial a Pif (t) es de segundo orden en dado que es un producto interno
al cuadrado4 . Sustituyendo (22.17) en (22.21) y reemplazando W c (t) por W (t) resulta
Z
(2) 1 t if i t  2
Pif (t) = 2 e Wf i t dt

(22.22)
~ 0

ya hemos dicho que para que la probabilidad de transicion tenga sentido, debe ocurrir lo siguiente: (a) La per-
turbacion debe conectarse en t = 0 y desconectarse en el tiempo t, y (b) En el tiempo t (justo despues de
desconectar la perturbacion) debemos realizar una medicion de la energa para determinar si el sistema quedo
preparado en el estado |f i. La Ec. (22.22) nos muestra que Pif (t) es proporcional al modulo al cuadrado de la
transformada de Fourier de la perturbacion Wf i . La frecuencia angular con que se evalua la transformada es la
frecuencia angular de Bohr Ec. (22.9) asociada a las energas Ei y Ef . Notese que la probabilidad de transicion a
segundo orden es cero si Wf i (t) es cero para todo t.
Si comparamos las Ecs. (22.10) con las Ecs. (22.15), vemos que la aproximacion de primer orden en bn (t)
equivale a reemplazar en la sumatoria los bk (t) por sus valores iniciales bk (0) = ki . Por tanto, la aproximacion
a primer orden para bn (t) sera valida para tiempos suficientemente cortos de modo que bk (t) no haya variado
mucho con respecto a bk (0). Para valores suficientemente largos del tiempo esta condicion puede violarse y en
general requeriremos tomar ordenes mas altos en . De hecho tiempos muy largos podran hacer que se pierda el
caracter perturbativo de W , en tal caso debemos recurrir a otros metodos.
Por otro lado, puede demostrarse que a primer orden en | (t)i para tiempos t mayores que t, la probabilidad
es la misma que para el tiempo t
(2)  (2)
Pif t = Pif (t) si t t (22.23)
para verlo observemos que si no se realiza una medicion en el tiempo t, el estado evoluciona desde el estado inicial
| (t)i hasta el estado final | (t )i bajo el Hamiltoniano H0 (ya que la perturbacion ha sido desconectada). El
estado inicial (a primer orden en ) viene dado por (22.19)
E X
(1)
(t) = c(1)
n (t) |n i
n

4
Notese que si el estado inicial no es autoestado de H0 , o si consideramos el caso i = f , tendremos contribucion a primer orden en
(0)
puesto que en tales casos bf (t) es diferente de cero y por tanto aparece contribucion de primer orden en la Ec. (22.20) a traves del
(0) (1)
producto cruzado entre bf (t) y bf (t).
22.2. PERTURBACIONES SINUSOIDALES Y CONSTANTES 527

y como ahora el Hamiltoniano es independiente del tiempo podemos aplicar la ecuacion (3.18) para la evolucion
temporal del estado, donde t es el tiempo inicial y t el tiempo final, de modo que
E X
(1)  iEn (t t)/~
t = c(1)
n (t) |n i e
n

de modo que la probabilidad de transicion Pif (t )


estara dada por
2
 E 2 X
(2) iEn (t t)/~

Pif t = hf (1) t = c(1)
n (t) hf |n i e
n
2
X 2
(1) iEn (t t)/~ (1) iEf (t t)/~
= cn (t) nf e = c
f (t) e

n

(2) (1) 2
Pif t = cf (t) = Pif (t)

por tanto, esta probabilidad (a segundo orden en ) solo es funcion del tiempo en el cual se desconecta la
perturbacion, pero no es funcion del tiempo en el cual se mide la energa, siempre y cuando la medida sea
posterior a la desconexion de la perturbacion.

22.2. Perturbaciones sinusoidales y constantes


Asumiremos que W (t) tiene la siguiente forma
c (t) = W
W (t) = W c sin t (22.24)
c (t) = W
W (t) = W c cos t (22.25)

donde Wc es un observable independiente del tiempo y una frecuencia angular constante. Este tipo de perturba-
ciones es frecuente en Fsica. Por ejemplo, puede describir un campo electromagnetico monocromatico externo de
frecuencia . Calcularemos la probabilidad de transicion Pif (t) entre los estados |i i y |f i. Para una perturbacion
de la forma (22.24) el elemento matricial Wf i (t) estara dado por
c sin t |i i = hf | W
Wf i (t) = hf | W c |i i sin t
c 
cf i sin t = Wf i eit eit
Wf i (t) = W (22.26)
2i
cf i un numero complejo independiente del tiempo. Vamos a calcular la probabilidad de transicion a orden
siendo W
2
. Sustituyendo (22.26) en (22.17) se obtiene
Z t Z t " #
1  1 cni 
W

b(1)
n (t; ) = eini t Wcni t dt = eini t eit eit dt
i~ 0 i~ 0 2i
" #t
cni Z t h
W
i cni ei(ni +)t
W ei(ni )t
= ei(ni +)t ei(ni )t dt =
2~ 0 2~ i (ni + ) i (ni )
0
" #
c
Wni 1 e i( ni +)t 1e i( ni )t
b(1)
n (t; ) =
2i~ (ni + ) (ni )

y la probabilidad de transicion se puede obtener de (22.21)



2 |W |2 1 ei(f i +)t 1 ei(f i )t 2
(1) fi
Pif (t; ) = 2 bf (t; ) = (22.27)
4~2 (f i + ) (f i )
528 CAPITULO 22. TEORIA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

para una perturbacion cosenoidal como la de la Ec. (22.25) se obtiene un resultado similar
2
|Wf i |2 1 ei(f i +)t 1 ei(f i )t
P if (t; ) = + (22.28)
4~2 (f i + ) (f i )
la perturbacion cosenoidal (22.25) se vuelve constante cuando = 0. Por tanto, la probabilidad de transicion para
perturbacion constante se obtiene como caso especial de (22.28) cuando 0
2   2
|Wf i |2 1 eif i t 1 eif i t |Wf i |2 1 eif i t
P if (t; = 0) = + = 2
4~2 f i f i 4~2 f i
|Wf i |2
if i t 2 |Wf i |2 if i t
 
if i t |Wf i |2  
= 2 2 1 e = 2 2 1 e 1 e = 2 2 1 eif i t 1 eif i t
~ f i ~ f i ~ f i
2  2  
|Wf i | if i t if i t
 |Wf i | |Wf i |2 (1 cos f i t)
= 2 e +e = 2 2 [2 2 cos f i t] = 2 2 4
~2 f2 i ~ f i ~ f i 2
    
|Wf i |2 2 f i t |Wf i |2 sin (f i t/2) 2
= 4 sin =
~2 f2 i 2 ~2 f i /2
quedando finalmente para perturbacion constante
 2
|Wf i |2 sin (f i t/2)
P if (t; = 0) = F (t, f i ) ; F (t, f i ) (22.29)
~2 f i /2
para interpretar las ecuaciones (22.27, 22.28, 22.29) vamos a considerar dos casos: (i) cuando |i i y |f i son
dos niveles discretos y (ii) cuando |f i pertenece a un conjunto contnuo de estados. En el primer caso Pif (t; )
realmente representa una probabilidad de transicion que se puede medir. En el segundo caso, Pif (t; ) representa
una densidad de probabilidad y las cantidades que se pueden medir involucran una integracion sobre cierto conjunto
de estados finales.

22.3. Perturbacion senoidal entre dos estados discretos: resonancias


Para la probabilidad de transicion Pif (t; ) entre dos estados discretos |i i y |f i, consideraremos a t como
parametro fijo y estudiaremos su comportamiento con la variable . Asumiremos que 0, y estudiaremos el
caso en el cual f i > 0, el caso de f i < 0 se puede realizar con un proceso analogo. La idea es encontrar el valor
de para el cual Pif (t; ) es maximo, es decir buscaremos las resonancias en la probabilidad.
Para encontrar las resonancias observamos que las Ecs. (22.27, 22.28) constan del modulo al cuadrado de la
suma de dos numeros complejos

|Wf i |2 2 |Wf i |2
Pif (t; ) = |A + A | ; P if (t; ) = |A+ + A |2 (22.30)
4~2 4~2
1 ei(f i +)t 1 ei(f i )t
A+ ; A (22.31)
(f i + ) (f i )
usando la identidad h i
1 eix = eix/2 eix/2 eix/2 = 2ieix/2 sin [x/2]
las cantidades A dadas en (22.31), se pueden escribir en la forma
sin [(f i + ) t/2]
A+ () = iei(f i +)t/2 (22.32)
(f i + ) /2
sin [(f i ) t/2]
A () = iei(f i )t/2 (22.33)
(f i ) /2
22.3. PERTURBACION SENOIDAL ENTRE DOS ESTADOS DISCRETOS: RESONANCIAS 529

El denominador de A se anula para = f i , y el denominador de A+ se anula para = f i , y dado que el


modulo del numerador de ambos esta acotado, tendremos que para cercano a f i solo sera importante el termino
A . Por esta razon llamamos a A el termino resonante y a A+ el termino anti-resonante. Consideraremos
el caso en el cual
| f i | |f i | (22.34)
despreciando el termino anti-resonante A+ (discutiremos la validez de esta aproximacion en la seccion 22.3.2), las
Ecs. (22.30, 22.33) nos dan
2
|Wf i |2 2 |Wf i |2
i(f i )t/2 sin [(f i ) t/2]
Pif (t; ) = P if (t; ) = |A | = ie
4~ 2 4~ 2 (f i ) /2

|Wf i |2 sin [( f i ) t/2] 2

Pif (t; ) = P if (t; ) = F (t, f i ) ; F (t, f i ) (22.35)
4~2 ( ) /2 fi

de modo que en la aproximacion (22.34), la probabilidad tiene el mismo comportamiento en el caso senoidal y
cosenoidal. La Fig. 22.1 muestra el comportamiento de Pif (t; ) con para tiempo fijo. Esta figura muestra el
comportamiento resonante de la transicion de probabilidad. La resonancia ocurre para = f i (i.e. en la frecuencia
angular de Bohr asociada a los estados final e inicial) en cuyo caso la probabilidad es5

|Wf i |2 2
Pifmax (t; ) = Pif (t; f i ) = t (22.36)
4~2
a medida que nos alejamos de f i en cualquier direccion, la probabilidad decrece alcanzando el valor cero cuando
se cumple la condicion
2
| f i | =
t
h i
cuando continuamos aumentando | f i |, la probabilidad oscila entre |Wf i |2 / ~2 ( f i )2 y cero mostrando
un patron de difraccion.
Dado que hemos asumido que f i > 0, la relacion (22.9) nos indica que Ef > Ei . Por tanto, en presencia de
la perturbacion el sistema parte de un estado Ei de menor energa y termina en un estado Ef de mayor energa
en virtud de la absorcion resonante de un cuanto de energa ~.
El caso f i < 0, se puede resolver analogamente y corresponde al caso en el cual la perturbacion resonante
genera el paso del sistema desde un nivel Ei mas alto a un nivel Ef mas bajo, acompanado por la emision inducida
de un cuanto de energa ~. En este caso la resonancia se obtiene en f i .

22.3.1. Ancho de resonancia e incertidumbre energa tiempo


Ya hemos visto que el maximo absoluto de Pif (t) se obtiene cuando = f i y esta dado por (22.36)

|Wf i |2 2
Pifmax (t; ) = Pif (t; f i ) = t
4~2
es facil ver que el primer maximo secundario se obtiene cuando
( f i ) t 3
=
2 2
y tiene el valor
|Wf i |2 2
Pifseg max
(t; ) = t
9 2 ~2
5
Notese que la funcion F (t, f i ) definida en (22.35) tiene una singularidad removible en = f i , de manera que la reemplazamos
por el lmite f i , con lo cual obtenemos el comportamiento resonante (22.36).
530 CAPITULO 22. TEORIA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

Figura 22.1: Probabilidad de transicion Pif (t; ) a primer orden como funcion de para tiempo fijo. Aparece una
resonancia para f i proporcional a t2 . El ancho de la resonancia es inversamente proporcional a t.

de modo que al comparar los dos maximos se obtiene


Pifseg max
(t; ) 4
= = 4. 5 %
Pifmax (t; ) 9 2

esto justifica el hecho de considerar que casi toda la probabilidad esta en el intervalo comprendido entre los dos
primeros ceros de Pif (t) alrededor de f i . A su vez, esto hace razonable considerar como la distancia entre
dichos ceros, por tanto
4
(22.37)
t
y vemos que el ancho disminuye al aumentar el tiempo de encendido de la perturbacion. El resultado (22.37)
tiene cierta similaridad con la relacion de incertidumbre entre tiempo y energa [ver seccion 5.8.4, Ec. (5.77),
Pag. 230]. Supongamos que queremos medir la diferencia de energa Ef Ei = ~f i aplicando una perturbacion
senoidal cuya frecuencia angular podemos modular para encontrar la resonancia. De acuerdo con la Ec. (22.37),
si la perturbacion actua durante un tiempo t, la incertidumbre E sobre la diferencia Ef Ei sera del orden de
4~
E = ~
t
de lo cual el producto de E por el tiempo no puede ser menor que 4~. Esta relacion guarda cierta similitud con la
relacion de incertidumbre energa-tiempo. No obstante, tal analoga debe tomarse con cuidado ya que en este caso,
el tiempo es una cantidad impuesta externamente por la perturbacion y no corresponde a un tiempo caracterstico
de evolucion del sistema libre [que es el caso de t en la relacion de incertidumbre (5.77)]. Adicionalmente, E
es una incertidumbre asociada a una brecha de energa y no a un valor especfico de la energa.

22.3.2. Condiciones para la validez del metodo perturbativo


Para examinar la validez de los calculos que nos llevaron a la Ec. (22.35) es necesario evaluar por un lado
la aproximacion de resonancia que consistio en despreciar el termino anti-resonante A+ , y por otro lado, la
aproximacion perturbativa a primer orden en el estado (que corresponde a segundo orden en la probabilidad).
22.3. PERTURBACION SENOIDAL ENTRE DOS ESTADOS DISCRETOS: RESONANCIAS 531

Aproximacion de resonancia
Hemos despreciado A+ con respecto a A bajo la hipotesis de que f i . Para justificarlo debemos comparar
los modulos de A . El factor |A ()|2 esta relacionado con Pif (t) de la Ec. (22.35) por un factor constante [ya
que en la Ec. (22.35) se desprecio A+ ], por tanto la forma de la curva que describe a |A ()|2 es la mostrada en
la Fig. 22.1. Ahora bien, las Ecs. (22.32, 22.33) nos muestran que

|A+ ()|2 = |A ()|2 (22.38)

por lo tanto la curva de |A+ ()|2 es la imagen especular de la curva de |A ()|2 con respecto al eje vertical
con = 0. Ambas curvas tienen el mismo ancho . Para poder despreciar A+ en las vecindades de = f i ,
es claro que ambas curvas deben tener un traslapamiento despreciable. En otras palabras, la distancia entre los
centros f i de ambas curvas debe ser mucho mayor al ancho tpico de estas

2 |f i | (22.39)

notese que esta condicion permite ademas despreciar el traslapamiento de modo que

|A+ () A ()|2 |A+ ()|2 + |A ()|2

combinando (22.39) con (22.37) resulta


4 2 1
2 |f i | t =
t |f i | |f i |
1 1
t = (22.40)
|f i |

por tanto el resultado (22.35) es valido siempre y cuando la perturbacion sinusoidal actue un tiempo t largo
comparado con el periodo de la perturbacion. Esto significa que la perturbacion debe realizar muchas oscilaciones
para que la aproximacion de resonancia sea valida. Si por ejemplo tomamos el otro extremo en el cual t 1/,
la perturbacion dura un tiempo mucho menor que una oscilacion y su comportamiento es practicamente lineal en
el tiempo en el caso senoidal y practicamente constante en el caso cosenoidal.
Notese que para una perturbacion constante nunca se satisface la condicion (22.40) puesto que (y por
tanto ) se hace nulo. Esto es de esperarse ya que las ecuaciones (22.32, 22.33) muestran que en este lmite
A+ = A de modo que nunca podemos despreciar el termino anti-resonante. En realidad en la expresion (22.29)
para perturbacion constante, ambos terminos fueron includos en el calculo.
Si para una perturbacion constante Ec. (22.29), hacemos una grafica de Pif (t) versus la frecuencia de Bohr f i
con tiempo fijo (Fig. 22.2), vemos que esta probabilidad es maxima (resonante) cuando f i = 0, es decir cuando
los niveles estan degenerados, y el valor de la probabilidad nos da

|Wf i |2 t2 4
P if (t; f i = 0) = ;
~2 t
podemos decir tambien que la resonancia ocurre para el caso de conservacion de la energa. Notese que el ancho
de la curva es el mismo que en el caso senoidal pero el valor de la probabilidad es cuatro veces mayor. Esto se
debe a que para perturbacion constante ( = 0) tenemos que A+ = A de modo que

|A+ + A |2 = |2A |2 = 4 |A |2

en tanto que en el caso senoidal solo consideramos la contribucion de |A |2 . Puede verse sin embargo que los
perfiles de las figuras 22.1, 22.2 son muy similares y presentan los mismos rasgos generales. Debemos tener en
cuenta sin embargo que en la Fig. 22.1 se grafica con respecto a una variable externa , en tanto que en la Fig.
22.2 se grafica con respecto a una variable del sistema f i .
532 CAPITULO 22. TEORIA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

Figura 22.2: Probabilidad de transicion Pif (t) versus la frecuencia angular de Bohr f i para tiempo fijo a pri-
mer orden con perturbacion constante. Aparece una resonancia para f i = 0 proporcional a t2 . El ancho de la
resonancia es el mismo que en la Fig. 22.1, pero con una intensidad cuatro veces mayor.

Lmite al calculo de primer orden para el estado


Ya habamos mencionado que el calculo de primer orden falla cuando el tiempo que dura la perturbacion se
hace muy largo (y de hecho podra ser que el metodo perturbativo como tal no sea valido). Si tomamos la ecuacion
(22.36) en la resonancia
|Wf i |2 2
Pif (t; = f i ) = t (22.41)
4~2
esta funcion tiende a infinito cuando t , lo cual es una contradiccion puesto que una probabilidad debe ser
menor o igual que uno. En la practica, para que el calculo valga en la resonancia, es necesario que la probabilidad
en (22.41) sea mucho menor que uno, es decir
~
t (22.42)
|Wf i |
En conclusion, para que nuestro calculo a primer orden con la aproximacion de resonancia sea valido, se necesita
un tiempo de conexion de la perturbacion que sea largo en el sentido de la ecuacion (22.40) y corto en el
sentido de la ecuacion (22.42). Por tanto, la validez de este calculo implica combinar ambas condiciones
~
t (22.43)
|Wf i |
la combinacion entre las condiciones (22.40, 22.42) tambien conduce a la relacion
1 ~
~ |f i | |Wf i | (22.44)
|f i | |Wf i |
esta desigualdad implica que la diferencia de energas |Ef Ei | = ~ |f i | es mucho mayor que el elemento de
matriz de W (t) entre los estados |i i y |f i. Condicion similar a la que vimos para la teora estacionaria de
perturbaciones (ver seccion 20.3.2).
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONTINUO 533

Finalmente, el calculo a ordenes superiores a partir de (22.13), muestra que la condicion (22.42) es necesaria
pero no suficiente. Por ejemplo, la Ec. (22.13) muestra que a ordenes superiores aparecen elementos matriciales
Wkn diferentes a Wf i , sobre los cuales tambien hay que imponer condiciones para que la correccion se mantenga
pequena.

22.4. Acoplamientos con estados del espectro contnuo


Puede ocurrir que el estado final pertenezca al espectro contnuo de H0 . En tal caso no podemos medir la
probabilidad de que el sistema quede en un estado bien definido |f i con energa Ef . De acuerdo con el cuarto
postulado para el caso contnuo [ver Ec. 4.9, Pag. 198], la cantidad |hf | (t)i|2 es una densidad de probabilidad.
Lo que se puede predecir y medir en este caso es la probabilidad de que al realizar la medicion el sistema quede
dentro de cierto intervalo o volumen finito6 de estados finales. Por tanto, debemos realizar un proceso de
integracion sobre el volumen dentro del cual se quiere evaluar la probabilidad.
Veremos primero un ejemplo concreto antes de abordar el caso general. Supongamos que una partcula de
masa m sin espn se dispersa en un potencial central W (R) (ver Captulo 18). El estado | (t)i de la partcula en
el tiempo t, se puede expandir en estados contnuos de momento bien definido {|pi} y energa
p2
E= (22.45)
2m
las funciones de onda asociadas son ondas planas [Ec. (1.182), Pag. 97]
 
1 3/2 ipr/~
hr |pi = e (22.46)
2~
la densidad de probabilidad asociada a la medida del momento para un sistema en el estado normalizado | (t)i
esta dada por |hp | (t)i|2 . Un detector en un experimento de dispersion [por ejemplo el que se ilustra en la Fig.
18.5, Pag. 451], subtiende un angulo solido finito de apertura f y emite una senal cuando el momento p de la
partcula esta en una direccion dentro del angulo solido f subtendido por el detector, y su energa esta dentro de
un intervalo de energa Ef centrado en Ef = p2f /2m. Si denotamos por Df el dominio o volumen en el espacio
de momentos antes definido, la probabilidad de obtener una senal en el detector sera
Z
P (pf , t) = d3 p |hp | (t)i|2 (22.47)
pDf

escribiremos el diferencial de volumen d3 p en el espacio de los momentos en coordenadas esfericas


d3 p = p2 dp d (22.48)
es conveniente reemplazar las variables de momento por variables de energa, ya que las probabilidades de transicion
que calcularemos solo tienen sentido si se mide el observable energa. Para ello sustitumos (22.45) en (22.48)
   r 
3 2 p2 dp d  m
d p = p dp d = 2m dE d = 2mE 2mE dE d = 2mE dE d
2m dE dE 2E
h i
d3 p = m 2mE dE d

de lo cual podemos definir una densidad de estados finales (E), asociados a la energa E, en la forma

d3 p = (E) dE d ; (E) = m 2mE (22.49)
y la probabilidad (22.47) queda en la forma
Z
P (pf , t) = d dE (E) |hp | (t)i|2 ; (E) = m 2mE
f , EEf
6
Este es un intervalo o volumen generalizado, ya que la variable a medir puede no ser una variable de posicion. Lo importante es
que la variable se defina con uno o mas rotulos contnuos que generen un conjunto continuo de estados.
534 CAPITULO 22. TEORIA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

22.4.1. El caso general


Supongamos que H0 posee ciertos autoestados rotulados con un conjunto de ndices contnuos, y que el sistema
fsico esta en el estado | (t)i en el tiempo t. Queremos calcular la probabilidad P (f , t) de encontrar al sistema
en un cierto grupo de estados finales despues de desconectar la perturbacion y hacer una medicion de la energa.
Caracterizaremos los autoestados contnuos de H0 con kets |i ortonormales en el sentido generalizado

h =

donde puede simbolizar varios ndices contnuos. Al grupo de estados finales lo caracterizamos por un dominio
Df de valores de los parametros centrados en f , y asumimos que sus energas forman un contnuo. Aplicando
los postulados de la mecanica cuantica obtenemos
Z
P (f , t) = d |h | (t)i|2
Df

en lugar de los ndices , usaremos un conjunto de ndices que contengan a la energa como parte de sus variables

|i |, Ei

donde los otros parametros son necesarios si H0 no forma por s solo un C.S.C.O. Expresaremos entonces d en
terminos de dE y d, por medio de una funcion densidad (, E)

d = (, E) d dE

si denotamos por f y Ef al rango de valores de los parametros y E definidos por Df , obtenemos


Z
P (f , t) = d dE (, E) |h, E | (t)i|2 (22.50)
f , EEf

22.4.2. Regla de oro de Fermi


Al igual que en el estudio de transiciones entre dos estados discretos, asumiremos que el sistema esta original-
mente en un autoestado de H0 bien definido |i i. Por supuesto esto implica que |i i debe pertenecer al espectro
discreto de H0 , pues de lo contrario, el sistema no podra estar en ese estado bien definido.
Notese que los calculos de la seccion 22.1, permanecen validos para el caso de transicion a un conjunto de
autoestados contnuos de H0 . La unica diferencia es que la cantidad (22.3) que se calcula en dicha seccion deja de
ser una probabilidad, para convertirse en una densidad de probabilidad. Si asumimos que la perturbacion W es
constante, las Ecs. (22.29) nos dan la densidad de probabilidad que nos interesa
 
2 1 2 sin (i t/2) 2 E Ei
|h, E | (t)i| = 2 |h, E| W |i i| F (t, i ) ; F (t, i ) , i (22.51)
~ i /2 ~

donde E y Ei son las energas en los estados |, Ei y |i i respectivamente. Sustituyendo (22.51) en la probabilidad
(22.50) tenemos
Z  
1 2 E Ei
P (i , f , t) = 2 d dE (, E) |h, E| W |i i| F t, (22.52)
~ f , EEf ~

la notacion P (i , f , t) enfatiza el hecho de que esta probabilidad depende del estado inicial |i i.
La figura 22.2, Pag. 532, muestra que la funcion F (t, ) vara rapidamente alrededor de i = 0 i.e. alrededor de
E = Ei . Si t es suficientemente largo, esta funcion se puede aproximar dentro de factores constantes a (E Ei ).
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONTINUO 535

Para verlo utilizamos el hecho de que una de las sucesiones que converge a la distribucion delta de Dirac esta dada
por
1 sin2 (nx)
lm = (x) (22.53)
n n x2
as como la propiedad
1
(cx) = (x) (22.54)
|c|
aplicando las propiedades (22.53, 22.54) a la funcion F (t, i ) de la Ec. (22.51), obtenemos
   
1 sin2 [t (i /2)] i E Ei
lm F (t, i ) = t = t = t
t t (i /2)2 2 2~
 
E Ei
lm F t, = 2~t (E Ei ) (22.55)
t ~

por otro lado, la funcion (, E) |h, E| W |i i|2 generalmente vara de una manera mucho mas suave que
F (t, i ) con respecto a E. Asumiremos que t es suficientemente grande para que la variacion de esta funcion sobre
un intervalo de energa de ancho 4~/t centrado en E = Ei , sea despreciable (es decir, sobre un intervalo de ancho
E asociado a en una grafica similar a la Fig. 22.2). La variacion con la energa de (, E) |h, E| W |i i|2
debe ser suficientemente pequena para que existan valores de t que cumplan la anterior condicion, pero ademas
la funcion como tal debe ser suficientemente pequena para que el tratamiento perturbativo sobre W sea valido.
Asumiremos ademas que
4~
Ef = ~
t
y que f es lo suficientemente pequeno para despreciar la variacion del integrando con este parametro. Bajo estas
aproximaciones podemos escribir
Z "Z #
2~t
P (i , f , t) d dE (, E) |h, E| W |i i|2 (E Ei )
~2 f EEf
Z h i
2t
d (, Ef = Ei ) |h, Ef = Ei | W |i i|2
~ f
2t h i
(f , Ef = Ei ) |hf , Ef = Ei | W |i i|2 f (22.56)
~
debemos tener en cuenta sin embargo, que la delta de Dirac nos dice que esta integral se anula si la energa del
estado inicial Ei no pertenece al dominio de estados finales. El resultado final es entonces
( h i
2
f 2
~ t (f , Ef = Ei ) |hf , Ef = Ei | W |i i| si Ei Ef
P (i , f , t) (22.57)
0 si Ei
/ Ef
Lo cual concuerda con la discusion en la seccion 22.3.2, segun la cual, para una perturbacion constante el com-
portamiento resonante (en el caso discreto) se obtiene cuando los niveles estan degenerados Ei = Ef . En el caso
en que los estados finales estan en el contnuo, una perturbacion constante puede inducir transiciones solo entre
estados de la misma energa (dentro de una intervalo 2~/t). Por esta razon la probabilidad de transicion es cero
si Ei esta fuera del dominio Ef .
La probabilidad (22.57), se incrementa linealmente con el tiempo7 , por tanto la probabilidad de transicion
por unidad de tiempo definida por
d 2 h i
W (i , f ) = P (i , f , t) f (f , Ef = Ei ) |hf , Ef = Ei | W |i i|2 (22.58)
dt ~
7
Naturalmente, esto no implica que la probabilidad pueda llegar a ser mayor que uno, ya que para estos rangos el calculo perturbativo
ha perdido su validez.
536 CAPITULO 22. TEORIA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

es independiente del tiempo. Introduciremos la densidad de probabilidad de transicion por unidad de tiempo y
por unidad de volumen f , asociado a los parametros remanentes

W (i , f )
w (i , f ) = (22.59)
f

que de acuerdo con la Ec. (22.58) vienen dada por


2
w (i , f ) = |hf , Ef = Ei | W |i i|2 (f , Ef = Ei ) (22.60)
~
resultado conocido como regla de oro de Fermi.

22.4.3. Probabilidad de transicion hacia el contnuo para perturbacion senoidal


Sea W una perturbacion senoidal de la forma (22.24) o (22.25), que acopla un estado discreto |i i con un
conjunto de estados contnuos |f , Ef i con energas Ef cercanas a Ei + ~ (siendo la frecuencia angular de la
perturbacion). Comenzando con la Ec. (22.35) podemos realizar el mismo procedimiento de la seccion 22.4.2, para
encontrar

w (i , f ) = |hf , Ef = Ei + ~| W |i i|2 (f , Ef = Ei + ~) (22.61)
2~

22.4.4. Dispersion y regla de oro de Fermi


Retomaremos el problema de la dispersion de una partcula por un potencial W (r). Asumamos que el estado
inicial del proyectil es un autoestado de momento

| (t = 0)i = |pi i

y calcularemos la probabilidad de que la partcula incidente de momento pi se disperse dentro de un grupo de


estados de momento p definidos en un volumen de momento pf centrado en pf , con la restriccion |pi | = |pf |
(colision elastica). En este caso la energa esta determinada por el modulo del momento, de modo que los parametros
remanentes son los angulos que determinan al vector p. En consecuencia, f f es un angulo solido. La
regla de oro de Fermi (22.60) nos da la probabilidad w (pi , pf ) por unidad de tiempo por unidad de angulo solido
alrededor de p = pf

2
w (pi , pf ) = |hf , f ; |pf | = |pi || W |pi i|2 (f , f ; |pf | = |pi |)
~
naturalmente el ket |f , f ; |pf |i es simplemente el ket |pf i, donde tendremos en cuenta la restriccion |pi | = |pf |
2
w (pi , pf ) = |hpf | W |pi i|2 (Ef = Ei ) (22.62)
~
Primero calculamos el elemento matricial hpf | W |pi i
Z

hpf | W (r) |pi i = d3 r d3 r hpf | ri hr| W r r |pi i


Z " 3/2 # " 3/2 #
1   1
= d3 r d3 r eipf r/~ W (r) hr| r eipi r /~
2~ 2~
  Z
1 3  
= d3 r d3 r eipi r /~ eipf r/~ W (r) r r
2~
  Z
1 3 i
hpf | W (r) |pi i = d3 r W (r) e ~ (pi pf )r (22.63)
2~
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONTINUO 537

utilizando la expresion (22.49) para (E), as como la Ec. (22.63), la expresion (22.62) queda en la forma
 6 Z 2
2 1 i
( ) p
w (pi , pf ) = d r W (r) e ~ i f m 2mEi
3 p p r
(22.64)
~ 2~

notese que la integral al lado derecho de esta ecuacion es la transformada de Fourier del potencial W (r), evaluada
en p pi pf .
Podemos observar que aqu se ha estudiado un proceso de transicion entre un estado (bien definido) del contnuo
hacia un conjunto de estados en el contnuo. La regla de oro de Fermi se desarrollo para transiciones entre un
estado discreto hacia un conjunto de estados del contnuo. No obstante, a pesar de que el estado inicial (impropio)
|pi i no es normalizable (y por tanto no representa estrictamente un estado fsico) la expresion a la derecha de
(22.64) posee un valor finito. Es entonces de suponer que se puede obtener un resultado fsico razonablemente
acertado de este calculo. Teniendo en cuenta la definicion de seccion eficaz diferencial de dispersion Ec. (18.3) Pag.
438, podemos obtener tal cantidad si dividimos la densidad de probabilidad w (pi , pf ) por la corriente incidente
de probabilidad Ji [asociada a |pi i, i.e. a una onda plana Ec. (18.33), Pag. 448]
      r
1 3 ~ki 1 3 |pi | 1 3 2Ei
Ji = = =
2~ m 2~ m 2~ m

con lo cual la seccion eficaz diferencial de dispersion queda


Z 2
w (pi , pf ) m2 3 i
(p p ) r


D () = = 2 4 d r W (r) e ~ i f

Ji 4 ~

que es la expresion para dicha cantidad en la aproximacion de Born, Ec. (18.68) Pag. 456.
Vemos entonces que la seccion eficaz diferencial de dispersion se puede obtener de un formalismo dependiente
del tiempo como es la regla de oro de Fermi, a pesar de que el calculo implica utilizar como estado inicial a un
estado impropio en lugar de un estado discreto.
Captulo 23

Estructura fina e hiperfina del atomo de


Hidrogeno

Las interacciones mas importantes en los atomos son las interacciones electrostaticas coulombianas. En el
captulo 13, estudiamos al atomo de hidrogeno descrito por el Hamiltoniano

P2 q2 1 e2
H0 = + V (R) ; V (R) = (23.1)
2 40 R R

donde el primer termino representa la energa cinetica del atomo en el sistema de referencia centro de masa siendo
la masa reducida del sistema. El potencial V (R) describe la energa de interaccion electrostatica entre el proton
y el electron.
No obstante, en el Hamiltoniano (23.1) se han ignorado todos los efectos relativistas, esta aproximacion esta
bien justificada si tenemos en cuenta que en el modelo de Bohr la velocidad v asociada a la primera orbita n = 1
satisface la condicion (2.18), Pag. 117
v e2 1
= = 1 (23.2)
c ~c 137
los efectos relativistas aparecen como acoples del espn del electron y del proton con campos magneticos y son
mucho menores que el efecto generado por la interaccion electrostatica. Sin embargo, dada la alta resolucion
de los experimentos espectroscopicos estos efectos son observables. Por tanto, daremos cuenta de estos efectos
incluyendolos en un termino W en el Hamiltoniano

H = H0 + W

donde W es mucho mas pequeno que H0 , razon por la cual podemos utilizar teora estacionaria de perturbaciones
para el calculo de estos efectos. Como resultado, surgira la llamada estructura fina as como la estructura
hiperfina de los niveles de energa. Estos desdoblamientos adicionales del atomo de Hidrogeno se han medido con
gran precision. De hecho la estructura hiperfina del estado 1s del atomo de Hidrogeno es una de las cantidades
fsicas mejor medidas que existen. Los conceptos que se introduciran en este captulo son fundamentales en Fsica
atomica.

23.1. El Hamiltoniano de estructura fina


El espn aparece de manera natural cuando establecemos una ecuacion para el electron que satisfaga los
postulados de la relatividad especial y de la mecanica cuantica. Esto nos conduce a la denominada ecuacion de
Dirac, la cual genera los terminos de la estructura fina y ademas predice la existencia del positron (la antipartcula
del electron).

538
23.1. EL HAMILTONIANO DE ESTRUCTURA FINA 539

En rigor, se debe plantear la ecuacion de Dirac para un electron sometido al potencial coulombiano V (r) creado
por el proton, considerando a este ultimo como infinitamente pesado y por tanto fijo en un sistema coordenado
inercial. Despues se analiza el lmite de bajas velocidades en el cual los efectos relativistas aparecen a primer orden
en v/c. Cuando se realiza este procedimiento, se encuentra que el estado electronico se debe describir como un
espinor de dos componentes, con lo cual los operadores de espn S1 , S2 , S3 aparecen en forma natural.
En este contexto no estudiaremos la ecuacion de Dirac, y nos limitaremos a escribir los primeros terminos en
la serie de potencias en v/c de W junto con su interpretacion

P2
H = me c2 + H0 + Wf ; Wf = Wmv + WSO + WD + . . . , H0 = + V (R) (23.3)
2me
P4 1 1 dV (R) ~2
Wmv = ; WSO = LS ; WD = 2 V (R) (23.4)
8m3e c2 2m2e c2 R dR 8m2e c2

los dos primeros terminos corresponden a la autoenerga o energa en reposo del electron me c2 y el Hamiltoniano
no-relativista H0 que se estudio en el captulo 13. Los demas son terminos relativistas que conducen a la estructura
fina del espectro.
Vale anotar que la ecuacion de Dirac se puede resolver en forma exacta para un electron inmerso en un
potencial coulombiano. Sin embargo, el uso de la teora de perturbaciones (que es un metodo aproximado) permitira
familiarizarnos con los procedimientos que se utilizan para atomos de muchos electrones, para los cuales no sabemos
como escribir la ecuacion relativista asociada, ni tenemos soluciones exactas.

23.1.1. Orden de Magnitud de H0


Con el fin de comparar los terminos perturbativos con el Hamiltoniano no perturbado H0 , es necesario calcular
el orden de magnitud de H0 numericamente. Sin embargo, la comparacion se facilita si escribimos dicho orden de
magnitud en terminos de cantidades fsicas universales. Para el Hamiltoniano dado por (23.1)

P2 q2 1 e2
H0 = + V (R) ; V (R) =
2 40 R R

el orden de magnitud de la energa cinetica se puede extraer de (23.2)


2
P m2e v 2 me c2 2 me e4
= (23.5)
2 2me 2 2~2

el orden de magnitud de la energa potencial se puede obtener reemplazando R por el radio de Bohr, y utilizando
la Ec. (13.2), Pag. 357
e2 me e4
|V (R)| = (23.6)
a0 ~2

comparando (23.5) con (23.6) vemos que en orden de magnitud la energa cinetica y potencial tienen valores
similares. Como nuestro proposito es solo comparar ordenes de magnitud, es razonable suponer que H0 tiene el
mismo orden de magnitud que la energa cinetica y la potencial, escribiremos entonces
2
P 4 2
|H0 | |V (R)| me c2 2 = me e = e 10eV (23.7)
2me ~2 a0

utilizaremos las aproximaciones (23.7) a nuestra conveniencia.


540 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

23.1.2. Termino de correccion cinetica Wmv


Si comenzamos con la expresion relativista de la energa de una partcula clasica de masa en reposo me y
momento p
s  2 "  2  4 #
p 2 p 2 1 p 1 p
E = c p2 + m2e c2 = me c 1 + = me c 1 + + ...
me c 2 me c 8 me c
p2 p4
E = me c2 + + ...
2me 8m3e c2
los dos primeros terminos en la expansion de E en potencias de (p/me c)2 , corresponden a la energa en reposo y
el termino cinetico no relativista. El tercer termino proporcional a p4 es la primera correccion relativista asociada
a la variacion de la masa con la velocidad. Podemos evaluar el orden de magnitud relativo de esta contribucion
tomando el cociente

Wmv p4 / 8m3e c2 p2 m2e v 2
= =
H0 p2 / (2me ) 4m2e c2 4m2e c2
   2
Wmv 1 v 2 1 2 1 1
(23.8)
H0 4 c 4 4 137
donde hemos usado las aproximaciones (23.2, 23.7). En numeros se tiene que H0 10eV de modo que Wmv
103 eV .

23.1.3. Acoplamiento espn-orbita WSO


El electron se mueve a una velocidad v = p/m, en el campo electrostatico E creado por el proton. En el
sistema de referencia propio del electron se observa movimiento del proton, lo cual genera (visto en el sistema
propio del electron) un campo magnetico B que a primer orden en v/c, esta dado por
1
vE B = (23.9)
c2
y dado que el electron posee un momento dipolar magnetico intrnseco MS dado por
q
MS = S (23.10)
me
[ver Ec. (15.4), Pag. 389], este interactua con el campo magnetico B . La energa de interaccion asociada esta dada
por1
W = Ms B (23.11)
de la Ec. (23.9) podemos escribir B en la forma
1 1 V (r) 1 dV (r) r
B = v E = 2v = me v
c2 c q me qc2 dr r
1 1 dV (r)
B = pr
me qc2 r dr
cuantizando los observables en el campo y teniendo en cuenta que V (r) = e2 /r, la energa de interaccion queda
   
q 1 1 dV (R) 1 1 dV (R)
W = Ms B = S 2
PR = 2 2 SL
me me qc R dR me c R dR
1 1 dV (R) e2 1
W = L S = LS
m2e c2 R dR m2e c2 R3
1
La energa potencial asociada a (23.11) es una extrapolacion directa del analogo en electrodinamica clasica, segun el cual la energa
de interaccion de un sistema de cargas con momento magnetico orbital M = qL/me esta dado por W = Ms B
23.1. EL HAMILTONIANO DE ESTRUCTURA FINA 541

vemos sin embargo de la Ec. (23.4), que el termino WSO posee una correccion adicional con un factor de 1/2.
Este factor proviene del hecho de que el movimiento del electron alrededor del proton no es rectilneo2 . El espn
del electron rota con respecto a un sistema de referencia inercial, generando una precesion de Thomas. Tenemos
entonces el termino de interaccion espn-orbita dado por

1 1 dV (R) e2 1
WSO = 2 2
L S = LS (23.12)
2me c R dR 2me c R3
2 2

para estimar el orden de magnitud de este termino, tenemos en cuenta que L y S son del orden de ~, y que R es
del orden del radio de Bohr a0 , de modo que

e2 ~2
WSO (23.13)
2m2e c2 a30

y al compararlo con |H0 | de la Ec. (23.7), se obtiene


  2
WSO ~2 e2 / 2m2e c2 a30 ~2 1 ~2 me e2
= =
H0 e2 /a0 2m2e c2 a20 2m2e c2 ~2
 
WSO e4 2 1 1 2
= (23.14)
H0 2~2 c2 2 2 137

23.1.4. Termino de Darwin


La ecuacion de Dirac es local, puesto que la interaccion entre el electron y el campo de coulomb generado por
el nucleo depende de la posicion del electron r. Sin embargo, la aproximacion no relativista en forma de expansion
en potencias de v/c, conduce a una ecuacion no-local para el espinor de dos componentes que describe al estado
electronico i.e. una ecuacion en la cual la interaccion entre el electron y el campo es no-local. En esta ecuacion el
electron es afectado por todos los valores que toma el campo en un cierto dominio centrado en r, y cuyo tamano
es del orden de magnitud
C ~
el = (23.15)
2 me c
siendo C la longitud de onda de Compton del electron [ver Ecs. (13.37, 13.38), Pag. 366].
Vamos a modelar en forma semi-cuantitativa esta interaccion no-local. Asumamos que la energa potencial del
electron en lugar de estar dada por V (r), esta descrita por una expresion de la forma
Z
V = d3 f (||) V (r + ) (23.16)

donde f (||) es una cantidad cuya integral es igual a la unidad, y que solo toma valores significativos dentro de
una esfera de radio el ~/me c centrada en = 0. Es decir, si integramos f (||) dentro de esta esfera el resultado
es casi la unidad3 .
Si asumimos que V (r) no posee una variacion sensible en una distancia del orden de el , podemos reemplazar
V (r + ) por V (r) dentro de la esfera en donde f (||) es significativa. Por tanto, podemos sacar el potencial
V (r) de la integral y la integral de f (||) es practicamente la unidad. En este caso, la expresion (23.16) se reduce
a V (r).
2
La Ec. (23.9) es una transformacion de la relatividad especial, de modo que solo es valida cuando el sistema de referencia S se
mueve con velocidad constante con respecto a S.
3
El vector es un vector posicion definido tomando la posicion r del electron como el origen. Puede pensarse que dado el caracter
probabilstico de la mecanica cuantica, la interaccion del proton no es con un electron puntual sino con una nube electronica centrada
en r, y con un radio caracterstico dentro del cual la probabilidad de encontrar al electron es casi la unidad. En tal caso, es de esperarse
que la funcion de peso f (||) dada en la Ec. (23.16) corresponda a la densidad de probabilidad asociada a cada punto del espacio, y
esperamos que el maximo de esta funcion este en = 0.
542 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

Sin embargo, podemos obtener mas informacion de (23.16) si expandimos V (r + ) en su serie de Taylor
alrededor de = 0.
1
V (r + ) = V (r) + i i V (r) + i j i j V (r) + . . .
2
con lo cual la expresion (23.16) queda
Z Z Z
1
V = V (r) d3 f (||) + i V (r) d3 i f (||) + [i j V (r)] d3 i j f (||) + . . .
2
Z
1
V = V (r) + [i j V (r)] d3 i j f (||) + . . . (23.17)
2
donde hemos tenido en cuenta que i f (||) es una funcion impar que por tanto se anulara al integrar sobre una
esfera centrada en = 0. Por tanto, el primer termino no-local en la Ec. (23.17) es proporcional a las segundas
derivadas del potencial, y a la integral de f (||) por funciones cuadraticas en integradas sobre el volumen. Como
la integracion se hace desde || = 0 hasta || el podemos asumir que el valor promedio de || es del orden de
el /2, de modo que
Z   Z
1 1 2  el 2 1 2 
[i j V (r)] d3 i j f (||) V (r) d3 f (||) V (r) 2el
2 2 2 8
Z 2
1 ~
[i j V (r)] d3 i j f (||) 2 V (r) (23.18)
2 8m2e c2
donde se ha usado la Ec. (23.15). Hemos llegado a la Ec. (23.18) por argumentos semi-cuantitativos, esta expresion
coincide sin embargo con la Ec. (23.4) que define al termino de Darwin WD . Aplicando este termino a V (r) = e2 /r
tenemos que
2   2
2 ~ 2 1 2 ~
WD = e = 4e (R)
8m2e c2 R 8m2e c2
e2 ~2
WD = (R) (23.19)
2m2e c2
donde hemos usado (18.50), Pag. 452. Tomando el promedio de este termino en un estado atomico (r) se obtiene
Z Z
e2 ~2 e2 ~2
hWD i = h| WD |i = 3
(r) (r) (r) d r = | (r)|2 (r) d3 r
2m2e c2 2m2e c2
e2 ~2
hWD i = 2 2
| (0)|2 (23.20)
2me c
en consecuencia el termino de Darwin solo afecta a electrones en el estado s (l = 0) que son los unicos para los
cuales (0) 6= 0 (ver seccion 13.6.1, Pag. 369). El orden de magnitud de | (0)|2 se obtiene teniendo en cuenta
que la integral sobre la esfera de radio a0 centrada en r = 0, de la funcion de onda es aproximadamente la unidad
Z Z
2 2
| (r)| dV | (0)| dV | (0)|2 a30 1
V V
2 1
| (0)| (23.21)
a30
sustituyendo (23.21) en (23.20) y usando la Ec. (2.21) Pag. 117 tenemos que
e2 ~2 2 e2 ~2 1 e2 ~2 m3e e6 2 e
8
hWD i = | (0)| = = m e c
2m2e c2 2m2e c2 a30 2m2e c2 ~6 2 ~4 c4
e8
hWD i me c2 = me c2 4 (23.22)
~4 c4
23.2. ESTRUCTURA HIPERFINA 543

donde hemos usado (23.2). De la Ec. (23.7) tenemos que H0 me c2 2 y por tanto
 2
WD 1
2 = (23.23)
H0 137

de las Ecs. (23.8, 23.14, 23.23) vemos que todos los terminos de la estructura fina son unas 104 veces menores que
el Hamiltoniano no perturbado H0 que se trabajo en el captulo 13.

23.2. Estructura hiperfina


Hasta el momento hemos considerado al proton como una partcula puntual de masa Mp y carga qp = qe .
Sin embargo, el proton al igual que el electron es una partcula de espn 1/2. Denotaremos como I al observable
de espn del proton. Tenemos entonces un momento magnetico de espn del proton MI . No obstante, el factor
giromagnetico es diferente al del electron

gp n qp ~
MI = I ; n = , gp 5,585 (23.24)
~ 2Mp

debido a la presencia de la masa del proton en el denominador de (23.24), el magneton nuclear de Bohr n es
unas 2000 menor que el magneton de Bohr electronico B . Aunque el momento angular del proton y el electron
son iguales, el magnetismo nuclear es mucho menos importante que el electronico debido a la gran diferencia de
masa. Por tanto, las interacciones magneticas debidas al espn del proton I, son muy debiles y daran lugar a la
estructura hiperfina del atomo de Hidrogeno.
El electron se mueve no solo en el campo electrostatico del proton sino tambien en el campo magnetico
generado por MI . Puesto que la estructura hiperfina es muy pequena, podemos encontrarla usando la ecuacion
(no-relativista) de Schrodinger. Cuando se introduce el potencial vectorial asociado al campo magnetico generado
por MI , aparecen un conjunto adicional de terminos dados por???
 
0 q 1 8
Whf = L MI + 3 [3 (MS n) (MI n) MS MI ] + MS MI (R) (23.25)
4 me R3 R 3

donde MS es el momento magnetico de espn del electron, y n el vector unitario que va desde el proton hacia
el electron. Veremos que los terminos Whf son mucho menores que los de Wf y de all el termino de estructura
hiperfina.

23.2.1. Interpretacion de los terminos en la estructura hiperfina


El primer termino en (23.25) representa la interaccion entre MI y el campo magnetico

0 qL
Be =
4me r 3
que actua sobre el proton y que tiene como fuente a la carga electronica en rotacion.
El segundo termino en (23.25) es la interaccion dipolo-dipolo entre los momentos magneticos nuclear y electroni-
co. Es decir, la interaccion de MS con el campo magnetico generado por MI , o vice versa.
El ultimo termino en (23.25) se conoce como termino de contacto de Fermi, y surge de la singularidad
en r = 0 del campo creado por MI . En la realidad, el proton no es puntual y el campo magnetico dentro del
proton no tiene la misma forma que el creado por MI (y que entra en la interaccion dipolo-dipolo). El termino
de contacto describe la interaccion de MS con el campo magnetico en el interior del proton. La funcion delta de
Dirac en este termino revela que como su nombre lo indica, el termino de contacto solo existe cuando las funciones
de onda del proton y del electron se traslapan.
544 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

Considerando que todos los momentos angulares son del orden de ~, y usando las Ecs. (23.10, 23.24), el orden
de magnitud de los dos primeros terminos en (23.25) viene dado por
  g
0 q 0 q 0 q p n
kWhf 1 k
4 me R3 L M
I . kLk kM I k = ~ I
4 me a30 4me a30 ~
0 q 0 q 0 q q~
kWhf 1 k . 3 gp kn k kIk = 3 gp ~ kn k = 3 gp ~
4me a0 4me a0 4me a0 2Mp
gp q ~ 2 2 0
kWhf 1 k . (23.26)
2 me Mp a30 4

similarmente
0 1
kWhf 2 k {k3 (MS n) (MI n) MS MI k}
4 a30
0
. {3 (kMS k knk) (kMI k knk) + kMS k kMI k}
4a30

0 0 0 q gp n
{3 kM k kM k + kM k kM k} = kM k kM k = S I
a30 me
S I S I S I
4a30 a30 ~
0 q 2
gp n 0 q 0 q q~ q 2 ~2 0
= ~ = ~g p k n k = ~g p = gp
a30 me ~ a30 me a30 me 2Mp me Mp a30 2
q 2 ~2 0
kWhf 2 k . 2gp (23.27)
me Mp a30 4

de las ecuaciones (23.26, 23.27) tenemos entonces

5 q 2 ~2 0
kWhf 1 k + kWhf 2 k . gp
2 me Mp a30 4

y usando las relaciones


1 2 q2
0 = ; e = (23.28)
0 c2 40
junto con (23.59) obtenemos

5 ~2 q2 5 ~2 ~2  m c 3
2 1 5 e
kWhf 1 k + kWhf 2 k . gp 3 2
= gp 2
e 3 = gp 2
~c
2 me Mp a0 40 c 2 me Mp c a0 2 me Mp c ~
5 me
kWhf 1 k + kWhf 2 k . gp me c2 4
2 Mp

al compararlo con (23.13) vemos que estos terminos son unas 2000 veces mas pequenos que WSO . Similarmente,
el termino de contacto de Fermi es unas 2000 veces menor que el termino de Darwin Ec. (23.19) [ambos contienen
un factor (R)].

23.3. Estructura fina del nivel n = 2


En el captulo 13, vimos que los niveles de energa del atomo de Hidrogeno solo dependen del numero cuantico n,
cuando solo se considera la interaccion electrostatica. En particular, los estados 2s (n = 2, l = 0) y 2p (n = 2, l = 1)
poseen la misma energa dada por la Ec. (13.43), Pag. 367 con n = 2

EI 1
= c2 2 (23.29)
4 8
23.4. REPRESENTACION MATRICIAL DE LA ESTRUCTURA FINA PARA EL NIVEL N = 2 545

cuando se ignora el espn, la subcapa 2s corresponde a un estado singlete (no degenerado), y la subcapa 2p
corresponde a un triplete asociado a los 3 valores propios diferentes de L3 , m = 1, 0, 1.
No obstante, la introduccion del espn del electron y del proton incrementa el grado de degeneracion de los
niveles de energa. El nivel de degeneracion de cada subcapa se multiplica por cuatro, puesto que S3 e I3 pueden
tomar cada uno dos valores diferentes mS = 1/2, mI = 1/2. En particular, una base posible para la subcapa
2s es  

n = 2; l = 0; mL = 0; mS = 1 ; mI = 1
2 2
de modo que la subcapa 2s es de dimension cuatro. Para la subcapa 2p, una base posible es
 

n = 2; l = 1; mL = 1, 0, 1; mS = 1 ; mI = 1
2 2

de modo que la subcapa 2p es de dimension doce. En consecuencia la dimension del subespacio generado por n = 2
(grado de degeneracion de E2 ) es 16.
De acuerdo con la discusion dada en la seccion 20.4, debemos diagonalizar la matriz 16 16 que representa la
restriccion de W al subespacio E2 , con el fin de calcular el efecto de tal perturbacion. Asumiremos que el atomo
esta aislado de modo que no intervienen campos electricos o magneticos externos. En cuyo caso el Hamiltoniano
completo vendra dado por
H = H0 + W = H0 + Wf + Whf

y puesto que Whf es unas 2000 veces menor que Wf , comenzaremos evaluando las correcciones de estructura fina
asociadas a Wf . Veremos que Wf remueve parcialmente la degeneracion de grado 16 que posee el nivel n = 2,
generando la estructura fina. El Hamiltoniano Whf producira una remocion adicional de la degeneracion que
conduce a la estructura hiperfina. En las siguientes secciones realizaremos el calculo de la estructura fina para
n = 2 y en la seccion 23.9 se realizara el calculo de la estructura hiperfina para n = 1. El procedimiento para
calcular la estructura fina e hiperfina de otros niveles es analogo.

23.4. Representacion matricial de la estructura fina para el nivel n = 2


Veremos que las propiedades de los elementos matriciales de Wf (en la base de autoestados de H0 ), nos conduce
a una estructura diagonal por bloques de submatrices mas pequenas. Este hecho simplificara considerablemente
el calculo de los valores y vectores propios en el subespacio E2 .
Comenzaremos caracterizando una serie de observables que conmutan con el Hamiltoniano Wf . En primer
lugar, las Ecs. (23.3, 23.4) muestran que Wf no depende del observable I (espn del proton). En consecuencia, Wf
conmuta con I. Por tanto, el teorema 1.68, Pag. 58, nos indica que los elementos matriciales que conectan a dos
estados diferentes de mI son nulos
 
1
1
n; l ; mL ; mS ; mI = Wf n; l; mL ; mS ; mI = =0 (23.30)
2 2

de hecho, puesto que Wf no depende de I, podemos omitir este numero cuantico en todos los calculos que involucran
a la estructura fina Wf , multiplicando por 2 todo grado de degeneracion que se obtenga. De esta forma la matriz
16 16 se desacopla en dos matrices 8 8 en la forma
 
(Wf )88 088
(Wf )1616 = = (Wf )88 I22 (23.31)
088 (Wf )88

donde hemos tenido en cuenta que ademas las submatrices 8 8 sobre la diagonal de (Wf )1616 son identicas.
546 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

Probaremos ahora que Wf conmuta con L2 . Para verlo, observemos que L2 conmuta con todas las componentes
de L, con R = |R| (ya que L2 solo actua sobre variables angulares), con P2 4 , y con S (ya que L2 no depende de
variables de espn). En consecuencia, las Ecs. (23.3, 23.4) nos muestran que L2 conmuta con Wmv [el cual depende
2
de P2 ], con WSO (el cual depende de R, L y S) y con WD (que solo depende de R). De nuevo el teorema 1.68,
nos indica que elementos matriciales que involucran a valores propios diferentes de L2 se anulan5


n; l ; mL ; mS ; mI Wf |n; l; mL ; mS ; mI i = 0 si l 6= l (23.32)
en particular estados asociados a las subcapas 2s y 2p corresponden a valores propios diferentes de L2 (0 y 2~2
respectivamente). Por tanto, los elementos matriciales de Wf que conectan a un estado 2s con un estado 2p
se anulan. En consecuencia, la matriz (Wf )88 representativa de Wf para el nivel n = 2, se desacopla en una
submatriz 2 2 asociada a la subcapa 2s y otra submatriz 6 6 asociada a la subcapa 2p.
 
Wf2s 026
(Wf )88 = 22   (23.33)
062 Wf2p
66

la matriz se ha diagonalizado en bloques de 2 2 y 6 6. La propiedad anterior tambien se puede ver del hecho de
que Wf es de paridad par. Para verlo, notemos que bajo paridad, ocurren los siguientes cambios en los observables
R R ; R R, P P, P2 P2 , L L, S S
y aplicando esta operacion en las Ecs. (23.3, 23.4) vemos que Wf permanece invariante bajo paridad. Por tanto,
Wf no tiene elementos de matriz que conecten a un estado 2s con un estado 2p, puesto que estos estados tienen
paridades opuestas.

23.5. Calculo de los terminos cinetico y de Darwin


Puede verificarse que los terminos Wmv y WD conmutan con las componentes de L. Esto se puede ver teniendo
en cuenta que L actua sobre variables angulares y conmuta con R y P2 . En consecuencia, los operadores Wmv y
WD son operadores escalares con respecto a las variables orbitales. Por tanto, los terminos matriciales asociados
a los operadores Wmv y WD son nulos cuando dichos elementos de matriz estan asociados a dos valores diferentes
de mL . Adicionalmente, la Ec. (23.4) muestra que Wmv y WD no dependen de S, por tanto las matrices que
representan a estos operadores son proporcionales a la identidad. Notese que estas propiedades son validas para
valores arbitrarios de n, l, m.
Por otro lado, puesto que ignoraremos el espn del proton, el subespacio asociado a 2s sera de dimension 2,
correspondiente a los valores posibles ms = 1/2 de S3 . As mismo el subespacio asociado a 2p sera de dimension 6,
correspondiente a los valores posibles ms = 1/2 de S3 , y m = 1, 0, 1 de L3 . Esto nos conduce a las submatrices
2 2 y 6 6 descritas en la Ec. (23.33).
En consecuencia, para las submatrices de dimension 2 2 asociadas a los terminos cinetico y de Darwin en
(23.33) tenemos que
 
2s
 P4
Wmv 22 = hn = 2; l = 0; mL = 0| 3 2 |n = 2; l = 0; mL = 0i I22 (23.34)
8me c
 2 
2s
 ~ 2
WD 22 = hn = 2; l = 0; mL = 0| V (R) |n = 2; l = 0; mL = 0i I22 (23.35)
8m2e c2
4
De la Ec. (12.29), Pag. 350, podemos ver que en la base {|ri} el operador P2 se escribe en la forma
 
~2 ~2 1 2 L2
P2 = 2 = r
2 2 r r 2 ~2 r 2
y teniendo en cuenta que L2 solo depende de variables angulares, se sigue que P2 conmuta con L2 .
5
Notese que las Ecs. (23.30, 23.32) son validas para cualquier valor de n y no solo para n = 2. Por tanto, es muy facil extender los
argumentos anteriores para otros valores de n.
23.5. CALCULO DE LOS TERMINOS CINETICO Y DE DARWIN 547

donde la constante de proporcionalidad de la identidad para cada termino esta dada por elementos matriciales
puramente orbitales. Para el caso especfico de V (R) = e2 /R, la Ec. (23.19) nos dice que (23.35) se convierte en

2s
 e2 ~2
WD 22
= hn = 2; l = 0; mL = 0| (R) |n = 2; l = 0; mL = 0i I22 (23.36)
2m2e c2

Similarmente, las submatrices de dimension 6 6 asociadas a los terminos cinetico y de Darwin en (23.33)
vienen dadas por
 
2p
 P4
Wmv 66
= hn = 2; l = 1; mL | 3 2 |n = 2; l = 1; mL i I66 (23.37)
8m c
   2e 
2p ~ 2
WD = hn = 2; l = 1; mL | V (R) |n = 2; l = 1; mL i I66
66 8m2e c2
  e2 ~2
2p
WD = hn = 2; l = 1; mL | (R) |n = 2; l = 1; mL i I66 (23.38)
66 2m2e c2

donde la identidad 6 6 se debe a que no hay acople entre los terminos con mS 6= mS o con mL 6= mL . Las
Ecs. (23.34, 23.36) as como las Ecs. (23.37, 23.38) nos indican que para calcular la contribucion de los terminos
cinetico y de Darwin con V (R) = e2 /R, bastara con calcular factores complejos de la forma

1
hWmv i = hn, l, mL | P4 |n, l, mL i (23.39)
8m3e c2
e2 ~2
hWD i = hn, l, mL | (R) |n, l, mL i (23.40)
2m2e c2

para calcular el termino hWmv i escribimos


 2
P2 4 2 2 2 e2
H0 = + V (R) P = 4me [H0 V (R)] = 4me H0 +
2me R
 2 2 4

e e e
P4 = 4m2e H02 + H0 + H0 + 2
R R R

tomando el valor medio de P4 en un estado no perturbado |n,l,m i del atomo de Hidrogeno se obtiene
 

4
e2 e2 e4
P = 4m2e hn,l,m | H02
+ H0 + H0 + 2 |n,l,m i
R R R
 2 2 
e e e4
= 4m2e hn,l,m | En2 + En + En + 2 |n,l,m i
R R R
"     #

4 1 1
P = 4m2e En2 + 2En e2 + e4 (23.41)
R n,l,m R2 n,l,m

sustituyendo (23.41) en (23.39) la cantidad hWmv i queda


"     #
1 1 1
hWmv in,l,m = En2 + 2En e2 + e4 (23.42)
2me c2 R n,l,m R2 n,l,m

esta expresion es valida para todo n, l, m.


548 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

23.5.1. Calculo de h1/Ri , h1/R2 i y h1/R3 i




2 . Para futuros propositos tambien
De la Ec. (23.42)

vemos que debemos calcular las cantidades h1/Ri , 1/R
calcularemos 1/R3 [ver Ec. (23.69)]. Para ello debemos tener en cuenta que la funcion de onda del atomo de
Hidrogeno no perturbado, esta dada por las Ecs. (13.41), Pag. 367
n,l,m (r) = Rn,l (r) Ylm (, ) (23.43)
las funciones radiales para las subcapas 1s, 2s y 2p estan dadas por las Ecs. (13.48, 13.49), Pag. 367
 
r
R1,0 (r) = 2 (a0 )3/2 er/a0 ; R2,0 (r) = 2 (2a0 )3/2 1 er/2a0 (23.44)
2a0
r
R2,1 (r) = (2a0 )3/2 31/2 er/2a0 (23.45)
a0
puesto que los armonicos esfericos estan debidamente normalizados, el valor medio hRq i para q entero (positivo o
negativo) se puede escribir como
Z Z
hRq in,l,m = n,l,m (r) r q n,l,m (r) dV = Rn,l
(r) Ylm (, ) r q Rn,l (r) Ylm (, ) r 2 dr d
Z Z

= Rn,l (r) r q+2 Rn,l (r) dr
Ylm (, ) Ylm (, ) d

quedando finalmente Z
hRq in,l,m = r q+2 |Rn,l (r)|2 dr (23.46)
0
valida para q positivo o negativo, siempre que la integral (23.46) sea convergente. Al sustituir (23.44, 23.45) en
(23.46) aparecen integrales de la forma
Z
I (k, p) = r k epr/a0 dr (23.47)
0

donde p y k son enteros. Integrando por partes con u = r k y dv = epr/a0 dr, la integral (23.47) adquiere la forma
  Z
a0 pr/a0 k ka0 k1 pr/a0
I (k, p) = e r + r e dr
p 0 p 0
ka0
I (k, p) = I (k 1, p) (23.48)
p
por recurrencia se obtiene
   2  
ka0 (k 1) a0 a0 (k 2) a0
I (k, p) = I (k 2, p) = k (k 1) I (k 3, p)
p p p p
 3
a0
I (k, p) = k (k 1) (k 2) I (k 3, p)
p
que para k entero positivo, claramente nos da
 k
a0
I (k, p) = k! I (0, p) (23.49)
p
a partir de la definicion (23.47), la integral I (0, p) nos da
Z  
pr/a0 a0 pr/a0
I (0, p) = e dr = e
0 p 0
a0
I (0, p) = (23.50)
p
23.5. CALCULO DE LOS TERMINOS CINETICO Y DE DARWIN 549

y sustituyendo (23.50) en (23.49), la integral I (k, p) queda


 k+1
a0
I (k, p) = k! (23.51)
p
asignando q = 1 en (23.46), y utilizando (23.44), (23.47) y (23.51), se obtiene
  Z Z
1 4 4 4  a0 2
= r |R1,0 (r)|2 dr = 3 re2r/a0 dr = 3 I (1, 2) = 3
R 1s 0 a0 0 a0 a0 2
 
1 1
= (23.52)
R 1s a0
  Z Z  
1 2 4 r 2 r/a0
= r |R2,0 (r)| dr = 3 r 1 e dr
R 2s 0 8a0 0 2a0
Z  
1 r/a0 r 2 r/a0 r 3 r/a0
= re e + 2e dr
2a30 0 a0 4a0
 
1 1 1
= I (1, 1) I (2, 1) + I (3, 1)
2a30 a0 4a20
 
1 2 1 3 1 4
= a 2!a + 3!a
2a30 0 a0 0 4a20 0
 
1 1
= (23.53)
R 2s 4a0
  Z Z  2
1 1 1 r
= r |R2,1 (r)|2 dr = 3 r er/a0 dr
R 2p 0 8a0 3 0 a 0
Z
1 1 1
= r 3 er/a0 dr = I (3, 1) = 3!a4
5
24a0 0 24a05 24a50 0
 
1 1
= (23.54)
R 2p 4a0
similarmente con q = 2 se obtiene
 
1 4 2
2
= 3 I (0, 2) = 2 (23.55)
R 1s a0 a0
   
1 1 1 1 1
2
= 3 I (0, 1) I (1, 1) + 2 I (2, 1) = 2 (23.56)
R 2s 2a0 a0 4a0 4a0
 
1 1 1
= 5 I (2, 1) = (23.57)
R2 2p 24a0 12a20


es facil ver que la expresion 1/R3 no tiene sentido para las subcapas 1s y 2s, puesto que la integral (23.46) sera
divergente. Para la subcapa 2p haciendo q = 3 en (23.46) y utilizando (23.45), tenemos
  Z Z 2
1 1 2

1

3/2 1/2 r r/2a0
3
= r |R2,1 (r)| dr = r (2a0 ) 3 e dr
R 2p 0 0 a0
Z
1
= r er/a0 dr
24a50 0
de lo cual se obtiene  
1 1 1
= 5 I (1, 1) = (23.58)
R3 2p 24a0 24a30
550 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

23.5.2. Calculo de hWmv i


Es conveniente escribir las expresiones en terminos de la constante de estructura fina , usando las siguientes
relaciones
EI 1 ~
En = 2 = 2 2 me c2 ; e2 = ~c ; a0 = (23.59)
n 2n me c
Reemplazando (23.59) en (23.42) obtenemos
"       #
1 1 4 2 4 1 2 2 1 2 2 2 1
hWmv i = me c 2 me c (~c) + ~ c (23.60)
2me c2 4n4 2n2 R n,l,m R2 n,l,m

y usando (23.52, 23.55) en la Ec. (23.60) se obtiene hWmv i para la subcapa 1s (la cual requerimos para el calculo
de estructura fina asociado a n = 1, de la seccion 23.8)
   
1 1 4 2 4 1 2 2 1 2 2 2 2
hWmv i1s = me c 2 me c (~c) + ~ c 2
2me c2 4 2 a0 a0
    2 
1 1 4 2 4 1 2 2 m e c 2 2 2 me c
= me c 2 me c (~c) + 2 ~ c
2me c2 4 2 ~ ~
5
hWmv i1s = 4 me c2 (23.61)
8
similarmente, para las subcapas 2s y 2p se obtiene

13 4
hWmv i2s = me c2 (23.62)
128
7 4
hWmv i2p = me c2 (23.63)
384

23.5.3. El valor medio hWD i


De las Ecs. (23.36, 23.38) junto con la Ec. (23.20), este valor medio se puede escribir genericamente en la forma

e2 ~2 2 e2 ~2 2
iEt/~
hWD in,l,m = hWD i = | (0)| = n,l,m (r = 0) e
2m2e c2 2m2e c2
~2
hWD in,l,m = 4e2 |n,l,m (r = 0)|2
8m2e c2

y recordando que la funcion de onda solo es no nula en el origen para l = 0 (ver seccion 13.6.1, pag. 369), tenemos
que
~2
hWD in,l,m = 2 2
4e2 |n,0,0 (r = 0)|2 l,0 (23.64)
8me c
con lo cual
hWD i2p = 0 (23.65)

para los niveles 1s y 2s, usando (23.43, 23.44, 23.59) y el hecho de que Y00 = 1/ 4, la Ec. (23.64) nos da

~2 2 ~2 2 ~2 2
hWD i1s = 4e2
|n,0,0 (r = 0)| = 4e2
|R1,0 (0) Y 00 | = e |R1,0 (0)|2
8m2e c2 8m2e c2 8m2e c2
~2 2 4 ~2 2 1 ~2  m c 3 1
e
= 2 2
e 3 = 2 2
e 3 = 2 2
~c = 4 me c2
8me c a0 2me c a0 2me c ~ 2
23.6. CALCULO DEL TERMINO DE ESPIN-ORBITA WSO 551

de manera similar se calcula hWD i2s con lo cual obtenemos

~2 2 1
hWD i1s = 2 2
e |R1,0 (0)|2 = 4 me c2 (23.66)
8me c 2
~ 2 1
hWD i2s = e2 |R2,0 (0)|2 = 4 me c2 (23.67)
8m2e c2 16

23.6. Calculo del termino de espn-orbita WSO


El lector puede comprobar facilmente que el termino de espn-orbita (23.12) no conmuta con los operadores L3 ,
S3 . Por tanto, los elementos no-diagonales de las submatrices (23.33) son en general no nulos. En otras palabras,
el termino espn-orbita puede inducir transiciones entre diferentes valores de los numeros cuanticos mL y mS . En
consecuencia, para el termino de espn-orbita deben calcularse elementos matriciales de la forma


hWSO i = n, l, s, mL , mS ( (R) L S) |n, l, s, mL , mS i (23.68)
e2 1
(R) (23.69)
2me c R3
2 2

Utilizando la base {|r, i} de posicion y espn, podemos separar la parte radial de la parte angular y espinorial.
Se obtiene entonces


hWSO i = n, l, s, mL , mS ( (R) L S) |n, l, s, mL , mS i


= hn, l| l, s, mL , mS ( (R) L S) [|n, li |s, mL , mS i]


= hn, l| (R) |n, li l, s, mL , mS ( L S) |s, mL , mS i
 2 Z 
e 1 2 2



hWSO i = |R nl (r)| r dr l, s, m L , m S (L S) |l, s, mL , mS i
2m2e c2 0 r 3
que se puede escribir en la forma


hWSO i = nl l, s, mL , mS (L S) |l, s, mL , mS i (23.70)
Z
e2 1
nl = 2 2
|Rnl (r)|2 dr (23.71)
2me c 0 r
Vemos entonces que el calculo se separa en un termino espn-angular y un termino radial.

23.6.1. Calculo del termino espn-angular


Calcularemos primero los terminos matriciales del operador L S en la ecuacion (23.70). La representacion
matricial de este operador puede calcularse en diferentes bases. Una es la base de vectores propios comunes a L2 ,
S2 , L3 , S3
|l, s, mL , mS i (23.72)
o introduciendo el momento angular total
J=L+S (23.73)
podemos construir una base de vectores propios comunes a L2 , S2 , J2 y J3 , definida por6

|l, s, J, mJ i (23.74)

Por otro lado, se puede transformar de una base a la otra, utilizando los coeficientes de Clebsch-Gordan discutidos
en la seccion 16.8.
6
Ambos conjuntos de operadores junto con H, forman un C.S.C.O.
552 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

Veremos que la base (23.74) es mas apropiada para este problema debido a que el operador L S es diagonal
en esta base. Por tanto, en lugar de los elementos matriciales (23.70) calcularemos elementos matriciales de la
forma



hWSO iJ = nl l, s, J , mJ (L S) |l, s, J, mJ i (23.75)

Para ver que L S es diagonal en la base (23.74), elevamos al cuadrado la Ec. (23.73) teniendo en cuenta que
L y S conmutan

J2 = (L + S)2 = L2 + 2L S + S2
1 2 
LS = J L2 S2 (23.76)
2

combinando (23.76) con el hecho de que los vectores (23.74) son autoestados propios de J2 , L2 , S2 se tiene que

1 2 
L S |l, s, J, mJ i = J L2 S2 |l, s, J, mJ i
2
~2
L S |l, s, J, mJ i = [J (J + 1) l (l + 1) s (s + 1)] |l, s, J, mJ i (23.77)
2

la ecuacion (23.77) nos muestra que los autovalores de L S (para l y s fijos) solo dependen de J pero no de mJ .
Usando (23.77) vemos que los terminos matriciales en la base ortonormal (23.74) vienen dados por


~2

l, s, J , mJ L S |l, s, J, mJ i = [J (J + 1) l (l + 1) s (s + 1)] l, s, J , mJ l, s, J, mJ i
2

~2
l, s, J , mJ L S |l, s, J, mJ i = [J (J + 1) l (l + 1) s (s + 1)] JJ mJ ,mJ (23.78)
2

de modo que en la base acoplada este operador es diagonal. En el captulo 16, seccion 16.5.6, vimos las reglas de
adicion del momento angular Ec. (16.56) Pag. 420, segun la cual para dos momentos angulares caracterizados por
los numeros cuanticos l y s, el numero cuantico J toma los posibles valores

J = l + s, l + s 1, . . . , |l s|

para l = 0, J solo toma el valor J = s. Por tanto, para l = 0, es claro que el termino matricial (23.78) se anula7 .
En particular, para la subcapa 2s (en la cual l = 0) no hay contribucion del termino de espn-orbita

hWSO i2s = 022 (23.79)

en cuanto a la subcapa 2p (con s = 1/2, l = 1), los valores posibles de J son

1 3
J= ,
2 2

y el termino matricial (23.78) nos da


   
1
1 ~2 11
l = 1; s = ; J ; mJ L S l = 1, s = , J, mJ = J (J + 1) JJ mJ ,mJ (23.80)
2 2 2 4
7
Notese que este resultado es valido para cualquier valor de n y s, solo depende de que l = 0.
23.6. CALCULO DEL TERMINO DE ESPIN-ORBITA WSO 553

23.6.2. Calculo del termino radial


Puesto que el cambio de base antes mencionado solo involucra a las variables espn-angulo, es claro que el
termino puramente radial 2p no depende de la base usada. Como la contribucion espn-angular se anula para la
subcapa 2s, calcularemos el termino radial (23.71) solo para la subcapa 2p. Usando las expresiones (23.45, 23.47),
la ecuacion (23.71) para n = 2, l = 1 queda
Z Z 2
e2 1 2 e2 1
3/2 1/2 r r/2a0
2p = |R21 (r)| dr = (2a0 ) 3 e dr
2m2e c2 0 r 2m2e c2 0 r a0
Z Z
e2 1 1 r 2 r/a0 e2
= e dr = rer/a0 dr
2m2e c2 0 r 3 (2a0 )3 a20 48a50 m2e c2 0
e2
2p = I (1, 1)
48a50 m2e c2
usando las relaciones (23.51, 23.59) nos queda
e2 e2 ~c
2p = a2 = =  3
48a0 m2e c2 0
5 48a30 m2e c2 ~
48 me c m2e c2
me c2 4
2p = (23.81)
48~2
con lo cual desaparecen las variables radiales.

23.6.3. Contribucion espn-orbita completa para la subcapa 2p


Sustituyendo (23.80) y (23.81) en (23.70) con l = 1, s = 1/2 (para la subcapa 2p), y para los valores posibles
de J = 1/2, 3/2; las contribuciones no nulas en (23.70), es decir los terminos diagonales vienen dados por
 
1 1 1 1 1
2p l = 1; s = ; J = ; mJ L S l = 1; s = ; J = ; mJ = 2p ~2 = me c2 4
2 2 2 2 48
 
1 3 1 3 1 1
2p l = 1; s = ; J = ; mJ L S l = 1; s = ; J = ; mJ = 2p ~2 = me c2 4
2 2 2 2 2 96
tenemos entonces que para l = 1, s = 12 se forman dos subespacios de E, asociados a J = 1/2 y a J = 3/2
respectivamente. Estos espacios son de dimension 2J + 1 (numero de valores posibles de mJ ) y por tanto son de
dimension 2 para J = 1/2 y de dimension 4 para J = 3/2. Denotaremos estos espacios por E (2p, J) con J = 1/2
y 3/2. Puesto que el operador L S es diagonal en la base (23.74) y los elementos matriciales no dependen de mJ ,
vemos que dentro de cada subespacio E (2p, J) el operador L S es proporcional a la identidad. Tenemos entonces
que la degeneracion de orden 6 de la subcapa 2p es parcialmente removida por WSO , quedando una degeneracion
de orden cuatro para J = 3/2 y una degeneracion de orden 2 para J = 1/2. La textura matricial en la base
acoplada queda en la forma
 (1/2)
 J W 2p
0  
2p SO
22
24 1 2 4 2I22 024
WSO =  (3/2) = me c (23.82)
66 2p 96 042 I44
042 WSO
44
   
1 3
E (2p) = E 2p, J = E 2p, J =
2 2
la degeneracion 2J +1 asociada a cada estado con J fijo, es una degeneracion esencial relacionada con la invarianza
rotacional8 de Wf . Recordemos que para la subcapa 2s, J solo puede tomar el valor J = 1/2, y que no hay
contribucion proveniente del termino de espn-orbita.
8
Esta invarianza rotacional es en un sentido extendido ya que es con respecto al momento angular total J = L + S.
554 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

Puesto que hemos cambiado de base para calcular los elementos matriciales de la subcapa 2p, a priori parece
necesario cambiar de nuevo a la base (23.72) ya que fue en esta ultima en donde se calcularon los terminos Wmv
y WD . Sin embargo, hemos visto que los operadores Wmv y WD son proporcionales a la identidad dentro del
subespacio E (2p)66 . La representacion de todo operador proporcional a la identidad es la misma en todas las
bases. Por tanto, resulta mas conveniente cambiar la representacion matricial de WD y Wmv a la base (23.74), ya
que los elementos matriciales no cambian en lo absoluto.

23.7. Sntesis de resultados sobre la estructura fina


Hemos visto que la base acoplada (23.74) es la mas conveniente para describir la representacion matricial de
Wf . En esta base, los numeros cuanticos de los cuales depende la energa son (n, l, J), el ultimo numero cuantico
lo introduce en el espectro la interaccion espn-orbita. Para el nivel 2s, J = 1/2 en tanto que para 2p tenemos dos
valores J = 1/2, o 3/2. El nivel asociado a un conjunto de valores (n, l, J) se denota agregando el smbolo J a la
notacion espectroscopica de la subcapa (n, l), en la forma:

nlJ

por ejemplo del nivel n = 2 del atomo de hidrogeno, surgen los siguientes niveles asociados a su estructura fina

2s1/2 , 2p1/2 , 2p3/2 (23.83)

la idea ahora es calcular las posiciones de los niveles (23.83) con respecto al nivel no perturbado. Puesto que todo
lo hemos escrito en terminos de la constante de estructura fina , es conveniente escribir los niveles no perturbados
en terminos de tal parametro, usando la Ec. (23.29)
1
En=2 E20 = c2 2
8
Tomando las Ecs. (23.62, 23.67, 23.79) vemos que para la subcapa 2s la contribucion de Wf nos da

13 4 1
hWf i2s = hWmv i2s + hWD i2s + hWSO i2s = me c2 + 4 me c2 + 0
128 16
y tomando las Ecs. (23.63, 23.65, 23.82), la contribucion de Wf a los niveles 2p1/2 y 2p3/2 resultan

7 4 1
hWf i2p = hWmv i2p1/2 + hWD i2p1/2 + hWSO i2p1/2 = me c2 + 0 me c2 4
1/2 384 48
7 4 1
hWf i2p = hWmv i2p3/2 + hWD i2p3/2 + hWSO i2p3/2 = me c2 + 0 + me c2 4
3/2 384 96
notese que solo WSO es responsable de la separacion entre 2p1/2 y 2p3/2 , ya que los terminos cinetico Wmv y de
Darwin WD no son sensibles al numero cuantico J. Las correcciones de la estructura fina quedan finalmente
5 1
hWf i2s = hWf i2p1/2 = me c2 4 ; hWf i2p3/2 = me c2 4 (23.84)
128 128
las Ecs. (23.84) nos dicen que los niveles 2s1/2 , 2p1/2 , 2p3/2 se bajan en las cantidades dadas por

5
E2s1/2 E20 = me c2 4
128
5
E2p1/2 E20 = me c2 4
128
1
E2p3/2 E20 = me c2 4
128
23.7. SINTESIS DE RESULTADOS SOBRE LA ESTRUCTURA FINA 555

Figura 23.1: Ilustracion de la modificacion del nivel n = 2 debido a la estructura fina en el atomo de Hidrogeno.
Se crean los subniveles 2s1/2 , 2p1/2 y 2p3/2 . Los dos primeros poseen la misma energa dentro del presente calculo.
Sin embargo, estos dos niveles poseen una ligera diferencia conocida como corrimiento Lamb, cuya explicacion
requiere el empleo de la electrodinamica cuantica.

vemos entonces que todos los niveles se bajan con respecto al nivel n = 2 no perturbado. La brecha entre el nivel
no perturbado y el nivel 2p3/2 es 5 veces menor que la brecha asociada a los otros niveles. Notese que los niveles
2s1/2 y 2p1/2 poseen la misma energa. En el marco de la presente teora esta es una degeneracion accidental, en
contraste con la degeneracion 2J + 1 de cada nivel J, la cual se considera esencial. Esta situacion se describe en
la Figura 23.1
Una evidencia experimental interesante de la existencia de la estructura fina es la observacion de que la lnea
espectral de Lyman que da cuenta de la transicion 2p 1s, realmente contiene dos lneas cuya brecha es muy
similar 2p1/2 1s1/2 y 2p3/2 1s1/2 , tales lneas estan separadas por una brecha de energa dada por
    4
E = E2p1/2 E1s1/2 E2p3/2 E1s1/2 = E2p1/2 E2p3/2 = me c2 4
128
1
E = me c2 4
32
por tanto se puede observar que se emiten fotones de dos energas diferentes (aunque muy cercanas) en la serie de
Lyman. Vale decir que la subcapa 1s solo admite el valor J = 1/2, y por tanto Wf no desdobla este nivel. Cuando
la transicion se da entre niveles excitados hay que tener en cuenta el desdoblamiento tanto de la subcapa inicial
como de la subcapa final.
Ya hemos mencionado que la ecuacion de Dirac para una partcula bajo potencial Coulombiano puede resolverse
en forma exacta. Dicha solucion exacta nos da la energa de un nivel caracterizado por los numeros cuanticos
n, l, s, J, y se obtiene
s 2 21
2
1 1
En,J = me c2 1 + 2 n J + J+ 2 (23.85)
2 2

esto nos muestra que para n dado, dos niveles con el mismo J tienen la misma energa, como lo vimos con los
niveles 2s1/2 y 2p1/2 . Vemos por tanto, que este resultado no solo sera valido a primer orden en Wf sino a todos
los ordenes. Ademas se observa que la energa depende de n, J pero no de l. Una expansion en potencias de de
556 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

la expresion exacta (23.85), nos da


 
1 1 me c2 n 3
En,J = me c2 me c2 2 2 4 + . . .
2 n 2n4 J + 1/2 4

donde el primer termino es la autoenerga del electron, el segundo termino es el nivel no perturbado de un
electron en el atomo de Hidrogeno, y el tercer termino es la contribucion de primer orden en Wf .
Puede demostrarse que incluso en ausencia de un campo externo o de fotones incidentes, debe considerarse
la existencia de un campo electromagnetico fluctuante cuyo origen esta en la naturaleza cuantica del campo9 . El
acople del atomo con estas fluctuaciones del campo electromagnetico remueve la degeneracion entre los niveles 2s1/2
y 2p1/2 , elevando ligeramente al primero con respecto al segundo, por una cantidad conocida como corrimiento
Lamb, que es del orden de 1060M Hz. El estudio de este fenomeno permitio el desarrollo de la electrodinamica
cuantica.

23.8. La estructura fina para n = 1


Para la subcapa 1s no hay degeneracion orbital ya que l = 0. Puesto que S3 e I3 pueden tomar cada uno los
valores 1/2, la degeneracion del nivel 1s es de orden 4. Una posible base para esta subcapa esta dada por
 

n = 1; l = 0; mL = 0; mS = 1 ; mI = 1
2 2

veremos que a diferencia de lo que ocurre para el nivel n = 2, el termino Wf no remueve la degeneracion del
nivel n = 1, i.e. de la subcapa 1s. Los terminos Wmv y WD no actuan sobre las variables de espn. Por tanto, su
representacion matricial es proporcional a la identidad 4 4. Por otro lado, aplicando los argumentos de la seccion
23.6.1, vemos que la contribucion del termino espn-orbita es cero debido a que l = 0. Puede verificarse que

5 1
hWmv i1s = me c2 4 I4x4 ; hWD i1s = me c2 4 I4x4 ; hWSO i1s = 044
8 2
en conclusion, la correccion Wf no desdobla al nivel n = 1, solo se corre el nivel como un todo en una cantidad
dada por
1
hWf i1s = hWmv i1s + hWD i1s + hWSO i1s = me c2 4
8
esto tambien se puede ver teniendo en cuenta que con n = 1, solo es posible que l = 0 y que J = 1/2. Por tanto
Wf solo genera un nivel de estructura fina 1s1/2 .

23.9. Estructura hiperfina para n = 1


Aunque se puede calcular la estructura hiperfina para n = 2, es mas facil medir experimentalmente la estructura
hiperfina para n = 1, debido a que para este nivel no hay desdoblamiento asociado a la estructura fina, sino solo
un corrimiento global del nivel. Por tanto, para n = 1 el desdoblamiento del espectro se debe solo a la estructura
hiperfina.
Puesto que n, l y mL son fijos en el proceso, una base adecuada sera
 
1 1
|n, l, mL , mS , mI i ; n = 1, l = mL = 0 ; mS = , mI =
2 2
9
Nosotros hemos usado una aproximacion semi-clasica en la cual las partculas (electrones) se trabajan como entidades cuanticas
pero los campos se tratan como entidades clasicas. En general, tanto las partculas como los campos son de naturaleza cuantica.
23.9. ESTRUCTURA HIPERFINA PARA N = 1 557

Retomando entonces el Hamiltoniano (23.25) asociado a la estructura hiperfina


 
0 q 1 8
Whf = 3
L MI + 3 [3 (MS n) (MI n) MS MI ] + MS MI (R) (23.86)
4 me R R 3

el primer termino incorpora productos internos de la forma




hL MI i = n = 1, l = 0, mL = 0, mS , mI Lk MkI |n = 1, l = 0, mL = 0, mS , mI i


= hn = 1, l = 0, mL = 0| Lk |n = 1, l = 0, mL = 0i mS , mI MkI |mS , mI i

donde el producto interno orbital esta dado por

1
hLk in,l,mL = hn, l, mL | (L+ L ) |n, l, mL i = 0 ; k = 1, 2
2
hL3 in,l,mL = mL hn, l, mL | n, l, mL i = mL = 0

que se anulan en virtud de que l = mL = 0. Puede demostrarse ademas, que los terminos asociados a la interaccion
dipolo-dipolo son cero en virtud de la simetra esferica del estado 1s ???.
Por tanto, la unica contribucion no nula es la debida al termino de contacto. Para dicho termino se debe
calcular el elemento matricial
20

hWhf i1s = n = 1; l = 0; mL = 0; mS ; mI MS MI (R) |n = 1; l = 0; mL = 0; mS ; mI i (23.87)
3
esta base expande un subespacio de 4 dimensiones asociado a la degeneracion del nivel 1s, que denotaremos por
E1s , la identidad en dicho subespacio esta dada por

1/2 1/2
X X
11s = |n = 1; l = 0; mL = 0; mS ; mI i hn = 1; l = 0; mL = 0; mS ; mI |
mS =1/2 mI =1/2

para calcular el elemento matricial (23.87), observamos que MS MI solo actua sobre los grados de libertad de
espn, en tanto que (R) solo actua sobre grados de libertad orbitales. Adicionalmente, los kets en (23.87) pueden
escribirse como el producto tensorial de un ket orbital y un ket de espn. La Ec. (23.87) queda entonces

20 

hWhf i1s = hn = 1; l = 0; mL = 0| mS ; mI {MS MI (R)} [|n = 1; l = 0; mL = 0i |mS ; mI i]
3
20

hWhf i1s = hn = 1; l = 0; mL = 0| (R) |n = 1; l = 0; mL = 0i mS ; mI {MS MI } |mS ; mI i
3
aplicando (23.10, 23.24) se obtiene
   
20
q gp qp
hWhf i1s = hn = 1; l = 0; mL = 0| (R) |n = 1; l = 0; mL = 0i mS ; mI S I |mS ; mI i
3 me 2Mp
0 qqp gp

hWhf i1s = hn = 1; l = 0; mL = 0| (R) |n = 1; l = 0; mL = 0i mS ; mI {S I } |mS ; mI i
3me Mp

teniendo en cuenta que 0 = 1/ 0 c2 , y que qp = q (el proton tiene la carga opuesta al electron) nos queda
finalmente

q 2 gp
hWhf i1s = R mS ; mI SI |mS ; mI i ; R hn = 1; l = 0; mL = 0| (R) |n = 1; l = 0; mL = 0i (23.88)
30 c2 me Mp
558 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

23.9.1. Calculo del factor orbital R para Whf


Calculamos primero el factor R definido en (23.88)
Z
q 2 gp q 2 gp q 2 gp
R 2
1,0,0 (r) (r) 1,0,0 (r) dV = 2
|1,0,0 (0)|2 = |R1,0 (0)|2 |Y0,0 (0)|2
30 c me Mp V 30 c me Mp 30 c2 me Mp
q 2 gp 1 q 2 gp   2 q 2 gp
2 3/2 r/a0
R = |R 1,0 (0)| = 2 (a0 ) e =
30 c2 me Mp 4 120 c2 me Mp r=0 30 c2 me Mp a30
 
q 2 gp 4 q 2 me c3 3 4 2 me c3 1 1 3
R =  3 = gp = g p e +
~ 3 40 Mp m2e ~3 3 Mp m2e ~3 me Mp
30 c2 me Mp c
  
4 me c3 1 me 3
R = gp (~c) 1+
3 Mp m2e ~3 me Mp
 3
4 me 1 me
R = gp 2
1+ me c2 4 (23.89)
3 Mp ~ Mp

donde hemos usado (23.44).

23.9.2. Calculo del factor de espn para Whf


Nos queda entonces calcular el elemento matricial asociado al espn en (23.88)


J mS ; mI S I |mS ; mI i

El calculo es muy similar al que se realiza para la correccion espn orbita L S, ya que tambien se trata del
acoplamiento de dos momentos angulares (aunque en este caso, ambos momentos angulares son intrnsecos). Por
tanto podemos emular el razonamiento hecho en la seccion 23.6. Al igual que en dicha seccion, sera conveniente
hacer un cambio de base. Los elementos matriciales para el operador S I los hemos escrito en la base10


s = 1 ; I = 1 ; mS ; mI (23.90)
2 2

de estados propios comunes a S2 , I2 , S3 , I3 . Podemos introducir el momento angular intrnseco total11

FS+I (23.91)

para construir la base  



s = 1 ; I = 1 ; F ; mF {|F ; mF i} (23.92)
2 2
de autoestados comunes a S2 , I2 , F2 y F3 . Hemos abreviado la notacion puesto que s, I no cambian en el proceso.
Dado que s = I = 1/2, el espn total F puede tomar dos valores

F = 0, 1

se puede pasar de una base a otra usando los coeficientes de Clebsch-Gordan discutidos en la seccion 16.8. Como
en el caso de la seccion 23.6 para el operador L S, la base (23.92) es mejor que la base (23.90) para el calculo de
10
Cuando consideramos el espn del proton y del electron, el espacio de Hilbert de los estados sera el producto tensorial del espacio
orbital Er con los estados espinoriales ES del electron y EI del proton, i.e. E E r ES EI . Una base en tal espacio sera de la forma
{|r, S , I i}. En la Ec. (23.90) ya hemos desacoplado la parte orbital de modo que nos describe una base del espacio espinorial ES EI .
11
El momento angular total es L + S + I. Sin embargo, en el estado base tenemos que l = 0 y el momento angular total es S + I.
23.9. ESTRUCTURA HIPERFINA PARA N = 1 559

los elementos matriciales de S I, ya que en la base (23.92) la representacion matricial es diagonal. Elevando al
cuadrado la expresion (23.91) y despejando S I se tiene
F2 = S2 + I2 + 2S I
1 2 
SI = F S2 I2
2
al aplicar el operador S I sobre un estado del tipo (23.92) tenemos
 
1 2 2 2
 ~2 3 3
S I |F ; mF i = F S I |F ; mF i = F (F + 1) |F ; mF i
2 2 4 4
 
~2 3
S I |F ; mF i = F (F + 1) |F ; mF i
2 2
por tanto los estados |F ; mF i son vectores propios del operador S I. Los valores propios de S I solo dependen
de F y no de mF y estan dados por
3
|F = 0; mF i ~2
4
~2
|F = 1; mF i
4
los elementos matriciales son entonces
 

~2 3

F ; mF S I |F ; mF i = F ,F mF ,mF F (F + 1) ; F = 0, 1 (23.93)
2 2
por tanto, Whf remueve parcialmente la degeneracion de orden 4 del estado 1s. Obteniendose un nivel de degene-
racion de orden 3 para F = 1 y uno no degenerado para F = 0. La degeneracion remanente de orden 2F + 1, es
de caracter esencial y esta relacionada con la invarianza de Whf bajo una rotacion del sistema total.
Ahora bien, el termino R solo dependa de la parte orbital, de modo que su valor numerico no se altera por
el cambio de base (ya que este ultimo solo involucra a la parte espinorial), y dado que las otras contribuciones
hiperfinas son nulas, no es necesario regresarnos a la base original.

23.9.3. Espectro hiperfino del nivel 1s


Como vimos en la Sec. 23.8, bajo el efecto del termino Wf la energa del nivel 1s no se desdobla, pero si se
baja como un todo en una cantidad
f 0 me c2 4
E1s = E1s
8
si adicionamos el efecto de Whf , encontramos que el nivel 1s1/2 se desdobla en dos niveles hiperfinos. Para
caracterizarlos, sustitumos (23.93) en (23.88) para obtener
3
hWhf iF1s=0 = R hF = 0; mF | S I |F = 0; mF i = ~2 R
4
F =1 1 2
hWhf i1s = R hF = 1; mF | S I |F = 1; mF i = ~ R
4
por tanto el nivel desdoblado con F = 0 esta por debajo de 1s1/2 en una cantidad (3/4) ~2 R. El nivel desdoblado
con F = 1 esta por encima de 1s1/2 en una cantidad (1/4) ~2 R. La brecha entre los niveles desdoblados de 1s1/2 es
~2 R. Estas caractersticas se ilustran en la figura 23.2a.
Un analisis similar se puede realizar para la estructura hiperfina de los niveles 2s1/2 , 2p1/2 y 2p3/2 . Estos niveles
se desdoblan en niveles hiperfinos correspondientes a todos los valores permitidos de F
F = J + I, J + I 1, . . . , |J I|
para los niveles 2s1/2 y 2p1/2 , se tiene que J = 1/2, de modo que F = 0, 1. Para el nivel 2p3/2 tenemos que J = 3/2
y F toma los valores F = 2, 1. La figura 23.2b, muestra la estructura hiperfina asociada a n = 2.
560 CAPITULO 23. ESTRUCTURA FINA E HIPERFINA DEL ATOMO DE HIDROGENO

Figura 23.2: (a) Ilustracion de la modificacion del nivel 1s debido a la estructura fina e hiperfina en el atomo de
Hidrogeno. La estructura fina solo produce un corrimiento del nivel como un todo en una cantidad me c2 4 /8.
La estructura hiperfina desdobla el nivel corregido por la estructura fina en dos subniveles, por medio del numero
cuantico F . (b) Estructura hiperfina asociada a n = 2.
Captulo 24

Campos electricos y magneticos externos


sobre el atomo de Hidrogeno: Efecto
Zeeman y efecto Stark

En el captulo 23, estudiamos las correcciones al espectro del atomo de Hidrogeno debidas a los efectos relativis-
tas. Para este estudio el campo electrostatico y los campos magneticos considerados son internos. En este captulo
estudiaremos el efecto de campos magneticos y electricos externos sobre el espectro del atomo de Hidrogeno. El
efecto de un campo magnetico uniforme externo sobre el espectro atomico se conoce como efecto Zeeman, en
tanto que el efecto debido a un campo electrico uniforme externo se conoce como efecto Stark.

24.1. Efecto Zeeman de la estructura hiperfina del estado base 1s


Asumiremos que el atomo esta inmerso en un campo magnetico externo estatico y uniforme B0 = B0 u3 . Este
campo interactua con los momentos magneticos en el atomo debidos a los momentos angulares orbitales y de espn
q q qgp
ML = L ; MS = S ; MI = I
2me me 2Mp

estas interacciones se incluyen en el Hamiltoniano como la energa de interaccion entre el atomo y el campo B0
   
q q qgp q q qgp
WZ = B0 (ML + MS + MI ) = B0 u3 L+ S I = B0 L3 + S3 I3
2me me 2Mp 2me me 2Mp
q q
= B0 (L3 + 2S3 ) + gp B0 I3
2me 2Mp
q q
WZ = 0 (L3 + 2S3 ) + n I3 ; 0 B0 , n gp B0 (24.1)
2me 2Mp

donde 0 es la frecuencia de Larmor en el campo B0 . Al Hamiltoniano WZ se le conoce como Hamiltoniano de


Zeeman. Puesto que Mp me , se tiene que
|0 | |n | (24.2)
estrictamente, el Hamiltoniano de Zeeman contiene un termino adicional (termino diamagnetico) cuadratico en
B0 . Sin embargo, este termino no actua sobre los espines y solamente corre el nivel 1s como un todo (ver seccion
14.2.3, Pag. 378). Ademas el termino es mucho menor en valor absoluto que los terminos lineales en el campo.???
Estudiaremos el efecto de WZ sobre el estado base 1s del atomo de hidrogeno. Aun con campos muy intensos,
WZ es mucho menor que la distancia entre el nivel 1s y los otros niveles, de modo que su efecto se puede tratar
perturbativamente.

561
562 CAPITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO

El efecto de un campo magnetico externo sobre los niveles de energa atomicos se conoce como efecto Zeeman.
Dependiendo de la intensidad del campo magnetico, el Hamiltoniano WZ puede ser del orden de magnitud de la
estructura hiperfina o incluso mayor. En general, WZ puede ser mucho menor, del orden de, o mucho mayor que
Whf , con lo cual el Hamiltoniano completo WZ + Whf debe ser diagonalizado dentro del nivel n = 1.
En la seccion 23.9, Ec. (23.88) Pag. 557 vimos que Whf para n = 1 queda en la forma RS I. Para el termino
de Zeeman (24.1) debemos calcular elementos matriciales de la forma


hWZ i1s = n = 1; l = 0; mL = 0; mS ; mI [0 (L3 + 2S3 ) + n I3 ] |n = 1; l = 0; mL = 0; mS ; mI i

dado que l = mL = 0, la contribucion 0 L3 es nula. Adicionalmente, teniendo en cuenta que 20 S3 + n I3 solo


actua sobre variables de espn tenemos que


hWZ i1s = hn = 1; l = 0; mL = 0| mS ; mI [20 S3 + n I3 ] {|n = 1; l = 0; mL = 0i |mS ; mI i}


= hn = 1; l = 0; mL = 0| n = 1; l = 0; mL = 0i mS ; mI [20 S3 + n I3 ] |mS ; mI i


hWZ i1s = mS ; mI [20 S3 + n I3 ] |mS ; mI i

en general debemos calcular los elementos matriciales de Whf + WZ

hRI S + 20 S3 + n I3 i

los cuales solo actuan sobre grados de libertad de espn. Estos elementos matriciales deben calcularse en la
base {|mS , mI i} o en la base {|F, mF i}. Adicionalmente, la Ec. (24.2) nos dice que |0 | |n | de modo que
despreciaremos el termino n I3 . En consecuencia, la perturbacion sobre el nivel 1s sera

W1s RI S + 20 S3 (24.3)

variando de manera contnua la intensidad del campo, podemos modificar la magnitud del efecto Zeeman. De
acuerdo con la intensidad del campo determinaremos tres casos

1. ~0 R~2 : campos debiles

2. ~0 R~2 : campos fuertes

3. ~0 R~2 : campos intermedios

Veremos que el operador completo se puede diagonalizar en forma exacta. Sin embargo, en los dos primeros
casos utilizaremos teora de perturbaciones. En el primer caso, el termino 20 S3 se considerara una perturbacion
con respecto a RI S. En el segundo caso sera al contrario. Ademas de permitirnos practicar la teora degenerada
de perturbaciones, lo anterior tambien sirve para realizar analisis asintoticos.

24.1.1. Efecto Zeeman de campo debil


En el regimen de campo debil el Hamiltoniano no perturbado H0 es el termino de contacto RI S, y el
Hamiltoniano de perturbacion W es el termino 20 S3 . Ya hemos determinado los autoestados del termino de
contacto RI S, y se obtuvieron dos niveles un triplete (nivel triplemente degenerado con F = 1) y un singlete
(nivel no degenerado con F = 0)

R~2
{|F = 1; mF = 1, 0, 1i} triplete de energa
4
3R~2
{|F = 0; mF = 0i} singlete de energa (24.4)
4
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 563

por tanto, debemos utilizar teora de perturbaciones para un nivel degenerado. De acuerdo con la formulacion en la
seccion 20.4, Pag. 504 [particularmente, en las Ecs. (20.47, 20.48)] al considerar a 20 S3 como una perturbacion con
respecto a RI S, (aproximacion de campo debil) debemos diagonalizar separadamente las dos matrices asociadas
a 20 S3 en los dos niveles F = 1 y F = 0, i.e. correspondientes a valores propios no perturbados diferentes de
RI S.
De las Ecs. (16.32, 16.33), Pag. 412, obtenemos la accion de S3 sobre los estados {|F, mF i}, en donde dichos
estados se ordenaran en la forma1
{|F, mF i} |1, 1i , |1, 0i , |1, 1i , |0, 0i (24.5)
a fin de obtener la representacion matricial. Aplicando (16.32, 16.33) sobre los estados (24.5) se obtiene
~ ~
S3 |F = 1; mF = 1i = S3 |+, +i = |+, +i = |F = 1; mF = 1i
2 2    
S3 1 ~ ~ ~ |+, i |, +i
S3 |F = 1; mF = 0i = {|+, i + |, +i} = |+, i |, +i =
2 2 2 2 2 2
~
= |F = 0; mF = 0i
2
~ ~
S3 |F = 1; mF = 1i = S3 |, i = |, i = |F = 1; mF = 1i
2 2
  (~ ~
)  
|+, i |, +i 2 |+, i + 2 |, +i ~ |+, i + |, +i
S3 |F = 0; mF = 0i = S3 = =
2 2 2 2
~
= |F = 1; mF = 0i
2
en notacion mas abreviada escribimos
~ ~ ~ ~
S3 |1, 1i = |1, 1i , S3 |1, 0i = |0, 0i , S3 |1, 1i = |1, 1i , S3 |0, 0i = |1, 0i (24.6)
2 2 2 2
la representacion matricial de S3 para la base ordenada (24.5) queda entonces

1 0 0 0
~ 0 0 0 1
(S3 )F,mF =
(24.7)
2 0 0 1 0
0 1 0 0
de acuerdo con la Ec. (20.47) Pag. 504, para realizar el calculo perturbativo siendo 20 S3 la perturbacion, los
calculos se realizan dentro de cada uno de los subespacios EF =1 y EF =0 asociados a valores propios no perturbados
distintos. Por tanto, para el calculo perturbativo solo requerimos las submatrices 3 3 y 1 1 que se delinean en
la Ec. (24.7). Es decir no se requieren los elementos de matriz que conectan a un estado de F = 1 con un estado
de F = 0. Sin embargo, mas adelante cuando diagonalicemos el operador completo (24.3) requeriremos la matriz
completa (24.7).
Es interesante comparar esta matriz con la matriz asociada a F3 = S3 + I3 en esta misma base. Tal matriz
viene dada por
1 0 0 0
0 0 0 0
(F3 )F,mF = ~
0 0 1 0
(24.8)
0 0 0 0
1
En el captulo 16, tenemos que J = J(1) + J(2) . Para nuestro contexto J F, J(1) S, J(2) I. Los estados definidos en la Ec.
(16.17), Pag. 409, corresponden en este caso a
 
1 1 1 1
|, i = mS = , mI = ; |, i = mS = , mI =
2 2 2 2
564 CAPITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO

vemos que F3 es diagonal en tanto que S3 no lo es. Sin embargo, las submatrices demarcadas en las Ecs. (24.7,
24.8) son identicas salvo por un factor multiplicativo constante. Esto implica que para el calculo perturbativo
(en el cual trabajamos dentro de cada subespacio EF =1 y EF =0 ), ambas matrices son proporcionales. En otras
palabras, los operadores S3 y F3 definidos en el subespacio

EF = EF =1 EF =0

son totalmente diferentes. Pero la restriccion de S3 a los subespacios EF =1 y EF =0 , es proporcional a la restriccion


del operador F3 en cada uno de estos subespacios. Recordando la manera en que se define la restriccion de un
operador a un subespacio [seccion 1.33, Ec. (1.129), Pag. 75], y definiendo P1 como el proyector sobre el subespacio
EF =1 , y a P0 como el proyector sobre EF =0 podemos escribir
1
Pi S3 Pi = Pi F3 Pi ; i = 0, 1 (24.9)
2
la misma relacion existe por supuesto para las otras componentes Sk y Fk , como es de esperarse en virtud de la
isotropa del espacio.
Volviendo al calculo perturbativo, la matriz que representa a la restriccion del operador 20 S3 sobre el subes-
pacio EF =1 , es la submatriz 3 3 delineada en (24.7) multiplicada por 20

~0 0 0
20 (S3 )F =1 = 0 0 0 (24.10)
0 0 ~0
y en el nivel F = 0 corresponde a la matriz 011 . Puesto que ambas matrices son diagonales, vemos que los
autoestados de campo debil a orden cero en 0 coinciden con los estados |F, mF i. Ademas los autovalores a primer
orden en 0 vienen dados por
R~2
|F = 1; mF = 1i + ~0
4
R~2
|F = 1; mF = 0i +0
4
R~2
|F = 1; mF = 1i ~0
4
3R~2
|F = 0; mF = 0i +0 (24.11)
4
La Fig. 24.1 muestra un tpico diagrama de Zeeman. Esto es, una grafica de ~0 (medida del campo magnetico)
en el eje X, y las energas de los 4 subniveles de Zeeman sobre el eje Y . Para campo cero (0 = 0) tenemos
dos niveles hiperfinos F = 0 y F = 1. Cuando se activa el campo B0 el subnivel no degenerado |F = 0; mF = 0i
genera una lnea horizontal (no hay cambio en la energa ni desdoblamiento). Para el nivel F = 1 se remueve
completamente su triple degeneracion obteniendose tres subniveles equidistantes que varan linealmente con ~0
con pendientes +1, 0 y 1.
Puesto que el calculo anterior es perturbativo, su validez depende de que la diferencia entre dos subniveles
adyacentes (dada por ~0 ), sea mucho menor que la diferencia entre los niveles hiperfinos no perturbados con
F = 1 y F = 0 (asociados a campo magnetico nulo).

Frecuencias de Bohr asociadas a hF i y hSi para efecto Zeeman con campo debil
En la seccion 5.8.3, Pagina 228, vimos que el valor esperado de un observable dado B posee unas frecuencias
caractersticas de evolucion denominadas frecuencias de Bohr. Para dos estados de energas Ea y Eb la frecuencia
de Bohr asociada esta dada por
Ea Eb
ab =
h
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 565

Figura 24.1: Diagrama de Zeeman en la aproximacion de campo debil para la estructura hiperfina del nivel 1s del
atomo de Hidrogeno.

ademas una frecuencia de Bohr ab contribuye al valor esperado del observable B, solo si el elemento de matriz
del tipo hEa | B |Eb i es no nulo. En nuestro contexto, los autoestados del Hamiltoniano de campo debil son estados
del tipo |F, mF i. Las matrices (24.7, 24.8) representan a S3 y F3 en esta base. Puesto que la matriz para F3 es
diagonal, no hay frecuencias de Bohr no nulas asociadas a hF3 i (t). Por tanto hF3 i es estatico. Por otro lado, S3
tiene ademas de los elementos diagonales que se asocian a la componente estatica de hS3 i, elementos no diagonales
entre los estados |F = 1; mF = 0i y |F = 0; mF = 0i, con diferencia de energa R~2 , como se ve en la figura 24.1
y en la Ec. (24.11). Por tanto en adicion a la componente estatica de hS3 i hay una componente modulada a una
frecuencia R~. Un analisis similar se puede hacer para cada componente de S, y el resultado final es una precesion
de S alrededor de F como se puede ver en la Fig. 24.2. Adicionalmente, en virtud de la ligadura F = I + S,
tendremos que I tambien precesa con la misma frecuencia como se ilustra en la Fig. 24.2. Puesto que todo este
analisis es para campo magnetico cero, es claro que F = I + S es constante de movimiento, de modo que para
campo magnetico cero el vector F de la Fig. 24.2 es constante.
Notese que en la Fig. 24.2, F tiene en general componentes en todos los ejes. El plano de la base del cono
generado por S y por I, no es paralelo al plano XY , ya que el promedio de la componente S3 oscila con frecuencia
R~. Como todas las componentes (promedios) de S oscilan con la misma frecuencia, el resultado es un movimiento
circular con frecuencia R~.
Al introducir el campo magnetico B0 el efecto es que F deja de ser constante de movimiento y comienza a
precesar alrededor del eje del campo (eje Z), con una frecuencia 0 (frecuencia de Larmor), mucho menor que la
frecuencia de precesion de S e I (ya que en este regimen de campo debil ~0 R~2 ).
Debe aclararse sin embargo, que la teora de perturbaciones aqu mostrada no predice ninguna de estas pre-
cesiones. La razon es que tales precesiones surgen de considerar elementos de matriz entre un estado con F = 1 y
otro con F = 0. Pero la teora de perturbaciones precisamente se restringe a trabajar dentro de subespacios con
F constante. Efectivamente hemos obtenido que a orden cero nuestros autoestados incluso con B0 6= 0, siguen
siendo del tipo |F, mF i como se ve en las Ecs. (24.11). Por tanto, a orden cero en teora de perturbaciones, F
sigue siendo constante de movimiento incluso con B0 6= 0.
566 CAPITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO

Figura 24.2: Precesion de S e I alrededor de F y precesion de F alrededor de la direccion del campo magnetico,
en el lmite de campo debil.

24.1.2. El efecto Zeeman para campo fuerte


En este caso el termino hiperfino sera la perturbacion y el termino de Zeeman sera el Hamiltoniano no pertur-
bado. Por tanto, en este caso tenemos que

H0 = 20 S3 ; W = RI S

Debemos empezar por diagonalizar el termino de Zeeman, para lo cual emplearemos la base desacoplada {|mS , mI i},
ya que estos son autoestados del Hamiltoniano no perturbado (Hamiltoniano de Zeeman)2 .

WZ |mS , mI i = 20 S3 |mS , mI i = 2mS ~0 |mS , mI i

puesto que mS = 1/2, los valores propios de WZ son ~0 . Cada uno de ellos es doblemente degenerado debido
a los dos valores posibles de mI . Utilizaremos la notacion |mS , mI i |S , I i con S = y I = . Tenemos
entonces que
20 S3 |+, i = +~0 |+, i ; 20 S3 |, i = ~0 |, i (24.12)

puesto que el Hamiltoniano hiperfino Whf es ahora la perturbacion, consideraremos correcciones de primer orden en
R, diagonalizando la restriccion del operador RI S a los subespacios bidimensionales EmS =1/2,mI y EmS =1/2,mI ,
asociados a los dos valores propios distintos de 20 S3 .
Es facil ver que los vectores de la forma |1 , 2 i son tambien vectores propios de F3

F3 |mS , mI i = (S3 + I3 ) |mS , mI i = ~ (mS + mI ) |mS , mI i


2
Estrictamente la base desacoplada es solo la parte espinorial de los estados propios del Hamiltoniano de Zeeman. La componente
orbital de estos autoestados es arbitraria.
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 567

Claramente los unicos vectores propios con el mismo valor propio de F3 son |+, i y |+i que estan en subespacios
diferentes. Por otro lado, teniendo en cuenta que

R 2 
RI S = F S2 I2
2
conmuta con F3 , el teorema 1.68 Pag. 58, nos dice que no hay elementos matriciales de RI S entre los estados
{|+, +i , |+, i} ni entre los estados {|, +i , |, i} ya que corresponden a valores propios diferentes de F3 . En
consecuencia, dentro de cada subespacio bidimensional, el operador RI S es diagonal.


mS , mI RI S |mS , mI i = hmS , mI | RI S |mS , mI i mS ,mS mI ,mI (24.13)

utilizando la Ec. (16.11) Pag. 408, tenemos que

1
I S = I3 S 3 + (I+ S + I S+ ) (24.14)
2
La ecuacion (24.13), nos muestra que solo los elementos diagonales sobreviven para el operador I S. A conti-
nuacion demostraremos que los elementos diagonales del operador I+ S +I S+ son nulos. Para verlo, examinamos
primero la accion de dicho operador sobre un elemento arbitrario de la base desacoplada

p
[I+ S + I S+ ] |mS , mI i = I+ s (s + 1) mS (mS 1) |mS 1, mI i
p
+I s (s + 1) mS (mS + 1) |mS + 1, mI i
p p
[I+ S + I S+ ] |mS , mI i = I (I + 1) mI (mI + 1) s (s + 1) mS (mS 1) |mS 1, mI + 1i
p p
+ I (I + 1) mI (mI 1) s (s + 1) mS (mS + 1) |mS + 1, mI 1i

estos valores solo pueden ser no nulos para los kets |mS = +1/2, mI = 1/2i y |mS = 1/2, mI = 1/2i. Puesto
que s = I = 1/2, y para estos casos ms = mI , las contribuciones no nulas son
p p
[I+ S + I S+ ] |mS , mS i = s (s + 1) + mS (mS + 1) s (s + 1) mS (mS 1) |mS 1, mS + 1i
p p
+ s (s + 1) + mS (mS 1) s (s + 1) mS (mS + 1) |mS + 1, mS 1i
[I+ S + I S+ ] |mS , mS i = [s (s + 1) mS (mS 1)] |mS 1, mS + 1i
+ [s (s + 1) mS (mS + 1)] |mS + 1, mS 1i

para el caso s = mS = 1/2, la contribucion no nula queda

[I+ S + I S+ ] |+, i = [s (s + 1) mS (mS 1)] |, +i

de modo que el termino diagonal es claramente nulo

h+, | [I+ S + I S+ ] |+, i = [s (s + 1) mS (mS 1)] h+, |, +i = 0

similarmente ocurre para el caso s = mS = 1/2. Por tanto, se tiene que

hmS , mI | [I+ S + I S+ ] |mS , mI i = 0 (24.15)

combinando las ecuaciones (24.13), (24.14) y (24.15), un elemento de matriz del operador RI S en la base
desacoplada queda


R mS , mI I S |mS , mI i = R hmS , mI | I3 S3 |mS , mI i mS ,mS mI ,mI = R~2 mS mI mS ,mS mI ,mI (24.16)
568 CAPITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO

De otra parte, combinando las Ecs. (24.12, 24.16), obtenemos los autovectores a orden cero en R y los auto-
valores a primer orden en R

R~2
|+, +i ~0 + (24.17)
4
R~2
|+, i ~0 (24.18)
4
R~2
|, +i ~0 (24.19)
4
R~2
|, i ~0 + (24.20)
4

en la Fig. 24.3, las lneas solidas (para ~0 R~2 ) representan los niveles para el regimen de campo fuerte. Las
lneas punteadas indican la prolongacion de las lneas solidas, pero estan en un regimen que no corresponde a
campo fuerte. Se obtienen dos lneas paralelas de pendiente +1 separadas por una energa R~2 /2 y dos lneas
paralelas de pendiente 1 separadas en R~2 /2.

Figura 24.3: (a) Diagrama de Zeeman en la aproximacion de campo fuerte, tomando la estructura hiperfina del
nivel 1s del atomo de Hidrogeno como perturbacion.

El desdoblamiento de campo fuerte R~2 /2 entre los estados |+, +i y |+, i o entre los estados |, +i y |, i
se puede interpretar de la siguiente manera: Vimos que en la expresion (24.14) solo el termino I3 S3 contribua en
el calculo de los elementos matriciales en la aproximacion de campo fuerte. Por tanto el Hamiltoniano total en
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 569

aproximacion de campo fuerte se puede escribir de manera efectiva en la forma


 
R R
20 S3 + RI3 S3 = 2 0 + I3 S3 = 2 (0 + I ) S3 ; I ~mI (24.21)
2 2

de modo que el espn electronico se acopla a 0 (i.e. al campo B0 ) pero adicionalmente se acopla a un campo
efectivo parametrizado por I que surge del acople hiperfino entre I y S tomando dos valores posibles ya que
mI = 1/2, dependiendo de si el espn del nucleo esta arriba o abajo. Puesto que este campo interno efectivo
se suma o resta a B0 dependiendo de mI , es este campo efectivo el que genera la brecha entre los estados |+, +i
y |+, i o entre los estados |, +i y |, i.

Las frecuencias de Bohr en la evolucion de hS3 i para campo fuerte


En la aproximacion de campo fuerte, el acople Zeeman de S con B0 es mas importante que el acople hiperfino
de S con I. Si despreciamos el acople hiperfino, puede verse que S precesa muy rapidamente (en virtud de que
|B0 | es grande) alrededor del eje Z. Puesto que n es despreciable, se desprecia tambien el efecto Zeeman nuclear
(entre B0 e I), bajo estas aproximaciones I permanece estacionario.
De la Ec. (24.14) podemos ver que en el regimen de campo fuerte la rapida precesion de S, genera que los
terminos S oscilen muy rapido y cancelen su efecto en promedio, quedando entonces solo con la contribucion
S3 I3 . Si incorporamos el termino hiperfino, el efecto es adicionar un pequeno campo efectivo paralelo a u3 y
proporcional a I3 como se ve en la Ec. (24.21). Este campo efectivo acelera o retarda la precesion de S alrededor de
Z, dependiendo del signo de I3 . En un campo fuerte, los estados de energa bien definida son de la forma |mS , mI i.
En esta base, el operador S3 tiene solo elementos diagonales, de manera que no hay frecuencias de Bohr no nulas
asociadas a hS3 i. En consecuencia, hS3 i sera estatico en la aproximacion de campo fuerte (en contraste con el
escenario de campo debil). La Fig. 24.4 muestra la precesion de S y el caracter estatico de I cuando despreciamos
el acople hiperfino y el acople Zeeman entre B0 e I.
Para los observables hSi i con i = 1, 2 encontramos dos frecuencias angulares de Bohr 0 R~/2, que corres-
ponden a las dos posibles orientaciones del campo efectivo interno producido por I3 , que se adiciona al campo
externo B0 . La introduccion del termino hiperfino tambien genera la precesion de I alrededor del campo efectivo
interno generado por S3 .

24.1.3. El efecto Zeeman para campo intermedio


Si asumimos que ~0 R~2 , no podemos considerar a ninguno de los dos Hamiltonianos Whf o WZ como una
perturbacion. En este caso tenemos que diagonalizar el Hamiltoniano completo. Utilizaremos los estados |F ; mF i
para encontrar la representacion matricial del Hamiltoniano completo. Puesto que estos son autoestados de Whf ,
la matriz asociada a Whf sera diagonal. De acuerdo con las Ecs. (24.4) los elementos diagonales de Whf asociados
a F = 1 tienen el valor R~2 /4 y los asociados a F = 0 dan 3R~2 /4. Por otra parte, las Ecs. (24.6) nos dan la
representacion matricial de S3 en la base {|F ; , mF i}. Por tanto, ordenando los vectores base en la forma3

|1, 1i , |1, 1i , |1, 0i , |0, 0i (24.22)

la representacion matricial de Whf + Wz queda



R~2
4 + ~0 0 0 0
R~2
0 4 ~0 0 0
hWhf + WZ iF,mF = R~2 (24.23)
0 0 4 ~0
2
0 0 ~0 3R~
4
3
No podemos tomar directamente la representacion matricial (24.7) ya que esta se construyo sobre el ordenamiento (24.5), el cual
difiere del ordenamiento en (24.22).
570 CAPITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO

Figura 24.4: (a) Precesion de S alrededor de la direccion del campo magnetico en la aproximacion de campo fuerte.
En este caso S3 es estatico. Adicionalmente, si despreciamos n , el vector I sera estatico.

Notese que S3 conmuta con F3 , de lo cual el termino 20 S3 solo tendra elementos matriciales no nulos entre dos
estados con el mismo mF , lo cual explica los ceros de la matriz (24.23). Por esta misma razon se ordeno la base
en la forma (24.22) en lugar del orden seguido en la Ec. (24.5).
La matriz (24.23) es diagonal por bloques de modo que se puede escribir como suma directa de dos matrices
1 1 mas una matriz 2 2.
 2   2  !
R~ R~ R~2
~ 0
hWhf + WZ iF,mF = + ~0 111 ~0 111 4
2 (24.24)
4 4 ~0 3R~4

Las dos matrices unidimensionales tienen los siguientes valores propios4


R~2
E1 = + ~0 |1, 1i = |+, +i (24.25)
4
R~2
E2 = ~0 |1, 1i = |, i (24.26)
4
El diagrama de Zeeman correspondiente se muestra en la Fig. 24.5. Los niveles E1 y E2 estan representados por
las dos lneas rectas contnuas de pendientes 1, que toman el valor R~2 /4 para 0 = 0 (i.e. para campo externo
cero). Vemos que estas graficas reproducen el comportamiento para campo debil (0 pequeno) y para campo
fuerte (0 grande) al comparar ambos lmites con los obtenidos en las figuras 24.1, 24.3.
4
Notese que con la base ordenada segun la ecuacion (24.5), la matriz no tendra la textura por bloques descrita en (24.24). Esto
justifica el reordenamiento dado en (24.22).
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 571

Figura 24.5: (a) Diagrama de Zeeman para valores arbitrarios del campo magnetico. Las lneas punteadas repre-
sentan las asntotas de las hiperbolas.

Los autovalores asociados a la submatriz 2 2 de la Ec. (24.23) nos dan la ecuacion de valores propios
 2  
R~ 3R~2
E E ~2 02 = 0
4 4
cuyas races nos dan los otros niveles de energa
s 2
R~2 R~2
E3 = + + ~2 02 (24.27)
4 2
s 2
R~2 R~2
E4 = + ~2 02 (24.28)
4 2
La Fig. 24.5 muestra que cuando ~0 vara, los niveles E3 y E4 trazan las dos ramas de una hiperbola. Las asntotas
de esta hiperbola son las lneas rectas definidas por las ecuaciones
R~2
E= ~0 (24.29)
4
que son las lneas rectas punteadas asociadas a la Fig 24.5 y las ecuaciones (24.18, 24.19) correspondientes a los
estados |+, i y |, +i. Los dos puntos de retorno de la hiperbola corresponden a 0 = 0 y energas R~2 /4
R~2 /2, es decir estan sobre el eje Y con energas R~2 /4 y 3R~2 /4. Las tangentes a ambos puntos de retorno
son horizontales en concordancia con lo encontrado en (24.11) para los estados |F = 0, 1; mF = 0i.
Notese que en un campo debil los estados de energa bien definida son los estados |F, mF i y en un campo
fuerte son los estados de la base |mS , mI i. Para campos intermedios, son los vectores propios asociados a la matriz
(24.23)5 , que son estados intermedios entre los estados |F, mF i y los estados |mS , mI i. Esto se puede entender
5
Notese que dos de los vectores propios de la matriz (24.23) son los estados
|1 i = |1, 1i = |+, +i ; |2 i = |1, 1i = |, i
572 CAPITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO

como si nos movieramos contnuamente desde un acople fuerte entre I y S (base acoplada) para 0 pequeno, hacia
un desacople total entre I y S (base desacoplada) para 0 grande.

24.2. Efecto Stark para el atomo de Hidrogeno


Consideremos al atomo de Hidrogeno inmerso en un campo electrico uniforme y estatico E ~ = Eu3 . La energa
de interaccion del campo electrico con el momento dipolar electrico qR del atomo esta descrita por el Hamiltoniano

~
WS = q ER = qEX3

aun para los campos mas intensos que se producen en el laboratorio, WS H0 , siendo H0 el Hamiltoniano
(13.4) de la Pag. 357, que describe la energa cinetica mas la energa potencial interna electrostatica del atomo
de Hidrogeno. Por tanto, se puede tratar perturbativamente con respecto a H0 . Por otro lado, WS puede ser
mucho menor, del orden de, o mucho mayor que alguno de los Hamiltonianos Wf y Whf . En esta seccion nos
restringiremos a asumir que el campo electrico externo es suficientemente intenso para ser dominante con respecto
a Wf y Whf . De hecho en el actual contexto despreciaremos la estructura fina e hiperfina. Puesto que H0 y WS
no dependen de variables de espn, ignoraremos los numeros cuanticos mS y mI , cuyo unico papel sera multiplicar
cualquier degeneracion encontrada por cuatro.

24.2.1. El efecto Stark sobre el nivel n = 1


De acuerdo con la teora de perturbaciones, el efecto del campo electrico a primer orden sobre el estado
1s, depende del elemento matricial

hn = 1, l = 0, mL = 0| WS |n = 1, l = 0, mL = 0i = qE hn = 1, l = 0, mL = 0| X3 |n = 1, l = 0, mL = 0i
Z
hWS i1s = qE dV 1,0,0 (r) x3 1,0,0 (r)

puesto que x3 es impar y la funcion de onda del estado base es par, el integrando es impar y la integral se anula.
En consecuencia, no hay correccion lineal en E. Por tanto, debemos calcular el termino (20.41), Pag. 502, asociado
al segundo orden en teora de perturbaciones.

X X |h1, 0, 0| X3 |n, l, mi|2


2 = q 2 E2 (24.30)
E1 En
n6=1 l,m

aqu aparecen integrales no nulas, ya que hay funciones de onda que tienen paridad opuesta a 1,0,0 (r), de
manera que el integrando tendra paridad par. Recordemos que la paridad de la funcion de onda esta dictaminada
por el armonico esferico asociado cuya paridad es la asociada al numero cuantico l [ver Ec. (11.34) Pag. 332].
Adicionalmente, puesto que E1 En < 0, el estado base se baja.
De acuerdo con la expresion (20.39) Pag. 502, el estado base corregido a primer orden en E, nos da

XX hn, l, m| X3 |1, 0, 0i
|0 i = |1, 0, 0i qE |n, l, mi + ... (24.31)
E1 En
n6=1 l,m

esto nos muestra que a primer orden en E, el valor medio del momento dipolar electrico qR, viene dado por

dado que estos dos estados coinciden en ambas bases. Sin embargo los otros dos vectores propios de la matriz (24.23) son combinaciones
lineales de |1, 0i y |0, 0i o equivalentemente, combinaciones lineales de |+, i y |, +i. Tales estados se obtienen diagonalizando la
submatriz 2 2 de la matriz (24.23).
24.2. EFECTO STARK PARA EL ATOMO DE HIDROGENO 573

h0 | qR |0 i. Utilizando (24.31) tenemos que



X X h1, 0, 0| X3 |n , l , m i

h0 | qR |0 i = q h1, 0, 0| qE n , l , m R
E1 En
n 6=1 l ,m

XX hn, l, m| X3 |1, 0, 0i
|1, 0, 0i qE |n, l, mi
E1 En
n6=1 l,m
XX hn, l, m| X3 |1, 0, 0i
h0 | qR |0 i = q h1, 0, 0| R |1, 0, 0i q 2 E h1, 0, 0| R |n, l, mi
E1 En
n6=1 l,m
X X h1, 0, 0| X3 |n , l , m i

q 2 E n , l , m R |1, 0, 0i + O E2

E1 En
n 6=1 l ,m

una vez mas el termino h1, 0, 0| R |1, 0, 0i se anula por argumentos de paridad. El valor esperado del momento
dipolar electrico a primer orden en E, vendra dado entonces por
X X h1, 0, 0| R |n, l, mi hn, l, m| X3 |1, 0, 0i + h1, 0, 0| X3 |n, l, mi hn, l, m| R |1, 0, 0i
h0 | qR |0 i = q 2 E (24.32)
E1 En
n6=1 l,m

Por tanto, el campo electrico E genera un momento dipolar inducido. Ahora bien, de las identidades
r
2
x1 = r sin cos = r [Y1,1 (, ) Y11 (, )]
3
r
2
x2 = r sin sin = ir [Y1,1 (, ) + Y11 (, )]
3
y usando las relaciones de ortogonalidad de los armonicos esfericos puede verse que

h0 | Xk |0 i = 0 ; k = 1, 2 (24.33)

sustituyendo (24.33) en (24.32), el valor esperado del momento dipolar electrico queda
X X 2u3 h1, 0, 0| X3 |n, l, mi hn, l, m| X3 |1, 0, 0i
h0 | qR |0 i = u3 q h0 | X3 |0 i = q 2 E
E1 En
n6=1 l,m
X X |h1, 0, 0| X3 |n, l, mi|2
h0 | qR |0 i = 2u3 q 2 E (24.34)
E1 En
n6=1 l,m

de modo que el momento dipolar inducido es paralelo al campo electrico aplicado E ~ = Eu3 (como ocurre tambien
en el escenario clasico). Esto se debe a la simetra esferica del estado 1s (ya que Y00 no depende de los angulos) y al
hecho de que esta simetra esferica es rota por el campo electrico y reducida a una simetra axial con respecto al eje
X3 . El coeficiente de proporcionalidad entre el momento dipolar inducido y el campo se denomina susceptibilidad
electrica lineal. De acuerdo con la Ec. (24.34), para el estado 1s esta susceptibilidad electrica viene dada por
X X |h1, 0, 0| X3 |n, l, mi|2
1s = 2q 2 (24.35)
E1 En
n6=1 l,m

ahora bien, para la componente X3 que sobrevive, tenemos en cuenta que


r r
4 4
x3 = r cos = r Y1,0 () = r Y () (24.36)
3 3 1,0
574 CAPITULO 24. CAMPOS EXTERNOS SOBRE EL ATOMO DE HIDROGENO

y las relaciones de ortonormalidad de los armonicos esfericos nos conducen a


Z

h1, 0, 0| X3 |n, l, mi = R1,0 (r) Y00 x3 Rn,l (r) Ylm (, ) r 2 dr d
r Z
4
= R1,0 (r) Y00 rY1,0 () Rn,l (r) Ylm (, ) r 2 dr d
3
r Z Z
4 3
= Y00 R1,0 (r) Rn,l (r) r dr Y1,0 () Ylm (, ) d
3
r Z Z
4
= l,1 m,0 Y00 R1,0 (r) Rn,l (r) r 3 dr
Y1,0 () Y1,0 (, ) d
3
Z "r #
4
= l,1 m,0 R1,0 (r) Y00 rY () Rn,1 (r) Y1,0 (, ) r 2 dr d
3 1,0
Z

h1, 0, 0| X3 |n, l, mi = l,1 m,0 R1,0 (r) Y00 x3 Rn,1 (r) Y1,0 (, ) dV

quedando finalmente
h1, 0, 0| X3 |n, l, mi = h1, 0, 0| X3 |n, 1, 0i l,1 m,0

con lo cual las Ecs. (24.30, 24.31 ,24.34, 24.35) quedan en la forma

X |h1, 0, 0| X3 |n, 1, 0i|2
2 = q 2 E2
E1 En
n=2

X hn, 1, 0| X3 |1, 0, 0i
|0 i = |1, 0, 0i qE |n, 1, 0i + ...
n=2
E1 En

X |h1, 0, 0| X3 |n, 1, 0i|2
h0 | qR |0 i = 2u3 q 2 E
E1 En
n=2

X
2 |h1, 0, 0| X3 |n, 1, 0i|2
1s = 2q
n=2
E1 En

24.2.2. Efecto Stark sobre el nivel n = 2


El efecto de WS sobre el nivel n = 2 se obtiene a primer orden diagonalizando la restriccion de WS al subespacio
E2 expandido por los cuatro estados6

|2, 0, 0i , |2, 1, 1i , |2, 1, 0i , |2, 1, 1i (24.37)

la funcion de onda 2,0,0 (r) es par, y las funciones de onda 2,1,m (r) son impares. Puesto que WS es impar, se
concluye que se anulan los siguientes 10 elementos matriciales


h2, 0, 0| WS |2, 0, 0i = 2, 1, m WS |2, 1, mi = 0

y dado que los estados |2, 0, 0i y |2, 1, mi son de paridad opuesta, los elementos matriciales h2, 1, m| WS |2, 0, 0i
pueden ser no nulos. De hecho veremos que solo h2, 1, 0| WS |2, 0, 0i es no nulo. Para verlo utilizamos la Ec. (24.36)
6
Estrictamente el espacio de estados es de dimension 16 debido a las variables de espn del electron y el proton. Pero dado que no
hay dependencia de las variables de espn, las matrices se podran escribir como M44 I44 , siendo M44 una matriz orbital construda
con la base (24.37). Por supuesto, toda degeneracion obtenida se multiplica por 4.
24.2. EFECTO STARK PARA EL ATOMO DE HIDROGENO 575

con lo cual
Z
h2, 1, m| WS |2, 0, 0i = qE 2,1,m (r) x3 2,0,0 (r) dV
r Z
4
= qE R2,1 (r) Y1,m (, ) rY10 () R2,0 (r) Y0,0 (, ) r 2 dr d
3
r r Z Z
1 4 3
= qE R2,1 (r) R2,0 (r) r dr Y1,m (, ) Y10 () d
4 3
Z
qE
= m,0 R2,1 (r) R2,0 (r) r 3 dr
3 0
Z
q
h2, 1, m| WS |2, 0, 0i = Em,0 ; R2,1 (r) R2,0 (r) r 3 dr
3 0
puesto que R2,1 (r) y R2,0 (r) son reales, la cantidad es real. Los elementos matriciales de WS en la base ordenada

|2, 1, 1i , |2, 1, 1i , |2, 1, 0i , |2, 0, 0i

nos dan
0 0 0 0
0 0 0 0
hWS i =
0
(24.38)
0 0 E
0 0 E 0
calculando los vectores y valores propios de la matriz (24.38), obtenemos la correccion a primer orden en E de la
energa y a orden cero de los autoestados.

|2, 1, 1i 1 = 0
|2, 1, 1i 1 = 0
1
(|2, 1, 0i + |2, 0, 0i) 1 = E
2
1
(|2, 1, 0i |2, 0, 0i) 1 = E
2
con lo cual la degeneracion del nivel n = 2 se remueve parcialmente, y los corrimientos en la energa son lineales
y no cuadraticos en E, a diferencia de la correccion (24.30) para el nivel 1s. Este efecto Stark lineal se debe a
la existencia de dos niveles de paridad opuesta y con la misma energa no perturbada, i.e. los niveles 2s y 2p.
Los estados con n = 2 son inestables ya que tienden a caer en el estado base. Sin embargo, el estado 2s tiene
una vida media mucho mayor que el estado 2p. La transicion entre los estados 2p y 1s se realiza por emision
espontanea de un foton de la serie de Lyman , con una vida media de unos 109 seg. Por otro lado, la transicion
del estado 2s al 1s se realiza por la emision de dos fotones, con una vida media del orden de un segundo. Por lo
anterior, se dice que el estado 2p es inestable y el estado 2s se denomina metaestable.
Puesto que el Hamiltoniano de Stark WS tiene elementos de matriz no nulos que conectan al estado 2s con
el 2p, cualquier campo electrico externo (estatico u oscilante) mezcla el estado metaestable 2s con el estado
inestable 2p, reduciendo fuertemente la vida media del estado 2s. Este fenomeno se conoce como extincion de
la metaestabilidad.
Captulo 25

Moleculas diatomicas

Figura 25.1: Perfil tpico de la energa potencial de interaccion entre los nucleos de una molecula diatomica como
funcion de la distancia r entre los nucleos. Los primeros estados vibracionales se representan por lneas horizontales
en el pozo de potencial.

La formacion de una molecula diatomica requiere que la energa de interaccion V (r) entre los atomos neutros
posea al menos un mnimo local que garantice la estabilidad del sistema, siendo r la distancia entre los atomos.
La forma tpica de este potencial se muestra en la Fig. 25.1. Para r muy grande, los atomos no interactuan, de
modo que V (r) debe tomar un valor constante que suele escogerse como el cero de la energa potencial. A medida
que r decrece V (r) vara aproximadamente como 1/r 6 , donde la interaccion atractiva es del tipo de fuerza de
Van der Waals1 . Cuando r se vuelve suficientemente pequeno como para que las funciones de onda electronicas
se traslapen, V (r) decrece aun mas rapido y pasa por un mnimo local r = re , luego de lo cual decrece en valor
absoluto y se anula en algun punto rm . Para r < rm la fuerza se vuelve repulsiva y se incrementa en forma
indefinida a medida que decrece r (ya que en este caso domina la interacccion repulsiva entre los nucleos).
En una imagen clasica, r = re sera un punto de equilibrio estable. El valor V (re ) = V0 nos da la energa de
disociacion de la molecula. Esto es, V0 es la energa necesaria para que los dos atomos se separen indefinidamente.
A mayor V0 la molecula es mas estable.
La descripcion mecano-cuantica de la molecula es un problema muy complejo, ya que involucra encontrar
los estados estacionarios de un sistema de nucleos y electrones que interactuan todos entre s. De hecho, no se
puede resolver de manera exacta la ecuacion de Schrodinger asociada. Una importante simplificacion surge del
1
Es logico que el potencial efectivo decaiga mucho mas rapido que el potencial de Coulomb, ya que la interaccion efectiva es el
resultado del apantallamiento de cargas en una molecula que es neutra.

576
577

hecho de que la masa del electron es mucho menor que la del proton. Esto implica que en primera aproximacion, el
movimiento de ambos se puede estudiar por separado (aproximacion de Born-Oppenheimer). Para ello comenzamos
estudiando el movimiento de los electrones para un valor fijo de r entre los dos nucleos. De esta forma se obtiene
una serie de estados estacionarios para el sistema electronico de energas E1 (r) , E2 (r) etc. Consideramos entonces
el estado base E1 (r) del sistema electronico, cuando r vara debido al movimiento de los nucleos. Asumimos que
el sistema electronico permanece siempre en el estado base para todo r. Esto implica que la funcion de onda del
sistema se adapta instantanemente a cualquier cambio en r. Se dice que los electrones (que son muy moviles)
siguen adiabaticamente el movimiento de los nucleos. En esta aproximacion, la energa electronica E1 (r) actua
como una energa potencial de interaccion entre los dos nucleos. Esta energa potencial de interaccion depende
entonces de la distancia entre los nucleos r y debe anadirse a la repulsion electrostatica. En consecuencia, bajo la
aproximacion de Born-Oppenheimer la energa potencial de interaccion total V (r) del sistema de los dos nucleos
que nos permite determinar su movimiento estara dada por

Z1 Z2 e2
V (r) = E1 (r) + (25.1)
r
siendo Z1 y Z2 los numeros atomicos de los dos nucleos. La energa potencial modelada en la Fig. 25.1, es la dada
por la Ec. (25.1).
Al tomar en cuenta todos los grados de libertad del problema apareceran vibraciones de los dos nucleos
alrededor de su posicion de equilibrio, y rotacion del sistema con respecto al centro de masa.
Sean m1 y m2 las masas de los dos nucleos, puesto que el potencial V (r) es central, la seccion 12.2 nos muestra
que tambien en el escenario cuantico es posible separar el problema en el movimiento del centro de masa (una
masa libre equivalente M = m1 + m2 , con el movimiento del centro de masa) y el movimiento de una partcula
equivalente de masa reducida
m1 m2
=
m1 + m2
sometida al potencial V (r) de la Ec. (25.1). El unico movimiento no trivial es el de la masa reducida. A diferencia
del atomo de hidrogeno en el cual la masa reducida es aproximadamente la masa del electron, la masa reducida
de un sistema de dos nucleos es en general muy diferente a la masa de cada nucleo, puesto que dichas masas
suelen ser del mismo orden de magnitud. En consecuencia, el movimiento real de cada nucleo es muy diferente al
movimiento de la partcula imaginaria con masa , las posiciones de los nucleos se obtienen a partir de la posicion
del centro de masa y de la posicion de la partcula imaginaria , usando las Ecs. (12.2) Pag. 344.
Retornando al problema equivalente de la partcula de masa reducida sometida al potencial V (r), los estados
estacionarios asociados vendran dados por las Ecs. (12.33, 12.36) Pag. 351
1
v,l,m (r, , ) = uv,l (r) Yl,m (, ) (25.2)
r
donde los niveles de energa y la funcion radial estan dadas por la Ec. (12.37), Pag. 352
 2 2 
~ d l (l + 1) ~2
+ V (r) + uv,l (r) = Ev,l uv,l (r) (25.3)
2 dr 2 2r 2

asumiremos de aqu en adelante que la proyeccion del momento angular total orbital de los electrones sobre el eje
internuclear es nulo, al igual que su espn total. En consecuencia, el momento angular total de la molecula surge
solo de la rotacion de los dos nucleos. Este es el caso en casi todas las moleculas diatomicas en su estado base.
En el caso mas general surgen terminos en la energa nuclear de interaccion que no dependen exclusivamente de
la distancia r.
Podemos definir por supuesto un potencial efectivo como la suma del potencial real y el potencial centrfugo
en la forma
l (l + 1) ~2
Vef (r) = V (r) + Vcent (r) = V (r) + (25.4)
2r 2
578 CAPITULO 25. MOLECULAS DIATOMICAS

de modo que la ecuacion radial (25.3), tiene la forma de una ecuacion de valores propios para un Hamiltoniano
unidimensional en el cual la partcula de masa se coloca en el potencial efectivo Vef (r).
Adicionalmente, expandiremos el potencial V (r) en la forma

V (r) = V0 + f (r re )2 g (r re )3 + . . . (25.5)

los coeficientes f y g son positivos, puesto que el potencial posee un mnimo local en re , y se incrementa mas
rapido para r < re que para r > re . Comenzaremos despreciando el termino cubico de tal manera que asumiremos
potencial puramente parabolico.

25.1. Estados de momento angular cero (l = 0)


Para l = 0, se anula el potencial centrfugo en el potencial efectivo (25.4). Por tanto Vef (r) coincide con V (r).
En consecuencia, obtenemos los autoestados y autovalores propios del oscilador armonico cuantico unidimensional.
La variable unidimensional x del oscilador armonico se convierte en (r re ), que sera la elongacion del oscilador.
  s
1 2f
Ev,0 = V0 + v + ~ ; , v = 0, 1, 2, 3, . . . (25.6)
2
 2 1/4 r
1 2 (rre )2 /2
uv (r) = e Hv [ (r re )] ; (25.7)
2v v! ~

siendo Hv un polinomio de Hermite [ver Ecs. (8.50), Pag. 282]. En la Fig. 25.1, Pag. 576, hemos representado
los dos primeros niveles de energa con lneas horizontales, donde la longitud de las lneas nos da una idea de la
extension caracterstica (r)v de la funcion de onda asociada a estos estados. De la Ec. (8.64), Pag. 284 tenemos
que s 
1 ~
(r)v v+ (25.8)
2

Para que el calculo anterior sea valido, es necesario que el termino g (r re )3 sea despreciable con respecto a
f (r re )2 , dentro de una vecindad de ancho r alrededor de r = re , es decir

2 3
f (r r )
e g (r r )
e para |r re | . (r)v (25.9)

combinando (25.8, 25.9) se obtiene


r s
1 ~
f g (r)v = g 2 (r)0 v+ ; (r)0 (25.10)
2 2

donde (r)0 es el ancho de la funcion de onda en el estado base. Se obtiene en particular

f g (r)0 (25.11)

en la practica la condicion (25.11) se satisface casi siempre. Debemos sin embargo tener en cuenta que los numeros
cuanticos v deben ser suficientemente pequenos para que tambien se satisfaga la condicion (25.10).
Notese que la expansion (25.5) no es valida en r = 0 donde V (r) diverge. El argumento anterior asume
implcitamente la condicion
(r)v re (25.12)
en cuyo caso las funciones de onda (25.7) son practicamente cero en el origen, y casi identicas a las soluciones
exactas de la ecuacion radial (25.3) que rigurosamente se deben anular en el origen [condicion (12.44) pagina 353].
25.2. ESTADOS DE MOMENTO ANGULAR NO NULO (L 6= 0) 579

25.2. Estados de momento angular no nulo (l 6= 0)


Si estamos en un regimen de pequenas oscilaciones (como ocurre en la mayora de los casos) entonces la
distancia entre los atomos sera del orden de re . El valor tpico del potencial centrfugo sera entonces su valor en
r = re
l (l + 1) ~2 ~
Vcent (re ) = = Bhl (l + 1) ; B (25.13)
2re2 4re2
puesto que el momento angular esta relacionado con los modos rotacionales, a la cantidad B la llamamos la
constante rotacional. Notese que si l 1, el potencial centrfugo es del orden de 2Bh, lo cual a su vez nos indicara
el orden de magnitud de la energa rotacional. En general esta energa rotacional es mucho menor que la energa
vibracional asociada a la molecula
2Bh ~ (25.14)

Por otro lado, si r re es el ancho de la funcion de onda alrededor de re , tenemos que la variacion del potencial
centrfugo alrededor de r = re , es del orden de

Vcent (r) dVcent (r) l (l + 1) ~2
=
r dr re3
r=re r=re
l (l + 1) ~2 r
|Vcent (r)|r=re 3
r = 2Bhl (l + 1) (25.15)
re re

en tanto que la variacion del potencial real V (r) es del orden de la energa potencial elastica con elongacion
r y constante elastica k 2

1 1 2 1 (r)2
V (r) = 2 (r)2 = ~ (r)2 = ~ (25.16)
2 4 ~ 4 (r)20

donde hemos usado (25.10). Y puesto que r re , utilizando (25.14) en (25.15) y asumiendo valores no muy
grandes de l, tenemos que

r
|Vcent (r)| 2Bhl (l + 1) 2Bhl (l + 1) 2Bh ~ (25.17)
re

por otro lado, puesto que r es del orden de (r)0 , la Ec. (25.16) nos indica que

V (r) ~ (25.18)

combinando las Ecs. (25.18, 25.17) vemos que en la region del espacio en la cual la funcion de onda tiene amplitudes
significativas (esto es en un ancho r alrededor de re ) la variacion (25.15) del potencial centrfugo es mucho menor
que la variacion (25.16) de V (r). Por tal razon, podemos reemplazar en primera aproximacion el valor del potencial
centrfugo por su valor en r = re , Ec. (25.13). Combinando entonces las Ecs. (25.4, 25.13) el potencial efectivo
queda en la forma
Vef (r) V (r) + Bhl (l + 1) (25.19)

utilizando (25.19) y la expansion (25.5) hasta segundo orden, la ecuacion radial (25.3) queda en la forma
 
~2 d2 2
V0 + f (r re ) + Bhl (l + 1) uv,l (r) = Ev,l uv,l (r)
2 dr 2
 2 2 
~ d 1 2 2
+ (r re ) uv,l (r) = [Ev,l + V0 Bhl (l + 1)] uv,l (r) (25.20)
2 dr 2 2
580 CAPITULO 25. MOLECULAS DIATOMICAS

esta ecuacion es totalmente analoga a la ecuacion de valores propios de un oscilador armonico unidimensional. Por
tanto el miembro derecho de la Ec. (25.20) que esta en parentesis, debe ser igual a (v + 1/2) ~. En consecuencia,
el espectro asociado a la Ec. (25.20) esta dado por
 
1
Ev,l = v + ~ V0 + Bhl (l + 1) ; v = 0, 1, 2, 3, . . . ; l = 0, 1, 2, 3, . . . (25.21)
2

notese que el operador diferencial a la izquierda de la Ec. (25.20) no depende de l, ya que toda la dependencia
con este numero cuantico quedo al lado derecho de tal ecuacion y por tanto fue absorbida por el valor propio. En
consecuencia, la funcion radial que se genera en (25.20) es independiente de l

uv,l (r) = uv (r) (25.22)

Donde la funcion radial estara dada por la Ec. (25.7). La expresion (25.2) para la funcion de onda completa
se puede escribir en esta aproximacion de la forma

1
v,l,m (r) = uv (r) Ylm (, ) (25.23)
r
Observese que la energa (25.21) consiste en la contribucion de un modo vibracional de frecuencia y un
modo rotacional de momento angular l, el termino constante V0 puede removerse del espectro si se desea.
Adicionalmente, en la funcion de onda los modos vibracionales estan asociados con la dependencia radial y los
rotacionales con la dependencia angular. Vemos entonces que la funcion de onda (25.23) es el producto de dos
funciones en donde solo uno de los factores se modifica con las vibraciones y solo uno de ellos se modifica con
las rotaciones. Notese en particular que la independencia de la funcion radial con respecto al numero cuantico l
expresada en la Ec. (25.22), es importante para que la funcion radial no dependa de las rotaciones.

Figura 25.2: Diagrama que ilustra los dos primeros niveles v = 0 y v = 1, con su estructura rotacional debida al
termino Bhl (l + 1).

La figura 25.2 muestra los dos primeros modos vibracionales v = 0, 1 con su estructura rotacional debida al
factor Bhl (l + 1). En esta figura se muestra que solo transiciones con l = 1 estan permitidas, lo cual veremos a
continuacion.
25.3. ESPECTRO DE MOLECULAS DIATOMICAS HETEROPOLARES 581

25.3. Espectro de moleculas diatomicas heteropolares


Asumiremos moleculas heteropolares (atomos diferentes), y nos confinaremos a estudiar el espectro de emision
o absorcion infraroja. El momento dipolar electrico D (r) de la molecula esta dirigido a lo largo de la lnea que
une los nucleos, y se puede expandir en potencias de r re
D (r) = d0 + d1 (r re ) + . . . (25.24)
si es el angulo entre el eje de la molecula y el vector u3 tendremos que la proyeccion de D (r) a lo largo de u3
sera D (r) cos . Puesto que la molecula esta rotando, no es posible para todo tiempo alinear el momento dipolar
con el eje X3 .
Pretendemos determinar las frecuencias del espectro de ondas electromagneticas a lo largo de u3 que la molecula
puede absorber o emitir como consecuencia de la variacion de su dipolo electrico. De acuerdo con la discusion
de la seccion 5.8.3 Pag. 228, debemos determinar para ello las frecuencias de Bohr que aparecen en la evolucion
temporal del valor esperado de D (r) cos . Por lo tanto, precisamos encontrar los valores de v , l , m y v, l, m para
los cuales los elementos matriciales
Z



v , l , m D (r) cos |v, l, mi = r 2 drd v ,l ,m (r, , ) D (r) cos v,l,m (r, , )

son no nulos. De la expresion (25.23) esta relacion se puede escribir en la forma


Z  Z 


v , l , m D (r) cos |v, l, mi = dr uv (r) D (r) uv (r) d Yl ,m (, ) cos Ylm (, ) (25.25)
0
Para evaluar la integral angular tendremos en cuenta la siguiente identidad de los armonicos esfericos
r s
l 2 m2 (l + 1)2 m2
cos Ylm (, ) = Y l1,m (, ) + Yl+1,m (, )
4l2 1 4 (l + 1)2 1
de modo que la integral angular en (25.25) queda
Z "r s #

2 m2 2 2
l (l + 1) m
l , m cos |l, mi = d Yl ,m (, ) Yl1,m (, ) + Yl+1,m (, )
4l2 1 4 (l + 1)2 1
r Z
l 2 m2
= d Yl ,m (, ) Yl1,m (, )
4l2 1
s Z
(l + 1)2 m2
+ 2 d Yl ,m (, ) Yl+1,m (, )
4 (l + 1) 1
" r s #

2 m2 2 2
l (l + 1) m
l , m cos |l, mi = mm l ,l1 + l ,l+1 (25.26)
4l2 1 4 (l + 1)2 1
en lo que respecta a la integral radial en (25.25), debemos tener en cuenta que la funcion uv (r) es identica a la
funcion de onda del oscilador armonico unidimensional si hacemos x r re en la Ec. (25.7). Denotando estas
funciones como |vi y utilizando (25.24), la integral radial en (25.25) queda
s



~
 
v D (r) |vi = v (d0 + d1 X) |vi = d0 hv |vi + d1 v X |vi = d0 v v + d1 v a + a |vi
2
s
~ 


= d0 v v + d1 v + 1 v v + 1i + v v v 1i
2
s

~ 
v D (r) |vi = d0 v v + d1 v + 1 v ,v+1 + v v ,v1 (25.27)
2
582 CAPITULO 25. MOLECULAS DIATOMICAS

donde hemos usado las Ecs. (8.9) Pag. 272 y las Ecs. (8.41) Pag. 280. Sustituyendo (25.26, 25.27) en (25.25)
tenemos que
" s #

~ 
v , l , m D (r) cos |v, l, mi = d0 v v + d1 v + 1 v ,v+1 + v v ,v1
2
" r s #
l 2 m2 (l + 1)2 m2
l ,l1 + l ,l+1 mm (25.28)
4l2 1 4 (l + 1)2 1

de la expresion (25.28) se obtienen reglas de seleccion asociadas al elemento de matriz de la proyeccion del
momento dipolar electrico a lo largo de u3 . Tal elemento de matriz es nulo a menos que se cumplan las condiciones

l l = +1, 1 ; m = m (25.29)

v v = 0, +1, 1 (25.30)

Notese que la regla de seleccion (25.29) proviene de la dependencia angular (ortonormalidad de los armonicos
esfericos) y es por tanto independiente de las aproximaciones realizadas para resolver la ecuacion radial (25.3)2 .
En contraste, la regla de seleccion (25.30) depende de realizar la aproximacion armonica en la expansion (25.5)
del potencial V (r) y de conservar solo hasta el termino lineal en la expansion (25.24) del dipolo D (r).

25.3.1. Espectro puramente rotacional


La Ec. (25.28) nos muestra que para v v = 0, el valor esperado del dipolo no depende de d1 , desde el punto
de vista de la Ec. (25.24) esto indica que en este caso el valor esperado es independiente de las elongaciones o
vibraciones r re del dipolo, as como del valor de los numeros cuanticos v, v . Es decir el conjunto de lneas
asociadas a v = v , constituyen el espectro puramente rotacional (solo depende de los numeros cuanticos angulares
l, m), cuya intensidad sera proporcional a d20 . Por otro lado, la parte puramente rotacional del espectro (25.21)
vendra dada por
 
1
Ev,l = v + ~ V0 + Bhl (l + 1) ; v = fijo . . . ; l = 0, 1, 2, 3, . . .
2

para calcular las transiciones se pueden eliminar los terminos constantes de modo que para el espectro puramente
rotacional se tiene
El = Bhl (l + 1) ; l = 0, 1, 2, 3, . . . (25.31)
Los niveles adyacentes nos dan

El El1 = Bh [l (l + 1) l (l 1)] = 2Bhl

de modo que la separacion entre niveles adyacentes se incrementa linealmente con l, como se indica en la Fig.
25.3a. De otra parte, las reglas de seleccion (25.29) nos dicen que l = 1, de manera que las unicas frecuencias
de Bohr asociadas a la oscilacion dipolar son las asociadas a niveles adyacentes l,l1 (usamos la notacion para
distinguir estas frecuencias del numero cuantico v)

El El1
l,l1 = = 2Bl
h
formando una serie de frecuencias equidistantes separadas por un intervalo 2B como se muestra en la Fig. 25.3b.
La forma de las figuras 25.3 justifica el nombre de constante rotacional dado al parametro B.
2
Sin embargo, tal regla de seleccion depende del caracter central de la interaccion y por tanto de la validez de la aproximacion de
Born-Oppenheimer.
25.3. ESPECTRO DE MOLECULAS DIATOMICAS HETEROPOLARES 583

Figura 25.3: (a) Primeros niveles puramente rotacionales. La separacion entre niveles adyacentes crece linealmente
con l. (b) Frecuencias de Bohr para el espectro puramente rotacional. Las frecuencias son equidistantes y separadas
por una distancia 2B.

25.3.2. Espectro vibracional-rotacional


Las lneas asociadas a las transiciones v v = 1, l l = 1, corresponden al espectro vibracional-rotacional.
Aplicando la Ec. (25.21) obtenemos las frecuencias asociadas a este espectro
E ,l E,l ~   
vibrot = = v + B l l + 1 l (l + 1)
h h
Sin perdida de generalidad podemos asumir v = v + 1, y puesto que l = l 1 tenemos dos tipos de frecuencias

(l =l1) E+1,l1 E,l


vibrot = = + B {(l 1) [(l 1) + 1] l (l + 1)}
h 2
+
vibrot = + B (l + 1) (l + 2) Bl (l + 1) = + 2B (l + 1) ; l = 0, 1, 2, 3, . . .
2 2

vibrot = + B (l 1) l Bl (l + 1) = 2Bl = 2B l + 1 ; l = 0, 1, 2, 3, . . .
2 2 2
En sntesis, utilizando la Ec. (25.21), podemos separar las lneas de este espectro en dos grupos

1. Las lneas v = v + 1, l = l + 1 v, l de frecuencias


+
vibrot = + B (l + 1) (l + 2) Bl (l + 1) = + 2B (l + 1) ; l = 0, 1, 2, 3, . . . (25.32)
2 2

2. Las lneas v = v + 1, l = l 1 v, l de frecuencias


   
vibrot = + Bl l + 1 B l + 1 l + 2 = 2B l + 1 ; l = 0, 1, 2, 3, . . . (25.33)
2 2

Figura 25.4: Espectro vibracional-rotacional para una molecula heteropolar. Este espectro esta divididos en dos
ramas: la rama P (izquierda) y la rama R (derecha).

El espectro vibracional-rotacional se ilustra en la figura 25.4, y contiene dos grupos de lneas equidistantes,
simetricas con respecto a la frecuencia vibracional /2. Todas las lneas juntas constituyen una banda. Las
584 CAPITULO 25. MOLECULAS DIATOMICAS

lneas constitudas por las frecuencias (25.32) se denominan la rama R, en tanto que las lneas asociadas a
las frecuencias (25.33) se denominan rama P. En cada rama, la distancia entre dos lneas adyacentes es 2B.
El intervalo central que separa a las dos ramas esta a una distancia 4B, ya que NO hay una lnea asociada a
la frecuencia puramente vibracional /2. Por esta razon es frecuente decir que hay una lnea faltante en el
espectro. Como consecuencia, no hay un espectro puramente vibracional. Sin embargo, puesto que /2 2B,
un espectrometro de baja resolucion podra ignorar la estructura rotacional y observar el espectro de la figura
25.4, como si hubiera una sola lnea centrada en /2.
La ausencia de un espectro puramente vibracional tambien se puede ver de las reglas de seleccion (25.29,
25.30) que nos muestran que las transiciones con l = 0 y v 6= 0 estan prohibidas. En contraste, tales reglas
de seleccion muestran que transiciones con l 6= 0 y v = 0 s estan permitidas, y por tanto hay un espectro
puramente rotacional.

25.4. Correcciones a la estructura espectral (opcional)


La estructura espectral de la molecula diatomica se ha calculado basados en la suposicion de que la variacion del
potencial centrfugo es despreciable. En tal caso se reemplaza la funcion Vcent (r) por su valor en r = re . Esto implica
que en esta aproximacion, el potencial efectivo se obtiene a partir del potencial real mas una traslacion rgida
vertical de este. Estudiaremos a continuacion las correcciones que resultan de calcular las pequenas variaciones de
Vcent alrededor de re . Para ello, hacemos la expansion del potencial centrfugo en potencias de r re

l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
Vcent (r) = = (r re ) + (r re )2 + . . . (25.34)
2r 2 2re2 re3 2re4

De modo que combinamos las expansiones (25.5, 25.34) para formar la expansion del potencial efectivo

Vef (r) = V0 + f (r re )2 g (r re )3 + . . .
l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
+ (r re ) + (r re )2 + . . . (25.35)
2re2 re3 2re4

veremos que la variacion del potencial centrfugo alrededor de r = re (para l 6= 0) genera los siguientes efectos

1. La posicion ree del mnimo de Vef es ligeramente mayor que la posicion re del mnimo del potencial real.

re ) es ligeramente distinto de V0 + Bhl (l + 1).


2. El valor de este mnimo Vef (e

3. La curvatura de Vef (r) en r = ree no esta dada unicamente por el coeficiente f . Notese que esta curvatura
es la que nos determinaba la frecuencia del oscilador armonico equivalente como se aprecia en la Ec. (25.6).

Tomando la expansion (25.35) hasta orden cuadratico en (r re ), el valor del mnimo local evaluado hasta
este orden nos da

dVef (e
re ) l (l + 1) ~2 3l (l + 1) ~2
re re )
= 0 = 2f (e + re re )
(e (25.36)
dr re3 re4

para valores tpicos de f y para l 1, se puede tomar f l (l + 1) ~2 / re4 . En cuyo caso la relacion (25.36) se
puede aproximar en la forma
l (l + 1) ~2
re re )
2f (e (25.37)
re3
de esta forma se obtiene
l (l + 1) ~2 Bhl (l + 1)
ree re 3
= (25.38)
2f re f re
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL) 585

con lo cual ree > re como se predijo. Utilizando (25.6) y (25.10) en (25.38) resulta

ree re Bhl (l + 1) (r)0 Bhl (l + 1) (r)0 4Bhl (l + 1) (r)0


2 = 2 =
(r)0 f re [(r)0 ] ( /2) re [~/ (2)] ~ re
ree re 2Bh (r)0
2l (l + 1) 1 (25.39)
(r)0 ~ re

donde hemos usado ademas las aproximaciones (25.12, 25.14). Podemos decir que la desviacion de ree con respecto
a re es pequena, ya que es mucho menor que el ancho del paquete en el estado base. Combinando las Ecs. (25.11,
25.12) con la condicion (25.39) queda
re re ) g (r)0 f
g (e
 
re re )
3 (e re re )
3 (e re re ) l (l + 1) ~2
3 (e l (l + 1) ~2
1
2 re 2 (r)0 2 re re3 re3
obtenemos entonces las desigualdades

3l (l + 1) ~2 l (l + 1) ~2
re re ) f
g (e ; (e
re re ) (25.40)
2re4 re3

evaluando Vef (r) en el mnimo local ree , la expansion (25.35) queda

re re )2 g (e
re ) = V0 + f (e
Vef (e re re )3 + . . .
l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
+ (e
re re ) + re re )2 + . . .
(e
2re2 re3 2re4
re ) = V0 + [f g (e
Vef (e re re )2 + . . .
re re )] (e
 
l (l + 1) ~2 3l (l + 1) ~2 l (l + 1) ~2
+ + re re )
(e re re ) + . . .
(e (25.41)
2re2 2re4 re3

sustituyendo las aproximaciones (25.40, 25.37, 25.38) en la expansion (25.41) tenemos que

l (l + 1) ~2 l (l + 1) ~2
Vef (e re re )2 +
re ) V0 + f (e re re )
(e
2re2 re3
l (l + 1) ~2 l (l + 1) ~2
= V0 + [f (ere re )] (e
re re ) (ere r e ) +
re3 2re2
 
l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2
V0 + (e
r e re ) (e
re r e ) +
2re3 re3 2re2
2
 
l (l + 1) ~ ~
= V0 3
(ere re ) + hl (l + 1)
2re 4re2
   
l (l + 1) ~2 Bhl (l + 1) ~
V0 + hl (l + 1)
2re3 f re 4re2
quedando finalmente

B~2
re ) V0
Vef (e h [l (l + 1)]2 + Bhl (l + 1)
2f re4
B~2 ~3
re ) V0 + Bhl (l + 1) Gh [l (l + 1)]2
Vef (e ; G = (25.42)
2f re4 82 re6 f

por tanto, para un momento angular no nulo la energa de disociacion |Vef (e


re )| difiere de la energa de disociacion
V0 para el estado base. Ademas el termino proporcional a G proviene de tener en cuenta la variacion del potencial
586 CAPITULO 25. MOLECULAS DIATOMICAS

centrfugo como se puede ver al comparar las ecuaciones (25.19, 25.42), donde la variacion del potencial centrfugo
se desprecio en (25.19). En la vecindad de r = ree , el potencial efectivo se puede escribir en la forma
re ) + f (r ree )2 g (r ree )3 + . . .
Vef (r) = Vef (e (25.43)
a partir de la expansion (25.43), es claro que el coeficiente f viene dado por
 
1 d2
f= Vef (r) (25.44)
2 dr 2 r=e
re
con lo cual dicho coeficiente esta relacionado con la curvatura de Vef (r) en r = ree . Para evaluar la diferencia
entre f y f , tendremos en cuenta el termino en (r re )3 de V (r) en la expansion (25.35) y consecuentemente, el
termino en (r re )2 del potencial centrfugo
  
1 d2 1 d2 h
f = Vef (r) V0 + f (r re )2 g (r re )3 +
2 dr 2 r=e
re 2 dr 2

l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2 2
+ (r re ) + (r re )
2re2 re3 2re4 r=ere
   
1 3l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
= 2f 6g (ere re ) + f 3g +
2 re4 2f re3 2re4
donde hemos usado la aproximacion (25.38) en el ultimo paso. Tenemos entonces que
3l (l + 1) ~2 3gl (l + 1) ~2
2f 2f + (25.45)
re4 f re3
la frecuencia angular definida en (25.6) debe entonces reemplazarse por
s s s s  
2f 2f 3l (l + 1) ~2 3gl (l + 1) ~2 2f 3l (l + 1) ~2 3gl (l + 1) ~2
= + = 1 +
2 re4 2 f re3 2f re4 2f 2 re3
      
1 3l (l + 1) ~2 3gl (l + 1) ~2 3~2 1 g
1+ 4
2 3
= + 3
l (l + 1)
2 2f re 2f re 4f re re f
 
3~2 g 1
2e l (l + 1) ; e (25.46)
8f re3 f re
estas ecuaciones muestran que la curvatura evaluada en el mnimo del potencial efectivo cambia cuando se considera
la variacion del potencial centrfugo, traduciendose en un cambio en la frecuencia natural de vibracion.
De una forma similar se puede determinar g. A partir de la expansion (25.43) es claro que este termino viene
dado por  
1 d3
g= Vef (r) (25.47)
6 dr 3 r=e
re
sin embargo el termino cubico en (25.43) solo agrega una pequena correccion a los resultados que se obtienen con
los dos primeros terminos, por lo cual despreciaremos la variacion de d3 Vef f /dr 3 cuando vamos desde re hasta ree .
Tomaremos entonces g g.
En resumen, una expansion del potencial efectivo alrededor del mnimo corregido queda en la forma
1
Vef (r) Vef (e re ) + 2 (r ree )2 g (r ree )3 (25.48)
2
l (l + 1) ~2 Bhl (l + 1)
ree re = (25.49)
2f re3 f re
B~2 ~3
Vef (ere ) V0 + Bhl (l + 1) Gh [l (l + 1)]2 ; G = (25.50)
2f re4 82 re6 f
 
3~2 g 1
2e l (l + 1) ; e (25.51)
8f re3 f re
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL) 587

donde hemos usado las ecuaciones (25.38, 25.42, 25.46).

25.4.1. Correccion a las funciones de onda y los niveles de energa


De la expresion (25.48), podemos generar la correspondiente correccion a la ecuacion radial (25.3)
 2 2 
~ d 1 2 2 3
+ (r ree ) g (r ree ) uv,l (r) = [Ev,l Vef f (e
re )] uv,l (r) (25.52)
2 dr 2 2
si despreciamos el termino proporcional a g, reconocemos de nuevo la ecuacion de valores propios de un oscilador
armonico unidimensional de frecuencia angular , cuya posicion de equilibrio es r = ree . Tenemos entonces que el
termino entre parentesis cuadrados a la derecha de (25.52) debe ser igual a (v + 1/2) ~
   
1 1
0
Ev,l = v + ~ + Vef f (e
re ) = V0 + v + ~ + Bhl (l + 1) Gh [l (l + 1)]2 (25.53)
2 2
donde hemos usado (25.50). Las funciones propias asociadas a estados estacionarios poseen la forma (25.2), con
la funcion radial uv (r) dada por la solucion armonica (25.7), pero reemplazando , re por , ree
!
2 1/4 r
1 2
re )2 /2
(re
 
uv (r) = e Hv (r ree ) ;
2v v! ~

dado que hemos tenido en cuenta el termino g (r re )3 para calcular la nueva frecuencia angular , la consistencia
del calculo nos exige estimar la correccion de este termino a los autovalores y autovectores de la ecuacion radial
(25.52). Esto implica evaluar la primer correccion anarmonica tal como se hizo en la seccion 20.6.4, Pag. 511
utilizando teora de perturbaciones. Aplicando los resultados de la seccion 20.6.4 ????, los niveles perturbados
vendran dados por
 
0 1 2 7 15 g2 ~
Ev,l = Ev,l + ~ v + + ~ ; (25.54)
2 60 4 3 5
puesto que 1, puede reeemplazarse por en la correccion perturbativa.

25.4.2. Distorsion centrfuga de la molecula


La Ec. (25.49) muestra que ree > re , y que la distancia entre ambas se incrementa con l. En otras palabras, la
distancia entre los nucleos se incrementa cuando la molecula aumenta su rotacion. En un sentido clasico podemos
decir que el termino centrfugo tiende a separar los nucleos hasta que es balanceado por la fuerza restauradora
re re ) debida al potencial V (r).
2f (e
La molecula no puede entonces considerarse como un rotador rgido. El incremento en la distancia entre
nucleos produce a su vez un incremento en el momento de inercia de la molecula, que a su vez genera un decre-
mento en la energa cinetica rotacional (si el momento angular es constante). Este decremento solo se compensa
parcialmente con el incremento V (e re ) V (re ), en la energa potencial. Este es el origen Fsico de la correccion
proporcional a G en el espectro descrito en (25.53). Esta correccion (que es de signo negativo) se incrementa mucho
mas rapido con l que la energa rotacional proporcional a B en el espectro (25.53). Experimentalmente, esto se
traduce en que las frecuencias de Bohr del espectro puramente rotacional ya no seran estrictamente equidistantes,
sino que su separacion disminuye con el incremento de l.

25.4.3. Acople vibracional-rotacional


Si agrupamos los terminos segundo y tercero en (25.53) y reemplazamos por su expresion (25.51), se obtiene
     
1 1 1
v+ ~ + Bhl (l + 1) = v + ~ + Bhl (l + 1) e hl (l + 1) v + (25.55)
2 2 2
588 CAPITULO 25. MOLECULAS DIATOMICAS

los dos primeros terminos a la derecha de la expresion (25.55) son claramente energas vibracionales y rotacionales
respectivamente. El tercer termino depende de los numeros cuanticos v y l, y representa el acople entre los grados
de libertad vibracionales y rotacionales.
La Ec. (25.55) se puede reescribir en la forma
     
1 1 1
v+ ~ + Bhl (l + 1) = v + ~ + Bv hl (l + 1) ; Bv B e v + (25.56)
2 2 2
es como si cada nivel vibracional tuviera una constante rotacional efectiva Bv que depende del numero cuantico
vibracional v.
De nuevo podemos hacer un analogo clasico. La Ec. (25.13) nos dice que B es proporcional a 1/r 2 . Cuando la
molecula vibra, r vara y por tanto tambien B. Puesto que las frecuencias vibracionales son mucho mayores que
las rotacionales, podemos definir una constante efectiva rotacional de la molecula en un estado vibracional dado:
para ello podemos usar el promedio de B sobre un intervalo de tiempo mucho mayor a un periodo vibracional
(y mucho menor que un periodo rotacional para que B pueda considerarse constante en el proceso de rotacion).
Debemos tomar entonces el promedio temporal de 1/r 2 en el estado vibracional bajo consideracion.
Ahora bien, los dos terminos de signos opuestos en la expresion (25.51) para e pueden interpretarse de
la siguiente forma. El termino proporcional a g obviamente surge del termino anarmonico de V (r), el cual se
incrementa con la amplitud de las oscilaciones puesto que nos alejamos del regimen de pequenas oscilaciones (por
tanto se incrementa con v). El termino cubico (primer termino anarmonico), introduce una asimetra en la forma
de V (r) de manera que la molecula pasa mas tiempo en la region r > re que en la region r < re . De aqu se
sigue que el valor promedio de 1/r 2 es menor que 1/re2 , de modo que la anarmonicidad disminuye la constante
efectiva rotacional Bv . Esto se puede ver al combinar las Ecs. (25.56, 25.51). Por otro lado, incluso si el movimiento
vibracional es simetrico con respecto a re (es decir si g = 0) el valor promedio de 1/r 2 no es igual a 1/re2 puesto
que  
1 1 1
2
6= 2 = 2
r hri re
y este es el origen del segundo termino en e de la Ec. (25.51). Cuando se toma el promedio de 1/r 2 , se favorecen
los valores pequenos de r de modo que  
1 1 1
2
> 2 = 2
r hri re
lo cual explica el signo del segundo termino en e de la Ec. (25.51). El signo de e depende por supuesto de la
competencia entre estos dos efectos opuestos en signo. En general, el termino anarmonico es el que domina de
modo que e es positivo y Bv < B.
Notese que el acople vibracional-rotacional existe incluso cuando v = 0, en este caso
1
B0 = B e
2
lo cual constituye otra manifestacion de la extension de la funcion de onda (r)0 asociada al estado v = 0.
Si e es positivo, la estructura rotacional es ligeramente mas compacta en el estado vibracional mas alto v que
en el estado vibracional v = v 1. Puede verse que las ramas R y P ilustradas en la Figura 25.4, se afectan de
modo diferente. Las lneas adyacentes ya no seran equidistantes y en promedio estaran mas cercanas en la rama
R que en la rama P .
Reuniendo las ecuaciones (25.53, 25.54, 25.55) podemos escribir el espectro completo vibracional-rotacional
rotulado con los numeros cuanticos v, l
      
1 1 2 2 1 2 7
Ev,l = V0 + v + ~ + B e v + hl (l + 1) Ghl (l + 1) + v + ~ + ~ (25.57)
2 2 2 60
recordemos que V0 es la energa de disociacion de la molecula (para momento angular nulo), /2 es la frecuencia
vibracional, B la constante rotacional [Ec. (25.13)], y las cantidades G,e , son constantes adimensionales dadas
por las ecuaciones (25.50, 25.51, 25.54).
25.5. ESPECTRO DE MOLECULAS DIATOMICAS HOMOPOLARES: EFECTO RAMAN 589

25.5. Espectro de moleculas diatomicas homopolares: efecto Raman


Cuando las moleculas son homopolares (atomos identicos), la simetra que emerge hace que el momento dipolar
electrico permanente se anule, volviendo a la molecula inactiva en el infrarojo. En tal caso, cuando una onda optica
(en el rango del visible) golpea la molecula, ????
Captulo 26

Sistemas cuanticos de partculas identicas

Veremos que bajo los postulados de la mecanica cuantica que ya hemos establecido, se presentan ambiguedades
cuando tratamos sistemas de partculas identicas, razon por la cual debemos introducir un nuevo postulado que
permita una descripcion adecuada de un conjunto de partculas identicas.
Diremos que dos partculas son identicas si poseen las mismas propiedades intrnsecas tales como masa en
reposo, espn, carga etc. Es decir, tales propiedades intrnsecas no se pueden distinguir en un experimento1 . Por
ejemplo, todos los electrones en el universo son identicos, todos los protones en el universo son identicos, as como
todos los atomos de hidrogeno (protios). Por otra parte el electron y el positron (su antipartcula) no son identicos
ya que aunque tienen la misma masa y espn, difieren en el signo de su carga electrica.
Es claro que tanto en un contexto clasico como cuantico, un sistema fsico que contiene dos partculas identicas
no cambia sus propiedades de evolucion cuando se intercambian los roles de las dos partculas.
Es importante notar que la definicion de partculas identicas y todas las simetras a las que conlleva son
independientes de las condiciones experimentales. A manera de ejemplo, incluso si no se miden las cargas en un
experimento dado, un electron y un positron no se pueden tratar como partculas identicas.

26.1. Partculas identicas en mecanica clasica


Dado que las partculas clasicas poseen trayectorias bien definidas, un sistema de partculas identicas se puede
tratar practicamente igual que un sistema general de partculas. Podemos distinguir cada partcula una vez que
determinamos su posicion y velocidad iniciales, rastreando la curva que describe.
Por simplicidad estudiaremos un sistema de dos partculas identicas y veremos que incluso en mecanica clasica
aparecen algunas simetras asociadas al caracter identico de las partculas. En el tiempo inicial t0 , el estado del
sistema se especifica con los valores iniciales de posicion y velocidad de cada partcula. Denotaremos estos datos
iniciales en la forma {r0 , v0 } y {r0 , v0 }. Para describir la evolucion del estado del sistema rotulamos las dos
partculas: para la partcula (1) tendremos una posicion r1 (t) y una velocidad v1 (t), y los valores asociados a la
partcula (2) seran r2 (t) , v2 (t). Esta numeracion es arbitraria, a diferencia de lo que ocurrira si las partculas
fueran no identicas. El estado fsico inicial puede en teora ser descrito por dos estados matematicos diferentes
puesto que cualquiera de estas dos asignaciones es totalmente equivalente

r1 (t0 ) = r0 , v1 (t0 ) = v0 ; r2 (t0 ) = r0 , v2 (t0 ) = v0 (26.1)

o
r1 (t0 ) = r0 , v1 (t0 ) = v0 ; r2 (t0 ) = r0 , v2 (t0 ) = v0 (26.2)
1
Propiedades como posicion, momento, velocidad etc, son propiedades cinematicas y dinamicas y no son intrnsecas, ya que dependen
de las condiciones iniciales.

590
26.2. PARTICULAS IDENTICAS EN MECANICA CUANTICA 591

ahora, si solucionamos la evolucion del sistema usando las condiciones iniciales (26.1), tales soluciones tendran la
forma
r1 (t) = r (t) , r2 (t) = r (t)
donde r (t) y r (t) son dos funciones vectoriales del tiempo. El hecho de que las partculas sean identicas implica
que el sistema no cambia si intercambiamos los roles de las partculas. Por tanto, el Lagrangiano o Hamiltoniano
clasicos
L (r1 , v1 ; r2 , v2 ) ; H (r1 , v1 ; r2 , v2 )
son invariantes bajo el intercambio de ndices 1 2. De esto se sigue que la solucion para la evolucion del sistema
partiendo de las condiciones iniciales (26.2) estara dada por

r1 (t) = r (t) , r2 (t) = r (t)

las dos descripciones matematicas del estado fsico bajo estudio son totalmente equivalentes ya que conducen a las
mismas predicciones fsicas. Lo intrnseco o esencial en esta descripcion es: la partcula con posicion y velocidad
{r0 , v0 } en t0 , evolucionara de acuerdo con la funcion vectorial r (t) y la partcula con posicion y velocidad {r0 , v0 }
en t0 , evolucionara de acuerdo con la funcion vectorial r (t). Lo unico que tenemos que hacer es escoger en el
tiempo inicial uno de los estados matematicos e ignorar la existencia del otro. En tal sentido tratamos a las
partculas como si fueran de diferente naturaleza. Una vez hecha una escogencia, los rotulos (1) y (2) con los
que marcamos cada partcula en t0 , actuan como propiedades intrnsecas para distinguir a las dos partculas.
Puesto que podemos rastrear la trayectoria de cada partcula, podemos determinar las posiciones y velocidades de
la partcula rotulada como (1) en cualquier tiempo. Por supuesto lo mismo vale para la partcula con rotulo (2).

26.2. Partculas identicas en mecanica cuantica


En mecanica cuantica la situacion es totalmente distinta. Incluso si en t0 los paquetes de onda asociados a
dos partculas identicas no se traslapan (estan separados espacialmente) la evolucion temporal puede mezclarlos.
En tal sentido, cuanticamente se pierde el rastro de las partculas. Cuando una partcula es detectada en una
region del espacio, no hay manera de saber si la partcula detectada es la que originalmente se rotulo (1) o la que
originalmente se rotulo (2). La razon es que ambas partculas tienen en general una probabilidad diferente de cero
de ser detectadas en tal region del espacio. La numeracion asignada en el tiempo inicial sera entonces ambigua
cuando se mide su posicion, ya que como veremos a continuacion, existen varios caminos que el sistema puede
seguir desde su estado inicial hasta el estado que se encuentra en la medida2 .
Tomemos como ejemplo la colision de dos partculas identicas en su sistema de referencia centro de masa.
Asumamos que en t0 sus paquetes estan separados para facilitar la rotulacion (ver Fig. 26.1a). Denotaremos por
(1) la partcula de la izquierda y por (2) la de la derecha. Los dos paquetes de onda se dirigen el uno al otro
y al aproximarse, comienzan a traslaparse las funciones de onda (Fig 26.1b). Despues de la colision, la region
del espacio en la cual la densidad de probabilidad de las dos partculas es significativa, tiene la forma de una
capa esferica cuyo radio se incrementa con el tiempo (Fig. 26.1c). Supongamos ahora que ubicamos un detector
D en la direccion que hace un angulo con la velocidad inicial del paquete de onda (1). Si este detector detecta
una partcula, es claro que la otra partcula debe moverse en direccion opuesta por conservacion del momento.
Sin embargo, no es posible determinar si la partcula detectada en D, es la inicialmente rotulada como (1) o la
inicialmente rotulada como (2). Para verlo, observamos que hay dos caminos diferentes que el sistema pudo
haber seguido desde la condicion inicial establecida en la Fig. 26.1a, para llegar al estado final que se encuentra en
la medida. Estos dos caminos se presentan esquematicamente en la Fig. 26.2. No podemos determinar cual camino
siguio el sistema.
2
La ambiguedad se puede remover solo si los paquetes de onda no se traslapan para ningun tiempo. En este caso las probabilidades
seran excluyentes. Sin embargo, esta situacion nunca es exacta, y en pocos casos se puede despreciar el traslapamiento de las funciones
de onda para todo tiempo.
592 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

Figura 26.1: Colision de dos partculas identicas en su sistema de referencia del centro de masa. (a) En t0 los
paquetes de onda esta bien separados. (b) A medida que se aproximan las dos partculas, sus paquetes de onda
comienzan a traslaparse. (c) Despues de la colision, la region de alta probabilidad de deteccion tiene la forma de
una capa esferica que se expande con el tiempo.

Figura 26.2: Representacion de los dos caminos que un sistema de dos partculas identicas puede seguir desde el
estado inicial hasta la medida (en el sistema de referencia del centro de masa). La indistinguibilidad no permite
determinar cual de los dos caminos tomaron las partculas.

Se presenta entonces una dificultad fundamental para usar los postulados de la mecanica cuantica, ya que para
calcular una probabilidad asociada a alguna medida es necesario conocer perfectamente el estado final asociado a
dicha medicion. En este caso hay dos estados diferentes (de hecho ortogonales) asociados a las figuras 26.2. Sin
embargo, ambos estados estan asociados a un solo estado fsico ya que no podemos distinguir entre ellos a traves
de alguna medida experimental. La pregunta natural es: bajo estas condiciones el calculo de probabilidad debe
emplear el camino de la Fig. 26.2a, el camino de la Fig. 26.2b, o los dos?. Si se deben tomar los dos, debemos
sumar las probabilidades asociadas con cada camino, o debemos sumar sus amplitudes de probabilidad? (en el
ultimo caso, que signo debemos usar?). Cada una de estas alternativas nos llevara a diferentes predicciones. Antes
de responder a estas preguntas tomaremos otro ejemplo que nos ilustra el problema de la indistinguibilidad en
cuantica.

26.3. Degeneracion de intercambio


En el anterior ejemplo, consideramos dos paquetes de onda que inicialmente no se traslapan, lo cual nos
permite rotular cada paquete sin ambiguedad al menos en t = t0 . Las ambiguedades aparecen cuando tratamos de
determinar el ket o estado matematico asociado con un resultado dado de una medida de posicion. En esta seccion
veremos que en ciertas circunstancias, surge la misma dificultad en la escogencia del ket matematico usado para
26.3. DEGENERACION DE INTERCAMBIO 593

describir el estado fsico inicial. Esta dificultad asociada al estado inicial involucrara al concepto de degeneracion
de intercambio.

26.3.1. Degeneracion de intercambio para un sistema de dos partculas de espn 1/2


Como primer paso consideremos un sistema de dos partculas identicas de espn 1/2, en el cual nos limitaremos
a mediciones de grados de libertad de espn. Al igual que en las secciones precedentes, distinguiremos entre el
estado fsico del sistema y su descripcion matematica (un ket del espacio de estados).
Parece natural que si hacemos un conjunto completo de medidas de cada espn, conoceremos el estado fsico
completo de manera perfecta. Asumiremos que la tercera componente de espn de una de las partculas es +~/2
y la de la otra es ~/2. Esto es equivalente a la especificacion de {r0 , v0 } y de {r0 , v0 } en el sistema clasico.
Para describir el sistema matematicamente numeramos las partculas: S1 y S2 denota a los dos observables de
(1)
espn, y {|1 , 2 i} es la base ortonormal del espacio de estados formado por vectores propios comunes a S3 (valor
(2)
propio 1 ~/2) y S3 (valor propio 2 ~/2).
Al igual que en el ejemplo clasico, hay dos estados matematicos diferentes que se pueden asociar con el
mismo sistema fsico. En este caso uno de los estados definidos por

|1 = +, 2 = i (26.3)
|1 = , 2 = +i (26.4)

cualquiera de estos dos estados ortogonales puede en principio describir el estado fsico del sistema. Ahora bien,
estos dos kets expanden un subespacio bidimensional de vectores normalizados de la forma

|i |+ , i + | , +i ; ||2 + ||2 = 1 (26.5)

en virtud del principio de superposicion, todos los kets matematicos (26.5) pueden representar al estado fsico
asociado a (26.3) o a (26.4). En otras palabras, una superposicion de la forma (26.5) representa un estado fsico
con una partcula con espn arriba y otra con espn abajo. Lo intrnseco es tener una partcula con espn arriba y
otra con espn abajo. Esto se denomina degeneracion de intercambio.
La degeneracion de intercambio crea dificultades fundamentales, puesto que la aplicacion de los postulados a
los kets del tipo (26.5) pueden conducir a predicciones diferentes de acuerdo con el ket escogido. Determinemos
por ejemplo, la probabilidad de encontrar las primeras componentes de los dos espines iguales a +~/2. Con esta
medida, el resultado esta asociado a un solo ket del espacio de estados (ya que el intercambio me deja el ket
intacto). Recordemos que los autoestados de S1 con respecto a los autoestados de S3 se escriben en la forma
1
|i1 = [|+i |i] (26.6)
2
el estado (unico) que describe a dos partculas con primera componente de espn arriba, se construye como el
producto tensorial de dos estados del tipo |+i1
E E 1 1

|+, +i1 = (+)(1) (+)(2) = [|1 = +i + |1 = i] [|2 = +i + |2 = i]
1 1 2 2
1
|+, +i1 = [|+, +i + |, +i + |+, i + |, i]
2
de modo que la probabilidad que queremos calcular para el vector (26.5) esta dada por
  2
1
2
P = |h |+, +i1 | = { h+ , | + h , +|} [|+, +i + |, +i + |+, i + |, i]
2
2
1
P = ( + )
2
594 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS


a manera de ejemplo, utilizando (, ) = (1, 0) se obtiene P = 1/4, y usando = = 1/ 2 se obtiene P = 1/2.
Es claro entonces que esta probabilidad depende de los coeficientes y . Por tanto, no es consistente describir
el estado fsico bajo estudio por el conjunto de kets (26.5) o por alguno de ellos escogido en forma arbitraria. La
degeneracion de intercambio debe removerse, y determinar cual ket del tipo (26.5) debe emplearse en el calculo.
En este ejemplo aparece degeneracion de intercambio solo en el estado inicial, debido a que hemos escogido
el mismo valor para las componentes de los dos espines en el estado final. En el caso general puede aparecer
degeneracion de intercambio tanto en el estado inicial como en el final. Esto ocurre por ejemplo, si el resultado de
la medida corresponde a dos diferentes autovalores de S1 .

26.3.2. Degeneracion de intercambio para un sistema arbitrario


Las dificultades inherentes a la degeneracion de intercambio aparecen en cualquier sistema cuantico de N
partculas identicas. Tomaremos por ejemplo, un sistema de tres partculas identicas. Cada una de las tres partcu-
las tiene asociado un espacio de estados y observables que actuan en cada uno de estos espacios. Por ejemplo,
la partcula que rotulamos como (1) tiene asociado un espacio de estados E (1) y un observable que actua en tal
espacio lo denotaremos por B (1). El espacio de estados correspondiente al sistema de tres partculas es el producto
tensorial de los estados de cada una
E = E (1) E (2) E (3)
vamos a asumir que el observable B (1) que actua sobre E (1) constituye un C.S.C.O. en E (1), o que B (1) simboliza
varios observables que constituyen un C.S.C.O. El hecho de que las tres partculas sean identicas implica que existen
los observables B (2), B (3) y que constituyen un C.S.C.O. en E (2) y E (3) respectivamente. Naturalmente, los
tres B (p) poseen el mismo espectro {bk }. Vamos a distinguir el espectro de cada B (p) utilizando el rotulo de
la partcula asociada n o
(p) (p) (p) (p)
B (p) b1 , b2 , b3 , b4 , . . . ; p = 1, 2, 3
E
(p)
de modo que sus vectores propios asociados bk son una base para E (p) (por simplicidad asumiremos que no
hay degeneracion). Por tanto, el producto tensorial de estas bases es una base para el espacio de estados E del
sistema completo n Eo
(1) (2) (3)
bi , bj , bk

los cuales son vectores propios comunes de las extensiones de B (1), B (2) y B (3) en E, con autovalores bi , bj , bk
respectivamente.
Ahora bien, puesto que las tres partculas son identicas, no podemos medir B (1) , B (2) , B (3) puesto que la
numeracion no tiene significado fsico. Lo que s se puede, es medir el observable B para cada una de las tres
partculas. Supongamos que esta medida nos arrojo tres diferentes autovalores bn , bp , bq . En este caso aparece
degeneracion de intercambio, ya que el estado del sistema despues de esta medida puede apriori representarse por
cualquiera de los kets del subespacio de E expandido por los seis vectores base dados por
n E E E E E Eo
(1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3)
bn , bp , bq , b(1)
n , b(2) (3)
q , bp , bp , bn , bq , bq , bn , bp , bp , bq , bn , bq , bp , bn

es decir, por todas las permutaciones de los rotulos n, p, q. Por tanto, una medida completa sobre cada partcula
no permite determinar un unico ket del espacio de estados del sistema. En nuestro caso vemos que si obtenemos
tres medidas diferentes, tendremos tantos estados linealmente independientes asociados con esta medida como
permutaciones de las tres diferentes medidas es decir 3! = 6.
Si algunas de las medidas de autovalores coinciden, disminuye la degeneracion por intercambio. Por ejemplo,
la indeterminacion debida a la degeneracion de intercambio es menor si dos de los tres autovalores medidos en el
ejemplo anterior son iguales, en tal caso tenemos los siguientes kets asociados
n E E Eo
(1) (2) (3)
bn , bn , bq , b(1) (2) (3)
n , bq , bn , b(1) (2) (3)
q , bn , bn
26.4. OPERADORES DE PERMUTACION 595

y la indeterminacion desaparece por completo


si los tres Eautovalores medidos tienen el mismo valor. En tal caso
(1) (2) (3)
solo tendremos asociado un ket de la forma bn , bn , bn .

26.4. Operadores de permutacion


Para establecer adecuadamente el postulado adicional que se necesita para remover la degeneracion de inter-
cambio, sera necesario emplear operadores que permiten la permutacion de las partculas identicas involucradas
en un problema. Comenzaremos por simplicidad, con sistemas de dos partculas

26.4.1. Permutaciones en sistemas de dos partculas


Consideraremos un sistema compuesto por dos partculas del mismo espn s. En el presente tratamiento no
sera necesario que las partculas sean identicas. Solo pediremos que los espacios de estados asociados a cada
partcula sean isomorfos. De hecho, por el momento asumiremos que las partculas son no-identicas de manera
que la numeracion (1) y (2) indica su naturaleza. Por ejemplo, (1) puede denotar un proton y (2) puede denotar
un electron.
Escogeremos una base {|ui i} para el espacio de estados E (1) de la partcula (1). Puesto que ambas partculas
tienen el mismo espn, E (2) es isomorfo con E (1), y se puede expandir con la misma base3 . Podemos construir
una base para el espacio total E = E1 E2 utilizando el producto tensorial de dos bases identicas
n Eo
(1) (2)
E = E1 E2 u
i , uj (26.7)

y dado que el orden de los vectores es irrelevante en el producto tensorial, tenemos que
E E
(2) (1) (1) (2)
uj , ui = ui , uj

sin embargo, se tiene que E E


(1) (2) (1) (2)
uj , ui 6= ui , uj si i 6= j
definimos el operador permutacion P21 como el operador lineal cuya accion sobre los vectores base esta dada por
E E E
(1) (2) (2) (1) (1) (2)
P21 ui , uj = ui , uj = uj , ui

la accion de este operador sobre un ket arbitrario de E, se obtiene expandiendo este ket en la base (26.7). Puede
verse que el operador P21 as definido no depende de la base {|ui i} escogida. Pero s es muy importante que la
base de E se construya con el producto tensorial entre dos bases identicas.
Vamos a escoger en particular, la base |r, i, de vectores de posicion y de espn. Una base para el espacio
completo es E
(1) (1) (2) (2)
r , ; r , (26.8)
la accion del operador de permutacion sera
E E E

P21 r(1) , (1) ; r(2) , (2) = r(2) , (2) ; r(1) , (1) = r(1) , (1) ; r(2) , (2) (26.9)

cualquier ket |i E, es una combinacion lineal de la base contnua (26.8) y se puede representar con un conjunto
de (2s + 1)2 funciones de seis variables
XZ  E 
|i = d3 r d3 r , r, r r(1) , (1) ; r(2) , (2) ; , r, r = hr(1) , (1) ; r(2) , (2) |i (26.10)
,
3
El espacio orbital de estados de cualquier partcula elemental es simplemente el espacio L2 de las funciones cuadraticamente
integrables. Por tanto, la unica diferencia puede provenir del espacio espinorial, que solo es diferente si las dos partculas poseen
diferente espn.
596 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

la accion del operador permutacion P21 sobre |i se obtiene combinando las ecuaciones (26.9, 26.10)
XZ  E
= P21 |i = d3 r d3 r , r, r r(1) , (1) ; r(2) , (2) (26.11)
,

intercambiando los nombres de las variables mudas , r r , la Ec. (26.11) queda en la forma
XZ  (1) (1) (2) (2) E
= P21 |i = 3 3


d r d r , r , r r , ; r , (26.12)
,

comparando (26.10) con (26.12) vemos que las funciones o coeficientes


 D (1) (1) (2) (2) D (1) (1) (2) (2)
, r, r = r , ; r , = r , ; r , P21 |i (26.13)

que representan a | i = P21 |i se pueden obtener a partir de los coeficientes en (26.10) que representan al ket
|i, invirtiendo (r, ) y (r , )  

, r, r = , r , r (26.14)
A partir de la definicion es facil ver que
(P21 )2 = 1 (26.15)
n Eo
(1) (2)
de modo que P21 es su propia inversa. Los elementos matriciales de P21 en la base ui , uj estan dados por
D E D E D E
(1) (1) (2) (1) (2) (2) (1) (1) (2) (1) (2)
uk , u(2)
m P21 ui , uj = uk , um ui , uj = uk , um uj , ui = kj mi (26.16)


y los elementos matriciales de P21 son por definicion
D E D E D E
(1) (1) (2) (1) (2) (1) (2) (1) (2) (1) (2)
uk , u(2)
m P21 ui , uj = ui , uj P21 uk , um = ui , uj um , uk = im jk (26.17)

comparando las Ecs. (26.16, 26.17) resulta



P21 = P21 (26.18)
es decir P21 es hermtico. Combinando las Ecs. (26.15, 26.18) se obtiene

P21 P21 = P21 P21 =1 (26.19)

de modo que el operador P21 es unitario.

26.4.2. Simetrizadores y antisimetrizadores


Puesto que P21 es hermtico sus valores propios son reales, y puesto que (P21 )2 = 1, sus autovalores son 1.
Podemos verlo tambien diciendo que P21 es unitario y por tanto sus valores propios yacen en el crculo complejo
unitario, pero como tambien es hermtico los valores propios son reales de modo que solo pueden ser 1. Los
autovectores |S i de P21 con valor propio +1, se denominan simetricos, y los autovectores |A i asociados al valor
propio 1 se denominan antisimetricos.

P21 |S i = |S i ; P21 |A i = |A i
definimos ahora los operadores
1 1
S= (1 + P21 ) ; A= (1 P21 )
2 2
26.4. OPERADORES DE PERMUTACION 597

a partir de las Ecs. (26.15, 26.18, 26.19) es facil ver las siguientes propiedades

S = S ; A = A ; S 2 = S ; A2 = A (26.20)
SP21 = P21 S = S ; AP21 = P21 A = A (26.21)
S + A = 1 ; AS = SA = 0 (26.22)

de tal manera que S y A son proyectores hermticos. Las Ecs. (26.22) nos dicen ademas que estos proyectores son
suplementarios y ortogonales. Veamos algunas de estas propiedades por ejemplo
1 1
 1
A = (1 P21 ) = 1 P21 = (1 P21 ) = A
2 2 2
1 1  1 1
S2 = (1 + P21 )2 = 1 + 2P21 + P212
= (2 + 2P21 ) = (1 + P21 ) = S
4 4 4 2
1 1 2
 1
AP21 = (1 P21 ) P21 = P21 P21 = (P21 1) = A
2 2 2
Por otro lado, de las Ecs. (26.21) podemos ver que dado un ket arbitrario |i tenemos que

P21 S |i = S |i ; P21 A |i = A |i (26.23)

es decir que dado un ket arbitrario no nulo |i , tenemos que S |i es vector propio de P21 con valor propio +1, en
tanto que A |i es vector propio de P21 con valor propio 1. Por esta razon S y A se conocen como simetrizador
y antisimetrizador, puesto que mapean a un vector arbitrario no nulo en su componente simetrica y antisimetrica
respectivamente.

26.4.3. Transformacion de los observables por medio de las permutaciones


Consideremos un observable B (1) que actua sobre el subespacio E (1) y cuya extension se define sobre E.
Podemos construir una base de E (1) con los vectores propios {|ui i} de B (1), denotaremos los valores propios

correspondientes por bi . Calcularemos la accion del operador P21 B (1) P21 sobre un elemento arbitrario de la base
de E, construda con el producto tensorial de los {|ui i}
E E E
(1) (2) (1) (2) (1) (2)
P21 B (1) P21 u
i , uj = P 21 B (1) u
j , ui = b P u
j 21 j , ui
E E
(1) (2) (1) (2)
= bj ui , uj = B (2) ui , uj

como esto es valido para todos los elementos de la base, lo sera para cualquier combinacion lineal de esta, y por
tanto para un ket arbitrario de E

P21 B (1) P21 = B (2)
con un argumento similar podemos ver que

P21 B (2) P21 = B (1)

por supuesto, B (1) y B (2) se refiere realmente a sus extensiones sobre E. Hay otros operadores extendidos definidos
en E tales como B (1) + C (2) o B (1) C (2). Es facil ver la accion de la transformacion de similaridad hecha con
P21 sobre estos operadores

P21 [B (1) + C (2)] P21 = B (2) + C (1)

P21 B (1) C (2) P21 = P21 B (1) P21 P21 C (2) P21 = B (2) C (1)

podemos generalizar las anteriores expresiones para observables en E que se puedan escribir en terminos de
observables del tipo B (1) y C (2), que denotaremos genericamente por O (1, 2)

P21 [O (1, 2)] P21 = O (2, 1) (26.24)
598 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

donde O (2, 1) se obtiene del observable O (1, 2) intercambiando los ndices 1 y 2 en toda la expresion del observable.
Decimos que un observable OS (1, 2) es simetrico si se cumple

OS (1, 2) = OS (2, 1) (26.25)

al aplicar (26.25) y la condicion de unitariedad de P21 Ec. (26.19), vemos que para un observable simetrico se
cumple

P21 [OS (1, 2)] P21 = OS (1, 2) P21 [OS (1, 2)] = OS (1, 2) P21
[OS (1, 2) , P21 ] = 0

por tanto los observables simetricos conmutan con el operador permutacion P21 .

26.4.4. Permutacion de un conjunto arbitrario de partculas


Asumiremos un sistema de partculas del mismo espn, pero no necesariamente identicas. Por simplicidad
ilustraremos la mayor parte de las propiedades con el caso N = 3, veremos que algunas propiedades de las
permutaciones generales difieren de las presentadas para el caso N = 2.
Una base para el espacio de estados de tres partculas con el mismo espn se puede escribir en la forma
n Eo
(1) (2) (3)
u
i , uj , uk (26.26)

en este caso existen 6 permutaciones (N ! en el caso general), que denotaremos en la forma

P123 , P312 , P231 , P132 , P213 , P321 (26.27)

donde por definicion el operador Pnpq (siendo npq una permutacion de los numeros 1,2,3) es un operador lineal
cuya accion sobre los vectores bases esta dada por
E E
(1) (2) (3) (n) (p) (q)
Pnpq ui , uj , uk = ui , uj , uk

por ejemplo E E E
(1) (2) (3) (2) (3) (1) (1) (2) (3)
P231 ui , uj , uk = ui , uj , uk = uk , ui , uj
P123 es claramente el operador identidad. La accion de Pnpq sobre un ket arbitrario se puede obtener expandiendo
dicho ket en la base (26.26).
Es facil ver que el conjunto de todas las N ! permutaciones asociadas a N elementos constituyen un grupo. Es
decir, cumplen con los siguientes axiomas

1. P123 es el operador identidad.

2. El producto de dos operadores de permutacion es otro operador de permutacion. Por ejemplo, tomemos la
accion de las siguientes permutaciones
E E E
(1) (2) (3) (3) (2) (1) (1) (2) (3)
P321 ui , uj , uk = ui , uj , uk = uk , uj , ui (26.28)

E E E E
(1) (2) (3) (1) (3) (2) (1) (2) (3) (3) (1) (2)
P312 P132 ui , uj , uk = P312 ui , uj , uk = P312 ui , uk , uj = ui , uk , uj
E E
(1) (2) (3) (1) (2) (3)
P312 P132 ui , uj , uk = uk , uj , ui (26.29)

comparando (26.28) con (26.29) podemos ver que

P312 P132 = P321


26.4. OPERADORES DE PERMUTACION 599

3. Los operadores permutacion son asociativos. Por ejemplo, el lector puede verificar que
(P312 P132 ) P231 = P312 (P132 P231 )

4. Cada operador permutacion posee un operador inverso que tambien es de permutacion. Con razonamientos
similares al anterior se puede probar que
1 1 1
P123 = P123 ; P312 = P231 ; P231 = P312
1 1 1
P132 = P132 ; P213 = P213 ; P321 = P321 (26.30)
En general los operadores permutacion no conmutan. Por ejemplo
P312 P132 = P321 ; P132 P312 = P213 6= P321

Paridad de una permutacion


Una transposicion es una permutacion que intercambia dos ndices dejando los demas intactos. Los tres ultimos
operadores en (26.27) son transposiciones4 . Como las transposiciones son permutaciones que solo involucran a dos
elementos, poseen las mismas propiedades que las permutaciones P21 que estudiamos en la seccion 26.4.1. En
consecuencia, las transposiciones son hermticas, unitarias y coinciden con su inverso.
Un operador permutacion se puede escribir como el producto de transposiciones. Por ejemplo, es posible
verificar que
P312 = P132 P213 = P321 P132 = P213 P321 = P132 P213 (P132 )2 = . . . (26.31)
esta descomposicion NO es unica. Sin embargo, para una permutacion dada, la paridad del numero de transposi-
ciones es siempre la misma. Una permutacion par (impar) es una permutacion que se escribe como un numero par
(impar) de transposiciones. Las tres primeras permutaciones en (26.27) son pares y las tres ultimas son impares.
Para N 2, siempre hay N !/2 de permutaciones pares y N !/2 de permutaciones impares.
Puesto que las permutaciones son productos de operadores unitarios (transposiciones) entonces son unitarias.
Sin embargo, las permutaciones no son necesariamente hermticas ya que el producto de operadores hermticos
no-conmutantes, no es hermtico [ver teorema 1.34 Pag. 34].
No obstante, puede demostrarse que el inverso (i.e. el hermtico) de una permutacion Pnpq tiene la misma
1 se construye con las mismas
paridad que la permutacion original. Esto se puede ver teniendo en cuenta que Pnpq
transposiciones pero tomadas en orden inverso. A manera de ejemplo, tenemos que
P312 = P132 P213 1
P312 = (P132 P213 )1 = P213
1 1
P132
1
P312 = P213 P132

Kets completamente simetricos y antisimetricos


Puesto que los operadores de permutacion no conmutan para N > 2, no es posible construir una base de
autovectores comunes a estos operadores. Sin embargo, veremos que existen algunos kets que son simultaneamente
autovectores de todos los operadores permutacion. Denotaremos por P un operador de permutacion arbitrario
de los primeros N enteros. Un ket |S i tal que
P |S i = |S i
para toda permutacion P se dice que es un ket completamente simetrico. Similarmente un ket se denomina
completamente antisimetrico si se cumple la condicion

+1 si P es una permutacion par
P |A i = |A i ; =
1 si P es una permutacion impar
4
Es obvio que una transposicion aplicada dos veces es la identidad. Por tanto, una transposicion es su propio inverso. Por esta
razon, las tres ultimas permutaciones en (26.27) coinciden con su propia inversa como se puede ver en las Ecs. (26.30).
600 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

alternativamente, puesto que P se compone de un producto de transposiciones, se puede definir un ket totalmente
simetrico como aquel que queda invariante bajo cualquier transposicion, y un ket es completamente antisimetrico
si invierte su signo bajo cualquier transposicion. El conjunto de los kets completamente simetricos constituye un
subespacio vectorial ES E, y el de los kets completamente antisimetricos un subespacio EA E. Consideremos
los operadores
N! N!
1 X 1 X
S= P ; A = P (26.32)
N ! =1 N ! =1

Veremos que S y A son los proyectores sobre los espacios ES y EA respectivamente. Por esta razon se denominan
el simetrizador y el antisimetrizador. Tomando el adjunto a ambos lados de (26.32) obtenemos

N! N! N!
1 X 1 X 1 1 X
S = P = P = P = S
N! N! N!
=1 =1 =1
N!
X N!
X N!
1 1 1 X
A = P = P1 = P = A
N ! =1 N ! =1 N!
=1

donde hemos usado el hecho de que al recorrer todos los inversos se recorren todos los operadores aunque en un
orden diferente. Ademas, el inverso tiene la misma paridad que la permutacion directa.
Supongamos ahora que P0 es una permutacion arbitraria, calcularemos P0 S y P0 A

N! N!
1 X 1 X
P0 S = P P = P = S
N ! =1 0 N!
=1
N! N!
1 X 1 X
P0 A = P0 P = 0 P = 0 A
N! N!
=1 =1

donde hemos tenido en cuenta que al multiplicar la suma de todas las permutaciones por una permutacion fija,
se vuelven a obtener todas las permutaciones aunque en un orden diferente. Ademas si P0 es par (impar) la
paridad de cada producto P0 P queda intacta (se invierte de signo). Para los productos SP0 y AP0 se realiza
un procedimiento analogo y se obtiene

P0 S = SP0 = S ; P0 A = AP0 = 0 A (26.33)

aplicando las Ecs. (26.33) tambien se obtiene

N!
! N! N!
1 X 1 X 1 X 1
S2 = P S= P S = S= N !S = S
N! N! N! N!
=1 =1 =1

1 X!
N N
1 X 2
!
1 X!
N
A2 = P A = A = A=A
N! N! N!
=1 =1 =1
XN! N!
X N!
X
1 1 S
AS = P S = S = = 0
N! N! N!
=1 =1 =1

en la ultima ecuacion se tuvo en cuenta que para N 2, la mitad de las permutaciones es par y la otra mitad es
impar. Tenemos entonces que
S 2 = S ; A2 = A ; SA = AS = 0 (26.34)
26.5. POSTULADO DE SIMETRIZACION 601

S y A son entonces proyectores sobre los subespacios ES y EA respectivamente. La Ec. (26.33) nos dice que la
accion de estos operadores sobre un ket arbitrario |i nos da un ket completamente simetrico y completamente
antisimetrico respectivamente

P0 S |i = S |i P0 |S i = |S i ; |S i S |i
P0 A |i = 0 A |i P0 |A i = 0 |A i ; |A i A |i

para N 3, los subespacios ES y EA no son suplementarios (su suma directa no es E). Por ejemplo, para N = 3
tenemos
1
S + A = (P123 + P231 + P312 ) 6= 1
3
es decir, la union de todos los kets completamente simetricos con todos los completamente antisimetricos, no forman
una base. Hay kets mixtos que no tienen ninguna de las dos simetras y que son linealmente independientes de
los anteriores. Esto es consistente con el hecho de que para N > 2, los autoestados comunes a todos los operadores
permutacion no pueden formar una base, ya que tales operadores no conmutan entre s.
Para encontrar la transformacion de los observables por medio de una permutacion arbitraria, podemos escribir
la permutacion como producto de transposiciones ya que estas poseen las mismas propiedades que la permutacion
P21 que se estudio en la seccion 26.4.1. Con los argumentos de la seccion 26.4.1 se puede encontrar la forma en
que una permutacion arbitraria transforma a un observable. A manera de ejemplo, tomemos la permutacion P312
y la escribimos en terminos de transposiciones como en la Ec. (26.31)

P312 = P132 P213

la transformacion de un observable O (1, 2, 3) a traves de P312 se puede escribir como



P312 O (1, 2, 3) P312 = [P132 P213 ] O (1, 2, 3) [P132 P213 ] = [P132 P213 ] O (1, 2, 3) P213 P132
h i

= P132 P213 O (1, 2, 3) P213 P132 = P132 [O (2, 1, 3)] P132

P312 O (1, 2, 3) P312 = O (3, 1, 2) (26.35)

donde hemos usado la Ec. (26.24), teniendo en cuenta que P132 y P213 son transposiciones de los ndices 2, 3 y 1, 2
respectivamente. En particular, si un observable OS (1, 2, . . . , N ) es completamente simetrico bajo el intercambio
de los ndices 1, 2, . . . , N , conmutara con todas las transposiciones, y puesto que una permutacion arbitraria es un
producto de transposiciones, se concluye que el observable OS (1, 2, . . . , N ) conmutara con cualquier permutacion
P de los N ndices anteriores

[OS (1, 2, . . . , N ) , P ] = 0 si OS (1, 2, . . . , N ) es completamente simetrico (26.36)

26.5. Postulado de simetrizacion


El postulado de simetrizacion nace como una necesidad de describir sistemas de partculas identicas y remover
la degeneracion de intercambio, junto con las dificultades que esta conlleva. Cuando se discutio la degeneracion de
intercambio, se observo que esta desapareca cuando el ket era completamente simetrico bajo el intercambio de los
rotulos de partcula. Similarmente, es facil demostrar que tal degeneracion tambien desaparece cuando el ket es
completamente antisimetrico bajo dicho intercambio. Estos razonamientos junto con la experiencia fenomenologica,
condujeron al llamado postulado de simetrizacion, que se puede enunciar en la siguiente forma:
Cuando un sistema incluye varias partculas identicas, solo ciertos kets del espacio de estados pueden describir
a los estados fsicos. Los estados fsicos son o bien totalmente simetricos o totalmente antisimetricos con respecto
a la permutacion de estas partculas. La naturaleza simetrica o antisimetrica de los kets asociados con el estado
fsico, depende de la naturaleza de las partculas identicas en cuestion. Aquellas partculas cuyos estados asociados
602 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

son simetricos se denominan Bosones, en tanto que aquellas asociadas a estados antisimetricos se denominan
Fermiones.
El postulado de simetrizacion limita entonces el espacio de estados para un sistema de partculas identicas.
Para partculas de diferente naturaleza, el espacio de estados E, es el producto tensorial de los estados de cada
partcula del sistema. Cuando las partculas son identicas, el espacio de estados es solo un subespacio de E, que
sera ES si las partculas son bosones o EA si las partculas identicas son fermiones.
De acuerdo con este postulado, las partculas que existen en la naturaleza se dividen en dos categoras. Todas
las partculas que conocemos hasta ahora obedecen a la siguiente regla emprica: Las partculas de espn semi-
entero (electrones, positrones, protones, neutrones, muones, tauones, etc.) son fermiones, y las partculas de espn
entero (fotones, mesones, bosones vectoriales, etc.), son bosones.

26.5.1. Aplicacion del postulado a partculas compuestas


Una vez que la regla emprica antes mencionada se ha verificado para las partculas elementales, se verificara
para otras partculas tambien, ya que estas estan compuestas por partculas elementales. Consideremos un sistema
de partculas identicas compuestas. Permutar dos de estas partculas compuestas es equivalente a permutar todas
las partculas que componen a la primera con todas las partculas que componen a la segunda (las cuales son
identicas a las de la primera partcula, ya que las partculas compuestas son identicas)5 .
Ahora bien, el ket que describe al sistema debe permanecer inalterado bajo la permutacion de dos partculas
compuestas identicas, si las partculas compuestas estan formadas solo por bosones elementales (ya que toda
transposicion de bosones deja el signo inalterado), o si cada una de ellas esta compuesta por un numero par de
fermiones (ya que cada transposicion de fermiones cambia el signo, y habra un numero par de cambios de signo).
Esto indica que las partculas compuestas son bosones, lo cual es consistente con las reglas de adicion del momento
angular (si asumimos que la regla emprica es valida), ya que la suma de un numero par de espines semi-enteros
es entera, y la suma de cualquier numero de espines enteros es entera.
Por otro lado, si cada partcula compuesta contiene un numero impar de fermiones, el estado debe cambiar de
signo bajo la permutacion de dos partculas compuestas, ya que esto implica un numero impar de transposiciones
de las partculas elementales. Si asumimos la regla emprica como valida, esto es de nuevo consistente con las reglas
de adicion del momento angular, ya que la suma de un numero impar de espines semi-enteros es semi-entera, de
modo que cada partcula compuesta sera un fermion.
Por ejemplo, los nucleos atomicos estan compuestos por protones y neutrones, y ambos tipos de partculas son
fermiones de espn 1/2. En consecuencia, nucleos con masa atomica par (numero total de nucleones) son bosones,
y nucleos con masa atomica impar son fermiones. Por ejemplo, el isotopo 3 He del helio es un fermion, en tanto
que el isotopo del helio 4 He es un boson.

26.5.2. Solucion de la degeneracion de intercambio


Sea |ui un ket que describe matematicamente un estado fsico bien definido de N partculas identicas. Para
cualquier operador permutacion P , el ket matematico P |ui describe el mismo estado fsico que |ui. Lo mismo
ocurre con cualquier ket del subespacio Eu expandido por {P |ui}, donde P recorre todas las permutaciones
(incluyendo la identidad). Dependiendo del ket |ui escogido, este subespacio puede tener dimension 1 o dimension
N ! o una dimension intermedia. Por ejemplo, para dos partculas identicas de espn 1/2, el estado |++i genera
un solo ket linealmente independiente al barrer las permutaciones I, P21 . En tanto que el ket |+i genera dos
kets linealmente independientes con las mismas permutaciones. Si la dimension es mayor que uno, hay varios kets
matematicos linealmente independientes que corresponden al mismo estado fsico, generando la degeneracion de
intercambio.
5
No es necesario que las partculas elementales que componen a la partcula compuesta sean todas identicas. Por ejemplo, dos
protones son partculas compuestas identicas. Sin embargo, cada proton (en una vision simplificada) consiste de dos quarks tipo up
y un quark tipo down.
26.6. APLICACION DEL POSTULADO DE SIMETRIZACION PARA N = 2 603

El nuevo postulado de simetrizacion restringe al conjunto de estados matematicos que pueden describir un
estado fsico de partculas identicas, ya que estos kets deben pertenecer al subespacio ES para bosones y EA
para fermiones. Para encontrar los estados matematicos adecuados debemos entonces proyectar los estados del
subespacio Eu sobre los subespacios ES para bosones y EA para fermiones, para lo cual debemos usar los proyectores
S y A respectivamente, sobre los estados {P |ui}, con lo cual obtenemos

SP |ui = S |ui (26.37)


AP |ui = A |ui (26.38)

donde hemos usado la Ec. (26.33) Pag. 26.33. Estas ecuaciones nos muestran que todas las proyecciones de kets
de Eu sobre los subespacios ES para bosones y EA para fermiones, son colineales. Por tanto el postulado de
simetrizacion asigna un solo ket linealmente independiente de Eu , al estado fsico antes descrito. En consecuencia,
dicho postulado remueve la degeneracion de intercambio, asignando el estado (unico dentro de un factor constante)
S |ui a los bosones y el estado A |ui para los fermiones. De aqu en adelante estos se denominaran los kets fsicos.
En particular, es posible que todos los kets de Eu tengan proyeccion cero sobre ES o sobre EA , en cuyo caso
el postulado de simetrizacion esta excluyendo al correspondiente estado fsico. Veremos un ejemplo en la seccion
26.6.
Es claro ahora el algoritmo de construccion del unico ket fsico asociado a un estado fsico dado de un sistema
de N partculas identicas.

1. Comenzamos por numerar las partculas arbitrariamente, construyendo el ket |ui, que resulta de la nume-
racion particular elegida.

2. Se aplica el proyector S o el proyector A sobre |ui, dependiendo de si las partculas identicas son bosones o
fermiones.

3. Se normaliza el ket obtenido.

26.6. Aplicacion del postulado de simetrizacion para N = 2


Consideremos un sistema de dos partculas identicas. Supongamos que sabemos que una de ellas esta en el
estado individual caracterizado por el ket normalizado |i, y la otra partcula esta en el estado normalizado
descrito por |i.
Primero estudiaremos el caso en el cual los dos estados son diferentes. En tal caso, el ket fsico asociado al
sistema de dos partculas se construye con la prescripcion ya descrita

1. Numeremos con el (1) a la partcula asociada al estado |i y con el numero (2) a la partcula asociada al
estado |i, el estado |ui queda en la forma
E

|ui = (1) , (2)

2. Si las partculas son bosones (fermiones) simetrizamos (antisimetrizamos) al estado |ui

1 h (1) (2) E (2) (1) Ei 1 h (1) (2) E (1) (2) Ei


|bosonesi = S |ui = , + , = , + , (26.39)
2 2
h
1 (1) (2) E Ei h
1 (1) (2) E Ei

|f ermionesi = A |ui = , (2) , (1) = , (1) , (2) (26.40)
2 2
604 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

3. Los kets (26.39, 26.40) no estan en general normalizados. Si asumimos que los estados |i y |i son ortogonales
y estan normalizados, los estados fsicos normalizados seran
1 h (1) (2) E (2) (1) Ei 1 h (1) (2) E (1) (2) Ei
|bosonesi = , + , = , + ,
2 2
1 h E Ei 1 h E Ei

|f ermionesi = (1) , (2) (2) , (1) = (1) , (2) (1) , (2)
2 2

Asumamos ahora que los estados individuales son identicos, el estado |ui sera
E

|ui = (1) , (2) (26.41)

este estado ya es totalmente simetrico. Por tanto, si las dos partculas son bosones, el estado (26.41) es el ket fsico
asociado a un estado en el cual los dos bosones estan en el mismo estado individual |i. De hecho, el simetrizador
S deja intacto a este estado. Por otro lado, si las partculas son fermiones tenemos que
1 h (1) (2) E (2) (1) Ei
A |ui = , , =0
2
de modo que no existe un ket no-nulo en EA que pueda describir el estado fsico en el cual dos fermiones estan
en el mismo estado individual |i. El postulado de simetrizacion excluye este tipo de estados fsicos. Hemos
establecido para un caso particular el denominado principio de exclusion de Pauli que nos dice que dos
fermiones identicos no pueden estar en el mismo estado individual. Este principio establece una gran diferencia
en el comportamiento estadstico de un sistema de fermiones identicos con respecto al de un sistema de bosones
identicos.

26.7. Postulado de simetrizacion para N arbitrario


Ilustraremos el caso general para el escenario con N = 3. Consideremos el estado fsico que se define especifi-
cando los estados individuales normalizados |i , |i , |i. Escogeremos el estado |ui con la siguiente asignacion
numerica E

|ui = (1) , (2) , (3)
estudiaremos a los bosones y fermiones por aparte

26.7.1. Postulado de simetrizacion para bosones


Al aplicar el simetrizador asociado a tres bosones identicos tenemos

1 X
3! E 1 h E E E
(1) (2) (3) (1) (2) (3) (1) (3) (2)
S |ui = P , , = , , + , , + (2) , (1) , (3)
3! 6
=1 E E Ei

+ (3) , (1) , (2) + (2) , (3) , (1) + (3) , (2) , (1)
1 h (1) (2) (3) E (1) (2) (3) E (1) (2) (3) E
S |ui = , , + , , + , ,
6 E E Ei

+ (1) , (2) , (3) + (1) , (2) , (3) + (1) , (2) , (3) (26.42)

solo resta normalizar el vector (26.42). La constante de normalizacion depende de cuantos de estos estados son
distintos. Si todos los tres estados individuales son diferentes y ortogonales entre s, los seis kets que aparecen
en (26.42) tambien son ortogonales, y para normalizar el estado completo, basta reemplazar el factor 1/6 por el
26.7. POSTULADO DE SIMETRIZACION PARA N ARBITRARIO 605


factor 1/ 6. Si en cambio, tenemos dos estados identicos y uno diferente (ortogonal alos estados identicos), al
aplicar el simetrizador solo quedan tres kets diferentes y el factor normalizador sera 1/ 3
1 h E E Ei

|; ; i = (1) , (2) , (3) + (1) , (2) , (3) + (1) , (2) , (3)
3
finalmente si los tres estados son identicos, el estado |ui ya esta automaticamente simetrizado y normalizado.
E

|ui = (1) , (2) , (3)

la aplicacion del simetrizador dejara intacto al ket.

26.7.2. Postulado de simetrizacion para fermiones


-

La aplicacion del antisimetrizador al estado |ui de tres fermiones identicos nos da

1 X
3! E

A |ui = P (1) , (2) , (3)
3!
=1

El antisimetrizador se escribe explcitamente como


1
A= {P123 + P231 + P312 P213 P321 P132 }
3!
donde P123 es la identidad. Aplicando el antisimetrizador sobre el ket |ui y ajustando una constante de normali-
zacion, el ket fsico posee la forma
E
3! (1) (2) (3)
|; ; i 3!A |ui = {P123 + P231 + P312 P213 P321 P132 } , ,
3!
1 n E E E E E
(1) (2) (3)
= , , + (2) , (3) , (1) + (3) , (1) , (2) (2) , (1) , (3) (3) , (2) , (1) (1) ,
3!
1 n (1) (2) (3) E (1) (3) (2) E (2) (3) (1) E (2) (1) (3) E (3) (1) (2) E (3)
= , , , , + , , , , + , , ,
3!
1 n (1) E h (2) (3) E (3) (2) Ei (2) E h (3) (1) E (1) (3) Ei
= , , + , ,
3!
E h E Eio

+ (3) (1) , (2) (2) , (1)

de lo cual se obtiene el determinante 3 3 dado por


(1) (1) (1)

1 (2) (2) (2)
|; ; i 3!A |ui = (26.43)
3! (3) (3) (3)


conocido como determinante de Slater. El estado 3!A |ui es cero si dos (o tres) estados individuales coinciden,
ya que el determinante tendra dos (o tres) columnas identicas. Este hecho nos lleva al principio de exclusion
de Pauli, ya mencionado anteriormente. El mismo estado cuantico no puede ser ocupado simultaneamente por
varios fermiones identicos. Si los tres estados son ortogonales los seis kets asociados al determinante
(26.43) son
ortogonales. Por tanto, para normalizarlosbasta reemplazar el factor 1/3! por el factor 1/ 3!, lo cual se logra
multiplicando el estado A |ui por el factor 3! como ya se menciono.
606 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

Para N arbitrario, se pueden generalizar facilmente los resultados anteriores. Para N bosones identicos, siem-
pre se puede construir el estado totalmente simetrico S |ui a partir de los N estados de partcula individual
|1 i , . . . , |N i. En el caso de N fermiones identicos, el estado fsico A |ui se puede escribir en la forma de un de-
terminante de Slater N N , este determinante excluye el caso en el cual dos o mas estados individuales coinciden,
ya que el estado antisimetrizado se anula. El hecho de que los bosones no sigan este principio de exclusion en
tanto que los fermiones s, marca una gran diferencia entre el comportamiento de estos dos tipos de partculas.
Notese finalmente que es el principio de exclusion de Pauli (previamente establecido fenomenologicamente) el
que obliga a inclur kets completamente antisimetricos en el postulado de simetrizacion.

26.8. Construccion de una base de estados fsicos de partculas identicas


Consideremos un sistema de N partculas identicas. Comenzando por la base {|ui i} de partcula individual,
construmos en primer lugar la base en el producto tensorial E de los espacios de una partcula, asignando una
cierta numeracion de partcula. n Eo
(1) (2) (N )
ui1 , ui2 , . . . , uiN (26.44)
donde el subndice rotula estados y el suprandice rotula partculas. La idea es determinar una base de los subes-
pacios ES o EA es decir una base para los kets fsicos. Aplicando los proyectores S o A a los kets (26.44), obtenemos
un conjunto de kets que expanden ES o EA . Veamos el caso de ES ya que el caso de EA es analogo. Sea |i ES ,
tal estado se puede expandir en la base (26.44) de E
n X
X n n
X E
(1) (2) (N )
|i = ai1 ,i2 ,...,iN ui1 , ui2 , . . . , uiN (26.45)
i1 =1 i2 =1 iN =1

donde n es la dimension de cada subespacio de partcula individual (dimension infinita numerable en el caso del
espacio de Hilbert L2 ). Es claro que S |i = |i ya que |i ES . Si aplicamos S a ambos lados de (26.45), nos
queda X h Ei
(1) (2) (N )
|i = ai1 ,i2 ,...,iN S ui1 , ui2 , . . . , uiN
i1 ,i2 ,...,iN

de modo que el estado arbitrario |i ES , queda escrito en terminos de kets de la forma


E
(1) (2) (N )
S ui1 , ui2 , . . . , uiN ES (26.46)

Sin embargo, en general no todos los kets de la forma (26.46) son linealmente independientes.
E Por ejemplo, podemos
(1) (2) (N )
permutar los roles de las varias partculas en uno de los kets del tipo ui1 , ui2 , . . . , uiN de la base inicial (antes
de la simetrizacion). Sobre este nuevo ket, la aplicacion de S o A conduce al mismo ket |i (tal vez con signo
cambiado en el caso de A), de acuerdo con las Ecs. (26.37, 26.38).
La discusion anterior nos conduce a introducir el concepto de numero de ocupacion. En general no todos
los estados |ui1 i , |ui2 i , . . . , |uiN i son diferentes. Es conveniente reordenar los estados diferentes con un nuevo
ndice. Si tenemos p estados diferentes de partcula individual, entonces escribimos

{|uk i} = |uk1 i , |uk2 i , . . . , ukp ; donde |ukm i =6 |ukn i si m 6= n
El estado inicial lo reorganizamos en la forma
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N n +1) (N n +2) (N )
uk1 , uk1 , . . . , uk1 1 ; uk21 , uk2 1 , . . . , uk2 1 2 ; . . . ; ukp p , ukp p , . . . , ukp

donde ni es el numero de partculas en el estado |uki i con i = 1, 2, . . . , p. Es claro que se tiene que cumplir la
condicion
X p
ni = N (26.47)
i=1
26.8. CONSTRUCCION DE UNA BASE DE ESTADOS FISICOS DE PARTICULAS IDENTICAS 607

a los ni se les denomina numero de ocupacion, que es el numero de partculas en el estado |uki i. Dos kets
diferentes del tipo (26.44) cuyos numeros de ocupacion coincidan, se pueden obtener el uno a partir del otro con
una permutacion. Por tanto, despues de la aplicacion del simetrizador o el antisimetrizador, se obtiene el mismo
ket fsico a partir de ambos kets de acuerdo con la Ec. (26.37, 26.38) (a lo mas con un signo de diferencia).
Denotaremos a este unico estado fsico simetrizado (o antisimetrizado) asociado a una configuracion dada de
ocupacion en la forma
|n1 , n2 , . . . , np i
para bosones, estos estados se obtienen de
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N np +1) (N np +2)
|n1 , n2 , . . . , np i = cS S u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N
p
)

(26.48)
y para fermiones de
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N np +1) (N np +2)
|n1 , n2 , . . . , np i = cA A u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N
p
)

(26.49)
donde los coeficientes de normalizacion cS y cA vienen dados por
s
N!
cS = ; cA = N !
n1 !n2 ! . . . np !

ahora bien, puesto que el numero de estados accesibles diferentes puede ser infinito, escribiremos un estado de
ocupacion de aqu en adelante en la forma
|n1 , n2 , . . . , nk , . . .i

Example 26.1 Tomemos los siguientes kets asociados a cinco partculas identicas
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 ; u7 , u1 , u5 , u5 , u1 (26.50)

(i)
donde uki indica que la iesima partcula esta en el estado excitado ki del oscilador armonico unidimensional.
Ambos estados en (26.50) describen a dos partculas en el estado base u1 , dos partculas en el quinto estado
excitado y una partcula en el septimo estado excitado. Podemos ver claramente que ambos kets estan conectados
por medio de una permutacion de los rotulos de partculas
E E E
(1) (2) (3) (4) (5) (4) (1) (5) (2) (3) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 = u7 , u1 , u5 , u5 , u1 = P41523 u7 , u1 , u5 , u5 , u1

notese que la permutacion que conecta a ambos estados no es unica. Por ejemplo tambien se puede escribir
E E E
(1) (2) (3) (4) (5) (4) (1) (2) (5) (3) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 = u7 , u1 , u5 , u5 , u1 = P41253 u7 , u1 , u5 , u5 , u1

ahora bien, el orden mas natural para este estado fsico es colocar los estados en orden ascendente de energa, en
tal caso sera el ket E
(1) (3) (2) (5) (4)
u1 , u1 , u5 , u5 , u7
como ya se menciono, al simetrizar o antisimetrizar cualquiera de estos kets se obtiene un unico ket fsico (a lo
mas se obtiene un signo de diferencia cuando se antisimetriza, dependiendo del ket elegido). Notese que tambien se
podran intercambiar los estados en lugar de las partculas. Sin embargo se debe tener presente que los subndices
en los kets (26.50) indican la excitacion del estado individual y no son los rotulos de los estados. Por ejemplo si
elegimos el primer ket en (26.50) podemos escribir
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 uk1 , uk2 , uk3 , uk4 , uk5
608 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

de modo que
k1 = 1, k2 = 5, k3 = 1, k4 = 7, k5 = 5
y podemos aplicar el permutador sobre los ndices de estados
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
P41253 u1 , u5 , u1 , u7 , u5 P41253 uk1 , uk2 , uk3 , uk4 , uk5
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
= uk4 , uk1 , uk2 , uk5 , uk3 = u7 , u1 , u5 , u5 , u1

mostrando una vez mas que ambos estados en (26.50) estan conectados por una permutacion. Cuando cualquiera
de estos estados se simetriza (o antisimetriza) lo que se obtiene es un ket fsico con la informacion de que dos
partculas estan en el estado base u1 , dos en el quinto estado excitado, y una en el septimo estado excitado. En
la notacion de numero de ocupacion cada casilla del ket denota un estado individual y en ella se coloca el numero
de partculas que hay en cada estado. En este caso el ket fsico |i se escribe en la forma

|i = |2, 0, 0, 0, 2, 0, 1, 0, 0, 0, . . .i

donde solo hay numeros distintos de cero en la primera, quinta, y septima casillas, ya que en los otros estados
no hay ninguna partcula. Los estados accesibles son infinitos ya que no hay cota para los estados excitados del
oscilador armonico, por eso se colocan puntos suspensivos indicando infinitas casillas. Por supuesto, ya no hay
rotulos de partculas en virtud de la indistinguibilidad. En ocasiones, es util sintetizar la notacion escribiendo solo
los numeros de los estados que estan ocupados, escribiendo el estado como subndice. Esto con el fin de evitar la
escritura de tantos ceros. Por ejemplo en nuestro caso se puede escribir

|i = 2(1) , 2(5) , 1(7)

26.8.1. Propiedades de los kets de ocupacion


Las propiedades mas sobresalientes de estos kets de ocupacion son las siguientes

El producto interno entre dos estados de ocupacion |n1 , n2 , . . . , nk , . . .i y |n1 , n2 , . . . , nk , . . .i esta dado por


n1 , n2 , . . . , nk , . . . |n1 , n2 , . . . , nk , . . .i = n1 ,n1 n2 ,n2 . . . nk ,nk . . .

de manera que solo es diferente de cero si los numeros de ocupacion son los mismos para todo k. Para verlo,
podemos usar (26.48) o (26.49) y las definicionesn (26.32) de S y A,Eopara obtener la expansion de los dos
(1) (2) (N )
kets bajo consideracion en la base ortonormal u1 , u2 , . . . , uN . Al hacer el producto interno entre
los kets resultantes se puede ver que si los numeros de ocupacion no son iguales, estos dos kets no pueden
tener componentes no-nulas simultaneas sobre el mismo vector base. La normalizacion esta garantizada por
la introduccion de las constantes de normalizacion cS y cA .

Si las partculas bajo estudio son bosones, los kets de ocupacion |n1 , n2 , . . . , nk , . . .i son arbitrarios, y por
tanto, una base ortogonal la constituye un conjunto que barre todas las configuraciones de ocupacion posibles,
sometida a la ligadura (26.47). Observemos que si reemplazamos S por su definicion (26.32), en la Ec. (26.48), E
(1) (N )
aparece al lado derecho de esta ecuacion, una superposicion de estados ortogonales u1 , . . . , uN con
coeficientes positivos, ya que no hay cambio de signo bajo intercambios y cS se definio como positivo. Esto
indica que los kets |n1 , n2 , . . . , nk , . . .i definidos en (26.48) son no-nulos. Los kets |n1 , n2 , . . . , nk , . . .i expanden
a ES , y por tanto forman una base de este subespacio puesto que son no-nulos.

Si las partculas bajo estudio son fermiones, una base del espacio EA de estados fsicos se obtiene escogiendo
el conjunto de kets
{|n1 , n2 , . . . , nk , . . .i ; ni = 0, 1} (26.51)
26.9. CONSISTENCIA DEL POSTULADO DE SIMETRIZACION CON LOS OTROS POSTULADOS 609

en el cual cada numero de ocupacion es cero o uno. Una vez mas sujeto a la ligadura (26.47). A diferencia
del simetrizador, el antisimetrizador introduce signos positivos para permutaciones pares y negativos para
permutaciones impares. Como vimos en la seccion 26.7.2, dos fermiones identicos no pueden ocupar el mismo
estado individual simultaneamente. Esto implica que numeros de ocupacion con ni > 1, anulan el ket (26.49)
corrrespondiente. Ahora bien, cuando todos los numeros E de ocupacion son E cero o uno, el ket (26.51) es no
(1) (N ) (1) (N )
nulo ya que en tal caso, los kets P u1 , . . . , uN y P u1 , . . . , uN con P 6= P son diferentes y
ortogonales. La relacion (26.49) nos da entonces vectores no nulos cuando tomamos kets del tipo (26.51).
Estos expanden a EA y puesto que son no-nulos, constituyen una base para EA .

26.9. Consistencia del postulado de simetrizacion con los otros postulados


Debemos verificar que el postulado de simetrizacion no entra en contradiccion con los otros postulados. De-
mostraremos que (a) el proceso de medida se puede describir con kets que pertenecen unicamente al subespacio
ES o EA . (b) Si el estado pertenece inicialmente a uno de los subespacios ES o EA , su evolucion temporal es tal que
continuara dentro de este subespacio para todo tiempo. En general podremos usar los postulados de la mecanica
cuantica totalmente dentro de uno de estos subespacios.

26.9.1. Postulado de simetrizacion y el proceso de medida


El ket | (t)i que describe a un estado fsico de N partculas identicas en el tiempo t, pertenece al subespacio
ES (EA ) si las partculas son bosones (fermiones). Cuando se mide un observable G, el sistema (de partculas
identicas) queda preparado en un ket propio |i del observable. Por otro lado, el postulado de simetrizacion me
dice que el estado |i debe tambien pertenecer al subespacio ES (EA ) para el sistema de bosones (fermiones). Por
tanto, debemos asegurarnos que el proceso de medida no me deja al sistema preparado en un estado fuera de ES
o EA .
De momento asumamos que |i pertenece a ES o EA , la amplitud de probabilidad h| (t)i involucra a dos
kets que pertenecen a ES o EA , es decir ambos son estados totalmente simetricos o antisimetricos.
(i)
Si el conjunto de medidas es completo (por ejemplo, la medida de cada posicion ri y de las componentes S3
de espn para todas las partculas), el estado fsico |i es unico dentro de factores constantes. Si el conjunto de
medidas es incompleto (por ejemplo, medir solo el espn de las partculas, o medir solo sobre un subconjunto de
partculas), se obtendran varios kets ortogonales fsicos, y las probabilidades asociadas deben sumarse.
En algunos casos es posible especificar el conjunto de medidas sobre el sistema de partculas identicas, escribien-
do el observable en terminos de los observables basicos Ri , Pi , Si . Tomemos un ejemplo concreto. Los siguientes
observables se pueden medir en un sistema de tres partculas identicas: La posicion del centro de masa RG , el
momento total P, el momento angular total L, el espn total S y la energa electrostatica de repulsion W

1
RG = (R1 + R2 + R3 ) ; P = P1 + P2 + P3 (26.52)
3
L = L1 + L2 + L3 ; S = S1 + S2 + S3 (26.53)
 
q2 1 1 1
W = + + (26.54)
40 |R1 R2 | |R2 R3 | |R1 R3 |

de estas expresiones, es claro que los observables asociados a cantidades fsicas que se miden sobre un sistema de
partculas identicas, introducen los observables de partcula individual en forma simetrica. Este hecho proviene
directamente del caracter identico de las partculas. Por ejemplo, los coeficientes en la superposicion (26.52)
asociada a RG son todos iguales, debido a que todas las partculas tienen la misma masa. Los coeficientes en la
superposicion (26.54) son todos iguales debido a que todas las partculas poseen la misma carga. Vemos entonces
que ninguna propiedad fsica se modifica al permutar las N partculas. En consecuencia, para cualquier observable
fsico asociado a un sistema de partculas identicas, las N partculas juegan un rol simetrico. Los anteriores
610 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

argumentos son validos tanto para bosones como para fermiones. Matematicamente, un observable fsico G asociado
a N partculas identicas debe ser entonces invariante bajo cualquier permutacion P de las N partculas. De acuerdo
con la discusion en la seccion 26.4.4 [ver Ec. (26.36)], esto es equivalente a la condicion de que G debe conmutar
con todas las permutaciones
[G, P ] = 0 para todo P (26.55)
Esto implica que algunos observables para un sistema de partculas distinguibles, no seran observables para
un sistema de partculas identicas. Por ejemplo, si tenemos un sistema de dos partculas identicas, el operador
R1 R2 no sera un observable, ya que no es invariante ante la permutacion P21 puesto que cambia de signo bajo
esta operacion, en realidad una medida de R1 R2 asume que la partcula (1) se puede distinguir de la (2). Sin
embargo, este mismo operador s sera un observable para un sistema de dos partculas no identicas. Por otra
parte, la distancia entre las partculas |R1 R2 | es claramente un observable valido para dos partculas identicas
(la distancia es invariante ante un intercambio de las partculas).
La ecuacion (26.55) implica que los subespacios ES y EA son ambos invariantes bajo la accion de un observable
fsico G de las partculas identicas. Si |i EA tenemos que

P |i = |i

y teniendo en cuenta (26.55) resulta


P G |i = GP |i = G |i
por tanto G |i tambien pertenece a EA , i.e. G |i tambien es completamente antisimetrico. Un argumento similar
se sigue si |i ES .
Todas las operaciones que se realizan sobre un observable fsico, tales como la determinacion de sus valores
y vectores propios se pueden aplicar a G enteramente dentro del subespacio ES o EA . Solo se conservan los
autovectores de G que pertenecen al subespacio fsico y sus correspondientes valores propios. Vale enfatizar, que
esta consistencia esta relacionada con el hecho de que los observables fsicos asociados a partculas identicas deben
ser totalmente simetricos (para bosones o fermiones) con respecto a la permutacion de las partculas.
En general no encontraremos todos los autovalores de G asociados al espacio completo E, cuando nos restrin-
gimos al subespacio ES o EA . El postulado de simetrizacion puede entonces exclur algunos valores propios de G,
del espectro fsico. Por otro lado, puesto que ES o EA son invariantes bajo la accion de G, todo autovector de G
en ES o EA , es tambien autovector de G en E con el mismo autovalor.
La restriccion de que los observables deben ser simetricos puede llevarnos a la necesidad de reestructurar
a los observables asociados a ciertas mediciones. Por ejemplo, trataremos de escribir observables asociados a la
medicion simultanea de la posicion de tres partculas identicas. Los observables usuales R1 , R2 y R3 no seran
observables fsicos en este caso, ya que cada uno de ellos no es simetrico bajo permutaciones de las partculas.
Podemos entonces tratar de escribir tres observables totalmente simetricos con base en los cuales se pueda estimar
las posiciones de las tres partculas. Por ejemplo, se pueden usar los observables

R1 + R2 + R3 ; R1 R2 + R2 R3 + R3 R1 ; R1 R2 R3

sin embargo, este metodo es mas bien formal, ya que no es viable medir estos observables directamente en un
experimento. Es mas sencillo restringirnos a usar los autoestados fsicos asociados a la medida como se describio
en esta seccion.

26.9.2. Postulado de simetrizacion y evolucion temporal


El Hamiltoniano de un sistema de partculas identicas debe ser un observable fsico y por tanto debe ser
totalmente simetrico. Tomemos como ejemplo, el Hamiltoniano del atomo de Helio en donde por simplicidad, solo
tendremos en cuenta las interacciones electrostaticas
P21 P2 2e2 2e2 e2
H (1, 2) = + 2 +
2me 2me R1 R2 |R1 R2 |
26.10. CONSECUENCIAS FENOMENOLOGICAS DEL POSTULADO DE SIMETRIZACION 611

los dos terminos cineticos son simetricos debido a que las masas son iguales. Los dos terminos asociados a la
atraccion del nucleo son iguales debido a que los dos electrones tienen cargas iguales. Es obvio que cada electron
es afectado de la misma manera por tal atraccion. Finalmente, el termino de repulsion entre los dos electrones es
simetrico porque ninguno de los dos electrones esta en una posicion privilegiada.
Para un sistema de N partculas identicas, el Hamiltoniano al igual que cualquier observable fsico asociado a
partculas identicas, debe conmutar con todas las permutaciones de las N partculas

[H, P ] = 0 (26.56)

ahora bien, el ket inicial | (t0 )i debe ser un ket fsico y por tanto debe pertenecer a ES o EA . Es necesario que la
evolucion temporal sea tal que | (t)i sea un ket fsico para todo tiempo. Es decir, | (t)i debe pertenecer a ES o
EA para todo tiempo. Escribiremos la ecuacion de Schrodinger en la forma
d | (t + dt)i | (t)i 1
i~ | (t)i = H (t) | (t)i = H (t) | (t)i
dt   dt i~
dt
| (t + dt)i = 1 + H (t) | (t)i
i~

Aplicando P a ambos lados y usando (26.56) resulta


 
dt
P | (t + dt)i = 1 + H (t) P | (t)i (26.57)
i~

Si | (t)i EA entonces P | (t)i = | (t)i, esto junto con la ecuacion (26.57) nos muestran que P | (t + dt)i =
| (t + dt)i. Por tanto, si | (t)i EA (i.e. es completamente antisimetrico), entonces | (t + dt)i EA . Simi-
larmente se puede demostrar que la evolucion temporal conserva la simetra total. Por tanto, si el ket inicial es
completamente simetrico (antisimetrico) la evolucion temporal via ecuacion de Schrodinger hace que el estado sea
completamente simetrico (antisimetrico) para todo tiempo. La ecuacion de Schrodinger es entonces consistente
con el postulado de simetrizacion.

26.10. Consecuencias fenomenologicas del postulado de simetrizacion


26.10.1. Diferencias entre fermiones y bosones
Hemos visto que el postulado de simetrizacion no restringe la distribucion de los bosones entre los diversos
estados cuanticos. En contraste, para los fermiones este postulado prohibe que dos fermiones identicos ocupen el
mismo estado cuantico. Este hecho se conoce como principio de exclusion de Pauli, y fue establecido para explicar
las propiedades de los atomos de varios electrones. Sin embargo, en el presente contexto no es estrictamente un
principio sino una consecuencia del postulado de simetrizacion, y es valido para cualquier sistema de fermiones
identicos, no solo los electrones. Este principio de exclusion (o su ausencia para los bosones) tiene predicciones
espectaculares que han sido confirmadas experimentalmente. Veremos algunos ejemplos mas adelante.

26.10.2. Estado base de un sistema de partculas identicas independientes


Ya hemos visto que el Hamiltoniano asociado a partculas identicas (bosones o fermiones) debe ser simetrico
con respecto a la permutacion de las partculas. Asumiremos un sistema no interactuante de partculas identicas.
En tal caso el Hamiltoniano total se escribira como una suma de operadores de una partcula en la forma

H (1, 2, . . . , N ) = h (1) + h (2) + . . . + h (N )

h (i) es funcion solo de los observables asociados a la partcula rotulada como (i). La simetra total del Hamiltoniano
requiere que cada funcion h (i) sea la misma para los N terminos. Para calcular los autovalores y los autovectores
612 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

del Hamiltoniano total, basta con calcular los vectores y valores propios de los operadores individuales h (j) en
el espacio E (j) asociado a una partcula. Por simplicidad asumiremos que el espectro de h (j) es discreto y no
degenerado E E E
(j) (j) (j)
h (j) (j)
n = en n ; n E (j)
notese que el ndice (j) es de partcula y no de degeneracion. Los vectores propios construdos a priori son
los productos tensoriales de los vectores de cada partcula, y el valor propio es la suma de los valores propios
individuales asociados
E E E E
(1) (2) (N ) (1) (2) (N )
,
n1 n2 . . . , nN =
n1
n2 . . .
nN (26.58)
En1 ,n2 ,...,nN = e(1) (2) (N )
n1 + en2 + . . . + enN (26.59)
si consideramos un sistema de bosones identicos, los kets anteriores deben ser simetrizados
S N!
X E
n ,n ,...,n = c (1) (2) (N )
1 2 N
P n 1
, n 2
. . . , n N
(26.60)
=1
puede verificarse que el ket descrito por (26.60) es ket propio de H con el mismo valor propio (26.59) del ket sin
simetrizar (26.58). En consecuencia, las energas (26.59) corresponden a valores reales de la energa del sistema.
En particular si e1 es el valor propio mas pequeno de h (j) (obviamente igual para cada partcula y por tanto,
independiente de j) y si |1 i es su vector propio asociado, el estado base del sistema se obtendra cuando los N
bosones identicos esten todos en el estado |1 i. La energa y el vector en el estado base seran
E
(1) (2) (N )
E1,1,...,1 = N e1 ; 1 , 1 . . . , 1
Sin embargo, si el sistema de N partculas identicas es de fermiones, no es posible que las N partculas esten
todas en el mismo estado base |1 i. Para obtener el estado base del sistema, debe tenerse en cuenta el principio
de exclusion de Pauli. Si las energas se ordenan en forma ascendente
e1 < e2 < . . . < eN
la energa del estado base de un sistema de N fermiones identicos sera
E1,2,...,N = e1 + e2 + . . . + eN
y estara descrito por el ket normalizado dado por
E E E
(1) (1) (1)
1 2 N
E E E
(2) (2) (2)
A 1 1 2 N
n ,n ,...,n =
1 2 N
N ! .. .. ..

. E . E . E
(N ) (N ) (N )
1 2 N
la energa individual mas alta eN que se encuentra en el estado base se denomina la energa de fermi del sistema.
Si existe degeneracion gk en los niveles de energa individuales ek , hay gk estados ortogonales asociados a cada
valor propio. Por tanto, pueden haber hasta gk fermiones identicos con energa ek (ya que cada uno estara en un
estado diferente). En tal caso, la energa de fermi ep es en general menor que eN , y la energa del sistema en el
estado base sera
E1,2,...,p = g1 e1 + g2 e2 + . . . + gp1 ep1 + kp ep
sujeto a la ligadura
p1
X
kp + gi = N ; kp gp
i=1
notese que el nivel de fermi podra no estar lleno: si con kp partculas (con kp < gp ), ya hemos completado las
N partculas, no todos los estados asociados a ep estaran ocupados por un fermion.
26.11. PREDICCIONES FISICAS DEL POSTULADO DE SIMETRIZACION 613

26.11. Predicciones fsicas del postulado de simetrizacion


En mecanica cuantica, las predicciones fsicas estan relacionadas con probabilidades que se calculan con pro-
ductos internos. Veremos que la simetrizacion y antisimetrizacion causa efectos de interferencia cuando tenemos
partculas identicas. No obstante, tambien veremos que en ciertas situaciones, se puede ignorar el postulado de
simetrizacion, de modo que las predicciones hechas asumiendo las partculas como distinguibles no seran muy
diferentes de las que se obtienen cuando se tratan como identicas.
Por simplicidad, trabajaremos un sistema de dos partculas identicas. Asumamos que una de ellas esta en el
estado |1 i y la otra en el estado |2 i ortogonal al anterior, de modo que el estado fsico, viene dado por el ket
normalizado
1 E
(1) (2)
|1 ; 2 i [1 + P21 ] 1 , 2
2
= +1 (para bosones), = 1 (para fermiones)

ahora queremos medir sobre cada partcula el mismo observable B, que los asociaremos a los observables B (1) y
B (2). Pensemos que el espectro de B es discreto y no degenerado

B |ui i = bi |ui i

queremos calcular la probabilidad de encontrar en el proceso de medida el valor bn para una de las partculas y
bm para la otra. Asumiremos primero que bn 6= bm , de manera que los estados propios asociados son ortogonales
entre s. Bajo estas condiciones, despues de la medicion de los observables, el sistema quedara preparado en el
estado fsico normalizado definido por
1 E

|un ; um i [1 + P21 ] u(1)
n , u(2)
m
2
la amplitud de probabilidad para obtener las medidas bn y bm estan dadas por
1 D (1) (2) 

(1) (2)
E
hun ; um |1 ; 2 i = un , um 1 + P21 (1 + P21 ) 1 , 2 (26.61)
2
usando la hermiticidad y nilpotencia de P21 tenemos que
 

1 + P21 (1 + P21 ) = (1 + P21 )2 = 1 + 2P21 + 2 P21
2

 

1 + P21 (1 + P21 ) = 2 + 2P21 (26.62)

sustituyendo (26.62) en (26.61) y poniendo a P21 a actuar sobre el bra, resulta


D E D E D E
(2) (1) (2) (2) (1) (2) (2) (1) (2)
hun ; um |1 ; 2 i = u(1)
n , um (1 + P21 ) 1 , 2 = u(1)n , um 1 , 2 + u(1)
n , um P21 1 , 2
D E D E
(1) (2) (1) (2) (1) (2) (1) (2)
hun ; um |1 ; 2 i = un , um 1 , 2 + um , un 1 , 2
D ED E D ED E
(1) (1) (2) (2) (1) (1) (2) (2)
= un 1 um 2 + um 1 un 2
hun ; um |1 ; 2 i = hun | 1 i hum | 2 i + hum | 1 i hun | 2 i (26.63)

en el ultimo paso se ha suprimido la numeracion, ya que los espacios son isomorfos de modo que el valor del
numero complejo que se obtiene no depende de la numeracion. La amplitud de probabilidad es entonces una suma
(resta) para el caso de dos bosones (fermiones) identicos. Los dos terminos a la derecha de (26.63) pueden ser
asociados a los diagramas 26.3a y 26.3b.
El resultado (26.63) se puede interpretar en la siguiente forma: Los kets |1 i y |2 i asociados al estado inicial
se pueden conectar a los bras hun | y hum | asociados al estado final por dos caminos diferentes representados
614 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

Figura 26.3: Ilustracion del termino directo y el termino de intercambio asociado a una medida sobre un sistema
de dos partculas identicas.

esquematicamente en las figuras 26.3a y 26.3b. A cada uno de estos caminos le podemos asociar una amplitud
de probabilidad hun | 1 i hum | 2 i y hum | 1 i hun | 2 i. Estas dos amplitudes interfieren con un signo positivo
(negativo) para bosones (fermiones). La probabilidad de encontrar el par de medidas bn y bm es el modulo al
cuadrado de esta amplitud

P (bn ; bm ) = |hun | 1 i hum | 2 i + hum | 1 i hun | 2 i|2


P (bn ; bm ) = |hun | 1 i hum | 2 i|2 + |hum | 1 i hun | 2 i|2
+2Re {hun | 1 i hum | 2 i h1 | um i h2 | un i} (26.64)

es usual llamar a uno de los terminos de la derecha en la Ec. (26.63) [por ejemplo el termino asociado a la figura
26.3a], el termino directo, y al otro se le denomina termino de intercambio. Es en realidad una cuestion de
convencion a cual llamamos termino directo y a cual termino de intercambio.
Vamos a considerar ahora el caso en el cual queremos examinar la probabilidad de que se obtenga el mismo
valor propio bn , para ambas partculas. Como no hay degeneracion, los dos estados finales seran identicos. En el
caso de fermiones la probabilidad es cero puesto que estos procesos estaran prohibidos por el principio de exclusion
de Pauli. Para el caso de bosones, el estado simetrizado y normalizado sera
E

|un ; un i = u(1)
n , u(2)
n

la amplitud tendra entonces la forma


1 D E 1 D E D E
(2) (1) (2) (2) (1) (2) (2) (1) (2)
hun ; un |1 ; 2 i = u(1) n , un (1 + P21 ) 1 , 2 = u(1)
n , un 1 , 2 + u(1)
n , un P21 1 , 2
2 2
1 nD (1) (2) (1) (2) E D (1) (2) (1) (2) Eo D (1) (2) (1) (2) E
hun ; un |1 ; 2 i = un , un 1 , 2 + un , un 1 , 2 = 2 un , un 1 , 2
2

hun ; un |1 ; 2 i = 2 hun | 1 i hun | 2 i

de modo que la probabilidad esta dada por

P (bn , bn ) = 2 |hun | 1 i|2 |hun | 2 i|2 (26.65)

notese que no hay termino de interferencia en contraste con la ecuacion (26.64). El factor de dos que aparece en
(26.65) esta relacionado con el hecho de que el termino directo coincide con el de intercambio en este caso.
Generalizando, para un sistema de N partculas, hay en general N !, terminos de intercambio que se adicionan
o sustraen en la amplitud de probabilidad. En el caso de bosones, el numero de intercambios es menor cuando
algunas partculas estan en el mismo estado.
La figura 26.4, ilustra los terminos de intercambio para tres partculas identicas que estan caracterizadas por
los estados individuales iniciales |1 i , |2 i , |3 i, y para las cuales asumimos que los valores propios individuales
bn1 , bn2 , bn3 que se obtienen en el proceso de medida son todos diferentes. Estos seis terminos (N ! = 3!) ilustran
los posibles caminos, algunos de los cuales contribuyen con signo positivo (caminos que se obtienen a partir del
26.11. PREDICCIONES FISICAS DEL POSTULADO DE SIMETRIZACION 615

Figura 26.4: Ilustracion del termino directo y los terminos de intercambio asociados a una medida sobre un sistema
de tres partculas identicas.

termino directo con un numero par de transposiciones de los estados iniciales o finales) otros contribuyen con signo
dependiendo de si son bosones o fermiones (cuando el numero de transposiciones para obtener el intercambio
es impar). Si algunos de los estados finales coinciden, habra algunos terminos de intercambio iguales y tendremos
menos sumandos en la amplitud de probabilidad.

26.11.1. Predicciones sobre partculas aparentemente identicas


Una manera de examinar que tan intrnseco es el postulado de simetrizacion, es realizando un experimento del
siguiente tipo: Supongamos que tenemos dos partculas de diferente naturaleza. Escogeremos un estado inicial del
sistema en el producto tensorial (el cual se supone que describe a un sistema fsico en este caso)
E

|i = (1) , (2)

consideremos un instrumento de medida que no puede distinguir a las dos partculas. Por ejemplo, podramos
tener un instrumento que solo mide carga electrica y el sistema consiste en un electron y un muon (que poseen la
misma carga). Otro ejemplo, sera un instrumento que solo mide masa y el sistema fsico consiste de un electron
y un positron (que tiene la misma masa pero carga opuesta al electron).
Al obtener los resultados
E bn y E
bm no sabemos si bn esta asociado a la partcula (1) o a la partcula (2). Los
(1) (2) (1) (2)
dos estados un , um y um , un representan en este caso a diferentes estados fsicos, pero corresponden a los
mismos resultados de la medida antes descrita. Puesto que son ortogonales, debemos adicionar las probabilidades
asociadas, las cuales dan
D E 2 D E
(2) (1) (2) (1) (2) (1) (2) 2
P (bn ; bm ) = u(1)n , um , + um , un ,
P (bn ; bm ) = |hun |i|2 |hum |i|2 + |hum |i|2 |hun |i|2 (26.66)

comparando las probabilidades (26.66) y (26.64) podemos ver que hay una diferencia significativa en las predic-
ciones fsicas sobre partculas que son identicas para nuestro experimento pero que no son intrnsecamente
identicas, con respecto al caso de partculas que s son intrnsecamente
E identicas.E Notese que esto tiene que ver
(1) (2) (1) (2)
con el hecho de que para partculas distinguibles los kets un , um y um , un representan diferentes estados
fsicos, en tanto que para partculas identicas representan el mismo estado fsico. Por esta razon, las probabilidades
se suman en el caso de partculas distinguibles, en tanto que para partculas indistinguibles lo que se suman son
las amplitudes (razon por la cual surgen interferencias en el ultimo caso). Ver discusion en la seccion 5.11, pag.
240.
616 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

Veamos ahora el caso en el cual las dos partculas diferentes arrojan el mismo resultado de la medida bn , en
cuyo caso la amplitud de probabilidad y la probabilidad nos dan
D E
(1) (2) (1)
A (bn ; bn ) = un , un , (2) = hun |i hun |i
P (bn ; bn ) = |hun |i|2 |hun |i|2 (26.67)

Comparando con la Ec. (26.65) asociada a partculas intrnsecamente identicas, podemos notar la diferencia con
respecto a las predicciones para partculas aparentemente identicas.

26.11.2. Colision elastica de dos partculas identicas


Examinaremos el problema de la colision elastica de dos partculas identicas en el sistema de referencia centro
de masa. Por simplicidad ignoraremos el efecto del espn. Sin embargo, el calculo sera valido siempre que la
interaccion no dependa del espn, y si las dos partculas estan inicialmente en el mismo estado de espn.
En este caso debemos tomar en cuenta la evolucion temporal, pero veremos que el termino de intercambio
entra de una manera muy similar al caso de medidas que no involucran evolucion temporal.

Figura 26.5: Colision elastica entre dos partculas identicas vista desde el sistema de referencia del centro de masa.
(a) Momentos de las dos partculas en el estado inicial. (b) Momentos de las dos partculas en el estado final (justo
despues de la medicion).

La Fig. 26.5a, muestra el estado inicial en el cual las dos partculas se acercan la una a la otra con momentos
opuestos pu3 , donde hemos definido la direccion X3 a lo largo de los momentos. El ket fsico inicial |i i estara
descrito entonces por la expresion
1 E
(1) (2)
|i i = (1 + P21 ) pu3 , pu3 (26.68)
2
|i i es el estado del sistema en el tiempo inicial t0 antes de la colision. Describiremos la evolucion temporal a traves
del operador lineal U (t, t ) conocido como operador evolucion temporal (ver seccion 7.1, Pagina 260). Si definimos
t1 como el tiempo en el cual se ejecutara la medida, tendremos que para este tiempo el estado del sistema justo
antes de la medida sera
| (t1 )i = U (t1 , t0 ) |i i (26.69)
puesto que el Hamiltoniano conmuta con P21 y el operador U (t, t ) solo depende del Hamiltoniano y del tiempo,
se tiene que este operador tambien conmuta con P21
  
U t, t , P21 = 0 (26.70)

este fenomeno ya fue descrito en la seccion 26.2, Pag. 591. Calcularemos la amplitud de probabilidad de detectar
una partcula en la direccion n (recordemos que por conservacion de momento, la otra ira en direccion n).
Puesto que la colision es elastica, los modulos de los momentos no cambian y las partculas en el estado cuya
26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACION617

probabilidad queremos evaluar tendran momentos pn. El ket final fsico |f i (justo despues de la medida) estara
entonces dado por E
1
|f i = (1 + P21 ) pn(1) , pn(2) (26.71)
2
la amplitud de probabilidad deseada se obtiene aplicando las Ecs. (26.68, 26.69, 26.71)
1 E
(1) (2)
hf | (t1 )i = hf | U (t1 , t0 ) |i i = hf | U (t1 , t0 ) (1 + P21 ) pu3 , pu3
2
1 D (1)   E
(1) (2)
hf | (t1 )i = pn , pn(2) 1 + P21 U (t1 , t0 ) (1 + P21 ) pu3 , pu3 (26.72)
2
utilizando las propiedades de P21 y la Ec. (26.70) resulta
 

1 + P21 U (t1 , t0 ) (1 + P21 ) = (1 + P21 ) (1 + P21 ) U (t1 , t0 )
2

= 1 + 2P21 + P21 U (t1 , t0 ) = (1 + 2P21 + 1) U (t1 , t0 )
   

1 + P21 U (t1 , t0 ) (1 + P21 ) = 2 (1 + P21 ) U (t1 , t0 ) = 2 1 + P21 U (t1 , t0 ) (26.73)

sustituyendo (26.73) en (26.72) tenemos


D   E
(1) (2)
hf | (t1 )i = pn(1) , pn(2) 1 + P21 U (t1 , t0 ) pu3 , pu3
D E
(1) (2)
hf | (t1 )i = pn(1) , pn(2) U (t1 , t0 ) pu3 , pu3
D E
(1) (2)
+ pn(1) , pn(2) U (t1 , t0 ) pu3 , pu3 (26.74)

En la Ec. (26.74) vemos de nuevo que hay un termino directo y uno de intercambio en la amplitud. Diagramati-
camente, estos corresponden a los procesos que se ilustraron en las figuras 26.2a y 26.2b, de la Pagina 592. De
nuevo, las amplitudes de probabilidad asociadas a estos dos terminos se suman o restan dependiendo de si las
partculas son fermines o bosones. La presencia de los dos terminos genera un termino de interferencia cuando
realizamos el modulo al cuadrado de la expresion (26.74). Se puede notar que si cambiamos n por n, la expresion
(26.74) se multiplica por , de modo que la probabilidad permanece invariante. Esto es de esperarse ya que la Fig.
26.5b nos muestra claramente que el cambio n n, sera indistinguible en el proceso.

26.12. Situaciones en las cuales se puede ignorar el postulado de simetriza-


cion
Si el postulado de simetrizacion fuera siempre esencial, sera imposible describir a un sistema de partculas
identicas con un numero restringido de partculas, ya que habra que inclur todas las partculas identicas a ellas
en el universo para simetrizar el sistema. Veremos que hay situaciones en las cuales el postulado de simetrizacion
se puede ignorar, considerando a las partculas como si fueran de distinta naturaleza, y obtener las mismas
predicciones. La discusion de la seccion 26.11, nos muestra que esto ocurre cuando los terminos de intercambio
introducidos por el postulado de simetrizacion son nulos o despreciables. Veremos algunos ejemplos

26.12.1. Partculas identicas ubicadas en regiones espaciales distintas


Es comun que las funciones de onda de dos o mas partculas no se traslapen significativamente. Por ejemplo si
las funciones de onda de dos partculas (en una dimension por simplicidad) son simetricas y tienen anchos x1 y
x2 , tales funciones no se traslapan de manera significativa si los centros de las funciones estan separados por una
distancia mucho mayor que x1 + x2 . En la practica hay por supuesto un traslapamiento no nulo a todas las
618 CAPITULO 26. SISTEMAS CUANTICOS DE PARTICULAS IDENTICAS

distancias, ya que las funciones de onda usualmente no se anulan exactamente en ninguna region del espacio. Sin
embargo, cuando se cumple la condicion antes mencionada se pueden trazar dos (o mas) regiones disyuntas en las
cuales esta casi toda la probabilidad de ubicar a cada partcula. En tal caso las partculas se pueden asumir como
localizadas6 en cada region 1 y 2 . Por simplicidad ignoraremos los efectos de espn. Consideremos entonces
dos partculas identicas una de ellas en el estado individual |1 i y la otra en el estado individual |2 i. Vamos a
suponer el caso ideal en el cual la funcion de onda 1 (r) es exactamente nula por fuera de la region 1 y la funcion
de onda 2 (r) es exactamente nula por fuera de 2 . En tal sentido podemos rastrear a las partculas y decir
categoricamente que la partcula rotulada como (1) (por convencion) esta dentro de la region 1 , y la rotulada
como (2) esta dentro de la region 2 . La ausencia de traslapamiento de las funciones de onda nos lleva a una
situacion similar a la de la mecanica clasica y es de esperarse que el postulado de simetrizacion sea innecesario en
estas circunstancias.
Pensemos ahora en medir un observable relacionado con una de las partculas. Debemos colocar el aparato
de medida de manera que no pueda registrar lo que ocurre digamos en el dominio 2 . La medida solo estara
relacionada entonces con la partcula dentro de la region 1 [rotulada como (1) por convencion].
Ahora imaginemos una medida asociada a las dos partculas simultaneamente, pero realizadas por dos instru-
mentos de medida diferentes, uno que no es sensible a los fenomenos que ocurren dentro de 1 y otro que no es
sensible a lo que ocurre dentro de 2 . Por simplicidad asumamos que los autoestados asociados a la medida son
discretos y no-degenerados. Sean b1 y b2 las cantidades fsicas que se obtienen para cada partcula, y sean |u1 i y
|u2 i los estados individuales (vectores propios asociados a b1 y b2 ) en que queda preparada cada partcula luego
de las medidas dentro de 1 y 2 respectivamente. Ahora bien, la disposicion espacial de los instrumentos de
medida implica que
ui (r) = hr |ui i = 0 si r j ; i, j = 1, 2 , i 6= j
de modo que las funciones justo despues de la medida estan localizadas en los mismos dominios 1 y 2 que las
funciones justo antes de la medida. Esto implica que las funciones de onda u1 y 2 no se traslapan, lo mismo
ocurre con las funciones u2 y 1 . En consecuencia
Z Z Z Z

hu1 |2 i = u1 (r) 2 (r) dV = u1 (r) 2 (r) dV + u1 (r) 2 (r) dV + u1 (r) 2 (r) dV
1 2

donde es la region complementaria entre 1 y 2 . En la region ambas funciones de onda se anulan, en 1


se anula 2 (r) y en 2 se anula u1 (r), de manera que cada integral es nula. De una forma similar podemos ver
que hu2 |1 i se anula. Tenemos entonces
hu1 |2 i = hu2 |1 i = 0 (26.75)
ahora bien, empleando el postulado de simetrizacion la amplitud de probabilidad de obtener los resultados b1 y
b2 viene dada por la Ec. (26.63)

A (b1 ; b2 ) = hu1 ; u2 |1 ; 2 i = hu1 | 1 i hu2 | 2 i + hu2 | 1 i hu1 | 2 i

pero de acuerdo con (26.75) el termino de intercambio es nulo de modo que

A (b1 ; b2 ) = hu1 | 1 i hu2 | 2 i

y recordando que el termino de intercambio es el termino que agrega el postulado de simetrizacion, vemos que
el resultado es el mismo que si hubieramos ignorado dicho postulado. Por tanto, bajo ciertas circunstancias es
posible estudiar las partculas como si fuesen de diferente naturaleza. En particular, si tenemos un conjunto de
N partculas identicas suficientemente alejadas de cualquier otra partcula identica adicional, podemos aplicar el
postulado de simetrizacion a este sistema restringido de N partculas identicas, obteniendo resultados correctos.
6
Estamos asumiendo las partculas como localizadas en dos o mas regiones disyuntas. Esto no implica que cada partcula este en
un autoestado de posicion |ri i (ni siquiera aproximadamente), ya que la localizacion es en regiones finitas (y no en puntos), cuya unica
condicion es que sean disyuntas.
26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACION619

En el estado inicial hemos supuesto funciones de onda que no se traslapan, ademas hemos definido el estado
del sistema especificando dos estados de partcula individual. Podemos preguntarnos si despues de que el sistema
evoluciona temporalmente aun es posible estudiar a una de las partculas e ignorar la otra. Para ello no solo
es necesario que las dos partculas permanezcan en regiones distintas del espacio, tambien se requiere que no
interactuen. Incluso para partculas de diferente naturaleza, la interaccion introduce correlaciones y el vector de
estado del sistema completo ya no se puede escribir como el producto tensorial de dos estados asociados a cada
partcula individual (ver seccion 6.1, Pag. 244).
Vale enfatizar que el hecho de que podamos ignorar el postulado de simetrizacion cuando apartamos suficien-
temente las partculas, es una condicion esencial para poder definir un sistema aislado de partculas identicas en
mecanica cuantica.

26.12.2. Identificacion de partculas por su direccion de espn


Consideremos una colision elastica de dos partculas con espn 1/2 (por ejemplo dos electrones), y asumamos
que la interaccion no depende del espn, de modo que los estados de espn de las dos partculas se conservan en el
proceso. Si los estados de espn de las dos partculas son ortogonales entre s, tales estados serviran para distinguir
entre las dos partculas para todo tiempo, como si las partculas fueran de distinta naturaleza.
Para verlo, usaremos el calculo realizado en la seccion 26.11.2, agregando apropiadamente los estados de espn.
El ket fsico inicial (26.68) junto con las variables de espn se escribira por ejemplo en la forma
1 E
(1) (2)
|i i = (1 P21 ) pu3 , (+)(1) ; pu3 , ()(2) (26.76)
2
donde los smbolos + y indican espn arriba y abajo respectivamente. El estado final (26.71) con las variables
de espn se escribira como E
1
|f i = (1 P21 ) pn(1) , (+)(1) ; pn(2) , ()(2) (26.77)
2
ahora bien, si la interaccion es independiente del espn, entonces el Hamiltoniano H y por tanto el operador
evolucion temporal seran independientes de las variables de espn. En consecuencia el operador U (t1 , t0 ) no puede
cambiar las variables de espn de un ket o un bra. Esto implica que
D E
(1) (2)
pn(1) , ()(1) ; pn(2) , (+)(2) U (t1 , t0 ) pu3 , (+)(1) ; pu3 , ()(2) = 0 (26.78)

ya que U (t1 , t0 ) no cambia los estados de espn de modo que estos continuan siendo ortogonales. La Ec. (26.78)
implica que el termino de intercambio en la Ec. (26.74) se anula, quedando
D E
(1) (2)
hf | (t1 )i = pn(1) , (+)(1) ; pn(2) , ()(2) U (t1 , t0 ) pu3 , (+)(1) ; pu3 , ()(2) (26.79)

Se obtiene entonces el mismo resultado si tratamos a las dos partculas como diferentes, es decir si no antisimetri-
zamos los kets inicial y final, y si asociamos el ndice (1) con el estado de espn |+i y el ndice (2) con el estado
de espn |i. Esta argumentacion deja de ser valida si U (t1 , t0 ) [o equivalentemente el Hamiltoniano], dependen
de variables de espn.
Captulo 27

Atomos de muchos electrones y


aproximacion de campo central

El estudio del atomo de hidrogeno es relativamente simple debido a que es un atomo con un solo electron. Por
un lado, esto permite reducir el problema a un problema de dos cuerpos desacoplados en donde solo la dinamica de
un cuerpo es no-trivial y este ultimo esta sometido a una fuerza central. Adicionalmente, el principio de exclusion
de Pauli no es relevante. En este captulo se estudiaran atomos de muchos electrones para los cuales el problema
es mucho mas complejo debido a que incluso en el sistema de referencia del centro de masa, el problema continua
siendo acoplado (no se puede reducir al problema de varias partculas imaginarias desacopladas), y el principio de
exclusion de Pauli juega un papel esencial ya que tenemos Z fermiones identicos (electrones).
Consideremos un atomo de Z electrones. Puesto que el nucleo es mucho mas masivo que los electrones, vamos
a despreciar la dinamica de los nucleos y asumiremos que la posicion de este coincide con la posicion del centro
de masa del sistema. En lo que sigue no consideraremos los efectos relativistas y en particular no incluiremos los
terminos de espn. El Hamiltoniano que describe el movimiento de los Z electrones vendra dado por
Z
X Z
X Z1 Z
P2i Ze2 X X e2 q2
H= + ; e2 (27.1)
2me Ri |Ri Rj | 40
i=1 i=1 i=1 j=i+1

los electrones se han numerado arbitrariamente de 1 a Z. El primer termino en el Hamiltoniano es la energa


cinetica total del sistema de Z electrones, el segundo describe la atraccion que el nucleo ejerce sobre cada electron
del sistema. Finalmente, el tercer termino se refiere a la repulsion de los electrones entre s. Notese que la suma en
el tercer termino contiene Z (Z 1) /2 sumandos que corresponden a todos los pares posibles de electrones. Este
Hamiltoniano es simetrico bajo el intercambio i j como lo requiere el postulado de simetrizacion.
Notese que en ausencia del tercer termino en (27.1), el Hamiltoniano queda
Z
X Z
X
P2i Ze2
Ha =
2me Ri
i=1 i=1

para este Hamiltoniano de partculas no interactuantes, pueden determinarse con facilidad sus kets y valores
propios. Como se discutio en el ejemplo
E 6.1, Pag. 246, en este caso el problema se desacopla. Calculando los
(i) (i)
valores propios Eni y kets propios ni para el operador Hi asociado a cada valor de i

P2i Ze2
Hi =
2me Ri
se puede construir un conjunto de kets y valores propios de H0 en la forma
Z
X E E E
(2) (Z)
En = En(i)i ; |n i = n(1)
1
n2 nZ
i=1

620
27.1. APROXIMACION DE CAMPO CENTRAL 621

y solo resta antisimetrizar el producto tensorial para cumplir con el postulado de simetrizacion. Sin embargo,
la introduccion de la interaccion hace que este desacople ya no sea posible. A priori podra pensarse en tratar
al termino de interaccion como una perturbacion. No obstante, es de esperarse que la distancia relativa entre
electrones este en promedio en el mismo orden de magnitud que la distancia promedio entre cada electron y el
nucleo. El cociente entre el termino de interaccion repulsiva y el de atraccion hacia el nucleo tendra el siguiente
orden de magnitud

Z
X Z
Ze2 1 X 2 Z 2 e2
kHnuc k = Ze
Ri hRi hRi
i=1 i=1
Z1
X Z
X Z1
X X Z
e2 1 1 Z (Z 1) e2
kHint k = e2
|Ri Rj | h|Ri Rj |i hRi 2
i=1 j=i+1 i=1 j=i+1

Hint (Z 1)

Hnuc 2Z

este cociente vara entre 1/4 para Z = 2, y 1/2 para Z 1. Por tanto, ambos Hamiltonianos son del mismo orden
de magnitud, de modo que una tratamiento perturbativo escasamente funciona en forma muy aproximada (y poco
confiable) para el atomo de Helio con Z = 2. Para atomos de muchos electrones la aproximacion perturbativa
sera aun peor. Por esta razon debemos recurrir a metodos alternativos. Uno de los mas utilizados es la llamada
aproximacion de campo central, que describiremos a continuacion.

27.1. Aproximacion de campo central

Para desarrollar el metodo recurriremos a una imagen semi-clasica. Un electron dado (i), se mueve bajo la
influencia repulsiva de los otros Z 1 electrones que compensan parcialmente la interaccion atractiva del nucleo.
En esta aproximacion, se considera que el electron (i) se mueve bajo la influencia de un potencial que solo
depende de su posicion ri que tiene en cuenta a la fuerza atractiva nuclear y al efecto promedio de los electrones
restantes. Podemos adicionalmente hacer la suposicion de que dicho potencial solo depende de la magnitud de
ri . Denotando este potencial como Vc (ri ), esta suposicion adicional implica que la fuerza resultante es central, al
menos en promedio. Por esta razon hablamos de una aproximacion de campo central. Esta aproximacion esta
ignorando efectos tales como el hecho de que el movimiento del electron (i) influye sobre la distribucion electronica
restante, cambiando a su vez al potencial en el cual esta inmerso el electron (i), es decir hay una correlacion entre
el electron en cuestion y los electrones restantes. Por otro lado, la interaccion no es exactamente central. Por
ejemplo, un electron muy cercano tendra una interaccion dominante con respecto a los otros, y la repulsion no
es en general colineal con la fuerza de atraccion del nucleo, en cuyo caso la suma vectorial no corresponde a una
fuerza central. Sin embargo, en esta imagen clasica (ya que implcitamente hemos supuesto los electrones como
localizados), es razonable una aproximacion de campo central si tomamos un promedio sobre un tiempo mucho
mayor al periodo de revolucion de los electrones.
En un escenario cuantico, los electrones ya no estan localizados y la imagen de una nube electronica distribuda
por todo el espacio hace que la aproximacion de campo central funcione mejor que en el escenario clasico. Ya no
es necesario tomar un promedio en el tiempo para que la aproximacion central sea razonable. El promedio sobre
la distribucion espacial puede dar cuenta de esta aproximacion.
622 CAPITULO 27. ATOMOS DE MUCHOS ELECTRONES Y APROXIMACION DE CAMPO CENTRAL

Para tener en cuenta la anterior discusion escribiremos el Hamiltoniano (27.1) en la forma


Z
X Z
X Z
X Z
X Z1 Z
P2i Ze2 X X e2
H = + Vc (Ri ) Vc (Ri ) +
2me Ri |Ri Rj |
i=1 i=1 i=1 i=1 i=1 j=i+1
H = H0 + W (27.2)
Z
X Z
X Z
X Z
X Z1
X Z
X
P2i Ze2 e2
H0 + Vc (Ri ) , W Vc (Ri ) + (27.3)
2me Ri |Ri Rj |
i=1 i=1 i=1 i=1 i=1 j=i+1

las Ecs. (27.2, 27.3) son validas para cualquier valor de Vc (Ri ), de modo que no determinan a dicho potencial.
Sin embargo, una escogencia adecuada de Vc (Ri ), sera una en la cual |W | |H0 |, de manera que W se pueda
tratar como una perturbacion. H0 sera el Hamiltoniano no perturbado, que se resuelve con facilidad dado que
es un Hamiltoniano de partculas independientes. Bastara con resolver el problema de valores propios de un
Hamiltoniano de un electron
P2
Hb + Vc (R) (27.4)
2me
La determinacion de un potencial Vc (Ri ) optimo es un problema muy complejo, debido a la correlacion entre
el electron para el cual se evalua el potencial y la nube electronica restante. La idea es llegar a una solucion
autoconsistente, es decir que las funciones de onda que se determinan con Vc (Ri ) deben predecir una distribucion
de carga que reconstituya al mismo potencial (al menos aproximadamente).
Si bien la determinacion del potencial Vc (r) es muy compleja, un analisis cualitativo nos muestra como debe
ser el comportamiento asintotico de Vc (r). Para valores muy pequenos de r, el electron (i) esta dentro de la nube
electronica creada por los otros electrones de modo que solo siente el potencial atractivo debido al nucleo1 . Por
otro lado para r muy grande, el electron (i) esta esencialmente por fuera de la nube electronica formada por la
contribucion de los Z 1 electrones restantes. En este caso el electron siente el equivalente a una carga puntual
situada en el origen igual a la suma algebraica de la carga del nucleo mas la de la nube de (Z 1) electrones.
Podemos entonces resumir el comportamiento asintotico de la siguiente manera
e2
Vc (r) para r grande (27.5)
r
Ze2
Vc (r) para r pequeno (27.6)
r
Para valores intermedios de r se requiere la determinacion completa del potencial. La Fig. 27.1, muestra un
potencial tpico de Vc (r) descrito por la lnea contnua junto con las lneas asintoticas (lneas punteadas) definidas
por las Ecs. (27.5, 27.6). Esta figura muestra efectivamente que el potencial tiende a la funcion (27.5) para r
grande y a la funcion (27.6) para r pequeno.
As mismo podemos extraer informacion cualitativa del espectro. Puesto que Vc (r) es central, es valida toda la
discusion realizada en el captulo 12. En particular, este problema posee las degeneraciones esenciales propias de la
naturaleza central de la interaccion [ver seccion 12.6.1, Pag. 354], de manera que los autovalores del Hamiltoniano
(27.4) dependen de los numeros cuanticos n y l, pero no del numero cuantico m. Puesto que Vc (r) no es en general
coulombiano, no estaran presentes las degeneraciones accidentales propias de este potencial [ver seccion 13.6, Pag.
368]. l caracteriza al valor propio de L2 y n es la suma del numero cuantico l mas el numero cuantico radial k que
se introdujo al resolver la ecuacion radial para un l dado [ver Ecs. (12.37), Pag. 352]. Los numeros cuanticos n y
l son enteros (recordemos que no hemos introducido el espn), y satisfacen la condicion
0l n1 (27.7)
1
En una imagen semi-clasica, si pensamos que el electron (i) (asumido como puntual) esta inmerso en una nube electronica esferi-
camente simetrica, los cascarones externos al electron (i) no contribuyen al campo. Solo contribuye la carga neta de la nube
electronica interna, es decir la nube localizada entre 0 r < ri , siendo ri la posicion del electron en cuestion. Si ri es mucho menor
que el radio de Bohr, podemos despreciar la fraccion de carga electronica que esta en tal intervalo radial, comparada con la carga del
nucleo.
27.1. APROXIMACION DE CAMPO CENTRAL 623

Figura 27.1: Perfil tpico del potencial Vc (r) como funcion de r. La lnea contnua representa el perfil comple-
to de este potencial, y las lneas punteadas son las funciones definidas en las Ecs. (27.5, 27.6) que definen el
comportamiento asintotico de dicho potencial.

Para un valor dado de l, las energas se incrementan con n

En,l > En ,l si n > n (27.8)

Por otro lado, para un valor fijo de n, la energa es mas baja cuando el autoestado esta asociado a una capa mas
profunda. Es decir, cuando la densidad de probabilidad del electron en la vecindad del nucleo es mayor, en este
caso el efecto de apantallamiento debido a la nube electronica es muy pequeno como ya se discutio. Las energas
En,l asociadas con el mismo valor de n se pueden ordenar en el orden en el cual se aumenta el momento angular

En,0 < En,1 < En,2 < . . . < En,n1 (27.9)

Podemos entender la jerarqua (27.9) teniendo en cuenta que en un analogo clasico un valor menor de l (para
el mismo n) significa menor parametro de impacto, de modo que el electron estara en una capa mas profunda.
Ocurre que en general la jerarqua de los estados es aproximadamente la misma para todos los atomos. Si bien
los valores especficos de las energas dependen de Z. La Fig. 27.2 muestra esta jerarqua e ilustra la degeneracion
esencial de orden 2 (2l + 1), donde el factor de 2 se debe al espn. Los estados dentro del mismo corchete esta muy
cercanos el uno al otro y de hecho para algunos atomos practicamente coinciden, dentro de estos estados muy
cercanos las posiciones relativas pueden variar de un atomo a otro. Es importante mencionar que esta figura solo
muestra posiciones relativas de los estados pero no brinda ninguna informacion sobre los valores especficos de las
energas.
Hay diferencias notables con respecto al espectro del atomo de Hidrogeno. Esto se deriva del hecho de que en
el presente contexto la energa depende de los numeros cuanticos n y l. Esto hace que el orden de los estados sea
diferente. Por ejemplo, la Fig. 27.2 muestra que la capa 4s tiene una energa ligeramente menor que la de la capa
3d (en el atomo de Hidrogeno es al contrario puesto que la energa solo depende de n), esto tiene que ver con que
la funcion de onda 4s es mas penetrante (i.e. pertenece a una capa mas profunda) debido a que pertenece a
un menor momento angular. Inversiones similares se ven entre otras capas. Esto nos muestra la importancia del
efecto repulsivo entre los electrones.
624 CAPITULO 27. ATOMOS DE MUCHOS ELECTRONES Y APROXIMACION DE CAMPO CENTRAL

Figura 27.2: Representacion de la posicion relativa de los niveles de energa electronicos en un potencial central
del tipo Vc (r). La degeneracion de cada nivel se indica en parentesis. Los niveles dentro de un corchete estan muy
cercanos entre s. Al lado derecho se escriben los smbolos de los atomos para los cuales la capa electronica que
aparece en la misma lnea corresponde a la capa mas externa ocupada en el estado base.

27.2. Configuraciones electronicas de los atomos


En la aproximacion de campo central, despreciamos la contribucion de la perturbacion W en las Ecs. (27.2,
27.3) y calculamos los autoestados del Hamiltoniano H0 descrito por dichas ecuaciones. Puesto que los autoestados
surgen de la antisimetrizacion del producto tensorial de las soluciones de partcula individual, tales autoestados
estan descritos por un determinante de Slater. El estado base del atomo se obtiene cuando los Z electrones
ocupan los estados de energa mas bajos compatibles con el principio de exclusion de Pauli. El maximo numero de
electrones que puede tener un nivel de energa dado En,l es la degeneracion 2 (2l + 1) de dicho nivel. El conjunto
de estados individuales asociados a una energa dada En,l se denomina una capa. La configuracion electronica
describe cuales capas estan ocupadas y cuantos electrones posee cada capa. La caracterizacion de las funciones de
onda y los niveles de energa asociados, permiten conocer el numero de enlaces formados por los atomos, as como
su geometra y estabilidad.
Para determinar la configuracion electronica del estado base, se llenan las capas sucesivas desde el nivel 1s
en forma sucesiva en el orden indicado en la Fig. 27.2, hasta que se agoten los Z electrones.
Por ejemplo, en el estado base del atomo de Hidrogeno, el unico electron del atomo ocupa el nivel 1s. En el
atomo de Helio con Z = 2, la configuracion electronica consiste en los dos atomos ocupando el mismo nivel 1s,
uno con espn arriba y el otro con espn abajo para ser compatible con el principio de exclusion

He : 1s2

la notacion espectroscopica indica entonces que los dos electrones ocupan estados ortogonales de la capa 1s, con
la misma funcion espacial pero espinores ortogonales. Para el Litio con Z = 3, la configuracion electronica viene
27.2. CONFIGURACIONES ELECTRONICAS DE LOS ATOMOS 625

dada por
Li : 1s2 , 2s
ya que la capa 1s solo puede aceptar dos electrones y el tercer electron debe ir al nivel inmediatamente superior,
que de acuerdo con la Fig. 27.2 es el nivel 2s. Para el caso del Berilio (Z = 4), la configuracion electronica es

Be : 1s2 , 2s2

ya que la capa 2s puede aceptar otro electron. Para Z > 4, se procede al llenado de las capas superiores hasta
agotar los Z electrones, llenando las capas 2p, 3s, 3p etc. En la figura 27.2, se muestra en el lado derecho los
smbolos de los elementos para los cuales la capa en cuestion es la mas externa, cuando los atomos estan en el
estado base. Esta es la clasificacion de la tabla periodica de Mendeleev. Debe tenerse en cuenta sin embargo, que
los niveles que aparecen dentro de los corchetes en la Fig. 27.2 estan muy cercanos entre s, y su llenado puede
ocurrir en forma irregular. Por ejemplo, aunque en la figura 27.2 el nivel 4s aparece debajo del nivel 3d, para el
cromo (Z = 24) hay 5 electrones en la capa 3d a pesar de que la capa 4s esta incompleta

Cr : 1s2 , 2s2 , 2p6 , 3s2 , 3p6 , 4s1 , 3d5

irregularidades similares ocurren para el cobre (Z = 29), Niobio (Z = 41), etc.


Cuando todas las capas estan llenas, hay tantos estados individuales ortogonales como electrones. En otras
palabras, hay solo un determinante de Slater no-nulo asociado a configuraciones con todas las capas llenas (o
capas cerradas). En consecuencia, el estado base de los gases nobles (ns2 , np6 . . .) es no-degenerado al igual que
el de las tierras alcalinas (. . . , ns2 ).
Por otro lado, si el numero de electrones externos es menor que el grado de degeneracion de la capa mas
externa, el estado base del atomo es degenerado. Para los alcalinos (. . . , ns), hay una degeneracion de 2, para el
carbono (1s2 , 2s2 , 2p2 ) la degeneracion es C62 = 15, puesto que los estados individuales se pueden escoger de los
seis estados ortogonales que constituyen la capa 2p.
Adicionalmente, puede demostrarse que para una capa completa todos los momentos angulares electronicos
netos (orbital, de espn y total) son cero2 . Por tanto el momento angular electronico de un atomo3 , es debido solo
a los electrones externos. Tal momento angular es entonces nulo para los gases nobles y las tierras alcalinas, en
tanto que para metales alcalinos el momento angular total electronico sera 1/2, puesto que poseen un solo electron
externo, cuyo momento angular orbital es cero y cuyo espn es 1/2.
Ahora bien, los estados excitados de mas baja energa del Hamiltoniano H0 en la aproximacion de campo
central, se obtienen cuando se mueve uno de los electrones a una estado individual de energa mas alto que la
ultima capa ocupada en el estado base. Hemos dicho los estados excitados de mas baja energa, puesto que el
electron que se mueve y los otros electrones de la capa mas externa del estado base, no estan en general llenando
capas, y por tanto hay varios estados ortogonales asociados a la energa del primer estado excitado. Por ejemplo,
el primer estado excitado del atomo de Helio posee la configuracion electronica

He : 1s, 2s

2
Veremos esta caracterstica para el atomo de Helio en el estado base [ver Ec. (28.9) Pag. 628 y discusion posterior].
3
El momento angular del atomo debe adicionar al momento angular de la nube electronica, el momento angular del nucleo.
Captulo 28

El atomo de Helio

Estudiaremos el atomo de Helio en el marco de la aproximacion de campo central. Teniendo en cuenta solo la
interaccion electrostatica, el Hamiltoniano del atomo de Helio se escribe como

P21 P2 2e2 2e2 e2


H= + 2 + (28.1)
2me 2me R1 R2 |R1 R2 |
De acuerdo con la estrategia desarrollada en el captulo 27, escribiremos el Hamiltoniano del atomo de Helio en
la forma

H = H0 + W (28.2)
P21 P2
H0 + 2 + Vc (R1 ) + Vc (R2 ) (28.3)
2me 2me
2e2 2e2 e2
W = + Vc (R1 ) Vc (R2 ) (28.4)
R1 R2 |R1 R2 |
donde el potencial central Vc (Ri ) se elige adecuadamente para que W se pueda considerar una pequena correccion
(perturbacion)1 con respecto a H0 . Como primer paso, se desprecia la contribucion de W (aproximacion de
campo central) lo cual nos lleva a estudiar las configuraciones electronicas del atomo bajo esta aproximacion.
Posteriormente, se estudia la correccion de W via teora estacionaria de perturbaciones.

28.1. Configuraciones del atomo de Helio


Cuando se desprecia W , los electrones se pueden considerar independientes. Sin embargo, parte de la contri-
bucion de la repulsion estatica promedio esta implcitamente includa en el potencial central Vc .
De acuerdo con la discusion de la seccion 27.1, las configuraciones del atomo de Helio en la aproximacion de
campo central (en la cual los electrones estan embebidos en un campo central Vc ), se especifican a traves de los
numeros cuanticos n, l y n , l de los dos electrones. La energa electronica total es entonces

Ec = En,l + En ,l (28.5)

De acuerdo con la Fig. 27.2, la configuracion del estado base consiste en los dos electrones en la capa 1s, denotandose
entonces como la configuracion 1s2 . El primer estado excitado se obtiene cuando uno de los electrones esta en
la capa 1s y el otro en la capa 2s, la configuracion electronica es entonces 1s, 2s. El segundo estado excitado
corresponde a la configuracion 1s, 2p.
Las configuraciones excitadas del atomo de Helio tienen la forma 1s, n l . Sin embargo, tambien existen
configuraciones nl, n l doblemente excitadas en las cuales ambos electrones estan en estados excitados. No
1
Por supuesto, la simetra nos indica que Vc (R1 ) y Vc (R2 ) deben tener la misma forma funcional.

626
28.1. CONFIGURACIONES DEL ATOMO DE HELIO 627

obstante, en el caso del Helio la energa total de estas configuraciones es mayor que la energa de ionizacion del
atomo, es decir la energa necesaria para pasar del estado 1s2 al estado 1s, n l con n . En consecuencia, los
estados doblemente excitados son muy inestables, ya que tienden a disociarse rapidamente en un electron y un ion,
razon por la cual suelen denominarse estados de autoionizacion. Sin embargo, existen configuraciones doblemente
excitadas que no son autoionizantes, pero que decaen emitiendo fotones. Algunas de las correspondientes lneas
espectrales han sido observadas experimentalmente.

28.1.1. Degeneracion de las configuraciones


Puesto que Vc es central, la energa de las configuraciones no depende de los numeros cuanticos m y m donde

l m l ; l m l

adicionalmente, puesto que Vc no depende del espn, la energa tampoco depende de los numeros cuanticos y
con = 1/2 y = 1/2. Por esta razon, la mayor parte de las configuraciones son degeneradas.
Para calcular la degeneracion, tendremos en cuenta que un estado perteneciente a una configuracion esta
definida por 8 numeros cuanticos (cuatro para cada electron) dados por (n, l, m, ) y (n , l , m , ). Puesto que los
electrones son fermiones identicos, debe tenerse en cuenta el postulado de simetrizacion y el consecuente principio
de exclusion de Pauli. El estado fsico (antisimetrizado) estara dado por
E
n, l, m, ; n , l , m , = 1 (1 P21 ) n(1) , l(1) , m(1) , (1) ; n(2) , l(2) , m(2) , (2) (28.6)
2

el principio de exclusion de Pauli prohibe los estados con identicos numeros cuanticos n = n , l = l , m = m
y = . El conjunto de kets fsicos para n, l; n l fijos forma un subespacio E (n, l; n , l ) del espacio EA , donde
dicho subespacio esta asociado con la configuracion n, l; n l . Una base ortonormal del subespacio E (n, l; n , l ) nos
dara el grado de degeneracion del correspondiente nivel de energa. Para evaluar el grado de degeneracion de una
configuracion nl; n l dada, debemos distinguir dos casos:

Electrones en diferentes capas


Cuando los dos electrones no estan en la misma capa. Es decir no se cumple la condicion n = n y l = l . En tal
caso, ya que al menos uno de los numeros cuanticos n, l de los dos electrones es diferente, los estados individuales
nunca coinciden y por tanto m, m y , pueden tomar de forma independiente cualquier valor. Por tanto, la
degeneracion esta dada por
  
gnl,n l = [2 (2l + 1)] 2 2l + 1 = 4 (2l + 1) 2l + 1 ; si n 6= n o l 6= l (28.7)

por ejemplo, la degeneracion de la configuracion 1s, 2s (primer estado excitado) es 4, y la degeneracion de la


configuracion 1s, 2p (segundo estado excitado) es 12.

Electrones en la misma capa


Cuando los dos electrones estan en la misma capa se tiene que n = n y l = l . En tal caso deben excluirse los
estados con m = m y = . El numero total de estados individuales es 2 (2l + 1). Para calcular el numero total de
estados compatibles con el principio de exclusion de Pauli podemos proceder de la siguiente forma: consideremos
un estado de dos partculas de la forma 
(n, l, m, ) n, l, m ,
podemos proceder a recorrer independientemente a los pares (m, ) y (m , ) lo cual nos da un total de [2 (2l + 1)]
[2 (2l + 1)] estados. Ahora contamos los estados que no son compatibles con el principio de exclusion, es decir tal
que m = m y = , para dichos estados el espn solo toma dos valores y la tercera componente de momento
628 CAPITULO 28. EL ATOMO DE HELIO

angular toma 2l + 1 valores, para un total de 2 (2l + 1) estados. Sustrayendo los estados que violan el principio de
exclusion de los anteriores tenemos

[2 (2l + 1)] [2 (2l + 1)] 2 (2l + 1) = 2 (2l + 1) (4l + 1)

sin embargo, al recorrer los numeros cuanticos de manera independiente hacemos un doble conteo de cada estado,
ya que el estado de dos partculas (n, l, m, ) (n, l, m , ) es igual al estado (n, l, m , ) (n, l, m, ). El presente
conteo esta tomando los dos en cuenta como si fueran diferentes, por tanto debemos dividir el anterior resultado
por dos2 , con lo cual obtenemos
gnl2 = (2l + 1) (4l + 1) (28.8)
Otra forma de verlo es la siguiente: dado el conjunto fijo de numeros cuanticos (n, l, m, ), hay [2 (2l + 1) 1]
estados del tipo (n, l, m , ) compatibles con el principio de exclusion, ya que el numero de estados de la forma
(n, l, m , ) es 2 (2l + 1) pero uno de ellos (cuando m = m y = ) viola dicho principio. Por otro lado, hay
2 (2l + 1) estados del tipo (n, l, m, ), con lo cual el numero de estados en el conteo sera

[2 (2l + 1)] [2 (2l + 1) 1] = 2 (2l + 1) (4l + 1)

una vez mas este conteo toma en cuenta dos veces al mismo estado y el resultado debe dividirse por dos, con lo
cual se reproduce de nuevo la Ec. (28.8).

Example 28.1 La configuracion 1s2 (estado base) no es degenerada. En tal caso es util realizar la expansion del
determinante de Slater correspondiente a la configuracion. Si en la Ec. (28.6) hacemos

n = n = 1, l = l = m = m = 0, = (+) , = ()

podemos escribir
1 E
1, 0, 0, ; 1, 0, 0, =
(1 P21 ) 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , ()(2)
2
1 h (1) (1) (1) E
= 1 , 0 , 0 , (+)(1) ; 1(2) , 0(2) , 0(2) , ()(2)
2
Ei

1(2) , 0(2) , 0(2) , (+)(2) ; 1(1) , 0(1) , 0(1) , ()(1)
1 h E
= 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , ()(2)
2
Ei

1(1) , 0(1) , 0(1) , ()(1) ; 1(2) , 0(2) , 0(2) , (+)(2)

podemos factorizar la parte espacial y escribir


h E Ei
E (1) (2) (1) (2)
(+) ; () () ; (+)
1, 0, 0, ; 1, 0, 0, = 1(1) , 0(1) , 0(1) ; 1(2) , 0(2) , 0(2) (28.9)
2
en la componente espinorial de la Ec. (28.9) reconocemos el estado singlete |S = 0, MS = 0i que surge de las reglas
de adicion para S = S(1) + S(2) , cuando s(1) = s(2) = 1/2 [ver Ec. (16.32) Pag. 412]. Conclumos que aunque el
Hamiltoniano H0 no depende de variables de espn, las ligaduras introducidas por el postulado de simetrizacion
requieren que el espn total del estado base sea S = 0. Notese que de acuerdo con (28.8) ninguna configuracion
con l = 0, sera degenerada independientemente del valor de n.
2
Notese que este problema de doble conteo no aparece cuando los dos electrones son de capas diferentes. Esto se debe a que en el
conteo, el intercambio es solo de los numeros cuanticos (m, ) (m , ). Por tanto, los estados (n, l, m, ) (n , l , m , ) son diferentes
a los estados (n, l, m , ) (n , l , m, ) cuando (n, l) es diferente de (n , l ).
28.2. EFECTO DE LA REPULSION ELECTROSTATICA 629

(2, 1, 1, +) (2, 1, 1, ) (2, 1, 1, ) (2, 1, 1, +)


(2, 1, 1, +) (2, 1, 0, +) (2, 1, 1, ) (2, 1, 0, +)
(2, 1, 1, +) (2, 1, 0, ) (2, 1, 1, ) (2, 1, 0, )
(2, 1, 1, +) (2, 1, 1, +) (2, 1, 1, ) (2, 1, 1, +)
(2, 1, 1, +) (2, 1, 1, ) (2, 1, 1, ) (2, 1, 1, )
(2, 1, 0, +) (2, 1, 1, +) (2, 1, 0, ) (2, 1, 1, +)
(2, 1, 0, +) (2, 1, 1, ) (2, 1, 0, ) (2, 1, 1, )
(2, 1, 0, +) (2, 1, 0, ) (2, 1, 0, ) (2, 1, 0, +)
(2, 1, 0, +) (2, 1, 1, +) (2, 1, 0, ) (2, 1, 1, +)
(2, 1, 0, +) (2, 1, 1, ) (2, 1, 0, ) (2, 1, 1, )
(2, 1, 1, +) (2, 1, 1, +) (2, 1, 1, ) (2, 1, 1, +)
(2, 1, 1, +) (2, 1, 1, ) (2, 1, 1, ) (2, 1, 1, )
(2, 1, 1, +) (2, 1, 0, +) (2, 1, 1, ) (2, 1, 0, +)
(2, 1, 1, +) (2, 1, 0, ) (2, 1, 1, ) (2, 1, 0, )
(2, 1, 1, +) (2, 1, 1, ) (2, 1, 1, ) (2, 1, 1, +)

Cuadro 28.1: Conteo de la degeneracion asociada a dos electrones en el atomo de Helio que estan en la misma
capa con n = n = 2 y l = l = 1. En este conteo aparecen 30 estados pero en virtud de la duplicacion, solo 15 de
ellos son estados fscamente diferentes.

Example 28.2 Veamos el caso de dos electrones en la misma capa con n = n = 2 y l = l = 1. Para cada estado
con (2, 1, m, ) fijo, hay 5 estados del tipo (2, 1, m , ) compatibles con el principio de exclusion de Pauli, ademas
hay 6 estados de la forma (2, 1, m, ), con lo cual el conteo nos arroja 30 estados. El lector puede sin embargo
apreciar que cada estado aparece dos veces. Por ejemplo aparecen (2, 1, 1, +) (2, 1, 1, ) y (2, 1, 1, ) (2, 1, 1, +). Hay
entonces en total 15 estados fsicamente diferentes con la misma energa. El procedimiento de conteo se aprecia
en la tabla 28.1

28.2. Efecto de la repulsion electrostatica


El siguiente paso es estudiar el efecto de W usando teora estacionaria de perturbaciones. Para ello, debemos
diagonalizar la restriccion de W dentro del subespacio E (n, l; n l ). Los autovalores de la correspondiente matriz
nos daran la correccion a primer orden en W de la energa Ec . Los autoestados asociados son de orden cero en
W . Veremos que para calcular la matriz representativa de la restriccion de W , podemos escoger una base en la
cual dicha matriz ya es diagonal.

28.2.1. Base de E (n, l; n , l ) adaptada a las simetras de W


Nuestro Hamiltoniano tiene la forma del Hamiltoniano (16.5) Pag. 405

H = H1 (P1 , R1 ) + H2 (P2 , R2 ) + W (|R2 R1 |) (28.10)

En la seccion 16.2.1, Pag. 404 vimos que un Hamiltoniano de la forma (28.10) no conmuta con L(1) ni con L(2)
pero s conmuta con L(1) + L(2) . Las Ecs. (16.3, 16.8) nos dicen que para un Hamiltoniano de la forma (28.10)
tenemos que h i
Hi , L(k) = [H, L] = [W (|R2 R1 |) , L] = 0 ; L L(1) + L(2) ; i, k = 1, 2 (28.11)

en particular  
e2
[W, L] = ,L = 0 (28.12)
R12
630 CAPITULO 28. EL ATOMO DE HELIO

de modo que el momento angular total es una constante de movimiento, en tanto que el momento angular de cada
electron no lo es. Esto esta asociado al hecho de que una rotacion que involucre a los dos electrones no cambia la
distancia relativa R12 entre ellos. En contraste, una rotacion que involucre a un solo electron cambiara en general
a la cantidad R12 .
Adicionalmente, puesto que ni H ni W dependen de variables de espn, conmutaran con cualquier operador
de espn. En particular, tenemos que
[W, S] = 0 ; S S(1) + S(2) (28.13)
Por tanto, los operadores
L2 , S2 , L3 , S3 , W
forman un conjunto de observables conmutantes. Mostraremos que de hecho L2 , S2 , L3 , S3 forman un C.S.C.O.
en el subespacio E (n, l; n , l ) de EA . La tarea sera entonces encontrar una base comun de vectores propios de los
observables L2 , S2 , L3 , S3 y construr con ellos la representacion matricial de la restriccion de W al subespacio
E (n, l; n , l ) de EA .
Para ello recordamos que el espacio de Hilbert total E es el producto tensorial E (1) E (2) relativo a una
numeracion arbitraria de los electrones. El subespacio E (n, l; n , l ) de EA se puede obtener antisimetrizando los
kets del subespacio En,l (1) En ,l (2) de E. Por tanto elegimos una base del subespacio En,l (1) En ,l (2) en la
forma n E E  o
(1) (1) (1) (1)
n , l , m , n(2) , l (2) , m(2) , (2) ; con (n, l) , n , l fijos (28.14)

con los cuales obtenemos los kets fsicos (28.6) antisimetrizando. Notese que en terminos de momento angular
orbital y de espn, los vectores (28.14) forman una base desacoplada, en la cual los numeros cuanticos que estan
bien definidos son momentos angulares parciales tanto en el sentido orbital y de espn, como en el sentido de que
estan asociados a cada partcula.
Sin embargo, las reglas de adicion del momento angular permiten definir otra base para el subespacio En,l (1)
En ,l (2) compuesta por vectores propios comunes a L2 , S2 , L3 , S3 definida completamente por la especificacion de
los correspondientes valores propios3 . Esta base la denotaremos en la forma
n E o
(1) (1) (2) (2)
n , l , n , l ; L, ML |S, MS i (28.15)

donde las reglas de adicion de momentos angulares nos dicen que



L = l + l , l + l 1, . . . , l l ; S = 1, 0 (28.16)

Ahora bien, de las expresiones


h i2 h i2
L2 = L(1) + L(2) , S2 = S(1) + S(2)
(1) (2) (1) (2)
L3 = L3 + L3 , S3 = S3 + S3

se observa que L2 , S2 , L3 , S3 son operadores simetricos ya que todos ellos son invariantes bajo la permutacion P21
de las dos partculas4 . Por tanto, tales operadores conmutan con P21 . Esto a su vez implica que L2 , S2 , L3 , S3
conmutan con el operador antisimetrizador total. Por tanto, los vectores que resultan de la antisimetrizacion de
(28.15) continuan siendo autovectores de L2 , S2 , L3 , S3 con los mismos valores propios, aunque algunos de ellos
podran aniquilarse al ser proyectados sobre EA , en cuyo caso el estado fsico queda descartado por el principio
de exclusion de Pauli, y no formara parte de la base del subespacio E (n, l; n , l ) que estamos construyendo. Los
vectores no nulos que se obtienen al antisimetrizar a los vectores (28.15) son ortogonales puesto que corresponden
3
Esta es una base acoplada en el sentido de las partculas. Pero en la que permanecen desacoplados los momentos angulares orbital
y de espn.
4
Recordemos que esta condicion garantiza que estos operadores son observables adecuados para partculas identicas. Ver seccion
26.9.1, Pag. 609.
28.2. EFECTO DE LA REPULSION ELECTROSTATICA 631

a autovalores diferentes de al menos uno de los cuatro observables involucrados. Puesto que tales vectores anti-
simetricos expanden a E (n, l; n , l ), ellos constituyen una base ortonormal de dicho subespacio, que denotamos en
la forma n E o

n, l, n , l ; L, ML ; S, MS ; con (n, l) , n , l fijos (28.17)

con E n E o

n, l, n , l ; L, ML ; S, MS = c (1 P21 ) n(1) , l(1) , n(2) , l (2) ; L, ML |S, MS i (28.18)

siendo c una constante de normalizacion. Por tanto, L2 , S2 , L3 , S3 forman un C.S.C.O. en el subespacio E (n, l; n , l )
de EA .
(S)
Introduciremos ahora el operador permutacion P21 que actua solo sobre el espacio de espn
E E
(S)
P21 (1) ; (2) (1) ; (2) (28.19)

Ahora bien, en la seccion 16.4.3 vimos que la base acoplada de espn |S, MS i para s1 = s2 = 1/2 consta de un
singlete con S = M = 0
1
|0, 0i = [|+, i |, +i] (28.20)
2
y un triplete con S = 1 y tres valores distintos de MS

1
|1, 1i = |+, +i ; |1, 0i = [|+, i + |, +i] ; |1, 1i = |i (28.21)
2

ademas en dicha seccion vimos que el estado singlete es antisimetrico bajo el intercambio de y en tanto que los
estados del triplete son simetricos bajo tal intercambio, como se ve claramente de las Ecs. (28.20, 28.21). Podemos
sintetizar estos resultados con la ecuacion
(S)
P21 |S, MS i = (1)S+1 |S, MS i (28.22)

(0)
si ahora definimos la permutacion P21 como el operador permutacion en el espacio de estados de las variables
orbitales, tenemos que
(0) (S)
P21 = P21 P21 (28.23)

y aplicando las Ecs. (28.22, 28.23), la ecuacion (28.18) queda en la forma


E n h i Eo
S+1 (0) (1) (1) (2) (2)
n, l, n , l ; L, ML ; S, MS = c 1 (1) P21 n , l , n , l ; L, ML |S, MS i (28.24)

28.2.2. Restricciones impuestas por el postulado de simetrizacion


La dimension del espacio En,l (1) En ,l (2) es obviamente 4 (2l + 1) (2l + 1). Sin embargo, esa no es necesa-
riamente la dimension del espacio E (n, l; n , l ) ya que algunos kets de la base de En,l (1) En ,l (2) pueden tener
proyeccion nula sobre E (n, l; n , l ). Veremos en que casos aparecen algunas proyecciones nulas.
Estudiaremos primero el caso en el cual los dos electrones no ocupan la misma capa de modo que n 6= n y/o
l 6= l . En este caso, la parte orbital de (28.24) es una suma o diferencia entre dos kets ortogonales y por tanto
nunca es cero. Lo mismo ocurre para la parte espinorial |S, MS i, de modo que todos los valores posibles de L y
S dados por la Ec. (28.16) generan vectores no nulos. En este caso la constante de normalizacion c en (28.24) es
1/ 2.
Por ejemplo, para la configuracion 1s, 2s; tenemos que n 6= n y que l = l = 0. En este caso podemos tener
S = 0, L = 0 y S = 1, L = 0. Para la configuracion 1s, 2p podemos tener S = 0, L = 1, y S = 1, L = 1.
632 CAPITULO 28. EL ATOMO DE HELIO


A continuacion escribiremos el vector puramente orbital n(1) , l(1) ; n(2) , l(2) ; L, ML [donde (n, l) y (n , l ) son
fijos], utilizando la completez dentro del espacio En,l En ,l en la forma
" #
E X X ED
(1) (1) (2) (2) (1) (1) (1) (2) (2) (2) (1) (1) (1) (2) (2) (2)
n , l ; n , l ; L, ML = n , l , m ; n , l , m n ,l ,m ;n ,l ,m
m
m
E
(1) (1) (2) (2)
n , l ; n , l ; L, ML
X X E
= n(1) , l(1) , m(1) ; n(2) , l(2) , m(2)
m
m
D E

n(1) , l(1) , m(1) ; n(2) , l(2) , m(2) n(1) , l(1) ; n(2) , l(2) ; L, ML
X X E
= n(1) , l(1) , m(1) ; n(2) , l(2) , m(2)
m m
D E

l(1) , m(1) ; l(2) , m(2) l(1) ; l(2) ; L, ML
E X X E

(1) (1) (2) (2)
n , l ; n , l ; L, ML = n(1) , l(1) , m(1) ; n(2) , l(2) , m(2) l, l ; m, m l, l ; L, ML
m m

En notacion de coeficientes de Clebsch-Gordan escribimos


E XX E
(1) (1) (2) (2) (1) (1) (1) (2) (2) (2)

n , l ; n , l ; L, ML = n , l , m ; n , l , m m, m l, l L, ML (28.25)
m m

donde hm, m (l, l ) L, ML i es el coeficiente de Clebsch-Gordan que genera el cambio de base.


Ahora supondremos que n = n y l = l de modo que ambos electrones ocupan la misma capa. En tal caso
algunos de los kets en (28.24) pueden ser nulos. Haciendo n = n y l = l esta expresion se reduce a
E XX E
(1) (1) (2) (2) (1) (1) (1) (2) (2) (2)

n , l ; n , l ; L, M L = n , l , m ; n , l , m m, m (l, l) L, ML (28.26)
m m

El coeficiente de Clebsch-Gordan asociado posee la siguiente propiedad





m, m (l, l) L, ML = (1)L m , m (l, l) L, ML (28.27)

Combinando las Ecs. (28.26) y (28.27), se obtiene


E XX
(0) E
(0)
P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = m, m (l, l) L, ML P21 n(1) , l(1) , m(1) ; n(2) , l(2) , m(2)
m m
XX
(1) (1) (1) (2) (2) (2) E
= m, m (l, l) L, ML n , l , m ; n , l , m
m m
XX L

(1) (1) (1) (2) (2) (2) E
= (1) m , m (l, l) L, ML n , l , m ; n , l , m
m m

intercambiando las variables mudas m y m , tenemos que


E XX
E
(0)
P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = (1)L m, m (l, l) L, ML n(1) , l(1) , m(1) ; n(2) , l(2) , m(2)
m m

y utilizando nuevamente las ecuaciones (28.26) se obtiene finalmente


E E
(0)
P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = (1)L n(1) , l(1) ; n(2) , l(2) ; L, ML (28.28)
28.2. EFECTO DE LA REPULSION ELECTROSTATICA 633

sustituyendo (28.28) en (28.24) para n = n y l = l , resulta


n h i Eo
(0)
|n, l, n, l; L, ML ; S, MS i = c 1 (1)S+1 P21 n(1) , l(1) , n(2) , l(2) ; L, ML |S, MS i
n h i Eo

= c 1 (1)L+S+1 n(1) , l(1) , n(2) , l(2) ; L, ML |S, MS i

de lo cual se obtiene (tomando la constante de normalizacion como c = 1/2)



|n, l, n, l; L, ML ; S, MS i = (1) (1) (2) (2)0 si L + S es impar
(28.29)
n , l , n , l ; L, ML |S, MS i si L + S es par
En consecuencia, cuando los dos electrones estan en la misma capa, L y S no pueden ser arbitrarios, ya que L + S
debe ser par. En particular, para la configuracion 1s2 , tenemos que L = 0, por tanto es necesario que S = 0, y
el valor S = 1 esta excludo, en concordancia con lo encontrado en la seccion 28.1.1 [ver Ec. (28.9) Pag. 628 y
discusion posterior].
Adicionalmente, se observa que el postulado de simetrizacion introduce una correlacion entre la simetra de la
parte orbital y la simetra de la parte espinorial del ket fsico (28.24). Dado que el ket total debe ser antisimetrico,
se tiene que la parte orbital asociada a S = 0 (singlete espinorial antisimetrico) debe corresponder a un ket orbital
simetrico, en tanto que S = 1 (triplete espinorial simetrico) debe corresponder a un ket orbital antisimetrico.
Veremos que esto tiene consecuencias fenomenologicas importantes.

28.2.3. Terminos espectrales generados por la repulsion electrostatica


El termino W conmuta con los cuatro observables L2 , L3 , S2 , S3 , los cuales forman un C.S.C.O. dentro de
E (n, l; n , l ). Se sigue entonces que la restriccion de W dentro de dicho subespacio es diagonal en la base

n, l; n , l ; L, ML ; S, MS

y sus autovalores vienen dados por




(L, S) = n, l; n , l ; L, ML ; S, MS W n, l; n , l ; L, ML ; S, MS (28.30)
Esta energa no depende de ML ni de MS ya que las ecuaciones (28.11, 28.13) nos dicen que W conmuta con L
y S, o equivalentemente con L3 , L y con S3 , S . Por tanto W es un operador escalar tanto en el espacio de
estados orbitales como en el espacio de estados espinoriales.
Dentro de cada configuracion nl, n l obtenemos niveles de energa del tipo

Ec n, l; n , l + (L, S) (28.31)
que denotamos por sus valores de L y S, siendo Ec (n, l; n , l ) los niveles obtenidos con la aproximacion de campo
central. Cada nivel tiene una degeneracion de orden (2L + 1) (2S + 1). Estos niveles se denominan terminos
espectrales, y se denotan de la siguiente forma: Para cada valor de L asociamos en notacion espectroscopica una
letra del alfabeto, escribimos la correspondiente letra en mayuscula y le anadimos en la parte superior izquierda
un numero igual a 2S + 1. Veamos los siguientes ejemplos
La configuracion 1s2 conduce a un solo termino espectral que escribimos en la forma 1 S, ya que como hemos
visto el termino 3 S (asociado a espn uno) esta prohibido por el principio de exclusion de Pauli.
La configuracion 1s, 2s genera dos terminos 1 S (no degenerado) y 3 S (triplemente degenerado).
La configuracion 1s, 2p genera dos terminos 1 P (degeneracion 3) y 3 P (degeneracion 9).
Para la configuracion mas compleja 2p2 obtenemos los terminos espectrales 1 S, 1 D y 3 P (recordemos que
L + S tiene que ser par, ya que los dos electrones estan en la misma capa).
En conclusion, bajo el efecto de la repulsion electrostatica, la degeneracion de cada configuracion se remueve
parcialmente. La configuracion 1s2 que no es degenerada simplemente sufre un corrimiento.
634 CAPITULO 28. EL ATOMO DE HELIO

28.3. Terminos espectrales que surgen de la configuracion 1s, 2s


Veremos que los dos terminos 1 S y 3 S que surgen de la configuracion 1s, 2s y cuyos valores de espn total son
diferentes, tienen energas diferentes a pesar de que el Hamiltoniano original es puramente electrostatico. Vamos
a discutir el origen de dicha diferencia.
En la configuracion 1s, 2s tenemos que n = 1, n = 2 y l = l = L = 0. Aplicando esto en la Ec. (28.25) se
obtiene
E XX E
(1) (1) (2) (2) (1) (1) (1) (2) (2) (2)

n , l ; n , l ; L, ML = n , l , m ; n , l , m m, m l, l L, ML
m m
E
(1)
n = 1, l(1) = 0; n(2) = 2, l(2) = 0; L = 0, ML = 0
E

= n(1) = 1, l(1) = 0, m(1) = 0; n(2) = 2, l(2) = 0, m(2) = 0 h0, 0 (0, 0) 0, 0i

donde hemos tenido en cuenta que para l = l = 0, solo es posible que m = m = 0. El coeficiente de Clebsch
Gordan es la unidad en este caso. Obtenemos entonces
E E
(1)
n = 1, l(1) = 0; n(2) = 2, l(2) = 0; L = ML = 0 = n(1) = 1, l(1) = m(1) = 0; n(2) = 2, l(2) = m(2) = 0
(28.32)
este vector lo podemos escribir en notacion simplificada como 1s(1) ; 2s(2) . Ya vimos que la configuracion 1s, 2s
produce dos terminos espectrales 1 S (no degenerado) y 3 S (triplemente degenerado). Los estados asociados a los
dos terminos espectrales los denotaremos por
1
S, 0 , 3 S, MS ; MS = 1, 0, 1 (28.33)

debe tenerse cuidado de no confundir la letra S cuando denota espn total, i.e. el valor propio asociado al operador
 2  2
S2 S(1) + S(2) , o cuando denota que el momento angular orbital total es cero. En notacion espectroscopica
el estado 3 S se refiere a que el espn total es S = 1 (2S + 1 = 3), y el momento angular es L = 0 (que en notacion
espectroscopica es la letra S).
Por ahora estos vectores tienen una asignacion especfica a una partcula de modo que deben ser antisimetri-
zados. Para ello se utiliza la Ec. (28.24)
E n h i Eo
S+1 (0) (1) (1) (2) (2)
n, l, n , l ; L, ML ; S, MS = c 1 (1) P21 n , l , n , l ; L, ML |S, MS i (28.34)

con n = 1, n = 2 y l = l = 0, el estado singlete en (28.33) con S = MS = 0 (termino espectral 1 S), viene dado
por

1 E
S, 0
n = 1, l = 0, n = 2, l = 0; L = ML = 0; S = MS = 0
1 n h i Eo
S, 0 = (0)
c 1 (1)1 P21 n(1) = 1, l(1) = 0, n(2) = 2, l (2) = 0; L = ML = 0 |S = 0, MS = 0i

Y utilizando el vector (28.32) en notacion simplificada como 1s(1) ; 2s(2) , esta ecuacion se puede reescribir como
1 nh i Eo
S, 0 = 1 (0)
1 + P21 1s(1) ; 2s(2) |S = 0, MS = 0i
2

donde hemos usado c = 1/ 2 2 . Para el triplete en (28.33) con S = 1 y MS = 1, 0, 1, la Ec. (28.34) nos da
3 E
S, MS n = 1, l = 0, n = 2, l = 0; L = ML = 0; S = 1, MS
3 n h i Eo
S, MS = (0)
c 1 (1)2 P21 n(1) = 1, l(1) = 0, n(2) = 2, l (2) = 0; L = ML = 0 |S = 1, MS i
28.3. TERMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACION 1S, 2S 635

una vez mas en notacion simplificada


3 nh i Eo
S, MS = 1 (0)
1 P21 1s(1) ; 2s(2) |S = 1, MS i ; MS = 1, 0, 1
2
en sntesis, los estados fsicos (antisimetrizados) en notacion espectroscopica estan dados por
3 nh i Eo
S, MS = 1 (0)
1 P21 1s(1) ; 2s(2) |S = 1, MS i ; MS = 1, 0, 1 (28.35)
2
1 nh i Eo
S, 0 = 1 (0)
1 + P21 1s(1) ; 2s(2) |S = 0, MS = 0i (28.36)
2
los autovalores de W de la Ec. (28.30) quedan


3 S = 3 S, MS W 3 S, MS
3
 1 hnD (1) (2) h (0)
io i hnh i
(0) (1)
Eo i
S = 1s ; 2s 1 P21 hS = 1, MS | W 1 P21 1s ; 2s(2) |S = 1, MS i
2
(0)
teniendo en cuenta que W no actua sobre variables de espn y que P21 es hermtico, resulta

1 D (1) (2) h (0)
i h i
(0)
E
3 S = 3 S, MS W 3 S, MS = 1s ; 2s 1 P21 W 1 P21 1s(1) ; 2s(2) hS = 1, MS |S = 1, MS i
2
1

similarmente se calcula S . Obtenemos entonces
 1 D (1) (2) h (0)
i h i
(0)
E
3S = 1s ; 2s 1 P21 W 1 P21 1s(1) ; 2s(2) (28.37)
2
 1 D (1) (2) h (0)
i h i
(0)
E
1S = 1s ; 2s 1 + P21 W 1 + P21 1s(1) ; 2s(2) (28.38)
2
(0)
Y teniendo en cuenta que P21 es nilpotente y conmuta con W , tenemos
           h i
(0) (0) (0) (0) (0) 2 (0) (0)
1 P21 W 1 P21 = 1 P21 1 P21 W = 1 + P21 2P21 W = 2 2P21 W
     
(0) (0) (0)
1 P21 W 1 P21 = 2 1 P21 W (28.39)

aplicando (28.39) en las Ecs. (28.37, 28.38) obtenemos


 D   E
(0)
3S = 1s(1) ; 2s(2) 1 P21 W 1s(1) ; 2s(2)
D E D E
(1) (2) (1) (2) (1) (2) (1) (2)
= 1s ; 2s W 1s ; 2s 2s ; 1s W 1s ; 2s
 D   E
(0)
1S = 1s(1) ; 2s(2) 1 + P21 W 1s(1) ; 2s(2)
D E D E
(1) (2)
= 1s(1) ; 2s(2) W 1s(1) ; 2s(2) + 2s(1) ; 1s(2) W 1s ; 2s

que se puede escribir en la forma


 
3S = K J ; 1S = K + J (28.40)
D E D E

K 1s(1) ; 2s(2) W 1s(1) ; 2s(2) ; J 2s(1) ; 1s(2) W 1s(1) ; 2s(2) (28.41)

al sustituir (28.40) en (28.31), se observa que K representa un corrimiento de la energa como un todo, y no
genera un desdoblamiento. En contraste, se observa que el termino J s introduce una diferencia de energa entre
los terminos 1 S y 3 S. Notese que con respecto a K, el termino J es un termino de intercambio. El calculo numerico
muestra que K J es positivo de modo que el nivel 3 S (perturbado) esta por encima del nivel (no perturbado)
1s, 2s. As mismo J es positivo de modo que el nivel 1 S esta por encima del nivel 3 S y el desdoblamiento esta
dado por 2J 0,8eV. Estos hechos se ilustran en la Fig. 28.1
636 CAPITULO 28. EL ATOMO DE HELIO

Figura 28.1: Ilustracion de la posicion relativa de los terminos espectrales que surgen de la configuracion 1s, 2s del
atomo de helio. El termino directo Krepresenta un corrimiento del nivel como un todo, en tanto que J genera un
desdoblamiento, y por tanto una remocion parcial de la degeneracion.

28.3.1. La integral de intercambio


Puesto que el termino J (conocido como integral de intercambio) es el que genera el desdoblamiento, y por
tanto la remocion parcial de la degeneracion, vamos a estudiarlo en mayor detalle. Recordando la forma de la
perturbacion para la aproximacion de campo central Ec. (28.4)
e2
W = F (R1 ) + F (R2 ) + (28.42)
|R1 R2 |
2e2
F (R) Vc (R) (28.43)
R
la integral de intercambio J de la Ec. (28.41) queda
D  e2
 E
(1) (2) (1) (2)
J 2s ; 1s F (R1 ) + F (R2 ) + 1s ; 2s
|R1 R2 |
D E D E
(1) (2) (1) (2) (2)
J = 2s ; 1s F (R1 ) 1s ; 2s + 2s ; 1s F (R2 ) 1s(1) ; 2s(2)
(1)

D e2 E
(1) (2)
+ 2s(1) ; 1s(2) 1s ; 2s
|R R |
D 1 ED 2 E D ED E

J = 2s(1) F (R1 ) 1s(1) 1s(2) 2s(2) + 1s(2) F (R2 ) 2s(2) 2s(1) 1s(1)
D e2 E
(1) (2)
+ 2s(1) ; 1s(2) 1s ; 2s
|R1 R2 |

(2) (2)
(1) (1)
pero es claro que 1s 2s = 2s 1s = 0, ya que son productos internos de estados ortogonales (estados
con diferente valor de n). Por tanto, solo el termino repulsivo contribuye a la integral de intercambio5
D e2 E
(1) (2)
J = 2s(1) ; 1s(2) 1s ; 2s (28.44)
|R1 R2 |
Denotaremos por n,l,m (r) a las funciones de onda asociadas al estado estacionario |n, l, mi de un electron en
el potencial Vc  2 
P
+ Vc (R) |n, l, mi = En,l |n, l, mi ; n,l,m (r) hr |n, l, mi (28.45)
2m
5
Notese que para la integral K contribuyen en general todos los terminos, esto permite entender al menos cualitativamente porque
K es mayor que J.
28.3. TERMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACION 1S, 2S 637

en la base {|ri} el calculo de J de la Ec. (28.44) involucra a la integral

Z Z
3 e2
J= d r1 d3 r2 2,0,0 (r1 ) 1,0,0 (r2 ) 1,0,0 (r1 ) 2,0,0 (r2 ) (28.46)
|r1 r2 |

no realizaremos el calculo explcito de esta integral6 . Sin embargo, es importante observar que el valor numerico
de esta integracion es positivo y J 0,4 eV.
Las ecuaciones (28.35, 28.36) junto con las expresiones (28.37, 28.38) nos muestran el origen de la separacion
de los niveles de energa entre los terminos 3 S y 1 S. El origen de este desdoblamiento yace en las diferencias
entre las propiedades de simetra de las partes orbitales de dichos terminos. Puesto que el triplete espinorial (S =
1, MS = 1, 0, 1) es simetrico, el postulado de simetrizacion exige que la parte orbital asociada sea antisimetrica,
(0)
originando el signo () para P21 en las Ecs. (28.35, 28.37). Analogamente, el singlete espinorial (S = 0, MS = 0)
(0)
es antisimetrico y por tanto la parte orbital debe ser simetrica, originando el signo (+) para P21 en las Ecs. (28.36,
28.38).
Lo anterior permite explicar porque la energa del termino 1 S es mayor que la del termino 3 S. Para el termino
singlete, la funcion de onda orbital es simetrica con respecto al intercambio de los dos electrones, lo cual implica
una probabilidad diferente de cero de que ambos electrones esten en el mismo punto del espacio. Por esta razon,
la energa electrostatica repulsiva e2 / |r1 r2 | , que es grande para valores pequenos de la distancia relativa entre
los electrones, se ve significativamente incrementada para el estado singlete. De otra parte, para el estado triplete,
la funcion de onda orbital es antisimetrica con respecto al intercambio de los dos electrones, implicando una
probabilidad nula de que los electrones esten en el mismo punto del espacio. Por tanto, el valor medio de la
distancia relativa entre los electrones es mayor, y por tanto es menor el valor medio de la repulsion electrostatica.
Es interesante observar de la anterior discusion que a pesar de que W no depende del espn, el desdoblamiento
que este operador produce tiene su origen en el valor total del espn, ya que dependiendo de dicho valor tendremos
una simetra diferente para el termino orbital, en virtud del postulado de simetrizacion.

28.3.2. Analisis del papel del postulado de simetrizacion

A priori, podra pensarse que el postulado de simetrizacion es el responsable del desdoblamiento entre los
niveles 1 S y 3 S. Veremos sin embargo que no es as. Encontraremos que este postulado simplemente fija el valor
del espn total de los terminos que surgen de una configuracion dada en virtud de la repulsion electrostatica entre
los electrones.
Para verlo, supongamos que uno de los electrones es reemplazado por una partcula (imaginaria hasta donde
sabemos) que tenga la misma carga, masa y espn del electron, pero que posea algun numero cuantico intrnseco
adicional que lo diferencie de los electrones. Notese que el Hamiltoniano (28.2) tendra exactamente la misma
forma7 . Por otro lado, puesto que H no depende del espn, podemos ignorar el espn en los calculos y simplemente
multiplicar por 4 las degeneraciones asociadas. El nivel de energa asociado a H0 en (28.3) correspondiente a
la configuracion
(1)1s, 2s es
doblemente
(1) (2)degenerado
desde el punto de vista orbital, debido a que los dos estados

ortogonales 1s , 2s (2)
y 2s , 1s son dos estados fsicamente diferentes (cuando las partculas eran
identicas se consideraban iguales) asociados a dicha configuracion. Para estudiar el efecto de W perturbativamente,
diagonalizamos la restriccion de W en el espacio dos dimensional expandido por estos dos kets. La matriz asociada

6
Es importante observar que aunque la integral de intercambio no depende explcitamente de Vc (R), s depende implcitamente de
dicho potencial. Para verlo, basta con observar que las funciones de onda que aparecen en (28.46) son soluciones de la ecuacion (28.45)
que depende de Vc (R).
7
Por supuesto que si una partcula as existiera, tendra que existir alguna contribucion en el Hamiltoniano debida a la propiedad
intrnseca adicional, que estaramos despreciando.
638 CAPITULO 28. EL ATOMO DE HELIO

es entonces

(1) (2) (1) (2)
(1) (2) (1) (2) 
1s ; 2s 2s ; 1s
W1s,2s =
1s(1) ; 2s(2) W (1) (2)
1s(1) ; 2s(2) W (1) (2)
2s ; 1s W 1s ; 2s 2s ; 1s W 2s ; 1s

(1) (2) (1) (2)
(1) (2) (1) (2) 
1s ; 2s 1s ; 2s
W1s,2s =
1s(1) ; 2s(2) W (1) (2)
2s(1) ; 1s(2) W (1) (2)
2s ; 1s W 1s ; 2s 1s ; 2s W 1s ; 2s

donde la ultima igualdad es debida a que W es invariante bajo el intercambio de las dos partculas (incluso
cuando son distinguibles), de modo que las integrales J y K tambien son invariantes bajo dicho intercambio [ver
por ejemplo la Ec. (28.46)]. Por tanto, esta matriz se puede escribir exclusivamente en terminos de J y K
 
K J
W1s,2s =
J K

esta matriz se diagonaliza de inmediato y se obtienen los valores propios


J, asociados
K + J y K respectivamente
con la combinacion lineal simetrica y antisimetrica de los dos kets 1s(1) , 2s(2) y 2s(1) , 1s(2) . Notese sin embargo
que no hemos antisimetrizado y de hecho hemos tratado a los dos kets anteriores como fsicamente distintos. Por
tanto, el hecho de que estos autoestados orbitales tengan una simetra bien definida relativa al intercambio de
las partculas, no tiene nada que ver con el postulado de simetrizacion ni con el principio de exclusion de Pauli.
(0)
Este hecho solo surge de que W conmuta con P21 de modo que podemos encontrar autoestados comunes a W y
(0)
P21 .
Notese en consecuencia que al ignorar el postulado de simetrizacion, es posible acoplar el estado orbital
simetrico con el estado espinorial simetrico (triplete), as como acoplar el estado orbital antisimetrico con el
estado espinorial antisimetrico (singlete). En sntesis, cuando las dos partculas no son identicas obtenemos el
mismo arreglo de niveles y la misma simetra orbital anterior. Sin embargo, la degeneracion de los niveles es
diferente ya que no hay estados linealmente independientes que sean aniquilados por el antisimetrizador. En el
caso distinguible, el nivel mas bajo puede tener espn total S = 0 o S = 1, lo mismo ocurre con el nivel mas alto
K + J.
Volviendo de nuevo al atomo de Helio real vemos que el principio de exclusion de Pauli no es el responsable
del desdoblamiento del nivel 1s, 2s en dos niveles K J, pues hemos visto que este desdoblamiento tambien
aparece cuando se consideran distinguibles las partculas en cuestion. Esto se debe a que el caracter simetrico o
antisimetrico de la parte orbital de la funcion de onda, se relaciona con la invarianza de la interaccion electrostatica
bajo la permutacion de dos electrones. Lo que hace el principio de exclusion de Pauli es prohibir que el estado mas
bajo tenga espn total S = 0, y que el nivel mas alto tenga espn S = 1, dado que en estos dos casos el estado sera
globalmente simetrico lo cual esta prohibido para fermiones por el postulado de simetrizacion, y por tanto por el
principio de exclusion de Pauli. En otras palabras, con o sin distinguibilidad obtenemos funciones de onda con
simetra de permutacion global bien definida, y al aplicar el antisimetrizador se anulan los estados globalmente
simetricos, dejando intactos los estados globalmente antisimetricos.

28.3.3. Hamiltoniano efectivo dependiente del espn


Si reemplazamos a W por el operador
f = + S(1) S(2)
W (28.47)
donde S(1) y S(2) denotan el espn de cada electron, tenemos que
h i2  2  2
S2 = S(1) + S(2) = S(1) + S(2) + 2S(1) S(2) (28.48)
2 2
S2 S(1) S(2)
S(1) S(2) = (28.49)
2
28.3. TERMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACION 1S, 2S 639

sin embargo debemos tener en cuenta que el espn de los electrones es intrnseco, de modo que para todo ket de
estado que describa a este sistema de dos electrones y que incluya a los espinores, se tiene que s(1) = s(2) s = 1/2.
Por tanto
 2  2  h    i
(1) (2) 3
S + S |. . .i = ~2 s(1) s(1) + 1 + s(2) s(2) + 1 |. . .i = 2~2 [s (s + 1)] |. . .i = ~2 |. . .i
2
como esto es valido para todos los kets que describen nuestro sistema, tenemos que para nuestros propositos se
puede escribir8
 2  2 3
S(1) + S(2) ~2 1 (28.50)
2
sustituyendo (28.50) en (28.49) se tiene que

S2 3 2
S(1) S(2) = ~
2 4
f definido por (28.47) queda
por tanto el operador W
 
f 3~2 3~2
W = + S2 + S2 ;
4 2 2 4

este operador claramente actua de manera no trivial solo sobre los espinores. Puesto que (/2) S2 es proporcional
a S2 , posee los mismos vectores propios |S, MS i de S2 con valores propios dados por (/2) ~2 S (S + 1)
   
2 2 2 2
S |S, MS i = ~ S (S + 1) |S, MS i S |S, MS i = ~ S (S + 1) |S, MS i
2 2

Adicionalmente, puesto que Wf solo difiere de (/2) S2 por un operador proporcional a la identidad 1, se tiene
que posee los mismos vectores propios con valores propios dados por
       
2 2 2 2
S |S, MS i = ~ S (S + 1) |S, MS i + S |S, MS i = + ~ S (S + 1) |S, MS i
2 2 2 2
y teniendo en cuenta la definicion de
   
3~2 3~2 2
+ S2 |S, MS i = + ~ S (S + 1) |S, MS i
4 2 4 2
de manera que los vectores propios son el triplete |S = 1, MS i y el singlete |S = 1, MS = 0i con valores propios

3~2 ~2
|S = 1, MS = 1, 0, 1i + ~2 = + (28.51)
4 4
3~2
|S = 0, MS = 0i (28.52)
4
finalmente si redefinimos
J 2J
K
; (28.53)
2 ~2
los valores propios asociados al triplete y singlete quedan
J 2J ~2
|1, MS i K 2 =K J
2 ~ 4
J 2J 3~2
|0, 0i K + 2 =K +J
2 ~ 4
8
Para una discusion similar asociada al espn de una sola partcula, ver Eq. (15.9), Pag. 391, y la discusion alrededor.
640 CAPITULO 28. EL ATOMO DE HELIO

por tanto, al diagonalizar W f obtenemos los mismos autoestados y autovalores que encontramos con el operador
W definido en (28.4), como se puede ver de la Ec. (28.40). En un sentido efectivo, el potencial W f (Hamiltoniano
efectivo) actua de manera analoga al potencial real W . Ahora bien, el Hamiltoniano efectivo (28.47) tiene la forma
de la interaccion magnetica entre dos espines. Sin embargo, no es correcto decir que la energa de acople entre los
electrones que son responsables de la aparicion de los dos terminos K J, sea de origen magnetico. Un analisis de
ordenes de magnitud muestra que dos momentos magneticos iguales a los del electron y colocados a una distancia
del orden de 1 Armstrong entre ellos, tendran una energa de interaccion mucho menor que J.
A pesar de lo anterior, la simplicidad de la estructura de W f , hace que este Hamiltoniano efectivo se utilice
con frecuencia en lugar de W . Debe tenerse presente sin embargo, que es un termino efectivo que no nos describe
a priori el verdadero origen de la interaccion. Por ejemplo, una construccion similar se hace para la descripcion
de materiales ferromagneticos, en los cuales los espines tienen la tendencia a alinearse paralelamente entre ellos.
Puesto que el estado de espn sera completamente simetrico (espines todos arriba o abajo), el principio de exclusion
de Pauli requiere que el estado orbital sea completamente antisimetrico. Por las mismas razones que en el atomo
de Helio, la energa de repulsion electronica es entonces mnima. Para estudiar este fenomeno se suele utilizar
Hamiltonianos efectivos de la forma (28.47). Sin embargo, una vez mas debe notarse que el origen de la interaccion
es tambien electrostatico y no magnetico.

28.4. Terminos espectrales que surgen de otras configuraciones excitadas


El segundo nivel excitado corresponde a la configuracion 1s, 2p. Para esta configuracion podemos hacer un
tratamiento analogo. En este caso tenemos L = 1 de modo que ML = 1, 0, o 1. Ahora bien, puesto que para la
configuracion 1s, 2p las capas ocupadas por los dos electrones son diferentes (n 6= n y l 6= l ), los dos terminos 3 P
y 1 P existen simultaneamente, donde 3 P es nueve veces degenerado y 1 P tiene degeneracion triple.
Un analisis similar al realizado para la configuracion 1s, 2s muestra que para la configuracion 1s, 2p el termino
3 P posee una energa mas baja que la del termino 1 P , y que la diferencia de energas es proporcional a la integral de

intercambio analoga a la obtenida en (28.46). Un estudio similar se puede realizar para las demas configuraciones
del tipo 1s, n l .

28.5. Validez del tratamiento perturbativo


A priori, para que W pueda tratarse coherentemente en forma perturbativa con respecto a H0 , es necesario que
los corrimientos de energa asociados con W [por ejemplo la integral de intercambio (28.46)] sean mucho menores
que las diferencias de energa entre configuraciones (no perturbadas). Sin embargo, este no es el caso. Por ejemplo,
para la configuracion 1s, 2s, los terminos (perturbados) 1 S y 3 S tienen una diferencia de energa dada por
   
E (1s, 2s) 1
S E (1s, 2s) 3
S 0,8eV

en tanto que la mnima distancia entre los niveles (no perturbados) 1s, 2s y 1s, 2p, esta dada por
   
E (1s, 2p) 3
P E (1s, 2s) 1
S 0,35eV

Es notable que a pesar de lo anterior, el tratamiento hecho anteriormente es adecuado. Esto se debe a que para
configuraciones del tipo 1s, n l tenemos que L = l (puesto que l = 0). En consecuencia, dado que W conmuta con
L, posee elementos matriciales nulos entre estados con diferentes valores de L. En particular, W tiene elementos
matriciales nulos entre estados de la configuracion 1s, 2s y 1s, 2p.
Vemos por tanto que W acopla una configuracion 1s, n l solo a una configuracion del tipo 1s, n l (dos capas
distintas que solo difieren en el valor de n), o del tipo nl, n l con n y n diferentes de uno. Este ultimo caso solo
ocurre cuando l y l se adicionan para dar l , y correspondera a estados doblemente excitados.
28.6. ESTRUCTURA FINA DEL ATOMO DE HELIO Y MULTIPLETES 641

28.6. Estructura fina del atomo de helio y multipletes


En el atomo de helio hemos tenido en cuenta hasta ahora solo interacciones de naturaleza electrostatica. Sin
embargo, tambien existen las interacciones de ndole relativista como las estudiadas para el atomo de hidrogeno,
esto es correcciones a la energa cinetica, acoplamiento espn-orbita, y termino de Darwin. No obstante, en el
caso del atomo de helio la presencia simultanea de dos electrones da origen por ejemplo a un termino de acople
magnetico espn-espn y orbita-orbita en el Hamiltoniano, que actua tanto en el espacio espinorial como en el
orbital de estados de los dos electrones. Por fortuna, las diferencias de energa que surgen de estos acoples de
origen relativista y magnetico son mucho menores que las existentes entre dos terminos espectrales diferentes. Por
tanto, el correspondiente Hamiltoniano de estructura fina se puede tratar perturbativamente.
En la presente seccion no pretendemos realizar un estudio detallado de la estructura fina asociada al atomo de
Helio. Solo discutiremos las simetras del problema, y la notacion espectroscopica que surge para distinguir entre
los diferentes niveles de energa.
Si despreciamos la contribucion espn-espn y orbita-orbita, la forma generica del Hamiltoniano de estructura
fina tanto para el atomo de helio como para atomos de muchos electrones es de la forma
N
X
HSF (Ri ) Li Si (28.54)
i=1

donde Ri , Li y Si son los observables de posicion, momento angular y de espn asociados a cada electron. Si
calculamos el conmutador de este Hamiltoniano con los momentos angulares orbital y de espn tenemos
" #
XN N X
X N h i
(m) (m)
[HSF , Lk ] = HSF , Lk = (Rn ) L(n)
p S (n)
p , L k
m=1 m=1 n=1
N
XXN h i
(m)
[HSF , Sk ] = (Rn ) L(n) (n)
p Sp , Sk
m=1 n=1

donde el superndice denota partculas y el subndice denota componentes. Estos conmutadores quedan entonces
en la forma
N X
X N n h i h i o XN X
N h i
(m) (m) (m)
[HSF , Lk ] = (Rn ) L(n)
p S (n)
p , L k + L (n)
p , L k S (n)
p = (Rn ) L (n)
p , L k Sp(n)
m=1 n=1 m=1 n=1
XN X N N
X
= (Rn ) nm i~pkr L(n) (n)
r Sp = i~ (Rn ) rpk L(n)
r Sp
(n)

m=1 n=1 n=1


N
X h i
[HSF , Lk ] = i~ (Rn ) L(n) S(n)
k
n=1

X N
N X h i X N
N X h i
(m) (m)
[HSF , Sk ] = (Rn ) L(n)
p S (n)
p , S k = (Rn ) L (n)
p S (n)
p , S k
m=1 n=1 m=1 n=1
XN X N N
X
= i~ (Rn ) L(n) (n)
p nm pkr Sr = i~ (Rn ) prk L(n)
p Sr
(n)

m=1 n=1 n=1


XN h i
[HSF , Sk ] = i~ (Rn ) L(n) S(n)
k
n=1

tenemos entonces que


[HSF , L] = [HSF , S] 6= 0 [HSF , J] = 0 , J L + S (28.55)
642 CAPITULO 28. EL ATOMO DE HELIO

la Ec. (28.55) implica que el Hamiltoniano de estructura fina no es invariante si rotamos solo las variables orbitales
o solo las variables de espn, pero s es invariante bajo la rotacion simultanea de todas las variables orbitales y de
espn. Por tanto, el momento angular total de los electrones es una constante de movimiento.
El espacio de estados asociado con un termino es expandido por los estados del tipo |n, l; n , l ; L, ML ; S, MS i
escritos en la Ec. (28.24), donde L y S son fijos, y tal que

L ML L ; S MS S

se puede demostrar que en este espacio los observables J2 y J3 forman un C.S.C.O. que de acuerdo con la Ec. (28.55)
conmuta con HSF . En consecuencia los vectores propios |J, MJ i comunes a J2 [con valores propios J (J + 1) ~2 ] y
a J3 [con valor propio MJ ~] son necesariamente autovectores de HSF con autovalor que depende de J pero no de
MJ , debido a que HSF conmuta con J+ y J . Las reglas de adicion del momento angular nos dicen que

J = L + S, L + S 1, L + S 2, . . . , |L S| (28.56)

De modo que HSF remueve parcialmente la degeneracion. Para cada termino aparecen tantos niveles distintos
como valores de J, de acuerdo con la Ec. (28.56). Cada uno de estos niveles tiene una degeneracion 2J + 1 en
virtud de su independencia con MJ y se denomina un multiplete. Estos multipletes poseen tambien una notacion
espectroscopica: es la notacion espectroscopica del termino, a la que le anadimos un subndice a la derecha igual
al valor de J. Veamos algunos ejemplos:

El estado base del atomo de helio nos da un solo multiplete 1 S0 .

Para la configuracion 1s, 2s, cada uno de los dos terminos 1 S y 3 S nos llevan a un solo multiplete: 1 S0 y 3 S1
respectivamente.

Para la configuracion 1s, 2p, el termino 1 P conduce a un solo multiplete 1 P1 , en tanto que el termino 3 P
posee tres multipletes, 3 P2 ,3 P1 y 3 P0 . La posicion relativa de estos multipletes se ilustra en la Fig. 28.2.

La medida experimental y el calculo teorico de los multipletes que surgen de la configuracion 1s, 2p son de
gran importancia, debido a que conducen a un conocimiento bastante preciso de la constante de estructura fina
= e2 /~c.
A partir de la estructura (28.54) del Hamiltoniano de estructura fina y utilizando el teorema de Wigner-Eckart
se puede demostrar que la energa del multiplete J es proporcional a J (J + 1) L (L + 1) S (S + 1). Esto es
valido no solo para el atomo de helio sino para atomos de muchos electrones y se conoce como la regla del intervalo
de Lande. Para el helio los niveles 3 P1 y 3 P2 que surgen de la configuracion 1s, 2p son mucho mas cercanos de
lo que predice esta regla, debido a la importancia del acople magnetico dipolo-dipolo de los espines de los dos
electrones, efecto que ha sido ignorado en el Hamiltoniano (28.54).
Por supuesto tambien surgen efectos debidos a la existencia del espn del nucleo. Sin embargo la estructura
hiperfina que emerge existe solo para el isotopo 3 He cuyo nucleo posee espn I = 1/2. El isotopo 4 He tiene espn
nuclear cero y por tanto no hay efectos hiperfinos.
Para el 3 He cada multiplete de momento angular total electronico J se desdobla en dos niveles hiperfinos de
momento angular total F = J 1/2, que sera (2F + 1) veces degenerado, a menos que J = 0, en cuyo caso F solo
puede tomar el valor 1/2.
28.6. ESTRUCTURA FINA DEL ATOMO DE HELIO Y MULTIPLETES 643

Figura 28.2: Ilustracion de la posicion relativa de los terminos espectrales y multipletes que surgen de la configura-
cion 1s, 2p del atomo de helio. La distancia entre los tres multipletes 3 P0 , 3 P1 y 3 P2 se ha reescalado con respecto
a la distancia entre los termino 1 P y 3 P , para que se pueda apreciar el desdoblamiento del termino 3 P .
Captulo 29

Metodo de Hartree-Fock

La idea es estudiar la estructura electronica para atomos de N electrones (de hecho, el metodo es facilmente
extendible para el estudio de sistemas fsicos de N fermiones identicos). Como ya se ha discutido, una posibilidad
es dividir el Hamiltoniano total (27.1)1

N 
X  XN X
N
P2i Ze2 e2 q2
H= + ; e2 (29.1)
2me Ri |Ri Rj | 40
i=1 i=1 j>i

en un Hamiltoniano desacoplado H0 y un Hamiltoniano acoplado W en la forma

H = H0 + W (29.2)
N 
X  N 
X  X N
N X
P2i Ze2 e2
H0 + Vc (Ri ) , W Vc (Ri ) + + (29.3)
2me Ri |Ri Rj |
i=1 i=1 i=1 j>i

donde el potencial efectivo Vc (Ri ) se introduce con el fin de que W se pueda considerar una perturbacion con
respecto a H0 . Podemos definir tambien

Ze2
Vc (Ri ) + U (Ri ) (29.4)
Ri

donde U (Ri ) contendra la informacion del potencial efectivo promedio debida unicamente a los otros electrones.
La idea es encontrar una solucion aproximada al problema de valores propios

H (T) = E (T) (29.5)

combinando un modelo de partcula independiente (descrito por el Hamiltoniano H0 ) con el metodo variacional.
Donde
T (T1 , T2 , . . . , TN ) ; Tk (rk , k ) (29.6)

es una abreviacion de las variables de posicion rk y de espn k de cada partcula. El metodo de Hartree-Fock
busca determinar la funcion HF (T) que nos proporcione la mejor aproximacion variacional a la solucion del
problema de valores propios (29.5) utilizando el modelo de partcula independiente.
El punto de partida sera entonces una funcion de onda (T) basada en un modelo de partcula independiente
para N electrones. Por tanto la funcion de prueba debe ser una combinacion lineal de uno o mas determinantes
1
Hay una ligera diferencia entre el Hamiltoniano (27.1) y el Hamiltoniano (29.1), ya que para el primero asumimos que el numero
de electrones es Z (atomo neutro), en tanto que en el segundo asumimos un numeros N de electrones que puede ser distinto de Z.

644
645

de Slater

a1 (T1 ) a1 (T2 ) a1 (TN )

1 a2 (T1 ) a2 (T2 ) a2 (TN )

D (T1 , . . . , TN ) = .. .. .. ..
N ! . . . .

a (T1 ) a (T2 ) aN (TN )
N N

D (T1 , . . . , TN ) = N ! AH (T1 , . . . , TN )
H (T1 , . . . , TN ) = a1 (T1 ) a2 (T2 ) . . . aN (TN )

donde A es el antisimetrizador definido en (26.32) Pag. 600 y H es un producto de orbitales que denominamos
funcion de Hartree. ak representa los cuatro numeros cuanticos que identifican completamente cada orbital.
La funcion de Hartree representa un sistema de N electrones independientes pero distinguibles. Ya sabemos que
la antisimetrizacion hace que se introduzcan correlaciones entre espines y que surja el principio de exclusion de
Pauli, haciendo que los electrones no sean del todo independientes. Los orbitales pueden escribirse a su vez como
el producto de un orbital espacial y uno espinorial

ak (Tk ) = ak (rk ) (k ) (29.7)

los espinores que describen un electron con espn arriba y abajo los denotaremos como y respectivamente
   
1 1
+ ; (29.8)
2 2

la notacion (k) implica que el kesimo electron tiene espn arriba. Puesto que nuestro Hamiltoniano no contiene
correcciones de espn, la ecuacion de valores propios (29.5) se convierte en una ecuacion puramente orbital
 
~2 2 Ze2
+ U (rk ) ak (rk ) = ak ak (rk ) (29.9)
2m k rk
Ze2
Vc (rk ) = + U (rk ) (29.10)
rk
por el momento los orbitales ak (Tk ) son desconocidos. Sin embargo, podemos suponer su existencia para escribir
la energa de interaccion efectiva U (rk ) que experimenta el kesimo electron debido a los otros electrones. Puesto
que |ak (rk )|2 d3 rk es la probabilidad de encontrar el kesimo electron dentro del elemento de volumen d3 rk
centrado en rk , se tiene entonces que la carga efectiva dQ dentro de dicho volumen viene dada por

dQ = e |ak (rk )|2 d3 rk

y la energa de interaccion entre las cargas dQ y e ubicadas en las posiciones rk y rj viene dada por

e dQ e2
dU (|rk rj |) = = |ak (rk )|2 d3 rk
|rk rj | |rk rj |

de modo que la energa potencial U (rk ) se obtiene integrando sobre todo el volumen (para inclur toda la carga
efectiva Q) y sumando sobre todos los demas electrones (j 6= k)
X Z |a (rk )|2
2
U (rk ) = e k
d3 rk (29.11)
|rk rj |
j6=k

Si conocieramos los N orbitales ak (rk ) del problema de N electrones, podemos conocer el potencial efectivo
completo que experimenta cada uno de los electrones usando (29.11) junto con (29.10). Recprocamente, si cono-
cieramos el potencial efectivo Vc (rk ) podramos determinar los orbitales usando las ecuaciones (29.9, 29.10) de
646 CAPITULO 29. METODO DE HARTREE-FOCK

valores propios. Sin embargo, en la practica no conocemos ni los orbitales ni los potenciales efectivos. El objetivo
del metodo de Hartree-Fock es encontrar ambas cantidades de tal manera que resulten autoconsistentes. Es decir,
que dadas las soluciones de los orbitales podamos determinar los potenciales efectivos por medio de (29.11) y que
una vez determinados dichos potenciales podamos insertarlos en las Ecs. (29.9) de manera que las soluciones de
(29.9) reproduzcan los mismos orbitales, al menos en forma aproximada.
Estrictamente hablando, el metodo descrito hasta aqu no requiere asumir que el potencial efectivo Vc (rk )
sea central. Cuando asumimos que dicho potencial es de caracter central hablamos del metodo restringido
de Hartree-Fock. La aproximacion de campo central es particularmente acertada en el caso de capas cerradas,
debido a que todos los momentos angulares son cero y esto le da simetra esferica al problema. En el caso de capas
abiertas la aproximacion de campo central es menos acertada pero suele producir aun muy buenos resultados al
considerar la aproximacion de llenado que consiste en promediar V (rk ) [que no se considera central] sobre todos
los angulos en la forma Z
1
Vc (rk ) V (rk ) d
4
cuando se considera que Vc (rk ) es central, exigimos que (T) sea funcion propia de los operadores H, L2 , L3 , S2 , S3 ,
ya que todos ellos conmutan entre s. Tenemos entonces que

H (T) = E (T) ; L2 (T) = l (l + 1) ~2 (T) ; L3 (T) = m~ (T)


S2 (T) = s (s + 1) ~2 (T) ; S3 (T) = ~ (T) (29.12)

Sin embargo, es posible que estos operadores no formen un C.S.C.O por lo cual el conjunto de todos los numeros
cuanticos podra contener numeros cuanticos adicionales a los de estos operadores

(, l, m, s, ) (29.13)

donde se refiere a los numeros cuanticos necesarios para definir la energa, y tal vez otros numeros cuanticos
adicionales requeridos para determinar al estado .
Cada determinante de Slater es funcion propia de L3 y de S3 . En consecuencia, las funciones que satisfacen
las ecuaciones de valores propios (29.12) deben ser combinaciones lineales de determinantes de Slater asociados a
una misma configuracion electronica y con los mismos valores de m y
X
LS (T) = C D()LS (T) (29.14)

Donde los coeficientes C son parametros variacionales que se escogen de manera que la funcion de onda (29.14)
sea tambien funcion propia de L2 y S2 . Si la capa es abierta tendremos en general varios coeficientes C . En
contraste, si la capa es cerrada solo se requiere un determinante de Slater para describir la estructura electronica
ya que en este caso L = S = J = 0.

29.1. Producto interno entre determinantes de Slater y un operador simetri-


co
Denotamos el determinante de Slater en la forma
N! N
1 X Y
D (a |T ) N !A a (T) = k Pk ai (Ti ) (29.15)
N ! k=1 i=1

a1 (T1 ) a1 (T2 ) a1 (TN )

1 a2 (T1 ) a2 (T2 ) a2 (TN )

D (a |T ) = .. .. .. .. (29.16)
N ! . . . .

a (T1 ) a (T2 ) a (TN )
N N N
29.1. PRODUCTO INTERNO ENTRE DETERMINANTES DE SLATER Y UN OPERADOR SIMETRICO647

en algunas ocasiones se describe el determinante de Slater escribiendo solo la diagonal principal entre barras o
corchetes
1
D (a |T ) |a1 (T1 ) a2 (T2 ) aN (TN )|
N!
1
= | (a1 |1 ) (a2 |2 ) (aN |N )| (29.17)
N!

sea O un observable simetrico de manera que conmuta con todas las N ! permutaciones

[Pk , O] = 0 ; k = 1, 2, . . . , N !

para propositos futuros, expresaremos los elementos matriciales del operador simetrico O en la base de un conjunto
de determinantes de Slater (normalizados a uno)
Z
hD (b)| O |D (a)i D (b |T ) O D (a |T ) dT (29.18)

para calcular este elemento matricial, sustitumos (29.15) en (29.18)


Z N! Z N
1 X Y
hD (b)| O |D (a)i D (b |T ) O D (a |T ) dT = k D (b |T ) O Pk ai (Ti ) dT
N ! k=1 i=1

por construccion cada determinante de Slater es antisimetrico con respecto al grupo de permutaciones de las N
partculas. Por tanto
Pk D (b |T ) = k D (b |T ) (29.19)
siendo k la paridad de la permutacion Pk . Teniendo en cuenta (29.19) y el hecho de que Pk conmuta con O se
tiene " #
N! Z N
1 X
Y
hD (b)| O |D (a)i = [Pk D (b |T )] Pk O ai (Ti ) dT
N ! k=1 i=1

ahora bien, es claro que la aplicacion del operador permutacion sobre un producto de funciones A y B es
equivalente al producto de la aplicacion del permutador sobre cada funcion2

Pk [A B ] = [Pk A ] [Pk B ] (29.20)

con lo cual tenemos


N! Z
" N
#
1 X
Y
hD (b)| O |D (a)i = Pk D (b |T ) O ai (Ti ) dT
N ! k=1 i=1

finalmente, el permutador solo cambia los rotulos de los argumentos de las funciones. Puesto que las variables de
integracion son mudas, el resultado no depende del rotulo asignado a cada variable. Por tanto, cada una de las
N ! permutaciones contribuye con el mismo valor al integrar. Con lo cual se obtiene finalmente
Z "N #
Y
hD (b)| O |D (a)i = N! D (b |T ) O ai (Ti ) dT
i=1

2
La identidad (29.20) esta relacionada con el hecho de que la permutacion intercambia los ndices Ti en la funcion A (T1 , . . . , TN )
as como en la funcion B (T1 , . . . , TN ), pero no intercambia un argumento de A con un argumento de B .
648 CAPITULO 29. METODO DE HARTREE-FOCK

sustituyendo la Ec. (29.15) en esta expresion tenemos que el elemento matricial se puede escribir alternativamente
en la forma "
N! Z N N
#
X Y Y
hD (b)| O |D (a)i = k dT Pk bj (Tj ) O ai (Ti )
k=1 j=1 i=1

en sntesis, la representacion matricial de un operador simetrico O en la base de los determinantes de Slater D (a)
viene dada por
Z
hD (b)| O |D (a)i D (b |T ) O D (a |T ) dT (29.21)
Z
= N ! D (b |T ) O [a1 (T1 ) a2 (T2 ) aN (TN )] dT (29.22)
N!
X Z
  
= k dT Pk b1 (T1 ) bN (TN ) {O [a1 (T1 ) aN (TN )]} (29.23)
k=1

recordemos que el signo de integracion significa integracion sobre las variables espaciales de todos los electrones y
suma sobre las variables de espn, y que a {a1 , . . . , aN } es una abreviacion que denota el conjunto de numeros
cuanticos que definen a los N orbitales con los cuales se construye el determinante de Slater. En particular, tomando
O = 1, se puede verificar la ortonormalidad de los determinantes de Slater con base en la ortonormalidad de los
orbitales.
Podemos escribir estos elementos matriciales de una forma mas condensada definiendo la funcion de Hartree

H (T) a1 (T1 ) a2 (T2 ) aN (TN ) (29.24)

y la funcion auxiliar3
k (T) Pk [a1 (T1 ) a2 (T2 ) aN (TN )] = Pk H (T) (29.25)

de modo que la Ec. (29.23) se puede reeescribir como

N!
X Z
hD (b)| O |D (a)i = k dT {k (T)} {OH }
k=1
XN!
hD (b)| O |D (a)i = k hk (T)| O |H (T)i (29.26)
k=1

29.1.1. Ejemplo de aplicacion para N = 3


Vamos a calcular explcitamente el determinante de Slater para N = 3 i.e. un sistema de tres electrones. El
antisimetrizador se escribira como
1
A= {P123 + P231 + P312 P213 P321 P132 }
3!

donde P123 es la identidad. Una funcion de Hartree tiene la forma

H (T1 , T2 , T3 ) = a1 (T1 ) a2 (T2 ) a3 (T3 )


3
Recordemos que el permutador puede actuar sobre el conjunto {T1 , . . . , TN }, o sobre el conjunto {a1 , . . . , aN }, pero no sobre los
dos al tiempo, ya que en este ultimo caso el producto quedara invariante, pues solo se reordenaran los orbitales en el producto.
29.2. VALOR ESPERADO DE LA ENERGIA 649

un determinante de Slater se escribe en la forma



D (T1 , T2 , T3 ) = 3!AH (T1 , T2 , T3 )

3!
= {P123 + P231 + P312 P213 P321 P132 } [a1 (T1 ) a2 (T2 ) a3 (T3 )]
3!
1
= {a1 (T1 ) a2 (T2 ) a3 (T3 ) + a1 (T2 ) a2 (T3 ) a3 (T1 ) + a1 (T3 ) a2 (T1 ) a3 (T2 )
3!
a1 (T2 ) a2 (T1 ) a3 (T3 ) a1 (T3 ) a2 (T2 ) a3 (T1 ) a1 (T1 ) a2 (T3 ) a3 (T2 )}

1
D (T1 , T2 , T3 ) = {a1 (T1 ) [a2 (T2 ) a3 (T3 ) a2 (T3 ) a3 (T2 )]
3!
+a1 (T2 ) [a2 (T3 ) a3 (T1 ) a2 (T1 ) a3 (T3 )]
+a1 (T3 ) [a2 (T1 ) a3 (T2 ) a2 (T2 ) a3 (T1 )]}

a1 (T1 ) a1 (T2 ) a1 (T3 )
1
D (T1 , T2 , T3 ) = a2 (T1 ) a2 (T2 ) a2 (T3 )
3! (T ) (T ) (T )
a3 1 a3 2 a3 3

si rotulamos las permutaciones en la forma

P1 P123 ; P2 P231 ; P3 P312


P4 P213 ; P5 P321 ; P6 P132 (29.27)

el determinante de Slater tambien se puede escribir como


1
D (T1 , T2 , T3 ) = {P1 + P2 + P3 P4 P5 P6 } H (T)
3!
1
= {1 (T) + 2 (T) + 3 (T) 4 (T) 5 (T) 6 (T)}
3!

29.2. Valor esperado de la energa


Dado que la funcion de onda que describe al sistema de N electrones es una combinacion lineal de determinantes
de Slater, es de gran utilidad calcular el valor esperado de la energa con base en un determinante de Slater. En
particular, cuando una capa es cerrada, la funcion de onda fsica estara dada por un solo determinante de Slater
de tal manera que este valor esperado de la energa coincide con el valor promedio fsico de esta cantidad. En lo
que sigue a continuacion, nos limitaremos a calculos sobre capas cerradas.
Supongamos que tenemos una funcion de prueba (T1 , . . . , TN ) que por simplicidad asumiremos normalizada.
El teorema 21.1 Pag. 515 nos dice que la energa del estado base E0 cumple con la desigualdad

E0 h| H |i

Puesto que la capa es cerrada, suponemos que la funcion de prueba es un determinante de Slater

= D (T1 , T2 , . . . , TN )

Descompondremos el Hamiltoniano H de la Ec. (29.1) en la forma


N 
X  N
X 1 X
N
P2i Ze2 e2
H = H (0) + H (1) ; H (0) ; H (1) (29.28)
2me Ri |Ri Rj |
i=1 i=1 j=i+1
650 CAPITULO 29. METODO DE HARTREE-FOCK

Que es una descomposicion diferente a la realizada en las Ecs. (29.2, 29.3). Esto se debe a que utilizaremos un
metodo variacional y no teora de perturbaciones, por lo cual no es esencial que H (1) sea mucho menor que H (0) .
El valor esperado con respecto a la funcion de prueba (determinante de Slater) estara dado por

E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di (29.29)

puesto que el Hamiltoniano es un observable asociado a partculas identicas, debe ser un operador simetrico como
efectivamente se observa de (29.28). As mismo, cada operador H (0) y H (1) es simetrico. Por tanto podremos
aplicar las relaciones de la seccion 29.1.

29.2.1. Valor esperado de H (0)


El hamiltoniano H (0) es la suma de N operadores de una partcula. El producto interno viene dado en este
caso por
N
X  2  XN
(0) Pi Ze2
hD| H |Di = hD| |Di = hD| h (i) |Di (29.30)
2me ri
i=1 i=1
donde
P2i Ze2
h (i) (29.31)
2me ri
donde i constituye un rotulo para el iesimo electron. La condicion de ortonormalidad de los orbitales se escribe
como
hak (Ti )| ap (Ti ) = ak ap = kp
en la ultima igualdad hemos tenido en cuenta el principio de exclusion de Pauli de modo que para k 6= p (es decir
para dos electrones diferentes) tenemos que ak 6= ap (es decir no todos los numeros cuanticos pueden coincidir).
Para calcular (29.30) utilizamos (29.26) para lo cual debemos calcular terminos de la forma hk | h (i) |H i.
Tomemos el caso particular N = 3, y calculemos con k = i = 1

h1 | h (i = 1) |H i = hP1 H | h (i = 1) |H i = hH | h (i = 1) |H i
= ha1 (T1 ) a2 (T2 ) a3 (T3 )| h (i = 1) |a1 (T1 ) a2 (T2 ) a3 (T3 )i
= [ha1 (T1 )| ha2 (T2 )| ha3 (T3 )|] h (i = 1) [|a1 (T1 )i |a2 (T2 )i |a3 (T3 )i]
= ha1 (T1 )| h (i = 1) |a1 (T1 )i ha2 (T2 )| a2 (T2 )i ha3 (T3 )| a3 (T3 )i

y usando la condicion de ortonormalidad de los orbitales resulta

h1 | h (i = 1) |H i = ha1 (T1 )| h (i = 1) |a1 (T1 )i

tomemos ahora i = 1 y k = 2, utilizando (29.27) y la condicion de ortonormalidad de los orbitales, se tiene


entonces

h2 | h (i = 1) |H i = hP2 H | h (i = 1) |H i
= hP231 [a1 (T1 ) a2 (T2 ) a3 (T3 )]| h (i = 1) |a1 (T1 ) a2 (T2 ) a3 (T3 )i
= ha1 (T2 ) a2 (T3 ) a3 (T1 )| h (i = 1) |a1 (T1 ) a2 (T2 ) a3 (T3 )i
= ha3 (T1 )| h (i = 1) |a1 (T1 )i ha1 (T2 )| a2 (T2 )i ha2 (T3 )| a3 (T3 )i
h2 | h (i = 1) |H i = 0

de una forma similar se puede demostrar que para cada electron (i = 1, 2, 3) solo contribuye la funcion auxiliar
1 = H . Tenemos entonces que

hk | h (i) |H i = k,1 hk | h (i) |H i = k,1 hH | h (i) |H i (29.32)


29.2. VALOR ESPERADO DE LA ENERGIA 651

sustituyendo (29.26) y (29.32) en (29.30), el valor esperado de H (0) queda entonces


(N ) N!
(N ) N X N!
X X X X
(0)
hD| H |Di = hD| h (i) |Di = k hk (T)| h (i) |H (T)i = k,1 k hk (T)| h (i) |H (T)i
i=1 k=1 i=1 i=1 k=1
N
X
hD| H (0) |Di = hH (T)| h (i) |H (T)i
i=1
por otro lado se tiene que
N
X
hH (T)| h (i) |H (T)i = ha1 (T1 ) ai (Ti ) aN (TN )| h (i) |a1 (T1 ) ai (Ti ) aN (TN )i
i=1
XN
= ha1 (T1 )| a1 (T1 )i hai (Ti )| h (i) |ai (Ti )i haN (TN )| aN (TN )i
i=1
XN
hH (T)| h (i) |H (T)i = hai (Ti )| h (i) |ai (Ti )i
i=1
con lo cual
N
X
hD| H (0) |Di = I (ai ) (29.33)
i=1
Z  
~2 2 Ze2
I (ai ) hai (Ti )| h (i) |ai (Ti )i = ai (ri ) ai (ri ) d3 ri (29.34)
2m i ri
donde hemos recordado la definicion (29.31) de h (i). Notese sin embargo, que ri es una variable muda que puede
sustiturse por r.

29.2.2. Valor esperado de H (1)


Dado que este termino acopla pares de partculas, solo se podra reducir a productos internos donde cada bra
y cada ket estara asociado a dos funciones de onda de electron individual. Tomando la expresion (29.28) podemos
escribir
N
X 1 XN
e2
hD| H (1) |Di = hD| |Di (29.35)
rij
i=1 j=i+1

utilizando (29.26) el valor esperado de e2 /rij nos da


X N!
e2
hD| |Di hD| W (i, j) |Di = k hk (T)| W (i, j) |H (T)i ; j > i (29.36)
rij
k=1
e2
W (i, j)
rij
una vez mas ilustraremos el caso N = 3. En tal caso hay tres valores esperados asociados a todos los posibles
pares (i, j) con j > i, que son (1, 2) , (1, 3) y (2, 3). En virtud de (29.36) cada valor esperado es la suma de 3! = 6
contribuciones. Bastara con detallar el calculo de la contribucion para (i, j) = (1, 2). Como se ve de (29.36), el
primero de los 6 terminos para este par lo origina el producto
h1 (T)| W (1, 2) |H (T)i = hH (T)| W (1, 2) |H (T)i
= ha1 (T1 ) a2 (T2 ) a3 (T3 )| W (1, 2) |a1 (T1 ) a2 (T2 ) a3 (T3 )i
= ha1 (T1 ) a2 (T2 )| W (1, 2) |a1 (T1 ) a2 (T2 )i ha3 (T3 )| a3 (T3 )i
h1 (T)| W (1, 2) |H (T)i = ha1 (T1 ) a2 (T2 )| W (1, 2) |a1 (T1 ) a2 (T2 )i J (a1 , a2 )
652 CAPITULO 29. METODO DE HARTREE-FOCK

usando (29.27), la contribucion debida a la funcion auxiliar 4 (T) esta dada por

h4 (T)| W (1, 2) |H (T)i = hP4 H (T)| W (1, 2) |H (T)i = hP213 H (T)| W (1, 2) |H (T)i
= ha1 (T2 ) a2 (T1 ) a3 (T3 )| W (1, 2) |a1 (T1 ) a2 (T2 ) a3 (T3 )i
= ha1 (T2 ) a2 (T1 )| W (1, 2) |a1 (T1 ) a2 (T2 )i ha3 (T3 )| a3 (T3 )i
= ha1 (T2 ) a2 (T1 )| W (1, 2) |a1 (T1 ) a2 (T2 )i K (a1 , a2 )

es decir se obtiene por una permutacion de los electrones 1 y 2 con respecto a la contribucion de 1 . Ahora
consideramos la contribucion de 2 (T)

h2 (T)| W (1, 2) |H (T)i = hP2 H (T)| W (1, 2) |H (T)i = hP231 H (T)| W (1, 2) |H (T)i
= ha1 (T2 ) a2 (T3 ) a3 (T1 )| W (1, 2) |a1 (T1 ) a2 (T2 ) a3 (T3 )i
= ha1 (T2 ) a3 (T1 )| W (1, 2) |a1 (T1 ) a2 (T2 )i ha2 (T3 )| a3 (T3 )i
= 0

dado que los orbitales son ortogonales. Similarmente la contribucion de k es nula para k = 2, 3, 5, 6. Por tanto,
para (i, j) = (1, 2) y para N = 3, solo dos de los seis terminos en (29.36) son no nulos

X 3!
e2
hD| |Di hD| W (1, 2) |Di = k hk (T)| W (1, 2) |H (T)i
r12
k=1
= 1 h1 (T)| W (1, 2) |H (T)i + 4 h4 (T)| W (1, 2) |H (T)i
e2
hD| |Di = J (a1 , a2 ) K (a1 , a2 ) (29.37)
r12
J (a1 , a2 ) ha1 (T1 ) a2 (T2 )| W (1, 2) |a1 (T1 ) a2 (T2 )i
K (a1 , a2 ) ha1 (T2 ) a2 (T1 )| W (1, 2) |a1 (T1 ) a2 (T2 )i (29.38)

realizando el mismo procedimiento para los otros pares de electrones (i, j) resulta

e2
hD| |Di hD| W (1, 3) |Di = J (a1 , a3 ) K (a1 , a3 ) (29.39)
r13
e2
hD| |Di hD| W (2, 3) |Di = J (a2 , a3 ) K (a2 , a3 ) (29.40)
r23

sustituyendo (29.37, 29.39) y (29.40) en (29.35) con N = 3, se obtiene

2 X
X 3
(1) e2 e2 e2 e2
hD| H |Di = hD| |Di = hD| |Di + hD| |Di + hD| |Di
rij r12 r13 r23
i=1 j=i+1
(1)
hD| H |Di = [J (a1 , a2 ) K (a1 , a2 )] + [J (a1 , a3 ) K (a1 , a3 )] + [J (a2 , a3 ) K (a2 , a3 )] (29.41)

a los productos internos J (ak , ap ) y K (ak , ap ) se les denomina termino directo y termino de intercambio, por las
mismas razones descritas en la seccion 28.3. Teniendo en cuenta que estos terminos tienen la propiedad4

J (ak , ap ) = J (ap , ak ) ; K (ak , ap ) = K (ap , ak ) ; K (ak , ak ) J (ak , ak ) = 0 (29.42)

4
La propiedad (29.42) se debe a que las integrales definidas en (29.38) son invariantes ante el intercambio de T1 y T2 .
29.2. VALOR ESPERADO DE LA ENERGIA 653

podemos reescribir (29.41) en la forma


1
hD| H (1) |Di = {[J (a1 , a2 ) K (a1 , a2 )] + [J (a2 , a1 ) K (a2 , a1 )]}
2
1
+ {[J (a1 , a3 ) K (a1 , a3 )] + [J (a3 , a1 ) K (a3 , a1 )]}
2
1
+ {[J (a2 , a3 ) K (a2 , a3 )] + [J (a3 , a2 ) K (a3 , a2 )]}
2
1
+ {[J (a1 , a1 ) K (a1 , a1 )] + [J (a2 , a2 ) K (a2 , a2 )] + [J (a3 , a3 ) K (a3 , a3 )]}
2
notese que los terminos de la ultima lnea son ceros. Por tanto aparecen todos los pares de la forma

J (ai , aj ) K (ai , aj )

sin la restriccion j > i. Podemos escribir la generalizacion de la expresion anterior para N arbitrario en la forma
N
X 1 N
X N N
e2 1 XX
hD| H (1) |Di = hD|
|Di = [J (ak , ap ) K (ak , ap )] (29.43)
rij 2
i=1 j=i+1 k=1 p=1


J (ak , ap ) ak (Tk ) ap (Tp ) W (k, p) ak (Tk ) ap (Tp )


K (ak , ap ) ak (Tp ) ap (Tk ) W (k, p) ak (Tk ) ap (Tp )

la doble suma corre sobre todos los pares de orbitales de manera independiente, con lo cual la expresion (29.43)
recupera una total simetra entre dichos pares.

29.2.3. Valor esperado de H = H (0) + H (1)


Tomando los resultados (29.33) y (29.43) el valor esperado (29.29) de la energa vendra dado por

E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di (29.44)
N
X N X
X N
1
E [D] = I (ak ) + [J (ak , ap ) K (ak , ap )] (29.45)
2
k=1 k=1 p=1
Z 

~2 2 Ze2
I (ak ) hak (Tk )| h (k) |ak (Tk )i = (rk ) ak ak (rk ) d3 rk (29.46)
2m k rk


J (ak , ap ) ak (Tk ) ap (Tp ) W (k, p) ak (Tk ) ap (Tp ) (29.47)


K (ak , ap ) ak (Tp ) ap (Tk ) W (k, p) ak (Tk ) ap (Tp ) (29.48)

La notacion E [D] indica que la energa es un funcional del determinante de Slater, por lo cual la expresion (29.45)
es adecuada para un tratamiento variacional.

29.2.4. Interpretacion fsica de los terminos directo y de intercambio


Hemos definido el termino directo (tambien conocido como energa de Coulomb) en la Ec. (29.47) de la forma

e2
J (ak , ap ) = ak (Tk ) ap (Tp ) a (Tk ) ap (Tp )
k
rkp
Z Z
e2
= ak (rk ) ap (rp ) a (rk ) ap (rp ) d3 rk d3 rp
rkp k
Z Z
2 e2 3
= |ak (rk )|2 ap (rp ) d rk d3 rp
rkp
654 CAPITULO 29. METODO DE HARTREE-FOCK

de la expresion integral vemos que este termino corresponde al valor promedio de 1/rkp entre un par de electrones
(k, p) relativo al estado ak (rk ) ap (rp ) del par en cuestion. En este estado el electron k se encuentra en el
orbital ak y el electron p se encuentra en el orbital ap . Notese que en las integrales no aparece la suma sobre
las variables de espn ya que se escribio cada orbital como el producto de una funcion espacial y un espinor [ver
Ec. (29.7)], y se utilizo la normalizacion de los espinores.
A este termino se le suele llamar energa de Coulomb debido a que tiene un analogo en la electrostatica clasica.
Para un orbital dado ak podemos definir una densidad de carga
ak (rk ) e |ak (rk )|2
que al ser integrada sobre todo el espacio nos da la carga total e del electron dado que el orbital esta normalizado.
El potencial electrostatico generado por esta densidad de carga viene dado por
Z
ak (rn ) 3
ak (rk ) = d rn (29.49)
rkn
con lo cual la energa de Coulomb se escribe como
Z
J (ak , ap ) = ak (rp ) ap (rp ) d3 rp

que en el analogo electrostatico representa la energa potencial de interaccion entre las distribuciones de carga
asociadas con los orbitales ak y ap .
Ahora examinemos el termino de intercambio (29.48)


K (ak , ap ) ak (Tp ) ap (Tk ) W (k, p) ak (Tk ) ap (Tp )
Z Z
e2
= (k , p ) ak (rp ) ap (rk ) a (rk ) ap (rp ) d3 rk d3 rp
rkp k
que corresponde al elemento de matriz de la interaccion coulombiana entre el par de electrones (k, p) relativo a
los estados ak (rp ) ap (rk ) y ak (rk ) ap (rp ). Estos estados difieren entre s por el intercambio del par (k, p)
de electrones. La delta de Kronecker proviene de la ortonormalidad de la parte espinorial.
Ya habamos visto que para el termino directo el electron k se encontraba en el orbital ak y el electron p
en el orbital ap . Si solo contribuyera el termino directo, esto implicara que las partculas son distinguibles. De
hecho la presencia del termino de intercambio surge del caracter antisimetrico de la funcion de onda y por tanto
del postulado de simetrizacion. En consecuencia, dicho termino no posee un analogo clasico.

29.3. Metodo de Hartree-Fock para una capa cerrada


Nos limitaremos al caso de un atomo en una capa cerrada. En este caso, solo requerimos un determinante de
Slater D para describir la estructura electronica del atomo. Tenemos entonces un determinante de Slater
D = D [a1 , a2 , . . . , aN ]
formado por N orbitales ortonormalizados

S (ak , ap ) hak (Tk ) ap (Tp ) = kp (29.50)
como ya se menciono, la energa E [D] dada por (29.45) es un funcional del determinante de Slater y por tanto, de
los N orbitales ak (Ti ). De acuerdo con el principio variacional, el conjunto optimo de orbitales {a1 , . . . , aN }
esta formado por aquellos orbitales que minimizan la energa E [D], sujetos a la ligadura (29.50) de ortonormalidad.
En el procedimiento variacional, se fija un cierto conjunto de numeros cuanticos a = {a1 , . . . , aN } y se vara la
forma de los orbitales hasta lograr que la energa E [D] sea un mnimo. En consecuencia, el metodo de Hartree-
Fock es un metodo para calcular los orbitales optimos con el metodo variacional dentro del modelo de partcula
independiente.
29.3. METODO DE HARTREE-FOCK PARA UNA CAPA CERRADA 655

29.3.1. Minimizacion de E [D] con ligaduras


Es bien sabido que cuando se quiere minimizar un funcional manteniendo un conjunto de ecuaciones de
ligadura, debemos introducir unas variables auxiliares (multiplicadores de Lagrange), una por cada ecuacion de
ligadura. Tendremos que introducir entonces un conjunto N 2 de multiplicadores de Lagrange kp , uno por cada
ecuacion de ligadura (29.50). Al introducir estas variables auxiliares podemos trabajar los orbitales como si fueran
independientes introduciendo el funcional auxiliar

N X
X N
  
F {a1 , a2 , . . . , aN } , a1 , a2 , . . . , aN E [D] kp S (ak , ap )
k=1 p=1

N
X N N N N
1 XX XX
F [, ] = I (ak ) + [J (ak , ap ) K (ak , ap )] kp S (ak , ap ) (29.51)
2
k=1 k=1 p=1 k=1 p=1
{a1 , a2 , . . . , aN }

de modo que este es un funcional con 2N variables independientes puesto que cada orbital es complejo y por tanto
posee dos grados de libertad: su parte real y su parte imaginaria. Es mas conveniente sin embargo tomar a ak y
a ak como las variables independientes, en lugar de la parte real e imaginaria de ak . Ahora debemos escribir el
funcional F [, ] de manera que queden explcitas las 2N variables (orbitales) de las cuales depende. Para ello
se sustituyen (29.46, 29.47, 29.48) y (29.50) en (29.51) y se obtiene

N
X
F [, ] hak (Tk )| h (k) |ak (Tk )i
k=1
N N
1 X X 

+ ak (Tk ) ap (Tp ) W (k, p) ak (Tk ) ap (Tp )
2
k=1 p=1


ak (Tp ) ap (Tk ) W (k, p) ak (Tk ) ap (Tp )
N X
X N

kp hak (Tk )| ap (Tp ) (29.52)
k=1 p=1

aplicando el principio variacional, buscamos el conjunto de 2N orbitales , que dejen a F [, ] estacionario


con respecto a variaciones arbitrarias de las variables independientes
  
F {a1 , a2 , . . . , aN } , a1 , a2 , . . . , aN = 0

la estructura de la Ec. (29.52) permite escribir

N
X    
F = k F ; k F F ak + ak F ak
k=1

k F es la variacion del funcional F cuando se modifica la variable independiente ak dejando fijas las demas
variables independientes (variacion parcial)5 . Vale anadir que la variacion de un orbital se realiza solo en su parte
espacial dejando inmodificadas las variables de espn, ya que las variables de espn no permiten una variacion
contnua.
5
Incluso se deja fijo el orbital ak
656 CAPITULO 29. METODO DE HARTREE-FOCK

29.3.2. Calculo de F [, ]
Realizaremos la variacion de los terminos asociados a pares de electrones. Comenzamos con el termino directo
o energa de Coulomb
N N
1 XX

J J (ak , ap ) ; J (ak , ap ) ak (Tk ) ap (Tp ) W (k, p) ak (Tk ) ap (Tp )
2 p=1
k=1

dado que solo se realizara una variacion sobre los orbitales conjugados an , esto implica que solo se hara variacion
sobre el bra (sin variacion sobre el ket). Tendremos por tanto


J (ak , ap ) = ak (Tk ) ap (Tp ) W (k, p) ak (Tk ) ap (Tp )


= {ak (Tk )} ap (Tp ) W (k, p) ak (Tk ) ap (Tp )


+ ak (Tk ) ap (Tp ) W (k, p) ak (Tk ) ap (Tp )

de modo que
N N
1 XX

J {ak (Tk )} ap (Tp ) W (k, p) ak (Tk ) ap (Tp )
2
k=1 p=1
N N
1 XX

+ ak (Tk ) ap (Tp ) W (k, p) ak (Tk ) ap (Tp )
2
k=1 p=1

puesto que las variables Tk , y Tp de integracion son mudas podemos asignar Tk Ti , y Tp Tj , para escribir
N N
1 XX

J {ak (Ti )} ap (Tj ) W (i, j) ak (Ti ) ap (Tj )
2
k=1 p=1
N N
1 XX

+ ak (Ti ) ap (Tj ) W (i, j) ak (Ti ) ap (Tj )
2
k=1 p=1

adicionalmente, las variables de suma tambien son mudas de modo que podemos intercambiar los ndices k p
en la segunda sumatoria para obtener
N N
1 XX

J {ak (Ti )} ap (Tj ) W (i, j) ak (Ti ) ap (Tj )
2
k=1 p=1
N N
1 XX

+ ap (Ti ) {ak (Tj )} W (i, j) ap (Ti ) ak (Tj )
2
k=1 p=1

puesto que el operador de repulsion W (i, j) es simetrico y las variables de integracion i, j son mudas, podemos
intercambiar los ndices (i, j) en el segundo termino, con lo cual vemos que las dos sumas son iguales. Retornando
a las antiguas variables de integracion se tiene
N X
X N


J = {ak (Tk )} ap (Tp ) W (k, p) ak (Tk ) ap (Tp ) (29.53)
k=1 p=1

para el termino de intercambio podemos hacer un proceso similar


N N
1 XX

K K (ak , ap ) ; K (ak , ap ) ak (Tk ) ap (Tp ) W (k, p) ak (Tp ) ap (Tk )
2
k=1 p=1
29.3. METODO DE HARTREE-FOCK PARA UNA CAPA CERRADA 657

la variacion de este termino se puede obtener intercambiando Tk Tp en el ket (tambien se debe invertir en
W (k, p) pero este es simetrico) en la expresion (29.53) para obtener
N X
X N


K = {ak (Tk )} ap (Tp ) W (k, p) ak (Tp ) ap (Tk )
k=1 p=1

la variacion del termino asociado a H (0) y de la ligadura son mucho mas simples. La variacion del funcional (29.52)
estara dada por
N
X
F = hak (Tk )| h (k) |ak (Tk )i
k=1
XN X
N


+ {ak (Tk )} ap (Tp ) W (k, p) ak (Tk ) ap (Tp )
k=1 p=1
N X
X N


{ak (Tk )} ap (Tp ) W (k, p) ak (Tp ) ap (Tk )
k=1 p=1
N X
X N

kp hak (Tk )| ap (Tp ) (29.54)
k=1 p=1

puesto que los bras y kets de pares de partculas son productos tensoriales de bras y kets de partcula individual,
los sumandos en el segundo y tercer termino en esta variacion se escriben como


J (ak , ap ) = {ak (Tk )} ap (Tp ) W (k, p) ak (Tk ) ap (Tp )


= hak (Tk )| ap (Tp ) W (k, p) |ak (Tk )i ap (Tp )


= hak (Tk )| ap (Tp ) W (k, p) |ak (Tk )i ap (Tp )

ahora bien, el principio variacional exige que F = 0 para una variacion arbitraria del bra (o del orbital conjugado)
hak |. Dado que las variaciones de cada ak son independientes, esto se cumple si y solo si k F = 0 para cada
orbital. Por tanto, la Ec. (29.54) nos da
N
X

h (k) |ak (Tk )i + ap (Tp ) W (k, p) ap (Tp ) |ak (Tk )i
p=1
N
X N

X
ap (Tp ) W (k, p) |ak (Tp )i ap (Tk ) kp ap (Tp )
p=1 p=1
= 0 (29.55)

este es un conjunto de N ecuaciones acopladas cuya solucion nos lleva a determinar los orbitales optimos ak (Ti )
requeridos por el principio variacional.
Los multiplicadores de Lagrange kp forman un arreglo matricial N N que se puede diagonalizar gracias a
que los orbitales se escriben como el producto de un orbital espacial y otro espinorial Ec. (29.7). En notacion de
Dirac escribimos 
1

|ak (Tp )i = |ak (rp )i sp = , (ms )p |ak (rp )i |k (p)i
2
donde se omite la informacion sobre sp ya que el espn solo puede tomar el valor 1/2. Puesto que los espinores son
ortonormales
hm (p) |k (p)i = (m , k ) (29.56)
658 CAPITULO 29. METODO DE HARTREE-FOCK

podemos diagonalizar la matriz de los multiplicadores de Lagrange multiplicando la ecuacion (29.55) por el bra
espinorial hk (p)|, teniendo en cuenta la descomposicion (29.7) para cada orbital en (29.55), as como las relaciones
de ortonormalidad (29.56) y el hecho de que los operadores involucrados en (29.55) son independientes del espn.
Con todas estas consideraciones se obtiene

N
X

h (k) |ak (rk )i + ap (rp ) W (k, p) ap (rp ) |ak (rk )i
p=1
N
X

(p , k ) ap (rp ) W (k, p) |ak (rp )i ap (rk ) ak |ak (rk )i
p=1
= 0 (29.57)
ak kp pk (29.58)

finalmente, puesto que las variables rk y rp son variables mudas de integracion pueden sustiturse por r y r .

29.4. Operadores de Hartree-Fock


La Ec. (29.57) es claramente una ecuacion de valores propios para el ket |ak (rk )i, o en la base de las |ri para
la funcion de onda ak (rk )

Fak (r) = ak ak (r) ; k = 1, 2, . . . , N (29.59)


 2

~ 2 Ze2
F + V (r) ; V (r) J (r) K (r) (29.60)
2m r
N
X N

X
 e2 
J (r) ap (rp ) W (k, p) ap (rp ) = ap r
ap r (29.61)
p=1 p=1
|r r |
N N Z 2
X X ap (r ) 3
2
J (r) e ap (r) = e d r (29.62)
p=1 p=1
|r r |
N
X

K (r) ak (r) (p , k ) ap (rp ) W (k, p) |ak (rp )i (29.63)
p=1
N
X
e2
 
= (p , k ) ap r
ak r ap (r)
|r r |
p=1
N
"Z #
X (r ) (r )
a ak
K (r) ak (r) = e2 (p , k ) p
|
d3 r ap (r) (29.64)
p=1
|r r

recordemos que de acuerdo con la Ec. (29.58) ak son los multiplicadores diagonalesde Lagrange kk . La Ec.
(29.59) nos dice que los ak son valores propios del operador de Hartree-Fock F, de manera que podemos
escribir
ak = hak (r)| F |ak (r)i ; k = 1, 2, . . . , N
A los terminos J (r) y K (r) se les denomina terminos directo y de intercambio, ya que son similares a los terminos
directo y de intercambio definidos en la seccion 29.2.4, donde ap (r) es el potencial (29.49) generado por el orbital
ap de acuerdo con la discusion en la seccion 29.2.4. Notese que la suma sobre p en estas expresiones, se recorre
sobre los orbitales que definen a la funcion de Hartree.
29.5. INTERPRETACION DE LA ECUACION DE HARTREE-FOCK 659

Por otro lado, el operador K (r) (operador de intercambio) se define como un operador integral de acuerdo
con la expresion (29.64). El delta de Kronecker indica que solo sobreviven los pares de orbitales que tienen el
mismo numero cuantico magnetico de espn, es decir cuando ambos tienen espn arriba o ambos espn abajo. La
ecuacion (29.59) de valores propios que surge de los multiplicadores de Lagrange diagonalizados, con las definiciones
(29.60-29.64) se conoce como Ecuacion de Hartree-Fock.

29.5. Interpretacion de la ecuacion de Hartree-Fock


La ecuacion (29.59) de Hartree-Fock, nos muestra que el operador de Hartree-Fock F puede interpretarse
como un Hamiltoniano efectivo de partcula individual, y los valores propios ak son energas efectivas de partcula
individual. Recordemos que nuestro objetivo es caracterizar la estructura electronica de un atomo formado por
N electrones. Para ello hemos partido de un Hamiltoniano H de N partculas [ver Ec. (29.1)], y lo reducimos al
problema de una partcula descrita por un Hamiltoniano efectivo F.
De otra parte, la expresion (29.60) nos muestra que la determinacion del potencial V (r) requiere la determi-
nacion de los terminos de Coulomb J (r) y de intercambio K (r). A su vez, las expresiones (29.62, 29.64) muestran
que la determinacion de J (r) y K (r) requiere del conocimiento de los N orbitales ak (r) [los cuales de entrada son
desconocidos]. Adicionalmente, la Ec. (29.64) nos muestra que la evaluacion del termino de intercambio requiere
conocer el numero cuantico magnetico de espn de cada orbital. En sntesis se necesitan los N orbitales comple-
tos ak (Ti ) para determinar el potencial V (r) [o equivalentemente, para determinar el operador de Hartree-Fock
(29.60)]. F es un operador hermtico y por tanto sus valores propios (energas efectivas) son reales. Los orbitales
de Hartree-Fock incluyen entonces la informacion del espn.
Un atomo de N electrones tiene en principio infinito numero de orbitales. Los orbitales de Hartree-Fock se
dividen en dos grupos: (a) Orbitales ocupados que se llenan en concordancia con el principio de exclusion de Pauli
y (b) Orbitales desocupados o virtuales que pueden ser ocupados si se introduce una perturbacion.
Por ejemplo, el neon (gas noble con capa cerrada) tiene la configuracion electronica

N e : 1s2 , 2s2 , 2p6

los orbitales 1s, 2s, 2p son los orbitales ocupados (para el Neon en el estado base). Para estos orbitales un calculo
de Hartree-Fock conduce aproximadamente a los siguientes valores [11]

1s = 32,7720 , 2s = 1,9300 , 2p = 0,8500

por supuesto hay infinitos orbitales desocupados o virtuales tales como 3s, 3p, 3d, 4s, . . . y que pueden ser ocupados
si se introduce alguna perturbacion que excite al atomo.

29.6. Solucion por iteracion de la ecuacion de HF


Ya vimos que la ecuacion de Hartree-Fock (29.59) tiene la estructura de un problema de valores propios en
donde el operador de Hartree-Fock F hace las veces de un Hamiltoniano efectivo de una partcula y sus valores
propios son energas efectivas de partcula individual. No obstante, a diferencia de un Hamiltoniano normal, el
operador F no se conoce a priori ya que el potencial V depende de los operadores directo y de intercambio, que a
su vez dependen de los orbitales que hasta este punto son desconocidos.
Por tanto, debemos determinar tanto los orbitales como al operador de Hartree-Fock. Para ello partimos de
un conjunto de orbitales de prueba
n o n o
(1)
a (1)
a1 (T 1 ) , (1)
a2 (T 2 ) , . . . , (1)
aN (T N )

que se postulan con base en algun argumento fsico (por ejemplo orbitales hidrogenoides). Con estos orbitales de
prueba se calculan los terminos directo y de intercambio por medio de las Ecs. (29.62, 29.64). Posteriormente, se
660 CAPITULO 29. METODO DE HARTREE-FOCK

calcula el operador de Hartree-Fock F(1) a traves de las Ecs. (29.60). Denotamos


n o a este operador con el suprandice
(1)
(1) para indicar que se construyo con base en las funciones de prueba a . Procedemos entonces a resolver la
ecuacion (1)
n o de valores propios de Hartree-Fock con el operador F , los orbitales obtenidos que denotaremos como
(2)
a se utilizan a su vez para construr un nuevo operador de Hartree-Fock F(2) , con base en el cual volvemos
n o
(3)
a resolver la ecuacion de Hartree-Fock para obtener un nuevo conjunto de orbitales a y luego un nuevo
operador de Hartree-Fock F(3) . El proceso se puede continuar iterativamente digamos hasta realizar M iteraciones
que esquematicamente ilustramos de la siguiente forma

n o n o n o
(1)
a F (1)
(2)
a F (2)
(M )
a F(M )
| {z } | {z } | {z }

hasta lograr la autoconsistencia, es decir cuando la siguiente iteracion no produzca un cambio significativo ni en
los orbitales ni en el operador F. Es decir, logramos la autoconsistencia si

n o n o n o
(M
a
)
(M +1)
a (N )
a y F(M ) F(M +1) F(N ) ; N >M

El potencial V de Hartree-Fock que se calcula de esta forma se denomina potencial de campo autoconsistente.

29.7. Determinacion del valor Fsico de la energa

La ecuacion de Hartree-Fock es una ecuacion efectiva que no nos da en forma directa el valor Fsico de las
energas. Sin embargo, las energas efectivas de partcula individual ak se pueden conectar con la energa fsica
si escribimos el Hamiltoniano fsico H en terminos del operador F. Para ello tenemos en cuenta las expresiones
(29.1, 29.28) y (29.60) para H y F

H = H (0) + H (1)
XN   XZ X Z
(0) ~2 2 Ze2 (1) e2
H i ; H
2m ri |ri rj |
i=1 i=1 j>i
 
~2 2 Ze2
F (ri ) + J (ri ) K (ri )
2m i ri

con lo cual

N
X
(0)
H [F (ri ) J (ri ) + K (ri )] (29.65)
i=1
29.7. DETERMINACION DEL VALOR FISICO DE LA ENERGIA 661

con el metodo antes descrito podemos calcular el determinante de Slater D, con el cual podemos calcular el valor
esperado de la energa. Combinando las Ecs. (29.33, 29.34) y (29.65) podemos determinar el valor esperado de H (0)

N Z
X  
(0) ~2 2 Ze2
hD| H |Di = ak (rk ) ak (rk ) d3 rk
2m k rk
k=1
XN Z
= ak (rk ) [F (rk ) J (rk ) + K (rk )] ak (rk ) d3 rk
k=1
N Z
X
hD| H (0) |Di = ak (rk ) [ak J (rk ) + K (rk )] ak (rk ) d3 rk
k=1
XN Z N Z
X
= ak ak (rk ) ak (rk ) d3 rk ak (rk ) J (rk ) ak (rk ) d3 rk
k=1 k=1
XN Z
+ ak (rk ) K (rk ) ak (rk ) d3 rk
k=1
N
X N
X N
X
(0)
hD| H |Di = ak hak (r)| J (r) |ak (r)i + hak (r)| K (r) |ak (r)i
k=1 k=1 k=1

donde hemos usado la ortonormalidad de los orbitales y el hecho de que tales orbitales son funciones propias de
F. Y teniendo en cuenta las relaciones
Z N
X
hak (r)| J (r) |ak (r)i ak (rk ) J (rk ) ak (rk ) d3 rk = J (ak , ap )
p=1
Z N
X
hak (r)| K (r) |ak (r)i ak (rk ) K (rk ) ak (rk ) d3 rk = K (ak , ap )
p=1

Este valor esperado se puede escribir como


N
X N X
X N
(0)
hD| H |Di = ak [J (ak , ap ) K (ak , ap )]
k=1 k=1 p=1

por otro lado, el valor esperado de H (1) viene dado por (29.43)

N N
1 XX
hD| H (1) |Di = [J (ak , ap ) K (ak , ap )]
2
k=1 p=1

con lo cual el valor esperado del Hamiltoniano completo es


N
X N N
1 XX
E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di = ak [J (ak , ap ) K (ak , ap )] (29.66)
2 p=1
k=1 k=1

esta energa posee entonces tres contribuciones, la energa efectiva asociada a los electrones independientes donde
cada energa esta asociada a uno de los orbitales ocupados, la energa de Coulomb (originada en la interacccion
de Coulomb clasica), y la energa de intercambio que tiene su origen en la combinacion entre la interaccion de
Coulomb entre los electrones y la naturaleza indistinguible de estos.
662 CAPITULO 29. METODO DE HARTREE-FOCK

Notese que a pesar de que el determinante de Slater surge de un modelo de partculas independientes, el
Hamiltoniano F equivalente de partcula independiente depende de la interaccion repulsiva entre electrones por
medio de los terminos J (r) y K (r). Adicionalmente, las dos ultimas contribuciones en la Ec. (29.66) tambien
surgen de la repulsion electrostatica entre pares de electrones del sistema. En consecuencia, tanto el determinante
de Slater como el valor esperado E [D] contienen la informacion sobre la interaccion, a pesar de provenir de un
modelo de partcual independiente. La Ec. (29.66) es equivalente a (29.45), pero la Ec. (29.66) tiene la ventaja de
estar escrita en terminos de las soluciones ak de la ecuacion de Hartree-Fock.


Bibliografa

[1] Robert M. Eisberg. Fundamentals of Modern Physics. John-Wiley & Sons, Inc.

[2] Arthur Beiser. Perspectives of Modern Physics. McGraw-Hill International Editions, Physics Series (1969).

[3] Frank J. Blatt. Modern Physics. McGraw-Hill International Editions, Physics Series (1992).

[4] Claude Cohen-Tannoudji, Bernard Diu, Franck Laloe. Quantum Mechanics Vols. I, II English version pu-
blished by Hermann and by John Wiley & Sons. Inc. Second Ed. (1977).

[5] Diogenes Campos Romero. Fundamentos de Fsica Atomica y Molecular. Editorial Universidad Nacional.
Bogota, Colombia (1997).

[6] Jerry B. Marion, Stephen Thornton. Classical Dynamics of Particles and Systems. 5th Ed., Thomson
Brooks/Cole (2004).

[7] Leonard I. Schiff. Quantum Mechanics. 3rd Ed., McGraw-Hill International Editions, Physics Series (1968).

[8] John S. Townsend. A modern Approach to Quantum Mechanics. McGraw-Hill International Editions, Physics
Series (1992).

[9] David J. Griffiths. Introduction to Quantum Mechanics. 2nd Ed., Pearson Prentice Hall (2005).

[10] Fujia Yang, Joseph H. Hamilton. Modern Atomic and Nuclear Physics. McGraw-Hill International Editions,
Physics & Astronomy Series (1996).

[11] E. Kryachko, E. V. Ludena. Energy Density Functional Theory of Many-Electron systems, Dordrecht, Kluwer
Academic Publishers, (1990).

[12] G. Esposito, G. Marmo and G. Sudarshan. From Classical to Quantum Mechanics, Cambridge University
Press, (2004).

663

Anda mungkin juga menyukai