Física
Matemática
Héctor Hernández
Luis A. Núñez
EDICIÓN 2013
Héctor Hernández
Mérida Venezuela
Luis A. Núñez
Mérida Venezuela
Bucaramanga Colombia
Índice general
2
Métodos Matemáticos de la Fı́sica
10
Métodos Matemáticos de la Fı́sica
1. Necesidad de modelos matemáticos de la naturaleza. Desde los albores del renacimiento, con
Galileo Galilei a la cabeza es imperioso representar cantidades de manera precisa. Las matemáticas
nos apoyan en esta necesidad de precisión. Desde ese entonces las matemáticas son el lenguaje de la
actividad cientı́fica.
2. Los modelos tienen que tener contrastación experimental. Las ciencias y sus modelos, en última
instancia, tienen que ver con la realidad, con la naturaleza y por ello debemos medir y contrastar las
hipótesis con esa realidad que modelamos. Necesitamos representar cantidades medibles (observables)
y que por lo tanto tienen que ser concretadas de la forma más compacta, pero a la vez más precisa
posible.
3. Las leyes de los modelos deben ser independiente de los observadores. Cuando menos a
una familia significativa de observadores. El comportamiento de la naturaleza no puede depender de la
visión de un determinado observador, ası́ los modelos que construimos para describirla, tampoco pueden
depender de los observadores. Con conocer la ley de transformación entre observadores equivalentes
deberemos conocer cómo ocurren los fenómenos en otros referenciales.
Por ello, tropezaremos con escalares, vectores, tensores y espinores, dependiendo del número de cantidades
que necesitemos para representar ese objeto pero, sobre todo, dependiendo de la ley de transformación que
exista entre estos objetos. Constataremos que las leyes de la Fı́sica vienen escritas en forma vectorial (o
tensorial) y, por lo tanto, al conocer la ley de transformación de los vectores (tensores) conoceremos la visión
que de esta ley tendrán otros observadores.
Escalares: Serán aquellas cantidades las cuales se representan con UN solo número, una magnitud: temperatura,
volumen, masa, entre otras. Es costumbre no denotarlas de manera especial, ası́ T = 5o C represen-
tará una temperatura de 5 grados centı́grados.
Vectores: Serán cantidades las cuales, para ser representadas por un objeto matemáticos requieren más de un
número, requieren de UN número, UNA dirección y UN sentido. Entre las cantidades que tı́picamente
reconocemos como vectores están: la velocidad, la aceleración, la fuerza En términos gráficos podremos
decir que un vector será un segmento orientado, en el cual la dimensión del segmento representará su
módulo y su orientación la dirección y el sentido. Para diferenciarla de las cantidades escalares hay
una variedad de representaciones, entre ellas: en negrita a; con una flecha arriba de la cantidad ~a;
−−→
con una tilde arriba ã; o explicitando el origen del segmento orientado OP . El módulo del vector lo
representaremos dentro de la función valor absoluto, o sencillamente sin la flecha arriba a = |a| = |~a| .
Los vectores son independientes del sistema de coordenadas. Sus caracterı́sticas (módulo, dirección y
sentido) se preservarán en todos los sistemas de coordenada. Más aún, habrá vectores que podremos des-
plazarlos (conservando su módulo dirección y sentido) paralelos a ellos mismos, en el espacio y (obvio que)
seguirán siendo los mismo. Por ello encontrarán el término de vectores deslizantes. Un ejemplo de ellos son
las fuerzas que actúan en un determinado cuerpo, como se muestra el cuadrante III en la Figura 1.1, arriba.
También habrá vectores atados a un punto en el espacio, por cuanto representan una de sus propiedades:
la velocidad del viento, el campo eléctrico, o sus variaciones son algunos ejemplos de estos vectores atados
(observe la Figura 1.2 como ejemplos ilustrativos).
Vector nulo Es aquel que tiene por módulo cero y no se le pude asignar dirección ni sentido. Podremos
comparar vectores si tienen la misma dirección y sentido.
Vector unitario Es aquel que tiene por módulo la unidad, es muy útil por cuanto, para efectos algebraicos,
“contiene” únicamente dirección y sentido. Lo denotaremos con un acento circunflejo, comúnmente llamado
~a
“sombrero” û~a = , con lo cual todo vector ~a = |~a| û~a se podrá expresar por un módulo en la dirección y
|~a|
sentido de un vector unitario.
Comparamos vectores Al comparar sus módulos diremos que pueden ser mayores, menores o iguales.
Por lo tanto, tal y como mostramos en el cuadrante I de la Figura 1.1, dos vectores serán iguales ~a = ~b si
tienen la misma dirección y sentido.
Multiplicación por un escalar Un vector, multiplicado por un escalar, n, cambiará su módulo si n > 0
y cambiará su sentido y eventualmente su módulo si n < 0 Tal y como puede apreciarse en el cuadrante I de
la Figura 1.1. Claramente dos vectores proporcionales serán colineales. Diremos además, que el inverso del
vector ~a será la multiplicación de ~a por (−1) . Esto es ~c = (−1) ~a = −~a
Suma de vectores Aprendimos que para sumar vectores utilizamos la regla del paralelogramo, es decir,
desplazamos paralelamente uno de los vectores y lo colocamos a continuación del otro, de tal forma que
la diagonal del paralelogramo, que tiene por lados los vectores sumandos, constituye el vector suma (ver
cuadrantes IIa y IIb de la Figura 1.1). Este esquema se puede generalizar para varios vectores tal y como lo
mostramos en el cuadrante IIa de la Figura 1.1. Allı́ construimos un polı́gono cuyos lados los constituyen los
vectores sumandos ~a, ~b, ~c,d~ y ~n con ~n = ~a + ~b + ~c + d.
~
Nótese que aún el caso tridimensional, el vector suma siempre será coplanar (estará en el mismo plano)
a los sumandos que lo generaron.
Igualmente, podemos definir la resta de vectores al sumar el inverso. Esto es
~a − ~b ≡ ~a + −~b ⇒ 0 = ~a − ~a ≡ ~a + (−~a)
En términos gráficos la resta de dos vectores se representa colocando los vectores (minuendo y sutraendo) con
el mismo origen y uniendo las cabezas de flecha. Dependiendo de cual vector es el minuendo y cual sustraendo
el vector
resta apuntará
del sustraendo hacia el minuendo. Obsérvese el cuadrante IIa de la Figura 1.1 la
resta ~a + ~b + ~c − ~a = ~b + ~c.
Claramente, el módulo del vector resta representa la distancia entre los dos extremos de los vectores
minuendo y el sustraendo
Un resumen de propiedades Podemos resumir las propiedades del álgebra de vectores como sigue
La suma de vectores
es decir que la única manera que al sumar cualquier múltiplo de ~a, ~b, ~c se anule esto obliga que los escalares son
necesariamente nulos. Si no se cumple lo anterior entonces diremos que uno de los vectores será linealmente
dependiente y que por lo tanto se podrá expresar como combinación lineal de los otros dos
µ 6= 0
µ~a + ν~b + γ~c = 0 alguno de ν 6= 0 ⇒ ~c = µ̄ ~a + ν̄ ~b
γ 6= 0
Los vectores linealmente independientes formarán base para el espacio donde ellos “viven” y el número
máximo de vectores linealmente independientes será la dimensión de ese espacio de “residencia”. Tratemos
de concretar algunas de estas importantes afirmaciones.
el contrario también será cierto: si dos vectores son colineales ellos serán linealmente dependientes.
ν
~a = α~b ⇒ µ~a + ν~b = 0 ⇒ µα~b + ν~b = 0 ⇒ (µα + ν) ~b = 0 ⇒ α = −
µ
y con lo cual podremos afirma que si dos vectores son linealmente independientes ellos no son colineales y
más aún si dos vectores son linealmente independientes no son colineales.
Tres vectores linealmente dependientes son complanares. Es claro que por ser los tres vectores
linealmente dependientes al menos uno de los escalares tiene que ser distinto de cero. Esto es
µ ν
µ~a + ν~b + γ~c = 0 ⇒ ~c = − ~a − ~b = µ̄ ~a + ν̄ ~b
γ γ
pero como µ̄ ~a ∝ ~a y ν̄ ~b ∝ ~b eso significa que ambos µ̄ ~a y ~a y ν̄ ~b y ~b son colineales respectivamente y su
suma estará en el mismo plano.
Dos vectores linealmente independientes expanden todos los vectores coplanares. Esto es, dado
dos vectores ~a, ~b linealmente independientes, entonces cualquier vector ~c,complanar con ~a y ~b, podrá expre-
sarse como una combinación lineal de ellos y diremos que ~c se expresa en términos de ~a, ~b como ~c = µ̄ ~a + ν̄ ~b
y esa expresión es única.
La primera de las afirmaciones es directa por cuanto hemos visto que si ~a y ~b son linealmente independiente
y ~c es complanar con ~a y ~b. Entonces, necesariamente ~a, ~b y ~c son linealmente dependientes. Esto es
µ ν
µ~a + ν~b + γ~c = 0 ⇒ ~c = − ~a − ~b = µ̄ ~a + ν̄ ~b
γ γ
La demostración de que la expansión es única viene de suponer que existen dos maneras distintas de repre-
sentar al vector ~c
~c = µ̄ ~a + ν̄ ~b µ̄ − µ̆ = 0 ⇒ µ̄ = µ̆
⇒ 0 = (µ̄ − µ̆) ~a + (ν̄ − ν̆) ~b ⇒
~c = µ̆ ~a + ν̆ ~b ν̄ − ν̆ = 0 ⇒ ν̄ = ν̆
debido a que ~a y ~b son linealmente independiente. La demostración para el caso tridimensional es equivalente.
Es decir tres vectores linealmente independientes ~a, ~b y ~c expanden, de manera unı́voca, todos los vectores
del espacio. Esta demostración queda para el lector.
Cuando un vector ~c se pueda expresar en términos de dos vectores linealmente independientes ~a, ~b diremos
que ~a y ~b forman una base para todos los vectores complanares a ellos. Equivalentemente para el caso
tridimensional, tres vectores linealmente independientes ~a, ~b y ~c conformarán una base para los vectores del
espacio. Los escalares µ, ν para el caso bidimensional se denominan las componentes de ~c a lo largo de ~a y
~b, .respectivamente. Equivalentemente µ, ν, γ serán las componentes de cualquier vector para el caso 3D a lo
largo de ~a, ~b y ~c, respectivamente. Esta nomenclatura será más evidente luego de la próxima sección.
El significado geométrico del producto escalar es evidente el cuadrante I de la Figura El producto escalar
representa la proyección de ~a sobre ~b y equivalentemente la proyección de ~b sobre ~a.
De esta definición se derivan varias consecuencias las cuales por obvias no dejan de ser importantes.
2
El producto escalar de un vector consigo mismo, siempre es positivo. ζ~a = ~a ·~a = |~a| ≥ 0 y√
sólo será √
nulo
si ~a es el vector nulo. Esto es ζ~a = 0 ⇒ ~a = 0. Con esto podemos concluir que |~a| == ~a · ~a = ζ~a
Del producto escalar surge el Teorema del Coseno. Es inmediato generalizar el producto escalar de un
vector consigo mismo, para ello suponemos que ~c = ~a + ~b, con lo cual
2
2 2
~c = ~a + ~b ⇒ ~c · ~c = ~a + ~b · ~a + ~b = |~c| = |~a| + ~b + 2 |~a| ~b cos θh~a,~bi
que no es otra cosa que el teorema del coseno y está ilustrado en el cuadrante III de la Figura 1.3.
Diremos que dos vectores, no nulos son ortogonales (perpendiculares) si su producto escalar es nulo.
Esta afirmación es inmediata
π
~a ⊥ ~b ⇒ θh~a,~bi = ⇒ ~a · ~b = |~a| ~b cos θh~a,~bi = 0
2
y como sentido regla del pulgar derecho, regla de la mano derecha, o más elegante será positivo cuando
la multiplicación de ~a × ~b corresponda al sentido horario.
Dos vectores serán colineales si su producto vectorial se anula. Al igual que el cuando se anula el
producto escalar identificábamos a dos vectores ortogonales, cuando se anule el producto vectorial
tendremos dos vectores paralelos. Obvio que esto se cumple de inmediato
~a k ~b ⇒ θ~a~b = 0 ⇒ |~c| = ~a × ~b = |~a| ~b sen θ~a~b = 0
y si el módulo del vector es cero, obvio que es el vector nulo. Ahora bien, también de aquı́ deducimos
que
~c = ~a × ~b ⇒ ~c · ~a = ~a × ~b · ~a = ~c · ~b = ~a × ~b · ~b = 0
representa del volumen del paralelepı́pedo cuyos lados quedan definidos por ~a, ~b y ~c. Este producto también
cumple con algunas propiedades que enunciaremos ahora y demostraremos más tarde
El producto mixto ~a × ~b ·~c, representa el volumen del paralelepı́pedo cuyos lados son los vectores ~a, ~b
y ~c.Es claro y fue ilustrado que el módulo del producto vectorial ~a × ~b representa el área de la base
y la altura está representada por la proyección del vector ~c sobre la perpendicular al plano de la base
que es, precisamente, |~c| cos θh~c,~a×~bi
Existe una familia de sistema de coordenadas en la cual sus vectores base son ortogonales (o mejor
ortonormales), es decir los vectores base {~e1 , ~e2 , ~e3 } son perpendiculares entre si. Tal y como mostraremos
más adelante, siempre se puede construir un sistema ortogonal (ortonormal) {~e1 , ~e2 , ~e3 } a partir de una
base genérica de vectores linealmente independientes {w ~ 1, w ~ 3 } . Cuando el sistema sea ortogonal sus
~ 2, w
componentes se denominarán rectangulares. Dependiendo del signo del triple producto mixto el sistema de
coordenadas será dextrógiro ((~e1 × ~e2 ) · ~e3 > 0) o levógiro ((~e1 × ~e2 ) · ~e3 < 0) tal y como se muestra en el
cuadrante III de la Figura 1.4
Es costumbre ancestral, por relaciones de dominación de los derechos sobre los izquierdos (en latı́n e
italiano los zurdos son siniestros) utilizar la convención
n odextrógira ((~e1 × ~e2 )·~e3 > 0) y en ese caso utilizamos
el bien conocido conjunto de vectores unitarios ı̂, ̂, k̂ con lo cual desde siempre tenemos que
~a = ax ı̂ + ay ̂ + az k̂ y ~r (P ) = x ı̂ + y ̂ + z k̂
n o
de ahora en adelante representaremos este sistema de coordenadas ortonormal como ı̂ ≡ ı̂1 , ̂ ≡ ı̂2 , k̂ ≡ ı̂3
para recordar que estamos en un sistema de coordenadas cartesianas.
Obviamente el módulo del vector se podrá expresar con la utilización del Teorema de Pitágoras
q p →
−
a2x + a2y + a2z = |~a| y x2 + y 2 + z 2 = r̃ (P )
pero además
~a
u~a = = cos α ı̂ + cos β ̂ + cos γ k̂
|~a|
o equivalentemente
~a + ~b = a1 ı̂1 + a2 ı̂2 + a3 ı̂3 + b1 ı̂1 + b2 ı̂2 + b3 ı̂3 = a1 + b1 ı̂1 + a2 + b2 ı̂2 + a3 + b3 ı̂3
y obviamente, la resta
~a + ~b = a1 ı̂1 + a2 ı̂2 + a3 ı̂3 − b1 ı̂1 + b2 ı̂2 + b3 ı̂3 = a1 − b1 ı̂1 + a2 − b2 ı̂2 + a3 − b3 ı̂3
La base canónica ı̂1 = ı̂ ≡ (1, 0, 0) ;ı̂2 = ̂ ≡ (0, 1, 0) ;ı̂3 = k̂ ≡ (0, 0, 1). Estos vectores son claramente
linealmente independientes y por lo tanto constituyen un base
µ = 0
ν = 0
γ = 0
Los vectores w1 = ı̂ ≡ (1, 0, 0) ; w2 = ı̂ + ̂ ≡ (1, 1, 0) ; ı̂3 = ı̂ + ̂ + k̂ ≡ (1, 1, 1). Estos vectores no son
linealmente independientes de manera obvia. Veamos
µ = 0 µ=0
µ +ν = 0 ⇒ ν=0
µ +ν +γ = 0 γ=0
con lo cual demostramos que son linealmente independientes y por lo tanto constituyen una base para
los vectores tridimensionales.
µax + νbx + γcx = 0
0 = (µax + νbx + γcx )ı̂ + (µay + νby + γcy ) ̂ + (µaz + νbz + γcz ) k̂ ⇒ µay + νby + γcy = 0
µaz + νbz + γcz = 0
Esto no es otra cosa que un sistema de 3 ecuaciones lineales con 3 incógnitas {µ, ν, γ} y la solución que
estamos buscando µ = ν = γ = 0 se cumplirá si
ax bx cx
ay by cy = az (by cx − cx by ) − ay (bx cz − cz bx ) + ax (by cz − cz by ) 6= 0
az bz cz
ζ = ~a · ~b = ~b · ~a = ax bx + ay by + az bz = bx ax + by ay + bz az
Diremos que dos vectores, no nulos son ortogonales (perpendiculares) si su producto escalar es nulo.
Esta afirmación es inmediata
π
~a ⊥ ~b ⇒ θh~a,~bi = ⇒ ~a · ~b = |~a| ~b cos θh~a,~bi = 0
2
Por lo cual
ax bx + ay by + az bz
ax bx + ay by + az bz = |~a| ~b cos θ~a~b ⇒ cos θ b~ = q q
~
ab
a2x + a2y + a2z b2x + b2y + b2z
~a⊥~b ⇒ 0 = ax bx + ay by + az bz
Los vectores de la base canónica ı̂1 = ı̂ ≡ (1, 0, 0) ;ı̂2 = ̂ ≡ (0, 1, 0) ;ı̂3 = k̂ ≡ (0, 0, 1) son claramente
mutualmente ortonormales
cos θı̂̂ = ı̂ · ̂ = ̂ · ı̂ = 0
ı̂ · k̂ = k̂ · ı̂ = 0
̂ · k̂ = k̂ · ̂ = 0
Del producto escalar surge el Teorema del Coseno. Es inmediato generalizar el producto escalar de un
vector consigo mismo, para ello suponemos que ~c = ~a + ~b, con lo cual
2
2 2
~c = ~a + ~b ⇒ ~c · ~c = ~a + ~b · ~a + ~b = |~c| = |~a| + ~b + 2 |~a| ~b cos θh~a,~bi
que no es otra cosa que el teorema del coseno y está ilustrado en el cuadrante III de la Figura 1.3
con lo cual
q q q
2 2 2
|~c| = (ay bz − az by ) + (az bx − ax bz ) + (ax by − ay bx ) = a2x + a2y + a2z b2x + b2y + b2z sen θ~a~b
representa del volumen del paralelepı́pedo cuyos lados quedan definidos por ~a, ~b y ~c.
1. Los ı́ndices repetidos (arriba y abajo) indicarán suma por los valores que tomen los ı́ndices. Las com-
ponentes de los vectores tendrán ı́ndices arriba y los vectores base abajo
3
X
~a = ax ı̂ + ay ̂ + az k̂ = ⇔ ~a = a1 ı̂1 + a2 ı̂2 + a3 ı̂3 = am ı̂m ⇔ ~a = am ı̂m
m=1
2. Los ı́ndices repetidos son mudos (no importa la letra que lo etiquete) y representan suma. Ası́
Kj Aj = Km Am = K1 A1 + K2 A2 + K3 A3 = B
Es claro que la contracción de ı́ndices convierte un conjunto de números (i × j) → 1,a un solo número
4. Los ı́ndices libres (aquellos que no están sumados) indican el número de objetos disponibles y deben
mantenerse. Ası́ 1
K1 A1 + K21 A2 + K31 A3 = B1
Kki Ak = Bi ⇔ K12 A1 + K22 A2 + K32 A3 = B2
1
K1 A1 + K21 A2 + K31 A3 = B1
con lo cual Kki Ak = Bi representan 3 ecuaciones y Kki Akj = Bij representará 9
5. La delta de Kronecker1 δik lleva un ı́ndice arriba y uno abajo. Representa δik = 1 si i = k y es nula en
los otros casos. Con esto
=0 =0 =0 =0 =0 =0
z}|{ z}|{ z}|{ z}|{ z}|{ z}|{
Kkij δki = K11j δ11 + K12j δ12 + K13j δ13 + K21j δ21 + K22j δ22 + K23j δ23 + K31j δ31 + K32j δ32 + K33j δ33
|{z} |{z} |{z}
=1 =1 =1
es decir
Kkij δki = Kkkj = Kiij = K11j + K22j + K33j
1 Leopold Kronecker (7 diciembre 1823 Legnica, Polonia; 29 diciembre 1891, Berlin, Alemania) Matemático polaco con
importantes contribuciones en teorı́a de números, funciones elı́pticas y algebra, ası́ como la interrelación estre estas disciplinas.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians/Kronecker.html
y quiere decir que es distinto de cero cuando todos los ı́ndices son diferentes; 1 si la permutación de
ı́ndices es cı́clicas (o par) y −1 si la permutación es anticı́clica (o impar). Con ello
111
ε a1 b1 + ε112 a1 b2 + ε113 a1 b3 + ε121 a2 b1 + ε122 a2 b2 + ε123 a2 b3 + ε131 a3 b1 + ε132 a3 b2 + ε133 a3 b3
εijk aj bk = ε211 a1 b1 + ε212 a1 b2 + ε213 a1 b3 + ε221 a2 b1 + ε222 a2 b2 + ε223 a2 b3 + ε231 a3 b1 + ε232 a3 b2 + ε233 a3 b3
311
ε a1 b1 + ε312 a1 b2 + ε313 a1 b3 + ε321 a2 b1 + ε322 a2 b2 + ε323 a2 b3 + ε331 a3 b1 + ε332 a3 b2 + ε333 a3 b3
con lo cual 1
c = ε123 a2 b3 + ε132 a3 b2 = a2 b3 − a3 b2
ci = εijk aj bk ⇒ c2 = ε231 a3 b1 + ε213 a1 b3 = a3 b1 − a1 b3
3
c = ε312 a1 b2 + ε321 a2 b1 = a1 b2 − a2 b1
δjj = 3
εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki
εjmn εimn = 2δji ,
εijk εijk = 6.
Producto escalar
A partir da ahora y de forma equivalentemente, expresaremos el producto escalar en término de los
ı́ndices. De forma y manera que
~a · ~b = k~ak
~b
cos θ~a~b = ai bi = bj aj con i, j = 1, 2, 3
2 Tullio Levi-Civita (1873 Padova, Veneto, 1941 Roma, Italia) Geómetra italiano uno de los desarrolladores del Cálculo
Tensorial que más tarde serı́a utilizado, por Einstein y Weyl como el lenguaje de la Relatividad General
Producto vectorial
En términos de ı́ndices, el producto vectorial se puede expresar como
i
~a × ~b = εijk aj bk con i, j = 1, 2, 3
todas las particularidades de producto vectorial ahora descansan en las propiedades del sı́mbolo de Levy
Civita.
i m j
= δm b δn aj cn − δni cn δm j
aj bm = bi an cn − ci aj bj
| {z } |{z}
(~
c·~
a)
(~a·~b)
i
~a × ~b × ~c = bi (~c · ~a) − ci ~a · ~b
2. ~a × ~b · ~c × d~ = (~a · ~c) ~b · d~ − ~a · d~ ~b · ~c
El lado derecho es un escalar, por lo tanto
l
~a × ~b · ~c × d~ = ~a × ~b ~c × d~
l
= εljk aj bk εlmn cm dn = εljk εlmn aj bk cm dn
= εjkl εmnl aj bk cm dn = δm j k k j
δn − δm δn aj bk cm dn
j k
= δm δn aj bk cm dn − δm
k j
δn aj bk cm dn
j
= δm aj cm δ k bk dn − δ k bk cm δ j aj dn
| {z }|n {z } |m {z }|n {z }
(~
a·~
c) (~b·d~) (~b·~c) (~a·d~)
= (~a · ~c) ~b · d~ − ~a · d~ ~b · ~c
Existen varias e importantes cantidades fı́sicas que vienen representadas por pseudovectores, entre ellas
mencionamos
Velocidad Angular ~ × ~r
~v = ω
Cantidad de Movimiento Angular ~
L = ~r × p~
Torque ~τ = ~r × F~
~
∂ B ~ ~
Campo de Inducción Magnética ∂t = −∇ × E
Adicionalmente el volumen, V = ~c · ~a × ~b , como era de esperarse, no es invariante bajo cambio del
espacio
ci → −ci
ai → −ai =⇒ V = ~c · ~a × ~b = ci εijk aj bk → (−ci ) εijk (−aj ) (−bk ) = −V
bi → −bi
El volumen es un pseudoescalar mientras que los escalares son invariantes bajo esta transformación
ai → −ai
=⇒ w = ~a · ~b = ai bi → −ai (−bi ) = w
bi → −bi
en general también tendremos multiplicación entre algunos de estos objetos, con lo cual construiremos otros
objetos. Dejamos al lector demostrar la siguiente tabla de relaciones
vector · vector = escalar
vector · pseudovector = pseudoescalar
pseudovector · pseudovector = escalar
vector × vector = pseudovector
vector × pseudovector = vector
pseudovector × pseudovector = pseudovector
donde X ~ = x ı̂ + y ̂ + z k̂ el conjunto de puntos genéricos que cumple con la ecuación de la recta en 3D. Si
lo colocamos en función de la notación de ı́ndices, las ecuaciones anteriores son más evidentes
~ =X
X ~ 1 + λA
~ ⇒ xm ı̂m = xm m
1 ı̂m + λA ı̂m ⇒ xm = xm
1 + λA
m
para m = 1, 2, 3
Nótese que efectivamente se cumplen tres ecuaciones escalares y cada una de ellas tiene la forma de una
recta. Además, tal y como muestra la Figura 1.5 el punto genérico (x, y, z) lo describe (sobre la recta) la
~
variación del módulo de A mediante la constante de proporcionalidad λ. Si se requiere describir una recta
que pase por dos puntos, digamos (x1 , y1 , z1 ) y (x2 , y2 , z2 ) entonces una vez seleccionado uno de los puntos
~ = ~r (P2 ) − ~r (P1 ) como la resta de los dos radiovectores a los
(digamos (x1 , y1 , z1 )) seleccionamos el vector A
puntos P2 y P1 . Esto es
~ 1 + δX
X ~2 ~1 − X
X ~
~ =X
X ~1 + λ X~2 − X
~1 ~ =
⇒X con δ = .
1−δ ~2 − X
X ~
La división entre vectores δ tiene sentido porque no es una división entre vectores genéricos es una división
entre vectores que tienen la misma dirección Nótese además que, lo mismo ocurre cuando “despejamos” λ
de la ecuación de la recta
~ −X
X ~1 xm − xm x − x1 y − y1 z − z1
1
λ= ⇒ xm = xm
1 + λA
m
⇒λ= = = =
~
A Am Ax Ay Az
y equivalentemente ocurre cuando “despejamos” λde la ecuación de la recta que pasa por dos puntos.
~ −X
X ~1 xm − xm x − x1 y − y1 z − z1
1
λ= ⇒ xm = xm m m
1 + λ (x2 − x1 ) ⇒λ= m = x −x = y −y = z −z
~2 − X
X ~1 xm
2 − x1 2 1 2 1 2 1
~·
A
~r (P ) − ~r (P1 ) = 0 ⇔ ~ · (~r − ~r1 ) = 0
A ⇔ ~ · ~r = A
A ~ · ~r
| {z } | {z }1
~
B b
Ax ı̂ + Ay ̂ + Az k̂ · (x − x1 ) ı̂ + (y − y1 ) ̂ + (z − z1 ) k̂ = 0
Ax (x − x1 ) + Ay (y − y1 ) + Az (z − z1 ) = 0
Ax x + Ay y + Az z − Ax x1 − Ay y1 − Az z1 = 0 ⇒ Ax x + Ay y + Az z = b = Ax x1 + Ay y1 + Az z1
Es claro que A ~ · ~r1 = b es la proyección del radiovector ~r (P1 ) sobre la perpendicular que define al plano. Por
lo tanto será la distancia entre el plano y el origen de coordenadas. Si b = 0 el plano pasa por el origen de
coordenadas.
Consideremos ahora el cuadrante IV de la Figura 1.5. Allı́ están especificados tres puntos en el espacio
caracterizados por sus correspondientes radiovectores posición, ~r (P1 ) = ~r1 , ~r (P2 ) = ~r2 y ~r (P3 ) = ~r3 . Estos
tres puntos serán coplanares si
(~r1 − ~r2 ) · ((~r2 − ~r3 ) × (~r3 − ~r1 )) = 0 ⇔ εmnl (xm m n n l l
1 − x2 ) (x2 − x3 ) x3 − x1 = 0
Nótese que hemos utilizado una base {ẽk (t)} de vectores variables a diferencia de la tradicional base de
vectores cartesianos, los cuales son constantes en módulo dirección y sentido (ver los cuadrantes I y II
de la Figura 1.6). Más aún, tal y como se muestra en cuadrante IIc de la Figura 1.6 todo vector variable
podrá ser expresado como la suma de uno variable, ~a (t) , mas otro constante ~c
~ (t) = ~a (t) + ~c
A
1.9.2. Derivación
De esta manera, cuando uno piensa en un vector variable ~a (t) ⇐⇒ ~a (t) uno rápidamente piensa en
establecer un cociente incremental tal y como se muestra en
~a (t + ∆t) − ~a (t) ∆~a (t) d~a (t)
lı́m = lı́m =
∆t→0 ∆t ∆t→0 ∆t dt
el cuadrante IV de la Figura 1.6 ilustra gráficamente este cociente incremental. Como siempre, las propiedades
de esta operación derivación serán
d ~a (t) + ~b (t) d (~a (t)) d ~b (t)
= +
dt dt dt
d ~a (t) · ~b (t) d ~b (t)
d (~a (t))
= · ~b (t) + ~a (t) ·
dt dt dt
d ~a (t) × ~b (t) d (~a (t)) ~ d ~b (t)
= × b (t) + ~a (t) ×
dt dt dt
Ahora bien, esto implica que
k d (~a (t)) d ak (t) ẽk (t) d ak (t) d (ẽk (t))
~a (t) = a (t) ẽk (t) =⇒ = = ẽk (t) + ak (t)
dt dt dt dt
con lo cual hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional de base y
componentes. Habrá sistemas de coordenadas (bases de vectores) que serán constantes y otros en los cuales
sus vectores bases cambiarán en su dirección. El primer término representa la variación del módulo y el
segundo muestra la contribución de los cambios en dirección del vector. Más aún, mostraremos apoyándonos
en la ilustración del cuadrante el cuadrante III de la Figura 1.6 que, independientemente del sistema de
coordenada el cambio en el módulo apunta en la dirección del vector, mientras que las contribuciones en
dirección apuntan en la dirección perpendicular al vector. Esto es
d (~a (t)) d (|~a (t)|)
= ûak + |~a (t)| ûa⊥ con ûak · ûa⊥ = 0
dt dt
Es fácil convencernos de la forma del primer término. Siempre podemos representar un vector como su
módulo y un vector unitario en la dirección apropiada. Esto es
d (~a (t)) d (|~a (t)| ûa (t)) d |~a (t)| d (ûa (t))
~a (t) = |~a (t)| ûa =⇒ = = ûa (t) + |~a (t)|
dt dt dt dt
adicionalmente
2
d |~a (t)| d (~a (t) · ~a (t)) d (|~a (t)|) d (~a (t))
2
|~a (t)| = ~a (t) · ~a (t) =⇒ ≡ = 2 |~a (t)| ≡ 2~a (t) ·
dt dt dt dt
con lo cual
d (|~a (t)|) ~a (t) d (~a (t)) d (|~a (t)|) d (~a (t))
≡2 · =⇒ = ûa (t) ·
dt 2 |~a (t)| dt dt dt
| {z }
ûa (t)
donde es el ángulo de rotación del vector ~a (t) (ver cuadrante V de la Figura 1.6) Claramente
∆~a⊥ ∆~a ∆ θ~ d (~a (t)) d (θ (t))
≡ · ~a⊥ ~a⊥ = × ~a (t) =⇒ · ûa⊥ ûa⊥ = ûn × ~a (t) = ω
~ × ~a (t)
∆t ∆t ∆t dt dt
con lo cual
d (ûr ) d (cos θ (t) ı̂ + sen θ (t) ̂) dθ (t) dθ (t)
= = − (sen θ (t)) ı̂ + cos θ (t) ̂
dt dt dt dt
ya que
p p
kûr k = ûr · ûr = [cos θ (t) ı̂ + sen θ (t) ̂] [cos θ (t) ı̂ + sen θ (t) ̂] = 1
p p
kûθ k = ûθ · ûθ = [− (sen θ (t)) ı̂ + cos θ (t) ̂] [− (sen θ (t))ı̂ + cos θ (t) ̂] = 1
y
ûθ · ûr = ûr · ûθ = [− (sen θ (t)) ı̂ + cos θ (t) ̂] [cos θ (t) ı̂ + sen θ (t) ̂] = 0
Más aún
d (ûθ ) d (− (sen θ (t)) ı̂ + cos θ (t) ̂) dθ (t)
= = − (cos θ (t) ı̂ + sen θ (t) ̂) = − ûr
dt dt dt
Con lo cual, una partı́cula que describe un movimiento genérico vendrá descrita en coordenadas cartesianas
por
~r = xP (t) ı̂ + yP (t) ̂ + zP (t) k̂
y su velocidad será
d~r (t) d xP (t)ı̂ + yP (t) ̂ + zP (t) k̂ d (xP (t)) d (yP (t)) d (zP (t))
~v (t) = = = ı̂ + ̂ + k̂
dt dt dt dt dt
= vxP (t)ı̂ + vyP (t) ̂ + vzP (t) k̂
y la aceleración
d (vxP (t)) d (vyP (t)) d (vzP (t))
~a (t) = ı̂ + ̂ + k̂ = axP (t)ı̂ + ayP (t) ̂ + azP (t) k̂
dt dt dt
dr (t)P
d
dt dr (t)P d (ûr (t))
~a (t) = ûr (t) +
dt dt dt
dr (t)P dθ (t) d2 θ (t) dθ (t) d (ûθ (t))
+ ûθ (t) + r (t)P ûθ (t) + r (t)P
dt dt dt2 dt dt
dr (t)P
d 2
dt dθ (t) dr (t)P dθ (t) d2 θ (t)
~a (t) = − r (t)P ûr (t) + 2 + r (t)P ûθ (t)
dt dt
dt dt dt2
De aquı́ podemos ver claramente que velocidad ~v (t) y posición ~r (t) son ortogonales. La velocidad, ~v (t) ,
siempre es tangente a la trayectoria ~r (t) y en este caso la trayectoria es una circunferencia. En general el
vector
X X X Z
~rmed = ∆ ~r (ti ) = (~r (ti + ∆ti ) − ~r (ti )) =⇒ lı́m ∆ ~r (ti ) = d~r (t) = ~r (t)
∆t→0
i i i
P
es decir d~r (t) = lı́m∆t→0 i ∆ ~r (ti ) es tangente a la trayectoria. Es claro que
h i ∂x (t) ∂yP (t) ∂zP (t)
P
d~r (t) = d xP (t)ı̂ + yP (t) ̂ + zP (t) k̂ ≡ ı̂ + ̂ + k̂
∂t ∂t ∂t
Tal y como mencionamos arriba, para el sistema de coordenadas cartesiano podemos definir un vector
~r = xP (t) ı̂ + yP (t) ̂
⇓
d (~r (t)) d (θ (t))
~v (t) = ~ × ~r (t) =
= vxP (t) ı̂ + vyP (t) ̂ = ω k̂ × (xP (t) ı̂ + yP (t) ̂)
dt dt
como se ve más claro es en coordenadas polares, esto es
d (~r (t)) dθ (t)
~v (t) = = r (t)P ω | ûn (t)) × (r (t)P ûr (t))
ûθ (t) = (|~
dt dt
⇓ |~r (t)| = const
dθ (t) dθ (t)
r (t)P ûθ (t) = |~
ω | r (t) ûθ (t) =⇒ ≡ |~
ω|
| {z dt } dt
~
v⊥ (t)
φ = φ (x, y, z)
~ =V
V ~ (x, y, z) = ı̂Vx (x, y, z) + ̂Vy (x, y, z) + k̂Vz (x, y, z)
un par de reflexiones se pueden hacer en este punto. Primeramente, dado que hemos relacionado un punto
del espacio con un radio vector posición, entonces
φ = φ (x, y, z) ≡ φ (~r)
P(x,y,z) ↔ (x, y, z) ↔ ~r = xP ı̂ + yP ̂ + zP k̂ ⇒
~ ~ (x, y, z) ≡ V
~ (~r)
V =V
La primera función, φ (~r) será una función escalar de argumento vectorial o, simplemente un campo escalar
y la segunda se conoce como una función vectorial de argumento vectorial o campo vectorial. Como hemos
dicho este tipo de funciones y las operaciones que pueden ser realizadas con ellas, ası́ como también su
significado, será analizada en detalle más adelante en este mismo curso.
En segundo lugar, siempre podremos parametrizar las coordenadas y tendremos
~ =V
V ~ (t) = V
~ (x (t) , (t) y, z (t)) ⇒
~ = ı̂Vx (x (t) , y (t) , z (t)) + ̂Vy (x (t) , y (t) , z (t)) + k̂Vz (x (t) , y (t) , z (t))
V
Este caso lo hemos encontrado en montones de situaciones. El movimiento parabólico viene descrito por un
vectores velocidad y posición
vx = v0x
~v = −k̂gt + ~v0 = −k̂gt + ı̂v0x + ̂v0y + k̂v0z ⇒ vy = v0x
vz = v0z − gt
x = v0x t
g t 2
~r = −k̂ t2 + ~v0 t = −k̂g t + ı̂v0x + ̂v0y + k̂v0z t ⇒ y = v0x t
2
2 2 z = v t − gt
0z
2
d φ (~r (t)) ∂ φ (x (t) , y (t) , z (t)) d x (t) ∂ φ (x (t) , y (t) , z (t)) d y (t) ∂ φ (x (t) , y (t) , z (t)) d z (t)
= + +
dt ∂x dt ∂y dt ∂z dt
d φ (~r (t)) ∂ φ (x, y, z) ∂ φ (x, y, z) ∂ φ (x, y, z) d x (t) d y (t) d z (t)
= ı̂ + ̂+ k̂ ı̂ + ̂ + k̂
dt ∂x ∂y ∂z dt dt dt
~ (~r (t)) = ∂ φ (x, y, z) ı̂ + ∂ φ (x, y, z) ̂+ ∂ φ (x, y, z) k̂ = ∂ m φ (x, y, z)ı̂m = φ,m (x, y, z)ı̂m
∇φ
∂x ∂y ∂z
y lo llamaremos el gradiente de la función. El gradiente de un campo escalar es uno de los objetos más útiles,
el cual lo utilizaremos, por ahora de manera operacional y recordaremos que emerge como consecuencia de
una derivación contra un parámetro. El gradiente mide el cambio del la función φ (x, y, z).
La idea de gradiente nos lleva a considerar al ∇ ~ como un operador vectorial que actúa sobre la función
escalar de variable vectorial φ (~r (t)) . Es decir con un poquito de imaginación
~ ∂ ∂ ∂
∇φ (~r (t)) ≡ ı̂ + ̂+ k̂ φ (x, y, z) = (ı̂m ∂ m ) φ (x, y, z)
∂x ∂y ∂z
⇓
~ (◦) = ∂ (◦) ∂ (◦) ∂ (◦)
∇ ı̂ + ̂+ k̂ = ı̂m ∂ m (◦)
∂x ∂y ∂z
con ~v la derivada del radiovector posición ~r (t), es decir, la velocidad. Es decir, estamos viendo el cambio del
vector ~c respecto al tiempo es el cambio de sus componentes en la dirección de la velocidad.
Si se nos ocurre calcular la derivada del vector velocidad para encontrar la aceleración tendremos que
nos queda expresada como
d ~v ~
~ vi
~a = = ~v · ∇ ~v ⇒ ai = ~v · ∇
dt
donde las componentes cartesianas de los vectores velocidad y aceleración son v i = v i (x (t) , y (t) , z (t))
y ai = ai (x (t) , y (t) , z (t)) , respectivamente.
Con el operador nabla ∇~ (◦) realizaremos operaciones igual como un vector común y corriente. Ası́ en el caso
~ ~
∇ × E se denomina rotor de E ~ viene definido por
~ ~ ∂ ∂ ∂
∇ × E = ı̂ + ̂ + k̂ × Ex ı̂ + Ey ̂ + Ez k̂ =
∂x ∂y ∂z
~ ×E
~ = ∂Ez ∂Ey ∂Ex ∂Ez ∂Ey ∂Ez
∇ − ı̂+ − ̂+ − k̂
∂y ∂z ∂z ∂x ∂x ∂y
~ ×E
∇ ~ = ı̂i εijk ∂j Ek
También tendremos el “producto escalar” de nabla por un vector. Esta operación la llamaremos divergencia
∂ai xj ∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z)
˜
∇ · ~a = ≡ ∂i ai xj ≡ + +
∂ x̃i ∂x ∂y ∂z
pero por ahora consideremos nabla ∇ ~ como un vector. De este modo habrá cantidad de relaciones vectoriales
~
que involucren a ∇ las cuales se podrán demostrar. Veamos
1. ∇ ~ ~b + ~b · ∇
~ ~a · ~b = ~a · ∇ ~ ~a + ~a × ∇ ~ × ~b + ~b × ∇ ~ × ~a
El resultado es un gradiente, es decir un vector. El lado izquierdo será
i
~ ~a · ~b
∇ = ∂ i ~a · ~b = ∂ i aj bj = ∂ i aj bj + ∂ i bj aj
i j
+ δm δn bj ∂ m an − δm
j i
δn bj ∂ m an
= aj ∂ j bi + bj ∂ j ai + an ∂ i bn − am ∂ m bi + bn ∂ i an − bm ∂ m ai
= aj ∂ j bi − am ∂ m bi + bj ∂ j ai − bm ∂ m ai + an ∂ i bn + bn ∂ i an
| {z } | {z }
=0 =0
= an ∂ i bn + bn ∂ i an = ∂ i aj bj = ∂ i ~a · ~b
h i h i
~ × ~a · ∇
2. ∇ ~ ~a = ∇ ~ · ~a ∇ ~ × ~a − ∇ ~ · ∇ ~ × ~a ~a + ~a · ∇ ~ ∇~ × ~a − ∇ ~ × ~a · ∇ ~ ~a
Iniciamos la traducción a ı́ndices por el lado izquierdo de la ecuación ası́
~ × ~a · ∇
∇ ~ ~a = ǫijk ∂j (am ∂ m ) ak = ǫijk (∂j am ) ∂ m ak + ǫijk am ∂j ∂ m ak
= ǫijk (∂j am ) ∂ m ak + am ∂ m ǫijk ∂j ak
el segundo término se anula por cuanto ǫmjk es antisimétrico respecto a los ı́ndices mj mientras que
∂m ∂j es simétrico. El tercer término del desarrollo del lado derecho corresponde con el segundo del
desarrollo del lado izquierdo. Por cual llegamos a la siguiente igualdad
ǫijk (∂j am ) ∂ m ak = (∂ m am ) ǫijk ∂j ak − ǫmjk ∂j ak ∂m ai
Para verificar la igualdad tendremos que evaluar componente a componente. Esto es para el lado
izquierdo
ǫ1jk (∂j am ) ∂ m ak = ǫ123 (∂2 am ) ∂ m a3 + ǫ132 (∂3 am ) ∂ m a2
= (∂2 am ) ∂ m a3 − (∂3 am ) ∂ m a2
= (∂2 a1 ) ∂ 1 a3 + (∂2 a2 ) ∂ 2 a3 + (∂2 a3 ) ∂ 3 a3
− (∂3 a1 ) ∂ 1 a2 − (∂3 a2 ) ∂ 2 a2 − (∂3 a3 ) ∂ 3 a2
mientras que para el primer término del lado derecho
(∂ m am ) ǫ1jk ∂j ak = (∂ m am ) ǫ123 ∂2 a3 + (∂ m am ) ǫ132 ∂3 a2
= ∂2 a3 ∂ 1 a1 + ∂2 a3 ∂ 2 a2 + ∂2 a3 ∂ 3 a3
| {z }
α
−∂3 a2 ∂ 1 a1 − ∂3 a2 ∂ 2 a2 − ∂2 a2 ∂ 3 a3
| {z }
β
+∂ a1 ∂3 a1 − ∂1 a2 ∂3 a1
| 2 {z }
γ
al sumar ambos términos se eliminan los sumandos indicados con letras griegas, y queda como
(∂ m am ) ǫ1jk ∂j ak − ǫmjk ∂j ak ∂m ai = ∂2 a3 ∂2 a2 + ∂2 a3 ∂3 a3
Ξ Υ
−∂3 a2 ∂2 a2 −∂2 a2 ∂3 a3
Ω Ψ
+ ∂1 a3 ∂2 a1 −∂1 a2 ∂3 a1
Λ Σ
y al compararlo con el desarrollo del lado derecho e identificar término a término queda demostrado
1.9.6. Integración
Después de haber diferenciado campos escalares y vectoriales, el siguiente paso es integrarlos. Encontra-
remos varios objetos vectoriales a integrar serán:
Z
~ (u) d u
V integración de un vector por un escalar
Z
φ (x, y, z) d ~r integración de un escalar a lo largo de un vector
c
Z
~ (x, y, z) · d ~r
V integración de un vector a lo largo de otro vector
c
Z
~ (x, y, z) × d ~r
V integración de un vector por otro vector
c
el primero de casos es el tipo de integral que siempre hemos utilizado para encontrar la posición a partir
de la velocidad. Los siguientes tres casos se conocen con el nombre de integrales de lı́nea por cuanto es
importante la “ruta” o trayectoria que sigamos al integrar. Esto aparece indicado por la letra C en la
integral y será evidente más adelante. En general la integral de lı́nea dependerá de la trayectoria.
La integral de un vector (en un sistema de coordenadas cartesianas) por un escalar se convierte en una suma
de tres integrales de siempre, cada una a lo largo de las componentes cartesianas del vector.
Ası́ integramos la aceleración de un movimiento parabólico
Z Z
d ~v
= ~a = −g k̂ =⇒ ~v = ~a dt = k̂ −g dt = −k̂gt + ~v0 = −k̂gt + ı̂v0x + ̂v0y + k̂v0z
dt
Ahora bien, existen sutilezas en este caso que debemos tener en cuenta. Por ejemplo considere la integral
Z Z Z
d2 ~a d d ~a d ~a d ~a d d ~a d ~a
dt ~a × = dt ~a × − × = dt ~a × = ~a × + ~c
dt2 dt dt dt dt dt dt dt
Pero en general los casos quedan resueltos integrando componente a componente con la ayuda de la notación
de ı́ndices Z Z
dt ~a × ~b = dt εijk aj bk |ei i
Quizá uno de los problemas que ilustra mejor esta situación es el movimiento bajo fuerzas centrales. La Ley
de Gravitación de Newton nos dice que
X d ~v M d ~v M
F = m ~a = m = m G 2 ûr =⇒ = G 2 ûr
dt rmM dt rmM
Es costumbre definir la velocidad aerolar, ~vA , como el área barrida por el radio vector posición, ~r (t) que
describe la trayectoria de la partı́cula
d ~r d (r ûr ) dr d ûr d ûr d ûr
2~vA = ~r × = r ûr × = r ûr × ûr + r = r ûr × r = r2 ûr ×
dt dt dt dt dt dt
Nótese que si ~c es un vector constante
d d ûr d ûr d ûr
ûr × = 0 =⇒ ûr × = ~c =⇒ 2~vA = r2 ûr × = const
dt dt dt dt
con lo cual
d d ~v M MG d ûr
(~v × ~vA ) = × ~vA = G 2 ûr × ~vA = ûr × ûr ×
dt dt rmM 2 dt
d MG d ûr d ûr M G d ûr
(~v × ~vA ) = ûr · ûr − (ûr · ûr ) =
dt 2 dt dt 2 dt
integrando
MG
~v × ~vA =ûr + p~
2
donde p~ es un vector arbitrario de constante de integración. Finalmente nos damos cuenta que
MG MG
~r · (~v × ~vA ) = r ûr · ûr + p~ = r + rp cos θ
2 2
y entonces
2
2 2vA
2 MG vA MG
vA = r + rp cos θ =⇒ r = MG
≡ 2p
2 2 + p cos θ 1+ M G cos θ
que constituye la ecuación de una cónica.
R
Un escalar a lo largo de un vector c
φ (~r) d~r
El segundo objeto que “tropezaremos” es la integración de funciones de varias a lo largo de una curva
determinada. Esto es
Z Z Z Z Z
φ (x, y, z) d~r = φ (x, y, z) dx ı̂ + dy ̂ + dz k̂ = ı̂ φ (x, y, z) d x+̂ φ (x, y, z) d y+k̂ φ (x, y, z) d z
c c c c c
Se requiere especificar la curva c a lo largo de la cual integraremos desde el punto P1 → (0, 0) al punto
P2 → (1, 2) . Si recorremos la ruta (0, 0) → (1, 0) → (1, 2) tendremos que
Z (1,0) Z (1,0) Z 1
(0, 0) → (1, 0) =⇒ y = cte = 0 =⇒ 3x2 + 2y d~r = ı̂ 3x2 + 2y dx = ı̂ 3x2 dx = ı̂
(0,0) (0,0) 0
Z (1,0) Z (1,2) Z 2
(1, 0) → (1, 2) =⇒ x = cte = 1 =⇒ 3x2 + 2y d~r = ̂ 3x2 + 2y dy = ̂ (3 + 2y) dy = 10̂
(0,0) (0,0) 0
si hubiéramos seleccionado la recta que une a estos dos puntos como la curva c2 entonces
c2 ←→ y = 2x =⇒ d y = 2d x
⇓
Z (1,2) Z (1,2) Z (1,2)
3x2 + 2y d~r = ı̂ 3x2 + 2y d x + ̂ 3x2 + 2y d y
(0,0) (0,0) (0,0)
⇓
Z (1,2) Z 1 Z 1
2
2
3x + 2y d~r = ı̂ 3x + 2 (2x) d x + ̂ 3x2 + 2 (2x) 2dx = 3ı̂+6̂
(0,0) 0 0
R
Un vector a lo largo de otro vector c
F~ (~r) d~r
R
Quizá la integral de lı́nea más conocida sea una del tipo c F~ (~r) d~r por cuanto nos la hemos “tropezado”
en el cálculo del trabajo de que realiza una fuerza. Todo lo que hemos considerado al parametrizar la curva
en el caso anterior, sigue siendo válido.
Z Z Z Z Z
F~ (~r) d~r = Fx (x, y, z) dx + Fy (x, y, z) dy + Fz (x, y, z) dz = F i xj dxi
c c c c c
⇓
Z (1, 34 √2) Z (1, 43 √2) Z (1, 43 √2)
F~ (~r) d~r = 2
3x + 2xy 3
dx + 6xy dy
(0,0) (0,0) (0,0)
Z (1, 34 √2) Z √
2
2 3
2 1 9305 √
3x + 2xy dx = 12τ 5 + 4τ 12 + 12τ 10 + 12τ 8 + 4τ 6 dτ = + 2
(0,0) 0 4 96 096
y la segunda
Z (1, 43 √2) Z √
2
2 65
6xy dy = 6 2τ 2 τ3 + τ 3τ 2 + 1 dτ =
(0,0) 0 32
con lo cual
Z (1, 34 √2) Z (1, 43 √2) Z (1, 34 √2)
73 9305 √
F~ (~r) d~r = 2
3x + 2xy 3
dx + 6xy dy = + 2
(0,0) (0,0) (0,0) 32 96 096
z = a + ib ⇋ z ∗ = a − ib
⇓
∗ ∗
(z ) = z ∧ z · z ∗ = a2 + b2
claramente
2 2
z · z∗ ≥ 0 =⇒ |z| = |z ∗ | = z · z ∗
Es importante señalar que, en general, no existe relación de orden entre los números complejos. Vale
decir, que no sabremos si un número complejo es mayor que otro. No está definida esta operación.
z1 ≯ z2 ∨ z 1 ≮ z2
las relaciones de orden sólo se podrán establecer entre módulos de números complejos y no números complejos
en general.
Rápidamente recordamos el álgebra de los números complejos:
dos números complejos serán iguales si sus partes reales e imaginarios lo son
se suman dos números complejos sumando sus partes reales y sus partes imaginarias.
∗ ∗
claramente z + z = 2 Re z también z − z = 2 Im z. Igualmente es inmediato comprobar que
∗
(z1 + z2 ) = z1∗ + z2∗
se multiplican números complejos por escalares multiplicando el escalar por sus partes reales e imagi-
narias
z3 = αz1 =⇒ α (a1 + ib1 ) = (αa1 ) + i (αb1 )
se multiplican números complejos entre si, multiplicando los dos binomios y teniendo cuidad que
i2 = −1.
z3 = z1 z2 =⇒ (a1 + ib1 ) · (a2 + ib2 ) = (a1 a2 − b1 b2 ) + i (a1 b2 + b1 a2 )
∗
también es inmediato comprobar que (z1 z2 ) = z1∗ z2∗
se dividen números complejos siguiendo la estrategia de racionalización de fracciones irracionales. Esto
es
z1 (a1 + ib1 ) (a1 + ib1 ) (a2 − ib2 ) a1 a2 + b1 b2 b1 a2 − a1 b2
z3 = =⇒ = = +i
z2 (a2 + ib2 ) (a2 + ib2 ) (a2 − ib2 ) (a22 + b22 ) (a22 + b22 )
es claro que el divisor será cualquier número complejo excepto el cero complejo, 0 + i0
z = (a + ib) ⇌ z = (a, b)
las propiedades entre números complejos de igualdad, suma y multiplicación por un escalar arriba expuestas se
cumplen de forma inmediata con esta nueva representación. Hay que definir las operaciones de multiplicación
y división entre números complejos de forma que
(a1 , b1 ) a1 a2 + b1 b2 b1 a2 − a1 b2
(a1 , b1 ) (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + b1 a2 ) ∧ = ,
(a2 , b2 ) (a22 + b22 ) (a22 + b22 )
Esta asociación de un número complejo con una pareja de números inmediatamente nos lleva a imaginar
un punto en un plano (complejo) en el cual la primera componente (horizontal) representa la parte real
y la segunda componente (vertical) representa la parte imaginaria. De esta forma asociamos a un número
complejo a un vector que une a ese punto (a, b) con el origen del plano complejo. Esta representación de
números complejos como vectores un el plano (complejo) de conoce con el nombre de Diagrama de Argand3
a pesar que no fue Jean Argand, sino Caspar Wessel4 el primero en proponerlo. Por cierto esta interpretación
3 En honor a Jean Robert Argand, (Ginebra, Suiza, 18 Julio 1768; Paris, Francia 13 agosto 1822) Contador pero matemático
aficionado. Propuso esta interpretación de números complejos como vectors en un plano complejo en un libro autoeditado con
sus reflexiones que se perdió y fue rescatado 7 años después, fecha a partir de la cual Argand comenzó a publicar en Matematicas.
M’as detalles en http://www-groups.dcs.st-and.ac.uk/\char126\relaxhistory/Mathematicians/Argand.html
4 Caspar Wessel (Vestby, Noruega 8 junio 1745; 25 marzo 1818, Copenhagen, Dinamarca) Matemático noruego que se
dedicó principalemente al levantamiento topográfico de Noruega. Su trabajo sobre la interpretación de números comple-
jos permaneció desconocido por casi 100 años. Más detalles http://www-groups.dcs.st-and.ac.uk/\char126\relaxhistory/
Mathematicians/Wessel.html
fue tres veces redescubierta primero por Caspar Wessel en 1799, luego por Jean Argand en 1806 y finalmente
por Gauss5 en 1831.
De esta manera como un recordatorio al plano real
√ p
∗ 2 2
r = zz = |z| = x + y
z = x + iy ⇌ z = r (cos θ + i sen θ) con
tan θ = y donde − π ≤ θ ≤ π
x
La interpretación vectorial de números complejos permite que la suma de números complejos sea representada
por la “regla del paralelogramo”. Mientras que los productos escalar y vectorial nos llevan a
n 1 dn f (x)
f (x) = Cn (x − x0 ) con Cn = donde n = 0, 1, 2, 3, 4 · · ·
n! d xn x=x0
1 1 1 6
cos x = 1 − x2 + x4 − x + ······
2 24 720
1 1 5 1 7
sen x = x − x3 + x − x + ······
6 120 5040
5 Johann Carl Friedrich Gauss (30 abril 1777, Brunswick, Alemania; 23 febrero 1855, Göttingen, Alemania). Uno de los
mátemáticos más geniales y precoces de la Historia. Desde los 7 años comenzó a mostrar sus condiciones de genialidad. Sus
contribuciones en Astronomı́a y Matemáticas son múltiples y diversas. Más detalles http://www-groups.dcs.st-and.ac.uk/
\char126\relaxhistory/Mathematicians/Gauss.html
6 Brook Taylor (18 agosto 1685, Edmonton, Inglaterra; 29 diciembre 1731, Londres, Inglaterra) Fı́sico y Matemático Inglés
contemporaneo de Newton y Leibniz y con ellos participó profundamente en el desarrollo del Cálculo diferencial e integral.
Además de sus aportes magnetismo, capilaridad y termometrı́a, desarrolló el área de diferencias finitas que hasta hoy utilizamos
para cálculos en computación. Inventó la integración por partes y descubrió la serie que lleva su nombre. Más detalles http:
//www-history.mcs.st-andrews.ac.uk/Mathematicians/Taylor.html
esta relación se conoce como la relación de Euler 7 . Con lo cual ahora tenemos tres formas de representar
un número complejo
z = x + iy ⇌ z = r (cos θ + i sen θ) ⇌ z = reiθ
La expresión z = x + iy se conoce como forma cartesiana de representación de un número complejo, la
forma z = r (cos θ + i sen θ) será la forma trigonométrica o polar y la expresión z = eiθ será la forma de Euler.
Es importante notar una sutileza implı́cita en esta notación. La forma cartesiana representa unı́vocamente
a un número complejo, mientras que la forma polar (y la de Euler), es ambigua
es decir, existen varios valores del argumento que definen el mismo número complejo. Esto se considerará más
adelante cuando tratemos las funciones de número complejos.
Las sumas de números complejos son más fácilmente planteables en su forma cartesiana. Mientras las
multiplicación y división serán directas en la forma de Euler
z1 = r1 eiθ1
=⇒ z1 z2 = eiθ1 eiθ2 = ei(θ1 +θ2 ) = r1 r2 (cos (θ1 + θ2 ) + i sen (θ1 + θ2 ))
iθ2
z2 = r 2 e
Más aún, si
z = x + iy =⇒ ez = e(x+iy) = ex eiy = ex (cos y + i sen y)
y a partir de la relación o fórmula de Euler se puede demostrar la De Moivre 8
n n
eiθ = einθ ⇌ (cos θ + i sen θ) = cos (nθ) + i sen (nθ) con n entero
prolı́ficos de todos los tiempos. Desarrolló inmensamente campos como la geometrı́a analı́tica y trigonometrı́a, siendo el primero
que consideró el coseno y el seno como funciones. Hizo aportes significativos en el desarrollo del cálculo diferencial e integral
ası́ como también, astronomı́a, elasticidad y mecánica de medios contı́nuos. Más detalles http://www-history.mcs.st-andrews.
ac.uk/Mathematicians/Euler.html
8 Abraham de Moivre (26 mayo 1667 in Vitry-le-François, Francia; 27 noviembre 1754, Londres Inglaterra) Matemático
francés que tuvo que emigrar a Inglaterra por razones religiosas. Contemporaneo de Newton, Liebniz, Halley, fue pionero con
sus contribuciones en Geometrı́a Analı́tica y Teorı́a de Probabilides.
Identidades trigonométricas
La primera de las aplicaciones de la fórmula de De Moivre es para construir identidades trigonométricas
en las cuales se expresa el coseno o el seno de factores de un ángulo. Esto las siguientes (nada triviales)
identidades trigonométricas
3
cos 3θ = 4 cos3 θ − 3 cos θ o sen 3θ = 3 sen θ − 4 sen θ
para demostrar estas (y otras) identidades utilizamos la fórmula de De Moivre, es decir
3
cos 3θ + i sen 3θ = (cos θ + i sen θ)
= cos3 θ − 3 cos θ sen2 θ + i 3 cos2 θ sen θ − sen3 θ
igualando ahora parte real e imaginaria tendremos
cos 3θ = cos3 θ − 3 cos θ sen2 θ
= cos3 θ − 3 cos θ 1 − cos2 θ = 4 cos3 θ − 3 cos θ
Raı́ces de polinomios
La fórmula de De Moivre nos puede ayudar para la encontrar raı́ces de polinomios. Supongamos, para
empezar que queremos encontrar las n raı́ces de la ecuación z n = 1. Para ello procedemos con el siguiente
artificio
z n = 1 = cos (k2π) + i sen (k2π) = ei(k2π) con k = 0, 1, 2, ....
con lo cual las n raı́ces de la ecuación z n = 1 serán
⇒ z = ei( )
k2π
zn = 1 n
⇓
z }| {
2πi( n
1
) 2πi( n
2
) 2πi( n
3
); · · · n )
2πi( n−2 n )
2πi( n−1
z 0 = 1; z1 = e ; z2 = e ; z3 = e zn−2 = e ; zn−1 = e
√ √ π √ √ √ √ 3π √
z1 = i 2ei 2 = − 2; z2 = i 2eiπ = −i 2; z3 = i 2ei 2 = 2
4 4 4 4 4 4 4
z0 = i 2;
Una afirmación que nos han dicho y que quizá no sepamos de dónde viene es que si un polinomio
con coeficientes reales tiene raı́ces complejas, ellas
√ serán complejas conjugadas unas de√otras. Vale decir si
z 5 − z 4 + 2z − 2 = 0 tiene como raı́z z0 = i 4 2 también tendrá como raı́z z2 = −i 4 2 y z0 = z2∗ . Esta
afirmación se prueba de forma general si suponemos que tenemos una ecuación
donde los coeficientes a0 , a, a2 , · · · , an−1 , an los suponemos reales, esto es ai = a∗i para todos los valores del
ı́ndice i. Al tomar complejo conjugado a la ecuación nos queda
2 n−1 n
a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ⇐⇒ a∗0 + a∗1 z ∗ + a∗2 (z ∗ ) · · · + a∗n−1 (z ∗ ) + a∗n (z ∗ ) = 0
que no dice otra cosa que si z es solución también lo será z ∗ ya que la ecuación es la misma por tener los
mismos coeficientes (reales).
√ 3
Para finalizar consideremos otro par de casos de potencias y logaritmos ii y ln 3+i . Entonces
π i π π
ii = exp i + 2nπ = exp i2 + 2nπ = exp − − 2nπ
2 2 2
y para
n o3 π
√ 1 1
ln 3+i = 3 ln 2 exp i arctan √ = 3 ln 2 + i arctan √ = ln 8 + i + 6nπ
3 3 2
b) Si {~a, ~b, ~c} forma base, exprese d~ = ı̂ + 2̂ ~e = 3ı̂ − 2̂ f~ = ~a × ~b en término de esa base {~a, ~b, ~c}.
De lo contrario, construya una base como {~a, ~b, ~a × ~b} y exprese los vectores {d, ~ ~e, f~} en término
de esa nueva base
Solución: Como forman base expresamos los vectores en término esos términos. Esto es
3α + 3β + γ = 1
ı̂ + 2̂ = α 3ı̂ + 2̂ + k̂ + β 3ı̂ − 2̂ + k̂ + γ ı̂ − k̂ ⇒ 2α − 2β = 2
α+β−γ =0
6. Dados los siguientes puntos en el espacio (1, 0, 3); (2, −1, 0); (0, −1, 1); (−1, 0, 1).
a) Considere los tres primeros puntos. ¿ Estos tres puntos son coplanares ? ¿ por qué ? De ser
coplanares,
Solución: Tres puntos en el espacio definen un plano, por lo tanto siempre serán coplanares
1) Encuentre el área del triángulo que tiene por vértices esos tres puntos
Solución: Para ello seleccionamos uno de los puntos como un vértice privilegiado (digamos (2, −1, 0))
respecto al cual construirémos dos vectores que representan dos de los lados del triángulo.
Esto es
~a = (1, 0, 3) − (2, −1, 0) ↔ ~a = −1ı̂ + ̂ + 3k̂
y
~b = (0, −1, 1) − (2, −1, 0) ↔ ~b = −2ı̂ + k̂
con lo cual, el área del vértice será la mitad del área del paralelogramo que tiene por lados
estos dos vectores. Es decir
ı̂ ̂ k̂ √
1
A = k~a × bk ⇒ ~a × b = −1 1
~ ~ 3 = ı̂ − 5̂ + 2k̂ ⇒ A = 1 kı̂ − 5̂ + 2k̂k = 30
2 2 2
−2 0 1
donde
~r = xı̂ + ŷ + z k̂, ~r1 = ı̂ + 3k̂, ~r2 = 2ı̂ − ̂, ~r3 = −̂ + k̂,
b) Considere los cuatro puntos ¿ Estos cuatro puntos son coplanares ? ¿ por qué ? De NO ser
coplanares, encuentre la distancia del cuarto punto al posible plano que contiene a los otros tres.
Solución: Para verificar si el cuarto punto está en el plano, verificamos si cumple la ecuación que lo define
los cuatro puntos no son coplanares. Para calcular la distancia del cuarto punto al plano construyo
el vector unitario normal al plano
~a × ~b 1 1
~nP = =√ ı̂ − 5̂ + 2k̂ d = ~nP · ~c = √ ı̂ − 5̂ + 2k̂ · −3ı̂ + ̂ + k̂
k~a × ~bk 30 30
w ~ 2 = 2ı̂ − 3̂ w
~ 1 = ı̂ + 3k̂ w ~ 3 = −̂ + k̂
αw
~ 1 + βw
~ 2 + γw
~3 = 0 ⇒α=β=γ=0
α +2β =0
−3β −γ =0
3α +γ =0
Solución:
~ × ~a × ~b = ǫijk ∂j (ǫklm al bm ) = (δli δm
∇ j i j
− δm δl )∂j (al bm ) = ∂m (ai bm ) − ∂l (al bi )
expandiendo la derivada
~ × (~a × ~b) = bm ∂m (ai ) + ai ∂m (bm ) − bi ∂l (al ) − al ∂l (bi ) ≡ (~b · ∇)~
∇ ~ · ~b)~a − (∇
~ a + (∇ ~ · ~a)~b − (~a · ∇)
~ ~b
~r2 (t) = ~r1 (t) − ~r21 (t) = 5 cos 3t2 ı̂ + 5 sen 3t2 ̂ − ((t3 − 4t)ı̂ + (t2 + 4t) ̂)
con lo cual
~r2 (t) = (5 cos 3t2 − (t3 − 4t))ı̂ + (5 sen 3t2 − (t2 + 4t))̂
entonces
d~r2 (t)
~v2 (t) = = (30t cos 3t2 − (3t2 − 4))ı̂ + (30t sen 3t2 − (2t + 4))̂
dt
y
d~v2 (t)
~a2 (t) = = (30 cos 3t2 − 180tt sen 3t2 − 6t)ı̂ + (30 sen 3t2 − 180t2 cos 3t2 − 2)̂
dt
10. El campo de fuerzas del oscilador armónico anisótropo bidimensional se escribe como
F~ = −k1 xî + k2 y ĵ
R (x2 ,y2 )
Encuentre el trabajo realizado, (x1 ,y1 )
d~r · F~ a lo largo de las siguientes trayectorias
Solución: En general
Z (4,4) Z (4,4) Z (4,4) Z (4,4)
d~r · F~ = (dx ı̂ + dy ̂) · −k1 xî + k2 y ĵ = − dx k1 x + dy k2 y
(1,1) (1,1) (1,1) (1,1)
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva
York)
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition,
London:
[6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co
Reading)
[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Enginee-
ring (Cambridge University Press)
[8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
57
Capı́tulo 2
58
Métodos Matemáticos de la Fı́sica
Si sólo se cumplen las cuatro primeras, entonces se dice que simplemente forman grupo respecto a la
operación . Se pueden definir subgrupos
Ejercicio
1. Sea S el conjunto de todos los números reales excluyendo −1 y defina la operación
a b = a + b + ab
mostró desde su infancia un notable talento para el estudio de las ciencias exactas. Tal predisposición se verı́a muy pronto
confirmada por sus precoces investigaciones sobre cuestiones de álgebra y cálculo integral, en particular sobre la teorı́a de las
integrales de funciones algebraicas (a las que se denominarı́a abelianas en honor de su formulador) que no habrı́a de publicarse
hasta 1841, doce años después de su fallecimiento. En 2002 el gobierno noruego lanzó el premio Abel que llenará el vacı́o que
existe en la premiación Nobel del gobierno sueco, en el cual no existe premiación para la comunidad matemática.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians
2.1.2. Campo
Definiremos como un campo como el conjunto F = {f1 , f2 , f3 , · · · , fn , · · · } sobre el cual están definidas
dos operaciones suma, +, y multiplicación, ·, y que satisfacen las siguientes propiedades
1. Forman un grupo abeliano respecto a la suma, +,con el elemento neutro representado por el cero, 0.
2. Forman un grupo abeliano respecto a la multiplicación, ·. Se excluye el cero, 0 y se denota el elemento
neutro de la multiplicación como 1.
3. Es distributiva respecto a la suma, + : Dados fi , fj y fk se tiene que
fi · (fj + fk ) = fi · fj + fi · fk
Ejemplos tı́picos de campos lo constituyen los racionales Q, los números reales R y los números complejos
C. Normalmente se refiere estos campos como Campos Escalares
3. Existe un único elemento neutro: ∃! |0i ∋ |0i ⊞ |vj i = |vj i ⊞ |0i = |vj i ∀ |vj i ∈ V
4. Existe un elemento simétrico para cada elemento de V :
∀ |vj i ∈ V ∃ |−vj i ∋ |vj i ⊞ |−vj i = |0i
8. 1 |vi i = |vi i
Es inmediato notar que podemos definir subespacios vectoriales dentro de los espacios vectoriales. Ellos
serán aquellos conjuntos de vectores que cumplan con los requisitos anteriores pero además sean cerrado
dentro de los esos mismos conjuntos de vectores.
Ejemplos
Serán ejemplos de espacios vectoriales
1. Los números reales y complejos con el campo de reales o complejos y definidas las operaciones ordinarias
de suma y multiplicación. V ≡ R; ⊞ ⇒ +; |vi ≡ x; K ≡ R.
V ≡ C; ⊞ ≡ +; |vi i ≡ x + iy; K ≡ R.
Si el campo K es el conjunto de los números reales se dirá que es un espacio vectorial real de números
reales si V ≡ R y si V ≡ C se dirá un espacio vectorial real de números complejos. Por su parte si
K ≡ C diremos que es un espacio vectorial complejo de números reales ( si V ≡ R) o complejos (
V ≡ C ). Siempre se asociará el campo de escalares al espacio vectorial. Se dirá que es un espacio
vectorial sobre el campo de los escales. Si el campo es real (complejo) se dirá que el espacio vectorial
es real (complejo).
3. El espacio E∞ constituido por vectores |xi = (x1 , x2 , x3 , · · · xn , · · · ) contables pero con infinitas com-
ponentes.
Es también obvio que se podrán formar subespacios vectoriales cuyos elementos sean matrices de
dimensión menor a n × n
5. El conjunto de todos los polinomios con coeficientes reales P = ao , a1 x, a2 x2 , · · · , an xn , · · · con ⊞
la suma ordinaria entre polinomios y la multiplicación ordinaria de polinomios con escalares
6. Espacios Funcionales (de los cuales lo polinomios son un caso particular) En estos espacios los vectores
serán funciones, la suma sera la suma ordinaria entre funciones y la multiplicación por un escalar
también sera la multiplicación ordinaria de una función por un elemento de un campo
|f i = f (x) ∧ |gi = g (x)
|f i ⊞ |gi ≡ f (x) + g (x) ≡ (f + g) (x)
α |f i = (αf ) (x) ≡ αf (x)
Con este esquema vemos otros ejemplos
Ejercicios
Muestre que también serán espacios vectoriales
1. El conjunto de todas las funciones f = f (x) definidas en x = 1 con f (1) = 0. Si f (1) = c, ¿ tendremos
igual un espacio vectorial ? ¿ por qué ?
2. Los vectores (x, y, z) ∈ V3 tal que sus componentes satisfacen el siguiente sistema de ecuaciones alge-
braico
a11 x + a12 y + a13 z = 0
a21 x + a22 y + a23 z = 0
a31 x + a32 y + a33 z = 0
tes contribuciones en Espacios Métricos, Topologı́a y creador del concepto de espacios abstractos.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians/
3 PAUL ADRIEN MAURICE DIRAC (1902 Bristol, Inglaterra 1984-Tallahassee, EE.UU) Además de contribuir de manera
determinante en la comprensión de la Mecanica Cuántica, es uno de los creadores de la Mecanica Cuantica Relativista la cual
Ejemplos
1. Espacios Euclidianos reales Rn
la métrica tiene que ver con la distancia entre vectores. Cuando definimos la métrica a partir de la norma,
vinculamos las propiedades algebraicas del espacio con sus propiedades geométricas.
La norma, k|vi ik ≡ n (|vi i) de un espacio vectorial V = {|v1 i , |v2 i , |v3 i · · · |vn i} será una función
n: V → R∋ ∀ |vi i ∈ V se cumple que
1. n (|vi i) ≡ k|vi ik ≥ 0 si k|vi ik = 0 ⇒ |vi i ≡ |0i
2. n (α |vi i) ≡ kα |vi ik = |α| k|vi ik
3. k|xi + |yik ≤ k|xik + k|yik Desigualdad Triangular.
La definición de norma induce una métrica de la forma d (|xi , |yi) ≡ k|xi − |yik . Se denota en este caso
un espacio vectorial normado como (V, K,⊞; k·k) y también se le conoce como un Espacio de Banach. El
concepto de espacio vectorial normado fue formulado en 1922 de manera independiente por S. Banach4 , H.
Hahn y N Wiener
Ejemplos
1. Espacios Euclidianos reales, Rn y Espacios Euclidianos Complejos Cn
Para estos espacios de Banach, la norma se define como
q n
! 21
2 2 2 2
X 2
k|xik = |x1 | + |x2 | + |x3 | + · · · + |xn | = |xi |
i=1
p
es claro que para un espacio Euclidiano R3 se cumple que k|xik = x21 + x22 + x23 por lo tanto la idea de
norma generaliza la noción de “tamaño” del vector |xi . También es claro que la definición de distancia
se construye a partir de la norma de la forma
q
2 2 2 2
d (|xi , |yi) ≡ k|xi − |yik = |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn |
2. Para el Espacio Lineal de matrices n × n reales o complejas con el campo K real o complejo, una
definición de norma es
Xm X n
kM k = |Mab |
a=1 b=1
y la correspondiente definición de distancia
m X
X n
d (|xi , |yi) ≡ kM − N k = |Mab − Nab |
a=1 b=1
∞
3. Para los Espacios Funcionales C[a,b] una posible definición de norma serı́a:
4 Stefan Banach (1892 Kracovia, Polonia-1945 Lvov,Ucrania) Matemático polaco, uno de los fundadores del Análisis Fun-
cional Moderno, con sus mayores contribuciones a la teorı́a de espacios topológicos. Hizo también importantes aportes a la
teorı́a de la Medida, Integración y Teorı́a de conjuntos y Series Ortogonales.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians/
hαx + βy| αx + βyi = hαx| αxi + hαx| βyi + hβy| αxi + hβy| βyi ≥ 0
2 2
hαx + βy| αx + βyi = |α| hx| xi + α∗ β hx| yi + β ∗ α hy| xi + |β| hy| yi ≥ 0
5 David Hilbert (1862 Kaliningrad, Rusia-1943 Göttingen, Alemania) Matemático alemán defensor de la axiomática como
enfoque primordial de los problemas cientı́ficos. Hizo importantes contribuciones en distintas áreas de la matemática, como
invariantes, campos de números algebraicos, análisi funcional, ecuaciones integrales, fı́sica matemáticam y cálculo en variaciones.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians/
por lo tanto podemos definir el “ángulo” entre los vectores abstractos |xi ∧ |yi como
|hx| yi|
cos Θ =
k|xik k|yik
Más aún, a partir de la definición de norma se obtiene
2 ∗
k|xi + |yik = hx + y| x + yi = hx| xi + hx| yi + hx| yi + hy| yi = hx| xi + 2 Re (hx| yi) + hy| yi
con lo cual hemos generalizado para un espacio vectorial abstracto el teorema del coseno
2 2 2
k|xi + |yik = k|xik + k|yik + 2 k|xik k|yik cos Θ
y para el caso que los vectores |xi ∧ |yi sean ortogonales, esto es hx| yi = 0, tendremos el teorema de
Pitágoras generalizado
2 2 2
k|xi + |yik = k|xik + k|yik
Ejemplos
1. Espacios Euclidianos reales, Rn y Espacios Euclidianos Complejos Cn . Los vectores de estos espacios
pueden ser representados por |xi = (x1 , x2 , · · · xn ) ∧ |yi = (y1 , y2 , · · · , yn ) y el producto interno
queda definido por
n
X
hx| yi = x1 y1 + x2 y2 + x3 y3 , · · · xn yn = xi yi
i=1
es claro que esta definición de producto interno coincide, para R2 y R3 con la idea de producto escalar
convencional, vale decir
ax ı̂ + ay ̂ + az k̂
⇒ ~a · ~b = ax bx + ay by + az bz
b ı̂ + b ̂ + b k̂
x y z
ahora bien, el lector puede comprobar que para vectores en R2 también se puede proveer una definición
de producto interno
~a ⊛ ~b = 2ax bx + ax by + ay bx + ay by
igualmente válida, con lo cual es claro que en un mismo espacio vectorial pueden coexistir. Por su parte
la norma v
q u n
p uX
k|xik = hx| xi = x1 + x2 + x3 , · · · + xn = t
2 2 2 2 x2i
i=1
q
2 2 2 2
d (|xi , |yi) = (x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn )
El teorema del coseno queda como
v v
n n n u n u n
X X X uX uX
+ 2 t x2 t
2
(xi + yi ) = x2i + yi2 y 2 cos Θ
i i
i=1 i=1 i=1 i=1 i=1
obvio que para R2 tanto el teorema del coseno como el teorema de Pitágoras retoman su forma tradi-
cional. Finalmente la desigualdad de Cauchy-Schwarz se expresa
n 2 ! n !
X Xn X
2 2
|hx| yi| ≤ k|xik k|yik ⇒ xi yi ≤ xi yi
i=1 i=1 i=1
∞
2. Para los Espacios de Funciones continuas C[a,b] una posible definición de producto interno serı́a
Z
hf | gi = dx f ∗ (x) g (x)
t∈[a,b]
sZ
2
d (|f i , |gi) = dx |f (x) − g (x)| ⇒
t∈[a,b]
v !
uZ Z Z
u
d (|f i , |gi) = t
2 2
dx |f (x)| − 2 Re dx f ∗ (x) g (x) + dx |g (x)|
t∈[a,b] t∈[a,b] t∈[a,b]
donde R
dx f ∗ (x) g (x)
t∈[a,b]
cos Θ = 1 1
R 2 2 R 2 2
t∈[a,b]
dx |f (x)| t∈[a,b]
dx |g (x)|
para funciones f (x) y g (x) ortogonales, mientras que para este caso, la desigualdad de Cauchy-Schwarz
se expresa Z 2 Z ! Z !
∗ 2 2
dx f (x) g (x) ≤ dx |f (x)| dx |g (x)|
t∈[a,b] t∈[a,b] t∈[a,b]
Si esta ecuación se cumple para algún conjunto de {Ci } no nulos, se dirá que el conjunto de vectores
correspondiente {|vi i} son linealmente dependientes.
por el contrario, si esta ecuación sólo puede ser satisfecha para todos los Ci = 0, entonces se dirá que
el conjunto de vectores correspondiente {|vi i} son linealmente independientes.
El criterio de independencia lineal se cumple si |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i y todos los {Ci } son nulos.
Esto es
C1 +2C2 −C3 = 0
3C1 +C3 = 0
−C1 +C2 = 0
2C1 +3C2 = 0
de donde es claro ver que la única solución posible implica C1 = C2 = C3 = 0.
Ejemplos Si consideramos el espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} serán ejemplos de inde-
pendencia lineal:
|vk i ≡ f (t) = tk para k = 1, 2, 3, · · · es claro que un polinomio dePgrado n + 1, no podrá ser expresado
n
en términos un polinomio de grado n. en otras palabras, tn+1 6= i=0 C̄i ti
|vk i ≡ f (t) = eak t con a1 , a2 , a3 , · · · coeficientes constantes. También salta a la vista que no podremos
expresar una de esas funciones exponenciales como combinación lineal
Si consideramos |v1 i ≡ f (t) = cos2 t, |v2 i = sen2 t y |v3 i = 1 es claro que |v1 i , |v2 i , y |v3 i son
linealmente dependientes por cuanto |v1 i + |v2 i = |v3 i . Nótese que si
seguidamente se procede a comprobar si {|v1 i , |v2 i , |v3 i · · · , |vn−1 i} son linealmente independientes, es
decir si C̄1 = C̄2 = C̄3 = · · · = C̄n−1 = 0. En caso de no serlo se procede otra vez a despejar uno de los
vectores en términos de los anteriores y a aplicar el criterio de independencia lineal,
n−2
X
|vn−1 i = C̃1 |v1 i + C̃2 |v2 i + C̃3 |v3 i · · · + C̃n−2 |vn−2 i = C̃i |vi i ,
i=1
se repite este procedimiento hasta encontrar un conjunto {|v1 i , |v2 i , |v3 i · · · , |vn−j i} de vectores lineal-
mente independientes. Esto es ¡C̆1 = C̆2 = C̆3 = · · · = C̆n−j = 0.! y por lo tanto
n−j
X
|vn−j+1 i = C̆1 |v1 i + C̆2 |v2 i + C̆3 |v3 i · · · + C̆n−j |vn−i i = C̆i |vi i ,
i=1
En este caso diremos que {|v1 i , |v2 i , |v3 i · · · , |vn−j i} es una base para V. La dimensión de V sera el
conjunto de vectores linealmente independientes, que para este caso es n − j. Ası́ se puede comprobar que,
dado |xi ∈ V entonces
n−j
X
|xi = Ci |vi i , ∀ |xi ∈ V
i=1
que expanden V conforman una base de ese espacio vectorial, y que el número finito de escalares {C1 , C2 , C3 , · · · Cn−j }
constituyen las componentes de |xi relativas a la base |v1 i , |v2 i , · · · , |vn−j i . Del ejemplo anterior se puede
concretar la siguiente definición
A un conjunto finito de vectores de un espacio vectorial,
se les denominará base de ese espacio V si los |v1 i , |v2 i , |v3 i · · · , |vn i son linealmente independientes y
expanden V. El espacio vectorial se denominará de dimensión finita sı́ la base es finita y de dimensión infinita
sı́, por el contrario su base es infinita.
Es fácil darse cuenta que si V lo expanden n vectores linealmente independientes, cualquier otro vector
|xi ∈ V será linealmente dependiente. Igualmente fácilmente demostrable que todas las bases de un espacio
vectorial V,de dimensión finita, tendrán el mismo número de elementos y ese número de elemento será la
dimensión del espacio.
Adicionalmente, puede ser que dentro de un espacio vectorial V se puedan encontrar subespacios y dentro
de esos subespacios un conjunto de vectores base. Vale decir ∀ |xi ∈ V :
|xi = C1 |v1 i · · · + Cn−j |vn−j i + Cn−j+1 |vn−j+1 i · · · Cn−k |vn−k i + Cn−k+1 |vn−k+1 i · · · Cn |vn i
| {z } | {z } | {z }
S1 S2 S3
Entonces |xi = |x1 i + |x2 i + |x3 i con |x1 i ∈ S1 ; |x2 i ∈ S2 ; |x3 i ∈ S3 , entonces diremos que V es la suma
directa de S1 , S2 y S3 y lo denotaremos como V = S1 ⊕ S2 ⊕ S3
donde las C1 , C2 , C3 , · · · Cn son las incógnitas, por lo cual para que este sistema tenga solución se impone
que
hv1 |v1 i hv1 |v2 i hv1 |v3 i ··· hv1 |vn i
hv2 |v1 i hv2 |v2 i hv2 |v3 i ··· hv2 |vn i
.. .. .. 6= 0
. . .
hvn |v1 i hvn |v2 i hvn |v3 i ··· hvn |vn i
6
Esto es que el determinante de Gram distinto de cero implica que el conjunto
{|v1 i , |v2 i , |v3 i · · · , |vn i} ∈ V es linealmente independiente. La inversa también es cierta.
Ejemplos
Vn tendrá dimensión n y una de las posibles bases {|v1 i , |v2 i , |v3 i · · · , |vn i} será
|v1 i = (1, 0, 0, · · · , 0)
|v2 i = (0, 1, 0, · · · , 0)
|v3 i = (0, 0, 1, · · · , 0)
.. ..
. .
|vn−j i = (0, 0, 0, · · · , 1)
Esta base se conoce con el nombre de base canónica.
El
espacio de polinomios,
P n , de grado g ≤ n tendrá como una de las posibles bases al conjunto
2 3 n
1, t, t , t , · · · , t , por que cualquier polinomio de grado ≤ n podrá ser expresado como combinación
lineal de estos n+1 vectores. Más aún, el espacio de todos
los polinomios, P ∞ , tendrá como una posible
base al conjunto de funciones 1, t, t , t , · · · , t · · · . En este caso P ∞ será infinito dimensional.
2 3 n
portante compañı́a de seguros con las matemáticas (Probabilidad, Análisis Numérico y Teorı́a de Números). Es conocido
mayormente por el método de ortogonalización, pero se presume que no fue él quien primero lo utilizó. Aparentemente fue
ideado por Laplace y utilizado también por Cauchy en 1836. Gram murió arrollado por una bicicleta a la edad de 61 años.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians
con lo cual es claro que {|u1 i , |u2 i , |u3 i · · · , |un i} son linealmente independientes. Si la dimensión de V, es
n, dim V = n y tenemos n vectores linealmente independientes, entonces esos n vectores {|u1 i , |u2 i , |u3 i · · · , |un i}
forman una base ortogonal para V,y por lo tanto las componentes de un vector en esa base se pueden expresar
de manera simple.
n
" n #
X X huj |xi
∀ |xi ∈ V |xi = Ci |ui i ⇒ huj |xi = huj | Ci |ui i ⇒ Cj =
i=1 i=1
hu j |uj i
2
En el caso de un conjunto ortonormal de vectores {|e1 i , |e2 i , |e3 i · · · , |en i} ∈ Vn con k|ej ik = 1, las
componentes de cualquier vector quedan determinadas de una forma todavı́a más simple y con consecuencias
mucho más impactantes
n n n
!
2
X X X
k|ej ik = 1 ⇒ Cj = hej |xi ⇒ |xi = Ci |ei i = hei |xi |ei i ≡ |ei i hei | |xi
i=1 i=1 i=1
| {z }
1
la cual se concreta para el caso de |xi ≡ |yi en la generalización del Teorema de Pitágoras
n
X
2 2
hx |xi ≡ k|xik = |hx| |ei i|
i=1
Ejemplos
Funciones Trigonométricas: Uno de los ejemplos más emblemáticos es el caso de las funciones continuas,
∞
reales de variable real y definidas en [0, 2π], C[0,2π] , con lo cual el producto interno viene definido por
R 2π
hf | gi = 0 dx f (x) g (x) ésto es el conjunto de funciones {|u1 i , |u2 i , |u3 i , · · · , |un i · · · } represen-
tadas por
Es claro que {|u1 i , |u2 i , |u3 i · · · , |un i , · · · } es un conjunto de funciones ortogonales por cuanto
R 2π
R0 dx sen nx sen mx = 0
0 si n = 6 m 2π
dx cos nx sen mx = 0
R 0
2π dx cos nx cos mx = 0
0
2 R 2π
hun |um i = δnm k|un ik ⇒
dx = 2π si n = m = 0
0
R
2
k|un ik si n = m 2π
dx cos2 nx = π si i = j = 2l − 1
0
R 2π dx sen2 nx = π si i = j = 2l
0
con l = 1, 2, 3, · · · también. Por lo tanto, podremos construir una base ortonormal de funciones
{|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } de la forma
1 1 1
|e0 i = √ , |e2n−1 i = √ cos nx y |e2n i = √ sen nx.
2π π π
Por lo tanto cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base
como
R 2π
dx √12π f (x) = a0 si i = 0
0
∞
X R 2π
|f i = Ci |ei i ⇒ Ci = hei |f i = dx f (x) cos nx = a2n−1 si i = 2n − 1
0
i=1
R 2π
0
dx f (x) sen nx = a2n si i = 2n
(1 − x2 ) y ′′ − 2x y ′ + λ(λ + 1) y = 0
Es fácil comprobar que los polinomios de Legendre |Pα i = Pα (x) son mutuamente ortogonales con un
7 Benjamin Olinde Rodrigues (1794 Burdeos, Francia - 1851, Parı́s Francia) Banquero, Matemático y activista polı́tico
solcialista Francés durante la Revolución Francesa. De origen judı́o, y cuyas contribuciones fundamentales como la fórmula para
la generación de Polinomios de Legendre, permanecieron olvidadas por mucho tiempo.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians
no se requiere hacer ninguna integral por cuanto los coeficientes an se determinan a través de un
sistema de ecuaciones algebraicas. Para el caso de f (x) = x2 tendremos
con Z Z r
1 1
1−x
hPk |Fi = f (x)Pk (x)dx = Pk (x)dx
−1 −1 2
2.5.5. Ortogonalización
Hemos visto que un conjunto de vectores ortogonales forman base para un espacio vectorial. Ahora
bien, siempre es posible construir un conjunto de vectores ortogonales a partir de un conjunto de vectores
linealmente independientes. Es método de “ortogonalización” se conoce como el método de Gram-Schmidt8 ,
en honor de estos dos matemáticos alemanes que NO inventaron el método, el cual al parecer se le debe al
matemático francés P.S. Laplace.
Dado un conjunto de vectores linealmente independientes, {|v1 i , |v2 i , |v3 i , · · · , |vn i} que expanden un
espacio Euclidiano de dimensión finita, E n . Entonces siempre se puede construir un conjunto ortogonal de
vectores, {|u1 i , |u2 i , |u3 i , · · · , |un i} que también expandan E n de la siguiente forma:
8 Erhard Schmidt (1876, Estonia-1959 Alemania). MatemáticoAlemán fundador del primer instituto de matemáticas apli-
cadas de Berlı́n. Alumno de Hilbert, Schmidt hizo sus mayores contribuciones en Ecuaciones Integrales y Teorı́a de Funciones
en el Espacio de Hilbert.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians
|u1 i ≡ |v1 i
hv2 |u1 i
|u2 i ≡ |v2 i − hu1 |u1 i |u1 i ∋ hu2 |u1 i = 0
hv3 |u2 i hv3 |u1 i hu3 |u1 i = 0
|u3 i ≡ |v3 i − |u2 i − |u1 i ∋
hu2 |u2 i hu1 |u1 i hu3 |u2 i = 0
hu4 |u1 i = 0
hv4 |u3 i hv4 |u2 i hv4 |u1 i
|u4 i ≡ |v4 i − hu3 |u3 i |u3 i − hu2 |u2 i |u2 i − hu1 |u1 i |u1 i ∋ hu4 |u2 i = 0
hu4 |u3 i = 0
.. ..
. .
hu4 |u1 i = 0
hu4 |u2 i = 0
Pn−1 hvn |ui i hu4 |u3 i = 0
|un i ≡ |vn i − i=1 hui |ui i |ui i ∋
..
.
hu4 |un−1 i = 0
Ası́ siempre es posible construir una base ortonormal a partir de un conjunto de vectores linealmente
independientes. Esta base ortogonal será única en E n , si existe otra sus vectores serán proporcionales, Más
aún, cada espacio vectorial Vn de dimensión finita tendrá una base ortogonal asociada.
Ejemplos
2 −1 1
hv2 |u1 i 0 1 1
|u2 i ≡ |v2 i −
|u1 i =
− (−1) =
hu1 |u1 i 1 0 1
3 0 3
5
4
1 1 −1 5
3 9 1 1 4
|u3 i ≡
−1 − 12
− (1) =
0 7
;
1 −
2 3 0 4
− 14
y la base ortonormal asociada será
√ ! −1 √ ! 1
|u1 i 2
1 .; |u2 i 12 1
|e1 i = p = |e2 i = p = 1 ;
hu1 |u1 i 2 0 hu2 |u2 i 12
0 3
5
4
√ ! 5
|u3 i 2 3
4
|e3 i = =
hu3 |u3 i 9 −7
4
− 14
Para el caso de R2 es muy claro. Si tenemos dos vectores |v1 i y |v2 i linealmente independientes,
1 0
|v1 i = ; |v2 i = ;
1 1
elegimos |u1 i ≡ |v2 i entonces, |u2 i vendrá dado por
hv1 |u1 i 1 0 1
|u2 i ≡ |v1 i − |u1 i ⇒ |u2 i ≡ − =
hu1 |u1 i 1 1 0
tal y como se esperaba, el otro vector ortogonal es el canónico.
hv1 |u0 i
|u1 i ≡ |v1 i − |u0 i = t
hu0 |u0 i
R1 R1
hv1 |u0 i = −1
dx t = 0; hu0 |u0 i = −1
dx = 2
R1 1
R1
1 2 8
hv3 |u2 i = −1
dx t3 t2 − 3 = 0; hu2 |u2 i = −1
dx t2 − 3 = 45
..
.
Podemos resumir
|v1 i |u1 i |e
q1 i
1
1 1 2
q
3
t t 2t
q
1 1 5
t2 t2 − 3 2q 2 3t2 − 1
t3 t3 − 35 t 1 7
5t3 − 3t
q2 2
t4 t4 − 76 t2 + 3
35
1
8
9
2 35t4 − 30t2 + 3
.. .. ..
. . .
Más aún, la norma de |vk i se calcula a través del teorema de Pitágoras generalizado
2
2 2
⊥
k|vk ik = k|sk ik +
|sk i
⊥
La demostración es sencilla. Primero se prueba que la descomposición ortogonal |vk i = |sk i + |sk i
es siempre posible. Para ello recordamos que S ⊂ V es de dimensión finita, por lo tanto existe una base
⊥
ortonormal {|e1 i , |e2 i , |e3 i · · · |em i} para S. Esto es, dado un |vk i definimos los elementos |sk i y |sk i
como siguen
Xm
⊥
|sk i = hvk |ei i |ei i ∧ |sk i = |vk i − |sk i
i=1
Nótese que hvk |ei i |ei i es la proyección de |vk i a lo largo de |ei i y |sk i se expresa combinación lineal de la
base de S. Por lo tanto está en S. Por otro lado,
Xm
⊥
⊥
hsk |ei i = hvk −sk |ei i = hvk |ei i − hsk |ei i = hvk |ei i − hvk |ej i hej |ei i = 0 ⇒ |sk i ⊥ |ej i
j=1
⊥
lo cual indica que |sk i ∈ S⊥ .
⊥
Pero, podemos ir un poco más allá. La descomposición |vk i = |sk i + |sk i es única en V. Para ello
suponemos que existen dos posibles descomposiciones, vale decir
⊥ ⊥ ⊥ ⊥
|vk i = |sk i + |sk i ∧ |vk i = |tk i + |tk i con |sk i ∧ |tk i ∈ S ∧ |sk i ∧ |tk i ∈ S⊥
Por lo tanto
⊥ ⊥ ⊥ ⊥
|vk i − |vk i = |sk i + |sk i − |tk i + |tk i =0 ⇒ |sk i − |tk i = |tk i − |sk i
⊥ ⊥
Pero |sk i−|tk i ∈ S,por lo tanto ortogonal a todos los elementos de S⊥ y |sk i−|tk i = |tk i −|sk i con lo cual
|sk i − |tk i ≡ |0i que es el único elemento que es ortogonal a el mismo y en consecuencia la descomposición
⊥
|vk i = |sk i + |sk i es única. Finalmente, con la definición de norma
2
2
2
⊥
⊥ ⊥ ⊥ 2
⊥
k|vk ik =
|sk i + |sk i
= hsk | + hsk | |sk i + |sk i = hsk |sk i +⊥ hsk |sk i k|sk ik +
|sk i
Ejemplos
Desarrollemos la aproximación de funciones continuas, reales de variable real y definidas en [0, 2π],
∞
R 2π
C[0,2π] , mediante funciones Trigonométricas y con el producto interno definido por hf | gi = 0 dx f (x) g (x) .
Hemos visto que para este espacio vectorial tenemos una base ortonormal definida por
1 1
|e0 i = ϕ0 (x) = √ , |e2n−1 i = ϕ2n−1 (x) = √ cos nx y
2π π
1
|e2n i = ϕ2n (x) = √ sen nx.
π
Por lo tanto cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base
como
∞
X
|f i = Ci |ei i con
i=1
R 2π
dx f (x) = a0 si i=0
0
Z 2π
R
2π
Ci = hei |f i = dx f (x) ϕi (x) = dx f (x) cos nx = a2n−1 si i = 2n − 1
0
0
R 2π dx sen nx f (x) = a
si i = 2n
0 2n
donde los Ci son los coeficientes de Fourier. Es decir, cualquier función puede ser expresada como una
serie de Fourier de la forma
Xn
1
f (x) = a0 + (ak cos kx + bk sen kx)
2
k=1
con Z Z
2π 2π
1
ak = dx f (x) cos kx ∧ bk = dx f (x) sen kx f (x)
π 0 0
Es claro que para la aproximación de funciones por funciones Trigonométricas cuyos coeficientes son
los coeficientes de Fourier constituyen la mejor aproximación. Por lo tanto, de todas las funciones
∞
P (x) ∈ C[0,2π] las funciones trigonométricas, T (x) minimizan la desviación cuadrática media
Z 2π Z 2π
2 2
dx (f (x) − P (x)) ≥ dx (f (x) − T (x))
0 0
Es claro que este problema se puede generalizar si se desea medir dos (o n) cantidades. Para el caso de dos
cantidades extendemos la dimensión del espacio. Por lo tanto, los resultados experimentales se acumularán
en un vector de 2n dimensiones
|xi = (x11 , x12 , x13 , · · · x1n , x21 , x22 , x23 , · · · x2n )
mientras que los vectores que representan las cantidades más aproximadas serán
c′1 |y1 i = c′1 ,c′1 ,c′1 , · · · c′1 ,0, 0, 0, · · · 0 ∧ c′2 |y2 i = (0, 0, 0, · · · 0, c′2 ,c′2 ,c′2 , · · · c′2 )
| {z } | {z }
n n
Ahora {|y1 i , |y2 i} expanden un subespacio vectorial sobre el cual |xi tiene como proyección ortogonal
c′1 |y1 i +c′2 |y2 i y consecuentemente |x−c′1 y1 −c′2 y2 i será perpendicular a {|y1 i , |y2 i} , por lo tanto
hx |y1 i x11 + x12 + x13 , · · · + x1n hx |y2 i x21 + x22 + x23 , · · · + x2n
c′1 = = ∧ c′2 = =
hy1 |y1 i n hy2 |y2 i n
La consecuencia más conocida de esta aproximación de funciones es el “ajuste” de un conjunto de datos
experimentales {(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , · · · , (xn , yn )} a la ecuación de una recta y =cx. En este caso, el
planteamiento del problema se reduce a encontrar el vector c′ |xi en el subespacio S (|xi) esté lo más cercano
2
posible al vector |yi = c |xi . Por lo tanto k|c′ x − yik será lo menor posible y |c′ x − yi ser[ perpendicular
a S (|xi) ,por lo tanto
hx |yi x1 y1 + x2 y2 + x3 y3 · · · + xn yn
hx |c′ x − yi = 0 ⇒ c′ = =
hx |xi x21 + x22 + x23 , · · · + x2n
Ejemplo Si el conjunto de datos experimentales es {(1, 2) , (3, 2) , (4, 5) , (6, 6)} ¿ cuál es la recta que ajusta
más acertadamente a estos puntos ? La ecuación queda como
2 1
2 3 hx |yi 2 + 6 + 20 + 36 32
|yi = c |xi ⇒ ′
5 = c 4 ⇒ c = hx |xi = 1 + 9 + 16 + 36 = 31
6 6
Ahora bien, se puede generalizar esta procedimiento cuando se tiene que una cantidad y que es una
combinación lineal desconocida de un conjunto de cantidades
y = c1 x1 + c2 x2 + c3 x3 + · · · + cm xm
En este caso se ejecutarán n experimentos con n > m y el conjunto de medidas experimentales serán
(y1 , x11 , x12 , x13 , · · · x1m ; y2 , x21 , x22 , x23 , · · · x2m ; y3 , x31 , x32 , x33 , · · · x3m ; · · · yn , xn1 , xn2 , xn3 , · · · xnm )
en el cual las incógnitas {c′1 ,c′2 ,c′3 , · · · c′m } hacen que el lado derecho de las ecuaciones antes mencionadas
sean los más próximas a las {y1 , y2 , y3 , · · · yn } por lo tanto si consideramos los vectores
|x1 i = (x11 , · · · x1n ) ; |x2 i = (x21 , · · · x2n ) ; · · · |xm i = (xm1 , · · · xmn ) ; |yi = (ym1 , · · · yn )
por lo tanto los {|x1 i , |x2 i , · · · |xm i} expanden el subespacio S (|x1 i , |x2 i , · · · |xm i) donde está la aproxima-
ción de |yi . Por lo tanto la distancia de este subespacio al vector |yi, será mı́nimo. Esto es
2
[d (S (c′i |xi i) , |yi)] = hS (c′i |xi i) −y |S (c′i |xi i) −yi
por lo tanto podemos construir el sistema de ecuaciones normales para la aproximación que hemos conside-
rado:
c′1 hx1 |x1 i + c′2 hx1 |x2 i + c′3 hx1 |x3 i + · · · + c′m hx1 |xm i = hx1 |yi
c′1 hx2 |x1 i + c′2 hx2 |x2 i + c′3 hx2 |x3 i + · · · + c′m hx2 |xm i = hx2 |yi
.. ..
. .
c′1 hxm |x1 i + c′2 hxm |x2 i + c′3 hxn |x3 i + · · · + c′m hxm |xm i = hxn |yi
donde, tal y como se ha señalado, las incógnitas son las {c′1 ,c′2 ,c′3 , · · · c′m }
Ejemplos
Se sospecha que una determinada propiedad de un material cumple con la ecuación y = ax1 + bx2 . Si
al realizar un conjunto de medidas experimentales obtenemos
y1 15 y2 12 y3 10 y4 0
x11 = 1 ; x21 = 2 ; x31 = 1 ; x41 = 1
x12 2 x22 1 x32 1 x42 −1
por lo tanto
a= 45
7a +4b = 49 11
⇒ ⇒ 11y = 45x1 + 56x2
4a +7b = 52 56
b= 11
Se puede extender el razonamiento anterior y generar un ajuste linear cuadrático. Esto es, el ajuste
lineal es en los coeficiente, pero la funcionalidad de la ley a la cual queremos ajustar los datos puede
ser un polinomio de cualquier orden. Ese es el caso de una parábola que ajusta al siguiente conjunto
de puntos
{(0, 1) , (1, 3) , (2, 7) , (3, 15)} ⇔ y = ax2 + bx + c
Las ecuaciones toman la forma de
1= 0 +0 +c
3 = a +b +c
7 = 4a +2b +c
15 = 9a +3b +c
y los vectores construidos a partir de los datos experimentales serán
Ejercicios Al medir la temperatura a lo largo de una barra material obtenemos los siguientes valores
xi (cm) 1, 0 2, 0 3, 0 4, 0 5, 0 6, 0 7, 0 8, 0 9, 0
Ti (◦ C) 14, 6 18, 5 36, 6 30, 8 59, 2 60, 1 62, 2 79, 4 99, 9
Encuentre, mediante el método de los mı́nimos cuadrados los coeficientes que mejor ajustan a una recta
T = ax + b
R1
para hqn |pn i = −1
p(x)q(x)dx
! R1
hx1 |x2i (x(x − 1)) (x) dx
−1
θ = arc cos p p = arc cos qR qR
hx1 |x1i hx2 |x2i 1
(x(x − 1))
2
dx
1
(x)
2
dx
−1 −1
1√ √
θ = arc cos − 15 6 = 2,4825 rad
12
R1
para hqn |pn i = 0
p(x)q(x)dx
! R1
hx1 |x2i (x(x − 1)) (x) dx
θ = arc cos p p = arc cos qR 0
qR
hx1 |x1i hx2 |x2i 1 2 1
(x(x − 1)) dx 0 (x) dx
2
0
1√ √
θ = arc cos − 15 2 = 2,4825 rad
12
¡ el mismo ángulo !
c) Una de las posibles bases de P n será el conjunto 1, x, x2 , x3 , · · · , xn con el producto interno
R1
viene definido por hf | gi = 0 dx f (x) g (x) .
1) Encuentre la base ortonormal que expande el subespacio S 3 de los polinomios, P n , de grado
g ≤ 3.
S 3 tendrá como vectores linealmente independientes 1, x, x2 , x3 para encontrar la base or-
tonormal utilizamos el método de Gram Smith con lo cual tendremos que
n−1
X hvn |ui i
|un i ≡ |vn i − |ui i
i=1
hui |ui i
esto es
|v1 i 1
|u1 i = p = qR =1
hu1 |u1 i 1
dx
0
R1
hv2 |u1 i xdx
|v2 i − hu |u1 i x − R0 1 dx x − 12 1 √
1 |u1 i
|u2 i = p =p 0
= qR = 2 x − 3
hu2 |u2 i hu2 |u2 i 1 1 2 2
0
x − 2 dx
R1 2 R1 √
x dx x2 (2(x− 21 ) 3)dx 1
√
|v3 i − hv3 |u1 i
|u1 i − hv3 |u2 i
|u2 i x2 − 0
R1 − 0
R1 √ 2 2 x− 2 3
0 ( (
hu1 |u1 i hu2 |u2 i 0
dx 2 x− 12 ) 3) dx
|u3 i = p = p
hu3 |u3 i hu3 |u3 i
1
x2 + 6 −x 1 √
2
|u3 i = qR 2 =6 x + −x 5
1 1 6
0
x2 + 6 − x dx
2) Encuentre las componentes del polinomio g (x) = 5 + 3x2 − x3 + x5 proyectado sobre esa base
ortonormal que expande a S 3
Las componentes de la proyección de g (x) en S 3 serı́an
Z 1 Z 1
71
c1 = hg |u1 i = u1 (x) g (x) dx = (1) 5 + 3x2 − x3 + x5 dx =
0 0 12
Z 1 Z 1
2 1 √ 197 √
c = hg |u2 i = u2 (x) g (x) dx = 2 x− 3 5 + 3x2 − x3 + x5 dx = 3
0 0 2 420
Z 1 Z 1
1 √
c3 = hg |u3 i = u3 (x) g (x) dx = 6 x2 + − x 5 5 + 3x2 − x3 + x5 dx
0 0 6
23 √
= 5
210
Z 1
c4 = hg |u4 i = u4 (x) g (x) dx
0
Z 1
√
1 3 3 4 √
= 20 x3 − + x − x2 7 5 + 3x2 − x3 + x5 dx = 7
0 20 5 2 315
con lo cual
71 197 √ 23 √ 4 √
|giS 3 = |u1 i + 3 |u2 i + 5 |u3 i + 7 |u4 i
12 420 210 315
y la norma será
2 2 2 2
2 71 197 √ 23 √ 4 √ 1,418,047 ∼
k|giS 3 k = + 3 + 5 + 7 = = 35,728
12 420 210 315 39,690
para que, finalmente la proyección del polinomio en S 3 será
71 197 √ 1 √ 23 √ 2 1 √ 3 1 3 3 2 √
gS 3 (x) = + 3 2 x− 3 + 5 6 x + −x 5 + 20 x − + x− x 7
12 420 2 210 6 20 5 2
71 197 1 23 1 √ 1 3 3
gS 3 (x) = + x− + x2 + − x + 20 7 x3 − + x − x2
12 70 2 42 6 20 5 2
es decir
5797 √ 34 √ 23 √ √
gS 3 (x) = − 7+ + 12 7 x + − 30 7 x2 + 20 7x3
1260 15 42
Z 1
2 2 495193
k|gik = 5 + 3x2 − x3 + x5 dx =
0 13860
2 1418047
k|giS 3 k =
39690
con lo cual r
495193 1418047
k|gi⊥S 3 k = − ≈ 1,196 5 × 10−2
13860 39690
d ) Sea f (x) = e2x una función perteneciente al espacio lineal de funciones continua y continuamente
∞
R1
diferenciables, C[−1,1] , en el cual el producto interno viene definido por hq|pi = −1 p(x)q(x) dx.
Encuentre el polinomio lineal más cercano a la función f (x) .
En el subespacio S 1 de polinomios lineales, los vectores base son {1, x} Es una base ortogonal
pero no es normal, con lo cual la normalizamos
|v1 i 1 1√
|u1 i = p = qR = 2
hu1 |u1 i 1
dx 2
−1
R1
xdx √
|v2 i − hv2 |u1 i
|u1 i x − R−1
1
hu1 |u1 i −1
dx x 6
|u2 i = p = p = qR = x
hu2 |u2 i hu2 |u2 i 1
x2 dx 2
−1
[1] Apostol, T. M. (1972) Calculus Vol 2 (Reverté Madrid ) QA300 A66C3 1972
[2] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[3] Cohen-Tannoudji, C., Diu B. y Laloë (1977) Quantum Mechanics Vol 1 (John Wiley Interscience,
Nueva York )
[4] Gelfand, I.M. (1961) Lectures on Linear .Algebra (John Wiley & Sons Interscience, Nueva York ).
[5] Jordan, T.F. (1969) Linear Operator for Quantum Mechanics (John Wiley & Sons Interscience,
Nueva York ).
[6] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
87
Capı́tulo 3
88
Métodos Matemáticos de la Fı́sica
∀ |vi ∈ V → F [|vi] ∈ C
En aquellos espacios lineales con producto interno definido (Espacios de Hilbert), el mismo producto interno
constituye la expresión natural del funcional. Ası́ para tendremos
Es claro comprobar que el producto interno garantiza que los {Fa , Fb , · · · } forman un espacio vectorial.
(Fa + Fb ) [|vi] = Fa [|vi] + Fb [|vi] = ha |vi + hb |vi
∀ |vi ∈ V
(α Fa ) [|vi] = hαa |vi = α∗ ha |vi = α∗ Fa [|vi]
Esta última propiedad se conoce como antilinealidad. Con lo cual se establece una correspondencia 1 − 1
entre kets y bras, entre vectores y formas diferenciales.
Más aún, dada una base ortonormal {|e1 i , |e2 i , |e3 i · · · |em i} para V siempre es posible asociar una base
para V∗ de tal manera que
En un
lenguaje
arcaico (y muchos textos de Mecánica todavı́a lo reproducen) denominan a la base del espacio
dual ei la base recı́proca de {|ei i}
Nótese estamos utilizando la notación de Einstein
en la cual ı́ndices repetidos indican suma y que las
bases del espacio dual de formas diferenciales ẽk llevan los ı́ndices arriba. Los ı́ndices arriba se llamarán
contravariantes y los ı́ndices abajo
covariantes. Las componentes de las formas diferenciales en una base dada,
llevan ı́ndices abajo ha| = ai ẽi mientras que las componentes de los vectores los llevan abajo |ai = aj |ẽj i
ci = ui Fi = cj ui |uj i = cj δji
Donde la delta de Kronecker δik lleva un ı́ndice arriba y uno abajo y representa δik = 1 si i = k y es nula en
los otros casos. Supondremos, de ahora en adelante un espacio de dimensión finita y en éste consideraremos
dos bases ortogonales, BDF = {|e1 i , |e2 i , |e3 i · · · |en i} y B̃DF = {|ẽ1 i , |ẽ2 i , |ẽ3 i · · · |ẽn i} , de dimensión
finita. Como ambas son bases ortogonales todo vector de V puede expresarse en término de esas bases, en
particular cada vector base se puede expresar en términos de la otra base como
Los Cij son constantes que han renombrado las distintas formas de las constantes cj , ĉj · · · čj que expresamos
arriba. Igualmente, podemos expresar los vectores de la segunda base en términos de la primera como
k
|ẽi i = Aji |ej i =⇒ ẽ |ẽi i = δik = Aji ẽk |ej i = Aji Cjk
ya que
j
|em i = Cm |ẽj i =⇒ ẽk |em i = Cm
j
ẽk |ẽj i = Cm
j k k
δj = Cm
Adicionalmente, hay varias costumbres a aclarar con la notación de ı́ndices.
k
Al asociar los Cm con elementos de matriz los ı́ndices contravariantes (arriba) indicarán filas y los cova-
riantes (abajo) las columnas. Esas matrices serán no singulares para garantizar la independencia lineal de
los vectores base. De este modo para el caso i, k = 1, 2, 3 tendremos
representa
1 j
1 0 0 C̃j Ã1 C̃j1 Ãj2 C̃j1 Ãj3
0
1 0 = C̃j2 Ãj1 C̃j2 Ãj2 C̃j2 Ãj3
0 0 1 C̃j3 Ãj1 C̃j3 Ãj2 3 j
C̃j Ã3
C̃ 1 Ã1 + C̃ 1 Ã2 + C̃ 1 Ã3 ··· C̃11 Ã13 + C̃21 Ã23 + C̃31 Ã33
1 0 0 1 1 2 1 3 1
0 ..
1 0 = C̃ 2 Ã1 + C̃ 2 Ã2 + C̃ 2 Ã3 . C̃12 Ã13 + C̃22 Ã23 + C̃32 Ã33
1 1 2 1 3 1
0 0 1 C̃13 Ã11 + C̃23 Ã21 + C̃33 Ã31 ··· C̃13 Ã13 + C̃23 Ã23 + C̃33 Ã33
Es claro que C̃ji y Ãji son inversas una de la otra, por cuanto su multiplicación nos da la matriz identidad.
Por lo tanto si |ei i = Cij |ẽj i se considera la transformación directa, mientras que |ẽi i = Aji |ej i será la
transformación inversa. El caso más emblemático lo constituyen las transformaciones entre la base ortonormal
cartesiana {|ı̂i , |̂i} y la base ortonormal de vectores en coordenadas polares {|ur i , |uθ i} .
Siguiendo con el esquema propuesto expresamos los vectores cartesianos en la base de vectores polares
|ı̂i = cos θ |ur i − sen θ |uθ i
T [ζ hu1 | + ξ hu2 | ; |vi] ≡ αζ T [hu1 | ; |vi] + ξ T [hu2 | ; |vi] ∀ |vi , ∈ V ∧ hu1 | , hu2 | ∈ V∗
Es decir, un tensor es un funcional generalizado cuyos argumentos son vectores, formas o ambas. Esto es
T [•; •] una cantidad con dos “puestos” y una vez cubiertos se convierte en un escalar (complejo o real). Al
igual que las funciones de varias variables (f (x, y) = 3x + 4y 2 ) la posición es importante
|vi hu|
↓ ↓
T ◦; •∈C
En general
|v
1i |v2 i |vn i hu1 | hu2 | hum |
↓ ↓ ↓ ↓ ↓ ↓ m
T [◦; ·, ·] ⇒ T ◦ , ◦ , · · · , ◦ ; • , • · · · , • ⇒ tensor de tipo
n
En esta notación el punto y coma ;separa las “entradas” para las formas de las de los vectores. Es importante
recalcar que el orden si importa, no sólo para las cantidades separadas por el punto y como sino el orden
de los puestos de los vectores y formas separados por coma. Ese último orden repercutirá en las propiedades
de los tensores. Serán tensores simétricos si al permutar dos de los puestos de vectores (o formas) cambia de
signo el orden no importa; antisimétricos si el orden importa y un tensor genérico si el orden importa pero
no se comporta como los casos reseñados anteriormente. De todos modos esto será tratado con detalle más
adelante.
Obviamente las formas pueden ser representadas por tensores ya que son funcionales lineales de vectores,
es decir, ha|
1 ↓
un vector es tensor de tipo ⇒ T ◦ ∈ C.
0
|(ϕ(1) + ζ(1)) + κ(1)i ⊗ |(ξ(2) + χ(2)) + κ(2)i = |ϕ(1) + (ζ(1) + κ(1))i ⊗ |ξ(2) + (χ(2) + κ(2))i
3. Existe un único elemento neutro: ∃! |0i ∋ |0i ⊞ |vj i = |vj i ⊞ |0i = |vj i ∀ |vj i ∈ V
Es decir,
|ϕ(1)χ(2)i + |0(1)0(2)i = |ϕ(1) + 0(1)i ⊗ |χ(2) + 0(2)i = |ϕ(1)i ⊗ |χ(2)i = |ϕ(1)χ(2)i
Equivalentemente, podemos construir un producto tensorial entre espacios de formas diferenciales. Si E1∗ y
E2∗ son dos espacios vectoriales duales a E1 y E2 , con dimensiones N1 y N2 , respectivamente. A estos espacios
pertenecen las formas diferenciales genéricas hζ(1)| ∈ E1∗ y hξ(2)| ∈ E2∗ . Definiremos el producto tensorial de
∗ ∗ ∗ ∗ ∗
E =
espacios vectoriales duales, E 1 ⊗ E2 , si a cada par de formas diferenciales hζ(1)| ∈ E1 y hξ(2)| ∈ E2 le
0
asociamos un tensor tipo . Esto es
2
A partir de las definiciones de productos internos en E1 y E2 mostraremos, sin embargo que NO es una
buena definición de producto interno. Para ello supondremos que · representa la multiplicación estándar
entre números reales. Para comprobar que
Debemos demostrar los axiomas o propiedades de los productos internos. Las propiedades que definen el
producto interno son:
como hϕ(1) |ϕ(1)i y hχ(2) |χ(2)i son buenas definiciones de producto interno tendremos que
hϕ(1) |ϕ(1)i ≥ 0
⇒ hϕ(1)χ(2) |ϕ(1)χ(2)i ≥ 0
hχ(2) |χ(2)i ≥ 0
Aquı́ vale la pena mencionar algunos puntos sutiles sobre la segunda parte de la propiedad a demostrar:
si hx| xi = 0 ⇒ |xi ≡ |0i lo cual para este caso se traducen en
definitivamente, habrı́a que restringir los posibles vectores que intervienen en el producto tensorial, de
modo que no fuera posible vectores del tipo
y otra vez, como hϕ(1) |ϕ(1)i y hχ(2) |χ(2)i son buenas definiciones de producto interno tendremos
que:
y al multiplicar hχ̃(2) |ξ(2) + χ(2)i por hϕ̃(1) |ϕ(1) + ζ(1)i surgirán cuatro sumandos
hϕ̃(1) |ϕ(1)i hχ̃(2) |ξ(2)i + hϕ̃(1) |ϕ(1)i hχ̃(2) |χ(2)i + hϕ̃(1) |ζ(1)i hχ̃(2) |ξ(2)i + hϕ̃(1) |ζ(1)i hχ̃(2) |χ(2)i
lo cual contrasta con el lado izquierdo al utilizar la definición dos veces que tienen dos sumandos
hϕ̃(1)χ̃(2) |ϕ(1)χ(2)i + hϕ̃(1)χ̃(2) |ζ(1)ξ(2)i = hϕ̃(1) |ϕ(1)i · hχ̃(2) |χ(2)i + hϕ̃(1) |ζ(1)i · hχ̃(2) |ξ(2)i
por lo cual NO se cumple esta propiedad y no hay forma de enmendarla. Sólo por razones de
completitud.
claramente, esta definición de componente contiene a las componentes ci,j de aquellos espacios tensoriales
generados por el producto tensorial. Ya si consideramos un tensor como resultado de un producto tensorial
y consideramos que las base {|ui (1)i , hxm (1)|} su componentes se pueden expresar {ϕm (1)χi (1)}, vale decir,
1
⇐⇒ |ϕ(1)i ⊗ h∆(1)| =⇒ hxm (1) |ϕ(1)i ⊗ h∆(1)| ui (1)i ⇐⇒ {ϕm (1)δi (1)}
1
ij
Rkl = αQij ij
kl + βPkl
hζ(1)| hξ(2)|
|u
i (1)i hε(1)| hφ(2)|
↓ ↓ ↓ ↓ ↓
=T • , • ⊗P ◦ ; • , •
|u
i (1)i hε(1)| hφ(2)| hζ(3)| hξ(4)|
↓ ↓ ↓ ↓ ↓
= R ◦ ; • , • , • , •
Contracción de un Tensor
Denominaremos una contracción cuando sumamos las componentes covariantes y contravariantes, esto
es ϕi (1)χi (1) lo cual genera un escalar independiente de la base. Esta situación será más evidente cuando
definamos métricas y contracción de tensores. Por
analogı́a
y considerando un caso más general,
dada una
mn 2 1
componente Sijk correspondiente a un tensor podremos construir un nuevo tensor a partir
3 2
in n
de una contracción. Las componentes de este nuevo tensor serán Sijk ≡ S̃jk . Del mismo modo, dadas las
componentes de dos tensores, P y Qzk generarán componentes de nuevos tensores Rklij = P lm Qij
lm ij
mk . Ası́
2
=⇒ P lm
0 3
=⇒ =⇒ Rklij = P lm Qij
mk
2 ij 1
=⇒ Qzk
2
Es claro que si dos tensores derivan de productos tensoriales y si {|ui (1)i} , {hum (1)|} y {|vi (2)i} son bases
ortonormales para E1 E1∗ y E2 , entonces sus productos podrán ser expresados como
|γ(1)δ(2)i = γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i
| {z }
P ij
=⇒
|α(1)β(1)i = αl (1)βm (2) |ul (1)i ⊗ hum (1)|
| {z }
Qlm
αl (1)βm (2) |ul (1)i ⊗ hum (1)| γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i =⇒
αl (1)βm (2) γ i (1)δ j (2) {hum (1) |ui (1)i} |vj (2)i ⊗ |ul (1)i =⇒
| {z }
δim
αl (1)βk (2) γ k (1)δ j (2) |vj (2)i ⊗ |ul (1)i = P ij Qli |vj (2)ul (1)i = Rjl |vj (2)ul (1)i
Pero más aún si |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E es base de E entonces se puede demostrar lo anterior
sin circunscribirnos a tensores cuyas componentes provengan de multiplicación de las componentes en cada
espacio vectorial.
Simetrización de Tensores
Un tensor (las componentes) será simétrico respecto a dos de sus ı́ndices si su permutación no cambia su
valor:
Sij = Sji ; S ij = S ji ; Sij···kl···mn = Sij···lk···mn S ij···kl···mn = S ij···lk···mn
y será antisimétrico si
Aij = −Aji ; Aij = −Aji Aij···kl···mn = −Aij···lk···mn Aij···kl···mn = −Aij···lk···mn
Un tensor de rango 2, viene representado por una matriz. La matriz que representa un tensor de rango 2,
tendrá como máximo 6 componentes distintas será
1 1
S1 S21 S31 S1 S21 S31
j
i
Sj = Si = S12 S22 S32 = S21 S22 S32
S13 S23 S33 S31 S32 S33
mientras que un tensor antisimétrico de segundo orden tendrá, cuando máximo, tres componentes con valor
absoluto distintos de cero
0 A12 A13
Aij = −Aji = −A21 0 A23
3 3
−A1 −A2 0
Siempre es posible construir tensores simétricos y antisimétricos a partir de un tensor genérico. Esto es:
1 1
Sij = (Tij + Tji ) ≡ T(ij) ⇐⇒ Sij···kl···mn = (Tij···kl···mn + Tij···lk···mn ) = Tij···(kl)···mn
2 2
1 1
Aij = (Tij − Tji ) ≡ T[ij] ⇐⇒ Aij···kl···mn = (Tij···kl···mn − Tij···lk···mn ) = Tij···[kl]···mn
2 2
Más aún, es evidente que las componentes de un tensor genérico Tij , pueden expresarse como una combinación
de su parte simétrica y antisimétrica
Tij = Sij + Aij
Obviamente que algo equivalente se puede realizar para componentes contravariantes de tensores.
i
hx | hxj |
↓ ↓ −1
g • , • = g ij ≡ g ij =⇒ g ij ≡ g ij = (gij )
|x |xj i
ii
↓ ↓
Nótese que las gij ≡ gji son las componentes del tensor g ◦ , ◦, una vez que la base {|xj i} ha actuado.
|x |xj i
ii
↓ ↓
La denominación de tensor métrico, no es gratuita, g ◦ , ◦, cumple con todas las propiedades de la
Si la base genérica, {|xj i} , es ortonormal entonces estas propiedades emergen de manera natural y es
claro que
|e i |e i
i j
↓ ↓
g ◦ , ◦, =⇒ g [◦, ◦] ≡ gij ei ⊗ ej ≡ gji ej ⊗ ei y g [•, •] ≡ g ij |ei i ⊗ |ej i ≡ g ji |ej i ⊗ |ei i
con lo cual sus componentes serán matrices simétricas gij = gji y igualmente g ij = g ji . En general impon-
dremos que
ya que i, j = 1, 2, 3, · · · , n. Con lo cual gij es la matriz inversa de g ij . Es decir, claramente, hemos definido
las componentes contravariantes del tensor de modo que cumplan con gik g kj = δij
ha| g ij |ei i ⊗ |ej i = ha| g ij |ei i ⊗ |ej i = g ij ha |ei i ⊗ |ej i = ak g ij ek |ei i |ej i = ak g kj |ej i ≡ aj |ej i
otra vez aj = ak g kj , y subimos el ı́ndice correspondiente. La importancia de esta
Otra forma de verlo es combinando las propiedades del producto directo de tensores y contracción de
ı́ndices
g ij |ei i ⊗ |ej i ⊗ Pklmn |el i ⊗ |em i ⊗ |en i ⊗ ek =⇒
g ij Pklmn |ej i ⊗ Pklmn |el i ⊗ |em i ⊗ |en i ⊗ ek ei i =
g ij Pklmn |ej i ⊗ |el i ⊗ |em i ⊗ |en i · ek ei i = P jlmn |ej i ⊗ |el i ⊗ |em i ⊗ |en i
| {z }
δik
g ij Pilmn ≡ P jlmn
Adicionalmente, el tensor métrico permite la contracción de ı́ndices. Ası́, dado un producto tensorial de
dos vectores que se pueden expresar en una base ortonormal
|a, bi = |ai ⊗ |bi = ak bm |ek i ⊗ |em i
⇓
i
j k
gij e ⊗ e a |ek i ⊗ b |em i = a b gij δki δm
m k m j
= ak bm gkm = ak bk = hb |ai = ha |bi
Con lo cual ,el producto interno de dos vectores involucra, de manera natural, la métrica del espacio. Esto
es
hb |ai = ha |bi = ak bk = ak bk = ak bm gkm = ak bm g km
Obviamente la norma de un vector, también incluirá al tensor métrico:
2
(ds) ≡ hdr |dri = d x̃k ẽk (d x̃m |ẽm i) = ẽk |ẽm i d x̃k d x̃m = d x̃m d x̃m = g̃km d x̃k d x̃m
Si la base {|ej i} es ortogonal (cosa más o menos común pero no necesariamente cierta siempre) las matrices
gij y g ij son diagonales cumplen con
1 2 2 2 2
gii = =⇒ (ds) = h1 dx1 + h2 dx2 + h3 dx3
g ii
√
donde hi = gii con i, j = 1, 2, 3.
El caso 2D
Supongamos un cuerpo que se encuentra en equilibrio y está sometido a un conjunto de fuerzas externas.
Para facilitar las cosas consideremos el efecto de esas fuerzas sobre un plano que contiene a un determinado
punto P (ver figura 3.1 cuadrante Ia) Es decir, vamos a considerar los efectos de las componentes de todas
las fuerzas sobre ese plano y obviaremos efecto del resto de las componentes. Como observamos en la figura
3.1 Ib y Ic, si cortamos la superficie en dos lı́neas (AB y A′ B ′ ), observaremos que el efecto del conjunto de
fuerzas externas es distinto sobre P en la dirección perpendicular a cada una de esas lı́neas. De hecho al
“cortar” la superficie las fuerzas que aparecen sobre las lı́neas AB (y A′ B ′ ) antes eran fuerzas internas y
ahora los son externas al nuevo cuerpo “cortado”. Ası́, estas fuerzas por unidad de longitud1 sobre el punto
P existen un conjunto de fuerzas que generan esfuerzos (stress). Por lo tanto es claro que los esfuerzos sobre
un punto dependen del punto, de las fuerzas externas y de la dirección del efecto.
Para irnos aclarando consideremos un elemento de área infinitesimal ds sobre la cual actúan un conjunto
de fuerzas externas, las cuales las podemos descomponer como normales y tangenciales a la lı́nea sobre la
cual están aplicadas (ver figura 3.1 cuadrante II). Es costumbre denotar los esfuerzos normales y tangenciales
↑ Y2 = σ2 dx −→ X2 = τ2 dx
dx
Y3 = τ3 dy ↑ ↑ Y1 = τ1 dy
dA = dxdy ⇒ dy ds dy
X3 = σ3 dy → → X1 = σ1 dy
dx
↑ Y4 = σ4 dx → X4 = τ4 dx
1 En el caso tridimensional, las fuerzas que generan los esfuerzos serán definidas como fuerzas por unidad de área. Ese caso
τ2 = −τ4 σ1 = −σ3
pero más aún, como está en equilibrio, también la sumatoria de torques se tendrá que anular. Esto es
dy
(τ1 dy) dx
2 − (τ2 dx) 2 = 0
⇒ τ1 = τ 2 = τ3 = τ4
dy
(τ3 dy) dx
2 − (τ 4 dx) 2 = 0
con lo cual, nos damos cuenta que existen sólo tres cantidades independientes: dos esfuerzos normales σ1 y
σ2 ; y un esfuerzo tangencial τ1 . Adicionalmente notamos que los esfuerzos tienen que ver, con la dirección
de la fuerza y la superficie sobre la cual va aplicada. Con ello podemos diseñar la siguiente notación para
los esfuerzos: σij . El primer ı́ndice indica la dirección de la fuerza y el segundo dirección de la normal de la
superficie donde está aplicada. Ası́, tal y como muestra la figura (ver figura 3.1 cuadrante II)
σ1 ≡ σxx ; −σ4 ≡ σyy ; τ2 ≡ σxy ≡ σyx
El cambio de signo se debe a lo incómodo de la notación σ4 ≡ σy−y ya que la normal de lado 4 apunta en la
dirección −y. Es importante también señalar que los esfuerzos en cualquier punto contenido en el diferencial
de área dA = dxdy deben ser considerado constantes. O, lo que es lo mismo, que podemos hacer tender a
cero el área del diferencial y con ello asociar los esfuerzos σij a un punto P contenido en dA sobre la cual
hemos calculado los esfuerzos.
En esta misma lı́nea de razonamiento, nos podemos preguntar cual es la expresión de los esfuerzos cuando
se miden respecto a una superficie genérica, definida por un vector normal ~n (ver figura 3.1 cuadrante III).
Es decir, queremos conocer los esfuerzos medidos en el punto P en la dirección ~n, es decir σnn . Tendremos
que en
x → σxx dy + σxy dx = σnn ds cos φ + σsn ds sen φ; y → σyy dx + σyx dy = σnn ds sen φ − σsn ds cos φ
Ahora bien, dado que dy = ds cos φ y dx = ds sen φ, entonces podemos expresar
σnn = σxx cos2 φ + σxy sen φ cos φ + σyx sen φ cos φ + σyy sen2 φ
σsn = σxx sen φ cos φ + σxy sen2 φ − σyx cos2 φ − σyy sen φ cos φ
y si ahora nos damos cuenta que si construimos una matriz
x
An = cos φ Axs = sen φ
Aij =
Ayn = sen φ Ays = − cos φ
entonces podemos expresar
σnn = Axn Axn σxx + Axn Ayn σxy + Ayn Axn σyx + Ayn Ayn σyy → σnn = Ain Ajn σij con i, j = n, s
σsn = Axs Axn σxx + Axs Ayn σxy + Ays Axn σyx + Ays Ayn σyy → σsn = Ain Ajn σij con i, j = n, s
El caso 3D
Analicemos ahora el caso tridimensional. En este caso también procedemos como en el caso anterior
estableciendo las condiciones de equilibrio
X X
F~iext = 0 y ~τiext = 0
con ello construimos un volumen (cúbico) diferencial y construimos los esfuerzos normales y tangenciales,
los cuales serán
σxx dydz; σyy dxdz; σzz dxdy; σxz dxdy; σyz dxdy; σxy dxdz;
Siguiendo el mismo proceso que involucra imponer el equilibrio es fácil demostrar que al igual que el caso
anterior, el tensor de esfuerzos σij cumple con:
σxz = σzx ; σyz = σzy ; σxy = σyx
y por lo tanto tendremos 6 componentes (tres normales y tres tangenciales) independientes. Es decir, si bien
el tensor de esfuerzos σij viene representado por una matriz 3 × 3 y por lo tanto tiene 9 elementos, sólo 6 son
independientes. Construyamos ahora el caso general para un tensor de esfuerzos en un medio elástico. Para
ello construimos un tetraedro regular tal y como muestra la figura 3.2, y sobre su cara genérica asociada a
un vector normal ~n una fuerza
Fx = σxn dSn
~ ~ i
F = F ûn = F ii = Fx ı̂ + Fy ̂ + Fz k̂ → Fy = σyn dSn → F i = σji nj dS → F~ = σ · dS ~
Fz = σzn dSn
se especifica como la fuerza que actúa sobre un determinado elemento de superficie. Es claro que la condición
de equilibrio se traduce en
X 1 1 1
Fxi = 0 → σxn dSn − σxx dy dz − σxy dx dz − σxz dx dy = 0
2 2 2
X 1 1 1
Fyi = 0 → σyn dSn − σyx dy dz − σyy dx dz − σyz dx dy = 0
2 2 2
X 1 1 1
Fzi = 0 → σzn dSn − σzx dy dz − σzy dx dz − σzz dx dy = 0
2 2 2
Si consideramos que la proyección de dSn sobre cada uno de los planos del sistema cartesiano tendremos que
dS n cos (ı̂;~n) = 21 dy dz = dS n Axn
dS n cos (̂;~n) = 12 dx dz = dS n Ayn → σxn = σxx Axn + σxy Ayn + σxz Azn
dS n cos (k̂;~n) = 12 dx dy = dS n Azn
y equivalentemente
σyn = σyx Axn + σyy Ayn + σyz Azn ; y σzn = σzx Axn + σzy Ayn + σzz Azn
las cuales se conocen como las relaciones de Cauchy y representan los esfuerzos sobre la superficie con normal
~n. Ahora bien, dado que F~ = σ · dS ~ es una relación vectorial podemos proyectar en la dirección ûm
ûm · F~ = ûm · σ · dS
~ → F m = σnm dS n = σim Ain dS n = σim Ain dS n
σmn dS n = σmi Ain dS n → σmn dS n = σki Akm Ain dS n con i, j = x, y, z
donde hemos indicado que la i−ésima partı́cula que está en la posición ~r(i) tiene una velocidad ~v(i) . Si
las distancias entre las partı́culas y entre las partı́culas y el origen de coordenadas es constante podremos
expresar la velocidad de cada una de ellas como
~ × ~r(i)
~v(i) = ω
y para cada partı́cula se cumple que, las componentes de la cantidad de movimiento angular serán
X
Lk = m(i) ω k r(i)
m k
r(i)m − r(i) ω m r(i)m
i
k
Si vemos que ω(i) = δlk ω(i)
l
entonces
! !
X X
k
L = m(i) δlk ω l m
r(i) r(i)m − k
r(i) m
ω r(i)m = l
ω(i) m(i) δlk m
r(i) r(i)m − k
r(i) r(i)l
i i
| {z }
Ilk
es decir X
Lk = ω(i)
l
Ilk donde Ilk = m
m(i) δlk r(i) k
r(i)m − r(i) r(i)l
i
el objeto Ilk se conoce como el tensor de inercia y corresponde a 9 cantidades (a pesar que sólo 6 son
independientes porque es un tensor simétrico)
P P P
2 2
Ixx = i m(i) y(i) + z(i) Ixy = − i m(i) x(i) y(i) Ixz = − i m(i) x(i) z(i)
P P P
k
Il = Iyx = i m(i) x(i) y(i) Iyy = i m(i) x2(i) + z(i)2
Iyz = − i m(i) y(i) z(i)
P P P
2 2
Izx = i m(i) x(i) z(i) Izy = i m(i) y(i) z(i) Izz = i m(i) z(i) + y(i)
nos contentaremos por ahora, suponer que esta construcción es un tensor y lo demostraremos más adelante.
La ilustración más sencilla de que la masa en rotación se comporta como un tensor y no como un escalar
lo vemos en la rotación de dos masas, m1 , m2 iguales (con lo cual m1 = m2 = m) unidas por una varilla
sin masa de longitud l. Si el sistema (masas + varillas) se encuentra girando alrededor su centro de masa y
ambas masas se encuentran sobre el plano x, y, vale decir que la barra sin masa forma un ángulo de α = π2
con el eje z. Entoces tendremos que
l l d~r l dθ l dθ
~r = cos θ ı̂ + sen θ ~j ⇒ ~v = =− sen θ ı̂ + cos θ ~j
2 2 dt 2 dt 2 dt
con lo cual
2
~ = m1 (~r1 × ~v1 ) + m2 (~r2 × ~v2 ) = m (~r1 × ~v1 ) + m ((−~r1 ) × (−~v1 )) = 2m (~r1 × ~v1 ) = l dθ
L k̂
2 dt
ya que
m1 = m2 = m; ~r2 = −~r1 y ~v2 = −~v1
en adelante) al conjunto aj como un vector contravariante obviando la precisión de componente, pero
realmente las aj son las componentes del vector.
Adicionalmente, en esta etapa pensaremos a las bases como distintos observadores o sistemas de refe-
rencias. Con ello tendremos (algo que ya sabı́amos) que un vector se puede expresar en distintas bases y
tendrá distintas componentes referidas a esa base
|ai = aj |ej i = ãj |ẽj i
Ası́ una misma cantidad fı́sica vectorial “se verá” distinta (tendrá distintas componentes) desde diferentes
sistemas de coordenadas. Las distintas “visiones” están conectadas mediante un transformación de sistema
de referencia
que veremos más adelante.
Igualmente
hemos dicho que una
iforma
diferencial hb| ∈ V ∗ es susceptible de expresarse en una base
i ∗
e del espacio dual V como bi e y, como el espacio está equipado con un producto interno entonces
ha |bi = hb |ai = bi ei · aj |ej i = bi aj δji = ai bi
Con lo cual avanzamos otra vez en la interpretación de cantidades fı́sicas: una cantidad fı́sica escalar “se
vera” igual (será invariante) desde distintos sistemas de referencia.
Además sabemos que unas y otras componentes se relacionan como
i
i
e |ai = aj ei |ej i = aj δji = ãj ei |ẽj i a = Aij ãj
i
=⇒
i
ẽ |ai = ãj ẽi |ẽj i = ãj δji = aj ẽi |ej i ã = Ãij aj
donde claramente
−1
ei |ẽj i = Aij ; ẽi |ej i = Ãij y Aik Ãkj = δji ⇐⇒ Ãij = Aij
Diremos entonces que aquellos objetos cuyas componentes transforman como ai = Aij ãj o equivalentemente
ãi = Ãij aj serán vectores o en un lenguaje un poco más antiguo, vectores contravariantes. Tradicionalmente,
e inspirados
en la ley de transformación, la representación matricial de las componentes contravariantes de
un vector, ei |ai = aj , para una base determinada {|ej i} se estructuran en una columna
1
a
i a2
|ai =⇒ e |ai con i = 1, 2, 3, · · · , n ⇐⇒ .
..
an
De la misma manera, en el espacio dual, V ∗
, las formas
diferenciales se podrán expresar en término de
una base de ese espacio vectorial como hb| = bi ei = b̃i ẽi Las {bi } serán las componentes de las formas
diferenciales o las componentes covariantes de un vector |bi o dicho rápidamente un vector covariante o
covector. Al igual que en el caso de las componentes contravariantes las componentes covariantes transforman
de un sistema de referencia a otro mediante la siguiente “ley de transformación”:
hb |ej i = bi ei |ej i = bi δji = b̃i ẽi |ej i bi = b̃i Aij
=⇒
hb |ẽj i = b̃i ẽi |ẽj i = b̃i δji = bi ei |ẽj i b̃i = bi Ãij
Otra vez, objetos cuyas componentes transformen como bi = b̃i Aij los denominaremos formas diferenciales o
vectores covariantes o covectores y serán representados matricialmente como un arreglo tipo fila
hb| =⇒ hb |ej i con i = 1, 2, 3, · · · , n ⇐⇒ b 1 b 2 · · · bn
|ai = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i y |ai = ar |ur i + aθ |uθ i = ã1 |ẽ1 i + ã2 |ẽ2 i
|ur i = cos θ |ii + sen θ |ji y |uθ i = − sen θ |ii + cos θ |ji
con lo cual
i hi |ur i hi |uθ i cos θ − sen θ
e |ẽj i = Aij ⇐⇒ Aij = ≡
hj |ur i hj |uθ i sen θ cos θ
y
hur |ii hur |ji cos θ sen θ
ẽi |ej i = Ãij ⇐⇒ Ãij = ≡
huθ |ii huθ |ji − sen θ cos θ
cumpliendo además
cos θ − sen θ cos θ sen θ 1 0
= ⇐⇒ Aik Ãkj = δji
sen θ cos θ − sen θ cos θ 0 1
De este modo si
|ai = ar |ur i + aθ |uθ i = ã1 |ẽ1 i + ã2 |ẽ2 i = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i
tendremos que
i cos θ sen θ ax ar ax cos θ + ay sen θ
ã = Ãij aj ⇐⇒ = =
− sen θ cos θ ay aθ −ax sen θ + ay cos θ
con lo cual
ar = ax cos θ + ay sen θ y aθ = −ax sen θ + ay cos θ
del mismo modo
i cos θ − sen θ ar ax ar cos θ − aθ sen θ
a = Aij ãj ⇐⇒ = =
sen θ cos θ aθ ay ar sen θ + aθ cos θ
y
ax = ar cos θ − aθ sen θ y ay = ar sen θ + aθ cos θ
Veamos como están relacionadas estas dos descripciones. Para este caso las ecuaciones de transformación son
xP = xP (r, θ) = x1 = x1 x̃1 , x̃2 rP = rP (x, y) = x̃1 = x̃1 x1 , x2
⇐⇒
yP = yP (r, θ) = x2 = x2 x̃1 , x̃2 θ = θP (x, y) = x̃2 = x̃2 x1 , x2
y explı́citamente
xP = rP cos θP =⇒ x1 = x̃1 cos x̃2
yP = rP sen θP =⇒ x2 = x̃1 sen x̃2
y
p q
2 2
rP = x2P + yP2 =⇒ x̃1 = (x1 ) + (x2 )
2
θP = arctan xyPP =⇒ x̃ = arctan xx1
2
Es claro que ambas coordenadas están relacionadas y que se puede invertir la relación
1
x̃1 = x̃1 x1 , x2 x = x1 x̃1 , x̃2
⇐⇒
x̃2 = x̃2 x1 , x2 x2 = x2 x̃1 , x̃2
si se piden cosas razonables:
que las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua)
i 1 2
∂ x (x̃ ,x̃ )
que el determinante de la matriz Jacobiana sean finito y distinto de cero det ∂ x̃l
6= 0.
Más aún, si
∂xi ∂ xi ∂ x̃k ∂ xi
xi = xi x̃j (xm ) =⇒ = = δli =⇒ d xi = d x̃k
∂xl ∂ x̃k ∂ xl ∂ x̃k
con lo cual intuı́mos dos cosas:
1. que las componentes de un vector, deben transformar bajo un cambio de coordenadas como xi =
∂ xi (x̃1 ,x̃2 ) l
∂ x̃l
x̃ .
∂ xi ∂ x̃i
2. Las matrices Jacobianas ∂ x̃k
y ∂ xk
son una la inversa de la otra.
Veamos si es cierto para el caso de vectores en el plano. Para ello calculamos la matriz Jacobiana (matriz
de derivadas) la cual será
! ∂ x1 (x̃1 ,x̃2 ) ∂ x1 (x̃1 ,x̃2 )
∂ xi x̃1 , x̃2 cos x̃2 −x̃1 sen x̃2
= ∂ x̃1 ∂ x̃2 =
∂ x̃l ∂ x2 (x̃1 ,x̃2 ) ∂ x2 (x̃1 ,x̃2 ) sen x̃2 x̃1 cos x̃2
∂ x̃1 ∂ x̃2
y seguidamente, identificando
∂ xi x̃1 , x̃2 l x1 cos x̃2 −x̃1 sen x̃2 x̃1
xi = x̃ =⇒ =
∂ x̃l x2 sen x̃2 x̃1 cos x̃2 0
Igualmente, si calculamos la inversa de la matriz Jacobiana
!−1
√ x2
1
√ x2
∂ xi x̃1 , x̃2 cos x̃2 sen x̃2 1 ) +(x2 )2 (x1 )2 +(x2 )2
= − sen x̃2 cos x̃2 = (x
∂ x̃l −x2 x1
x̃1 x̃1 1 2 2 2 (x ) +(x ) (x1 )2 +(x2 )2
tendremos
√ x1 √ x2
x̃1 (x1 )2 +(x2 )2 (x1 )2 +(x2 )2 x1 ∂ x̃i x1 , x2 l
= =⇒ x̃i = x
0 −x2 x1 x2 ∂ xl
(x1 )2 +(x2 )2 (x1 )2 +(x2 )2
Es decir q
2 2
p
x̃1 = (x1 ) + (x2 ) =⇒ r = x2 + y 2 y 0=0
Supongamos ahora que tenemos el caso tridimensional en esos mismos dos sistemas
de coordenadas:
uno cartesiano x1 = x, x2 = y, x3 = z y otro esférico x̃1 = r, x̃2 = θ, x̃3 = φ , tal y como hemos
supuesto anteriormente el punto P vendrá descrito por
otra vez
x = x (r, θ, φ) = x1 = x1 x̃1 , x̃2 , x̃3 r = r (x, y, z) = x̃1 = x̃1 x1 , x2 , x3
y = y (r, θ, φ) = x2 = x2 x̃1 , x̃2 , x̃3 ⇐⇒ θ = θ (x, y, z) = x̃2 = x̃2 x1 , x2 , x3
z = z (r, θ, φ) = x3 = x3 x̃1 , x̃2 , x̃3 φ = φ (x, y, z) = x̃3 = x̃3 x1 , x2 , x3
con lo cual la matriz de las derivadas será para esta transformación en particular será
sen (θ) cos (φ) −r sen (θ) sen (φ) r cos (θ) cos (φ)
∂ xi x̃1 , x̃2 , x̃3
= sen (θ) sen (φ) r sen (θ) cos (φ) r cos (θ) sen (φ)
∂ x̃l
cos (θ) 0 −r sen (θ)
es decir
sen x̃2 cos x̃3
−x̃1 sen x̃2 sen x̃3
x̃1 cos x̃2 cos x̃3
∂ xi x̃1 , x̃2 , x̃3
= sen x̃2 sen x̃3 x̃1 sen x̃2 cos x̃3 x̃1 cos x̃2 sen x̃3
∂ x̃l
cos x̃2 0 −x̃1 sen x̃2
y su inversa
i 1 2 3
sen (θ) cos (φ) sen (θ) sen (φ) cos (θ)
∂ x̃ x , x , x
= − rsen(φ)
sen(θ)
cos(φ)
r sen(θ) 0
∂ xl cos(θ) cos(φ) cos(θ) sen(φ)
r r − sen(θ)
r
√ x √ y √ z
x2 +y 2 +z 2 x2 +y 2 +z 2 x2 +y 2 +z 2
∂ x̃i x1 , x2 , x3 −y x
0
l
=
x2 +y 2 x2 +y 2 √
∂x xz √ yz √ − x2 +y 2
(x2 +y 2 +z 2 ) x2 +y 2 (x2 +y 2 +z 2 ) x2 +y 2 (x2 +y 2 +z 2 )
1. las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua)
i 1 2
∂ x (x̃ ,x̃ )
2. que el determinante de la matriz Jacobiana sean finito y distinto de cero det ∂ x̃l
6= 0. Esto
es
x̃1 x̃1 ∂ x̃1
∂ ∂
∂ x1 ∂ x2 ∂ xn
∂ x̃1 ∂ x̃2
∂ x2 ∂ x2 6= 0 =⇒ xi = xi (x̃m ) ⇐⇒ x̃j = x̃j (xm )
∂ x̃n ∂ x̃n ∂ x̃n
∂ x1 ∂ x2 ∂ xn
1. dada dos base ortonormales de vectores coordenados. {|e1 i , |e2 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , · · · |ẽn i}
se cumple que
i
i
2. o equivalentemente, bajo una transformación de coordenadas xi = xi x̃j con i, j = 1, 2, 3, · · · , n.,
estas cantidades transforman como
∂ x̃i k ∂ xi k ∂ xi ∂ x̃k
ãi = a ⇐⇒ ai = ã con = δli
∂ xk ∂ x̃k ∂ x̃k ∂ xl
∂ x̃i ∂ xi
y donde las cantidades ∂ xk
y ∂ x̃k
deberán ser evaluadas en el punto P .
ReDefinición Generalizamos los conceptos anteriores de la siguiente manera. Dado un conjunto bases para de formas
diferenciales {hxm (1)| , hy n (2)|} hemos definido las componentes contravariantes de un tensor
i
hx (1)| hyj (2)|
↓ ↓
T ij =T • , • ∈V ⇐⇒ T ij ≡ T 11 , T 12 , · · · , T 1n , T 21 , T 22 , · · · , T 2n , · · · , T nn
ahora, en esta visión, las componentes contravariantes en un puntoP de coordenadas x1 , x2 , · · · , xn ,serán
aquella que bajo una transformación de coordenadas xi = xi x̃j con i, j = 1, 2, 3, · · · , n., estas canti-
dades transforman como
∂ x̃i ∂ x̃j km ∂ xi ∂ xj km ∂ xi ∂ x̃k
T̃ ij = T ⇐⇒ T ij = T̃ con = δli
∂ xk ∂ xm ∂ x̃k ∂ x̃m ∂ x̃k ∂ xl
i i
y donde ∂∂ xx̃k y ∂∂ x̃xk deberán ser evaluadas en el punto P . Esta generalización nos permite construir
el caso más general.
ReDefinición Si {|ti (1)i , |uj (2)i , · · · , |vk (m)i} y hxe (1)| , y f (2) , · · · , hz g (n)| son bases para los vectores y las
formas, respectivamente. Las componentes de un tensor serán
|vk (m)i hxe (1)| hy (2)|
f
|ti (1)i |uj (2)i hz g (n)|
mn ↓ ↓ ↓ ↓ ↓ ↓
Tijk = T ◦ , ◦, , · · · , ◦ ; • , • , · · · , •
∂ xi ∂ x̃k ∂ x̃i ∂ xi
con ∂ x̃k ∂ xl
= δli y donde las cantidades ∂ xk
y ∂ x̃k
deberán ser evaluadas en el punto P .
3.6.1. Un ejemplo
Ilustremos ahora las transformaciones de tensores bajo cambios de la base del espacio vectorial. Una vez
más consideremos dos bases de vectores coordenados {|e1 i , |e2 i , |e3 i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i} para el espacio
vectorial ℜ3 La expresión de un determinado tensor en la base {|e1 i , |e2 i , |e3 i} será
2 1 3
{|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} =⇒ Tji = 2 3 4
1 2 2
|ẽ3 i = |ii + |ji + |ki ẽ |ẽ1 i = 1 ẽ3 |ẽ2 i = 2 ẽ3 |ẽ3 i = 3
para ese mismo espacio ℜ3 encontraremos la expresión que toma Tji en esa base. Igualmente encontraremos las
|ai = aj |ej i = ã1 |ẽ1 i + ã2 |ẽ2 i + ã3 |ẽ3 i = ã1 |e1 i + ã2 (|e1 i + |e2 i) + ã3 (|e1 i + |e2 i + |e3 i)
con lo cual
a1 |e1 i + a2 |e2 i + a3 |e3 i = ã1 + ã2 + ã3 |e1 i + ã2 + ã3 |e2 i + ã3 |e3 i
y como
∂ x1 ∂ x1 ∂ x1
∂ x̃1 = 1; ∂ x̃2 = 1; ∂ x̃3 = 1;
a1 = ã1 + ã2 + ã3
∂ xi k ∂ x2 ∂ x2 ∂ x2
a2 = ã2 + ã3 =⇒ ai = ã =⇒ ∂ x̃1 = 0; ∂ x̃2 = 1; ∂ x̃3 = 1;
∂ x̃k
a3 = ã3
∂ x3 ∂ x3 ∂ x3
∂ x̃1 = 0; ∂ x̃2 = 0; ∂ x̃3 = 1;
Es de hacer notar que dado que la base ortonormal {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} se tiene que
∂ xi
|ai = ãj |ẽj i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |ẽ1 i + a2 (|ẽ2 i − |ẽ1 i) + a3 (|ẽ3 i − |ẽ2 i)
∂ x̃1 ∂ x̃1 ∂ x̃1
∂ x1 = 1; ∂ x2 = −1; ∂ x3 = 0;
ã1 = a1 − a2 k
∂ x̃ ∂ x̃2 ∂ x̃2 ∂ x̃2
ã2 = a2 − a3 =⇒ ãk = ai i
=⇒ ∂ x1 = 0; ∂ x2 = 1; ∂ x3 = −1;
∂ x
ã3 = a3
∂ x̃3 ∂ x̃3 ∂ x̃3
∂ x1 = 0; ∂ x2 = 0; ∂ x3 = 1;
Con las expresiones matriciales para las transformaciones ,estamos en capacidad de calcular, componente a
componente, las representación del tensor en la nueva base con lo cual
k ∂ x̃k ∂ xj i
T̃m = T =⇒
∂ xi ∂ x̃m j
∂ x̃1 ∂ xj ∂ x̃1 ∂ x1 2 3
T̃11 = Tji = T 1 + ∂ x1 T 1 + ∂ x1 T 1
∂ xi ∂ x̃1 ∂ x1 ∂ x̃1 1 1 ∂ x̃ 2 2 ∂ x̃ 3
x̃1 x3
+ ∂∂ ∂ x
1 T
2
+ ∂∂ x̃x1 T22 + ∂∂ T32
x2 ∂ x̃1 1 x̃1
x̃1 ∂ x2 x3
+ ∂∂ x3
∂ x 3 3
∂ x̃1 T1 + ∂ x̃1 T2 + ∂
∂
x̃1 T33
es decir
∂ x̃1 ∂ xj
T̃11 = ∂ xi ∂ x̃1 Tji = 1 · 1 T11 + 0 T21 + 0 T31
−1 · 1 T12 + 0 T22 + 0 T32
+0 1 T13 + 0 T23 + 0 T33
∂ x̃1 ∂ xj
T̃11 = ∂ xi ∂ x̃1 Tji = T11 − T12 = 2 − 2 = 0
es decir
∂ x̃1 ∂ xj
T̃21 = ∂ xi ∂ x̃2 Tji = 1 · 1 T11 + 1 T21 + 0 T31
−1 · 1 T12 + 1 T22 + 0 T32
+0 1 T13 + 1 T23 + 0 T31
∂ x̃1 ∂ xj
T̃21 = ∂ xi ∂ x̃1 Tji = T11 + T21 − T12 + T22 = (2 + 1) − (2 + 3) = −2
k j
se puede continuar término a término o realizar la multiplicación de las matrices ∂∂ x̃xi , Tji y ∂∂ x̃xm provenientes
de la transformación de componentes de tensores. Vale decir
k j 1 −1 0 2 1 3 1 1 1 0 −2 −3
∂ x̃ ∂ x
k
T̃m = Ti ⇔ 0 1 −1 2 3 4 0 1 1 = 1 2 4
∂ xi j ∂ x̃m
0 0 1 1 2 2 0 0 1 1 3 5
hay que resaltar un especial cuidado que se tuvo en la colocación de la matrices para su multiplicación. Si
k j k
bien en la expresión T̃m k
= ∂∂ x̃xi ∂∂ x̃xm Tji las cantidades ∂∂ x̃xi son números y no importa el orden con el cual
se multipliquen, cuando se colocan como matrices debe respetarse la “concatenación interna de ı́ndices”.
k
Esto es cuando queramos expresar T̃m como una matriz, donde el ı́ndice contravariante k indica filas y el
ı́ndice covariante m las columnas, fijamos primero estos ı́ndices y luego respetamos la “concatenación ı́ndices”
covariantes con los contravariantes. Esta es la convención para expresar la multiplicación de matrices en la
notación de ı́ndices2 . Esto es
k ∂ x̃k ∂ xj i k ∂ x̃k i ∂ xj
T̃m = T =⇒ T̃m = T
∂ xi ∂ x̃m j ∂ xi j ∂ x̃m
k j
Ahora los objetos ∂∂ x̃xi , Tji y ∂∂ x̃xm pueden ser sustituidos (en sus puestos correspondientes) por su represen-
tación matricial.
k
Con lo cual hemos encontrado la representación matricial T̃m de las componentes del tensor T en la base
{|ẽ1 i , |ẽ2 i , |ẽ3 i}
1
T̃1 = 0 T̃21 = −2 T̃21 = −3
T̃12 = 1 T̃22 = 2 T̃32 = 4
3 3
T̃1 = 1 T̃2 = 3 T̃33 = 5
n
Para encontrar la expresión para T̃km recordamos que T̃km = g̃kn T̃m es decir, requerimos las componentes
covariantes y contravariantes del tensor métrico g̃kn que genera esta base. Para ello recordamos que para una
base genérica, {|ẽj i} , no necesariamente ortogonal, de un espacio vectorial con producto interno, podemos
2 Quizá una forma de comprobar si los ı́ndices está bien concatenados se observa si se “bajan” los ı́ndices contravariantes
pero se colcan de antes que los covariantes. Esto es Tji → Tij Ası́ la multiplicación de matrices queda representada por
Cji = Aik Bjk → Cij = Aik Bkj y aquı́ es claro que ı́nidices consecutivos están “concatenados” e indican multiplicación
0
definir la expresión de un tensor que denominaremos tensor métrico como
2
|ẽ |ẽj i
ii
↓ ↓
g ◦ , ◦, = g̃ij ≡ g̃ji =⇒ g̃ij ≡ g̃ji = g [|ẽi i , |ẽj i] ≡ hẽi |ẽj i ≡ hẽj |ẽi i
i
hẽ | hẽj |
↓ ↓ −1
g • , • = g̃ ij ≡ g̃ ij =⇒ g̃ ij ≡ g̃ ij = (g̃ij )
Es de hacer notar que la representación matricial para la métrica covariante gij de una base ortonormal
{|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es siempre diagonal. Esto es
g11 = he1 |e1 i = hi |ii = 1; g12 = he1 |e2 i = hi |ji = 0; g13 = he1 |e2 i = hi |ji = 0;
g21 = he2 |e1 i = hj |ii = 0; g22 = he2 |e2 i = hj |ji = 1ñ; g23 = he2 |e3 i = hj |ki = 0;
g31 = he3 |e1 i = hk |ii = 0; g32 = he3 |e2 i = hk |ji = 0; g33 = he3 |e3 i = hk |ki = 1;
con lo cual
n
hTm i
0 −2 −3
n
hTkm i ≡ hgkn Tm i =⇒ 1 2 4
1 3 5
m
hT nm i ≡ g nk Tk
donde hemos denotado h•i como la representación matricial del objeto
Para el caso de la base genérica no ortonormal {|ẽj i} tenemos dos formas de calcular el tensor (las
componentes covariantes y contravariantes) del tensor métrico. La primera es la forma directa
g̃11 = hẽ1 |ẽ1 i = hi |ii = 1; g̃12 = hẽ1 |ẽ2 i = hi| (|ii + |ji) = 1;
g̃21 = hẽ2 |ẽ1 i = (hi| + hj|) |ii = 1; g̃22 = hẽ2 |ẽ2 i = (hi| + hj|) (|ii + |ji) = 2
g̃31 = hẽ3 |ẽ1 i = (hi| + hj| + hk|) |ii = 1; g̃32 = hẽ3 |ẽ2 i = (hi| + hj| + hk|) (|ii + |ji) = 2;
y
g̃13 = hẽ1 |ẽ3 i = hi| (|ii + |ji + |ki) = 1;
La otra forma de calcular la métrica correspondiente la base ortonormal {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} y
transformarla a la base no ortonormal {|ẽ1 i , |ẽ2 i , |ẽ3 i} ≡ {|ii , |ii + |ji , |ii + |ji + |ki} esto es
∂ xi ∂ xj ∂ xi ∂ xj
g̃km = gij =⇒ g̃km = gij
∂ x̃k ∂ x̃m ∂ x̃k ∂ x̃m
1
La métrica para el la base ortonormal será diagonal y además gii = g ii , con lo cual
1 0 0 1 0 0 1 0 0
gij ⇐⇒ 0 1 0 ; g ij ⇐⇒ 0 1 0 ; gji ⇐⇒ 0 1 0 ;
0 0 1 0 0 1 0 0 1
y
1 0 0 1 0 0 1 1 1 1 1 1
∂ xi ∂ xj
g̃km = k
gij ; 1 1 0 0 1 0 0 1 1 = 1 2 2
∂ x̃ ∂ x̃m
1 1 1 0 0 1 0 0 1 1 2 3
nótese para conservar la convención de ı́ndices y matrices hemos representado que hemos traspuesto la matriz
i
correspondiente a ∂∂ x̃xk . La razón, como dijimos arriba es
∂ xi ∂ xj
g̃km = k
gij −→ g̃km = Πik gij Πjm −→ g̃km = Π̄ki gij Πjm
∂ x̃ ∂ x̃m
Para poder representar multiplicación de matrices los ı́ndices deben estar consecutivos, por tanto hay que
trasponer la representación matricial para poder multiplicarla.
Ya estamos en capacidad de obtener las representaciones matriciales para los tensores: T̃ij , T̃ij , T̃ ij .
T
D E D ET 0 −2 −3 0 1 1 D E
T̃ij = T̃ji −→ 1 2 4 = −2 2 3 −→ T̃ij
1 3 5 −3 4 5
D E D E 1 1 1 0 −2 −3 2 3 6 D E
n
T̃km = g̃kn T̃m −→ 1 2 2 1 2 4 = 4 8 15 −→ T̃km
1 2 3 1 3 5 5 11 20
D E D E 0 −2 −3 1 1 1 −5 −10 −13 D E
T̃ kn = T̃m
n mk
g̃ → 1 2 4 1 2 2 = 7 13 17 → T̃ km
1 3 5 1 2 3 9 17 22
1 0
entonces la parte simétrica a(ij) = 2 (aij + aji ) será un (una componente de) tensor . La demostración
2
involucra algunos de los conceptos antes expuesto y la haremos para fijar conceptos.
Dados dos sistemas de coordenadas xi = xi (x̃m ) y x̃j = x̃j (xm ) con i, j = 1, 2, 3, · · · , n se cumple que
∂xi ∂ xi ∂ x̃k
xi = xi x̃j (xm ) =⇒ l
= = δli =⇒
∂x ∂ x̃k ∂ xl
∂ x̃k ∂ x̃l
aij xi xj − ãij x̃i x̃j ≡ aij − ãkl xi xj = 0
∂ xi ∂ xj
como hay una suma en ij no se puede afirmar la cantidad del paréntesis se anula. Como esta afirmación vale
para cualquier sistema de coordenadas Seleccionaremos las componentes coordenadas en la base canónica.
con lo cual
∂ x̃k ∂ x̃l ∂ x̃k ∂ x̃l ∂ x̃k ∂ x̃l
a11 − ãkl = 0; a22 − ãkl = 0; · · · · · · ann − ãkl =0
∂ x1 ∂ x1 ∂ x2 ∂ x2 ∂ xn ∂ xn
1 1
como siempre podemos hacer ã(kl) = 2 (ãkl + ãlk ) y ã[kl] = 2 (ãkl − ãlk ) y separar el tensor
∂ x̃k ∂ x̃l
ãkl = ã(kl) + ã[kl] =⇒ a(hh) − ã(kl) + ã[kl] =0 =⇒
∂ xh ∂ xh
∂ x̃k ∂ x̃l
a(hh) − ã(kl) =0
∂ xh ∂ xh
con lo cual se garantiza que la parte simétrica de un tensor transforma como un verdadero tensor una vez
que se contrae con un par de vectores.
ci = ui Fi = cj ui |uj i = cj δji
Ahora bien, si estamos tratando el espacio vectorial de funciones de cuadrado integrable L2 ,definidas en ℜ3
tendremos que
∞ Z ∞
X
|Fi = ci |ui i ≡ ui Fi |ui i = d3 r′ u∗i (r′ ) f (r′ ) |ui i
i=0 −∞
R P
Es claro que se pueden intercambiar los sı́mbolos de y , por lo cual
Z " ∞
#
∞ X
3 ′ ′
f (r) = d r f (r ) u∗i ′
(r ) ui (r)
−∞ i=0
| {z }
G(r′ ,r)
la función G(r′ , r) que depende de los argumentos, r′ y r, vive dentro de las integrales y convierte
Z ∞
f (r) = d3 r′ f (r′ ) G(r′ , r)
−∞
Este tipo de funciones que apareció en el capı́tulo de transformadas integrales se conoce como la función
distribución delta de Dirac Z ∞
f (r) = d3 r′ f (r′ ) δ(r′ − r)
−∞
Esto sugiere la generalización de bases discretas a continua |wα i de tal forma que transformamos el ı́ndice
de la sumatoria en la variable de una integral
Z
|Ψi = dα c (α) |wα i
donde Z Z
c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β)
con en la cual δ (α − β) es una Delta de Dirac. Ası́, los dos conceptos expresados hasta ahora tienen una
expresión:
Propiedad\Base
Discreta Continua
Ortogonalidad vi |v i = δj
i hwβ R|wα i = δ (α − β)
P∞ j
Cierre 1 = j=0 |vj i vj 1 = dα |wα i hwα |
P∞ R
Expansión |Fi =
i=0ci |ui i |Ψi = dα c (α) |wα i
Componentes ci = Pui Fi c (β)R= hwβ |Ψi
∞
Producto Interno hG| Fi = i=0 g i∗ fi hG| Fi = dα g ∗ (α) f (α)
P∞ 2 R 2
Norma hF| Fi = i=0 |fi | hF| Fi = dα |f (α)|
por lo cual Z Z
∞ ∞
ψ (x) = dp vp (x) ψ̄ (p) ⇄ ψ̄ (p) = dx vp∗ (x) ψ (x)
−∞ −∞
Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) = √ 1 ei px/~
2π~
Nótese
Que las proyecciones de ψ (x) sobre la base de ondas planas es ψ̄ (p) = hvp | ψi
La relación de cierre para esta base se expresa como
Z Z ∞ Z ∞
1 i p(x′ −x)/~
1= dα |vα i hvα | ⇄ dp vp∗ (x′ ) vp (x) = dp e = δ (x′ − x)
−∞ −∞ 2π~
mientras que de la definición de producto interno, uno obtiene
Z ∞ Z ∞
1 i x(p′ −p)/~
hvp′ | vp i = dx vp∗′ (x) vp (x) = dp e = δ (p′ − p)
−∞ −∞ 2π~
En este mismo orden de ideas podemos construir otra base continua ξr0 (r) a partir de la utilización de
las propiedades de la delta de Dirac. Esto es
Z ∞ Z ∞
3
ψ (r) = d r0 ψ (r0 ) δ(r0 − r) ⇄ ψ (r0 ) = d3 r ψ (r) δ (r − r0 )
−∞ | {z } −∞
ξr0 (r)
al igual que
Z ∞ Z ∞
hξr0 | ξr′0 = d3 r ξr∗0 (r) ξr′0 (r) = d3 r δ (r − r0 ) δ (r − r′0 ) = δ (r′0 − r0 )
−∞ −∞
De esta forma dada las bases {ξr0 (r)} y {vp0 (x)} para el espacio vectorial V definiremos dos “representa-
ciones”, la representación de coordenadas, |r0 i , y la representación de momentos |p0 i de V,respectivamente.
De tal modo que
Z ∞
hr0 | r′0 i = d3 r ξr∗0 (r) ξr′0 (r) = δ (r′0 − r0 )
−∞
Z
1 = d3 r0 |r0 i hr0 |
Z ∞ Z ∞
1 −i r0 ·p0 /~
hp0 | p′0 i = d3 r vp∗′0 (r) vp0 (r) = d3 r e = δ (p′0 − p0 )
−∞ −∞ 2π~
Z
1 = d3 p0 |p0 i hp0 |
con lo cual ψ(p0 ) puede considerarse la transformada de Fourier de ψ(r0 ), y denotaremos de ahora en ade-
lante las bases |r0 i ≡ |ri y |p0 i ≡ |pi . Estos ı́ndices continuos, r0 y p0 ,representan tres ı́ndices continuos
r ⇋ (x, y, z) y p ⇋ (px , py , pz ) . La proyección de un vector abstracto |Ψi en la representación |ri será con-
siderada como su expresión en el espacio de coordenadas, igualmente su proyección hp |Ψi será su expresión
en el espacio de los momentos. Eso nos permitirá hacer corresponder los elementos de espacios vectoria-
les abstractos con, con elementos de un espacio vectorial de funciones. Por lo tanto todas las fórmulas de
proyección quedan como
hr |Ψi = ψ(r) y hp |Ψi = ψ(p)
mientras que las relaciones de cierre y ortonormalización
Z
hr| r′ i = δ (r′ − r) y 1= d3 r |ri hr|
Z
′
hp| pi = δ (p − p) y 1= d3 p |pi hp|
por su parte, la relación de cierre hará corresponder a la expresión del el producto interno de dos vectores,
tanto en la representación de las coordenadas como en la representación de momentos de la forma
Z Z
hΦ| d3 r |ri hr| |Ψi = d3 r φ∗ (r) ψ(r)
m
hΦ |Ψi
m
Z Z
hΦ| d3 p |pi hp| |Ψi = d3 p φ̄∗ (p) ψ̄(p)
donde φ̄∗ (p) y ψ̄(p) son las transformadas de Fourier de φ∗ (r) y ψ(r), respectivamente. La afirmación anterior
queda evidentemente demostrada del cambio entre las bases |ri y |pi . Esto es
∗ −3/2 i
hr |pi = hp |ri = (2π~) e ~ p·r
por lo cual
Z Z Z
−3/2 i
ψ(r) = hr |Ψi = hr| d3 p |pi hp| |Ψi = d3 p hr |pi hp| Ψi = (2π~) d3 p e ~ p·r ψ̄(p)
e inversamente
Z Z Z
−3/2 −i
ψ(p) = hp |Ψi = hp| d3 r |ri hr| |Ψi = d3 r hp |ri hr| Ψi = (2π~) d3 r e ~ p·r ψ(r)
[1] Apostol, T. M. (1972) Calculus Vol 2 (Reverté Madrid ) QA300 A66C3 1972
[2] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[3] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva
York)
[4] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[5] Gel´fand, I.M. (1961) Lectures on Linear .Algebra (John Wiley & Sons Interscience, Nueva York ).
[6] Lovelock, D, y Rund, H. (1975) Tensors, Differential Forms & Variational Principles (John Wiley
Interscience, Nueva York ).
[7] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[8] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
123
Capı́tulo 4
Coordenadas Curvilineas
124
Métodos Matemáticos de la Fı́sica
d α (t) |ai(t) d (α (t)) d |ai(t)
= |ai(t) + α (t)
dt dt dt
!
d (t) ha |bi(t) d (t) ha| d |bi(t)
= |bi(t) + ha|(t)
dt dt dt
~r ≡ |ri = rP |ur i = xP |ii + yP |ji + zP |ki con |ur i = cos θ |ii + sen θ |ji
con lo cual
d (|ur i) d (cos θ (t) |ii + sen θ (t) |ji) dθ (t) dθ (t)
= = − (sen θ (t)) |ii + cos θ (t) |ji
dt dt dt dt
ya que
p p
k|ur ik = hur |ur i = [cos θ (t) hi| + sen θ (t) hj|] [cos θ (t) |ii + sen θ (t) |ji] = 1
p p
k|uθ ik = huθ |uθ i = [− (sen θ (t)) hi| + cos θ (t) hj|] [− (sen θ (t)) |ii + cos θ (t) |ji] = 1
y
hur |uθ i = huθ |ur i = [− (sen θ (t)) hi| + cos θ (t) hj|] [cos θ (t) hi| + sen θ (t) |ji] = 0
Más aún
d (|uθ i) d (− (sen θ (t)) |ii + cos θ (t) |ji) dθ (t)
= = − (cos θ (t) |ii + sen θ (t) |ji) = − |ur i
dt dt dt
Con lo cual, una partı́cula que describe un movimiento genérico vendrá descrita en coordenadas cartesianas
por
~r ≡ |ri = xP (t) |ii + yP (t) |ji + zP (t) |ki
y su velocidad será
d~r (t) d (|ri) d (xP (t) |ii + yP (t) |ji + zP (t) |ki)
~v (t) = = =
dt dt dt
d (xP (t)) d (yP (t)) d (zP (t))
= |ii + |ji + |ki = vxP (t) |ii + vyP (t) |ji + vzP (t) |ki
dt dt dt
y la aceleración
y la aceleración
dr(t)P dθ(t) dθ(t)
d (~v (t)) d dt |ur i(t) + r (t)P dt |uθ i d vr (t)P |ur i(t) d r (t)P dt |uθ i
~a (t) = = = +
dt dt dt dt
dr(t)P
d dt dr (t)P d |ur i(t)
~a (t) = |ur i(t) +
dt dt dt
dr (t)P dθ (t) d2 θ (t) dθ (t) d |uθ i(t)
+ |uθ i(t) + r (t)P |uθ i(t) + r (t)P
dt dt dt2 dt dt
dr(t)
d P 2
dt dθ (t) dr (t)P dθ (t) d2 θ (t)
~a (t) = − r (t)P |ur i(t) + 2 + r (t)P |uθ i(t)
dt dt dt dt dt2
De aquı́ podemos ver claramente que velocidad ~v (t) y posición ~r (t) son ortogonales. La velocidad, ~v (t) ,
siempre es tangente a la trayectoria ~r (t) y en este caso la trayectoria es una circunsferencia. En general el
vector
X X X Z
~rmed = ∆ ~r (ti ) = (~r (ti + ∆ti ) − ~r (ti )) =⇒ lı́m ∆ ~r (ti ) = d~r (t) = ~r (t)
∆t→0
i i i
P
es decir d~r (t) = lı́m∆t→0 ∆ ~r (ti ) es tangente a la trayectoria. Es claro que
i
∂xP (t) ∂yP (t) ∂zP (t)
d~r (t) = d [xP (t) |ii + yP (t) |ji + zP (t) |ki] ≡ |ii + |ji + |ki dt
∂t ∂t ∂t
∂xP (λ) ∂~r ∂yP (λ) ∂~r ∂zP (λ) ∂~r
= + + dλ
∂λ ∂xP (λ) ∂λ ∂yP (λ) ∂λ ∂zP (λ)
con lo cual
d (•) ∂xP (λ) ∂ (•) ∂yP (λ) ∂ (•) ∂zP (λ) ∂ (•)
= + +
dλ ∂λ ∂xP (λ) ∂λ ∂yP (λ) ∂λ ∂zP (λ)
P (λ) ∂yP (λ) ∂zP (λ)
con lo cual podemos considerar las cantidades ∂x∂λ , ∂λ , ∂λ como las componentes del vector,
d(•)
d~r (λ) , (y en general del operador
dλ ) tangente ala trayectoria parametrizada con λ.
Más aún las cantidades ∂x∂(•) , ∂(•)
, ∂(•)
P (λ) ∂xP (λ) ∂zP (λ)
serán los vectores base en esas coordenadas.
Ası́ al considerar coordenadas generalizadas q (λ) , q 2 (λ) , q 3 (λ)
1
|ri = r̃ = r̃ q 1 (λ) , q 2 (λ) , q 3 (λ)
⇓
∂q 1 (λ) ∂~r ∂q 2 (λ) ∂~r ∂q 3 (λ) ∂~r
d~r q 1 (λ) , q 2 (λ) , q 3 (λ) = dλ 1 + dλ 2 + dλ 3
∂λ ∂q (λ) ∂λ ∂q (λ) ∂λ ∂q (λ)
m
dr̃ ∂q 1 (λ) ∂~r ∂q 2 (λ) ∂~r ∂q 3 (λ) ∂~r
= + +
dλ ∂λ ∂q 1 (λ) ∂λ ∂q 2 (λ) ∂λ ∂q 3 (λ)
| {z } | {z } | {z }
|q 1 i |q 2 i |q 3 i
n 2 3 o
donde q 1 = ∂q∂~r
1 (λ) , q = ∂q∂~
r
2 (λ) , q = ∂q∂~
r
3 (λ) , son la base de vectores.
Por otro lado el módulo del vector kd~r (λ)k representará la longitud de arco ds para esa curva. Por
consiguiente
d~
r (λ)
donde dλ es el vector tangente a la curva. Dado que
2 ∂ hdr(λ)| ∂ |dr(λ)i i j
(ds) = gij dxi dxj = g̃ij dx̃i dx̃j = ḡij dq i dq j = dq dq
∂q i ∂q j
| {z }
ḡij
identificamos claramente
∂ hdr(λ)| ∂ |dr(λ)i
≡ ḡij
∂q i ∂q j
∂ r̃ 1 ∂ r̃ 2 ∂ r̃ 3
|ri = r̃ = r̃ q 1 , q 2 , q 3 =⇒ dr̃ = dq + dq + dq =⇒
∂ q1 ∂ q2 ∂ q3
gij = ∂∂ qr̃i ∂∂ qr̃j
∂ r̃ ∂ r̃
2
(ds) = gij dxi dxj ≡ dr̃·dr̃ = dq i dq j =⇒
∂ qi ∂ qj
|ẽj i = ‚ 1 ‚ ∂ |ri
‚ ∂ |ri ‚ ∂ q j
‚ ∂ qj ‚
genere una trı́ada de vectors base {|ẽj i} ortonormales de vectores unitarios tales que
los cuales son vectores tangentes a las curvas que define el radio vector |ri. Claramente si el sistema es
ortogonal los factores de escala son importantes para su categorización
∂ |ri
∂ |ri
∂ |ri
h1 =
; h2 =
; y h3 =
;
∂ q1
∂ q2
∂ q3
ds2 ≡ hdr |dri = d x̃k ẽk (d x̃m |ẽm i) = ẽk |ẽm i d x̃k d x̃m = d x̃m d x̃m = g̃km d x̃k d x̃m
Donde hemos utilizado el hecho que la métrica nos permite asociar componentes contravariantes a covariantes
y viceversa, es decir establece una relación entre formas y vectores.
Si las bases de formas y vectores son ortogonales la métrica será diagonal y como en general
∂|dr(λ)i
∂q j
6= 1,
entoces surgen los llamados factores de escala hi = gii
Entonces, una vez más, una forma hb| o, un vector |ai cualquiera puede expresarse como una combinación
lineal de formas o vectores base
|ai = aj |ej i = ãj |ẽj i ↔ hb| = bj ej = b̃j ẽj
con
donde h[i] a[i] NO indica suma. En otras palabras, en aquellos sistemas de coordenadas en los cuales la métrica
es diagonal pero no viene representada por la matriz unidad, subir y bajar indices puede incluir los camibos
de escala.
respectivamente. Para determinar las expresiones de estos vectores en cualquier sistema de coordenadas, es
suficiente con encontrar las expresiones de sus componentes contravariantes o contravariantes. Como sabemos,
podremos encontrar una a partir de las otras con la ayuda de la métrica del sistema de coordenadas.
claramente las componentes contravariantes del vector velocidad en un sistema de coordenadas generalizado
son V j = q̇ j
Para encontrar las componentes covariantes recordamos que para cualquier base generalizada de vectores
o formas se expresan en término de la base cartesiana (de vectores o formas) como
∂xi
i ∂q i
j
|ẽj i = |ei i y ẽ = e
∂q j ∂xj
Entoces las componentes covariantes del vector velocidad en una base generalizada será
i m ∂xm m ∂ Vm V m
∂x ∂x ∂ ẋ 2
Ṽj = hV |ẽj i = (ẋm hẽm |) ∂t
|ei i = ẋm j = ẋm ∂q j = ẋm j =
∂q j ∂q ∂ q̇ ∂ q̇ j
∂t
Con lo cual resulta fácil expresar las componentes covariantes una vez que conocemos el módulo del vector
expresado en ese sistema de coordenadas. El cual siempre viene expresado a partir del diferencial
d |ri
d |ri ⇒
dt
Para encontrar la expresión para la aceleración se procede de manera análoga.
i
m ∂x ∂xm d ∂xm ∂ ẋm
ãj = ha |ẽj i = (ẍm hẽ |) |e i i = ẍm ≡ ẋm − ẋm
∂q j ∂q j dt ∂q j ∂q j
y otra vez
∂xm ∂ ẋm d ∂ ẋm ∂ ẋm d ∂ ẋm ẋm ∂ ẋm ẋm
= ⇒ ãj = ẋm j − ẋm j = − j
∂q j ∂ q̇ j dt ∂ q̇ ∂q dt ∂ q̇ j 2 ∂q 2
y finalmente
d ∂ Vm V m ∂ Vm V m
ãj = − j
dt ∂ q̇ j 2 ∂q 2
∂ r̃ ∂ r̃ ∂ r̃
r̃ = r̃ (x, y, z) =⇒ dr̃ = dx + dy + dz = dx |ii + dy |ji + dz |ki
∂x ∂y ∂z
cosecuentemente
|ẽx i = 1 ∂ |ri
= |ii
hx =
∂∂ |ri
x
=1 k ∂∂ |ri ∂ x
x k
1 ∂ |ri
hy =
∂∂ |ri
y
=1 y |ẽy i =
k ∂∂y|ri k ∂ x = |ji ;
1 ∂ |ri
hz =
∂∂ |ri
z
=1
|ẽz i = = |ki
k ∂∂ |ri
z k
∂ z
∂ r̃ ∂ r̃ ∂ r̃
r̃ = r̃ (ρ, ϕ, z) =⇒ dr̃ = dρ + dϕ + dz
∂ρ ∂ϕ ∂z
y estas cantidades pueden ser identificadas de las leyes de transformación respecto a las coordendas carte-
sianas
x = x (ρ, ϕ) = ρ cos ϕ
dx = cos ϕdρ − ρ sen ϕdϕ
y = y (ρ, ϕ) = ρ sen ϕ =⇒ dy = sen ϕdρ + ρ cos ϕdϕ
z=z dz = dz
con lo cual es fácil identificar
∂ x(ρ,ϕ) ∂ x(ρ,ϕ) ∂ x(ρ,ϕ)
∂ ρ = cos ϕ ∂ ϕ = −ρ sen ϕ =0
∂ z
∂ y(ρ,ϕ)
= sen ϕ ; ∂ y(ρ,ϕ) = ρ cos ϕ ; y
∂ y(ρ,ϕ)
=0
∂ ρ ∂ ϕ
∂ z
∂ z ∂ z ∂ z
∂ ρ =0 ∂ ϕ =0 ∂ z =1
y de allı́
∂ |ri
∂ x (ρ, ϕ)ı̂ + y (ρ, ϕ) ̂ + z k̂
∂ x (ρ, ϕ) ∂ y (ρ, ϕ)
hρ =
∂ρ
=
=
∂ρ ı̂+ ̂
∂ρ
∂ρ
1 ∂ |ri 1 ∂ x(ρ,ϕ) ∂ y(ρ,ϕ)
|ẽϕ i = ∂ |ri ∂ ϕ = ρ ∂ ϕ ı̂ + ∂ ϕ ̂ = − sen ϕ ı̂ + cos ϕ ̂ ;
k ∂ ϕ k
1 ∂ |ri ∂ (x(ρ,ϕ)ı̂+y(ρ,ϕ)̂+zk̂)
|ẽz i = = = k̂
k ∂∂ |ri
z k
∂ z ∂ z
|ri = x (r, ϕ, θ) |ii + y (r, ϕ, θ) |ji + z (r, ϕ, θ) |ki = x (r, ϕ, θ)ı̂ + y (r, ϕ, θ) ̂ + z (r, ϕ, θ) k̂
∂ ~r ∂ ~r ∂ ~r
~r = ~r (r, ϕ, θ) =⇒ d~r= dr + dϕ + dθ
∂r ∂ϕ ∂θ
y estas cantidades pueden ser identificadas de las leyes de transformación respecto a las coordendas carte-
sianas
x = x (r, ϕ, θ) = r cos ϕ sen θ
dx = cos ϕ sen θdr − r sen ϕ sen θdϕ + r cos ϕ cos θdθ
y = y (r, ϕ, θ) = r sen ϕ sen θ =⇒ dy = sen ϕ sen θdr + r cos ϕ sen θdϕ + r sen ϕ cos θdθ
z (r, ϕ, θ) = r cos θ dz = cos θdr − r sen θdθ
y de allı́
∂ |ri
∂ x (r, ϕ, θ)ı̂ + y (r, ϕ, θ) ̂ + z (r, ϕ, θ) k̂
hr =
=
∂r
∂r
∂ x (r, ϕ, θ) ∂ y (r, ϕ, θ) ∂ z (r, ϕ, θ)
hr =
ı̂+ ̂+ k̂
∂r ∂r ∂r
p
hr =
cos ϕ sen θ ı̂+ sen ϕ sen θ ̂+ cos θ k̂
= cos2 ϕ sen2 θ + sen2 ϕ sen2 θ + cos2 θ = 1
q
2 2
hϕ = k−r sen ϕ sen θ ı̂+r cos ϕ sen θ ̂k = (r sen ϕ sen θ) + (r cos ϕ sen θ) = r sen θ
Finalmente,
∂ x (r, ϕ, θ)ı̂ + y (r, ϕ, θ) ̂ + z (r, ϕ, θ) k̂
hθ =
∂θ
∂ x (r, ϕ, θ) ∂ y (r, ϕ, θ) ∂ z (r, ϕ, θ)
hθ =
ı̂+ ̂+ k̂
∂θ ∂θ ∂θ
hθ =
r cos ϕ cos θ ı̂+r sen ϕ cos θ ̂ − sen θ k̂
q
2 2 2
hθ = (r cos ϕ cos θ) + (r sen ϕ cos θ) + (r sen θ) = r
1 ∂ |ri 1
|ẽϕ i = = (−r sen ϕ sen θ ı̂+r cos ϕ sen θ ̂) ;
k ∂∂ |ri
ϕ k
∂ ϕ r sen θ
1 ∂ |ri 1
|ẽθ i = ∂ |ri ∂ θ = r r cos ϕ cos θ ı̂+r sen ϕ cos θ ̂ − sen θ k̂
k ∂ θ k
El elemento de lı́nea viene definido como
2 2 2 2
(ds) = h1 dx1 + h2 dx2 + h3 dx3 ⇐⇒ ds2 = dr2 + r2 sen2 θ dϕ2 + r2 dθ2
q 1 , q 2 , q 3 ⇐⇒ (λ, µ, α) ; |ri = x (λ, µ, α)ı̂ + y (λ, µ, α) ̂ + z (λ, µ, α) k̂
con
senh λ
x = x (λ, µ, α) = r cos α; con r =
cosh λ + cos µ
y = y (λ, µ, α) = r sen α
sen µ
z = z (λ, µ, α) = r
cosh λ + cos µ
con lo cual los vectores unitarios serán
1 ∂ |ri 1 ∂ (x(λ,µ,α)ı̂+y(λ,µ,α)̂+z(λ,µ,α)k̂)
|ẽλ i = = ‚ ‚
‚ ∂ (x(λ,µ,α)ı̂+y(λ,µ,α)̂+z(λ,µ,α)k̂) ‚
k ∂∂ |ri
λ k
∂ λ ‚
‚ ∂ λ
‚
‚
∂ λ
|ẽµ i = 1 ∂ |ri
= ;
k ∂∂ |ri
µ k
∂ µ
1 ∂ |ri
|ẽα i = =
k ∂∂ |ri
α k
∂ α
senh λ senh λ senh λ sen µ
∂ |ri ∂ cosh λ+cos µ cos α ∂ cosh λ+cos µ sen α ∂ cosh λ+cos µ cosh λ+cos µ
= ı̂ + ̂ + k̂
∂λ ∂λ ∂λ ∂λ
∂ |ri cosh λ cos µ + 1 sen µ cosh2 λ − cosh λ cos µ − 2
= (cos αı̂+ sen α̂) −
∂λ cosh2 λ + 2 cosh λ cos µ + cos2 µ cosh3 λ + 3 cosh2 λ cos µ + 3 cosh λ cos2 µ + cos3 µ
la métrica queda como
dλ2 + dµ2
ds2 = r2
senh2 λ
Las superficies λ = const representan toros alrededor del eje z; las superficies µ = const son esferas con
centro sobre el eje z;y finalmente las superficies α = const son planos que contiene al eje z
Coordenadas Elipsoidales
Dados tres números a, b y c; con a > b > c > 0, la ecuación
x2 y2 z2
+ 2 + 2 =1
a2 +α b +α c +α
representa las superficies cuádricas1 homofocales (es decir, con el mismo foco u origen en (x = 0, y = 0, z = 0)).
Dependiendo del valor del parámetro α, estas ecuaciones representarán superficies
Esto quiere decir que por cada punto (x, y, z) del espacio, pasan tres superficies cuádricas (dependiendo del
valor de α). Conocidos a, b y c y el punto, (x = x0 , y = y0 , z = z0 ) , los valores de α vienen dados por las
raı́ces de la ecuación cúbica
x2 y2 z2
+ 2 + 2 =1 =⇒ α3 + ∆ α2 + Φ α + Ω = 0
a2 +α b +α c +α
con
Φ = b2 + c2 x20 + a2 + c2 y02 + a2 + b2 z02 − a2 b2 − a2 + b2 c2
Las raı́ces de esta ecuación (α1 = λ; α2 = µ; α3 = ν) definen las coordenadas elipsoidales del punto (x, y, z) =
(x (λ, µ, ν) , y (λ, µ, ν) , z (λ, µ, ν))
q 1 , q 2 , q 3 ⇐⇒ (λ, µ, ν) ; |ri = x (λ, µ, ν)ı̂ + y (λ, µ, ν) ̂ + z (λ, µ, ν) k̂
1 Nótese que la proyección de estas superficies en el plano (x, y) representan curvas cónicas homofocales
s
(b2 + λ) (b2 + µ) (b2 + ν)
y = y (λ, µ, ν) =
(b2 − a2 ) (b2 − c2 )
s
(c2 + λ) (c2 + µ) (c2 + ν)
z = z (λ, µ, ν) =
(c2 − b2 ) (c2 − a2 )
(λ − µ) (λ − ν) (µ − λ) (µ − ν)
ds2 = dλ2 + dµ2
4 (a2 + λ) (b2 + λ) (c2 + λ) 4 (a2 + µ) (b2 + µ) (c2 + µ)
(ν − µ) (ν − λ)
+ dν 2
4 (a2 + ν) (b2 + ν) (c2 + ν)
de lo cual se deriva
∂ x(ρ,ϕ)
∂ x(ρ,ϕ)
= cos ϕ = −ρ sen ϕ ∂ x(ρ,ϕ)
∂ ρ ∂ ϕ ∂ z =0
=0
∂ y(ρ,ϕ) ∂ y(ρ,ϕ) ∂ y(ρ,ϕ)
= sen ϕ ; = ρ cos ϕ ; y
∂ ρ ∂ ϕ
∂ z
∂ z ∂ z ∂ z
∂ ρ =0 ∂ ϕ =0 ∂ z =1
Entonces dados
|ai = ãi |ẽi i = ã1 |ẽ1 i + ã2 |ẽ2 i + ã3 |ẽ3 i = ar |ẽr i + aϕ |ẽϕ i + az |ẽz i
con
1 ∂ |ri ∂ x(ρ,ϕ) ∂ y(ρ,ϕ)
|ẽρ i = = ∂ ρ ı̂ + ∂ ρ ̂ = cos ϕ ı̂ + sen ϕ ̂
k ∂∂ |ri
ρ k
∂ ρ
1 ∂ |ri 1 ∂ x(ρ,ϕ) ∂ y(ρ,ϕ)
|ẽϕ i = ∂ |ri ∂ ϕ = ρ ∂ ϕ ı̂ + ∂ ϕ ̂ = − sen ϕ ı̂ + cos ϕ ̂ ;
k ∂ ϕ k
1 ∂ |ri ∂ (x(ρ,ϕ)ı̂+y(ρ,ϕ)̂+zk̂)
|ẽz i = = = k̂
k ∂∂ |ri
z k
∂ z ∂ z
Si tenemos en concreto un vector |ai = 5 |ii + 4 |ji + 3 |ki quisiéramos conocer su expresión en coordenadas
cilı́ndricas. Hay que hacer la acotación que existe una familia de sistemas de coordenados cilı́ndricos para-
metrizados por el ángulo ϕ y NO un único sistema coordenado. Obviamente se puede especificar el sistema
coordenado y entonces tendremos un conjunto de componentes definito. Ası́ la familia de componentes en
cilı́ndricas del vector |ai serán
ãj = ẽj |ai = ẽj ã1 |ẽ1 i + ã2 |ẽ2 i + ã3 |ẽ3 i = ẽj a1 |e1 i + a2 |e2 i + a3 |e3 i
ã2 = aϕ = hẽϕ | (5 |ii + 4 |ji + 3 |ki) = (− sen ϕ ı̂ + cos ϕ ̂) · 5ı̂ + 4̂ + 3k̂ = −5 sen ϕ + 4 cos ϕ
con lo cual
|ai = 5 |ii + 4 |ji + 3 |ki = (5 cos ϕ + 4 sen ϕ) |ẽρ i + (−5 sen ϕ + 4 cos ϕ) |ẽϕ i + 3 |ẽz i
donde es claro que existen infinitos sistemas cilindricos parametrizados por el ángulo ϕ , digamos
√ √ √
aρ = 5 cos arctan 45 + 4 sen arctan 54 = 25 16
41 41 + 41 41 = 41
4 √ √
ϕ = arctan ⇒ aϕ = −5 sen arctan 54 + 4 cos arctan 45 = − 20 20
41 41 + 41 41 = 0
5
az = 3
con lo cual hemos alineado el eje |ẽρ i a lo largo del vector |ai . Ese es un sistema de coordenadas cilindrico
muy particular.
Por lo tanto
cos ϕ sen ϕ 0 cos ϕ −ρ sen ϕ 0
∂ x̃k i ∂ xj sen ϕ cos ϕ i
k
T̃m = T ⇒ k
T̃m =
− ρ 0 Tj
sen ϕ ρ cos ϕ 0
∂ xi j ∂ x̃m
ρ
0 0 1 0 0 1
es decir
cos ϕ sen ϕ 0 2 1 3 cos ϕ −ρ sen ϕ 0
k
T̃m = − senρ ϕ cos ϕ
ρ 0 2 3 4 sen ϕ ρ cos ϕ 0
0 0 1 1 2 2 0 0 1
2
− cos ϕ + 3 cos ϕ sen ϕ + 3 ρ sen ϕ cos ϕ − 2ρ + 3ρ cos2 ϕ 3 cos ϕ + 4 sen ϕ
2
k
T̃m = cos ϕ sen ϕ+3 cos ϕ−1
ρ −3 cos ϕ sen ϕ + cos2 ϕ + 2 −3 senρ ϕ + 4 cosρ ϕ
cos ϕ + 2 sen ϕ −ρ sen ϕ + 2ρ cos ϕ 2
Si suponemos que el origen del sistema de coordenadas cilindrico está en el vector anterior. Esto es
p √ √
ρ = x2 + y 2 ⇒ ρ = 52 + 42 = 41
|ai = 5 |ii + 4 |ji + 3 |ki ⇒
ϕ = arctan xy ⇒ ϕ = arctan 45 = 0,67474 rad
y entonces
3,8537 2,030 3 4,841 4
k
T̃m = 0,20569 1. 146 3 0,195 12
2,030 3 6,0 2
Si consideramos una nueva base
1
|ẽ1 i = |ii ẽ |ẽ1 i = 1 ẽ1 |ẽ2 i = 1 ẽ1 |ẽ3 i = 1
2
{|ẽ1 i , |ẽ2 i , |ẽ3 i} ⇒ |ẽ2 i = |ii + |ji ⇐⇒
ẽ |ẽ1 i = 1 ẽ2 |ẽ2 i = 2 ẽ2 |ẽ3 i = 2
3
|ẽ3 i = |ii + |ji + |ki ẽ |ẽ1 i = 1 ẽ3 |ẽ2 i = 2 ẽ3 |ẽ3 i = 3
para ese mismo espacio ℜ3 encontraremos una nueva expresión que toma Tji en esa base. Igualmente encontra-
remos
k las expresiones para los siguientes tensores: T̃ij , T̃ij , T̃ ij . Nótese que
esta
nueva base no es ortogonal
6 δik , con lo cual no se cumplen muchas cosas entre ellas |ẽk i ẽk 6= 1
, ẽ |ẽi i =
Para encontrar la expersión T̃ji expresamos los vectores base {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} en término
de la base {|ẽ1 i , |ẽ2 i , |ẽ3 i}
|e1 i = |ii = |ẽ1 i
{|e1 i , |e2 i , |e3 i} =⇒ |e2 i = |ji = |ẽ2 i − |ẽ1 i
|e3 i = |ki = |ẽ3 i − |ẽ2 i
recordamos que un vector genérico
|ai = aj |ej i = ãj |ẽj i =⇒
|ai = aj |ej i = ã1 |ẽ1 i + ã2 |ẽ2 i + ã3 |ẽ3 i = ã1 |e1 i + ã2 (|e1 i + |e2 i) + ã3 (|e1 i + |e2 i + |e3 i)
con lo cual
a1 |e1 i + a2 |e2 i + a3 |e3 i = ã1 + ã2 + ã3 |e1 i + ã2 + ã3 |e2 i + ã3 |e3 i
y como
∂ x1 ∂ x1 ∂ x1
∂ x̃1 = 1; ∂ x̃2 = 1; ∂ x̃3 = 1;
a1 = ã1 + ã2 + ã3
∂ xi k ∂ x2 ∂ x2 ∂ x2
a2 = ã2 + ã3 =⇒ ai = ã =⇒ ∂ x̃1 = 0; ∂ x̃2 = 1; ∂ x̃3 = 1;
∂ x̃k
a3 = ã3
∂ x3 ∂ x3 ∂ x3
∂ x̃1 = 0; ∂ x̃2 = 0; ∂ x̃3 = 1;
Es de hacer notar que dado que la base ortonormal {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} se tiene que
∂ xi
|ai = ãj |ẽj i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |ẽ1 i + a2 (|ẽ2 i − |ẽ1 i) + a3 (|ẽ3 i − |ẽ2 i)
∂ x̃1 ∂ x̃1 ∂ x̃1
∂ x1 = 1; ∂ x2 = −1; ∂ x3 = 0;
ã1 = a1 − a2 k
∂ x̃ ∂ x̃2 ∂ x̃2 ∂ x̃2
ã2 = a2 − a3 =⇒ ãk = ai i
=⇒ ∂ x1 = 0; ∂ x2 = 1; ∂ x3 = −1;
∂ x
ã3 = a3
∂ x̃3 ∂ x̃3 ∂ x̃3
∂ x1 = 0; ∂ x2 = 0; ∂ x3 = 1;
Con las expresiones matriciales para las transformaciones ,estamos en capacidad de calcular, componente a
componente, las representación del tensor en la nueva base con lo cual
k ∂ x̃k ∂ xj i
T̃m = T =⇒
∂ xi ∂ x̃m j
∂ x̃1 ∂ xj ∂ x̃1 ∂ x1 2 3
T̃11 = Tji = T 1 + ∂ x1 T 1 + ∂ x1 T 1
∂ xi ∂ x̃1 ∂ x1 ∂ x̃1 1 1 ∂ x̃ 2 2 ∂ x̃ 3
x̃1 x3
+ ∂∂ ∂ x
1 T
2
+ ∂∂ x̃x1 T22 + ∂∂ T32
x2 ∂ x̃1 1 x̃1
x̃1 ∂ x2 x3
+ ∂∂ x3
∂ x 3 3
∂ x̃1 T1 + ∂ x̃1 T2 + ∂
∂
x̃1 T33
es decir
∂ x̃1 ∂ xj
T̃11 = ∂ xi ∂ x̃1 Tji = 1 · 1 T11 + 0 T21 + 0 T31
−1 · 1 T12 + 0 T22 + 0 T32
+0 1 T13 + 0 T23 + 0 T33
∂ x̃1 ∂ xj
T̃11 = ∂ xi ∂ x̃1 Tji = T11 − T12 = 2 − 2 = 0
es decir
∂ x̃1 ∂ xj
T̃21 = ∂ xi ∂ x̃2 Tji = 1 · 1 T11 + 1 T21 + 0 T31
−1 · 1 T12 + 1 T22 + 0 T32
+0 1 T13 + 1 T23 + 0 T31
∂ x̃1 ∂ xj
T̃21 = ∂ xi ∂ x̃1 Tji = T11 + T21 − T12 + T22 = (2 + 1) − (2 + 3) = −2
k j
se puede continuar término a término o realizar la multiplicación de las matrices ∂∂ x̃xi , Tji y ∂∂ x̃xm provenientes
de la transformación de componentes de tensores. Vale decir
k j 1 −1 0 2 1 3 1 1 1 0 −2 −3
∂ x̃ ∂ x
k
T̃m = Ti ⇔ 0 1 −1 2 3 4 0 1 1 = 1 2 4
∂ xi j ∂ x̃m
0 0 1 1 2 2 0 0 1 1 3 5
hay que resaltar un especial cuidado que se tuvo en la colocacı́on de la matrices para su multiplicación. Si
k j k
bien en la expresión T̃m k
= ∂∂ x̃xi ∂∂ x̃xm Tji las cantidades ∂∂ x̃xi son números y no importa el orden con el cual
se multipliquen, cuando se colocan como matrices debe respetarse la “concatenación interna de ı́ndices”.
k
Esto es cuando querramos expresar T̃m como una matriz, donde el ı́ndice contravariante k indica filas y el
ı́ndice covariante m las columnas, fijamos primero estos ı́ndices y luego respetamos la “concatenación ı́ndices”
covariantes con los contravariantes. Esta es la convención para expresar la multiplicación de matrices en la
notación de ı́ndices2 . Esto es
k ∂ x̃k ∂ xj i k ∂ x̃k i ∂ xj
T̃m = T =⇒ T̃m = T
∂ xi ∂ x̃m j ∂ xi j ∂ x̃m
k j
Ahora los objetos ∂∂ x̃xi , Tji y ∂∂ x̃xm pueden ser sustitidos (en sus puestos correspondientes) por su represen-
tación matricial.
k
Con lo cual hemos encontrado la respresentación matricial T̃m de las componentes del tensor T en la
base {|ẽ1 i , |ẽ2 i , |ẽ3 i}
1
T̃1 = 0 T̃21 = −2 T̃21 = −3
T̃12 = 1 T̃22 = 2 T̃32 = 4
3 3
T̃1 = 1 T̃2 = 3 T̃33 = 5
n
Para encontrar la expresión para T̃km recordamos que T̃km = g̃kn T̃m es decir, requerimos las componentes
covariantes y contravariantes del tensor métrico g̃kn que genera esta base. Para ello recordamos que para
para una base genérica, {|ẽj i} , no necesariamente ortogonal, de un espacio vectorial con producto interno,
2 Quizá una forma de comprobar si los ı́ndices está bien concatenados se observa si se “bajan” los ı́ndices contravariantes
pero se colcan de antes que los covariantes. Esto es Tji → Tij Ası́ la multiplicación de matrices queda representada por
Cji = Aik Bjk → Cij = Aik Bkj y aquı́ es claro que ı́nidices consecutivos están “concatenados” e indican multiplicación
0
podemos definir la expresión de un tensor que denominaremos tensor métrico como
2
|ẽ |ẽj i
ii
↓ ↓
g ◦ , ◦, = g̃ij ≡ g̃ji =⇒ g̃ij ≡ g̃ji = g [|ẽi i , |ẽj i] ≡ hẽi |ẽj i ≡ hẽj |ẽi i
i
hẽ | hẽj |
↓ ↓ −1
g • , • = g̃ ij ≡ g̃ ij =⇒ g̃ ij ≡ g̃ ij = (g̃ij )
Es de hacer notar que la representación matricial para la métrica covariante gij de una base ortonormal
{|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es siempre diagonalEsto es
g11 = he1 |e1 i = hi |ii = 1; g12 = he1 |e2 i = hi |ji = 0; g13 = he1 |e2 i = hi |ji = 0;
g21 = he2 |e1 i = hj |ii = 0; g22 = he2 |e2 i = hj |ji = 1ñ; g23 = he2 |e3 i = hj |ki = 0;
g31 = he3 |e1 i = hk |ii = 0; g32 = he3 |e2 i = hk |ji = 0; g33 = he3 |e3 i = hk |ki = 1;
con lo cual
n
hTm i
0 −2 −3
n
hTkm i ≡ hgkn Tm i =⇒ 1 2 4
1 3 5
m
hT nm i ≡ g nk Tk
donde hemos denotado h•i como la representación matricial del objeto
Para el caso de la base genérica no ortonormal {|ẽj i} tenemos dos formas de calcular el tensor (las
componentes covariantes y contravariantes) del tensor métrico. La primera es la forma directa
g̃11 = hẽ1 |ẽ1 i = hi |ii = 1; g̃12 = hẽ1 |ẽ2 i = hi| (|ii + |ji) = 1;
g̃21 = hẽ2 |ẽ1 i = (hi| + hj|) |ii = 1; g̃22 = hẽ2 |ẽ2 i = (hi| + hj|) (|ii + |ji) = 2
g̃31 = hẽ3 |ẽ1 i = (hi| + hj| + hk|) |ii = 1; g̃32 = hẽ3 |ẽ2 i = (hi| + hj| + hk|) (|ii + |ji) = 2;
y
g̃13 = hẽ1 |ẽ3 i = hi| (|ii + |ji + |ki) = 1;
La otra forma de calcular la métrica correspondiente la base ortonormal {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} y
transformarla a la base no ortonormal {|ẽ1 i , |ẽ2 i , |ẽ3 i} ≡ {|ii , |ii + |ji , |ii + |ji + |ki} esto es
∂ xi ∂ xj ∂ xi ∂ xj
g̃km = gij =⇒ g̃km = g ij
∂ x̃k ∂ x̃m ∂ x̃k ∂ x̃m
1
La métrica para el la base ortonormal será diagonal y además gii = g ii , con lo cual
1 0 0 1 0 0 1 0 0
gij ⇐⇒ 0 1 0 ; g ij ⇐⇒ 0 1 0 ; gji ⇐⇒ 0 1 0 ;
0 0 1 0 0 1 0 0 1
y
1 0 0 1 0 0 1 1 1 1 1 1
∂ xi ∂ xj
g̃km = g ij ; 1 1 0 0 1 0 0 1 1 = 1 2 2
∂ x̃k ∂ x̃m
1 1 1 0 0 1 0 0 1 1 2 3
nótese para conservar la convención de ı́ndices y matrices hemos representado que hemos traspuesto la matriz
i
correspondiente a ∂∂ x̃xk . La razón, como dijimos arriba es
∂ xi ∂ xj
g̃km = k
gij −→ g̃km = Πik gij Πjm −→ g̃km = Π̄ki gij Πjm
∂ x̃ ∂ x̃m
Para poder representar multipicación de matrices los ı́ndices deben estar consecutivos, por tanto hay que
trasponer la represetación matricial para poder multiplicarlar.
Ya estamos en capacidad de obtener las representacines matriciales para los tensores: T̃ij , T̃ij , T̃ ij .
T
D E D ET 0 −2 −3 0 1 1 D E
T̃ij = T̃ji −→ 1 2 4 = −2 2 3 −→ T̃ij
1 3 5 −3 4 5
D E D E 1 1 1 0 −2 −3 2 3 6 D E
n
T̃km = g̃kn T̃m −→ 1 2 2 1 2 4 = 4 8 15 −→ T̃km
1 2 3 1 3 5 5 11 20
D E D E 0 −2 −3 1 1 1 −5 −10 −13 D E
T̃ kn = T̃m
n mk
g̃ → 1 2 4 1 2 2 = 7 13 17 → T̃ km
1 3 5 1 2 3 9 17 22
[1] Apostol, T. M. (1972) Calculus Vol 2 (Reverté Madrid ) QA300 A66C3 1972
[2] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[3] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva
York)
[4] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[5] Gel´fand, I.M. (1961) Lectures on Linear .Algebra (John Wiley & Sons Interscience, Nueva York ).
[6] Lovelock, D, y Rund, H. (1975) Tensors, Differential Forms & Variational Principles (John Wiley
Interscience, Nueva York ).
[7] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[8] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
145
Capı́tulo 5
146
Métodos Matemáticos de la Fı́sica
Figura 5.1: Radio vector posición ~r (t) en ℜ2 que describe paramétricamente una curva.
T [◦, ◦, · · · , ◦; •, •, · · · , •](t)
⇓
|ti (1)i |uj (2)i m
|vk (m)i hx (1)| hy n (2)| hzl (n)|
↓ ↓ ↓ ↓ ↓ ↓ mn···l
T ◦ , ◦, , · · · , ◦ ; • , • ,··· , • = Tij···k (t)
(t)
mn···l
Tij···k (t) ti (1) ⊗ uj (2) ⊗ · · · ⊗ v k (m) ⊗ |xm (1)i ⊗ |yn (2)i ⊗ · · · ⊗ |zl (n)i
mn···l
Ťij···k ťi (1)(t) ⊗ ǔj (2)(t) ⊗ · · · ⊗ v̌ k (m)(t) ⊗ |x̌m (1)i(t) ⊗ |y̌n (2)i(t) ⊗ · · · ⊗ |žl (n)i(t)
mn···l
T̃ij···k (t) t̃i (1)(t) ⊗ ũj (2)(t) ⊗ · · · ⊗ ṽ k (m)(t) ⊗ |x̃m (1)i(t) ⊗ |ỹn (2)i(t) ⊗ · · · ⊗ |z̃l (n)i(t)
al igual que los vectores, la dependencia funcional de los tensores variará con la base en la cual se exprese.
Ası́ tendremos tensores cuyas componentes, en una determinada base, serán variables y en otra no. Mientras
que una de las bases será variable y otra no.
Siguiendo con el proceso de generalización podemos pensar en una dependencia funcional multilineal.
Esto es que el argumento de la “función” tensorial otro tensor,
A ese objeto se le llama Campo Tensorial, pero vamos con calma. Analicemos lo casos más simples los cuales
son los verdaderamente útiles. Como era de esperarse, tendremos varios casos que se pueden construir a
partir de esta idea hemos visto funciones que ahora llamaremos campos homogéneos
ϕ = ϕ (t) función
mn···l
T = T [◦, ◦, · · · , ◦; •, •, · · · , •](t) Tij···k (t) tensor
mn···l
T = T [◦, ◦, · · · , ◦; •, •, · · · , •](|ri) Tij···k (~r) Campo Tensorial
.. ..
. .
mn···l
T = T [◦, ◦, · · · , ◦; •, •, · · · , •](|ri) Tij···k (~r (t) , t) Campo Tensorial
.. ..
. .
en ambos casos hemos supuesto que la base en la cual se expresan vectores y tensores es constante.
La idea de los campos escalares, vectoriales, tensoriales, con argumento vectorial, es asociar un valor de la
componente (escalar, vectorial o tensorial) a cada punto del espacio (si el vector está en ℜ3 ). Obviamente los
campos escalares asocian un número a cada posición y los campos vectoriales, además del número (módulo)
asocian una dirección y un sentido.
Los campos escalares serán las distribuciones de densidad ρ (~r (t)) , presión P (~r (t)) y temperatura
T (~r (t)) de la atmósfera terrestre o la distribución de intensidades del campo eléctrico en una superficie.
Ası́ al considerar el potencial eléctrico
q q
2 2
φ (~r) = φ (x, y) = ln (x + 1) + y 2 − ln (x − 1) + y 2
q q
2 2 2 2
Campo Escalar φ (~r) = φ (x, y) = ln (x + 1) + y − ln (x − 1) + y
Campo vectorial
Estamos enfatizando el hecho que un campo escalar no variará bajo cambios de las coordenadas en su
Adicionalmente recalcamos que es indistinto hablar de vectores o sus coordenadas φ = φ (~r) ⇔
argumento.
φ = φ xi . La Figura 5.3 ilustra un campo de temperaturas
T = T (x, y) = 70 + 180e−(x−3)2/10−(y−2)2/10
Si unimos los puntos con iguales temperaturas tendremos curvas isotermas tal y como se observan en la
Figura 5.2
mismo, φ (x, y) = z = cte (curva de nivel) y construimos un campo vectorial con su gradiente, ∇φ ~ (x, y) .
Como el gradiente es perpendicular a la curva de nivel tendremos que las curvas integrales, ( lı́neas de flujo o
~ (x, y) serán trayectorias ortogonales a las curvas equipotenciales.
lı́neas de corriente) del campo vectorial ∇φ
con lo cual encontramos las lı́neas de flujo o curvas integrales y (x) del campo ~a (x, y)
Z
dy ay (x, y) ay (x, y)
= ⇒ y (x) = dx
dx ax (x, y) ax (x, y)
por lo cual
y ahora procedemos del mismo modo pero con el campo vectorial ~a⊥ (x, y, z)
Z
dy −a⊥y (x, ) −a⊥ y (x, y)
= ⊥ ⇒ y (x) = ⊥
dx
dx ax (x, y) ax (x, y)
con lo cual las trayectorias ortogonales al campo
dy x p
~a = −xı̂ + ŷ ⇒ ~a⊥ = yı̂ + x̂ ⇒ = ⇒ y (x) = C 2 + x2
dx y
serán curvas.
representará el flujo del campo vectorial a través de la RR ~ Hemos denotado an̂ como la componente
superficie dS.
de ~a a lo largo de n̂s . Hay que hacer notar que f = s ~a · dS ~ es independiente del sistema de coordenadas
y en cartesianas puede expresar como
\
df = ~a · n̂s dS = a1 cos n̂ s a
1 + a2 cos n̂\s a
\
2 + a3 cos n̂
s a
3
donde a1 , a2 , a3 son las componentes cartesianas del vector ~a. La idea que esta cantidad representa flujo
puede tenerse si pensamos en un fluido incompresible que fluye con un campo de velocidades ~v = ~v (~r) . El
volumen que atraviesa una determinada superficie en un intervalo de tiempo dt. Ası́, dS definirá la base de un
d
tubo de fluido y tendrá como “altura” la k~v k cos n̂s ~v dt ya que la altura no tiene por qué ser perpendicular
a la base2 . Por lo tanto la cantidad de fluido que atraviesa la superficie por unidad de tiempo viene dada por
ZZ ZZ ZZ
df = k~v k cos n̂d v dS = (~v · n̂s dS) = ~v · dS
s ~
~ ⇒f = ~=
~v · dS ~v · n̂s dS = vn̂ dS
s s s
∂ |ri
∂ |ri
∂ |ri
hx =
= 1;
hy =
= 1; hz =
=1
∂x
∂y
∂z
∂ r̃ ∂ r̃ ∂ r̃
r̃ = r̃ (x, y, z) =⇒ dr̃ = dx + dy + dz = dx |ii + dy |ji + dz |ki
∂x ∂y ∂z
d φ (x (t) , y (t)) ∂ φ (x (t) , y (t)) d x (t) ∂ φ (x (t) , y (t)) d y (t) ~ (x (t) , y (t)) · d ~r (t)
= + = ∇φ
dt ∂x dt ∂y dt dt
donde hemos representado
~ (x (t) , y (t)) = ∂ φ (x, y) ı̂ + ∂ φ (x, y) ̂ = φx (x, y)ı̂ + φy (x, y) ̂ = ∂ i φ (x, y) |ei i = φ,i (x, y) |ei i
∇φ
∂x ∂y
y lo llamaremos el gradiente de la función. El gradiente de un campo escalar es uno de los objetos más
útiles, el cual lo hemos utilizado de manera operacional y no nos hemos detenido a reflexionar sobre sus
propiedades.
Es claro que para una curva de nivel
d φ (x (t) , y (t)) dk
g (x, y) = z = φ (~r (t)) = k = cte ⇒ = =0 ⇒
dt dt
Derivada Direccional
En una generalización de la idea que surge de parametización de la curva o de la derivada total respecto
al tiempo
dφ ~ (x (t) , y (t)) · d ~r (t)
= ∇φ
dt dt
Ası́ es claro que, dados dos puntos M y M ′ en el campo se puedes relacionar será. Definiremos, entonces la
−−−→
derivada en la dirección de un vector unitario |ui ↔ M ′ M como
′
~ (x, y) · û = d φ = lı́m φ (Mh ) − φi(M )
D|ui φ = ∇φ
d λ M ′ →M −−− →
M ′M
Tal y como se puede apreciar en la figura (??) la derivada direccional representa la pendiente de la recta
tangente a la curva que surge como intersección entre la superficie φ (x, y) = z = k = cte y el plano vertical
formado por el eje z y el vector unitario û.Si se da el caso que la función φ de penda de manera explı́cita del
parámetro tendremos que
En este punto, varias conclusiones se pueden derivar del concepto de derivada total. La primera es que
dado que, la norma de la derivada direccional a lo largo de |ui es
\
D|ui φ
=
~ (x, y) · û
∇φ
~
= ∇φ
~ (x, y) , û
(x, y) cos ∇φ
es decir, cuando û apunta en la dirección del gradiente, o lo que es lo mismo, dirección de la mayor tasa
de cambio la indica la dirección del gradiente. O dicho de otro modo, en un determinado punto M de las
~ apunta en la dirección de la máxima tasa de cambio, tal y como podemos
superficie φ (x, y) = z el vector ∇φ
apreciar en la figura (5.5.1).
La segunda conclusión es dado que el gradiente es ortogonal a la superficie, los vectores perpendiculares
a él conformarán el planto tangente a la superficie en un determinado punto.
con lo cual ZZ ZZ
f= ~=
~c φ (x, y, z) · dS ~c φ (x, y, z) · n̂s dS
s s
Es claro que esta expresión vale para todos los sistemas de coordenadas. En particular, para un sistema de
coordenadas cartesianas construimos un cubo diferencial con aristas que coincidan con los ejes coordenados.
Entonces se tiene que las caras del cubo serán con
~x+ = (dy dz) ı̂; dS
dS ~x− = − (dy dz)ı̂
dx
~x+ + ~c φ (x, y, z) · dS
df = ~c φ (x, y, z) · dS ~x− + ~c φ (x, y, z) · dS
~y+
~y− + ~c φ (x, y, z) · dS
+ ~c φ (x, y, z) · dS ~z+ + ~c φ (x, y, z) · dS
~z−
Desarrollando por Taylor hasta primer orden porque estamos considerando un “cubo diferencial” tendremos
que
∂ φ (x, y, z)
φ (x + dx, y, z) ≈ φ (x, y, z) + dx
∂x
∂ φ (x, y, z)
φ (x, y + dy, z) ≈ φ (x, y, z) + dy
∂y
∂ φ (x, y, z)
φ (x, y, z + dz) ≈ φ (x, y, z) + dz
∂z
con lo cual
∂ φ (x, y, z) ∂ φ (x, y, z) ∂ φ (x, y, z)
df = dx dy dz + dy dx dz + dz dx dy
∂x ∂y ∂z
∂ φ (x, y, z) ∂ φ (x, y, z) ∂ φ (x, y, z) ˜ dV
df = + + dV → df = ∇φ
∂x ∂y ∂z
ZZ ZZ
˜ = df = lı́m f2 − f1 = lı́m 1
∇φ ~ = lı́m
φ (x, y, z) dS
1
φ (x, y, z) n̂ dS
dV ∆V →0 V2 − V1 V →0 V s V →0 V s
RR
~ Que quiere decir que tanto V1 ∼ 0
nótese que hemos supuesto que ∆V ≡ V2 ≡ V y que f2 = s φ (x, y, z) dS
y con lo cual el flujo a través de un punto se anula, f1 ∼ 0.
∂ φ (x, y, z) j
φ q1 , q2 , q3 = φ qj ⇒dφ= ~ q 1 , q 2 , q 3 · d ~r
d q = ∇φ
∂q j
con
1 ∂ φ 1 ∂ φ 1 ∂ φ
~ q ,q ,q
∇φ 1 2 3
=
∂ |ri
∂ q 1 hẽ1 | +
∂ |ri
∂ q 2 hẽ2 | +
∂ |ri
∂ q 3 hẽ3 |
∂ q1
∂ q2
∂ q3
y
∂ r̃ 1 ∂ r̃ 2 ∂ r̃ 3
d ~r = 1
dq + 2
dq + dq ⇒
∂q ∂q ∂ q3
∂ |ri
∂ |ri
∂ |ri
d ~r =
1
|ẽ1 i dq +
2
|ẽ2 i dq +
|ẽ3 i dq 3
∂ q1
∂ q2
∂ q3
ya que
1 ∂ |ri 1 ∂ |ri 1 ∂ |ri
|ẽ1 i =
∂ |ri
∂ q 1 ; |ẽ2 i =
∂ |ri
∂ q 2 ; |ẽ3 i =
∂ |ri
∂ q 3 ;
∂ q1
∂ q2
∂ q3
Es decir la forma general del gradiente para un sistema de coordenadas curvilı́neas es
Donde hemos indicado por (h)i al factor de escala y no implica suma. La suma está indicada entre las
componentes ∂ ∂x̃i ≡ ∂i y los elementos de la base {|ẽi i} . Con esta inspiración podemos construir un operador
vectorial
˜ hẽ1 | ∂ hẽ2 | ∂ hẽ3 | ∂
∇≡ + +
H (h1 , h2 , h3 ) ∂ x̃1 F (h1 , h2 , h3 ) ∂ x̃2 G (h1 , h2 , h3 ) ∂ x̃3
con lo cual, si cuidamos el orden de operación, podremos realizar un “producto escalar entre dos vectores”
˜ · ã ≡
∇
hẽ1 | ∂ hẽ2 | ∂ hẽ3 | ∂
+ + a1 |ẽ1 i + a2 |ẽ2 i + a2 |ẽ3 i
H (h1 , h2 , h3 ) ∂ x̃1 F (h1 , h2 , h3 ) ∂ x̃2 G (h1 , h2 , h3 ) ∂ x̃3
hẽ 1 | ∂ a1 |ẽ1 i + a2 |ẽ2 i + a2 |ẽ3 i
˜ · ã ≡
∇ +
H (h1 , h2 , h3 ) ∂ x̃1
hẽ2 | ∂ a1 |ẽ1 i + a2 |ẽ2 i + a2 |ẽ3 i hẽ3 | ∂ a1 |ẽ1 i + a2 |ẽ2 i + a2 |ẽ3 i
+ +
F (h1 , h2 , h3 ) ∂ x̃2 G (h1 , h2 , h3 ) ∂ x̃3
y hay que tener cuidado con la posible variación de los vectores base. Consideremos en caso de coordenadas
cartesianas, x1 , x2 , x3 → (x, y, z) , donde la base {|ẽi i} ≡ {|ii , |ji , |ki} es constante. Entonces tendremos
de forma inmediata
∂ai xj ∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z)
˜
∇ · ~a = ≡∂i ai xj ≡ + +
∂ x̃i ∂x ∂y ∂z
Es decir el flujo por unidad de volumen. Otra vez, para un sistema de coordenadas cartesianas construimos
un cubo diferencial con aristas que coincidan con los ejes coordenados. Entonces se tiene que las caras del
cubo serán con
~x+ = (dy dz) ı̂; dS
dS ~x− = − (dy dz)ı̂
dx
con lo cual
df = (ax (x + dx, y, z) − ax (x, y, z)) dy dz + (ay (x, y + dy, z) − ay (x, y, z)) dx dz+
+ (az (x, y, z + dz) − az (x, y, z)) dx dy
∂ ay (x, y, z)
ay (x, y + dy, z) ≈ ay (x, y, z) + dy
∂y
∂ az (x, y, z)
az (x, y, z + dz) ≈ az (x, y, z) + dz
∂z
obtendremos
∂ ax (x, y, z) ∂ ay (x, y, z) ∂ az (x, y, z)
df = dx dy dz + dy dx dz + dz dx dy
∂x ∂y ∂z
~= ∂ ax (x, y, z) ∂ ay (x, y, z) ∂ az (x, y, z)
df = ~a · dS + + dV
∂x ∂y ∂z
Consecuentemente
ZZ ZZZ ZZZ
~= ∂ ax (x, y, z) ∂ ay (x, y, z) ∂ az (x, y, z) ˜ · ~a dV
f= ~a · dS + + dV ≡ ∇
S V ∂x ∂y ∂z V
La primera conclusión es que podemos convertir una integral de superficie cerrada de un campo vectorial,
en una integral de volumen encerrada por esaRRmisma superficie. Lo hemos demostrado para el caso de
coordenadas cartesianas, pero como el flujo f = S ~a · dS ~ es un escalar, esta afirmación vale para cualquier
sistema de coordenadas. Esto se conoce como el Teorema de la Divergencia el cual veremos más adelante
(ver sección 5.7.1 en la página 176). A partir de este teorema tenemos que si la divergencia de un campo
vectorial en positiva lo interpretaremos como flujo hacia afuera (saliente) del volumen V encerrado por la
superficie, S, y si la divergencia del campo es negativa esa tendremos flujo entrante. Como ilustración puede
ver el ejemplo de la página 163.
~q2 + = ds→q3 ds→q1
dS |ẽ2 i ; ~q2 − = − ds→q3 ds→q1 |ẽ2 i
dS
dq 2
~q3 + = ds→q1 ds→q2
dS |ẽ3 i ; ~q3 − = − ds→q1 ds→q2 |ẽ3 i ;
dS
dq 3
donde denotamos ds→i el arco de curva a lo largo de la coordenadas curvilı́neas generalizada q i . Los paréntesis
(·)dqi indican que esta superficie es evaluada en q i + dq i Adicionalmente, es de hacer notar que
p
(ds→i ) = g̃ii dq i = hi dq i donde los ı́ndices repetidos NO indican suma
Ahora bien, dado que |ai ≡ ~a = ãj |ẽj i el flujo por las seis caras será
~q1 + + ~a · dS
df = ~a · dS ~q1 − + ~a · dS
~q2 + + ~a · dS
~q2 − + ~a · dS
~q3 + + ~a · dS
~q3 −
continuando el paralelo, pero con mucho más cuidado. Para comenzar vemos que ES el flujo del campo
vectorial lo que está siendo evaluado en dos puntos distintos. A lo largo de q 1 vemos que
~q1 − = ã1 q 1 , q 2 , q 3 h2 h3 dq 2 dq 3
~a · dS
~q2 − = ã2 q 1 , q 2 , q 3 h3 h1 dq 3 dq 1
~a · dS
~q3 − = ã3 q 1 , q 2 , q 3 h1 h2 dq 1 dq 2
~a · dS
!
2 1 2 2 3
2 1 2 3
∂ ã2 q 1 , q 2 , q 3 h3 h1 2
ã q , q + dq , q h3 h1 = ã q ,q ,q h3 h1 + dq
∂q 2
!
∂ ã3 q 1 , q 2 , q 3 h1 h2
ã3 q 1 + dq 1 , q 2 , q 3
h1 h2 = ã3 q 1 , q 2 , q 3
h 1 h2 + dq 3
∂q 3
Nótese que el caso cartesiano no se hizo explı́cito este echo por cuanto h3 = h2 = h1 = cte = 1. Entonces el
flujo por las el caso de coordenadas curvilı́neas será
∂ ã1 q 1 , q 2 , q 3 h2 h3 1 2 3 ∂ ã2 q 1 , q 2 , q 3 h3 h1
df = dq dq dq + dq 2 dq 3 dq 1 +
∂q 1 ∂q 2
∂ ã3 q 1 , q 2 , q 3 h1 h2
+ dq 3 dq 1 dq 2
∂q 3
si recordamos que
p p p
dV = (ds→1 ) (ds→2 ) (ds→3 ) = g̃11 dq 1 g̃22 dq 2 g̃33 dq 3 = h1 h2 h3 dq 1 dq 2 dq 3
donde denotamos ds→i el arco de curva a lo largo de la coordenadas curvilı́neas generalizada q i . Tendremos
que
!
df 1 ∂ ã1 q 1 , q 2 , q 3 h2 h3 ∂ ã2 q 1 , q 2 , q 3 h3 h1 ∂ ã3 q 1 , q 2 , q 3 h1 h2
= + +
dV h1 h2 h3 ∂q 1 ∂q 2 ∂q 3
Un par de ejemplos
La ecuación de continuidad El primero de los ejemplos que consideraremos es la ecuación de continuidad.
Consideremos una superficie cerrada S que encierra un volumen V. Esta superficie está inmersa en un fluido,
de densidad ρ (~r, t) que fluye con un campo de velocidades ~v (~r, t) . Supondremos además que el volumen V
que encierra la superficie S no cambia de posición, con lo cual, la variación de masa del fluido contenido en
este volumen es Z Z Z ZZZ
∂ ∂ρ (~r, t)
ρ (~r, t) dV = dV
∂t V V ∂t
Entonces la variación de la cantidad de fluido encerrada por la superficie S será igual a la cantidad de fluido
que escapa (o ingresa) a través de esa superficie. Esto es
ZZZ ZZ ZZZ
∂ρ (~r, t) ~ · (~v (~r, t) ρ (~r, t)) dV
dV = − ρ (~r, t) ~v (~r, t) · n̂s dS = − ∇
V ∂t s V
con lo cual
ZZZ
∂ρ (~r, t) ~ ∂ρ (~r, t) ~
+ ∇ · (~v (~r, t) ρ (~r, t)) dV = 0 ⇔ + ∇ · (~v (~r, t) ρ (~r, t)) = 0
V ∂t ∂t
y esta última representa la ecuación de continuidad en dinámica de fluidos.
~ · ~a = 1 ∂ (ãr (r, θ, ϕ) hθ hϕ ) ∂ (ãθ (r, θ, ϕ) hϕ hr ) ∂ (ãϕ (r, θ, ϕ) hr hθ )
∇ + +
hr h θ hϕ ∂r ∂θ ∂ϕ
q 2
!
~ · ~a = 1 ∂ r2 r sen θ
∇ =0
r2 sen θ ∂r
Es decir, todo lo que entra sale. Sin embargo, si el volumen contiene al origen de coordenadas no podemos
decir nada por cuanto hay una indeterminación en la expresión de la divergencia.
Consideremos con más cuidado este caso de la aplicación del Teorema de la Divergencia, en el cual la
superficie S contenga el origen de coordenadas. Es claro que el volumen contenido entre dos esferas de
distintos radio r̃ < r, centradas en el origen y con superficies S̃ y S respectivamente no contiene al origen y
por lo tanto el flujo será nulo
ZZZ ZZ ZZ
f= ˜ · ~a dV = 0 =
∇ ~a · n̂s dS + ~a · n̂s̃ dS̃
V s s
es decir,
ZZ ZZ ZZ Z π Z 2π
q q 2
~a · n̂s dS = ds→θ ds→ϕ = r̃ sen θ dθ dϕ = q sen θ dθ dϕ = 4πq
s s̃ r̃2 s̃ r̃2 0 0
ya que dS̃ = hθ dθ hϕ dϕ ≡ r̃dθ r̃ sen θdϕ. Con lo cual, tenemos que el flujo de un campo singular en un
punto (el origen de coordenadas), ~a (~r) = rq2 ûr , a través de una superficie de que encierra ese punto singular,
no es nulo y es igual a 4πq. El campo vectorial ~a (~r) , se denominará campo de una partı́cula fuente si q > 0
y campo de un sumidero si q < 0
˜ a = εijk ∂j ak |ei i ≡ εijk ∂ak |ei i = (∂2 a3 − ∂3 a2 ) |e1 i + (∂3 a1 − ∂1 a3 ) |e2 i + (∂1 a2 − ∂2 a1 ) |e3 i
∇×~
∂xj
ı̂ ̂ k̂
∇×~a = (∂y az − ∂z ay )ı̂ + (∂z ax − ∂x az ) ̂ + (∂x ay − ∂y ax ) k̂ ≡ ∂x
˜ ∂y ∂z
ax ay az
El rotor de un campo vectorial genera otro campo (pseudo)vectorial llamado campo rotor del campo vectorial.
Por razones que serán evidentes enseguida, las curvas integrales de este campo rotor se denominan lı́neas de
torbellino.
Lı́neas de torbellino
Consideremos el siguiente campo vectorial en coordenadas cilı́ndricas para z ≥ 0
−z y zx
~a = z ûϕ = z (− sen ϕ ı̂ + cos ϕ ̂) = p ı̂ + p ̂
2
x +y 2 x2 + y 2
˜ × ~a (x, y, z) = p −x
~b = ∇ ı̂ − p
y
̂+ p
z
k̂
x2 + y 2 x2 + y 2 x2 + y 2
tendremos que
d~r ∝ ~b = ∇
~ × ~a (x, y, z)
⇓
dx dy dz
= = = dλ
bx (x, y, z) by (x, y.z) bz (x, y.z)
⇓
dx dy dz
= = = dλ
(∂y az − ∂z ay ) (∂z ax − ∂x az ) (∂x ay − ∂y ax )
donde hemos parametrizado la curva con λ.
por lo tanto
dx dy dz
= = = dλ
(∂y az − ∂z ay ) (∂z ax − ∂x az ) (∂x ay − ∂y ax )
p p p
x2 + y 2 dx x2 + y 2 dy x2 + y 2 dz
= = = dλ
−x −y z
= ⇒ y (x) = xC1 ⇒
dx x
dy
dλ = √ −y = C̃2 ⇒ y (λ) = λC̃2
x +y 2
2
con
1 C1
C1 = cte; C̃1 = − q = cte; C̃2 = − q = C1 C̃1 = cte
2 2
1 + (C1 ) 1 + (C1 )
finalmente
p
x2 + y 2 dz dz z z z z
= dλ ⇒ =p = q = q =
z dλ 2
x +y 2 2 2 −λ
x 1 + (C1 ) λC̃1 1 + (C1 )
con lo cual
dz z 1
= ⇒ z (λ) = C̃3
dλ −λ λ
~ ∝ ~a (x, y, z) ⇒ ∇
∇ϕ ~ × (γ (x, y, z) ~a (x, y, z)) = ∇γ
~ (x, y, z) × ~a (x, y, z) + γ (x, y, z) ∇
~ × ~a (x, y, z) = 0
~ es proporcional al campo ~a (x, y, z) y al aplicar el rotor a ambos miembros se anula. Más aún,
es decir ∇ϕ
al proyectar sobre el mismo vector ~a la ecuación de la derecha nos queda
h i h i
~ (x, y, z) × ~a (x, y, z) + ~a (x, y, z) · γ (x, y, z) ∇
~a (x, y, z) · ∇γ ~ × ~a (x, y, z) = 0
ambos sumandos se anula por definición de producto vectorial, pero el segundo sumando
h i
~a (x, y, z) · ∇~ × ~a (x, y, z) = 0
(tirabuzón o sacacorchos derecho hacia arriba) diremos que el campo tiene una “circulación” positiva y el rotor
del campo siempre será positivo en esa región. Si es inversa, diremos que el campo tiene una “circulación”
negativa y el rotor también lo será en esa región. Finalmente, si el par de aspas no rota, el campo tendrá una
circulación nula o no tendrá circulación y su rotor será también nulo en esa región.
Para concretar esta intuición de forma matemática, procedemos de la siguiente forma. Suponga una
circunferencia con radio r = 2, la cual viene descrita paramétricamente por el radio vector
~r (t) = 2 cos t ı̂ + 2 sin t ̂ ⇒ d ~r = 2 (− sen ϕ ı̂ + cos ϕ ̂) dϕ
y nos planteamos “hacer circular el campo” a lo largo de la esa trayectoria. Esto es realizar la siguiente
integral I Z 2π
Γ = ~a · d ~r = z (− sen ϕ ı̂ + cos ϕ ̂) · 2 (− sen ϕ ı̂ + cos ϕ ̂) dϕ = 4πz
0
HEl campo vectorial ~a = z (− sen ϕ ı̂ + cos ϕ ̂) está representado en la Figura 5.6. Hemos utilizado el sı́mbolo
para denotar la integral de lı́nea en un circuito cerrado. Es la primera idea de integrales de campos
vectoriales que veremos con más detalles en las sección 5.6.1. Uno hace el producto escalar ~a · d ~r y luego
integra.
Es interesante comparar este resultado con el flujo del campo de rotores a través de la superficie que
delimita la circunferencia de radio r = 2. Vale decir
ZZ ZZ !
−x y z
~
∇ × ~a · n̂s̃ dS̃ = p ı̂ − p ̂+ p k̂ · k̂ dx dy ⇒
x2 + y 2 x2 + y 2 x2 + y 2
ZZ ZZ ZZ Z 2 Z 2π
~ × ~a · n̂s̃ dS̃ = z dx dy dr rdθ
∇ p =z =z dr dθ = 4zπ
x2 + y 2 r 0 0
Esta “coincidencia” no es tal, corresponde a otro Teorema Integral para campos vectoriales, el Teorema de
Stokes (ver sección 5.7.2 en la página 182) mediante el cual se convierte una integral cerrada de lı́nea de un
campo vectorial en el flujo del campo de rotores. Este teorema lo estudiaremos con detalle en la sección 5.7.2
y suponiendo r ≪ 1 podemos desarrollar por Taylor las componentes del campo vectorial en al plano x, y
alrededor del origen de coordenadas rx,y ∼ 0. Esto es
x ∂ax ∂ax ∂ax
ax (x, y, 0) = ax |r=0 + x ∂a
∂x r=0 + y ∂y + · · · = ax |r=0 + r cos ϕ ∂x r=0 + r sen ϕ ∂y + ···
r=0 r=0
∂a ∂a ∂a ∂a
ay (x, y, 0) = ay |r=0 + x ∂xy + y ∂yy + · · · = ay |r=0 + r cos ϕ ∂xy + r sen ϕ ∂yy + ···
r=0 r=0 r=0 r=0
es decir, por ser un cuerpo rı́gido la velocidad angular ω ~ es independiente de ~r; o lo que es lo mismo, todo
el cuerpo rı́gido tiene la misma velocidad angular. Con ello tendremos que
˜ × ~v = εijk ∂j vk |ei i = εijk ∂j εklm ω l rm |ei i = δli δm
j i j
∇ − δm δl ∂j ω l rm |ei i
˜ × ~v = δli δm
j i j
∇ − δm δl ω l δjm |ei i = 3ω i − ω i |ei i = 2ω i |ei i = 2~
ω
~ × ~v
∇ = (∂z vx − ∂x vz ) = ∂z (ωy z − ωz y) − ∂x (ωx y − ωy x) = 2ωy
y
~ × ~v
∇ = (∂x vy − ∂y vx ) = ∂x (ωz x − ωx z) − ∂y (ωy z − ωz y) = 2ωz
z
Otra vez, el rotor de una campo de velocidades de un cuerpo (que rota) “detecta” su velocidad angular.
y del mismo modo que calculamos el flujo a través de las distintas capas de un volumen podremos (no lo
haremos y se lo dejaremos al lector) demostrar que
" #
h1 |ẽ1 i h2 |ẽ2 i h3 |ẽ3 i
1 ∂ h ak 1
~ × ~a = rot [~a] =
∇ εijk k̃
|ẽi i = ∂ ∂ ∂
hj̃ hk̃ ∂q j
h1 h2 h3 ∂ q1 ∂ q2 ∂ q3
h1 a1 h2 a2 h3 a3
donde los ı́ndices repetidos i, j, k indican suma; j̃ y k̃ no indican suma sino que replican los valores de los
ı́ndices j, k.
Explı́citamente
~ |ẽ1 i ∂ (h3 a3 ) ∂ (h2 a2 ) |ẽ2 i ∂ (h1 a1 ) ∂ (h3 a3 )
∇ × ~a = rot [~a] = − + − +
h2 h3 ∂ q2 ∂ q3 h1 h3 ∂ q3 ∂ q1
|ẽ3 i ∂ (h2 a2 ) ∂ (h1 a1 )
+ −
h1 h2 ∂ q1 ∂ q2
5.5.4. ~
Formulario del Operador nabla, ∇
~ en las fórmulas anteriores actúa como un operador lineal. Esto es, dadas ϕ (~r) , χ (~r) , ψ (~r)
El operador nabla, ∇,
funciones escalares de variable vectorial y ~a y ~b dos campos vectoriales cuales quiera, se puede generar el
siguiente formulario, el cual deberá ser demostrado por el lector
~ (ϕ + χψ) = ∇ϕ
∇ ~ +∇
~ (χψ) = ∇ϕ
~ + ψ ∇χ
~ + χ∇ψ
~
~ · ~a + ϕ~b = ∇
∇ ~ · ~b + ∇ϕ
~ · ~a + ϕ∇ ~ · ~b
~ × ~a + ϕ~b = ∇
∇ ~ × ϕ~b = ∇
~ × ~a + ∇ ~ × ~b + ϕ∇
~ × ~a + ∇ϕ ~ × ~b
~ · ~a × ~b = ∂ i εijk aj bk = εijk ∂ i aj bk + εijk ∂ i bk aj = ∇
∇ ~ × ~a · ~b − ~a · ∇~ × ~b
~ × ~a × ~b = ~b · ∇
∇ ~ ~a − ~b ∇~ · ~a + ~a ∇ ~ ~b
~ · ~b − ~a · ∇
es claro que
~a ∇~ · ~b 6= ~b · ∇
~ ~a ⇐⇒ aj ∂ i bi =6 bi ∂ i aj
por cuanto en las partes izquierda las derivadas actúan sobre las componentes de ~b, mientras que en las
partes derechas es sobre las componentes de ~a.
Otros casos importantes se presentan cuando los campos escalares y/o vectoriales son a su vez funciones
de un campo escalar. Es decir, funciones compuestas. Esto es
ψ = ψ (χ (~r)) y ~a = ~a (χ (~r)) .
con lo cual
~ d ~a ~ d2 ~a ~ 1 3
2 d ~
a ~ (~r) + · · ·
∇ · ~a = · ∇χ (~r) + (χ (~r) − χ (~r0 )) · ∇χ (~r) + (χ (~r) − χ (~r0 )) · ∇χ
dχ ~r0 dχ2 ~r0 2 dχ3 ~r0
esta relación vale para todo ~r, en particular para ~r = ~r0 . Con lo cual
~ d ~a ~ (~r0 ) ~ · ~a = d ~a · ∇χ
~ (~r)
∇ · ~a = · ∇χ =⇒ ∇
~
r0 dχ ~r0 dχ
~ × ∇φ
∇ ~ = εijk ∂j ∂k φ |ei i = 0
~ ∇
∇ ~ · ~a = ∂ i ∂ j aj |ei i = ∂ j ∂ i aj |ei i
~ × ∇
∇ ~ · ~a = ∇
~ · ∇~ × ~a = 0
~ × ∇
∇ ~ × ~a = εijk ∂j εklm ∂ l am |ei i = δ i δ j − δ i δ j ∂j ∂ l am |ei i = ∂ i ∂j aj |ei i − ∂j ∂ j ai |ei i
l m m l
~ × ∇
∇ ~ × ~a = ∇
~ ∇ ~ · ~a − ∆~a
dϕ i
~ · û = ui ∂i ϕ =⇒ d a = û · ∇a
= D|ui φ = ∇φ ~ i = uj ∂j ai =⇒ D|ui |ai ≡ d ~a = û · ∇
~ ~a
du du du
Otra vez, en coordenadas cartesianas se tiene que
d (◦) ~
~ ~a = ui ∂i aj |ej i
D|ui~a = û · ∇ =⇒ D|ui (◦) ≡ = û · ∇ (◦) ≡ ui ∂i (◦)
du
Quizá uno de los problemas que ilustra mejor esta situación es el movimiento bajo fuerzas centrales. La Ley
de Gravitación de Newton nos dice que
X d ~v M d ~v M
F = m ~a = m = m G 2 ûr =⇒ = G 2 ûr
dt rmM dt rmM
Es costumbre definir la velocidad aerolar, ~vA , como el área barrida por el radio vector posición, ~r (t) que
describe la trayectoria de la partı́cula
d ~r d (r ûr ) dr d ûr d ûr d ûr
2~vA = ~r × = r ûr × = r ûr × ûr + r = r ûr × r = r2 ûr ×
dt dt dt dt dt dt
Nótese que si ~c es un vector constante
d d ûr d ûr d ûr
ûr × = 0 =⇒ ûr × = ~c =⇒ 2~vA = r2 ûr × = const
dt dt dt dt
con lo cual
d d ~v M MG d ûr
(~v × ~vA ) = × ~vA = G 2 ûr × ~vA = ûr × ûr ×
dt dt rmM 2 dt
d MG d ûr d ûr M G d ûr
(~v × ~vA ) = ûr · ûr − (ûr · ûr ) =
dt 2 dt dt 2 dt
integrando
MG
~v × ~vA = ûr + p~
2
donde p~ es un vector arbitrario de constante de integración. Finalmente nos damos cuenta que
MG MG
~r · (~v × ~vA ) = r ûr · ûr + p~ = r + rp cos θ
2 2
y entonces
2
2 2vA
2 MG vA MG
vA = r + rp cos θ =⇒ r = MG
≡ 2p
2 2 + p cos θ 1+ M G cos θ
que constituye la ecuación de una cónica.
Integrales de lı́nea
Ahora nos detendremos con más cuidado en integrales que también ya hemos utilizado, pero muy rápi-
damente. Ası́ tendremos por delante algunos objetos del siguiente tenor:
Z Z Z
φ d ~r, V~ · d ~r y ~ × d ~r
V
C C C
Este tipo de objetos se conoce como integrales de lı́nea y requieren la especificación de la curva, C, (la
trayectoria) a lo largo de la cual se lleva la integración. Es clara la importancia de esa trayectoria para la
integración de los campos por cuanto encontrarán expresiones del campo vectorial que puebla la región a
través de la cual se integra. Esas trayectorias serán abiertas o cerradas dependiendo de la curva que se siga
en el proceso de integración.
Ası́ para integrar un campo escalar φ = φ (~r) en coordenadas cartesianas, tendremos que
Z Z
φ (x, y, z) d ~r = φ (x, y, z) d x ı̂+d y ̂+d z k̂
C C
Z Z Z
= ı̂ φ (x, y (x) , z (x)) d x + ̂ φ (x (y) , y, z (y)) d y + k̂ φ (x (z) , y (z) , z) d z
C C C
tal y como indicamos arriba, las tres integrales se podrán realizar si conocemos, en cada caso, la expresión
del integrando en término de la variable de integración. Esa es la razón por la cual hay que especificar la
curva C que define la trayectoria de integración. Esta define esa funcionalidad.
Integrales de Superficie
Otros objetos que ya nos hemos encontrado son las integrales de superficie y las hemos encontrado cuando
evaluamos el flujo de un campo vectorial y lo relacionamos con la divergencia. Ası́ interpretamos que objetos
ZZ ZZ ZZ
~
~a · dS ≡ ~a · n̂s dS = an̂ dS
s s s
representaban el flujo de las lı́neas de campo a través del diferencial de superficie dS. ~ Es costumbre que
se separen el módulo, dS, de la dirección y el sentido, n̂s el cual es el vector normal (sentido positivo) a
la superficie. Otra vez, las superficies podrán ser abiertas (cuando disponen de una curva que limita sus
fronteras) y cerradas cuando no. Un cı́rculo será una superficie abierta y una esfera cerrada. Por convención
supondremos que el vector normal a una superficie cerrada tendrá sentido positivo saliendo.
La utilización de integrales de superficie nos ha permitido definir, de manera invariante (independiente
del sistema de coordenadas) las expresiones para los operadores diferenciales. Ası́ hemos podido definir:
ZZ ZZ
˜ ≡ grad φ = lı́m 1
∇φ ~ = lı́m 1
φ (x, y, z) dS φ (x, y, z) n̂s dS
V →0 V s V →0 V s
ZZ ZZ ZZ
˜ · ~a ≡ div [~a] = lı́m 1
∇ ~ ≡ lı́m
~a · dS
1
~a · n̂s dS = lı́m
1
an̂ dS
V →0 V s V →0 V s V →0 V s
ZZ ZZ
~ × ~a ≡ rot [~a] = lı́m 1
∇ ~ × ~a = lı́m 1
dS n̂s̃ × ~a dS̃
V →0 V V →0 V
ya que las componentes x de los vectores normales a las dos superficies que contribuyen (Figura 5.10,
cuadrante III) tienen signos opuestos
~2 = −ı̂ · d S
d S2x = ı̂ · d S ~1 = −d S1x = d y d z = d S ′
con lo cual Z Z Z Z x2 Z
~= ∂ax ∂ax
ax ı̂ · d S dx d y d z = dV
S s′ x1 ∂x V ∂x
ZZ ZZZ ZZ ZZZ
~=
~a · d S ˜ · ~a d V
∇ ⇒ ~c · ~ = ~c ·
φ (x, y, z) d S ˜ (x, y, z) d V
∇φ
s V s V
Z Z ZZZ
0 = ~c · ~−
φ (x, y, z) d S ˜ (x, y, z) d V
∇φ
s V
Esa misma metodologı́a se puede aplicar para demostrar la segunda relación si consideramos un campo
~ (x, y, z), con ~c vector constante y se procede de una manera similar.
vectorial ~a (x, y, z) = ~c × B
En definitiva la “deducción” de una de las ecuaciones de Maxwell. Si calculamos el flujo del campo eléctrico
~ (~r) atraviesan el volumen: todas entran y todas salen.
en una región sin cargas todas las lı́neas del campo E
Sin embargo si tenemos un conjunto de cargas discretas distribuidas dentro de la región encerrada por la
superficie, S, (ver Figura 5.10, cuadrante IVa) podemos encerrar cada una de las cargas con superficies
esféricas Si . Por lo tanto
ZZ X ZZ Z ZZ X ZZ
E~ ·d S
~+ ~ ·d S
E ~i = ˜ ·E
∇ ~ dV =0 ⇒ ~ ·d S
E ~=− ~ ·d S
E ~i
S i Si V S i Si
Con lo cual hemos definido una superficie con “huecos” alrededor de cada una de las cargas y llegamos a la
conclusión que lo que entra sale. Por su parte, el campo eléctrico medido cada superficie esférica interior, Si
será
E~ = 1 Qi ûr + E ~′
Si 4πǫ0 ri2 i
~ ′ es el campo de todas las otras cargas presentes en e volumen encerrado por S. Es claro que este
donde E
campo E~ ′ tiene flujo cero neto sobre cada esfera de superficie Si . Por lo tanto
ZZ X Z Z 1 Qi X 1 Qi Z Z P
~ ~ ~ ′ Qi Q
E·d S =− 2 ûri + E · n̂Si dSi = 2 dSi = i =
S i Si 4πǫ r
0 i i
4πǫ r
0 i Si ǫ0 ǫ0
Finalmente encontramos una de las Leyes de Maxwell si reescribimos la integral de superficie utilizando la
Ley de Gauss
ZZ Z ZZ Z Z
E ~= Q = 1
~ ·d S ρ (~r) d V ⇒ E~ ·d S
~= ˜ ·E
∇ ~ dV = 1 ρ (~r) d V
S ǫ0 ǫ0 V S V ǫ0 V
con lo cual Z
∇ ~ − ρ (~r)
~ ·E dV ~ = ρ (~r)
~ ·E
⇒∇
V ǫ0 ǫ0
donde n̂S̄ es el vector normal a al superficie, S̄,de separación de las dos regiones. Adicionalmente hemos
denotado, ~a+ y ~a− el campo ~a evaluado del lado de R1 y R2 , respectivamente. Si ahora consideramos el
teorema de Gauss en toda la región
Z Z Z
∇˜ · ~a d V ≡ ∇˜ · ~a d V + ˜ · ~a d V
∇
V1 +V2 V1 V2
Claramente si el campo es continuo dentro de la región R entonces nos queda la formulación estándar del
Teorema de Gauss, Z ZZ
˜
∇ · ~a d V = ~
~a · d S
V1 +V2 S
por el contrario si el campo es discontinuo, entonces debe tomarse en cuenta la discontinuidad del campo y
la relación que surge de sumar el flujo a través de las dos regiones es
Z ZZ ZZ
˜ · ~a d V =
∇ ~−
~a · d S (~a2 − ~a1 ) · n̂S̄ dS̄
V1 +V2 S S̄
con n̂S̄ el vector unitario, normal a la superficie S̄ y que apunta de R1 → R2 . Es claro que la discontinuidad
que cuenta es la de la componente del campo perpendicular a la superficie (ver Figura 5.11).
Este tipo de discontinuidad en campos irrotacionales es generada por la presencia de fuentes las cuales,
en este caso son densidades superficiales de carga. Quizá el ejemplo tı́pico para la aplicación de las anteriores
consideraciones es la aplicación de las ecuaciones de Maxwell en el caso del vector desplazamiento eléctrico
~ través de una superficie, S̄, que separa dos medios. Este caso se ilustra en la Figura 5.10, cuadrante
D,a
IVc y en la Figura 5.11, sólo que en este último caso el vector normal está definido a la inversa: la región 2
corresponde a la región 1 de la Figura 5.10, cuadrante IVc. La ecuación de Maxwell correspondiente será
~ = ρ (~r)
˜ ·E
∇ ~ = ρ (~r)
˜ ·D
⇒∇ ⇒ D~2 −D
~ 1 · n̂S̄ = σ ~ = ǫ0 E
con D ~
ǫ0
donde n̂S es el vector normal a la superficie (ver Figura 5.10, cuadrante IVc) y σ es la densidad superficial de
carga en la superficie, S. Para comprobar esta relación construimos un volumen cilı́ndrico infinitesimal que
encierra la superficie de discontinuidad, de tal forma que ∆S2 corresponde con la “tapa” del cilindro y ∆S1
con su “base” (Figura 5.10 cuadrante IVc). Adicionalmente, como ∆l ∼ 0 no sólo podremos trabajar sin las
integrales, el flujo a través de las “paredes” del cilindro será despreciable y ∆S2 ≈ ∆S1 , sino que además, al
encerrar la discontinuidad no tomamos en cuenta la contribución de la superficie ∆S3 (o S̄, en el cuadrante
IVb de la Figura 5.10). Ası́
~ dV =D
˜ ·D
∇ ~ 2 · ∆S
~2 − D
~ 1 · ∆S
~1 ⇒ ρ (~r) (∆S2 ∆l) = D ~2 −D~ 1 · n̂S ∆S2
2
con lo cual
ρ (~r) ∆l ≡ σ = D~2 −D
~ 1 · n̂S
2
Teoremas de Green
Cuando consideramos campos vectoriales muy particulares el Teorema de Gauss nos lleva a un par de
identidades vectoriales conocidas como las Identidades o Teoremas de Green
Supongamos que tenemos dos campos escalares: ζ (x, y, z) y ξ (x, y, z) entonces y con ellos construimos
un campo vectorial
ZZ ZZZ
˜ (x, y, z) ⇒
~a (x, y, z) = ζ (x, y, z) ∇ξ ~=
~a · d S ˜ · ~a d V
∇ ⇒
s V
ZZ ZZZ
⇒ ζ (x, y, z) ∇ξ ~=
˜ (x, y, z) · d S ˜ · ζ (x, y, z) ∇ξ
∇ ˜ (x, y, z) d V
s V
con lo cual arribamos a primera identidad de Green, Primer Teorema de Green o, Teorema escalar de Green:
ZZ ZZZ h i
ζ (x, y, z) ∇ξ ~=
˜ (x, y, z) · d S ζ (x, y, z) ∇˜ · ∇ξ
˜ (x, y, z) + ∇ζ
˜ (x, y, z) · ∇ξ
˜ (x, y, z) d V
s V
y
˜ · ξ (x, y, z) ∇ζ
∇ ˜ (x, y, z) = ∇ξ
˜ (x, y, z) · ∇ζ
˜ (x, y, z) + ξ (x, y, z) ∇
˜ · ∇ζ
˜ (x, y, z)
y al integrar sobre un volumen V tendremos la formulación del Teorema de simétrico de Green, la segunda
identidad (o teorema) de Green o el Teorema
ZZZ n o
˜ · ∇ξ
ζ (x, y, z) ∇ ˜ (x, y, z) − ξ (x, y, z) ∇
˜ · ∇ζ
˜ (x, y, z) d V =
V
ZZ n o
˜ (x, y, z) − ξ (x, y, z) ∇ζ
ζ (x, y, z) ∇ξ ~
˜ (x, y, z) · d S
s
La utilidad de estas relaciones las veremos en el desarrollo de la Teorı́a de Potencial en la sección 5.8.1
en la página 185
donde hemos denotado la trayectoria a lo largo del perı́metro de la cuadrı́cula por 1234 De la Figura 5.13
podemos intuir
Z Z Z Z
Γ1234 = ax (x0 , y0 ) d x + ay (x0 + d x, y0 ) d y + ax (x0 , y0 + d y) (−d x) + ay (x0 , y0 ) (−d y)
Z ! ZZ ZZ
∂ay ∂ax
Γ1234 = − d xd y = ~ × ~a d Sz ≡
∇ ~ × ~a · d S
∇ ~
∂x x=x0
∂y y=y0 z
S S
pero esto vale para todos los puntos (x0 , y0 ) y se puede aplicar para las otras superficies con lo cual es fácil
convercerse que esta técnica se puede utilizar para cada cuadrı́cula en las cuales hemos dividido la superficie
(ver Figura 5.12 cuadrante II). Más aún las circulaciones a lo largo de los perı́metros de las cuadrı́culas
interiores se anulan (ver Figura 5.12 cuadrante III) y sólo sobrevive la circulación a lo largo del perı́metro
exterior de la superficie. Con ello
X X I ZZ
~a · d ~r ≡ ~
∇ × ~a · d S~ ⇒ ~a · d ~r = ~ × ~a · d S
∇ ~
cuadricula S
donde φ (x, y, z) es un campo escalar y B ~ (x, y, z) un campo vectorial. Otra vez, la metodologı́a para proceder a
la demostración se fundamenta en considerar un par de campos vectoriales de la forma ~a (x, y, z) = φ (x, y, z) ~c
y ~b (x, y, z) = ~c × B
~ (x, y, z) y desarrollar un álgebra vectorial mı́nima.
y lo que nos dice es que vamos de un punto (de corte de la curva cerrada) P1 a otro punto P2 por dos
trayectorias distintas y la integral de lı́nea es la misma. Más adelante veremos que a los campos vectoriales
irrotacionales les está asociado un potencial tal que
~ × F~ (x, y, z) = 0 ⇒ F~ (x, y, z) ∝ ∇φ
∇ ~ (x, y, z)
donde hemos denotado ~a|S2 como el campo vectorial evaluado sobre la curva C̄ “del lado” de las superficie
S2 . Es importante señalar que el término que incorpora la contribución de la discontinuidad del campo
sólo encierra componentes tangenciales a la superficie. Esto es claro del producto escalar con el vector, d ~r,
tangente a la curva C̄ (y también a la superficie S).
La ventaja que un campo derive de un potencial es, por un la lado la simplicidad y la cantidad de información
que sobre el campo teneos: describimos la interacción por una función y no con tres (las componentes del
campo) y sabremos que el campo es irrotacional y conservativo. Pero además la función que describe el
campo es escalar, con lo cual es independiente del sistema de coordenadas.
Cualquiera de las afirmaciones implica las otras dos, con o cual podremos elegir cualquier de ellas para
demostrar las otras dos. Veamos:
un campo que derive de un potencial es conservativo e irrotacional
−∇ ~ × ∇φ ~ (x, y, z) = 0
F~ = −∇φ
~ (x, y, z) ⇒
H ~ H
− ∇φ (x, y, z) · d ~r = − dφ = φ (x0 , y0 , z0 ) − φ (x0 , y0 , z0 ) = 0
donde hemos utilizado la definición de diferencial total
∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) ~ (x, y, z) · d ~r
dφ = dx + dy + dz = ∇φ
∂x ∂y ∂z
un campo conservativo es irrotacional y deriva de un potencial.
RP
Un campo conservativo implica que el trabajo ( P12 F~ (x, y, z) · d ~r) es independiente de la trayectoria
entre P1 y P2 . Por eso llamamos a la fuerza conservativa por cuanto se conserva la energı́a y por lo
tanto, ésta depende únicamente de la posición
I Z P2
F~ (x, y, z) · d ~r = 0 ⇒ F~ (x, y, z) · d ~r = φ (x2 , y2 , z2 ) − φ (x1 , y1 , z1 )
P1
⇓
F~ (x, y, z) · d ~r = dφ = −∇φ
~ (x, y, z) · d ~r ⇒ F~ (x, y, z) = −∇φ
~ (x, y, z)
con lo cual hemos demostrado que el campo vectorial deriva de un potencial. El signo menos (−) es una
convención tradicional del oficio de Fı́sico y proviene de nuestra intuición de flujo de los acontecimientos:
“El agua siempre fluye hacia abajo”.
Ahora bien, utilizando el Teorema de Stokes tendremos:
I ZZ
~ (x, y, z) ⇒ F~ · d ~r =
F~ (x, y, z) = −∇φ ~ × F~ · d S
∇ ~=0 ⇒∇ ~ × F~ (x, y, z) = 0
S2
F~ (x, y, z) · d ~r = dφ = −∇φ
~ (x, y, z) · d ~r ⇒ F~ (x, y, z) = −∇φ
~ (x, y, z)
En definitiva, si cualquiera de las condiciones se cumple: conservativo, irrotacional o potencial, las otras
también se cumplirán.
Claramente
~ · F~ (x, y, z) = ∂i F i = ∂i εijk ∂j Ak = 0
∇
El campo vectorial A~=A ~ (x, y, z) se conoce con el nombre de potencial vectorial del campo F~ . Ahora bien,
~
el campo solenoidal, F , no queda unı́vocamente determinado a partir de su potencial vectorial. Existe una
arbitrariedad de un campo escalar, llamado de calibre, χ = χ (x, y, z) (gauge en inglés) de forma tal que
A~′ = A
~ + ∇χ
~ (x, y, z) ⇒ F~ = ∇ ~ ×A ~′ = ∇~ × A~ + ∇χ
~ =∇ ~ ×A ~+∇ ~ × ∇χ~ =∇ ~ ×A ~
de forma que varios potenciales vectoriales A ~′ y A~ generan el mismo campo vectorial F~ . Esta arbitrariedad
nos permite particularizar el calibre según nos convenga. Existen varios calibres en el mercado, los cuales
son utilizados según el problema fı́sico al cual tratemos. Entre ellos podemos mencionar un par de ellos:
El calibre de Lorentz :
Esta selección proviene de requerir que el campo de calibre satisfaga la ecuación una ecuación de onda
2
~ 2 χ (x, y, z, t) − a ∂ χ (x, y, z, t) = 0
∇
∂t2
donde a es una constante. Nótese que hemos supuesto que el campo de calibre puede depender del
tiempo. El calibre del Lorentz se escoje porque (entre otras cosas) permite que la solución a la ecuación
de onda para el potencial vectorial
2~
~ (x, y, z, t) − a ∂ A (x, y, z, t) = 0
~ 2A
∇
∂t2
quede unı́vocamente determinada
El calibre de Coulomb, de radiación o transverso:
La selección de este calibre impone que el potencial vectorial A ~ (x, y, z, t) satisfaga la ecuación
~ ·A
∇ ~=0 ⇒∇ ~ ·A~ ′ (x, y, z, t) = ∇
~ · A~ (x, y, z, t) + ∇χ
~ (x, y, z, t) = 0 ⇒ ∇ ~ 2 χ (x, y, z, t) = 0
~ es irrotacional entonces
como H
~ ×H
∇ ~ =0 ~ = ∇φ
⇒H ~ (x, y, z) ~ ·H
⇒∇ ~ =∇
~ · ∇φ
~ (x, y, z) = 0
En general dado que el campo, F~ , puede ser discontinuo, tendremos que suponer que
~ · F~l + F~t = ∇
~ · F~ = ∇ ~ · F~l = ρ (~r)
~ ~
∇ · F = ρ (~r)
∇
y como F~ = F~l + F~t ⇒
~ ~ ~
∇ × F = J (~r) ∇ ~ × F~ = ∇~ × F~l + F~t = ∇~ × F~t = J~ (~r)
y la solución existe y es única. Es decir, podemos expresar de manera unı́voca al campo vectorial, F~ , (a través
de su “componente” longitudinal F~l ) en términos de un campo escalar (a función potencial) φ (x, y, z) . Por
otra parte
~ · F~t = 0 ⇒ F~t = ∇
∇ ~ ×A ~ ⇒∇ ~ × F~ = ∇
~ × F~t = ∇
~ × ∇~ ×A ~ =∇ ~ ∇ ~ ·A
~ −∇ ~ 2A
~ = J~ (~r)
~ ·A
La cual al seleccionar el calibre de Coulomb ∇ ~ = 0 se convierte en Es importante señalar que el campo,
~=A
A ~ (x, y, z) , solución a la ecuación
2
~ Ax = −Jx (~r)
∇
~ × ∇
∇ ~ ×A
~ =∇~ 2A
~ = ∂ i ∂i A
~ = −J~ (~r) ⇒ ∂ i ∂i Ak = −J k (~r) ⇔ ~ 2 Ay = −Jy (~r)
∇
~2
∇ Az = −Jz (~r)
Una vez más nos topamos con la solución a la ecuación de Poisson, esta vez para cada componente. Esto se
cumple siempre, porque hemos supuesto que la solución para la ecuación de Poisson existe y es única.
Un corolario del Teorema de Helmholtz que un campo vectorial queda unı́vocamente determinado si
conocemos su rotor y su divergencia.
4 Esta suposición es indispensable pero es muy fuerte. Las condiciones sobre el potencial φ (x, y, z) que la implican serán
consideradas en otros cursos de Métodos Matemáticos. En este curso, supondremos que existe y es única
[1] Apostol, T. M. (1972) Calculus Vol 2 (Reverté Madrid ) QA300 A66C3 1972
[2] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[3] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva
York)
[4] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[5] Gel´fand, I.M. (1961) Lectures on Linear .Algebra (John Wiley & Sons Interscience, Nueva York ).
[6] Knisley, J. (2001) http://math.etsu.edu/MultiCalc/
[7] Lovelock, D, y Rund, H. (1975) Tensors, Differential Forms & Variational Principles (John Wiley
Interscience, Nueva York ).
[8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
189
Capı́tulo 6
Matrices, Determinantes y
Autovectores
190
Métodos Matemáticos de la Fı́sica
Sencillamente algo que actúe sobre una suma de vectores y que sea equivalente a la suma de sus actuaciones
sobre los vectores suma.
Ejemplos
Las siguientes transformaciones
Cosas tan sencillas como multiplicación por un escalar es una transformación (u operador) lineal
T : V →V tal que
T |vi = |v′ i = α |vi
Claramente,
T [a |vi + b |wi] = aT |vi + bT |wi = aα |vi + bα |wi
Obviamente, si α = 1 tenemos la transformación identidad que transforma todo vector en sı́ mismo; si
α = 0 tendremos la transformación cero, vale decir que lleva a todo |vi ∈ V a al elemento cero |0i
La definición de producto interno también puede ser vista como una transformación (operador) lineal
T:V→R
T |vi = α ⇋ ha |vi ≡ α
Otra vez:
T [a |vi + b |wi] = ha| [a |vi + b |wi] = a ha |vi + b ha |wi
por lo tanto es lineal. Esto implica que también la proyección de un determinado |vi ∈ V sobre un
subespacio S es un operador lineal, y lo denotaremos como
esta idea se extiende fácil si para un proyector T : Vm → Sn con m > n de tal modo que para un vector
|vi ∈ Vm
Dependiendo de la selección del núcleo y los limites tendremos distintas transformaciones integrales.
En Fı́sica las más comunes son:
Nombre F (s) = T {f (t)} f (t) = T−1 {F (s)}
R∞ 1
R γ+i∞
Laplace F (s) = 0
e−st f (t)dt f (t) = 2πi γ−i∞
est F (s)ds
Z ∞ Z ∞
sen(st) 2 sen(ts)
Fourier de senos y cosenos F (s) = f (t)dt f (t) = π F (s)ds
0 cos(st) 0 cos(ts)
Z ∞ Z ∞
2
Fourier compleja F (s) = ei st
f (t)dt f (t) = π e−i st
F (s)ds
−∞ −∞
Z ∞ Z ∞
Hankel F (s) = tJn (st)f (t)dt f (t) = sJn (ts)F (s)ds
0 0
Z ∞
1
R γ+i∞
Mellin F (s) = ts−1 f (t)dt f (t) = 2πi γ−i∞
s−t F (s)ds
0
A+B=B+A
se le asigna a el vector |0i ∈ V2 ∀ |vi ∈ V1 , entonces el operador lineal 0 será el elemento neutro respecto
a la suma de operadores. Finalmente, el elemento simétrico queda definido por
Con ello queda demostrado que los operadores lineales forman un espacio vectorial el cual de ahora en
adelante denominaremos L (V1 , V2 ) .
Es decir, que la composición de operadores es asociativa y distributiva a la suma y que conmuta respecto a
la multiplicación por escalares.
Por otro lado si 1 es el operador Identidad
1 |vi = |vi =⇒ A1 = 1A = A;
[A, B] = − [B, A]
[A, (B + C)] = [A, B] + [A, C]
[A, BC] = [A, B] C + B [A, C]
0 = [A, [B, C]] + [B, [C, A]] + [C, [A, B]]
Dados dos vectores |v1 i y |v2 i definiremos como el elemento de matriz del operador A al producto interno
de dos vectores
hv2 | (A |v1 i) ≡ A(|v1 i,|v2 i)
es claro que A(|v1 i,|v2 i) será en general un número complejo, pero esto lo veremos detalladamente en la
sección 6.2, más adelante.
Ejemplos
Potencias de Operadores: Uno de los ejemplos más útiles en la composición de operadores lo
constituyen las potencias de los operadores, las cuales provienen de la aplicación consecutiva de un
mismo operador,
Es claro que las potencias de operadores cumplen las propiedades estándares de las potencias de
números
m
An+m = An Am ; (An ) = Anm
Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0, del tipo
An |vi = |0i ∀ |vi ∈ V1 al vector nulo, |0i ∈ V2 . Es decir un operador que lleva cualquier vector |vi
al elemento neutro de V2 . El ejemplo más emblemático es el operador diferencial
dn dn i
Dn Pn−1 = |0i ⇆ n
Pn−1 (x) = ai x = 0
dx dxn
con Pn−1 perteneciente al espacio de polinomios de grado n − 1
Operador Ecuaciones Diferenciales. Si consideramos el espacio de funciones
∞
f (x) ∈ C[a,b] podemos construir un operador diferencial
d d2 dn
a0 1 + a1 D + a2 D2 + · · · + an Dn |f i ⇆ a0 + a1 + a2 2 + · · · + an n f (x)
dx dx dx
Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn = ai xi =⇒
Pn (A) |vi = a0 1 + a1 A + a22 A + · · · + ann An |vi = ai Ai |vi ∀ |vi ∈ V1
Más aún, lo anterior nos permite extender la idea operadores a funciones de operadores, es decir si nos
saltamos todos los detalles de convergencia de la serie anterior, los cuales dependerán de los autovalores
de A y de su radio de convergencia, de esta manera, al igual que podemos expresar cualquier función
F (z) como una serie de potencias de z en un cierto dominio, podremos expresar la función de un
operador, F (A) , como una serie de potencias del operador A esto es
F (z) = ai xi ⇆ F (A) |vi = ai Ai |vi
En este caso hay que hacer una acotación, dado que, en general, [A, B] 6= 0 =⇒ eA eB 6= eB eA 6= eA+B
esta afirmación se corrobora de manera inmediata al desarrollar las exponenciales
"∞ #" ∞ # "∞ ∞ #
X An X Bm X X A n Bm
A B
e e |vi = |vi = |vi
n=0
n! m=0
m! n=0 m=0
n! m!
"∞
#" ∞
# "∞ ∞ #
X Bn X Am X X Bn A m
eB eA |vi = |vi = |vi
n=0
n! m=0
m! n=0 m=0
n! m!
" ∞
#
X (A + B)
n
A+B
e |vi = |vi
n=0
n!
6.1.3. Proyectores
La notación de Dirac se hace particularmente conveniente para representar proyectores. Hasta ahora,
hemos relacionado un funcional lineal, un bra hw| del espacio dual V∗ , con un vector ket |vi del espacio
vectorial V a través de su producto interno hw| vi ∈ C el cual es, en general, un número complejo. Si ahora
escribimos esta relación entre vectores y formas diferenciales de una manera diferente. Ası́, la relación entre
hw|, y |vi un ket |Ψi o un bra hΦ| arbitrarios serán
|vi hw| Ψi
|vi hw| =⇒
hΦ |vi hw|
La primera será la multiplicación del vector |vi por el número complejo hw| Ψi ,mientras que la segunda
relación será la multiplicación de la forma hw| por el complejo hΦ |vi . Es imperioso señalar que el orden en
la escritura de los vectores y formas es crı́tico, sólo los números complejos λ se pueden mover con impunidad
a través de estas relaciones
λ |vi = |λvi = |vi λ, λ hw| = hλw| = hw| λ
hw| λ |vi = λ hw| vi = hw| vi λ y A |λvi = Aλ |vi = λA |vi
Por lo tanto, dado un vector |vi , podemos construir un proyector P|vi a lo largo del vector |vi
P|vi ≡ |vi hv| con hv| vi = 1
siempre y cuando este operador lineal cumpla
P|vi [α |z1 i + β |z2 i] = α P|vi |z1 i + β P|vi |z2 i =⇒
|vi hv| [α |z1 i + β |z2 i] = |vi hv| α |z1 i + |vi hv| β |z2 i = α |vi hv |z1 i + β |vi hv |z2 i
Ası́ el operador P|vi actuando sobre el vector |Ψi representará la proyección de |Ψi a lo largo de |vi
P|vi |Ψi = |vi hv| Ψi ≡ hv| Ψi |vi
Es inmediato construir un proyector de un vector sobre un subespacio Sq .
Sea {|e1 i , |e2 i , |e3 i , · · · , |eq i} un conjunto ortonormal de vectores que expande Sq . Por lo tanto definiremos
el proyector Pq al proyector sobre el subespacio Sq de la forma
Pq = |ei i ei q
P2q |vi = Pq Pq |vi =⇒ P2q |vi = |ei i ei q |ej i ej q |vi = |ei i ei |ej i ej |vi
| {z }
δji
por la misma razón se tiene que el elemento neutro contenido en ℵ (A) ,esto es
igualmente ℑ (A) ⊂ V2 también será un subespacio de V2 ya que si |vi = α1 |v1 i + α2 |v2 i y dado que A
es un operador lineal, se cumple que
A α1 |v1 i + α2 |v2 i = α1 A |v1 i + α2 A |v2 i = α1 |v1′ i + α2 |v2′ i
| {z } | {z } | {z } | {z }
|vi |v1′ i |v2′ i |v′ i
Es claro que si V de dimensión finita, A {V} = n también será de dimensión finita n y tendremos que
vale decir que la dimensión del núcleo más la dimensión del recorrido o imagen de una transformación lineal
es igual a la dimensión del dominio.
Para demostrar esta afirmación supongamos que dim [V] = n y que
{|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V es una base de ℵ (A) , donde k = dim [ℵ (A)] ≤ n.
Como {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V estos elementos formán base y por lo tanto son linealmente indepen-
dientes, necesariamente ellos formarán parte de una base mayor de V.
Esto es {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} ∈ V será una base de V donde k + r = n
Es esquema de la demostración será:
primero probaremos que {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} forman una base pa-
ra A {V}
luego demostraremos que dim [A {V}] = r y como hemos supuesto que k +r = n habremos demostrado
la afirmación anterior.
Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} entonces
cualquier elemento
Ahora bien, analicemos con cuidado los lı́mites de la suma implı́cita del ı́ndice i = 1, 2, · · · , k + r
Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} . Ahora bien, para
demostrar que son base, demostraremos que son linealmente independientes, para ello supondremos que
k+1 k+2
∃ C ,C , · · · , C k+r ∋ C i |Aei i = 0 con i = k + 1, k + 2, · · · , k + r
por lo tanto el elemento |vi = C i |ei i ∈ ℵ (A) con i = k + 1, k + 2, · · · , k + r. Con lo cual dado que
∀ |vi ∈ ℵ (A) , |vi = C i |ei i con i = 1, 2, · · · , r, entonces se puede hacer la siguiente resta
k
X k+r
X
|vi − |vi = C i |ei i − C i |ei i
i=1 i=k+1
y como los {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} son una base de V entonces las C k+1 =
C k+2 = · · · = C k+r = 0
Ejemplos
Transformaciones Identidad: Sea 1 : V1 →V2 , la transformación identidad,
son j ecuaciones con j = 1, 2,P· · · , n. Recordemos que estamos utilizando la convención de Einstein
n
para suma de ı́ndices. Esto es i=1 Aij xi = 0
2
Ecuaciones diferenciales ordinarias. Sea C[−∞,∞] el espacio vectorial de todas las funciones con-
2
tinuas doblemente diferenciables. Definimos A :C[−∞,∞] −→ C[−∞,∞] como la transformación lineal
D2 − 1 tal que para todas las y(x) ∈ C[−∞,∞]
2
se cumple
2
d2
A |xi = |0i ⇆ D − 1 y(x) = 0 ⇆ − 1 y (x) = y ′′ − y = 0
dx2
por lo tanto el núcleo o espacio nulo de A,ℵ (A) lo constituyen el conjunto de soluciones para la
mencionada ecuación diferencial. Por lo tanto el problema de encontrar las soluciones de la ecuación
diferencial es equivalente a encontrar los elementos del núcleo de A.
subespacio nulo está constituido, únicamente por el elemento neutro del espacio vectorial. La demostración
es sencilla. Supongamos que A es biyectiva y que A |vi = |0i ,entonces |vi = |0i ,es decir, A |0i = |0i , por
consiguiente ℵ (A) = |0i . Recı́procamente, si
ℵ (A) = |0i
∧ =⇒ A |v1 i − A |v2 i = |0i = A |v1 i − |v2 i =⇒ |v1 i = |v2 i
| {z }
A |v1 i = A |v2 i |v i−|v i=0
1 2
La importancia de las transformaciones lineales uno a uno o biyectiva reside en la posibilidad de definir
inversa, debido a que siempre existe en V2 un vector |v′ i asociado a través de A con un vector |vi ∈ V1 .
Diremos que A−1 : V2 →V1 es el inverso de A, si A−1 A = 1 = AA−1 .
Podemos afirmar que un operador lineal A tendrá inverso A−1 si a cada vector |v′ i ∈ V2
Habrı́a que hacer un par de comentarios al respecto. El primero es que, tal y como hemos enfatizado
arriba, en general, los operadores no conmutan entre si, y los inversos no son una excepción. Es decir, debieran
existir (y de hecho existen) inversas por la izquierda A−1 A e inversas por la derecha AA−1 . Por simplicidad
e importancia en Fı́sica obviaremos esta dicotomı́a y supondremos que A−1 A = 1 = AA−1 . El segundo
comentario tiene que ver con la existencia y unicidad del inverso de un operador lineal. Algunos operadores
tienen inverso, otros no, pero aquellos quienes tienen inverso, ese inverso es único. Veamos, supongamos que
A−1
1 A |vi = |vi
∧ =⇒ A−1 −1
1 A |vi − A2 A |vi = |0i = A1 − A2
−1 −1
A |vi =⇒ A−11 = A2
−1
−1 | {z }
A2 A |vi = |vi −1 −1
A1 =A2
Ahora bien, un operador lineal A tendrá inverso sı́ y sólo sı́ para cada vector |v′ i ∈ V2 ∃! |vi ∈
V1 ∋ A |vi = |v′ i . Es decir cada vector |v′ i está asociado con uno y sólo un vector |vi a través de la
transformación lineal A. Dejaremos sin demostración esta afirmación pero lo importante es recalcar que
para que exista inverso la transformación lineal A,tiene que ser biyectiva y esto implica que se asocia uno y
solo un vector de V1 con otro de V2 .
Todavı́a podemos añadir algunas demostraciones consecuencias de las afirmaciones anteriores. Sea la
transformación lineal T : V1 → V2 supongamos además que T ∈ L (V1 , V2 ) Entonces las siguientes afirma-
ciones son válidas y equivalentes
1. T es Biyectiva en V1
2. T es invertible y su inversa T−1 : T {V1 } → V1 es lineal
3. ∀ |vi ∈ V1 , T {|vi} = |0i =⇒ |vi = |0i esto es, el espacio nulo ℵ (T) únicamente contiene al elemento
neutro de V1 .
Si ahora suponemos que V1 tiene dimensión finita, digamos dim [V1 ] = n, las siguientes afirmaciones
serán válidas y equivalentes
1. T es Biyectiva en V1
2. Si {|u1 i , |u2 i , |u3 i , · · · |un i} ∈ V1 son linealmente independientes entonces, {T {|u1 i} , T {|u2 i} , T {|u3 i} , · · · T {|un
T {V1 } también serán linealmente independientes.
3. dim [T {V1 }] = n
4. Si {|e1 i , |e2 i , |e3 i · · · |en i} ∈ V1 es una base de V1 , entonces {T {|e1 i} , T {|e2 i} , T {|e3 i} · · · T {|en i}} ∈
T {V1 } es una base de T {V1 }
por lo cual lo que estamos diciendo es que el elemento de matriz para el operador, A, es el mismo, y no
importa donde opere A.De esta manera, dado cada vector en V, tiene asociado un vector en V∗ podemos
demostrar que A operando sobre los bra es lineal. Esto es dado
Siguiendo con esta lógica podemos construir la acción del operador hermı́tico conjugado, A† . Para ello
recordamos que igual que a cada vector (ket) |vi le está asociado una forma lineal (bra) hv| ,a cada ket
transformado A |vi = |v′ i le corresponderá un bra transformado hv′ | = hv| A† . Por lo tanto
|vi ⇐⇒ hv|
′
|v i = A |vi ⇐⇒ hv′ | = hv| A†
ahora bien,si A es lineal, A† también lo será. Dado que a un vector |wi = λ1 |z1 i + λ2 |z2 i le corresponde
un bra hw| = λ∗1 hz1 | + λ∗2 hz2 | (la correspondencia es antilineal). Por lo tanto, |w′ i = A |wi = λ1 A |z1 i +
λ2 A |z2 i , por ser A lineal, entonces
|w′ i ⇐⇒ hw′ | ≡ hw| A† = (λ∗1 hz1 | + λ∗2 hz2 |) A† ≡ λ∗1 hz′1 | + λ∗2 hz′2 | = λ∗1 hz1 | A† + λ∗2 hz2 | A†
Esta última propiedad es fácilmente demostrable y es educativa su demostración. Dado |v′ i = AB |vi,
además se tiene que
|v̄i = B |vi
† †
=⇒ hv′ | = hv̄| A† = hv| B† A = hv| (AB)
|v′ i = A |v̄i
A partir de propiedades anteriores se deriva una más útil relacionada con el conmutador de dos operadores
hermı́ticos h i
† †
[A, B] = − A† , B = B† , A†
Cambie los kets por sus bras asociados y viceversa (bras por kets): |vi ⇆ hv|
De este modo
†
(|vi hw|) = |wi hv|
que se deduce fácilmente de la consecuencia de la definición de producto interno
†
∗ ∗ ∗
hx| |vi hw| |yi = hy| (|vi hw|) |xi = hy| |vi hw| |xi = hx| |wi hv| |yi
U−1 = U† =⇒ U† U = UU† = 1
El producto de dos operadores unitarios también es unitario. Esto es si U y V son unitarios entonces
A |ei i = Aα
i |ẽα i con i = 1, 2, .., n y α = 1, 2, .., m
las Aαi son las componentes de la expansión de A |ei i en la base {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽm i} . Para un vector
genérico |xi tendremos que
con lo cual
|x̃i = A |xi = x̃α |ẽα i = A xi |ei i = xi A |ei i = xi Aα
i |ẽα i =⇒ x̃α − xi Aα
i |ẽi i = 0
1. Si acordamos que los ı́ndices de arriba indican filas podemos representar los vectores como un arreglo
vertical de sus componentes 1
x
x2
|xi → .
..
xn
y las cantidades
A11 A12 ··· A1j ··· A1n
A21 A22 A2j 2
An
.. .. ..
. . .
Aα →
i Aα Aα Aα α
An
1 2 j
.. .. ..
. . .
Am 1 Am2 Am
j Am
n
Nótese que los ı́ndices arriba indican fila y los de abajo columnas. Las cantidades Aα j es la represen-
tación del operador A en las bases {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽm i} de V y W
x̃α = Aα
i x
i
3. Si suponemos {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽm i} bases ortonormales
x̃α = hẽα |x̃i = hẽα | A |xi = hẽα | A xi |ei i =xi hẽα | A |ei i
donde {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽn i} son las bases para V y W respectiva-
mente.
Definitivamente, las matrices son uno de los objetos más útiles de las Matemáticas. Ellas permiten aterri-
zar conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por James Joseph Sylvester1
y su teorı́a desarrollada por Hamilton2 y Cayley3 . Si bien los fı́sicos las consideramos indispensables, no
fueron utilizadas de manera intensiva hasta el aparición de la Mecánica Cuántica alrededor de 1925.
1 James Joseph Sylvester (1814-1897 Londres, Inglaterra). Además de sus aportes con Cayley a la Teorı́a de las Matrices
descubrió la solución a la ecuación cúbica y fue el primero en utilizar el término discriminante para categorizar cada una de
las raı́ces de la ecuación. Para vivir tuvo que ejercer de abogado durante una década. Por fortuna otro matemático de la época
(Arthur Cayley) frecuentaba los mismos juzgados y tribunales y pudieron interactuar. Por ser judı́o tuvo cantidad de dificultades
para conseguir trabajo en la Academia.
2 Sir William Rowan Hamilton (1805 - 1865, Dublin, Irlanda) Sus contribuciones en el campo de la Optica, Dinámica del
las áreas de las Matemáticas de aquel entonces. Sus mayores cotribuciones se centran el la Teorı́a de Matrices y la Gemetrı́a no
euclideana. No consiguió empleo como Matemético y tuvo que graduarse de abogado y ejercer durante más de 15 años, durante
los cuales publicó más de 250 trabajos en Matemáticas
Más aún cambiando el orden en el cual se presenta una base, cambia la representación matricial del operador.
Los siguientes ejemplos tratarán de ilustrar estas situaciones
Si tenemos un matriz 2 × 3, B de la forma
3 1 −2
B=
1 0 4
y supongamos las bases canónicas para V 3 y V 2 : {|e1 i , |e2 i , |e3 i} y {|e1 i , |e2 i} . Entonces la matriz B
representan la transformación B :V 3 → V 2 que lleva un vector genérico |xi = (x1 , x2 , x3 ) en un vector
genérico |yi = (y1 , y2 ) tal que
x
3 1 −2 3 1 −2 1 y1
B= =⇒ B |xi = |yi =⇒ x2 =
1 0 4 1 0 4 y2
x3
y esto es
y1 = 3x1 + x2 − 2x3
y2 = x1 + 0x2 + 4x3
Otra manera de verlo es operar (diferenciar) sobre el |Pj i ∈ P 3 y expresar ese resultado en la base de P 2
d(1)
= 0 = 0 · 1 + 0 · x + 0 · x2
dx
d(x) = 1 = 1 · 1 + 0 · x + 0 · x2
dx
D |Pj i =⇒ d(x2 )
dx = 2x = 0 · 1 + 2 · x + 0 · x2
d(x3 )
dx = 3x2 = 0 · 1 + 0 · x + 3 · x2
y los coeficientes de esa expansión serán las columnas de la matriz que los representa.
Para enfatizar que los elementos de matrı́z, no sólo dependen de la base sino
del orden en el cual la base
se presente. Consideremos que la base de P 2 viene representadas por x2 , x, 1 . La representación matricial
del operador D (·) = d(·)
dx será
i
i E 0 0 0 3
P D |Pj i = P P̃j = 0 0 2 0
0 1 0 0
aunque
1
0 1 0 0 1 1
0 0 2 0 2
1 = =⇒1 + 2x + 3x2
0 0 0 3 3
1
equivalentemente
1
0 0 0 3 1 3
0 0 2 0 1
= 2
=⇒1 + 2x + 3x2
0 1 0 0 1
1
¡Es el mismo polinomio!
Recuerde que las componentes del vector multiplican a los vectores bases en el mismo orden.
Si ahora construimos la respresentación
para el mismo operador D (·) = d(·)
dx en la siguiente base
2 2 3 2 3 2
1, 1 + x, 1 + x + x , 1 + x + x + x y 1, x, x de P y P , respectivamente.
d(1)
= 0 = 0 · 1 + 0 · x + 0 · x2
dx
E d(1+x) = 1 = 1 · 1 + 0 · x + 0 · x2
dx
D |Pj i = P̃j =⇒ d(1+x+x2 )
dx = 1 + 2x = 1 · 1 + 2 · x + 0 · x2
( d 1+x+x 2
+x3
)
dx = 1 + 2x + 3x2 = 1 · 1 + 2 · x + 3 · x2
con lo cual
E 0 1 1 1
P i D |Pj i = P i P̃j = 0 0 2 2
0 0 0 3
A |ui i = |ui i
Esta afirmación también es válida para dim (V ) 6= dim (W ) pero por simplicidad seguimos trabajando con
matrices cuadradas.
En leguaje de ı́ndices estaremos diciendo que
D1 0 0 0
0 D2 0 0
Dji = Dk δlk δjl δki =
0
0 D3 0
0 0 0 D4
Aα i
i x =c
α
con i = 1, 2, .., n y α = 1, 2, .., m
por lo tanto tendremos m ecuaciones lineales para n incognitas x1 , x2 , · · · xn . Las Aα
i es la matriz de
los coeficientes. Por lo tanto este problema puede ser pensado como un problema de un operador A en el
espacio vectorial de transformaciones lineales L (V, W ) donde dim (V ) = n y dim (W ) = m, con las cα las
componentes del vector transformado
|ci = A |xi → cα = Aα
i x
i
Concretemos en un ejemplo
2x + 3y − z = 5 2 3 −1 x 5
4x + 4y − 3z = 3 =⇒ 4 4 −3 y = 3
−2x + 3y − z = 10 −2 3 −1 z 1
el método más utilizado es la eliminación de Gauss Jordan el cual se basa en el intercambio de ecuaciones
y la multiplicación apropiada e inteligente por constantes y resta de ecuaciones. La idea es construir una
matriz triangular superior para poder luego despejar desde abajo. Veamos:
a 2 3 −1 5
b 4 4 −3 3
c −2 3 −1 1
entonces para eliminar x de lala fila c (o la ecuación c) sumamos la fila a con la c, a + c y esta nueva ecuación
será la nueva c
a 2 3 −1 5
b 4 4 −3 3
c′ 0 6 −2 6
finalmente 3b′ + c′
a 2 3 −1 5
b′ 0 −2 −1 −7
c′′ 0 0 −5 −15
Este sistema es equivalente al primer sistema de ecuaciones. La solución emerge rápidamente:
Es bueno recalcar que los sistemas de ecuaciones lineales no necesariamente tienen solución y a veces tienen
más de una solución.
vale decir: el hermı́tico conjugado de una matriz, es su traspuesta conjugada. Si la matriz es Hermı́tica, i.e.
i
A† = A =⇒ A† j
= Aij
por lo tanto, las matrices hermı́ticas son simétricas respecto a la diagonal y los elementos de la diagonal son
números reales. Un operador hermı́tico estará representado por una matriz hermı́tica.
Aquı́ vale la pena probar algunas de las propiedades que arriba expresamos para operadores hermı́ticos
conjugados, vale decir
† † † † †
A† = A; (λA) = λ∗ A† ; (A + B) = A† + B† ; (AB) = B† A
Es claro que
†
i † † i † ∗ †
A† → e A |ej i = A† j = Aji = Aij
y
† ∗ ∗
(λA) → ei λA† |ej i = ej λA |ei i = λ∗ ej A |ei i = λ∗ ei A† |ej i = λ∗ A†
pero más interesante es
†
† † † †
(AB) → ei (AB) |ej i = Aik Bjk = Aj∗ k∗ k∗ i∗ i∗ k∗
k Bi = Aj Bk = Bk Aj → B A
ahora bien, como conocemso la matriz Aik y las suponemos no singular (esto es: det Aik 6= 0) y si tomamos
un j fijo tendremos un sistema de n ecuaciones lineales inhomogeneo con n incognitas Bj1 , Bj2 , Bj3 , · · · Bjn .
Al resolver el sistema tendremos la solución. El procedimiento para encontrar la inversa es equivalente al
método de eliminación de Gauss Jordan, veamos como funciona. Supongamos una matriz 3 × 3
1
A1 A12 A13 1 0 0 1 0 0 B11 B21 B31
Gauss Jordan
A21 A22 A23 0 1 0 → 0 1 0 B12 B22 B32
3
3 3
A1 A2 A3 0 0 1 0 0 1 B13 B23 B33
Como un ejemplo
2 3 4 1 0 0 2 3 4 1 0 0
2 1 1 0 1 0 → 0 2 3 1 −1 0 →
−1 1 2 0 0 1 −1 1 2 0 0 1
2 3 4 1 0 0
0 2 3 1 −1 0 →
0 5 8 1 0 2
con lo cual, una vez más, tendremos que la expresión de transformación de componentes de un vector
y Skm (o S̃m
k
) será la matriz de transformación, cambio de base o cambio de representación. Ahora bien, por
definición de producto interno
∗
htm |uk i = uk |tm i =⇒ Skm = Sm k∗
≡ Skm†
por lo tanto, la matriz de transformación entre bases es hermı́tica o autoadjunta y la relación anterior queda
escrita como
c̃m = Skm ck =⇒ htm | Ψi = Skm uk Ψi
ck = Sm
k† m
c̃ =⇒ uk |Ψi = Sm
k†
htm | Ψi
por lo tanto,
Ãij = Ski Akm Sjm†
donde Ãij es la representación del operador A respecto a la base {|tj i} y Akm su representación en la base
{|um i}
Ası́
1 2 3
Aij = 4 5 6 =⇒ Tr (A) = Aii = 15
7 8 9
Akk = uk A |uk i = uk |tm i htm | A |uk i = htm | A|uk i uk |tm i = htm | A |tm i = Am
m
| {z }
1
Donde una vez más hemos utilizado las dos relaciones de cierre |tm i htm | = 1 y uk huk | = 1. Es claro que
el número que representa esta suma será el mismo independientemente de su representación matricial.
Tr (AB) = Tr (BA)
y es fácilmente demostrable
Tr (AB) = uk AB |uk i = uk A|um i hum |B |uk i = uk B|um i hum |A |uk i = Tr (BA)
| {z } | {z }
1 1
Recuerde que uk B |um i y uk A |uk i son números que pueden ser reordenados.
Del mismo modo es fácil demostrar que la traza de un triple producto de matrices respeta la ciclicidad
del orden de la matrices en el producto
con lo cual la regla es simple, la representación matricial de la derivada de un operador será la derivada de
cada uno de sus elementos. Con ello
x x2 2 1 2x 0
d
1 e−x 5x = 0 −e−x 5
dx 3 2
3x 3 cos x 9x 0 − sen x
d (A (t) + B (t)) d
k
uk |ui i = u (A (t) + B (t)) |ui i
dt dt
d
k
= u A (t) |ui i + uk B (t) |ui i
dt
d
k d
k
= u A (t) |ui i + u B (t) |ui i
dt dt
dA (t)
dB (t) d (A (t)) d (B (t))
= uk |ui i + uk |ui i = +
dt dt dt dt
Del mismo modo se cumplirá que
con la precaución que no se puede modificar el orden de aparición de los operadores. Es fácil ver que
d (A (t) B (t)) d
k d
k
uk |ui i = u A (t) B (t) |ui i = u A (t) 1B (t) |ui i
dt dt
k dt
= u A (t) |um i hu | B (t) |ui i
m
d uk A (t) |um i m
d hum | B (t) |ui i
= hu | B (t) |ui i + uk A (t) |um i
dt dt
k dA (t)
k dB (t)
= u |um i hu | B (t) |ui i + u A (t) |um i hu |
m m
|ui i
dt dt
Otras propiedades de la derivación de operadores se demuestran a partir de la expansión en series de los
At
operadores. Por ejemplo si queremos conocer la expresión para dedt , con A 6= A (t)si recordamos que
"∞ # " #
X (At)n (At)
2
(At)
n
At
e |vi = |vi = 1 + At + + ··· + · · · |vi
n=0
n! 2! n!
tendremos que
"∞ # "∞ #
deAt d X (At)
n X d (At)n
|vi = |vi = |vi
dt dt n=0 n! n=0
dt n!
"∞ # "∞ #
X ntn−1 An X tn−1 An−1
= |vi = A |vi
n=0
n! n=0
(n − 1)!
| {z }
eAt
Nótese que la suma es hasta infinito, por lo tanto al cambiar de ı́ndice p = n − 1, p sigue variando hasta
infinito y la serie es la misma que la anterior. Entonces
deAt
|vi = eAt A |vi ≡ AeAt |vi
dt
también fı́jese que si un solo operador esta siendo derivado el orden de presentación de los operadores es
indiferente. Ahora bien, cuando se presenta la siguiente situación
d eAt eBt deAt Bt deBt
|vi = e |vi + eAt |vi = AeAt eBt |vi + eAt BeBt |vi
dt dt dt
= eAt AeBt |vi + eAt eBt B |vi
con A 6= A (t) y B 6= B (t) y siempre eBt , B = 0. Con lo cual, sólo para el caso en el cual [A, B] = 0
podremos factorizar eAt eBt y
d eAt eBt
|vi = (A + B) eAt eBt |vi
dt
Si [A, B] 6= 0 el orden de aparición de los operadores es MUY h importante.i
dA(t)
Para el caso en el cual A = A (t) no necesariamente A (t) , e dt = 0. Veamos:
"∞ # "∞ #
deA(t) d X (A (t))
n X 1 d (A (t))n
|vi = |vi = |vi
dt dt n=0 n! n=0
n! dt
"∞ #
X 1 d (A (t)) n−1 d (A (t)) n−2 n−1 d (A (t))
= A (t) + A (t) A (t) · · · A (t) |vi
n=0
n! dt dt dt
Adicionalmente
dF (B)
si [A, [A, B]] = [B, [A, B]] = 0 =⇒ [A, F (B)] = [A, B]
dt
Esta relación es fácilmente demostrable para el caso en el cual [A, B] = 1 el operador indentidad, en ese
caso tenı́amos que ABn − Bn A = nBn−1
ABn − Bn A = ABB · · · B}−BB
| {z · · · B}A
| {z
n n
· · · B} − BB
= (1 + BA) |BB{z · · · B}A
| {z
n−1 n
Para demostrarla, procedemos a considerar un operador F (t) = eAt eBt , por lo tanto
cumple con la ecuación anterior, por lo tanto absorbiendo t en los operadores correspondientes llegamos a la
fórmula de Glauber
1
eA eB = eA+B e 2 [A,B]
1 1 1
2 2+1 a2 a13 2 2+2 a1 a13 2 2+3 a1 a12
(Ac )1 = (−1) 3 (Ac )2 = (−1) 3 (Ac )3 = (−1) 3
a2 a33 a1 a33 a1 a32
1 1 1
3 3+1 a2 a13 3 3+2 a1 a13 3 3+3 a1 a12
(Ac )1 = (−1) 2 (Ac )2 = (−1) 2 (Ac )3 = (−1) 2
a2 a23 a1 a23 a1 a22
Esto es
1 2 3 i −3 6 −3
Aij = 4 5 6 =⇒ adj Aj = 6 −12 6
7 8 9 −3 6 −3
con lo cual
det A = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33
= A11 A22 A33 + A13 A21 A32 + A12 A23 A31 − A11 A23 A32 − A13 A22 A31 − A12 A21 A33
det A = εijk··· A1i A2j A3k · · · = εijk··· Ai1 Aj2 Ak3 · · · = det AT
3. Si multiplicamos una fila o una columna por un número, el determinante queda multiplicado por el
número
εijk··· A1i λA2j A3k · · · = λεijk··· A1i A2j A3k · · · = λ det A
εijk··· Ai1 Aj2 λAk3 · · · = λεijk··· Ai1 Aj2 Ak3 · · · = λ det A
de aquı́ claramente se desprende que si una fila o una columna es cero (λ = 0) el determinante se
anula. Más aún, si dos filas o dos columnas son proporcionales A1i = λA2j el determinante se anula, por
cuanto se cumple la propiedad anterior
1 1
A1 λA12 A13 A11 A12 A13 A1 A12 A13
2
A1 λA22 A23 = A21 A22 A23 = λ A21 A22 A23
3
A1 λA32 A33 λA31 λA32 λA33 A31 A32 A33
Obvio que 1 1
A1 0 A13 A1 A12 A13
2 2
A1 0 A23 = A1 A22 A23 =0
3
A1 0 A33 0 0 0
al igual que
1 1
A11 λA11 A13 A11 A12 A13 A1 A11 A13 A1 A12 A13
A21 λA21 A23 = λA11 λA12 λA13 = λ A21 A21 A23 = λ A11 A12 A13 =0
3 3
A31 λA31 A33 A31 A32 A33 A1 A31 A33 A1 A32 A33
donde en la matriz à se han intercambiando un par de columnas. Claramente las propiedades del
ı́ndice de Levi Civita, obliga al cambio de signo
det à = − det A
Nótese que una sı́ntesis de las propiedades anteriores nos lleva a reescribir el determinante de una
matriz de la forma
det A = εαβγ··· det A = εijk··· Aiα Ajβ Akγ · · · ⇐⇒ det A = εαβγ··· det A = εijk··· Aα β γ
i Aj Ak · · ·
claramente, si αβγ · · · ⇐⇒ 123 · · · reobtenemos la definición anterior. Si se intercambian dos filas o dos
columnas, el determinante cambia de signo debido al intercambio de dos ı́ndices griegos. Si dos filas
o dos columnas son iguales el determinante se anula debido a la propiedad de sı́mbolo de Levi Civita
con ı́ndices griegos.
Antes de proceder a la demostración de este importante propiedad jugaremos un poco más con las
propiedades de las matrices. Queremos señalar que si A es una matriz m × n y B es una matriz n × p,
entonces tendremos que
α
(AB) = Aα B
esto es que la α − esima fila es igual a la multiplicación de la α − esima fila, Aα ,por toda la matriz
B. Veamos
i
Cji = (AB)j = Ail Bjl
por lo tanto la α − esima fila
B11 B21 ··· Bn1
B12 B22 Bn2
α
Cjα = Aα l
l Bj =⇒ Cjα = (Aα
1 , Aα
2 , Aα
3 , · · · A n , ) .. ..
. .
B1n B2n Bnn
det (A) det (B) = det (A) εijk··· B1i B2j B3k · · · = εijk··· Aiα Ajβ Akγ · · · εabc··· B1a B2b B3c · · ·
que siempre puede ser rearreglado a
β γ
εijk··· Aα
i Aj Ak · · · εijk··· B1i B2j B3k · · · = Aα i β j γ k
i B1 Aj B2 Ak B3 · · · = det (AB)
= A11 A22 A33 +B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
+ A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
+ A12 A23 A31 B11 B22 B33 + +B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
A11 B11 A22 A33 B22 B33 + A12 B12 A23 A31 B23 B31
εijk··· Aiα B1α Ajλ B2λ Akµ B2µ · · ·
A |ψi = λ |ψi
en este caso λ (que, en general será un número complejo) se denomina el autovalor correspondiente al
autovector |ψi . La ecuación A |ψi = λ |ψi en conocida en la literatura como la ecuación de autovalores y se
cumple para algunos valores particulares de los autovalores λ. El conjunto de los autovalores se denomina el
espectro del operador A.
Supongamos que A : V → V y que dim V = n, supongamos además que una base ortogonal para V es
{|e1 i , |e2 i , |e3 i , · · · |en i} . Por lo tanto la repercusión de esta ecuación sobre la representación matricial es
la siguiente
i
igualmente se cumple que si existe una base ortonormal {|e1 i , |e2 i , |e3 i , · · · |en i}y un conjunto de
cantidades {λ1 , λn , · · · , λn } tales satisfagan
con lo cual
A |ψi = ci A |ψi i = λ ci |ψi i = λ |ψi
con |ii , |ji , |ki vectores unitarios cartesianos. Es claro que cualquier vector en el plano xy será auto-
vector de R con un autovalor λ = 1 mientras que cualquier otro vector |ψi ∈ V3 y que no esté en
el mencionado plano cumple con |ψi = c |ki y también será autovector de R pero esta vez con un
autovalor λ = −1.
2. Dos visiones de Rotaciones de ángulo fijo θ : La rotaciones de un vector en el plano pueden verse
de dos maneras.
a) Se considera el plano como un espacio vectorial real V2 con una base cartesiana canónica: |ii =
(1, 0) , y |ji = (0, 1) , esto es si
es decir necesariamente |ϕi es colineal con |ψi . Más aún si ahora el |ϕi no es tan arbitrario sino que
es ortogonal a |ψi , hψ |ϕi = 0 =⇒ λ = 0. Esto nos lleva a concluir que el espectro del operador
Pψ = |ψi hψ| es 0 y 1,el primer de los cuales es infinitamente degenerado y el segundo es simple. Esto
nos lleva a reflexionar que si existe un autovector de un determinado operador, entonces su autovalor
es distinto de cero, pero pueden existir autovalores nulos que generan un autoespacio infinitamente
degenerado.
Teorema Sean {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} autovectores del operador A :V m → V n y suponemos que existen k
autovalores, {λ1 , λ2 , · · · , λk } , distintos correspondientes a cada uno de los autovectores |ψj i . Entonces
los {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψk i} son linealmente independientes.
cj |ψj i = 0 con j = 1, 2, · · · , k
cj A |ψj i = 0 =⇒ cj λj |ψj i = 0
(nótese que el último ı́ndice es k−1) pero, dado que los k−1 vectores |ψj i son linealmente independiente,
entonces tendremos k − 1 ecuaciones cj (λj − λk ) = 0 una para cada j = 1, 2, · · · , k − 1. Dado que
λj 6= λk necesariamente llegamos a que cj = 0 para j = 1, 2, · · · , k − 1 y dado que
cj |ψj i = 0 con j = 1, 2, · · · , k =⇒ cj 6= 0
con lo cual si
cj |ψj i = 0 =⇒ cj = 0 con j = 1, 2, · · · , k
y los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} son linealmente independientes. Con lo cual queda demostrado el
teorema
y tendrá como resultado un polinomio de grado n (el polinomio caracterı́stico). Las raı́ces de este polinomio
serán los autovalores que estamos buscando. Es claro que estas raı́ces podrán ser reales y distintas, algunas
reales e iguales y otras imaginarias.
Es importante señalar que
el polinomio caracterı́stico será independiente de la base a la cual esté referida
la representación matricial wi A |wj i del operador A.
a) λ1 = 1 1 1
2 1 3 x x 2x1 + x2 + 3x3 = x1
1 2 3 x2
= x2
⇐⇒ x1 + 2x2 + 3x3 = x2
3 3 20 x3 x3 3x1 + 3x2 + 20x3 = x3
que constituye un sistema de ecuaciones algebraicas de 3 ecuaciones con 3 incógnitas. Resolviendo
el sistema tendremos que
1
x −1
λ1 = 1 ⇐⇒ x2 = α 1
3
x λ =1
0
1
b) λ2 = 2 1 1
2 1 3 x x 2x1 + x2 + 3x3 = 2x1
1 2 3 x2
=2 x2
⇐⇒ x1 + 2x2 + 3x3 = 2x2
3 3
3 3 20 x x 3x1 + 3x2 + 20x3 = 2x3
Resolviendo el sistema tendremos que
x1 −3
λ2 = 2 ⇐⇒ x2 = α −3
x3 λ 1
2 =2
c) λ3 = 21
1 1
2 1 3 x x 2x1 + x2 + 3x3 = 21x1
1 2 3 x = 21 x ⇐⇒ x1 + 2x2 + 3x3
2 2
= 21x2
3 3 20 x3 x3 3x1 + 3x2 + 20x3 = 21x3
2. Una matriz 3 × 3 con 2 autovalores reales distintos, es decir una matriz con autovalores repetidos
4 −3 1 4−λ −3 1
i i
e A |ej i = 4 −1 0 =⇒ det Aj − λδji = 4 −1 − λ 0 =0
1 7 −4 1 7 −4 − λ
y es claro que tiene 2 raı́ces iguales y una distinta. En este caso λ = 1 es un autovalor degenerado
de orden 2. Para proceder a calcular los autovectores correspondientes a cada autovalor resolvemos la
ecuación de autovalores para cada autovalor. Esto es:
a) λ1 = −3
1 1
4 −3 1 x x 4x1 − 3x2 + x3 = −3x1
4 −1 0 x2
= −3 x2
⇐⇒ 4x1 − x2 = −3x2
1 7 −4 x3 x3 x1 + 7x2 − 4x3 = −3x3
3. Otra matriz 3 × 3 con 2 autovalores reales distintos, es decir otra matriz con autovalores repetidos
2 1 1 2−λ 1 1
i i
e A |ej i = 2 3 2 =⇒ det Aj − λδji = 2 3−λ 2 = 0
3 3 4 3 3 4−λ
y es claro que tiene 2 raı́ces iguales y una distinta. En este caso λ = 1 vuelve a ser un autovalor
degenerado de orden 2. Para proceder a calcular los autovectores correspondientes a cada autovalor
resolvemos la ecuación de autovalores para cada autovalor. Esto es:
a) λ1 = 7 1 1
2 1 1 x x 2x1 + x2 + x3 = 7x1
2 3 2 x = 7 x ⇐⇒ 2x1 + 3x2 + 3x3
2 2
= 7x2
3 3 4 x3 x3 3x1 + 3x2 + 4x3 = 7x3
Resolviendo el sistema tendremos que
x1 1
λ1 = 7 ⇐⇒ x2 = α 2
x3 λ 3
1 =7
y es claro que tiene 2 raı́ces iguales y una distinta. En este caso λ = 6 es un autovalor real. Adicio-
√
nalmente existen dos autovalores complejos, uno el complejo conjugado del otro: λ∗ = − 12 3 + i 3
√
y λ̄∗ = − 12 3 − i 3 . Para proceder a calcular los autovectores correspondientes a cada autovalor re-
solvemos la ecuación de autovalores para cada autovalor real. En este caso existe un único autovalor
real λ = 6. 1 1
1 2 3 x x 4x1 − 3x2 + x3 = 6x1
3 1 2 x2 = 6 x2 ⇐⇒ 4x1 − x2 = 6x2
3 3
2 3 1 x x x + 7x2 − 4x3 = 6x3
1
ahora bien, cada uno de los vectores base |ej i y |wj i puede ser expresado en las otras bases {|w1 i , |w2 i , |w3 i , · · · |wn i}
y {|e1 i , |e2 i , |e3 i , · · · |en i} , respectivamente como
|wj i = clj |el i
m −1
=⇒ |wj i = clj c̃m
l |wm i =⇒ clj c̃m m l m
l = c̃l cj = δj =⇒ c̃m
l = (cl )
m
|el i = c̃l |wm i
Las cantidades clj son escalares que pueden ser “arreglados” como una matriz. Esa matriz, adicionalmente es
no singular6 por ser una la representación de una transformación lineal que aplica una base en otra. Entonces
además
|wj i = clj |el i =⇒ A |wj i = clj A |el i =⇒ Ãlj |wl i = cm k m k h
j Am |ek i = cj Am c̃k |wh i
| {z }
δjh
donde
−1
clj = el |wj i y c̃m m
l = (cl ) = hwm |el i
Supongamos que
A |ej i = Alj |el i con Aij = ei A |ej i
y
à |wj i = Ãlj |wl i con Ãij = wi à |wj i
al actuar A sobre |wj i tendremos
−1
A |wj i = clj A |el i = clj Akl |ek i = clj Akl c̃m m k l m
k |wm i = c̃k Al cj |wm i = (ck ) Akl clj |wm i
| {z }
hwi |Ã|wj i
Definición Dos matrices, Akl y Ãij , n × n, se denominará similares si existe una matriz no singular cik tal que
−1
i −1
k
à = C AC ⇐⇒ w à |wj i = cik w A |wm i cm
j
ambas matrices, Ã y A, tendrán el mismo polinomio caracterı́stico y con ello el mismo conjunto de
autovalores.
Todos los teoremas de esta sección pueden ser resumidos en el siguiente teorema
Teorema Sea un operador lineal A : V → V y que dim V = n, supongamos además que el polinomio caracterı́stico
tiene n raı́ces distintas, {λ1 , λ2 , . . . , λn } . Entonces tendremos que
Los autovectores {|u1 i , |u2 i , · · · , |un i} correspondientes a los a {λ1 , λ2 , . . . , λn } , forman una base
para V.
La representación matricial del operador uk A |um i en la base de autovectores
{|u1 i , |u2 i , · · · , |un i}, será diagonal
Ākm = Λkm = uk A |um i = diag (λ1 , λ2 , . . . , λn )
Cualquier otra representación matricial, ek A |em i , del operador A en otra base de V, estará relacio-
nada con la representación diagonal mediante una transformación de similaridad
−1
k
Λ = C−1 AC ⇐⇒ diag (λ1 , λ2 , . . . , λn ) = cik e A |em i cm
j
donde cm
j es la matriz, no singular y por lo tanto invertible, de cantidades que relacionan ambas bases
|uj i = clj |el i
m −1
⇐⇒ c̃m l = (cl ) =⇒ c̃m l m
l cj = δj
|el i = c̃m
l |um i
Demostración La demostración, en términos de los teoremas anteriores es inmediata y se la dejamos como ejercicio
al lector.
Esto es: el hermı́tico conjugado de una matriz, es su traspuesta conjugada. Por lo tanto las matrices Hermı́ti-
cas son simétricas respecto a la diagonal y los elementos de la diagonal son números reales.
Por su parte, llamaremos antihermı́tico a un operador que cumpla con
i
∗
∗
A† = −A =⇒ A† j = ei A† |ej i = − ej A |ei i = − Aji
Ahora bien, dado que hψ |ψi es real, si demostramos que hψ| A |ψi estará demostrado que λ lo será tam-
bién. Pero como A es Hermı́tico
∗
hψ| A |ψi = hψ| A† |ψi = hψ| A |ψi =⇒ hψ| A |ψi ∈ ℜ
y por consiguiente los autovalores {λ1 , λ2 , . . . , λn } son reales. Más aún, si A es Hermı́tico, y como sus
autovalores son reales entonces
Para demostrar que los autovectores {|u1 i , |u2 i , · · · , |un i} son ortogonales, consideremos dos auto-
vectores con sus correspondientes autovalores de tal forma que se cumplen las siguientes ecuaciones
pero como A es Hermı́tico entonces se cumple que hϕ| A = µ hϕ| entonces multiplicando a la izquierda
por |ψi y a hψ| A = λ hψ| por hϕ| la derecha.
(hϕ| A = µ hϕ|) |ψi hϕ| A |ψi = µ hϕ |ψi
=⇒ =⇒ (λ − µ) hϕ |ψi = 0
hϕ| (A |ψi = λ |ψi) hϕ| A |ψi = hϕ |ψi
y como hemos supuesto que λ 6= µ con lo cual hϕ |ψi = 0 los autovectores correspondientes a dos
autovalores son ortogonales.
Existen situaciones en las cuales un determinado autovalor λ = λ0 es degenerado. Consideremos una
matriz n × n, Aij , por lo cual el polinomio caracterı́stico P (λ) = det Aij − λδji = 0 tendrá una raı́z
degenerada de orden k ≤ n. Entonces el siguiente teorema garantiza la existencia de, al menos un subespacio
S (λ0 ) ⊂ V n
n n
Teorema Sea un operador
i lineal
i
A : V → V con una representación matricial n × n tal que su polinomio
P (λ) = det Aj − λδj = 0 tiene al menos una raı́z degenerada λ = λ0 , de orden k ≤ n. Entonces
existen k autovectores, no triviales, que cumplen con
Demostración La demostración también emerge de una variante del Método de Inducción Completa.
Para ello, probamos que se cumple para j = 1. Esta afirmación es obvia. Si existe un λ = λ0 existe
un λ0 existe un |ψj i, tal que cumple con la ecuación anterior el es linealmente independiente con él
mismo.
Suponemos que se cumple para 1 ≤ j = m ≤ k. Es decir existen m autovectores |ψj i de A para el
autovalor λ0 . Definamos un subespacio Sλ0 = S (λ0 ) ⊂ V n donde
por lo tanto podremos separar V n como una suma directa entre el subespacio Sλ0 y, N su complemento
ortogonal
V n = Sλ0 ⊕ N ∋ A |ψj i = λ0 |ψj i ∧ |φi ∈ N =⇒ hφ |ψj i = 0
claramente Sλ0 es un subespacio invariante de A por cuanto su acción se circunscribe dentro del mismo
subespacio Sλ0 . Mostraremos que, para este caso por cuanto no es verdad, en general para operadores
no Hermı́ticos. Entonces
hφ |ψj i = 0
∧ =⇒ hψj |φi = 0 = hψj | A† |φi = hψj | A |φi
A |ψj i = λ0 |ψj i
de donde se concluye que el vector es ortogonal a Sλ0 y por lo tanto está en el complemento ortogonal,
A |φi ∈ N como, por hipótesis |φi ∈ N . Esto implica que N también es un espacio invariante del
operador Hermı́tico A. Entonces el espacio V n puede expresarse como una suma directa de los dos
subespacios invariantes respecto al operador lineal A V n = Sλ0 ⊕ N y su representación matricial en
la base de autovectores tendrá la forma de una matriz diagonal a bloques:con lo cual
1
Q1 · · · Q1m 0 · · · 0 1 ··· 0 0 ··· 0
.. .. .. .. . .. . . . .. ..
.
m . . . ..
.
. .. . . 0
j Q1 m
Qm 0 · · · 0 0 · · · 1 0 ··· 0
u A |ui i = Aji →
0 m+1 m+1
··· 0 1 0 0 0 · · · 0 Rm+1 · · · Rn
. .. . . . . . . .
.. . .. .. . . . .. .. . . . .. .. ..
. ..
n
0 ··· 0 0 ··· 1 0 ··· 0 Rm+1 ··· Rnn
donde Qα µ α
β y Rυ son matrices m × m y (n − m) × (n − m) , respectivamente. La matriz Qβ opera en
Sλ0 mientras que Rυµ actúa sobre el complemento ortogonal N . El polinomio caracterı́stico de A puede
expresarse como
P (λ) = det Aij − λδji = 0 =⇒ P (λ) = det Qij − λδji det Rji − λδji = 0
y como λ = λ0 es la raı́z múltiple del polinomio caracterı́stico y que anula el det Qij − λδji tendremos
que m
det Qij − λ0 δji = 0 =⇒ P (λ) = (λ − λ0 ) F (λ) con F (λ0 ) 6= 0
donde λ0 no es raı́z del polinomio F (λ) . Ahora bien, para que se cumpla para j = k el polinomio
caracterı́stico es
k m k
j=k =⇒ P (λ) = (λ − λ0 ) R (λ) =⇒ (λ − λ0 ) F (λ) = (λ − λ0 ) R (λ)
otra vez λ0 no es raı́z del polinomio R (λ) . La ecuación anterior se cumple para todo λ en particular
para λ = λ0 . Por lo tanto
k−m R (λ)
1 = (λ − λ0 )
F (λ)
Es claro que λ = λ0 obliga a k = m
son naturales para representar cambios de base dentro de un espacio vectorial. De lo anterior se deduce que
si {|e1 i , |e2 i , |e3 i , · · · |en i}es una base ortonormal, el conjunto de vectores transformados, |wj i = U |ej i ,
también son ortonormales:
|wj i = U |ej i =⇒ wi |wj i = wi U |ej i = ei U† U |ej i = δji
Teorema La condición necesaria y suficiente para que un operador U : V n → V n sea unitario es que aplique
vectores de una base ortonormal {|e1 i , |e2 i , |e3 i , · · · |en i} en otra de {|w1 i , |w2 i , |w3 i , · · · |wn i}
también ortonormal.
Demostración Demostremos primero la condición necesaria: Si es unitario aplica una base en otra. Esto es, supongamos
que los vectores {|ej i} forman una base ortonormal para V n . Sean |ψi , y U† |ψi ∈ V n . Estos vectores
pueden ser expresados en términos de la base {|ej i} de V n . Por lo tanto, si seleccionamos U† |ψi se
cumple que
donde hemos aplicado el operador U a la ecuación U† |ψi = cj |ej i y el resultado es que el otro vector,
|ψi, también se pudo expresar como combinación lineal de los vectores transformados {|wj i} de la
base {|ej i} . Y por lo tanto los {|wj i} también constituyen una base. Es decir, los operadores unitarios
La condición de suficiencia (Si aplica una base en otra es unitario) se puede demostrar como sigue. Si
{|ej i} y {|wj i} son bases ortonormales de V n y una es la transformada de la otra implica que
|wj i = U |ej i ; y hwj | = hej | U†
con
ei |ej i = δji ; |ej i ej = 1 wi |wj i = δji ; |wj i wj = 1
Por lo tanto,
Matrices unitarias
La representación de una matriz unitaria en una base {|ej i} implica
†
∗
j ∗
Ujk = ek U |ej i ; hem | U |ej i = ej U |em i = Um
X
† j ∗
δjk = ek |ej i = ek 1 |ej i = ek UU† |ej i = ek U |em i hem | U |ej i = k
Um Um
m
X ∗
δjk = ek |ej i = ek 1 |ej i = ek U† U |ej i = ek U† |em i hem | U |ej i = (Ukm ) Ujm
m
Una vez más, dado un operador lineal A, la representación matricial del Hermı́tico conjugado de ese operador
A† es la traspuesta conjugada de la matriz que representa al operador A. En el caso de operadores unitarios.
Con lo cual es fácilmente verificable que una matriz sea unitaria. Basta comprobar que la suma de los
productos de los elementos de una columna (fila) de la matriz con los complejos conjugados de otra columna
(fila). Esa suma de productos será
1. cero si las columnas (filas) son distintas
2. uno si las columnas (filas) son iguales
Ejemplos de matrices unitarias son las llamadas matrices de rotación. Alrededor del eje z tendremos que
cos θ − sen θ 0
R (θ) = sen θ cos θ 0
0 0 1
y también la matriz de rotación de una partı́cula de espı́n 12 en el espacio de estados
− i (α+γ) i
(1/2) e 2 cos β −e 2 (α−γ) sen β
R (α, β, γ) = i i
e− 2 (α−γ) sen β e 2 (α+γ) cos β
claramente se cumple la regla expuesta arriba.
con ϕu una función real. Por lo cual podemos concluir que, necesariamente, los autovalores de los operadores
unitarios Dserán números complejos de módulo 1. Cuando los autovalores son diferentes, digamos u′ 6= u,
′
entonces ψ u |ψu i = 0. Con lo cual los autovectores de un operador unitarios son ortogonales.
Transformación unitaria de Operadores Hemos visto como las transformaciones unitarias permiten
construir bases ortogonales {|ẽm i} para el espacio vectorial V n partiendo de otra base {|em i} también
ortogonal. En esta subsección mostraremos como transforman los operadores lineales bajo transformaciones
unitarias.
Definición Dadas dos bases ortonormales {|ej i} y {|wk i} en V n con |wj i = U |ej i, un operador lineal unitario
U : V n → V n .y un operador lineal A : V n → V n . Definiremos al operador transformado à : V n →
V n como aquel cuya representación matricial en la base {|wk i} es la misma que en la base {|ej i}:
j
w à |wi i = ej A |ei i
P|ψi |ϕi = P|ψi P|ψi |ϕi + P|ψi − P2|ψi |ϕi = P|ψi |ϕi =⇒ P|ψi P|ψi |ϕi = P|ψi |ϕi
ya que P2|ψi = P|ψi , por definición de proyector. Entonces, se deduce que P|ψi |ϕi es un autovector de P|ψi
con autovalor 1. Igualmente 1 − P|ψi |ϕi es un autovector de P|ψi con autovalor 0, y la demostración es
inmediata
P|ψi 1 − P|ψi |ϕi = P|ψi − P2|ψi |ϕi = 0
Para el caso de autoespacios correspondientes a autovalores degenerados se puede definir un observable A
de la forma X D
A= ai Pi con Pi = ψ· (µ) ψ · (µ) y µ = 1, 2, · · · , k
i
i
Teorema Si dos observables A y B, operadores Hermı́ticos, conmutan, [A, B] = 0, los autovectores {|ψi i}
comunes a A y B constituyen una base ortonormal para V n .
Demostración Denotemos los autovectores de A como ψi (µ) , de tal modo
A ψi (µ) = ai ψi (µ) donde i = 1, 2, .., n − kn + 1 y µ = 1, 2, .., kn
kn indica
el orden de la degeneración de un determinado autovalor an . Dado que A es un observable
los ψi (µ) forman base los Claramente,
D
ψ i (µ) ψj (ν) = δji δνµ
y dado que los elementos de matriz ψ i (ν) B ψj (ν) = δji esto quiere decir que los elementos
i (µ)
ψ B ψj (ν) = B i (µ) serán nulos para i 6= j pero no podemos decir nada a priori para el
j (ν)
caso µ 6= υ y i = j. Entonces, al ordenar la base, en general
ψ1 (1) , ψ1 (2) , · · · ψ1 (k ) , ψ2 (1) , ψ2 (2) , · · · , ψ2 (k2 ) , · · · , ψ3 (1) , · · · ψn−kn (1)
1
Tal y como hemos mencionado los subespacios: E1 , E2 , y E4 corresponden a los autovalores degenerados
a1 , a2 , y a4 (de orden 3, 2 y 2 respectivamente).
Una vez más surgen dos casos a analizar
Si an es un autovalor no degenerado, entonces existe un único autovector asociado a este autovalor (la
dimensión del autoespacio es 1 esto es kj = 1 y no hace falta). Esto corresponde al ejemplo hipotético
de arriba para los autovalores simples a3 , y a5
De ahora en adelante
denotaremos los autovectores comunes a dos operadores A y B con distintos
autovalores como u i|j (µ) tal que
A u n|m (µ) = an u n|m (µ) y B u n|m (µ) = bm u n|m (µ)
donde hemos dejado “espacio” para permitir la degeneración la cual será indicada por el ı́ndice µ
La prueba del inverso del teorema anterior es bien simple
Teorema Si existe una base de autovectores uj (µ) comunes a A y B, entonces A y B conmutan, [A, B] = 0
Demostración Es claro que
AB u n|m (µ) = bm A u n|m (µ) = bm an u n|m (µ)
BA u n|m
(µ) = an B u n|m (µ) = an bm u n|m (µ)
Definición Diremos que {A, B, C, D · · ·} constituye un conjunto completo de observables que conmuntan si
Analicemos los siguientes ejemplos. Considere, que el espacio de estados para un determinado sistema
fı́sico viene expandido por una base ortonormal {|u1 i , |u2 i , |u3 i}. Definimos dos operadores Lz y S de la
siguiente manera
En la base ortonormal {|u1 i , |u2 i , |u3 i} las representaciones matriciales para Lz , L2z , S y S2 serán las siguien-
tes
i 1 0 0
i 2 1 0 0
u Lz |uj i = 0 0 0 , u Lz |uj i = 0 0 0
0 0 −1 0 0 1
i 0 0 1
i 2 1 0 0
u S |uj i = 0 1 0 , u S |uj i = 0 1 0
1 0 0 0 0 1
Es claro que estas matrices son reales y simétricas y, por lo tanto, son Hermı́ticas y, al ser el espacio de
dimensión finita, deben ser diagonalizables y sus autovectores formarán base para ese espacio. Por lo tanto,
Lz , L2z , S y S2 son observables.
¿ Cuál será la forma más general de una representación matricial de un operador que conmunte con Lz ?
Notamos que los vectores de la base ortonormal {|u1 i , |u2 i , |u3 i} son autovectores para Lz con autovalores
{1, 0, −1} con lo cual su representación matricial tiene que ser diagonal. Recuerde que si dos observables A
y B conmutan, [A,
B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el
elemento de matriz ψ 1 B |ψ2 i = 0, con lo cual
i M11 0 0
[M, Lz ] = 0 ⇔ u M |uj i = 0 M22 0 ,
0 0 M33
Si nos planteamos la misma pregunta para L2z , vemos que sus autovalores son {1, 0}. Esto es
con lo cual tendremos que la representaci’on matricial para ese operador que conmute con L2z , no es diagonal.
Esto es 1
i N1 0 N31
2
[N, Lz ] = 0 ⇔ u N |uj i = 0 N22 0 ,
N13 0 N33
ya que
0 = u1 [N, L2z ] |u3 i ⇒ u1 N |u3 i = u1 N |u3 i
y vale para cualquier elemento N31 (y equivalentemente para N13 ). Adicionalmente, si ordenamos la base de
autovectores de Lz , como {|u1 i , |u3 i , |u2 i} tendremos como representaci’on matricial diagonal a bloques,
correspondiente a un autorvalor degenerado 1,
1
i N1 N31 0
u Ñ |uj i = N13 N22 0 ,
0 0 N33
Finalmente, la representaci’on matricial, m’as general, de un operador que conmute con S 2 es
1
P1 P21 P31
[P, S2 ] = 0 ⇔ ui P |uj i = P12 P22 P32 ,
N13 P23 P33
Ahora intentaremos construir una base com’un de autovectores para L2z y S. Para ello notamos que |u2 i
es un autovector com’un a L2z y S, por lo tanto existir’a un subespacio expandido por {|u1 i , |u3 i}. En ese
subespacio las respresentaciones matriciales para L2z y S, ser’an
i 2 1 0
i 0 1
u Lz |uj iS13 =
u S |uj iS13 =
0 1 1 0
Acto seguido planteamos el problema de autovalores para S, esto es
√1
|q2 i = 2
(|u1 i + |u3 i)
0 1 q1 q1
S |qj i = λj |uj i ⇒ =λ ⇒
1 0 q2 q2 √1
|q3 i = 2
(|u1 i − |u3 i)
Cuadro 6.1: Dado que no hay l’ineas repetidas L2z y S forman un CCOC
Consideremos otro ejemplo proveniente de la Mecánica Clásica. Se trata de dos osciladores armónicos,
de igual masa, acoplados con resortes con la misma constante elástica k 7 . La ecuaciones de movimiento para
7 Pueden consultar una animación bien interesante y simular en http://qbx6.ltu.edu/s_schneider/physlets/main/
coupledosc.shtml
Si pensamos esta ecuación como una ecuación de autovalores, el autovalor es claramente λ = 0 y como las
masas y las constantes elásticas son iguales podemos intercambiar las partı́culas y la fı́sica (las ecuaciones
de movimiento) no cambian. Esto se puede expresar matemáticamente como el operador permutación de las
partı́culas 1 2
0 1 0 1 x x
P= ⇒ =
1 0 1 0 x2 x1
Es inmediato comprobar que [D, P] = 0 con lo cual existirá una combinación lineal de autovectores de D
(asociados con el autovalor λ = 0 ) los cuales también serán autovectores de P. Para ello procedamos a
calcular los autovalores y autovectores de P
−λ 1
P |xi = λ |xi ⇒ = 0 ⇒ λ ± 1 ⇔ |u1 i = √1 1
; |u i = √
1 1
.
1 −λ 2 1 2
2 −1
fácilmente podemos expresar el vector posición como una combinación lineal de estos dos autovectores de P.
Esto es 1
1 ξ1 = √2 (x1 + x2 )
x ξ1 1 ξ2 1
=√ +√ ⇒
x2 2 1 2 −1
ξ2 = √12 (x1 − x2 )
Es claro que
1 1 1 1
|u1 i = √ (x1 + x2 ) ; y |u2 i = √ (x1 − x2 ) .
2 1 2 −1
son autovectores de P y D
[1] Apostol, T. M. (1972) Calculus Vol 2 (Reverté Madrid ) QA300 A66C3 1972
[2] Arfken, G. B. y Weber, H. (2000) Mathematical Methods for Physicists 5ta Edición (Academic
Press, Nueva York)
[3] Cohen-Tannoudji, C., Diu B. y Laloë (1977) Quantum Mechanics Vol 1 (John Wiley Interscience,
Nueva York )
[4] Gelfand, I.M. (1961) Lectures on Linear .Algebra (John Wiley & Sons Interscience, Nueva York ).
[5] Jordan, T.F. (1969) Linear Operator for Quantum Mechanics (John Wiley & Sons Interscience,
Nueva York ).
[6] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
241
Capı́tulo 7
Serie de Series
242
Métodos Matemáticos de la Fı́sica
Nos van a interesar las series infinitas, ellas contienen a las series finitas a las cuales llamaremos sumas
parciales. Una serie infinita S∞ la podremos separar en sumas parciales finitas Si , y si la suma parcial
converge a un número finito S cuando i → ∞ diremos que la serie converge. Si no, diremos que diverge. Se
dirá que la serie diverge si el valor de la sumatoria aumenta indeteniblemente, pero también puede oscilar,
con lo cual tampoco converge.
i
X
Si = (−1)n = 1 − 1 + 1 − 1 + · · · + (−1)i + · · ·
n=1
Esto se puede formalizar un poco diciendo que la condición para la existencia de un lı́mite S es que para
cada ǫ > 0 existe un número N = N (ǫ) tal que
Esta afirmación se denomina criterio de Cauchy 1 sobre la convergencia de las series parciales. Esto es, la
condición necesaria y suficiente para que una suma parcial Si converja y quiere decir que las sumas parciales
convergen a medida que avanzamos en los términos de la serie.
Serie aritmétrica Desde siempe hemos oı́do hablar de progresiones aritméticas. Ellas son, sencillamente
N
X −1
SN = (a + nd) = a + (a + d) + (a + 2d) + (a + 3d) + (a + 4d) + · · · + [a + (N − 1)d] .
n=0
Teorı́a de los Grupos de Permutación. Cauchy hizo aportes importantes en los criterios de convergencia y divergencia de series
infinitas, ası́ como tambien, en ecuaciones diferenciales, determinantes, probabilidades y Fı́sica Matemática
Con lo cual
N N
SN = [a + a + (N − 1d)] → SN = [Primer Término + Ultimo Término]
2 a
obviamente, si N → ∞ la serie diverge.
y si restamos
SN = a +ar +ar2 +ar3 +··· +arN −1
rSN = ar +ar2 +ar3 +ar4 +··· +arN
también es inmediato comprobar que si krk < 1
a(1 − rN ) a
SN = con lo cual tendremos que la suma de la serie seráS = lı́m SN =
1−r N →∞ 1−r
y, divergerá (u oscilará) si krk > 1
Series Aritmético-geométricas Estas series, un poco más exóticas y como su nombre lo sugiere son
una combinación de las anteriores. Estos es
N
X −1
SN = a + (a + d)r + (a + 2d)r2 + (a + 3d)r3 + (a + 4d)r4 + · · · + [a + (N − 1)d] rN = (a + nd)rn
n=0
y con la misma estrategia de las geométricas se llega a encontrar el valor de su, nada intuitiva, suma
a − [a + (N − 1)d] rN rd(1 − rN −1 )
SN = +
1−r (1 − r)2
a rd
S= +
1 − r (1 − r)2
Serie Armónica Quizá no la conocı́amos con este nombre (y menos por sus propiedades) pero seguro nos
la hemos tropezado
∞
X
1 1 1 1 1 1
1 + + + + + ··· + ··· =
2 3 4 5 n n=1
n
Esta serie es engañosa, en apariencia parece converger, pero no es ası́. Si analizamos con más cuidado,
veremos que hay sutilezas
X∞
1 1 1 1 1 1 1 1 1 1 1
=1+ + + + + + + + + + ··· + +···
n 2
|{z} 3 4 5 6 7 8 9 10 16
n=1 | {z } | {z } | {z }
s0 s1 s2 s3
con lo cual
1 7 1 533 1 95549 1
s0 = ; s1 = > ; s2 = > ; s3 = > ;
2 12 2 840 2 144144 2
y claramente diverge ya que
1 1 1 1
1 + s0 + s1 + s2 + s3 + · · · > 1 + + + + + ···
2 2 2 2
Nicole D’Oresme2 . Una de las generalizaciones de la serie harmónica
Esta prueba aparentemente se le debe a P
∞
es la función Zeta de Riemann ζ(p) = n=1 np , la cual analizaremos más adelante en la sección 7.1.3.
3
El método de la diferencia
PN
A veces para una serie SN = n=1 an uno encuentra que para el término n-ésimo an = f (n) − f (n − 1)
para alguna función. En ese caso es inmediato demostrar
N
X N
X m
X m
X
SN = an = f (N ) − f (0) ⇒ SN = an = f (N − k + 1) − f (1 − k) (7.1)
n=1 n=1 i=1 i=1
más aún, se puede ir más allá. Si identificamos que el término n-ésimo tiene la forma de an = f (n)−f (n−m)
es fácilmente demostrable que la suma de la serie se puede escribir como la segunda ecuación de (7.1). Hay
que hacer notar que el argumento n − m puede ser positivo o negativo. Con lo cual el método de la diferencia
resulta versátil y muy útil cuando se requiere encontrar la suma de series de variada dificultad
2 Nicole D’Oresme (1323-1382) Matemático francés que inventó la geometrı́a coordenada antes de Descartes. Más deta-
sobre las geometrı́a del espacio han tenido un profundo impacto en el desarrollo de la Fı́sica Teórica. Igualmente clarificó la
noción de integral al introducir el concepto de lo que hoy se conoce como integral de Riemann.
Más detalles en http://www-history.mcs.st-and.ac.uk
Con alguna frecuencia surgen las series de números naturales. La más simple es
N
X N (N + 1)
SN = 1 + 2 + 3 + · · · + N = n= una serie aritmétrica de razón d = 1
n=1
2
Este resultado, nada intuitivo, surge de la aplicación ingeniosa del método de la diferencia. Tal y como hemos
dicho, se trata de encontrar que el elemento genérico de la serie an = f (n) − f (n − 1) = n2 para alguna
función. Suponga una función del tipo
f (n) = n(n + 1)(2n + 1) ⇒ f (n − 1) = (n − 1)n(2n − 1) ⇒ f (n) − f (n − 1) = 6n2
con lo cual
N (N + 1)(2N + 1) f (N ) − f (0) N (N + 1)(2N + 1)
an = n2 = ⇒ SN = =
6 6 6
PN P 2
N N 2 (N +1)2
Ejercicio Muestre que SN = 1 + 23 + 33 + · · · + N 3 = n=1 n3 = n=1 n = 4
con lo cual
N (N + 1)(2N + 1) N (N + 1) N (2N 2 + 15N + 31)
SN = + + (3N ) =
6 2 6
Los ı́ndices son mudos y se acomodan para ser sumados. Para sumar series es imperioso que los ı́ndices de
cada serie comiencen con el mismo valor esto es
P∞
S∞ = n=0 an X∞ X ∞ X∞ X∞
P∞ ⇒ an + b j = (an−1 + b n ) = a0 + (an + bn )
S̃∞ = n=1 bn n=0 j=1 n=1 n=1
Para finalizar se puede comprobar que las series y también se pueden multiplicar
"∞ #" ∞ #
h i X X ∞
X
[S∞ ] S̃∞ = an bn = cn donde cn = a0 bn +a1 bn−1 +· · ·+aj bn−j +· · ·+an−2 b2 +an−1 b1 +an b0
n=0 n=0 n=0
Criteterio de Comparación
En segundo lugar de simplicidad está el criterio de comparación entre un par de series de términos
positivos. Si conocemos el comportamiento de una
P∞ de ellas comparamos el de la otra. Esto es, suponga que
consideremos dos serie, una de prueba S∞ = n=0 an y una serie conocida y convergente (o divergente)
P∞
S̃∞ = n=0 an , entonces
∞
X ∞
X ∞
X
Si S̃∞ = a˜n converge y ∀n se tiene que a˜n > an ⇒ a˜n > an ⇒ S∞ converge
n=0 n=0 n=0
y es claro que la serie indicada no es otra cosa que e, con lo cual la serie claramente converge y su suma es
1 + e.
Criterio de la Raı́z
P∞
Dada una serie de términos positivos S∞ = n=0 an , el criterio de la raı́z (o también de la raı́z de
Cauchy) puede resumirse en el siguiente par de afirmaciones. Si
1
(an ) n 6 ρ < 1 para un valor de n suficientemente grande y ρ independiente de n =⇒ converge
1
(an ) n > 1 para un valor de n suficientemente grande y ρ independiente de n =⇒ diverge
1
(an ) n = 1 para un valor de n suficientemente grande y ρ independiente de n =⇒ diverge o converge
Otra forma, más compacta de expresarlo serı́a
ρ < 1 =⇒ converge
1
Si ρ = lı́m (an ) n entonces, si ρ > 1 =⇒ diverge
n→∞
ρ = 1 =⇒ converge o diverge
Es fácil ver que si utilizamos el criterio de comparación, entonces
1
cuando ρ < 1 la serie converge
(an ) n 6 ρ ⇒ an 6 ρn ⇒
cuando ρ > 1 la serie diverge
Criterio de D’Alembert
P∞ 4
Dada una serie de términos positivos S∞ = n=0 an , el criterio de D’Alembert o también llamado
criterio del cociente, compara el valor relativo de un término de la serie con el que le precede. Este criterio
se resume también fácilmente
ρ < 1 =⇒ converge
an+1
Si ρ = lı́m entonces, si ρ > 1 =⇒ diverge
n→∞ an
ρ = 1 =⇒ indeterminado
Nótese que si
an+1
ρ<1 ⇒ρ<r<1 ⇒ <r ⇒ an+1 = an r
an
Entonces para un N < n pero también suficientemente grande, tendremos que los términos de la serie a
partir de ese N serán
aN + aN +1 + aN +2 + aN +3 · · · = aN + raN + r2 aN + r3 aN · · · = aN 1 + r + r2 + r3 + r4 · · ·
y que no es otra cosa que una serie geométrica con razón r < 1 y por consiguiente converge. Es claro que un
argumento similar se puede utilizar para probar la divergencia.
Un ejemplo inmediato lo constituye la serie
∞
1 1 3 1 5 X n n+1
1 n+1 n+1
1
2n+1 2n+1
+ + + + + ··· = n
⇒ n = · ⇒ ρ = lı́m n = <1
2 2 8 4 32 n=1
2 2n
2 n n→∞
2n
2
los Fluxiones el primer tratado que expuso de una manera sistemática y rigurosa el cálculo diferencial ideado por Newton. Este
tratado fue como respuesta a la crı́tica de Berkeley sobre la falta de rigurosidad de los métodos Newton
P∞
con lo cual, al hacer i → ∞ tendremos que si el lı́mite de la integral existe, entonces la serie n=1 an
converge.
Z ∞ ∞
X Z ∞
dx f (x) ≤ an ≤ dx f (x) + a1
1 n=1 1
y
Pes claro que para p > 1 el lı́mite existe y es finito, por lo tanto, la función Zeta de Riemann, ζ(p) =
∞ −p
n=1 n , converge para p > 1
Entonces
an → 0 cuando n → ∞
∞
X
(−1)n+1 (an ) converge, si ∧
n=1
an > an−1 ∀ n>N
De otro modo la serie oscilará
Estas condiciones son fáciles de ver si reorganizamos la serie de los primeros 2m términos, a partir de un
determinado N par y N > n, entonces
donde todos los paréntesis son positivos, con lo cual s2m > 0 y se incrementa al incrementar m. Ahora bien,
si rearreglamos la serie tendremos que
y, otra vez los paréntesis son positivos y es inmediato comprobar que entonces s2m < an para todo m. Como
an → 0 cuando n → ∞, la serie alternante necesariamente converge.
Entonces, el comportamiento de las serie también dependerá de la variable. Ahora la convergencia de la serie
podrá ser posible para algunos valores de x y no para otros. El punto central con las en las series de funciones
f (x)(complicadas) es la tratar de construir funciones como una serie de funciones, ak (x), más simples. Ası́,
esas sumas parciales fn (x) constituirán la función deseada
n
X ∞
X n
X
fn (x) = ak (x) ⇒ f (x) = ak (x) = lı́m ak (x)
n→∞
k=1 k=1 k=1
Es decir estaremos interesados en aquellas funciones a las cuales converjan las sumas parciales de una serie.
Si bien más adelante abordaremos este concepto haciéndolo extensivo a cualquier función, para fijar con-
ceptos, comenzaremos por las series de funciones más comunes: Las series de potencias. Esto es, asimilaremos
una serie de potencias an = cn xn a un polinomio de grado infinito.
∞
X ∞
X n
P (x) = c0 + c1 x + c2 x2 + c3 x3 + c4 x4 + · · · = cn xn o también P (x − x0 ) = cn (x − x0 )
n=0 n=0
Esta asociación tiene la ventaja de permitirnos intuir algunos comportamientos de la serie para algunos
valores de x. Los coeficientes cn son números independientes
P∞ de x. Pero, más aún, estas series pueden ser
series de potencias de número complejos. Vale decir, n=0 cn z n con z = x + iy
P∞ n
Una serie de potencias n=0 cn (x − x0 ) convergerá absolutamente sı́ el
n
X
j
lı́m
cj (x − x0 )
= l
n→∞
j=0
P∞ n
existe.
P∞También se cumplirá el criterio de convergencia absoluta. Esto era, si n=0 kcn (x − x0 ) k converge
n
⇒ n=0 cn (x − x0 ) converge, pero el inverso no es siempre verdad.
Los criterios más populares para evaluar la convergencia, se seguirán cumpliendo. Ası́ el criterio de
Dálembert y el de la raı́z de Cauchy se podrán reescribir como:
c n+1
n+1 (x − x0 )
lı́mn→∞
n
=l l(x) < 1 ⇒ converge
cn (x − x0 )
⇒
p n
l(x) > 1 ⇒ diverge
lı́mn→∞ cn (x − x0 ) = l(x)
n
Sólo que ahora es bueno enfatizar que l = l(x), es decir que el lı́mite dependerá de la variable. Llamaremos,
de ahora en adelante a este lı́mite el radio o entorno de convergencia y lo denotaremos por l ≡ ρ = ρ(x).
El cual delimitará los valores de x para que la serie de potencias converja. Vemos el siguiente ejemplo en el
cual considermos la siguiente serie
n+1
x
∞
x2 x3 xn X xn an+1
(n + 1)!
x
sn (x) = 1 + x + + +···+ +··· = ⇒ lı́m
≡ lı́m
= lı́m
=0
2 6 n! n! n→∞ an n→∞
xn
n→∞ n + 1
n=1
n!
converge si kx − 2k < 1 ⇒ 1<x<3
n + 1
ρ = kx − 2k lı́m
= kx − 2k ⇒
n→∞ n
diverge si kx − 2k > 1
P∞ n+1 n
Es decir, la serie n=1 (−1) n (x − 2) convergerá únicamente para 1 < x < 3. Para otros valores de x,
diverge.
Para puntualizar
Si una serie converge en x = x1 , convergerá absolutamente para kx − x0 k < kx1 − x0 k y divergerá para
kx − x0 k > kx1 − x0 k
P∞ n
Se llama radio de convergencia, ρ = ρ(x) a aquella cantidadPtal que la serie n=0 an (x − x0 ) converge
∞ n
para kx − x0 k < ρ y diverge para kx − x0 k > ρ. Una serie n=0 an (x − x0 ) que converge únicamente
para x = x0 tendrá un radio de convergencia ρ = 0, mientras que una que converja para todo x
tendrá un radio de convergencia ρ = ∞
Con ello es inmediato indentificar el error que se comete cuando se corta la serie en un N suficientemente
grande
XN ∞
X
S(x) = an (x) + an (x)
n=1 n=N +1
| {z } | {z }
sn (x) ≈ǫ
Para el caso de series de funciones, consideraremos existen un par de criterios que identifican la conver-
gencia uniforme y tienen, también cierta popularidad. El criterio Mayorante de Weierstrass6 y el criterio de
Abel. A continuación los resumiremos.
Hay que resaltar el punto que las suma de funciones contı́nuas an (x) no necesariamente habrá de ser
contı́nua, el concepto de convergencia uniforme busca garantizar que esa suma de funciones contı́nuas también
será contı́nua. Ası́, recordamos la idea de continuidad de una función. Una función será contı́nua si sus lı́mites
por la derecha y por izquierda coinciden
?
lı́m f (t) = f (x) ⇒ lı́m lı́m fn (x) = lı́m lı́m fn (x)
t→x± t→x± n→∞ n→∞ t→x±
Es decir, al suponer que la suma de términos contı́nuos tiende a una función contı́nua estamos suponiendo
que podemos intercambiar los ı́mites. pero eso no es simpre cierto. Considere el caso (extremo)
R1
lı́mn→∞ fn = 0 ⇒ dx (lı́mn→∞ fn (x)) = 0
n 0
fn = n2 x 1 − x2 con 0 ≤ x ≤ 1 n = 1, 2, 3, . . .
R 1 dx fn (x) = n2 ⇒ lı́mn→∞ R 1 dx fn → ∞
0 2(n+1) 0
6 Karl Theodor Wilhelm Weierstrass Westphalia 1815 - Berlin 1897 Matemático Alemán con importantes contribuciones
P∞
con la cual la serie n=1 an (x) será uniformemente convergente para todo x ∈ [a, b]. Ahora bien, como
consieramos los Mi ≥ 0. La serie en cuestión también será absolutamente convergente. Otra vez, los criterios
de convergencia absoluta y, en este caso, de convergencia uniforme, no son consecuencia uno del otro, ni
están relacionados. Las series
X∞ ∞
X
(−1)n xn
para − ∞ < x < ∞ ∧ (−1)n−1 para 0 ≤ x ≤ 1
n=1
n + x2 n=1
n
P∞
convergen uniformemente pero NO absolutamente. Sin embargo, en el intervalo 0 ≤ x ≤ 1 la serie j=0 (1 − x)xj
converge absolutamente pero no uniformemente, por cuanto tiene una discontinuidad. Se puede demostrar
que
X∞
=1 0≤x<1
(1 − x)xj =
=0 x=1
j=0
P∞
con lo cual se puede concluir que una serie arbitraria f (x) = j=1 ai (x) no podrá converger uniformemente
en intervalos en los cuales la función f (x) sea discontı́nua.
Criterio de Abel
El criterio de Abel se puede resumir de la siguiente forma: dada una serie de la forma
∞
X n
X
ai (x) ∧ ai (x) = cn fi (x) ⇒ lı́m aj (x) = S
n→∞
i=1 j=1
y por lo tanto la serie converge uniformemente en [a, b]. Para que se cumpla el criterio de Abel, fn (x) tiene
que estar acotada, 0 ≤ fn ≤ M ∀ n), tiene que ser monótonamente decreciente en el intervalo en el cual
esté definida, fn+1 (x) ≤ fn (x) con x ∈ [a, b]
por lo cual
bn = an+1 (n + 1)
o también
X∞ ∞
X ∞
X ∞
X
n k+2 n n
an (x − x0 ) + bk+2 (x − x0 ) = a0 +a1 (x − x0 )+ (an + bn ) (x − x0 ) = (an + cn−2 ) (x − x0 )
n=0 k=0 n=2 n=0
y en este último caso c−2 = c−1 = 0 y ci = bi+2 . Nótese como en los dos ejemplos anteriores hemos hecho
coincidir los el comienzo de los dós ı́ndices de la sumatoria.
La series también se multiplican, esto es
"∞ #" ∞ # ∞
X n
X n
X n
an (x − x0 ) bn (x − x0 ) = cn (x − x0 )
n=0 n=0 n=0
con
cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0
Si alguna de las series de potencias es absolutamente convergente, entonces su multiplicación con otra,
será absolutamente convergente.
Pero también las series de potencias se ¡ invierten ! y para ello utilizamos todo lo visto anteriormente
veamos. Supongamos que se tiene una serie del tipo
∞
X
2 n n
y − y0 = a0 + a1 (x − x0 ) + a2 (x − x0 ) + · · · + an (x − x0 ) + · · · = an (x − x0 )
n=0
n
Es decir tenemos y−y0 expresado en términos de una serie de potencias de (x − x0 ) entonces, igual podremos
n
plantearnos invertir el proceso, vale decir, expresar (x − x0 ) en términos de potencias (y − y0 ) Esto es
k
X∞ X∞ X∞
n j
(x − x0 ) = bn (y − y0 ) ⇒ (x − x0 ) = bk aj (x − x0 )
n=0 k=0 j=0
y a lo bestia al igualar términos con la misma potencia, despejamos los coeficientes bn en términos de los
an , de forma que
1
b1 =
a1
a2
b2 = −
(a1 )3
2(a2 )2 − a1 a3
b3 =
(a1 )5
5a1 a2 a3 − a21 a4 − 5a32
b4 =
(a1 )7
.. ..
. =.
P∞ P∞ n
Igualmente, si una serie f (x) = n=0 an (x − x0 ) = n=0 cn (x − x0 ) converge para un entorno −R ≤
x ≤ R entonces por el criterio de Mayorante de Weierstrass, entonces convergerá absoluta y uniformemente
para −S ≤ x ≤ S con 0 ≤ S ≤ R. Más aún, el criterio de Abel nos garantiza las siguientes propiedades
n
podemos extender la idea de continuidad de
P∞ una serie, dado que todos los términos an (x) = cn (x − x0 )
n
son funciones contı́nuas de x y f (x) = n=0 cn (x − x0 ) converge uniformemente para un entorno
−S ≤ x ≤ S, entonces la función f (x) es contı́nua en el intervalo de convergencia.
n
Si los términos an (x) = cn (x − x0 ) son funciones contı́nuas de x, entonces la serie puede ser derivada
término a término P∞ ∞
d [ n=0 cn (x − x0 ) ] X
n
n−1
= cn n (x − x0 )
dx n=1
donde hemos supuesto que en intervalo [a, a + h] la función f ′ (x) es constante y tiene como valor f ′ (a).
Ahora bien, esto vale todo x y para cualquier función, por lo tanto se cumple que
.. ..
. .
que no es otra cosa que una aproximación de segundo orden a f (a + h). En general podemos construir
Z Z " Z #
a+h a+h a+h
′ ′ ′′
f (a + h) = f (a) + dx f (x) = f (a) + dx f (a) + dx f (x)
a a a
Z "Z #
a+h a+h
= f (a) + hf ′ (a) + dv dx f ′′ (x)
a a
Z Z " Z #!
a+h a+h a+h
′ ′′ ′′′
= f (a) + hf (a) + du dv f (a) + dx f (x)
a a a
Z Z "Z #!
a+h a+h a+h
h2 ′
= f (a) + hf (a) + f ′′ (a) + du dv ′′′
dx f (x)
2 a a a
y si repetimos ese procedimiento n veces, suponiendo que las derivadas de f (x) existan, tendremos la apro-
ximación n − 1 a la función. Esto es
h2 ′′ h3 hn−1 n−1
f (a + h) = f (a) + hf ′ (a) + f (a) + f ′′′ (a) + · · · + f (a) + Rn
2! 3! (n − 1)!
y también es fácil convencerse por inspección que el residuo o el error que cometemos en la aproximación
n − 1 viene dado por la integración enésima de la derivada enésima, vale decir
Z a+h Z a+h Z a+h
Rn = du dv ·|· ·{z· ·}· dx f ′′′ (x)
a a a
n veces
Ahora bien, una elección astuta del parámetro h = x − a nos lleva a la conocida expresión de la serie de
Taylor para una función de una variable
x2 ′′ x3 xn−1 n−1
f (x) = f (0) + xf ′ (a) + f (a) + f ′′′ (a) + · · · + f (a) + Rn
2! 3! (n − 1)!
x2 x3 x4 xn
ex = 1+x+ + + + ··· + + ··· para − ∞ < x < ∞
2 3! 4! n!
x3 x5 x7 x2n−1
sen x = x− + − + · · · + (−1)n+1 + ··· para − ∞ < x < ∞
3! 5! 7! (2n − 1)!
x2 x4 x6 x2n−2
cos x = 1− + − + · · · + (−1)n+1 + ··· para − ∞ < x < ∞
2 4! 6! (2n − 2)!
x3 x5 x7 x2n−1
arctan x = x− + − + · · · + (−1)n+1 + ··· para − 1 < x < 1
3 5 7 (2n − 1)
x2 x3 x4 xn
ln(1 + x) = x− + − + · · · + (−1)n+1 + ··· para − 1 < x < 1
2 3 4 n
2 3
x x m!
(1 + x)m = 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · + xn + · · · para − ∞ < x < ∞
2 3! n!(m − n)!
La expansión binomial
Por lo frecuente y su uso, consideremos el caso de la expansión binomial
X∞ X∞
x2 x3 m! m
(1 + x)m = 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · = xn = xn
2 3! n!(m − n)! n
n=0 n=0
m
donde el término se denomina el coeficiente binomial y la serie termina cuando m = n. Ahora bien,
n
escrito de la formas compactas de la derecha se sugiere que el exponente m tendrı́a que ser entero y positivo.
Pero no es ası́. La serie explı́cita de la izquierda no se restringe a valores enteros y positivos de m. Por ello
la forma compacta pero exacta de la expansión binomial.
x m x m(m − 1) x 2 m(m − 1)(m − 2) x 3 X∞
Γ(1 + m) x n
1+ = 1+m + + +· · · =
a a 2 a 3! a n=0
Γ(1 + n)Γ(1 + m − n) a
Donde hemos utilizado la función Γ(x) como la generalización del factorial para valores que no se restringen
a enteros positivos. Cuando m es un entero positivo tendremos Γ(1 + m) = m!. Nótese también que si el
m
exponente es negativo, 1 + xa tiene una singularidad o un polo en x = −a
∂ ∂ ∂2 ∂2 ∂2
fx = = ∂x ; fy = = ∂y ; fxx = = ∂xx ; fxy = = ∂xy ; fyy = = ∂yy ; ···
∂x ∂y ∂x2 ∂x∂y ∂y 2
7.3.1. Completitud de E ∞
La primera idea de completitud de un Espacio de Hilbert E ∞ tiene que ver con el hecho que, en en ese
espacio, donde la norma de un vector es finita kak2 = ha |ai < ∞, la combinación lineal de los elementos de
n→∞
una base infinita, {|ei i}, converja al vector |ai. Esto es ai |ei i −→ |ai.
n
Para el caso de E es inmediato que, dada una base (ortonormal, por ejemplo)
La norma es finita, por cuanto es la suma de términos finitos (las componentes del vector (a1 , a2 , a3 , · · · an )).
Sin embargo, para el caso de E ∞ las componentes del vector serán función de las sumas parciales, esto es
Es decir que, efectivamente, componente a componente el vector |an i converja al vector |ai. El criterio de
convergencia de Cauchy, en este caso significa que: dadas dos sumas parciales (desarrollos parciales en una
determinada base infinita {|ei i}) |an i = ai |ei i con i = 1, 2, · · · n y |am i = aj |ej i con j = 1, 2, · · · m entonces
k |am i − |an i k = k |am i − |ai − |an i + |ai k ≤ k |ai − |an i k + k |ai − |am i k < ǫ′ + ǫ′′ ≡ ǫ
con lo cual las diferencias en las sumas parciales serán siempre menor que un 0 < ǫ < 1. Nótese que hemos
utilizado la desigualdad triangular kx + yk ≤ kxk + kyk, y esa misma desigualdad triangular nos garantiza
que
∞
X
|ajn − ajm |2 ≤ |ajn − ajm |2 ≡ k |am i − |an i k2 < ǫ
j=1
vale decir, hemos demostrado que el término j−esimo (y con ello todas las componentes del vector) de una
n→∞ n→∞
suma parcial, converge al término correspondiente de la serie lı́mite. Esto es ajn −→ ajm −→ aj por lo tanto
que las combinación lineal converge al vector y nos queda por demostrar si su norma es finita, o lo que es lo
mismo, ha |ai = ai ai < ∞ con i = 1, 2, 3, · · · ∞. Es claro que
M
X ∞
X
|ajn − ajm |2 ≤ |ajn − ajm |2 ≡ k |am i − |an i k2 < ǫ
j=1 j=1
PM
con lo cual si m → ∞ tendremos que j=1 |ajn − aj |2 < ǫ y si ahora hacemos
∞
X ∞
X ∞
X
M →∞ ⇒ |ajn − aj |2 < ǫ ⇒ ha |ai = |aj |2 ≡ |aj + ajn − ajn |2
j=1 j=1 j=1
Es, otra vez, la misma afirmación que consideramos en el caso de un espacio finito dimensional, E n en el
cual demostramos que una base {|ui i} con i = 1, 2, 3, · · · , n expandı́a todo el espacio.
Si adicionalmente existe una función cuadrado integrable, L2[a,b] definidas en el intervalo [a, b], la cual
pueda ser aproximada por la base
∞
X N
X Z b N
X
k |f i k2 ≡ hf |f i < ∞ ⇒ |f i = ci |ui i ∼ ci |ui i ⇔ kf (x)k2 ≡ dx|f (x)|2 ⇒ f (x) ∼ cj uj (x)
i=0 i=0 a j=0
Nótese que hemos supuesto la existencia de un producto interno y si las bases son ortonormales tendremos
que
Z b Z b Z b ∞
X
∗
k ∗k k 2
hg |f i ≡ dx g (x)f (x) ⇒ u |ul i ≡ dx u (x)ul (x) = δl ⇒ kf (x)k ≡ dx|f (x)|2 = |cj |2
a a a j=0
donde Z b
ck = dx u∗k (x)f (x)
a
Para demostrar que E ∞ es completo, comenzamos por demostrar la llamada Desigualdad de Bessel.
Esta es: dada una base ortonormal infinita, {|ui i} ⇔ {ui (x)} para un espacio vectorial de Hilbert, E ∞ , de
Rb
funciones cuadrado integrable f (x) ∈ L2[a,b] , con un producto interno definido por hg |f i ≡ a dx g ∗ (x)f (x),
entonces se cumple que
∞
X Z b Z b
2 2 k
k ∗k
kf (x)k ≥ |ck | con c = u |f i = dx u (x)f (x) ∧ hg |f i ≡ dx g ∗ (x)f (x)
k=1 a a
Para demostrar la desigualdad de Bessel, partimos de una afirmación obvia en espacios finito dimensionales
Si definimos el error, Mn , que se comete al aproximar una función con su expansión hasta
un término
n−simo como Mn (b − a) ≡ k |f i − αi |ui i k2 demostraremos que Mn es mı́nima si αi = ci = ui |f i Para ello
procedemos como es costumbre, partiendo de la definición que acabamos de hacer y nos concentramos en el
caso finito dimiensional
0 ≤ Mn (b − a) ≡ k |f i − αi |ui i k2 = k |f i − (αi − ci ) |ui i − ck |uk i k2
Desarrollando
Mn (b − a) = hf | − (αk∗ − c∗k ) uk − c∗k uk |f i − (αi − ci ) |ui i − ci |ui i
n
X
=k |f i k2 − c∗i (αi − ci ) − 2c∗i ci − (αk∗ − c∗k )ck + kαj − cj k2 + (αk∗ − c∗k )ck + c∗i (αi − ci ) + c∗i ci
j=1
" n
# n
X X
= k |f i k2 − kci k2 + kαj − cj k2
i=1 j=1
Pero la desigualdad de Bessel garantiza que la cantidad entre corchetes es positiva, por lo tanto Mn es
mı́nima (y la denotaremos M̃n ) cuando seleccionamos αj = cj . Más aún M̃n decrece cuando n → ∞, vale
decir
n
X ∞
X
n→∞
M̃n (b − a) = k |f i k2 − kci k2 =⇒ M̃∞ (b − a) = k |f i k2 − kci k2
i=1 i=1
Con lo cual enumeraremos las condiciones para la cual exigiremos que una función pueda ser expresada en
términos de una base completa de funciones.
Para la demostración de este teorema puede consultar [Byron y Fuller 1970, Cushing 1975]. Sin embargo la
aceptación de este teorema nos permitirá desarrollar las secciones que siguientes...
con P0 (x) = 1.
Es decir
P0 (x) = 1 P1 (x) = x
5
P2 (x) = 1 − 3x2 P3 (x) = x − x3
3
3 35 4 15 2 63 5 35 3 15
P4 (x) = + x − x P5 (x) = x − x + x
8 8 4 8 4 8
.. ..
. .
no se requiere hacer ninguna integral por cuanto los coeficientes an se determinan a través de un sistema de
ecuaciones algebraicas. Para el caso de f (x) = x2 tendremos
Z 1 Z 1
r
1−x
hPk |Fi = f (x)Pk (x)dx = Pk (x)dx
−1 −1 2
la expansión en series de Legendre quedarı́a cómo
r ∞
1−x 2 X Pn (x)
= P0 (x) − 2
2 3 n=1
(2n − 1) (2n + 3)
Antes de entrar en el detalle de las propiedades de estos polinomios, hay que enfatizar que los Polinomios
de Legendre constituyen la única base ortogonal para un espacio de Hilbert con un producto interno definido
como el producto simple de funciones en el intervalo cerrado. Al ortonormalizar mediante Gram Schmidt
la base 1, x, x2 , x3 , · · · , xn , · · · del espacio de polinomios, P n , de grado n en el intervalo [−1, 1], con el
R1
producto interno definido por hf | gi = −1 dx f (x) g (x) . se obtienen los polinomios de Legendre.
Los polinomios de Legendre surgen, originalmente, como soluciones a la ecuación diferencial ordinaria del
tipo
d2 Pn (x) dPn (x)
(1 − x2 ) − 2x + n(n + 1) Pn (x) = 0
dx2 dx
Vale decir
n Ecuación de Legendre Solución
d2 P0 (x) dP0 (x)
0 (1 − x2 ) dx2 − 2x dx =0 P0 (x) = 1
(1−x2 ) { Pβ (x)Pα (x)′′ − Pα (x)Pβ (x)′′ }−2x {Pβ (x)Pα (x)′ − Pα (x)Pβ (x)′ }+{α(α + 1) − β(β + 1)} Pβ (x)Pα (x) = 0
El primer término de la ecuación se anula en los extremos y es fácil comprobar que los polinomios de Legendre
|Pα i = Pα (x) son mutuamente ortogonales con un producto interno definido como
Z 1
hPα |Pβ i = Pα (x)Pβ (x)dx ∝ δαβ
−1
Relación de Recurrencia
Conocido esto se puede generar una relación de recurrencia. Supongamos que conocemos todos los poli-
nomios de Legendre hasta Pn (x) y queremos generar el próximo. Obviamente el ese polinomio será de grado
n + 1 y nos plantemos generarlo a partir de xPn (x) ası́ como los estos polinomios son base del espacio de
funciones, entonces
n+1
X hPk |xPn i
xPn (x) = |xPn i = |Pk i
hPk |Pk i
k=0
en donde Z 1
hPk |xPn i = hxPk |Pn i = Pn (x)xPk (x)dx = 0
−1
para k < n − 1. Sobreviven entonces tres términos
hPn−1 |xPn i hPn |xPn i hPn+1 |xPn i
|xPn i = xPn (x) = |Pn−1 i + |Pn i + |Pn+1 i
hPn−1 |Pn−1 i hPn |Pn i hPn+1 |Pn+1 i
y dado que Z Z
1 1
hPn |xPn i = Pn (x)xPn (x)dx = xPn2 (x)dx ,
−1 −1
es una función impar, entonces hPn |xPn i = 0. Entonces
hPn−1 |xPn i hPn+1 |xPn i
|xPn i = xPn (x) = |Pn−1 i + |Pn+1 i
hPn−1 |Pn−1 i hPn+1 |Pn+1 i
Es decir
xPn (x) = APn+1 (x) + BPn−1 (x)
desarrollando con la fórmula de Rodrı́guez el coeficiente de orden k del lado izquierdo es
1 (2k)!
2k(2k − 1) · · · [2k − (k − 1)] = k
2k k! 2 (k!)2
mientras que el primer término del lado izquierdo, hasta orden k − 2 queda como
(2k − 2)!
2k (k− 2)!(k − 1)
por lo cual
n+1
A=
2n + 1
De igual forma se determina B igualando coeficientes a orden n − 1 y queda la relación de recurrencia:
(n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x)
(2n + 1) Pn (x)nPn (x) = (2n + 1) Pn (x) [(2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x)]
(2n − 1) Pn−1 (x) (n + 1) Pn+1 (x) = (2n − 1) Pn−1 (x) [(2n + 1) xPn (x) − nPn−1 (x)]
para la cual
los Pn (x) son los coeficientes de su desarrollo en series de potencias. Esta serie converge para
2xt + t2
< 1. Para demostrar que el desarrollo en serie de la función G(t, x) tiene como coeficientes a los
Pn (x) partimos de que:
1 ∂P(t, x) t−x
P(t, x) = √ ⇒ = 3/2
1 − 2xt + t2 ∂t (1 − 2xt + t2 )
por lo cual
∂P(t, x)
(t − x) P(t, x) + 1 − 2xt + t2 =0
∂t
y, consecuentemente
∞
X ∞
X
(t − x) Pn (x) tn + 1 − 2xt + t2 nPn (x) tn−1 = 0 .
n=0 n=1
por lo tanto
∞
X
P1 (x) − x P0 (x)+ 2P2 (x) − 3xP1 (x) + P0 (x) t+ (n + 1) Pn+1 (x) − (2n + 1) xPn (x) + nPn−1 (x) tn = 0
| {z } | {z } n=1
| {z }
=0 =0 =0
El primero de los términos se cumple siempre por cuanto P0 (x) = 1 y P1 (x) = x. El tercer término conforma
la relación de recurrencia para los polinomios de Legendre. Con esto queda demostrado que el desarrollo en
series de potencias de la función generatriz, tiene como coeficientes a los polinomios de Legendre.
La función generatriz muestra su utilidad en la expansión
r ∞
1 − x X hPk |Fi
f (x) = = |Pk i
2 hPk |Pk i
k=0
• Forma autoadjunta ′
(1 − x2 ) y ′ + λ(λ + 1) y = 0
• En coordenadas esféricas con u = Pn (cos θ)
1 d du
sen θ + λ(λ + 1)u = 0
sen θ dθ dθ
√
• En coordenadas esféricas con u = sen θPn (cos θ)
" 2 #
d2 u 1 1
+ λ+ + u=0
dθ2 2 4 sen2 θ
El potencial será
∞
X n !
q d
V = [Pn (cos θ) − Pn (− cos θ) ]
r n=0
r
donde todos los términos pares de Pn (cos θ) se anula y finalmente tendremos la expresión del potencial para
cualquier punto del plano
∞ 2n+1 !
2q X d
V = P2n+1 (cos θ)
r n=0 r
Entonces nos quedamos con el primer término de la serie, si
d q
≪1 ⇒ V ≈ 2d cos θ
r r2
Otra vez, para este producto interno, si ortogonalizamos con Gram-Schmidt se obtienen los polinomios de
Hermite. Al igual que el resto de los polinomios ortogonales, existe una fórmula de Rodrigues para los
polinomios de Hermite
2 d
n 2
Hn (x) = (−1)n ex n
e−x
dx
H0 (x) = 1, H1 (x) = 2x
2
H2 (x) = 4x − 2, H3 (x) = 8x3 − 12x,
H4 (x) = 16x4 − 48x2 + 12 H5 (x) = 32x5 − 160x3 + 120x.
.. ..
. .
Entonces el conjunto de estas funciones forman un espacio vectorial Euclideano I2w con un producto interno
definido por Z ∞
2
hg|f i= e−x f (x)g(x)dx
−∞
Las funciones f (x) y g(x) se denominan cuadrado-integrables respecto al peso w. Es por ello que denotamos
el espacio de funciones como I2w
Teorema 2
Si f (x) es una función continua arbitraria en I2w entonces puede ser aproximada por un polinomio en ese
mismo espacio. Es decir
Z ∞ 1/2
2 2
lı́m kf (x) − pn (x)k = lı́m e−x [f (x) − pn (x)] dx =0
n→∞ n→∞ −∞
Ası́, la expresión de una función arbitraria en la base de los polinomio de Hermite se reduce a
∞
X ∞
X hHk |f i
f (x) = | f i = ak |Hk i = |Hk i
hHk |Hk i
k=0 k=0
donde R∞ 2 Z
hHk | f i −∞
e−x f (x)Hk (x)dx 1 ∞
2
ak = = R∞ = k
√ e−x f (x)Hk (x)dx
hHk |Hk i −∞
e−x2 Hk2 (x)dx 2 k! π −∞
entonces
Z ∞
1 2
a2k = 2k √ e−x x2p H2k (x)dx (7.2)
2 (2k)! π −∞
Z ∞
1 d2k −x2
= √ x2p e dx
22k (2k)! π −∞ dx2k
Una integración por partes estratágica muestra que:
( ∞ Z ∞ )
1 2p d
2k−1
−x2 2p−1 d
2k−1
−x2
a2k = 2k √ x e − 2px e dx
2 (2k)! π dx2k−1 −∞ −∞ dx2k−1
El primer término de la resta se anula siempre debido a la defición de los polinomios de Hermite
∞ ∞
2p d
2k−1
−x2 2p 2k−1 −x2
x e = x (−1) e H 2k−1 (x)
dx2k−1 −∞ −∞
entonces Z ∞
1 2
+1)x2
a2k = 2k
√ e−(a H2k (x)dx
2 (2k)! π −∞
Sustituyendo H2k (x) por su expresión integral tendremos
Z ∞ " 2 Z ∞
#
2k+1
1 −(a2 +1)x2 2 (−1)k ex −t2 2k
a2k = 2k √ e √ e t cos 2xt dt dx
2 (2k)! π −∞ π 0
Z Z ∞
2(−1)k ∞ −a2 x2 −t2 2k
= e e t cos 2xt dt dx
π(2k)! −∞ 0
Z Z
2(−1)k ∞ −t2 2k ∞
−a2 x2
≡ e t e cos 2xt dx dt
π(2k)! 0 −∞
Z r
2(−1)k ∞ −t2 2k π −t2 /a2
= e t e dt =
π(2k)! 0 a2
Z ∞
2(−1)k 2 −2
=√ e−t (1+a ) t2k dt
π(2k)!a 0
Z ∞
(−1)k a2k 1
=√ e−s sk− 2 ds ← t2 (1 + a−2 ) = s
π(2k)! (1 + a2 )k+1/2 0
(−1)k a2k 1
=√ Γ k +
π(2k)! (1 + a2 )k+1/2 2
y ahora usando, otra vez la propiedad de “duplicación” de la función gamma,
1 √
22k Γ k + k! = π (2k)!
2
obtenemos
(−1)k a2k
a2k = k+1/2
22k k! (1 + a2 )
por lo tanto
∞
X
2
x2 (−1)k a2k
f (x) = e−a = k+1/2
H2k (x)
k=0 22k k! (1 + a2 )
Al igual que los polinomios de Legendre, los de Hermite, surgen tambián en sus orı́genes como soluciones a
la ecuación diferencial ordinaria del tipo
d2 Hn (x) dHn (x)
− 2x + nHn (x) = 0
dx2 dx
Vale decir
X∞
2xt−t2 H2 (x) 2 H3 (x) 2 Hn (x) n
H(t, x) = e = H0 (x) + H1 (x) t + t + t + ··· = t
2 3! n=0
n!
para la cual los Hn (x) son los coeficientes de su desarrollo en series de potencias. Es fácil darse cuenta que
esta expresión proviene del desarrollo en Serie de Taylor
X∞
2 1 ∂ n H(t, x)
H(t, x) = e2xt−t = n
tn ktk < ∞
n=0
n! ∂t t=0
para lo cual
∂ n H(t, x) 2 ∂ n −(x−t)2 n 2 dn −(u)2
= ex e = (−1) ex e = Hn (x)
∂tn t=0 ∂tn t=0 dun u=x
Relación de Recurrencia
A partir de la función generatriz se puede construir la siguiente identidad
∂H(t, x)
= (2x − 2t) H
∂t
y utilizando el desarrollo en series de potencias en t tendremos,
X∞ X∞ ∞
Hn (x) n−1 Hn (x) n X Hn (x) n+1
nt − 2x t + t =0
n=1
n! n=0
n! n=0
n!
X∞
1
Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) tn = 0
n=0
n! | {z }
=0
y encontrar una relación para generar las derivadas de los polinomios de Hermite en término de ellos mismos:
Finalmente, utilizando la ecuación anterior en la relación de recurrencia y derivando esa expresión una vez
más, queda como:
con lo cual queda demostrado que los polinomios de Hermite son una solución particular de esa ecuación
diferencial.
y ′′ − 2xy ′ + 2ny = 0,
Donde hemos hecho y = Hn (x) Adicionalmente, haciendo un cambio cosmático podremos demostrar que
2
y = e−x /2 Hn (x) es solución de la ecuación diferencial autoadjunta
y ′′ + 2n + 1 − x2 y = 0
ya que ∞
2
e−x /2
(2α Hα−1 (x)Hβ (x) − 2β Hβ−1 (x)Hα (x)) =0
−∞
Para encontrar el valor de la norma, procedemos a partir de la relación de recurrencia
2
restando miembro a miembro, multiplicando por e−x e integrando entre (−∞, ∞) se obtiene
Z ∞ Z ∞
−x2 2 2
e Hα (x)dx = 2α e−x Hα−1
2
(x)dx
−∞ −∞
Obtenemos Z ∞
2 2 √
hHα |Hα i = kHα k = e−x Hα2 (x)dx = 2n n! π
−∞
La forma de llegar a cualquiera de estas últimas fórmulas se parte de las conocidas integrales desarrolladas
en el plano complejo Z ∞
2 2 2
e−x = √ e−t cos 2xt dt
π −∞
se deriva 2n veces a ambos miembros se utiliza la definición de los polinomios de Hermite.
y se mantenemos la normalización
Z ∞ µω 1/4 1
ψn2 (ξ)dξ = 1 con cn = √
−∞ π~ 2n n!
Jacobi: JacobiP(n, a, b, x)
donde n indica el orden del polinomio y x la variable con la cual se expresa. También existen varias bibliotecas
o paquetes que presentan facilidades para manipular polinomios ortogonales. Entre ellas podemos mencionar
OrthogonalSeries Paquete que permite manipular series de polinomios ortogonales. Permite expresar
una función polinómica como serie de polinomios ortogonales, multiplicar, sumar, derivar, cambiar de
base de polinomios, entre otras
> restart;with(OrthogonalSeries) :
> poli := 1+2*x+3*x^3 +4*x^5;
> S1 := ChangeBasis(poli,ChebyshevT(n,x)) ;
> S2 := ChangeBasis(poli,HermiteH(n,x)) ;
> S3 := ChangeBasis(S1,HermiteH(n,x));
with(numapprox):
chebyshev(cos(x), x);
Cuadro 7.1: Propiedades genéricas de los Polinomios Ortogonales, Nn indica la norma del polinomio de grado
2α+β+1 Γ(n + α + 1)Γ(n + β + 1)
n. En el caso de los polinomios de Jacobi, la norma es Nn = con
2n + α + β + 1 n!Γ(n + α + β + 1)
α > −1 y β > −1
Haremos ahora un catálogo de las propiedades más resaltantes de estos polinomios. En el cuadro 7.1
resumimos las propiedades más resaltantes, com lo son: la función peso en el producto interno, el intervalo
en el cual están definidas estas fuciones y su norma.
Relaciones de Recurrencia
También se pueden formular, de manera genérica las realciones de recurrencia. Obviamente, las relaciones
de recurrencia también constituyen una forma alternativa de ir construyendo los polinomios ortogonales. Ası́,
un polinomio ortogonal genérico, pn (x), cumplirá
pn+1 (x) = (an + xbn )pn (x) − cn pn−1 (x)
El cuadro 7.4 contiene las expresiones de los coeficientes para construir las relaciones de recurrencia genera-
lizadas para cada uno de los polinomios
Polinomio an bn cn
2n + 1 n
Pn 0
n+1 n+1
Tn 0 2 1
Un 0 2 1
Hn 0 2 2n
2n + 1 1 n
Ln −
n+1 n+1 n+1
2n + 1 + α 1 n+α
Lα
n −
n+1 n+1 n+1
Cuadro 7.4: Funciones para determinar la Relación de Recurrencia Generalizada
Las funciones generatrices no son exclusivas de los polinomios ortogonales. Como veremos más adelante,
existen funciones generatrices para las funciones de Bessel.
Polinomio Cn G(x, t)
1
Pn 1 √
1 − 2xt + t2
1 − t2
Tn 2 +1
1 − 2xt + t2
1
Un 1
1 − 2xt + t2
1 2
Hn e2xt−x
n!
1n 2
H2n cos(2xt)et
(2n)!
1n 2
H2n+1 sen(2xt)et
(2n + 1)!
1 − 1−t xt
Ln 1 e
1−t
1 xt
Lα
n 1 e− 1−t
(1 − t)α
Cuadro 7.6: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios
ortogonales
puntos. También podemos a ajustar la función a todo el conjunto de puntos experimentales y, en ese caso el
máximo grado del polinomio que los ajuste será de grado n − 1. Para encontrar este polinomio lo expresamos
como una combinación lineal de Polinomios de Legendre. Esto es
y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 )
n−1
X
y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 )
P(x) = f (x) = Ck Pk (x) ⇒ ..
.
k=0
yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn )
que no es otra cosa que un sistema de n equaciones con n incógnitas: los coeficientes {C0 , C1 , · · · Cn−1 } Al
resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la función polinómica que
intermpola esos puntos. Una expansión equivalente se pudo haber logrado con cualquier otro conjunto de
polinomios ortogonales, que ellos son base del espacio de funciones. Es importante hacer notar que debido
a que los polinomios de Legendre está definido en el intervalo [−1, 1] los puntos experimentales deberán
re-escalarse al ese intervalo para poder encontrar el polinomio de interpolación como combinación lineal de
los Polinomios de Legendre.
Consideremos los puntos experimentales representado en la figura 7.3. Al construir el sistema de ecua-
ciones obtendremos
−8 + C0 − C1 + C2 − C3 + C4 − C5 =0
3 1 9 51 477
−10 + C0 − 5 C1 + 25 C2 + 25 C3 − 125 C4 + 3125 C5 =0
1 11 7 29 961
−11 + C0 − 5 C1 − 25 C2 + 25 C3 + 125 C4 − 3125 C5 =0
1 11 7 29 961
−18 + C0 + 5 C1 − 25 C2 − 25 C3 + 125 C4 + 3125 C5 =0
3 1 9 51 477
−20 + C0 + 5 C1 + 25 C2 − 25 C3 − 125 C4 − 3125 C5 =0
−34 + C0 + C1 + C2 + C3 + C4 + C5 =0
y al resolver el sistema obtendremos que
2249 3043 1775 175 625 14375
C0 = , C1 = , C2 = , C3 = − , C4 = , C5 =
144 336 504 216 336 3024
con lo cual
2249 3043 1775 175 625 14375
P(x) = f (x) = + x+ P (2, x) − P (3, x) + P (4, x) + P (5, x)
144 336 504 216 336 3024
la interpolación queda representada en al figura 7.3.
Es importante señalar que mientras más puntos experimentales se incluyan para la interpolación, el
polinomio resultante será de mayor grado y, por lo tanto incluirá oscilaciones que distorcionarán una apro-
ximación más razonable. Por ello, la estrategia de hacer la interpolación a trozos, digamos de tres puntos en
tres puntos, generará un mejor ajuste, pero será una función (un polinomio) contı́nuo a trozos.
Cuadratura de Gauss-Legendre
Una de los usos más comunes de los polinomios ortogonales es para aproximar funciones, en particular
integrales que requieren ser resueltas numéricamente. La idea es aproximar una integral, para una funcion
f (x), definida en el intervalo [a, b] y suficientemente bien comportada, por una suma finita de términos
ck f (xk ) y estimar el error que cometemos en esta aproximación. Esto es
Z b N
X
f (x)dx = ck f (xk ) + EN
a k=1
Nótese que la intención es utilizar la función a integrar evaluada en un conjunto de puntos estratégicos para
los cuales están definidos unos coeficientes, también inteligentemente seleccionados. Es decir se requieren 2N
números (ck y los xk con k = 1, 2, · · · N ). Más aún, esas 2N cantidades pueden ser seleccionadas de forma
tal que la aproximación es exacta EN = 0 cuando f (x) es un polinomio de grado ≤ 2N − 1
Supongamos, para empezar que la función f (x) está definida para x ∈ [−1, 1]8 y por lo tanto los polinomios
ortogonales que seleccionaremos para aproximar la integral (y la función) serán los del Legendre (igual
pudimos haber utilizado los polinomios de Tchebychev), con lo cual
X∞ Z 1 Z
1 1 1
f (x) = ak Pk (x) donde, como siempre ak = n + dx f (x)Pk (x) y a0 = dx f (x)
2 −1 2 −1
k=0
“ ” “ ”
8 ésta b−a b+a
no es una limitación muy severa porque siempre podemos hacer un cambio de variable del tipo x = 2
t+ 2
y convertir cualquier intervalo cerrado [a, b] en un intervalo cerrado [−1, 1]
Con lo cual
Z N N ∞
! ∞ N
!
1 X X X X X
f (x)dx ≈ ck f (xk ) = ck an Pn (xk ) = an ck Pn (xk )
−1 k=1 k=1 n=0 n=0 k=1
quedan todavı́a por determinar los pesos ck y los puntos xk . Para ello procedemos de la siguiente forma.
Notamos que PN (x) tiene N raı́ces, x = xj , en el intervalo −1 ≤ x ≤ 1. Entonces, si seleccionamos esos
puntos x = xj para evaluar la función f (xk ) se anulan el coeficiente para el término aN y, además podremos
encontrar los pesos ck resolviendo el sistema de N ecuaciones de la forma
N
X N
X N
X
cj P0 (xj ) = cj = 2 ∧ cj Pk (xj ) = 0 para k = 1, 2, · · · N − 1
j=1 j=1 j=1
donde los Pk (xj son los distintos polinomios evaluados en las raı́ces del polinomio de grado N , i.e. PN (xj ) = 0
Se puede demostrar que la solución de este sistema provee los pesos escritos de la forma
2
cj = !2
dPN (x)
(1 − x2j )
dx x=xj
pero como
Z 1 Z 1 N
X
1
a0 = dx f (x) ⇒ dx f (x) = ck f (xk ) − EN
2 −1 −1 k=1
Es decir, demostramos que es posible aproximar la integral del la función con un promedio pesado de la
función evaluada en unos puntos estratégicos. Los puntos estratégicos son los ceros del polinomio de Legendre
de grado igual al número de puntos con los cuales se quiere aproximar la función y los pesos vienen de resolver
las ecuaciones para los coeficientes de la expansión.
En el cuadro 7.7 se ilustran los valores de los puntos de interpolación y sus pesos correspondientes.
Es inmediato comprobar que si f (x) es un polinomio de grado ≤ N − 1 la aproximación es exacta y el
error es nulo. Pero lo que realmente hace útil a este tipo de aproximaciones es que también será exacta para
polinomios de grado ≤ 2N − 1. Esto se puede ver si expresamos un polinomio de grado 2N − 1 como la suma
de dos polinomios
f (x) = PN (x)Y1 (x) + Y2 (x)
donde Y1 y Y2 son polinomios de grado N − 1. Entonces, al integrar miembro a miembro
Z 1 Z 1 Z 1
dx f (x) = dx PN (x)Y1 (x) + dx Y2 (x)
−1 −1 −1
| {z }
=0
el primer término se anula por ser PN (x) ortogonal a cualquier polinomio de grado inferior, y el segundo
término no es más que el caso que analizamos anteriormente de un polinomio de grado ≤ N − 1
2
N xj = fsolve(P(N,x),x,complex) cj = !2 2N − 1
dPN (x)
(1 − x2j )
dx x=xj
2 ±0,5773502692 1,0 3
3 0,0 0,88888889 5
±0,7745966692 0,55555555
4 ±0,3399810436 0,65214515 7
±0,8611363116 0,34785485
5 0,0 0,56888889 9
±0,5384693101 0,47862867
±0,9061798459 0,23692689
6 ±0,2386191861 0,46791393 11
±0,6612093865 0,36076157
±0,9324695142 0,17132449
.. .. .. ..
. . . .
donde las {x1 , · · · xk , · · · xN } son los ceros del polinomio ortogonal, de grado N , pN (x), elegido para hacer
esta aproximación. Los N pesos {c1 , · · · ck , · · · cN } surgen de resolver el sistema de ecuaciones
N
X Z b N
X
h0
cj = con h0 = w(x)p20 (x)dx ∧ cj Pk (xj ) = 0 para k = 1, 2, · · · N − 1
j=1
p20 a j=1
Ası́ para aproximar integrales con funciones pesos, w(x), utilizaremos cuadraturas adaptadas a los polinomios
ortogonales. Esto es
Z ∞ Z ∞ Z 1
−x −x2 f (x)
dx e f (x) ⇒ Laguerre dx e f (x) ⇒ Hermite dx √ ⇒ Tchebychev
0 −∞ −1 1 − x2
Figura 7.4: Expansiones de Varias funciones en sumas parciales de Series de Fourier. Tomado de Eric
W. Weisstein. Fourier Series. MathWorld–A Wolfram Web Resource. http://mathworld.wolfram.com/
FourierSeries.html
Es claro que {|u1 i , |u2 i , |u3 i · · · , |un i , · · · } es un conjunto de funciones ortogonales por cuanto
R 2π
0 dx sen nx sen mx = 0
R
0 si n 6= m 2π
dx cos nx sen mx = 0
0
R 2π dx cos nx cos mx = 0
0
2
hun |um i = δnm k|un ik ⇒ R 2π
dx = 2π
0
R
2
k|un ik si n = m 2π
dx cos2 nx = π
0
R 2π dx sen2 nx = π
0
con l = 1, 2, 3, · · · también. Por lo tanto, podremos construir una base ortonormal de funciones
{|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } de la forma
1 1 1
|e0 i = √ , |e2n i = √ cos nx y |e2n−1 i = √ sen nx.
2π π π
Tal y como se muestra en la figura 7.4 disntintas funciones pueden ser expandidas con sumas parciales de
Fourier. A diferencia de las series de potencias, que imponen que las funciones a ser expandidas deben ser
contı́nuas y contı́nuamente diferenciables en el intervalo, la series de Fourier pueden representar funciones
contı́nuas a trozos, siempre y cuando cumplan con algunas condiciones.
Por lo tanto cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base
como
R 2π
√1 dx f (x) = c0 ≡ a0 si i=0
2π 0
∞
X R 2π
|f i = ci |ei i ⇒ ci = hei |f i = √1 dx f (x) cos(nx) = c2n ≡ am si i = 2n
π 0
i=0
R 2π
√1
π 0
dx f (x) sen(nx) = c2n−1 ≡ bm si i = 2n − 1
La figura 7.4 muestra la aproximación de las distintas sumas parciales para distintas funciones. A medida
que aumentamos el número de términos la aproximación mejora. Nótese que hemos utilizado F (x) ≡ F∞ (x)
para indicar el lı́mite de la suma parcial FN (x) para n = N de la expresión de una función f (x) expresada
en series de Fourier.
Pero más aún, podemos expresar la expansión de una serie de Fourier de manera más compacta atenden-
diendo a las expresiones anteriores. Esta expresión se conoce en algunos ámbitos como la expresión integral
para la series de Fourier
Z 2π
1
F (x) = √ dt f (t)
2π 0
X∞ Z 2π Z 2π
= + dt f (t) cos(nt) cos(nx) + dt f (t) sen(nt) sen(nx)
n=1 0 0
Z 2π ∞ Z
X 2π
1
F (x) = √ dt f (t) + dt f (t) cos(n(t − x))
2π 0 n=1 0
También es muy común expresar una serie de Fourier en término de una base compleja. Vale decir
· · · |φ̃k i · · · ↔ {· · · e−ikx · · · } con k = 0, ±1, ±2, · · · . Con lo cual
∞
X ∞
X Z π
hφ̃k |f i 1
|f i = C̃k |φ̃k i ≡ C̃k e−ikx con C̃k = = dx e−ikx f (x)
hφ̃k |φ̃k i 2π −π
k=−∞ k=−∞
Utilizando esta otra expresión podremos reescribir (una vez más) la expresión de una suma parcial de la
Serie de Fourier. Dado que
Z
1 π
an cos(nx) + bn sen(nx) = dt f (t) cos(n(t − x))
π −π
tendremos que
n n Z
a0 X a0 X 1 π
Fn (x) = + (ak cos(kx) + bk sen(kx)) = + dt f (t) cos(n(t − x))
2 2 π −π
k=1 k=1
"Z #
π n1 X n o
= ℜ dt f (t) + e−i(t−x)k
−π 2
k=1
Este tipo de relaciones se denomina transformación integral y en particular ésta es una de las expresiones
de las llamadas Transformaciones de Fourier las cuales trataremos más adelante en la sección 7.5.6.
univaluada y contı́nua a trozos (contı́nua menos, en un número finito de puntos) con un número finito
de máximos y mı́nimos
R T /2
la integral −T /2 dx|f (x)| debe ser convergente. Donde [−T /2, T /2] quiere indicar el intervalo de defi-
nición de una función con perı́odo T .
Podemos formalizar un poco más las condiciones de Dirichlet en el llamado Teorema de Fourier.
9 Johann Peter Gustav Lejeune Dirichlet 1805 - 1859 Matemático Alemán con importantes contribuciones en Teorı́as
Teorema de Fourier
Sea f (x) una función en el intervalo −π ≤ x ≤ π y definida para el resto de la recta real tal que cumpla
con f (x + 2π) = f (x). Es decir f (x) es 2π−periódica. Supongamos además que existe
Z π Z π
1
dx f (x) con lo cual C̃k = dx e−ikx f (x) con k = 0, ±1, ±2, · · · .
−π 2π −π
y si |f (x)| está acotada para un intervalo [a, b] con −π < a ≤ x ≤ b < π, entonces
X∞
1
F (x) = C̃k e−ikx es convergente al valor F (x) = lı́m f (x + ǫ) + lı́m f (x − ǫ)
2 ǫ→0+ ǫ→0−
k=−∞
Ondas Cuadradas
Para empezar, el caso de una función muy conocida en el ámbito de los circuitos eléctrico. Una onda
cuadrada
−1 si − 21 T ≤ t < 0 Z T2 Z T2
2 2πnt 4 2πnt
f (t) = ⇒ bn = dt f (t) sen = dt f (t) sen
T − T2 T T 0 T
+1 si 0 ≤ t ≤ 12 T
Figura 7.5: Un par de funciones, definidas con un perı́do T , a ser expresadas en como expansiones en Series
de Fourier. En los cuadrantes
I y II, encontramos una onda cuadrada. La primera (cuadrante I) definida en
un intervalo − T2 , T2 y en el cuadrante II la misma función definida en un intervalo (0, T ). El cuadrante III
ilustra las aproximaciones de la serie de Fourier para n = 3, 7, 20, mientras que el espectro de potencia se
presenta en el cuadrante IV. La onda “diente de sierra”, definida en un intervalo (0, T ), se presenta en el
cuadrante V. Sus aproximaciones en series de Fourier para n = 3, 7, 10 se pueden observar en el cuadrante
VI, mientras que el espectro de potencia en el cuadrante VII.
los coeficientes pares b2n se anulan y además hemos denotado ω = 2π/T . Al definir la función ω podemos
interpretar los coeficientes de Fourier an , bn como las contribuciones de cada uno de los armónicos an , bn →
ωn = 2nπ/
T . A partir de estas contribuciones se construye el espectro de potencia, el cual está prelacionado
con la energı́a que aporta cada uno de estos armónicos. Por ello construimos un ı́ndice En = a2n + b2n y
graficamos En vs n tal y como se puede comprobar en la figura 7.5, cuadrantes IV y VII. Se encuentra que
se puede asociar un espectro de potencia a cada señal y con lo cual realizar una especie de identificación.
En este punto podemos hacernos un par de preguntas
¿ qué´hubiera pasado si en vez de considerar el intervalo − T2 , T2 hubieramos considerado (0, T ) ?
¿ tendrı́amos el mismo desarrollo en serie de Fourier ?
¿ el mismo espectro ?
Justifique sus respuestas.
En este caso son los términos impares los que se anulan. Adicionalmente, nótese que para n par, los coeficientes
pares también se anulan, Otra vez, si hacemos a = 3 y T = 2 → ωn = nπ tendremos la serie
3 12 cos (π t) 4 cos (3 π t) 12 cos (5 π t) −T T
f (x) = − − − + ··· con ≤t≤
2 π2 3π 2 25 π2 2 2
Función cuadrática
Otro caso, complementario al anterior por sus propiedades de simetrı́a, es la expansión en series de Fourier
de la función f (x) = x2 para −π < x < π. Entonces los coeficientes se la expansión serán
R
1 π 2π 2
a = dx x2
=
0 π −π 3
f (x) = x2 ⇒
R n
an = 2 π dx x2 cos(nx) = 4(−1)
π 0 π 2 n2
ya que los coeficientes correspondientes a los términos impares bn se anulan. Con lo cual
X∞
π2 (−1)n cos(nx)
x2 = +4
3 n=1
n2
Nótese que como un resultado particular, al evaluar en x = π, se tiene la función zeta de Riemann ζ(2)
X∞ X∞
π2 1 1 π2
π2 = +4 2
⇒ ζ(2) ≡ =
3 n=1
n n=1
n2 6
Pero este caso se presta también para considerar funciones no periódicas. Supongamos que queremos
desarrollar la expansión de Fourier para f (x) = x2 pero en este caso con 0 < x < 2. Si este fuera el caso,
empezamos por suponer que la función tienen un perı́odo, digamos T = 4. Esto es −2 ≤ x ≤ 2. Con lo cual
Z Z
2 2 4 2 8
a0 = dx x2 = dx x2 =
4 −2 4 0 3
Z Z 2 πnx
2 2 2πnx 4 16 16
an = dx x2 cos = dx x2 cos = 2 2 cos nπ = 2 2 (−1)n
4 −2 4 4 0 2 π n π n
Con lo cual tendremos que
4 X∞
(−1)n πnx
x2 = + 16 cos para 0 < x ≤ 2
3 n=1
π 2 n2 2
Figura 7.6: Aproximación por series de Fourier para la función escalón {f (x) = 0 para −∞ < x < 1 y f (x) =
1 para x ≥ 0} Las curvas corresponden a sumas parciales de Fourier: F40 (x), F100 (x), F200 (x),
El Fenómeno de Gibbs
Pero también se muestra en esa figura 7.6 que, tanto por la izquierda como por la derecha la discontinuidad
de la función escalón, las sumas parciales de Fourier oscilan y no convergen a los valores x±0 . El comporta-
miento oscilante de las sumas parciales de Fourier alrdedor de las discontinuidades, que no desaparecen ni
en el lı́mite se denominan fenómeno de Gibbs en honor a su descubridor Josiah Willard Gibbs10
Para entender qué pasa en la discontinuidad consideremos una variación de la onda cuadrada considerada
anteriormente (7.5.3). Entonces sus sumas parciales serán
1 si 0 ≤ t < π 1
n
2X 1
c
f (t) = ⇒ F2n (x) = + sen((2k − 1)x)
2 π 2k − 1
0 si π ≤ t < 2π k=1
porque los coeficientes pares (an ) se anulan. Para estudiar el fenómeno de Gibbs reescribimos la suma parcial
anterior de una manera ingeniosa
n Z t Z n
! Z
c 1 2X 1 2 t X 1 1 t sen(2ns)
F2n (t) = + ds cos(2k − 1)s = + ds cos(2k − 1)s = + ds
2 π 0 2 π 0 2 π 0 sen(s)
k=1 k=1
donde, utilizando la fórmula de Moivre y convirtiendo esa serie de cosenos en una de exponenciales la cual,
10 Josiah Willard Gibbs 1839 - 1903 Algunos lo consideran el primer Fı́sico Norteamericano, de hecho fue el primero en
recibir un tı́tulo de doctorado por una universidad norteameicana (Yale University). Hizo importantes aportes en electromagne-
tismo y sobre todo en termodinámica y fı́sica estadı́stica, sentando las bases matemáticas para estas disciplinas. En matemáticas
es conocido su estudio de las oscilaciones de las expansiones de las series de Fourier en los puntos de discontinuidad. Más detalles
http://www-history.mcs.st-and.ac.uk
Teórica. En matemáticas es conocido inventar la transformada rápida de Fourier. Más detalles en http://www-history.mcs.
st-and.ac.uk/Biographies/Lanczos.html
Con lo cual hemos identificado el factor σ de Lanczos. Siguiendo este mismo proceso se puede generalizar
para cualquier función de tal modo que una serie de Fourier genérica podrá ser corregida con un factor σ
para lograr
n−1
" # n−1
a0 X sen kπ n a0 X
F̄n (x) = + kπ
(ak cos(kx) + b k sen(kx)) ≡ + σk (ak cos(kx) + bk sen(kx))
2 n
2
k=1 k=1
2nπ
donde hemos definido ω = T . Ahora bien, podemos hacer T → ∞ con lo cual [−T /2, T /2] → [−∞, ∞]
pero además
R T /2 Z
2π ω −T /2
dt f (t) ∞
T →∞ ⇒ = = ∆ω → dω y además →0 ya que dt f (t) existe y es acotada.
T n T −∞
De este modo, la transformada de Fourier de una función y su inversa, pueden escribirse como
Z ∞ Z ∞
1 −iωt −1 1
F (ω) ≡ F[f (t)] = √ dt e f (t) ⇔ f (t) ≡ F [F (ω)] = √ dω eiωt F (ω)
2π −∞ 2π −∞
Propiedades
Las transformada de Fourier cumplen con las siguiente propiedades, las cuales de derivan de la definición
arriba expuesta
1. Las transformada de la derivada F[f ′ (t)] = iωF (ω) y en general F[f n (t)] = in ω n F (ω). Esta propiedad
es más o menos inmediata a partir de la definición integrando por partes
Z ∞ Z ∞
1 1 ∞ iω
F[f ′ (t)] = √ dt eiωt f ′ (t) = √ eiωt f (t)−∞ + √ dt eiωt f ′ (t)iωF (ω)
2π −∞ 2π 2π −∞
2. La transformada de la integral
Z t
1
F ds f (s) = F (ω) + 2πcδ(ω)
iω
donde la función (distribución) δ(ω) se denomina delta de Dirac y el término 2πcδ(ω) representa la
transformada de la constante de integración
3. Escalamiento F[f (at)] = a1 f ( ωa )
4. Traslación F[f (t + a)] = eiaω F (ω)
5. Multiplicación por un exponencial F [eαt f (t)] = f (ω + iα)
la intención ahora será utilizar la transformada de Fourier para construir la generalización de bases discretas
a continua |wα i de tal forma que transformamos el ı́ndice de la sumatoria en la variable de una integral
Z
|Ψi = dα c (α) |wα i
donde Z Z
c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β)
con en la cual δ (α − β) es una Delta de Dirac. Ası́, los dos conceptos expresados hasta ahora tienen una
expresión:
Ilustraremos esta generalización con la construcción de la base de ondas planas. Hemos visto que la
transformada compleja de Fourier compleja para una función, se puede escribir como
Z ∞ Z ∞
F (s) = dt ei st f (t) ⇄ f (t) = ds e−i st F (s)
−∞ −∞
por lo cual Z Z
∞ ∞
ψ (x) = dp vp (x) ψ̄ (p) ⇄ ψ̄ (p) = dx vp∗ (x) ψ (x)
−∞ −∞
Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) = √ 1 ei px/~
2π~
Nótese
Que las proyecciones de ψ (x) sobre la base de ondas planas es ψ̄ (p) = hvp | ψi
Un para de ejemplos
Un ejemplo inmediato lo tenemos al considerar la función
Z 1 1
1 si |t| < 1 1 1 e−iω − eiω 2sen ω
f (t) = ⇒ F (ω) = √ dt 1 e−iωt = √ = √2πω
0 el resto 2π −1 2π −iω −1
el otro ejemplo de uso lo podremos construir a si consideramos la ecuación diferencial inhomogénea y bus-
camos su solución
Z 1
dφ(x) 2 1 dφ(x) 2
− K φ(x) = f (x) ⇒ √ dt − K φ(x) e−iωt = F (ω)
dx2 2π −1 dx2
donde F (ω) es la transformada de Fourier de la función f (x). Utilizando las propiedades de la transformada
de Fourier obtenemos que
Z 1
1 dφ(x) −iωt ˜ = F (ω) ⇒ −k 2 φ(ω) ˜ = F (ω) ⇒ φ(ω)
˜ − K 2 φ(ω) ˜ = − F (ω)
√ dt e − K 2 φ(ω)
2π −1 dx2 k2 + K 2
Como solución formal de la ecuación diferencial resulta sencilla y el método también es inmediato. El punto
crucial es la solución del la integral que resulta de la transformación inversa. Normalmente este tipo de
integrales no son tratables de manera analı́tica. Pero siempre queda el recurso numérico.
kT
Consideremos los siguientes 2N puntos tk = 2N y probaremos que las funciones e2πiptk /T y e2πiqtk /T
serán ortogonales ∝ δqp en un conjunto esos puntos tk . Esto es
1 − r2N
2N
X −1 h i 2πiqtk
2πiptk ∗
2N
X −1
2πistk
2N
X −1 = 0 r 6= 1
e T e T = e T =
2πisk
e 2N = 1−r
k=0 k=0 k=0 2N r=1
kT
donde hemos sustituido s = q − p, y evaluado en los puntos tk = con k = 1, 2, 3, · · · , 2N − 1. Nótese
2N
que la última de las series es una serie finita y geométrica con razón r = e(πis)/N , que comienza con 1 y por
lo tanto suma (dependiendo del valor de r) lo que aparece en la llave. Es inmediato convencerse que, para
todo N se cumple que r2N = e2πis = 1 (con s entero) con lo cual se cumple la relación de ortogonaliadad
que buscamos
2N
X −1 h i 2πiqtk
2πiptk ⋆
e T e T = 2N δqp con k = 1, 2, 3, · · · , 2N − 1 (7.3)
k=0
2πm
Si hacemos un ligero cambio de notación y llamamos ωm = tendremos algunos cambios, en apariencia,
T
cosméticos
2N −1 2N −1
2πimtk 1 X 1 X
e± T → e±ωm tk ⇒ F (ωm ) = f (tk )e±ωm tk ⇔ f (tk ) = F (ωm )e±ωm tk (7.4)
2N 2N m=0
k=0
La función F (ωm ) representa la tranformada discreta de Fourier de la f (tk ). Para despejar la función f (tk )
hemos utilizado la relación de ortogonalidad 7.3
Consideremos el siguiente f (tk ) = cos tk evaluado en un perı́odo T = 2π y dividido, digamos en N = 2
intervalos. Los puntos en los cuales evaluaremos nuestra serie serán 2N = 4, vale decir
kT kπ 2πm eiωm tk eimkπ/2
tk = ≡ con k = 0, 1, 2, 3 ⇔ ωm = ≡m ⇒ ≡
2N 2 T 2N 2N
nótese que la función f (tk ) puede ser escrita como un vector f (tk ) = (1, 0, −1, 0), con lo cual para encotrar
la expresión de su tranformada discreta de Fourier, F (ωm ), podemos expresar la suma como una matriz de
transformación con ı́ndices m, k. Esto es
1 1 1 1
eimkπ/2 1 1 i −1 −i
⇔
2N 4 1 −1 1 −1
1 −i −1 0
con lo cual
F (ω0 ) 1 1 1 1 1 0
2N −1
1 X F (ω1 ) 1 1 i −1 −i 0 1 1
F (ωm ) = f (tk )e±ωm tk ⇒
F (ω2 ) = 4
=
2N 1 −1 1 −1 −1 2 0
k=0
F (ω3 ) 1 −i −1 0 0 1
Respecto a la ecuación 7.4 se deben puntualizar varios elementos
2πm
la frecuencia angular ωm = corresponde a lo que en Fı́sica se denomina el espacio recı́proco (al
T
temporal), espacio de frecuencias u ω-espacio. Por ello la función F (ωm ) está expresada en este espacio
de frecuencias, mientras que la función f (tk ) en el de tiempos.
[Richards 2002] Richards, D. (2002) Advanced Mathematical Methods with MAPLE (Cambridge
University Press Cambridge)
[Riley Hobson y Bence 2002] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for
Physics and Engineering (Cambridge University Press Cambridge)
[Weisstein URL] Weisstein, E. W., MathWorld http://mathworld.wolfram.com/
302
Capı́tulo 8
La Variable Compleja
303
Métodos Matemáticos de la Fı́sica
o cuadrático
x = 2i
x2 + 4 = 0 =⇒ =⇒ (x + 2i) (x − 2i)
x = −2i
√
nos lleva a definir un número i2 = −1 ⇔ i = −1 como vimos arriba al multiplicar el número imaginario
i por cualquier número real obtendremos el número imaginario puro bi, con b ∈ ℜ. La nomenclatura números
imaginarios surgió de la idea de que estas cantidades no representan mediciones fı́sicas. Esa idea ha sido
abandonada pero el nombre quedó.
Obviamente los números reales serán a + i0 números complejos con su parte imaginaria nula. Los números
imaginarios puros serán números complejos con su parte real nula, esto es 0 + ib. Por ello en general diremos
que
z = a + ib =⇒ a = Re (z) ∧ b = Im (z)
es decir, a corresponde a la parte real de z y b a su parte imaginaria.
Cada número complejo, z, tendrá un número complejo conjugado, z ∗ tal que
z = a + ib ⇋ z ∗ = a − ib
⇓
∗ ∗
(z ) = z ∧ z · z ∗ = a2 + b2
claramente
z · z∗ ≥ 0 =⇒ |z|2 = |z ∗ |2 = z · z ∗
Es importante señalar que, en general, no existe relación de orden entre los números complejos. Vale
decir, que no sabremos si un número complejo es mayor que otro. No está definida esta operación.
z1 ≯ z2 ∨ z 1 ≮ z2
las relaciones de orden sólo se podrán establecer entre módulos de números complejos y no números complejos
en general.
Rápidamente recordamos el álgebra de los números complejos:
dos números complejos serán iguales si sus partes reales e imaginarios lo son
se suman dos números complejos sumando sus partes reales y sus partes imaginarias.
se multiplican números complejos por escalares multiplicando el escalar por sus partes reales e imagi-
narias
z3 = αz1 =⇒ α (a1 + ib1 ) = (αa1 ) + i (αb1 )
se multiplican números complejos entre si, multiplicando los dos binomios y teniendo cuidado que
i2 = −1.
z3 = z1 z2 =⇒ (a1 + ib1 ) · (a2 + ib2 ) = (a1 a2 − b1 b2 ) + i (a1 b2 + b1 a2 )
∗
también es inmediato comprobar que (z1 z2 ) = z1∗ z2∗
se dividen números complejos siguiendo la estrategia de racionalización de fracciones irracionales. Esto
es
z1 (a1 + ib1 ) (a1 + ib1 ) (a2 − ib2 ) a1 a2 + b1 b2 b1 a2 − a1 b2
z3 = =⇒ = = +i
z2 (a2 + ib2 ) (a2 + ib2 ) (a2 − ib2 ) (a22 + b22 ) (a22 + b22 )
es claro que el divisor será cualquier número complejo excepto el cero complejo, 0 + i0
z = (a + ib) ⇌ z = (a, b)
las propiedades entre números complejos de igualdad, suma y multiplicación por un escalar arriba expuestas se
cumplen de forma inmediata con esta nueva representación. Hay que definir las operaciones de multiplicación
y división entre números complejos de forma que
(a1 , b1 ) a1 a2 + b1 b2 b1 a2 − a1 b2
(a1 , b1 ) (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + b1 a2 ) ∧ = ,
(a2 , b2 ) (a22 + b22 ) (a22 + b22 )
Esta asociación de un número complejo con una pareja de números inmediatamente nos lleva a imaginar
un punto en un plano (complejo) en el cual la primera componente (horizontal) representa la parte real
y la segunda componente (vertical) representa la parte imaginaria. De esta forma asociamos a un número
complejo un vector que une a ese punto (a, b) con el origen del plano complejo. Esta representación de
números complejos como vectores un el plano (complejo), se conoce con el nombre de Diagrama de Argand1
1 En honor a Jean Robert Argand, (Ginebra, Suiza, 18 Julio 1768; Paris, Francia 13 agosto 1822) Contador pero matemático
aficionado. Propuso esta interpretación de números complejos como vectors en un plano complejo en un libro autoeditado con
sus reflexiones que se perdió y fue rescatado 7 años después, fecha a partir de la cual Argand comenzó a publicar en Matematicas.
Más detalles en http://www-groups.dcs.st-and.ac.uk/\char126\relaxhistory/Mathematicians/Argand.html
a pesar que no fue Jean Argand, sino Caspar Wessel2 el primero en proponerlo. Por cierto esta interpretación
fue tres veces redescubierta primero por Caspar Wessel en 1799, luego por Jean Argand en 1806 y finalmente
por Gauss3 en 1831.
De esta manera como un recordatorio al plano real
√ p
∗ 2 2
r = zz = |z| = x + y
z = x + iy ⇌ z = r (cos θ + i sin θ) con
tan θ = y donde − π ≤ θ ≤ π
x
La interpretación vectorial de números complejos permite que la suma de números complejos sea representada
por la “regla del paralelogramo”. Mientras que los productos escalar y vectorial nos llevan a
n 1 dn f (x)
f (x) = Cn (x − x0 ) con Cn = donde n = 0, 1, 2, 3, 4 · · ·
n! d xn x=x0
2 Caspar Wessel (Vestby, Noruega 8 junio 1745; 25 marzo 1818, Copenhagen, Dinamarca) Matemático noruego que se
dedicó principalemente al levantamiento topográfico de Noruega. Su trabajo sobre la interpretación de números comple-
jos permaneció desconocido por casi 100 años. Más detalles http://www-groups.dcs.st-and.ac.uk/\char126\relaxhistory/
Mathematicians/Wessel.html
3 Johann Carl Friedrich Gauss (30 abril 1777, Brunswick, Alemania; 23 febrero 1855, Göttingen, Alemania). Uno de los
mátemáticos más geniales y precoces de la Historia. Desde los 7 años comenzó a mostrar sus condiciones de genialidad. Sus
contribuciones en Astronomı́a y Matemáticas son múltiples y diversas. Más detalles http://www-groups.dcs.st-and.ac.uk/
\char126\relaxhistory/Mathematicians/Gauss.html
4 Brook Taylor (18 agosto 1685, Edmonton, Inglaterra; 29 diciembre 1731, Londres, Inglaterra) Fı́sico y Matemático Inglés
contemporaneo de Newton y Leibniz y con ellos participó profundamente en el desarrollo del cálculo diferencial e integral.
Además de sus aportes al magnetismo, capilaridad y termometrı́a. Desarrolló el área de diferencias finitas que hasta hoy
utilizamos para cálculos en computación. Inventó la integración por partes y descubrió la serie que lleva su nombre. Más
detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians/Taylor.html
1 1 1 6
cos x = 1 − x2 + x4 − x + ······
2 24 720
1 1 5 1 7
sin x = x − x3 + x − x + ······
6 120 5040
Es fácil convercerse que
iθ 1 2 1 3 1 4 1 5 1 6 1
e = 1 + iθ − θ + − i θ + θ + iθ − θ + − i θ7 + · · · · · ·
2 6 24 120 720 5040
esta relación se conoce como la relación de Euler 5 . Con lo cual ahora tenemos tres formas de representar
un número complejo
z = x + iy ⇌ z = r (cos θ + i sin θ) ⇌ z = reiθ
La expresión z = x + iy se conoce como forma cartesiana de representación de un número complejo,
la forma z = r (cos θ + i sin θ) será la forma trigonométrica y la expresión z = eiθ será la forma de Eu-
ler. Las sumas de números complejos son más fácilmente planteables en su forma cartesiana. Mientras las
multiplicación y división serán directas en la forma de Euler
z1 = r1 eiθ1
=⇒ z1 z2 = r1 eiθ1 r2 eiθ2 = r1 r2 ei(θ1 +θ2 ) = r1 r2 (cos (θ1 + θ2 ) + i sin (θ1 + θ2 ))
iθ2
z2 = r 2 e
Más aún, si
z = x + iy =⇒ ez = e(x+iy) = ex eiy = ex (cos y + i sin y)
y a partir de la relación o fórmula de Euler se puede demostrar la fórmula de De Moivre 6
n n
eiθ = einθ ⇌ (cos θ + i sin θ) = cos (nθ) + i sin (nθ) con n entero
5 Leonhard Euler (15 abril 1707, Basilea, Suiza; 18 septiembre 1783, San Petersburgo, Rusia). Uno de los matemáticos más
prolı́ficos de todos los tiempos. Desarrolló inmensamente campos como la geometrı́a analı́tica y trigonometrı́a, siendo el primero
que consideró el coseno y el seno como funciones. Hizo aportes significativos en el desarrollo del cálculo diferencial e integral
ası́ como también, astronomı́a, elasticidad y mecánica de medios contı́nuos. Más detalles http://www-history.mcs.st-andrews.
ac.uk/Mathematicians/Euler.html
6 Abraham de Moivre (26 mayo 1667 in Vitry-le-François, Francia; 27 noviembre 1754, Londres Inglaterra) Matemático
francés que tuvo que emigrar a Inglaterra por razones religiosas. Contemporaneo de Newton, Liebniz, Halley, fue pionero con
sus contribuciones en Geometrı́a Analı́tica y Teorı́a de Probabilides.
f (z) = u(x, y) + iv(x, y) con u(x, y) la parte real y v(x, y) la parte imaginaria (8.1)
Esta representación tiene una interpretación adicional. Como representamos un número complejo en el plano
0xy como z = x + iy, pero w = f (z) también podrá ser representada como un punto en el plano 0uv.
Entonces, desde el punto de vista geométrico una función de variable compleja podrá ser entendida como
una ley de transformación entre pares de puntos (x, y) del plano 0xy del argumento z y los puntos (u, v) del
plano 0uv de valor w.
f (z) = u(x, y) + iv(x, y) con u(x, y) y v(x, y) contı́nuas en (x0 , y0 ) ⇒ f (z) contı́nua en z0 = x0 + iy0
f (z + ∆z) − f (z) (u(x + ∆x, y + ∆y) − u(x, y)) + i (v(x + ∆x, y + ∆y) − v(x, y)) df
lı́m = lı́m = = f ′ (z)
∆z→0 ∆z ∆x,∆y→0 ∆x + i∆y dz
existe y es única. Una vez más, al igual que en el caso de funciones de varias variables, el concepto de lı́mite
(y con éste el de derivada), debe existir sin importar la ruta o forma de aproximación al punto sobre el cual
7A partir de ahora y por razones de simplicidad llamaremos a f (z) función compleja en vez de función de variable compleja
Un par de ejemplos que ilustran este caso pueden ser f (z) = x2 − y 2 + 2ixy
con lo cual desarrolle y pruebe que, independientemente de la ruta en el plano complejo (∆y = 0; ∆x → 0 o
viceversa)
(∆x)2 − (∆y)2 + 2i∆x∆y
f ′ (z) = lı́m 2x + i2y + = 2x + i2y
∆x,∆y→0 ∆x + i∆y
que es más o menos obvio si hubiéramos notado que f (z) = x2 − y 2 + 2ixy = (x + iy)2 ≡ z 2 con lo cual
Ahora bien, las cosas no siempre son ası́. Si consideramos f (z) = 2x + iy es rápido comprobar que no es
diferenciable en el plano complejo, ya que
el cual, claramente no coincide si las direcciones de aproximación a z0 = x0 + iy0 son distintas, vale decir,
por ejemplo ∆y = 0; ∆x → 0 o ∆x = 0; ∆y → 0.
Como heredamos todas las ideas y métodos del campo real se cumplen todas las reglas de la derivación
para funciones reales. Vale decir
Ejercicio Como ejercicio al lector le sugerimos investigar los dominios del plano complejo para los cuales
las funciones f (z) = |x| − i|y| y f (z) = |z|2 = zz ∗ son analı́ticas
es decir, hemos demostrado que las partes reales e imaginarias de una función analı́tica son necesariamente
armónicas. La importancia de este resultado radica, en primer lugar, que no son arbitrarias las funciones
u(x, y) y v(x, y) con las cuales construimos f (z). Ambas deben satisfacer la ecuación de Laplace. En segundo
lugar que ambas están ligadas por las condiciones de Cauchy-Riemann, y esto implica que al conocer una
de las funciones armónicas conjugadas, siempre es posible encontrar (salvo una constante de integración) la
otra. Para ilustrar lo anterior, supongamos la siguiente función armónica conjugada u(x, y) = 2x − x3 + 3xy 2
correspondiente a la parte real de f (z). Es fácil comprobar que es una función armónica, ahora construyamos
la parte imaginaria v(x, y). Esto es
∂u(x, y) ∂v(x, y)
u(x, y) = 2x − x3 + 3xy 2 ⇒ = = 2 − 3x2 + 3y 2 ⇒ v(x, y) = 2y − 3x2 y + y 3 + φ(x)
∂x ∂y
entonces
∂v(x, y) ∂φ(x) ∂u(x, y) ∂φ(x)
= −6xy+ = −6xy = − ⇒ = 0 ⇒ φ(x) = C ⇒ v(x, y) = 2y−3x2 y+y 3 +C
∂x ∂x ∂y ∂x
La segunda curiosidad consecuencia de las ecuaciones (8.2) es que para una función compleja genérica
f (z) = u(x, y) + iv(x, y) en la cual además se cumpla que u(x, y) = const y v(x, y) = const entonces se
cumplirá que ∇u(x, y) · ∇v(x, y) = 0.
∂u(x, y) ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y)
∇u(x, y)·∇v(x, y) = i+ j · i+ j = +
∂x ∂y ∂x ∂y ∂x ∂x ∂y ∂y
en otras palabras, la funciones analı́ticas son verdaderas funciones de variable complejas y no, como pudiera
parecer, de dos variables reales interpuestas.
Ejercicios
1. Determine la función f (z) analı́tica cuya parte imaginaria es (y cos y + xsen z)ex
2. Muestre que si f (z) es analı́tica entonces f ∗ (z ∗ ) también lo es.
Dónde hemos utilizado la forma polar para un número complejo z = reiθ . La conclusión
P∞ más importante de
n
(8.3) es
P∞ que siempre es posible asociarle a una serie de potencias complejas, a
n=0 n z , una de potencias
reales n=0 |an |rn . La convergencia (absoluta) de ésta última condiciona la convergencia de la primera. Por
ello los criterios de convergencia de series reales serán aplicables también en este contexto.
Dónde R se denomina el radio de convergencia y define una región cı́rcular en torno a un punto z0 .
Si seleccionamos el criterio del cociente de Dálembert, entonces
|z| < R =⇒
converge
an+1 z n+1 an+1
lı́m = |z| lı́m entonces, en las regiones |z| > R =⇒ diverge
n→∞ an z n+1 n→∞ an
|z| = R =⇒ indeterminado
Por lo tanto, cuando R = ∞ la serie converge en todo punto y en contraste si R = 0, sólo converge en el
origen. Por su parte si R = R0 la serie converge en una región (un cı́rculo) del plano complejo de radio R0
centrada en z0 = 0.
Entonces se puede analizar el comportamiento de series complejas utilizando el criterio del cociente de
Dálembert,
∞
X zn n!
⇒ lı́m = lı́m 1 = 0 = 1 ⇒ R → ∞ ⇒ converge ∀ z ∈ C
n! n→∞ (n + 1)! n→∞ n + 1
R
n=0
8 Por simplicidad y economı́a consideraremos desarrollos en serie alrededor de z = 0, ya que la generalización a otros puntos
igualmente
∞
X (1 + i)n n(1 + i)n+1 n √ n √
⇒ lı́m
= |1+i| lı́m
= 2 lı́m ⇒ R = 1 ⇒ |z| = 2 > 1 = R
n n→∞ (n + 1)(1 + i)n n→∞ n+1 n→∞ n+1
n=0
y por lo tanto esta serie diverge. Es claro que esta serie únicamente convergerá para |z| < 1
con lo cual la expansión de una función analı́tica es en realidad una expansión en series de Taylor
X∞
f n (0) n
f (z) = z
n=0
n!
Con esta última afirmación se cierra la idea que nos hacemos de una función bien comportada o analı́ti-
ca. Es una función infinitamente contı́nua y contı́nuamente diferenciable, la cual puede ser expandida
en series de Taylor. Si bien los fenómenos fı́sicos no requieren, necesariamente, ser descritos por este
tipo de funciones, debido a sus notables propiedades han resultado ser una de las más estudiadas en
Matemáticas [Aleksandrov Kolmogorov y Lavrentiev 1999]. Más adelante, en la sección 8.9 revisaremos
estos conceptos a luz de la Fórmula Integral de Cauchy.
Los detalles de estas afirmaciones que son teoremas se pueden consultar en [Knopp 1996].
z2 z3 z4 zn
ez = 1 + z + + + + ··· + + ··· claramente R → ∞ con lo cual converge ∀ z ∈ C (8.5)
2 3! 4! n!
Como ejercicio puede ser interensante demostrar que ez1 ez2 = e(z1 +z2 ) . Vale decir
z2 zn z2 zn
ez1 ez2 = 1 + z1 + 1 + · · · + 1 + · · · 1 + z2 + 2 + · · · + 2 + · · ·
2 n! 2 n!
y mejor aún
z 2
1 z2 z z1 z2 z2 1 n! n!
ez1 ez2 = 1+ + + 1 + + 2 +· · ·+ z1n + z1n−1 z2 + · · · + z1 z2n−1 + z2n
1! 1! 2! 1! 1! 2! n! (n − 1)!1! 1!(n − 1)!
que no es otra cosa que la expansión binomial con lo cual hemos demostrado que ez1 ez2 = e(z1 +z2 ) . Adi-
cionalmente, con la expansión en serie (8.5) podemos hacer un par de extensiones inmeditas: az = ez ln a
y
para z = iy ⇒ eiy = cos y + isen y ⇒ ez = ex+iy = ex (cos y + isen y) (8.6)
Nótese que, como era de esperarse en general z = |z|eiθ , entonces la función f (z) = ez 6= 0 ∀ z y tiene un
perı́odo 2iπ, vale decir: f (z) ≡ f (z + 2iπ). Con lo cual es inmediado e2iπ = cos 2π + isen 2π A partir de la
construcción (8.5), se definen las funciones hiperbólicas y trigonométricas
1 z 1 z 1 iz 1 iz
cosh z = e + e−z ; senh z = e − e−z cos z = e + e−iz ; sen z = e − e−iz (8.7)
2 2 2 2i
Al igual que para el caso real y = ex ⇒ x = ln y entonces w = f (z) = ez ⇒ z = Ln w es decir
z = ln w es la función inversa para w = ez .
Si ew = z, y w = u + iv con z = x + iy ≡ |z|eiθ entonces
u
e = |z| ⇔ u = ln |z|
ew = eu+iv = eu eiv = |z|eiθ = z ⇒ ⇒ w = Ln z = ln |z| + i(θ + 2nπ)
v=θ
Ejercicios
1. Muestre que si definimos f (z)ez como aquella función que derivada es ella misma, que se reduce a la
función de variable real ez → ex si Im z = 0 y la cual, por ser analı́tica, cumple con la condiciones de
Cauchy-Riemann, entonces ez = ex+iy = ex (cos y + isen y)
2. Muestre que a partir de las definiciones (8.7) se obtienen las sempiternas propiedades de esas funciones,
vale decir
cos z = cos(−z); −sen z = sen (−z); cos(z1 ± z2 ) = cos z1 cos z2 ∓ sen z1 sen z2
d cos z d sen z
= −sen z = cos z sen (z1 ± z2 ) = cos z1 sen z2 ± sen z1 cos z2
dz dz
√ !
1 1 + zi 2 3 − 3i
3. Muestre que arctan z = ln y luego úselo para evaluar arctan
2i 1 − zi 7
f (z) = z 1/2 ≡ r1/2 eiθ/2 → f (z) = r1/2 eiθ/2 → r1/2 ei(θ+2π)/2 = −r1/2 eiθ/2
Visto ası́ nos tendremos que preguntar ahora cual fue el circuito que recorrimos con z, y dependiendo de ese
circuito identificaremos algunos puntos con caracterı́sticas distintas. Si el circuito cerrado descrito por z no
contiene el punto z = 0, la función f (z) = z 1/2 retoma su valor original (ver Figura 8.1 cuadrante superior
izquierdo contorno C1 ). Pero si, como se aprecia en la misma Figura 8.1, el circuito cerrado C2 si contiene
el punto z = 0 entonces la función no retoma su valor original, f (z) → −f (z). También es claro que si el
circuito cerrado lo recorremos dos veces θ → 4π entonces f (z) = z 1/2 retoma su valor inicial. Los puntos
alrededor de los cuales se construye un circuito cerrado en el diagrama de Argand y la función no retoma su
valor inicial se denominan puntos de corte y las lı́neas de corte (o simplemente cortes serán aquellas lı́neas
que separan regiones en las cuales una determinada función es univaluada. Es claro que los puntos de corte
son puntos singulares, en los cuales la función deja de ser analı́tica y existirán si θ toma, valores 0 ≤ θ ≤ 2nπ.
Es decir, puede dar n vueltas.
En este caso, para nuestra función f (z) = z 1/2 , la lı́nea de corte será cualquiera que comience en z = 0 y
continúe para |z| → ∞. Por simplicidad es costumbre tomar las lı́neas de corte a lo largo de los ejes reales o
complejos. De este modo aparece ilustrado en la Figura 8.1 cuadrante superior derecho la lı́nea de corte que
sigue el eje positivo de las x.
Figura 8.1: Los distintos contornos que identifican los puntos de corte
La situación se torna más interesante cuando estas definiciones se analizan a la luz de funciones con más
de un punto de corte. Consideremos la función
p p q
√ √
f (z) = z 2 + 1 ⇒ f (z) = (z − i)(z + i) ≡ (r1 eiθ1 ) (r2 eiθ2 ) = r1 r2 eiθ1 /2 eiθ2 /2 = r1 r2 ei(θ1 +θ2 )/2
analicemos entonces, varios contornos en el plano de Argand. Otra vez la Figura 8.1 ilustra en el cuadrante
inferior los distintos contornos C1 , C2 , C3 y C4 Tal y como se aprecia en esa figura, se dan cuatro caso
1. Contorno C1 no incluye ningún punto de corte, entonces θ1min ≤ θ1 ≤ θ1max y θ2min ≤ θ2 ≤ θ2max ,
con lo cual f (z) retoma su valor inicial luego de recorrer el C1
2. Contorno C2 incluye z = i como punto de corte, entonces 0 ≤ θ1 ≤ 2nπ y θ2min ≤ θ2 ≤ θ2max , por lo
cual f (z) → −f (z)
3. Contorno C3 incluye z = −i como punto de corte, entonces θ1min ≤ θ1 ≤ θ1max y 0 ≤ θ2 ≤ 2nπ, por lo
cual f (z) → −f (z)
4. Contorno C4 incluye ambos como punto de corte,z = i y z = −i, entonces 0 ≤ θ1 ≤ 2nπ y 0 ≤ θ2 ≤ 2nπ,
por lo cual f (z) → f (z) retoma su valor.
De este modo para construir los cortes que impidan que nuestra función se multivaluada podremos selecionar
zcorte > i y zcorte < −i
−i < zcorte < i
puntos en su entorno lo es (los puntos de corte no son singularidades aisladas). Una singularidad aisladas de
orden n en el punto z = z0 tendrá la forma
g(z)
f (z) = ↔ lı́m [(z − z0 )n f (z)] = l con l finito distinto de cero
(z − z0 )n z→z0
y donde g(z) es una función analı́tica. Es costumbre denominar a estas singularidades polos. Si l es cero,
será un polo de orden menor a n o la función es analı́tica en ese punto. Si el lı́mite es infinito, entonces el
polo será de orden mayor a n.
Sin demostración afirmaremos algo que parece intuitivo. Si una función f (z) tiene un polo en z = z0
entonces, |f (z)| → ∞ cuando z → z0
Si no se puede determinar un valor finito de n diremos que estamos frente a una singularidad esencial
Veamos algunos ejemplos
Para
1 1 2z
f (z) = − =
1−z 1+z (1 − z)(1 + z)
y es inmediato darse cuenta que tendremos polos de orden 1 en z = 1 y z = −1
Para
senh z exp z − exp(−z)
f (z) = tanh z = = ⇒ exp z = exp(i(2n + 1)π) exp(−z) es un polo
cosh z exp z + exp(−z)
1
es decir donde exp z = − exp(−z), con lo cual z0 = n + 2 iπ y al utilizar la definición
! !
z − n + 21 iπ senh z z − n + 12 iπ cosh z + senh z
lı́m = lı́m =1
z→(n+ 21 )iπ cosh z z→(n+ 12 )iπ senh z
1
donde hemos utilizado el Teorema de L’Hopital y consecuentemente z0 = n + 2 iπ es un polo simple
Existe otro tipo de singularidades conocidas como removibles. Estas singularidades se caracterizan porque
el valor de f (z) → 0/0 cuando z → z0 . El caso más emblemático es la función
sen z 1 z3 z5 z2 z4
f (z) = ⇒ f (z) = z− + ··· = 1 − + ··· ⇒ lı́m f (z) = 1
z z 3! 5! 3! 5! z→0
con lo cual, luego de desarrollar por Taylor la función sen z, se ha removido la singularidad aparente.
El comportamiento de una función compleja en infinito (o cuando tiende a infinito), vale decir cuando
z → ∞ no está tan bien definido como en los casos de funciones de variable real. Es claro como una cantidad
real, digamos |f (z)| o |z| tiende a infinito, pero z es una cantidad “bidimensional” y, en principio, existirı́an
varias formas de tender a infinito. Para precisar el comportamiento de una función compleja de variable
compleja en infinito, hacemos un cambio de variable z = 1/ξ y estudiamos f (1/ξ) con 1/ξ → ∞. De esta
manera
lı́mz→∞ z(1 + z 2 ) ≡ lı́mξ→0 1ξ + ξ13 con lo cual tendrá un polo de orden 3
P∞
lı́mz→∞ exp z ≡ lı́mξ→0 n=0 n! 1ξn y presenta una singularidad esencial para z → ∞
Los ceros de una función compleja (f (z0 ) = 0, entonces llamaremos z0 un cero de f (z)) se clasifican al
igual que los polos. Esto es
Figura 8.2: Tranformaciones conformes. Tomado de Eric W. Weisstein. Conformal Mapping. MathWorld–
A Wolfram Web Resource. http://mathworld.wolfram.com/ConformalMapping.html
Los ángulos entre dos curvas cualesquiera que se intersecten en el plano z serán los mismos que los que
formen las curvas transformadas en el plano w. Esto es los ángulos entre las curvas serán invariantes
bajo la transformación9
9 De esta propiedad es donde la transformación hereda su nombre de conforme. Son transformaciones isogonales es decir, que
preservan los ángulos entre curvas que se intersectan que son transformadas
Figura 8.3: Tranformaciones conformes. Cuadrante superior representa las conservación de ángulos y escala
bajo transformaciones y el inferior un ejemplo de transformaciones conforme
La segunda de las afirmaciones es inmediata a partir de la primera. Es decir, si una transformación conforme
de coordenadas tienen inversa y ambas són analı́ticas, es obvio que curvas contı́unas C(z) serán transformadas
˜
a curvas contı́nuas C(w).
El hecho que la transformación conforme preserva el ángulo y las escalas se muestra en la figura 8.3
y puede comprobarse de la siguiente manera. Considere dos curvas, C1 (z) y C2 (z), en el plano complejo
z = x + iy. Supongamos además que estas curvas se intersectan en un punto z = z0 . Entonces, sobre las
tangentes a cada curva, en z0 , definimos otros dos puntos z1 y z2 de tal forma que
z1 − z0 = ρeiθ1 w1 − w0 = ρ1 eiφ1
⇒
z2 − z0 = ρeiθ2 w2 − w0 = ρ2 eiφ2
Nótese que hemos construido los puntos z1 y z2 sobre las tangentes a z0 a la misma distancia ρ de z0
y, en principio, hemos supuesto que las distancias a los puntos transformados w1 y w2 (las cuales hemos
identificado como ρ1 y ρ2 , respectivamente), no son iguales. Ahora bien, dado que w = g(z) es analı́tica
entonces
dg(z) dw w1 − w0 w2 − w0 ρ1 ρ2
= = lı́m = lı́m ⇒ g ′ (z0 ) = lı́m exp i(φ1 −θ1 ) = lı́m exp i(φ2 −θ2 )
dz z=z0 dz z=z0
z1 →z0 z1 − z0 z2 →z0 z2 − z0 ρ→0 ρ ρ→0 ρ
Es claro que al comparar las magnitudes y las fase demostramos que las transformaciones conformes preservan
las distancias, ρ1 = ρ2 , y los ángulos (φ2 − φ1 ) = (θ2 − θ1 ). Adicionalmente, es muy fácil convecerse que si la
transformación conforme conserva los ángulos entre curvas y las escalas en todas direcciones las figuras son
transformadas en figuras equivalentes quizá ampliadas y rotadas, pero no deformadas.
Esto impone que si ℜf (z) = φ es constante en el plano (x, y), también lo será ℜF (w)Φ en (r, s) (¡ Demuéstrelo
!). Esta propiedad derivó una serie de aplicaciones en la solución de la ecuación de Laplace en dos dimensiones.
Si bien es una técnica elegante y útil cuando es posible, no deja de ser limitada porque se restringe a 2D.
Hoy los métodos numéricos para resolver ecuaciones diferenciales en derivadas parciales han superado con
creces este tipo de técnicas.
Los ejemplos son variados.
las siguientes transformaciones representan
y pueden ser combinadas como: w = az+b con a y b números complejos. Para la traslación es inmediado.
Para la rotación también si recordamos que z = |z|eiφ con lo cual w = |z|eiφ eiθ = |z|ei(φ+θ)
también la transformación de inversión w = 1/z que transforma los puntos del interior de un cı́rculo
1 1 1
unidad a su exterior y viceversa. Una vez más, w = = iφ
= e−iφ . Entonces es claro que
z |z|e z
como tranforman. Digamos z = i sobre el eje imaginario e imponemos que sea transformado a w = 0
entonces es inmediato determinar que z0 = i Por otro lado si imponemos que z = ∞ ⇒ w = 1 entonces
z−i
1 = w = eiθ ⇒ θ = 0 con lo cual w =
z+i
Rb Ra
a
dz f (z) = − b dz f (z)
Rb Rm Rb
a
dz f (z) = a dz f (z) + m dz f (z)
R
C
dz |f (z)| ≤ M L donde M = máx |f (z)| y L la longitud de C
Esta última propiedad es importante porque permite establecer cotas a las integrales complejas sin tener que
evaluarlas. De la definición de integral es casi inmediata la demotración
n Z z2 n n n
X X X X
lı́m f (ζj )∆zj = dz f (z) ⇒ f (ζj )∆zj ≤ |f (ζj )| |∆zj | ≤ M |∆zj | ≤ M L
n→∞ j=1
j=1 z1 j=1 j=1
Donde hemos utilizado que |f (ζj )| ≤ M y que la suma de los intervalos ∆zjR= zj − zj−1
esR la longitud L del
recorrido C. Es claro que tomando lı́mites a ambos miembros obtendremos C dz f (z) ≤ C dz |f (z)| ≤ M L
siguiendo dos lı́neas rectas entre los puntos (R, 0) → (0, R) → (−R, 0). En este caso, procedemos
utilizando la expresión cartesiana para los números complejos. Para ello, vamos a parametrizar z = z(t)
para (R, 0) → (0, R) y z = z(s) cuando (0, R) → (−R, 0). Veamos
Z z3 =(−R,0) Z z2 =(0,R) Z z3 =(0,−R)
dz z −1 = dz z −1 + dz z −1
z1 =(R,0) z1 =(R,0) z2 =(0,R)
con lo cual Z Z Z
z2 =(−R,0) 1 1
dz −1 + i −1 − i
= dt + ds
z1 =(R,0) z 0 1 + t(−1 + i) 0 i + s(−1 − i)
procedemos entonces con la primera de las integrales
Z 1 Z 1 Z 1 Z 1
(−1 + i)dt (−1 + i)((1 − t) − it)dt (2t − 1)dt dt
= 2 2
= 2
+ i 2
0 (1 − t) + it 0 (1 − t) − t 0 1 − 2t + 2t 0 1 − 2t + 2t
es decir
Z 1 1 1 π
(−1 + i)dt 1 1 t−
= ln(1 − 2t + 2t2 )0 + i arctan 2 = 0 + i π − −π =
(1 − t) + it 2 1 2 2 2 2
0 2 0
Es interesante notar que si regresamos al punto (R, 0) a través del contorno (−R, 0) → (0, −R) →
(R, 0) la integral cerrada se anula, no ası́ cuando nos regresamos a través el arco complementario de
circunferencia. En pocas palabras, como se esperaba, el valor de las integrales de camino, para algunas
funciones, dependeran del camino seleccionado. En la próxima sección veremos a cuáles funciones
corresponderá un mismo valor de la integral cerrada, independientemente del circuito que uno elija.
Queda como ejercicio al lector repetir los mismos pasos anteriores para el caso de f (z) = (z ∗ )−1
Otro ejemplo ilustrativo lo constituye
R 2π
I Z 2π Z 2π n = 0 : 0 dθ = 2iπ
dz Rieiθ dθ i
⇒ = n dθ e−inθ ⇒
(z − z0 )n+1 0 R n+1 ei(n+1)θ R 0 i
R 2π
n 6= 0 : Rn 0
dθ (cos nθ − isen nθ) = 0
donde hemos utilizado la forma polar z − z0 ≡ Reiθ e integrado a lo largo de una circunsferencia de
radio R centrada en z = z0
Antes que nada, y como parte de ese adiestramiento en lenguaje, precisaremos qué queremos decir (qué quie-
ren decir los matemáticos) con regiones simplemente conexa y múltiplemente conexa
Una región simplemente conexa es aquella que no tiene “huecos”, o dicho de una manera más precisa
y elegante, en la cual una curva Γ puede ser reducida (encogida) a un punto sin salir de la región R. En
la figura 8.5 cuadrante Ia se muestra una región simplemente conexa y en los cuadrantes Ib y Ic regiones
multiplemente conexas. Estas dos últimas figuras clarifican este concepto. Es decir, una región múltiplemente
conexa es aquella que no es simplemente conexa y con eso queremos decir que “tiene huecos”, o lo que es lo
mismo existen curvas que no se pueden reducir a puntos en la región.
10 Esta última condición no es necesaria, pero la demostración del Teorema se torna mucho más sofisticada, y referimos al
lector a los libros especializados, vale decir a las referencias [Churchill y Brown1989, Knopp 1996]
Tal y como hemos comentado la demostración rigurosa del Teorema de Cauchy está fuera de los alcances
de estas notas, pero algo se puede hacer si invocamos el Teorema de Stokes (o uno de los Teoremas de Green
en el plano) que vimos cuando estudiamos análisis vectorial. Con ello recordamos la ecuación (8.8), entonces
Z z2 Z x2 ,y2 Z x2 ,y2
dz f (z) = (u(x, y)dx − v(x, y)dy) + i (v(x, y)dx + u(x, y)dy)
z1 x1 ,y1 x1 ,y1
con lo cual, si una vez más suponemos f (z) = u(x, y) + iv(x, y) y dz = dx + idy, entonces tendremos que
I I Z Z
∂(−v) ∂(−u) ∂(u) ∂(−v)
(udx − vdy) + i (vdx + udy) = dxdy + +i dxdy + =0
C C R ∂x ∂y R ∂x ∂y
y acto seguido, como f (z) es analı́tica, invocamos las condiciones de Cauchy Riemann (ecuación (8.2)) y es
inmediato ver que se anula la integral de circulación.
R R
y como AF
dz f (z) = − F A dz f (z) entonces
Z Z I I
dz f (z) + dz f (z) = 0 ⇔ dz f (z) + dz f (z) = 0
ABDEA F GHF C1 C2
con lo cual se nota que para regiones múltiplemente conexas, a pesar que las circulaciones son opuestas,
el “observador” que circula por C1 y C2 siempre tiene la región R a su izquierda.
Siguiendo con la reflexión anterior, podemos invertir el sentido de la circulación en el contorno C2 con
lo cual I I I I
dz f (z) − dz f (z) = 0 ⇔ dz f (z) = dz f (z)
C1 C2 C1 C2
Es decir, que si f (z) es analı́tica en una región R, da igual cualquier recorrido por las fronteras de una
región y el valor de la integral permanecerá inalterado.
Más aún este resultado puede extenderse a regiones con n huecos de tal forma que, tal y como ilustra
en en la figura 8.5 cuadrante III
I Xn I
dz f (z) = dz f (z)
C1 j=1 Cj
Con lo cual estamos afirmando que, dada una región que contiene un número finito (¿ numerable ?) n
de singularidades, la integral a lo largo del contorno que encierra la región R es equivalente a la suma
de las integrales que encierran cada una de las n singularidades.
Enunciaremos sin demostración el Teorema de Morera11 , también conocido como el teorema inverso de
Cauchy.
Teorema
H de Morera: Si una función f (z) es continua en una región R encerrada por un contorno C y
C
dz f (z) = 0 entonces f (z) es analı́tica en R
Si z0 está fuera de la región, entonces f (z) esa analı́tica en R, con lo cual el Teorema de Cauchy
implica que I
dz f (z) = 0
C
Si z0 está dentro de la región, entonces f (z) no es analı́tica en R por cuanto existe una singularidad
z = z0 . Si consideramos C el contorno que bordea a R, como una circunsferencia centrada en z = z0 y
Γ otra circunsferencia que aisla a z0 con un radio |z − z0 | = ǫ (esta situación se ilustra en la figura 8.6
cuadrante I). Entonces, si hacemos z − z0 = z̃ = ǫeiθ el Teorema de Cauchy implica
I I Z 2π Z 2π
dz dz ǫieiθ dθ
= = = i dθ = 2iπ
C z − z0 Γ z − z0 0 ǫeiθ 0
Para probar esta afirmación supongamos, una vez más un circuito en encierra al polo z = z0 (ver figura 8.6,
cuadrante II). Con lo cual, como f (z) es analı́tica en una región, el Teorema de Cauchy nos garantiza
I I Z 2π Z 2π
1 f (z) dz 1 f (z) dz 1 f (z0 + reiθ )rieiθ dθ 1
= si z−z0 = reiθ ⇒ = f (z0 +reiθ )dθ
2iπ C z − z0 2iπ Γ z − z0 2iπ 0 reiθ 2π 0
Obvio que es válido para regiones múltiplemente conexas y es fácil demostrarlo. Se lo dejamos al lector
como ejercicio.
Si reacomodamos la expresión para la forma integral podemos hacer en esa fórmula es válida para todo
z I
1 f (ζ) dζ
f (z) =
2iπ C ζ − z
Más aún veremos que es fácil generalizar esta fórmula para derivdas de funciones, vale decir
I
(n) n! f (z) dz
f (z0 ) =
2iπ C (z − z0 )n+1
Veamos con el caso más sencillo y demostremos que para n = 1
I I
′ 1 f (z) dz ′ f (z0 + h) − f (z0 ) 1 f (z) 1 1
f (z0 ) = ⇒ f (z0 ) = lı́m = lı́m − dz
2iπ C (z − z0 )2 h→0 h h→0 2iπ C h z − z0 − h z − z0
tal y como se muestra en la figura 8.6, cuadrante III tenemos que
I I
′ 1 f (z) dz 1 f (z) dz
f (z0 ) = lı́m =
h→0 2iπ C (z − z0 − h)(z − z0 ) 2iπ C (z − z0 )2
Pero mucho más interesante hubiera sido “derivar respecto a una constante”. Este truco implica que
I I I
1 f (ζ) dζ (n) 1 ∂ n f (ζ) n! f (ζ) dζ
f (z) = ⇒ f (z) = dζ = (8.9)
2iπ C ζ − z 2iπ C ∂z n ζ − z 2iπ C (ζ − z)n+1
Esta fórmula es muy util para calcular integrales. Considere, por ejemplo la siguiente integral
I
e2ζ dζ 2iπ (3) 8iπ −2
I= 4
≡ f (−1) con f (z) = e2z ⇒I= e
C (ζ + 1) 3! 3
donde hemos supuesto que el contorno C encerraba el punto z = −1, porque de otro modo la función
e2z
serı́a analı́tica y la integral se anuları́a por el Teorema de Cauchy.
(z + 1)4
de donde
n+1
z − z0
I I 2 n
1 f (ζ) dζ 1 f (ζ) z − z0 z − z0 z − z0 ζ − z0
f (z) = ≡ dζ 1 + + + ··· + +
2iπ C ζ −z 2iπ C ζ − z0 ζ − z0 ζ − z0 ζ − z0 ζ −z
ζ − z0
z − z0
este último corchete proviene de una forma ingeniosa de utilizar una serie geométrica de razón r = .
ζ − z0
Para entenderlo, recordemos que para una serie geométrica, se cumple que
con lo cual
n
X I n
X
1 f (ζ) f (j) (z0 )
f (z) = (z − z0 )j dζ + Rn (z) = (z − z0 )j + Rn (z) (8.13)
j=0
2iπ C (ζ − z0 )j+1 j=0
j!
donde I
(z − z0 )n f (ζ)
Rn (z) = dζ (8.14)
2iπ C (ζ − z0 )n (ζ − z)
Obvio que la serie (8.13) converge si Rn (z) → 0 cuando n → ∞ y de eso es fácil convencerse al acotar la
ecuación (8.14). Esto es, considerando ζ sobre el contorno C y z en el interior de R, entonces
I I
(z − z0 )n f (ζ) |z − z0 |n f (ζ) |z − z0 |n 1
|Rn (z)| = dζ n
<
n
dζ <
M n 2πR
2iπ C (ζ − z0 ) (ζ − z) 2π C (ζ − z0 ) (ζ − z) 2π R
(8.15)
f (ζ)
iθ
donde, una vez más, hemos utilizado la forma polar ζ̃ = ζ − z0 = Re y hemos acotado < M , con
n ζ − z
z − z0
lo cual es inmediato constatar que lı́mn→∞ = 0 ⇒ Rn (z) → 0, con lo cual la serie converge.
R
Ejemplos Expanda
1
f (z) = alrededor de z = z0
1−z
X∞
1 1 1 2 1 3 (z − z0 )n (z − z0 )n
f (z) = + 2
(z−z 0 )+ 3
(z−z 0 ) + 4
(z−z 0 ) +· · ·+ n+1
+· · · =
1 − z0 (1 − z0 ) (1 − z0 ) (1 − z0 ) (1 − z0 ) n=0
(1 − z0 )n+1
principal de f (z).
Para demostrar (8.16) o (8.17), recordamos que, tal y como muestra la figura 8.7 cuadrante I, si f (z) es
analı́tica en la región anular, entonces el Teorema de Cauchy, nos garantiza que
I I I I
1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ
f (z) = + ≡ −
2iπ C1 ζ − z 2iπ C2 ζ − z 2iπ C1 ζ − z 2iπ C2 ζ − z
donde en el segundo caso hemos supuesto que ambas circulaciones tienen el mismo sentido.
Del mismo modo como procedimos en la ecuación (8.10) re escribimos el segundo par de integrales como
I I
1 f (ζ) 1 1 f (ζ)
1
f (z) = dζ + dζ
2iπ C1 ζ − z0 1 − z − z0 2iπ C2 z − z0 ζ − z0
1−
ζ − z0 z − z0
y ahora invocando, una vez más la progresión geométrica (8.11) podemos construir expresiones de integrales
equivalentes a la ecuació (8.12). Vale decir
n n
z − z0 ζ − z0
I n−1
X z − z0 j I n−1
X ζ − z0 j
1 f (ζ) ζ − z0 1 f (ζ) z − z0
f (z) = dζ + + dζ
+
2iπ C1 ζ − z0 j=0 ζ − z0 ζ −z 2iπ C2 z − z0 j=0 z − z0 ζ −z
ζ − z0 z − z0
y equivalentemente
n−1 I n−1 I
1 X f (ζ) 1 X 1
f (z) = (z − z0 )j dζ +R n1 (z) + dζ f (ζ)(ζ − z0 )j +Rn2 (z)
2iπ j=0 C1 (ζ − z0 )j+1 2iπ j=0 (z − z0 )j+1 C2
| {z } | {z }
aj a−j
(8.18)
Con lo cual queda demostrado la forma funcional de los coeficientes de la expansión de Laurent. La demos-
tración de la convergencia, esto es n → ∞ ⇒ Rn1 (z) → Rn2 (z) → 0 sigue el mismo esquema que utilizamos
para demostrar la convergencia de la ecuación (8.15) y se lo dejamos como ejercicio al lector.
es decir
1 1
f (z) = = − − 1 − z − z2 · · ·
z(z − 1) z
Consideremos los siguientes ejemplos de desarrollo en Series de Laurent
1.
1
f (z) =
z(z − 2)3
Alrededor de las singularidades z = 0 y z = 2
2.
1
f (z) =
(z + 1)(z + 3)
Esta función tienes polos de orden 1 en z = −1 y z = −3. Además expresando f (z) como una suma
de fracciones parciales, tendremos
1 1 1 1 1
f (z) = = −
(z + 1)(z + 3) 2 z+1 2 z+3
más aún, siguiendo (8.16) tendremos que los coeficientes de la expansión pueden ser calculados a partir de
I I
1 f (ζ) dζ
an = n = 0, ±1, ±2, · · · si n = −1 ⇒ f (ζ) dζ = 2iπa−1 ≡ 2iπRes f (z) (8.19)
2iπ C (ζ − z)n+1 C
con lo cual
eiz 1 d eiz (z + i)2 ieiz − eiz 2(z + i) −4ie−1 − −4ie−1 i
Res = lı́m = lı́m = =−
2 2
(z + 1) z=i z→i 1! dz (z + i) 2 z→i (z + i)2 16 2e
porque hemos utilizado el Teorema de L’Hopital. Este caso lo podemos ejemplificar si consideramos una
función
4 − 3z
z = 0 ⇒ Res f (z)|z=0 = = −4
4 − 3z 4 − 3z
2z − 1 z=0
f (z) = 2 ≡ con polos en (8.22)
z −z z(z − 1)
4 − 3z
z = 1 ⇒ Res f (z)|z=1 = =1
2z − 1 z=1
4 − 3z
Una vez más ejemplificamos. Se al función f (z) = una función con polos simples en z = 0 y z = 1
z2 − z
correspondientes a residuos 4 y 1, respectivamente, tal y como se vió en la sección (8.10.1). Entonces,
utilizamos los resultado expuestos en el ejemplo (8.22)
I
4 − 3z
dz 2 = 2πi(−4 + 1) = −6πi
C z −z
siempre y cuando el circuito C encierre los dos polos, z = 0 y z = 1, para los cuales hemos calculado los
residuos
Ejercicios
1. Determinar los polos y los residuos correspondientes para cada una de las funciones propuestas
2
2z + 1 z+1 sen z
f (z) = 2 ; f (z) = ; f (z) = ; f (z) = cot z
z −z−2 z−1 z2
2. Evaluar
a) I
dz ez
a lo largo de una circunsferencia con |z| = 5
C cosh z
b) I
(2z 2 + 5)dz
a lo largo de una circunsferencia con |z − 2i| = 6 y
C (z + 2)3 (z 2 + 4)z 2
un cuadrado de vértices z = 1 + i; z = 2 + i; z = 2 + 2i y z = 1 + 2i;
R∞
Integrales impropias del tipo −∞
dx f (x)
Este tipo de integrales implica, si ambos lı́mites existen
Z ∞ Z 0 Z r Z r
dx f (x) = lı́m dx f (x) + lı́m dx f (x) ↔ lı́m dx f (x)
−∞ r→−∞ r r→∞ 0 r→∞ −r
Necesitaremos que el integrando sea una función racional f (x) = p(x)/q(x), donde q(x) 6= 0 ∀ x. Adicional-
mente requeriremos que cuando menos q(x) ∼ x2 p(x). Supuesto todo esto, convertimos nuestra Hfunción ra-
cional en una función de variable compleja f (x) → f (z) y consideramos la integral de circulación, C dz f (z),
sobre un contorno C descrito por el eje real y una semicircunsfrencia Γ en el plano complejo con y ≥ 0, tal y
R ∞ se muestra en el cuadrante I la figura 8.8. La intención es hacer r → ∞ y con ello evaluar la integral
como
0
dx f (x). Es fácil convencerse que
I Z Z r m
X
dz f (z) = dz f (z) + dx f (x) = 2iπ Res f (z)z=z0j
C Γ −r j=1
es decir,
Z r m
X Z
dx f (x) = 2iπ Res f (z)z=z0j − dz f (z)
−r j=1 Γ
Esta esta estrategia es válida porque hemos supuesto que f (x) es racional y que q(x) 6= 0 ∀ x, entonces si
existen polos para f (z) estarán en el plano complejo (no sobre el eje real). Todos
R esos polos serán encenrados
por el contorno C que hemos seleccionado. Más aún, y comprobaremos que Γ dz f (z) → 0 cuandoz → ∞.
Esto es sencillo si notamos que
Z
k k kπ
q(x) ∼ x2 p(x) ⇒ |f (z)| < 2 ⇒ dz f (z) < 2 πr = para |z| = r ≥ 0
|z| Γ r r
con lo cual llegamos a que para este tipo de integrales
Z ∞ Xm
p(x)
dx f (x) = 2iπ Res f (z)z=z0j para f (x) = , con q(x) 6= 0 ∀ x ∧ p(x) ∼ x2 q(x) (8.23)
−∞ j=1
q(x)
donde hemos realizado la extensión analı́tica f (x) → f (z) y ubicado sus polos de z = i y z = i − 1 en
el semiplano complejo y > 0 y los encerrados por el circuito descrito en el cuadrante I de la figura 8.8.
El primero de estos polos es de segundo orden, mientras que el segundo corresponde a un polo simple.
Consecuentemente, los residuos se calculan invocando la relación general (8.20) arriba expuesta. Con lo cual
para
d z2 −12 + 9i
z = i ⇒ lı́m (z − i)2 =
z→i dz (z − i)2 (z + i)2 (z 2 + 2z + 2) 100
y para
z2 3 − 4i
z = i − 1 ⇒ lı́m (z − i + 1) 2 =
z→i−1 (z + 1)2 (z − i − 1)(z + i − 1) 25
Finalmente, podemos evaluar la integral
Z ∞ X2
x2 dx −12 + 9i 3 − 4i 7π
2 2 2
= 2iπ Res f (z)z=z0j = 2πi + =
−∞ (x + 1) (x + 2x + 2) j=1
100 25 50
Matemathica o Mupad
Haciendo z = reiθ y asumiendo las consecuencias, tal y como se presenta en (8.24) arriba, tendremos que
Z 2π I dz I
dθ zi 2dz
= b 1
= con C una circunferencia |z| = 1
0 a + bsen θ C a+ 2i z− z C bz 2 + 2aiz − b
los polos de √
2 −a ± a2 − b2
f (z) = ⇒ z±0 = i
bz 2 + 2aiz − b b
son los valores de z que anulan el denominador de f (z). Seguidamente verificamos la ubicación de los polos
simples y comprobamos que como |a| > |b| entonces
−a + √a2 − b2 −a − √a2 − b2
|z+0 | = i < 1 y |z−0 | = i > 1
b b
y por lo tanto, sólo el primero de los polos está encerado por el circuito C con |z| = 1 tal y como muestra
en el cuadrante III de la figura 8.8.
Una vez más calculamos el residuo para z+0 a partir de (8.20). Entonces tendremos que
2 2 1 −i
Res f (z)|z=z+0 = lı́m (z − z+0 ) = lı́m = ≡√
z→z+0 bz 2 + 2aiz − b z→z+0 2bz + 2ai bz+0 + ai a + b2
2
finalmente Z I
2π
dθ 2dz 2π
= = 2iπRes f (z)z=z+0 = √
0 a + bsen θ C bz 2 + 2aiz − b a2 − b2
Integrales de Fourier
Otro grupo de integrales que pueden ser evaluadas mediante el Teorema de Residuos son las integrales de
Fourier. Integrales que involucran funciones racionales, f(x), que satisfacen las condiciones expuestas arriba
en la Sección 8.10.3 y funciones senos y consenos. Integrales del tipo
Z ∞ Z ∞ I Xm
cos mx
dx f (x) ↔ dx f (x)eimx → dz f (z)eimz = 2iπ Res f (z)eimz z=z0j (8.25)
−∞ sen mx −∞ C j=1
Con m > 0 y los polos correspodientes a los residuos que se muestran en el lado derecho, están ubicados en
el semiplano complejo con y > 0. Es claro que el circuito seleccionado es Γ que muestra el cuadrante II de
la figura 8.8.
Equivalentemente, igualando partes reales e imaginarias
Z ∞ m
X Z ∞ m
X
dx f (x) cos mx = −2π Im Res f (z)eimz z=z0j y dx f (x)sen mx = 2π Re Res f (z)eimz z=z0j
−∞ j=1 −∞ j=1
Otra vez, el circuito C se separa en una semicircunferencia Γ y el eje real. para demostrar que para
evaluar las integrales de Fourier (8.25) se requiere la suma de los residuos nos convencemos que la integral a
lo largo de la semicircunferencia se anula. Esto es fácil si comprobamos que recordamos que y > 0 y m > 0,
entonces si z = x + iy tendremos que
es fácil ver que el polo simple de la continuación analı́tica de f (x) es z0 = ik y su residuo será
eimz eimz eimz e−mk
f (z) = 2 2
⇒ z 0 = ik ⇒ Res 2 2 = =
z +k z + k z=ik 2z z=ik 2ik
y por lo tanto Z ∞
eimx e−mk π
dx = 2iπ = e−mk
−∞ x2+k 2 2ik k
Ejemplo: Evalue Z ∞
xsen πx
dx
−∞ x2 + 2x + 5
Partimos de la continuación analı́tica de
I
zeizπ zeizπ zeizπ
f (x) → f (z) = ⇒ z±0 = −1 ± 2i ⇒ dz = Res
2
z + 2z + 5 C
2
z + 2z + 5 z + 2z + 5 z=−1+2i
2
ya que ese es el único polo encerrado por la circulación Γ. Calculando el residuo tendremos
zeizπ zeizπ e−π(2+i)
Res 2 = lı́m (z + 1 − 2i) = (−1 + 2i)
z + 2z + 5 z=−1+2i z→−1+2i 2
z + 2z + 5 4i
con lo cual
I Z ∞ Z ∞
zeizπ x cos πx xsen πx e−π(2+i) π
dz 2 = dx 2 +i dx 2 = 2iπ(−1 + 2i) = (1 − 2i)e−2π
C z + 2z + 5 −∞ x + 2x + 5 −∞ x + 2x + 5 4i 2
donde ζ y ξ tienden a cero de forma independiene, es decir, ambos lı́mites se efectuan independientemente.
Ahora bien, puede darse el caso que uno o ambos lı́mites no existan pero si exista
Z Z ! Z
x0 −ǫ b b
lı́m dx f (x) + lı́m dx f (x) ⇔ V.P. dx f (x)
ǫ→0 a ξ→0 x0 +ǫ a
Diremos entonces que existe el Valor Principal de Cauchy para esa integral. La estrategia en estos casos
será diseñar un circuito tal que evite los polos de la extensiı́on analı́tica de la función. Normalmente se
establece este recorrido rodeando los polos con arcos de circunferencia cuyos radios luego tenderán a cero.
Veamos con un ejemplo esta estrategia de circunsnavegación.
Si bien el lı́mite está definido, cuando hacemos la extensión analı́tica13 f (x) = sen x/x → f (z) = eiz /z la
función compleja presenta un polo simple en z = 0, con lo cual la integral compleja presenta un polo en la
región de integración. Esto es
Z ∞ I Z −ǫ Z Z R Z
sen x eiz eix eiz eix eiz
dx → dz = dx + dz + dx + dz =0
0 x C z −R x C2 z ǫ x C1 z
donde hemos construido un circuito que rodea el polo z = 0 (cuadrante IV de la figura 8.8.). Es claro que
H iz
C
dz ez = 0 porque la región no contiene ningún polo.
R iz
Ahora mostraremos que C1 dz ez → 0, cuando R → ∞. Para ello, convertimos z = Reiθ ⇒ dz/z = idθ,
entonces
Z Z Z π Z π Z π
eiz π
iz iz iR cos θ −Rsen θ
dz = dθ ie ≤ dθ |e | = dθ |e | |e | = dθ e−Rsen θ
C1 z 0
0 0 | {z } 0
1
con lo cual
Z π Z π Z π/2 Z ζ Z π/2
I1 = dθ |eiz | = dθ e−Rsen θ = 2 dθ e−Rsen θ = 2 dθ e|−Rsen θ
{z } + dθ e|−Rsen
{z }
θ
0 0 0 0 ζ
I1 I2
para 0 ≤ ζ ≤ π/2. Es claro que e−Rsen θ es una función decreciente en θ y como estamos tratando de
demostrar que la integral a lo largo del circuito se anula I1 → 0, podremos considerar los máximos valores
13 Nótese que la extensión analı́tica ha sido f (x) = sen x/x → f (z) = eiz /z y no f (x) = sen x/x → f (z) = sen z/z La razón
para I1 y I2 en el entorno de integración y fijarlos como constantes, al hacer esto tendremos lo máximos
valores que podrá tomar las integrales respectivas. Los máximos valores para I1 y I2 , son, 1 y e−Rζ . Entonces,
Z π Z ζ Z π/2 ! π
iz −Rsen ζ
I1 = dθ |e | ≤ 2 dθ + e dθ = 2 ζ + e−Rsen ζ −ζ < 2ζ + πe−Rsen ζ
0 0 ζ 2
1. Z Z √
∞ ∞
2π
dx sen x2 = dx cos x2 =
0 0 4
2. Z √ Z √
∞ ∞
ln x π2 2 (ln x)2 3π 3 2
dx 4 =− ; dx 4 =
0 x +1 16 0 x +1 16
3. Z
∞
x−p π sen pα
dx =
0 x2 + 2x cos α + 1 sen pπ sen α
Agradecimientos
Quisiera agradecer a tantos estudiantes entusiastas quienes, nos han señalado montones de gazapos y
errores de transcripción. Ellos han tenido la paciencia de soportarlos. Gracias por esa paciencia.
[Harper 1971] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff,
N.J.)
[Knopp 1996] K. Knopp (1996) Theory of Functions, Parts I and II (Dover Publications, New York )
[math-atlas.orgURL] The Mathematical Atlas http://www.math-atlas.org/welcome.html
[Núñez 2005] L.A. Núñez (2005) Los Vectores de Siempre Formulario de Métodos Matematicos de la
Fı́sica 1. Universidad de Los Andes, Mérida Venezuela, Disponible en http://webdelprofesor.ula.
ve/ciencias/nunez/cursos.html
[Núñez 2006] L.A. Núñez (2006) Serie de Series Formulario de Métodos Matematicos de la Fı́sica 2. Uni-
versidad de Los Andes, Mérida Venezuela, Disponible en http://webdelprofesor.ula.ve/ciencias/
nunez/cursos.html
[Riley, Hobson y Bence 2002] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for
Physics and Engineering (Cambridge University Press, London)
[Spiegel 1959] Spiegel, M. (1967) Variable Compleja (Schaum‘s Outline Series, McGraw Hill New York )
341
Métodos Matemáticos de la Fı́sica
[Wyld 1999] H. W. Wyld (1999) Mathematical Methods for Physics (Westview Press, Boulder Co.)
343
Métodos Matemáticos de la Fı́sica
C2 = V (t = 0) = V0 y C1 = x(t = 0) = x0 = 0 (9.6)
dV (t) dx(t)
=a y = t a + C2 (9.7)
dt dt
constituyen ecuaciones diferenciales donde las funciones incógnitas son la velocidad, V (t), y la posición, x(t),
respectivamente. Ambas funciones se encontraban dentro de un signo de derivada y fueron “despejadas”
mediante un proceso de integración.
La descripción del movimiento de partı́culas es más rica y compleja. El movimiento de una gran cantidad
de partı́culas puede ser simulado a través de una ecuación diferencial del tipo
X ~ (t)
~ ~ d~r(t) d2~r(t) dV
Fext ~r (t) , V (t) = ; t = m ~a = m 2
=m (9.8)
dt dt dt
El carácter vectorial implica tres ecuaciones diferenciales, una por cada dimensión del movimiento, vale decir:
P x d~r(t) d2 x(t) dVx (t)
F ext ~r (t) , ; t = m ax = m 2
=m
dt dt dt
X d~r(t) P d~r(t) d2 y(t) dVy (t)
F~ext ~r (t) , ; t = m ~a ⇒ y
Fext ~r (t) , ; t = m ay = m =m
dt
dt dt 2 dt
P
z d~r(t) d2 z(t) dVz (t)
Fext ~r (t) , ; t = m az = m =m
dt dt2 dt
Además del carácter vectorial de la ecuación, las componentes de la fuerza pueden dejar de ser constantes y
depender de no sólo del tiempo, sino del vector posición, del vector velocidad o, de ambas simultáneamente. En
este caso nuestras “formulitas” dejan de ser válidas en general y debemos integrar las ecuaciones diferenciales
para obtener la trayectoria de la partı́cula ~r (t), conocidas: la masa, m, la expresión de la sumatoria de
P
fuerzas externas F~ext , la posición y la velocidad inicial (~r (t0 ) = ~r0 y V
~ (t0 ) = V~0 ). Este problema se conoce
como el problema de condiciones iniciales y es, como hemos dicho antes, la razón de este curso. Antes,
intentaré mostrar como ese conocimiento del movimiento bajo acción de una resultante de fuerzas constante,
es decir el movimiento de una partı́cula con aceleración constante puede resultar muy útil para resolver,
de
P d~
r (t)
forma aproximada, el caso más general que hemos mencionado: F~total = F~ext ~r (t) , ; t . Veamos
dt
con detenimiento que significan estas afirmaciones.
Es claro el tiempo de evolución esta comprendido entre el tiempo inicial y el tiempo final, t0 ≤ t ≤ tf inal .
Supongamos que dividimos ese intervalo de tiempo en N subintervalos
[t0 , tf inal ] = [t0 , t1 ] ∪ [t1 , t2 ] ∪ [t2 , t3 ] ∪ · · · ∪ [ti , ti+1 ] ∪ · · · ∪ [tN −2 , tN −1 ] ∪ [tN −1 , tN = tf inal ] (9.9)
Figura 9.1: Diagrama de Cuerpo Libre de una esfera de corcho que emerge desde el fondo de un tanque de
agua.
de tal modo que en cada uno de esos N subintervalos la aceleración es constante. En estas situación, nuestras
P
[t1 , t2 ]
Fext (d1 , V1 ; t1 )
[t2 − t1 ]
⇓
V2 = V1 +
m
V (t1 ) = V1 ⇒ P (9.11)
2
d2 = d1 + V1 [t2 − t1 ] + Fext (d1 , V1 ; t1 ) [t2 − t1 ]
d (t1 ) = d1 m 2
..
.
P
[ti , ti+1 ]
Fext (di , Vi ; ti )
[ti+1 − ti ]
⇓
Vi+1 = Vi +
m
V (ti ) = Vi ⇒ P (9.12)
2
Fext (di , Vi ; ti ) [ti+1 − ti ]
di+1 = di + Vi [ti+1 − ti ] +
d (ti ) = di m 2
..
.
P
[tN −1 , tN ]
Fext (dN −1 , VN −1 ; tN −1 )
V = V + [tN − tN −1 ]
⇓ N N −1
m
V (tN −1 ) = VN −1 ⇒ P
2
Fext (dN −1 , VN −1 ; tN −1 ) [tN − tN −1 ]
dN = dN −1 + VN −1 [tN − tN −1 ] +
d (tN −1 ) = dN −1 m 2
(9.13)
Nótese que las posiciones y velocidades finales para cada intervalo, son las posiciones y velocidades iniciales
para el intervalo siguiente y que el valor de la aceleración, que es variable, se toma como constante e igual
al valor que tiene en el comienzo del intervalo.
Para analizar este caso consideremos el caso de una esfera de corcho, con Radio R y masa M que se
suelta desde el fondo de un tanque de agua de profundidad h. Queremos conocer con que velocidad llega la
esfera a la superficie.
El diagrama de cuerpo libre se puede observar en la figura 9.1 y la ecuación de Newton para este caso se
expresa como
X d~r(t) dV (t)
~
Fext ~r (t) , ; t = ma ⇒ −mg − KηV (t) + mf g = m (9.14)
dt dt
En la cual hemos identificado
peso ⇒ −mg
Empuje ⇒ mf g
Como aprendimos también hace algún tiempo el empuje o fuerza de Arquı́mides es igual al peso del fluido
desalojado por el cuerpo. Por ello aparece mf que representa la masa del fluido. Para el caso en el cual el
fluido no es viscoso, es decir, no hay fricción con el fluido, la ecuación se reduce a
X
d~r(t)
F~ext ~r (t) , ; t = ma ⇒ −mg + mf g = ma (9.16)
dt
En el caso general, descrito por la ecuación (9.14), procedemos del mismo modo: encontramos el tiempo
en el cual llega la superficie y luego evaluamos la expresión para la velocidad para ese tiempo. Fı́jense
que la estrategia para resolver el problema fı́sico es la misma, sólo que tendremos que disponer de un
arsenal adicional de herramientas y técnicas para “despejar” la función velocidad. Aprenderemos a resolver
ecuaciones diferenciales de la misma manera que antes resolvı́amos ecuaciones algebraicas. En este caso la
solución exacta para la expresión de la velocidad es
tKη
dV (t) g (m − mf ) −
− mg − KηV (t) + mf g = m ⇒ V (t) = e m − 1 (9.21)
dt Kη
Con lo cual
tKη
dy(t) g (m − mf ) −
= V (t) = e m − 1 (9.22)
dt Kη
es una ecuación trascendente y debe ser resuelta numéricamente. Haciendo algunas sustituciones simplifica-
doras
4 4
mf = π ξ ρ R3 ; m = π φ ρ R3 ρf = ξρ ρc = φρ y K = 6 π R (9.25)
3 3
Donde ξ y φ representan las densidades relativas del fluido y del cuerpo respecto al agua (de densidad ρ ),
respectivamente. Seguidamente sustituimos los valores numéricos
y se obtiene tf inal = 2,876443096 sg. con el cual se evalúa la ecuación para la velocidad
En la siguiente tabla se implementan las ecuaciones (9.10) a (9.13) habida cuenta de las simplificaciones
(9.25) y los valores numéricos (9.26) para h = 1/10 ∼ [ti+1 − ti ]
Vi y di representan la velocidad y la posición aproximada, tal y como se expresan en las ecuaciones (9.10)
a (9.13). Mientras que V (t) y d (t) ilustran los valores de la velocidad y la posición exactas, calculadas a
partir de las ecuaciones (9.22) y (9.23). Es clara que la aproximación es buena hasta la primera cifra decimal.
población y las necesidades que ellas generaban, erán de procedencia divina y que forzarı́a a la humanidad a
ser más laboriosa e ingeniosa para lograr los medios de subsistencia. Darwin, no tan religioso, lo formuló como
una situación natural presente en todas las especies.
d
Ley de Malthus/Decaimiento Radioactivo y(x) = k y(x) ← y(t) = y0 ek t con y(0) = y0 (9.29)
dx
Para k > 0 la población crece y para k < 0 tenemos una situación de decaimiento: la población decrece con
el tiempo. Este concepto se utiliza los procesos de decaimiento radiactivo.
La ecuación logı́stica o Ley de Verhulst2 se utiliza para describir el crecimiento de la población de una
manera más precisa que la Ley de Malthus. Esta ecuación toma en cuenta le decrecimiento de la población
con el término −y 2
k y0
y ′ = (k − ay) y = ky − ay 2 ← y(t) =
a y0 + (k − a y0 ) e−k t
La Ley de Enfriamiento de Newton que expresa que la tasa de cambio de la temperatura respecto al
tiempo es proporcional a la diferencia de temperatura entre el cuerpo y el medio ambiente.
dT
= k(T − Tm ) ← T = (T0 − Tm ) ek t + T m con T (0) = T0
dt
La Ley de Torricelli la cual establece que (para un tanque cilı́ndrico) la tasa de cambio respecto al tiempo
del la profundidad del agua en un tanque es proporcional a su raı́z cuadrada
dy k√ 1 2
= y ← y(t) = t + y(0)
dt A 2
mográfica
⇓
dn f (x) d2 f (x) df (x) Pn dk f (x)
an (x) n
· · · + a2 (x) 2
+ a1 (x) + a0 (x)f (x) = g(x) ↔ k=0 ak (x) = g(x)
dx dx dx dxk
será de orden n
Una ecuación diferencial F (x, y(x), y ′ (x), y ′′ (x), y ′′ (x), · · · , y (n) (x), ) = 0 será homogénea (inhomogénea)
si NO contiene términos independientes en f (x)
d2 f (x) df (x)
+ g(x) − af (x) = k(x) lineal inhomogénea
dx2 dx
Se tiene que seleccionar una rama de la función raı́z. Igualmente será solución implı́cita
y esta segunda no es tan fácil de descubrir como solución. Para comprobarla derivamos la solución
d(f (x, y)) d x3 + y 3 (x) − 3xy(x) dy(x) dy(x)
= = 0 ⇒ 3x2 + 3y 2 (x) − 3y(x) − 3x =0
dx dx dx dx
Ecuaciones de la forma
y(x) = ln(x) + C1 para x > 0
xy ′ = 1 para − 1 < x < 0 ∧ 0 < x < 1 ⇒ y(x) = ln |x| + C ⇒
y(x) = ln(−x) + C1 para x < 0
Tienen soluciones particulares para intervalos de la variables x. Del mismo modo
(y ′ − y)(y ′ − 2y) = 0 ⇒ (y(x) − C1 ex ) y(x) − C2 e2x = 0
Existe una diferencia entre una solución general de una ecuación y una solución n−paramétrica. La solu-
ción general tiene que contener todas las soluciones una ecuación diferencial determinada. Una solución
n−paramétrica no necesariamente. Veamos
y(x) = Cx + C 2
y = xy ′ + (y ′ )2 ⇒ 2
y(x) = −x
4
Uno llega a estar tentado de llamar solución general a la solución 1−paramétrica y(x) = Cx + C 2 . Sin
embargo, deja por fuera otra solución que no tiene que ver con un valor particular de las constantes C.
Otro ejemplo, lo constituye
3 C2 1
y ′ = −2y 2 ⇒ y(x) = 2 ∀ x. Pero también y(x) = 2 es solución, pero y(x) 6= 0
(Cx + 1) x + C̃
Una solución n−paramétrica se denominará solución general si contiene todas las soluciones de una de-
terminada ecuación diferencial.En el caso de ecuaciones diferenciales lineales, las soluciones n−paramétricas
contituyen las soliciones generales a las ecuaciones diferenciales.
En este caso diremos que tendremos problema de valores iniciales, ya que determinamos las constantes
arbitrarias a partir de la información de la función y sus derivadas en un solo punto. Si consideramos
y(0) = 0 1
y ′′ + ω 2 y = 0 con ⇒ y(x) = sen ωx
y ′ (0) = 1 ω
Si por el contrario, para determinar el valor de las constantes arbitrarias disponemos de información de
la función y sus derivadas en dos o más puntos, diremos que tendremos un problema de contorno. Esto es
Nótese que también pudimos haber tenido información del tipo y(0) = y0 , y ′ (1) = y1′ ; y ′ (0) = y0′ , y ′ (1) = y1′
o y ′ (0) = y0 , y(1) = y1′ y para cada uno de estos caso tendremos una solución distinta.
Demostraremos que los problemas de valores iniciales para ecuaciones diferenciales lineales siempre tienen
solución particular (siempre se pueden determinar las constantes a partir de la información de la función y
las derivadas en UN punto). No ası́ los problemas de valores de contorno.
Integración directa
La integración directa tiene varias variantes las cuales nos hemos tropezado en varias situaciones de
modelaje y que nos han permitido integrar (intuitivamente) ecuaciónes diferenciales. La más directa de
todas ha sido Z Z Z
dy(x)
= f (x) ⇒ dy(x) = dx f (x) ⇒ y(x) = dx f (x) + C
dx
por lo cual, al integrar (analı́tica o numéricamente) tendremos la expresión para la función y(x).
La integración directa fue la estrategia que utilizamos arriba para encontrar las formulitas que nos
aprendimos en bachillerato. Esto es
R
P V (t) = dt a = t a + C2
Fext dV (t)
= = a = constante ⇒
x(t) = R dt (t a + C ) = t a + C t + C
2
m dt
2 2 1
2
en la cual al recordar las condiciones iniciales
V (0) = V0 ≡ C2 ⇒ V (t) = V0 + at
t2
x(0) = x0 ≡ C1 ⇒ x(t) = x0 + V0 t + a
2
La primera variante en la estrategia de integración directa es
Z Z
dy(x) dy
= f (y) ⇒ = dx ⇒ F[y(x)] = x + C
dx f (y)
1
Figura 9.3: Familia de soluciones 1−paramétrica para a = 3. En particular han sido tomados los valores
C = −3, −2, −1, 0, 1, 2, 3
donde F[y(x)] será un funcional, desde el cual quizá se pueda despejar y(x). Esta estrategia se ilustra más
o menos ası́
Z Z
dy(x) dy
= −ay (x) con y(0) = 2 entonces ⇒ = −a dx ⇒ yg (x) = Ce−ax ⇒ yp (x) = 2e−ax
dx y
la Figura 9.3 muestra varias soluciones particulares pertenecientes a esta familia, para a = 13 .
Otro ejemplo de integración directa surge de
Z Z
′ 2 yy ′ ydy 1
yy = (y + 1) ⇒ =1⇒ = dx para y 6= −1 ⇒ + ln |y + 1| = x + C
(y + 1)2 (y + 1)2 y+1
que no es otra cosa que una familia de soluciones implı́citas, uniparamétrica. Para una condición inicial
y(2) = 0 entonces
1
y(2) = 0 ⇒ C = −1 ⇒ + ln |y + 1| = x − 1 para y 6= −1
y+1
una vez más esta familia de solucines 1−paramétrica no constituye la solución general de es ecuación diferen-
cial ya que no contiene todas las solucines. En este caso y(x) = −1 también es solución y no está contenida.
distintos de la igualdad.
Z Z
dy(x) dy(x) dy dy
= H[y(x), x] ⇐ = Y (y(x))X(x) ⇒ = X(x) dx ⇔ = X(x) dx
dx dx Y (y) Y (y)
Llamaremos al término µ(x) factor integrador de la ecuación diferencial. Está relacionado con propie-
dades de simetrı́a de la ecuación, pero en este nivel lo buscaremos tanteando.
La solución general de esa ecuación diferencial toma la forma de yg (x) = (e−x + Ce−ax ) donde el
segundo de los términos yg h (x) = Ce−ax corresponde a la solución general para la ecuación homogénea
asociada a esa ecuación diferencial: dy(x)
dx + ay(x) = 0. El otro término yinh (x) = e
−x
corresponde
dy(x) −x
a la solución particular de la inhomogénea: dx + ay(x) = e . Esta será una propiedad general
para ecuaciones diferenciales lineales de cualquier orden. Resolveremos la ecuación homogénea y luego
encontraremos la solución de la inhomogénea. La solución general será una suma de ambas soluciones
Figura 9.5: Isoclinas para cuatro ecuaciones diferenciales. Cuadrante I muestra la ecuación dy(x) dx = e
−x
−
1
3 y(x) y se muestran las soluciones particulares para las condiciones iniciales y(0) = 0,75, y(0) = 0,50, y(0) =
0, y(0) = −0,50, y(0) = −0,75. El Cuadrante II corresponde a las tangentes generadas a partir de la ecuación
dy(x) y(x)
dx = x . Nótese son curvas integrales radiales que para el punto x = 0 no está definida la curva integral.
En el Cuadrante III represente las tangentes de la ecuación dy(x) dx
x
= − y(x) . Finalmente el Cuadrante IV
contiene las tangentes a la ecuación dy(x)
dx = 1 + x y(x) en ella se han indicado las curvas integrales para
las soluciones particulares correspondientes a las condiciones iniciales y(0) = 0,75, y(0) = 0,50, y(0) =
0, y(0) = −0,50, y(0) = −0,75.
En general
Z x
y ′ + ay = g(x) ⇒ µ(x) = eax ⇒ yg (x) = e−ax dt g(t)eat + Ce −ax
| {z }
x0
| {z } solución de la homogénea
solución de la inhomogénea
o equivalentemente
P2 (y) Q1 (x)
P (x, y)dy + Q(x, y)dx = 0 ⇔ P1 (x)P2 (y)dy + Q1 (x)Q2 (y)dx = 0 ⇔ dy + dx = 0
Q2 (y) P1 (x)
con lo cual
√
′ 1 − x2 1 p 1 2
y = √ ⇐ x 1 − x2 + arcsenx + (5 + y)3/2 = C para − 1 ≤ x ≤ 1 ∧ y > −5
5−y 2 2 3
Nótese que el el arcsenx es multivaluada por lo tanto debemos restringir el intervalo a su valor principal
− π2 < x < π2
dy(x) dy 1 dz a 1 dz a dz
= f (ax + by + c) ⇒ dz = adx + bdy ⇒ = − ⇒ − = f (z) ⇒ = bf (z) + a
dx | {z } dx b dx b b dx b dx
z
Veamos
Z Z
dz dz
y ′ = sen2 (x + y) ⇒ dz = dx + dy ⇒ y ′ = −1 + ⇒ z ′ = −1 + sen2 (z) ⇒ =− dx
dx 1 − sen2 (z)
es decir
Z
dz
− =x+C ⇒ − tan z = x + C ⇒ − tan(x + y) = x + C ⇒ y = x + arctan(x + C)
cos2 (z)
Se puede tratar de generalizar el caso anterior puede y considerar ecuaciones diferenciales del tipo
dy(x) a1 x + b1 y + c1
=f
dx a2 x + b2 y + c2
Q(x, y) y P (x, y) son homogéneas de grado n ⇒ Q(x, y)dy + P (x, y)dx = 0 homogénea
y en ese caso la estrategia para resolverla pasa por una sustitución del tipo
la cual corresponde al caso en los cuales los coeficientes de la ecuación Q(x, y) y P (x, y) funciones inho-
mogéneas. Tal y como hemos visto un cambio de variable lo convierte en homogéneo, entonces
u = 2x − y + 1 ⇒ du = 2dx − dy ⇒ dx = 13 (du + dv)
(2x − y + 1) dx + (x + y) dy = 0 ⇒
v =x+y ⇒ dv = dx + dy ⇒ dy = − 31 (du − 2dv)
Ecuaciones Isóbaras
Las ecuaciones isóbaras generalizan a las ecuaciones homogéneas por cuanto los coeficientes de la ecuación
Q(x, y) y P (x, y) no son funciones homogéneas del mismo grado y se busca una transformación que convierta
la ecuación en homogénea. Dicho de otra manera, si la dimensionalidad en potencias de y es la misma que
la dimensionalidad en potencias de x Diremos que una ecuación diferencial es isóbara si cumple con
Q(tx, tm y) → tn P (x, y)
Q(x, y)dy + P (x, y)dx = 0 ⇒
P (tx, tm y) → tn−m+1 Q(x, y)
2x − y + 1
Figura 9.6: Solución gráfica para la ecuación y ′ = − . Las curvas azules indican soluciones parti-
x+y
culares y(0) = 7; y(0) = 5; y(0) = 2; y(0) = −7; y(0) = −5; y(0) = −2.
y el cambio de variable que se impone es y = vxm . El exponente m surge de balancear (si es posible) Con lo
cual habrá que estudiar si es posible “balancear” el orden de las dimensionalidades de variables y funciones.
Tratemos con un ejemplo de ilustrar las ecuaciones isóbaras. Consideremos la ecuación
′ 1 2 2 2 2 x→x ↔ dx = dx
y =− y + ⇒ y + dx + 2xydy = 0 ⇒
2xy x x y → z m ↔ dy = mz m−1 dz
En la contabilidad de los exponentes x aporta un peso de 1 mientras que y aporta un peso de m. La intención
es balancear los términos para que la ecuación sea homogénea de grado n. Esto es
2 2 2m 2 1 v
y + dx + 2xydy = 0 ⇒ z + dx + 2xz m mz m−1 dz = 0 ⇒ m = − ⇒ y = vxm ⇒ y = √
x x 2 x
El exponente del primier término es 2m, del segundo −1 del tercero 2m. Al balancear todos los exponentes
tendremos 2m = −1 con lo cual m = − 21
2 2 v2 2 v dv 1 v dx
y + dx + 2xy dy = 0 ⇒ + dx + 2x √ √ − √ dx = 0 ⇒ vdv + =0
x x x x x 2x x x
√
entonces al integrar y devolver el cambio v = y x tendremos
Z Z
dx v2 1
dv v + =0 ⇒ + ln x = c ⇒ y 2 x + ln x = c
x 2 2
Con lo cual hemos demostrada que para una ecuación lineal de primer orden, siempre es posible encontrar
un factor integrador µ(x) tal que la ecuación diferencial pueda ser expresada como una derivada total del
factor integrador y la función incognita.
Z
dy(x) d[µ(x)y(x)] 1
+ f (x)y(x) = g(x) ⇒ = µ(x)g(x) ⇒ y(x) = dx µ(x)g(x) + C
dx dx µ(x)
R
dx f (x)
donde µ(x) = e
? ∂Φ(x, y) ∂Φ(x, y)
d [Φ(x, y)] = 0 ⇔ Q(x, y)dy + P (x, y)dx = 0 ⇒ d [Φ(x, y)] = dx + dy = 0
∂x ∂y
donde Φ(x, y) será la función a determinar. Entonces tendremos que la condición necesaria y suficiente para
que una ecuación diferencial sea exacta es
∂Φ(x, y)
Q(x, y) ⇔
∂y ∂ 2 Φ(x, y) ∂ 2 Φ(x, y) ∂Q(x, y) ∂P (x, y)
⇒ ≡ ⇔ ≡ ⇒ d [Φ(x, y)] = 0
∂y∂x ∂x∂y ∂x ∂y
∂Φ(x, y)
P (x, y) ⇔
∂x
Si esto se cumple entonces, podremos encontrar la función Φ(x, y) integrando respecto a cualquiera de
las variables (ahora consideradas independientes ambas).
Z x0 Z x0
∂Φ(x, y) ∂Φ(x, y) ∂ ∂S(y)
P (x, y) ≡ ⇔ Φ(x, y) = du P (u, y)+S(y) ⇒ Q(x, y) = = du P (u, y) +
∂x x ∂y ∂y x ∂y
entonces
Z x0 Z x0
∂Φ(x, y) ∂P (u, y) ∂S(y) ∂Q(v, y) ∂S(y) v=x ∂S(y)
Q(x, y) = = du + ≡ dv + = Q(v, y)|v=x0 +
∂y x ∂y ∂y x ∂v ∂y ∂y
con lo cual nos queda finalmente otra ecuación diferencial para encontrar S(y) y con ella Φ(x, y). Esto es
Z y0 Z x0 Z y0
∂S(y)
= Q(x0 , y) ⇒ S(y) = dw Q(x0 , w) ⇒ Φ(x, y) = du P (u, y) + dw Q(x0 , w) = C
∂y y x y
Hay que hacer notar que los segmentos de lı́nea que unen el punto (x0 , y0 ) con los puntos genéricos (x, y0 ) ∧
(x0 , y) pertenecen al entorno de (x0 , y0 ). Este tipo de entornos también se denomina multiplemente conexo.
Consideremos los siguientes ejemplos:
Primeramente
P (x, y) ⇔ cos y
y ′ xseny − y 2 = cos y ⇔ cos y dx − xseny − y 2 dy = 0 ⇒
Q(x, y) ⇔ − xseny − y 2
y otra vez
Z x0 Z y0
2
Φ(x, y) = du u3 + y 2 u + dw x2 w + w3 = C ⇒ Φ(x, y) = x4 +2x2 y 2 +y 4 = C ⇒ x2 + y 2 =C
x y
con lo cual
Z x Z y Z x
S(x) = du µ(u, y0 )P (u, y0 ) ⇒ Φ(x, y) = µ(x) du Q(x, u) + du µ(u, y0 )P (u, y0 ) + C
x0 y0 x0
Bernoulli y Ricatti
Ası́ dado un conjunto de potenciales elásticos y las fuerzas que de ellos derivan,
x
kx ←p=1 −k kxk
1
2
←p=2 −kx
2 kx
d V (x)
V (x) = ⇒ Fk (x) = − ⇒ Fk (x) =
1
3 kx
3
←p=3 dx
−kx2
..
..
.
.
1 p
p−1 x
p k kxk −k kxk kxk
El Rebusque de Taylor
Tal y como hemos dicho arriba, dada una ecuación diferencial, su solución a través de un método de paso
único puede ser escrita como
Lo primero que se puede hacer es expandir por Taylor alrededor del punto x = xk
1 2 1 n
y(x) = y(xk ) + (x − xk ) y ′ (xk ) + (x − xk ) y ′′ (xk ) + · · · + (x − xk ) y (n) (xk ) + · · ·
2! n!
e identificamos
y(xk ) → yk y ′ (x) = f (y(x), x)
y ′ (xk ) → f (yk , xk )
∂ f ∂ f
y ′′ (xk ) → f ′ (yk , xk ) = + y′
∂x x=xx ∂y x=xx k
y=yk y=yk
′′′ ′′ ′ ′
y (xk ) → f (yk , xk ) = ∂x f + ∂y f yk′ = ∂xx f + (∂xy f ) yk′ + [∂yx f + (∂yy f ) yk′ ] yk′ + ∂y f yk′′
..
.
por lo que reconstruimos la serie de Taylor hasta el orden que podamos o requiramos
1 2 ′ 1 1 n (n−1)
yn+1 = yn + h f (yk , xk ) + h f (yk , xk ) + h3 f ′′ (yk , xk ) + · · · + h f (yk , xk ) + · · ·
2! 3! n!
quedando acotado el error por
1
εred = hn+1 f (n) (y(ξ), x(ξ))
(n + 1)!
h
⇒ yk+1 = yk + 2 [f (xk , yk ) + f (xk+1 , yk + h f (xk , yk ))]
con h = xi+1 − xi el paso de integración. Nótese además que hemos utilizado Euler otra vez para expresar
yk+1 = yk+1 (yk , xk )
El Método de Euler constituye una expansión por Taylor hasta primer orden por lo que el error es
claramente de segundo orden por cuanto si comparamos con la expansión en series de Taylor correspondiente
tendremos
d y h2 d2 y
yk+1 = yk + h + + ···
dx x=xk 2! dx2 x=xk
h2 d2 y
kεtot k ∝
2! dx2 x=xk
Para resolver la ecuación de un oscilador armónico libre que parte del reposo, i.e.
d2 φ(t) 2 2 k dφ(t)
+ ω0 φ(t) = 0 con: ω0 = ; φ (t0 ) = 1; y =0
dt2 m dt t=t0
en la cual φ(t) representa la posición de un cuerpo de masa m unido a un resorte de constante elástica k.
Discretizando mediante diferencia centrada
d2 φ(t) 1 1
h = ti+1 − ti ; 2
≈ 2 [φ(ti+1 ) − 2φ(ti ) + φ(ti−1 )] ≡ 2 [φi+1 − 2φi + φi−1 ]
dt h h
con lo cual la ecuación del oscilador libre queda como
d2 φ(t)
+ ω02 φ(t) = 0 ⇒ φi+1 − 2 − h2 ω02 φi + φi−1 = 0
dt2
esta última ecuación es la versión en diferencias finitas de la ecuación diferencial y es claro que se convierte
en una ecuación algebraica. Finalmente, los dos valores iniciales para la iteración φ0 y φ1 surgen de las
condiciones iniciales
φ0 ≡ φ (t = t0 ) = 1
dφ(t)
= 0 ⇒ φ1 ≈ φ0
dt t=t0
yk+1 = yk + [α + β] fk hk + β [γ ∂x fk + δ fk ∂y fk ] h2k +
2
γ 2 δ2 2 2
+β ∂x fk + 2γδ fk ∂xy fk + fk ∂y fk h3k + · · ·
2 2
1
yk+1 = yk + fk hk + 2 [∂x fk + fk ∂y fk ] h2k
1
Euler Modificado α = 0; β = 1; γ=δ= 2
1 1
yk+1 = yk + fk hk + 2 ∂x fk + 2 fk ∂y fk h2k
Runge-Kutta de cuarto orden aproxima la función f (ξ, y(ξ)) en cuatro puntos intermedios en el intervalo
xk < x < xk+1 por lo cual
yk+1 = yk + [α κ1 + β κ2 + γ κ3 + δ κ4 ] hk
podemos plantearnos varias formas de hacerlo
hk
yk+1 = yk + [κ1 + 2κ2 + 2κ3 + κ4 ]
6
donde
κ1 = f (xk , yk )
1 1
κ2 = f xk + hk , yk + κ1
2 2
1 1
κ3 = f xk + hk , yk + κ2
2 2
κ4 = f (xk + hk , yk + κ3 )
o también
hk
yk+1 = yk + [κ1 + 3κ2 + 3κ3 + κ4 ]
8
donde
κ1 = f (xk , yk )
1 1
κ2 = f xk + hk , yk + κ1
3 3
1 1
κ3 = f xk + hk , yk + κ2
3 3
κ4 = f (xk + hk , yk + κ3 )
κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )
..
.
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )
Métodos Multipaso
Los métodos multipaso se basan encontrar el valor yn+k como una función de k valores precedentes:
yn+k−1, yn+k−2, yn+k−3, · · · yn . Para k = 1, retomamos los métodos de paso único del tipo Euler o Runge-
Kutta. Será explı́cito (abierto) si el valor yn+k puede ser calculado directamente o implı́cito (abierto) si la
fórmula contiene el valor yn+k deseado.
Otra vez la idea está en aproximar el argumento de la integración formal
Z xi+1
′
y (x) = f (y(x), x) ⇒ yi+1 = yi + dξ f (ξ, y(ξ))
xi−k
nótese en este caso que el punto i + 1 recibe la contribución de k puntos anteriores. El integrando f (ξ, y(ξ))
lo aproximaremos con un polinomio de interpolación de Newton de orden n. Tal que
haciendo pn (x) ≡ f (xn + αh) con α cero o negativo de tal modo que en términos del operador diferencias
atrasada ∇f (x) = f (x) − f (x − h) siendo h el incremento
α (α + 1) 2 α (α + 1) (α + 2) 3
f (xn + αh) = fn + α∇fn + ∇ fn + ∇ fn +
2! 3!
α (α + 1) (α + 2) · · · (α + r − 1) r
+ ∇ fn
r!
por razones de conveniencia que son evidentes al hacer el desarrollo, se toman las fórmulas para k = r y k
impar y obtendremos
yi+1 = yi + h fi + 12 ∇fi + 12
5
∇2 fi + 83 ∇3 fi
k=0
⇒
r=3 251 5 (4)
R = 720 h f (ζ)
yi+1 = yi + h [2fi + 0∇fi ]
k=1
⇒
r=1 1 3 (2)
R = 3 h f (ζ)
yi+1 = yi + h 4fi − 4∇fi + 38 ∇2 fi + 0∇3 fi
k=3
⇒
r=3 14 5 (4)
R = 45 h f (ζ)
i+1 yi + h 6fi − 12∇fi + 15∇2 fi − 9∇3 fi + 33 4
k=5
y = 10 ∇ fi
⇒
r=5 41 7 (6)
R = 140 h f (ζ)
y al expresar las diferencias atrasadas las fórmulas explı́citas (abierta) quedan expresadas como
k=0 h
y = yi + 24 [55fi − 59fi−1 + 37fi−2 − 9fi−3 ] R ∼ O h5
r = 3 i+1
k=1
y = yi + 2hfi R ∼ O h3
r = 1 i+1
k=3
yi+1 = yi + 4h3 [2fi − fi−1 + 2fi−2 ] R ∼ O h5
r=3
k=5
yi+1 = yi + 3h
10 [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ] R ∼ O h7
r=5
Siguiendo el mis procedimiento se pueden escribir las fórmulas implı́citas (cerradas) para las mismas
“curiosas” situaciones. Para este caso la conveniencia se obtienes para k impar y r = k + 2
yi+1 = yi + h fi+1 − 21 ∇fi+1 − 12 1 1
∇2 fi+1 − 24 ∇3 fi+1
k=0
⇒
r=3 −19 5 (4)
R = 720 h f (ζ)
yi+1 = yi−1 + h 2fi+1 − 2∇fi − 13 ∇2 fi+1 − 0∇3 fi+1
k=1
⇒
r=3 −1 5 (4)
R = 90 h f (ζ)
yi+1 = yi−3 + h 4fi+1 − 8∇fi − 20 2 8 3 14 4
k=3 3 ∇ fi+1 − 3 ∇ fi+1 + 45 ∇ fi+1
⇒
r=5 −8 5 (4)
R = 945 h f (ζ)
Se debe puntualizar lo siguiente respecto a las fórmulas explı́citas e implı́citas de los métodos multipaso
antes mencionados
Los métodos multipasos, normalmente, requieren menos evaluaciones de las funciones que los métodos
monopaso para un mismo nivel de precisión.
Los métodos multipaso requieren de un método monopaso que le permita determinar los yn+k−1, yn+k−2, yn+k−3, · · · , yn
puntos iniciales.
Las fórmulas explı́citas son, normalmente, menos precisas que las implı́citas. La razón se fundamenta
en que, mientras las explı́citas extrapolan la solución al punto yi+1 , las implı́citas la interpolan, por
cuanto la toman en cuenta en el momento de calcularla.
Las fórmulas explı́citas e implı́citas deben ser consideradas como complementarias, por cuanto las
∗
explı́citas pueden predecir el valor de yi+1 necesario para la fi+1 = f (xi+1 , yi+1 ) del cálculo de yi+1 en
la fórmula implı́cita.
Existen varias combinaciones predictor-corrector, entre ellas mencionamos:
Milne de cuarto orden
• Predictor
4h
yi+1 = yi−3 + [2fi − fi−1 + 2fi−2 ]
3
• Corrector
h
yi+1 = yi−1 + [fi+1 − 4fi + fi−1 ]
3
Milne de sexto orden
• Predictor
3h
yi+1 = yi−5 + [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ]
10
• Corrector
2h
yi+1 = yi−3 + [7fi+1 + 32fi + 12fi−1 + 32fi−2 + 7fi−3 ]
45
Adams Modificado o Adams Moulton
• Predictor
h
yi+1 = yi + [55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
24
• Corrector
h
yi+1 = yi + [9fi+1 + 19fi − 5fi−1 + fi−2 ]
24
El método de extrapolación multipaso más exitoso (conjuntamente con los métodos de paso único del
tipo Runge-Kutta) es el de extrapolación racional de Bulirsch-Stoer en el cual se define un paso superior
de H y una serie de subpaso hη = H/η con el aumento del número de subpasos, en algún momento siguiendo
algún criterio de convergencia se hace una extrapolación (racional) que representa el lı́mite η → ∞.
El método de Bulirsch-Stoer tiene una estrategia diferente al los anteriores y posee, como motor de
aproximación el método del punto medio modificado o salto de rana (leap frog). Este esquema se utiliza con
frecuencia en discretizaciones de ecuaciones diferenciales en derivadas parciales y se basa en aproximar la
derivada por el valor el promedio en los dos extremos:
y(xn ) − y(n−1 )
y ′ (x) = f (y(x), x) ⇒ y ′ (xn ) = f (y(xn ), xn ) =
2h
por lo tanto
z0 ≡ y(x)
z1 = z0 + hf (x, z0 )
..
.
zn+1 = zn−1 − 2hf (x + nh, zn )
donde hemos denotado h0 como el paso ideal. Esta relación es general para cualquier método de 4 orden de
paso único, multipaso, implı́cito o explı́cito.
Más aún, la práctica ha indicado que
0,20 0,20
εmáx ∆0
Mht ∆ y ,y∗ ≡ Mht ∆0 ≥ ∆1
( h h) ∆h
h0 =
0,25 0,25
Mh εmáx ∆0
t ≡ Mht ∆0 < ∆1
∆(yh ,yh ∗
) ∆h
κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )
..
.
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )
y con los mismos puntos (¡ las mismas evaluaciones !) se puede reescribir para 4 orden como:
h i
ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 )
Para métodos multipasos y predictor corrector la situación puede tener un refinamiento adicional
antes de proceder a modificar el paso h. El esquema serı́a para un método predictor corrector del tipo
Adams Modificado o Adams Moulton, donde el
Predictor
h
yi+1 = yi + [55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
24
Corrector
h
yi+1 = yi + [9fi+1 + 19fi − 5fi−1 + fi−2 ]
24
se realiza una serie de iteraciones dentro de la fórmula de corrector, i.e.
h
yi+1 = yi + 9f xi+1 , yi+1 + 19f (xi , yi ) − 5f (xi−1 , yi−1 ) + f (xi−2 , yi−2 )
1 24 0
d k>0
y(x) = k y(x) y(0) = y0 . (9.30)
dx k<0
y(t) = y0 ek t
Para k < 0 tenemos una situación de decaimiento: la población decrece con el tiempo. Este concepto se
utiliza los procesos de decaimiento radiactivo. El tiempo de vida media se define como el tiempo necesario
para que la mitad de los núcleos decaigan, lo cual es independiente de la cantidad de la muestra y permite
medir la edad de todo aquello que contenga isótopos radioactivos. En particular el C14 del cual se sabe que:
tiene una vida media de 5730 años y que todos los organismos están (o estuvieron) formados por carbono.
Por lo tanto, si sabemos el porcentaje de C14 en una muestra, digamos el 63 % podremos inferir su edad
y(0) = 1
1
y(5730) = ek 5730 = 2
queÑ la población crece como una razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta
afirmación plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación de principio
de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el crecimiento de la población y las
necesidades que ellas generaban, erán de procedencia divina y que forzarı́a a la humanidad a ser más laboriosa e ingeniosa para
lograr los medios de subsistencia. Darwin, no tan religioso, lo formuló como una situación natural presente en todas las especies.
y ′ = (k − ay) y = ky − ay 2
donde k y a son constantes arbitrarias. Esta ecuación es separable y la solución tiene la forma de
y
ln =k t+C
k − ay
y por lo tanto
k y0
y(t) =
a y0 + (k − a y0 ) e−k t
el crecimiento de la población venezolana desde 1800 puede modelarse con k = 0,018, a = 0,001
dT
= k(T − Tm ) T (0) = T0
dt
la solución será
T = (T0 − Tm ) ek t + T m
y para el caso de una torta recien sacada del horno a una temperatura de T0 = 176◦ , y una temperatura
ambiente de Tm = 23◦ , con T (80) = 63◦ ,la gráfica será
también se puede modelar el enfriamiento con una temperatura del ambiente variable esto es
dT
= k(T − Tm (t)) T (0) = T0
dt
tómese, por ejemplo,
πt
Tm (t) = 23 − 10 cos con 0 ≤ t ≤ 24 horas
12
si T (0) = 15◦
dT 1 πt
= T − 23 − 7 cos
dt 4 12
con la solución
t t
−23 π 2 + 11 e− 4 π 2 + 21 π sen( π12t ) + 63 cos( π12t ) − 207 + 36 e− 4
T (t) = −
9 + π2
y la siguiente evolución
en t lapsos de tiempo,
t
int
C(t) = C0 1+
100
Ahora bien, si el pago de los intereses se hace varias veces durante ese lapso, entonces tendremos
int int int
C2 = C1 1 + = C0 1 + 1+ .
100 · 2 100 · 2 100 · 2
Fricción en Fluidos
Por su parte, la descripción del movimiento de un paracaidista la ecuación 10.7 se convierte en
X d p(t) d v(t)
F (v(t)) = −mg + cv 2 = = m = m a(t) , (9.34)
externas
dt dt
con c una constante arbitraria que depende de la forma del cuerpo. Integrando esta ecuación separable se
obtiene
1 − exp − 2gt
vt
v(t) = −vt (9.35)
2gt
1 + exp − vt
como la velocidad que anula la sumatoria de fuerzas y a partir de la cual el cuerpo cae sin aceleración.
El tiempo que tarda en alcanzar esa velocidad es estrictamente para t −→ ∞ , sin embargo, una buena
aproximación que surge de la ecuación 9.35, la constituye: t ≫ vt /2g . La velocidad terminal tı́pica en un dı́a
soleado para un paracaidista de 70 Kg., en posición de “águila extendida”, es 54 m/s. (194,4 Km/h.) y por
lo tanto alcanza la velocidad terminal luego de aproximadamente 15 s. esta situación se aprecia claramente
en la figura 9.12.
Por su parte, la posición surge al integrar la ecuación 9.35
2gt
dy(t) 1 − exp − v t
v(t) = = −vt
dt 1 + exp − 2gt
vt
Fuerzas Elásticas
Otra situación muy conocida se presenta bajo la acción de fuerzas elásticas. Ası́, la ecuación 10.7, ahora
se expresa como
X dv(t)
F (x(t)) = −kx(t) = m = m a(t) ,
externas
dt
dm
si dt = σ = cont ⇒ m (t) = m0 + σt y consecuentemente
m0
v (t) = v0
m0 + σt
Un segundo caso tiene que ver con una masa M atada a una cadena de densidad lineal de masa ρ. Esta
masa se impulsa hacia arriba con una velocidad inicial v0 . Se pide encontrar el tiempo en que alcanza la
altura máxima. La ecuación de Newton para este caso se puede expresar como
d (mv) dm dv
−P esoM asa − P esocadena = ⇔ −M g − ρxg = v+ m
dt dt dt
o equivalentemente M
+xξ= ρ
dp
−gρξ = donde y
dt
p = mv = ρξ dξ
dt
con lo cual
dp
−gρξp = p ⇒ −gρξmdξ = pdp ⇒ −gρξρξdξ = pdp
dt
3
Z ξ Z p M 2
2 2 ξ3 ρ p2 (m0 v0 )
− gρ ξ dξ = pdp ⇒ gρ2 − = −
M
ρ m0 v0 3 3 2 2
Z
ρξdξ
t − t0 = s
3
ξ3 ( Mρ ) (m0 v0 )2
2gρ2 3 − 3 + 2
Un Cohete en Movimiento
Finalmente el caso más emblemático es el movimiemto de un cohete que consume una fracción importante
de su combustible. Llamemos v la velocidad de cohete para un instante de tiempo t y v ′ la velocidad de salida
de los gases respecto a tierra. Para ese instante t la cantidad de movimiento del cohete es mv un instante dt
más tarde la cantidad de movimiento será
dp = p′ − p = mdv − vgases dm
dv(t) dm X
m(t) − vgases = F
dt dt externas
dv(t) vgases dm
− = −g
dt m dt
integrando
mi
v = v0 + vgases ln − gt
m(t)
si suponemos que el combustible se quema de la forma
dm
m(t) = mi (1 + αt) ↔ = α = cte
dt
La cantidad
dm
E = vgases
dt
se denomina el empuje del cohete.
As[i, tendremos que para un problema t[ipico en el cual inicialmente se encuentran diluidos en un recipiente
(un tanque) y0 gr de una sustancia en V0 litros de un l[iquido. A este tanque le cae otro l[iquido con una
concentraci[on distinta de la misma sustancia a ventrada lit/min, mientras que vsalida lit/min salen del tanque.
Si suponemos que dentro del tanque sucede alg[un proceso de homogenizaci[on de la soluci[on, la pregunta
t[ipica esque queremos saber la cantidad de sustancia que se encuentra en el tanque en un tiempo t. A la
con lo cual tambi[en hemos integrado una ecuaci[on diferencial para encontrar como variar[a el volumen con
el tiempo.
Para la construcci[on de la ecuaci[on diferencial, procedemos de manera similar y si describimos la can-
tidad de sustancia en el tanque como y (t) , nos queda que la tasa de cambio de la cantidad de sustancia en
el tanque ser[a
gr
lit lit y (t) gr
y ′ (t) = ventrada C (t) − vsalida
mı́n lit mı́n V0 + (ventrada − vsalida ) t lit
| {z } | {z }
Tasa de Ingreso Tasa de Egreso
Por lo tanto la ecuaci[on diferencial tomar[a la forma t[ipica de una ecuaci[on diferencial lineal de primer
orden inhomog[enea
vsal
y ′ (t) + y (t) = vent C (t)
V0 + (vent − vsal ) t
N[otese lo gen[erico de esta soluci[on. Por un lado, la concentraci[on de la sustancia, C (t) , en la soluci[on
que entra al sistema es distinta a la concentraci[on de la sustancia presente en el tanque, m[as a[un, puede
ser variable con el tiempo. Por otro lado esta soluci[on presenta una singularidad (un infinito) cuando la
velocidad de ingreso es igual a la velocidad de egreso. Para este caso en el cual el volumen del tanque
permanece constante tendremos que resolver la ecuaci[on diferencial
Z t „v
salida u
« ! vsalida t
′ vsal −
y (t) + y (t) = vent C (t) ⇒ y (t) = C (u) ventrada e V du + y0 e V
V0 0
Tal y como hemos mencionado varias veces (y seguiremos mencionando) la soluci[on general para una ecua-
ci[on diferencial inhomog[enea se compone de dos soluciones, la soluci[on de la ecuaci[on diferencial homg[enea
m[as la soluci[on de la inhomog[ena.
ygeneral (x) = yhomog[enea (x) + yinhomog[enea (x)
Este ejemplo nos permite constatar el sentido cada una de estas soluciones, vale decir
vsalida t vsalida t Z t „v «
salida u
− −
y (t) = y0e V +e V C (u) ventrada e V du
| {z } 0
Respuesta a las Condiciones Iniciales | {z }
Respuesta a la Exitaci[on externa
En esta es una visi[on que debemos conservar, en general para todas las ecuaciones lineales inhomog[eneas
independientes del orden de la ecuaci[on diferencial, as[i recordando, dada una ecuaci[on diferencial y su
soluci[on tal que se cumple la condici[on inicial y (0) = y0 entonces siempre es posible
Rx Rx
Z x R
d
y (x) + p (x) y (x) = g (x) ⇔ y (x) = y0 e 0 −p(u)du + e 0 −p(u)du g (u) e p(u)du du
dx | {z } 0
soluci[on homg[enea | {z }
Soluci[on inhomog[enea
donde ahora vemos claramente que la soluci[on de la homog[enea da cuenta a las condiciones iniciales del
proceso y la soluci[on de la inhomog[enea provee la respuesta a la exitaci[on externa al sistema.
Este comportamiento de las soluciones es [util si nos planteamos que al tratar de “limpiar” una piscina,
a la cual le hemos añadido el doble de la cantidad de sulfatos permitida, y queremos saber cuanto tiempo
tenemos que mantener abierta una entrada de 120 lits/min de agua sin sulfatos y la salida de la piscina que
responde a 60 lits/min. La piscina en cuesti[on tiene 20 m de longitud, 10 m de ancho y 2 m de profundidad.
Siguiendo los pasos anteriormente planteados, tendremos que
lit
60
vsal mı́n
y ′ (t) + y (t) = 0 ⇒ y ′ (t) + y (t)
=0
V0 + (vent − vsal ) t 5
lit
4 × 10 lit + (120 − 60) t
mı́n
lit
60
mı́n y0
y ′ (t) + y (t)
= 0 ⇒ y (t) = 20000 3t + 20000
lit
4 × 105 lit + 60 t
mı́n
3
donde el volumen es V = 400m3 = 400 (100cm) = 4 × 108 cm3 = 4 × 108 10−3 lit = 4 × 105 lit.
Con lo cual el tiempo para que la cantidad final decaiga a la mitad de la inicial surge de
2y0
y0 = 20000 ⇒ t ≈ 6,666, 66 minutos !!!!!
3t + 20000
[1] M. L. Abell y J. P Braselton (1994) Differential Equations with MAPLE V (Academic Press, New
York).
[2] F. Ayres (1952) Differential Equations. (Shaum’s Series McGraw-Hill, New York) (Existe Traduc-
ción).
[3] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[4] W. E. Boyce y R.C. DiPrima. Elementary Differential Equations and Boundary Problems. (8th
Edition) John Wiley, New York, 2004. (Existe Traducción)
[5] C. H. Edwards, D. E. Penney (2003) Elementary Diffential Equations with Boundary Value
Problems (Prentice Hall, Englewood Cliff, N.J:)
390
Capı́tulo 10
391
Métodos Matemáticos de la Fı́sica
F(x) = 0 =⇒ Homogénea
F(x) 6= 0 =⇒ InHomogénea
ai (x) = ai = ctes
Definición
Si los coeficientes ai = ctes entonces la ecuación diferencial lineal y homogénea, de orden n , tiene asociada
un polinomio caracterı́stico de la forma
an rn + an−1 rn−1 + · · · + a2 r2 + a1 r + a0 = 0
entonces diremos que las raı́ces mk1 , mk2 , mk3 , · · · , mkl tienen multiplicidades k1 , k2 , k3 , · · · , kl , respectiva-
mente.
y = C1 em1 x + C2 em2 x
y = C1 em1 x + C2 xem1 x
y = eα x
(C1 cos βx + C2 sen betax)
Ejemplos
La ecuación
y ′′ + 3y ′ − 4y = 0; y(0) = 1 ∧ y ′ (0) = −1 ⇔ r2 + 3r − 4 = (r + 4)(r − 1) = 0
tiene asociado ese polinomio caracterı́stico y por lo tanto tiene como solución general
2 −4x 3 x
y(x) = C1 e−4x + C2 ex y como solución particular y(x) = e + e
5 5
En la figura 10.1 se encuentra graficada esa soluci’on particular. De igual modo, para distintos valores de
C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la figura 10.2 ¿ Cuáles son las
condiciones iniciales a las cuales corresponden esos valores de las constantes?
Otra ecuación podr’ia ser
y ′′ + 2y ′ + y = 0; y(0) = 1 ∧ y ′ (0) = −1 ⇔ r2 + 2r + 1 = (r + 1)2 = 0
y por lo tanto tiene como solución general
y(x) = C1 e−x + C2 xe−x y como solución particular y(x) = e−x
con las siguientes soluciones r = −2 ± 4i y por lo tanto tiene como solución general
5
y(x) = e−2x (C1 cos 4x + C2 sen4x) y como solución particular y(x) = e−2x 3 cos 4x + sen4x
4
y su representaci’on gr’afica se encuentra en la figura 10.5 y para distintos valores de las constantes
Al igual que en los casos anteriores, para distintos valores de las constantes de integraci’on, tendremos
las gráficas de la figura 10.6
Figura 10.5: y(x) = e−2x 3 cos 4x + 54 sen4x
Figura 10.6: y(x) = e−2x (C1 cos 4x + C2 sen4x) para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}
Ejemplos
La ecuación
24y ′′′ + 2y ′′ − 5y ′ − y = 0 ⇔ 24r3 + 2r2 − 5r − 1 = (3r + 1)(2r − 1)(4r + 1) = 0
consecuentemente con las raı́ces
1 1 1
m1 = − , m2 = , m3 = − ,
3 2 4
y con la solución de la forma
y(x) = C1 e−x/3 + C2 ex/2 + C3 e−x/4
La ecuación
y ′′′ + 3y ′′ + 3y ′ + y = 0 ⇔ r3 + 3r2 + 3r + 1 = (r + 1)3 = 0
con las raı́ces m = −1 con multiplicidad k = 3 y con una solución de la forma
y(x) = C1 e−x + C2 xe−x + C3 x2 e−x
La ecuación
4y (4) + 12y ′′′ + 49y ′′ + 42y ′ + 10y = 0 ⇔ 4r4 + 12r3 + 49r2 + 42r + 10 = (r2 + 2r + 10)(2r + 1)2 = 0
consecuentemente con las raı́ces
1
m1 = −1 + 3i, m2 = −1 − 3i, m3 = − , con multiplicidad 2
2
Entonces la solución es de la forma
y(x) = e−x (C1 cos 3x + C2 sen3x) + C3 e−x/2 + C4 xe−x/2
La ecuación
y (4) + 4y ′′′ + 24y ′′ + 40y ′ + 100y = 0 ⇔ r4 + 4r3 + 24r2 + 40r + 100 = (r2 + 2r + 10)2 = 0
con las raı́ces
m1 = −1 + 3i, m2 = −1 − 3i, con multiplicidad 2.
Entonces la solución es de la forma
y(x) = e−x (C1 cos 3x + C2 sen3x + C3 x cos 3x + C4 xsen3x)
La ecuación
4y ′′′ + 33y ′ − 37y = 0;
con
y(0) = 0; y ′ (0) = −1; y ′′ (0) = 3 ⇔ 4r3 + 33r − 37 = (r − 1)(4r2 + 4r + 37) = 0
consecuentemente con una solución general de la forma
y(x) = C1 ex + e−x/2 (C2 cos 3x + C3 sen3x)
y con la solución particular
8 x 8 19
y(x) = e − e−x/2 ( cos 3x + sen3x)
45 45 45
8 x 8 19
Figura 10.7: y(x) = 45 e − e−x/2 ( 45 cos 3x + 45 sen3x)
también es solución de la ecuación diferencial (10.1) y se denomina como solución general de (10.1). Adicio-
nalmente, si los coeficientes ai (x) son continuos en el intervalo abierto I para todo i = 1, 2, · · · , n , entonces
la ecuación diferencial (10.1) tiene un conjunto fundamental de n soluciones linealmente independientes.
Definición: Soluciones Particulares y Generales.
Dada una ecuación diferencial lineal Inhomogénea
Si yp (x) es solución de (10.2) sin constantes arbitrarias, entonces yp (x) se denomina solución particular de
(10.2). De igual modo, se denominará solución general de (10.2) a la suma de la solución, yh (x), de la ecuación
homogénea (10.1) más la solución particular:
y obtenga yh (x).
2. Proponga la forma de la solución particular para la ecuación inhomogénea (10.3) siguiendo el siguiente
procedimiento. Dada F (x) = b0 g0 (x) + b1 g1 (x) + · · · + bn gn (x), con los bi coeficientes constantes,
entonces
a) Si F (x) = P (x), un polinomio, es decir gi (x) = xm entonces proponga como solución particular a
yp (x) = A0 + A1 x + A2 x2 + A3 x3 + · · · + Am xm
c) Si gi (x) = xm ekx cos βx o gi (x) = xm ekx senβx, entonces proponga como conjunto fundamental
de soluciones particulares a
Ejemplos
y ′′ + 4y ′ + 4y = 4x2 + 6ex
Tiene como solución de la homogénea
yh = (C1 + C2 x) e−2x
y proponemos como solución particular de la ecuación a
yp = (Ax2 + Bx + C) + Dex
2A + Dex +
4 (2Ax + B + Dex ) +
4 (Ax2 + Bx + C) + Dex +
= 4x2 + 6ex
4A = 4
8A + 4B = 0
2A + 4B + 4C = 0
9D = 6
1. La ecuación
y ′′ − 3y ′ + 2y = 2x e3x + 3senx
tiene como solución
3 3x 3 9
y = C1 ex + C2 e2x + x e3x − e + senx + cos x
2 10 10
2. La ecuación
y ′′ − 3y ′ + 2y = 2x2 + 3 e2x
tiene como solución
7
y = C1 ex + C2 e2x + + 3x + x2 + 3x e2x
2
Ejemplo:
La ecuación inhomogénea de Cauchy1 -Euler2
con los ai = ctes, puede ser resuelta por este método. Consideremos una ecuación de orden 2
xm (c + bm + am(m − 1)) = 0
por lo tanto
am2 + (b − a)m + c = 0
con p
−(b − a) ± (b − a)2 − 4ac
m=
2a
por lo tanto
yh = C1 xm1 + C2 xm2
yh = xm1 (C1 + C2 ln x)
moderno. Estudió, entre otras cuestiones, los criterios de convergencia de series, las funciones de variable compleja y los sistemas
de ecuaciones diferenciales
2 Leonhard Euler (1707-1783). Matemático suizo. Destacó en el estudio de diversas cuestiones del cálculo logarı́tmico y
tendrá como primer solución no trivial para la ecuación homogénea, yh1 (x), entonces la segunda solución
vendrá dada por Z
yh2 (x) = yh1 (x) u(x) dx
donde u(x) es la función incógnita a determinar. Sustituyendo esta expresión en la ecuación homogénea se
obtiene
=0
z }| {Z
′ ′′
(a0 (x) y1 (x) + a1 (x) y1 (x) + a2 (x) y1 (x)) u(x) dx+
+a2 (x) y1 (x) u′ (x) + (2a2 (x) y1′ (x) + a1 (x) y1 (x)) u(x) = 0
resolviendo la ecuación diferencial para u(x) tendremos que:
Z
a1
− a2 dx
e
u(x) =
y12
La ecuación
x+1
(x − 1)y ′′′ + 2y ′′ =
2x2
tiene como solución y1 = C1 x + C2 y como solución general
1
y = C1 x + C2 + C3 ln |x − 1| + x ln |x|
2
d2 u du
α ü + β u̇ + γ u ≡ α 2
+β + γ u = Λ (t)
dt dt
La cual utiliza para describir sistemas mecánicos y toma la forma
dxx ⇒ Desplazamiento
⇒ Velocidad
d2 x dx dt
m ⇒ masa
m 2 +η + k x = F (t) donde
dt dt
η ⇒ Constante de Amortiguamiento
k ⇒ Constante Elástica
F (t) ⇒ Fuerza Aplicada
y circuitos eléctricos
Q ⇒ Carga Eléctrica
dQ
dt =I ⇒ Intensidad de Corriente
d2 Q dQ 1
L ⇒ Inductancia
L +R + Q = E (t) donde
dt2 dt C
R ⇒ Resistencia
C ⇒ Capacitancia
E (t) ⇒ Fuerza Electromotriz
Analicemos la ecuación que describe sistemas mecánicos y dejamos la cual describe sistemas eléctricos para
un análisis posterior. El primero de los casos a analizar será el de las oscilaciones libres, vale decir F (t) = 0,
lo cual en el lenguaje de las ecuaciones diferenciales se traduce a ecuaciones diferenciales homogéneas. En
contraste, si F (t) 6= 0, es decir, el caso inhomogéneo, estaremos describiendo oscilaciones forzadas.
Figura 10.8: Oscilador armónico libre. Cambios en la posición inicial no afectan la frecuencia natural.
d2 x dx d2 x dx
m + η + k x = + 2µ + ω02 x = 0
dt2 dt dt2 dt
Figura 10.9: Oscilador Armónico Libre. Cambios de velocidad incial no afectan la frecuencia natural
la cual constituye una ecuación diferencial lineal homogénea de segundo orden. Las raı́ces del polinomio
caracterı́stico asociado serán
p r q
−η ± η 2 − 4km η η 2 k
r= =− ± − = −µ ± µ2 − ω02
2m 2m 2m m
por lo tanto la solución será
“ “ √ ” ” “ “ √ ” ”
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
x (t) = C1 e + C2 e
x (t) = (C1 + C2 t) eµ t
⇐ µ2 − ω02 = 0 Crı́tico
n hp i hp io
x (t) = e−µ t
C1 cos ω02 − µ2 t + C2 sen ω02 − µ2 t ⇐ µ2 − ω02 < 0 Subamortiguado
Ejemplo Como un ejemplo analicemos el mismo caso del sistema anterior en el cual m = 0,1 Kg. y
k = 0,4 N/m, sólo que ahora
q la constante de amortiguamiento será η = 0,60,0,40 y 0,15 En todos los caso la
k
frecuencia angular ω0 = m = 2 rad/sg. y la cantidad subradical µ2 − ω02 corresponderá a los tres casos
Figura 10.10: Oscilaciones libres amortiguadas y no amortiguadas. Nótese que el perı́odo es mayor para el
caso subamortiguado
anteriormente mencionados. Las ecuaciones diferenciales que describen este movimiento serán
x (0) = 0 √ √
d2 x dx
⇒ x (t) = 21 + 2√ 7 ( 5−3)t + 1 − √ 7 −(3+ 5)t
dt2 + 6 dt + 4 x = 0 ∧ 5
e 2 2 5
e
dx
dt t=0 = 4
x (0) = 0
d2 x dx
+4 +4 x=0 ∧ ⇒ x (t) = (1 + 6t) e−2t
dt2 dt dx
dt t=0 = 4
2
x (0) = 0 h √ √ i
d x dx − 12 t √9 15 15
+ +4 x=0 ∧ ⇒ x (t) = e sen t + cos 2 t
dt2 dt dx 15 2
dt t=0 = 4
Si en los casos anteriores cambiamos el signo de la velocidad inicial, i.e. dx
dt t=0 = −4 m/s, tendremos la
siguiente representación gráfica.
√ √
x (0) = 1; dx 1 1 ( 5−3)t + 1 + √ 1 −(3+ 5)t
dt t=0 = −4; ⇒ x (t) = 2 − 2 5 e e
√
2 2 5
dx
x (0) = 1; dt t=0 = −4; ⇒ x (t) = (1 + 2t) e−2t
h √ √ i
dx 1 −7 15 15
x (0) = 1; dt t=0 = −4 ⇒ x (t) = e− 2 t √
15
sen 2 t + cos 2 t
En todos los casos dado que r1 , r2 < 0 se tiene que x (t → 0) → 0. El movimiento subamortiguado es
Figura 10.11: Oscilaciones Libres amortiguadas con cambio de signo en la velocidad inicial
el cual siempre sera mayor que el periodo de oscilación natural del sistema.
d2 x dx F0
+ 2µ + ω02 x = cos (̟t)
dt2 dt m
d2 x F0
2
+ ω02 x = cos (̟t)
dt m
Amplitud modulada ̟ 6= ω0
y tendrá como solución
F0 F0
x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) + cos (̟t) = A cos (ω0 t + δ) + cos (̟t)
| {z } m (ω02 − ̟2 ) m (ω02 − ̟2 )
homogénea | {z }
inhomogénea
Figura 10.12: Oscilador armónico forzado con ̟ = ω02 Nótese el fenómeno de resonancia
con lo cual es la suma de dos movimientos armónicos con distintas frecuencias y amplitudes. Si el cuerpo
parte del reposo, esto es: x (0) = ẋ (0) = 0 entonces
C1 = m ω−F 0
( 02 −̟2 ) F0
⇒ x (t) = 2 − ̟ 2 ) [cos (̟t) − cos (ω0 t)]
m (ω 0
C2 = 0
dado que
ω0 − ̟ ω0 + ̟
cos (ω0 t) = cos + t
2 2
ω0 − ̟ ω0 + ̟ ω0 − ̟ ω0 + ̟
cos (ω0 t) = cos cos − sen sen
2 2 2 2
ω0 − ̟ ω0 + ̟
cos (̟t) = cos − t
2 2
ω0 − ̟ ω0 + ̟ ω0 − ̟ ω0 + ̟
cos (̟t) = cos cos + sen sen
2 2 2 2
2F0 ω0 − ̟ ω0 + ̟
x (t) = sen t sen t
m (ω02 − ̟2 ) 2 2
| {z }
Envolvente
Ejemplo El mismo sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m, cuando parte del reposo
desde el origen de coordenadas y existe una fuerza de excitación F = 0,5 cos (3t) . Por lo tanto la ecuación
Resonancia ̟ = ω0
En el caso que la frecuencia de la fuerza de excitación coincida con la frecuencia natural del sistema, se
tiene
d2 x F0
+ ω02 x = F0 cos (ω0 t) =⇒ x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) + t sen (ω0 t)
dt2 2mω0
| {z }
envolvente
Ejemplo El sistema anterior (m = 0,1 Kg. y k = 0,4 N/m), cuando parte del reposo desde el origen
de coordenadas y existe una fuerza de excitación F = 0,5 cos (2t) . Por lo tanto la ecuación diferencial que
describe el movimiento sera
d2 x x (0) = 0 5t
+ 4 x = 5 cos (2t) ∧ =⇒ x(t) = sen (2t)
dt2 dx 4
dt t=0 = 0
Figura 10.14: Carga en función del tiempo en un circuito RLC sometido a un voltaje constante. Nótese que
el sistema alcanza el régimen estacionario cercano a los 0,3 sg
donde
ω02 − ̟2 2µ̟
cos (ζ) = q y sen (ζ) = q
2 2 2 2
(ω02 − ̟2 ) + (2µ̟) (ω02 − ̟2 ) + (2µ̟)
Es claro que el término homogéneo en todos sus casos (sobreamortiguado, crı́tico y subamortiguado) tiende a
cero, por ello se considera un término transitorio, no ası́ el término inhomogéneo que permanece oscilando. En
términos Fı́sico se pude decir que el término transitorio representa la disipación de la energı́a inicial que se le
provee al sistema a través de la posición y la velocidad inicial de lanzamiento. Esta energı́a inicial se expresa
a través de las condiciones iniciales se disipa. Si no existiera disipación esta energı́a inicial permanecerı́a por
siempre en el sistema. Finalmente el término inhomogéneo, a través de la fuerza de excitación, impone el
movimiento al sistema. Nótese además que el termino inhomogéneo nunca se hace infinito, ni siquiera para el
caso para el cual tiene un máximo y es aquel en el cual la frecuencia de excitación coincide con la frecuencia
natural del sistema.
1
Ejemplo En un circuito RLC, cuyos componentes son L = 1 henry, R = 40 ohmios y C = 40000 faradios, se
le aplica un tensión de V = 24 voltios. Determine el comportamiento de la carga y la intensidad de corriente
en el circuito.
Figura 10.16: Carga en función del tiempo en un circuito RLC sometido a un voltaje sinusoidal V (t) =
1
2 cos (180t) . Nótese el régimen transitorio (0 ≤ t . 0,17) y estacionario (t & 0,17) .
por lo cual, dado un potencial de una fuerza arbitraria siempre podemos expandirlo en series de Taylor
alrededor de un punto de equilibrio x = x0
dV 1 2 d V
2
1 3 d V
3
V (x) = v (x0 ) + (x − x0 ) + (x − x ) + (x − x ) ···
dx x=x0 2! dx2 x=x0 3! dx3 x=x0
0 0
| {z }
=0
1
Figura 10.17: Intensidad de corriente en un circuito RLC sometido a un voltaje sinusoidal V (t) = 2 cos (180t)
1 6 35 50
V (x) = x − 2x5 + x4 − x3 + 12x2
6 4 3
Solución: x5 − 10x4 + 35x3 − 50x2 + 24x Solución: que genera una fuerza
dV (x)
F =− = − x5 − 10x4 + 35x3 − 50x2 + 24x
dx
tendrá dos puntos de equilibrio x = 0 y x = 4. En torno a x = 0 se podrá aproximar con un potencial
parabólico
2 d V (x)
2
1
Ṽ (x) = (x − x0 ) = 12x2
2! dx2 x=x0
tal y como se observa gráficamente
Figura 10.18: Amplitud como función de la frecuencia excitatriz. Nótese el máximo de la amplitud cuando
el sistema entra en resonancia, i.e. ̟ = ω0
pueden ser otras que aquellas que provengan de las ecuaciones de Newton
Es bueno recordar que hay que expresar la aceleración en un sistema de coordenadas móviles (ûr , ûθ ).
Esto es
dûr dθ (t) dθ (t)
ûr = cos (θ)ı̂+ sen (θ) ̂ =⇒ = (− sen (θ)ı̂+ cos (θ) ̂) = ûθ = θ̇ (t) ûθ
dt dt dt
dûθ dθ (t) dθ (t)
ûθ = − sen (θ)ı̂+ cos (θ) ̂ =⇒ = − (cos (θ)ı̂+ sen (θ) ̂) =− ûr = −θ̇ (t) ûr
dt dt dt
con lo cual
d (r (t) ûr )
~r (t) = r (t) ûr =⇒ ~v (t) = = ṙ (t) ûr + r (t) θ̇ (t) ûθ
dt
y
d ṙ (t) ûr + r (t) θ̇ (t) ûθ
~a (t) = = r̈ (t) − r (t) θ̇2 (t) ûr + 2ṙ (t) θ̇ (t) + r (t) θ̈ (t) ûθ
dt
es claro que si r (t) = L = cte =⇒ṙ (t) = ~v (t) = r̈ (t) = ~a (t) = 0
d (Lûr )
~r (t) = Lûr =⇒ ~v (t) = = Lθ̇ (t) ûθ
dt
y
d Lθ̇ (t) ûθ 2
~a (t) = = −L θ̇ (t) ûr + Lθ̈ (t) ûθ
dt
Ası́, y para este caso particular, las ecuaciones de Newton quedan como
m ar ≡ −mLθ̇2 (t) = −T + mg cos (θ)
~
m ~a = T + m ~g =⇒ (10.8)
m aθ = mLθ̈ (t) = −mg sen (θ) .
El caso que todos nos aprendimos de memoria, proviene de la suposición θ ≈ sen (θ) ≪ 1 que implica:
mLθ̇2 (t) = −T + mg
~
m ~a = T + m ~g =⇒ (10.9)
mLθ̈ (t) = −mgθ.
con lo cual, ahora, en este curso, sabemos que lo podemos integrar inmediatamente. Si suponemos que parte
del reposo: θ̇ (0) = 0 y θ (0) = θ0
r r r
g g g
Lθ̈ (t) = −gθ (t) =⇒θ (t) = C1 sen t + C2 cos t =⇒θ (t) = θ0 cos t
L L L
y el perı́odo puede ser integrado
r
g 2 g 2 g 2
θ̇ (t) θ̈ (t) = − θ (t) θ̇ (t) =⇒Etotal ∝ cte = θ̇ (t) + 2 θ (t) =⇒θ̇ (t) = (θ − θ2 ) (10.10)
L L L 0
que no es otra cosa que la energı́a total del sistema. Por lo tanto sabemos que en el instante inicial, si soltamos
la masa desde un ángulo θ0 , la energı́a total es puramente potencial. Es decir
1
Etotal = Epotencial = mgL (1 − cos (θ0 )) = 2mgL sen2 θ0 (10.11)
2
por otro lado, de la ecuación (10.10) podemos obtener el perı́odo de oscilación para el Péndulo Fı́sico
linealizado: r !
g 2 1 θ
ω = θ̇ (t) = (θ − θ2 ) =⇒T = p g arctan p 2
L 0 L θ0 − θ 2
Este caso también se conoce con el nombre de oscilador armónico simple o péndulo fı́sico linealizado.
Igualmente podemos analizar el caso de general del péndulo amortiguado forzado linealizado. Vale decir,
una masa, m,atada a una varilla sin masa de longitud L,y que oscila, inmersa en un fluido que la frena el
movimiento de la masa con una fuerza, −η ~v (t) y que adicionalmente está excitada por una fuerza exterior
F (t) = F0 cos (̟t) . Recordamos que en este caso la ecuación en la dirección tangente (ûθ ), es
donde
ω02 − ̟2 2µ̟
cos (ζ) = q y sen (ζ) = q
2 2 2 2
(ω02 − ̟2 ) + (2µ̟) (ω02 − ̟2 ) + (2µ̟)
Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo
Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles:
Figura 10.21:
√ Evolución θ (t) vs t del Péndulo Fı́sico libre, para distintos valores de la velocidad inicial
V0 = 3, 5, 40, 7, 8.
Crı́tico µ2 − ω02 = 0
En el caso del Péndulo Fı́sico amortiguado forzado (F0 6= 0) la fı́sica se hace mucho más rica y pueden
2 2
ocurrir fenómenos de resonancia cuando ω02 − ̟2 + (2µ̟) → 0.
Es interesante considerar los gráficos tanto de la evolución del sistema en el espacio directo: θ (t) vs t;
como la evolución del sistema en el espacio de fases ω = θ̇ (t) vs θ (t) . Las figuras (10.23) y (10.25) muestran
la primera de estas evoluciones, es decir, la evolución del ángulo en el espacio directo. Las figuras (10.24) y
(10.26) muestran la evolución del sistema en el espacio de fases. Es claro de la ecuación (10.10), en la cual
aparece ω = θ̇ (t) = θ̇ (θ (t)) ,que las curvas en el diagrama de fase tanto para el caso libre (figura (10.22))
como para los de los casos amortiguados (figuras (10.24) y (10.26)) corresponden a curvas de misma energı́a.
En el caso del Péndulo Fı́sico linealizado libre, corresponden a curvas de energı́a constante. en los otros casos
el sistema va disipando energı́a debido al coeficiente de amortiguación.
Nótese que la disipación obliga al sistema a evolucionar al punto de equilibrio siguiendo trayectorias es-
pirales en el espacio de fases. Claramente más rápidamente en el caso sobreamortiguado que en el subamor-
tiguado. También sabemos que para el caso crı́tico (µ2 − ω02 = 0) el tiempo de evolución del sistema hasta
llegar al punto de equilibrio será menor que en cualquiera de los casos sobreamortiguados. Dejamos al lector
la comprobación de esta última afirmación.
Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo
Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles:
Ahora bien, la situación que nos interesa simular es la del péndulo fı́sico para los casos en los cuales los
ángulos de oscilación no necesariamente sean pequeños.
Denominaremos péndulo libre al caso en el cual no recurriremos a ninguna aproximación respecto al
ángulo de oscilación. Recordemos que para este caso partimos de la ecuación (10.8) en la dirección tangente.
Es decir
!
2
g θ̇ (t) g
Lθ̈ (t) = −g sen (θ) =⇒ θ̇ (t) θ̈ (t) = − sen θ (t) θ̇ (t) =⇒ Etotal ∝ cte = − cos θ (t)
L 2 L
Figura 10.22: Digrama de Fase para el Oscilador Armónico Simple. Nótese que el punto de equilibrio es el
origen de coordenadas.
Al igual que en la ecuación en la dirección tangente linealizada (10.10), nos encontramos con la Energı́a total
del sistema. Con lo cual Es fácil despejar θ̇ (t) = θ̇ (θ (t)) y construir los diagramas de fases del sistema. Otra
vez, las lı́neas del diagrama de fase serán lı́neas de la misma energı́a. Ası́ podemos graficar
r
2g
θ̇ (t) = ± C + cos (θ (t)) (10.12)
L
g
para distintos valores de la constante C = 4, 01; 4, 1; 6; 8; 10; 20 y para el caso = 4. La Figura (10.27)
L
representa el diagrama de fase para estos casos. Las curvas cerradas (aquellas que tienen los valores de ángulos
y velocidades acotadas) representan oscilaciones del sistema, mientras que las curvas abiertas (aquellas en
las cuales las velocidades están acotadas pero no ası́ el valor del ángulo) representan que el sistema rota.
Nótese que el sistema presenta puntos de equilibrio inestable para θ (t) ≈ ±nπ con n = 0, 1, 2. Lo cual era de
esperarse por cuanto corresponde al ángulo en el cual el sistema varilla-masa se encuentran verticalmente
dispuestos y el peso y la tensión son colineales y se anulan momentáneamente.
Otro enfoque, quizá más intuitivo para resolver este problema, pudo haber sido el análisis energético.
Para ello sabemos que, por ser un sistema conservativo, la energı́a total viene definida por
1 2 1 2 θ (t)
Etotal = mL2 θ̇ (t) + mgL (1 − cos (θ (t))) ≡ mL2 θ̇ (t) + 2mgL sen2
|2 {z } | {z } 2 2
Energı́a Potencial
Energı́a Cinética
por consiguiente
s s
2Etotal 4g θ (t) g θmáx θ (t)
θ̇ (t) = ± − sen2 ≡ ±2 sen 2 − sen 2 (10.13)
mL2 L 2 L 2 2
θmáx
donde hemos sustituido Etotal = 2mL sen2 2 con θmáx el ángulo máximo que alcanza el Péndulo Fı́sico,
por cuanto en ese punto la energı́á total es puramente potencial. Nótese que ese ángulo no necesariamente
es el ángulo inicial, debido a que la velocidad incial puede ser distinta de cero.
g
Figura 10.23: Evolución θ (t) vs t del Péndulo Simple, Subamortiguado ( = 4; µ = 0, 5) libre,para distintos
√ L
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.
La ecuación (10.13) es claramente integrable por separación de variables y conduce a encontrar la expre-
sión para el perı́odo:
s Z
1 L θ(t) dθ
t= r con − π ≤ θ (t) ≤ π y θ0 = θ (0)
2 g θ0 g
sen2 θmáx
2 − sen 2 θ
2
L
La integral anterior, puede ser transformada en otra que aparece en las tablas integrales, si hacemos sen β =
sen( θ2 )
“ ” , con lo cual
θmáx
sen 2
θ
sen
sen β = 2
s Z
sen θmáx
2
L ζ(t) dβ
t= q donde (10.14)
g ζ(0)
sen θ(t)
1 − sen θmáx sen2 β
2
2
2
ζ (t) = arcsin
sen θmáx
2
π
Es claro que el recorrido entre ζ (0) = 0 =⇒ θ = 0 a θ = θmáx =⇒ ζ (t) = representa un cuarto del
2
perı́do, por consiguiente el perı́odo total del Péndulo Fı́sico será:
s Z π
L 2 dβ
T =4 q
g 0 1 − sen2 θmáx sen2 β
2
g
Figura 10.24: Evolución θ̇ (t) vs θ (t) del Péndulo Fı́sico Subamortiguado libre ( = 4; µ = 0, 5) en el
√ L
Espacio de Fases para distintos valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación
lleva irremediablemente al sistema al punto de equilibrio, vale decir al origen de coordenadas del espacio de
fases.
g
Figura 10.25: Evolución θ (t) vs t del Péndulo Fı́sico Sobreamortiguado ( = 4; µ = 3, 5) libre,para distintos
√ L
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.
1 1 1 1·3
p = π 1+ sen2 β m + sen4 β m2 +
1 − m sen2 β 2 2 2·4
1·3·5
+ sen6 β m3 + O m4
2·4·6
X∞
1 (2n − 1)!! n
p = m sen2n β
1 − m sen2 β n=0
(2n)!!
y siendo una serie uniformemente convergente puede ser integrada término a término como
Z π Z π X∞ X∞ Z π
dβ (2n − 1)!! n (2n − 1)!! n 2
K (m) = 2 p = 2 dβ 2n
m sen β = m sen2n β dβ
0 1 − m sen2 β 0 n=0
(2n)!! n=0
(2n)!! 0
X∞ ∞ 2
(2n − 1)!! n (2n − 1)!! π π X (2n − 1)!!
K (m) = m · = mn
n=0
(2n)!! (2n)!! 2 2 n=0
(2n)!!
g
Figura 10.26: Fı́sico Sobreamortiguado libre ( = 4; µ = 3, 5) en el Espacio de Fases para distintos valores
√ L
de la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva irremediablemente al sistema al
punto de equilibrio, vale decir al origen de coordenadas del espacio de fases.
Del mismo modo se obtiene para las integrales elı́pticas completas de segunda especie que
Z πp "
X∞ 2 #
2 2
π (2n − 1)!! mn
E (m) = 1 − m sen βdβ = 1−
0 2 n=1
(2n)!! 2n − 1
Finalmente podemos mencionar la relación de “recurrencia” de Legendre para las Integrales Elı́pticas com-
pletas. Ella es
π
E (m) K (1 − m) + E (1 − m) K (m) − K (m) K (1 − m) =
2
Las integrales elı́pticas de primera y segunda especie, incompletas y completa deben resolverse numéricamente
y tradicionalmente están tabuladas en algunas tablas integrales 3 . En nuestros dı́ás también pueden ser
resueltas numéricamente utilizando comandos de manipuladores simbólicos4 .
3 Abramowitz, M. y Stegun I.A (1964) Handbook of Mathematical Functions Dover, New York
4 En el caso de MAPLEV se puede proceder directamente evaluando numéricamente la integral (10.14) a través del comando
“ ”
evalf(int(...)) o mediante la función de biblioteca EllipticF(z,k) donde z= β es al argumento del seno y k= sen θ20 el
parámetro (consulte la ayuda de MAPLE para más detalles).
s
∞ 2 2n
L X (2n − 1)!! θmáx
T = 2π sen
g n=0 (2n)!! 2
2π q
θmáx
más aún, dado que sen 2 = 21 θmáx − 1 3 7
+ O θmáx
48 θmáx + 1 5
y que T0 =
3840 θmáx = 2π Lg tendremos
ω0
s
∞ 2
L X (2n − 1)!! 1 1 3 1 5 7
2n
T = 2π θmáx − θmáx + θ + O θmáx =⇒
g n=0 (2n)!! 2 48 3840 máx
1 2 11 4
T ≈ T0 1 + θmáx + θmáx
16 3072
y si realizamos un estimado de las correcciones al problema lineal que conlleva esta expansión veremos que
π
aún para ángulos θmáx = las correcciones son del orden de un pı́rrico 4 %, con lo cual la aproximación
4
lineal resulta bien razonable. Para ángulos θmáx & 1 las correcciones comienzan a ser significativas y todo
este esfuerzo de integración empieza a tener sentido. La siguiente tabla da una idea más clara de este cambio
en el perı́odo del pénulo y los errores relativos porcentuales respecto al perı́odo del péndulo fı́sico linealizado
2π
T0 = ,cuando se considerán distintos valores del ángulo máximo, θmáx
ω0
Figura 10.28: Integración numérica (θ t̃ vs t̃, con 0 ≤ t̃ ≤ 10) del Péndulo Fı́sico, para distintos valores de
dθ(t)
la velocidad angular inicial: = ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5.
dt
2π π π π π π 2π
T0 = = 2,83845 θmáx = θmáx = θmáx = θmáx = θmáx = θmáx =
ω0 12 6 4 3 2 3
T 2,85066 2,88786 2,95191 3,04617 3,35034 3,89685
|T − T0 |
ǫ = 100 0,42821 1,71109 3,84368 6,81916 15,2786 37,1283
T
Nótese que las cantidades ϕ̃(t̃), θ(t̃), t̃, Γ y Λ son adminensionales. Acto seguido procedemos a integrar
numéricamente el sistema de ecuaciones5 .
La figura (10.28) ilustra la evoluciı́on del ángulo θ (t) vs t, con 0 ≤ t ≤ 10 del Péndulo Fı́sico, para
dθ(t)
distintos valores de la velocidad angular inicial: = θ̇(t) = ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5. Mientras que la
dt
figura (10.29) (y también la figura (10.27)) representan la evolución del sistema en el espacio de fases. θ (t)
dθ(t)
vs = ϕ(t). Las curvas cerradas en esta gráfica corresponden a las curvas oscilantes de la figura (10.28).
dt
Dado que el sistema parte de θ0 = θ (t = 0) y seleccionamos el nivel de energı́á potencial igual a cero allı́,
1
cada una de estas curvas representan un valor de la energı́á cinética inicial. El caso Ec = mL2 θ̇02 = mg2L
2
corresponde a la separatrı́z, vale decir, la órbita que separa las curvas cerradas de las abierta. Es claro que
en este caso le movil “subirá” y alcanzará un equilibrio inestable en la posición vertical. En la figura (10.28)
este caso viene ilustrado por la curva que se convierte en horizontal 0, 25 ≤ t̃ ≤ 0, 5, luego a partir de t̃ ≈ 0, 5,
la inexactitud del cálculo numérico genera pertubaciones que en teorı́á no debieran existir.
1
Ec = mL2 θ̇02 = mg2L
2
do dsolve({sysED,CI}, numeric, vars, options) donde sysED es el sistema de ecuaciones diferenciales, CI sus
condiciones iniciales. Si necesitáramos un análisis gráfico es mucho más útil el paquete DEtools.
y en muchos aspectos ese operador diferencial D (•) puede ser tratado como un número más. A saber, para
una ecuación diferencial genérica con coeficientes constantes se tiene
y ′′ − 3 y ′ + 2 y = x2 =⇒ D2 − 3D + 2 y = x2 =⇒ (D − 1) (D − 2) y = x2 (10.18)
más aún
x2 x2 x2
y= =⇒ y = − (10.19)
(D − 1) (D − 2) (D − 2) (D − 1)
por lo cual expandiendo
1 −1
= = −1 − D − D2 − D3 − D4 − · · · (10.20)
D−1 1−D
1 −1 1 1 D D2 D3
= D
=− − − − − ··· (10.21)
D−2 2 1− 2
2 4 8 16
de donde
1 D D2 D3
y= − − − − − ··· x2 − −1 − D − D2 − D3 − D4 − · · · x2 (10.22)
2 4 8 16
por lo tanto tendremos la solución particular de la ecuación y ′′ − 3 y ′ + 2 y = x2
2
x x 1 x2 3 7
y= − − − − −x2 − 2x − 2 = + x+ (10.23)
2 2 4 2 2 4
Las operaciones que se usaron arriba están relacionadas muy estrechamente con las propiedades de la integral
Z ∞
e−st f (t)dt (10.24)
0
n!
tn ea t
n∈ℵ ←→ n+1 , s>a
(s − a)
ec t
f (t) ←→ F (s − c)
1 s
f (c t) ←→ cF c , c>0
Rt
0
f (t − τ ) g (τ ) dτ ←→ F (s) G (s)
δ (t − c) ←→ e−c s
y ′′ + y = h (t) = uπ (t) − u2π (t) ⇒ L {y ′′ + 4y} = L {uπ (t) − u2π (t)} (10.31)
e −πs
e −2πs
⇒ s2 + 4 Y (s) − sy (0) − y ′ (0) = − (10.32)
s s
s e−πs e−2πs
Y (s) = + − (10.33)
s2 + 4 s (s2 + 4) s (s2 + 4)
mediante la transformada inversa
s
L−1 = cos 2t (10.34)
s2 + 4
e−πs 1
L−1 = uπ (t) g (t − π) con g (τ ) = L−1 (10.35)
s (s2 + 4) 2
s (s + 4)
por lo tanto
e−πs 1 1 s 1
L−1 = uπ (t) L−1 − 2 = uπ (t) (1 − cos 2 (t − π)) (10.36)
s (s2 + 4) 4 s s +4 4
3. Ecuación diferencial, con valores iniciales, inhomogénea a una función impulso (delta de Dirac)
y(0) = 0
y ′′ + 2y ′ + 2y = δ (t − π) con (10.40)
′
y (0) = 0
En una de las tablas anteriores hemos mostrado la transformada de Laplace de la función (distribución)
Delta de Dirac: L {δ (t − c)} = e−c s por lo tanto
e−π s 1
s2 + 2s + 2 Y (s) = e−π s
⇒ Y (s) = = e−π s 2 (10.44)
(s2 + 2s + 2) (s + 1) + 1
por lo tanto ( )
1 h i
−1 −π s
y (t) = L e 2 = uπ (t) e−(t−π) sen (t − π) (10.45)
(s + 1) + 1
o también
0 t<π
y (t) = (10.46)
e−(t−π) sen (t − π) t≥π
y h(t) se indentifica como la convolución de f y g. Las integrales arriba expuestas se conocen con integrales
de convolución y hemos denotado h(t) = (f ∗ g) (t) para insistir que se trata de un “producto generalizado”
de funciones f y g. que comparte, con el producto ordinario de funciones, las siguientes propiedades
f ∗g =g∗f (conmutatividad)
f ∗ [g + k] = f ∗ g + f ∗ k (distributividad)
f ∗ [g ∗ k] = [f ∗ g] ∗ k (asociatividad)
f ∗0=0∗f =0
sin embargo f ∗ 1 6= f tal y como se puede apreciar de
Z t Z t
(f ∗ 1) (t) = f (t − τ ) 1 dτ = f (t − τ ) dτ 6= f (t)
0 0
El ejemplo más emblemático de la aplicación del Teorema de Convolución es el estudio del oscilador
amortiguado y forzado, el cual viene descrito por la ecuación diferencial
dx x0 = x(0)
ẍ + 2λ ẋ + ω02 x = f (t) con ẋ = (10.47)
dt
ẋ0 = dx
dt t=0
resolviendo
2λ x0 + ẋ0 + sx0 F (s)
X(s) = + 2 (10.49)
s2 + 2λs + ω02 s + 2λs + ω02
el primer sumando queda como
~i = P F~i
donde, la función F j expresa la sumatoria de fuerzas externas sobre cada partı́cula, vale decir
j
X
dr1 dr2 drn dr1 dr2 drn
F~1
j r1 , r2 , r3 , , · · · rn ,
, , · · · , t = ~
F 1 r , r
1 2 3, r , , · · · r n , , , · · · , t
j
dt dt dt dt dt dt
X
dr1 dr2 drn ~2 r1 , r2 , r3 , , · · · rn , dr1 , dr2 , · · · drn , t
F~2 j r1 , r2 , r3 , , · · · rn , , ,··· ,t = F
j
dt dt dt dt dt dt
..
.
X
dr1 dr2 drn dr1 dr2 drn
F~n j r1 , r2 , r3 , , · · · rn , , ,··· ~
, t = Fn r1 , r2 , r3 , , · · · rn , , ,··· ,t
j
dt dt dt dt dt dt
Pero igual de importante es la posibilidad de convertir una ecuación diferencial ordinaria de orden superior
...
x(n) (t) = F x(n−1) (t) , x(n−2) (t) , , · · · x (t) , ẍ (t) , ẋ (t) , x (t) , t
Para garantizar que existe solución al problema de valores iniciales se debe imponer algunas restricciones
sobre las funciones Fi (un , · · · , u3 , u2 , u1 , t) para ello existen un par de teoremas que garantice esa solución
Si p11 (t) , p12 (t) , · · · p1n (t) · · · pij (t) · · · pnn (t) y g1 (t) · · · gn (t) son funciones continua en el intervalo
α < t < β que contiene al punto t = t0 entonces existe una única solución que satisface las condiciones
iniciales u0m = um (t0 )
u̇ = P (t) u + g (t)
Es decir, para resolver el sistema de ecuaciones diferenciales lineales con coeficientes constantes, es necesario
resolver el sistema de ecuaciones algebraico. Como un ejemplo, para el caso
1 1 r t 1−r 1 ξ1 0
ẋ = x si x = ξ e =⇒ =
4 1 4 1−r ξ2 0
por lo cual
r1 = 3
1−r 1 2
= (1 − r) − 4 = r2 − 2r − 3 = 0 =⇒
4 1−r
r2 = −1
de donde !
(1)
(1) (1) (1) ξ1
r1 = 3 =⇒ −2 ξ1 + ξ2 =0 =⇒ ξ = (1)
2ξ1
similarmente !
(2)
ξ1
r2 = −1 =⇒ ξ (2) = (2)
−2ξ1
Para el caso particular de matrices simétricas (hermı́ticas reales) los autovalores r1 , r2 · · · rn y los autovectores
ξ (1) , ξ (2) · · · ξ (n) ambos son reales.
Para el caso de matrices A no hermı́ticas, consideremos primero que A sea real. Entonces
r1 = λ + iµ r1 = r̄2
ẋ = A x =⇒ x = ξ er t =⇒ (A − r 1) ξ = 0 =⇒ =⇒
(1) ¯(2)
r2 = λ − iµ ξ =ξ
Ası́, para el caso que los autovalores de la matriz real, A,sean complejos, r1 = λ + iµ; r2 = λ − iµ complejos
y r3 , r4 · · · rn reales, y los autovectores ξ (1) = a+ib; ξ (2) = a−ib; ξ (3) , ξ (4) · · · ξ (n) la solución general sera
x (t) = c1 u (t) + ic2 v (t) + c3 ξ (3) er3 t + c4 ξ (4) er4 t + · · · + cn ξ (n) ern t
como ejemplo
1 −1 r t 1−r −1 ξ1 0
ẋ = x si x=ξ e =⇒ =
5 −3 5 −3 − r ξ2 0
por lo cual
(1) 1
ξ =
1−r r1 = −1 + i 2−i
−1
5 = r2 + 2r + 2 = 0 =⇒ =⇒
−3 − r
r2 = −1 − i
1
ξ (2) =
2+i
Nos queda determinar la forma de la matriz unitaria de transformación T. Para ello seleccionamos la
base canónica {|e1 i , |e2 i , · · · |ei i · · · |en i} como base de partida de A con
1 0 0 0
0 1 0 0
.. .. .. ..
. . . .
|e1 i =
0 , |e2 i = 0 , · · · |ei i = 1 , · · · |en i = 0
. . . .
.. .. .. ..
0 0 0 1
y {|u1 i , |u2 i , · · · |ui i · · · |un i} la base de autovectores en la cual  es diagonal. Por lo tanto T es la matriz de
transformación de una base a la otra, identificando columna a columna nos damos cuenta que las columnas
de la matriz T son los autovectores de A
Xn Xn
|ui i = Tij |ej i ⇒ hej |ui i = hej Tij |ej i ⇒
j=1 j=1
(m)
donde hemos denotado ui la componente m del vector j − esimo en la base |ei i (con i = 1, · · · n ). Por lo
tanto, si los n autovalores y autovectores de A son distintos y conocidos, A se dice diagonalizable. Si A es
hermitica, T−1 = Tz y es muy facil construir la inversa de la matriz de transformacion T. Si los autovalores
de A con degenerados, vale decir si el número de autovectores linealmente independientes es menor que n,
entonces A no es diagonalizable y no existe una matriz de transformacion T (T no tiene inversa) tal que
TAT−1 = Â.
Lo que nos ocupa ahora es la solución del sistema de ecuaciones diferenciales inhomogéneo de la forma
a11 a12 · · · a1n
a21 a22
a2n
A = . y aij = const
. . .
. .
an1 an2 · · · ann
(1)
x (t)
x(2) (t)
x′ (t) = Ax (t) + g (t) con x (t) = ..
.
x(n)
(t)
(1)
g (t)
g (2) (t)
g (t) = ..
.
(n)
g (t)
donde A una matriz constante y diagonalizable, g (t) contı́nua en el intervalo α ≤ t ≤ β. La solución de este
problema pasa por encontrar los autovalores y autovectores de A ⇒ {λ1 , λ2 , · · · λj · · · λn ; |u1 i , |u2 i , · · · |ui i · · · |un i}
construir a partir de ellos la matriz T y su hermitica conjugada T−1 = Tz y a partir de ella hacer un cambio
de variable
por lo tanto
λ1 0 · · · 0
0 λ2
0
 = .. ..
. .
y′ (t) = Â y (t) + h (t) con
0 0 · · · λn
h (t) = T−1 g (t)
Entonces, por componente quedan
Z t
∗(i)
yi′ (t) = λi yi (t) + hi (t) = λi yi (t) + Tji
∗
gj (t) = yi (t) = eλi t dτ eλi τ uj gj (τ ) + ci eλi t
t0
donde x(t)gh es la soluci’on general de la homog’enea. Como A es real y sim’etrica,, constuimos la matriz
de los autovectores, nomalizando los autovectores. Esto es
1 1 1 −1 1 1 −1
T= √ ⇔ T =√
2 −1 1 2 1 1
es decir
C1 1 C2 1 1 1 1 t 4
x= √ e−3t + √ e−t + e−t + te−t + −
2 −1 2 1 2 −1 1 2 15
[1] M. L. Abell y J. P Braselton (1994) Differential Equations with MAPLE V (Academic Press, New
York).
[2] F. Ayres (1952) Differential Equations. (Shaum’s Series McGraw-Hill, New York) (Existe Traduc-
ción).
[3] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[4] W. E. Boyce y R.C. DiPrima (2004) Elementary Differential Equations and Boundary Pro-
blems. (8th Edition) (John Wiley, New York) . (Existe Traducción)
[5] C. H. Edwards, D. E. Penney (2003) Elementary Diffential Equations with Boundary Value
Problems (Prentice Hall, Englewood Cliff, N.J:)
440
Capı́tulo 11
441
Métodos Matemáticos de la Fı́sica
con
cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0
por lo cual
bn = an+1 (n + 1)
si la igualdad hubiera sido
∞
X ∞
X ∞
X
n n−1 n an
n an (x − x0 ) = an n (x − x0 ) = an+1 (n + 1) (x − x0 ) =⇒ an+1 =
n=0 n=1 n=0
(n + 1)
y ′′ + y = 0
∞
X ∞
X
y ′′ + y = 0 =⇒ n (n − 1) an xn−2 + an xn = 0
n=2 n=0
∞
X ∞
X
y ′′ + y = 0 =⇒ (k + 2) (k + 1) ak+2 xk + an xn = 0
k=0 n=0
∞
X
y ′′ + y = 0 =⇒ [(k + 2) (k + 1) ak+2 + ak ] xk = 0
k=0
entonces
−ak
(k + 2) (k + 1) ak+2 + ak = 0 =⇒ ak+2 = con k = 0, 1, 2, · · ·
(k + 2) (k + 1)
por lo que
−a4 −a0 a0
a6 = = =−
6·5 6·5·4·3·2·1 6!
en general
k
(−1)
a2k = a0
(2k)!
Similarmente, para los impares se obtiene
∞
X
x2 x4 x6 x3 x5 x7
y= n
an x = a0 1 − + −
+ · · · + a1 x − + − + · · ·
2! 4! 6! 3! 5! 7!
n=0 | {z } | {z }
P∞ (−1)k P∞ (−1)k
k=0 (2k)!
x2k k=0 (2k+1)! x
2k+1
∞
X ∞
X k ∞
X k
(−1) (−1)
y= an xn = a0 x2k + a1 x2k+1 = a0 cos x + a1 sen x
n=0
(2k)! (2k + 1)!
k=0 k=0
y ′′ − 2xy ′ + λy = 0
Para resolver esta ecuación alrededor del punto x0 = 0, proponemos la siguiente expansión en series de
potencias como solución:
′ P∞
X∞ y (x) = j=1 jaj xj−1
y(x) = aj xj ⇒ P∞
′′
j=0 y (x) = j=2 j(j − 1)aj xj−2
o equivalentemente
∞
X
(2a2 + λa0 ) + [(j + 2) (j + 1)aj+2 − 2jaj + λaj ] xj = 0
j=1
2a2 − (λ − 2j)
a0 = − y aj+2 = aj n≥1
λ (j + 2) (j + 1)
1 Charles Hermite, (1822-1901). Matemático francés, especializado en el estudio de teorı́a de funciones. Profesor en la
Universidad de Parı́s, ofreció importantes aportaciones al álgebra, las funciones abelianas y la teorı́a de las formas cuadráticas.
(2 − λ) 3 (6 − λ) (2 − λ) 5 (10 − λ) (6 − λ) (2 − λ) 7
+ a1
x + 3! x + x + x + · · ·
| 5! {z 7! }
y1
nótese que para valores pares de λ una u otra serie se corta y genera polinomios de la forma
λ Ecuación de Hermite Polinomio asociado
0 y ′′ − 2xy ′ = 0 y0 (x) = 1
2 y − 2xy ′ + 2y = 0
′′
y1 (x) = x
4 y ′′ − 2xy ′ + 4y = 0 y0 (x) = 1 − 2x2
6 y ′′ − 2xy ′ + 6y = 0 y1 (x) = x − 23 x3
8 y ′′ − 2xy ′ + 8y = 0 y0 (x) = 1 − 10x2 + 35
3 x
4
Nótese que los dos primeros términos corresponden a la solución de la ecuación homogénea y el último
representa la serie que anula el término inhomogéneo. Hemos hecho patente la dependencia de las constantes
de integracón de las condiciones iniciales.
Si los coeficientes a0 (x) · · · an (x) son funciones analı́ticas en x = x0 (se pueden expresar como una serie
de Taylor de (x − x0 ) que converge al valor de la función con un radio de convergencia de |x − x0 | < ρ),
entonces, la ecuación diferencial 11.2 tendrá como solución única, y = y(x) de la ecuación homogéna una
serie de potencias la cual satisface las n condiciones iniciales
los coeficientes de la expansión se obtienen de los valores de las derivadas en x0 = 0, los cuales salen de las
condiciones iniciales, de la ecuación diferencial esto es
finalmente, la solución
x2 x3
yh (x) = 1 + x +
+ + ···
2 2
Esta solución contiene las dos soluciones (la homogénea y la particular de la inhomogénea) sumadas
Dado |x| < 1 y la ecuación diferencial
x 1
y ′′ + y′ − y = exp (2x) ; con y(0) = 1; y y ′ (0) = 1.
1 − x2 1 − x2
Se expanden por series de potencias cada uno de los coeficientes a0 (x) · · · an (x), la función F(x) y se expande
también la serie
X∞ j
(x − x0 )
y(x) = cj
j=0
j!
luego de bastante transpiración se despejan los coeficiente c0 · · · cn · · · veamos el ejemplo con la misma
ecuación del ejemplo anterior.
y al sustituir
∞
X ∞
X ∞
X
j(j − 1)cj xj−2 − (x + 1) jcj xj−1 + x2 cj xj = x
j=2 j=1 j=0
expandiendo
∞
X ∞
X ∞
X ∞
X
j(j − 1)cj xj−2 − jcj xj − jcj xj−1 + cj xj+2 = x
j=2 j=1 j=1 j=0
acomodando
∞
X ∞
X
((n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 ) xn + cm−2 xm = x
n=0 m=2
por lo tanto
c2 − c1 = 0
3 · 2 c3 − c1 − 2 c2 = 1
por lo cual
X∞ X ∞ X ∞
1 1
j(j − 1)cj xj−2 + x − x3 + · · · jcj xj−1 + 1 + x + x2 + · · · cj xj = 0
j=2
6 j=1
2 j=0
acomodando
2c2 + c0 = 0
6c3 + 2c1 + c0 = 0
12c4 + 3c2 + c1 + c0 = 0
20c5 + 4c3 + c2 + c1 + c0 = 0
..
.
Q (x) ′ R (x)
P (x) y ′′ + Q (x) y ′ + R (x) y = 0 ⇒ y ′′ + y + y=0
P (x) P (x)
Q(x) R(x)
Puntos ordinarios Un punto ordinario x = x0 será aquel alrededor del cual p(x) = P (x) y q (x) = P (x)
sean analı́ticas en ese punto o
Q (x)
lı́m p(x) ≡ lı́m = l1 con l1 finito
x→x0 x→x0 P (x)
R (x)
lı́m q (x) ≡ lı́m = l2 con l2 finito
x→x0 x→x0 P (x)
Q(x) R(x)
O también, lo que es lo mismo, que p(x) = P (x) y q (x) = P (x) tengan una expansión en Taylor alrededor
de ese punto x = x0 .
Q (x)
lı́m (x − x0 ) p(x) ≡ lı́m (x − x0 ) = l3 con l3 finito
x→x0 x→x0 P (x)
2 2 R (x)
lı́m (x − x0 ) q (x) ≡ lı́m (x − x0 ) = l4 con l4 finito
x→x0 x→x0 P (x)
2 2 R(x)
O también, lo que es lo mismo, que p(x) (x − x0 ) = (x − x0 ) Q(x)
P (x) y q (x) (x − x0 ) = (x − x0 ) P (x) tengan
una expansión en Taylor alrededor de ese punto.
por lo tanto
∞
X ∞
X ∞
X
(1 − x2 ) n(n − 1)an xn−2 − 2x n an xn−1 + λ(λ + 1) an xn = 0
n=2 n=1 n=0
multiplicando y acomodando
∞
X ∞
X ∞
X ∞
X
(j + 2)(j + 1)aj+2 xj − n(n − 1)an xn − 2 n an xn + λ(λ + 1) an xn = 0
j=0 n=2 n=1 n=0
expandiendo
(λ + 1)λ
a2 = − a0
2
(λ + 3)(λ + 1)λ(λ − 2)
a4 = a0
4!
(λ + 2n − 1)(λ + 2n − 3) · · · (λ + 1)λ(λ − 2) · · · (λ − 2n + 2)
a2n = (−1)n a0
(2n)!
(λ + 2)(λ − 1)
a3 = − a1
3!
(λ + 4)(λ + 2)(λ − 1)(λ − 3)
a5 = a1
5!
(λ + 2n)(λ + 2n − 2) · · · (λ + 2)(λ − 1) · · · (λ − 2n + 1)
a2n+1 = (−1)n a1
(2n + 1)!
Los polinomios de Legendre son funciones que surgen en problemas de electrostática como solución de la
ecuación de Legendre y son efectivamente polinomios para λ entero. Los Polinomios de Legendre también
pueden ser generados a partir de la Fórmula de Rodrı́gues
1 dn 2
Pn (x) = (x − 1)n , n = 0, 1, 2, .....
n!2n dxn
con P0 (x) = 1. También se dispone de una relación de recurrencia
donde F1 (x) y F2 (x) tienen singularidades regulares enx = x0 y por lo tanto f1 (x) y f2 (x) son analı́ticas
alrededor de ese punto entonces, la propuesta de solución será una serie de Frobenius
∞
X
m n
y(x) = (x − x0 ) an (x − x0 ) (11.4)
n=0
donde n es entero positivo, pero m puede ser entero positivo (entonces la serie de Frobenius es una serie de
Taylor) o entero negativo (entonces la serie de Frobenius es una serie de Laurent), o un racional. Por lo cual
una serie de Frobenius incluye a las serie de Taylor y Laurent. Para hacer las cosas más simples supongamos,
sin perder generalidad, x0 = 0. Además, como f1 (x) y f2 (x) son analı́ticas entonces
∞
X ∞
X
f1 (x) = bn xn y f2 (x) = cn xn (11.5)
n=0 n=0
por lo tanto
" ∞
# " ∞
#
X X
x2 y ′′ + x f1 (x) y ′ + f2 (x) y = 0 ⇐⇒ x2 y ′′ + x bn xn y′ + cn xn y=0
n=0 n=0
4 Ferdinand Georg Frobenius (1849-1917) Matemático Alemán famoso por sus contribuciones en Teorı́a de Grupos y
sustituyendo
( " ∞
# " ∞
# " ∞
#)
X X X
2 m−2 n m−1 n−1 m n−2
0=x m (m − 1) x an x + 2mx nan x +x n (n − 1) an x +
n=0 n=1 n=2
" ∞
#( " ∞
# " ∞
#) " ∞
#( ∞
)
X X X X X
n m−1 n m n−1 n m n
+x bn x mx an x +x nan x + cn x x an x
n=0 n=0 n=1 n=0 n=0
acomodando
( " ∞
# " ∞
# " ∞
#)
X X X
0= m (m − 1) xm an xn + 2mxm nan xn + xm n (n − 1) an xn +
n=0 n=1 n=2
" ∞
#( " ∞
# " ∞
#) " ∞
#( ∞
)
X X X X X
n m n m n n m n
+ bn x mx an x +x nan x + cn x x an x
n=0 n=0 n=1 n=0 n=0
o
( " ∞
# " ∞
# " ∞
#)
X X X
m n n n
0=x m (m − 1) an x + 2m nan x + n (n − 1) an x +
n=0 n=1 n=2
" ∞
#( " ∞
# " ∞
#) " ∞
#( ∞
)!
X X X X X
+ bn xn m an xn + nan xn + cn xn an xn
n=0 n=0 n=1 n=0 n=0
la cual puede ser reacomodada aún más, y toma la forma elegante y compacta de
∞
( i−1
)
X X
m
0 = x {a0 EI (m)} + ai EI (m + i) + ak [(m + k) bi−k + ci−k ] xm+i (11.13)
i=1 k=0
obtendremos la relación de recurrencia para la serie de Frobenius, correspondientes a cada raı́z de la ecuación
indicadora (11.14). Dato que la ecuación indicadora es un polinomio de segundo grado para m, entonces de
allı́ se derivan dos raı́ces m1 y m2 . Dependiendo de como sean estas raı́ces distinguiremos tres casos:
1. m1 6= m2 ∧ m1 − m2 6= N con N entero.
En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será
" ∞
# " ∞
#
m1
X m
X
y(x) = C1 kxk 1+ an (m1 ) xn + C2 kxk 2 1 + an (m2 ) xn (11.16)
n=1 n=1
| {z } | {z }
y1 (x) y2 (x)
2. m1 = m2
En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será
" ∞
#
m
X
n
y(x) = C1 kxk 1+ an (m) x
n=1
| {z }
y1 (x)
(11.17)
" # "∞ #
X∞ X
m n m n
+ C2 kxk 1+ an (m) x ln x + kxk Bn (m) x
| n=1
{z }
n=0
y1 (x)
| {z }
y2 (x)
(11.18)
" # " #
X∞ X∞
m1 n m2 n
+ C2 f kxk 1+ an (m1 ) x ln x + kxk an (m2 ) x
n=1 n=0
| {z }
y1 (x)
| {z }
y2 (x)
Donde las constantes an (m1 ) , an (m2 ) , Bn (m1 ) y f, surgen de sustituir estas soluciones en la ecuación
diferencial y resolver por el método de los coeficientes indeterminados. Nótese que hemos indicado explı́cita-
mente que los coeficientes an = an (m1 ) ; an = an (m2 ) ; Bn = Bn (m2 ) corresponden a las series de cada una
de las raı́ces de la ecuacion indicadora.
En resumen, si una ecuación diferencial y ′′ +F1 (x) y ′ +F2 (x) y = 0 presenta puntos sigulares regulares
para F1 (x) y F2 (x) en x = x0 . Lo que se traduce en que
P∞ n
f (x) f (x) f1 (x) = n=0 bn (x − x0 )
′′ 1 ′ 2
y + y + 2 y =0 con P∞
(x − x0 ) (x − x0 ) n
f2 (x) = n=0 cn (x − x0 )
es decir, que f1 (x) y f2 (x) sean analı́ticas en torno a x = x0 . Entonces se aplica el método de Frobenius.
Para ello,
1. se propone una solución en series de potencias de Frobenius:
∞
X
y(x) = xm an xn
n=0
con m ∈ ℜ ∧ n ∈ N ,
2. se sustituye en la ecuación diferencial y se aisla el término independiente (de orden cero en n). El
coeficiente de este término se anula e implica la ecuación la indicadora o ı́ndice
a0 6= 0 =⇒ EI (m) = m (m − 1) + b0 m + c0 = 0
que no es otra cosa que un polinomio de segundo grado en m. De esta ecuación emergen dos raı́ces m2
∧ m1 ,en función de estas raı́ces, procedemos de distinto modo
3. Seguidamente se determina, según el caso, se determinan las relaciones de recurrecias para los distintos
coeficientes an = an (m1 ) ; an = an (m2 ) ; Bn = Bn (m2 ) ; Gn = Gn (m2 ) a partir de la ecuación (11.15)
( n−1
)
X
an EI (m + n) + ak [(m + k) bn−k + cn−k ] = 0
k=0
tomando en cuenta los coeficientes de los desarrollos en series de potencias de las funciones
∞
X ∞
X
f1 (x) = bn xn y f2 (x) = cn xn
n=0 n=0
m+n
si anulamos los coeficientes de x
n−1
X Pn−1
k=0 ak [(m + k) bn−k + cn−k ]
an EI (m + n) + ak [(m + k) bn−k + cn−k ] = 0 ⇐⇒ an = −
EI (m + n)
k=0
entonces se obtiene la relación de recurrencia, al menos para los casos (11.16) y (11.17) en los cuales
EI (m + n) 6= 0. El caso EI (m + n) = 0, vale decir m1 6= m2 ∧ m1 − m2 = N con N será analizado
en detalle más adelante.
El primer término del coeficiente de xm+n , puede ser escrito en términos de genéricos, como
1 1 1 1 1
EI (m + n) = (m + n) (m + n − 1) + (m + n) + − = m2 + 2mn − m + n2 − n − (11.19)
2
|{z} 2 2 2 2
| {z }
b0 c0
El segundo término de ese mismo coeficiente, es una sumatoria en la cual inervienen los coeficientes de
las expansiones de f1 (x) y f2 (x) (ecuación (11.5)). Como de esta expansión sobrevive b1 = 1 significa
que sólo aparecen el coeficiente para el cual n − k = 1 ⇒ k = n − 1 y como también sobrevive c2 = −1,
tendremos que n − k = 2 ⇒ k = n − 2,también estará presente. Esto es
1 + an−2 (−1)
an−1 (m + n − 1) · |{z} (11.20)
| {z }
b1 c2
an−2 − an−1 [m + n − 1]
an = para n ≥ 2 (11.22)
m2 + 2mn − 21 m + n2 − 12 n − 1
2
Dependiendo del valor de m tendremos una relación de recurrencia para la primera de las series m = 1
1
o para la segunda, m = − . Analicemos cado por caso. Para el caso particular m = 1, se obtiene la
2
relación de recurrencia:
2
an = (an−2 − nan−1 ) para n ≥ 2
2n2 + 3n
y se encuentra a1 al utilizar el coeficiente de xm+1 (ecuación (11.7))
1 1 2
a1 1 (1 + 1) + (1 + 1) − + a0 [1 + 0] = 0 =⇒ a1 = − a0
2 2 5
con lo cual
1 1 4
9 9
n=2 =⇒ a2 = 7 (−2a1 + a0 ) = 7 5 a0 + a0 = 35 a0 =⇒ a2 = 35 a0
2 2 −27
n=3 =⇒ a3 = 27 (−3a2 + a1 ) = 27 35 a0 − 52 a0 = − 945
82
a0 82
=⇒ a3 = − 945 a0
1 1 328 9
571 571
n=4 =⇒ a4 = 22 (−4a3 + a2 ) = 22 945 a0 − 35 a0 = 20790 a0 =⇒ a4 = 20790 a0
.. ..
. .
1
Del mismo modo se construye la segunda solución linealmente independiente a partir de m = − . Ası́, la
2
1
relación de recurrencia para los coficientes de la serie de Frobenius m = − será:
2
3 2
an = an−2 − n − an−1 para n ≥ 2
2 2n2 − 3n
y
1 1 1 1 1 1
a1 − + − + a0 − =0 =⇒ a1 = −a0
2 2 2 2 2 2
por lo cual
n=2 =⇒ a2 = − 12 a1 + a0 = 12 a0 + a0 = 23 a0 =⇒ a2 = 32 a0
2
n=3 =⇒ a3 = 9 − 23 a2 + a1 = 2
9
−9
4 a0 − a0 = − 13
18 a0 =⇒ a3 = − 13
18 a0
1
n=4 =⇒ a4 = 10 − 52 a3 + a2 = 1
10
65
36 a0 + 23 a0 = 119
360 a0 =⇒ a4 = 119
360 a0
.. ..
. .
1 3 13 119 4
+ C2 x− 2 1 − x + x2 − x3 + x + ···
2 18 360
Nótese que esta solución vale para 0 < kxk < ∞ por cuanto para x < 0, la segunda solución se hace
imaginaria pero se puede resolver haciendo C2 = i C3
Como ejercicio resuelva
2x2 y ′′ − x y ′ − (x + 1) y = 0
11.8.2. m1 = m2 .
Del mismo modo, si tenemos una ecuación diferencial
x2 y ′′ + x [x F1 (x)]y ′ + x2 F2 (x) y = 0 ⇐⇒ L {y} = x2 y ′′ + x f1 (x) y ′ + f2 (x) y = 0 (11.23)
| {z } | {z }
f1 (x) f2 (x)
donde en la cual F1 (x) y F2 (x) tienen singularidades regulares en x = 0 pero f1 (x) y f2 (x) son analı́ticas
para ese punto, vale decir
X∞ X∞
f1 (x) = bn xn y f2 (x) = cn xn
n=0 n=0
se aplica el Método de Frobenius. Pero antes de proceder a ilustrar este caso en al cual ambas raı́ces coinciden,
veamos, un poco de dónde surge la forma general de la solución (11.17). Para ello reacomodemos la ecuación
diferencial (11.23) de la forma
d2 d
x2 y ′′ + x f1 (x) y ′ + f2 (x) y = x2 + x f1 (x) + f2 (x) y ≡ L {y} = 0
dx2 dx
donde L {•} está concebido como un operador lineal. Es ilustrador mostrar de dónde sale la forma curiosa
de la solución de la ecuación diferencial (11.17). Para ello, recordamos que
∞
( n−1
)
X X
m
L {y} ≡= x {a0 EI (m)} + an EI (m + n) + ak [(m + k) bn−k + cn−k ] xm+n
n=1 k=0
considerando EI (m + n) 6= 0 por lo tanto, para los an seleccionados (que anulen el coeficiente xm+n ) y
considerando el caso m1 = m2
2
L {y} (m, x) = {a0 EI (m)} xm = a0 (m − m1 ) xm
Nótese que estamos considerando L {y} (m, x) como una función de m, y x. Por lo cual evaluando en m = m1
2
L {y} (m, x)|m=m1 = a0 (m − m1 ) xm =0
m=m1
∂y ∂ 2
h
2
i
L (m, x) = a0 (m − m1 ) xm = a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm
∂m ∂m
y comprobamos que también se anula al evaluarla en m = m1
h i
∂y 2
L (m, x) = a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm =0
∂m m=m1 m=m1
n o
∂y
por lo tanto ∂m (m, x) también es solución, con lo cual la segunda toma la forma
m=m1
( " #)
∂y ∂
∞
X
m
L (m, x) = kxk a0 + an (m) xn
∂m m=m1 ∂m
n=1 m=m1
" ∞
# " ∞ #
X X ∂an (m)
m1 n m1 n
= (x ln x) a0 + an (m1 ) x +x x
n=1 n=1
∂m m=m1
" # " #
X∞ X∞
m1 n m1 n
+ C2 kxk 1+ an (m1 ) x ln x + kxk bn (m1 ) x
|
n=1
{z }
n=0
y1 (x)
| {z }
y2 (x)
posicional, la geodesia y la mecánica celeste. Particularmente, se dedicó a aumentar la exactitud de las mediciones de la
posición y el movimiento de los astros. La precisión de sus mediciones hizo posible que determinara pequeñas irregularidades
en los movimientos de Urano lo condujo a predecir la existencia de Neptuno. Análogos razonamientos lo llevaron a especular
sobre la presencia de estrellas compañeras en Sirio y Procyon. A partir de datos registrados en el siglo XVII, calculó la órbita
del cometa Halley
Una vez más, la ecuación viene parametrizada por ν y dependiendo de su valor tendremos una familia de
soluciones. Consideremos el caso ν = 0
x2 y ′′ + x y ′ + x2 y = 0
Pn−1
k=0 ak (m) [(m + k) bn−k + cn−k ] an−1 (m) (m + n − 1) + an−2 (m)
an (m) = = 2
(m + n) (m + n − 1) + (m + n) (m + n)
tomando m = 0, se tiene
Pn−1 b1 6= 0 ⇒ n − k = 1 ⇒ k = n − 1
k=0 ak (0) [kbn−k + cn−k ]
an (0) = − con
n2
c2 6= 0 ⇒ n − k = 2 ⇒ k = n − 2
con lo cual
an−2 (0) [c2 ] + an−1 (0) [(n − 1) b1 ] an−2 (0) + an−1 (0) (n − 1)
an (0) = − =− para n ≥ 2
n2 n2
Otra vez, al anular el coeficiente para xm+1 (ecuación (11.7)) se obtiene a1 [0 (0 + 1) + 1 · (0 + 1) + 0] +
a0 [0 · 0 + 0] = 0 ⇒ a1 = 0. Con lo cual es claro que se anulan todos los coeficientes impares, y ası́
a2n−2 (0)
a2n (0) = − 2 para n = 1, 2, 3, · · ·
(2n)
con lo cual
1
n=1 =⇒ a2 (0) = − a0 (0) =⇒ a2 (0) = − 41 a0 (0)
4
1 1 1
n=2 =⇒ a4 (0) = − 2 a2 2(0) =
a0 (0) =⇒ a4 (0) = 2 a0 (0)
(2 · 2) (2 · 2) 22 (2 · 2) 22
" #
1 1 1 −1
n=3 =⇒ a6 (0) = − 2 a4 (0) = − 2 2 a0 (0) =⇒ a6 (0) = 2 a0 (0)
(2 · 3) (2 · 3) (2 · 2) 22 (2 · 3) 23
.. ..
. .
l l
a2l−2 (0) (−1) (−1)
n=l =⇒ a2l (0) = − 2 = 2 a0 (0) =⇒ a2l (0) = 2 a0 (0)
(2l) 22l (l!) 22l (l!)
Donde J0 (x) se conoce como la función de Bessel de primera especie de orden cero.
Para calcular la segunda solución de la ecuación de Bessel se sustituye
∞
X
y2 (x) = J0 (x) ln x + Bn xn en la ecuación x2 y ′′ + x y ′ + x2 y = 0
n=0
entonces
" ∞
#
2 J0′ (x) J0 (x) X
0=x J0′′ (x) ln x + 2 − + Bn n (n − 1) xn−2
+
x x2 n=2
" ∞
# " ∞
#
J0 (x) X X
+x J0′ (x) ln x + + Bn nxn−1 + x2 J0 (x) ln x + Bn xn
x n=1 n=0
con lo cual
X∞ X∞ X∞
0 = x2 J0′′ (x) + x J0′ (x) + Jx2 0 (x) ln x + 2 J0′ (x) x + Bn n (n − 1) xn + Bn nxn + Bn xn+2
| {z } n=2 n=1 n=0
=0
y finalmente
∞
X X∞ n
(−1) 2n 2n
B1 x + 22 B2 x2 + Bn n2 + Bn−2 xn = −2 x
2n (n!)2
n=3 n=1 2
es claro que para los coeficientes impares se obtiene b1 = b3 = b5 = · · · = b2n+1 · · · = 0 ya que
X∞ n
(−1) 2n 2n
B1 x + 22 B2 x2 + 32 B3 + B1 x3 + 42 B4 + B2 x4 + 52 B5 + B3 x5 + · · · = −2 x
2n (n!)2
n=1 2
en la Universidad de Pavia y luego Rector de la misma. Además de poeta, se destaco por sus contribuciones al Cálculo y a la
Mecánica.
y ası́, finalmente
y (x) = C1 J0 (x) + C2 Y0 (x)
Comportamiento de las funciones de Bessel de orden cero. De primera especie J0 (x) y de segunda
especieY0 (x)
Nótese que tanto la función de Bessel de orden cero, de primera especie, J0 (x) , como la función de Bessel de
orden cero, de segunda especie, Y0 (x) ,tienen un comportamiento oscilatorio cuando x → ∞, que J0 (0) = 1,
mientras que Y0 (x) se comporta como π2 ln x cuando x → 0.
( N −1
)
X
+ aN EI (m + N ) + ak [(m + k) bN −k + cN −k ] xm+N + (11.25)
k=0
∞
( n−1
)
X X
+ an EI (m + n) + ak [(m + k) bn−k + cn−k ] xm+n (11.26)
n=N +1 k=0
donde esta m es la menor de las raı́ces y m + N la mayor. Anulando el término {a0 EI (m)} coeficiente de
xm nos lleva a la ecuación indicadora:
por lo tanto EI (m + N ) = 0 anula al coeficiente del término an para n = N , esto es la ecuación (11.12),
consecuentemente eso significa que se derivan dos casos
PN −1
EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] = 0
En este caso la solución en serie de Frobenius, partiendo de la raı́z mayor de la ecuación indicadora,
m + N , quedará en términos de a0 y no será linealmente independiente a la solución provista por la
raı́z menor, por consiguiente la solución proveniente de esta raı́z menor, m, será la solución general.
Esto quiere decir que en (11.18) la constante f = 0 y por consiguiente la solución será
" ∞
# "∞ #
m
X m
X
n n
y(x) = a0 kxk 1+ an (m) x + aN kxk an (m + N ) x (11.27)
n=1 n=0
| {z } | {z }
y1 (x) y2 (x)
PN −1
EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] 6= 0
En este caso la raı́z mayor de la ecuación indicadora m + N determinará una de las soluciones, la
constante f 6= 0 y la solución general tendrá la forma de
" ∞
#
m1
X
n
y(x) = C1 kxk 1+ an (m1 ) x
n=1
| {z }
y1 (x)
" # "∞ #
X∞ X
m1 n m2 n
+ C2 f kxk 1+ an (m1 ) x ln x + kxk an (m2 ) x
| n=1
{z }
n=0
y1 (x)
| {z }
y2 (x)
La ecuación de Bessel de orden fraccionario puede ilustrar el primero de estos casos, resolvámosla
2 ′′ ′ 2 1
x y +x y + x − y=0
4
una vez más, le expansión en serie de Frobenius de y (x) nos lleva a una ecuación indicadora del tipo
b0 = 1 ⇐= f1 (x) = 1
1
1
m=
2 1
c0 = −
4
⇐= m (m − 1) + m − = 0 ⇐=
−1 4
2 1
m=
c1 = 0 ⇐= f2 (x) = x − 4
2
c2 = 1
los demás coeficientes b1 = b2 = b3 = · · · = bn = 0 y c3 = c4 = · · · = cn = 0. Dado que N = 1 se tiene que la
ecuación (11.12)
a1 [(m + 1) (m + 1 − 1) + b0 (m + 1) + c0 ] + a0 [b1 (m + 1 − 1) + c1 ] + · · · = 0 (11.28)
| {z }
EI(m+N )
1
1
1
1
a1 − +1 − + − +1 − + a0 [0] = 0 ⇒ a1 [0] + a0 [0] = 0 (11.29)
2 2 2 4
| {z }
! !
1
EI − +1
2
con lo cual cualquier valor de a1 y a0 estarán permitidos. La relación de recurrencia proviene de anular el
1
coeficiente de xm+n , para m = − . Vale decir
2
X∞
an EI (m + n) + ak [(m + k) bn−k + cn−k ] = 0 ⇒ (11.30)
k=0
1 1 1 1
an − +n − +n−1 + − +n − + an−1 [0] + an−2 [1] = 0 (11.31)
2 2 2 4
an n2 − n = −an−2 (11.32)
los coeficientes serán
1 1
n = 2 =⇒ a2 = − a0 n = 3 =⇒ a3 = − a1
2 6
1 1 1 1
n = 4 =⇒ a4 = − a2 = a0 n = 5 =⇒ a5 = − a3 = a1
12 24 20 120
1 1 1 1
n = 6 =⇒ a4 = − a4 = − a0 n = 7 =⇒ a7 == − a5 = − a1
30 720 42 5040
.. ..
. .
Por lo cual, la solución general será
1 1
− 1 1 1 6 − 1 1 5 1 7
y(x) = a0 x 2 1 − x2 + x4 − x + · · · + a1 x 2 − x + x − x + ···
2 24 720 6 120 5040
PN −1
Para considerar el segundo caso, EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] 6= 0 analicemos
la ecuación diferencial
x2 y ′′ + x (2 − x) y ′ + 2 − x2 y = 0
una vez más, la expansión en serie de Frobenius de y (x) nos lleva a una ecuación indicadora del tipo
b0 = −2
⇐= f1 (x) = −2 + x
b 1 = 1
m=2
⇐= m (m − 1) − 2m + 2 = 0 ⇐=
c0 = 2
m=1
c1 = 0 ⇐= f2 (x) = x2 + 2
c2 = 1
an n2 + n + an−1 (n + 1) = −an−2 (11.37)
y queda como ejercicio demostrar la relación de recurrencia para los coeficientes Bn de la serie que describe
∞
!
X
i
u (x) = x Bi x (11.39)
i=0
tendremos
a1 = a3 = a5 = · · · = 0
a0
a2 = −
2 (2k + 2)
a0
a4 =
2 · 4 (2k + 2) (2k + 4)
..
.
n a0
a2n = (−1) 2n
2 n! (k + 1) (k + 2) · · · (k + n)
donde
∞
X (−1)
n x 2n−k
J−k (x) = x>0
n=0
Γ (n + 1) Γ (n − k + 1) 2
−k
Para x < 0 se debe reemplazar x−k por kxk . Nótese que esta última expresión también es válida para k
semientero, i.e. k = n + 12 .
Caso 2: r1 = r2 = r ⇒ k = 0.
La solución general será de la forma
∞
X
K0 (x) = ãn xn + J0 (x) ln x
n=0
y los coeficientes ãn se encuentran mediante el tradicional método de sustituirlos en la ecuación de Bessel
para k = 0
xy ′′ + y ′ + xy = 0;
De donde se obtiene
∞
X ∞
X
xK0 (x) = ãn xn+1 + xJ0 (x) ln x = ãn−2 xn−1 + xJ0 (x) ln x
n=0 n=3
X∞ X∞
′ J0 (x)
K0′ (x) = nãn xn−1 + (J0 (x) ln x) = nãn xn−1 + J0′ (x) ln x +
n=0 n=1
x
X∞
J0 (x)
xK0′′ (x) = n (n − 1) ãn xn−1 + xJ0′′ (x) ln x + 2J0′ (x) −
n=2
x
y por lo tanto
∞
X 2 n−1
ã1 + 4ã2 x + n ãn + ãn−2 x + xJ0′′ + J0′ + xJ0 ln x + 2J0′ (x) = 0
| {z }
n=3
= 0
Ahora multiplicando la expresión por x y separando las sumatorias en sus términos pares e impares, tendre-
mos
∞ h
X i
2
ã1 x + (2n + 1) ã2n+1 + ã2n−1 x2n+1 = 0
n=1
X∞ h i ∞
X
2 n+1 2n
(2n) ã2n + ã2n−2 x2n + 4ã2 x2 = x2 + (−1) 2x
2n
En Fı́sica, es costumbre expresar esta solución de una forma equivalente pero ligeramente diferente:
n
1 x 2n 2 h x i
∞
2 X (−1) 1 1
Y0 (x) = − 2 1 + + + · · · + + J0 (x) ln + γ
π n=0 (n!) 2 3 k 2 π 2
Procediendo de forma equivalente a la situación anterior tenemos que la solución general podrá expresarse
(luego de una laboriosa faena) como
1 X (k − n − 1)! x 2n−k Hk x k
k−1
Kk (x) = − − −
2 n=0 n! 2 2k! 2
1 X (−1) [Hn + Hn+k ] x 2n+k
∞ n
− + Jk (x) ln x
2 n=1 n! (k + n)! 2
1 X (k − n − 1)! x 2n−k Hk x k
k−1
Yk (x) = − 2 − −
π n=0 (n!) 2 πk! 2
1 X (−1) [Hn + Hn+k ] x 2n+k 2 h x i
∞ n
− + Jk (x) ln + γ
π n=1 n! (k + n)! 2 π 2
En ambos casos
1 1 1
Hn = 1 + + + ··· +
2 3 n
Más aún
1 X (k − n − 1)! x 2n−k
k−1
2 x
Yk (x) = Jk (x) ln − 2
π 2 π n=0 (n!) 2
∞
1 X (−1)
n x 2n+k
− [ψ(n + 1) + ψ(n + k + 1)]
π n=1 n! (k + n)! 2
Γ′ (n)
donde ψ(n) = es la función Digamma con
Γ(n)
1 1 1
ψ(n + 1) = −γ + 1 + + + ··· +
2 3 n
ψ(1) = −γ
También es costumbre definir la función de Bessel de segunda especie en terminos de las de primera especie
Jk (x) cos kπ − J−k (x)
Nk (x) = Yk (x) =
sen kπ
Nótese que para k = m entero, aparentemente no esta definida. Pero, aplicando la regla de L’Hospital
d
[Jk (x) cos kπ − J−k (x)]
Nm (x) = dk
d
[sen kπ]
dk k=m
d d
−πJn (x) sen nπ + cos nπ Jk (x) − J−k (x)
dk dk
=
π cos nπ
k=m
1 d n d
= Jk (x) − (−1) J−k (x)
π dk dk k=m
De este modo, la soluciónes generales para la ecuación de Bessel, se expresan según el caso en
Zk (x) = C1 Jk (x) + C2 J−k (x); k 6= entero
Z̃k (x) = C1 Jk (x) + C2 Yk (x); k=0 ∨ entero
Unos cambios apropiados nos llevan a demostrar las segunda de las relaciones y al desarrollar las derivadas
k ′
x Jk (x) = kxk−1 Jk (x) + xk Jk′ (x) = xk Jk−1 (x)
−k ′
x Jk (x) = −kx−k−1 Jk (x) + x−k Jk′ (x) = −x−k Jk+1 (x)
Por lo cual
Al sumar y restar miembro a miembro obtenemos las relaciones de recurrencia. Es obvia la importancia que
adquieren J1 (x) y J0 (x) para generar el resto de las funciones de Bessel.
pero como
3 3 5 2n + 1 3 1 · 3 · 5 · · · (2n + 1)
Γ n+ = · · ··· =Γ
2 2 2 2 2 2n
se encuentra que
r ∞
xX
n
(−1)
J1/2 (x) = 3
x2n
2 n=0 2n n!Γ 2 1 · 3 · 5 · · · (2n + 1)
x x2 x4 x6
=√ 1− + − + ···
2xΓ 23 2·3 2·4·3·5 2·4·6·3·5·7
1 x3 x5 x7 1
=√ 1− + − + ··· = √ sen x
2xΓ 23 3! 5! 7! 2xΓ 32
3
√
π
Finalmente, y otra vez invocando a las propiedades de la función Gamma: Γ 2 = 2
r
2
J1/2 (x) = sen x
πx
En general
r
n 2 n+ 1 dn sen x
Jn+ 12 (x) = (−1) x 2 n n = 1, 2, 3, · · ·
π (xdx) x
r
2 n+ 1 dn cos x
Jn+ 12 (x) = x 2 n n = −1, −2, −3, · · ·
π (xdx) x
Las funciones de Bessel de órden semientero son las únicas funciones de Bessel que pueden ser expresadas
en términos de funciones elementales.
11.9.4. Reflexión:
Las funciones de Bessel cumplen con
m
J−m (x) = (−1) Jm (x)
Para el caso k = m entero positivo la Función de Bessel de primera especie toma la forma de
∞
X (−1)
n x 2n+m
Jm (x) =
n=0
n! (n + m)! 2
Si k = −m es un entero negativo los primeros m términos de la serie anterior se anulan ya que Γ(n) → ∞
para n = −1, −2, −3, · · · y la serie se arma como
∞
X (−1) x 2n+m X (−1)
n ∞ x 2l+m
l+m
J−m (x) = =
n=m
n! (n − m)! 2 (l + m)! l! 2
l=0
m
J−m (x) = (−1) Jm (x)
B(x, t) = e 2 (t− t )
x 1
y por lo tanto
∞
X
cos (x sen θ) + i sen (x sen θ) = Jn (x) [cos (nθ) + i sen (nθ)]
n=−∞
m
igualando partes reales e imaginarias y recordando que J−m (x) = (−1) Jm (x), para anular los términos
impares en la serie de la parte real y los pares en la de la parte imaginaria, podemos escribir
∞
X
cos (x sen θ) = J0 (x) + 2 J2n (x) cos (2nθ)
n=1
∞
X
sen (x sen θ) = 2 J2n+1 (x) sen ([2n + 1] θ)
n=0
Multiplicando miembro a miembro en la primera de ellas por cos (2kθ) (y por cos ([2k + 1] θ) ) y la segunda
por sen ([2k + 1] θ) (y por sen (2kθ)). Integrando (en 0 ≤ θ ≤ π), también miembro a miembro y término por
término en las series, se obtienen
Z
1 π
J2n (x) = cos (x sen θ) cos (2nθ) dθ
π 0
Z
1 π
0= cos (x sen θ) cos ([2n + 1] θ) dθ
π 0
Z π
1
J2n+1 (x) = sen (x sen θ) sen ([2n + 1] θ) dθ
π 0
Z π
1
0= sen (x sen θ) sen (2nθ) dθ
π 0
Sumando miembro a miembro primera con cuarta y segunda con tercera tendremos la expresión integral
para las funciones de Bessel Z
1 π
Jn (x) = cos (cos (nθ) − x sen θ) dθ
π 0
ya que todos sabemos que
cos (nθ − x sen θ) = cos (2nθ) cos (x sen θ) + sen (2nθ) sen (x sen θ)
Multiplicando apropiadamente por Jk (β1 x) y Jk (β2 x), Integrando y restando miembro a miembro tendremos
que
Z Z 1n o
1 ′ ′
β22 − β12 xJk (β1 x)Jk (β2 x)dx = Jk (β2 x) [xJk′ (β1 x)] − Jk (β1 x) [xJk′ (β2 x)] dx
0 0
Z 1
′
= [Jk (β2 x)xJk′ (β1 x) − Jk (β1 x)xJk′ (β2 x)] dx
0
x=1
= Jk (β2 x)xJk′ (β1 x) − Jk (β1 x)xJk′ (β2 x)|x=0
para βi las raı́ces de los polinomios de Bessel, i.e. Jk (βi ) = 0 podemos deducir que las funciones de Bessel
son ortogonales Z
1
βi2 − βj2 xJk (βi x)Jk (βj x)dx ∝ δij
0
Más aún partiendo de la ecuación de Bessel original se puede llegar a
2 1 ′ 2 β 2 − k2 2
kJk (βx)k = [Jk (β)] + [Jk (β)]
2 2β 2
Para probar la equivalencia de las dos primeras definiciones inventamos las siguiente función de dos variables
Z n n
t
F (z, n) = 1− tz−1 dt Re z > 0
0 n
Por lo tanto
n
1 Y z −z ln n
= z lı́m 1+ e
Γ (z) n→∞
m=1
m
Ahora bien, multiplicando y dividiendo por
n
Y Pn
ez/m = ez( )
1
m=1 m
m=1
nos queda ( )
1 n Pn o n
Y z −z/m
= z lı́m ez(( m=1 )−ln n)
1
m lı́m 1+ e
Γ (z) n→∞ n→∞
m=1
m
Donde, la serie exponente del primero de los términos converge a un valor constante y cual ha quedado
bautizado como la constante de Euler-Mascheroni
( n ! )
1 1 1 1 X 1
γ = lı́m 1 + + + + · · · − ln n = lı́m − ln n
n→∞ 2 3 4 n n→∞
m=1
m
γ = 0,5772156649015328606065112 · · ·
Con lo cual queda demostrada la tercera de las propuestas para expresar la Función Gamma
∞ z
1 Y z −
= zeγz 1+ e n
Γ (z) n=1
n
Γ (z + 1) = z Γ (z)
Z ∞ z−1
x dx π
Γ (z) Γ (1 − z) = =
0 (1 + x) sen πz
1 √
22z−1 Γ (z) Γ z + = πΓ (2z)
2
La primera de ellas (la relación de recurrencia) es trivial y se obtiene integrando por partes la definición
integral de Euler.
Z ∞ Z ∞
−t z
−t z−1 ∞
Γ (z + 1) = e t dt = z e t 0
+z e−t tz−1 dt = zΓ (z)
0 0
El primer sumando de la integración por partes se anula siempre. Esta propiedad es válida ∀z con z 6=
0, −1, −2, · · · .
La segunda de las propiedades (fórmula de reflexión) se comprueba también partiendo de definición
integral de Euler con el siguiente cambio de variable t = u2 .
Z ∞ Z ∞
2 2
Γ (z) Γ (1 − z) = 2 e−u u2z−1 du 2 e−v v 1−2z dv
Z0Z ∞ 0
2z−1
−(u2 +v 2 ) u
=4 e dudv
0 v
si ahora hacemos u = ρ cos ϕ y v = ρ sen ϕ, la integral anterior queda como
Z ∞ Z π/2
−ρ2
Γ (z) Γ (1 − z) = 4 ρe dρ cot2z−1 ϕdϕ
0 0
Z π/2
1
=4· cot2z−1 ϕdϕ
2 0
Finalmente, si
√ −dx
ϕ = arccot x; dϕ = √
2 x (1 + x)
nos queda Z ∞
xz−1 dx π
Γ (z) Γ (1 − z) = =
0 (1 + x) sen πz
Es inmediato volver a comprobar
1 √
Γ = π
2
Del mismo modo, si utilizamos además la relación de recurrencia encontramos
π
Γ (z) Γ (−z) =
−z sen πz
La fórmula de duplicación y puede comprobarse partiendo de la definición del lı́mite de Euler, ası́
22z−1 Γ (z) Γ z + 21 √
= π
Γ (2z)
Hay que hacer notar que en el numerador sustituimos directamente las expresiones para del lı́mite de Euler
y en la del denominador, adicionalmente sustituimos n por 2n
1 · 2 · 3 · ··· · n 1 · 2 · 3 · · · · · 2n 2z
Γ (2z) = lı́m n2z = lı́m (2n)
n→∞ 2z (2z + 1) · · · (2z + n) n→∞ 2z (2z + 1) · · · (2z + 2n)
por lo cual se tiene la siguiente expresión dentro del argumento del lı́mite
!
1 · 2 · 3 · ··· · n 1 · 2 · 3 · ··· · n z+ 21
22z−1 n z n
z (z + 1) (z + 2) · · · (z + n) z + 21 z + 32 · · · z + 1
2 +n
1 · 2 · 3 · · · · · 2n 2z
(2n)
2z (2z + 1) (2z + 2) · · · (2z + 2n)
y 2 1
z z + 21 (z + 1) z + 32 (z + 2) · · · z + n2 2n−1 22z−1 (n!) nz+ 2
lı́m · ·
n→∞ z z + 1 (z + 1) z + 3 (z + 2) · · · z + 1 + n (z + n) (2n)! 22z n2z
2 2 2
Entonces
1 2√
22z−1 Γ (z) Γ z + 2 2n−2 (n!) n
= lı́m
Γ (2z) n→∞ (2n)!
por lo cual se deduce que el valor de lado izquierdo de la ecuación es independiente del valor de z por lo
tanto es el mismo valor para cualquier z y lo evaluamos para z = 21
22z−1 Γ (z) Γ z + 12 1 √
=Γ = π
Γ (2z) 2
(1−n)/2 1
Y
n−1
k
Γ (nz) = (2π) nnz− 2 z+
n
k=0
z z! Γ (z + 1)
= =
w w!(z − w)! Γ (w + 1) Γ (z − w + 1)
A partir de Γ (z) se definen otras funciones especiales, las cuales se expresan conjuntamente con sus propie-
dades como
ahora derivando,
d 1 1 1
ln (z!) ≡ F(z) = lı́m ln n − − − ··· −
dz n→∞ (z + 1) (z + 2) (z + n)
tendremos
Z ∞ Z ∞ −x
e − e−xt
Γ′ (z) = e−t tz−1 dx dt
x
Z0 ∞ Z ∞ 0
dx
= e−x − e−xt e−t tz−1 dt
x
Z0 ∞ 0
Z Z ∞ Z
dx −x ∞ −t z−1 dx ∞ −t(x+1) z−1
= e e t dt − e t dt
0 x 0 0 x 0
Z ∞
dx h −x −z
i
= Γ (z) e − (x + 1)
0 x
R∞
ya que Γ (z) = k z 0
e−kt tz−1 dt y por lo tanto
Z ∞
dx h −x −z
i
ψ(z) = e − (x + 1)
0 x
como
F(m) (0) = −1)m+1 m!ζ(m + 1)
de esta forma es posible desarrollar en serie de Maclaurin
z2 z3 n z
n
ln(n!) = −γ + ζ(2) − ζ(3) + · · · + (−1) ζ(n) + · · ·
2 3 n
Para valores x ≫ 1 se expande, en series de Taylor los exponenciales que contengan términos √1
x
Z
xx e−x ∞ 1 2 1 1 4 1 5
Γ (x) ≈ √ dve− 2 v 1 + √ v3 − v + 3 v − · · · +
x −∞ 3 x 4x 5x 2
2
1 1 3 1 4 1 5
+ √ v − v + 3 v − ··· +
2! 3 x 4x 5x 2
3 )
1 1 3 1 4 1 5
+ √ v − v + 3 v − ··· + ···
3! 3 x 4x 5x 2
Z 1
y−1
B(x, y) = tx−1 (1 − t) dt Re x > 0 ∧ Re y > 0
0
Γ (x) Γ (y)
B(x, y) =
Γ (x + y)
Obviamente Φ(0) = 0 y Φ(∞) = 1. A partir de esta función se define la Función Error y su complemento
Z z √
2 π
erf(z) = e−t dt =Φ(z)
0 2
Z z √
2 π
erf c(z) = e−t dt = [1 − Φ(z)]
z 2
Z α
γ (z, α) = e−t tz−1 dt
0
Z ∞
Γ (z, α) = e−t tz−1 dt
α
γ (z + 1, α) = zγ (z, α) − αz e−α
Γ (z + 1, α) = zΓ (z, α) + αz e−α
[1] M. L. Abell y J. P Braselton (1994) Differential Equations with MAPLE V (Academic Press, New
York).
[2] F. Ayres (1952) Differential Equations. (Shaum’s Series McGraw-Hill, New York) (Existe Traduc-
ción).
[3] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)
[4] W. E. Boyce y R.C. DiPrima. Elementary Differential Equations and Boundary Problems. (8th
Edition) John Wiley, New York, 2004. (Existe Traducción)
[5] C. H. Edwards, D. E. Penney (2003) Elementary Diffential Equations with Boundary Value
Problems (Prentice Hall, Englewood Cliff, N.J:)
[9] N. N. Lebevedev (1972) (Special Functions and Their Applications. Dover, New York )
485
Métodos Matemáticos de la Fı́sica